JP2008182680A - Monitoring system, monitoring method, and program - Google Patents

Monitoring system, monitoring method, and program Download PDF

Info

Publication number
JP2008182680A
JP2008182680A JP2007323646A JP2007323646A JP2008182680A JP 2008182680 A JP2008182680 A JP 2008182680A JP 2007323646 A JP2007323646 A JP 2007323646A JP 2007323646 A JP2007323646 A JP 2007323646A JP 2008182680 A JP2008182680 A JP 2008182680A
Authority
JP
Japan
Prior art keywords
image
unit
output
area
condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007323646A
Other languages
Japanese (ja)
Other versions
JP4979083B2 (en
Inventor
Yukinori Noguchi
幸典 野口
Tetsuya Takamori
哲弥 高森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007323646A priority Critical patent/JP4979083B2/en
Priority to US11/965,603 priority patent/US7940963B2/en
Publication of JP2008182680A publication Critical patent/JP2008182680A/en
Application granted granted Critical
Publication of JP4979083B2 publication Critical patent/JP4979083B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a detailed monitor image without unnecessarily increasing the data amount required to transmit a monitor image per unit time. <P>SOLUTION: A monitoring system according to the present invention includes: an image capturing section that captures a motion image of a monitor region; a condition storing section that stores a condition of an object to be extracted from the motion image; a matching judging section that judges whether an object that matches the condition exists in the motion image; an object region identifying section that identifies an object region that includes the object that matches the condition, if the matching judging section has judged that the object that matches the condition exists; an output section that outputs an image of the object region, if the matching judging section has judged that the object that matches the condition exists; and an output control section that controls the output section to output an image of a region other than the object region retained in an image retaining section, if it is judged that the image of the region other than the object region retained in the image retaining section is to be transmitted, after the image retaining section retained the image of the region other than the object region. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、監視システム、監視方法、及びプログラムに関する。特に本発明は、画像により監視する監視システム及び監視方法、並びに監視システム用のプログラムに関する。   The present invention relates to a monitoring system, a monitoring method, and a program. In particular, the present invention relates to a monitoring system and a monitoring method for monitoring by an image, and a program for the monitoring system.

動画圧縮部において検出された動きベクトルが所定値未満の期間には、撮像部に供給される同期信号の周期を比較的長くすることで撮像部による撮像のフレームレートを低下させ、動きベクトルが所定値以上の期間には、同期信号の周期を比較的短くすることで撮像のフレームレートを高くする撮影装置が知られている(例えば、特許文献1参照。)。
特開2004−200989号公報
During a period when the motion vector detected by the video compression unit is less than a predetermined value, the period of the synchronization signal supplied to the imaging unit is made relatively long to lower the frame rate of imaging by the imaging unit, so that the motion vector is predetermined An imaging device is known that increases the frame rate of imaging by relatively shortening the period of the synchronization signal during a period longer than the value (see, for example, Patent Document 1).
JP 2004-200909 A

特許文献1に記載の撮影装置は、動きが検出されていない間は低フレームレートで撮像し、撮影している低フレームレートの画像から所定値以上の動きが検出されると、撮像のフレームレートを高くしたり、撮像の解像度を高める。このため、特許文献1に記載の撮影装置によると、動きが検出された場合に生成される監視画像のデータ量は非常に大きくなってしまう。そのような監視画像を外部に送信しようとすると、監視画像が送信先に到達するのまでに長い時間を要してしまう場合がある。このため、監視者が監視画像を迅速に閲覧することができず、不審者に迅速に対応することができなくなる虞がある。   The imaging device described in Patent Literature 1 captures images at a low frame rate while no motion is detected, and when a motion of a predetermined value or more is detected from the captured low frame rate image, the imaging frame rate Or increase the resolution of imaging. For this reason, according to the imaging device described in Patent Document 1, the amount of data of the monitoring image generated when motion is detected becomes very large. When such a monitoring image is transmitted to the outside, it may take a long time for the monitoring image to reach the transmission destination. For this reason, there is a possibility that the monitoring person cannot quickly view the monitoring image and cannot quickly respond to the suspicious person.

そこで本発明は、上記課題を解決することができる監視システム、監視方法、及びプログラムを提供することを目的とする。この目的は特許請求の範囲における独立項に記載の特徴の組み合わせにより達成される。また従属項は本発明の更なる有利な具体例を規定する。   Then, an object of this invention is to provide the monitoring system, the monitoring method, and program which can solve the said subject. This object is achieved by a combination of features described in the independent claims. The dependent claims define further advantageous specific examples of the present invention.

上記課題を解決するために、本発明の第1の形態における監視システムは、監視領域の動画を撮像する撮像部と、撮像部が撮像した動画から抽出されるべきオブジェクトの条件を格納する条件格納部と、撮像部が撮像した動画に条件に適合するオブジェクトが存在するか否かを判断する適合判断部と、適合判断部が条件に適合するオブジェクトが存在する旨を判断した場合に、条件に適合するオブジェクトを含むオブジェクト領域を特定するオブジェクト領域特定部と、適合判断部が条件に適合するオブジェクトが存在する旨を判断した場合に、オブジェクト領域の画像を出力する出力部と、適合判断部が条件に適合するオブジェクトが存在する旨を判断した場合に、オブジェクト領域以外の領域の画像を保持する画像保持部と、画像保持部がオブジェクト領域以外の領域の画像を保持した後に、画像保持部が保持しているオブジェクト領域以外の領域の画像を送信すべき旨を判断した場合に、画像保持部が保持しているオブジェクト領域以外の領域の画像を出力部に出力させる出力制御部とを備える。   In order to solve the above-described problem, a monitoring system according to a first embodiment of the present invention includes an imaging unit that captures a moving image of a monitoring area, and a condition storage that stores a condition of an object to be extracted from the moving image captured by the imaging unit. And a conformity determination unit that determines whether or not there is an object that satisfies the condition in the moving image captured by the image capturing unit, and the conformity determination unit determines that there is an object that conforms to the condition. An object region specifying unit that specifies an object region that includes a conforming object, an output unit that outputs an image of the object region when the conformity determining unit determines that an object conforming to the condition exists, and a conformity determining unit An image holding unit that holds an image of an area other than the object area when it is determined that there is an object that meets the conditions; and an image holding unit When it is determined that an image of an area other than the object area held by the image holding unit should be transmitted after holding the image of the area other than the object area, the image of the object other than the object area held by the image holding unit is stored. An output control unit that causes the output unit to output an image of the region.

出力部から出力することが許容されている単位時間あたりのデータ量を取得する許容データ量取得部をさらに備え、出力部は、適合判断部が条件に適合するオブジェクトが存在する旨を判断した場合に、オブジェクト領域の画像を出力し、出力制御部は、画像保持部がオブジェクト領域以外の領域の画像を保持した後の監視領域の動画において、適合判断部が条件に適合するオブジェクトが存在しない旨を判断した場合に、許容データ量取得部が取得したデータ量が予め定められた値より大きいことを条件として、画像保持部が保持しているオブジェクト領域以外の領域の画像を、出力部に出力させてよい。   When the output unit further includes an allowable data amount acquisition unit that acquires the amount of data per unit time allowed to be output from the output unit, and the output unit determines that there is an object that meets the conditions In addition, the image of the object area is output, and the output control unit indicates that there is no object that the conformity determination unit satisfies the condition in the moving image of the monitoring area after the image holding unit holds the image of the area other than the object area. If the data amount acquired by the allowable data amount acquisition unit is larger than a predetermined value, an image of an area other than the object area held by the image holding unit is output to the output unit. You may let me.

本発明の第2の形態における監視方法は、監視領域の動画を撮像する撮像段階と、撮像段階において撮像された動画を出力する出力段階と、撮像段階において撮像された動画から抽出されるべきオブジェクトの条件を格納する条件格納段階と、撮像段階において撮像された動画に条件に適合するオブジェクトが存在するか否かを判断する適合判断段階と、適合判断段階において条件に適合するオブジェクトが存在する旨が判断された場合に、条件に適合するオブジェクトを含むオブジェクト領域を特定するオブジェクト領域特定段階と、適合判断段階において条件に適合するオブジェクトが存在する旨が判断された場合に、オブジェクト領域の画像を出力する出力段階と、適合判断段階において条件に適合するオブジェクトが存在する旨が判断された場合に、オブジェクト領域以外の領域の画像を保持する画像保持段階と、画像保持段階においてオブジェクト領域以外の領域の画像を保持された後に、画像保持段階において保持されているオブジェクト領域以外の領域の画像を送信すべき旨が判断された場合に、画像保持段階において保持されているオブジェクト領域以外の領域の画像を出力段階において出力させる出力制御段階とを備える。   The monitoring method according to the second aspect of the present invention includes an imaging stage for capturing a moving image of a monitoring area, an output stage for outputting a moving image captured in the imaging stage, and an object to be extracted from the moving image captured in the imaging stage. A condition storage stage for storing the above conditions, a conformity determination stage for determining whether or not there is an object that meets the conditions in the moving image captured in the imaging stage, and an object that meets the conditions in the conformity determination stage. If it is determined that there is an object region that includes an object region that includes an object that satisfies the condition, and that an object that meets the condition exists in the conformity determination step, an image of the object region is displayed. It is determined that there are objects that meet the conditions in the output stage and the conformity judgment stage. An image holding stage for holding an image of an area other than the object area, and an area other than the object area held in the image holding stage after holding an image of the area other than the object area in the image holding stage. An output control stage for outputting an image in an area other than the object area held in the image holding stage in the output stage when it is determined that the image is to be transmitted.

本発明の第3の形態によると、監視システム用のプログラムであって、監視システムを、監視領域の動画を撮像する撮像部、撮像部が撮像した動画から抽出されるべきオブジェクトの条件を格納する条件格納部、撮像部が撮像した動画に条件に適合するオブジェクトが存在するか否かを判断する適合判断部、適合判断部が条件に適合するオブジェクトが存在する旨を判断した場合に、条件に適合するオブジェクトを含むオブジェクト領域を特定するオブジェクト領域特定部、適合判断部が条件に適合するオブジェクトが存在する旨を判断した場合に、オブジェクト領域の画像を出力する出力部、適合判断部が条件に適合するオブジェクトが存在する旨を判断した場合に、オブジェクト領域以外の領域の画像を保持する画像保持部、画像保持部がオブジェクト領域以外の領域の画像を保持した後に、画像保持部が保持しているオブジェクト領域以外の領域の画像を送信すべき旨を判断した場合に、画像保持部が保持しているオブジェクト領域以外の領域の画像を出力部に出力させる出力制御部として機能させる。   According to the third aspect of the present invention, there is provided a program for a monitoring system, in which the monitoring system stores an image capturing unit that captures a moving image of a monitoring area, and a condition of an object to be extracted from the moving image captured by the image capturing unit. When the condition storage unit, the conformity determination unit that determines whether there is an object that meets the condition in the moving image captured by the imaging unit, or the conformity determination unit determines that there is an object that meets the condition, An object region specifying unit that identifies an object region that includes a conforming object, and an output unit that outputs an image of the object region when the conformity determining unit determines that there is an object that conforms to the condition. An image holding unit and an image holding unit for holding an image of an area other than the object area when it is determined that a matching object exists When it is determined that an image of an area other than the object area held by the image holding unit should be transmitted after holding the image of the area other than the object area, the image of the object other than the object area held by the image holding unit is stored. It functions as an output control unit that causes the output unit to output an image of the region.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではなく、これらの特徴群のサブコンビネーションもまた、発明となりうる。   The above summary of the invention does not enumerate all the necessary features of the present invention, and sub-combinations of these feature groups can also be the invention.

本発明によれば、監視画像を送信するのに要する単位時間あたりのデータ量を必要以上に増やすことなく、詳細な監視画像を提供することができる監視システムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the monitoring system which can provide a detailed monitoring image can be provided, without increasing the data amount per unit time required to transmit a monitoring image more than necessary.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではなく、また実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention. However, the following embodiments do not limit the invention according to the scope of claims, and all combinations of features described in the embodiments are included. It is not necessarily essential for the solution of the invention.

図1は、一実施形態に係る監視システム110の利用環境の一例を示す。監視システム110は、複数の撮像装置100a〜cと、伝送経路140と、サーバ170と、複数の表示装置180、181、182・・・とを備える。サーバ170及び複数の表示装置180、181、182・・・は、監視領域150、151、152・・・の遠方の監視室160に設けられる。なお、撮像装置100a〜cは、複数の監視領域150、151、152・・・を撮像すべく、複数の監視領域150、151、152・・・のそれぞれに設けられる。以後、複数の監視領域150、151、152・・・のそれぞれに設けられる撮像装置100a〜cを撮像装置100と総称する。   FIG. 1 shows an example of a usage environment of a monitoring system 110 according to an embodiment. The monitoring system 110 includes a plurality of imaging devices 100a to 100c, a transmission path 140, a server 170, and a plurality of display devices 180, 181, 182,. The server 170 and the plurality of display devices 180, 181, 182,... Are provided in a monitoring room 160 far from the monitoring areas 150, 151, 152,. The imaging devices 100a to 100c are provided in each of the plurality of monitoring regions 150, 151, 152,... To capture the plurality of monitoring regions 150, 151, 152,. Hereinafter, the imaging devices 100 a to 100 c provided in each of the plurality of monitoring areas 150, 151, 152.

撮像装置100は、監視領域150、151、152・・・を撮像した動画を伝送経路140を通じてサーバ170に送信する。サーバ170は、撮像装置100から受け取った動画を、表示装置180、181、182・・・に表示させる。表示装置180、181、182・・・は、それぞれ監視領域150、151、152・・・の動画を表示する。   The image capturing apparatus 100 transmits moving images obtained by capturing the monitoring areas 150, 151, 152... To the server 170 through the transmission path 140. The server 170 displays the moving image received from the imaging device 100 on the display devices 180, 181, 182,. The display devices 180, 181, 182,... Display moving images in the monitoring areas 150, 151, 152,.

撮像装置100は、表示装置180、181、182・・・が表示することができるモニタ解像度より高い解像度のフレーム画像を、表示装置180、181、182・・・が表示することができる動画の表示レートであるモニタ表示レートより高いフレームレートで動画を撮像する。そして、撮像装置100は、撮像した動画に人物又は変化が検出されていない間、撮像装置100が撮像した動画をモニタ解像度以下の解像度のフレーム画像がモニタ表示レート以下のレートで表示される動画に変換して、サーバ170に送信し続ける。   The imaging apparatus 100 displays a moving image that can be displayed by the display devices 180, 181, 182... With a frame image having a higher resolution than the monitor resolution that can be displayed by the display devices 180, 181, 182. A moving image is captured at a frame rate higher than the monitor display rate, which is the rate. The imaging device 100 converts the moving image captured by the imaging device 100 into a moving image in which a frame image having a resolution equal to or lower than the monitor resolution is displayed at a rate equal to or lower than the monitor display rate while no person or change is detected in the captured moving image. Convert and continue to send to server 170.

そして、撮像装置100は、動画に人物又は変化が検出されると、撮像した高い解像度・高フレームレートの動画を、動画に人物又は変化が検出されなくなるまでサーバ170に送信し続ける。サーバ170は、撮像装置100から受け取った動画を記録するとともに、受け取った動画をモニタ解像度及びモニタ表示レートに合わせて表示装置180、181、182・・・に表示させる。   Then, when a person or change is detected in the moving image, the imaging apparatus 100 continues to transmit the captured high resolution / high frame rate moving image to the server 170 until no person or change is detected in the moving image. The server 170 records the moving image received from the imaging device 100 and displays the received moving image on the display devices 180, 181, 182,... According to the monitor resolution and the monitor display rate.

例えば、撮像装置100は、撮像して得られた複数のフレーム画像を時間的に平均化して得られた平均化画像から変化を検出したり、平均化画像に含まれる人物を検出する。例えば、撮像装置100は、時間的に連続する平均化画像の間において変化が検出された領域の面積が所定の閾値以上である場合に、動画に変化がある旨を検出する。そして動画から人物又は変化が検出されると、撮像装置100は、少なくとも人物又は変化が検出された部分領域において撮像時の解像度を有するフレーム画像を生成して、生成したフレーム画像を含む動画をサーバ170に送信する。また、撮像装置100は、人物の動きを検出した場合には、少なくとも人物の移動方向の側が広くなるよう設定された部分領域において撮像した解像度を有するフレーム画像を生成して、生成したフレーム画像を含む動画をサーバ170に送信する。   For example, the imaging apparatus 100 detects a change from an averaged image obtained by averaging a plurality of frame images obtained by imaging temporally, or detects a person included in the averaged image. For example, the imaging apparatus 100 detects that there is a change in the moving image when the area of a region where a change is detected between temporally averaged images is equal to or greater than a predetermined threshold. When a person or change is detected from the moving image, the imaging apparatus 100 generates a frame image having resolution at the time of imaging in at least a partial region where the person or change is detected, and the moving image including the generated frame image is stored in the server. To 170. In addition, when detecting the movement of a person, the imaging apparatus 100 generates a frame image having a resolution captured at least in a partial region set so that the moving direction side of the person is widened, and the generated frame image is The moving image including this is transmitted to the server 170.

また、撮像装置100は、人物又は変化が検出された部分領域をフレーム画像とする動画をサーバ170に送信してよい。このとき撮像装置100は、人物又は変化が検出された部分領域以外の領域の部分画像を保持しておく。上記のように、撮像装置100は、人物又は変化が検出されなくなると、画質を低減したフレーム画像をサーバ170に送信するので、人物又は変化が検出されなくなる期間には、伝送経路140が伝送するデータ量は低減する。したがって、撮像装置100は、当該期間に、保持しておいた部分画像をサーバ170に送信してもよい。   In addition, the imaging apparatus 100 may transmit, to the server 170, a moving image having a person or a partial area in which a change is detected as a frame image. At this time, the imaging apparatus 100 holds a partial image of a region other than the partial region in which a person or a change is detected. As described above, the image capturing apparatus 100 transmits a frame image with reduced image quality to the server 170 when no person or change is detected. Therefore, the transmission path 140 transmits during the period in which no person or change is detected. Data volume is reduced. Therefore, the imaging apparatus 100 may transmit the retained partial image to the server 170 during the period.

また、サーバ170は、伝送経路140が伝送することができる時間あたりのデータ量と、撮像装置100が送信する時間あたりのデータ量との差がより小さい場合に、より大きい閾値を撮像装置100に設定させる。これにより、伝送経路140を伝送するデータ量が増加して動画データの到達が遅延することを未然に防ぐことができる。   Further, the server 170 gives a larger threshold value to the image capturing apparatus 100 when the difference between the data amount per time that the transmission path 140 can transmit and the data amount per time transmitted by the image capturing apparatus 100 is smaller. Let it be set. Thereby, it is possible to prevent the amount of data transmitted through the transmission path 140 from increasing and the arrival of moving image data from being delayed.

なお、監視領域150、151、152・・・は、異なる建物内の空間であってよいし、同じ建物内の異なる空間であってもよい。例えば、監視領域150、151、152・・・は、店舗内の陳列棚の間の通路であってよい。また、監視領域150、151、152は、建物内の空間に限らず、建物によって囲われていない開放された空間であってよいことは言うまでもない。   The monitoring areas 150, 151, 152... May be spaces in different buildings, or may be different spaces in the same building. For example, the monitoring areas 150, 151, 152... May be passages between display shelves in the store. Needless to say, the monitoring areas 150, 151, and 152 are not limited to spaces in buildings, but may be open spaces that are not surrounded by buildings.

図2は、撮像装置100のブロック構成の一例を示す。撮像装置100は、撮像部200、平均化画像生成部202、撮像制御部210、オブジェクト領域特定部212、画像保持部214、差分画像生成部216、画像特徴量抽出部220、適合判断部230、条件格納部240、条件設定部242、許容データ量取得部250、画質選択部260、画質格納部262、出力制御部270、画像生成部280、及び出力部290を備える。適合判断部230は、一致度算出部232を有する。また、画像生成部280は、出力動画生成部282を有する。図3は、画像特徴量抽出部220のブロック構成の一例を示す。画像特徴量抽出部220は、変化量算出部221、動き量算出部222、動き方向特定部223、特定色面積算出部224、及びオブジェクト抽出部225を有する。   FIG. 2 shows an example of a block configuration of the imaging apparatus 100. The imaging apparatus 100 includes an imaging unit 200, an averaged image generation unit 202, an imaging control unit 210, an object region specification unit 212, an image holding unit 214, a difference image generation unit 216, an image feature amount extraction unit 220, a conformity determination unit 230, A condition storage unit 240, a condition setting unit 242, an allowable data amount acquisition unit 250, an image quality selection unit 260, an image quality storage unit 262, an output control unit 270, an image generation unit 280, and an output unit 290 are provided. The conformity determination unit 230 includes a matching degree calculation unit 232. Further, the image generation unit 280 includes an output moving image generation unit 282. FIG. 3 shows an example of a block configuration of the image feature quantity extraction unit 220. The image feature amount extraction unit 220 includes a change amount calculation unit 221, a motion amount calculation unit 222, a motion direction specification unit 223, a specific color area calculation unit 224, and an object extraction unit 225.

撮像部200は、監視領域の画像を撮像する。具体的には、撮像部200は、監視領域の動画を撮像する。平均化画像生成部202は、撮像部200が撮像した動画に含まれる複数の動画構成画像を平均化した平均化画像を生成する。例えば、平均化画像生成部202は、複数の動画構成画像を画素毎に平均化することによって、平均化画像を生成する。なお、条件格納部240は、異常が生じていると判断される動画に含まれる複数の動画構成画像が平均化された平均化画像が適合すべき条件を格納する。   The imaging unit 200 captures an image of the monitoring area. Specifically, the imaging unit 200 captures a moving image in the monitoring area. The averaged image generation unit 202 generates an averaged image obtained by averaging a plurality of moving image constituent images included in the moving image captured by the imaging unit 200. For example, the averaged image generation unit 202 generates an averaged image by averaging a plurality of moving image constituent images for each pixel. Note that the condition storage unit 240 stores a condition to which an averaged image obtained by averaging a plurality of moving image constituent images included in a moving image determined to be abnormal is to be matched.

そして、適合判断部230は、平均化画像生成部202が生成した平均化画像が条件に適合するか否かを判断する。そして、出力動画生成部282は、平均化画像が条件に適合しない旨を適合判断部230が判断した場合に、撮像部200が撮像した動画に含まれる動画構成画像から、適合判断部230が平均化画像が条件に適合する旨を判断した場合より低画質の動画構成画像を含む出力動画を生成する。そして、出力部290は、出力動画生成部282が生成した出力動画を出力する。例えば、出力部290は、複数の撮像部200が撮像した監視領域の動画を伝送する伝送経路140に、出力動画生成部282が生成した出力動画を出力する。なお、出力部290は、撮像部200が撮像した監視領域の動画を出力してもよい。例えば、出力部290は、平均化画像が条件に適合した旨を適合判断部230が判断した場合には、撮像部200が撮像した動画を出力してよい。   Then, the suitability determining unit 230 determines whether or not the averaged image generated by the averaged image generating unit 202 meets the conditions. Then, when the matching determination unit 230 determines that the averaged image does not match the condition, the output moving image generation unit 282 determines that the matching determination unit 230 calculates the average from the moving image constituent images included in the moving image captured by the imaging unit 200. An output moving image including a moving image constituent image with a lower image quality is generated than when it is determined that the converted image meets the conditions. Then, the output unit 290 outputs the output moving image generated by the output moving image generating unit 282. For example, the output unit 290 outputs the output moving image generated by the output moving image generation unit 282 to the transmission path 140 that transmits the moving image of the monitoring area captured by the plurality of imaging units 200. Note that the output unit 290 may output a moving image of the monitoring area captured by the imaging unit 200. For example, the output unit 290 may output a moving image captured by the image capturing unit 200 when the conformity determining unit 230 determines that the averaged image meets the conditions.

具体的には、出力動画生成部282は、平均化画像が条件に適合しない旨を適合判断部230が判断した場合に、平均化画像が条件に適合する旨を適合判断部230が判断した場合より低い解像度の動画構成画像を含む出力動画を生成する。また、出力動画生成部282は、平均化画像が条件に適合しない旨を適合判断部230が判断した場合に、平均化画像が条件に適合する旨を適合判断部230が判断した場合より少ない階調数の動画構成画像を含む出力動画を生成してよい。また、出力動画生成部282は、平均化画像が条件に適合しない旨を適合判断部230が判断した場合に、撮像部200が撮像した動画から、平均化画像が条件に適合する旨を適合判断部230が判断した場合より低い表示レートの出力動画を生成してよい。   Specifically, when the suitability determining unit 230 determines that the averaged image does not conform to the condition, the output moving image generating unit 282 determines that the averaged image conforms to the condition. An output moving image including a moving image constituent image having a lower resolution is generated. In addition, the output moving image generation unit 282, when the conformity determination unit 230 determines that the averaged image does not conform to the condition, has fewer floors than when the conformity determination unit 230 determines that the averaged image conforms to the condition. An output moving image including a moving image constituent image of the logarithm may be generated. Further, the output moving image generation unit 282 determines that the averaged image meets the condition from the moving image captured by the imaging unit 200 when the matching determination unit 230 determines that the averaged image does not match the condition. An output moving image with a lower display rate than that determined by the unit 230 may be generated.

なお、出力動画生成部282は、平均化画像が条件に適合しない旨を適合判断部230が判断した場合に、平均化画像生成部202が生成した平均化画像を含む出力動画を生成し、平均化画像が条件に適合する旨を適合判断部230が判断した場合に撮像部200が撮像した動画を出力動画としてよい。   Note that the output moving image generation unit 282 generates an output moving image including the averaged image generated by the averaged image generation unit 202 when the conformity determination unit 230 determines that the averaged image does not conform to the condition. The moving image captured by the image capturing unit 200 when the conformity determining unit 230 determines that the converted image matches the condition may be used as the output moving image.

差分画像生成部216は、平均化画像生成部202が生成した第1平均化画像と、当該第1平均化画像を生成するために用いられたいずれの動画構成画像より後に撮像された動画構成画像を用いて平均化画像生成部202が生成した第2平均化画像との間の差分画像を生成する。そして、出力動画生成部282は、平均化画像が条件に適合しない旨を適合判断部230が判断した場合に、差分画像生成部216が生成した差分画像を含む出力動画を生成し、平均化画像が条件に適合する旨を適合判断部230が判断した場合に撮像部200が撮像した動画を出力動画としてよい。   The difference image generation unit 216 includes a first averaged image generated by the averaged image generation unit 202 and a moving image constituent image captured after any moving image constituent image used to generate the first averaged image. Is used to generate a difference image from the second averaged image generated by the averaged image generation unit 202. Then, the output moving image generation unit 282 generates an output moving image including the difference image generated by the difference image generation unit 216 when the matching determination unit 230 determines that the averaged image does not match the condition, and the averaged image The moving image captured by the imaging unit 200 when the conformity determining unit 230 determines that the image matches the condition may be used as the output moving image.

許容データ量取得部250は、出力部290から出力することが許容されている単位時間あたりのデータ量を取得する。例えば、許容データ量取得部250は、伝送経路140が単位時間あたりに伝送することができるデータ量、出力制御装置172が単位時間当たりに処理することができるデータ量容量を取得してよい。そして、出力動画生成部282は、平均化画像が条件に適合しない旨を適合判断部230が判断した場合に、更に許容データ量取得部250が取得したデータ量が予め定められた値より小さいことを条件として、差分画像生成部216が生成した差分画像を含む出力動画を生成する。   The allowable data amount acquisition unit 250 acquires the data amount per unit time permitted to be output from the output unit 290. For example, the allowable data amount acquisition unit 250 may acquire the amount of data that the transmission path 140 can transmit per unit time and the amount of data that the output control device 172 can process per unit time. The output moving image generation unit 282 further determines that the data amount acquired by the allowable data amount acquisition unit 250 is smaller than a predetermined value when the conformity determination unit 230 determines that the averaged image does not conform to the conditions. As a condition, an output moving image including the difference image generated by the difference image generation unit 216 is generated.

なお、適合判断部230は、平均化画像における複数の部分領域のそれぞれが条件に適合するか否かを判断してよい。そして、出力動画生成部282は、適合判断部230が条件に適合する旨を判断した領域である適合領域以外の領域において適合領域より低画質な動画構成画像を含む出力動画を生成してよい。   Note that the suitability determination unit 230 may determine whether each of the plurality of partial regions in the averaged image meets the condition. Then, the output moving image generation unit 282 may generate an output moving image including a moving image constituent image having a lower image quality than the matching region in a region other than the matching region, which is a region where the matching determination unit 230 determines that the condition is met.

なお、オブジェクト抽出部225は、撮像部200が撮像した動画から、予め定められた条件に適合するオブジェクトを抽出する。具体的には、オブジェクト抽出部225は、撮像部200が撮像した動画に含まれる動画構成画像から、条件格納部240が格納している条件に適合するオブジェクトを抽出する。そして、画像生成部280は、オブジェクト抽出部225が抽出したオブジェクトの大きさがより大きい場合に、撮像部200が撮像した動画をより低画質の動画に変換する。そして、出力部290は、画像生成部280が変換して得られた動画を出力する。この場合、画像生成部280は、オブジェクト抽出部225が抽出したオブジェクトの大きさがより大きい場合に、撮像部200が撮像した動画をより低い解像度の動画に変換してよい。   The object extraction unit 225 extracts an object that meets a predetermined condition from the moving image captured by the imaging unit 200. Specifically, the object extraction unit 225 extracts an object that meets the conditions stored in the condition storage unit 240 from the moving image configuration image included in the moving image captured by the imaging unit 200. Then, when the size of the object extracted by the object extraction unit 225 is larger, the image generation unit 280 converts the moving image captured by the imaging unit 200 into a lower quality moving image. Then, the output unit 290 outputs the moving image obtained by the conversion by the image generation unit 280. In this case, when the size of the object extracted by the object extraction unit 225 is larger, the image generation unit 280 may convert the moving image captured by the imaging unit 200 into a lower resolution moving image.

また、動き量算出部222は、撮像部200が撮像した動画に含まれる複数の動画構成画像の間における、オブジェクト抽出部225が抽出したオブジェクトの動き量を算出する。条件格納部240は、抽出されるべきオブジェクトが有するべきオブジェクトの動き量の下限値を格納している。例えば、条件格納部240は、抽出されるべきオブジェクトが有するべき、連続するフレーム間におけるオブジェクトの動き量の下限値を格納している。そして、オブジェクト抽出部225は、動き量算出部222が算出したオブジェクトの動き量が条件格納部240が格納している動き量の下限値以上であるオブジェクトを、撮像部200が撮像した動画に含まれる複数の動画構成画像から抽出する。そして、画像生成部280は、オブジェクト抽出部225が抽出したオブジェクトの大きさがより大きい場合に、撮像部200が撮像した動画をより低い解像度の動画に変換する。具体的には、画像生成部280は、動き量算出部222が算出したオブジェクトの動き量がより大きい場合に、撮像部200が撮像した動画をより低い表示レートの動画に変換する。   In addition, the motion amount calculation unit 222 calculates the amount of motion of the object extracted by the object extraction unit 225 among a plurality of moving image constituent images included in the moving image captured by the imaging unit 200. The condition storage unit 240 stores a lower limit value of the amount of movement of the object that the object to be extracted should have. For example, the condition storage unit 240 stores a lower limit value of the amount of motion of the object between consecutive frames that the object to be extracted should have. Then, the object extraction unit 225 includes an object whose motion amount calculated by the motion amount calculation unit 222 is equal to or larger than the lower limit value of the motion amount stored in the condition storage unit 240 in the moving image captured by the imaging unit 200. Extracted from a plurality of moving image constituent images. Then, when the size of the object extracted by the object extraction unit 225 is larger, the image generation unit 280 converts the moving image captured by the imaging unit 200 into a lower resolution moving image. Specifically, the image generation unit 280 converts the moving image captured by the imaging unit 200 into a moving image having a lower display rate when the movement amount of the object calculated by the movement amount calculation unit 222 is larger.

なお、画質格納部262は、オブジェクトの大きさ及びオブジェクトの動き量に対応づけて、動画の表示レート及び動画に含まれる動画構成画像の画質の組合せを格納する。そして、画質選択部260は、オブジェクト抽出部225が抽出したオブジェクトの大きさ及び動き量算出部222が算出したオブジェクトの動き量に対応づけて画質格納部262が格納している画質及び表示レートの組合せを選択する。そして、画像生成部280は、撮像部200が撮像した動画を、画質選択部260によって選択された画質の動画構成画像が画質選択部260によって選択された表示レートで表示される動画に変換する。   The image quality storage unit 262 stores a combination of a moving image display rate and a moving image constituent image included in the moving image in association with the size of the object and the amount of movement of the object. The image quality selection unit 260 then associates the image size and display rate stored in the image quality storage unit 262 with the object size extracted by the object extraction unit 225 and the object motion amount calculated by the motion amount calculation unit 222. Select a combination. Then, the image generation unit 280 converts the moving image captured by the imaging unit 200 into a moving image in which the moving image constituent image having the image quality selected by the image quality selecting unit 260 is displayed at the display rate selected by the image quality selecting unit 260.

なお、動き方向特定部223は、撮像部200が撮像した動画の画像内容に基づいて、オブジェクト抽出部225が抽出したオブジェクトの動き方向を特定する。そして、画像生成部280は、オブジェクトを含み、動き方向の画像幅が動き方向に垂直方向の画像幅より大きい動画構成画像を、撮像部200が撮像した動画に含まれる動画構成画像からトリミングによって生成する。そして、出力部290は、画像生成部280が生成した動画構成画像を含む動画を出力する。そして、動き量算出部222は、撮像部200が撮像した動画に含まれる複数の動画構成画像に基づいて、動き方向特定部223が特定した方向への、複数の動画構成画像の間におけるオブジェクトの動き量を算出する。そして、画像生成部280は、動き量算出部222が算出した動き量がより大きい場合に、動き方向特定部223が特定した動き方向の画像幅がより大きい動画構成画像を、撮像部200が撮像した動画に含まれる動画構成画像からトリミングによって生成する。このため、撮像装置100は、伝送経路140が伝送するデータ量が不必要に増大することを防ぎつつ、不審者の移動先の領域を適切に監視することができる監視画像を提供することができる。   Note that the movement direction identification unit 223 identifies the movement direction of the object extracted by the object extraction unit 225 based on the image content of the moving image captured by the imaging unit 200. Then, the image generation unit 280 generates, by trimming, a moving image constituent image that includes the object and whose moving image width is larger than the vertical image width from the moving image captured by the imaging unit 200. To do. And the output part 290 outputs the moving image containing the moving image structure image which the image generation part 280 produced | generated. Then, the motion amount calculation unit 222 is based on the plurality of moving image constituent images included in the moving image captured by the imaging unit 200, and the object amount between the plurality of moving image constituent images in the direction specified by the motion direction specifying unit 223. Calculate the amount of movement. Then, in the image generation unit 280, when the motion amount calculated by the motion amount calculation unit 222 is larger, the imaging unit 200 captures a moving image constituent image having a larger image width in the motion direction specified by the motion direction specification unit 223. It is generated by trimming from the moving image constituent image included in the moving image. For this reason, the imaging apparatus 100 can provide a monitoring image that can appropriately monitor the area of the suspicious person's destination while preventing an unnecessary increase in the amount of data transmitted by the transmission path 140. .

なお、条件格納部240は、異常が生じていると判断される動画に含まれる動画構成画像において検出されるべき基準画像からの変化量の下限値を格納する。そして、変化量算出部221は、撮像部200が撮像した動画における予め定められた基準画像からの変化量を算出する。例えば、変化量算出部221は、撮像部200が撮像した動画に含まれる第1動画構成画像における、第1動画構成画像より前に撮像された第2動画構成画像からの変化量を算出する。なお、変化量算出部221は、平均化画像生成部202が生成した平均化画像の、基準画像からの変化量を算出する。なお、基準画像とは、予め用意された監視領域の画像、前のタイミングで撮像部200によって撮像された動画構成画像、又は前のタイミングで生成された平均化画像であってよい。そして、適合判断部230は、変化量算出部221が算出した変化量が条件格納部240が格納している変化量の下限値以上である場合に、平均化画像が条件に適合する旨を判断する。   The condition storage unit 240 stores the lower limit value of the change amount from the reference image to be detected in the moving image constituent image included in the moving image that is determined to be abnormal. Then, the change amount calculation unit 221 calculates a change amount from a predetermined reference image in the moving image captured by the imaging unit 200. For example, the change amount calculation unit 221 calculates the change amount from the second moving image constituent image captured before the first moving image constituent image in the first moving image constituent image included in the moving image captured by the imaging unit 200. The change amount calculation unit 221 calculates the change amount from the reference image of the averaged image generated by the averaged image generation unit 202. The reference image may be an image of a monitoring area prepared in advance, a moving image constituent image captured by the imaging unit 200 at a previous timing, or an averaged image generated at a previous timing. The conformity determination unit 230 determines that the averaged image conforms to the condition when the change amount calculated by the change amount calculation unit 221 is equal to or greater than the lower limit value of the change amount stored in the condition storage unit 240. To do.

また、出力制御部270は、変化量算出部221が算出した変化量が予め定められた変化量の下限値より小さい場合に、撮像部200が撮像した動画を、変化量算出部221が算出した変化量が下限値以上である場合よりデータ量の小さい動画に変換して出力部290に出力させる。具体的には、出力制御部270は、基準画像からの変化量が下限値より小さい場合に、撮像部200が撮像した動画を、基準画像からの変化量が下限値以上である場合より低解像度の動画に変換して出力部290に出力させる。また、出力制御部270は、基準画像からの変化量が下限値より小さい場合に、撮像部200が撮像した動画を、基準画像からの変化量が下限値以上である場合より少ない階調数の動画に変換して出力部290に出力させてよい。その他にも、出力制御部270は、基準画像からの変化量が下限値より小さい場合に、撮像部200が撮像した動画を、基準画像からの変化量が下限値以上である場合より低い表示レートの動画に変換して出力部290に出力させる。なお、条件設定部242は、許容データ量取得部250が取得したデータ量がより小さい場合に、条件格納部240が格納している下限値をより増加させる。   The output control unit 270 calculates the moving image captured by the imaging unit 200 when the variation calculated by the variation calculation unit 221 is smaller than a predetermined lower limit of the variation. The change amount is converted to a moving image with a smaller data amount than when the change amount is equal to or greater than the lower limit value, and output to the output unit 290. Specifically, when the amount of change from the reference image is smaller than the lower limit value, the output control unit 270 displays a moving image captured by the imaging unit 200 at a lower resolution than when the amount of change from the reference image is greater than or equal to the lower limit value. And the output unit 290 outputs it. Further, the output control unit 270 displays a moving image captured by the imaging unit 200 when the amount of change from the reference image is smaller than the lower limit value, with a smaller number of gradations than when the amount of change from the reference image is greater than or equal to the lower limit value. It may be converted into a moving image and output to the output unit 290. In addition, when the change amount from the reference image is smaller than the lower limit value, the output control unit 270 displays a moving image captured by the imaging unit 200 at a lower display rate than when the change amount from the reference image is equal to or higher than the lower limit value. And the output unit 290 outputs it. The condition setting unit 242 further increases the lower limit value stored in the condition storage unit 240 when the data amount acquired by the allowable data amount acquisition unit 250 is smaller.

なお、変化量算出部221は、撮像部200が撮像した動画に含まれる第1動画構成画像と第2動画構成画像との間における同じ被写体を示すオブジェクトの動き量を算出してよい。そして、出力制御部270は、変化量算出部221が算出したオブジェクトの動き量が予め定められた動き量の下限値より小さい場合に、撮像部200が撮像した動画を、変化量算出部221が算出した動き量が動き量の下限値以上である場合よりデータ量の小さい動画に変換して出力部290に出力させる。なお、条件設定部242は、許容データ量取得部250が取得したデータ量がより小さい場合に、動き量の下限値をより増加させてよい。   Note that the change amount calculation unit 221 may calculate a motion amount of an object indicating the same subject between the first moving image constituent image and the second moving image constituent image included in the moving image captured by the imaging unit 200. Then, when the amount of movement of the object calculated by the change amount calculation unit 221 is smaller than the lower limit value of the predetermined amount of movement, the output control unit 270 uses the change amount calculation unit 221 to capture the moving image captured by the imaging unit 200. The calculated amount of motion is converted to a moving image with a smaller amount of data than when the amount of motion is equal to or greater than the lower limit value of the amount of motion, and output to the output unit 290. Note that the condition setting unit 242 may further increase the lower limit value of the motion amount when the data amount acquired by the allowable data amount acquisition unit 250 is smaller.

条件格納部240は、異常が生じていると判断される動画に含まれる複数の動画構成画像を平均化した平均化画像において検出されるべき、平均化画像に含まれるオブジェクトと予め定められたオブジェクトとの間の一致度の下限値を格納する。そして、オブジェクト抽出部225は、平均化画像生成部202が生成した平均化画像からオブジェクトを抽出する。そして、適合判断部230は、オブジェクト抽出部225が抽出したオブジェクトと予め定められたオブジェクトとの間の一致度が、条件格納部240が格納している下限値以上である場合に、平均化画像が条件に適合する旨を判断する。具体的には、一致度算出部232は、撮像部200が撮像した動画に含まれるオブジェクトの形状と予め定められた基準オブジェクトの形状との間の形状の一致度を算出する。そして、適合判断部230は、一致度算出部232が算出した一致度が、条件格納部240が格納している下限値以上である場合に、平均化画像が条件に適合する旨を判断する。   The condition storage unit 240 is configured to detect an object included in the averaged image and a predetermined object to be detected in the averaged image obtained by averaging a plurality of moving image constituent images included in the moving image determined to be abnormal. Stores the lower limit of the degree of coincidence between and. Then, the object extraction unit 225 extracts an object from the averaged image generated by the averaged image generation unit 202. Then, when the degree of coincidence between the object extracted by the object extraction unit 225 and the predetermined object is equal to or higher than the lower limit value stored in the condition storage unit 240, the conformity determination unit 230 Is determined to meet the conditions. Specifically, the degree of coincidence calculation unit 232 calculates the degree of coincidence of the shape between the shape of the object included in the moving image captured by the image capturing unit 200 and the predetermined shape of the reference object. The conformity determination unit 230 determines that the averaged image conforms to the condition when the coincidence degree calculated by the coincidence degree calculation unit 232 is equal to or greater than the lower limit value stored in the condition storage unit 240.

なお、出力制御部270は、一致度算出部232が算出した一致度が予め定められた一致度の下限値より小さい場合に、撮像部200が撮像した動画を、一致度算出部232が算出した一致度が下限値以上である場合よりデータ量の小さい動画に変換して出力部290に出力させてもよい。具体的には、出力制御部270は、一致度算出部232が算出した一致度が予め定められた形状の一致度の下限値より小さい場合に、撮像部200が撮像した動画を、一致度算出部232が算出した一致度が形状の一致度の下限値以上である場合よりデータ量の小さい動画に変換して出力部290に出力させる。なお、条件設定部242は、許容データ量取得部250が取得したデータ量がより小さい場合に、形状の一致度の下限値をより増加させてよい。   The output control unit 270 calculates the moving image captured by the imaging unit 200 when the matching level calculated by the matching level calculation unit 232 is smaller than a predetermined lower limit value of the matching level. It may be converted into a moving image with a smaller data amount than when the degree of coincidence is equal to or higher than the lower limit value, and output to the output unit 290. Specifically, the output control unit 270 calculates the degree of coincidence of the moving image captured by the imaging unit 200 when the degree of coincidence calculated by the coincidence degree calculating unit 232 is smaller than the lower limit value of the degree of coincidence of a predetermined shape. The degree of coincidence calculated by the unit 232 is converted to a moving image with a smaller data amount than when the degree of coincidence of the shape is equal to or greater than the lower limit value of the shape, and is output to the output unit 290. Note that the condition setting unit 242 may increase the lower limit value of the shape matching degree when the data amount acquired by the allowable data amount acquisition unit 250 is smaller.

条件格納部240は、異常が生じていると判断される動画に含まれる複数の動画構成画像を平均化した平均化画像において検出されるべき、予め定められた色範囲に含まれる色が占める面積の下限値を格納する。例えば、条件格納部240は、人物に特徴的な色を含む色範囲に含まれる色が占める面積の下限値を格納してよい。そして、特定色面積算出部224は、平均化画像生成部202が生成した平均化画像における、予め定められた色範囲に含まれる色が占める面積を算出する。そして、適合判断部230は、特定色面積算出部224が算出した面積が条件格納部240が格納している面積の下限値以上である場合に、平均化画像が条件に適合する旨を判断する。具体的には、一致度算出部232は、撮像部200が撮像した動画に含まれるオブジェクトに含まれる色と予め定められた基準オブジェクトに含まれる色との間の色の一致度を算出する。そして、適合判断部230は、一致度算出部232が算出した一致度が、条件格納部240が格納している下限値以上である場合に、平均化画像が条件に適合する旨を判断する。   The condition storage unit 240 is an area occupied by a color included in a predetermined color range that should be detected in an averaged image obtained by averaging a plurality of moving image constituent images included in a moving image that is determined to be abnormal. Stores the lower limit value of. For example, the condition storage unit 240 may store the lower limit value of the area occupied by the color included in the color range including the color characteristic of the person. Then, the specific color area calculation unit 224 calculates an area occupied by colors included in a predetermined color range in the averaged image generated by the averaged image generation unit 202. The conformity determination unit 230 determines that the averaged image conforms to the condition when the area calculated by the specific color area calculation unit 224 is equal to or greater than the lower limit value of the area stored in the condition storage unit 240. . Specifically, the coincidence degree calculation unit 232 calculates the degree of color coincidence between the color included in the object included in the moving image captured by the imaging unit 200 and the color included in the predetermined reference object. The conformity determination unit 230 determines that the averaged image conforms to the condition when the coincidence degree calculated by the coincidence degree calculation unit 232 is equal to or greater than the lower limit value stored in the condition storage unit 240.

条件格納部240は、異常が生じていると判断される動画に含まれる複数の動画構成画像を平均化した平均化画像において検出されるべき、平均化画像に含まれる被写体の位置から撮像部200への方向と被写体の動き方向との間の一致度の下限値を格納する。そして、動き方向特定部223は、平均化画像生成部202が生成した複数の平均化画像の画像内容に基づいて、監視領域内における被写体の動き方向を特定する。そして、適合判断部230は、被写体の動き方向と当該被写体の位置から撮像部200に向かう方向との間の一致度が条件格納部240が格納している一致度の下限値以上である場合に、平均化画像が条件に適合する旨を判断する。   The condition storage unit 240 captures the imaging unit 200 from the position of the subject included in the averaged image that should be detected in the averaged image obtained by averaging a plurality of video constituent images included in the video determined to be abnormal. The lower limit value of the degree of coincidence between the direction to the object and the moving direction of the subject is stored. Then, the movement direction identification unit 223 identifies the movement direction of the subject in the monitoring area based on the image contents of the plurality of averaged images generated by the averaged image generation unit 202. Then, when the matching degree between the moving direction of the subject and the direction from the subject position toward the imaging unit 200 is equal to or more than the lower limit value of the matching degree stored in the condition storage unit 240, the matching determination unit 230 Then, it is determined that the averaged image meets the conditions.

また、オブジェクト領域特定部212は、適合判断部230が条件に適合するオブジェクトが存在する旨を判断した場合に、条件に適合するオブジェクトを含むオブジェクト領域を特定する。そして、出力部290は、適合判断部230が条件に適合するオブジェクトが存在する旨を判断した場合に、オブジェクト領域の画像を出力する。そして、画像保持部214は、適合判断部230が条件に適合するオブジェクトが存在する旨を判断した場合に、オブジェクト領域以外の領域の画像を保持する。そして、出力制御部270とは、画像保持部214がオブジェクト領域以外の領域の画像を保持した後に、画像保持部214が保持しているオブジェクト領域以外の領域の画像を送信すべき旨を判断した場合に、画像保持部214が保持しているオブジェクト領域以外の領域の画像を出力部290に出力させる。   The object area specifying unit 212 specifies an object area that includes an object that meets the condition when the matching determination unit 230 determines that an object that meets the condition exists. The output unit 290 outputs an image of the object area when the matching determination unit 230 determines that there is an object that meets the conditions. The image holding unit 214 holds an image of a region other than the object region when the matching determination unit 230 determines that there is an object that meets the conditions. Then, the output control unit 270 determines that an image in an area other than the object area held by the image holding unit 214 should be transmitted after the image holding unit 214 holds an image in an area other than the object area. In this case, the output unit 290 outputs an image of an area other than the object area held by the image holding unit 214.

具体的には、出力制御部270は、画像保持部214がオブジェクト領域以外の領域の画像を保持した後に、画像保持部214が保持しているオブジェクト領域以外の領域の画像を送信することができる旨を判断した場合に、画像保持部214が保持しているオブジェクト領域以外の領域の画像を出力部290に出力させる。より具体的には、出力制御部270は、画像保持部214がオブジェクト領域以外の領域の画像を保持した後に、出力部290が出力すべき動画のデータ量が予め定められたデータ量より小さい旨を判断した場合に、画像保持部214が保持しているオブジェクト領域以外の領域の画像を出力部290に出力させる。より具体的には、出力制御部270は、画像保持部214がオブジェクト領域以外の領域の画像を保持した後に、出力部290が単位時間あたりに出力すべき動画のデータ量が許容データ量取得部250が取得したデータ量より小さい旨を判断した場合に、画像保持部214が保持しているオブジェクト領域以外の領域の画像を出力部290に出力させる。   Specifically, the output control unit 270 can transmit an image of an area other than the object area held by the image holding unit 214 after the image holding part 214 holds an image of an area other than the object area. When the determination is made, the output unit 290 outputs an image of an area other than the object area held by the image holding unit 214. More specifically, the output control unit 270 indicates that the data amount of the moving image to be output by the output unit 290 is smaller than a predetermined data amount after the image holding unit 214 holds an image of an area other than the object area. Is determined, the output unit 290 outputs an image of an area other than the object area held by the image holding unit 214. More specifically, the output control unit 270 determines whether the data amount of the moving image that the output unit 290 should output per unit time after the image holding unit 214 holds an image of a region other than the object region is an allowable data amount acquisition unit. When it is determined that 250 is smaller than the acquired data amount, the output unit 290 outputs an image of an area other than the object area held by the image holding unit 214.

他にも、出力制御部270は、出力部290から出力することが許容されているデータ量の範囲内で、画像保持部214が保持しているオブジェクト領域以外の領域の画像を出力部290に出力させてよい。例えば、画像生成部280は、出力部290から出力される動画の単位時間当たりのデータ量が、許容データ量取得部250が取得したデータ量以下にすべく、画像保持部214が保持しているオブジェクト領域以外の領域の画像を出力部290に出力させてよい。   In addition, the output control unit 270 outputs an image of an area other than the object area held by the image holding unit 214 to the output unit 290 within the range of the data amount allowed to be output from the output unit 290. It may be output. For example, in the image generation unit 280, the image holding unit 214 holds the moving image output from the output unit 290 so that the data amount per unit time is equal to or less than the data amount acquired by the allowable data amount acquisition unit 250. An image of an area other than the object area may be output to the output unit 290.

他にも、出力制御部270は、画像保持部214がオブジェクト領域以外の領域の画像を保持した後に、許容データ量取得部250が取得したデータ量が予め定められた値より大きい旨が判断された場合に、画像保持部214が保持しているオブジェクト領域以外の領域の画像を出力部290に出力させる。他にも、出力制御部270は、画像保持部214がオブジェクト領域以外の領域の画像を保持した後の監視領域の動画におけるオブジェクト領域以外の領域の画像内容と、画像保持部214が保持しているオブジェクト領域以外の領域の画像内容との間の差が予め定められた値より大きい旨を判断した場合に、画像保持部214が保持しているオブジェクト領域以外の領域の画像を出力部290に出力させる。他にも、出力制御部270は、画像保持部214がオブジェクト領域以外の領域の画像を保持してから予め定められた時間幅より長い時間幅の時間が経過した旨を判断した場合に、画像保持部214が保持しているオブジェクト領域以外の領域の画像を出力部290に出力させる。他にも、出力制御部270は、画像保持部214がオブジェクト領域以外の領域の画像を保持した後の監視領域の動画において、適合判断部230が条件に適合するオブジェクトが存在しない旨を判断した場合に、画像保持部214が保持しているオブジェクト領域以外の領域の画像を出力部290に出力させる。   In addition, the output control unit 270 determines that the data amount acquired by the allowable data amount acquisition unit 250 is larger than a predetermined value after the image holding unit 214 holds an image of an area other than the object area. In the case of an image, the output unit 290 outputs an image of an area other than the object area held by the image holding unit 214. In addition, the output control unit 270 includes the image content of the region other than the object region in the moving image of the monitoring region after the image holding unit 214 holds the image of the region other than the object region, and the image holding unit 214 holds the image content. When it is determined that the difference between the image contents of the areas other than the existing object area is larger than a predetermined value, the image of the area other than the object area held by the image holding unit 214 is output to the output unit 290. Output. In addition, when the output control unit 270 determines that a time width longer than a predetermined time width has elapsed since the image holding unit 214 held an image of an area other than the object area, The output unit 290 outputs an image of an area other than the object area held by the holding unit 214. In addition, the output control unit 270 determines that there is no object that meets the condition in the moving image of the monitoring area after the image holding unit 214 holds the image of the area other than the object area. In this case, the output unit 290 outputs an image of an area other than the object area held by the image holding unit 214.

なお、適合判断部230は、条件に適合する複数のオブジェクトが存在する旨を判断してよい。そして、オブジェクト領域特定部212は、適合判断部230が条件に適合する複数のオブジェクトが存在する旨を判断した場合に、条件に適合する複数のオブジェクトをそれぞれ含む複数のオブジェクト領域を特定してよい。そして、出力部290は、適合判断部230が条件に適合する複数のオブジェクトが存在する旨を判断した場合に、オブジェクトの特徴の種類に応じて予め定められた優先度がより高いオブジェクトを含むオブジェクト領域の画像をより優先して出力してよい。なお、画像保持部214は、適合判断部230が条件に適合する複数のオブジェクトが存在する旨を判断した場合に、出力部290が出力していないオブジェクト領域の画像及びオブジェクト領域以外の領域の画像を保持してよい。そして、出力制御部270は、画像保持部214がオブジェクト領域以外の領域の画像を保持した後に、画像保持部214が保持している画像を送信すべき旨を判断した場合に、画像保持部214が保持している画像を出力部290に出力させてよい。   Note that the suitability determination unit 230 may determine that there are a plurality of objects that meet the conditions. Then, the object area specifying unit 212 may specify a plurality of object areas each including a plurality of objects that meet the condition when the matching determination unit 230 determines that there are a plurality of objects that meet the condition. . Then, the output unit 290 includes an object including an object having a higher priority that is predetermined according to the type of the feature of the object when the matching determination unit 230 determines that there are a plurality of objects that match the condition. The image of the area may be output with higher priority. Note that the image holding unit 214, when the matching determination unit 230 determines that there are a plurality of objects that meet the conditions, the image of the object area that has not been output by the output unit 290 and the image of the area other than the object area May hold. When the output control unit 270 determines that the image held by the image holding unit 214 should be transmitted after the image holding unit 214 holds an image of a region other than the object region, the image holding unit 214 May be output to the output unit 290.

なお、出力部290は、出力するオブジェクト領域の画像のデータ量を予め定められたデータ量以下にすべく、オブジェクトの特徴の種類に応じて予め定められた優先度がより高いオブジェクトを含むオブジェクト領域の画像をより優先して出力してよい。また、出力制御部270は、画像保持部214がオブジェクト領域以外の領域の画像を保持した後に、画像保持部214が保持している画像を送信すべき旨を判断した場合に、画像保持部214が保持しているオブジェクト領域の画像を、オブジェクト領域以外の領域の画像より優先して出力部290に出力させてよい。   Note that the output unit 290 includes an object region that includes an object having a higher priority that is predetermined according to the type of feature of the object so that the data amount of the image of the object region to be output is equal to or less than a predetermined data amount. The image may be output with higher priority. In addition, when the output control unit 270 determines that the image held by the image holding unit 214 should be transmitted after the image holding unit 214 holds an image of an area other than the object area, the image holding unit 214 May be output to the output unit 290 in preference to the image of the area other than the object area.

画像生成部280は、条件に適合するオブジェクトの特徴の種類毎に、オブジェクトの種類に応じて異なる画質のオブジェクト領域の画像であるオブジェクト領域画像を生成する。そして、出力部290は、適合判断部230が条件に適合する複数のオブジェクトが存在する旨を判断した場合に、画像生成部が生成したより高画質のオブジェクト領域画像をより優先して出力する。画像保持部214は、適合判断部230が条件に適合する複数のオブジェクトが存在する旨を判断した場合に、出力部290が出力していないオブジェクト領域の画像及びオブジェクト領域以外の領域の画像を保持する。そして、出力制御部270は、画像保持部214がオブジェクト領域以外の領域の画像を保持した後に、画像保持部214が保持している画像を送信すべき旨を判断した場合に、画像保持部214が保持している画像を出力部290に出力させる。   The image generation unit 280 generates an object area image that is an image of an object area having different image quality depending on the type of the object for each type of feature of the object that meets the conditions. Then, when the matching determination unit 230 determines that there are a plurality of objects that match the conditions, the output unit 290 outputs the higher-quality object region image generated by the image generation unit with higher priority. The image holding unit 214 holds an image of an object area that has not been output by the output unit 290 and an image of an area other than the object area when the matching determination unit 230 determines that there are a plurality of objects that meet the conditions. To do. When the output control unit 270 determines that the image held by the image holding unit 214 should be transmitted after the image holding unit 214 holds an image of a region other than the object region, the image holding unit 214 Causes the output unit 290 to output the image held by the.

なお、画像生成部280は、条件に適合するオブジェクトの特徴の種類毎に、オブジェクトの種類に応じて異なる解像度のオブジェクト領域の画像であるオブジェクト領域画像を生成して、生成した高解像度のオブジェクト領域画像と低解像度のオブジェクト領域画像との間の差分画像を生成してよい。そして、出力部290は、適合判断部230が条件に適合する複数のオブジェクトが存在する旨を判断した場合に、画像生成部が生成したより低解像度のオブジェクト領域画像を差分画像より優先して出力してよい。そして、画像保持部214は、適合判断部230が条件に適合する複数のオブジェクトが存在する旨を判断した場合に、出力部290が出力していない差分画像及びオブジェクト領域以外の領域の画像を保持してよい。そして、出力制御部270は、画像保持部214がオブジェクト領域以外の領域の画像を保持した後に、画像保持部214が保持している画像を送信すべき旨を判断した場合に、画像保持部214が保持している画像を出力部290に出力させてよい。   Note that the image generation unit 280 generates an object region image that is an image of an object region having a different resolution depending on the type of object for each type of object feature that meets the conditions, and generates the generated high-resolution object region. A difference image between the image and the low-resolution object region image may be generated. Then, when the matching determination unit 230 determines that there are a plurality of objects that meet the conditions, the output unit 290 outputs the lower resolution object area image generated by the image generation unit with priority over the difference image. You can do it. The image holding unit 214 holds the difference image and the image of the region other than the object region that are not output by the output unit 290 when the matching determination unit 230 determines that there are a plurality of objects that meet the conditions. You can do it. When the output control unit 270 determines that the image held by the image holding unit 214 should be transmitted after the image holding unit 214 holds an image of a region other than the object region, the image holding unit 214 May be output to the output unit 290.

なお、出力部290は、条件に適合するオブジェクトが存在する旨を適合判断部230が判断した場合に、許容データ量取得部250が取得したデータ量がより大きいほどより高い画質でオブジェクト領域の画像を出力してよい。また、オブジェクト領域特定部212は、条件に適合するオブジェクトが存在する旨を適合判断部230が判断した場合に、許容データ量取得部250が取得したデータ量がより大きいほど条件に適合するオブジェクトを含むより大きいオブジェクト領域を特定してよい。   Note that the output unit 290, when the conformity determination unit 230 determines that there is an object that meets the condition, the higher the data amount acquired by the allowable data amount acquisition unit 250, the higher the image quality of the object region. May be output. Further, when the conformity determining unit 230 determines that there is an object that meets the condition, the object area specifying unit 212 selects an object that conforms to the condition as the data amount acquired by the allowable data amount acquiring unit 250 is larger. Larger object regions may be identified that contain it.

また、出力制御部270は、画像保持部214がオブジェクト領域以外の領域の画像を保持した後の監視領域の動画において、適合判断部230が条件に適合するオブジェクトが存在しない旨を判断した場合に、許容データ量取得部250が取得したデータ量が予め定められた値より大きいことを条件として、画像保持部214が保持しているオブジェクト領域以外の領域の画像を、出力部290に出力させる。   Also, the output control unit 270 determines that the matching determination unit 230 determines that there is no object that meets the conditions in the moving image in the monitoring area after the image holding unit 214 holds the image of the area other than the object area. On the condition that the data amount acquired by the allowable data amount acquisition unit 250 is larger than a predetermined value, the output unit 290 outputs an image of an area other than the object area held by the image holding unit 214.

また、出力制御部270は、画像保持部214がオブジェクト領域以外の領域の画像を保持した後の監視領域の動画において、適合判断部230が条件に適合するオブジェクトが存在しない旨を判断した場合に、画像保持部214が保持しているオブジェクト領域以外の領域の画像を、許容データ量取得部250が取得したデータ量に応じた画質で出力部290に出力させてよい。   Also, the output control unit 270 determines that the matching determination unit 230 determines that there is no object that meets the conditions in the moving image in the monitoring area after the image holding unit 214 holds the image of the area other than the object area. The image of the area other than the object area held by the image holding unit 214 may be output to the output unit 290 with an image quality corresponding to the data amount acquired by the allowable data amount acquisition unit 250.

オブジェクト領域特定部212は、撮像部200が撮像した動画に含まれる複数の動画構成画像にわたるオブジェクトの動き量が、条件格納部240が格納している動き量の下限値以上であるオブジェクトを含む領域を、オブジェクト領域として特定してよい。   The object area specifying unit 212 includes an object in which the amount of motion of the object over a plurality of moving image constituent images included in the moving image captured by the imaging unit 200 is equal to or greater than the lower limit value of the moving amount stored in the condition storage unit 240. May be specified as the object region.

なお、条件格納部240は、動画から抽出されるべきオブジェクトが有するべき予め定められたオブジェクトとの間の一致度の下限値を格納してよい。そして、オブジェクト領域特定部212は、条件格納部240が格納している一致度の下限値以上の一致度で一致するオブジェクトを含む領域を、オブジェクト領域として抽出してよい。また、条件格納部240は、動画から抽出されるべきオブジェクトが有するべき予め定められた色範囲に含まれる色が占める面積の下限値を格納してよい。そして、オブジェクト領域特定部212は、予め定められた色範囲に含まれる色の占める面積が条件格納部240が格納している面積の下限値以上であるオブジェクトを含む領域を、オブジェクト領域として抽出する。   The condition storage unit 240 may store a lower limit value of the degree of coincidence with a predetermined object that the object to be extracted from the moving image should have. Then, the object area specifying unit 212 may extract, as an object area, an area including an object that matches with a matching degree equal to or higher than the lower limit value of the matching degree stored in the condition storage unit 240. In addition, the condition storage unit 240 may store the lower limit value of the area occupied by the color included in the predetermined color range that the object to be extracted from the moving image should have. Then, the object region specifying unit 212 extracts a region including an object in which the area occupied by the color included in the predetermined color range is equal to or larger than the lower limit value of the area stored in the condition storage unit 240 as the object region. .

なお、変化量算出部221及び条件設定部242は撮像装置100のそれぞれに設けられるのではなく、監視システム110は一の変化量算出部221及び一の条件設定部242を有してもよい。そして、変化量算出部221は、複数の撮像部200が撮像したそれぞれの動画における予め定められた基準画像からの変化量を、複数の撮像部200が撮像したそれぞれの動画毎に算出してよい。そして、出力制御部270は、変化量算出部221が算出した変化量が予め定められた変化量の下限値より小さい動画を、変化量算出部221が算出した変化量が下限値以上である場合よりデータ量の小さい動画に変換して伝送経路140に出力させてよい。そして、条件設定部242は、伝送経路140が伝送することができる単位時間あたりのデータ量と複数の撮像部200のそれぞれが出力する単位時間あたりのデータ量との差がより小さい場合に、条件格納部240が格納している下限値をより増加させてもよい。また、一致度算出部232は、複数の撮像部200が撮像したそれぞれの動画に含まれるオブジェクトと予め定められた基準オブジェクトとの間の一致度を、複数の撮像部200が撮像したそれぞれの動画毎に算出してもよい。そして、出力制御部270は、一致度算出部232が算出した一致度が予め定められた一致度の下限値より小さい動画を、一致度算出部232が算出した一致度が下限値以上である場合よりデータ量の小さい動画に変換して伝送経路140に出力させる。そして、条件設定部242は、伝送経路140が伝送することができる単位時間あたりのデータ量と複数の撮像部200のそれぞれが出力する単位時間あたりのデータ量との差がより小さい場合に、下限値をより増加させる。   Note that the change amount calculation unit 221 and the condition setting unit 242 are not provided in each of the imaging devices 100, and the monitoring system 110 may include one change amount calculation unit 221 and one condition setting unit 242. Then, the change amount calculation unit 221 may calculate a change amount from a predetermined reference image in each moving image captured by the plurality of imaging units 200 for each moving image captured by the plurality of imaging units 200. . When the change amount calculated by the change amount calculation unit 221 is smaller than the lower limit value of the predetermined change amount, the output control unit 270 determines that the change amount calculated by the change amount calculation unit 221 is greater than or equal to the lower limit value. It may be converted into a moving image having a smaller data amount and output to the transmission path 140. The condition setting unit 242 sets the condition when the difference between the data amount per unit time that can be transmitted by the transmission path 140 and the data amount per unit time output by each of the plurality of imaging units 200 is smaller. The lower limit value stored in the storage unit 240 may be further increased. In addition, the degree-of-match calculation unit 232 captures the degree of coincidence between an object included in each moving image captured by the plurality of imaging units 200 and a predetermined reference object by each moving image captured by the plurality of imaging units 200. It may be calculated every time. When the matching degree calculated by the matching degree calculation unit 232 is smaller than the lower limit value of the matching degree, the output control unit 270 determines that the matching degree calculated by the matching degree calculation unit 232 is equal to or higher than the lower limit value. It is converted into a moving image having a smaller data amount and output to the transmission path 140. The condition setting unit 242 sets the lower limit when the difference between the data amount per unit time that can be transmitted by the transmission path 140 and the data amount per unit time output by each of the plurality of imaging units 200 is smaller. Increase the value more.

なお、撮像制御部210は、オブジェクトを含み、動き方向の画像幅が動き方向に垂直方向の画像幅より大きい動画構成画像を含む動画を撮像部200に撮像させるべく撮像部200の撮像範囲を設定して、撮像部200に監視領域を撮像させる。そして、出力部290は、撮像制御部210によって撮像範囲が設定された状態で撮像部200が撮像した動画を出力する。このとき、撮像制御部210は、オブジェクトを含み、動き方向の画像幅が動き方向に垂直方向の画像幅より大きい動画構成画像が撮像される撮像範囲に含まれる被写体に対して、撮像部200の撮像条件を調整してよい。そして、出力部290は、撮像制御部210によって撮像条件が調整された状態で撮像部200が撮像した動画を出力してよい。   Note that the imaging control unit 210 sets an imaging range of the imaging unit 200 so that the imaging unit 200 captures a moving image including an object and including a moving image constituent image in which the image width in the movement direction is larger than the image width in the direction perpendicular to the movement direction. Then, the imaging unit 200 is caused to image the monitoring area. Then, the output unit 290 outputs the moving image captured by the imaging unit 200 in a state where the imaging range is set by the imaging control unit 210. At this time, the imaging control unit 210 includes the object, and the imaging unit 200 applies the subject included in the imaging range in which the moving image constituent image is captured in which the image width in the movement direction is larger than the image width in the direction perpendicular to the movement direction. Imaging conditions may be adjusted. The output unit 290 may output a moving image captured by the image capturing unit 200 in a state where the image capturing condition is adjusted by the image capturing control unit 210.

また、撮像制御部210は、オブジェクトを含み、オブジェクトに対して動き方向の側の領域が、オブジェクトに対して動き方向と反対方向の側の領域より広い動画構成画像を撮像部200に撮像させるべく撮像部200の撮像範囲を設定して、撮像部200に撮像させてよい。また、撮像制御部210は、オブジェクトを含み、オブジェクトに対して動き方向の側の領域が、オブジェクトに対して動き方向と反対方向の側の領域より広い動画構成画像が撮像される撮像範囲に含まれる被写体に対して、撮像部200の撮像条件を調整してよい。   In addition, the imaging control unit 210 includes the object, and causes the imaging unit 200 to capture a moving image configuration image in which the region on the moving direction side with respect to the object is wider than the region on the side opposite to the moving direction with respect to the object. The imaging range of the imaging unit 200 may be set so that the imaging unit 200 captures an image. In addition, the imaging control unit 210 includes an object, and is included in an imaging range in which a moving image constituent image is captured in which a region on the moving direction side with respect to the object is wider than a region on the side opposite to the moving direction with respect to the object The imaging conditions of the imaging unit 200 may be adjusted for the subject to be captured.

なお、撮像部200が撮像する動画の撮像レートはモニタ表示レートより高くてもよいし、全ての撮像装置100が撮像する動画を送信するために要する時間あたりのデータ量は、伝送経路140が時間あたりに伝送することができるデータ量より大きくてもよい。なお、本実施形態におけるフレーム画像は動画構成画像の一例であり、動画構成画像はフィールド画像を含む。また、撮像部200は、魚眼レンズを通じて、監視領域全体の画像を撮像してもよい。   Note that the imaging rate of the moving image captured by the imaging unit 200 may be higher than the monitor display rate, and the amount of data per time required to transmit the moving images captured by all the imaging apparatuses 100 is the time required for the transmission path 140. It may be larger than the amount of data that can be transmitted per hit. Note that the frame image in the present embodiment is an example of a moving image constituent image, and the moving image constituent image includes a field image. Further, the imaging unit 200 may capture an image of the entire monitoring area through the fisheye lens.

以上の説明においては、撮像装置100が撮像して動画をサーバ170に送信する形態について説明したが、他の形態においては、撮像装置100の機能をサーバ170が有してよい。例えば、撮像装置100は撮像した監視領域の動画をそのまま伝送経路140に出力し、サーバ170が、記録する動画の画質を制御したり、表示装置180、181、及び182が表示する動画の画質を制御してもよい。この場合、サーバ170が、オブジェクト領域特定部212、画像保持部214、差分画像生成部216、画像特徴量抽出部220、適合判断部230、条件格納部240、条件設定部242、許容データ量取得部250、画質選択部260、画質格納部262、出力制御部270、画像生成部280、及び出力部290を備えてよい。この場合、出力部290は、出力動画生成部282が生成した動画を記録媒体に記録したり、表示装置180、181、及び182に表示させてよい。   In the above description, the form in which the imaging apparatus 100 captures an image and transmits a moving image to the server 170 has been described. However, in other forms, the server 170 may have the function of the imaging apparatus 100. For example, the image capturing apparatus 100 outputs the captured moving image of the monitoring area to the transmission path 140 as it is, and the server 170 controls the image quality of the moving image to be recorded or the image quality of the moving image displayed by the display devices 180, 181, and 182. You may control. In this case, the server 170 includes an object area specifying unit 212, an image holding unit 214, a difference image generating unit 216, an image feature amount extracting unit 220, a conformity determining unit 230, a condition storing unit 240, a condition setting unit 242, and an allowable data amount acquisition. A unit 250, an image quality selection unit 260, an image quality storage unit 262, an output control unit 270, an image generation unit 280, and an output unit 290 may be provided. In this case, the output unit 290 may record the moving image generated by the output moving image generation unit 282 on a recording medium or display the moving images on the display devices 180, 181, and 182.

図4は、撮像装置100の動作フローの一例を示す。撮像部200は、表示装置180〜182のモニタ解像度より高解像度のフレーム画像を、表示装置180〜182のモニタ表示レートより高いフレームレートで連続して撮像することによって、監視領域の動画を撮像する(S400)。なお、平均化画像生成部202は、撮像部200がフレーム画像を撮像する度に平均化カウンタをインクリメントする。そして、平均化画像生成部202は、平均化カウンタの値に基づいて、撮像部200が所定数のフレーム画像を撮像したか否かを判断する(S401)。S401において所定数のフレーム画像を撮像した旨が判断された場合には、平均化画像生成部202は、撮像部200が撮像した所定数のフレーム画像にわたって画素毎に平均化することによって平均化画像を生成し(S402)、平均化カウンタを0にセットする。   FIG. 4 shows an example of the operation flow of the imaging apparatus 100. The imaging unit 200 captures a moving image in the monitoring area by continuously capturing frame images having a resolution higher than the monitor resolution of the display devices 180 to 182 at a frame rate higher than the monitor display rate of the display devices 180 to 182. (S400). The averaged image generating unit 202 increments the averaged counter every time the image capturing unit 200 captures a frame image. Then, the averaged image generating unit 202 determines whether or not the imaging unit 200 has captured a predetermined number of frame images based on the value of the averaging counter (S401). If it is determined in S401 that a predetermined number of frame images have been captured, the averaged image generating unit 202 averages the pixels for each pixel over the predetermined number of frame images captured by the imaging unit 200. (S402), and the averaging counter is set to 0.

そして、適合判断部230は、人物に適合するオブジェクトが検出されたか否かを判断する(S404)。具体的には、オブジェクト抽出部225は、平均化画像からエッジ強調等によってオブジェクトの輪郭を抽出する。そして、一致度算出部232は、オブジェクト抽出部225が抽出したオブジェクトの輪郭と、予め定められた人物のパターンとを比較することによって、オブジェクト抽出部225が抽出したオブジェクトの輪郭と予め定められた人物のパターンとの間の形状の一致度を算出する。例えば、一致度算出部232は、オブジェクトの輪郭と、当該オブジェクトと同じ面積を持つ人物のパターンとが一致する部分の面積を、オブジェクトの輪郭の面積で除した値を、形状の一致度として算出してよい。そして、適合判断部230は、一致度算出部232が算出した形状の一致度が、条件格納部240が格納している形状の一致度の下限値以上である場合に、人物に適合するオブジェクトが検出されたと判断する。   Then, the matching determination unit 230 determines whether or not an object matching the person has been detected (S404). Specifically, the object extraction unit 225 extracts the outline of the object from the averaged image by edge enhancement or the like. Then, the degree-of-match calculation unit 232 compares the outline of the object extracted by the object extraction unit 225 with a predetermined person pattern to determine the outline of the object extracted by the object extraction unit 225. The degree of coincidence of the shape with the person pattern is calculated. For example, the degree-of-match calculation unit 232 calculates a value obtained by dividing the area of the portion where the contour of the object matches the pattern of the person having the same area as the object by the area of the contour of the object as the degree of matching of the shape You can do it. Then, when the matching degree of the shape calculated by the matching degree calculation unit 232 is equal to or higher than the lower limit value of the matching degree of the shape stored in the condition storage unit 240, the matching determination unit 230 determines that the object that matches the person is Judge that it was detected.

なお、動き量算出部222は、オブジェクト抽出部225が抽出したオブジェクトの移動速度を算出している。そして、S404において人物に適合するオブジェクトが検出されたと適合判断部230が判断した場合には、画質選択部260は、動き量算出部222が算出した、人物に適合するオブジェクトの移動速度を取得する(S406)。   Note that the motion amount calculation unit 222 calculates the movement speed of the object extracted by the object extraction unit 225. When the suitability determining unit 230 determines that an object that matches the person has been detected in S404, the image quality selecting unit 260 acquires the moving speed of the object that matches the person calculated by the motion amount calculating unit 222. (S406).

そして、撮像装置100は、伝送経路140に出力する出力動画の表示レートとフレーム画像の解像度とを決定する(S408)。具体的には、画質選択部260が、人物に適合するオブジェクトの面積と、人物に適合するオブジェクトの動きの速さとに対応づけて画質格納部262が格納している解像度及び表示レートを選択する。例えば、S408において画質選択部260は、オブジェクトの大きさが小さいほど高い解像度(ただし、撮像部200が撮像したフレーム画像の解像度以下の解像度)が選択され、また、オブジェクトの動き速さが大きいほど高い表示レート(ただし、撮像部200が撮像したフレーム画像の撮像レート以下の表示レート)が決定される。   Then, the imaging apparatus 100 determines the display rate of the output moving image output to the transmission path 140 and the resolution of the frame image (S408). Specifically, the image quality selection unit 260 selects the resolution and display rate stored in the image quality storage unit 262 in association with the area of the object that matches the person and the speed of movement of the object that matches the person. . For example, in S <b> 408, the image quality selection unit 260 selects a higher resolution (however, a resolution equal to or lower than the resolution of the frame image captured by the imaging unit 200) as the size of the object is smaller, and as the movement speed of the object increases. A high display rate (however, a display rate equal to or lower than the imaging rate of the frame image captured by the imaging unit 200) is determined.

そして、出力動画生成部282は、S408において決定された表示レートに従って、撮像部200が撮像したフレーム画像から生成した出力フレーム画像を含む出力動画を生成するか否かを判断する(S410)。例えば、出力動画生成部282は、撮像部200がフレーム画像を撮像する毎にインクリメントされ、撮像されたフレーム画像から動画が生成される毎に0に初期化されるカウンタを保持しており、保持しているカウンタ値と撮像部200が撮像するフレーム画像の撮像間隔との積が、S408で決定した表示レートで示される出力動画が有する出力フレーム画像のフレーム間隔以上である場合に、出力フレーム画像を含む出力動画を生成する旨を判断する。   Then, the output moving image generation unit 282 determines whether to generate an output moving image including an output frame image generated from the frame image captured by the imaging unit 200 according to the display rate determined in S408 (S410). For example, the output moving image generation unit 282 holds a counter that is incremented each time the imaging unit 200 captures a frame image and is initialized to 0 each time a moving image is generated from the captured frame image. Output frame image when the product of the counter value and the imaging interval of the frame image captured by the imaging unit 200 is equal to or larger than the frame interval of the output frame image included in the output moving image indicated by the display rate determined in S408. To generate an output video including

S410において、出力動画生成部282が出力動画を生成する旨を判断した場合に、許容データ量取得部250は、伝送経路140において単位時間あたりに伝送されているデータ量を検出する(S412)。そして、許容データ量取得部250は、伝送経路140が単位時間あたりに伝送することができるデータ量と、伝送経路140が単位時間あたりに伝送しているデータ量との差を示す許容データ量を算出する。なお、許容データ量取得部250は、許容データ量をサーバ170から取得してもよい。   In S410, when the output moving image generation unit 282 determines that the output moving image is generated, the allowable data amount acquisition unit 250 detects the amount of data transmitted per unit time in the transmission path 140 (S412). Then, the allowable data amount acquisition unit 250 calculates an allowable data amount indicating a difference between the data amount that the transmission path 140 can transmit per unit time and the data amount that the transmission path 140 transmits per unit time. calculate. The allowable data amount acquisition unit 250 may acquire the allowable data amount from the server 170.

そして、出力動画生成部282は、S408で決定された画質の動画を生成できるか否かを判断する(S414)。具体的には、出力動画生成部282は、許容データ量が、S408で決定された解像度及び表示レートを有する動画データを伝送するのに必要な単位時間あたりに伝送すべきデータ量以上である場合に、S408で決定された画質の動画を生成できる旨を判断する。   Then, the output moving image generating unit 282 determines whether or not the moving image having the image quality determined in S408 can be generated (S414). Specifically, the output moving image generation unit 282 determines that the allowable data amount is equal to or larger than the data amount to be transmitted per unit time necessary to transmit the moving image data having the resolution and display rate determined in S408. Then, it is determined that the moving image having the image quality determined in S408 can be generated.

そして、S414において、S408で決定された画質の動画を生成できる旨が判断された場合には、出力動画生成部282は、撮像部200が撮像したフレーム画像から画素を間引くことによって、フレーム画像をS408で決定された解像度に変換した出力フレーム画像を生成する。そして、出力動画生成部282は、生成した出力フレーム画像を含む動画を生成して、出力部290に供給する(S416)。そして、撮像装置100は、撮影終了指示を受け付けたか否かを判断する(S418)。S418において撮影終了指示を受け付けていない場合には、撮像装置100はS400に処理を移行し、S418において撮影終了指示を受け付けた場合には処理を終了する。   If it is determined in S414 that the moving image having the image quality determined in S408 can be generated, the output moving image generating unit 282 thins out the pixels from the frame image captured by the image capturing unit 200, thereby obtaining the frame image. An output frame image converted to the resolution determined in S408 is generated. Then, the output moving image generation unit 282 generates a moving image including the generated output frame image and supplies the generated moving image to the output unit 290 (S416). Then, the imaging apparatus 100 determines whether an imaging end instruction has been received (S418). When the imaging end instruction is not received in S418, the imaging apparatus 100 proceeds to S400, and when the imaging end instruction is received in S418, the process is ended.

なお、S418の撮影終了判断の後にS400に処理が移行した後に、S401において所定数のフレーム画像を撮像していない旨が判断された場合には、出力動画生成部282は、出力フレーム画像を含む出力動画を生成するか否かを判断する(S440)。S440では、出力動画生成部282は、S410と同様に、既に決定されている表示レートに従って、出力フレーム画像を含む出力動画を生成するか否かを判断する。そして、撮像装置100は、S440において出力フレーム画像を含む出力動画を生成する旨が判断された場合にはS412に処理を移行し、出力フレーム画像を含む出力動画を生成しない旨が判断された場合にはS400に処理を移行する。   If it is determined in S401 that the predetermined number of frame images have not been captured after the processing shifts to S400 after the shooting end determination in S418, the output moving image generation unit 282 includes the output frame image. It is determined whether to generate an output moving image (S440). In S440, as in S410, the output moving image generation unit 282 determines whether to generate an output moving image including an output frame image according to the display rate that has already been determined. If it is determined in S440 that an output moving image including an output frame image is to be generated, the imaging apparatus 100 proceeds to S412 and determines that an output moving image including an output frame image is not to be generated. In S400, the process proceeds to S400.

さて、S414において、出力動画生成部282がS408で決定された画質の動画を生成できない旨を判断した場合には、出力動画生成部282は、人物に適合するオブジェクトの移動方向を取得する(S420)。具体的には、人物に適合するオブジェクトについて動き方向特定部223が特定した動き方向を、当該オブジェクトの移動方向として取得する。   In S414, when the output moving image generating unit 282 determines that the moving image having the image quality determined in S408 cannot be generated, the output moving image generating unit 282 acquires the moving direction of the object suitable for the person (S420). ). Specifically, the movement direction identified by the movement direction identification unit 223 for the object that matches the person is acquired as the movement direction of the object.

そして、出力動画生成部282は、撮像部200が撮像したフレーム画像に対するトリミング範囲を決定する(S422)。具体的には、出力動画生成部282は、人物に適合するオブジェクトを含み、当該オブジェクトの移動方向の画像幅が移動方向に垂直な方向の画像幅より大きいトリミング画像が得られるトリミング範囲を決定する。以下、当該トリミング範囲の領域を人物領域という。そして、出力動画生成部282は、S422で決定したトリミング範囲でフレーム画像をトリミングすることによって、人物領域のトリミング画像を生成する(S424)。なお、トリミング画像は、この発明におけるオブジェクト領域画像の一例であってよい。また、画像保持部214は、トリミングされた領域の画像(人物領域以外の領域の画像)を記憶しておく(S426)。そして、出力動画生成部282はS424において得られたトリミング画像を含む動画を生成して、出力部290に供給する(S428)。そして、撮像装置100はS418に処理を移行する。   Then, the output moving image generation unit 282 determines a trimming range for the frame image captured by the imaging unit 200 (S422). Specifically, the output moving image generation unit 282 determines a trimming range in which a trimmed image including an object suitable for a person and having an image width in the moving direction of the object larger than an image width in a direction perpendicular to the moving direction is obtained. . Hereinafter, the area of the trimming range is referred to as a person area. Then, the output moving image generating unit 282 generates a trimmed image of the person region by trimming the frame image within the trimming range determined in S422 (S424). Note that the trimmed image may be an example of the object region image in the present invention. Further, the image holding unit 214 stores an image of the trimmed area (an image of an area other than the person area) (S426). Then, the output moving image generation unit 282 generates a moving image including the trimmed image obtained in S424 and supplies the generated moving image to the output unit 290 (S428). And the imaging device 100 transfers a process to S418.

なお、S404において適合判断部230が人物に適合するオブジェクトを検出していない場合には、出力動画生成部282は平均化画像から動画を生成して出力部290に供給する(S430)。このとき、出力動画生成部282は、平均化画像の画素を適宜間引くことによってデータ量を低減した出力フレーム画像を含む動画を生成して出力部290に供給してよいし、撮像部200が撮像したフレーム画像の画素を適宜間引くことによってデータ量を低減した出力フレーム画像から動画を生成して出力部290に供給してもよい。   In S404, if the matching determination unit 230 has not detected an object that matches the person, the output moving image generation unit 282 generates a moving image from the averaged image and supplies the generated moving image to the output unit 290 (S430). At this time, the output moving image generation unit 282 may generate a moving image including an output frame image with a reduced data amount by thinning out the pixels of the averaged image as appropriate, and supply the generated moving image to the output unit 290. A moving image may be generated from an output frame image with a reduced data amount by thinning out the pixels of the frame image as appropriate and supplied to the output unit 290.

そして、出力制御部270は、S426において画像保持部214が保持した人物領域以外の領域の画像を含む動画を出力部290に供給する(S432)。また、S410においてフレーム画像を生成しない旨が判断された場合にも、撮像装置100はS432に処理を進め、出力制御部270がS426において画像保持部214が保持した人物領域以外の領域の画像を含む動画を出力部290に供給する。なお、S432においては、出力制御部270は、人物領域以外の領域の画像から動画を生成して出力部290に供給するのではなく、人物領域以外の領域の画像自体を、出力部290に出力させてもよい。   Then, the output control unit 270 supplies a moving image including an image of an area other than the person area held by the image holding unit 214 in S426 to the output unit 290 (S432). Even when it is determined in S410 that the frame image is not generated, the imaging apparatus 100 proceeds to S432, and the output control unit 270 displays an image of an area other than the person area held by the image holding unit 214 in S426. The moving image including the image is supplied to the output unit 290. Note that in S432, the output control unit 270 does not generate a moving image from an image in an area other than the person area and supplies it to the output unit 290, but outputs the image itself in an area other than the person area to the output unit 290. You may let them.

以上説明したように、撮像装置100は、人物の動きを検出した場合には、人物の動きを検出しない場合より高解像度・高表示レートの動画をサーバ170に送信する。このとき、撮像装置100は、伝送経路140の負荷が高い場合には、人物の動きが検出された領域だけ高解像度にして他の領域をトリミングしたフレーム画像を含む動画をサーバ170に送信し、その後に人物の動きが検出されなくなったときに、トリミングされた人物領域以外の画像を送信する。したがって、撮像装置100によると、伝送経路140の負荷が大きい場合であっても、動画データがサーバ170に到着するのに要する時間を削減することができる。   As described above, when detecting the movement of a person, the imaging apparatus 100 transmits a moving image having a higher resolution and a higher display rate to the server 170 than when no movement of the person is detected. At this time, when the load on the transmission path 140 is high, the imaging apparatus 100 transmits to the server 170 a moving image including a frame image obtained by trimming other regions with a high resolution only in the region in which the movement of the person is detected, Thereafter, when the movement of the person is not detected, an image other than the trimmed person area is transmitted. Therefore, according to the imaging apparatus 100, even when the load on the transmission path 140 is large, the time required for moving image data to arrive at the server 170 can be reduced.

図5は、画質格納部262が格納している画質情報の一例をテーブル形式で示す。画質格納部262は、人物の面積S及び動きの速さVに対応づけて、出力する動画に含まれる出力フレーム画像の解像度PR及び出力する動画の表示レートFRを格納している。例えば、画質格納部262は、人物の面積SがS1以上S2未満であり、動きの速さVがV1未満である場合には、出力フレーム画像の解像度としてPR3、出力する動画の表示レートとしてFR1を格納している。   FIG. 5 shows an example of image quality information stored in the image quality storage unit 262 in a table format. The image quality storage unit 262 stores the resolution PR of the output frame image included in the output moving image and the display rate FR of the moving image to be output in association with the area S of the person and the speed of movement V. For example, when the area S of the person is S1 or more and less than S2 and the speed of movement V is less than V1, the image quality storage unit 262 uses PR3 as the resolution of the output frame image and FR1 as the display rate of the moving image to be output. Is stored.

なお、解像度PRの高さはPR4>PR3>PR2>PR1であり、表示レートFRの高さはFR4>FR3>FR2>FR1である。このように、画質格納部262は、より大きい動きの速さに対応づけてより高い表示レートFRを格納しており、より小さい人物の面積に対応づけてより大きい解像度PRを格納している。このため、撮像装置100は、人物がより大きく写っているフレーム画像の解像度をより低くすることによって、送信する動画のデータ量が必要以上に大きくなってしまうことを未然に防ぐことができる。また、撮像装置100は、より速く動く人物が検出された場合には、表示レートを大きくするので、人物が何をしているかを監視者が容易に判別することができる動画を提供することができる。   Note that the height of the resolution PR is PR4> PR3> PR2> PR1, and the height of the display rate FR is FR4> FR3> FR2> FR1. In this way, the image quality storage unit 262 stores a higher display rate FR in association with a larger speed of movement, and stores a larger resolution PR in association with a smaller person area. For this reason, the imaging apparatus 100 can prevent the data amount of the moving image to be transmitted from becoming unnecessarily large by lowering the resolution of the frame image in which the person is captured larger. In addition, since the imaging apparatus 100 increases the display rate when a person who moves faster is detected, it is possible to provide a moving image that allows the monitor to easily determine what the person is doing. it can.

なお、上記の説明では、画質格納部262は、人物の面積S及び動きの速さVに対応づけて、出力フレーム画像の解像度PR及び出力する動画の表示レートFRを格納しているが、画質格納部262は、人物の面積S及び動きの速さVに対応づけて、出力フレーム画像の解像度PR及び階調数、並びに出力する動画の表示レートFRを格納してもよい。例えば、画質格納部262は、より大きい人物の面積に対応づけてより小さい階調数を格納してもよい。そして、出力動画生成部282は、人物の面積がより大きい場合に、より小さい階調数の出力フレーム画像から出力動画を生成してもよい。   In the above description, the image quality storage unit 262 stores the resolution PR of the output frame image and the display rate FR of the moving image to be output in association with the area S and the movement speed V of the person. The storage unit 262 may store the resolution PR and the number of gradations of the output frame image and the display rate FR of the moving image to be output in association with the area S of the person and the speed of movement V. For example, the image quality storage unit 262 may store a smaller number of gradations in association with the area of a larger person. Then, the output moving image generation unit 282 may generate an output moving image from an output frame image having a smaller number of gradations when the area of the person is larger.

このように、条件格納部240は、撮像部200が撮像した画像から抽出されるべきオブジェクトの条件を格納する。そして、オブジェクト抽出部225は、撮像部200が撮像した画像から、条件に適合するオブジェクトを抽出する。そして、画像生成部280は、オブジェクト抽出部225が抽出したオブジェクトの大きさがより大きい場合に、撮像部200が撮像した画像をより低画質の画像に変換する。そして、出力部290は、画像生成部280が変換して得られた画像を出力する。   As described above, the condition storage unit 240 stores the condition of the object to be extracted from the image captured by the imaging unit 200. Then, the object extraction unit 225 extracts an object that meets the conditions from the image captured by the imaging unit 200. Then, when the size of the object extracted by the object extraction unit 225 is larger, the image generation unit 280 converts the image captured by the imaging unit 200 into a lower quality image. Then, the output unit 290 outputs the image obtained by the conversion by the image generation unit 280.

例えば、条件格納部240は、抽出されるべきオブジェクトと予め定められたオブジェクトとの間の一致度の下限値を格納する。そして、オブジェクト抽出部225は、条件格納部240が格納している下限値より高い一致度で予め定められたオブジェクトと一致するオブジェクトを、撮像部200が撮像した動画から抽出する。そして、画像生成部280は、オブジェクト抽出部225が抽出したオブジェクトの大きさがより大きい場合に、撮像部200が撮像した画像をより低画質の画像に変換する。   For example, the condition storage unit 240 stores a lower limit value of the degree of coincidence between an object to be extracted and a predetermined object. Then, the object extraction unit 225 extracts, from the moving image captured by the imaging unit 200, an object that matches a predetermined object with a higher matching degree than the lower limit value stored in the condition storage unit 240. Then, when the size of the object extracted by the object extraction unit 225 is larger, the image generation unit 280 converts the image captured by the imaging unit 200 into a lower quality image.

また、条件格納部240は、抽出されるべきオブジェクトが有するべき予め定められた色範囲に含まれる色が占める面積の下限値を格納する。そして、オブジェクト抽出部225は、予め定められた色範囲に含まれる色が占める面積が、条件格納部240が格納している面積の下限値以上であるオブジェクトを、撮像部200が撮像した動画から抽出する。そして、画像生成部280は、オブジェクト抽出部225が抽出したオブジェクトの大きさがより大きい場合に、撮像部200が撮像した画像をより低画質の画像に変換する。   In addition, the condition storage unit 240 stores a lower limit value of an area occupied by a color included in a predetermined color range that an object to be extracted should have. The object extraction unit 225 then captures an object in which the area occupied by the color included in the predetermined color range is equal to or larger than the lower limit value of the area stored in the condition storage unit 240 from the moving image captured by the imaging unit 200. Extract. Then, when the size of the object extracted by the object extraction unit 225 is larger, the image generation unit 280 converts the image captured by the imaging unit 200 into a lower quality image.

具体的には、画像生成部280は、オブジェクト抽出部225が抽出したオブジェクトの大きさがより大きい場合に、撮像部200が撮像した画像をより低解像度の画像に変換する。また、画像生成部280は、オブジェクト抽出部225が抽出したオブジェクトの大きさがより大きい場合に、撮像部200が撮像した画像をより少ない階調数の画像に変換する。   Specifically, when the size of the object extracted by the object extraction unit 225 is larger, the image generation unit 280 converts the image captured by the imaging unit 200 into a lower resolution image. In addition, when the size of the object extracted by the object extraction unit 225 is larger, the image generation unit 280 converts the image captured by the imaging unit 200 into an image having a smaller number of gradations.

図6は、出力動画生成部282が生成するトリミング画像の一例を示す。出力動画生成部282は、画像600から、出力部290が出力する動画に含めるべきトリミング画像Aを生成する。なお、画像600は、撮像部200が撮像した動画の1コマのフレーム画像であってよいし、平均化画像生成部202が生成した平均化画像であってもよい。動き方向特定部223及び動き量算出部222は、連続する複数の画像においてオブジェクト抽出部225が抽出した同一人物650の位置の変化から、画像600における人物650の動き方向660及び人物650の動きの速さVを算出する。   FIG. 6 shows an example of a trimmed image generated by the output moving image generation unit 282. The output moving image generation unit 282 generates a trimmed image A to be included in the moving image output from the output unit 290 from the image 600. Note that the image 600 may be a frame image of a single frame of a moving image captured by the imaging unit 200, or an averaged image generated by the averaged image generation unit 202. The movement direction identification unit 223 and the movement amount calculation unit 222 determine the movement direction 660 of the person 650 and the movement of the person 650 in the image 600 from the change in the position of the same person 650 extracted by the object extraction unit 225 in a plurality of consecutive images. The speed V is calculated.

そして、出力動画生成部282は、人物650を含み、動き方向特定部223が特定した動き方向の画像幅xが、動き方向に垂直な方向の画像幅yより大きいトリミング枠610を決定する(図4のS422)。本図の例では、出力動画生成部282は、動き方向特定部223が特定した動き方向の側が、動き方向と反対の側より広いトリミング枠610を決定する。   Then, the output moving image generation unit 282 determines the trimming frame 610 that includes the person 650 and whose image width x in the motion direction identified by the motion direction identification unit 223 is larger than the image width y in the direction perpendicular to the motion direction (see FIG. 4 S422). In the example of this figure, the output moving image generation unit 282 determines a trimming frame 610 in which the side of the movement direction specified by the movement direction specification unit 223 is wider than the side opposite to the movement direction.

そして、出力動画生成部282は、トリミング枠610内のトリミング画像Aを画像600が撮像されたタイミングの出力フレーム画像とする動画を生成して、出力部290に供給する(図4のS428)。そして、画像保持部214は、トリミング枠610外の領域画像Bを記憶しておく(図4のS426)。そして、出力部290は、出力部290が出力する動画データの送信データ量より許容データ量が大きいタイミングで、画像保持部214が記憶している領域画像Bを送信する(図4のS432)。   Then, the output moving image generation unit 282 generates a moving image that uses the trimmed image A in the trimming frame 610 as an output frame image at the timing when the image 600 is captured, and supplies the generated moving image to the output unit 290 (S428 in FIG. 4). Then, the image holding unit 214 stores the region image B outside the trimming frame 610 (S426 in FIG. 4). Then, the output unit 290 transmits the region image B stored in the image holding unit 214 at a timing when the allowable data amount is larger than the transmission data amount of the moving image data output from the output unit 290 (S432 in FIG. 4).

このように、画像生成部280は、オブジェクトを含み、オブジェクトに対する動き方向の側の領域が、オブジェクトに対して動き方向と反対方向の側の領域より広い動画構成画像を、撮像部200が撮像した動画に含まれる動画構成画像からトリミングによって生成する。このため、撮像装置100は、人物650だけでなく、人物650の移動先の画像領域を含めてトリミングした画像をサーバ170に送信することができる。これにより、撮像装置100は、撮像した全領域の画像を送信する場合に比べて送信するデータ量を削減しつつ、監視者にとって望ましい監視対象被写体が写った動画を提供することができる。このため、撮像装置100は、伝送経路140が混雑していて全画像の動画を送信する余裕がないような場合であっても、監視者が人物650を十分に監視することができる内容を持つ動画を速やかにサーバ170に提供することができる。   As described above, the image generation unit 280 includes the object, and the imaging unit 200 captures a moving image configuration image in which the region on the moving direction side with respect to the object is wider than the region on the side opposite to the moving direction with respect to the object. It is generated by trimming from a moving image constituent image included in a moving image. Therefore, the imaging apparatus 100 can transmit not only the person 650 but also the trimmed image including the image area to which the person 650 is moved to the server 170. As a result, the imaging apparatus 100 can provide a moving image in which a monitoring target subject desirable for the supervisor is captured while reducing the amount of data to be transmitted compared to the case of transmitting the entire captured image. For this reason, the imaging apparatus 100 has a content that allows the supervisor to sufficiently monitor the person 650 even when the transmission path 140 is congested and there is no room to transmit the moving images of all the images. A moving image can be promptly provided to the server 170.

図7は、出力動画生成部282が生成するトリミング画像の他の一例を示す。本図の例では、動き量算出部222は、図6より大きい動きの速さを算出している。このとき、出力動画生成部282は、動き方向特定部223が特定した方向760の画像幅がより大きくなるトリミング画像Aが得られるよう、トリミング枠710を設定する。このため、撮像装置100は、人物の動きが速い場合であっても、監視者が人物の行動意図を的確に判断することができる監視画像をサーバ170に提供することができる。   FIG. 7 shows another example of a trimmed image generated by the output moving image generation unit 282. In the example of this figure, the motion amount calculation unit 222 calculates a speed of motion greater than that of FIG. At this time, the output moving image generating unit 282 sets the trimming frame 710 so that a trimmed image A in which the image width in the direction 760 specified by the motion direction specifying unit 223 is larger is obtained. Therefore, the imaging apparatus 100 can provide the server 170 with a monitoring image that allows the monitoring person to accurately determine the action intention of the person even when the movement of the person is fast.

図8は、出力動画生成部282が生成するトリミング画像の更なる他の一例を示す。本図の例では、出力動画生成部282は、人物850が略中央に位置するトリミング枠810を決定する。このように、画像生成部280は、オブジェクト抽出部225が抽出したオブジェクトを含み、オブジェクトに対して動き方向の側の領域が、オブジェクトに対して動き方向と反対方向の側の領域より広い動画構成画像を、撮像部200が撮像した動画に含まれる動画構成画像からトリミングによって生成する。つまり、出力動画生成部282は、人物850の動き方向と側の領域と、当該動き方向と反対方向の側の領域とが略同一となるトリミング画像Aを得ることができるトリミング枠810を決定する。このようにすると、撮像装置100は、人物850の前後方向の領域を監視者が適切に監視することができる画像を、サーバ170に提供することができる。   FIG. 8 shows still another example of the trimmed image generated by the output moving image generating unit 282. In the example of this figure, the output moving image generation unit 282 determines the trimming frame 810 where the person 850 is located substantially at the center. As described above, the image generation unit 280 includes the object extracted by the object extraction unit 225, and a moving image configuration in which the region on the moving direction side with respect to the object is wider than the region on the side opposite to the moving direction with respect to the object. An image is generated by trimming from a moving image constituent image included in a moving image captured by the imaging unit 200. In other words, the output moving image generation unit 282 determines a trimming frame 810 that can obtain a trimmed image A in which the area of the person 850 in the direction of movement and the area in the direction opposite to the direction of movement are substantially the same. . In this way, the imaging apparatus 100 can provide the server 170 with an image that allows the monitor to appropriately monitor the area of the person 850 in the front-rear direction.

なお、図6から図8の説明では、撮像装置100が撮像したフレーム画像又は平均化画像をトリミングする例について説明したが、トリミング枠610、710、及び810でトリミングすることに代えて、撮像制御部210は、トリミング枠610、710、及び810内の被写体に対して撮像条件を合わせて、撮像部200に撮像させてもよい。例えば、撮像制御部210は、トリミング枠610、710、及び810の範囲が撮像部200の撮像範囲となるよう、撮像部200の撮像方向及びズーム値を制御してよい。   In the description of FIGS. 6 to 8, the example of trimming the frame image or the averaged image captured by the imaging apparatus 100 has been described. However, instead of trimming with the trimming frames 610, 710, and 810, imaging control is performed. The unit 210 may cause the imaging unit 200 to capture the image capturing conditions of the subjects in the trimming frames 610, 710, and 810 together. For example, the imaging control unit 210 may control the imaging direction and zoom value of the imaging unit 200 so that the range of the trimming frames 610, 710, and 810 becomes the imaging range of the imaging unit 200.

図9は、出力部290が出力する動画に含まれるフレーム画像の一例を時系列で示す。平均化画像生成部202は、撮像部200が連続して撮像した4つのフレーム画像を平均化することによって、平均化画像910、920、930、940、・・・、980、990・・・を生成する。そして、連続する平均化画像の間で変化がない場合には、出力動画生成部282は、撮像部200の撮像間隔の所定数倍(例えば、4倍)の表示間隔で出力フレーム画像が表示される動画を、出力部290に供給する。例えば、出力動画生成部282は、所定数の連続するフレーム画像を平均化した平均化画像(例えば、910、920、930)が出力フレーム画像である動画を、出力部290に供給する。なお、出力動画生成部282は、平均化画像の画素を適宜間引いた画像を出力フレーム画像とする動画を出力部290に供給してよいし、連続する平均化画像から差分画像生成部216が生成した差分画像を含む動画を出力部290に供給してもよい。   FIG. 9 shows an example of a frame image included in the moving image output by the output unit 290 in time series. The averaged image generation unit 202 averages four frame images continuously captured by the imaging unit 200, thereby obtaining averaged images 910, 920, 930, 940,..., 980, 990. Generate. When there is no change between the continuous averaged images, the output moving image generation unit 282 displays the output frame image at a display interval that is a predetermined number of times (for example, 4 times) the imaging interval of the imaging unit 200. The moving image is supplied to the output unit 290. For example, the output moving image generation unit 282 supplies the output unit 290 with a moving image in which an averaged image (for example, 910, 920, 930) obtained by averaging a predetermined number of consecutive frame images is an output frame image. Note that the output moving image generation unit 282 may supply the output unit 290 with a moving image whose output frame image is an image obtained by appropriately thinning out the pixels of the averaged image, or the difference image generation unit 216 generates from the continuous averaged image. A moving image including the difference image may be supplied to the output unit 290.

そして、例えば時刻t12、t16のように、連続する平均化画像(例えば、平均化画像920及び930、平均化画像930及び平均化画像940)の間で変化が検出され、適合判断部230が平均化画像(例えば、平均化画像930、940)に人物の動きに適合するオブジェクトが存在すると判断すると、出力動画生成部282は、時刻t12より後に撮像部200が撮像したフレーム画像を有する動画を出力部290に供給する。   Then, for example, at times t12 and t16, a change is detected between successive averaged images (for example, averaged images 920 and 930, averaged image 930 and averaged image 940), and the conformity determining unit 230 calculates the average. When it is determined that there is an object that matches the movement of the person in the digitized image (for example, the averaged images 930 and 940), the output moving image generation unit 282 outputs a moving image having a frame image captured by the imaging unit 200 after time t12. Part 290.

このとき、図4のS420〜S428で説明したように、出力動画生成部282は、図6から図8に関連して説明したトリミング枠でトリミングしたトリミング画像941を出力フレーム画像とする動画を、出力部290に供給してよい。そして、画像保持部214は、トリミングされた部分の画像945を保持しておく。そして、出力動画生成部282は、人物の動きが検出されなくなる時刻t80までの間、撮像部200が撮像する撮像間隔の出力フレーム画像を有する動画を生成して、出力部290に供給する。作図の都合上図示されていないが、時刻t14から時刻t80までの間においても、画像保持部214はトリミングされた部分の画像を保持してよいことは言うまでもない。   At this time, as described in S420 to S428 in FIG. 4, the output moving image generation unit 282 generates a moving image in which the trimming image 941 trimmed with the trimming frame described in relation to FIGS. You may supply to the output part 290. FIG. Then, the image holding unit 214 holds an image 945 of the trimmed part. Then, the output moving image generation unit 282 generates a moving image having an output frame image of the imaging interval captured by the imaging unit 200 until time t80 when no human motion is detected, and supplies the generated moving image to the output unit 290. Although not shown for the sake of drawing, it is needless to say that the image holding unit 214 may hold the trimmed portion of the image from time t14 to time t80.

そして、平均化画像980及び990のように、連続する平均化画像の間で変化が検出されなくなると、出力動画生成部282は、再び平均化画像が1コマの出力フレーム画像である動画を出力部290に供給する。このとき、出力制御部270は、画像保持部214が保持している画像945を出力部290に出力させる。なお、出力制御部270は、出力部290から出力される単位時間あたりのデータ量が許容データ量取得部250が取得した許容データ量以下になるよう、画像945を複数の領域に分割して、分割した複数の領域の画像を出力部290に順次出力させてもよい。   When no change is detected between successive averaged images, such as the averaged images 980 and 990, the output moving image generation unit 282 again outputs a moving image in which the averaged image is an output frame image of one frame. Part 290. At this time, the output control unit 270 causes the output unit 290 to output the image 945 held by the image holding unit 214. The output control unit 270 divides the image 945 into a plurality of regions so that the data amount per unit time output from the output unit 290 is equal to or less than the allowable data amount acquired by the allowable data amount acquisition unit 250. You may make the output part 290 output the image of the divided | segmented several area | region sequentially.

なお、画像保持部214は、時刻t13〜t80で撮像部200が撮像したフレーム画像の全体を保持しておき、変化が検出されなくなった時刻t81以降において、画像保持部214が保持しているフレーム画像を1コマの出力フレーム画像とする動画を出力部290に出力させてもよい。このとき、出力制御部270は、出力部290が出力する単位時間あたりのデータ量の合計が、許容データ量取得部250が取得した許容データ量以下になるよう、出力部290に送信させる画像の大きさ、解像度、又は階調数を決定してよい。なお、出力制御部270は、いずれのタイミングで撮像された画像であるかを示すタイミング情報を含めて、画像保持部214が保持しているフレーム画像(又は画像945)を出力部290に出力させる。   The image holding unit 214 holds the entire frame image captured by the imaging unit 200 from time t13 to t80, and the frame held by the image holding unit 214 after time t81 when no change is detected. You may make the output part 290 output the moving image which makes an image the output frame image of 1 flame | frame. At this time, the output control unit 270 causes the output unit 290 to transmit the image data to be transmitted so that the total amount of data per unit time output by the output unit 290 is equal to or less than the allowable data amount acquired by the allowable data amount acquisition unit 250. The size, resolution, or number of gradations may be determined. Note that the output control unit 270 causes the output unit 290 to output the frame image (or the image 945) held by the image holding unit 214, including timing information indicating at which timing the image is captured. .

このように、平均化画像生成部202は、所定の時間幅の期間に撮像部200が撮像した動画に含まれる複数の動画構成画像を平均化して、所定の時間幅毎に平均化画像を生成する。そして、出力動画生成部282は、第1の期間に撮像部200が撮像した動画に含まれる複数の動画構成画像を平均化して平均化画像生成部202が生成した第1平均化画像が条件に適合しない旨を適合判断部230が判断した場合に、第1平均化画像を第1の期間の出力動画の動画構成画像とし、第1平均化画像が条件に適合する旨を適合判断部230が判断した場合に、第1の期間に撮像部200が撮像した動画を第1の期間の出力動画とする。   As described above, the averaged image generating unit 202 averages a plurality of moving image constituent images included in the moving image captured by the imaging unit 200 during a predetermined time width, and generates an averaged image for each predetermined time width. To do. Then, the output moving image generation unit 282 averages a plurality of moving image constituent images included in the moving image captured by the imaging unit 200 in the first period, and the first averaged image generated by the averaged image generation unit 202 is a condition. When the conformity determining unit 230 determines that the images do not conform, the first averaged image is used as a moving image constituent image of the output moving image in the first period, and the conformity determining unit 230 determines that the first averaged image meets the conditions. When it is determined, the moving image captured by the imaging unit 200 in the first period is set as the output moving image in the first period.

また、平均化画像生成部202は、所定の時間幅の期間に撮像部200が撮像した動画に含まれる複数の動画構成画像を平均化して、所定の時間幅毎に平均化画像を生成してよい。そして、出力動画生成部282は、第1の期間に撮像部200が撮像した動画に含まれる複数の動画構成画像を平均化して平均化画像生成部202が生成した第1平均化画像が条件に適合しない旨を適合判断部230が判断した場合に、第1の期間の次の第2の期間に撮像部200が撮像した複数の動画構成画像を平均化して平均化生成部が生成した平均化画像を第2の期間の出力動画の動画構成画像とし、第1平均化画像が条件に適合する旨を適合判断部230が判断した場合に、第2の期間に撮像部200が撮像した動画を第2の期間の出力動画としてよい。   Further, the averaged image generating unit 202 averages a plurality of moving image constituent images included in the moving image captured by the imaging unit 200 during a predetermined time width, and generates an averaged image for each predetermined time width. Good. Then, the output moving image generation unit 282 averages a plurality of moving image constituent images included in the moving image captured by the imaging unit 200 in the first period, and the first averaged image generated by the averaged image generation unit 202 is a condition. Averaging generated by the averaging generation unit by averaging a plurality of moving image constituent images captured by the image capturing unit 200 in the second period following the first period when the conformity determining unit 230 determines that the images do not conform. The moving image captured by the image capturing unit 200 in the second period when the conformity determining unit 230 determines that the image is the moving image constituent image of the output moving image in the second period and the first averaged image meets the conditions. It is good also as an output animation of the 2nd period.

なお、平均化画像生成部202は、複数の平均化画像によって表される動画の表示レートが許容データ量取得部250が取得したデータ量で送信することができる動画の表示レートより低くなるよう、一の平均化画像を生成するために用いる複数の動画構成画像が撮像される時間幅を決定し、当該時間幅の期間に撮像部200が撮像した動画に含まれる複数の動画構成画像を平均化して、当該時間幅毎に平均化画像を生成してよい。   Note that the averaged image generating unit 202 is configured such that the display rate of the moving image represented by the plurality of averaged images is lower than the display rate of the moving image that can be transmitted with the data amount acquired by the allowable data amount acquiring unit 250. A time width in which a plurality of moving image constituent images used for generating one averaged image is captured is determined, and a plurality of moving image constituent images included in the moving images captured by the imaging unit 200 during the time width are averaged. Thus, an averaged image may be generated for each time width.

なお、上述の例では、出力制御部270は、変化が検出されなくなった場合に画像945を出力部290に出力させた。他の例では、出力制御部270は、画像保持部214が画像を保持してから所定の時間が経過したことを条件として、画像945を出力部290に出力させてよい。また、画像保持部214が更に記憶することができる記憶容量が予め定められた値より少なくなったことを条件として、画像945を送信してもよい。その他にも、出力制御部270は、動画における画像945の領域に予め定められた値を超える変化が生じたことを条件として、画像945を送信してもよい。   In the above example, the output control unit 270 causes the output unit 290 to output the image 945 when no change is detected. In another example, the output control unit 270 may cause the output unit 290 to output the image 945 on condition that a predetermined time has elapsed since the image holding unit 214 held the image. Further, the image 945 may be transmitted on condition that the storage capacity that the image holding unit 214 can further store is less than a predetermined value. In addition, the output control unit 270 may transmit the image 945 on condition that a change exceeding a predetermined value has occurred in the area of the image 945 in the moving image.

なお、上述のように画像945を送信すると、許容データ量取得部250から取得したデータ量である許容データ量を超える可能性がある。このような場合、出力動画生成部282は、画像945及びトリミング画像941を出力部290から送信した場合に単位時間あたりに送信される送信データ量を許容データ量以下にすべく、トリミング画像941−944及び画像945の合計のデータ量を低下させてもよい。例えば、出力動画生成部282は、圧縮率を上げたり画質を低下させたりすることによって、合計のデータ量を低下させてよい。このように出力制御部270は、画像945を送信するための帯域を確保してもよい。なお、出力制御部270は、出力部290から送信されるデータ量が許容データ量より小さくなったことを条件として、画像945を送信してもよい。なお、出力動画生成部282は、送信データ量を許容データ量以下にすべく、画像945の画質又は画像945を圧縮する圧縮率を調整してよい。   If the image 945 is transmitted as described above, the allowable data amount that is the data amount acquired from the allowable data amount acquisition unit 250 may be exceeded. In such a case, the output moving image generation unit 282 causes the trimming image 941 to reduce the transmission data amount transmitted per unit time when the image 945 and the trimming image 941 are transmitted from the output unit 290 to be equal to or less than the allowable data amount. The total data amount of 944 and image 945 may be reduced. For example, the output moving image generating unit 282 may reduce the total data amount by increasing the compression rate or reducing the image quality. As described above, the output control unit 270 may secure a band for transmitting the image 945. Note that the output control unit 270 may transmit the image 945 on condition that the amount of data transmitted from the output unit 290 is smaller than the allowable data amount. Note that the output moving image generation unit 282 may adjust the image quality of the image 945 or the compression rate for compressing the image 945 so that the transmission data amount is equal to or less than the allowable data amount.

図10は、出力動画生成部282が生成する出力フレーム画像の一例を示す。本図は、図9の時刻t13において撮像部200が撮像したフレーム画像から出力動画生成部282が生成する出力フレーム画像の他の一例を示す。図9の例では、出力動画生成部282は、撮像部200が撮像するフレーム画像のうち、人物を含む領域を含むトリミング画像が出力フレーム画像である動画を生成して出力部290に出力させたが、本図の例では、出力動画生成部282は、人物を含む領域の解像度が人物を含む領域以外の領域の解像度より高い出力フレーム画像1010を含む動画を生成して、出力部290に出力させる。   FIG. 10 shows an example of an output frame image generated by the output moving image generation unit 282. This figure shows another example of the output frame image generated by the output moving image generation unit 282 from the frame image captured by the imaging unit 200 at time t13 in FIG. In the example of FIG. 9, the output moving image generation unit 282 generates a moving image in which a trimming image including an area including a person is an output frame image among the frame images captured by the imaging unit 200 and causes the output unit 290 to output the generated moving image. However, in the example of this figure, the output moving image generation unit 282 generates a moving image including the output frame image 1010 in which the resolution of the region including the person is higher than the resolution of the region other than the region including the person, and outputs the generated moving image to the output unit 290. Let

出力動画生成部282は、撮像部200が撮像したフレーム画像において、人物を含む領域より人物を含む領域以外の領域からより多くの画素を間引くことによって出力フレーム画像1010を生成する。なお、出力動画生成部282は、出力フレーム画像1010における複数の領域のそれぞれの解像度を示す解像度情報を含めて出力部290に出力させてよい。また、画像保持部214は、出力動画生成部282が間引いた画素で表される画像を保持してよく、出力制御部270は、画像保持部214が保持している画像を、時刻t81以降において出力部290に出力させてよい。   The output moving image generation unit 282 generates the output frame image 1010 by thinning out more pixels from the region other than the region including the person in the frame image captured by the imaging unit 200 from the region including the person. Note that the output moving image generation unit 282 may cause the output unit 290 to output the resolution information indicating the resolution of each of the plurality of regions in the output frame image 1010. Further, the image holding unit 214 may hold an image represented by the pixels thinned out by the output moving image generation unit 282, and the output control unit 270 may store the image held by the image holding unit 214 after time t81. You may make it output to the output part 290. FIG.

以上説明したように、撮像部200は、表示装置180〜182が表示することができる画素数、階調数、及び表示レートの動画データより多いデータ量の動画を撮像する。また、撮像部200は、伝送経路140が単位時間あたりに伝送することができる撮像装置100の1台あたりのデータ量より大きいデータ量の動画を撮像する。そして、出力動画生成部282及び出力制御部270は、出力部290に出力させる動画の画質、例えば解像度、階調数、及び表示レートを制御することによって、出力部290が時間あたりに出力するデータ量を低減させる。   As described above, the imaging unit 200 captures a moving image having a larger data amount than the moving image data having the number of pixels, the number of gradations, and the display rate that can be displayed by the display devices 180 to 182. In addition, the imaging unit 200 captures a moving image having a data amount larger than the data amount per unit of the imaging apparatus 100 that can be transmitted by the transmission path 140 per unit time. The output moving image generation unit 282 and the output control unit 270 control the image quality of the moving image to be output to the output unit 290, for example, the resolution, the number of gradations, and the display rate, so that the output unit 290 outputs data per time. Reduce the amount.

図11は、出力部290が伝送経路140に出力すべきデータ量の時間発展の一例を示す。許容データ量取得部250は、伝送経路140が単位時間あたりに伝送することができる撮像装置100の1台あたりのデータ量を、伝送経路140が許容することができる時間あたりのデータ量である許容データ量として取得する。図1から図10にかけて説明したように、出力動画生成部282及び出力制御部270は、出力部290に出力させる動画の解像度、階調数、及び表示レートを制御することによって、出力部290が時間あたりに出力するデータ量が許容データ量を超えないように制御する。   FIG. 11 shows an example of the time evolution of the amount of data that the output unit 290 should output to the transmission path 140. The allowable data amount acquisition unit 250 is a permissible amount of data per unit time that the transmission path 140 can allow the data amount per unit of the imaging apparatus 100 that the transmission path 140 can transmit per unit time. Get as data volume. As described with reference to FIGS. 1 to 10, the output moving image generation unit 282 and the output control unit 270 control the resolution, the number of gradations, and the display rate of the moving image to be output to the output unit 290 so that the output unit 290 Control the amount of data output per hour so that it does not exceed the allowable amount of data.

例えば、出力動画生成部282は、人物の動きが検出されたりすることによって撮像部200が撮像した表示レート又は解像度の高い動画を送信しようとすると、例えば時刻t1102〜t1103の期間のように、出力部290が出力する単位時間あたりのデータ量が許容データ量を超えてしまう。このような場合、出力動画生成部282は、出力部290が単位時間当たりに出力するデータ量を許容データ量まで低減させるべく、撮像部200が撮像したフレーム画像をトリミングして人物を含む部分の動画を生成したり、人物の動き速さに応じてフレーム画像を適宜間引いたりして、低データ量の動画を生成する。そして、出力制御部270は、時刻1102〜t1103までの間にトリミングされた画像又は間引いた画素で表される画像を、単位時間当たりに出力するデータ量が許容データ量より小さくなる期間(例えば、時刻t1103〜t1104の期間)に出力部290に出力させる。このような制御によって、撮像装置100は、許容データ量と略同一のデータ量の動画を、サーバ170に送信することができる。このため、監視システム110によると、伝送経路140の帯域幅を有効に使用することができる。   For example, if the output moving image generating unit 282 attempts to transmit a moving image with a high display rate or resolution captured by the image capturing unit 200 by detecting the movement of a person, the output moving image generating unit 282 outputs, for example, during a period from time t1102 to t1103. The amount of data per unit time output by the unit 290 exceeds the allowable data amount. In such a case, the output moving image generation unit 282 trims the frame image captured by the imaging unit 200 to reduce the amount of data output by the output unit 290 per unit time to an allowable data amount. A moving image having a low data amount is generated by generating a moving image or by appropriately decimating frame images according to the movement speed of a person. Then, the output control unit 270 outputs a trimmed image from time 1102 to t1103 or an image represented by thinned pixels during a period in which the data amount output per unit time is smaller than the allowable data amount (for example, During the period from time t1103 to time t1104). With such control, the imaging apparatus 100 can transmit a moving image having a data amount substantially the same as the allowable data amount to the server 170. For this reason, according to the monitoring system 110, the bandwidth of the transmission path 140 can be used effectively.

図12は、条件格納部240が格納している条件の一例を示す。条件格納部240は、人物の面積、オブジェクトの動き速さ、変化領域の面積、特定色の面積、基準オブジェクトとの間の形状の一致度、及び基準方向との間の移動方向の一致度のそれぞれについて、下限値(S1、V1、Sα、Sβ、sγ、md)を格納している。そして、適合判断部230は、平均化画像生成部202が生成した平均化画像において、条件格納部240が格納している下限値以上の人物の面積、オブジェクトの動く速さ、変化領域の面積、特定色の面積、基準オブジェクトとの間の形状の一致度、又は基準方向との間の移動方向の一致度を有するオブジェクトが検出された場合に、当該平均化画像は条件格納部240が格納している条件に適合すると判断する。このとき、図1から図11に関連して説明したように、出力動画生成部282は、条件格納部240が格納している条件に適合しないと適合判断部230が判断した場合より高画質の動画を、撮像部200が撮像した動画から生成する。   FIG. 12 shows an example of conditions stored in the condition storage unit 240. The condition storage unit 240 stores the area of the person, the speed of movement of the object, the area of the change area, the area of the specific color, the degree of coincidence of the shape with the reference object, and the degree of coincidence of the movement direction with the reference direction. For each, a lower limit value (S1, V1, Sα, Sβ, sγ, md) is stored. Then, in the averaged image generated by the averaged image generation unit 202, the conformity determination unit 230 includes the area of the person equal to or higher than the lower limit value stored in the condition storage unit 240, the moving speed of the object, the area of the change region, When an object having a specific color area, a shape coincidence with a reference object, or a movement direction coincidence with a reference direction is detected, the average image is stored in the condition storage unit 240. It is judged that it meets the conditions. At this time, as described with reference to FIGS. 1 to 11, the output moving image generation unit 282 has higher image quality than the case where the conformity determination unit 230 determines that the conditions stored in the condition storage unit 240 do not conform. A moving image is generated from the moving image captured by the imaging unit 200.

なお、条件格納部240は、撮像部200が撮像した複数のフレーム画像又は平均化画像生成部202が生成した複数の平均化画像の間で、予め定められた値以上変化した画素値を持つ画素の数の下限値を、変化領域の面積の下限値として格納してよい。また、条件格納部240は、複数のフレーム画像又は複数の平均化画像の全画素数に対する、予め定められた値以上変化した画素値を持つ画素数の比の下限値を、変化領域の面積の下限値として格納してもよい。なお、画素値とは輝度値であってよい。   The condition storage unit 240 is a pixel having a pixel value that has changed by a predetermined value or more between a plurality of frame images captured by the imaging unit 200 or a plurality of averaged images generated by the averaged image generation unit 202. May be stored as the lower limit value of the area of the change region. In addition, the condition storage unit 240 sets a lower limit value of the ratio of the number of pixels having a pixel value changed by a predetermined value or more to the total number of pixels of the plurality of frame images or the plurality of averaged images as the area of the change region. You may store as a lower limit. Note that the pixel value may be a luminance value.

また、条件格納部240は、複数のフレーム画像又は複数の平均化画像に含まれる、予め定められた色範囲に含まれる色を有する画素の数の下限値を、特定色の面積の下限値として格納してよい。また、条件格納部240は、フレーム画像又は平均化画像の全画素数に対する、予め定められた色範囲に含まれる色を有する画素の数の比の下限値を、特定色の面積の下限値として格納してもよい。   In addition, the condition storage unit 240 uses the lower limit value of the number of pixels having colors included in a predetermined color range included in a plurality of frame images or a plurality of averaged images as a lower limit value of the area of the specific color. May be stored. In addition, the condition storage unit 240 sets the lower limit value of the ratio of the number of pixels having a color included in a predetermined color range to the total number of pixels of the frame image or the averaged image as the lower limit value of the area of the specific color. It may be stored.

また、条件格納部240は、フレーム画像又は平均化画像に含まれるオブジェクトの輪郭が同じ面積を有する予め定められた基準オブジェクトと重なり合う部分の面積の下限値を、基準オブジェクトとの間の形状の一致度の下限値として格納してよい。また、条件格納部240は、フレーム画像又は平均化画像に含まれるオブジェクトの輪郭が同じ面積を有する予め定められた基準オブジェクトと重なり合う部分の面積の、オブジェクトの面積に対する比の下限値を、基準オブジェクトとの間の形状の一致度の下限値として格納してもよい。   In addition, the condition storage unit 240 sets the lower limit value of the area where the outline of the object included in the frame image or the averaged image overlaps with a predetermined reference object having the same area, and matches the shape with the reference object. It may be stored as the lower limit of the degree. Further, the condition storage unit 240 sets the lower limit value of the ratio of the area of the portion overlapping the predetermined reference object having the same area as the contour of the object included in the frame image or the averaged image to the area of the object. May be stored as the lower limit value of the degree of coincidence of the shape between and.

また、条件格納部240は、フレーム画像又は平均化画像に含まれるオブジェクトの動き方向と予め定められた基準方向との間のなす角度に反比例する指標値の下限値を、基準方向と移動方向の一致度の下限値として格納してよい。なお基準方向とは、フレーム画像上又は平均化画像上において予め定められた方向であってよく、実空間において予め定められた方向であってもよい。なお、条件格納部240は、フレーム画像又は平均化画像に含まれるオブジェクトが示す被写体が動く方向と当該被写体の位置から撮像部200に向かう方向との間のなす角度に反比例する指標値の下限値を、基準方向と移動方向の一致度の下限値として格納してよい。   The condition storage unit 240 also sets a lower limit value of the index value that is inversely proportional to the angle formed between the movement direction of the object included in the frame image or the averaged image and a predetermined reference direction, in the reference direction and the movement direction. It may be stored as the lower limit value of the matching degree. The reference direction may be a predetermined direction on the frame image or the averaged image, or may be a predetermined direction in the real space. Note that the condition storage unit 240 is a lower limit value of the index value that is inversely proportional to the angle formed between the moving direction of the subject indicated by the object included in the frame image or the averaged image and the direction from the subject position toward the imaging unit 200. May be stored as the lower limit value of the degree of coincidence between the reference direction and the moving direction.

図13は、撮像部200に向かう被写体が撮像されたフレーム画像1310、1320、及び1330の一例を示す。動き方向特定部223は、撮像部200が撮像したフレーム画像1310、1320、及び1330のそれぞれからオブジェクト抽出部225が抽出したオブジェクト1315、1325、及び1335の重心位置1311、1321、及び1331を算出する。また、動き方向特定部223は、フレーム画像1310、1320、及び1330のそれぞれからオブジェクト抽出部225が抽出したオブジェクトの長さl1312、l1322、及びl1332を算出する。   FIG. 13 shows an example of frame images 1310, 1320, and 1330 in which a subject that faces the imaging unit 200 is captured. The movement direction identification unit 223 calculates the barycentric positions 1311, 1321, and 1331 of the objects 1315, 1325, and 1335 extracted by the object extraction unit 225 from the frame images 1310, 1320, and 1330 captured by the imaging unit 200, respectively. . In addition, the movement direction identification unit 223 calculates the object lengths l1312, l1322, and l1332 extracted by the object extraction unit 225 from the frame images 1310, 1320, and 1330, respectively.

そして、動き方向特定部223は、フレーム画像1310、1320、及び1330にわたるオブジェクトの長さの増加率及びオブジェクトの重心位置の変化率を算出して、算出したオブジェクトの長さの増加率が予め定められた基準値以上であり、かつオブジェクトの重心位置の変化率が予め定められた基準値より小さい場合に、オブジェクトが示す被写体が撮像部200に向かっている旨を判断する。   Then, the movement direction identification unit 223 calculates an increase rate of the object length and a change rate of the center of gravity position of the object over the frame images 1310, 1320, and 1330, and the calculated increase rate of the object length is determined in advance. If it is equal to or greater than the determined reference value and the rate of change in the center of gravity of the object is smaller than a predetermined reference value, it is determined that the subject indicated by the object is facing the imaging unit 200.

なお、条件格納部240は、オブジェクトの重心が画像における中心に向かう方向を示す条件を格納してよい。そして、適合判断部230は、重心位置の移動方向が、画像における中心に向かう方向を示す場合に、条件格納部240が格納している条件に適合する旨を判断する。なお、条件格納部240は、オブジェクトの重心が画像における中心に向かう方向を示す条件の他に、オブジェクトの大きさの変化を示す条件を格納してもよい。例えば、条件格納部240は、複数の動画構成画像又は平均化画像にわたって、オブジェクトの長さの増加速度が予め定められた増加速度より大きく、オブジェクトの重心が画像における中心に向かっていること又はオブジェクトの重心が画像における中心近傍にあることを示す条件を格納してよい。   The condition storage unit 240 may store a condition indicating the direction in which the center of gravity of the object is directed toward the center of the image. Then, the suitability determining unit 230 determines that the condition stored in the condition storage unit 240 is satisfied when the moving direction of the gravity center position indicates a direction toward the center of the image. The condition storage unit 240 may store a condition indicating a change in the size of the object in addition to a condition indicating the direction in which the center of gravity of the object is directed toward the center of the image. For example, the condition storage unit 240 may indicate that the increase speed of the object length is larger than a predetermined increase speed over a plurality of moving image constituent images or averaged images, and that the center of gravity of the object is directed toward the center in the image or the object A condition indicating that the center of gravity is near the center of the image may be stored.

このように、撮像装置100は、撮像部200に向かってくる被写体を検出したときに出力する動画の画質を高めることができる。このため、盗難から守るべき物体に撮像部200を設けることによって、その物体に近づく人物を適切に監視することができる。また、撮像装置100は、撮像部200に対して布をかぶせる等の妨害工作をしようとする人物を適切に監視することができる。   As described above, the imaging apparatus 100 can improve the image quality of the moving image that is output when the subject that is facing the imaging unit 200 is detected. For this reason, by providing the imaging unit 200 on an object to be protected from theft, it is possible to appropriately monitor a person approaching the object. In addition, the imaging apparatus 100 can appropriately monitor a person who is trying to perform an obstruction such as covering the imaging unit 200 with a cloth.

図14は、条件設定部242が設定する動き速さの下限値の時間発展の一例を示す。伝送経路140は、時刻t1400〜t1401、時刻t1402〜t1403、及び時刻t1404〜t1405の期間、略一定のデータ量の動画を伝送している。これらの期間においては、いずれの撮像装置100も人物の動きを検出しておらず、全ての撮像装置100は、撮像した動画を低画質の動画に変換して出力することによって、合計のデータ量R0の動画を出力している。   FIG. 14 shows an example of the time evolution of the lower limit value of the movement speed set by the condition setting unit 242. The transmission path 140 transmits a moving image having a substantially constant data amount during the period from time t1400 to t1401, time t1402 to t1403, and time t1404 to t1405. During these periods, none of the image capturing apparatuses 100 detects the movement of a person, and all the image capturing apparatuses 100 convert the captured moving image into a low-quality moving image and output the total amount of data. R0 video is being output.

一方、時刻t1401〜t1402、時刻t1403〜t1404、及び時刻t1405〜t1406の期間には、いずれかの撮像装置100が人物の動きを検出しており、撮像した動画を低画質の動画にすることなくそのまま伝送経路140に出力することによって、伝送経路140が時間あたりに伝送するデータが増大する。このとき、許容データ量取得部250は、伝送経路140が単位時間あたりに伝送することができる最大のデータ量Rmaxと、伝送経路140が時間あたりに伝送しているデータ量との差を、単位時間あたりに許容される許容データ量として取得する。なお、許容データ量取得部250は、伝送経路140が単位時間あたりに伝送することができる最大のデータ量Rmaxと伝送経路140が時間あたりに伝送しているデータ量との差を、伝送経路140に動画を出力する撮像装置100の個数で除した値を、許容データ量として取得してもよい。   On the other hand, during the period from time t1401 to t1402, time t1403 to t1404, and time t1405 to t1406, one of the imaging devices 100 detects the movement of a person, and the captured moving image is not converted to a low-quality moving image. By outputting to the transmission path 140 as it is, the data transmitted by the transmission path 140 per time increases. At this time, the allowable data amount acquisition unit 250 calculates the difference between the maximum data amount Rmax that the transmission path 140 can transmit per unit time and the data amount that the transmission path 140 transmits per unit time. Acquired as the allowable amount of data allowed per hour. The allowable data amount acquisition unit 250 calculates the difference between the maximum data amount Rmax that the transmission path 140 can transmit per unit time and the data amount that the transmission path 140 transmits per unit time. Alternatively, a value divided by the number of imaging devices 100 that output a moving image may be acquired as the allowable data amount.

そして、条件設定部242は、許容データ量取得部250が取得した許容データ量に反比例する動き速さの下限値を、条件格納部240に格納させる。これにより、条件格納部240には、許容データ量がより小さいほどより大きい動き速さの下限値が格納される。   Then, the condition setting unit 242 causes the condition storage unit 240 to store a lower limit value of the motion speed that is inversely proportional to the allowable data amount acquired by the allowable data amount acquisition unit 250. As a result, the condition storage unit 240 stores a lower limit value of the movement speed that is larger as the allowable data amount is smaller.

なお、撮像装置100には、優先順位が予め定められてよい。そして、条件設定部242は、より高い優先順位が撮像装置100に定められている場合に、より低い動き速さの下限値を条件格納部240に格納させてよい。また、条件設定部242は、予め定められた順で所定の期間毎に、許容データ量に応じた動き速さの下限値を条件格納部240に格納させてよい。   Note that the priority order of the imaging apparatus 100 may be determined in advance. The condition setting unit 242 may store the lower limit value of the lower motion speed in the condition storage unit 240 when a higher priority is set in the imaging apparatus 100. In addition, the condition setting unit 242 may cause the condition storage unit 240 to store a lower limit value of the movement speed corresponding to the allowable data amount for each predetermined period in a predetermined order.

以上の説明においては、条件格納部240が格納している動き速さの下限値を、許容データ量に応じて条件設定部242が設定する場合について説明したが、条件設定部242は同様に、条件格納部240が格納している人物の面積の下限値、変化領域の面積の下限値、特定色の面積の下限値、基準オブジェクトとの間の形状の一致度の下限値、及び基準方向との間の移動方向の一致度の下限値を、許容データ量に応じて設定することができることは言うまでもない。   In the above description, the case where the condition setting unit 242 sets the lower limit value of the movement speed stored in the condition storage unit 240 according to the allowable data amount has been described. The lower limit value of the area of the person stored in the condition storage unit 240, the lower limit value of the area of the change area, the lower limit value of the area of the specific color, the lower limit value of the degree of coincidence with the reference object, and the reference direction It goes without saying that the lower limit value of the degree of coincidence in the movement direction between the two can be set according to the allowable data amount.

図15は、出力動画生成部282が生成する動画の他の一例を示す。出力動画生成部282は、撮像装置100によって時刻t1501−1507に撮像された画像1591−1597から、それぞれ人物の顔の領域1551−1557を特定する。そして、出力動画生成部282は、当該領域1551−1557以外の領域の画素値を所定値にすることによって、オブジェクト領域画像1511−1517を生成する。このようにして出力動画生成部282は、オブジェクト領域画像1511−1517を含む出力動画1510を生成する。   FIG. 15 shows another example of the moving image generated by the output moving image generating unit 282. The output moving image generation unit 282 identifies human face regions 1551-1557 from images 1591-1597 captured at time t 1501-1507 by the imaging device 100. Then, the output moving image generation unit 282 generates the object region images 1511-1517 by setting the pixel values of the regions other than the region 1551-1557 to a predetermined value. In this way, the output moving image generation unit 282 generates the output moving image 1510 including the object area images 1511-1517.

また、出力動画生成部282は、画像1591、1593、1595、及び1597の画素を間引くことによって解像度が低減された画像における、人物の体の領域1561、1563、1565、及び1567を特定する。そして出力動画生成部282は、当該領域1561、1563、1565、及び1567以外の領域の画素値を所定値にすることによって、オブジェクト領域画像1521、1523、1525、及び1527を生成する。このようにして出力動画生成部282は、オブジェクト領域画像1521、1523、1525、及び1527を含む出力動画1520を生成する。   In addition, the output moving image generation unit 282 identifies human body regions 1561, 1563, 1565, and 1567 in an image whose resolution is reduced by thinning out pixels of the images 1591, 1593, 1595, and 1597. Then, the output moving image generation unit 282 generates object region images 1521, 1523, 1525, and 1527 by setting pixel values in regions other than the regions 1561, 1563, 1565, and 1567 to predetermined values. In this way, the output moving image generation unit 282 generates the output moving image 1520 including the object area images 1521, 1523, 1525, and 1527.

また、出力動画生成部282は、画像1591及び1595の解像度をさらに低減することによって、オブジェクト領域以外の領域の画像である背景領域画像1531及び1535を生成する。このように、出力動画生成部282は、解像度及び表示レートが異なる動画1510、1520、及び1530を生成する。なお、本図の例では、動画1510は動画1520より高画質となり、動画1520は動画1530より高画質となっている。このように、出力動画生成部282は、オブジェクトの種類に応じて予め定められた解像度及び表示レートの動画を生成する。なお、オブジェクトの種類は、本図に説明したような人物の顔及び体の他に、条件格納部240が格納している条件または複数の条件の組み合わせで特定されてよい。   Further, the output moving image generating unit 282 generates background area images 1531 and 1535 that are images of areas other than the object area by further reducing the resolution of the images 1591 and 1595. As described above, the output moving image generation unit 282 generates moving images 1510, 1520, and 1530 having different resolutions and display rates. In the example of this figure, the moving image 1510 has a higher image quality than the moving image 1520, and the moving image 1520 has a higher image quality than the moving image 1530. In this manner, the output moving image generation unit 282 generates a moving image having a resolution and a display rate that are determined in advance according to the type of the object. Note that the type of the object may be specified by the condition stored in the condition storage unit 240 or a combination of a plurality of conditions in addition to the face and body of the person described in the figure.

そして、出力制御部270は、許容データ量の範囲内で出力部290から送信することができる動画を、動画のデータ量に基づいて選択する。例えば、出力制御部270は、動画1510、動画1520、動画1530の順に、許容データ量の範囲内で出力部290から送信することができる動画を選択する。なお、出力制御部270は、図9等に関連して説明したように、選択されなかった動画に含まれるフレーム画像を、後に送信できるようになったタイミングで出力部290に送信させる。   Then, the output control unit 270 selects a moving image that can be transmitted from the output unit 290 within the range of the allowable data amount based on the data amount of the moving image. For example, the output control unit 270 selects a moving image that can be transmitted from the output unit 290 within the range of the allowable data amount in the order of the moving image 1510, the moving image 1520, and the moving image 1530. Note that the output control unit 270 causes the output unit 290 to transmit the frame image included in the unselected moving image at a timing when it can be transmitted later, as described with reference to FIG. 9 and the like.

なお、出力動画生成部282は、動画1510、動画1520、及び動画1530の単位で、含まれる複数のオブジェクト領域画像を圧縮符号化してもよい。このように、出力動画生成部282が、オブジェクト領域以外の領域の画素値を所定値にしてから圧縮符号化するので、汎用の符号化器を使用しつつ動画のデータ量を著しく低減することができる。   Note that the output moving image generation unit 282 may compress and encode a plurality of object area images included in units of the moving image 1510, the moving image 1520, and the moving image 1530. As described above, the output moving image generation unit 282 performs compression encoding after setting the pixel values in the region other than the object region to a predetermined value, so that the amount of moving image data can be significantly reduced while using a general-purpose encoder. it can.

図16は、出力動画生成部282が生成した他の動画に含まれる動画構成画像の一例を示す。出力動画生成部282は、画像1591の画素を間引くことによって縮小した低解像度画像1631を生成する。また、出力動画生成部282は、画像1591の画素を間引くことによって縮小した中解像度画像を生成する。なお、ここでは、中解像度画像は、低解像度画像より高解像度であるとする。また、低解像度画像1631中には、低解像度な人物領域1671が含まれる。   FIG. 16 shows an example of a moving image constituent image included in another moving image generated by the output moving image generating unit 282. The output moving image generation unit 282 generates a low-resolution image 1631 reduced by thinning out pixels of the image 1591. Further, the output moving image generation unit 282 generates a medium resolution image reduced by thinning out pixels of the image 1591. Here, it is assumed that the medium resolution image has a higher resolution than the low resolution image. The low resolution image 1631 includes a low resolution person area 1671.

また、出力動画生成部282は、中解像度画像と低解像度画像1631との間の差分により差分画像1621を生成する。ここで、出力動画生成部282は、差分画像1621における人物領域1661以外の領域における画素の差分値を0にする。この操作により、差分画像1621における人物領域1661(頭部領域1661a及び体部領域1661b)以外の領域の画像内容は、低解像度画像1631と実質的に等価になる。   Further, the output moving image generation unit 282 generates a difference image 1621 based on the difference between the medium resolution image and the low resolution image 1631. Here, the output moving image generation unit 282 sets the difference value of the pixels in the area other than the person area 1661 in the difference image 1621 to 0. As a result of this operation, the image contents of the region other than the person region 1661 (the head region 1661a and the body region 1661b) in the difference image 1621 are substantially equivalent to the low-resolution image 1631.

また、出力動画生成部282は、画像1591と中解像度画像との間の差分により、差分画像1611を生成する。ここで、出力動画生成部282は、差分画像1611における人物の頭部領域1651以外の領域における画素の差分値を0にする。この操作により、差分画像1611における頭部領域1651以外の領域の画像内容は、低解像度画像1621と実質的に等価になる。   Further, the output moving image generation unit 282 generates a difference image 1611 based on the difference between the image 1591 and the medium resolution image. Here, the output moving image generation unit 282 sets the difference value of the pixels in the region other than the human head region 1651 in the difference image 1611 to 0. By this operation, the image content of the region other than the head region 1651 in the difference image 1611 is substantially equivalent to the low resolution image 1621.

このように、出力動画生成部282は、画像1591を、いわば低精細な低解像度画像1631、人物領域1661において中程度の精細度を有する差分画像1621、及び人物の頭部領域において高精細な差分画像1611に分解する。これらの画像を足し合わせて得られる足し合わせ画像は、人物領域が他の領域より高精細であり、人物領域内では頭部領域が他の領域より高精細となる。したがって、足し合わせ画像は、元の画像1591よりデータ量が著しく低減されたものとなる。   Thus, the output moving image generation unit 282 converts the image 1591 into a low-definition low-resolution image 1631, a difference image 1621 having medium definition in the person area 1661, and a high-definition difference in the person's head area. The image 1611 is decomposed. In the added image obtained by adding these images, the person area has a higher definition than the other areas, and the head area has a higher definition than the other areas in the person area. Therefore, the data amount of the summed image is significantly reduced compared to the original image 1591.

なお、ここまでの説明では、1の画像1591から複数のオブジェクト領域画像を生成する生成方法について説明したが、同様にして、複数の画像からそれぞれ複数のオブジェクト領域画像を生成することができる。そして、出力動画生成部282は、同じ解像度の差分画像を一組の動画構成画像とする動画を生成する。   In the description so far, the generation method for generating a plurality of object area images from one image 1591 has been described. Similarly, a plurality of object area images can be generated from a plurality of images. And the output moving image production | generation part 282 produces | generates the moving image which uses the difference image of the same resolution as a set of moving image constituent images.

なお、差分画像1621及び差分画像1611は、この発明におけるオブジェクト領域画像の一例であってよい。そして、出力制御部270は、許容データ量の範囲内で出力部290から送信することができる動画を、動画のデータ量及び許容データ量に基づいて選択する。なお、上述したように、送信することができない動画に含まれるオブジェクト領域画像は、後に送信することができるよう画像保持部214に格納される。   Note that the difference image 1621 and the difference image 1611 may be examples of the object region image in the present invention. Then, the output control unit 270 selects a moving image that can be transmitted from the output unit 290 within the range of the allowable data amount based on the data amount of the moving image and the allowable data amount. As described above, the object area image included in the moving image that cannot be transmitted is stored in the image holding unit 214 so that it can be transmitted later.

なお、本図に関連して説明したように、出力動画生成部282が差分画像をオブジェクト領域画像として生成した場合には、人物領域の画像を復元するためには低解像度の画像が必要となる。したがって、このような場合、出力制御部270は、より低解像度のオブジェクト領域画像をより優先して送信することが好ましい。   As described with reference to this figure, when the output moving image generation unit 282 generates a difference image as an object area image, a low-resolution image is required to restore the person area image. . Therefore, in such a case, it is preferable that the output control unit 270 transmits the lower-resolution object region image with higher priority.

図17は、監視システム110に係るコンピュータ1500のハードウェア構成の一例を示す。コンピュータ1500は、ホスト・コントローラ1582により相互に接続されるCPU1505、RAM1520、グラフィック・コントローラ1575、及び表示装置1580を有するCPU周辺部と、入出力コントローラ1584によりホスト・コントローラ1582に接続される通信インターフェイス1530、ハードディスクドライブ1540、及びCD−ROMドライブ1560を有する入出力部と、入出力コントローラ1584に接続されるROM1510、フレキシブルディスク・ドライブ1550、及び入出力チップ1570を有するレガシー入出力部とを備える。   FIG. 17 shows an exemplary hardware configuration of a computer 1500 related to the monitoring system 110. The computer 1500 includes a CPU peripheral unit including a CPU 1505, a RAM 1520, a graphic controller 1575, and a display device 1580 connected to each other by a host controller 1582, and a communication interface 1530 connected to the host controller 1582 by an input / output controller 1584. An input / output unit having a hard disk drive 1540 and a CD-ROM drive 1560, and a legacy input / output unit having a ROM 1510, a flexible disk drive 1550, and an input / output chip 1570 connected to the input / output controller 1584.

ホスト・コントローラ1582は、RAM1520と、高い転送レートでRAM1520をアクセスするCPU1505、及びグラフィック・コントローラ1575とを接続する。CPU1505は、ROM1510、及びRAM1520に格納されたプログラムに基づいて動作し、各部の制御を行う。グラフィック・コントローラ1575は、CPU1505等がRAM1520内に設けたフレーム・バッファ上に生成する画像データを取得し、表示装置1580上に表示させる。これに代えて、グラフィック・コントローラ1575は、CPU1505等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。   The host controller 1582 connects the RAM 1520, the CPU 1505 that accesses the RAM 1520 at a high transfer rate, and the graphic controller 1575. The CPU 1505 operates based on programs stored in the ROM 1510 and the RAM 1520 and controls each unit. The graphic controller 1575 acquires image data generated by the CPU 1505 and the like on a frame buffer provided in the RAM 1520 and displays the image data on the display device 1580. Alternatively, the graphic controller 1575 may include a frame buffer that stores image data generated by the CPU 1505 or the like.

入出力コントローラ1584は、ホスト・コントローラ1582と、比較的高速な入出力装置であるハードディスクドライブ1540、通信インターフェイス1530、CD−ROMドライブ1560を接続する。ハードディスクドライブ1540は、コンピュータ1500内のCPU1505が使用するプログラム、及びデータを格納する。通信インターフェイス1530は、ネットワークを介して撮像装置100と通信し、撮像装置100にプログラム、及びデータを提供する。CD−ROMドライブ1560は、CD−ROM1595からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、及び通信インターフェイス1530に提供する。   The input / output controller 1584 connects the host controller 1582 to the hard disk drive 1540, the communication interface 1530, and the CD-ROM drive 1560, which are relatively high-speed input / output devices. The hard disk drive 1540 stores programs and data used by the CPU 1505 in the computer 1500. The communication interface 1530 communicates with the image capturing apparatus 100 via a network, and provides programs and data to the image capturing apparatus 100. The CD-ROM drive 1560 reads a program or data from the CD-ROM 1595 and provides it to the hard disk drive 1540 and the communication interface 1530 via the RAM 1520.

また、入出力コントローラ1584には、ROM1510と、フレキシブルディスク・ドライブ1550、及び入出力チップ1570の比較的低速な入出力装置とが接続される。ROM1510は、コンピュータ1500が起動時に実行するブート・プログラムや、コンピュータ1500のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ1550は、フレキシブルディスク1590からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、及び通信インターフェイス1530に提供する。入出力チップ1570は、フレキシブルディスク・ドライブ1550や、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を接続する。   The input / output controller 1584 is connected to the ROM 1510, the flexible disk drive 1550, and the relatively low-speed input / output device of the input / output chip 1570. The ROM 1510 stores a boot program executed when the computer 1500 is started up, a program depending on the hardware of the computer 1500, and the like. The flexible disk drive 1550 reads a program or data from the flexible disk 1590 and provides it to the hard disk drive 1540 and the communication interface 1530 via the RAM 1520. The input / output chip 1570 connects various input / output devices via a flexible disk drive 1550 and, for example, a parallel port, a serial port, a keyboard port, a mouse port, and the like.

RAM1520を介して通信インターフェイス1530に提供されるプログラムは、フレキシブルディスク1590、CD−ROM1595、またはICカード等の記録媒体に格納されて利用者によって提供される。プログラムは、記録媒体から読み出され、RAM1520を介して通信インターフェイス1530に提供され、ネットワークを介して撮像装置100に送信される。撮像装置100に送信されたプログラムは、撮像装置100においてインストールされて実行される。   A program provided to the communication interface 1530 via the RAM 1520 is stored in a recording medium such as the flexible disk 1590, the CD-ROM 1595, or an IC card and provided by the user. The program is read from the recording medium, provided to the communication interface 1530 via the RAM 1520, and transmitted to the imaging apparatus 100 via the network. The program transmitted to the imaging apparatus 100 is installed and executed in the imaging apparatus 100.

撮像装置100にインストールされて実行されるプログラムは、撮像装置100を、図1から図16に関連して説明した撮像部200、平均化画像生成部202、撮像制御部210、オブジェクト領域特定部212、画像保持部214、差分画像生成部216、変化量算出部221、動き量算出部222、動き方向特定部223、特定色面積算出部224、及びオブジェクト抽出部225、適合判断部230、一致度算出部232、条件格納部240、条件設定部242、許容データ量取得部250、画質選択部260、画質格納部262、出力制御部270、画像生成部280、出力動画生成部282、及び出力部290として機能させる。   The program that is installed and executed in the imaging device 100 includes the imaging device 100, the averaged image generation unit 202, the imaging control unit 210, and the object region specifying unit 212 described with reference to FIGS. , Image holding unit 214, difference image generating unit 216, change amount calculating unit 221, motion amount calculating unit 222, motion direction specifying unit 223, specific color area calculating unit 224, object extracting unit 225, conformity determining unit 230, matching degree Calculation unit 232, condition storage unit 240, condition setting unit 242, allowable data amount acquisition unit 250, image quality selection unit 260, image quality storage unit 262, output control unit 270, image generation unit 280, output video generation unit 282, and output unit Function as 290.

以上に示したプログラムは、外部の記憶媒体に格納されてもよい。記憶媒体としては、フレキシブルディスク1590、CD−ROM1595の他に、DVDやPD等の光学記録媒体、MD等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワークやインターネットに接続されたサーバシステムに設けたハードディスクまたはRAM等の記憶装置を記録媒体として使用し、ネットワークを介してプログラムをコンピュータ1500に提供してもよい。   The program shown above may be stored in an external storage medium. As the storage medium, in addition to the flexible disk 1590 and the CD-ROM 1595, an optical recording medium such as a DVD or PD, a magneto-optical recording medium such as an MD, a tape medium, a semiconductor memory such as an IC card, or the like can be used. Further, a storage device such as a hard disk or a RAM provided in a server system connected to a dedicated communication network or the Internet may be used as a recording medium, and the program may be provided to the computer 1500 via the network.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加え得ることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

監視システム110の利用環境の一例を示す図である。2 is a diagram illustrating an example of a usage environment of a monitoring system 110. FIG. 撮像装置100のブロック構成の一例を示す図である。1 is a diagram illustrating an example of a block configuration of an imaging apparatus 100. FIG. 画像特徴量抽出部220のブロック構成の一例を示す図である。It is a figure which shows an example of the block configuration of the image feature-value extraction part 220. 撮像装置100の動作フローの一例を示す図である。3 is a diagram illustrating an example of an operation flow of the imaging apparatus 100. FIG. 画質格納部262が格納している画質情報の一例を示す図である。It is a figure which shows an example of the image quality information which the image quality storage part 262 has stored. 出力動画生成部282が生成するトリミング画像の一例を示す図である。It is a figure which shows an example of the trimming image which the output moving image production | generation part 282 produces | generates. トリミング画像の他の一例を示す図である。It is a figure which shows another example of a trimming image. トリミング画像の更なる他の一例を示す図である。It is a figure which shows another example of a trimming image. 出力部290が出力するフレーム画像の一例を時系列で示す図である。It is a figure which shows an example of the frame image which the output part 290 outputs in a time series. 出力動画生成部282が生成する出力フレーム画像の一例を示す図である。It is a figure which shows an example of the output frame image which the output moving image production | generation part 282 produces | generates. 出力部290が伝送経路140に出力するデータ量の時間発展の一例を示す図である。6 is a diagram illustrating an example of time development of the amount of data output from an output unit 290 to a transmission path 140. FIG. 条件格納部240が格納している条件の一例を示す図である。It is a figure which shows an example of the conditions which the condition storage part 240 has stored. 撮像部200に向かう被写体が撮像されたフレーム画像の一例を示す図である。FIG. 6 is a diagram illustrating an example of a frame image in which a subject heading for an imaging unit 200 is captured. 条件設定部242が設定する動き速さの下限値の時間発展の一例を示す図である。It is a figure which shows an example of the time development of the lower limit value of the moving speed which the condition setting part 242 sets. 出力動画生成部282が生成する動画の一例を示す図である。It is a figure which shows an example of the moving image which the output moving image generation part 282 produces | generates. 出力動画生成部282が生成した他の動画に含まれるフレーム画像の一例を示す図である。It is a figure which shows an example of the frame image contained in the other moving image which the output moving image generation part 282 produced | generated. 撮像装置100に係るコンピュータ1500のハードウェア構成の一例を示す図である。FIG. 25 is a diagram illustrating an example of a hardware configuration of a computer 1500 related to the imaging apparatus 100.

符号の説明Explanation of symbols

100 撮像装置
110 監視システム
140 伝送経路
150 監視領域
151 監視領域
152 監視領域
160 監視室
170 サーバ
180 表示装置
181 表示装置
182 表示装置
200 撮像部
202 平均化画像生成部
210 撮像制御部
212 オブジェクト領域特定部
214 画像保持部
216 差分画像生成部
220 画像特徴量抽出部
221 変化量算出部
222 動き量算出部
223 動き方向特定部
224 特定色面積算出部
225 オブジェクト抽出部
230 適合判断部
232 一致度算出部
240 条件格納部
242 条件設定部
250 許容データ量取得部
260 画質選択部
262 画質格納部
270 出力制御部
280 画像生成部
282 出力動画生成部
290 出力部
100 Imaging device 110 Monitoring system 140 Transmission path 150 Monitoring region 151 Monitoring region 152 Monitoring region 160 Monitoring room 170 Monitoring room 170 Server 180 Display device 181 Display device 182 Display device 200 Imaging unit 202 Averaged image generating unit 210 Imaging control unit 212 Object region specifying unit 214 Image holding unit 216 Difference image generating unit 220 Image feature amount extracting unit 221 Change amount calculating unit 222 Motion amount calculating unit 223 Motion direction specifying unit 224 Specific color area calculating unit 225 Object extracting unit 230 Conformity determining unit 232 Matching degree calculating unit 240 Condition storage unit 242 Condition setting unit 250 Allowable data amount acquisition unit 260 Image quality selection unit 262 Image quality storage unit 270 Output control unit 280 Image generation unit 282 Output video generation unit 290 Output unit

Claims (23)

監視領域の動画を撮像する撮像部と、
前記撮像部が撮像した動画から抽出されるべきオブジェクトの条件を格納する条件格納部と、
前記撮像部が撮像した動画に前記条件に適合するオブジェクトが存在するか否かを判断する適合判断部と、
前記適合判断部が前記条件に適合するオブジェクトが存在する旨を判断した場合に、前記条件に適合するオブジェクトを含むオブジェクト領域を特定するオブジェクト領域特定部と、
前記適合判断部が前記条件に適合するオブジェクトが存在する旨を判断した場合に、前記オブジェクト領域の画像を出力する出力部と、
前記適合判断部が前記条件に適合するオブジェクトが存在する旨を判断した場合に、前記オブジェクト領域以外の領域の画像を保持する画像保持部と、
前記画像保持部が前記オブジェクト領域以外の領域の画像を保持した後に、前記画像保持部が保持している前記オブジェクト領域以外の領域の画像を送信すべき旨を判断した場合に、前記画像保持部が保持している前記オブジェクト領域以外の領域の画像を前記出力部に出力させる出力制御部と
を備える監視システム。
An imaging unit that captures a moving image of the monitoring area;
A condition storage unit that stores conditions of an object to be extracted from the moving image captured by the imaging unit;
A conformity determination unit that determines whether or not an object that meets the condition exists in the moving image captured by the image capturing unit;
An object region specifying unit that specifies an object region including an object that meets the condition when the conformity determination unit determines that an object that meets the condition exists;
An output unit that outputs an image of the object area when the conformity determination unit determines that an object that meets the condition exists;
An image holding unit that holds an image of a region other than the object region when the matching determination unit determines that an object that meets the condition exists;
When it is determined that an image of an area other than the object area held by the image holding section should be transmitted after the image holding section holds an image of an area other than the object area, the image holding section A monitoring system comprising: an output control unit that causes the output unit to output an image of a region other than the object region held by the computer.
前記出力制御部は、前記画像保持部が前記オブジェクト領域以外の領域の画像を保持した後に、前記画像保持部が保持している前記オブジェクト領域以外の領域の画像を送信することができる旨を判断した場合に、前記画像保持部が保持している前記オブジェクト領域以外の領域の画像を前記出力部に出力させる
請求項1に記載の監視システム。
The output control unit determines that an image of an area other than the object area held by the image holding unit can be transmitted after the image holding part holds an image of an area other than the object area. 2. The monitoring system according to claim 1, wherein when the image is stored, the output unit outputs an image of an area other than the object area held by the image holding unit.
前記出力制御部は、前記画像保持部が前記オブジェクト領域以外の領域の画像を保持した後に、前記出力部が出力すべき動画のデータ量が予め定められたデータ量より小さい旨を判断した場合に、前記画像保持部が保持している前記オブジェクト領域以外の領域の画像を前記出力部に出力させる
請求項2に記載の監視システム。
When the output control unit determines that the data amount of the moving image to be output by the output unit is smaller than a predetermined data amount after the image holding unit holds an image of an area other than the object area. The monitoring system according to claim 2, wherein an image of an area other than the object area held by the image holding unit is output to the output unit.
前記出力部から出力することが許容されている単位時間あたりのデータ量を取得する許容データ量取得部
をさらに備え、
前記出力制御部は、前記画像保持部が前記オブジェクト領域以外の領域の画像を保持した後に、前記出力部が単位時間あたりに出力すべき動画のデータ量が前記許容データ量取得部が取得したデータ量より小さい旨を判断した場合に、前記画像保持部が保持している前記オブジェクト領域以外の領域の画像を前記出力部に出力させる
請求項3に記載の監視システム。
Further comprising an allowable data amount acquisition unit for acquiring a data amount per unit time allowed to be output from the output unit,
The output control unit includes the data acquired by the allowable data amount acquisition unit for the amount of moving image data that the output unit should output per unit time after the image holding unit stores an image of an area other than the object area. The monitoring system according to claim 3, wherein when it is determined that the amount is smaller than the amount, an image of an area other than the object area held by the image holding unit is output to the output unit.
前記出力制御部は、前記出力部から出力することが許容されているデータ量の範囲内で、前記画像保持部が保持している前記オブジェクト領域以外の領域の画像を前記出力部に出力させる
請求項2に記載の監視システム。
The output control unit causes the output unit to output an image of an area other than the object area held by the image holding unit within a range of data amount allowed to be output from the output unit. Item 3. The monitoring system according to Item 2.
前記出力部から出力することが許容されている単位時間あたりのデータ量を取得する許容データ量取得部
をさらに備え、
前記出力制御部は、前記画像保持部が前記オブジェクト領域以外の領域の画像を保持した後に、前記許容データ量取得部が取得したデータ量が予め定められた値より大きい旨が判断された場合に、前記画像保持部が保持している前記オブジェクト領域以外の領域の画像を前記出力部に出力させる
請求項2に記載の監視システム。
Further comprising an allowable data amount acquisition unit for acquiring a data amount per unit time allowed to be output from the output unit,
When the output control unit determines that the data amount acquired by the allowable data amount acquisition unit is greater than a predetermined value after the image storage unit stores an image of an area other than the object area. The monitoring system according to claim 2, wherein an image of an area other than the object area held by the image holding unit is output to the output unit.
前記出力制御部は、前記画像保持部が前記オブジェクト領域以外の領域の画像を保持した後の前記監視領域の動画における前記オブジェクト領域以外の領域の画像内容と、前記画像保持部が保持している前記オブジェクト領域以外の領域の画像内容との間の差が予め定められた値より大きい旨を判断した場合に、前記画像保持部が保持している前記オブジェクト領域以外の領域の画像を前記出力部に出力させる
請求項1に記載の監視システム。
The output control unit holds the image content of the region other than the object region in the moving image of the monitoring region after the image holding unit holds the image of the region other than the object region, and the image holding unit holds the image content When it is determined that the difference between the image content of the area other than the object area is larger than a predetermined value, the image of the area other than the object area held by the image holding section is output by the output section. The monitoring system according to claim 1, wherein the monitoring system is made to output.
前記出力制御部は、前記画像保持部が前記オブジェクト領域以外の領域の画像を保持してから予め定められた時間幅より長い時間幅の時間が経過した旨を判断した場合に、前記画像保持部が保持している前記オブジェクト領域以外の領域の画像を前記出力部に出力させる
請求項1に記載の監視システム。
When the output control unit determines that a time width longer than a predetermined time width has elapsed since the image holding unit held an image of an area other than the object area, the image holding unit The monitoring system according to claim 1, wherein the output unit outputs an image of an area other than the object area held by the computer.
前記出力制御部は、前記画像保持部が前記オブジェクト領域以外の領域の画像を保持した後の前記監視領域の動画において、前記適合判断部が前記条件に適合するオブジェクトが存在しない旨を判断した場合に、前記画像保持部が保持している前記オブジェクト領域以外の領域の画像を前記出力部に出力させる
請求項1に記載の監視システム。
When the output control unit determines that there is no object that satisfies the condition in the moving image of the monitoring area after the image holding unit holds an image of an area other than the object area. The monitoring system according to claim 1, wherein an image of an area other than the object area held by the image holding unit is output to the output unit.
前記条件格納部は、動画から抽出されるべきオブジェクトの動き量の下限値を格納し、
前記オブジェクト領域特定部は、前記撮像部が撮像した動画に含まれる複数の動画構成画像にわたるオブジェクトの動き量が、前記条件格納部が格納している動き量の下限値以上であるオブジェクトを含む領域を、前記オブジェクト領域として特定する
請求項1に記載の監視システム。
The condition storage unit stores a lower limit value of the amount of movement of the object to be extracted from the video,
The object area specifying unit includes an object including an object in which a motion amount of an object over a plurality of moving image constituent images included in the moving image captured by the imaging unit is equal to or greater than a lower limit value of the moving amount stored in the condition storage unit. The monitoring system according to claim 1, wherein the object area is specified.
前記条件格納部は、動画から抽出されるべきオブジェクトが有するべき予め定められたオブジェクトとの間の一致度の下限値を格納し、
前記オブジェクト領域特定部は、前記条件格納部が格納している一致度の下限値以上の一致度で一致するオブジェクトを含む領域を、前記オブジェクト領域として抽出する
請求項1に記載の監視システム。
The condition storage unit stores a lower limit value of the degree of coincidence with a predetermined object that the object to be extracted from the moving image should have,
The monitoring system according to claim 1, wherein the object area specifying unit extracts an area including an object that matches with a degree of matching equal to or higher than a lower limit value of the degree of matching stored in the condition storage unit as the object area.
前記条件格納部は、動画から抽出されるべきオブジェクトが有するべき予め定められた色範囲に含まれる色が占める面積の下限値を格納し、
前記オブジェクト領域特定部は、予め定められた色範囲に含まれる色の占める面積が前記条件格納部が格納している面積の下限値以上であるオブジェクトを含む領域を、前記オブジェクト領域として抽出する
請求項1に記載の監視システム。
The condition storage unit stores a lower limit value of an area occupied by a color included in a predetermined color range that an object to be extracted from a moving image should have,
The object region specifying unit extracts, as the object region, a region including an object in which an area occupied by a color included in a predetermined color range is equal to or greater than a lower limit value of an area stored in the condition storage unit. Item 2. The monitoring system according to Item 1.
前記出力部から出力することが許容されている単位時間あたりのデータ量を取得する許容データ量取得部
をさらに備え、
前記出力制御部は、前記画像保持部が前記オブジェクト領域以外の領域の画像を保持した後の前記監視領域の動画において、前記適合判断部が前記条件に適合するオブジェクトが存在しない旨を判断した場合に、前記許容データ量取得部が取得したデータ量が予め定められた値より大きいことを条件として、前記画像保持部が保持している前記オブジェクト領域以外の領域の画像を、前記出力部に出力させる
請求項9に記載の監視システム。
Further comprising an allowable data amount acquisition unit for acquiring a data amount per unit time allowed to be output from the output unit,
When the output control unit determines that there is no object that satisfies the condition in the moving image of the monitoring area after the image holding unit holds an image of an area other than the object area. In addition, on the condition that the data amount acquired by the allowable data amount acquisition unit is larger than a predetermined value, an image of an area other than the object area held by the image holding unit is output to the output unit. The monitoring system according to claim 9.
前記出力部から出力することが許容されている単位時間あたりのデータ量を取得する許容データ量取得部
をさらに備え、
前記出力制御部は、前記画像保持部が前記オブジェクト領域以外の領域の画像を保持した後の前記監視領域の動画において、前記適合判断部が前記条件に適合するオブジェクトが存在しない旨を判断した場合に、前記画像保持部が保持している前記オブジェクト領域以外の領域の画像を、前記許容データ量取得部が取得したデータ量に応じた画質で前記出力部に出力させる
請求項9に記載の監視システム。
Further comprising an allowable data amount acquisition unit for acquiring a data amount per unit time allowed to be output from the output unit,
When the output control unit determines that there is no object that satisfies the condition in the moving image of the monitoring area after the image holding unit holds an image of an area other than the object area. The monitoring according to claim 9, wherein an image of an area other than the object area held by the image holding unit is output to the output unit with an image quality corresponding to a data amount acquired by the allowable data amount acquiring unit. system.
前記出力部から出力することが許容されている単位時間あたりのデータ量を取得する許容データ量取得部
をさらに備え、
前記出力部は、前記適合判断部が前記条件に適合するオブジェクトが存在する旨を判断した場合に、前記許容データ量取得部が取得したデータ量がより大きいほどより高い画質で前記オブジェクト領域の画像を出力する
請求項9に記載の監視システム。
Further comprising an allowable data amount acquisition unit for acquiring a data amount per unit time allowed to be output from the output unit,
The output unit, when the conformity determination unit determines that there is an object that meets the condition, the larger the amount of data acquired by the allowable data amount acquisition unit, the higher the image quality of the object region. 10. The monitoring system according to claim 9, wherein
前記出力部から出力することが許容されている単位時間あたりのデータ量を取得する許容データ量取得部
をさらに備え、
前記オブジェクト領域特定部は、前記適合判断部が前記条件に適合するオブジェクトが存在する旨を判断した場合に、前記許容データ量取得部が取得したデータ量がより大きいほど前記条件に適合するオブジェクトを含むより大きい前記オブジェクト領域を特定する
請求項9に記載の監視システム。
Further comprising an allowable data amount acquisition unit for acquiring a data amount per unit time allowed to be output from the output unit,
When the conformity determining unit determines that there is an object that satisfies the condition, the object area specifying unit determines an object that conforms to the condition as the data amount acquired by the allowable data amount acquiring unit is larger. The monitoring system according to claim 9, wherein the object area larger than the object area is specified.
前記オブジェクト領域特定部は、前記適合判断部が前記条件に適合する複数のオブジェクトが存在する旨を判断した場合に、前記条件に適合する複数のオブジェクトをそれぞれ含む複数のオブジェクト領域を特定し、
前記出力部は、前記適合判断部が前記条件に適合する複数のオブジェクトが存在する旨を判断した場合に、オブジェクトの特徴の種類に応じて予め定められた優先度がより高いオブジェクトを含む前記オブジェクト領域の画像をより優先して出力し、
前記画像保持部は、前記適合判断部が前記条件に適合する複数のオブジェクトが存在する旨を判断した場合に、前記出力部が出力していない前記オブジェクト領域の画像及び前記オブジェクト領域以外の領域の画像を保持し、
前記出力制御部は、前記画像保持部が前記オブジェクト領域以外の領域の画像を保持した後に、前記画像保持部が保持している画像を送信すべき旨を判断した場合に、前記画像保持部が保持している画像を前記出力部に出力させる
請求項1に記載の監視システム。
The object region specifying unit specifies a plurality of object regions each including a plurality of objects that meet the condition when the conformity determining unit determines that there are a plurality of objects that meet the condition,
The output unit includes the object having a higher priority determined in advance according to the type of feature of the object when the conformity determination unit determines that there are a plurality of objects that match the condition. The area image is output with higher priority,
The image holding unit, when the conformity determining unit determines that there are a plurality of objects that meet the condition, the image of the object region not output by the output unit and the region other than the object region Hold the image,
When the output control unit determines that the image held by the image holding unit should be transmitted after the image holding unit holds an image of an area other than the object area, the image holding unit The monitoring system according to claim 1, wherein the held image is output to the output unit.
前記出力部は、出力する前記オブジェクト領域の画像のデータ量を予め定められたデータ量以下にすべく、オブジェクトの特徴の種類に応じて予め定められた優先度がより高いオブジェクトを含む前記オブジェクト領域の画像をより優先して出力する
請求項17に記載の監視システム。
The output unit includes the object region including an object having a higher priority predetermined according to the type of the feature of the object so that the data amount of the image of the object region to be output is equal to or less than a predetermined data amount. The monitoring system according to claim 17, wherein the image is output with higher priority.
前記出力制御部は、前記画像保持部が前記オブジェクト領域以外の領域の画像を保持した後に、前記画像保持部が保持している画像を送信すべき旨を判断した場合に、前記画像保持部が保持している前記オブジェクト領域の画像を、前記オブジェクト領域以外の領域の画像より優先して前記出力部に出力させる
請求項17に記載の監視システム。
When the output control unit determines that the image held by the image holding unit should be transmitted after the image holding unit holds an image of an area other than the object area, the image holding unit The monitoring system according to claim 17, wherein the image of the object area that is held is output to the output unit in preference to an image of an area other than the object area.
前記オブジェクト領域特定部は、前記適合判断部が前記条件に適合する複数のオブジェクトが存在する旨を判断した場合に、前記条件に適合する複数のオブジェクトをそれぞれ含む複数のオブジェクト領域を特定し、
前記監視システムは、
前記条件に適合するオブジェクトの特徴の種類毎に、オブジェクトの種類に応じて異なる画質のオブジェクト領域の画像であるオブジェクト領域画像を生成する画像生成部
をさらに備え、
前記出力部は、前記適合判断部が前記条件に適合する複数のオブジェクトが存在する旨を判断した場合に、前記画像生成部が生成したより高画質のオブジェクト領域画像をより優先して出力し、
前記画像保持部は、前記適合判断部が前記条件に適合する複数のオブジェクトが存在する旨を判断した場合に、前記出力部が出力していない前記オブジェクト領域の画像及び前記オブジェクト領域以外の領域の画像を保持し、
前記出力制御部は、前記画像保持部が前記オブジェクト領域以外の領域の画像を保持した後に、前記画像保持部が保持している画像を送信すべき旨を判断した場合に、前記画像保持部が保持している画像を前記出力部に出力させる
請求項1に記載の監視システム。
The object region specifying unit specifies a plurality of object regions each including a plurality of objects that meet the condition when the conformity determining unit determines that there are a plurality of objects that meet the condition,
The monitoring system includes:
An image generation unit that generates an object region image that is an image of an object region having different image quality depending on the type of the object for each type of object feature that meets the condition;
The output unit outputs the higher-quality object region image generated by the image generation unit with higher priority when the conformity determination unit determines that there are a plurality of objects that meet the condition,
The image holding unit, when the conformity determining unit determines that there are a plurality of objects that meet the condition, the image of the object region not output by the output unit and the region other than the object region Hold the image,
When the output control unit determines that the image held by the image holding unit should be transmitted after the image holding unit holds an image of an area other than the object area, the image holding unit The monitoring system according to claim 1, wherein the held image is output to the output unit.
前記オブジェクト領域特定部は、前記適合判断部が前記条件に適合する複数のオブジェクトが存在する旨を判断した場合に、前記条件に適合する複数のオブジェクトをそれぞれ含む複数のオブジェクト領域を特定し、
前記監視システムは、
前記条件に適合するオブジェクトの特徴の種類毎に、オブジェクトの種類に応じて異なる解像度のオブジェクト領域の画像であるオブジェクト領域画像を生成して、生成した高解像度のオブジェクト領域画像と低解像度のオブジェクト領域画像との間の差分画像を生成する画像生成部
をさらに備え、
前記出力部は、前記適合判断部が前記条件に適合する複数のオブジェクトが存在する旨を判断した場合に、前記画像生成部が生成したより低解像度のオブジェクト領域画像を前記差分画像より優先して出力し、
前記画像保持部は、前記適合判断部が前記条件に適合する複数のオブジェクトが存在する旨を判断した場合に、前記出力部が出力していない前記差分画像及び前記オブジェクト領域以外の領域の画像を保持し、
前記出力制御部は、前記画像保持部が前記オブジェクト領域以外の領域の画像を保持した後に、前記画像保持部が保持している画像を送信すべき旨を判断した場合に、前記画像保持部が保持している画像を前記出力部に出力させる
請求項1に記載の監視システム。
The object region specifying unit specifies a plurality of object regions each including a plurality of objects that meet the condition when the conformity determining unit determines that there are a plurality of objects that meet the condition,
The monitoring system includes:
For each type of object feature that meets the above conditions, an object area image that is an image of an object area having a different resolution according to the type of object is generated, and the generated high-resolution object area image and low-resolution object area are generated. An image generation unit that generates a difference image with the image;
The output unit gives priority to the lower resolution object region image generated by the image generation unit over the difference image when the determination unit determines that there are a plurality of objects that match the condition. Output,
The image holding unit, when the matching determination unit determines that there are a plurality of objects that match the condition, the difference image and the image of the region other than the object region that are not output by the output unit. Hold and
When the output control unit determines that the image held by the image holding unit should be transmitted after the image holding unit holds an image of an area other than the object area, the image holding unit The monitoring system according to claim 1, wherein the held image is output to the output unit.
監視領域の動画を撮像する撮像段階と、
前記撮像段階において撮像された動画から抽出されるべきオブジェクトの条件を格納する条件格納段階と、
前記撮像段階において撮像された動画に前記条件に適合するオブジェクトが存在するか否かを判断する適合判断段階と、
前記適合判断段階において前記条件に適合するオブジェクトが存在する旨が判断された場合に、前記条件に適合するオブジェクトを含むオブジェクト領域を特定するオブジェクト領域特定段階と、
前記適合判断段階において前記条件に適合するオブジェクトが存在する旨が判断された場合に、前記オブジェクト領域の画像を出力する出力段階と、
前記適合判断段階において前記条件に適合するオブジェクトが存在する旨が判断された場合に、前記オブジェクト領域以外の領域の画像を保持する画像保持段階と、
前記画像保持段階において前記オブジェクト領域以外の領域の画像を保持された後に、前記画像保持段階において保持されている前記オブジェクト領域以外の領域の画像を送信すべき旨が判断された場合に、前記画像保持段階において保持されている前記オブジェクト領域以外の領域の画像を前記出力段階において出力させる出力制御段階と
を備える監視方法。
An imaging stage for capturing a video of the surveillance area;
A condition storage step for storing the conditions of the object to be extracted from the moving image captured in the imaging step;
A conformity determination step of determining whether or not an object that satisfies the condition exists in the moving image captured in the imaging step;
An object region specifying step of specifying an object region including an object that meets the condition when it is determined in the matching determination step that an object that meets the condition exists;
An output step of outputting an image of the object region when it is determined that there is an object that satisfies the condition in the matching determination step;
An image holding step of holding an image of a region other than the object region when it is determined that an object that satisfies the condition exists in the matching determination step;
When it is determined that an image of an area other than the object area held in the image holding stage should be transmitted after an image of an area other than the object area is held in the image holding stage. A monitoring method comprising: an output control step of outputting an image of a region other than the object region held in the holding step in the output step.
監視システム用のプログラムであって、前記監視システムを、
監視領域の動画を撮像する撮像部、
前記撮像部が撮像した動画から抽出されるべきオブジェクトの条件を格納する条件格納部、
前記撮像部が撮像した動画に前記条件に適合するオブジェクトが存在するか否かを判断する適合判断部、
前記適合判断部が前記条件に適合するオブジェクトが存在する旨を判断した場合に、前記条件に適合するオブジェクトを含むオブジェクト領域を特定するオブジェクト領域特定部、
前記適合判断部が前記条件に適合するオブジェクトが存在する旨を判断した場合に、前記オブジェクト領域の画像を出力する出力部、
前記適合判断部が前記条件に適合するオブジェクトが存在する旨を判断した場合に、前記オブジェクト領域以外の領域の画像を保持する画像保持部、
前記画像保持部が前記オブジェクト領域以外の領域の画像を保持した後に、前記画像保持部が保持している前記オブジェクト領域以外の領域の画像を送信すべき旨を判断した場合に、前記画像保持部が保持している前記オブジェクト領域以外の領域の画像を前記出力部に出力させる出力制御部
として機能させるプログラム。
A monitoring system program comprising:
An imaging unit that captures a moving image of the monitoring area;
A condition storage unit that stores conditions of an object to be extracted from the moving image captured by the imaging unit;
A conformity determination unit that determines whether or not an object that satisfies the condition exists in the moving image captured by the image capturing unit;
An object region specifying unit that specifies an object region including an object that meets the condition when the conformity determination unit determines that an object that meets the condition exists;
An output unit that outputs an image of the object area when the conformity determination unit determines that there is an object that meets the condition;
An image holding unit that holds an image of a region other than the object region when the matching determination unit determines that an object that meets the condition exists;
When it is determined that an image of an area other than the object area held by the image holding section should be transmitted after the image holding section holds an image of an area other than the object area, the image holding section A program for causing the output unit to output an image of an area other than the object area held by the output unit.
JP2007323646A 2006-12-27 2007-12-14 Monitoring system, monitoring method, and program Expired - Fee Related JP4979083B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007323646A JP4979083B2 (en) 2006-12-27 2007-12-14 Monitoring system, monitoring method, and program
US11/965,603 US7940963B2 (en) 2006-12-27 2007-12-27 Monitoring system, monitoring method, and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006353192 2006-12-27
JP2006353192 2006-12-27
JP2007323646A JP4979083B2 (en) 2006-12-27 2007-12-14 Monitoring system, monitoring method, and program

Publications (2)

Publication Number Publication Date
JP2008182680A true JP2008182680A (en) 2008-08-07
JP4979083B2 JP4979083B2 (en) 2012-07-18

Family

ID=39726211

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007323646A Expired - Fee Related JP4979083B2 (en) 2006-12-27 2007-12-14 Monitoring system, monitoring method, and program

Country Status (1)

Country Link
JP (1) JP4979083B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014068183A (en) * 2012-09-26 2014-04-17 Jvc Kenwood Corp System and image pick-up device
JP2017516415A (en) * 2014-05-21 2017-06-15 クアルコム,インコーポレイテッド System and method for determining image resolution
KR20170126982A (en) * 2015-03-02 2017-11-20 이스라엘 에어로스페이스 인더스트리즈 리미티드 Remote object detection and tracking
WO2024047876A1 (en) * 2022-09-02 2024-03-07 日本電信電話株式会社 Video transmission system, video transmission control method, and program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000358221A (en) * 1999-06-14 2000-12-26 Olympus Optical Co Ltd Image display device
JP2001320705A (en) * 2000-05-09 2001-11-16 Oki Electric Ind Co Ltd Image data compression device for monitoring camera
JP2004120341A (en) * 2002-09-26 2004-04-15 Riosu Corp:Kk Video image monitoring system
JP2004200989A (en) * 2002-12-18 2004-07-15 Fuji Photo Film Co Ltd Imaging apparatus and supervisory system
JP2004206665A (en) * 2002-10-30 2004-07-22 Japan Science & Technology Agency Human face detecting method and human face detecting device
JP2004328318A (en) * 2003-04-24 2004-11-18 Spike Co Ltd Image compositing system for portable terminal with camera
JP2006033793A (en) * 2004-06-14 2006-02-02 Victor Co Of Japan Ltd Tracking video reproducing apparatus
JP2006245746A (en) * 2005-03-01 2006-09-14 Hitachi Kokusai Electric Inc Monitoring system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000358221A (en) * 1999-06-14 2000-12-26 Olympus Optical Co Ltd Image display device
JP2001320705A (en) * 2000-05-09 2001-11-16 Oki Electric Ind Co Ltd Image data compression device for monitoring camera
JP2004120341A (en) * 2002-09-26 2004-04-15 Riosu Corp:Kk Video image monitoring system
JP2004206665A (en) * 2002-10-30 2004-07-22 Japan Science & Technology Agency Human face detecting method and human face detecting device
JP2004200989A (en) * 2002-12-18 2004-07-15 Fuji Photo Film Co Ltd Imaging apparatus and supervisory system
JP2004328318A (en) * 2003-04-24 2004-11-18 Spike Co Ltd Image compositing system for portable terminal with camera
JP2006033793A (en) * 2004-06-14 2006-02-02 Victor Co Of Japan Ltd Tracking video reproducing apparatus
JP2006245746A (en) * 2005-03-01 2006-09-14 Hitachi Kokusai Electric Inc Monitoring system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014068183A (en) * 2012-09-26 2014-04-17 Jvc Kenwood Corp System and image pick-up device
JP2017516415A (en) * 2014-05-21 2017-06-15 クアルコム,インコーポレイテッド System and method for determining image resolution
KR101781773B1 (en) * 2014-05-21 2017-09-25 퀄컴 인코포레이티드 System and method for determining image resolution
KR20170126982A (en) * 2015-03-02 2017-11-20 이스라엘 에어로스페이스 인더스트리즈 리미티드 Remote object detection and tracking
KR102285078B1 (en) 2015-03-02 2021-08-04 이스라엘 에어로스페이스 인더스트리즈 리미티드 Remote detection and tracking of objects
WO2024047876A1 (en) * 2022-09-02 2024-03-07 日本電信電話株式会社 Video transmission system, video transmission control method, and program

Also Published As

Publication number Publication date
JP4979083B2 (en) 2012-07-18

Similar Documents

Publication Publication Date Title
EP2100453B1 (en) Monitoring system, monitoring method and program
US9247132B2 (en) Moving picture capturing device, information processing system, information processing device, and image data processing method
US9710923B2 (en) Information processing system, information processing device, imaging device, and information processing method
US20170236010A1 (en) Image pickup apparatus, information processing apparatus, and information processing method
US8169501B2 (en) Output apparatus, output method and program
US20140002604A1 (en) Information processing apparatus, information processing method, and data structure of position information
US8681239B2 (en) Image capturing device, image capturing method, program, and integrated circuit
US20070222858A1 (en) Monitoring system, monitoring method and program therefor
JP2011510521A (en) On-chip smart network camera system
JP4794938B2 (en) Monitoring system, monitoring device, monitoring method, and program
JP2007243660A (en) Monitoring system, monitoring method, and monitoring program
JP4979083B2 (en) Monitoring system, monitoring method, and program
JP4879717B2 (en) Monitoring system, monitoring method, and program
JP4694461B2 (en) Imaging apparatus, imaging method, monitoring system, monitoring method, and program
US7940963B2 (en) Monitoring system, monitoring method, and program
JP5150943B2 (en) Monitoring system, monitoring method, and program
JP4977454B2 (en) Monitoring system, monitoring method, and program
JP5033412B2 (en) Monitoring system, monitoring method, and program
JP4509883B2 (en) Imaging system, imaging apparatus, imaging method, and imaging program
JP2008236425A (en) Monitoring system, monitoring method, and monitoring program
JP4485423B2 (en) Surveillance camera, surveillance method, and surveillance program
JP6559378B2 (en) Image processing apparatus, image processing method, and image processing program
JP4267415B2 (en) Moving image selection output device, moving image selection output system, and program
JP4750005B2 (en) Display device, display method, imaging system, imaging method, and program
CN116264617A (en) Image transmission method and image display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120321

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120413

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150427

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees