JP6058720B2 - Information output device, detection device, program, and information output method - Google Patents
Information output device, detection device, program, and information output method Download PDFInfo
- Publication number
- JP6058720B2 JP6058720B2 JP2015051219A JP2015051219A JP6058720B2 JP 6058720 B2 JP6058720 B2 JP 6058720B2 JP 2015051219 A JP2015051219 A JP 2015051219A JP 2015051219 A JP2015051219 A JP 2015051219A JP 6058720 B2 JP6058720 B2 JP 6058720B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- image area
- unit
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明の実施形態は、情報出力装置、検知装置、プログラム及び方法に関するものである。 Embodiments described herein relate generally to an information output device, a detection device, a program, and a method.
従来、監視カメラ等の撮像装置で撮像された画像を用いて人体等の物体(動体)を検知する検知装置が存在している。係る検知装置では、撮像装置で撮像された現在の状態を表す画像と、基準画像(例えば、撮像装置で撮像された数フレーム前の画像)との輝度の差分を画素単位で算出し、差分値が所定値以上となる画素の位置に基づいて動体を検知している。 Conventionally, there is a detection device that detects an object (moving body) such as a human body using an image captured by an imaging device such as a monitoring camera. In such a detection apparatus, a difference in luminance between an image representing the current state captured by the imaging apparatus and a reference image (for example, an image several frames before captured by the imaging apparatus) is calculated in units of pixels, and a difference value is calculated. The moving object is detected based on the position of the pixel where becomes equal to or greater than a predetermined value.
ところで、オフィス等の室内に明り取り用の窓が備え付けられている場合、この窓から入射する外光等が輝度変化の要因となるため、上記した検知装置において動体と誤検知される可能性がある。そのため、従来、誤検知が発生する箇所を非検知画像エリア(マスク)として設定することで、誤検知を低減する技術が提案されている。 By the way, when a window for light removal is provided in a room such as an office, external light or the like incident from the window may cause a luminance change, and thus may be erroneously detected as a moving object in the above-described detection device. . For this reason, conventionally, there has been proposed a technique for reducing erroneous detection by setting a location where erroneous detection occurs as a non-detected image area (mask).
しかしながら、従来の誤検知低減技術では、種々の誤検知発生要因に対応することができない可能性があった。 However, there is a possibility that the conventional false detection reduction technology cannot cope with various false detection occurrence factors.
実施の形態の情報出力装置は、被写体を撮影した画像に関する情報を出力する情報出力装置であって、分割手段と、特徴量算出手段と、検知手段と、特定手段と、出力手段とを備える。分割手段は、画像を複数の画像エリアに分割する。特徴量算出手段は、撮影時間の異なる複数の画像から当該画像間の差分となる特徴量を画像エリア毎に算出する。検知手段は、特徴量算出手段で算出された各画像エリアの特徴量に基づいて、特徴量に変化のある画像エリアを検知する。特定手段は、複数の画像エリアから、情報出力の除外対象とする画像エリアを除外エリアとして特定する。出力手段は、検知手段が検知した画像エリアから特定手段が特定した除外エリアを除いた画像エリアに関する情報を出力する。更に、特定手段は、除外設定情報により除外する時、時刻又は時間に関連付けられた、除外対象とする画像エリアを除外エリアとして特定する。 The information output apparatus according to the embodiment is an information output apparatus that outputs information related to an image obtained by photographing a subject, and includes a dividing unit, a feature amount calculating unit, a detecting unit, a specifying unit, and an output unit. The dividing unit divides the image into a plurality of image areas. The feature amount calculating means calculates a feature amount that is a difference between the images from a plurality of images having different shooting times for each image area. The detection unit detects an image area having a change in the feature amount based on the feature amount of each image area calculated by the feature amount calculation unit. The specifying unit specifies an image area to be excluded from information output as an excluded area from a plurality of image areas. The output means outputs information relating to the image area obtained by removing the exclusion area specified by the specifying means from the image area detected by the detecting means. Further, the specifying means specifies an image area to be excluded , which is associated with time or time , as an excluded area when excluded by the exclusion setting information .
本発明によれば、被写体のおかれる環境に応じて定まる条件に該当した画像エリアを特定し、この特定した画像エリアを特徴量に変化のあった画像エリアから除いた画像エリアに関する情報を出力することにより、種々の誤検知発生要因に対応することが可能になる。 According to the present invention, an image area corresponding to a condition determined according to an environment where a subject is placed is specified, and information regarding the image area obtained by removing the specified image area from an image area whose feature amount has changed is output. Thus, it becomes possible to cope with various erroneous detection occurrence factors.
以下に添付図面を参照して、この発明に係る情報出力装置、検知装置、プログラム及び情報出力方法の実施形態を詳細に説明する。以下の実施形態では、この発明に係る情報出力装置、物体検知装置、プログラム及び方法を、オフィスビル等の建物内での物体検知に適用した例について説明する。 Hereinafter, embodiments of an information output device, a detection device, a program, and an information output method according to the present invention will be described in detail with reference to the accompanying drawings. In the following embodiments, an example in which the information output device, the object detection device, the program, and the method according to the present invention are applied to object detection in a building such as an office building will be described.
[第1の実施形態]
図1は、第1の実施形態に係る検知システムの構成を模式的に示す図である。同図に示すように、検知システムは、複数の情報出力装置10と、当該情報出力装置10とLAN(Local Area Network)等のネットワークNを介して接続された検知装置40とを有している。なお、ネットワークNに接続される情報出力装置10の個数は特に問わないものとする。
[First Embodiment]
FIG. 1 is a diagram schematically illustrating a configuration of a detection system according to the first embodiment. As shown in the figure, the detection system includes a plurality of
情報出力装置10は、後述する撮像部16(図2参照)を有し、所定の被写体を撮像した画像に関する情報をエビデンスとして検知装置40に出力する。以下、情報出力装置10について説明する。
The
図2は、第1の実施形態に係る情報出力装置10の構成を示すブロック図である。同図に示すように、情報出力装置10は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、記憶部14、通信部15及び撮像部16を備える。また、CPU11、ROM12、RAM13、記憶部14、通信部15及び撮像部16の各部は、アドレスバスやデータバス等のバスライン17を介して相互に接続されている。
FIG. 2 is a block diagram illustrating a configuration of the
CPU11は、ROM12に記憶されたコンピュータ読み取り可能な各種プログラムを実行することにより、情報出力装置10の動作を統括的に制御する。また、CPU11は、ROM12及び記憶部14に記憶された所定のプログラムを実行することにより、後述する各機能部(図4参照)を実現する。
The
ROM12は、CPU11が実行する各種プログラムや各種データを記憶する。RAM13は、CPU11が実行する各種プログラムや各種データを一時的に記憶し、ワーキング画像エリアとして機能する。記憶部14は、例えばハードディスクドライブ装置、SSD(Solid State Drive)、フラッシュメモリ等の記憶媒体で構成されており、CPU11が実行するプログラム等の他、各種情報を記憶している。
The ROM 12 stores various programs executed by the
通信部15は、ネットワークNを通じて接続される検知装置40とのデータ通信を制御する。撮像部16は、カラーCCD(Charge Coupled Device Image Sensor)や、カラーCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を有した撮像装置である。撮像部16は、所定のフレームレート(例えば30fps)で順次撮像した画像をRAM13に保存する。
The
図3は、情報出力装置10の設置例を示す図である。同図において、室内20は、オフィス等の部屋(閉空間)であり、その壁面に、出入口E1及び明り取り用の窓W1、W2が備えられている。また、同図では、情報出力装置10を室内20の天井21に設置した例を示している。情報出力装置10が備える撮像部16の撮像方向及び撮像範囲は、室内20の全域を撮像できるよう予め設定されており、室内20の全域を被写体として撮像する。
FIG. 3 is a diagram illustrating an installation example of the
なお、室内20に設置される情報出力装置10の個数は一つに限らず、複数個用いる形態としてもよい。この形態の場合には、各情報出力装置10の撮像範囲を組み合わせることで、室内20の全域を撮像できるよう設定してもよい。
The number of
次に、図4を参照し、情報出力装置10のCPU11が、ROM12及び記憶部14に記憶されたプログラムを実行することで実現される情報出力装置10の機能部について説明する。
Next, the functional unit of the
図4は、情報出力装置10の機能構成を示すブロック図である。同図に示すように、情報出力装置10のCPU11は、ROM12及び記憶部14に記憶された所定のプログラムを実行することにより、画像取得部31と、画像エリア分割部32と、特徴量算出部33と、画像エリア検知部34と、除外エリア特定部35と、出力部36と、学習部37としての機能を備える。
FIG. 4 is a block diagram illustrating a functional configuration of the
画像取得部31は、撮像部16が撮像しRAM13に保存した画像を、時系列順に順次取得する。画像エリア分割部32は、画像取得部31が取得した画像毎に、当該画像を1又は複数の画像エリアに分割する。
The image acquisition unit 31 sequentially acquires images captured by the
図5−1、図5−2は、画像エリア分割部32による画像の分割例を示す図である。図5−1では、画像取得部31が取得した画像G11を、矩形状の画像エリアに分割した例を示している。また、図5−2では、画像取得部31が取得した画像G12を、当該画像G12の中心から同心円状に分割した例を示している。なお、分割する画像エリアの形状や分割数は、図5−1、図5−2の例に限らず、任意に設定することが可能であるとする。例えば、分割数を1とすることで画像全体を1つの画像エリアとしてもよい。 FIGS. 5A and 5B are diagrams illustrating an example of image division by the image area dividing unit 32. FIG. 5A illustrates an example in which the image G11 acquired by the image acquisition unit 31 is divided into rectangular image areas. FIG. 5B illustrates an example in which the image G12 acquired by the image acquisition unit 31 is divided concentrically from the center of the image G12. Note that the shape and the number of divisions of the image area to be divided are not limited to the examples in FIGS. 5A and 5B and can be arbitrarily set. For example, by setting the number of divisions to 1, the entire image may be set as one image area.
図4に戻り、特徴量算出部33は、画像エリア分割部32が分割した画像エリア毎に、当該画像エリアの画像の特徴を示した特徴量を算出する。ここで、算出された特徴量は、画像エリア検知部34及び除外エリア特定部35で使用される。なお、画像エリア検知部34及び除外エリア特定部35で用いる特徴量は、同一の指標で導出されたものとは限らず、異なる指標で導出されたものであってもよい。 Returning to FIG. 4, the feature amount calculation unit 33 calculates a feature amount indicating the image feature of the image area for each image area divided by the image area division unit 32. Here, the calculated feature amount is used by the image area detecting unit 34 and the excluded area specifying unit 35. Note that the feature amounts used in the image area detection unit 34 and the excluded area specification unit 35 are not necessarily derived from the same index, but may be derived from different indices.
例えば、特徴量算出部33は、画像取得部31が直近に取得した画像と、この画像の所定時間前(例えば1フレーム前)に画像取得部31が取得した画像と、の時系列的に連続する2画像間において、同一位置に存在する画像エリアの輝度値を画素単位で比較することで、輝度値の差分値を画素毎に算出する。そして、特徴量算出部33は、算出した差分値の絶対値が、所定の閾値(以下、第1閾値という)以上となった画素の数を、その画像エリアの特徴量として算出する。以下、この特徴量の算出方法について、図6−1、図6−2、図6−3を用いて説明する。 For example, the feature amount calculation unit 33 continuously in time series includes the image most recently acquired by the image acquisition unit 31 and the image acquired by the image acquisition unit 31 a predetermined time before this image (for example, one frame before). By comparing the luminance values of the image areas existing at the same position between the two images in units of pixels, a difference value of the luminance values is calculated for each pixel. Then, the feature amount calculation unit 33 calculates the number of pixels in which the absolute value of the calculated difference value is equal to or greater than a predetermined threshold (hereinafter referred to as a first threshold) as the feature amount of the image area. Hereinafter, a method for calculating the feature amount will be described with reference to FIGS. 6-1, 6-2, and 6-3.
図6−1、図6−2、図6−3は、特徴量算出部33の動作の一例を説明するための図である。画像取得部31が時刻t1に取得した画像が、図6−1のG21であるとし、画像取得部31が直近の時刻t1+1に取得した画像が、図6−2のG22であるとすると、特徴量算出部33は、画像G21と画像G22との2画像間において、同一位置に存在する画像エリアの輝度値を画素単位で比較し、その差分を算出する。 6A, 6B, and 6C are diagrams for explaining an example of the operation of the feature amount calculation unit 33. FIG. If the image acquired by the image acquisition unit 31 at time t1 is G21 in FIG. 6A and the image acquired by the image acquisition unit 31 at the latest time t1 + 1 is G22 in FIG. The amount calculation unit 33 compares the luminance values of the image areas existing at the same position in units of pixels between the two images G21 and G22, and calculates the difference.
ここで、画像G21及び画像G22中の人物H1が、時刻t1から時刻t1+1にかけて移動していたとすると、図6−3に示すように、画像中における人物H1の位置の相違により、人物H1を表示する画素の輝度値が時刻t1から時刻t1+1にかけて変化する。そこで、特徴量算出部33は、変化量を輝度値の差分として算出し、この差分値の絶対値が第1閾値以上となった画素の数を、この人物H1が存在する各画像エリア(図中黒枠参照)の特徴量とする。 Here, if the person H1 in the images G21 and G22 has moved from time t1 to time t1 + 1, the person H1 is displayed due to the difference in the position of the person H1 in the images as shown in FIG. 6-3. The luminance value of the pixel to be changed changes from time t1 to time t1 + 1. Therefore, the feature amount calculation unit 33 calculates the amount of change as the difference between the luminance values, and determines the number of pixels in which the absolute value of the difference value is equal to or greater than the first threshold value for each image area (FIG. Feature value).
特徴量の算出方法は上記の例に限らず、他の算出方法を用いてもよい。例えば、時系列的に連続する2つの画像の同一の画像エリア毎に、当該画像エリアを構成する各画素の輝度値の総和を算出し、この総和の差分値をその画像エリアの特徴量として取得してもよい。また、特徴量算出部33が直近に取得した画像の画像エリア毎に、当該画像エリアを構成する各画素の輝度値の総和を算出し、この総和値をその画像エリアの特徴量として取得してもよい。 The feature amount calculation method is not limited to the above example, and other calculation methods may be used. For example, for each of the same image areas of two images that are continuous in time series, the sum of the luminance values of each pixel constituting the image area is calculated, and the difference value of the sum is obtained as the feature amount of the image area. May be. Further, for each image area of the image acquired most recently by the feature amount calculation unit 33, the sum of the luminance values of the pixels constituting the image area is calculated, and this sum value is acquired as the feature amount of the image area. Also good.
また、上記例では、輝度値の差分を特徴量としたが、輝度値のヒストグラム、輝度分布、色情報等の他の要素を特徴量としてもよい。例えば、特徴量算出部33が直近に取得した画像の画像エリア毎に、当該画像エリア内の画像からパターンマッチング等で人体の識別を行い、この結果得られる人体らしさの値をその画像エリアの特徴量としてもよい。なお、第1閾値の値は、特徴量の算出方法、特徴量とする指標に応じて、変更するものとする。 In the above example, the difference between the luminance values is used as the feature amount. However, other elements such as a luminance value histogram, luminance distribution, and color information may be used as the feature amount. For example, for each image area of the image most recently acquired by the feature amount calculation unit 33, the human body is identified from the image in the image area by pattern matching or the like, and the humanity value obtained as a result is obtained as a feature of the image area. It may be an amount. Note that the value of the first threshold value is changed according to the feature amount calculation method and the index used as the feature amount.
図4に戻り、画像エリア検知部34は、算出された各画像エリアの特徴量に基づいて、当該特徴量に変化のある画像エリアを、人等の物体(動体)が存在する可能性のあるエリアとして検知する。具体的に、画像エリア検知部34は、特徴量算出部33で算出された各画像エリアの特徴量と、所定の閾値(以下、第2閾値という)とを比較し、特徴量が第2閾値以上の画像エリアを、人体等の物体(動体)が存在する可能性のある画像エリアとして検知する。例えば、上述した図6−3の状態の場合、黒枠で囲われた各画像エリアの特徴量が第2閾値以上であったとすると、画像エリア検知部34は、この黒枠で囲われた各画像エリアをそれぞれ検知する。 Returning to FIG. 4, based on the calculated feature amount of each image area, the image area detection unit 34 may have an object (moving object) such as a person in the image area where the feature amount has changed. Detect as an area. Specifically, the image area detection unit 34 compares the feature amount of each image area calculated by the feature amount calculation unit 33 with a predetermined threshold (hereinafter referred to as a second threshold), and the feature amount is the second threshold. The above image area is detected as an image area in which an object (moving body) such as a human body may exist. For example, in the state of FIG. 6-3 described above, if the feature amount of each image area surrounded by a black frame is equal to or greater than the second threshold value, the image area detection unit 34 determines each image area surrounded by the black frame. Is detected respectively.
除外エリア特定部35は、画像全体を構成する各画像エリアから、被写体のおかれる環境に応じて定まる条件に該当する画像エリアを特定する。具体的に、除外エリア特定部35は、画像全体を構成する各画像エリアの特徴量と、所定の閾値(以下、第3閾値という)とを比較することで、特徴量が第3閾値以上の画像エリアを特定する。 The excluded area specifying unit 35 specifies an image area corresponding to a condition determined according to the environment where the subject is placed, from each image area constituting the entire image. Specifically, the excluded area specifying unit 35 compares the feature amount of each image area constituting the entire image with a predetermined threshold (hereinafter referred to as a third threshold), so that the feature amount is equal to or greater than the third threshold. Specify the image area.
なお、本実施形態において、上述した画像エリア検知部34が画像エリアの検知に用いる特徴量(以下、第1特徴量)と、除外エリア特定部35が第3閾値との比較に用いる特徴量(以下、第2特徴量)と、は独立した物理量として取り扱うことが可能である。そのため、第1特徴量と第2特徴量とを、異なる指標で求められた値(例えば、輝度値の差分と輝度値の総和値)としてもよいし、同一の指標で求められた値としてもよい。また、本実施形態では、除外エリア特定部35の処理の対象を画像全体としたが、これに限らず、画像エリア検知部34にて検知された画像エリアを処理の対象としてもよい。 In the present embodiment, the feature amount (hereinafter referred to as the first feature amount) used by the image area detection unit 34 described above to detect the image area and the feature amount (excluding area specifying unit 35) used for comparison with the third threshold ( Hereinafter, the second feature quantity) can be handled as an independent physical quantity. Therefore, the first feature value and the second feature value may be values obtained by different indices (for example, the difference between the brightness values and the sum of the brightness values), or may be values obtained by the same index. Good. In the present embodiment, the processing target of the exclusion area specifying unit 35 is the entire image. However, the present invention is not limited to this, and the image area detected by the image area detection unit 34 may be the processing target.
出力部36は、画像エリア検知部34が検知した画像エリアから、除外エリア特定部35が特定した画像エリアを除外した残りの画像エリアに関する情報を、エビデンスとして検知装置40に出力する。
The
ここで、エビデンスとして出力する情報は、特に問わないものとする。例えば、画像エリア検知部34が検知した画像エリアから、除外エリア特定部35が特定した画像エリアを除外した残りの画像エリアを表す座標等をエビデンスとして出力してもよい。また、画像エリア検知部34が検知した画像エリアから、除外エリア特定部35が特定した画像エリアを除外した残りの画像エリアを表す画像(データ)をエビデンスとして出力してもよい。また、撮像部16が撮像した画像に除外結果の画像エリアを示す情報を重畳した画像をエビデンスとして出力してもよい。また、除外の結果、残りの画像エリアが空(null)となった場合であっても、その旨を示す情報をエビデンスとして出力してもよい。
Here, information output as evidence is not particularly limited. For example, coordinates representing a remaining image area obtained by excluding the image area specified by the excluded area specifying unit 35 from the image area detected by the image area detecting unit 34 may be output as evidence. Further, an image (data) representing the remaining image area excluding the image area specified by the excluded area specifying unit 35 from the image area detected by the image area detecting unit 34 may be output as evidence. Further, an image obtained by superimposing information indicating the image area of the exclusion result on the image captured by the
以下、除外エリア特定部35の動作について、図7−1及び図7−2を用いて説明する。図7−1、図7−2は、除外エリア特定部35の動作の一例を説明するための図である。ここで、図7−1の画像G31が、画像取得部31が時刻t2に取得した画像であるとし、図7−2の画像G32が、画像取得部31が直近の時刻t2+1に取得した画像であるとする。画像G31及びG32では、時刻t2から時刻t2+1にかけて、室内の照明がオフからオンに切り替えられた状態を示している。 Hereinafter, operation | movement of the exclusion area specific | specification part 35 is demonstrated using FIGS. 7-1 and 7-2. FIGS. 7A and 7B are diagrams for explaining an example of the operation of the excluded area specifying unit 35. Here, it is assumed that the image G31 in FIG. 7-1 is an image acquired by the image acquisition unit 31 at time t2, and the image G32 in FIG. 7-2 is an image acquired by the image acquisition unit 31 at the latest time t2 + 1. Suppose there is. Images G31 and G32 show a state in which the indoor lighting is switched from OFF to ON from time t2 to time t2 + 1.
また、図7−1及び図7−2の例において、特徴量算出部33は、撮像時間の異なる二つの画像G31、G32の各々において、各画像エリアを構成する画素の輝度値の総和を算出し、対応する画像エリアでの総和の差分値を、その画像エリアの第2特徴量として算出したとする。例えば、画像G31の各画像エリアでの輝度値の総和が「5000」、画像G32の各画像エリアでの輝度値の総和が「30000」であったとすると、特徴量算出部33は、これら総和の差分値「25000」を、各画像エリアの第2特徴量として算出する。 In the example of FIGS. 7-1 and 7-2, the feature amount calculation unit 33 calculates the sum of the luminance values of the pixels constituting each image area in each of the two images G31 and G32 having different imaging times. Assume that the difference value of the sum in the corresponding image area is calculated as the second feature amount of the image area. For example, assuming that the sum of the brightness values in each image area of the image G31 is “5000” and the sum of the brightness values in each image area of the image G32 is “30000”, the feature amount calculation unit 33 calculates the sum of these sums. The difference value “25000” is calculated as the second feature amount of each image area.
このように、照明の点灯により被写体となる室内が照らされると、照らされた画像エリアの輝度値が変化することになる。そのため、例えば、画像エリア検知部34が、輝度値(第1特徴量)の変化に基づいて画像エリアを検知している場合には、点灯に伴う輝度値の変化を要因として、物体の存在しない画像G32中の全て又は一部の画像エリアを誤検知してしまう可能性がある。 As described above, when the interior of the room is illuminated by lighting, the luminance value of the illuminated image area changes. Therefore, for example, when the image area detection unit 34 detects an image area based on a change in luminance value (first feature amount), no object exists due to a change in luminance value accompanying lighting. There is a possibility that all or a part of the image area in the image G32 is erroneously detected.
そこで、例えば、被写体となる室内での照明のオン/オフ時の輝度値の差分に応じた値を第3閾値(例えば「20000」)として予め設定しておくことで、除外エリア特定部35は、第2特徴量が第3閾値以上となった画像エリアを画像中から特定する。これにより、出力部36は、画像エリア検知部34が検知した画像エリアから、除外エリア特定部35が特定した画像エリアを除外するため、画像エリア検知部34が検知した画像エリアのうち、第2特徴量が20000未満の画像エリアが残留することになる。したがって、第3閾値の値を適切に設定することで、照明のオン/オフに伴う輝度値の変化を要因とする誤検知の発生を低減することができる。
Therefore, for example, by setting a value corresponding to the difference in luminance value when lighting is turned on / off in the room that is the subject as the third threshold (for example, “20000”) in advance, the excluded area specifying unit 35 The image area in which the second feature amount is equal to or greater than the third threshold is specified from the image. As a result, the
ところで、除外エリア特定部35でのパラメータとなる第3閾値は、被写体となる室内の構成や、第2特徴量とする指標、検知を行う時期(季節、日付、時刻)等によって異なってくる。そこで、学習部37は、特徴量算出部33、除外エリア特定部35での処理結果を入力とし、第3閾値を出力とする学習を行う。
By the way, the third threshold value that is a parameter in the excluded area specifying unit 35 varies depending on the configuration of the room that is the subject, the index as the second feature value, the detection timing (season, date, time), and the like. Therefore, the
例えば、学習部37は、特徴量とする要素の種別や、検知を行う時期毎に、複数の第3閾値と、この第3閾値を割り当てた場合での除外エリア特定部35の処理結果(又は出力部36の処理結果)とを対応付けて記憶部14に記憶しておく。そして、学習部37は、記憶部14に記憶した複数の第3閾値と処理結果とに基づいて、より適切な処理結果(検知結果)が得られる閾値セットを機械学習し、その第3閾値を除外エリア特定部35の第3閾値に反映する。
For example, the
なお、学習部37での機械学習に係る技術や手法は、公知の技術・手法を用いるものとする。また、学習の対象となるパラメータを第3閾値としたが、これに限らず、第2閾値や第1閾値を学習の対象に含めてもよい。
In addition, the technique and method which concern on the machine learning in the learning
図1に戻り、検知装置40は、情報出力装置10から入力されるエビデンスに基づいて、各情報出力装置10の被写体となった室内に人等の物体(動体)が存在するか否を判定するサーバ装置である。
Returning to FIG. 1, based on the evidence input from the
図8は、第1の実施形態に係る検知装置40の構成を示すブロック図である。同図に示すように、検知装置40は、CPU41と、ROM42と、RAM43と、記憶部44と、操作部45と、表示部46と、通信部47とを備えている。また、CPU41、ROM42、RAM43、記憶部44、操作部45、表示部46及び通信部47の各部は、アドレスバスやデータバス等のバスライン48を介して相互に接続されている。
FIG. 8 is a block diagram illustrating a configuration of the
CPU41は、ROM42や記憶部44に記憶された所定のプログラムをRAM43に展開して実行することで、検知装置40の各部の動作を統括的に制御する。また、CPU41は、ROM42や記憶部44に記憶された所定のプログラムをRAM43に展開して実行することで、後述する機能部を実現する。
The CPU 41 comprehensively controls the operation of each unit of the
ROM42は、CPU41が実行する各種プログラムや設定情報を記憶している。RAM43は、主記憶装置であり、ワークメモリとして用いられる。
The
記憶部44は、HDD(Hard Disk Drive)等の補助記憶装置であって、CPU41が実行する各種プログラムや各種情報を記憶している。操作部45は、キーボードやマウス等の入力デバイスであって、操作者から受け付けた操作内容をCPU41に出力する。また、表示部46は、LCD(Liquid Crystal Display)等の表示デバイスであって、CPU41の制御に従い文字や画像等を表示する。
The storage unit 44 is an auxiliary storage device such as an HDD (Hard Disk Drive) and stores various programs executed by the CPU 41 and various types of information. The operation unit 45 is an input device such as a keyboard and a mouse, and outputs operation contents received from the operator to the CPU 41. The
通信部47は、ネットワークNに接続可能なネットワークインタフェースであり、CPU41の制御の下、ネットワークNに接続された各情報出力装置10との間で情報の授受を行う。
The communication unit 47 is a network interface connectable to the network N, and exchanges information with each
図9は、検知装置40の機能構成を示すブロック図である。同図に示すように、検知装置40のCPU41は、ROM42及び記憶部44に記憶された所定のプログラムを実行することにより、エビデンス受信部51と、状態判定部52と、状態提示部53としての機能を備える。
FIG. 9 is a block diagram illustrating a functional configuration of the
エビデンス受信部51は、情報出力装置10の各々から送信(出力)されるエビデンスを、通信部47を介して受信する。なお、エビデンスには、情報出力装置10の各々を識別可能な識別子(例えばIPアドレス等)が含まれるものとする。
The evidence receiving unit 51 receives the evidence transmitted (output) from each of the
状態判定部52は、エビデンスに含まれた情報に基づいて、当該エビデンスを出力した情報出力装置10の管轄(撮像範囲)内に、人等の物体(動体)が存在するか否かを判定する。具体的に、状態判定部52は、特定の画像エリアを表す座標等の情報や画像自体がエビデンスに含まれる場合、このエビデンスを出力した情報出力装置10の管轄内での、画像エリアに対応する位置に、物体(動体)が存在すると判定する。また、状態判定部52は、画像エリアが空(null)である旨がエビデンスに含まれる場合、このエビデンスを出力した情報出力装置10の管轄内に物体(動体)が存在しないと判定する。
Based on the information included in the evidence, the
状態提示部53は、状態判定部52での判定結果を表示部46等に出力することで、当該表示結果を検知装置40のオペレータに提示する。なお、情報出力装置10から受信したエビデンスと、当該エビデンスに基づく状態判定部52での判定結果とを関連付けて、記憶部44に蓄積・管理する形態としてもよい。
The
次に、図10を参照して、本実施形態の情報出力装置10の動作について説明する。ここで、図10は、情報出力装置10の情報出力処理の手順を示すフローチャートである。
Next, the operation of the
まず、画像取得部31は、撮像部16が撮像しRAM13に保存された画像を、時系列順に順次取得する(ステップS11)。画像エリア分割部32は、ステップS11で画像が取得される毎に、当該画像を1又は複数の画像エリアに分割する(ステップS12)。
First, the image acquisition unit 31 sequentially acquires images captured by the
特徴量算出部33は、ステップS11で直近に取得された画像について、ステップS12で分割された画像エリア毎に当該画像エリアの第1特徴量及び第2特徴量を算出する(ステップS13)。続いて、画像エリア検知部34は、ステップS13で算出された各画像エリアの第1特徴量と、第2閾値とを比較し、第1特徴量が第2閾値以上の画像エリアを検知する(ステップS14)。次いで、除外エリア特定部35は、ステップS13で算出された各画像エリアの第2特徴量と、第3閾値とを比較し、第2特徴量が第3閾値以上の画像エリアを特定する(ステップS15)。 The feature amount calculation unit 33 calculates the first feature amount and the second feature amount of the image area for each image area divided in step S12 for the image most recently acquired in step S11 (step S13). Subsequently, the image area detection unit 34 compares the first feature value of each image area calculated in step S13 with the second threshold value, and detects an image area whose first feature value is equal to or greater than the second threshold value ( Step S14). Next, the excluded area specifying unit 35 compares the second feature amount of each image area calculated in step S13 with the third threshold value, and specifies an image area whose second feature amount is equal to or greater than the third threshold value (step S13). S15).
続いて、出力部36は、ステップS14で検知された画像エリアから、ステップS15で検知された画像エリアを除外する(ステップS16)。そして、出力部36は、ステップS16での処理結果となる残りの画像エリアに関する情報をエビデンスとして、検知装置40に出力し(ステップS17)、ステップS11に再び戻る。
Subsequently, the
その結果、検知装置40では、上記情報出力装置10により出力されたエビデンスをエビデンス受信部51が受信し、このエビデンスに基づいて、状態判定部52が当該エビデンスを出力した情報出力装置10の管轄内に物体が存在するか否かを判定する。そして、状態提示部53が、状態判定部52での判定結果を提示する。
As a result, in the
以上のように、第1の実施形態によれば、画像を構成する画像エリアの第2特徴量が、被写体となる室内(空間)の環境に応じて定めた第3閾値を逸脱する場合に、その画像エリアを特定し、画像エリア検知部34の検知結果から除外する。これにより、例えば、照明のオン/オフに伴う輝度値の変化を要因とする誤検知を低減することができるため、検知精度を向上させることができる。 As described above, according to the first embodiment, when the second feature amount of the image area constituting the image deviates from the third threshold value determined according to the environment of the room (space) that is the subject, The image area is specified and excluded from the detection result of the image area detection unit 34. As a result, for example, it is possible to reduce erroneous detection caused by a change in luminance value associated with turning on / off of illumination, thereby improving detection accuracy.
ところで、情報出力装置10の構成は、種々の形態を採用することが可能である。例えば、第2特徴量の指標として画素の色情報を用いた場合、第3閾値として、白飛び付近(RGB成分それぞれの最大値の90%以上等)や、夕焼けの色(R成分が最大値の90%以上等)の範囲を設定することで、窓等から入射した光を要因とする誤検知の発生を低減することができる。また、上記例では、第2特徴量が第3閾値以上の画像エリアを、検知結果から除去する構成としたが、第2特徴量が予め設定した閾値範囲内(或いは範囲外)にある画像エリアを、検知結果から除去する構成としてもよい。
By the way, the configuration of the
また、上記実施形態では、検知装置40が状態判定部52の機能を備える構成としたが、これに限らず、情報出力装置10が状態判定部52の機能を備える構成としてもよい。なお、この構成の場合には、状態判定部52での判定結果を、エビデンスに含めて出力する形態としてもよい。
Moreover, in the said embodiment, although the
[第2の実施形態]
次に、第2の実施形態に係る情報出力装置について説明する。なお、第1の実施形態と同様の構成要素については、同一の符号を付与し説明を省略する。
[Second Embodiment]
Next, an information output apparatus according to the second embodiment will be described. In addition, about the component similar to 1st Embodiment, the same code | symbol is provided and description is abbreviate | omitted.
図11は、第2の実施形態に係る情報出力装置10aの構成を示すブロック図である。同図に示すように、情報出力装置10aは、CPU11、ROM12、RAM13、記憶部14a、通信部15及び撮像部16を備える。また、CPU11、ROM12、RAM13、記憶部14a、通信部15及び撮像部16の各部は、アドレスバスやデータバス等のバスライン17を介して相互に接続されている。
FIG. 11 is a block diagram illustrating a configuration of an
記憶部14aは、上述した記憶部14に対応し、CPU11が実行するプログラム等の他、各種情報を記憶している。また、記憶部14aは、各種情報の1つとして、検知対象から除外する画像エリアと、当該画像エリアを検知対象から除外する時期(日時等)とを関連付けた除外設定情報141を記憶している。
The storage unit 14a corresponds to the
ここで、図12−1は、除外設定情報141の一例を模式的に示す図である。また、図12−2は、図12−1の除外設定情報141に設定された除外対象エリアを模式的に示す図である。
Here, FIG. 12A is a diagram schematically illustrating an example of the
図12−1に示すように、除外設定情報141には、検知対象から除外する画像エリアが格納される除外対象エリア141aと、検知対象から除外する時刻が格納される除外時間141bと、をデータ項目として有している。以下、除外対象エリア141aに格納(設定)された画像エリアを、「除外対象エリア」と表記する。
As illustrated in FIG. 12A, the
除外対象エリア141aには、複数の画像エリアの座標等を纏めて格納することで、複数の画像エリアで構成される画像エリア群を、一つの除外対象エリアとして取り扱うことが可能となっている。例えば、図12−1の除外対象エリア141aに格納された除外対象エリアA11、A12、A13は、図12−2に示すA11、A12、A13(黒枠部分)の画像エリアに対応している。なお、複数の除外対象エリア同士で、一部又は全ての画像エリアを重複して設定する形態としてもよい。
By storing the coordinates of a plurality of image areas together in the
除外時間141bには、検知対象からの除外を開始する時刻と、終了する時刻とが格納される。なお、時刻だけでなく、日付(月、日)や曜日等を用いて除外の開始/終了タイミングを指定する形態としてもよい。また、除外対象エリアA12に関連付けられた除外時間141bのように、除外時間141bを空欄(null)とすることで、検知対象からの除外を常時指定する形態としてもよい。また、同一の除外対象エリアに対し、互いに異なる複数の除外時間を設定する形態としてもよい。
The
ところで、上述した除外対象エリア141a及び除外時間141bには、被写体となる室内の環境に応じた値を設定することが好ましい。例えば、図12−2に示す画像エリアA11において、AM6時からAM8時までの間、朝日が入射するような環境の場合、この画像エリアA11を除外対象エリアとして設定するとともに、この除外対象エリアの除外時間に「06:00〜08:00」等を設定する。これにより、朝日の入射に伴い画像エリアA11の輝度値が変化した場合でも、画像エリアA11を検知対象から除外することができるため、人体等の物体が存在しない画像エリアが誤検知されてしまうことを低減することができる。
By the way, it is preferable to set values according to the indoor environment that is the subject in the
図13は、第2の実施形態に係る情報出力装置10aの機能構成を示すブロック図である。同図に示すように、情報出力装置10aのCPU11は、ROM12及び記憶部14aに記憶された所定のプログラムを実行することにより、画像取得部31と、画像エリア分割部32と、特徴量算出部33と、画像エリア検知部34と、除外エリア特定部35aと、出力部36と、学習部37aと、計時部38としての機能を備える。
FIG. 13 is a block diagram illustrating a functional configuration of the
計時部38は、情報出力装置10aに設けられたRTC(Real Time Clock)等の計時装置が計時する時刻に基づいて、現在日時を表す現在時刻情報を生成する。
The
除外エリア特定部35aは、除外設定情報141を参照し、計時部38が生成する現在時刻情報の現在日時に該当する除外対象エリアを特定する。
The exclusion area specifying unit 35a refers to the
学習部37aは、上述した学習部37の機能を備えるとともに、除外エリア特定部35aでの処理結果を入力とし、除外対象エリア及び除外時間を出力とする学習を行う。
The learning unit 37a has the function of the
例えば、学習部37aは、室内に存在する誤検知要因(例えば窓等)の配置位置周辺に設定された除外対象エリアと、当該除外対象エリアに割り当てた各種の除外時間と、この条件での除外エリア特定部35aの処理結果(又は出力部36の処理結果)とを対応付けて記憶部14aに記憶しておく。そして、学習部37aは、記憶部14aに記憶された除外対象エリアと、除外時間と、処理結果との組に基づき、より適切な処理結果(検知結果)が得られる除外時間を機械学習し、その除外時間を除外設定情報141の除外時間141bに反映(格納)する。
For example, the learning unit 37a may include an exclusion target area set around an arrangement position of a false detection factor (such as a window) existing in the room, various exclusion times assigned to the exclusion target area, and exclusion under this condition. The processing result of the area specifying unit 35a (or the processing result of the output unit 36) is associated and stored in the storage unit 14a. Then, the learning unit 37a performs machine learning of an exclusion time at which a more appropriate processing result (detection result) is obtained based on the combination of the exclusion target area, the exclusion time, and the processing result stored in the storage unit 14a. The exclusion time is reflected (stored) in the
なお、学習部37aでの機械学習に係る技術や手法は、公知の技術・手法を用いるものとする。また、学習の対象として、除外対象エリアを含めてもよい。 It should be noted that known techniques and methods are used as techniques and methods related to machine learning in the learning unit 37a. Further, an exclusion target area may be included as a learning target.
次に、図14を参照して、本実施形態の情報出力装置10aの動作について説明する。ここで、図14は、情報出力装置10aの情報出力処理の手順を示すフローチャートである。なお、ステップS21〜S24は、上述した第1の実施形態のステップS11〜S14と同様であるため説明を省略する。
Next, the operation of the
ステップS25において、除外エリア特定部35aは、除外設定情報141を参照し、計時部38が生成する現在時刻情報の現在日時に該当する除外対象エリアを特定する(ステップS25)。
In step S25, the exclusion area specifying unit 35a refers to the
続いて、出力部36は、ステップS24で検知された画像エリアから、ステップS25で特定された除外対象エリアを除外する(ステップS26)。そして、出力部36は、ステップS26での処理結果となる残りの画像エリアに関する情報をエビデンスとして、検知装置40に出力し(ステップS27)、ステップS21に再び戻る。
Subsequently, the
その結果、検知装置40では、上記情報出力装置10aにより出力されたエビデンスをエビデンス受信部51が受信し、このエビデンスに基づいて、状態判定部52が当該エビデンスを出力した情報出力装置10の管轄内に物体が存在するか否かを判定する。そして、状態提示部53が、状態判定部52での判定結果を提示する。
As a result, in the
以上のように、第2の実施形態によれば、画像が撮像された時期及び当該画像を構成する各画像エリアの位置が、被写体となる室内(空間)の環境に応じて定めた除外対象エリア及び除外時間の条件に該当した場合に、この条件に該当した除外対象エリアを特定し、画像エリア検知部34での検知結果から除外する。これにより、例えば、窓から入射する光や、窓に取り付けられたカーテンの揺れ等を要因とする誤検知を低減することができるため、検知精度を向上させることができる。また、被写体となる室内の使用環境(例えば営業日と休業日)に基づいて、除外対象エリアを有効/無効とすることができるため、室内の使用環境に柔軟に対応することができる。 As described above, according to the second embodiment, an exclusion target area in which the time when an image is captured and the position of each image area constituting the image are determined according to the environment of the room (space) that is the subject. And when it corresponds to the conditions of exclusion time, the exclusion object area corresponding to this condition is specified, and it excludes from the detection result in the image area detection part 34. FIG. Thereby, for example, it is possible to reduce erroneous detection caused by light incident from the window, shaking of a curtain attached to the window, and the like, and thus detection accuracy can be improved. In addition, since the exclusion target area can be validated / invalidated based on the indoor usage environment (for example, business days and closed days) as a subject, it is possible to flexibly cope with the indoor usage environment.
ところで、情報出力装置10aでの除外設定情報141に係る構成は、種々の形態を採用することが可能である。例えば、上記第2の実施形態では、現在日時に該当する除外時間の除外対象エリアを特定することで、当該除外対象エリアを画像エリア検知部34での検知結果から除外する構成としたが、除外対象エリアの各々に対し、有効/無効を規定する設定情報(以下、有効/無効設定情報という)を別途設けることで、当該有効/無効設定情報に基づいて、除外対象エリアの除外を有効/無効化する構成としてもよい。
By the way, the configuration related to the
ここで、図15は、有効/無効設定情報142の一例を模式的に示す図である。図15に示すように、有効/無効設定情報142には、処理の対象となる除外対象エリアが格納される処理対象エリア142aと、有効/無効を規定するデータが格納される有効/無効設定142bとをデータ項目として有している。なお、有効/無効設定情報142は、記憶部14aに記憶されるものとする。
Here, FIG. 15 is a diagram schematically illustrating an example of the valid /
処理対象エリア142aには、除外設定情報141と同一の除外対象エリアが格納されることで、除外対象エリアをキーとして、除外設定情報141と有効/無効設定情報142とが関連付けられる。なお、除外対象エリア141aと処理対象エリア142aとを共通化することで、除外設定情報141と有効/無効設定情報142とを併合し、一つの設定情報とする形態としてもよい。
By storing the same exclusion target area as the
上記した有効/無効設定情報142を用いる場合、除外エリア特定部35aは、ステップS25の実行に先がけて、現在日時に該当する除外対象エリアに関連付けられた有効/無効設定情報142が有効か否かを判定する。そして、除外エリア特定部35aは、有効/無効設定情報142が「有効」の場合には上述したステップS25に移行し、現在日時に該当した除外対象エリアを特定する。また、有効/無効設定情報142が「無効」の場合には、除外エリア特定部35aは、現在日時に該当した除外対象エリアを特定することなく、ステップS26に移行する。
When using the valid /
これにより、除外設定情報141に格納された除外対象エリアの単位で、除外エリア特定部35aの機能を有効/無効化することができるため、除外対象エリアの単位で当該除外対象エリアの除外を個別に制御することができる。
Thereby, since the function of the exclusion area specifying unit 35a can be validated / invalidated in units of exclusion target areas stored in the
なお、除外対象エリアに対する有効/無効の設定は、除外設定情報141に定められているものとするが、これに限らず、画像エリア検知部34が画像エリアを検知した際に、この検知された画像エリアに対する有効/無効の設定を外部装置(例えば検知装置40)等から受け付け、この設定内容に基づいて、除外エリア特定部35aが除外対象エリアの特定を行う形態としてもよい。
The valid / invalid setting for the exclusion target area is set in the
[第3の実施形態]
次に、第3の実施形態に係る情報出力装置について説明する。なお、第1の実施形態と同様の構成要素については、同一の符号を付与し説明を省略する。
[Third Embodiment]
Next, an information output apparatus according to the third embodiment will be described. In addition, about the component similar to 1st Embodiment, the same code | symbol is provided and description is abbreviate | omitted.
図16は、第3の実施形態に係る情報出力装置10bの機能構成を示すブロック図である。同図に示すように、情報出力装置10bのCPU11は、ROM12及び記憶部14に記憶された所定のプログラムを実行することにより、画像取得部31と、画像エリア分割部32と、特徴量算出部33と、画像エリア検知部34と、除外エリア特定部35bと、出力部36と、学習部37bとしての機能を備える。なお、情報出力装置10bのハードウェア構成は、第1の実施形態と同様であるとする。
FIG. 16 is a block diagram illustrating a functional configuration of the information output apparatus 10b according to the third embodiment. As shown in the figure, the
除外エリア特定部35bは、撮影時間の異なる複数の画像(少なくとも3以上)の各画像エリアについて、当該画像エリアの第2特徴量を時系列順に比較し、当該第2特徴量が規則的に変化する画像エリアを特定する。 For each image area of a plurality of images (at least three or more) having different shooting times, the excluded area specifying unit 35b compares the second feature amount of the image area in chronological order, and the second feature amount changes regularly. The image area to be specified is specified.
ところで、第2特徴量が規則的に変化する状態は、例えば、室内に設けられたPCモニタにスクリーンセーバー等の周期性な画像(映像)が表示されている場合や、扇風機のファンの回転等の規則的な動作を行う物体が画像中に含まれる場合に発生する。このような場合、画像エリア検知部34での検知結果をそのまま出力してしまうと、人体等の物体の存在しない画像エリアが検知結果として出力されることになる。そこで、本実施形態では、除外エリア特定部35bが、第2特徴量が規則的に変化する画像エリアを特定し、出力部36が、この特定された画像エリアを画像エリア検知部34での検知結果から除去することで、規則的な動作を行う事象が、物体として誤検知されてしまうことを低減する。
By the way, the state in which the second feature amount regularly changes is, for example, when a periodic image (video) such as a screen saver is displayed on a PC monitor provided in the room, or when the fan of a fan is rotating. This occurs when an object that performs regular motion is included in the image. In such a case, if the detection result in the image area detection unit 34 is output as it is, an image area in which an object such as a human body does not exist is output as the detection result. Therefore, in the present embodiment, the excluded area specifying unit 35b specifies an image area in which the second feature amount regularly changes, and the
このように、除外エリア特定部35bは、撮影時間の異なる複数の画像間において、各画像エリアが有する第2特徴量の変化の規則性(パターン)に基づき、除外対象とする画像エリアを特定する。なお、規則的な変化の判定に係るパラメータは、任意に設定することが可能であるとする。規則的な変化の判定に係るパラメータとしては、例えば、第2特徴量とする指標、規則的と判定する周期、判定に用いる画像数、サンプリング間隔等の他、判定の対象とする画像エリアの位置(出入口E1、窓W1の周辺等)や、判定を実行する時刻(日時)等が挙げられる。 As described above, the excluded area specifying unit 35b specifies an image area to be excluded based on the regularity (pattern) of the change in the second feature amount of each image area between a plurality of images having different shooting times. . It is assumed that the parameters related to regular change determination can be arbitrarily set. Parameters relating to regular change determination include, for example, the index of the second feature, the periodic determination period, the number of images used for determination, the sampling interval, and the position of the image area to be determined (Entrance / exit E1, the vicinity of the window W1, etc.), the time (date and time) for executing the determination, and the like.
学習部37bは、上述した学習部37の機能を備えるとともに、除外エリア特定部35bでの処理結果を入力とし、規則的な変化の判定に係るパラメータを出力とする学習を行う。
The learning unit 37b has the function of the
例えば、学習部37bは、規則的変化の判定に係る各種のパラメータセットと、各パラメータセットでの除外エリア特定部35bの処理結果(又は出力部36の処理結果)とを対応付けて記憶部14に記憶しておく。そして、学習部37bは、記憶部14に記憶されたパラメータセットと、処理結果との組に基づき、より適切な処理結果(検知結果)が得られるパラメータセットを機械学習し、そのパラメータセットを除外エリア特定部35bに反映する。なお、学習部37bでの機械学習に係る技術や手法は、公知の技術・手法を用いるものとする。
For example, the learning unit 37b associates various parameter sets related to regular change determination with the processing results of the exclusion area specifying unit 35b (or processing results of the output unit 36) in each parameter set, and stores the
次に、図17を参照して、本実施形態の情報出力装置10bの動作について説明する。ここで、図17は、情報出力装置10bの情報出力処理の手順を示すフローチャートである。なお、ステップS31〜S34は、上述した第1実施形態のステップS11〜S14と同様であるため説明を省略する。 Next, the operation of the information output apparatus 10b of this embodiment will be described with reference to FIG. Here, FIG. 17 is a flowchart showing a procedure of information output processing of the information output apparatus 10b. Note that steps S31 to S34 are the same as steps S11 to S14 of the first embodiment described above, and a description thereof will be omitted.
ステップS35において、除外エリア特定部35bは、撮影時間の異なる複数の画像の各画像エリアについて、当該画像エリアの第2特徴量を時系列順に比較し、当該第2特徴量が規則的に変化する画像エリアを特定する(ステップS35)。 In step S35, the excluded area specifying unit 35b compares the second feature amount of the image area in time series for each image area of a plurality of images having different shooting times, and the second feature amount changes regularly. An image area is specified (step S35).
続いて、出力部36は、ステップS34で直近に検知された画像エリアから、ステップS35で特定された画像エリアを除外する(ステップS36)。そして、出力部36は、ステップS36での処理結果となる残りの画像エリアに関する情報をエビデンスとして、検知装置40に出力し(ステップS37)、ステップS31に再び戻る。
Subsequently, the
その結果、検知装置40では、上記情報出力装置10bにより出力されたエビデンスをエビデンス受信部51が受信し、このエビデンスに基づいて、状態判定部52が当該エビデンスを出力した情報出力装置10の管轄内に物体が存在するか否かを判定する。そして、状態提示部53が、状態判定部52での判定結果を提示する。
As a result, in the
以上のように、第3の実施形態によれば、画像を構成する各画像エリアの第2特徴量が、被写体となる室内(空間)の環境に応じて定めた規則的な変化の条件に該当した場合に、この条件に該当した画像エリアを特定し、画像エリア検知部34の検知結果から除外する。これにより、例えば、室内に設けられたPCモニタに表示される周期的な画像や扇風機のファン等、規則的な動作を行う物体を要因とする誤検知を低減することができるため、検知精度を向上させることができる。 As described above, according to the third embodiment, the second feature amount of each image area constituting the image corresponds to the regular change condition determined according to the environment of the room (space) that is the subject. In this case, an image area corresponding to this condition is specified and excluded from the detection result of the image area detection unit 34. As a result, for example, it is possible to reduce false detection caused by an object that performs a regular operation such as a periodic image displayed on a PC monitor provided in a room or a fan of a fan. Can be improved.
[第4の実施形態]
次に、第4の実施形態に係る情報出力装置について説明する。なお、第1の実施形態と同様の構成要素については、同一の符号を付与し説明を省略する。
[Fourth Embodiment]
Next, an information output apparatus according to the fourth embodiment will be described. In addition, about the component similar to 1st Embodiment, the same code | symbol is provided and description is abbreviate | omitted.
図18は、第4の実施形態に係る情報出力装置10cの機能構成を示すブロック図である。同図に示すように、情報出力装置10cのCPU11は、ROM12及び記憶部14に記憶された所定のプログラムを実行することにより、画像取得部31と、画像エリア分割部32と、特徴量算出部33と、画像エリア検知部34と、除外エリア特定部35cと、出力部36と、学習部37cとしての機能を備える。なお、情報出力装置10cのハードウェア構成は、第1の実施形態と同様であるとする。
FIG. 18 is a block diagram illustrating a functional configuration of the
除外エリア特定部35cは、撮像時間が異なる複数の画像の各々について、画像エリア検知部34が検知した画像エリアの位置を時系列順に比較することで、当該位置の軌跡が連続的に移動しているか否かを判定し、連続的に移動している画像エリア以外の、非連続的な位置に存在する画像エリアを特定する。 The exclusion area specifying unit 35c compares the positions of the image areas detected by the image area detection unit 34 in time series for each of a plurality of images having different imaging times, so that the locus of the position continuously moves. It is determined whether or not the image area exists in a discontinuous position other than the image area that is continuously moving.
図19−1、図19−2は、除外エリア特定部35cの動作の一例を説明するための図である。ここで、図19−1の画像G41が、画像取得部31が時刻t3に取得した画像であるとし、図19−2の画像G42が、画像取得部31が時刻t3+1に取得した画像であるとする。また、図中P11の位置にこの建物内への出入口E1が存在し、図中P12、P13の位置に窓W1、W2が存在するものとする(図3参照)。 19A and 19B are diagrams for explaining an example of the operation of the excluded area specifying unit 35c. Here, it is assumed that the image G41 of FIG. 19-1 is an image acquired by the image acquisition unit 31 at time t3, and the image G42 of FIG. 19-2 is an image acquired by the image acquisition unit 31 at time t3 + 1. To do. In addition, it is assumed that an entrance E1 to the building exists at a position P11 in the figure, and windows W1 and W2 exist at positions P12 and P13 in the figure (see FIG. 3).
上記の条件の下、時刻t3+1において、画像エリア検知部34が画像G42の各画像エリアから画像エリアA42(黒枠部分)を検知したとする。この場合、除外エリア特定部35cは、画像G41での画像エリアの位置を空(null)とし、画像G42から画像エリアA42の位置を特定する。そして、除外エリア特定部35cは、画像G41及び画像G42から特定した画像エリアの位置を時系列に沿って比較することで、時刻t3+1に画像エリアA42が突如検知されたと判断する。 Assume that the image area detection unit 34 detects the image area A42 (black frame portion) from each image area of the image G42 at time t3 + 1 under the above conditions. In this case, the excluded area specifying unit 35c specifies the position of the image area A42 from the image G42 by setting the position of the image area in the image G41 to be null. Then, the excluded area specifying unit 35c determines that the image area A42 is suddenly detected at time t3 + 1 by comparing the positions of the image areas specified from the images G41 and G42 in time series.
上記画像G41及びG42の例の場合、例えば、時刻t3+1に、図中P12の窓W1から入射する光が変動したような状況が考えられる。この場合、画像エリア検知部34が検知した画像エリアA42は、人等の物体が存在しないため誤検知となる。そこで、除外エリア特定部35cは、撮像時間お異なる二つの画像G41、G42において、非連続的な位置に存在する、つまり突如現れた画像エリアA42を特定する。 In the case of the examples of the images G41 and G42, for example, a situation in which the light incident from the window W1 of P12 in the figure fluctuates at time t3 + 1 can be considered. In this case, the image area A42 detected by the image area detection unit 34 is erroneously detected because there is no object such as a person. Therefore, the excluded area specifying unit 35c specifies the image area A42 that exists in a discontinuous position, that is, suddenly appears in the two images G41 and G42 having different imaging times.
また、図20−1、図20−2は、除外エリア特定部35cの他の動作例を説明するための図である。ここで、図20−1の画像G51が、画像取得部31が時刻t4に取得した画像であるとし、図20−2の画像G52が、画像取得部31が時刻t4+1に取得した画像であるとする。なお、図19−1と同様、図中P11の位置にこの建物内への出入口E1が存在し、図中P12、P13の位置に窓W1、W2が存在するものとする(図3参照)。 FIGS. 20A and 20B are diagrams for explaining another operation example of the excluded area specifying unit 35c. Here, it is assumed that the image G51 of FIG. 20-1 is an image acquired by the image acquisition unit 31 at time t4, and the image G52 of FIG. 20-2 is an image acquired by the image acquisition unit 31 at time t4 + 1. To do. As in FIG. 19A, it is assumed that the entrance E1 into the building exists at the position P11 in the drawing, and the windows W1 and W2 exist at the positions P12 and P13 in the drawing (see FIG. 3).
上記の条件の下、時刻t4において、画像エリア検知部34が、画像G51に示す各画像エリアから画像エリアA51(黒枠部分)を検知し、続く時刻t4+1において、画像G52に示す各画像エリアから画像エリアA52(黒枠部分)を検知したとする。この場合、除外エリア特定部35cは、画像G51から画像エリアA51の位置を特定し、画像G52から画像エリアA52の位置を特定する。そして、除外エリア特定部35cは、画像エリアA51、A52の位置を時系列順に比較し、画像エリアA51の位置近傍に画像エリアA52が存在することから、当該位置が連続的に移動していると判定する。 Under the above conditions, at time t4, the image area detection unit 34 detects the image area A51 (black frame portion) from each image area shown in the image G51, and at time t4 + 1, the image from each image area shown in the image G52. Assume that an area A52 (black frame portion) is detected. In this case, the excluded area specifying unit 35c specifies the position of the image area A51 from the image G51 and specifies the position of the image area A52 from the image G52. And the exclusion area specific | specification part 35c compares the position of image area A51, A52 in time series order, and since the image area A52 exists in the vicinity of the position of image area A51, when the said position is moving continuously, judge.
上記画像G51及びG52の例の場合、出入口E1から室内に進入した人が、時刻t4から時刻t4+1にかけて、画像エリアA51→画像エリアA52に移動した状況が考えられる。この場合、画像エリア検知部34が検知した画像エリアA52は、人等の物体が存在するため正常な検知となる。そのため、除外エリア特定部35cは、画像エリアA51及びA52の特定を行わず、画像エリア検知部34の検知結果として残存させる。 In the case of the examples of the images G51 and G52, it can be considered that a person who has entered the room through the entrance E1 has moved from the image area A51 to the image area A52 from time t4 to time t4 + 1. In this case, the image area A52 detected by the image area detector 34 is normally detected because an object such as a person exists. For this reason, the excluded area specifying unit 35c does not specify the image areas A51 and A52, and leaves them as the detection result of the image area detecting unit 34.
このように、除外エリア特定部35cは、撮影時間の異なる複数の画像間において、画像エリア検知部34が検知した画像エリアの位置の連続性に基づき、除外対象とする画像エリアを特定する。なお、連続性の判定に係るパラメータは任意に設定することが可能であるとする。連続性の判定に係るパラメータとしては、例えば、第2特徴量とする指標、連続性の判定に用いる画像数、連続と判定する画像エリア間の距離、サンプリング間隔等の他、判定の対象とする画像エリア位置(出入口E1、窓W1の周辺等)や、判定を実行する時刻(日時)等が挙げられる。 As described above, the excluded area specifying unit 35c specifies an image area to be excluded based on the continuity of the position of the image area detected by the image area detecting unit 34 between a plurality of images having different shooting times. Note that it is possible to arbitrarily set parameters relating to the determination of continuity. Parameters relating to the determination of continuity include, for example, an index used as the second feature amount, the number of images used for determination of continuity, the distance between image areas determined to be continuous, the sampling interval, and the like. Examples include the image area position (the entrance / exit E1, the periphery of the window W1, etc.), the time (date and time) at which the determination is performed, and the like.
上記例のうち、連続と判定する画像エリア間の距離としては、例えば、格子状の画像エリアにおける4近傍や8近傍に位置する画像エリアを連続すると定義してもよいし、8近傍からさらに1画像エリア分拡大した画像エリアを連続すると定義してもよい。また、連続性の判定に用いる画像数も2に限らず、3以上の画像を用いて判定してもよい。 Among the above examples, the distance between image areas determined to be continuous may be defined as, for example, image areas located in the vicinity of 4 or 8 in the lattice-shaped image area being continuous, You may define that the image area expanded by the image area is continuous. Further, the number of images used for determination of continuity is not limited to two, and determination may be made using three or more images.
また、連続性の判定の対象とする画像エリア位置を定義した場合、建物の出入口(P11)及び窓(P12、P13)の存在位置等を設定情報として予め記憶しておき、画像エリア検知部34が検知した画像エリアが、出入口E1や窓W1、W2の付近に存在するか否かを加味して、連続性の判定を行う。例えば、出入口E1付近で画像エリアが検知された場合には、この画像エリアに対しては連続性の判定の対象から除外する形態としてもよい。 In addition, when the image area position to be subjected to the continuity determination is defined, the existence position of the entrance / exit (P11) and the windows (P12, P13) of the building is stored in advance as setting information, and the image area detection unit 34 The continuity is determined in consideration of whether the image area detected by is present in the vicinity of the entrance E1 or the windows W1 and W2. For example, when an image area is detected near the entrance E1, the image area may be excluded from the continuity determination target.
学習部37cは、上述した学習部37の機能を備えるとともに、除外エリア特定部35cでの処理結果を入力とし、連続性の判定に係るパラメータを出力とする学習を行う。
The learning unit 37c has the function of the
例えば、学習部37cは、連続性の判定に係る各種のパラメータセットと、各パラメータセットでの除外エリア特定部35cの処理結果(又は出力部36の処理結果)とを対応付けて記憶部14に記憶しておく。そして、学習部37cは、記憶部14に記憶されたパラメータセットと、処理結果との組に基づき、より適切な処理結果(検知結果)が得られるパラメータセットを機械学習し、そのパラメータセットを除外エリア特定部35cに反映する。なお、学習部37cでの機械学習に係る技術や手法は、公知の技術・手法を用いるものとする。
For example, the learning unit 37c associates various parameter sets related to determination of continuity with the processing results of the excluded area specifying unit 35c (or processing results of the output unit 36) in each parameter set in the
次に、図21を参照して、本実施形態の情報出力装置10cの動作について説明する。ここで、図21は、情報出力装置10cの情報出力処理の手順を示すフローチャートである。なお、ステップS41〜S44は、上述した第1の実施形態のステップS11〜S14と同様であるため説明を省略する。
Next, the operation of the
ステップS45において、除外エリア特定部35cは、撮影時間の異なる複数の画像の各画像エリアについて、ステップS44で検知された画像エリアの位置を時系列順に比較し、非連続的な位置に存在する画像エリアを特定する(ステップS45)。 In step S45, the excluded area specifying unit 35c compares the positions of the image areas detected in step S44 in time series for each image area of a plurality of images having different shooting times, and images present at discontinuous positions. An area is specified (step S45).
続いて、出力部36は、ステップS44で直近に検知された画像エリアから、ステップS45で特定された画像エリアを除外する(ステップS46)。そして、出力部36は、ステップS46での処理結果となる残りの画像エリアに関する情報をエビデンスとして、検知装置40に出力し(ステップS47)、ステップS41に再び戻る。
Subsequently, the
その結果、検知装置40では、上記情報出力装置10cにより出力されたエビデンスをエビデンス受信部51が受信し、このエビデンスに基づいて、状態判定部52が当該エビデンスを出力した情報出力装置10の管轄内に物体が存在するか否かを判定する。そして、状態提示部53が、状態判定部52での判定結果を提示する。
As a result, in the
以上のように、第4の実施形態によれば、画像を構成する各画像エリアにおいて、画像エリア検知部34で検知された画像エリアの位置が、被写体となる室内(空間)の環境に応じて定めた連続性の判定条件に該当せず、非連続な位置となった場合に、その画像エリアを特定し、画像エリア検知部34の検知結果から除外する。これにより、例えば、窓から入射する光や、窓に取り付けられたカーテンの揺れ等を要因とする誤検知を低減することができるため、検知精度を向上させることができる。 As described above, according to the fourth embodiment, in each image area constituting the image, the position of the image area detected by the image area detection unit 34 depends on the environment of the room (space) that is the subject. When the discontinuous position is not met, the image area is specified and excluded from the detection result of the image area detection unit 34. Thereby, for example, it is possible to reduce erroneous detection caused by light incident from the window, shaking of a curtain attached to the window, and the like, and thus detection accuracy can be improved.
以上、本発明の実施形態を説明したが、上記実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。上記実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、組み合わせ、追加等を行うことができる。また、上記実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 As mentioned above, although embodiment of this invention was described, the said embodiment was shown as an example and is not intending limiting the range of invention. The above embodiment can be implemented in various other forms, and various omissions, replacements, changes, combinations, additions, and the like can be made without departing from the scope of the invention. Moreover, the said embodiment and its deformation | transformation are included in the range of the invention, the summary, and the invention described in the claim, and its equal range.
例えば、上記実施形態では、情報出力装置10(10a、10b、10c)が天井21に取り付けられた形態を説明したが、これに限らず、壁等の他の位置に設置する形態としてもよい。
For example, in the embodiment described above, the information output device 10 (10a, 10b, 10c) has been described as being attached to the
また、上記実施形態では、情報出力装置10(10a、10b、10c)が撮像部16を内蔵する形態としたが、これに限らず、撮像部16を外付けとする形態としてもよい。この場合、撮像部16のみを天井21に取り付け、他の要素を例えば検知装置40等の情報処理装置で実現する形態としてもよい。
Moreover, in the said embodiment, although the information output device 10 (10a, 10b, 10c) was set as the form which incorporated the
また、上記実施形態では、検知対象の空間を室内20等の閉空間としたが、これに限らず、例えば公園や路上等の開空間としてもよい。 In the above embodiment, the detection target space is a closed space such as the room 20. However, the present invention is not limited thereto, and may be an open space such as a park or a road.
また、上記実施形態では、情報出力装置10(10a、10b、10c)にて、画像エリアの特定に係るパラメータを学習する形態としたが、これに限らず、検知装置40等の外部装置が学習部37(37a、37b、37c)の機能を備え、学習により得られたパラメータを情報出力装置10(10a、10b、10c)に反映する形態としてもよい。
In the above embodiment, the information output device 10 (10a, 10b, 10c) is configured to learn parameters related to image area specification. However, the present invention is not limited to this, and an external device such as the
また、上記実施形態の情報出力装置10(10a、10b、10c)で実行されるプログラムは、各装置が備える記憶媒体(ROM12又は記憶部14)に予め組み込んで提供するものとするが、これに限らず、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。さらに、記憶媒体は、コンピュータ或いは組み込みシステムと独立した媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記憶又は一時記憶した記憶媒体も含まれる。 In addition, the program executed by the information output device 10 (10a, 10b, 10c) of the above embodiment is provided by being incorporated in advance in a storage medium (ROM 12 or storage unit 14) included in each device. The file is not limited to an installable or executable format, and is provided by being recorded on a computer-readable recording medium such as a CD-ROM, a flexible disk (FD), a CD-R, or a DVD (Digital Versatile Disk). You may comprise as follows. Furthermore, the storage medium is not limited to a medium independent of a computer or an embedded system, but also includes a storage medium in which a program transmitted via a LAN, the Internet, or the like is downloaded and stored or temporarily stored.
また、上記実施形態の情報出力装置10(10a、10b、10c)で実行されるプログラムをインターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよく、インターネット等のネットワーク経由で提供又は配布するように構成してもよい。 Further, the program executed by the information output apparatus 10 (10a, 10b, 10c) of the above embodiment is stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. Alternatively, it may be configured to be provided or distributed via a network such as the Internet.
10、10a、10b、10c 物体検知装置
11 CPU
12 ROM
13 RAM
14、14a 記憶部
141 除外設定情報
142 無効設定情報
15 通信部
16 撮像部
31 画像取得部
32 画像エリア分割部
33 特徴量算出部
34 画像エリア検知部
35、35a、35b、35c 除外エリア特定部
36 出力部
37、37a、37b、37c 学習部
38 計時部
40 検知装置
41 CPU
42 ROM
43 RAM
44 記憶部
45 操作部
46 表示部
47 通信部
51 エビデンス受信部
52 状態判定部
53 状態提示部
10, 10a, 10b, 10c
12 ROM
13 RAM
14,
42 ROM
43 RAM
44 storage unit 45
Claims (11)
前記画像を複数の画像エリアに分割する分割手段と、
撮影時間の異なる複数の前記画像から当該画像間の差分となる特徴量を前記画像エリア毎に算出する特徴量算出手段と、
前記特徴量算出手段で算出された各画像エリアの特徴量に基づいて、前記特徴量に変化のある画像エリアを検知する検知手段と、
前記複数の画像エリアから、情報出力の除外対象とする画像エリアを除外エリアとして特定する特定手段と、
前記検知手段が検知した画像エリアから前記特定手段が特定した除外エリアを除いた画像エリアに関する情報を出力する出力手段と、
を備え、
前記特定手段は、除外設定情報により除外する時、時刻又は時間に関連付けられた、前記除外対象とする画像エリアを前記除外エリアとして特定する情報出力装置。 An information output device that outputs information about an image of a subject,
Dividing means for dividing the image into a plurality of image areas;
Feature amount calculating means for calculating, for each image area, a feature amount that is a difference between the images from a plurality of images having different shooting times;
Detecting means for detecting an image area having a change in the feature amount based on the feature amount of each image area calculated by the feature amount calculating unit;
A specifying means for specifying an image area to be excluded from information output as an excluded area from the plurality of image areas;
Output means for outputting information on an image area obtained by removing the exclusion area specified by the specifying means from the image area detected by the detecting means;
With
The information output device that specifies the image area to be excluded, which is associated with time or time , as the exclusion area when the identification means is excluded by the exclusion setting information .
前記特定手段は、前記設定情報で有効と規定された処理単位に対し、前記除外エリアの特定を行う請求項4に記載の情報出力装置。 Storage means for storing setting information defining validity / invalidity for each processing unit;
The information output device according to claim 4, wherein the specifying unit specifies the exclusion area for a processing unit defined as valid in the setting information.
撮影時間の異なる複数の前記画像から当該画像間の差分となる特徴量を前記画像エリア毎に算出する特徴量算出手段と、
前記特徴量算出手段で算出された各画像エリアの特徴量に基づいて、前記特徴量に変化のある画像エリアを検知する検知手段と、
前記複数の画像エリアから、物体検知の除外対象とする画像エリアを除外エリアとして特定する特定手段と、
前記検知手段が検知した画像エリアから前記特定手段が特定した除外エリアを除いた画像エリアに関する情報を出力する出力手段と、
前記出力手段が出力した情報に基づいて、前記被写体となった撮像範囲に物体が存在するか否かを判定する判定手段と、
を備え、
前記特定手段は、除外設定情報により除外する時、時刻又は時間に関連付けられた、前記除外対象とする画像エリアを前記除外エリアとして特定する検知装置。 A dividing unit that divides an image of a subject into a plurality of image areas;
Feature amount calculating means for calculating, for each image area, a feature amount that is a difference between the images from a plurality of images having different shooting times;
Detecting means for detecting an image area having a change in the feature amount based on the feature amount of each image area calculated by the feature amount calculating unit;
A specifying means for specifying an image area to be excluded from object detection as an excluded area from the plurality of image areas;
Output means for outputting information on an image area obtained by removing the exclusion area specified by the specifying means from the image area detected by the detecting means;
Determination means for determining whether an object exists in the imaging range that is the subject based on the information output by the output means;
With
The detection unit is a detection device that specifies an image area to be excluded, which is associated with time or time , as the excluded area when excluded by the exclusion setting information .
前記画像を複数の画像エリアに分割する分割手段と、
撮影時間の異なる複数の前記画像から当該画像間の差分となる特徴量を前記画像エリア毎に算出する特徴量算出手段と、
前記特徴量算出手段で算出された各画像エリアの特徴量に基づいて、前記特徴量に変化のある画像エリアを検知する検知手段と、
前記複数の画像エリアから、情報出力の除外対象とする画像エリアを除外エリアとして特定する特定手段と、
前記検知手段が検知した画像エリアから前記特定手段が特定した除外エリアを除いた画像エリアに関する情報を出力する出力手段と、
して機能させ、
前記特定手段は、除外設定情報により除外する時、時刻又は時間に関連付けられた、前記除外対象とする画像エリアを前記除外エリアとして特定するプログラム。 A computer of an information output device that outputs information about an image obtained by photographing a subject,
Dividing means for dividing the image into a plurality of image areas;
Feature amount calculating means for calculating, for each image area, a feature amount that is a difference between the images from a plurality of images having different shooting times;
Detecting means for detecting an image area having a change in the feature amount based on the feature amount of each image area calculated by the feature amount calculating unit;
A specifying means for specifying an image area to be excluded from information output as an excluded area from the plurality of image areas;
Output means for outputting information on an image area obtained by removing the exclusion area specified by the specifying means from the image area detected by the detecting means;
To function,
The specifying unit is a program for specifying, as the excluded area , an image area to be excluded, which is associated with time or time when excluded by exclusion setting information .
分割手段が、前記画像を複数の画像エリアに分割する分割工程と、
特徴量算出手段が、撮影時間の異なる複数の前記画像から当該画像間の差分となる特徴量を前記画像エリア毎に算出する特徴量算出工程と、
検知手段が、特徴量算出手段で算出された各画像エリアの特徴量に基づいて、前記特徴量に変化のある画像エリアを検知する検知工程と、
特定手段が、前記複数の画像エリアから、情報出力の除外対象とする画像エリアを除外エリアとして特定する特定工程と、
出力手段が、前記検知手段が検知した画像エリアから前記特定手段が特定した除外エリアを除いた画像エリアに関する情報を出力する出力工程と、
を含み、
前記特定手段は、除外設定情報により除外する時、時刻又は時間に関連付けられた、前記除外対象とする画像エリアを前記除外エリアとして特定する情報出力方法。 A method executed by an information output device that outputs information about an image obtained by photographing a subject,
A dividing step of dividing the image into a plurality of image areas;
A feature amount calculating step for calculating, for each image area, a feature amount that is a difference between the images from a plurality of images having different shooting times;
A detecting step for detecting an image area having a change in the feature amount based on the feature amount of each image area calculated by the feature amount calculating unit;
A specifying step of specifying, from the plurality of image areas, an image area to be excluded from information output as an excluded area;
An output step for outputting information relating to an image area obtained by removing the exclusion area specified by the specifying unit from the image area detected by the detecting unit;
Including
The information output method for specifying the image area to be excluded, which is associated with time or time , as the exclusion area when the identification means is excluded by the exclusion setting information .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015051219A JP6058720B2 (en) | 2015-03-13 | 2015-03-13 | Information output device, detection device, program, and information output method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015051219A JP6058720B2 (en) | 2015-03-13 | 2015-03-13 | Information output device, detection device, program, and information output method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011240541A Division JP5971678B2 (en) | 2011-11-01 | 2011-11-01 | Information output device, detection device, program, and information output method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015130698A JP2015130698A (en) | 2015-07-16 |
JP6058720B2 true JP6058720B2 (en) | 2017-01-11 |
Family
ID=53761077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015051219A Active JP6058720B2 (en) | 2015-03-13 | 2015-03-13 | Information output device, detection device, program, and information output method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6058720B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016207712A1 (en) | 2016-05-04 | 2017-11-09 | Robert Bosch Gmbh | Detection device, method for detecting an event and computer program |
JP6716741B1 (en) * | 2019-03-20 | 2020-07-01 | 東芝エレベータ株式会社 | Elevator user detection system |
US20230011866A1 (en) * | 2019-12-09 | 2023-01-12 | Dmg Mori Co., Ltd. | Information processing device, machine tool, and information processing system |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3123587B2 (en) * | 1994-03-09 | 2001-01-15 | 日本電信電話株式会社 | Moving object region extraction method using background subtraction |
JP3506934B2 (en) * | 1998-12-11 | 2004-03-15 | 株式会社メガチップス | Monitoring device and monitoring system |
JP4100934B2 (en) * | 2002-02-28 | 2008-06-11 | シャープ株式会社 | Composite camera system, zoom camera control method, and zoom camera control program |
JP2003324726A (en) * | 2002-05-07 | 2003-11-14 | Itochu Corp | Object detecting apparatus using supervisory camera |
JP2004236087A (en) * | 2003-01-31 | 2004-08-19 | Funai Electric Co Ltd | Monitoring camera system |
-
2015
- 2015-03-13 JP JP2015051219A patent/JP6058720B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015130698A (en) | 2015-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11501535B2 (en) | Image processing apparatus, image processing method, and storage medium for reducing a visibility of a specific image region | |
US9191633B2 (en) | Tracking assistance device, tracking assistance system and tracking assistance method | |
JP4811653B2 (en) | Object detection device | |
US9875408B2 (en) | Setting apparatus, output method, and non-transitory computer-readable storage medium | |
CN104700430A (en) | Method for detecting movement of airborne displays | |
US9456146B2 (en) | Exposure control device, imaging device, image display device, and exposure control method | |
US11048947B2 (en) | Video monitoring apparatus, method of controlling the same, computer-readable storage medium, and video monitoring system | |
CN110458826B (en) | Ambient brightness detection method and device | |
JP5060264B2 (en) | Human detection device | |
JP5259291B2 (en) | White balance correction device and signal processing program | |
JP6058720B2 (en) | Information output device, detection device, program, and information output method | |
JP6924064B2 (en) | Image processing device and its control method, and image pickup device | |
JP2009017026A (en) | Coordinate conversion method, parameter-adjusting method and monitoring system | |
JP7446060B2 (en) | Information processing device, program and information processing method | |
JP5971678B2 (en) | Information output device, detection device, program, and information output method | |
KR20190026625A (en) | Image displaying method, Computer program and Recording medium storing computer program for the same | |
JP5142416B2 (en) | Object detection device | |
KR20180112335A (en) | Method for defoging and Defog system | |
CN108063933B (en) | Image processing method and device, computer readable storage medium and computer device | |
JP2015233202A (en) | Image processing apparatus, image processing method, and program | |
WO2019061713A1 (en) | Robot-based method and system for processing display of target image | |
CN114731360A (en) | System for performing image motion compensation | |
JP6752317B2 (en) | Storage medium for storing image processing devices and methods, and instructions | |
KR100558383B1 (en) | Method for detecting a motion block and method for tracking a moving object based on the method for detecting motion block | |
CN110298223A (en) | The storage medium of image processing apparatus and method and store instruction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150410 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20151102 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160517 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160524 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160722 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161207 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6058720 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |