JP6058720B2 - Information output device, detection device, program, and information output method - Google Patents

Information output device, detection device, program, and information output method Download PDF

Info

Publication number
JP6058720B2
JP6058720B2 JP2015051219A JP2015051219A JP6058720B2 JP 6058720 B2 JP6058720 B2 JP 6058720B2 JP 2015051219 A JP2015051219 A JP 2015051219A JP 2015051219 A JP2015051219 A JP 2015051219A JP 6058720 B2 JP6058720 B2 JP 6058720B2
Authority
JP
Japan
Prior art keywords
image
area
image area
unit
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015051219A
Other languages
Japanese (ja)
Other versions
JP2015130698A (en
Inventor
周平 野田
周平 野田
馬場 賢二
賢二 馬場
榎原 孝明
孝明 榎原
和美 長田
和美 長田
西村 信孝
信孝 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2015051219A priority Critical patent/JP6058720B2/en
Publication of JP2015130698A publication Critical patent/JP2015130698A/en
Application granted granted Critical
Publication of JP6058720B2 publication Critical patent/JP6058720B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施形態は、情報出力装置、検知装置、プログラム及び方法に関するものである。   Embodiments described herein relate generally to an information output device, a detection device, a program, and a method.

従来、監視カメラ等の撮像装置で撮像された画像を用いて人体等の物体(動体)を検知する検知装置が存在している。係る検知装置では、撮像装置で撮像された現在の状態を表す画像と、基準画像(例えば、撮像装置で撮像された数フレーム前の画像)との輝度の差分を画素単位で算出し、差分値が所定値以上となる画素の位置に基づいて動体を検知している。   Conventionally, there is a detection device that detects an object (moving body) such as a human body using an image captured by an imaging device such as a monitoring camera. In such a detection apparatus, a difference in luminance between an image representing the current state captured by the imaging apparatus and a reference image (for example, an image several frames before captured by the imaging apparatus) is calculated in units of pixels, and a difference value is calculated. The moving object is detected based on the position of the pixel where becomes equal to or greater than a predetermined value.

ところで、オフィス等の室内に明り取り用の窓が備え付けられている場合、この窓から入射する外光等が輝度変化の要因となるため、上記した検知装置において動体と誤検知される可能性がある。そのため、従来、誤検知が発生する箇所を非検知画像エリア(マスク)として設定することで、誤検知を低減する技術が提案されている。   By the way, when a window for light removal is provided in a room such as an office, external light or the like incident from the window may cause a luminance change, and thus may be erroneously detected as a moving object in the above-described detection device. . For this reason, conventionally, there has been proposed a technique for reducing erroneous detection by setting a location where erroneous detection occurs as a non-detected image area (mask).

特開2011−28956号公報JP 2011-28956 A 特開2003−324726号公報JP 2003-324726 A

しかしながら、従来の誤検知低減技術では、種々の誤検知発生要因に対応することができない可能性があった。   However, there is a possibility that the conventional false detection reduction technology cannot cope with various false detection occurrence factors.

実施の形態の情報出力装置は、被写体を撮影した画像に関する情報を出力する情報出力装置であって、分割手段と、特徴量算出手段と、検知手段と、特定手段と、出力手段とを備える。分割手段は、画像を複数の画像エリアに分割する。特徴量算出手段は、撮影時間の異なる複数の画像から当該画像間の差分となる特徴量を画像エリア毎に算出する。検知手段は、特徴量算出手段で算出された各画像エリアの特徴量に基づいて、特徴量に変化のある画像エリアを検知する。特定手段は、複数の画像エリアから、情報出力の除外対象とする画像エリアを除外エリアとして特定する。出力手段は、検知手段が検知した画像エリアから特定手段が特定した除外エリアを除いた画像エリアに関する情報を出力する。更に、特定手段は、除外設定情報により除外する時、時刻又は時間に関連付けられた、除外対象とする画像エリアを除外エリアとして特定する。 The information output apparatus according to the embodiment is an information output apparatus that outputs information related to an image obtained by photographing a subject, and includes a dividing unit, a feature amount calculating unit, a detecting unit, a specifying unit, and an output unit. The dividing unit divides the image into a plurality of image areas. The feature amount calculating means calculates a feature amount that is a difference between the images from a plurality of images having different shooting times for each image area. The detection unit detects an image area having a change in the feature amount based on the feature amount of each image area calculated by the feature amount calculation unit. The specifying unit specifies an image area to be excluded from information output as an excluded area from a plurality of image areas. The output means outputs information relating to the image area obtained by removing the exclusion area specified by the specifying means from the image area detected by the detecting means. Further, the specifying means specifies an image area to be excluded , which is associated with time or time , as an excluded area when excluded by the exclusion setting information .

本発明によれば、被写体のおかれる環境に応じて定まる条件に該当した画像エリアを特定し、この特定した画像エリアを特徴量に変化のあった画像エリアから除いた画像エリアに関する情報を出力することにより、種々の誤検知発生要因に対応することが可能になる。   According to the present invention, an image area corresponding to a condition determined according to an environment where a subject is placed is specified, and information regarding the image area obtained by removing the specified image area from an image area whose feature amount has changed is output. Thus, it becomes possible to cope with various erroneous detection occurrence factors.

図1は、第1の実施形態に係る検知システムの構成を模式的に示す図である。FIG. 1 is a diagram schematically illustrating a configuration of a detection system according to the first embodiment. 図2は、第1の実施形態に係る情報出力処理の構成を示すブロック図である。FIG. 2 is a block diagram showing a configuration of the information output process according to the first embodiment. 図3は、第1の実施形態に係る情報出力処理の設置例を示す図である。FIG. 3 is a diagram illustrating an installation example of the information output process according to the first embodiment. 図4は、第1の実施形態に係る情報出力処理の機能構成を示すブロック図である。FIG. 4 is a block diagram illustrating a functional configuration of the information output process according to the first embodiment. 図5−1は、画像エリア分割部による画像の分割例を示す図である。FIG. 5A is a diagram illustrating an example of image division by the image area dividing unit. 図5−2は、画像エリア分割部による画像の分割例を示す図である。FIG. 5B is a diagram illustrating an example of image division by the image area dividing unit. 図6−1は、特徴量算出部の動作の一例を説明するための図である。FIG. 6A is a schematic diagram illustrating an example of the operation of the feature amount calculation unit. 図6−2は、特徴量算出部の動作の一例を説明するための図である。FIG. 6B is a diagram for explaining an example of the operation of the feature amount calculation unit. 図6−3は、特徴量算出部の動作の一例を説明するための図である。FIG. 6C is a diagram for explaining an example of the operation of the feature amount calculation unit. 図7−1は、第1の実施形態に係る除外エリア特定部の動作の一例を説明するための図である。FIG. 7-1 is a diagram for explaining an example of the operation of the excluded area specifying unit according to the first embodiment. 図7−2は、第1の実施形態に係る特定部の動作の一例を説明するための図である。FIG. 7B is a diagram for explaining an example of the operation of the specifying unit according to the first embodiment. 図8は、第1の実施形態に係る検知装置の構成を示すブロック図である。FIG. 8 is a block diagram illustrating the configuration of the detection device according to the first embodiment. 図9は、第1の実施形態に係る検知装置の機能構成を示すブロック図である。FIG. 9 is a block diagram illustrating a functional configuration of the detection device according to the first embodiment. 図10は、第1の実施形態に係る情報出力処理の情報出力処理の手順を示すフローチャートである。FIG. 10 is a flowchart illustrating the procedure of the information output process of the information output process according to the first embodiment. 図11は、第2の実施形態に係る情報出力処理の構成を示すブロック図である。FIG. 11 is a block diagram illustrating a configuration of information output processing according to the second embodiment. 図12−1は、除外設定情報の一例を模式的に示す図である。FIG. 12A is a diagram schematically illustrating an example of exclusion setting information. 図12−2は、図9−1の除外設定情報に設定された除外対象エリアを模式的に示す図である。12B is a diagram schematically illustrating the exclusion target area set in the exclusion setting information in FIG. 図13は、第2の実施形態に係る情報出力処理の機能構成を示すブロック図である。FIG. 13 is a block diagram illustrating a functional configuration of information output processing according to the second embodiment. 図14は、第2の実施形態に係る情報出力処理の情報出力処理の手順を示すフローチャートである。FIG. 14 is a flowchart illustrating the procedure of the information output process of the information output process according to the second embodiment. 図15は、有効/無効設定情報の一例を模式的に示す図である。FIG. 15 is a diagram schematically illustrating an example of valid / invalid setting information. 図16は、第3の実施形態に係る情報出力処理の機能構成を示すブロック図である。FIG. 16 is a block diagram illustrating a functional configuration of information output processing according to the third embodiment. 図17は、第3の実施形態に係る情報出力処理の情報出力処理の手順を示すフローチャートである。FIG. 17 is a flowchart illustrating the procedure of the information output process of the information output process according to the third embodiment. 図18は、第4の実施形態に係る情報出力処理の機能構成を示すブロック図である。FIG. 18 is a block diagram illustrating a functional configuration of information output processing according to the fourth embodiment. 図19−1は、第4の実施形態に係る除外エリア特定部の動作の一例を説明するための図である。FIG. 19A is a diagram for explaining an example of the operation of the excluded area specifying unit according to the fourth embodiment. 図19−2は、第4の実施形態に係る除外エリア特定部の動作の一例を説明するための図である。FIG. 19-2 is a diagram for explaining an example of the operation of the excluded area specifying unit according to the fourth embodiment. 図20−1は、第4の実施形態に係る特定部の他の動作例を説明するための図である。FIG. 20A is a diagram for explaining another example of the operation of the specifying unit according to the fourth embodiment. 図20−2は、第4の実施形態に係る特定部の他の動作例を説明するための図である。FIG. 20-2 is a diagram for explaining another example of the operation of the specifying unit according to the fourth embodiment. 図21は、第4の実施形態に係る情報出力装置の情報出力処理の手順を示すフローチャートである。FIG. 21 is a flowchart illustrating a procedure of information output processing of the information output apparatus according to the fourth embodiment.

以下に添付図面を参照して、この発明に係る情報出力装置、検知装置、プログラム及び情報出力方法の実施形態を詳細に説明する。以下の実施形態では、この発明に係る情報出力装置、物体検知装置、プログラム及び方法を、オフィスビル等の建物内での物体検知に適用した例について説明する。   Hereinafter, embodiments of an information output device, a detection device, a program, and an information output method according to the present invention will be described in detail with reference to the accompanying drawings. In the following embodiments, an example in which the information output device, the object detection device, the program, and the method according to the present invention are applied to object detection in a building such as an office building will be described.

[第1の実施形態]
図1は、第1の実施形態に係る検知システムの構成を模式的に示す図である。同図に示すように、検知システムは、複数の情報出力装置10と、当該情報出力装置10とLAN(Local Area Network)等のネットワークNを介して接続された検知装置40とを有している。なお、ネットワークNに接続される情報出力装置10の個数は特に問わないものとする。
[First Embodiment]
FIG. 1 is a diagram schematically illustrating a configuration of a detection system according to the first embodiment. As shown in the figure, the detection system includes a plurality of information output devices 10 and a detection device 40 connected to the information output devices 10 via a network N such as a LAN (Local Area Network). . The number of information output devices 10 connected to the network N is not particularly limited.

情報出力装置10は、後述する撮像部16(図2参照)を有し、所定の被写体を撮像した画像に関する情報をエビデンスとして検知装置40に出力する。以下、情報出力装置10について説明する。   The information output device 10 includes an imaging unit 16 (see FIG. 2), which will be described later, and outputs information related to an image obtained by capturing a predetermined subject to the detection device 40 as evidence. Hereinafter, the information output apparatus 10 will be described.

図2は、第1の実施形態に係る情報出力装置10の構成を示すブロック図である。同図に示すように、情報出力装置10は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、記憶部14、通信部15及び撮像部16を備える。また、CPU11、ROM12、RAM13、記憶部14、通信部15及び撮像部16の各部は、アドレスバスやデータバス等のバスライン17を介して相互に接続されている。   FIG. 2 is a block diagram illustrating a configuration of the information output apparatus 10 according to the first embodiment. As shown in FIG. 1, the information output device 10 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a storage unit 14, a communication unit 15, and an imaging unit 16. . The CPU 11, the ROM 12, the RAM 13, the storage unit 14, the communication unit 15, and the imaging unit 16 are connected to each other via a bus line 17 such as an address bus or a data bus.

CPU11は、ROM12に記憶されたコンピュータ読み取り可能な各種プログラムを実行することにより、情報出力装置10の動作を統括的に制御する。また、CPU11は、ROM12及び記憶部14に記憶された所定のプログラムを実行することにより、後述する各機能部(図4参照)を実現する。   The CPU 11 comprehensively controls the operation of the information output apparatus 10 by executing various computer-readable programs stored in the ROM 12. In addition, the CPU 11 implements each functional unit (see FIG. 4) described later by executing a predetermined program stored in the ROM 12 and the storage unit 14.

ROM12は、CPU11が実行する各種プログラムや各種データを記憶する。RAM13は、CPU11が実行する各種プログラムや各種データを一時的に記憶し、ワーキング画像エリアとして機能する。記憶部14は、例えばハードディスクドライブ装置、SSD(Solid State Drive)、フラッシュメモリ等の記憶媒体で構成されており、CPU11が実行するプログラム等の他、各種情報を記憶している。   The ROM 12 stores various programs executed by the CPU 11 and various data. The RAM 13 temporarily stores various programs executed by the CPU 11 and various data, and functions as a working image area. The storage unit 14 is configured by a storage medium such as a hard disk drive device, an SSD (Solid State Drive), or a flash memory, and stores various types of information in addition to programs executed by the CPU 11.

通信部15は、ネットワークNを通じて接続される検知装置40とのデータ通信を制御する。撮像部16は、カラーCCD(Charge Coupled Device Image Sensor)や、カラーCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を有した撮像装置である。撮像部16は、所定のフレームレート(例えば30fps)で順次撮像した画像をRAM13に保存する。   The communication unit 15 controls data communication with the detection device 40 connected through the network N. The imaging unit 16 is an imaging device having an imaging element such as a color CCD (Charge Coupled Device Image Sensor) or a color CMOS (Complementary Metal Oxide Semiconductor). The imaging unit 16 stores the images sequentially captured at a predetermined frame rate (for example, 30 fps) in the RAM 13.

図3は、情報出力装置10の設置例を示す図である。同図において、室内20は、オフィス等の部屋(閉空間)であり、その壁面に、出入口E1及び明り取り用の窓W1、W2が備えられている。また、同図では、情報出力装置10を室内20の天井21に設置した例を示している。情報出力装置10が備える撮像部16の撮像方向及び撮像範囲は、室内20の全域を撮像できるよう予め設定されており、室内20の全域を被写体として撮像する。   FIG. 3 is a diagram illustrating an installation example of the information output apparatus 10. In the figure, a room 20 is a room (closed space) such as an office, and its wall surface is provided with an entrance / exit E1 and lighting windows W1, W2. Further, FIG. 2 shows an example in which the information output device 10 is installed on the ceiling 21 of the room 20. The imaging direction and imaging range of the imaging unit 16 included in the information output device 10 are set in advance so that the entire area of the room 20 can be imaged, and the entire area of the room 20 is imaged as a subject.

なお、室内20に設置される情報出力装置10の個数は一つに限らず、複数個用いる形態としてもよい。この形態の場合には、各情報出力装置10の撮像範囲を組み合わせることで、室内20の全域を撮像できるよう設定してもよい。   The number of information output devices 10 installed in the room 20 is not limited to one, and a plurality of information output devices 10 may be used. In the case of this form, you may set so that the whole region of the room 20 can be imaged by combining the imaging range of each information output device 10.

次に、図4を参照し、情報出力装置10のCPU11が、ROM12及び記憶部14に記憶されたプログラムを実行することで実現される情報出力装置10の機能部について説明する。   Next, the functional unit of the information output apparatus 10 realized by the CPU 11 of the information output apparatus 10 executing programs stored in the ROM 12 and the storage unit 14 will be described with reference to FIG.

図4は、情報出力装置10の機能構成を示すブロック図である。同図に示すように、情報出力装置10のCPU11は、ROM12及び記憶部14に記憶された所定のプログラムを実行することにより、画像取得部31と、画像エリア分割部32と、特徴量算出部33と、画像エリア検知部34と、除外エリア特定部35と、出力部36と、学習部37としての機能を備える。   FIG. 4 is a block diagram illustrating a functional configuration of the information output apparatus 10. As shown in the figure, the CPU 11 of the information output device 10 executes a predetermined program stored in the ROM 12 and the storage unit 14 to thereby execute an image acquisition unit 31, an image area division unit 32, and a feature amount calculation unit. 33, an image area detecting unit 34, an excluded area specifying unit 35, an output unit 36, and a learning unit 37.

画像取得部31は、撮像部16が撮像しRAM13に保存した画像を、時系列順に順次取得する。画像エリア分割部32は、画像取得部31が取得した画像毎に、当該画像を1又は複数の画像エリアに分割する。   The image acquisition unit 31 sequentially acquires images captured by the imaging unit 16 and stored in the RAM 13 in chronological order. The image area dividing unit 32 divides the image into one or a plurality of image areas for each image acquired by the image acquisition unit 31.

図5−1、図5−2は、画像エリア分割部32による画像の分割例を示す図である。図5−1では、画像取得部31が取得した画像G11を、矩形状の画像エリアに分割した例を示している。また、図5−2では、画像取得部31が取得した画像G12を、当該画像G12の中心から同心円状に分割した例を示している。なお、分割する画像エリアの形状や分割数は、図5−1、図5−2の例に限らず、任意に設定することが可能であるとする。例えば、分割数を1とすることで画像全体を1つの画像エリアとしてもよい。   FIGS. 5A and 5B are diagrams illustrating an example of image division by the image area dividing unit 32. FIG. 5A illustrates an example in which the image G11 acquired by the image acquisition unit 31 is divided into rectangular image areas. FIG. 5B illustrates an example in which the image G12 acquired by the image acquisition unit 31 is divided concentrically from the center of the image G12. Note that the shape and the number of divisions of the image area to be divided are not limited to the examples in FIGS. 5A and 5B and can be arbitrarily set. For example, by setting the number of divisions to 1, the entire image may be set as one image area.

図4に戻り、特徴量算出部33は、画像エリア分割部32が分割した画像エリア毎に、当該画像エリアの画像の特徴を示した特徴量を算出する。ここで、算出された特徴量は、画像エリア検知部34及び除外エリア特定部35で使用される。なお、画像エリア検知部34及び除外エリア特定部35で用いる特徴量は、同一の指標で導出されたものとは限らず、異なる指標で導出されたものであってもよい。   Returning to FIG. 4, the feature amount calculation unit 33 calculates a feature amount indicating the image feature of the image area for each image area divided by the image area division unit 32. Here, the calculated feature amount is used by the image area detecting unit 34 and the excluded area specifying unit 35. Note that the feature amounts used in the image area detection unit 34 and the excluded area specification unit 35 are not necessarily derived from the same index, but may be derived from different indices.

例えば、特徴量算出部33は、画像取得部31が直近に取得した画像と、この画像の所定時間前(例えば1フレーム前)に画像取得部31が取得した画像と、の時系列的に連続する2画像間において、同一位置に存在する画像エリアの輝度値を画素単位で比較することで、輝度値の差分値を画素毎に算出する。そして、特徴量算出部33は、算出した差分値の絶対値が、所定の閾値(以下、第1閾値という)以上となった画素の数を、その画像エリアの特徴量として算出する。以下、この特徴量の算出方法について、図6−1、図6−2、図6−3を用いて説明する。   For example, the feature amount calculation unit 33 continuously in time series includes the image most recently acquired by the image acquisition unit 31 and the image acquired by the image acquisition unit 31 a predetermined time before this image (for example, one frame before). By comparing the luminance values of the image areas existing at the same position between the two images in units of pixels, a difference value of the luminance values is calculated for each pixel. Then, the feature amount calculation unit 33 calculates the number of pixels in which the absolute value of the calculated difference value is equal to or greater than a predetermined threshold (hereinafter referred to as a first threshold) as the feature amount of the image area. Hereinafter, a method for calculating the feature amount will be described with reference to FIGS. 6-1, 6-2, and 6-3.

図6−1、図6−2、図6−3は、特徴量算出部33の動作の一例を説明するための図である。画像取得部31が時刻t1に取得した画像が、図6−1のG21であるとし、画像取得部31が直近の時刻t1+1に取得した画像が、図6−2のG22であるとすると、特徴量算出部33は、画像G21と画像G22との2画像間において、同一位置に存在する画像エリアの輝度値を画素単位で比較し、その差分を算出する。   6A, 6B, and 6C are diagrams for explaining an example of the operation of the feature amount calculation unit 33. FIG. If the image acquired by the image acquisition unit 31 at time t1 is G21 in FIG. 6A and the image acquired by the image acquisition unit 31 at the latest time t1 + 1 is G22 in FIG. The amount calculation unit 33 compares the luminance values of the image areas existing at the same position in units of pixels between the two images G21 and G22, and calculates the difference.

ここで、画像G21及び画像G22中の人物H1が、時刻t1から時刻t1+1にかけて移動していたとすると、図6−3に示すように、画像中における人物H1の位置の相違により、人物H1を表示する画素の輝度値が時刻t1から時刻t1+1にかけて変化する。そこで、特徴量算出部33は、変化量を輝度値の差分として算出し、この差分値の絶対値が第1閾値以上となった画素の数を、この人物H1が存在する各画像エリア(図中黒枠参照)の特徴量とする。   Here, if the person H1 in the images G21 and G22 has moved from time t1 to time t1 + 1, the person H1 is displayed due to the difference in the position of the person H1 in the images as shown in FIG. 6-3. The luminance value of the pixel to be changed changes from time t1 to time t1 + 1. Therefore, the feature amount calculation unit 33 calculates the amount of change as the difference between the luminance values, and determines the number of pixels in which the absolute value of the difference value is equal to or greater than the first threshold value for each image area (FIG. Feature value).

特徴量の算出方法は上記の例に限らず、他の算出方法を用いてもよい。例えば、時系列的に連続する2つの画像の同一の画像エリア毎に、当該画像エリアを構成する各画素の輝度値の総和を算出し、この総和の差分値をその画像エリアの特徴量として取得してもよい。また、特徴量算出部33が直近に取得した画像の画像エリア毎に、当該画像エリアを構成する各画素の輝度値の総和を算出し、この総和値をその画像エリアの特徴量として取得してもよい。   The feature amount calculation method is not limited to the above example, and other calculation methods may be used. For example, for each of the same image areas of two images that are continuous in time series, the sum of the luminance values of each pixel constituting the image area is calculated, and the difference value of the sum is obtained as the feature amount of the image area. May be. Further, for each image area of the image acquired most recently by the feature amount calculation unit 33, the sum of the luminance values of the pixels constituting the image area is calculated, and this sum value is acquired as the feature amount of the image area. Also good.

また、上記例では、輝度値の差分を特徴量としたが、輝度値のヒストグラム、輝度分布、色情報等の他の要素を特徴量としてもよい。例えば、特徴量算出部33が直近に取得した画像の画像エリア毎に、当該画像エリア内の画像からパターンマッチング等で人体の識別を行い、この結果得られる人体らしさの値をその画像エリアの特徴量としてもよい。なお、第1閾値の値は、特徴量の算出方法、特徴量とする指標に応じて、変更するものとする。   In the above example, the difference between the luminance values is used as the feature amount. However, other elements such as a luminance value histogram, luminance distribution, and color information may be used as the feature amount. For example, for each image area of the image most recently acquired by the feature amount calculation unit 33, the human body is identified from the image in the image area by pattern matching or the like, and the humanity value obtained as a result is obtained as a feature of the image area. It may be an amount. Note that the value of the first threshold value is changed according to the feature amount calculation method and the index used as the feature amount.

図4に戻り、画像エリア検知部34は、算出された各画像エリアの特徴量に基づいて、当該特徴量に変化のある画像エリアを、人等の物体(動体)が存在する可能性のあるエリアとして検知する。具体的に、画像エリア検知部34は、特徴量算出部33で算出された各画像エリアの特徴量と、所定の閾値(以下、第2閾値という)とを比較し、特徴量が第2閾値以上の画像エリアを、人体等の物体(動体)が存在する可能性のある画像エリアとして検知する。例えば、上述した図6−3の状態の場合、黒枠で囲われた各画像エリアの特徴量が第2閾値以上であったとすると、画像エリア検知部34は、この黒枠で囲われた各画像エリアをそれぞれ検知する。   Returning to FIG. 4, based on the calculated feature amount of each image area, the image area detection unit 34 may have an object (moving object) such as a person in the image area where the feature amount has changed. Detect as an area. Specifically, the image area detection unit 34 compares the feature amount of each image area calculated by the feature amount calculation unit 33 with a predetermined threshold (hereinafter referred to as a second threshold), and the feature amount is the second threshold. The above image area is detected as an image area in which an object (moving body) such as a human body may exist. For example, in the state of FIG. 6-3 described above, if the feature amount of each image area surrounded by a black frame is equal to or greater than the second threshold value, the image area detection unit 34 determines each image area surrounded by the black frame. Is detected respectively.

除外エリア特定部35は、画像全体を構成する各画像エリアから、被写体のおかれる環境に応じて定まる条件に該当する画像エリアを特定する。具体的に、除外エリア特定部35は、画像全体を構成する各画像エリアの特徴量と、所定の閾値(以下、第3閾値という)とを比較することで、特徴量が第3閾値以上の画像エリアを特定する。   The excluded area specifying unit 35 specifies an image area corresponding to a condition determined according to the environment where the subject is placed, from each image area constituting the entire image. Specifically, the excluded area specifying unit 35 compares the feature amount of each image area constituting the entire image with a predetermined threshold (hereinafter referred to as a third threshold), so that the feature amount is equal to or greater than the third threshold. Specify the image area.

なお、本実施形態において、上述した画像エリア検知部34が画像エリアの検知に用いる特徴量(以下、第1特徴量)と、除外エリア特定部35が第3閾値との比較に用いる特徴量(以下、第2特徴量)と、は独立した物理量として取り扱うことが可能である。そのため、第1特徴量と第2特徴量とを、異なる指標で求められた値(例えば、輝度値の差分と輝度値の総和値)としてもよいし、同一の指標で求められた値としてもよい。また、本実施形態では、除外エリア特定部35の処理の対象を画像全体としたが、これに限らず、画像エリア検知部34にて検知された画像エリアを処理の対象としてもよい。   In the present embodiment, the feature amount (hereinafter referred to as the first feature amount) used by the image area detection unit 34 described above to detect the image area and the feature amount (excluding area specifying unit 35) used for comparison with the third threshold ( Hereinafter, the second feature quantity) can be handled as an independent physical quantity. Therefore, the first feature value and the second feature value may be values obtained by different indices (for example, the difference between the brightness values and the sum of the brightness values), or may be values obtained by the same index. Good. In the present embodiment, the processing target of the exclusion area specifying unit 35 is the entire image. However, the present invention is not limited to this, and the image area detected by the image area detection unit 34 may be the processing target.

出力部36は、画像エリア検知部34が検知した画像エリアから、除外エリア特定部35が特定した画像エリアを除外した残りの画像エリアに関する情報を、エビデンスとして検知装置40に出力する。   The output unit 36 outputs information regarding the remaining image areas, excluding the image areas specified by the excluded area specifying unit 35, from the image areas detected by the image area detecting unit 34 to the detection device 40 as evidence.

ここで、エビデンスとして出力する情報は、特に問わないものとする。例えば、画像エリア検知部34が検知した画像エリアから、除外エリア特定部35が特定した画像エリアを除外した残りの画像エリアを表す座標等をエビデンスとして出力してもよい。また、画像エリア検知部34が検知した画像エリアから、除外エリア特定部35が特定した画像エリアを除外した残りの画像エリアを表す画像(データ)をエビデンスとして出力してもよい。また、撮像部16が撮像した画像に除外結果の画像エリアを示す情報を重畳した画像をエビデンスとして出力してもよい。また、除外の結果、残りの画像エリアが空(null)となった場合であっても、その旨を示す情報をエビデンスとして出力してもよい。   Here, information output as evidence is not particularly limited. For example, coordinates representing a remaining image area obtained by excluding the image area specified by the excluded area specifying unit 35 from the image area detected by the image area detecting unit 34 may be output as evidence. Further, an image (data) representing the remaining image area excluding the image area specified by the excluded area specifying unit 35 from the image area detected by the image area detecting unit 34 may be output as evidence. Further, an image obtained by superimposing information indicating the image area of the exclusion result on the image captured by the imaging unit 16 may be output as evidence. Further, even if the remaining image area becomes null as a result of the exclusion, information indicating that may be output as evidence.

以下、除外エリア特定部35の動作について、図7−1及び図7−2を用いて説明する。図7−1、図7−2は、除外エリア特定部35の動作の一例を説明するための図である。ここで、図7−1の画像G31が、画像取得部31が時刻t2に取得した画像であるとし、図7−2の画像G32が、画像取得部31が直近の時刻t2+1に取得した画像であるとする。画像G31及びG32では、時刻t2から時刻t2+1にかけて、室内の照明がオフからオンに切り替えられた状態を示している。   Hereinafter, operation | movement of the exclusion area specific | specification part 35 is demonstrated using FIGS. 7-1 and 7-2. FIGS. 7A and 7B are diagrams for explaining an example of the operation of the excluded area specifying unit 35. Here, it is assumed that the image G31 in FIG. 7-1 is an image acquired by the image acquisition unit 31 at time t2, and the image G32 in FIG. 7-2 is an image acquired by the image acquisition unit 31 at the latest time t2 + 1. Suppose there is. Images G31 and G32 show a state in which the indoor lighting is switched from OFF to ON from time t2 to time t2 + 1.

また、図7−1及び図7−2の例において、特徴量算出部33は、撮像時間の異なる二つの画像G31、G32の各々において、各画像エリアを構成する画素の輝度値の総和を算出し、対応する画像エリアでの総和の差分値を、その画像エリアの第2特徴量として算出したとする。例えば、画像G31の各画像エリアでの輝度値の総和が「5000」、画像G32の各画像エリアでの輝度値の総和が「30000」であったとすると、特徴量算出部33は、これら総和の差分値「25000」を、各画像エリアの第2特徴量として算出する。   In the example of FIGS. 7-1 and 7-2, the feature amount calculation unit 33 calculates the sum of the luminance values of the pixels constituting each image area in each of the two images G31 and G32 having different imaging times. Assume that the difference value of the sum in the corresponding image area is calculated as the second feature amount of the image area. For example, assuming that the sum of the brightness values in each image area of the image G31 is “5000” and the sum of the brightness values in each image area of the image G32 is “30000”, the feature amount calculation unit 33 calculates the sum of these sums. The difference value “25000” is calculated as the second feature amount of each image area.

このように、照明の点灯により被写体となる室内が照らされると、照らされた画像エリアの輝度値が変化することになる。そのため、例えば、画像エリア検知部34が、輝度値(第1特徴量)の変化に基づいて画像エリアを検知している場合には、点灯に伴う輝度値の変化を要因として、物体の存在しない画像G32中の全て又は一部の画像エリアを誤検知してしまう可能性がある。   As described above, when the interior of the room is illuminated by lighting, the luminance value of the illuminated image area changes. Therefore, for example, when the image area detection unit 34 detects an image area based on a change in luminance value (first feature amount), no object exists due to a change in luminance value accompanying lighting. There is a possibility that all or a part of the image area in the image G32 is erroneously detected.

そこで、例えば、被写体となる室内での照明のオン/オフ時の輝度値の差分に応じた値を第3閾値(例えば「20000」)として予め設定しておくことで、除外エリア特定部35は、第2特徴量が第3閾値以上となった画像エリアを画像中から特定する。これにより、出力部36は、画像エリア検知部34が検知した画像エリアから、除外エリア特定部35が特定した画像エリアを除外するため、画像エリア検知部34が検知した画像エリアのうち、第2特徴量が20000未満の画像エリアが残留することになる。したがって、第3閾値の値を適切に設定することで、照明のオン/オフに伴う輝度値の変化を要因とする誤検知の発生を低減することができる。   Therefore, for example, by setting a value corresponding to the difference in luminance value when lighting is turned on / off in the room that is the subject as the third threshold (for example, “20000”) in advance, the excluded area specifying unit 35 The image area in which the second feature amount is equal to or greater than the third threshold is specified from the image. As a result, the output unit 36 excludes the image area specified by the exclusion area specifying unit 35 from the image area detected by the image area detecting unit 34, so that the second of the image areas detected by the image area detecting unit 34. An image area having a feature amount of less than 20000 remains. Therefore, by appropriately setting the value of the third threshold value, it is possible to reduce the occurrence of erroneous detection caused by a change in the luminance value associated with lighting on / off.

ところで、除外エリア特定部35でのパラメータとなる第3閾値は、被写体となる室内の構成や、第2特徴量とする指標、検知を行う時期(季節、日付、時刻)等によって異なってくる。そこで、学習部37は、特徴量算出部33、除外エリア特定部35での処理結果を入力とし、第3閾値を出力とする学習を行う。   By the way, the third threshold value that is a parameter in the excluded area specifying unit 35 varies depending on the configuration of the room that is the subject, the index as the second feature value, the detection timing (season, date, time), and the like. Therefore, the learning unit 37 performs learning using the processing results of the feature amount calculation unit 33 and the excluded area specifying unit 35 as inputs and the third threshold as an output.

例えば、学習部37は、特徴量とする要素の種別や、検知を行う時期毎に、複数の第3閾値と、この第3閾値を割り当てた場合での除外エリア特定部35の処理結果(又は出力部36の処理結果)とを対応付けて記憶部14に記憶しておく。そして、学習部37は、記憶部14に記憶した複数の第3閾値と処理結果とに基づいて、より適切な処理結果(検知結果)が得られる閾値セットを機械学習し、その第3閾値を除外エリア特定部35の第3閾値に反映する。   For example, the learning unit 37 has a plurality of third threshold values and processing results of the excluded area specifying unit 35 when the third threshold values are assigned for each type of element as the feature amount and each detection timing (or The processing result of the output unit 36) is stored in the storage unit 14 in association with each other. Then, the learning unit 37 performs machine learning on a threshold set from which a more appropriate processing result (detection result) is obtained based on the plurality of third threshold values and processing results stored in the storage unit 14, and sets the third threshold value. This is reflected in the third threshold value of the excluded area specifying unit 35.

なお、学習部37での機械学習に係る技術や手法は、公知の技術・手法を用いるものとする。また、学習の対象となるパラメータを第3閾値としたが、これに限らず、第2閾値や第1閾値を学習の対象に含めてもよい。   In addition, the technique and method which concern on the machine learning in the learning part 37 shall use a well-known technique and method. Moreover, although the parameter used as learning object was made into the 3rd threshold value, you may include not only in this but a 2nd threshold value or a 1st threshold value in the learning object.

図1に戻り、検知装置40は、情報出力装置10から入力されるエビデンスに基づいて、各情報出力装置10の被写体となった室内に人等の物体(動体)が存在するか否を判定するサーバ装置である。   Returning to FIG. 1, based on the evidence input from the information output device 10, the detection device 40 determines whether an object (moving body) such as a person exists in the room that is the subject of each information output device 10. It is a server device.

図8は、第1の実施形態に係る検知装置40の構成を示すブロック図である。同図に示すように、検知装置40は、CPU41と、ROM42と、RAM43と、記憶部44と、操作部45と、表示部46と、通信部47とを備えている。また、CPU41、ROM42、RAM43、記憶部44、操作部45、表示部46及び通信部47の各部は、アドレスバスやデータバス等のバスライン48を介して相互に接続されている。   FIG. 8 is a block diagram illustrating a configuration of the detection device 40 according to the first embodiment. As shown in the figure, the detection device 40 includes a CPU 41, a ROM 42, a RAM 43, a storage unit 44, an operation unit 45, a display unit 46, and a communication unit 47. The CPU 41, the ROM 42, the RAM 43, the storage unit 44, the operation unit 45, the display unit 46, and the communication unit 47 are connected to each other via a bus line 48 such as an address bus or a data bus.

CPU41は、ROM42や記憶部44に記憶された所定のプログラムをRAM43に展開して実行することで、検知装置40の各部の動作を統括的に制御する。また、CPU41は、ROM42や記憶部44に記憶された所定のプログラムをRAM43に展開して実行することで、後述する機能部を実現する。   The CPU 41 comprehensively controls the operation of each unit of the detection device 40 by developing and executing a predetermined program stored in the ROM 42 or the storage unit 44 in the RAM 43. In addition, the CPU 41 implements a function unit described later by expanding and executing a predetermined program stored in the ROM 42 or the storage unit 44 in the RAM 43.

ROM42は、CPU41が実行する各種プログラムや設定情報を記憶している。RAM43は、主記憶装置であり、ワークメモリとして用いられる。   The ROM 42 stores various programs executed by the CPU 41 and setting information. The RAM 43 is a main storage device and is used as a work memory.

記憶部44は、HDD(Hard Disk Drive)等の補助記憶装置であって、CPU41が実行する各種プログラムや各種情報を記憶している。操作部45は、キーボードやマウス等の入力デバイスであって、操作者から受け付けた操作内容をCPU41に出力する。また、表示部46は、LCD(Liquid Crystal Display)等の表示デバイスであって、CPU41の制御に従い文字や画像等を表示する。   The storage unit 44 is an auxiliary storage device such as an HDD (Hard Disk Drive) and stores various programs executed by the CPU 41 and various types of information. The operation unit 45 is an input device such as a keyboard and a mouse, and outputs operation contents received from the operator to the CPU 41. The display unit 46 is a display device such as an LCD (Liquid Crystal Display), and displays characters, images, and the like under the control of the CPU 41.

通信部47は、ネットワークNに接続可能なネットワークインタフェースであり、CPU41の制御の下、ネットワークNに接続された各情報出力装置10との間で情報の授受を行う。   The communication unit 47 is a network interface connectable to the network N, and exchanges information with each information output device 10 connected to the network N under the control of the CPU 41.

図9は、検知装置40の機能構成を示すブロック図である。同図に示すように、検知装置40のCPU41は、ROM42及び記憶部44に記憶された所定のプログラムを実行することにより、エビデンス受信部51と、状態判定部52と、状態提示部53としての機能を備える。   FIG. 9 is a block diagram illustrating a functional configuration of the detection device 40. As shown in the figure, the CPU 41 of the detection device 40 executes a predetermined program stored in the ROM 42 and the storage unit 44, thereby providing an evidence reception unit 51, a state determination unit 52, and a state presentation unit 53. It has a function.

エビデンス受信部51は、情報出力装置10の各々から送信(出力)されるエビデンスを、通信部47を介して受信する。なお、エビデンスには、情報出力装置10の各々を識別可能な識別子(例えばIPアドレス等)が含まれるものとする。   The evidence receiving unit 51 receives the evidence transmitted (output) from each of the information output devices 10 via the communication unit 47. Note that the evidence includes an identifier (for example, an IP address) that can identify each of the information output apparatuses 10.

状態判定部52は、エビデンスに含まれた情報に基づいて、当該エビデンスを出力した情報出力装置10の管轄(撮像範囲)内に、人等の物体(動体)が存在するか否かを判定する。具体的に、状態判定部52は、特定の画像エリアを表す座標等の情報や画像自体がエビデンスに含まれる場合、このエビデンスを出力した情報出力装置10の管轄内での、画像エリアに対応する位置に、物体(動体)が存在すると判定する。また、状態判定部52は、画像エリアが空(null)である旨がエビデンスに含まれる場合、このエビデンスを出力した情報出力装置10の管轄内に物体(動体)が存在しないと判定する。   Based on the information included in the evidence, the state determination unit 52 determines whether or not an object (moving body) such as a person exists within the jurisdiction (imaging range) of the information output apparatus 10 that has output the evidence. . Specifically, when information such as coordinates representing a specific image area or the image itself is included in the evidence, the state determination unit 52 corresponds to the image area within the jurisdiction of the information output apparatus 10 that has output the evidence. It is determined that an object (moving object) exists at the position. In addition, when the evidence that the image area is null is included in the evidence, the state determination unit 52 determines that there is no object (moving object) within the jurisdiction of the information output apparatus 10 that has output the evidence.

状態提示部53は、状態判定部52での判定結果を表示部46等に出力することで、当該表示結果を検知装置40のオペレータに提示する。なお、情報出力装置10から受信したエビデンスと、当該エビデンスに基づく状態判定部52での判定結果とを関連付けて、記憶部44に蓄積・管理する形態としてもよい。   The state presentation unit 53 presents the display result to the operator of the detection device 40 by outputting the determination result in the state determination unit 52 to the display unit 46 and the like. The evidence received from the information output device 10 and the determination result in the state determination unit 52 based on the evidence may be associated with each other and accumulated and managed in the storage unit 44.

次に、図10を参照して、本実施形態の情報出力装置10の動作について説明する。ここで、図10は、情報出力装置10の情報出力処理の手順を示すフローチャートである。   Next, the operation of the information output apparatus 10 of this embodiment will be described with reference to FIG. Here, FIG. 10 is a flowchart showing a procedure of information output processing of the information output apparatus 10.

まず、画像取得部31は、撮像部16が撮像しRAM13に保存された画像を、時系列順に順次取得する(ステップS11)。画像エリア分割部32は、ステップS11で画像が取得される毎に、当該画像を1又は複数の画像エリアに分割する(ステップS12)。   First, the image acquisition unit 31 sequentially acquires images captured by the imaging unit 16 and stored in the RAM 13 in chronological order (step S11). Each time an image is acquired in step S11, the image area dividing unit 32 divides the image into one or a plurality of image areas (step S12).

特徴量算出部33は、ステップS11で直近に取得された画像について、ステップS12で分割された画像エリア毎に当該画像エリアの第1特徴量及び第2特徴量を算出する(ステップS13)。続いて、画像エリア検知部34は、ステップS13で算出された各画像エリアの第1特徴量と、第2閾値とを比較し、第1特徴量が第2閾値以上の画像エリアを検知する(ステップS14)。次いで、除外エリア特定部35は、ステップS13で算出された各画像エリアの第2特徴量と、第3閾値とを比較し、第2特徴量が第3閾値以上の画像エリアを特定する(ステップS15)。   The feature amount calculation unit 33 calculates the first feature amount and the second feature amount of the image area for each image area divided in step S12 for the image most recently acquired in step S11 (step S13). Subsequently, the image area detection unit 34 compares the first feature value of each image area calculated in step S13 with the second threshold value, and detects an image area whose first feature value is equal to or greater than the second threshold value ( Step S14). Next, the excluded area specifying unit 35 compares the second feature amount of each image area calculated in step S13 with the third threshold value, and specifies an image area whose second feature amount is equal to or greater than the third threshold value (step S13). S15).

続いて、出力部36は、ステップS14で検知された画像エリアから、ステップS15で検知された画像エリアを除外する(ステップS16)。そして、出力部36は、ステップS16での処理結果となる残りの画像エリアに関する情報をエビデンスとして、検知装置40に出力し(ステップS17)、ステップS11に再び戻る。   Subsequently, the output unit 36 excludes the image area detected in step S15 from the image area detected in step S14 (step S16). And the output part 36 outputs the information regarding the remaining image area which becomes the processing result in step S16 as evidence to the detection device 40 (step S17), and returns to step S11 again.

その結果、検知装置40では、上記情報出力装置10により出力されたエビデンスをエビデンス受信部51が受信し、このエビデンスに基づいて、状態判定部52が当該エビデンスを出力した情報出力装置10の管轄内に物体が存在するか否かを判定する。そして、状態提示部53が、状態判定部52での判定結果を提示する。   As a result, in the detection device 40, the evidence receiving unit 51 receives the evidence output by the information output device 10, and based on the evidence, the state determination unit 52 outputs the evidence within the jurisdiction of the information output device 10. It is determined whether or not an object exists. And the state presentation part 53 presents the determination result in the state determination part 52. FIG.

以上のように、第1の実施形態によれば、画像を構成する画像エリアの第2特徴量が、被写体となる室内(空間)の環境に応じて定めた第3閾値を逸脱する場合に、その画像エリアを特定し、画像エリア検知部34の検知結果から除外する。これにより、例えば、照明のオン/オフに伴う輝度値の変化を要因とする誤検知を低減することができるため、検知精度を向上させることができる。   As described above, according to the first embodiment, when the second feature amount of the image area constituting the image deviates from the third threshold value determined according to the environment of the room (space) that is the subject, The image area is specified and excluded from the detection result of the image area detection unit 34. As a result, for example, it is possible to reduce erroneous detection caused by a change in luminance value associated with turning on / off of illumination, thereby improving detection accuracy.

ところで、情報出力装置10の構成は、種々の形態を採用することが可能である。例えば、第2特徴量の指標として画素の色情報を用いた場合、第3閾値として、白飛び付近(RGB成分それぞれの最大値の90%以上等)や、夕焼けの色(R成分が最大値の90%以上等)の範囲を設定することで、窓等から入射した光を要因とする誤検知の発生を低減することができる。また、上記例では、第2特徴量が第3閾値以上の画像エリアを、検知結果から除去する構成としたが、第2特徴量が予め設定した閾値範囲内(或いは範囲外)にある画像エリアを、検知結果から除去する構成としてもよい。   By the way, the configuration of the information output apparatus 10 can adopt various forms. For example, when pixel color information is used as the index of the second feature value, the third threshold value is the vicinity of whiteout (such as 90% or more of the maximum value of each RGB component) or the color of sunset (R component is the maximum value). 90% or more) can be set to reduce the occurrence of false detection caused by light incident from a window or the like. In the above example, the image area having the second feature amount equal to or greater than the third threshold is removed from the detection result. However, the image area in which the second feature amount is within (or out of) the preset threshold range. May be removed from the detection result.

また、上記実施形態では、検知装置40が状態判定部52の機能を備える構成としたが、これに限らず、情報出力装置10が状態判定部52の機能を備える構成としてもよい。なお、この構成の場合には、状態判定部52での判定結果を、エビデンスに含めて出力する形態としてもよい。   Moreover, in the said embodiment, although the detection apparatus 40 was set as the structure provided with the function of the state determination part 52, not only this but the information output device 10 is good also as a structure provided with the function of the state determination part 52. In the case of this configuration, the determination result in the state determination unit 52 may be included in the evidence and output.

[第2の実施形態]
次に、第2の実施形態に係る情報出力装置について説明する。なお、第1の実施形態と同様の構成要素については、同一の符号を付与し説明を省略する。
[Second Embodiment]
Next, an information output apparatus according to the second embodiment will be described. In addition, about the component similar to 1st Embodiment, the same code | symbol is provided and description is abbreviate | omitted.

図11は、第2の実施形態に係る情報出力装置10aの構成を示すブロック図である。同図に示すように、情報出力装置10aは、CPU11、ROM12、RAM13、記憶部14a、通信部15及び撮像部16を備える。また、CPU11、ROM12、RAM13、記憶部14a、通信部15及び撮像部16の各部は、アドレスバスやデータバス等のバスライン17を介して相互に接続されている。   FIG. 11 is a block diagram illustrating a configuration of an information output apparatus 10a according to the second embodiment. As shown in the figure, the information output device 10a includes a CPU 11, a ROM 12, a RAM 13, a storage unit 14a, a communication unit 15, and an imaging unit 16. The CPU 11, the ROM 12, the RAM 13, the storage unit 14a, the communication unit 15, and the imaging unit 16 are connected to each other via a bus line 17 such as an address bus or a data bus.

記憶部14aは、上述した記憶部14に対応し、CPU11が実行するプログラム等の他、各種情報を記憶している。また、記憶部14aは、各種情報の1つとして、検知対象から除外する画像エリアと、当該画像エリアを検知対象から除外する時期(日時等)とを関連付けた除外設定情報141を記憶している。   The storage unit 14a corresponds to the storage unit 14 described above, and stores various types of information in addition to programs executed by the CPU 11. Further, the storage unit 14a stores, as one of various types of information, exclusion setting information 141 that associates an image area to be excluded from the detection target and a time (date and time) at which the image area is excluded from the detection target. .

ここで、図12−1は、除外設定情報141の一例を模式的に示す図である。また、図12−2は、図12−1の除外設定情報141に設定された除外対象エリアを模式的に示す図である。   Here, FIG. 12A is a diagram schematically illustrating an example of the exclusion setting information 141. FIG. 12B is a diagram schematically illustrating the exclusion target area set in the exclusion setting information 141 in FIG.

図12−1に示すように、除外設定情報141には、検知対象から除外する画像エリアが格納される除外対象エリア141aと、検知対象から除外する時刻が格納される除外時間141bと、をデータ項目として有している。以下、除外対象エリア141aに格納(設定)された画像エリアを、「除外対象エリア」と表記する。   As illustrated in FIG. 12A, the exclusion setting information 141 includes data on an exclusion target area 141a in which an image area to be excluded from a detection target is stored and an exclusion time 141b in which a time to be excluded from the detection target is stored. It has as an item. Hereinafter, the image area stored (set) in the exclusion target area 141a is referred to as “exclusion target area”.

除外対象エリア141aには、複数の画像エリアの座標等を纏めて格納することで、複数の画像エリアで構成される画像エリア群を、一つの除外対象エリアとして取り扱うことが可能となっている。例えば、図12−1の除外対象エリア141aに格納された除外対象エリアA11、A12、A13は、図12−2に示すA11、A12、A13(黒枠部分)の画像エリアに対応している。なお、複数の除外対象エリア同士で、一部又は全ての画像エリアを重複して設定する形態としてもよい。   By storing the coordinates of a plurality of image areas together in the exclusion target area 141a, an image area group composed of a plurality of image areas can be handled as one exclusion target area. For example, the exclusion target areas A11, A12, and A13 stored in the exclusion target area 141a in FIG. 12A correspond to the image areas A11, A12, and A13 (black frame portions) illustrated in FIG. In addition, it is good also as a form which overlaps and sets one part or all the image areas by some exclusion object areas.

除外時間141bには、検知対象からの除外を開始する時刻と、終了する時刻とが格納される。なお、時刻だけでなく、日付(月、日)や曜日等を用いて除外の開始/終了タイミングを指定する形態としてもよい。また、除外対象エリアA12に関連付けられた除外時間141bのように、除外時間141bを空欄(null)とすることで、検知対象からの除外を常時指定する形態としてもよい。また、同一の除外対象エリアに対し、互いに異なる複数の除外時間を設定する形態としてもよい。   The exclusion time 141b stores a time at which exclusion from the detection target starts and a time at which the exclusion ends. Note that the start / end timing of exclusion may be specified using not only the time but also the date (month, day), day of the week, or the like. Moreover, it is good also as a form which always designates exclusion from a detection target by making the exclusion time 141b blank (null) like the exclusion time 141b linked | related with exclusion object area A12. A plurality of different exclusion times may be set for the same exclusion target area.

ところで、上述した除外対象エリア141a及び除外時間141bには、被写体となる室内の環境に応じた値を設定することが好ましい。例えば、図12−2に示す画像エリアA11において、AM6時からAM8時までの間、朝日が入射するような環境の場合、この画像エリアA11を除外対象エリアとして設定するとともに、この除外対象エリアの除外時間に「06:00〜08:00」等を設定する。これにより、朝日の入射に伴い画像エリアA11の輝度値が変化した場合でも、画像エリアA11を検知対象から除外することができるため、人体等の物体が存在しない画像エリアが誤検知されてしまうことを低減することができる。   By the way, it is preferable to set values according to the indoor environment that is the subject in the exclusion target area 141a and the exclusion time 141b described above. For example, in the image area A11 shown in FIG. 12-2, in an environment in which the morning sun enters between 6:00 AM and 8:00 AM, the image area A11 is set as an exclusion target area, and For example, “06: 0 to 08:00” is set as the exclusion time. As a result, even when the luminance value of the image area A11 changes with the incidence of the morning sun, the image area A11 can be excluded from the detection target, so that an image area in which no object such as a human body exists is erroneously detected. Can be reduced.

図13は、第2の実施形態に係る情報出力装置10aの機能構成を示すブロック図である。同図に示すように、情報出力装置10aのCPU11は、ROM12及び記憶部14aに記憶された所定のプログラムを実行することにより、画像取得部31と、画像エリア分割部32と、特徴量算出部33と、画像エリア検知部34と、除外エリア特定部35aと、出力部36と、学習部37aと、計時部38としての機能を備える。   FIG. 13 is a block diagram illustrating a functional configuration of the information output apparatus 10a according to the second embodiment. As shown in the figure, the CPU 11 of the information output device 10a executes a predetermined program stored in the ROM 12 and the storage unit 14a, whereby an image acquisition unit 31, an image area division unit 32, and a feature amount calculation unit. 33, an image area detecting unit 34, an excluded area specifying unit 35a, an output unit 36, a learning unit 37a, and a time measuring unit 38.

計時部38は、情報出力装置10aに設けられたRTC(Real Time Clock)等の計時装置が計時する時刻に基づいて、現在日時を表す現在時刻情報を生成する。   The timer 38 generates current time information representing the current date and time based on the time measured by a timer such as RTC (Real Time Clock) provided in the information output device 10a.

除外エリア特定部35aは、除外設定情報141を参照し、計時部38が生成する現在時刻情報の現在日時に該当する除外対象エリアを特定する。   The exclusion area specifying unit 35a refers to the exclusion setting information 141, and specifies an exclusion target area corresponding to the current date and time of the current time information generated by the timing unit 38.

学習部37aは、上述した学習部37の機能を備えるとともに、除外エリア特定部35aでの処理結果を入力とし、除外対象エリア及び除外時間を出力とする学習を行う。   The learning unit 37a has the function of the learning unit 37 described above, and performs learning by using the processing result of the exclusion area specifying unit 35a as an input and outputting the exclusion target area and the exclusion time.

例えば、学習部37aは、室内に存在する誤検知要因(例えば窓等)の配置位置周辺に設定された除外対象エリアと、当該除外対象エリアに割り当てた各種の除外時間と、この条件での除外エリア特定部35aの処理結果(又は出力部36の処理結果)とを対応付けて記憶部14aに記憶しておく。そして、学習部37aは、記憶部14aに記憶された除外対象エリアと、除外時間と、処理結果との組に基づき、より適切な処理結果(検知結果)が得られる除外時間を機械学習し、その除外時間を除外設定情報141の除外時間141bに反映(格納)する。   For example, the learning unit 37a may include an exclusion target area set around an arrangement position of a false detection factor (such as a window) existing in the room, various exclusion times assigned to the exclusion target area, and exclusion under this condition. The processing result of the area specifying unit 35a (or the processing result of the output unit 36) is associated and stored in the storage unit 14a. Then, the learning unit 37a performs machine learning of an exclusion time at which a more appropriate processing result (detection result) is obtained based on the combination of the exclusion target area, the exclusion time, and the processing result stored in the storage unit 14a. The exclusion time is reflected (stored) in the exclusion time 141b of the exclusion setting information 141.

なお、学習部37aでの機械学習に係る技術や手法は、公知の技術・手法を用いるものとする。また、学習の対象として、除外対象エリアを含めてもよい。   It should be noted that known techniques and methods are used as techniques and methods related to machine learning in the learning unit 37a. Further, an exclusion target area may be included as a learning target.

次に、図14を参照して、本実施形態の情報出力装置10aの動作について説明する。ここで、図14は、情報出力装置10aの情報出力処理の手順を示すフローチャートである。なお、ステップS21〜S24は、上述した第1の実施形態のステップS11〜S14と同様であるため説明を省略する。   Next, the operation of the information output apparatus 10a of this embodiment will be described with reference to FIG. Here, FIG. 14 is a flowchart showing a procedure of information output processing of the information output apparatus 10a. Note that steps S21 to S24 are the same as steps S11 to S14 of the first embodiment described above, and a description thereof will be omitted.

ステップS25において、除外エリア特定部35aは、除外設定情報141を参照し、計時部38が生成する現在時刻情報の現在日時に該当する除外対象エリアを特定する(ステップS25)。   In step S25, the exclusion area specifying unit 35a refers to the exclusion setting information 141, and specifies an exclusion target area corresponding to the current date and time of the current time information generated by the timing unit 38 (step S25).

続いて、出力部36は、ステップS24で検知された画像エリアから、ステップS25で特定された除外対象エリアを除外する(ステップS26)。そして、出力部36は、ステップS26での処理結果となる残りの画像エリアに関する情報をエビデンスとして、検知装置40に出力し(ステップS27)、ステップS21に再び戻る。   Subsequently, the output unit 36 excludes the exclusion target area specified in step S25 from the image area detected in step S24 (step S26). And the output part 36 outputs the information regarding the remaining image area which becomes the processing result in step S26 as evidence to the detection device 40 (step S27), and returns to step S21 again.

その結果、検知装置40では、上記情報出力装置10aにより出力されたエビデンスをエビデンス受信部51が受信し、このエビデンスに基づいて、状態判定部52が当該エビデンスを出力した情報出力装置10の管轄内に物体が存在するか否かを判定する。そして、状態提示部53が、状態判定部52での判定結果を提示する。   As a result, in the detection device 40, the evidence receiving unit 51 receives the evidence output from the information output device 10 a, and based on this evidence, the state determination unit 52 outputs the evidence within the jurisdiction of the information output device 10. It is determined whether or not an object exists. And the state presentation part 53 presents the determination result in the state determination part 52. FIG.

以上のように、第2の実施形態によれば、画像が撮像された時期及び当該画像を構成する各画像エリアの位置が、被写体となる室内(空間)の環境に応じて定めた除外対象エリア及び除外時間の条件に該当した場合に、この条件に該当した除外対象エリアを特定し、画像エリア検知部34での検知結果から除外する。これにより、例えば、窓から入射する光や、窓に取り付けられたカーテンの揺れ等を要因とする誤検知を低減することができるため、検知精度を向上させることができる。また、被写体となる室内の使用環境(例えば営業日と休業日)に基づいて、除外対象エリアを有効/無効とすることができるため、室内の使用環境に柔軟に対応することができる。   As described above, according to the second embodiment, an exclusion target area in which the time when an image is captured and the position of each image area constituting the image are determined according to the environment of the room (space) that is the subject. And when it corresponds to the conditions of exclusion time, the exclusion object area corresponding to this condition is specified, and it excludes from the detection result in the image area detection part 34. FIG. Thereby, for example, it is possible to reduce erroneous detection caused by light incident from the window, shaking of a curtain attached to the window, and the like, and thus detection accuracy can be improved. In addition, since the exclusion target area can be validated / invalidated based on the indoor usage environment (for example, business days and closed days) as a subject, it is possible to flexibly cope with the indoor usage environment.

ところで、情報出力装置10aでの除外設定情報141に係る構成は、種々の形態を採用することが可能である。例えば、上記第2の実施形態では、現在日時に該当する除外時間の除外対象エリアを特定することで、当該除外対象エリアを画像エリア検知部34での検知結果から除外する構成としたが、除外対象エリアの各々に対し、有効/無効を規定する設定情報(以下、有効/無効設定情報という)を別途設けることで、当該有効/無効設定情報に基づいて、除外対象エリアの除外を有効/無効化する構成としてもよい。   By the way, the configuration related to the exclusion setting information 141 in the information output apparatus 10a can adopt various forms. For example, in the second embodiment, by specifying the exclusion target area of the exclusion time corresponding to the current date and time, the exclusion target area is excluded from the detection result in the image area detection unit 34. For each target area, setting information (hereinafter referred to as valid / invalid setting information) that specifies validity / invalidity is separately provided, and exclusion / exclusion of exclusion target areas is valid / invalid based on the valid / invalid setting information It is good also as a structure to make.

ここで、図15は、有効/無効設定情報142の一例を模式的に示す図である。図15に示すように、有効/無効設定情報142には、処理の対象となる除外対象エリアが格納される処理対象エリア142aと、有効/無効を規定するデータが格納される有効/無効設定142bとをデータ項目として有している。なお、有効/無効設定情報142は、記憶部14aに記憶されるものとする。   Here, FIG. 15 is a diagram schematically illustrating an example of the valid / invalid setting information 142. As shown in FIG. 15, the valid / invalid setting information 142 includes a processing target area 142a in which an exclusion target area to be processed is stored, and a valid / invalid setting 142b in which data defining valid / invalid is stored. As data items. The valid / invalid setting information 142 is stored in the storage unit 14a.

処理対象エリア142aには、除外設定情報141と同一の除外対象エリアが格納されることで、除外対象エリアをキーとして、除外設定情報141と有効/無効設定情報142とが関連付けられる。なお、除外対象エリア141aと処理対象エリア142aとを共通化することで、除外設定情報141と有効/無効設定情報142とを併合し、一つの設定情報とする形態としてもよい。   By storing the same exclusion target area as the exclusion setting information 141 in the processing target area 142a, the exclusion setting information 141 and the valid / invalid setting information 142 are associated with each other using the exclusion target area as a key. The exclusion target area 141a and the processing target area 142a may be made common so that the exclusion setting information 141 and the valid / invalid setting information 142 are merged to form one setting information.

上記した有効/無効設定情報142を用いる場合、除外エリア特定部35aは、ステップS25の実行に先がけて、現在日時に該当する除外対象エリアに関連付けられた有効/無効設定情報142が有効か否かを判定する。そして、除外エリア特定部35aは、有効/無効設定情報142が「有効」の場合には上述したステップS25に移行し、現在日時に該当した除外対象エリアを特定する。また、有効/無効設定情報142が「無効」の場合には、除外エリア特定部35aは、現在日時に該当した除外対象エリアを特定することなく、ステップS26に移行する。   When using the valid / invalid setting information 142 described above, the exclusion area specifying unit 35a determines whether the validity / invalidity setting information 142 associated with the exclusion target area corresponding to the current date and time is valid prior to the execution of step S25. Determine. Then, when the valid / invalid setting information 142 is “valid”, the excluded area specifying unit 35a proceeds to the above-described step S25 and specifies the excluded area corresponding to the current date and time. When the valid / invalid setting information 142 is “invalid”, the excluded area specifying unit 35a proceeds to step S26 without specifying the excluded area corresponding to the current date and time.

これにより、除外設定情報141に格納された除外対象エリアの単位で、除外エリア特定部35aの機能を有効/無効化することができるため、除外対象エリアの単位で当該除外対象エリアの除外を個別に制御することができる。   Thereby, since the function of the exclusion area specifying unit 35a can be validated / invalidated in units of exclusion target areas stored in the exclusion setting information 141, exclusion of the exclusion target areas can be individually performed in units of exclusion target areas. Can be controlled.

なお、除外対象エリアに対する有効/無効の設定は、除外設定情報141に定められているものとするが、これに限らず、画像エリア検知部34が画像エリアを検知した際に、この検知された画像エリアに対する有効/無効の設定を外部装置(例えば検知装置40)等から受け付け、この設定内容に基づいて、除外エリア特定部35aが除外対象エリアの特定を行う形態としてもよい。   The valid / invalid setting for the exclusion target area is set in the exclusion setting information 141, but is not limited to this. When the image area detection unit 34 detects the image area, the detection is detected. A valid / invalid setting for the image area may be received from an external device (for example, the detection device 40), and the exclusion area identifying unit 35a may identify the exclusion target area based on the setting content.

[第3の実施形態]
次に、第3の実施形態に係る情報出力装置について説明する。なお、第1の実施形態と同様の構成要素については、同一の符号を付与し説明を省略する。
[Third Embodiment]
Next, an information output apparatus according to the third embodiment will be described. In addition, about the component similar to 1st Embodiment, the same code | symbol is provided and description is abbreviate | omitted.

図16は、第3の実施形態に係る情報出力装置10bの機能構成を示すブロック図である。同図に示すように、情報出力装置10bのCPU11は、ROM12及び記憶部14に記憶された所定のプログラムを実行することにより、画像取得部31と、画像エリア分割部32と、特徴量算出部33と、画像エリア検知部34と、除外エリア特定部35bと、出力部36と、学習部37bとしての機能を備える。なお、情報出力装置10bのハードウェア構成は、第1の実施形態と同様であるとする。   FIG. 16 is a block diagram illustrating a functional configuration of the information output apparatus 10b according to the third embodiment. As shown in the figure, the CPU 11 of the information output device 10b executes a predetermined program stored in the ROM 12 and the storage unit 14, thereby executing an image acquisition unit 31, an image area division unit 32, and a feature amount calculation unit. 33, an image area detecting unit 34, an excluded area specifying unit 35b, an output unit 36, and a learning unit 37b. It is assumed that the hardware configuration of the information output device 10b is the same as that of the first embodiment.

除外エリア特定部35bは、撮影時間の異なる複数の画像(少なくとも3以上)の各画像エリアについて、当該画像エリアの第2特徴量を時系列順に比較し、当該第2特徴量が規則的に変化する画像エリアを特定する。   For each image area of a plurality of images (at least three or more) having different shooting times, the excluded area specifying unit 35b compares the second feature amount of the image area in chronological order, and the second feature amount changes regularly. The image area to be specified is specified.

ところで、第2特徴量が規則的に変化する状態は、例えば、室内に設けられたPCモニタにスクリーンセーバー等の周期性な画像(映像)が表示されている場合や、扇風機のファンの回転等の規則的な動作を行う物体が画像中に含まれる場合に発生する。このような場合、画像エリア検知部34での検知結果をそのまま出力してしまうと、人体等の物体の存在しない画像エリアが検知結果として出力されることになる。そこで、本実施形態では、除外エリア特定部35bが、第2特徴量が規則的に変化する画像エリアを特定し、出力部36が、この特定された画像エリアを画像エリア検知部34での検知結果から除去することで、規則的な動作を行う事象が、物体として誤検知されてしまうことを低減する。   By the way, the state in which the second feature amount regularly changes is, for example, when a periodic image (video) such as a screen saver is displayed on a PC monitor provided in the room, or when the fan of a fan is rotating. This occurs when an object that performs regular motion is included in the image. In such a case, if the detection result in the image area detection unit 34 is output as it is, an image area in which an object such as a human body does not exist is output as the detection result. Therefore, in the present embodiment, the excluded area specifying unit 35b specifies an image area in which the second feature amount regularly changes, and the output unit 36 detects the specified image area by the image area detecting unit 34. By removing from the result, it is possible to reduce an event that a regular operation is erroneously detected as an object.

このように、除外エリア特定部35bは、撮影時間の異なる複数の画像間において、各画像エリアが有する第2特徴量の変化の規則性(パターン)に基づき、除外対象とする画像エリアを特定する。なお、規則的な変化の判定に係るパラメータは、任意に設定することが可能であるとする。規則的な変化の判定に係るパラメータとしては、例えば、第2特徴量とする指標、規則的と判定する周期、判定に用いる画像数、サンプリング間隔等の他、判定の対象とする画像エリアの位置(出入口E1、窓W1の周辺等)や、判定を実行する時刻(日時)等が挙げられる。   As described above, the excluded area specifying unit 35b specifies an image area to be excluded based on the regularity (pattern) of the change in the second feature amount of each image area between a plurality of images having different shooting times. . It is assumed that the parameters related to regular change determination can be arbitrarily set. Parameters relating to regular change determination include, for example, the index of the second feature, the periodic determination period, the number of images used for determination, the sampling interval, and the position of the image area to be determined (Entrance / exit E1, the vicinity of the window W1, etc.), the time (date and time) for executing the determination, and the like.

学習部37bは、上述した学習部37の機能を備えるとともに、除外エリア特定部35bでの処理結果を入力とし、規則的な変化の判定に係るパラメータを出力とする学習を行う。   The learning unit 37b has the function of the learning unit 37 described above, and performs learning by using the processing result of the excluded area specifying unit 35b as an input and outputting a parameter related to regular change determination.

例えば、学習部37bは、規則的変化の判定に係る各種のパラメータセットと、各パラメータセットでの除外エリア特定部35bの処理結果(又は出力部36の処理結果)とを対応付けて記憶部14に記憶しておく。そして、学習部37bは、記憶部14に記憶されたパラメータセットと、処理結果との組に基づき、より適切な処理結果(検知結果)が得られるパラメータセットを機械学習し、そのパラメータセットを除外エリア特定部35bに反映する。なお、学習部37bでの機械学習に係る技術や手法は、公知の技術・手法を用いるものとする。   For example, the learning unit 37b associates various parameter sets related to regular change determination with the processing results of the exclusion area specifying unit 35b (or processing results of the output unit 36) in each parameter set, and stores the storage unit 14 Remember it. Then, the learning unit 37b performs machine learning on a parameter set from which a more appropriate processing result (detection result) is obtained based on the set of the parameter set stored in the storage unit 14 and the processing result, and excludes the parameter set. This is reflected in the area specifying unit 35b. In addition, the technique and method which concern on the machine learning in the learning part 37b shall use a well-known technique and method.

次に、図17を参照して、本実施形態の情報出力装置10bの動作について説明する。ここで、図17は、情報出力装置10bの情報出力処理の手順を示すフローチャートである。なお、ステップS31〜S34は、上述した第1実施形態のステップS11〜S14と同様であるため説明を省略する。   Next, the operation of the information output apparatus 10b of this embodiment will be described with reference to FIG. Here, FIG. 17 is a flowchart showing a procedure of information output processing of the information output apparatus 10b. Note that steps S31 to S34 are the same as steps S11 to S14 of the first embodiment described above, and a description thereof will be omitted.

ステップS35において、除外エリア特定部35bは、撮影時間の異なる複数の画像の各画像エリアについて、当該画像エリアの第2特徴量を時系列順に比較し、当該第2特徴量が規則的に変化する画像エリアを特定する(ステップS35)。   In step S35, the excluded area specifying unit 35b compares the second feature amount of the image area in time series for each image area of a plurality of images having different shooting times, and the second feature amount changes regularly. An image area is specified (step S35).

続いて、出力部36は、ステップS34で直近に検知された画像エリアから、ステップS35で特定された画像エリアを除外する(ステップS36)。そして、出力部36は、ステップS36での処理結果となる残りの画像エリアに関する情報をエビデンスとして、検知装置40に出力し(ステップS37)、ステップS31に再び戻る。   Subsequently, the output unit 36 excludes the image area specified in step S35 from the image area detected most recently in step S34 (step S36). And the output part 36 outputs the information regarding the remaining image area which becomes the processing result in step S36 as evidence to the detection device 40 (step S37), and returns to step S31 again.

その結果、検知装置40では、上記情報出力装置10bにより出力されたエビデンスをエビデンス受信部51が受信し、このエビデンスに基づいて、状態判定部52が当該エビデンスを出力した情報出力装置10の管轄内に物体が存在するか否かを判定する。そして、状態提示部53が、状態判定部52での判定結果を提示する。   As a result, in the detection device 40, the evidence receiving unit 51 receives the evidence output by the information output device 10b, and based on this evidence, the state determination unit 52 outputs the evidence within the jurisdiction of the information output device 10 It is determined whether or not an object exists. And the state presentation part 53 presents the determination result in the state determination part 52. FIG.

以上のように、第3の実施形態によれば、画像を構成する各画像エリアの第2特徴量が、被写体となる室内(空間)の環境に応じて定めた規則的な変化の条件に該当した場合に、この条件に該当した画像エリアを特定し、画像エリア検知部34の検知結果から除外する。これにより、例えば、室内に設けられたPCモニタに表示される周期的な画像や扇風機のファン等、規則的な動作を行う物体を要因とする誤検知を低減することができるため、検知精度を向上させることができる。   As described above, according to the third embodiment, the second feature amount of each image area constituting the image corresponds to the regular change condition determined according to the environment of the room (space) that is the subject. In this case, an image area corresponding to this condition is specified and excluded from the detection result of the image area detection unit 34. As a result, for example, it is possible to reduce false detection caused by an object that performs a regular operation such as a periodic image displayed on a PC monitor provided in a room or a fan of a fan. Can be improved.

[第4の実施形態]
次に、第4の実施形態に係る情報出力装置について説明する。なお、第1の実施形態と同様の構成要素については、同一の符号を付与し説明を省略する。
[Fourth Embodiment]
Next, an information output apparatus according to the fourth embodiment will be described. In addition, about the component similar to 1st Embodiment, the same code | symbol is provided and description is abbreviate | omitted.

図18は、第4の実施形態に係る情報出力装置10cの機能構成を示すブロック図である。同図に示すように、情報出力装置10cのCPU11は、ROM12及び記憶部14に記憶された所定のプログラムを実行することにより、画像取得部31と、画像エリア分割部32と、特徴量算出部33と、画像エリア検知部34と、除外エリア特定部35cと、出力部36と、学習部37cとしての機能を備える。なお、情報出力装置10cのハードウェア構成は、第1の実施形態と同様であるとする。   FIG. 18 is a block diagram illustrating a functional configuration of the information output apparatus 10c according to the fourth embodiment. As shown in the figure, the CPU 11 of the information output device 10c executes a predetermined program stored in the ROM 12 and the storage unit 14, whereby an image acquisition unit 31, an image area division unit 32, and a feature amount calculation unit. 33, an image area detecting unit 34, an excluded area specifying unit 35c, an output unit 36, and a learning unit 37c. Note that the hardware configuration of the information output apparatus 10c is the same as that of the first embodiment.

除外エリア特定部35cは、撮像時間が異なる複数の画像の各々について、画像エリア検知部34が検知した画像エリアの位置を時系列順に比較することで、当該位置の軌跡が連続的に移動しているか否かを判定し、連続的に移動している画像エリア以外の、非連続的な位置に存在する画像エリアを特定する。   The exclusion area specifying unit 35c compares the positions of the image areas detected by the image area detection unit 34 in time series for each of a plurality of images having different imaging times, so that the locus of the position continuously moves. It is determined whether or not the image area exists in a discontinuous position other than the image area that is continuously moving.

図19−1、図19−2は、除外エリア特定部35cの動作の一例を説明するための図である。ここで、図19−1の画像G41が、画像取得部31が時刻t3に取得した画像であるとし、図19−2の画像G42が、画像取得部31が時刻t3+1に取得した画像であるとする。また、図中P11の位置にこの建物内への出入口E1が存在し、図中P12、P13の位置に窓W1、W2が存在するものとする(図3参照)。   19A and 19B are diagrams for explaining an example of the operation of the excluded area specifying unit 35c. Here, it is assumed that the image G41 of FIG. 19-1 is an image acquired by the image acquisition unit 31 at time t3, and the image G42 of FIG. 19-2 is an image acquired by the image acquisition unit 31 at time t3 + 1. To do. In addition, it is assumed that an entrance E1 to the building exists at a position P11 in the figure, and windows W1 and W2 exist at positions P12 and P13 in the figure (see FIG. 3).

上記の条件の下、時刻t3+1において、画像エリア検知部34が画像G42の各画像エリアから画像エリアA42(黒枠部分)を検知したとする。この場合、除外エリア特定部35cは、画像G41での画像エリアの位置を空(null)とし、画像G42から画像エリアA42の位置を特定する。そして、除外エリア特定部35cは、画像G41及び画像G42から特定した画像エリアの位置を時系列に沿って比較することで、時刻t3+1に画像エリアA42が突如検知されたと判断する。   Assume that the image area detection unit 34 detects the image area A42 (black frame portion) from each image area of the image G42 at time t3 + 1 under the above conditions. In this case, the excluded area specifying unit 35c specifies the position of the image area A42 from the image G42 by setting the position of the image area in the image G41 to be null. Then, the excluded area specifying unit 35c determines that the image area A42 is suddenly detected at time t3 + 1 by comparing the positions of the image areas specified from the images G41 and G42 in time series.

上記画像G41及びG42の例の場合、例えば、時刻t3+1に、図中P12の窓W1から入射する光が変動したような状況が考えられる。この場合、画像エリア検知部34が検知した画像エリアA42は、人等の物体が存在しないため誤検知となる。そこで、除外エリア特定部35cは、撮像時間お異なる二つの画像G41、G42において、非連続的な位置に存在する、つまり突如現れた画像エリアA42を特定する。   In the case of the examples of the images G41 and G42, for example, a situation in which the light incident from the window W1 of P12 in the figure fluctuates at time t3 + 1 can be considered. In this case, the image area A42 detected by the image area detection unit 34 is erroneously detected because there is no object such as a person. Therefore, the excluded area specifying unit 35c specifies the image area A42 that exists in a discontinuous position, that is, suddenly appears in the two images G41 and G42 having different imaging times.

また、図20−1、図20−2は、除外エリア特定部35cの他の動作例を説明するための図である。ここで、図20−1の画像G51が、画像取得部31が時刻t4に取得した画像であるとし、図20−2の画像G52が、画像取得部31が時刻t4+1に取得した画像であるとする。なお、図19−1と同様、図中P11の位置にこの建物内への出入口E1が存在し、図中P12、P13の位置に窓W1、W2が存在するものとする(図3参照)。   FIGS. 20A and 20B are diagrams for explaining another operation example of the excluded area specifying unit 35c. Here, it is assumed that the image G51 of FIG. 20-1 is an image acquired by the image acquisition unit 31 at time t4, and the image G52 of FIG. 20-2 is an image acquired by the image acquisition unit 31 at time t4 + 1. To do. As in FIG. 19A, it is assumed that the entrance E1 into the building exists at the position P11 in the drawing, and the windows W1 and W2 exist at the positions P12 and P13 in the drawing (see FIG. 3).

上記の条件の下、時刻t4において、画像エリア検知部34が、画像G51に示す各画像エリアから画像エリアA51(黒枠部分)を検知し、続く時刻t4+1において、画像G52に示す各画像エリアから画像エリアA52(黒枠部分)を検知したとする。この場合、除外エリア特定部35cは、画像G51から画像エリアA51の位置を特定し、画像G52から画像エリアA52の位置を特定する。そして、除外エリア特定部35cは、画像エリアA51、A52の位置を時系列順に比較し、画像エリアA51の位置近傍に画像エリアA52が存在することから、当該位置が連続的に移動していると判定する。   Under the above conditions, at time t4, the image area detection unit 34 detects the image area A51 (black frame portion) from each image area shown in the image G51, and at time t4 + 1, the image from each image area shown in the image G52. Assume that an area A52 (black frame portion) is detected. In this case, the excluded area specifying unit 35c specifies the position of the image area A51 from the image G51 and specifies the position of the image area A52 from the image G52. And the exclusion area specific | specification part 35c compares the position of image area A51, A52 in time series order, and since the image area A52 exists in the vicinity of the position of image area A51, when the said position is moving continuously, judge.

上記画像G51及びG52の例の場合、出入口E1から室内に進入した人が、時刻t4から時刻t4+1にかけて、画像エリアA51→画像エリアA52に移動した状況が考えられる。この場合、画像エリア検知部34が検知した画像エリアA52は、人等の物体が存在するため正常な検知となる。そのため、除外エリア特定部35cは、画像エリアA51及びA52の特定を行わず、画像エリア検知部34の検知結果として残存させる。   In the case of the examples of the images G51 and G52, it can be considered that a person who has entered the room through the entrance E1 has moved from the image area A51 to the image area A52 from time t4 to time t4 + 1. In this case, the image area A52 detected by the image area detector 34 is normally detected because an object such as a person exists. For this reason, the excluded area specifying unit 35c does not specify the image areas A51 and A52, and leaves them as the detection result of the image area detecting unit 34.

このように、除外エリア特定部35cは、撮影時間の異なる複数の画像間において、画像エリア検知部34が検知した画像エリアの位置の連続性に基づき、除外対象とする画像エリアを特定する。なお、連続性の判定に係るパラメータは任意に設定することが可能であるとする。連続性の判定に係るパラメータとしては、例えば、第2特徴量とする指標、連続性の判定に用いる画像数、連続と判定する画像エリア間の距離、サンプリング間隔等の他、判定の対象とする画像エリア位置(出入口E1、窓W1の周辺等)や、判定を実行する時刻(日時)等が挙げられる。   As described above, the excluded area specifying unit 35c specifies an image area to be excluded based on the continuity of the position of the image area detected by the image area detecting unit 34 between a plurality of images having different shooting times. Note that it is possible to arbitrarily set parameters relating to the determination of continuity. Parameters relating to the determination of continuity include, for example, an index used as the second feature amount, the number of images used for determination of continuity, the distance between image areas determined to be continuous, the sampling interval, and the like. Examples include the image area position (the entrance / exit E1, the periphery of the window W1, etc.), the time (date and time) at which the determination is performed, and the like.

上記例のうち、連続と判定する画像エリア間の距離としては、例えば、格子状の画像エリアにおける4近傍や8近傍に位置する画像エリアを連続すると定義してもよいし、8近傍からさらに1画像エリア分拡大した画像エリアを連続すると定義してもよい。また、連続性の判定に用いる画像数も2に限らず、3以上の画像を用いて判定してもよい。   Among the above examples, the distance between image areas determined to be continuous may be defined as, for example, image areas located in the vicinity of 4 or 8 in the lattice-shaped image area being continuous, You may define that the image area expanded by the image area is continuous. Further, the number of images used for determination of continuity is not limited to two, and determination may be made using three or more images.

また、連続性の判定の対象とする画像エリア位置を定義した場合、建物の出入口(P11)及び窓(P12、P13)の存在位置等を設定情報として予め記憶しておき、画像エリア検知部34が検知した画像エリアが、出入口E1や窓W1、W2の付近に存在するか否かを加味して、連続性の判定を行う。例えば、出入口E1付近で画像エリアが検知された場合には、この画像エリアに対しては連続性の判定の対象から除外する形態としてもよい。   In addition, when the image area position to be subjected to the continuity determination is defined, the existence position of the entrance / exit (P11) and the windows (P12, P13) of the building is stored in advance as setting information, and the image area detection unit 34 The continuity is determined in consideration of whether the image area detected by is present in the vicinity of the entrance E1 or the windows W1 and W2. For example, when an image area is detected near the entrance E1, the image area may be excluded from the continuity determination target.

学習部37cは、上述した学習部37の機能を備えるとともに、除外エリア特定部35cでの処理結果を入力とし、連続性の判定に係るパラメータを出力とする学習を行う。   The learning unit 37c has the function of the learning unit 37 described above, and performs learning using the processing result in the excluded area specifying unit 35c as an input and a parameter related to determination of continuity as an output.

例えば、学習部37cは、連続性の判定に係る各種のパラメータセットと、各パラメータセットでの除外エリア特定部35cの処理結果(又は出力部36の処理結果)とを対応付けて記憶部14に記憶しておく。そして、学習部37cは、記憶部14に記憶されたパラメータセットと、処理結果との組に基づき、より適切な処理結果(検知結果)が得られるパラメータセットを機械学習し、そのパラメータセットを除外エリア特定部35cに反映する。なお、学習部37cでの機械学習に係る技術や手法は、公知の技術・手法を用いるものとする。   For example, the learning unit 37c associates various parameter sets related to determination of continuity with the processing results of the excluded area specifying unit 35c (or processing results of the output unit 36) in each parameter set in the storage unit 14. Remember. Then, the learning unit 37c performs machine learning on the parameter set that can obtain a more appropriate processing result (detection result) based on the combination of the parameter set stored in the storage unit 14 and the processing result, and excludes the parameter set. This is reflected in the area specifying unit 35c. It should be noted that known techniques and methods are used as techniques and methods related to machine learning in the learning unit 37c.

次に、図21を参照して、本実施形態の情報出力装置10cの動作について説明する。ここで、図21は、情報出力装置10cの情報出力処理の手順を示すフローチャートである。なお、ステップS41〜S44は、上述した第1の実施形態のステップS11〜S14と同様であるため説明を省略する。   Next, the operation of the information output apparatus 10c of this embodiment will be described with reference to FIG. Here, FIG. 21 is a flowchart showing a procedure of information output processing of the information output apparatus 10c. Note that steps S41 to S44 are the same as steps S11 to S14 of the first embodiment described above, and a description thereof will be omitted.

ステップS45において、除外エリア特定部35cは、撮影時間の異なる複数の画像の各画像エリアについて、ステップS44で検知された画像エリアの位置を時系列順に比較し、非連続的な位置に存在する画像エリアを特定する(ステップS45)。   In step S45, the excluded area specifying unit 35c compares the positions of the image areas detected in step S44 in time series for each image area of a plurality of images having different shooting times, and images present at discontinuous positions. An area is specified (step S45).

続いて、出力部36は、ステップS44で直近に検知された画像エリアから、ステップS45で特定された画像エリアを除外する(ステップS46)。そして、出力部36は、ステップS46での処理結果となる残りの画像エリアに関する情報をエビデンスとして、検知装置40に出力し(ステップS47)、ステップS41に再び戻る。   Subsequently, the output unit 36 excludes the image area specified in step S45 from the image area detected most recently in step S44 (step S46). And the output part 36 outputs the information regarding the remaining image areas which become the processing result in step S46 as evidence to the detection device 40 (step S47), and returns to step S41 again.

その結果、検知装置40では、上記情報出力装置10cにより出力されたエビデンスをエビデンス受信部51が受信し、このエビデンスに基づいて、状態判定部52が当該エビデンスを出力した情報出力装置10の管轄内に物体が存在するか否かを判定する。そして、状態提示部53が、状態判定部52での判定結果を提示する。   As a result, in the detection device 40, the evidence receiving unit 51 receives the evidence output by the information output device 10 c, and based on this evidence, the state determination unit 52 outputs the evidence within the jurisdiction of the information output device 10. It is determined whether or not an object exists. And the state presentation part 53 presents the determination result in the state determination part 52. FIG.

以上のように、第4の実施形態によれば、画像を構成する各画像エリアにおいて、画像エリア検知部34で検知された画像エリアの位置が、被写体となる室内(空間)の環境に応じて定めた連続性の判定条件に該当せず、非連続な位置となった場合に、その画像エリアを特定し、画像エリア検知部34の検知結果から除外する。これにより、例えば、窓から入射する光や、窓に取り付けられたカーテンの揺れ等を要因とする誤検知を低減することができるため、検知精度を向上させることができる。   As described above, according to the fourth embodiment, in each image area constituting the image, the position of the image area detected by the image area detection unit 34 depends on the environment of the room (space) that is the subject. When the discontinuous position is not met, the image area is specified and excluded from the detection result of the image area detection unit 34. Thereby, for example, it is possible to reduce erroneous detection caused by light incident from the window, shaking of a curtain attached to the window, and the like, and thus detection accuracy can be improved.

以上、本発明の実施形態を説明したが、上記実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。上記実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、組み合わせ、追加等を行うことができる。また、上記実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although embodiment of this invention was described, the said embodiment was shown as an example and is not intending limiting the range of invention. The above embodiment can be implemented in various other forms, and various omissions, replacements, changes, combinations, additions, and the like can be made without departing from the scope of the invention. Moreover, the said embodiment and its deformation | transformation are included in the range of the invention, the summary, and the invention described in the claim, and its equal range.

例えば、上記実施形態では、情報出力装置10(10a、10b、10c)が天井21に取り付けられた形態を説明したが、これに限らず、壁等の他の位置に設置する形態としてもよい。   For example, in the embodiment described above, the information output device 10 (10a, 10b, 10c) has been described as being attached to the ceiling 21.

また、上記実施形態では、情報出力装置10(10a、10b、10c)が撮像部16を内蔵する形態としたが、これに限らず、撮像部16を外付けとする形態としてもよい。この場合、撮像部16のみを天井21に取り付け、他の要素を例えば検知装置40等の情報処理装置で実現する形態としてもよい。   Moreover, in the said embodiment, although the information output device 10 (10a, 10b, 10c) was set as the form which incorporated the imaging part 16, it is good also as a form which attaches the imaging part 16 not only to this. In this case, only the imaging unit 16 may be attached to the ceiling 21 and other elements may be realized by an information processing device such as the detection device 40, for example.

また、上記実施形態では、検知対象の空間を室内20等の閉空間としたが、これに限らず、例えば公園や路上等の開空間としてもよい。   In the above embodiment, the detection target space is a closed space such as the room 20. However, the present invention is not limited thereto, and may be an open space such as a park or a road.

また、上記実施形態では、情報出力装置10(10a、10b、10c)にて、画像エリアの特定に係るパラメータを学習する形態としたが、これに限らず、検知装置40等の外部装置が学習部37(37a、37b、37c)の機能を備え、学習により得られたパラメータを情報出力装置10(10a、10b、10c)に反映する形態としてもよい。   In the above embodiment, the information output device 10 (10a, 10b, 10c) is configured to learn parameters related to image area specification. However, the present invention is not limited to this, and an external device such as the detection device 40 learns. The function of the unit 37 (37a, 37b, 37c) may be provided, and the parameters obtained by learning may be reflected in the information output device 10 (10a, 10b, 10c).

また、上記実施形態の情報出力装置10(10a、10b、10c)で実行されるプログラムは、各装置が備える記憶媒体(ROM12又は記憶部14)に予め組み込んで提供するものとするが、これに限らず、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。さらに、記憶媒体は、コンピュータ或いは組み込みシステムと独立した媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記憶又は一時記憶した記憶媒体も含まれる。   In addition, the program executed by the information output device 10 (10a, 10b, 10c) of the above embodiment is provided by being incorporated in advance in a storage medium (ROM 12 or storage unit 14) included in each device. The file is not limited to an installable or executable format, and is provided by being recorded on a computer-readable recording medium such as a CD-ROM, a flexible disk (FD), a CD-R, or a DVD (Digital Versatile Disk). You may comprise as follows. Furthermore, the storage medium is not limited to a medium independent of a computer or an embedded system, but also includes a storage medium in which a program transmitted via a LAN, the Internet, or the like is downloaded and stored or temporarily stored.

また、上記実施形態の情報出力装置10(10a、10b、10c)で実行されるプログラムをインターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよく、インターネット等のネットワーク経由で提供又は配布するように構成してもよい。   Further, the program executed by the information output apparatus 10 (10a, 10b, 10c) of the above embodiment is stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. Alternatively, it may be configured to be provided or distributed via a network such as the Internet.

10、10a、10b、10c 物体検知装置
11 CPU
12 ROM
13 RAM
14、14a 記憶部
141 除外設定情報
142 無効設定情報
15 通信部
16 撮像部
31 画像取得部
32 画像エリア分割部
33 特徴量算出部
34 画像エリア検知部
35、35a、35b、35c 除外エリア特定部
36 出力部
37、37a、37b、37c 学習部
38 計時部
40 検知装置
41 CPU
42 ROM
43 RAM
44 記憶部
45 操作部
46 表示部
47 通信部
51 エビデンス受信部
52 状態判定部
53 状態提示部
10, 10a, 10b, 10c Object detection device 11 CPU
12 ROM
13 RAM
14, 14a Storage unit 141 Exclusion setting information 142 Invalid setting information 15 Communication unit 16 Imaging unit 31 Image acquisition unit 32 Image area division unit 33 Feature amount calculation unit 34 Image area detection unit 35, 35a, 35b, 35c Exclusion area specification unit 36 Output unit 37, 37a, 37b, 37c Learning unit 38 Timekeeping unit 40 Detection device 41 CPU
42 ROM
43 RAM
44 storage unit 45 operation unit 46 display unit 47 communication unit 51 evidence reception unit 52 state determination unit 53 state presentation unit

Claims (11)

被写体を撮影した画像に関する情報を出力する情報出力装置であって、
前記画像を複数の画像エリアに分割する分割手段と、
撮影時間の異なる複数の前記画像から当該画像間の差分となる特徴量を前記画像エリア毎に算出する特徴量算出手段と、
前記特徴量算出手段で算出された各画像エリアの特徴量に基づいて、前記特徴量に変化のある画像エリアを検知する検知手段と、
前記複数の画像エリアから、情報出力の除外対象とする画像エリアを除外エリアとして特定する特定手段と、
前記検知手段が検知した画像エリアから前記特定手段が特定した除外エリアを除いた画像エリアに関する情報を出力する出力手段と、
を備え、
前記特定手段は、除外設定情報により除外する時、時刻又は時間に関連付けられた、前記除外対象とする画像エリアを前記除外エリアとして特定する情報出力装置。
An information output device that outputs information about an image of a subject,
Dividing means for dividing the image into a plurality of image areas;
Feature amount calculating means for calculating, for each image area, a feature amount that is a difference between the images from a plurality of images having different shooting times;
Detecting means for detecting an image area having a change in the feature amount based on the feature amount of each image area calculated by the feature amount calculating unit;
A specifying means for specifying an image area to be excluded from information output as an excluded area from the plurality of image areas;
Output means for outputting information on an image area obtained by removing the exclusion area specified by the specifying means from the image area detected by the detecting means;
With
The information output device that specifies the image area to be excluded, which is associated with time or time , as the exclusion area when the identification means is excluded by the exclusion setting information .
前記特定手段は、前記画像エリアの特徴量が、所定の閾値を逸脱する画像エリアを前記除外エリアとして特定する請求項1に記載の情報出力装置。   The information output apparatus according to claim 1, wherein the specifying unit specifies an image area in which a feature amount of the image area deviates from a predetermined threshold as the exclusion area. 前記特定手段は、前記検知手段で検知された画像エリアの位置の軌跡が、非連続的となる画像エリアを前記除外エリアとして特定する請求項1又は2に記載の情報出力装置。   The information output apparatus according to claim 1, wherein the specifying unit specifies an image area in which a locus of the position of the image area detected by the detecting unit is discontinuous as the exclusion area. 前記特定手段は、1又は複数の画像エリアを処理単位とし、当該処理単位毎に前記除外エリアの特定を行う請求項1〜3の何れか一項に記載の情報出力装置。   The information output device according to any one of claims 1 to 3, wherein the specifying unit uses one or a plurality of image areas as a processing unit and specifies the exclusion area for each processing unit. 前記処理単位毎に、有効/無効を規定した設定情報を記憶する記憶手段を更に備え、
前記特定手段は、前記設定情報で有効と規定された処理単位に対し、前記除外エリアの特定を行う請求項4に記載の情報出力装置。
Storage means for storing setting information defining validity / invalidity for each processing unit;
The information output device according to claim 4, wherein the specifying unit specifies the exclusion area for a processing unit defined as valid in the setting information.
前記特定手段での処理結果を入力とし、当該特定手段による前記除外エリアの特定に係るパラメータを出力とする学習を行う学習手段を更に備える請求項1〜3の何れか一項に記載の情報出力装置。   The information output according to any one of claims 1 to 3, further comprising learning means for performing learning using, as an input, a processing result of the specifying means and outputting a parameter relating to the specification of the exclusion area by the specifying means. apparatus. 被写体を撮影した画像を複数の画像エリアに分割する分割手段と、
撮影時間の異なる複数の前記画像から当該画像間の差分となる特徴量を前記画像エリア毎に算出する特徴量算出手段と、
前記特徴量算出手段で算出された各画像エリアの特徴量に基づいて、前記特徴量に変化のある画像エリアを検知する検知手段と、
前記複数の画像エリアから、物体検知の除外対象とする画像エリアを除外エリアとして特定する特定手段と、
前記検知手段が検知した画像エリアから前記特定手段が特定した除外エリアを除いた画像エリアに関する情報を出力する出力手段と、
前記出力手段が出力した情報に基づいて、前記被写体となった撮像範囲に物体が存在するか否かを判定する判定手段と、
を備え、
前記特定手段は、除外設定情報により除外する時、時刻又は時間に関連付けられた、前記除外対象とする画像エリアを前記除外エリアとして特定する検知装置。
A dividing unit that divides an image of a subject into a plurality of image areas;
Feature amount calculating means for calculating, for each image area, a feature amount that is a difference between the images from a plurality of images having different shooting times;
Detecting means for detecting an image area having a change in the feature amount based on the feature amount of each image area calculated by the feature amount calculating unit;
A specifying means for specifying an image area to be excluded from object detection as an excluded area from the plurality of image areas;
Output means for outputting information on an image area obtained by removing the exclusion area specified by the specifying means from the image area detected by the detecting means;
Determination means for determining whether an object exists in the imaging range that is the subject based on the information output by the output means;
With
The detection unit is a detection device that specifies an image area to be excluded, which is associated with time or time , as the excluded area when excluded by the exclusion setting information .
被写体を撮影した画像に関する情報を出力する情報出力装置のコンピュータを、
前記画像を複数の画像エリアに分割する分割手段と、
撮影時間の異なる複数の前記画像から当該画像間の差分となる特徴量を前記画像エリア毎に算出する特徴量算出手段と、
前記特徴量算出手段で算出された各画像エリアの特徴量に基づいて、前記特徴量に変化のある画像エリアを検知する検知手段と、
前記複数の画像エリアから、情報出力の除外対象とする画像エリアを除外エリアとして特定する特定手段と、
前記検知手段が検知した画像エリアから前記特定手段が特定した除外エリアを除いた画像エリアに関する情報を出力する出力手段と、
して機能させ、
前記特定手段は、除外設定情報により除外する時、時刻又は時間に関連付けられた、前記除外対象とする画像エリアを前記除外エリアとして特定するプログラム。
A computer of an information output device that outputs information about an image obtained by photographing a subject,
Dividing means for dividing the image into a plurality of image areas;
Feature amount calculating means for calculating, for each image area, a feature amount that is a difference between the images from a plurality of images having different shooting times;
Detecting means for detecting an image area having a change in the feature amount based on the feature amount of each image area calculated by the feature amount calculating unit;
A specifying means for specifying an image area to be excluded from information output as an excluded area from the plurality of image areas;
Output means for outputting information on an image area obtained by removing the exclusion area specified by the specifying means from the image area detected by the detecting means;
To function,
The specifying unit is a program for specifying, as the excluded area , an image area to be excluded, which is associated with time or time when excluded by exclusion setting information .
前記特定手段は、1又は複数の画像エリアを処理単位とし、当該処理単位毎に前記除外エリアの特定を行う請求項8に記載のプログラム。   The program according to claim 8, wherein the specifying unit specifies one or a plurality of image areas as a processing unit and specifies the exclusion area for each processing unit. 被写体を撮影した画像に関する情報を出力する情報出力装置で実行される方法であって、
分割手段が、前記画像を複数の画像エリアに分割する分割工程と、
特徴量算出手段が、撮影時間の異なる複数の前記画像から当該画像間の差分となる特徴量を前記画像エリア毎に算出する特徴量算出工程と、
検知手段が、特徴量算出手段で算出された各画像エリアの特徴量に基づいて、前記特徴量に変化のある画像エリアを検知する検知工程と、
特定手段が、前記複数の画像エリアから、情報出力の除外対象とする画像エリアを除外エリアとして特定する特定工程と、
出力手段が、前記検知手段が検知した画像エリアから前記特定手段が特定した除外エリアを除いた画像エリアに関する情報を出力する出力工程と、
を含み、
前記特定手段は、除外設定情報により除外する時、時刻又は時間に関連付けられた、前記除外対象とする画像エリアを前記除外エリアとして特定する情報出力方法。
A method executed by an information output device that outputs information about an image obtained by photographing a subject,
A dividing step of dividing the image into a plurality of image areas;
A feature amount calculating step for calculating, for each image area, a feature amount that is a difference between the images from a plurality of images having different shooting times;
A detecting step for detecting an image area having a change in the feature amount based on the feature amount of each image area calculated by the feature amount calculating unit;
A specifying step of specifying, from the plurality of image areas, an image area to be excluded from information output as an excluded area;
An output step for outputting information relating to an image area obtained by removing the exclusion area specified by the specifying unit from the image area detected by the detecting unit;
Including
The information output method for specifying the image area to be excluded, which is associated with time or time , as the exclusion area when the identification means is excluded by the exclusion setting information .
前記特定手段は、1又は複数の画像エリアを処理単位とし、当該処理単位毎に前記除外エリアの特定を行う請求項10に記載の情報出力方法。   The information output method according to claim 10, wherein the specifying unit specifies one or a plurality of image areas as a processing unit and specifies the exclusion area for each processing unit.
JP2015051219A 2015-03-13 2015-03-13 Information output device, detection device, program, and information output method Active JP6058720B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015051219A JP6058720B2 (en) 2015-03-13 2015-03-13 Information output device, detection device, program, and information output method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015051219A JP6058720B2 (en) 2015-03-13 2015-03-13 Information output device, detection device, program, and information output method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011240541A Division JP5971678B2 (en) 2011-11-01 2011-11-01 Information output device, detection device, program, and information output method

Publications (2)

Publication Number Publication Date
JP2015130698A JP2015130698A (en) 2015-07-16
JP6058720B2 true JP6058720B2 (en) 2017-01-11

Family

ID=53761077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015051219A Active JP6058720B2 (en) 2015-03-13 2015-03-13 Information output device, detection device, program, and information output method

Country Status (1)

Country Link
JP (1) JP6058720B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016207712A1 (en) 2016-05-04 2017-11-09 Robert Bosch Gmbh Detection device, method for detecting an event and computer program
JP6716741B1 (en) * 2019-03-20 2020-07-01 東芝エレベータ株式会社 Elevator user detection system
US20230011866A1 (en) * 2019-12-09 2023-01-12 Dmg Mori Co., Ltd. Information processing device, machine tool, and information processing system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3123587B2 (en) * 1994-03-09 2001-01-15 日本電信電話株式会社 Moving object region extraction method using background subtraction
JP3506934B2 (en) * 1998-12-11 2004-03-15 株式会社メガチップス Monitoring device and monitoring system
JP4100934B2 (en) * 2002-02-28 2008-06-11 シャープ株式会社 Composite camera system, zoom camera control method, and zoom camera control program
JP2003324726A (en) * 2002-05-07 2003-11-14 Itochu Corp Object detecting apparatus using supervisory camera
JP2004236087A (en) * 2003-01-31 2004-08-19 Funai Electric Co Ltd Monitoring camera system

Also Published As

Publication number Publication date
JP2015130698A (en) 2015-07-16

Similar Documents

Publication Publication Date Title
US11501535B2 (en) Image processing apparatus, image processing method, and storage medium for reducing a visibility of a specific image region
US9191633B2 (en) Tracking assistance device, tracking assistance system and tracking assistance method
JP4811653B2 (en) Object detection device
US9875408B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
CN104700430A (en) Method for detecting movement of airborne displays
US9456146B2 (en) Exposure control device, imaging device, image display device, and exposure control method
US11048947B2 (en) Video monitoring apparatus, method of controlling the same, computer-readable storage medium, and video monitoring system
CN110458826B (en) Ambient brightness detection method and device
JP5060264B2 (en) Human detection device
JP5259291B2 (en) White balance correction device and signal processing program
JP6058720B2 (en) Information output device, detection device, program, and information output method
JP6924064B2 (en) Image processing device and its control method, and image pickup device
JP2009017026A (en) Coordinate conversion method, parameter-adjusting method and monitoring system
JP7446060B2 (en) Information processing device, program and information processing method
JP5971678B2 (en) Information output device, detection device, program, and information output method
KR20190026625A (en) Image displaying method, Computer program and Recording medium storing computer program for the same
JP5142416B2 (en) Object detection device
KR20180112335A (en) Method for defoging and Defog system
CN108063933B (en) Image processing method and device, computer readable storage medium and computer device
JP2015233202A (en) Image processing apparatus, image processing method, and program
WO2019061713A1 (en) Robot-based method and system for processing display of target image
CN114731360A (en) System for performing image motion compensation
JP6752317B2 (en) Storage medium for storing image processing devices and methods, and instructions
KR100558383B1 (en) Method for detecting a motion block and method for tracking a moving object based on the method for detecting motion block
CN110298223A (en) The storage medium of image processing apparatus and method and store instruction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150410

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160524

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161207

R151 Written notification of patent or utility model registration

Ref document number: 6058720

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151