JP2009302659A - Monitoring system - Google Patents

Monitoring system Download PDF

Info

Publication number
JP2009302659A
JP2009302659A JP2008151882A JP2008151882A JP2009302659A JP 2009302659 A JP2009302659 A JP 2009302659A JP 2008151882 A JP2008151882 A JP 2008151882A JP 2008151882 A JP2008151882 A JP 2008151882A JP 2009302659 A JP2009302659 A JP 2009302659A
Authority
JP
Japan
Prior art keywords
image
captured
unit
selection
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008151882A
Other languages
Japanese (ja)
Inventor
Tadahiro Arakawa
忠洋 荒川
Hiroshi Matsuda
啓史 松田
Toshiharu Takenouchi
利春 竹ノ内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Panasonic Electric Works Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Electric Works Co Ltd filed Critical Panasonic Electric Works Co Ltd
Priority to JP2008151882A priority Critical patent/JP2009302659A/en
Publication of JP2009302659A publication Critical patent/JP2009302659A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a monitoring system capable of reducing time and effort required for validation works of a photographed image group transmitted from an image device to the monitoring system and capable of shortening the processing time at the image device. <P>SOLUTION: The monitoring system includes an image device 1 and a master unit 2. The image device 1 includes a subject detection means 13a for carrying out image processing for a photographed image from an image pick-up portion 10 and detecting a subject, an image data processor 11 and a transmission portion 14 for transmitting a photographed image group to the master unit 2 at the time of detecting the subject, and a feature image selecting means 13b for selecting a feature image from the photographed image group. The master unit 2 includes an image display portion 21 and image processing portion 22. The image processing portion 22 displays an image to be selected on image display portion 21, for selecting of the photographed image group to be displayed on the image display portion 21 from a plurality of transmitted photographed image groups. As for the image to be selected, a feature image is used as an image for displaying the photographed image group. The feature image selecting means 13b selects the feature image using the result of the image processing performed by the subject detection means 13a. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像処理を利用した監視システムに関するものである。   The present invention relates to a monitoring system using image processing.

近年、防犯意識の向上により、訪問者(外来者)の顔を確認できる機能や不在時の訪問者の顔を録画できる機能などの利便性が評価され、インターホンシステム(住宅用インターホンシステム、ドアホンシステム)が普及してきている。このようなインターホンシステムとしては、人体を検出して報知することで住宅周辺の警戒を行い、住宅への侵入を未然に防止するための撮像装置を組み込んだものが提案されている(例えば、特許文献1参照)。このようなインターホンシステムは、セキュリティインターホンシステムとも呼ばれている。   In recent years, with the improvement of crime prevention awareness, convenience such as the ability to check the visitor's (foreigner's) face and the ability to record the visitor's face when absent is evaluated. ) Has become widespread. As such an intercom system, there has been proposed a system incorporating an imaging device for detecting and alerting the human body to alert the surroundings of the house and to prevent intrusion into the house (for example, a patent) Reference 1). Such an intercom system is also called a security intercom system.

特許文献1に示すものは、撮像部を有する撮像装置(カメラ装置)と、画像表示部を有する監視装置(モニタ装置)とを備える。撮像装置は、撮像部で撮像された撮像画像を画像処理することにより撮像部の撮像範囲内に人が存在するか否かを判定する画像処理型の人体検出手段を備える。当該人体検出手段で人を検出した場合、撮像装置は、撮像部で撮像された撮像画像群を監視装置に伝送する。一方、監視装置は、撮像装置から伝送された撮像画像群を録画する。監視装置で録画された撮像画像群は、監視装置に具備された再生部により画像表示部に表示させることができ、これによって、使用者の目で本当に侵入者がいたのか否かの確認作業を行うことができる。
特開2007−194863号公報
The device disclosed in Patent Document 1 includes an imaging device (camera device) having an imaging unit and a monitoring device (monitor device) having an image display unit. The imaging apparatus includes image processing type human body detection means that performs image processing on a captured image captured by the imaging unit to determine whether or not a person exists within the imaging range of the imaging unit. When a person is detected by the human body detection unit, the imaging device transmits a captured image group captured by the imaging unit to the monitoring device. On the other hand, the monitoring device records the captured image group transmitted from the imaging device. The group of captured images recorded by the monitoring device can be displayed on the image display unit by the playback unit provided in the monitoring device, thereby confirming whether or not an intruder really exists with the eyes of the user. It can be carried out.
JP 2007-194863 A

ところで、上記特許文献1に示すものでは、人体検出手段で人が検出される度に、撮像装置から監視装置に撮像画像群が伝送される。そのため、人が検出される回数が増えれば、監視装置の録画部で録画される撮像画像群の数(録画件数)も増加する。しかし、特許文献1に示すものでは、撮像画像群の確認作業を行うためには、撮像画像群を逐一再生部で再生して実際に画像表示部に表示させなければならない。したがって、上記特許文献1に示すものでは、撮像画像群の録画件数が増えれば増えるほど、その確認作業に多大な時間および労力がかかってしまうという問題があった。   By the way, in what is shown in the said patent document 1, whenever a person is detected by a human body detection means, a captured image group is transmitted from an imaging device to a monitoring device. Therefore, if the number of times a person is detected increases, the number of captured image groups (number of recorded images) recorded by the recording unit of the monitoring apparatus also increases. However, in the technique disclosed in Patent Document 1, in order to perform a confirmation operation of a captured image group, the captured image group must be reproduced one by one by a reproduction unit and actually displayed on the image display unit. Therefore, in the above-mentioned Patent Document 1, there is a problem that as the number of recorded images in the captured image group increases, much time and labor are required for the confirmation work.

本発明は上述の点に鑑みて為されたもので、その目的は、撮像装置より監視装置に伝送された撮像画像群の確認作業にかかる時間および労力を低減することができ、しかも撮像装置における処理時間の短縮化を図ることができる監視システムを提供することにある。   The present invention has been made in view of the above points, and the object thereof is to reduce the time and labor required for checking the captured image group transmitted from the imaging apparatus to the monitoring apparatus, and in the imaging apparatus. An object of the present invention is to provide a monitoring system capable of shortening the processing time.

上記の課題を解決するために、請求項1の発明では、所定領域を撮像する撮像部を備える1乃至複数の撮像装置と、画像表示部を備える監視装置とを有し、撮像装置は、撮像部で撮像された撮像画像に対して画像処理を行うことで対象物の検出を行う対象物検出手段と、対象物検出手段の検出結果を利用して上記所定領域に対象物が存在するか否かを判定する存否判定手段と、存否判定手段により対象物が存在すると判定されると対象物の検出時刻を含む所定時間内に撮像部で撮像された撮像画像群を監視装置に伝送する画像伝送手段と、画像伝送手段より監視装置に伝送される撮像画像群のなかから当該撮像画像群の特徴が表れている特徴画像を選択する特徴画像選択手段とを備え、監視装置は、画像伝送手段より伝送された撮像画像群が記憶される画像記憶手段と、画像記憶手段に記憶された撮像画像群に含まれる撮像画像を時系列順に画像表示部に表示させる第1の表示手段と、画像記憶手段に記憶された複数の撮像画像群のなかから第1の表示手段により画像表示部に表示させる撮像画像群を選択する際に使用される選択用画像を作成して画像表示部に表示させる第2の表示手段とを備え、第2の表示手段は、選択用画像を作成するにあたっては、撮像画像群を表示する画像として当該撮像画像群に対応する特徴画像を用い、特徴画像選択手段は、対象物検出手段で実行される画像処理の結果を利用して特徴画像を選択することを特徴とする。   In order to solve the above-described problem, the invention of claim 1 includes one or more imaging devices including an imaging unit that images a predetermined region, and a monitoring device including an image display unit. An object detection unit that detects an object by performing image processing on a captured image captured by the unit, and whether or not the object exists in the predetermined region using a detection result of the object detection unit Presence / absence determination means for determining whether or not the object is present by the presence / absence determination means, and image transmission for transmitting the captured image group captured by the imaging unit within a predetermined time including the detection time of the object to the monitoring device And a feature image selection means for selecting a feature image in which the feature of the captured image group appears from the captured image group transmitted from the image transmission means to the monitoring device. The transmitted captured image group is A stored image storage unit, a first display unit for displaying captured images included in the captured image group stored in the image storage unit on the image display unit in time series, and a plurality of imaging units stored in the image storage unit A second display unit that generates a selection image used when selecting a captured image group to be displayed on the image display unit by the first display unit from the image group, and displays the selection image on the image display unit; In creating the selection image, the second display unit uses a feature image corresponding to the captured image group as an image for displaying the captured image group, and the feature image selection unit is executed by the object detection unit. A feature image is selected by using a result of image processing.

請求項1の発明によれば、第1の表示手段により画像表示部に表示する撮像画像群を選択する際に使用される選択用画像においては、撮像画像群を表示する画像として、当該撮像画像群のなかから撮像画像群の特徴が表れている撮像画像として選択された特徴画像が用いられるので、特徴画像を見ることによって、当該特徴画像に対応する撮像画像群の内容をおおまかに知ることができるから、撮像画像群を逐一第1の表示手段により画像表示部に表示させてその内容を確認する必要がなくなって、撮像画像群の確認作業にかかる時間および労力を低減することができ、しかも、特徴画像選択手段では、対象物検出手段で行う画像処理の結果を利用して特徴画像の選択を行うので、特徴画像を選択する処理にかかる負荷を低減することができるから、撮像装置における処理時間の短縮化を図ることができる。   According to the first aspect of the present invention, in the selection image used when selecting the captured image group to be displayed on the image display unit by the first display means, the captured image is displayed as an image for displaying the captured image group. Since the feature image selected as the captured image in which the feature of the captured image group appears from the group is used, it is possible to roughly know the content of the captured image group corresponding to the feature image by viewing the feature image Therefore, it is not necessary to display the captured image group on the image display unit by the first display means one by one, and it is not necessary to confirm the contents, and it is possible to reduce the time and labor required for confirming the captured image group. The feature image selection means selects the feature image using the result of the image processing performed by the object detection means, so the load on the process of selecting the feature image can be reduced. From, it is possible to shorten the processing time in the image pickup apparatus.

請求項2の発明では、請求項1の発明において、上記対象物は移動体であって、上記対象物検出手段は、上記画像処理として、少なくとも、上記撮像部で撮像された撮像画像から移動体を検出する移動体検出処理と、当該移動体検出処理により検出された移動体の特徴量を演算する特徴量演算処理と、当該特徴量演算処理により演算された特徴量を利用して移動体が対象物か否かを判定する対象物判定処理とを実行し、上記特徴画像選択手段は、上記特徴量演算処理により演算された特徴量から特徴画像選択用の評価値を演算する評価値演算処理と、評価値演算処理で演算された評価値に基づいて上記特徴画像を選択する選択処理とを実行することを特徴とする。   According to a second aspect of the present invention, in the first aspect of the present invention, the object is a moving object, and the object detecting means is a moving object based on at least a captured image captured by the imaging unit as the image processing. A moving object detecting process for detecting the moving object, a feature value calculating process for calculating a feature value of the moving object detected by the moving object detecting process, and a feature value calculated by the feature value calculating process. An object value determination process for determining whether or not the object is an object, and the feature image selection unit calculates an evaluation value for selecting a feature image from the feature value calculated by the feature value calculation process. And a selection process for selecting the feature image based on the evaluation value calculated in the evaluation value calculation process.

請求項2の発明によれば、対象物の検出に利用する特徴量を特徴画像の選択に利用しているから、撮像装置における処理時間の短縮化を図ることができる。   According to the second aspect of the present invention, since the feature quantity used for detecting the object is used for selecting the feature image, the processing time in the imaging apparatus can be shortened.

請求項3の発明では、請求項1または2の発明において、上記選択用画像は、上記特徴画像を縮小してなるサムネイル画像を所定の順序で並べてなる画像であることを特徴とする。   According to a third aspect of the present invention, in the first or second aspect of the invention, the selection image is an image formed by arranging thumbnail images obtained by reducing the characteristic images in a predetermined order.

請求項3の発明によれば、選択用画像において複数の撮像画像群のサムネイル画像を見ることができるから、撮像画像群の確認作業にかかる時間および労力をさらに低減することができる。   According to the invention of claim 3, since it is possible to see thumbnail images of a plurality of captured image groups in the selection image, it is possible to further reduce the time and labor required for checking the captured image group.

請求項4の発明では、請求項3の発明において、上記所定の順序は、上記監視装置において上記撮像画像群を受け取った日時が新しい順であることを特徴とする。   According to a fourth aspect of the present invention, in the third aspect of the present invention, the predetermined order is characterized in that the date and time when the captured image group is received by the monitoring apparatus is the newest order.

請求項4の発明によれば、サムネイル画像の順序によって、監視装置において撮像画像群を受け取った順番を把握することができ、撮像画像群が新しいか古いかが一目で分かるから、撮像画像群の確認作業にかかる時間および労力をさらに低減することができる。   According to the fourth aspect of the present invention, the order in which the captured image group is received in the monitoring device can be grasped by the order of the thumbnail images, and whether the captured image group is new or old can be seen at a glance. The time and labor required for work can be further reduced.

請求項5の発明では、請求項3または4の発明において、上記撮像装置を複数備え、上記第2の表示手段は、上記選択用画像を作成するにあたっては、上記画像記憶手段に記憶された複数の撮像画像群のうち所定の上記撮像装置で撮像された撮像画像群のみを用いることを特徴とする。   According to a fifth aspect of the present invention, in the third or fourth aspect of the present invention, a plurality of the imaging devices are provided, and the second display means stores a plurality of images stored in the image storage means when creating the selection image. Of these captured image groups, only the captured image group captured by the predetermined imaging device is used.

請求項5の発明によれば、撮像装置別に選択用画像を表示することができるから、撮像画像群の確認作業にかかる時間および労力をさらに低減することができる。   According to the fifth aspect of the present invention, since the selection image can be displayed for each imaging device, it is possible to further reduce the time and labor required for confirming the captured image group.

請求項6の発明では、請求項3または4の発明において、上記第2の表示手段は、上記選択用画像を作成するにあたっては、上記画像記憶手段に記憶された複数の撮像画像群のうち所定の時間帯に上記監視装置が受け取った撮像画像群のみを用いることを特徴とする。   In the invention of claim 6, in the invention of claim 3 or 4, when the second display means creates the selection image, the second display means is a predetermined one of a plurality of captured image groups stored in the image storage means. Only the captured image group received by the monitoring device during the time period is used.

請求項6の発明によれば、監視装置が撮像装置から撮像画像群を受け取った時間帯別に選択用画像を表示することができるから、撮像画像群の確認作業にかかる時間および労力をさらに低減することができる。   According to the sixth aspect of the present invention, since the monitoring device can display the selection image for each time zone when the captured image group is received from the imaging device, the time and labor required for the confirmation operation of the captured image group are further reduced. be able to.

請求項7の発明では、請求項3または4の発明において、上記撮像装置を複数備え、上記第2の表示手段は、上記選択用画像を作成するにあたっては、上記画像記憶手段に記憶された複数の撮像画像群のうち所定の上記撮像装置で撮像された撮像画像群よりなる第1の撮像画像群と、上記画像記憶手段に記憶された複数の撮像画像群のうち所定の時間帯に上記監視装置が受け取った撮像画像群よりなる第2の撮像画像群とのいずれか一方を用い、上記監視装置は、上記第2の表示手段において第1の撮像画像群と第2の撮像画像群とのいずれを用いるかの選択に使用される選択入力手段を備えていることを特徴とする。   According to a seventh aspect of the present invention, in the third or fourth aspect of the present invention, a plurality of the imaging devices are provided, and the second display means stores a plurality of images stored in the image storage means when creating the selection image. A first picked-up image group made up of picked-up images picked up by a predetermined image pick-up device and a plurality of picked-up image groups stored in the image storage means in a predetermined time zone. Either one of the second captured image group consisting of the captured image group received by the apparatus is used, and the monitoring device uses the second display unit to obtain the first captured image group and the second captured image group. Selection input means used for selecting which one to use is provided.

請求項7の発明によれば、撮像装置別、もしくは監視装置が撮像装置から撮像画像群を受け取った時間帯別に選択用画像を表示することができる上に、撮像装置別とするか監視装置が撮像装置から撮像画像群を受け取った時間帯別とするかを選択することができるから、撮像画像群の確認作業にかかる時間および労力をさらに低減することができる。   According to the seventh aspect of the present invention, the selection image can be displayed for each imaging device or for each time zone when the monitoring device receives the captured image group from the imaging device. Since it is possible to select whether to collect the captured image group from the imaging device according to the time period, it is possible to further reduce the time and labor required for confirming the captured image group.

請求項8の発明では、請求項3〜7のうちいずれか1項の発明において、上記第2の表示手段は、上記サムネイル画像とともに当該サムネイル画像の関連情報を表示することを特徴とする。   According to an eighth aspect of the invention, in the invention according to any one of the third to seventh aspects, the second display means displays related information of the thumbnail image together with the thumbnail image.

請求項8の発明によれば、選択用画像を見ることによって、サムネイル画像と当該サムネイル画像の関連情報を見ることができるから、撮像画像群の確認作業にかかる時間および労力をさらに低減することができる。   According to the eighth aspect of the present invention, since the thumbnail image and the related information of the thumbnail image can be viewed by viewing the selection image, the time and labor required for checking the captured image group can be further reduced. it can.

請求項9の発明では、請求項3〜8のうちいずれか1項の発明において、上記監視装置は、上記サムネイル画像のサイズの入力に使用されるサイズ入力手段を備え、上記第2の表示手段は、サイズ入力手段で入力されたサイズに応じて上記選択用画像に使用する上記サムネイル画像のサイズを変更するサイズ変更処理と、サイズ入力手段で入力されたサイズに応じて上記画像表示部に一度に表示させる上記サムネイル画像の数を変更する表示数変更処理とを実行することを特徴とする。   According to a ninth aspect of the present invention, in the invention according to any one of the third to eighth aspects, the monitoring device includes size input means used for inputting a size of the thumbnail image, and the second display means. The size change processing for changing the size of the thumbnail image used for the selection image according to the size input by the size input means, and once on the image display section according to the size input by the size input means And a display number changing process for changing the number of thumbnail images to be displayed.

請求項9の発明によれば、サムネイル画像の見易さと一度に確認できるサムネイル画像の数とのバランスを使用者の好みに応じて変更することができるから、使い勝手が向上し、また、撮像画像群の確認作業にかかる時間および労力をさらに低減することができる。   According to the invention of claim 9, since the balance between the visibility of thumbnail images and the number of thumbnail images that can be confirmed at a time can be changed according to the user's preference, the usability is improved and the captured image is also improved. The time and labor required for the group confirmation work can be further reduced.

請求項10の発明では、請求項1〜9のうちいずれか1項の発明において、上記特徴画像選択手段は、上記撮像画像群の一部から上記特徴画像を選択することを特徴とする。   According to a tenth aspect of the present invention, in the invention according to any one of the first to ninth aspects, the feature image selecting means selects the feature image from a part of the captured image group.

請求項10の発明によれば、特徴画像を選択する処理にかかる負荷をさらに低減することができるから、撮像装置における処理時間のさらなる短縮化を図ることができる。   According to the tenth aspect of the present invention, it is possible to further reduce the load required for the process of selecting the feature image, so that it is possible to further shorten the processing time in the imaging apparatus.

本発明は、選択用画像を見るだけで、撮像画像群の内容をおおまかに知ることができるから、撮像画像群の確認作業にかかる時間および労力を低減することができ、しかも、特徴画像を選択する処理にかかる負荷を低減することができるから、撮像装置における処理時間の短縮化を図ることができるという効果を奏する。   Since the present invention can roughly know the contents of the captured image group simply by looking at the selection image, it can reduce the time and labor required for confirming the captured image group, and the feature image can be selected. Since the load on the processing to be performed can be reduced, the processing time in the imaging device can be shortened.

以下、本発明の監視システムを、セキュリティインターホンシステム(以下、インターホンシステムと略す)に適用した実施形態に基づいて説明する。   Hereinafter, the monitoring system of the present invention will be described based on an embodiment applied to a security intercom system (hereinafter abbreviated as an intercom system).

本実施形態のインターホンシステムは、図2に示すように、住宅Hの軒先に設置される2つの撮像装置1(以下、必要に応じて1A,1Bで区別する)と、住宅H内(屋内)に設置され撮像装置1とともに監視システムを構成する監視装置としての機能を有する親機(インターホン親機)2と、住宅H外(屋外)に設置される子器(インターホン子器)3とで構成されている。なお、各撮像装置1および子器3は親機2に伝送線により接続されている。また、子器3は従来周知のものを採用することが可能であるから、本実施形態では子器3の説明を省略する。   As shown in FIG. 2, the intercom system according to the present embodiment includes two imaging devices 1 installed at the eaves of a house H (hereinafter, distinguished by 1A and 1B as necessary), and inside the house H (indoor). It is comprised with the main | base station (interphone main | base station) 2 which has the function as a monitoring apparatus which comprises the monitoring system with the imaging device 1 installed in the terminal, and the subunit | mobile_unit (interphone subunit | mobile_unit) 3 installed outside the house H (outdoor) Has been. In addition, each imaging device 1 and the subunit | mobile_unit 3 are connected to the main | base station 2 with the transmission line. Moreover, since the subunit | mobile_unit 3 can employ | adopt a conventionally well-known thing, description of the subunit | mobile_unit 3 is abbreviate | omitted in this embodiment.

撮像装置1は、図1に示すように、所定の撮像領域を撮像する撮像部10を備える。撮像部10は、CCDイメージ・センサやCMOSイメージ・センサなどの固体撮像素子よりなる撮像素子(図示せず)と、当該撮像素子とともにカメラとしての機能を発揮するDSP(Digital Signal Processor)などの制御装置(図示せず)とを主構成要素として備える。当該制御装置は、撮像素子の出力(電荷)を所定のフレームレート(例えば15FPS)で取り込み、取り込んだ撮像素子の出力に基づいて所定の形式(例えばYUV形式)のデジタル・データである画像データ(以下、「撮像画像」と称する)を作成して出力する機能を有する。この他、制御装置は、撮像素子の利得の自動制御機能や、画像を濃淡画像などに変換する色制御機能などを有する。なお、撮像素子としてCMOSイメージ・センサを用いる場合、撮像部10として、システム・オン・チップ(SoC)技術などを利用して撮像素子と制御装置とを一体に構成したワンチップカメラを用いることもできる。   As illustrated in FIG. 1, the imaging apparatus 1 includes an imaging unit 10 that captures an image of a predetermined imaging area. The image pickup unit 10 controls an image pickup element (not shown) made of a solid-state image pickup element such as a CCD image sensor or a CMOS image sensor, and a DSP (Digital Signal Processor) that functions as a camera together with the image pickup element. A device (not shown) is provided as a main component. The control device captures the output (charge) of the image sensor at a predetermined frame rate (for example, 15 FPS), and image data (digital data in a predetermined format (for example, YUV format) based on the captured output of the image sensor (for example, YUV format). (Hereinafter referred to as “captured image”). In addition, the control device has an automatic control function for the gain of the image sensor, a color control function for converting an image into a grayscale image, and the like. When a CMOS image sensor is used as the image pickup device, a one-chip camera in which the image pickup device and the control device are integrally configured using a system-on-chip (SoC) technology or the like may be used as the image pickup unit 10. it can.

撮像装置1は、撮像部10より撮像画像を受け取る画像データ処理部11と、撮像画像の記憶(貯蔵)に使用されるフラッシュメモリなどの書き換え可能な記憶装置(ストレージ・デバイス)である記憶部12と、撮像画像に対して画像処理を実行する画像処理部13と、親機2に撮像画像を伝送する伝送部14と、熱線センサ15と、撮像装置1の全体的な制御処理を実行する制御部16とを備える。   The imaging device 1 includes an image data processing unit 11 that receives a captured image from the imaging unit 10, and a storage unit 12 that is a rewritable storage device (storage device) such as a flash memory that is used to store (store) the captured image. And an image processing unit 13 that performs image processing on the captured image, a transmission unit 14 that transmits the captured image to the parent device 2, a heat ray sensor 15, and a control that performs overall control processing of the imaging device 1. Part 16.

画像データ処理部11は、例えばFPGA(Field ProgrammableGate Array)などにより構成される。画像データ処理部11は、撮像画像に管理用の識別符号(例えばフレーム番号など)を付して記憶部12に書き込む処理(貯蔵処理)を実行する。また、画像データ処理部11は、画像処理部13に撮像画像を送出する処理(送出処理)を実行する。   The image data processing unit 11 is configured by, for example, an FPGA (Field Programmable Gate Array). The image data processing unit 11 executes a process (storage process) of adding a management identification code (for example, a frame number) to the captured image and writing it in the storage unit 12. In addition, the image data processing unit 11 executes processing (sending processing) for sending a captured image to the image processing unit 13.

さらに、画像データ処理部11は、伝送部14に撮像画像を伝送する処理(画像データ伝送処理)を実行する。当該画像データ伝送処理は、過去画像伝送処理と現在画像伝送処理とに分けられる。過去画像伝送処理は、制御部16から後述する伝送開始信号を受け取った際に、記憶部12に記憶された撮像画像群のうち撮像時刻が検出時刻(対象物である人を検出した時刻)以前の撮像画像から撮像時刻が現在時刻と同時刻(厳密な意味での同時刻ではなくおおよそ同時刻と考えられる範囲であればよく、どの程度の範囲までを同時刻と考えるかは適宜設定すればよい)の撮像画像までの撮像画像群を取得して、撮像時刻順(撮像時刻が古い順)に伝送部14に出力する処理である。現在画像伝送処理は、過去画像伝送処理が終了した後に撮像部10により撮像中の撮像画像を伝送部14に伝送する処理である。なお、現在画像伝送処理は、画像データ処理部11が制御部16より後述する伝送終了信号を受け取った際に終了する。   Further, the image data processing unit 11 executes a process (image data transmission process) for transmitting the captured image to the transmission unit 14. The image data transmission process is divided into a past image transmission process and a current image transmission process. In the past image transmission process, when a transmission start signal to be described later is received from the control unit 16, the imaging time of the group of captured images stored in the storage unit 12 is before the detection time (the time when the person who is the object is detected). From the captured image, the imaging time should be the same time as the current time (a range that can be considered to be the same time, not the same time in a strict sense). This is a process of acquiring a group of captured images up to (good) captured images and outputting them to the transmission unit 14 in order of imaging time (in order of imaging time). The current image transmission process is a process of transmitting the captured image being captured by the imaging unit 10 to the transmission unit 14 after the past image transmission process is completed. Note that the current image transmission process ends when the image data processing unit 11 receives a transmission end signal described later from the control unit 16.

伝送部14は、画像データ処理部11より受け取った撮像画像を符号化(伝送路符号化)して親機2に送出する処理を実行する。ここで、伝送部14から親機2に画像データを送出するタイミングは、撮像部10のフレームレート(本実施形態では15FPS)と同期させている。なお、伝送部14は、撮像画像を伝送路符号化する前にYUV形式の撮像画像をNTSC形式の撮像画像に変換する処理(YUV/NTSC変換処理)を実行する。ただし、親機1においてYUV形式の撮像画像のままで再生が可能であれば、YUV/NTSC変換処理は実行する必要がない。この他、伝送部14は必要に応じて撮像画像を圧縮する処理や撮像画像の輪郭を強調する処理などを行う。   The transmission unit 14 executes a process of encoding (transmission path encoding) the captured image received from the image data processing unit 11 and sending it to the parent device 2. Here, the transmission timing of the image data from the transmission unit 14 to the parent device 2 is synchronized with the frame rate of the imaging unit 10 (15 FPS in the present embodiment). The transmission unit 14 executes a process (YUV / NTSC conversion process) for converting a captured image in YUV format into a captured image in NTSC format before encoding the captured image on a transmission path. However, if the base unit 1 can reproduce the captured image in the YUV format as it is, it is not necessary to execute the YUV / NTSC conversion process. In addition, the transmission unit 14 performs a process of compressing the captured image and a process of enhancing the outline of the captured image as necessary.

したがって、本実施形態では、撮像装置1の画像データ処理部11および伝送部14によって、対象物である人の検出時刻を含む所定時間内に撮像部10で撮像された撮像画像群を監視装置である親機2に伝送する画像伝送手段が構成される。   Therefore, in the present embodiment, the monitoring device captures a group of captured images captured by the imaging unit 10 within a predetermined time including the detection time of the person who is the object by the image data processing unit 11 and the transmission unit 14 of the imaging device 1. An image transmission means for transmitting to a certain parent device 2 is configured.

画像処理部13は、対象物検出手段13aと特徴画像選択手段13bとを備える。このような画像処理部13は、例えばマイクロコンピュータ(マイクロコントローラ、略称としてマイコン、広義にはCPUとも称される)であり、メモリに記憶されたプログラムをCPUで実行することにより対象物検出手段13aおよび特徴画像選択手段13bが実現される。なお、画像処理部13にはマイコンの他に専用のASIC(Application Specific Integrated Circuit)やDSPなども利用できる。   The image processing unit 13 includes an object detection unit 13a and a feature image selection unit 13b. Such an image processing unit 13 is, for example, a microcomputer (microcontroller, abbreviated as a microcomputer, also referred to as a CPU in a broad sense), and an object detection unit 13a is executed by executing a program stored in a memory with the CPU. And the feature image selection means 13b is implement | achieved. In addition to the microcomputer, a dedicated ASIC (Application Specific Integrated Circuit) or DSP can be used for the image processing unit 13.

対象物検出手段13aは、撮像部10で撮像された撮像画像に対して画像処理を行うことで対象物(本実施形態では人)の検出を行う。対象物検出手段13aは、画像処理として、縮小化処理、移動体検出処理、特徴量演算処理、および対象物判定処理を実行する。   The target object detection means 13a detects a target object (a person in this embodiment) by performing image processing on the captured image captured by the imaging unit 10. The object detection means 13a executes a reduction process, a moving object detection process, a feature amount calculation process, and an object determination process as image processing.

縮小化処理は、撮像画像を縮小化(撮像画像のサイズを小さく)して縮小画像を作成する処理である。縮小化処理では、例えば、撮像画像を構成する画素群のうち所定の大きさの方形の領域内に含まれる複数の画素の各画素値を前記複数の画素の画素値の平均値に順次置き換えていくことにより、縮小画像が作成される。このように撮像画像を縮小化することによりノイズを低減することができる。また、縮小画像を利用して対象物の検出を行うことにより、撮像画像をそのまま利用する場合に比べれば画像処理にかかる時間を短縮することができる。なお、縮小化処理は上記の例に限定されず、従来周知の種々の処理を採用することができる。また、縮小化処理は必ずしも必要な処理ではないため省略することができる。   The reduction process is a process of creating a reduced image by reducing the captured image (reducing the size of the captured image). In the reduction processing, for example, each pixel value of a plurality of pixels included in a rectangular region having a predetermined size in a pixel group constituting a captured image is sequentially replaced with an average value of pixel values of the plurality of pixels. As a result, a reduced image is created. Thus, noise can be reduced by reducing the captured image. Further, by detecting the object using the reduced image, it is possible to reduce the time required for the image processing as compared with the case where the captured image is used as it is. The reduction process is not limited to the above example, and various conventionally known processes can be employed. Further, the reduction process is not necessarily a necessary process and can be omitted.

移動体検出処理は、縮小化処理により得られた縮小画像から移動体を検出する処理であり、例えば、輪郭抽出処理、移動輪郭抽出処理、および移動領域抽出処理で構成される。輪郭抽出処理は、例えば一般的に知られたSOBELフィルタなどを使用して縮小画像に対して微分処理(各画素の微分値を算出)を行うことで、縮小画像から輪郭(エッジ)を抽出し、縮小画像の輪郭を示す輪郭画像を作成する処理である。移動輪郭抽出処理は、例えば記憶部12に保存された時系列の輪郭画像を用いて論理合成を行い、移動体の輪郭(以下、「移動輪郭」と称する)のみを抽出した合成画像を作成する処理である。移動領域抽出処理は、例えば移動輪郭抽出処理で抽出した移動体の輪郭を元に移動体に相当する領域(以下、「移動領域」と称する)を抽出する処理である。移動領域抽出処理では、例えば合成画像をラベリングすることにより移動体に相当する移動領域が作成される。ここで移動領域は、例えば移動輪郭に外接する矩形状(四角形)の領域(移動枠)よりなる。   The moving object detection process is a process for detecting a moving object from the reduced image obtained by the reduction process, and includes, for example, a contour extraction process, a moving contour extraction process, and a moving region extraction process. In the contour extraction process, for example, a contour (edge) is extracted from the reduced image by performing differentiation processing (calculating a differential value of each pixel) on the reduced image using a generally known SOBEL filter or the like. This is a process of creating a contour image indicating the contour of the reduced image. In the moving contour extraction process, for example, logical synthesis is performed using time-series contour images stored in the storage unit 12 to create a composite image in which only the contour of the moving body (hereinafter referred to as “moving contour”) is extracted. It is processing. The moving area extraction process is a process for extracting an area corresponding to the moving body (hereinafter referred to as “moving area”) based on the outline of the moving body extracted by the moving outline extraction process, for example. In the moving area extraction process, for example, a moving area corresponding to a moving body is created by labeling a composite image. Here, the moving area is composed of, for example, a rectangular (quadrangle) area (moving frame) circumscribing the moving outline.

特徴量演算処理は、移動体検出処理により検出された移動体の特徴量を演算する処理である。本実施形態における特徴量演算処理は、移動体検出処理により得られた移動領域から当該移動領域の縦方向(垂直方向)の長さ(画素数)を演算する処理である。すなわち、本実施形態では、移動体の特徴量として当該移動体に対応する移動領域の縦方向の長さを用いる。   The feature amount calculation process is a process of calculating the feature amount of the moving object detected by the moving object detection process. The feature amount calculation process in the present embodiment is a process for calculating the length (number of pixels) in the vertical direction (vertical direction) of the moving area from the moving area obtained by the moving body detection process. That is, in the present embodiment, the length in the vertical direction of the moving area corresponding to the moving body is used as the feature amount of the moving body.

対象物判定処理は、特徴量演算処理により演算された特徴量を利用して移動体が対象物(本実施形態では人)か否かを判定する処理であり、検出処理と確定処理とで構成される。   The object determination process is a process for determining whether or not the moving object is an object (a person in the present embodiment) using the feature amount calculated by the feature amount calculation process, and includes a detection process and a confirmation process. Is done.

検出処理は、移動体の特徴量(すなわち移動領域の縦方向の長さ)が人体判定用の下限値以上かつ人体判定用の上限値以下であれば当該移動体は人であると判定し、それ以外(人体判定用の下限値未満、あるいは人体判定用の上限値超過)であれば当該移動体は人ではないと判定する処理を行う(撮像装置1の誤動作源となる移動体を除去する処理ともいえる)。ここで、人体判定用の下限値および上限値は、撮像部10の撮像素子の画素数やサイズ、撮像部10の設置位置、実際に撮像画像に写った人に対応する移動領域の縦方向の長さ、想定される移動領域の縦方向の長さなど種々の観点から好適な値に決定される。   The detection process determines that the moving body is a person if the feature amount of the moving body (that is, the length in the vertical direction of the moving area) is not less than the lower limit for human body determination and not more than the upper limit for human body determination, Otherwise (less than the lower limit value for human body determination or exceeding the upper limit value for human body determination), a process for determining that the mobile body is not a person is performed (removing the mobile body that is a malfunction source of the imaging apparatus 1 is removed). It can also be called processing.) Here, the lower limit value and the upper limit value for human body determination are the number and size of pixels of the image pickup device of the image pickup unit 10, the installation position of the image pickup unit 10, and the vertical direction of the moving region corresponding to the person actually captured in the captured image. It is determined to be a suitable value from various viewpoints such as the length and the length of the assumed moving region in the vertical direction.

確定処理は、検出処理により人であると判定された移動体(検出移動体)の連続性に基づいて当該移動体が人であるか否かを確定する処理である。例えば、確定処理では、検出移動体が時系列順の撮像画像(縮小画像)に連続して写っている回数(あるいは時間)が連続性判断回数(あるは連続性判断時間)を越えるか否かにより当該検出移動体が人であるか否かの確定を行う。一例としては、連続性判断回数が2回である場合、検出移動体が時系列順の撮像画像に連続して2回写っているときには当該検出移動体が人であると確定するが、検出移動体が時系列順の撮像画像に1回しか写っていないときには当該検出移動体が人であるとは確定しない。ここで、連続性判断回数を1回とすれば検出処理における判定結果がそのまま確定処理における判定結果となる。   The confirmation process is a process for determining whether or not the moving body is a person based on the continuity of the moving body (detected moving body) determined to be a person by the detection process. For example, in the determination process, whether or not the number of times (or time) that the detected moving body is continuously captured in the time-sequential captured image (reduced image) exceeds the number of times of continuity determination (or continuity determination time). Thus, it is determined whether or not the detected moving body is a person. As an example, when the number of times of continuity determination is two, when the detected moving body is captured twice in the captured image in time series order, it is determined that the detected moving body is a person. When the body appears only once in the chronological order of captured images, it is not determined that the detected moving body is a person. Here, if the continuity determination number is 1, the determination result in the detection process is directly used as the determination result in the determination process.

上述の連続性判断回数は、撮像装置1の設置場所の状況に応じて好適な回数に設定される。例えば、撮像装置1の設置場所が比較的見晴らしの良い場所である場合、対象物が撮像画像に連続的に写る可能性が高くなるから、連続性判断回数を比較的多くすることによって誤検出を抑制することができる。一方、撮像装置1の設置場所が比較的見晴らしの悪い場所である場合、対象物が物陰に隠れて連続的に写らない可能性が高くなるから、連続性判断回数を比較的少なくすることによって対象物の検出を逃してしまうことを抑制することができる。   The above-mentioned continuity determination number is set to a suitable number according to the situation of the installation location of the imaging device 1. For example, when the installation location of the imaging apparatus 1 is a relatively good view, there is a high possibility that the object will be continuously captured in the captured image. Therefore, erroneous detection is performed by relatively increasing the number of continuity determinations. Can be suppressed. On the other hand, when the installation location of the imaging device 1 is a relatively unsightly place, there is a high possibility that the object is hidden behind the object and does not appear continuously. It is possible to suppress the detection of an object from being missed.

そして、対象物検出手段13aは、対象物確定処理により移動体が人であると確定された場合に制御部16に人体検知信号を出力する。   Then, the object detection unit 13a outputs a human body detection signal to the control unit 16 when it is determined that the moving body is a person by the object determination process.

特徴画像選択手段13bは、上記画像伝送手段より親機2に伝送される撮像画像群のなかから当該撮像画像群の特徴が表れている特徴画像を選択するものである。この特徴画像選択手段13bは、評価値演算処理と選択処理とを実行する。   The feature image selection unit 13b selects a feature image in which the feature of the captured image group appears from the captured image group transmitted from the image transmission unit to the master unit 2. The feature image selection unit 13b executes an evaluation value calculation process and a selection process.

評価値演算処理は、対象物検出手段13aにおける特徴量演算処理により演算された特徴量から特徴画像選択用の評価値を演算する処理である。本実施形態における評価値演算処理では、特徴量をVとした場合に、評価値Vを、V=|V−V|+αにより求める。ここで、Vは特徴画像として最適な移動領域の縦方向の長さを示す基準値であり、例えば人の全身が適度な大きさで写る理想的な移動領域の縦方向の長さの値に設定される。αは補正値であり、移動領域の形状(例えば移動領域の縦横の比率)が上記理想的な移動領域の形状にどの程度近いかによって決定される(本実施形態では移動領域の形状が上記理想的な移動領域の形状に近いほど小さい値とする)。評価値演算処理で演算された評価値は、撮像画像の上記識別符号などと関連付けられて記憶部12に記憶される。 The evaluation value calculation process is a process for calculating an evaluation value for feature image selection from the feature value calculated by the feature value calculation process in the object detection unit 13a. In the evaluation value calculation process in the present embodiment, when the feature value is V S , the evaluation value V E is obtained by V E = | V R −V S | + α. Here, V R is a reference value indicating the vertical length of the optimal movement area as feature image, for example, the vertical length of the value of an ideal moving region human systemic objects appear in appropriate size Set to α is a correction value, and is determined by how close the shape of the moving region (for example, the aspect ratio of the moving region) is to the shape of the ideal moving region (in this embodiment, the shape of the moving region is the ideal value). The closer the shape is to the shape of a typical moving area, the smaller the value). The evaluation value calculated in the evaluation value calculation process is stored in the storage unit 12 in association with the identification code of the captured image.

選択処理は、評価値演算処理で演算された評価値に基づいて撮像画像群のなかから特徴画像を選択する処理である。本実施形態における選択処理では、撮像画像群に含まれる撮像画像の評価値Vを記憶部12より読み出し、評価値Vが最も小さい撮像画像を特徴画像として選択する。 The selection process is a process of selecting a feature image from the captured image group based on the evaluation value calculated in the evaluation value calculation process. In selection process in this embodiment selects the readout from the storage unit 12 the evaluation value V E of the captured images included in the captured image group, the smallest captured image evaluation value V E as characteristic images.

このように特徴画像選択手段13bは、対象物検出手段13aにおいて実行された画像処理の結果(特徴演算処理の結果)を利用して特徴画像の選択を行う。そして、特徴画像選択手段13bは、撮像画像群に対応する特徴画像に関する情報(例えば特徴画像として選択された撮像画像の上記識別符号)を伝送部14に送り、伝送部14から監視装置である親機2に伝送する。   As described above, the feature image selection unit 13b selects a feature image using the result of the image processing (the result of the feature calculation process) executed in the object detection unit 13a. Then, the feature image selection unit 13b sends information related to the feature image corresponding to the captured image group (for example, the identification code of the captured image selected as the feature image) to the transmission unit 14, and the transmission unit 14 sends a parent that is a monitoring device. Transmit to machine 2.

熱線センサ15は、例えば、所定領域からの熱線を集光する光学系を構成するレンズ(図示せず)、集光した熱線の変化を電気信号に変換する焦電素子(図示せず)、電気信号を増幅する増幅回路(図示せず)、および増幅した信号のレベルを閾値と比較して所定領域内の人の存在を検知する比較器(図示せず)を備える熱線式の人体検知器である。熱線センサ15は、人体を検知した時には人体検知信号を制御部16へ出力する。   The heat ray sensor 15 includes, for example, a lens (not shown) constituting an optical system that collects heat rays from a predetermined area, a pyroelectric element (not shown) that converts a change in the collected heat rays into an electrical signal, A hot-wire human body detector comprising an amplifier circuit (not shown) for amplifying a signal, and a comparator (not shown) for detecting the presence of a person in a predetermined region by comparing the level of the amplified signal with a threshold value is there. The heat ray sensor 15 outputs a human body detection signal to the control unit 16 when detecting a human body.

制御部16は、例えばメモリに記憶されたプログラムをCPUで実行することにより種々の機能を実現するマイコンなどにより構成される。制御部16には、画像処理部13と熱線センサ15とが接続される。そして、制御部16は、画像処理部13又は熱線センサ15より人体検知信号を受け取った際(つまりは、人の存在を検知した際)に、画像データ処理部11に前述の伝送開始信号を出力する処理(伝送開始処理)を実行する。すなわち、本実施形態では、制御部16が対象物検出手段13aの検出結果を利用して所定領域に対象物が存在するか否かを判定する存否判定手段を構成する。なお、本実施形態では、画像処理部13と熱線センサ15の検出結果を利用しているが、熱線センサ15は必ずしも設ける必要はなく、画像処理部13の検出結果のみを利用して存否判定を行ってもよい。また、熱線センサ15の代わりに異なる動作原理に基づくセンサを採用してもよいし、このようなセンサを熱線センサ15と併用してもよい。   The control part 16 is comprised by the microcomputer etc. which implement | achieve various functions, for example by running the program memorize | stored in memory with CPU. An image processing unit 13 and a heat ray sensor 15 are connected to the control unit 16. The control unit 16 outputs the above-described transmission start signal to the image data processing unit 11 when receiving the human body detection signal from the image processing unit 13 or the heat ray sensor 15 (that is, when detecting the presence of a person). (Transmission start processing) is executed. That is, in this embodiment, the control part 16 comprises the presence determination means which determines whether a target exists in a predetermined area | region using the detection result of the target detection means 13a. In this embodiment, the detection results of the image processing unit 13 and the heat ray sensor 15 are used. However, the heat ray sensor 15 is not necessarily provided, and the presence / absence determination is performed using only the detection result of the image processing unit 13. You may go. Further, instead of the heat ray sensor 15, a sensor based on a different operation principle may be adopted, or such a sensor may be used in combination with the heat ray sensor 15.

また、制御部16は、上記伝送開始処理において、撮像装置1に設けた報知部(図示せず)に報知開始信号を出力する処理を行う。ここで、上記報知部は、侵入者に対して威嚇用の報知を行うためのものであって、視覚的な威嚇に用いられるライトや、聴覚的な威嚇に用いられる電気音響変換器(ブザーやスピーカ)などを備える。当該報知部は、制御部16から報知開始信号を受け取ってから後述する報知終了信号を受け取るまでの間、ライトを点灯したり、電気音響変換器から音声を出力したりする威嚇動作を実行する。   Moreover, the control part 16 performs the process which outputs a notification start signal to the alerting | reporting part (not shown) provided in the imaging device 1 in the said transmission start process. Here, the notification unit is for intimidating notification to an intruder, and includes a light used for visual threats and an electroacoustic transducer (buzzer or Speaker). The notification unit performs a threatening operation of turning on the light or outputting sound from the electroacoustic transducer until receiving a notification end signal described later after receiving the notification start signal from the control unit 16.

制御部16は、人体検知信号を受け取ってから所定時間が経過した後(例えば、検出時刻から30秒経過した後)に、画像データ処理部11に前述の伝送終了信号を出力する。さらに、制御部16は、人体検知信号を受け取ってから所定時間が経過した後(例えば、検出時刻から3秒経過した後)に、報知部に前述の報知終了信号を出力する。なお、伝送終了信号および報知終了信号を出力するタイミングは、上記の例に限られるものではい。また伝送終了信号および報知終了信号を出力するタイミングは、使用者が自由に設定できるようにしてもよい。   The control unit 16 outputs the above-described transmission end signal to the image data processing unit 11 after a predetermined time has elapsed after receiving the human body detection signal (for example, after 30 seconds have elapsed from the detection time). Furthermore, the control unit 16 outputs the above-described notification end signal to the notification unit after a predetermined time has elapsed after receiving the human body detection signal (for example, after 3 seconds have elapsed from the detection time). The timing for outputting the transmission end signal and the notification end signal is not limited to the above example. The timing for outputting the transmission end signal and the notification end signal may be set freely by the user.

親機2は、図1に示すように、撮像装置1の伝送部14に通信線により接続される伝送部20と、液晶ディスプレイ(LCD)やCRTディスプレイなどの画像表示器である画像表示部21と、画像表示部21用の表示画像の作成などを行う画像処理部22と、撮像画像の記憶(貯蔵)に使用されるフラッシュメモリなどの書き換え可能な記憶装置である記憶部23と、設定画像を作成する設定画像作成部24と、設定画像を表示画像に合成する表示画像合成部25と、使用者が親機2を操作するためのユーザインタフェースである入力部26と、親機2の全体的な制御処理を行う制御部27とを備える。   As shown in FIG. 1, the master unit 2 includes a transmission unit 20 connected to the transmission unit 14 of the imaging apparatus 1 via a communication line, and an image display unit 21 that is an image display device such as a liquid crystal display (LCD) or a CRT display. An image processing unit 22 that creates a display image for the image display unit 21, a storage unit 23 that is a rewritable storage device such as a flash memory used for storing (storing) a captured image, and a setting image A setting image creation unit 24 that creates a setting image, a display image synthesis unit 25 that synthesizes the setting image with a display image, an input unit 26 that is a user interface for the user to operate the parent device 2, and the entire parent device 2 And a control unit 27 that performs a typical control process.

上記構成に加えて、親機2は、子器3との間で通話を行うための通話装置(図示せず)を備える。当該通話装置は、子器3との間で音声データなどの送受信を行う通信部や、音声入力用のマイク、音声出力用のスピーカなどを備えている。なお、子器3がカメラ付きのものであるならば、子器3の動作時に、子器3のカメラで撮像した画像を、画像表示部21に表示するようにしてもよい。このような通話装置については従来周知のものを採用することができるから詳細な説明を省略する。   In addition to the above configuration, base unit 2 includes a call device (not shown) for making a call with handset 3. The call device includes a communication unit that transmits and receives voice data to and from the handset 3, a microphone for voice input, a speaker for voice output, and the like. If the handset 3 is equipped with a camera, an image captured by the handset 3 camera may be displayed on the image display unit 21 when the handset 3 operates. As such a communication device, a conventionally well-known device can be adopted, and detailed description thereof is omitted.

伝送部20は、撮像装置1の伝送部14より受け取った撮像画像や特徴画像情報を示す信号を復号化(伝送路復号化)して画像処理部22に出力する処理を実行する。また、伝送部20は、撮像装置1の伝送部14において撮像画像を圧縮する処理が実行されていた場合には、圧縮された撮像画像を伸張する処理を実行する。   The transmission unit 20 executes a process of decoding (transmission path decoding) a signal indicating the captured image and feature image information received from the transmission unit 14 of the imaging apparatus 1 and outputting the decoded signal to the image processing unit 22. In addition, when the process of compressing the captured image is performed in the transmission unit 14 of the imaging device 1, the transmission unit 20 executes the process of expanding the compressed captured image.

画像表示部21は、撮像装置1の撮像部10で撮像された画像(図3(c)参照)や、画像処理部22で作成される選択用画像(図3(a),(b)参照)、設定画像(図4(a)〜(g)参照)の表示に使用される。   The image display unit 21 is an image captured by the imaging unit 10 of the imaging device 1 (see FIG. 3C) or a selection image created by the image processing unit 22 (see FIGS. 3A and 3B). ) And setting images (see FIGS. 4A to 4G).

上述の画像処理部22、設定画像作成部24、および表示画像合成部25は、例えばマイコンなどにより構成され、メモリに記憶されたプログラムをCPUで実行することにより後述する種々の処理を実行する。なお、マイコンの他に専用のASICやDSPなども利用できる。   The image processing unit 22, the setting image creation unit 24, and the display image synthesis unit 25 described above are configured by, for example, a microcomputer, and execute various processes described later by executing a program stored in the memory by the CPU. In addition to the microcomputer, a dedicated ASIC or DSP can be used.

入力部26は、例えば、図3,4に示すように親機2の画像表示部21近傍(図示例では下側)に配置された複数個(図示例では4個)の操作釦(押釦)SW(必要に応じてSW1〜SW4で区別する)を有する。また、入力部26は、子器3からの呼び出しに対応する応答釦(図示せず)などを具備し、当該応答釦の操作により上記通話装置が起動される。   The input unit 26 includes, for example, a plurality (four in the illustrated example) of operation buttons (push buttons) disposed in the vicinity of the image display unit 21 (lower in the illustrated example) of the parent device 2 as illustrated in FIGS. It has SW (it distinguishes with SW1-SW4 as needed). The input unit 26 includes a response button (not shown) corresponding to a call from the handset 3, and the call device is activated by operating the response button.

制御部27は、例えばメモリに記憶されたプログラムをCPUで実行することにより種々の機能を実現するマイクロコンピュータ(マイクロコントローラ、略称としてマイコン、広義にはCPUとも称される)などにより構成される。制御部27は、画像処理部22や設定画像作成部24に制御信号を出力することによって、親機2の動作モードの変更を行う。本実施形態における親機2は、動作モードとして、待機モードと、表示モードと、再生モードと、設定モードと、選択モードと、応答モードとを有する。なお、応答モードは、上述の通話装置により子器3との通話を可能にする動作モードであるから説明を省略する。   The control unit 27 includes, for example, a microcomputer (microcontroller, abbreviated as a microcomputer, also referred to as a CPU in a broad sense) that realizes various functions by executing a program stored in a memory with a CPU. The control unit 27 changes the operation mode of the parent device 2 by outputting a control signal to the image processing unit 22 and the setting image creation unit 24. Master device 2 in this embodiment has a standby mode, a display mode, a playback mode, a setting mode, a selection mode, and a response mode as operation modes. Note that the response mode is an operation mode that enables a call with the slave unit 3 by the above-described call device, and a description thereof will be omitted.

待機モードは、使用者による入力部26の操作や、撮像装置1からの撮像画像群の伝送、子器3からの呼び出しなどを待ち受ける動作モードである。この待機モードにおいて、伝送部20で撮像画像群を受け取った場合には、制御部27は、動作モードを表示モードに設定する。また、待機モードにおいて所定の操作釦SWが操作されると、制御部27は動作モードを選択モードあるいは設定モードに設定する。   The standby mode is an operation mode that waits for an operation of the input unit 26 by the user, transmission of a captured image group from the imaging device 1, calling from the slave unit 3, and the like. In this standby mode, when the captured image group is received by the transmission unit 20, the control unit 27 sets the operation mode to the display mode. Further, when a predetermined operation button SW is operated in the standby mode, the control unit 27 sets the operation mode to the selection mode or the setting mode.

表示モードは、主として撮像装置1で撮像中の画像を親機2にて表示する動作モードである。この表示モードでは、画像処理部22は伝送部20より受け取った撮像画像群を時系列順に画像表示部21で表示させる処理(表示処理)を実行する。   The display mode is an operation mode in which an image being picked up by the image pickup apparatus 1 is mainly displayed on the master unit 2. In this display mode, the image processing unit 22 executes processing (display processing) for displaying the captured image group received from the transmission unit 20 on the image display unit 21 in time series.

ところで、伝送部20で撮像画像群を受け取った場合、画像処理部22は受け取った撮像画像群を記憶部23に記憶する処理(録画処理)を実行する。したがって、本実施形態では、記憶部23が画像伝送手段(画像データ処理部11および伝送部14)より伝送された撮像画像群が記憶される画像記憶手段として使用される。   By the way, when the captured image group is received by the transmission unit 20, the image processing unit 22 executes a process (recording process) for storing the received captured image group in the storage unit 23. Therefore, in the present embodiment, the storage unit 23 is used as an image storage unit that stores a captured image group transmitted from the image transmission unit (the image data processing unit 11 and the transmission unit 14).

上記録画処理では、画像処理部22は、画像伝送手段より伝送された撮像画像群に含まれる撮像画像それぞれに対してフォーマットの変換や圧縮・伸張などを行い、これら撮像画像群を動画(撮像動画)として記憶部23に録画する。当該撮像動画には識別情報として、伝送部20で受け取った日時(撮像日時)や、撮像動画の元になった撮像画像を撮像した撮像装置1に関する情報(撮像装置識別情報)、撮像動画同士を識別するための識別番号などの種々の情報が付加される。なお、画像処理部22は、表示処理や録画処理の実行時に必要に応じて撮像画像に対して、画像サイズの変換や、ノイズの低減、明るさの調整、色合の調整、輪郭強調などの種々の処理(画像加工処理)を行う。   In the recording process, the image processing unit 22 performs format conversion, compression / decompression, and the like on each captured image included in the captured image group transmitted from the image transmission unit, and converts the captured image group into a moving image (captured moving image). ) In the storage unit 23. As the identification information, the date and time (imaging date and time) received by the transmission unit 20, the information related to the imaging device 1 that captured the captured image that is the basis of the captured video (imaging device identification information), and the captured video are included in the captured video. Various information such as an identification number for identification is added. Note that the image processing unit 22 performs various processes such as image size conversion, noise reduction, brightness adjustment, color adjustment, and contour enhancement on the captured image as necessary during the execution of display processing and recording processing. The process (image processing process) is performed.

このように、撮像装置1より撮像画像群が親機2に伝送されると、親機2の画像表示部21には伝送された撮像画像群が時系列順に表示されるとともに、伝送された撮像画像群が記憶部23に記憶される(録画される)。   As described above, when the captured image group is transmitted from the imaging device 1 to the parent device 2, the transmitted captured image groups are displayed in time series on the image display unit 21 of the parent device 2, and the transmitted imaging is performed. The image group is stored (recorded) in the storage unit 23.

記憶部23に録画された撮像動画は再生モードで使用される。再生モードは、記憶部23に記憶された撮像動画を親機2にて再生する動作モードである。この再生モードでは、画像処理部22は、画像記憶手段である記憶部23に記憶された撮像動画に含まれる撮像画像を時系列順に画像表示部21に表示する(撮像動画を再生する)処理(再生処理)を実行する。また、再生処理では、画像処理部22は、図3(c)に示すように撮像動画とともにメッセージMを表示する。メッセージMは、再生中の撮像動画の上記識別番号や、上記撮像装置識別情報、上記撮像日時を表示する。このように本実施形態では、画像処理部22が、画像記憶手段に記憶された撮像画像群に含まれる撮像画像を時系列順に画像表示部21に表示させる第1の表示手段を構成する。   The captured moving image recorded in the storage unit 23 is used in the playback mode. The playback mode is an operation mode in which the parent device 2 plays back the captured moving image stored in the storage unit 23. In this reproduction mode, the image processing unit 22 displays the captured images included in the captured moving image stored in the storage unit 23 serving as an image storage unit on the image display unit 21 in time-series order (reproduces the captured moving image) ( Playback process). In the reproduction process, the image processing unit 22 displays the message M together with the captured moving image as shown in FIG. The message M displays the identification number of the captured moving image being reproduced, the imaging device identification information, and the imaging date and time. As described above, in the present embodiment, the image processing unit 22 configures a first display unit that causes the image display unit 21 to display captured images included in the captured image group stored in the image storage unit in time series order.

選択モードは、再生する撮像動画を選択するための選択用画面を親機2にて表示する動作モードである。この選択モードでは、画像処理部22は、再生処理により画像表示部21に表示する撮像動画を選択する際に使用される選択用画像を作成して画像表示部21に表示する処理(選択用画像表示処理)を実行する。このように本実施形態では、画像処理部22が、画像記憶手段に記憶された複数の撮像画像群のなかから第1の表示手段により画像表示部21に表示させる撮像画像群を選択する際に使用される選択用画像を作成して画像表示部21に表示する第2の表示手段を構成する。   The selection mode is an operation mode in which a selection screen for selecting a captured moving image to be reproduced is displayed on the parent device 2. In this selection mode, the image processing unit 22 creates a selection image used when selecting a captured moving image to be displayed on the image display unit 21 by the reproduction process and displays the selection image on the image display unit 21 (selection image). Display process). As described above, in the present embodiment, when the image processing unit 22 selects a captured image group to be displayed on the image display unit 21 by the first display unit from among a plurality of captured image groups stored in the image storage unit. A second display means for creating a selection image to be used and displaying it on the image display unit 21 is configured.

選択用画像表示処理において、選択用画像を作成するにあたっては、画像処理部22は、撮像画像群を表示する画像として当該撮像画像群に対応する特徴画像を用いる。特に、本実施形態における画像処理部22は、特徴画像を所定サイズまで縮小してなるサムネイル画像Sを作成し、当該サムネイル画像Sを特徴画像の代わりに使用する。例えば、画像処理部22は、選択用画像として、図3(a)に示すように、サムネイル画像S(必要に応じて符号S1〜S12で区別する)を、マトリクス状(図示例では3行4列のマトリクス状)に並べた画像を作成する。このような選択用画像は、撮像動画の数に応じて1乃至複数用意される。すなわち、図3(a)に示す例では、一画面に表示するサムネイル画像Sの数が12であるから、撮像動画の数が12以下であれば選択用画像が1ページ分作成され、撮像動画の数が12を越えると選択用画像が撮像動画の数に応じて複数ページ分作成される。   In creating a selection image in the selection image display process, the image processing unit 22 uses a feature image corresponding to the captured image group as an image for displaying the captured image group. In particular, the image processing unit 22 in the present embodiment creates a thumbnail image S obtained by reducing the feature image to a predetermined size, and uses the thumbnail image S instead of the feature image. For example, as shown in FIG. 3A, the image processing unit 22 converts the thumbnail images S (differentiated by reference numerals S1 to S12 as necessary) into a matrix form (three rows and four in the illustrated example). An image arranged in a matrix of columns is created. One or more images for selection are prepared according to the number of captured moving images. That is, in the example shown in FIG. 3A, since the number of thumbnail images S displayed on one screen is 12, if the number of captured moving images is 12 or less, a selection image is created for one page. When the number of images exceeds 12, images for selection are created for a plurality of pages according to the number of captured moving images.

このような選択用画像には、サムネイル画像Sとともに当該サムネイル画像Sの関連情報、例えば、上述の撮像日時や、上述の撮像装置識別情報、上述の識別番号などの情報を表示するようにしてもよい。このようにすれば、選択用画像を見ることによって、サムネイル画像Sと当該サムネイル画像Sの関連情報を見ることができるから、撮像画像群の確認作業にかかる時間および労力を低減することができる。   In such a selection image, related information of the thumbnail image S together with the thumbnail image S, for example, information such as the above imaging date and time, the above imaging device identification information, and the above identification number may be displayed. Good. In this way, by viewing the selection image, it is possible to see the thumbnail image S and the related information of the thumbnail image S, so that it is possible to reduce the time and labor required for the confirmation operation of the captured image group.

ところで、入力部26の操作釦SWには、親機2の現在の動作モードに応じて機能が割り当てられる(操作釦SWの操作により制御部27が実行する制御内容が異なる)。そのため、画像処理部22は、操作釦SWの機能を表示するためのフレームF(必要に応じてF1〜F4で区別する)を画像表示部21に表示する。ここで、フレームF1〜F4それぞれは操作釦SW1〜SW4それぞれに対応している。   By the way, a function is assigned to the operation button SW of the input unit 26 according to the current operation mode of the base unit 2 (the control content executed by the control unit 27 differs depending on the operation of the operation button SW). Therefore, the image processing unit 22 displays a frame F for displaying the function of the operation button SW (differentiated by F1 to F4 as necessary) on the image display unit 21. Here, each of the frames F1 to F4 corresponds to each of the operation buttons SW1 to SW4.

選択モードでは、選択用画像のページ切替時(図3(a)参照)と撮像動画の選択時(図3(b)参照)とで、各操作釦SWに異なる機能が割り当てられている。選択用画像のページ切替時においては、操作釦SW1に選択モードを終了して待機モードに移行する機能、操作釦SW4に次の選択用画像を表示させるページ送り機能、操作釦SW2に前の選択用画像を表示させるページ戻し機能、操作釦SW3に選択用画像のページ切替から撮像動画の選択に移行する機能がそれぞれ割り当てられる。一方、撮像動画の選択時においては、撮像動画選択用の選択枠Cが表示される。そして、操作釦SW1に撮像動画の選択から選択用画像の選択に移行する機能、操作釦SW3に選択枠Cで囲まれている撮像動画(すなわち選択中の撮像動画)の再生を開始させる(すなわち再生モードに移行する)機能、操作釦SW4に選択枠Cを順番が後の撮像動画に移動させる送り機能、操作釦SW2に選択枠Cを順番が前の撮像動画に移動させる戻し機能がそれぞれ割り当てられている。そのため、図3(a),(b)それぞれでは、各フレームF1〜F4で表示する画像は対応する操作釦SW1〜SW4の機能を表示するものになっている。   In the selection mode, different functions are assigned to the operation buttons SW when the page of the selection image is switched (see FIG. 3A) and when the captured moving image is selected (see FIG. 3B). When switching the page of the selection image, the operation button SW1 ends the selection mode and shifts to the standby mode, the operation button SW4 displays the next selection image, and the operation button SW2 selects the previous selection. The page return function for displaying the image for use and the function for shifting from the page switching of the image for selection to the selection of the captured moving image are assigned to the operation button SW3. On the other hand, when selecting a captured moving image, a selection frame C for selecting a captured moving image is displayed. Then, the operation button SW1 starts the reproduction of the captured moving image (that is, the selected captured moving image) surrounded by the selection frame C with the function of shifting from the selection of the captured moving image to the selection of the selection image, and the operation button SW3 (that is, the selected captured moving image). A function for shifting to the playback mode), a feed function for moving the selection frame C to the next captured moving image to the operation button SW4, and a return function for moving the selection frame C to the previous captured moving image for the operation button SW2. It has been. Therefore, in each of FIGS. 3A and 3B, the image displayed in each of the frames F1 to F4 displays the function of the corresponding operation button SW1 to SW4.

設定モードは、選択用画像で表示する撮像動画の順番および種類と、サムネイル画像Sのサイズ(一度に表示するサムネイル画像Sの数)とを設定するための設定画面を親機2にて表示する動作モードである。この設定モードでは、設定画像作成部24で作成される設定画像が表示画像合成25により画像表示部21に表示される。   In the setting mode, the base unit 2 displays a setting screen for setting the order and type of captured moving images to be displayed as selection images and the size of the thumbnail images S (the number of thumbnail images S to be displayed at one time). It is an operation mode. In this setting mode, the setting image created by the setting image creation unit 24 is displayed on the image display unit 21 by the display image composition 25.

設定画像作成部24は、図4(a)に示すように、設定する項目、例えば、「表示順」、「表示時間帯」、「表示機器」、「サイズ」の4項目を表示する設定画像(基本設定画像)を作成する。設定モードにおいてもフレームF1〜F4が表示され、図4(a)に示す設定画像が表示されている際には、操作釦SW1に設定モードを終了して待機モードに移行する機能、操作釦SW3に項目を決定する機能、操作釦SW4に項目の送り機能、操作釦SW2に項目の戻し機能がそれぞれ割り当てられる。なお、項目の選択には図3(b)に示すような選択枠Cを表示してもよいし、選択中の項目を表す文字の色を他とは異ならせるようにしてもよい。   As shown in FIG. 4A, the setting image creating unit 24 displays setting items, for example, four items of “display order”, “display time zone”, “display device”, and “size”. Create a (basic setting image). In the setting mode, when the frames F1 to F4 are displayed and the setting image shown in FIG. 4A is displayed, the operation button SW3 has a function to end the setting mode and shift to the standby mode. A function for determining an item, an item sending function for the operation button SW4, and an item return function for the operation button SW2 are assigned. For selection of items, a selection frame C as shown in FIG. 3B may be displayed, or the character color representing the item being selected may be different from the others.

ここで、「表示順」は、選択用画像で表示する撮像動画の順番を決定する項目であり、本実施形態では、親機2において撮像動画を受け取った日時が新しい順と古い順との2種類としている。そのため、「表示順」が選択された場合には、設定画像作成部24は、図4(b)に示すように、現在設定中の項目を示す「表示順設定」と、設定項目を示す「新しい順」および「古い順」とを表示する設定画像(表示順設定画像)を作成する。この場合もフレームF1〜F4が表示され、操作釦SW1に表示順の設定を終了する機能(基本設定画像の表示に戻る機能)、操作釦SW3に設定項目を決定する機能、操作釦SW4に設定項目の送り機能、操作釦SW2に設定項目の戻し機能がそれぞれ割り当てられる。   Here, the “display order” is an item that determines the order of the captured moving images to be displayed in the selection image. In this embodiment, the date and time when the captured moving images are received by the parent device 2 is 2 in the order of newest and oldest. It's kind. Therefore, when “display order” is selected, the setting image creation unit 24, as shown in FIG. 4B, “display order setting” indicating the currently set item, and “ A setting image (display order setting image) for displaying “new order” and “old order” is created. In this case as well, frames F1 to F4 are displayed, a function for ending the display order setting on the operation button SW1 (a function for returning to display of the basic setting image), a function for determining setting items on the operation button SW3, and a setting on the operation button SW4. An item sending function and a setting item returning function are assigned to the operation button SW2.

そして、「新しい順」が選択されると、画像処理部22が実行する選択用画像表示処理において、上述の撮像日時が新しい順にサムネイル画像Sを並べてなる選択用画像が作成される。例えば、図3(a)に示すように、サムネイル画像S1の撮像日時が最も新しく、以後、サムネイル画像S2,S3,S4,S5,S6,S7,S8,S9,S10,S11,S12の順に撮像日時が古くなる選択用画像が作成される。一方、「古い順」が選択されると、選択用画像表示処理において、上述の撮像日時が古い順にサムネイル画像Sを並べてなる選択用画像が作成される。例えば、図3(a)に示すように、サムネイル画像S1の撮像日時が最も古く、以後、サムネイル画像S2,S3,S4,S5,S6,S7,S8,S9,S10,S11,S12の順に撮像日時が新しくなる選択用画像が作成される。   Then, when “new order” is selected, in the selection image display process executed by the image processing unit 22, a selection image in which the thumbnail images S are arranged in the order of the latest imaging date and time is created. For example, as shown in FIG. 3A, the image capturing date and time of the thumbnail image S1 is the newest, and thereafter the thumbnail images S2, S3, S4, S5, S6, S7, S8, S9, S10, S11, and S12 are imaged in this order. An image for selection whose date and time are old is created. On the other hand, when “oldest order” is selected, in the selection image display process, a selection image in which the thumbnail images S are arranged in chronological order is created. For example, as shown in FIG. 3A, the image pickup date and time of the thumbnail image S1 is the oldest, and thereafter the thumbnail images S2, S3, S4, S5, S6, S7, S8, S9, S10, S11, and S12 are taken in this order. A selection image with a new date and time is created.

「表示時間帯」および「表示機器」は、選択用画像で表示する撮像動画の種類を決定する項目である。つまり、この項目に応じて、記憶部23に記憶されている撮像動画のうち選択用画像でサムネイル画像Sを表示する対象となる撮像動画が決定される。   “Display time zone” and “display device” are items for determining the type of captured moving image to be displayed as the selection image. That is, in accordance with this item, a captured moving image that is a target for displaying the thumbnail image S as a selection image among the captured moving images stored in the storage unit 23 is determined.

「表示時間帯」については、本実施形態では大きく分けて、全ての撮像動画を選択用画像で表示する対象とする「全表示」と、撮像日時が所定の時間帯に含まれる撮像動画を選択用画像で表示する対象とする「時間帯表示」との2種類としている。また、「時間帯表示」は、撮像日時の日時まで指定する「日時指定」と、撮像日時の時間のみを指定する「時間指定」とに分けられている。そのため、「表示時間帯」が選択された場合には、設定画像作成部24は、図4(c)に示すように、現在設定中の項目を示す「表示時間帯設定」と、設定項目を示す「全表示」および「時間帯表示」、さらに時間帯表示に含まれる「日時指定」および「時間指定」とを表示する設定画像(表示時間帯設定画像)を作成する。この場合もフレームF1〜F4が表示され、操作釦SW1に表示時間帯の設定を終了する機能(基本設定画像の表示に戻る機能)、操作釦SW3に設定項目を決定する機能、操作釦SW4に設定項目の送り機能、操作釦SW2に設定項目の戻し機能がそれぞれ割り当てられる。   In the present embodiment, the “display time zone” is roughly divided into “all display” for displaying all captured moving images as selection images, and an imaged moving image in which the imaging date and time are included in a predetermined time zone. There are two types of “time zone display” to be displayed in the image for use. The “time zone display” is divided into “date specification” for designating up to the date and time of the imaging date and “time specification” for designating only the time of the imaging date and time. For this reason, when “display time zone” is selected, the setting image creating unit 24 sets “display time zone setting” indicating the currently set item and the setting item as shown in FIG. A setting image (display time zone setting image) for displaying “all display” and “time zone display” shown, and “date and time designation” and “time designation” included in the time zone display is created. Also in this case, frames F1 to F4 are displayed, a function for ending the setting of the display time zone on the operation button SW1 (a function for returning to display of the basic setting image), a function for determining setting items on the operation button SW3, and a button for the operation button SW4. A setting item sending function and a setting item returning function are assigned to the operation button SW2.

そして、「全表示」が選択されると、画像処理部22が実行する選択用画像表示処理において、全ての撮像動画が選択用画像での表示対象に設定される。   When “all display” is selected, in the image display process for selection executed by the image processing unit 22, all captured moving images are set as display targets in the image for selection.

一方、「日時指定」が選択された場合には、設定画像作成部24は、図4(d)に示すように、現在設定中の内容を示す「時間帯表示の日時指定」と、日時指定の開始日時および終了日時を表示する設定画像(日時設定画像)を作成する。この場合もフレームF1〜F4が表示され、操作釦SW1に日時指定の設定を終了する機能(表示時間帯設定画像の表示に戻る機能)、操作釦SW3に開始日時と終了日時の入力に移行する機能および各日時の入力を決定する機能、操作釦SW4に開始日時と終了日時の入力選択用の送り機能および各日時の数字送り機能、操作釦SW2に開始日時と終了日時の入力選択用の戻し機能および各日時の数字戻し機能がそれぞれ割り当てられる。   On the other hand, when “specify date and time” is selected, the setting image creation unit 24, as shown in FIG. 4D, “date and time designation for time zone display” indicating the content currently being set, and date and time designation. Create a setting image (date setting image) that displays the start date and time and end date and time. In this case as well, the frames F1 to F4 are displayed, and the operation button SW1 is set to end the date and time designation setting (function to return to display of the display time zone setting image), and the operation button SW3 is shifted to input of the start date and time and the end date and time. Function and function for determining the input of each date, operation button SW4 is a feed function for input selection of start date and end date and time, and a numeric feed function for each date and time, operation button SW2 is a return for input selection of start date and time and end date and time A function and a numeric return function for each date and time are assigned.

そして、開始日時および終了日時が入力されると、画像処理部22が実行する選択用画像表示処理において、撮像時刻が、上記開始日時から上記終了日時に含まれる撮像動画(記憶部23に記憶された複数の撮像画像群のうち所定の時間帯に親機2が受け取った撮像画像群よりなる第2の撮像画像群)のみが選択用画像での表示対象に設定される。   Then, when the start date and time and the end date and time are input, in the selection image display process executed by the image processing unit 22, the imaging time is stored in the storage unit 23 from the start date to the end date and time. Of the plurality of captured image groups, only the second captured image group consisting of captured image groups received by the base unit 2 in a predetermined time zone is set as a display target in the selection image.

また、「時間指定」が選択された場合には、設定画像作成部24は、図4(e)に示すように、現在設定中の内容を示す「時間帯表示の時間指定」と、時間指定の開始時間および終了時間を表示する設定画像(時間設定画像)を作成する。この場合もフレームF1〜F4が表示され、操作釦SW1に時間指定の設定を終了する機能(表示時間帯設定画像の表示に戻る機能)、操作釦SW3に開始時間と終了時間の入力に移行する機能および各時間の入力を決定する機能、操作釦SW4に開始時間と終了時間の入力選択用の送り機能および各時間の数字送り機能、操作釦SW2に開始時間と終了時間の入力選択用の戻し機能および各時間の数字戻し機能がそれぞれ割り当てられる。   When “time specification” is selected, the setting image creation unit 24, as shown in FIG. 4E, “time specification for time zone display” indicating the content currently set, and time specification. A setting image (time setting image) for displaying the start time and the end time of is created. Also in this case, the frames F1 to F4 are displayed, and the operation button SW1 is set to end the time designation setting (function to return to the display of the display time zone setting image), and the operation button SW3 is shifted to input of the start time and end time. Function and function for determining the input of each time, operation button SW4 for a feed function for input selection of start time and end time, and a function for feeding numbers for each time, return to operation button SW2 for input selection of start time and end time A function and a numeric return function for each time are assigned.

そして、開始時刻および終了時刻が入力されると、画像処理部22が実行する選択用画像表示処理において、撮像時刻が、上記開始時刻から上記終了時刻に含まれる撮像動画(記憶部23に記憶された複数の撮像画像群のうち所定の時間帯に親機2が受け取った撮像画像群よりなる第2の撮像画像群)のみが選択用画像での表示対象に設定される。   Then, when the start time and the end time are input, in the selection image display processing executed by the image processing unit 22, the imaging time is stored in the storage unit 23 from the start time to the end time. Of the plurality of captured image groups, only the second captured image group consisting of captured image groups received by the base unit 2 in a predetermined time zone is set as a display target in the selection image.

このように本実施形態の親機2では、入力部26および制御部27によって、画像処理部22において第1の撮像画像群と第2の撮像画像群とのいずれを用いるかの選択に使用される選択入力手段が構成される。   As described above, in the base unit 2 of the present embodiment, the input unit 26 and the control unit 27 are used to select which of the first captured image group and the second captured image group is used in the image processing unit 22. Selection input means is configured.

「表示機器」については、本実施形態では、撮像装置1Aを示す「センサカメラA」と、撮像装置1Bを示す「センサカメラB」との2種類である。そのため、「表示機器」が選択された場合には、設定画像作成部24は、図4(f)に示すように、現在設定中の項目を示す「表示機器帯設定」と、表示機器を示す「センサカメラA」および「センサカメラB」、さらに各表示機器で撮像された撮像動画を表示対象とするか否かを示す「ON」または「OFF」とを表示する設定画像(表示機器設定画像)を作成する。この場合もフレームF1〜F4が表示され、操作釦SW1に表示機器の設定を終了する機能(基本設定画像の表示に戻る機能)、操作釦SW3に「ON」と「OFF」を切り替える機能、操作釦SW2,4にセンサカメラA,Bを切り替える機能がそれぞれ割り当てられる。   In this embodiment, there are two types of “display device”: “sensor camera A” indicating the imaging device 1A and “sensor camera B” indicating the imaging device 1B. Therefore, when “display device” is selected, the setting image creation unit 24 indicates “display device band setting” indicating the item currently being set and the display device, as shown in FIG. “Sensor Camera A” and “Sensor Camera B”, and a setting image (display device setting image) that displays “ON” or “OFF” indicating whether or not the captured moving image captured by each display device is to be displayed. ). Also in this case, the frames F1 to F4 are displayed, a function for ending the setting of the display device on the operation button SW1 (a function for returning to display of the basic setting image), a function for switching “ON” and “OFF” for the operation button SW3, and an operation A function of switching between the sensor cameras A and B is assigned to the buttons SW2 and SW4, respectively.

ここで「センサカメラA」について「ON」が選択されると、画像処理部22が実行する選択用画像表示処理において、撮像装置1Aで撮像された撮像画像群が選択用画像での表示対象に設定され、「OFF」が選択されると表示対象から除外される。また、「センサカメラB」について「ON」が選択されると、画像処理部22が実行する選択用画像表示処理において、撮像装置1Bで撮像された撮像画像群が選択用画像での表示対象に設定され、「OFF」が選択されると表示対象から除外される。   Here, when “ON” is selected for “sensor camera A”, in the selection image display process executed by the image processing unit 22, the captured image group captured by the imaging device 1 A is set as a display target in the selection image. When it is set and “OFF” is selected, it is excluded from the display target. In addition, when “ON” is selected for “sensor camera B”, in the selection image display process executed by the image processing unit 22, the captured image group captured by the imaging device 1 B is set as a display target in the selection image. When it is set and “OFF” is selected, it is excluded from the display target.

したがって、「センサカメラA」,「センサカメラB」についての「on」,「off」の組み合わせによって、選択用画像で表示対象とする撮像画像群の種類が設定される。具体的には、「センサカメラA」,「センサカメラB」の両方が「on」であれば、撮像装置1a,1bの両方で撮像された撮像画像群が表示対象とされ、「センサカメラA」のみが「on」であれば、撮像装置1aで撮像された撮像画像群のみが表示対象とされ、「センサカメラB」のみが「on」であれば、撮像装置1bで撮像された撮像画像群のみが表示対象とされる。   Accordingly, the type of captured image group to be displayed in the selection image is set by the combination of “on” and “off” for “sensor camera A” and “sensor camera B”. Specifically, if both “sensor camera A” and “sensor camera B” are “on”, a group of captured images captured by both of the imaging devices 1a and 1b is set as a display target, and “sensor camera A” If only “on” is “on”, only a group of captured images captured by the imaging device 1a is a display target. If only “sensor camera B” is “on”, the captured image captured by the imaging device 1b is displayed. Only groups are displayed.

このような「表示時間帯」および「表示機器」について適宜設定することによって、例えば、選択用画像では、記憶部23に記憶されている撮像動画から、撮像装置1Aで撮像された撮像動画のみを選択し、かつその撮像日時を日時や時刻により限定することが可能であり、使用者が必要と考える撮像動画に関するサムネイル画像のみが選択用画像に表示される。   By appropriately setting such “display time zone” and “display device”, for example, in the selection image, only the captured moving image captured by the imaging device 1A is captured from the captured moving image stored in the storage unit 23. The selection date and time can be limited by the date and time, and only the thumbnail images related to the captured moving image that the user thinks necessary are displayed in the selection image.

「サイズ」は、選択用画像で表示するサムネイル画像Sのサイズを決定する項目である。本実施形態では、サムネイル画像のサイズを種々のサイズ、例えば「80×60」、「100×75」、「120×90」、「140×105」などから選択することができるようにしている。そのため、「サイズ」が選択された場合には、設定画像作成部24は、図4(g)に示すように、現在設定中の項目を示す「サイズ設定」と、サイズを示す「80×60」、「100×75」、「120×90」、「140×105」などを表示する設定画像(サイズ設定画像)を作成する。この場合もフレームF1〜F4が表示され、操作釦SW1にサイズの設定を終了する機能(基本設定画像の表示に戻る機能)、操作釦SW3にサイズを決定する機能、操作釦SW4に選択するサイズの送り機能、操作釦SW2に選択するサイズの戻し機能がそれぞれ割り当てられる。したがって、本実施形態の監視システムでは、親機2の入力部26と制御部27とによって、サムネイル画像Sのサイズの入力に使用されるサイズ入力手段が構成される。   “Size” is an item for determining the size of the thumbnail image S to be displayed as the selection image. In the present embodiment, the size of the thumbnail image can be selected from various sizes such as “80 × 60”, “100 × 75”, “120 × 90”, “140 × 105”, and the like. Therefore, when “size” is selected, the setting image creating unit 24, as shown in FIG. 4G, “size setting” indicating the currently set item and “80 × 60” indicating the size. ”,“ 100 × 75 ”,“ 120 × 90 ”,“ 140 × 105 ”, and the like are created. Also in this case, the frames F1 to F4 are displayed, the function for ending the size setting on the operation button SW1 (function for returning to display of the basic setting image), the function for determining the size on the operation button SW3, and the size selected for the operation button SW4 , And a function for returning the selected size are assigned to the operation button SW2. Therefore, in the monitoring system of the present embodiment, the input unit 26 and the control unit 27 of the parent device 2 constitute a size input unit used for inputting the size of the thumbnail image S.

サイズ入力手段によりいずれかのサイズが選択されると、画像処理部22は、サイズ入力手段で入力されたサイズに応じて選択用画像に使用するサムネイル画像Sのサイズを変更するサイズ変更処理を実行する。また、画像処理部22は、サイズ入力手段で入力されたサイズに応じて画像表示部21に一度に表示させるサムネイル画像Sの数を変更する表示数変更処理を実行する。本実施形態における表示数変更処理は、サムネイル画像Sのサイズが大きくなればなるほど画像表示部21に一度に表示させるサムネイル画像Sの数を減らし、サムネイル画像Sのサイズが小さくなればなるほど画像表示部21に一度に表示させるサムネイル画像Sの数を増やす。   When any size is selected by the size input unit, the image processing unit 22 executes a size change process for changing the size of the thumbnail image S used for the selection image according to the size input by the size input unit. To do. In addition, the image processing unit 22 executes a display number changing process for changing the number of thumbnail images S to be displayed on the image display unit 21 at a time according to the size input by the size input unit. In the display number changing process in the present embodiment, the larger the thumbnail image S size, the smaller the number of thumbnail images S displayed on the image display unit 21 at a time, and the smaller the thumbnail image S size, the image display unit. The number of thumbnail images S to be displayed on 21 at a time is increased.

例えば、図3(a)に示すように、画像表示部21に一度に表示するサムネイル画像Sの数が12であり、このときのサムネイル画像Sのサイズが「120×90」であるとする。この状態において、サイズ入力手段により「100×75」が選択されると、画像処理部22は、サイズ変更処理および表示数変更処理を実行することにより、サムネイル画像Sのサイズを「120×90」から「100×75」に変更するとともに、画像表示部21で表示するサムネイル画像Sの数を12から20に増やす。これによって、画像処理部22は、図5(a)に示すように、サイズが「100×75」のサムネイル画像S(図示例ではS1〜S20)を画像表示部21に一度(一画面)に20枚表示する設定用画像を作成する。   For example, as shown in FIG. 3A, it is assumed that the number of thumbnail images S displayed at a time on the image display unit 21 is 12, and the size of the thumbnail images S at this time is “120 × 90”. In this state, when “100 × 75” is selected by the size input means, the image processing unit 22 executes the size changing process and the display number changing process, thereby setting the size of the thumbnail image S to “120 × 90”. The number of thumbnail images S displayed on the image display unit 21 is increased from 12 to 20. As a result, as shown in FIG. 5A, the image processing unit 22 displays the thumbnail image S (S1 to S20 in the illustrated example) having a size of “100 × 75” on the image display unit 21 once (one screen). A setting image to be displayed is created.

一方、サイズ入力手段により「140×105」が選択されると、画像処理部22は、サムネイル画像Sのサイズを「120×90」から「140×105」に変更するとともに、画像表示部21で表示するサムネイル画像Sの数を12から6に減らす。これによって、画像処理部22は、図5(b)に示すように、サイズが「140×105」のサムネイル画像S(図示例ではS1〜S6)を画像表示部21に一度(一画面)に6枚表示する設定用画像を作成する。   On the other hand, when “140 × 105” is selected by the size input means, the image processing unit 22 changes the size of the thumbnail image S from “120 × 90” to “140 × 105” and the image display unit 21 The number of thumbnail images S to be displayed is reduced from 12 to 6. As a result, as shown in FIG. 5B, the image processing unit 22 displays the thumbnail image S (S1 to S6 in the illustrated example) having a size of “140 × 105” on the image display unit 21 once (one screen). Create a setting image to display six sheets.

このように設定モードでは、選択モードで表示する選択用画像の種々の設定を行うことが可能である。   As described above, in the setting mode, various settings of the selection image displayed in the selection mode can be performed.

以上述べたように、図1に示すインターホンシステムでは、2つの撮像装置1と、親機2とにより監視システムが構成されている。   As described above, in the intercom system shown in FIG. 1, the monitoring system is configured by the two imaging devices 1 and the parent device 2.

そして、監視システムを構成する撮像装置1は、撮像部10で撮像された画像に対して画像処理を行うことで対象物の検出を行う対象物検出手段13aと、対象物検出手段13aの検出結果を利用して上記所定領域に対象物が存在するか否かを判定する存否判定手段(制御部16)と、存否判定手段により対象物が存在すると判定されると対象物の検出時刻を含む所定時間内に撮像部10で撮像された画像群を親機2に伝送する画像伝送手段(データ処理部11および伝送部14)と、画像伝送手段より親機2に伝送される撮像画像群のなかから当該撮像画像群の特徴が表れている特徴画像を選択する特徴画像選択手段13bとを備える。   And the imaging device 1 which comprises a monitoring system is the detection result of the target detection means 13a which detects a target object by performing image processing with respect to the image imaged by the imaging part 10, and the detection result of the target object detection means 13a. Presence / absence determination means (control unit 16) for determining whether or not an object exists in the predetermined area using the above, and a predetermined time including the detection time of the object when the presence / absence determination means determines that the object exists. Among the image transmission means (data processing section 11 and transmission section 14) for transmitting the image group captured by the imaging section 10 to the master unit 2 in time, and among the captured image group transmitted to the master unit 2 from the image transmission means. And a feature image selection means 13b for selecting a feature image in which the feature of the captured image group appears.

一方、親機2は、画像伝送手段より伝送された撮像画像群が記憶される画像記憶手段(記憶部23)と、画像記憶手段に記憶された撮像画像群に含まれる撮像画像を時系列順に画像表示部21に表示する第1の表示手段(画像処理部22)と、画像記憶手段に記憶された複数の撮像画像群のなかから第1の表示手段により画像表示部21に表示させる撮像画像群を選択する際に使用される選択用画像を作成して画像表示部21に表示させる第2の表示手段(画像処理部22)とを備え、第2の表示手段は、選択用画像を作成するにあたっては、撮像画像群を表示させる画像として当該撮像画像群に対応する特徴画像を用いる。   On the other hand, the base unit 2 stores the captured image group transmitted from the image transmission unit (storage unit 23) and the captured images included in the captured image group stored in the image storage unit in chronological order. A captured image to be displayed on the image display unit 21 by the first display unit from the first display unit (image processing unit 22) displayed on the image display unit 21 and a plurality of captured image groups stored in the image storage unit. A second display unit (image processing unit 22) for generating an image for selection used when selecting a group and displaying the image on the image display unit 21; the second display unit generates an image for selection; In this case, a feature image corresponding to the captured image group is used as an image for displaying the captured image group.

そして、撮像装置1の特徴画像選択手段13bは、対象物検出手段13aで実行される画像処理の結果を利用して特徴画像を選択する。   Then, the feature image selection unit 13b of the imaging device 1 selects a feature image using the result of the image processing executed by the object detection unit 13a.

このような監視システムによれば、第1の表示手段(画像処理部22)により画像表示部21に表示する撮像画像群を選択する際に使用される選択用画像においては、撮像画像群を表示する画像として、当該撮像画像群のなかから撮像画像群の特徴が表れている撮像画像として選択された特徴画像が用いられる。そのため特徴画像を見ることによって、当該特徴画像に対応する撮像画像群の内容をおおまかに知ることができる。したがって、撮像画像群を逐一第1の表示手段(画像処理部22)により画像表示部21に表示させてその内容を確認する必要がなくなる。その結果、撮像画像群の確認作業にかかる時間および労力を低減することができる。   According to such a monitoring system, the captured image group is displayed in the selection image used when the captured image group to be displayed on the image display unit 21 is selected by the first display unit (image processing unit 22). As the image to be used, a feature image selected as a captured image in which the feature of the captured image group appears from the captured image group is used. Therefore, by viewing the feature image, it is possible to roughly know the contents of the captured image group corresponding to the feature image. Therefore, it is not necessary to display the captured image group on the image display unit 21 by the first display means (image processing unit 22) one by one. As a result, it is possible to reduce the time and labor required for confirming the captured image group.

また、監視システムにおける対象物は移動体である人であって、対象物検出手段13aは、画像処理として、上記移動体検出処理と、上記特徴量演算処理と、上記対象物判定処理とを実行する。一方、特徴画像選択手段13bは、上記評価値演算処理と、上記選択処理とを実行する。ここで、上記評価値演算処理は、上記特徴量演算処理により演算された特徴量から特徴画像選択用の評価値を演算する処理である。   In addition, the object in the monitoring system is a person who is a moving object, and the object detection unit 13a executes the moving object detection process, the feature amount calculation process, and the object determination process as image processing. To do. On the other hand, the feature image selection unit 13b executes the evaluation value calculation process and the selection process. Here, the evaluation value calculation process is a process of calculating an evaluation value for feature image selection from the feature quantity calculated by the feature quantity calculation process.

つまり、特徴画像選択手段13bでは、対象物検出手段12aで行う画像処理の結果を利用して特徴画像の選択を行う。そのため、特徴画像を選択する処理にかかる負荷を低減することができる。したがって、撮像装置1における処理時間の短縮化を図ることができる。   That is, the feature image selection unit 13b selects a feature image using the result of image processing performed by the object detection unit 12a. Therefore, it is possible to reduce the load on the process of selecting the feature image. Therefore, the processing time in the imaging apparatus 1 can be shortened.

また、画像処理部22で作成される選択用画像は、特徴画像を縮小してなるサムネイル画像Sを所定の順序で並べてなる画像であるので(図3および図5参照)、選択用画像において複数の撮像画像群のサムネイル画像Sを見ることができるから、撮像画像群の確認作業にかかる時間および労力をさらに低減することができる。   Further, the selection image created by the image processing unit 22 is an image in which thumbnail images S formed by reducing feature images are arranged in a predetermined order (see FIGS. 3 and 5). Since the thumbnail images S of the captured image group can be viewed, it is possible to further reduce the time and labor required for the confirmation operation of the captured image group.

しかも、上記所定の順序は、上記撮像日時順であるので、サムネイル画像Sの順序によって、親機2において撮像画像群を受け取った順番を把握することができ、撮像画像群が新しいか古いかが一目で分かるから、撮像画像群の確認作業にかかる時間および労力をさらに低減することができる。特に、上記撮像日時が新しい順にサムネイル画像Sを並べることによって、更新内容を即時に知ることができる。   In addition, since the predetermined order is the order of the imaging date and time, the order in which the captured image group is received in the parent device 2 can be grasped based on the order of the thumbnail images S, and whether the captured image group is new or old is at a glance. Therefore, it is possible to further reduce the time and labor required for confirming the captured image group. In particular, by arranging the thumbnail images S in order from the most recent imaging date and time, the updated contents can be immediately known.

さらに、第2の表示手段(画像処理部22)は、選択用画像を作成するにあたっては、画像記憶手段(記憶部23)に記憶された複数の撮像画像群のうち所定の撮像装置1で撮像された撮像画像群(第1の撮像画像群)のみを用いることで、撮像装置1別に選択用画像を表示することができるから、撮像画像群の確認作業にかかる時間および労力をさらに低減することができる。また、第2の表示手段(画像処理部22)は、選択用画像を作成するにあたっては、画像記憶手段(記憶部23)に記憶された複数の撮像画像群のうち所定の時間帯に親機2が受け取った撮像画像群(第2の撮像画像群)のみを用いることで、親機2が撮像装置1から撮像画像群を受け取った時間帯別に選択用画像を表示することができるから、撮像画像群の確認作業にかかる時間および労力をさらに低減することができる。さらに、第2の表示手段(画像処理部22)は、選択用画像を作成するにあたっては、上記第1の撮像画像群と第2の撮像画像群との両方に含まれる撮像画像群よりなる第3の撮像画像群のみを用いることで、撮像装置1別かつ親機2が撮像装置1から撮像画像群を受け取った時間帯別に選択用画像を表示することができるから、撮像画像群の確認作業にかかる時間および労力をさらに低減することができる。   Further, when the second display means (image processing unit 22) creates the selection image, the second display means (image processing unit 22) picks up an image with a predetermined image pickup device 1 out of a plurality of picked-up image groups stored in the image storage means (storage unit 23). By using only the captured image group (first captured image group), it is possible to display the selection image for each imaging device 1, and therefore further reduce the time and labor required for confirming the captured image group. Can do. The second display unit (image processing unit 22), when creating the selection image, sets the master unit in a predetermined time zone among a plurality of captured image groups stored in the image storage unit (storage unit 23). By using only the captured image group (second captured image group) received by 2, the base unit 2 can display the selection image according to the time period when the captured image group is received from the imaging device 1. It is possible to further reduce the time and labor required for checking the image group. Further, the second display means (the image processing unit 22), when creating the selection image, includes a captured image group that is included in both the first captured image group and the second captured image group. By using only the three captured image groups, the selection image can be displayed for each imaging device 1 and for each time zone when the parent device 2 receives the captured image group from the imaging device 1. Time and labor can be further reduced.

加えて、親機2では、第1の撮像画像群、第2の撮像画像群、および第3の撮像画像群のいずれを用いるかを選択することができるから、撮像画像群の確認作業にかかる時間および労力をさらに低減することができる。   In addition, since the parent device 2 can select which of the first captured image group, the second captured image group, and the third captured image group is used, it takes a confirmation operation of the captured image group. Time and labor can be further reduced.

また、画像処理部22は、入力されたサイズに応じて選択用画像に使用するサムネイル画像Sのサイズを変更するサイズ変更処理と、入力されたサイズに応じて画像表示部21に一度に表示するサムネイル画像Sの数を変更する表示数変更処理とを実行するので、サムネイル画像Sの見易さと一度に確認できるサムネイル画像Sの数とのバランスを使用者の好みに応じて変更することができるから、使い勝手が向上し、また、撮像画像群の確認作業にかかる時間および労力をさらに低減することができる。   In addition, the image processing unit 22 changes the size of the thumbnail image S used for the selection image according to the input size, and displays it on the image display unit 21 at once according to the input size. Since the display number changing process for changing the number of thumbnail images S is executed, the balance between the visibility of the thumbnail images S and the number of thumbnail images S that can be confirmed at a time can be changed according to the user's preference. Therefore, the usability is improved, and the time and labor required for confirming the captured image group can be further reduced.

ところで、画像処理部13の対象物検出手段13aおよび特徴画像選択手段13bで行う処理は上記の例に限定されず、例えば次のようにしてもよい。   By the way, the processing performed by the object detection unit 13a and the feature image selection unit 13b of the image processing unit 13 is not limited to the above example, and may be as follows, for example.

すなわち、対象物検出手段13aにおける特徴量演算処理は、移動体検出処理により得られた移動領域から、撮像画像の下端縁に対する移動領域の最下端の高さを演算するようにしてもよい。この例では、撮像画像の下端縁に対する移動領域の最下端の高さ(換言すれば移動領域の位置)を特徴量として用いる。ただし、撮像画像の下端縁に対する移動領域の最下端の高さが0(撮像画像の下端縁と移動領域の最下端とが同じ)になる移動領域は次の検出処理の対象から除外される。   That is, the feature amount calculation processing in the object detection unit 13a may calculate the height of the lowermost end of the moving region with respect to the lower end edge of the captured image from the moving region obtained by the moving body detection processing. In this example, the height of the lowermost end of the moving area with respect to the lower end edge of the captured image (in other words, the position of the moving area) is used as the feature amount. However, a moving area in which the height of the lowermost end of the moving area with respect to the lower end edge of the captured image is 0 (the lower end edge of the captured image is the same as the lowermost end of the moving area) is excluded from the next detection processing target.

検出処理は、移動体の特徴量(すなわち移動領域の位置)が、人体判定用の下限値以上かつ人体判定用の上限値以下であれば、当該移動体は人であると判定し、それ以外(人体判定用の下限値未満、あるいは人体判定用の上限値超過)であれば、当該移動体は人ではないと判定する処理を行う。ここで、人体判定用の下限値および上限値は、撮像部10の撮像素子の画素数やサイズ、撮像部10の設置位置、実際に撮像画像に写った人に対応する移動領域の位置、想定される移動領域の位置など種々の観点から好適な値に決定される。   The detection process determines that the moving body is a person if the feature amount of the moving body (that is, the position of the moving area) is not less than the lower limit value for human body determination and not more than the upper limit value for human body determination. If it is less than the lower limit for human body determination or exceeds the upper limit for human body determination, a process for determining that the mobile body is not a person is performed. Here, the lower limit value and the upper limit value for human body determination are the number and size of pixels of the imaging element of the imaging unit 10, the installation position of the imaging unit 10, the position of the moving region corresponding to the person actually captured in the captured image, and the assumption. It is determined to be a suitable value from various viewpoints such as the position of the moving area to be moved.

特徴画像選択手段13bの評価値演算処理では、特徴量をそのまま評価値として用いる。当該評価値演算処理で演算された評価値は、撮像画像の上記識別符号などと関連付けられて記憶部12に記憶される。そして、選択処理では、撮像画像群に含まれる撮像画像の評価値を記憶部12より読み出し、最も評価値が小さい撮像画像を特徴画像として選択する。   In the evaluation value calculation process of the feature image selection unit 13b, the feature amount is used as an evaluation value as it is. The evaluation value calculated in the evaluation value calculation process is stored in the storage unit 12 in association with the identification code of the captured image. In the selection process, the evaluation value of the captured image included in the captured image group is read from the storage unit 12, and the captured image having the smallest evaluation value is selected as the feature image.

すなわち、この例では、特徴画像選択手段13bは、人の位置を選択基準として人が最も撮像装置の近くに位置している撮像画像を特徴画像として選択するのである。   That is, in this example, the feature image selection unit 13b selects, as a feature image, a captured image in which a person is closest to the imaging device with the position of the person as a selection criterion.

この他の例としては、特徴画像選択手段13bは、同様に人の位置を選択基準とし、人が所定範囲内に位置している撮像画像を特徴画像として選択するようにしてもよい。   As another example, the feature image selection unit 13b may similarly select a captured image in which a person is located within a predetermined range as a feature image using the position of the person as a selection reference.

また、明るさを選択基準として選択することができる。この場合、人の全体(背格好や服などの全身)の明るさ、あるいは人の顔の明るさを選択基準とすることが考えられる。ここで、人の全身と顔とを区別して考えるのは、人の全身(例えば着ている服)と人の顔とで反射率が大きく異なる場合があるからである。例えば、人の顔に比べて服の反射率が高い場合、人の全体の明るさを選択基準とすれば、顔が暗くなり特徴が分かり難くなることがある。逆に人の顔の明るさを選択基準とすれば、服が白とびをして全体の特徴が分かり難くなることがある。   Also, brightness can be selected as a selection criterion. In this case, it is conceivable that the brightness of the entire person (the whole body such as the back and clothes) or the brightness of the face of the person is used as the selection criterion. Here, the reason why a person's whole body and face are distinguished from each other is that the reflectance may differ greatly between the person's whole body (for example, clothes worn) and the person's face. For example, when the reflectance of clothes is higher than that of a person's face, if the brightness of the whole person is used as a selection criterion, the face becomes dark and the characteristics may be difficult to understand. On the other hand, if the brightness of a person's face is used as a selection criterion, clothes may be overexposed and the overall characteristics may be difficult to understand.

したがって、人の全体の特徴を見たい場合には、人の全体の明るさを選択基準として適度な明るさで写っている撮像画像を特徴画像として選択するようにすればよい。一方、人の顔の特徴を見たい場合には、人の顔の明るさを選択基準として適度な明るさで写っている撮像画像を特徴画像として選択するようにすればよい。   Therefore, when it is desired to see the characteristics of the entire person, a captured image that is captured with appropriate brightness can be selected as the feature image using the brightness of the entire person as a selection criterion. On the other hand, when it is desired to see the characteristics of a person's face, a picked-up image that is captured with appropriate brightness can be selected as a feature image using the brightness of the person's face as a selection criterion.

このように、上記の特徴画像選択手段13bでは、特徴画像の選択基準として、種々の選択基準を採用することができる。例えば上記の他に、特徴画像選択手段13bは、撮像画像に写っている人の数を選択基準として写っている人の数が多い撮像画像を特徴画像として選択するようにしてもよいし、人の顔の大きさを選択基準として人の顔が大きく写っている撮像画像を特徴画像として選択するようにしてもよいし、人の顔の角度を選択基準として人の顔が正面を向いている撮像画像を特徴画像として選択するようにしてもよい。また、特徴画像の選択基準は上記の例に限定されず、使用者の好みに応じて適宜選択できるようにしてもよい。さらに、特徴画像選択手段13bでは、複数の選択基準を用いて特徴画像の選択を行うようにしてもよく、この場合は、選択基準毎に優先順位を設定して、特徴画像を選択するようにすればよい。   Thus, the feature image selection means 13b can employ various selection criteria as feature image selection criteria. For example, in addition to the above, the feature image selection unit 13b may select, as a feature image, a captured image having a large number of people who are captured using the number of people captured in the captured image as a selection criterion. A picked-up image in which a person's face is large can be selected as a feature image using the size of the face as a selection criterion, or the person's face is facing the front using the angle of the person's face as a selection criterion A captured image may be selected as a feature image. The feature image selection criterion is not limited to the above example, and may be appropriately selected according to the user's preference. Further, the feature image selection means 13b may select feature images using a plurality of selection criteria. In this case, a priority order is set for each selection criteria and feature images are selected. do it.

本実施形態において、特徴画像選択手段13bは、例えば図6(a)に示すように、画像伝送手段より親機2に伝送される撮像画像群(撮像画像P1〜P28)のなかから当該撮像画像群の特徴が表れている特徴画像を選択する。   In the present embodiment, the feature image selection unit 13b, for example, as shown in FIG. 6A, the captured image from the group of captured images (captured images P1 to P28) transmitted from the image transmission unit to the master unit 2. A feature image in which the feature of the group appears is selected.

しなしながら、特徴画像選択手段13bは、画像伝送手段より親機2に伝送される撮像画像群の一部から特徴画像を選択するようにしてもよい。例えば、特徴画像選択手段13bは、本実施形態において15FPSである撮像画像群(撮像画像P1〜P28)を、図6(b)に示すように時間軸に対して圧縮して5FPSとし、このように圧縮した撮像画像群(撮像画像P2,P5,P8,P11,P14,P17,P20,P23,P26)から特徴画像を選択するようにしてもよい。   However, the feature image selection unit 13b may select a feature image from a part of the captured image group transmitted to the master unit 2 from the image transmission unit. For example, the feature image selection means 13b compresses the captured image group (captured images P1 to P28), which is 15 FPS in this embodiment, with respect to the time axis as shown in FIG. A feature image may be selected from the group of captured images (captured images P2, P5, P8, P11, P14, P17, P20, P23, and P26).

この場合、圧縮前は28枚の撮像画像P1〜P28に対して評価値演算処理を実行する必要があるが、圧縮後は9枚の撮像画像P2,P5,P8,P11,P14,P17,P20,P23,P26に対して評価値演算処理を実行すれば済む。つまり、圧縮率に応じて評価値演算処理の実行回数を減らすことができる(上記の例では、フレームレートを3倍に圧縮しているので、実行回数を1/3程度に減らすことができる)。   In this case, it is necessary to execute the evaluation value calculation process on 28 captured images P1 to P28 before compression, but after compression, 9 captured images P2, P5, P8, P11, P14, P17, P20. , P23, and P26 need only be executed. That is, the number of executions of the evaluation value calculation process can be reduced according to the compression rate (in the above example, since the frame rate is compressed three times, the number of executions can be reduced to about 1/3). .

このように画像伝送手段より親機2に伝送される撮像画像群の一部から特徴画像を選択するようにすれば、評価値演算処理を実行する回数を減らすことができるので、特徴画像を選択する処理にかかる負荷をさらに低減することができる。そのため、撮像装置1における処理時間のさらなる短縮化を図ることができる。   In this way, if the feature image is selected from a part of the captured image group transmitted from the image transmission means to the master unit 2, the number of times of executing the evaluation value calculation process can be reduced, so the feature image is selected. The load on the processing to be performed can be further reduced. Therefore, the processing time in the imaging apparatus 1 can be further shortened.

なお、特徴画像選択手段13bにおいて撮像画像群を時間軸に対して圧縮する際の圧縮率は上記の値に限定されず、好適な値に設定すればよい。また、必ずしも、画像伝送手段より親機2に伝送される撮像画像群を時間軸に対して一律に圧縮したものから特徴画像を選択する必要はなく、例えば、検出時刻から時間が経過するほど圧縮率を段階的に大きくするようにしてもよい。要は、画像伝送手段より親機2に伝送される撮像画像群の一部から特徴画像を選択するようにすればよい。   Note that the compression rate when the captured image group is compressed with respect to the time axis in the feature image selection unit 13b is not limited to the above value, and may be set to a suitable value. Further, it is not always necessary to select a feature image from a group of captured images transmitted from the image transmission means to the base unit 2 that are uniformly compressed with respect to the time axis. For example, compression is performed as time elapses from the detection time. The rate may be increased step by step. In short, a feature image may be selected from a part of a group of captured images transmitted from the image transmission means to the master unit 2.

上述した本実施形態の監視システムの構成はあくまでも本発明の一実施形態であって、本発明の技術的範囲を上記の例に限定する趣旨ではなく、本発明の趣旨を逸脱しない程度に変更することができる。例えば、撮像装置1の数は上記の例に限定されないし、各撮像装置1は必ずしも熱線センサ15を有している必要もない。また、撮像装置1の画像処理部13で行う人体検出用の画像処理方法も上記の例に限定されず、シルエットマッチングや背景差分、エッジの方向コードを利用する方法など従来周知のものを採用することができる。さらに、本実施形態では、監視システムをインターホンシステムに適用した例を示しているが、勿論監視システム単体として使用することができるし、インターホンシステムその他のシステムにも適用することができる。   The configuration of the monitoring system of the present embodiment described above is merely an embodiment of the present invention, and is not intended to limit the technical scope of the present invention to the above example, but is changed to the extent that does not depart from the spirit of the present invention. be able to. For example, the number of the imaging devices 1 is not limited to the above example, and each imaging device 1 does not necessarily have the heat ray sensor 15. Further, the image processing method for human body detection performed by the image processing unit 13 of the imaging apparatus 1 is not limited to the above example, and a conventionally known method such as a method using silhouette matching, background difference, or edge direction code is adopted. be able to. Furthermore, in this embodiment, although the example which applied the monitoring system to the intercom system was shown, of course, it can be used as a monitoring system single-piece | unit, and can also be applied to an intercom system and other systems.

本発明の一実施形態の監視システムを適用したインターホンシステムのブロック図である。It is a block diagram of the intercom system to which the monitoring system of one embodiment of the present invention is applied. 同上のインターホンシステムの設置例を示す概略説明図である。It is a schematic explanatory drawing which shows the example of installation of the intercom system same as the above. 同上における親機の動作説明図である。It is operation | movement explanatory drawing of the main | base station in the same as the above. 同上における親機の動作説明図である。It is operation | movement explanatory drawing of the main | base station in the same. 同上における親機の動作説明図である。It is operation | movement explanatory drawing of the main | base station in the same as the above. 同上における他例の特徴画像選択手段の動作説明図である。It is operation | movement explanatory drawing of the feature image selection means of the other example same as the above.

符号の説明Explanation of symbols

1 撮像装置
2 親機(監視装置)
10 撮像部
11 画像データ処理部
13a 対象物検出手段
13b 特徴画像選択手段
14 伝送部
16 制御部(存否判定手段)
21 画像表示部
22 画像処理部(第1の表示手段,第2の表示手段)
23 記憶部(画像記憶手段)
26 入力部
1 Imaging device 2 Master unit (monitoring device)
DESCRIPTION OF SYMBOLS 10 Image pick-up part 11 Image data processing part 13a Object detection means 13b Feature image selection means 14 Transmission part 16 Control part (existence determination means)
21 Image display unit 22 Image processing unit (first display means, second display means)
23 storage unit (image storage means)
26 Input section

Claims (10)

所定領域を撮像する撮像部を備える1乃至複数の撮像装置と、画像表示部を備える監視装置とを有し、
撮像装置は、撮像部で撮像された撮像画像に対して画像処理を行うことで対象物の検出を行う対象物検出手段と、対象物検出手段の検出結果を利用して上記所定領域に対象物が存在するか否かを判定する存否判定手段と、存否判定手段により対象物が存在すると判定されると対象物の検出時刻を含む所定時間内に撮像部で撮像された撮像画像群を監視装置に伝送する画像伝送手段と、画像伝送手段より監視装置に伝送される撮像画像群のなかから当該撮像画像群の特徴が表れている特徴画像を選択する特徴画像選択手段とを備え、
監視装置は、画像伝送手段より伝送された撮像画像群が記憶される画像記憶手段と、画像記憶手段に記憶された撮像画像群に含まれる撮像画像を時系列順に画像表示部に表示させる第1の表示手段と、画像記憶手段に記憶された複数の撮像画像群のなかから第1の表示手段により画像表示部に表示させる撮像画像群を選択する際に使用される選択用画像を作成して画像表示部に表示させる第2の表示手段とを備え、
第2の表示手段は、選択用画像を作成するにあたっては、撮像画像群を表示する画像として当該撮像画像群に対応する特徴画像を用い、
特徴画像選択手段は、対象物検出手段で実行される画像処理の結果を利用して特徴画像を選択することを特徴とする監視システム。
Having one or more imaging devices including an imaging unit that images a predetermined area, and a monitoring device including an image display unit;
The imaging apparatus includes: an object detection unit that detects an object by performing image processing on a captured image captured by the imaging unit; and an object in the predetermined area using a detection result of the object detection unit. A presence / absence determination unit that determines whether or not an object exists, and a monitoring device that monitors a group of captured images captured by the imaging unit within a predetermined time including a detection time of the object when the presence / absence determination unit determines that the object is present An image transmission means for transmitting to the image data, and a feature image selection means for selecting a feature image in which the characteristics of the captured image group appear from the captured image group transmitted from the image transmission means to the monitoring device,
The monitoring apparatus stores an image storage unit that stores a group of captured images transmitted from the image transmission unit, and a first image display unit that displays captured images included in the captured image group stored in the image storage unit in time series. A selection image used when selecting a captured image group to be displayed on the image display unit by the first display unit from among the plurality of captured image groups stored in the display unit and the image storage unit Second display means for displaying on the image display unit,
In creating the selection image, the second display means uses a feature image corresponding to the captured image group as an image for displaying the captured image group,
The feature image selection means selects a feature image using a result of image processing executed by the object detection means.
上記対象物は移動体であって、
上記対象物検出手段は、上記画像処理として、少なくとも、上記撮像部で撮像された撮像画像から移動体を検出する移動体検出処理と、当該移動体検出処理により検出された移動体の特徴量を演算する特徴量演算処理と、当該特徴量演算処理により演算された特徴量を利用して移動体が対象物か否かを判定する対象物判定処理とを実行し、
上記特徴画像選択手段は、上記特徴量演算処理により演算された特徴量から特徴画像選択用の評価値を演算する評価値演算処理と、評価値演算処理で演算された評価値に基づいて上記特徴画像を選択する選択処理とを実行することを特徴とすることを請求項1記載の監視システム。
The object is a moving object,
The object detection means includes, as the image processing, at least a moving body detection process for detecting a moving body from a captured image captured by the imaging unit, and a feature amount of the moving body detected by the moving body detection process. Performing a feature amount calculation process to be calculated, and an object determination process for determining whether or not the moving object is an object using the feature amount calculated by the feature amount calculation process,
The feature image selection means is based on an evaluation value calculation process for calculating an evaluation value for selecting a feature image from a feature quantity calculated by the feature quantity calculation process, and on the evaluation value calculated by the evaluation value calculation process. The monitoring system according to claim 1, wherein selection processing for selecting an image is executed.
上記選択用画像は、上記特徴画像を縮小してなるサムネイル画像を所定の順序で並べてなる画像であることを特徴とする請求項1または2記載の監視システム。   3. The monitoring system according to claim 1, wherein the selection image is an image in which thumbnail images obtained by reducing the feature image are arranged in a predetermined order. 上記所定の順序は、上記監視装置において上記撮像画像群を受け取った日時が新しい順であることを特徴とする請求項3記載の監視システム。   4. The monitoring system according to claim 3, wherein the predetermined order is the order in which the date and time when the captured image group is received by the monitoring apparatus is new. 上記撮像装置を複数備え、
上記第2の表示手段は、上記選択用画像を作成するにあたっては、上記画像記憶手段に記憶された複数の撮像画像群のうち所定の上記撮像装置で撮像された撮像画像群のみを用いることを特徴とする請求項3または4記載の監視システム。
A plurality of the imaging devices are provided,
The second display means uses only the captured image group captured by the predetermined imaging device among the plurality of captured image groups stored in the image storage means when creating the selection image. The monitoring system according to claim 3 or 4, characterized in that
上記第2の表示手段は、上記選択用画像を作成するにあたっては、上記画像記憶手段に記憶された複数の撮像画像群のうち所定の時間帯に上記監視装置が受け取った撮像画像群のみを用いることを特徴とする請求項3または4記載の監視システム。   The second display means uses only the picked-up image group received by the monitoring device in a predetermined time zone among the plurality of picked-up image groups stored in the image storage means when creating the selection image. The monitoring system according to claim 3 or 4, characterized by the above. 上記撮像装置を複数備え、
上記第2の表示手段は、上記選択用画像を作成するにあたっては、上記画像記憶手段に記憶された複数の撮像画像群のうち所定の上記撮像装置で撮像された撮像画像群よりなる第1の撮像画像群と、上記画像記憶手段に記憶された複数の撮像画像群のうち所定の時間帯に上記監視装置が受け取った撮像画像群よりなる第2の撮像画像群とのいずれか一方を用い、
上記監視装置は、上記第2の表示手段において第1の撮像画像群と第2の撮像画像群とのいずれを用いるかの選択に使用される選択入力手段を備えていることを特徴とする請求項3または4記載の監視システム。
A plurality of the imaging devices are provided,
In creating the selection image, the second display unit includes a first captured image group captured by a predetermined imaging device among a plurality of captured image groups stored in the image storage unit. Either one of a captured image group and a second captured image group composed of a captured image group received by the monitoring device in a predetermined time zone among a plurality of captured image groups stored in the image storage unit,
The monitoring apparatus includes a selection input unit used to select which of the first captured image group and the second captured image group is used in the second display unit. Item 5. The monitoring system according to item 3 or 4.
上記第2の表示手段は、上記サムネイル画像とともに当該サムネイル画像の関連情報を表示することを特徴とする請求項3〜7のうちいずれか1項記載の監視システム。   The monitoring system according to claim 3, wherein the second display unit displays related information of the thumbnail image together with the thumbnail image. 上記監視装置は、上記サムネイル画像のサイズの入力に使用されるサイズ入力手段を備え、
上記第2の表示手段は、サイズ入力手段で入力されたサイズに応じて上記選択用画像に使用する上記サムネイル画像のサイズを変更するサイズ変更処理と、サイズ入力手段で入力されたサイズに応じて上記画像表示部に一度に表示させる上記サムネイル画像の数を変更する表示数変更処理とを実行することを特徴とする請求項3〜8のうちいずれか1項記載の監視システム。
The monitoring device includes size input means used for inputting the size of the thumbnail image,
The second display means includes a size changing process for changing the size of the thumbnail image used for the selection image according to the size input by the size input means, and a size input by the size input means. The monitoring system according to any one of claims 3 to 8, wherein a display number changing process for changing the number of thumbnail images to be displayed at a time on the image display unit is executed.
上記特徴画像選択手段は、上記撮像画像群の一部から上記特徴画像を選択することを特徴とする請求項1〜9のうちいずれか1項記載の監視システム。   The monitoring system according to claim 1, wherein the feature image selection unit selects the feature image from a part of the captured image group.
JP2008151882A 2008-06-10 2008-06-10 Monitoring system Withdrawn JP2009302659A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008151882A JP2009302659A (en) 2008-06-10 2008-06-10 Monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008151882A JP2009302659A (en) 2008-06-10 2008-06-10 Monitoring system

Publications (1)

Publication Number Publication Date
JP2009302659A true JP2009302659A (en) 2009-12-24

Family

ID=41549142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008151882A Withdrawn JP2009302659A (en) 2008-06-10 2008-06-10 Monitoring system

Country Status (1)

Country Link
JP (1) JP2009302659A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012034025A (en) * 2010-07-28 2012-02-16 Aiphone Co Ltd Residence intercom system
JP2012048382A (en) * 2010-08-25 2012-03-08 Secom Co Ltd Complex sensor
JP2012070209A (en) * 2010-09-24 2012-04-05 Aiphone Co Ltd Intercom apparatus
WO2012124230A1 (en) * 2011-03-17 2012-09-20 日本電気株式会社 Image capturing apparatus, image capturing method, and program
JP2017050607A (en) * 2015-08-31 2017-03-09 パナソニックIpマネジメント株式会社 Intercom device for collective housing
JP7442289B2 (en) 2019-10-08 2024-03-04 アイホン株式会社 Apartment housing intercom system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012034025A (en) * 2010-07-28 2012-02-16 Aiphone Co Ltd Residence intercom system
JP2012048382A (en) * 2010-08-25 2012-03-08 Secom Co Ltd Complex sensor
JP2012070209A (en) * 2010-09-24 2012-04-05 Aiphone Co Ltd Intercom apparatus
WO2012124230A1 (en) * 2011-03-17 2012-09-20 日本電気株式会社 Image capturing apparatus, image capturing method, and program
JP5958462B2 (en) * 2011-03-17 2016-08-02 日本電気株式会社 Imaging apparatus, imaging method, and program
JP2017050607A (en) * 2015-08-31 2017-03-09 パナソニックIpマネジメント株式会社 Intercom device for collective housing
JP7442289B2 (en) 2019-10-08 2024-03-04 アイホン株式会社 Apartment housing intercom system

Similar Documents

Publication Publication Date Title
KR101180474B1 (en) Image capture module and image capture method for avoiding shutter lag
US8373772B2 (en) Imaging apparatus for capturing a main image and a sub image
US20110102616A1 (en) Data structure for still image file, image file generation device, image reproduction device, and electronic camera
JP2009302659A (en) Monitoring system
JP5322799B2 (en) Imaging apparatus and imaging method
KR20070117644A (en) Imaging apparatus, data extraction method, and data extraction program
JP2008042695A (en) Monitor camera apparatus, monitor camera system, and method of recording monitor camera image
JP5322817B2 (en) 3D image pickup apparatus and 3D image display method
JP4723291B2 (en) TV door phone system
JP4792986B2 (en) Monitoring system
JP2010034706A (en) Recorded image display apparatus
KR101280443B1 (en) apparatus of processing regional image and method thereof
JP4208596B2 (en) Operation terminal device, camera setting method thereof, and program
JP4719874B2 (en) Door phone system
JP5823282B2 (en) Intercom system
JP4135731B2 (en) Door phone system
JP2008211660A (en) Video entryphone system
US9137459B2 (en) Image processing device, display device, image processing method, and computer-readable recording medium for generating composite image data
JP2006333146A (en) Human body detector
JP2008160598A (en) Surveillance system
JP4853217B2 (en) Door phone system
JP2005328333A (en) Monitor system
JP2011101161A (en) Imaging device, control method of the same, reproducing device, and program
JP5123064B2 (en) Monitoring system
JP6564295B2 (en) Composite image creation device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100809

A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110906