JP5883577B2 - Secure remote monitoring device and method - Google Patents

Secure remote monitoring device and method Download PDF

Info

Publication number
JP5883577B2
JP5883577B2 JP2011117433A JP2011117433A JP5883577B2 JP 5883577 B2 JP5883577 B2 JP 5883577B2 JP 2011117433 A JP2011117433 A JP 2011117433A JP 2011117433 A JP2011117433 A JP 2011117433A JP 5883577 B2 JP5883577 B2 JP 5883577B2
Authority
JP
Japan
Prior art keywords
person
subject
image
unit
monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011117433A
Other languages
Japanese (ja)
Other versions
JP2012248967A (en
Inventor
隆光 白井
隆光 白井
秀晃 矢島
秀晃 矢島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2011117433A priority Critical patent/JP5883577B2/en
Publication of JP2012248967A publication Critical patent/JP2012248967A/en
Application granted granted Critical
Publication of JP5883577B2 publication Critical patent/JP5883577B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Description

本発明は、監視カメラを用いて撮影対象者を監視するリモート監視システムおよび方法に関し、特に、リモート監視システムのユーザを認証し、そのユーザに対応して定まる撮影対象者を特定し、監視カメラを用いてその撮影対象者のみを監視するリモート監視システムおよび方法に関する。   The present invention relates to a remote monitoring system and method for monitoring a person to be photographed using a monitoring camera, and in particular, authenticates a user of the remote monitoring system, identifies a person to be photographed determined corresponding to the user, The present invention relates to a remote monitoring system and method for monitoring only a subject to be photographed.

屋内、屋外を問わず、予め設置された監視カメラを用いて周囲の様子を監視する監視システムが実用化されている。そのようなシステムとして、たとえば、マンションのエントランス等で建物に入退出する人物を監視するシステムが挙げられる。また、インターネット等を利用して外出先等から自宅等に設置された監視カメラを操作し、自宅等に残されたペットや子供の様子を監視、撮影するリモート監視システムが知られている(非特許文献1)。このような監視システムでは、マンションの管理人など監視システムの予め定められた一人の利用者である監視者のみが、監視カメラで撮影された画像を見ることが想定されていた。   Regardless of indoor or outdoor, a monitoring system for monitoring the surroundings using a preinstalled monitoring camera has been put into practical use. As such a system, for example, there is a system for monitoring a person entering and leaving a building at an entrance of an apartment. Further, a remote monitoring system is known in which a surveillance camera installed at home or the like is operated from the outside using the Internet or the like to monitor and photograph the state of pets and children left at home or the like. Patent Document 1). In such a monitoring system, it is assumed that only a supervisor who is a predetermined user of the monitoring system, such as an apartment manager, sees an image taken by the surveillance camera.

しかし、防犯対策に公共の場に監視カメラが設置されるようになると、予め定められた一人の監視者だけでなく、複数の人が監視カメラで撮影された画像を見ることができるようになってきた。それに伴い、監視される側の人間のプライバシーが問題となってきた。たとえば、住宅街、ショッピングセンター、商店街、街路、マンション、公園、幼稚園、学校など、防犯対策に公共の場に監視カメラが設置されるようになると、予め定められた一人の監視者だけでなく、複数の監視者が監視カメラで撮影された画像を見ることがある。この場合、見られる方の人々のプライバシーを考慮すると、リモート監視システムの利用者は、ユーザ認証を経て、特定の撮影対象者のみを監視対象とすることが望まれる。   However, when a security camera is installed in a public place as a security measure, not only a predetermined one but also a plurality of people can see images taken by the surveillance camera. I came. As a result, the privacy of the monitored person has become a problem. For example, when security cameras are installed in public places such as residential areas, shopping centers, shopping streets, streets, condominiums, parks, kindergartens, schools, etc., not only one predefined observer In some cases, a plurality of observers see images taken by a surveillance camera. In this case, in consideration of the privacy of the people who are seen, it is desirable that the user of the remote monitoring system should monitor only a specific subject to be photographed through user authentication.

たとえば、プライバシーの確保をしつつ、監視システムの複数の利用者に監視カメラの画像を公開するための技術として、監視システムの利用者を認証し、その利用者に対応して定まる特定の人物の周囲のみを撮影する技術がある(特許文献1)。より詳細には、この技術は、監視対象とする人物、すなわち撮影対象者の識別情報と、その人物を撮影対象とする監視者の識別情報を対応付け、監視者の識別情報で決まる撮影対象者の周囲のみを、監視カメラで撮影し、監視者に提示するシステムである。   For example, as a technology for publishing surveillance camera images to multiple users of a surveillance system while ensuring privacy, a user of the surveillance system is authenticated and a specific person determined according to the user is identified. There is a technique for photographing only the surroundings (Patent Document 1). More specifically, this technique associates the identification information of the person to be monitored, that is, the person to be photographed with the identification information of the supervisor to be photographed, and the person to be photographed determined by the identification information of the monitor This is a system in which only the surroundings are photographed with a surveillance camera and presented to a supervisor.

また、住宅街などプライバシーの制約の多い場所に監視カメラを設置して監視を行うシステムであって、特定の人を撮影対象者から除外するために、その人に携帯発信装置を持たせるなどして、その人の位置を特定し、監視カメラで撮影された画像から、携帯発信装置の周囲にマスキング処理をする技術が知られている(特許文献2)。   In addition, it is a system that installs surveillance cameras in places where there are many privacy restrictions such as residential areas, and in order to exclude a specific person from the person to be photographed, the person is given a mobile transmission device. A technique is known in which the position of the person is specified and masking processing is performed around the portable transmission device from an image taken by a surveillance camera (Patent Document 2).

特開2007−318333号公報JP 2007-318333 A 特開2005−269489号公報JP 2005-269489 A

NTTコミュニケーションズ、るす番モニター紹介サイト「るす番モニターとは」URL:http://rusumoni.jp/service.htmlNTT Communications, Rusban Monitor Introduction Site “What is Rusban Monitor” URL: http://rusumoni.jp/service.html

しかしながら、撮影される側の人または物のプライバシーの確保の目的のために、監視カメラで撮影された画像のうち、監視システムの利用者に対応して定まる特定の人物の周囲の領域や、携帯発信装置など位置を特定できる装置を用いて定められた領域のみを残すまたは残さない処理を行う監視システムでは、その領域に写っている撮影対象者から除外すべき人物が画像に残ってしまう可能性があるという問題があった。   However, for the purpose of ensuring the privacy of the person or object on the shooting side, the area around a specific person determined according to the user of the monitoring system or the mobile In a monitoring system that performs processing that leaves or does not leave only a specified area using a device that can specify the position, such as a transmitting device, there is a possibility that a person who should be excluded from the subject in the area is left in the image There was a problem that there was.

さらに、プライバシー保護の強化のために、未処理のまま残す画像の領域の広さを小さくすれば、撮影された画像のうち処理をする領域の面積が大きくなり、処理に時間が掛かるという問題があった。逆に、未処理のまま残す画像の領域の広さを大きくすれば、本来、撮影対象者としない人も画像に残ってしまうという問題があった。   Furthermore, if the area of the image that is left unprocessed is reduced to enhance privacy protection, the area of the area to be processed in the captured image increases, and the processing takes time. there were. On the other hand, if the size of the area of the image to be left unprocessed is increased, there is a problem that a person who is not originally taken as a subject is left in the image.

本発明は、上述のような問題点に鑑みてなされたものであって、本発明の目的は、プライバシーの確保をしつつ、監視システムの複数の利用者の個々が所定の撮影対象者を効率よく監視することが可能なリモート監視システムおよび方法を提供することである。   The present invention has been made in view of the above-described problems, and an object of the present invention is to ensure that privacy is ensured and each of a plurality of users of the monitoring system efficiently performs a predetermined subject. It is to provide a remote monitoring system and method that can be well monitored.

本発明に従う監視システムは、ユーザの認証を行うユーザ認証手段と、認証された前記ユーザに対応し、前記ユーザによる監視の対象である監視対象者を画定する監視対象者画定手段と、前記監視対象者を撮影して画像を出力する、複数の撮像手段を含む撮影手段と、前記複数の撮像手段のうちの一つによって得られた画像に前記監視対象者が写っているか否かを判定し、写っていないときは、前記撮影手段を制御して、前記撮像手段のうちの別の一つを、前記監視対象者の位置を測定する位置測定手段によって測定された前記監視対象者の位置に基づいて選択させて前記監視対象者の撮影を行わせる撮影制御手段と、前記撮影手段によって得られた前記画像の中の前記監視対象者の画像部分以外の領域をモザイク処理またはマスク処理して出力する撮影情報処理手段と、を含むことを特徴とする。 The monitoring system according to the present invention includes a user authentication unit that authenticates a user, a monitoring target person defining unit that corresponds to the authenticated user and defines a monitoring target person to be monitored by the user, and the monitoring target Determining whether or not the person to be monitored is reflected in an image obtained by one of the plurality of imaging means, and imaging means including a plurality of imaging means for photographing a person and outputting an image; When not captured, the imaging means is controlled, and another one of the imaging means is controlled based on the position of the monitoring subject measured by the position measuring means for measuring the position of the monitoring subject. An imaging control means for selecting and photographing the monitoring subject, and performing mosaic processing or mask processing on an area other than the image portion of the monitoring subject in the image obtained by the imaging means. Characterized in that it comprises a photographic information processing means for force, the.

撮影手段によって取得された画像の中の、監視システムのユーザに対応する撮影対象者およびそのグループメンバー以外の人および物に対して、プライバシー確保のための画像処理を行うことで、プライバシーの確保をしつつ、監視システムの複数のユーザの各々が所定の撮影対象者を効率よく監視することが可能となる。   Privacy is ensured by performing image processing to ensure privacy for people and things other than the subject and group members of the subject corresponding to the surveillance system user in the images acquired by the photographing means. However, each of a plurality of users of the monitoring system can efficiently monitor a predetermined subject.

本発明の実施形態に従うリモート監視システムの概略図である。1 is a schematic diagram of a remote monitoring system according to an embodiment of the present invention. 本発明の実施形態に従う、図1のリモート監視装置のブロック図である。FIG. 2 is a block diagram of the remote monitoring apparatus of FIG. 1 according to an embodiment of the present invention. 本発明の実施形態に従う、図1のリモート監視装置の構成図である。FIG. 2 is a configuration diagram of the remote monitoring device of FIG. 1 according to an embodiment of the present invention. 本発明の実施形態に従う、図1のリモート監視装置の認証情報格納部に収容されるデータの例である。It is an example of the data accommodated in the authentication information storage part of the remote monitoring apparatus of FIG. 1 according to embodiment of this invention. 本発明の実施形態に従う、図1のリモート監視装置の撮影対象格納部に収容されるデータの例である。It is an example of the data accommodated in the imaging | photography object storage part of the remote monitoring apparatus of FIG. 1 according to embodiment of this invention. 本発明の実施形態に従う、図1のリモート監視装置の顔情報化格納部に収容されるデータの例である。It is an example of the data accommodated in the face information-ized storage part of the remote monitoring apparatus of FIG. 1 according to embodiment of this invention. 本発明の実施形態に従う、図1のリモート監視装置の位置情報格納部に収容されるデータの例である。It is an example of the data accommodated in the positional information storage part of the remote monitoring apparatus of FIG. 1 according to embodiment of this invention. 本発明の実施形態に従う、図1のリモート監視装置のグループ情報格納部に収容されるデータの例である。It is an example of the data accommodated in the group information storage part of the remote monitoring apparatus of FIG. 1 according to embodiment of this invention. 本発明の実施形態に従うリモート監視方法の監視処理を示すフローチャートである。It is a flowchart which shows the monitoring process of the remote monitoring method according to embodiment of this invention. 本発明の実施形態に従うリモート監視方法の位置情報管理処理の例を示すフローチャートである。It is a flowchart which shows the example of the positional information management process of the remote monitoring method according to embodiment of this invention. 本発明の実施形態に従うリモート監視方法の利用者認証処理の例を示すフローチャートである。It is a flowchart which shows the example of the user authentication process of the remote monitoring method according to embodiment of this invention. 本発明の実施形態に従うリモート監視方法の撮影・セキュリティマスク処理の例の詳細を示すフローチャートである。It is a flowchart which shows the detail of the example of imaging | photography and security mask processing of the remote monitoring method according to embodiment of this invention. 本発明の実施形態に従うリモート監視方法の撮影・セキュリティマスク処理の例の詳細を示すフローチャートである。It is a flowchart which shows the detail of the example of imaging | photography and security mask processing of the remote monitoring method according to embodiment of this invention. 本発明の実施形態の変形例に従うリモート監視装置の認証情報格納部に収容されるデータの例である。It is an example of the data accommodated in the authentication information storage part of the remote monitoring apparatus according to the modification of embodiment of this invention. 本発明の実施形態の変形例に従うリモート監視装置の撮影対象格納部に収容されるデータの例である。It is an example of the data accommodated in the imaging | photography object storage part of the remote monitoring apparatus according to the modification of embodiment of this invention. 本発明の実施形態の変形例に従うリモート監視装置の顔情報化格納部に収容されるデータの例である。It is an example of the data accommodated in the face information-ized storage part of the remote monitoring apparatus according to the modification of embodiment of this invention. 本発明の実施形態の変形例に従うリモート監視装置の位置情報格納部に収容されるデータの例である。It is an example of the data accommodated in the positional information storage part of the remote monitoring apparatus according to the modification of embodiment of this invention. 本発明の実施形態の変形例に従うリモート監視装置のグループ情報格納部に収容されるデータの例である。It is an example of the data accommodated in the group information storage part of the remote monitoring apparatus according to the modification of embodiment of this invention. 本発明の実施形態の変形例に従うリモート監視方法の位置情報管理処理を示すフローチャートである。It is a flowchart which shows the positional information management process of the remote monitoring method according to the modification of embodiment of this invention.

以下、本発明の実施形態について、図面を参照しながら説明をする。尚、図中で類似の部分または類似の機能を果たす部分については、同一または類似の参照符号を付与して重複した説明を省略する。   Embodiments of the present invention will be described below with reference to the drawings. In addition, about the part which performs a similar part or a similar function in a figure, the same or similar reference code | symbol is provided and the overlapping description is abbreviate | omitted.

<システムの構成>
図1は、本発明の実施形態に従うリモート監視システム100の概略図である。本システム100は、部屋の中に居り、タグ60、62、64、66をそれぞれ所有する複数の人を、プライバシーに配慮しながら、端末10、12を利用する複数の人によって監視するシステムである。部屋の例としては、幼稚園、保育園、学校などの教室の中、オフィスの一室、マンションのエントランスなどを例示することができる。より詳細には、リモート監視システム100は次のような処理を行うことができる。即ち、まず、端末の利用を許可されるユーザ(利用者とも呼ぶ)の各々には、撮影が可能な撮影対象者およびその撮影対象者に関連する人(グループメンバーとも呼ぶ)が予め定められている。撮影対象者の位置はタグによって測定するが、カメラをその撮影対象者に向けたとしても、撮影が許可されていない人(撮影対象者およびグループメンバー以外の人)がカメラによって撮影された画像には含まれてしまうことがある。そのような場合であっても、画像中に映っている撮影が許可されていない人または物のプラバシーを保護するために、たとえば撮影が許可されていない人または物の画像の全体または一部にモザイク処理を施し、処理された画像を端末のユーザに示す。このような処理を行うことによって、各々のユーザに対して撮影が許可されていない人または物のプライバシーの確保をしつつ、監視システムの複数の利用者の各々が所定の撮影対象者を効率よく監視することが可能である。別の言葉では、本発明により、リモート監視システム100のユーザと撮影対象者、場合によっては撮影対象者およびそのグループメンバーを自動的に特定することで、撮影対象者、場合によっては撮影対象者およびそのグループメンバー以外の人または物のプライバシーおよび/またはセキュリティ確保が可能なため、不特定多数の人(または物)がいる環境においても、撮影が許可されていない人または物の情報等のプライバシーおよび/またはセキュリティ保護が可能となる。また、システム100のユーザの認証情報に関連する情報に基づき、カメラ等で撮影した映像情報に対して、プライバシーおよび/またはセキュリティ確保のための処理することにより、ユーザで定まる撮影対象者およびそのグループメンバー以外の人および物を特定不能とすることができる。よって、近年個人情報保護の観点で問題となっているセキュリティ漏えいの危惧を未然に防止することができる。
<System configuration>
FIG. 1 is a schematic diagram of a remote monitoring system 100 according to an embodiment of the present invention. The system 100 is a system in which a plurality of people who are in a room and own tags 60, 62, 64, and 66 are monitored by a plurality of people who use the terminals 10 and 12 while considering privacy. . Examples of rooms include a classroom such as a kindergarten, a nursery school, a school, an office room, an apartment entrance, and the like. More specifically, the remote monitoring system 100 can perform the following processing. That is, first, for each user (also called a user) who is permitted to use the terminal, a shooting target person who can take a picture and a person related to the shooting target person (also called a group member) are determined in advance. Yes. The position of the person to be photographed is measured by the tag, but even if the camera is pointed at the person to be photographed, a person who is not permitted to photograph (a person other than the person to be photographed or a group member) is photographed by the camera. May be included. Even in such a case, in order to protect the privacy of people or objects that are not permitted to be photographed in the image, for example, to the whole or part of the image of the person or thing that is not permitted to be photographed Mosaic processing is performed and the processed image is shown to the user of the terminal. By performing such processing, each of a plurality of users of the monitoring system efficiently designates a predetermined subject to be photographed while ensuring the privacy of a person or object that is not permitted to be photographed for each user. It is possible to monitor. In other words, the present invention automatically identifies the user of the remote monitoring system 100 and the person to be imaged, and in some cases the object to be imaged and its group members, so that the person to be imaged, and in some cases the object to be imaged and The privacy and / or security of people or objects other than the group members can be secured, so even in an environment where an unspecified number of people (or objects) exist, the privacy of information on persons or objects that are not permitted to shoot and Security protection is possible. Further, based on the information related to the user authentication information of the system 100, the subject to be photographed and the group determined by the user by processing the video information photographed by the camera or the like for ensuring privacy and / or security. Persons and objects other than members can be made unidentifiable. Therefore, it is possible to prevent the risk of security leakage, which has become a problem in terms of personal information protection in recent years.

本実施形態では、センサを用いてカメラによる監視の対象である監視対象者の位置を特定するために部屋の中を想定したが、本システムの設置場所は部屋の中には限定されてない。本システムの監視カメラは、街路、商店街、住宅地など、屋外に設置されても良い。カメラの設置場所が屋内であっても屋外であっても、センサによってタグを所有する監視対象者の位置が確認でき、その位置をカメラが撮影可能であれば良い。   In the present embodiment, the inside of the room is assumed in order to specify the position of the monitoring subject who is the subject of monitoring by the camera using the sensor, but the installation location of the present system is not limited to the inside of the room. The surveillance camera of this system may be installed outdoors, such as on streets, shopping streets, and residential areas. Regardless of whether the camera is installed indoors or outdoors, it is only necessary that the position of the person to be monitored who owns the tag can be confirmed by the sensor and the camera can shoot the position.

また、本実施形態では撮影対象者を撮影する手段としてカメラを用いているが、カメラには、可視光を用いて像を得るカメラのみならず、赤外線カメラ、超音波カメラなど、撮影対象者の画像を得ることができるものであればどんなカメラでも良い。   Further, in this embodiment, a camera is used as a means for photographing the person to be photographed. However, the camera is not limited to a camera that obtains an image using visible light, but an infrared camera, an ultrasonic camera, or the like. Any camera can be used as long as it can obtain an image.

本システム100は、パーソナルコンピュータ(PC)または携帯デバイス等の端末10、12と、端末10、12に繋がるインターネット等のネットワーク20と、ネットワーク20に繋がるリモート監視装置30を含む。さらに、リモート監視装置30には、部屋の中に存在し、それぞれタグ60、62、64、66を所有する複数の人を監視するカメラ40、42、44と、タグを所有する人の位置を特定するためのセンサ50、52、54、56、58が接続されている。ここで、それぞれのタグには識別子(ID)が付与されており、識別が可能である。さらに、タグのIDによってそれを所有する人も特定されるものとする。   The system 100 includes terminals 10 and 12 such as personal computers (PCs) or portable devices, a network 20 such as the Internet connected to the terminals 10 and 12, and a remote monitoring device 30 connected to the network 20. Further, the remote monitoring device 30 includes cameras 40, 42, and 44 that monitor a plurality of people who are present in the room and own the tags 60, 62, 64, and 66, respectively, and the positions of the people that own the tags. Sensors 50, 52, 54, 56, and 58 for specifying are connected. Here, each tag is given an identifier (ID) and can be identified. Further, the person who owns the tag is also identified by the tag ID.

端末10、12は、本システム100を利用する利用者が、カメラ40、42、44で撮影された映像を見るために利用する。本実施形態では、端末10、12はネットワーク20を介してリモート監視装置30に接続されているが、端末10、12は直接的にリモート監視装置30に接続されても良い。また、端末10、12とリモート監視装置30は、有線または無線によって電気的に接続されている。また、ネットワーク20は、有線ネットワークでも良いし、無線ネットワークでも、または両者の組み合わせであっても良い。   The terminals 10 and 12 are used by a user who uses the present system 100 to view images taken by the cameras 40, 42 and 44. In the present embodiment, the terminals 10 and 12 are connected to the remote monitoring device 30 via the network 20, but the terminals 10 and 12 may be directly connected to the remote monitoring device 30. Further, the terminals 10 and 12 and the remote monitoring device 30 are electrically connected by wire or wireless. The network 20 may be a wired network, a wireless network, or a combination of both.

カメラ40、42、44はリモート監視装置30によって制御され、タグ60、62、64、66を所有する複数の人および所有しない人を撮影する。本実施形態では、タグ60、62、64、66を所有する人のみが、本システム100での監視の対象者、即ち撮影対象者の候補となり得る。よって、撮影対象者に関連して定まるグループメンバーも、別のユーザに対する撮影対象者であり得る。カメラによって撮影対象者を撮影する目的は監視にあるので、カメラによって得られた画像によって、撮影対象者が判別可能である必要がある。たとえば、タグを所有している撮影対象者の後姿しか写っていない場合には再度、別のカメラによって画像を取得する。撮影対象者が判別可能かどうかは、予めリモート監視装置30中に記憶されている撮影対象者の顔の情報から、画像の中に撮影対象者の顔が含まれているかを判断することによって判定しても良い。撮影対象者およびそのグループメンバー以外の人でカメラ40、42、44に映る人の画像は、端末10、12に転送される前に、リモート監視装置30によって、その人のプライバシーが侵害されないように加工される。   The cameras 40, 42, 44 are controlled by the remote monitoring device 30 and shoot a plurality of people who own the tags 60, 62, 64, 66 and a person who does not own them. In the present embodiment, only a person who owns the tags 60, 62, 64, 66 can be a candidate for monitoring by the system 100, that is, a candidate for photographing. Therefore, the group member determined in relation to the person to be photographed can also be a person to be photographed for another user. Since the purpose of photographing the person to be photographed with the camera is to monitor, it is necessary that the person to be photographed can be discriminated from the image obtained by the camera. For example, when only the rear view of the subject who owns the tag is captured, an image is acquired again by another camera. Whether or not the person to be photographed can be determined is determined by determining whether or not the face of the person to be photographed is included in the image from the information on the face of the person to be photographed previously stored in the remote monitoring device 30. You may do it. An image of a person other than the person to be photographed and the group member who appears on the cameras 40, 42, 44 is protected from being infringed by the remote monitoring device 30 before being transferred to the terminals 10, 12. Processed.

センサ50、52、54、56、58は、タグ60、62、64、66の位置を特定し、その情報をリモート監視装置30に送る。本実施形態では、撮影対象者は、タグ60、62、64、66を所有し、センサ50、52、54、56、58によって位置が特定されるが、撮影対象者の位置を特定する方法は、上記の方法に限定されない。たとえば、部屋の中に居る撮影対象者の候補となる人はそれぞれ識別可能な電波を発信する発信機を所有しており、部屋の中には複数のアンテナが設置され、それぞれの発信機の位置を特定しても良い。   The sensors 50, 52, 54, 56, 58 identify the positions of the tags 60, 62, 64, 66 and send the information to the remote monitoring device 30. In this embodiment, the person to be photographed owns the tags 60, 62, 64, and 66, and the position is specified by the sensors 50, 52, 54, 56, and 58, but the method for specifying the position of the person to be photographed is The method is not limited to the above. For example, each person in the room who is a candidate for the subject of photography has a transmitter that transmits identifiable radio waves, and multiple antennas are installed in the room. May be specified.

本システム100の全体の構成は上記のようなものであるが、本システム100の個別の構成要素、たとえば端末10、12、リモート監視装置30、は少なくともネットワーク20に接続可能とする通常のコンピュータ機能を有している必要がある。このようなハードウェアの条件の下で、本システム100の個別の構成要素の処理は、ソフトウェアプログラムが汎用コンピュータにインストールされることで実行される、または専用ハードウェアによって実行される。   Although the overall configuration of the system 100 is as described above, the individual components of the system 100 such as the terminals 10 and 12 and the remote monitoring device 30 can be connected to at least the network 20 at a normal computer function. It is necessary to have. Under such hardware conditions, the processing of the individual components of the system 100 is executed by installing a software program in a general-purpose computer, or executed by dedicated hardware.

また、図1では、カメラ40、42、44、およびセンサ50、52、54、56、58は、リモート監視装置30に直接的に接続されているが、ネットワーク20を介してリモート監視装置30に接続されても良い。   In FIG. 1, the cameras 40, 42, 44 and the sensors 50, 52, 54, 56, 58 are directly connected to the remote monitoring device 30, but are connected to the remote monitoring device 30 via the network 20. It may be connected.

図2は本発明の実施形態に従う、図1のリモート監視装置30のブロック図であり、図3は、リモート監視装置30の構成図である。
図2を参照すると、リモート監視装置30は、外部インタフェース部300、データ送受信部310、装置制御部320、データベース部330、撮影情報処理部340を含む。装置制御部320はさらに、認証部3200、位置測定部3202、カメラ制御部3204を含む。
FIG. 2 is a block diagram of the remote monitoring device 30 of FIG. 1 according to the embodiment of the present invention, and FIG. 3 is a configuration diagram of the remote monitoring device 30.
Referring to FIG. 2, the remote monitoring device 30 includes an external interface unit 300, a data transmission / reception unit 310, a device control unit 320, a database unit 330, and a photographing information processing unit 340. The apparatus control unit 320 further includes an authentication unit 3200, a position measurement unit 3202, and a camera control unit 3204.

図3を参照すると、リモート監視装置30は、コンピュータとして構成されており、中央処理装置402、メモリ404、外部インタフェース部406a〜406d、タイマ410を含み、これらはバス408を介して接続されている。リモート監視装置30の外部インタフェース部406aは、外部のネットワーク20に接続される。外部インタフェース部406bは、外部のセンサ、たとえばセンサ50に接続される。外部インタフェース部406cは、外部のカメラ、たとえばカメラ40に接続される。外部インタフェース部406dは、外付けのハードディスクドライブ等の外部記憶デバイスに接続される。   Referring to FIG. 3, the remote monitoring device 30 is configured as a computer, and includes a central processing unit 402, a memory 404, external interface units 406 a to 406 d, and a timer 410, which are connected via a bus 408. . The external interface unit 406 a of the remote monitoring device 30 is connected to the external network 20. The external interface unit 406b is connected to an external sensor, for example, the sensor 50. The external interface unit 406c is connected to an external camera, for example, the camera 40. The external interface unit 406d is connected to an external storage device such as an external hard disk drive.

本実施形態では、リモート監視装置30の各部はメモリ404に記憶されたコンピュータプログラムによって実現されているが、リモート監視装置30を構成する部の全てまたは一部が専用の電気回路によって実現されていても良い。   In this embodiment, each part of the remote monitoring device 30 is realized by a computer program stored in the memory 404, but all or part of the parts constituting the remote monitoring device 30 are realized by a dedicated electric circuit. Also good.

外部インタフェース部300は、リモート監視装置30と、外部のネットワーク20、カメラ40、42、44、センサ50、52、54、56、58、タグ60、62、64、66および図示されていない適宜用意される外部記憶デバイスとのデータの送受信を行うために備えられる。この外部インタフェース部300は、図3の外部インタフェース部406a〜406dによって構成される。外部インタフェース部300は、データ送受信部310と電気的に接続されている。   The external interface unit 300, the remote monitoring device 30, the external network 20, the cameras 40, 42, 44, the sensors 50, 52, 54, 56, 58, the tags 60, 62, 64, 66, and appropriately prepared not shown. Provided to transmit / receive data to / from an external storage device. The external interface unit 300 includes external interface units 406a to 406d shown in FIG. The external interface unit 300 is electrically connected to the data transmission / reception unit 310.

データ送受信部310は、端末10、12からの情報を外部のネットワーク20を介して電気信号の形式で受信したり、カメラ40、42、44、センサ50、52、54、56、58、およびタグ60、62、64、66等から情報を電気信号の形式で受信したりする。さらにデータ送受信部310は、カメラ40、42、44の動作を制御するために電気信号を送信したり、カメラで撮影され、撮影情報処理部340で処理された画像を端末10、12に向けて送信したりする。   The data transmission / reception unit 310 receives information from the terminals 10 and 12 in the form of electrical signals via the external network 20, and the cameras 40, 42, 44, sensors 50, 52, 54, 56, 58, and tags Information is received from 60, 62, 64, 66, etc. in the form of electrical signals. Further, the data transmission / reception unit 310 transmits an electrical signal to control the operations of the cameras 40, 42, 44, and directs the image captured by the camera and processed by the imaging information processing unit 340 toward the terminals 10, 12. Or send.

さらに、データ送受信部310は、リモート監視装置30と外部のデバイス、たとえば、カメラ40、42、44が通信しているかどうかを確認し、無通信時間が所定の期間を超えると通信を切断する無通信監視タイマ機構を備えている。このデータ送受信部310の処理は、図3のメモリ404中に記憶されているデータ送受信のためのコンピュータプログラムを用いて、CPU402によって行われる。また、無通信監視タイマ機構の実現には、図3のタイマ410も用いられる。本実施形態では、データ送受信部310は、装置制御部320および撮影情報処理部340と電気的に接続されている。   Furthermore, the data transmission / reception unit 310 confirms whether the remote monitoring device 30 and an external device, for example, the cameras 40, 42, and 44 are communicating, and if the no-communication time exceeds a predetermined period, the data transmission / reception unit 310 A communication monitoring timer mechanism is provided. The processing of the data transmission / reception unit 310 is performed by the CPU 402 using a computer program for data transmission / reception stored in the memory 404 of FIG. Further, the timer 410 of FIG. 3 is also used to realize the no-communication monitoring timer mechanism. In the present embodiment, the data transmission / reception unit 310 is electrically connected to the device control unit 320 and the imaging information processing unit 340.

装置制御部320は、データ送受信部310によって受信された外部のネットワーク20、カメラ40、42、44、センサ50、52、54、56、58、およびタグ60、62、64、66等からの情報を用いて、端末のユーザを認証する、タグの位置を算出するなどの処理を行う。また、認証されたユーザに関する情報および測定されたタグの位置などに基づいて、適切なカメラを選択し、そのカメラの向きを制御し、撮影対象者、場合によっては撮影対象者およびそのグループメンバーの所定の箇所の画像を取得する処理などを行う。撮影対象者、そのグループメンバーの所定の箇所とは、人物が特定される箇所である。たとえば、顔全体であり得る。これらの処理を行うために、装置制御部320は、端末のユーザを認証するための認証部3200、タグの位置を算出するための位置測定部3202、適切なカメラ40、42、44を選択し、そのカメラの向きを制御するためのカメラ制御部(または単に制御部)3204を含んでいる。認証部3200、位置測定部3202、およびカメラ制御部3204の処理はそれぞれ、図3のメモリ404中に記憶されているプログラムを用いてCPU402によって行われる。本実施形態では、装置制御部320は、データ送受信部310、データベース部330および撮影情報処理部340と電気的に接続されている。   The device controller 320 receives information from the external network 20, cameras 40, 42, 44, sensors 50, 52, 54, 56, 58, and tags 60, 62, 64, 66, etc. received by the data transmitter / receiver 310. Are used to authenticate the user of the terminal and calculate the position of the tag. Also, based on information about the authenticated user and the position of the measured tag, etc., an appropriate camera is selected and the orientation of the camera is controlled. A process of acquiring an image of a predetermined location is performed. The predetermined portion of the person to be photographed and the group member is a portion where a person is specified. For example, it can be the entire face. In order to perform these processes, the device control unit 320 selects an authentication unit 3200 for authenticating the user of the terminal, a position measurement unit 3202 for calculating the tag position, and an appropriate camera 40, 42, 44. , A camera control unit (or simply control unit) 3204 for controlling the orientation of the camera is included. The processes of the authentication unit 3200, the position measurement unit 3202, and the camera control unit 3204 are each performed by the CPU 402 using a program stored in the memory 404 of FIG. In the present embodiment, the device control unit 320 is electrically connected to the data transmission / reception unit 310, the database unit 330, and the imaging information processing unit 340.

また、装置制御部320は、たとえばネットワーク20を介した端末10、12からの指示によって、カメラ40、42、44の動作を開始、または停止するための信号をカメラ40、42、44に送信する。   In addition, the device control unit 320 transmits a signal for starting or stopping the operation of the cameras 40, 42, 44 to the cameras 40, 42, 44 in response to an instruction from the terminals 10, 12 via the network 20, for example. .

データベース部330は、認証情報格納部3300、撮影対象格納部3302、顔情報格納部3304、位置情報格納部3306、およびグループ情報格納部3308を含む。
認証情報格納部3300は、たとえば、端末10、12のユーザの認証に必要なデータを格納する。撮影対象格納部3302は、たとえば、タグ60、62、64、66のIDとタグを所有する人の対応表を収納する。顔情報格納部3304は、たとえば、ユーザ毎に表示可能な撮影対象者の顔に関する情報を格納する。位置情報格納部3306は、たとえば、タグ60、62、64、66の位置とタグ60、62、64、66を所有する人を撮影するのに適したカメラ40、42、44の対応などを収納する。グループ情報格納部3308は、たとえば、端末10、12の個々のユーザと撮影対象者のグループメンバーとの対応(グループ情報とも呼ぶ)を含む表などを含む。これらの表は、装置制御部320での処理の際に読み出され、利用される。つまり、データベース部330は装置制御部320と電気的に接続されている。また、データベース部330は、図3のメモリ404によって構成される。
The database unit 330 includes an authentication information storage unit 3300, a shooting target storage unit 3302, a face information storage unit 3304, a position information storage unit 3306, and a group information storage unit 3308.
The authentication information storage unit 3300 stores, for example, data necessary for authenticating the users of the terminals 10 and 12. The imaging target storage unit 3302 stores, for example, IDs of the tags 60, 62, 64, and 66 and correspondence tables of people who own the tags. The face information storage unit 3304 stores, for example, information related to the face of the person to be photographed that can be displayed for each user. The position information storage unit 3306 stores, for example, the correspondence between the positions of the tags 60, 62, 64, 66 and the cameras 40, 42, 44 suitable for photographing the person who owns the tags 60, 62, 64, 66. To do. The group information storage unit 3308 includes, for example, a table including correspondences (also referred to as group information) between individual users of the terminals 10 and 12 and group members of the subject to be photographed. These tables are read out and used during processing by the device control unit 320. That is, the database unit 330 is electrically connected to the device control unit 320. The database unit 330 is configured by the memory 404 of FIG.

図4は、認証情報格納部3300に記憶されるデータの例である。本実施形態では、認証情報格納部3300に記憶されるデータには、端末10、12からログインする際に用いるログイン名等の管理ID、ユーザ名、ログインに必要なパスワード、管理IDを有するユーザが監視のために撮影可能な撮影対象者が所有するタグのIDのほか、認証が出来たかどうかを示す認証可否についての情報、端末とのセッションが有効かどうかを示すセッション情報、端末との通信時間等を示す無通信監視についての情報が含まれている。   FIG. 4 is an example of data stored in the authentication information storage unit 3300. In this embodiment, the data stored in the authentication information storage unit 3300 includes a management ID such as a login name used when logging in from the terminals 10 and 12, a user name, a password required for login, and a user having a management ID. In addition to the ID of the tag owned by the subject that can be photographed for monitoring, information about whether or not authentication is possible, whether or not the authentication is successful, session information that indicates whether the session with the terminal is valid, and the communication time with the terminal The information about the no-communication monitoring indicating the above is included.

認証情報格納部3300に記憶されるデータの格納は装置制御部320の認証部3200によって行われる。たとえば、まず、端末10、12のユーザによって入力され、端末10、12から送られてきた管理IDとパスワードが一致しているかどうかを確認する。端末10、12のユーザが登録されていない者であり、認証が出来なかった場合には、利用不可のメッセージを外部インタフェース部300およびデータ送受信部310を介して、端末10、12に送信する。それと同時に端末10、12とリモート監視装置30の間のセッションを切断する。このとき認証可否の欄には“否”が記入され、セッションが切断されるとセッション情報には“×”が記入される。管理IDとパスワードが一致し、認証が成功した場合には、認証可否の欄には“可”が記入され、セッション情報には“○”が記入される。端末10、12とリモート監視装置30の間のセッションが繋がっているか否かのセッション情報は、ネットワーク20からの情報を基に、装置制御部320の認証部3200によって随時、取得される。また、ユーザ名が決まると、そのユーザが撮影可能な撮影対象者が所有するタグのIDが記入される。図4の例では、管理ID“A001”で指定される“Sato”なる名前の人物に対して、タグID“1000a”で指定されるタグを所有する人が撮影対象者である。この処理の際には、撮影対象格納部3302に記憶されているデータが参照される。   Data stored in the authentication information storage unit 3300 is stored by the authentication unit 3200 of the device control unit 320. For example, first, it is confirmed whether the management ID input by the user of the terminals 10 and 12 and sent from the terminals 10 and 12 matches the password. When the users of the terminals 10 and 12 are not registered and authentication is not possible, an unusable message is transmitted to the terminals 10 and 12 via the external interface unit 300 and the data transmission / reception unit 310. At the same time, the session between the terminals 10 and 12 and the remote monitoring device 30 is disconnected. At this time, “No” is entered in the authentication permission / inhibition column, and “×” is entered in the session information when the session is disconnected. If the management ID and the password match and the authentication is successful, “OK” is entered in the “authentication allowed” column, and “◯” is entered in the session information. The session information indicating whether or not the session between the terminals 10 and 12 and the remote monitoring device 30 is connected is acquired as needed by the authentication unit 3200 of the device control unit 320 based on the information from the network 20. When the user name is determined, the ID of the tag owned by the person to be photographed that can be photographed by the user is entered. In the example of FIG. 4, the person who has the tag specified by the tag ID “1000a” is the subject to be photographed with respect to the person named “Sato” specified by the management ID “A001”. In this process, data stored in the photographing target storage unit 3302 is referred to.

図5は、撮影対象格納部3302に記憶されているデータの例である。管理IDに対して、そのIDで指定されるユーザが撮影可能な撮影対象者が所有するタグのIDと、そのタグを所有する撮影対象者名称が記入されている。   FIG. 5 is an example of data stored in the shooting target storage unit 3302. For the management ID, the ID of the tag owned by the photographing subject who can photograph the user specified by the ID and the name of the photographing subject who owns the tag are entered.

図6は、顔情報格納部3304に記憶されているデータの例である。タグのIDに対して、そのタグを所有する撮影対象者の顔情報を含むファイル名が記入されている。このデータは、撮影情報処理部340において、所定のユーザが撮影を許可された撮影対象者のみが識別可能であるようにカメラで撮影された画像を処理する際に使用される。   FIG. 6 is an example of data stored in the face information storage unit 3304. The file name including the face information of the person to be photographed who owns the tag is written in the tag ID. This data is used in the photographing information processing unit 340 when processing an image photographed by the camera so that only a photographing subject who is permitted to photograph by a predetermined user can be identified.

図7は、位置情報格納部3306に記憶されているデータの例である。リモート監視装置30ではタグ60、62、64、66を利用し、複数の位置測定のためのセンサ50、52、54、56、58からの情報を利用し、位置測定部320でそれぞれの撮影対象者の位置情報を測定し、位置情報格納部3306へ随時格納する。それと同時に、各センサの位置を撮影可能なカメラの情報も併せて格納する。位置情報としては、たとえば、センサ50、52、54をそれぞれ、s−001、s−002、s−003と呼んだときに、s−001、s−002、s−003のそれぞれからの距離によってタグ(撮影対象者)の位置を特定し、位置情報の欄に記入する。本実施形態では、あるタグの位置は、3つのセンサからの距離によって指定されるので、センサ50、52、54、56、58は、部屋の中で同じ高さの位置に備えられることが好ましい。さらに、カメラ40、42、44をそれぞれ、c−001、c−002、c−003と呼んだときに、タグが存在する場所を撮影可能なカメラ名を撮影用カメラ情報として記入する。   FIG. 7 is an example of data stored in the position information storage unit 3306. The remote monitoring device 30 uses the tags 60, 62, 64, and 66, uses information from a plurality of sensors 50, 52, 54, 56, and 58 for position measurement, and the position measurement unit 320 uses each of the imaging targets. The position information of the person is measured and stored in the position information storage unit 3306 as needed. At the same time, information on cameras capable of photographing the position of each sensor is also stored. As the position information, for example, when the sensors 50, 52, and 54 are called s-001, s-002, and s-003, respectively, depending on the distance from each of s-001, s-002, and s-003 The position of the tag (person to be photographed) is specified and entered in the position information column. In this embodiment, since the position of a certain tag is specified by the distance from three sensors, it is preferable that the sensors 50, 52, 54, 56, and 58 are provided at the same height in the room. . Furthermore, when the cameras 40, 42, and 44 are called c-001, c-002, and c-003, the names of cameras that can shoot the place where the tag exists are entered as shooting camera information.

図8は、グループ情報格納部3308に記憶されるデータの例である。グループ情報とは、ある撮影対象者に対して、その撮影対象者に関連する人に関する情報である。そのような人を撮影対象者のグループメンバーまたはグループ撮影者と呼ぶ。たとえば、ある撮影対象者がある子供である場合、その親が子に関連するグループメンバーであっても良い。   FIG. 8 is an example of data stored in the group information storage unit 3308. The group information is information related to a person related to a subject to be photographed with respect to a certain subject. Such a person is called a group member or group photographer of the subject. For example, when a certain photographing subject is a child, the parent may be a group member related to the child.

装置制御部320の認証部3200の処理では、データベース部330の認証情報格納部3300に収納されているユーザのIDとパスワードが対応するか否かを判定することによって、ユーザを認証する。しかしながら、他の手段、たとえば生体認証等を用いてユーザを認証しても良い。   In the processing of the authentication unit 3200 of the apparatus control unit 320, the user is authenticated by determining whether or not the user ID and password stored in the authentication information storage unit 3300 of the database unit 330 correspond to each other. However, the user may be authenticated using other means such as biometric authentication.

装置制御部320のカメラ制御部3204の処理では、まず、センサ50、52、54、56、58を用いて位置測定部3202で決定されたタグ60、62、64、66の位置に居る撮影対象者の顔が撮影されているか否かを、データベース部330の顔情報格納部3304に格納されているデータを参照しながら、判定する。そして、撮影対象者の顔が撮影可能なカメラを特定し、撮影対象者の顔の撮影を続ける。   In the processing of the camera control unit 3204 of the device control unit 320, first, the imaging target at the position of the tags 60, 62, 64, 66 determined by the position measurement unit 3202 using the sensors 50, 52, 54, 56, 58. Whether or not a person's face is photographed is determined with reference to data stored in the face information storage unit 3304 of the database unit 330. Then, a camera capable of photographing the face of the subject is photographed, and photographing of the face of the subject is continued.

撮影情報処理部340は、カメラ40、42、44によって撮影された画像の一部にプライバシー確保のためにマスク処理やモザイク処理等のセキュリティマスク処理を施すなど、予め規定される画像処理を行う。このような処理のために、撮影情報処理部340は、データ送受信部310、装置制御部320、データベース部330と電気的に接続されている。撮影情報処理部340では、装置制御部320から渡された情報を元に撮影対象者の顔情報を特定すると共に、撮影対象者およびグループメンバー以外の人及び物にセキュリティマスク処理を施した上で、加工した撮影情報をデータ送受信部310へ転送する。セキュリティマスク処理は、画像の中の、撮影対象者およびグループメンバー以外の領域全体に施されていても良い。またはセキュリティマスク処理は、撮影対象者およびグループメンバー以外の人または物が特定不能となる程度に、撮影対象者およびグループメンバー以外の人または物の一部に施しても良い。たとえば、人の場合は、顔全体、または目などの顔の一部にセキュリティマスク処理を施しても良い。物の場合は、登録意匠または商標に関わる部分や、固有名詞が書かれていたり刻まれていたりする部分にセキュリティマスク処理を施して、その物自体または所有者の特定を困難にしても良い。このセキュリティマスク処理されたデータを受け取ったデータ送受信部310は、加工した撮影情報をインターネット等のネットワーク20へ転送可能なデータ形式に変換し、外部インタフェース部300を介して端末10、12へ送信する。許可されていない撮影対象以外の人または物にセキュリティマスク処理を施すことが可能なため、所望の撮影対象者を監視しつつ、それ以外の人または物について個人情報の保護が可能となる。   The imaging information processing unit 340 performs predetermined image processing, such as performing security mask processing such as mask processing and mosaic processing on a part of the images captured by the cameras 40, 42, and 44 to ensure privacy. For such processing, the imaging information processing unit 340 is electrically connected to the data transmission / reception unit 310, the device control unit 320, and the database unit 330. The imaging information processing unit 340 specifies the face information of the person to be imaged based on the information passed from the apparatus control unit 320, and performs security mask processing on people and objects other than the person to be imaged and group members. Then, the processed photographing information is transferred to the data transmission / reception unit 310. The security mask process may be performed on the entire area other than the subject and the group member in the image. Alternatively, the security mask process may be performed on a part of the person or object other than the person to be photographed and the group member to the extent that the person or object other than the person to be photographed and the group member cannot be specified. For example, in the case of a person, security mask processing may be applied to the entire face or a part of the face such as the eyes. In the case of an object, security mask processing may be applied to a part related to a registered design or trademark, or a part where a proper noun is written or engraved, thereby making it difficult to identify the object itself or the owner. The data transmission / reception unit 310 that has received the data subjected to the security mask processing converts the processed photographing information into a data format that can be transferred to the network 20 such as the Internet, and transmits the data to the terminals 10 and 12 via the external interface unit 300. . Since it is possible to perform security mask processing on a person or an object other than the object to be imaged that is not permitted, personal information can be protected for the other person or object while monitoring the desired object to be imaged.

また、システム100の構成要素は、単独でまたは組み合わされて、特定の処理を行う機能を有する手段を構成する。   In addition, the components of the system 100 constitute a means having a function of performing a specific process, alone or in combination.

上記の端末10、12、ネットワーク20、リモート監視装置30、特に外部インタフェース部300、データ送受信部310、装置制御部320、データベース部330はユーザ認証手段を構成する。特に、ユーザ認証手段は、データベース部330の認証情報格納部3300に格納されたデータを参照しながら、装置制御部320の認証部3200によって端末10、12のユーザを認証する機能を有する。   The terminals 10 and 12, the network 20, the remote monitoring device 30, in particular, the external interface unit 300, the data transmission / reception unit 310, the device control unit 320, and the database unit 330 constitute a user authentication unit. In particular, the user authentication unit has a function of authenticating the users of the terminals 10 and 12 by the authentication unit 3200 of the device control unit 320 while referring to data stored in the authentication information storage unit 3300 of the database unit 330.

監視対象者画定手段は、リモート監視装置30の装置制御部320、データベース部330によって構成される。監視対象者画定手段は、データベース部330の撮影対象格納部3302に収納されたデータを参照しながら、装置制御部320の認証部3200によって、端末10、12のユーザに対応する撮影対象者を画定する。また、監視対象者画定手段は、リモート監視装置30のデータベース部330、特にグループ情報格納部3308を参照しながら、端末10、12のユーザの撮影対象者に関連するグループメンバーを画定するグループメンバー画定手段を備えても良い。   The monitoring target person defining means is configured by the device control unit 320 and the database unit 330 of the remote monitoring device 30. The monitoring subject defining means demarcates the photographing subject corresponding to the user of the terminals 10 and 12 by the authentication unit 3200 of the device control unit 320 while referring to the data stored in the photographing target storage unit 3302 of the database unit 330. To do. Further, the monitoring target person defining means refers to the database unit 330 of the remote monitoring device 30, in particular, the group information storage unit 3308, and group member definition for defining the group members related to the photographing subject of the user of the terminals 10 and 12. Means may be provided.

撮影手段は、主に、カメラ40、42、44によって構成される。撮影手段は、リモート監視装置30の外部インタフェース部300、データ送受信部310、装置制御部320を含んでも良い。また、撮影手段の個々の構成要素、即ち、カメラ40、42、44の各々を、撮像手段と呼ぶこともある。   The photographing means is mainly composed of cameras 40, 42, and 44. The imaging unit may include the external interface unit 300, the data transmission / reception unit 310, and the device control unit 320 of the remote monitoring device 30. In addition, each component of the photographing unit, that is, each of the cameras 40, 42, and 44 may be referred to as an imaging unit.

撮影情報処理手段は、主に、リモート監視装置30の撮影情報処理部340によって構成される。撮影情報処理手段は、撮影情報処理部340に加えて、リモート監視装置30のデータ送受信部310、外部インタフェース部300を含んでも良い。   The imaging information processing means is mainly configured by the imaging information processing unit 340 of the remote monitoring device 30. The imaging information processing means may include a data transmission / reception unit 310 and an external interface unit 300 of the remote monitoring device 30 in addition to the imaging information processing unit 340.

位置測定手段は、センサ50、52、54、56、58、タグ60、62、64、66、リモート監視装置30の外部インタフェース部300、データ送受信部310、装置制御部320、データベース部330を含み、タグ60、62、64、66の位置を測定し、データベース部330の位置情報格納部3306に測定の結果を記録する。   The position measurement means includes sensors 50, 52, 54, 56, 58, tags 60, 62, 64, 66, external interface unit 300 of remote monitoring device 30, data transmission / reception unit 310, device control unit 320, and database unit 330. The positions of the tags 60, 62, 64 and 66 are measured, and the measurement results are recorded in the position information storage unit 3306 of the database unit 330.

<全体的な処理>
以上のような構成のリモート監視システム100を用いて、プライバシーを考慮した監視を行う方法について、図9〜12を参照しながら説明する。
<Overall processing>
A method for monitoring in consideration of privacy using the remote monitoring system 100 configured as described above will be described with reference to FIGS.

本システムのユーザ(利用者とも呼ぶ)は、リモート監視装置30の外部インタフェース部300に接続された端末10、12からリモート監視装置30へのアクセスを行う。アクセスするための認証リクエストを含む電気信号は外部インタフェース300、データ送受信部310を経由し、装置制御部320の認証部3200へ到達する。認証部3200において、データベース部330内の認証情報格納部3300の情報にもとづいて、ユーザの認証可否を判断する。認証が否であれば、認証リクエストを破棄し、通信を切断する。認証可であれば、利用者端末へ応答を返すと共に、利用者の認証情報に紐付く撮影対象者が所有するタグの情報を格納した撮影対象格納部3302のデータおよびグループ情報格納部3308のデータから、撮影対象者と、もし存在すれば、撮影対象者に関連するグループメンバーに関する情報を抽出する。抽出された情報を元に顔情報格納部3304から撮影対象者とグループメンバーの顔情報を抽出し、撮影情報処理部340へ顔情報を渡す。それと並行して、装置制御部320では位置情報格納部3306のデータを元に撮影対象者とグループメンバーの撮影に最適な位置に設置されている監視用カメラ40、42、44に対してカメラ制御部3204から、自動的に撮影対象者が映像の中心になるように調整を実施する。その後、撮影された撮影対象者とグループメンバーの映像を撮影情報処理部340へ渡す。撮影情報処理部340では顔情報処理部3304から渡された顔情報を元に、撮影された画像に含まれている顔のうち、端末10、12のユーザへ表示可能な顔情報、即ち撮影対象者およびそのグループメンバーの顔情報を認識する。それと同時に、撮影が許可されていない人および物に関しては、セキュリティマスク処理等の画像処理を施す。そして、その処理後の映像をデータ送受信部310、外部インタフェース部300でIPデータへ変換し、ユーザ端末へ送信する。これにより、ユーザの認証情報に紐付かない人物に関する映像情報をセキュリティマスク処理することが可能となるため撮影対象者でない人および物のプライバシーが保護される。   A user (also referred to as a user) of this system accesses the remote monitoring device 30 from the terminals 10 and 12 connected to the external interface unit 300 of the remote monitoring device 30. An electrical signal including an authentication request for access reaches the authentication unit 3200 of the device control unit 320 via the external interface 300 and the data transmission / reception unit 310. The authentication unit 3200 determines whether the user can be authenticated based on the information stored in the authentication information storage unit 3300 in the database unit 330. If the authentication is not successful, the authentication request is discarded and the communication is disconnected. If authentication is possible, a response is returned to the user terminal, and data in the shooting target storage unit 3302 and data in the group information storage unit 3308 that store information on the tag owned by the shooting target person associated with the user authentication information. From this, information on the subject to be photographed and, if present, group members related to the subject to be photographed are extracted. Based on the extracted information, the face information of the person to be photographed and the group member is extracted from the face information storage unit 3304, and the face information is passed to the photographing information processing unit 340. At the same time, the apparatus control unit 320 controls the cameras 40, 42, and 44 for the monitoring cameras 40, 42, and 44 that are installed at the optimum positions for photographing the subject person and the group member based on the data in the position information storage unit 3306. From the unit 3204, the adjustment is automatically performed so that the person to be photographed becomes the center of the video. Thereafter, the captured images of the person to be photographed and the group members are transferred to the photographing information processing unit 340. Based on the face information passed from the face information processing unit 3304, the photographing information processing unit 340 displays face information that can be displayed to the users of the terminals 10 and 12 among the faces included in the photographed image, that is, the photographing target. Recognize face information of a person and their group members. At the same time, image processing such as security mask processing is performed for persons and objects that are not permitted to shoot. Then, the processed video is converted into IP data by the data transmission / reception unit 310 and the external interface unit 300 and transmitted to the user terminal. This makes it possible to perform security mask processing on video information related to a person who is not associated with the user authentication information, thereby protecting the privacy of persons and objects who are not subject to photographing.

本実施形態ではこのように、監視用カメラ40、42、44を制御して撮影対象者を撮影するために位置情報格納部3306のデータを参照するが、この位置情報格納部3306のデータは、後述のように、随時、適宜、または定期的に更新され得る。   In the present embodiment, the data in the position information storage unit 3306 is referred to in order to control the surveillance cameras 40, 42, and 44 to image the person to be imaged. As will be described later, it may be updated as needed or periodically.

図9は、本発明の実施形態に従うリモート監視方法の監視処理を示すフローチャートである。
本実施形態では、図9の処理と平行して、図10に示されている位置情報管理処理が行われている。この位置情報管理処理では、端末10、12のユーザの撮影対象者および撮影対象者のグループメンバーの位置が、タグ60、62、64、66の位置をセンサ50、52、54、56、58によって測定することによって決定される。端末10、12のユーザの撮影対象者および撮影対象者のグループメンバーは、端末10、12からのユーザによる入力によって、装置制御部320の認証部3200によって認証される。撮影対象者および撮影対象者のグループメンバーの位置が決まると、彼らを撮影するカメラが決まる。撮影対象者および撮影対象者のグループメンバーの位置の決定は、カメラ40、42、44、センサ50、52、54、56、58、タグ60、62、64、66、リモート監視装置30の外部インタフェース部300、データ送受信部310、装置制御部320によって行われる。測定された撮影対象者および撮影対象者のグループメンバーの位置は、リモート監視装置30の位置情報格納部3306に格納される。装置制御部320では特に、位置測定部3202を用いて、位置情報管理処理が処理される。
FIG. 9 is a flowchart showing the monitoring process of the remote monitoring method according to the embodiment of the present invention.
In the present embodiment, the position information management process shown in FIG. 10 is performed in parallel with the process of FIG. In this position information management process, the positions of the shooting target person of the user of the terminal 10 or 12 and the group members of the shooting target person are determined by the sensors 50, 52, 54, 56 and 58. Determined by measuring. The subject person of the terminal 10 and 12 and the group member of the subject person are authenticated by the authentication unit 3200 of the device control unit 320 by the user input from the terminal 10 and 12. When the positions of the person to be photographed and the group members of the person to be photographed are determined, the camera for photographing them is determined. The positions of the photographing subject and the group members of the photographing subject are determined by the cameras 40, 42, 44, sensors 50, 52, 54, 56, 58, tags 60, 62, 64, 66, and the external interface of the remote monitoring device 30. Unit 300, data transmission / reception unit 310, and apparatus control unit 320. The measured positions of the shooting target person and the group members of the shooting target person are stored in the position information storage unit 3306 of the remote monitoring device 30. In particular, the apparatus control unit 320 uses the position measurement unit 3202 to process the position information management process.

図9を参照すると、監視処理では、まずS100でユーザ認証処理が行われる。詳細は以下で述べるが、この処理は主に、リモート監視装置30の認証部3200で処理される。つまり、端末10、12のユーザを認証し、データベース部330の認証情報格納部3300のデータを更新する。S100の処理で、ユーザの認証に失敗すれば、監視処理を終了する。   Referring to FIG. 9, in the monitoring process, first, a user authentication process is performed in S100. Although details will be described below, this processing is mainly processed by the authentication unit 3200 of the remote monitoring device 30. That is, the user of the terminals 10 and 12 is authenticated, and the data in the authentication information storage unit 3300 of the database unit 330 is updated. If the user authentication fails in S100, the monitoring process is terminated.

S100で利用者の認証に成功したら、S200の撮影・セキュリティマスク処理を行う。詳細は以下で述べるが、端末10、12のユーザに対応して定まる撮影対象者の所定の部分の撮影に適したカメラを選択し、撮影をする。撮影対象者の所定の部分とは、たとえば、顔の前面などである。撮影対象者の顔が撮影されているかどうかは、リモート監視装置30の顔情報格納部3304に格納されている顔情報を含むファイルを参照することによって判定することができる。また、リモート監視装置30に実装される無通信監視タイマ機構を使用して、選択されたカメラとリモート監視装置30の間の通信が所定の時間以上にわたり行われないときには、セッションを切断して、監視処理を終了する。撮影・セキュリティマスク処理は、カメラ40、42、44、リモート監視装置30の外部インタフェース部300、データ送受信部310、装置制御部320を用いて処理される。得られた撮影対象者の所定の部分を含む画像は、リモート監視装置30の撮影情報処理部340に送られる。   If the user is successfully authenticated in S100, the photographing / security mask process in S200 is performed. Although details will be described below, a camera suitable for photographing a predetermined portion of the person to be photographed determined corresponding to the users of the terminals 10 and 12 is selected and photographed. The predetermined part of the person to be photographed is, for example, the front surface of the face. Whether or not the face of the person to be photographed is photographed can be determined by referring to a file including face information stored in the face information storage unit 3304 of the remote monitoring device 30. In addition, when communication between the selected camera and the remote monitoring device 30 is not performed for a predetermined time or longer using the no-communication monitoring timer mechanism implemented in the remote monitoring device 30, the session is disconnected, The monitoring process ends. The imaging / security mask processing is processed using the cameras 40, 42, and 44, the external interface unit 300, the data transmission / reception unit 310, and the device control unit 320 of the remote monitoring device 30. The obtained image including a predetermined portion of the person to be photographed is sent to the photographing information processing unit 340 of the remote monitoring device 30.

さらに、S200の撮影・セキュリティマスク処理では、取得された画像に映っている、撮影対象者および撮影対象者のグループメンバー以外の人に対して、プライバシー保護のための処理、たとえば顔の一部の部分のモザイク処理を行う。この処理は主に、リモート監視装置30の撮影情報処理部340を用いて処理される。さらに、S200では、リモート監視装置30は、プライバシー保護のために処理された画像を端末10、12に表示させる。端末10、12への処理された画像の送信は、リモート監視装置30のデータ送受信部310によって、外部インタフェース部300を介して行われる。
S200の処理が終了すると、本発明に従う監視処理も終了する。
Further, in the photographing / security mask processing of S200, privacy protection processing, for example, part of the face is applied to a person other than the photographing subject and the group member of the photographing subject who is reflected in the acquired image. Perform mosaic processing of the part. This processing is mainly performed using the imaging information processing unit 340 of the remote monitoring device 30. Further, in S200, the remote monitoring device 30 causes the terminals 10 and 12 to display images processed for privacy protection. Transmission of the processed image to the terminals 10 and 12 is performed by the data transmission / reception unit 310 of the remote monitoring device 30 via the external interface unit 300.
When the process of S200 ends, the monitoring process according to the present invention also ends.

<位置情報管理処理>
図10を参照して、位置情報管理処理の詳細を説明する。
まず、S4000では、端末10、12にユーザがログイン中かどうかを判定する。これは、図4に示されているように、リモート監視装置30の認証情報格納部3300に記憶されているデータ、特に認証可否欄およびセッション情報を参照することによって判定することができる。ユーザがログインしていなければ、S4000の判定の結果は“NO”となり、ユーザがログインするまでS4000の処理を繰り返す。ユーザがログインしていれば、S4000の判定の結果は“YES”となる。S4000の判定の結果が“YES”の場合には、S4002に進む。
<Location information management processing>
Details of the location information management process will be described with reference to FIG.
First, in S4000, it is determined whether or not the user is logging in to the terminals 10 and 12. As shown in FIG. 4, this can be determined by referring to data stored in the authentication information storage unit 3300 of the remote monitoring device 30, particularly the authentication availability column and session information. If the user is not logged in, the determination result in S4000 is “NO”, and the process in S4000 is repeated until the user logs in. If the user is logged in, the determination result in S4000 is “YES”. If the determination result in S4000 is “YES”, the flow proceeds to S4002.

S4002では、ユーザの管理IDから、図5に例が示されているような、撮影対象格納部3302に記憶されているデータを参照することによって、撮影対象者のタグIDを決定する。さらに、図8に示されているように、撮影対象者のタグIDから、リモート監視装置30のグループ情報格納部3308に記憶されたデータから撮影対象者のグループメンバーが所有するタグのIDをもとめる。よって、端末10、12のユーザから、撮影対象者および撮影対象者のグループメンバーが所有するタグのIDが決定される。本実施形態では、タグIDはタグの所有者を特定する。よって、ユーザが決まると撮影対象者およびそのグループメンバーが特定される。   In step S4002, the tag ID of the person to be imaged is determined by referring to data stored in the object to be imaged storage unit 3302, as shown in FIG. Further, as shown in FIG. 8, the tag ID owned by the group member of the photographing subject is obtained from the data stored in the group information storage unit 3308 of the remote monitoring device 30 from the tag ID of the photographing subject. . Therefore, the ID of the tag owned by the photographing subject and the group member of the photographing subject is determined from the users of the terminals 10 and 12. In the present embodiment, the tag ID specifies the owner of the tag. Therefore, when the user is determined, the person to be photographed and the group member are specified.

次に、S4004では、センサ50、52、54、56、58を用いて、撮影対象者および撮影対象者のグループメンバーが所有するタグ60、62、64、66の位置を測定する。タグ60、62、64、66の位置は、たとえば、所定の位置に設置されている2つ以上のセンサからの距離が分かれば決定することができる。   Next, in S4004, using the sensors 50, 52, 54, 56, and 58, the positions of the tags 60, 62, 64, and 66 owned by the subject person and the group members of the subject person are measured. The positions of the tags 60, 62, 64, and 66 can be determined, for example, if the distances from two or more sensors installed at predetermined positions are known.

S4004で、撮影対象者および撮影対象者のグループメンバーが所有するタグの位置が測定されると、S4006でその位置にいる撮影対象者および撮影対象者のグループメンバーを撮影するためのカメラを選択する。   When the position of the tag owned by the subject person and the group member of the subject person is measured in S4004, a camera for photographing the subject person and the group member of the subject person in that position are selected in S4006. .

S4006の処理が終わるとS4008に進む。S4008では、S4004で測定されたタグの位置に関する情報を、図7に示されている、位置情報格納部3306に記憶されるデータ中の位置情報に記入する。図7に示されているように、ある所定のタグの位置情報は、たとえば、3つのセンサからの距離によって与えられる。さらに、S4008では、S4006の結果を、図7に示されている、位置情報格納部3306に記憶されるデータ中の位置情報に記入する。
S4008の処理が終了すると、S4000に戻る。
When the processing of S4006 ends, the process proceeds to S4008. In S4008, the information on the tag position measured in S4004 is written in the position information in the data stored in the position information storage unit 3306 shown in FIG. As shown in FIG. 7, the position information of a predetermined tag is given by the distance from three sensors, for example. In step S4008, the result of step S4006 is written in the position information in the data stored in the position information storage unit 3306 shown in FIG.
When the processing of S4008 ends, the process returns to S4000.

この位置情報管理処理は、リモート監視装置30が、センサ50、52、54、56、58からデータの入力を受けている間、随時、適宜、または定期的に行われても良い。これによって、位置情報格納部3306のデータは、後述のように、随時、適宜、または定期的に更新され得る。随時、位置情報管理処理を行う場合には、図10のS4000〜S4008のループが常に処理され、位置情報格納部に格納されているデータは、本監視処理におけるタイムスケールでは、ほぼリアルタイムで更新され得る。本監視処理におけるタイムスケールとしては、たとえば、秒、分、時間、または日のオーダーであっても良い。また、定期的に位置情報管理処理が実施される場合は、S4000の処理が所定の時間間隔で開始される。この所定の時間間隔としては、0.5秒、1.0秒、2.0秒、5.0秒を例示することができる。しかしながら所定の時間間隔は、これらの例には限定されない。または、この位置情報管理処理は、後述の図12のS2000やS2030のように、撮影対象者の位置を確認する際に適宜、実施されてもよい。この位置情報管理処理では、他の処理、たとえば後述の監視処理の速度に影響を与えない範囲で、タグを所有する人(撮影対象者、グループメンバー)の位置を出来るだけ遅延なく、把握することが好ましい。   This position information management process may be performed appropriately or periodically as needed while the remote monitoring device 30 receives data from the sensors 50, 52, 54, 56, and 58. As a result, the data in the position information storage unit 3306 can be updated appropriately or periodically as needed, as will be described later. When the position information management process is performed at any time, the loop of S4000 to S4008 in FIG. 10 is always processed, and the data stored in the position information storage unit is updated almost in real time on the time scale in this monitoring process. obtain. The time scale in this monitoring process may be, for example, the order of seconds, minutes, hours, or days. When the location information management process is periodically performed, the process of S4000 is started at a predetermined time interval. Examples of the predetermined time interval include 0.5 seconds, 1.0 second, 2.0 seconds, and 5.0 seconds. However, the predetermined time interval is not limited to these examples. Alternatively, the position information management process may be appropriately performed when confirming the position of the person to be imaged, as in S2000 and S2030 in FIG. In this position information management process, the position of the person who owns the tag (person to be photographed, group member) is grasped without delay as much as possible without affecting the speed of other processes such as the monitoring process described later. Is preferred.

また、図10とは異なるが、位置情報管理処理は絶え間なく処理される一方で、位置情報格納部3306のデータは、適宜または定期的に更新されるように、リモート監視装置30の装置制御部320を構成しても良い。たとえば、図12のS2000やS2030のように、撮影対象者の位置を確認する際に、位置情報格納部3306のデータ更新が実施されてもよい。このように、タグ60、62、64、66の位置は随時、測定をする一方で、位置情報を含むファイルの更新を測定毎とは異なるタイミングで行うことで、ファイルの書き込みによる処理の遅延を減らすことができる。   Further, although different from FIG. 10, the position information management process is continuously processed, while the data in the position information storage unit 3306 is updated appropriately or periodically, the device control unit of the remote monitoring device 30. 320 may be configured. For example, as in S2000 and S2030 of FIG. 12, the data of the position information storage unit 3306 may be updated when confirming the position of the subject. As described above, the positions of the tags 60, 62, 64, and 66 are measured at any time, while the update of the file including the position information is performed at a timing different from each measurement, thereby delaying the processing due to the file writing. Can be reduced.

また位置情報管理処理は、端末10、12からリモート監視装置30への信号入力によって起動し、端末10、12からリモート監視装置30への信号入力がなくなってから所定の時間が経過するまで繰り返されても良い。   The location information management process is started by a signal input from the terminals 10 and 12 to the remote monitoring device 30, and is repeated until a predetermined time elapses after no signal is input from the terminals 10 and 12 to the remote monitoring device 30. May be.

本実施形態では、センサ50、52、54、56、58を用いてタグ60、62、64、66の位置を測定したが、タグの位置は別の方法で決定しても良い。たとえば、撮影対象者は、タグの代わりに発信機を所有し、発信機の位置をグローバル・ポジショニング・システム(GPS)を用いて決定することも可能である。   In the present embodiment, the positions of the tags 60, 62, 64, and 66 are measured using the sensors 50, 52, 54, 56, and 58. However, the positions of the tags may be determined by other methods. For example, the person to be photographed can own a transmitter instead of a tag, and determine the position of the transmitter using a global positioning system (GPS).

<監視処理>
図9、11〜12を参照しながら、監視処理の詳細を説明する。図9に示されているように、監視処理は、利用者認証処理(S100)および撮影・セキュリティマスク処理(S200)を含む。
<Monitoring process>
Details of the monitoring process will be described with reference to FIGS. As shown in FIG. 9, the monitoring process includes a user authentication process (S100) and a photographing / security mask process (S200).

(利用者認証処理)
図9のS100の利用者認証処理の詳細が、図11に示されている。
本システムのユーザ(利用者とも呼ぶ)が、リモート監視装置30の外部インタフェース部300に接続された端末10、12からリモート監視装置30へのアクセスを行うと、まず、S1000が処理される。S1000では、端末10、12を操作している人が新規利用者であるかどうかを判定する。判定方法としては、ユーザに直接、新規利用者であるかどうかを聞いても良い。S1000の判定で、ユーザが新規利用者であるとされた場合、すなわち判定が“YES”の場合、S1002に進む。そうではない場合、すなわち判定が“NO”の場合、S1012に進む。
(User authentication processing)
Details of the user authentication process in S100 of FIG. 9 are shown in FIG.
When a user (also referred to as a user) of this system accesses the remote monitoring device 30 from the terminals 10 and 12 connected to the external interface unit 300 of the remote monitoring device 30, first, S1000 is processed. In S1000, it is determined whether the person who operates the terminals 10 and 12 is a new user. As a determination method, the user may be asked directly whether or not the user is a new user. If it is determined in S1000 that the user is a new user, that is, if the determination is “YES”, the process proceeds to S1002. If not, that is, if the determination is “NO”, the flow proceeds to S1012.

S1002では、新規利用者に対して管理IDを発行する。その後、S1004に進む。
S1004では、S1002で新規利用者に対して発行された管理IDに対するユーザ名、パスワードを発行し、S1006に進む。
In S1002, a management ID is issued to a new user. Thereafter, the process proceeds to S1004.
In S1004, a user name and password for the management ID issued to the new user in S1002 are issued, and the process proceeds to S1006.

S1006では、新規利用者に関連する撮影対象者が所有するタグのIDおよび、もし存在するなら、撮影対象者に関連するグループメンバーが所有するタグのIDを指定する。タグのIDは、ユーザが端末10、12から直接入力しても良いし、リモート監視装置30に接続される外部デバイスによって、新規利用者に関連する撮影対象者、グループメンバーが所有するタグから読み取っても良い。S1006の処理が終了すると、S1008に進む。   In S1006, the ID of the tag owned by the photographing subject related to the new user and, if present, the ID of the tag owned by the group member related to the photographing subject are designated. The tag ID may be input directly from the terminal 10 or 12 by the user, or read from a tag owned by the photographing subject or group member related to the new user by an external device connected to the remote monitoring device 30. May be. When the process of S1006 ends, the process proceeds to S1008.

S1008では、撮影対象者の顔に関する情報を入力する。撮影対象者の顔情報は、端末10、12によって撮影されたものをリモート監視装置30に転送しても良いし、リモート監視装置30に、たとえばスキャナなど外部デバイスを接続して入力しても良い。または、カメラ40、42、44によって撮影された画像から選択されても良い。   In step S1008, information related to the face of the person to be imaged is input. The face information of the person to be photographed may be transferred to the remote monitoring device 30 as captured by the terminals 10 and 12, or may be input to the remote monitoring device 30 by connecting an external device such as a scanner. . Or you may select from the image image | photographed with the cameras 40, 42, and 44. FIG.

S1008の次のS1010では、S1002で発行された管理ID、S1004で発行された管理IDに対するユーザ名、パスワード、S1006で指定された撮影対象者およびグループメンバーが所有するタグのID、S1008で入力された撮影対象者およびグループメンバーの顔に関する情報を用いて、データベース部330の各部に記憶されるデータが作成される。より具体的には、認証情報格納部3300、撮影対象格納部3302、顔情報格納部3304、位置情報格納部3306、グループ情報格納部3308に格納されるデータが作成される。それぞれのデータの例は、図4〜8に示されている。データベース部330の各部に記憶されるデータが作成されると、S1016に進む。   In step S1010 following step S1008, the management ID issued in step S1002, the user name and password corresponding to the management ID issued in step S1004, the ID of a tag owned by the subject and group member specified in step S1006, and input in step S1008. Data stored in each unit of the database unit 330 is created using information regarding the faces of the photographed person and group members. More specifically, data stored in the authentication information storage unit 3300, the photographing target storage unit 3302, the face information storage unit 3304, the position information storage unit 3306, and the group information storage unit 3308 is created. Examples of each data are shown in FIGS. When data stored in each unit of the database unit 330 is created, the process proceeds to S1016.

一方、S1000の判定で“NO”、即ち、ユーザは新規利用者ではないとされた場合、S1000の次のS1012では、ユーザ名およびパスワードを受け付ける。ユーザ名およびパスワードは、ユーザによって端末10、12から入力される。   On the other hand, if “NO” in the determination in S1000, that is, if the user is not a new user, the user name and password are accepted in S1012 following S1000. The user name and password are input from the terminals 10 and 12 by the user.

S1012の次のS1014では、S1010で入力されたユーザ名およびパスワードから、現在の利用者を認識したかどうかを判定する。この判定の際には、データベース部330の認証情報格納部3300に記憶されているデータを参照する。もし、S1014の判定で“NO”、即ち、利用者を認識しないときは、監視処理を終了する。S1014の判定で“YES”ならば、S1016に進む。   In S1014 after S1012, it is determined whether the current user is recognized from the user name and password input in S1010. In this determination, data stored in the authentication information storage unit 3300 of the database unit 330 is referred to. If “NO” in the determination in S1014, that is, if the user is not recognized, the monitoring process ends. If “YES” in the determination in S1014, the process proceeds to S1016.

S1016からS1026では、データベース部330の撮影対象格納部3302、顔情報格納部3304、グループ情報格納部3308に格納されているデータを更新するかどうかの判定、および、もしデータを更新する場合には、撮影対象格納部3302、顔情報格納部3304、グループ情報格納部3308に格納されているデータの更新を行う。   In steps S1016 to S1026, it is determined whether to update the data stored in the shooting target storage unit 3302, the face information storage unit 3304, and the group information storage unit 3308 of the database unit 330, and if the data is to be updated. The data stored in the photographing target storage unit 3302, the face information storage unit 3304, and the group information storage unit 3308 are updated.

S1016では、現在、認証されているユーザに係わる撮影対象者名を変更するかどうか、を判定する。もし、この判定で“YES”、即ち、現在、認証されているユーザに係わる撮影対象者を変更する場合には、S1018に進み、データベース部330の撮影対象格納部3302に格納されているデータを書き換える。データの書き換えは、たとえば、図5の例での、管理ID“A001”に対する撮影対象者名“Sato hajime”を、“Kodama ichiro”に変更することを含む。そして、その後、S1020に進む。S1016での判定で”NO”の場合には、直接、S1020に進む。   In S1016, it is determined whether or not to change the subject name of the subject related to the currently authenticated user. If “YES” in this determination, that is, if the subject to be photographed related to the currently authenticated user is to be changed, the process proceeds to S1018, and the data stored in the subject to be photographed storage 3302 of the database unit 330 is stored. rewrite. The rewriting of data includes, for example, changing the subject name “Sato hajime” for the management ID “A001” in the example of FIG. 5 to “Kodayamachiro”. Then, the process proceeds to S1020. If “NO” in the determination in S1016, the process directly proceeds to S1020.

S1020では、データベース部330の顔情報格納部3304に格納されている顔情報を更新するかどうか、を判定する。もし、この判定で“YES”、即ち、顔情報を変更する場合には、S1022に進む。S1022では、顔情報格納部3304に格納されている顔情報を更新する。顔情報を更新するとは、たとえば、図6に示されているデータでは、顔情報を含むファイルを置き換えることを含む。顔情報の更新は、図6の例では、撮影対象者タグID“1000a”を所有する撮影対象者“Sato hajime”の顔情報を含むファイル“File−1000a”を別のファイル、たとえば“Kodama ichiro”の顔写真を含むファイル“File−1000aa”に置き換えることを含む。新しい顔情報は、ネットワーク20経由で入力しても良いし、リモート監視装置30に接続される外部デバイスを介して入力しても良い。S1022の処理の後、S1024に進む。S1020の判定で”NO”の場合には、直接、S1024に進む。   In S1020, it is determined whether or not to update the face information stored in the face information storage unit 3304 of the database unit 330. If “YES” in this determination, that is, if the face information is to be changed, the process proceeds to S1022. In S1022, the face information stored in the face information storage unit 3304 is updated. Updating the face information includes, for example, replacing the file containing the face information with the data shown in FIG. In the example of FIG. 6, the update of the face information is performed by replacing the file “File-1000a” including the face information of the person to be photographed “Sato hajime” who owns the person to be photographed with the tag ID “1000a” with another file, for example, “Kodaima chiro Including a file “File-1000aa” including a face photograph of “. New face information may be input via the network 20 or may be input via an external device connected to the remote monitoring device 30. After the process of S1022, the process proceeds to S1024. If “NO” in the determination in S1020, the process directly proceeds to S1024.

S1024では、現在のユーザに関するグループ情報を更新するかどうか、を判定する。もし、この判定で“YES”、即ち、グループ情報を更新する場合には、S1026に進む。S1026では、データベース部330のグループ情報格納部3308に格納されているデータを更新する。図8の例では、撮影対象者タグID“1000a”を所有する撮影対象者に対して、グループメンバーには“1000b”と“1000c”が含まれている。たとえば、グループメンバーに新たに“1000d”を加えることはグループ情報の更新である。S1026の処理が終わると、利用者管理処理を終了する。S1020の判定で”NO”の場合には、利用者管理処理を終了する。   In step S1024, it is determined whether to update the group information regarding the current user. If “YES” in this determination, that is, if group information is updated, the process proceeds to S1026. In S1026, the data stored in the group information storage unit 3308 of the database unit 330 is updated. In the example of FIG. 8, the group members include “1000b” and “1000c” for the photographing subject who owns the photographing subject tag ID “1000a”. For example, newly adding “1000d” to a group member is an update of group information. When the process of S1026 ends, the user management process ends. If “NO” in the determination in S1020, the user management process is terminated.

(撮影・セキュリティマスク処理)
図12を参照しながら、図9の撮影・セキュリティマスク処理S200を詳細に説明する。
まず、S2000では、現在のユーザに関する撮影対象者の位置を確認する。撮影対象者は、タグ60、62、64、66を所有しており、タグの位置は、随時、センサ50、52、54、56、58を用い、図10に示されている位置情報管理処理によって測定され、測定情報は、データベース部330の位置情報格納部3306に格納されているデータ中に記入されている。S2000では、位置情報格納部3306に格納されているデータの中から、現在、ターゲットとしている撮影対象者が所有するタグの位置を読み出す。この処理が終わると、S2002に進む。
(Shooting / Security mask processing)
The imaging / security mask process S200 of FIG. 9 will be described in detail with reference to FIG.
First, in S2000, the position of the subject to be photographed with respect to the current user is confirmed. The person to be photographed owns the tags 60, 62, 64, and 66, and the position of the tag uses the sensors 50, 52, 54, 56, and 58 as needed, and the position information management process shown in FIG. The measurement information is entered in the data stored in the position information storage unit 3306 of the database unit 330. In S2000, from the data stored in the position information storage unit 3306, the position of the tag owned by the current photographing target person is read. When this process ends, the process proceeds to S2002.

S2002では、ターゲットとしている撮影対象者が所有するタグの位置を撮影するのに適したカメラ40、42、44が選択される。タグの位置に最も近いカメラを選択しても良い。S2002でターゲットとしている撮影対象者を撮影するカメラが選択されると、次のS2004で撮影を開始する。S2004での撮影の開始と同時に、S2006で無通信監視タイマ機能を担うタイマ410をリセットする。   In S2002, cameras 40, 42, and 44 suitable for photographing the position of the tag owned by the photographing subject who is the target are selected. The camera closest to the tag position may be selected. When a camera that captures the target person in S2002 is selected, shooting starts in the next S2004. Simultaneously with the start of shooting in S2004, the timer 410 serving as the no-communication monitoring timer function is reset in S2006.

S2006の次のS2008では、認証情報格納部3300のデータを更新する。具体的には、図4に示されているデータの、セッション情報を現状の状態に更新し、無通信監視の欄を“0:00:00”とする。端末10、12とリモート監視装置30の間のセッションが繋がっているか否かのセッション情報は、上述のように、ネットワーク20からの情報を基に装置制御部320の認証部3200によって随時、取得されている。   In S2008 following S2006, the data in the authentication information storage unit 3300 is updated. Specifically, the session information of the data shown in FIG. 4 is updated to the current state, and the no-communication monitoring column is set to “0:00: 00”. As described above, the session information indicating whether or not the session between the terminals 10 and 12 and the remote monitoring device 30 is connected is acquired from time to time by the authentication unit 3200 of the device control unit 320 based on the information from the network 20. ing.

S2008の次のS2010では、撮影された画像情報を、リモート監視装置30の装置制御部330から撮影情報処理部340に送る。撮影された画像には、撮影対象者の所定の部分、たとえば顔の前面が含まれている。また、撮影された画像には、撮影対象者の所定の部分以外のものも写っている可能性がある。たとえば、カメラから見て撮影対象者のすぐ後ろにいて撮影対象者のグループメンバーにも登録されてない人物の顔は、撮影対象者の顔を撮影しようとすると必然的に、写ってしまう可能性がある。このステップでの画像情報には、そのような撮影されることが許可されていない人物の顔または物の写真も含まれている可能性がある。本ステップS2010でカメラ40、42、44によって撮影され、リモート監視装置30の外部インタフェース部300、データ送受信部310を介して装置制御部320に到達した画像を含む情報に関する信号は、撮影情報処理部340に送られる。   In S2010 next to S2008, the captured image information is sent from the device control unit 330 of the remote monitoring device 30 to the imaging information processing unit 340. The photographed image includes a predetermined portion of the person to be photographed, for example, the front surface of the face. In addition, there is a possibility that a photographed image also includes a part other than a predetermined part of the photographing subject. For example, the face of a person who is directly behind the subject and is not registered as a group member of the subject when viewed from the camera may inevitably be captured when attempting to shoot the subject's face. There is. The image information in this step may include a photograph of a person's face or object that is not permitted to be photographed. A signal related to information including an image captured by the cameras 40, 42, and 44 in step S2010 and reaching the device control unit 320 via the external interface unit 300 and the data transmission / reception unit 310 of the remote monitoring device 30 is a shooting information processing unit. 340.

S2012では、リモート監視装置30の装置制御部320から撮影情報処理部340に送られた画像を処理するために、データベース部330の顔情報収納部3304およびグループ情報格納部3308に収納されているデータを参照する。   In step S2012, the data stored in the face information storage unit 3304 and the group information storage unit 3308 of the database unit 330 in order to process the image sent from the device control unit 320 of the remote monitoring device 30 to the imaging information processing unit 340. Refer to

S2012の次のS2014では、S2010で撮影情報処理部340に送られた画像の中に撮影対象者の顔が確認できるかどうかを、撮影対象者の顔の情報を含むファイルを参照して判定する。もし、この判定の結果が“YES”、即ち画像には、撮影対象者の顔が写っているときには、S2016に進む。一方、この判定の結果が“NO”、即ち画像には、撮影対象者の顔が写っていないときには、S2030に進む。   In step S2014 subsequent to step S2012, it is determined whether or not the face of the subject to be photographed can be confirmed in the image sent to the photographing information processing unit 340 in step S2010 with reference to a file including the information of the subject of the subject to be photographed. . If the result of this determination is “YES”, that is, if the face of the subject to be photographed is shown in the image, the process proceeds to S2016. On the other hand, when the result of this determination is “NO”, that is, when the face of the person to be photographed is not shown in the image, the process proceeds to S2030.

S2016では、画像の中に撮影対象者のグループメンバーがいるかどうかを判定する。もし、この判定の結果が“YES”、即ち画像には、撮影対象者のグループメンバーが写っているときには、S2020に進む。一方、この判定の結果が“NO”、即ち画像には、撮影対象者のグループメンバーが写っていないときには、S2018に進む。   In step S2016, it is determined whether or not there is a group member of the subject in the image. If the result of this determination is “YES”, that is, if the image shows the group member of the subject, the process proceeds to S2020. On the other hand, if the result of this determination is “NO”, that is, if the group member of the subject is not shown in the image, the process proceeds to S2018.

S2020では、画像中の撮影対象者以外は全てマスクをするセキュリティマスク処理を行う。この処理によって、撮影対象者以外で画像に写っている人および物は、全て特定不可能となり、プライバシーが保護される。S2020の処理が終了するとS2022に進む。   In step S2020, security mask processing is performed to mask all persons other than the subject in the image. This process makes it impossible to specify all persons and objects in the image other than the person to be photographed, and privacy is protected. When the process of S2020 ends, the process proceeds to S2022.

S2018では、画像中の撮影対象者および撮影対象者のグループメンバー以外の人および物は全てマスクをするセキュリティマスク処理を行う。この処理によって、撮影対象者とそのグループメンバー以外で画像に写っている人および物は、全て特定不可能となり、プライバシーが保護される。セキュリティマスク処理とは、撮影対象者とそのグループメンバー以外で画像に写っている人および物に対して、プライバシー保護のためにその人またはその物を所有している人が特定できないようにする処理であって、マスク処理、モザイク処理等を含む。プライバシー保護のために処理をするものとしては、たとえば幼稚園、保育園、学校等での生徒の監視を目的とする監視システムでは、生徒または教師が身に着けている名札などが挙げられる。また、街の保安のための街路の監視を目的とする監視システムでは、家の表札などが挙げられる。S2018の処理が終了するとS2022に進む。   In step S2018, security mask processing is performed to mask all persons and objects other than the subject person and group members of the subject person in the image. This process makes it impossible to specify all persons and objects in the image other than the subject person and the group members, and privacy is protected. Security mask processing is processing that prevents the person or the person who owns the object from being identified for the purpose of privacy protection for people and objects that are not in the subject and their group members. Including mask processing, mosaic processing, and the like. Examples of processing for privacy protection include name tags worn by students or teachers in a monitoring system for monitoring students in kindergartens, nurseries, schools, and the like. Moreover, in the monitoring system for the purpose of monitoring the street for the security of the city, a house nameplate and the like can be cited. When the processing of S2018 ends, the process proceeds to S2022.

S2020でのセキュリティマスク処理で、画像の中の、撮影対象者とそのグループメンバー以外の領域を全てマスク処理またはモザイク処理をしても良いし、撮影対象者とそのグループメンバー以外の人物の顔全体または顔の一部をマスク処理またはモザイク処理をしても良いことは上に述べたとおりである。   In the security mask process in S2020, all areas other than the subject person and the group member in the image may be masked or mosaic processed, or the entire face of the person other than the subject person and the group member Alternatively, as described above, a part of the face may be masked or mosaic processed.

S2022では、撮影情報を端末10、12への送信に適したデータ転送形式に変換する処理を行う。この処理はデータ送受信部310によって行われる。
S2022の次のS2024では、マスク処理された画像に関する情報を、ネットワーク20を介して端末10、12に送信する。
In S2022, a process of converting the shooting information into a data transfer format suitable for transmission to the terminals 10 and 12 is performed. This processing is performed by the data transmission / reception unit 310.
In step S <b> 2024 subsequent to step S <b> 2022, information related to the masked image is transmitted to the terminals 10 and 12 via the network 20.

S2014の判定が“NO”の場合には、S2030およびS2032で、それぞれ撮影対象者の位置の確認および撮影対象者の撮影のためのカメラの選択を行う。これらの処理は、S2000およびS2002と同一である。S2030およびS2032の処理によって、ターゲットとしている撮影対象者の動きに応じて、撮影をするカメラを変更することができ、撮影対象者の所望の部分、たとえば、顔の前面を確実に撮影することができる。S2030およびS2032の処理が終わると、S2010に戻る。   If the determination in S2014 is “NO”, in S2030 and S2032, confirmation of the position of the person to be photographed and selection of a camera for photographing of the person to be photographed are performed. These processes are the same as S2000 and S2002. By the processing of S2030 and S2032, the camera to be photographed can be changed according to the movement of the photographing subject who is the target, and the desired portion of the photographing subject, for example, the front of the face can be reliably photographed. it can. When the processes of S2030 and S2032 are finished, the process returns to S2010.

S2024の次のS2026では、無通信監視タイマが満了しているかを判定する。もし、S2026の判定の結果が“YES”、即ち、無通信の時間が所定の値を超えた場合には、S2034に進む。S2034では、セッションを切断する。S2034の次のS2036では、認証情報格納部3300に格納されているデータを更新する。より具体的には、図4に示されているようなデータ中のセッション情報欄に、セッションが切断されていることを示す“×”を記入する。そして、監視処理を終了する。S2026の判定で“NO”、即ち、無通信の時間は所定の値を超えておらず、ターゲットとしている撮影対象者の監視が引き続き行われていると判断されるときは、S2028に進む。   In S2026 following S2024, it is determined whether the no-communication monitoring timer has expired. If the determination result in S2026 is “YES”, that is, if the non-communication time exceeds a predetermined value, the process proceeds to S2034. In S2034, the session is disconnected. In S2036 subsequent to S2034, the data stored in the authentication information storage unit 3300 is updated. More specifically, “x” indicating that the session is disconnected is written in the session information column in the data as shown in FIG. Then, the monitoring process ends. If “NO” in the determination in S2026, that is, if the non-communication time does not exceed the predetermined value and it is determined that the target person to be photographed is continuously monitored, the process proceeds to S2028.

セッションの切断の基準となる無通信の時間の値としては、5秒、10秒、30秒、60秒などを例示することができる。しかし、これらの数値には限定されないし、ユーザがログインするたびに手動で設定されるようにしても良い。   Examples of the value of the non-communication time serving as a reference for session disconnection include 5 seconds, 10 seconds, 30 seconds, and 60 seconds. However, it is not limited to these numerical values, and may be manually set every time the user logs in.

S2028では、撮影を終了するかどうかを判定する。たとえば、端末から撮影終了の指示を示す信号が入力されている場合には、S2028の判定は“YES”となる。この場合には、撮影・セキュリティマスク処理を終了する。S2028の判定が“NO”、即ち、撮影の終了を示す信号がリモート監視装置30には一切、入力されていない場合には、S2030に進む。S2028の処理は、リモート監視装置30の装置制御部320によって行われる。   In S2028, it is determined whether or not to end shooting. For example, when a signal indicating an instruction to end shooting is input from the terminal, the determination in S2028 is “YES”. In this case, the photographing / security mask process is terminated. If the determination in S2028 is “NO”, that is, if no signal indicating the end of imaging is input to the remote monitoring device 30, the process proceeds to S2030. The process of S2028 is performed by the device control unit 320 of the remote monitoring device 30.

S2028の判定基準として、S2004の処理から所定の時間が経過しているか否かを採用し、所定の時間が経過しているときには撮影を終了し、そうでなければ撮影を続行するとしても良い。この所定の時間としては、1分、3分、5分、10分、1時間、4時間、8時間などを例示することができるが、これらの値には限定されない。   Whether or not a predetermined time has elapsed since the processing of S2004 is adopted as the determination criterion of S2028, and the imaging may be terminated when the predetermined time has elapsed, otherwise the imaging may be continued. Examples of the predetermined time include 1 minute, 3 minutes, 5 minutes, 10 minutes, 1 hour, 4 hours, and 8 hours, but are not limited to these values.

図9に戻り、S200の撮影・セキュリティマスク処理が終了すると、監視処理は終了する。
上記のような処理を行うことによって、プライバシーの確保をしつつ、監視システムの複数の利用者の各々が所定の撮影対象者を効率よく監視することができる。
Returning to FIG. 9, when the photographing / security mask process of S200 is completed, the monitoring process is terminated.
By performing the processing as described above, each of a plurality of users of the monitoring system can efficiently monitor a predetermined photographing target person while ensuring privacy.

<変形例>
図13〜18を参照して、上記実施形態の変形例を説明する。
上記実施形態では、撮影対象者の位置を決めるために、撮影対象者が所有するタグ60、62、64、66の位置をセンサ50、52、54、56、58によって測定している。しかしながら、本発明の目的のためには、必ずしも撮影対象者の位置を特定する必要性はない。つまり、タグ60、62、64、66とセンサ50、52、54、56、58を用いなくても、撮影対象者の顔がカメラ40、42、44で撮影できれば良い。
<Modification>
A modification of the above embodiment will be described with reference to FIGS.
In the above-described embodiment, the positions of the tags 60, 62, 64, and 66 owned by the imaging subject are measured by the sensors 50, 52, 54, 56, and 58 in order to determine the location of the imaging subject. However, for the purpose of the present invention, it is not always necessary to specify the position of the subject. That is, it is only necessary that the camera 40, 42, 44 can capture the face of the person to be imaged without using the tags 60, 62, 64, 66 and the sensors 50, 52, 54, 56, 58.

本変形例では、撮影情報処理部340に撮影対象者を認識するためのデータベースに、例えば顔情報を格納し、また位置測定部3202に対象者識別制御部を設けることで、タグを用いずに撮影対象者を認識することができる。よって、本変形例では、タグ60、62、64、66とセンサ50、52、54、56、58を用いずに、プライバシーの確保をしつつ、監視システムの複数の利用者が所望の撮影対象者を効率よく監視することが可能なシステムおよび方法が提供される。   In this modification, for example, face information is stored in the database for recognizing the subject to be photographed in the photographing information processing unit 340, and the subject identification control unit is provided in the position measuring unit 3202, so that a tag is not used. The person to be photographed can be recognized. Therefore, in this modification, without using the tags 60, 62, 64, and 66 and the sensors 50, 52, 54, 56, and 58, a plurality of users of the monitoring system can obtain desired shooting targets while ensuring privacy. A system and method capable of efficiently monitoring a person are provided.

本変形例が上記実施形態と大きく異なるのは、図10に示されている位置情報管理処理における処理である。即ち、本変形例では、全てのまたは一部のカメラ40、42、44のうち、撮影対象者が含まれている画像を撮影しているカメラを選択して、撮影対象者を撮影する。この変更に伴って、図12に示されているカメラ制御処理中の撮影対象者の位置を確認するステップ、たとえば、S2000、S2020などはスキップされ得る。また、図12に示されている撮影・セキュリティマスク処理中の撮影対象者の位置を確認するステップ、たとえばS2030もスキップされ得る。   The present modification is greatly different from the above embodiment in the processing in the position information management process shown in FIG. In other words, in this modification, a camera that captures an image including the subject is selected from all or some of the cameras 40, 42, and 44, and the subject is photographed. Along with this change, the step of confirming the position of the person to be imaged during the camera control process shown in FIG. 12, for example, S2000, S2020, etc. may be skipped. Also, the step of confirming the position of the person to be imaged during the image taking / security mask process shown in FIG. 12, for example, S2030 may be skipped.

また、リモート監視装置30の構成も上記のような処理を行うように変更される。
たとえば、装置制御部320では、センサによる位置の測定を行わないので、位置測定部3202は省略され得る。その代わり、カメラ制御部3204は、データベース部330に格納されているデータを参照しながら、ターゲットとする撮影対象者およびそのグループメンバーを撮影可能なカメラを選択する機能を備える。
Further, the configuration of the remote monitoring device 30 is also changed so as to perform the above processing.
For example, since the apparatus control unit 320 does not measure the position by the sensor, the position measurement unit 3202 can be omitted. Instead, the camera control unit 3204 has a function of selecting a camera capable of shooting a target shooting target person and a group member thereof while referring to data stored in the database unit 330.

さらに、タグ60、62、64、66を用いないので、リモート監視装置30のデータベース部330の認証情報格納部3300、撮影対象格納部3302、顔情報格納部3304、位置情報格納部3306、およびグループ情報格納部3308に格納されるデータの形式は、図4〜8に示されているものより簡略化される。   Further, since the tags 60, 62, 64, and 66 are not used, the authentication information storage unit 3300, the photographing target storage unit 3302, the face information storage unit 3304, the position information storage unit 3306, and the group of the database unit 330 of the remote monitoring device 30 are used. The format of data stored in the information storage unit 3308 is simplified from that shown in FIGS.

図13は、本発明の実施形態の変形例に従うリモート監視装置の認証情報格納部3300に収容されるデータの例である。図4に示されているデータの例と比較すると、撮影対象者タグIDの欄が省略されている。   FIG. 13 is an example of data stored in the authentication information storage unit 3300 of the remote monitoring device according to the modification of the embodiment of the present invention. Compared with the data example shown in FIG. 4, the field of the subject tag ID is omitted.

図14は、本発明の実施形態の変形例に従うリモート監視装置の撮影対象格納部3302に収容されるデータの例である。図5に示されているデータの例と比較すると、撮影対象者タグIDの欄が省略され、管理IDに対する撮影対象者名が記入されているのみである。   FIG. 14 is an example of data stored in the imaging target storage unit 3302 of the remote monitoring apparatus according to the modification of the embodiment of the present invention. Compared with the data example shown in FIG. 5, the field of the photographing subject tag ID is omitted, and only the photographing subject name for the management ID is entered.

図15は、本発明の実施形態の変形例に従うリモート監視装置の顔情報格納部3304に収容されるデータの例である。図6の例では、撮影対象者タグIDに対応して、そのタグを所有する撮影対象者の顔の情報を含むファイル名が記入されていたが、本例では、管理IDに対して、その管理IDを有するユーザが撮影可能な撮影対象者の顔の情報を含むファイル名が記入されている。   FIG. 15 is an example of data stored in the face information storage unit 3304 of the remote monitoring device according to the modification of the embodiment of the present invention. In the example of FIG. 6, the file name including the information of the face of the person to be photographed who owns the tag is written in correspondence with the person to be photographed tag ID. A file name including information on the face of the person to be photographed that can be photographed by the user having the management ID is entered.

図16は、本発明の実施形態の変形例に従うリモート監視装置の位置情報格納部3306に収容されるデータの例である。本例では、管理IDに対して、その管理IDを有するユーザが撮影可能な撮影対象者を撮影可能なカメラに関する情報が記入されている。   FIG. 16 is an example of data stored in the position information storage unit 3306 of the remote monitoring device according to the modification of the embodiment of the present invention. In this example, information related to a camera capable of photographing a subject who can photograph a user having the management ID is entered in the management ID.

図17は、本発明の実施形態の変形例に従うリモート監視装置のグループ情報格納部3308に収容されるデータの例である。図8のデータの例と比較すると、図17のデータでは、管理IDに対して、その管理IDを有するユーザが撮影可能な撮影対象者に付随するグループメンバーの管理IDが記入されている。   FIG. 17 is an example of data stored in the group information storage unit 3308 of the remote monitoring device according to the modification of the embodiment of the present invention. Compared to the data example of FIG. 8, in the data of FIG. 17, the management ID of the group member associated with the subject to be photographed that can be photographed by the user having the management ID is entered in the management ID.

図18は、本変形例に従うリモート監視方法の位置情報管理処理を示すフローチャートである。
まず、S5000で端末10、12にユーザがログイン中かどうかを判定する。このステップは、S4000と同一である。ユーザがログインしていれば、S5000の判定の結果は“YES”となる。S5000の判定の結果が“YES”の場合には、S5002に進む。ユーザがログインしていなければ、S5000の判定の結果は“NO”となり、ユーザがログインするまでS5000の処理を繰り返す。
FIG. 18 is a flowchart showing position information management processing of the remote monitoring method according to the present modification.
First, it is determined whether or not the user is logging in to the terminals 10 and 12 in S5000. This step is the same as S4000. If the user is logged in, the result of the determination in S5000 is “YES”. If the determination result in S5000 is “YES”, the flow proceeds to S5002. If the user is not logged in, the result of the determination in S5000 is “NO”, and the process in S5000 is repeated until the user logs in.

次のS5002では、ログインしているユーザから、そのユーザが撮影可能な撮影対象者とグループメンバーを特定する。この際には、図14に示されている撮影対象格納部3302に収容されるデータ、図17に示されているグループ情報格納部3308に収容されるデータが参照される。   In next step S5002, the person to be photographed and the group member who can photograph the user are specified from the logged-in user. At this time, the data stored in the photographing target storage unit 3302 shown in FIG. 14 and the data stored in the group information storage unit 3308 shown in FIG. 17 are referred to.

S5002の次のS5004では、カメラ40、42、44の中から一つ、撮影をするカメラを選択する。このとき、画像を取得するカメラは所定の一つであっても良い。または、この時点で位置情報格納部3306に格納されているデータに記入されているカメラであっても良い。   In S5004 following S5002, one of the cameras 40, 42, and 44 is selected as the camera to be photographed. At this time, a predetermined camera may be used to acquire an image. Alternatively, the camera may be entered in the data stored in the position information storage unit 3306 at this time.

S5004の次のS5006では、S5004で選択されたカメラが撮影した画像を取得する。
S5006の次のS5008では、図15に示されている顔情報格納部3304に収容されるデータを参照して、S5006で取得した画像の中に撮影対象者の顔が含まれているかを判定する。この判定の結果が“YES”、つまり、カメラによって撮影された画像にユーザに関わる撮影対象者が含まれている場合には、S5010に進む。この判定の結果が“NO”、つまり、カメラによって撮影された画像にユーザによって定まる撮影対象者が含まれていない場合には、S5004で撮影するカメラを選択し直したあと、S5006に戻る。
In S5006 following S5004, an image captured by the camera selected in S5004 is acquired.
In S5008 following S5006, it is determined whether or not the face of the subject to be photographed is included in the image acquired in S5006 with reference to the data stored in the face information storage unit 3304 shown in FIG. . If the result of this determination is “YES”, that is, if the image taken by the camera includes a person to be photographed related to the user, the process proceeds to S5010. If the result of this determination is “NO”, that is, if the image taken by the camera does not include the person to be photographed determined by the user, the camera to be photographed is selected again in S5004, and the process returns to S5006.

S5010では、図16に示されているデータの撮影用カメラ情報の欄に、S5006で選択されたカメラの情報を記入する。
S5010の処理が終了すると、S5000に戻る。
In S5010, the information of the camera selected in S5006 is entered in the field of camera information for photographing in the data shown in FIG.
When the processing of S5010 ends, the process returns to S5000.

上述のような位置情報管理処理によって、リモート監視装置30の装置制御部320は、ユーザに対応する撮影対象者の顔を撮影しているカメラからの画像を取得する。
この位置情報管理処理は、端末10、12からリモート監視装置30への信号入力によって起動し、端末10、12からリモート監視装置30への信号入力がなくなってから所定の時間が経過するまで繰り返されても良い。
By the position information management process as described above, the device control unit 320 of the remote monitoring device 30 acquires an image from a camera that is photographing the face of the photographing subject corresponding to the user.
This location information management process is started by signal input from the terminals 10 and 12 to the remote monitoring device 30 and is repeated until a predetermined time elapses after no signal is input from the terminals 10 and 12 to the remote monitoring device 30. May be.

上述のように、一つまたは複数のカメラから撮影対象者およびそのグループメンバーを撮影可能なカメラを選択し、そのカメラによって撮影された画像の中の撮影対象者およびそのグループメンバー以外をセキュリティマスク処理、または撮影対象者およびそのグループメンバー以外は特定不能とすることによって、監視システムの構成はシンプルでありながらも、プライバシーの確保をしつつ、監視システムの複数の利用者の各々が所定の撮影対象者を効率よく監視することができる。   As described above, a camera that can shoot a subject and its group members is selected from one or a plurality of cameras, and security mask processing is performed for all subjects other than the subject and its group members in an image photographed by the camera. Or, by making the person other than the person to be photographed and their group members unidentifiable, each of a plurality of users of the surveillance system is allowed to take a predetermined photographing object while ensuring the privacy while the structure of the surveillance system is simple. Can be monitored efficiently.

以上の実施形態および変形例に関し、さらに以下の付記を開示する。
(付記1)
ユーザの認証を行うユーザ認証手段と、
認証された前記ユーザに対応し、前記ユーザによる監視の対象である監視対象者を画定する監視対象者画定手段と、
前記監視対象者を撮影して画像を出力する撮影手段と、
前記撮影手段によって得られた前記画像の中の前記監視対象者の画像部分のみを未処理のまま前記画像を出力する撮影情報処理手段と、
を含む監視システム。
(付記2)
前記監視対象者画定手段はさらに、前記監視対象者に関連し、前記ユーザによる監視が許容されるグループメンバーを画定するグループメンバー画定手段を含み、
前記撮影情報処理手段は、前記画像のうち前記監視対象者および前記グループメンバーの画像部分のみが撮影されている部分を未処理のまま前記画像を出力する、付記1のシステム。
(付記3)
さらに、前記監視対象者の位置を測定する位置測定手段を含み、
前記撮影手段は、前記位置測定手段によって測定された前記監視対象者の位置を撮影する、付記1のシステム。
(付記4)
前記撮影手段は、複数の撮像手段を含み、
さらに、前記複数の撮像手段のいずれかによって得られた前記画像の中に前記監視対象者が含まれているかを判定し、前記監視対象者が含まれている画像を取得する前記複数の撮像手段のいずれかによって前記監視対象者を撮影するように構成される位置測定手段を含む、付記1または2のシステム。
(付記5)
前記撮影手段は、複数の撮像手段を含み、
さらに、前記複数の撮像手段のいずれかによって得られた前記画像の中に前記監視対象者および前記グループメンバーが含まれているかを判定し、前記監視対象者および前記グループメンバーが含まれている画像を取得する前記複数の撮像手段のいずれかによって前記監視対象者を撮影するように構成される位置測定手段を含む、付記2のシステム。
(付記6)
さらに、前記監視対象者および前記グループメンバーの位置を測定する位置測定手段を含み、
前記撮影手段は、前記位置測定手段によって測定された前記監視対象者および前記グループメンバーの位置を撮影する、付記2または5のシステム。
(付記7)
さらに、前記位置測定手段は前記監視対象者によって所有されるタグおよび前記タグを識別するためのセンサを含み、前記タグの位置を前記センサによって測定することによって、前記監視対象者の位置を測定する、付記3または4のシステム。
(付記8)
さらに、前記位置測定手段は前記監視対象者および前記グループメンバーによって所有されるタグおよび前記タグを識別するためのセンサを含み、前記タグの位置を前記センサによって測定することによって、前記監視対象者および前記グループメンバーの位置を測定する、付記5のシステム。
(付記9)
前記撮影情報処理手段は、前記撮影手段によって得られた前記画像の中の前記監視対象者以外の領域をモザイク処理またはマスク処理する、付記1乃至8のいずれか一つのシステム。
(付記10)
前記撮影情報処理手段は、前記撮影手段によって得られた前記画像の中の前記監視対象者および前記グループメンバー以外の領域をモザイク処理またはマスク処理する、付記2、5、6および8のいずれか一つのシステム。
(付記11)
前記撮影情報処理手段は、前記撮影手段によって得られた前記画像の中の前記監視対象者および前記グループメンバー以外の人物の少なくとも一部の画像部分をモザイク処理またはマスク処理する、付記2、5、6および8のいずれか一つのシステム。
(付記12)
前記人物の少なくとも一部の画像部分は、顔全体または顔の一部である、付記11のシステム。
(付記13)
ユーザの認証を行うことと、
認証された前記ユーザに対応し、前記ユーザによる監視の対象である監視対象者を画定することと、
前記監視対象者を撮影して画像を出力することと、
前記画像の中の前記監視対象者の画像部分のみを未処理のまま前記画像を出力することと、
を含む監視方法。
(付記14)
前記監視対象者を画定することはさらに、前記監視対象者に関連し、前記ユーザによる監視が許容されるグループメンバーを画定することを含み、
前記画像の中の前記監視対象者のみを、未処理のまま出力することは、前記監視対象者および前記グループメンバーのみを、未処理のまま出力する、付記13の方法。
(付記15)
さらに、前記監視対象者の位置を測定することを含み、
前記監視対象者を撮影して画像を出力することは、前記位置測定手段によって測定された前記監視対象者の位置を撮影する、付記13の方法。
(付記16)
前記監視対象者を撮影して画像を出力することは、複数の撮像手段によって行われ、
さらに、前記複数の撮像手段のいずれかによって得られた前記画像の中に前記監視対象者が含まれているかを判定し、前記監視対象者が含まれている画像を取得する前記複数の撮像手段のいずれかによって前記監視対象者を撮影すること、
を含む付記13または14の方法。
(付記17)
前記監視対象者および前記グループメンバーを撮影して画像を出力することは、複数の撮像手段によって行われ、
さらに、前記複数の撮像手段のいずれかによって得られた前記画像の中に前記監視対象者および前記グループメンバーが含まれているかを判定し、前記監視対象者が含まれている画像を取得する前記複数の撮像手段のいずれかによって少なくとも前記前記撮影対象者を撮影すること、を含む付記14の方法。
(付記18)
さらに、前記監視対象者および前記グループメンバーの位置を測定すること(図10、S4004〜S4008)を含み、
前記監視対象者を撮影して画像を出力することは、前記位置測定手段によって測定された前記監視対象者および前記グループメンバーの位置を撮影する、付記14または17の方法。
(付記19)
さらに、前記監視対象者の位置を測定することは前記監視対象者によって所有されるタグの位置を前記タグを識別するためのセンサによって測定することによって、前記監視対象者の位置を測定する、付記15または16の方法。
(付記20)
さらに、前記監視対象者の位置を測定することは前記監視対象者および前記グループメンバーによって所有されるタグの位置を前記タグを識別するためのセンサによって測定することによって、前記監視対象者の位置を測定する、付記16の方法。
(付記21)
前記画像の中の前記監視対象者のみを、未処理のまま出力することは、前記画像の中の前記監視対象者以外の領域をモザイク処理またはマスク処理する、付記13乃至20のいずれか一つの方法。
(付記22)
前記画像の中の前記監視対象者のみを、未処理のまま出力することは、前記画像の中の前記監視対象者および前記グループメンバー以外の領域をモザイク処理またはマスク処理する、付記14、18、19および21のいずれか一つの方法。
(付記23)
前記画像の中の前記監視対象者のみを、未処理のまま出力することは、前記画像の中の前記監視対象者および前記グループメンバー以外の人物の少なくとも一部の画像部分をモザイク処理またはマスク処理する、付記14、18、19および21のいずれか一つの方法。
(付記24)
前記人物の少なくとも一部の画像部分は、顔全体または顔の一部である、付記23の方法。
(付記25)
入出力装置および撮影手段に繋がるリモート監視装置であって、
前記入出力装置からユーザに関する情報を受信し、前記ユーザの認証を行う認証部と、
前記認証部で認証されたユーザが監視の対象とする撮影対象者を撮影するように、前記撮影手段を制御し、前記撮影対象者の画像を取得する制御部と、
前記撮影手段によって得られた前記画像の中の前記監視対象者が写っている領域以外の領域の少なくとも一部にセキュリティマスク処理を施し、撮影されている人または物の特定ができないようにする撮影情報処理部と、
前記撮影情報処理部によって処理された画像を前記入出力装置に出力するデータ送受信部を含む装置。
(付記26)
さらに、前記撮影対象者の位置を測定する位置測定部を含み、
前記制御部は、前記撮影手段が前記撮影対象者の前記位置を撮影するように制御する、付記25の装置。
(付記27)
さらに、認証部は、前記ユーザで決まる撮影対象者と共に撮影されることが許容されるグループメンバーを決定し、
前記撮影情報処理部は、前記撮影手段によって得られた前記画像の中の前記監視対象者および前記グループメンバーが写っている領域以外の領域の少なくとも一部にセキュリティマスク処理を施す、付記25の装置。
(付記28)
さらに、前記撮影対象者を撮影している撮影手段を選択する位置測定部を含み、
前記制御部は、位置測定部で選択された前記撮影手段が前記撮影対象者を撮影するように制御する、付記25または27の装置。
(付記29)
撮影情報処理部は、前記撮影手段によって得られた前記画像の中の前記監視対象者および前記グループメンバー以外の人の顔の少なくとも一部に、前記セキュリティマスク処理を施す、付記25乃至29のいずれか一つの装置。
The following supplementary notes are further disclosed with respect to the above embodiments and modifications.
(Appendix 1)
User authentication means for authenticating the user;
A monitoring target person defining means for corresponding to the authenticated user and defining a monitoring target person to be monitored by the user;
Photographing means for photographing the monitoring subject and outputting an image;
Photographing information processing means for outputting the image without processing only the image portion of the monitoring subject in the image obtained by the photographing means;
Including monitoring system.
(Appendix 2)
The monitoring subject defining means further includes group member defining means for defining a group member related to the monitoring subject and allowed to be monitored by the user,
The system according to claim 1, wherein the photographing information processing means outputs the image without processing a portion of the image where only the image portion of the monitoring subject and the group member is photographed.
(Appendix 3)
Furthermore, it includes a position measuring means for measuring the position of the monitoring subject,
The system according to appendix 1, wherein the photographing unit photographs the position of the monitoring subject measured by the position measuring unit.
(Appendix 4)
The imaging means includes a plurality of imaging means,
Further, the plurality of imaging means for determining whether or not the monitoring target person is included in the image obtained by any of the plurality of imaging means, and acquiring the image including the monitoring target person The system according to appendix 1 or 2, including position measurement means configured to photograph the monitoring subject by any of the above.
(Appendix 5)
The imaging means includes a plurality of imaging means,
Furthermore, it is determined whether the monitoring target person and the group member are included in the image obtained by any of the plurality of imaging units, and the monitoring target person and the group member are included. The system according to claim 2, further comprising a position measuring unit configured to photograph the monitoring subject by any of the plurality of imaging units that acquire the image.
(Appendix 6)
Furthermore, it includes a position measuring means for measuring the positions of the monitoring subject and the group member,
The system according to appendix 2 or 5, wherein the photographing unit photographs the positions of the monitoring subject and the group member measured by the position measuring unit.
(Appendix 7)
Further, the position measuring means includes a tag owned by the monitoring subject and a sensor for identifying the tag, and measures the position of the monitoring subject by measuring the position of the tag by the sensor. The system of Appendix 3 or 4.
(Appendix 8)
Further, the position measuring means includes a tag owned by the monitoring subject and the group member and a sensor for identifying the tag, and by measuring the position of the tag by the sensor, the monitoring subject and The system according to appendix 5, wherein the position of the group member is measured.
(Appendix 9)
The system according to any one of appendices 1 to 8, wherein the imaging information processing unit performs mosaic processing or mask processing on a region other than the monitoring target person in the image obtained by the imaging unit.
(Appendix 10)
The imaging information processing unit performs mosaic processing or mask processing on an area other than the monitoring target person and the group member in the image obtained by the imaging unit, and any one of appendices 2, 5, 6 and 8 Systems.
(Appendix 11)
The imaging information processing means performs mosaic processing or mask processing on at least a part of an image portion of a person other than the monitoring target person and the group member in the image obtained by the imaging means, The system of any one of 6 and 8.
(Appendix 12)
The system according to claim 11, wherein the image portion of at least a part of the person is the entire face or a part of the face.
(Appendix 13)
Authenticating the user,
Defining a monitored person corresponding to the authenticated user and being monitored by the user;
Photographing the person to be monitored and outputting an image;
Outputting the image without processing only the image portion of the monitoring subject in the image;
Including monitoring methods.
(Appendix 14)
Defining the monitored person further includes defining a group member associated with the monitored person and allowed to be monitored by the user;
The method according to appendix 13, wherein outputting only the monitoring target person in the image without processing outputs only the monitoring target person and the group member without processing.
(Appendix 15)
Further comprising measuring the position of the person being monitored,
The method according to supplementary note 13, wherein photographing the monitoring subject and outputting an image photographs the position of the monitoring subject measured by the position measuring unit.
(Appendix 16)
Shooting the monitoring subject and outputting an image is performed by a plurality of imaging means,
Further, the plurality of imaging means for determining whether or not the monitoring target person is included in the image obtained by any of the plurality of imaging means, and acquiring the image including the monitoring target person Photographing the person to be monitored by any of the following:
The method of appendix 13 or 14, comprising
(Appendix 17)
Shooting the monitoring subject and the group member and outputting an image is performed by a plurality of imaging means,
Further, it is determined whether the monitoring target person and the group member are included in the image obtained by any of the plurality of imaging means, and the image including the monitoring target person is acquired. 15. The method according to appendix 14, including photographing at least the subject to be photographed by any of a plurality of imaging means.
(Appendix 18)
And measuring the positions of the monitoring subject and the group members (FIG. 10, S4004-S4008),
The method according to appendix 14 or 17, wherein photographing the monitoring subject and outputting an image photograph the positions of the monitoring subject and the group member measured by the position measuring unit.
(Appendix 19)
Further, measuring the position of the monitored person measures the position of the monitored person by measuring the position of the tag owned by the monitored person by a sensor for identifying the tag. 15 or 16 methods.
(Appendix 20)
Further, measuring the position of the monitored person may determine the position of the monitored person by measuring a position of a tag owned by the monitored person and the group member by a sensor for identifying the tag. The method of appendix 16, wherein measurement is performed.
(Appendix 21)
Any one of appendices 13 to 20 wherein outputting only the monitoring target person in the image without processing performs mosaic processing or mask processing on an area other than the monitoring target person in the image. Method.
(Appendix 22)
Outputting only the monitoring target person in the image without processing is to mosaic or mask the area other than the monitoring target person and the group member in the image. The method of any one of 19 and 21.
(Appendix 23)
Outputting only the person to be monitored in the image without processing means that mosaic processing or mask processing is performed on at least part of the image part of the person other than the person to be monitored and the group member in the image. The method of any one of appendices 14, 18, 19 and 21.
(Appendix 24)
The method according to appendix 23, wherein at least a part of the image portion of the person is the entire face or a part of the face.
(Appendix 25)
A remote monitoring device connected to the input / output device and the photographing means,
An authentication unit that receives information about the user from the input / output device and authenticates the user;
A control unit that controls the photographing unit so that a user who is authenticated by the authentication unit captures a subject to be monitored, and acquires an image of the subject.
Photographing that applies security mask processing to at least a part of the area other than the area in which the person to be monitored is captured in the image obtained by the photographing means so that the person or object being photographed cannot be identified. An information processing unit;
An apparatus including a data transmitting / receiving unit that outputs an image processed by the photographing information processing unit to the input / output device.
(Appendix 26)
Furthermore, a position measuring unit that measures the position of the subject to be photographed is included,
The apparatus according to appendix 25, wherein the control unit controls the photographing unit to photograph the position of the subject.
(Appendix 27)
Further, the authentication unit determines a group member that is allowed to be photographed together with a photographing subject determined by the user,
The apparatus according to appendix 25, wherein the imaging information processing unit performs security mask processing on at least a part of an area other than the area in which the monitoring target person and the group member are captured in the image obtained by the imaging means. .
(Appendix 28)
In addition, a position measuring unit that selects a photographing means photographing the subject person,
The apparatus according to appendix 25 or 27, wherein the control unit controls the photographing unit selected by the position measuring unit to photograph the subject.
(Appendix 29)
Any one of appendices 25 to 29, wherein the imaging information processing unit performs the security mask process on at least a part of a face of the person other than the monitoring target person and the group member in the image obtained by the imaging unit. Or one device.

10、12 端末
20 ネットワーク
30 リモート監視装置
300 外部インタフェース部
310 データ送受信部
320 装置制御部
3200 認証部
3202 位置測定部
3204 カメラ制御部
330 データベース部
3300 認証情報格納部
3302 撮影対象格納部
3304 顔情報格納部
3306 位置情報格納部
3308 グループ情報格納部
340 撮影情報処理部
40、42、44 カメラ
50、52、54、56、58 センサ
60、62、64、66 タグ
10, 12 terminal 20 network 30 remote monitoring device 300 external interface unit 310 data transmission / reception unit 320 device control unit 3200 authentication unit 3202 position measurement unit 3204 camera control unit 330 database unit 3300 authentication information storage unit 3302 photographing object storage unit 3304 face information storage Unit 3306 position information storage unit 3308 group information storage unit 340 imaging information processing unit 40, 42, 44 camera 50, 52, 54, 56, 58 sensor 60, 62, 64, 66 tag

Claims (10)

ユーザの認証を行うユーザ認証手段と、
認証された前記ユーザに対応し、前記ユーザによる監視の対象である監視対象者を画定する監視対象者画定手段と、
前記監視対象者を撮影して画像を出力する、複数の撮像手段を含む撮影手段と、
前記複数の撮像手段のうちの一つによって得られた画像に前記監視対象者が写っているか否かを判定し、写っていないときは、前記撮影手段を制御して、前記撮像手段のうちの別の一つを、前記監視対象者の位置を測定する位置測定手段によって測定された前記監視対象者の位置に基づいて選択させて前記監視対象者の撮影を行わせる撮影制御手段と、
前記撮影手段によって得られた前記画像の中の前記監視対象者の画像部分以外の領域をモザイク処理またはマスク処理して出力する撮影情報処理手段と、
を含む監視システム。
User authentication means for authenticating the user;
A monitoring target person defining means for corresponding to the authenticated user and defining a monitoring target person to be monitored by the user;
An imaging means including a plurality of imaging means for imaging the monitoring subject and outputting an image;
It is determined whether or not the person to be monitored is reflected in an image obtained by one of the plurality of imaging means. If not, the imaging means is controlled to Another one is a photographing control means for performing photographing of the monitoring subject by selecting based on the position of the monitoring subject measured by the position measuring means for measuring the position of the monitoring subject,
Imaging information processing means for outputting a region other than the image portion of the monitoring subject in the image obtained by the imaging means by performing mosaic processing or mask processing, and
Including monitoring system.
前記監視対象者画定手段はさらに、前記監視対象者に関連し、前記ユーザによる監視が許容されるグループメンバーを画定するグループメンバー画定手段を含み、
前記撮影情報処理手段は、前記画像の中の前記監視対象者の画像部分以外の領域であって且つ前記グループメンバーの画像部分以外の領域をモザイク処理またはマスク処理して出力する、請求項1のシステム。
The monitoring subject defining means further includes group member defining means for defining a group member related to the monitoring subject and allowed to be monitored by the user,
The imaging information processing means outputs a region other than the image portion of the monitoring target person in the image and a region other than the image portion of the group member after performing mosaic processing or mask processing. system.
さらに、前記位置測定手段を含み、
前記撮影手段は、前記位置測定手段によって測定された前記監視対象者の位置を撮影する、請求項1のシステム。
And further comprising the position measuring means,
The system according to claim 1, wherein the photographing unit photographs the position of the monitoring subject measured by the position measuring unit.
さらに、前記複数の撮像手段のいずれかによって得られた前記画像の中に前記監視対象者が含まれているかを判定し、前記監視対象者が含まれている画像を取得する前記複数の撮像手段のいずれかによって前記監視対象者を撮影するように構成される位置測定手段を含む、請求項1または2のシステム。   Further, the plurality of imaging means for determining whether or not the monitoring target person is included in the image obtained by any of the plurality of imaging means, and acquiring the image including the monitoring target person The system according to claim 1, further comprising position measuring means configured to take an image of the person being monitored by any of the above. さらに、前記複数の撮像手段のいずれかによって得られた前記画像の中に前記監視対象者および前記グループメンバーが含まれているかを判定し、前記監視対象者および前記グループメンバーが含まれている画像を取得する前記複数の撮像手段のいずれかによって前記監視対象者を撮影するように構成される位置測定手段を含む、請求項2のシステム。   Furthermore, it is determined whether the monitoring target person and the group member are included in the image obtained by any of the plurality of imaging units, and the monitoring target person and the group member are included. The system according to claim 2, further comprising a position measuring unit configured to photograph the monitoring subject by any of the plurality of imaging units that acquire the image. さらに、前記位置測定手段を含み、
前記位置測定手段は、前記グループメンバーの位置を更に測定し、
前記撮影手段は、前記位置測定手段によって測定された前記監視対象者および前記グループメンバーの位置を撮影する、請求項2または5のシステム。
And further comprising the position measuring means,
The position measuring means further measures the position of the group member;
The system according to claim 2, wherein the photographing unit photographs the positions of the monitoring subject and the group member measured by the position measuring unit.
さらに、前記位置測定手段は前記監視対象者によって所有されるタグおよび前記タグを識別するためのセンサを含み、前記タグの位置を前記センサによって測定することによって、前記監視対象者の位置を測定する、請求項3または4のシステム。   Further, the position measuring means includes a tag owned by the monitoring subject and a sensor for identifying the tag, and measures the position of the monitoring subject by measuring the position of the tag by the sensor. The system of claim 3 or 4. さらに、前記位置測定手段は前記監視対象者および前記グループメンバーによって所有されるタグおよび前記タグを識別するためのセンサを含み、前記タグの位置を前記センサによって測定することによって、前記監視対象者および前記グループメンバーの位置を測定する、請求項5のシステム。   Further, the position measuring means includes a tag owned by the monitoring subject and the group member and a sensor for identifying the tag, and by measuring the position of the tag by the sensor, the monitoring subject and The system of claim 5, wherein the position of the group member is measured. 前記撮影情報処理手段は、前記撮影手段によって得られた前記画像の中の前記監視対象者および前記グループメンバー以外の人物の少なくとも一部の画像部分の領域をモザイク処理またはマスク処理する、請求項2、5、6および8のいずれか一つのシステム。   The image processing information processing unit performs mosaic processing or mask processing on at least a part of an image portion of a person other than the monitoring target person and the group member in the image obtained by the image capturing unit. The system according to any one of 5, 6, and 8. 前記人物の少なくとも一部の画像部分は、顔全体または顔の一部である、請求項9のシステム。   The system of claim 9, wherein the image portion of at least a portion of the person is an entire face or a part of a face.
JP2011117433A 2011-05-25 2011-05-25 Secure remote monitoring device and method Expired - Fee Related JP5883577B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011117433A JP5883577B2 (en) 2011-05-25 2011-05-25 Secure remote monitoring device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011117433A JP5883577B2 (en) 2011-05-25 2011-05-25 Secure remote monitoring device and method

Publications (2)

Publication Number Publication Date
JP2012248967A JP2012248967A (en) 2012-12-13
JP5883577B2 true JP5883577B2 (en) 2016-03-15

Family

ID=47469035

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011117433A Expired - Fee Related JP5883577B2 (en) 2011-05-25 2011-05-25 Secure remote monitoring device and method

Country Status (1)

Country Link
JP (1) JP5883577B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6104059B2 (en) * 2013-06-03 2017-03-29 キヤノン株式会社 Image processing apparatus, imaging apparatus, object recognition method and program
JP6366022B2 (en) * 2016-01-11 2018-08-01 パナソニックIpマネジメント株式会社 MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD
US10134207B2 (en) * 2017-04-20 2018-11-20 Saudi Arabian Oil Company Securing SCADA network access from a remote terminal unit
JP2020115607A (en) * 2019-01-17 2020-07-30 日本電気株式会社 Image processing device, image processing method, and program
JP7408116B2 (en) * 2019-05-07 2024-01-05 株式会社鳥山研究室 Imaging data provision system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002269209A (en) * 2001-03-14 2002-09-20 Hitachi Ltd Child nursing method and child nursing system and care service system
JP2006101028A (en) * 2004-09-28 2006-04-13 Hitachi Kokusai Electric Inc Supervisory system
US7792295B2 (en) * 2005-04-25 2010-09-07 Panasonic Corporation Monitoring camera system, imaging device, and video display device
JP5150067B2 (en) * 2006-07-05 2013-02-20 パナソニック株式会社 Monitoring system, monitoring apparatus and monitoring method
JP2012186674A (en) * 2011-03-07 2012-09-27 Hitachi Kokusai Electric Inc Monitoring camera system

Also Published As

Publication number Publication date
JP2012248967A (en) 2012-12-13

Similar Documents

Publication Publication Date Title
JP5150067B2 (en) Monitoring system, monitoring apparatus and monitoring method
JP5883577B2 (en) Secure remote monitoring device and method
JP2005026832A (en) Radio camera network system and radio photographing apparatus
KR102237086B1 (en) Apparatus and method for controlling a lobby phone that enables video surveillance through a communication terminal that can use a 5G mobile communication network based on facial recognition technology
US7441005B2 (en) Information supply system using communication line
WO2020174634A1 (en) Accurate digital security system, method, and program
JP2007328626A (en) Building confirmation system
JP2020010158A (en) Provision method of peripheral image, and program for communication terminal
JP2008148053A (en) Apparatus, server and method for image processing, and control program
JP6534801B2 (en) Image confirmation system and center device
JP2008040738A (en) Facility monitoring system
US20200226406A1 (en) Information processing system to obtain and manage images of a property
US10158696B2 (en) Image transmission method for transmitting image data between image transmission apparatus and a plurality of terminal devices
JP2009124539A (en) Photographic image providing server, photographic image providing system and method
US20080298690A1 (en) Digital Photo Content Processing System and Method and Apparatus for Transmitting/Receiving Digital Photo Contents Thereof
JP2009159221A (en) Image distribution system
KR101415214B1 (en) Method of acquiring and transferring control right for a picture taking robot
KR20160108236A (en) Video delivery system and attaching tag
JP2008172651A (en) Photographed image management system
KR101861732B1 (en) System for tracking an observable
JP2005123940A (en) Device, system, method and program for providing information
KR101571838B1 (en) Multi functional system utilizing beacon and method for using the same
JP2005039508A (en) Child care monitoring system, method for monitoring child care and computer program
JP6213238B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP6921550B2 (en) Monitoring system and monitoring method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150602

RD12 Notification of acceptance of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7432

Effective date: 20150724

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150803

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160208

R150 Certificate of patent or registration of utility model

Ref document number: 5883577

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees