JP2006054719A - Image processing apparatus and image processing system - Google Patents

Image processing apparatus and image processing system Download PDF

Info

Publication number
JP2006054719A
JP2006054719A JP2004235495A JP2004235495A JP2006054719A JP 2006054719 A JP2006054719 A JP 2006054719A JP 2004235495 A JP2004235495 A JP 2004235495A JP 2004235495 A JP2004235495 A JP 2004235495A JP 2006054719 A JP2006054719 A JP 2006054719A
Authority
JP
Japan
Prior art keywords
image
image processing
information
processing
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004235495A
Other languages
Japanese (ja)
Other versions
JP4403039B2 (en
Inventor
Takashi Matsuoka
孝 松岡
Takashi Yamazaki
孝 山崎
Takashi Usui
孝 薄井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2004235495A priority Critical patent/JP4403039B2/en
Publication of JP2006054719A publication Critical patent/JP2006054719A/en
Application granted granted Critical
Publication of JP4403039B2 publication Critical patent/JP4403039B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a monitoring system capable of protecting privacy and efficiently securing security. <P>SOLUTION: An image processing system 300 for acquiring image information picked up by a monitoring target system 100 and processing the acquired image information is provided with: a means for receiving a set state indicating whether image processing is to be performed or not, a means for storing information corresponding to processing information indicating the contents of image processing in each pattern indicating a target to which the image processing is to be applied; a means for calculating the position of an image matched with the pattern in the image information when the image matched with the pattern stored in the acquired image information is included and creating image processing data to which the processing information corresponding to the pattern is associated with each calculated position; and a means for performing image processing for the image information acquired by using the generated image processing data when setting for performing the image processing is received and displaying the processed image information. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像処理技術に関し、特に、撮像装置により撮像された画像データに画像処理を施して表示させる監視システムの技術に関する。   The present invention relates to an image processing technique, and more particularly to a technique of a monitoring system that performs image processing on image data captured by an imaging apparatus and displays the image data.

犯罪などの状況確認を映像で行うことを目的として、或いは、犯罪の抑止を目的として、監視カメラを有する監視システムを利用した映像監視が行われている。この映像監視により犯罪者の顔など身体的特徴やその行動を把握することができる。そのため、監視システムは、セキュリティの確保に有効な手段と考えられている。   Video surveillance using a surveillance system having a surveillance camera is performed for the purpose of confirming a situation such as a crime with video or for the purpose of deterring crime. This video surveillance makes it possible to grasp the physical features such as the criminal's face and its behavior. Therefore, the monitoring system is considered as an effective means for ensuring security.

さて、監視システムを用いて不特定多数の人間が通行するような場所を映像監視した場合、撮像された映像データには、その撮像場所を通行したすべての人物の映像データが含まれることとなる。そして、不特定多数の人間が通行するような場所を映像監視した場合、撮像された映像データが不正に利用されてプライバシーが侵害される可能性があるという問題が指摘されている。例えば、撮像された映像データからある人物の行動などの個人情報が不正に利用されることも考えられる。特に、近年は、コンピュータ技術の発展により映像データ等を大量に蓄積して処理することが簡単に行えるようになってきている。そのため、監視システムによるセキュリティ確保とプライバシーの保護との両立を図ることは重要な問題となっている。   Now, when video surveillance is performed on a place where an unspecified number of people pass by using the monitoring system, the captured video data includes video data of all persons passing through the imaging location. . Then, when video surveillance is performed in a place where an unspecified number of people pass, there is a problem that privacy may be infringed by illegally using captured video data. For example, it is conceivable that personal information such as a person's behavior is illegally used from the captured video data. In particular, in recent years, with the development of computer technology, it has become possible to easily store and process a large amount of video data and the like. For this reason, it is an important problem to achieve both security and privacy protection by the monitoring system.

従来から、監視カメラが撮像した映像信号に対して、監視映像を監視するユーザ権限にしたがいレベルの異なるモザイク処理を施し、モザイク処理された映像を表示する監視システムが知られている(例えば、特許文献1)。特許文献1によれば、監視者のユーザ権限に応じて監視映像に対するレベルの異なる加工ができるため、プライバシーの保護を考慮した映像監視が可能となる。   2. Description of the Related Art Conventionally, there is known a monitoring system that displays a mosaic-processed video by performing different levels of mosaic processing on a video signal captured by a monitoring camera according to a user authority to monitor the monitoring video (for example, patents). Reference 1). According to Japanese Patent Laid-Open No. 2004-260688, processing with different levels on the monitoring video can be performed according to the user authority of the monitoring person, so that video monitoring considering privacy protection can be performed.

特開2004−32459号公報JP 2004-32459 A

しかしながら、特許文献1は、監視映像を表示処理する都度、監視映像の中のモザイク処理を施す位置を算出して、所定の利用者権限に応じたモザイク処理を行なっている。したがって、特許文献1では、撮像された監視映像を繰り返して表示処理する場合、その都度、モザイク処理を施す位置を算出し、利用者権限に応じたモザイク処理を行なう必要があり、結果的に表示処理に長時間を費やしてしまう。そのため、特許文献1では、監視業務を効率よく行えない場合がある。   However, Patent Literature 1 calculates a mosaic processing position in the monitoring video every time the monitoring video is displayed, and performs the mosaic processing according to a predetermined user authority. Therefore, in Patent Document 1, when the captured surveillance video is repeatedly displayed, it is necessary to calculate the position where the mosaic processing is performed each time and perform the mosaic processing according to the user authority, resulting in display. It takes a long time for processing. Therefore, in Patent Document 1, there are cases where the monitoring work cannot be performed efficiently.

また、効率よく監視業務を行なう方法として、監視対象の映像の中の監視重点ポイントに目印等を表示して監視者に注意を促すことも考えられる。しかしながら、特許文献1では、モザイク処理以外の画像処理について特に考慮されていない。すなわち、特許文献1は、プライバシーの保護についての考慮はされているが、監視業務の効率を上げることについての考慮は特にされていない。   In addition, as a method for efficiently performing monitoring work, it may be possible to display a mark or the like at a monitoring priority point in a video to be monitored to alert the monitoring person. However, in Patent Document 1, image processing other than mosaic processing is not particularly considered. That is, Patent Document 1 considers privacy protection, but does not particularly consider increasing the efficiency of monitoring work.

そこで、本発明の目的は、監視システムにおいて、プライバシーの保護を図り、かつ効率よくセキュリティ確保を図ることにある。   Accordingly, an object of the present invention is to protect privacy and ensure security efficiently in a monitoring system.

上記課題を解決するため、本発明の一態様は、撮像装置が撮像した画像情報を取得し、該取得した画像情報に対して画像処理を行う画像処理装置に適用される。ここで、前記画像処理装置には表示装置および記憶装置が接続されている。   In order to solve the above problems, one embodiment of the present invention is applied to an image processing device that acquires image information captured by an imaging device and performs image processing on the acquired image information. Here, a display device and a storage device are connected to the image processing device.

そして、画像処理装置に、利用者からの画像処理を行うか否かの設定を受け付ける手段と、画像処理を行う対象物を示すパターン画像ごとに、画像処理の内容を示す処理情報を対応付けたパターン画像情報を前記記憶装置に記憶させる手段と、前記取得した画像情報に前記記憶装置が記憶しているパターン画像と一致する画像が含まれているか否かを判定する手段と、前記パターン画像と一致する画像が含まれている場合、前記画像情報の中の該パターン画像と一致する画像の位置を算出し、該画像情報を識別する識別情報を作成し、かつ算出した位置を示す位置情報ごとに該パターン画像に対応付けられている処理情報および該識別情報を関連づけた画像処理データを作成する手段と、前記画像処理を行う設定を受け付けている場合、前記取得した画像情報を識別する識別情報が含まれている画像処理データの位置情報および処理情報を用いて、該取得した画像情報に対する画像処理を行う手段と、前記画像処理を行う設定を受け付けている場合、前記画像処理が行われた画像情報を前記表示装置に表示させ、前記画像処理を行わない設定を受け付けている場合、画像処理を行うことなく前記取得した画像情報を前記表示装置に表示させる手段とを設ける。   Then, in the image processing apparatus, a means for accepting a setting as to whether or not to perform image processing from the user and processing information indicating the contents of the image processing are associated with each pattern image indicating the object to be subjected to image processing. Means for storing pattern image information in the storage device, means for determining whether or not the acquired image information includes an image that matches the pattern image stored in the storage device, and the pattern image When a matching image is included, the position of the image that matches the pattern image in the image information is calculated, identification information that identifies the image information is created, and each position information that indicates the calculated position If processing information associated with the pattern image and image processing data that associates the identification information with the setting for performing the image processing are received, Using the position information and the processing information of the image processing data including the identification information for identifying the obtained image information, the means for performing the image processing on the acquired image information and the setting for performing the image processing are accepted. In this case, the image information on which the image processing has been performed is displayed on the display device, and when the setting for not performing the image processing is accepted, the acquired image information is displayed on the display device without performing image processing. Means.

このように本発明によれば、画像処理を行う対象物を示すパターン画像ごとに画像処理の内容を示す処理情報を対応付けたパターン画像情報を記憶するようにしている。また、本発明では、取得した画像情報に記憶しているパターン画像と一致する画像が含まれている場合、画像情報の中のパターン画像と一致する画像の位置を算出し、その画像情報を識別する識別情報を作成し、かつ算出した位置を示す位置情報ごとにパターン画像に対応付けられている処理情報および識別情報を関連づけた画像処理データを作成している。そして、本発明では、利用者からの画像処理を行う設定を受け付けている場合に、取得した画像情報を識別する識別情報が含まれている画像処理データの位置情報および処理情報を用いて、取得した画像情報に対する画像処理を行うようにしている。   As described above, according to the present invention, the pattern image information in which the processing information indicating the content of the image processing is associated with each pattern image indicating the object to be subjected to the image processing is stored. In the present invention, when the acquired image information includes an image that matches the stored pattern image, the position of the image that matches the pattern image in the image information is calculated, and the image information is identified. The identification information to be generated is created, and the processing information associated with the pattern image and the image processing data in which the identification information is associated are created for each position information indicating the calculated position. In the present invention, when the setting for performing the image processing from the user is accepted, the acquisition is performed using the position information and the processing information of the image processing data including the identification information for identifying the acquired image information. Image processing is performed on the processed image information.

そのため、本発明では、プライバシー保護が必要な対象物(人物の顔等)と監視重点箇所の対象物(例えば現金輸送用かばん等)とのそれぞれに対して、異なる画像処理の内容を示す情報を対応づけて記憶させておくことで、監視画像の中の対象物ごとに異なる画像処理を行うことができるようになる。例えば、本発明では、プライバシーの保護を図るために、人物の顔等の対象物にモザイク処理を施すことができ、かつプライバシーと関係ない監視重点箇所(例えば現金輸送用かばん等)の周囲に丸印を表示する画像処理を行い監視業務の効率化を図ることができる。   Therefore, in the present invention, information indicating the contents of different image processing is applied to each of an object (such as a person's face) requiring privacy protection and an object at a monitoring important point (for example, a bag for cash transportation). By storing the data in association with each other, different image processing can be performed for each object in the monitoring image. For example, in the present invention, in order to protect privacy, a mosaic process can be applied to an object such as a person's face, and a circle around a monitoring important point (for example, a bag for cash transportation) that is not related to privacy. Image processing for displaying the mark can be performed to improve the efficiency of the monitoring work.

また、本発明では、作成した画像処理データを利用して取得した画像情報に対する画像処理を行うようにしている。そのため、一度画像処理データを作成しておけば、取得した画像データを繰り返し表示させたい場合であっても、画像処理を行なうための位置を算出する等の処理を行なう必要がない。すなわち、本発明によれば、取得した画像データを繰り返し表示させる場合に表示処理に長時間を費やす必要がなくなる。   In the present invention, image processing is performed on image information acquired using the created image processing data. For this reason, once image processing data is created, there is no need to perform processing such as calculating a position for performing image processing, even when it is desired to repeatedly display acquired image data. That is, according to the present invention, it is not necessary to spend a long time for display processing when the acquired image data is repeatedly displayed.

以下、本発明の実施形態について図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

最初に本実施形態の概略構成を、図1を用いて説明する。   First, a schematic configuration of the present embodiment will be described with reference to FIG.

図1は、本発明の実施形態の監視システムの概略構成を説明するための図である。   FIG. 1 is a diagram for explaining a schematic configuration of a monitoring system according to an embodiment of the present invention.

図示するように、本実施形態の監視システムは、街頭や店舗等の監視先(監視場所)を撮像する監視先システム100と、監視先システム100にネットワーク200を介して接続されている画像データ処理システム300とを有する。   As shown in the figure, the monitoring system of this embodiment includes a monitoring destination system 100 that images a monitoring destination (monitoring place) such as a street or a store, and image data processing connected to the monitoring destination system 100 via a network 200. System 300.

監視先システム100は、監視先(監視場所)を撮像し、その撮像した画像データを、ネットワーク200を介して画像データ処理システム300に送信する。具体的には、監視先システム100は、カメラ101および映像送信装置102を有する。カメラ101は、監視先を撮像して撮像した画像データを映像送信装置102に出力する。映像送信装置102は、カメラ101が出力した画像データをネットワーク200経由で画像データ処理システム300に送信する。なお、本実施形態で用いるカメラ101および映像送信装置102は、従来技術により実現される。   The monitoring destination system 100 images the monitoring destination (monitoring location) and transmits the captured image data to the image data processing system 300 via the network 200. Specifically, the monitoring destination system 100 includes a camera 101 and a video transmission device 102. The camera 101 images the monitoring destination and outputs the captured image data to the video transmission device 102. The video transmission device 102 transmits the image data output from the camera 101 to the image data processing system 300 via the network 200. Note that the camera 101 and the video transmission device 102 used in the present embodiment are realized by conventional techniques.

画像データ処理システム300は、監視先システム100が出力した画像データを受信する。画像データ処理システム300は、利用者から受け付けた設定内容にしたがい受信した画像データに画像処理を施し、画像処理が施された画像データを表示する。具体的には、画像データ処理システム300は、画像受信装置305、画像パターン認識装置301、データ蓄積装置302、表示装置303、および管理端末304を有する。   The image data processing system 300 receives the image data output from the monitoring destination system 100. The image data processing system 300 performs image processing on the received image data according to the settings received from the user, and displays the image data that has been subjected to the image processing. Specifically, the image data processing system 300 includes an image receiving device 305, an image pattern recognition device 301, a data storage device 302, a display device 303, and a management terminal 304.

画像受信装置305は、監視先システム100が出力した画像データを受信し、受信した画像データを画像パターン認識装置301に出力する。なお、画像受信装置305は、従来技術により実現される。   The image receiving device 305 receives the image data output from the monitoring destination system 100 and outputs the received image data to the image pattern recognition device 301. Note that the image receiving device 305 is realized by a conventional technique.

画像パターン認識装置301は、画像受信装置305からの画像データを受け付けて、受け付けた画像データに画像処理を行うための情報(画像処理データ)を生成する。具体的には、画像パターン認識装置301は、後述するデータ蓄積装置302に格納されているパターン画像情報400(図4)を読み出す。画像パターン認識装置301は、画像受信装置305から出力された画像データを受け付けて、その画像データと読み出したパターン画像情報400とを照合する。画像パターン認識装置301は、上記の受け付けた画像データの中に読み出したパターン画像情報400に一致する画像を検出した場合、その画像データに対応する画像処理データを生成する。なお、画像処理データのデータ構成および画像処理データを生成する処理の手順については後述する。   The image pattern recognition device 301 receives image data from the image reception device 305 and generates information (image processing data) for performing image processing on the received image data. Specifically, the image pattern recognition device 301 reads pattern image information 400 (FIG. 4) stored in a data storage device 302 described later. The image pattern recognition apparatus 301 receives the image data output from the image reception apparatus 305 and collates the image data with the read pattern image information 400. When the image pattern recognition apparatus 301 detects an image that matches the read pattern image information 400 in the received image data, the image pattern recognition device 301 generates image processing data corresponding to the image data. The data structure of the image processing data and the processing procedure for generating the image processing data will be described later.

画像パターン認識装置301は、取得した画像データをデータ蓄積装置302に格納する。また、画像パターン認識装置301は、画像処理データを生成した場合、その生成した画像処理データをデータ蓄積装置302に格納する。さらに、画像パターン認識装置301は、生成した画像処理データを用いて取得した画像データに画像処理を行う。画像パターン認識装置301は、画像処理された画像データを表示装置303に出力する。なお、画像パターン認識装置301の機能構成およびハードウェア構成は後段で詳細に説明する。   The image pattern recognition device 301 stores the acquired image data in the data storage device 302. Further, when the image pattern recognition device 301 generates image processing data, the image processing device 301 stores the generated image processing data in the data storage device 302. Further, the image pattern recognition apparatus 301 performs image processing on the image data acquired using the generated image processing data. The image pattern recognition device 301 outputs the image processed image data to the display device 303. The functional configuration and hardware configuration of the image pattern recognition apparatus 301 will be described in detail later.

データ蓄積装置302は、パターン画像情報400や画像パターン認識装置301が出力した画像データおよび画像処理データ等の情報を格納する記憶装置である。また、表示装置303は、画像パターン認識装置301が出力した画像データを表示する装置である。なお、本実施形態では、データ蓄積装置302および表示装置303の具体的な構成について特に限定しない。例えば、データ蓄積装置302には、ハードディスク装置、DVD(Digital Versatile Disc)装置等を用いることができる。また、表示装置303には、液晶ディスプレイ装置等を用いることができる。   The data storage device 302 is a storage device that stores information such as the pattern image information 400 and image data and image processing data output from the image pattern recognition device 301. The display device 303 is a device that displays the image data output from the image pattern recognition device 301. In the present embodiment, the specific configurations of the data storage device 302 and the display device 303 are not particularly limited. For example, the data storage device 302 can be a hard disk device, a DVD (Digital Versatile Disc) device, or the like. As the display device 303, a liquid crystal display device or the like can be used.

管理端末304は、利用者からの監視システムに対する各種要求を受け付ける端末装置である。具体的には、管理端末304は、図示しない入力装置が接続されていて、入力装置を介して利用者からの各種要求を受け付ける。例えば、管理端末304には、入力装置を介して利用者からのパターン画像情報400(図4参照)の設定を受け付けて、受け付けた設定内容のパターン画像情報400をデータ蓄積装置302に格納する。なお、本実施形態では、管理端末304の具体的な構成については特に限定しない。例えば、管理端末304には、CPU(Central Processing Unit)とメモリとを有するコンピュータを用いることができる。なお、管理端末304が有する各種要求を受け付ける機能は、画像パターン認識装置301或いは表示装置303に設けるようにしてもよい。   The management terminal 304 is a terminal device that accepts various requests from the user to the monitoring system. Specifically, the management terminal 304 is connected to an input device (not shown) and receives various requests from the user via the input device. For example, the management terminal 304 receives the setting of the pattern image information 400 (see FIG. 4) from the user via the input device, and stores the pattern image information 400 of the received setting content in the data storage device 302. In the present embodiment, the specific configuration of the management terminal 304 is not particularly limited. For example, the management terminal 304 can be a computer having a CPU (Central Processing Unit) and a memory. Note that the function for receiving various requests of the management terminal 304 may be provided in the image pattern recognition device 301 or the display device 303.

なお、図1の説明では、監視先システム100と画像データ処理システム300とが1対1で接続されている場合を説明しているがこれは例示に過ぎない。例えば、監視先システム100を複数個設けて、複数箇所の監視先を撮像するようにしてもよい。また、上記監視先システム100は、カメラ101と画像送信装置102とが1対1で接続されている場合を説明しているがこれは例示に過ぎない。例えば、画像送信装置102にカメラ101を複数台接続して、複数箇所の監視先を撮像するようにしてもよい。   In the description of FIG. 1, a case is described in which the monitoring destination system 100 and the image data processing system 300 are connected on a one-to-one basis, but this is merely an example. For example, a plurality of monitoring destination systems 100 may be provided to image a plurality of monitoring destinations. Moreover, although the monitoring destination system 100 has described the case where the camera 101 and the image transmission apparatus 102 are connected one-to-one, this is merely an example. For example, a plurality of cameras 101 may be connected to the image transmission apparatus 102 to capture images of a plurality of monitoring destinations.

また、本実施形態では、ネットワーク200の具体的な構成については特に限定しない。例えば、ネットワーク200には、LAN(Local Area Network)、インターネット、および電話回線等を用いることができる。また、ネットワーク200は、有線であっても無線であってもかまわない。   In the present embodiment, the specific configuration of the network 200 is not particularly limited. For example, the network 200 can be a LAN (Local Area Network), the Internet, a telephone line, or the like. The network 200 may be wired or wireless.

続いて、本実施形態の画像パターン認識装置の機能構成を説明する。   Subsequently, the functional configuration of the image pattern recognition apparatus of the present embodiment will be described.

図2は、本実施形態の画像パターン認識装置の機能ブロック図である。   FIG. 2 is a functional block diagram of the image pattern recognition apparatus of the present embodiment.

図2では、(a)図に画像受信装置305から取得した画像データを表示装置302にリアルタイムで表示させる場合のデータの流れを表した機能ブロック図を示している。また、(b)図にデータ蓄積装置302に格納されている画像データを表示装置302に表示させる場合のデータの流れを表した機能ブロック図を示している。   FIG. 2A is a functional block diagram showing a data flow when the image data acquired from the image receiving device 305 is displayed on the display device 302 in real time. FIG. 5B is a functional block diagram showing a data flow when image data stored in the data storage device 302 is displayed on the display device 302.

さて、(a)図および(b)図に示すように、画像パターン認識装置301は、画像取得部311、画像パターン照合部312、画像処理データ作成部313、画像処理判定部314、画像合成部315、および画像表示部316を有する。   As shown in FIGS. 4A and 4B, the image pattern recognition apparatus 301 includes an image acquisition unit 311, an image pattern matching unit 312, an image processing data creation unit 313, an image processing determination unit 314, and an image composition unit. 315 and an image display unit 316.

最初に(a)図を用いて、画像受信装置305から取得した画像データを表示装置302にリアルタイムで表示させる場合の処理を例に画像パターン認識装置の機能ブロックを説明する。   First, functional blocks of the image pattern recognition apparatus will be described with reference to FIG. 5A, taking as an example processing for displaying image data acquired from the image receiving apparatus 305 on the display apparatus 302 in real time.

画像取得部311は、画像受信装置から送信された画像データを受け付けて、その受け付けた画像データを転送する処理を行う。具体的には、画像取得部311は、管理端末304を介して画像受信装置305から取得した画像データを表示装置302にリアルタイムで表示させるか否かを示す情報(表示設定情報)を受け付けて、その表示設定情報を保持する。画像取得部311は、画像受信装置から送信された画像データを受け付けた場合に、保持している表示設定情報がリアルタイムで表示させる旨を示す情報の場合、受け付けた画像データを画像パターン照合部312、画像合成部315、およびデータ蓄積装置302に出力する。一方、画像取得部311は、画像受信装置から送信された画像データを受け付けた場合に、保持している表示設定情報がリアルタイムで表示させる旨を示す情報ではない場合、受け付けた画像データを画像パターン照合部312およびデータ蓄積装置302に出力する。   The image acquisition unit 311 receives the image data transmitted from the image receiving device and performs a process of transferring the received image data. Specifically, the image acquisition unit 311 receives information (display setting information) indicating whether or not to display the image data acquired from the image reception device 305 via the management terminal 304 on the display device 302 in real time. The display setting information is held. When the image acquisition unit 311 receives the image data transmitted from the image receiving device, and the display setting information held is information indicating that the display setting information is displayed in real time, the image pattern matching unit 312 displays the received image data. And output to the image composition unit 315 and the data storage device 302. On the other hand, when the image acquisition unit 311 receives image data transmitted from the image receiving device, and the display setting information held is not information indicating that it is displayed in real time, the image acquisition unit 311 displays the received image data as an image pattern. The data is output to the collation unit 312 and the data storage device 302.

画像パターン照合部312は、画像取得部311が出力した画像データを取得する。また、画像パターン照合部312は、データ蓄積装置302に格納されているパターン画像情報400を読み出す。ここで、画像データおよびパターン画像情報400について図3および図4を用いて説明する。   The image pattern matching unit 312 acquires the image data output from the image acquisition unit 311. The image pattern matching unit 312 reads the pattern image information 400 stored in the data storage device 302. Here, the image data and the pattern image information 400 will be described with reference to FIGS.

図3は、本実施形態の監視先システム100が出力した画像データの一例を示した図である。   FIG. 3 is a diagram illustrating an example of image data output by the monitoring destination system 100 of the present embodiment.

図3は、監視先システム100が街頭に設置され、カメラ101が街頭を撮像した場合の画像データを例示したものである。図3には、かばん323を持って歩いる人物と、自動車とが撮像された画像データ320が示されている。そして、画像データ320には、人物の顔321や車のナンバープレート322のようにプライバシーの保護が要求されているデータが含まれている。   FIG. 3 illustrates image data when the monitoring destination system 100 is installed on a street and the camera 101 images the street. FIG. 3 shows image data 320 in which a person walking with a bag 323 and a car are imaged. The image data 320 includes data that requires privacy protection, such as a human face 321 and a car license plate 322.

図4は、本実施形態の画像データ処理システム300のパターン画像情報の一例を模擬的に示した図である。   FIG. 4 is a diagram schematically showing an example of pattern image information of the image data processing system 300 of the present embodiment.

パターン画像情報400とは、画像パターン認識装置301が取得した画像データに対して行う画像処理の内容を定めたものである。図示するように、パターン画像情報400は、画像処理を行う対象物の画像(パターン画像)を識別するための「パターンナンバー」を格納するエントリ401と、エントリ401に格納された「パターンナンバー」に対応する「パターン画像」を格納するエントリ402と、エントリ402に格納された「パターン画像」に対する「画像処理方法」を示す情報を格納するエントリ403とを有する。   The pattern image information 400 defines the contents of image processing performed on the image data acquired by the image pattern recognition apparatus 301. As illustrated, the pattern image information 400 includes an entry 401 that stores a “pattern number” for identifying an image (pattern image) of an object to be subjected to image processing, and a “pattern number” stored in the entry 401. It has an entry 402 for storing a corresponding “pattern image” and an entry 403 for storing information indicating an “image processing method” for the “pattern image” stored in the entry 402.

図示する例では、エントリ401に格納されたパターンナンバー「1」に対応づけられているエントリ402、403には、それぞれ「人物の顔」、「モザイク処理」が格納されている。このデータでは、パターンナンバー「1」が「人物の顔」のパターン画像を特定すること、および、監視先システム100から取得した画像データに含まれている「人物の顔」に「モザイク処理」を行うことが定義付けられている。   In the example shown in the figure, the entries 402 and 403 associated with the pattern number “1” stored in the entry 401 store “person's face” and “mosaic processing”, respectively. In this data, the pattern image whose pattern number “1” is “person's face” is specified, and “mosaic processing” is applied to “person's face” included in the image data acquired from the monitoring destination system 100. It is defined to do.

エントリ401に格納されたパターンナンバー「2」に対応づけられているエントリ402、403には、それぞれ「車のナンバープレート」、「塗りつぶし処理」が格納されている。このデータでは、パターンナンバー「2」が「車のナンバープレート」のパターン画像を特定すること、および、監視先システム100から取得した画像データに含まれている「車のナンバープレート」に「塗りつぶし処理」を行うことが定義付けられている。   The entries 402 and 403 associated with the pattern number “2” stored in the entry 401 store “car number plate” and “painting process”, respectively. In this data, the pattern number “2” specifies the pattern image of “car license plate”, and “car license plate” included in the image data acquired from the monitoring destination system 100 is “painted”. "Is defined.

また、エントリ401に格納されたパターンナンバー「3」に対応づけられているエントリ402、403には、それぞれ「かばん」、「黄色の丸で囲む処理」が格納されている。このデータでは、パターンナンバー「3」が「かばん」のパターン画像を特定すること、および、監視先システム100から取得した画像データの中の「かばん」の周辺を「黄色の丸で囲む」処理を行うことが定義付けられている。   The entries 402 and 403 associated with the pattern number “3” stored in the entry 401 respectively store “bag” and “process surrounded by a yellow circle”. In this data, the process of specifying the pattern image whose pattern number “3” is “bag” and the process of “surrounding the periphery of“ bag ”in the image data acquired from the monitoring destination system 100 with“ yellow circle ”is performed. It is defined to do.

また、パターン画像情報400は、利用者からの設定を受け付けた管理端末304によりデータ蓄積装置302に格納されるものである。なお、本実施形態では、パターン画像情報400を設定するための具体的な手段については特に限定しない。例えば、「パターンナンバー」に対応付けた「パターン画像」と、「画像処理方法」を示す情報とをデータ蓄積装置302の所定領域に保持させておく。管理端末304は、保持している「パターンナンバー」および「パターン画像」と、「画像処理方法」とをデータ蓄積装置302から読出して、利用者に提示する。管理端末304は、利用者に対して、提示した情報の中から「パターンナンバー」および「画像処理方法」の組み合わせの選択を促す。そして、管理端末304は、利用者からの「パターンナンバー」および「画像処理方法」の組み合わせの選択を受け付けて、受け付けた内容にしたがいパターン画像情報400を生成してデータ蓄積装置302に格納する。なお、管理端末304は、上記のパターン画像情報400を設定する機能により、利用者からの要求を受付けて、データ蓄積装置302に格納されているパターン画像情報400を更新することも可能である。   The pattern image information 400 is stored in the data storage device 302 by the management terminal 304 that has received settings from the user. In the present embodiment, specific means for setting the pattern image information 400 is not particularly limited. For example, “pattern image” associated with “pattern number” and information indicating “image processing method” are held in a predetermined area of the data storage device 302. The management terminal 304 reads the stored “pattern number” and “pattern image” and “image processing method” from the data storage device 302 and presents them to the user. The management terminal 304 prompts the user to select a combination of “pattern number” and “image processing method” from the presented information. Then, the management terminal 304 receives selection of a combination of “pattern number” and “image processing method” from the user, generates pattern image information 400 according to the received content, and stores it in the data storage device 302. Note that the management terminal 304 can receive a request from the user and update the pattern image information 400 stored in the data storage device 302 by the function of setting the pattern image information 400 described above.

また、上記のように、予め「パターン画像」および「画像処理方法を示す情報」をデータ蓄積装置302に保持させておくのではなく、管理端末304が「パターン画像」および「画像処理方法を示す情報」を外部装置(図示しない)から取得するようにしてもよい。この場合、管理端末304は、上記の詩取得した「パターン画像」および「画像処理方法を示す情報」を用いてパターン画像情報400を作成し、作成したパターン画像400をデータ蓄積装置302に格納する。   In addition, as described above, the “storage pattern image” and the “image processing method” are not stored in the data storage device 302 in advance, but the management terminal 304 indicates the “pattern image” and the “image processing method”. Information "may be acquired from an external device (not shown). In this case, the management terminal 304 creates the pattern image information 400 using the “pattern image” and “information indicating the image processing method” acquired as described above, and stores the created pattern image 400 in the data storage device 302. .

図2に戻り、説明を続ける。画像パターン照合部312は、取得した画像データの中に読み出したパターン画像情報400のエントリ402に格納された「パターン画像」に一致する画像(部分)が含まれているか否かを判定する。画像パターン照合部312は、取得した画像データに「パターン画像」に一致する画像が含まれていると判定した場合、画像処理データ作成部313に画像処理データの作成を要求する。例えば、画像パターン照合部312が取得した画像データが図3に示す画像データ320であり、かつパターン画像情報400が図4に示す情報である場合、画像データ320には、パターン画像情報400のエントリ402に格納されたパターン画像である「人物の顔」、「車のナンバープレート」、および「かばん」が全て含まれている。そのため、画像パターン照合部312は、画像データ320の中にパターン画像情報400に格納されたパターン画像に一致する画像が含まれていると判定する。   Returning to FIG. 2, the description will be continued. The image pattern matching unit 312 determines whether or not the acquired image data includes an image (part) that matches the “pattern image” stored in the entry 402 of the read pattern image information 400. If the image pattern matching unit 312 determines that the acquired image data includes an image that matches the “pattern image”, the image pattern matching unit 312 requests the image processing data creation unit 313 to create image processing data. For example, when the image data acquired by the image pattern matching unit 312 is the image data 320 shown in FIG. 3 and the pattern image information 400 is the information shown in FIG. 4, the image data 320 includes an entry of the pattern image information 400. The pattern images stored in 402 include “person's face”, “car license plate”, and “bag”. Therefore, the image pattern matching unit 312 determines that the image data 320 includes an image that matches the pattern image stored in the pattern image information 400.

画像処理データ作成部313は、画像パターン照合部312からの画像処理データの作成要求を受け付ける。画像処理データ作成部313は、画像パターン照合部312から画像データ320、パターン画像情報400、および一致したパターン画像を示す情報を取得して、画像処理データ(図7参照)を作成する。そして、画像作成処理データ作成部313は、作成した画像処理データを画像合成部315に出力する。また、画像作成処理データ作成部313は、作成した画像処理データをデータ蓄積装置302に格納する。ここで、画像作成処理データ作成部313が作成した画像処理データをデータ蓄積装置302に格納するようにしたのは、一度作成した画像処理データを繰り返して利用できるようにするためである。なお、画像パターン照合部312および画像処理データ作成部313が行う処理については後段で詳細に説明する。   The image processing data creation unit 313 accepts an image processing data creation request from the image pattern matching unit 312. The image processing data creation unit 313 acquires the image data 320, the pattern image information 400, and information indicating the matched pattern image from the image pattern matching unit 312, and creates image processing data (see FIG. 7). Then, the image creation processing data creation unit 313 outputs the created image processing data to the image composition unit 315. In addition, the image creation processing data creation unit 313 stores the created image processing data in the data storage device 302. Here, the reason why the image processing data created by the image creation processing data creation unit 313 is stored in the data storage device 302 is to allow the image processing data once created to be used repeatedly. The processing performed by the image pattern matching unit 312 and the image processing data creation unit 313 will be described in detail later.

画像処理判定部314は、利用者からの画像処理を行うか否を示す情報(設定情報)の入力を受け付ける。また、画像処理判定部314は、画像合成部315に対して画像処理を行うか否かを示す情報(設定情報)を出力する。なお、本実施形態では、画像処理判定部314が利用者からの画像処理を行うか否かを示す情報の入力を受け付ける具体的手段について特に限定しない。例えば、管理端末304(図1参照)に利用者からの設定情報の入力を受け付ける機能を設けておく。画像処理判定部314は、管理端末304を介して利用者からの設定情報の入力を取得し、その取得したデータを保持する。そして、画像処理判定部314は、画像合成部315に対して保持している「設定情報」を出力するようにしてもよい。   The image processing determination unit 314 receives input of information (setting information) indicating whether or not to perform image processing from the user. In addition, the image processing determination unit 314 outputs information (setting information) indicating whether or not to perform image processing to the image composition unit 315. In the present embodiment, specific means for accepting input of information indicating whether or not the image processing determination unit 314 performs image processing from the user is not particularly limited. For example, the management terminal 304 (see FIG. 1) is provided with a function for receiving input of setting information from the user. The image processing determination unit 314 acquires input of setting information from the user via the management terminal 304 and holds the acquired data. Then, the image processing determination unit 314 may output “setting information” stored in the image composition unit 315.

画像合成部315は、画像取得部311が出力する画像データの入力を受け付ける。画像合成作成部315は、画像取得部311が出力する画像データの入力を受け付けた場合、画像処理判定部314から「設定情報」を取得する。画像合成部315は、上記の取得した「設定情報」が画像処理を行う旨を示す情報である場合、画像処理データ作成部313から画像処理データを取得する。そして、画像合成部315は、受け付けた画像データおよび取得した画像処理データを用いて、受け付けた画像データに対する画像処理を施して、画像処理が施された画像データを画像表示部316に出力する。一方、画像合成作成部315は、取得した「設定情報」が画像処理を行わない旨を示す情報である場合、受け付けた画像データをそのまま画像表示部316に出力する。なお、画像合成部315が行う処理については後段で詳細に説明する。   The image composition unit 315 receives input of image data output from the image acquisition unit 311. When receiving the input of the image data output from the image acquisition unit 311, the image composition creation unit 315 acquires “setting information” from the image processing determination unit 314. When the acquired “setting information” is information indicating that image processing is to be performed, the image composition unit 315 acquires image processing data from the image processing data creation unit 313. Then, the image composition unit 315 performs image processing on the received image data using the received image data and the acquired image processing data, and outputs the image data subjected to the image processing to the image display unit 316. On the other hand, when the acquired “setting information” is information indicating that image processing is not performed, the image composition creation unit 315 outputs the received image data to the image display unit 316 as it is. The processing performed by the image composition unit 315 will be described in detail later.

画像表示部316は、画像合成部315が出力した画像データを表示装置303が表示可能なデータにして、画像データを表示装置303に表示させる。   The image display unit 316 converts the image data output from the image composition unit 315 into data that can be displayed by the display device 303 and causes the display device 303 to display the image data.

次に、(b)図を用いて、データ蓄積装置302に格納されている画像データを読み出して表示処理を行う場合の画像パターン認識装置301の機能を説明する。   Next, the function of the image pattern recognition device 301 when the image data stored in the data storage device 302 is read and the display process is performed will be described with reference to FIG.

画像合成部315は、利用者からデータ蓄積装置302に蓄積された画像データの表示処理の指示を受け付ける。なお、本実施形態では、データ蓄積装置302に蓄積された画像データの表示処理の指示を受け付ける具体的な方法については特に限定しない。例えば、管理端末304(図1参照)に利用者からのデータ蓄積装置302に蓄積された画像データの表示処理の指示を受け付ける機能を設けておく。そして、画像合成部315は、管理端末304を経由して画像データの再生処理の指示を受け付けるようにしてもよい。また、画像パターン認識装置301に入力装置を接続しておいて、画像合成部315は、利用者からのデータ蓄積装置302に蓄積された画像データの再生処理の指示を、入力装置を介して受け付けるようにしてもよい。   The image composition unit 315 accepts an instruction for display processing of image data stored in the data storage device 302 from the user. In the present embodiment, a specific method for receiving an instruction for display processing of image data stored in the data storage device 302 is not particularly limited. For example, the management terminal 304 (see FIG. 1) is provided with a function of accepting an instruction to display image data stored in the data storage device 302 from the user. Then, the image composition unit 315 may accept an instruction for image data reproduction processing via the management terminal 304. In addition, with the input device connected to the image pattern recognition device 301, the image composition unit 315 accepts an instruction to reproduce the image data stored in the data storage device 302 from the user via the input device. You may do it.

画像合成部315は、データ蓄積装置302に蓄積された画像データの再生処理の指示を受け付けた場合、指示された画像データをデータ蓄積装置302から読み出す。また、画像合成部315は、画像データをデータ蓄積装置302から読み出して取得した場合、上記と同様に、画像処理判定部314から「設定情報」を取得する。   When receiving an instruction to reproduce the image data stored in the data storage device 302, the image composition unit 315 reads the specified image data from the data storage device 302. Further, when the image composition unit 315 reads and acquires image data from the data storage device 302, the image composition unit 315 acquires “setting information” from the image processing determination unit 314 in the same manner as described above.

そして、画像合成部315は、「設定情報」が画像処理を行う旨を示す情報である場合、データ蓄積装置302から取得した画像データに対応する画像処理データを取得する。その後、その後、画像合成部315は、上記(a)図の説明と同様の処理を行う。一方、画像合成部315は、「設定情報」が画像処理を行わない旨を示す情報である場合、上記(a)図の説明と同様に、受け付けた画像データをそのまま画像表示部316に出力する。   Then, when the “setting information” is information indicating that image processing is performed, the image composition unit 315 acquires image processing data corresponding to the image data acquired from the data storage device 302. After that, the image composition unit 315 performs the same processing as that described in FIG. On the other hand, when the “setting information” is information indicating that image processing is not performed, the image composition unit 315 outputs the received image data as it is to the image display unit 316 as in the description of FIG. .

続いて、本実施形態の画像パターン認識装置のハードウェア構成について図5を用いて説明する。   Next, the hardware configuration of the image pattern recognition apparatus of this embodiment will be described with reference to FIG.

図5は、本実施形態の画像パターン認識装置のハードウェア構成図である。   FIG. 5 is a hardware configuration diagram of the image pattern recognition apparatus of the present embodiment.

図示するように、画像パターン認識装置301には、CPU(中央演算装置)601、CPU601が実行するプログラムやデータを一時的に記憶するRAM(Random Access Memory)等の主記憶装置602、外部装置との間で行われるデータの入出力を制御するIOI/F603、およびデータや各種プログラムを記憶する補助記憶装置604を有するコンピュータ(計算機)を用いることができる。   As shown in the figure, an image pattern recognition device 301 includes a CPU (central processing unit) 601, a main storage device 602 such as a RAM (Random Access Memory) that temporarily stores programs executed by the CPU 601, and an external device. A computer (computer) having an IOI / F 603 for controlling input / output of data performed between them and an auxiliary storage device 604 for storing data and various programs can be used.

補助記憶装置604には、図2で示した画像取得部311、画像パターン照合部312、画像処理データ作成部313、画像処理判定部314、画像合成部315、および画像表示部316の機能を実現するためのプログラム(画像取得プログラム、画像パターン照合プログラム、画像処理データ作成プログラム、画像処理判定プログラム、画像合成プログラム、および画像表示プログラム)が格納されている。   The auxiliary storage device 604 implements the functions of the image acquisition unit 311, the image pattern matching unit 312, the image processing data creation unit 313, the image processing determination unit 314, the image composition unit 315, and the image display unit 316 shown in FIG. (Programs for image acquisition, image pattern matching program, image processing data creation program, image processing determination program, image composition program, and image display program) are stored.

そして、上述した各部(画像取得部311、画像パターン照合部312、画像処理データ作成部313、画像処理判定部314、画像合成部315、および画像表示部316)の機能は、CPU601が補助記憶装置604に格納された上記プログラムを主記憶装置602にロードして実行することにより実現される。また、上述した画像取得部311が受け付けた「表示設定情報」、および画像処理判定部314が受け付けた「設定情報」は、主記憶装置602および補助記憶装置604に記憶される。   The CPU 601 uses the auxiliary storage device for the functions of the above-described units (the image acquisition unit 311, the image pattern matching unit 312, the image processing data creation unit 313, the image processing determination unit 314, the image synthesis unit 315, and the image display unit 316). This is realized by loading the program stored in 604 into the main storage device 602 and executing it. The “display setting information” received by the image acquisition unit 311 and the “setting information” received by the image processing determination unit 314 are stored in the main storage device 602 and the auxiliary storage device 604.

続いて、本実施形態の画像パターン認識装置が行う画像処理データ作成処理について図6を用いて説明する。   Next, image processing data creation processing performed by the image pattern recognition apparatus of the present embodiment will be described with reference to FIG.

図6は、本実施形態の画像パターン認識装置が行う画像処理データ作成処理のフローを説明するための図である。   FIG. 6 is a diagram for explaining a flow of image processing data creation processing performed by the image pattern recognition apparatus of the present embodiment.

最初に、画像パターン認識装置301の画像取得部311は、監視先システム100が撮像した画像データを画像受信装置305を介して取得する。画像パターン認識装置301は、取得した画像データを画像パターン照合部312、画像合成部315、およびデータ蓄積装置302に出力する(S501)。   First, the image acquisition unit 311 of the image pattern recognition apparatus 301 acquires image data captured by the monitoring destination system 100 via the image reception apparatus 305. The image pattern recognition device 301 outputs the acquired image data to the image pattern matching unit 312, the image composition unit 315, and the data storage device 302 (S501).

続いて、画像パターン認識装置301の画像パターン照合部312は、画像取得部311が出力した画像データを受け付ける。画像パターン照合部312は、画像データを受け付けた場合、データ蓄積装置302に格納されているパターン情報400(図4参照)を読み出す。そして、画像パターン照合部312は、受け付けた画像データと読み出したパターン情報400との照合を行う。具体的には、画像パターン照合部312は、受け付けた画像データがパターン情報400のエントリ402に格納されたパターン画像と一致する情報を含んでいる画像データであるか否かの判定を行う(S502)。   Subsequently, the image pattern matching unit 312 of the image pattern recognition apparatus 301 receives the image data output from the image acquisition unit 311. When receiving the image data, the image pattern matching unit 312 reads the pattern information 400 (see FIG. 4) stored in the data storage device 302. Then, the image pattern matching unit 312 performs matching between the received image data and the read pattern information 400. Specifically, the image pattern matching unit 312 determines whether or not the received image data is image data that includes information that matches the pattern image stored in the entry 402 of the pattern information 400 (S502). ).

画像パターン照合部312は、受け付けた画像データの中に上記のパターン画像と一致する画像を検索できた場合、画像データが「パターン画像」に一致する画像を含んだ画像データであると判定する。そして、画像パターン照合部312は、画像処理データ作成部313に画像処理データの作成を要求してS503の処理に進む。一方、画像パターン照合部312は、受け付けた画像データの中に上記のパターン画像と一致する画像を検索できなかった場合、画像データの中に上記のパターン画像と一致する画像が無いと判定して、処理を終了する。なお、本処理ステップで行われる受け付けた画像データと読み出したパターン情報400との照合処理は従来技術により実現される。   If the image pattern matching unit 312 can search the received image data for an image that matches the pattern image, the image pattern matching unit 312 determines that the image data includes image that matches the “pattern image”. Then, the image pattern matching unit 312 requests the image processing data creation unit 313 to create image processing data, and proceeds to the processing of S503. On the other hand, if the image pattern matching unit 312 cannot retrieve an image that matches the pattern image in the received image data, it determines that there is no image that matches the pattern image in the image data. The process is terminated. Note that the matching process between the received image data and the read pattern information 400 performed in this processing step is realized by a conventional technique.

S503では、画像処理データ作成部313は、画像パターン照合部312からの画像処理データの作成要求を受け付けて、画像処理データを作成する。具体的には、画像処理データ作成部313は、画像パターン照合部312から画像データ、パターン画像情報400、および一致したパターン画像を示す情報を取得する。そして、画像処理データ作成部313は、取得した「画像データ」、「パターン画像情報400」、および「一致したパターン画像を示す情報」を用いて、画像データの中のパターン画像と一致した領域の位置情報(座標値)を算出する。   In step S <b> 503, the image processing data creation unit 313 receives an image processing data creation request from the image pattern matching unit 312 and creates image processing data. Specifically, the image processing data creation unit 313 acquires image data, pattern image information 400, and information indicating a matched pattern image from the image pattern matching unit 312. Then, the image processing data creation unit 313 uses the acquired “image data”, “pattern image information 400”, and “information indicating the matched pattern image” to identify the region that matches the pattern image in the image data. Position information (coordinate values) is calculated.

また、画像処理データ作成部313は、取得したパターン画像情報400を用いて一致した「パターン画像」に対応付けられている「パターンナンバー」および「画像処理方法」を特定する。さらに、画像処理データ作成部313は、照合した画像データを識別する情報(画像データ識別情報)を作成する。本実施形態では、画像データ識別情報を作成する処理を特に限定しない。以下では、照合した画像データに含まれている情報の中から画像データを識別可能な情報を抽出することにより画像データ識別情報を作成する場合を例に説明する。具体的には、本実施形態では、画像データの中に「タイムスタンプ」および画像データを撮像した場所を示す情報(「画像データの名称」)が含まれているものとする。そして、画像処理データ作成部313は、画像データに含まれる「タイムスタンプ」および「画像データの名称」を抽出し、その抽出した「タイムスタンプ」および「画像データの名称」を画像データ識別情報として利用する。   In addition, the image processing data creation unit 313 specifies “pattern number” and “image processing method” associated with the matched “pattern image” using the acquired pattern image information 400. Further, the image processing data creation unit 313 creates information (image data identification information) for identifying the collated image data. In the present embodiment, the process for creating the image data identification information is not particularly limited. Hereinafter, a case where image data identification information is created by extracting information that can identify image data from information included in the collated image data will be described as an example. Specifically, in the present embodiment, it is assumed that “time stamp” and information (“name of image data”) indicating the location where the image data is captured are included in the image data. Then, the image processing data creation unit 313 extracts “time stamp” and “name of image data” included in the image data, and uses the extracted “time stamp” and “name of image data” as image data identification information. Use.

そして、画像処理データ作成部313は、上記の抽出した「画像データ識別情報」と、上記算出した「画像と一致した領域の位置情報」と、上記特定した「パターンナンバー」と、「画像処理の種類」とを対応づけた画像処理データ700を作成する。画像処理データ作成部313は、画像処理データ700を作成した後、その作成した画像処理データ700をデータ蓄積装置302に格納して処理を終了する。また、画像処理データ作成部313は、画像合成部315からの画像処理データ700の送信要求を受け付けた場合、作成した画像処理データ700を画像合成部315に出力する。なお、画像合成部315からの画像処理データ700の送信要求を受け付ける場合とは、画像パターン認識装置301が取得した画像データを表示装置303にリアルタイムで表示させる場合に行われる処理である。   The image processing data creation unit 313 then extracts the extracted “image data identification information”, the calculated “position information of the region that matches the image”, the identified “pattern number”, and the “image processing information”. Image processing data 700 in which “type” is associated is created. The image processing data creation unit 313 creates the image processing data 700, stores the created image processing data 700 in the data storage device 302, and ends the processing. When the image processing data creation unit 313 receives a transmission request for the image processing data 700 from the image synthesis unit 315, the image processing data creation unit 313 outputs the created image processing data 700 to the image synthesis unit 315. The case where the transmission request of the image processing data 700 from the image composition unit 315 is accepted is processing performed when the image data acquired by the image pattern recognition device 301 is displayed on the display device 303 in real time.

続いて、画像処理データ作成部313が作成する画像処理データについて図7を用いて説明する。   Next, image processing data created by the image processing data creation unit 313 will be described with reference to FIG.

図7は、本実施形態の画像データ処理システム300が作成する画像処理データの一例を模擬的に示した図である。   FIG. 7 is a diagram schematically illustrating an example of image processing data created by the image data processing system 300 according to the present embodiment.

図示するように、画像処理データ700は、複数のエントリ701〜705を有する。そして、各エントリ701〜705には、各々、「パターンナンバー」、「画像処理の種類」、「画像と一致した領域の位置情報」、「画像データ名称」、および「タイムスタンプ」が対応づけられて格納される。   As illustrated, the image processing data 700 has a plurality of entries 701 to 705. Each of the entries 701 to 705 is associated with “pattern number”, “type of image processing”, “position information of an area matching the image”, “image data name”, and “time stamp”. Stored.

図示する画像処理データ700は、図3に示す画像データ320と図4に示す画像情報400とから作成したものである。そのため、画像処理データ700の各行710〜712に対応するエントリ704には、全て、図3に示す画像データの名称である「街頭1」が格納される。また、各行710〜712に対応する「タイムスタンプ」を格納するエントリ705には、同じ日時を示す情報が格納される。   The illustrated image processing data 700 is created from the image data 320 shown in FIG. 3 and the image information 400 shown in FIG. Therefore, all the entries 704 corresponding to the respective rows 710 to 712 of the image processing data 700 store “street 1” which is the name of the image data shown in FIG. In addition, information indicating the same date and time is stored in the entry 705 that stores the “time stamp” corresponding to each of the rows 710 to 712.

また、画像処理データ700の一番上の行710に対応する「パターンナンバー」を格納するエントリ701に「1」、「画像処理の種類」を格納するエントリ702に「モザイク処理」、および「画像処理範囲の位置情報」を格納するエントリ703に「顔の表示位置の座標位置を示す情報」が格納されている。画像処理データ700の上から2番目の行711に対応する「パターンナンバー」を格納するエントリ701に「2」、「画像処理の種類」を格納するエントリ702に「塗りつぶし処理」、および「画像処理範囲の位置情報」を格納するエントリ703に「ナンバープレートの表示位置の座標位置を示す情報」が格納されている。また、画像処理データ700の上から3番目の行712に対応する「パターンナンバー」を格納するエントリ701に「3」、「画像処理の種類」を格納するエントリ702に「黄色の丸で囲む処理」、および「画像処理範囲の位置情報」を格納するエントリ703に「かばんの表示位置の座標位置を示す情報」が格納されている。   Also, “1” is stored in the entry 701 storing “pattern number” corresponding to the top row 710 of the image processing data 700, “mosaic processing” and “image” are stored in the entry 702 storing “type of image processing”. “Information indicating the coordinate position of the face display position” is stored in the entry 703 for storing “position information of the processing range”. “2” is stored in the entry 701 storing the “pattern number” corresponding to the second row 711 from the top of the image processing data 700, “painting processing” is stored in the entry 702 storing the “type of image processing”, and “image processing”. In an entry 703 for storing “range position information”, “information indicating the coordinate position of the display position of the license plate” is stored. Also, “3” is entered in the entry 701 that stores the “pattern number” corresponding to the third row 712 from the top of the image processing data 700, and “the process that is enclosed in yellow circles” is entered in the entry 702 that stores the “type of image processing”. ”And“ information indicating the coordinate position of the display position of the bag ”are stored in the entry 703 that stores“ position information of the image processing range ”.

続いて、本実施形態の画像パターン認識装置が行う画像表示処理について図8を用いて説明する。   Next, image display processing performed by the image pattern recognition apparatus of the present embodiment will be described with reference to FIG.

図8は、本実施形態の画像パターン認識装置が行う画像表示処理のフローを説明するための図である。   FIG. 8 is a diagram for explaining a flow of image display processing performed by the image pattern recognition apparatus of the present embodiment.

さて、画像パターン認識装置301の画像合成部315は、画像取得部311が出力した画像データを受け付けた場合、或いは、利用者からの、データ蓄積装置302に蓄積された画像データの表示処理の指示を受け付けた場合に以下の処理ステップを開始する。なお、画像取得部311から画像データを取得する場合とは、取得した画像をリアルタイムで表示装置303に表示させる場合に行われる処理である。   The image composition unit 315 of the image pattern recognition device 301 receives the image data output from the image acquisition unit 311 or instructs the display processing of the image data stored in the data storage device 302 from the user. The following processing steps are started when received. The case of acquiring image data from the image acquisition unit 311 is a process performed when the acquired image is displayed on the display device 303 in real time.

具体的には、画像合成部315は、画像取得部311が出力した画像データを受け付けた場合、画像処理判定部315から画像処理を行うか否かを示す情報(設定情報)を取得する。また、画像合成部315は、利用者からの、データ蓄積装置302に蓄積された画像データの表示処理の指示を受け付けた場合、データ蓄積装置302から利用者から指定された画像データを読み出して、かつ画像処理判定部315から「設定情報」を取得する(S801)。   Specifically, when receiving the image data output from the image acquisition unit 311, the image composition unit 315 acquires information (setting information) indicating whether or not to perform image processing from the image processing determination unit 315. In addition, when receiving an instruction for display processing of image data stored in the data storage device 302 from the user, the image composition unit 315 reads out image data designated by the user from the data storage device 302. In addition, “setting information” is acquired from the image processing determination unit 315 (S801).

続いて、画像合成部315は、取得した「設定情報」が画像処理を行う旨を示す情報である場合にS803の処理に進む。一方、画像合成部315は、取得した「設定情報」が画像処理を行う旨を示す情報ではない場合、S801で取得した画像データを画像表示部316に出力してS805の処理に進む(S802)。   Subsequently, if the acquired “setting information” is information indicating that image processing is to be performed, the image composition unit 315 proceeds to the process of S803. On the other hand, if the acquired “setting information” is not information indicating that image processing is to be performed, the image composition unit 315 outputs the image data acquired in S801 to the image display unit 316 and proceeds to the processing of S805 (S802). .

S803では、画像合成部315は、画像処理データの読込処理を行う。具体的には、画像合成部315は、S801において、画像取得部311から画像データを取得した場合、取得した画像データに含まれる「タイムスタンプ」および「画像データの名称」を特定する。画像合成部315は、特定した「タイムスタンプ」および「画像データの名称」を有する画像処理データを画像処理データ作成部313から取得する。また、画像合成部315は、S801において、データ蓄積装置302から画像データを取得した場合、取得した画像データに含まれる「タイムスタンプ」および「画像データの名称」を特定する。画像合成部315は、特定した「タイムスタンプ」および「画像データの名称」を有する画像処理データをデータ蓄積装置302から取得する。   In step S803, the image composition unit 315 performs image processing data reading processing. Specifically, when the image composition unit 315 acquires image data from the image acquisition unit 311 in step S <b> 801, the image composition unit 315 specifies “time stamp” and “name of image data” included in the acquired image data. The image composition unit 315 acquires image processing data having the specified “time stamp” and “name of image data” from the image processing data creation unit 313. In S801, the image composition unit 315 specifies “time stamp” and “name of image data” included in the acquired image data when the image data is acquired from the data storage device 302. The image composition unit 315 acquires image processing data having the specified “time stamp” and “name of image data” from the data storage device 302.

続いて、画像合成部315は、S801で取得した画像データ320に対して、S803で取得した画像処理データ700が示す画像データをオーバーレイした画像データを作成して、その作成した画像データを画像表示部316に出力する(S804)。   Subsequently, the image composition unit 315 creates image data obtained by overlaying the image data indicated by the image processing data 700 acquired in S803 on the image data 320 acquired in S801, and displays the generated image data as an image display. The data is output to the unit 316 (S804).

S805では、画像表示部316は、取得した画像データを表示装置303に表示させる。具体的には、S802において画像処理を行う設定がされていないと判定されて、画像処理が施されていない画像データが画像表示部316に出力された場合、画像表示部316は、画像処理が施されていない画像データを表示装置303に表示させる。一方、S804において画像処理を施した画像データが画像表示部316に出力された場合、画像表示部316は、画像処理が施された画像データを表示装置303に表示させる。   In step S805, the image display unit 316 causes the display device 303 to display the acquired image data. Specifically, when it is determined in S802 that the setting for performing image processing is not performed and image data that has not been subjected to image processing is output to the image display unit 316, the image display unit 316 performs image processing. The image data not applied is displayed on the display device 303. On the other hand, when the image data subjected to the image processing is output to the image display unit 316 in S804, the image display unit 316 causes the display device 303 to display the image data subjected to the image processing.

続いて、監視途中で利用者が画像パターン認識装置301に対して画像データに施す画像処理の内容を変更する場合について説明する。   Next, a case where the user changes the content of image processing performed on the image data to the image pattern recognition apparatus 301 during monitoring will be described.

監視途中で利用者が画像処理の内容を変更しようと考えた場合、利用者は管理端末304を介してデータ蓄積装置302に格納されたパターン画像情報400を変更する処理を行う。このような場合、画像パターン認識装置301は、パターン画像情報400の変更後に取得した画像データに対しては、変更したパターン画像情報400にしたがい画像処理データを作成する。   When the user considers changing the contents of the image processing during monitoring, the user performs a process of changing the pattern image information 400 stored in the data storage device 302 via the management terminal 304. In such a case, the image pattern recognition apparatus 301 creates image processing data according to the changed pattern image information 400 for the image data acquired after the pattern image information 400 is changed.

しかしながら、パターン画像情報400の変更する前にデータ蓄積装置302に格納された画像データを表示装置303に表示させる場合、パターン画像情報400の変更が表示する画像に反映されない。そのため、本実施形態では、管理端末302がパターン画像情報400の変更を受け付ける場合、データ蓄積装置302に格納された画像データに対応する画像処理データに対する変更を行うか否かを利用者に問い合わせるようにする。この変更は、管理端末304からパターンナンバーをキーとして抽出されるすべての画像処理データの画像処理の種類を変更することにより実現できる。   However, when the image data stored in the data storage device 302 is displayed on the display device 303 before the pattern image information 400 is changed, the change in the pattern image information 400 is not reflected in the displayed image. Therefore, in this embodiment, when the management terminal 302 accepts a change in the pattern image information 400, the user is inquired whether to change the image processing data corresponding to the image data stored in the data storage device 302. To. This change can be realized by changing the image processing type of all image processing data extracted from the management terminal 304 using the pattern number as a key.

続いて、本実施形態の表示装置303に表示される画像処理が施された画像データの表示画面例について図9を用いて説明する。   Next, a display screen example of image data subjected to image processing displayed on the display device 303 of the present embodiment will be described with reference to FIG.

図9は、本実施形態の表示装置に表示される画像データの表示画面例を示した図である。   FIG. 9 is a diagram showing a display screen example of image data displayed on the display device of the present embodiment.

図示する画面900は、図7に示す画像処理データ700を用いて画像データ320(図3参照)に画像処理を施して、表示装置303に表示した画面例を示したものである。   A screen 900 shown in the figure shows an example of a screen displayed on the display device 303 by performing image processing on the image data 320 (see FIG. 3) using the image processing data 700 shown in FIG.

さて、画面900には、人物の顔にモザイク901が施され、車のナンバープレートに塗りつぶし902が施され、大きなかばんに対しては丸印903の表示処理が施されている。すなわち、画面900では、プライバシー保護が要求される「人物の顔」および「車のナンバープレート」の画像がモザイク処理および塗りつぶし処理により隠されている。また、画面900では、重点監視ポイントに対しては丸印903を付して監視者の注意を引くようにしている。   Now, on the screen 900, a mosaic 901 is applied to the face of the person, a fill 902 is applied to the license plate of the car, and a display process of a circle 903 is applied to a large bag. That is, on the screen 900, images of “person's face” and “car license plate” that require privacy protection are hidden by mosaic processing and painting processing. Also, on the screen 900, the priority monitoring points are marked with a circle 903 so as to draw the attention of the supervisor.

図示するモザイク901は、画像合成部315が画像処理データ700(図7参照)の行710に対応するエントリ701〜705に格納されたデータにしたがい作成したものである。また、塗りつぶし902は、画像合成部315が画像処理データ700の行711に対応するエントリ701〜705に格納されたデータにしたがい作成したものである。丸印903は、画像合成部315が画像処理データ700の行712に対応するエントリ701〜705に格納されたデータにしたがい作成したものである。そして、画面900は、画像合成部315が画像データ320に対して、モザイク901、塗りつぶし902、および丸印903をオーバーレイした画像データ作成して、そのオーバーレイした画像データを画像表示部316を介して表示装置303に表示させたものである。   The mosaic 901 illustrated is created according to the data stored in the entries 701 to 705 corresponding to the row 710 of the image processing data 700 (see FIG. 7). The fill 902 is created by the image composition unit 315 according to the data stored in the entries 701 to 705 corresponding to the row 711 of the image processing data 700. A circle 903 is created by the image composition unit 315 according to the data stored in the entries 701 to 705 corresponding to the row 712 of the image processing data 700. On the screen 900, the image composition unit 315 creates image data in which the mosaic 901, the fill 902, and the circle 903 are overlaid on the image data 320, and the overlaid image data is transmitted via the image display unit 316. It is displayed on the display device 303.

このように、本実施形態では、プライバシーの保護が必要な部分に対してはモザイク処理等を施して利用者に見えないようにして、監視の重点ポイントに対しては丸印等を付して利用者に注意を促している。そのため、本実施形態によれば、プライバシーの保護を図りながら、セキュリティ確保のための監視業務の効率よく行うことができる。すなわち、本実施形態によれば、より確実なプライバシー保護と監視重点箇所の指定を行い、より高度な監視サービスを提供することができる。   As described above, in this embodiment, mosaic processing or the like is performed on a portion requiring privacy protection so that it cannot be seen by the user, and the monitoring priority points are marked with a circle or the like. Alerts the user. Therefore, according to the present embodiment, it is possible to efficiently perform monitoring work for ensuring security while protecting privacy. That is, according to the present embodiment, it is possible to provide more advanced monitoring service by performing more reliable privacy protection and designation of a monitoring priority point.

また、本実施形態では、画像処理判定部314が画像処理を行うか否かを示すデータ(設定情報)を利用者から受け付けて、その受け付けた設定情報にしたがいモザイク処理等の画像処理を行うか否かを判定している。すなわち、本実施形態では、監視先システム100で撮像した画像データに対して画像処理を行うか否かを利用者の設定により変更することができる。そのため、本実施形態では、例えば、通常の監視業務においては画像データにモザイク処理等の画像処理を施してプライバシーの保護を図るようにして、犯罪捜査等のように人物の顔等の情報が必要な場合にだけ、所定の権限を有するものが画像処理を施さない設定に変更することも可能である。そして、本実施形態を上記のように利用した場合、セキュリティ確保およびプライバシー保護の両者を実現することができる。   In the present embodiment, whether the image processing determination unit 314 receives data (setting information) indicating whether or not to perform image processing from the user, and performs image processing such as mosaic processing according to the received setting information. It is determined whether or not. That is, in the present embodiment, whether or not to perform image processing on image data captured by the monitoring destination system 100 can be changed by a user setting. Therefore, in this embodiment, for example, in normal monitoring work, image processing such as mosaic processing is applied to image data to protect privacy, and information such as a person's face is required as in criminal investigations. Only in such a case, it is possible to change the setting for a person having a predetermined authority to not perform image processing. And when this embodiment is utilized as mentioned above, both security ensuring and privacy protection are realizable.

なお、本発明は、以上で説明した実施形態に限定されるものではなく、本発明の要旨の範囲内において種々の変形が可能である。   The present invention is not limited to the embodiment described above, and various modifications can be made within the scope of the gist of the present invention.

例えば、本実施形態のパターン画像情報を利用者毎に設定するようにして、利用者毎に画像処理の内容を変えるようにしてもよい。この場合、予め利用者を識別する利用者識別情報を定めておく。画像データ処理システム300に格納するパターン画像情報400を利用者識別情報ごとに設定しておく。また、利用者が表示装置303に画像を表示させる場合、利用者識別情報の入力を受け付けるようにする。画像データ処理システム300は、利用者識別情報ごとに設定されたパターン画像情報400を用いて画像処理データを作成し、その作成した画像処理データにより画像データに対する画像処理を施すようにする。このように構成することで、利用者に与えられた権限に応じてモザイク処理等を行う対象を変えたり、または、利用者毎に監視する重点ポイントの設定を変えたりすることがでる。   For example, the pattern image information of this embodiment may be set for each user, and the content of image processing may be changed for each user. In this case, user identification information for identifying the user is determined in advance. The pattern image information 400 stored in the image data processing system 300 is set for each user identification information. In addition, when the user displays an image on the display device 303, input of user identification information is accepted. The image data processing system 300 creates image processing data using the pattern image information 400 set for each user identification information, and performs image processing on the image data using the created image processing data. By configuring in this way, it is possible to change the target for performing the mosaic process or the like according to the authority given to the user, or change the setting of the priority point to be monitored for each user.

また、上述した実施形態では、画像パターン認識装置301の画像処理判定部314が受け付けた設定情報を用いて取得した画像データに対する画像処理を行うか否かを判定していたが特にこれに限定するものではない。例えば、画像処理判定部314は、パターン画像情報400のエントリ402に格納されている「パターン画像」毎に画像処理を行うか否かの設定を受け付けるようにしてもよい。このように構成することにより、利用者の用途対応した監視システムを提供することができる。   In the above-described embodiment, whether or not to perform image processing on the acquired image data is determined using the setting information received by the image processing determination unit 314 of the image pattern recognition apparatus 301. However, the present invention is particularly limited to this. It is not a thing. For example, the image processing determination unit 314 may accept a setting as to whether or not to perform image processing for each “pattern image” stored in the entry 402 of the pattern image information 400. By comprising in this way, the monitoring system corresponding to a user's use can be provided.

さらに、本実施形態の監視システムを映像監視以外の用途にも利用することが可能である。本実施形態の画像パターン認識装置301は、取得した画像データの注意点に丸印等の映像をオーバーレイして表示することができる。そのため本実施形態の画像パターン認識装置301の上記の機能を教育用教材等に適用することもできる。   Furthermore, the monitoring system of this embodiment can be used for purposes other than video monitoring. The image pattern recognition apparatus 301 of the present embodiment can display an image such as a circle overlaid on the attention point of the acquired image data. Therefore, the above functions of the image pattern recognition apparatus 301 of the present embodiment can be applied to educational materials and the like.

また、図示するパターン画像情報400は、例示に過ぎない。例えば、エントリ402に格納するパターン画像として、他のパターン画像を格納するようにしてもよい。また、図示する画像処理の方法も例示に過ぎない。例えば、画像処理方法として、パターン画像に矢印を付す映像処理、丸や四角のマークを付加する映像処理等を行うようにパターン画像情報400に定義付けしてもよい。また、例えば、複数種類のレベルのモザイク処理をパターン画像情報400に定義付けしてもよい。   Further, the pattern image information 400 shown in the drawing is merely an example. For example, another pattern image may be stored as the pattern image stored in the entry 402. Also, the illustrated image processing method is merely an example. For example, as the image processing method, the pattern image information 400 may be defined to perform video processing for adding an arrow to a pattern image, video processing for adding a circle or square mark, and the like. Further, for example, a plurality of levels of mosaic processing may be defined in the pattern image information 400.

また、上述した画像処理データ作成部313が作成する図7に示す画像処理データのデータ構成は例示に過ぎない。例えば、図6のS503において、画像処理データ作成部313は、算出した「画像と一致した領域の位置情報」の位置に、特定した「画像処理の種類」が示す画像処理を施した画像を生成するようにする(例えば、図9に示すモザイク902を生成する)。そして、画像処理データ作成部313は、生成した画像と「画像データ識別情報(画像データ名称およびタイムスタンプ)」とを対応付けた情報を画像処理データとして作成するようにしてもよい。そして、この場合、画像合成部315は、取得した画像データに対して、上記の画像処理データをオーバーレイした画像データを作成して、その作成した画像データを画像表示部316に出力する。   Further, the data configuration of the image processing data shown in FIG. 7 created by the above-described image processing data creation unit 313 is merely an example. For example, in step S503 of FIG. 6, the image processing data creation unit 313 generates an image that has been subjected to the image processing indicated by the specified “type of image processing” at the calculated “position information of the region matched with the image”. (For example, the mosaic 902 shown in FIG. 9 is generated). Then, the image processing data creation unit 313 may create information associating the generated image with “image data identification information (image data name and time stamp)” as image processing data. In this case, the image composition unit 315 creates image data obtained by overlaying the image processing data on the acquired image data, and outputs the created image data to the image display unit 316.

また、本実施形態では、画像データ処理システム300が、画像パターン認識装置301、データ蓄積装置302、表示装置303、管理端末304、および表示装置305を有する場合を示したが特にこれに限定しない。例えば、上述した画像データ処理システム300が実現する機能を1台のコンピュータ装置により実現するようにしてもよい。   In this embodiment, the image data processing system 300 includes the image pattern recognition device 301, the data storage device 302, the display device 303, the management terminal 304, and the display device 305. However, the present invention is not limited to this. For example, the functions realized by the image data processing system 300 described above may be realized by a single computer device.

本発明の実施形態の監視システムの概略構成を説明するための図である。It is a figure for demonstrating schematic structure of the monitoring system of embodiment of this invention. 本発明の本実施形態の画像パターン認識装置の機能ブロック図である。It is a functional block diagram of the image pattern recognition apparatus of this embodiment of this invention. 本発明の実施形態の監視先システム100が撮像した画像データの一例を示した図である。It is the figure which showed an example of the image data which the monitoring destination system 100 of embodiment of this invention imaged. 本発明の実施形態のパターン画像情報の一例を模擬的に示した図である。It is the figure which showed an example of the pattern image information of embodiment of this invention in simulation. 本発明の実施形態の画像パターン認識装置のハードウェア構成図である。It is a hardware block diagram of the image pattern recognition apparatus of embodiment of this invention. 本発明の実施形態の画像パターン認識装置が行う画像処理データ作成処理のフローを説明するための図である。It is a figure for demonstrating the flow of the image processing data creation process which the image pattern recognition apparatus of embodiment of this invention performs. 本発明の実施形態の画像データ処理システムが作成する画像処理データの一例を模擬的に示した図である。It is the figure which showed an example of the image processing data which the image data processing system of embodiment of this invention produces. 本発明の実施形態の画像パターン認識装置が行う画像表示処理のフローを説明するための図である。得・検証フェーズで行われる処理のフローを説明するための図である。It is a figure for demonstrating the flow of the image display process which the image pattern recognition apparatus of embodiment of this invention performs. It is a figure for demonstrating the flow of the process performed in an acquisition / verification phase. 本発明の実施形態の表示装置に表示される画像データの表示画面例を示した図である。It is the figure which showed the example of a display screen of the image data displayed on the display apparatus of embodiment of this invention.

符号の説明Explanation of symbols

100…監視先システム、101…カメラ、102…画像送信機、200…ネットワーク、300…画像データ処理システム、301…画像パターン認識装置、302…データ蓄積装置、303…表示装置、304…管理端末、305…画像受信装置、311…画像取得部、312…画像パターン照合部、313…画像処理データ作成部、314…画像処理判定部、315…画像合成部、316…画像表示部、601…CPU、602…主記憶装、603…IOI/F、604…補助記憶装置 DESCRIPTION OF SYMBOLS 100 ... Monitoring destination system, 101 ... Camera, 102 ... Image transmitter, 200 ... Network, 300 ... Image data processing system, 301 ... Image pattern recognition apparatus, 302 ... Data storage apparatus, 303 ... Display apparatus, 304 ... Management terminal, 305... Image receiving device, 311... Image acquisition unit, 312... Image pattern matching unit, 313... Image processing data creation unit, 314. 602 ... Main memory, 603 ... IOI / F, 604 ... Auxiliary memory

Claims (6)

撮像装置が撮像した画像情報を取得して、該取得した画像情報に対して画像処理を行う画像処理装置であって、
前記画像処理装置には表示装置および記憶装置が接続されていて、
利用者からの画像処理を行うか否かの設定を受け付ける手段と、
画像処理を行う対象物を示すパターン画像ごとに、画像処理の内容を示す処理情報を対応付けたパターン画像情報を前記記憶装置に記憶させる手段と、
前記取得した画像情報に前記記憶装置が記憶しているパターン画像と一致する画像が含まれているか否かを判定する手段と、
前記パターン画像と一致する画像が含まれている場合、前記画像情報の中の該パターン画像と一致する画像の位置を算出し、該画像情報を識別する識別情報を作成し、かつ算出した位置を示す位置情報ごとに該パターン画像に対応付けられている処理情報および該識別情報を関連づけた画像処理データを作成する手段と、
前記画像処理を行う設定を受け付けている場合、前記取得した画像情報を識別する識別情報が含まれている画像処理データの位置情報および処理情報を用いて、該取得した画像情報に対する画像処理を行う手段と、
前記画像処理を行う設定を受け付けている場合、前記画像処理が行われた画像情報を前記表示装置に表示させ、前記画像処理を行わない設定を受け付けている場合、画像処理を行うことなく前記取得した画像情報を前記表示装置に表示させる手段とを有すること
を特徴とする画像処理装置。
An image processing apparatus that acquires image information captured by an imaging apparatus and performs image processing on the acquired image information,
A display device and a storage device are connected to the image processing device,
Means for accepting a setting as to whether or not to perform image processing from a user;
Means for storing, in the storage device, pattern image information in which processing information indicating the contents of image processing is associated for each pattern image indicating an object to be subjected to image processing;
Means for determining whether or not the acquired image information includes an image that matches a pattern image stored in the storage device;
If an image that matches the pattern image is included, the position of the image that matches the pattern image in the image information is calculated, identification information that identifies the image information is created, and the calculated position is Means for creating processing information associated with the pattern image and image processing data in association with the identification information for each position information shown;
When the setting for performing the image processing is accepted, the image processing is performed on the acquired image information by using the position information and the processing information of the image processing data including the identification information for identifying the acquired image information. Means,
When the setting for performing the image processing is accepted, the image information subjected to the image processing is displayed on the display device, and when the setting for not performing the image processing is accepted, the acquisition is performed without performing the image processing. An image processing apparatus comprising: means for displaying the image information on the display device.
請求項1に記載の画像処理装置であって、
前記取得した画像情報および前記画像処理データを前記記憶装置に記憶させる手段と、
前記記憶装置が記憶している画像情報を前記表示装置に表示させる表示要求を受け付ける受付手段と、
前記受付手段が前記表示要求を受け付けた場合に前記表示要求の対象の画像情報を前記記憶装置から読み出す手段とを有し、
前記画像処理を行う手段は、前記表示要求を受け付けた場合であって、かつ画像処理を行う設定を受け付けている場合に、前記読み出した画像情報を識別する識別情報が含まれている画像処理データを前記記憶装置から読出して、該読出した画像処理データの位置情報および処理情報を用いて、該読み出した画像情報に対する画像処理を行い、
前記前記表示装置に表示させる手段は、前記画像処理を行う設定を受け付けている場合、前記画像処理が行われた画像情報を前記表示装置に表示させ、前記画像処理を行わない設定を受け付けている場合、前記読出し手段が読み出した画像情報を前記表示装置に表示させること
を特徴とする画像処理装置。
The image processing apparatus according to claim 1,
Means for storing the acquired image information and the image processing data in the storage device;
Accepting means for accepting a display request for causing the display device to display image information stored in the storage device;
Means for reading out the image information of the target of the display request from the storage device when the receiving means receives the display request;
The image processing means includes image processing data including identification information for identifying the read image information when the display request is received and a setting for image processing is received. Is read out from the storage device, and using the position information and processing information of the read image processing data, image processing is performed on the read image information,
The means for displaying on the display device, when accepting the setting for performing the image processing, displays the image information on which the image processing has been performed on the display device, and accepts the setting for not performing the image processing. In this case, the image processing apparatus displays the image information read by the reading unit on the display device.
請求項1〜2のいずれか一項に記載の画像処理装置であって、
前記画像処理の内容とは、モザイク処理、塗りつぶし処理、および対象物に対する囲い込み処理が含まれていること
を特徴とする画像処理装置。
The image processing apparatus according to claim 1, wherein
The content of the image processing includes mosaic processing, painting processing, and surrounding processing for an object.
請求項1〜3のいずれか一項に記載の画像処理装置であって、
前記記憶しているパターン画像情報の変更要求を受け付けて、前記記憶しているパターン画像情報を更新する手段を有すること
を特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 3,
An image processing apparatus comprising: means for accepting a change request for the stored pattern image information and updating the stored pattern image information.
請求項1〜4のいずれか一項に記載の画像処理装置であって、
前記画像処理を行う手段は、
前記画像情報の前記位置情報が示す位置に対して該位置情報に対応付けられている処理情報が示す画像処理を行うこと
を特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 4,
The means for performing the image processing is:
An image processing apparatus that performs image processing indicated by processing information associated with position information on a position indicated by the position information of the image information.
1台以上の撮像装置と、該撮像装置にネットワークを介して接続されている画像処理装置とを有する画像処理システムであって、
前記撮像装置は、
監視対象物を撮像して、該撮像した画像情報を前記ネットワークを介して前記画像処理装置に送信する手段を有し、
前記画像処理装置は、
表示装置と、
記憶装置と、
前記撮像装置が送信した画像情報を受信する手段と、
利用者からの画像処理を行うか否かの設定を受け付ける手段と、
画像処理を行う対象物を示すパターン画像ごとに、画像処理の内容を示す処理情報を対応付けたパターン画像情報を前記記憶装置に記憶させる手段と、
前記受信した画像情報に前記記憶装置が記憶しているパターン画像と一致する画像が含まれているか否かを判定する手段と、
前記パターン画像と一致する画像が含まれている場合、前記画像情報の中の該パターン画像と一致する画像の位置を算出し、該画像情報を識別する識別情報を作成し、かつ算出した位置を示す位置情報ごとに該パターン画像に対応付けられている処理情報および該識別情報を関連づけた画像処理データを作成する手段と、
前記画像処理を行う設定を受け付けている場合、前記受信した画像情報を識別する識別情報が含まれている画像処理データの位置情報および処理情報を用いて、該取得した画像情報に対する画像処理を行う手段と、
前記画像処理を行う設定を受け付けている場合、前記画像処理が行われた画像情報を前記表示装置に表示させ、前記画像処理を行わない設定を受け付けている場合、画像処理を行うことなく前記受信した画像情報を前記表示装置に表示させる手段とを有すること
を特徴とする画像処理システム。
An image processing system having one or more imaging devices and an image processing device connected to the imaging devices via a network,
The imaging device
Means for imaging a monitoring object and transmitting the captured image information to the image processing apparatus via the network;
The image processing apparatus includes:
A display device;
A storage device;
Means for receiving image information transmitted by the imaging device;
Means for accepting a setting as to whether or not to perform image processing from a user;
Means for storing, in the storage device, pattern image information in which processing information indicating the contents of image processing is associated for each pattern image indicating an object to be subjected to image processing;
Means for determining whether or not the received image information includes an image that matches a pattern image stored in the storage device;
If an image that matches the pattern image is included, the position of the image that matches the pattern image in the image information is calculated, identification information that identifies the image information is created, and the calculated position is Means for creating processing information associated with the pattern image and image processing data in association with the identification information for each position information to be indicated;
When the setting for performing the image processing is accepted, the image processing is performed on the acquired image information using the position information and the processing information of the image processing data including the identification information for identifying the received image information. Means,
When the setting for performing the image processing is accepted, the image information subjected to the image processing is displayed on the display device, and when the setting for not performing the image processing is accepted, the reception is performed without performing the image processing. And an image processing system for displaying the processed image information on the display device.
JP2004235495A 2004-08-12 2004-08-12 Image processing apparatus and image processing system Expired - Fee Related JP4403039B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004235495A JP4403039B2 (en) 2004-08-12 2004-08-12 Image processing apparatus and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004235495A JP4403039B2 (en) 2004-08-12 2004-08-12 Image processing apparatus and image processing system

Publications (2)

Publication Number Publication Date
JP2006054719A true JP2006054719A (en) 2006-02-23
JP4403039B2 JP4403039B2 (en) 2010-01-20

Family

ID=36031893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004235495A Expired - Fee Related JP4403039B2 (en) 2004-08-12 2004-08-12 Image processing apparatus and image processing system

Country Status (1)

Country Link
JP (1) JP4403039B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009194439A (en) * 2008-02-12 2009-08-27 Canon Inc Imaging apparatus, image processing apparatus, control method of imaging apparatus, image processing method, program, and storage medium
JP2018124824A (en) * 2017-02-01 2018-08-09 株式会社デンソーテン Drive recorder, image recording method, and monitoring device
CN108629275A (en) * 2017-03-21 2018-10-09 佳能株式会社 Image processing apparatus, the control method of image processing apparatus and storage medium
JP2018160884A (en) * 2017-03-21 2018-10-11 キヤノン株式会社 Image processing apparatus, control method of the same, and program
JP2019062308A (en) * 2017-09-25 2019-04-18 富士ゼロックス株式会社 Mobile object with camera, mobile object with camera control system, and program
JP2020184678A (en) * 2019-05-08 2020-11-12 パナソニックi−PROセンシングソリューションズ株式会社 Wearable camera and signal addition method
WO2021090943A1 (en) * 2019-11-08 2021-05-14 株式会社デンソーテン Image processing device and image processing method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05290171A (en) * 1992-04-08 1993-11-05 Hitachi Ltd Information converting device
JP2001186507A (en) * 1999-12-27 2001-07-06 Ntt Power & Building Facilities Inc Video supervisory system
JP2004032459A (en) * 2002-06-27 2004-01-29 Hitachi Ltd Monitoring system, and controller and monitoring terminal used both therefor
JP2004062560A (en) * 2002-07-30 2004-02-26 Omron Corp Face collating device and face collating method
JP2004080669A (en) * 2002-08-22 2004-03-11 Hitachi Kokusai Electric Inc Monitor camera unit

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05290171A (en) * 1992-04-08 1993-11-05 Hitachi Ltd Information converting device
JP2001186507A (en) * 1999-12-27 2001-07-06 Ntt Power & Building Facilities Inc Video supervisory system
JP2004032459A (en) * 2002-06-27 2004-01-29 Hitachi Ltd Monitoring system, and controller and monitoring terminal used both therefor
JP2004062560A (en) * 2002-07-30 2004-02-26 Omron Corp Face collating device and face collating method
JP2004080669A (en) * 2002-08-22 2004-03-11 Hitachi Kokusai Electric Inc Monitor camera unit

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009194439A (en) * 2008-02-12 2009-08-27 Canon Inc Imaging apparatus, image processing apparatus, control method of imaging apparatus, image processing method, program, and storage medium
JP2018124824A (en) * 2017-02-01 2018-08-09 株式会社デンソーテン Drive recorder, image recording method, and monitoring device
CN108629275A (en) * 2017-03-21 2018-10-09 佳能株式会社 Image processing apparatus, the control method of image processing apparatus and storage medium
JP2018160884A (en) * 2017-03-21 2018-10-11 キヤノン株式会社 Image processing apparatus, control method of the same, and program
US10750053B2 (en) 2017-03-21 2020-08-18 Canon Kabushiki Kaisha Image processing apparatus, method of controlling image processing apparatus, and storage medium
CN108629275B (en) * 2017-03-21 2024-01-05 佳能株式会社 Image processing apparatus, control method of image processing apparatus, and storage medium
JP2019062308A (en) * 2017-09-25 2019-04-18 富士ゼロックス株式会社 Mobile object with camera, mobile object with camera control system, and program
JP7180063B2 (en) 2017-09-25 2022-11-30 富士フイルムビジネスイノベーション株式会社 Mobile body with camera, mobile body control system with camera, and program
JP2020184678A (en) * 2019-05-08 2020-11-12 パナソニックi−PROセンシングソリューションズ株式会社 Wearable camera and signal addition method
WO2021090943A1 (en) * 2019-11-08 2021-05-14 株式会社デンソーテン Image processing device and image processing method

Also Published As

Publication number Publication date
JP4403039B2 (en) 2010-01-20

Similar Documents

Publication Publication Date Title
US11544984B2 (en) Systems and methods for location identification and tracking using a camera
US10062406B2 (en) Video masking processing method and apparatus
JP4701356B2 (en) Privacy protection image generation device
JP2006333337A (en) Apparatus for making image secret, and image distribution system
JP2007219713A (en) Inquiry system, imaging apparatus, inquiry device, information processing method, and program
JP2004062560A (en) Face collating device and face collating method
JP2005286468A (en) Monitoring system having masking function, camera, mask releasing device used with camera
JP6910772B2 (en) Imaging device, control method and program of imaging device
US10726262B2 (en) Imaging support system, device and method, and imaging terminal
KR20210121025A (en) Sensor device, encryption method
JP4403039B2 (en) Image processing apparatus and image processing system
JP6876804B2 (en) Monitoring system and monitoring method
WO2021084944A1 (en) Information processing system, information processing method, imaging device, and information processing device
WO2021135614A1 (en) Video processing method, apparatus, and system
KR20060119078A (en) Monitoring system for illegal parking and method thereof
JP2017158105A (en) Information processing unit, information processing method, program and information processing system
EP3729851A1 (en) Method for detecting the possible taking of screenshots
TWI826638B (en) Sensor device, encryption method
JP6665590B2 (en) Information processing apparatus, information processing method, program, and information processing system
JP5353147B2 (en) Face matching system
JP7107597B2 (en) STATION MONITORING DEVICE, STATION MONITORING METHOD AND PROGRAM
TWI606426B (en) System and method for personal circumference surrounding safety notification
JP2006053676A (en) Vehicle detection apparatus
JP2008009947A (en) Window application/delivery system, window application/delivery method, program and recording medium
JP2006074194A (en) Monitoring system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090721

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091020

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091030

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121106

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121106

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131106

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees