JP4512763B2 - Image shooting system - Google Patents

Image shooting system Download PDF

Info

Publication number
JP4512763B2
JP4512763B2 JP2005026564A JP2005026564A JP4512763B2 JP 4512763 B2 JP4512763 B2 JP 4512763B2 JP 2005026564 A JP2005026564 A JP 2005026564A JP 2005026564 A JP2005026564 A JP 2005026564A JP 4512763 B2 JP4512763 B2 JP 4512763B2
Authority
JP
Japan
Prior art keywords
image
area
image data
protected
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005026564A
Other languages
Japanese (ja)
Other versions
JP2006217161A (en
Inventor
仁 土川
格 北原
禎宣 伊藤
潔 小暮
紀博 萩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2005026564A priority Critical patent/JP4512763B2/en
Publication of JP2006217161A publication Critical patent/JP2006217161A/en
Application granted granted Critical
Publication of JP4512763B2 publication Critical patent/JP4512763B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、撮影対象のプライバシを保護しつつ画像を撮影する画像撮影システムに関する。   The present invention relates to an image photographing system for photographing an image while protecting the privacy of a photographing target.

デジタルビデオ機器の発展やカメラ機能付き携帯電話の普及により、誰もが何時でも何処でも映像や画像を撮影することが可能になりつつある。そのようなセンサ群によって獲得された大量の映像情報を統合することで、様々なイベントの認識・理解や、観察者の状況・要求に応じた情報提示を目的とした知的映像メディアに関する研究が活発に行われている(たとえば、非特許文献1を参照)。   With the development of digital video equipment and the widespread use of mobile phones with camera functions, it is becoming possible for anyone to take pictures and images anytime and anywhere. Research on intelligent video media aimed at recognizing and understanding various events and presenting information according to the situation and demands of observers by integrating a large amount of video information acquired by such sensors. It is actively carried out (for example, see Non-Patent Document 1).

これらの研究により、時空間を隔てたユーザ間の円滑なコミュニケーションや、周囲の環境情報の共有の実現が期待される。しかし、被写体の肖像権侵害や自由な振舞いの規制といったプライバシに関する問題を考慮することなく、イベントの撮影・記録・伝送・提示を行うシステムを構築した場合、そのシステムはユーザにとって非常に不都合なものになると考えられる。特に、被写体の許可なく映像を撮影・配布したとして訴訟が起こることも珍しくない。   These studies are expected to realize smooth communication between users across time and space and the sharing of surrounding environmental information. However, if a system that captures, records, transmits, and presents events without considering privacy concerns such as infringement of portrait rights on subjects and restrictions on free behavior, the system is very inconvenient for users. It is thought that it becomes. In particular, it is not uncommon for lawsuits to be filed for shooting and distributing videos without subject permission.

このような問題を解決するために、映像中でプライバシを侵害する可能性がある領域にぼかし等の画像処理を施し、その視覚情報量を減少させることでプライバシを保護する手法が用いられている。   In order to solve such a problem, a technique is used in which privacy is protected by performing image processing such as blurring on an area that may infringe privacy in a video and reducing the amount of visual information. .

例えば、イギリスでは、数百万台の監視カメラを街中に配置し、それらの映像を用いて実際に犯罪を解決した実績があるが、映像中の人家の窓などの領域は“プライベートゾーン”と呼ばれ、黒塗りつぶし処理を施すことによりプライバシの問題を回避している。   For example, in the UK, millions of surveillance cameras have been placed in the city, and there is a track record of actually solving crimes using those images. However, areas such as windows of people's houses in the images are called “private zones”. It is called, and the privacy problem is avoided by applying the black painting process.

このような監視映像撮影・提示システムで利用されているカメラは撮影空間に固定され、プライバシを保護すべき領域が静止している。このため、撮影映像上で画像処理を施す領域は変化しないが、撮影用カメラやプライバシを保護したい被写体が移動しているには、画像処理を施す領域もまた動的に変化することになる。   The camera used in such a surveillance video shooting / presentation system is fixed in the shooting space, and the area where privacy should be protected is stationary. For this reason, the area on which the image processing is performed on the photographed video does not change, but the area on which the image processing is performed also changes dynamically when the photographing camera or the subject whose privacy is to be protected moves.

ところが、膨大な映像データを取り扱う知的映像メディアでは、手動によりこの領域変化に対応することは現実的ではない、という問題があった。   However, there is a problem that it is not realistic to deal with this area change manually in an intelligent video media that handles a large amount of video data.

また、プライバシ保護のための画像撮影の他の手法としては、撮影した画像上で被写体の身体や顔を検出し、その領域にぼかし処理を施す手法がある。この場合、撮影画像を前景領域と背景領域に分割した結果を用いて検出処理を行うことが多い(たとえば、非特許文献2を参照)。しかしながら、カメラを移動させながら撮影した映像では、背景差分処理やフレーム間差分処理を用いて領域分割を行うことは困難である。
A.Pentland, “Looking at People: Sensing for Ubiquitous and Wearable Computing”, IEEE Trans. On Pattern Analysis and Machine Intelligence, Vol. 22(1), pp.107-118, 2000。 H.Murase, S.K.Nayer, “Parametric Eigenspace Representation for Visual Learning and Recognition”, Workshop on Geometric Method in Computer Vision, SPIE, pp.378-391, 1993.
In addition, as another technique for capturing an image for privacy protection, there is a technique for detecting the body and face of a subject on the captured image and blurring the area. In this case, detection processing is often performed using a result obtained by dividing a captured image into a foreground region and a background region (see, for example, Non-Patent Document 2). However, it is difficult to divide an area using a background difference process or an inter-frame difference process for a video shot while moving the camera.
A. Pentland, “Looking at People: Sensing for Ubiquitous and Wearable Computing”, IEEE Trans. On Pattern Analysis and Machine Intelligence, Vol. 22 (1), pp. 107-118, 2000. H. Murase, SKNayer, “Parametric Eigenspace Representation for Visual Learning and Recognition”, Workshop on Geometric Method in Computer Vision, SPIE, pp.378-391, 1993.

したがって、監視カメラのような用途でも、撮影される領域中で、プライバシを保護する対象物(被写体)が移動する場合や撮影用のカメラそのものが移動するような場合でも、実時間でプライバシ保護のための画像処理を施す領域を動的に変化させることが望ましい。   Therefore, even in applications such as surveillance cameras, privacy protection in real time is possible even when the object (subject) that protects privacy moves in the area to be photographed or when the camera for photographing itself moves. For this reason, it is desirable to dynamically change the area to be subjected to image processing.

一方で、プライバシの保護を優先させれば、上述のようにプライバシを保護したい被写体については、当該被写体を特定可能な画像情報部分については「ぼかし処理」などを行うとしても、場合によっては、後から当該ぼかし処理が施された領域の画像情報部分を再現したいという要求がある場合もありうる。たとえば、監視カメラならば、犯罪にかかわる画像が撮影されていることが事後的にわかった場合に、当該ぼかし処理が施された領域の画像情報部分をぼかし処理を解除して再現したい、というような要求がある場合などである。   On the other hand, if priority is given to privacy protection, as described above, for the subject whose privacy is to be protected, the “blurring process” or the like may be performed on the image information portion that can identify the subject. Therefore, there may be a request to reproduce the image information portion of the area subjected to the blurring process. For example, if a surveillance camera later knows that an image related to a crime has been taken, it wants to reproduce the image information part of the area subjected to the blurring process by releasing the blurring process. This is the case when there is a demand.

本発明は、上記のような問題点を解決するためになされたものであって、その目的は、撮影された画像において、選択的に、プライバシ保護の必要な領域に、ぼかし処理等の画像処理を施すことが可能な画像撮影システムを提供することである。   The present invention has been made to solve the above-described problems, and an object of the present invention is to selectively perform image processing, such as blurring processing, on an area that needs privacy protection in a captured image. It is an object to provide an image photographing system capable of performing the above.

本発明の他の目的は、プライバシ保護のために、通常は、ぼかし処理等の画像処理を施している領域を、所定の権限を有するユーザは、事後的に当該画像処理を解除した画像を閲覧することが可能な画像撮影装システムを提供することである。   Another object of the present invention is that, for privacy protection, an area where image processing such as blurring processing is usually performed, a user having a predetermined authority views an image for which the image processing has been canceled afterwards. It is an object of the present invention to provide an image photographing system capable of doing this.

このような目的を達成するために、本発明の画像撮影装システムは、撮影を行なう3次元空間内において、移動する複数の撮影対象者の位置をそれぞれ検出するための3次元位置検出手段を備え、3次元空間には、予め位置が特定された複数のLEDタグが配置されており、3次元空間内を移動する状態において、撮影対象者の画像を撮影するための移動撮影手段と、撮影された画像中において、プライバシを保護するための画像処理の対象となる撮影対象画像のうち顔領域を候補領域として検出する保護領域候補検出手段と、検出された候補領域のうちプライバシ保護の対象となる保護領域を検出するための隠蔽部分検出手段とを備え、隠蔽部分検出手段は、複数の撮影対象者のうち識別標識を付けていない撮影対象者に対応する候補領域を保護領域として検出し、隠蔽部分検出手段により特定された保護領域に対して、選択的にプライバシを保護するための画像処理を行った保護画像データを生成するための保護画像生成手段とを備え、保護画像生成手段は、移動撮影手段により撮影された画像中に存在するLEDタグが点滅により送出するID情報に基づいて、移動撮影手段の校正を行なって移動撮影手段についての射影行列を導出し、保護領域が撮影された画像中のいずれの部分に投影されるかを算出して特定し、画像処理を実行する。 In order to achieve such an object, the image photographing apparatus system of the present invention includes three-dimensional position detecting means for detecting the positions of a plurality of moving subjects to be photographed in a three-dimensional space where photographing is performed. In the three-dimensional space, a plurality of LED tags whose positions are specified in advance are arranged, and in a state of moving in the three-dimensional space, a moving photographing means for photographing an image of the photographing subject is photographed. A protected area candidate detecting means for detecting a face area as a candidate area in a photographed person image that is an object of image processing for protecting privacy, and privacy protection targets among the detected candidate areas. and a concealing portion detecting means for detecting a composed protected area, concealing portion detecting means, candidate territory corresponding to the photographic subject that is not with the identification mark of the plurality of imaging subject It detects a protected area, the protective area identified by concealing part detecting means, selectively and a protective image generating means for generating a protective image data subjected to image processing for protection of the privacy The protection image generating means calibrates the moving photographing means based on the ID information sent by blinking of the LED tag present in the image photographed by the moving photographing means to derive a projection matrix for the moving photographing means. , the protection region is identified by calculating how projected on any portion in the captured image, that perform image processing.

好ましくは、隠蔽部分検出手段は、保護領域に対応する画像データを選択的に抽出する保護領域分離手段を含み、保護領域分離手段により抽出された保護領域に対応する画像データを暗号化して暗号化画像データを生成するための保護領域暗号化手段をさらに備える。   Preferably, the concealed portion detection means includes a protection area separation means for selectively extracting image data corresponding to the protection area, and encrypts and encrypts the image data corresponding to the protection area extracted by the protection area separation means. It further includes a protected area encryption means for generating image data.

好ましくは、保護画像生成手段の出力である保護画像データを圧縮して圧縮画像データを生成するための画像圧縮手段と、圧縮画像データおよび暗号化画像データとを受けて、対応する画像を再生するための画像閲覧手段とをさらに備え、画像閲覧手段は、ユーザの認証を行って、認証されたユーザに対して、圧縮画像データを伸張した画像と、暗号化画像データを復号した画像とを再構成した画像を再生して出力する画像再構成手段を含む。   Preferably, an image compression unit for compressing the protected image data that is output from the protected image generation unit to generate compressed image data, the compressed image data, and the encrypted image data are received, and the corresponding image is reproduced. Image browsing means for authenticating the user, and the image browsing means reproduces an image obtained by decompressing the compressed image data and an image obtained by decrypting the encrypted image data for the authenticated user. Image reconstruction means for reproducing and outputting the composed image is included.

好ましくは、保護領域暗号化手段は、保護領域に対応する画像データを未圧縮で暗号化する。   Preferably, the protected area encryption unit encrypts the image data corresponding to the protected area without compression.

好ましくは、保護画像データと暗号化画像データとは、別々のファイルとして出力される。   Preferably, the protected image data and the encrypted image data are output as separate files.

好ましくは、保護画像データと暗号化画像データとを統合して1つのファイルとして出力する出力画像生成手段をさらに備える。   Preferably, the image processing apparatus further includes output image generation means for integrating the protected image data and the encrypted image data and outputting the integrated image data as one file.

本発明の画像撮影システムでは、実時間でプライバシ保護のための画像処理を施す領域を動的に変化させることが可能である。さらに、本発明では、ぼかし処理等の画像処理を施した画像部分を、所定の認証が行われたユーザのみが、当該画像処理を解除して閲覧することが可能である。   In the image photographing system of the present invention, it is possible to dynamically change the area where image processing for privacy protection is performed in real time. Furthermore, according to the present invention, only a user who has been subjected to predetermined authentication can view an image portion that has been subjected to image processing such as blurring processing after canceling the image processing.

(発明の基本的な構成と動作)
以下、図面を参照して本発明の実施の形態について説明する。
(Basic configuration and operation of the invention)
Embodiments of the present invention will be described below with reference to the drawings.

本発明では、動的に変化する映像入力に対しても、プライバシを保護しつつ、イベントの認識・理解や観察者の状況・要求に応じた情報提示を実現するための映像獲得方式を提供する。以下では、このようなシステムをステルスビジョン(Stealth Vision)システムと呼ぶ。本発明のステルスビジョンシステムでは、プライバシを保護したい領域(プライバシ保護領域)を3次元モデルとして設定し、それをキャリブレーション済の移動カメラ等で撮影した映像上に射影することにより、移動カメラ中の移動物体において画像処理を行う領域を適切に設定する。   The present invention provides a video acquisition method for realizing recognition and understanding of an event and presentation of information according to an observer's situation / request while protecting privacy even for dynamically changing video input. . Hereinafter, such a system is referred to as a stealth vision system. In the stealth vision system of the present invention, an area in which privacy is to be protected (privacy protection area) is set as a three-dimensional model, and is projected onto a video photographed by a calibrated mobile camera or the like. An area for image processing on a moving object is appropriately set.

[本発明のシステム構成]
図1は、本発明の画像撮影システムを用いたステルスビジョンシステム1000の一例を示す概念図である。
[System configuration of the present invention]
FIG. 1 is a conceptual diagram showing an example of a stealth vision system 1000 using the image photographing system of the present invention.

図1を参照して、システム1000は、撮影が行われる室内などの3次元空間を上部から俯瞰して撮影するための天井カメラ10と、天井カメラ10からの映像に基づいて、後に説明するように、撮影対象物、たとえば、被写体4および6を追跡し、上記3次元空間内で、プライバシ保護を行うためにぼかし(モザイク処理を含む)等の画像処理を行う領域(以下、「プライバシ保護領域」と呼ぶ)を特定するための3次元位置検出ユニットとして動作するコンピュータ100と、コンピュータ100から上記プライバシ保護領域を特定するための信号を出力する通信装置200とを備える。特に限定されないが、たとえば、通信装置200は、無線装置とすることが可能である。   With reference to FIG. 1, the system 1000 will be described later based on a ceiling camera 10 for taking a bird's-eye view of a three-dimensional space such as a room where photographing is performed, and an image from the ceiling camera 10. In addition, the object to be photographed, for example, the subjects 4 and 6 is tracked, and an image processing such as blurring (including mosaic processing) is performed in the three-dimensional space for privacy protection (hereinafter referred to as “privacy protection region”). And a communication device 200 that outputs a signal for specifying the privacy protection area from the computer 100. Although not particularly limited, for example, the communication device 200 can be a wireless device.

システム1000は、さらに、撮影者2が保持して被写体4および6を撮影する移動カメラ20と、移動カメラ20からの撮影信号をキャプチャし、記録媒体にプライバシが保護された画像データを記録するためのプライバシ保護モバイル映像生成装置300とを備える。プライバシ保護モバイル映像生成装置300としては、たとえば、大容量の記録媒体にデータを記録することが可能なモバイルコンピュータを使用することができる。なお、図1では、コンピュータ100とプライバシ保護モバイル映像生成装置300とは、別体として記載されているが、天井カメラ10からの映像信号が、たとえば、無線により送信され、プライバシ保護モバイル映像生成装置300が、これを受信して上記3次元位置検出ユニットとしても機能できるのであれば、コンピュータ100とプライバシ保護モバイル映像生成装置300とは、撮影者2にとってウエアラブルな1体の装置とすることも可能である。   The system 1000 further captures the moving camera 20 held by the photographer 2 to photograph the subjects 4 and 6, and the photographing signal from the moving camera 20, and records the privacy-protected image data on the recording medium. Privacy protection mobile video generation device 300. For example, a mobile computer capable of recording data on a large-capacity recording medium can be used as the privacy protection mobile video generation apparatus 300. In FIG. 1, the computer 100 and the privacy protection mobile video generation device 300 are described as separate bodies, but the video signal from the ceiling camera 10 is transmitted, for example, wirelessly, and the privacy protection mobile video generation device The computer 100 and the privacy-preserving mobile video generation device 300 can be a wearable device for the photographer 2 if the device 300 can function as the above-described three-dimensional position detection unit. It is.

システム1000は、さらに、後に説明するように、カメラの校正を行うために、上記3次元空間中に配置されたLED−ID(Light Emitting Diode-ID)タグ30と、被写体4および6のうち、プライバシ保護のための画像処理を行う被写体6を特定するために、被写体4および6の体にそれぞれ装着されたタグ40を備える。タグ40としては、たとえば、RFID(Radio Frequency-Identification)タグを用いることができる。コンピュータ100は、通信装置200により、このRFタグの3次元空間内の位置を特定可能なものとする。この場合、RFタグによる位置の特定精度は、天井カメラ10による撮影画像から求める位置精度ほど高い必要はない。   As will be described later, the system 1000 further includes an LED-ID (Light Emitting Diode-ID) tag 30 arranged in the three-dimensional space, and the subjects 4 and 6 to calibrate the camera. In order to identify the subject 6 to be subjected to image processing for privacy protection, a tag 40 attached to the body of each of the subjects 4 and 6 is provided. As the tag 40, for example, an RFID (Radio Frequency-Identification) tag can be used. The computer 100 can specify the position of the RF tag in the three-dimensional space by the communication device 200. In this case, the position specifying accuracy by the RF tag does not need to be as high as the position accuracy obtained from the image captured by the ceiling camera 10.

なお、以下の説明では、カメラ20は、移動カメラであるものとして説明するが、カメラ20自体も、被写体を撮影するための固定カメラであってもかまわない。   In the following description, the camera 20 is described as a moving camera, but the camera 20 itself may be a fixed camera for photographing a subject.

図2は、コンピュータ100の構成をブロック図形式で示す図である。   FIG. 2 is a block diagram showing the configuration of the computer 100.

図2を参照してこのコンピュータ100は、CD−ROM(Compact Disc Read-Only Memory )等のディスク媒体上の情報を読込むための光学ドライブ108およびフレキシブルディスク(Flexible Disk、以下FD)116に情報を読み書きするためのFDドライブ106を備えたコンピュータ本体102と、コンピュータ本体102に接続された表示装置としてのディスプレイ103と、同じくコンピュータ本体102に接続された入力装置としてのキーボード110およびマウス112とを含む。   Referring to FIG. 2, this computer 100 reads and writes information to and from an optical drive 108 and a flexible disk (FD) 116 for reading information on a disk medium such as a CD-ROM (Compact Disc Read-Only Memory). A computer main body 102 having an FD drive 106 for displaying the image, a display 103 as a display device connected to the computer main body 102, and a keyboard 110 and a mouse 112 as input devices also connected to the computer main body 102.

さらに、図2に示されるように、このコンピュータ100を構成するコンピュータ本体102は、光学ドライブ108およびFDドライブ106に加えて、それぞれバスBSに接続されたCPU(Central Processing Unit )120と、ROM(Read Only Memory) およびRAM (Random Access Memory)を含むメモリ122と、直接アクセスメモリ装置、たとえば、ハードディスク124と、通信装置200とデータの授受を行うための通信インタフェース128とを含んでいる。光学ドライブ108には、たとえばCD−ROM118が装着される。FDドライブ106にはFD116が装着される。   Further, as shown in FIG. 2, the computer main body 102 constituting the computer 100 includes a central processing unit (CPU) 120 and a ROM (ROM) connected to the bus BS in addition to the optical drive 108 and the FD drive 106. A memory 122 including a read only memory (RAM) and a random access memory (RAM), a direct access memory device, for example, a hard disk 124, and a communication interface 128 for exchanging data with the communication device 200 are included. For example, a CD-ROM 118 is attached to the optical drive 108. An FD 116 is attached to the FD drive 106.

なお、CD−ROM118は、コンピュータ本体に対してインストールされるプログラム等の情報を記録可能な媒体であれば、他の媒体、たとえば、DVD−ROM(Digital Versatile Disc)やメモリカードなどでもよく、その場合は、コンピュータ本体102には、これらの媒体を読取ることが可能なドライブ装置が設けられる。   The CD-ROM 118 may be another medium, such as a DVD-ROM (Digital Versatile Disc) or a memory card, as long as it can record information such as a program installed in the computer main body. In this case, the computer main body 102 is provided with a drive device that can read these media.

なお、画像データの記録媒体として、ハードディスク124、あるいは、他の大容量の記録媒体を用いることで、プライバシ保護モバイル映像生成装置300を、基本的には、コンピュータ100と同様の構成を有するモバイルコンピュータにより実現することができる。もちろん、プライバシ保護モバイル映像生成装置300を、汎用のモバイルコンピュータの代わりに、専用のハードウェアで構成してもよい。   Note that the privacy protection mobile video generation apparatus 300 is basically a mobile computer having the same configuration as the computer 100 by using the hard disk 124 or other large-capacity recording medium as a recording medium for image data. Can be realized. Of course, the privacy-preserving mobile video generation device 300 may be configured with dedicated hardware instead of a general-purpose mobile computer.

[移動カメラを用いたステルスビジョンシステム]
ステルスビジョンシステム1000は、不特定の移動する人物・物体を移動カメラ20によって撮影し、さらに照明条件の変化や物体同士の隠れなどの問題も加わるため、映像上での見え方情報を用いた検出手法で、これを実現することは一般には困難である。
[Stealth vision system using mobile camera]
The stealth vision system 1000 captures an unspecified moving person / object with the moving camera 20, and also adds problems such as changes in illumination conditions and hiding between objects, so detection using appearance information on video This is generally difficult to achieve with techniques.

そこで、この問題を解決するために、図1に示したとおり、本発明では、複数台のカメラを用いて3次元空間中でプライバシ保護領域を設定する。本発明では、推定した被写体の奥行き情報を利用するため、撮影画像上で物体同士による重なりが発生した場合でも適切なぼかし領域を設定する事が可能である。また、この設定処理には映像上での見え方情報を一切用いないため、物体の移動や姿勢や照明条件の変化による見え方の変化に影響されないという利点がある。   Therefore, in order to solve this problem, as shown in FIG. 1, in the present invention, a privacy protection region is set in a three-dimensional space using a plurality of cameras. In the present invention, since the estimated depth information of the subject is used, it is possible to set an appropriate blur region even when an overlap between objects occurs on the captured image. In addition, since this setting process does not use any appearance information on the video, there is an advantage that it is not affected by changes in appearance due to movement of objects, changes in posture, and illumination conditions.

図3は、図1に示したシステム1000の構成および動作の概要を示すための機能ブロック図である。   FIG. 3 is a functional block diagram for showing an overview of the configuration and operation of the system 1000 shown in FIG.

上述のとおり、システム1000は、3次元位置検出ユニットとプライバシ保護モバイル映像生成装置300とを備える。   As described above, the system 1000 includes the three-dimensional position detection unit and the privacy protection mobile video generation apparatus 300.

3次元位置検出ユニットでは、3次元空間に取り付けた少なくとも1台の据置きカメラ、たとえば、天井カメラ10を用いて撮影空間の3次元モデルリングを行う。もし、モデリングされた3次元領域において、プライバシ保護のために映像の撮影が許可されていない場合、その領域をプライバシ保護領域とする。   The three-dimensional position detection unit performs three-dimensional modeling of the photographing space using at least one stationary camera attached to the three-dimensional space, for example, the ceiling camera 10. In the modeled three-dimensional area, if video shooting is not permitted for privacy protection, that area is set as a privacy protection area.

プライバシ保護モバイル映像生成装置300では、移動カメラ20のキャリブレーションを行い、モバイル画像キャプチャ部302により移動カメラ20から画像を取得して、プライバシ保護画像生成部304により3次元空間と撮影された画像面の間の射影関係を推定する。この射影関係を用いてプライバシ保護領域が画像上のどこに写り込むかを求め、推定領域に画像処理を施すことで、プライバシの保護を実現する。プライバシ保護画像生成部304により生成されたプライバシ保護画像データは、記録媒体に記録される。   In the privacy protection mobile video generation device 300, the mobile camera 20 is calibrated, the mobile image capture unit 302 acquires an image from the mobile camera 20, and the privacy protection image generation unit 304 captures the image plane as a three-dimensional space. Estimate the projective relationship between. Using this projection relationship, where the privacy protection area is reflected on the image is obtained, and image processing is performed on the estimation area, thereby realizing privacy protection. Privacy protected image data generated by the privacy protected image generation unit 304 is recorded on a recording medium.

[被写体のプライバシ保護映像の生成手法]
(プライバシ保護領域の設定)
撮影対象物体の3次元形状を復元する場合、多数のカメラによって撮影した映像にステレオ処理などを適用することにより、物体同士の隠れの問題(オクルージョン)を解決することができるものの、計算処理コストが大きくなるという問題がある。
[Privacy-protected video generation method for the subject]
(Privacy protection area setting)
When restoring the three-dimensional shape of an object to be photographed, the problem of occlusion between objects can be solved by applying stereo processing or the like to images photographed by a large number of cameras, but the calculation processing cost is high. There is a problem of growing.

本発明では、実時間での動作するステルスビジョンシステムを実現するために、多数台のカメラではなく、図1に示す空間を上方から見下ろすように撮影する一台のカメラ(天井カメラ10)により、プライバシ保護領域の推定を行う。   In the present invention, in order to realize a stealth vision system that operates in real time, not a large number of cameras but a single camera (ceiling camera 10) that captures the space shown in FIG. The privacy protection area is estimated.

ステルスビジョンシステムの撮影対象は、地面上をほぼ直立した状態で移動する物体であるため、上方からの映像中では物体同士の隠れの問題が起こりにくいというメリットがある。   Since the imaging target of the stealth vision system is an object that moves almost upright on the ground, there is an advantage that the problem of hiding between objects hardly occurs in an image from above.

図4は、このような天井カメラ10の撮影画像からプライバシ保護領域の推定を行う手続を示す概念図である。   FIG. 4 is a conceptual diagram showing a procedure for estimating the privacy protection area from the photographed image of the ceiling camera 10.

天井カメラ画像上の2次元座標情報(u,v)から3次元位置(X,Y,Z)を推定するために、全ての物体がある高さYの平面上に存在すると仮定する。撮影対象が3次元空間内を立って移動する人間であれば、このような仮定は十分現実を反映したものとなる。   In order to estimate the three-dimensional position (X, Y, Z) from the two-dimensional coordinate information (u, v) on the ceiling camera image, it is assumed that all objects exist on a plane having a height Y. If the object to be photographed is a human who moves in a three-dimensional space, this assumption sufficiently reflects reality.

この平面と天井カメラ画像面の間の2次元射影変換行列Hから、以下の式(1)に示すように、画像上の2次元座標情報から3次元空間での位置を推定する。   From the two-dimensional projective transformation matrix H between the plane and the ceiling camera image plane, the position in the three-dimensional space is estimated from the two-dimensional coordinate information on the image as shown in the following equation (1).

λ[X Z 1]T=Hn[u v 1]T …(1)
なお、このような推定方法については、たとえば、文献1:T.Koyama, I.Kitahara, Y.Ohta, “Live Mixed-Reality 3D Video in Soccer Stadium”, Proc. Of IEEE and ACM Int. Symposium on Mixed and Augmented Reality(ISMAR2003), pp178-187, (2003)に開示されている。
λ [X Z 1] T = H n [u v 1] T (1)
For such estimation methods, for example, Reference 1: T. Koyama, I. Kitahara, Y. Ohta, “Live Mixed-Reality 3D Video in Soccer Stadium”, Proc. Of IEEE and ACM Int. Symposium on Mixed and Augmented Reality (ISMAR2003), pp178-187, (2003).

式(1)を用いる処理において、対象物の2次元座標は、背景の除去と前景領域のラベリングというような簡単な画像処理により評価できる。このため、このような処理は実時間処理に適している。また、計算負荷を減少させるために、プライバシ保護領域は、対象物の少なくとも一部(たとえば、被写体の顔)の周りを囲む箱状の領域であるものとする。この箱状の領域の大きさは撮影対象ごとに適切に変化させるものとする。したがって、被写体の顔のプライバシ保護領域を獲得する場合は、式(1)において、被写体は、たとえば、地面からの高さ1.5mの領域に存在すると仮定し、その結果算出された3次元位置の周囲に30cm立方の箱状の領域を設定することで実現することができる。   In the processing using Expression (1), the two-dimensional coordinates of the object can be evaluated by simple image processing such as background removal and foreground area labeling. For this reason, such processing is suitable for real-time processing. In order to reduce the calculation load, the privacy protection area is assumed to be a box-like area surrounding at least a part of the object (for example, the face of the subject). It is assumed that the size of the box-shaped region is appropriately changed for each photographing target. Therefore, when acquiring the privacy protection area of the face of the subject, it is assumed that the subject exists in an area having a height of 1.5 m from the ground in Expression (1), and the calculated three-dimensional position is obtained as a result. This can be realized by setting a box-like region of 30 cm cubic around the area.

なお、本実施の形態では、実時間処理に主眼を置いたため、プライバシ保護領域として計算量の少ない箱状の形状を採用しているが、本発明で設定するプライバシ保護領域は、これに限るものではない。計算コストが許すのであれば、多視のカメラによって撮影された映像に3次元形状復元処理を適用することで、プライバシ保護領域の正確な3次元形状を設定することが可能である。この形状を利用することで、後段のぼかし処理の精度の向上が期待できる。   In this embodiment, since the focus is on real-time processing, a box-like shape with a small amount of calculation is adopted as the privacy protection area, but the privacy protection area set in the present invention is not limited to this. is not. If the calculation cost permits, it is possible to set an accurate three-dimensional shape of the privacy protection region by applying a three-dimensional shape restoration process to an image captured by a multi-view camera. By using this shape, it can be expected to improve the accuracy of the subsequent blurring process.

(移動カメラの校正)
以下では、移動カメラ20の校正の手続について、簡単に説明する。
(Calibration of moving camera)
Hereinafter, a procedure for calibrating the mobile camera 20 will be briefly described.

なお、カメラの校正については、たとえば、文献2:徐 剛、辻 三郎著「3次元ビジョン」、共立出版、1998年4月20日初版に詳しく開示されている。   The calibration of the camera is disclosed in detail in, for example, Document 2: Xu Tsuyoshi and Saburo Tsubaki “3D Vision”, Kyoritsu Shuppan, April 20, 1998, first edition.

移動カメラの校正の方法としては、第1には、移動カメラの位置と方向というようなカメラの外部変数を、磁気/赤外線を用いた3次元位置センサ群により抽出するという方法がある。射影行列は、カメラの内部変数と外部変数とを組み合わせることで得られる。   As a method for calibrating the moving camera, first, there is a method in which external variables of the camera such as the position and direction of the moving camera are extracted by a group of three-dimensional position sensors using magnetic / infrared rays. The projection matrix is obtained by combining the camera internal variables and external variables.

第2の方法としては、3次元座標と2次元座標との多数のペアにより、射影行列を評価する、という方法である。   As a second method, the projection matrix is evaluated by a large number of pairs of three-dimensional coordinates and two-dimensional coordinates.

第1の方法では、安定に射影行列を得られるものの、利用可能な受信センサの個数のために観測可能な領域が制限される。   In the first method, although a projection matrix can be obtained stably, the observable region is limited due to the number of available reception sensors.

第2の方法では、移動カメラ自体が受信センサであるために、3次元空間中に配置される標識を増やすことで、容易に観測可能な領域を拡大することができる。しかしながら、実際問題としては、標識の2次元座標を正確に抽出するのは困難であるために、一般には、射影行列を安定に得ることが難しい。   In the second method, since the moving camera itself is a reception sensor, the easily observable area can be expanded by increasing the number of signs arranged in the three-dimensional space. However, as a practical problem, it is difficult to accurately extract the two-dimensional coordinates of the sign, and it is generally difficult to stably obtain a projection matrix.

本発明では、図1に示したとおり、3次元空間内に標識として、LED−IDタグ30を配置している。このLED−IDタグ30は、たとえば、底面の大きさが3cm×4cm程度で作成できるために、撮影の行われる3次元空間内のどこにでも容易に配置できる。   In the present invention, as shown in FIG. 1, the LED-ID tag 30 is arranged as a marker in the three-dimensional space. For example, the LED-ID tag 30 can be created with a bottom surface size of about 3 cm × 4 cm, so that it can be easily placed anywhere in the three-dimensional space where photographing is performed.

このLED−IDタグ30は、各々が、点滅するパターンにより、自身のID番号を送出しており、これにより、画像中に映っているLED−IDタグ30がいずれのタグであるかを特定できる。カメラの内部変数については、予め求めておき、キャプチャされた画像中で、LED−IDタグ30を検出し、そのID番号をデコードして特定する。このID番号により、予め求めておいた当該LED−IDタグ30の3次元座標を参照することができる。コンピュータ100の記憶装置には、予めこのようなID番号と3次元座標とが関連付けられて格納されているものとする。   Each LED-ID tag 30 transmits its own ID number in a blinking pattern, and thus it is possible to specify which tag the LED-ID tag 30 shown in the image is. . The internal variables of the camera are obtained in advance, and the LED-ID tag 30 is detected in the captured image, and the ID number is decoded and specified. With this ID number, the three-dimensional coordinates of the LED-ID tag 30 obtained in advance can be referred to. It is assumed that such an ID number and three-dimensional coordinates are stored in advance in the storage device of the computer 100.

キャプチャされた画像中に、少なくとも3つのLED−IDタグ30が存在すれば、それらの3次元座標から、カメラの外部変数を求めることができる。このようにして求めた外部変数と内部変数とを組み合わせれば、射影行列を求めることができる。   If there are at least three LED-ID tags 30 in the captured image, an external variable of the camera can be obtained from these three-dimensional coordinates. A projection matrix can be obtained by combining external variables and internal variables obtained in this way.

(システム1000の動作)
以下、3次元位置検出ユニットとして動作するコンピュータ100の動作およびプライバシ保護モバイル映像生成装置300の動作について、説明する。
(Operation of system 1000)
Hereinafter, the operation of the computer 100 that operates as a three-dimensional position detection unit and the operation of the privacy protection mobile video generation apparatus 300 will be described.

図5は、コンピュータ100の動作を説明するためのフローチャートである。   FIG. 5 is a flowchart for explaining the operation of the computer 100.

図5を参照して、まず、天井カメラ10の校正が行われる(ステップS100)。この場合、たとえば、式(1)の適用にあたり、被写体のプライバシ保護領域が地面から1.5mの高さにあると仮定するのであれば、1.5mの高さの校正用の複数の棒を3次元空間内に所定間隔で垂直に立てて配置しておく。この校正用の棒の先端に色つきのマーカをつけておき、このマーカにより、天井カメラ10の校正を行うことができる。   Referring to FIG. 5, first, the ceiling camera 10 is calibrated (step S100). In this case, for example, when applying the expression (1), if it is assumed that the privacy protection area of the subject is at a height of 1.5 m from the ground, a plurality of calibration bars having a height of 1.5 m are provided. They are arranged vertically at predetermined intervals in a three-dimensional space. A colored marker is attached to the tip of the calibration bar, and the ceiling camera 10 can be calibrated with this marker.

続いて、RFIDタグ40と天井カメラ10からの画像データとに基づいて、プライバシ保護の対象物が撮影する3次元空間内に存在するかを検知する(ステップS102)。   Subsequently, based on the RFID tag 40 and the image data from the ceiling camera 10, it is detected whether the privacy protection target exists in the three-dimensional space to be photographed (step S102).

プライバシ保護対象物が存在する場合、式(1)にしたがって、3次元空間内でのプライバシ保護領域(箱型の領域)を算出する(ステップS106)。続いて、通信装置200を介して、プライバシ保護モバイル映像生成装置300のプライバシ保護画像生成部304に対して、算出されたプライバシ保護領域に関する情報を通知する(ステップS108)。ステップS104において、プライバシ保護対象物が存在しないと判断したときは、その旨を示す情報が通知される。   If there is a privacy protection object, a privacy protection area (box-shaped area) in the three-dimensional space is calculated according to the equation (1) (step S106). Subsequently, information about the calculated privacy protection area is notified to the privacy protection image generation unit 304 of the privacy protection mobile video generation device 300 via the communication device 200 (step S108). When it is determined in step S104 that no privacy protection target exists, information indicating that is notified.

操作者から処理の終了が指示されていなければ、処理は再び、ステップS102に復帰する。   If the operator has not instructed the end of the process, the process returns to step S102 again.

図6は、プライバシ保護モバイル映像生成装置300の動作を説明するためのフローチャートである。   FIG. 6 is a flowchart for explaining the operation of the privacy protection mobile video generation apparatus 300.

図6を参照して、まず、移動カメラ20により映像信号がキャプチャされる(ステップS200)。続いて、上述したLED−IDタグ30を用いた移動カメラの校正が行われる(ステップS202)。   Referring to FIG. 6, first, a video signal is captured by mobile camera 20 (step S200). Subsequently, the mobile camera is calibrated using the LED-ID tag 30 described above (step S202).

プライバシ保護領域が通知されていれば(ステップS204)、2次元画像中でプライバシ保護領域に相当する部分のぼかし処理を行う(ステップS206)。   If the privacy protection area has been notified (step S204), a blurring process is performed on a portion corresponding to the privacy protection area in the two-dimensional image (step S206).

ここで、上述したようなプライバシ保護領域を算出するステップで推定した箱状のプライバシ保護領域と、移動カメラの校正処理により算出された射影変換行列Pを用いて、移動カメラで撮影した画像上においてプライバシを保護する画像処理(ぼかし処理等)を行う手順について述べる。   Here, using the box-shaped privacy protection region estimated in the step of calculating the privacy protection region as described above and the projection transformation matrix P calculated by the calibration process of the mobile camera, A procedure for performing image processing (such as blurring processing) for protecting privacy will be described.

前述したように対象空間の被写体のすくなくとも1部は、箱状の領域として表現されている。その領域の8頂点を以下に示す式(2)により移動カメラによって撮影した画像上に投影し、それらの点同士を結んだ凸領域Rnを画面上で被写体の観測領域とする。   As described above, at least a part of the subject in the target space is expressed as a box-shaped region. Eight vertices of the area are projected on an image photographed by the moving camera according to the following expression (2), and a convex area Rn connecting these points is set as an observation area of the subject on the screen.

λ[unn 1]T=P[Xnnn 1]T …(2)
(n=1,…、8)
この観測領域において、画像の解像度を低下させるぼかし処理や、均一の色で塗りつぶす処理等を施すことで、被写体の見え方情報を低下させ、プライバシの保護を実現する。
λ [u n v n 1] T = P [X n Y n Z n 1] T (2)
(N = 1, ..., 8)
In this observation area, blurring processing for reducing the resolution of the image, processing for painting with a uniform color, and the like are performed, so that the appearance information of the subject is reduced and privacy protection is realized.

このようぼかし処理を行った後の画像データ、または、プライバシ保護領域が通知されていなければキャプチャされた画像データそのままを、画像データとして出力し記録媒体に記録する(ステップS208)。   The image data after the blurring process is performed, or if the privacy protection area is not notified, the captured image data is output as image data and recorded on the recording medium (step S208).

操作者から処理の終了が指示されていなければ、処理は再び、ステップS200に復帰する。   If the operator has not instructed the end of the process, the process returns to step S200 again.

図7は、以上のようにしてプライバシ保護処理された画像の例を示す図である。   FIG. 7 is a diagram showing an example of an image subjected to privacy protection processing as described above.

図7に示すとおり、画面中央よりの人物の顔領域には、この人物の顔部分の大きさの変化に合わせて、モザイク処理が施される。   As shown in FIG. 7, a mosaic process is performed on the face area of the person from the center of the screen in accordance with the change in the size of the face part of the person.

(実施の形態1)
以上の説明では、タグ(RFIDタグ)40がつけられている人物の顔領域にぼかし処理を行うものとして説明した。ただし、現実の応用場面、たとえば、所定の施設内での監視カメラにおいて撮影される画像に、プライバシ保護が必要な場合は、むしろ、当該施設で働く従業員等、すなわち、撮影された画像上においてプライバシ保護が必ずしも必要ない被写体には、タグ40がついているものの、当該施設の来館者等には、タグ40がつけられていない場合が多い。
(Embodiment 1)
In the above description, it has been described that the blur processing is performed on the face area of the person to whom the tag (RFID tag) 40 is attached. However, if privacy protection is required for an actual application scene, for example, an image taken by a surveillance camera in a predetermined facility, rather than an employee working in the facility, that is, on the photographed image. A subject that does not necessarily require privacy protection has a tag 40, but a visitor or the like of the facility often does not have the tag 40 attached.

この場合は、図5のステップS102の処理で、カメラ20により撮影された画像において、まず、顔に相当する画像領域部分を周知の方法で検出しておき、このようなカメラ20からの画像情報に基づく顔の検出結果とタグ40からの情報と天井カメラ10からの画像データとに基づいて、プライバシ保護の対象物が撮影する3次元空間内に存在するかを検知する。すなわち、カメラ20の画像において検出された顔のうち、タグ40のついていない被写体について、プライバシ保護領域が存在するものと判断することになる。   In this case, in the process of step S102 in FIG. 5, first, an image region portion corresponding to the face is detected by a known method in the image taken by the camera 20, and image information from such a camera 20 is detected. Based on the detection result of the face based on the information, the information from the tag 40, and the image data from the ceiling camera 10, it is detected whether the privacy protection target exists in the three-dimensional space to be photographed. That is, it is determined that a privacy protection area exists for a subject that does not have the tag 40 among the faces detected in the image of the camera 20.

以下では、このようなタグ40のついていない被写体について、ぼかし処理を行う変形例について説明する。また、特に限定はされないが、以下では、カメラ20は固定して撮影するものとする。   Below, the modification which performs a blurring process about the subject which does not have such a tag 40 is demonstrated. In addition, although not particularly limited, in the following, the camera 20 is assumed to be fixed and photographed.

図8は、このようにして撮影された画像において、プライバシ保護処理を行うための画像処理装置306の構成を説明するための概略ブロック図である。   FIG. 8 is a schematic block diagram for explaining the configuration of an image processing apparatus 306 for performing privacy protection processing on an image captured in this way.

なお、被写体4,6のうち被写体6が、タグ40をつけているものとする。   It is assumed that the subject 6 of the subjects 4 and 6 has the tag 40 attached.

図8では、カメラ20により、被写体を含む画像が撮影されるとともに、タグ検出部22により撮影範囲内にタグ40が存在するかが、検出される。また、図示しない天井カメラ10も設置されているものとする。   In FIG. 8, the camera 20 captures an image including a subject, and the tag detection unit 22 detects whether the tag 40 exists within the capturing range. It is also assumed that a ceiling camera 10 (not shown) is also installed.

特に限定されないが、画像処理装置306の各機能も、コンピュータ上で実行されるソフトウェアにより実現することが可能である。   Although not particularly limited, each function of the image processing apparatus 306 can also be realized by software executed on a computer.

画像処理装置306においては、まず、撮影された画像において、顔領域検出部310が顔領域の検出を行い、隠蔽部分選択部312は、タグ検出部22からの情報、および必要に応じて天井カメラ10からの画像情報を処理する3次元位置検出ユニット(図示せず)からの情報に基づいて、ぼかし処理を行う部分(プライバシ保護領域)を撮影された画像中において特定する。   In the image processing device 306, first, the face area detection unit 310 detects a face area in the photographed image, and the concealed part selection unit 312 detects information from the tag detection unit 22 and a ceiling camera as necessary. Based on information from a three-dimensional position detection unit (not shown) that processes image information from 10, a portion (privacy protection area) for performing blurring processing is specified in the photographed image.

続いて、顔領域隠蔽画像生成部314は、特定されたプライバシ保護領域について、上述したのと同様に、3次元空間内でのプライバシ保護領域(たとえば、箱型の領域)を算出して、2次元画像中でプライバシ保護領域に相当する部分のぼかし処理を行う。変換画像出力部318からは、ぼかし処理が行われた画像が出力される。   Subsequently, the face area concealed image generation unit 314 calculates a privacy protection area (for example, a box-shaped area) in the three-dimensional space for the identified privacy protection area, as described above. Blur processing is performed on a portion corresponding to the privacy protection area in the two-dimensional image. The converted image output unit 318 outputs an image subjected to the blurring process.

以上のような構成により、タグ40のついていない被写体について、プライバシ保護のためのぼかし処理を行うことができる。これにより、本来の目的から外れて収集されてしまうプライバシ情報を保護するために、目的となる必要な情報(情報を収集する対象となる人たちまたは情報を収集することが許容される人たちの画像など)は残しつつ、プライバシ上問題となる部分(情報収集対象者以外の顔画像など)だけを隠蔽することが可能となる。   With the configuration as described above, blurring processing for privacy protection can be performed on a subject without the tag 40. As a result, in order to protect the privacy information that is collected outside the original purpose, the necessary information that is the purpose (of the people who are to collect information or those who are allowed to collect information) It is possible to conceal only the part that causes a privacy problem (such as a face image other than the information collection target person) while leaving the image).

なお、タグ40としては、RFIDタグの代わりに、LED−IDタグをもちいてもよく、この場合は、カメラ20で撮影された画像情報により、被写体がLED−IDタグを装着しているか否かを検出できる。   Note that an LED-ID tag may be used as the tag 40 instead of the RFID tag. In this case, whether or not the subject is wearing the LED-ID tag based on image information captured by the camera 20 is determined. Can be detected.

(実施の形態2)
実施の形態1では、単に、プライバシ保護領域について、ぼかし処理を行った画像を生成して出力する構成について説明した。
(Embodiment 2)
In the first embodiment, the configuration for simply generating and outputting an image subjected to the blurring process for the privacy protection area has been described.

ただし、上述したとおり、場合によっては、プライバシ保護領域についてぼかし処理を行った画像について、事後的に、当該プライバシ保護領域に対して行ったぼかし処理を解除して、閲覧したい場合がある。   However, as described above, in some cases, an image that has been subjected to the blurring process for the privacy protection area may be later viewed after the blurring process that has been performed on the privacy protection area is canceled.

そこで、実施の形態2では、このような閲覧が可能な画像撮影システムについて説明する。   Therefore, in the second embodiment, an image photographing system capable of such browsing will be described.

図9は、このような実施の形態2の画像撮影システムにおいて使用される画像処理装置306の構成を説明するための概略ブロック図である。   FIG. 9 is a schematic block diagram for explaining the configuration of the image processing apparatus 306 used in the image photographing system of the second embodiment.

図9においては、図8と同一部分には同一参照符号を付している。なお、図9においては、説明の簡単のために、プライバシ保護領域の存在する被写体のみを示している。   In FIG. 9, the same parts as those in FIG. In FIG. 9, only the subject in which the privacy protection area exists is shown for ease of explanation.

なお、図においては、カメラ20は高解像度の画像(たとえば、ハイビジョン画質の画像)を撮影可能なものとする。   In the figure, it is assumed that the camera 20 can capture a high-resolution image (for example, an image with a high-definition image quality).

図9を参照して、被写体4の画像は、カメラ20により撮影され、画像処理装置306の顔領域検出部310において、周知の方法により顔が検出される。一方、タグ検出部22からの情報および天井カメラ(図示せず)からの情報等により、撮影領域内においてプライバシ保護領域の存在する被写体の顔領域の画像情報が選択的に、顔領域分離部313において抽出される。   Referring to FIG. 9, an image of subject 4 is captured by camera 20, and a face is detected by a well-known method in face area detection unit 310 of image processing device 306. On the other hand, based on information from the tag detection unit 22 and information from a ceiling camera (not shown), the image information of the face area of the subject where the privacy protection area exists in the photographing area is selectively selected. Extracted in

顔領域分離部313での抽出処理が終わった後の画像には、顔領域隠蔽画像生成部314が、特定されたプライバシ保護領域について、上述したのと同様に、3次元空間内でのプライバシ保護領域(たとえば、箱型の領域)を算出して、2次元画像中でプライバシ保護領域に相当する部分のぼかし処理を行う。顔領域隠蔽画像生成部314で処理された画像は、画像圧縮部316において圧縮処理が行われた後に、変換画像出力部318から、ぼかし処理が行われた画像が出力される。   For the image after the extraction processing by the face region separation unit 313 is finished, the face region concealed image generation unit 314 performs privacy protection in the three-dimensional space for the identified privacy protection region as described above. A region (for example, a box-shaped region) is calculated, and a blurring process is performed on a portion corresponding to the privacy protection region in the two-dimensional image. The image processed by the face area hidden image generation unit 314 is subjected to compression processing by the image compression unit 316, and then the image subjected to blurring processing is output from the converted image output unit 318.

一方、顔領域分離部313で抽出されたプライバシ保護領域に対応する画像については、暗号化鍵生成部322により生成された暗号化鍵により、顔領域画像暗号化部320において暗号化処理が施される。特に限定されないが、この暗号化鍵生成部322により生成される暗号化鍵は、1つの撮影動作(カメラオンからオフまで)ごとに生成されることとしてもよいし、所定の時間間隔ごとに更新されるとしてもよい。いずれにしても、顔領域画像暗号化部320から出力される情報には、暗号化された顔領域画像情報とともに、当該顔領域画像情報の暗号化を行った暗号化鍵を特定可能な情報も含まれるものとする。顔領域画像暗号化部320の出力は、暗号情報蓄積部324に蓄積される。   On the other hand, the image corresponding to the privacy protection area extracted by the face area separation unit 313 is subjected to encryption processing by the face area image encryption unit 320 using the encryption key generated by the encryption key generation unit 322. The Although not particularly limited, the encryption key generated by the encryption key generation unit 322 may be generated for each shooting operation (from camera on to off) or updated at predetermined time intervals. It may be done. In any case, the information output from the face area image encryption unit 320 includes the encrypted face area image information and information that can specify the encryption key that encrypted the face area image information. Shall be included. The output of the face area image encryption unit 320 is stored in the encryption information storage unit 324.

図10は、変換画像出力部318から出力される圧縮画像ファイル(顔画像の隠蔽された圧縮画像)と、暗号情報蓄積部324に蓄積される暗号化ファイル(暗号化された顔情報)とを模式的に示す概念図である。   FIG. 10 shows a compressed image file (compressed image with a concealed face image) output from the converted image output unit 318 and an encrypted file (encrypted face information) stored in the encryption information storage unit 324. It is a conceptual diagram showing typically.

圧縮画像ファイルと暗号化ファイルとは、たとえば、撮影がされた時間情報などにより、相互に関連付けられているものとする。   It is assumed that the compressed image file and the encrypted file are associated with each other by, for example, time information when the image is taken.

図11は、実施の形態2の画像撮影システムにおいて使用される画像閲覧装置400の構成を説明するための概略ブロック図である。   FIG. 11 is a schematic block diagram for explaining the configuration of an image browsing apparatus 400 used in the image capturing system of the second embodiment.

図11を参照して、画像閲覧装置400は、変換画像出力部318からの圧縮画像ファイルデータを受ける変換画像入力部410と、変換画像入力部410からの圧縮画像ファイルデータを伸張処理するための圧縮画像伸張部420とを備える。   Referring to FIG. 11, image browsing apparatus 400 receives a compressed image file data from converted image output unit 318, and decompresses the compressed image file data from converted image input unit 410. A compressed image expansion unit 420.

画像閲覧装置400は、さらに、暗号情報蓄積部324から、ユーザが認証された場合に暗号化ファイルデータを受け取る暗号情報入力部412と、暗号化鍵生成部322から暗号化鍵を受け取り、当該暗号化鍵により暗号化されている顔領域画像情報を、ユーザが認証された場合に復号処理するための顔領域画像復号部414と、ユーザの認証が行われていない場合は、圧縮画像伸張部420からの情報をそのまま出力し、一方、ユーザの認証が行われている場合は、圧縮画像伸張部420からの情報と顔画像復号部414からの復号情報とを統合して画像を再構成するための画像再構成部424と、ユーザからの認証情報を受けて、当該ユーザを認証するか否かを決定する認証情報入力部426と、画像再構成部424からの出力を画像として表示するための画像出力部430とを備える。   The image browsing apparatus 400 further receives, from the encryption information storage unit 324, an encryption information input unit 412 that receives encrypted file data when the user is authenticated, and an encryption key from the encryption key generation unit 322. A face area image decoding unit 414 for decrypting the face area image information encrypted by the encryption key when the user is authenticated, and a compressed image expansion unit 420 when the user is not authenticated. If the user authentication is performed, the information from the compressed image decompression unit 420 and the decoded information from the face image decoding unit 414 are integrated to reconstruct the image. The image reconstruction unit 424, the authentication information input unit 426 that receives authentication information from the user and determines whether or not to authenticate the user, and the output from the image reconstruction unit 424 And an image output unit 430 for and view.

図9〜図11のような構成とすることにより、撮影された画像の中から、映っている人を自動的に抽出し、その部分だけを隠蔽する画像収集装置において、プライバシ上問題のある領域(プライバシ保護領域、たとえば顔の部分)の画像のみを分離し、当該プライバシ上問題のある部分の画像を、隠蔽後の画像とは別の、隠蔽後画像と関連付けられた情報として保存し、緊急時(犯罪などの発生で元の画像が必要となった場合)には、所定の認証を受けたユーザには、元の画像が復元可能となる。   In the image collecting apparatus that automatically extracts a person in a captured image and hides only that portion by using the configuration as shown in FIGS. (Privacy protection area, for example, the face part) is separated, and the image of the part having the privacy problem is stored as information associated with the concealed image different from the concealed image. At times (when the original image is necessary due to the occurrence of a crime, etc.), the original image can be restored to the user who has received the predetermined authentication.

なお、図9に示した構成においても、図8に示した場合と同様に、画像中に映っている人が誰であるかの認識を行い、プライバシ上問題がないと識別された人については、プライバシ上問題のある領域の画像の加工を行わず、それ以外の人のプライバシ上問題のある領域のみを隠蔽するとの動作を行うことが可能である。   In the configuration shown in FIG. 9, as in the case shown in FIG. 8, the person who is shown in the image is recognized and the person identified as having no privacy problem is identified. Thus, it is possible to perform an operation of hiding only a region having privacy problems of other people without processing an image of a region having privacy problems.

さらに、顔領域画像については、撮影された高画質の画像データを圧縮することなく暗号化していることになり、プライバシ上問題のある領域の画像を、それ以外の部分よりも高解像度な画像として保存するので、事後的に、所定の認証を受けたユーザが、元の画像を復元した際に、プライバシの保護領域として隠蔽された領域に移っている人物を特定することが容易となる。   Furthermore, the face area image is encrypted without compressing the captured high-quality image data, and the image of the area having a privacy problem is set as a higher resolution image than the other parts. Since it is saved, it becomes easy for a user who has received predetermined authentication to specify a person who has moved to an area concealed as a privacy protection area when the original image is restored.

(実施の形態3)
実施の形態2においては、プライバシ保護領域を暗号化したデータについては、圧縮画像データとは別ファイルとして保存する構成としていた。
(Embodiment 3)
In the second embodiment, the data obtained by encrypting the privacy protection area is stored as a separate file from the compressed image data.

しかしながら、圧縮画像データとプライバシ保護領域を暗号化したデータとを同一ファイルの別領域に格納しておくことも可能である。   However, the compressed image data and the data obtained by encrypting the privacy protection area can be stored in different areas of the same file.

たとえば、動画像をモーションJPEGのような1フレームごとに符号化する画像符号化方式により符号化している場合は、圧縮画像データについては、本来のJPEGの圧縮画像データ本体として格納しておき、プライバシ保護領域の暗号化データについては、コメント領域のように通常は画像再生時に再生されない領域に格納しておくことができる。また、時間軸方向に圧縮する画像符号化方式であっても、基本的には、各フレームごとに、当該符号化方式に適合する形式で、プライバシ保護領域の暗号化データを、通常は画像再生時に再生されない領域に格納しておく。   For example, when a moving image is encoded by an image encoding method such as motion JPEG that encodes every frame, the compressed image data is stored as the original JPEG compressed image data body, and the privacy is stored. The encrypted data in the protected area can be stored in an area that is not normally reproduced during image reproduction, such as a comment area. In addition, even in the case of an image encoding method that compresses in the time axis direction, basically, the encrypted data in the privacy protection area is usually reproduced for each frame in a format that conforms to the encoding method. Store it in an area that is sometimes not played back.

図12は、このような実施の形態3の画像撮影システムにおいて使用される画像処理装置306の構成を説明するための概略ブロック図である。   FIG. 12 is a schematic block diagram for explaining the configuration of the image processing apparatus 306 used in the image photographing system of the third embodiment.

図12においては、図9と同一部分には同一参照符号を付している。以下では、主として、図9の構成との相違点について説明する。   In FIG. 12, the same parts as those in FIG. Hereinafter, differences from the configuration of FIG. 9 will be mainly described.

図12に示した画像処理装置306では、顔領域分離部313で抽出されたプライバシ保護領域に対応する画像については、暗号化鍵生成部322により生成された暗号化鍵により、顔領域画像暗号化部320において暗号化処理が施された暗号化データは、画像圧縮部316で生成された圧縮画像データとともに、出力画像生成部317に与えられる。   In the image processing apparatus 306 illustrated in FIG. 12, the image corresponding to the privacy protection area extracted by the face area separation unit 313 is subjected to face area image encryption using the encryption key generated by the encryption key generation unit 322. The encrypted data subjected to the encryption processing in the unit 320 is given to the output image generation unit 317 together with the compressed image data generated by the image compression unit 316.

出力画像生成部317は、圧縮画像データと暗号化データとを統合化して1つの圧縮画像ファイルとし、変換画像出力部318に与える。ただし、圧縮画像ファイル中において、コメント部に格納される暗号化された顔情報については、圧縮はされていないものとする。顔画像部分については、もともと画像領域が大きくはないので、このようにしても、データサイズ自体は大きくはならない。   The output image generation unit 317 integrates the compressed image data and the encrypted data into one compressed image file, and provides the converted image output unit 318 with it. However, in the compressed image file, the encrypted face information stored in the comment part is not compressed. Since the image area of the face image portion is not originally large, the data size itself does not increase even in this way.

その他の構成および動作は、図9に示した構成と同様であるので、その説明は繰り返さない。   Since other configurations and operations are the same as those shown in FIG. 9, the description thereof will not be repeated.

図13は、出力画像生成部317により生成される圧縮画像ファイルの構成を示す概念図である。   FIG. 13 is a conceptual diagram illustrating a configuration of a compressed image file generated by the output image generation unit 317.

1つの画像ファイルの本体部分(データ部)には、顔画像の隠蔽された圧縮画像データが格納されるとともに、当該ファイルのコメント部のように通常は画像再生時に再生されない領域に暗号化された顔情報が格納されている。   The main part (data part) of one image file stores the compressed image data concealed in the face image, and is encrypted in an area that is not normally reproduced during image reproduction like the comment part of the file. Face information is stored.

図14は、実施の形態3の画像撮影システムにおいて使用される画像閲覧装置406の構成を説明するための概略ブロック図である。   FIG. 14 is a schematic block diagram for explaining the configuration of the image browsing device 406 used in the image capturing system of the third embodiment.

図14においても、図11と同一部分には同一参照符号を付している。以下では、主として、図11の構成との相違点について説明する。   Also in FIG. 14, the same parts as those in FIG. Hereinafter, differences from the configuration of FIG. 11 will be mainly described.

図14を参照して、変換画像入力部410では、入力された圧縮画像データを、データ部とコメント部に分離し、圧縮画像データは、当該圧縮画像データを伸張処理するための圧縮画像伸張部420に与え、暗号化データは、顔領域画像復号部414に与える。   Referring to FIG. 14, the converted image input unit 410 separates the input compressed image data into a data part and a comment part, and the compressed image data is a compressed image decompression unit for decompressing the compressed image data. The encrypted data is provided to the face area image decrypting unit 414.

以後の処理は、図11の画像閲覧装置400の動作と同様である。   Subsequent processing is the same as the operation of the image browsing apparatus 400 of FIG.

以上のような構成によっても、実施の形態2の画像撮影システムと同様の効果を奏することが可能である。   Even with the configuration as described above, it is possible to achieve the same effect as the image capturing system of the second embodiment.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

本発明の画像撮影装置を用いたステルスビジョンシステム1000の一例を示す概念図である。It is a conceptual diagram which shows an example of the stealth vision system 1000 using the image imaging device of this invention. コンピュータ100の構成をブロック図形式で示す図である。FIG. 2 is a block diagram showing the configuration of a computer 100. 図1に示したシステム1000の構成および動作の概要を示すための機能ブロック図である。It is a functional block diagram for showing the outline | summary of a structure and operation | movement of the system 1000 shown in FIG. 天井カメラ10の撮影画像からプライバシ保護領域の推定を行う手続を示す概念図である。It is a conceptual diagram which shows the procedure which estimates a privacy protection area | region from the picked-up image of the ceiling camera. コンピュータ100の動作を説明するためのフローチャートである。4 is a flowchart for explaining the operation of the computer 100. プライバシ保護モバイル映像生成装置300の動作を説明するためのフローチャートである。5 is a flowchart for explaining an operation of a privacy-protected mobile video generation device 300. プライバシ保護処理された画像の例を示す図である。It is a figure which shows the example of the image by which privacy protection processing was carried out. プライバシ保護処理を行うための画像処理装置306の構成を説明するための概略ブロック図である。It is a schematic block diagram for demonstrating the structure of the image processing apparatus 306 for performing a privacy protection process. 実施の形態2の画像撮影システムにおいて使用される画像処理装置306の構成を説明するための概略ブロック図である。FIG. 6 is a schematic block diagram for explaining a configuration of an image processing device 306 used in the image capturing system of the second embodiment. 変換画像出力部318から出力される圧縮画像ファイルと、暗号情報蓄積部324に蓄積される暗号化ファイルとを模式的に示す概念図である。4 is a conceptual diagram schematically illustrating a compressed image file output from a converted image output unit 318 and an encrypted file stored in an encryption information storage unit 324. FIG. 実施の形態2の画像撮影システムにおいて使用される画像閲覧装置400の構成を説明するための概略ブロック図である。It is a schematic block diagram for demonstrating the structure of the image browsing apparatus 400 used in the image imaging system of Embodiment 2. FIG. 実施の形態3の画像撮影システムにおいて使用される画像処理装置306の構成を説明するための概略ブロック図である。FIG. 10 is a schematic block diagram for explaining a configuration of an image processing device 306 used in the image capturing system of the third embodiment. 出力画像生成部317により生成される圧縮画像ファイルの構成を示す概念図である。3 is a conceptual diagram illustrating a configuration of a compressed image file generated by an output image generation unit 317. FIG. 実施の形態3の画像撮影システムにおいて使用される画像閲覧装置406の構成を説明するための概略ブロック図である。FIG. 10 is a schematic block diagram for explaining a configuration of an image browsing device 406 used in the image capturing system of the third embodiment.

符号の説明Explanation of symbols

100 コンピュータ、102 コンピュータ本体、103 ディスプレイ、106 FDドライブ、108 光学ドライブ、110 キーボード、112 マウス、114 無線通信装置、118 CD−ROM、120 CPU、122 メモリ、124 ハードディスク、128 通信インタフェース、200 通信装置、300 プライバシ保護モバイル映像生成装置、1000 画像撮影システム。   100 computer, 102 computer main body, 103 display, 106 FD drive, 108 optical drive, 110 keyboard, 112 mouse, 114 wireless communication device, 118 CD-ROM, 120 CPU, 122 memory, 124 hard disk, 128 communication interface, 200 communication device , 300 Privacy protection mobile video generation device, 1000 image capturing system.

Claims (6)

撮影を行なう3次元空間内において、移動する複数の撮影対象者の位置をそれぞれ検出するための3次元位置検出手段を備え、前記3次元空間には、予め位置が特定された複数のLEDタグが配置されており、
前記3次元空間内を移動する状態において、前記撮影対象者の画像を撮影するための移動撮影手段と、
撮影された画像中において、プライバシを保護するための画像処理の対象となる撮影対象画像のうち顔領域を候補領域として検出する保護領域候補検出手段と、
前記検出された候補領域のうち前記プライバシ保護の対象となる保護領域を検出するための隠蔽部分検出手段とを備え、前記隠蔽部分検出手段は、複数の前記撮影対象者のうち識別標識を付けていない撮影対象者に対応する前記候補領域を前記保護領域として検出し、
前記隠蔽部分検出手段により特定された前記保護領域に対して、選択的にプライバシを保護するための前記画像処理を行った保護画像データを生成するための保護画像生成手段とを備え、
前記保護画像生成手段は、前記移動撮影手段により撮影された前記画像中に存在する前記LEDタグが点滅により送出するID情報に基づいて、前記移動撮影手段の校正を行なって前記移動撮影手段についての射影行列を導出し、前記保護領域が前記撮影された画像中のいずれの部分に投影されるかを算出して特定し、前記画像処理を実行する、画像撮影システム。
A three-dimensional position detecting unit is provided for detecting the positions of a plurality of moving subjects in the three-dimensional space where photographing is performed. In the three-dimensional space, a plurality of LED tags whose positions are specified in advance are provided. Has been placed,
In a state of moving in the three-dimensional space, a moving photographing means for photographing an image of the photographing subject;
Protected area candidate detecting means for detecting a face area as a candidate area in a photographed person image to be subjected to image processing for protecting privacy in a captured image;
A concealed part detecting means for detecting a protected area that is subject to privacy protection among the detected candidate areas, and the concealed part detecting means attaches an identification mark among the plurality of subjects to be photographed. Detecting the candidate area corresponding to a non-shooting target person as the protection area,
Wherein with respect to the protected area specified by the concealment portion detecting unit, selectively a protective image generating means for generating a protective image data the image processing was carried out to protect privacy,
The protected image generating means calibrates the moving photographing means based on the ID information sent out by blinking of the LED tag existing in the image photographed by the moving photographing means. derive a projection matrix, the protected area is identified by calculating how is projected to any part in the photographed image, that perform the image processing, the image capturing system.
前記隠蔽部分検出手段は、前記保護領域に対応する画像データを選択的に抽出する保護領域分離手段を含み、
前記保護領域分離手段により抽出された前記保護領域に対応する画像データを暗号化して暗号化画像データを生成するための保護領域暗号化手段をさらに備える、請求項1記載の画像撮影システム。
The concealed part detecting means includes a protected area separating means for selectively extracting image data corresponding to the protected area,
The image photographing system according to claim 1, further comprising a protection area encryption unit that encrypts image data corresponding to the protection area extracted by the protection area separation unit to generate encrypted image data.
前記保護画像生成手段の出力である前記保護画像データを圧縮して圧縮画像データを生成するための画像圧縮手段と、
前記圧縮画像データおよび前記暗号化画像データとを受けて、対応する画像を再生するための画像閲覧手段とをさらに備え、
前記画像閲覧手段は、
ユーザの認証を行って、認証されたユーザに対して、前記圧縮画像データを伸張した画像と、前記暗号化画像データを復号した画像とを再構成した画像を再生して出力する画像再構成手段を含む、請求項2記載の画像撮影システム。
Image compression means for generating compressed image data by compressing the protected image data that is the output of the protected image generation means;
An image browsing means for receiving the compressed image data and the encrypted image data and reproducing the corresponding image;
The image browsing means includes:
Image reconstructing means for authenticating a user and reproducing and outputting an image obtained by reconstructing an image obtained by decompressing the compressed image data and an image obtained by decrypting the encrypted image data for the authenticated user The image capturing system according to claim 2, comprising:
前記保護領域暗号化手段は、前記保護領域に対応する画像データを未圧縮で暗号化する、請求項3記載の画像撮影システム。   The image capturing system according to claim 3, wherein the protected area encryption unit encrypts image data corresponding to the protected area without compression. 前記保護画像データと前記暗号化画像データとは、別々のファイルとして出力される、請求項2記載の画像撮影システム。   The image capturing system according to claim 2, wherein the protected image data and the encrypted image data are output as separate files. 前記保護画像データと前記暗号化画像データとを統合して1つのファイルとして出力する出力画像生成手段をさらに備える、請求項2記載の画像撮影システム。   The image capturing system according to claim 2, further comprising output image generation means for integrating the protected image data and the encrypted image data and outputting the integrated image data as one file.
JP2005026564A 2005-02-02 2005-02-02 Image shooting system Expired - Fee Related JP4512763B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005026564A JP4512763B2 (en) 2005-02-02 2005-02-02 Image shooting system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005026564A JP4512763B2 (en) 2005-02-02 2005-02-02 Image shooting system

Publications (2)

Publication Number Publication Date
JP2006217161A JP2006217161A (en) 2006-08-17
JP4512763B2 true JP4512763B2 (en) 2010-07-28

Family

ID=36980018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005026564A Expired - Fee Related JP4512763B2 (en) 2005-02-02 2005-02-02 Image shooting system

Country Status (1)

Country Link
JP (1) JP4512763B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11871116B2 (en) 2021-01-29 2024-01-09 Canon Kabushiki Kaisha Image capturing apparatus, image capturing method, and storage medium for calculating image capturing condition which enables privacy of object to be protected

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8253770B2 (en) * 2007-05-31 2012-08-28 Eastman Kodak Company Residential video communication system
US8610787B2 (en) 2007-06-22 2013-12-17 Panasonic Corporation Camera device including privacy protection method
JP4915404B2 (en) * 2008-07-31 2012-04-11 ブラザー工業株式会社 Karaoke equipment
JP5338248B2 (en) * 2008-10-20 2013-11-13 株式会社ニコン Image processing apparatus, electronic camera, and image processing program
JP5269033B2 (en) * 2009-12-18 2013-08-21 韓國電子通信研究院 Image privacy masking method and apparatus
US8743224B2 (en) * 2012-07-13 2014-06-03 Intel Corporation Context based management for secure augmented reality applications
JP2015127731A (en) * 2013-12-27 2015-07-09 シャープ株式会社 Image processor, image processing system, and information terminal
US10282619B2 (en) 2014-03-10 2019-05-07 Sony Corporation Processing apparatus, storage medium, and control method
JP6278806B2 (en) * 2014-04-09 2018-02-14 株式会社Nttドコモ Imaging system and imaging method
JP6412350B2 (en) * 2014-06-30 2018-10-24 アマノ株式会社 Parking lot management system
US9679194B2 (en) 2014-07-17 2017-06-13 At&T Intellectual Property I, L.P. Automated obscurity for pervasive imaging
JP6124223B2 (en) * 2015-04-16 2017-05-10 パナソニックIpマネジメント株式会社 Incident video log data generation apparatus, incident video processing system, incident video log data generation method, and program
JP6910772B2 (en) * 2016-09-08 2021-07-28 キヤノン株式会社 Imaging device, control method and program of imaging device
JP6699518B2 (en) * 2016-11-14 2020-05-27 オムロン株式会社 Image recognition processing method, image recognition processing program, data providing method, data providing system, data providing program, recording medium, processor and electronic device
US10943383B2 (en) 2017-01-26 2021-03-09 Sony Corporation Information processing apparatus and information processing method
JP7047394B2 (en) * 2018-01-18 2022-04-05 セイコーエプソン株式会社 Head-mounted display device, display system, and control method for head-mounted display device
KR102238939B1 (en) * 2018-11-29 2021-04-14 오지큐 주식회사 Method for Protecting Portrait Right by Using Mobile Device
CN111083352A (en) * 2019-11-25 2020-04-28 广州富港万嘉智能科技有限公司 Camera working control method with privacy protection function, computer readable storage medium and camera terminal
CN113747075A (en) * 2021-09-17 2021-12-03 苏州惟信易量智能科技有限公司 Shooting control method and system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4378785B2 (en) * 1999-03-19 2009-12-09 コニカミノルタホールディングス株式会社 Image input device with image processing function
JP4036051B2 (en) * 2002-07-30 2008-01-23 オムロン株式会社 Face matching device and face matching method
JP4027786B2 (en) * 2002-11-25 2007-12-26 オリンパス株式会社 Electronic camera
JP2004180236A (en) * 2002-11-29 2004-06-24 Hitachi Ltd Network monitor camera and network monitor camera system
JP2005026917A (en) * 2003-06-30 2005-01-27 Casio Comput Co Ltd Image providing apparatus, image converting apparatus and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11871116B2 (en) 2021-01-29 2024-01-09 Canon Kabushiki Kaisha Image capturing apparatus, image capturing method, and storage medium for calculating image capturing condition which enables privacy of object to be protected

Also Published As

Publication number Publication date
JP2006217161A (en) 2006-08-17

Similar Documents

Publication Publication Date Title
JP4512763B2 (en) Image shooting system
JP6634432B2 (en) Automatically define system behavior or user experience by recording, sharing, and processing information related to wide-angle images
JP4402998B2 (en) Surveillance system and camera with masking function, and mask release device used with the camera
Padilla-López et al. Visual privacy protection methods: A survey
US7440594B2 (en) Face identification device and face identification method
US20150029308A1 (en) Apparatus and method for reconstructing scene of traffic accident
US9406342B2 (en) Imaging apparatus and method of providing imaging information
US20100011297A1 (en) Method and system for generating index pictures for video streams
JP2008259076A (en) Image shake stabilizing apparatus, imaging apparatus, and image shake stabilizing method
JP6320075B2 (en) Image processing apparatus and control method thereof
Korshunov et al. PEViD: privacy evaluation video dataset
WO2017141102A1 (en) Image distortion transformation method and apparatus
JP6332037B2 (en) Image processing apparatus and method, and program
CN111046725A (en) Spatial positioning method based on face recognition and point cloud fusion of surveillance video
Verolme et al. Application of forensic image analysis in accident investigations
JP7084795B2 (en) Image processing equipment, image providing equipment, their control methods and programs
CN109840885A (en) Image interfusion method and Related product
JP4446114B2 (en) Image shooting device
US11302045B2 (en) Image processing apparatus, image providing apparatus,control methods thereof, and medium
EP3516618B1 (en) Augmented reality implementation method
US11195295B2 (en) Control system, method of performing analysis and storage medium
US20160127617A1 (en) System for tracking the position of the shooting camera for shooting video films
JP2004185386A (en) Image collating unit
Pollok A new multi-camera dataset with surveillance, mobile and stereo cameras for tracking, situation analysis and crime scene investigation applications
JP7065708B2 (en) Recording / playback device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100309

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100405

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130521

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130521

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140521

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees