JP2000278584A - Image input device provided with image processing function and recording medium recording its image processing program - Google Patents

Image input device provided with image processing function and recording medium recording its image processing program

Info

Publication number
JP2000278584A
JP2000278584A JP11076087A JP7608799A JP2000278584A JP 2000278584 A JP2000278584 A JP 2000278584A JP 11076087 A JP11076087 A JP 11076087A JP 7608799 A JP7608799 A JP 7608799A JP 2000278584 A JP2000278584 A JP 2000278584A
Authority
JP
Japan
Prior art keywords
image
marker
camera
area
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11076087A
Other languages
Japanese (ja)
Other versions
JP4378785B2 (en
Inventor
Satoshi Himeda
諭 姫田
Yasuhisa Kanefuji
靖尚 金藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP07608799A priority Critical patent/JP4378785B2/en
Priority to US09/520,216 priority patent/US6765608B1/en
Publication of JP2000278584A publication Critical patent/JP2000278584A/en
Application granted granted Critical
Publication of JP4378785B2 publication Critical patent/JP4378785B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain an image input device provided with an image processing function that converts an original picture into another picture not including an object according to the intention of the object person or the like in the picture or converts only a specific area including the object of the original picture into a different picture while least losing the intention of a photographer. SOLUTION: A control section 101 makes communication with a computer connected to a network via a communication control section 113. Upon the receipt of a command to change a photographing range of a camera section 103, the control section 101 controls the camera section 103 and a camera panning tilt section 105. A marker sensing section 107 senses, in a picture photographed by the camera section 103, the area of a marker similar to the shape of a previously stored marker. A privacy protection picture processing section 109 extracts a protection area in the picture on the basis of the marker area sensed by the marker sensing section 107 and applies mosaic processing to the extracted protection area. The picture whose protection area has been subjected to mosaic processing is transmitted to the computer connected to the network via the communication control section 113.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は画像処理機能を備
えた画像入力装置および画像処理プログラムを記録した
記録媒体に関し、特に、カメラで撮像して得られる画像
をもとに、撮影が許可されていない領域に所定の画像処
理を行なう画像処理機能を有する画像処理装置および画
像処理プログラムを記録した記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image input device having an image processing function and a recording medium storing an image processing program, and in particular, is permitted to take a picture based on an image taken by a camera. The present invention relates to an image processing apparatus having an image processing function of performing predetermined image processing on a non-existent area and a recording medium on which an image processing program is recorded.

【0002】[0002]

【従来の技術】近年ネットワーク基盤の充実や通信技術
の発達により、遠隔監視カメラやテレビ電話等の映像ま
たは音声データを送受信するシステムが開発されてい
る。特にインターネットを利用した遠隔監視カメラシス
テムにおいては、カメラが設置されている場所から離れ
た場所に設置された端末で、カメラで撮影した映像を見
ることができる。このシステムでは、ネットワークに接
続された端末からカメラのパン、チルト、ズーム等の制
御が可能となっている。端末の操作者は、カメラで撮影
する範囲を自由に選択することができる。また、カメラ
で撮影された映像は、ネットワークに接続された複数の
端末で見ることができる。システムによっては、不特定
の端末使用者に映像を提供するシステムがある。このよ
うな遠隔監視カメラシステムでは、カメラで撮影されて
被写体となる者の意思は全く考慮されていないため、個
人のプライバシー保護が十分に図れないといった問題が
ある。
2. Description of the Related Art In recent years, with the enhancement of network infrastructure and the development of communication technology, systems for transmitting and receiving video or audio data from a remote monitoring camera or a videophone have been developed. In particular, in a remote monitoring camera system using the Internet, an image captured by a camera can be viewed at a terminal installed at a location away from the location where the camera is installed. In this system, it is possible to control pan, tilt, zoom, etc. of a camera from a terminal connected to a network. The operator of the terminal can freely select a range to be photographed by the camera. In addition, images captured by a camera can be viewed on a plurality of terminals connected to a network. Some systems provide images to unspecified terminal users. Such a remote monitoring camera system has a problem that the privacy of an individual cannot be sufficiently protected because the intention of a person who is photographed by the camera and becomes a subject is not considered at all.

【0003】この問題に対して、たとえば、特開平10
−136247号公報には、カメラを制御するサーバに
カメラで撮影することができない領域を設定しておく遠
隔監視カメラシステムが開示されている。この従来の遠
隔監視カメラシステムでは、カメラで撮影することがで
きない領域が撮影されて、ネットワークに接続された端
末に送られることはない。この点で、カメラが撮影する
ことができない領域における個人のプライバシーの保護
を図ることができる。
To solve this problem, see, for example,
Japanese Patent Application Laid-Open No. 136247 discloses a remote monitoring camera system in which an area that cannot be photographed by a camera is set in a server that controls the camera. In this conventional remote monitoring camera system, an area that cannot be photographed by a camera is photographed and is not sent to a terminal connected to a network. In this regard, it is possible to protect the privacy of an individual in an area where the camera cannot capture an image.

【0004】また、特開平6−121305号公報に
は、テレビ電話において、通話者自身を撮影するための
カメラに対して、カメラに装着されたシャッタを閉じる
ことで撮影を禁止したり、カメラの向きを変えることで
通話者の撮影を不可能にするテレビ電話が開示されてい
る。
Japanese Patent Application Laid-Open No. 6-121305 discloses that, in a videophone, a camera for photographing a caller is prohibited by closing a shutter mounted on the camera, There is disclosed a videophone that makes it impossible to shoot a caller by changing the direction.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、従来の
遠隔監視カメラシステムにおいては、撮影することがで
きない領域は、カメラを管理する者(撮影者側)の都合
によって設定されるものである。カメラで撮影すること
ができない領域以外の領域においては、被写体となる者
のプライバシーは保護されず、撮影された画像は、ネッ
トワークに接続された複数の端末に表示されてしまう。
したがって、被写体となる者の意思に沿ってプライバシ
ーを保護することはできないといった問題があった。
However, in the conventional remote monitoring camera system, the area where the photograph cannot be taken is set according to the convenience of the person who manages the camera (photographer side). In an area other than the area where the camera cannot shoot, the privacy of the subject is not protected, and the shot image is displayed on a plurality of terminals connected to the network.
Therefore, there is a problem that privacy cannot be protected according to the intention of the subject.

【0006】また、従来のテレビ電話においては、通話
者自身の意思でカメラに装着されたシャッタを閉じた
り、カメラの向きを変えることにより、通話者自身が撮
影されることがない。しかし、これではカメラで何も撮
影することができないか、撮影できたとしても通話の相
手方の意に反する画像しか撮影できないものである。し
たがって、人がその場にいるのかいないのかといった程
度の確認もできないので、セキュリティ管理などを目的
とした画像を得るためには不適切である。
Further, in the conventional videophone, the caller himself is not photographed by closing the shutter mounted on the camera or changing the direction of the camera at his own will. However, in this case, nothing can be photographed with the camera, or even if it can be photographed, only an image contrary to the intention of the other party of the call can be photographed. Therefore, it is not possible to confirm whether or not a person is present or not, which is inappropriate for obtaining an image for security management or the like.

【0007】この発明は上述の問題点を解決するために
なされたもので、撮影者の意図をできるだけ損なわない
ようにした上で、画像中の被写体となるものの意思等
で、その被写体を含まない画像に変換する、もしくは被
写体を含んだ特定領域だけを原画像と異なる画像に変換
することのできる画像処理機能を備えた画像入力装置お
よび画像処理プログラムを記録した記録媒体を提供する
ことを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problem. In order to minimize the intention of a photographer, the present invention does not include a subject in the intention of the subject. It is an object of the present invention to provide an image input device having an image processing function capable of converting an image or a specific area including a subject into an image different from an original image, and a recording medium recording an image processing program. I do.

【0008】[0008]

【課題を解決するための手段】上述の目的を達成するた
めにこの発明のある局面による画像処理機能を備えた画
像入力装置は、画像を入力する撮像手段と、入力された
画像から被写体の形状を検出する検出手段と、所定の形
状を予め記憶する記憶手段と、検出手段で検出された被
写体の形状と記憶手段に記憶された所定の形状とが一致
するときは、入力された画像の全部または一部を入力さ
れた画像と異なる画像に変換する画像処理手段とを備え
る。
According to an aspect of the present invention, there is provided an image input apparatus having an image processing function, comprising: an image input unit for inputting an image; Detecting means for detecting a predetermined shape, a storing means for storing a predetermined shape in advance, and when the shape of the subject detected by the detecting means matches the predetermined shape stored in the storing means, all of the input image Or image processing means for converting a part of the image into an image different from the input image.

【0009】好ましくは画像処理機能を備えた画像入力
装置は、被写体までの距離を計測する測距手段と、入力
された画像における検出手段で検出された被写体の位置
と測距手段で計測された被写体までの距離とに基づき、
入力された画像から保護領域を抽出する保護領域抽出手
段とをさらに備え、画像処理手段は、保護領域の画像を
入力された画像と異なる画像に変換することを特徴とす
る。
Preferably, the image input device having an image processing function is a distance measuring means for measuring a distance to a subject, and the position of the subject detected by the detecting means in the input image and the distance measured by the distance measuring means. Based on the distance to the subject,
And a protection area extraction unit that extracts a protection area from the input image, wherein the image processing unit converts the image of the protection area into an image different from the input image.

【0010】さらに好ましくは画像処理機能を備えた画
像入力装置は、ネットワークに接続され、画像処理手段
で変換した画像をネットワークに伝送する手段をさらに
備える。
[0010] More preferably, the image input apparatus having an image processing function is further connected to a network and further includes means for transmitting the image converted by the image processing means to the network.

【0011】この発明の他の局面による画像処理プログ
ラムを記録した記録媒体は、入力された画像から被写体
の形状を検出する検出ステップと、所定の形状を予め記
憶する記憶ステップと、検出ステップで検出された被写
体の形状と記憶ステップで予め記憶された所定の形状と
が一致するときは、入力された画像の全部または一部を
入力された画像と異なる画像に変換するステップとをコ
ンピュータに実行させるための画像処理プログラムを記
録する。
According to another aspect of the present invention, there is provided a recording medium storing an image processing program, comprising: a detecting step of detecting a shape of a subject from an input image; a storing step of storing a predetermined shape in advance; When the shape of the input subject matches the predetermined shape stored in advance in the storage step, the computer performs a step of converting all or a part of the input image into an image different from the input image. An image processing program for recording.

【0012】これらの発明に従うと、撮影者の意図をで
きるだけ損なわないようにした上で、画像中の被写体と
なるものの意思等で、その被写体を含まない画像に変換
する、もしくは被写体を含んだ特定領域だけを原画像と
異なる画像に変換することのできる画像処理機能を備え
た画像入力装置および画像処理プログラムを記録した記
録媒体を提供することができる。
[0012] According to these inventions, the object of the photographer is converted into an image that does not include the subject, or the object including the subject is specified, while minimizing the intention of the photographer as much as possible. It is possible to provide an image input device having an image processing function capable of converting only an area into an image different from an original image, and a recording medium recording an image processing program.

【0013】[0013]

【発明の実施の形態】以下本発明の実施の形態について
図面を参照して説明する。なお、図中同一符号は同一ま
たは相当する部材を示す。
Embodiments of the present invention will be described below with reference to the drawings. In the drawings, the same reference numerals indicate the same or corresponding members.

【0014】[第1の実施の形態]図1は、本発明の実
施の形態の1つにおける画像処理機能を備えた画像入力
装置が適用されるカメラサーバの概略構成を示すブロッ
ク図である。図を参照して、カメラサーバ100は、被
写体130を撮影するためのカメラ部103と、カメラ
部103の撮影方向を上下左右に移動させるためのカメ
ラ用パンチルト部105と、カメラ部103で撮影され
た画像からマーカを検知するためのマーカ検知部107
と、マーカ検知部107で検知されたマーカをもとにカ
メラ部103で撮影された画像に所定の画像処理を施す
ためのプライバシー保護画像処理部109と、ネットワ
ークに接続された他のコンピュータと通信を行なうため
の通信制御部113と、制御部101とを含む。
FIG. 1 is a block diagram showing a schematic configuration of a camera server to which an image input device having an image processing function according to one embodiment of the present invention is applied. Referring to the figure, camera server 100 includes camera unit 103 for photographing subject 130, camera pan / tilt unit 105 for moving the photographing direction of camera unit 103 up, down, left and right, and camera unit 103. Marker detecting section 107 for detecting a marker from the detected image
And a privacy protection image processing unit 109 for performing predetermined image processing on an image captured by the camera unit 103 based on the marker detected by the marker detection unit 107, and communicating with another computer connected to the network. And a control unit 101 for performing communication.

【0015】カメラ部103は、光学レンズとCCDセ
ンサ等の光電変換素子等から構成される。カメラ部10
3で撮影された画像は、光電変換素子により電気信号に
変換されてマーカ検知部107に送信される。カメラ部
103の、フォーカス、ズームおよびアイリスの制御
は、制御部101より受信する制御コマンドに基づき定
められる。カメラ用パンチルト部105は、カメラ部1
03の撮影方向を上下左右に移動させる。カメラ用パン
チルト部105は、制御部101より受信する制御コマ
ンドに従って、パンおよびチルト動作を行なう。これに
より、カメラ部103の撮影方向を上下左右に移動させ
る。
The camera section 103 comprises an optical lens and a photoelectric conversion element such as a CCD sensor. Camera unit 10
The image photographed in 3 is converted into an electric signal by the photoelectric conversion element and transmitted to the marker detection unit 107. The control of the focus, zoom, and iris of the camera unit 103 is determined based on a control command received from the control unit 101. The camera pan / tilt unit 105 includes the camera unit 1
The shooting direction of 03 is moved up, down, left, and right. The camera pan / tilt unit 105 performs a pan and tilt operation according to a control command received from the control unit 101. Thereby, the shooting direction of the camera unit 103 is moved up, down, left, and right.

【0016】通信制御部113は、カメラサーバ100
をコンピュータネットワークまたは通信回線網に接続す
るための通信インターフェイスであり、ネットワーク等
に接続された他のパーソナルコンピュータとの間で通信
を行なう。図ではコンピュータネットワークに接続した
形態を示している。通信制御部113に入力された音声
データまたは画像データは、制御部101の指示により
ネットワークに接続されたパーソナルコンピュータに対
してネットワークを介して送信される。
[0016] The communication control unit 113 controls the camera server 100.
Is a communication interface for connecting the PC to a computer network or a communication network, and performs communication with another personal computer connected to the network or the like. The figure shows a form in which the apparatus is connected to a computer network. The audio data or image data input to the communication control unit 113 is transmitted to a personal computer connected to the network via the network in accordance with an instruction from the control unit 101.

【0017】制御部101は、カメラサーバ100全体
を制御する。制御部101は、通信制御部113を介し
てネットワークに接続された他のコンピュータ等と通信
を行なうことにより、カメラ部103で撮影する範囲を
変更するコマンドを受信する。制御部101は、受信し
たコマンドに基づき、カメラ部103およびカメラ用パ
ンチルト部105に制御コマンドを送信する。カメラ用
パンチルト部105は、制御部101から受信した制御
コマンドに基づいて、カメラ部103の撮影方向を変更
する。また、カメラ部103は、制御部101から受信
した制御コマンドに基づいて、フォーカス値、ズーム
量、アイリスの値を決定する。これにより、カメラ部1
03で撮影する範囲が制御される。
The control unit 101 controls the entire camera server 100. The control unit 101 receives a command to change a range to be shot by the camera unit 103 by communicating with another computer or the like connected to the network via the communication control unit 113. The control unit 101 transmits a control command to the camera unit 103 and the camera pan / tilt unit 105 based on the received command. The camera pan / tilt unit 105 changes the shooting direction of the camera unit 103 based on the control command received from the control unit 101. Further, the camera unit 103 determines a focus value, a zoom amount, and an iris value based on the control command received from the control unit 101. Thereby, the camera unit 1
At 03, the shooting range is controlled.

【0018】マーカ検知部107は、カメラ部103で
撮影された画像を受信する。マーカ検知部107には、
予めマーカが記憶されており、カメラ部103から受信
した画像から抽出した形状とマーカの形状とを照合する
ことにより、画像からマーカの形状と類似した形状の領
域(以下「マーカ領域」という)を検知する。マーカ検
知部107内に記憶されているマーカは、文字や記号も
しくは色彩またはこれらの組合せで表わされた形状であ
る。マーカについては後で詳しく説明する。
The marker detecting section 107 receives an image photographed by the camera section 103. The marker detection unit 107 includes:
A marker is stored in advance, and by comparing the shape extracted from the image received from the camera unit 103 with the shape of the marker, an area having a shape similar to the shape of the marker (hereinafter, referred to as a “marker area”) is obtained from the image. Detect. The marker stored in the marker detection unit 107 has a shape represented by characters, symbols, colors, or a combination thereof. The marker will be described later in detail.

【0019】プライバシー保護画像処理部109は、マ
ーカ検知部107よりカメラ部103で撮影された画像
とマーカ検知部107で検知されたマーカ領域とを受信
する。受信したマーカ領域をもとに、画像から保護領域
を抽出して、抽出した保護領域に対して所定の画像処理
を行なう。画像処理が行なわれた画像は、制御部101
に送信される。
The privacy protection image processing unit 109 receives the image captured by the camera unit 103 from the marker detection unit 107 and the marker area detected by the marker detection unit 107. A protection area is extracted from the image based on the received marker area, and predetermined image processing is performed on the extracted protection area. The image subjected to the image processing is transmitted to the control unit 101.
Sent to.

【0020】制御部101では、プライバシー保護画像
処理部109から受信した画像処理後の画像を、通信制
御部113を介してネットワークに接続されたコンピュ
ータ等に送信する。これにより、ネットワークに接続さ
れたコンピュータ等は、プライバシー保護画像処理部1
09で画像処理が施された画像を表示することができ
る。
The control unit 101 transmits the processed image received from the privacy protection image processing unit 109 to a computer or the like connected to a network via the communication control unit 113. As a result, a computer or the like connected to the network can operate the privacy protection image processing unit 1.
At 09, the image subjected to the image processing can be displayed.

【0021】なお、マーカ検知部107とプライバシー
保護画像処理部109とで行なう処理を実行するための
プログラムを記録媒体121に記録し、記録されたプロ
グラムをカメラサーバ100に接続した外部記憶装置1
11で読込むことにより、制御部101で実行するよう
にしてもよい。記録媒体121は、光磁気ディスク、デ
ジタルビデオディスク(DVD)等である。
A program for executing the processing performed by the marker detection unit 107 and the privacy protection image processing unit 109 is recorded on the recording medium 121, and the recorded program is stored in the external storage device 1 connected to the camera server 100.
11 may be executed by the control unit 101. The recording medium 121 is a magneto-optical disk, a digital video disk (DVD), or the like.

【0022】図2は、カメラ部103で部屋を撮影する
場合におけるカメラ部103の撮影範囲を説明するため
の図である。図2は、部屋203の上方に視点をおいて
部屋203を見た図である。部屋203のほぼ中央にマ
ーカ200を胸につけた被写体201が存在する。カメ
ラ部103は、部屋203の1つの壁の上方に取付けら
れている。カメラ部103で撮影することができる撮影
範囲は、図に示す角度で部屋全体に拡がっている。被写
体201は、カメラ部103の撮影範囲に含まれている
ので、カメラ部103で撮影される画像中に含まれる。
カメラ部103が取付けられた壁の近傍にある一部の領
域が撮影範囲に含まれない。撮影範囲に含まれない領域
については、カメラ用パンチルト部105をパンおよび
チルト動作させることにより、撮影範囲に含めることが
できる。
FIG. 2 is a diagram for explaining the photographing range of the camera unit 103 when the camera unit 103 photographs a room. FIG. 2 is a diagram of the room 203 viewed from a viewpoint above the room 203. An object 201 having a marker 200 attached to the chest is present substantially in the center of the room 203. The camera unit 103 is mounted above one wall of the room 203. The photographing range that can be photographed by the camera unit 103 extends throughout the room at the angle shown in the figure. Since the subject 201 is included in the shooting range of the camera unit 103, it is included in an image shot by the camera unit 103.
Part of the area near the wall on which the camera unit 103 is mounted is not included in the shooting range. An area that is not included in the shooting range can be included in the shooting range by panning and tilting the camera pan / tilt unit 105.

【0023】次に、制御部101で行なわれるカメラ制
御処理について説明する。図3は、制御部101で行な
われるカメラ制御処理の流れを示すフロー図である。制
御部101は、通信制御部113を介して、ネットワー
クに接続されたコンピュータ等と通信を行なう。コンピ
ュータ等から受信するコマンドには、カメラ部103の
撮影方向の変更を指示するためのコマンドと、カメラ部
103のズーム、フォーカス、アイリスの調整を指示す
るためのコマンドが含まれる。制御部101では、コン
ピュータ等から送信されるこれらのコマンドを、制御コ
マンドに変換してカメラ用パンチルト部105およびカ
メラ部103に対して送信する。これにより、カメラ用
パンチルト部105とカメラ部103とが制御部101
により制御される。
Next, the camera control processing performed by the control unit 101 will be described. FIG. 3 is a flowchart showing the flow of the camera control process performed by the control unit 101. The control unit 101 communicates with a computer or the like connected to a network via the communication control unit 113. Commands received from a computer or the like include a command for instructing a change in the shooting direction of the camera unit 103 and a command for instructing adjustment of the zoom, focus, and iris of the camera unit 103. The control unit 101 converts these commands transmitted from the computer or the like into control commands and transmits them to the camera pan / tilt unit 105 and the camera unit 103. As a result, the camera pan / tilt unit 105 and the camera unit 103 are connected to the control unit 101.
Is controlled by

【0024】制御部101は、パーソナルコンピュータ
等からカメラ部103の撮影範囲を変更するコマンドを
受信すると、カメラ用パンチルト部105に制御コマン
ドを送信する(ステップS31)。カメラ用パンチルト
部105は、制御コマンドの受信に応じてパン動作また
はチルト動作を行なう。これにより、カメラ部103の
撮影範囲が上下左右に移動する。
When receiving a command to change the photographing range of the camera unit 103 from a personal computer or the like, the control unit 101 transmits a control command to the camera pan / tilt unit 105 (step S31). The camera pan / tilt unit 105 performs a pan operation or a tilt operation in response to receiving the control command. Thereby, the shooting range of the camera unit 103 moves up, down, left, and right.

【0025】また、制御部101は、パーソナルコンピ
ュータ等からカメラ部103のフォーカス、ズーム、ア
イリスを調整するためのコマンドを受信すると、カメラ
部103に対して制御コマンドを送信する(ステップS
32)。これにより、カメラ部103は、制御コマンド
の受信に応じてフォーカス、ズーム、アイリスを調整す
る動作を行なう。
When receiving a command for adjusting the focus, zoom, and iris of the camera unit 103 from a personal computer or the like, the control unit 101 transmits a control command to the camera unit 103 (step S).
32). Thereby, the camera unit 103 performs an operation of adjusting the focus, zoom, and iris according to the reception of the control command.

【0026】次に、カメラ部103を駆動することによ
り、カメラ部103で撮影が開始される(ステップS3
3)。カメラ部103で撮影された画像はマーカ検知部
107に送信される。
Next, by driving the camera unit 103, photographing is started by the camera unit 103 (step S3).
3). The image captured by the camera unit 103 is transmitted to the marker detection unit 107.

【0027】図4は、マーカ検知部107とプライバシ
ー保護画像処理部109とで行なわれる画像処理の流れ
を示すフロー図である。図を参照して、画像処理は、カ
メラ部103で撮影された画像を入力するステップ(S
01)と、画像からマーカを検知するためのステップ
(S02)と、画像にマーカが含まれるか否かを判断す
るステップ(S03)と、画像から保護領域を抽出する
処理を行なうステップ(S04)と、ステップS04で
抽出された保護領域の画像を所定の画像に変換する処理
を行なうステップ(S05)と、ステップS05で変換
された画像を出力するステップ(S06)とを含む。
FIG. 4 is a flowchart showing the flow of image processing performed by the marker detection unit 107 and the privacy protection image processing unit 109. Referring to the figure, the image processing is a step of inputting an image captured by the camera unit 103 (S
01), a step of detecting a marker from the image (S02), a step of determining whether or not the image contains a marker (S03), and a step of extracting a protected area from the image (S04) And performing a process of converting the image of the protected area extracted in step S04 into a predetermined image (S05), and outputting the image converted in step S05 (S06).

【0028】ステップS01においては、カメラ部10
3で撮影された画像がマーカ検知部107に入力され
る。入力される画像は、静止画像でも動画像でもどちら
でもよい。
In step S01, the camera unit 10
The image captured in Step 3 is input to the marker detection unit 107. The input image may be a still image or a moving image.

【0029】ステップS02においては、入力された画
像とマーカ検知部107内に記憶されているマーカとを
照合することにより、画像からマーカと類似する形状の
画像領域(以下「マーカ領域」という)を検知する。マ
ーカ検知部107内に記憶されているマーカが複数ある
場合には、すべてのマーカについて画像との照合が行な
われる。
In step S02, by comparing the input image with a marker stored in the marker detecting unit 107, an image area having a shape similar to the marker (hereinafter, referred to as "marker area") is detected from the image. Detect. When there are a plurality of markers stored in the marker detection unit 107, all the markers are compared with the image.

【0030】マーカ領域を検知する手法としては、周知
の画像認識技術を用いることができる。たとえば、画像
を輝度または色相を用いて2値化して、画像に含まれる
被写体の輪郭を抽出することにより、被写体の形状を認
識する。認識された被写体の形状と、マーカ検知部10
7内に記憶されているマーカの形状とを比較して、マー
カの形状と類似する形状の画像領域をマーカ領域として
検知する。
As a technique for detecting the marker area, a known image recognition technique can be used. For example, the shape of the subject is recognized by binarizing the image using luminance or hue and extracting the contour of the subject included in the image. Recognized object shape and marker detection unit 10
The image area having a shape similar to the shape of the marker is detected as a marker area by comparing the shape of the marker with the shape of the marker stored in 7.

【0031】画像からマーカ領域が検知される場合と
は、たとえば、人がマーカ検知部107内に記憶されて
いるマーカと同じ形状のマーカを胸などにつけてカメラ
部103の撮影範囲内に入った場合である。この場合に
は、その人物が被写体としてカメラ部103で撮影され
た画像に含まれるとともに、その人物の胸につけられた
マーカもカメラ部103で撮影された画像に含まれるこ
とになる。
The case where a marker area is detected from an image means, for example, that a person enters a shooting range of the camera unit 103 by attaching a marker having the same shape as a marker stored in the marker detecting unit 107 to a chest or the like. Is the case. In this case, the person is included in the image captured by the camera unit 103 as a subject, and a marker attached to the chest of the person is also included in the image captured by the camera unit 103.

【0032】ステップS03においては、画像からマー
カが検知されたか否かを判断する。マーカが検知された
場合には、ステップS04に進み、検知されなかった場
合には、以降の処理を行なわずそのまま処理を終了す
る。
In step S03, it is determined whether or not a marker has been detected from the image. When a marker is detected, the process proceeds to step S04, and when not detected, the process is terminated without performing the subsequent processes.

【0033】ステップS04においては、画像からプラ
イバシーを保護するための保護領域を抽出する処理が行
なわれる。ステップS05においては、ステップS04
で抽出された保護領域の画像に対して画像変換処理を行
なう。ステップS04とステップS05で行なわれる処
理については後で詳しく説明する。
In step S04, a process of extracting a protected area for protecting privacy from the image is performed. In step S05, step S04
The image conversion processing is performed on the image of the protection area extracted in step (1). The processing performed in steps S04 and S05 will be described later in detail.

【0034】ステップS06においては、ステップS0
5で画像変換処理がなされた処理済みの画像を制御部1
01に出力する。制御部101では、プライバシー保護
画像処理部109が出力する処理済みの画像を通信制御
部113に出力する。
In step S06, step S0
The processed image subjected to the image conversion processing in step 5
Output to 01. The control unit 101 outputs the processed image output from the privacy protection image processing unit 109 to the communication control unit 113.

【0035】通信制御部113は、処理済みの画像をネ
ットワークに接続されたパーソナルコンピュータ等に送
信する。ネットワークに接続されたパーソナルコンピュ
ータ等は、受信した処理済みの画像をパーソナルコンピ
ュータに接続されたCRTや液晶表示装置等の表示手段
に表示する。
The communication control unit 113 transmits the processed image to a personal computer or the like connected to a network. A personal computer or the like connected to the network displays the received processed image on a display means such as a CRT or a liquid crystal display connected to the personal computer.

【0036】図5は、図4のステップS04で行なわれ
る保護領域の抽出処理の流れを示すフロー図である。図
を参照して、保護領域の抽出処理は、候補領域を抽出す
るステップ(S11)と、ステップS11で抽出された
候補領域のうちマーカに最も近い候補領域を保護領域と
して抽出するステップ(S12)とを含む。
FIG. 5 is a flowchart showing the flow of the protection area extraction processing performed in step S04 of FIG. Referring to the figure, the protection area extraction processing includes a step of extracting a candidate area (S11) and a step of extracting a candidate area closest to a marker among the candidate areas extracted in step S11 as a protection area (S12). And

【0037】ステップS11においては、画像に含まれ
る被写体から人物の顔の部分の領域を候補領域として抽
出する。その方法としては、たとえば画像から肌色部分
の領域を抽出する方法が用いられる。肌色部分の領域が
人の顔を表わす確率が高いからである。
In step S11, a region of a person's face from a subject included in an image is extracted as a candidate region. As the method, for example, a method of extracting a skin color region from an image is used. This is because the skin color region has a high probability of representing a human face.

【0038】ステップS12においては、画像中で、ス
テップS11で抽出された候補領域の位置と、図4のス
テップS02で検知されたマーカ領域の位置との間の距
離が計算される。ステップS11で複数の候補領域が抽
出された場合には、すべての候補領域についてマーカ領
域の位置との距離が計算される。そして、マーカ領域と
の間の距離が最も近い候補領域を保護領域として抽出す
る。これにより、画像中でマーカ領域から最も近い顔の
領域が保護領域として抽出されることになる。すなわ
ち、マーカを胸につけた人の顔の領域が保護領域として
抽出されることになる。
In step S12, the distance between the position of the candidate area extracted in step S11 and the position of the marker area detected in step S02 in FIG. 4 is calculated in the image. When a plurality of candidate areas are extracted in step S11, the distance from the position of the marker area is calculated for all the candidate areas. Then, a candidate area having the shortest distance from the marker area is extracted as a protection area. As a result, the face area closest to the marker area in the image is extracted as the protection area. That is, the area of the face of the person with the marker on the chest is extracted as the protection area.

【0039】図4のステップS02で、画像からマーカ
領域が複数検知された場合には、図5のステップS12
では、保護領域が複数抽出されることになる。すなわ
ち、検知されたマーカの数だけ保護領域が抽出される。
換言すれば、マーカを胸につけた複数の人が画像に含ま
れる場合に、マーカを胸につけた人の顔のすべてが保護
領域として抽出されることになる。
If a plurality of marker areas are detected from the image in step S02 in FIG. 4, step S12 in FIG.
Then, a plurality of protected areas are extracted. That is, protected areas are extracted by the number of detected markers.
In other words, when a plurality of people with markers on their chests are included in the image, all of the faces of the people with markers on their chests are extracted as protected areas.

【0040】図6は、図4のステップS05で行なわれ
る画像変換処理の流れを示すフロー図である。図を参照
して、画像変換処理は、抽出された保護領域の画像に対
してモザイク処理をするステップ(S21)と、モザイ
ク処理がなされた保護領域の画像とカメラ部103から
入力された画像とを合成する処理を行なうステップ(S
22)とを含む。
FIG. 6 is a flowchart showing the flow of the image conversion process performed in step S05 of FIG. Referring to the figure, the image conversion process includes a step of performing mosaic processing on the extracted image of the protected area (S21), and a step of performing the mosaic processing on the protected area image and the image input from the camera unit 103. Performing processing for synthesizing (S
22).

【0041】ステップS21においては、図5のステッ
プS12で抽出された保護領域のすべてに対して、モザ
イク処理を行なう。これにより、保護領域の画像は、被
写体が誰であるかを人が認識することができない画像に
変換される。また、モザイク処理の代わりに、LUT変
換などのフィルタ処理を用いてもよい。さらに、プライ
バシー保護画像処理部109に別の画像データを予め記
憶しておき、保護領域の画像を別の画像データに置換す
るようにしてもよい。
In step S21, mosaic processing is performed on all of the protected areas extracted in step S12 in FIG. Thus, the image of the protected area is converted into an image in which a person cannot recognize who the subject is. Further, instead of the mosaic processing, filter processing such as LUT conversion may be used. Further, another image data may be stored in the privacy protection image processing unit 109 in advance, and the image in the protected area may be replaced with another image data.

【0042】ステップS22においては、モザイク処理
がなされて被写体が誰であるかを人が認識できなくなっ
た保護領域の画像と入力された画像とを合成する。これ
により、入力された画像のうち保護領域の画像のみがモ
ザイク処理がなされた画像となる。一方、合成された画
像のうち保護領域を除く他の画像は、元の画像のままの
状態なので、人が認識することができる。
In step S22, the input image is combined with the image of the protected area where the mosaic processing has been performed and the person cannot recognize who the subject is. As a result, only the image in the protection area of the input image is an image on which the mosaic processing has been performed. On the other hand, the other images of the synthesized image except for the protection area are in the original state, and can be recognized by a person.

【0043】図7は、カメラ部103で撮影した画像と
カメラサーバ100から出力される画像とを示す図であ
る。図7(A)は、カメラ部103で撮影した画像を示
し、図7(B)はカメラサーバ100から出力される画
像を示す。図7(A)を参照して、カメラ部103で撮
影した画像211は、人物として表わされる被写体20
1と、マーカ200とを含んでいる。被写体201は、
人の形状をデフォルメして描いてある。図7(B)を参
照して、被写体の顔の部分が保護領域203としてモザ
イク処理がなされて表わされている。
FIG. 7 is a diagram showing an image captured by the camera unit 103 and an image output from the camera server 100. FIG. 7A shows an image captured by the camera unit 103, and FIG. 7B shows an image output from the camera server 100. Referring to FIG. 7A, an image 211 photographed by the camera unit 103 includes a subject 20 represented as a person.
1 and a marker 200. The subject 201
The shape of the person is deformed and drawn. With reference to FIG. 7B, the face of the subject is shown as a protected area 203 that has been subjected to mosaic processing.

【0044】図8は、カメラサーバ100から出力され
る画像の変形例を示す図である。図を参照して、被写体
の顔の部分が保護領域であることを示す記号225が、
被写体の顔の部分に重ねて表示されている。このよう
に、記号225を保護領域として抽出された被写体の顔
の部分に重ねて表示することで、画像211を見る者に
対して、画像211に映し出された被写体が誰であるか
を認識することができない画像を出力することができる
とともに、画像211に映し出された被写体がプライバ
シーの保護を求めていることを認識させることができ
る。
FIG. 8 is a diagram showing a modification of the image output from the camera server 100. Referring to the figure, a symbol 225 indicating that the face portion of the subject is a protected area,
It is displayed superimposed on the face of the subject. In this way, by displaying the symbol 225 on the face of the subject extracted as the protected area, the viewer of the image 211 recognizes who the subject shown in the image 211 is. An image that cannot be output can be output, and the fact that the subject shown in the image 211 requires privacy protection can be recognized.

【0045】図9は、マーカの具体例を示す図である。
図9(A)は、発光するマーカ250を示す図である。
発光するマーカには、たとえば発光ダイオード等の発光
素子を用いることができる。マーカ検知部107では、
画像中から発光するマーカを検知するために、マーカが
発光する光の色を検知することによりマーカを検知する
ことができる。また、画像中から輝度情報を取出し、輝
度が急激に高くなる領域の形状を検知することにより、
マーカを検知することができる。
FIG. 9 is a diagram showing a specific example of the marker.
FIG. 9A is a diagram illustrating a marker 250 that emits light.
As the marker that emits light, for example, a light-emitting element such as a light-emitting diode can be used. In the marker detection unit 107,
In order to detect a marker that emits light from an image, the marker can be detected by detecting the color of the light that the marker emits. Also, by extracting luminance information from the image and detecting the shape of the region where the luminance suddenly increases,
Markers can be detected.

【0046】図9(B)は、異なる色を組合わせたマー
カを示す図である。赤色の四角形と黄色の四角形との組
合せによりマーカを構成している。マーカ検知部107
では、色の変化を検知することによりマーカを検知する
ことができる。また、色と形状との組合せによりマーカ
を検知するようにすれば、マーカを検知する精度が向上
する。
FIG. 9B is a diagram showing markers in which different colors are combined. A marker is composed of a combination of a red square and a yellow square. Marker detection unit 107
In, the marker can be detected by detecting a color change. Further, if the marker is detected by a combination of the color and the shape, the accuracy of detecting the marker is improved.

【0047】図9(C)は、星の形状をしたマーカを示
す図である。マーカ検知部107では、形状を認識して
マーカを検知する上述の方法を用いてマーカを検知する
ことができる。図9(C)に示したマーカの形状は、規
則的な形状であるが、これを不規則的な形状にすること
で、より検知する精度を高めることができる。
FIG. 9C is a diagram showing a star-shaped marker. The marker detection unit 107 can detect a marker using the above-described method of recognizing a shape and detecting a marker. Although the shape of the marker shown in FIG. 9C is a regular shape, by making the shape an irregular shape, the detection accuracy can be further improved.

【0048】図9(D)は、専用マークのマーカを示す
図である。専用マークとは、1つのカメラサーバにのみ
有効なマーカをいう。
FIG. 9D is a diagram showing a marker of a dedicated mark. The exclusive mark is a marker that is valid only for one camera server.

【0049】図9(E)は、バーコードで表わされたマ
ーカを示す図である。バーコードをマーカとして用いる
ことにより、検知されるマーカにより処理する画像処理
の内容を変更することもできる。たとえば、あるバーコ
ードの場合には、顔の部分のみにモザイク処理を施し、
他のバーコードの場合には、顔の部分より広い領域にモ
ザイク処理を施す。
FIG. 9E is a diagram showing markers represented by bar codes. By using the barcode as a marker, it is possible to change the content of the image processing performed by the detected marker. For example, in the case of a barcode, only the face is mosaiced,
In the case of another barcode, mosaic processing is performed on an area wider than the face.

【0050】図9(F)は、二次元バーコード等の専用
コード模様を適用したマーカを示す図である。専用コー
ド模様をマーカとして用いることにより、バーコードを
マーカに適用した場合と同様の効果を得ることができ
る。
FIG. 9F is a diagram showing a marker to which a special code pattern such as a two-dimensional bar code is applied. By using the special code pattern as a marker, the same effect as when a bar code is applied to the marker can be obtained.

【0051】以上説明したとおり本実施の形態における
カメラサーバは、カメラ部103で撮影した画像にマー
カが含まれる場合には、そのマーカと最も近い人の顔の
領域にモザイク処理を施す。これにより、マーカを身に
まとった人物の顔の部分のみに、人が被写体が誰である
かを認識することができない画像が合成されて出力され
る。その結果、カメラ部103の撮影範囲を制限するこ
となく、撮影者側の意図に沿った画像を出力することが
できるとともに、マーカを身につけた人物のプライバシ
ーを保護した画像を出力することができる。
As described above, when a marker is included in an image captured by the camera unit 103, the camera server according to the present embodiment performs a mosaic process on an area of a human face closest to the marker. As a result, an image in which the person cannot recognize the subject is synthesized and output only with the face of the person wearing the marker. As a result, it is possible to output an image according to the intention of the photographer without limiting the photographing range of the camera unit 103, and to output an image in which the privacy of the person wearing the marker is protected. .

【0052】また、プライバシー保護のために必要な領
域のみをモザイク処理することができ、出力される画像
の情報量を多く保つことができる。
Further, only the area necessary for privacy protection can be mosaic-processed, and the amount of information of the output image can be kept large.

【0053】[第2の実施の形態]次に第2の実施の形
態における画像処理機能を備えた画像入力装置が適用さ
れるカメラサーバについて説明する。図10は、第2の
実施の形態におけるカメラサーバ300の概略構成を示
すブロック図である。第2の実施の形態におけるカメラ
サーバ300は、第1の実施の形態におけるカメラサー
バ100に測距部119を追加した構成となっている。
第2の実施の形態におけるカメラサーバ300は、測距
部119を追加した以外のハード構成については第1の
実施の形態におけるカメラサーバ100と同様である。
第1の実施の形態におけるカメラサーバ100と同様の
ハード構成については、ここでの説明は繰返さない。
[Second Embodiment] Next, a camera server to which an image input device having an image processing function according to a second embodiment is applied will be described. FIG. 10 is a block diagram illustrating a schematic configuration of a camera server 300 according to the second embodiment. The camera server 300 according to the second embodiment has a configuration in which a distance measuring unit 119 is added to the camera server 100 according to the first embodiment.
The camera server 300 according to the second embodiment has the same hardware configuration as that of the camera server 100 according to the first embodiment except for the addition of the distance measuring unit 119.
The description of the same hardware configuration as that of camera server 100 in the first embodiment will not be repeated here.

【0054】カメラサーバ300のマーカ検知部107
とプライバシー保護画像処理部109とで行なわれる処
理は、第1の実施の形態におけるカメラサーバのマーカ
検知部107とプライバシー保護画像処理部109とで
行なわれる処理のうち、図4のステップS04で行なわ
れる保護領域の抽出処理を除いて同様の処理が行なわれ
る。第1の実施の形態におけるマーカ検知部107とプ
ライバシー保護画像処理部109とで行なわれる処理と
同様の処理についてはここでの説明は繰返さない。
The marker detection unit 107 of the camera server 300
Among the processing performed by the marker detection unit 107 and the privacy protection image processing unit 109 of the camera server in the first embodiment, the processing performed by the privacy protection image processing unit 109 and the privacy protection image processing unit 109 is performed in step S04 of FIG. Similar processing is performed except for the extraction processing of the protected area to be performed. The description of the same processing as that performed by marker detection section 107 and privacy protection image processing section 109 in the first embodiment will not be repeated here.

【0055】測距部119は、超音波センサであり、超
音波を送信するための送信部と被写体から反射した超音
波を受信するための受信部とを含む。また、超音波セン
サの代わりに、レーザセンサやCCD等の撮像素子を用
いた位相差方式による測距センサを用いてもよい。測距
部119は、カメラ部103の近傍に設置される。した
がって測距部119で測距される距離は、カメラ部10
3と被写体との間の距離である。また、測距部119の
代わりに、カメラ部103のフォーカシング情報を用い
て被写体までの距離を測距するようにしてもよい。
The distance measuring section 119 is an ultrasonic sensor, and includes a transmitting section for transmitting ultrasonic waves and a receiving section for receiving ultrasonic waves reflected from a subject. Further, instead of the ultrasonic sensor, a distance measuring sensor using a phase difference method using an image sensor such as a laser sensor or CCD may be used. The distance measuring unit 119 is installed near the camera unit 103. Therefore, the distance measured by the distance measuring unit 119 is the camera unit 10
This is the distance between 3 and the subject. Further, instead of the distance measuring unit 119, the distance to the subject may be measured using the focusing information of the camera unit 103.

【0056】図11は、第2の実施の形態におけるカメ
ラサーバ300のプライバシー保護画像処理部109で
行なわれる保護領域の抽出処理の流れを示すフロー図で
ある。図を参照して、保護領域の抽出処理は、マーカま
での距離を計測するステップ(S31)と、保護領域の
大きさを決定するステップ(S32)と、保護領域の位
置を決定するステップ(S33)とを含む。
FIG. 11 is a flowchart showing a flow of a protected area extracting process performed by the privacy protected image processing unit 109 of the camera server 300 according to the second embodiment. Referring to the drawing, the protection area extraction processing includes a step of measuring the distance to the marker (S31), a step of determining the size of the protection area (S32), and a step of determining the position of the protection area (S33). ).

【0057】ステップS31においては、図4のステッ
プS02で検知されたマーカ領域に対応するマーカまで
の距離を測距部119で計測する。図4のステップS0
2で検知されたマーカ領域が複数ある場合には、ステッ
プS31では、検知された複数のマーカ領域のすべてに
対応するマーカについて、カメラ部103との間の距離
が計測される。
In step S31, the distance to the marker corresponding to the marker area detected in step S02 of FIG. 4 is measured by the distance measuring unit 119. Step S0 in FIG.
If there are a plurality of marker areas detected in step 2, in step S31, the distance between the camera unit 103 and the markers corresponding to all of the plurality of detected marker areas is measured.

【0058】ステップS32においては、保護領域の大
きさを決定する。ここでの保護領域は、プライバシーを
保護するための被写体を含む領域をいう。被写体とカメ
ラ部103との間の距離が短い場合には、カメラ部10
3で撮影される画像中に占める被写体の面積は大きくな
る。逆に、被写体とカメラ部103との間の距離が長い
場合には、カメラ部103で撮影される画像に占める被
写体の面積は小さくなる。被写体とカメラ部103との
間の距離とカメラ部103で撮影された画像中に占める
被写体の面積との関係を利用して、カメラ部103とマ
ーカとの距離に基づき保護領域の大きさを決定する。マ
ーカは被写体となる人物に取付けられているので、被写
体とカメラ部103との距離をマーカとカメラ部103
との距離とみなして処理が行なわれる。
In step S32, the size of the protection area is determined. The protection area here refers to an area including a subject for protecting privacy. If the distance between the subject and the camera unit 103 is short, the camera unit 10
The area of the subject occupying in the image captured in Step 3 becomes large. Conversely, when the distance between the subject and the camera unit 103 is long, the area of the subject in the image captured by the camera unit 103 is small. Using the relationship between the distance between the subject and the camera unit 103 and the area of the subject in the image captured by the camera unit 103, the size of the protection area is determined based on the distance between the camera unit 103 and the marker. I do. Since the marker is attached to the person as the subject, the distance between the subject and the camera unit 103 is determined by the marker and the camera unit 103.
The processing is performed on the assumption that the distance is

【0059】図12は、被写体までの距離と保護領域の
大きさとの関係を説明するための図である。図12を参
照して、横軸に被写体までの距離を示し、縦軸に保護領
域の大きさを示す。保護領域の大きさは、保護領域に含
まれるピクセルの数で表わされる。直線30は、被写体
までの距離と保護領域の大きさとの関係の一例を示す。
たとえば被写体までの距離が5[m]のときの保護領域
の大きさは、200×400[ピクセル]となる。
FIG. 12 is a diagram for explaining the relationship between the distance to the subject and the size of the protection area. Referring to FIG. 12, the horizontal axis indicates the distance to the subject, and the vertical axis indicates the size of the protection area. The size of the protection area is represented by the number of pixels included in the protection area. The straight line 30 shows an example of the relationship between the distance to the subject and the size of the protection area.
For example, when the distance to the subject is 5 [m], the size of the protection area is 200 × 400 [pixels].

【0060】直線30は、カメラ部103の性能、ズー
ム量、および被写体の大きさ等により定められる。カメ
ラ部103の性能およびズーム量等から、カメラ部10
3の撮影範囲に占める被写体の面積を導き出すことがで
きる。たとえば被写体が人の場合では、人の身長および
横幅との関係から、その大きさをある程度の範囲内に特
定することができる。この特定された大きさの範囲をも
とに、カメラ部103で撮影された画像内に占める被写
体の面積を大まかに定めることができる。このようにし
て被写体までの距離と保護領域の大きさとの関係を示す
直線30を定める。本実施の形態においては、保護領域
の縦横比を横:縦=1:2としているが、これに限られ
るものではない。また、近距離・ズームインによる撮影
の場合は、遠距離・ズームアウトの撮影に比べて、画面
に対する被写体の占める割合が大きくなるため、モザイ
ク処理などをより粗くするなどして、被写体の情報量を
少なくしてもよい。
The straight line 30 is determined by the performance of the camera unit 103, the zoom amount, the size of the subject, and the like. From the performance and zoom amount of the camera unit 103, the camera unit 10
It is possible to derive the area of the subject occupying the shooting range of No. 3. For example, when the subject is a person, the size can be specified within a certain range from the relationship between the height and the width of the person. Based on the range of the specified size, the area of the subject in the image captured by the camera unit 103 can be roughly determined. Thus, the straight line 30 indicating the relationship between the distance to the subject and the size of the protection area is determined. In the present embodiment, the aspect ratio of the protection area is set to horizontal: vertical = 1: 2, but the present invention is not limited to this. In addition, in the case of shooting by short distance / zoom in, the ratio of the subject to the screen becomes larger than in shooting by long distance / zoom out. You may reduce it.

【0061】画像中に複数のマーカ領域が検知された場
合には、それぞれのマーカ領域に対する保護領域の大き
さが決定される。
When a plurality of marker areas are detected in the image, the size of the protection area for each marker area is determined.

【0062】図11に戻って、次のステップS33にお
いては、保護領域が決定される。ステップS32におい
て保護領域の大きさが決定された。ステップS33で
は、画像中のどの位置に保護領域が位置するのかを定め
ることにより、保護領域を決定するものである。
Returning to FIG. 11, in the next step S33, a protected area is determined. In step S32, the size of the protection area is determined. In step S33, the protection area is determined by determining where in the image the protection area is located.

【0063】画像中のマーカ領域の位置は、マーカ領域
を検知した時点でわかっている。このマーカ領域の位置
に保護領域の重心が重なるように保護領域の位置が決定
される。保護領域の重心とマーカ領域の位置とを合わせ
ることにより、マーカを身につけた被写体が保護領域内
に含まれる。
The position of the marker area in the image is known when the marker area is detected. The position of the protection area is determined such that the center of gravity of the protection area overlaps the position of the marker area. By matching the center of gravity of the protected area with the position of the marker area, the subject wearing the marker is included in the protected area.

【0064】図13は、画像211内の保護領域207
を示す図である。図を参照して、マーカ200と保護領
域207の重心が重なる位置に保護領域207が画像2
11内に示されている。保護領域207が、被写体20
5を含む大きさで、その重心がマーカ200と重なる位
置に表わされることにより、マーカ200を身に付けた
被写体205が保護領域207内に含まれる。
FIG. 13 shows the protected area 207 in the image 211.
FIG. Referring to the figure, the protected area 207 is displayed at the position where the center of gravity of the marker 200 and the center of gravity of the protected area 207 overlap each other.
11. The protected area 207 is
The subject 205 wearing the marker 200 is included in the protection area 207 by expressing the size of the marker 200 at the position where the center of gravity overlaps the marker 200.

【0065】図14は、第2の実施の形態におけるカメ
ラサーバ300が出力する画像を示す図である。図を参
照して、画像211中に楕円形の保護領域277が表示
されている。保護領域277にはモザイク処理が施され
ている。さらに保護領域277中には「プライバシー保
護領域」の文字が表示されている。
FIG. 14 is a diagram showing an image output by the camera server 300 according to the second embodiment. Referring to the figure, an elliptical protected area 277 is displayed in image 211. The protection area 277 has been subjected to mosaic processing. Further, in the protected area 277, characters of "privacy protected area" are displayed.

【0066】保護領域227は、先に説明した保護領域
の抽出処理で決定された長方形の保護領域に含まれる楕
円形である。このように、保護領域をより被写体の形状
に近い形状にすることにより、保護領域が小さくなるの
で、画像211中の保護領域227を除く領域の面積が
大きくなり、画像211を見る者に対して与える情報量
が多くなる。
The protected area 227 is an ellipse included in the rectangular protected area determined in the above-described protected area extraction processing. As described above, since the protection area is made smaller by making the protection area closer to the shape of the subject, the area of the area other than the protection area 227 in the image 211 becomes larger, and the viewer who views the image 211 The amount of information to be given increases.

【0067】また、保護領域227中に「プライバシー
保護領域」の文字を表示することで、画像211を見る
者に対して、保護領域227がプライバシーの保護を求
める者の意思で、保護領域227に映し出された人が誰
であるかを判別することができない領域とされたことを
認識させることができる。
Also, by displaying the character of "privacy protection area" in the protection area 227, the protection area 227 is displayed in the protection area 227 for the person who views the image 211 with the intention of the person who seeks the protection of privacy. This makes it possible to recognize that the region is an area where it is not possible to determine who the projected person is.

【0068】以上説明したとおり、第2の実施の形態に
おけるカメラサーバ300においては、画像中のマーカ
を付けた被写体を含む保護領域にモザイク等の画像変換
処理を施すので、画像211中の保護領域207に含ま
れる被写体205は、人が誰であるかを認識することが
できない画像となる。これにより、カメラサーバ300
は、カメラ部103を操作する撮影者側の意図に合致し
た画像を出力することができるとともに、マーカ200
を身につけた被写体205のプライバシーを保護した画
像を出力することができる。
As described above, in the camera server 300 according to the second embodiment, since the protected area including the object with the marker in the image is subjected to image conversion processing such as mosaic, the protected area in the image 211 is protected. The subject 205 included in 207 is an image from which a person cannot be recognized. Thereby, the camera server 300
Can output an image that matches the intention of the photographer who operates the camera unit 103,
It is possible to output an image in which the privacy of the subject 205 wearing is protected.

【0069】また、画像211のうち、被写体205を
含む保護領域207を除く他の領域については、モザイ
ク等の画像変換処理がなされないので、画像211を見
る者に与える情報量を多くすることができる。
In the image 211, except for the protected area 207 including the subject 205, no image conversion processing such as mosaic processing is performed, so that the amount of information given to a viewer of the image 211 can be increased. it can.

【0070】さらに、画像中にマーカが複数検知された
場合には、複数の保護領域が決定されて、複数の保護領
域についてモザイク等の画像変換処理がなされる。これ
により、プライバシーの保護を求める被写体が複数ある
場合であっても、それぞれの被写体を含む保護領域につ
いて画像変換処理がなされるので、それぞれの被写体の
プライバシーを保護した画像を出力することができる。
Further, when a plurality of markers are detected in the image, a plurality of protected areas are determined, and image processing such as mosaic is performed on the plurality of protected areas. Thus, even when there are a plurality of subjects for which privacy protection is required, the image conversion processing is performed on the protected area including each subject, so that an image in which the privacy of each subject is protected can be output.

【0071】さらに、マーカ領域の位置とそれに対応す
るマーカまでの距離とに基づき保護領域を決定するの
で、被写体を保護領域内に容易かつ確実に含めることが
できる。その結果、マーカを身につけた被写体のプライ
バシーを確実に保護することができる画像に変換するこ
とができる。
Further, since the protection area is determined based on the position of the marker area and the distance to the corresponding marker, the subject can be easily and reliably included in the protection area. As a result, the image can be converted into an image that can reliably protect the privacy of the subject wearing the marker.

【0072】[第3の実施の形態]次に第3の実施の形
態における画像処理機能を備えた画像入力装置が適用さ
れるカメラサーバについて説明する。図15は、第3の
実施の形態におけるカメラサーバ400の概略構成を示
すブロック図である。第3の実施の形態におけるカメラ
サーバ400は、第1の実施の形態におけるカメラサー
バ100のマーカ検知部107を、ジェスチャー認識部
140に置換えたハード構成となっている。その他のハ
ード構成については第1の実施の形態におけるカメラサ
ーバ100と同じであるのでここでの説明は繰返さな
い。
[Third Embodiment] Next, a camera server to which an image input device having an image processing function according to a third embodiment is applied will be described. FIG. 15 is a block diagram illustrating a schematic configuration of a camera server 400 according to the third embodiment. The camera server 400 according to the third embodiment has a hardware configuration in which the marker detection unit 107 of the camera server 100 according to the first embodiment is replaced with a gesture recognition unit 140. Other hardware configurations are the same as those of camera server 100 in the first embodiment, and thus description thereof will not be repeated.

【0073】ジェスチャー認識部140およびプライバ
シー保護画像処理部109とで行なわれる処理は、第1
の実施の形態におけるカメラサーバ100のマーカ検知
部107とプライバシー保護画像処理部109とで行な
われる処理と、図5に示した保護領域の抽出処理が異な
るのみで、その他の処理については同じである。同じ処
理についてはここでの説明は繰返さない。
The processing performed by the gesture recognition section 140 and the privacy protection image processing section 109 is the first processing.
The processing performed by the marker detection unit 107 and the privacy protection image processing unit 109 of the camera server 100 according to the present embodiment is different from the processing of extracting the protected area shown in FIG. 5, and the other processing is the same. . The description of the same processing will not be repeated.

【0074】図16は、ジェスチャー認識部140で行
なわれる保護領域の抽出処理の流れを示すフロー図であ
る。図を参照して、保護領域の抽出処理は、カメラ部1
03で撮影した画像から被写体を抽出する処理を行なう
ステップ(S41)と、抽出された被写体が所定の形状
か否かを判断するステップ(S42)と、画像中の被写
体部分を保護領域に決定するステップ(S43)とを含
む。
FIG. 16 is a flowchart showing the flow of the protection area extraction processing performed by the gesture recognition unit 140. Referring to the figure, the process of extracting a protected area is performed by the camera unit 1.
Step S41 of performing a process of extracting a subject from the image captured in 03, determining whether the extracted subject has a predetermined shape (S42), and determining a subject portion in the image as a protection area. Step (S43).

【0075】ステップS41においては、カメラ部10
3で撮影された画像から被写体を抽出する。被写体の抽
出は、第1の実施の形態におけるマーカ検知部107で
行なわれるマーカの検知で説明したのと同様に、周知の
技術が用いられる。ここで抽出される被写体は、人物で
ある。
In step S41, the camera unit 10
The subject is extracted from the image captured in step 3. The extraction of the subject uses a well-known technique as described in the marker detection performed by the marker detection unit 107 in the first embodiment. The subject extracted here is a person.

【0076】ステップS42においては、抽出された被
写体が所定の形状か否かを判断する。ジェスチャー認識
部140には、予め所定の形状が記憶されており、カメ
ラ部103で撮影された画像と所定の形状とを照合する
ことにより、画像中に所定の形状の被写体が含まれるか
否かを判断する。所定の形状と画像に含まれる被写体の
形状とが類似する場合には、その被写体が所定の形状と
判断される。たとえば、ジェスチャー認識部140に予
め記憶されている所定の形状が、人が両手を交差させた
形状である場合には、画像中に含まれる被写体の形状が
両手を交差させた形状であるか否かが判断される。
In step S42, it is determined whether or not the extracted subject has a predetermined shape. A predetermined shape is stored in the gesture recognition unit 140 in advance, and by comparing the image captured by the camera unit 103 with the predetermined shape, it is determined whether the image includes a subject having the predetermined shape. Judge. If the predetermined shape is similar to the shape of the subject included in the image, the subject is determined to have the predetermined shape. For example, when the predetermined shape stored in advance in the gesture recognition unit 140 is a shape in which a person crosses both hands, it is determined whether the shape of the subject included in the image is a shape in which both hands cross each other. Is determined.

【0077】被写体が所定の形状と類似する場合には
(S42でYES)、ステップS43に進み、被写体が
所定の形状と類似しない場合には(S42でNO)、ス
テップS43を行なわず処理を終了する。
If the subject is similar to the predetermined shape (YES in S42), the process proceeds to step S43. If the subject is not similar to the predetermined shape (NO in S42), the process ends without performing step S43. I do.

【0078】ステップS41において、被写体が複数抽
出された場合には、ステップS42では、抽出された複
数の被写体について所定の形状との類似度が判断され
る。また、所定の形状が複数記憶されている場合には、
被写体の形状は、複数の所定の形状との類似度が判断さ
れる。
If a plurality of subjects are extracted in step S41, the degree of similarity between the extracted plurality of subjects and a predetermined shape is determined in step S42. When a plurality of predetermined shapes are stored,
The degree of similarity between the shape of the subject and a plurality of predetermined shapes is determined.

【0079】ステップS43においては、画像中で所定
の形状と類似した被写体の領域を保護領域に決定する。
In step S43, an area of the subject similar to a predetermined shape in the image is determined as a protection area.

【0080】図17は、第3の実施の形態におけるカメ
ラサーバ400に入力される画像と出力する画像とを示
す図である。図17(A)はカメラサーバ400に入力
される画像を示し、図17(B)はカメラサーバ400
が出力する画像を示す。図17(A)を参照して、画像
211中に両手を交差させた被写体231が含まれる。
図17(B)を参照して、画像211中の被写体が映し
出された領域に該当する保護領域232がモザイク処理
がなされて表示されている。
FIG. 17 is a diagram showing an image input to the camera server 400 and an image to be output in the third embodiment. FIG. 17A shows an image input to the camera server 400, and FIG.
Indicates an image to be output. Referring to FIG. 17A, image 231 includes subject 231 having both hands crossed.
Referring to FIG. 17B, a protected area 232 corresponding to an area where the subject in the image 211 is projected is displayed after being subjected to a mosaic process.

【0081】なお、被写体がはじめ撮影されることを望
まずに両手を交差させるジェスチャーを行なった後、撮
影されてもよいと考えたときには、被写体が所定のジェ
スチャーを行なうことにより画像中の保護領域をモザイ
ク処理が施されていない画像にするようにしてもよい。
たとえば、ジェスチャー認識部140で、予め被写体が
両手で円を描いた形状を記憶しておき、画像中から両手
で円を描いた形状の被写体を抽出したときには、保護領
域にモザイク処理を施さないようにする。
When a gesture of crossing both hands is performed after the subject does not want to be photographed for the first time, and it is considered that the subject may be photographed, the subject performs a predetermined gesture to perform the protection area in the image. May be an image that has not been subjected to the mosaic processing.
For example, the gesture recognizing unit 140 previously stores a shape in which a subject draws a circle with both hands, and when extracting a subject having a shape in which a circle is drawn with both hands from an image, does not apply the mosaic processing to the protected area. To

【0082】図18は、被写体が両手で円を描いたジェ
スチャーを行なったときにカメラサーバ400に入力さ
れる画像と出力する画像とを示す図である。図18
(A)はカメラサーバ400に入力される画像を示し、
図18(B)はカメラサーバ400が出力する画像を示
す。図18(A)を参照して、画像211中に両手で円
を描いた被写体241が含まれる。図18(B)を参照
して、画像211中の被写体242には、モザイク処理
が施されておらず、被写体242が誰であるかを人が認
識できる画像となっている。
FIG. 18 is a diagram showing an image input to the camera server 400 and an image to be output when the subject makes a gesture of drawing a circle with both hands. FIG.
(A) shows an image input to the camera server 400,
FIG. 18B shows an image output from the camera server 400. With reference to FIG. 18A, a subject 241 in which a circle is drawn with both hands is included in the image 211. Referring to FIG. 18B, the subject 242 in the image 211 is not subjected to the mosaic processing, and is an image in which a person can recognize who the subject 242 is.

【0083】このように、画像中に含まれる被写体の形
状に基づき、画像中の被写体の領域にモザイク処理を行
なうか否かを決定する。これにより、その画像中に含ま
れる被写体となる者の意思で画像中の被写体が誰である
かを人が認識できない画像に変換することができる。
As described above, it is determined whether or not to perform the mosaic processing on the area of the subject in the image based on the shape of the subject included in the image. Accordingly, it is possible to convert the subject included in the image into an image in which a person cannot recognize who is the subject in the image according to his or her intention.

【0084】以上説明したとおり、第3の実施の形態に
おけるカメラサーバ400においては、画像中の所定の
形状をした被写体の領域にモザイク等の画像変換処理を
施すので、所定のジェスチャーをした被写体が誰である
かを人が認識することができない画像となる。これによ
り、カメラサーバ400は、カメラ部103を操作する
撮影者側の意図に合致した画像を出力することができる
とともに、所定のジェスチャーをした被写体のプライバ
シーを保護した画像を出力することができる。
As described above, in the camera server 400 according to the third embodiment, an image conversion process such as mosaic is performed on an area of an object having a predetermined shape in an image. An image in which the person cannot be recognized is obtained. Accordingly, the camera server 400 can output an image that matches the intention of the photographer who operates the camera unit 103, and can output an image that protects the privacy of the subject who has performed a predetermined gesture.

【0085】また、画像中の所定のジェスチャーをした
被写体の領域を除く他の領域については、モザイク等の
画像変換処理がなされないので、画像を見る者に与える
情報量を多くすることができる。
Further, since the image conversion processing such as the mosaic is not performed on the other regions except the region of the subject having made the predetermined gesture in the image, the amount of information given to the viewer of the image can be increased.

【0086】なお、今回開示された実施の形態は全ての
点で例示であって、制限的なものではないと考えられる
べきである。本発明の範囲は上記した説明ではなくて特
許請求の範囲によって示され、特許請求の範囲と均等の
意味および範囲内でのすべての変更が含まれることが意
図される。
It should be noted that the embodiment disclosed this time is merely an example in all respects and is not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態の1つにおけるカメラサー
バ100の概略構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a schematic configuration of a camera server 100 according to one embodiment of the present invention.

【図2】カメラ部103で部屋を撮影する場合における
カメラ部103の撮影範囲を説明するための図である。
FIG. 2 is a diagram for explaining a shooting range of the camera unit 103 when shooting a room with the camera unit 103;

【図3】制御部101で行なわれるカメラ制御処理の流
れを示すフロー図である。
FIG. 3 is a flowchart showing a flow of a camera control process performed by a control unit 101.

【図4】マーカ検知部107とプライバシー保護画像処
理部109とで行なわれる画像処理の流れを示すフロー
図である。
FIG. 4 is a flowchart showing a flow of image processing performed by a marker detection unit 107 and a privacy protection image processing unit 109;

【図5】図4のステップS04で行なわれる保護領域の
抽出処理の流れを示すフロー図である。
FIG. 5 is a flowchart showing the flow of a protection area extraction process performed in step S04 of FIG. 4;

【図6】図4のステップS05で行なわれる画像変換処
理の流れを示すフロー図である。
FIG. 6 is a flowchart showing a flow of an image conversion process performed in step S05 of FIG. 4;

【図7】カメラサーバ100に入力される画像と出力す
る画像とを示す図である。
FIG. 7 is a diagram showing an image input to the camera server 100 and an image output therefrom.

【図8】カメラサーバ100が出力する画像の変形例を
示す図である。
FIG. 8 is a diagram showing a modified example of an image output by the camera server 100.

【図9】マーカの具体例を示す図である。FIG. 9 is a diagram illustrating a specific example of a marker.

【図10】第2の実施の形態におけるカメラサーバ30
0の概略構成を示すブロック図である。
FIG. 10 shows a camera server 30 according to the second embodiment.
FIG. 2 is a block diagram showing a schematic configuration of a block 0.

【図11】第2の実施の形態におけるカメラサーバ30
0のプライバシー保護画像処理部109で行なわれる保
護領域の抽出処理の流れを示すフロー図である。
FIG. 11 shows a camera server 30 according to the second embodiment.
FIG. 11 is a flowchart showing the flow of a protected area extraction process performed by a privacy protected image processing unit 109 of FIG.

【図12】被写体までの距離と保護領域の大きさとの関
係を示す図である。
FIG. 12 is a diagram illustrating a relationship between a distance to a subject and the size of a protection area.

【図13】画像211内の保護領域207を示す図であ
る。
FIG. 13 is a diagram showing a protected area 207 in an image 211.

【図14】第2の実施の形態におけるカメラサーバ30
0が出力する画像を示す図である。
FIG. 14 shows a camera server 30 according to the second embodiment.
FIG. 7 is a diagram showing an image output by 0.

【図15】第3の実施の形態におけるカメラサーバ40
0の概略構成を示すブロック図である。
FIG. 15 shows a camera server 40 according to the third embodiment.
FIG. 2 is a block diagram showing a schematic configuration of a block 0.

【図16】第3の実施の形態におけるカメラサーバ40
0のプライバシー保護画像処理部109で行なわれる保
護領域の抽出処理の流れを示すフロー図である。
FIG. 16 shows a camera server 40 according to the third embodiment.
FIG. 11 is a flowchart showing the flow of a protected area extraction process performed by a privacy protected image processing unit 109 of FIG.

【図17】第3の実施の形態におけるカメラサーバ40
0に入力される画像と出力する画像とを示す図である。
FIG. 17 shows a camera server 40 according to the third embodiment.
It is a figure which shows the image input into 0 and the image to output.

【図18】被写体が両手で円を描くジェスチャーをした
ときのカメラサーバ400に入力される画像と出力する
画像とを示す図である。
FIG. 18 is a diagram showing an image input to the camera server 400 and an image to be output when a subject makes a gesture of drawing a circle with both hands.

【符号の説明】[Explanation of symbols]

100,300,400 カメラサーバ 101 制御部 103 カメラ部 105 カメラ用パンチルト部 107 マーカ検知部 109 プライバシー保護画像処理部 111 外部記憶装置 113 通信制御部 119 測距部 100, 300, 400 Camera server 101 Control unit 103 Camera unit 105 Pan / Tilt unit for camera 107 Marker detection unit 109 Privacy protection image processing unit 111 External storage device 113 Communication control unit 119 Distance measurement unit

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 AA19 BA02 CA01 CA12 CA16 CE08 DA07 DB02 DB05 DB06 DC09 DC25 DC33 5C022 AA01 AB62 AB65 AB66 AC27 AC54 AC69 AC74 AC75 CA00 5C054 AA01 CA04 CC05 CE06 CF06 CG02 CH01 DA06 EA05 FA09 FC14 FC15 FF03 GA00 GB02 HA18 HA19  ──────────────────────────────────────────────────続 き Continued on front page F term (reference) 5B057 AA19 BA02 CA01 CA12 CA16 CE08 DA07 DB02 DB05 DB06 DC09 DC25 DC33 5C022 AA01 AB62 AB65 AB66 AC27 AC54 AC69 AC74 AC75 CA00 5C054 AA01 CA04 CC05 CE06 CF06 CG02 CH01 DA06 EA05 FA09 FC14 FF03 GA00 GB02 HA18 HA19

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 画像を入力する撮像手段と、 前記入力された画像から被写体の形状を検出する検出手
段と、 所定の形状を予め記憶する記憶手段と、 前記検出手段で検出された被写体の形状と前記記憶手段
に記憶された所定の形状とが一致するときは、前記入力
された画像の全部または一部を前記入力された画像と異
なる画像に変換する画像処理手段とを備えた、画像処理
機能を備えた画像入力装置。
An image input unit that inputs an image; a detection unit that detects a shape of a subject from the input image; a storage unit that stores a predetermined shape in advance; and a shape of the subject detected by the detection unit. Image processing means for converting all or part of the input image into an image different from the input image when the predetermined shape stored in the storage means coincides with the predetermined shape. Image input device with functions.
【請求項2】 被写体までの距離を計測する測距手段
と、 前記入力された画像における前記検出手段で検出された
被写体の位置と前記測距手段で計測された被写体までの
距離とに基づき、前記入力された画像から保護領域を抽
出する保護領域抽出手段とをさらに備え、 前記画像処理手段は、前記保護領域の画像を前記入力さ
れた画像と異なる画像に変換することを特徴とする、請
求項1に記載の画像処理機能を備えた画像入力装置。
2. A distance measuring means for measuring a distance to a subject, based on a position of the subject detected by the detecting means in the input image and a distance to the subject measured by the distance measuring means. And a protection area extraction unit for extracting a protection area from the input image, wherein the image processing unit converts an image of the protection area into an image different from the input image. Item 2. An image input device having the image processing function according to Item 1.
【請求項3】 ネットワークに接続され、前記画像処理
手段で変換した画像を前記ネットワークに伝送する手段
をさらに備えた、請求項1または2に記載の画像処理機
能を備えた画像入力装置。
3. The image input device having an image processing function according to claim 1, further comprising a unit connected to a network and transmitting an image converted by the image processing unit to the network.
【請求項4】 入力された画像から被写体の形状を検出
する検出ステップと、 所定の形状を予め記憶する記憶ステップと、 前記検出ステップで検出された被写体の形状と前記記憶
ステップで予め記憶された所定の形状とが一致するとき
は、前記入力された画像の全部または一部を前記入力さ
れた画像と異なる画像に変換するステップとをコンピュ
ータに実行させるための画像処理プログラムを記録した
記録媒体。
4. A detection step of detecting a shape of a subject from an input image, a storage step of storing a predetermined shape in advance, and a shape of the subject detected in the detection step and stored in the storage step in advance. A step of converting all or a part of the input image to an image different from the input image when the predetermined shape matches the image, causing the computer to execute the image processing program.
JP07608799A 1999-03-09 1999-03-19 Image input device with image processing function Expired - Fee Related JP4378785B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP07608799A JP4378785B2 (en) 1999-03-19 1999-03-19 Image input device with image processing function
US09/520,216 US6765608B1 (en) 1999-03-09 2000-03-07 Image processing apparatus and system executing predetermined image processing on image data shot by camera, and image recording medium recorded with image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP07608799A JP4378785B2 (en) 1999-03-19 1999-03-19 Image input device with image processing function

Publications (2)

Publication Number Publication Date
JP2000278584A true JP2000278584A (en) 2000-10-06
JP4378785B2 JP4378785B2 (en) 2009-12-09

Family

ID=13595061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP07608799A Expired - Fee Related JP4378785B2 (en) 1999-03-09 1999-03-19 Image input device with image processing function

Country Status (1)

Country Link
JP (1) JP4378785B2 (en)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003046745A (en) * 2001-07-30 2003-02-14 Matsushita Electric Ind Co Ltd Apparatus and method for image processing
WO2005112438A1 (en) * 2004-05-18 2005-11-24 Matsushita Electric Industrial Co., Ltd. Image processing apparatus
JP2006217161A (en) * 2005-02-02 2006-08-17 Advanced Telecommunication Research Institute International Image photographing system
JP2006295251A (en) * 2005-04-05 2006-10-26 Canon Inc Imaging apparatus for monitor and its control method
US7212650B2 (en) 2002-06-14 2007-05-01 Mitsubishi Denki Kabushiki Kaisha Monitoring system and monitoring method
JP2007213181A (en) * 2006-02-08 2007-08-23 Advanced Telecommunication Research Institute International Privacy protection image generation device
JP2007532903A (en) * 2004-04-14 2007-11-15 セイフビュー・インコーポレーテッド Enhanced surveillance subject imaging
JP2008512916A (en) * 2004-09-13 2008-04-24 ノキア コーポレイション Method, apparatus, and computer program product for capturing and displaying visually encoded data and images
CN100401761C (en) * 2003-11-20 2008-07-09 Lg电子株式会社 Method for controlling masking block in monitoring camera
US7519199B2 (en) 2003-04-02 2009-04-14 Panasonic Corporation Image processing method, image processor, photographic apparatus, image output unit and iris verify unit
JP2009135943A (en) * 2009-01-13 2009-06-18 Fujifilm Corp Image processing system
JP2009140051A (en) * 2007-12-04 2009-06-25 Sony Corp Information processor, information processing system, recommendation device, information processing method and storage medium
US7570283B2 (en) 2003-05-20 2009-08-04 Panasonic Corporation Image capturing system having an image capturing restriction function
JP2010011017A (en) * 2008-06-26 2010-01-14 Oki Electric Ind Co Ltd Video-image processing system and processing method
US7742656B2 (en) 2005-02-26 2010-06-22 Samsung Techwin Co., Ltd. Observation system to display mask area capable of masking privacy zone and method to display mask area
JP2011120201A (en) * 2009-10-28 2011-06-16 Canon Marketing Japan Inc Image display apparatus, image sharing system, control method and program
JP2011217355A (en) * 2010-03-19 2011-10-27 Nikon Corp Subject specification program, and camera
JP2011244251A (en) * 2010-05-19 2011-12-01 Ricoh Co Ltd Imaging apparatus, imaging restriction method, program, and recording medium
JP2012527139A (en) * 2009-05-14 2012-11-01 ソニーモバイルコミュニケーションズ, エービー Camera device having image processing function
WO2013061505A1 (en) * 2011-10-25 2013-05-02 Sony Corporation Image processing apparatus, method and computer program product
JP2013092856A (en) * 2011-10-25 2013-05-16 Sony Corp Image processing apparatus and program
JP2013157946A (en) * 2012-01-31 2013-08-15 Jvc Kenwood Corp Image processing device, image processing method, and image processing program
JP2014130438A (en) * 2012-12-28 2014-07-10 Fujitsu Ltd Image processing program, image processing method, and image processing apparatus
JP2014131100A (en) * 2012-12-28 2014-07-10 Casio Comput Co Ltd Imaging control device, imaging control method, and program
JP2014216667A (en) * 2013-04-22 2014-11-17 レノボ・シンガポール・プライベート・リミテッド Image output device, image output method of the same, and computer-executable program
JP2015179984A (en) * 2014-03-19 2015-10-08 株式会社東芝 Image processing apparatus, and method and program therefor
JP2015201786A (en) * 2014-04-09 2015-11-12 株式会社Nttドコモ Imaging system and imaging method
JP2021150866A (en) * 2020-03-19 2021-09-27 Necフィールディング株式会社 Video control device, video control system, video control method, and program
JP2022013340A (en) * 2020-07-03 2022-01-18 トヨタ自動車株式会社 Control device, program, and control system

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003046745A (en) * 2001-07-30 2003-02-14 Matsushita Electric Ind Co Ltd Apparatus and method for image processing
JP4566474B2 (en) * 2001-07-30 2010-10-20 パナソニック株式会社 Image processing apparatus and image processing method
US7212650B2 (en) 2002-06-14 2007-05-01 Mitsubishi Denki Kabushiki Kaisha Monitoring system and monitoring method
US7519199B2 (en) 2003-04-02 2009-04-14 Panasonic Corporation Image processing method, image processor, photographic apparatus, image output unit and iris verify unit
US7734069B2 (en) 2003-04-02 2010-06-08 Panasonic Corporation Image processing method, image processor, photographic apparatus, image output unit and iris verify unit
US7664295B2 (en) 2003-04-02 2010-02-16 Panasonic Corporation Image processing method, image processor, photographic apparatus, image output unit and iris verify unit
US7570283B2 (en) 2003-05-20 2009-08-04 Panasonic Corporation Image capturing system having an image capturing restriction function
US7973821B2 (en) 2003-11-20 2011-07-05 Lg Electronics Inc. Method for controlling masking block in monitoring camera
CN100401761C (en) * 2003-11-20 2008-07-09 Lg电子株式会社 Method for controlling masking block in monitoring camera
US7508415B2 (en) 2003-11-20 2009-03-24 Lg Electronics Inc. Method for controlling masking block in monitoring camera
JP2007532903A (en) * 2004-04-14 2007-11-15 セイフビュー・インコーポレーテッド Enhanced surveillance subject imaging
WO2005112438A1 (en) * 2004-05-18 2005-11-24 Matsushita Electric Industrial Co., Ltd. Image processing apparatus
US8077980B2 (en) 2004-05-18 2011-12-13 Panasonic Corporation Image processing apparatus
JP2011223561A (en) * 2004-09-13 2011-11-04 Nokia Corp Method, device and computer program product for capture and display of visually encoded data and image
JP2008512916A (en) * 2004-09-13 2008-04-24 ノキア コーポレイション Method, apparatus, and computer program product for capturing and displaying visually encoded data and images
JP2006217161A (en) * 2005-02-02 2006-08-17 Advanced Telecommunication Research Institute International Image photographing system
US7742656B2 (en) 2005-02-26 2010-06-22 Samsung Techwin Co., Ltd. Observation system to display mask area capable of masking privacy zone and method to display mask area
JP2006295251A (en) * 2005-04-05 2006-10-26 Canon Inc Imaging apparatus for monitor and its control method
JP4701356B2 (en) * 2006-02-08 2011-06-15 株式会社国際電気通信基礎技術研究所 Privacy protection image generation device
JP2007213181A (en) * 2006-02-08 2007-08-23 Advanced Telecommunication Research Institute International Privacy protection image generation device
JP2009140051A (en) * 2007-12-04 2009-06-25 Sony Corp Information processor, information processing system, recommendation device, information processing method and storage medium
JP2010011017A (en) * 2008-06-26 2010-01-14 Oki Electric Ind Co Ltd Video-image processing system and processing method
JP2009135943A (en) * 2009-01-13 2009-06-18 Fujifilm Corp Image processing system
JP2012527139A (en) * 2009-05-14 2012-11-01 ソニーモバイルコミュニケーションズ, エービー Camera device having image processing function
JP2011120201A (en) * 2009-10-28 2011-06-16 Canon Marketing Japan Inc Image display apparatus, image sharing system, control method and program
JP2011217355A (en) * 2010-03-19 2011-10-27 Nikon Corp Subject specification program, and camera
US8675958B2 (en) 2010-03-19 2014-03-18 Nikon Corporation Subject determination method, computer program product for determining subject, and camera
JP2011244251A (en) * 2010-05-19 2011-12-01 Ricoh Co Ltd Imaging apparatus, imaging restriction method, program, and recording medium
WO2013061505A1 (en) * 2011-10-25 2013-05-02 Sony Corporation Image processing apparatus, method and computer program product
JP2013092856A (en) * 2011-10-25 2013-05-16 Sony Corp Image processing apparatus and program
JP2013157946A (en) * 2012-01-31 2013-08-15 Jvc Kenwood Corp Image processing device, image processing method, and image processing program
JP2014130438A (en) * 2012-12-28 2014-07-10 Fujitsu Ltd Image processing program, image processing method, and image processing apparatus
JP2014131100A (en) * 2012-12-28 2014-07-10 Casio Comput Co Ltd Imaging control device, imaging control method, and program
JP2014216667A (en) * 2013-04-22 2014-11-17 レノボ・シンガポール・プライベート・リミテッド Image output device, image output method of the same, and computer-executable program
JP2015179984A (en) * 2014-03-19 2015-10-08 株式会社東芝 Image processing apparatus, and method and program therefor
JP2015201786A (en) * 2014-04-09 2015-11-12 株式会社Nttドコモ Imaging system and imaging method
JP2021150866A (en) * 2020-03-19 2021-09-27 Necフィールディング株式会社 Video control device, video control system, video control method, and program
JP7176775B2 (en) 2020-03-19 2022-11-22 Necフィールディング株式会社 VIDEO CONTROL DEVICE, VIDEO CONTROL SYSTEM, VIDEO CONTROL METHOD AND PROGRAM
JP2022013340A (en) * 2020-07-03 2022-01-18 トヨタ自動車株式会社 Control device, program, and control system
JP7334686B2 (en) 2020-07-03 2023-08-29 トヨタ自動車株式会社 Controllers, programs and control systems

Also Published As

Publication number Publication date
JP4378785B2 (en) 2009-12-09

Similar Documents

Publication Publication Date Title
JP4378785B2 (en) Image input device with image processing function
US6765608B1 (en) Image processing apparatus and system executing predetermined image processing on image data shot by camera, and image recording medium recorded with image processing program
TWI311286B (en)
US8908078B2 (en) Network camera system and control method therefor in which, when a photo-taking condition changes, a user can readily recognize an area where the condition change is occurring
JP6106921B2 (en) Imaging apparatus, imaging method, and imaging program
US20050084179A1 (en) Method and apparatus for performing iris recognition from an image
EP2339536B1 (en) Image processing system, image processing apparatus, image processing method, and program
EP2196943B1 (en) Image capturing apparatus and face area detecting method
JP2000163600A (en) Face photographing and recognizing method and device
JP4459788B2 (en) Facial feature matching device, facial feature matching method, and program
JP2008523650A (en) Wireless imaging device with biometric reader
KR20060063265A (en) Method and apparatus for processing image
KR100326203B1 (en) Method and apparatus for face photographing and recognizing by automatic trading a skin color and motion
US7898590B2 (en) Device having imaging function
JP2017208616A (en) Image processing apparatus, image processing method, and program
JP2010014783A (en) Photographing device
KR100943548B1 (en) Method and apparatus for pose guide of photographing device
KR102097908B1 (en) System for object photographing
JP3307075B2 (en) Imaging equipment
KR101518696B1 (en) System for augmented reality contents and method of the same
JP2008182321A (en) Image display system
KR102474697B1 (en) Image Pickup Apparatus and Method for Processing Images
KR100536747B1 (en) The video storing system using a ptz camera and the method there of
JP2001148843A (en) Image pickup device and criminal prevention system using the image pickup device
US10999495B1 (en) Internet of things-based indoor selfie-supporting camera system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080926

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090715

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090825

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090907

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121002

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131002

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees