JP6206542B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP6206542B2
JP6206542B2 JP2016118545A JP2016118545A JP6206542B2 JP 6206542 B2 JP6206542 B2 JP 6206542B2 JP 2016118545 A JP2016118545 A JP 2016118545A JP 2016118545 A JP2016118545 A JP 2016118545A JP 6206542 B2 JP6206542 B2 JP 6206542B2
Authority
JP
Japan
Prior art keywords
image
face
person
privacy level
privacy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016118545A
Other languages
Japanese (ja)
Other versions
JP2017108374A (en
Inventor
雅昭 佐々木
雅昭 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to US15/295,333 priority Critical patent/US10546185B2/en
Priority to CN201610908844.5A priority patent/CN107038362B/en
Publication of JP2017108374A publication Critical patent/JP2017108374A/en
Application granted granted Critical
Publication of JP6206542B2 publication Critical patent/JP6206542B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

従来、人物が写ってはいるが、他人が見てもその人物であることを識別することが困難な状態の画像を公開したい、或いは、記録したいという場合がある。そこで、プライバシーを損なわないように、人物の顔にモザイク処理やマスク処理を施す技術が知られている(例えば、特許文献1参照)。   Conventionally, there is a case where it is desired to publish or record an image in which it is difficult to identify a person even if a person is seen but the person is seen. Therefore, a technique for performing mosaic processing or mask processing on a person's face so as not to impair privacy is known (see, for example, Patent Document 1).

特開2000−322660号公報JP 2000-322660 A

しかしながら、上記特許文献1等の場合、公開や記録の対象となる画像についてモザイク処理やマスク処理等の画像処理が必要となるだけでなく、局所的に施されたモザイクやマスクによって不自然な画像となり、見栄えが悪化してしまうという問題がある。   However, in the case of the above-mentioned Patent Document 1 and the like, not only image processing such as mosaic processing or mask processing is required for an image to be disclosed or recorded, but also an unnatural image due to locally applied mosaic or mask. There is a problem that the appearance is deteriorated.

本発明は、このような問題に鑑みてなされたものであり、本発明の課題は、不自然とならずに、所望のプライバシー度に応じた画像に係る処理を実行することができる画像処理装置、画像処理方法及びプログラムを提供することである。   The present invention has been made in view of such problems, and an object of the present invention is to provide an image processing apparatus capable of executing processing related to an image according to a desired privacy level without being unnatural. An image processing method and program are provided.

上記課題を解決するための本発明の一態様は、
画像処理装置であって、
画像に含まれる人物の顔が特定の人物の顔であると識別することの困難さの度合いを示すプライバシー度を算出する算出手段と、
前記算出手段により算出されるプライバシー度が所定の判定値より高いか否かを判定する判定手段と、
前記判定手段により前記プライバシー度が所定の判定値より高いと判定された場合に、画像に係る所定の処理の実行を制御する制御手段と、
を備えたことを特徴としている。
One embodiment of the present invention for solving the above problems is as follows.
An image processing apparatus,
Calculating means for calculating a privacy level indicating a degree of difficulty of identifying that a person's face included in the image is a face of a specific person;
Determination means for determining whether or not the degree of privacy calculated by the calculation means is higher than a predetermined determination value ;
Control means for controlling execution of predetermined processing relating to an image when the determination means determines that the degree of privacy is higher than a predetermined determination value ;
It is characterized by having.

本発明によれば、不自然とならずに、所望のプライバシー度に応じた画像に係る処理を実行することができる。   According to the present invention, it is possible to execute a process related to an image according to a desired privacy level without being unnatural.

本発明を適用した実施形態1の画像処理装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image processing apparatus of Embodiment 1 to which this invention is applied. 図1の画像処理装置による自動撮影処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to automatic photographing processing by the image processing apparatus of FIG. 1. 図1の画像処理装置によるプライバシー度算出処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to privacy level calculation processing by the image processing apparatus of FIG. 1. 図3のプライバシー度算出処理の続きを示すフローチャートである。It is a flowchart which shows the continuation of the privacy level calculation process of FIG. 図1の画像処理装置による手動撮影処理に係る動作の一例を示すフローチャートである。2 is a flowchart illustrating an example of an operation related to manual imaging processing by the image processing apparatus in FIG. 1. プライバシー度算出処理を説明するための図である。It is a figure for demonstrating a privacy degree calculation process. プライバシー度算出処理を説明するための図である。It is a figure for demonstrating a privacy degree calculation process. プライバシー度算出処理を説明するための図である。It is a figure for demonstrating a privacy degree calculation process. プライバシー度算出処理を説明するための図である。It is a figure for demonstrating a privacy degree calculation process. 図1の画像処理装置による画像の表示態様の一例を模式的に示す図である。It is a figure which shows typically an example of the display mode of the image by the image processing apparatus of FIG. 図1の画像処理装置による判定値設定処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to a determination value setting process by the image processing apparatus in FIG. 1. 本発明を適用した実施形態2の画像処理装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image processing apparatus of Embodiment 2 to which this invention is applied. 図12の画像処理装置による画像取得処理に係る動作の一例を示すフローチャートである。13 is a flowchart illustrating an example of an operation related to an image acquisition process by the image processing apparatus of FIG. 図12の画像処理装置によるプライバシー度算出処理に係る動作の一例を示すフローチャートである。13 is a flowchart illustrating an example of an operation related to privacy level calculation processing by the image processing apparatus in FIG. 12. 図14のプライバシー度算出処理の続きを示すフローチャートである。It is a flowchart which shows the continuation of the privacy level calculation process of FIG.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。   Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

[実施形態1]
図1は、本発明を適用した実施形態1の画像処理装置100の概略構成を示すブロック図である。
図1に示すように、実施形態1の画像処理装置100は、具体的には、中央制御部1と、メモリ2と、撮像部3と、信号処理部4と、動き検出部5と、動作制御部6と、画像処理部7と、画像記録部8と、表示部9と、通信制御部10と、操作入力部11とを備えている。
また、中央制御部1、メモリ2、撮像部3、信号処理部4、動き検出部5、動作制御部6、画像処理部7、画像記録部8、表示部9及び通信制御部10は、バスライン12を介して接続されている。
[Embodiment 1]
FIG. 1 is a block diagram showing a schematic configuration of an image processing apparatus 100 according to the first embodiment to which the present invention is applied.
As shown in FIG. 1, the image processing apparatus 100 according to the first embodiment specifically includes a central control unit 1, a memory 2, an imaging unit 3, a signal processing unit 4, a motion detection unit 5, and an operation. A control unit 6, an image processing unit 7, an image recording unit 8, a display unit 9, a communication control unit 10, and an operation input unit 11 are provided.
The central control unit 1, the memory 2, the imaging unit 3, the signal processing unit 4, the motion detection unit 5, the operation control unit 6, the image processing unit 7, the image recording unit 8, the display unit 9, and the communication control unit 10 They are connected via line 12.

また、画像処理装置100は、例えば、撮像機能を具備する携帯電話機やスマートフォンなどの移動体通信網で用いられる移動局、PDA(Personal Data Assistants)等の通信端末から構成されていても良いし、通信機能を具備するデジタルカメラ等から構成されていても良い。   In addition, the image processing apparatus 100 may include a mobile terminal used in a mobile communication network such as a mobile phone or a smartphone having an imaging function, or a communication terminal such as a PDA (Personal Data Assistants). You may comprise from the digital camera etc. which comprise a communication function.

中央制御部1は、画像処理装置100の各部を制御するものである。具体的には、中央制御部1は、図示は省略するが、CPU(Central Processing Unit)等を備え、画像処理装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。   The central control unit 1 controls each unit of the image processing apparatus 100. Specifically, although not shown, the central control unit 1 includes a CPU (Central Processing Unit) and the like, and performs various control operations according to various processing programs (not shown) for the image processing apparatus 100.

メモリ2は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、中央制御部1や動作制御部6等によって処理されるデータ等を一時的に格納する。例えば、メモリ2は、自動撮影処理にて撮像された基準顔画像F(詳細後述)を一時的に格納する。   The memory 2 is composed of, for example, a DRAM (Dynamic Random Access Memory) or the like, and temporarily stores data processed by the central control unit 1 or the operation control unit 6. For example, the memory 2 temporarily stores a reference face image F (details will be described later) captured by the automatic photographing process.

撮像部(撮像手段)3は、所定の被写体(例えば、人物等)を撮像してフレーム画像を生成する。具体的には、撮像部3は、レンズ部3aと、電子撮像部3bと、撮像制御部3cとを備えている。   The imaging unit (imaging means) 3 captures a predetermined subject (for example, a person) and generates a frame image. Specifically, the imaging unit 3 includes a lens unit 3a, an electronic imaging unit 3b, and an imaging control unit 3c.

レンズ部3aは、例えば、ズームレンズやフォーカスレンズ等の複数のレンズ、レンズを通過する光の量を調整する絞り等から構成されている。また、レンズ部3aは、所謂、自分撮りができるように表示パネル9bと同じ側(被写体側)に露出されるように配置されている。
電子撮像部3bは、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサ(撮像素子)から構成されている。そして、電子撮像部3bは、レンズ部3aの各種レンズを通過した光学像を二次元の画像信号に変換する。
撮像制御部3cは、例えば、タイミング発生器やドライバにより電子撮像部3bを走査駆動して、レンズ部3aを通過した光学像を電子撮像部3bにより所定周期毎に二次元の画像信号に変換させ、当該電子撮像部3bの撮像領域から一画面分ずつフレーム画像を読み出して信号処理部4に出力させる。
The lens unit 3a includes, for example, a plurality of lenses such as a zoom lens and a focus lens, and a diaphragm for adjusting the amount of light passing through the lens. Further, the lens unit 3a is arranged so as to be exposed on the same side (subject side) as the display panel 9b so that self-portrait can be performed.
The electronic imaging unit 3b is configured by an image sensor (imaging device) such as a charge coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS), for example. Then, the electronic imaging unit 3b converts the optical image that has passed through the various lenses of the lens unit 3a into a two-dimensional image signal.
For example, the imaging control unit 3c scans and drives the electronic imaging unit 3b with a timing generator or a driver, and converts the optical image that has passed through the lens unit 3a into a two-dimensional image signal at predetermined intervals by the electronic imaging unit 3b. Then, the frame image is read out for each screen from the imaging region of the electronic imaging unit 3b and is output to the signal processing unit 4.

信号処理部4は、電子撮像部3bから転送されたフレーム画像のアナログ値の信号に対して各種の画像信号処理を施す。具体的には、信号処理部4は、例えば、フレーム画像のアナログ値の信号に対してRGBの色成分毎にゲイン調整し、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行って、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。また、信号処理部4は、生成された輝度信号Y及び色差信号Cb,Crをバッファメモリとして使用されるメモリ2に出力する。   The signal processing unit 4 performs various types of image signal processing on the analog value signal of the frame image transferred from the electronic imaging unit 3b. Specifically, for example, the signal processing unit 4 adjusts the gain for each RGB color component with respect to the analog value signal of the frame image, samples and holds it by a sample hold circuit (not shown), and performs an A / D converter. (Not shown) is converted into digital data, and a color process circuit (not shown) performs color process processing including pixel interpolation processing and γ correction processing to obtain a digital luminance signal Y and color difference signals Cb, Cr (YUV data). ) Is generated. The signal processing unit 4 outputs the generated luminance signal Y and color difference signals Cb and Cr to the memory 2 used as a buffer memory.

動き検出部5は、当該画像処理装置100の動きを検出する。
すなわち、動き検出部5は、例えば、画像処理装置100の互いに直交する3軸(ロール軸、ピッチ軸及びヨー軸)を中心とする回動の角速度をそれぞれ検出する3軸角速度センサを具備している。そして、動き検出部5は、例えば、被写体の撮影の際等に、3軸角速度センサにより逐次検出された信号を動き情報として動作制御部6に出力する。
The motion detection unit 5 detects the motion of the image processing apparatus 100.
That is, the motion detection unit 5 includes, for example, a triaxial angular velocity sensor that detects rotational angular velocities about the three axes (roll axis, pitch axis, and yaw axis) that are orthogonal to each other. Yes. Then, the motion detection unit 5 outputs the signals sequentially detected by the triaxial angular velocity sensor to the operation control unit 6 as motion information, for example, when photographing a subject.

動作制御部6は、第1画像取得部6aと、検出処理部6bと、第1算出部6cと、第1判定部6dと、撮影制御部6eとを具備している。
なお、動作制御部6の各部は、例えば、所定のロジック回路から構成されているが、当該構成は一例であってこれに限られるものではない。
The operation control unit 6 includes a first image acquisition unit 6a, a detection processing unit 6b, a first calculation unit 6c, a first determination unit 6d, and an imaging control unit 6e.
In addition, although each part of the operation control part 6 is comprised from the predetermined logic circuit, for example, the said structure is an example and is not restricted to this.

第1画像取得部6aは、撮像部3により逐次撮像されるフレーム画像を取得する。
具体的には、第1画像取得部6aは、撮像部3により逐次撮像されて信号処理部4により逐次生成されたライブビュー画像に係るフレーム画像の画像データをメモリ2から逐次取得する。
The first image acquisition unit 6 a acquires frame images sequentially captured by the imaging unit 3.
Specifically, the first image acquisition unit 6 a sequentially acquires, from the memory 2, image data of frame images related to live view images that are sequentially captured by the imaging unit 3 and sequentially generated by the signal processing unit 4.

検出処理部6bは、第1画像取得部6aにより取得されたフレーム画像から、顔、当該顔の構成部位、視線を検出する。
すなわち、検出処理部6bは、撮像部3により逐次撮像されて第1画像取得部6aにより逐次取得されるフレーム画像毎に、顔検出処理を行って被写体である人物の顔が含まれる顔領域を検出し、さらに、顔検出処理にて検出された顔領域内から目や口等の顔の構成部位を検出する。また、検出処理部6bは、撮像部3により逐次撮像されて第1画像取得部6aにより逐次取得されるフレーム画像毎に、視線検出処理を行って被写体である人物の視線を検出する。
また、検出処理部6bは、撮像部3により逐次撮像されて第1画像取得部6aにより逐次取得されるフレーム画像毎に、被写体である人物の身体全体を検出し、その形状を特定する。特定した人物の形状の変化により、人物がフレーム画像から外れたか、或いはフレーム画像内であるが、体の向きを変えたかを判別可能とする。
なお、上記した顔検出処理や構成部位の検出処理、視線検出処理や人物の形状を特定する処理は、公知の技術であるので、ここでは詳細な説明を省略するが、例えば、顔検出処理や構成部位の検出処理では、例えば、AAM(Active Appearance Model)を用いても良いし、また、視線検出処理では、例えば、目の位置を検出し、黒目の両側の白目の面積比から視線を検出しても良い。
The detection processing unit 6b detects a face, a constituent part of the face, and a line of sight from the frame image acquired by the first image acquisition unit 6a.
That is, the detection processing unit 6b performs face detection processing for each frame image sequentially captured by the imaging unit 3 and sequentially acquired by the first image acquisition unit 6a, and detects a face region including the face of the person who is the subject. In addition, the constituent parts of the face such as eyes and mouth are detected from the face area detected by the face detection process. Further, the detection processing unit 6b performs a gaze detection process for each frame image sequentially captured by the imaging unit 3 and sequentially acquired by the first image acquisition unit 6a to detect the gaze of the person who is the subject.
Further, the detection processing unit 6b detects the entire body of a person who is a subject for each frame image sequentially captured by the imaging unit 3 and sequentially acquired by the first image acquisition unit 6a, and specifies the shape thereof. It is possible to determine whether the person has deviated from the frame image due to a change in the shape of the identified person, or whether the person has changed the body orientation within the frame image.
The face detection process, the component part detection process, the line-of-sight detection process, and the process for specifying the shape of a person are known techniques, and thus detailed description thereof is omitted here. For example, AAM (Active Appearance Model) may be used in the component part detection process. In the line-of-sight detection process, for example, the eye position is detected, and the line of sight is detected from the area ratio of the white eyes on both sides of the black eye. You may do it.

第1算出部(算出手段)6cは、プライバシー度を算出する。
ここで、プライバシー度とは、画像(例えば、フレーム画像等)に含まれる人物の顔が特定の人物の顔であると識別することの困難さの度合いを示すものであり、特定の人物の顔であると識別し易い画像ほどプライバシー度が相対的に低くなる一方で、特定の人物の顔であると識別し難い画像ほどプライバシー度が相対的に高くなる。具体的には、プライバシー度は、画像に含まれる人物の顔や当該顔の構成部位(例えば、目や口等)の状態(例えば、角度、大きさ、隠されているか否か、色等)、当該人物の顔や当該顔の構成部位を隠す外部の遮蔽物(例えば、サングラスやマスク等)の状態によって変化する。
すなわち、フレーム画像に含まれる人物の顔が特定の人物の顔であると識別可能な状態、例えば、人物の顔を検出可能で、且つ、人物の顔及び視線が正面方向(所定方向)である状態等を基準状態として、当該基準状態からの、人物の顔全体や当該顔の構成部位の相対的な変化、人物の顔或いは当該顔の構成部位が隠されている比率の変化、フレーム画像に含まれる人物の顔の大きさ或いは人物の顔までの撮像距離の変化、人物の顔或いは当該顔の構成部位を隠す外部の遮蔽物の変化、人物の顔の色の変化等に基づいて、プライバシー度が変化する。
The first calculation unit (calculation means) 6c calculates a privacy level.
Here, the privacy level indicates the degree of difficulty of identifying that the face of a person included in an image (for example, a frame image or the like) is the face of a specific person. An image that can be easily identified as having a lower privacy level has a relatively low privacy level, while an image that is difficult to identify as a face of a specific person has a relatively higher privacy level. Specifically, the privacy level is the state of a person's face included in the image and the constituent parts of the face (eg, eyes, mouth, etc.) (eg, angle, size, whether or not it is hidden, color, etc.) , And changes depending on the state of an external shield (for example, sunglasses, a mask, etc.) that hides the face of the person and the constituent parts of the face.
That is, a state in which the face of the person included in the frame image can be identified as a face of a specific person, for example, the face of the person can be detected, and the face and line of sight of the person are in the front direction (predetermined direction). Using the state as the reference state, the relative change in the entire face of the person and the constituent parts of the face from the reference state, the change in the ratio of the person's face or the constituent parts of the face being hidden, the frame image Privacy based on changes in the size of the person's face or the imaging distance to the person's face, changes in the external shield that hides the person's face or parts of the face, changes in the color of the person's face, etc. The degree changes.

ここで、人物の顔全体や当該顔の構成部位の相対的な変化は、例えば、被写体である人物が顔を所定の軸(例えば、ヨー軸やピッチ軸;図6参照)を中心として回転させる動作や、人物が身体全体をヨー軸を中心として回転させることで顔をヨー軸を中心として回転させる動作や、視線を正面方向から外すように移動させる動作や、画像処理装置100のレンズ部3aの光軸方向が人物の顔の正面方向に対して斜めになるように画像処理装置100を上下方向や左右方向に変位させる動作等を行うことにより生じ得る。なお、人物の顔をロール軸を中心として回転させる動作や画像処理装置100をレンズ部3aの光軸方向を中心として回転させる動作は、顔検出処理に対する影響が小さいため除外するようになっているが、例えば、画像のプライバシー度をより細かく設定できることから、これらの動作を含めても良い。
また、人物の顔或いは当該顔の構成部位が隠されている比率の変化は、例えば、被写体である人物が自身の手や髪、或いは、外部の遮蔽物(例えば、サングラスやマスク等)等により顔全体や顔の構成部位(例えば、目や口等)を隠す動作を行うことにより生じ得る。
また、フレーム画像に含まれる人物の顔の大きさ或いは人物の顔までの撮像距離の変化は、例えば、被写体である人物と画像処理装置100との物理的な距離を調整する動作や、撮像部3のズーム倍率(焦点距離)を調整する動作や、撮影された画像からトリミングする領域を指定する動作等を行うことにより生じ得る。
また、人物の顔や当該顔の構成部位を隠す外部の遮蔽物の変化は、例えば、目を隠す外部の遮蔽物が、眼鏡、サングラス、眼帯やアイパッチといった種類の違いで生じ得る。また、マスクであっても、口に使用するマスクと鼻に使用するマスクといった隠す顔の構成部位の違いで生じ得る。
また、人物の顔の色の変化は、例えば、被写体である人物に照射される光線や画像処理装置100の露光状態により、顔が逆光で真っ黒になっていたり、白飛びで真っ白になっていたりするような場合、或いは化粧など顔に肌色とは異なる他の色を塗っていたりするような場合などに生じ得る。
Here, relative changes in the entire face of the person and the constituent parts of the face are, for example, that the person who is the subject rotates the face around a predetermined axis (for example, the yaw axis or the pitch axis; see FIG. 6). An action, an action in which a person rotates the entire body around the yaw axis to rotate the face around the yaw axis, an action to move the line of sight away from the front direction, and the lens unit 3a of the image processing apparatus 100 This may be caused by performing an operation of displacing the image processing apparatus 100 in the vertical direction or the horizontal direction so that the optical axis direction is inclined with respect to the front direction of the human face. Note that the operation of rotating the person's face around the roll axis and the operation of rotating the image processing apparatus 100 around the optical axis direction of the lens unit 3a are excluded because they have little influence on the face detection processing. However, for example, since the privacy level of an image can be set more finely, these operations may be included.
In addition, a change in the ratio of the person's face or the constituent parts of the face being hidden may be caused by, for example, the person who is the subject by his / her own hand or hair, or an external shield (for example, sunglasses or mask). This may be caused by performing an operation of hiding the entire face or a constituent part of the face (for example, eyes and mouth).
The change in the size of the face of the person included in the frame image or the imaging distance to the person's face includes, for example, an operation for adjusting the physical distance between the person who is the subject and the image processing apparatus 100, This may be caused by performing an operation for adjusting the zoom magnification (focal length) of 3 or an operation for designating a region to be trimmed from the captured image.
In addition, a change in an external shield that hides the face of a person or a constituent part of the face may be caused by, for example, the type of the external shield that hides eyes, such as glasses, sunglasses, an eye patch, or an eye patch. Moreover, even if it is a mask, it may arise by the difference in the structural part of the face to conceal, such as a mask used for the mouth and a mask used for the nose.
The change in the color of the person's face may be, for example, the face turned black due to backlight or the white due to overexposure depending on the light rays applied to the subject person and the exposure state of the image processing apparatus 100. This may occur when the face is painted or when the face is painted with a different color from the skin color.

具体的には、第1算出部6cは、撮像部3により逐次撮像されて第1画像取得部6aにより逐次取得されるフレーム画像に対する検出処理部6bによる検出結果に基づいて、人物の顔を検出可能で、且つ、当該人物の顔及び視線が正面方向(所定方向)である状態を基準状態として特定する。そして、第1算出部6cは、当該基準状態のフレーム画像(基準顔画像F)に対する、人物の顔全体や当該顔の構成部位の相対的な変化、人物の顔或いは当該顔の構成部位が隠されている比率の変化、フレーム画像に含まれる人物の顔の大きさ或いは人物の顔までの撮像距離の変化、人物の顔或いは当該顔の構成部位を隠す外部の遮蔽物の変化、人物の顔の色の変化を検出して、プライバシー度を算出する。   Specifically, the first calculation unit 6c detects a human face based on the detection result of the detection processing unit 6b on the frame images sequentially captured by the imaging unit 3 and sequentially acquired by the first image acquisition unit 6a. A state in which the person's face and line of sight are in the front direction (predetermined direction) is specified as the reference state. Then, the first calculation unit 6c hides the face of the person or the constituent part of the face relative to the frame image (reference face image F) in the reference state, relative changes in the entire face of the person and constituent parts of the face. Change of the ratio, the size of the face of the person included in the frame image or the change of the imaging distance to the face of the person, the change of the external shield that hides the face of the person or the constituent part of the face, the face of the person Detecting a change in color and calculating the privacy level.

例えば、第1算出部6cは、基準顔画像Fに含まれる人物の顔領域に対応する顔検出枠の形状と、第1画像取得部6aにより逐次取得されるフレーム画像に含まれる人物の顔領域に対応する顔検出枠の形状とを比較して、基準状態に対する被写体である人物の顔の所定の軸(例えば、ヨー軸やピッチ軸)を中心とする回転角度の変化を特定する。つまり、例えば、人物の顔がヨー軸を中心として回転すると、顔検出枠が縦長の矩形状となり、人物の顔がピッチ軸を中心として回転させると、顔検出枠が横長の矩形状となる。そして、第1算出部6cは、例えば、顔検出枠の形状の変化から人物の顔の回転の中心軸及び回転角度を算出し、基準状態に対する人物の顔の所定の軸を中心とする回転角度の変化量或いは変化率を特定する。ここで、第1算出部6cは、人物が身体全体をヨー軸を中心として略180°回転させた場合、すなわち、顔が後ろ向きとなるように回転させた場合も、検出処理部6bにより人物の身体全体の回転が検出され、その検出結果から回転角度の変化を特定可能となっている。なお、第1算出部6cは、動き検出部5から出力された動き情報に基づいて、画像処理装置100の回転角度を算出して、基準状態に対する当該画像処理装置100のレンズ部3aの光軸の人物の顔の正面に対する向きの変化量或いは変化率を特定しても良い。
また、例えば、第1算出部6cは、基準顔画像Fに含まれる人物の視線と、第1画像取得部6aにより逐次取得されるフレーム画像に含まれる人物の視線とを比較して、基準状態に対する被写体である人物の視線の変化を特定する。
そして、第1算出部6cは、特定された基準状態に対する人物の顔の所定の軸を中心とする回転角度の変化量或いは変化率、基準状態に対する当該画像処理装置100のレンズ部3aの光軸の人物の顔の正面に対する向きの変化量或いは変化率、基準状態に対する被写体である人物の視線の変化に基づいて、プライバシー度を算出する。例えば、人物の顔をヨー軸を中心として左右に回転させたり、視線を左右に移動させる場合、図7(a)に示すように、第1算出部6cは、顔の向きが正面で視線のみを左(或いは、右)に移動させた状態のプライバシー度が最も低く、顔の向きを左(或いは、右)に回転させていくにつれて次第にプライバシー度が高くなる相関関係でプライバシー度を算出する。また、例えば、人物の顔をピッチ軸を中心として上下に回転させたり、視線を上下に移動させる場合、図7(b)に示すように、第1算出部6cは、顔の向きが正面で視線のみを下(或いは、上)に移動させた状態のプライバシー度が最も低く、顔の向きを下(或いは、上)に回転させていくにつれて次第にプライバシー度が高くなる相関関係でプライバシー度を算出する。また、例えば、人物の顔をヨー軸及びピッチ軸を中心として左右及び上下に回転させたり、視線を左右及び上下に移動させる場合、図7(c)に示すように、第1算出部6cは、顔の向きが正面で視線のみを左下(或いは、右下、左上、右上)に移動させた状態のプライバシー度が最も低く、顔の向きを左下(或いは、右下、左上、右上)に回転させていくにつれて次第にプライバシー度が高くなる相関関係でプライバシー度を算出する。
For example, the first calculation unit 6c includes the shape of the face detection frame corresponding to the person's face area included in the reference face image F and the person's face area included in the frame image sequentially acquired by the first image acquisition unit 6a. Is compared with the shape of the face detection frame corresponding to, and a change in the rotation angle about a predetermined axis (for example, a yaw axis or a pitch axis) of the face of the person who is the subject with respect to the reference state is specified. That is, for example, when the face of a person rotates around the yaw axis, the face detection frame becomes a vertically long rectangle, and when the face of a person rotates around the pitch axis, the face detection frame becomes a horizontally long rectangle. Then, the first calculation unit 6c calculates, for example, the center axis and rotation angle of the rotation of the human face from the change in the shape of the face detection frame, and the rotation angle about the predetermined axis of the human face with respect to the reference state The amount of change or rate of change is specified. Here, even when the person rotates the entire body about 180 ° about the yaw axis, that is, when the face is turned backward, the first calculation unit 6c causes the detection processing unit 6b to The rotation of the whole body is detected, and the change in the rotation angle can be specified from the detection result. The first calculation unit 6c calculates the rotation angle of the image processing device 100 based on the motion information output from the motion detection unit 5, and the optical axis of the lens unit 3a of the image processing device 100 with respect to the reference state. The change amount or change rate of the direction of the person's face relative to the front may be specified.
In addition, for example, the first calculation unit 6c compares the person's line of sight included in the reference face image F with the person's line of sight included in the frame image sequentially acquired by the first image acquisition unit 6a, and the reference state The change in the line of sight of the person who is the subject with respect to is identified.
The first calculation unit 6c then changes or changes the rotation angle around a predetermined axis of the person's face with respect to the specified reference state, and the optical axis of the lens unit 3a of the image processing apparatus 100 with respect to the reference state. The degree of privacy is calculated based on the amount or rate of change of the orientation of the person's face relative to the front and the change in the line of sight of the person who is the subject relative to the reference state. For example, when the face of a person is rotated to the left or right around the yaw axis, or the line of sight is moved to the left or right, as shown in FIG. The privacy level is calculated with the correlation that the privacy level is the lowest when the position is moved to the left (or right), and the privacy level gradually increases as the face direction is rotated to the left (or right). Further, for example, when the face of a person is rotated up and down around the pitch axis or the line of sight is moved up and down, as shown in FIG. The degree of privacy is the lowest when only the line of sight is moved down (or up), and the degree of privacy is calculated with a correlation in which the degree of privacy gradually increases as the face direction is rotated down (or up). To do. Further, for example, when the face of a person is rotated left and right and up and down around the yaw axis and the pitch axis, and the line of sight is moved up and down and up and down, as shown in FIG. The privacy level is the lowest when the face direction is front and only the line of sight is moved to the lower left (or lower right, upper left, upper right), and the face direction is rotated to the lower left (or lower right, upper left, upper right) The privacy level is calculated with a correlation in which the privacy level gradually increases as the process is continued.

なお、第1算出部6cは、人物の視線と顔の所定の軸を中心とする回転角度について、相関関係を持たせずに個別にプライバシー度を設定するようにしても良い。
また、上記した人物の顔の所定の軸を中心とする回転角度の変化を特定する手法は、一例であってこれに限られるものではなく、例えば、顔検出処理にて顔の回転角度に対応する複数の識別器を用いて、何れの識別器で検出されたかの検出結果を利用しても良い。また、上記した視線の変化を特定する手法は、一例であってこれに限られるものではなく、適宜任意に変更可能である。
Note that the first calculation unit 6c may individually set the privacy level without having a correlation with respect to the rotation angle about the predetermined axis of the person's line of sight and the face.
In addition, the above-described method for identifying the change in the rotation angle around the predetermined axis of the person's face is an example, and is not limited to this. For example, the face detection process supports the rotation angle of the face. A plurality of classifiers may be used, and the detection result of which classifier is detected may be used. Further, the above-described method for identifying the change in the line of sight is an example and is not limited to this, and can be arbitrarily changed as appropriate.

また、例えば、第1算出部6cは、基準顔画像Fから検出された顔の構成部位の数と、第1画像取得部6aにより逐次取得されるフレーム画像から検出された顔の構成部位の数とを比較して、基準状態に対する人物の顔の構成部位が隠されている比率の変化を特定する。具体的には、第1算出部6cは、顔検出処理にて検出された顔領域内から検出された目や口等の顔の構成部位の数の変化から、基準状態に対する人物の顔の構成部位が隠されている比率の変化を特定する。
そして、第1算出部6cは、特定された基準状態に対する人物の顔の構成部位が隠されている比率の変化に基づいて、プライバシー度を算出する。例えば、図8(a)に示すように、第1算出部6cは、顔の構成部位のうちの何れか一(例えば、口等)が隠されている状態のプライバシー度が最も低く、顔の構成部位のうちの隠されている構成部位の数が増えていくにつれて次第にプライバシー度が高くなる相関関係でプライバシー度を算出する。
なお、上記した人物の顔の構成部位が隠されている比率の変化を特定する手法は、一例であってこれに限られるものではなく、適宜任意に変更可能である。
Further, for example, the first calculation unit 6c counts the number of constituent parts of the face detected from the reference face image F and the number of constituent parts of the face detected from the frame images sequentially acquired by the first image acquisition unit 6a. To identify a change in the ratio of the constituent parts of the person's face with respect to the reference state being hidden. Specifically, the first calculation unit 6c determines the composition of the person's face with respect to the reference state based on the change in the number of constituent parts of the face such as eyes and mouth detected from the face area detected in the face detection process. Identify the change in the ratio that the part is hidden.
And the 1st calculation part 6c calculates a privacy degree based on the change of the ratio by which the structural part of the person's face with respect to the specified reference | standard state is hidden. For example, as shown in FIG. 8A, the first calculation unit 6c has the lowest privacy level in a state where any one of the constituent parts of the face (for example, mouth) is hidden, The degree of privacy is calculated with a correlation in which the degree of privacy gradually increases as the number of constituent parts hidden among the constituent parts increases.
Note that the above-described method for identifying the change in the ratio of the constituent parts of the person's face being hidden is an example, and is not limited thereto, and can be arbitrarily changed as appropriate.

また、例えば、第1算出部6cは、基準顔画像Fに含まれる人物の顔を構成する画素数と、第1画像取得部6aにより逐次取得されるフレーム画像に含まれる人物の顔を構成する画素数とを比較して、基準状態に対するフレーム画像に含まれる人物の顔の大きさの変化を特定する。つまり、例えば、人物と画像処理装置100との物理的な距離が離れるほどフレーム画像に含まれる人物の顔を構成する画素数が小さくなる。第1算出部6cは、例えば、人物の顔が含まれる顔領域を構成する画素数の変化から、基準状態に対するフレーム画像に含まれる人物の顔の大きさの変化を特定する。なお、第1算出部6cは、撮像部3の焦点距離等から人物の顔までの撮像距離(被写体距離)を換算し、撮像距離の変化から基準状態に対するフレーム画像に含まれる人物の顔の大きさの変化を特定しても良い。
そして、第1算出部6cは、特定された基準状態に対するフレーム画像に含まれる人物の顔の大きさの変化に基づいて、プライバシー度を算出する。例えば、図8(b)に示すように、第1算出部6cは、フレーム画像に含まれる人物の顔の大きさが大きいほどプライバシー度が低く、顔の大きさが大きいほどプライバシー度が高くなる相関関係でプライバシー度を算出する。
なお、上記した人物の顔の大きさの変化を特定する手法は、一例であってこれに限られるものではなく、適宜任意に変更可能である。
In addition, for example, the first calculation unit 6c configures the number of pixels constituting the face of the person included in the reference face image F and the face of the person included in the frame image sequentially acquired by the first image acquisition unit 6a. A change in the size of the face of the person included in the frame image with respect to the reference state is identified by comparing the number of pixels. That is, for example, as the physical distance between the person and the image processing apparatus 100 increases, the number of pixels constituting the face of the person included in the frame image decreases. For example, the first calculation unit 6c identifies a change in the size of the person's face included in the frame image with respect to the reference state from a change in the number of pixels constituting the face area including the face of the person. The first calculation unit 6c converts the imaging distance (subject distance) from the focal length of the imaging unit 3 to the person's face, and the size of the person's face included in the frame image with respect to the reference state from the change in the imaging distance. You may identify the change in height.
Then, the first calculation unit 6c calculates the privacy level based on the change in the size of the person's face included in the frame image with respect to the specified reference state. For example, as illustrated in FIG. 8B, the first calculation unit 6c has a lower privacy level as the face size of the person included in the frame image is larger, and a higher privacy level as the face size is larger. The degree of privacy is calculated by correlation.
Note that the above-described method for specifying the change in the size of the person's face is merely an example, and is not limited thereto, and can be arbitrarily changed as appropriate.

また、例えば、第1算出部6cは、基準顔画像Fから検出された外部の遮蔽物と、第1画像取得部6aにより逐次取得されるフレーム画像から検出された外部の遮蔽物の種類とを比較して、基準状態に対する外部の遮蔽物の変化を特定する。具体的には、第1算出部6cは、顔検出処理にて検出された顔領域内から、例えばサングラスであれば、サングラスをかけた顔画像を大量に学習し、マスクであれば、マスクをかけた顔画像を大量に学習することで、顔領域内からサングラスやマスク等の外部の遮蔽物を検出し、検出された外部の遮蔽物の種類の変化から、基準状態に対する外部の遮蔽物の変化を特定する。
そして、第1算出部6cは、特定された基準状態に対する外部の遮蔽物の変化に基づいて、プライバシー度を算出する。例えば、図9(a)に示す遮蔽物テーブルSTを参照して、第1算出部6cは、外部の遮蔽物の種類に応じたプライバシー度を算出する。この遮蔽物テーブルSTには、外部の遮蔽物の種類とプライバシー度とが対応付けて記憶されている。
なお、上記した外部の遮蔽物の変化を特定する手法は、一例であってこれに限られるものではなく、例えば、公知のオブジェクト認識の技術を使用して、顔の構成部位とは異なる物体を認識して外部の遮蔽物として検出してもよく、適宜任意に変更可能である。
また、検出する外部の遮蔽物の種類は、一例であってこれに限られるものではなく、例えば、髪を隠す帽子やバンダナ等であってもよい。
また、複数の外部の遮蔽物が検出された場合は、より高いプライバシー度を算出するようにしてもよい。
Further, for example, the first calculation unit 6c determines the external shielding object detected from the reference face image F and the type of the external shielding object detected from the frame image sequentially acquired by the first image acquisition unit 6a. In comparison, the change of the external shield with respect to the reference state is specified. Specifically, the first calculation unit 6c learns a large amount of face images with sunglasses from the face area detected in the face detection process, for example, if it is sunglasses. By learning a large amount of applied face images, external shields such as sunglasses and masks are detected from within the face area, and the change in the type of detected external shields results in the detection of external shields relative to the reference state. Identify changes.
And the 1st calculation part 6c calculates a privacy degree based on the change of the external shielding object with respect to the specified reference | standard state. For example, with reference to the shielding object table ST illustrated in FIG. 9A, the first calculation unit 6c calculates the privacy level according to the type of the external shielding object. In this shielding object table ST, the types of external shielding objects and the privacy level are stored in association with each other.
Note that the above-described method for identifying the change in the external shielding object is an example and is not limited to this. For example, a known object recognition technique is used to detect an object that is different from the constituent part of the face. It may be recognized and detected as an external shield, and can be arbitrarily changed as appropriate.
Further, the type of external shielding object to be detected is an example, and is not limited to this. For example, a hat or bandana that hides hair may be used.
Further, when a plurality of external shielding objects are detected, a higher privacy level may be calculated.

また、例えば、第1算出部6cは、基準顔画像Fから検出された人物の顔の色と、第1画像取得部6aにより逐次取得されるフレーム画像から検出された人物の顔の色とを比較して、基準状態に対する人物の顔の色の変化を特定する。具体的には、第1算出部6cは、顔検出処理にて検出された顔領域内から目や口といった肌色とは異なる色を有する構成部位を除く肌色領域の平均RGB値を測定し、基準顔画像Fから検出された人物の顔のR値G値B値と、第1画像取得部6aにより逐次取得されるフレーム画像から検出された人物の顔のR値G値B値各々の差の絶対値を合計することで、人物の顔の色の変化を特定する。
そして、第1算出部6cは、特定された基準状態に対する人物の顔の色の変化に基づいて、プライバシー度を算出する。例えば、図9(b)に示すように、第1算出部6cは、基準顔画像Fから検出された人物の顔の色とフレーム画像に含まれる人物の顔の色との差が小さいほどプライバシー度が低く、差が大きいほどプライバシー度が高くなる相関関係でプライバシー度を算出する。
なお、上記した人物の顔の色の変化を特定する手法は、一例であってこれに限られるものではなく、例えば、フレーム画像に含まれる人物の顔の色のうち、基準顔画像Fから検出された人物の顔の色の平均RGB値より所定の値以上差のある色の領域の面積の比率を測定し、その面積の比率の大きさに応じてプライバシー度を算出する、といったように適宜任意に変更可能である。
Further, for example, the first calculation unit 6c calculates the color of the person's face detected from the reference face image F and the color of the person's face detected from the frame images sequentially acquired by the first image acquisition unit 6a. In comparison, a change in the face color of the person relative to the reference state is specified. Specifically, the first calculation unit 6c measures the average RGB value of the skin color area excluding the component part having a color different from the skin color such as eyes and mouth from the face area detected in the face detection process, The difference between the R value G value B value of the person's face detected from the face image F and the R value G value B value of the person's face detected from the frame image sequentially acquired by the first image acquisition unit 6a. By adding the absolute values, a change in the color of the person's face is specified.
Then, the first calculation unit 6c calculates the privacy level based on the change in the face color of the person with respect to the specified reference state. For example, as illustrated in FIG. 9B, the first calculation unit 6 c increases the privacy as the difference between the face color of the person detected from the reference face image F and the face color of the person included in the frame image decreases. The degree of privacy is calculated with a correlation in which the degree of privacy is higher as the degree is lower and the difference is larger.
Note that the above-described method for identifying the change in the face color of a person is an example, and is not limited to this. For example, the person face color included in the frame image is detected from the reference face image F. The ratio of the area of the color area that differs by a predetermined value or more from the average RGB value of the color of the person's face is measured, and the privacy level is calculated according to the size of the area ratio. It can be changed arbitrarily.

また、第1算出部6cは、自動撮影処理にて、撮像部3により逐次撮像されて第1画像取得部6aにより逐次取得されるライブビュー画像に係るフレーム画像毎にプライバシー度を逐次算出し、算出されたプライバシー度を第1判定部6dに逐次出力する。   In addition, the first calculation unit 6c sequentially calculates the privacy level for each frame image related to the live view image that is sequentially captured by the imaging unit 3 and sequentially acquired by the first image acquisition unit 6a in the automatic shooting process, The calculated privacy level is sequentially output to the first determination unit 6d.

なお、第1算出部6cは、上記した基準状態からの、人物の顔全体や当該顔の構成部位の相対的な変化、人物の顔或いは当該顔の構成部位が隠されている比率の変化、フレーム画像に含まれる人物の顔の大きさ或いは人物の顔までの撮像距離の変化、外部の遮蔽物の変化、人物の顔の色の変化のうち、少なくとも何れか一を基準として、プライバシー度を算出すれば良い。また、これらの複数を基準とする場合には、第1算出部6cは、各項目毎に個別に評価し、その結果から総合的に評価してプライバシー度を算出するようにしても良い。
また、プライバシー度の算出は、人物の身体がフレーム画像内であることを条件とし、人物の身体がフレーム画像から外れた場合は、プライバシー度の算出は行わず、自動撮影処理は行わない。
The first calculation unit 6c is configured to change the relative ratio of the entire face of the person and the constituent parts of the face from the reference state described above, the change of the ratio of the face of the person or the constituent parts of the face being hidden, The privacy level is determined based on at least one of a change in the size of the face of the person included in the frame image or an imaging distance to the person's face, a change in an external shield, and a change in the color of the person's face. What is necessary is just to calculate. Moreover, when using these plural as a reference | standard, the 1st calculation part 6c may be evaluated for every item separately, and you may make it calculate privacy degree comprehensively from the result.
The privacy level is calculated on the condition that the person's body is in the frame image. When the person's body is out of the frame image, the privacy level is not calculated and the automatic photographing process is not performed.

第1判定部(判定手段)6dは、第1算出部6cにより算出されるプライバシー度が所定の判定値よりも高いか否かを判定する。
すなわち、第1判定部6dは、自動撮影処理にて、撮像部3により逐次撮像されるライブビュー画像毎に、第1算出部6cにより逐次算出されるプライバシー度が判定値よりも高いか否か(所定の条件を満たすか否か)を判定する。具体的には、第1判定部6dは、先ず、事前にユーザにより指定されてメモリ2に格納されている所望のプライバシー度を判定値としてメモリ2から取得する。そして、第1判定部6dは、第1算出部6cにより逐次算出されるプライバシー度を逐次取得し、取得されたプライバシー度が判定値よりも高いか否かを判定する。
なお、判定値は、例えば、プライバシー度算出処理にて算出された複数のプライバシー度から経験的に求められた値をデフォルトとして事前に設定されていても良い。
The first determination unit (determination unit) 6d determines whether or not the privacy level calculated by the first calculation unit 6c is higher than a predetermined determination value.
That is, the first determination unit 6d determines whether the privacy level sequentially calculated by the first calculation unit 6c is higher than the determination value for each live view image sequentially captured by the imaging unit 3 in the automatic shooting process. (Whether or not a predetermined condition is satisfied) is determined. Specifically, the first determination unit 6d first acquires from the memory 2 a desired privacy level that is designated in advance by the user and stored in the memory 2 as a determination value. Then, the first determination unit 6d sequentially acquires the privacy level sequentially calculated by the first calculation unit 6c, and determines whether or not the acquired privacy level is higher than the determination value.
The determination value may be set in advance as a default, for example, a value empirically obtained from a plurality of privacy levels calculated in the privacy level calculation process.

撮影制御部(制御手段)6eは、撮像部3を制御して画像に係る所定の処理を実行させる。
すなわち、撮影制御部6eは、第1判定部6dによりプライバシー度が所定の判定値よりも高いと判定された場合に、撮像部3を制御して記録用の画像を撮影させる。具体的には、撮影制御部6eは、例えば、自動撮影処理にて、第1判定部6dによる判定結果に基づいて、第1算出部6cにより逐次算出されるプライバシー度が判定値以下である状態から判定値よりも高い状態に変化したことを契機として、撮像部3に記録用の画像の撮影指示を出力して、当該撮像部3に記録用の画像を撮影させる。
なお、撮影制御部6eは、例えば、第1算出部6cにより逐次算出されるプライバシー度が判定値よりも高い状態から判定値以下の状態に変化したことを契機として、撮像部3に記録用の画像を撮影させても良い。つまり、例えば、ライブビュー画像のプライバシー度が高くなり過ぎた場合等に、ユーザが画像のプライバシー度が低くなるような動作(例えば、顔の向きが正面に近付くような動作等)を行うことでプライバシー度を低下させていく過程で、撮影制御部6eは、第1判定部6dによる判定結果に基づいて、当該撮像部3に記録用の画像を撮影させても良い。
The imaging control unit (control unit) 6e controls the imaging unit 3 to execute a predetermined process related to the image.
That is, when the first determination unit 6d determines that the privacy level is higher than a predetermined determination value, the shooting control unit 6e controls the imaging unit 3 to capture a recording image. Specifically, the imaging control unit 6e is in a state where the privacy level sequentially calculated by the first calculation unit 6c is equal to or less than the determination value based on the determination result by the first determination unit 6d, for example, in the automatic imaging process. In response to a change to a higher state than the determination value, the imaging unit 3 outputs a recording image capturing instruction to cause the imaging unit 3 to capture the recording image.
Note that, for example, the imaging control unit 6e causes the imaging unit 3 to perform recording when the privacy level sequentially calculated by the first calculation unit 6c changes from a state higher than the determination value to a state equal to or lower than the determination value. An image may be taken. In other words, for example, when the privacy level of the live view image becomes too high, the user performs an operation that reduces the privacy level of the image (for example, an operation that the face direction approaches the front). In the process of decreasing the privacy level, the imaging control unit 6e may cause the imaging unit 3 to capture an image for recording based on the determination result by the first determination unit 6d.

また、撮影制御部6eは、ユーザによる撮影指示操作に応じて、撮像部3を制御して記録用の画像を撮影させる。具体的には、撮影制御部6eは、例えば、手動撮影処理にて、後述する操作入力部11を介してユーザにより撮影指示操作が行われたことを契機として、撮像部3に記録用の画像の撮影指示を出力して、当該撮像部3に記録用の画像を撮影させる。   Further, the shooting control unit 6e controls the imaging unit 3 to take a recording image in response to a shooting instruction operation by the user. Specifically, for example, the shooting control unit 6e causes the imaging unit 3 to record an image for recording in response to a shooting instruction operation performed by the user via the operation input unit 11 described later in manual shooting processing. Is output to cause the imaging unit 3 to capture a recording image.

画像処理部7は、信号処理部4により生成された静止画像の画像データを所定の圧縮形式(例えば、JPEG形式等)で符号化して静止画像の記録用の画像データを生成する。
また、画像処理部7は、メモリ2や画像記録部8から読み出された表示対象に係る静止画像の画像データを対応する所定の符号化方式に従って復号して表示部9に出力する。このとき、画像処理部7は、例えば、後述する表示パネル9bの表示解像度等に基づいて所定サイズ(例えば、VGAやフルHDサイズ)に変形して表示部9に出力しても良い。
The image processing unit 7 encodes still image data generated by the signal processing unit 4 in a predetermined compression format (for example, JPEG format) to generate image data for recording a still image.
Further, the image processing unit 7 decodes the image data of the still image related to the display target read from the memory 2 or the image recording unit 8 according to a corresponding predetermined encoding method and outputs the decoded image data to the display unit 9. At this time, the image processing unit 7 may be transformed into a predetermined size (for example, VGA or full HD size) and output to the display unit 9 based on, for example, a display resolution of the display panel 9b described later.

画像記録部8は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成され、画像処理部7により所定の圧縮形式で符号化された静止画像の記録用の画像データを記録する。具体的には、画像記録部(記録手段)8は、自動撮影処理及び手動撮影処理いずれの場合においても、撮影制御部6eにより撮影させた記録用の画像をプライバシー画像Pとして取得するとともに、当該プライバシー画像Pの撮影前のプライバシー度算出処理にて算出されたプライバシー度を取得し、プライバシー画像Pの画像データにプライバシー度をExif(Exchangeable Image File Format)情報として対応付けて記録する。
なお、画像記録部8は、例えば、記録媒体(図示略)が着脱自在に構成され、装着された記録媒体からのデータの読み出しや記録媒体に対するデータの書き込みを制御する構成であっても良い。
The image recording unit 8 includes, for example, a non-volatile memory (flash memory) or the like, and records image data for recording a still image encoded by the image processing unit 7 in a predetermined compression format. Specifically, the image recording unit (recording unit) 8 acquires a recording image photographed by the photographing control unit 6e as the privacy image P in both the automatic photographing process and the manual photographing process, and The privacy level calculated in the privacy level calculation process before photographing the privacy image P is acquired, and the privacy level is recorded in association with the image data of the privacy image P as Exif (Exchangeable Image File Format) information.
The image recording unit 8 may be configured, for example, such that a recording medium (not shown) is detachable and controls reading of data from the loaded recording medium and writing of data to the recording medium.

表示部9は、表示制御部9aと、表示パネル9bとを具備している。   The display unit 9 includes a display control unit 9a and a display panel 9b.

表示制御部9aは、メモリ2や画像記録部8から読み出され画像処理部7により復号された所定サイズの画像データに基づいて、所定の画像を表示パネル9bの表示領域に表示させる制御を行う。具体的には、表示制御部9aは、VRAM(Video Random Access Memory)、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、画像処理部7により復号されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから所定の再生フレームレートで読み出して、これらのデータを元にビデオ信号を発生して表示パネル9bに出力する。   The display control unit 9a performs control to display a predetermined image in the display area of the display panel 9b based on image data of a predetermined size read from the memory 2 or the image recording unit 8 and decoded by the image processing unit 7. . Specifically, the display controller 9a includes a VRAM (Video Random Access Memory), a VRAM controller, a digital video encoder, and the like. The digital video encoder reads out the luminance signal Y and the color difference signals Cb and Cr decoded by the image processing unit 7 and stored in the VRAM (not shown) from the VRAM through the VRAM controller at a predetermined reproduction frame rate. Based on these data, a video signal is generated and output to the display panel 9b.

表示パネル9bは、表示制御部9aからのビデオ信号に基づいて撮像部3により撮影された画像などを表示領域内に表示する。具体的には、表示パネル9bは、静止画の撮影モードにて、撮像部3による被写体の撮影により生成された複数のフレーム画像を所定のフレームレートで逐次更新しながらライブビュー画像を表示する。
また、表示パネル9bは、画像の再生モードにて、画像記録部8に記録されている画像を表示する。このとき、表示制御部9aは、表示制御手段として、画像記録部8に記録されているプライバシー画像Pを対応付けられているプライバシー度を基準とする分類或いは順序で、表示パネル9bに表示させる(図10参照)。例えば、図10に示すように、表示制御部9aは、画像記録部8に記録されている複数のプライバシー画像Pを所定のプライバシー度(例えば、10、30、50、70、100等)毎に画像群として分類し、分類された画像群毎に表示パネル9bに表示させる。このとき、プライバシー度に応じた画像群毎に、何れか一のプライバシー画像Pを代表画像Psとしてサムネイル表示しても良い。
なお、表示制御部9aは、例えば、画像記録部8に記録されている複数のプライバシー画像Pを対応付けられているプライバシー度に応じて並び替えて、並び替えられた順序でプライバシー画像Pを表示パネル9bに表示させても良い。
The display panel 9b displays an image taken by the imaging unit 3 in the display area based on the video signal from the display control unit 9a. Specifically, the display panel 9b displays the live view image while sequentially updating a plurality of frame images generated by photographing the subject by the imaging unit 3 at a predetermined frame rate in the still image shooting mode.
The display panel 9b displays an image recorded in the image recording unit 8 in the image reproduction mode. At this time, the display control unit 9a displays the privacy image P recorded in the image recording unit 8 on the display panel 9b as a display control unit in a classification or order based on the associated privacy level ( (See FIG. 10). For example, as shown in FIG. 10, the display control unit 9 a displays a plurality of privacy images P recorded in the image recording unit 8 for each predetermined privacy level (for example, 10, 30, 50, 70, 100, etc.). The images are classified as image groups, and the classified image groups are displayed on the display panel 9b. At this time, any one privacy image P may be displayed as a representative image Ps as a thumbnail for each image group corresponding to the privacy level.
For example, the display control unit 9a rearranges the plurality of privacy images P recorded in the image recording unit 8 according to the associated privacy level, and displays the privacy images P in the rearranged order. You may display on the panel 9b.

なお、表示パネル9bとしては、例えば、液晶表示パネルや有機EL(Electro-Luminescence)表示パネルなどが挙げられるが、一例であってこれらに限られるものではない。   Examples of the display panel 9b include a liquid crystal display panel and an organic EL (Electro-Luminescence) display panel. However, the display panel 9b is an example and is not limited thereto.

通信制御部10は、通信アンテナ10a及び通信ネットワーク(図示略)を介してデータの送受信を行う。
すなわち、通信アンテナ10aは、当該画像処理装置100が無線基地局(図示略)との通信で採用している所定の通信方式(例えば、W−CDMA(Wideband Code Division Multiple Access)方式、CDMA2000方式、GSM(Global System for Mobile Communications;登録商標)方式等)に対応したデータの送受信が可能なアンテナである。そして、通信制御部10は、所定の通信方式に対応する通信プロトコルに従って、この通信方式で設定される通信チャネルにより無線基地局との間で通信アンテナ10aを介してデータの送受信を行う。具体的には、通信制御部(送信手段)10は、通信アンテナ10aを介して、撮影制御部6eにより撮影させたプライバシー画像Pを外部の記録サーバ(所定の外部装置)Sに送信する。
The communication control unit 10 transmits and receives data via the communication antenna 10a and a communication network (not shown).
That is, the communication antenna 10a is a predetermined communication method (for example, W-CDMA (Wideband Code Division Multiple Access) method, CDMA2000 method, etc.) adopted by the image processing apparatus 100 for communication with a wireless base station (not shown). It is an antenna capable of transmitting and receiving data compatible with GSM (Global System for Mobile Communications; registered trademark) system and the like. The communication control unit 10 transmits / receives data to / from the radio base station via the communication antenna 10a using a communication channel set in the communication method according to a communication protocol corresponding to a predetermined communication method. Specifically, the communication control unit (transmission means) 10 transmits the privacy image P photographed by the photographing control unit 6e to an external recording server (predetermined external device) S via the communication antenna 10a.

記録サーバSは、例えば、クラウドを構成するサーバであり、Web(World Wide Web)サーバとしてインターネット上にWebページ(例えば、画像公開ページ等)を開設する機能を具備する。そして、記録サーバSは、例えば、画像処理装置100等の通信端末から送信された各種の画像等を受信して、Webページ上にコンテンツとして公開する。
これにより、記録サーバSが開設するWebページ上に公開されているコンテンツは、通信ネットワークを介して当該Webページにアクセス可能な通信端末のユーザにより閲覧可能な状態となる。
なお、記録サーバSは、通信ネットワークに接続可能なコンピュータから構成されたものであれば如何なる構成であっても良く、その詳細な説明は省略する。
The recording server S is, for example, a server constituting a cloud and has a function of opening a Web page (for example, an image public page) on the Internet as a Web (World Wide Web) server. Then, for example, the recording server S receives various images transmitted from a communication terminal such as the image processing apparatus 100 and publishes them as contents on a Web page.
As a result, the content published on the web page established by the recording server S becomes viewable by the user of the communication terminal that can access the web page via the communication network.
The recording server S may have any configuration as long as it is configured from a computer connectable to a communication network, and detailed description thereof is omitted.

通信ネットワークは、例えば、画像処理装置100を無線基地局やゲートウェイサーバ(図示略)等を介して記録サーバS等の外部装置と接続する通信ネットワークである。また、通信ネットワークは、専用線や既存の一般公衆回線を利用して構築された通信ネットワークであり、WAN(Wide Area Network)やLAN(Local Area Network)等の様々な回線形態を適用することが可能である。
また、通信ネットワークには、例えば、電話回線網、ISDN回線網、専用線、移動体通信網、通信衛星回線、CATV回線網等の各種通信ネットワーク網と、IPネットワーク、VoIP(Voice over Internet Protocol)ゲートウェイ、インターネットサービスプロバイダ等が含まれる。
The communication network is, for example, a communication network that connects the image processing apparatus 100 to an external device such as the recording server S via a wireless base station, a gateway server (not shown), or the like. The communication network is a communication network constructed using a dedicated line or an existing general public line, and various line forms such as a WAN (Wide Area Network) and a LAN (Local Area Network) can be applied. Is possible.
The communication network includes, for example, various communication network networks such as a telephone line network, ISDN line network, dedicated line, mobile communication network, communication satellite line, CATV line network, IP network, VoIP (Voice over Internet Protocol). Includes gateways, internet service providers, etc.

なお、上記した通信制御部10の構成は一例であってこれに限られるものではなく、適宜任意に変更可能であり、例えば、図示は省略するが、無線LANモジュールを搭載し、アクセスポイント(Access Point)を介して通信ネットワークにアクセス可能な構成としても良い。   Note that the configuration of the communication control unit 10 described above is an example and is not limited thereto, and can be arbitrarily changed as appropriate. For example, although not illustrated, a wireless LAN module is mounted and an access point (Access The communication network may be accessible via the (Point).

操作入力部11は、当該画像処理装置100の所定操作を行うためのものである。具体的には、操作入力部11は、被写体の撮影指示に係るシャッタボタン、撮影モードや機能等の選択指示に係る選択決定ボタン、ズーム量の調整指示に係るズームボタン等(何れも図示略)の操作部を備え、当該操作部の各ボタンの操作に応じて所定の操作信号を中央制御部1に出力する。   The operation input unit 11 is for performing a predetermined operation of the image processing apparatus 100. Specifically, the operation input unit 11 includes a shutter button related to a subject shooting instruction, a selection determination button related to a selection instruction for a shooting mode and a function, a zoom button related to a zoom amount adjustment instruction, and the like (all not shown). And a predetermined operation signal is output to the central control unit 1 in accordance with the operation of each button of the operation unit.

<自動撮影処理>
次に、画像処理装置100による自動撮影処理について、図2を参照して説明する。
図2は、自動撮影処理に係る動作の一例を示すフローチャートである。
<Automatic shooting process>
Next, automatic photographing processing by the image processing apparatus 100 will be described with reference to FIG.
FIG. 2 is a flowchart illustrating an example of an operation related to the automatic photographing process.

図2に示すように、撮像部3による被写体のライブビュー画像の撮像が開始されると、信号処理部4は、電子撮像部3bから転送されたライブビュー画像に係るフレーム画像のアナログ値の信号に対して各種の画像信号処理を施し、デジタル値の画像データを生成する(ステップS1)。また、信号処理部4は、生成された画像データをメモリ2に出力し、メモリ2は、入力された画像データを一時的に格納する。
動作制御部6の第1画像取得部6aは、メモリ2からライブビュー画像に係るフレーム画像の画像データを読み出して取得する(ステップS2)。
As shown in FIG. 2, when imaging of the live view image of the subject by the imaging unit 3 is started, the signal processing unit 4 outputs a signal of an analog value of the frame image related to the live view image transferred from the electronic imaging unit 3 b. Are subjected to various image signal processing to generate digital image data (step S1). The signal processing unit 4 outputs the generated image data to the memory 2, and the memory 2 temporarily stores the input image data.
The first image acquisition unit 6a of the operation control unit 6 reads out and acquires the image data of the frame image related to the live view image from the memory 2 (step S2).

次に、検出処理部6bは、第1画像取得部6aにより取得された処理対象となるフレーム画像に対して視線検出処理を行い(ステップS3)、被写体である人物の視線が正面であるか否かを判定する(ステップS4)。
ここで、視線が正面でないと判定されると(ステップS4;NO)、第1画像取得部6aは、メモリ2からライブビュー画像に係る新たなフレーム画像の画像データを読み出して取得し(ステップS5)、処理をステップS33に戻す。そして、ステップS3にて、検出処理部6bは、上記と略同様に、第1画像取得部6aにより取得された新たなフレーム画像に対して、視線検出処理を行う(ステップS3)。
一方、ステップS4にて、視線が正面であると判定されると(ステップS4;YES)、動作制御部6は、自動撮影の待機状態に移行する(ステップS6)。
つまり、被写体である人物の視線が正面(カメラ目線)となっていない場合には、自動撮影の待機状態に移行しないため、例えば、撮影を意図しているわけではないカメラ目線以外の状態にて、自動的に撮影が行われてしまうことを防止することができる。
Next, the detection processing unit 6b performs line-of-sight detection processing on the frame image to be processed acquired by the first image acquisition unit 6a (step S3), and whether or not the line of sight of the person who is the subject is in front. Is determined (step S4).
If it is determined that the line of sight is not the front (step S4; NO), the first image acquisition unit 6a reads out and acquires image data of a new frame image related to the live view image from the memory 2 (step S5). ), The process returns to step S33. In step S3, the detection processing unit 6b performs line-of-sight detection processing on the new frame image acquired by the first image acquisition unit 6a in substantially the same manner as described above (step S3).
On the other hand, when it is determined in step S4 that the line of sight is the front (step S4; YES), the operation control unit 6 shifts to a standby state for automatic photographing (step S6).
In other words, if the line of sight of the person who is the subject is not in front (camera line of sight), the automatic shooting standby state is not entered. For example, in a state other than the camera line of sight that is not intended for shooting. It is possible to prevent the automatic shooting from being performed.

その後、検出処理部6bは、第1画像取得部6aにより逐次取得されるフレーム画像に対して検出処理を行い、第1算出部6cは、検出処理部6bによる検出結果に基づいて、人物の顔を検出可能で、且つ、当該人物の視線が正面方向(所定方向)である状態を基準状態として特定する(ステップS7)。また、第1算出部6cは、当該基準状態のフレーム画像をメモリ2に出力し、基準顔画像Fとして一時的に格納させる。そして、この一時的に格納された基準顔画像Fを、顔が正面方向(所定方向)を向いている状態であるものとする。   Thereafter, the detection processing unit 6b performs detection processing on the frame images sequentially acquired by the first image acquisition unit 6a, and the first calculation unit 6c is configured to detect the human face based on the detection result by the detection processing unit 6b. And a state where the person's line of sight is in the front direction (predetermined direction) is specified as a reference state (step S7). Further, the first calculation unit 6 c outputs the frame image in the reference state to the memory 2 and temporarily stores it as the reference face image F. The temporarily stored reference face image F is assumed to be in a state where the face is directed in the front direction (predetermined direction).

次に、第1画像取得部6aは、メモリ2からライブビュー画像に係る新たなフレーム画像の画像データを読み出して取得し(ステップS8)、動作制御部6は、当該新たなフレーム画像のプライバシー度を算出するプライバシー度算出処理(図3及び図4参照)を行う(ステップS9;詳細後述)。   Next, the first image acquisition unit 6a reads out and acquires image data of a new frame image related to the live view image from the memory 2 (step S8), and the operation control unit 6 determines the privacy level of the new frame image. Privacy level calculation processing (see FIGS. 3 and 4) is performed (step S9; details will be described later).

そして、動作制御部6の第1判定部6dは、ステップS9のプライバシー度算出処理にて算出されたプライバシー度が判定値設定処理にて設定された判定値よりも高いか否かを判定する(ステップS10)。具体的には、第1判定部6dは、メモリ2から判定値を読み出して取得し、プライバシー度算出処理にて算出されたプライバシー度が判定値よりも高いか否かを判定する。
ここで、プライバシー度が判定値よりも高くないと判定されると(ステップS10;NO)、動作制御部6は、処理をステップS8に戻し、それ以降の各処理を実行する。すなわち、ステップS8にて、第1画像取得部6aは、新たなフレーム画像の画像データを取得し、ステップS9にて、プライバシー度算出処理を行う。
Then, the first determination unit 6d of the operation control unit 6 determines whether or not the privacy level calculated in the privacy level calculation process in step S9 is higher than the determination value set in the determination value setting process ( Step S10). Specifically, the first determination unit 6d reads out and acquires a determination value from the memory 2, and determines whether or not the privacy level calculated in the privacy level calculation process is higher than the determination value.
If it is determined that the privacy level is not higher than the determination value (step S10; NO), the operation control unit 6 returns the process to step S8, and executes the subsequent processes. That is, in step S8, the first image acquisition unit 6a acquires image data of a new frame image, and performs privacy level calculation processing in step S9.

一方、ステップS10にて、プライバシー度が判定値よりも高いと判定されると(ステップS10;YES)、撮影制御部6eは、撮像部3を制御して被写体の記録用の画像を撮影させる(ステップS11)。具体的には、例えば、撮影制御部6eは、所定時間経過後に被写体を自動的に撮影するタイマーを設定し、タイマーで設定された所定時間が経過した際に、撮像部3により被写体を撮像させ、信号処理部4により画像データを生成させる。そして、画像処理部7は、信号処理部4により生成された画像データを所定の圧縮形式(例えば、JPEG形式等)で符号化して記録用の画像の画像データを生成する。
その後、画像記録部8は、画像処理部7から記録用の画像をプライバシー画像Pとして取得するとともに、プライバシー度算出処理にて算出されたプライバシー度を取得し、プライバシー画像Pの画像データにプライバシー度をExif情報として対応付けて記録する(ステップS12)。
これにより、自動撮影処理を終了する。
On the other hand, if it is determined in step S10 that the privacy level is higher than the determination value (step S10; YES), the imaging control unit 6e controls the imaging unit 3 to capture an image for recording the subject ( Step S11). Specifically, for example, the shooting control unit 6e sets a timer for automatically shooting the subject after a predetermined time has elapsed, and causes the imaging unit 3 to take an image when the predetermined time set by the timer has elapsed. Then, image data is generated by the signal processing unit 4. Then, the image processing unit 7 encodes the image data generated by the signal processing unit 4 in a predetermined compression format (for example, JPEG format) and generates image data of an image for recording.
Thereafter, the image recording unit 8 acquires the recording image from the image processing unit 7 as the privacy image P, acquires the privacy level calculated in the privacy level calculation process, and adds the privacy level to the image data of the privacy image P. Is associated and recorded as Exif information (step S12).
Thereby, the automatic photographing process is finished.

なお、上記した自動撮影処理にあっては、プライバシー度を基準として一枚のプライバシー画像Pを撮影するようにしたが、一例であってこれに限られるものではなく、例えば、プライバシー度が所定の判定値よりも高くなったプライバシー画像Pを複数撮影して画像記録部8に記録しておき、記録されているプライバシー画像Pの中からユーザが所望のプライバシー画像Pを選択するようにしても良い。   In the above-described automatic photographing process, a single privacy image P is photographed based on the privacy level. However, this is not an example, and the privacy level is, for example, a predetermined level. A plurality of privacy images P that are higher than the determination value may be captured and recorded in the image recording unit 8, and the user may select a desired privacy image P from the recorded privacy images P. .

<プライバシー度算出処理>
次に、画像処理装置100によるプライバシー度算出処理について、図3及び図4を参照して説明する。
図3及び図4は、プライバシー度算出処理に係る動作の一例を示すフローチャートである。
<Privacy level calculation process>
Next, privacy level calculation processing by the image processing apparatus 100 will be described with reference to FIGS. 3 and 4.
3 and 4 are flowcharts illustrating an example of an operation related to the privacy level calculation process.

図3に示すように、先ず、検出処理部6bは、処理対象となるフレーム画像(例えば、図2のステップS8にて取得された新たなフレーム画像等)に対して顔検出処理を行い(ステップS21)、被写体である人物の顔が含まれる顔領域が検出されたか否かを判定する(ステップS22)。
ここで、被写体である人物はフレーム画像内であるが、顔領域が検出されていないと判定されると(ステップS22;NO)、例えば、人物が身体全体をヨー軸を中心として略180°回転させて顔が後ろ向きとなっている状態であると考えられ、第1算出部6cは、プライバシー度を最も高い値として算出する(ステップS23)。これにより、プライバシー度算出処理を終了する。
As shown in FIG. 3, first, the detection processing unit 6b performs face detection processing on a frame image to be processed (for example, the new frame image acquired in step S8 in FIG. 2) (step S3). S21), it is determined whether or not a face area including the face of the person who is the subject has been detected (step S22).
Here, if it is determined that the person who is the subject is in the frame image but the face area is not detected (step S22; NO), for example, the person rotates the entire body about 180 ° around the yaw axis. Thus, it is considered that the face is facing backward, and the first calculation unit 6c calculates the privacy level as the highest value (step S23). Thus, the privacy level calculation process is terminated.

一方、ステップS22にて、顔領域が検出されたと判定されると(ステップS22;YES)、第1算出部6cは、処理対象のフレーム画像から検出された顔領域からサングラスやマスクといった装着品(外部の遮蔽物)を検出し(ステップS24)、装着品(外部の遮蔽物)が検出されたか否かを判定する(ステップS25)。ここで、装着品(外部の遮蔽物)が検出されたと判定されると(ステップS25;YES)、遮蔽物テーブルST(図9(a))を参照して、装着品(外部の遮蔽物)の種類に応じてプライバシー度の算出用のポイントを評価して決定する(ステップS26)。一方、装着品(外部の遮蔽物)が検出されなかったと判定されると(ステップS25;NO)、ステップS26の処理をスキップする。   On the other hand, if it is determined in step S22 that a face area has been detected (step S22; YES), the first calculation unit 6c starts wearing items such as sunglasses and a mask from the face area detected from the frame image to be processed ( An external shield) is detected (step S24), and it is determined whether or not a mounted product (external shield) is detected (step S25). Here, when it is determined that the wearing product (external shielding object) is detected (step S25; YES), the wearing product (external shielding object) is referred to with reference to the shielding object table ST (FIG. 9A). The point for calculating the privacy level is evaluated and determined in accordance with the type (step S26). On the other hand, if it is determined that the mounted product (external shielding object) is not detected (step S25; NO), the process of step S26 is skipped.

次に、第1算出部6cは、処理対象のフレーム画像から検出された顔領域のうちの肌色領域の色を測定するとともに、第1算出部6cは、メモリ2から基準顔画像Fを取得し、当該基準顔画像Fについても、顔領域のうちの肌色領域の色を測定し、測定した各々の肌色の差を算出する肌の色検出処理を行う(ステップS27)。そして、算出した肌色の差が所定の値以上である通常とは異なる肌色が検出されたか否かを判定する(ステップS28)ここで、通常とは異なる肌色が検出されたと判定されると(ステップS28;YES)、肌の色(算出した肌色の差)に応じたプライバシー度の算出用のポイントを評価して決定する(ステップS29)。一方、通常とは異なる肌色が検出されなかったと判定されると(ステップS28;NO)、ステップS29の処理をスキップする。   Next, the first calculation unit 6c measures the color of the skin color area of the face area detected from the frame image to be processed, and the first calculation unit 6c acquires the reference face image F from the memory 2. Also for the reference face image F, the skin color detection process is performed to measure the color of the skin color area of the face area and calculate the difference between the measured skin colors (step S27). Then, it is determined whether or not a skin color different from the normal color having a calculated skin color difference equal to or greater than a predetermined value is detected (step S28). If it is determined that a skin color different from the normal color is detected (step S28) S28; YES), the point for calculating the privacy according to the skin color (difference in the calculated skin color) is evaluated and determined (step S29). On the other hand, if it is determined that a skin color different from normal is not detected (step S28; NO), the process of step S29 is skipped.

次に、第1算出部6cは、処理対象のフレーム画像から検出された顔領域を構成する画素数を顔の大きさとして特定する(ステップS30)。また、第1算出部6cは、メモリ2から基準顔画像Fを取得し、当該基準顔画像Fについても、人物の顔の顔領域を構成する画素数を特定する。
そして、第1算出部6cは、顔領域を構成する画素数の変化から、基準状態に対するフレーム画像に含まれる人物の顔の大きさの変化を特定し、特定された顔の大きさの変化に応じてプライバシー度の算出用のポイントを評価して決定する(ステップS31)。
Next, the first calculation unit 6c specifies the number of pixels constituting the face area detected from the frame image to be processed as the face size (step S30). Further, the first calculation unit 6c acquires the reference face image F from the memory 2, and also specifies the number of pixels constituting the face area of the person's face for the reference face image F.
Then, the first calculation unit 6c identifies a change in the size of the face of the person included in the frame image with respect to the reference state from the change in the number of pixels constituting the face area, and changes the size of the specified face. Accordingly, the point for calculating the privacy level is evaluated and determined (step S31).

次に、第1算出部6cは、基準顔画像Fに含まれる人物の顔領域に対応する顔検出枠の形状と、新たなフレーム画像に含まれる人物の顔領域に対応する顔検出枠の形状とを比較して、顔検出枠の形状の変化から人物の顔の回転の中心軸及び回転角度を算出する(ステップS32)。
そして、第1算出部6cは、処理対象のフレーム画像から検出された人物の顔の向きが正面であるか否かを判定する(ステップS33)。
Next, the first calculation unit 6c determines the shape of the face detection frame corresponding to the face area of the person included in the reference face image F and the shape of the face detection frame corresponding to the face area of the person included in the new frame image. And the rotation center axis and rotation angle of the human face are calculated from the change in the shape of the face detection frame (step S32).
Then, the first calculation unit 6c determines whether or not the face direction of the person detected from the processing target frame image is the front (step S33).

ステップS33にて、顔の向きが正面でないと判定されると(ステップS33;NO)、第1算出部6cは、基準状態に対する人物の顔の所定の軸を中心とする回転角度の変化量或いは変化率を特定し、特定された顔の回転角度の変化に応じてプライバシー度の算出用のポイントを評価して決定する(ステップS34)。
一方、ステップS33にて、顔の向きが正面であると判定されると(ステップS33;YES)、第1算出部6cは、ステップS34の処理をスキップする。
If it is determined in step S33 that the face orientation is not front (step S33; NO), the first calculation unit 6c changes the rotation angle change amount around a predetermined axis of the person's face relative to the reference state or The rate of change is specified, and the point for calculating the privacy level is evaluated and determined according to the change in the specified rotation angle of the face (step S34).
On the other hand, if it is determined in step S33 that the face direction is the front (step S33; YES), the first calculation unit 6c skips the process of step S34.

図4に移り、検出処理部6bは、処理対象となるフレーム画像における、顔検出処理にて検出された顔領域内から目や口等の顔の構成部位を検出する(ステップS35)。また、検出処理部6bは、基準顔画像Fについても、顔領域内から目や口等の顔の構成部位を検出する。
そして、第1算出部6cは、顔の構成部位の数の変化、すなわち、基準状態に対する人物の顔の構成部位が隠されている比率の変化に応じてプライバシー度の算出用のポイントを評価して決定する(ステップS36)。
Moving to FIG. 4, the detection processing unit 6 b detects the constituent parts of the face such as eyes and mouth from the face area detected by the face detection process in the frame image to be processed (step S <b> 35). The detection processing unit 6b also detects constituent parts of the face such as eyes and mouth from the face area for the reference face image F.
Then, the first calculation unit 6c evaluates the points for calculating the privacy degree according to the change in the number of the constituent parts of the face, that is, the change in the ratio of the constituent parts of the person's face with respect to the reference state. (Step S36).

次に、検出処理部6bは、処理対象となるフレーム画像から目が検出されたか否かを判定する(ステップS37)。
ここで、目が検出されたと判定されると(ステップS37;YES)、検出処理部6bは、処理対象となるフレーム画像に対して視線検出処理を行い(ステップS38)、被写体である人物の視線が正面であるか否かを判定する(ステップS39)。
Next, the detection processing unit 6b determines whether eyes are detected from the frame image to be processed (step S37).
If it is determined that eyes are detected (step S37; YES), the detection processing unit 6b performs a line-of-sight detection process on the frame image to be processed (step S38), and the line of sight of the person who is the subject is detected. Is determined to be front (step S39).

ステップS39にて、視線が正面でないと判定されると(ステップS39;NO)、第1算出部6cは、基準状態に対する被写体である人物の視線の変化を特定し、特定された人物の視線の変化に応じてプライバシー度の算出用のポイントを評価して決定する(ステップS40)。
一方、ステップS39にて、視線が正面であると判定されると(ステップS39;YES)、第1算出部6cは、ステップS40の処理をスキップする。
また、ステップS37にて、目が検出されていないと判定された場合には(ステップS37;NO)、ステップS38〜S40の各処理をスキップする。
If it is determined in step S39 that the line of sight is not the front (step S39; NO), the first calculation unit 6c identifies a change in the line of sight of the person who is the subject relative to the reference state, and the line of sight of the identified person is determined. The points for calculating the privacy level are evaluated and determined according to the change (step S40).
On the other hand, if it determines with a line of sight being a front in step S39 (step S39; YES), the 1st calculation part 6c will skip the process of step S40.
If it is determined in step S37 that no eyes have been detected (step S37; NO), the processes in steps S38 to S40 are skipped.

そして、第1算出部6cは、ステップS26における装着品に応じたポイント評価の結果、ステップS29における肌の色に応じたポイント評価の結果、ステップS31における顔の大きさの変化に応じたポイント評価の結果、ステップS34における顔の回転角度の変化に応じたポイント評価の結果、ステップS36における顔の構成部位が隠されている比率の変化に応じたポイント評価の結果、ステップS40における人物の視線の変化に応じたポイント評価の結果に基づいて、所定の換算式を用いてプライバシー度を算出する(ステップS41)。すなわち、第1算出部6cは、基準状態からの人物の変化が相対的に小さいフレーム画像ほどプライバシー度が相対的に低くなり、また、基準状態からの人物の変化が相対的に大きいフレーム画像ほどプライバシー度が相対的に高くなるように、プライバシー度を算出する。
なお、プライバシー度の算出用の換算式は、全ての評価項目を総合的に評価してプライバシー度を算出するためのものであるが、例えば、優先すべき評価項目(例えば、顔の向き等)を指定可能とし、当該評価項目についてのポイント評価がされなかった場合に、他の評価項目についてのポイント評価の結果からプライバシー度を算出するようにしても良い。
これにより、プライバシー度算出処理を終了する。
And the 1st calculation part 6c is a point evaluation according to the change of the size of the face in step S31 as a result of the point evaluation according to the color of the skin in step S29 as a result of the point evaluation according to the wearing goods in step S26. As a result of the point evaluation according to the change in the rotation angle of the face in step S34, as a result of the point evaluation according to the change in the ratio in which the constituent parts of the face are hidden in step S36, the line of sight of the person in step S40 Based on the result of the point evaluation according to the change, the privacy level is calculated using a predetermined conversion formula (step S41). That is, the first calculation unit 6c has a relatively low privacy level for a frame image with a relatively small change in the person from the reference state, and a frame image with a relatively large change in the person from the reference state. The privacy level is calculated so that the privacy level is relatively high.
Note that the conversion formula for calculating the privacy level is used to calculate the privacy level by comprehensively evaluating all the evaluation items. For example, the evaluation item to be prioritized (for example, the orientation of the face) May be specified, and when the point evaluation for the evaluation item is not performed, the privacy level may be calculated from the result of the point evaluation for the other evaluation items.
Thus, the privacy level calculation process is terminated.

<手動撮影処理>
次に、画像処理装置100による手動撮影処理について、図5を参照して説明する。
図5は、手動撮影処理に係る動作の一例を示すフローチャートである。
<Manual shooting process>
Next, manual photographing processing by the image processing apparatus 100 will be described with reference to FIG.
FIG. 5 is a flowchart illustrating an example of an operation related to manual imaging processing.

図5に示すように、撮像部3による被写体のライブビュー画像の撮像が開始されると、信号処理部4は、電子撮像部3bから転送されたライブビュー画像に係るフレーム画像のアナログ値の信号に対して各種の画像信号処理を施し、デジタル値の画像データを生成する(ステップS13)。また、信号処理部4は、生成された画像データをメモリ2に出力し、メモリ2は、入力された画像データを一時的に格納する。   As shown in FIG. 5, when imaging of the live view image of the subject by the imaging unit 3 is started, the signal processing unit 4 outputs an analog value signal of the frame image related to the live view image transferred from the electronic imaging unit 3b. Are subjected to various image signal processing to generate digital image data (step S13). The signal processing unit 4 outputs the generated image data to the memory 2, and the memory 2 temporarily stores the input image data.

次に、中央制御部1は、操作入力部11のシャッタボタンの押下操作による撮影指示(撮影指示操作)が行われたか否かを判定する(ステップS14)。
撮影指示操作が行われたと判定されると(ステップS14;YES)、撮影制御部6eは、撮像部3を制御して被写体の記録用の画像を撮影させる(ステップS15)。具体的には、例えば、撮影制御部6eは、撮像部3により被写体を撮像させ、信号処理部4により画像データを生成させる。そして、画像処理部7は、信号処理部4により生成された画像データを所定の圧縮形式(例えば、JPEG形式等)で符号化して記録用の画像の画像データを生成する。
Next, the central control unit 1 determines whether or not an imaging instruction (imaging instruction operation) by pressing the shutter button of the operation input unit 11 has been performed (step S14).
If it is determined that the shooting instruction operation has been performed (step S14; YES), the shooting control unit 6e controls the imaging unit 3 to shoot an image for recording the subject (step S15). Specifically, for example, the imaging control unit 6e causes the imaging unit 3 to image a subject and causes the signal processing unit 4 to generate image data. Then, the image processing unit 7 encodes the image data generated by the signal processing unit 4 in a predetermined compression format (for example, JPEG format) and generates image data of an image for recording.

続いて、動作制御部6の第1画像取得部6aは、メモリ2から一時的に格納されているライブビュー画像に係るフレーム画像の画像データを読み出して取得し(ステップS16)、動作制御部6は、上述したプライバシー度算出処理(図3及び図4参照)を行う(ステップ17)。   Subsequently, the first image acquisition unit 6a of the operation control unit 6 reads out and acquires the image data of the frame image related to the live view image temporarily stored from the memory 2 (step S16), and the operation control unit 6 Performs the above-described privacy level calculation processing (see FIGS. 3 and 4) (step 17).

その後、画像記録部8は、画像処理部7から記録用の画像をプライバシー画像Pとして取得するとともに、プライバシー度算出処理にて算出されたプライバシー度を取得し、プライバシー画像Pの画像データにプライバシー度をExif情報として対応付けて記録する(ステップS18)。
これにより、手動撮影処理を終了する。
Thereafter, the image recording unit 8 acquires the recording image from the image processing unit 7 as the privacy image P, acquires the privacy level calculated in the privacy level calculation process, and adds the privacy level to the image data of the privacy image P. Is associated and recorded as Exif information (step S18).
Thus, the manual photographing process is finished.

以上のように、実施形態1の画像処理装置100によれば、画像の種類の一である撮像部3により撮像されるフレーム画像に含まれる人物の顔が特定の人物の顔であると識別することの困難さの度合いを示すプライバシー度が所定の条件を満たすか否かを判定するための一として、プライバシー度を算出し、算出されるプライバシー度が所定の判定値よりも高いと判定された場合に、画像に係る所定の処理を実行する制御の一として、撮像部3を制御して記録用の画像(プライバシー画像P)を撮影させるので、例えば、公開や記録の対象となる画像についてモザイク処理やマスク処理等の画像処理等を不要とし、局所的にモザイクやマスクが施されることによって見栄えを悪化させることなく、所望のプライバシー度に応じたより自然なプライバシー画像Pを取得することができる。
そして、プライバシー度を基準として撮影された記録用の画像(プライバシー画像P)を記録サーバS等の所定の外部装置に送信することで、当該画像をWebページ上にコンテンツとして公開することができる。
As described above, according to the image processing apparatus 100 of the first embodiment, the face of a person included in the frame image captured by the imaging unit 3 that is one type of image is identified as the face of a specific person. As a measure for determining whether or not the privacy level indicating the degree of difficulty satisfies the predetermined condition, the privacy level is calculated, and the calculated privacy level is determined to be higher than the predetermined determination value. In this case, as one of the controls for executing the predetermined processing relating to the image, the image pickup unit 3 is controlled so that a recording image (privacy image P) is captured. It eliminates the need for image processing such as processing and mask processing, and does not deteriorate the appearance by applying a mosaic or mask locally, so that a more natural process according to the desired privacy level is achieved. It can be acquired Ibashi image P.
Then, by sending a recording image (privacy image P) photographed on the basis of the privacy level to a predetermined external device such as the recording server S, it is possible to publish the image on the Web page as content.

また、撮像部3により逐次撮像されるフレーム画像毎にプライバシー度を逐次算出し、逐次算出されるプライバシー度が所定の判定値よりも高いか否かの判定結果に基づいて、プライバシー度が所定の判定値以下である状態から所定の判定値よりも高い状態に変化したことを契機として、記録用の画像を撮影させるので、例えば、ライブビュー画像の撮像中に、ユーザ自身がプライバシー度を変化させるような動作を行って、各フレーム画像のプライバシー度を調整しつつ、プライバシー度が所定の判定値よりも高い状態に移行することで、所望のプライバシー度に応じた画像を取得することができる。   Further, the privacy level is sequentially calculated for each frame image sequentially captured by the imaging unit 3, and the privacy level is determined based on the determination result of whether the sequentially calculated privacy level is higher than a predetermined determination value. Since the image for recording is taken when triggered by a change from a state equal to or lower than the determination value to a state higher than the predetermined determination value, for example, the user himself changes the privacy level while capturing a live view image. By performing such an operation and adjusting the privacy level of each frame image, the privacy level is shifted to a state higher than a predetermined determination value, whereby an image corresponding to the desired privacy level can be acquired.

また、フレーム画像に含まれる人物の顔が特定の人物の顔であると識別可能な基準状態(例えば、人物の顔を検出可能で、且つ、当該人物の顔及び視線が所定方向である状態等)からの、人物の顔或いは当該人物の顔を構成する部位の相対的な変化に基づいて、プライバシー度を算出することができる。例えば、人物の顔の所定の軸を中心とする回転角度の変化量或いは変化率や、画像処理装置100の人物の顔に対する向きの変化量或いは変化率に基づいて、プライバシー度を算出することができる。つまり、基準状態からの人物の顔或いは当該人物の顔を構成する部位の相対的な変化を利用することで、例えば、プライバシー度毎に顔の回転角度を予め定めておき、定められた角度に顔を回転させたり、画像処理装置100の向きを調整する必要がなくなり、使い勝手を向上させることができるとともに、プライバシー度を基準として取得されるプライバシー画像Pの表現態様を多彩なものとすることができる。
さらに、フレーム画像における人物の顔或いは当該人物の顔を構成する部位が隠されている比率の変化に基づいて、プライバシー度を算出したり、フレーム画像に含まれる人物の顔の大きさ或いは人物の顔までの撮像距離の変化に基づいて、プライバシー度を算出したり、人物の顔或いは当該顔の構成部位を隠す外部の遮蔽物の変化に基づいて、プライバシー度を算出したり、人物の顔の色の変化に基づいて、プライバシー度を算出したりするので、プライバシー度の算出の基準を多くして、プライバシー度を基準として取得されるプライバシー画像Pの表現態様をより多彩なものとすることができる。
In addition, a reference state in which a person's face included in the frame image can be identified as a specific person's face (for example, a person's face can be detected and the person's face and line of sight are in a predetermined direction, etc. The degree of privacy can be calculated based on the relative change of the face of the person or the part constituting the face of the person. For example, the privacy level can be calculated based on the amount or rate of change of the rotation angle around a predetermined axis of the person's face, or the amount of change or rate of change of the orientation of the image processing apparatus 100 with respect to the person's face. it can. In other words, by using the relative change of the person's face from the reference state or the part constituting the person's face, for example, the rotation angle of the face is determined in advance for each privacy degree, It is no longer necessary to rotate the face or adjust the orientation of the image processing apparatus 100, so that the usability can be improved and the expression form of the privacy image P acquired based on the privacy level can be varied. it can.
Furthermore, the privacy level is calculated based on the change in the ratio of the face of the person in the frame image or the part constituting the person's face being hidden, the size of the person's face included in the frame image, or the person's face The privacy level is calculated based on the change in the imaging distance to the face, the privacy level is calculated based on the change in the external shield that hides the face of the person or the face, or the human face Since the privacy level is calculated based on the color change, the privacy level calculation criteria may be increased, and the expression mode of the privacy image P acquired based on the privacy level may be made more diverse. it can.

また、プライバシー画像Pとプライバシー度とを対応付けて記録しておくことで、プライバシー画像Pを対応付けられているプライバシー度を基準とする分類或いは順序で、表示パネル9bに表示させることができ、プライバシー画像Pが複数記録されている場合にも、ユーザ所望のプライバシー画像Pの選択を簡便に行うことができることとなって、使い勝手を向上させることができる。   Further, by recording the privacy image P and the privacy level in association with each other, the privacy image P can be displayed on the display panel 9b in the classification or order based on the associated privacy level. Even when a plurality of privacy images P are recorded, the user-desired privacy image P can be easily selected, and usability can be improved.

また、手動撮影処理において、フレーム画像に含まれる人物の顔が特定の人物の顔であると識別することの困難さの度合いを示すプライバシー度を算出し、算出されるプライバシー度を使用して、画像に係る所定の処理を実行する制御の一として、ユーザによる撮影指示に応じて記録画像として撮影された画像に対応付けて記録する制御を行うので、記録画像を呼び出して表示する際に、対応付けられているプライバシー度を合わせて表示したり、外部装置にプライバシー度が対応付けられている記録画像を出力したりすることが可能となる。そして、プライバシー度が所定の条件を満たすか否かを判定するための一として、ユーザ或いは外部装置が、表示或いは出力された記録画像に対応付けられているプライバシー度を参照して、そのプライバシー度が所定の判定値よりも高いと判定された場合に、公開の対象とするか否かを判断したり、公開の処理を行ったりすることができる。
また、画像に係る所定の処理を実行する制御の一として、ユーザによる撮影指示に応じて撮影された画像を所定時間表示するレビュー表示中に、算出されたプライバシー度を合わせて表示することで、ユーザが公開や記録の対象とするか否かを判断して、レビュー表示中の所定の操作に応じて、撮影された画像を公開や記録の処理を実行させることが可能となる。
Further, in the manual shooting process, a privacy level indicating a degree of difficulty of identifying that the face of the person included in the frame image is a specific person's face is calculated, and the calculated privacy level is used. As one of the controls for executing the predetermined processing relating to the image, since the control is performed to record the image in association with the image captured as the recorded image in accordance with the imaging instruction from the user, it is possible to respond when the recorded image is called up and displayed. It is possible to display the attached privacy level together and output a recorded image in which the privacy level is associated with the external device. Then, as one of determining whether or not the privacy level satisfies a predetermined condition, the user or the external device refers to the privacy level associated with the displayed or output recorded image, and the privacy level When it is determined that is higher than a predetermined determination value, it can be determined whether or not to be a disclosure target, or a disclosure process can be performed.
Further, as one of the controls for executing the predetermined processing relating to the image, by displaying the calculated privacy degree together with the calculated display during the review display for displaying the image captured according to the photographing instruction by the user for a predetermined time, It is possible to determine whether or not the user is to publish or record, and to publish or record the captured image according to a predetermined operation during review display.

なお、上記実施形態にあっては、プライバシー度の判定値を自動的に設定しても良い。
以下に、画像処理装置100による判定値設定処理について、図11を参照して説明する。
図11は、判定値設定処理に係る動作の一例を示すフローチャートである。
In the embodiment described above, the determination value of the privacy level may be automatically set.
The determination value setting process performed by the image processing apparatus 100 will be described below with reference to FIG.
FIG. 11 is a flowchart illustrating an example of an operation related to the determination value setting process.

判定値設定処理は、上記した自動撮影処理の前に行われる処理であり、当該自動撮影処理にて用いられる判定値を設定するモードが選択されている状態で行われるものとする。   The determination value setting process is a process performed before the above-described automatic photographing process, and is performed in a state where a mode for setting a determination value used in the automatic photographing process is selected.

図11に示すように、撮像部3による被写体のライブビュー画像の撮像が開始されると、信号処理部4は、電子撮像部3bから転送されたライブビュー画像に係るフレーム画像のアナログ値の信号に対して各種の画像信号処理を施し、デジタル値の画像データを生成する(ステップS51)。また、信号処理部4は、生成された画像データをメモリ2に出力し、メモリ2は、入力された画像データを一時的に格納する。
動作制御部6の第1画像取得部6aは、メモリ2からライブビュー画像に係るフレーム画像の画像データを読み出して取得する(ステップS52)。
As shown in FIG. 11, when imaging of a live view image of a subject by the imaging unit 3 is started, the signal processing unit 4 outputs a signal of an analog value of a frame image related to the live view image transferred from the electronic imaging unit 3b. Are subjected to various image signal processing to generate digital image data (step S51). The signal processing unit 4 outputs the generated image data to the memory 2, and the memory 2 temporarily stores the input image data.
The first image acquisition unit 6a of the operation control unit 6 reads out and acquires the image data of the frame image related to the live view image from the memory 2 (step S52).

次に、検出処理部6bは、第1画像取得部6aにより取得されたフレーム画像に対して、顔検出処理を行って被写体である人物の顔が含まれる顔領域を検出するとともに、視線検出処理を行って被写体である人物の視線を検出する(ステップS53)。
続けて、第1算出部6cは、検出処理部6bによる顔検出処理及び視線検出処理の結果に基づいて、人物の顔を検出可能で、且つ、当該人物の顔及び視線が正面方向である基準状態が特定されたか否かを判定する(ステップS54)。
Next, the detection processing unit 6b performs face detection processing on the frame image acquired by the first image acquisition unit 6a to detect a face area including the face of the person who is the subject, and also detects line-of-sight detection processing. And the line of sight of the person who is the subject is detected (step S53).
Subsequently, the first calculation unit 6c is capable of detecting a person's face based on the results of the face detection process and the line-of-sight detection process by the detection processing unit 6b, and a reference in which the person's face and line of sight are in the front direction. It is determined whether or not the state has been specified (step S54).

ステップS54にて、基準状態が特定されていないと判定されると(ステップS54;NO)、第1画像取得部6aは、メモリ2からライブビュー画像に係る新たなフレーム画像の画像データを読み出して取得し(ステップS55)、処理をステップS53に戻す。そして、ステップS53にて、検出処理部6bは、上記と略同様に、第1画像取得部6aにより取得された新たなフレーム画像に対して、顔検出処理及び視線検出処理を行う(ステップS53)。
一方、ステップS54にて、基準状態が特定されたと判定されると(ステップS54;YES)、第1画像取得部6aは、メモリ2からライブビュー画像に係る新たなフレーム画像の画像データを読み出して取得し(ステップS56)、動作制御部6は、当該新たなフレーム画像のプライバシー度を算出するプライバシー度算出処理(図3及び図4参照)を行う(ステップS57)。なお、基準状態のフレーム画像(基準顔画像F)の画像データは、メモリ2に一時的に格納されても良い。
If it is determined in step S54 that the reference state is not specified (step S54; NO), the first image acquisition unit 6a reads out image data of a new frame image related to the live view image from the memory 2. Obtain (step S55), and the process returns to step S53. In step S53, the detection processing unit 6b performs face detection processing and line-of-sight detection processing on the new frame image acquired by the first image acquisition unit 6a in substantially the same manner as described above (step S53). .
On the other hand, when it is determined in step S54 that the reference state has been specified (step S54; YES), the first image acquisition unit 6a reads the image data of the new frame image related to the live view image from the memory 2. Obtaining (step S56), the operation control unit 6 performs a privacy level calculation process (see FIGS. 3 and 4) for calculating the privacy level of the new frame image (step S57). Note that the image data of the frame image in the reference state (reference face image F) may be temporarily stored in the memory 2.

そして、動作制御部6は、プライバシー度算出処理にて算出されたプライバシー度を、自動撮影処理にてプライバシー度の判定に用いられる判定値とするか否かを判定する(ステップS58)。具体的には、例えば、表示制御部9aは、プライバシー度算出処理にて算出されたプライバシー度の確認用画面(図示略)を表示パネル9bに表示させる。そして、ユーザによるプライバシー度の確認後、操作入力部11の所定操作に基づいて、算出されたプライバシー度を判定値として用いる指示が入力されたか否かに応じて、動作制御部6は、算出されたプライバシー度を判定値とするか否かを判定する。
ここで、算出されたプライバシー度を判定値としないと判定されると(ステップS58;NO)、動作制御部6は、処理をステップS56に戻し、それ以降の各処理を実行する。すなわち、ステップS56にて、第1画像取得部6aは、新たなフレーム画像の画像データを取得し、ステップS57にて、プライバシー度算出処理を行う。
一方、ステップS58にて、算出されたプライバシー度を判定値とすると判定されると(ステップS58;YES)、動作制御部6は、算出されたプライバシー度を判定値として設定する(ステップS59)。具体的には、動作制御部6の第1算出部6cは、算出されたプライバシー度をメモリ2に出力し、メモリ2は、入力されたプライバシー度を判定値として一時的に格納する。
これにより、判定値設定処理を終了する。
Then, the operation control unit 6 determines whether or not the privacy level calculated in the privacy level calculation process is set as a determination value used for determining the privacy level in the automatic shooting process (step S58). Specifically, for example, the display control unit 9a causes the display panel 9b to display a confirmation screen (not shown) for the privacy level calculated in the privacy level calculation process. Then, after confirming the privacy level by the user, the operation control unit 6 is calculated based on whether or not an instruction using the calculated privacy level as a determination value is input based on a predetermined operation of the operation input unit 11. It is determined whether or not the privacy level is used as a determination value.
If it is determined that the calculated privacy level is not used as the determination value (step S58; NO), the operation control unit 6 returns the process to step S56, and executes the subsequent processes. That is, in step S56, the first image acquisition unit 6a acquires image data of a new frame image, and performs privacy level calculation processing in step S57.
On the other hand, when it is determined in step S58 that the calculated privacy level is set as the determination value (step S58; YES), the operation control unit 6 sets the calculated privacy level as the determination value (step S59). Specifically, the first calculation unit 6c of the operation control unit 6 outputs the calculated privacy level to the memory 2, and the memory 2 temporarily stores the input privacy level as a determination value.
Thereby, the determination value setting process is terminated.

[実施形態2]
以下に、実施形態2の画像処理装置200について図12を参照して説明する。
図12は、本発明を適用した実施形態2の画像処理装置200の概略構成を示すブロック図である。
[Embodiment 2]
The image processing apparatus 200 according to the second embodiment will be described below with reference to FIG.
FIG. 12 is a block diagram showing a schematic configuration of an image processing apparatus 200 according to the second embodiment to which the present invention is applied.

図12に示すように、本実施形態の画像処理装置200は、中央制御部1と、メモリ2と、動作制御部206と、画像処理部7と、画像記録部8と、表示部9と、通信制御部10と、操作入力部11とを備えている。
また、中央制御部1、メモリ2、動作制御部206、画像処理部7、画像記録部8、表示部9及び通信制御部10は、バスライン12を介して接続されている。
As shown in FIG. 12, the image processing apparatus 200 according to the present embodiment includes a central control unit 1, a memory 2, an operation control unit 206, an image processing unit 7, an image recording unit 8, a display unit 9, A communication control unit 10 and an operation input unit 11 are provided.
The central control unit 1, the memory 2, the operation control unit 206, the image processing unit 7, the image recording unit 8, the display unit 9, and the communication control unit 10 are connected via a bus line 12.

なお、実施形態2の画像処理装置200は、以下に詳細に説明する以外の点は、上記実施形態1の画像処理装置100と略同様の構成であり、詳細な説明は省略する。   The image processing apparatus 200 according to the second embodiment has substantially the same configuration as that of the image processing apparatus 100 according to the first embodiment, except for those described in detail below, and detailed description thereof is omitted.

動作制御部206は、第2画像取得部206aと、検出処理部6bと、第2算出部206cと、第2判定部206dと、取得制御部206fとを具備している。   The operation control unit 206 includes a second image acquisition unit 206a, a detection processing unit 6b, a second calculation unit 206c, a second determination unit 206d, and an acquisition control unit 206f.

第2画像取得部206aは、画像記録部8から記録画像を取得する。
具体的には、第2画像取得部206aは、画像取得処理(後述)の処理対象として、例えば、画像記録部8に記録されている記録画像を取得する。なお、画像記録部8に複数の記録画像が記録されている場合には、例えば、全ての記録画像を画像取得処理の処理対象としても良いし、ユーザによる操作入力部11の所定操作に基づいて指定された記録画像のみを画像取得処理の処理対象としても良い。
The second image acquisition unit 206 a acquires a recorded image from the image recording unit 8.
Specifically, the second image acquisition unit 206a acquires, for example, a recorded image recorded in the image recording unit 8 as a processing target of an image acquisition process (described later). Note that when a plurality of recorded images are recorded in the image recording unit 8, for example, all the recorded images may be processed in the image acquisition process, or based on a predetermined operation of the operation input unit 11 by the user. Only the designated recorded image may be the processing target of the image acquisition process.

第2算出部(算出手段)206cは、プライバシー度を算出する。
すなわち、第2算出部206cは、第2画像取得部206aにより取得された記録画像に対する検出処理部6bによる検出結果に基づいて、記録画像に含まれる人物の顔が特定の人物の顔であると識別可能な状態、例えば、人物の顔を検出可能で、且つ、当該人物の顔及び視線が正面方向(所定方向)である状態を仮想的な基準状態として設定する。そして、第2算出部206cは、当該仮想的な基準状態からの、人物の顔全体や当該顔の構成部位の相対的な変化を特定して、プライバシー度を算出する。
つまり、第2算出部206cは、第2画像取得部206aにより取得された記録画像について、人物の顔が正面を向き、視線が正面である状態を仮定して、仮想的な基準状態として設定する。そして、第2算出部206cは、設定された仮想的な基準状態に対する、記録画像から検出された人物の顔全体や当該顔の構成部位の所定の軸(例えば、ヨー軸やピッチ軸;図6参照)を中心とする回転角度の仮想的な変化を特定する。また、第2算出部206cは、設定された仮想的な基準状態に対する、記録画像から検出された人物の視線の仮想的な変化を特定する。
そして、第2算出部206cは、特定された仮想的な基準状態に対する人物の顔の所定の軸を中心とする回転角度の仮想的な変化、仮想的な基準状態に対する被写体である人物の視線の仮想的な変化に基づいて、プライバシー度を算出する。
The second calculation unit (calculation unit) 206c calculates the privacy level.
In other words, the second calculation unit 206c determines that the face of the person included in the recorded image is the face of a specific person based on the detection result of the detection processing unit 6b on the recorded image acquired by the second image acquisition unit 206a. An identifiable state, for example, a state in which a person's face can be detected and the person's face and line of sight are in the front direction (predetermined direction) is set as a virtual reference state. Then, the second calculation unit 206c specifies the relative change in the entire face of the person and the constituent parts of the face from the virtual reference state, and calculates the privacy level.
That is, the second calculation unit 206c sets a virtual reference state for the recorded image acquired by the second image acquisition unit 206a, assuming that the person's face is facing the front and the line of sight is the front. . Then, the second calculation unit 206c performs a predetermined axis (for example, a yaw axis or a pitch axis; for example, the entire face of the person detected from the recorded image or a constituent part of the face with respect to the set virtual reference state; FIG. The virtual change of the rotation angle centered on (see) is specified. In addition, the second calculation unit 206c specifies a virtual change in the line of sight of the person detected from the recorded image with respect to the set virtual reference state.
The second calculation unit 206c then virtually changes the rotation angle around the predetermined axis of the person's face with respect to the specified virtual reference state, and the line of sight of the person who is the subject with respect to the virtual reference state. The privacy level is calculated based on the virtual change.

また、第2算出部206cは、人物の顔或いは当該人物の顔を構成する部位が隠されている比率に基づいて、プライバシー度を算出する。
すなわち、第2算出部206cは、第2画像取得部206aにより取得された記録画像から検出された人物の顔の構成部位(例えば、目や口等)の数を特定する。そして、第2算出部206cは、例えば、被写体である人物が自身の手や髪、或いは、外部の遮蔽物(例えば、サングラスやマスク等)等により顔全体や顔の構成部位(例えば、目や口等)を隠す動作を行わなければ特定されるであろう顔の構成部位の数(例えば、両目と口の場合、「3」)に対する、人物の顔の構成部位が隠されている比率に基づいて、プライバシー度を算出する。
Further, the second calculation unit 206c calculates the privacy level based on the ratio of the face of the person or the part constituting the person's face being hidden.
In other words, the second calculation unit 206c specifies the number of constituent parts (for example, eyes and mouths) of the person's face detected from the recorded image acquired by the second image acquisition unit 206a. Then, the second calculation unit 206c, for example, the person who is the subject uses his / her hands and hair, or an external shield (for example, sunglasses and mask), etc. The ratio of the constituent parts of the human face to the number of the constituent parts of the face that would be specified if the operation of hiding the mouth or the like is not performed (for example, “3” in the case of both eyes and mouth) Based on this, the privacy level is calculated.

また、第2算出部206cは、記録画像に含まれる人物の顔の大きさ或いは人物の顔までの撮像距離に基づいて、プライバシー度を算出する。
すなわち、第2算出部206cは、例えば、第2画像取得部206aにより取得された記録画像から検出された人物の顔が含まれる顔領域を構成する画素数を記録画像に含まれる人物の顔の大きさとして特定する。そして、第2算出部206cは、特定された記録画像に含まれる人物の顔の大きさに基づいて、プライバシー度を算出する。また、第2算出部206cは、例えば、記録画像の画像データと対応付けられているExif情報から撮像部3の焦点距離等を取得し、人物の顔までの撮像距離に換算して、プライバシー度を算出する。
Further, the second calculation unit 206c calculates the privacy level based on the size of the person's face included in the recorded image or the imaging distance to the person's face.
That is, for example, the second calculation unit 206c calculates the number of pixels constituting the face area including the face of the person detected from the recorded image acquired by the second image acquisition unit 206a of the face of the person included in the recorded image. Specify as size. Then, the second calculation unit 206c calculates the privacy level based on the size of the person's face included in the specified recorded image. Also, the second calculation unit 206c acquires, for example, the focal length of the imaging unit 3 from the Exif information associated with the image data of the recorded image, converts it to the imaging distance to the person's face, and the privacy level. Is calculated.

また、第2算出部206cは、基準状態に対する外部の遮蔽物の変化に基づいて、プライバシー度を算出する。
すなわち、第2算出部206cは、基準顔画像Fから検出された外部の遮蔽物と、第2画像取得部206aにより取得された記録画像から検出された外部の遮蔽物の種類とを比較して、基準状態に対する外部の遮蔽物の変化を特定する。そして、第2算出部206cは、特定された基準状態に対する外部の遮蔽物の変化に基づいて、プライバシー度を算出する。
なお、第2算出部206cによる基準状態に対する外部の遮蔽物の変化に基づくプライバシー度の算出の具体的な手法は、上記実施形態1の第1算出部6cによる手法と略同様であり、ここでは詳細な説明は省略する。
In addition, the second calculation unit 206c calculates the privacy level based on a change in the external shielding object with respect to the reference state.
That is, the second calculation unit 206c compares the external shielding object detected from the reference face image F with the type of the external shielding object detected from the recorded image acquired by the second image acquisition unit 206a. Identify external shield changes relative to reference conditions. And the 2nd calculation part 206c calculates a privacy degree based on the change of the external shielding object with respect to the specified reference | standard state.
Note that the specific method of calculating the privacy level based on the change of the external shield with respect to the reference state by the second calculation unit 206c is substantially the same as the method by the first calculation unit 6c of the first embodiment, and here, Detailed description is omitted.

また、第2算出部206cは、基準状態に対する人物の顔の色の変化に基づいて、プライバシー度を算出する。
すなわち、第2算出部206cは、基準顔画像Fから検出された人物の顔の色と、第2画像取得部206aにより取得された記録画像から検出された人物の顔の色とを比較して、基準状態に対する人物の顔の色の変化を特定する。そして、第2算出部206cは、特定された基準状態に対する人物の顔の色の変化に基づいて、プライバシー度を算出する。
なお、第2算出部206cによる基準状態に対する人物の顔の色の変化に基づくプライバシー度の算出の具体的な手法は、上記実施形態1の第1算出部6cによる手法と略同様であり、ここでは詳細な説明は省略する。
In addition, the second calculation unit 206c calculates the privacy level based on the change in the face color of the person with respect to the reference state.
That is, the second calculation unit 206c compares the color of the person's face detected from the reference face image F with the color of the person's face detected from the recorded image acquired by the second image acquisition unit 206a. The change in the color of the person's face relative to the reference state is specified. Then, the second calculation unit 206c calculates the privacy level based on the change in the face color of the person with respect to the specified reference state.
The specific method of calculating the privacy level based on the change in the face color of the person with respect to the reference state by the second calculation unit 206c is substantially the same as the method by the first calculation unit 6c of the first embodiment. Then, detailed explanation is omitted.

第2判定部(判定手段)206dは、第2算出部206cにより算出されるプライバシー度が所定の判定値よりも高いか否かを判定する。
すなわち、第2判定部206dは、画像取得処理にて、記録画像について第2算出部206cにより算出されるプライバシー度が判定値よりも高いか否かを判定する。具体的には、第2判定部206dは、メモリ2に格納されている所望のプライバシー度を判定値としてメモリ2から取得し、第2算出部206cにより算出されるプライバシー度が判定値よりも高いか否かを判定する。
The second determination unit (determination unit) 206d determines whether or not the privacy level calculated by the second calculation unit 206c is higher than a predetermined determination value.
That is, the second determination unit 206d determines whether or not the privacy level calculated by the second calculation unit 206c for the recorded image is higher than the determination value in the image acquisition process. Specifically, the second determination unit 206d acquires a desired privacy level stored in the memory 2 as a determination value from the memory 2, and the privacy level calculated by the second calculation unit 206c is higher than the determination value. It is determined whether or not.

取得制御部206fは、所定の処理が実行される画像を取得する。
すなわち、取得制御部206fは、第2判定部206dによりプライバシー度が判定値よりも高いと判定された記録画像を、所定の処理(例えば、送信処理等)が実行されるプライバシー画像Pとして取得する。
The acquisition control unit 206f acquires an image on which a predetermined process is executed.
That is, the acquisition control unit 206f acquires the recorded image whose privacy level is determined to be higher than the determination value by the second determination unit 206d as the privacy image P on which a predetermined process (for example, transmission process) is executed. .

<画像取得処理>
次に、画像処理装置200による画像取得処理について、図13を参照して説明する。
図13は、画像取得処理に係る動作の一例を示すフローチャートである。
<Image acquisition processing>
Next, image acquisition processing by the image processing apparatus 200 will be described with reference to FIG.
FIG. 13 is a flowchart illustrating an example of an operation related to the image acquisition process.

図13に示すように、第2画像取得部206aは、画像記録部8から何れか一の記録画像の画像データを読み出して、当該画像取得処理の処理対象として取得する(ステップS61)。
そして、動作制御部206は、取得された記録画像のプライバシー度を算出するプライバシー度算出処理(図14及び図15参照)を行う(ステップS62;詳細後述)。
As shown in FIG. 13, the second image acquisition unit 206a reads the image data of any one of the recorded images from the image recording unit 8, and acquires it as a processing target of the image acquisition process (step S61).
Then, the operation control unit 206 performs a privacy level calculation process (see FIGS. 14 and 15) for calculating the privacy level of the acquired recorded image (step S62; details will be described later).

そして、動作制御部206の第2判定部206dは、ステップS62のプライバシー度算出処理にて算出されたプライバシー度が判定値よりも高いか否かを判定する(ステップS63)。具体的には、第2判定部206dは、メモリ2から判定値を読み出して取得し、プライバシー度算出処理にて算出されたプライバシー度が判定値よりも高いか否かを判定する。
ここで、プライバシー度が判定値よりも高いと判定されると(ステップS63;YES)、取得制御部206fは、処理対象の記録画像を記録サーバSに送信されるプライバシー画像Pとして取得する(ステップS64)。
Then, the second determination unit 206d of the operation control unit 206 determines whether or not the privacy level calculated in the privacy level calculation process in step S62 is higher than the determination value (step S63). Specifically, the second determination unit 206d reads out and acquires the determination value from the memory 2, and determines whether or not the privacy level calculated in the privacy level calculation process is higher than the determination value.
Here, if it is determined that the privacy level is higher than the determination value (step S63; YES), the acquisition control unit 206f acquires the recording image to be processed as the privacy image P transmitted to the recording server S (step S63). S64).

その後、動作制御部206は、画像記録部8に記録されている全ての記録画像を画像取得処理の処理対象として処理したか否かを判定する(ステップS65)。
また、ステップS63にて、プライバシー度が判定値よりも高くないと判定された場合(ステップS63;NO)、動作制御部206は、ステップS64の処理をスキップして、同様に、全ての記録画像を画像取得処理の処理対象として処理したか否かを判定する。
Thereafter, the operation control unit 206 determines whether or not all the recorded images recorded in the image recording unit 8 have been processed as processing targets of the image acquisition process (step S65).
If it is determined in step S63 that the privacy level is not higher than the determination value (step S63; NO), the operation control unit 206 skips the process in step S64 and similarly records all the recorded images. Is processed as an image acquisition process target.

ステップS65にて、全ての記録画像を画像取得処理の処理対象として処理していないと判定されると(ステップS65;NO)、第2画像取得部206aは、画像記録部8から新たな記録画像の画像データを読み出して、当該画像取得処理の処理対象として取得した後(ステップS66)、処理をステップS62に戻す。そして、ステップS62にて、動作制御部206は、上記と略同様に、取得された新たな記録画像のプライバシー度を算出するプライバシー度算出処理を行う(ステップS62)。   If it is determined in step S65 that all the recorded images have not been processed as image acquisition processing targets (step S65; NO), the second image acquisition unit 206a receives a new recorded image from the image recording unit 8. Is read out and acquired as a processing target of the image acquisition process (step S66), and then the process returns to step S62. In step S62, the operation control unit 206 performs a privacy level calculation process for calculating the privacy level of the acquired new recorded image in substantially the same manner as described above (step S62).

一方、ステップS65にて、全ての記録画像を画像取得処理の処理対象として処理したと判定されると(ステップS65;YES)、画像取得処理を終了する。   On the other hand, if it is determined in step S65 that all the recorded images have been processed as image acquisition processing targets (step S65; YES), the image acquisition processing is terminated.

<プライバシー度算出処理>
次に、画像処理装置200によるプライバシー度算出処理について、図14及び図15を参照して説明する。
図14及び図15は、プライバシー度算出処理に係る動作の一例を示すフローチャートである。
<Privacy level calculation process>
Next, privacy level calculation processing by the image processing apparatus 200 will be described with reference to FIGS. 14 and 15.
14 and 15 are flowcharts illustrating an example of an operation related to the privacy level calculation process.

図14に示すように、先ず、検出処理部6bは、処理対象となる記録画像(例えば、図13のステップS51にて取得された記録画像等)に対して顔検出処理を行い(ステップS71)、人物の顔が含まれる顔領域が検出されたか否かを判定する(ステップS72)。
ここで、顔領域が検出されたと判定されると(ステップS72;YES)、第2算出部206cは、処理対象の記録画像から検出された顔領域からサングラスやマスクといった装着品(外部の遮蔽物)を検出し(ステップS73)、装着品(外部の遮蔽物)が検出されたか否かを判定する(ステップS74)。ここで、装着品(外部の遮蔽物)が検出されたと判定されると(ステップS74;YES)、遮蔽物テーブルST(図9(a))を参照して、装着品(外部の遮蔽物)の種類に応じてプライバシー度の算出用のポイントを評価して決定する(ステップS75)。一方、装着品(外部の遮蔽物)が検出されなかったと判定されると(ステップS74;NO)、ステップS75の処理をスキップする。
As shown in FIG. 14, first, the detection processing unit 6b performs face detection processing on a recording image to be processed (for example, the recording image acquired in step S51 of FIG. 13) (step S71). Then, it is determined whether or not a face area including a human face has been detected (step S72).
Here, if it is determined that a face area has been detected (step S72; YES), the second calculation unit 206c starts wearing items such as sunglasses and a mask (external shielding object) from the face area detected from the recorded image to be processed. ) Is detected (step S73), and it is determined whether or not a mounted product (external shield) is detected (step S74). Here, if it is determined that an attached product (external shield) has been detected (step S74; YES), the attached product (external shield) is referred to with reference to the shield table ST (FIG. 9A). The point for calculating the privacy level is evaluated and determined in accordance with the type of (step S75). On the other hand, when it is determined that the mounted product (external shielding object) is not detected (step S74; NO), the process of step S75 is skipped.

次に、第2算出部206cは、処理対象の記録画像から検出された顔領域のうちの肌色領域の色を測定するとともに、第2算出部206cは、メモリ2から基準顔画像Fを取得し、当該基準顔画像Fについても、顔領域のうちの肌色領域の色を測定し、測定した各々の肌色の差を算出する肌の色検出処理を行う(ステップS76)。そして、算出した肌色の差が所定の値以上である通常とは異なる肌色が検出されたか否かを判定する(ステップS77)ここで、通常とは異なる肌色が検出されたと判定されると(ステップS77;YES)、肌の色(算出した肌色の差)に応じたプライバシー度の算出用のポイントを評価して決定する(ステップS78)。一方、通常とは異なる肌色が検出されなかったと判定されると(ステップS77;NO)、ステップS78の処理をスキップする。   Next, the second calculation unit 206c measures the color of the skin color area of the face area detected from the processing target recording image, and the second calculation unit 206c acquires the reference face image F from the memory 2. As for the reference face image F, the skin color detection process is performed to measure the color of the skin color area of the face area and calculate the difference between the measured skin colors (step S76). Then, it is determined whether or not a skin color different from the normal color having a calculated skin color difference equal to or greater than a predetermined value is detected (step S77). If it is determined that a skin color different from the normal color is detected (step S77) S77; YES), the point for calculating the privacy level according to the skin color (calculated skin color difference) is evaluated and determined (step S78). On the other hand, if it is determined that a skin color different from normal is not detected (step S77; NO), the process of step S78 is skipped.

次に、第2算出部206cは、処理対象の記録画像から検出された顔領域を構成する画素数を顔の大きさとして特定する(ステップS79)。そして、第2算出部206cは、特定された顔の大きさに応じてプライバシー度の算出用のポイントを評価して決定する(ステップS80)。
一方、顔領域が検出されていないと判定されると(ステップS72;NO)、プライバシー度算出処理を終了する。
Next, the second calculation unit 206c specifies the number of pixels constituting the face area detected from the processing target recording image as the face size (step S79). Then, the second calculation unit 206c evaluates and determines a point for calculating the privacy level according to the specified face size (step S80).
On the other hand, if it is determined that no face area has been detected (step S72; NO), the privacy level calculation process is terminated.

次に、第2算出部206cは、記録画像に含まれる人物の顔が特定の人物の顔であると識別可能な状態、例えば、人物の顔を検出可能で、且つ、当該人物の顔及び視線が正面方向(所定方向)である状態を仮想的な基準状態として設定する(ステップS81)。その後、第2算出部206cは、設定された仮想的な基準状態に対する、検出された人物の顔の回転の中心軸及び回転角度を算出する(ステップS82)。
そして、第2算出部206cは、処理対象の記録画像から検出された人物の顔の向きが正面であるか否かを判定する(ステップS83)。
Next, the second calculation unit 206c can detect that the face of the person included in the recorded image is the face of a specific person, for example, the face of the person, and the face and line of sight of the person. Is set as a virtual reference state (step S81). Thereafter, the second calculation unit 206c calculates a rotation center axis and a rotation angle of the detected human face with respect to the set virtual reference state (step S82).
Then, the second calculation unit 206c determines whether or not the face direction of the person detected from the processing target recording image is the front (step S83).

ステップS83にて、顔の向きが正面でないと判定されると(ステップS83;NO)、第2算出部206cは、仮想的な基準状態に対する人物の顔の所定の軸を中心とする回転角度の変化量或いは変化率を特定し、特定された顔の回転角度の仮想的な変化に応じてプライバシー度の算出用のポイントを評価して決定する(ステップS84)。
一方、ステップS83にて、顔の向きが正面であると判定されると(ステップS83;YES)、第2算出部206cは、ステップS84の処理をスキップする。
If it is determined in step S83 that the face direction is not front (step S83; NO), the second calculation unit 206c has a rotation angle about a predetermined axis of the person's face with respect to the virtual reference state. A change amount or a change rate is specified, and a point for calculating a privacy level is evaluated and determined according to a virtual change in the specified rotation angle of the face (step S84).
On the other hand, when it is determined in step S83 that the face direction is the front (step S83; YES), the second calculation unit 206c skips the process of step S84.

図15に移り、検出処理部6bは、処理対象となる記録画像における、顔検出処理にて検出された顔領域内から目や口等の顔の構成部位を検出する(ステップS85)。そして、第2算出部206cは、検出された顔の構成部位の数に応じて、すなわち、人物が顔全体や顔の構成部位(例えば、目や口等)を隠す動作を行わなければ特定されるであろう顔の構成部位の数(例えば、両目と口の場合、「3」)に対する、人物の顔の構成部位が隠されている比率に応じてプライバシー度の算出用のポイントを評価して決定する(ステップS86)。   Moving to FIG. 15, the detection processing unit 6 b detects the constituent parts of the face such as eyes and mouth from the face area detected in the face detection process in the recorded image to be processed (step S <b> 85). Then, the second calculation unit 206c is specified according to the number of detected face constituent parts, that is, if the person does not perform an operation of hiding the entire face or the face constituent parts (for example, eyes and mouth). The number of points for calculating the degree of privacy is evaluated according to the ratio of the number of components of the face of the person to the number of components (eg, “3” for both eyes and mouth). (Step S86).

次に、検出処理部6bは、処理対象となる記録画像から目が検出されたか否かを判定する(ステップS87)。
ここで、目が検出されたと判定されると(ステップS87;YES)、検出処理部6bは、処理対象となる記録画像に対して視線検出処理を行い(ステップS88)、被写体である人物の視線が正面であるか否かを判定する(ステップS89)。
Next, the detection processing unit 6b determines whether eyes are detected from the recorded image to be processed (step S87).
If it is determined that eyes are detected (step S87; YES), the detection processing unit 6b performs a line-of-sight detection process on the recording image to be processed (step S88), and the line of sight of the person who is the subject is detected. Whether or not is the front is determined (step S89).

ステップS89にて、視線が正面でないと判定されると(ステップS89;NO)、第2算出部206cは、仮想的な基準状態に対する、人物の視線の変化を特定し、特定された人物の視線の仮想的な変化に応じてプライバシー度の算出用のポイントを評価して決定する(ステップS90)。
一方、ステップS89にて、視線が正面であると判定されると(ステップS89;YES)、第2算出部206cは、ステップS90の処理をスキップする。
また、ステップS87にて、目が検出されていないと判定された場合には(ステップS87;NO)、ステップS88〜S90の各処理をスキップする。
If it is determined in step S89 that the line of sight is not the front (step S89; NO), the second calculation unit 206c identifies a change in the line of sight of the person with respect to the virtual reference state, and the line of sight of the identified person. The point for calculating the privacy level is evaluated and determined in accordance with the virtual change (step S90).
On the other hand, when it is determined in step S89 that the line of sight is the front (step S89; YES), the second calculation unit 206c skips the process of step S90.
If it is determined in step S87 that no eyes are detected (step S87; NO), the processes in steps S88 to S90 are skipped.

そして、第2算出部206cは、ステップS75における装着品に応じたポイント評価の結果、ステップS78における肌の色に応じたポイント評価の結果、ステップS80における顔の大きさに応じたポイント評価の結果、ステップS84における仮想的な基準状態に対する顔の回転角度の変化に応じたポイント評価の結果、ステップS86における顔の構成部位が隠されている比率に応じたポイント評価の結果、ステップS90における仮想的な基準状態に対する人物の視線の変化に応じたポイント評価の結果に基づいて、プライバシー度を算出する(ステップS91)。
これにより、プライバシー度算出処理を終了する。
Then, the second calculation unit 206c, as a result of the point evaluation according to the wearing product at step S75, as a result of the point evaluation according to the skin color at step S78, and as a result of the point evaluation according to the face size at step S80. As a result of the point evaluation in accordance with the change in the rotation angle of the face with respect to the virtual reference state in step S84, the result of the point evaluation in accordance with the ratio in which the constituent parts of the face are hidden in step S86, the virtual in step S90 The privacy level is calculated based on the result of the point evaluation corresponding to the change in the line of sight of the person with respect to the correct reference state (step S91).
Thus, the privacy level calculation process is terminated.

以上のように、実施形態2の画像処理装置200によれば、画像の種類の一である記録画像に含まれる人物の顔が特定の人物の顔であると識別することの困難さの度合いを示すプライバシー度が所定の条件を満たすか否かを判定するための一として、プライバシー度を算出し、算出されるプライバシー度が所定の判定値よりも高いと判定された場合に、画像に係る所定の処理を実行する制御の一として、その画像を、所定の外部装置に送信する画像として取得するので、上記実施形態1と同様に、例えば、公開や記録の対象となる画像についてモザイク処理やマスク処理等の画像処理等を不要とし、局所的にモザイクやマスクが施されることによって見栄えを悪化させることなく、所望のプライバシー度に応じたより自然なプライバシー画像Pを取得することができる。   As described above, according to the image processing apparatus 200 of the second embodiment, it is possible to determine the degree of difficulty in identifying a person's face included in a recorded image that is one type of image as a specific person's face. The privacy level is calculated as one of determining whether or not the privacy level shown satisfies the predetermined condition, and when it is determined that the calculated privacy level is higher than the predetermined determination value, the predetermined level related to the image As one example of control for executing the process, the image is acquired as an image to be transmitted to a predetermined external device. Therefore, as in the first embodiment, for example, mosaic processing or masking is performed on an image to be disclosed or recorded. No more image processing such as processing, and more natural privacy images according to the desired privacy level without deteriorating the appearance by applying mosaic or mask locally It is possible to get.

また、記録画像に含まれる人物の顔が特定の人物の顔であると識別可能な仮想的な基準状態(例えば、人物の顔を検出可能で、且つ、当該人物の顔及び視線が所定方向である状態等)からの、人物の顔或いは当該人物の顔を構成する部位の相対的な変化に基づいて、プライバシー度を算出することができる。従って、上記実施形態1と略同様に、仮想的な基準状態からの人物の顔或いは当該人物の顔を構成する部位の相対的な変化を利用することで、使い勝手を向上させることができるとともに、プライバシー度を基準として取得されるプライバシー画像Pの表現態様を多彩なものとすることができる。
さらに、記録画像における人物の顔或いは当該人物の顔を構成する部位が隠されている比率に基づいて、プライバシー度を算出したり、記録画像に含まれる人物の顔の大きさ或いは人物の顔までの撮像距離に基づいて、プライバシー度を算出したり、人物の顔或いは当該顔の構成部位を隠す外部の遮蔽物の変化に基づいて、プライバシー度を算出したり、人物の顔の色の変化に基づいて、プライバシー度を算出したりするので、プライバシー度の算出の基準を多くして、プライバシー度を基準として取得されるプライバシー画像Pの表現態様をより多彩なものとすることができる。
In addition, a virtual reference state in which a person's face included in the recorded image can be identified as a specific person's face (for example, the person's face can be detected and the person's face and line of sight are in a predetermined direction. The degree of privacy can be calculated based on the relative change in the face of the person or the part constituting the face of the person from a certain state or the like. Accordingly, in substantially the same manner as in the first embodiment, it is possible to improve usability by using the relative change of the face of the person from the virtual reference state or the part constituting the face of the person. The expression mode of the privacy image P acquired on the basis of the privacy level can be varied.
Furthermore, the privacy level is calculated based on the ratio of the person's face in the recorded image or the part constituting the person's face being hidden, and the size of the person's face included in the recorded image or the person's face is also calculated. The privacy level is calculated based on the imaging distance, the privacy level is calculated based on a change in an external shield that hides the face of the person or the constituent part of the face, and the color of the person's face changes. Since the privacy level is calculated based on this, the privacy level calculation criteria can be increased, and the expression mode of the privacy image P acquired based on the privacy level can be made more diverse.

また、プライバシー画像Pとプライバシー度とを対応付けて記録しておくことで、プライバシー画像Pを対応付けられているプライバシー度を基準とする分類或いは順序で、表示パネル9bに表示させることができ、プライバシー画像Pが複数記録されている場合にも、ユーザ所望のプライバシー画像Pの選択を簡便に行うことができることとなって、使い勝手を向上させることができる。   Further, by recording the privacy image P and the privacy level in association with each other, the privacy image P can be displayed on the display panel 9b in the classification or order based on the associated privacy level. Even when a plurality of privacy images P are recorded, the user-desired privacy image P can be easily selected, and usability can be improved.

なお、本発明は、上記実施形態1、2に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記実施形態1、2にあっては、プライバシー画像Pを外部の記録サーバSに送信して公開するようにしたが、一例であってこれに限られるものではない。例えば、送信されたプライバシー画像Pを公開する外部のサーバでは、当該プライバシー画像Pの記録は行わず表示のみを行い、表示されたプライバシー画像Pを逐次消去するようにしても良く、また、実施形態1の画像処理装置100や実施形態2の画像処理装置200にサーバ機能を具備させて、外部の端末から画像処理装置100、200にアクセスしてプライバシー画像Pを閲覧するようにしても良い。この場合に、例えば、プライバシー画像P毎に、対応付けられているプライバシー度に応じて、公開するか否かを自動的に設定するようにしても良い。
The present invention is not limited to the first and second embodiments, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, in the first and second embodiments, the privacy image P is transmitted to the external recording server S and disclosed, but this is an example and the present invention is not limited to this. For example, an external server that publishes the transmitted privacy image P may display only the privacy image P without recording the privacy image P, and may sequentially delete the displayed privacy image P. The image processing apparatus 100 of 1 or the image processing apparatus 200 of the second embodiment may be provided with a server function so that the privacy image P can be viewed by accessing the image processing apparatuses 100 and 200 from an external terminal. In this case, for example, for each privacy image P, whether to make it public may be automatically set according to the associated privacy level.

また、上記実施形態1、2にあっては、プライバシー画像Pの画像データに当該プライバシー画像Pに含まれる人物の顔の大きさをExif情報として対応付けて記録しておき、表示制御部9aは、画像記録部8に記録されているプライバシー画像Pを対応付けられている人物の顔の大きさを基準とする分類或いは順序で、表示パネル9bに表示させても良い。   In the first and second embodiments, the size of the face of the person included in the privacy image P is recorded in association with the image data of the privacy image P as Exif information, and the display control unit 9a The privacy image P recorded in the image recording unit 8 may be displayed on the display panel 9b in a classification or order based on the size of the face of the person associated with the privacy image P.

また、画像処理装置100、200の構成は、上記実施形態1、2に例示したものは一例であり、これに限られるものではない。例えば、画像処理装置100は、撮像部3を搭載するようにしたが、これに限られるものではなく、撮像手段を搭載せずに外部の撮像手段と情報通信や撮影制御可能に接続されていても良い。   Further, the configurations of the image processing apparatuses 100 and 200 are merely examples as illustrated in the first and second embodiments, and are not limited thereto. For example, the image processing apparatus 100 is mounted with the imaging unit 3, but is not limited thereto, and is connected to an external imaging unit so as to be able to perform information communication and shooting control without mounting the imaging unit. Also good.

加えて、上記実施形態1にあっては、判定手段、制御手段としての機能を、中央制御部1の制御下にて、第1判定部6d、撮影制御部6eが駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部1によって所定のプログラム等が実行されることにより実現される構成としても良い。
すなわち、プログラムメモリ(図示略)に、判定処理ルーチン、制御処理ルーチンを含むプログラムを記録しておく。そして、判定処理ルーチンにより中央制御部1のCPUを、画像に含まれる人物の顔が特定の人物の顔であると識別することの困難さの度合いを示すプライバシー度が所定の条件を満たすか否かを判定する手段として機能させるようにしても良い。また、制御処理ルーチンにより中央制御部1のCPUを、プライバシー度が所定の条件を満たすと判定された場合に、画像(プライバシー画像P)に係る所定の処理の実行を制御する手段として機能させるようにしても良い。
In addition, in the first embodiment, the functions as the determination unit and the control unit are realized by driving the first determination unit 6d and the imaging control unit 6e under the control of the central control unit 1. However, the present invention is not limited to this, and may be realized by executing a predetermined program or the like by the central control unit 1.
That is, a program including a determination processing routine and a control processing routine is recorded in a program memory (not shown). Whether or not the degree of privacy indicating the degree of difficulty of identifying the CPU of the central control unit 1 as a specific person's face by the determination processing routine satisfies a predetermined condition is determined. You may make it function as a means to determine. Further, the CPU of the central control unit 1 is caused to function as a means for controlling execution of the predetermined process relating to the image (privacy image P) when the privacy degree is determined to satisfy the predetermined condition by the control processing routine. Anyway.

同様に、上記実施形態2にあっては、算出手段、制御手段としての機能を、中央制御部1の制御下にて、第2算出部206c、取得制御部206fが駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部1によって所定のプログラム等が実行されることにより実現される構成としても良い。
すなわち、プログラムメモリ(図示略)に、算出処理ルーチン、制御処理ルーチンを含むプログラムを記録しておく。そして、算出処理ルーチンにより中央制御部1のCPUを、画像に含まれる人物の顔が特定の人物の顔であると識別することの困難さの度合いを示すプライバシー度を算出する手段として機能させるようにしても良い。また、制御処理ルーチンにより中央制御部1のCPUを、算出されるプライバシー度を使用して、画像(プライバシー画像P)に係る所定の処理の実行を制御する手段として機能させるようにしても良い。
Similarly, in the second embodiment, the functions as the calculation unit and the control unit are realized by driving the second calculation unit 206c and the acquisition control unit 206f under the control of the central control unit 1. However, the present invention is not limited to this, and may be realized by executing a predetermined program or the like by the central control unit 1.
That is, a program including a calculation processing routine and a control processing routine is recorded in a program memory (not shown). Then, the CPU of the central control unit 1 is caused to function as a means for calculating the degree of privacy indicating the degree of difficulty in identifying the face of the person included in the image as the face of a specific person by the calculation processing routine. Anyway. Further, the CPU of the central control unit 1 may be caused to function as a means for controlling execution of predetermined processing relating to an image (privacy image P) using the calculated privacy level by a control processing routine.

さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。   Furthermore, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory or a portable recording medium such as a CD-ROM is applied in addition to a ROM or a hard disk. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.

本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
画像に含まれる人物の顔が特定の人物の顔であると識別することの困難さの度合いを示すプライバシー度が所定の条件を満たすか否かを判定する判定手段と、
前記判定手段により前記プライバシー度が所定の条件を満たすと判定された場合に、画像に係る所定の処理の実行を制御する制御手段と、
を備えたことを特徴とする画像処理装置。
<請求項2>
前記画像に含まれる人物の顔が特定の人物の顔であると識別することの困難さの度合いを示すプライバシー度を算出する算出手段を、更に備え、
前記判定手段は、前記算出手段により算出されるプライバシー度が所定の判定値より高いか否かを判定することを特徴とする請求項1に記載の画像処理装置。
<請求項3>
前記算出手段は、前記画像に含まれる人物の顔が前記特定の人物の顔であると識別可能な所定の基準状態からの、前記人物の顔或いは当該人物の顔を構成する部位の相対的な変化に基づいて、前記プライバシー度を算出することを特徴とする請求項2に記載の画像処理装置。
<請求項4>
前記算出手段は、前記人物の顔の所定の軸を中心とする回転角度の変化量或いは変化率に基づいて、前記プライバシー度を算出することを特徴とする請求項3に記載の画像処理装置。
<請求項5>
前記所定の基準状態は、前記人物の顔を検出可能で、且つ、当該人物の顔及び視線が所定方向である状態を含むことを特徴とする請求項3又は4に記載の画像処理装置。
<請求項6>
前記算出手段は、当該画像処理装置の前記人物の顔に対する向きの変化量或いは変化率に基づいて、前記プライバシー度を算出することを特徴とする請求項3〜5の何れか一項に記載の画像処理装置。
<請求項7>
前記算出手段は、前記人物の顔或いは当該人物の顔を構成する部位が隠されている比率の変化に基づいて、前記プライバシー度を算出することを特徴とする請求項3〜6の何れか一項に記載の画像処理装置。
<請求項8>
前記算出手段は、前記画像に含まれる人物の顔の大きさ或いは前記人物の顔までの撮像距離の変化に基づいて、前記プライバシー度を算出することを特徴とする請求項3〜7の何れか一項に記載の画像処理装置。
<請求項9>
前記算出手段は、前記画像に含まれる人物の顔或いは前記人物の顔の構成部位を隠す外部の遮蔽物の変化に基づいて、前記プライバシー度を算出することを特徴とする請求項3〜8の何れか一項に記載の画像処理装置。
<請求項10>
前記算出手段は、前記画像に含まれる人物の顔の色の変化に基づいて、前記プライバシー度を算出することを特徴とする請求項3〜9の何れか一項に記載の画像処理装置。
<請求項11>
前記画像は、撮像手段により撮像される画像であって、
前記算出手段は、前記撮像手段により撮像される画像の前記プライバシー度を算出し、
前記制御手段は、前記判定手段により前記プライバシー度が所定の判定値より高いと判定された場合に、前記撮像手段に記録用の画像を撮影させる制御を行うことを特徴とする請求項2〜10の何れか一項に記載の画像処理装置。
<請求項12>
前記算出手段は、前記撮像手段により逐次撮像される画像毎に前記プライバシー度を逐次算出し、
前記判定手段は、前記算出手段により逐次算出される前記プライバシー度が前記所定の判定値よりも高いか否かを逐次判定し、
前記制御手段は、前記判定手段による判定結果に基づいて、前記プライバシー度が前記所定の判定値以下である状態から前記所定の判定値よりも高い状態に変化したことを契機として、前記記録用の画像を撮影させることを特徴とする請求項11に記載の画像処理装置。
<請求項13>
前記制御手段により撮影させた記録用の画像と前記算出手段により算出された前記プライバシー度とを対応付けて記録する記録手段と、
前記記録手段に記録されている画像を対応付けられている前記プライバシー度を基準とする分類或いは順序で、表示手段に表示させる表示制御手段とを更に備えることを特徴とする請求項11又は12に記載の画像処理装置。
<請求項14>
前記画像は、記録手段に記録されている画像であって、
前記算出手段は、前記記録手段に記録されている画像の前記プライバシー度を算出し、
前記制御手段は、前記判定手段により前記プライバシー度が所定の判定値より高いと判定された画像を、所定の外部装置に送信する画像として取得する制御を行うことを特徴とする請求項2〜10の何れか一項に記載の画像処理装置。
<請求項15>
画像に含まれる人物の顔が特定の人物の顔であると識別することの困難さの度合いを示すプライバシー度を算出する算出手段と、
前記算出手段により算出されるプライバシー度を使用して、画像に係る所定の処理の実行を制御する制御手段と、
を備えたことを特徴とする画像処理装置。
<請求項16>
前記画像は、撮像手段により撮像される画像であって、
前記制御手段は、前記算出手段により算出されるプライバシー度を、前記撮像手段により記録用の画像として撮影される画像に対応付けて記録手段に記録する制御を行うことを特徴とする請求項15に記載の画像処理装置。
<請求項17>
画像処理装置を用いた画像処理方法であって、
画像に含まれる人物の顔が特定の人物の顔であると識別することの困難さの度合いを示すプライバシー度が所定の条件を満たすか否かを判定する処理と、
前記プライバシー度が所定の条件を満たすと判定された場合に、画像に係る所定の処理の実行を制御する処理と、
を含むことを特徴とする画像処理方法。
<請求項18>
画像処理装置を用いた画像処理方法であって、
画像に含まれる人物の顔が特定の人物の顔であると識別することの困難さの度合いを示すプライバシー度を算出する処理と、
算出されるプライバシー度を使用して、画像に係る所定の処理の実行を制御する処理と、
を含むことを特徴とする画像処理方法。
<請求項19>
画像処理装置のコンピュータに、
画像に含まれる人物の顔が特定の人物の顔であると識別することの困難さの度合いを示すプライバシー度が所定の条件を満たすか否かを判定する機能と、
前記プライバシー度が所定の条件を満たすと判定された場合に、画像に係る所定の処理の実行を制御する機能と、
を実現させることを特徴とするプログラム。
<請求項20>
画像処理装置のコンピュータに、
画像に含まれる人物の顔が特定の人物の顔であると識別することの困難さの度合いを示すプライバシー度を算出する機能と、
算出されるプライバシー度を使用して、画像に係る所定の処理の実行を制御する機能と、
を実現させることを特徴とするプログラム。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
Determining means for determining whether or not a privacy level indicating a degree of difficulty in identifying a person's face included in the image as a specific person's face satisfies a predetermined condition;
Control means for controlling execution of predetermined processing relating to an image when the determination means determines that the privacy level satisfies a predetermined condition;
An image processing apparatus comprising:
<Claim 2>
A calculation means for calculating a privacy level indicating a degree of difficulty in identifying the face of the person included in the image as a face of a specific person;
The image processing apparatus according to claim 1, wherein the determination unit determines whether the privacy level calculated by the calculation unit is higher than a predetermined determination value.
<Claim 3>
The calculating means is configured to calculate a relative position of the person's face or a part constituting the person's face from a predetermined reference state that can be identified as the face of the person included in the image. The image processing apparatus according to claim 2, wherein the privacy level is calculated based on a change.
<Claim 4>
The image processing apparatus according to claim 3, wherein the calculation unit calculates the privacy degree based on a change amount or a change rate of a rotation angle centered on a predetermined axis of the person's face.
<Claim 5>
The image processing apparatus according to claim 3, wherein the predetermined reference state includes a state in which the face of the person can be detected and the face and line of sight of the person are in a predetermined direction.
<Claim 6>
The said calculation means calculates the said privacy degree based on the variation | change_quantity or rate of change of the direction with respect to the said person's face of the said image processing apparatus, The Claim 3 characterized by the above-mentioned. Image processing device.
<Claim 7>
The said calculation means calculates the said privacy degree based on the change of the ratio in which the part which comprises the said person's face or the said person's face is concealed. The image processing apparatus according to item.
<Claim 8>
The said calculation means calculates the said privacy degree based on the change of the magnitude | size of the person's face contained in the said image, or the imaging distance to the said person's face, The any one of Claims 3-7 characterized by the above-mentioned. The image processing apparatus according to one item.
<Claim 9>
The said calculating means calculates the said privacy degree based on the change of the external shielding object which hides the structural part of the person's face or the person's face contained in the said image. The image processing apparatus according to any one of the above.
<Claim 10>
The image processing apparatus according to claim 3, wherein the calculation unit calculates the privacy level based on a change in a face color of a person included in the image.
<Claim 11>
The image is an image captured by an imaging unit,
The calculating means calculates the privacy level of the image captured by the imaging means;
The control unit performs control to cause the imaging unit to capture an image for recording when the determination unit determines that the privacy level is higher than a predetermined determination value. The image processing apparatus according to any one of the above.
<Claim 12>
The calculating means sequentially calculates the privacy level for each image sequentially captured by the imaging means,
The determination means sequentially determines whether or not the privacy level sequentially calculated by the calculation means is higher than the predetermined determination value,
The control means, based on the determination result by the determination means, triggered by the fact that the privacy level has changed from a state below the predetermined determination value to a state higher than the predetermined determination value. The image processing apparatus according to claim 11, wherein an image is taken.
<Claim 13>
A recording unit that records an image for recording taken by the control unit in association with the privacy level calculated by the calculation unit;
13. The display control unit according to claim 11, further comprising: a display control unit configured to display the image recorded in the recording unit on the display unit in a classification or order based on the privacy level associated with the image. The image processing apparatus described.
<Claim 14>
The image is an image recorded in a recording means,
The calculating means calculates the privacy level of the image recorded in the recording means;
The control unit performs control to acquire an image determined by the determination unit as having a degree of privacy higher than a predetermined determination value as an image to be transmitted to a predetermined external device. The image processing apparatus according to any one of the above.
<Claim 15>
Calculating means for calculating a privacy level indicating a degree of difficulty of identifying that a person's face included in the image is a face of a specific person;
Control means for controlling execution of predetermined processing relating to an image using the privacy level calculated by the calculating means;
An image processing apparatus comprising:
<Claim 16>
The image is an image captured by an imaging unit,
16. The control unit according to claim 15, wherein the control unit performs control to record the privacy level calculated by the calculation unit in the recording unit in association with an image photographed as a recording image by the imaging unit. The image processing apparatus described.
<Claim 17>
An image processing method using an image processing apparatus,
A process of determining whether or not a privacy level indicating a degree of difficulty in identifying a person's face included in the image as a specific person's face satisfies a predetermined condition;
A process for controlling execution of a predetermined process relating to an image when it is determined that the privacy level satisfies a predetermined condition;
An image processing method comprising:
<Claim 18>
An image processing method using an image processing apparatus,
Processing for calculating a privacy level indicating a degree of difficulty in identifying the face of the person included in the image as a face of a specific person;
A process for controlling execution of a predetermined process relating to an image using the calculated privacy level;
An image processing method comprising:
<Claim 19>
In the computer of the image processing device,
A function of determining whether or not a privacy level indicating a degree of difficulty in identifying a person's face included in the image as a specific person's face satisfies a predetermined condition;
A function of controlling execution of a predetermined process relating to an image when it is determined that the privacy level satisfies a predetermined condition;
A program characterized by realizing.
<Claim 20>
In the computer of the image processing device,
A function for calculating a privacy level indicating a degree of difficulty in identifying a person's face included in the image as a face of a specific person;
A function for controlling execution of a predetermined process related to an image using the calculated privacy level;
A program characterized by realizing.

100、200 画像処理装置
1 中央制御部
2 メモリ
3 撮像部
4 信号処理部
6、206 動作制御部
6a 第1画像取得部
6b 検出処理部
6c 第1算出部
6d 第1判定部
6e 撮影制御部
206a 第2画像取得部
206c 第2算出部
206d 第2判定部
206f 取得制御部
8 画像記録部
9 表示部
9a 表示制御部
9b 表示パネル
10 通信制御部
F 基準顔画像
P プライバシー画像
S 記録サーバ
ST 遮蔽物テーブル
100, 200 Image processing device 1 Central control unit 2 Memory 3 Imaging unit 4 Signal processing unit 6, 206 Operation control unit 6a First image acquisition unit 6b Detection processing unit 6c First calculation unit 6d First determination unit 6e Imaging control unit 206a Second image acquisition unit 206c Second calculation unit 206d Second determination unit 206f Acquisition control unit 8 Image recording unit 9 Display unit 9a Display control unit 9b Display panel 10 Communication control unit F Reference face image P Privacy image S Recording server ST Shield table

Claims (17)

画像に含まれる人物の顔が特定の人物の顔であると識別することの困難さの度合いを示すプライバシー度を算出する算出手段と、
前記算出手段により算出されるプライバシー度が所定の判定値より高いか否かを判定する判定手段と、
前記判定手段により前記プライバシー度が所定の判定値より高いと判定された場合に、画像に係る所定の処理の実行を制御する制御手段と、
を備えたことを特徴とする画像処理装置。
Calculating means for calculating a privacy level indicating a degree of difficulty of identifying that a person's face included in the image is a face of a specific person;
Determination means for determining whether or not the degree of privacy calculated by the calculation means is higher than a predetermined determination value ;
Control means for controlling execution of predetermined processing relating to an image when the determination means determines that the degree of privacy is higher than a predetermined determination value ;
An image processing apparatus comprising:
前記算出手段は、前記画像に含まれる人物の顔が前記特定の人物の顔であると識別可能な所定の基準状態からの、前記人物の顔或いは当該人物の顔を構成する部位の相対的な変化に基づいて、前記プライバシー度を算出することを特徴とする請求項に記載の画像処理装置。 The calculating means is configured to calculate a relative position of the person's face or a part constituting the person's face from a predetermined reference state that can be identified as the face of the person included in the image. based on the change, the image processing apparatus according to claim 1, characterized in that to calculate the privacy of. 前記算出手段は、前記人物の顔の所定の軸を中心とする回転角度の変化量或いは変化率に基づいて、前記プライバシー度を算出することを特徴とする請求項に記載の画像処理装置。 The image processing apparatus according to claim 2 , wherein the calculation unit calculates the privacy level based on a change amount or a change rate of a rotation angle about a predetermined axis of the person's face. 前記所定の基準状態は、前記人物の顔を検出可能で、且つ、当該人物の顔及び視線が所定方向である状態を含むことを特徴とする請求項又はに記載の画像処理装置。 The predetermined reference state, capable of detecting the face of the person, and image processing apparatus according to claim 2 or 3 face and sight line of the person is characterized in that it comprises a state which is a predetermined direction. 前記算出手段は、当該画像処理装置の前記人物の顔に対する向きの変化量或いは変化率に基づいて、前記プライバシー度を算出することを特徴とする請求項の何れか一項に記載の画像処理装置。 It said calculation means on the basis of the direction of variation or the rate of change with respect to the face of the person in the image processing apparatus, according to any one of claims 2 to 4, characterized in that to calculate the privacy of Image processing device. 前記算出手段は、前記人物の顔或いは当該人物の顔を構成する部位が隠されている比率の変化に基づいて、前記プライバシー度を算出することを特徴とする請求項の何れか一項に記載の画像処理装置。 Said calculation means, based on the change in the ratio of parts constituting a face or a face of the person of the person is hidden, any one of claims 2 to 5, characterized in that to calculate the privacy of The image processing apparatus according to item. 前記算出手段は、前記画像に含まれる人物の顔の大きさ或いは前記人物の顔までの撮像距離の変化に基づいて、前記プライバシー度を算出することを特徴とする請求項の何れか一項に記載の画像処理装置。 Said calculation means, based on a change of the imaging distance to size or face of the person in the face of a person included in the image, any one of claims 2-6, characterized in that to calculate the privacy of The image processing apparatus according to one item. 前記算出手段は、前記画像に含まれる人物の顔或いは前記人物の顔の構成部位を隠す外部の遮蔽物の変化に基づいて、前記プライバシー度を算出することを特徴とする請求項の何れか一項に記載の画像処理装置。 Said calculation means, based on a change of the face or outside the shield to hide the construction site of a face of the person of the person included in the image, of claims 2 to 7, characterized in that to calculate the privacy of The image processing apparatus according to any one of the above. 前記算出手段は、前記画像に含まれる人物の顔の色の変化に基づいて、前記プライバシー度を算出することを特徴とする請求項の何れか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 2 to 8 , wherein the calculation unit calculates the privacy level based on a change in a face color of a person included in the image. 前記画像は、撮像手段により撮像される画像であって、
前記算出手段は、前記撮像手段により撮像される画像の前記プライバシー度を算出し、
前記制御手段は、前記判定手段により前記プライバシー度が所定の判定値より高いと判定された場合に、前記撮像手段に記録用の画像を撮影させる制御を行うことを特徴とする請求項の何れか一項に記載の画像処理装置。
The image is an image captured by an imaging unit,
The calculating means calculates the privacy level of the image captured by the imaging means;
Wherein, when said the privacy of the determining means is determined to be higher than a predetermined judgment value, claims 1 to 9, characterized in that performs control to capture an image for recording on said image pickup means The image processing apparatus according to any one of the above.
前記算出手段は、前記撮像手段により逐次撮像される画像毎に前記プライバシー度を逐次算出し、
前記判定手段は、前記算出手段により逐次算出される前記プライバシー度が前記所定の判定値よりも高いか否かを逐次判定し、
前記制御手段は、前記判定手段による判定結果に基づいて、前記プライバシー度が前記所定の判定値以下である状態から前記所定の判定値よりも高い状態に変化したことを契機として、前記記録用の画像を撮影させることを特徴とする請求項10に記載の画像処理装置。
The calculating means sequentially calculates the privacy level for each image sequentially captured by the imaging means,
The determination means sequentially determines whether or not the privacy level sequentially calculated by the calculation means is higher than the predetermined determination value,
The control means, based on the determination result by the determination means, triggered by the fact that the privacy level has changed from a state below the predetermined determination value to a state higher than the predetermined determination value. The image processing apparatus according to claim 10 , wherein an image is taken.
前記制御手段により撮影させた記録用の画像と前記算出手段により算出された前記プライバシー度とを対応付けて記録する記録手段と、
前記記録手段に記録されている画像を、当該画像に対応付けられている前記プライバシー度を基準とする分類或いは順序で、表示手段に表示させる表示制御手段とを更に備えることを特徴とする請求項10又は11に記載の画像処理装置。
A recording unit that records an image for recording taken by the control unit in association with the privacy level calculated by the calculation unit;
The display control means for displaying the image recorded in the recording means on the display means in a classification or order based on the privacy level associated with the image. The image processing apparatus according to 10 or 11 .
前記画像は、記録手段に記録されている画像であって、
前記算出手段は、前記記録手段に記録されている画像の前記プライバシー度を算出し、
前記制御手段は、前記判定手段により前記プライバシー度が所定の判定値より高いと判定された画像を、所定の外部装置に送信する画像として取得する制御を行うことを特徴とする請求項の何れか一項に記載の画像処理装置。
The image is an image recorded in a recording means,
The calculating means calculates the privacy level of the image recorded in the recording means;
The control means according to claim 1 to 9, characterized in that the control of the privacy of by the determining means an image that is determined to be higher than a predetermined judgment value is acquired as an image to be transmitted to a predetermined external device The image processing apparatus according to any one of the above.
画像に含まれる人物の顔が特定の人物の顔であると識別することの困難さの度合いを示すプライバシー度を算出する算出手段と、Calculating means for calculating a privacy level indicating a degree of difficulty of identifying that a person's face included in the image is a face of a specific person;
画像と前記算出手段により算出された前記プライバシー度とを対応付けて記録する記録手段と、A recording unit that records the image and the privacy level calculated by the calculation unit in association with each other;
前記記録手段に記録されている画像を、当該画像に対応付けられている前記プライバシー度を基準として分類し、当該分類毎に何れか一の画像を表示手段に表示させる表示制御手段と、Display control means for classifying the images recorded in the recording means on the basis of the privacy level associated with the images, and displaying any one image on the display means for each classification;
を備えたことを特徴とする画像処理装置。An image processing apparatus comprising:
画像に含まれる人物の顔が特定の人物の顔であると識別することの困難さの度合いを示すプライバシー度を算出する算出手段と、Calculating means for calculating a privacy level indicating a degree of difficulty of identifying that a person's face included in the image is a face of a specific person;
画像と前記算出手段により算出された前記プライバシー度とを対応付けて記録する記録手段と、A recording unit that records the image and the privacy level calculated by the calculation unit in association with each other;
前記記録手段に記録されている画像を、当該画像に対応付けられている前記プライバシー度を基準として並び替え、並び替えられた順序で画像を表示手段に表示させる表示制御手段と、Display control means for rearranging the images recorded in the recording means on the basis of the privacy level associated with the image, and displaying the images on the display means in the rearranged order;
を備えたことを特徴とする画像処理装置。An image processing apparatus comprising:
画像処理装置を用いた画像処理方法であって、
画像に含まれる人物の顔が特定の人物の顔であると識別することの困難さの度合いを示すプライバシー度を算出する処理と、
前記算出手段により算出されるプライバシー度が所定の判定値より高いか否かを判定する処理と、
前記判定手段により前記プライバシー度が所定の判定値より高いと判定された場合に、画像に係る所定の処理の実行を制御する処理と、
を含むことを特徴とする画像処理方法。
An image processing method using an image processing apparatus,
Processing for calculating a privacy level indicating a degree of difficulty in identifying the face of the person included in the image as a face of a specific person;
A process of determining whether or not the privacy level calculated by the calculating means is higher than a predetermined determination value ;
A process for controlling execution of a predetermined process relating to an image when the determination unit determines that the privacy level is higher than a predetermined determination value ;
An image processing method comprising:
画像処理装置のコンピュータに、
画像に含まれる人物の顔が特定の人物の顔であると識別することの困難さの度合いを示すプライバシー度を算出する算出する機能と、
前記算出手段により算出されるプライバシー度が所定の判定値より高いか否かを判定する機能と、
前記判定手段により前記プライバシー度が所定の判定値より高いと判定された場合に、画像に係る所定の処理の実行を制御する機能と、
を実現させることを特徴とするプログラム。
In the computer of the image processing device,
A function for calculating a privacy level indicating a degree of difficulty of identifying that a person's face included in the image is a face of a specific person;
A function for determining whether or not the privacy level calculated by the calculating means is higher than a predetermined determination value ;
A function of controlling execution of a predetermined process relating to an image when the degree of privacy is determined to be higher than a predetermined determination value by the determination unit;
A program characterized by realizing.
JP2016118545A 2015-12-01 2016-06-15 Image processing apparatus, image processing method, and program Active JP6206542B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/295,333 US10546185B2 (en) 2015-12-01 2016-10-17 Image processing apparatus for performing image processing according to privacy level
CN201610908844.5A CN107038362B (en) 2015-12-01 2016-10-18 Image processing apparatus, image processing method, and computer-readable recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015234701 2015-12-01
JP2015234701 2015-12-01

Publications (2)

Publication Number Publication Date
JP2017108374A JP2017108374A (en) 2017-06-15
JP6206542B2 true JP6206542B2 (en) 2017-10-04

Family

ID=59061085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016118545A Active JP6206542B2 (en) 2015-12-01 2016-06-15 Image processing apparatus, image processing method, and program

Country Status (2)

Country Link
JP (1) JP6206542B2 (en)
CN (1) CN107038362B (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7030534B2 (en) 2018-01-16 2022-03-07 キヤノン株式会社 Image processing device and image processing method
JP7075237B2 (en) * 2018-02-23 2022-05-25 ラピスセミコンダクタ株式会社 Operation judgment device and operation judgment method
CN109035167B (en) * 2018-07-17 2021-05-18 北京新唐思创教育科技有限公司 Method, device, equipment and medium for processing multiple faces in image
CN109711297A (en) * 2018-12-14 2019-05-03 深圳壹账通智能科技有限公司 Risk Identification Method, device, computer equipment and storage medium based on facial picture
US11430088B2 (en) 2019-12-23 2022-08-30 Samsung Electronics Co., Ltd. Method and apparatus for data anonymization
CN116206558B (en) * 2023-05-06 2023-08-04 惠科股份有限公司 Display panel control method and display device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4036051B2 (en) * 2002-07-30 2008-01-23 オムロン株式会社 Face matching device and face matching method
CN101140620A (en) * 2007-10-16 2008-03-12 上海博航信息科技有限公司 Human face recognition system
BRPI1101789E2 (en) * 2011-02-14 2015-12-22 Neti Soluções Tecnologicas Ltda face access validation system for biometric face recognition
US8254647B1 (en) * 2012-04-16 2012-08-28 Google Inc. Facial image quality assessment
JP2014067131A (en) * 2012-09-25 2014-04-17 Zenrin Datacom Co Ltd Image processing apparatus, image processing system, image processing method, and computer program
JP2014153817A (en) * 2013-02-06 2014-08-25 Toshiba Corp Passage control apparatus, method and program
WO2015056466A1 (en) * 2013-10-16 2015-04-23 オリンパスイメージング株式会社 Display device, image generation device, display method and program

Also Published As

Publication number Publication date
CN107038362B (en) 2020-11-17
CN107038362A (en) 2017-08-11
JP2017108374A (en) 2017-06-15

Similar Documents

Publication Publication Date Title
JP6206542B2 (en) Image processing apparatus, image processing method, and program
US10546185B2 (en) Image processing apparatus for performing image processing according to privacy level
JP7371081B2 (en) Night view photography methods, devices, electronic devices and storage media
JP5409189B2 (en) Imaging apparatus and control method thereof
TWI425826B (en) Image selection device and method for selecting image
JP5136669B2 (en) Image processing apparatus, image processing method, and program
US9264651B2 (en) Moving image reproducing apparatus capable of adjusting display position of indicator for motion analysis based on displacement information of frames, and moving image reproducing method and recording medium for same
CN106688227B (en) More photographic devices, more image capture methods
US9571741B1 (en) Smart shutter in low light
US9779290B2 (en) Detecting apparatus, detecting method and computer readable recording medium recording program for detecting state in predetermined area within images
JP2011054071A (en) Image processing device, image processing method and program
JP2010206685A (en) Image processing apparatus and program
US20150189142A1 (en) Electronic apparatus and method of capturing moving subject by using the same
CN105493493A (en) Imaging device, imaging method, and image processing device
US20170272660A1 (en) Imaging device configured to control a region of imaging
JP5966778B2 (en) Imaging apparatus, imaging method, and program
US20160050357A1 (en) Imaging device shooting a common subject in synchronization with other imaging devices
KR102022892B1 (en) Apparatus and method for processing image of mobile terminal comprising camera
US20160292842A1 (en) Method and Apparatus for Enhanced Digital Imaging
JP2015012481A (en) Image processing device
CN106257906B (en) Image effect handles auxiliary device and image effect handles householder method
JP5896102B2 (en) Imaging apparatus, imaging control method, and program
JP2013017218A (en) Image processing device, image processing method, and program
JP6330862B2 (en) Imaging apparatus, imaging method, and program
US11516402B1 (en) Realtime image analysis and feedback

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170821

R150 Certificate of patent or registration of utility model

Ref document number: 6206542

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150