JP2013098750A - Image processing apparatus, image processing method, image processing program - Google Patents
Image processing apparatus, image processing method, image processing program Download PDFInfo
- Publication number
- JP2013098750A JP2013098750A JP2011239765A JP2011239765A JP2013098750A JP 2013098750 A JP2013098750 A JP 2013098750A JP 2011239765 A JP2011239765 A JP 2011239765A JP 2011239765 A JP2011239765 A JP 2011239765A JP 2013098750 A JP2013098750 A JP 2013098750A
- Authority
- JP
- Japan
- Prior art keywords
- mask
- unit
- target
- similarity
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、画像処理装置、画像処理方法、及び画像処理プログラムに関する。本発明は、例えば、特定人物の顔などプライバシー保護に係るものが映っている画像領域に自動的にマスク処理を施すための画像処理装置等に関する。 The present invention relates to an image processing apparatus, an image processing method, and an image processing program. The present invention relates to an image processing apparatus and the like for automatically performing mask processing on an image area in which an object relating to privacy protection such as a face of a specific person is shown.
近年、個人が撮影した動画像を各個人のパソコン端末や携帯端末からインターネットを介して簡単に公開できるようになってきた。しかし、動画像には、人物や、車両、撮像された地域を示す地名や住所など、個人を特定できる情報が含まれていることがある。そのような情報が含まれる動画像がそのまま公開されてしまうことは、プライバシー保護の観点から望ましくない。 In recent years, it has become possible to easily publish moving images taken by individuals from the personal computer terminals and portable terminals of the individuals via the Internet. However, a moving image may include information that can identify an individual, such as a person, a vehicle, and a place name or address indicating a captured area. It is not desirable from the viewpoint of privacy protection that a moving image including such information is disclosed as it is.
そこで、動画像中の特定人物やナンバープレートに対して自動的にモザイクを施す処理を行う方法が提案されている(例えば、特許文献1、特許文献2)。
特許文献1および特許文献2に開示される方法では、まず、モザイクを施す処理が必要になる人物の顔情報を参照情報として予め用意しておく。
そして、参照情報と画像中の顔とが一致した場合には、その顔部分にモザイクを施す処理を行う。
In view of this, there has been proposed a method of performing a process of automatically mosaicing a specific person or license plate in a moving image (for example,
In the methods disclosed in
When the reference information matches the face in the image, a process for applying a mosaic to the face portion is performed.
この方法であれば、確かに特定人物の顔にモザイクを施す処理を行うことができるものの、画像中の顔が参照情報に一致する前の画像にはモザイクを施せないことになる。例えば、モザイクを施す処理の対象となる人物がゆっくりと画面内にスライドインしてきた場合、その顔が画面内に完全に収まってはじめてモザイクを施す処理が開始されるので、それまではスライドイン途中の顔が一部ではあるものの画面に曝されることとなってしまう。 With this method, it is possible to perform a process for applying a mosaic to the face of a specific person, but it is not possible to apply a mosaic to an image before the face in the image matches the reference information. For example, if a person who is subject to mosaicing slowly slides in the screen, the mosaicing process starts only after the face is completely within the screen. Will be exposed to the screen although it is a part of the face.
上記問題に対し、特許文献3(特開2010−233133号公報)では次の方法を提案している。特許文献3では、ビデオバッファを用意しておき、動画像を数フレーム遡れるように前記ビデオバッファに一時的に溜めておく。
そして、モザイクを施す対象、つまりマスク対象が検出された場合には、ビデオバッファ内にあるフレームを順番に遡ってマスク対象に関連する部分が無いかを改めて検索する。これにより、マスク対象が完全に画面内に入る前であってもマスク対象が部分的に映っている領域にマスクを掛ける、つまりモザイクを施すことができる。
To solve the above problem, Patent Document 3 (Japanese Patent Laid-Open No. 2010-233133) proposes the following method. In Patent Document 3, a video buffer is prepared, and a moving image is temporarily stored in the video buffer so as to go back several frames.
When a target to be mosaicked, that is, a mask target is detected, the frames in the video buffer are traced back in order to search again for a portion related to the mask target. Thereby, even before the mask target completely enters the screen, it is possible to apply a mask to a region where the mask target is partially reflected, that is, to apply a mosaic.
しかしながら、ビデオバッファの容量にも限界がある。30フレーム/秒の動画像であるとして、長くても10秒分ぐらいを溜めておけるのが最大限である(特許文献3の段落0056)。従って、カメラを横にゆっくり振りながら撮影したり、あるいは、固定カメラの前を人がゆっくりと通り過ぎるような場合、マスク処理が必要な人物が画面内にスライドインしてくる時間がビデオバッファの容量よりも長くなるという事態が起こりえる。すると、ビデオバッファによる保持時間を超えてビデオバッファから吐き出されてしまったフレームについては、マスク処理が不十分なままで公開されてしまうことになる。 However, there is a limit to the capacity of the video buffer. Assuming that the moving image is 30 frames / second, it is the maximum that about 10 seconds can be stored at the longest (paragraph 0056 of Patent Document 3). Therefore, if you take a picture while slowly shaking the camera, or if a person passes slowly in front of a fixed camera, the amount of time that the person who needs masking slides in the screen is the capacity of the video buffer. It can happen that it becomes longer. As a result, a frame that has been discharged from the video buffer beyond the retention time of the video buffer is released with insufficient mask processing.
なお、単純にビデオバッファの容量を大きくすることが考えられるが、どれほど容量を大きくしても動画像を一時的にバッファできる容量(時間)には限界がある。また、マスク対象を一旦検出したあとで、再び最初のフレームから検索し直してマスク対象に関連する部分をピックアップするという方法も考えられるが、時間と手間が掛かり過ぎる。 Although it is conceivable to simply increase the capacity of the video buffer, there is a limit to the capacity (time) in which a moving image can be temporarily buffered no matter how large the capacity is. Also, a method of once detecting a mask target and then searching again from the first frame and picking up a portion related to the mask target can be considered, but this takes too much time and effort.
そこで、本発明の目的は、マスク処理が必要な被写体がフレームインしてくる場合など、マスク対象かどうかの判定までに時間を要するような場合であっても、それまでの間にマスク対象が映っている領域に確実にマスクを掛けることができる画像処理装置、画像処理方法および画像処理プログラムを提供することにある。 Therefore, the object of the present invention is that even if it takes a long time to determine whether or not the subject is to be masked, such as when a subject requiring mask processing enters the frame, An object of the present invention is to provide an image processing apparatus, an image processing method, and an image processing program that can reliably mask an imaged area.
そこで、本発明は、
動画データからマスク処理すべき画像領域を検索してそれらにマスクを付加する画像処理装置(100)であって、
予め登録された切出参照リストに基づいて、前記動画データの画像フレームのなかからマスク対象になり得る領域をマスク候補領域として切り出すマスク候補切出部(222)と、
予め登録されたマスク対象参照リストに基づいて、最新の前記マスク候補領域を前記マスク対象参照リストと対比して両者の類似度を算出する類似度算出部(233)と、
前記算出された類似度を所定閾値と対比して、前記類似度が所定閾値以上である場合にはそのマスク候補領域をマスク対象として確定させる類似判定部(234)と、
前記類似判定部(234)による判定よってマスク対象に確定した領域の動きを時間的に後ろに追跡して得られる移動軌跡を時間的に前に外挿し、この外挿で得られた領域に掛かる補充マスクを作成するマスク補充部(260)と、
前記類似判定部(234)による判定によってマスク対象に確定した領域に加えて前記マスク補充部(260)で作成された前記補充マスクの領域に対してマスクを付加するマスク付与部(240)と、を備える
ことを特徴とする画像処理装置を提供する。
Therefore, the present invention provides
An image processing apparatus (100) for searching image areas to be masked from moving image data and adding a mask to them,
A mask candidate cutout unit (222) that cuts out an area that can be a mask target from the image frames of the moving image data as a mask candidate area based on a pre-registered cutout reference list;
A similarity calculation unit (233) that compares the latest mask candidate region with the mask target reference list and calculates the similarity between the two based on a mask target reference list registered in advance;
A similarity determination unit (234) that compares the calculated similarity with a predetermined threshold and determines the mask candidate region as a mask target when the similarity is equal to or greater than the predetermined threshold;
The movement trajectory obtained by temporally tracking the movement of the region determined as the mask target by the determination by the similarity determination unit (234) is temporally extrapolated forward and applied to the region obtained by this extrapolation. A mask replenishment unit (260) for creating a replenishment mask;
A mask applying unit (240) for adding a mask to the region of the replenishment mask created by the mask replenishment unit (260) in addition to the region determined as a mask target by the determination by the similarity determination unit (234); An image processing apparatus is provided.
上記画像処理装置(100)において、
前記マスク補充部(260)は、
前記類似判定部(234)による判定によってマスク対象に確定した領域の座標情報を順次取得する座標情報取得部(261)と、
前記座標情報取得部(261)にて取得された座標情報を保持する補外用データ保持部(262)と、
前記補外用データ保持部(262)に保持されたデータを時間的に前に外挿してマスク対象が検出される前の動きを推測する動き補外部(263)と、
前記動き補外部(263)による外挿によって得られた動きに掛かるように移動するマスクを作成する移動マスク作成部(264)と、を備える
ようにしても良い。
In the image processing apparatus (100),
The mask replenishment unit (260)
A coordinate information acquisition unit (261) that sequentially acquires coordinate information of areas determined as mask targets by the determination by the similarity determination unit (234);
An extrapolation data holding unit (262) that holds the coordinate information acquired by the coordinate information acquisition unit (261);
A motion extrapolation (263) that extrapolates the data held in the extrapolation data holding unit (262) in time and estimates a motion before the mask target is detected;
A moving mask creating unit (264) that creates a mask that moves so as to be applied to the motion obtained by extrapolation by the motion compensation exterior (263) may be provided.
また、上記画像処理装置において、
前記類似判定部(234)による判定よってマスク対象に確定した領域と、画像フレーム枠と、の距離が所定閾値以下であるか否かを判定する位置判定部(250)をさらに備え、
前記距離が所定閾値以下の場合に、前記位置判定部(250)は前記マスク補充部(260)を起動させる
ようにしても良い。
In the image processing apparatus,
A position determination unit (250) for determining whether or not the distance between the region determined as the mask target by the determination by the similarity determination unit (234) and the image frame frame is equal to or less than a predetermined threshold;
When the distance is less than or equal to a predetermined threshold, the position determination unit (250) may activate the mask supplementation unit (260).
また、上記画像処理装置において、
前記類似判定部(234)による判定よってマスク対象に確定した領域が画像フレームの中心方向に移動しているか否かを判定する位置判定部(250)をさらに備え、
前記マスク対象に確定した領域が画像フレームの中心方向に移動している場合に、前記位置判定部(250)は前記マスク補充部(260)を起動させる
ようにしても良い。
In the image processing apparatus,
A position determination unit (250) for determining whether or not the region determined as the mask target by the determination by the similarity determination unit (234) has moved in the center direction of the image frame;
The position determination unit (250) may activate the mask replenishment unit (260) when the region determined as the mask target is moving in the center direction of the image frame.
さらに、本発明は、
動画データからマスク処理すべき画像領域を検索してそれらにマスクを付加する画像処理方法であって、
予め登録された切出参照リストに基づいて、前記動画データの画像フレームのなかからマスク対象になり得る領域をマスク候補領域として切り出すマスク候補切出工程(ST103、ST104)と、
予め登録されたマスク対象参照リストに基づいて、最新の前記マスク候補領域を前記マスク対象参照リストと対比して両者の類似度を算出する類似度算出工程(ST106)と、
前記算出された類似度を所定閾値と対比して、前記類似度が所定閾値以上である場合にはそのマスク候補領域をマスク対象として確定させる類似判定工程(ST107)と、
前記類似判定工程(ST107)による判定よってマスク対象に確定した領域の動きを時間的に後ろに追跡して得られる移動軌跡を時間的に前に外挿し(ST123)、この外挿で得られた領域に掛かる補充マスクを作成するマスク補充工程(ST124)と、
前記類似判定工程(ST107)による判定によってマスク対象に確定した領域に加えて前記マスク補充工程(ST124)で作成された前記補充マスクの領域に対してマスクを付加するマスク付与工程(ST125)と、を備える
ことを特徴とする画像処理方法を提供する。
Furthermore, the present invention provides
An image processing method for searching image areas to be masked from video data and adding a mask to them,
A mask candidate extraction step (ST103, ST104) for extracting, as a mask candidate area, an area that can be a mask target from the image frame of the moving image data based on a pre-registered extraction reference list;
A similarity calculation step (ST106) for comparing the latest mask candidate area with the mask target reference list and calculating the similarity between the two based on a mask target reference list registered in advance;
A similarity determination step (ST107) in which the calculated similarity is compared with a predetermined threshold, and when the similarity is equal to or higher than the predetermined threshold, the mask candidate region is determined as a mask target;
The movement trajectory obtained by temporally tracking the movement of the area determined as the mask target by the determination in the similarity determination step (ST107) is temporally extrapolated forward (ST123), and obtained by this extrapolation. A mask replenishment step (ST124) for creating a replenishment mask over the region;
A mask applying step (ST125) for adding a mask to the region of the replenishment mask created in the mask replenishment step (ST124) in addition to the region determined as a mask object by the determination in the similarity determination step (ST107); An image processing method is provided.
さらに、本発明は
動画データからマスク処理すべき画像領域を検索してそれらにマスクを付加する画像処理装置に組み込んだコンピュータを、
予め登録された切出参照リストに基づいて、前記動画データの画像フレームのなかからマスク対象になり得る領域をマスク候補領域として切り出すマスク候補切出部(222)と、
予め登録されたマスク対象参照リストに基づいて、最新の前記マスク候補領域を前記マスク対象参照リストと対比して両者の類似度を算出する類似度算出部(233)と、
前記算出された類似度を所定閾値と対比して、前記類似度が所定閾値以上である場合にはそのマスク候補領域をマスク対象として確定させる類似判定部(234)と、
前記類似判定部(234)による判定よってマスク対象に確定した領域の動きを時間的に後ろに追跡して得られる移動軌跡を時間的に前に外挿し、この外挿で得られた領域に掛かる補充マスクを作成するマスク補充部(260)と、
前記類似判定部(234)による判定によってマスク対象に確定した領域に加えて前記マスク補充部260で作成された前記補充マスクの領域に対してマスクを付加するマスク付与部(240)と、して機能させる
ことを特徴とする画像処理プログラムを提供する。
Furthermore, the present invention provides a computer incorporated in an image processing apparatus that searches image areas to be masked from moving image data and adds a mask to them.
A mask candidate cutout unit (222) that cuts out an area that can be a mask target from the image frames of the moving image data as a mask candidate area based on a pre-registered cutout reference list;
A similarity calculation unit (233) that compares the latest mask candidate region with the mask target reference list and calculates the similarity between the two based on a mask target reference list registered in advance;
A similarity determination unit (234) that compares the calculated similarity with a predetermined threshold and determines the mask candidate region as a mask target when the similarity is equal to or greater than the predetermined threshold;
The movement trajectory obtained by temporally tracking the movement of the region determined as the mask target by the determination by the similarity determination unit (234) is temporally extrapolated forward and applied to the region obtained by this extrapolation. A mask replenishment unit (260) for creating a replenishment mask;
A mask applying unit (240) for adding a mask to the region of the replenishment mask created by the
以下、図面を参照して本発明の実施の形態について説明する。
(第1実施形態)
図1は、本発明が想定する動画像データ記録再生システム900の一例である。
各個人はおのおの好きな被写体をビデオカメラ100で撮像する。例えば、戸外に出て街の様子を撮影したり、家族が公園で遊んでいる光景を撮影したりしてもよい。このようにして撮影された動画像データはビデオカメラ100に内蔵された動画メモリ120に蓄積されていく。
Embodiments of the present invention will be described below with reference to the drawings.
(First embodiment)
FIG. 1 shows an example of a moving image data recording / reproducing
Each individual takes an image of his / her favorite subject with the video camera 100. For example, you may go out and take pictures of the city, or take a picture of a family playing in a park. The moving image data shot in this way is stored in the moving
撮影者は家に帰ると、ビデオカメラ100をパソコン910に接続し、撮影した動画像データをパソコン910経由でインターネット920上のサーバ930に送る。すると、このサーバ930に動画像データが保存され、第三者もインターネット920を利用して動画像を見られるようになる。
When the photographer returns home, he connects the video camera 100 to the
しかし、このようにして撮影された動画像には公開しては不都合な画像も含まれていることがある。例えば、家族の顔や、意図せずに映り込んでしまった通行人の顔、個人を特定する情報、例えば、氏名、電話番号、車のナンバープレートなどが映り込んでいる可能性がある。
これらの個人情報に関連する画像をそのままインターネット上に公開してしまうとプライバシー保護の観点からみて問題が生じる恐れがある。従って、プラバシーに関わる画像部分にはマスク処理を施すことが必要になる。
However, the moving images shot in this way may include images that are inconvenient for the public. For example, there is a possibility that the face of a family member, the face of a passerby unintentionally reflected, and information for identifying an individual, such as a name, a telephone number, or a car license plate, may be reflected.
If these images related to personal information are published on the Internet as they are, there is a risk that problems may arise from the viewpoint of privacy protection. Therefore, it is necessary to perform mask processing on the image portion related to privacy.
ここで、以下の説明に用いる動画の例として、図2のように特定人物CAの様子を撮影したとする。このとき撮影者Pは、ビデオカメラ100を右から左にゆっくりと向きを変えるように動かし、人物CAがフレームのなかにゆっくりとフレームインするように撮影するとする。すると、例えば、図3のように、フレームの左から人物CAが徐々にフレームインしてくる動画が撮影されるであろう。ここで、上述の従来技術によれば、フレームF40のように顔の80%程度がフレーム内に映っていれば、これをマスク対象であると判定することができる。従って、フレームF40以降のフレームF50やフレームF60には人物CAの顔にマスクを掛けられる。しかし、フレームF40に至るまでは、人物CAの顔が映っているにも関わらず、顔の一部しか映っていないのでマスク対象であるとまでは確定できず、このままではマスクが掛からず顔が公開されてしまうことになる。そこで、本実施形態では、マスク対象であると確定する前のフレームに対してもマスクを掛けるようにする。 Here, as an example of a moving image used in the following description, it is assumed that a specific person CA is photographed as shown in FIG. At this time, the photographer P moves the video camera 100 so as to slowly change the direction from right to left, and shoots so that the person CA slowly enters the frame in the frame. Then, for example, as shown in FIG. 3, a moving image in which the person CA gradually enters the frame from the left of the frame will be shot. Here, according to the above-described prior art, if about 80% of the face is reflected in the frame as in the frame F40, it can be determined that this is a mask target. Therefore, the face of the person CA can be masked on the frames F50 and F60 after the frame F40. However, until the frame F40, although the face of the person CA is shown, only a part of the face is shown, so it cannot be determined that it is a mask target. It will be released. Therefore, in this embodiment, the mask is also applied to the frame before it is determined that it is a mask target.
(第1実施形態の構成)
第1実施形態の構成を説明する。
図4は、マスク処理部200の機能ブロック図であり、あわせて、ビデオカメラ100の主要要素を示す。本実施形態ではマスク処理部200がビデオカメラ100に内蔵されている場合を想定しているが、パソコン910の一機能としてマスク処理部が設けられてもよい。ビデオカメラ100の撮像部110で撮像された動画データは、一旦動画メモリ120に蓄積される。ここで、ビデオカメラ100の撮像部110は、レンズユニットやCCD(光電変換素子)回路、所定のロジック回路で構成され、被写体を撮影した動画(映像)信号から動画データ(フレーム)を生成する。動画データには輝度データや色データが含まれる。動画メモリ120としては、例えば、フラッシュメモリが利用できる。
(Configuration of the first embodiment)
The configuration of the first embodiment will be described.
FIG. 4 is a functional block diagram of the
マスク処理部200は、データ入力部210と、マスク候補取得部220と、マスク対象決定部230と、マスクフラグ付与部240と、位置判定部250と、マスク補充部260と、メタファイル作成部270と、マスク付加部280と、データ出力部290と、を備える。
The
データ入力部210は、動画メモリ120に蓄積された動画データを読み込んで後段に出力する。データ入力部210は、復号化部211を有し、動画データを復号化した画像フレームを出力する。
The
ここで、動画を視聴することを目的とせずにマスク処理だけを目的とする場合、すべての画像フレームが必要になるわけではない。従って、Iピクチャや、Pピクチャ、Bピクチャなどがあるなかで、処理の目的に応じたフレームだけがデータ入力部210から後段回路に提供されるようにしてもよい。例えば、マスク処理にはIピクチャとPピクチャとだけを使用するようにしてもよい。もちろん、すべてのフレームを使用してマスク処理を行ってもよい。
Here, not all image frames are required when the purpose is not only to view a moving image but only to mask processing. Therefore, among the I picture, P picture, B picture, etc., only the frame corresponding to the purpose of processing may be provided from the
マスク候補取得部220は、プラバシーマスクを必要とする可能性がある画像領域だけを切り出す。たとえば、特定人物であるAさんの顔にマスクを掛ける必要がある場合、肌色が所定面積以上である領域は人の顔の可能性があるので、このような領域をマスク候補として切り出す。
The mask
マスク候補取得部220は、切出参照リスト格納部221と、マスク候補切出部222と、を備える。
The mask
切出参照リスト格納部221は、マスク候補として切出し対象になる領域を検出するための切出参照リストを格納している。切出参照リストは、プリセットされていてもよく、マスク対象の特徴から自動的に生成されるようにしてもよく、あるいは、ユーザが設定入力してもよい。切出参照リストとしては、所定面積以上の肌色領域や、文字および数字のリストデータなどがあげられる。
The cut-out reference
文字および数字のリストデータを切出参照リストとして持つ意味を補足しておく。
プライバシーに関するものとしては、顔の他にも、氏名、団体名(会社名や学校名)、住所表示、電話番号、車のナンバーなどがある。したがって、090−XXXX−XXXXといった電話番号にはプライバシーマスクを掛ける必要がある。そこで、画像フレーム中に"0"といった数字や後述するように何らかの文字が現れれば、それらをマスク対象の候補として切り出しておく必要がある。そして、最終的に、"090−"のように数字が並べばこの数字列にマスク処理を施すことになるし、単に"0"だけ、もしくは"0"のように見える模様であった場合にはマスク処理は必要ないことになる。
The meaning of having the list data of letters and numbers as the cut-out reference list will be supplemented.
As for privacy, in addition to the face, there are name, organization name (company name or school name), address display, telephone number, car number, etc. Therefore, it is necessary to put a privacy mask on a phone number such as 090-XXXX-XXXX. Therefore, if a number such as “0” or some characters appear in the image frame as described later, it is necessary to cut them out as candidates for masking. Finally, if the numbers are arranged like “090-”, the number string is masked. If the pattern looks just “0” or “0”, Does not require masking.
もう一例あげると、最終的に"横浜"や"横浜市XXX区"、"横X学園XX学校"といったように文字が並べばこれらにマスク処理を施すことになるし、単に、"横"という字が一文字だけであれば、プライバシーに何ら関係がないので、マスク処理は必要ないことになる。
文字としては、外国語にも対応できるように、アルファベットや、ハングル、中国語の略字も切出参照リストに加えておくとよい。
As another example, if characters are finally arranged like "Yokohama", "Yokohama City XXX Ward", or "Horizontal X Gakuen XX School", they will be masked. If there is only one character, there is no need for masking because it has nothing to do with privacy.
As characters, alphabets, Hangul, and Chinese abbreviations should be added to the extracted reference list so that foreign languages can be handled.
マスク候補切出部222は、データ入力部210から順次入力される画像フレームを検索し、切出参照リスト格納部221に格納された切出参照リストに合致するものがあるか否かを探す。そして、切出参照リストに合致するものが画像フレーム中に存在している場合、その領域部分を切り出してマスク候補領域として切り出し、後段回路に出力する。
このとき、切り出されたマスク候補領域は、もとのフレームに関連付けられる情報を保持するものとする。フレームに関連付けられる情報とは、例えば、切出し元のフレーム番号およびそのフレーム内での座標である。
The mask
At this time, it is assumed that the extracted mask candidate area holds information associated with the original frame. The information associated with the frame is, for example, the frame number of the cut-out source and the coordinates within the frame.
次に、マスク対象決定部230は、マスク候補取得部220で取得されたマスク候補の領域に対し、真にマスク対象であるか否かを検証する。
マスク対象決定部230は、特徴量算出部231と、マスク対象参照リスト格納部232と、類似度算出部233と、類似判定部234と、を備える。
Next, the mask
The mask
特徴量算出部231は、マスク候補切出部222で切り出された最新のマスク候補に対して特徴量を算出する。特徴量とは、対象画像の特徴を表わす各種指標値の組み合わせであり、対象画像の特徴点を表わす指標値や、特徴点同士の距離関係を表わす指標値、特徴部分の大きさを表わす指標値、対象画像の輪郭を表わす指標値、輝度を表わす指標値、色を表わす指標値、などからなる。
特徴量算出部231は、算出した特徴量を類似度算出部233に送る。
The feature
The feature
マスク対象参照リスト格納部232は、マスク対象になる領域を検出するための参照情報を格納している。マスク対象参照リスト格納部232に格納されている参照情報としては、プライバシーマスクが必要な特定人物の顔(Aさんの顔、Bさんの顔・・・)、電話番号や車両番号であることを特定するための数字列、氏名・団体名(会社名や学校名)・住所表示であることを特定するための文字列、などが挙げられる。これらの参照情報がそれぞれの特徴量とセットになって格納されている。
The mask target reference
類似度算出部233は、特徴量算出部231で算出された特徴量をマスク対象参照リスト格納部232に格納された特徴量と比較し、類似度を算出する。類似度の算出にあたっては、マスク候補の指標値とマスク対象参照リストの指標値とで互いに対応するもの同士をつきあわせ、両者の類似度合いを総合的に評価して類似度を求める。なお、マスク候補が肌色領域であって人の顔である可能性がある場合に、これを電話番号の特徴量と対比して類似度を算出しても意味のないことなのであり、マスク候補が肌色領域である場合に突き合わされる参照情報は特定人物の顔である。
類似度の算出に当たって適切な参照情報を選ばせる方法は各種考えられるが、例えば、色や輝度で判断してもよく、あるいは、総ての参照情報と突き合わせた上で最も類似度が高くなるものを選んでもよい。
The
There are various ways to select appropriate reference information for calculating similarity, but for example, it may be judged by color or brightness, or the highest similarity will be obtained after matching with all reference information You may choose.
類似判定部234は、類似度算出部233で算出された類似度を所定の閾値と比較する。そして、類似度が閾値を超えている場合、そのマスク候補領域がマスク対象領域であることが確定する。類似度が閾値を超えた場合には、その旨をマスクフラグ付与部240と位置判定部250とに通知する。
The
マスクフラグ付与部240は、マスク対象領域にマスクフラグを設定する。マスク対象領域にマスクフラグを設定するにあっては、類似判定部234による判定によってマスク対象であることが確定したマスク対象の領域にマスクフラグを付与することはもちろんである。
図5に示すように、フレームF40、フレームF50、フレームF60等では類似度が閾値以上になる程度に顔が映っているので、マスクフラグ付与部240によってこれらの顔が映っている領域にはマスクフラグが付与される。ここで、マスク対象(被写体)がフレームインし始めてからマスク対象であると確定するまでの間の映像(フレームF10からフレーム30)にもマスクを掛ける必要があるところ、これは後述の位置判定部250およびマスク補充部260によって達成される。
The mask
As shown in FIG. 5, since the face is reflected in the frame F40, the frame F50, the frame F60, and the like so that the degree of similarity is equal to or greater than the threshold value, the mask
位置判定部250は、確定したマスク対象領域の位置と画像フレームのフレーム枠との位置関係を調べる。具体的には、マスク対象領域とフレーム枠との距離が所定閾値以下であるか否かを判定する。マスク対象領域とフレーム枠との距離が所定閾値以下である場合、位置判定部250は、マスク対象を検出できたフレーム(フレームF40)よりも前のフレーム(フレームF10からフレーム30)に対して補充的なマスクを作成させるため、マスク補充部260を起動させる。そして、マスク補充部260を起動させた後は、類似判定部234経由で取得するマスク対象領域の座標情報をマスク補充部260に出力する。
The
ここで、マスク対象領域とフレーム枠との距離が所定閾値以下である場合、このマスク対象はフレームの端から徐々にフレームインしてきたものであると考えられる。例えば、図5を参照すると、フレームF40においてはマスク対象領域がフレーム枠に極めて近い。この場合、フレームF40の以前のフレーム(フレームF10からフレームF30)ではマスク対象(被写体)が十分にフレームに収まっていなかったためにマスク対象であると認識されていない恐れがある。
なお、マスク対象領域の位置という場合、マスク対象領域の中心座標Ccを用いてもよく、あるいは、マスク対象領域が四角形であれば四角形の四隅のいずれを用いてもよい。マスク対象領域の位置の取り方に合わせて所定閾値の値や判定方法を適切に調整すればよい。
Here, when the distance between the mask target area and the frame frame is equal to or smaller than a predetermined threshold value, it is considered that the mask target is gradually framed in from the end of the frame. For example, referring to FIG. 5, in the frame F40, the mask target area is very close to the frame frame. In this case, in the previous frame (frame F10 to frame F30) of the frame F40, there is a possibility that the mask target (subject) is not sufficiently contained in the frame and is not recognized as the mask target.
In the case of the position of the mask target area, the center coordinates Cc of the mask target area may be used, or any of the four corners of the rectangle may be used if the mask target area is a square. What is necessary is just to adjust the value of a predetermined threshold value and the determination method appropriately according to how to take the position of the mask target area.
次に、マスク補充部260について説明する。
マスク補充部260は、マスク対象領域の移動軌跡に基づいて、マスク対象が検出される以前のフレームに掛けるマスクを作成する。
マスク補充部260は、座標情報取得部261と、補外用データ保持部262と、動き補外部263と、移動マスク作成部264と、を備える。
Next, the
The
The
座標情報取得部261は、類似判定部234および位置判定部250経由で取得するマスク対象領域の座標情報を抜き出し、補外用データ保持部262に格納させる。ここで、座標情報とは、マスク対象領域の座標値、マスク対象領域の大きさ(サイズ)、および、マスク対象領域が属するフレームのタイムスタンプ、であり、これらをセットにして補外用データ保持部に保持させる。補外用データ保持部262は、一時メモリであり、図6のように、マスク対象領域の座標値、サイズ、そのタイムおよびフレーム番号を合わせて保持する。
The coordinate
動き補外部263は、補外用データ保持部262に保持された座標情報に基づいて、マスク対象が検出される前の動きを補外法によって推測する。
例えば、図6のように補外用データ保持部262に保持されたデータをグラフにプロットすると図7のようにフレームF40以降におけるマスク対象領域の移動軌跡が求められる。ここでは、分かり易くするため、x座標の変化のみを表わしているが、y座標および領域サイズについても時間の関数として同じようにプロットできる。そして、フレームF40よりも時間的に前のフレーム内でのマスク対象の移動軌跡を補外法で推測するため、図7のグラフを時間的に前に延長する。すると、図8のように、フレームF40よりも時間的に前のフレームにおけるマスク対象の推定軌跡が得られる。
The
For example, when the data held in the extrapolation
移動マスク作成部264は、動き補外部263において図8のように得られた推定軌跡に対し、この軌跡に沿って移動するマスク対象に掛かるように移動するマスクを作成する。例えば、図9のように、フレームF10からフレームF39までに対して左から徐々にフレーム内に入ってくるように移動するマスクを作成する。移動マスク作成部264は、このように作成した移動マスクの情報をマスクフラグ付与部240に出力する。移動マスクの情報とは、移動マスクの座標値、移動マスクの大きさ(サイズ)、および、移動マスクを付加するフレーム番号の情報である。
The movement
メタファイル作成部270は、マスクを掛ける領域についての情報をマスクフラグ付与部240から取得する。マスクを掛ける領域とはマスク対象領域であり、マスクを掛ける領域についての情報とは、例えば、マスク対象領域の座標、サイズ、フレーム番号といった情報である。繰り返しになるが、マスク対象領域としては、類似判定部234による閾値判定でマスク対象であると確定した領域の他、移動マスク作成部264で作成された移動マスクが付加される領域も含まれることはもちろんである。メタファイル作成部270は、マスク対象領域にマスクを掛ける命令を含むメタファイルを作成する。メタファイル作成部270は、作成したマスク用メタファイルをマスク付加部280に出力する。
The
マスク付加部280は、メタファイルのマスク処理命令に従って動画データにマスクを掛けていく。このとき、動画メモリ120に蓄積された総ての動画データに関するメタファイルが作成されるのを待ってからマスク付加部280でのマスク処理を開始してもよい。すなわち、メタファイル作成のための復号処理をしたあと、あらためての動画メモリ120から動画データを取り出して復号化する。このときはマスク候補取得部220やマスク対象決定部230を起動させる必要はなく、復号化された画像データをマスク付加部280にのみ送り、そこでメタファイルに従ったマスク付加を行う。
The
あるいは、メタファイルの作成から所定の時間遅れをもたせてマスク付加部280でのマスク処理を進行させてもよい。例えば、マスク候補切出部222が処理中であるフレームのタイムスタンプに対し、数分分の遅れを持たせていれば前記フレームに対するマスク処理の要否は確定されている。
Alternatively, the mask processing in the
マスク付加部280でマスク付加された動画データはデータ出力部290から出力される。そして、例えば、パソコンのハードディスクなどに一旦保存されたあと、インターネット上のサーバに送られることになる。
The moving image data masked by the
(第1実施形態の動作)
続いて、第1実施形態の動作を説明する。
ユーザによる動画撮影(ST10)からマスク付加されたデータの出力(ST60)までの流れは、図10に示すように、撮影(ST10)、動画データの保存(ST20)、マスク処理の事前準備(ST30)、マスク処理用メタファイルの作成(ST40)、マスク付加(ST50)、データ出力(ST60)の順で進む。
(Operation of the first embodiment)
Subsequently, the operation of the first embodiment will be described.
As shown in FIG. 10, the flow from the moving image shooting (ST10) by the user to the output of the masked data (ST60) is as follows: shooting (ST10), storage of moving image data (ST20), and advance preparation of mask processing (ST30) ), Creation of a mask processing metafile (ST40), mask addition (ST50), and data output (ST60).
先に説明したように、図2のように動画を撮影し(ST10)、動画データは動画メモリ120に保存される(ST20)。次に、マスク処理の事前準備を行う(ST30)。マスク処理の事前準備(ST30)として、ユーザはマスク対象に関する情報をマスク対象参照リスト格納部232に格納しておく。本例でいえば、子供CAの顔の特徴量をマスク対象参照リスト格納部232に格納しておく。
子供CAの顔の特徴量をマスク対象参照リスト格納部232に格納するにあたっては、例えば、別途に撮影した子供CAの顔のデータをビデオカメラ100にセットしてもよい。あるいは今回撮影した動画のなかから子供CAの顔が映っている領域を指定して、これをマスク対象としてビデオカメラ100にセットしてもよい。ビデオカメラ100は、マスク対象としてセットされた領域から自動的に特徴量を算出してマスク対象参照リスト格納部232に格納する。
As described above, a moving image is shot as shown in FIG. 2 (ST10), and the moving image data is stored in the moving image memory 120 (ST20). Next, preliminary preparation for mask processing is performed (ST30). As advance preparation for mask processing (ST30), the user stores information on the mask target in the mask target reference
In storing the feature amount of the face of the child CA in the mask target reference
これに合わせて切出参照リスト格納部221に切出参照リストを登録しておく必要がある。これについてはマスク対象参照リスト格納部232の情報からビデオカメラ100が自動的に切出参照リストを生成するようにしてもよい。あるいは、人物の顔がマスク対象に設定されたならば、自動的に所定面積以上の肌色領域が切出参照リストに加えられるようにしてもよい。
In accordance with this, it is necessary to register the extracted reference list in the extracted reference
このような事前準備(ST30)が終わったところで、マスク処理部200を起動してマスク処理用メタファイルの作成(ST40)を実行する。マスク処理用メタファイルの作成工程(ST40)を図11のフローチャートを参照して説明する。撮影された動画データは動画メモリ120に蓄積された後、データ入力部210からマスク処理部200に入力される(ST101)。データ入力部210の復号化部211において動画データが復号化され(ST102)、画像フレームが順次マスク候補切出部222に送られる。マスク候補切出部222は、画像フレーム中に切出参照リストに合致するマスク候補領域があるか否かを探索する。フレームF00の段階では、肌色の領域はないのであるからマスク候補となる領域はない(ST130でNO)。マスク候補の領域がなければ、次ぎの画像フレームに探索対象を移していく。
When such advance preparation (ST30) is completed, the
フレームF00からフレームF10に移行するにつれて徐々に子供CAがフレームに入ってくる。子供CAの顔が所定面積を超えてフレームに入ってくれば、これは切出参照リストに合致することになる(ST103でYES)。
例えばフレームF10で肌色面積が所定値を超えたとする。すると、マスク候補切出部222は、所定面積以上の肌色領域R10をマスク候補として切り出す(ST104)(図12参照)。このとき、前述したように、切り出された領域(R10)のデータには、切出し元のフレームF10のフレーム番号およびこのフレームF10中での座標が付加されている。
As the frame F00 shifts to the frame F10, the child CA gradually enters the frame. If the face of the child CA exceeds the predetermined area and enters the frame, this matches the cut-out reference list (YES in ST103).
For example, assume that the skin color area exceeds a predetermined value in the frame F10. Then, the mask
マスク候補領域(R10)が切り出されると、この領域(R10)に対して特徴量算出部231により特徴量が算出される(ST105)。算出された特徴量は類似度算出部233に送られ、そこでマスク対象参照リストとの比較に基づいた類似度が求められる(ST106)。
算出された類似度は類似判定部234において閾値と対比される。領域R10については、子供CAの顔の特徴量と類似する点はないので、類似度が閾値Thを超えることはない(ST107でNO)。この場合、領域R10はマスク対象として確定せず(ST107でNO)、次ぎの画像フレームの処理に進む。
When the mask candidate region (R10) is cut out, the feature
The calculated similarity is compared with a threshold value in the
フレームF10からフレームF30に移るにつれて、子供が映っている領域が徐々に大きくなっていくので肌色領域はすべてマスク候補として切出しの対象となるが(ST103でYES)、まだ子供の顔が十分にフレーム内に映ってはいないので、類似判定(ST107)において類似度が閾値Thを超えることはない(ST107でNO)。 As the area from the frame F10 to the frame F30 is gradually increased, the area in which the child is reflected gradually increases, so all skin color areas are subject to extraction as mask candidates (YES in ST103), but the child's face is still fully framed. In the similarity determination (ST107), the similarity does not exceed the threshold value Th (NO in ST107).
フレームF30からさらに進んでフレームF40が処理対象のフレームになった時点を考える。フレームF40では領域R40において顔の80%程度がフレーム内に入っている状態である。領域R40は、所定面積以上の肌色領域であるのでマスク候補としてマスク候補切出部222によって切り出され(ST104)、さらに、子供CAの顔の80%程度が映っているので、マスク対象参照リストにある指標(子供の顔の特徴量)と複数点で相関が高く、類似度としては大きな値が算出される。従って、R40について求められた類似度S40は、閾値Th以上になる(ST107でYES)。 Consider the point in time when the frame F40 is further processed from the frame F30 and becomes the frame to be processed. In the frame F40, about 80% of the face in the region R40 is in the frame. Since the region R40 is a skin color region having a predetermined area or more, it is cut out as a mask candidate by the mask candidate cutout unit 222 (ST104), and furthermore, about 80% of the face of the child CA is shown, so that it is included in the mask target reference list. A certain index (feature value of a child's face) has a high correlation at a plurality of points, and a large value is calculated as the similarity. Therefore, the similarity S40 obtained for R40 is equal to or greater than the threshold Th (YES in ST107).
このように類似度S40が閾値Th以上になった場合、類似判定部234は、閾値Th以上の類似度Sをもつ領域が出現したことをマスクフラグ付与部240に通知する。すると、類似度が閾値以上となった領域R40に対してマスクフラグ付与部240によってマスクフラグが付与される(ST108)。
As described above, when the similarity S40 is equal to or greater than the threshold Th, the
次に、このようにマスク対象が出現したところで、位置判定部250による位置判定(ST109)を実行する。すなわち、マスク対象である領域R40とフレーム枠との距離を所定閾値と対比する(ST110)。
Next, when the mask target appears in this way, position determination (ST109) by the
マスク対象(R40)とフレーム枠との距離が所定閾値を超えていれば(ST110でNO)、移動マスクを補充する必要はないと判断する。したがって、マスク対象として確定した領域R40に付されているマスクフラグに従って、マスク対象領域R40にマスクを掛けるメタファイルをメタファイル作成部270によって作成する(ST111)。
If the distance between the mask target (R40) and the frame frame exceeds a predetermined threshold (NO in ST110), it is determined that it is not necessary to replenish the moving mask. Accordingly, the
一方、ST110において、マスク対象領域(R40)とフレーム枠との距離が所定閾値以下である場合(ST110でYES)、フレームインしてきた被写体に必要なマスクを掛けられていない可能性がある。そこでこの場合、マスク補充部260を起動させて、移動マスク作成を開始する(ST120)。
On the other hand, in ST110, when the distance between the mask target region (R40) and the frame is equal to or smaller than the predetermined threshold (YES in ST110), there is a possibility that the necessary mask is not put on the subject that has entered the frame. Therefore, in this case, the
移動マスクを作成する工程を図13のフローチャートを参照して説明する。
移動マスクを作成するために、座標情報取得部261によってマスク対象領域の座標情報を取得する(ST121)。
これは、マスク対象が確定した後のフレーム(フレームF40以降のフレーム)についても順次ST101からST107を実行していく際に、座標情報取得部261は、フレームF40以降のフレームに関して類似判定部234および位置判定部250経由でマスク対象となる領域の座標情報を取得する。これにより、フレームF40以降のマスク対象領域について、座標、サイズ、そのフレームのタイムスタンプといった座標情報が補外用データ保持部262に格納されていく(図6参照)。
そして、ST122において、必要量のデータが拾集されたか否かを判定する。これは、図8にて示したように補外法で時間的に前のフレームにおけるマスク対象の動きを推定するにあたって十分なデータ量があるか否かを動き補外部263において判定するものである。
The process of creating the movement mask will be described with reference to the flowchart of FIG.
In order to create a movement mask, the coordinate
This is because the coordinate
In ST122, it is determined whether or not a necessary amount of data has been collected. As shown in FIG. 8, the
データ数が十分かどうかを判定する基準は適宜設定されればよい。
例えば、フレームF40以降の座標情報に対して回帰直線や、適当な次数の関数曲線や、適切なスプライン曲線などでフィッティングカーブを描く(図7参照)。マスク対象として最初に確定したフレーム(フレームF40)から数えて数十フレーム(フレームF40からフレームF60あたりまで)に対する残差が所定値以下になっていれば、補外法が適用できる程度にデータが集まったと判断してもよい。
なお、マスク対象として最初に確定したフレーム(フレームF40)に近いほど寄与度が大きくなる重みを付け、マスク対象として最初に確定したフレーム(フレームF40)の直後の数フレームにおける動きがより強く反映されるようにしてもよい。
The criteria for determining whether the number of data is sufficient may be set as appropriate.
For example, a fitting curve is drawn with respect to the coordinate information after the frame F40 using a regression line, a function curve of an appropriate degree, an appropriate spline curve, or the like (see FIG. 7). If the residual with respect to several tens of frames (from the frame F40 to around the frame F60) counted from the frame (frame F40) first determined as a mask target is equal to or less than a predetermined value, the data can be applied to the extent that extrapolation can be applied. You may judge that they have gathered.
It should be noted that the weight of the contribution increases as the distance from the frame first determined as the mask target (frame F40) increases, and the motions in the frames immediately after the frame first determined as the mask target (frame F40) are more strongly reflected. You may make it do.
補外法を適用するのに十分なデータが集まったところで(ST122でYES)、マスク対象領域の移動軌跡を外挿し(ST123)、マスク対象が検出される前の動きを推定する(図8参照)。このように外挿で推定したマスク対象の移動に掛かるように移動マスク作成部264により移動マスクを作成する。これにより、図9に示したように、マスク対象が検出される前のフレーム(フレームF10からフレームF30・・)に掛かるマスクが作成される。
When sufficient data is collected to apply the extrapolation method (YES in ST122), the movement trajectory of the mask target region is extrapolated (ST123), and the motion before the mask target is detected is estimated (see FIG. 8). ). In this way, the movement
作成された移動マスクの情報をマスクフラグ付与部240に出力し、マスクフラグ付与部240において移動マスクの領域にマスクフラグを付与する(ST125)。
Information on the created moving mask is output to the mask
マスクフラグを付与されたマスク対象データがメタファイル作成部270に送られ、マスク処理を命令するメタファイルが作成される(ST111)。動画メモリ120に蓄積された動画データの全フレームを検証して(ST112でYES)、マスク処理用のメタファイルが完成する。
The mask target data provided with the mask flag is sent to the
このように作成されたメタファイルに従って動画データにマスク処理を施す(ST50)。すなわち、マスク付加部280は、復号化された動画フレームデータに対しメタファイルに指定された領域にマスクを掛けていく(ST50)。すると、図14に示すように、子供がフレームに映り始めたところからマスク処理が掛かり、子供のプライバシーを保護することができる。
The moving image data is masked according to the metafile thus created (ST50). That is,
このような構成を備える第1実施形態によれば次の効果を奏することができる。
(1)本実施形態ではマスク補充部260を備えており、マスク対象が検出される前のフレームに対しても補外法によってマスク対象の動きを推定し、移動マスクを掛けることとしている。
これにより、マスク対象(被写体)がフレームインし始めてからマスク対象であると確定するまでの間の映像にもマスクを掛けることができ、プライバシーを確実に保護できる。
According to 1st Embodiment provided with such a structure, there can exist the following effects.
(1) In this embodiment, the
Thereby, it is possible to mask an image from when the mask target (subject) starts to be framed in until the mask target (subject) is determined to be the mask target, and privacy can be reliably protected.
(2)本実施形態では、移動マスクを補充するにあたって補外用データ保持部262に座標情報を保持するが、これらは画像情報ではなく単なる数値であるので補外用データ保持部262の容量は小さくてもよい。例えば、従来技術のようにマスク対象を検出した後で時間的に遡及して関連部分を辿れるように所定量の動画データをバッファに一時保存しておくという方法があるが、これでは非常に大きな容量のメモリが必要になる。そして、バッファから溢れてしまった画像データについては遡及的に検索することはできず、その部分はプライバシーマスク無しで公開されてしまう恐れもある。
この点、本実施形態では移動マスクの作成にあたって必要になるデータは座標情報だけであり、画像情報そのものは保持しておく必要はないのでメモリ容量は極小さくてもよい。また仮にマスク対象の移動軌跡を外挿するのにどれほど多量のフレームを追跡しなければならないとしても、座標情報を一時的に保持するだけでよいのでメモリ容量が問題になることはない。
したがって、必要であれば十分な量の座標情報を収集した後で、正確性の高い移動マスクを作成することができる。
(2) In this embodiment, coordinate information is held in the extrapolation
In this respect, in the present embodiment, only the coordinate information is necessary for creating the movement mask, and it is not necessary to store the image information itself, so the memory capacity may be extremely small. Also, no matter how many frames must be tracked to extrapolate the movement trajectory of the mask object, the memory capacity does not become a problem because it is only necessary to temporarily hold the coordinate information.
Therefore, a movement mask with high accuracy can be created after collecting a sufficient amount of coordinate information if necessary.
(3)位置判定部250を備え、新たに検出されたマスク対象の領域がフレーム枠に近いかどうかを位置判定部250によって判定することによって移動マスクの要否を判断する。単純に、新たにマスク対象が検出されるたびに補外法で移動マスクを補充していると必要のないマスクが入り乱れる恐れがあるが、この点、本実施形態ではマスク対象領域の出現位置に基づいて移動マスクの必要性を適切に判断することができる。これにより、必要な場合にだけ移動マスクを適切に付加することができる。
(3) A
(変形例1)
上記第1実施形態において、位置判定部250では新たに出現したマスク対象領域とフレーム枠との距離にだけ基づいて移動マスクの要否を判断していた。移動マスクが必要であるか否かを判断するにあたっては、別の判定要件を用いてもよい。
例えば、マスク対象領域がフレームの中心方向に移動しているかどうかを判定要件としもよい。あるいは上記の二つとも用い、両方を満たした場合にマスク補充部を起動させてもよい。さらには、上記二つの要件のうちいずれか一方でも満たせばマスク補充部を起動させてもよい。
(Modification 1)
In the first embodiment, the
For example, it may be determined whether or not the mask target area is moving in the center direction of the frame. Alternatively, both of the above two may be used, and the mask replenishment unit may be activated when both are satisfied. Furthermore, the mask replenishment unit may be activated if any one of the two requirements is satisfied.
なお、本発明は上記実施形態および変形例に限られず、本発明の趣旨を逸脱しない範囲で適宜変更することが可能である。
上記実施形態においては、特定人物の顔にプライバシーマスクを掛ける場合を説明したが、逆に、特定人物にはマスクを掛けず、その他のたまたま映ってしまった一般の人の顔にプライバシーマスクを掛けるようにしてもよいことはもちろんである。この場合、被写体が、「人の顔ではあるが特定人物の顔ではない」ということを閾値判定で判断すればよいのであり、このような判定のためにマスク対象参照リストや類似判定部を改変することは当業者には明らかであろう。
The present invention is not limited to the above-described embodiments and modifications, and can be appropriately changed without departing from the spirit of the present invention.
In the above embodiment, the case where the privacy mask is put on the face of the specific person has been described, but conversely, the mask is not put on the specific person, and the face of the general person who happens to be reflected is put on the privacy mask. Of course, you may do it. In this case, it is only necessary to determine that the subject is “a person's face but not a specific person's face” by threshold determination, and the mask target reference list and similarity determination unit are modified for such determination. It will be apparent to those skilled in the art.
「肌色」というのは人種によって異なるのであるから、マスク対象の人種を考慮して解釈されるべきである。例えば、ビデオカメラが使用される国がアジア圏であれば、肌色とは例えばモンゴロイドの肌の色、すなわち、淡黄色を意味する。被写体がコーカソイドやニグロイドであれば当然ながら肌色は白色であったり黄褐色であったりする。 Since “skin color” varies depending on race, it should be interpreted in consideration of the race to be masked. For example, if the country where the video camera is used is Asia, the skin color means, for example, the skin color of Mongoloid, that is, light yellow. Naturally, if the subject is a Caucasian or Niggloid, the skin color may be white or tan.
上記実施形態では撮影が終了した後でマスク処理部を起動してマスク処理を行う例を説明したが、撮影しながら並行してマスク処理を実行してもよい。 In the above-described embodiment, an example in which the mask processing unit is activated and mask processing is performed after photographing is completed has been described. However, mask processing may be performed in parallel while photographing.
CPUやメモリを配置してコンピュータとして機能できるように構成し、このメモリに所定の制御プログラムをインターネット等の通信手段や、CD−ROM、メモリカード等の記録媒体を介してインストールし、このインストールされたプログラムでCPU等を動作させて、上記実施形態で説明した各機能部としての機能を実現してもよい。 The CPU and memory are arranged so as to function as a computer, and a predetermined control program is installed in this memory via a communication means such as the Internet or a recording medium such as a CD-ROM or a memory card. The function as each functional unit described in the above embodiment may be realized by operating a CPU or the like with a program.
100…ビデオカメラ、110…ビデオカメラの撮像部、120…動画メモリ、200…マスク処理部、210…データ入力部、211…復号化部、220…マスク候補取得部、221…切出参照リスト格納部、222…マスク候補切出部、222…順次マスク候補切出部、222…マスク候補切出部、230…マスク対象決定部、231…特徴量算出部、232…マスク対象参照リスト格納部、233…類似度算出部、234…類似判定部、240…マスクフラグ付与部、250…位置判定部、260…マスク補充部、261…座標情報取得部、262…補外用データ保持部、263…動き補外部、264…移動マスク作成部、270…メタファイル作成部、280…マスク付加部、290…データ出力部、900…動画像データ記録再生システム、910…パソコン、920…インターネット、930…サーバ。 DESCRIPTION OF SYMBOLS 100 ... Video camera, 110 ... Video camera imaging part, 120 ... Movie memory, 200 ... Mask processing part, 210 ... Data input part, 211 ... Decoding part, 220 ... Mask candidate acquisition part, 221 ... Extraction reference list storage , 222 ... Mask candidate cutout part, 222 ... Sequential mask candidate cutout part, 222 ... Mask candidate cutout part, 230 ... Mask target determination part, 231 ... Feature quantity calculation part, 232 ... Mask target reference list storage part, 233 ... Similarity calculation unit, 234 ... Similarity determination unit, 240 ... Mask flag assignment unit, 250 ... Position determination unit, 260 ... Mask supplementation unit, 261 ... Coordinate information acquisition unit, 262 ... Extrapolation data holding unit, 263 ... Movement Supplementary external, 264 ... movement mask creation unit, 270 ... metafile creation unit, 280 ... mask addition unit, 290 ... data output unit, 900 ... moving image data recording / playback Stems, 910 ... PC, 920 ... the Internet, 930 ... server.
Claims (6)
予め登録された切出参照リストに基づいて、前記動画データの画像フレームのなかからマスク対象になり得る領域をマスク候補領域として切り出すマスク候補切出部と、
予め登録されたマスク対象参照リストに基づいて、最新の前記マスク候補領域を前記マスク対象参照リストと対比して両者の類似度を算出する類似度算出部と、
前記算出された類似度を所定閾値と対比して、前記類似度が所定閾値以上である場合にはそのマスク候補領域をマスク対象として確定させる類似判定部と、
前記類似判定部による判定よってマスク対象に確定した領域の動きを時間的に後ろに追跡して得られる移動軌跡を用いて前記マスク対象に確定した領域の時間的に前の移動軌跡を推測し、この推測した時間的に前の移動軌跡によって得られた領域に掛かる補充マスクを作成するマスク補充部と、
前記類似判定部による判定によってマスク対象に確定した領域に加えて前記マスク補充部で作成された前記補充マスクの領域に対してマスクを付加するマスク付与部と、を備える
ことを特徴とする画像処理装置。 An image processing apparatus for searching image areas to be masked from moving image data and adding a mask to them,
Based on a pre-registered cut-out reference list, a mask candidate cut-out unit that cuts out an area that can be a mask target from among the image frames of the moving image data as a mask candidate area;
Based on a pre-registered mask target reference list, a similarity calculation unit that calculates the similarity of both by comparing the latest mask candidate region with the mask target reference list;
A similarity determination unit that compares the calculated similarity with a predetermined threshold and determines the mask candidate region as a mask target when the similarity is equal to or higher than the predetermined threshold;
Estimating the temporal movement trajectory of the area determined as the mask target using a movement trajectory obtained by tracking the movement of the area determined as the mask target by time determination by the similarity determination unit; A mask replenishment unit that creates a replenishment mask over the area obtained by the estimated movement trajectory in time;
A mask applying unit that adds a mask to the region of the replenishment mask created by the mask replenishment unit in addition to the region determined as a mask target by the determination by the similarity determination unit. apparatus.
前記類似判定部による判定によってマスク対象に確定した領域の座標情報を順次取得する座標情報取得部と、
前記座標情報取得部にて取得された座標情報を保持する補外用データ保持部と、
前記補外用データ保持部に保持されたデータを時間的に前に外挿してマスク対象が検出される前の動きを推測する動き補外部と、
前記動き補外部による外挿によって得られた動きに掛かるように移動するマスクを作成する移動マスク作成部と、を備える
ことを特徴とする請求項1に記載の画像処理装置。 The mask replenishment unit
A coordinate information acquisition unit that sequentially acquires coordinate information of regions determined as mask targets by the determination by the similarity determination unit;
An extrapolation data holding unit for holding the coordinate information acquired by the coordinate information acquisition unit;
Extrapolation of the data held in the extrapolation data holding unit in time and extrapolating the movement before the mask target is detected by extrapolating in advance in time,
The image processing apparatus according to claim 1, further comprising: a moving mask creating unit that creates a mask that moves so as to be subjected to a motion obtained by extrapolation by the motion compensation external.
前記距離が所定閾値以下の場合に、前記位置判定部は前記マスク補充部を起動させる
ことを特徴とする請求項1または請求項2に記載の画像処理装置。 A position determination unit that determines whether or not the distance between the region determined as the mask target by the determination by the similarity determination unit and the image frame is equal to or less than a predetermined threshold;
The image processing apparatus according to claim 1, wherein the position determination unit activates the mask replenishment unit when the distance is equal to or less than a predetermined threshold.
前記マスク対象に確定した領域が画像フレームの中心方向に移動している場合に、前記位置判定部は前記マスク補充部を起動させる
ことを特徴とする請求項1から請求項3のいずれか一項に記載の画像処理装置。 A position determination unit that determines whether or not the region determined as a mask target by the determination by the similarity determination unit is moving in the center direction of the image frame;
The position determination unit activates the mask replenishment unit when the region determined as the mask target is moving in the center direction of the image frame. An image processing apparatus according to 1.
予め登録された切出参照リストに基づいて、前記動画データの画像フレームのなかからマスク対象になり得る領域をマスク候補領域として切り出すマスク候補切出工程と、
予め登録されたマスク対象参照リストに基づいて、最新の前記マスク候補領域を前記マスク対象参照リストと対比して両者の類似度を算出する類似度算出工程と、
前記算出された類似度を所定閾値と対比して、前記類似度が所定閾値以上である場合にはそのマスク候補領域をマスク対象として確定させる類似判定工程と、
前記類似判定工程による判定よってマスク対象に確定した領域の動きを時間的に後ろに追跡して得られる移動軌跡を用いて前記マスク対象に確定した領域の時間的に前の移動軌跡を推測し、この推測した時間的に前の移動軌跡によって得られた領域に掛かる補充マスクを作成するマスク補充工程と、
前記類似判定工程による判定によってマスク対象に確定した領域に加えて前記マスク補充工程で作成された前記補充マスクの領域に対してマスクを付加するマスク付与工程と、を備える
ことを特徴とする画像処理方法。 An image processing method for searching image areas to be masked from video data and adding a mask to them,
Based on a pre-registered cut-out reference list, a mask candidate cut-out step of cutting out an area that can be a mask target from among the image frames of the moving image data as a mask candidate area;
Based on a pre-registered mask target reference list, a similarity calculation step of comparing the latest mask candidate region with the mask target reference list and calculating the similarity between the two,
A similarity determination step of comparing the calculated similarity with a predetermined threshold and determining the mask candidate region as a mask target when the similarity is equal to or higher than the predetermined threshold;
Estimating the temporal movement trajectory of the area determined as the mask target using a movement trajectory obtained by tracking the movement of the area determined as the mask target in time by the determination by the similarity determination step; A mask replenishment step for creating a replenishment mask over the region obtained by the estimated movement trajectory in time;
A mask applying step of adding a mask to the region of the replenishment mask created in the mask replenishment step in addition to the region determined as the mask target by the determination in the similarity determination step. Method.
このコンピュータを、
予め登録された切出参照リストに基づいて、前記動画データの画像フレームのなかからマスク対象になり得る領域をマスク候補領域として切り出すマスク候補切出部と、
予め登録されたマスク対象参照リストに基づいて、最新の前記マスク候補領域を前記マスク対象参照リストと対比して両者の類似度を算出する類似度算出部と、
前記算出された類似度を所定閾値と対比して、前記類似度が所定閾値以上である場合にはそのマスク候補領域をマスク対象として確定させる類似判定部と、
前記類似判定部による判定よってマスク対象に確定した領域の動きを時間的に後ろに追跡して得られる移動軌跡を用いて前記マスク対象に確定した領域の時間的に前の移動軌跡を推測し、この推測した時間的に前の移動軌跡によって領域に掛かる補充マスクを作成するマスク補充部と、
前記類似判定部による判定によってマスク対象に確定した領域に加えて前記マスク補充部で作成された前記補充マスクの領域に対してマスクを付加するマスク付与部と、して機能させる
画像処理プログラム。 An image processing program for searching image areas to be masked from video data and adding a mask to them,
This computer,
Based on a pre-registered cut-out reference list, a mask candidate cut-out unit that cuts out an area that can be a mask target from among the image frames of the moving image data as a mask candidate area;
Based on a pre-registered mask target reference list, a similarity calculation unit that calculates the similarity of both by comparing the latest mask candidate region with the mask target reference list;
A similarity determination unit that compares the calculated similarity with a predetermined threshold and determines the mask candidate region as a mask target when the similarity is equal to or higher than the predetermined threshold;
Estimating the temporal movement trajectory of the area determined as the mask target using a movement trajectory obtained by tracking the movement of the area determined as the mask target by time determination by the similarity determination unit; A mask replenishment unit that creates a replenishment mask that is applied to the region by the estimated movement trajectory in time,
An image processing program that functions as a mask applying unit that adds a mask to a region of the replenishment mask created by the mask replenishment unit in addition to a region determined as a mask target by determination by the similarity determination unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011239765A JP5712898B2 (en) | 2011-10-31 | 2011-10-31 | Image processing apparatus, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011239765A JP5712898B2 (en) | 2011-10-31 | 2011-10-31 | Image processing apparatus, image processing method, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013098750A true JP2013098750A (en) | 2013-05-20 |
JP5712898B2 JP5712898B2 (en) | 2015-05-07 |
Family
ID=48620263
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011239765A Active JP5712898B2 (en) | 2011-10-31 | 2011-10-31 | Image processing apparatus, image processing method, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5712898B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0848986A (en) * | 1994-08-03 | 1996-02-20 | Nippon Oil Co Ltd | Refrigerator oil composition and fluid composition for refrigerator |
JP2015084483A (en) * | 2013-10-25 | 2015-04-30 | キヤノン株式会社 | Image reproducing apparatus, method and program |
JP2016208127A (en) * | 2015-04-16 | 2016-12-08 | パナソニックIpマネジメント株式会社 | Case video processing apparatus, case video processing system, case video processing method, and program |
JP2017184120A (en) * | 2016-03-31 | 2017-10-05 | 株式会社Medi Plus | Image processing system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06133298A (en) * | 1992-10-14 | 1994-05-13 | Canon Inc | Motion vector detector |
JP2007183256A (en) * | 2005-12-08 | 2007-07-19 | Topcon Corp | Image processing device and method therefor |
JP2009044329A (en) * | 2007-08-07 | 2009-02-26 | Nikon Corp | Program, image processing method, and image processor |
JP2010233133A (en) * | 2009-03-30 | 2010-10-14 | Victor Co Of Japan Ltd | Video data recording device,video data playing device, video data recording method, and video data playing method |
-
2011
- 2011-10-31 JP JP2011239765A patent/JP5712898B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06133298A (en) * | 1992-10-14 | 1994-05-13 | Canon Inc | Motion vector detector |
JP2007183256A (en) * | 2005-12-08 | 2007-07-19 | Topcon Corp | Image processing device and method therefor |
JP2009044329A (en) * | 2007-08-07 | 2009-02-26 | Nikon Corp | Program, image processing method, and image processor |
JP2010233133A (en) * | 2009-03-30 | 2010-10-14 | Victor Co Of Japan Ltd | Video data recording device,video data playing device, video data recording method, and video data playing method |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0848986A (en) * | 1994-08-03 | 1996-02-20 | Nippon Oil Co Ltd | Refrigerator oil composition and fluid composition for refrigerator |
JP2015084483A (en) * | 2013-10-25 | 2015-04-30 | キヤノン株式会社 | Image reproducing apparatus, method and program |
JP2016208127A (en) * | 2015-04-16 | 2016-12-08 | パナソニックIpマネジメント株式会社 | Case video processing apparatus, case video processing system, case video processing method, and program |
JP2017184120A (en) * | 2016-03-31 | 2017-10-05 | 株式会社Medi Plus | Image processing system |
Also Published As
Publication number | Publication date |
---|---|
JP5712898B2 (en) | 2015-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5825121B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US10706892B2 (en) | Method and apparatus for finding and using video portions that are relevant to adjacent still images | |
KR101641646B1 (en) | Video masking processing method and apparatus | |
US8582918B2 (en) | Imaging device, image composition and display device, and image composition method | |
US20180075637A1 (en) | Personalizing image capture | |
JPWO2016016984A1 (en) | Imaging device and subject tracking method thereof | |
JP5712898B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US11156902B2 (en) | Method for automatically focusing on target object, photographic apparatus including automatic focus function, and computer readable medium storing automatic focus function program | |
JP6867056B2 (en) | Information processing equipment, control methods, and programs | |
JP2014045259A (en) | Terminal device, server, and program | |
CN113709545A (en) | Video processing method and device, computer equipment and storage medium | |
CN112399239A (en) | Video playing method and device | |
JP2014050022A (en) | Image processing device, imaging device, and program | |
JP2007179224A (en) | Information processing device, method, and program | |
JP2007133574A (en) | Access controller, access control system and access control method | |
JP6214762B2 (en) | Image search system, search screen display method | |
JP5810948B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2010178259A (en) | Digital camera | |
CN104935807B (en) | Photographic device, image capture method and computer-readable recording medium | |
CN112219218A (en) | Method and electronic device for recommending image capture mode | |
JP2007128332A (en) | Image management device and image management program | |
JP2011205296A (en) | Apparatus and program for image decoration | |
JP5267136B2 (en) | Electronic camera | |
US10282633B2 (en) | Cross-asset media analysis and processing | |
CN112887515A (en) | Video generation method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140228 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150210 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150223 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5712898 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |