JP2024001398A - Video processing method to protect privacy while maintaining sense of presence - Google Patents

Video processing method to protect privacy while maintaining sense of presence Download PDF

Info

Publication number
JP2024001398A
JP2024001398A JP2022100004A JP2022100004A JP2024001398A JP 2024001398 A JP2024001398 A JP 2024001398A JP 2022100004 A JP2022100004 A JP 2022100004A JP 2022100004 A JP2022100004 A JP 2022100004A JP 2024001398 A JP2024001398 A JP 2024001398A
Authority
JP
Japan
Prior art keywords
face
person
video
processing method
video processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022100004A
Other languages
Japanese (ja)
Inventor
晴樹 水科
Haruki Mizushina
健詞 山本
Kenji Yamamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokushima NUC
Original Assignee
University of Tokushima NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokushima NUC filed Critical University of Tokushima NUC
Priority to JP2022100004A priority Critical patent/JP2024001398A/en
Publication of JP2024001398A publication Critical patent/JP2024001398A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide signal processing that protects the privacy of others in a video and does not impair the sense of presence that a photograph has.
SOLUTION: The face of an other person shown in a photograph or video image is replaced with another face, which is a face different from the other person. In this case, the different faces in the video can be the face of the same person, the faces of multiple people, the faces of real people, or the faces synthesized using computer graphics. Furthermore, multiple types of parameters such as facial landmarks, facial expressions, and gender are used to replace the face of the other person with the different face.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2024,JPO&INPIT

Description

本発明は、映像に写っている人の顔の処理に関する。 TECHNICAL FIELD The present invention relates to processing of a person's face in an image.

観光地など他人がいる場面で写真やビデオを撮影すると、他人の顔(以下、他人顔と略す)が映ってしまうことが多々ある。こういったときはプライバシという観点で問題を起こしたり、他人を不愉快にしたりすることがあるため、撮影することや撮影したことを他人に断る必要がある。しかし他人が大勢いるときに全員に断るのは現実的に不可能であるし、少ない時でもいちいち断るのは面倒である。技術的にこの課題を解決できるのが望ましい。この場合、その人の顔を映像に写すこと、その映像を加工や変更等すること、あるいは映像に写った顔を公表することについての承諾や権限などが得られていない人が、少なくともここにいう他人に該当する。 When you take a photo or video in a scene where other people are present, such as at a tourist spot, the faces of other people (hereinafter referred to as other people's faces) are often shown. In such cases, it is necessary to refuse to take pictures or to others about being photographed, as it may cause problems in terms of privacy and may make others uncomfortable. However, it is realistically impossible to refuse everyone when there are many other people, and it is troublesome to refuse each and every one even when there are only a few. It would be desirable to be able to technically solve this problem. In this case, the person who does not have the consent or authority to capture the person's face in the video, to process or change the video, or to publish the face in the video, at least It corresponds to someone else.

この課題に対して、他人顔をぼかしたり、黒塗りしたり、モザイクをかけるなどの処理が撮影後に多々されている。しかしこれらの処理は、せっかく撮影した写真やビデオが有しているその場の雰囲気を損なってしまうという問題がある。 To address this issue, post-photography processes such as blurring, blacking out, or adding mosaics to other people's faces are often performed. However, these processes have the problem of spoiling the atmosphere of the scene that the photograph or video has.

そこで特許文献1では、顔の輪郭を抽出して、なるべく顔だけを処理することで、その場の雰囲気を損なわないようにしている。しかし、顔が黒塗りになるため雰囲気が損なわれていないとまでは言い難い。 Therefore, in Patent Document 1, the outline of the face is extracted and only the face is processed as much as possible so as not to spoil the atmosphere of the scene. However, since the face is painted black, it is difficult to say that the atmosphere has not been spoiled.

特許文献2では、背景を記憶しておき、他人を背景に置き換えることで他人を消すように処理している。しかし他人が消えてしまうため雰囲気が損なわれていないとまでは言い難い。 In Patent Document 2, the background is stored and the other person is erased by replacing the other person with the background. However, it is difficult to say that the atmosphere is intact because other people disappear.

特許第6504364号Patent No. 6504364 特許第6419749号Patent No. 6419749

本発明では、映像に写っている他人のプライバシを保護しつつも写真が有している臨場感を損なわない信号処理を提供する。 The present invention provides signal processing that protects the privacy of others in a video while not impairing the sense of realism that a photograph has.

本発明は、写真やビデオ(これらに相当する画像その他イメージデータなどを含み、特に区別の必要が無い場合はまとめて「映像」と表記する。)を撮影した後に、映像に写っている人の顔(「他人顔」という。)をこれとは別の顔(「別顔」という。)に置き換えることで、その場の雰囲気を損なわずに、かつ他人のプライバシを保護することを特徴とする処理(画像処理方法)である。以下、本発明の態様について説明する。
〔1〕写真又はビデオの映像に写っている他人の顔である他人顔をこれとは別の顔である別顔に置き換えることを特徴とする処理。
〔2〕顔のランドマークや表情、男女(性別)などの複数種類のパラメータを使いながら別顔に置き換えることを特徴とする上記〔1〕に記載の処理。
〔3〕映像内の別顔が同一人物の顔であることを特徴とする上記〔1〕~〔2〕のいずれか一項に記載の処理。
〔4〕映像内の別顔が複数人物の顔であることを特徴とする上記〔1〕~〔2〕のいずれか一項に記載の処理。
〔5〕映像内の別顔が実在の人物の顔であることを特徴とする上記〔1〕~〔4〕のいずれか一項に記載の処理。
〔6〕映像内の別顔がコンピュータグラフィックスで合成された顔であることを特徴とする上記〔1〕~〔4〕のいずれか一項に記載の処理。
〔7〕置き換えたことを明示する文章又はピクトグラムを映像に入れることを特徴とする上記〔1〕~〔6〕のいずれか一項に記載の処理。
〔8〕他人顔を所定画素数以下で写っている顔に制限することを特徴とする上記〔1〕~〔7〕のいずれか一項に記載の処理。
〔9〕特定の他人顔は置き換えないことを特徴とする上記〔1〕~〔8〕のいずれか一項に記載の処理。
〔10〕他人顔の向きの検出を、他人顔毎に変えることを特徴とする上記〔1〕~〔9〕のいずれか一項に記載の処理。
〔11〕他人顔の向きの検出を、他人顔によって変えないことを特徴とする上記〔1〕~〔9〕のいずれか一項に記載の処理。
〔12〕他人顔の向きの検出を、他人顔が映っている位置に応じて変えることを特徴とする上記〔1〕~〔9〕のいずれか一項に記載の処理。
〔13〕2枚以上の時系列の写真又はビデオにおいて、同一人物の他人顔を置き換える際には、同一人物の別顔にすることを特徴とする上記〔1〕~〔12〕のいずれか一項に記載の処理。
〔14〕2枚以上の時系列の写真又はビデオにおいて、他人顔のランドマークや表情、男女などの複数種類のパラメータの変化を所定以下に制限することを特徴とする上記〔1〕~〔13〕のいずれか一項に記載の処理。
〔15〕立体視用の2枚以上の時系列の写真又は立体視用のビデオにおいて、同一人物の他人顔を置き換える際には、同一人物の別顔にすることを特徴とする上記〔1〕~〔14〕のいずれか一項に記載の処理。
〔16〕立体視用の2枚以上の時系列の写真、又は立体視用のビデオにおいて、他人顔のランドマークや表情、男女などの複数種類のパラメータの変化を所定以下に制限することを特徴とする上記〔1〕~〔15〕のいずれか一項に記載の処理。
〔17〕顔のランドマークや表情、男女などの複数種類のパラメータを使いながら別顔に置き換える際に、他人顔のパラメータと別顔のパラメータとの差が最小にならない別顔を選択することを特徴とする上記〔1〕~〔16〕のいずれか一項に記載の処理。
〔18〕上記〔1〕~〔17〕のいずれか一項に記載の映像処理方法を用いる映像の作成方法。
The present invention provides a method for capturing images of people in the video after taking a photograph or video (including images and other image data equivalent to these, collectively referred to as "video" if there is no need to distinguish them). It is characterized by replacing a face (referred to as "other person's face") with a different face (referred to as "other face") to protect the privacy of others without spoiling the atmosphere of the scene. processing (image processing method). Aspects of the present invention will be described below.
[1] A process characterized by replacing a face of another person in a photo or video with a different face.
[2] The process described in [1] above, which is characterized by replacing the face with another face while using multiple types of parameters such as facial landmarks, facial expressions, and gender.
[3] The process according to any one of [1] to [2] above, wherein the different faces in the video are the faces of the same person.
[4] The process according to any one of [1] to [2] above, wherein the different faces in the video are the faces of multiple people.
[5] The process according to any one of [1] to [4] above, wherein the other face in the video is the face of a real person.
[6] The process according to any one of [1] to [4] above, wherein the other face in the video is a face synthesized using computer graphics.
[7] The process described in any one of [1] to [6] above, characterized in that a text or a pictogram clearly indicating that the replacement has been performed is included in the video.
[8] The process according to any one of [1] to [7] above, characterized in that other people's faces are limited to faces that are captured with a predetermined number of pixels or less.
[9] The process according to any one of [1] to [8] above, characterized in that a specific other person's face is not replaced.
[10] The process according to any one of [1] to [9] above, characterized in that the detection of the orientation of the other person's face is changed for each other person's face.
[11] The process according to any one of [1] to [9] above, characterized in that the detection of the orientation of the other person's face is not changed depending on the other person's face.
[12] The process according to any one of [1] to [9] above, characterized in that the detection of the direction of the other person's face is changed depending on the position where the other person's face is displayed.
[13] Any one of [1] to [12] above, characterized in that when replacing a different face of the same person in two or more time-series photos or videos, a different face of the same person is used. Processing described in Section.
[14] [1] to [13] above, characterized in that changes in multiple types of parameters, such as landmarks and expressions of other people's faces, gender, etc., are limited to below a predetermined value in two or more time-series photos or videos. ] The processing described in any one of the above.
[15] [1] above, characterized in that when replacing a different face of the same person in two or more time-series photographs for stereoscopic viewing or a video for stereoscopic viewing, a different face of the same person is used. ~ The treatment described in any one of [14].
[16] In two or more time-series photographs for stereoscopic viewing or videos for stereoscopic viewing, changes in multiple types of parameters such as landmarks and expressions of other people's faces, gender, etc. are limited to below a predetermined value. The process described in any one of [1] to [15] above.
[17] When replacing a face with a different face while using multiple types of parameters such as facial landmarks, expressions, and gender, select a different face that does not minimize the difference between the parameters of the other person's face and the parameters of the other face. The process described in any one of [1] to [16] above, characterized by:
[18] A method for creating a video using the video processing method according to any one of [1] to [17] above.

本発明の態様について別の観点から説明する。本発明の処理は、別顔が映った映像群をまとめる手段と、別顔が映った映像群から別顔群を抽出する手段と、抽出した別顔群のパラメータを推定する手段と、撮影した映像から他人顔を抽出する手段と、抽出した他人顔のパラメータを推定する手段と、他人顔のパラメータと別顔群のパラメータとを比較して別顔群から別顔を選択する手段と、選択した別顔を使って他人顔を置き換える手段とを有する。さらに、別顔に置き換えたことを映像に表示する手段を有してもよい。より具体的には以下のようにする。 Aspects of the present invention will be explained from another perspective. The processing of the present invention includes a means for combining a group of images in which different faces are shown, a means for extracting a group of different faces from a group of images in which different faces are shown, a means for estimating the parameters of the extracted group of different faces, and means for extracting a stranger's face from a video; means for estimating parameters of the extracted stranger's face; means for comparing parameters of the stranger's face with parameters of a group of different faces to select another face from the group of different faces; and means for replacing the other person's face using the other face that has been created. Furthermore, it may include means for displaying on the video that the face has been replaced with a different face. More specifically, do as follows.

別顔が映った映像群をまとめる手段は、実際の人物の写真を集めておく、又はコンピュータグラフィックス(「CG」と略す。)によって作成した映像群を集めておく、又はCGによって随時作成する手段である。また、別顔が映った映像群から別顔群を抽出する手段は、コンピュータービジョン(「CV」と略す。)の技術などを使って抽出する手段である。抽出結果は長方形や立方体などである。また、抽出した別顔群のパラメータを推定する手段は、CVの技術などを使って推定する手段である。顔のパラメータとしては、68点のランドマークや表情、男女判定などである。 The means to compile a group of images showing different faces is to collect photos of actual people, to collect a group of images created using computer graphics (abbreviated as "CG"), or to create a group of images using CG at any time. It is a means. Further, a means for extracting a group of different faces from a group of images showing different faces is a means for extracting a group of different faces using a technology such as computer vision (abbreviated as "CV"). The extracted result is a rectangle, cube, etc. Further, the means for estimating the parameters of the extracted different face group is a means for estimating using CV technology or the like. Facial parameters include 68 landmarks, facial expressions, and gender determination.

撮影した映像から他人顔を抽出する手段は、CVの技術などを使って抽出する手段であり、先述の別顔が映った映像群から別顔群を抽出する手段と同様である。また、抽出した他人顔のパラメータを推定する手段は、CVの技術などを使って抽出する手段であり、先述の抽出した別顔群のパラメータを推定する手段と同様である。 The means for extracting the faces of other people from the photographed images is a means for extracting them using CV technology or the like, and is similar to the means for extracting a group of different faces from a group of images in which different faces are shown, as described above. Further, the means for estimating the parameters of the extracted other faces is a means for extracting using CV technology or the like, and is the same as the means for estimating the parameters of the extracted other faces described above.

他人顔のパラメータと別顔群のパラメータとを比較して別顔群から別顔を選択する手段は、他人顔のパラメータと、別顔群の中にある別顔のパラメータとを比較して、すべての他人顔に対する別顔を決める。ビデオの場合は前フレームで使った別顔があれば同じ人物の別顔を利用する。立体視用の映像においては各視点の別顔は同じにする。 The means for selecting another face from the other face group by comparing the parameters of the other person's face and the parameters of the other face group is to compare the parameters of the other person's face and the parameters of another face in the other face group, Decide on a different face for all other people's faces. In the case of a video, if there is another face used in the previous frame, the other face of the same person is used. In stereoscopic images, the different faces of each viewpoint are the same.

選択した別顔を使って他人顔を置き換える手段は、CVの技術などを使って置き換える手段である。アフィン変換や色合補正などを使う。 The means for replacing the other person's face with the selected alternate face is a means for replacing the other person's face using CV technology or the like. Use affine transformation, color correction, etc.

別顔に置き換えたことを映像に表示する手段は、「この映像の中の顔は本人とは異なる人物の顔に置き換わってます」などの文章や、簡易的に伝えることができるピクトグラムのような画像などを、映像に上書きする手段である。 There are ways to display on the video that the face has been replaced with a different face, such as text such as ``The face in this video has been replaced with the face of a different person than the actual person,'' or a pictogram that can be used to easily convey the message. This is a means of overwriting images etc. on video.

本発明の処理によれば、映像を撮影した後に他人顔を別顔に置き換えることで、その場の雰囲気を損なわずに、かつ他人のプライバシを保護することができる。 According to the process of the present invention, by replacing the face of another person with another face after shooting a video, it is possible to protect the privacy of the other person without spoiling the atmosphere of the scene.

本発明の処理を示すフローチャートである。撮影した映像の処理をする前に、あらかじめ別顔が映った映像の処理をする。3 is a flowchart showing processing of the present invention. Before processing the captured video, the video that shows another face is processed in advance. 本発明の処理を示すフローチャートである。図1との違いは、別顔に置き換えたことを映像に表示する処理250の位置である。処理250は撮影した映像に重畳する処理になるが、他人顔を置き換える処理とは独立して行えるため自由なタイミングで行ってよい。つまり処理250に関しては図1と図2は例であり、これに限らなくてよい。3 is a flowchart showing processing of the present invention. The difference from FIG. 1 is the position of the process 250 for displaying on the video that the face has been replaced with another face. Although the process 250 is superimposed on the photographed video, it can be performed at any timing since it can be performed independently of the process of replacing another person's face. In other words, regarding the process 250, FIGS. 1 and 2 are examples, and the process 250 is not limited thereto. 本発明の処理を示すフローチャートである。図1との違いは、撮影した映像に写っている他人顔を参考にして別顔をCGで作成する点である。3 is a flowchart showing processing of the present invention. The difference from FIG. 1 is that another face is created using CG using the other person's face in the captured video as a reference. 本発明によって処理した結果である。(a)は撮影した写真で(b)は置換後の写真である。わかりやすいように、(c)は他人顔の一つのみを拡大した写真、(d)はその別顔を拡大した写真である。These are the results of processing according to the present invention. (a) is the photograph taken, and (b) is the photograph after replacement. For ease of understanding, (c) is a photo in which only one of the faces of another person is enlarged, and (d) is a photo in which another face is enlarged.

以下に、この発明の実施の形態を図面に基づいて詳細に説明する。以下の説明においては、同じ目的をもった処理に、特別な理由がない場合には同じ符号を用いるものとする。また、「処理110」などという記載は「別顔が映った映像群をまとめる処理110」などを示す。 Embodiments of the present invention will be described in detail below based on the drawings. In the following description, the same reference numerals will be used for processes having the same purpose unless there is a special reason. Furthermore, a description such as "processing 110" indicates "processing 110 of combining a group of images showing different faces" or the like.

〔図1に示した具体例〕
図1は本発明の処理を示すフローチャートである。以下、本発明の処理は、まず別顔の写った映像の処理100を行い、次に撮影した映像の処理200を行う。処理200は変換対象の写真を撮影した後に行うが、処理100は前でも後でもよい。
[Specific example shown in Figure 1]
FIG. 1 is a flowchart showing the processing of the present invention. Hereinafter, in the processing of the present invention, first, a process 100 is performed for a video in which another face is captured, and then a process 200 is performed for a photographed video. Process 200 is performed after the photo to be converted is taken, but process 100 may be performed before or after.

別顔が映った映像群をまとめる処理110は、実際の人物の映像を集めておく、又はコンピュータグラフィックス(以下、CGと略す)によって作成した映像群を集めておく、又はCGによって随時作成する処理である。実際の人物の映像の場合、(1)様々な方向から撮影した映像、(2)様々な表情が写った映像、(3)髪が顔にかかってない映像、(4)たくさんの人物、(5)同一人物かどうかがわかっている映像、といった点を考慮したものであるのが望ましい。CGによって作成した映像の場合も上記を考慮してレンダリングしたものであるのが望ましい。CGによって随時作成する処理の場合には、処理220で検出されたパラメータに類似した値又は同じ値でレンダリングできるのが望ましい。処理110で作った映像群は、別顔が映った映像群111として次に続く処理で用いる。 The process 110 of assembling a group of images in which different faces are shown is performed by collecting images of actual people, or by collecting a group of images created by computer graphics (hereinafter abbreviated as CG), or by creating a group of images using CG at any time. It is processing. In the case of videos of actual people, (1) videos taken from various directions, (2) videos with various facial expressions, (3) videos with no hair covering the face, (4) many people, ( 5) It is desirable that the images take into account the fact that it is known whether or not they are the same person. Even in the case of images created by CG, it is desirable that the images be rendered in consideration of the above. In the case of processing that is created at any time using CG, it is desirable to be able to render with values similar to or the same as the parameters detected in processing 220. The image group created in process 110 is used in the subsequent process as image group 111 showing another face.

別顔が映った映像群から別顔群を抽出する処理120は、機械学習やディープラーニングなどの技術を使って抽出する処理である。抽出技術の詳細は限定しないが、次に続く処理で用いることができる抽出結果である必要がある。現時点では長方形や立方体などである。抽出技術によっては別顔の画素数が少ない場合に誤抽出する可能性が高くなるため、所定の画素数以上に限定して抽出するのが望ましい。 The process 120 of extracting a group of different faces from a group of videos showing different faces is a process of extraction using techniques such as machine learning and deep learning. Although the details of the extraction technique are not limited, the extraction results must be usable in subsequent processing. At present, they are rectangles and cubes. Depending on the extraction technique, there is a high possibility of erroneous extraction when the number of pixels of another face is small, so it is desirable to limit the extraction to a predetermined number of pixels or more.

抽出した別顔群のパラメータを推定する処理130は、前の処理結果から、機械学習やディープラーニングなどの技術を使って別顔群のパラメータを推定する処理である。現時点では顔のパラメータとしては、68点のランドマークや表情、男女判定などがあるが、これらに限る必要はない。処理130で作った映像群は、別顔群とそのパラメータ131として次に続く処理で用いる。パラメータを推定する際に、推定精度を高めるために、映像を回転させたうえで検出しても良い。また、たとえば全天周映像のように顔の向きが画像の位置によっておおよそ決まっている場合には、特定の回転を行ったうえで検出しても良い。また、また、たとえば全天周映像のように映像に歪があることがあらかじめわかっている映像の場合には、歪を除去したうえで検出しても良い。また、立体視用の写真の場合には右眼と左眼とで、ビデオの場合に前フレームと現フレームとでパラメータを大きく変えないといった処理をしても良い。 The process 130 of estimating the parameters of the extracted different face group is a process of estimating the parameters of the extracted different face group from the previous processing results using techniques such as machine learning and deep learning. At present, facial parameters include 68 landmarks, facial expressions, and gender determination, but there is no need to limit them to these. The image group created in process 130 is used as another face group and its parameters 131 in the subsequent process. When estimating parameters, the image may be rotated before detection in order to improve estimation accuracy. Furthermore, when the orientation of the face is approximately determined by the position of the image, such as in an all-sky video, the face may be detected after performing a specific rotation. Furthermore, in the case of an image for which it is known in advance that there is distortion, such as an all-sky image, the distortion may be removed before detection. Further, in the case of a stereoscopic photograph, processing may be performed such that the parameters are not changed significantly between the right eye and the left eye, or in the case of a video, between the previous frame and the current frame.

撮影した映像から他人顔を抽出する処理210は、処理120と同様である。 Processing 210 for extracting another person's face from a captured video is similar to processing 120.

抽出した他人顔のパラメータを推定する処理220は、処理130と同様である。 Processing 220 for estimating parameters of the extracted other person's face is similar to processing 130.

他人顔のパラメータと別顔群のパラメータとを比較して別顔群から別顔を選択する処理230は、他人顔のパラメータと、別顔群の中にある別顔のパラメータとを比較して違いを記憶する。同じ計算を別顔群の中にあるすべての別顔で行い、違いが小さい別顔を選択する。上記の計算をすべての他人顔に対して行って、すべての他人顔に対する別顔を決める。また、意図的に楽しい雰囲気の写真に変えたい時などは、違いが小さいものを選択しなくても良い。 The process 230 for selecting another face from the other face group by comparing the parameters of the other person's face and the parameters of the other face group compares the parameters of the other person's face and the parameters of another face in the other face group. Remember the difference. The same calculation is performed on all alternate faces in the alternate face group, and the alternate face with the smallest difference is selected. The above calculation is performed for all stranger faces to determine alternate faces for all stranger faces. Also, if you want to intentionally change the photo to have a fun atmosphere, you do not need to select a photo with a small difference.

他人顔のパラメータと、別顔群の中にある別顔のパラメータとを比較は、例えば各パラメータの差を積算する。パラメータによって重要度が違う場合には積算の前に重みを乗じる。この方法は一例であり、これに限定するものではない。 To compare the parameters of another person's face and the parameters of another face in the group of other faces, for example, the differences in each parameter are integrated. If the importance level differs depending on the parameter, the weight is multiplied before integration. This method is an example and is not limited thereto.

以上は写真の場合であり、ビデオの場合は前フレームで使った別顔があれば同じ人物の別顔を利用する。立体視用の映像においては各視点の別顔は同じにする。これらの処理を実行するためには、処理110での説明にある通り、同一人物かどうかがわかっている映像をもとに別顔群とそのパラメータ131を作るのが望ましい。 The above is for a photo, and for a video, if there is another face used in the previous frame, the other face of the same person is used. In stereoscopic images, the different faces of each viewpoint are the same. In order to execute these processes, as explained in the process 110, it is desirable to create different face groups and their parameters 131 based on images in which it is known whether they are the same person or not.

選択した別顔を使って他人顔を置き換える処理240では、CVの技術などを使って置き換える手段である。例えば、他人顔の68点のランドマークと、別顔の68点のランドマークとから対応する点が極力近くになるようなアフィン変換行列を求めて、別顔にアフィン変換を行い他人顔のランドマークに近づける。その後に他人顔の色の平均値と別顔の色の平均値が同じになるように色変換テーブルを求めて、別顔に色変換を行い他人顔の色に近づける。その後に他人顔のランドマークで囲われた範囲内を別顔に置き換える。その後に置き換えた周辺部分をぼかす。この方法は一例であり、これに限定するものではない。 In the process 240 of replacing the other person's face with the selected other face, CV technology or the like is used as a means of replacing the other person's face. For example, by finding an affine transformation matrix that makes the corresponding points as close as possible to the 68 landmarks of another person's face and the 68 landmarks of another person's face, perform affine transformation on the other person's face. Get closer to the mark. After that, a color conversion table is obtained so that the average value of the color of the other person's face is the same as the average value of the color of the other person's face, and color conversion is performed on the other person's face to bring it closer to the color of the other person's face. After that, the area surrounded by landmarks of other people's faces is replaced with another face. Then blur the replaced surrounding area. This method is an example and is not limited thereto.

例えば自分だけは別顔に変えないなど、特定の人物だけは置き換えないという処理を含むのが望ましい。置き換えない顔の選択は自動でもユーザにゆだねても構わない。 For example, it is desirable to include processing that does not replace specific people, such as not changing only one's face to a different face. The selection of faces not to be replaced may be automatic or may be left to the user.

別顔に置き換えたことを映像に表示する処理250では、「この映像の中の顔は本人とは異なる人物の顔に置き換わってます」などの文章や、簡易的に伝えることができるピクトグラムのような画像などを、映像に上書きする手段である。文字やピクトグラムが見やすくなるように、縁取りの文字にするなどが望ましい。この処理は実際に行っても行わなくてもどちらでも構わない。 In the process 250 of displaying on the video that the face has been replaced with a different face, text such as "The face in this video has been replaced with the face of a person different from the person in question" or a pictogram that can be used to easily convey the information is displayed. This is a means of overwriting images etc. on the video. It is desirable to use bordered text to make text and pictograms easier to read. It does not matter whether this process is actually performed or not.

以上の各処理を順次行うことで他人顔を別顔に置き換えることができる。 By sequentially performing each of the above processes, it is possible to replace a stranger's face with another face.

〔図2に示した具体例〕
図2は本発明の処理を示すフローチャートである。
[Specific example shown in Figure 2]
FIG. 2 is a flowchart showing the processing of the present invention.

図1との違いは、処理250の位置である。処理250は撮影した映像に重畳する処理になるが、他人顔を置き換える処理とは独立して行えるため自由なタイミングで行ってよい。よって、図1に示す位置ではなく、図2に示す位置でもよい。また、これらの位置は例であり、これらに限らなくてよい。 The difference from FIG. 1 is the location of process 250. Although the process 250 is superimposed on the photographed video, it can be performed at any timing since it can be performed independently of the process of replacing another person's face. Therefore, the position shown in FIG. 2 may be used instead of the position shown in FIG. Further, these positions are examples, and the present invention is not limited to these positions.

〔図3に示した具体例〕
図3は本発明の処理を示すフローチャートである。
[Specific example shown in Figure 3]
FIG. 3 is a flowchart showing the processing of the present invention.

図1との違いは、撮影した映像に写っている他人顔のパラメータを使って別顔をCGで作成する点である。例えば、表情のパラメータに応じてあらかじめ用意してある顔に貼りつけるテクスチャを切り替える。これは一例であり、これに限らなくてよい。 The difference from FIG. 1 is that another face is created using CG using the parameters of the other person's face in the captured video. For example, textures prepared in advance to be pasted on the face may be switched depending on facial expression parameters. This is an example and does not have to be limited to this.

図3では、処理100を変換対象の写真を撮影する前には実施できない。 In FIG. 3, process 100 cannot be performed before the photo to be converted is taken.

本発明がこの明細書等に記載した実施態様、実施例ないし具体例に限定されないことは勿論である。 It goes without saying that the present invention is not limited to the embodiments, examples, or specific examples described in this specification and the like.

100 別顔が映った映像の処理
110 別顔が映った映像群をまとめる処理
120 別顔が映った映像群から別顔群を抽出する処理
130 抽出した別顔群のパラメータを推定する処理
200 撮影した映像の処理
210 撮影した映像から他人顔を抽出する処理
220 抽出した他人顔のパラメータを推定する処理
230 他人顔のパラメータと別顔群のパラメータとを比較して別顔群から別顔を選択する処理
240 選択した別顔を使って他人顔を置き換える処理
250 別顔に置き換えたことを映像に表示する処理
100 Processing of images showing different faces 110 Processing of combining a group of images showing different faces 120 Processing of extracting a group of different faces from a group of images showing different faces 130 Processing of estimating the parameters of the extracted group of different faces 200 Shooting 210 Processing for extracting another person's face from the captured image 220 Processing for estimating the parameters of the extracted other person's face 230 Selecting another face from the other face group by comparing the parameters of the other person's face and the parameters of the other face group 240 Process of replacing another person's face using the selected alternate face 250 Process of displaying on the video that the face has been replaced with another face

Claims (18)

写真又はビデオの映像に写っている他人の顔である他人顔をこれとは別の顔である別顔に置き換えることを特徴とする映像処理方法。 A video processing method characterized by replacing a face of another person in a photograph or video with a different face. 顔のランドマーク、表情及び男女からなる群のうちから選択される二以上のパラメータを使いながら前記別顔に置き換えることを特徴とする請求項1に記載の映像処理方法。 2. The video processing method according to claim 1, wherein the replacement with the other face is performed using two or more parameters selected from a group consisting of facial landmarks, facial expressions, and gender. 前記映像内の前記別顔が同一人物の顔であることを特徴とする請求項1~2のいずれか一項に記載の映像処理方法。 3. The video processing method according to claim 1, wherein the different faces in the video are faces of the same person. 前記映像内の前記別顔が複数人物の顔であることを特徴とする請求項1~2のいずれか一項に記載の映像処理方法。 3. The video processing method according to claim 1, wherein the different faces in the video are faces of multiple people. 前記映像内の前記別顔が実在の人物の顔であることを特徴とする請求項1~2のいずれか一項に記載の映像処理方法。 3. The video processing method according to claim 1, wherein the other face in the video is a face of a real person. 前記映像内の前記別顔がコンピュータグラフィックスで合成された顔であることを特徴とする請求項1~2のいずれか一項に記載の映像処理方法。 3. The video processing method according to claim 1, wherein the other face in the video is a face synthesized using computer graphics. 置き換えたことを明示する文章又はピクトグラムを前記映像に入れることを特徴とする請求項1~2のいずれか一項に記載の映像処理方法。 3. The video processing method according to claim 1, wherein a text or a pictogram clearly indicating that the replacement has been performed is included in the video. 前記他人顔を所定画素数以下で写っている顔に制限することを特徴とする請求項1~2のいずれか一項に記載の映像処理方法。 3. The video processing method according to claim 1, wherein the other person's face is limited to a face captured with a predetermined number of pixels or less. 前記他人顔のうち特定の他人顔は置き換えないことを特徴とする請求項1~2のいずれか一項に記載の映像処理方法。 3. The video processing method according to claim 1, wherein a specific other person's face among the other person's faces is not replaced. 前記他人顔の顔の向きの検出を、前記他人顔毎に変えることを特徴とする請求項1~2のいずれか一項に記載の映像処理方法。 3. The video processing method according to claim 1, wherein the detection of the face direction of the other person's face is changed for each of the other person's faces. 前記他人顔の顔の向きの検出を、前記他人顔によって変えないことを特徴とする請求項1~2のいずれか一項に記載の映像処理方法。 3. The video processing method according to claim 1, wherein the detection of the orientation of the other person's face is not changed depending on the other person's face. 前記他人顔の向きの検出を、前記他人顔が映っている位置に応じて変えることを特徴とする請求項1~2のいずれか一項に記載の映像処理方法。 3. The video processing method according to claim 1, wherein the detection of the orientation of the other person's face is changed depending on the position where the other person's face is displayed. 2枚以上の時系列の写真又はビデオにおいて、同一人物の他人顔を置き換える際には、前記同一人物の別顔にすることを特徴とする請求項1~2のいずれか一項に記載の映像処理方法。 3. The video according to claim 1, wherein when replacing a different face of the same person in two or more time-series photos or videos, a different face of the same person is used. Processing method. 2枚以上の時系列の写真又はビデオにおいて、前記他人顔の顔のランドマーク、表情及び男女からなる群のうちから選択される二以上のパラメータの変化を所定以下に制限することを特徴とする請求項2に記載の映像処理方法。 In two or more time-series photos or videos, changes in two or more parameters selected from the group consisting of facial landmarks, facial expressions, and gender of the other person's face are limited to below a predetermined value. The video processing method according to claim 2. 立体視用の2枚以上の時系列の写真又は立体視用のビデオにおいて、同一人物の他人顔を置き換える際には、同一人物の別顔にすることを特徴とする請求項1~2のいずれか一項に記載の映像処理方法。 Any one of claims 1 to 2, characterized in that when replacing a different person's face of the same person in two or more time-series photographs for stereoscopic viewing or a video for stereoscopic viewing, a different face of the same person is used. The video processing method according to item (1). 立体視用の2枚以上の時系列の写真又は立体視用のビデオにおいて、前記他人顔の顔のランドマーク、表情及び男女からなる群のうちから選択される二以上のパラメータの変化を所定以下に制限することを特徴とする請求項2に記載の映像処理方法。 In two or more time-series photographs for stereoscopic viewing or videos for stereoscopic viewing, changes in two or more parameters selected from the group consisting of facial landmarks, facial expressions, and gender of the other person's face are kept below a predetermined value. 3. The video processing method according to claim 2, wherein the video processing method is limited to . 顔のランドマーク、表情及び男女からなる群のうちから選択される二以上のパラメータを使いながら前記別顔に置き換える際に、前記他人顔のパラメータと前記別顔のパラメータとの差が最小にならない別顔を選択することを特徴とする請求項2に記載の映像処理方法。 When replacing the face with the other face using two or more parameters selected from the group consisting of facial landmarks, expressions, and gender, the difference between the parameters of the other person's face and the parameters of the other face does not become minimum. 3. The video processing method according to claim 2, further comprising selecting another face. 請求項1~2のいずれか一項に記載の映像処理方法を用いる映像の作成方法。
A method for creating a video using the video processing method according to any one of claims 1 to 2.
JP2022100004A 2022-06-22 2022-06-22 Video processing method to protect privacy while maintaining sense of presence Pending JP2024001398A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022100004A JP2024001398A (en) 2022-06-22 2022-06-22 Video processing method to protect privacy while maintaining sense of presence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022100004A JP2024001398A (en) 2022-06-22 2022-06-22 Video processing method to protect privacy while maintaining sense of presence

Publications (1)

Publication Number Publication Date
JP2024001398A true JP2024001398A (en) 2024-01-10

Family

ID=89455013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022100004A Pending JP2024001398A (en) 2022-06-22 2022-06-22 Video processing method to protect privacy while maintaining sense of presence

Country Status (1)

Country Link
JP (1) JP2024001398A (en)

Similar Documents

Publication Publication Date Title
US10531061B2 (en) Generating a composite image from a physical item
CN104135926B (en) Image processing equipment, image processing system, image processing method and program
KR101688753B1 (en) Grouping related photographs
EP3218878B1 (en) Image to item mapping
US20050234333A1 (en) Marker detection method and apparatus, and position and orientation estimation method
JP6027070B2 (en) Area detection apparatus, area detection method, image processing apparatus, image processing method, program, and recording medium
JP2003296759A (en) Information processing method and device
TW201222468A (en) Method and arrangement for censoring content in images
JP2013140428A (en) Edge detection device, edge detection program, and edge detection method
EP2642446B1 (en) System and method of estimating page position
US11900552B2 (en) System and method for generating virtual pseudo 3D outputs from images
JP2016052013A (en) Image processing device, image processing method, program and recording medium
AU2018271418B2 (en) Creating selective virtual long-exposure images
JP2006309661A (en) Image reproducing apparatus and image reproducing program
JP2024001398A (en) Video processing method to protect privacy while maintaining sense of presence
CN111914739A (en) Intelligent following method and device, terminal equipment and readable storage medium
US20020158972A1 (en) Method of image processing an animated figure
JP4831344B2 (en) Eye position detection method
Stacchio et al. Preserving family album photos with the hololens 2
US10573052B2 (en) Creating cinemagraphs with virtual long-exposure images
JP2009212711A (en) Image processor
Koçberber et al. Video retargeting: video saliency and optical flow based hybrid approach
JP5713256B2 (en) Image processing apparatus, imaging apparatus, and image processing program
EP4171015A1 (en) Handling blur in multi-view imaging
JP4696669B2 (en) Image adjustment method and image adjustment apparatus