JP7319637B1 - Information processing system, information processing method and information processing program - Google Patents

Information processing system, information processing method and information processing program Download PDF

Info

Publication number
JP7319637B1
JP7319637B1 JP2022087351A JP2022087351A JP7319637B1 JP 7319637 B1 JP7319637 B1 JP 7319637B1 JP 2022087351 A JP2022087351 A JP 2022087351A JP 2022087351 A JP2022087351 A JP 2022087351A JP 7319637 B1 JP7319637 B1 JP 7319637B1
Authority
JP
Japan
Prior art keywords
image
character
animal
pose
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022087351A
Other languages
Japanese (ja)
Other versions
JP2023175084A (en
Inventor
修二 湯浅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Celsys Inc
Original Assignee
Celsys Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Celsys Inc filed Critical Celsys Inc
Priority to JP2022087351A priority Critical patent/JP7319637B1/en
Application granted granted Critical
Publication of JP7319637B1 publication Critical patent/JP7319637B1/en
Publication of JP2023175084A publication Critical patent/JP2023175084A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】キャラクタの3次元モデルに基づくキャラクタ画像を用いて、ソース画像の動物画像の領域を隠蔽できる情報処理システム、情報処理方法および情報処理プログラムを提供する。【解決手段】キャラクタの3次元モデルに基づくキャラクタ画像を用いて動物画像を含むソース画像を加工する情報処理システムであって、前記動物画像から動物の3次元ポーズを推定して3次元ポーズデータを生成する3次元ポーズ推定手段と、前記3次元ポーズデータを適用して前記キャラクタの3次元モデルのポーズを変えるポーズ適用手段と、前記ポーズを変えられたキャラクタの3次元モデルに基づいて、前記キャラクタの2次元画像であるキャラクタ画像を生成するキャラクタ描画手段と、前記ソース画像に前記キャラクタ画像に基づく画像を配置して、前記ソース画像の前記動物画像の領域が略隠蔽された加工画像を生成するキャラクタ画像配置手段と、を備える情報処理システムが提供される。【選択図】図1An information processing system, an information processing method, and an information processing program capable of concealing an animal image region of a source image using a character image based on a three-dimensional model of the character are provided. An information processing system for processing a source image including an animal image using a character image based on a three-dimensional model of the character, the system estimating a three-dimensional pose of the animal from the animal image to generate three-dimensional pose data. 3D pose estimating means for generating; pose applying means for changing the pose of the 3D model of the character by applying the 3D pose data; and based on the 3D model of the character whose pose has been changed, the character and an image based on the character image is arranged in the source image to generate a processed image in which the area of the animal image in the source image is substantially hidden. An information processing system comprising character image placement means is provided. [Selection drawing] Fig. 1

Description

本発明は、キャラクタの3次元モデルに基づくキャラクタ画像を用いて動物画像を含むソース画像を加工する情報処理システム、情報処理方法および情報処理プログラムに関する。なお、本明細書における「動物画像」は人物画像を含む。 The present invention relates to an information processing system, information processing method, and information processing program for processing a source image including an animal image using a character image based on a three-dimensional model of a character. In addition, the "animal image" in this specification includes a person image.

人工知能技術を利用した画像処理技術が知られている。例えば、非特許文献1には、人工知能を利用して人物が写った写真におけるキーポイントの位置を推定する技術が開示されている。ここで、キーポイントとは、関節点(肩、肘、手首、腰、膝、足首など)や特徴点(目、鼻、口、耳など)のことである。また、非特許文献2には、セマンティックセグメンテーションによって、写真から、予め学習された人物、自転車、動物といった領域を推定することが開示されている。また、非特許文献3には、2次元画像から被写体の3次元ポーズを推定する技術が開示されている。その他、非特許文献4には、2次元形状を回転、移動、変形する技術が開示されている。さらに、非特許文献5には、物体が写っている画像から、物体のバウンティングボックスを検出する技術が開示されている。 Image processing technology using artificial intelligence technology is known. For example, Non-Patent Document 1 discloses a technique of estimating the position of a key point in a photograph of a person using artificial intelligence. Here, key points are joint points (shoulders, elbows, wrists, hips, knees, ankles, etc.) and characteristic points (eyes, nose, mouth, ears, etc.). Non-Patent Document 2 discloses estimating pre-learned regions such as a person, a bicycle, and an animal from a photograph by semantic segmentation. Non-Patent Document 3 discloses a technique for estimating a three-dimensional pose of a subject from a two-dimensional image. In addition, Non-Patent Document 4 discloses a technique for rotating, moving, and transforming a two-dimensional shape. Furthermore, Non-Patent Document 5 discloses a technique for detecting a bounding box of an object from an image including the object.

ところで、人物が写っている画像などを公開する際に、プライバシー保護のために目線を入れたり顔にモザイクをかけたりして顔を隠すなどの加工が施される場合がある。しかし、顔を隠すのみでは、服装の特徴などからその人物が特定されるおそれがある。 By the way, when an image of a person is published, it may be processed such as hiding the face by adding a line of sight or applying a mosaic to the face for privacy protection. However, if the face is only hidden, there is a risk that the person can be identified based on the characteristics of the person's clothing.

これに対し、顔のみならず全身を一色で塗りつぶす手法も考えられる。この手法によれば、一応の隠蔽は可能となるが、人物の存在すら認識できなくなってしまう。 On the other hand, a method of painting not only the face but also the whole body with one color is also conceivable. According to this technique, although concealment is possible to some extent, even the existence of a person cannot be recognized.

そこで、人物の全身を隠蔽しつつ、人物の存在を認識できるような画像加工方法が提案されている(例えば、特許文献1、2、3参照)。 Therefore, an image processing method has been proposed that allows the presence of a person to be recognized while hiding the whole body of the person (see, for example, Patent Documents 1, 2, and 3).

また、写真を加工してアニメや漫画を作ることも行われている。しかし、写真に写っている人物の頭身や服装、顔立ちは変わらないため、そのアニメや漫画の作風に合わないという問題がある。 Photographs are also processed to create animations and comics. However, since the head and body, clothes, and facial features of the person in the photograph do not change, there is a problem that it does not match the style of the animation or manga.

特開2018-72957号公報JP 2018-72957 A 特開2019-9752号公報JP 2019-9752 A 特開2019-91138号公報JP 2019-91138 A

Zhe Cao, Tomas Simon, Shih-En Wei, Yaser Sheikh,"Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields",[online],2017年4月14日,[令和3年3月25日検索],インターネット<URL:https://arxiv.org/abs/1611.08050>Zhe Cao, Tomas Simon, Shih-En Wei, Yaser Sheikh, "Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields", [online], April 14, 2017, [searched March 25, 2021] , Internet <URL: https://arxiv.org/abs/1611.08050> Evan Shelhamer, Jonathan Long, Trevor Darrell," Fully Convolutional Networks for Semantic Segmentation",[online],2016年5月20日,[令和3年3月25日検索],インターネット<URL:https://arxiv.org/abs/1605.06211>Evan Shelhamer, Jonathan Long, Trevor Darrell, "Fully Convolutional Networks for Semantic Segmentation", [online], May 20, 2016, [searched on March 25, 2021], Internet < URL: https://arxiv .org/abs/1605.06211> Zdushyant Mehta, Srinath Sridhar, Oleksandr Sotnychenko, Helge Rhodin, Mohammad Shafiei, Hans-Peter Seidel, Weipeng Xu, Dan Casas, Christian Theobalt,"VNect: Real-time 3D Human Pose Estimation with a Single RGB Camera",[online],2017年7月,[令和3年3月25日検索],インターネット<URL:http://gvv.mpi-inf.mpg.de/projects/VNect/content/VNect_SIGGRAPH2017.pdf>Zdushyant Mehta, Srinath Sridhar, Oleksandr Sotnychenko, Helge Rhodin, Mohammad Shafiei, Hans-Peter Seidel, Weipeng Xu, Dan Casas, Christian Theobalt,"VNect: Real-time 3D Human Pose Estimation with a Single RGB Camera",[online], July 2017, [searched on March 25, 2019], Internet <URL: http://gvv.mpi-inf.mpg.de/projects/VNect/content/VNect_SIGGRAPH2017.pdf> Takeo Igarashi, Tomer Moscovich, John F. Hughes,"As-Rigid-As-Possible Shape Manipulation",[online],[令和3年3月25日検索],インターネット<URL:https://www-ui.is.s.u-tokyo.ac.jp/~takeo/papers/rigid.pdf>Takeo Igarashi, Tomer Moscovich, John F. Hughes, "As-Rigid-As-Possible Shape Manipulation", [online], [searched March 25, 2021], Internet <URL: https://www-ui .is.s.u-tokyo.ac.jp/~takeo/papers/rigid.pdf> Shaoqing Ren, Kaiming He, Ross Girshick, Jian Sun,"Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks",[online],[令和3年5月20日検索],インターネット<URL:https://arxiv.org/pdf/1506.01497.pdf>Shaoqing Ren, Kaiming He, Ross Girshick, Jian Sun, "Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks", [online], [searched May 20, 2021], Internet <URL: https://arxiv.org/pdf/1506.01497.pdf>

本発明の課題は、キャラクタの3次元モデルに基づくキャラクタ画像を用いて、ソース画像の動物画像の領域を隠蔽できる情報処理システム、情報処理方法および情報処理プログラムを提供することである。 SUMMARY OF THE INVENTION An object of the present invention is to provide an information processing system, an information processing method, and an information processing program capable of hiding an animal image area in a source image using a character image based on a three-dimensional model of the character.

本発明の一態様によれば、キャラクタの3次元モデルに基づくキャラクタ画像を用いて動物画像を含むソース画像を加工する情報処理システムであって、前記前記ソース画像または動物画像から動物の3次元ポーズを推定して3次元ポーズデータを生成する3次元ポーズ推定手段と、前記3次元ポーズデータを適用して前記キャラクタの3次元モデルのポーズを変えるポーズ適用手段と、前記ポーズを変えられたキャラクタの3次元モデルに基づいて、前記キャラクタの2次元画像であるキャラクタ画像を生成するキャラクタ描画手段と、前記ソース画像に前記キャラクタ画像に基づく画像を配置して、前記ソース画像の前記動物画像の領域が略隠蔽された加工画像を生成するキャラクタ画像配置手段と、を備える情報処理システムが提供される。 According to one aspect of the present invention, there is provided an information processing system for processing a source image including an animal image using a character image based on a three-dimensional model of a character, wherein the three-dimensional pose of the animal is obtained from the source image or the animal image. 3D pose estimating means for generating 3D pose data by estimating , pose applying means for applying the 3D pose data to change the pose of the 3D model of the character; and Character drawing means for generating a character image, which is a two-dimensional image of the character, based on a three-dimensional model; and character image placement means for generating a substantially hidden processed image.

この構成によれば、ソース画像または動物画像から生成される3次元ポーズデータを適用してキャラクタの3次元モデルのポーズを変えた上で、ポーズを変えた後のキャラクタの3次元モデルに基づくキャラクタ画像をソース画像の動物画像の領域に配置するため、ユーザの任意のソース画像の動物画像の領域を、その存在を残しつつ隠蔽できる。 According to this configuration, the pose of the three-dimensional model of the character is changed by applying the three-dimensional pose data generated from the source image or the animal image, and then the character is based on the three-dimensional model of the character after changing the pose. Since the image is placed in the animal image area of the source image, the animal image area of any source image of the user can be hidden while leaving its existence.

前記ソース画像の前記動物画像の輪郭と、前記キャラクタ画像に基づく画像の輪郭と、のズレが小さくなるように、前記キャラクタの3次元モデルを変形するキャラクタモデル変形手段をさらに備え、前記キャラクタ描画手段は、前記ポーズを変えられかつ前記変形されたキャラクタの3次元モデルに基づいて、前記キャラクタ画像を生成するのが望ましい。 character model transforming means for transforming the three-dimensional model of the character so as to reduce a deviation between the outline of the animal image of the source image and the outline of the image based on the character image; preferably generates said character image based on said posed and deformed three-dimensional model of said character.

この構成によれば、輪郭どうしのズレが小さくなるようにキャラクタの3次元モデルをさらに変形するため、ソース画像の動物画像の領域をより正確に隠蔽できる。 According to this configuration, the three-dimensional model of the character is further deformed so as to reduce the deviation between outlines, so that the animal image area of the source image can be hidden more accurately.

前記キャラクタモデル変形手段は、前記キャラクタの3次元モデルの所定部位の長さを調整してもよい。 The character model transforming means may adjust the length of a predetermined portion of the three-dimensional model of the character.

この構成によれば、キャラクタ画像の所定部位の長さを、動物画像の対応する所定部位の長さに近づけることができるので、動物画像の輪郭とキャラクタ画像に基づく画像の輪郭とのズレが小さくなり、ソース画像の動物画像の領域をより正確に隠蔽できる。 According to this configuration, the length of the predetermined portion of the character image can be made close to the length of the corresponding predetermined portion of the animal image, so that the deviation between the outline of the animal image and the outline of the image based on the character image is small. , so that the animal image regions in the source image can be more accurately hidden.

前記キャラクタモデル変形手段は、前記動物画像におけるキーポイントの位置と、前記キャラクタのキーポイントの位置と、に基づいて、前記キャラクタの3次元モデルを変形してもよい。 The character model transforming means may transform the three-dimensional model of the character based on positions of key points in the animal image and positions of key points of the character.

この構成によれば、キャラクタ画像のキーポイントの位置を、動物画像の対応するキーポイントの位置に近づけることができるので、動物画像の輪郭とキャラクタ画像に基づく画像の輪郭とのズレが小さくなり、ソース画像の動物画像の領域をより正確に隠蔽できる。 According to this configuration, the position of the keypoint of the character image can be brought closer to the position of the corresponding keypoint of the animal image. Areas of animal images in the source image can be more accurately obscured.

前記動物画像の輪郭と、前記キャラクタ画像の輪郭と、のズレが小さくなるように、前記キャラクタ画像を変形するキャラクタ画像変形手段をさらに備えてもよい。 The apparatus may further include character image transforming means for transforming the character image so as to reduce the deviation between the outline of the animal image and the outline of the character image.

この構成によれば、輪郭どうしのズレが小さくなるようにキャラクタ画像を変形するため、ソース画像の動物画像の領域をより正確に隠蔽できる。 According to this configuration, the character image is deformed so that the deviation between the contours is reduced, so that the animal image area of the source image can be more accurately hidden.

前記キャラクタ画像変形手段は、前記動物画像におけるキーポイントの位置と、前記キャラクタ画像におけるキーポイントの位置と、に基づいて、前記キャラクタ画像を変形してもよい。 The character image transforming means may transform the character image based on positions of key points in the animal image and positions of key points in the character image.

この構成によれば、キャラクタ画像のキーポイントの位置を、動物画像の対応するキーポイントの位置に近づけることができるので、動物画像の輪郭とキャラクタ画像の輪郭とのズレが小さくなり、ソース画像の動物画像の領域をより正確に隠蔽できる。 According to this configuration, the position of the keypoint of the character image can be brought closer to the position of the corresponding keypoint of the animal image. Areas of animal images can be hidden more accurately.

前記キャラクタ画像変形手段は、前記動物画像におけるキーポイントの位置と、これに対応する前記キャラクタ画像におけるキーポイントの位置と、が略一致するように、前記キャラクタ画像を変形し、その後、前記動物画像の輪郭上の点と、これに対応する前記キャラクタ画像の輪郭上の点と、が略一致するよう、前記キャラクタ画像を変形してもよい。 The character image transforming means transforms the character image so that the position of the key point in the animal image and the position of the corresponding key point in the character image substantially coincide with each other, and then transforms the animal image. The character image may be deformed so that a point on the contour of the character image substantially coincides with a corresponding point on the contour of the character image.

この構成によれば、動物画像の輪郭とキャラクタ画像の輪郭とのズレがより小さくなり、ソース画像の動物画像の領域をより正確に隠蔽できる。 According to this configuration, the deviation between the outline of the animal image and the outline of the character image becomes smaller, and the area of the animal image in the source image can be hidden more accurately.

前記動物画像の領域及び/又は前記動物画像の輪郭を、セマンティックセグメンテーションにより推定する領域推定手段をさらに備えてもよい。 It may further include region estimation means for estimating the region of the animal image and/or the contour of the animal image by semantic segmentation.

この構成によれば、動物画像とキャラクタ画像との位置合わせを正確に行えるようになり、ソース画像の動物画像の領域をより正確に隠蔽できる。 According to this configuration, the animal image and the character image can be accurately aligned, and the animal image area of the source image can be more accurately hidden.

前記キャラクタ画像配置手段は、前記ソース画像から前記動物画像を略含む領域を取り除いたくり抜き画像を生成するくり抜き画像生成手段と、前記くり抜き画像に前記キャラクタ画像に基づく画像を配置した際に形成される、前記くり抜き画像と前記キャラクタ画像との隙間を補完する補完画像を生成する補完画像生成手段と、前記くり抜き画像と、前記キャラクタ画像に基づく画像と、前記補完画像とを合成して、前記加工画像を生成する合成手段と、
を備えてもよい。
The character image arranging means generates a cutout image by removing an area substantially including the animal image from the source image, and the cutout image is formed when an image based on the character image is arranged in the cutout image. a complementary image generating means for generating a complementary image for complementing a gap between the cut-out image and the character image; and synthesizing the cut-out image, an image based on the character image, and the complementary image to produce the processed image. a synthesis means for generating
may be provided.

この構成によれば、補完画像を用いて隙間を埋めるため、キャラクタ画像の輪郭と動物画像の輪郭との間にズレがあっても、不自然さの少ない加工画像を生成することができる。 According to this configuration, since the complementary image is used to fill the gap, even if there is a deviation between the outline of the character image and the outline of the animal image, it is possible to generate a processed image with little unnaturalness.

前記くり抜き画像生成手段は、前記ソース画像から、前記キャラクタ画像の領域を広げた領域を取り除いて、前記くり抜き画像を生成してもよい。 The cut-out image generating means may generate the cut-out image by removing from the source image an area obtained by enlarging the area of the character image.

この構成によれば、キャラクタ画像の輪郭と動物画像の輪郭との間にズレがあっても、動物画像の領域を取り除くことができる。 With this configuration, even if there is a deviation between the outline of the character image and the outline of the animal image, the area of the animal image can be removed.

前記くり抜き画像生成手段は、前記ソース画像における動物画像の領域をセマンティックセグメンテーションにより推定することによって、前記ソース画像から前記動物画像の領域を取り除き、前記くり抜き画像を生成してもよい。 The clipped image generating means may generate the clipped image by estimating the animal image region in the source image by semantic segmentation to remove the animal image region from the source image.

この構成によれば、セマンティックセグメンテーションによる推定を行うことにより、くり抜き画像を生成する際に、より正確に動物画像の領域を取り除くことができる。 According to this configuration, by performing estimation by semantic segmentation, the region of the animal image can be removed more accurately when generating the clipped image.

前記補完画像生成手段は、前記くり抜き画像にブラー処理を行って前記補完画像を生成してもよい。 The complementary image generating means may generate the complementary image by performing blur processing on the cutout image.

この構成によれば、ブラー処理を行って補完画像を生成するため、くり抜き画像とキャラクタ画像との隙間をより自然に埋めることができる。 According to this configuration, since the complementary image is generated by performing the blur processing, the gap between the clipped image and the character image can be more naturally filled.

前記キャラクタ画像配置手段は、前記ソース画像および/または前記キャラクタ画像に基づく画像の色調および/または階調を調整してもよい。 The character image arrangement means may adjust the color tone and/or gradation of an image based on the source image and/or the character image.

この構成によれば、加工画像における色調および/または階調の違和感を抑えられる。 According to this configuration, it is possible to suppress discomfort in color tone and/or gradation in the processed image.

本発明の別の態様によれば、キャラクタの3次元モデルに基づくキャラクタ画像を用いて動物画像を含むソース画像を加工する情報処理方法であって、前記ソース画像または前記動物画像から動物の3次元ポーズを推定して3次元ポーズデータを生成し、前記3次元ポーズデータを適用して前記キャラクタの3次元モデルのポーズを変え、前記ポーズを変えられたキャラクタの3次元モデルに基づいて、前記キャラクタの2次元画像であるキャラクタ画像を生成し、前記ソース画像に前記キャラクタ画像に基づく画像を配置して、前記ソース画像の前記動物画像の領域が略隠蔽された加工画像を生成する、情報処理方法が提供される。 According to another aspect of the present invention, there is provided an information processing method for processing a source image including an animal image using a character image based on a three-dimensional model of a character, wherein the three-dimensional image of the animal is processed from the source image or the animal image. estimating a pose to generate three-dimensional pose data; applying the three-dimensional pose data to change the pose of the three-dimensional model of the character; generating a character image that is a two-dimensional image of the above, arranging an image based on the character image in the source image, and generating a processed image in which the area of the animal image in the source image is substantially hidden is provided.

この構成によれば、ソース画像または動物画像から生成される3次元ポーズデータを適用してキャラクタの3次元モデルのポーズを変えた上で、ポーズを変えた後のキャラクタの3次元モデルに基づくキャラクタ画像をソース画像の動物画像の領域に配置するため、ユーザの任意のソース画像の動物画像の領域を、その存在を残しつつ隠蔽できる。 According to this configuration, the pose of the three-dimensional model of the character is changed by applying the three-dimensional pose data generated from the source image or the animal image, and then the character is based on the three-dimensional model of the character after changing the pose. Since the image is placed in the animal image area of the source image, the animal image area of any source image of the user can be hidden while leaving its existence.

また、本発明の別の態様によれば、キャラクタの3次元モデルに基づくキャラクタ画像を用いて動物画像を含むソース画像を加工する情報処理プログラムであって、コンピュータを、前記ソース画像または前記動物画像から動物の3次元ポーズを推定して3次元ポーズデータを生成する3次元ポーズ推定手段と、前記3次元ポーズデータを適用して前記キャラクタの3次元モデルのポーズを変えるポーズ適用手段と、前記ポーズを変えられたキャラクタの3次元モデルに基づいて、前記キャラクタの2次元画像であるキャラクタ画像を生成するキャラクタ描画手段と、前記ソース画像に前記キャラクタ画像に基づく画像を配置して、前記ソース画像の前記動物画像の領域が略隠蔽された加工画像を生成するキャラクタ画像配置手段と、として動作させる情報処理プログラムが提供される。 According to another aspect of the present invention, there is provided an information processing program for processing a source image including an animal image using a character image based on a three-dimensional model of a character, wherein the computer comprises the source image or the animal image. 3D pose estimating means for estimating a 3D pose of an animal to generate 3D pose data; pose applying means for applying the 3D pose data to change the pose of the 3D model of the character; character drawing means for generating a character image, which is a two-dimensional image of the character, based on the three-dimensional model of the character whose character has been changed; An information processing program that operates as character image placement means for generating a processed image in which the area of the animal image is substantially hidden is provided.

この構成によれば、ソース画像または動物画像から生成される3次元ポーズデータを適用してキャラクタの3次元モデルのポーズを変えた上で、ポーズを変えた後のキャラクタの3次元モデルに基づくキャラクタ画像をソース画像の動物画像の領域に配置するため、ユーザの任意のソース画像の動物画像の領域を、その存在を残しつつ隠蔽できる。 According to this configuration, the pose of the three-dimensional model of the character is changed by applying the three-dimensional pose data generated from the source image or the animal image, and then the character is based on the three-dimensional model of the character after changing the pose. Since the image is placed in the animal image area of the source image, the animal image area of any source image of the user can be hidden while leaving its existence.

キャラクタの3次元モデルに基づくキャラクタ画像を用いて、ソース画像の動物画像の領域を隠蔽できる。 A character image based on a three-dimensional model of the character can be used to obscure the animal image regions of the source image.

第1の実施形態に係る情報処理システムの概略構成を示すブロック図。1 is a block diagram showing a schematic configuration of an information processing system according to a first embodiment; FIG. 第1の実施形態に係る情報処理システムの処理動作の一例を示すフローチャート。4 is a flowchart showing an example of processing operations of the information processing system according to the first embodiment; 3次元ポーズ推定部に入力されるソース画像を説明する図。FIG. 4 is a diagram for explaining a source image input to a 3D pose estimation unit; キャラクタの3次元モデルの初期ポーズを説明する図。FIG. 4 is a diagram for explaining an initial pose of a three-dimensional model of a character; ポーズデータを適用されたキャラクタの3次元モデルを説明する図。FIG. 4 is a diagram for explaining a three-dimensional model of a character to which pose data is applied; キャラクタ描画部によって生成されたキャラクタ画像を説明する図。FIG. 4 is a diagram for explaining a character image generated by a character drawing unit; 仮想カメラを用いたキャラクタ画像の生成を説明する図。FIG. 4 is a diagram for explaining generation of a character image using a virtual camera; 仮想カメラを用いたキャラクタ画像上のキーポイントの生成を説明する図。FIG. 4 is a diagram for explaining generation of key points on a character image using a virtual camera; キャラクタ画像上のキーポイントの例を示す図。FIG. 4 is a diagram showing an example of key points on a character image; 加工画像の例を示す図。FIG. 4 is a diagram showing an example of a processed image; 人物画像におけるキーポイントの位置を示す図。FIG. 4 is a diagram showing positions of key points in a person image; キャラクタの3次元モデル上のキーポイントの例を示す図。FIG. 4 is a diagram showing an example of key points on a three-dimensional model of a character; 第2の実施形態に係る情報処理システムの概略構成を示すブロック図。FIG. 2 is a block diagram showing a schematic configuration of an information processing system according to a second embodiment; FIG. キャラクタの3次元モデルの変形方法を説明する図。FIG. 4 is a diagram for explaining a method of transforming a three-dimensional model of a character; 第2の実施形態に係る情報処理システムの処理動作の一例を示すフローチャート。9 is a flowchart showing an example of processing operations of an information processing system according to the second embodiment; 第3の実施形態に係る情報処理システムの概略構成を示すブロック図。FIG. 11 is a block diagram showing a schematic configuration of an information processing system according to a third embodiment; FIG. 第3の実施形態に係る情報処理システムの処理動作の一例を示すフローチャート。11 is a flowchart showing an example of processing operations of an information processing system according to a third embodiment; キャラクタ画像を変形する例を示す図。FIG. 4 is a diagram showing an example of transforming a character image; キャラクタ画像の変形手法の例を示すフローチャート。4 is a flow chart showing an example of a character image deformation method. キャラクタ画像の変形手法の例を示す図。FIG. 7 is a diagram showing an example of a character image deformation method; キャラクタ画像の変形手法の例を示す図。FIG. 7 is a diagram showing an example of a character image deformation method; 第4の実施形態に係る情報処理システムの概略構成を示すブロック図。FIG. 11 is a block diagram showing a schematic configuration of an information processing system according to a fourth embodiment; FIG. 第4の実施形態に係る情報処理システムの処理動作の一例を示すフローチャート。14 is a flowchart showing an example of processing operations of an information processing system according to the fourth embodiment; くり抜き画像の例を示す図。4A and 4B are diagrams showing examples of cutout images; FIG. 補完画像の例を示す図。The figure which shows the example of a complementary image. くり抜き画像の縁をぼかした画像の例を示す図。FIG. 10 is a diagram showing an example of an image in which the edge of a cutout image is blurred; 加工画像の例を示す図。FIG. 4 is a diagram showing an example of a processed image;

以下、本発明に係る実施形態について、図面を参照しながら具体的に説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments according to the present invention will be specifically described with reference to the drawings.

(第1の実施形態)
図1は、第1の実施形態に係る情報処理システムの概略構成を示すブロック図である。情報処理システムは、1台の装置から構成されてもよいし、互いに通信可能な複数の装置から構成されてもよい。後者の場合、例えば処理の一部をスマートフォンなどのユーザ端末が行い、他の一部をサーバが行ってもよい。
(First embodiment)
FIG. 1 is a block diagram showing a schematic configuration of an information processing system according to the first embodiment. The information processing system may be composed of one device, or may be composed of a plurality of devices that can communicate with each other. In the latter case, for example, part of the processing may be performed by a user terminal such as a smartphone, and the other part may be performed by the server.

この情報処理システムには、ユーザから任意のソース画像が入力される。このソース画像には、隠蔽されるべき動物の画像(動物画像)が含まれている。前述のように、文言「動物」は「人物」を含むものとする。以下、人物であるとして説明するが、本発明は人物以外の動物にも適用され得る。また、情報処理システムには、コンピュータグラフィックスのキャラクタの3次元モデルが入力される。キャラクタの3次元モデルには、予めキーポイントが設定されていてもよい。そして、情報処理システムは、キャラクタの3次元モデルに基づくキャラクタ画像を用いて、ソース画像の人物画像の領域を隠蔽する加工を行う。 A user inputs an arbitrary source image to this information processing system. This source image contains an image of an animal (animal image) to be hidden. As noted above, the term "animal" shall include "person". In the following, the description will be made assuming that the subject is a human, but the present invention can also be applied to animals other than humans. A three-dimensional model of a computer graphics character is input to the information processing system. Key points may be set in advance in the three-dimensional model of the character. Then, the information processing system uses the character image based on the three-dimensional model of the character to perform processing to hide the person image area of the source image.

具体的には、情報処理システムは、3次元ポーズ推定部1と、ポーズ適用部2と、キャラクタ描画部3と、キャラクタ画像配置部4とを備えている。これら各部の一部または全部の機能は、ハードウェアで実装されてもよいし、プロセッサが所定のプログラムを実行することによって実現されてもよい。 Specifically, the information processing system includes a three-dimensional pose estimation section 1 , a pose application section 2 , a character drawing section 3 and a character image placement section 4 . A part or all of the functions of these units may be implemented by hardware, or may be realized by a processor executing a predetermined program.

3次元ポーズ推定部1はソース画像または人物画像から人物の3次元ポーズを推定して、3次元ポーズデータを生成する。また、3次元ポーズ推定部1は、人物画像を撮影した際のカメラ設定を推定して、推定されたカメラ設定を出力する。推定された3次元ポーズは、人型オブジェクト(人物またはキャラクタ)のポーズを表す3次元ポーズデータで表される。3次元ポーズデータは、例えば、各関節の角度と、人型オブジェクト全体の向きおよび位置の情報である。あるいは、3次元ポーズデータは、各関節の角度に代えて各関節の位置の3次元座標であってもよく、3次元ポーズデータの形式に特に制限はない。3次元ポーズの推定には、例えば非特許文献3に記載の方法を用いることができる。 A three-dimensional pose estimation unit 1 estimates a three-dimensional pose of a person from a source image or an image of a person, and generates three-dimensional pose data. The three-dimensional pose estimation unit 1 also estimates the camera settings when the person image is captured, and outputs the estimated camera settings. The estimated three-dimensional pose is represented by three-dimensional pose data representing the pose of the humanoid object (person or character). The three-dimensional pose data is, for example, information about the angle of each joint and the orientation and position of the entire humanoid object. Alternatively, the 3D pose data may be 3D coordinates of the positions of the joints instead of the angles of the joints, and the format of the 3D pose data is not particularly limited. For example, the method described in Non-Patent Document 3 can be used for estimating the three-dimensional pose.

ポーズ適用部2には、キャラクタの3次元モデルと、3次元ポーズ推定部1から出力される3次元ポーズデータとが入力される。なお、3次元ポーズ推定部1とポーズ適用部2とが接続されており、3次元ポーズ推定部1から出力される3次元ポーズデータが自動的にポーズ適用部2に入力されてもよい。あるいは、3次元ポーズ推定部1から出力される3次元ポーズデータをユーザがポーズ適用部2に手動入力してもよい。この点は他の各部の入出力についても同様である。 The three-dimensional model of the character and the three-dimensional pose data output from the three-dimensional pose estimation unit 1 are input to the pose application unit 2 . The 3D pose estimation unit 1 and the pose application unit 2 may be connected, and the 3D pose data output from the 3D pose estimation unit 1 may be automatically input to the pose application unit 2 . Alternatively, the user may manually input the 3D pose data output from the 3D pose estimation unit 1 to the pose application unit 2 . This point also applies to input/output of other units.

このポーズ適用部2は、3次元ポーズデータを適用してキャラクタの3次元モデルのポーズを変える処理を行う。 The pose application unit 2 applies the three-dimensional pose data to change the pose of the three-dimensional model of the character.

キャラクタ描画部3には、ポーズ適用部2によってポーズが変えられたキャラクタの3次元モデルおよび3次元ポーズ推定部1から出力されるカメラ設定が入力される。そして、キャラクタ描画部3はポーズが変えられたキャラクタの3次元モデルをレンダリングして、キャラクタの2次元画像であるキャラクタ画像を生成する。 The three-dimensional model of the character whose pose has been changed by the pose applying section 2 and the camera settings output from the three-dimensional pose estimating section 1 are input to the character drawing section 3 . Then, the character drawing unit 3 renders the three-dimensional model of the character whose pose has been changed to generate a character image, which is a two-dimensional image of the character.

キャラクタ画像配置部4には、キャラクタ描画部3によって生成されたキャラクタ画像と、ソース画像とが入力される。そして、キャラクタ画像配置部4は、ソース画像の人物画像の領域にキャラクタ画像に基づく画像を配置して、加工画像を生成する。キャラクタ画像配置部4は、ソース画像および/またはキャラクタ画像におけるユーザが任意に指定する領域の色調および/または階調を調整した上で、加工画像を生成してもよい。 A character image generated by the character drawing section 3 and a source image are input to the character image placement section 4 . Then, the character image placement unit 4 places an image based on the character image in the region of the person image of the source image to generate a processed image. The character image placement unit 4 may generate the processed image after adjusting the color tone and/or gradation of the source image and/or the area arbitrarily designated by the user in the character image.

図2は、第1の実施形態に係る情報処理システムの処理動作の一例を示すフローチャートである。なお、図2は例示であり、一部の処理の順序を適宜入れ替えたり、一部の処理を省略したりしてもよい。 FIG. 2 is a flowchart illustrating an example of processing operations of the information processing system according to the first embodiment. Note that FIG. 2 is an example, and the order of some processes may be changed as appropriate, or some processes may be omitted.

ステップS1において、3次元ポーズ推定部1はソース画像または人物画像から人物の3次元ポーズを推定して、3次元ポーズデータを生成し出力する。例えば、図3に示すように、ソース画像100に含まれる人物110のポーズがフリスビーを投げているポーズであるとする。3次元ポーズ推定部1は、このポーズを表現する3次元ポーズデータを生成する。3次元ポーズデータは、例えば、首、腕、脚などの各関節の角度と、人型オブジェクト全体の向きおよび位置の情報である。あるいは、3次元ポーズデータは、各関節の位置の3次元座標であってもよい。 In step S1, the 3D pose estimation unit 1 estimates a 3D pose of a person from a source image or a person image, and generates and outputs 3D pose data. For example, as shown in FIG. 3, assume that the pose of the person 110 included in the source image 100 is the pose of throwing a frisbee. A three-dimensional pose estimation unit 1 generates three-dimensional pose data expressing this pose. Three-dimensional pose data is, for example, information about the angles of each joint such as the neck, arms, and legs, and the orientation and position of the entire humanoid object. Alternatively, the 3D pose data may be 3D coordinates of the position of each joint.

なお、3次元ポーズデータがカメラ設定を暗黙的に含んでいる場合もある。例えば、3次元ポーズデータが人型オブジェクト全体の向きおよび位置の情報を含んでいて、さらにその向きおよび位置の情報がカメラ座標系で記述されている場合、この3次元ポーズデータは人型オブジェクトとカメラとの相対的な向きおよび位置の情報を含んでいる。このように、3次元ポーズデータがカメラ設定を暗黙的に含んでいる場合、3次元ポーズ推定部3は、カメラ設定を明示的に出力するのではなく、3次元ポーズデータのみを出力してもよい。 Note that the 3D pose data may implicitly include camera settings. For example, if the three-dimensional pose data contains information on the orientation and position of the entire humanoid object, and the information on the orientation and position is described in the camera coordinate system, this three-dimensional pose data will be the same as the humanoid object. Contains orientation and position information relative to the camera. In this way, when the 3D pose data implicitly includes camera settings, the 3D pose estimation unit 3 does not output the camera settings explicitly, but outputs only the 3D pose data. good.

続いて、図2のステップS2において、ポーズ適用部2は3次元ポーズデータをキャラクタの3次元モデルに適用して当該キャラクタの3次元モデルのポーズを変える。例えば、図4Aに示すように、キャラクタの3次元モデル200のポーズ(初期ポーズ)が気を付けのポーズであったとする。図3のソース画像100から生成された3次元ポーズデータを、ポーズ適用部2がキャラクタの3次元モデル200に適用する。すると、図4Bに示すように、キャラクタの3次元モデル200'のポーズは、フリスビーを投げているポーズになる。 Subsequently, at step S2 in FIG. 2, the pose application unit 2 applies the three-dimensional pose data to the three-dimensional model of the character to change the pose of the three-dimensional model of the character. For example, as shown in FIG. 4A, assume that the pose (initial pose) of the three-dimensional model 200 of the character is the care pose. The pose applying unit 2 applies the three-dimensional pose data generated from the source image 100 of FIG. 3 to the three-dimensional model 200 of the character. Then, as shown in FIG. 4B, the three-dimensional model 200' of the character assumes the pose of throwing a frisbee.

より具体的には、ポーズ適用部2は、キャラクタの3次元モデルの首、腕、脚などの各関節の角度と、全体の向きおよび位置を、3次元ポーズデータに基づいて変えることにより、キャラクタの3次元モデルのポーズを変える。このようにして、ポーズが変えられたキャラクタの3次元モデルが得られる。 More specifically, the pose applying unit 2 changes the angles of each joint such as the neck, arms, legs, etc. of the three-dimensional model of the character, as well as the direction and position of the entire character, based on the three-dimensional pose data. Change the pose of the 3D model of In this way, a three-dimensional model of the character with changed poses is obtained.

続いて、図2のステップS3において、キャラクタ描画部3は、ポーズが変えられたキャラクタの3次元モデルをレンダリングしてキャラクタ画像を生成する。例えば、キャラクタ描画部3は、図4Bに示すポーズが変えられた後のキャラクタの3次元モデルをレンダリングして、図5に示すキャラクタ画像210を生成する。 Subsequently, at step S3 in FIG. 2, the character drawing unit 3 renders the three-dimensional model of the character whose pose has been changed to generate a character image. For example, the character drawing unit 3 renders the three-dimensional model of the character after the pose has been changed shown in FIG. 4B to generate the character image 210 shown in FIG.

キャラクタ描画部3には、ポーズ適用済のキャラクタの3次元モデル(言い換えると、ポーズ適用部2によってポーズを変えられたキャラクタの3次元モデル)と、カメラ設定とが入力される。そして、キャラクタ描画部3は入力されたカメラ設定を仮想カメラに適用する。さらに、キャラクタ描画部3は、仮想カメラを使ってポーズ適用済のキャラクタの3次元モデルからキャラクタの2次元画像(キャラクタ画像)を生成する。具体例として、キャラクタ描画部3は、カメラ設定が示す向きおよび位置に配置された仮想カメラからポーズ適用済のキャラクタの3次元モデルを仮想的に描画して、キャラクタ画像を生成する。 The character drawing unit 3 receives a three-dimensional model of a character to which a pose has been applied (in other words, a three-dimensional model of a character whose pose has been changed by the pose applying unit 2) and camera settings. The character drawing unit 3 then applies the input camera settings to the virtual camera. Furthermore, the character drawing unit 3 uses the virtual camera to generate a two-dimensional image of the character (character image) from the three-dimensional model of the character to which the pose has been applied. As a specific example, the character drawing unit 3 virtually draws a three-dimensional model of a pose-applied character from a virtual camera placed in the direction and position indicated by the camera settings, and generates a character image.

例えば、図6Aは、カメラ設定を仮想カメラCに適用した例を示す図である。図6Aに示すように、キャラクタ描画部3は、カメラ設定に基づいて仮想カメラCを配置することができる。仮想カメラCを使ってポーズ適用済のキャラクタの3次元モデル200からキャラクタの2次元画像(例えば、図5のキャラクタ画像210)を生成する例を示す図である。 For example, FIG. 6A is a diagram showing an example in which camera settings are applied to virtual camera C. As shown in FIG. As shown in FIG. 6A, the character drawing unit 3 can arrange a virtual camera C based on camera settings. FIG. 6 is a diagram showing an example of generating a two-dimensional image of a character (for example, the character image 210 in FIG. 5) from a three-dimensional model 200 of a character to which a pose has been applied using a virtual camera C;

続いて、図2のステップS4において、キャラクタ画像配置部4は、ソース画像の人物画像の領域にキャラクタ画像に基づく画像を配置して、加工画像を生成する。例えば、キャラクタ画像配置部4は、図3に示すソース画像100における人物画像110の領域に、図5に示すキャラクタ画像210を配置し、図7に示す加工画像300を生成する。 Subsequently, at step S4 in FIG. 2, the character image placement unit 4 places an image based on the character image in the person image area of the source image to generate a processed image. For example, the character image placement unit 4 places the character image 210 shown in FIG. 5 in the region of the person image 110 in the source image 100 shown in FIG. 3 to generate the processed image 300 shown in FIG.

このように、第1の実施形態では、ソース画像の人物画像の領域にキャラクタ画像を配置するため、ユーザの任意のソース画像の人物画像の領域を隠蔽しながら、人物の存在が分かるようにできる。 As described above, in the first embodiment, since the character image is arranged in the person image area of the source image, the presence of the person can be made visible while hiding the person image area of the user's arbitrary source image. .

また、本実施形態では、ソース画像または人物画像から生成される3次元ポーズデータを適用してキャラクタの3次元モデルのポーズを変えた上で、ポーズを変えた後のキャラクタの3次元モデルに基づくキャラクタ画像をソース画像の人物画像の領域に配置する。そのため、ソース画像の人物画像の被写体の人物の3次元ポーズと、キャラクタの3次元モデルの初期ポーズとが異なる場合であっても、ソース画像の人物画像の領域を隠蔽できる。 Further, in this embodiment, after changing the pose of the three-dimensional model of the character by applying the three-dimensional pose data generated from the source image or the person image, Place the character image in the person image area of the source image. Therefore, even if the three-dimensional pose of the subject of the person image of the source image is different from the initial pose of the three-dimensional model of the character, the area of the person image of the source image can be hidden.

ソース画像にキャラクタ画像を配置する際には、ソース画像とキャラクタ画像との位置合わせ、スケール合わせが必要である。位置合わせの際には、一方の画像をさらに回転させてもよい。この位置合わせ、スケール合わせの方法として、例えば下記の2つの手法が挙げられる。 When arranging a character image in a source image, it is necessary to align the source image and the character image and scale them. One of the images may be further rotated during registration. As a method for this alignment and scale alignment, for example, the following two methods are available.

第1の手法は、画像のバウンディングボックスを使う手法である。この場合、人物画像のバウンディングボックスと、キャラクタ画像のバウンディングボックスが用いられる。そして、バウンディングボックスどうしの高さと中心が合うように、キャラクタ画像を拡大または縮小し移動させることによって、ソース画像とキャラクタ画像との位置合わせ、スケール合わせが行われる。あるいは、バウンディングボックスどうしの幅と中心が合うように、キャラクタ画像を拡大または縮小し移動させてもよい。 The first technique is to use the bounding box of the image. In this case, the bounding box of the person image and the bounding box of the character image are used. Then, the source image and the character image are aligned and scaled by enlarging or reducing and moving the character image so that the heights and centers of the bounding boxes match each other. Alternatively, the character image may be enlarged or reduced and moved so that the widths and centers of the bounding boxes match.

なお、人物画像のバウンディングボックスを求めるには、例えば、物体検出の手法(例えば非特許文献5)でバウンディングボックスを得る手法や、セマンティックセグメンテーションの手法(例えば非特許文献2)で人物画像の領域を求め、その領域のバウンディングボックスを求める手法などを用いることができる。 In order to obtain the bounding box of the human image, for example, a method of obtaining a bounding box by an object detection method (for example, Non-Patent Document 5) or a method of semantic segmentation (for example, Non-Patent Document 2) is used to obtain a region of the human image. A method of obtaining the bounding box of the area, or the like can be used.

第2の手法は、キーポイントを使う手法である。この場合、人物画像上のキーポイントと、キャラクタ画像上のキーポイントが用いられる。 A second technique is to use keypoints. In this case, keypoints on the person image and keypoints on the character image are used.

人物画像におけるキーポイントの位置(図8参照)は、例えば非特許文献1の手法を用いて求めることができる。また、キャラクタ画像におけるキーポイントの位置は、次の2つの手法(手法Aまたは手法B)を用いて求めることができる。 The position of the keypoint in the human image (see FIG. 8) can be obtained using the method of Non-Patent Document 1, for example. Also, the position of the keypoint in the character image can be obtained using the following two methods (method A or method B).

手法Aでは、キャラクタの3次元モデルに、予めキーポイントの位置(3次元座標)を設定しておく。図9の例では、顔のキーポイント(目、鼻、口、耳)は3次元モデルの表面に位置し、身体のキーポイント(首、肩、肘、など)は3次元モデルの内部に位置する。図2のステップS3において、キャラクタ描画部3が仮想カメラを用いてキャラクタの3次元モデルを描画してキャラクタ画像を生成する際に、3次元座標(3次元モデル)から2次元座標(仮想スクリーン)への座標変換が行われる。これと同様の座標変換を、3次元モデルのキーポイント座標に対して適用することにより、キャラクタ画像上のキーポイントの位置が得られる。また一般に、キャラクタの3次元モデルにはボーン(骨格構造)が設定されていることが多い。このような場合には、ボーンの関節点の位置(3次元座標)をキーポイント位置として利用してもよい。図6Bは、キャラクタの3次元モデルに設定されている右手首のキーポイントを元にして、キャラクタ画像上の右手首のキーポイント位置が求められることを示す。 In method A, keypoint positions (three-dimensional coordinates) are set in advance in a three-dimensional model of a character. In the example of Figure 9, the face keypoints (eyes, nose, mouth, ears) are located on the surface of the 3D model, and the body keypoints (neck, shoulders, elbows, etc.) are located inside the 3D model. do. In step S3 of FIG. 2, when the character drawing unit 3 draws a three-dimensional model of a character using a virtual camera to generate a character image, three-dimensional coordinates (three-dimensional model) are converted to two-dimensional coordinates (virtual screen). A coordinate transformation to is performed. By applying coordinate transformation similar to this to the keypoint coordinates of the three-dimensional model, the positions of the keypoints on the character image can be obtained. Also, in general, bones (skeletal structure) are often set in a three-dimensional model of a character. In such a case, the position (three-dimensional coordinates) of the joint point of the bone may be used as the keypoint position. FIG. 6B shows that the keypoint position of the right wrist on the character image is obtained based on the keypoint of the right wrist set in the three-dimensional model of the character.

手法Bとしては、キャラクタ画像に対して、例えば非特許文献1の手法を用いて、キャラクタ画像上のキーポイントの位置を求めることができる。 As method B, the position of the key point on the character image can be obtained using, for example, the method of Non-Patent Document 1 for the character image.

キーポイントを用いた位置合わせ、スケール合わせは、以下のように行われる。 Alignment and scaling using keypoints are performed as follows.

例えば、それぞれの画像上で、右腰のキーポイントと左腰のキーポイントとの中点を求め、これを腰の位置として、両画像の腰の位置が合うようにキャラクタ画像を移動させる。そして、それぞれの画像について、全キーポイントからバウンディングボックスを作り、両画像のバウンディングボックスの高さ(あるいは幅)が等しくなるようにキャラクタ画像を拡大または縮小することによって、ソース画像とキャラクタ画像との位置合わせ、スケール合わせを行うことができる。 For example, on each image, the midpoint between the key point of the right waist and the key point of the left waist is obtained, and using this as the position of the waist, the character image is moved so that the positions of the waists of both images match. Then, for each image, a bounding box is created from all keypoints, and the character image is enlarged or reduced so that the height (or width) of the bounding box of both images is the same, resulting in a difference between the source image and the character image. Alignment and scaling can be performed.

あるいは、重要なキーポイントを所定の個数(例えば2つ)決めておき、それぞれのキーポイントの両画像上の位置が合うように、キャラクタ画像を移動・拡縮・回転させる。例えば、両画像の首のキーポイントどうしが一致し、かつ両画像の右足首のキーポイントどうしが一致するように、画像を移動・拡縮・回転させる。このようにしても、ソース画像とキャラクタ画像との位置合わせ、スケール合わせを行うことができる。 Alternatively, a predetermined number (for example, two) of important keypoints are determined, and the character image is moved, scaled, or rotated so that the positions of the keypoints on both images match. For example, the images are moved, scaled, and rotated so that the neck keypoints of both images match and the right ankle keypoints of both images match. Also in this way, the source image and the character image can be aligned and scaled.

(第2の実施形態)
次に説明する第2の実施形態は、より正確に人物画像の領域を隠蔽すべく、人物画像または人物画像上の点の位置に基づいてキャラクタの3次元モデルの変形を行うものである。以下では、第1の実施形態と共通する説明は省略ないし簡略化することがある。
(Second embodiment)
A second embodiment described below deforms a three-dimensional model of a character based on a person's image or the positions of points on the person's image in order to more accurately hide the area of the person's image. In the following, explanations common to the first embodiment may be omitted or simplified.

図10は、第2の実施形態に係る情報処理システムの概略構成を示すブロック図である。図1の情報処理システムとの相違点として、図10の情報処理システムはキャラクタモデル変形部6をさらに備えている。 FIG. 10 is a block diagram showing a schematic configuration of an information processing system according to the second embodiment. As a difference from the information processing system of FIG. 1, the information processing system of FIG.

また、キャラクタモデル変形部6には、3次元ポーズデータが適用された(ポーズを変えられた)キャラクタの3次元モデル、カメラ設定、およびソース画像が入力される。そして、キャラクタモデル変形部6は、人物画像の輪郭とキャラクタ画像の輪郭とのズレが小さくなるよう、3次元ポーズデータが適用された(ポーズを変えられた)キャラクタの3次元モデルを変形する。 The character model transforming unit 6 also receives a three-dimensional model of a character to which the three-dimensional pose data is applied (changed pose), camera settings, and a source image. Then, the character model transforming unit 6 transforms the three-dimensional model of the character to which the three-dimensional pose data is applied (the pose is changed) so that the deviation between the outline of the person image and the outline of the character image is reduced.

キャラクタの3次元モデル変形の手法の一例として、人物画像上のキーポイントの位置に基づいてキャラクタの3次元モデルを変形する手法を用いることができる。この手法では、画像上の点の位置から、3次元座標を求める必要がある。ここで、例えば、図11に示すように、キャラクタ画像上で、肘の位置を変えずに手首の位置を変える場合を考える。キャラクタ画像上の手首の位置がP0で、人物画像上の手首の位置がP1であるとする。人物画像の輪郭とキャラクタ画像の輪郭とのズレを少なくするために、キャラクタ画像上の手首の位置がP0からP1に変わるように、キャラクタの3次元モデルを変形する。3次元モデルの手首の位置Qは、カメラと点P1とを結ぶ直線Lの上にあれば良いが、これだけではQの位置は一意に決まらない。そこでQの位置を一意に決める方法として、下記の手法が挙げられる。 As an example of a method for transforming a three-dimensional model of a character, a method of transforming a three-dimensional model of a character based on the positions of key points on a person's image can be used. In this method, it is necessary to obtain three-dimensional coordinates from the positions of points on the image. Here, for example, as shown in FIG. 11, consider the case of changing the position of the wrist on the character image without changing the position of the elbow. Assume that the position of the wrist on the character image is P0 and the position of the wrist on the person image is P1. In order to reduce the deviation between the outline of the person image and the outline of the character image, the three-dimensional model of the character is deformed so that the position of the wrist on the character image changes from P0 to P1. The position Q of the wrist of the three-dimensional model should be on the straight line L connecting the camera and the point P1, but the position of Q cannot be uniquely determined by this alone. Therefore, as a method of uniquely determining the position of Q, the following method can be used.

第1の手法では、元の手首の位置Q0を通り、仮想スクリーンに平行な平面を作り、この平面と直線Lとの交点をQ1とし、Q1を変形後の手首の位置Qとする。
第2の手法では、「部位の長さ(肘から手首までの長さ)が、元の長さから変わらない」という制約条件を追加して、この条件を満たすように変形後の手首の位置Qを求める。Qの解が2つ存在する(例えば、図11の例では、Q2とQ3が存在する)場合は、どちらを使ってもよいが、例えば元のポーズに近いほう(図11の例では、Q2)を選んでもよい。
In the first method, a plane passing through the original wrist position Q0 and parallel to the virtual screen is created, the intersection of this plane and the straight line L is defined as Q1, and Q1 is defined as the wrist position Q after deformation.
In the second method, we add a constraint condition that "the length of the part (the length from the elbow to the wrist) does not change from the original length", and the post-deformation wrist position is calculated to satisfy this condition. Ask for Q. If there are two solutions for Q (for example, in the example of FIG. 11, there are Q2 and Q3), either can be used, but for example, the one closer to the original pose (Q2 in the example of FIG. 11) ) may be selected.

図12は、第2の実施形態に係る情報処理システムの処理動作の一例を示すフローチャートである。ステップS1、S2、およびS4は第1の実施形態と重複するので、説明を省略する。 FIG. 12 is a flowchart illustrating an example of processing operations of the information processing system according to the second embodiment. Since steps S1, S2, and S4 overlap with those of the first embodiment, description thereof is omitted.

ステップS11において、キャラクタモデル変形部6は、人物画像の輪郭とキャラクタ画像の輪郭とのズレが小さくなるよう、3次元ポーズデータが適用された(ポーズを変えられた)キャラクタの3次元モデルを変形する。例えば図11で説明した手法を用いてキャラクタの3次元モデルを変形する。図11の例では肘のキーポイントと手首のキーポイントを使って、肘から手首までの部位(前腕部)を変形させているが、複数の部位に対して順にこの手法を使って変形させてもよい。 In step S11, the character model transforming unit 6 transforms the three-dimensional model of the character to which the three-dimensional pose data is applied (the pose is changed) so that the deviation between the outline of the person image and the outline of the character image becomes small. do. For example, the three-dimensional model of the character is transformed using the method described with reference to FIG. In the example of Fig. 11, the elbow and wrist keypoints are used to transform the region from the elbow to the wrist (forearm). good too.

より具体的には、例えば、まずキャラクタ画像の腰の位置を、人物画像の腰の位置に合わせる。 More specifically, for example, first, the position of the waist of the character image is aligned with the position of the waist of the person image.

次に、腰から首までに対して図11の手法を使って、キャラクタの3次元モデルの腰から首までの範囲を変形させて、キャラクタ画像の首の位置を、人物画像の首の位置に合わせる。 Next, the range from the waist to the neck of the three-dimensional model of the character is deformed using the technique shown in FIG. match.

次に、首から右肩までに対して図11の手法を使って、キャラクタの3次元モデルの首から右肩までの範囲を変形させて、キャラクタ画像の右肩の位置を、人物画像の右肩の位置に合わせる。 Next, the range from the neck to the right shoulder of the three-dimensional model of the character is deformed using the technique shown in FIG. Align it with your shoulder.

次に、右肩から右肘までに対して図11の手法を使って、キャラクタの3次元モデルの右肩から右肘までの範囲を変形させて、キャラクタ画像の右肘の位置を、人物画像の右肘の位置に合わせる。 Next, the range from the right shoulder to the right elbow is deformed in the three-dimensional model of the character using the method shown in FIG. align with the right elbow of the

次に、右肘から右手首までに対して図11の手法を使って、キャラクタの3次元モデルの右肘から右手首までの範囲を変形させて、キャラクタ画像の右手首の位置を、人物画像の右手首の位置に合わせる。 Next, the range from the right elbow to the right wrist of the three-dimensional model of the character is deformed using the method shown in FIG. on the right wrist of the

同様にして、首-左肩-左肘-左手首、腰-右腰-右膝-右足首、および腰-左腰-左膝-左足首に対して処理を行い、キャラクタ画像の各部位の位置を、人物画像の対応する部位の位置に合わせてもよい。 In the same way, the neck-left shoulder-left elbow-left wrist, hip-right hip-right knee-right ankle, and hip-left hip-left knee-left ankle are processed to determine the position of each part of the character image. may be aligned with the position of the corresponding part of the person image.

キャラクタ画像上のキーポイントの位置を求める手法については、既に述べたように、手法A、Bの2つの方法がある。手法Aは仮想カメラを使った座標変換を用いる。手法Bはキャラクタ画像を使ってキーポイント位置を推定する。 There are two methods, methods A and B, for obtaining the positions of key points on the character image, as described above. Method A uses coordinate transformation using a virtual camera. Method B uses character images to estimate keypoint positions.

手法Aを用いる場合には、キャラクタモデル変形部6は、キャラクタ画像を描画することなく、キャラクタ画像上のキーポイントの位置を求めることができる。 When method A is used, the character model transformation unit 6 can obtain the positions of key points on the character image without drawing the character image.

手法Bを用いる場合には、キャラクタモデル変形部6は、キャラクタ画像を描画する必要がある。キャラクタ画像を描画するには、キャラクタ描画部と同様の方法を用いればよい。 When using method B, the character model transforming section 6 needs to draw a character image. To draw the character image, a method similar to that used by the character drawing section may be used.

続いて、ステップS12において、キャラクタ描画部3は、ステップS11にて変形されたキャラクタの3次元モデルをレンダリングして、キャラクタ画像を生成する。 Subsequently, in step S12, the character drawing section 3 renders the three-dimensional model of the character transformed in step S11 to generate a character image.

そして、ステップS4において、キャラクタ画像配置部4は、ソース画像における人物画像の領域に、ステップS12にて生成されたキャラクタ画像を配置して加工画像を生成する。人物画像上のキーポイントの位置と、キャラクタ画像上のキーポイントの位置と、が合うようキャラクタの3次元モデルを変形することにより、人物画像の輪郭とキャラクタ画像の輪郭とのズレを、より小さくすることができる。 Then, in step S4, the character image placement unit 4 places the character image generated in step S12 in the region of the person image in the source image to generate a processed image. By deforming the three-dimensional model of the character so that the position of the key point on the person image and the position of the key point on the character image match, the deviation between the outline of the person image and the outline of the character image can be reduced. can do.

(第3の実施形態)
次に説明する第3の実施形態は、より正確に人物画像の領域を隠蔽すべく、人物画像または人物画像上の点の位置に基づいてキャラクタ画像の変形を行うものである。以下では、第1の実施形態と共通する説明は省略ないし簡略化することがある。
(Third embodiment)
A third embodiment described below transforms a character image based on a person image or the position of a point on the person image in order to more accurately hide the area of the person image. In the following, explanations common to the first embodiment may be omitted or simplified.

図13は、第3の実施形態に係る情報処理システムの概略構成を示すブロック図である。図1の情報処理システムとの相違点として、図13の情報処理システムはキャラクタ画像変形部7を備えている。 FIG. 13 is a block diagram showing a schematic configuration of an information processing system according to the third embodiment. As a difference from the information processing system of FIG. 1, the information processing system of FIG.

また、キャラクタ画像変形部7には、キャラクタ描画部3から出力されるキャラクタ画像と、ソース画像とが入力される。そして、キャラクタ画像変形部7は、人物画像の輪郭とキャラクタ画像の輪郭とのズレが小さくなるよう、キャラクタ画像を変形する。 The character image output from the character drawing unit 3 and the source image are input to the character image transforming unit 7 . Then, the character image transforming section 7 transforms the character image so that the deviation between the outline of the person image and the outline of the character image is reduced.

キャラクタ画像変形の手法の例として、人物画像上のキーポイントの位置と、キャラクタ画像上のキーポイントの位置と、が合うようキャラクタ画像を変形することができる。 As an example of the character image transformation method, the character image can be transformed so that the position of the key point on the person image matches the position of the key point on the character image.

図14は、第3の実施形態に係る情報処理システムの処理動作の一例を示すフローチャートである。ステップS1~S3は第1の実施形態と重複するので、説明を省略する。 FIG. 14 is a flowchart illustrating an example of processing operations of an information processing system according to the third embodiment. Since steps S1 to S3 overlap with those of the first embodiment, description thereof is omitted.

ステップS21において、キャラクタ画像変形部7は、人物画像の輪郭とキャラクタ画像の輪郭とのズレが小さくなるよう、キャラクタ描画部3によって生成されたキャラクタ画像を変形する。 In step S21, the character image transforming section 7 transforms the character image generated by the character drawing section 3 so as to reduce the deviation between the outline of the person image and the outline of the character image.

人物画像上のキーポイントの位置(図8参照)は、例えば非特許文献1の手法を用いて求めることができる。 The position of the keypoint on the human image (see FIG. 8) can be obtained using the method of Non-Patent Document 1, for example.

キャラクタ画像上のキーポイントの位置を求める手法については、既に述べたように、手法A、Bの2つの方法がある。手法Aは仮想カメラを使った座標変換を用いる。手法Bはキャラクタ画像を使ってキーポイント位置を推定する。 There are two methods, methods A and B, for obtaining the positions of key points on the character image, as described above. Method A uses coordinate transformation using a virtual camera. Method B uses character images to estimate keypoint positions.

手法Aを用いる場合には、キャラクタ描画部3がさらにキャラクタ画像上の
キーポイントの位置を求めて出力するようにしてもよい。
When method A is used, the character drawing section 3 may further obtain and output the position of the key point on the character image.

手法Bを用いる場合には、キャラクタ画像変形部7が例えば非特許文献1の手法を用いてキャラクタ画像上のキーポイントの位置を求めるようにしてもよい。 When method B is used, the character image transformation unit 7 may use the method of Non-Patent Document 1, for example, to obtain the position of the key point on the character image.

人物画像上のキーポイントの位置と、キャラクタ画像上のキーポイントの位置と、が合うようキャラクタ画像を変形するには、例えば非特許文献4の手法を用いてもよい。 In order to deform the character image so that the position of the key point on the person image and the position of the key point on the character image match, for example, the technique of Non-Patent Document 4 may be used.

図14のステップS4において、キャラクタ画像配置部4は、ソース画像における人物画像の領域に、ステップS21にて生成されたキャラクタ画像を配置して加工画像を生成する。人物画像上のキーポイントの位置と、キャラクタ画像上のキーポイントの位置と、が合うようキャラクタ画像を変形することにより、人物画像の輪郭とキャラクタ画像の輪郭とのズレを、より小さくすることができる。 In step S4 of FIG. 14, the character image placement unit 4 places the character image generated in step S21 in the person image region in the source image to generate a processed image. By deforming the character image so that the positions of the key points on the person image and the positions of the key points on the character image match each other, it is possible to further reduce the deviation between the outline of the person image and the outline of the character image. can.

本実施の形態では、人物のキーポイントとキャラクタのキーポイントとが一致するよう、キャラクタ画像を変形する。これにより、変形後のキャラクタ画像上のキーポイントの位置は、人物画像上のキーポイントの位置に概略一致する。しかし、人物画像とキャラクタ画像との対応する部位の太さや幅が異なる場合には、両者の輪郭が一致するとは限らない。 In this embodiment, the character image is transformed so that the key points of the person and the key points of the character match. As a result, the positions of the keypoints on the character image after deformation approximately match the positions of the keypoints on the person image. However, if the thickness and width of the corresponding parts of the person image and the character image are different, the contours of the two do not always match.

そこで、合わせたキーポイントどうしがずれないようにしながら、キャラクタ画像の輪郭が人物画像の輪郭に一致するよう、キャラクタ画像をさらに変形してもよい。すなわち、人物画像およびキャラクタ画像のキーポイントどうしおよび輪郭どうしを合わせる。 Therefore, the character image may be further transformed so that the outline of the character image matches the outline of the person image while preventing the key points that are combined from being shifted. That is, the keypoints and contours of the person image and the character image are matched.

図15は、キャラクタ画像の輪郭を変形する例を示す図である。図15では、前述のキーポイントを使ったキャラクタ画像の変形処理後のキャラクタ画像の輪郭(実線)および人物画像の輪郭(破線)の一部を模式的に示されている。この例では、両者のキーポイント(図15では「2つの黒丸」で示されている)はキャラクタ画像の変形によって位置合わせされているが、輪郭は一致していない。この場合、2つのキーポイントを結ぶ線(図15において一点鎖線で示す)と直交する方向にキャラクタ画像の輪郭を伸縮することによって、キャラクタ画像の輪郭を人物画像の輪郭にできる限り近づける。これにより、変形後のキャラクタ画像の輪郭は、人物画像の輪郭と略一致する。 FIG. 15 is a diagram showing an example of deforming the outline of a character image. FIG. 15 schematically shows part of the outline (solid line) of the character image and the outline (broken line) of the person image after the deformation processing of the character image using the key points described above. In this example, both keypoints (indicated by "two black circles" in FIG. 15) are aligned by deformation of the character image, but the contours do not match. In this case, the outline of the character image is made as close as possible to the outline of the person image by expanding or contracting the outline of the character image in the direction orthogonal to the line connecting the two key points (indicated by the dashed line in FIG. 15). As a result, the contour of the character image after deformation substantially matches the contour of the person image.

キャラクタ画像変形部7は、さらに下記のような手法を用いてキャラクタ画像を変形してもよい。 The character image transformation unit 7 may further transform the character image using the following method.

キャラクタ画像の変形手法の例を図16のフローチャートに示す。まず、ステップS31において、キャラクタ画像変形部7はキャラクタ画像上のキーポイントに基づいてキャラクタ画像の輪郭に複数の点を設定する。 A flowchart of FIG. 16 shows an example of a character image deformation method. First, in step S31, the character image transforming section 7 sets a plurality of points on the outline of the character image based on key points on the character image.

例として、図17Aに、キャラクタ画像の輪郭およびその2つのキーポイント(黒丸)k1,k2を示す。例えば、キーポイントk1は右肩であり、キーポイントk2は右ひじである。キャラクタ画像変形部7はキーポイントk1,k2を結ぶ直線(図17Aに一点鎖線で示す、以下「基準線」と呼ぶ)上に任意に点を追加する(同図では、2つのキーポイントk1,k2を結ぶ線分を3等分する位置に2つの点(黒四角で示す)m1,m2を追加している)。そして、キャラクタ画像変形部7は、キーポイントk1を通り基準線と直交する直線と、キャラクタ画像の輪郭と交わる位置に点p1,p2を設定する。他のキーポイントk2や、追加した点m1,m2に対しても同様にして、キャラクタ画像変形部7はキャラクタ画像の輪郭に複数の点を設定する。 As an example, FIG. 17A shows the outline of a character image and its two key points (black circles) k1 and k2. For example, keypoint k1 is the right shoulder and keypoint k2 is the right elbow. The character image transforming unit 7 arbitrarily adds a point on the straight line connecting the keypoints k1 and k2 (indicated by the dashed dotted line in FIG. 17A, hereinafter referred to as the "reference line") (in the figure, two keypoints k1, Two points (indicated by black squares) m1 and m2 are added at positions dividing the line segment connecting k2 into three equal parts). Then, the character image transforming unit 7 sets points p1 and p2 at positions where a straight line passing through the key point k1 and orthogonal to the reference line intersects the outline of the character image. Similarly, the character image transformation unit 7 sets a plurality of points on the outline of the character image for the other key point k2 and the added points m1 and m2.

図16のステップS32において、キャラクタ画像変形部7は人物画像上のキーポイントに基づいて人物画像の輪郭に複数の点を設定する。 At step S32 in FIG. 16, the character image transformation unit 7 sets a plurality of points on the outline of the person image based on the key points on the person image.

例として、図17Bに、人物画像の輪郭およびその2つのキーポイント(白丸)k11,k12とを示す。図17Aのキーポイントk1,k2は図17Bのキーポイントk11,k12とそれぞれ対応しているものとする。例えば、図17Aのキーポイントk1が右肩であり、キーポイントk2が右ひじである場合、図17Bのキーポイントk11も右肩であり、キーポイントk12も右ひじである。図17Aで説明したのと同様に、キャラクタ画像変形部7は人物画像の輪郭に複数の点を設定する。図17Aでキャラクタ画像の輪郭に設定された各点と、図17Bで人物画像の輪郭に設定された各点との対応関係をキャラクタ画像変形部7は把握している。 As an example, FIG. 17B shows the outline of a person image and its two key points (white circles) k11 and k12. It is assumed that keypoints k1 and k2 in FIG. 17A correspond to keypoints k11 and k12 in FIG. 17B, respectively. For example, if the keypoint k1 in FIG. 17A is the right shoulder and the keypoint k2 is the right elbow, the keypoint k11 in FIG. 17B is also the right shoulder and the keypoint k12 is the right elbow. As described with reference to FIG. 17A, the character image transformation unit 7 sets a plurality of points on the contour of the person image. The character image transformation unit 7 grasps the correspondence relationship between each point set on the contour of the character image in FIG. 17A and each point set on the contour of the person image in FIG. 17B.

図16のステップS33において、キャラクタ画像変形部7は、キャラクタ画像の輪郭に設定された各点と、人物画像の輪郭に設定された対応する点と、が重なるようキャラクタ画像を変形する。以上により、変形後のキャラクタ画像のキーポイントおよび輪郭は、人物画像のキーポイントおよび輪郭と略一致する。 In step S33 of FIG. 16, the character image transforming unit 7 transforms the character image so that each point set on the outline of the character image and the corresponding point set on the outline of the person image overlap each other. As described above, the keypoints and contours of the transformed character image substantially match the keypoints and contours of the person image.

(第4の実施形態)
次に説明する第4の実施形態は、加工画像において、キャラクタ画像によって人物画像が十分に隠蔽されない場合に対応するために、ソース画像から人物画像を略含む領域をくり抜いた上で、キャラクタ画像を配置し、くり抜いた画像とキャラクタ画像との間を補完するものである。
(Fourth embodiment)
In the fourth embodiment described below, in order to cope with the case where the character image does not sufficiently hide the character image in the processed image, an area substantially including the character image is cut out from the source image, and then the character image is removed. It complements the space between the placed and cut out image and the character image.

図18は、第4の実施形態に係る情報処理システムの概略構成を示すブロック図である。この情報処理システムにおけるキャラクタ画像配置部4は、くり抜き画像生成部41と、補完画像生成部42と、合成部43とを有する。 FIG. 18 is a block diagram showing a schematic configuration of an information processing system according to the fourth embodiment. The character image placement section 4 in this information processing system has a clipped image generation section 41 , a complementary image generation section 42 and a synthesis section 43 .

くり抜き画像生成部41はソース画像から人物画像を略含む領域を取り除いたくり抜き画像を生成する。具体的には、くり抜き画像生成部41はソース画像における人物画像の領域をセマンティックセグメンテーションにより特定する。そして、くり抜き画像生成部41は特定された人物画像の領域をカバー領域とする。そして、くり抜き画像生成部はソース画像からカバー領域を取り除くことで、くり抜き画像を生成する。セマンティックセグメンテーションによる領域特定の精度が低い場合には、特定された領域より大きい領域をカバー領域としてもよい。 A cut-out image generation unit 41 generates a cut-out image by removing a region substantially including a person image from the source image. Specifically, the cut-out image generation unit 41 identifies the region of the person image in the source image by semantic segmentation. Then, the cut-out image generation unit 41 sets the specified area of the person image as the cover area. Then, the cutout image generation unit generates a cutout image by removing the cover area from the source image. If the accuracy of region identification by semantic segmentation is low, a region larger than the identified region may be set as the cover region.

あるいは、くり抜き画像生成部41は、セマンティックセグメンテーションを使わずに、その替わりにキャラクタ画像を利用してもよい。この場合、キャラクタ画像の領域と人物画像の領域とは、通常、多少のずれがあるので、人物画像の領域を取り除くために、キャラクタ画像を広げた領域をカバー領域とするのが望ましい。そして、くり抜きが画像生成部はソース画像からカバー領域を取り除くことで、くり抜き画像を生成する。 Alternatively, the clipped image generator 41 may not use semantic segmentation, but instead use character images. In this case, since the character image area and the person image area usually have some deviation, in order to remove the person image area, it is desirable to use the expanded area of the character image as the cover area. Then, the cutout image generation unit generates a cutout image by removing the cover area from the source image.

補完画像生成部42は、くり抜き画像にキャラクタ画像を配置した際に形成される、くり抜き画像とキャラクタ画像との隙間を補完する補完画像を生成する。 The complementary image generation unit 42 generates a complementary image that complements the gap between the cutout image and the character image that is formed when the character image is arranged in the cutout image.

合成部43は、くり抜き画像と、キャラクタ画像と、補完画像とを合成して、加工画像を生成する。具体的には、合成部43は、補完画像、くり抜き画像およびキャラクタ画像を、この順番で下から順に重ねることにより、加工画像を生成する。 The synthesizing unit 43 synthesizes the clipped image, the character image, and the complementary image to generate a processed image. Specifically, the synthesizing unit 43 generates the processed image by superimposing the complementary image, the clipped image, and the character image in this order from the bottom.

図19は、第4の実施形態に係る情報処理システムの処理動作の一例を示すブロック図である。ステップS1~S3は第1の実施形態と重複するので、説明を省略する。ステップS3の後、キャラクタ画像配置部4は以下のステップS31~S33の処理により、加工画像を生成する。 FIG. 19 is a block diagram illustrating an example of processing operations of an information processing system according to the fourth embodiment. Since steps S1 to S3 overlap with those of the first embodiment, description thereof is omitted. After step S3, the character image placement unit 4 generates a processed image through the processing of steps S31 to S33 below.

ステップS31において、くり抜き画像生成部41はソース画像から人物画像を略含む領域を取り除いたくり抜き画像を生成する。例えば、くり抜き画像生成部41は、図3に示すソース画像100から、図5に示すキャラクタ画像210の領域を広げたカバー領域を取り除いて、図20に示すくり抜き画像700を生成する。 In step S31, the cut-out image generation unit 41 generates a cut-out image by removing a region substantially including the person image from the source image. For example, the cut-out image generation unit 41 removes the cover area obtained by enlarging the area of the character image 210 shown in FIG. 5 from the source image 100 shown in FIG. 3 to generate the cut-out image 700 shown in FIG.

続いて、図19のステップS32において、補完画像生成部42は、くり抜き画像にキャラクタ画像を配置した際に形成される、くり抜き画像とキャラクタ画像との隙間を補完する補完画像を生成する。例えば、図20に示すくり抜き画像700にブラー処理を行って、図21に示すような補完画像を生成する。 Subsequently, in step S32 of FIG. 19, the complementary image generation unit 42 generates a complementary image that complements the gap between the cut-out image and the character image formed when the character image is arranged in the cut-out image. For example, blur processing is performed on the clipped image 700 shown in FIG. 20 to generate a complementary image as shown in FIG.

そして、図19のステップS33において、合成部43は、くり抜き画像と、キャラクタ画像と、補完画像とを合成して、加工画像を生成する。例えば、図21に示すような補完画像の上に、図22に示すような縁をぼかしたくり抜き画像と、図5に示すようなキャラクタ画像210を合成することにより、
図23に示す加工画像が得られる。
Then, in step S33 of FIG. 19, the synthesizing unit 43 synthesizes the clipped image, the character image, and the complementary image to generate a processed image. For example, by synthesizing an image with blurred edges as shown in FIG. 22 and a character image 210 as shown in FIG. 5 on a complemented image as shown in FIG.
A processed image shown in FIG. 23 is obtained.

このように、第4の実施形態によれば、加工画像におけるくり抜き画像とキャラクタ画像との隙間をより自然に埋めることができる。なお、第2、3の実施形態を第4の実施形態と組み合わせてもよい。 As described above, according to the fourth embodiment, the gap between the clipped image and the character image in the processed image can be more naturally filled. Note that the second and third embodiments may be combined with the fourth embodiment.

第2の実施形態および第3の実施形態は、人物画像の体型や頭身を優先する場合に有効であるのに対し、第4の実施形態は、キャラクタの体型や頭身を優先する場合に有効である。第2の実施形態および第3の実施形態では、キャラクタを歪ませるのに対し、第4の実施の形態では、キャラクタを歪ませないためである。すなわち、第2の実施形態から第4の実施形態の手法のうち、いずれの手法を用いるのが有効であるかは、使用する場面によって異なる。また、第2の実施形態から第4の実施形態の手法は、これら複数の手法を併用してもよい。あるいは、人物画像やキャラクタの部位によって異なる手法を用いてもよい。 While the second and third embodiments are effective when prioritizing the body shape and head to body of a person image, the fourth embodiment is effective when prioritizing the body shape and head and body of a character. It is valid. This is because the character is not distorted in the fourth embodiment, whereas the character is distorted in the second and third embodiments. That is, which of the methods of the second to fourth embodiments is effective depends on the situation of use. In addition, the techniques of the second to fourth embodiments may be combined with a plurality of these techniques. Alternatively, different techniques may be used depending on the human image or the part of the character.

なお、以上述べた各実施形態ではソース画像に含まれる人物の画像(人物画像)の領域を隠蔽するものであったが、人物に限らず犬や猫といった任意の動物の画像(動物画像)の領域を隠蔽してもよい。この点で、「人物画像」を「動物画像」と上位概念化することができる。すなわち、「動物画像」には「人物画像」が含まれる。 In each of the above-described embodiments, an area of an image of a person (person image) included in a source image is hidden. Areas may be obscured. In this respect, the "human image" can be generalized to the "animal image". That is, "animal images" include "person images".

上述した実施形態は、本発明が属する技術分野における通常の知識を有する者が本発明を実施できることを目的として記載されたものである。上記実施形態の種々の変形例は、当業者であれば当然になしうることであり、本発明の技術的思想は他の実施形態にも適用しうることである。したがって、本発明は、記載された実施形態に限定されることはなく、特許請求の範囲によって定義される技術的思想に従った最も広い範囲とすべきである。 The above-described embodiments are described for the purpose of enabling a person having ordinary knowledge in the technical field to which the present invention belongs to implement the present invention. Various modifications of the above-described embodiments can be naturally made by those skilled in the art, and the technical idea of the present invention can also be applied to other embodiments. Therefore, the present invention should not be limited to the described embodiments, but should have the broadest scope in accordance with the spirit defined by the claims.

1 3次元ポーズ推定部
2 ポーズ適用部
3 キャラクタ描画部
4 キャラクタ画像配置部
41 くり抜き画像生成部
42 補完画像生成部
43 合成部
6 キャラクタモデル変形部
7 キャラクタ画像変形部
1 Three-dimensional pose estimation unit 2 Pose application unit 3 Character drawing unit 4 Character image placement unit 41 Cutout image generation unit 42 Complementary image generation unit 43 Synthesis unit 6 Character model transformation unit 7 Character image transformation unit

Claims (14)

キャラクタの3次元モデルに基づくキャラクタ画像を用いて動物画像を含むソース画像を加工する情報処理システムであって、
前記情報処理システムは、
前記ソース画像または前記動物画像から3次元ポーズ推定により、動物の各部位の3次元座標または角度を生成し、前記動物の3次元ポーズを表す3次元ポーズデータを取得する3次元ポーズ推定手段と、
前記3次元ポーズデータを適用して前記キャラクタの3次元モデルのポーズを変えるポーズ適用手段と、
前記ポーズを変えられたキャラクタの3次元モデルに基づいて、前記キャラクタの2次元画像であるキャラクタ画像を生成するキャラクタ描画手段と、
前記ソース画像に前記キャラクタ画像に基づく画像を配置して、前記ソース画像の前記動物画像の領域が略隠蔽された加工画像を生成するキャラクタ画像配置手段と、
前記ソース画像の前記動物画像の輪郭と、前記キャラクタ画像に基づく画像の輪郭と、のズレが小さくなるように、前記キャラクタの3次元モデルを変形するキャラクタモデル変形手段と、
を備え
前記キャラクタ描画手段は、前記ポーズを変えられかつ前記変形されたキャラクタの3次元モデルに基づいて、前記キャラクタ画像を生成する、情報処理システム。
An information processing system for processing a source image including an animal image using a character image based on a three-dimensional model of the character,
The information processing system is
3D pose estimation means for generating 3D coordinates or angles of each part of an animal by 3D pose estimation from the source image or the animal image, and obtaining 3D pose data representing the 3D pose of the animal;
Pose applying means for applying the three-dimensional pose data to change the pose of the three-dimensional model of the character;
character drawing means for generating a character image, which is a two-dimensional image of the character, based on the three-dimensional model of the character whose pose has been changed;
character image arrangement means for arranging an image based on the character image in the source image to generate a processed image in which the area of the animal image in the source image is substantially hidden;
character model transforming means for transforming the three-dimensional model of the character so as to reduce the deviation between the outline of the animal image of the source image and the outline of the image based on the character image;
with
The information processing system, wherein the character drawing means generates the character image based on the three-dimensional model of the character whose pose has been changed and transformed.
前記キャラクタモデル変形手段は、前記キャラクタの3次元モデルの所定部位の長さを調整する、請求項に記載の情報処理システム。 2. The information processing system according to claim 1 , wherein said character model transforming means adjusts the length of a predetermined part of said three-dimensional model of said character. 前記キャラクタモデル変形手段は、
前記動物画像におけるキーポイントの位置と、前記キャラクタのキーポイントの位置と、に基づいて、前記キャラクタの3次元モデルを変形する、請求項に記載の情報処理システム。
The character model transforming means includes:
2. The information processing system according to claim 1 , wherein the three-dimensional model of said character is deformed based on the positions of keypoints in said animal image and the positions of keypoints of said character.
キャラクタの3次元モデルに基づくキャラクタ画像を用いて動物画像を含むソース画像を加工する情報処理システムであって、
前記ソース画像または前記動物画像から3次元ポーズ推定により、動物の各部位の3次元座標または角度を生成し、前記動物の3次元ポーズを表す3次元ポーズデータを取得する3次元ポーズ推定手段と、
前記3次元ポーズデータを適用して前記キャラクタの3次元モデルのポーズを変えるポーズ適用手段と、
前記ポーズを変えられたキャラクタの3次元モデルに基づいて、前記キャラクタの2次元画像であるキャラクタ画像を生成するキャラクタ描画手段と、
前記ソース画像に前記キャラクタ画像に基づく画像を配置して、前記ソース画像の前記動物画像の領域が略隠蔽された加工画像を生成するキャラクタ画像配置手段と、
前記ソース画像の前記動物画像の輪郭と、前記キャラクタ画像の輪郭と、のズレが小さくなるように、前記キャラクタ画像を変形するキャラクタ画像変形手段と、
備える、情報処理システム。
An information processing system for processing a source image including an animal image using a character image based on a three-dimensional model of the character,
3D pose estimation means for generating 3D coordinates or angles of each part of an animal by 3D pose estimation from the source image or the animal image, and obtaining 3D pose data representing the 3D pose of the animal;
Pose applying means for applying the three-dimensional pose data to change the pose of the three-dimensional model of the character;
character drawing means for generating a character image, which is a two-dimensional image of the character, based on the three-dimensional model of the character whose pose has been changed;
character image arrangement means for arranging an image based on the character image in the source image to generate a processed image in which the area of the animal image in the source image is substantially hidden;
character image transforming means for transforming the character image so as to reduce a deviation between the outline of the animal image of the source image and the outline of the character image ;
An information processing system comprising :
前記キャラクタ画像変形手段は、
前記動物画像におけるキーポイントの位置と、前記キャラクタ画像におけるキーポイントの位置と、に基づいて、前記キャラクタ画像を変形する、請求項に記載の情報処理システム。
The character image transforming means includes:
5. The information processing system according to claim 4 , wherein said character image is transformed based on the positions of key points in said animal image and the positions of key points in said character image.
前記キャラクタ画像変形手段は、
前記動物画像におけるキーポイントの位置と、これに対応する前記キャラクタ画像におけるキーポイントの位置と、が略一致するように、前記キャラクタ画像を変形し、その後、
前記動物画像の輪郭上の点と、これに対応する前記キャラクタ画像の輪郭上の点と、が略一致するよう、前記キャラクタ画像を変形する、請求項に記載の情報処理システム。
The character image transforming means includes:
deforming the character image so that the position of the key point in the animal image and the position of the corresponding key point in the character image substantially match each other;
6. The information processing system according to claim 5 , wherein the character image is deformed so that a point on the contour of the animal image and a corresponding point on the contour of the character image substantially coincide with each other.
前記動物画像の領域及び/又は前記動物画像の輪郭を、セマンティックセグメンテーションにより推定する領域推定手段をさらに備える、請求項1または請求項4に記載の情報処理システム。 5. The information processing system according to claim 1, further comprising area estimating means for estimating the area of the animal image and/or the contour of the animal image by semantic segmentation. 前記キャラクタ画像配置手段は、
前記ソース画像から前記動物画像を略含む領域を取り除いたくり抜き画像を生成するくり抜き画像生成手段と、
前記くり抜き画像に前記キャラクタ画像に基づく画像を配置した際に形成される、前記くり抜き画像と前記キャラクタ画像に基づく画像との隙間を補完する補完画像を生成する補完画像生成手段と、
前記くり抜き画像と、前記キャラクタ画像に基づく画像と、前記補完画像とを合成して、前記加工画像を生成する合成手段と、
を備える、請求項1または請求項4に記載の情報処理システム。
The character image placement means is
a cut-out image generating means for generating a cut-out image by removing an area substantially including the animal image from the source image;
Complementary image generation means for generating a complementary image for complementing a gap between the cut-out image and the character image-based image formed when the character image-based image is arranged in the cut-out image;
synthesizing means for synthesizing the cut-out image, the image based on the character image, and the complementary image to generate the processed image;
The information processing system according to claim 1 or 4 , comprising:
前記くり抜き画像生成手段は、
前記ソース画像から、前記キャラクタ画像の領域を広げた領域を取り除いて、前記くり抜き画像を生成する、請求項に記載の情報処理システム。
The cut-out image generating means includes:
9. The information processing system according to claim 8 , wherein the cutout image is generated by removing an area obtained by enlarging the area of the character image from the source image.
前記くり抜き画像生成手段は、
前記ソース画像における動物画像の領域をセマンティックセグメンテーションにより推定することによって、前記ソース画像から前記動物画像の領域を取り除き、前記くり抜き画像を生成する、請求項に記載の情報処理システム。
The cut-out image generating means includes:
9. The information processing system according to claim 8 , wherein the region of the animal image is removed from the source image to generate the cropped image by estimating the region of the animal image in the source image by semantic segmentation.
前記補完画像生成手段は、前記くり抜き画像にブラー処理を行って前記補完画像を生成する、請求項乃至10のいずれかに記載の情報処理システム。 11. The information processing system according to any one of claims 8 to 10 , wherein said complementary image generating means generates said complementary image by performing blur processing on said cut-out image. 前記キャラクタ画像配置手段は、
前記ソース画像および/または前記キャラクタ画像に基づく画像の色調および/または階調を調整する、請求項1または請求項4に記載の情報処理システム。
The character image placement means is
5. The information processing system according to claim 1 , wherein the color tone and/or gradation of an image based on said source image and/or said character image is adjusted.
キャラクタの3次元モデルに基づくキャラクタ画像を用いて動物画像を含むソース画像を加工する情報処理方法であって、
前記情報処理方法は、
前記ソース画像または前記動物画像から3次元ポーズ推定により、動物の各部位の3次元座標または角度を生成し、前記動物の3次元ポーズを表す3次元ポーズデータを取得するステップと
前記3次元ポーズデータを適用して前記キャラクタの3次元モデルのポーズを変えるステップと
前記ポーズを変えられたキャラクタの3次元モデルに基づいて、前記キャラクタの2次元画像であるキャラクタ画像を生成するステップと
前記ソース画像に前記キャラクタ画像に基づく画像を配置して、前記ソース画像の前記動物画像の領域が略隠蔽された加工画像を生成するステップと、
を含み、
前記情報処理方法は、さらに、
前記ソース画像の前記動物画像の輪郭と、前記キャラクタ画像に基づく画像の輪郭と、のズレが小さくなるように、前記キャラクタの3次元モデルを変形するステップを含み、
前記キャラクタ画像を生成するステップは、前記ポーズを変えられかつ前記変形されたキャラクタの3次元モデルに基づいて、前記キャラクタ画像を生成するステップを含む、情報処理方法。
An information processing method for processing a source image containing an animal image using a character image based on a three-dimensional model of the character,
The information processing method includes:
generating 3D coordinates or angles of each part of an animal by 3D pose estimation from the source image or the animal image to obtain 3D pose data representing the 3D pose of the animal;
applying the three-dimensional pose data to alter the pose of the three-dimensional model of the character;
generating a character image, which is a two-dimensional image of the character, based on the three-dimensional model of the character whose pose has been changed;
arranging an image based on the character image in the source image to generate a processed image in which the area of the animal image in the source image is substantially hidden;
including
The information processing method further comprises:
deforming the three-dimensional model of the character so as to reduce the deviation between the contour of the animal image of the source image and the contour of the image based on the character image;
The information processing method, wherein the step of generating the character image includes the step of generating the character image based on the three-dimensional model of the character whose pose has been changed and the deformed.
キャラクタの3次元モデルに基づくキャラクタ画像を用いて動物画像を含むソース画像を加工する情報処理プログラムであって、
前記情報処理プログラムは、コンピュータを、
前記ソース画像または前記動物画像から3次元ポーズ推定により、動物の各部位の3次元座標または角度を生成し、前記動物の3次元ポーズを表す3次元ポーズデータを取得する3次元ポーズ推定手段と、
前記3次元ポーズデータを適用して前記キャラクタの3次元モデルのポーズを変えるポーズ適用手段と、
前記ポーズを変えられたキャラクタの3次元モデルに基づいて、前記キャラクタの2次元画像であるキャラクタ画像を生成するキャラクタ描画手段と、
前記ソース画像に前記キャラクタ画像に基づく画像を配置して、前記ソース画像の前記動物画像の領域が略隠蔽された加工画像を生成するキャラクタ画像配置手段と、
として動作させ
前記情報処理プログラムは、さらに、前記コンピュータを、
前記ソース画像の前記動物画像の輪郭と、前記キャラクタ画像の輪郭と、のズレが小さくなるように、前記キャラクタ画像を変形するキャラクタ画像変形手段として動作させる、情報処理プログラム。
An information processing program for processing a source image containing an animal image using a character image based on a three-dimensional model of the character,
The information processing program causes a computer to
3D pose estimation means for generating 3D coordinates or angles of each part of an animal by 3D pose estimation from the source image or the animal image, and obtaining 3D pose data representing the 3D pose of the animal;
Pose applying means for applying the three-dimensional pose data to change the pose of the three-dimensional model of the character;
character drawing means for generating a character image, which is a two-dimensional image of the character, based on the three-dimensional model of the character whose pose has been changed;
character image arrangement means for arranging an image based on the character image in the source image to generate a processed image in which the area of the animal image in the source image is substantially hidden;
to operate as
The information processing program further causes the computer to
An information processing program for operating as character image transforming means for transforming the character image so as to reduce a deviation between the outline of the animal image of the source image and the outline of the character image.
JP2022087351A 2022-05-30 2022-05-30 Information processing system, information processing method and information processing program Active JP7319637B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022087351A JP7319637B1 (en) 2022-05-30 2022-05-30 Information processing system, information processing method and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022087351A JP7319637B1 (en) 2022-05-30 2022-05-30 Information processing system, information processing method and information processing program

Publications (2)

Publication Number Publication Date
JP7319637B1 true JP7319637B1 (en) 2023-08-02
JP2023175084A JP2023175084A (en) 2023-12-12

Family

ID=87469566

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022087351A Active JP7319637B1 (en) 2022-05-30 2022-05-30 Information processing system, information processing method and information processing program

Country Status (1)

Country Link
JP (1) JP7319637B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3901015B2 (en) 2002-05-28 2007-04-04 カシオ計算機株式会社 Image output apparatus, image output processing program, and image output method
JP2013542505A (en) 2010-09-29 2013-11-21 アルカテル−ルーセント Method and apparatus for censoring content in an image
WO2017155126A1 (en) 2016-03-08 2017-09-14 一般社団法人 日本画像認識協会 Information transmitting system, information transmitting device, information receiving device, and computer program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3901015B2 (en) 2002-05-28 2007-04-04 カシオ計算機株式会社 Image output apparatus, image output processing program, and image output method
JP2013542505A (en) 2010-09-29 2013-11-21 アルカテル−ルーセント Method and apparatus for censoring content in an image
WO2017155126A1 (en) 2016-03-08 2017-09-14 一般社団法人 日本画像認識協会 Information transmitting system, information transmitting device, information receiving device, and computer program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
IKEP,Fully automated real generation with Unity, Kinect and Deep learninig methods,YouTubeビデオ[online],2022年01月03日,https://www.youtube.com/watch?v=zHoVwrm9wxg
IKEP,カメラ1台でできる完全自動リアルアバター生成パイプラインを作った,Hatena Blog [online],株式会社はてな,2022年01月04日,https://ikep.hatenablog.com/entry/2022/01/04/225521

Also Published As

Publication number Publication date
JP2023175084A (en) 2023-12-12

Similar Documents

Publication Publication Date Title
JP6874772B2 (en) Image generator, image generator, and program
US20150145888A1 (en) Information processing device, information processing method, and program
Wu et al. Interactive normal reconstruction from a single image
JP4246516B2 (en) Human video generation system
US9224245B2 (en) Mesh animation
CN111861872A (en) Image face changing method, video face changing method, device, equipment and storage medium
KR102264803B1 (en) Method for generating character animation through extracting a character from an image and device using thereof
Goto et al. Facial feature extraction for quick 3D face modeling
JPH09305798A (en) Image display device
JP7319637B1 (en) Information processing system, information processing method and information processing program
Park et al. Image-based photorealistic 3-d face modeling
CN114092636A (en) Virtual character modeling parameter estimation method adopting neural network
TW202011356A (en) Image processing method and image processing device
WO2019033923A1 (en) Image rendering method and system
JP6931267B2 (en) A program, device and method for generating a display image obtained by transforming the original image based on the target image.
Lin et al. Facial expression morphing and animation with local warping methods
JP7218769B2 (en) Image generation device, image generation method, and program
JP6402301B2 (en) Line-of-sight conversion device, line-of-sight conversion method, and program
JP7086362B1 (en) Information processing system, information processing method and information processing program
JP2003085588A (en) Method of modeling 3d geometry
US11941736B2 (en) Systems and methods for motion-controlled animation
CN113421197B (en) Processing method and processing system of beautifying image
US20220309733A1 (en) Surface texturing from multiple cameras
JP2023068235A (en) Image processing device and program for the same
KR100292238B1 (en) Method for matching of components in facial texture and model images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220530

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220824

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20221028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221213

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230712

R150 Certificate of patent or registration of utility model

Ref document number: 7319637

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150