WO2022190954A1 - Information processing device, method, program, system, and beauty care method - Google Patents
Information processing device, method, program, system, and beauty care method Download PDFInfo
- Publication number
- WO2022190954A1 WO2022190954A1 PCT/JP2022/008552 JP2022008552W WO2022190954A1 WO 2022190954 A1 WO2022190954 A1 WO 2022190954A1 JP 2022008552 W JP2022008552 W JP 2022008552W WO 2022190954 A1 WO2022190954 A1 WO 2022190954A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- person
- information processing
- beauty
- unit
- Prior art date
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 56
- 230000003796 beauty Effects 0.000 title claims description 47
- 238000000034 method Methods 0.000 title claims description 19
- 230000009471 action Effects 0.000 claims description 36
- 239000002537 cosmetic Substances 0.000 claims description 14
- 230000006870 function Effects 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 8
- 210000000707 wrist Anatomy 0.000 description 8
- 210000004247 hand Anatomy 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000000295 complement effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 238000003672 processing method Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
Definitions
- the purpose of the present invention is to improve the sense of reality of others even when performing treatment on oneself.
- FIG. 1 is a diagram showing functional blocks of an information processing device according to an embodiment of the present invention
- FIG. 4 is a flowchart showing the flow of superimposed display processing (first embodiment) according to an embodiment of the present invention
- 9 is a flow chart showing the flow of superimposed display processing (second embodiment) according to an embodiment of the present invention.
- 1 is an example of a screen displayed on an information processing apparatus according to an embodiment of the present invention (first embodiment); 7 is an example of a screen displayed on an information processing apparatus according to an embodiment of the present invention (second embodiment);
- 1 is a diagram showing the hardware configuration of an information processing apparatus according to an embodiment of the invention;
- FIG. 4 is a flowchart showing the flow of superimposed display processing (first embodiment) according to an embodiment of the present invention
- 9 is a flow chart showing the flow of superimposed display processing (second embodiment) according to an embodiment of the present invention.
- 1 is an example of a screen displayed on an information processing apparatus according to an embodiment of the present invention (first embodiment)
- 7 is an
- CG computer graphics
- ⁇ "Beauty-related actions are arbitrary beauty-related actions (for example, application of cosmetics, etc.) performed by hands, cosmetic tools, and the like.
- FIG. 1 is a diagram showing the overall configuration according to one embodiment of the present invention.
- the person 20 receives the treatment (action) from another person by performing any treatment (action) on himself (for example, performing an action related to beauty) while looking at the screen displayed on the information processing device 10. (for example, undergoing a cosmetic procedure).
- the information processing device 10 captures a moving image of the person 20 and displays a moving image in which a CG image of an object (for example, a practitioner such as an esthetician) is superimposed on the real-time image of the person 20 .
- the information processing device 10 is a smart phone, a tablet, a personal computer, or the like having a camera (or a 3D camera) function.
- the information processing apparatus 10 will be described in detail later with reference to FIG.
- FIG. 2 is a diagram showing functional blocks of the information processing device 10 according to one embodiment of the present invention.
- the information processing apparatus 10 can include a photographing unit 101 , a specifying unit 102 , a determining unit 103 , a selecting unit 104 , a superimposing unit 105 and a display unit 106 . Further, the information processing apparatus 10 can function as the imaging unit 101, the identification unit 102, the determination unit 103, the selection unit 104, the superimposition unit 105, and the display unit 106 by executing programs. Each of these will be described below.
- the imaging unit 101 acquires real-time images. Specifically, the photographing unit 101 photographs a moving image of the person 20 . For example, the imaging unit 101 captures a moving image of the upper body of the person 20 performing an action related to beauty.
- the identifying unit 102 refers to human skeleton information (positions of feature points, etc.) stored in advance in the information processing apparatus 10 to estimate the skeleton of the person 20, or extract areas of the same color.
- a region including at least the hands of the person 20 in the real-time image can be specified by extracting a portion of the person 20 that shows fast movements of a certain speed or more in the moving image.
- the selection unit 104 selects an object.
- the selection unit 104 can select an object specified by the person 20 or the like from among a plurality of objects.
- the person 20 can select an object on a screen on which a plurality of objects (for example, images of faces of objects) are displayed.
- the superimposing unit 105 superimposes an image for complementation (for example, the person 20 is The image of the region in the image before starting the action related to beauty) can be superimposed. That is, after the area including at least the hand of the person 20 in the real-time image is erased (e.g., made transparent), the superimposing unit 105 complements the background that should exist in this area, and then superimposes the object. As a result, it is possible to generate a moving image in which the erased area is supplemented.
- an image for complementation for example, the person 20 is The image of the region in the image before starting the action related to beauty
- step 13 (S13) the identifying unit 102 erases (for example, , transparency).
- the determination unit 103 determines the position and orientation of the object based on the person 20 in the real-time image of S11. Specifically, the determination unit 103 determines the position and orientation of the object based on the position and orientation of at least the hand (for example, elbow to fingertip, wrist to fingertip, etc.) of the person 20 identified in S12. .
- the hand for example, elbow to fingertip, wrist to fingertip, etc.
- the information processing device 10 displays a moving image in which the person 20 is receiving an action related to beauty from an object (for example, a practitioner such as an esthetician).
Abstract
Description
・「リアルタイム画像」とは、情報処理装置10(後段で詳細に説明する)のカメラ機能が撮影している画像のことをいう。
・「CG(コンピュータグラフィックス)画像」とは、情報処理装置10が生成した画像のことをいう。なお、CG画像は、事前に撮影した動画を加工したものであってもよい。
・「美容に関する行為」とは、手、化粧用具等により行われる任意の美容に関する行為(例えば、化粧料の塗布等)である。 <Description of terms>
- "Real-time image" refers to an image captured by the camera function of the information processing apparatus 10 (described in detail later).
- A “CG (computer graphics) image” refers to an image generated by the
・"Beauty-related actions" are arbitrary beauty-related actions (for example, application of cosmetics, etc.) performed by hands, cosmetic tools, and the like.
図1は、本発明の一実施形態に係る全体の構成を示す図である。人物20は、情報処理装置10に表示される画面を見ながら自身に対して任意の施術(行為)を行う(例えば、美容に関する行為をする)ことによって、他者から該施術(行為)を受けている(例えば、美容に関する行為を受けている)かのように感じることができる。 <Overall composition>
FIG. 1 is a diagram showing the overall configuration according to one embodiment of the present invention. The
図2は、本発明の一実施形態に係る情報処理装置10の機能ブロックを示す図である。情報処理装置10は、撮影部101と、特定部102と、決定部103と、選択部104と、重畳部105と、表示部106と、を備えることができる。また、情報処理装置10は、プログラムを実行することで、撮影部101、特定部102、決定部103、選択部104、重畳部105、表示部106、として機能することができる。以下、それぞれについて説明する。 <Functional Blocks of
FIG. 2 is a diagram showing functional blocks of the
特定部102は、リアルタイム画像内における、人物20の身体の一部の領域(例えば、肘から指先まで、手首から指先まで等の少なくとも手を含む領域)を特定する。なお、人物20は、化粧用具等の物を所持していてもよい。また、特定部102は、特定された人物20の身体の一部の領域(例えば、少なくとも手を含む領域)および人物20が所持する物の領域(物を所持している場合)をリアルタイム画像から消去(例えば、透明化)する。なお、人物20の身体の一部の領域の消去の処理は、実行されてもよいし実行されなくもよい。 <<Specification for erasing (e.g., making transparent) a partial area of the body of the
The identifying
例えば、特定部102は、事前に情報処理装置10に記憶されている人間の骨格の情報(特徴点の位置等)を参照して人物20の骨格を推定したり、同一の色の領域を抽出したり、動画中で人物20のうち一定速度以上の速い動きを示している部分を抽出したりすることによって、リアルタイム画像内における人物20の少なくとも手を含む領域を特定することができる。 <<Method for specifying area>>
For example, the identifying
以下、第1の実施形態と第2の実施形態とに分けて説明する。 <<Identification for Determining Object Position and Orientation>>
Hereinafter, the first embodiment and the second embodiment will be described separately.
例えば、特定部102は、事前に情報処理装置10に記憶されている人間の骨格の情報(特徴点の位置等)を参照して人物20の骨格を推定したり、同一の色の領域を抽出したり、動画中で人物20のうち一定速度以上の速い動きを示している部分を抽出したりすることによって、リアルタイム画像中の人物20の少なくとも手の位置および姿勢を特定することができる。 <<Method for specifying position and posture>>
For example, the identifying
例えば、特定部102は、リアルタイム画像を解析して、リアルタイム画像中の人物20の手(例えば、指)または人物20が所持する物と人物20の顔との接触点を特定することができる。例えば、特定部102は、顔(例えば、頬)に対して手(例えば、指)が接触している複数の画像で機械学習された学習済みモデルを用いて、リアルタイム画像から接触点を特定することができる。なお、特定部102が、人物20の指等に装着されたセンサの検知結果に基づいて、人物20の手(例えば、指)または人物20が所持する物と人物20の顔との接触点を特定するようにしてもよい。 <<Method of identifying contact point>>
For example, the
第1の実施形態では、決定部103は、特定部102が特定した人物20の少なくとも手(例えば、肘から指先まで、手首から指先まで等)の位置および姿勢に基づいて、物体の位置および姿勢を決定する。例えば、決定部103は、人物20の少なくとも手の位置および姿勢と、物体の少なくとも手の位置および姿勢と、を同一にすることができる。さらに、決定部103は、人物20と物体の少なくとも手の位置および姿勢が同一であり、かつ、物体が人物20の斜め後方に立っていること等、施術時に考えられる施術者の立ち位置を条件として、物体の他の部分(つまり、少なくとも手以外の部分)の位置および姿勢を決定することができる。 <<First Embodiment>>
In the first embodiment, the
第2の実施形態では、決定部103は、特定部102が特定した人物20の手または人物20が所持する物(例えば、化粧用具)と人物20の顔との接触点に基づいて、物体の位置および姿勢を決定する。例えば、決定部103は、人物20の手または人物20が所持する物(例えば、化粧用具)と人物20の顔との接触点と、物体の手または物体が所持する物(例えば、化粧用具)と人物20の顔との接触点と、を同一にすることができる。さらに、決定部103は、人物20の手等の接触点と物体の手等の接触点が同一であり、かつ、物体が人物20の後方に立っていること等、施術時に考えられる施術者の立ち位置を条件として、物体の他の部分(少なくとも手以外の部分)の位置および姿勢を決定することができる。 <<Second Embodiment>>
In the second embodiment, the
以下、第1の実施形態である重畳表示の処理方法、および、第2の実施形態である重畳表示の処理方法について説明する。 <Processing method>
A superimposed display processing method according to the first embodiment and a superimposed display processing method according to the second embodiment will be described below.
図3は、本発明の一実施形態に係る重畳表示の処理(第1の実施形態)の流れを示すフローチャートである。 <<First Embodiment>>
FIG. 3 is a flow chart showing the flow of superimposed display processing (first embodiment) according to an embodiment of the present invention.
図4は、本発明の一実施形態に係る重畳表示の処理(第2の実施形態)の流れを示すフローチャートである。 <<Second Embodiment>>
FIG. 4 is a flow chart showing the flow of superimposed display processing (second embodiment) according to an embodiment of the present invention.
本発明の一実施形態では、美容に関する行為をする人物を動画から切り抜くことができる。切り抜き方法として、グリーンバック(クロマキー)等で撮影した動画から切り抜いてもよいし、通常の動画から切り抜きたい部分を指定して切り抜いてもよい。本発明の一実施形態では、物体は、人物に対して美容に関する行為をする人物であり、物体のCG画像は、所定の色(例えば、緑色)の背景である所定の色(例えば、緑色)の顔の形状に対して物体が美容に関する行為をしている様子を撮影した動画を用いて作成される(なお、グリーンバックとも呼ばれる)。例えば、人物に対して美容に関する行為をする者が、所定の色(例えば、緑色)の布等が背景である所定の色(例えば、緑色)の布等で覆われた顔に対して美容に関する行為をしている様子が撮影される。この撮影された動画において、人物に対して美容に関する行為をする者の手等を切り抜くことによって(手を含む身体の一部や手が所持している美容の用具までも含んで切り抜く、または、美容に関する行為をする者の全身を切り抜いてもよい)、物体のCG画像が作成される。 <<Creation of CG image>>
In one embodiment of the present invention, a person performing a beauty act can be clipped from the video. As a clipping method, a moving image shot with a green screen (chroma key) or the like may be clipped, or a portion to be clipped may be specified and clipped from a normal moving image. In one embodiment of the present invention, the object is a person who performs beauty-related actions on a person, and the CG image of the object is a predetermined color (for example, green) that is a background of a predetermined color (for example, green). It is created using a video that captures the appearance of an object performing beauty-related actions on the shape of the face (also called a green screen). For example, a person who performs an action related to beauty on a person may The state of doing the act is filmed. In this filmed video, by cutting out the hands of a person who performs beauty-related acts on a person (including parts of the body including hands and beauty tools held by hands), or A CG image of the object is created.
本発明の一実施形態では、人物20の手の動きとCGの物体の動きとが連動しない。具体的には、特定部102が、人物20の身体の一部の領域(例えば、少なくとも手を含む領域)および人物20が所持する物の領域(物を所持している場合)をリアルタイム画像から消去(例えば、透明化)する。そして、決定部103が、リアルタイム画像中の人物20に基づいて(具体的には、リアルタイム画像中の人物20の位置(例えば、人物20の顔の位置および姿勢)に基づいて)、物体の位置および姿勢を決定する。例えば、決定部103は、物体の手がリアルタイム画像中の人物20の顔に接触するように、物体の位置および姿勢を決定する。そして、重畳部105が、人物20が撮影されたリアルタイム画像(人物20の少なくとも手を含む領域が消去されたリアルタイム画像)と、物体のCG画像と、を重畳する。人物20は、物体のCGの動きに合わせて、美容に関する行為をする。 <<other embodiments>>
In one embodiment of the present invention, the movement of the hand of the
以下、第1の実施形態である表示画面、および、第2の実施形態である表示画面について説明する。本発明の一実施形態では、情報処理装置10には、人物20が物体(例えば、エステティシャン等の施術者)から美容に関する行為を受けている動画が表示される。 <Display screen>
A display screen according to the first embodiment and a display screen according to the second embodiment will be described below. In one embodiment of the present invention, the
図5は、本発明の一実施形態に係る情報処理装置10に表示される画面の一例(第1の実施形態)である。第1の実施形態では、物体(例えば、エステティシャン等の施術者)のCG画像の位置および姿勢は、人物20の少なくとも手(例えば、肘から指先まで、手首から指先まで等)の位置および姿勢に連動している。例えば、人物20は、人物20が座った状態で美容に関する行為を受けている動画を見ることができる(なお、図5の人物20は、図5の情報処理装置10に表示される画面と向き合った状態で、美容に関する行為をする)。 <<First Embodiment>>
FIG. 5 is an example (first embodiment) of a screen displayed on the
図6は、本発明の一実施形態に係る情報処理装置10に表示される画面の一例(第2の実施形態)である。第2の実施形態では、物体(例えば、エステティシャン等の施術者)のCG画像の位置および姿勢は、人物20の手または人物20が所持する物(例えば、化粧用具)と人物20の顔との接触点に連動している。例えば、人物20は、人物20が仰向けになった状態で美容に関する行為を受けている動画を見ることができる(なお、図6の人物20は、図6の情報処理装置10に表示される画面と向き合った状態で、美容に関する行為をする)。 <<Second Embodiment>>
FIG. 6 is an example (second embodiment) of a screen displayed on the
本発明の一実施形態は、上記で説明した画像を閲覧しながら美容に関する行為をする美容方法である。すなわち、本発明の一実施形態は、画像を閲覧しながら美容に関する行為をする美容方法であって、該画像は、リアルタイム画像中の人物に基づいて、物体の位置および姿勢が決定され、リアルタイム画像と、決定された位置および姿勢である物体のCG画像と、が重畳された画像である。 <Beauty method>
One embodiment of the present invention is a beauty method for performing beauty-related actions while viewing the images described above. That is, one embodiment of the present invention is a beauty method for performing beauty-related actions while viewing an image, wherein the image is a real-time image in which the position and orientation of an object are determined based on a person in the real-time image. , and the CG image of the object at the determined position and orientation are superimposed.
このように、本発明の一実施形態では、人物20は、情報処理装置10に表示される画面を見ながら自身に対して美容に関する行為をすることによって、他者(つまり、物体(例えば、エステティシャン等の施術者))から美容に関する行為を受けているかのように感じることができる。 <effect>
As described above, in one embodiment of the present invention, the
図7は、本発明の一実施形態に係る情報処理装置のハードウェア構成を示す図である。 <Hardware configuration>
FIG. 7 is a diagram showing the hardware configuration of the information processing apparatus according to one embodiment of the present invention.
20 人物
101 撮影部
102 特定部
103 決定部
104 選択部
105 重畳部
106 表示部
1001 CPU
1002 ROM
1003 RAM
1004 補助記憶装置
1005 表示装置
1006 操作装置
1007 I/F装置
1008 ドライブ装置
1009 記憶媒体
1010 撮影装置 10
1002 ROMs
1003 RAM
1004
Claims (18)
- 画像中の人物に基づいて、物体の位置および姿勢を決定する決定部と、
前記画像と、決定された前記位置および前記姿勢である前記物体のCG画像と、を重畳する重畳部と、
重畳された重畳画像を表示する表示部と
を備えた情報処理装置。 a determiner that determines the position and pose of the object based on the person in the image;
a superimposing unit that superimposes the image and a CG image of the object at the determined position and orientation;
An information processing device comprising: a display unit that displays a superimposed image. - 前記画像は、リアルタイム画像である、請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the image is a real-time image.
- 前記画像は、事前に撮影済みの画像である、請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the image is an image that has been captured in advance.
- 前記決定部は、前記人物の少なくとも手の位置および姿勢に基づいて、前記物体の前記位置および前記姿勢を決定する、請求項1から3のいずれか一項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 3, wherein the determination unit determines the position and orientation of the object based on at least the position and orientation of the hand of the person.
- 前記決定部は、前記人物の手または前記人物が所持する物と前記人物の顔との接触点に基づいて、前記物体の前記位置および前記姿勢を決定する、請求項1から3のいずれか一項に記載の情報処理装置。 4. The determining unit determines the position and posture of the object based on a contact point between the person's hand or an object held by the person and the person's face. The information processing device according to the item.
- 前記決定部は、前記人物の顔の位置および姿勢に基づいて、前記物体の前記位置および前記姿勢を決定する、請求項1から3のいずれか一項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 3, wherein the determination unit determines the position and orientation of the object based on the position and orientation of the face of the person.
- 前記重畳部は、前記人物の身体の一部のCG画像をさらに重畳する、請求項1から6のいずれか一項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 6, wherein the superimposing unit further superimposes a CG image of a part of the person's body.
- 前記決定部は、人物の身体の一部と物体の位置および姿勢との対応関係に基づいて、前記物体の前記位置および前記姿勢を決定する、請求項1から7のいずれか一項に記載の情報処理装置。 8. The determining unit according to any one of claims 1 to 7, wherein the determination unit determines the position and orientation of the object based on a correspondence relationship between a part of a person's body and the position and orientation of the object. Information processing equipment.
- 前記人物は、美容に関する行為をしている、請求項1から8のいずれか一項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 8, wherein the person is engaged in an action related to beauty.
- 前記物体のCG画像は、前記物体が前記人物に対して美容に関する行為をしているCG画像である、請求項9に記載の情報処理装置。 The information processing apparatus according to claim 9, wherein the CG image of the object is a CG image of the object performing an action related to beauty on the person.
- 前記物体のCG画像は、顔の形状に対して前記物体が美容に関する行為をしている様子を撮影した動画を用いて作成される、請求項10に記載の情報処理装置。 The information processing apparatus according to claim 10, wherein the CG image of the object is created using a moving image of the object performing an action related to beauty with respect to the shape of the face.
- 前記物体のCG画像は、美容に関する行為をしている人物またはキャラクタの少なくとも手と、前記美容に関する行為をしている人物またはキャラクタが所持する物と、のCG画像である、請求項10または11に記載の情報処理装置。 12. The CG image of the object is a CG image of at least a hand of a person or character performing an action related to beauty and an object held by the person or character performing an action related to beauty. The information processing device according to .
- 前記物体は、過去に前記人物に対して美容に関する行為をしたことがある人物である、請求項10から12のいずれか一項に記載の情報処理装置。 The information processing apparatus according to any one of claims 10 to 12, wherein the object is a person who has performed an action related to beauty on the person in the past.
- 前記物体を選択する選択部、をさらに備えた請求項1から13のいずれか一項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 13, further comprising a selection unit that selects the object.
- コンピュータが実行する方法であって、
画像中の人物に基づいて、物体の位置および姿勢を決定するステップと、
前記画像と、決定された前記位置および前記姿勢である前記物体のCG画像と、を重畳するステップと、
重畳された重畳画像を表示するステップと
を含む方法。 A computer implemented method comprising:
determining the position and pose of an object based on the person in the image;
superimposing the image and a CG image of the object at the determined position and pose;
and displaying a superimposed superimposed image. - コンピュータを
画像中の人物に基づいて、物体の位置および姿勢を決定する決定部、
前記画像と、決定された前記位置および前記姿勢である前記物体のCG画像と、を重畳する重畳部、
重畳された重畳画像を表示する表示部
として機能させるためのプログラム。 a determination unit that determines the position and pose of an object based on the person in the image;
a superimposition unit that superimposes the image and a CG image of the object at the determined position and orientation;
A program for functioning as a display unit that displays superimposed images. - 情報処理装置とサーバとを含むシステムであって、
画像中の人物に基づいて、物体の位置および姿勢を決定する決定部と、
前記画像と、決定された前記位置および前記姿勢である前記物体のCG画像と、を重畳する重畳部と、
重畳された重畳画像を表示する表示部と
を備えたシステム。 A system including an information processing device and a server,
a determiner that determines the position and pose of the object based on the person in the image;
a superimposing unit that superimposes the image and a CG image of the object at the determined position and orientation;
A system comprising: a display unit for displaying a superimposed superimposed image; - 画像を閲覧しながら美容に関する行為をする美容方法であって、
前記画像は、
画像中の人物に基づいて、物体の位置および姿勢が決定され、
前記画像と、決定された前記位置および前記姿勢である前記物体のCG画像と、が重畳された重畳画像である、美容方法。 A beauty method for performing beauty-related actions while viewing images,
The image is
Based on the person in the image, the position and pose of the object are determined,
A cosmetic method, wherein the image and a CG image of the object having the determined position and posture are superimposed on each other to form a superimposed image.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202280014549.9A CN116888634A (en) | 2021-03-11 | 2022-03-01 | Information processing device, information processing method, information processing program, information processing system, and cosmetic method |
JP2023505321A JPWO2022190954A1 (en) | 2021-03-11 | 2022-03-01 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021039295 | 2021-03-11 | ||
JP2021-039295 | 2021-03-11 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022190954A1 true WO2022190954A1 (en) | 2022-09-15 |
Family
ID=83226609
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2022/008552 WO2022190954A1 (en) | 2021-03-11 | 2022-03-01 | Information processing device, method, program, system, and beauty care method |
Country Status (3)
Country | Link |
---|---|
JP (1) | JPWO2022190954A1 (en) |
CN (1) | CN116888634A (en) |
WO (1) | WO2022190954A1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012181688A (en) * | 2011-03-01 | 2012-09-20 | Sony Corp | Information processing device, information processing method, information processing system, and program |
WO2016121329A1 (en) * | 2015-01-29 | 2016-08-04 | パナソニックIpマネジメント株式会社 | Image processing device, stylus, and image processing method |
-
2022
- 2022-03-01 CN CN202280014549.9A patent/CN116888634A/en active Pending
- 2022-03-01 JP JP2023505321A patent/JPWO2022190954A1/ja active Pending
- 2022-03-01 WO PCT/JP2022/008552 patent/WO2022190954A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012181688A (en) * | 2011-03-01 | 2012-09-20 | Sony Corp | Information processing device, information processing method, information processing system, and program |
WO2016121329A1 (en) * | 2015-01-29 | 2016-08-04 | パナソニックIpマネジメント株式会社 | Image processing device, stylus, and image processing method |
Also Published As
Publication number | Publication date |
---|---|
CN116888634A (en) | 2023-10-13 |
JPWO2022190954A1 (en) | 2022-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110363867B (en) | Virtual decorating system, method, device and medium | |
CN111787242B (en) | Method and apparatus for virtual fitting | |
US10559102B2 (en) | Makeup simulation assistance apparatus, makeup simulation assistance method, and non-transitory computer-readable recording medium storing makeup simulation assistance program | |
US11482041B2 (en) | Identity obfuscation in images utilizing synthesized faces | |
JP6448869B2 (en) | Image processing apparatus, image processing system, and program | |
WO2018076622A1 (en) | Image processing method and device, and terminal | |
US20210166460A1 (en) | Information processing apparatus and information processing method | |
KR20200094768A (en) | Stroke special effect program file package creation and stroke special effect creation method and apparatus | |
WO2015017687A2 (en) | Systems and methods for producing predictive images | |
JP2023531264A (en) | Systems and methods for improved facial attribute classification and its use | |
JP6656572B1 (en) | Information processing apparatus, display control method, and display control program | |
KR101719927B1 (en) | Real-time make up mirror simulation apparatus using leap motion | |
JP2013178789A (en) | Beauty simulation system | |
WO2022190954A1 (en) | Information processing device, method, program, system, and beauty care method | |
JP2006260198A (en) | Virtual makeup device, method, and program | |
JP6710095B2 (en) | Technical support device, method, program and system | |
JP7314509B2 (en) | Information processing device, information processing method and program | |
Xu et al. | Affect-preserving privacy protection of video | |
CN116452745A (en) | Hand modeling, hand model processing method, device and medium | |
CN110750154A (en) | Display control method, system, device, equipment and storage medium | |
JP2017004258A (en) | Image processing apparatus, image processing method, and program | |
CN113298593A (en) | Commodity recommendation and image detection method, commodity recommendation and image detection device, commodity recommendation and image detection equipment and storage medium | |
TW201945898A (en) | Information processing device and program | |
KR20200136979A (en) | Methods and systems to improve user compliance for surface-coated products | |
JP2022186294A (en) | Information processing device, method, program, and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22766913 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2023505321 Country of ref document: JP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 202280014549.9 Country of ref document: CN |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 22766913 Country of ref document: EP Kind code of ref document: A1 |