WO2022190954A1 - Information processing device, method, program, system, and beauty care method - Google Patents

Information processing device, method, program, system, and beauty care method Download PDF

Info

Publication number
WO2022190954A1
WO2022190954A1 PCT/JP2022/008552 JP2022008552W WO2022190954A1 WO 2022190954 A1 WO2022190954 A1 WO 2022190954A1 JP 2022008552 W JP2022008552 W JP 2022008552W WO 2022190954 A1 WO2022190954 A1 WO 2022190954A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
person
information processing
beauty
unit
Prior art date
Application number
PCT/JP2022/008552
Other languages
French (fr)
Japanese (ja)
Inventor
観 荒井
みのり 大澤
Original Assignee
株式会社資生堂
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社資生堂 filed Critical 株式会社資生堂
Priority to CN202280014549.9A priority Critical patent/CN116888634A/en
Priority to JP2023505321A priority patent/JPWO2022190954A1/ja
Publication of WO2022190954A1 publication Critical patent/WO2022190954A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Definitions

  • the purpose of the present invention is to improve the sense of reality of others even when performing treatment on oneself.
  • FIG. 1 is a diagram showing functional blocks of an information processing device according to an embodiment of the present invention
  • FIG. 4 is a flowchart showing the flow of superimposed display processing (first embodiment) according to an embodiment of the present invention
  • 9 is a flow chart showing the flow of superimposed display processing (second embodiment) according to an embodiment of the present invention.
  • 1 is an example of a screen displayed on an information processing apparatus according to an embodiment of the present invention (first embodiment); 7 is an example of a screen displayed on an information processing apparatus according to an embodiment of the present invention (second embodiment);
  • 1 is a diagram showing the hardware configuration of an information processing apparatus according to an embodiment of the invention;
  • FIG. 4 is a flowchart showing the flow of superimposed display processing (first embodiment) according to an embodiment of the present invention
  • 9 is a flow chart showing the flow of superimposed display processing (second embodiment) according to an embodiment of the present invention.
  • 1 is an example of a screen displayed on an information processing apparatus according to an embodiment of the present invention (first embodiment)
  • 7 is an
  • CG computer graphics
  • ⁇ "Beauty-related actions are arbitrary beauty-related actions (for example, application of cosmetics, etc.) performed by hands, cosmetic tools, and the like.
  • FIG. 1 is a diagram showing the overall configuration according to one embodiment of the present invention.
  • the person 20 receives the treatment (action) from another person by performing any treatment (action) on himself (for example, performing an action related to beauty) while looking at the screen displayed on the information processing device 10. (for example, undergoing a cosmetic procedure).
  • the information processing device 10 captures a moving image of the person 20 and displays a moving image in which a CG image of an object (for example, a practitioner such as an esthetician) is superimposed on the real-time image of the person 20 .
  • the information processing device 10 is a smart phone, a tablet, a personal computer, or the like having a camera (or a 3D camera) function.
  • the information processing apparatus 10 will be described in detail later with reference to FIG.
  • FIG. 2 is a diagram showing functional blocks of the information processing device 10 according to one embodiment of the present invention.
  • the information processing apparatus 10 can include a photographing unit 101 , a specifying unit 102 , a determining unit 103 , a selecting unit 104 , a superimposing unit 105 and a display unit 106 . Further, the information processing apparatus 10 can function as the imaging unit 101, the identification unit 102, the determination unit 103, the selection unit 104, the superimposition unit 105, and the display unit 106 by executing programs. Each of these will be described below.
  • the imaging unit 101 acquires real-time images. Specifically, the photographing unit 101 photographs a moving image of the person 20 . For example, the imaging unit 101 captures a moving image of the upper body of the person 20 performing an action related to beauty.
  • the identifying unit 102 refers to human skeleton information (positions of feature points, etc.) stored in advance in the information processing apparatus 10 to estimate the skeleton of the person 20, or extract areas of the same color.
  • a region including at least the hands of the person 20 in the real-time image can be specified by extracting a portion of the person 20 that shows fast movements of a certain speed or more in the moving image.
  • the selection unit 104 selects an object.
  • the selection unit 104 can select an object specified by the person 20 or the like from among a plurality of objects.
  • the person 20 can select an object on a screen on which a plurality of objects (for example, images of faces of objects) are displayed.
  • the superimposing unit 105 superimposes an image for complementation (for example, the person 20 is The image of the region in the image before starting the action related to beauty) can be superimposed. That is, after the area including at least the hand of the person 20 in the real-time image is erased (e.g., made transparent), the superimposing unit 105 complements the background that should exist in this area, and then superimposes the object. As a result, it is possible to generate a moving image in which the erased area is supplemented.
  • an image for complementation for example, the person 20 is The image of the region in the image before starting the action related to beauty
  • step 13 (S13) the identifying unit 102 erases (for example, , transparency).
  • the determination unit 103 determines the position and orientation of the object based on the person 20 in the real-time image of S11. Specifically, the determination unit 103 determines the position and orientation of the object based on the position and orientation of at least the hand (for example, elbow to fingertip, wrist to fingertip, etc.) of the person 20 identified in S12. .
  • the hand for example, elbow to fingertip, wrist to fingertip, etc.
  • the information processing device 10 displays a moving image in which the person 20 is receiving an action related to beauty from an object (for example, a practitioner such as an esthetician).

Abstract

The present invention improves the sense of reality of others even when one carries out treatment on oneself. The information processing device according to one embodiment of the present invention comprises a determination unit for determining the position and orientation of an object on the basis of a person in an image, a superimposition unit for superimposing the image and a CG image of the object at the determined position and in the determined orientation, and a display unit for displaying the superimposed image obtained by superimposition.

Description

情報処理装置、方法、プログラム、システム、および美容方法Information processing device, method, program, system, and beauty method
 本発明は、情報処理装置、方法、プログラム、システム、および美容方法に関する。 The present invention relates to an information processing device, method, program, system, and beauty method.
 従来、エステティックサロン等において、エステティシャン等の施術者が、顧客に対して美容に関する行為をする美容術が知られている。顧客は、他者から美容に関する行為を受けることによる満足感を得ることができる。  Conventionally, in esthetic salons, etc., it is known that practitioners such as estheticians perform beauty-related acts on customers. A customer can obtain a sense of satisfaction by receiving an action related to beauty from another person.
 一方、施術者ではなく顧客が自身で美容に関する行為をする"セルフエステ"と呼ばれる美容術も知られている。また、顧客が自宅等で、プロの行為を模倣して自身で美容に関する行為をすることがある(特許文献1)。 On the other hand, there is also known a beauty technique called "self-esthetic" in which the customer, rather than the practitioner, performs beauty-related actions on their own. In addition, customers sometimes perform beauty-related actions by themselves at home or the like by imitating professional actions (Patent Document 1).
特開2012-37626号公報JP 2012-37626 A
 しかしながら、自分で自分に対して施術を行っても、他者から施術を受けているかのように感じることは困難であった。 However, it was difficult for me to feel as if I was being treated by someone else, even though I was treating myself.
 そこで、本発明では、自分で自分に対して施術を行う場合でも、他者の実在感を向上させることを目的とする。 Therefore, the purpose of the present invention is to improve the sense of reality of others even when performing treatment on oneself.
 本発明の一実施形態に係る情報処理装置は、画像中の人物に基づいて、物体の位置および姿勢を決定する決定部と、前記画像と、決定された前記位置および前記姿勢である前記物体のCG画像と、を重畳する重畳部と、重畳された重畳画像を表示する表示部と、を備える。 An information processing apparatus according to an embodiment of the present invention includes: a determination unit that determines a position and orientation of an object based on a person in an image; A superimposing unit that superimposes a CG image, and a display unit that displays the superimposed image.
 本発明では、自分で自分に対して施術を行う場合でも、他者の実在感を向上させることができる。 In the present invention, even when performing treatment on oneself, it is possible to improve the sense of reality of others.
本発明の一実施形態に係る全体の構成を示す図である。It is a figure showing the whole composition concerning one embodiment of the present invention. 本発明の一実施形態に係る情報処理装置の機能ブロックを示す図である。1 is a diagram showing functional blocks of an information processing device according to an embodiment of the present invention; FIG. 本発明の一実施形態に係る重畳表示の処理(第1の実施形態)の流れを示すフローチャートである。4 is a flowchart showing the flow of superimposed display processing (first embodiment) according to an embodiment of the present invention; 本発明の一実施形態に係る重畳表示の処理(第2の実施形態)の流れを示すフローチャートである。9 is a flow chart showing the flow of superimposed display processing (second embodiment) according to an embodiment of the present invention. 本発明の一実施形態に係る情報処理装置に表示される画面の一例(第1の実施形態)である。1 is an example of a screen displayed on an information processing apparatus according to an embodiment of the present invention (first embodiment); 本発明の一実施形態に係る情報処理装置に表示される画面の一例(第2の実施形態)である。7 is an example of a screen displayed on an information processing apparatus according to an embodiment of the present invention (second embodiment); 本発明の一実施形態に係る情報処理装置のハードウェア構成を示す図である。1 is a diagram showing the hardware configuration of an information processing apparatus according to an embodiment of the invention; FIG.
 以下、各実施形態について添付の図面を参照しながら説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。 Each embodiment will be described below with reference to the attached drawings. In the present specification and drawings, constituent elements having substantially the same functional configuration are denoted by the same reference numerals, thereby omitting redundant description.
<用語の説明>
・「リアルタイム画像」とは、情報処理装置10(後段で詳細に説明する)のカメラ機能が撮影している画像のことをいう。
・「CG(コンピュータグラフィックス)画像」とは、情報処理装置10が生成した画像のことをいう。なお、CG画像は、事前に撮影した動画を加工したものであってもよい。
・「美容に関する行為」とは、手、化粧用具等により行われる任意の美容に関する行為(例えば、化粧料の塗布等)である。
<Description of terms>
- "Real-time image" refers to an image captured by the camera function of the information processing apparatus 10 (described in detail later).
- A “CG (computer graphics) image” refers to an image generated by the information processing apparatus 10 . It should be noted that the CG image may be a processed moving image taken in advance.
・"Beauty-related actions" are arbitrary beauty-related actions (for example, application of cosmetics, etc.) performed by hands, cosmetic tools, and the like.
<全体構成>
 図1は、本発明の一実施形態に係る全体の構成を示す図である。人物20は、情報処理装置10に表示される画面を見ながら自身に対して任意の施術(行為)を行う(例えば、美容に関する行為をする)ことによって、他者から該施術(行為)を受けている(例えば、美容に関する行為を受けている)かのように感じることができる。
<Overall composition>
FIG. 1 is a diagram showing the overall configuration according to one embodiment of the present invention. The person 20 receives the treatment (action) from another person by performing any treatment (action) on himself (for example, performing an action related to beauty) while looking at the screen displayed on the information processing device 10. (for example, undergoing a cosmetic procedure).
 具体的には、本発明の一実施形態では、人物20は、情報処理装置10の画面がある側に搭載されているカメラのレンズに人物20の上半身を映しながら、自身に対して美容に関する行為をする。情報処理装置10には、人物20のリアルタイム画像に物体(例えば、エステティシャン等の施術者)のCG画像を重畳した動画が表示される。物体のCG画像は、物体が人物20に対して美容に関する行為をしているCG画像である。人物20は、このような動画を見ながら自身に対して美容に関する行為をすることによって、他者(つまり、物体)から美容に関する行為を受けているかのように感じることができる。 Specifically, in one embodiment of the present invention, the person 20 performs an action related to beauty while projecting the upper body of the person 20 through the lens of a camera mounted on the side of the screen of the information processing device 10 . do. The information processing apparatus 10 displays a moving image in which a CG image of an object (for example, a practitioner such as an esthetician) is superimposed on a real-time image of the person 20 . A CG image of an object is a CG image in which the object performs an action related to beauty on the person 20 . The person 20 can feel as if he or she is being treated by another person (that is, an object) by performing an action related to beauty while watching such a moving image.
 情報処理装置10は、人物20の動画を撮影して、人物20のリアルタイム画像に物体(例えば、エステティシャン等の施術者)のCG画像を重畳した動画を表示する。例えば、情報処理装置10は、カメラ(3Dカメラでもよい)機能を有するスマートフォン、タブレット、パーソナルコンピュータ等である。後段で、図2を参照しながら、情報処理装置10について詳細に説明する。 The information processing device 10 captures a moving image of the person 20 and displays a moving image in which a CG image of an object (for example, a practitioner such as an esthetician) is superimposed on the real-time image of the person 20 . For example, the information processing device 10 is a smart phone, a tablet, a personal computer, or the like having a camera (or a 3D camera) function. The information processing apparatus 10 will be described in detail later with reference to FIG.
 なお、本明細書では、情報処理装置10が1つの機器(例えば、カメラ機能を有するスマートフォン等)である場合を説明するが、情報処理装置10が複数の機器(例えば、カメラ機能を有さない機器とデジタルカメラ)から構成されてもよい。また、情報処理装置10以外の装置(サーバ等)が、本明細書で説明する情報処理装置10が実行する処理のうちの一部の処理を実行するようにしてもよい。 In this specification, a case where the information processing device 10 is one device (for example, a smartphone having a camera function) will be described, but the information processing device 10 may be a plurality of devices (for example, a device that does not have a camera function). device and digital camera). Further, a device (such as a server) other than the information processing device 10 may execute part of the processing executed by the information processing device 10 described herein.
<情報処理装置10の機能ブロック>
 図2は、本発明の一実施形態に係る情報処理装置10の機能ブロックを示す図である。情報処理装置10は、撮影部101と、特定部102と、決定部103と、選択部104と、重畳部105と、表示部106と、を備えることができる。また、情報処理装置10は、プログラムを実行することで、撮影部101、特定部102、決定部103、選択部104、重畳部105、表示部106、として機能することができる。以下、それぞれについて説明する。
<Functional Blocks of Information Processing Device 10>
FIG. 2 is a diagram showing functional blocks of the information processing device 10 according to one embodiment of the present invention. The information processing apparatus 10 can include a photographing unit 101 , a specifying unit 102 , a determining unit 103 , a selecting unit 104 , a superimposing unit 105 and a display unit 106 . Further, the information processing apparatus 10 can function as the imaging unit 101, the identification unit 102, the determination unit 103, the selection unit 104, the superimposition unit 105, and the display unit 106 by executing programs. Each of these will be described below.
 撮影部101は、リアルタイム画像を取得する。具体的には、撮影部101は、人物20の動画を撮影する。例えば、撮影部101は、美容に関する行為をしている人物20の上半身の動画を撮影する。 The imaging unit 101 acquires real-time images. Specifically, the photographing unit 101 photographs a moving image of the person 20 . For example, the imaging unit 101 captures a moving image of the upper body of the person 20 performing an action related to beauty.
 特定部102は、撮影部101が取得したリアルタイム画像中の人物20の身体の一部を特定する。以下、<<人物20の身体の一部の領域の消去(例えば、透明化)のための特定>>と<<物体の位置および姿勢の決定のための特定>>について説明する。 The identifying unit 102 identifies a part of the body of the person 20 in the real-time image acquired by the imaging unit 101 . <<specification for erasing (e.g., making transparent) a partial area of the body of the person 20>> and <<specification for determining the position and orientation of the object>> will be described below.
<<人物20の身体の一部の領域の消去(例えば、透明化)のための特定>>
 特定部102は、リアルタイム画像内における、人物20の身体の一部の領域(例えば、肘から指先まで、手首から指先まで等の少なくとも手を含む領域)を特定する。なお、人物20は、化粧用具等の物を所持していてもよい。また、特定部102は、特定された人物20の身体の一部の領域(例えば、少なくとも手を含む領域)および人物20が所持する物の領域(物を所持している場合)をリアルタイム画像から消去(例えば、透明化)する。なお、人物20の身体の一部の領域の消去の処理は、実行されてもよいし実行されなくもよい。
<<Specification for erasing (e.g., making transparent) a partial area of the body of the person 20>>
The identifying unit 102 identifies a partial area of the body of the person 20 (for example, an area including at least a hand, such as from the elbow to the fingertips, from the wrist to the fingertips, etc.) in the real-time image. It should be noted that the person 20 may carry items such as cosmetics. In addition, the identifying unit 102 identifies a partial area of the body of the identified person 20 (for example, an area including at least a hand) and an area of an object possessed by the person 20 (if the person is carrying an object) from the real-time image. Erase (e.g., make transparent). Note that the process of erasing the partial area of the body of the person 20 may or may not be executed.
<<領域の特定方法>>
 例えば、特定部102は、事前に情報処理装置10に記憶されている人間の骨格の情報(特徴点の位置等)を参照して人物20の骨格を推定したり、同一の色の領域を抽出したり、動画中で人物20のうち一定速度以上の速い動きを示している部分を抽出したりすることによって、リアルタイム画像内における人物20の少なくとも手を含む領域を特定することができる。
<<Method for specifying area>>
For example, the identifying unit 102 refers to human skeleton information (positions of feature points, etc.) stored in advance in the information processing apparatus 10 to estimate the skeleton of the person 20, or extract areas of the same color. Alternatively, a region including at least the hands of the person 20 in the real-time image can be specified by extracting a portion of the person 20 that shows fast movements of a certain speed or more in the moving image.
<<物体の位置および姿勢の決定のための特定>>
 以下、第1の実施形態と第2の実施形態とに分けて説明する。
<<Identification for Determining Object Position and Orientation>>
Hereinafter, the first embodiment and the second embodiment will be described separately.
 第1の実施形態では、特定部102は、リアルタイム画像中の人物20の少なくとも手(例えば、肘から指先まで、手首から指先まで等)の位置および姿勢を特定する。なお、人物20は、化粧用具等の物を所持していてもよい。 In the first embodiment, the identification unit 102 identifies the position and posture of at least the hand (for example, elbow to fingertip, wrist to fingertip, etc.) of the person 20 in the real-time image. It should be noted that the person 20 may carry items such as cosmetics.
 なお、「位置」は、人物20が存在している画像(ここでは、リアルタイム画像)中の位置を示す。また、「姿勢」は、人物20の体の構え方(姿勢、体勢等)を示す。 "Position" indicates the position in the image (here, the real-time image) where the person 20 exists. "Posture" indicates how the person 20 holds the body (posture, posture, etc.).
<<位置および姿勢の特定方法>>
 例えば、特定部102は、事前に情報処理装置10に記憶されている人間の骨格の情報(特徴点の位置等)を参照して人物20の骨格を推定したり、同一の色の領域を抽出したり、動画中で人物20のうち一定速度以上の速い動きを示している部分を抽出したりすることによって、リアルタイム画像中の人物20の少なくとも手の位置および姿勢を特定することができる。
<<Method for specifying position and posture>>
For example, the identifying unit 102 refers to human skeleton information (positions of feature points, etc.) stored in advance in the information processing apparatus 10 to estimate the skeleton of the person 20, or extract areas of the same color. Alternatively, by extracting a portion of the person 20 in the moving image in which the person 20 moves faster than a certain speed, at least the position and posture of the hand of the person 20 in the real-time image can be specified.
 第2の実施形態では、特定部102は、リアルタイム画像中の人物20の手または人物20が所持する物(例えば、化粧用具)と人物20の顔との接触点を特定する。 In the second embodiment, the identifying unit 102 identifies a contact point between the person's 20 hand or an object held by the person 20 (for example, cosmetics) and the person's 20 face in the real-time image.
<<接触点の特定方法>>
 例えば、特定部102は、リアルタイム画像を解析して、リアルタイム画像中の人物20の手(例えば、指)または人物20が所持する物と人物20の顔との接触点を特定することができる。例えば、特定部102は、顔(例えば、頬)に対して手(例えば、指)が接触している複数の画像で機械学習された学習済みモデルを用いて、リアルタイム画像から接触点を特定することができる。なお、特定部102が、人物20の指等に装着されたセンサの検知結果に基づいて、人物20の手(例えば、指)または人物20が所持する物と人物20の顔との接触点を特定するようにしてもよい。
<<Method of identifying contact point>>
For example, the identification unit 102 can analyze the real-time image and identify the contact point between the person's 20 hand (eg, finger) or an object held by the person 20 and the person's 20 face in the real-time image. For example, the identifying unit 102 identifies contact points from a real-time image using a machine-learned model that has been machine-learned using a plurality of images in which a hand (e.g., finger) is in contact with a face (e.g., cheek). be able to. Note that the identifying unit 102 detects a contact point between the person's 20 hand (for example, finger) or an object held by the person 20 and the person's face, based on the detection result of the sensor attached to the finger or the like of the person 20. You may make it specify.
 決定部103は、リアルタイム画像中の人物20に基づいて、物体の位置および姿勢を決定する。なお、「位置」は、物体が存在すると想定する仮想空間上での位置を示す。また、「姿勢」は、物体の体の構え方(姿勢、体勢等)を示す。 The determination unit 103 determines the position and orientation of the object based on the person 20 in the real-time image. "Position" indicates a position in virtual space where an object is assumed to exist. "Position" indicates how the body of an object is held (posture, posture, etc.).
 具体的には、決定部103は、人物の身体の一部と物体の位置および姿勢との対応関係に基づいて、物体の位置および姿勢を決定する。 Specifically, the determining unit 103 determines the position and orientation of the object based on the correspondence relationship between the part of the human body and the position and orientation of the object.
 対応関係は、事前に決められたデータベースであってもよいし、機械学習された学習済みモデルであってもよい。データベースは、人物の身体の一部(具体的には、人物の少なくとも手の位置および姿勢、あるいは、人物の手または人物が所持する物と人物の顔との接触点)の情報と、物体の位置および姿勢の情報と、が紐づけられている。また、学習済みモデルは、人物の身体の一部(具体的には、人物の少なくとも手の位置および姿勢、あるいは、人物の手または人物が所持する物と人物の顔との接触点)の情報が入力されると、物体の位置および姿勢の情報が出力される予測モデルである。 The correspondence may be a pre-determined database or a machine-learned model. The database stores information about a part of a person's body (specifically, at least the position and posture of a person's hand, or a point of contact between a person's hand or an object held by a person and a person's face), and information about a person's face. Position and posture information are associated with each other. In addition, the trained model contains information about a part of the person's body (specifically, at least the position and posture of the person's hand, or the point of contact between the person's hand or an object held by the person and the person's face). is a prediction model that outputs information on the position and orientation of an object when is input.
 以下、第1の実施形態と第2の実施形態とに分けて説明する。 The following description will be divided into the first embodiment and the second embodiment.
<<第1の実施形態>>
 第1の実施形態では、決定部103は、特定部102が特定した人物20の少なくとも手(例えば、肘から指先まで、手首から指先まで等)の位置および姿勢に基づいて、物体の位置および姿勢を決定する。例えば、決定部103は、人物20の少なくとも手の位置および姿勢と、物体の少なくとも手の位置および姿勢と、を同一にすることができる。さらに、決定部103は、人物20と物体の少なくとも手の位置および姿勢が同一であり、かつ、物体が人物20の斜め後方に立っていること等、施術時に考えられる施術者の立ち位置を条件として、物体の他の部分(つまり、少なくとも手以外の部分)の位置および姿勢を決定することができる。
<<First Embodiment>>
In the first embodiment, the determination unit 103 determines the position and orientation of the object based on the position and orientation of at least the hand (for example, elbow to fingertip, wrist to fingertip, etc.) of the person 20 identified by the identification unit 102. to decide. For example, the determining unit 103 can make the position and posture of at least the hand of the person 20 the same as the position and posture of at least the hand of the object. Furthermore, the determination unit 103 determines the operator's possible standing position during the treatment, such as at least the position and posture of the hands of the person 20 and the object being the same, and the object standing obliquely behind the person 20. , the position and pose of other parts of the object (ie, at least parts other than the hand) can be determined.
<<第2の実施形態>>
 第2の実施形態では、決定部103は、特定部102が特定した人物20の手または人物20が所持する物(例えば、化粧用具)と人物20の顔との接触点に基づいて、物体の位置および姿勢を決定する。例えば、決定部103は、人物20の手または人物20が所持する物(例えば、化粧用具)と人物20の顔との接触点と、物体の手または物体が所持する物(例えば、化粧用具)と人物20の顔との接触点と、を同一にすることができる。さらに、決定部103は、人物20の手等の接触点と物体の手等の接触点が同一であり、かつ、物体が人物20の後方に立っていること等、施術時に考えられる施術者の立ち位置を条件として、物体の他の部分(少なくとも手以外の部分)の位置および姿勢を決定することができる。
<<Second Embodiment>>
In the second embodiment, the determination unit 103 determines the object based on the contact point between the hand of the person 20 or the object (for example, cosmetics) possessed by the person 20 identified by the identification unit 102 and the face of the person 20. Determine position and posture. For example, the determining unit 103 determines the point of contact between the person's 20 hand or an object (eg, cosmetic tool) held by the person 20 and the person's 20 face, and the hand of the object or the object (eg, cosmetic tool) held by the object. and the point of contact with the face of the person 20 can be the same. Furthermore, the determining unit 103 determines whether the contact point of the hand of the person 20 is the same as the contact point of the hand of the object, and that the object is standing behind the person 20. Conditioned on the standing position, the position and pose of other parts of the object (at least parts other than the hand) can be determined.
 選択部104は、物体を選択する。例えば、選択部104は、人物20等が複数の物体のなかから指定した物体を選択することができる。人物20は、複数の物体(例えば、物体の顔の画像)が表示された画面で、物体を選択することができる。 The selection unit 104 selects an object. For example, the selection unit 104 can select an object specified by the person 20 or the like from among a plurality of objects. The person 20 can select an object on a screen on which a plurality of objects (for example, images of faces of objects) are displayed.
 また、例えば、選択部104は、機械学習により予測された人物20に適した物体を選択することができる。また、例えば、選択部104は、所定の物体(全ての人物に一律の物体)を選択することができる。 Also, for example, the selection unit 104 can select an object suitable for the person 20 predicted by machine learning. Also, for example, the selection unit 104 can select a predetermined object (a uniform object for all persons).
 ここで、物体について説明する。物体は、人物に限らず、動物、キャラクタ等であってもよい。例えば、物体は、過去に人物20に対して美容に関する行為をしたことがある人物である。なお、過去に人物20に対して美容に関する行為をしたことがある人物は、人物20の識別情報(登録されている会員ID等)に紐づけられている施術履歴等が参照されて選択されてもよい。なお、物体のCG画像は、物体の全身のCG画像に限らず、物体の一部(例えば、物体の手等)のCG画像であってもよい。また、物体のCG画像は、物体が物(例えば、人物20が所持している物(例えば、化粧用具)と同一の物)を所持しているCG画像であってもよい。 Now, let me explain the objects. An object is not limited to a person, and may be an animal, a character, or the like. For example, the object is a person who has performed beauty-related actions on the person 20 in the past. It should be noted that a person who has performed a beauty-related act on the person 20 in the past is selected by referring to the treatment history or the like linked to the identification information (registered member ID or the like) of the person 20. good too. Note that the CG image of the object is not limited to the CG image of the whole body of the object, and may be a CG image of a part of the object (for example, a hand of the object, etc.). Also, the CG image of the object may be a CG image in which the object is holding an object (for example, the same object as the person 20 is carrying (eg, cosmetic tools)).
 重畳部105は、人物20が撮影されたリアルタイム画像(人物20の少なくとも手を含む領域が消去されたリアルタイム画像)と、決定部103が決定した位置および姿勢である物体のCG画像と、を重畳する。具体的には、重畳部105は、リアルタイム画像の上にCG画像を重ねる。 The superimposing unit 105 superimposes a real-time image of the person 20 (a real-time image in which an area including at least the hand of the person 20 is removed) and a CG image of the object having the position and orientation determined by the determining unit 103. do. Specifically, the superimposing unit 105 superimposes the CG image on the real-time image.
 さらに、重畳部105は、画像を補完することができる。具体的には、重畳部105は、補完用の画像(例えば、人物20が美容に関する行為を始める前の画像)をもとに再現した人物20の身体の一部(例えば、美容に関する行為をしていない状態の手)のCG画像を、リアルタイム画像と物体のCG画像とが重畳された画像に重ねることができる。これにより、人物20が自身では美容に関する行為をしていない動画を生成することができる。 Furthermore, the superimposing unit 105 can complement the image. Specifically, the superimposing unit 105 reproduces a part of the body of the person 20 (for example, an image before the person 20 starts performing an action related to beauty) based on a complementary image (for example, an image before the person 20 starts performing an action related to beauty). The CG image of the hand in the untouched state can be superimposed on the superimposed image of the real-time image and the CG image of the object. As a result, it is possible to generate a moving image in which the person 20 himself does not perform an action related to beauty.
 また、具体的には、重畳部105は、特定部102が特定した人物20の身体の一部の領域(例えば、少なくとも手を含む領域)の上に、補完用の画像(例えば、人物20が美容に関する行為を始める前の画像)における該領域の画像を重ねることができる。つまり、重畳部105は、リアルタイム画像中における人物20の少なくとも手を含む領域が消去(例えば、透明化)された後に、該領域に存在するはずの背景を補完し、そのうえで物体を重ねる。これにより、消去された領域が補われた動画を生成することができる。 Further, specifically, the superimposing unit 105 superimposes an image for complementation (for example, the person 20 is The image of the region in the image before starting the action related to beauty) can be superimposed. That is, after the area including at least the hand of the person 20 in the real-time image is erased (e.g., made transparent), the superimposing unit 105 complements the background that should exist in this area, and then superimposes the object. As a result, it is possible to generate a moving image in which the erased area is supplemented.
 なお、重畳部105は、物体が自然な動きとなるように、物体のCG画像の位置および姿勢を変化させる(例えば、物体が立っている位置を移動させる)ようにしてもよい。また、重畳部105は、人物20が急激な動きをした場合に、物体が不自然な動きとならないように、物体のCG画像の位置および姿勢を人物20に連動させないようにしてもよい(あるいは、人物20の動きに対する追従速度を一時的に落とすようにしてもよい)。これにより、物体が止まりすぎない、あるいは、動きすぎない動画を生成することができる。 Note that the superimposing unit 105 may change the position and posture of the CG image of the object (for example, move the standing position of the object) so that the object moves naturally. In addition, the superimposing unit 105 may not link the position and orientation of the CG image of the object with the person 20 (or , the speed of following the movement of the person 20 may be temporarily reduced). This makes it possible to generate a moving image in which the object does not stop too much or move too much.
 表示部106は、重畳部105が重畳した画像を表示する。 The display unit 106 displays the image superimposed by the superimposing unit 105 .
<処理方法>
 以下、第1の実施形態である重畳表示の処理方法、および、第2の実施形態である重畳表示の処理方法について説明する。
<Processing method>
A superimposed display processing method according to the first embodiment and a superimposed display processing method according to the second embodiment will be described below.
<<第1の実施形態>>
 図3は、本発明の一実施形態に係る重畳表示の処理(第1の実施形態)の流れを示すフローチャートである。
<<First Embodiment>>
FIG. 3 is a flow chart showing the flow of superimposed display processing (first embodiment) according to an embodiment of the present invention.
 ステップ11(S11)において、撮影部101は、リアルタイム画像を取得する。具体的には、撮影部101は、人物20の動画を撮影する。 At step 11 (S11), the imaging unit 101 acquires a real-time image. Specifically, the photographing unit 101 photographs a moving image of the person 20 .
 ステップ12(S12)において、特定部102は、S11のリアルタイム画像内における、人物20の少なくとも手を含む領域(例えば、肘から指先まで、手首から指先まで等の領域)を特定する。また、特定部102は、S11のリアルタイム画像中の人物20の少なくとも手(例えば、肘から指先まで、手首から指先まで等)の位置および姿勢を特定する。なお、人物20は、化粧用具等の物を所持していてもよい。 In step 12 (S12), the identifying unit 102 identifies an area including at least the hand of the person 20 (for example, an area from the elbow to the fingertip, from the wrist to the fingertip, etc.) in the real-time image of S11. The identifying unit 102 also identifies the position and posture of at least the hand (for example, from the elbow to the fingertip, from the wrist to the fingertip, etc.) of the person 20 in the real-time image in S11. It should be noted that the person 20 may carry items such as cosmetics.
 ステップ13(S13)において、特定部102は、S12で特定された人物20の少なくとも手を含む領域および人物20が所持する物の領域(物を所持している場合)をリアルタイム画像から消去(例えば、透明化)する。 In step 13 (S13), the identifying unit 102 erases (for example, , transparency).
 ステップ14(S14)において、決定部103は、S11のリアルタイム画像中の人物20に基づいて、物体の位置および姿勢を決定する。具体的には、決定部103は、S12で特定された人物20の少なくとも手(例えば、肘から指先まで、手首から指先まで等)の位置および姿勢に基づいて、物体の位置および姿勢を決定する。 At step 14 (S14), the determination unit 103 determines the position and orientation of the object based on the person 20 in the real-time image of S11. Specifically, the determination unit 103 determines the position and orientation of the object based on the position and orientation of at least the hand (for example, elbow to fingertip, wrist to fingertip, etc.) of the person 20 identified in S12. .
 ステップ15(S15)において、重畳部105は、人物20が撮影されたリアルタイム画像(S13で人物20の少なくとも手を含む領域が消去されたリアルタイム画像)と、S14で決定された位置および姿勢である物体のCG画像と、を重畳する。さらに、重畳部105は、画像を補完することができる。 In step 15 (S15), the superimposing unit 105 combines the real-time image in which the person 20 is shot (the real-time image in which the area including at least the hand of the person 20 is deleted in S13) and the position and orientation determined in S14. A CG image of the object is superimposed. Furthermore, the superimposing unit 105 can complement the image.
 ステップ16(S16)において、表示部106は、S15で重畳された画像を表示する。具体的には、表示部106は、S11~S15の処理で生成された複数の画像を動画として表示する。 At step 16 (S16), the display unit 106 displays the image superimposed at S15. Specifically, the display unit 106 displays a plurality of images generated by the processes of S11 to S15 as moving images.
<<第2の実施形態>>
 図4は、本発明の一実施形態に係る重畳表示の処理(第2の実施形態)の流れを示すフローチャートである。
<<Second Embodiment>>
FIG. 4 is a flow chart showing the flow of superimposed display processing (second embodiment) according to an embodiment of the present invention.
 ステップ21(S21)において、撮影部101は、リアルタイム画像を取得する。具体的には、撮影部101は、人物20の動画を撮影する。 At step 21 (S21), the imaging unit 101 acquires a real-time image. Specifically, the photographing unit 101 photographs a moving image of the person 20 .
 ステップ22(S22)において、特定部102は、S21のリアルタイム画像内における、人物20の少なくとも手を含む領域(例えば、肘から指先まで、手首から指先まで等の領域)を特定する。なお、人物20は、化粧用具等の物を所持していてもよい。 In step 22 (S22), the identifying unit 102 identifies an area including at least the hands of the person 20 (for example, an area from the elbow to the fingertips, from the wrist to the fingertips, etc.) in the real-time image of S21. It should be noted that the person 20 may carry items such as cosmetics.
 ステップ23(S23)において、特定部102は、S22で特定された人物20の少なくとも手を含む領域および人物20が所持する物の領域(物を所持している場合)をリアルタイム画像から消去(例えば、透明化)する。 In step 23 (S23), the identifying unit 102 erases (for example, , transparency).
 ステップ24(S24)において、特定部102は、S21のリアルタイム画像中の人物20の手または人物20が所持する物(例えば、化粧用具)と人物20の顔との接触点を特定する。 In step 24 (S24), the identifying unit 102 identifies the contact point between the person's 20 hand or an object (for example, cosmetics) held by the person 20 and the person's 20 face in the real-time image of S21.
 ステップ25(S25)において、決定部103は、S21のリアルタイム画像中の人物20に基づいて、物体の位置および姿勢を決定する。具体的には、決定部103は、S24で特定された人物20の手または人物20が所持する物(例えば、化粧用具)と人物20の顔との接触点に基づいて、物体の位置および姿勢を決定する。 At step 25 (S25), the determination unit 103 determines the position and orientation of the object based on the person 20 in the real-time image of S21. Specifically, the determination unit 103 determines the position and orientation of the object based on the contact point between the hand of the person 20 identified in S24 or the object (for example, makeup) held by the person 20 and the face of the person 20. to decide.
 ステップ26(S26)において、重畳部105は、人物20が撮影されたリアルタイム画像(S23で人物20の少なくとも手を含む領域が消去されたリアルタイム画像)と、S25で決定された位置および姿勢である物体のCG画像と、を重畳する。さらに、重畳部105は、画像を補完することができる。 In step 26 (S26), the superimposing unit 105 combines the real-time image of the person 20 captured (the real-time image in which at least the area including the hand of the person 20 is deleted in S23) and the position and orientation determined in S25. A CG image of the object is superimposed. Furthermore, the superimposing unit 105 can complement the image.
 ステップ27(S27)において、表示部106は、S26で重畳された画像を表示する。具体的には、表示部106は、S21~S26の処理で生成された複数の画像を動画として表示する。 At step 27 (S27), the display unit 106 displays the image superimposed at S26. Specifically, the display unit 106 displays a plurality of images generated by the processes of S21 to S26 as moving images.
<<CG画像の作成>>
 本発明の一実施形態では、美容に関する行為をする人物を動画から切り抜くことができる。切り抜き方法として、グリーンバック(クロマキー)等で撮影した動画から切り抜いてもよいし、通常の動画から切り抜きたい部分を指定して切り抜いてもよい。本発明の一実施形態では、物体は、人物に対して美容に関する行為をする人物であり、物体のCG画像は、所定の色(例えば、緑色)の背景である所定の色(例えば、緑色)の顔の形状に対して物体が美容に関する行為をしている様子を撮影した動画を用いて作成される(なお、グリーンバックとも呼ばれる)。例えば、人物に対して美容に関する行為をする者が、所定の色(例えば、緑色)の布等が背景である所定の色(例えば、緑色)の布等で覆われた顔に対して美容に関する行為をしている様子が撮影される。この撮影された動画において、人物に対して美容に関する行為をする者の手等を切り抜くことによって(手を含む身体の一部や手が所持している美容の用具までも含んで切り抜く、または、美容に関する行為をする者の全身を切り抜いてもよい)、物体のCG画像が作成される。
<<Creation of CG image>>
In one embodiment of the present invention, a person performing a beauty act can be clipped from the video. As a clipping method, a moving image shot with a green screen (chroma key) or the like may be clipped, or a portion to be clipped may be specified and clipped from a normal moving image. In one embodiment of the present invention, the object is a person who performs beauty-related actions on a person, and the CG image of the object is a predetermined color (for example, green) that is a background of a predetermined color (for example, green). It is created using a video that captures the appearance of an object performing beauty-related actions on the shape of the face (also called a green screen). For example, a person who performs an action related to beauty on a person may The state of doing the act is filmed. In this filmed video, by cutting out the hands of a person who performs beauty-related acts on a person (including parts of the body including hands and beauty tools held by hands), or A CG image of the object is created.
<<その他の実施形態>>
 本発明の一実施形態では、人物20の手の動きとCGの物体の動きとが連動しない。具体的には、特定部102が、人物20の身体の一部の領域(例えば、少なくとも手を含む領域)および人物20が所持する物の領域(物を所持している場合)をリアルタイム画像から消去(例えば、透明化)する。そして、決定部103が、リアルタイム画像中の人物20に基づいて(具体的には、リアルタイム画像中の人物20の位置(例えば、人物20の顔の位置および姿勢)に基づいて)、物体の位置および姿勢を決定する。例えば、決定部103は、物体の手がリアルタイム画像中の人物20の顔に接触するように、物体の位置および姿勢を決定する。そして、重畳部105が、人物20が撮影されたリアルタイム画像(人物20の少なくとも手を含む領域が消去されたリアルタイム画像)と、物体のCG画像と、を重畳する。人物20は、物体のCGの動きに合わせて、美容に関する行為をする。
<<other embodiments>>
In one embodiment of the present invention, the movement of the hand of the person 20 and the movement of the CG object are not linked. Specifically, the identification unit 102 identifies a partial area of the body of the person 20 (for example, an area including at least a hand) and an area of an object possessed by the person 20 (if the object is in possession) from the real-time image. Erase (e.g., make transparent). Then, the determining unit 103 determines the position of the object based on the person 20 in the real-time image (specifically, based on the position of the person 20 in the real-time image (for example, the position and posture of the face of the person 20)). and determine posture. For example, the determination unit 103 determines the position and orientation of the object such that the hand of the object touches the face of the person 20 in the real-time image. Then, the superimposing unit 105 superimposes the real-time image of the person 20 (the real-time image in which at least the area including the hand of the person 20 is removed) and the CG image of the object. The person 20 performs an action related to beauty according to the movement of the CG of the object.
 なお、本明細書では、リアルタイム画像にCG画像を重畳する実施形態を説明したが、これに限られず、本発明は、事前に撮影済みの画像にCG画像を重畳する実施形態にも適用することができる。 In this specification, an embodiment in which a CG image is superimposed on a real-time image has been described, but the present invention is not limited to this, and can also be applied to an embodiment in which a CG image is superimposed on an image that has been captured in advance. can be done.
<表示画面>
 以下、第1の実施形態である表示画面、および、第2の実施形態である表示画面について説明する。本発明の一実施形態では、情報処理装置10には、人物20が物体(例えば、エステティシャン等の施術者)から美容に関する行為を受けている動画が表示される。
<Display screen>
A display screen according to the first embodiment and a display screen according to the second embodiment will be described below. In one embodiment of the present invention, the information processing device 10 displays a moving image in which the person 20 is receiving an action related to beauty from an object (for example, a practitioner such as an esthetician).
<<第1の実施形態>>
 図5は、本発明の一実施形態に係る情報処理装置10に表示される画面の一例(第1の実施形態)である。第1の実施形態では、物体(例えば、エステティシャン等の施術者)のCG画像の位置および姿勢は、人物20の少なくとも手(例えば、肘から指先まで、手首から指先まで等)の位置および姿勢に連動している。例えば、人物20は、人物20が座った状態で美容に関する行為を受けている動画を見ることができる(なお、図5の人物20は、図5の情報処理装置10に表示される画面と向き合った状態で、美容に関する行為をする)。
<<First Embodiment>>
FIG. 5 is an example (first embodiment) of a screen displayed on the information processing apparatus 10 according to one embodiment of the present invention. In the first embodiment, the position and posture of the CG image of the object (for example, a practitioner such as an esthetician) is the position and posture of at least the hand of the person 20 (for example, from the elbow to the fingertips, from the wrist to the fingertips, etc.). are linked. For example, the person 20 can watch a video in which the person 20 is seated and undergoes an action related to beauty (the person 20 in FIG. 5 faces the screen displayed on the information processing device 10 in FIG. 5). perform beauty-related acts while
<<第2の実施形態>>
 図6は、本発明の一実施形態に係る情報処理装置10に表示される画面の一例(第2の実施形態)である。第2の実施形態では、物体(例えば、エステティシャン等の施術者)のCG画像の位置および姿勢は、人物20の手または人物20が所持する物(例えば、化粧用具)と人物20の顔との接触点に連動している。例えば、人物20は、人物20が仰向けになった状態で美容に関する行為を受けている動画を見ることができる(なお、図6の人物20は、図6の情報処理装置10に表示される画面と向き合った状態で、美容に関する行為をする)。
<<Second Embodiment>>
FIG. 6 is an example (second embodiment) of a screen displayed on the information processing apparatus 10 according to one embodiment of the present invention. In the second embodiment, the position and posture of the CG image of an object (for example, a practitioner such as an esthetician) are determined by the relationship between the hand of the person 20 or an object (for example, makeup tools) held by the person 20 and the face of the person 20. Linked to contact points. For example, the person 20 can watch a video in which the person 20 is lying on his or her back and undergoes an action related to beauty care (the person 20 in FIG. 6 is a screen image displayed on the information processing apparatus 10 in FIG. 6). perform beauty-related acts while facing the woman).
<美容方法>
 本発明の一実施形態は、上記で説明した画像を閲覧しながら美容に関する行為をする美容方法である。すなわち、本発明の一実施形態は、画像を閲覧しながら美容に関する行為をする美容方法であって、該画像は、リアルタイム画像中の人物に基づいて、物体の位置および姿勢が決定され、リアルタイム画像と、決定された位置および姿勢である物体のCG画像と、が重畳された画像である。
<Beauty method>
One embodiment of the present invention is a beauty method for performing beauty-related actions while viewing the images described above. That is, one embodiment of the present invention is a beauty method for performing beauty-related actions while viewing an image, wherein the image is a real-time image in which the position and orientation of an object are determined based on a person in the real-time image. , and the CG image of the object at the determined position and orientation are superimposed.
<効果>
 このように、本発明の一実施形態では、人物20は、情報処理装置10に表示される画面を見ながら自身に対して美容に関する行為をすることによって、他者(つまり、物体(例えば、エステティシャン等の施術者))から美容に関する行為を受けているかのように感じることができる。
<effect>
As described above, in one embodiment of the present invention, the person 20 performs beauty-related actions on themselves while looking at the screen displayed on the information processing device 10, thereby making other people (that is, objects (for example, estheticians) You can feel as if you are receiving an action related to beauty from a practitioner such as)).
<ハードウェア構成>
 図7は、本発明の一実施形態に係る情報処理装置のハードウェア構成を示す図である。
<Hardware configuration>
FIG. 7 is a diagram showing the hardware configuration of the information processing apparatus according to one embodiment of the present invention.
 情報処理装置10は、CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003を有する。CPU1001、ROM1002、RAM1003は、いわゆるコンピュータを形成する。 The information processing device 10 has a CPU (Central Processing Unit) 1001 , a ROM (Read Only Memory) 1002 and a RAM (Random Access Memory) 1003 . The CPU 1001, ROM 1002, and RAM 1003 form a so-called computer.
 また、情報処理装置10は、補助記憶装置1004、表示装置1005、操作装置1006、I/F(Interface)装置1007、ドライブ装置1008を有することができる。 The information processing device 10 can also have an auxiliary storage device 1004 , a display device 1005 , an operation device 1006 , an I/F (Interface) device 1007 and a drive device 1008 .
 なお、情報処理装置10の各ハードウェアは、バスBを介して相互に接続されている。 Each piece of hardware of the information processing device 10 is interconnected via a bus B.
 CPU1001は、補助記憶装置1004にインストールされている各種プログラムを実行する演算デバイスである。 The CPU 1001 is an arithmetic device that executes various programs installed in the auxiliary storage device 1004 .
 ROM1002は、不揮発性メモリである。ROM1002は、補助記憶装置1004にインストールされている各種プログラムをCPU1001が実行するために必要な各種プログラム、データ等を格納する主記憶デバイスとして機能する。具体的には、ROM1002は、BIOS(Basic Input/Output System)やEFI(Extensible Firmware Interface)等のブートプログラム等を格納する、主記憶デバイスとして機能する。 The ROM 1002 is a non-volatile memory. The ROM 1002 functions as a main storage device that stores various programs, data, etc. necessary for the CPU 1001 to execute various programs installed in the auxiliary storage device 1004 . Specifically, the ROM 1002 functions as a main storage device that stores boot programs such as BIOS (Basic Input/Output System) and EFI (Extensible Firmware Interface).
 RAM1003は、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等の揮発性メモリである。RAM1003は、補助記憶装置1004にインストールされている各種プログラムがCPU1001によって実行される際に展開される作業領域を提供する、主記憶デバイスとして機能する。 The RAM 1003 is a volatile memory such as DRAM (Dynamic Random Access Memory) or SRAM (Static Random Access Memory). The RAM 1003 functions as a main storage device that provides a work area that is developed when various programs installed in the auxiliary storage device 1004 are executed by the CPU 1001 .
 補助記憶装置1004は、各種プログラムや、各種プログラムが実行される際に用いられる情報を格納する補助記憶デバイスである。 The auxiliary storage device 1004 is an auxiliary storage device that stores various programs and information used when various programs are executed.
 表示装置1005は、情報処理装置10の内部状態等を表示する表示デバイスである。 The display device 1005 is a display device that displays the internal state of the information processing device 10 and the like.
 操作装置1006は、情報処理装置10を操作する者が情報処理装置10に対して各種指示を入力する入力デバイスである。 The operation device 1006 is an input device through which a person who operates the information processing device 10 inputs various instructions to the information processing device 10 .
 I/F装置1007は、ネットワークに接続し、他の装置と通信を行うための通信デバイスである。 The I/F device 1007 is a communication device for connecting to a network and communicating with other devices.
 ドライブ装置1008は記憶媒体1009をセットするためのデバイスである。ここでいう記憶媒体1009には、CD-ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体が含まれる。また、記憶媒体1009には、EPROM (Erasable Programmable Read Only Memory)、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等が含まれていてもよい。 A drive device 1008 is a device for setting a storage medium 1009 . The storage medium 1009 here includes media such as CD-ROMs, flexible disks, magneto-optical disks, etc., which record information optically, electrically or magnetically. The storage medium 1009 may also include a semiconductor memory that electrically records information such as an EPROM (Erasable Programmable Read Only Memory), a flash memory, or the like.
 なお、補助記憶装置1004にインストールされる各種プログラムは、例えば、配布された記憶媒体1009がドライブ装置1008にセットされ、該記憶媒体1009に記録された各種プログラムがドライブ装置1008により読み出されることでインストールされる。あるいは、補助記憶装置1004にインストールされる各種プログラムは、I/F装置1007を介して、ネットワークよりダウンロードされることでインストールされてもよい。 Various programs to be installed in the auxiliary storage device 1004 are installed by, for example, setting the distributed storage medium 1009 in the drive device 1008 and reading the various programs recorded in the storage medium 1009 by the drive device 1008. be done. Alternatively, various programs installed in the auxiliary storage device 1004 may be installed by being downloaded from the network via the I/F device 1007 .
 情報処理装置10は、撮影装置1010を有する。撮影装置1010は、人物20を撮影する。 The information processing device 10 has an imaging device 1010 . A photographing device 1010 photographs the person 20 .
 以上、本発明の実施例について詳述したが、本発明は上述した特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 Although the embodiments of the present invention have been described in detail above, the present invention is not limited to the specific embodiments described above, and various modifications can be made within the scope of the gist of the present invention described in the claims.・Changes are possible.
 本国際出願は2021年3月11日に出願された日本国特許出願2021-039295号に基づく優先権を主張するものであり、2021-039295号の全内容をここに本国際出願に援用する。 This international application claims priority based on Japanese Patent Application No. 2021-039295 filed on March 11, 2021, and the entire contents of No. 2021-039295 are hereby incorporated into this international application.
10 情報処理装置
20 人物
101 撮影部
102 特定部
103 決定部
104 選択部
105 重畳部
106 表示部
1001 CPU
1002 ROM
1003 RAM
1004 補助記憶装置
1005 表示装置
1006 操作装置
1007 I/F装置
1008 ドライブ装置
1009 記憶媒体
1010 撮影装置
10 information processing device 20 person 101 photographing unit 102 identifying unit 103 determining unit 104 selecting unit 105 superimposing unit 106 display unit 1001 CPU
1002 ROMs
1003 RAM
1004 auxiliary storage device 1005 display device 1006 operation device 1007 I/F device 1008 drive device 1009 storage medium 1010 imaging device

Claims (18)

  1.  画像中の人物に基づいて、物体の位置および姿勢を決定する決定部と、
     前記画像と、決定された前記位置および前記姿勢である前記物体のCG画像と、を重畳する重畳部と、
     重畳された重畳画像を表示する表示部と
     を備えた情報処理装置。
    a determiner that determines the position and pose of the object based on the person in the image;
    a superimposing unit that superimposes the image and a CG image of the object at the determined position and orientation;
    An information processing device comprising: a display unit that displays a superimposed image.
  2.  前記画像は、リアルタイム画像である、請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the image is a real-time image.
  3.  前記画像は、事前に撮影済みの画像である、請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the image is an image that has been captured in advance.
  4.  前記決定部は、前記人物の少なくとも手の位置および姿勢に基づいて、前記物体の前記位置および前記姿勢を決定する、請求項1から3のいずれか一項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 3, wherein the determination unit determines the position and orientation of the object based on at least the position and orientation of the hand of the person.
  5.  前記決定部は、前記人物の手または前記人物が所持する物と前記人物の顔との接触点に基づいて、前記物体の前記位置および前記姿勢を決定する、請求項1から3のいずれか一項に記載の情報処理装置。 4. The determining unit determines the position and posture of the object based on a contact point between the person's hand or an object held by the person and the person's face. The information processing device according to the item.
  6.  前記決定部は、前記人物の顔の位置および姿勢に基づいて、前記物体の前記位置および前記姿勢を決定する、請求項1から3のいずれか一項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 3, wherein the determination unit determines the position and orientation of the object based on the position and orientation of the face of the person.
  7.  前記重畳部は、前記人物の身体の一部のCG画像をさらに重畳する、請求項1から6のいずれか一項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 6, wherein the superimposing unit further superimposes a CG image of a part of the person's body.
  8.  前記決定部は、人物の身体の一部と物体の位置および姿勢との対応関係に基づいて、前記物体の前記位置および前記姿勢を決定する、請求項1から7のいずれか一項に記載の情報処理装置。 8. The determining unit according to any one of claims 1 to 7, wherein the determination unit determines the position and orientation of the object based on a correspondence relationship between a part of a person's body and the position and orientation of the object. Information processing equipment.
  9.  前記人物は、美容に関する行為をしている、請求項1から8のいずれか一項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 8, wherein the person is engaged in an action related to beauty.
  10.  前記物体のCG画像は、前記物体が前記人物に対して美容に関する行為をしているCG画像である、請求項9に記載の情報処理装置。 The information processing apparatus according to claim 9, wherein the CG image of the object is a CG image of the object performing an action related to beauty on the person.
  11.  前記物体のCG画像は、顔の形状に対して前記物体が美容に関する行為をしている様子を撮影した動画を用いて作成される、請求項10に記載の情報処理装置。 The information processing apparatus according to claim 10, wherein the CG image of the object is created using a moving image of the object performing an action related to beauty with respect to the shape of the face.
  12.  前記物体のCG画像は、美容に関する行為をしている人物またはキャラクタの少なくとも手と、前記美容に関する行為をしている人物またはキャラクタが所持する物と、のCG画像である、請求項10または11に記載の情報処理装置。 12. The CG image of the object is a CG image of at least a hand of a person or character performing an action related to beauty and an object held by the person or character performing an action related to beauty. The information processing device according to .
  13.  前記物体は、過去に前記人物に対して美容に関する行為をしたことがある人物である、請求項10から12のいずれか一項に記載の情報処理装置。 The information processing apparatus according to any one of claims 10 to 12, wherein the object is a person who has performed an action related to beauty on the person in the past.
  14.  前記物体を選択する選択部、をさらに備えた請求項1から13のいずれか一項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 13, further comprising a selection unit that selects the object.
  15.  コンピュータが実行する方法であって、
     画像中の人物に基づいて、物体の位置および姿勢を決定するステップと、
     前記画像と、決定された前記位置および前記姿勢である前記物体のCG画像と、を重畳するステップと、
     重畳された重畳画像を表示するステップと
     を含む方法。
    A computer implemented method comprising:
    determining the position and pose of an object based on the person in the image;
    superimposing the image and a CG image of the object at the determined position and pose;
    and displaying a superimposed superimposed image.
  16.  コンピュータを
     画像中の人物に基づいて、物体の位置および姿勢を決定する決定部、
     前記画像と、決定された前記位置および前記姿勢である前記物体のCG画像と、を重畳する重畳部、
     重畳された重畳画像を表示する表示部
     として機能させるためのプログラム。
    a determination unit that determines the position and pose of an object based on the person in the image;
    a superimposition unit that superimposes the image and a CG image of the object at the determined position and orientation;
    A program for functioning as a display unit that displays superimposed images.
  17.  情報処理装置とサーバとを含むシステムであって、
     画像中の人物に基づいて、物体の位置および姿勢を決定する決定部と、
     前記画像と、決定された前記位置および前記姿勢である前記物体のCG画像と、を重畳する重畳部と、
     重畳された重畳画像を表示する表示部と
     を備えたシステム。
    A system including an information processing device and a server,
    a determiner that determines the position and pose of the object based on the person in the image;
    a superimposing unit that superimposes the image and a CG image of the object at the determined position and orientation;
    A system comprising: a display unit for displaying a superimposed superimposed image;
  18.  画像を閲覧しながら美容に関する行為をする美容方法であって、
     前記画像は、
     画像中の人物に基づいて、物体の位置および姿勢が決定され、
     前記画像と、決定された前記位置および前記姿勢である前記物体のCG画像と、が重畳された重畳画像である、美容方法。
    A beauty method for performing beauty-related actions while viewing images,
    The image is
    Based on the person in the image, the position and pose of the object are determined,
    A cosmetic method, wherein the image and a CG image of the object having the determined position and posture are superimposed on each other to form a superimposed image.
PCT/JP2022/008552 2021-03-11 2022-03-01 Information processing device, method, program, system, and beauty care method WO2022190954A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202280014549.9A CN116888634A (en) 2021-03-11 2022-03-01 Information processing device, information processing method, information processing program, information processing system, and cosmetic method
JP2023505321A JPWO2022190954A1 (en) 2021-03-11 2022-03-01

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021039295 2021-03-11
JP2021-039295 2021-03-11

Publications (1)

Publication Number Publication Date
WO2022190954A1 true WO2022190954A1 (en) 2022-09-15

Family

ID=83226609

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/008552 WO2022190954A1 (en) 2021-03-11 2022-03-01 Information processing device, method, program, system, and beauty care method

Country Status (3)

Country Link
JP (1) JPWO2022190954A1 (en)
CN (1) CN116888634A (en)
WO (1) WO2022190954A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012181688A (en) * 2011-03-01 2012-09-20 Sony Corp Information processing device, information processing method, information processing system, and program
WO2016121329A1 (en) * 2015-01-29 2016-08-04 パナソニックIpマネジメント株式会社 Image processing device, stylus, and image processing method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012181688A (en) * 2011-03-01 2012-09-20 Sony Corp Information processing device, information processing method, information processing system, and program
WO2016121329A1 (en) * 2015-01-29 2016-08-04 パナソニックIpマネジメント株式会社 Image processing device, stylus, and image processing method

Also Published As

Publication number Publication date
CN116888634A (en) 2023-10-13
JPWO2022190954A1 (en) 2022-09-15

Similar Documents

Publication Publication Date Title
CN110363867B (en) Virtual decorating system, method, device and medium
CN111787242B (en) Method and apparatus for virtual fitting
US10559102B2 (en) Makeup simulation assistance apparatus, makeup simulation assistance method, and non-transitory computer-readable recording medium storing makeup simulation assistance program
US11482041B2 (en) Identity obfuscation in images utilizing synthesized faces
JP6448869B2 (en) Image processing apparatus, image processing system, and program
WO2018076622A1 (en) Image processing method and device, and terminal
US20210166460A1 (en) Information processing apparatus and information processing method
KR20200094768A (en) Stroke special effect program file package creation and stroke special effect creation method and apparatus
WO2015017687A2 (en) Systems and methods for producing predictive images
JP2023531264A (en) Systems and methods for improved facial attribute classification and its use
JP6656572B1 (en) Information processing apparatus, display control method, and display control program
KR101719927B1 (en) Real-time make up mirror simulation apparatus using leap motion
JP2013178789A (en) Beauty simulation system
WO2022190954A1 (en) Information processing device, method, program, system, and beauty care method
JP2006260198A (en) Virtual makeup device, method, and program
JP6710095B2 (en) Technical support device, method, program and system
JP7314509B2 (en) Information processing device, information processing method and program
Xu et al. Affect-preserving privacy protection of video
CN116452745A (en) Hand modeling, hand model processing method, device and medium
CN110750154A (en) Display control method, system, device, equipment and storage medium
JP2017004258A (en) Image processing apparatus, image processing method, and program
CN113298593A (en) Commodity recommendation and image detection method, commodity recommendation and image detection device, commodity recommendation and image detection equipment and storage medium
TW201945898A (en) Information processing device and program
KR20200136979A (en) Methods and systems to improve user compliance for surface-coated products
JP2022186294A (en) Information processing device, method, program, and system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22766913

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023505321

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 202280014549.9

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22766913

Country of ref document: EP

Kind code of ref document: A1