JP2024008639A - Information processor, method for processing information, and information processing program - Google Patents

Information processor, method for processing information, and information processing program Download PDF

Info

Publication number
JP2024008639A
JP2024008639A JP2022110664A JP2022110664A JP2024008639A JP 2024008639 A JP2024008639 A JP 2024008639A JP 2022110664 A JP2022110664 A JP 2022110664A JP 2022110664 A JP2022110664 A JP 2022110664A JP 2024008639 A JP2024008639 A JP 2024008639A
Authority
JP
Japan
Prior art keywords
image
user
compositing
information processing
target image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022110664A
Other languages
Japanese (ja)
Inventor
紗記子 西
Sakiko Nishi
一絵 井駒
Ichie Ikoma
正 江森
Tadashi Emori
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ly Corp
Original Assignee
Ly Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ly Corp filed Critical Ly Corp
Priority to JP2022110664A priority Critical patent/JP2024008639A/en
Publication of JP2024008639A publication Critical patent/JP2024008639A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

To provide an appropriate content regarding a synthesis image.SOLUTION: The information processor according to the present application includes: a determination unit for determining whether a synthesization target image is an appropriate image appropriate for synthesization; and a provision unit for providing a content for synthesizing the synthesization target image and a taken image taken by a user when the determination unit determines that the synthesization target image is an appropriate image.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理方法および情報処理プログラムに関する。 The present invention relates to an information processing device, an information processing method, and an information processing program.

近年、インターネットを介して提供されるコンテンツとして、拡張現実(AR;Augmented Reality)が普及しつつある。このようなARにおいては、たとえば、仮想的な視点から見た3次元データを撮像画像に対して重畳表示した合成画像を提供する(例えば、特許文献1参照)。 In recent years, augmented reality (AR) has become popular as content provided via the Internet. In such AR, for example, a composite image is provided in which three-dimensional data viewed from a virtual viewpoint is displayed superimposed on a captured image (see, for example, Patent Document 1).

特許第7072706号公報Patent No. 7072706

しかしながら、従来技術では、合成画像に関する適切なコンテンツを提供するうえで改善の余地があった。 However, in the conventional technology, there is room for improvement in providing appropriate content regarding composite images.

本発明は、上記に鑑みてなされたものであって、合成画像に関する適切なコンテンツを提供することができる情報処理装置、情報処理方法および情報処理プログラムを提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide an information processing device, an information processing method, and an information processing program that can provide appropriate content related to composite images.

上述した課題を解決し、目的を達成するために、本発明に係る情報処理装置は、合成対象画像が合成に適した適正画像であるか否かを判定する判定部と、前記判定部によって前記合成対象画像が前記適正画像であると判定された場合に、前記合成対象画像と、ユーザによって撮影される撮影画像とを合成するためのコンテンツを提供する提供部と、を備えることを特徴とする。 In order to solve the above-mentioned problems and achieve the objects, an information processing device according to the present invention includes a determination unit that determines whether a composition target image is an appropriate image suitable for composition, and a determination unit that determines whether the composition target image is an appropriate image suitable for composition. The present invention is characterized by comprising a provision unit that provides content for compositing the compositing target image and a photographed image taken by a user when it is determined that the compositing target image is the appropriate image. .

本発明によれば、合成画像に関する適切なコンテンツを提供することができる。 According to the present invention, appropriate content regarding a composite image can be provided.

図1は、実施形態に係る情報処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of information processing according to an embodiment. 図2は、実施形態に係る情報処理の具体例を示す図(その1)である。FIG. 2 is a diagram (part 1) showing a specific example of information processing according to the embodiment. 図3は、実施形態に係る情報処理の具体例を示す図(その2)である。FIG. 3 is a diagram (part 2) showing a specific example of information processing according to the embodiment. 図4は、実施形態に係る情報提供装置の構成例を示すブロック図である。FIG. 4 is a block diagram illustrating a configuration example of an information providing apparatus according to an embodiment. 図5は、実施形態に係る投稿情報データベースの一例を示す図である。FIG. 5 is a diagram illustrating an example of a posted information database according to the embodiment. 図6は、実施形態に係る端末装置の構成例を示すブロック図である。FIG. 6 is a block diagram illustrating a configuration example of a terminal device according to an embodiment. 図7は、実施形態に係る推定処理の概要を示す図である。FIG. 7 is a diagram showing an overview of estimation processing according to the embodiment. 図8は、実施形態に係る合成画像の一例を示す図である。FIG. 8 is a diagram illustrating an example of a composite image according to the embodiment. 図9は、実施形態に係る適正画像に関する表示の一例を示す図である。FIG. 9 is a diagram illustrating an example of a display regarding an appropriate image according to the embodiment. 図10は、実施形態に係る情報提供装置が実行する処理の一例を示すフローチャートである。FIG. 10 is a flowchart illustrating an example of a process executed by the information providing apparatus according to the embodiment. 図11は、実施形態に係る端末装置が実行する処理の一例を示すフローチャート(その1)である。FIG. 11 is a flowchart (Part 1) illustrating an example of a process executed by the terminal device according to the embodiment. 図12は、実施形態に係る端末装置が実行する処理の一例を示すフローチャート(その2)である。FIG. 12 is a flowchart (Part 2) illustrating an example of a process executed by the terminal device according to the embodiment. 図13は、実施形態に係る端末装置が実行する処理の一例を示すフローチャート(その3)である。FIG. 13 is a flowchart (part 3) illustrating an example of a process executed by the terminal device according to the embodiment. 図14は、実施形態に係る端末装置が実行する処理の一例を示すフローチャート(その4)である。FIG. 14 is a flowchart (Part 4) illustrating an example of a process executed by the terminal device according to the embodiment. 図15は、実施形態に係る情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 15 is a hardware configuration diagram showing an example of a computer that implements the functions of the information processing device according to the embodiment.

以下に、本願に係る情報処理装置、情報処理方法および情報処理プログラムを実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法および情報処理プログラムが限定されるものではない。 DESCRIPTION OF THE PREFERRED EMBODIMENTS An information processing apparatus, an information processing method, and an embodiment of an information processing program (hereinafter referred to as "embodiments") according to the present application will be described in detail below with reference to the drawings. Note that the information processing apparatus, information processing method, and information processing program according to the present application are not limited to this embodiment.

[実施形態]
〔1.情報処理〕
まず、図1を用いて、実施形態に係る情報処理の一例について説明する。図1は、実施形態に係る情報処理の一例を示す図である。なお、以下では、実施形態に係る情報処理装置が、端末装置10である場合について説明するが、情報提供装置100であってもよい。
[Embodiment]
[1. Information processing〕
First, an example of information processing according to the embodiment will be described using FIG. 1. FIG. 1 is a diagram illustrating an example of information processing according to an embodiment. In addition, although the case where the information processing apparatus based on embodiment is the terminal device 10 is demonstrated below, the information provision apparatus 100 may be sufficient.

図1に示す実施形態に係る情報提供装置100は、例えば、SNS(Social Networking Service)を運営する情報処理装置である。例えば、情報提供装置100は、各ヘアサロンなどの投稿者によって投稿された投稿情報を閲覧者となるユーザUの端末装置10に対して配信する。 The information providing apparatus 100 according to the embodiment shown in FIG. 1 is, for example, an information processing apparatus that operates an SNS (Social Networking Service). For example, the information providing device 100 distributes posted information posted by posters such as hair salons to the terminal device 10 of the user U who is the viewer.

このようなSNSの提供に際して、情報提供装置100は、ユーザUを撮影したユーザ画像にSNSに投稿されたヘアスタイルを合成することで、ユーザUが色々なヘアスタイルを試すことが可能なヘアスタイルシミュレーションに関するサービスを提供する。 When providing such an SNS, the information providing device 100 creates a hairstyle that allows the user U to try out various hairstyles by combining a user image taken of the user U with a hairstyle posted on the SNS. Provide simulation-related services.

また、図1に示す端末装置10は、ユーザUによって操作される端末である。例えば、端末装置10は、ユーザUによる操作によって、情報提供装置100から提供されるSNSの閲覧ページを表示する。また、端末装置10は、ユーザUのユーザ画像に対し、SNSに投稿されたヘアスタイルを合成した合成画像を生成し、生成した合成画像を表示する。 Further, the terminal device 10 shown in FIG. 1 is a terminal operated by a user U. For example, the terminal device 10 displays an SNS viewing page provided by the information providing device 100 in response to an operation by the user U. Further, the terminal device 10 generates a composite image by combining the hairstyle posted on the SNS with the user image of the user U, and displays the generated composite image.

具体的には。図1に示すように、情報提供装置100は、投稿者である美容室、ヘアサロン、スタイリスト等から投稿情報を取得する(ステップS1)。 in particular. As shown in FIG. 1, the information providing device 100 acquires posted information from a poster, such as a beauty salon, hair salon, stylist, etc. (step S1).

つづいて、情報提供装置100は、端末装置10によるアクセスに基づき、ユーザUの閲覧ページを生成したうえで、生成した閲覧ページを端末装置10へ提供する(ステップS2)。閲覧ページを受け取った端末装置10は、画面に閲覧ページを表示する(ステップS3)。なお、閲覧ページの具体例については、図2等を用いて後述する。 Subsequently, the information providing device 100 generates a viewing page for the user U based on the access by the terminal device 10, and then provides the generated viewing page to the terminal device 10 (step S2). The terminal device 10 that received the viewing page displays the viewing page on the screen (step S3). Note that a specific example of the viewing page will be described later using FIG. 2 and the like.

つづいて、端末装置10は、閲覧ページに表示された投稿画像の中からユーザUによる操作に基づき、合成対象画像を決定する(ステップS4)。なお、ここでの合成対象画像は、各投稿者によって投稿された投稿画像であり、ヘアスタイルを撮影した画像である。 Subsequently, the terminal device 10 determines an image to be combined from among the posted images displayed on the viewing page based on the operation by the user U (step S4). Note that the images to be synthesized here are posted images posted by each poster, and are images of hairstyles.

すなわち、ユーザUは、任意の合成対象画像を閲覧ページから選択することができる。また、後述するように、端末装置10は、例えば、合成対象画像が合成に適した適正画像か否かを判定し、判定結果に基づき、適正画像についてのみ合成対象画像として選択を受け付けることができる。 That is, the user U can select any image to be combined from the viewing page. Furthermore, as will be described later, the terminal device 10 can, for example, determine whether or not the compositing target image is an appropriate image suitable for compositing, and based on the determination result, accept selection of only the appropriate image as the compositing target image. .

つづいて、端末装置10は、合成対象画像と合成するユーザ画像を取得する(ステップS5)。例えば、端末装置10は、カメラで新たにユーザ画像を撮影する、あるいは、メモリから過去に撮影したユーザ画像を読み出すことで、ユーザ画像を取得する。 Subsequently, the terminal device 10 acquires a user image to be combined with the combination target image (step S5). For example, the terminal device 10 acquires a user image by photographing a new user image with a camera, or by reading a previously photographed user image from memory.

つづいて、端末装置10は、合成対象画像と、ユーザ画像とを合成した合成画像を生成する。例えば、端末装置10は、合成対象画像と、ユーザ画像を合成モデルに入力することで、合成画像を生成する。ここでの合成モデルは、ユーザ画像と、合成対象画像とを入力したときに、ユーザUが合成対象画像に映るヘアスタイルにした場合の画像を出力するように学習されたモデルである。なお、合成モデルについては、ユーザ画像の顔領域が選択されると、その顔領域については変動を行わないように、ヘアスタイルだけ変動させた画像を出力するモデル等、任意のモデルが採用可能である。 Subsequently, the terminal device 10 generates a composite image by combining the composition target image and the user image. For example, the terminal device 10 generates a composite image by inputting the composition target image and the user image into a composition model. The compositing model here is a model that has been trained to output an image when the user U has a hairstyle that appears in the compositing target image when the user image and the compositing target image are input. Regarding the synthesis model, any model can be adopted, such as a model that outputs an image in which only the hairstyle is changed so that when a face area of the user image is selected, the face area is not changed. be.

そして、端末装置10は、ユーザUに対し合成した合成画像を提供する(ステップS7)。これにより、ユーザUは、SNSに投稿された投稿画像のヘアスタイルを試すことができるので、ユーザUにとって利便性の高いサービスを提供することができる。 Then, the terminal device 10 provides the synthesized image to the user U (step S7). Thereby, the user U can try out the hairstyle of the posted image posted on the SNS, so it is possible to provide a highly convenient service for the user U.

ところで、このようなヘアスタイルシミュレーションに関するサービスを提供するにあたり、SNSには、各投稿者によって撮影されたヘアスタイルが投稿される。そのため、投稿された画像には、合成に適した適正画像と、合成に適していない不適画像とが含まれることになる。 By the way, in providing such a service related to hairstyle simulation, hairstyles photographed by each poster are posted on the SNS. Therefore, the posted images include appropriate images suitable for compositing and inappropriate images not suitable for compositing.

具体的には、各投稿者は、任意に被写体となるヘアモデルを撮影した画像を投稿することができるので、投稿画像には様々な角度からヘアモデルを撮影した画像が含まれることになる。 Specifically, since each poster can arbitrarily post an image of a hair model as a subject, the posted images include images of the hair model taken from various angles.

一方で、例えば、ヘアスタイルシミュレーションを行うにあたっては、ユーザUの顔と投稿画像のヘアスタイルを行うため、ユーザ画像に映るユーザUの顔の向きと、合成対象画像に映るヘアモデルの顔の向きの誤差が少なく、さらには、合成後の合成画像においては、ユーザUの顔を認識しやすいことが望まれる。 On the other hand, for example, when performing a hairstyle simulation, in order to perform the hairstyle of the user U's face and the posted image, the direction of the user U's face reflected in the user image and the direction of the hair model's face reflected in the compositing target image are determined. It is desired that the error in the image is small and that the face of the user U is easily recognized in the composite image after composition.

そこで、実施形態に係る情報処理では、合成適正画像が適正画像であるか否かを判定し、適正画像についてのみ合成画像を合成するためのコンテンツを提供することとした。 Therefore, in the information processing according to the embodiment, it is decided whether or not the appropriate image to be combined is an appropriate image, and content for combining the combined image only for the appropriate image is provided.

また、例えば、ユーザUが合成対象画像を選択後にユーザ画像を撮影する場合には、ユーザ画像を撮影するにあたり、合成に適したユーザ画像の撮影が容易であることが望まれる。そこで、実施形態に係る情報処理では、各投稿者によって投稿された投稿画像について、適正画像か否かを判定するとともに、ユーザUが選択した適正画像に基づき、ユーザ画像を適切に撮影するための撮影コンテンツを提供する。 Further, for example, when the user U selects an image to be combined and then photographs a user image, it is desired that the user image suitable for composition be easily photographed. Therefore, in the information processing according to the embodiment, it is determined whether or not the posted image posted by each poster is an appropriate image, and based on the appropriate image selected by the user U, the information processing for appropriately photographing the user image is performed. Provide shooting content.

図2および図3は、実施形態に係る情報処理の具体例を示す図である。図2に示すように、端末装置10には、閲覧ページP1が表示される。例えば、閲覧ページP1には、各投稿画像が一覧表示される一覧画像領域GLや検索窓などが表示される。 2 and 3 are diagrams showing specific examples of information processing according to the embodiment. As shown in FIG. 2, a viewing page P1 is displayed on the terminal device 10. For example, the viewing page P1 displays a list image area GL in which posted images are displayed as a list, a search window, and the like.

例えば、ユーザUは、一覧画像領域GLに表示された投稿画像を選択すると、閲覧ページP1から詳細ページP2へ画面遷移する。詳細ページP2においては、ユーザUが選択した投稿画像に関する詳細画像GR、詳細画像GRに関する説明文TRや、投稿者に関する情報、「いいね」の数などが表示される。 For example, when the user U selects a posted image displayed in the list image area GL, the screen transitions from the viewing page P1 to the details page P2. In the details page P2, a detailed image GR regarding the posted image selected by the user U, an explanatory text TR regarding the detailed image GR, information regarding the poster, the number of "likes", etc. are displayed.

また、詳細画像GRには、詳細画像GRが合成に適した適正画像である場合には、合成対象画像と、ユーザによって撮影される撮影画像とを合成へ移行する合成アイコンC1が表示される。 Further, in the detailed image GR, when the detailed image GR is an appropriate image suitable for composition, a composition icon C1 is displayed that moves the composition target image and the photographed image photographed by the user to composition.

例えば、端末装置10は、詳細画像GRの被写体の顔の向きを3軸で推定するモデルを用いて、詳細画像GRの被写体の顔の向きを推定し、例えば、被写体の顔が正面方向を向いている場合などの所定条件を満たす場合に、詳細画像GRについて合成アイコンC1が表示する。 For example, the terminal device 10 estimates the orientation of the face of the subject in the detailed image GR using a model that estimates the orientation of the face of the subject in the detailed image GR on three axes. When a predetermined condition is satisfied, such as when the detailed image GR is displayed, a composite icon C1 is displayed for the detailed image GR.

つまり、ユーザUは、詳細ページP2の合成アイコンC1の表示の有無によって、詳細画像GRが適正画像であるか否かを容易に認識することができる。次いで、ユーザUが合成アイコンC1を選択すると、詳細ページP2からユーザ画像の選択ページP3へ画面遷移が行われる。なお、合成アイコンC1が選択された場合、選択ページP3に代えて、新たにユーザ画像を撮影する撮影画面に移行することも可能である。 That is, the user U can easily recognize whether or not the detailed image GR is an appropriate image based on whether or not the composite icon C1 is displayed on the detailed page P2. Next, when the user U selects the composite icon C1, the screen transitions from the details page P2 to the user image selection page P3. Note that when the composite icon C1 is selected, it is also possible to move to a shooting screen for shooting a new user image instead of the selection page P3.

選択ページP3においては、端末装置10に予め登録された画像を選択することが可能であり、例えば、ガイドC2が表示される。例えば、ガイドC2は、合成画像を合成するにあたり、ユーザ画像に映るユーザUの顔の位置、大きさ、体の向きなどをサジェストするものである。例えば、ユーザUは、ガイドC2に合うような画像を選択することで、端末装置10は、適切な合成画像を合成することができる。 On the selection page P3, it is possible to select an image registered in advance in the terminal device 10, and for example, a guide C2 is displayed. For example, the guide C2 suggests the position, size, body orientation, etc. of the user U's face in the user image when composing a composite image. For example, the user U can select an image that matches the guide C2, and the terminal device 10 can synthesize an appropriate composite image.

このように、端末装置10は、適正画像である詳細画像GRについては、合成に移行するための合成アイコンC1を表示し、詳細画像GRとユーザ画像とを合成するための合成コンテンツを提供する。 In this way, the terminal device 10 displays the synthesis icon C1 for transitioning to synthesis for the detailed image GR, which is an appropriate image, and provides synthesis content for synthesizing the detailed image GR and the user image.

また、図3に示すように、詳細ページP2に表示された合成アイコンC1が選択された場合に、詳細ページP2から撮影ページP4へ画面遷移する。この場合、端末装置10は、ユーザ画像を撮影するための撮影コンテンツを提供する。 Further, as shown in FIG. 3, when the composite icon C1 displayed on the details page P2 is selected, the screen transitions from the details page P2 to the photographing page P4. In this case, the terminal device 10 provides photographic content for photographing a user image.

例えば、端末装置10は、詳細画像GRに基づき、ユーザ画像の撮影条件を設定したうえで、撮影コンテンツを提供する。端末装置10は、詳細画像GRに映る被写体の顔の向きを推定し、ユーザ画像に映るユーザUの顔の向きが略同じになるような撮影条件を設定する。そして、例えば、端末装置10は、撮影中のカメラに映るユーザUの顔の向きを逐次推定し、例えば、ユーザUの顔の向きが撮影条件を満たした場合に、撮影ボタンC3をアクティブにする。 For example, the terminal device 10 sets shooting conditions for a user image based on the detailed image GR, and then provides shooting content. The terminal device 10 estimates the direction of the face of the subject shown in the detailed image GR, and sets shooting conditions such that the direction of the face of the user U shown in the user image is substantially the same. Then, for example, the terminal device 10 sequentially estimates the direction of the user U's face reflected in the camera during shooting, and activates the shooting button C3, for example, when the direction of the user U's face satisfies the shooting condition. .

換言すれば、端末装置10は、撮影条件を満たしていない場合には、撮影ボタンC3をインアクティブにすることになる。つまり、端末装置10は、撮影条件を満たしている場合に、ユーザ画像の撮影を許可することになる。 In other words, the terminal device 10 makes the shooting button C3 inactive when the shooting conditions are not satisfied. In other words, the terminal device 10 allows the user to take a picture if the shooting conditions are met.

これにより、ユーザUは、詳細画像GRに応じた適正なユーザ画像を容易に撮影することが可能となる。なお、撮影コンテンツは、例えば、撮影条件を満たした場合に、音声出力により、その旨をユーザへ通知する、自動でユーザ画像を撮影する、撮影条件と現在のユーザ画像との乖離度について、例えば、バーなどの図形を用いて表示するなど、任意に変更可能である。 Thereby, the user U can easily photograph an appropriate user image according to the detailed image GR. Note that the shooting content includes, for example, notifying the user by audio output when shooting conditions are met, automatically shooting a user image, and determining the degree of deviation between the shooting conditions and the current user image. It can be changed arbitrarily, such as by displaying it using figures such as , bars, etc.

〔2.情報提供装置の構成例〕
次に、図4を用いて、実施形態に係る情報提供装置100の構成例について説明する。図4は、実施形態に係る情報提供装置100の構成例を示すブロック図である。図4に示すように、情報提供装置100は、通信部110と、記憶部120と、制御部130とを有する。
[2. Configuration example of information providing device]
Next, a configuration example of the information providing apparatus 100 according to the embodiment will be described using FIG. 4. FIG. 4 is a block diagram showing a configuration example of the information providing apparatus 100 according to the embodiment. As shown in FIG. 4, the information providing device 100 includes a communication section 110, a storage section 120, and a control section 130.

(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。また、通信部110は、ネットワークと有線又は無線で接続される。
(Communication Department 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card). Further, the communication unit 110 is connected to a network by wire or wirelessly.

(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、ハードディスク、光ディスク等の記憶装置によって実現される。図2に示すように、記憶部120は、投稿情報データベース121と、スコア推定モデルデータベース122と、合成モデルデータベース123とを有する。
(Storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. As shown in FIG. 2, the storage unit 120 includes a posted information database 121, a score estimation model database 122, and a synthetic model database 123.

(投稿情報データベース121)
投稿情報データベース121は、各投稿者によって投稿された投稿情報を格納するデータベースである。図5は、実施形態に係る投稿情報データベース121の一例を示す図である。
(Posted information database 121)
The posted information database 121 is a database that stores posted information posted by each poster. FIG. 5 is a diagram showing an example of the posted information database 121 according to the embodiment.

図5に示すように、投稿情報データベース121は、「投稿ID」、「投稿者ID」、「画像情報」、「テキスト情報」、「スコア」、「撮影条件」などといったなどといった項目を有する。 As shown in FIG. 5, the posted information database 121 includes items such as "posting ID", "poster ID", "image information", "text information", "score", "shooting condition", etc.

「投稿ID」は、投稿情報を識別するための識別子であり、「投稿者ID」は、投稿者を識別するための識別子である。「画像情報」は、投稿情報に含まれる画像に関する情報(投稿画像)である。「テキスト情報」は、投稿情報に含まれるテキスト情報(例えば、投稿画像に関する説明文、ハッシュタグ、閲覧者によるコメント)である。 "Post ID" is an identifier for identifying posted information, and "poster ID" is an identifier for identifying a poster. “Image information” is information regarding images (posted images) included in posted information. "Text information" is text information included in posted information (for example, an explanatory text regarding a posted image, a hashtag, a comment by a viewer).

「スコア」は、投稿情報に含まれる投稿画像に関するスコアである。ここでのスコアは、投稿画像が適正画像であるか否かを示すスコアである。「撮影条件」は、対応する投稿画像を合成対象画像とした場合に、ユーザ画像に求められる撮影条件である。 The "score" is a score related to a posted image included in posted information. The score here is a score indicating whether or not the posted image is an appropriate image. “Photographing conditions” are shooting conditions required for a user image when the corresponding posted image is used as a composition target image.

(スコア推定モデルデータベース122)
図4の説明に戻り、スコア推定モデルデータベース122について説明する。スコア推定モデルデータベース122は、投稿画像が適正画像であるか否かを示すスコアを推定するモデルを格納する。例えば、後述するように、スコア推定モデルは、投稿画像に映る被写体の顔の向きに応じてスコアを出力するモデルである。
(Score estimation model database 122)
Returning to the explanation of FIG. 4, the score estimation model database 122 will be explained. The score estimation model database 122 stores a model for estimating a score indicating whether a posted image is an appropriate image. For example, as will be described later, the score estimation model is a model that outputs a score depending on the orientation of the subject's face in the posted image.

(合成モデルデータベース123)
合成モデルデータベース123は、合成モデルを格納するデータベースである。合成モデルは、合成対象画像である投稿画像と、ユーザ画像とを入力したときにユーザUの顔に合成対象画像のヘアスタイルを合成した合成画像を出力するように学習されたモデルである。
(Synthetic model database 123)
The synthetic model database 123 is a database that stores synthetic models. The compositing model is a model that has been trained to output a composite image in which the hairstyle of the compositing target image is combined with the face of the user U when the posted image, which is the compositing target image, and the user image are input.

(制御部130)
制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等によって、情報提供装置100の内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAM等の記憶領域を作業領域として実行されることにより実現される。図4に示す例では、制御部130は、取得部131と、付与部132と、コンテンツ提供部133とを有する。
(Control unit 130)
The control unit 130 is a controller, and uses, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), an ASIC (Application Specific Integrated Circuit), or an FPGA (Field Programmable Gate Array) to control the information providing apparatus 100. This is achieved by executing various programs (corresponding to an example of an information processing program) stored in an internal storage device using a storage area such as a RAM as a work area. In the example shown in FIG. 4, the control unit 130 includes an acquisition unit 131, a provision unit 132, and a content provision unit 133.

(取得部131)
取得部131は、通信部110を介して、投稿者の端末から投稿情報を取得する。取得部131は、取得した投稿情報を投稿情報データベース121に登録する。また、取得部131は、通信部110を介して、ユーザUの端末装置10から閲覧ページに関する取得要求を取得する。例えば、取得部131は、取得した取得要求に関する情報をコンテンツ提供部133へ渡す。
(Acquisition unit 131)
The acquisition unit 131 acquires posted information from the poster's terminal via the communication unit 110. The acquisition unit 131 registers the acquired posted information in the posted information database 121. Further, the acquisition unit 131 acquires an acquisition request regarding the viewed page from the user U's terminal device 10 via the communication unit 110. For example, the acquisition unit 131 passes information regarding the acquired acquisition request to the content providing unit 133.

(付与部132)
付与部132は、投稿情報データベース121に登録された投稿情報に対し「スコア」や「撮影条件」に関する情報を付与する。例えば、付与部132は、投稿情報の投稿画像をスコア推定するスコア推定モデルデータベース122に登録されたスコア推定モデルに入力することで、投稿画像に関するスコアを取得し、投稿情報データベース121に登録する。
(Giving unit 132)
The adding unit 132 adds information regarding "score" and "shooting conditions" to posted information registered in the posted information database 121. For example, the assigning unit 132 obtains a score regarding the posted image by inputting it into a score estimation model registered in the score estimation model database 122 that estimates the score of the posted image of posted information, and registers it in the posted information database 121.

また、付与部132は、投稿情報に映る被写体の顔の向きについて、モデルを用いて推定し、その顔の向きに基づいて撮影条件を設定し、投稿情報データベース121に登録する。なお、付与部132による一連の処理については、各端末装置10側で行うようにしてもよい。 Further, the providing unit 132 uses a model to estimate the direction of the face of the subject appearing in the posted information, sets shooting conditions based on the direction of the face, and registers the shooting conditions in the posted information database 121. Note that the series of processing by the adding unit 132 may be performed on each terminal device 10 side.

(コンテンツ提供部133)
コンテンツ提供部133は、通信部110を開始、ユーザUの端末装置10に対し、各種コンテンツを提供する。例えば、コンテンツ提供部133は、端末装置10により要求に基づき、SNSの閲覧ページを生成し、端末装置10に対して提供する。
(Content providing unit 133)
The content providing unit 133 starts the communication unit 110 and provides various types of content to the terminal device 10 of the user U. For example, the content providing unit 133 generates an SNS viewing page based on a request from the terminal device 10 and provides it to the terminal device 10 .

また、コンテンツ提供部133は、合成対象画像と、ユーザ画像とを合成するための各種コンテンツ(例えば、アプリ)を提供する。コンテンツ提供部133は、例えば、合成対象画像、あるいは、ユーザ画像に映る被写体の顔の向きを推定するモデル、合成対象画像およびユーザ画像を合成するための合成モデルなどといたコンテンツを提供する。 Further, the content providing unit 133 provides various types of content (for example, applications) for compositing the compositing target image and the user image. The content providing unit 133 provides content such as a synthesis target image, a model for estimating the orientation of a subject's face in a user image, and a synthesis model for synthesizing the synthesis target image and the user image.

なお、上記のモデルは、任意の種別のモデルが採用可能である。例えば、SVM(Support Vector Machine)やDNN(Deep Neural Network)をモデルとして採用してもよい。ここで、DNNは、CNN(Convolutional Neural Network)やRNN(Recurrent Neural Network)であってもよい。また、RNNは、LSTM(Long short-term memory)等であってもよい。すなわち、モデルは、任意の形式のモデルが採用可能である。また、モデルは、例えば、CNNとRNNとを組み合わせたモデル等、複数のモデルを組み合わせることで実現されるモデルであってもよい。 Note that any type of model can be adopted as the above model. For example, SVM (Support Vector Machine) or DNN (Deep Neural Network) may be adopted as a model. Here, the DNN may be a CNN (Convolutional Neural Network) or an RNN (Recurrent Neural Network). Further, the RNN may be LSTM (Long short-term memory) or the like. That is, any type of model can be adopted as the model. Further, the model may be a model realized by combining a plurality of models, such as a model combining CNN and RNN.

学習は、例えばディープニューラルネットワーク(DNN:Deep Neural Network)を利用したディープラーニング(深層学習)等である。また、データマイニングやその他の機械学習アルゴリズムを利用してもよい。 The learning is, for example, deep learning using a deep neural network (DNN). Data mining and other machine learning algorithms may also be used.

〔3.端末装置の構成例〕
次に、図6を用いて、実施形態に係る端末装置10の構成例について説明する。図6は、実施形態に係る端末装置10の構成例を示すブロック図である。図6に示すように、端末装置10は、通信部11と、表示部12と、入力部13と、カメラ20と、制御部30と、記憶部40とを有する。
[3. Configuration example of terminal device]
Next, a configuration example of the terminal device 10 according to the embodiment will be described using FIG. 6. FIG. 6 is a block diagram showing a configuration example of the terminal device 10 according to the embodiment. As shown in FIG. 6, the terminal device 10 includes a communication section 11, a display section 12, an input section 13, a camera 20, a control section 30, and a storage section 40.

(通信部11)
通信部11は、例えば、NIC(Network Interface Card)等によって実現される。また、通信部110は、ネットワークと有線又は無線で接続される。
(Communication Department 11)
The communication unit 11 is realized by, for example, a NIC (Network Interface Card). Further, the communication unit 110 is connected to a network by wire or wirelessly.

(表示部12)
表示部12は、例えば、制御部30から入力される映像を表示する各種ディスプレイである。
(Display section 12)
The display unit 12 is, for example, a variety of displays that display images input from the control unit 30.

(入力部13)
入力部13は、ユーザUが各種操作の入力デバイスである。入力部13は、キーボード、マウス、あるいは、マイクであるが、表示部12がタッチパネルディスプレイである場合には、表示部12と入力部13とは一体に形成される。
(Input section 13)
The input unit 13 is an input device for the user U to perform various operations. The input section 13 is a keyboard, a mouse, or a microphone, but when the display section 12 is a touch panel display, the display section 12 and the input section 13 are integrally formed.

(カメラ20)
カメラ20は、各種撮像素子を有する撮像装置である。なお、図6では、カメラ20が端末装置10に内包される場合を示しているが、カメラ20は、端末装置10に外付けされたものであってもよい。
(Camera 20)
The camera 20 is an imaging device that includes various imaging elements. Note that although FIG. 6 shows a case where the camera 20 is included in the terminal device 10, the camera 20 may be externally attached to the terminal device 10.

(記憶部40)
記憶部40は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部40は、例えば、カメラ20によって撮影されたユーザ画像、情報提供装置100から送信される各種情報を記憶する。
(Storage unit 40)
The storage unit 40 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 40 stores, for example, a user image photographed by the camera 20 and various information transmitted from the information providing device 100.

(制御部30)
制御部30は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等によって、情報提供装置100の内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAM等の記憶領域を作業領域として実行されることにより実現される。図6に示す例では、制御部130は、取得部31と、受付部32と、推定部33と、判定部34と、生成部35と、提供部36とを有する。
(Control unit 30)
The control unit 30 is a controller, and uses, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), an ASIC (Application Specific Integrated Circuit), or an FPGA (Field Programmable Gate Array) to control the information providing device 100. This is realized by executing various programs (corresponding to an example of an information processing program) stored in an internal storage device using a storage area such as a RAM as a work area. In the example shown in FIG. 6 , the control unit 130 includes an acquisition unit 31 , a reception unit 32 , an estimation unit 33 , a determination unit 34 , a generation unit 35 , and a provision unit 36 .

(取得部31)
取得部31は、通信部11を介し、情報提供装置100から各種情報を取得する。例えば、取得部31は、SNSに関する各種コンテンツ、合成画像を生成するための各種コンテンツを取得する。
(Acquisition unit 31)
The acquisition unit 31 acquires various information from the information providing device 100 via the communication unit 11. For example, the acquisition unit 31 acquires various contents related to SNS and various contents for generating a composite image.

(受付部32)
受付部32は、入力部13を介し、ユーザUによる各種操作を受け付ける。例えば、受付部32は、例えば、図2に示す閲覧ページP1に対する合成対象画像の選択操作等を受け付ける。
(Reception Department 32)
The reception unit 32 receives various operations by the user U via the input unit 13. For example, the accepting unit 32 accepts, for example, an operation for selecting an image to be combined with respect to the viewing page P1 shown in FIG. 2 .

(推定部33)
推定部33は、ユーザUによって選択された合成対象画像に映る被写体の顔の向き、あるいは、カメラ20で撮影中の撮影画像に映るユーザUの顔の向きを推定する。例えば、推定部33は、各画像に映る被写体の顔の向きを推定する推定モデルを用いて被写体の顔の向きを推定する。例えば、推定部33は、被写体の顔の向きを端末装置10上で学習したオンデバイスAIを用いて、被写体の顔の向きを推定する。
(Estimation unit 33)
The estimation unit 33 estimates the orientation of the subject's face that appears in the compositing target image selected by the user U, or the orientation of the user's U's face that appears in the captured image that is being captured by the camera 20. For example, the estimation unit 33 estimates the orientation of the subject's face using an estimation model that estimates the orientation of the subject's face in each image. For example, the estimation unit 33 estimates the orientation of the subject's face using on-device AI that has learned the orientation of the subject's face on the terminal device 10.

図7は、実施形態に係る推定処理の概要を示す図である。例えば、図7に示すように、推定部33は、オンデバイスAIによって、被写体の顔の向きを3軸(Roll、Pitch、Yaw)の角度を推定する。すなわち、推定部33は、被写体の顔の向き、あるいは、顔の回転角度(正面方向からのずれ)を推定する。そして、推定部33は、推定結果に関する情報を判定部34へ渡す。 FIG. 7 is a diagram showing an overview of estimation processing according to the embodiment. For example, as shown in FIG. 7, the estimation unit 33 estimates the angle of the subject's face along three axes (Roll, Pitch, and Yaw) using on-device AI. That is, the estimation unit 33 estimates the direction of the subject's face or the rotation angle (deviation from the front direction) of the face. Then, the estimating unit 33 passes information regarding the estimation result to the determining unit 34.

(判定部34)
判定部34は、ユーザUによって選択された合成対象画像が合成に適切な適正画像か否かを判定する。例えば、判定部34は、推定部33によって推定された合成対象画像に映る被写体の顔の向きに基づき、適正画像か否かを判定する。
(Determination unit 34)
The determining unit 34 determines whether the compositing target image selected by the user U is an appropriate image suitable for compositing. For example, the determining unit 34 determines whether or not the image is appropriate based on the orientation of the subject's face appearing in the composition target image estimated by the estimating unit 33.

例えば、判定部34は、推定部33によって推定された被写体の顔の向きが予め設定された所定の範囲に収まる場合、適正画像と判定する。換言すれば、判定部34は、推定部33によって推定された被写体の顔の向きが所定の範囲から逸脱する場合には、適切画像として判定しないことになる。例えば、ここでの所定の範囲とは、被写体の顔の向きが正面方向を向いていることであるが、任意の値を設定することにしてもよい。 For example, the determining unit 34 determines that the image is an appropriate image if the orientation of the subject's face estimated by the estimating unit 33 falls within a predetermined range. In other words, if the orientation of the subject's face estimated by the estimation unit 33 deviates from a predetermined range, the determination unit 34 does not determine the image as an appropriate image. For example, the predetermined range here means that the subject's face is facing forward, but any value may be set.

また、判定部34は、例えば、合成対象画像に映る被写体のピントのずれ、被写体の大きさに基づいて、合成対象画像が適正画像であるか否かを判定するようにしてもよい。例えば、判定部34は、ピントずれが少なく、被写体が適正な大きさで合成対象画像について適正画像と判定するようにしてもよい。また、判定部34は、合成対象画像における被写体の背景に基づいて、合成対象画像が適正画像であるか否かを判定するようにしてもよい。この場合、例えば、判定部34は、被写体の背景が無地である合成対象画像を適正画像と判定するようにしてもよい。 Furthermore, the determination unit 34 may determine whether the compositing target image is an appropriate image based on, for example, the out-of-focus of the subject appearing in the compositing target image and the size of the subject. For example, the determination unit 34 may determine that the compositing target image is an appropriate image when there is little out-of-focus and the subject is an appropriate size. Furthermore, the determination unit 34 may determine whether the compositing target image is an appropriate image based on the background of the subject in the compositing target image. In this case, for example, the determination unit 34 may determine a composition target image in which the background of the subject is a plain color to be an appropriate image.

なお、合成対象画像に関する推定部33および判定部34による上記の処理については、情報提供装置100側ですることにしてもよい。この場合、閲覧ページの要求時において端末装置10は、情報提供装置100の付与部132によって付与されたスコアに基づき、合成対象画像が適正画像か否かを判定することになる。 Note that the above processing by the estimation unit 33 and determination unit 34 regarding the synthesis target image may be performed on the information providing apparatus 100 side. In this case, when requesting a viewing page, the terminal device 10 determines whether the compositing target image is an appropriate image based on the score assigned by the assigning unit 132 of the information providing device 100.

(生成部35)
生成部35は、合成対象画像とユーザUによって撮影された撮影画像(すなわち、ユーザ画像)とを合成した合成画像を生成する。例えば、生成部35は、ユーザUによって選択された合成対象画像と合成を行うユーザ画像を決定する。
(Generation unit 35)
The generation unit 35 generates a composite image by combining the composition target image and the photographed image photographed by the user U (that is, the user image). For example, the generation unit 35 determines a user image to be combined with the combination target image selected by the user U.

例えば、生成部35は、ユーザUの操作に基づき、端末装置10の記憶部40に記憶されたユーザ画像、あるいは、新規に撮影されたユーザ画像を合成対象画像と合成を行うユーザ画像として決定する。 For example, the generation unit 35 determines, based on the operation of the user U, a user image stored in the storage unit 40 of the terminal device 10 or a newly captured user image as the user image to be combined with the compositing target image. .

例えば、生成部35は、合成モデルを用いて、合成画像を生成する。合成モデルは、ユーザ画像と、合成対象画像とを入力したときに、ユーザUが合成対象画像に映るヘアスタイルにした場合の画像を出力するように学習されたモデルである。 For example, the generation unit 35 generates a composite image using a composite model. The compositing model is a model that has been trained to output, when a user image and a compositing target image are input, an image when the user U has a hairstyle that appears in the compositing target image.

図8は、実施形態に係る合成画像の一例を示す図である。図8に示すように、生成部35は、ユーザUがSNSから選択した合成対象画像Gmと、ユーザ画像Gyを合成モデルへ入力することで、合成画像Gnを生成する。 FIG. 8 is a diagram illustrating an example of a composite image according to the embodiment. As shown in FIG. 8, the generation unit 35 generates the composite image Gn by inputting the composition target image Gm selected by the user U from SNS and the user image Gy to the composition model.

例えば、合成画像Gnにおいては、ユーザ画像Gyに映るユーザUの顔と、合成対象画像Gmの髪型を合成した画像である。例えば、ユーザUは、合成画像Gnやユーザ画像Gyをそれぞれ変更することで、服装、装飾品(ネックレスやピアスなど)、表情などがそれぞれ異なるユーザ画像Gyに対して、様々なヘアスタイルを試すことができる。一つの活用例として、ユーザUは、結婚式に参列する際の服装、装飾、メイクを行ったうえで、ユーザ画像を撮影し、様々なヘアスタイルを試すことができるので、実際に参列するときのイメージをより明確にすることができる。なお、このような場合には、ユーザ画像は、ユーザUの全身を撮影した画像であってもよい。 For example, the composite image Gn is an image in which the face of the user U shown in the user image Gy and the hairstyle of the composition target image Gm are combined. For example, by changing the composite image Gn and the user image Gy, the user U can try various hairstyles for the user images Gy, which have different clothes, accessories (such as necklaces and earrings), and facial expressions. Can be done. As an example of usage, user U can take a user image of himself wearing the clothes, decorations, and make-up he would wear to attend a wedding, and try out various hairstyles. image can be made clearer. Note that in such a case, the user image may be an image of the user U's whole body.

(提供部36)
提供部36は、表示部12を介して、情報提供装置100から提供される各種コンテンツを、ユーザUへ提供する。例えば、提供部36は、図2に示したように、SNSの閲覧ページP1、詳細ページP2、ユーザ画像の選択ページP3に関するコンテンツや図3に示したように、撮影ページP4に関する撮影コンテンツを提供する。
(Providing Department 36)
The providing unit 36 provides various contents provided from the information providing device 100 to the user U via the display unit 12. For example, as shown in FIG. 2, the providing unit 36 provides content related to the SNS viewing page P1, details page P2, and user image selection page P3, and as shown in FIG. do.

また、提供部36は、ユーザ画像よりも先に詳細ページP2が選択された場合には、詳細ページP2に表示される詳細画像が適正画像であるか否かに応じて、合成アイコンC1(図2参照)を表示する。 In addition, when the detailed page P2 is selected before the user image, the providing unit 36 displays the composite icon C1 (Fig. (see 2).

また、提供部36は、合成対象画像よりも先にユーザ画像が選択された場合には、一覧画像領域GLが表示される閲覧ページP1において、ユーザ画像と適切に合成可能な適正画像については、合成可能である旨を表示する。 In addition, when the user image is selected before the synthesis target image, the providing unit 36 selects appropriate images that can be appropriately synthesized with the user image on the viewing page P1 where the list image area GL is displayed. Display that synthesis is possible.

図9は、実施形態に係る適正画像に関する表示の一例を示す図である。図9に示すように、ユーザUが、合成するユーザ画像を選択する選択ページP11において、ユーザ画像を選択すると、一覧画像領域が表示される閲覧ページP12へ画面が遷移する。 FIG. 9 is a diagram illustrating an example of a display regarding an appropriate image according to the embodiment. As shown in FIG. 9, when the user U selects a user image on the selection page P11 for selecting user images to be combined, the screen transitions to a viewing page P12 where a list image area is displayed.

この際、各投稿画像には、ユーザが選択したユーザ画像に対して適正画像である場合には、「合成OK」、適切な合成が困難である画像には、「合成NG」といった合成可否アイコンC10が表示される。 At this time, each posted image has an icon indicating whether or not it is possible to combine, such as "Composition OK" if the image is appropriate for the user image selected by the user, and "Composition NG" if the image is difficult to combine appropriately. C10 is displayed.

より具体的には、ユーザUがユーザ画像を選択すると、推定部33によってユーザ画像に映るユーザの顔の向きが推定される。つづいて、判定部34によって閲覧ページP12に表示される各画像の顔の向きとの照合し、ユーザ画像に対する適正画像が判定される。 More specifically, when the user U selects a user image, the estimation unit 33 estimates the orientation of the user's face in the user image. Subsequently, the determining unit 34 compares each image displayed on the viewing page P12 with the face orientation, and determines an appropriate image for the user image.

これらの処理を受けて、提供部36は、閲覧ページP12に表示される投稿画像に対して合成可否アイコンC10を表示する。これにより、ユーザUは、自身の選択したユーザ画像に対して合成可能な投稿画像を容易に認識することができる。 In response to these processes, the providing unit 36 displays a synthesis permission icon C10 on the posted image displayed on the viewing page P12. Thereby, the user U can easily recognize posted images that can be combined with the user image selected by the user U.

なお、ここでは、選択ページP11からユーザ画像を選択する場合について説明したが、ユーザUが新たにカメラ20で撮影したユーザ画像についても同様の処理を行うようにしてもよい。 Note that although the case where a user image is selected from the selection page P11 has been described here, the same process may also be performed for a user image newly captured by the user U with the camera 20.

また、例えば、提供部36は、ユーザ画像と合成可能な適正画像のみが閲覧ページP12を表示するようにしてもよい。例えば、この場合、提供部36は、ユーザ画像に映るユーザUの顔の向きに関する情報を閲覧ページに関する取得要求とともに情報提供装置100へ送信する。情報提供装置100は、ユーザ画像に映るユーザUの顔の向きに関する情報に基づき、投稿情報データベース121から適正画像となる投稿情報を抽出したうえで、閲覧ページを生成し、端末装置10へ提供することになる。 Further, for example, the providing unit 36 may display the viewing page P12 only with appropriate images that can be combined with the user image. For example, in this case, the providing unit 36 transmits information regarding the orientation of the user U's face in the user image to the information providing device 100 together with an acquisition request regarding the viewing page. The information providing device 100 extracts posted information that is an appropriate image from the posted information database 121 based on information regarding the direction of the user U's face reflected in the user image, generates a viewing page, and provides the page to the terminal device 10. It turns out.

〔4.処理フロー〕
次に、図10を用いて、実施形態に係る情報提供装置100が実行する処理手順について説明する。図10は、実施形態に係る情報提供装置100が実行する処理の一例を示すフローチャートである。
[4. Processing flow]
Next, the processing procedure executed by the information providing apparatus 100 according to the embodiment will be described using FIG. 10. FIG. 10 is a flowchart illustrating an example of a process executed by the information providing apparatus 100 according to the embodiment.

図10に示すように、まず、情報提供装置100は、各投稿者から投稿情報を取得する(ステップS101)。つづいて、情報提供装置100は、投稿情報に含まれる投稿画像に基づき、撮影条件および合成条件を各投稿情報に対して付与する(ステップS102)。なお、ここでの撮影条件は、投稿画像を合成対象画像とする場合に、ユーザ画像に求められる撮影条件であり、合成条件は、ユーザ画像が合成対象画像よりも先に選択された場合に、合成対象画像に求められる条件である。 As shown in FIG. 10, the information providing device 100 first obtains posted information from each poster (step S101). Subsequently, the information providing apparatus 100 assigns shooting conditions and compositing conditions to each posted information based on the posted images included in the posted information (step S102). Note that the shooting condition here is the shooting condition required for the user image when the posted image is the image to be synthesized, and the compositing condition is the shooting condition required for the user image when the posted image is the image to be synthesized. These are conditions required for images to be combined.

つづいて、情報提供装置100は、ユーザUの端末装置10に対して各種コンテンツ、例えば、閲覧ページを配信する(ステップS103)。そして、情報提供装置100は、処理を終了する。なお、ステップS102に関する処理は、端末装置10側で行うようにしてもよい。 Subsequently, the information providing device 100 distributes various contents, for example, viewing pages, to the terminal device 10 of the user U (step S103). Then, the information providing device 100 ends the process. Note that the process related to step S102 may be performed on the terminal device 10 side.

次に、図11~図14を用いて、実施形態に係る端末装置10が実行する処理手順について説明する。図11~図14は、実施形態に係る端末装置10が実行する処理手順の一例を示すフローチャートである。 Next, the processing procedure executed by the terminal device 10 according to the embodiment will be described using FIGS. 11 to 14. 11 to 14 are flowcharts showing an example of a processing procedure executed by the terminal device 10 according to the embodiment.

まず、図11を用いて、端末装置10が合成画像を提供するまでの一連の処理手順について説明する。図11に示すように、まず、端末装置10は、情報提供装置100から合成対象画像に関する閲覧ページを取得する(ステップS201)。 First, a series of processing steps until the terminal device 10 provides a composite image will be described using FIG. 11. As shown in FIG. 11, first, the terminal device 10 acquires a viewing page related to a combination target image from the information providing device 100 (step S201).

つづいて、端末装置10は、ユーザUによる合成対象画像の選択を受け付ける(ステップS202)。つづいて、端末装置10は、合成対象画像と合成を行うユーザ画像の選択を受け付ける(ステップS203)。 Subsequently, the terminal device 10 receives selection of an image to be combined by the user U (step S202). Subsequently, the terminal device 10 receives a selection of a user image to be combined with the combination target image (step S203).

つづいて、端末装置10は、合成対象画像と、ユーザ画像とに基づき、合成画像を生成する(ステップS204)。つづいて、端末装置10は、合成画像を表示(提供)し(ステップS205)、処理を終了する。 Subsequently, the terminal device 10 generates a composite image based on the composition target image and the user image (step S204). Subsequently, the terminal device 10 displays (provides) the composite image (step S205), and ends the process.

次に、図12を用いて、閲覧ページの提供に関する一連の処理手順について説明する。図12に示すように、まず、端末装置10は、情報提供装置100から合成対象画像に関する閲覧ページを取得する(ステップS211)。 Next, a series of processing procedures related to providing a viewing page will be described using FIG. 12. As shown in FIG. 12, first, the terminal device 10 acquires a viewing page related to the compositing target image from the information providing device 100 (step S211).

つづいて、端末装置10は、閲覧ページに表示される各投稿画像について適正画像を判定する(ステップS212)。つづいて、端末装置10は、適正画像に対してユーザ画像との合成を可能にする合成用コンテンツ(例えば、図2に示した合成アイコンC1に関するコンテンツ)を付与する。 Subsequently, the terminal device 10 determines whether each posted image displayed on the viewing page is appropriate (step S212). Subsequently, the terminal device 10 provides compositing content (for example, content related to the compositing icon C1 shown in FIG. 2) that enables compositing with the user image to the appropriate image.

そして、端末装置10は、ユーザUに対して閲覧ページを提供し(ステップS214)、処理を終了する。 Then, the terminal device 10 provides the viewing page to the user U (step S214), and ends the process.

次に、図13を用いて、撮影コンテンツの提供に関する一連の処理について説明する。図13に示すように、まず、端末装置10は、情報提供装置100から合成対象画像に関する閲覧ページを取得する(ステップS221)。 Next, a series of processes related to providing photographed content will be described using FIG. 13. As shown in FIG. 13, first, the terminal device 10 acquires a viewing page related to the compositing target image from the information providing device 100 (step S221).

つづいて、端末装置10は、ユーザUに対し閲覧ページを提供する(ステップS222)。つづいて、端末装置10は、合成対象画像の選択操作を受け付ける(ステップS223)。 Subsequently, the terminal device 10 provides the viewing page to the user U (step S222). Subsequently, the terminal device 10 receives an operation for selecting an image to be combined (step S223).

つづいて、端末装置10は、例えば、選択された合成対象画像の被写体の顔の向きに基づき、ユーザ画像の撮影条件を設定する(ステップS224)。そして、端末装置10は、設定した撮影条件に基づき、撮影コンテンツを提供し(ステップS225)、処理を終了する。 Subsequently, the terminal device 10 sets shooting conditions for the user image based on, for example, the orientation of the face of the subject of the selected compositing target image (step S224). Then, the terminal device 10 provides the photographed content based on the set photographing conditions (step S225), and ends the process.

次に、図14を用いて、ユーザ画像を合成対象画像よりも先に決定する場合の一連の処理手順について説明する。図14に示すように、端末装置10は、ユーザによる操作に基づき、合成するユーザ画像を決定する(ステップS231)。なお、ユーザ画像は、端末装置10に予め登録されている画像であってもよく、あらたに撮影された画像であってもよい。 Next, with reference to FIG. 14, a series of processing steps when determining the user image before the compositing target image will be described. As shown in FIG. 14, the terminal device 10 determines a user image to be combined based on the user's operation (step S231). Note that the user image may be an image registered in advance in the terminal device 10, or may be a newly captured image.

つづいて、端末装置10は、閲覧ページに表示される投稿画像のうち、ユーザ画像に基づき、適正画像を判定する(ステップS232)。つづいて、端末装置10は、閲覧ページに表示される投稿画像のうち、適正画像に合成用コンテンツ(例えば、図9に示した合成可否アイコンC10)を付与する(ステップS233)。 Subsequently, the terminal device 10 determines an appropriate image based on the user image among the posted images displayed on the viewing page (step S232). Subsequently, the terminal device 10 adds compositing content (for example, the compositing permission icon C10 shown in FIG. 9) to the appropriate image among the posted images displayed on the viewing page (step S233).

そして、端末装置10は、ユーザUに対して閲覧ページを提供し(ステップS234)、処理を終了する。 Then, the terminal device 10 provides the viewing page to the user U (step S234), and ends the process.

〔5.変形例〕
上述した実施形態では、ユーザ画像および合成対象画像にそれぞれ映る被写体の顔の向きに基づいて、適正画像か否かを判定する場合について説明したが、これに限定されるものではない。例えば、合成対象画像に映る被写体のヘアスタイルに関する評価に基づいて、適正画像か否かを判定するようにしてもよい。より具体的には、各投稿画像の投稿ページの「いいね」数、あるいは、クラウドワーク等を用いて評価を集め、投稿画像を入力した際に、評価が高いほど高いスコアを算出するモデルを学習し、当該モデルの出力結果に基づき、適正画像か否かを判定するようにしてもよい。
[5. Modified example]
In the embodiment described above, a case has been described in which it is determined whether or not the image is an appropriate image based on the direction of the face of the subject appearing in the user image and the synthesis target image, but the present invention is not limited to this. For example, it may be determined whether the image is appropriate based on an evaluation regarding the hairstyle of the subject appearing in the composition target image. More specifically, we created a model that collects ratings using the number of likes on the posting page for each posted image, or crowdwork, etc., and calculates a higher score when a posted image is input. It may also be possible to learn whether the image is appropriate or not based on the output result of the model.

また、上述した実施形態では、ユーザの顔が撮影されたユーザ画像に対して、合成対象画像の髪型を合成した合成画像を生成する場合について説明したが、これに限定されるものではない。例えば、合成対象画像に映る眼鏡、帽子、装飾品等をユーザ画像にユーザの顔に合成した合成画像を生成するようにしてもよい。 Further, in the above-described embodiment, a case has been described in which a composite image is generated by combining the hairstyle of the composition target image with a user image in which the user's face is photographed, but the present invention is not limited to this. For example, a composite image may be generated in which glasses, hats, accessories, etc. appearing in the composition target image are composited with the user image and the user's face.

また、上述した実施形態では、SNSに投稿された画像を合成対象画像と取得する場合について説明したが、これに限定されるものではない。例えば、ユーザが撮影した画像を合成対象画像とするようにしてもよい。 Further, in the embodiment described above, a case has been described in which an image posted on an SNS is acquired as a composition target image, but the present invention is not limited to this. For example, an image taken by a user may be used as the synthesis target image.

また、ユーザ画像および合成対象画像は、これらに限定されるものではなく、例えば、ユーザが撮影した家の画像に対して、合成対象画像に映る家具を合成するなど、ユーザ画像および合成対象画像については適宜変更するようにしてもよい。 Furthermore, the user image and the image to be synthesized are not limited to these; for example, the user image and the image to be synthesized are may be changed as appropriate.

〔6.効果〕
上述してきたように、本願に係る端末装置10(情報処理装置の一例)は、合成対象画像が合成に適した適正画像であるか否かを判定する判定部34と、判定部34によって合成対象画像が前記適正画像であると判定された場合に、合成対象画像と、ユーザによって撮影される撮影画像とを合成するためのコンテンツを提供する提供部36とを備える。
[6. effect〕
As described above, the terminal device 10 (an example of an information processing device) according to the present application includes a determination unit 34 that determines whether a composition target image is an appropriate image suitable for composition, and a determination unit 34 that determines whether a composition target image is an appropriate image suitable for composition. The image processing apparatus includes a providing unit 36 that provides content for compositing the compositing target image and the captured image captured by the user when the image is determined to be the appropriate image.

また、本願に係る端末装置10は、合成対象画像と、撮影画像とを合成した合成画像を生成する生成部35を備える。生成部35は、合成対象画像に映る被写体の髪型を撮影画像に映るユーザの顔に合成した合成画像を生成する。 Furthermore, the terminal device 10 according to the present application includes a generation unit 35 that generates a composite image by combining the composition target image and the photographed image. The generation unit 35 generates a composite image in which the hairstyle of the subject appearing in the composition target image is composited with the user's face appearing in the photographed image.

また、判定部34は、合成対象画像に映る被写体の顔の向きに基づいて、適正画像か否かを判定する。また、判定部34は、被写体の顔の向きが正面を向いているか否かに応じて、適正画像か否かを判定する。 Further, the determining unit 34 determines whether the image to be combined is an appropriate image based on the orientation of the subject's face in the image to be combined. Further, the determination unit 34 determines whether the image is an appropriate image depending on whether the subject's face is facing forward.

また、判定部34は、合成対象画像に映る被写体のピントのずれ、被写体の大きさに基づいて、適正画像か否かを判定する。また、提供部36は、合成対象画像が適正画像であると判定された場合に、合成画像の生成に移行する合成アイコンC1を表示する。また、端末装置10は、ソーシャルネットワーキングサービスに投稿された画像を合成対象画像として取得する取得部31を備える。 Further, the determination unit 34 determines whether the image to be combined is an appropriate image based on the out-of-focus of the subject and the size of the subject. Furthermore, when it is determined that the image to be synthesized is an appropriate image, the providing unit 36 displays a synthesis icon C1 for transitioning to generation of a synthesized image. The terminal device 10 also includes an acquisition unit 31 that acquires images posted on social networking services as images to be combined.

上述した各処理のいずれかもしくは組合せにより、本願に係る情報処理装置は、合成画像に関する適切なコンテンツを提供することができる。 Through any one or a combination of the above-described processes, the information processing apparatus according to the present application can provide appropriate content related to the composite image.

〔7.ハードウェア構成〕
また、上述してきた実施形態に係る情報処理装置は、例えば図15に示すような構成のコンピュータ1000によって実現される。図15は、実施形態に係る情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[7. Hardware configuration]
Further, the information processing apparatus according to the embodiments described above is realized by, for example, a computer 1000 having a configuration as shown in FIG. 15. FIG. 15 is a hardware configuration diagram showing an example of a computer that implements the functions of the information processing device according to the embodiment. Computer 1000 has CPU 1100, RAM 1200, ROM 1300, HDD 1400, communication interface (I/F) 1500, input/output interface (I/F) 1600, and media interface (I/F) 1700.

CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。 CPU 1100 operates based on a program stored in ROM 1300 or HDD 1400, and controls each section. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started, programs depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワーク(通信ネットワーク)Nを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。 The HDD 1400 stores programs executed by the CPU 1100, data used by the programs, and the like. Communication interface 1500 receives data from other devices via network (communication network) N and sends it to CPU 1100, and sends data generated by CPU 1100 to other devices via network N.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置(図15では、出力装置および入力装置を総称して「入出力装置」と記載する)を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。 The CPU 1100 connects output devices such as displays and printers, and input devices such as keyboards and mice (in FIG. 15, the output devices and input devices are collectively referred to as "input/output devices") via the input/output interface 1600. ). CPU 1100 obtains data from an input device via input/output interface 1600. Further, CPU 1100 outputs the generated data to an output device via input/output interface 1600.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 Media interface 1700 reads programs or data stored in recording medium 1800 and provides them to CPU 1100 via RAM 1200. CPU 1100 loads this program from recording medium 1800 onto RAM 1200 via media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or a PD (Phase change rewritable disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. etc.

例えば、コンピュータ1000が実施形態に係る情報処理装置として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the information processing device according to the embodiment, the CPU 1100 of the computer 1000 realizes the functions of the control unit 130 by executing a program loaded onto the RAM 1200. The CPU 1100 of the computer 1000 reads these programs from the recording medium 1800 and executes them, but as another example, these programs may be acquired from another device via the network N.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Some of the embodiments of the present application have been described above in detail based on the drawings, but these are merely examples, and various modifications and variations may be made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure section of the invention. It is possible to carry out the invention in other forms with modifications.

〔8.その他〕
以上、本願の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
[8. others〕
Although the embodiments of the present application have been described above, the present invention is not limited to the contents of these embodiments. Furthermore, the above-mentioned components include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those that are in a so-called equivalent range. Furthermore, the aforementioned components can be combined as appropriate. Furthermore, various omissions, substitutions, or modifications of the constituent elements can be made without departing from the gist of the embodiments described above.

また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。 Further, among the processes described in the above embodiments, all or part of the processes described as being performed automatically can be performed manually, or the processes described as being performed manually can be performed manually. All or part of this can also be performed automatically using known methods. In addition, information including the processing procedures, specific names, and various data and parameters shown in the above documents and drawings may be changed arbitrarily, unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 Furthermore, each component of each device shown in the drawings is functionally conceptual, and does not necessarily need to be physically configured as shown in the drawings. In other words, the specific form of distributing and integrating each device is not limited to what is shown in the diagram, and all or part of the devices can be functionally or physically distributed or integrated in arbitrary units depending on various loads and usage conditions. Can be integrated and configured.

例えば、上述した情報提供装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティング等で呼び出して実現するなど、構成は柔軟に変更できる。 For example, the information providing apparatus 100 described above may be realized by a plurality of server computers, and depending on the function, it may be realized by calling an external platform etc. using an API (Application Programming Interface), network computing, etc. can be changed flexibly.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Furthermore, the above-described embodiments and modifications can be combined as appropriate within a range that does not conflict with the processing contents.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means", "circuit", etc. For example, the acquisition unit can be read as an acquisition means or an acquisition circuit.

10 端末装置
11 通信部
12 表示部
13 入力部
20 カメラ
30 制御部
31 取得部
32 受付部
33 推定部
34 判定部
35 生成部
36 提供部
40 記憶部
100 情報提供装置
110 通信部
120 記憶部
121 投稿情報データベース
122 スコア推定モデルデータベース
123 合成モデルデータベース
130 制御部
131 取得部
132 付与部
10 Terminal device 11 Communication section 12 Display section 13 Input section 20 Camera 30 Control section 31 Acquisition section 32 Reception section 33 Estimation section 34 Judgment section 35 Generation section 36 Provision section 40 Storage section 100 Information provision device 110 Communication section 120 Storage section 121 Post Information database 122 Score estimation model database 123 Synthetic model database 130 Control section 131 Acquisition section 132 Addition section

Claims (10)

合成対象画像が合成に適した適正画像であるか否かを判定する判定部と、
前記判定部によって前記合成対象画像が前記適正画像であると判定された場合に、前記合成対象画像と、ユーザによって撮影される撮影画像とを合成するためのコンテンツを提供する提供部と、
を備えることを特徴とする情報処理装置。
a determination unit that determines whether the compositing target image is an appropriate image suitable for compositing;
a providing unit that provides content for compositing the compositing target image and a captured image taken by a user when the compositing target image is determined to be the appropriate image by the determining unit;
An information processing device comprising:
前記合成対象画像と、前記撮影画像とを合成した合成画像を生成する生成部
を備えること
を特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, further comprising: a generation unit that generates a composite image by combining the composition target image and the photographed image.
前記生成部は、
前記合成対象画像に映る被写体の髪型を前記撮影画像に映る前記ユーザの顔に合成した前記合成画像を生成すること
を特徴とする請求項2に記載の情報処理装置。
The generation unit is
The information processing apparatus according to claim 2, wherein the composite image is generated by combining the hairstyle of the subject appearing in the composition target image with the user's face appearing in the photographed image.
前記判定部は、
前記合成対象画像に映る被写体の顔の向きに基づいて、前記適正画像か否かを判定すること
を特徴とする請求項3に記載の情報処理装置。
The determination unit includes:
The information processing apparatus according to claim 3, wherein the information processing apparatus determines whether or not the image is the appropriate image based on the direction of the face of the subject appearing in the synthesis target image.
前記判定部は、
前記合成対象画像に映る被写体の顔の向きが正面方向を向いているか否かに応じて、前記適正画像か否かを判定すること
を特徴とする請求項4に記載の情報処理装置。
The determination unit includes:
The information processing device according to claim 4, wherein the information processing device determines whether or not the image is the appropriate image depending on whether or not the face of the subject reflected in the synthesis target image is facing forward.
前記判定部は、
前記合成対象画像に映る被写体のピントのずれ、被写体の大きさに基づいて、前記適正画像か否かを判定すること
を特徴とする請求項1に記載の情報処理装置。
The determination unit includes:
The information processing apparatus according to claim 1, wherein the information processing apparatus determines whether or not the image is an appropriate image based on a focus shift of a subject appearing in the composition target image and a size of the subject.
前記提供部は、
前記合成対象画像が前記適正画像であると判定された場合に、前記合成画像の生成に移行する合成アイコンを表示するコンテンツを提供すること
を特徴とする請求項2に記載の情報処理装置。
The provision department is
3. The information processing apparatus according to claim 2, further comprising: providing content that displays a synthesis icon that moves to generation of the synthesis image when the synthesis target image is determined to be the appropriate image.
ソーシャルネットワーキングサービスに投稿された画像を前記合成対象画像として取得する取得部
を備えることを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, further comprising: an acquisition unit that acquires an image posted on a social networking service as the synthesis target image.
コンピュータが実行する情報処理方法であって、
合成対象画像が合成に適した適正画像であるか否かを判定する判定工程と、
前記判定工程によって前記合成対象画像が前記適正画像であると判定された場合に、前記合成対象画像と、ユーザによって撮影される撮影画像とを合成するためのコンテンツを提供する提供工程と、
を含むことを特徴とする情報処理方法。
An information processing method performed by a computer, the method comprising:
a determination step of determining whether the compositing target image is an appropriate image suitable for compositing;
a providing step of providing content for compositing the compositing target image and a photographed image taken by the user when the compositing target image is determined to be the proper image in the determining step;
An information processing method characterized by comprising:
合成対象画像が合成に適した適正画像であるか否かを判定する判定手順と、
前記判定手順によって前記合成対象画像が前記適正画像であると判定された場合に、前記合成対象画像と、ユーザによって撮影される撮影画像とを合成するためのコンテンツを提供する提供手順と、
をコンピュータに実行させることを特徴とする情報処理プログラム。
a determination procedure for determining whether the compositing target image is an appropriate image suitable for compositing;
a providing step of providing content for compositing the compositing target image and a photographed image taken by a user when the compositing target image is determined to be the proper image by the determining step;
An information processing program that causes a computer to execute.
JP2022110664A 2022-07-08 2022-07-08 Information processor, method for processing information, and information processing program Pending JP2024008639A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022110664A JP2024008639A (en) 2022-07-08 2022-07-08 Information processor, method for processing information, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022110664A JP2024008639A (en) 2022-07-08 2022-07-08 Information processor, method for processing information, and information processing program

Publications (1)

Publication Number Publication Date
JP2024008639A true JP2024008639A (en) 2024-01-19

Family

ID=89544192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022110664A Pending JP2024008639A (en) 2022-07-08 2022-07-08 Information processor, method for processing information, and information processing program

Country Status (1)

Country Link
JP (1) JP2024008639A (en)

Similar Documents

Publication Publication Date Title
US11410457B2 (en) Face reenactment
CN110476182A (en) Share the automatic suggestion of image
CN113261013A (en) System and method for realistic head rotation and facial animation synthesis on mobile devices
US11721046B2 (en) Customizing soundtracks and hairstyles in modifiable videos of multimedia messaging application
JP2023529380A (en) Machine learning-based image compression settings that reflect user preferences
US20200234483A1 (en) Systems and methods for generating personalized videos with customized text messages
US11895260B2 (en) Customizing modifiable videos of multimedia messaging application
Fried et al. Editing self-image
KR20190071241A (en) Method and System for Providing Virtual Blind Date Service
US20230281937A1 (en) Extended reality system for displaying art
JP2024008639A (en) Information processor, method for processing information, and information processing program
KR102561198B1 (en) Platform system usiing contents, method for manufacturing image output based on augmented reality
JP2024008627A (en) Information processor, method for processing information, and information processing program
Li et al. Guided selfies using models of portrait aesthetics
US20210327149A1 (en) System and Method for Emotion-Based Real-Time Personalization of Augmented Reality Environments
US20230136551A1 (en) A computer implemented system and method for generating multiple media creations
Mota ‘Today I dressed like this': selling clothes and playing for celebrity: Self-representation and consumption on Facebook
JP7433699B2 (en) Content management server, content management program and content management system
JP2024043864A (en) Information processing device, information processing method, and information processing program
Siri et al. The Evolution and Culture of Digital Contemporary Photography: A Literature Review: A Literature Review
Fersman et al. My Creative Side
JP2024043774A (en) Information processing device, information processing method, and information processing program
JP2024043863A (en) Information processing apparatus, information processing method, and information processing program
JP2024043770A (en) Information processing device, information processing method, and information processing program
KR20240059224A (en) System for utilizing ar-based contents

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20231026