JP2021163335A - Information processing program and information processing system - Google Patents

Information processing program and information processing system Download PDF

Info

Publication number
JP2021163335A
JP2021163335A JP2020066214A JP2020066214A JP2021163335A JP 2021163335 A JP2021163335 A JP 2021163335A JP 2020066214 A JP2020066214 A JP 2020066214A JP 2020066214 A JP2020066214 A JP 2020066214A JP 2021163335 A JP2021163335 A JP 2021163335A
Authority
JP
Japan
Prior art keywords
information
subject
data
information processing
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020066214A
Other languages
Japanese (ja)
Other versions
JP6935531B1 (en
Inventor
乃梨子 新保
Noriko Shinpo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NHN PlayArt Corp
NHN Corp
Original Assignee
NHN PlayArt Corp
NHN Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NHN PlayArt Corp, NHN Corp filed Critical NHN PlayArt Corp
Priority to JP2020066214A priority Critical patent/JP6935531B1/en
Application granted granted Critical
Publication of JP6935531B1 publication Critical patent/JP6935531B1/en
Publication of JP2021163335A publication Critical patent/JP2021163335A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

To provide an information processing program and an information processing system which impart a motion to a portion of a subject in an image while maintaining characteristics of the subject possessed by a user in the real space.SOLUTION: The information processing program is executed in a computer of an information terminal device, and causes the computer to identify a part which is a portion of a first subject in an image obtained by photographing the real space, and to overlay part data based on the part on a first object area including the part.SELECTED DRAWING: Figure 4

Description

本発明は、情報処理プログラムおよび情報処理システムに関する。 The present invention relates to an information processing program and an information processing system.

拡張現実(AR)は、現実空間の情報に仮想空間の情報を付加し、視覚的に現実が拡張された空間をユーザに提供する技術である。近年、スマートフォンにおけるARの利用が進んでおり、例えば、スマートフォンのカメラで撮影した現実空間の映像に仮想空間の視覚情報を付加して表示するゲームまたはコンテンツなどが提供されている。 Augmented reality (AR) is a technology that adds information in virtual space to information in real space and provides the user with a space in which reality is visually expanded. In recent years, the use of AR in smartphones has been advancing, and for example, games or contents for displaying images in real space taken by a camera of a smartphone with visual information in virtual space added to them are provided.

ARでは、撮影した映像によってユーザは現実空間を感じることができるとともに、付加された仮想空間の視覚情報によって仮想空間も感じることができる。例えば、ARでは、カメラで撮影した現実空間を背景に、仮想空間の視覚情報としてアニメまたはゲームなどのキャラクタを付加した表示が可能である。すなわち、ARを利用すれば、スマートフォンの表示を通じて、現実空間の中に仮想的なキャラクタを登場させることができる。しかしながら、このようなARを利用するコンテンツの多くは、スマートフォンの表示をオフにするとキャラクタが消えてしまうものである。ユーザがキャラクタに対して感情移入し、愛着を感じるためには、現実空間においてもキャラクタが実体化されていることが好ましい。 In AR, the user can feel the real space by the captured image, and can also feel the virtual space by the visual information of the added virtual space. For example, in AR, it is possible to display a character such as an animation or a game as visual information in a virtual space against a background of a real space taken by a camera. That is, if AR is used, a virtual character can appear in the real space through the display of the smartphone. However, in most of the contents that use such AR, the character disappears when the display of the smartphone is turned off. In order for the user to embrace the character and feel attachment, it is preferable that the character is materialized even in the real space.

現実空間でキャラクタが実体化されたものとしては、例えば、フィギュアがある。フィギュアを撮影した映像にARを適用すれば、フィギュアの映像にオブジェクトを追加することも可能である(例えば、特許文献1参照)。例えば、フィギュアの手に武器として銃が握られている場合、映像の中では、銃口からビームを照射するようなオブジェクトを追加することができる。また、スマートフォンの表示をオフにしても、現実空間にフィギュアが残る。そのため、ユーザは、常にフィギュアとの一体感を感じることができる。 For example, a figure is a materialized character in the real space. By applying AR to the image of the figure, it is possible to add an object to the image of the figure (see, for example, Patent Document 1). For example, if a gun is held in the figure's hand as a weapon, you can add an object in the video that emits a beam from the muzzle. Also, even if the smartphone display is turned off, the figure remains in the real space. Therefore, the user can always feel a sense of unity with the figure.

特開2019−185796号公報Japanese Unexamined Patent Publication No. 2019-185796

特許文献1では、フィギュアのキャラクタを判定するために、フィギュアに特定のポーズを取らせている。すなわち、ARを適用するためのフィギュアのポーズが、キャラクタごとに予め決められている。これは、映像の中において、キャラクタごとに予め用意されたオブジェクトを重畳する位置がずれないことを目的とするものであるが、フィギュアは常に所定のポーズに固定されることになる。そのため、特許文献1は、映像の中に判定されたキャラクタのオブジェクトをフィギュアに付随した物体(例えば、武器など)に対して重畳するものであり、映像の中のフィギュアそのものに動きを与えるものではなかった。また、撮影されたフィギュアのキャラクタは同じポーズであるため、ユーザは、かえってフィギュアに動きが無いことを実感してしまう問題があった。 In Patent Document 1, a figure is made to take a specific pose in order to determine the character of the figure. That is, the pose of the figure for applying AR is predetermined for each character. The purpose of this is to keep the position where the objects prepared in advance for each character are superimposed in the image, but the figure is always fixed in a predetermined pose. Therefore, Patent Document 1 superimposes a character object determined in the image on an object (for example, a weapon) attached to the figure, and does not give movement to the figure itself in the image. There wasn't. In addition, since the characters of the photographed figure have the same pose, there is a problem that the user actually realizes that the figure does not move.

キャラクタに動きを与えるため、映像の中のフィギュアにアニメーション表示のオブジェクトを重畳することもできる。しかし、ユーザが所持するフィギュアは、フィギュアの製造過程でのばらつき、もしくは経年変化による色の変化または傷の有無など、ユーザのフィギュアそれぞれが個々の特徴を持っている。ユーザが愛着のあるフィギュアであれば、その特徴の違いはなおさら気になるところである。そのため、単に映像の中のフィギュアにオブジェクトを重畳するだけでは、ユーザは、フィギュアとオブジェクトとを一体として感じるのではなく、フィギュアとオブジェクトとを別個のものとして感じることが多かった。そのため、フィギュアに対してARを利用しても、ユーザは、依然として映像の中のフィギュアが動いているように感じることは少なかった。したがって、フィギュアに対してのARの利用は、ユーザの満足度が得られにくく、利用可能性が低いという問題があった。 In order to give movement to the character, it is also possible to superimpose an animation display object on the figure in the video. However, each user's figure has its own characteristics, such as variations in the figure manufacturing process, color changes due to aging, and the presence or absence of scratches. If the user is an attached figure, the difference in its characteristics is even more worrisome. Therefore, by simply superimposing the object on the figure in the image, the user often feels the figure and the object as separate objects rather than the figure and the object as one. Therefore, even if AR is used for the figure, the user still rarely feels that the figure in the image is moving. Therefore, the use of AR for figures has a problem that it is difficult to obtain user satisfaction and the availability is low.

本発明は、上記問題に鑑み、映像の中の被写体において、ユーザが現実空間で所有する被写体の特徴を維持しつつ、被写体の一部に動きを与える情報処理プログラムおよび情報処理システムを提供することを課題の1つとする。 In view of the above problems, the present invention provides an information processing program and an information processing system that give movement to a part of a subject in an image while maintaining the characteristics of the subject owned by the user in the real space. Is one of the issues.

本発明の一実施形態に係る情報処理プログラムは、情報端末装置のコンピュータで実行される情報処理プログラムであって、コンピュータに、現実空間を撮影した映像の中の第1被写体の一部であるパーツを特定させ、パーツを含む第1オブジェクト領域に、パーツに基づくパーツデータを重畳させる。 The information processing program according to the embodiment of the present invention is an information processing program executed by a computer of an information terminal device, and is a part of a first subject in an image captured in a real space by the computer. Is specified, and the part data based on the part is superimposed on the first object area including the part.

パーツデータは、サーバ装置から情報端末装置に送信されてもよい。また、パーツデータは、パーツから生成されてもよい。 The part data may be transmitted from the server device to the information terminal device. Further, the part data may be generated from the part.

パーツデータは、第1オブジェクト領域に基づく第1オブジェクト情報によって調整されてもよい。 The part data may be adjusted by the first object information based on the first object area.

コンピュータは、ユーザによって選択されたパーツを特定させてもよい。 The computer may have the part selected by the user identified.

第1オブジェクト領域は、ユーザによって選択されてもよい。 The first object area may be selected by the user.

映像の中のユーザの身体の一部の動きを判定させ、パーツデータは、さらに、判定に基づいてもよい。 The movement of a part of the user's body in the image may be determined, and the part data may be further based on the determination.

第2オブジェクト領域に、情報端末装置の端末情報に基づく映像データを重畳させてもよい。 Video data based on the terminal information of the information terminal device may be superimposed on the second object area.

映像の中の物体を特定させ、第2オブジェクト領域に、物体に基づく映像データを重畳させてもよい。 An object in the image may be specified, and image data based on the object may be superimposed on the second object area.

第1被写体が有する認証マークを検出し、認証マークを含む第3オブジェクト領域に、遮蔽データを重畳させてもよい。 The authentication mark of the first subject may be detected, and the shielding data may be superimposed on the third object area including the authentication mark.

第1被写体は、認証マークによって特定されてもよい。 The first subject may be identified by a certification mark.

第1被写体は、キャラクタであってもよい。 The first subject may be a character.

第2被写体を特定させ、第4オブジェクト領域に、第1被写体と第2被写体とのインタラクションを示すインタラクションデータを重畳させてもよい。 The second subject may be specified, and the interaction data indicating the interaction between the first subject and the second subject may be superimposed on the fourth object area.

本発明の一実施形態に係る情報処理システムは、現実空間を撮影する撮像部と、撮像部によって撮影された映像を表示する表示部と、映像の中の第1被写体の一部であるパーツを特定する第2処理部と、パーツを含む第1オブジェクト領域を画定する第3処理部と、第1オブジェクト領域に、パーツに基づくパーツデータを重畳する。 The information processing system according to the embodiment of the present invention includes an imaging unit that captures a real space, a display unit that displays an image captured by the imaging unit, and a part that is a part of a first subject in the image. Part data based on the parts is superimposed on the second processing unit to be specified, the third processing unit that defines the first object area including the parts, and the first object area.

本発明の一実施形態に係る情報処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the information processing system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る情報処理システムのサーバ装置および情報端末装置の構成を示すブロック図である。It is a block diagram which shows the structure of the server apparatus and information terminal apparatus of the information processing system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る情報処理システムを利用し、映像の中の被写体のパーツを変化させる情報処理を示すフローチャートである。It is a flowchart which shows the information processing which changes the part of a subject in an image using the information processing system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る情報処理システムを利用し、映像の中の被写体のパーツが変化する前後の撮影を説明する図である。It is a figure explaining the shooting before and after the part of a subject in an image changes by using the information processing system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る情報処理システムを利用し、パーツデータを生成し、生成されたパーツデータが重畳された映像を説明する図である。It is a figure explaining the image which generated the part data by using the information processing system which concerns on one Embodiment of this invention, and superposed the generated part data. 本発明の一実施形態に係る情報処理システムを利用し、映像の中の被写体にセリフを表示する情報処理を示すフローチャートである。It is a flowchart which shows the information processing which displays the dialogue on the subject in an image using the information processing system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る情報処理システムを利用し、映像の中の被写体にセリフが表示された映像を説明する図である。It is a figure explaining the image which the dialogue is displayed on the subject in the image by using the information processing system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る情報処理システムを利用し、映像の中の被写体にセリフを表示する情報処理を示すフローチャートである。It is a flowchart which shows the information processing which displays the dialogue on the subject in an image using the information processing system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る情報処理システムを利用し、映像の中の被写体にセリフを表示する前後の撮影を説明する図である。It is a figure explaining the shooting before and after displaying the dialogue on the subject in an image using the information processing system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る情報処理システムを利用し、映像の中の被写体のパーツを変化させる情報処理を示すフローチャートである。It is a flowchart which shows the information processing which changes the part of a subject in an image using the information processing system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る情報処理システムを利用し、映像の中の被写体のパーツが変化する前後の撮影を説明する図である。It is a figure explaining the shooting before and after the part of a subject in an image changes by using the information processing system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る情報処理システムを利用し、映像の中に第1被写体と第2被写体とのインタラクションを表示する情報処理を示すフローチャートである。It is a flowchart which shows the information processing which displays the interaction between a 1st subject and a 2nd subject in an image using the information processing system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る情報処理システムを利用し、映像の中に第1被写体と第2被写体とのインタラクションを表示する前後の撮影を説明する図である。It is a figure explaining the shooting before and after displaying the interaction between a 1st subject and a 2nd subject in an image using the information processing system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る情報処理システムを利用し、映像の中の被写体のパーツをユーザの身体の一部の動きに応じて変化させる情報処理を示すフローチャートである。It is a flowchart which shows the information processing which changes the part of a subject in an image according to the movement of a part of a user's body by using the information processing system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る情報処理システムを利用し、映像の中の被写体のパーツがユーザの身体の一部の動きに応じて変化する前後の撮影を説明する図である。It is a figure explaining the shooting before and after the part of the subject in an image changes according to the movement of a part of a user's body by using the information processing system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る情報処理システムを利用し、情報端末装置の操作部または撮像部を利用して、変化させた映像を説明する図である。It is a figure explaining the changed image by using the information processing system which concerns on one Embodiment of this invention, and using the operation part or the image pickup part of an information terminal apparatus. 本発明の一実施形態に係る情報処理システムを利用し、被写体または背景をカスタマイズした映像を説明する図である。It is a figure explaining the image which customized the subject or the background by using the information processing system which concerns on one Embodiment of this invention.

以下、本発明の各実施形態において、図面等を参照しつつ説明する。但し、本発明は、その技術的思想の要旨を逸脱しない範囲において様々な態様で実施することができ、以下に例示する実施形態の記載内容に限定して解釈されるものではない。 Hereinafter, each embodiment of the present invention will be described with reference to the drawings and the like. However, the present invention can be implemented in various aspects without departing from the gist of the technical idea, and is not construed as being limited to the description contents of the embodiments illustrated below.

図面は、説明をより明確にするため、実際の態様に比べ、各部の幅、厚さ、形状等について模式的に表される場合があるが、あくまで一例であって、図示の形状そのものが本発明の解釈を限定するものではない。また、図面において、明細書中で既出の図に関して説明したものと同様の機能を備えた要素には、別図であっても同一の符号を付して、重複する説明を省略する場合がある。 In order to clarify the explanation, the drawings may schematically represent the width, thickness, shape, etc. of each part as compared with the actual mode, but this is just an example, and the illustrated shape itself is a book. It does not limit the interpretation of the invention. Further, in the drawings, elements having the same functions as those described with respect to the drawings already mentioned in the specification may be designated by the same reference numerals even if they are separate drawings, and duplicate explanations may be omitted. ..

本明細書において、「映像」とは、静止画像だけでなく、動画像も含む。 In the present specification, the "video" includes not only a still image but also a moving image.

本明細書において、「キャラクタ」とは、アニメ、漫画、小説、ゲーム、または広告などにおいて創作された、人物、動物、または植物などの生物、もしくはロボットなどの無生物を含む。 As used herein, the term "character" includes living things such as people, animals, or plants, or inanimate objects such as robots, created in anime, cartoons, novels, games, advertisements, and the like.

始めに、図1および図2を参照して、本発明の一実施形態に係る情報処理システム10の構成について説明する。 First, the configuration of the information processing system 10 according to the embodiment of the present invention will be described with reference to FIGS. 1 and 2.

[1.情報処理システム10の構成]
図1は、本発明の一実施形態に係る情報処理システム10の構成を示すブロック図である。図1に示すように、情報処理システム10は、サーバ装置100、第1情報端末装置200−1、第2情報端末装置200−2、・・・、第n情報端末装置200−nを含む。ただし、情報処理システム10の構成はこれに限られない。情報処理システム10は、複数のサーバ装置100を含んでいてもよい。なお、第1情報端末装置200−1、第2情報端末装置200−2、・・・、第n情報端末装置200−nのそれぞれを特に区別しない場合、以下では、情報端末装置200として記載して説明する。
[1. Configuration of information processing system 10]
FIG. 1 is a block diagram showing a configuration of an information processing system 10 according to an embodiment of the present invention. As shown in FIG. 1, the information processing system 10 includes a server device 100, a first information terminal device 200-1, a second information terminal device 200-2, ..., And an nth information terminal device 200-n. However, the configuration of the information processing system 10 is not limited to this. The information processing system 10 may include a plurality of server devices 100. When each of the first information terminal device 200-1, the second information terminal device 200-2, ..., And the nth information terminal device 200-n is not particularly distinguished, the information terminal device 200 is described below. I will explain.

サーバ装置100と情報端末装置200とは、通信ネットワーク300によって接続されている。通信ネットワーク300は、複数のコンピュータを有線または無線によって接続し、相互に通信可能な状態にするシステムである。通信ネットワーク300は、例えば、インターネットなどである。通信ネットワーク300は、通信業者によって管理される通信基地局を介してもよい。すなわち、サーバ装置100と情報端末装置200とは、通信基地局を介した通信ネットワーク300によって接続されてもよい。 The server device 100 and the information terminal device 200 are connected by a communication network 300. The communication network 300 is a system in which a plurality of computers are connected by wire or wirelessly so that they can communicate with each other. The communication network 300 is, for example, the Internet. The communication network 300 may be via a communication base station managed by a communication company. That is, the server device 100 and the information terminal device 200 may be connected by a communication network 300 via a communication base station.

情報端末装置200は、サーバ装置100と接続されることによって、情報端末装置200での情報処理に必要なプログラム、情報、またはデータを送受信することができる。 By connecting to the server device 100, the information terminal device 200 can transmit and receive programs, information, or data necessary for information processing in the information terminal device 200.

図2は、本発明の一実施形態に係る情報処理システム10のサーバ装置100および情報端末装置200の構成を示すブロック図である。図2(A)に示すように、サーバ装置100は、コンピュータ110を含む。また、図2(B)に示すように、情報端末装置200は、コンピュータ210を含む。サーバ装置100のコンピュータ110は、サーバ処理部111を含む。一方、情報端末装置200のコンピュータ210は、第1処理部211、第2処理部212、第3処理部213、第4処理部214、第5処理部215、第6処理部216、第7処理部217、第8処理部218、および第9処理部219を含む。 FIG. 2 is a block diagram showing the configurations of the server device 100 and the information terminal device 200 of the information processing system 10 according to the embodiment of the present invention. As shown in FIG. 2A, the server device 100 includes a computer 110. Further, as shown in FIG. 2B, the information terminal device 200 includes a computer 210. The computer 110 of the server device 100 includes a server processing unit 111. On the other hand, the computer 210 of the information terminal device 200 has a first processing unit 211, a second processing unit 212, a third processing unit 213, a fourth processing unit 214, a fifth processing unit 215, a sixth processing unit 216, and a seventh processing. A unit 217, an eighth processing unit 218, and a ninth processing unit 219 are included.

サーバ装置100は、例えば、ワークステーションまたはパーソナルコンピュータであり、コンピュータ110を含む。コンピュータ110は、演算手段として中央演算処理装置(CPU:Central Processing Unit)または画像処理装置(GPU:Graphics Processing Unit)を含む。CPUは、情報処理プログラムを読み込むことで、サーバ処理部111として機能し、所定の情報処理を実行することができる。また、GPUは、映像表示における演算処理を実行することができる。サーバ処理部111は、1つのCPUまたはGPUを用いて情報処理を実行してもよく、複数のCPUまたはGPUを用いて情報処理を実行してもよい。 The server device 100 is, for example, a workstation or a personal computer and includes a computer 110. The computer 110 includes a central processing unit (CPU: Central Processing Unit) or an image processing unit (GPU: Graphics Processing Unit) as the calculation means. By reading the information processing program, the CPU functions as the server processing unit 111 and can execute predetermined information processing. In addition, the GPU can execute arithmetic processing in the video display. The server processing unit 111 may execute information processing using one CPU or GPU, or may execute information processing using a plurality of CPUs or GPUs.

サーバ装置100は、さらに、通信部120または記憶部130などを含んでいてもよい。 The server device 100 may further include a communication unit 120, a storage unit 130, and the like.

通信部120は、プログラム、情報、またはデータを送受信することができる通信インターフェースである。 The communication unit 120 is a communication interface capable of transmitting and receiving programs, information, or data.

記憶部130は、情報またはデータを格納することができるメモリまたはストレージである。例えば、記憶部は130は、後述するパーツデータ、セリフデータ、遮蔽データ、またはインタラクションデータなどの映像データを格納することができる。映像データは、画素サイズまたは色などの映像情報を含む。映像データには、音声データが含まれていてもよい。また、記憶部130は、キャラクタに関するキャラクタ情報を格納していてもよい。 The storage unit 130 is a memory or storage capable of storing information or data. For example, the storage unit 130 can store video data such as part data, dialogue data, shielding data, and interaction data, which will be described later. The video data includes video information such as pixel size or color. The video data may include audio data. Further, the storage unit 130 may store character information regarding the character.

サーバ処理部111は、情報を判定し、判定した情報に基づいたデータを取得することができる。例えば、サーバ処理部111は、通信部120によって受信された情報がどのような情報であるかを判定し、判定された情報に基づくデータを記憶部130から取得することができる。 The server processing unit 111 can determine the information and acquire the data based on the determined information. For example, the server processing unit 111 can determine what kind of information the information received by the communication unit 120 is, and can acquire data based on the determined information from the storage unit 130.

また、サーバ処理部111は、映像データを判定することによって被写体を特定し、被写体情報を生成することもできる。さらに、サーバ処理部111は、被写体情報とキャラクタ情報とを比較し、被写体のキャラクタを判定することもできる。 Further, the server processing unit 111 can identify the subject by determining the video data and generate the subject information. Further, the server processing unit 111 can also compare the subject information and the character information to determine the character of the subject.

また、サーバ処理部111は、パーツデータとパーツ情報に基づいて、中間のパーツデータを生成することができる。 Further, the server processing unit 111 can generate intermediate part data based on the part data and the part information.

情報端末装置200は、例えば、携帯電話、スマートフォン、タブレット、または携帯ゲーム機などであり、コンピュータ210を含む。また、コンピュータ210は、演算手段としてCPUまたはGPUを含む。CPUは、情報処理プログラムを読み込むことで、第1処理部211〜第9処理部219として機能し、所定の情報処理を実行することができる。また、GPUは、映像表示における演算処理を実行することができる。第1処理部211〜第9処理部219の各々は、1つのCPUまたはGPUを用いて情報処理を実行してもよく、複数のCPUまたはGPUを用いて情報処理を実行してもよい。 The information terminal device 200 is, for example, a mobile phone, a smartphone, a tablet, a portable game machine, or the like, and includes a computer 210. Further, the computer 210 includes a CPU or a GPU as a calculation means. By reading the information processing program, the CPU functions as the first processing unit 211 to the ninth processing unit 219, and can execute predetermined information processing. In addition, the GPU can execute arithmetic processing in the video display. Each of the first processing units 211 to the ninth processing unit 219 may execute information processing using one CPU or GPU, or may execute information processing using a plurality of CPUs or GPUs.

情報端末装置200は、さらに、撮像部220、表示部230、操作部240、通信部250、または記憶部260などを含んでいてもよい。 The information terminal device 200 may further include an image pickup unit 220, a display unit 230, an operation unit 240, a communication unit 250, a storage unit 260, and the like.

撮像部220は、現実空間の風景を撮影することができる。撮像部220は、例えば、カメラまたはビデオなどである。情報端末装置200は、複数の撮像部220を含んでいてもよい。情報端末装置200が2つの撮像部220を含む場合、一方の撮像部220は情報端末装置200の表示面側に設けられ、他方の撮像部220は情報端末装置200の表示面とは反対側の面に設けられていてもよい。 The imaging unit 220 can capture a landscape in a real space. The image pickup unit 220 is, for example, a camera or a video. The information terminal device 200 may include a plurality of imaging units 220. When the information terminal device 200 includes two imaging units 220, one imaging unit 220 is provided on the display surface side of the information terminal device 200, and the other imaging unit 220 is on the side opposite to the display surface of the information terminal device 200. It may be provided on the surface.

表示部230は、撮像部220で撮影した映像を表示することができる。表示部230は、例えば、液晶表示装置または発光ダイオード(LED)表示装置などである。 The display unit 230 can display the image captured by the imaging unit 220. The display unit 230 is, for example, a liquid crystal display device or a light emitting diode (LED) display device.

操作部240は、ユーザが操作することができるユーザインターフェースである。操作部240は、例えば、キーボード、マウス、タッチパネル、またはマイクなどである。情報端末装置200の操作部240は、タッチパネルが含まれていることが好ましい。タッチパネルは表示部230上に設けられるため、ユーザは、表示部230に表示された映像を確認しながらタッチパネルを用いて情報端末装置200を操作することができる。 The operation unit 240 is a user interface that can be operated by the user. The operation unit 240 is, for example, a keyboard, a mouse, a touch panel, a microphone, or the like. The operation unit 240 of the information terminal device 200 preferably includes a touch panel. Since the touch panel is provided on the display unit 230, the user can operate the information terminal device 200 using the touch panel while checking the image displayed on the display unit 230.

通信部250は、プログラム、情報、またはデータを送受信することができる通信インターフェースである。 The communication unit 250 is a communication interface capable of transmitting and receiving programs, information, or data.

記憶部260は、情報またはデータを格納することができるメモリまたはストレージである。 The storage unit 260 is a memory or storage capable of storing information or data.

第1処理部211は、表示部230に表示された映像の中から被写体を特定することができる。第1処理部211は、映像の中に含まれる所定の特徴を有する分類パターンに基づいて被写体を特定する。分類パターンは、例えば、人型パターン、動物型パターン、またはロボット型パターンなどであるが、これに限られない。被写体がキャラクタであるとき、頭部と頭部以外とのバランスが人間のバランスと異なることも多いため、さらに二頭身パターンまたは五頭身パターンなどの分類方法が異なる分類パターンに基づいて被写体を特定してもよい。また、第1処理部211は、被写体に関する情報を含む認証マークを検出し、認証マークから被写体を特定することもできる。被写体の特定においては、機械学習またはディープラーニングなどを用いることもできる。被写体の特定は、これらに限られず、あらゆる方法を適用することができる。また、第1処理部211は、特定された被写体に基づく被写体情報を生成することができる。さらに、第1処理部211は、認証マークから被写体を特定したときは、認証マークに関する認証マーク情報を生成することができる。 The first processing unit 211 can identify the subject from the image displayed on the display unit 230. The first processing unit 211 identifies the subject based on the classification pattern having a predetermined feature included in the video. The classification pattern is, for example, a humanoid pattern, an animal pattern, a robotic pattern, and the like, but is not limited thereto. When the subject is a character, the balance between the head and the non-head is often different from the human balance, so the subject is further classified based on a classification pattern with a different classification method such as a two-headed body pattern or a five-headed body pattern. It may be specified. Further, the first processing unit 211 can also detect an authentication mark including information about the subject and identify the subject from the authentication mark. Machine learning, deep learning, or the like can also be used to identify the subject. The identification of the subject is not limited to these, and any method can be applied. In addition, the first processing unit 211 can generate subject information based on the specified subject. Further, when the subject is specified from the certification mark, the first processing unit 211 can generate the certification mark information related to the certification mark.

第2処理部212は、表示部230に表示された映像の中の被写体に含まれるパーツを抽出し、判定することができる。第2処理部212は、特定された被写体における特徴または位置に基づいてパーツを抽出し、抽出したパーツが被写体のどのパーツに該当するかを判定し、抽出したパーツを特定することができる。なお、第2処理部は、選択されたパーツを判定し、選択されたパーツを特定することもできる。また、第2処理部212は、特定されたパーツに基づくパーツデータを取得することができる。 The second processing unit 212 can extract and determine the parts included in the subject in the image displayed on the display unit 230. The second processing unit 212 can extract parts based on the features or positions of the specified subject, determine which part of the subject the extracted parts correspond to, and specify the extracted parts. The second processing unit can also determine the selected part and specify the selected part. In addition, the second processing unit 212 can acquire part data based on the specified part.

第3処理部213は、表示部230に表示された映像において、映像データを重畳させるためのオブジェクト領域を画定することができる。第3処理部213は、所定の条件に従って、映像の座標情報を取得し、オブジェクト領域を画定する。オブジェクト領域は、矩形であることが好ましいが、これに限られない。オブジェクト領域は、多角形、円形、または楕円形であってもよい。また、第3処理部213は、オブジェクト領域に基づくオブジェクト領域情報を生成する。 The third processing unit 213 can define an object area for superimposing video data on the video displayed on the display unit 230. The third processing unit 213 acquires the coordinate information of the video and defines the object area according to a predetermined condition. The object area is preferably, but not limited to, a rectangle. The object area may be polygonal, circular, or elliptical. In addition, the third processing unit 213 generates object area information based on the object area.

なお、パーツの抽出とオブジェクト領域の画定は同時に実行することもできる。すなわち、パーツを含むオブジェクト領域を画定するとともに、オブジェクト領域を抽出し、オブジェクト領域からパーツを特定してもよい。この場合、第3処理部213がオブジェクト領域を画定し、第2処理部212は、画定されたオブジェクト領域の中からパーツを特定することができる。 It is also possible to extract parts and define the object area at the same time. That is, the object area including the parts may be defined, the object area may be extracted, and the parts may be specified from the object area. In this case, the third processing unit 213 defines the object area, and the second processing unit 212 can specify the part from the defined object area.

また、パーツをオブジェクト領域とすることもできる。 The part can also be an object area.

第4処理部214は、オブジェクト領域の大きさに合わせて映像データの大きさを調整することができる。具体的には、第4処理部214は、オブジェクト領域情報と映像データ情報とを比較し、オブジェクト領域情報に合わせて映像データを拡大し、または縮小する。また、第4処理部214は、被写体の角度を検出して、映像データの角度を調整することができる。さらに、第4処理部214は、オブジェクト領域情報に含まれる色の情報に基づいて、映像データの色を調整することができる。映像データの輪郭部分の色は、オブジェクト領域の輪郭近傍の色を用いて調整されることが好ましい。映像データの輪郭近傍の色を、オブジェクト領域の輪郭近傍の色に合わせることで、被写体に映像データを重畳させたときの境界を見えにくくすることができる。 The fourth processing unit 214 can adjust the size of the video data according to the size of the object area. Specifically, the fourth processing unit 214 compares the object area information with the video data information, and enlarges or reduces the video data according to the object area information. Further, the fourth processing unit 214 can detect the angle of the subject and adjust the angle of the video data. Further, the fourth processing unit 214 can adjust the color of the video data based on the color information included in the object area information. It is preferable that the color of the contour portion of the video data is adjusted by using the color near the contour of the object area. By matching the color near the contour of the video data with the color near the contour of the object area, it is possible to make it difficult to see the boundary when the video data is superimposed on the subject.

第5処理部215は、表示部230に表示された映像のオブジェクト領域に、映像データを重畳することができる。具体的には、第5処理部215は、オブジェクト領域情報に基づいて、調整された映像データをオブジェクト領域に重畳する。 The fifth processing unit 215 can superimpose the video data on the object area of the video displayed on the display unit 230. Specifically, the fifth processing unit 215 superimposes the adjusted video data on the object area based on the object area information.

第6処理部216は、映像の中の被写体のパーツとパーツ情報に基づいて、アニメーション表示に必要な中間のパーツデータを生成することができる。第6処理部216は、1つだけでなく、複数のパーツデータを生成することができる。生成されるパーツデータの個数は、パーツによって決められていてもよく、設定によって決められていてもよい。 The sixth processing unit 216 can generate intermediate part data necessary for animation display based on the part of the subject in the image and the part information. The sixth processing unit 216 can generate not only one but a plurality of part data. The number of part data to be generated may be determined by the part or may be determined by the setting.

第7処理部217は、情報端末装置200の記憶部260から端末情報を取得することができる。端末情報としては、例えば、日付、時刻、場所、天気、またはユーザの誕生日など、情報端末装置200の機能または情報端末装置200に格納されたデータに関する情報であるが、これらに限られない。また、第7処理部217は、取得した端末情報がどのような情報であるかを判定することができる。具体的には、今日の日付とユーザの誕生日が一致していれば、第7処理部217は、誕生日であると判定する。また、今日の日付が休日、祝日、または行事の日であれば、特定日であると判定する。行事の日であるか否かの判定においては、インターネットと接続し、行事に関する情報を取得することもできる。また、時刻であれば、その時刻に基づいて、朝、昼、または夜と判定することができる。さらに、第7処理部217は、判定に基づいて、環境情報を生成することができる。 The seventh processing unit 217 can acquire terminal information from the storage unit 260 of the information terminal device 200. The terminal information includes, but is not limited to, information about the function of the information terminal device 200 or the data stored in the information terminal device 200, such as, for example, the date, time, place, weather, or the birthday of the user. In addition, the seventh processing unit 217 can determine what kind of information the acquired terminal information is. Specifically, if today's date and the user's birthday match, the seventh processing unit 217 determines that it is the birthday. If today's date is a holiday, a holiday, or an event day, it is determined to be a specific day. In determining whether it is the day of the event, it is possible to connect to the Internet and obtain information about the event. Further, if it is a time, it can be determined as morning, noon, or night based on the time. Further, the seventh processing unit 217 can generate environmental information based on the determination.

第8処理部218は、ユーザの身体の一部の動きを検出し、動きを判定することができる。例えば、第8処理部218は、映像のデータを解析して、動きを検出することができる。また、タッチパネルの信号に基づいて、動きを検出することもできる。また、第8処理部218は、検出された動きから、ユーザの指示(被写体に対するユーザの行動)を判定することができる。さらに、第8処理部218は、判定に基づいて、ユーザ行動情報を生成することができる。 The eighth processing unit 218 can detect the movement of a part of the user's body and determine the movement. For example, the eighth processing unit 218 can analyze the video data and detect the motion. It is also possible to detect movement based on the signal on the touch panel. In addition, the eighth processing unit 218 can determine the user's instruction (the user's action with respect to the subject) from the detected movement. Further, the eighth processing unit 218 can generate user behavior information based on the determination.

第9処理部219は、撮像部220で撮影されたユーザの顔の表情を判定することができる。例えば、第9処理部219は、口角の形状から、ユーザの表情が笑顔かどうかを判定することができる。なお、第9処理部219が判定するユーザの表情は、笑顔に限られない。第9処理部219は、泣き顔または怒り顔なども判定することができる。また、第9処理部219は、判定に基づいて、ユーザ感情情報を生成することができる。 The ninth processing unit 219 can determine the facial expression of the user photographed by the imaging unit 220. For example, the ninth processing unit 219 can determine whether or not the user's facial expression is a smile from the shape of the corner of the mouth. The facial expression of the user determined by the ninth processing unit 219 is not limited to a smile. The ninth processing unit 219 can also determine a crying face or an angry face. In addition, the ninth processing unit 219 can generate user emotion information based on the determination.

以下では、図3〜図17を参照して、本発明の一実施形態に係る情報処理システム10、情報処理プログラム、または情報処理方法を利用した具体的な情報処理について説明する。なお、本発明の一実施形態に係る情報処理システム、情報処理プログラム、または情報処理方法における情報処理は、以下の例示に限られない。 Hereinafter, specific information processing using the information processing system 10, the information processing program, or the information processing method according to the embodiment of the present invention will be described with reference to FIGS. 3 to 17. The information processing in the information processing system, information processing program, or information processing method according to the embodiment of the present invention is not limited to the following examples.

[2.被写体のパーツを変化させる情報処理(情報処理A)]
図3および図4を参照して、情報端末装置200の撮像部220で現実空間の被写体500を撮影しながら、情報端末装置200の表示部230に表示された映像の中の被写体400のパーツを変化させる情報処理についてについて説明する。
[2. Information processing that changes the parts of the subject (information processing A)]
With reference to FIGS. 3 and 4, while the image pickup unit 220 of the information terminal device 200 captures the subject 500 in the real space, the parts of the subject 400 in the image displayed on the display unit 230 of the information terminal device 200 are captured. Information processing to be changed will be described.

図3は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400のパーツを変化させる情報処理を示すフローチャートである。以下、便宜上、図3に示す情報処理を、情報処理Aとして説明する。 FIG. 3 is a flowchart showing information processing in which the parts of the subject 400 in the video are changed by using the information processing system 10 according to the embodiment of the present invention. Hereinafter, for convenience, the information processing shown in FIG. 3 will be described as information processing A.

図3に示す情報処理Aは、映像の中の被写体400を特定するステップ(S110)と、被写体400に含まれるパーツ401を特定するステップ(S120)と、パーツ401に関するパーツデータ411を取得するステップ(S130)と、映像の中に第1オブジェクト領域301を画定するステップ(S140)と、パーツデータ411を調整するステップ(S150)と、第1オブジェクト領域301にパーツデータ411を重畳するステップ(S160)と、を含む。以下、図4を参照しながら、各ステップについて説明する。 The information processing A shown in FIG. 3 includes a step of specifying the subject 400 in the image (S110), a step of specifying the part 401 included in the subject 400 (S120), and a step of acquiring the part data 411 related to the part 401. (S130), a step of defining the first object area 301 in the video (S140), a step of adjusting the part data 411 (S150), and a step of superimposing the part data 411 on the first object area 301 (S160). ) And, including. Hereinafter, each step will be described with reference to FIG.

図4は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400のパーツが変化する前後の撮影を説明する図である。具体的には、図4(A)に示す情報端末装置200の表示部230には、被写体400のパーツが変化する前の映像が表示され、図4(B)に示す情報端末装置200の表示部230には、被写体400のパーツが変化した後の映像が表示されている。 FIG. 4 is a diagram illustrating shooting before and after the parts of the subject 400 in the image change by using the information processing system 10 according to the embodiment of the present invention. Specifically, the display unit 230 of the information terminal device 200 shown in FIG. 4 (A) displays an image before the parts of the subject 400 are changed, and the display of the information terminal device 200 shown in FIG. 4 (B). The image after the parts of the subject 400 are changed is displayed in the unit 230.

図4(A)および図4(B)に示すように、ユーザは、情報端末装置200の撮像部220を用いて、現実空間の被写体500を撮影する。撮影された映像は、情報端末装置200の表示部230に表示される。すなわち、ユーザは、表示部230に表示された映像の被写体400を確認しながらも、現実空間の被写体500を視認することが可能である。なお、撮像部220は、表示部230側だけでなく、表示部230と反対側にも設けられている。以下、便宜上、表示部と反対側の撮像部220を第1撮像部220−1とし、表示部側の撮像部220を第2撮像部220−2として説明する。被写体500は、第1撮像部220−1で撮影されている。 As shown in FIGS. 4A and 4B, the user uses the imaging unit 220 of the information terminal device 200 to photograph the subject 500 in the real space. The captured image is displayed on the display unit 230 of the information terminal device 200. That is, the user can visually recognize the subject 500 in the real space while checking the subject 400 of the image displayed on the display unit 230. The imaging unit 220 is provided not only on the display unit 230 side but also on the side opposite to the display unit 230. Hereinafter, for convenience, the imaging unit 220 on the opposite side of the display unit will be referred to as the first imaging unit 220-1, and the imaging unit 220 on the display unit side will be referred to as the second imaging unit 220-2. The subject 500 is photographed by the first imaging unit 220-1.

被写体500は、キャラクタが模されたフィギュア、人形、ぬいぐるみ、またはプラモデルなどの立体的なものであるが、これに限られない。被写体500は、キャラクタが描かれたポスターなどの平面的なものであってもよい。 The subject 500 is, but is not limited to, a three-dimensional object such as a figure, a doll, a stuffed animal, or a plastic model in which a character is imitated. The subject 500 may be a flat object such as a poster on which a character is drawn.

ステップS110では、第1処理部211が、表示部230に表示された映像の中から被写体400を特定する。第1処理部211は、分類パターンに基づいて被写体400を特定する。被写体400は、キャラクタが特定されることが好ましいが、キャラクタが特定されなくてもよい。第1処理部211は、映像の中の背景と分離された被写体400を特定することができればよい。また、第1処理部211は、特定された被写体400に基づいて被写体情報を生成する。 In step S110, the first processing unit 211 identifies the subject 400 from the video displayed on the display unit 230. The first processing unit 211 identifies the subject 400 based on the classification pattern. It is preferable that the character is specified for the subject 400, but the character may not be specified. The first processing unit 211 may be able to identify the subject 400 separated from the background in the image. In addition, the first processing unit 211 generates subject information based on the specified subject 400.

被写体400の特定においては、サーバ装置100を用いることもできる。情報端末装置200の通信部250は、撮影された映像データをサーバ装置100に送信する。サーバ装置100の通信部120は、映像データを受信する。サーバ処理部111は、映像データを判定することによって被写体400を特定し、被写体情報を生成する。その際、サーバ処理部111は、被写体400のキャラクタを特定してよい。例えば、サーバ処理部111は、被写体情報と、記憶部130に格納されたキャラクタ情報と比較することによって、被写体400のキャラクタを特定することができる。被写体400のキャラクタが特定できたとき、被写体情報は、キャラクタに関する情報を含む。通信部120は、サーバ処理部111によって生成された被写体情報を情報端末装置200に送信する。通信部250が、被写体情報を受信することによって、情報端末装置200は、被写体情報を取得することができる。なお、取得された被写体情報は、情報端末装置200の記憶部260に格納されてもよい。 The server device 100 can also be used to identify the subject 400. The communication unit 250 of the information terminal device 200 transmits the captured video data to the server device 100. The communication unit 120 of the server device 100 receives the video data. The server processing unit 111 identifies the subject 400 by determining the video data and generates the subject information. At that time, the server processing unit 111 may specify the character of the subject 400. For example, the server processing unit 111 can identify the character of the subject 400 by comparing the subject information with the character information stored in the storage unit 130. When the character of the subject 400 can be identified, the subject information includes information about the character. The communication unit 120 transmits the subject information generated by the server processing unit 111 to the information terminal device 200. When the communication unit 250 receives the subject information, the information terminal device 200 can acquire the subject information. The acquired subject information may be stored in the storage unit 260 of the information terminal device 200.

ステップS120では、第2処理部212が、被写体400に含まれるパーツ401を特定する。具体的には、第2処理部212は、パーツ401を抽出し、抽出したパーツ401が被写体400のどのパーツに該当するかを判定し、パーツ401を特定する。図4(A)に示すパーツ401は口であるが、パーツ401は口に限られない。パーツ401は、被写体400の部位(顔部、胴部、腕部、脚部、目、鼻、口、耳、髪の毛、手、または足など)であってもよく、被写体が着ている服であってもよく、被写体が具備する道具(武器または羽など)であってもよい。被写体400においては、特に、目または口などのパーツ401が判定されることが好ましい。被写体400の目を変化させることにより、被写体400がまばたきをしているアニメーションを表示することができる。また、被写体400の口を変化させることにより、被写体400が会話しているアニメーションを表示することができる。 In step S120, the second processing unit 212 identifies the part 401 included in the subject 400. Specifically, the second processing unit 212 extracts the part 401, determines which part of the subject 400 the extracted part 401 corresponds to, and identifies the part 401. The part 401 shown in FIG. 4A is a mouth, but the part 401 is not limited to the mouth. Part 401 may be a part of the subject 400 (face, torso, arms, legs, eyes, nose, mouth, ears, hair, hands, feet, etc.), and is the clothes worn by the subject. It may be a tool (such as a weapon or a wing) that the subject has. In the subject 400, it is particularly preferable that the parts 401 such as eyes or mouth are determined. By changing the eyes of the subject 400, it is possible to display an animation in which the subject 400 is blinking. Further, by changing the mouth of the subject 400, it is possible to display an animation in which the subject 400 is talking.

第2処理部212は、複数のパーツ401を判定してもよい。複数のパーツが判定されることにより、複数のパーツでアニメーション表示をすることができる。 The second processing unit 212 may determine a plurality of parts 401. By determining a plurality of parts, it is possible to display an animation with a plurality of parts.

パーツ401は、ユーザが選択することもできる。第2処理部212によるパーツ401の抽出が困難である場合、またはユーザがアニメーション表示させたい特定のパーツがある場合、ユーザがパーツ401を選択することで、第2処理部212はパーツ401を抽出することなくパーツ401を判定することが可能になる。そのため、第2処理部212によるパーツ401の判定の精度が向上する。 The part 401 can also be selected by the user. When it is difficult for the second processing unit 212 to extract the part 401, or when there is a specific part that the user wants to be animated, the second processing unit 212 extracts the part 401 by selecting the part 401. It becomes possible to determine the part 401 without doing so. Therefore, the accuracy of the determination of the part 401 by the second processing unit 212 is improved.

また、第2処理部は、特定されたパーツ401に基づくパーツ情報を生成する。 In addition, the second processing unit generates part information based on the specified part 401.

ステップS130では、情報端末装置200が、パーツ情報に基づくパーツデータ411を取得する。情報端末装置200の通信部250は、パーツ情報をサーバ装置100に送信する。サーバ装置100の通信部120は、パーツ情報を受信する。サーバ処理部111はパーツ情報を判定し、判定に基づくパーツデータ411を記憶部130から取得する。通信部120は、サーバ処理部111によって取得されたパーツデータ411を情報端末装置200に送信する。通信部250が、パーツデータ411を受信することによって、情報端末装置200は、パーツデータ411を取得することができる。なお、取得されたパーツデータ411は、情報端末装置200の記憶部260に格納されてもよい。 In step S130, the information terminal device 200 acquires the part data 411 based on the part information. The communication unit 250 of the information terminal device 200 transmits the parts information to the server device 100. The communication unit 120 of the server device 100 receives the part information. The server processing unit 111 determines the part information, and acquires the part data 411 based on the determination from the storage unit 130. The communication unit 120 transmits the part data 411 acquired by the server processing unit 111 to the information terminal device 200. When the communication unit 250 receives the part data 411, the information terminal device 200 can acquire the part data 411. The acquired part data 411 may be stored in the storage unit 260 of the information terminal device 200.

パーツデータ411は、静止画データであってもよく、動画データであってもよい。パーツデータが静止画データであっても、被写体400がもともと有するパーツと静止画データとを交互に表示させることで、被写体400のアニメーション表示が可能となる。 The part data 411 may be still image data or moving image data. Even if the part data is still image data, the animation of the subject 400 can be displayed by alternately displaying the parts originally possessed by the subject 400 and the still image data.

ステップS140では、第3処理部213が、表示部230に表示された映像の中に、パーツ401を含む第1オブジェクト領域301を画定する。第3処理部213は、パーツ情報に基づき、パーツ401を囲むように映像の座標情報を取得し、第1オブジェクト領域301を画定する。また、第3処理部213は、第1オブジェクト領域301に基づく第1オブジェクト領域情報を生成する。 In step S140, the third processing unit 213 defines the first object area 301 including the part 401 in the image displayed on the display unit 230. Based on the part information, the third processing unit 213 acquires the coordinate information of the video so as to surround the part 401, and defines the first object area 301. In addition, the third processing unit 213 generates the first object area information based on the first object area 301.

ステップS150では、第4処理部214が、第1オブジェクト領域301の大きさに合わせて、取得されたパーツデータ411の大きさを調整する。また、第4処理部214は、被写体情報に基づいてパーツデータ411の角度を調整する。さらに、第4処理部214は、第1オブジェクト領域情報に含まれる色の情報に基づいて、パーツデータ411の色を調整する。パーツデータ411の大きさ、角度、および色を調整することで、被写体400にパーツデータ411を重畳したときであっても、違和感のない映像を表示することができる。 In step S150, the fourth processing unit 214 adjusts the size of the acquired part data 411 according to the size of the first object area 301. Further, the fourth processing unit 214 adjusts the angle of the part data 411 based on the subject information. Further, the fourth processing unit 214 adjusts the color of the part data 411 based on the color information included in the first object area information. By adjusting the size, angle, and color of the part data 411, it is possible to display a comfortable image even when the part data 411 is superimposed on the subject 400.

ステップS160では、第5処理部215が、第1オブジェクト領域情報に基づいて、調整されたパーツデータ411を第1オブジェクト領域301に重畳する。被写体400にパーツデータ411を重畳することにより、被写体400がアニメーション表示され、被写体400に動きを与えることができる。 In step S160, the fifth processing unit 215 superimposes the adjusted part data 411 on the first object area 301 based on the first object area information. By superimposing the part data 411 on the subject 400, the subject 400 is displayed as an animation, and the subject 400 can be moved.

以上、情報処理Aについて説明したが、情報処理Aが実行されることによって、情報端末装置200の表示部230には、被写体400の一部(パーツ)が変化した映像が表示される。被写体400の一部以外は、被写体500を撮影した映像であるため、ユーザは、被写体400を、現実空間の被写体500であるかのように感じることができる。また、被写体400を基にパーツデータ411が調整されているため、被写体400にパーツデータ411を重畳しても違和感のない表示が可能である。そのため、ユーザは、被写体400の一部が変化するアニメーション表示により、本来動きのない現実空間の被写体500が、あたかも動いているかのように感じることができる。 Although the information processing A has been described above, when the information processing A is executed, the display unit 230 of the information terminal device 200 displays an image in which a part of the subject 400 is changed. Since the image other than a part of the subject 400 is an image of the subject 500, the user can feel the subject 400 as if it were the subject 500 in the real space. Further, since the part data 411 is adjusted based on the subject 400, it is possible to display the part data 411 without discomfort even if the part data 411 is superimposed on the subject 400. Therefore, the user can feel as if the subject 500 in the real space, which is originally stationary, is moving by the animation display in which a part of the subject 400 is changed.

[3.パーツデータの生成]
上述したステップS130では、サーバ装置100の記憶部130からパーツデータ411を取得したが、パーツデータ411は生成することもできる。ここでは、図5を参照して、パーツデータ411の生成方法について説明する。
[3. Part data generation]
In step S130 described above, the part data 411 is acquired from the storage unit 130 of the server device 100, but the part data 411 can also be generated. Here, a method of generating the part data 411 will be described with reference to FIG.

図5は、本発明の一実施形態に係る情報処理システム10を利用し、パーツデータを生成し、生成されたパーツデータが重畳された映像を説明する図である。なお、図5では、判定されたパーツ401が被写体400の目であるとして説明する。 FIG. 5 is a diagram illustrating an image in which part data is generated by using the information processing system 10 according to the embodiment of the present invention and the generated part data is superimposed. In FIG. 5, the determined part 401 will be described as the eye of the subject 400.

図5(A)〜図5(D)は、それぞれ、第1パーツデータ411−1〜第4パーツデータ411−4を示す。第6処理部216は、被写体400のオリジナルである第1パーツデータ411−1とパーツ情報に基づいて、中間のパーツデータとして第2パーツデータ411−2〜第4パーツデータ411−4を生成する。特定されたパーツが開いている目である場合、パーツ情報に含まれる目の情報に基づいて、目を閉じる中間の第2パーツデータ411−2〜第4パーツデータ411−4を生成する。例えば、目の瞳の一部を削除する処理を行うことで、中間の第2パーツデータ411−2〜第4パーツデータ411−4を生成することができる。 5 (A) to 5 (D) show the first part data 411 to the fourth part data 411-4, respectively. The sixth processing unit 216 generates the second part data 411-2 to the fourth part data 411-4 as intermediate part data based on the original first part data 411-1 of the subject 400 and the part information. .. When the specified part is an open eye, the second part data 411-2 to the fourth part data 411-4 in the middle of closing the eyes are generated based on the eye information included in the part information. For example, by performing a process of deleting a part of the pupil of the eye, it is possible to generate intermediate second part data 411-2 to fourth part data 411-4.

パーツデータ411の生成においては、サーバ装置100を用いることもできる。情報端末装置200の通信部250は、被写体のオリジナルである第1パーツデータ411−1とパーツ情報をサーバ装置100に送信する。サーバ装置100の通信部120は第1パーツデータ411−1とパーツ情報を受信する。サーバ処理部111は、受信した第1パーツデータ411−1とパーツ情報に基づいて、中間の第2パーツデータ411−2〜第4パーツデータ411−4を生成する。通信部120は、サーバ処理部111によって生成された第2パーツデータ411−2〜第4パーツデータ411−4を情報端末装置200に送信する。通信部250が第2パーツデータ411−2〜第4パーツデータ411−4を受信することによって、情報端末装置200は、生成されたパーツデータ411を取得することができる。 The server device 100 can also be used in generating the part data 411. The communication unit 250 of the information terminal device 200 transmits the original first part data 411-1 of the subject and the part information to the server device 100. The communication unit 120 of the server device 100 receives the first part data 411-1 and the part information. The server processing unit 111 generates intermediate second part data 411-2 to fourth part data 411-4 based on the received first part data 411-1 and part information. The communication unit 120 transmits the second part data 411-2 to the fourth part data 411-4 generated by the server processing unit 111 to the information terminal device 200. When the communication unit 250 receives the second part data 411-2 to the fourth part data 411-4, the information terminal device 200 can acquire the generated part data 411.

図3に示したステップS130の代わりに、上述したパーツデータ411の生成に関する情報処理を実行し、生成されたパーツデータ411を用いて、ステップS140〜S160の情報処理を実行する。その結果、図5(E)に示すように、情報端末装置200の表示部230には、生成されたパーツデータ411を用いて被写体400の一部(パーツ)が変化した映像が表示される。情報処理システム10では、パーツデータ411を生成することができるため、サーバ装置100の記憶部130にパーツ情報に基づくパーツデータ411が格納されていないときであっても、被写体400に動きを与えることができる。また、生成されたパーツデータ411は、被写体400から生成されるため、被写体400にパーツデータ411を重畳しても違和感のない表示が可能である。 Instead of step S130 shown in FIG. 3, the information processing related to the generation of the part data 411 described above is executed, and the information processing of steps S140 to S160 is executed using the generated part data 411. As a result, as shown in FIG. 5 (E), the display unit 230 of the information terminal device 200 displays an image in which a part (part) of the subject 400 is changed by using the generated part data 411. Since the information processing system 10 can generate the part data 411, the subject 400 can be moved even when the part data 411 based on the part information is not stored in the storage unit 130 of the server device 100. Can be done. Further, since the generated part data 411 is generated from the subject 400, it is possible to display the part data 411 without discomfort even if the part data 411 is superimposed on the subject 400.

[4.被写体のセリフを表示する情報処理(情報処理B)]
図6および図7を参照して、情報端末装置200の撮像部220で現実空間の被写体500を撮影しながら、情報端末装置200の表示部230に表示された映像の被写体400にセリフを表示する情報処理について説明する。
[4. Information processing that displays the lines of the subject (information processing B)]
With reference to FIGS. 6 and 7, while the image pickup unit 220 of the information terminal device 200 captures the subject 500 in the real space, the dialogue is displayed on the subject 400 of the image displayed on the display unit 230 of the information terminal device 200. Information processing will be described.

図6は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400にセリフを表示する情報処理を示すフローチャートである。以下、便宜上、図6に示す情報処理を、情報処理Bとして説明する。 FIG. 6 is a flowchart showing information processing for displaying dialogue on a subject 400 in an image using the information processing system 10 according to the embodiment of the present invention. Hereinafter, for convenience, the information processing shown in FIG. 6 will be described as information processing B.

図6に示す情報処理Bは、端末情報を取得するステップ(S210)と、環境情報を生成するステップ(S220)と、環境情報に基づくセリフデータ412を取得するステップ(S230)と、映像の中に第2オブジェクト領域302を画定するステップ(S240)と、セリフデータ412を調整するステップ(S250)と、第2オブジェクト領域302にセリフデータ412を重畳するステップと、を含む。以下、図7を参照しながら、各ステップについて説明する。 The information processing B shown in FIG. 6 includes a step of acquiring terminal information (S210), a step of generating environmental information (S220), a step of acquiring dialogue data 412 based on the environmental information (S230), and in the video. Includes a step of defining the second object area 302 (S240), a step of adjusting the dialogue data 412 (S250), and a step of superimposing the dialogue data 412 on the second object region 302. Hereinafter, each step will be described with reference to FIG. 7.

図7は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400にセリフが表示された映像を説明する図である。 FIG. 7 is a diagram illustrating an image in which dialogue is displayed on a subject 400 in an image by using the information processing system 10 according to the embodiment of the present invention.

ステップS210では、第7処理部217が、情報端末装置200の記憶部260に格納されている時刻などの端末情報を取得する。ここでは、第7処理部217は、端末情報として、時刻に関する情報を取得している。 In step S210, the seventh processing unit 217 acquires terminal information such as the time stored in the storage unit 260 of the information terminal device 200. Here, the seventh processing unit 217 acquires information on the time as terminal information.

ステップS220では、第7処理部217が、取得した端末情報を判定し、セリフデータ412の取得に必要な環境情報を生成する。ここでは、第7処理部217は、時刻に関する情報が「朝」の情報であると判定し、「朝」の情報を含む環境情報を生成する。 In step S220, the seventh processing unit 217 determines the acquired terminal information and generates the environmental information necessary for acquiring the serif data 412. Here, the seventh processing unit 217 determines that the information regarding the time is the "morning" information, and generates the environmental information including the "morning" information.

環境情報の生成においては、サーバ装置100を用いることもできる。情報端末装置200の通信部250は、端末情報をサーバ装置100に送信する。サーバ装置100の通信部120は、端末情報を受信する。サーバ処理部111は、端末情報を判定し、環境情報を生成する。通信部120は、サーバ処理部111によって生成された環境情報を情報端末装置200に送信する。通信部250が、環境情報を受信することによって、情報端末装置200は、環境情報を取得することができる。なお、取得された環境情報は、情報端末装置200の記憶部260に格納されてもよい。 The server device 100 can also be used in generating the environmental information. The communication unit 250 of the information terminal device 200 transmits the terminal information to the server device 100. The communication unit 120 of the server device 100 receives the terminal information. The server processing unit 111 determines the terminal information and generates the environment information. The communication unit 120 transmits the environment information generated by the server processing unit 111 to the information terminal device 200. When the communication unit 250 receives the environmental information, the information terminal device 200 can acquire the environmental information. The acquired environmental information may be stored in the storage unit 260 of the information terminal device 200.

ステップS230では、情報端末装置200が、端末情報に基づくセリフデータ412を取得する。情報端末装置200の通信部250は、環境情報をサーバ装置100に送信する。サーバ装置100の通信部120は、環境情報を受信する。サーバ処理部111は環境情報を判定し、環境情報に基づくセリフデータ412を記憶部130から取得する。通信部120は、サーバ処理部111によって取得されたセリフデータを情報端末装置200に送信する。通信部250が、セリフデータ412を受信することによって、情報端末装置200は、セリフデータ412を取得することができる。なお、取得されたセリフデータ412は、情報端末装置200の記憶部260に格納されてもよい。 In step S230, the information terminal device 200 acquires the dialogue data 412 based on the terminal information. The communication unit 250 of the information terminal device 200 transmits environmental information to the server device 100. The communication unit 120 of the server device 100 receives the environmental information. The server processing unit 111 determines the environmental information and acquires the dialogue data 412 based on the environmental information from the storage unit 130. The communication unit 120 transmits the dialogue data acquired by the server processing unit 111 to the information terminal device 200. When the communication unit 250 receives the dialogue data 412, the information terminal device 200 can acquire the dialogue data 412. The acquired serif data 412 may be stored in the storage unit 260 of the information terminal device 200.

環境情報の生成をサーバ装置100で実行する場合、サーバ装置100は、環境情報の生成に続いてセリフデータ412を取得してもよい。すなわち、サーバ装置100は、情報端末装置200に環境情報を送信することなく、環境情報に基づくセリフデータ412を記憶部130から取得し、セリフデータ412のみを情報端末装置200に送信してもよい。 When the generation of the environment information is executed by the server device 100, the server device 100 may acquire the dialogue data 412 following the generation of the environment information. That is, the server device 100 may acquire the dialogue data 412 based on the environment information from the storage unit 130 and transmit only the dialogue data 412 to the information terminal device 200 without transmitting the environment information to the information terminal device 200. ..

セリフデータ412は、少なくとも会話データを含み、セリフの吹き出しデータを含んでいてもよい。セリフデータ412の会話データは、被写体400がユーザに話しかける会話のデータである。例えば、会話データは、環境情報に誕生日の情報が含まれていれば「おめでとう」、環境情報に「朝」の情報が含まれていれば「おはよう」、または端末情報に「特定日」の情報が含まれていれば「どこか遊びにいこうよ」などである。また、セリフデータ412は、音声データを含んでいてもよい。 The dialogue data 412 includes at least conversation data, and may include speech balloon data. The conversation data of the dialogue data 412 is data of a conversation in which the subject 400 speaks to the user. For example, the conversation data is "Congratulations" if the environmental information includes birthday information, "Good morning" if the environmental information contains "morning" information, or "Specific date" in the terminal information. If the information is included, it may be something like "Let's go play somewhere". Further, the dialogue data 412 may include voice data.

被写体400のキャラクタが特定されている場合、サーバ処理部111は、キャラクタ情報と環境情報とに基づいてセリフデータ412を取得してもよい。その場合、キャラクタの話し方に合わせたセリフデータ412を取得することができるため、ユーザはキャラクタの世界観を共有することができる。 When the character of the subject 400 is specified, the server processing unit 111 may acquire the dialogue data 412 based on the character information and the environment information. In that case, since the dialogue data 412 that matches the way the character speaks can be acquired, the user can share the world view of the character.

さらに、セリフデータ412の代わりに、環境情報に基づくキャラクタの映像データまたは環境情報に基づく広告データを取得してもよい。これらのデータは、サーバ装置100の記憶部130から取得してもよく、他のサーバ装置から取得してもよい。なお、これらのデータも、第2オブジェクト領域302に重畳することができる。 Further, instead of the dialogue data 412, the video data of the character based on the environmental information or the advertisement data based on the environmental information may be acquired. These data may be acquired from the storage unit 130 of the server device 100, or may be acquired from another server device. These data can also be superimposed on the second object area 302.

ステップS240では、第3処理部213が、表示部230に表示された映像の中に、第2オブジェクト領域302を画定する。第3処理部213は、被写体400の顔部近傍であって、可能な限り顔部と重畳しないように第2オブジェクト領域302を画定する。顔部は被写体400の上部に位置することが多いため、第3処理部213は、被写体400の上部と隣接する位置に第2オブジェクト領域302を画定してもよい。また、第3処理部213は、第2オブジェクト領域302に基づく第2オブジェクト領域情報を生成する。 In step S240, the third processing unit 213 defines the second object area 302 in the image displayed on the display unit 230. The third processing unit 213 defines the second object area 302 in the vicinity of the face portion of the subject 400 so as not to overlap the face portion as much as possible. Since the face portion is often located above the subject 400, the third processing unit 213 may define the second object area 302 at a position adjacent to the upper portion of the subject 400. In addition, the third processing unit 213 generates the second object area information based on the second object area 302.

ステップS250では、第4処理部214が、第2オブジェクト領域302の大きさに合わせて、取得されたセリフデータ412の大きさを調整する。第4処理部214は、第2オブジェクト領域302の第2オブジェクト領域情報とセリフデータ412のセリフ情報とを比較し、第2オブジェクト領域情報に基づいて、セリフデータ412の大きさを調整する。なお、セリフデータ412が小さすぎると、表示されるセリフが小さくなってしまい、ユーザの没入感が得られない。そのため、セリフデータ412の大きさには下限を設けておいてもよい。 In step S250, the fourth processing unit 214 adjusts the size of the acquired serif data 412 according to the size of the second object area 302. The fourth processing unit 214 compares the second object area information of the second object area 302 with the dialogue information of the dialogue data 412, and adjusts the size of the dialogue data 412 based on the second object region information. If the dialogue data 412 is too small, the displayed dialogue will be too small, and the user will not feel immersive. Therefore, a lower limit may be set for the size of the dialogue data 412.

ステップS260では、第5処理部215が、第2オブジェクト領域情報に基づいて、調整されたセリフデータ412を第2オブジェクト領域302に重畳する。セリフデータ412に音声データが含まれるときは、セリフデータ412を表示するとともに、音声データを再生してもよい。音声があることにより、ユーザーの没入感を高めることができる。 In step S260, the fifth processing unit 215 superimposes the adjusted serif data 412 on the second object area 302 based on the second object area information. When the dialogue data 412 includes voice data, the dialogue data 412 may be displayed and the voice data may be reproduced. The presence of voice can enhance the user's immersive feeling.

情報処理Bは、情報処理Aと組み合わせて実行することができる。 Information processing B can be executed in combination with information processing A.

以上、情報処理Bについて説明したが、情報処理Bが実行されることによって、情報端末装置200の表示部230の映像には、被写体400のセリフが表示される。セリフは、端末情報に基づいたものであるため、ユーザは、現実空間の被写体500のキャラクタがあたかもユーザに語りかけてくるかのように感じることができる。そのため、ユーザは、被写体500のキャラクタの世界観に没頭することができる。 Although the information processing B has been described above, when the information processing B is executed, the dialogue of the subject 400 is displayed on the image of the display unit 230 of the information terminal device 200. Since the dialogue is based on the terminal information, the user can feel as if the character of the subject 500 in the real space speaks to the user. Therefore, the user can immerse himself in the world view of the character of the subject 500.

[5.被写体の背景に基づくセリフを表示する情報処理(情報処理C)]
図8および図9を参照して、情報端末装置200の撮像部220で現実空間の被写体500を撮影しながら、被写体400に、表示部230に表示された映像の背景に基づくセリフを表示する情報処理について説明する。
[5. Information processing that displays dialogue based on the background of the subject (information processing C)]
With reference to FIGS. 8 and 9, information is displayed on the subject 400 based on the background of the image displayed on the display unit 230 while the image pickup unit 220 of the information terminal device 200 captures the subject 500 in the real space. The processing will be described.

図8は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400にセリフを表示する情報処理を示すフローチャートである。以下、便宜上、図8に示す情報処理を、情報処理Cとして説明する。 FIG. 8 is a flowchart showing information processing for displaying dialogue on a subject 400 in an image using the information processing system 10 according to the embodiment of the present invention. Hereinafter, for convenience, the information processing shown in FIG. 8 will be described as information processing C.

図8に示す情報処理Cは、被写体400の背景から背景情報を生成するステップ(S310)と、背景情報に基づくセリフデータ413を取得するステップ(S320)と、映像の中に第2オブジェクト領域302を画定するステップ(S330)と、セリフデータ413を調整するステップ(S340)と、第2オブジェクト領域302にセリフデータ413を重畳するステップと、を含む。以下、図9を参照しながら、各ステップについて説明する。 The information processing C shown in FIG. 8 includes a step of generating background information from the background of the subject 400 (S310), a step of acquiring dialogue data 413 based on the background information (S320), and a second object area 302 in the video. The step (S330), the step of adjusting the dialogue data 413 (S340), and the step of superimposing the dialogue data 413 on the second object area 302 are included. Hereinafter, each step will be described with reference to FIG.

図9は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400にセリフを表示する前後の撮影を説明する図である。具体的には、図9(A)に示す情報端末装置200の表示部230には、被写体400にセリフを表示する前の映像が表示され、図9(B)に示す情報端末装置200の表示部230には、被写体400にセリフを表示した後の映像が表示されている。図9(A)および図9(B)に示すように、現実空間には、被写体500のほかに、物体510が置かれている。図9(A)および図9(B)に示す物体510は、主に夏の季節で使用する扇風機である。 FIG. 9 is a diagram illustrating shooting before and after displaying dialogue on a subject 400 in an image using the information processing system 10 according to the embodiment of the present invention. Specifically, the display unit 230 of the information terminal device 200 shown in FIG. 9A displays an image before displaying the dialogue on the subject 400, and the display of the information terminal device 200 shown in FIG. 9B is displayed. The image after displaying the dialogue on the subject 400 is displayed in the unit 230. As shown in FIGS. 9A and 9B, an object 510 is placed in addition to the subject 500 in the real space. The object 510 shown in FIGS. 9 (A) and 9 (B) is a fan mainly used in the summer season.

ステップS310では、第1処理部211が、表示部230に表示された映像の中から被写体400以外の部分(背景)に含まれる物体450を特定する。第1処理部211は、物体450を所定の分類パターンに基づいて物体を450を特定する。また、第1処理部211は、特定された物体450に基づいて物体情報を生成する。 In step S310, the first processing unit 211 identifies an object 450 included in a portion (background) other than the subject 400 from the video displayed on the display unit 230. The first processing unit 211 identifies the object 450 based on a predetermined classification pattern. In addition, the first processing unit 211 generates object information based on the specified object 450.

物体450の特定において、サーバ装置100を用いることもできる。情報端末装置200の通信部250は、撮影された映像データをサーバ装置100に送信する。サーバ装置100の通信部120は、映像データを受信する。サーバ処理部111は、映像データを判定することによって物体450を特定し、物体情報を生成する。通信部120は、サーバ処理部111によって生成された物体情報を情報端末装置200に送信する。通信部250が、物体情報を受信することによって、情報端末装置200は、物体情報を取得することができる。なお、取得された物体情報は、情報端末装置200の記憶部260に格納されてもよい。 The server device 100 can also be used to identify the object 450. The communication unit 250 of the information terminal device 200 transmits the captured video data to the server device 100. The communication unit 120 of the server device 100 receives the video data. The server processing unit 111 identifies the object 450 by determining the video data and generates the object information. The communication unit 120 transmits the object information generated by the server processing unit 111 to the information terminal device 200. When the communication unit 250 receives the object information, the information terminal device 200 can acquire the object information. The acquired object information may be stored in the storage unit 260 of the information terminal device 200.

ステップS320では、情報端末装置200が、物体情報に基づくセリフデータ413を取得する。情報端末装置200の通信部250は、物体情報をサーバ装置100に送信する。サーバ装置100の通信部120は、物体情報を受信する。サーバ処理部111は物体情報を判定し、物体情報に基づくセリフデータ413を記憶部130から取得する。通信部120は、サーバ処理部111によって取得されたセリフデータ413を情報端末装置200に送信する。通信部250が、セリフデータ413を受信することによって、情報端末装置200は、セリフデータ413を取得することができる。なお、取得されたセリフデータ413は、情報端末装置200の記憶部260に格納されてもよい。 In step S320, the information terminal device 200 acquires the dialogue data 413 based on the object information. The communication unit 250 of the information terminal device 200 transmits the object information to the server device 100. The communication unit 120 of the server device 100 receives the object information. The server processing unit 111 determines the object information and acquires the dialogue data 413 based on the object information from the storage unit 130. The communication unit 120 transmits the dialogue data 413 acquired by the server processing unit 111 to the information terminal device 200. When the communication unit 250 receives the dialogue data 413, the information terminal device 200 can acquire the dialogue data 413. The acquired serif data 413 may be stored in the storage unit 260 of the information terminal device 200.

物体450の特定をサーバ装置100で実行する場合、サーバ装置100は、物体情報の生成に続いてセリフデータ413を取得してもよい。すなわち、サーバ装置100は、情報端末装置200に物体情報を送信することなく、物体情報に基づくセリフデータ413を記憶部130から取得し、セリフデータ413のみを情報端末装置200に送信してもよい。 When the server device 100 executes the identification of the object 450, the server device 100 may acquire the dialogue data 413 following the generation of the object information. That is, the server device 100 may acquire the dialogue data 413 based on the object information from the storage unit 130 and transmit only the dialogue data 413 to the information terminal device 200 without transmitting the object information to the information terminal device 200. ..

セリフデータ413は、少なくとも会話データを含み、セリフの吹き出しデータを含んでいてもよい。セリフデータ413の会話データは、被写体400がユーザに話しかける会話のデータであるが、物体情報に基づくものである。例えば、会話データは、物体情報に夏の情報が含まれていれば「暑いね」、物体情報に花の情報が含まれていれば「きれいだね」、または物体情報に食べ物の情報が含まれていれば「お腹減った」などである。また、セリフデータ413は、音声データを含んでいてもよい。 The dialogue data 413 includes at least conversation data, and may include speech balloon data. The conversation data of the dialogue data 413 is the data of the conversation that the subject 400 talks to the user, but is based on the object information. For example, conversation data is "hot" if the object information includes summer information, "pretty" if the object information contains flower information, or food information is included in the object information. If so, it means "I'm hungry." Further, the dialogue data 413 may include voice data.

被写体400のキャラクタが特定されている場合、サーバ処理部111は、キャラクタ情報と物体情報とに基づいてセリフデータ413を取得してもよい。その場合、キャラクタの話し方に合わせたセリフデータ413を取得することができるため、ユーザはキャラクタの世界観を共有することができる。 When the character of the subject 400 is specified, the server processing unit 111 may acquire the dialogue data 413 based on the character information and the object information. In that case, since the dialogue data 413 that matches the way the character speaks can be acquired, the user can share the world view of the character.

ステップS330、ステップS340、およびステップS350は、それぞれ、上述したステップS240、ステップS250、およびステップS260と同様であるため、ここでは説明を省略する。 Since step S330, step S340, and step S350 are the same as step S240, step S250, and step S260 described above, respectively, description thereof will be omitted here.

情報処理Cは、情報処理Aまたは情報処理Bと組合わせて実行することができる。 Information processing C can be executed in combination with information processing A or information processing B.

以上、情報処理Cについて説明したが、情報処理Cが実行されることによって、情報端末装置200の表示部230に、撮影されている環境に応じた被写体400のセリフを表示することができる。そのため、ユーザは、現実空間の環境に融合された被写体500のキャラクタの世界観を身近に感じることができるとともに、被写体500のキャラクタに感情移入することができる。 Although the information processing C has been described above, when the information processing C is executed, the lines of the subject 400 according to the shooting environment can be displayed on the display unit 230 of the information terminal device 200. Therefore, the user can feel the world view of the character of the subject 500 fused to the environment of the real space, and can embrace the character of the subject 500.

[6.認証マークに基づき被写体のパーツを変化させる情報処理(情報処理D)]
図10および図11を参照して、情報端末装置200の撮像部220で現実空間の認証マークが付加された被写体500を撮影しながら、表示部230に表示された映像の被写体400のパーツを変化させる情報処理フローについて説明する。
[6. Information processing that changes the parts of the subject based on the certification mark (information processing D)]
With reference to FIGS. 10 and 11, the image pickup unit 220 of the information terminal device 200 captures the subject 500 to which the authentication mark in the real space is added, while changing the parts of the subject 400 of the image displayed on the display unit 230. The information processing flow to be performed will be described.

図10は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400のパーツを変化させる情報処理を示すフローチャートである。以下、便宜上、図10に示す情報処理を、情報処理Dとして説明する。 FIG. 10 is a flowchart showing information processing in which the parts of the subject 400 in the video are changed by using the information processing system 10 according to the embodiment of the present invention. Hereinafter, for convenience, the information processing shown in FIG. 10 will be described as information processing D.

図10に情報処理Dは、映像の中の認証マーク403に基づいて被写体400を特定するステップ(S405)と、被写体400に含まれるパーツ401を特定するステップ(S410)と、パーツ401に関するパーツデータ411を取得するステップ(S415)と、映像の中に第1オブジェクト領域301を画定するステップ(S420)と、パーツデータ411を調整するステップ(S425)と、第1オブジェクト領域301にパーツデータ411を重畳するステップ(S430)と、遮蔽データ414を取得するステップ(S435)と、映像の中に第3オブジェクト領域303を画定するステップ(S440)と、遮蔽データ414を調整するステップ(S445)と、第3オブジェクト領域303に遮蔽データ414を重畳するステップ(S450)と、を含む。以下、図11を参照しながら、各ステップについて説明する。 In FIG. 10, the information processing D includes a step of specifying the subject 400 based on the authentication mark 403 in the video (S405), a step of specifying the part 401 included in the subject 400 (S410), and part data related to the part 401. The step of acquiring 411 (S415), the step of defining the first object area 301 in the image (S420), the step of adjusting the part data 411 (S425), and the part data 411 in the first object area 301. A step of superimposing (S430), a step of acquiring shielding data 414 (S435), a step of defining a third object area 303 in the image (S440), and a step of adjusting the shielding data 414 (S445). A step (S450) of superimposing the shielding data 414 on the third object area 303 is included. Hereinafter, each step will be described with reference to FIG.

図11は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400のパーツが変化する前後の撮影を説明する図である。具体的には、図11(A)に示す情報端末装置200の表示部230には、被写体400のパーツが変化する前の映像が表示され、図11(B)に示す情報端末装置200の表示部230には、被写体400のパーツが変化した後の映像が表示されている。 FIG. 11 is a diagram illustrating shooting before and after the parts of the subject 400 in the image change by using the information processing system 10 according to the embodiment of the present invention. Specifically, the display unit 230 of the information terminal device 200 shown in FIG. 11A displays an image before the parts of the subject 400 are changed, and the display of the information terminal device 200 shown in FIG. 11B is displayed. The image after the parts of the subject 400 are changed is displayed in the unit 230.

図11(A)および図11(B)に示す被写体500は、被写体500を特定することができる(被写体500に関する情報を含む)認証マーク520が付加されている。そのため、認証マーク520(具体的には、映像の中の認証マーク403)を読み込むことにより、被写体500の形態およびキャラクタを特定することができる。図11(A)および図11(B)に示す認証マーク520はQR(Quick Response)コードであるが、認証マーク520は、QRコード(登録商標)に限られない。認証マーク520は、例えば、バーコードであってもよく、認証マーク520(具体的には、映像の中の認証マーク403)を解析することによって被写体500を特定することができるものであればよい。 The subject 500 shown in FIGS. 11A and 11B is provided with a certification mark 520 that can identify the subject 500 (including information about the subject 500). Therefore, by reading the certification mark 520 (specifically, the certification mark 403 in the video), the form and character of the subject 500 can be specified. The certification mark 520 shown in FIGS. 11A and 11B is a QR (Quick Response) code, but the certification mark 520 is not limited to the QR code (registered trademark). The certification mark 520 may be, for example, a barcode, as long as the subject 500 can be identified by analyzing the certification mark 520 (specifically, the certification mark 403 in the video). ..

ステップS405では、第1処理部211が、表示部230に表示された映像の中から認証マーク403を検出し、認証マーク403から被写体400を特定する。また、第1処理部211は、特定された被写体400に基づいて被写体情報を生成する。さらに、第1処理部211は、認証マーク情報を生成する。 In step S405, the first processing unit 211 detects the certification mark 403 from the video displayed on the display unit 230, and identifies the subject 400 from the certification mark 403. In addition, the first processing unit 211 generates subject information based on the specified subject 400. Further, the first processing unit 211 generates the certification mark information.

ステップS410、ステップS415、ステップS420、ステップS425、およびステップS430は、それぞれ、上述したステップS120、ステップS130、ステップS140、ステップS150、およびステップS160と同様であるため、ここでは説明を省略する。 Since step S410, step S415, step S420, step S425, and step S430 are the same as the above-mentioned steps S120, S130, step S140, step S150, and step S160, respectively, description thereof will be omitted here.

ステップS435では、情報端末装置200が、認証マーク403を隠すための遮蔽データ414を取得する。情報端末装置200の通信部250は、認証マーク情報をサーバ装置100に送信する。サーバ装置100の通信部120は、認証マーク情報を受信する。サーバ処理部111は、認証マーク情報を判定し、判定に基づく遮蔽データ414を記憶部130から取得する。通信部120は、サーバ処理部111によって取得された遮蔽データ414を情報端末装置200に送信する。通信部250が、遮蔽データ414を受信することによって、情報端末装置200は、遮蔽データ414を取得することができる。なお、取得された遮蔽データ414は、情報端末装置200の記憶部260に格納されてもよい。 In step S435, the information terminal device 200 acquires the shielding data 414 for hiding the certification mark 403. The communication unit 250 of the information terminal device 200 transmits the authentication mark information to the server device 100. The communication unit 120 of the server device 100 receives the authentication mark information. The server processing unit 111 determines the authentication mark information, and acquires the shielding data 414 based on the determination from the storage unit 130. The communication unit 120 transmits the shield data 414 acquired by the server processing unit 111 to the information terminal device 200. When the communication unit 250 receives the shield data 414, the information terminal device 200 can acquire the shield data 414. The acquired shielding data 414 may be stored in the storage unit 260 of the information terminal device 200.

遮蔽データ414は、単色の矩形を表示するデータであってもよく、複数色の矩形を表示するデータであってもよい。また、遮蔽データ414は、模様が付された矩形を表示するデータであってもよい。さらに、遮蔽データ414は、矩形を表示するものに限られない。遮蔽データ414は、円形または楕円形などを表示するものであってもよい。また、被写体400のキャラクタが特定されている場合、遮蔽データ414は、キャラクタに固有のトレードマークまたはエンブレムなどの映像であってもよい。 The shielding data 414 may be data for displaying a rectangle of a single color, or may be data for displaying a rectangle of a plurality of colors. Further, the shielding data 414 may be data for displaying a rectangle with a pattern. Further, the shielding data 414 is not limited to displaying a rectangle. The shielding data 414 may display a circular shape, an elliptical shape, or the like. Further, when the character of the subject 400 is specified, the shielding data 414 may be an image such as a trademark or an emblem peculiar to the character.

ステップS440では、第3処理部213が、表示部230に表示された映像の中に、認証マーク403を含む第3オブジェクト領域303を画定する。第3処理部213は、認証マーク情報に基づき、認証マーク403を囲むように映像の座標情報を取得し、第3オブジェクト領域303を画定する。また、第3処理部213は、第3オブジェクト領域303に基づく第3オブジェクト領域情報を生成する。 In step S440, the third processing unit 213 defines the third object area 303 including the certification mark 403 in the image displayed on the display unit 230. Based on the certification mark information, the third processing unit 213 acquires the coordinate information of the video so as to surround the certification mark 403, and defines the third object area 303. In addition, the third processing unit 213 generates the third object area information based on the third object area 303.

ステップS445では、第4処理部214が、第3オブジェクト領域303の大きさに合わせて、取得された遮蔽データ414の大きさを調整する。また、第4処理部214は、被写体情報に基づいて遮蔽データ414の角度を調整する。さらに、第4処理部214は、第3オブジェクト領域情報に含まれる色の情報に基づいて、遮蔽データ414の色を調整する。例えば、第4処理部214は、遮蔽データ414を、認証マーク403を除去した第3オブジェクト領域303の色に合わせるように調整することができる。 In step S445, the fourth processing unit 214 adjusts the size of the acquired shielding data 414 according to the size of the third object area 303. Further, the fourth processing unit 214 adjusts the angle of the shielding data 414 based on the subject information. Further, the fourth processing unit 214 adjusts the color of the shielding data 414 based on the color information included in the third object area information. For example, the fourth processing unit 214 can adjust the shielding data 414 so as to match the color of the third object area 303 from which the authentication mark 403 has been removed.

ステップS450では、第5処理部215が、第3オブジェクト領域情報に基づいて、調整された遮蔽データ414を第3オブジェクト領域303に重畳する。重畳する遮蔽データ414は、第3オブジェクト領域情報に含まれる色の情報に基づいて調整されているため、違和感なく、認証マーク403を隠すことができる。したがって、被写体400の認証マーク403を隠しても、被写体400のユーザに与える印象は変わらない。 In step S450, the fifth processing unit 215 superimposes the adjusted shielding data 414 on the third object area 303 based on the third object area information. Since the superimposed shielding data 414 is adjusted based on the color information included in the third object area information, the certification mark 403 can be hidden without discomfort. Therefore, even if the authentication mark 403 of the subject 400 is hidden, the impression given to the user of the subject 400 does not change.

情報処理Dは、情報処理A〜情報処理Cと組合わせて実行することができる。 Information processing D can be executed in combination with information processing A to information processing C.

以上、情報処理Dについて説明したが、情報処理Dが実行されることによって、情報端末装置200の表示部230の映像には、認証マーク403が隠される。そのため、ユーザは、認証マーク403に邪魔されることなく、被写体500のキャラクタの世界観に没頭することができる。 Although the information processing D has been described above, the authentication mark 403 is hidden in the image of the display unit 230 of the information terminal device 200 by executing the information processing D. Therefore, the user can immerse himself in the world view of the character of the subject 500 without being disturbed by the authentication mark 403.

[7.複数の被写体によるインタラクションを表示する情報処理(情報処理E)]
図12および図13を参照して、情報端末装置200の撮像部220で現実空間の第1被写体500−1および第2被写体500−2を撮影しながら、情報端末装置200の表示部230に表示された映像の中に、第1被写体400−1と第2被写体400−2とのインタラクションを表示する情報処理について説明する。
[7. Information processing that displays interactions between multiple subjects (information processing E)]
With reference to FIGS. 12 and 13, the image pickup unit 220 of the information terminal device 200 captures the first subject 500-1 and the second subject 500-2 in the real space while displaying them on the display unit 230 of the information terminal device 200. Information processing for displaying the interaction between the first subject 400-1 and the second subject 400-2 in the generated image will be described.

図12は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中に第1被写体400−1と第2被写体400−2とのインタラクションを表示する情報処理を示すフローチャートである。以下、便宜上、図12に示す情報処理を、情報処理Eとして説明する。 FIG. 12 is a flowchart showing information processing for displaying the interaction between the first subject 400-1 and the second subject 400-2 in an image using the information processing system 10 according to the embodiment of the present invention. .. Hereinafter, for convenience, the information processing shown in FIG. 12 will be described as information processing E.

図12に示す情報処理Eは、映像の中の第1被写体400−1を特定するステップ(S510)と、映像の中の第2被写体400−2を特定するステップ(S520)と、インタラクションデータ415を取得するステップ(S530)と、映像の中に第4オブジェクト領域304を画定するステップ(S540)と、インタラクションデータ415を調整するステップ(S550)と、第4オブジェクト領域304にインタラクションデータ415を重畳するステップ(S560)と、を含む。以下、図13を参照しながら、各ステップについて説明する。 The information processing E shown in FIG. 12 includes a step of specifying the first subject 400-1 in the image (S510), a step of specifying the second subject 400-2 in the image (S520), and interaction data 415. (S530), the step of defining the fourth object area 304 in the video (S540), the step of adjusting the interaction data 415 (S550), and the interaction data 415 superimposed on the fourth object area 304. Step (S560), and the like. Hereinafter, each step will be described with reference to FIG.

図13は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中に第1被写体400−1と第2被写体400−2とのインタラクションを表示する前後の撮影を説明する図である。具体的には、図13(A)に示す情報端末装置200の表示部230には、第1被写体400−1と第2被写体400−2とのインタラクションを表示する前の映像が表示され、図13(A)に示す情報端末装置200の表示部230には、第1被写体400−1と第2被写体400−2とのインタラクションを表示した後の映像が表示されている。 FIG. 13 is a diagram illustrating shooting before and after displaying the interaction between the first subject 400-1 and the second subject 400-2 in an image using the information processing system 10 according to the embodiment of the present invention. Is. Specifically, the display unit 230 of the information terminal device 200 shown in FIG. 13A displays an image before displaying the interaction between the first subject 400-1 and the second subject 400-2. The display unit 230 of the information terminal device 200 shown in 13 (A) displays an image after displaying the interaction between the first subject 400-1 and the second subject 400-2.

図13(A)および図13(B)に示すように、ユーザは、情報端末装置200の撮像部220を用いて、現実空間の第1被写体500−1および第2被写体500−2を撮影する。撮影において、第1被写体500−1の一部と第2被写体500−2の一部とは重なっていてもよいが、第1被写体500−1の特徴を示す部分と第2被写体500−2の特徴を示す部分とは重ならないことが好ましい。特徴を示す部分としては、例えば、顔部である。 As shown in FIGS. 13A and 13B, the user uses the imaging unit 220 of the information terminal device 200 to photograph the first subject 500-1 and the second subject 500-2 in the real space. .. In shooting, a part of the first subject 500-1 and a part of the second subject 500-2 may overlap, but the part showing the characteristics of the first subject 500-1 and the second subject 500-2 It is preferable that it does not overlap with the characteristic portion. The characteristic portion is, for example, the face portion.

ステップS510およびステップS520は、上述したステップS110と同様であるため、ここでは説明を省略する。 Since step S510 and step S520 are the same as step S110 described above, description thereof will be omitted here.

ステップS530では、情報端末装置200が、第1被写体情報および第2被写体情報に基づくインタラクションデータ415を取得する。情報端末装置200の通信部250は、第1被写体情報および第2被写体情報をサーバ装置100に送信する。サーバ装置100の通信部250は第1被写体情報および第2被写体情報を受信し、サーバ処理部111は第1被写体情報および第2被写体情報を判定する。具体的には、サーバ処理部111は、第1被写体情報に係る第1被写体500−1と第2被写体情報に係る第2被写体500−2との関連性を判定する。第1被写体500−1と第2被写体500−2との関連性としては、例えば、人と人であるか、人と動物であるか、または人とロボットであるか、などである。 In step S530, the information terminal device 200 acquires the interaction data 415 based on the first subject information and the second subject information. The communication unit 250 of the information terminal device 200 transmits the first subject information and the second subject information to the server device 100. The communication unit 250 of the server device 100 receives the first subject information and the second subject information, and the server processing unit 111 determines the first subject information and the second subject information. Specifically, the server processing unit 111 determines the relationship between the first subject 500-1 related to the first subject information and the second subject 500-2 related to the second subject information. The relationship between the first subject 500-1 and the second subject 500-2 is, for example, whether it is a person and a person, a person and an animal, or a person and a robot.

また、サーバ処理部111は、第1被写体情報および第2被写体情報から、それぞれのキャラクタを特定してもよい。第1被写体情報に係る第1被写体500−1と第2被写体情報に係る第2被写体500−2のそれぞれのキャラクタが特定されることにより、サーバ処理部111は、キャラクタ同士の関連性を判定することができる。すなわち、サーバ処理部111は、同じアニメに登場するキャラクタであるかなど、キャラクタに基づく判定を行うことができる。そのため、サーバ処理部111は、キャラクタが味方同士であるか、敵同士であるか、または恋人同士であるか、なども判定することができるようになり、第1被写体500−1と第2被写体500−2との関連性をより詳細に判定することができる。 Further, the server processing unit 111 may specify each character from the first subject information and the second subject information. By identifying each character of the first subject 500-1 related to the first subject information and the second subject 500-2 related to the second subject information, the server processing unit 111 determines the relationship between the characters. be able to. That is, the server processing unit 111 can make a determination based on the character, such as whether the character appears in the same animation. Therefore, the server processing unit 111 can also determine whether the characters are allies, enemies, or lovers, and the first subject 500-1 and the second subject 500-1 and the second subject can be determined. The relevance to 500-2 can be determined in more detail.

サーバ処理部111は、第1被写体500−1と第2被写体500−2との関連性の判定に基づくインタラクションデータ415を記憶部130から取得する。通信部120は、サーバ処理部111によって取得されたインタラクションデータ415を情報端末装置200に送信する。通信部250がインタラクションデータ415を受信することによって、情報端末装置200は、インタラクションデータ415を取得することができる。なお、取得されたインタラクションデータ415は、情報端末装置200の記憶部260に格納されてもよい。 The server processing unit 111 acquires the interaction data 415 based on the determination of the relationship between the first subject 500-1 and the second subject 500-2 from the storage unit 130. The communication unit 120 transmits the interaction data 415 acquired by the server processing unit 111 to the information terminal device 200. When the communication unit 250 receives the interaction data 415, the information terminal device 200 can acquire the interaction data 415. The acquired interaction data 415 may be stored in the storage unit 260 of the information terminal device 200.

なお、インタラクションデータ415は、情報端末装置200で生成されてもよい。 The interaction data 415 may be generated by the information terminal device 200.

ステップS540では、第3処理部213が、表示部230に表示された映像の中に、第4オブジェクト領域304を画定する。第4オブジェクト領域304は、第1被写体400−1と第2被写体400−2との間に画定されることが好ましいが、これに限られない。第3処理部213は、映像の座標情報を取得し、第4オブジェクト領域304を画定する。また、第3処理部213は、第4オブジェクト領域に基づく第4オブジェクト領域情報を生成する。 In step S540, the third processing unit 213 defines the fourth object area 304 in the image displayed on the display unit 230. The fourth object area 304 is preferably defined between the first subject 400-1 and the second subject 400-2, but is not limited to this. The third processing unit 213 acquires the coordinate information of the video and defines the fourth object area 304. In addition, the third processing unit 213 generates the fourth object area information based on the fourth object area.

ステップS550では、第4処理部214が、第4オブジェクト領域304の大きさに合わせて、取得されたインタラクションデータ415の大きさを調整する。また、第4処理部214は、第4オブジェクト領域情報に含まれる色の情報に基づいて、インタラクションデータ415の色を調整する。 In step S550, the fourth processing unit 214 adjusts the size of the acquired interaction data 415 according to the size of the fourth object area 304. Further, the fourth processing unit 214 adjusts the color of the interaction data 415 based on the color information included in the fourth object area information.

ステップS560では、第5処理部215が、第4オブジェクト領域情報に基づいて、調整されたインタラクションデータ415を第4オブジェクト領域304に重畳する。 In step S560, the fifth processing unit 215 superimposes the adjusted interaction data 415 on the fourth object area 304 based on the fourth object area information.

情報処理Eは、情報処理A〜情報処理Dと組合わせて実行することができる。 Information processing E can be executed in combination with information processing A to information processing D.

以上、情報処理Eについて説明したが、情報処理Eが実行されることによって、情報端末装置200の表示部230の映像には、第1被写体400−1と第2被写体400−2とのインタラクションが表示される。被写体500の組み合わせによって異なるインタラクションが得られるため、ユーザは、被写体500の組み合わせによるゲーム性を楽しむことができる。そのため、キャラクタである被写体500に対してのARの利用率が向上する。 Although the information processing E has been described above, when the information processing E is executed, the image of the display unit 230 of the information terminal device 200 has an interaction between the first subject 400-1 and the second subject 400-2. Is displayed. Since different interactions can be obtained depending on the combination of the subjects 500, the user can enjoy the game characteristics of the combination of the subjects 500. Therefore, the utilization rate of AR for the subject 500, which is a character, is improved.

[8.動きの検出によって被写体のパーツを変化させる情報処理(情報処理F)]
図14および図15を参照して、情報端末装置200の撮像部220で現実空間の被写体500を撮影しながら、ユーザの身体の一部の動きも撮影し、表示部230に表示された映像の被写体400のパーツを、動きに応じて変化させる情報処理フローについて説明する。
[8. Information processing that changes the parts of the subject by detecting movement (information processing F)]
With reference to FIGS. 14 and 15, while the image pickup unit 220 of the information terminal device 200 captures the subject 500 in the real space, the movement of a part of the user's body is also captured, and the image displayed on the display unit 230. The information processing flow for changing the parts of the subject 400 according to the movement will be described.

図14は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400のパーツをユーザの身体の一部の動きに応じて変化させる情報処理を示すフローチャートである。以下、便宜上、図14に示す情報処理を、情報処理Fとして説明する。 FIG. 14 is a flowchart showing information processing in which the information processing system 10 according to the embodiment of the present invention is used to change the parts of the subject 400 in the image according to the movement of a part of the user's body. Hereinafter, for convenience, the information processing shown in FIG. 14 will be described as information processing F.

図14に示す情報処理Fは、映像の中の被写体400を特定するステップ(S610)と、被写体400に含まれるパーツ401を判定するステップ(S620)と、ユーザーの身体の一部の動きを判定するステップ(S630)と、パーツ401に基づくパーツデータ416を取得するステップ(S640)と、第1オブジェクト領域301を画定するステップ(S650)と、パーツデータ416を調整するステップ(S660)と、第1オブジェクト領域301にパーツデータ416を重畳するステップ(S670)と、を含む。以下、図15を参照しながら、各ステップについて説明する。 The information processing F shown in FIG. 14 determines the step of identifying the subject 400 in the image (S610), the step of determining the parts 401 included in the subject 400 (S620), and the movement of a part of the user's body. Step (S630), the step of acquiring the part data 416 based on the part 401 (S640), the step of defining the first object area 301 (S650), the step of adjusting the part data 416 (S660), and the first step. One step (S670) of superimposing the part data 416 on the object area 301 is included. Hereinafter, each step will be described with reference to FIG.

図15は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400のパーツがユーザの身体の一部の動きに応じて変化する前後の撮影を説明する図である。具体的には、図15(A)に示す情報端末装置200の表示部230には、被写体400のパーツが変化する前の映像が表示され、図15(B)に示す情報端末装置200の表示部230には、ユーザの身体の一部の動きに応じて、被写体400のパーツが変化した後の映像が表示されている。 FIG. 15 is a diagram illustrating shooting before and after the information processing system 10 according to the embodiment of the present invention is used, and the parts of the subject 400 in the image change according to the movement of a part of the user's body. be. Specifically, the display unit 230 of the information terminal device 200 shown in FIG. 15 (A) displays an image before the parts of the subject 400 are changed, and the display of the information terminal device 200 shown in FIG. 15 (B). The unit 230 displays an image after the parts of the subject 400 have changed according to the movement of a part of the user's body.

図15(A)および図15(B)に示すように、ユーザは、ユーザの身体の一部である指530を被写体500に近づけ、被写体500に対して指530を動かす。例えば、図15(A)および図15(B)に示すように、ユーザは、被写体500を撫でるように指530を動かすことができる。他にも、ユーザは、被写体500を突くように指530を動かすこともできる。なお、指530の動きは、これらに限定されない。 As shown in FIGS. 15A and 15B, the user brings the finger 530, which is a part of the user's body, close to the subject 500, and moves the finger 530 with respect to the subject 500. For example, as shown in FIGS. 15 (A) and 15 (B), the user can move the finger 530 so as to stroke the subject 500. Alternatively, the user can move the finger 530 so as to poke the subject 500. The movement of the finger 530 is not limited to these.

また、映像の中の指460が被写体400の近傍にあればよく、現実空間の指530は、被写体500に触れていてもよく、被写体500に触れていなくてもよい。また、指530は、被写体500の近傍になくてもよく、被写体500から離れていてもよい。例えば、指530は、被写体500と情報端末装置200との間にあってもよい。 Further, the finger 460 in the image may be in the vicinity of the subject 400, and the finger 530 in the real space may or may not touch the subject 500. Further, the finger 530 does not have to be in the vicinity of the subject 500, and may be away from the subject 500. For example, the finger 530 may be between the subject 500 and the information terminal device 200.

ステップS610およびステップS620は、それぞれ、上述したステップS110およびステップS120と同様であるため、ここでは説明を省略する。 Since step S610 and step S620 are the same as step S110 and step S120 described above, respectively, description thereof will be omitted here.

ステップS630では、第8処理部218が、指460の動きを検出し、指460の動きを判定する。第8処理部218は、被写体400の近傍で反復する一定の動きをしている指460を検出する。また、第8処理部218は、反復する一定の動きから、被写体400に対するユーザの行動を判定する。例えば、指460が、被写体400の近傍を反復して動くとき、第8処理部218は、ユーザが被写体400を撫でていると判定する。また、指460が、繰り返し、被写体400に近づいたり、離れたりして動くとき、第8処理部は、ユーザが被写体400を突いていると判定する。第8処理部218は、判定に基づき、ユーザ行動情報を生成する。 In step S630, the eighth processing unit 218 detects the movement of the finger 460 and determines the movement of the finger 460. The eighth processing unit 218 detects the finger 460 that repeatedly makes a constant movement in the vicinity of the subject 400. In addition, the eighth processing unit 218 determines the user's behavior with respect to the subject 400 from the repeated constant movement. For example, when the finger 460 repeatedly moves in the vicinity of the subject 400, the eighth processing unit 218 determines that the user is stroking the subject 400. Further, when the finger 460 repeatedly moves toward and away from the subject 400, the eighth processing unit determines that the user is poking the subject 400. The eighth processing unit 218 generates user behavior information based on the determination.

ステップS640では、情報端末装置200が、パーツ情報およびユーザ行動情報に基づくパーツデータ416を取得する。情報端末装置200の通信部250は、パーツ情報およびユーザ行動情報をサーバ装置100に送信する。サーバ装置100の通信部120は、パーツ情報およびユーザ行動情報を受信する。サーバ処理部111は、パーツ情報およびユーザ行動情報を判定し、判定に基づくパーツデータ416を記憶部130から取得する。通信部120は、サーバ処理部111によって取得されたパーツデータ416を情報端末装置200に送信する。通信部250が、パーツデータ416を受信することによって、情報端末装置200は、パーツデータ411を取得することができる。なお、取得されたパーツデータ416は、情報端末装置200の記憶部260に格納されてもよい。 In step S640, the information terminal device 200 acquires the part data 416 based on the part information and the user behavior information. The communication unit 250 of the information terminal device 200 transmits the parts information and the user behavior information to the server device 100. The communication unit 120 of the server device 100 receives the parts information and the user behavior information. The server processing unit 111 determines the part information and the user behavior information, and acquires the part data 416 based on the determination from the storage unit 130. The communication unit 120 transmits the part data 416 acquired by the server processing unit 111 to the information terminal device 200. When the communication unit 250 receives the part data 416, the information terminal device 200 can acquire the part data 411. The acquired part data 416 may be stored in the storage unit 260 of the information terminal device 200.

ステップS650、ステップS660、およびステップS670は、それぞれ、上述したステップS140、S150、およびS160と同様であるため、ここでは説明を省略する。 Step S650, step S660, and step S670 are the same as steps S140, S150, and S160 described above, respectively, and thus the description thereof will be omitted here.

情報処理Fは、情報処理A〜Eと組み合わせて実行することができる。 Information processing F can be executed in combination with information processing A to E.

以上、情報処理Fについて説明したが、情報処理Fが実行されることによって、情報端末装置200の表示部230には、ユーザの意思に応じて被写体400の一部が変化した映像が表示される。そのため、ユーザと被写体500のキャラクタとの一体感が高まり、ユーザの満足度が向上する。 Although the information processing F has been described above, when the information processing F is executed, the display unit 230 of the information terminal device 200 displays an image in which a part of the subject 400 is changed according to the intention of the user. .. Therefore, the sense of unity between the user and the character of the subject 500 is enhanced, and the satisfaction level of the user is improved.

[9.操作部または撮像部の利用]
情報処理システム10は、情報端末装置200の操作部240または撮像部220を利用し、映像の中の被写体400のパーツを変化させ、または被写体400のセリフを表示することができる。
[9. Use of operation unit or imaging unit]
The information processing system 10 can change the parts of the subject 400 in the image or display the dialogue of the subject 400 by using the operation unit 240 or the imaging unit 220 of the information terminal device 200.

図16は、本発明の一実施形態に係る情報処理システム10を利用し、情報端末装置200の操作部240または撮像部220を利用して、変化させた映像を説明する図である。具体的には、図16(A)に示す情報端末装置200の表示部230には、被写体のパーツが変化した後の映像が表示され、図16(B)に示す情報端末装置200の表示部230には、被写体400にセリフを表示した映像が表示されている。 FIG. 16 is a diagram for explaining a changed image by using the information processing system 10 according to the embodiment of the present invention and using the operation unit 240 or the image pickup unit 220 of the information terminal device 200. Specifically, the display unit 230 of the information terminal device 200 shown in FIG. 16 (A) displays an image after the parts of the subject have changed, and the display unit of the information terminal device 200 shown in FIG. 16 (B). On the 230, an image in which the dialogue is displayed on the subject 400 is displayed.

図16(A)では、ユーザが、現実空間の被写体500を撮影しながら、指530が、情報端末装置200の表示部230に直接触れている。表示部230には操作部240としてタッチパネルが設けられており、操作部240は、指530の表示部への接触を検出することができる。第8処理部218は、操作部240を介して、指530の動きを検出し、指460の動きを判定する。具体的には、第8処理部218は、指530の動きに規則性があるかどうかを判定する。指530の動きに所定の規則性があるとき、第8処理部218は、ユーザ行動情報を生成する。 In FIG. 16A, the user directly touches the display unit 230 of the information terminal device 200 while photographing the subject 500 in the real space. The display unit 230 is provided with a touch panel as the operation unit 240, and the operation unit 240 can detect the contact of the finger 530 with the display unit. The eighth processing unit 218 detects the movement of the finger 530 via the operation unit 240 and determines the movement of the finger 460. Specifically, the eighth processing unit 218 determines whether or not the movement of the finger 530 has regularity. When the movement of the finger 530 has a predetermined regularity, the eighth processing unit 218 generates the user behavior information.

その後の情報処理については上述した説明と同様であるため、ここでは説明を省略するが、情報端末装置200は、パーツ情報およびユーザ行動情報に基づいてパーツデータ417を取得することができる。また、画定された第1オブジェクト領域301にパーツデータ417が重畳される。図16(A)では、指530が被写体400を撫でていると判定されたため、被写体400がくすぐったがる表情のパーツデータ417が重畳されている。 Since the subsequent information processing is the same as the above description, the description thereof is omitted here, but the information terminal device 200 can acquire the part data 417 based on the part information and the user behavior information. Further, the part data 417 is superimposed on the defined first object area 301. In FIG. 16A, since it is determined that the finger 530 is stroking the subject 400, the part data 417 of the facial expression that the subject 400 wants to tickle is superimposed.

図16(B)では、ユーザが、第1撮像部220−1で現実空間の被写体500を撮影しながら、第2撮像部220−2でユーザの顔を撮影している。第9処理部219は、撮像部220によって撮影されたユーザの顔の映像からユーザの表情を判定する。具体的には、第9処理部219は、ユーザの表情が笑顔かどうかを判定する。また、第9処理部219は、判定結果に基づき、ユーザ感情情報を生成する。 In FIG. 16B, the user is photographing the user's face with the second imaging unit 220-2 while the first imaging unit 220-1 is photographing the subject 500 in the real space. The ninth processing unit 219 determines the user's facial expression from the image of the user's face taken by the imaging unit 220. Specifically, the ninth processing unit 219 determines whether or not the user's facial expression is a smile. In addition, the ninth processing unit 219 generates user emotion information based on the determination result.

なお、第9処理部219による判定は、ユーザの表情に限られない。第9処理部219は、第2撮像部220−2で撮影されたものであればよく、ユーザの身体の動きを判定してもよい。例えば、第9処理部は、予め決められたユーザの身体の動きを判定し、ユーザ感情情報を生成してもよい。 The determination by the ninth processing unit 219 is not limited to the facial expression of the user. The ninth processing unit 219 may be any image taken by the second imaging unit 220-2, and may determine the movement of the user's body. For example, the ninth processing unit may determine a predetermined movement of the user's body and generate user emotion information.

その後の情報処理については上述した説明と同様であるため、詳細な説明は省略するが、情報端末装置200は、セリフ情報およびユーザ感情情報に基づいてセリフデータ418を取得することができる。また、画定された第2オブジェクト領域302にセリフデータ418が重畳される。図16(B)では、ユーザの表情が笑顔でなかったと判定されたため、被写体400が笑顔でなかった理由を問いかける会話データ「疲れてるの」を含むセリフデータ418が重畳されている。 Since the subsequent information processing is the same as the above description, detailed description thereof will be omitted, but the information terminal device 200 can acquire the dialogue data 418 based on the dialogue information and the user emotion information. Further, the dialogue data 418 is superimposed on the defined second object area 302. In FIG. 16B, since it was determined that the user's facial expression was not a smile, dialogue data 418 including conversation data “tired” asking why the subject 400 was not smiling is superimposed.

図16(A)においては、セリフ情報およびユーザ行動情報に基づいてセリフデータが取得されてもよく、図16(B)においては、パーツ情報およびユーザ感情情報に基づいてパーツデータが取得されてもよい。 In FIG. 16A, dialogue data may be acquired based on dialogue information and user behavior information, and in FIG. 16B, parts data may be acquired based on parts information and user emotion information. good.

また、情報処理システム10では、第2撮像部220−2で撮影した物体に基づき、セリフデータ418またはパーツデータが取得されてもよい。例えば、第2撮像部220−2を食べ物を撮影し、撮影した食べ物を判定して、「食べたい」または「おいしそう」などのセリフデータを取得してもよい。 Further, in the information processing system 10, dialogue data 418 or part data may be acquired based on the object photographed by the second imaging unit 220-2. For example, the second imaging unit 220-2 may photograph food, determine the photographed food, and acquire dialogue data such as "want to eat" or "looks delicious".

また、図示しないが、情報処理システム10では、情報端末装置200の操作部240のマイクを利用することもできる。すなわち、情報端末装置200は、マイクを介してユーザの音声を判定し、被写体400のパーツデータまたはセリフデータを取得してもよい。情報処理システム10において、情報端末装置200のマイクを利用することにより、ユーザは、あたかも被写体400と対話しているかのように感じることができる。そのため、ユーザは、被写体400との対話を通じて、被写体400のキャラクタとより深いコミュニケーションを図ることができる。 Further, although not shown, the information processing system 10 can also use the microphone of the operation unit 240 of the information terminal device 200. That is, the information terminal device 200 may determine the voice of the user via the microphone and acquire the part data or the dialogue data of the subject 400. By using the microphone of the information terminal device 200 in the information processing system 10, the user can feel as if he / she is interacting with the subject 400. Therefore, the user can achieve deeper communication with the character of the subject 400 through the dialogue with the subject 400.

なお、顔の表情の判定または音声の判定においては、機械学習またはディープラーニングを用いることができる。 Machine learning or deep learning can be used in determining facial expressions or voices.

以上、情報端末装置200の操作部240または撮像部220を用いても、情報端末装置200の表示部230に、ユーザの意思に応じて被写体400の一部が変化した映像を表示することができる。そのため、ユーザと被写体500のキャラクタとの一体感が高まり、ユーザの満足度が向上する。 As described above, even if the operation unit 240 or the imaging unit 220 of the information terminal device 200 is used, it is possible to display an image in which a part of the subject 400 is changed according to the user's intention on the display unit 230 of the information terminal device 200. .. Therefore, the sense of unity between the user and the character of the subject 500 is enhanced, and the satisfaction level of the user is improved.

[10.被写体のカスタマイズ]
情報処理システム10は、情報端末装置200の操作部240を利用し、映像の中の被写体400または背景をカスタマイズすることができる。
[10. Subject customization]
The information processing system 10 can customize the subject 400 or the background in the image by using the operation unit 240 of the information terminal device 200.

図17(A)および図17(B)は、それぞれ、本発明の一実施形態に係る情報処理システム10を利用し、被写体400または背景をカスタマイズした映像を説明する図である。 17 (A) and 17 (B) are diagrams for explaining an image in which the subject 400 or the background is customized by using the information processing system 10 according to the embodiment of the present invention, respectively.

図17(A)に示す情報端末装置200の表示部230の映像の中の被写体400は、現実空間の被写体500との髪の毛419の色が異なっている。すなわち、ユーザは、現実空間の被写体500を撮影しながら、情報処理システム10を利用し、映像の中の被写体400をユーザの好みに合わせてカスタマイズすることができる。 The subject 400 in the image of the display unit 230 of the information terminal device 200 shown in FIG. 17A has a different color of the hair 419 from the subject 500 in the real space. That is, the user can customize the subject 400 in the image according to the user's preference by using the information processing system 10 while photographing the subject 500 in the real space.

図17(B)に示す情報端末装置200の表示部230の映像の中の背景には、現実空間に存在しないオブジェクト420が配置されている。すなわち、ユーザは、現実空間の被写体500を撮影しながら、情報処理システム10を利用し、映像の中の被写体400の背景をユーザの好みに合わせてカスタマイズすることができる。オブジェクト420は、予め用意されたオブジェクトから選択されてもよく、ユーザが生成したオブジェクトであってもよい。さらに、オブジェクト420は、情報端末装置200に保管されている映像データから生成されたオブジェクトであってもよい。 An object 420 that does not exist in the real space is arranged in the background in the image of the display unit 230 of the information terminal device 200 shown in FIG. 17 (B). That is, the user can customize the background of the subject 400 in the image according to the user's preference by using the information processing system 10 while photographing the subject 500 in the real space. The object 420 may be selected from the objects prepared in advance, or may be a user-generated object. Further, the object 420 may be an object generated from the video data stored in the information terminal device 200.

ユーザは、情報端末装置200の表示部230に表示される被写体400を、ユーザの好みに合わせてカスタマイズすることができる。そのため、ユーザは、被写体500のキャラクタに感情移入して愛着を感じることができるようになり、ユーザの満足度が向上する。 The user can customize the subject 400 displayed on the display unit 230 of the information terminal device 200 according to the user's preference. Therefore, the user can feel attachment to the character of the subject 500 by embracing the character, and the satisfaction level of the user is improved.

本発明の実施形態として上述した各実施形態は、相互に矛盾しない限りにおいて、適宜組み合わせて実施することができる。また、各実施形態を基にして、当業者が適宜構成要素の追加、削除、または設計変更を行ったもの、もしくは工程の追加、省略、または条件変更を行ったものも、本発明の要旨を備えている限り、本発明の範囲に含まれる。 Each of the above-described embodiments of the present invention can be appropriately combined and implemented as long as they do not contradict each other. Further, based on each embodiment, those skilled in the art who appropriately add, delete, or change the design, or add, omit, or change the conditions of the process are also gist of the present invention. As long as it is provided, it is included in the scope of the present invention.

上述した各実施形態の態様によりもたらされる作用効果とは異なる他の作用効果であっても、本明細書の記載から明らかなもの、または当業者において容易に予測し得るものについては、当然に本発明によりもたらされるものと解される。 Of course, other actions and effects that are different from the actions and effects brought about by the aspects of each of the above-described embodiments that are clear from the description of the present specification or that can be easily predicted by those skilled in the art are described in the present invention. It is understood that it is brought about by the invention.

10:情報処理システム、 100:サーバ装置、 110:コンピュータ、 111:サーバ処理部、 120:通信部、 130:記憶部、 200:情報端末装置、 200−1:第1情報端末装置、 200−2:第2情報端末装置、 200−n:第n情報端末装置、 210:コンピュータ、 211:第1処理部、 212:第2処理部、 213:第3処理部、 214:第4処理部、 215:第5処理部、 216:第6処理部、 217:第7処理部、 218:第8処理部、 219:第9処理部、 220:撮像部、 220−1:第1撮像部、 220−2:第2撮像部、 230:表示部、 240:操作部、 250:通信部、 260:記憶部、 300:通信ネットワーク、 301:第1オブジェクト領域、 302:第2オブジェクト領域、 303:第3オブジェクト領域、 304:第4オブジェクト領域、 400:被写体、 400−1:第1被写体、 400−2:第2被写体、 401:パーツ、 403:認証マーク、 411:パーツデータ、 411−1:第1パーツデータ、 411−2:第2パーツデータ、 411−4:第4パーツデータ、 412:セリフデータ、 413:セリフデータ、 414:遮蔽データ、 415:インタラクションデータ、 416:パーツデータ、 417:パーツデータ、 418:セリフデータ、 419:髪の毛、 420:オブジェクト、 450:物体、 460:指、 500:被写体、 500−1:第1被写体、 500−2:第2被写体、 510:物体、 520:認証マーク、 530:指 10: Information processing system, 100: Server device, 110: Computer, 111: Server processing unit, 120: Communication unit, 130: Storage unit, 200: Information terminal device, 200-1: First information terminal device, 200-2 : 2nd information terminal device, 200-n: nth information terminal device, 210: Computer, 211: 1st processing unit, 212: 2nd processing unit, 213: 3rd processing unit, 214: 4th processing unit, 215 : 5th processing unit, 216: 6th processing unit, 217: 7th processing unit, 218: 8th processing unit, 219: 9th processing unit, 220: imaging unit, 220-1: 1st imaging unit, 220- 2: Second imaging unit, 230: Display unit, 240: Operation unit, 250: Communication unit, 260: Storage unit, 300: Communication network, 301: First object area, 302: Second object area, 303: Third Object area, 304: 4th object area, 400: Subject, 400-1: 1st subject, 400-2: 2nd subject, 401: Parts, 403: Certification mark, 411: Parts data, 411: 1: 1st Parts data, 411-2: 2nd part data, 411-4: 4th part data, 412: Dialogue data, 413: Dialogue data, 414: Shielding data, 415: Interaction data, 416: Parts data, 417: Parts data , 418: Dialogue data, 419: Hair, 420: Object, 450: Object, 460: Finger, 500: Subject, 500-1: First subject, 500-2: Second subject, 510: Object, 520: Certification mark , 530: Finger

Claims (15)

情報端末装置のコンピュータで実行される情報処理プログラムであって、前記コンピュータに、
現実空間を撮影した映像の中の第1被写体の一部であるパーツを特定させ、
前記パーツを含む第1オブジェクト領域に、前記パーツに基づくパーツデータを重畳させる情報処理プログラム。
An information processing program executed by a computer of an information terminal device, which is executed by the computer.
Identify the parts that are part of the first subject in the image of the real space,
An information processing program that superimposes part data based on the part on the first object area including the part.
前記パーツデータは、サーバ装置から前記情報端末装置に送信される請求項1に記載の情報処理プログラム。 The information processing program according to claim 1, wherein the part data is transmitted from the server device to the information terminal device. 前記パーツデータは、前記パーツから生成される請求項1に記載の情報処理プログラム。 The information processing program according to claim 1, wherein the part data is generated from the parts. 前記パーツデータは、前記第1オブジェクト領域に基づく第1オブジェクト情報によって調整される請求項1乃至請求項3のいずれか一項に記載の情報処理プログラム。 The information processing program according to any one of claims 1 to 3, wherein the part data is adjusted by the first object information based on the first object area. 前記コンピュータは、ユーザによって選択された前記パーツを特定させる請求項1乃至請求項4のいずれか一項に記載の情報処理プログラム。 The information processing program according to any one of claims 1 to 4, wherein the computer identifies the part selected by the user. 前記第1オブジェクト領域は、ユーザによって選択される請求項1乃至請求項4のいずれか一項に記載の情報処理プログラム。 The information processing program according to any one of claims 1 to 4, wherein the first object area is selected by the user. 前記映像の中のユーザの身体の一部の動きを判定させ、
前記パーツデータは、さらに、前記判定に基づく請求項1乃至請求項4のいずれか一項に記載の情報処理プログラム。
The movement of a part of the user's body in the video is determined, and the movement is determined.
The information processing program according to any one of claims 1 to 4, wherein the part data is further based on the determination.
第2オブジェクト領域に、前記情報端末装置の端末情報に基づく映像データを重畳させる請求項1乃至請求項7のいずれか一項に記載の情報処理プログラム。 The information processing program according to any one of claims 1 to 7, wherein video data based on the terminal information of the information terminal device is superimposed on the second object area. 前記映像の中の物体を特定させ、
第2オブジェクト領域に、前記物体に基づく映像データを重畳させる請求項1乃至請求項7のいずれか一項に記載の情報処理プログラム。
Let the object in the image be identified
The information processing program according to any one of claims 1 to 7, wherein video data based on the object is superimposed on the second object area.
前記第1被写体が有する認証マークを検出し、
前記認証マークを含む第3オブジェクト領域に、遮蔽データを重畳させる請求項1乃至請求項9のいずれか一項に記載の情報処理プログラム。
Detecting the certification mark of the first subject,
The information processing program according to any one of claims 1 to 9, wherein the shielding data is superimposed on the third object area including the certification mark.
前記第1被写体は、前記認証マークによって特定される請求項10に記載の情報処理プログラム。 The information processing program according to claim 10, wherein the first subject is identified by the certification mark. 前記第1被写体は、キャラクタである請求項1乃至請求項11のいずれか一項に記載の情報処理プログラム。 The information processing program according to any one of claims 1 to 11, wherein the first subject is a character. 第2被写体を特定させ、
第4オブジェクト領域に、前記第1被写体と前記第2被写体とのインタラクションを示すインタラクションデータを重畳させる請求項1乃至請求項12のいずれか一項に記載の情報処理プログラム。
Let me identify the second subject
The information processing program according to any one of claims 1 to 12, wherein the interaction data indicating the interaction between the first subject and the second subject is superimposed on the fourth object area.
現実空間を撮影する撮像部と、
前記撮像部によって撮影された映像を表示する表示部と、
前記映像の中の第1被写体の一部であるパーツを特定する第2処理部と、
前記パーツを含む第1オブジェクト領域を画定する第3処理部と、
前記第1オブジェクト領域に、前記パーツに基づくパーツデータを重畳する情報処理システム。
An imaging unit that captures real space,
A display unit that displays an image captured by the imaging unit, and a display unit.
A second processing unit that identifies a part that is a part of the first subject in the image, and
A third processing unit that defines the first object area including the parts, and
An information processing system that superimposes part data based on the parts on the first object area.
前記第1被写体は、キャラクタである請求項14に記載の情報処理システム。
The information processing system according to claim 14, wherein the first subject is a character.
JP2020066214A 2020-04-01 2020-04-01 Information processing programs and information processing systems Active JP6935531B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020066214A JP6935531B1 (en) 2020-04-01 2020-04-01 Information processing programs and information processing systems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020066214A JP6935531B1 (en) 2020-04-01 2020-04-01 Information processing programs and information processing systems

Publications (2)

Publication Number Publication Date
JP6935531B1 JP6935531B1 (en) 2021-09-15
JP2021163335A true JP2021163335A (en) 2021-10-11

Family

ID=77657878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020066214A Active JP6935531B1 (en) 2020-04-01 2020-04-01 Information processing programs and information processing systems

Country Status (1)

Country Link
JP (1) JP6935531B1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008279165A (en) * 2007-05-14 2008-11-20 Sony Ericsson Mobilecommunications Japan Inc Toy system and computer program
JP2009025918A (en) * 2007-07-17 2009-02-05 Canon Inc Image processor and image processing method
JP2012093913A (en) * 2010-10-26 2012-05-17 Nippon Hoso Kyokai <Nhk> Cg character production device and cg character production program
JP2012203786A (en) * 2011-03-28 2012-10-22 Tomy Co Ltd Information processor and information processing program
JP2013161267A (en) * 2012-02-06 2013-08-19 Sony Corp Information processing device, information processing method and program
JP2014220000A (en) * 2014-07-16 2014-11-20 株式会社バンダイ Portable terminal, terminal program and toy
JP2017524999A (en) * 2014-05-13 2017-08-31 ナント・ホールデイングス・アイ・ピー・エル・エル・シー System and method for rendering augmented reality content with an albedo model
KR20190089540A (en) * 2018-01-23 2019-07-31 이영경 Device and method for keeping an animal of using a doll

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008279165A (en) * 2007-05-14 2008-11-20 Sony Ericsson Mobilecommunications Japan Inc Toy system and computer program
JP2009025918A (en) * 2007-07-17 2009-02-05 Canon Inc Image processor and image processing method
JP2012093913A (en) * 2010-10-26 2012-05-17 Nippon Hoso Kyokai <Nhk> Cg character production device and cg character production program
JP2012203786A (en) * 2011-03-28 2012-10-22 Tomy Co Ltd Information processor and information processing program
JP2013161267A (en) * 2012-02-06 2013-08-19 Sony Corp Information processing device, information processing method and program
JP2017524999A (en) * 2014-05-13 2017-08-31 ナント・ホールデイングス・アイ・ピー・エル・エル・シー System and method for rendering augmented reality content with an albedo model
JP2014220000A (en) * 2014-07-16 2014-11-20 株式会社バンダイ Portable terminal, terminal program and toy
KR20190089540A (en) * 2018-01-23 2019-07-31 이영경 Device and method for keeping an animal of using a doll

Also Published As

Publication number Publication date
JP6935531B1 (en) 2021-09-15

Similar Documents

Publication Publication Date Title
CN108886532B (en) Apparatus and method for operating personal agent
US11348300B2 (en) Avatar customization for optimal gaze discrimination
US11736756B2 (en) Producing realistic body movement using body images
US9479736B1 (en) Rendered audiovisual communication
KR101907136B1 (en) System and method for avatar service through cable and wireless web
KR101306221B1 (en) Method and apparatus for providing moving picture using 3d user avatar
US20190197755A1 (en) Producing realistic talking Face with Expression using Images text and voice
KR101951761B1 (en) System and method for providing avatar in service provided in mobile environment
US20160134840A1 (en) Avatar-Mediated Telepresence Systems with Enhanced Filtering
KR102148151B1 (en) Intelligent chat based on digital communication network
US20110304629A1 (en) Real-time animation of facial expressions
CN114787759B (en) Communication support method, communication support system, terminal device, and storage medium
US20230130535A1 (en) User Representations in Artificial Reality
JP7278307B2 (en) Computer program, server device, terminal device and display method
US20190302880A1 (en) Device for influencing virtual objects of augmented reality
JP7431903B2 (en) Photography system, photography method, photography program, and stuffed animal
JP6935531B1 (en) Information processing programs and information processing systems
JP7450692B1 (en) Program, method, information processing device, system
US10489952B2 (en) Cosmetic transformation through image synthesis
Huang Development of Human-Computer Interaction for Holographic AIs
Saadatian et al. Design and development of playful robotic interfaces for affective telepresence
CN117437335A (en) Transfer of expression to stylized avatar
CN116977030A (en) Artificial intelligence-based virtual reality human body model generation and interaction method
CN118736078A (en) Rendering of faces of guest users by external display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200401

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200401

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210825

R150 Certificate of patent or registration of utility model

Ref document number: 6935531

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350