JP2021163335A - Information processing program and information processing system - Google Patents
Information processing program and information processing system Download PDFInfo
- Publication number
- JP2021163335A JP2021163335A JP2020066214A JP2020066214A JP2021163335A JP 2021163335 A JP2021163335 A JP 2021163335A JP 2020066214 A JP2020066214 A JP 2020066214A JP 2020066214 A JP2020066214 A JP 2020066214A JP 2021163335 A JP2021163335 A JP 2021163335A
- Authority
- JP
- Japan
- Prior art keywords
- information
- subject
- data
- information processing
- terminal device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 169
- 238000003384 imaging method Methods 0.000 claims description 31
- 230000003993 interaction Effects 0.000 claims description 29
- 238000004891 communication Methods 0.000 description 59
- 230000007613 environmental effect Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 13
- 230000006399 behavior Effects 0.000 description 10
- 230000008921 facial expression Effects 0.000 description 9
- 230000008859 change Effects 0.000 description 8
- 230000008451 emotion Effects 0.000 description 5
- 238000000034 method Methods 0.000 description 5
- 241001465754 Metazoa Species 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 206010011469 Crying Diseases 0.000 description 1
- 241000196324 Embryophyta Species 0.000 description 1
- 240000007643 Phytolacca americana Species 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、情報処理プログラムおよび情報処理システムに関する。 The present invention relates to an information processing program and an information processing system.
拡張現実(AR)は、現実空間の情報に仮想空間の情報を付加し、視覚的に現実が拡張された空間をユーザに提供する技術である。近年、スマートフォンにおけるARの利用が進んでおり、例えば、スマートフォンのカメラで撮影した現実空間の映像に仮想空間の視覚情報を付加して表示するゲームまたはコンテンツなどが提供されている。 Augmented reality (AR) is a technology that adds information in virtual space to information in real space and provides the user with a space in which reality is visually expanded. In recent years, the use of AR in smartphones has been advancing, and for example, games or contents for displaying images in real space taken by a camera of a smartphone with visual information in virtual space added to them are provided.
ARでは、撮影した映像によってユーザは現実空間を感じることができるとともに、付加された仮想空間の視覚情報によって仮想空間も感じることができる。例えば、ARでは、カメラで撮影した現実空間を背景に、仮想空間の視覚情報としてアニメまたはゲームなどのキャラクタを付加した表示が可能である。すなわち、ARを利用すれば、スマートフォンの表示を通じて、現実空間の中に仮想的なキャラクタを登場させることができる。しかしながら、このようなARを利用するコンテンツの多くは、スマートフォンの表示をオフにするとキャラクタが消えてしまうものである。ユーザがキャラクタに対して感情移入し、愛着を感じるためには、現実空間においてもキャラクタが実体化されていることが好ましい。 In AR, the user can feel the real space by the captured image, and can also feel the virtual space by the visual information of the added virtual space. For example, in AR, it is possible to display a character such as an animation or a game as visual information in a virtual space against a background of a real space taken by a camera. That is, if AR is used, a virtual character can appear in the real space through the display of the smartphone. However, in most of the contents that use such AR, the character disappears when the display of the smartphone is turned off. In order for the user to embrace the character and feel attachment, it is preferable that the character is materialized even in the real space.
現実空間でキャラクタが実体化されたものとしては、例えば、フィギュアがある。フィギュアを撮影した映像にARを適用すれば、フィギュアの映像にオブジェクトを追加することも可能である(例えば、特許文献1参照)。例えば、フィギュアの手に武器として銃が握られている場合、映像の中では、銃口からビームを照射するようなオブジェクトを追加することができる。また、スマートフォンの表示をオフにしても、現実空間にフィギュアが残る。そのため、ユーザは、常にフィギュアとの一体感を感じることができる。 For example, a figure is a materialized character in the real space. By applying AR to the image of the figure, it is possible to add an object to the image of the figure (see, for example, Patent Document 1). For example, if a gun is held in the figure's hand as a weapon, you can add an object in the video that emits a beam from the muzzle. Also, even if the smartphone display is turned off, the figure remains in the real space. Therefore, the user can always feel a sense of unity with the figure.
特許文献1では、フィギュアのキャラクタを判定するために、フィギュアに特定のポーズを取らせている。すなわち、ARを適用するためのフィギュアのポーズが、キャラクタごとに予め決められている。これは、映像の中において、キャラクタごとに予め用意されたオブジェクトを重畳する位置がずれないことを目的とするものであるが、フィギュアは常に所定のポーズに固定されることになる。そのため、特許文献1は、映像の中に判定されたキャラクタのオブジェクトをフィギュアに付随した物体(例えば、武器など)に対して重畳するものであり、映像の中のフィギュアそのものに動きを与えるものではなかった。また、撮影されたフィギュアのキャラクタは同じポーズであるため、ユーザは、かえってフィギュアに動きが無いことを実感してしまう問題があった。 In Patent Document 1, a figure is made to take a specific pose in order to determine the character of the figure. That is, the pose of the figure for applying AR is predetermined for each character. The purpose of this is to keep the position where the objects prepared in advance for each character are superimposed in the image, but the figure is always fixed in a predetermined pose. Therefore, Patent Document 1 superimposes a character object determined in the image on an object (for example, a weapon) attached to the figure, and does not give movement to the figure itself in the image. There wasn't. In addition, since the characters of the photographed figure have the same pose, there is a problem that the user actually realizes that the figure does not move.
キャラクタに動きを与えるため、映像の中のフィギュアにアニメーション表示のオブジェクトを重畳することもできる。しかし、ユーザが所持するフィギュアは、フィギュアの製造過程でのばらつき、もしくは経年変化による色の変化または傷の有無など、ユーザのフィギュアそれぞれが個々の特徴を持っている。ユーザが愛着のあるフィギュアであれば、その特徴の違いはなおさら気になるところである。そのため、単に映像の中のフィギュアにオブジェクトを重畳するだけでは、ユーザは、フィギュアとオブジェクトとを一体として感じるのではなく、フィギュアとオブジェクトとを別個のものとして感じることが多かった。そのため、フィギュアに対してARを利用しても、ユーザは、依然として映像の中のフィギュアが動いているように感じることは少なかった。したがって、フィギュアに対してのARの利用は、ユーザの満足度が得られにくく、利用可能性が低いという問題があった。 In order to give movement to the character, it is also possible to superimpose an animation display object on the figure in the video. However, each user's figure has its own characteristics, such as variations in the figure manufacturing process, color changes due to aging, and the presence or absence of scratches. If the user is an attached figure, the difference in its characteristics is even more worrisome. Therefore, by simply superimposing the object on the figure in the image, the user often feels the figure and the object as separate objects rather than the figure and the object as one. Therefore, even if AR is used for the figure, the user still rarely feels that the figure in the image is moving. Therefore, the use of AR for figures has a problem that it is difficult to obtain user satisfaction and the availability is low.
本発明は、上記問題に鑑み、映像の中の被写体において、ユーザが現実空間で所有する被写体の特徴を維持しつつ、被写体の一部に動きを与える情報処理プログラムおよび情報処理システムを提供することを課題の1つとする。 In view of the above problems, the present invention provides an information processing program and an information processing system that give movement to a part of a subject in an image while maintaining the characteristics of the subject owned by the user in the real space. Is one of the issues.
本発明の一実施形態に係る情報処理プログラムは、情報端末装置のコンピュータで実行される情報処理プログラムであって、コンピュータに、現実空間を撮影した映像の中の第1被写体の一部であるパーツを特定させ、パーツを含む第1オブジェクト領域に、パーツに基づくパーツデータを重畳させる。 The information processing program according to the embodiment of the present invention is an information processing program executed by a computer of an information terminal device, and is a part of a first subject in an image captured in a real space by the computer. Is specified, and the part data based on the part is superimposed on the first object area including the part.
パーツデータは、サーバ装置から情報端末装置に送信されてもよい。また、パーツデータは、パーツから生成されてもよい。 The part data may be transmitted from the server device to the information terminal device. Further, the part data may be generated from the part.
パーツデータは、第1オブジェクト領域に基づく第1オブジェクト情報によって調整されてもよい。 The part data may be adjusted by the first object information based on the first object area.
コンピュータは、ユーザによって選択されたパーツを特定させてもよい。 The computer may have the part selected by the user identified.
第1オブジェクト領域は、ユーザによって選択されてもよい。 The first object area may be selected by the user.
映像の中のユーザの身体の一部の動きを判定させ、パーツデータは、さらに、判定に基づいてもよい。 The movement of a part of the user's body in the image may be determined, and the part data may be further based on the determination.
第2オブジェクト領域に、情報端末装置の端末情報に基づく映像データを重畳させてもよい。 Video data based on the terminal information of the information terminal device may be superimposed on the second object area.
映像の中の物体を特定させ、第2オブジェクト領域に、物体に基づく映像データを重畳させてもよい。 An object in the image may be specified, and image data based on the object may be superimposed on the second object area.
第1被写体が有する認証マークを検出し、認証マークを含む第3オブジェクト領域に、遮蔽データを重畳させてもよい。 The authentication mark of the first subject may be detected, and the shielding data may be superimposed on the third object area including the authentication mark.
第1被写体は、認証マークによって特定されてもよい。 The first subject may be identified by a certification mark.
第1被写体は、キャラクタであってもよい。 The first subject may be a character.
第2被写体を特定させ、第4オブジェクト領域に、第1被写体と第2被写体とのインタラクションを示すインタラクションデータを重畳させてもよい。 The second subject may be specified, and the interaction data indicating the interaction between the first subject and the second subject may be superimposed on the fourth object area.
本発明の一実施形態に係る情報処理システムは、現実空間を撮影する撮像部と、撮像部によって撮影された映像を表示する表示部と、映像の中の第1被写体の一部であるパーツを特定する第2処理部と、パーツを含む第1オブジェクト領域を画定する第3処理部と、第1オブジェクト領域に、パーツに基づくパーツデータを重畳する。 The information processing system according to the embodiment of the present invention includes an imaging unit that captures a real space, a display unit that displays an image captured by the imaging unit, and a part that is a part of a first subject in the image. Part data based on the parts is superimposed on the second processing unit to be specified, the third processing unit that defines the first object area including the parts, and the first object area.
以下、本発明の各実施形態において、図面等を参照しつつ説明する。但し、本発明は、その技術的思想の要旨を逸脱しない範囲において様々な態様で実施することができ、以下に例示する実施形態の記載内容に限定して解釈されるものではない。 Hereinafter, each embodiment of the present invention will be described with reference to the drawings and the like. However, the present invention can be implemented in various aspects without departing from the gist of the technical idea, and is not construed as being limited to the description contents of the embodiments illustrated below.
図面は、説明をより明確にするため、実際の態様に比べ、各部の幅、厚さ、形状等について模式的に表される場合があるが、あくまで一例であって、図示の形状そのものが本発明の解釈を限定するものではない。また、図面において、明細書中で既出の図に関して説明したものと同様の機能を備えた要素には、別図であっても同一の符号を付して、重複する説明を省略する場合がある。 In order to clarify the explanation, the drawings may schematically represent the width, thickness, shape, etc. of each part as compared with the actual mode, but this is just an example, and the illustrated shape itself is a book. It does not limit the interpretation of the invention. Further, in the drawings, elements having the same functions as those described with respect to the drawings already mentioned in the specification may be designated by the same reference numerals even if they are separate drawings, and duplicate explanations may be omitted. ..
本明細書において、「映像」とは、静止画像だけでなく、動画像も含む。 In the present specification, the "video" includes not only a still image but also a moving image.
本明細書において、「キャラクタ」とは、アニメ、漫画、小説、ゲーム、または広告などにおいて創作された、人物、動物、または植物などの生物、もしくはロボットなどの無生物を含む。 As used herein, the term "character" includes living things such as people, animals, or plants, or inanimate objects such as robots, created in anime, cartoons, novels, games, advertisements, and the like.
始めに、図1および図2を参照して、本発明の一実施形態に係る情報処理システム10の構成について説明する。
First, the configuration of the
[1.情報処理システム10の構成]
図1は、本発明の一実施形態に係る情報処理システム10の構成を示すブロック図である。図1に示すように、情報処理システム10は、サーバ装置100、第1情報端末装置200−1、第2情報端末装置200−2、・・・、第n情報端末装置200−nを含む。ただし、情報処理システム10の構成はこれに限られない。情報処理システム10は、複数のサーバ装置100を含んでいてもよい。なお、第1情報端末装置200−1、第2情報端末装置200−2、・・・、第n情報端末装置200−nのそれぞれを特に区別しない場合、以下では、情報端末装置200として記載して説明する。
[1. Configuration of information processing system 10]
FIG. 1 is a block diagram showing a configuration of an
サーバ装置100と情報端末装置200とは、通信ネットワーク300によって接続されている。通信ネットワーク300は、複数のコンピュータを有線または無線によって接続し、相互に通信可能な状態にするシステムである。通信ネットワーク300は、例えば、インターネットなどである。通信ネットワーク300は、通信業者によって管理される通信基地局を介してもよい。すなわち、サーバ装置100と情報端末装置200とは、通信基地局を介した通信ネットワーク300によって接続されてもよい。
The
情報端末装置200は、サーバ装置100と接続されることによって、情報端末装置200での情報処理に必要なプログラム、情報、またはデータを送受信することができる。
By connecting to the
図2は、本発明の一実施形態に係る情報処理システム10のサーバ装置100および情報端末装置200の構成を示すブロック図である。図2(A)に示すように、サーバ装置100は、コンピュータ110を含む。また、図2(B)に示すように、情報端末装置200は、コンピュータ210を含む。サーバ装置100のコンピュータ110は、サーバ処理部111を含む。一方、情報端末装置200のコンピュータ210は、第1処理部211、第2処理部212、第3処理部213、第4処理部214、第5処理部215、第6処理部216、第7処理部217、第8処理部218、および第9処理部219を含む。
FIG. 2 is a block diagram showing the configurations of the
サーバ装置100は、例えば、ワークステーションまたはパーソナルコンピュータであり、コンピュータ110を含む。コンピュータ110は、演算手段として中央演算処理装置(CPU:Central Processing Unit)または画像処理装置(GPU:Graphics Processing Unit)を含む。CPUは、情報処理プログラムを読み込むことで、サーバ処理部111として機能し、所定の情報処理を実行することができる。また、GPUは、映像表示における演算処理を実行することができる。サーバ処理部111は、1つのCPUまたはGPUを用いて情報処理を実行してもよく、複数のCPUまたはGPUを用いて情報処理を実行してもよい。
The
サーバ装置100は、さらに、通信部120または記憶部130などを含んでいてもよい。
The
通信部120は、プログラム、情報、またはデータを送受信することができる通信インターフェースである。
The
記憶部130は、情報またはデータを格納することができるメモリまたはストレージである。例えば、記憶部は130は、後述するパーツデータ、セリフデータ、遮蔽データ、またはインタラクションデータなどの映像データを格納することができる。映像データは、画素サイズまたは色などの映像情報を含む。映像データには、音声データが含まれていてもよい。また、記憶部130は、キャラクタに関するキャラクタ情報を格納していてもよい。
The
サーバ処理部111は、情報を判定し、判定した情報に基づいたデータを取得することができる。例えば、サーバ処理部111は、通信部120によって受信された情報がどのような情報であるかを判定し、判定された情報に基づくデータを記憶部130から取得することができる。
The
また、サーバ処理部111は、映像データを判定することによって被写体を特定し、被写体情報を生成することもできる。さらに、サーバ処理部111は、被写体情報とキャラクタ情報とを比較し、被写体のキャラクタを判定することもできる。
Further, the
また、サーバ処理部111は、パーツデータとパーツ情報に基づいて、中間のパーツデータを生成することができる。
Further, the
情報端末装置200は、例えば、携帯電話、スマートフォン、タブレット、または携帯ゲーム機などであり、コンピュータ210を含む。また、コンピュータ210は、演算手段としてCPUまたはGPUを含む。CPUは、情報処理プログラムを読み込むことで、第1処理部211〜第9処理部219として機能し、所定の情報処理を実行することができる。また、GPUは、映像表示における演算処理を実行することができる。第1処理部211〜第9処理部219の各々は、1つのCPUまたはGPUを用いて情報処理を実行してもよく、複数のCPUまたはGPUを用いて情報処理を実行してもよい。
The
情報端末装置200は、さらに、撮像部220、表示部230、操作部240、通信部250、または記憶部260などを含んでいてもよい。
The
撮像部220は、現実空間の風景を撮影することができる。撮像部220は、例えば、カメラまたはビデオなどである。情報端末装置200は、複数の撮像部220を含んでいてもよい。情報端末装置200が2つの撮像部220を含む場合、一方の撮像部220は情報端末装置200の表示面側に設けられ、他方の撮像部220は情報端末装置200の表示面とは反対側の面に設けられていてもよい。
The
表示部230は、撮像部220で撮影した映像を表示することができる。表示部230は、例えば、液晶表示装置または発光ダイオード(LED)表示装置などである。
The
操作部240は、ユーザが操作することができるユーザインターフェースである。操作部240は、例えば、キーボード、マウス、タッチパネル、またはマイクなどである。情報端末装置200の操作部240は、タッチパネルが含まれていることが好ましい。タッチパネルは表示部230上に設けられるため、ユーザは、表示部230に表示された映像を確認しながらタッチパネルを用いて情報端末装置200を操作することができる。
The
通信部250は、プログラム、情報、またはデータを送受信することができる通信インターフェースである。
The
記憶部260は、情報またはデータを格納することができるメモリまたはストレージである。
The
第1処理部211は、表示部230に表示された映像の中から被写体を特定することができる。第1処理部211は、映像の中に含まれる所定の特徴を有する分類パターンに基づいて被写体を特定する。分類パターンは、例えば、人型パターン、動物型パターン、またはロボット型パターンなどであるが、これに限られない。被写体がキャラクタであるとき、頭部と頭部以外とのバランスが人間のバランスと異なることも多いため、さらに二頭身パターンまたは五頭身パターンなどの分類方法が異なる分類パターンに基づいて被写体を特定してもよい。また、第1処理部211は、被写体に関する情報を含む認証マークを検出し、認証マークから被写体を特定することもできる。被写体の特定においては、機械学習またはディープラーニングなどを用いることもできる。被写体の特定は、これらに限られず、あらゆる方法を適用することができる。また、第1処理部211は、特定された被写体に基づく被写体情報を生成することができる。さらに、第1処理部211は、認証マークから被写体を特定したときは、認証マークに関する認証マーク情報を生成することができる。
The
第2処理部212は、表示部230に表示された映像の中の被写体に含まれるパーツを抽出し、判定することができる。第2処理部212は、特定された被写体における特徴または位置に基づいてパーツを抽出し、抽出したパーツが被写体のどのパーツに該当するかを判定し、抽出したパーツを特定することができる。なお、第2処理部は、選択されたパーツを判定し、選択されたパーツを特定することもできる。また、第2処理部212は、特定されたパーツに基づくパーツデータを取得することができる。
The
第3処理部213は、表示部230に表示された映像において、映像データを重畳させるためのオブジェクト領域を画定することができる。第3処理部213は、所定の条件に従って、映像の座標情報を取得し、オブジェクト領域を画定する。オブジェクト領域は、矩形であることが好ましいが、これに限られない。オブジェクト領域は、多角形、円形、または楕円形であってもよい。また、第3処理部213は、オブジェクト領域に基づくオブジェクト領域情報を生成する。
The
なお、パーツの抽出とオブジェクト領域の画定は同時に実行することもできる。すなわち、パーツを含むオブジェクト領域を画定するとともに、オブジェクト領域を抽出し、オブジェクト領域からパーツを特定してもよい。この場合、第3処理部213がオブジェクト領域を画定し、第2処理部212は、画定されたオブジェクト領域の中からパーツを特定することができる。
It is also possible to extract parts and define the object area at the same time. That is, the object area including the parts may be defined, the object area may be extracted, and the parts may be specified from the object area. In this case, the
また、パーツをオブジェクト領域とすることもできる。 The part can also be an object area.
第4処理部214は、オブジェクト領域の大きさに合わせて映像データの大きさを調整することができる。具体的には、第4処理部214は、オブジェクト領域情報と映像データ情報とを比較し、オブジェクト領域情報に合わせて映像データを拡大し、または縮小する。また、第4処理部214は、被写体の角度を検出して、映像データの角度を調整することができる。さらに、第4処理部214は、オブジェクト領域情報に含まれる色の情報に基づいて、映像データの色を調整することができる。映像データの輪郭部分の色は、オブジェクト領域の輪郭近傍の色を用いて調整されることが好ましい。映像データの輪郭近傍の色を、オブジェクト領域の輪郭近傍の色に合わせることで、被写体に映像データを重畳させたときの境界を見えにくくすることができる。
The
第5処理部215は、表示部230に表示された映像のオブジェクト領域に、映像データを重畳することができる。具体的には、第5処理部215は、オブジェクト領域情報に基づいて、調整された映像データをオブジェクト領域に重畳する。
The
第6処理部216は、映像の中の被写体のパーツとパーツ情報に基づいて、アニメーション表示に必要な中間のパーツデータを生成することができる。第6処理部216は、1つだけでなく、複数のパーツデータを生成することができる。生成されるパーツデータの個数は、パーツによって決められていてもよく、設定によって決められていてもよい。
The
第7処理部217は、情報端末装置200の記憶部260から端末情報を取得することができる。端末情報としては、例えば、日付、時刻、場所、天気、またはユーザの誕生日など、情報端末装置200の機能または情報端末装置200に格納されたデータに関する情報であるが、これらに限られない。また、第7処理部217は、取得した端末情報がどのような情報であるかを判定することができる。具体的には、今日の日付とユーザの誕生日が一致していれば、第7処理部217は、誕生日であると判定する。また、今日の日付が休日、祝日、または行事の日であれば、特定日であると判定する。行事の日であるか否かの判定においては、インターネットと接続し、行事に関する情報を取得することもできる。また、時刻であれば、その時刻に基づいて、朝、昼、または夜と判定することができる。さらに、第7処理部217は、判定に基づいて、環境情報を生成することができる。
The
第8処理部218は、ユーザの身体の一部の動きを検出し、動きを判定することができる。例えば、第8処理部218は、映像のデータを解析して、動きを検出することができる。また、タッチパネルの信号に基づいて、動きを検出することもできる。また、第8処理部218は、検出された動きから、ユーザの指示(被写体に対するユーザの行動)を判定することができる。さらに、第8処理部218は、判定に基づいて、ユーザ行動情報を生成することができる。
The
第9処理部219は、撮像部220で撮影されたユーザの顔の表情を判定することができる。例えば、第9処理部219は、口角の形状から、ユーザの表情が笑顔かどうかを判定することができる。なお、第9処理部219が判定するユーザの表情は、笑顔に限られない。第9処理部219は、泣き顔または怒り顔なども判定することができる。また、第9処理部219は、判定に基づいて、ユーザ感情情報を生成することができる。
The
以下では、図3〜図17を参照して、本発明の一実施形態に係る情報処理システム10、情報処理プログラム、または情報処理方法を利用した具体的な情報処理について説明する。なお、本発明の一実施形態に係る情報処理システム、情報処理プログラム、または情報処理方法における情報処理は、以下の例示に限られない。
Hereinafter, specific information processing using the
[2.被写体のパーツを変化させる情報処理(情報処理A)]
図3および図4を参照して、情報端末装置200の撮像部220で現実空間の被写体500を撮影しながら、情報端末装置200の表示部230に表示された映像の中の被写体400のパーツを変化させる情報処理についてについて説明する。
[2. Information processing that changes the parts of the subject (information processing A)]
With reference to FIGS. 3 and 4, while the
図3は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400のパーツを変化させる情報処理を示すフローチャートである。以下、便宜上、図3に示す情報処理を、情報処理Aとして説明する。
FIG. 3 is a flowchart showing information processing in which the parts of the subject 400 in the video are changed by using the
図3に示す情報処理Aは、映像の中の被写体400を特定するステップ(S110)と、被写体400に含まれるパーツ401を特定するステップ(S120)と、パーツ401に関するパーツデータ411を取得するステップ(S130)と、映像の中に第1オブジェクト領域301を画定するステップ(S140)と、パーツデータ411を調整するステップ(S150)と、第1オブジェクト領域301にパーツデータ411を重畳するステップ(S160)と、を含む。以下、図4を参照しながら、各ステップについて説明する。
The information processing A shown in FIG. 3 includes a step of specifying the subject 400 in the image (S110), a step of specifying the
図4は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400のパーツが変化する前後の撮影を説明する図である。具体的には、図4(A)に示す情報端末装置200の表示部230には、被写体400のパーツが変化する前の映像が表示され、図4(B)に示す情報端末装置200の表示部230には、被写体400のパーツが変化した後の映像が表示されている。
FIG. 4 is a diagram illustrating shooting before and after the parts of the subject 400 in the image change by using the
図4(A)および図4(B)に示すように、ユーザは、情報端末装置200の撮像部220を用いて、現実空間の被写体500を撮影する。撮影された映像は、情報端末装置200の表示部230に表示される。すなわち、ユーザは、表示部230に表示された映像の被写体400を確認しながらも、現実空間の被写体500を視認することが可能である。なお、撮像部220は、表示部230側だけでなく、表示部230と反対側にも設けられている。以下、便宜上、表示部と反対側の撮像部220を第1撮像部220−1とし、表示部側の撮像部220を第2撮像部220−2として説明する。被写体500は、第1撮像部220−1で撮影されている。
As shown in FIGS. 4A and 4B, the user uses the
被写体500は、キャラクタが模されたフィギュア、人形、ぬいぐるみ、またはプラモデルなどの立体的なものであるが、これに限られない。被写体500は、キャラクタが描かれたポスターなどの平面的なものであってもよい。 The subject 500 is, but is not limited to, a three-dimensional object such as a figure, a doll, a stuffed animal, or a plastic model in which a character is imitated. The subject 500 may be a flat object such as a poster on which a character is drawn.
ステップS110では、第1処理部211が、表示部230に表示された映像の中から被写体400を特定する。第1処理部211は、分類パターンに基づいて被写体400を特定する。被写体400は、キャラクタが特定されることが好ましいが、キャラクタが特定されなくてもよい。第1処理部211は、映像の中の背景と分離された被写体400を特定することができればよい。また、第1処理部211は、特定された被写体400に基づいて被写体情報を生成する。
In step S110, the
被写体400の特定においては、サーバ装置100を用いることもできる。情報端末装置200の通信部250は、撮影された映像データをサーバ装置100に送信する。サーバ装置100の通信部120は、映像データを受信する。サーバ処理部111は、映像データを判定することによって被写体400を特定し、被写体情報を生成する。その際、サーバ処理部111は、被写体400のキャラクタを特定してよい。例えば、サーバ処理部111は、被写体情報と、記憶部130に格納されたキャラクタ情報と比較することによって、被写体400のキャラクタを特定することができる。被写体400のキャラクタが特定できたとき、被写体情報は、キャラクタに関する情報を含む。通信部120は、サーバ処理部111によって生成された被写体情報を情報端末装置200に送信する。通信部250が、被写体情報を受信することによって、情報端末装置200は、被写体情報を取得することができる。なお、取得された被写体情報は、情報端末装置200の記憶部260に格納されてもよい。
The
ステップS120では、第2処理部212が、被写体400に含まれるパーツ401を特定する。具体的には、第2処理部212は、パーツ401を抽出し、抽出したパーツ401が被写体400のどのパーツに該当するかを判定し、パーツ401を特定する。図4(A)に示すパーツ401は口であるが、パーツ401は口に限られない。パーツ401は、被写体400の部位(顔部、胴部、腕部、脚部、目、鼻、口、耳、髪の毛、手、または足など)であってもよく、被写体が着ている服であってもよく、被写体が具備する道具(武器または羽など)であってもよい。被写体400においては、特に、目または口などのパーツ401が判定されることが好ましい。被写体400の目を変化させることにより、被写体400がまばたきをしているアニメーションを表示することができる。また、被写体400の口を変化させることにより、被写体400が会話しているアニメーションを表示することができる。
In step S120, the
第2処理部212は、複数のパーツ401を判定してもよい。複数のパーツが判定されることにより、複数のパーツでアニメーション表示をすることができる。
The
パーツ401は、ユーザが選択することもできる。第2処理部212によるパーツ401の抽出が困難である場合、またはユーザがアニメーション表示させたい特定のパーツがある場合、ユーザがパーツ401を選択することで、第2処理部212はパーツ401を抽出することなくパーツ401を判定することが可能になる。そのため、第2処理部212によるパーツ401の判定の精度が向上する。
The
また、第2処理部は、特定されたパーツ401に基づくパーツ情報を生成する。
In addition, the second processing unit generates part information based on the specified
ステップS130では、情報端末装置200が、パーツ情報に基づくパーツデータ411を取得する。情報端末装置200の通信部250は、パーツ情報をサーバ装置100に送信する。サーバ装置100の通信部120は、パーツ情報を受信する。サーバ処理部111はパーツ情報を判定し、判定に基づくパーツデータ411を記憶部130から取得する。通信部120は、サーバ処理部111によって取得されたパーツデータ411を情報端末装置200に送信する。通信部250が、パーツデータ411を受信することによって、情報端末装置200は、パーツデータ411を取得することができる。なお、取得されたパーツデータ411は、情報端末装置200の記憶部260に格納されてもよい。
In step S130, the
パーツデータ411は、静止画データであってもよく、動画データであってもよい。パーツデータが静止画データであっても、被写体400がもともと有するパーツと静止画データとを交互に表示させることで、被写体400のアニメーション表示が可能となる。
The
ステップS140では、第3処理部213が、表示部230に表示された映像の中に、パーツ401を含む第1オブジェクト領域301を画定する。第3処理部213は、パーツ情報に基づき、パーツ401を囲むように映像の座標情報を取得し、第1オブジェクト領域301を画定する。また、第3処理部213は、第1オブジェクト領域301に基づく第1オブジェクト領域情報を生成する。
In step S140, the
ステップS150では、第4処理部214が、第1オブジェクト領域301の大きさに合わせて、取得されたパーツデータ411の大きさを調整する。また、第4処理部214は、被写体情報に基づいてパーツデータ411の角度を調整する。さらに、第4処理部214は、第1オブジェクト領域情報に含まれる色の情報に基づいて、パーツデータ411の色を調整する。パーツデータ411の大きさ、角度、および色を調整することで、被写体400にパーツデータ411を重畳したときであっても、違和感のない映像を表示することができる。
In step S150, the
ステップS160では、第5処理部215が、第1オブジェクト領域情報に基づいて、調整されたパーツデータ411を第1オブジェクト領域301に重畳する。被写体400にパーツデータ411を重畳することにより、被写体400がアニメーション表示され、被写体400に動きを与えることができる。
In step S160, the
以上、情報処理Aについて説明したが、情報処理Aが実行されることによって、情報端末装置200の表示部230には、被写体400の一部(パーツ)が変化した映像が表示される。被写体400の一部以外は、被写体500を撮影した映像であるため、ユーザは、被写体400を、現実空間の被写体500であるかのように感じることができる。また、被写体400を基にパーツデータ411が調整されているため、被写体400にパーツデータ411を重畳しても違和感のない表示が可能である。そのため、ユーザは、被写体400の一部が変化するアニメーション表示により、本来動きのない現実空間の被写体500が、あたかも動いているかのように感じることができる。
Although the information processing A has been described above, when the information processing A is executed, the
[3.パーツデータの生成]
上述したステップS130では、サーバ装置100の記憶部130からパーツデータ411を取得したが、パーツデータ411は生成することもできる。ここでは、図5を参照して、パーツデータ411の生成方法について説明する。
[3. Part data generation]
In step S130 described above, the
図5は、本発明の一実施形態に係る情報処理システム10を利用し、パーツデータを生成し、生成されたパーツデータが重畳された映像を説明する図である。なお、図5では、判定されたパーツ401が被写体400の目であるとして説明する。
FIG. 5 is a diagram illustrating an image in which part data is generated by using the
図5(A)〜図5(D)は、それぞれ、第1パーツデータ411−1〜第4パーツデータ411−4を示す。第6処理部216は、被写体400のオリジナルである第1パーツデータ411−1とパーツ情報に基づいて、中間のパーツデータとして第2パーツデータ411−2〜第4パーツデータ411−4を生成する。特定されたパーツが開いている目である場合、パーツ情報に含まれる目の情報に基づいて、目を閉じる中間の第2パーツデータ411−2〜第4パーツデータ411−4を生成する。例えば、目の瞳の一部を削除する処理を行うことで、中間の第2パーツデータ411−2〜第4パーツデータ411−4を生成することができる。
5 (A) to 5 (D) show the
パーツデータ411の生成においては、サーバ装置100を用いることもできる。情報端末装置200の通信部250は、被写体のオリジナルである第1パーツデータ411−1とパーツ情報をサーバ装置100に送信する。サーバ装置100の通信部120は第1パーツデータ411−1とパーツ情報を受信する。サーバ処理部111は、受信した第1パーツデータ411−1とパーツ情報に基づいて、中間の第2パーツデータ411−2〜第4パーツデータ411−4を生成する。通信部120は、サーバ処理部111によって生成された第2パーツデータ411−2〜第4パーツデータ411−4を情報端末装置200に送信する。通信部250が第2パーツデータ411−2〜第4パーツデータ411−4を受信することによって、情報端末装置200は、生成されたパーツデータ411を取得することができる。
The
図3に示したステップS130の代わりに、上述したパーツデータ411の生成に関する情報処理を実行し、生成されたパーツデータ411を用いて、ステップS140〜S160の情報処理を実行する。その結果、図5(E)に示すように、情報端末装置200の表示部230には、生成されたパーツデータ411を用いて被写体400の一部(パーツ)が変化した映像が表示される。情報処理システム10では、パーツデータ411を生成することができるため、サーバ装置100の記憶部130にパーツ情報に基づくパーツデータ411が格納されていないときであっても、被写体400に動きを与えることができる。また、生成されたパーツデータ411は、被写体400から生成されるため、被写体400にパーツデータ411を重畳しても違和感のない表示が可能である。
Instead of step S130 shown in FIG. 3, the information processing related to the generation of the
[4.被写体のセリフを表示する情報処理(情報処理B)]
図6および図7を参照して、情報端末装置200の撮像部220で現実空間の被写体500を撮影しながら、情報端末装置200の表示部230に表示された映像の被写体400にセリフを表示する情報処理について説明する。
[4. Information processing that displays the lines of the subject (information processing B)]
With reference to FIGS. 6 and 7, while the
図6は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400にセリフを表示する情報処理を示すフローチャートである。以下、便宜上、図6に示す情報処理を、情報処理Bとして説明する。
FIG. 6 is a flowchart showing information processing for displaying dialogue on a subject 400 in an image using the
図6に示す情報処理Bは、端末情報を取得するステップ(S210)と、環境情報を生成するステップ(S220)と、環境情報に基づくセリフデータ412を取得するステップ(S230)と、映像の中に第2オブジェクト領域302を画定するステップ(S240)と、セリフデータ412を調整するステップ(S250)と、第2オブジェクト領域302にセリフデータ412を重畳するステップと、を含む。以下、図7を参照しながら、各ステップについて説明する。
The information processing B shown in FIG. 6 includes a step of acquiring terminal information (S210), a step of generating environmental information (S220), a step of acquiring
図7は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400にセリフが表示された映像を説明する図である。
FIG. 7 is a diagram illustrating an image in which dialogue is displayed on a subject 400 in an image by using the
ステップS210では、第7処理部217が、情報端末装置200の記憶部260に格納されている時刻などの端末情報を取得する。ここでは、第7処理部217は、端末情報として、時刻に関する情報を取得している。
In step S210, the
ステップS220では、第7処理部217が、取得した端末情報を判定し、セリフデータ412の取得に必要な環境情報を生成する。ここでは、第7処理部217は、時刻に関する情報が「朝」の情報であると判定し、「朝」の情報を含む環境情報を生成する。
In step S220, the
環境情報の生成においては、サーバ装置100を用いることもできる。情報端末装置200の通信部250は、端末情報をサーバ装置100に送信する。サーバ装置100の通信部120は、端末情報を受信する。サーバ処理部111は、端末情報を判定し、環境情報を生成する。通信部120は、サーバ処理部111によって生成された環境情報を情報端末装置200に送信する。通信部250が、環境情報を受信することによって、情報端末装置200は、環境情報を取得することができる。なお、取得された環境情報は、情報端末装置200の記憶部260に格納されてもよい。
The
ステップS230では、情報端末装置200が、端末情報に基づくセリフデータ412を取得する。情報端末装置200の通信部250は、環境情報をサーバ装置100に送信する。サーバ装置100の通信部120は、環境情報を受信する。サーバ処理部111は環境情報を判定し、環境情報に基づくセリフデータ412を記憶部130から取得する。通信部120は、サーバ処理部111によって取得されたセリフデータを情報端末装置200に送信する。通信部250が、セリフデータ412を受信することによって、情報端末装置200は、セリフデータ412を取得することができる。なお、取得されたセリフデータ412は、情報端末装置200の記憶部260に格納されてもよい。
In step S230, the
環境情報の生成をサーバ装置100で実行する場合、サーバ装置100は、環境情報の生成に続いてセリフデータ412を取得してもよい。すなわち、サーバ装置100は、情報端末装置200に環境情報を送信することなく、環境情報に基づくセリフデータ412を記憶部130から取得し、セリフデータ412のみを情報端末装置200に送信してもよい。
When the generation of the environment information is executed by the
セリフデータ412は、少なくとも会話データを含み、セリフの吹き出しデータを含んでいてもよい。セリフデータ412の会話データは、被写体400がユーザに話しかける会話のデータである。例えば、会話データは、環境情報に誕生日の情報が含まれていれば「おめでとう」、環境情報に「朝」の情報が含まれていれば「おはよう」、または端末情報に「特定日」の情報が含まれていれば「どこか遊びにいこうよ」などである。また、セリフデータ412は、音声データを含んでいてもよい。
The
被写体400のキャラクタが特定されている場合、サーバ処理部111は、キャラクタ情報と環境情報とに基づいてセリフデータ412を取得してもよい。その場合、キャラクタの話し方に合わせたセリフデータ412を取得することができるため、ユーザはキャラクタの世界観を共有することができる。
When the character of the subject 400 is specified, the
さらに、セリフデータ412の代わりに、環境情報に基づくキャラクタの映像データまたは環境情報に基づく広告データを取得してもよい。これらのデータは、サーバ装置100の記憶部130から取得してもよく、他のサーバ装置から取得してもよい。なお、これらのデータも、第2オブジェクト領域302に重畳することができる。
Further, instead of the
ステップS240では、第3処理部213が、表示部230に表示された映像の中に、第2オブジェクト領域302を画定する。第3処理部213は、被写体400の顔部近傍であって、可能な限り顔部と重畳しないように第2オブジェクト領域302を画定する。顔部は被写体400の上部に位置することが多いため、第3処理部213は、被写体400の上部と隣接する位置に第2オブジェクト領域302を画定してもよい。また、第3処理部213は、第2オブジェクト領域302に基づく第2オブジェクト領域情報を生成する。
In step S240, the
ステップS250では、第4処理部214が、第2オブジェクト領域302の大きさに合わせて、取得されたセリフデータ412の大きさを調整する。第4処理部214は、第2オブジェクト領域302の第2オブジェクト領域情報とセリフデータ412のセリフ情報とを比較し、第2オブジェクト領域情報に基づいて、セリフデータ412の大きさを調整する。なお、セリフデータ412が小さすぎると、表示されるセリフが小さくなってしまい、ユーザの没入感が得られない。そのため、セリフデータ412の大きさには下限を設けておいてもよい。
In step S250, the
ステップS260では、第5処理部215が、第2オブジェクト領域情報に基づいて、調整されたセリフデータ412を第2オブジェクト領域302に重畳する。セリフデータ412に音声データが含まれるときは、セリフデータ412を表示するとともに、音声データを再生してもよい。音声があることにより、ユーザーの没入感を高めることができる。
In step S260, the
情報処理Bは、情報処理Aと組み合わせて実行することができる。 Information processing B can be executed in combination with information processing A.
以上、情報処理Bについて説明したが、情報処理Bが実行されることによって、情報端末装置200の表示部230の映像には、被写体400のセリフが表示される。セリフは、端末情報に基づいたものであるため、ユーザは、現実空間の被写体500のキャラクタがあたかもユーザに語りかけてくるかのように感じることができる。そのため、ユーザは、被写体500のキャラクタの世界観に没頭することができる。
Although the information processing B has been described above, when the information processing B is executed, the dialogue of the subject 400 is displayed on the image of the
[5.被写体の背景に基づくセリフを表示する情報処理(情報処理C)]
図8および図9を参照して、情報端末装置200の撮像部220で現実空間の被写体500を撮影しながら、被写体400に、表示部230に表示された映像の背景に基づくセリフを表示する情報処理について説明する。
[5. Information processing that displays dialogue based on the background of the subject (information processing C)]
With reference to FIGS. 8 and 9, information is displayed on the subject 400 based on the background of the image displayed on the
図8は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400にセリフを表示する情報処理を示すフローチャートである。以下、便宜上、図8に示す情報処理を、情報処理Cとして説明する。
FIG. 8 is a flowchart showing information processing for displaying dialogue on a subject 400 in an image using the
図8に示す情報処理Cは、被写体400の背景から背景情報を生成するステップ(S310)と、背景情報に基づくセリフデータ413を取得するステップ(S320)と、映像の中に第2オブジェクト領域302を画定するステップ(S330)と、セリフデータ413を調整するステップ(S340)と、第2オブジェクト領域302にセリフデータ413を重畳するステップと、を含む。以下、図9を参照しながら、各ステップについて説明する。
The information processing C shown in FIG. 8 includes a step of generating background information from the background of the subject 400 (S310), a step of acquiring
図9は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400にセリフを表示する前後の撮影を説明する図である。具体的には、図9(A)に示す情報端末装置200の表示部230には、被写体400にセリフを表示する前の映像が表示され、図9(B)に示す情報端末装置200の表示部230には、被写体400にセリフを表示した後の映像が表示されている。図9(A)および図9(B)に示すように、現実空間には、被写体500のほかに、物体510が置かれている。図9(A)および図9(B)に示す物体510は、主に夏の季節で使用する扇風機である。
FIG. 9 is a diagram illustrating shooting before and after displaying dialogue on a subject 400 in an image using the
ステップS310では、第1処理部211が、表示部230に表示された映像の中から被写体400以外の部分(背景)に含まれる物体450を特定する。第1処理部211は、物体450を所定の分類パターンに基づいて物体を450を特定する。また、第1処理部211は、特定された物体450に基づいて物体情報を生成する。
In step S310, the
物体450の特定において、サーバ装置100を用いることもできる。情報端末装置200の通信部250は、撮影された映像データをサーバ装置100に送信する。サーバ装置100の通信部120は、映像データを受信する。サーバ処理部111は、映像データを判定することによって物体450を特定し、物体情報を生成する。通信部120は、サーバ処理部111によって生成された物体情報を情報端末装置200に送信する。通信部250が、物体情報を受信することによって、情報端末装置200は、物体情報を取得することができる。なお、取得された物体情報は、情報端末装置200の記憶部260に格納されてもよい。
The
ステップS320では、情報端末装置200が、物体情報に基づくセリフデータ413を取得する。情報端末装置200の通信部250は、物体情報をサーバ装置100に送信する。サーバ装置100の通信部120は、物体情報を受信する。サーバ処理部111は物体情報を判定し、物体情報に基づくセリフデータ413を記憶部130から取得する。通信部120は、サーバ処理部111によって取得されたセリフデータ413を情報端末装置200に送信する。通信部250が、セリフデータ413を受信することによって、情報端末装置200は、セリフデータ413を取得することができる。なお、取得されたセリフデータ413は、情報端末装置200の記憶部260に格納されてもよい。
In step S320, the
物体450の特定をサーバ装置100で実行する場合、サーバ装置100は、物体情報の生成に続いてセリフデータ413を取得してもよい。すなわち、サーバ装置100は、情報端末装置200に物体情報を送信することなく、物体情報に基づくセリフデータ413を記憶部130から取得し、セリフデータ413のみを情報端末装置200に送信してもよい。
When the
セリフデータ413は、少なくとも会話データを含み、セリフの吹き出しデータを含んでいてもよい。セリフデータ413の会話データは、被写体400がユーザに話しかける会話のデータであるが、物体情報に基づくものである。例えば、会話データは、物体情報に夏の情報が含まれていれば「暑いね」、物体情報に花の情報が含まれていれば「きれいだね」、または物体情報に食べ物の情報が含まれていれば「お腹減った」などである。また、セリフデータ413は、音声データを含んでいてもよい。
The
被写体400のキャラクタが特定されている場合、サーバ処理部111は、キャラクタ情報と物体情報とに基づいてセリフデータ413を取得してもよい。その場合、キャラクタの話し方に合わせたセリフデータ413を取得することができるため、ユーザはキャラクタの世界観を共有することができる。
When the character of the subject 400 is specified, the
ステップS330、ステップS340、およびステップS350は、それぞれ、上述したステップS240、ステップS250、およびステップS260と同様であるため、ここでは説明を省略する。 Since step S330, step S340, and step S350 are the same as step S240, step S250, and step S260 described above, respectively, description thereof will be omitted here.
情報処理Cは、情報処理Aまたは情報処理Bと組合わせて実行することができる。 Information processing C can be executed in combination with information processing A or information processing B.
以上、情報処理Cについて説明したが、情報処理Cが実行されることによって、情報端末装置200の表示部230に、撮影されている環境に応じた被写体400のセリフを表示することができる。そのため、ユーザは、現実空間の環境に融合された被写体500のキャラクタの世界観を身近に感じることができるとともに、被写体500のキャラクタに感情移入することができる。
Although the information processing C has been described above, when the information processing C is executed, the lines of the subject 400 according to the shooting environment can be displayed on the
[6.認証マークに基づき被写体のパーツを変化させる情報処理(情報処理D)]
図10および図11を参照して、情報端末装置200の撮像部220で現実空間の認証マークが付加された被写体500を撮影しながら、表示部230に表示された映像の被写体400のパーツを変化させる情報処理フローについて説明する。
[6. Information processing that changes the parts of the subject based on the certification mark (information processing D)]
With reference to FIGS. 10 and 11, the
図10は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400のパーツを変化させる情報処理を示すフローチャートである。以下、便宜上、図10に示す情報処理を、情報処理Dとして説明する。
FIG. 10 is a flowchart showing information processing in which the parts of the subject 400 in the video are changed by using the
図10に情報処理Dは、映像の中の認証マーク403に基づいて被写体400を特定するステップ(S405)と、被写体400に含まれるパーツ401を特定するステップ(S410)と、パーツ401に関するパーツデータ411を取得するステップ(S415)と、映像の中に第1オブジェクト領域301を画定するステップ(S420)と、パーツデータ411を調整するステップ(S425)と、第1オブジェクト領域301にパーツデータ411を重畳するステップ(S430)と、遮蔽データ414を取得するステップ(S435)と、映像の中に第3オブジェクト領域303を画定するステップ(S440)と、遮蔽データ414を調整するステップ(S445)と、第3オブジェクト領域303に遮蔽データ414を重畳するステップ(S450)と、を含む。以下、図11を参照しながら、各ステップについて説明する。
In FIG. 10, the information processing D includes a step of specifying the subject 400 based on the
図11は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400のパーツが変化する前後の撮影を説明する図である。具体的には、図11(A)に示す情報端末装置200の表示部230には、被写体400のパーツが変化する前の映像が表示され、図11(B)に示す情報端末装置200の表示部230には、被写体400のパーツが変化した後の映像が表示されている。
FIG. 11 is a diagram illustrating shooting before and after the parts of the subject 400 in the image change by using the
図11(A)および図11(B)に示す被写体500は、被写体500を特定することができる(被写体500に関する情報を含む)認証マーク520が付加されている。そのため、認証マーク520(具体的には、映像の中の認証マーク403)を読み込むことにより、被写体500の形態およびキャラクタを特定することができる。図11(A)および図11(B)に示す認証マーク520はQR(Quick Response)コードであるが、認証マーク520は、QRコード(登録商標)に限られない。認証マーク520は、例えば、バーコードであってもよく、認証マーク520(具体的には、映像の中の認証マーク403)を解析することによって被写体500を特定することができるものであればよい。
The subject 500 shown in FIGS. 11A and 11B is provided with a
ステップS405では、第1処理部211が、表示部230に表示された映像の中から認証マーク403を検出し、認証マーク403から被写体400を特定する。また、第1処理部211は、特定された被写体400に基づいて被写体情報を生成する。さらに、第1処理部211は、認証マーク情報を生成する。
In step S405, the
ステップS410、ステップS415、ステップS420、ステップS425、およびステップS430は、それぞれ、上述したステップS120、ステップS130、ステップS140、ステップS150、およびステップS160と同様であるため、ここでは説明を省略する。 Since step S410, step S415, step S420, step S425, and step S430 are the same as the above-mentioned steps S120, S130, step S140, step S150, and step S160, respectively, description thereof will be omitted here.
ステップS435では、情報端末装置200が、認証マーク403を隠すための遮蔽データ414を取得する。情報端末装置200の通信部250は、認証マーク情報をサーバ装置100に送信する。サーバ装置100の通信部120は、認証マーク情報を受信する。サーバ処理部111は、認証マーク情報を判定し、判定に基づく遮蔽データ414を記憶部130から取得する。通信部120は、サーバ処理部111によって取得された遮蔽データ414を情報端末装置200に送信する。通信部250が、遮蔽データ414を受信することによって、情報端末装置200は、遮蔽データ414を取得することができる。なお、取得された遮蔽データ414は、情報端末装置200の記憶部260に格納されてもよい。
In step S435, the
遮蔽データ414は、単色の矩形を表示するデータであってもよく、複数色の矩形を表示するデータであってもよい。また、遮蔽データ414は、模様が付された矩形を表示するデータであってもよい。さらに、遮蔽データ414は、矩形を表示するものに限られない。遮蔽データ414は、円形または楕円形などを表示するものであってもよい。また、被写体400のキャラクタが特定されている場合、遮蔽データ414は、キャラクタに固有のトレードマークまたはエンブレムなどの映像であってもよい。
The shielding
ステップS440では、第3処理部213が、表示部230に表示された映像の中に、認証マーク403を含む第3オブジェクト領域303を画定する。第3処理部213は、認証マーク情報に基づき、認証マーク403を囲むように映像の座標情報を取得し、第3オブジェクト領域303を画定する。また、第3処理部213は、第3オブジェクト領域303に基づく第3オブジェクト領域情報を生成する。
In step S440, the
ステップS445では、第4処理部214が、第3オブジェクト領域303の大きさに合わせて、取得された遮蔽データ414の大きさを調整する。また、第4処理部214は、被写体情報に基づいて遮蔽データ414の角度を調整する。さらに、第4処理部214は、第3オブジェクト領域情報に含まれる色の情報に基づいて、遮蔽データ414の色を調整する。例えば、第4処理部214は、遮蔽データ414を、認証マーク403を除去した第3オブジェクト領域303の色に合わせるように調整することができる。
In step S445, the
ステップS450では、第5処理部215が、第3オブジェクト領域情報に基づいて、調整された遮蔽データ414を第3オブジェクト領域303に重畳する。重畳する遮蔽データ414は、第3オブジェクト領域情報に含まれる色の情報に基づいて調整されているため、違和感なく、認証マーク403を隠すことができる。したがって、被写体400の認証マーク403を隠しても、被写体400のユーザに与える印象は変わらない。
In step S450, the
情報処理Dは、情報処理A〜情報処理Cと組合わせて実行することができる。 Information processing D can be executed in combination with information processing A to information processing C.
以上、情報処理Dについて説明したが、情報処理Dが実行されることによって、情報端末装置200の表示部230の映像には、認証マーク403が隠される。そのため、ユーザは、認証マーク403に邪魔されることなく、被写体500のキャラクタの世界観に没頭することができる。
Although the information processing D has been described above, the
[7.複数の被写体によるインタラクションを表示する情報処理(情報処理E)]
図12および図13を参照して、情報端末装置200の撮像部220で現実空間の第1被写体500−1および第2被写体500−2を撮影しながら、情報端末装置200の表示部230に表示された映像の中に、第1被写体400−1と第2被写体400−2とのインタラクションを表示する情報処理について説明する。
[7. Information processing that displays interactions between multiple subjects (information processing E)]
With reference to FIGS. 12 and 13, the
図12は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中に第1被写体400−1と第2被写体400−2とのインタラクションを表示する情報処理を示すフローチャートである。以下、便宜上、図12に示す情報処理を、情報処理Eとして説明する。
FIG. 12 is a flowchart showing information processing for displaying the interaction between the first subject 400-1 and the second subject 400-2 in an image using the
図12に示す情報処理Eは、映像の中の第1被写体400−1を特定するステップ(S510)と、映像の中の第2被写体400−2を特定するステップ(S520)と、インタラクションデータ415を取得するステップ(S530)と、映像の中に第4オブジェクト領域304を画定するステップ(S540)と、インタラクションデータ415を調整するステップ(S550)と、第4オブジェクト領域304にインタラクションデータ415を重畳するステップ(S560)と、を含む。以下、図13を参照しながら、各ステップについて説明する。
The information processing E shown in FIG. 12 includes a step of specifying the first subject 400-1 in the image (S510), a step of specifying the second subject 400-2 in the image (S520), and
図13は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中に第1被写体400−1と第2被写体400−2とのインタラクションを表示する前後の撮影を説明する図である。具体的には、図13(A)に示す情報端末装置200の表示部230には、第1被写体400−1と第2被写体400−2とのインタラクションを表示する前の映像が表示され、図13(A)に示す情報端末装置200の表示部230には、第1被写体400−1と第2被写体400−2とのインタラクションを表示した後の映像が表示されている。
FIG. 13 is a diagram illustrating shooting before and after displaying the interaction between the first subject 400-1 and the second subject 400-2 in an image using the
図13(A)および図13(B)に示すように、ユーザは、情報端末装置200の撮像部220を用いて、現実空間の第1被写体500−1および第2被写体500−2を撮影する。撮影において、第1被写体500−1の一部と第2被写体500−2の一部とは重なっていてもよいが、第1被写体500−1の特徴を示す部分と第2被写体500−2の特徴を示す部分とは重ならないことが好ましい。特徴を示す部分としては、例えば、顔部である。
As shown in FIGS. 13A and 13B, the user uses the
ステップS510およびステップS520は、上述したステップS110と同様であるため、ここでは説明を省略する。 Since step S510 and step S520 are the same as step S110 described above, description thereof will be omitted here.
ステップS530では、情報端末装置200が、第1被写体情報および第2被写体情報に基づくインタラクションデータ415を取得する。情報端末装置200の通信部250は、第1被写体情報および第2被写体情報をサーバ装置100に送信する。サーバ装置100の通信部250は第1被写体情報および第2被写体情報を受信し、サーバ処理部111は第1被写体情報および第2被写体情報を判定する。具体的には、サーバ処理部111は、第1被写体情報に係る第1被写体500−1と第2被写体情報に係る第2被写体500−2との関連性を判定する。第1被写体500−1と第2被写体500−2との関連性としては、例えば、人と人であるか、人と動物であるか、または人とロボットであるか、などである。
In step S530, the
また、サーバ処理部111は、第1被写体情報および第2被写体情報から、それぞれのキャラクタを特定してもよい。第1被写体情報に係る第1被写体500−1と第2被写体情報に係る第2被写体500−2のそれぞれのキャラクタが特定されることにより、サーバ処理部111は、キャラクタ同士の関連性を判定することができる。すなわち、サーバ処理部111は、同じアニメに登場するキャラクタであるかなど、キャラクタに基づく判定を行うことができる。そのため、サーバ処理部111は、キャラクタが味方同士であるか、敵同士であるか、または恋人同士であるか、なども判定することができるようになり、第1被写体500−1と第2被写体500−2との関連性をより詳細に判定することができる。
Further, the
サーバ処理部111は、第1被写体500−1と第2被写体500−2との関連性の判定に基づくインタラクションデータ415を記憶部130から取得する。通信部120は、サーバ処理部111によって取得されたインタラクションデータ415を情報端末装置200に送信する。通信部250がインタラクションデータ415を受信することによって、情報端末装置200は、インタラクションデータ415を取得することができる。なお、取得されたインタラクションデータ415は、情報端末装置200の記憶部260に格納されてもよい。
The
なお、インタラクションデータ415は、情報端末装置200で生成されてもよい。
The
ステップS540では、第3処理部213が、表示部230に表示された映像の中に、第4オブジェクト領域304を画定する。第4オブジェクト領域304は、第1被写体400−1と第2被写体400−2との間に画定されることが好ましいが、これに限られない。第3処理部213は、映像の座標情報を取得し、第4オブジェクト領域304を画定する。また、第3処理部213は、第4オブジェクト領域に基づく第4オブジェクト領域情報を生成する。
In step S540, the
ステップS550では、第4処理部214が、第4オブジェクト領域304の大きさに合わせて、取得されたインタラクションデータ415の大きさを調整する。また、第4処理部214は、第4オブジェクト領域情報に含まれる色の情報に基づいて、インタラクションデータ415の色を調整する。
In step S550, the
ステップS560では、第5処理部215が、第4オブジェクト領域情報に基づいて、調整されたインタラクションデータ415を第4オブジェクト領域304に重畳する。
In step S560, the
情報処理Eは、情報処理A〜情報処理Dと組合わせて実行することができる。 Information processing E can be executed in combination with information processing A to information processing D.
以上、情報処理Eについて説明したが、情報処理Eが実行されることによって、情報端末装置200の表示部230の映像には、第1被写体400−1と第2被写体400−2とのインタラクションが表示される。被写体500の組み合わせによって異なるインタラクションが得られるため、ユーザは、被写体500の組み合わせによるゲーム性を楽しむことができる。そのため、キャラクタである被写体500に対してのARの利用率が向上する。
Although the information processing E has been described above, when the information processing E is executed, the image of the
[8.動きの検出によって被写体のパーツを変化させる情報処理(情報処理F)]
図14および図15を参照して、情報端末装置200の撮像部220で現実空間の被写体500を撮影しながら、ユーザの身体の一部の動きも撮影し、表示部230に表示された映像の被写体400のパーツを、動きに応じて変化させる情報処理フローについて説明する。
[8. Information processing that changes the parts of the subject by detecting movement (information processing F)]
With reference to FIGS. 14 and 15, while the
図14は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400のパーツをユーザの身体の一部の動きに応じて変化させる情報処理を示すフローチャートである。以下、便宜上、図14に示す情報処理を、情報処理Fとして説明する。
FIG. 14 is a flowchart showing information processing in which the
図14に示す情報処理Fは、映像の中の被写体400を特定するステップ(S610)と、被写体400に含まれるパーツ401を判定するステップ(S620)と、ユーザーの身体の一部の動きを判定するステップ(S630)と、パーツ401に基づくパーツデータ416を取得するステップ(S640)と、第1オブジェクト領域301を画定するステップ(S650)と、パーツデータ416を調整するステップ(S660)と、第1オブジェクト領域301にパーツデータ416を重畳するステップ(S670)と、を含む。以下、図15を参照しながら、各ステップについて説明する。
The information processing F shown in FIG. 14 determines the step of identifying the subject 400 in the image (S610), the step of determining the
図15は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400のパーツがユーザの身体の一部の動きに応じて変化する前後の撮影を説明する図である。具体的には、図15(A)に示す情報端末装置200の表示部230には、被写体400のパーツが変化する前の映像が表示され、図15(B)に示す情報端末装置200の表示部230には、ユーザの身体の一部の動きに応じて、被写体400のパーツが変化した後の映像が表示されている。
FIG. 15 is a diagram illustrating shooting before and after the
図15(A)および図15(B)に示すように、ユーザは、ユーザの身体の一部である指530を被写体500に近づけ、被写体500に対して指530を動かす。例えば、図15(A)および図15(B)に示すように、ユーザは、被写体500を撫でるように指530を動かすことができる。他にも、ユーザは、被写体500を突くように指530を動かすこともできる。なお、指530の動きは、これらに限定されない。
As shown in FIGS. 15A and 15B, the user brings the
また、映像の中の指460が被写体400の近傍にあればよく、現実空間の指530は、被写体500に触れていてもよく、被写体500に触れていなくてもよい。また、指530は、被写体500の近傍になくてもよく、被写体500から離れていてもよい。例えば、指530は、被写体500と情報端末装置200との間にあってもよい。
Further, the
ステップS610およびステップS620は、それぞれ、上述したステップS110およびステップS120と同様であるため、ここでは説明を省略する。 Since step S610 and step S620 are the same as step S110 and step S120 described above, respectively, description thereof will be omitted here.
ステップS630では、第8処理部218が、指460の動きを検出し、指460の動きを判定する。第8処理部218は、被写体400の近傍で反復する一定の動きをしている指460を検出する。また、第8処理部218は、反復する一定の動きから、被写体400に対するユーザの行動を判定する。例えば、指460が、被写体400の近傍を反復して動くとき、第8処理部218は、ユーザが被写体400を撫でていると判定する。また、指460が、繰り返し、被写体400に近づいたり、離れたりして動くとき、第8処理部は、ユーザが被写体400を突いていると判定する。第8処理部218は、判定に基づき、ユーザ行動情報を生成する。
In step S630, the
ステップS640では、情報端末装置200が、パーツ情報およびユーザ行動情報に基づくパーツデータ416を取得する。情報端末装置200の通信部250は、パーツ情報およびユーザ行動情報をサーバ装置100に送信する。サーバ装置100の通信部120は、パーツ情報およびユーザ行動情報を受信する。サーバ処理部111は、パーツ情報およびユーザ行動情報を判定し、判定に基づくパーツデータ416を記憶部130から取得する。通信部120は、サーバ処理部111によって取得されたパーツデータ416を情報端末装置200に送信する。通信部250が、パーツデータ416を受信することによって、情報端末装置200は、パーツデータ411を取得することができる。なお、取得されたパーツデータ416は、情報端末装置200の記憶部260に格納されてもよい。
In step S640, the
ステップS650、ステップS660、およびステップS670は、それぞれ、上述したステップS140、S150、およびS160と同様であるため、ここでは説明を省略する。 Step S650, step S660, and step S670 are the same as steps S140, S150, and S160 described above, respectively, and thus the description thereof will be omitted here.
情報処理Fは、情報処理A〜Eと組み合わせて実行することができる。 Information processing F can be executed in combination with information processing A to E.
以上、情報処理Fについて説明したが、情報処理Fが実行されることによって、情報端末装置200の表示部230には、ユーザの意思に応じて被写体400の一部が変化した映像が表示される。そのため、ユーザと被写体500のキャラクタとの一体感が高まり、ユーザの満足度が向上する。
Although the information processing F has been described above, when the information processing F is executed, the
[9.操作部または撮像部の利用]
情報処理システム10は、情報端末装置200の操作部240または撮像部220を利用し、映像の中の被写体400のパーツを変化させ、または被写体400のセリフを表示することができる。
[9. Use of operation unit or imaging unit]
The
図16は、本発明の一実施形態に係る情報処理システム10を利用し、情報端末装置200の操作部240または撮像部220を利用して、変化させた映像を説明する図である。具体的には、図16(A)に示す情報端末装置200の表示部230には、被写体のパーツが変化した後の映像が表示され、図16(B)に示す情報端末装置200の表示部230には、被写体400にセリフを表示した映像が表示されている。
FIG. 16 is a diagram for explaining a changed image by using the
図16(A)では、ユーザが、現実空間の被写体500を撮影しながら、指530が、情報端末装置200の表示部230に直接触れている。表示部230には操作部240としてタッチパネルが設けられており、操作部240は、指530の表示部への接触を検出することができる。第8処理部218は、操作部240を介して、指530の動きを検出し、指460の動きを判定する。具体的には、第8処理部218は、指530の動きに規則性があるかどうかを判定する。指530の動きに所定の規則性があるとき、第8処理部218は、ユーザ行動情報を生成する。
In FIG. 16A, the user directly touches the
その後の情報処理については上述した説明と同様であるため、ここでは説明を省略するが、情報端末装置200は、パーツ情報およびユーザ行動情報に基づいてパーツデータ417を取得することができる。また、画定された第1オブジェクト領域301にパーツデータ417が重畳される。図16(A)では、指530が被写体400を撫でていると判定されたため、被写体400がくすぐったがる表情のパーツデータ417が重畳されている。
Since the subsequent information processing is the same as the above description, the description thereof is omitted here, but the
図16(B)では、ユーザが、第1撮像部220−1で現実空間の被写体500を撮影しながら、第2撮像部220−2でユーザの顔を撮影している。第9処理部219は、撮像部220によって撮影されたユーザの顔の映像からユーザの表情を判定する。具体的には、第9処理部219は、ユーザの表情が笑顔かどうかを判定する。また、第9処理部219は、判定結果に基づき、ユーザ感情情報を生成する。
In FIG. 16B, the user is photographing the user's face with the second imaging unit 220-2 while the first imaging unit 220-1 is photographing the subject 500 in the real space. The
なお、第9処理部219による判定は、ユーザの表情に限られない。第9処理部219は、第2撮像部220−2で撮影されたものであればよく、ユーザの身体の動きを判定してもよい。例えば、第9処理部は、予め決められたユーザの身体の動きを判定し、ユーザ感情情報を生成してもよい。
The determination by the
その後の情報処理については上述した説明と同様であるため、詳細な説明は省略するが、情報端末装置200は、セリフ情報およびユーザ感情情報に基づいてセリフデータ418を取得することができる。また、画定された第2オブジェクト領域302にセリフデータ418が重畳される。図16(B)では、ユーザの表情が笑顔でなかったと判定されたため、被写体400が笑顔でなかった理由を問いかける会話データ「疲れてるの」を含むセリフデータ418が重畳されている。
Since the subsequent information processing is the same as the above description, detailed description thereof will be omitted, but the
図16(A)においては、セリフ情報およびユーザ行動情報に基づいてセリフデータが取得されてもよく、図16(B)においては、パーツ情報およびユーザ感情情報に基づいてパーツデータが取得されてもよい。 In FIG. 16A, dialogue data may be acquired based on dialogue information and user behavior information, and in FIG. 16B, parts data may be acquired based on parts information and user emotion information. good.
また、情報処理システム10では、第2撮像部220−2で撮影した物体に基づき、セリフデータ418またはパーツデータが取得されてもよい。例えば、第2撮像部220−2を食べ物を撮影し、撮影した食べ物を判定して、「食べたい」または「おいしそう」などのセリフデータを取得してもよい。
Further, in the
また、図示しないが、情報処理システム10では、情報端末装置200の操作部240のマイクを利用することもできる。すなわち、情報端末装置200は、マイクを介してユーザの音声を判定し、被写体400のパーツデータまたはセリフデータを取得してもよい。情報処理システム10において、情報端末装置200のマイクを利用することにより、ユーザは、あたかも被写体400と対話しているかのように感じることができる。そのため、ユーザは、被写体400との対話を通じて、被写体400のキャラクタとより深いコミュニケーションを図ることができる。
Further, although not shown, the
なお、顔の表情の判定または音声の判定においては、機械学習またはディープラーニングを用いることができる。 Machine learning or deep learning can be used in determining facial expressions or voices.
以上、情報端末装置200の操作部240または撮像部220を用いても、情報端末装置200の表示部230に、ユーザの意思に応じて被写体400の一部が変化した映像を表示することができる。そのため、ユーザと被写体500のキャラクタとの一体感が高まり、ユーザの満足度が向上する。
As described above, even if the
[10.被写体のカスタマイズ]
情報処理システム10は、情報端末装置200の操作部240を利用し、映像の中の被写体400または背景をカスタマイズすることができる。
[10. Subject customization]
The
図17(A)および図17(B)は、それぞれ、本発明の一実施形態に係る情報処理システム10を利用し、被写体400または背景をカスタマイズした映像を説明する図である。
17 (A) and 17 (B) are diagrams for explaining an image in which the subject 400 or the background is customized by using the
図17(A)に示す情報端末装置200の表示部230の映像の中の被写体400は、現実空間の被写体500との髪の毛419の色が異なっている。すなわち、ユーザは、現実空間の被写体500を撮影しながら、情報処理システム10を利用し、映像の中の被写体400をユーザの好みに合わせてカスタマイズすることができる。
The subject 400 in the image of the
図17(B)に示す情報端末装置200の表示部230の映像の中の背景には、現実空間に存在しないオブジェクト420が配置されている。すなわち、ユーザは、現実空間の被写体500を撮影しながら、情報処理システム10を利用し、映像の中の被写体400の背景をユーザの好みに合わせてカスタマイズすることができる。オブジェクト420は、予め用意されたオブジェクトから選択されてもよく、ユーザが生成したオブジェクトであってもよい。さらに、オブジェクト420は、情報端末装置200に保管されている映像データから生成されたオブジェクトであってもよい。
An
ユーザは、情報端末装置200の表示部230に表示される被写体400を、ユーザの好みに合わせてカスタマイズすることができる。そのため、ユーザは、被写体500のキャラクタに感情移入して愛着を感じることができるようになり、ユーザの満足度が向上する。
The user can customize the subject 400 displayed on the
本発明の実施形態として上述した各実施形態は、相互に矛盾しない限りにおいて、適宜組み合わせて実施することができる。また、各実施形態を基にして、当業者が適宜構成要素の追加、削除、または設計変更を行ったもの、もしくは工程の追加、省略、または条件変更を行ったものも、本発明の要旨を備えている限り、本発明の範囲に含まれる。 Each of the above-described embodiments of the present invention can be appropriately combined and implemented as long as they do not contradict each other. Further, based on each embodiment, those skilled in the art who appropriately add, delete, or change the design, or add, omit, or change the conditions of the process are also gist of the present invention. As long as it is provided, it is included in the scope of the present invention.
上述した各実施形態の態様によりもたらされる作用効果とは異なる他の作用効果であっても、本明細書の記載から明らかなもの、または当業者において容易に予測し得るものについては、当然に本発明によりもたらされるものと解される。 Of course, other actions and effects that are different from the actions and effects brought about by the aspects of each of the above-described embodiments that are clear from the description of the present specification or that can be easily predicted by those skilled in the art are described in the present invention. It is understood that it is brought about by the invention.
10:情報処理システム、 100:サーバ装置、 110:コンピュータ、 111:サーバ処理部、 120:通信部、 130:記憶部、 200:情報端末装置、 200−1:第1情報端末装置、 200−2:第2情報端末装置、 200−n:第n情報端末装置、 210:コンピュータ、 211:第1処理部、 212:第2処理部、 213:第3処理部、 214:第4処理部、 215:第5処理部、 216:第6処理部、 217:第7処理部、 218:第8処理部、 219:第9処理部、 220:撮像部、 220−1:第1撮像部、 220−2:第2撮像部、 230:表示部、 240:操作部、 250:通信部、 260:記憶部、 300:通信ネットワーク、 301:第1オブジェクト領域、 302:第2オブジェクト領域、 303:第3オブジェクト領域、 304:第4オブジェクト領域、 400:被写体、 400−1:第1被写体、 400−2:第2被写体、 401:パーツ、 403:認証マーク、 411:パーツデータ、 411−1:第1パーツデータ、 411−2:第2パーツデータ、 411−4:第4パーツデータ、 412:セリフデータ、 413:セリフデータ、 414:遮蔽データ、 415:インタラクションデータ、 416:パーツデータ、 417:パーツデータ、 418:セリフデータ、 419:髪の毛、 420:オブジェクト、 450:物体、 460:指、 500:被写体、 500−1:第1被写体、 500−2:第2被写体、 510:物体、 520:認証マーク、 530:指 10: Information processing system, 100: Server device, 110: Computer, 111: Server processing unit, 120: Communication unit, 130: Storage unit, 200: Information terminal device, 200-1: First information terminal device, 200-2 : 2nd information terminal device, 200-n: nth information terminal device, 210: Computer, 211: 1st processing unit, 212: 2nd processing unit, 213: 3rd processing unit, 214: 4th processing unit, 215 : 5th processing unit, 216: 6th processing unit, 217: 7th processing unit, 218: 8th processing unit, 219: 9th processing unit, 220: imaging unit, 220-1: 1st imaging unit, 220- 2: Second imaging unit, 230: Display unit, 240: Operation unit, 250: Communication unit, 260: Storage unit, 300: Communication network, 301: First object area, 302: Second object area, 303: Third Object area, 304: 4th object area, 400: Subject, 400-1: 1st subject, 400-2: 2nd subject, 401: Parts, 403: Certification mark, 411: Parts data, 411: 1: 1st Parts data, 411-2: 2nd part data, 411-4: 4th part data, 412: Dialogue data, 413: Dialogue data, 414: Shielding data, 415: Interaction data, 416: Parts data, 417: Parts data , 418: Dialogue data, 419: Hair, 420: Object, 450: Object, 460: Finger, 500: Subject, 500-1: First subject, 500-2: Second subject, 510: Object, 520: Certification mark , 530: Finger
Claims (15)
現実空間を撮影した映像の中の第1被写体の一部であるパーツを特定させ、
前記パーツを含む第1オブジェクト領域に、前記パーツに基づくパーツデータを重畳させる情報処理プログラム。 An information processing program executed by a computer of an information terminal device, which is executed by the computer.
Identify the parts that are part of the first subject in the image of the real space,
An information processing program that superimposes part data based on the part on the first object area including the part.
前記パーツデータは、さらに、前記判定に基づく請求項1乃至請求項4のいずれか一項に記載の情報処理プログラム。 The movement of a part of the user's body in the video is determined, and the movement is determined.
The information processing program according to any one of claims 1 to 4, wherein the part data is further based on the determination.
第2オブジェクト領域に、前記物体に基づく映像データを重畳させる請求項1乃至請求項7のいずれか一項に記載の情報処理プログラム。 Let the object in the image be identified
The information processing program according to any one of claims 1 to 7, wherein video data based on the object is superimposed on the second object area.
前記認証マークを含む第3オブジェクト領域に、遮蔽データを重畳させる請求項1乃至請求項9のいずれか一項に記載の情報処理プログラム。 Detecting the certification mark of the first subject,
The information processing program according to any one of claims 1 to 9, wherein the shielding data is superimposed on the third object area including the certification mark.
第4オブジェクト領域に、前記第1被写体と前記第2被写体とのインタラクションを示すインタラクションデータを重畳させる請求項1乃至請求項12のいずれか一項に記載の情報処理プログラム。 Let me identify the second subject
The information processing program according to any one of claims 1 to 12, wherein the interaction data indicating the interaction between the first subject and the second subject is superimposed on the fourth object area.
前記撮像部によって撮影された映像を表示する表示部と、
前記映像の中の第1被写体の一部であるパーツを特定する第2処理部と、
前記パーツを含む第1オブジェクト領域を画定する第3処理部と、
前記第1オブジェクト領域に、前記パーツに基づくパーツデータを重畳する情報処理システム。 An imaging unit that captures real space,
A display unit that displays an image captured by the imaging unit, and a display unit.
A second processing unit that identifies a part that is a part of the first subject in the image, and
A third processing unit that defines the first object area including the parts, and
An information processing system that superimposes part data based on the parts on the first object area.
The information processing system according to claim 14, wherein the first subject is a character.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020066214A JP6935531B1 (en) | 2020-04-01 | 2020-04-01 | Information processing programs and information processing systems |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020066214A JP6935531B1 (en) | 2020-04-01 | 2020-04-01 | Information processing programs and information processing systems |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6935531B1 JP6935531B1 (en) | 2021-09-15 |
JP2021163335A true JP2021163335A (en) | 2021-10-11 |
Family
ID=77657878
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020066214A Active JP6935531B1 (en) | 2020-04-01 | 2020-04-01 | Information processing programs and information processing systems |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6935531B1 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008279165A (en) * | 2007-05-14 | 2008-11-20 | Sony Ericsson Mobilecommunications Japan Inc | Toy system and computer program |
JP2009025918A (en) * | 2007-07-17 | 2009-02-05 | Canon Inc | Image processor and image processing method |
JP2012093913A (en) * | 2010-10-26 | 2012-05-17 | Nippon Hoso Kyokai <Nhk> | Cg character production device and cg character production program |
JP2012203786A (en) * | 2011-03-28 | 2012-10-22 | Tomy Co Ltd | Information processor and information processing program |
JP2013161267A (en) * | 2012-02-06 | 2013-08-19 | Sony Corp | Information processing device, information processing method and program |
JP2014220000A (en) * | 2014-07-16 | 2014-11-20 | 株式会社バンダイ | Portable terminal, terminal program and toy |
JP2017524999A (en) * | 2014-05-13 | 2017-08-31 | ナント・ホールデイングス・アイ・ピー・エル・エル・シー | System and method for rendering augmented reality content with an albedo model |
KR20190089540A (en) * | 2018-01-23 | 2019-07-31 | 이영경 | Device and method for keeping an animal of using a doll |
-
2020
- 2020-04-01 JP JP2020066214A patent/JP6935531B1/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008279165A (en) * | 2007-05-14 | 2008-11-20 | Sony Ericsson Mobilecommunications Japan Inc | Toy system and computer program |
JP2009025918A (en) * | 2007-07-17 | 2009-02-05 | Canon Inc | Image processor and image processing method |
JP2012093913A (en) * | 2010-10-26 | 2012-05-17 | Nippon Hoso Kyokai <Nhk> | Cg character production device and cg character production program |
JP2012203786A (en) * | 2011-03-28 | 2012-10-22 | Tomy Co Ltd | Information processor and information processing program |
JP2013161267A (en) * | 2012-02-06 | 2013-08-19 | Sony Corp | Information processing device, information processing method and program |
JP2017524999A (en) * | 2014-05-13 | 2017-08-31 | ナント・ホールデイングス・アイ・ピー・エル・エル・シー | System and method for rendering augmented reality content with an albedo model |
JP2014220000A (en) * | 2014-07-16 | 2014-11-20 | 株式会社バンダイ | Portable terminal, terminal program and toy |
KR20190089540A (en) * | 2018-01-23 | 2019-07-31 | 이영경 | Device and method for keeping an animal of using a doll |
Also Published As
Publication number | Publication date |
---|---|
JP6935531B1 (en) | 2021-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108886532B (en) | Apparatus and method for operating personal agent | |
US11348300B2 (en) | Avatar customization for optimal gaze discrimination | |
US11736756B2 (en) | Producing realistic body movement using body images | |
US9479736B1 (en) | Rendered audiovisual communication | |
KR101907136B1 (en) | System and method for avatar service through cable and wireless web | |
KR101306221B1 (en) | Method and apparatus for providing moving picture using 3d user avatar | |
US20190197755A1 (en) | Producing realistic talking Face with Expression using Images text and voice | |
KR101951761B1 (en) | System and method for providing avatar in service provided in mobile environment | |
US20160134840A1 (en) | Avatar-Mediated Telepresence Systems with Enhanced Filtering | |
KR102148151B1 (en) | Intelligent chat based on digital communication network | |
US20110304629A1 (en) | Real-time animation of facial expressions | |
CN114787759B (en) | Communication support method, communication support system, terminal device, and storage medium | |
US20230130535A1 (en) | User Representations in Artificial Reality | |
JP7278307B2 (en) | Computer program, server device, terminal device and display method | |
US20190302880A1 (en) | Device for influencing virtual objects of augmented reality | |
JP7431903B2 (en) | Photography system, photography method, photography program, and stuffed animal | |
JP6935531B1 (en) | Information processing programs and information processing systems | |
JP7450692B1 (en) | Program, method, information processing device, system | |
US10489952B2 (en) | Cosmetic transformation through image synthesis | |
Huang | Development of Human-Computer Interaction for Holographic AIs | |
Saadatian et al. | Design and development of playful robotic interfaces for affective telepresence | |
CN117437335A (en) | Transfer of expression to stylized avatar | |
CN116977030A (en) | Artificial intelligence-based virtual reality human body model generation and interaction method | |
CN118736078A (en) | Rendering of faces of guest users by external display |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200401 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200401 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200624 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200630 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210105 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210601 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210817 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210825 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6935531 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |