JP2019179502A - System, method, and program for creating moving image - Google Patents

System, method, and program for creating moving image Download PDF

Info

Publication number
JP2019179502A
JP2019179502A JP2018069839A JP2018069839A JP2019179502A JP 2019179502 A JP2019179502 A JP 2019179502A JP 2018069839 A JP2018069839 A JP 2018069839A JP 2018069839 A JP2018069839 A JP 2018069839A JP 2019179502 A JP2019179502 A JP 2019179502A
Authority
JP
Japan
Prior art keywords
avatar
user
moving image
predetermined
creating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018069839A
Other languages
Japanese (ja)
Inventor
康伸 佐々木
Yasunobu Sasaki
康伸 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DeNA Co Ltd
Original Assignee
DeNA Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DeNA Co Ltd filed Critical DeNA Co Ltd
Priority to JP2018069839A priority Critical patent/JP2019179502A/en
Publication of JP2019179502A publication Critical patent/JP2019179502A/en
Priority to JP2022129489A priority patent/JP2022171661A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)

Abstract

To provide a system, a method, and a program for supporting creation of a moving image including an avatar of a user.SOLUTION: A moving image creation device 10 has a function for creating a moving image including an avatar of a user. The device 10 creates the moving image including the avatar of the user, and an operation of the avatar is controlled based on an arrangement of predetermined parts of a body of the user in an image input via a camera 131. Therefore, the user can easily create, for example, by moving the body in front of the camera 131, the moving image including the avatar that operates in accordance with a movement of the body.SELECTED DRAWING: Figure 1

Description

本発明は、ユーザのアバターが含まれる動画を作成するためのシステム、方法、及びプログラムに関する。   The present invention relates to a system, a method, and a program for creating a moving image including a user's avatar.

従来、ユーザが動画の配信を行うためのシステムが提供されており、こうしたシステムを介して配信される動画には、ユーザ自身が被写体として出演する動画(自撮り動画)が含まれる(例えば、特許文献1を参照)。例えば、ユーザは、スマートフォン及びパソコン等が有するカメラ及びマイクを介してユーザ自身が含まれる動画を撮影し、当該動画を複数の視聴者に対して配信することができる。   2. Description of the Related Art Conventionally, a system for distributing a moving image by a user has been provided, and a moving image distributed through such a system includes a moving image (self-shooting moving image) in which the user himself / herself appears as a subject (for example, a patent) Reference 1). For example, the user can shoot a moving image including the user himself / herself through a camera and a microphone included in a smartphone, a personal computer, and the like, and can distribute the moving image to a plurality of viewers.

特開2017−121036号公報JP 2017-121036 A

しかしながら、不特定多数の視聴者に対して素顔を公開することに抵抗を感じるユーザも存在し得る。そして、こうしたユーザは、例えば音声のみを配信することになるが、音声のみのコンテンツは面白味に欠ける場合がある。そこで、例えば、ユーザ自身に代えて、ユーザのアバターが登場する動画を手軽に作成することができると有用であると考えられる。   However, there may be a user who is reluctant to open his face to an unspecified number of viewers. And such a user delivers only audio | voice, for example, but the content only of audio | voice may lack interest. Therefore, for example, instead of the user himself / herself, it is considered useful to be able to easily create a video in which the user's avatar appears.

本発明の実施形態は、ユーザのアバターが含まれる動画の作成を支援することを目的の一つとする。本発明の実施形態の他の目的は、本明細書全体を参照することにより明らかとなる。   An embodiment of the present invention has an object of supporting creation of a moving image including a user's avatar. Other objects of the embodiments of the present invention will become apparent by referring to the entire specification.

本発明の一実施形態に係るシステムは、1又は複数のコンピュータプロセッサを備え、動画を作成するためのシステムであって、前記1又は複数のコンピュータプロセッサは、読取可能な命令の実行に応じて、カメラを介して入力される画像に含まれるユーザの身体の1又は複数の所定の部位を認識する処理と、認識した前記所定の部位の前記入力される画像における配置に少なくとも基づいてアバターの動作を制御する処理と、前記アバターが含まれる動画を作成する処理と、を実行する。   A system according to an embodiment of the present invention includes one or more computer processors, and is a system for creating a moving image, wherein the one or more computer processors are configured to execute a readable instruction, A process of recognizing one or a plurality of predetermined parts of the user's body included in an image input via the camera, and an avatar action based on at least the arrangement of the recognized predetermined part in the input image A process of controlling and a process of creating a moving image including the avatar are executed.

本発明の一実施形態に係る方法は、1又は複数のコンピュータによって実行され、動画を作成するための方法であって、カメラを介して入力される画像に含まれるユーザの身体の1又は複数の所定の部位を認識するステップと、認識した前記所定の部位の前記入力される画像における配置に少なくとも基づいてアバターの動作を制御するステップと、前記アバターが含まれる動画を作成するステップと、を備える。   A method according to an embodiment of the present invention is a method for creating a moving image that is executed by one or more computers, and includes one or more of a user's body included in an image input via a camera. Recognizing a predetermined part, controlling the operation of the avatar based on at least the arrangement of the recognized predetermined part in the inputted image, and creating a moving image including the avatar. .

本発明の一実施形態に係るプログラムは、動画を作成するためのプログラムであって、1又は複数のコンピュータ上での実行に応じて、前記1又は複数のコンピュータに、カメラを介して入力される画像に含まれるユーザの身体の1又は複数の所定の部位を認識する処理と、認識した前記所定の部位の前記入力される画像における配置に少なくとも基づいてアバターの動作を制御する処理と、前記アバターが含まれる動画を作成する処理と、を実行させる。   A program according to an embodiment of the present invention is a program for creating a moving image, and is input to the one or more computers via a camera in accordance with execution on the one or more computers. A process for recognizing one or more predetermined parts of the user's body included in the image, a process for controlling the movement of the avatar based on at least the arrangement of the recognized predetermined part in the inputted image, and the avatar And a process of creating a moving image including.

本発明の様々な実施形態は、ユーザのアバターが含まれる動画の作成を支援する。   Various embodiments of the present invention assist in creating a video that includes a user's avatar.

本発明の一実施形態に係る動画作成装置10の構成を概略的に示す構成図。1 is a configuration diagram schematically showing a configuration of a moving image creating apparatus 10 according to an embodiment of the present invention. 動画作成装置10の機能を概略的に示すブロック図。FIG. 2 is a block diagram schematically showing functions of the moving image creating apparatus 10. 動画作成装置10が実行する処理を例示するフロー図。The flowchart which illustrates the process which the moving image production apparatus 10 performs. ユーザの顔及び両手を含む入力画像50を模式的に例示する図。The figure which illustrates typically the input image 50 containing a user's face and both hands. 入力画像50に含まれるユーザの顔及び両手が認識される様子を説明するための図。The figure for demonstrating a mode that the user's face and both hands which are contained in the input image 50 are recognized. 作成される動画60を例示する図。The figure which illustrates the animation 60 created. 入力画像50を例示する図。The figure which illustrates the input image 50. 動画60を例示する図。The figure which illustrates animation 60. アバター62が拡大表示されている状態の動画60を例示する図。The figure which illustrates animation 60 of the state where avatar 62 is expanded and displayed. ライブ配信の動画70を例示する図。The figure which illustrates animation 70 of live distribution.

以下、図面を参照しながら、本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る動画作成装置10の構成を概略的に示す構成図である。動画作成装置10は、ユーザのアバターが含まれる動画を作成するための機能を有し、本発明のシステムの一部又は全部を実装する装置の一例である。   FIG. 1 is a block diagram schematically showing the configuration of a moving image creating apparatus 10 according to an embodiment of the present invention. The moving image creating apparatus 10 has an function of creating a moving image including a user's avatar, and is an example of an apparatus that implements part or all of the system of the present invention.

動画作成装置10は、一般的なコンピュータとして構成されており、図1に示すように、CPU等のコンピュータプロセッサ11と、メインメモリ12と、ユーザI/F13と、通信I/F14と、ストレージ(記憶装置)15とを備え、これらの各構成要素が図示しないバス等を介して電気的に接続されている。   The moving image creating apparatus 10 is configured as a general computer. As shown in FIG. 1, a computer processor 11 such as a CPU, a main memory 12, a user I / F 13, a communication I / F 14, a storage ( A storage device) 15, and these components are electrically connected via a bus or the like (not shown).

コンピュータプロセッサ11は、ストレージ15等に記憶されている様々なプログラムをメインメモリ12に読み込んで、当該プログラムに含まれる各種の命令を実行する。メインメモリ12は、例えば、DRAM等によって構成される。   The computer processor 11 reads various programs stored in the storage 15 or the like into the main memory 12 and executes various instructions included in the programs. The main memory 12 is configured by, for example, a DRAM.

ユーザI/F13は、ユーザとの間で情報をやり取りするための各種の入出力装置を含む。ユーザI/F13は、例えば、キーボード、ポインティングデバイス(例えば、マウス、タッチパネル等)等の情報入力装置、マイクロフォン等の音声入力装置を含む。また、ユーザI/F13は、ディスプレイ等の画像出力装置、スピーカ等の音声出力装置を含む。本実施形態において、ユーザI/F13は、カメラ131等の画像入力装置(撮影装置)を含む。カメラ131は、例えば、ディスプレイ等の画像出力装置を見るユーザを視野に含むインカメラとして構成される。   The user I / F 13 includes various input / output devices for exchanging information with the user. The user I / F 13 includes, for example, an information input device such as a keyboard and a pointing device (for example, a mouse and a touch panel) and a voice input device such as a microphone. The user I / F 13 includes an image output device such as a display and an audio output device such as a speaker. In the present embodiment, the user I / F 13 includes an image input device (imaging device) such as a camera 131. For example, the camera 131 is configured as an in-camera including a user who views an image output device such as a display in the field of view.

通信I/F14は、ネットワークアダプタ等のハードウェア、各種の通信用ソフトウェア、及びこれらの組み合わせとして実装され、有線又は無線の通信を実現できるように構成されている。   The communication I / F 14 is implemented as hardware such as a network adapter, various types of communication software, and combinations thereof, and is configured to realize wired or wireless communication.

ストレージ15は、例えば磁気ディスク、フラッシュメモリ等によって構成される。ストレージ15は、オペレーティングシステムを含む様々なプログラム、及び各種データ等を記憶する。ストレージ15が記憶するプログラムには、アバターが含まれる動画を作成するための機能を実現するためのアプリケーションプログラム(以下、「動画作成用アプリ」と言うことがある。)が含まれ得る。   The storage 15 is configured by, for example, a magnetic disk, a flash memory, or the like. The storage 15 stores various programs including an operating system, various data, and the like. The program stored in the storage 15 may include an application program for realizing a function for creating a moving image including an avatar (hereinafter, referred to as “moving image creating application”).

本実施形態において、動画作成装置10は、スマートフォン、タブレット端末、パーソナルコンピュータ、及びウェアラブルデバイス等として構成され得る。   In the present embodiment, the moving image creation apparatus 10 can be configured as a smartphone, a tablet terminal, a personal computer, a wearable device, or the like.

次に、本実施形態の動画作成装置10が有する機能について説明する。図2は、動画作成装置10が有する機能を概略的に示すブロック図である。動画作成装置10は、図示するように、様々な情報を記憶及び管理する情報記憶管理部41と、カメラ131を介して入力される画像を解析する画像解析部43と、ユーザのアバターを含む動画を作成する動画作成部45とを有する。これらの機能は、コンピュータプロセッサ11及びメインメモリ12等のハードウェア、並びに、ストレージ15等に記憶されている各種プログラムやデータ等が協働して動作することによって実現され、例えば、メインメモリ12に読み込まれたプログラムに含まれる命令をコンピュータプロセッサ11が実行することによって実現される。   Next, functions of the moving image creating apparatus 10 according to the present embodiment will be described. FIG. 2 is a block diagram schematically showing functions of the moving image creating apparatus 10. As shown in the figure, the moving image creating apparatus 10 includes an information storage management unit 41 that stores and manages various information, an image analysis unit 43 that analyzes an image input via the camera 131, and a moving image including a user's avatar. And a moving image creation unit 45 for creating These functions are realized by the cooperation of hardware such as the computer processor 11 and the main memory 12 and various programs and data stored in the storage 15, for example, in the main memory 12. This is realized by the computer processor 11 executing instructions included in the read program.

情報記憶管理部41は、ストレージ15等において様々な情報を記憶及び管理する。画像解析部43は、画像の解析に関する様々な処理を実行する。本実施形態において、画像解析部43は、カメラ131を介して入力される画像に含まれるユーザの身体の所定の部位を認識するように構成されている。例えば、画像解析部43は、カメラ131を介して入力される画像を、機械学習を介して生成された学習済みモデルに入力し、当該学習済みモデルから出力される情報に基づいて所定の部位を認識するように構成される。   The information storage management unit 41 stores and manages various information in the storage 15 and the like. The image analysis unit 43 executes various processes related to image analysis. In the present embodiment, the image analysis unit 43 is configured to recognize a predetermined part of the user's body included in an image input via the camera 131. For example, the image analysis unit 43 inputs an image input via the camera 131 to a learned model generated via machine learning, and selects a predetermined part based on information output from the learned model. Configured to recognize.

動画作成部45は、ユーザのアバターを含む動画の作成に関する様々な処理を実行する。本実施形態において、動画作成部45は、画像解析部43によって認識される上記所定の部位の配置(入力される画像における位置、及び/又は、大きさ等)に少なくとも基づいてアバターの動作を制御するように構成されている。作成された動画は、例えば、ストレージ15に格納され、又は、インターネット等の通信ネットワークを介して通信可能に接続されたサーバ等に送信される。   The moving image creating unit 45 executes various processes related to creating a moving image including the user's avatar. In the present embodiment, the moving image creation unit 45 controls the operation of the avatar based at least on the arrangement of the predetermined part recognized by the image analysis unit 43 (position and / or size in the input image). Is configured to do. The created moving image is stored in, for example, the storage 15 or transmitted to a server or the like that is communicably connected via a communication network such as the Internet.

このように、本実施形態の動画作成装置10は、アバターが含まれる動画を作成し、当該アバターは、カメラ131を介して入力される画像におけるユーザの身体の所定の部位の配置に基づいてその動作が制御されるから、ユーザは、カメラ131の前において身体を動かすことにより、当該身体の動き(所定の部位の配置の変化)に伴って動作するアバターが含まれる動画を容易に作成することができる。このように、本実施形態の動画作成装置10は、ユーザのアバターが含まれる動画の作成を支援する。   As described above, the moving image creating apparatus 10 according to the present embodiment creates a moving image including an avatar, and the avatar is based on the arrangement of a predetermined part of the user's body in an image input via the camera 131. Since the movement is controlled, the user can easily create a moving image including an avatar that moves in accordance with the movement of the body (change in the arrangement of a predetermined part) by moving the body in front of the camera 131. Can do. Thus, the moving image creating apparatus 10 of the present embodiment supports the creation of a moving image including the user's avatar.

本実施形態において、動画作成部45は、作成した動画をリアルタイムに配信するように構成され得る。例えば、動画作成装置10は、複数の視聴者に対して動画をリアルタイムに配信する(ライブ配信を行う)ための動画配信サーバと通信ネットワークを介して通信可能に接続されており、動画作成部45は、作成した動画を、当該動画配信サーバに対してリアルタイムに(例えば、ストリーミング形式で)送信するように構成される。こうした構成は、ユーザのアバターが含まれる動画のライブ配信を容易に実現することを可能とする。   In the present embodiment, the moving image creation unit 45 can be configured to deliver the created moving image in real time. For example, the moving image creating apparatus 10 is connected to a moving image distribution server for distributing a moving image to a plurality of viewers in real time (performing live distribution) via a communication network. Is configured to transmit the created moving image to the moving image distribution server in real time (for example, in a streaming format). Such a configuration makes it possible to easily realize live distribution of a moving image including the user's avatar.

本実施形態において、画像解析部43が認識する所定の部位(言い換えると、アバターの動作の制御に用いられる身体の部位)は、ユーザの身体の1又は複数の任意の部位が含まれ得る。例えば、画像解析部43は、当該所定の部位として、ユーザの顔、及び、両手を認識するように構成され得る。こうした構成は、ユーザの顔、及び、両手の動きに伴ってアバターを動作させることを可能とする。   In the present embodiment, the predetermined part recognized by the image analysis unit 43 (in other words, the part of the body used for controlling the movement of the avatar) may include one or more arbitrary parts of the user's body. For example, the image analysis unit 43 may be configured to recognize the user's face and both hands as the predetermined part. Such a configuration makes it possible to operate the avatar according to the movement of the user's face and both hands.

また、動画作成部45は、認識した所定の部位の少なくとも一部の動きに基づいて特定される所定のコマンドを実行するように構成され得る。所定のコマンドは、例えば、アバターを制御するためのコマンド(例えば、アバターの表情、又は、設定アイテム等を変化させるためのコマンド等)、及び、動画の作成を制御するためのコマンド(例えば、動画の作成の一時停止のためのコマンド等)等を含む。例えば、動画作成部45は、カメラ131を介して入力される画像における所定の部位の動きを監視し、所定のコマンドに対応する動きとして予め定められている所定の部位の動きを検出したときに、対応するコマンドを実行するように構成される。こうした構成は、ユーザの身体の動きによるコマンドの入力を可能とする。   In addition, the moving image creating unit 45 may be configured to execute a predetermined command specified based on at least a part of movement of the recognized predetermined part. The predetermined command is, for example, a command for controlling an avatar (for example, a command for changing an avatar's facial expression or a setting item), and a command for controlling creation of a moving image (for example, a moving image). Command etc. for temporary suspension of the creation of For example, when the moving image creation unit 45 monitors the movement of a predetermined part in an image input via the camera 131 and detects the movement of a predetermined part that is predetermined as a movement corresponding to a predetermined command. , Configured to execute the corresponding command. Such a configuration makes it possible to input a command based on the movement of the user's body.

また、上記所定のコマンドは、所定の部位の配置に基づくアバターの動作の制御を停止させるためのコマンドを含む。例えば、動画作成部45は、当該コマンドに対応する所定の部位の動きを検出した場合に、入力される画像における所定の部位の配置にかかわらず、アバターの動作を制御する(アバターを静止させることを含む。)ように構成される。こうした構成は、アバターの動作に反映されない状態でユーザが身体を動かす(ユーザの動きとアバターの動作との連動を中止する)ことを可能とする。   The predetermined command includes a command for stopping the control of the avatar's operation based on the arrangement of the predetermined part. For example, when the moving image creation unit 45 detects the movement of a predetermined part corresponding to the command, the moving picture creation unit 45 controls the operation of the avatar regardless of the arrangement of the predetermined part in the input image (to make the avatar still. Is configured.) Such a configuration enables the user to move his / her body in a state that is not reflected in the avatar's motion (stopping the linkage between the user's motion and the avatar's motion).

本実施形態において、画像解析部43は、ユーザの身体の所定の部位に設けられた所定の外観(色、模様、及び/又は、形状等)を有するマーカー(目印)を検出することによって当該所定の部位を認識するように構成され得る。こうした構成は、所定の部位の認識精度を向上させ、及び、当該認識に係る処理負担を軽減させ得る。   In the present embodiment, the image analysis unit 43 detects the predetermined marker (mark) having a predetermined appearance (color, pattern, and / or shape) provided in a predetermined part of the user's body. It may be configured to recognize the site. Such a configuration can improve the recognition accuracy of a predetermined part and reduce the processing load related to the recognition.

この場合、所定の部位は、手を含み、画像解析部43は、ユーザの手の甲側に設けられた第1の外観を有するマーカー及びユーザの手の平側に設けられた第2の外観を有するマーカーをそれぞれ検出することによってユーザの手の向きを認識し、動画作成部45は、画像解析部43によって認識されたユーザの手の向きに少なくとも基づいてアバターの動作を制御するように構成され得る。こうした構成は、ユーザの手の向きに基づくアバターの動作の制御を可能とする。   In this case, the predetermined part includes a hand, and the image analysis unit 43 includes a marker having a first appearance provided on the back side of the user's hand and a marker having a second appearance provided on the palm side of the user's hand. The direction of the user's hand is recognized by detecting each, and the moving image creation unit 45 may be configured to control the operation of the avatar based at least on the direction of the user's hand recognized by the image analysis unit 43. Such a configuration makes it possible to control the movement of the avatar based on the orientation of the user's hand.

また、動画作成部45は、入力される画像における所定の部位の動きを追随するようにアバターの動作を制御するように構成され得る。こうした構成は、ユーザの身体の動きに追随して動作するアバターを含む動画の作成を可能とする。   In addition, the moving image creating unit 45 can be configured to control the operation of the avatar so as to follow the movement of a predetermined part in the input image. Such a configuration enables creation of a moving image including an avatar that moves following the movement of the user's body.

次に、このような機能を有する本実施形態の動画作成装置10の具体例について説明する。この例の動画作成装置10は、スマートフォン、タブレット端末、又は、パーソナルコンピュータ等として構成されており、動画作成用アプリがインストールされている。   Next, a specific example of the moving image creating apparatus 10 of the present embodiment having such a function will be described. The moving image creating apparatus 10 in this example is configured as a smartphone, a tablet terminal, a personal computer, or the like, and a moving image creating application is installed therein.

図3は、この例において、アバターを含む動画を作成する際に、動画作成装置10が実行する処理を例示するフロー図である。例えば、ユーザが、動画作成装置10において表示される画面を介して動画の作成開始を指示したときに、図3に例示される処理が実行される。   FIG. 3 is a flowchart illustrating processing executed by the moving image creating apparatus 10 when creating a moving image including an avatar in this example. For example, when the user gives an instruction to start creating a moving image via a screen displayed on the moving image creating apparatus 10, the process illustrated in FIG. 3 is executed.

動画作成装置10は、まず、図3に示すように、カメラ131を介して入力される入力画像に含まれるユーザの顔及び両手を認識する(ステップS100)。この例では、カメラ131は、インカメラとして構成されており、カメラ131は、装置10において表示される画面を見るユーザを視野に含む。ユーザは、装置10において表示される、作成される動画を見ながら、アバターを動作させるためにカメラ131の前で身体を動かす。   First, as shown in FIG. 3, the moving image creating apparatus 10 recognizes the user's face and both hands included in the input image input via the camera 131 (step S100). In this example, the camera 131 is configured as an in-camera, and the camera 131 includes a user who views the screen displayed on the apparatus 10 in the field of view. The user moves the body in front of the camera 131 to operate the avatar while watching the created animation displayed on the device 10.

図4は、カメラ131を介して入力される入力画像50を模式的に例示する。図示するように、この例では、ユーザの右手RHの手の平には、第1の色(例えば、赤色)の円形のマーカーMK1が設けられており、ユーザの左手LHの手の平には、第2の色(例えば、黄色)の円形のマーカーMK2が設けられている。これらのマーカーMK1、2は、例えば、手の平に貼り付けるステッカーとして構成され、当該ステッカーは、例えば、動画作成用アプリの提供事業者等によってユーザに提供される。また、マーカーMK1、2は、例えば、手の平にインク等で直接描かれる。この場合、例えば、動画作成用アプリの提供事業者等が配布するインストラクションに従って、ユーザが、両手の手の平にマーカーMK1、2をそれぞれ描く。   FIG. 4 schematically illustrates an input image 50 input via the camera 131. As shown in the figure, in this example, a circular marker MK1 of the first color (for example, red) is provided on the palm of the user's right hand RH, and a second marker is provided on the palm of the user's left hand LH. A circular marker MK2 of color (for example, yellow) is provided. These markers MK1 and MK2, for example, are configured as stickers to be attached to the palm of the hand, and the stickers are provided to the user by, for example, a provider of a moving image creating application. The markers MK1 and MK2 are directly drawn with ink or the like on the palm of the hand, for example. In this case, for example, the user draws the markers MK1 and MK2 on the palms of both hands according to instructions distributed by the provider of the moving image creation application.

図5は、図4に例示した入力画像50に含まれるユーザの顔及び両手が認識される様子を説明するための図である。図示するように、この例では、ユーザの顔FCは、当該顔FCの輪郭を囲う矩形の検出領域DA1として検出及び認識される。また、ユーザの両手RH、LHは、当該両手RH、LHの各々の手の平に設けられているマーカーMK1、2の輪郭を囲う矩形の検出領域DA2、DA3としてそれぞれ検出及び認識される。こうした顔FC、及び、両手RH、LH(マーカーMK1、2)の認識(及び、その後の追跡)は、公知の物体追跡技術を用いて実現され、例えば、機械学習を介して生成された学習済みモデルを用いて実現される。   FIG. 5 is a diagram for explaining how the user's face and both hands included in the input image 50 illustrated in FIG. 4 are recognized. As shown in the figure, in this example, the user's face FC is detected and recognized as a rectangular detection area DA1 surrounding the outline of the face FC. In addition, the user's hands RH and LH are detected and recognized as rectangular detection areas DA2 and DA3 surrounding the contours of the markers MK1 and MK2 provided on the palms of the hands RH and LH, respectively. Such recognition of face FC and both hands RH, LH (markers MK1, 2) (and subsequent tracking) is realized using a well-known object tracking technique, for example, a learned learning generated through machine learning. Realized using a model.

図3のフロー図に戻り、入力画像に含まれるユーザの顔及び両手を認識すると、動画作成装置10は、次に、コマンド入力の有無を判定する(ステップS110)。コマンド入力の有無は、入力画像に含まれるユーザの手の動きに基づいて判定される。コマンド入力の有無の判定の詳細については後述する。   Returning to the flowchart of FIG. 3, when the user's face and both hands included in the input image are recognized, the moving image creating apparatus 10 next determines whether or not a command is input (step S110). The presence / absence of command input is determined based on the movement of the user's hand included in the input image. Details of the determination of presence / absence of command input will be described later.

そして、コマンド入力が無い場合(ステップS110においてNO)、動画作成装置10は、ユーザの顔及び両手の配置に基づいてアバターの動作を制御する(ステップS120)。こうした入力画像におけるユーザの顔及び両手の配置に基づくアバターの動作の制御は、動画の作成が終了するまでの間、繰り返される(ステップS140においてNO)。言い換えると、動画を作成(記録、録画)する期間において、動画作成装置10は、カメラ131を介して入力される画像において認識及び追跡されるユーザの顔及び両手の配置の変化に従って、動画に含まれるアバターを動作させる。   Then, when there is no command input (NO in step S110), the moving image creating apparatus 10 controls the operation of the avatar based on the user's face and the arrangement of both hands (step S120). The control of the avatar movement based on the user's face and the arrangement of both hands in the input image is repeated until the creation of the moving image ends (NO in step S140). In other words, during the period of creating (recording and recording) a moving image, the moving image creating apparatus 10 includes the moving image according to the change in the arrangement of the user's face and both hands recognized and tracked in the image input via the camera 131. Operate the avatar.

図6は、作成される動画60(の1シーン)を例示する。動画60は、三次元の仮想空間を、特定の視野で(特定の位置の仮想カメラを介して)見た画像として構成され、当該仮想空間は、人型のアバター62、及び、当該アバター62の手前に位置する机オブジェクト64を含む。この例では、カメラ131を介して入力される入力画像50におけるユーザの顔FCの位置に対する両手RH、LHの相対的な位置(現実のユーザの顔と両手との間の位置関係)を再現するように、アバター62の動作が制御される。例えば、図7に例示するように、現実のユーザが「万歳」の姿勢をとって、入力画像50におけるユーザの両手RH、LH(マーカーMK1、2)がユーザの顔FCの斜め上方に移動した場合、図8に例示するように、動画60におけるアバター62もまた、ユーザと同様に「万歳」の姿勢をとる(両手を顔の斜め上方に移動させる)。   FIG. 6 illustrates a moving image 60 (one scene) to be created. The moving image 60 is configured as an image obtained by viewing a three-dimensional virtual space with a specific field of view (via a virtual camera at a specific position). The virtual space includes the humanoid avatar 62 and the avatar 62. It includes a desk object 64 positioned in front. In this example, the relative positions of both hands RH and LH (the positional relationship between the actual user's face and both hands) with respect to the position of the user's face FC in the input image 50 input via the camera 131 are reproduced. As described above, the operation of the avatar 62 is controlled. For example, as illustrated in FIG. 7, the actual user takes a “many years” posture, and the user's hands RH and LH (markers MK 1 and 2) in the input image 50 move obliquely above the user's face FC. In this case, as illustrated in FIG. 8, the avatar 62 in the moving image 60 also takes a “many” posture (moves both hands diagonally above the face) in the same manner as the user.

また、この例では、入力画像50におけるユーザの顔FCの大きさの変化に応じてアバター62が拡大又は縮小する。言い換えると、現実のユーザとカメラ131との間の距離の変化に従って、仮想空間におけるアバター62と仮想カメラとの間の距離が変化する。   In this example, the avatar 62 is enlarged or reduced according to the change in the size of the user's face FC in the input image 50. In other words, according to the change in the distance between the real user and the camera 131, the distance between the avatar 62 and the virtual camera in the virtual space changes.

例えば、現実のユーザがカメラ131に近づいて入力画像50における顔FCのサイズが大きくなると、仮想空間における仮想カメラがアバター62に近づいて、当該アバター62が拡大表示される。図9は、図6、8の状態と比較して、仮想カメラがアバター62に近づくことにより当該アバター62が拡大表示されている状態の動画60を例示する。仮想カメラがアバター62に近づいた結果、当該仮想カメラの視野から机オブジェクト64が外れて表示されなくなっている。また、図示するように、この例では、アバター62の拡大率が所定値以上となると(アバター62と仮想カメラとの間の距離が所定値以下となると)、当該アバター62の表情が変化するようになっている。   For example, when a real user approaches the camera 131 and the size of the face FC in the input image 50 increases, the virtual camera in the virtual space approaches the avatar 62 and the avatar 62 is enlarged and displayed. FIG. 9 illustrates the moving image 60 in a state where the avatar 62 is enlarged and displayed as the virtual camera approaches the avatar 62 as compared with the states of FIGS. As a result of the virtual camera approaching the avatar 62, the desk object 64 is removed from the field of view of the virtual camera and is no longer displayed. Further, as shown in the figure, in this example, when the enlargement ratio of the avatar 62 is equal to or greater than a predetermined value (when the distance between the avatar 62 and the virtual camera is equal to or smaller than the predetermined value), the facial expression of the avatar 62 changes. It has become.

このように、この例において、ユーザは、カメラ131の前で身体を動かすことにより、当該身体の動きに追随して動作するアバター62が含まれる動画を容易に作成することができる。   In this way, in this example, the user can easily create a moving image including the avatar 62 that moves following the movement of the body by moving the body in front of the camera 131.

ここで、ステップS110におけるコマンド入力の有無の判定について説明する。この例では、所定のコマンドに対応するユーザの手の動きが予め設定されている。例えば、入力画像50において右手RHのマーカーMK1が認識されない状態が所定時間(例えば、5秒)継続するという右手の動きが、アバター62の表情を切り替えるための表情切替コマンドに対応する動きとして設定されている。例えば、装置10は、マーカーMK1が認識されない状態を検出すると、その継続時間をカウントし、当該継続時間が所定時間に到達した場合に、ステップS110において表情切替コマンドの入力有りと判定し(ステップS110においてYES)、当該コマンドを実行する(ステップS130)。ユーザは、例えば、右手を握る状態を所定時間継続することによって、アバター62の表情を切り替えることができる。アバター62の表情の切り替えは、例えば、複数の表情に対して予め定められている順序に従って行われる。   Here, the determination of presence / absence of command input in step S110 will be described. In this example, the movement of the user's hand corresponding to a predetermined command is preset. For example, the movement of the right hand that the state in which the marker MK1 of the right hand RH is not recognized in the input image 50 continues for a predetermined time (for example, 5 seconds) is set as the movement corresponding to the expression switching command for switching the expression of the avatar 62. ing. For example, when detecting a state in which the marker MK1 is not recognized, the apparatus 10 counts the duration, and when the duration has reached a predetermined time, determines in step S110 that a facial expression switching command has been input (step S110). In step S130, the command is executed. The user can switch the facial expression of the avatar 62 by, for example, continuing the state of holding the right hand for a predetermined time. The switching of the facial expression of the avatar 62 is performed according to a predetermined order for a plurality of facial expressions, for example.

また、例えば、入力画像50における左手LHのマーカーMK2が左右方向に所定回数(例えば、3回)往復するという左手の動きが、入力画像50における顔及び両手の配置に基づくアバター62の動作の制御を停止するための制御停止コマンドに対応する動きとして設定されている。例えば、装置10は、マーカーMK2が左右方向に所定回数往復する動きを検出した場合に、ステップS110において当該制御停止コマンドの入力有りと判定し(ステップS110においてYES)、当該コマンドを実行する(ステップS130)。ユーザは、制御停止コマンドの実行によって実現される、入力画像50に基づくアバター62の動作の制御が停止されている期間を利用して、アバター62の動作に反映させることが好ましくない様々な作業等を行いながら動画の作成を継続することができる。なお、入力画像50に基づくアバター62の動作の制御が停止されている期間において、アバター62は、所定の動作を行うように制御され、また、音声の記録は継続される。なお、入力画像50に基づくアバター62の動作の制御が停止されている期間において、動画作成装置10のタッチパネル等の情報入力装置を介したユーザによる入力操作によって、入力画像50に基づくアバター62の動作の制御が再開される。   Further, for example, the movement of the left hand in which the marker MK2 of the left hand LH in the input image 50 reciprocates a predetermined number of times in the left-right direction (for example, three times) controls the movement of the avatar 62 based on the face and both hands arrangement in the input image 50 Is set as a movement corresponding to a control stop command for stopping the operation. For example, when the movement of the marker MK2 reciprocating a predetermined number of times in the left-right direction is detected, the apparatus 10 determines that the control stop command is input in step S110 (YES in step S110), and executes the command (step S130). Various operations that are not preferable to be reflected in the operation of the avatar 62 using the period during which the control of the operation of the avatar 62 based on the input image 50 is stopped, which is realized by the execution of the control stop command. You can continue to create videos while In addition, in the period when the control of the operation of the avatar 62 based on the input image 50 is stopped, the avatar 62 is controlled to perform a predetermined operation, and the sound recording is continued. In addition, in the period when the control of the operation of the avatar 62 based on the input image 50 is stopped, the operation of the avatar 62 based on the input image 50 is performed by an input operation by the user via the information input device such as the touch panel of the moving image creation device 10. Control is resumed.

このように、入力画像50に含まれる顔及び両手の配置に基づくアバター62の動作の制御、及び、当該入力画像50に含まれる手の動きに基づくコマンドの入力及び実行が繰り返され(ステップS140においてNO)、ユーザによって動画の作成終了が指示されると(ステップS140においてYES)、当該動画の作成を終了する。作成された動画は、ストレージ15等に格納される。   As described above, the control of the movement of the avatar 62 based on the face and the arrangement of both hands included in the input image 50 and the input and execution of the command based on the hand movement included in the input image 50 are repeated (in step S140). NO) When the user instructs the end of the creation of the moving image (YES in step S140), the creation of the moving image is terminated. The created moving image is stored in the storage 15 or the like.

上述した例において、右手及び左手の少なくとも一方において、手の甲側に、手の平側のマーカーとは異なる外観を有するマーカーを設け、画像作成装置10が、ユーザの手の向き(カメラ131に対して、ユーザの手の平が向いているか手の甲が向いているか)を認識し、当該ユーザの手の向きが再現されるように、アバター62の動作(手の向き)を制御するようにしても良い。   In the above-described example, at least one of the right hand and the left hand is provided with a marker having an appearance different from the marker on the palm side on the back side of the hand. The user's palm is facing or the back of the hand is facing), and the movement (hand orientation) of the avatar 62 may be controlled so that the orientation of the user's hand is reproduced.

上述した例において、作成される動画をライブ配信するようにしても良い。この場合、例えば、動画作成装置10は、作成される動画をストリーミング形式で動画配信サーバに送信し、当該動画配信サーバが、複数の視聴者のユーザ端末(スマートフォン等)に対してストリーミング形式で動画を配信する。図10は、ライブ配信の動画70を例示する。当該動画70は、三次元の仮想空間200を表示し、当該仮想空間200において、動画を作成及び配信するユーザ(配信者)のアバター62がステージ204上に配置されており、複数の視聴者の各々のアバター208が観客エリア206に配置されている。配信者のアバター62の動作は、上述した入力画像50における配信者の顔及び両手の配置に基づく制御が行われる。なお、仮想空間200において、配信者のアバター62が、当該仮想空間200に配置されている他のオブジェクト(例えば、視聴者のアバター208が投げ入れるアイテム(ギフト)又は入力されるコメント等)を触れるようにしても良い。例えば、視聴者のアバター208によって仮想空間200に配置されたオブジェクトは、配信者のアバター62が触れることによって消える(アバター62によってオブジェクトが画面外に追い出される)。または、仮想空間200に配置されたオブジェクトに配信者のアバター62が触れることによって、当該オブジェクトに所定のエフェクト(形状の変化、及び、発光等)が発生するようにしても良い。更に、当該オブジェクトに対する配信者による入力操作に応じて配信者のアバター62の動作が制御されるようにしても良い。例えば、当該オブジェクトに対する長押しタップ操作によって当該オブジェクトをアバター62が掴み、その後、仮想空間200内の任意の位置のタップ操作によって当該タップ操作の位置にオブジェクトが配置される(アバター62の任意の位置のタップ操作によって当該タップ操作の位置にオブジェクトが装着されることを含む。)ように構成され得る。   In the example described above, the created video may be distributed live. In this case, for example, the video creation device 10 transmits the created video to the video distribution server in a streaming format, and the video distribution server transmits the video in a streaming format to a plurality of viewer user terminals (smartphones or the like). To deliver. FIG. 10 illustrates a moving-distributed moving image 70. The moving image 70 displays a three-dimensional virtual space 200, and in the virtual space 200, an avatar 62 of a user (distributor) who creates and distributes a moving image is arranged on the stage 204, and a plurality of viewers Each avatar 208 is arranged in the audience area 206. The operation of the distributor's avatar 62 is controlled based on the distributor's face and the arrangement of both hands in the input image 50 described above. In the virtual space 200, the distributor's avatar 62 touches another object (for example, an item (gift) thrown by the viewer's avatar 208 or an inputted comment) placed in the virtual space 200. Anyway. For example, an object placed in the virtual space 200 by the viewer's avatar 208 disappears when the distributor's avatar 62 touches the object (the object is driven out of the screen by the avatar 62). Alternatively, when a distributor's avatar 62 touches an object arranged in the virtual space 200, a predetermined effect (a change in shape, light emission, etc.) may be generated on the object. Furthermore, the operation of the distributor's avatar 62 may be controlled in accordance with an input operation by the distributor for the object. For example, the avatar 62 grips the object by a long press tap operation on the object, and then the object is arranged at the position of the tap operation by a tap operation at an arbitrary position in the virtual space 200 (an arbitrary position of the avatar 62). The object is attached to the position of the tap operation by the tap operation.).

上述した例では、ユーザの両手にマーカーMK1、2を設けたが、ユーザの顔についてもマーカーを設けても良い。また、これとは反対に、ユーザの顔と同様に、両手についても、マーカーを設けることなく認識するようにしても良い。さらに、顔及び両手の少なくとも一部に代えて、又は、これらに加えて、ユーザの身体の他の部位を認識し、アバター62の動作の制御に用いるようにしても良い。   In the example described above, the markers MK1 and MK2 are provided on both hands of the user. However, markers may also be provided on the user's face. On the contrary, as with the user's face, both hands may be recognized without providing a marker. Further, instead of or in addition to at least a part of the face and both hands, other parts of the user's body may be recognized and used to control the operation of the avatar 62.

以上説明した本実施形態に係る動画作成装置10は、ユーザのアバターが含まれる動画を作成し、当該アバターは、カメラ131を介して入力される画像におけるユーザの身体の所定の部位(例えば、顔及び両手)の配置に基づいてその動作が制御されるから、ユーザは、カメラ131の前において身体を動かすことにより、当該身体の動きに伴って動作するアバターが含まれる動画を容易に作成することができる。このように、本発明の実施形態は、ユーザのアバターが含まれる動画の作成を支援する。   The moving image creating apparatus 10 according to the present embodiment described above creates a moving image including the user's avatar, and the avatar is a predetermined part (for example, a face) of the user's body in an image input via the camera 131. Since the movement is controlled based on the arrangement of the two hands), the user can easily create a moving image including an avatar that moves according to the movement of the body by moving the body in front of the camera 131. Can do. Thus, the embodiment of the present invention supports creation of a moving image including a user's avatar.

本発明の他の実施形態において、動画作成装置10が有する上述した機能の少なくとも一部は、当該装置10とインターネット等の通信ネットワークを介して通信可能に接続されるサーバ(例えば、上述した動画配信サーバ)と、動画作成装置10とが協働することによって実現される。例えば、動画作成装置10が、カメラ131を介して入力される画像をサーバに送信し、当該サーバ側で、受信した画像の解析、及び、動画の作成(及び配信)が行われるようにしても良い。   In another embodiment of the present invention, at least a part of the above-described functions of the moving image creating apparatus 10 is a server (for example, the above-described moving image distribution) connected to the apparatus 10 via a communication network such as the Internet. The server) and the moving image creating apparatus 10 cooperate. For example, the moving image creating apparatus 10 may transmit an image input via the camera 131 to a server, and the server side may analyze the received image and create (and distribute) the moving image. good.

本明細書で説明された処理及び手順は、明示的に説明されたもの以外にも、ソフトウェア、ハードウェアまたはこれらの任意の組み合わせによって実現される。例えば、本明細書で説明される処理及び手順は、集積回路、揮発性メモリ、不揮発性メモリ、磁気ディスク等の媒体に、当該処理及び手順に相当するロジックを実装することによって実現される。また、本明細書で説明された処理及び手順は、当該処理・手順に相当するコンピュータプログラムとして実装し、各種のコンピュータに実行させることが可能である。   The processes and procedures described in the present specification are implemented by software, hardware, or any combination thereof other than those explicitly described. For example, the processes and procedures described in this specification are realized by mounting logic corresponding to the processes and procedures on a medium such as an integrated circuit, a volatile memory, a nonvolatile memory, and a magnetic disk. The processing and procedure described in this specification can be implemented as a computer program corresponding to the processing / procedure and executed by various computers.

本明細書中で説明された処理及び手順が単一の装置、ソフトウェア、コンポーネント、モジュールによって実行される旨が説明されたとしても、そのような処理または手順は複数の装置、複数のソフトウェア、複数のコンポーネント、及び/又は複数のモジュールによって実行され得る。また、本明細書において説明されたソフトウェアおよびハードウェアの要素は、それらをより少ない構成要素に統合して、またはより多い構成要素に分解することによって実現することも可能である。   Even if the processes and procedures described herein are described as being performed by a single device, software, component, or module, such processes or procedures may be performed by multiple devices, multiple software, multiple Component and / or multiple modules. Also, the software and hardware elements described herein can be implemented by integrating them into fewer components or by disassembling them into more components.

本明細書において、発明の構成要素が単数もしくは複数のいずれか一方として説明された場合、又は、単数もしくは複数のいずれとも限定せずに説明された場合であっても、文脈上別に解すべき場合を除き、当該構成要素は単数又は複数のいずれであってもよい。   In the present specification, when the constituent elements of the invention are described as one or a plurality, or when they are described without being limited to one or a plurality of cases, they should be understood separately in context. The component may be either singular or plural.

10 動画作成装置
11 コンピュータプロセッサ
131 カメラ
41 情報記憶管理部
43 画像解析部
45 動画作成部
50 入力画像
60、70 動画
62 アバター
DESCRIPTION OF SYMBOLS 10 Movie creation apparatus 11 Computer processor 131 Camera 41 Information storage management part 43 Image analysis part 45 Movie creation part 50 Input image 60, 70 Movie 62 Avatar

Claims (10)

1又は複数のコンピュータプロセッサを備え、動画を作成するためのシステムであって、
前記1又は複数のコンピュータプロセッサは、読取可能な命令の実行に応じて、
カメラを介して入力される画像に含まれるユーザの身体の1又は複数の所定の部位を認識する処理と、
認識した前記所定の部位の前記入力される画像における配置に少なくとも基づいてアバターの動作を制御する処理と、
前記アバターが含まれる動画を作成する処理と、を実行する、
システム。
A system comprising one or more computer processors for creating a video,
The one or more computer processors are responsive to execution of readable instructions,
Processing for recognizing one or more predetermined parts of the user's body included in an image input via the camera;
A process for controlling the operation of the avatar based at least on the arrangement of the recognized predetermined part in the input image;
Executing a process of creating a video including the avatar;
system.
前記1又は複数のコンピュータプロセッサは、更に、作成した動画をリアルタイムに配信する処理を実行する、
請求項1のシステム。
The one or more computer processors further execute a process of distributing the created moving image in real time.
The system of claim 1.
前記所定の部位は、顔、及び、両手を含む、
請求項1又は2のシステム。
The predetermined part includes a face and both hands,
The system according to claim 1 or 2.
前記1又は複数のコンピュータプロセッサは、更に、認識した前記所定の部位の少なくとも一部の動きに基づいて特定される所定のコマンドを実行する処理を実行する、
請求項1ないし3何れかのシステム。
The one or more computer processors further execute a process of executing a predetermined command specified based on at least a part of movement of the predetermined part recognized.
The system according to claim 1.
前記所定のコマンドは、前記所定の部位の前記入力される画像における配置に基づく前記アバターの動作の制御を停止させるためのコマンドを含む、
請求項4のシステム。
The predetermined command includes a command for stopping control of the operation of the avatar based on the arrangement of the predetermined portion in the input image.
The system of claim 4.
前記認識する処理は、前記所定の部位に設けられた所定の外観を有するマーカーを検出することによって前記所定の部位を認識することを含む、
請求項1ないし5何れかのシステム。
The recognizing process includes recognizing the predetermined part by detecting a marker having a predetermined appearance provided in the predetermined part.
The system according to any one of claims 1 to 5.
前記所定の部位は、手を含み、
前記認識する処理は、ユーザの手の甲側に設けられた第1の外観を有するマーカー及びユーザの手の平側に設けられた第2の外観を有するマーカーをそれぞれ検出することによってユーザの手の向きを認識することを含み、
前記制御する処理は、認識したユーザの手の向きに少なくとも基づいて前記アバターの動作を制御することを含む、
請求項6のシステム。
The predetermined part includes a hand,
The recognition process recognizes the orientation of the user's hand by detecting a marker having a first appearance provided on the back side of the user's hand and a marker having a second appearance provided on the palm side of the user's hand. Including
The controlling process includes controlling the movement of the avatar based at least on the orientation of the recognized user's hand,
The system of claim 6.
前記制御する処理は、前記所定の部位の動きを追随するように前記アバターの動作を制御することを含む、
請求項1ないし7何れかのシステム。
The controlling process includes controlling the movement of the avatar so as to follow the movement of the predetermined part.
The system according to claim 1.
1又は複数のコンピュータによって実行され、動画を作成するための方法であって、
カメラを介して入力される画像に含まれるユーザの身体の1又は複数の所定の部位を認識するステップと、
認識した前記所定の部位の前記入力される画像における配置に少なくとも基づいてアバターの動作を制御するステップと、
前記アバターが含まれる動画を作成するステップと、を備える、
方法。
A method for creating a video that is executed by one or more computers, comprising:
Recognizing one or more predetermined parts of a user's body included in an image input via a camera;
Controlling the movement of the avatar based at least on the arrangement of the recognized predetermined site in the input image;
Creating a video that includes the avatar,
Method.
動画を作成するためのプログラムであって、
1又は複数のコンピュータ上での実行に応じて、前記1又は複数のコンピュータに、
カメラを介して入力される画像に含まれるユーザの身体の1又は複数の所定の部位を認識する処理と、
認識した前記所定の部位の前記入力される画像における配置に少なくとも基づいてアバターの動作を制御する処理と、
前記アバターが含まれる動画を作成する処理と、を実行させる、
プログラム。
A program for creating videos,
In response to execution on one or more computers, the one or more computers
A process of recognizing one or more predetermined parts of the user's body included in an image input via the camera;
A process for controlling the operation of the avatar based at least on the arrangement of the recognized predetermined part in the input image;
A process of creating a video including the avatar,
program.
JP2018069839A 2018-03-30 2018-03-30 System, method, and program for creating moving image Pending JP2019179502A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018069839A JP2019179502A (en) 2018-03-30 2018-03-30 System, method, and program for creating moving image
JP2022129489A JP2022171661A (en) 2018-03-30 2022-08-16 System, method, and program for creating moving image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018069839A JP2019179502A (en) 2018-03-30 2018-03-30 System, method, and program for creating moving image

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022129489A Division JP2022171661A (en) 2018-03-30 2022-08-16 System, method, and program for creating moving image

Publications (1)

Publication Number Publication Date
JP2019179502A true JP2019179502A (en) 2019-10-17

Family

ID=68278838

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018069839A Pending JP2019179502A (en) 2018-03-30 2018-03-30 System, method, and program for creating moving image
JP2022129489A Pending JP2022171661A (en) 2018-03-30 2022-08-16 System, method, and program for creating moving image

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022129489A Pending JP2022171661A (en) 2018-03-30 2022-08-16 System, method, and program for creating moving image

Country Status (1)

Country Link
JP (2) JP2019179502A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021086639A (en) * 2019-11-29 2021-06-03 グリー株式会社 Information processing system, information processing method, and computer program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194876A (en) * 1998-12-25 2000-07-14 Atr Media Integration & Communications Res Lab Virtual space sharing device
JP2013218535A (en) * 2012-04-09 2013-10-24 Crescent Inc Method and device for displaying finger integrated into cg image in three-dimensionally modeled cg image and wide viewing angle head mount display device for displaying three-dimensionally modeled cg image
WO2017150129A1 (en) * 2016-03-04 2017-09-08 株式会社ソニー・インタラクティブエンタテインメント Control device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5087101B2 (en) * 2010-03-31 2012-11-28 株式会社バンダイナムコゲームス Program, information storage medium, and image generation system
JP6312512B2 (en) * 2014-04-23 2018-04-18 博司 佐久田 Remote monitoring system
JP6519074B2 (en) * 2014-09-08 2019-05-29 任天堂株式会社 Electronics
CN109074805A (en) * 2016-03-31 2018-12-21 索尼公司 Information processing equipment, information processing method and program
JP6450709B2 (en) * 2016-05-17 2019-01-09 レノボ・シンガポール・プライベート・リミテッド Iris authentication device, iris authentication method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194876A (en) * 1998-12-25 2000-07-14 Atr Media Integration & Communications Res Lab Virtual space sharing device
JP2013218535A (en) * 2012-04-09 2013-10-24 Crescent Inc Method and device for displaying finger integrated into cg image in three-dimensionally modeled cg image and wide viewing angle head mount display device for displaying three-dimensionally modeled cg image
WO2017150129A1 (en) * 2016-03-04 2017-09-08 株式会社ソニー・インタラクティブエンタテインメント Control device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021086639A (en) * 2019-11-29 2021-06-03 グリー株式会社 Information processing system, information processing method, and computer program

Also Published As

Publication number Publication date
JP2022171661A (en) 2022-11-11

Similar Documents

Publication Publication Date Title
US10013805B2 (en) Control of enhanced communication between remote participants using augmented and virtual reality
US9911231B2 (en) Method and computing device for providing augmented reality
EP3769509B1 (en) Multi-endpoint mixed-reality meetings
US9684435B2 (en) Camera selection interface for producing a media presentation
CN108038726B (en) Article display method and device
CN111045511B (en) Gesture-based control method and terminal equipment
US20120281092A1 (en) Visual communication using a robotic device
WO2020248711A1 (en) Display device and content recommendation method
JP7228338B2 (en) System, method and program for distributing videos
US20210142568A1 (en) Web-based remote assistance system with context & content-aware 3d hand gesture visualization
JP2004310518A (en) Picture information processor
US9848168B2 (en) Method, synthesizing device, and system for implementing video conference
WO2019155735A1 (en) Information processing device, information processing method, and program
US20220291752A1 (en) Distributed Application Platform Projected on a Secondary Display for Entertainment, Gaming and Learning with Intelligent Gesture Interactions and Complex Input Composition for Control
CN117152389A (en) Navigation assistance method and system in three-dimensional virtual environment
JP2022171661A (en) System, method, and program for creating moving image
WO2022170449A1 (en) Method and device for displaying picture window, terminal and storage medium
JP7373599B2 (en) Systems, methods and programs for creating videos
Gelb et al. Augmented reality for immersive remote collaboration
US10614628B2 (en) Method for supporting the usage of a computerized source device within virtual environment of a head mounted device
CN116828131A (en) Shooting processing method and device based on virtual reality and electronic equipment
US9948894B2 (en) Virtual representation of a user portion
WO2020248682A1 (en) Display device and virtual scene generation method
KR20150041548A (en) Method for providing augmented reality, and the computing device
US11902603B2 (en) Methods and systems for utilizing live embedded tracking data within a live sports video stream

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211224

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220517