JP7038602B2 - Systems, methods, and programs for creating videos - Google Patents
Systems, methods, and programs for creating videos Download PDFInfo
- Publication number
- JP7038602B2 JP7038602B2 JP2018101927A JP2018101927A JP7038602B2 JP 7038602 B2 JP7038602 B2 JP 7038602B2 JP 2018101927 A JP2018101927 A JP 2018101927A JP 2018101927 A JP2018101927 A JP 2018101927A JP 7038602 B2 JP7038602 B2 JP 7038602B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- virtual space
- moving image
- text
- predetermined area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、動画を作成するためのシステム、方法、及びプログラムに関する。 The present invention relates to a system, a method, and a program for creating a moving image.
従来、ユーザが動画の配信を行うためのシステムが提供されている(例えば、特許文献1を参照)。例えば、ユーザは、スマートフォン及びパソコン等のユーザ端末が有するカメラを介して入力される画像、及び、同じくユーザ端末が有するマイクを介して入力される音声が含まれる動画を撮影し、撮影した動画を複数の視聴者に対して配信することができる。 Conventionally, a system for a user to distribute a moving image has been provided (see, for example, Patent Document 1). For example, the user shoots a video including an image input through a camera of a user terminal such as a smartphone or a personal computer and a voice input through a microphone of the user terminal, and captures the shot video. It can be distributed to multiple viewers.
しかしながら、上述した従来のシステムにおいて、動画に含まれる音声は、同じく動画に含まれる画像と共に出力されるのみであって、面白みに欠ける場合があった。このように、動画に含まれる音声の出力については、そのエンターテイメント性に関して改善の余地がある。 However, in the above-mentioned conventional system, the sound included in the moving image is only output together with the image also included in the moving image, and may be uninteresting. As described above, there is room for improvement in the entertainment property of the audio output included in the moving image.
本発明の実施形態は、動画に含まれる音声の出力に関するエンターテイメント性を向上させることを目的の一つとする。本発明の実施形態の他の目的は、本明細書全体を参照することにより明らかとなる。 One of the objects of the embodiment of the present invention is to improve the entertainment property of the output of the sound included in the moving image. Other objects of the embodiments of the present invention will become apparent by reference to the entire specification.
本発明の一実施形態に係るシステムは、1又は複数のコンピュータプロセッサを備え、動画を作成するためのシステムであって、前記1又は複数のコンピュータプロセッサは、読取可能な命令の実行に応じて、仮想空間に対応する画像を表示する所定の領域を有する画面をユーザに提示する処理と、前記仮想空間に対応する画像と、前記ユーザによって入力される音声と、を含む動画を作成する処理と、前記ユーザによる前記所定の領域に対するタッチ操作に応じて、前記入力される音声をテキストに変換し、変換されたテキストに対応するテキストオブジェクトを、前記所定の領域内のタッチ操作が行われた位置に基づく前記仮想空間内の位置に配置する処理と、を実行する。 The system according to an embodiment of the present invention comprises one or more computer processors for creating moving images, wherein the one or more computer processors respond to the execution of readable instructions. A process of presenting a screen having a predetermined area for displaying an image corresponding to a virtual space to a user, a process of creating a moving image including an image corresponding to the virtual space and a voice input by the user, and a process of creating a moving image. In response to the touch operation on the predetermined area by the user, the input voice is converted into text, and the text object corresponding to the converted text is placed at the position where the touch operation is performed in the predetermined area. The process of arranging at a position in the virtual space based on the above is executed.
本発明の一実施形態に係る方法は、1又は複数のコンピュータによって実行され、動画を作成するための方法であって、仮想空間に対応する画像を表示する所定の領域を有する画面をユーザに提示するステップと、前記仮想空間に対応する画像と、前記ユーザによって入力される音声と、を含む動画を作成するステップと、前記ユーザによる前記所定の領域に対するタッチ操作に応じて、前記入力される音声をテキストに変換し、変換されたテキストに対応するテキストオブジェクトを、前記所定の領域内のタッチ操作が行われた位置に基づく前記仮想空間内の位置に配置するステップと、を備える。 A method according to an embodiment of the present invention is a method executed by one or more computers to create a moving image, and presents a screen having a predetermined area for displaying an image corresponding to a virtual space to a user. A step of creating a moving image including an image corresponding to the virtual space and a voice input by the user, and the input voice in response to a touch operation on the predetermined area by the user. Is converted into text, and the text object corresponding to the converted text is provided at a position in the virtual space based on the position where the touch operation is performed in the predetermined area.
本発明の一実施形態に係るプログラムは、動画を作成するためのプログラムであって、1又は複数のコンピュータ上での実行に応じて、前記1又は複数のコンピュータに、仮想空間に対応する画像を表示する所定の領域を有する画面をユーザに提示する処理と、前記仮想空間に対応する画像と、前記ユーザによって入力される音声と、を含む動画を作成する処理と、前記ユーザによる前記所定の領域に対するタッチ操作に応じて、前記入力される音声をテキストに変換し、変換されたテキストに対応するテキストオブジェクトを、前記所定の領域内のタッチ操作が行われた位置に基づく前記仮想空間内の位置に配置する処理と、を実行させる。 The program according to the embodiment of the present invention is a program for creating a moving image, and depending on execution on one or a plurality of computers, the image corresponding to the virtual space is displayed on the one or a plurality of computers. A process of presenting a screen having a predetermined area to be displayed to a user, a process of creating a moving image including an image corresponding to the virtual space and a voice input by the user, and a process of creating the predetermined area by the user. In response to the touch operation on the computer, the input voice is converted into text, and the text object corresponding to the converted text is placed in the virtual space based on the position where the touch operation is performed in the predetermined area. To execute the process to be placed in.
本発明の様々な実施形態は、動画に含まれる音声の出力に関するエンターテイメント性を向上させる。 Various embodiments of the present invention improve entertainment with respect to the output of audio contained in the moving image.
以下、図面を参照しながら、本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本発明の一実施形態に係る動画作成装置10の構成を概略的に示す構成図である。動画作成装置10は、動画を作成するための機能を有し、本発明のシステムの一部又は全部を実装する装置の一例である。
FIG. 1 is a configuration diagram schematically showing a configuration of a moving
動画作成装置10は、一般的なコンピュータとして構成されており、図1に示すように、CPU又はGPU等のコンピュータプロセッサ11と、メインメモリ12と、ユーザI/F13と、通信I/F14と、ストレージ(記憶装置)15とを備え、これらの各構成要素が図示しないバス等を介して電気的に接続されている。
The moving
コンピュータプロセッサ11は、ストレージ15等に記憶されている様々なプログラムをメインメモリ12に読み込んで、当該プログラムに含まれる各種の命令を実行する。メインメモリ12は、例えば、DRAM等によって構成される。 The computer processor 11 reads various programs stored in the storage 15 and the like into the main memory 12 and executes various instructions included in the programs. The main memory 12 is composed of, for example, a DRAM or the like.
ユーザI/F13は、ユーザとの間で情報をやり取りするための各種の入出力装置を含む。ユーザI/F13は、例えば、キーボード、ポインティングデバイス(例えば、マウス、タッチパネル等)等の情報入力装置、マイクロフォン等の音声入力装置、カメラ等の画像入力装置を含む。また、ユーザI/F13は、ディスプレイ等の画像出力装置、スピーカ等の音声出力装置を含む。 The user I / F 13 includes various input / output devices for exchanging information with the user. The user I / F 13 includes, for example, an information input device such as a keyboard and a pointing device (for example, a mouse, a touch panel, etc.), a voice input device such as a microphone, and an image input device such as a camera. Further, the user I / F 13 includes an image output device such as a display and an audio output device such as a speaker.
通信I/F14は、ネットワークアダプタ等のハードウェア、各種の通信用ソフトウェア、及びこれらの組み合わせとして実装され、有線又は無線の通信を実現できるように構成されている。 The communication I / F 14 is implemented as hardware such as a network adapter, various communication software, and a combination thereof, and is configured to realize wired or wireless communication.
ストレージ15は、例えば磁気ディスク、フラッシュメモリ等によって構成される。ストレージ15は、オペレーティングシステムを含む様々なプログラム、及び各種データ等を記憶する。ストレージ15が記憶するプログラムには、動画を作成するための機能を実現するためのアプリケーションプログラム(以下、「動画作成用アプリ」と言うことがある。)が含まれ得る。 The storage 15 is composed of, for example, a magnetic disk, a flash memory, or the like. The storage 15 stores various programs including an operating system, various data, and the like. The program stored in the storage 15 may include an application program for realizing a function for creating a moving image (hereinafter, may be referred to as a “moving image creating application”).
本実施形態において、動画作成装置10は、スマートフォン、タブレット端末、パーソナルコンピュータ、及びウェアラブルデバイス等として構成され得る。
In the present embodiment, the moving
次に、本実施形態の動画作成装置10が有する機能について説明する。図2は、動画作成装置10が有する機能を概略的に示すブロック図である。動画作成装置10は、図示するように、様々な情報を記憶及び管理する情報記憶管理部41と、動画を作成する動画作成部43と、仮想空間を制御する仮想空間制御部45とを有する。これらの機能は、コンピュータプロセッサ11及びメインメモリ12等のハードウェア、並びに、ストレージ15等に記憶されている各種プログラムやデータ等が協働して動作することによって実現され、例えば、メインメモリ12に読み込まれたプログラムに含まれる命令をコンピュータプロセッサ11が実行することによって実現される。
Next, the function of the moving
情報記憶管理部41は、ストレージ15等において様々な情報を記憶及び管理する。動画作成部43は、動画の作成に関する様々な処理を実行する。本実施形態において、動画作成部43は、仮想空間に対応する画像を表示する所定の領域を有する画面をユーザに提示するように構成されている。例えば、動画作成部43は、当該所定の領域を有する画面をディスプレイ等において表示するように構成される。
The information
また、動画作成部43は、上記仮想空間に対応する画像と、入力される音声と、を含む動画を作成するように構成されている。例えば、動画作成部43は、所定の領域において表示されている仮想空間の画像と、マイクを介して入力される音声とを含む動画を作成(記録)するように構成される。作成された動画は、例えば、ストレージ15等において格納される。
Further, the moving
仮想空間制御部45は、上記仮想空間の制御に関する様々な処理を実行する。本実施形態において、仮想空間制御部45は、ユーザによる上記所定の領域に対するタッチ操作に応じて、入力される音声をテキストに変換し、変換されたテキストに対応するテキストオブジェクトを仮想空間内に配置するように構成されている。当該テキストオブジェクトは、所定の領域内の上記タッチ操作が行われた位置に基づく仮想空間内の位置に配置される。
The virtual
このように、本実施形態の動画作成装置10は、仮想空間に対応する画像と、入力される音声とを含む動画を作成し、当該画像を表示する所定の領域に対するタッチ操作に応じて、当該入力される音声をテキストに変換して対応するテキストオブジェクトを仮想空間内に配置するから、入力される音声に対応するオブジェクトが仮想空間に配置される動画を手軽に作成することが可能となる。つまり、本実施形態の動画作成装置10は、動画に含まれる音声の出力に関するエンターテイメント性を向上させる。
As described above, the moving
本実施形態において、仮想空間制御部45は、上記所定の領域に対するタッチ状態が開始されてから解消するまでの期間において入力される音声をテキストに変換するように構成され得る。例えば、仮想空間制御部45は、当該タッチ状態の開始に応じて、入力される音声の録音を開始し、タッチ状態の解消に応じて、録音された音声のテキストへの変換を行って、変換されたテキストに対応するテキストオブジェクトを配置するように構成される。こうした構成は、テキストオブジェクトの配置を簡易な操作で実現し得る。
In the present embodiment, the virtual
また、仮想空間制御部45は、所定の領域に対するタッチ状態が開始された後に行われるフリック操作及び/又はスライド操作の方向に基づく視覚効果が付与されるように、変換されたテキストに対応するテキストオブジェクトを配置するように構成され得る。例えば、仮想空間制御部45は、所定の領域に対するタッチ状態が解消される際に行われるフリック操作/スライド操作の方向が第1の方向(例えば、右方向)である場合は、第1の視覚効果(例えば、フェードインの効果)をテキストオブジェクトに付与する一方、当該フリック操作/スライド操作の方向が第2の方向(例えば、左方向)である場合は、第2の視覚効果(例えば、フェードアウトの効果)をテキストオブジェクトに付与するように構成される。こうした構成は、テキストオブジェクトに対する視覚効果の付与を簡易な操作で実現し得る。
Further, the virtual
本実施形態において、仮想空間は、例えば、カメラを介して入力(撮影)される映像を表示するオブジェクトを含むように構成される。この場合、作成される動画は、例えば、現実のユーザが登場(出演)する動画として構成される。また、当該仮想空間は、例えば、ユーザによって操作されるアバターが含まれるように構成される。この場合、作成される動画は、現実のユーザの代わりにアバターが登場する動画として構成され、仮想空間制御部45は、当該アバターの仮想空間における動作を制御するように構成される。この場合、仮想空間は、配置されたテキストオブジェクトをアバターが触ることができるように構成され得る。こうした構成は、アバターを介してテキストオブジェクトを触ることが可能となるから、作成される動画のエンターテイメント性が向上し得る。
In the present embodiment, the virtual space is configured to include, for example, an object that displays an image input (photographed) via a camera. In this case, the created moving image is configured as, for example, a moving image in which a real user appears (appears). Further, the virtual space is configured to include, for example, an avatar operated by the user. In this case, the created moving image is configured as a moving image in which an avatar appears in place of a real user, and the virtual
仮想空間にユーザのアバターが含まれる場合において、仮想空間制御部45は、例えば、タッチパネル又は物理コントローラ等に対するユーザによる操作に応じてアバターの動作を制御するように構成され得る。また、仮想空間制御部45は、カメラを介して入力される画像に含まれるユーザの姿勢に少なくとも基づいて(例えば、ユーザの姿勢に連動するように)アバターの動作を制御するように構成され得る。画像に含まれるユーザの姿勢(ボーン)の検出は、例えば、公知の人物姿勢推定技術を適用して実現することができる。また、仮想空間制御部45は、入力される画像に含まれるユーザの身体の1又は複数の所定の部位(例えば、顔及び両手等)の画像における配置に少なくとも基づいて(例えば、所定の部位の配置に連動するように)アバターの動作を制御するように構成され得る。こうした構成は、現実のユーザの動きに基づいてアバターを動作させることを可能とする。
When the virtual space includes a user's avatar, the virtual
次に、このような機能を有する本実施形態の動画作成装置10の具体例について説明する。この例の動画作成装置10は、スマートフォン、タブレット端末、又は、パーソナルコンピュータ等として構成されており、動画作成用アプリがインストールされている。この例の動画作成装置10は、アバターを含む動画を作成するように構成されている。
Next, a specific example of the moving
図3は、動画作成装置10のディスプレイ等において表示される動画作成用画面60を例示する。当該画面60は、動画を作成するための画面であって、図示するように、作成する動画に含まれる画像を表示する画像表示領域(所定の領域)62と、動画の作成(記録、録画)の開始及び終了を指示するための指示ボタン64とを有する。
FIG. 3 illustrates a moving
画像表示領域62には、仮想空間100を特定の視野で(特定の位置の仮想カメラを介して)見た画像が表示される。当該仮想空間100は、三次元の仮想空間として構成されており、人型のアバター102、及び、当該アバター102の手前に位置する机オブジェクト104を含む。
In the
ここで、仮想空間100に含まれるアバター102の動作の制御に関する処理について説明する。図4は、この例において、アバター102の動作を制御するために、動画作成装置10が実行する処理を例示するフロー図である。例えば、装置10は、動画作成用画面60の表示に応じて、図4に例示される処理を実行する。
Here, a process related to control of the operation of the
動画作成装置10は、まず、図4に示すように、インカメラを介して入力される入力画像に含まれるユーザの顔及び両手を認識する(ステップS100)。インカメラは、装置10において表示される画面を見るユーザを視野に含むように構成されている。ユーザは、動画作成用画面60の画像表示領域62に含まれる仮想空間100の画像を見ながら、アバター102を動作させるためにインカメラの前で身体を動かすことになる。
First, as shown in FIG. 4, the moving
図5は、インカメラを介して入力される入力画像50を模式的に例示する。図示するように、この例では、ユーザの右手RHの手の平には、第1の色(例えば、赤色)の円形のマーカーMK1が設けられており、ユーザの左手LHの手の平には、第2の色(例えば、黄色)の円形のマーカーMK2が設けられている。これらのマーカーMK1、2は、例えば、手の平に貼り付けるステッカーとして構成され、当該ステッカーは、例えば、動画作成用アプリの提供事業者等によってユーザに提供される。また、マーカーMK1、2は、例えば、手の平にインク等で直接描かれる。この場合、例えば、動画作成用アプリの提供事業者等が配布するインストラクションに従って、ユーザが、両手の手の平にマーカーMK1、2をそれぞれ描く。
FIG. 5 schematically illustrates an
図6は、図5に例示した入力画像50に含まれるユーザの顔及び両手が認識される様子を説明するための図である。図示するように、この例では、ユーザの顔FCは、当該顔FCの輪郭を囲う矩形の検出領域DA1として検出及び認識される。また、ユーザの両手RH、LHは、当該両手RH、LHの各々の手の平に設けられているマーカーMK1、2の輪郭を囲う矩形の検出領域DA2、DA3としてそれぞれ検出及び認識される。こうした顔FC、及び、両手RH、LH(マーカーMK1、2)の認識(及び、その後の追跡)は、公知の物体追跡技術を用いて実現され、例えば、機械学習を介して生成された学習済みモデルを用いて実現される。
FIG. 6 is a diagram for explaining how the user's face and both hands included in the
図4のフロー図に戻り、入力画像に含まれるユーザの顔及び両手を認識すると、動画作成装置10は、次に、当該入力画像におけるユーザの顔及び両手の配置に基づいてアバターの動作を制御する(ステップS110)。こうした入力画像におけるユーザの顔及び両手の配置に基づくアバターの動作の制御は、動画の作成が終了するまでの間(例えば、動画作成用画面60の表示が終了するまでの間)、繰り返される(ステップS120においてNO)。
Returning to the flow chart of FIG. 4, when the user's face and both hands included in the input image are recognized, the moving
この例では、インカメラを介して入力される入力画像50におけるユーザの顔FCの位置に対する両手RH、LHの相対的な位置(現実のユーザの顔と両手との間の位置関係)を再現するように、アバター102の動作が制御される。例えば、図7に例示するように、現実のユーザが「万歳」の姿勢をとって、入力画像50におけるユーザの両手RH、LH(マーカーMK1、2)がユーザの顔FCの斜め上方に移動した場合、図8に例示するように、仮想空間100におけるアバター102もまた、ユーザと同様に「万歳」の姿勢をとる(両手を顔の斜め上方に移動させる)。
In this example, the relative positions of both hands RH and LH (the positional relationship between the actual user's face and both hands) with respect to the position of the user's face FC in the
ユーザが指示ボタン64を選択すると、動画の記録が開始され、具体的には、画像表示領域62に表示される画像と、マイクを介して入力される音声とを含む動画が記録される。ユーザが再度、指示ボタン64を選択すると、動画の記録が停止される。作成された動画は、ストレージ15等の所定の領域に格納される。このように、この例において、ユーザは、インカメラの前で身体を動かしながら話すことにより、当該身体の動きに追随して動作するアバター102が含まれる仮想空間100に対応する画像、及び、自身の音声を含む動画を容易に作成することができる。
When the user selects the
ここで、この例におけるテキストオブジェクトの配置に関する動作について説明する。図9は、動画作成用画面60の画像表示領域62に対するユーザによるタッチ操作の検出に応じて、動画作成装置10が実行する処理を例示するフロー図である。画像表示領域62に対するタッチ操作を検出すると、装置10は、まず、図示するように、画像表示領域62に対するタッチ状態が解消される迄の間、マイクを介して入力される入力音声を録音する(ステップS200、ステップS210においてNO)。
Here, the operation related to the arrangement of the text object in this example will be described. FIG. 9 is a flow chart illustrating a process executed by the moving
そして、画像表示領域62に対するタッチ状態が解消されると(ステップS210においてYES)、装置10は、録音を停止し(ステップS220)、録音された音声をテキストに変換する(ステップS230)。録音された音声のテキスト変換は、公知の音声認識技術を適用して実現される。なお、この例では、画像表示領域62に対するタッチ状態が開始されてから解消するまでの期間において、入力音声は、作成される動画にも含まれる(ミュートされない)。なお、当該期間において、作成される動画における音声をミュートするようにしても良い。
Then, when the touch state with respect to the
続いて、動画作成装置10は、変換されたテキストに対応するテキストオブジェクトを仮想空間100に配置する(ステップS240)。テキストオブジェクトは、変換されたテキストが仮想空間100における三次元のオブジェクトとして構成されたものであり、画像表示領域62に対するタッチ操作が行われた位置に基づく仮想空間100上の位置に配置される。
Subsequently, the moving
図10は、画像表示領域62に対するタッチ操作が行われ、タッチ状態が継続している状態の動画作成用画面60を例示する。この場合、画像表示領域62において、タッチ操作が行われている位置を中心とする円形のタッチ位置表示オブジェクト70が表示される。この状態で、ユーザは、テキストオブジェクトに変換しようとする音声を入力する(話す)。
FIG. 10 illustrates a moving
図11は、図10の状態から画像表示領域62に対するタッチ状態が解消されて、テキストオブジェクト106が仮想空間100内に配置された状態の動画作成用画面60を例示する。図11の例では、画像表示領域62に対するタッチ状態が継続されている期間において「こんにちは」という音声が入力されており、テキストオブジェクト106は、「こんにちは」というテキストに対応するオブジェクトとして構成されている。テキストオブジェクト106は、この例では、その先頭(図11の例では「こ」の字に対応するオブジェクト)が、タッチ操作が行われていた位置(タッチ位置表示オブジェクト70の表示位置)に対応する仮想空間100内の位置となるように配置される。なお、テキストオブジェクト106が配置される位置は、これに限定されない。例えば、テキストオブジェクト106は、画像表示領域62内のタッチ操作が行われた位置に基づいて特定され得る様々な仮想空間100内の位置に配置され得る。
FIG. 11 illustrates a moving
この例では、配置されたテキストオブジェクト106は、所定の時間(例えば、5秒)の経過後に消える。また、アバター102は、テキストオブジェクト106を触ることができるようになっている。例えば、テキストオブジェクト106は、文字毎に独立して動くように構成されており(文字毎に別々のオブジェクトとして構成されており)、例えば、図12に示すように、アバター102の右手で、テキストオブジェクト106の先頭の「こ」の文字のオブジェクトに触ると、当該オブジェクトのみを動かすこともできる。このように、ユーザは、画像表示領域62に対するタッチ操作によってテキストオブジェクト106を仮想空間100に配置しつつ、アバター102を介して、配置したテキストオブジェクト106を動かすこともできる。なお、配置されたテキストオブジェクト106の動作はこれに限定されない。例えば、テキストオブジェクト106は、配置された後に所定の速度で下方向に移動(落下)するように制御され得る。また、テキストオブジェクト106の全体、又は、各文字に対応するオブジェクトが、アバター102が触れることによって消えるようにし、又は、アバター102が触れることによって、所定のエフェクト(形状の変化、及び、発光等)が発生するようにしても良い。
In this example, the placed
この例では、画像表示領域62に対するタッチ状態を解消する際にフリック操作を行うと、当該フリック操作の方向に基づく視覚効果が、配置されるテキストオブジェクトに対して付与される。例えば、タッチ状態を解消する際に右方向へのフリック操作が行われると、フェードインの効果を伴ってテキストオブジェクト106が配置(表示)される一方、タッチ状態を解消する際に左方向へのフリック操作が行われると、テキストオブジェクト106の配置後、フェードアウトの効果を伴って当該テキストオブジェクト106が消去される。
In this example, when a flick operation is performed when the touch state with respect to the
上述した例において、作成される動画をライブ配信するようにしても良い。この場合、例えば、動画作成装置10は、作成される動画をストリーミング形式で動画配信サーバに送信し、当該動画配信サーバが、複数の視聴者のユーザ端末(スマートフォン等)に対してストリーミング形式で動画を配信する。図13は、動画のライブ配信を行う配信者のユーザ端末等として構成される動画作成装置10のディスプレイ等において表示される配信者画面80を例示する。当該画面80は、画面全体において三次元の仮想空間200を表示し、当該仮想空間200において、配信者のアバター202がステージ204上に配置されており、複数の視聴者の各々のアバター208が観客エリア206に配置されている。アバター202は、配信者によって操作される(例えば、カメラを介して入力される画像に含まれる配信者の顔及び両手の配置に基づいて制御される)。また、配信者による配信者画面80に対するタッチ操作に応じて、入力される音声がテキストに変換されて対応するテキストオブジェクトが仮想空間200内に配置される。アバター202は、仮想空間200において、配置されたテキストオブジェクトを触ることができる。なお、アバター202が、テキストオブジェクトと同様に、当該仮想空間200に配置されている他のオブジェクト(例えば、視聴者のアバター208が投げ入れるアイテム(ギフト)等)を触ることができるようにしても良い。
In the above example, the created video may be delivered live. In this case, for example, the
上述した例では、仮想空間100、200にユーザのアバター102、202が含まれるようにしたが、本実施形態の他の例において、仮想空間には、ユーザのアバターは含まれず、カメラを介して入力される画像を表示するオブジェクト等が配置され得る。
In the above-mentioned example, the user's
以上説明した本実施形態に係る動画作成装置10は、仮想空間に対応する画像と、入力される音声とを含む動画を作成し、当該画像を表示する所定の領域(例えば、動画作成用画面60の画像表示領域62)に対するタッチ操作に応じて、当該入力される音声をテキストに変換して対応するテキストオブジェクトを仮想空間内に配置するから、入力される音声に対応するオブジェクトが仮想空間に配置される動画を手軽に作成することが可能となる。つまり、本実施形態の動画作成装置10は、動画に含まれる音声の出力に関するエンターテイメント性を向上させる。
The moving
本発明の他の実施形態において、動画作成装置10が有する上述した機能の少なくとも一部は、当該装置10とインターネット等の通信ネットワークを介して通信可能に接続されるサーバ(例えば、上述した動画配信サーバ)と、動画作成装置10とが協働することによって実現される。例えば、当該サーバ側で、動画作成装置10のカメラを介して入力される画像の解析、及び、マイクを介して入力される音声のテキスト変換、並びに、動画の作成(及び配信)等が行われるようにしても良い。
In another embodiment of the present invention, at least a part of the above-mentioned functions of the moving
本明細書で説明された処理及び手順は、明示的に説明されたもの以外にも、ソフトウェア、ハードウェアまたはこれらの任意の組み合わせによって実現される。例えば、本明細書で説明される処理及び手順は、集積回路、揮発性メモリ、不揮発性メモリ、磁気ディスク等の媒体に、当該処理及び手順に相当するロジックを実装することによって実現される。また、本明細書で説明された処理及び手順は、当該処理・手順に相当するコンピュータプログラムとして実装し、各種のコンピュータに実行させることが可能である。 The processes and procedures described herein are implemented by software, hardware or any combination thereof, other than those expressly described. For example, the processes and procedures described herein are realized by implementing logic corresponding to the processes and procedures on a medium such as an integrated circuit, a volatile memory, a non-volatile memory, or a magnetic disk. Further, the processes and procedures described in the present specification can be implemented as a computer program corresponding to the processes and procedures, and can be executed by various computers.
本明細書中で説明された処理及び手順が単一の装置、ソフトウェア、コンポーネント、モジュールによって実行される旨が説明されたとしても、そのような処理または手順は複数の装置、複数のソフトウェア、複数のコンポーネント、及び/又は複数のモジュールによって実行され得る。また、本明細書において説明されたソフトウェアおよびハードウェアの要素は、それらをより少ない構成要素に統合して、またはより多い構成要素に分解することによって実現することも可能である。 Even if it is described that the processes and procedures described herein are performed by a single device, software, component, module, such processes or procedures may be performed by multiple devices, multiple software, multiple devices. Can be performed by a component of, and / or multiple modules. The software and hardware elements described herein can also be realized by integrating them into fewer components or by breaking them down into more components.
本明細書において、発明の構成要素が単数もしくは複数のいずれか一方として説明された場合、又は、単数もしくは複数のいずれとも限定せずに説明された場合であっても、文脈上別に解すべき場合を除き、当該構成要素は単数又は複数のいずれであってもよい。 In the present specification, even if the components of the invention are described as either singular or plural, or even if they are described without limitation to either singular or plural, they should be understood separately in the context. Except for, the component may be singular or plural.
10 動画作成装置
11 コンピュータプロセッサ
41 情報記憶管理部
43 動画作成部
45 仮想空間制御部
50 入力画像
60 動画作成用画面
62 画像表示領域(所定の領域)
80 配信者画面
100、200 仮想空間
102、202 アバター
106 テキストオブジェクト
10 Video creator 11
80
Claims (8)
前記1又は複数のコンピュータプロセッサは、読取可能な命令の実行に応じて、
仮想空間に対応する画像を表示する所定の領域を有する画面をユーザに提示する処理と、
前記仮想空間に対応する画像と、前記ユーザによって入力される音声と、を含む動画を作成する処理と、
前記ユーザによる前記所定の領域に対するタッチ操作に応じて、前記入力される音声をテキストに変換し、変換されたテキストに対応するテキストオブジェクトを、前記所定の領域内のタッチ操作が行われた位置に基づく前記仮想空間内の位置に配置する処理と、を実行する、
システム。 A system for creating moving images with one or more computer processors.
The one or more computer processors said, depending on the execution of readable instructions,
A process of presenting a screen having a predetermined area for displaying an image corresponding to a virtual space to a user,
A process of creating a moving image including an image corresponding to the virtual space and a voice input by the user.
In response to the touch operation on the predetermined area by the user, the input voice is converted into text, and the text object corresponding to the converted text is placed at the position where the touch operation is performed in the predetermined area. Executes the process of arranging the object at a position in the virtual space based on the above.
system.
請求項1のシステム。 The arranging process includes converting the input voice into text in the period from the start of the touch state to the predetermined area to the elimination of the touch state.
The system of claim 1.
請求項1又は2のシステム。 The arranging process includes arranging the corresponding text object so as to give a visual effect based on the direction of a flick operation and / or a slide operation performed after the touch state for the predetermined area is started. ,
The system of claim 1 or 2.
前記仮想空間は、配置されたテキストオブジェクトを前記アバターが触ることができるように構成されている、
請求項1ないし3何れかのシステム。 The one or more computer processors further execute a process of controlling the operation of the avatar operated by the user in the virtual space.
The virtual space is configured so that the avatar can touch the arranged text object.
The system according to any one of claims 1 to 3.
請求項4のシステム。 The process of controlling the movement of the avatar includes controlling the movement of the avatar based on at least the posture of the user included in the image input through the camera.
The system of claim 4.
請求項1ないし5何れかのシステム。 The one or more computer processors further execute a process of delivering the created moving image in real time.
The system according to any one of claims 1 to 5.
仮想空間に対応する画像を表示する所定の領域を有する画面をユーザに提示するステップと、
前記仮想空間に対応する画像と、前記ユーザによって入力される音声と、を含む動画を作成するステップと、
前記ユーザによる前記所定の領域に対するタッチ操作に応じて、前記入力される音声をテキストに変換し、変換されたテキストに対応するテキストオブジェクトを、前記所定の領域内のタッチ操作が行われた位置に基づく前記仮想空間内の位置に配置するステップと、を備える、
方法。 A method for making videos, run by one or more computers.
A step of presenting the user with a screen having a predetermined area for displaying an image corresponding to the virtual space, and
A step of creating a moving image including an image corresponding to the virtual space and a voice input by the user.
In response to the touch operation on the predetermined area by the user, the input voice is converted into text, and the text object corresponding to the converted text is placed at the position where the touch operation is performed in the predetermined area. A step of arranging a position in the virtual space based on the above.
Method.
1又は複数のコンピュータ上での実行に応じて、前記1又は複数のコンピュータに、
仮想空間に対応する画像を表示する所定の領域を有する画面をユーザに提示する処理と、
前記仮想空間に対応する画像と、前記ユーザによって入力される音声と、を含む動画を作成する処理と、
前記ユーザによる前記所定の領域に対するタッチ操作に応じて、前記入力される音声をテキストに変換し、変換されたテキストに対応するテキストオブジェクトを、前記所定の領域内のタッチ操作が行われた位置に基づく前記仮想空間内の位置に配置する処理と、を実行させる、
プログラム。 A program for creating videos
Depending on the execution on one or more computers, the one or more computers
A process of presenting a screen having a predetermined area for displaying an image corresponding to a virtual space to a user,
A process of creating a moving image including an image corresponding to the virtual space and a voice input by the user.
In response to the touch operation on the predetermined area by the user, the input voice is converted into text, and the text object corresponding to the converted text is placed at the position where the touch operation is performed in the predetermined area. To execute the process of arranging the object at the position in the virtual space based on the above.
program.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018101927A JP7038602B2 (en) | 2018-05-28 | 2018-05-28 | Systems, methods, and programs for creating videos |
JP2022035714A JP7373599B2 (en) | 2018-05-28 | 2022-03-08 | Systems, methods and programs for creating videos |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018101927A JP7038602B2 (en) | 2018-05-28 | 2018-05-28 | Systems, methods, and programs for creating videos |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022035714A Division JP7373599B2 (en) | 2018-05-28 | 2022-03-08 | Systems, methods and programs for creating videos |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019207509A JP2019207509A (en) | 2019-12-05 |
JP7038602B2 true JP7038602B2 (en) | 2022-03-18 |
Family
ID=68767001
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018101927A Active JP7038602B2 (en) | 2018-05-28 | 2018-05-28 | Systems, methods, and programs for creating videos |
JP2022035714A Active JP7373599B2 (en) | 2018-05-28 | 2022-03-08 | Systems, methods and programs for creating videos |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022035714A Active JP7373599B2 (en) | 2018-05-28 | 2022-03-08 | Systems, methods and programs for creating videos |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7038602B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11928263B2 (en) | 2020-12-07 | 2024-03-12 | Samsung Electronics Co., Ltd. | Electronic device for processing user input and method thereof |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014044655A (en) | 2012-08-28 | 2014-03-13 | Premium Agency Inc | Augmented reality system, video composition device, video composition method, and program |
JP2015056132A (en) | 2013-09-13 | 2015-03-23 | 日本電信電話株式会社 | Object generation device, method, and program |
JP2015184689A (en) | 2014-03-20 | 2015-10-22 | 株式会社Mugenup | Moving image generation device and program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005078427A (en) | 2003-09-01 | 2005-03-24 | Hitachi Ltd | Mobile terminal and computer software |
JP4999889B2 (en) | 2008-11-06 | 2012-08-15 | 株式会社スクウェア・エニックス | Website management server, website management execution method, and website management execution program |
-
2018
- 2018-05-28 JP JP2018101927A patent/JP7038602B2/en active Active
-
2022
- 2022-03-08 JP JP2022035714A patent/JP7373599B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014044655A (en) | 2012-08-28 | 2014-03-13 | Premium Agency Inc | Augmented reality system, video composition device, video composition method, and program |
JP2015056132A (en) | 2013-09-13 | 2015-03-23 | 日本電信電話株式会社 | Object generation device, method, and program |
JP2015184689A (en) | 2014-03-20 | 2015-10-22 | 株式会社Mugenup | Moving image generation device and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11928263B2 (en) | 2020-12-07 | 2024-03-12 | Samsung Electronics Co., Ltd. | Electronic device for processing user input and method thereof |
Also Published As
Publication number | Publication date |
---|---|
JP2019207509A (en) | 2019-12-05 |
JP7373599B2 (en) | 2023-11-02 |
JP2022095625A (en) | 2022-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7457082B2 (en) | Reactive video generation method and generation program | |
US10384125B2 (en) | Information processing program and information processing method | |
JP2021007042A (en) | Information processing device and program | |
US8834268B2 (en) | Peripheral device control and usage in a broadcaster mode for gaming environments | |
US20180330549A1 (en) | Editing interactive motion capture data for creating the interaction characteristics of non player characters | |
Danieau et al. | Framework for enhancing video viewing experience with haptic effects of motion | |
US20150194187A1 (en) | Telestrator system | |
JP2020537206A (en) | Methods and devices for robot interaction | |
JP7228338B2 (en) | System, method and program for distributing videos | |
JP2014501413A (en) | User interface, apparatus and method for gesture recognition | |
JP2017000545A (en) | Information processor, information processing system, information processing method, and information processing program | |
CN111045511A (en) | Gesture-based control method and terminal equipment | |
JP7512488B2 (en) | Image processing device, image processing method, and image processing system | |
CN106536004B (en) | enhanced gaming platform | |
JP7373599B2 (en) | Systems, methods and programs for creating videos | |
US9302182B2 (en) | Method and apparatus for converting computer games between platforms using different modalities | |
US20120309530A1 (en) | Rein-controlling gestures | |
JP2022171661A (en) | System, method, and program for creating moving image | |
KR102000624B1 (en) | Forklift virtual reality device | |
US20180160133A1 (en) | Realtime recording of gestures and/or voice to modify animations | |
WO2018233533A1 (en) | Editing device and system for on-line integrated augmented reality | |
TWI729323B (en) | Interactive gamimg system | |
CN116828131A (en) | Shooting processing method and device based on virtual reality and electronic equipment | |
TWI652600B (en) | Online integration of augmented reality editing devices and systems | |
US20190339771A1 (en) | Method, System and Apparatus For Brainwave and View Based Recommendations and Story Telling |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210419 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220208 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220308 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7038602 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |