JP2021197120A - Content creation support system - Google Patents
Content creation support system Download PDFInfo
- Publication number
- JP2021197120A JP2021197120A JP2020131665A JP2020131665A JP2021197120A JP 2021197120 A JP2021197120 A JP 2021197120A JP 2020131665 A JP2020131665 A JP 2020131665A JP 2020131665 A JP2020131665 A JP 2020131665A JP 2021197120 A JP2021197120 A JP 2021197120A
- Authority
- JP
- Japan
- Prior art keywords
- scene
- designation
- characters
- character
- story
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明はコンテンツ作成支援システムに関する。 The present invention relates to a content creation support system.
近年、ネット上で小説や漫画を配信するサービスが提供されている。 In recent years, services that distribute novels and manga on the Internet have been provided.
特許文献1には、連載小説をネット配信する連載作品配信装置が開示されている。 Patent Document 1 discloses a serialized work distribution device that distributes serialized novels on the Internet.
しかしながら、小説や漫画などのコンテンツを作成するには手間がかかる。 However, it takes time to create contents such as novels and manga.
本発明はこのような背景を鑑みてなされたものであり、コンテンツを容易に作成するこ
とのできる技術を提供することを目的とする。
The present invention has been made in view of such a background, and an object of the present invention is to provide a technique capable of easily creating contents.
上記課題を解決するための本発明の主たる発明は、コンテンツの作成を支援するシステ
ムであって、シーン中の複数の時点のそれぞれについて、前記シーン上で複数のキャラク
タに発生させるイベントの指定を受け付けるイベント指定部と、前記シーンを出力するた
めのシーン情報を作成するシーン作成部と、を備えることを特徴とする。
The main invention of the present invention for solving the above-mentioned problems is a system for supporting the creation of contents, and accepts designation of an event to be generated by a plurality of characters in the scene at each of a plurality of time points in the scene. It is characterized by including an event designation unit and a scene creation unit for creating scene information for outputting the scene.
本発明によれば、コンテンツを容易に作成することができる。 According to the present invention, content can be easily created.
<発明の概要>
本発明の実施形態の内容を列記して説明する。本発明は、たとえば、以下のような構成
を備える。
[項目1]
コンテンツの作成を支援するシステムであって、
シーン中の複数の時点のそれぞれについて、前記シーン上で複数のキャラクタに発生さ
せるイベントの指定を受け付けるイベント指定部と、
前記シーンを出力するためのシーン情報を作成するシーン作成部と、
を備えることを特徴とするコンテンツ作成支援システム。
[項目2]
項目1に記載のコンテンツ作成支援システムであって、
前記イベント指定部は、
前記時点の指定を受け付け、
複数の表示位置の候補を表示し、
複数の前記表示位置、及び当該表示位置のそれぞれに登場させる前記キャラクタの指
定を受け付け、
前記シーン作成部は、指定された前記時点において、指定された前記表示位置に、指定
された前記キャラクタが登場するように前記シーン情報を作成すること、
を特徴とするコンテンツ作成支援システム。
[項目3]
項目1又は2に記載のコンテンツ作成支援システムであって、
前記イベント指定部は、
前記時点の指定を受け付け、
前記シーンに登場している複数の前記キャラクタの指定を受け付け、
前記複数のキャラクタに適用する1つの表情の指定を受け付け、
前記シーン作成部は、指定された前記時点において、指定された前記複数のキャラクタ
が、指定された前記表情になるように前記シーン情報を作成すること、
を特徴とするコンテンツ作成支援システム。
[項目4]
項目1乃至3のいずれか1項に記載のコンテンツ作成支援システムであって、
前記イベント指定部は、
前記時点の指定を受け付け、
前記シーンに登場している複数の前記キャラクタの指定を受け付け、
前記複数のキャラクタに適用する、特定の感情を表すマークの指定を受け付け、
前記シーン作成部は、指定された前記時点において、指定された前記複数のキャラクタ
に対して、指定された前記マークを表示するように前記シーン情報を作成すること、
を特徴とするコンテンツ作成支援システム。
[項目5]
項目1乃至3のいずれか1項に記載のコンテンツ作成支援システムであって、
前記イベント指定部は、
前記時点の指定を受け付け、
前記シーンに登場している前記キャラクタのうち、前記シーンから退場させる複数の
前記キャラクタの指定を受け付け、
前記シーン作成部は、指定された前記時点において、指定された前記複数のキャラクタ
を前記シーンから退場させるように前記シーン情報を作成すること、
を特徴とするコンテンツ作成支援システム。
[項目6]
コンテンツの作成を支援する方法であって、
コンピュータが、
シーン中の複数の時点のそれぞれについて、前記シーン上で複数のキャラクタに発生さ
せるイベントの指定を受け付けるステップと、
前記シーンを出力するためのシーン情報を作成するステップと、
を実行することを特徴とするコンテンツ作成支援方法。
[項目7]
コンテンツの作成を支援するためのプログラムであって、
コンピュータに、
シーン中の複数の時点のそれぞれについて、前記シーン上で複数のキャラクタに発生さ
せるイベントの指定を受け付けるステップと、
前記シーンを出力するためのシーン情報を作成するステップと、
を実行させるためのプログラム。
<Outline of the invention>
The contents of the embodiments of the present invention will be described in a list. The present invention includes, for example, the following configuration.
[Item 1]
A system that supports the creation of content
An event specification unit that accepts the designation of events to be generated for a plurality of characters in the scene at each of a plurality of time points in the scene.
A scene creation unit that creates scene information for outputting the scene,
A content creation support system characterized by being equipped with.
[Item 2]
The content creation support system described in item 1
The event designation unit is
Accepting the designation at the above time point,
Display multiple display position candidates and display
Accepts the designation of the plurality of display positions and the character to appear in each of the display positions.
The scene creation unit creates the scene information so that the designated character appears at the designated display position at the designated time point.
A content creation support system featuring.
[Item 3]
The content creation support system described in
The event designation unit is
Accepting the designation at the above time point,
Accepting the designation of multiple characters appearing in the scene,
Accepts the designation of one facial expression to be applied to the plurality of characters,
The scene creation unit creates the scene information so that the plurality of designated characters have the designated facial expressions at the designated time point.
A content creation support system featuring.
[Item 4]
The content creation support system according to any one of items 1 to 3.
The event designation unit is
Accepting the designation at the above time point,
Accepting the designation of multiple characters appearing in the scene,
Accepts the designation of a mark representing a specific emotion to be applied to the plurality of characters,
The scene creation unit creates the scene information so as to display the designated mark for the plurality of designated characters at the designated time point.
A content creation support system featuring.
[Item 5]
The content creation support system according to any one of items 1 to 3.
The event designation unit is
Accepting the designation at the above time point,
Among the characters appearing in the scene, the designation of a plurality of the characters to be sent off from the scene is accepted.
The scene creation unit creates the scene information so that the plurality of designated characters are sent off from the scene at the designated time point.
A content creation support system featuring.
[Item 6]
A way to help create content
The computer
A step for accepting the designation of an event to be generated for a plurality of characters in the scene at each of a plurality of time points in the scene, and
Steps to create scene information for outputting the scene,
A content creation support method characterized by executing.
[Item 7]
A program to support the creation of content
On the computer
A step for accepting the designation of an event to be generated for a plurality of characters in the scene at each of a plurality of time points in the scene, and
Steps to create scene information for outputting the scene,
A program to execute.
以下、本発明の一実施形態について、図面を参照しながら説明する。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
<第1実施形態>
第1実施形態に係るコンテンツ作成支援システムは、提供者(クリエイター)が制作し
た背景やキャラクタ等のコンテンツ素材を利用して、使用者(ライター)が小説や漫画な
どのストーリー(コンテンツ)を制作するストーリー制作支援プラットフォームである。
<First Embodiment>
In the content creation support system according to the first embodiment, a user (writer) creates a story (content) such as a novel or a manga by using a content material such as a background or a character created by a provider (creator). It is a story production support platform.
ストーリーは、例えば小説や漫画、絵本、ゲーム、ドラマ、アニメ、戯曲、映画等が含
まれる。図1は、第1実施形態に係るコンテンツ作成支援システムによって制作すること
ができる小説の一例を示す図である。本例は、複数の背景画像やキャラクタ画像とともに
、セリフが次々と表示され、クリックやタッチスクリーンへのタップ等の入力操作によっ
てストーリーを読み進めることができるものである。
The story includes, for example, novels, comics, picture books, games, dramas, anime, dramas, movies, and the like. FIG. 1 is a diagram showing an example of a novel that can be produced by the content creation support system according to the first embodiment. In this example, lines are displayed one after another together with a plurality of background images and character images, and the story can be read by input operations such as clicking and tapping on the touch screen.
<構成>
図2は、第1実施形態のコンテンツ作成支援システムの全体構成例を示す図である。コ
ンテンツ作成支援システムは、管理サーバ1、使用者端末2、提供者端末3、ネットワー
ク4、閲覧者端末5を備える。サーバ1は、ネットワーク4を介して使用者端末2、提供
者端末3、閲覧者端末5に接続される。また、端末2、3、5の具体的な機器は、携帯電
話、スマートフォン、タブレットコンピュータ、パーソナルコンピュータ等のコンピュー
タである。ストーリーを制作するライターは使用者端末2、コンテンツ素材を提供するク
リエイターは提供者端末3を操作して管理サーバ1にアクセスし、ストーリー制作支援プ
ラットフォームを利用する。
<Structure>
FIG. 2 is a diagram showing an overall configuration example of the content creation support system of the first embodiment. The content creation support system includes a management server 1, a
<ハードウェア構成>
図3は、管理サーバ1のハードウェア構成例を示す図である。管理サーバ1は、使用者
端末2及び提供者端末3と通信を介して情報処理を実行することにより、システムの一部
を構成する。管理サーバ1は、例えばワークステーションやパーソナルコンピュータのよ
うな汎用コンピュータとしてもよいし、或いはクラウド・コンピューティングによって論
理的に実現されてもよい。
<Hardware configuration>
FIG. 3 is a diagram showing a hardware configuration example of the management server 1. The management server 1 constitutes a part of the system by executing information processing via communication with the
管理サーバ1は、少なくとも、制御部10、メモリ11、ストレージ12、送受信部1
3、入出力部14等を備え、これらはバス15を通じて相互に電気的に接続される。
The management server 1 has at least a
3. Input / output units 14 and the like are provided, and these are electrically connected to each other through a bus 15.
制御部10は、管理サーバ1全体の動作を制御し、各要素間におけるデータの送受信の
制御、及びアプリケーションの実行に必要な情報処理等を行う演算装置である。例えば制
御部10はCPU(Central Processing Unit)であり、ストレ
ージ12に格納されメモリ11に展開されたプログラム等を実行して各情報処理を実施す
る。
The
メモリ11は、DRAM(Dynamic Random Access Memor
y)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリやHDD(Hard
Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ
11は、制御部10のワークエリア等として使用され、また、管理サーバ1の起動時に実
行されるBIOS(Basic Input / Output System)、及び
各種設定情報等を格納する。
The memory 11 is a DRAM (Dynamic Random Access Memory).
Main memory composed of volatile storage devices such as y), flash memory and HDD (Hard)
Includes auxiliary storage configured with a non-volatile storage device such as Disc Drive). The memory 11 is used as a work area or the like of the
ストレージ12は、アプリケーション・プログラム等の各種プログラムを格納する。各
処理に用いられるデータを格納したデータベースがストレージ12に構築されていてもよ
い。
The storage 12 stores various programs such as application programs. A database storing data used for each process may be built in the storage 12.
送受信部13は、管理サーバ1をネットワーク4に接続する。なお、送受信部13は、
Bluetooth(登録商標)及びBLE(Bluetooth Low Energ
y)の近距離通信インタフェースを備えていてもよい。
The transmission / reception unit 13 connects the management server 1 to the network 4. The transmission / reception unit 13 is
Bluetooth® and BLE (Bluetooth Low Energy)
It may be provided with the short-range communication interface of y).
入出力部14は、必要に応じて使用するキーボード・マウス類等の情報入力機器、及び
ディスプレイ等の出力機器である。
The input / output unit 14 is an information input device such as a keyboard and a mouse, and an output device such as a display, which are used as needed.
バス15は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各
種制御信号を伝達する。
The bus 15 is commonly connected to each of the above elements and transmits, for example, an address signal, a data signal, and various control signals.
図4は、管理サーバ1のソフトウェア構成例を示す図である。管理サーバ1は、コンテ
ンツ素材受付部111、コンテンツ素材提供部112、ストーリー受付部113、使用者
要求受付部114、シーン生成部115、コンテンツ素材記憶部120、ストーリー記憶
部130を備える。
FIG. 4 is a diagram showing a software configuration example of the management server 1. The management server 1 includes a content
なお、コンテンツ素材受付部111、コンテンツ素材提供部112、ストーリー受付部
113、使用者要求受付部114、シーン生成部115は、管理サーバ1が備える制御部
10がストレージ12に記憶されているプログラムをメモリ11に読み出して実行するこ
とにより実現され、コンテンツ素材記憶部120、ストーリー記憶部130は、メモリ1
1及びストレージ12の少なくともいずれかにより提供される記憶領域の一部として実現
される。
The content
It is realized as part of the storage area provided by at least one of 1 and storage 12.
コンテンツ素材受付部111は、提供者端末3からコンテンツ素材の提供を受ける。コ
ンテンツ素材とは、ストーリーの制作に使用され得る画像、動画、音、テキスト、記号、
アイコン等のデータである。ストーリーにおいて背景、キャラクタ、アイテム、スチル、
BGM、効果音、音声、テキスト、記号、アイコン等として使用されるが、これらに限定
されない。提供者は、提供者端末3により、自身で制作、入手したコンテンツ素材を提供
することができる。
The content
Data such as icons. Backgrounds, characters, items, stills, in the story
It is used as BGM, sound effect, voice, text, symbol, icon, etc., but is not limited to these. The provider can provide the content material produced and obtained by himself / herself by the
コンテンツ素材受付部111は、提供されたコンテンツ素材データをコンテンツ素材記
憶部120に格納する。コンテンツ素材提供部112は、使用者端末2からの要請に応じ
てコンテンツ素材を使用者端末2に対して提供する。
The content
ストーリー受付部113は、ストーリーを受け付ける。第1実施形態では、ストーリー
受付部113は、ストーリーを構成するシーンの制作を1回以上行うことによりストーリ
ーを制作することができる。ストーリー受付部113は、背景や登場するキャラクタ、シ
ーンに登場するオブジェクト(物や動物など)などのコンテンツ素材の指定を受け付け、
また、キャラクタが発するセリフやシーンに流れるナレーションなどの入力を受け付け、
これらを含むシーン情報(シーンを表す情報)を作成することができる。ストーリー受付
部113は、コンテンツ素材記憶部120に登録されているコンテンツ素材を提示して、
その中から選択を受け付けるようにしてもよいし、使用者からコンテンツ素材の入力を受
け付けるようにしてもよい。また、ストーリー受付部113は、複数のシーンが連続した
ものとしてストーリーを制作することができる。すなわち、ストーリー受付部113は、
複数のシーン情報を含むストーリー情報(ストーリーを表す情報)を作成することができ
る。
The
In addition, it accepts inputs such as lines emitted by characters and narration flowing in the scene.
Scene information (information representing a scene) including these can be created. The
The selection may be accepted from among them, or the input of the content material may be accepted from the user. Further, the
It is possible to create story information (information representing a story) including a plurality of scene information.
使用者要求受付部114は、使用者からストーリーを保存する旨の入力を受け付ける。
使用者要求受付部114は、使用者からの入力に応じて、ストーリーをストーリー記憶部
130に登録することができる。
The user request reception unit 114 receives an input from the user to save the story.
The user request receiving unit 114 can register the story in the
シーン生成部115は、シーンを生成する。シーン生成部115は、使用者が選択した
コンテンツ素材をコンテンツ素材記憶部120から呼び出し、また、使用者が入力したテ
キスト等と関連付けることによってシーンを生成することができる。また、シーン生成部
115は、使用者から受信したコンテンツ素材データを使ってシーンを作成することもで
きる。例えば、各コンテンツ素材及びテキストの表示位置や、閲覧時の表示順、タイミン
グ等の設定情報を付与することができる。ストーリーは、一以上のコンテンツ素材及びテ
キストデータで構成される最小単位であるシーンと、任意の数のシーンで構成されるエピ
ソードによって構成されてもよいが、これに限られない。
The
<ストーリー制作の流れ>
以下、ストーリー制作におけるシーンの制作処理について説明する。
<Flow of story production>
Hereinafter, the scene production process in story production will be described.
図5は、シーン制作処理の流れを説明する図である。 FIG. 5 is a diagram illustrating a flow of a scene production process.
ストーリー受付部113は、背景の指定を受け付け(S201)、シーン制作終了の指
示を受けるまで、イベントの選択を受け付け(S202)、受け付けたインベントの設定
を行う(S203)。本実施形態において、イベントとは、キャラクタの登場、キャラク
タによるセリフ、シーンのナレーション、及びアイテムの登場のいずれかであるものとす
るが、これに限らず、シーンに含めうる任意のイベントであってよい。例えば、BGMの
設定などをイベントとして追加するようにしてもよい。イベントの設定とは、当該シーン
におけるイベントの具体的な内容を設定することであり、例えば、キャラクタの登場の場
合、登場させるキャラクタの選択やキャラクタを登場させる位置の選択などがあり、セリ
フの場合、セリフの内容の入力やセリフの吹き出しの形状の選択などがあり、ナレーショ
ンの場合、ナレーションの内容の入力やナレーションを文字列として表示する枠の選択な
どがあり、アイテムの条等の場合、登場させるアイテムの選択やアイテムが登場する位置
の選択などがある。ストーリー受付部113は、イベントの選択及び設定を繰り返した後
、シーンにおいてイベントが発生するように設定したシーン情報を作成する(S204)
。
The
..
以上のようにして、ストーリー受付部113は、シーン情報を作成することができる。
なお、ストーリー受付部113は、一連のシーン情報を作成することにより、最終的にス
トーリーを作成することができる。
As described above, the
The
図6は、シーン制作処理の一例を示す図である。なお、図6乃至図11の例ではスマー
トフォンを用いてシーン制作を行うことを想定しているが、これに限らず、パーソナルコ
ンピュータによりシーン制作を行うことも可能である。図6乃至図11に示す例は、スト
ーリー受付部113が使用者端末2を使用している使用者とのインタラクションにより行
われうる。
FIG. 6 is a diagram showing an example of a scene production process. In the examples of FIGS. 6 to 11, it is assumed that the scene is created using a smartphone, but the scene is not limited to this, and it is also possible to create a scene using a personal computer. The example shown in FIGS. 6 to 11 can be performed by the
空のシーン(画面311)から、背景3121を設定し(画面312)、キャラクタ3
131を配置し(画面313)、配置したキャラクタ3131のセリフ3141を設定し
(画面314)、あるいは、シーンのナレーション3151を配置することができる(画
面315)。
From the empty scene (screen 311), set the background 3121 (screen 312) and
131 can be placed (screen 313), the
また、新たなキャラクタ3161をシーンに登場させることができる(画面316)。
ここでシーンに登場済みのキャラクタ
の表示は、新規に登場したキャラクタ3161の表示よりも薄く(新規のキャラクタ31
61を登場済みのキャラクタ3131よりも濃く)表示することで、視認性を向上するこ
とができる。そして、新たなキャラクタ3161についても、発するセリフ3171を配
置することができる(画面317)。なお、ここでナレーションを配置することもできる
し、セリフやナレーションを挿入せずに、さらなるキャラクタやアイテム等を登場させる
こともできる。
In addition, a
Here, the display of the characters that have already appeared in the scene is thinner than the display of the newly appeared character 3161 (new character 31).
Visibility can be improved by displaying 61 (darker than the
さらに、新しいキャラクタ3181を配置して(画面318)、そのキャラクタ318
1のセリフ3191を設定することができる(画面319)。画面319の例では、画面
314の例とは異なる吹き出しの形状がセリフ3191に設定されている。
Further, a
1
以上のように、シーンの時系列にそって順番に発生するイベント(キャラクタの登場、
キャラクタによるセリフの発話、ナレーションの配置、アイテムの登場など)を設定して
いくことで、一連のイベントをシーンとして制作することができる。
As described above, the events that occur in order along the time series of the scene (character appearance,
A series of events can be created as a scene by setting the utterance of lines by the character, the arrangement of narration, the appearance of items, etc.).
図7は、背景の配置処理を説明する図である。ストーリー受付部113は、トップペー
ジ311において背景部3111がタップされると、コンテンツ素材記憶部120から背
景のコンテンツ素材を読み出して、そのサムネイルの一覧3211を表示することができ
る(画面321)。ストーリー受付部113は、サムネイルの一覧3211から背景32
12の選択を受け付けるとともに、その背景3212を加工することもできる(画面32
2)。図7の例では、選択された背景3212について、朝焼けあるいは夕焼け(朝夕)
の色味となるような画像処理が行われている。なお、ストーリー受付部113は、画像の
加工を行わなくてもよいし、色味の変更に代えてまたは色味の変更に加えて、任意の画像
処理を行うようにしてもよい。ストーリー受付部113は、このようにして選択及び加工
された背景3121をシーンの背景として設定することができる(画面312)。
FIG. 7 is a diagram illustrating a background arrangement process. When the
It is possible to accept the selection of 12 and process the background 3212 (screen 32).
2). In the example of FIG. 7, for the selected
Image processing is performed so as to obtain the color of. The
図8は、キャラクタの配置処理(初めてシーンに登場する場合)を説明する図である。
ストーリー受付部113は、イベントの選択ツール40から、キャラクタの登場を指示す
るボタン41が押下されると、キャラクタの配置処理を行うことができる。ストーリー受
付部113は、コンテンツ素材記憶部120からキャラクタのコンテンツ素材を読み出し
てその一覧3311を表示することができる(画面331)。ストーリー受付部113は
、サムネイルの一覧3311からキャラクタ3312の選択を受け付けることができる。
また、ストーリー受付部113は、選択されたキャラクタ3312について、衣装を設定
し(画面333)、髪の色を設定することができる(画面333)。さらに、ストーリー
受付部113は、キャラクタの名前を設定し(画面334)、キャラクタの表情を設定す
ることができる(画面335)。また、ストーリー受付部113は、シーンにおけるキャ
ラクタの立ち位置を設定することができる(画面336)。立ち位置は、シーンに登場可
能なキャラクタ又はアイテムの数の上限値(図8の例では3)までのスロットを表示し、
そのスロットを選択させることにより受け付けることができる。図8の例では、画面33
6には、左右並びに中央の3つの立ち位置のスロットが表示され、使用者はこれらのスロ
ットの1つを選択することができる。ストーリー受付部113は、このようにして設定し
たキャラクタ3131を、指定された立ち位置に登場するものとしてシーンを設定するこ
とができる。
FIG. 8 is a diagram illustrating a character placement process (when the character appears in the scene for the first time).
The
Further, the
It can be accepted by letting the slot be selected. In the example of FIG. 8, the screen 33
6 has three standing slots on the left, right, and center, and the user can select one of these slots. The
図9は、キャラクタの配置処理(シーンに再登場する場合)を説明する図である。本実
施形態では、キャラクタ3131の衣装及び髪の色は、同一のシーンでは変化しないもの
とする。したがって、イベントの選択ツール40からキャラクタの登場ボタン41が押下
された場合に、衣装の選択(画面332)及び髪の色の設定(画面333)を省略して、
ストーリー受付部113は、表情の選択(画面335)と立ち位置の選択(画面336)
を行うことができる。なお、衣装の変更(画面332)及び髪の色の変更(画面333)
を行うようにすることもできる。ストーリー受付部113は、キャラクタの選択画面33
1において、過去に設定したキャラクタ3131を一覧表示することができる。この場合
、ストーリー受付部113は、設定したキャラクタ3131に関するパラメータを、メモ
リ11やストレージ12に記録しておき、記録されているパラメータを設定したキャラク
タ3131の一覧3312を表示して選択させることができる。
FIG. 9 is a diagram illustrating a character placement process (when reappearing in the scene). In the present embodiment, the costume and hair color of the
The
It can be performed. In addition, change of costume (screen 332) and change of hair color (screen 333)
You can also try to do. The
In 1, the
なお、イベントの選択ツール40において、アイテムボタン44が押下された場合には
、キャラクタ3131と同様にして、アイテムをシーンに配置することができる。この場
合、ストーリー受付部113は、コンテンツ素材記憶部120からアイテムのコンテンツ
素材を読み出して一覧表示し(画面331)、そこからアイテムの選択を受け付けること
ができる。アイテムについては、表情の選択画面335を省略し、ストーリー受付部11
3は、アイテムの配置位置を、画面336と同様にスロットを提示することなどにより受
け付けることができる。なお、アイテムに関する各種のパラメータの設定(例えば、アイ
テムの色、形状、状態の変化など)を表情選択と同様にして受け付けるようにしてもよい
。
When the
3 can accept the arrangement position of the item by presenting the slot in the same manner as the
図10は、セリフの配置処理を説明する図である。キャラクタ3131が配置され(画
面313)、イベントの選択ツール40からセリフボタン42が押下されると、ストーリ
ー受付部113は、セリフの吹き出しの位置(図10の例では、吹き出しの吹き出し元の
位置、すなわち、セリフを発するキャラクタ3131の立ち位置)の選択を受け付ける(
画面351)。セリフの吹き出しの位置は、上述したキャラクタ3131を配置する位置
を設定するスロットを表示し、スロットを選択させることにより受け付けることができる
。ストーリー受付部113は、セリフの内容(テキスト)の入力を受け付けることができ
る(画面352)。また、ストーリー受付部113は、吹き出しの形状の指定を受け付け
ることもできる(画面353)。以上のようにして、ストーリー受付部113は、配置し
たキャラクタ3131のセリフ3141を設定することができる。
FIG. 10 is a diagram illustrating a dialogue arrangement process. When the
Screen 351). The position of the speech balloon can be accepted by displaying the slot for setting the position for arranging the
図11は、ナレーション(テキスト)の配置処理を説明する図である。図11の例では
、キャラクタ3131のセリフ3141の設定後の画面314からの画面遷移を説明して
いるが、イベントの選択ツール40が表示されている任意の画面からナレーションを設定
することができる。イベントの選択ツール40のテキストボタン43が押下されると、ス
トーリー受付部113は、ナレーションの内容を示すテキストの入力を受け付けることが
できる(画面361)。また、ストーリー受付部113は、ナレーションを表示する枠組
みの形状を設定することもできる(画面362)。ストーリー受付部113は、ナレーシ
ョンの内容及び表示形状の指定を受け付けて、シーンにナレーション(テキスト)を配置
することができる。
FIG. 11 is a diagram illustrating an arrangement process of narration (text). In the example of FIG. 11, the screen transition from the
以上説明したように、本実施形態のコンテンツ作成支援システムによれば、ストーリー
を構成するシーンについて、背景を設定するとともに、時系列に沿って、キャラクタの登
場(及び/又は退場)、キャラクタからのセリフの発話、ナレーションの提示、アイテム
の登場(及び/又は退場)などのイベントを設定することができる。また、イベントに用
いるキャラクタやアイテムなどには、提供者が提要したコンテンツ素材を用いることがで
きるので、使用者は、シーンにおけるストーリーの展開を考えるだけで、容易にシーンを
制作することができる。また、このようにして設定されたシーンを用いることにより、ス
トーリーの閲覧者によるタップに応じて、設定されたイベントを発動させながら、ストー
リーを進めるようにすることができる。
As described above, according to the content creation support system of the present embodiment, the background is set for the scenes constituting the story, and the characters appear (and / or leave) and exit from the characters in chronological order. You can set events such as speaking lines, presenting narration, and appearing (and / or leaving) items. Further, since the content material proposed by the provider can be used for the characters and items used for the event, the user can easily create the scene only by considering the development of the story in the scene. Further, by using the scene set in this way, it is possible to advance the story while activating the set event in response to a tap by the viewer of the story.
また、本実施形態のコンテンツ作成支援システムによれば、シーンの制作過程において
、時系列に沿ったイベントが並んで表示されるため、制作者(使用者)がストーリー展開
を把握しやすい。
Further, according to the content creation support system of the present embodiment, since the events in chronological order are displayed side by side in the scene production process, it is easy for the creator (user) to grasp the story development.
また、本実施形態のコンテンツ作成支援システムによれば、シーンに登場し続けている
キャラクタは、新たに登場(又は再登場)したキャラクタに比べて薄く表示される。した
がって、制作者(使用者)は、新たに登場したキャラクタをイベント設定時に画面上で迅
速に判断することができる。よって、シーン制作の効率を向上することができる。
Further, according to the content creation support system of the present embodiment, the characters that continue to appear in the scene are displayed lighter than the characters that newly appear (or reappear). Therefore, the creator (user) can quickly determine the newly appearing character on the screen when setting the event. Therefore, the efficiency of scene production can be improved.
また、本実施形態のコンテンツ作成支援システムによれば、キャラクタやアイテムの登
場位置をスロットにより設定することができる。したがって、制作者(使用者)は、細か
な描画上の配置を気にすることなく、ストーリーの展開に注力することができるので、コ
ンテンツの制作効率を向上させることができる。
Further, according to the content creation support system of the present embodiment, the appearance position of a character or an item can be set by a slot. Therefore, the creator (user) can focus on the development of the story without worrying about the detailed arrangement on the drawing, so that the production efficiency of the content can be improved.
<第2実施形態>
以下、第2実施形態について説明する。第2実施形態は、第1実施形態と同様のハード
ウェア及びソフトウェアの構成とすることができる。第2実施形態では、複数のキャラク
タについて、同時にイベントを設定することができる。
<Second Embodiment>
Hereinafter, the second embodiment will be described. The second embodiment may have the same hardware and software configurations as the first embodiment. In the second embodiment, events can be set for a plurality of characters at the same time.
図12は、複数のキャラクタの配置処理を説明する図である。ストーリー受付部113
は、例えば、図8に示したように、キャラクタ3131(図12の例では「山田太郎」と
して示されている。)を配置した後(画面411)、空きスロット4111が選択された
場合に、コンテンツ素材記憶部120からキャラクタのコンテンツ素材を読み出してその
一覧を表示して(画面412)、キャラクタ3131と同時に表示する他のキャラクタの
指定を受け付けることができる。画面412においてキャラクタ4121(図12の例で
は「鈴木花子」として示されている。)が指定された場合、ストーリー受付部113は、
選択されたスロット4111の位置に、キャラクタ4121が登場することを受け付ける
ことができる(画面413)。これにより、キャラクタ3131とキャラクタ4121と
が同時にシーンに登場することになる。
FIG. 12 is a diagram illustrating an arrangement process of a plurality of characters.
For example, when the
It is possible to accept that the
図13は、シーンに登場している複数のキャラクターに対して表情を設定する処理を説
明する図である。ストーリー受付部113は、シーンに登場しているキャラクタの指定を
受け付けることができる(画面421)。図13の例では、キャラクタ3131(山田太
郎)と、キャラクタ4121(鈴木花子)とがシーンに登場していることが示されている
。画面421において、キャラクタ3131又はキャラクタ4121がタップ等されて選
択されると、ストーリー受付部113は、キャラクタの設定画面422を表示する。図1
3の例では、キャラクタ3131が選択された例が示されている。ストーリー受付部11
3は、画面422において、キャラクタに設定可能な表情のリスト4221を表示し、リ
スト4221から表情の指定を受け付けることができる。図13の例では、キャラクタ3
131について「微笑む」表情が選択されたことが示されている。同様に、同じ列(時点
)t3におけるキャラクタ4121についても、画面422により表情を設定することが
できる。ストーリー受付部113は、指定された時点t3において、指定されたキャラク
タ(図13の例では山田太郎と鈴木花子)が、それぞれ指定された表情となるように設定
を受け付けることができる。これにより、時点t3において、キャラクタ3131及び4
121は同時に表情を変更することができる。なお、ストーリー受付部131は、画面4
22において選択した表情を、画面421で選択した全てのキャラクタに対して設定する
ようにすることもできる。
FIG. 13 is a diagram illustrating a process of setting facial expressions for a plurality of characters appearing in the scene. The
In the example of 3, the example in which the
3 displays a
It is shown that the "smiling" expression was selected for 131. Similarly, the facial expression of the
121 can change the facial expression at the same time. The story reception unit 131 is displayed on the screen 4.
It is also possible to set the facial expression selected in 22 for all the characters selected on the
図14は、シーンに登場している複数のキャラクタに対して感情を表現するマークを設
定する処理を説明する図である。キャラクタ3131及びキャラクタ4121が配置され
(画面431)、いずれかのキャラクタ3131又は4121がタップされる等により選
択されると、ストーリー受付部113は、キャラクタの設定画面432を表示する。図1
4の例では、キャラクタ3131が選択された画面432の一例を示している。画面43
2において、マークを設定するためのアイコンタブ4321が選択されると、ストーリー
受付部131は、キャラクタに設定可能なマークのリスト4322を表示し、リスト43
22からマークの指定を受け付けることができる。同様に、同じ時点t4におけるキャラ
クタ4121についても、画面422によりマークを設定することができる。ストーリー
受付部113は、指定された時点t4において、指定されたキャラクタ(図14の例では
山田太郎と鈴木花子)には、それぞれ指定されたマークが添付されるように設定を受け付
けることができる。これにより、時点t4において、キャラクタ3131及び4121は
同時に感情を表現するマークを変更することができる。なお、ストーリー受付部131は
、画面422において選択したマークを、画面431で選択した全てのキャラクタに対し
て添付するようにすることもできる。
FIG. 14 is a diagram illustrating a process of setting a mark expressing emotions for a plurality of characters appearing in the scene. When the
In the example of 4, an example of the
In 2, when the
It is possible to accept the designation of the mark from 22. Similarly, a mark can be set on the
図15は、シーンに登場している複数のキャラクタを同時に退場させる処理を説明する
図である。ストーリー受付部113は、退場させる時点t5に登場しているキャラクタの
うち退場させるキャラクタの指定を受け付ける(画面441)。キャラクタがタップ等さ
れることにより選択されると、ストーリー受付部113はキャラクタの設定画面442を
表示することができる。画面442は退場ボタン4421を備えており、退場ボタン44
21が押下されると、ストーリー受付部113は、当該キャラクタを退場させることの指
示を受け付けることができる。図15の例では、キャラクタ3131について退場ボタン
4421が押下され、ストーリー受付部113は、時点t5においてキャラクタ3131
を退場させることを受け付けることができる。同様にして、ストーリー受付部113は、
他のキャラクタ4121についても、同じ時点t5において退場の指示を受け付けること
ができる。これにより、時点t5においてキャラクタ3131及びキャラクタ4121は
同時に退場するように設定することができる。なお、ストーリー受付部113は、イベン
トの選択ツール40に退場ボタンを設け、画面441において複数のキャラクタ(例えば
、キャラクタ3131及びキャラクタ4121)の指定を受け付けたうえで、退場ボタン
が押下されるなどの退場の指示を受け付けた場合に、指定されたキャラクタの全てを退場
させるように設定することもできる。
FIG. 15 is a diagram illustrating a process of simultaneously leaving a plurality of characters appearing in the scene. The
When 21 is pressed, the
Can be accepted to leave. Similarly, the
The
図16は、シーンに登場している複数のキャラクタから同時に発せられるセリフの設定
処理を説明する図である。キャラクタ3131が配置され(画面451)、イベントの選
択ツール40からセリフボタン42が押下されると、ストーリー受付部113は、セリフ
の吹き出しの位置、すなわち、セリフを発しているキャラクタの選択を受け付ける(画面
452)。図10に示した画面351との違いは、セリフを配置する直前の時点t6に登
場しているキャラクタを複数選択可能であるところである。図16の例では、キャラクタ
3131及びキャラクタ4121が選択されている。ストーリー受付部113は、セリフ
の内容(テキスト)の入力を受け付けることができる(図10の画面352と同様)。ス
トーリー受付部113は、時点t7にセリフ4511を配置するように設定することがで
きる。ここでセリフ4511は、画面452で指定された複数のキャラクタ3131及び
4121の両方から吹き出すようにすることができ、これにより、時点t7において複数
のキャラクタが同時に同じセリフを発するような指定を行うことができる。
FIG. 16 is a diagram illustrating a dialogue setting process that is simultaneously emitted from a plurality of characters appearing in the scene. When the
上述した実施の形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定
して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良
することができると共に、本発明にはその均等物が含まれることは言うまでもない。
The embodiments described above are merely examples for facilitating the understanding of the present invention, and are not intended to limit the interpretation of the present invention. It goes without saying that the present invention can be modified and improved without departing from the spirit thereof, and the present invention includes its equivalents.
例えば、本実施形態では、新たなキャラクタ3161がシーンに登場した場合に、過去
に登場済みのキャラクタ3131よりも新たに登場したキャラクタ3161を濃く表示す
るものとしたが、登場に限らず、例えば、衣装を変更した場合や、表情を変更した場合、
キャラクター3131の感情を表現するマーク(不図示。例えば、気づきを示すエクスク
ラメーションマークや、悩みを示すトルネードマークなど。)を設定した場合など、登場
済みのキャラクタ3131に変化が生じた場合に、そのような変化が生じたキャラクタ3
131について、変化が生じていないキャラクタ3131よりも濃く表示するようにする
ことができる。
For example, in the present embodiment, when a
When a change occurs in the
The 131 can be displayed darker than the
また、本実施形態では、シーンにおいて発生するイベントには、キャラクタの登場、キ
ャラクタによるセリフの発話、ナレーションの配置、アイテムの登場を取り上げたが、こ
れらに限らず、各種のイベントを設定することができる。例えば、上述したキャラクタの
衣装や表情の変更、キャラクタの感情を示すマークの設定、変更若しくは解除、キャラク
タの立ち位置(スロット)の変更、キャラクタの顔や身体の向きの変更、キャラクタの手
足の動作、背景の変更など、各種のイベントを設定することができる。
Further, in the present embodiment, the appearance of the character, the utterance of the dialogue by the character, the arrangement of the narration, and the appearance of the item are taken up as the events occurring in the scene, but the event is not limited to these, and various events can be set. can. For example, changing the character's costume and facial expression, setting, changing or canceling the mark indicating the character's emotions, changing the character's standing position (slot), changing the orientation of the character's face and body, and the movement of the character's limbs. , You can set various events such as changing the background.
1 管理サーバ
2 使用者端末
3 提供者端末
4 ネットワーク
5 閲覧者端末
111 コンテンツ素材受付部
112 コンテンツ素材提供部
113 ストーリー受付部
114 使用者要求受付部
115 シーン生成部
120 コンテンツ素材記憶部
130 ストーリー記憶部
1
Claims (7)
シーン中の複数の時点のそれぞれについて、前記シーン上で複数のキャラクタに発生さ
せるイベントの指定を受け付けるイベント指定部と、
前記シーンを出力するためのシーン情報を作成するシーン作成部と、
を備えることを特徴とするコンテンツ作成支援システム。 A system that supports the creation of content
An event specification unit that accepts the designation of events to be generated for a plurality of characters in the scene at each of a plurality of time points in the scene.
A scene creation unit that creates scene information for outputting the scene,
A content creation support system characterized by being equipped with.
前記イベント指定部は、
前記時点の指定を受け付け、
複数の表示位置の候補を表示し、
複数の前記表示位置、及び当該表示位置のそれぞれに登場させる前記キャラクタの指
定を受け付け、
前記シーン作成部は、指定された前記時点において、指定された前記表示位置に、指定
された前記キャラクタが登場するように前記シーン情報を作成すること、
を特徴とするコンテンツ作成支援システム。 The content creation support system according to claim 1.
The event designation unit is
Accepting the designation at the above time point,
Display multiple display position candidates and display
Accepts the designation of the plurality of display positions and the character to appear in each of the display positions.
The scene creation unit creates the scene information so that the designated character appears at the designated display position at the designated time point.
A content creation support system featuring.
前記イベント指定部は、
前記時点の指定を受け付け、
前記シーンに登場している複数の前記キャラクタの指定を受け付け、
前記複数のキャラクタに適用する1つの表情の指定を受け付け、
前記シーン作成部は、指定された前記時点において、指定された前記複数のキャラクタ
が、指定された前記表情になるように前記シーン情報を作成すること、
を特徴とするコンテンツ作成支援システム。 The content creation support system according to claim 1 or 2.
The event designation unit is
Accepting the designation at the above time point,
Accepting the designation of multiple characters appearing in the scene,
Accepts the designation of one facial expression to be applied to the plurality of characters,
The scene creation unit creates the scene information so that the plurality of designated characters have the designated facial expressions at the designated time point.
A content creation support system featuring.
前記イベント指定部は、
前記時点の指定を受け付け、
前記シーンに登場している複数の前記キャラクタの指定を受け付け、
前記複数のキャラクタに適用する、特定の感情を表すマークの指定を受け付け、
前記シーン作成部は、指定された前記時点において、指定された前記複数のキャラクタ
に対して、指定された前記マークを表示するように前記シーン情報を作成すること、
を特徴とするコンテンツ作成支援システム。 The content creation support system according to any one of claims 1 to 3.
The event designation unit is
Accepting the designation at the above time point,
Accepting the designation of multiple characters appearing in the scene,
Accepts the designation of a mark representing a specific emotion to be applied to the plurality of characters,
The scene creation unit creates the scene information so as to display the designated mark for the plurality of designated characters at the designated time point.
A content creation support system featuring.
前記イベント指定部は、
前記時点の指定を受け付け、
前記シーンに登場している前記キャラクタのうち、前記シーンから退場させる複数の
前記キャラクタの指定を受け付け、
前記シーン作成部は、指定された前記時点において、指定された前記複数のキャラクタ
を前記シーンから退場させるように前記シーン情報を作成すること、
を特徴とするコンテンツ作成支援システム。 The content creation support system according to any one of claims 1 to 3.
The event designation unit is
Accepting the designation at the above time point,
Among the characters appearing in the scene, the designation of a plurality of the characters to be sent off from the scene is accepted.
The scene creation unit creates the scene information so that the plurality of designated characters are sent off from the scene at the designated time point.
A content creation support system featuring.
コンピュータが、
シーン中の複数の時点のそれぞれについて、前記シーン上で複数のキャラクタに発生さ
せるイベントの指定を受け付けるステップと、
前記シーンを出力するためのシーン情報を作成するステップと、
を実行することを特徴とするコンテンツ作成支援方法。 A way to help create content
The computer
A step for accepting the designation of an event to be generated for a plurality of characters in the scene at each of a plurality of time points in the scene, and
Steps to create scene information for outputting the scene,
A content creation support method characterized by executing.
コンピュータに、
シーン中の複数の時点のそれぞれについて、前記シーン上で複数のキャラクタに発生さ
せるイベントの指定を受け付けるステップと、
前記シーンを出力するためのシーン情報を作成するステップと、
を実行させるためのプログラム。 A program to support the creation of content
On the computer
A step for accepting the designation of an event to be generated for a plurality of characters in the scene at each of a plurality of time points in the scene, and
Steps to create scene information for outputting the scene,
A program to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020131665A JP2021197120A (en) | 2020-06-16 | 2020-08-03 | Content creation support system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020103825A JP6747741B1 (en) | 2020-06-16 | 2020-06-16 | Content creation support system |
JP2020131665A JP2021197120A (en) | 2020-06-16 | 2020-08-03 | Content creation support system |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020103825A Division JP6747741B1 (en) | 2020-06-16 | 2020-06-16 | Content creation support system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021197120A true JP2021197120A (en) | 2021-12-27 |
Family
ID=72146222
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020103825A Active JP6747741B1 (en) | 2020-06-16 | 2020-06-16 | Content creation support system |
JP2020131665A Pending JP2021197120A (en) | 2020-06-16 | 2020-08-03 | Content creation support system |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020103825A Active JP6747741B1 (en) | 2020-06-16 | 2020-06-16 | Content creation support system |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP6747741B1 (en) |
-
2020
- 2020-06-16 JP JP2020103825A patent/JP6747741B1/en active Active
- 2020-08-03 JP JP2020131665A patent/JP2021197120A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP6747741B1 (en) | 2020-08-26 |
JP2021196952A (en) | 2021-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021157595A1 (en) | Content creation assistance system | |
KR102490421B1 (en) | Systems, devices, and methods for dynamically providing user interface controls at a touch-sensitive secondary display | |
CN106502638B (en) | For providing the equipment, method and graphic user interface of audiovisual feedback | |
US20180095734A1 (en) | System and method for creating a universally compatible application development system | |
JP6482578B2 (en) | Column interface for navigating in the user interface | |
CN101076166B (en) | Device having display buttons and display method and medium for the device | |
CN112230909B (en) | Method, device, equipment and storage medium for binding data of applet | |
JP2004198872A (en) | Terminal device and server | |
CN112188266A (en) | Video generation method and device and electronic equipment | |
WO2017219967A1 (en) | Virtual keyboard generation method and apparatus | |
US11556967B2 (en) | Reduced bias submission review system | |
JP2013089195A (en) | Viewer device, server device, display control method, electronic comic editing method and program | |
KR20240051898A (en) | Method and device for providing color fonts | |
JP2024050636A (en) | Content recommendation method and user terminal | |
KR101809601B1 (en) | Apparatus and method for producing animation | |
JP6815054B1 (en) | Content creation support system | |
JP2021197120A (en) | Content creation support system | |
KR102613143B1 (en) | Text-to-video production methods, devices, facilities and media | |
JP2021125235A (en) | Content creation support system | |
CN111291256A (en) | Personalized homepage generation method, device, electronic device and storage medium | |
CN113362802A (en) | Voice generation method and device and electronic equipment | |
JP6964918B1 (en) | Content creation support system, content creation support method and program | |
JP5785341B1 (en) | Game system control method, game system, and computer program | |
JP7282444B1 (en) | Program, information processing device, information processing system, information processing method | |
Chown et al. | Software and Metaphors |