JP6747741B1 - Content creation support system - Google Patents

Content creation support system Download PDF

Info

Publication number
JP6747741B1
JP6747741B1 JP2020103825A JP2020103825A JP6747741B1 JP 6747741 B1 JP6747741 B1 JP 6747741B1 JP 2020103825 A JP2020103825 A JP 2020103825A JP 2020103825 A JP2020103825 A JP 2020103825A JP 6747741 B1 JP6747741 B1 JP 6747741B1
Authority
JP
Japan
Prior art keywords
scene
designation
characters
event
specified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020103825A
Other languages
Japanese (ja)
Other versions
JP2021196952A (en
Inventor
彰二 遠藤
彰二 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Type Bee Inc
Original Assignee
Type Bee Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Type Bee Inc filed Critical Type Bee Inc
Priority to JP2020103825A priority Critical patent/JP6747741B1/en
Priority to JP2020131665A priority patent/JP2021197120A/en
Application granted granted Critical
Publication of JP6747741B1 publication Critical patent/JP6747741B1/en
Publication of JP2021196952A publication Critical patent/JP2021196952A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】コンテンツを容易に作成することができるようにする。【解決手段】コンテンツの作成を支援するシステムであって、シーン中の複数の時点のそれぞれについて、シーン上で複数のキャラクタに発生させるイベントの指定を受け付けるイベント指定部と、シーンを出力するためのシーン情報を作成するシーン作成部と、を備えることを特徴とする。【選択図】図3PROBLEM TO BE SOLVED: To easily create contents. Kind Code: A1 A system for supporting the creation of content, for outputting a scene, and an event designating unit that receives designation of an event to be generated in a plurality of characters in a scene at each of a plurality of time points in the scene. And a scene creation unit that creates scene information. [Selection diagram] Fig. 3

Description

本発明はコンテンツ作成支援システムに関する。 The present invention relates to a content creation support system.

近年、ネット上で小説や漫画を配信するサービスが提供されている。 In recent years, services for distributing novels and comics on the Internet have been provided.

特許文献1には、連載小説をネット配信する連載作品配信装置が開示されている。 Patent Document 1 discloses a serial work distribution device that distributes serial novels online.

特開2011−227596号公報JP, 2011-227596, A

しかしながら、小説や漫画などのコンテンツを作成するには手間がかかる。 However, creating content such as novels and comics is time-consuming.

本発明はこのような背景を鑑みてなされたものであり、コンテンツを容易に作成することのできる技術を提供することを目的とする。 The present invention has been made in view of such a background, and an object thereof is to provide a technique capable of easily creating contents.

上記課題を解決するための本発明の主たる発明は、コンテンツの作成を支援するシステムであって、シーン中の複数の時点のそれぞれについて、前記シーン上で複数のキャラクタに発生させるイベントの指定を受け付けるイベント指定部と、前記シーンを出力するためのシーン情報を作成するシーン作成部と、を備えることを特徴とする。 A main invention of the present invention for solving the above-mentioned problem is a system for supporting the creation of contents, and accepts designation of an event to be generated in a plurality of characters in a scene for each of a plurality of time points in the scene. An event designating unit and a scene creating unit for creating scene information for outputting the scene are provided.

本発明によれば、コンテンツを容易に作成することができる。 According to the present invention, contents can be easily created.

本実施形態に係るコンテンツ作成支援システムによって制作することができる小説の一例を示す図である。It is a figure which shows an example of the novel which can be produced by the content production assistance system which concerns on this embodiment. 本実施形態のコンテンツ作成支援システムの全体構成例を示す図である。It is a figure showing an example of whole composition of a contents creation support system of this embodiment. 管理サーバ1のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the management server 1. 管理サーバ1のソフトウェア構成例を示す図である。3 is a diagram showing a software configuration example of a management server 1. FIG. シーン制作処理の流れを説明する図である。It is a figure explaining the flow of a scene production process. シーン制作処理の一例を示す図である。It is a figure which shows an example of a scene production process. 背景の配置処理を説明する図である。It is a figure explaining the arrangement process of a background. キャラクターの配置処理(初めてシーンに登場する場合)を説明する図である。It is a figure explaining a character arrangement process (when it appears in a scene for the first time). キャラクターの配置処理(シーンに再登場する場合)を説明する図である。It is a figure explaining arrangement processing of a character (when it reappears in a scene). セリフの配置処理を説明する図である。It is a figure explaining arrangement processing of a serif. ナレーション(テキスト)の配置処理を説明する図である。It is a figure explaining arrangement processing of narration (text). 複数のキャラクタの配置処理を説明する図である。It is a figure explaining arrangement processing of a plurality of characters. シーンに登場している複数のキャラクターに対して表情を設定する処理を説明する図である。It is a figure explaining the process which sets a facial expression with respect to the some character which has appeared in the scene. シーンに登場している複数のキャラクターに対して感情を表現するマークを設定する処理を説明する図である。It is a figure explaining the process which sets the mark which expresses emotion with respect to the some character which has appeared in the scene. シーンに登場している複数のキャラクタを同時に退場させる処理を説明する図である。It is a figure explaining the process which leaves a plurality of characters which have appeared in the scene simultaneously. シーンに登場している複数のキャラクタから同時に発せられるセリフの設定処理を説明する図である。It is a figure explaining the setting process of the dialog which is simultaneously emitted from the plurality of characters appearing in the scene.

<発明の概要>
本発明の実施形態の内容を列記して説明する。本発明は、たとえば、以下のような構成を備える。
[項目1]
コンテンツの作成を支援するシステムであって、
シーン中の複数の時点のそれぞれについて、前記シーン上で複数のキャラクタに発生させるイベントの指定を受け付けるイベント指定部と、
前記シーンを出力するためのシーン情報を作成するシーン作成部と、
を備えることを特徴とするコンテンツ作成支援システム。
[項目2]
項目1に記載のコンテンツ作成支援システムであって、
前記イベント指定部は、
前記時点の指定を受け付け、
複数の表示位置の候補を表示し、
複数の前記表示位置、及び当該表示位置のそれぞれに登場させる前記キャラクタの指定を受け付け、
前記シーン作成部は、指定された前記時点において、指定された前記表示位置に、指定された前記キャラクタが登場するように前記シーン情報を作成すること、
を特徴とするコンテンツ作成支援システム。
[項目3]
項目1又は2に記載のコンテンツ作成支援システムであって、
前記イベント指定部は、
前記時点の指定を受け付け、
前記シーンに登場している複数の前記キャラクタの指定を受け付け、
前記複数のキャラクタに適用する1つの表情の指定を受け付け、
前記シーン作成部は、指定された前記時点において、指定された前記複数のキャラクタが、指定された前記表情になるように前記シーン情報を作成すること、
を特徴とするコンテンツ作成支援システム。
[項目4]
項目1乃至3のいずれか1項に記載のコンテンツ作成支援システムであって、
前記イベント指定部は、
前記時点の指定を受け付け、
前記シーンに登場している複数の前記キャラクタの指定を受け付け、
前記複数のキャラクタに適用する、特定の感情を表すマークの指定を受け付け、
前記シーン作成部は、指定された前記時点において、指定された前記複数のキャラクタに対して、指定された前記マークを表示するように前記シーン情報を作成すること、
を特徴とするコンテンツ作成支援システム。
[項目5]
項目1乃至3のいずれか1項に記載のコンテンツ作成支援システムであって、
前記イベント指定部は、
前記時点の指定を受け付け、
前記シーンに登場している前記キャラクタのうち、前記シーンから退場させる複数の前記キャラクタの指定を受け付け、
前記シーン作成部は、指定された前記時点において、指定された前記複数のキャラクタを前記シーンから退場させるように前記シーン情報を作成すること、
を特徴とするコンテンツ作成支援システム。
[項目6]
コンテンツの作成を支援する方法であって、
コンピュータが、
シーン中の複数の時点のそれぞれについて、前記シーン上で複数のキャラクタに発生させるイベントの指定を受け付けるステップと、
前記シーンを出力するためのシーン情報を作成するステップと、
を実行することを特徴とするコンテンツ作成支援方法。
[項目7]
コンテンツの作成を支援するためのプログラムであって、
コンピュータに、
シーン中の複数の時点のそれぞれについて、前記シーン上で複数のキャラクタに発生させるイベントの指定を受け付けるステップと、
前記シーンを出力するためのシーン情報を作成するステップと、
を実行させるためのプログラム。
<Outline of the invention>
The contents of the embodiments of the present invention will be listed and described. The present invention has the following configurations, for example.
[Item 1]
A system that supports the creation of content,
For each of a plurality of time points in the scene, an event designation unit that receives designation of an event to be generated in a plurality of characters in the scene,
A scene creation unit that creates scene information for outputting the scene,
A content creation support system comprising:
[Item 2]
The content creation support system according to item 1,
The event designation section is
Accept the designation of the time point,
Display multiple display position candidates,
A plurality of display positions, and accept the designation of the character to appear in each of the display position,
The scene creation unit creates the scene information such that the specified character appears at the specified display position at the specified time point,
Content creation support system.
[Item 3]
The content creation support system according to item 1 or 2,
The event designation section is
Accept the designation of the time point,
Accept the designation of multiple characters appearing in the scene,
Accepts the designation of one facial expression applied to the plurality of characters,
The scene creation unit creates the scene information such that the designated characters at the designated time point have the designated facial expression;
Content creation support system.
[Item 4]
The content creation support system according to any one of Items 1 to 3,
The event designation section is
Accept the designation of the time point,
Accept the designation of multiple characters appearing in the scene,
Accepts the designation of marks that represent specific emotions applied to the multiple characters,
The scene creation unit creates the scene information so as to display the specified mark on the specified characters at the specified time point,
Content creation support system.
[Item 5]
The content creation support system according to any one of Items 1 to 3,
The event designation section is
Accept the designation of the time point,
Of the characters appearing in the scene, accepts designation of a plurality of the characters to be exited from the scene,
The scene creation unit creates the scene information so that the specified characters are ejected from the scene at the specified time.
Content creation support system.
[Item 6]
A method to help create content,
Computer
For each of a plurality of time points in the scene, receiving a designation of an event to be generated in a plurality of characters in the scene,
Creating scene information for outputting the scene,
A content creation support method characterized by executing the following.
[Item 7]
A program to support the creation of content,
On the computer,
For each of a plurality of time points in the scene, receiving a designation of an event to be generated in a plurality of characters in the scene,
Creating scene information for outputting the scene,
A program to execute.

以下、本発明の一実施形態について、図面を参照しながら説明する。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

<第1実施形態>
第1実施形態に係るコンテンツ作成支援システムは、提供者(クリエイター)が制作した背景やキャラクタ等のコンテンツ素材を利用して、使用者(ライター)が小説や漫画などのストーリー(コンテンツ)を制作するストーリー制作支援プラットフォームである。
<First Embodiment>
In the content creation support system according to the first embodiment, a user (writer) creates a story (content) such as a novel or manga by using content materials such as backgrounds and characters created by a provider (creator). It is a story production support platform.

ストーリーは、例えば小説や漫画、絵本、ゲーム、ドラマ、アニメ、戯曲、映画等が含まれる。図1は、第1実施形態に係るコンテンツ作成支援システムによって制作することができる小説の一例を示す図である。本例は、複数の背景画像やキャラクタ画像とともに、セリフが次々と表示され、クリックやタッチスクリーンへのタップ等の入力操作によってストーリーを読み進めることができるものである。 The story includes, for example, a novel, a manga, a picture book, a game, a drama, an animation, a drama, a movie, and the like. FIG. 1 is a diagram showing an example of a novel that can be produced by the content creation support system according to the first embodiment. In this example, dialogues are displayed one after another along with a plurality of background images and character images, and the story can be read by an input operation such as clicking or tapping on the touch screen.

<構成>
図2は、第1実施形態のコンテンツ作成支援システムの全体構成例を示す図である。コンテンツ作成支援システムは、管理サーバ1、使用者端末2、提供者端末3、ネットワーク4、閲覧者端末5を備える。サーバ1は、ネットワーク4を介して使用者端末2、提供者端末3、閲覧者端末5に接続される。また、端末2、3、5の具体的な機器は、携帯電話、スマートフォン、タブレットコンピュータ、パーソナルコンピュータ等のコンピュータである。ストーリーを制作するライターは使用者端末2、コンテンツ素材を提供するクリエイターは提供者端末3を操作して管理サーバ1にアクセスし、ストーリー制作支援プラットフォームを利用する。
<Structure>
FIG. 2 is a diagram showing an example of the overall configuration of the content creation support system of the first embodiment. The content creation support system includes a management server 1, a user terminal 2, a provider terminal 3, a network 4, and a viewer terminal 5. The server 1 is connected to the user terminal 2, the provider terminal 3, and the viewer terminal 5 via the network 4. The specific devices of the terminals 2, 3, 5 are computers such as mobile phones, smartphones, tablet computers, and personal computers. The writer who creates the story operates the user terminal 2 and the creator who provides the content material operates the provider terminal 3 to access the management server 1 and use the story creation support platform.

<ハードウェア構成>
図3は、管理サーバ1のハードウェア構成例を示す図である。管理サーバ1は、使用者端末2及び提供者端末3と通信を介して情報処理を実行することにより、システムの一部を構成する。管理サーバ1は、例えばワークステーションやパーソナルコンピュータのような汎用コンピュータとしてもよいし、或いはクラウド・コンピューティングによって論理的に実現されてもよい。
<Hardware configuration>
FIG. 3 is a diagram illustrating a hardware configuration example of the management server 1. The management server 1 constitutes a part of the system by executing information processing via communication with the user terminal 2 and the provider terminal 3. The management server 1 may be a general-purpose computer such as a workstation or a personal computer, or may be logically realized by cloud computing.

管理サーバ1は、少なくとも、制御部10、メモリ11、ストレージ12、送受信部13、入出力部14等を備え、これらはバス15を通じて相互に電気的に接続される。 The management server 1 includes at least a control unit 10, a memory 11, a storage 12, a transmission/reception unit 13, an input/output unit 14, and the like, which are electrically connected to each other via a bus 15.

制御部10は、管理サーバ1全体の動作を制御し、各要素間におけるデータの送受信の制御、及びアプリケーションの実行に必要な情報処理等を行う演算装置である。例えば制御部10はCPU(Central Processing Unit)であり、ストレージ12に格納されメモリ11に展開されたプログラム等を実行して各情報処理を実施する。 The control unit 10 is an arithmetic unit that controls the overall operation of the management server 1, controls the transmission and reception of data between each element, and performs information processing necessary for executing applications. For example, the control unit 10 is a CPU (Central Processing Unit) and executes a program or the like stored in the storage 12 and expanded in the memory 11 to perform each information processing.

メモリ11は、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリやHDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ11は、制御部10のワークエリア等として使用され、また、管理サーバ1の起動時に実行されるBIOS(Basic Input / Output System)、及び各種設定情報等を格納する。 The memory 11 includes a main memory configured by a volatile storage device such as a DRAM (Dynamic Random Access Memory) and an auxiliary storage configured by a non-volatile storage device such as a flash memory or a HDD (Hard Disc Drive). .. The memory 11 is used as a work area or the like of the control unit 10, and also stores a BIOS (Basic Input/Output System) executed when the management server 1 is started up, various setting information, and the like.

ストレージ12は、アプリケーション・プログラム等の各種プログラムを格納する。各処理に用いられるデータを格納したデータベースがストレージ12に構築されていてもよい。 The storage 12 stores various programs such as application programs. A database that stores data used for each process may be built in the storage 12.

送受信部13は、管理サーバ1をネットワーク4に接続する。なお、送受信部13は、Bluetooth(登録商標)及びBLE(Bluetooth Low Energy)の近距離通信インタフェースを備えていてもよい。 The transmitting/receiving unit 13 connects the management server 1 to the network 4. The transmission/reception unit 13 may include a short-range communication interface of Bluetooth (registered trademark) and BLE (Bluetooth Low Energy).

入出力部14は、必要に応じて使用するキーボード・マウス類等の情報入力機器、及びディスプレイ等の出力機器である。 The input/output unit 14 is an information input device such as a keyboard and a mouse used as necessary, and an output device such as a display.

バス15は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各種制御信号を伝達する。 The bus 15 is commonly connected to the above-mentioned elements and transmits, for example, an address signal, a data signal and various control signals.

図4は、管理サーバ1のソフトウェア構成例を示す図である。管理サーバ1は、コンテンツ素材受付部111、コンテンツ素材提供部112、ストーリー受付部113、使用者要求受付部114、シーン生成部115、コンテンツ素材記憶部120、ストーリー記憶部130を備える。 FIG. 4 is a diagram illustrating a software configuration example of the management server 1. The management server 1 includes a content material reception unit 111, a content material provision unit 112, a story reception unit 113, a user request reception unit 114, a scene generation unit 115, a content material storage unit 120, and a story storage unit 130.

なお、コンテンツ素材受付部111、コンテンツ素材提供部112、ストーリー受付部113、使用者要求受付部114、シーン生成部115は、管理サーバ1が備える制御部10がストレージ12に記憶されているプログラムをメモリ11に読み出して実行することにより実現され、コンテンツ素材記憶部120、ストーリー記憶部130は、メモリ11及びストレージ12の少なくともいずれかにより提供される記憶領域の一部として実現される。 The content material accepting unit 111, the content material providing unit 112, the story accepting unit 113, the user request accepting unit 114, and the scene generating unit 115 execute the programs stored in the storage 12 by the control unit 10 of the management server 1. The content material storage unit 120 and the story storage unit 130 are realized by being read out to the memory 11 and executed, and are realized as a part of a storage area provided by at least one of the memory 11 and the storage 12.

コンテンツ素材受付部111は、提供者端末3からコンテンツ素材の提供を受ける。コンテンツ素材とは、ストーリーの制作に使用され得る画像、動画、音、テキスト、記号、アイコン等のデータである。ストーリーにおいて背景、キャラクタ、アイテム、スチル、BGM、効果音、音声、テキスト、記号、アイコン等として使用されるが、これらに限定されない。提供者は、提供者端末3により、自身で制作、入手したコンテンツ素材を提供することができる。 The content material reception unit 111 receives the provision of content material from the provider terminal 3. The content material is data such as an image, a moving image, a sound, a text, a symbol, and an icon that can be used for producing a story. It is used as a background, character, item, still, BGM, sound effect, voice, text, symbol, icon, etc. in a story, but is not limited to these. The provider can use the provider terminal 3 to provide the content material created and obtained by itself.

コンテンツ素材受付部111は、提供されたコンテンツ素材データをコンテンツ素材記憶部120に格納する。コンテンツ素材提供部112は、使用者端末2からの要請に応じてコンテンツ素材を使用者端末2に対して提供する。 The content material reception unit 111 stores the provided content material data in the content material storage unit 120. The content material providing unit 112 provides the content material to the user terminal 2 in response to the request from the user terminal 2.

ストーリー受付部113は、ストーリーを受け付ける。第1実施形態では、ストーリー受付部113は、ストーリーを構成するシーンの制作を1回以上行うことによりストーリーを制作することができる。ストーリー受付部113は、背景や登場するキャラクタ、シーンに登場するオブジェクト(物や動物など)などのコンテンツ素材の指定を受け付け、また、キャラクタが発するセリフやシーンに流れるナレーションなどの入力を受け付け、これらを含むシーン情報(シーンを表す情報)を作成することができる。ストーリー受付部113は、コンテンツ素材記憶部120に登録されているコンテンツ素材を提示して、その中から選択を受け付けるようにしてもよいし、使用者からコンテンツ素材の入力を受け付けるようにしてもよい。また、ストーリー受付部113は、複数のシーンが連続したものとしてストーリーを制作することができる。すなわち、ストーリー受付部113は、複数のシーン情報を含むストーリー情報(ストーリーを表す情報)を作成することができる。 The story reception unit 113 receives a story. In the first embodiment, the story accepting unit 113 can produce a story by producing the scenes that make up the story one or more times. The story acceptance unit 113 accepts designation of content materials such as backgrounds, characters that appear, objects (objects, animals, etc.) that appear in the scene, and also accepts inputs such as dialogues issued by the character and narration flowing in the scene. It is possible to create scene information (information representing a scene) that includes the. The story acceptance unit 113 may present the content material registered in the content material storage unit 120 and accept the selection from the content material, or may accept the input of the content material from the user. .. In addition, the story accepting unit 113 can produce a story as a plurality of consecutive scenes. That is, the story accepting unit 113 can create story information including a plurality of pieces of scene information (information representing a story).

使用者要求受付部114は、使用者からストーリーを保存する旨の入力を受け付ける。使用者要求受付部114は、使用者からの入力に応じて、ストーリーをストーリー記憶部130に登録することができる。 The user request receiving unit 114 receives an input from the user to the effect that the story will be saved. The user request receiving unit 114 can register the story in the story storage unit 130 according to an input from the user.

シーン生成部115は、シーンを生成する。シーン生成部115は、使用者が選択したコンテンツ素材をコンテンツ素材記憶部120から呼び出し、また、使用者が入力したテキスト等と関連付けることによってシーンを生成することができる。また、シーン生成部115は、使用者から受信したコンテンツ素材データを使ってシーンを作成することもできる。例えば、各コンテンツ素材及びテキストの表示位置や、閲覧時の表示順、タイミング等の設定情報を付与することができる。ストーリーは、一以上のコンテンツ素材及びテキストデータで構成される最小単位であるシーンと、任意の数のシーンで構成されるエピソードによって構成されてもよいが、これに限られない。 The scene generation unit 115 generates a scene. The scene generation unit 115 can generate a scene by calling the content material selected by the user from the content material storage unit 120 and associating it with the text or the like input by the user. The scene generation unit 115 can also create a scene using the content material data received from the user. For example, setting information such as the display position of each content material and text, the display order at the time of browsing, and timing can be added. A story may be composed of a scene, which is a minimum unit composed of one or more content materials and text data, and an episode composed of an arbitrary number of scenes, but is not limited to this.

<ストーリー制作の流れ>
以下、ストーリー制作におけるシーンの制作処理について説明する。
<Flow of story production>
Hereinafter, a scene production process in story production will be described.

図5は、シーン制作処理の流れを説明する図である。 FIG. 5 is a diagram for explaining the flow of the scene production processing.

ストーリー受付部113は、背景の指定を受け付け(S201)、シーン制作終了の指示を受けるまで、イベントの選択を受け付け(S202)、受け付けたインベントの設定を行う(S203)。本実施形態において、イベントとは、キャラクタの登場、キャラクタによるセリフ、シーンのナレーション、及びアイテムの登場のいずれかであるものとするが、これに限らず、シーンに含めうる任意のイベントであってよい。例えば、BGMの設定などをイベントとして追加するようにしてもよい。イベントの設定とは、当該シーンにおけるイベントの具体的な内容を設定することであり、例えば、キャラクタの登場の場合、登場させるキャラクタの選択やキャラクタを登場させる位置の選択などがあり、セリフの場合、セリフの内容の入力やセリフの吹き出しの形状の選択などがあり、ナレーションの場合、ナレーションの内容の入力やナレーションを文字列として表示する枠の選択などがあり、アイテムの条等の場合、登場させるアイテムの選択やアイテムが登場する位置の選択などがある。ストーリー受付部113は、イベントの選択及び設定を繰り返した後、シーンにおいてイベントが発生するように設定したシーン情報を作成する(S204)。 The story acceptance unit 113 accepts the designation of the background (S201), accepts the selection of the event (S202), and sets the accepted event until the scene production end instruction is received (S203). In the present embodiment, the event is any one of the appearance of the character, the dialogue by the character, the narration of the scene, and the appearance of the item, but the event is not limited to this and may be any event that can be included in the scene. Good. For example, BGM settings may be added as an event. The setting of an event is to set the specific content of the event in the scene. For example, in the case of appearance of a character, there is selection of a character to appear, selection of a position in which the character appears, and in the case of dialogue. , There is input of the content of the dialogue, selection of the shape of the speech bubble of the dialogue, in the case of narration, there is input of the content of the narration and selection of a frame to display the narration as a character string, etc. There are selections of items to be made and selection of positions at which the items appear. After repeating the selection and setting of the event, the story acceptance unit 113 creates scene information set so that the event occurs in the scene (S204).

以上のようにして、ストーリー受付部113は、シーン情報を作成することができる。なお、ストーリー受付部113は、一連のシーン情報を作成することにより、最終的にストーリーを作成することができる。 As described above, the story acceptance unit 113 can create scene information. The story accepting unit 113 can finally create a story by creating a series of scene information.

図6は、シーン制作処理の一例を示す図である。なお、図6乃至図11の例ではスマートフォンを用いてシーン制作を行うことを想定しているが、これに限らず、パーソナルコンピュータによりシーン制作を行うことも可能である。図6乃至図11に示す例は、ストーリー受付部113が使用者端末2を使用している使用者とのインタラクションにより行われうる。 FIG. 6 is a diagram showing an example of a scene production process. In addition, in the examples of FIGS. 6 to 11, it is assumed that a smartphone is used to create a scene, but the present invention is not limited to this, and a personal computer can also be used to create a scene. The examples illustrated in FIGS. 6 to 11 may be performed by the story accepting unit 113 interacting with the user who is using the user terminal 2.

空のシーン(画面311)から、背景3121を設定し(画面312)、キャラクタ3131を配置し(画面313)、配置したキャラクタ3131のセリフ3141を設定し(画面314)、あるいは、シーンのナレーション3151を配置することができる(画面315)。 From the empty scene (screen 311), the background 3121 is set (screen 312), the character 3131 is arranged (screen 313), and the serif 3141 of the arranged character 3131 is set (screen 314), or the scene narration 3151 is set. Can be arranged (screen 315).

また、新たなキャラクタ3161をシーンに登場させることができる(画面316)。ここでシーンに登場済みのキャラクタ
の表示は、新規に登場したキャラクタ3161の表示よりも薄く(新規のキャラクタ3161を登場済みのキャラクタ3131よりも濃く)表示することで、視認性を向上することができる。そして、新たなキャラクタ3161についても、発するセリフ3171を配置することができる(画面317)。なお、ここでナレーションを配置することもできるし、セリフやナレーションを挿入せずに、さらなるキャラクタやアイテム等を登場させることもできる。
Also, a new character 3161 can appear in the scene (screen 316). The display of the characters that have already appeared in the scene can be improved by displaying them lighter than the display of the newly-appeared character 3161 (darker than the already-appeared character 3131). it can. Then, with respect to the new character 3161, the utterance lines 3171 can be arranged (screen 317). It should be noted that narration can be arranged here, and further characters, items, etc. can be made to appear without inserting lines or narration.

さらに、新しいキャラクタ3181を配置して(画面318)、そのキャラクタ3181のセリフ3191を設定することができる(画面319)。画面319の例では、画面314の例とは異なる吹き出しの形状がセリフ3191に設定されている。 Further, a new character 3181 can be arranged (screen 318) and the dialogue 3191 of the character 3181 can be set (screen 319). In the example of the screen 319, a speech bubble shape different from that of the example of the screen 314 is set in the dialogue 3191.

以上のように、シーンの時系列にそって順番に発生するイベント(キャラクタの登場、キャラクタによるセリフの発話、ナレーションの配置、アイテムの登場など)を設定していくことで、一連のイベントをシーンとして制作することができる。 As described above, by setting the events that occur in sequence along the time series of the scene (character appearance, utterance of dialogue by character, placement of narration, appearance of item, etc.), a series of events can be created. Can be produced as.

図7は、背景の配置処理を説明する図である。ストーリー受付部113は、トップページ311において背景部3111がタップされると、コンテンツ素材記憶部120から背景のコンテンツ素材を読み出して、そのサムネイルの一覧3211を表示することができる(画面321)。ストーリー受付部113は、サムネイルの一覧3211から背景3212の選択を受け付けるとともに、その背景3212を加工することもできる(画面322)。図7の例では、選択された背景3212について、朝焼けあるいは夕焼け(朝夕)の色味となるような画像処理が行われている。なお、ストーリー受付部113は、画像の加工を行わなくてもよいし、色味の変更に代えてまたは色味の変更に加えて、任意の画像処理を行うようにしてもよい。ストーリー受付部113は、このようにして選択及び加工された背景3121をシーンの背景として設定することができる(画面312)。 FIG. 7 is a diagram for explaining the background arrangement processing. When the background portion 3111 is tapped on the top page 311, the story acceptance unit 113 can read the background content material from the content material storage unit 120 and display a thumbnail list 3211 (screen 321). The story acceptance unit 113 can accept the selection of the background 3212 from the thumbnail list 3211 and process the background 3212 (screen 322). In the example of FIG. 7, image processing is performed on the selected background 3212 so that it has a tint of sunrise or sunset (morning and evening). The story accepting unit 113 does not have to process the image, and may perform arbitrary image processing instead of or in addition to changing the tint. The story accepting unit 113 can set the background 3121 selected and processed in this way as the background of the scene (screen 312).

図8は、キャラクタの配置処理(初めてシーンに登場する場合)を説明する図である。ストーリー受付部113は、イベントの選択ツール40から、キャラクタの登場を指示するボタン41が押下されると、キャラクタの配置処理を行うことができる。ストーリー受付部113は、コンテンツ素材記憶部120からキャラクタのコンテンツ素材を読み出してその一覧3311を表示することができる(画面331)。ストーリー受付部113は、サムネイルの一覧3311からキャラクタ3312の選択を受け付けることができる。また、ストーリー受付部113は、選択されたキャラクタ3312について、衣装を設定し(画面333)、髪の色を設定することができる(画面333)。さらに、ストーリー受付部113は、キャラクタの名前を設定し(画面334)、キャラクタの表情を設定することができる(画面335)。また、ストーリー受付部113は、シーンにおけるキャラクタの立ち位置を設定することができる(画面336)。立ち位置は、シーンに登場可能なキャラクタ又はアイテムの数の上限値(図8の例では3)までのスロットを表示し、そのスロットを選択させることにより受け付けることができる。図8の例では、画面336には、左右並びに中央の3つの立ち位置のスロットが表示され、使用者はこれらのスロットの1つを選択することができる。ストーリー受付部113は、このようにして設定したキャラクタ3131を、指定された立ち位置に登場するものとしてシーンを設定することができる。 FIG. 8 is a diagram illustrating a character arrangement process (when the character appears in the scene for the first time). When the button 41 for instructing the appearance of the character is pressed from the event selection tool 40, the story acceptance unit 113 can perform the character placement process. The story acceptance unit 113 can read the content material of the character from the content material storage unit 120 and display the list 3311 (screen 331). The story accepting unit 113 can accept the selection of the character 3312 from the thumbnail list 3311. Further, the story acceptance unit 113 can set the costume (screen 333) and the hair color of the selected character 3312 (screen 333). Furthermore, the story acceptance unit 113 can set the name of the character (screen 334) and the facial expression of the character (screen 335). Further, the story acceptance unit 113 can set the standing position of the character in the scene (screen 336). The standing position can be accepted by displaying slots up to the upper limit value (3 in the example of FIG. 8) of the number of characters or items that can appear in the scene and selecting the slot. In the example of FIG. 8, the screen 336 displays slots at three standing positions on the left, right, and center, and the user can select one of these slots. The story accepting unit 113 can set the scene as if the character 3131 set in this way appears in the designated standing position.

図9は、キャラクタの配置処理(シーンに再登場する場合)を説明する図である。本実施形態では、キャラクタ3131の衣装及び髪の色は、同一のシーンでは変化しないものとする。したがって、イベントの選択ツール40からキャラクタの登場ボタン41が押下された場合に、衣装の選択(画面332)及び髪の色の設定(画面333)を省略して、ストーリー受付部113は、表情の選択(画面335)と立ち位置の選択(画面336)を行うことができる。なお、衣装の変更(画面332)及び髪の色の変更(画面333)を行うようにすることもできる。ストーリー受付部113は、キャラクタの選択画面331において、過去に設定したキャラクタ3131を一覧表示することができる。この場合、ストーリー受付部113は、設定したキャラクタ3131に関するパラメータを、メモリ11やストレージ12に記録しておき、記録されているパラメータを設定したキャラクタ3131の一覧3312を表示して選択させることができる。 FIG. 9 is a diagram illustrating a character placement process (when the character reappears in the scene). In this embodiment, it is assumed that the costume and hair color of the character 3131 do not change in the same scene. Therefore, when the character appearance button 41 is pressed from the event selection tool 40, the selection of the costume (screen 332) and the hair color setting (screen 333) are omitted, and the story accepting unit 113 displays the facial expression. Selection (screen 335) and standing position selection (screen 336) can be performed. It is also possible to change the costume (screen 332) and the hair color (screen 333). The story accepting unit 113 can display a list of previously set characters 3131 on the character selection screen 331. In this case, the story accepting unit 113 can record the parameter relating to the set character 3131 in the memory 11 or the storage 12, and display the list 3312 of the character 3131 for which the recorded parameter is set to select the parameter. ..

なお、イベントの選択ツール40において、アイテムボタン44が押下された場合には、キャラクタ3131と同様にして、アイテムをシーンに配置することができる。この場合、ストーリー受付部113は、コンテンツ素材記憶部120からアイテムのコンテンツ素材を読み出して一覧表示し(画面331)、そこからアイテムの選択を受け付けることができる。アイテムについては、表情の選択画面335を省略し、ストーリー受付部113は、アイテムの配置位置を、画面336と同様にスロットを提示することなどにより受け付けることができる。なお、アイテムに関する各種のパラメータの設定(例えば、アイテムの色、形状、状態の変化など)を表情選択と同様にして受け付けるようにしてもよい。 When the item button 44 is pressed on the event selection tool 40, the item can be arranged in the scene in the same manner as the character 3131. In this case, the story accepting unit 113 can read the content material of the item from the content material storage unit 120 and display a list (screen 331), and accept the selection of the item from the list. For the item, the facial expression selection screen 335 is omitted, and the story accepting unit 113 can accept the arrangement position of the item by presenting a slot as in the screen 336. Note that setting of various parameters related to an item (for example, change of item color, shape, state, etc.) may be received in the same manner as facial expression selection.

図10は、セリフの配置処理を説明する図である。キャラクタ3131が配置され(画面313)、イベントの選択ツール40からセリフボタン42が押下されると、ストーリー受付部113は、セリフの吹き出しの位置(図10の例では、吹き出しの吹き出し元の位置、すなわち、セリフを発するキャラクタ3131の立ち位置)の選択を受け付ける(画面351)。セリフの吹き出しの位置は、上述したキャラクタ3131を配置する位置を設定するスロットを表示し、スロットを選択させることにより受け付けることができる。ストーリー受付部113は、セリフの内容(テキスト)の入力を受け付けることができる(画面352)。また、ストーリー受付部113は、吹き出しの形状の指定を受け付けることもできる(画面353)。以上のようにして、ストーリー受付部113は、配置したキャラクタ3131のセリフ3141を設定することができる。 FIG. 10 is a diagram for explaining the dialog placement processing. When the character 3131 is placed (screen 313) and the dialogue button 42 is pressed from the event selection tool 40, the story accepting unit 113 causes the speech balloon position (in the example of FIG. 10, the balloon balloon source position, That is, the selection of the standing position of the character 3131 that emits the dialogue is accepted (screen 351). The position of the speech balloon can be accepted by displaying the slot for setting the position where the character 3131 is placed and selecting the slot. The story accepting unit 113 can accept the input of the content (text) of the dialogue (screen 352). The story acceptance unit 113 can also accept designation of the shape of the balloon (screen 353). As described above, the story acceptance unit 113 can set the dialogue 3141 of the placed character 3131.

図11は、ナレーション(テキスト)の配置処理を説明する図である。図11の例では、キャラクタ3131のセリフ3141の設定後の画面314からの画面遷移を説明しているが、イベントの選択ツール40が表示されている任意の画面からナレーションを設定することができる。イベントの選択ツール40のテキストボタン43が押下されると、ストーリー受付部113は、ナレーションの内容を示すテキストの入力を受け付けることができる(画面361)。また、ストーリー受付部113は、ナレーションを表示する枠組みの形状を設定することもできる(画面362)。ストーリー受付部113は、ナレーションの内容及び表示形状の指定を受け付けて、シーンにナレーション(テキスト)を配置することができる。 FIG. 11 is a diagram illustrating a narration (text) arrangement process. In the example of FIG. 11, the screen transition from the screen 314 after setting the dialogue 3141 of the character 3131 is described, but the narration can be set from any screen in which the event selection tool 40 is displayed. When the text button 43 of the event selection tool 40 is pressed, the story accepting unit 113 can accept the input of text indicating the content of the narration (screen 361). The story accepting unit 113 can also set the shape of the framework for displaying the narration (screen 362). The story accepting unit 113 can accept the content of the narration and the designation of the display shape and place the narration (text) in the scene.

以上説明したように、本実施形態のコンテンツ作成支援システムによれば、ストーリーを構成するシーンについて、背景を設定するとともに、時系列に沿って、キャラクタの登場(及び/又は退場)、キャラクタからのセリフの発話、ナレーションの提示、アイテムの登場(及び/又は退場)などのイベントを設定することができる。また、イベントに用いるキャラクタやアイテムなどには、提供者が提要したコンテンツ素材を用いることができるので、使用者は、シーンにおけるストーリーの展開を考えるだけで、容易にシーンを制作することができる。また、このようにして設定されたシーンを用いることにより、ストーリーの閲覧者によるタップに応じて、設定されたイベントを発動させながら、ストーリーを進めるようにすることができる。 As described above, according to the content creation support system of the present embodiment, the background is set for the scenes that make up the story, and the appearance (and/or exit) of the character and the Events such as utterances of dialogue, presentation of narration, and appearance (and/or exit) of items can be set. Further, since the content material recommended by the provider can be used for the characters and items used in the event, the user can easily create the scene only by considering the development of the story in the scene. Further, by using the scene set in this way, it is possible to advance the story while activating the set event in response to the tap by the viewer of the story.

また、本実施形態のコンテンツ作成支援システムによれば、シーンの制作過程において、時系列に沿ったイベントが並んで表示されるため、制作者(使用者)がストーリー展開を把握しやすい。 Further, according to the content creation support system of the present embodiment, in the scene production process, events are displayed side by side in a time series, so that the creator (user) can easily understand the story development.

また、本実施形態のコンテンツ作成支援システムによれば、シーンに登場し続けているキャラクタは、新たに登場(又は再登場)したキャラクタに比べて薄く表示される。したがって、制作者(使用者)は、新たに登場したキャラクタをイベント設定時に画面上で迅速に判断することができる。よって、シーン制作の効率を向上することができる。 Further, according to the content creation support system of the present embodiment, the character that continues to appear in the scene is displayed lighter than the newly appearing (or reappearing) character. Therefore, the creator (user) can quickly determine the newly appearing character on the screen when setting the event. Therefore, the efficiency of scene production can be improved.

また、本実施形態のコンテンツ作成支援システムによれば、キャラクタやアイテムの登場位置をスロットにより設定することができる。したがって、制作者(使用者)は、細かな描画上の配置を気にすることなく、ストーリーの展開に注力することができるので、コンテンツの制作効率を向上させることができる。 Further, according to the content creation support system of this embodiment, the appearance position of the character or item can be set by the slot. Therefore, the creator (user) can concentrate on the development of the story without paying attention to the detailed layout on the drawing, so that the content production efficiency can be improved.

<第2実施形態>
以下、第2実施形態について説明する。第2実施形態は、第1実施形態と同様のハードウェア及びソフトウェアの構成とすることができる。第2実施形態では、複数のキャラクタについて、同時にイベントを設定することができる。
<Second Embodiment>
The second embodiment will be described below. The second embodiment can have the same hardware and software configuration as the first embodiment. In the second embodiment, an event can be set simultaneously for a plurality of characters.

図12は、複数のキャラクタの配置処理を説明する図である。ストーリー受付部113は、例えば、図8に示したように、キャラクタ3131(図12の例では「山田太郎」として示されている。)を配置した後(画面411)、空きスロット4111が選択された場合に、コンテンツ素材記憶部120からキャラクタのコンテンツ素材を読み出してその一覧を表示して(画面412)、キャラクタ3131と同時に表示する他のキャラクタの指定を受け付けることができる。画面412においてキャラクタ4121(図12の例では「鈴木花子」として示されている。)が指定された場合、ストーリー受付部113は、選択されたスロット4111の位置に、キャラクタ4121が登場することを受け付けることができる(画面413)。これにより、キャラクタ3131とキャラクタ4121とが同時にシーンに登場することになる。 FIG. 12 is a diagram illustrating a process of arranging a plurality of characters. For example, as shown in FIG. 8, the story accepting unit 113 arranges the character 3131 (shown as “Taro Yamada” in the example of FIG. 12) (screen 411) and then the empty slot 4111 is selected. In this case, it is possible to read the content material of the character from the content material storage unit 120, display the list thereof (screen 412), and accept the designation of another character to be displayed simultaneously with the character 3131. When the character 4121 (shown as “Hanako Suzuki” in the example of FIG. 12) is designated on the screen 412, the story acceptance unit 113 confirms that the character 4121 appears at the position of the selected slot 4111. It can be accepted (screen 413). As a result, the character 3131 and the character 4121 simultaneously appear in the scene.

図13は、シーンに登場している複数のキャラクターに対して表情を設定する処理を説明する図である。ストーリー受付部113は、シーンに登場しているキャラクタの指定を受け付けることができる(画面421)。図13の例では、キャラクタ3131(山田太郎)と、キャラクタ4121(鈴木花子)とがシーンに登場していることが示されている。画面421において、キャラクタ3131又はキャラクタ4121がタップ等されて選択されると、ストーリー受付部113は、キャラクタの設定画面422を表示する。図13の例では、キャラクタ3131が選択された例が示されている。ストーリー受付部113は、画面422において、キャラクタに設定可能な表情のリスト4221を表示し、リスト4221から表情の指定を受け付けることができる。図13の例では、キャラクタ3131について「微笑む」表情が選択されたことが示されている。同様に、同じ列(時点)t3におけるキャラクタ4121についても、画面422により表情を設定することができる。ストーリー受付部113は、指定された時点t3において、指定されたキャラクタ(図13の例では山田太郎と鈴木花子)が、それぞれ指定された表情となるように設定を受け付けることができる。これにより、時点t3において、キャラクタ3131及び4121は同時に表情を変更することができる。なお、ストーリー受付部131は、画面422において選択した表情を、画面421で選択した全てのキャラクタに対して設定するようにすることもできる。 FIG. 13 is a diagram illustrating a process of setting facial expressions for a plurality of characters appearing in a scene. The story accepting unit 113 can accept the designation of the character appearing in the scene (screen 421). The example of FIG. 13 shows that the character 3131 (Taro Yamada) and the character 4121 (Hanako Suzuki) appear in the scene. When the character 3131 or the character 4121 is tapped or selected on the screen 421, the story acceptance unit 113 displays the character setting screen 422. In the example of FIG. 13, an example in which the character 3131 is selected is shown. The story accepting unit 113 can display a list 4221 of facial expressions that can be set for the character on the screen 422, and can accept designation of facial expressions from the list 4221. In the example of FIG. 13, it is shown that the “smiling” facial expression has been selected for the character 3131. Similarly, for the character 4121 in the same row (time point) t3, the facial expression can be set on the screen 422. The story accepting unit 113 can accept the setting so that the designated characters (Taro Yamada and Hanako Suzuki in the example of FIG. 13) have designated facial expressions at the designated time t3. As a result, at time t3, the characters 3131 and 4121 can change their facial expressions at the same time. The story accepting unit 131 can also set the facial expression selected on the screen 422 for all the characters selected on the screen 421.

図14は、シーンに登場している複数のキャラクタに対して感情を表現するマークを設定する処理を説明する図である。キャラクタ3131及びキャラクタ4121が配置され(画面431)、いずれかのキャラクタ3131又は4121がタップされる等により選択されると、ストーリー受付部113は、キャラクタの設定画面432を表示する。図14の例では、キャラクタ3131が選択された画面432の一例を示している。画面432において、マークを設定するためのアイコンタブ4321が選択されると、ストーリー受付部131は、キャラクタに設定可能なマークのリスト4322を表示し、リスト4322からマークの指定を受け付けることができる。同様に、同じ時点t4におけるキャラクタ4121についても、画面422によりマークを設定することができる。ストーリー受付部113は、指定された時点t4において、指定されたキャラクタ(図14の例では山田太郎と鈴木花子)には、それぞれ指定されたマークが添付されるように設定を受け付けることができる。これにより、時点t4において、キャラクタ3131及び4121は同時に感情を表現するマークを変更することができる。なお、ストーリー受付部131は、画面422において選択したマークを、画面431で選択した全てのキャラクタに対して添付するようにすることもできる。 FIG. 14 is a diagram illustrating a process of setting a mark expressing an emotion for a plurality of characters appearing in a scene. When the character 3131 and the character 4121 are arranged (screen 431) and one of the characters 3131 or 4121 is selected by tapping or the like, the story acceptance unit 113 displays the character setting screen 432. In the example of FIG. 14, an example of the screen 432 in which the character 3131 is selected is shown. When the icon tab 4321 for setting a mark is selected on the screen 432, the story accepting unit 131 can display a list 4322 of marks that can be set for the character and accept the designation of the mark from the list 4322. Similarly, for the character 4121 at the same time t4, a mark can be set on the screen 422. The story accepting unit 113 can accept the setting so that the designated characters are attached to the designated characters (Taro Yamada and Hanako Suzuki in the example of FIG. 14) at the designated time t4. As a result, at time t4, the characters 3131 and 4121 can simultaneously change the marks expressing emotions. The story accepting unit 131 can attach the mark selected on the screen 422 to all the characters selected on the screen 431.

図15は、シーンに登場している複数のキャラクタを同時に退場させる処理を説明する図である。ストーリー受付部113は、退場させる時点t5に登場しているキャラクタのうち退場させるキャラクタの指定を受け付ける(画面441)。キャラクタがタップ等されることにより選択されると、ストーリー受付部113はキャラクタの設定画面442を表示することができる。画面442は退場ボタン4421を備えており、退場ボタン4421が押下されると、ストーリー受付部113は、当該キャラクタを退場させることの指示を受け付けることができる。図15の例では、キャラクタ3131について退場ボタン4421が押下され、ストーリー受付部113は、時点t5においてキャラクタ3131を退場させることを受け付けることができる。同様にして、ストーリー受付部113は、他のキャラクタ4121についても、同じ時点t5において退場の指示を受け付けることができる。これにより、時点t5においてキャラクタ3131及びキャラクタ4121は同時に退場するように設定することができる。なお、ストーリー受付部113は、イベントの選択ツール40に退場ボタンを設け、画面441において複数のキャラクタ(例えば、キャラクタ3131及びキャラクタ4121)の指定を受け付けたうえで、退場ボタンが押下されるなどの退場の指示を受け付けた場合に、指定されたキャラクタの全てを退場させるように設定することもできる。 FIG. 15 is a diagram illustrating a process of simultaneously leaving a plurality of characters appearing in a scene. The story accepting unit 113 accepts the designation of the character to be exited among the characters appearing at the time point t5 at which he/she exits (screen 441). When the character is selected by tapping or the like, the story acceptance unit 113 can display the character setting screen 442. The screen 442 includes an exit button 4421, and when the exit button 4421 is pressed, the story accepting unit 113 can accept an instruction to exit the character. In the example of FIG. 15, the exit button 4421 for the character 3131 is pressed, and the story accepting unit 113 can accept the exit of the character 3131 at time t5. Similarly, the story accepting unit 113 can accept an instruction to leave other characters 4121 at the same time point t5. As a result, the character 3131 and the character 4121 can be set to leave at the time t5. In addition, the story accepting unit 113 provides an exit button on the event selection tool 40, accepts designation of a plurality of characters (for example, the character 3131 and the character 4121) on the screen 441, and then presses the exit button. When the exit instruction is received, all the specified characters can be set to exit.

図16は、シーンに登場している複数のキャラクタから同時に発せられるセリフの設定処理を説明する図である。キャラクタ3131が配置され(画面451)、イベントの選択ツール40からセリフボタン42が押下されると、ストーリー受付部113は、セリフの吹き出しの位置、すなわち、セリフを発しているキャラクタの選択を受け付ける(画面452)。図10に示した画面351との違いは、セリフを配置する直前の時点t6に登場しているキャラクタを複数選択可能であるところである。図16の例では、キャラクタ3131及びキャラクタ4121が選択されている。ストーリー受付部113は、セリフの内容(テキスト)の入力を受け付けることができる(図10の画面352と同様)。ストーリー受付部113は、時点t7にセリフ4511を配置するように設定することができる。ここでセリフ4511は、画面452で指定された複数のキャラクタ3131及び4121の両方から吹き出すようにすることができ、これにより、時点t7において複数のキャラクタが同時に同じセリフを発するような指定を行うことができる。 FIG. 16 is a diagram illustrating a process of setting dialogues that are simultaneously emitted from a plurality of characters appearing in a scene. When the character 3131 is arranged (screen 451) and the dialogue button 42 is pressed from the event selection tool 40, the story accepting unit 113 accepts the position of the speech balloon of the dialogue, that is, the selection of the character issuing the dialogue (( Screen 452). A difference from the screen 351 shown in FIG. 10 is that a plurality of characters appearing at time t6 immediately before arranging the dialogue can be selected. In the example of FIG. 16, the character 3131 and the character 4121 are selected. The story accepting unit 113 can accept the input of the content (text) of the dialogue (similar to the screen 352 of FIG. 10). The story accepting unit 113 can be set to place the dialogue 4511 at time t7. Here, the dialogue 4511 can be blown out from both of the plurality of characters 3131 and 4121 designated on the screen 452, so that at the time t7, the plurality of characters can simultaneously issue the same dialogue. You can

上述した実施の形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。 The above-described embodiments are merely examples for facilitating the understanding of the present invention, and are not for limiting and interpreting the present invention. It goes without saying that the present invention can be modified and improved without departing from the spirit thereof and that the present invention includes equivalents thereof.

例えば、本実施形態では、新たなキャラクタ3161がシーンに登場した場合に、過去に登場済みのキャラクタ3131よりも新たに登場したキャラクタ3161を濃く表示するものとしたが、登場に限らず、例えば、衣装を変更した場合や、表情を変更した場合、キャラクター3131の感情を表現するマーク(不図示。例えば、気づきを示すエクスクラメーションマークや、悩みを示すトルネードマークなど。)を設定した場合など、登場済みのキャラクタ3131に変化が生じた場合に、そのような変化が生じたキャラクタ3131について、変化が生じていないキャラクタ3131よりも濃く表示するようにすることができる。 For example, in the present embodiment, when a new character 3161 appears in the scene, the newly appearing character 3161 is displayed darker than the character 3131 that has already appeared in the past. When the costume is changed, the facial expression is changed, a mark expressing the emotion of the character 3131 (not shown, for example, an exclamation mark indicating awareness, a tornado mark indicating trouble, etc.) is set. When a change has occurred in the already-appeared character 3131, the character 3131 in which such a change has occurred can be displayed darker than the character 3131 in which no change has occurred.

また、本実施形態では、シーンにおいて発生するイベントには、キャラクタの登場、キャラクタによるセリフの発話、ナレーションの配置、アイテムの登場を取り上げたが、これらに限らず、各種のイベントを設定することができる。例えば、上述したキャラクタの衣装や表情の変更、キャラクタの感情を示すマークの設定、変更若しくは解除、キャラクタの立ち位置(スロット)の変更、キャラクタの顔や身体の向きの変更、キャラクタの手足の動作、背景の変更など、各種のイベントを設定することができる。 Further, in the present embodiment, as the events that occur in the scene, the appearance of the character, the utterance of the dialogue by the character, the arrangement of the narration, and the appearance of the item are taken up, but not limited to these, various events can be set. it can. For example, changing the costume and facial expression of the character, setting or changing the mark indicating the character's emotion, changing the character's standing position (slot), changing the character's face or body direction, or moving the character's limbs. You can set various events, such as changing the background.

1 管理サーバ
2 使用者端末
3 提供者端末
4 ネットワーク
5 閲覧者端末
111 コンテンツ素材受付部
112 コンテンツ素材提供部
113 ストーリー受付部
114 使用者要求受付部
115 シーン生成部
120 コンテンツ素材記憶部
130 ストーリー記憶部
1 Management Server 2 User Terminal 3 Provider Terminal 4 Network 5 Viewer Terminal 111 Content Material Receiving Section 112 Content Material Providing Section 113 Story Receiving Section 114 User Request Receiving Section 115 Scene Generation Section 120 Content Material Storage Section 130 Story Storage Section

Claims (12)

コンテンツの作成を支援するシステムであって、
シーン中の複数の時点のそれぞれについて、前記シーン上で複数のキャラクタに発生させるイベントの指定を受け付けるイベント指定部と、
前記シーンを出力するためのシーン情報を作成するシーン作成部と、
を備え
前記イベント指定部は、
前記時点の指定を受け付け、
複数の表示位置の候補を表示し、
複数の前記表示位置、及び当該表示位置のそれぞれに登場させる前記キャラクタの指定を受け付け、
前記シーン作成部は、指定された前記時点において、指定された前記表示位置に、指定された前記キャラクタが登場するように前記シーン情報を作成すること、
を特徴とするコンテンツ作成支援システム。
A system that supports the creation of content,
For each of a plurality of time points in the scene, an event designation unit that receives designation of an event to be generated in a plurality of characters in the scene,
A scene creation unit that creates scene information for outputting the scene,
Equipped with
The event designation section is
Accept the designation of the time point,
Display multiple display position candidates,
A plurality of display positions, and accept the designation of the character to appear in each of the display position,
The scene creation unit creates the scene information such that the specified character appears at the specified display position at the specified time.
Content creation support system.
コンテンツの作成を支援するシステムであって、
シーン中の複数の時点のそれぞれについて、前記シーン上で複数のキャラクタに発生させるイベントの指定を受け付けるイベント指定部と、
前記シーンを出力するためのシーン情報を作成するシーン作成部と、
を備え
前記イベント指定部は、
前記時点の指定を受け付け、
前記シーンに登場している複数の前記キャラクタの指定を受け付け、
前記複数のキャラクタに適用する1つの表情の指定を受け付け、
前記シーン作成部は、指定された前記時点において、指定された前記複数のキャラクタが、指定された前記表情になるように前記シーン情報を作成すること、
を特徴とするコンテンツ作成支援システム。
A system that supports the creation of content,
For each of a plurality of time points in the scene, an event designation unit that receives designation of an event to be generated in a plurality of characters in the scene,
A scene creation unit that creates scene information for outputting the scene,
Equipped with
The event designation section is
Accept the designation of the time point,
Accept the designation of multiple characters appearing in the scene,
Accepts the designation of one facial expression applied to the plurality of characters,
The scene creation unit creates the scene information such that the designated characters at the designated time point have the designated facial expression;
Content creation support system.
コンテンツの作成を支援するシステムであって、
シーン中の複数の時点のそれぞれについて、前記シーン上で複数のキャラクタに発生させるイベントの指定を受け付けるイベント指定部と、
前記シーンを出力するためのシーン情報を作成するシーン作成部と、
を備え
前記イベント指定部は、
前記時点の指定を受け付け、
前記シーンに登場している複数の前記キャラクタの指定を受け付け、
前記複数のキャラクタに適用する、特定の感情を表すマークの指定を受け付け、
前記シーン作成部は、指定された前記時点において、指定された前記複数のキャラクタに対して、指定された前記マークを表示するように前記シーン情報を作成すること、
を特徴とするコンテンツ作成支援システム。
A system that supports the creation of content,
For each of a plurality of time points in the scene, an event designation unit that receives designation of an event to be generated in a plurality of characters in the scene,
A scene creation unit that creates scene information for outputting the scene,
Equipped with
The event designation section is
Accept the designation of the time point,
Accept the designation of multiple characters appearing in the scene,
Accepts the designation of marks that represent specific emotions applied to the multiple characters,
The scene creation unit creates the scene information so as to display the specified mark for the specified characters at the specified time point,
Content creation support system.
コンテンツの作成を支援するシステムであって、
シーン中の複数の時点のそれぞれについて、前記シーン上で複数のキャラクタに発生させるイベントの指定を受け付けるイベント指定部と、
前記シーンを出力するためのシーン情報を作成するシーン作成部と、
を備え
前記イベント指定部は、
前記時点の指定を受け付け、
前記シーンに登場している前記キャラクタのうち、前記シーンから退場させる複数の前記キャラクタの指定を受け付け、
前記シーン作成部は、指定された前記時点において、指定された前記複数のキャラクタを前記シーンから退場させるように前記シーン情報を作成すること、
を特徴とするコンテンツ作成支援システム。
A system that supports the creation of content,
For each of a plurality of time points in the scene, an event designation unit that receives designation of an event to be generated in a plurality of characters in the scene,
A scene creation unit that creates scene information for outputting the scene,
Equipped with
The event designation section is
Accept the designation of the time point,
Of the characters appearing in the scene, accepts designation of a plurality of the characters to be exited from the scene,
The scene creation unit creates the scene information so that the specified characters are exited from the scene at the specified time.
Content creation support system.
コンテンツの作成を支援する方法であって、
コンピュータが、
シーン中の複数の時点のそれぞれについて、前記シーン上で複数のキャラクタに発生させるイベントの指定を受け付けるステップと、
前記シーンを出力するためのシーン情報を作成するステップと、
を実行し、
前記イベントの指定を受け付けるステップでは、
前記時点の指定を受け付け、
複数の表示位置の候補を表示し、
複数の前記表示位置、及び当該表示位置のそれぞれに登場させる前記キャラクタの指定を受け付け、
前記シーン情報を作成するステップでは、指定された前記時点において、指定された前記表示位置に、指定された前記キャラクタが登場するように前記シーン情報を作成すること、
を特徴とするコンテンツ作成支援方法。
A method to help create content,
Computer
For each of a plurality of time points in the scene, receiving a designation of an event to be generated in a plurality of characters in the scene,
Creating scene information for outputting the scene,
The execution,
In the step of accepting the designation of the event,
Accept the designation of the time point,
Display multiple display position candidates,
A plurality of display positions, and accept the designation of the character to appear in each of the display position,
In the step of creating the scene information, creating the scene information such that the specified character appears at the specified display position at the specified time,
Content creation support method characterized by.
コンテンツの作成を支援する方法であって、 A method to help create content,
コンピュータが、 Computer
シーン中の複数の時点のそれぞれについて、前記シーン上で複数のキャラクタに発生させるイベントの指定を受け付けるステップと、 For each of a plurality of time points in the scene, receiving a designation of an event to be generated in a plurality of characters in the scene,
前記シーンを出力するためのシーン情報を作成するステップと、 Creating scene information for outputting the scene,
を実行し、 Run
前記イベントの指定を受け付けるステップでは、 In the step of accepting the designation of the event,
前記時点の指定を受け付け、 Accept the designation of the time point,
前記シーンに登場している複数の前記キャラクタの指定を受け付け、 Accept the designation of multiple characters appearing in the scene,
前記複数のキャラクタに適用する1つの表情の指定を受け付け、 Accepts the designation of one facial expression applied to the plurality of characters,
前記シーン情報を作成するステップでは、指定された前記時点において、指定された前記複数のキャラクタが、指定された前記表情になるように前記シーン情報を作成すること、 In the step of creating the scene information, creating the scene information such that the specified characters at the specified time point have the specified expression.
を特徴とするコンテンツ作成支援方法。 Content creation support method characterized by.
コンテンツの作成を支援する方法であって、 A method to help create content,
コンピュータが、 Computer
シーン中の複数の時点のそれぞれについて、前記シーン上で複数のキャラクタに発生させるイベントの指定を受け付けるステップと、 For each of a plurality of time points in the scene, receiving a designation of an event to be generated in a plurality of characters in the scene,
前記シーンを出力するためのシーン情報を作成するステップと、 Creating scene information for outputting the scene,
を実行し、 Run
前記イベントの指定を受け付けるステップでは、 In the step of accepting the designation of the event,
前記時点の指定を受け付け、 Accept the designation of the time point,
前記シーンに登場している複数の前記キャラクタの指定を受け付け、 Accept the designation of multiple characters appearing in the scene,
前記複数のキャラクタに適用する、特定の感情を表すマークの指定を受け付け、 Accepts the designation of marks that represent specific emotions applied to the multiple characters,
前記シーン情報を作成するステップでは、指定された前記時点において、指定された前記複数のキャラクタに対して、指定された前記マークを表示するように前記シーン情報を作成すること、 In the step of creating the scene information, creating the scene information so as to display the specified mark for the specified characters at the specified time point,
を特徴とするコンテンツ作成支援方法。 Content creation support method characterized by.
コンテンツの作成を支援する方法であって、 A method to help create content,
コンピュータが、 Computer
シーン中の複数の時点のそれぞれについて、前記シーン上で複数のキャラクタに発生させるイベントの指定を受け付けるステップと、 For each of a plurality of time points in the scene, receiving a designation of an event to be generated in a plurality of characters in the scene,
前記シーンを出力するためのシーン情報を作成するステップと、 Creating scene information for outputting the scene,
を実行し、 Run
前記イベントの指定を受け付けるステップでは、 In the step of accepting the designation of the event,
前記時点の指定を受け付け、 Accept the designation of the time point,
前記シーンに登場している前記キャラクタのうち、前記シーンから退場させる複数の前記キャラクタの指定を受け付け、 Of the characters appearing in the scene, accepts designation of a plurality of the characters to be exited from the scene,
前記シーン情報を作成するステップでは、指定された前記時点において、指定された前記複数のキャラクタを前記シーンから退場させるように前記シーン情報を作成すること、 Creating the scene information, in the step of creating the scene information, creating the scene information so that the specified characters are ejected from the scene at the specified time.
を特徴とするコンテンツ作成支援方法。 Content creation support method characterized by.
コンテンツの作成を支援するためのプログラムであって、
コンピュータに、
シーン中の複数の時点のそれぞれについて、前記シーン上で複数のキャラクタに発生させるイベントの指定を受け付けるステップと、
前記シーンを出力するためのシーン情報を作成するステップと、
を実行させ
前記イベントの指定を受け付けるステップでは、
前記時点の指定を受け付けさせ、
複数の表示位置の候補を表示させ、
複数の前記表示位置、及び当該表示位置のそれぞれに登場させる前記キャラクタの指定を受け付けさせ、
前記シーン情報を作成するステップでは、指定された前記時点において、指定された前記表示位置に、指定された前記キャラクタが登場するように前記シーン情報を作成させるためのプログラム。
A program to support the creation of content,
On the computer,
For each of a plurality of time points in the scene, receiving a designation of an event to be generated in a plurality of characters in the scene,
Creating scene information for outputting the scene,
Was executed,
In the step of accepting the designation of the event,
Let the designation of the time point be accepted,
Display candidates for multiple display positions,
A plurality of display positions, and allow the designation of the character to appear at each of the display positions,
In the step of creating the scene information, a program for creating the scene information so that the specified character appears at the specified display position at the specified time .
コンテンツの作成を支援するためのプログラムであって、 A program to support the creation of content,
コンピュータに、 On the computer,
シーン中の複数の時点のそれぞれについて、前記シーン上で複数のキャラクタに発生させるイベントの指定を受け付けるステップと、 For each of a plurality of time points in the scene, receiving a designation of an event to be generated in a plurality of characters in the scene,
前記シーンを出力するためのシーン情報を作成するステップと、 Creating scene information for outputting the scene,
を実行させ、 Run
前記イベントの指定を受け付けるステップでは、 In the step of accepting the designation of the event,
前記時点の指定を受け付けさせ、 Accept the designation of the time point,
前記シーンに登場している複数の前記キャラクタの指定を受け付けさせ、 Let the specification of multiple characters appearing in the scene be accepted,
前記複数のキャラクタに適用する1つの表情の指定を受け付けさせ、 Let us accept the specification of one facial expression to be applied to the plurality of characters,
前記シーン情報を作成するステップでは、指定された前記時点において、指定された前記複数のキャラクタが、指定された前記表情になるように前記シーン情報を作成させるためのプログラム。 In the step of creating the scene information, a program for creating the scene information so that the specified characters at the specified time have the specified facial expression.
コンテンツの作成を支援するためのプログラムであって、 A program to support the creation of content,
コンピュータに、 On the computer,
シーン中の複数の時点のそれぞれについて、前記シーン上で複数のキャラクタに発生させるイベントの指定を受け付けるステップと、 For each of a plurality of time points in the scene, receiving a designation of an event to be generated in a plurality of characters in the scene,
前記シーンを出力するためのシーン情報を作成するステップと、 Creating scene information for outputting the scene,
を実行させ、 Run
前記イベントの指定を受け付けるステップでは、 In the step of accepting the designation of the event,
前記時点の指定を受け付けさせ、 Accept the designation of the time point,
前記シーンに登場している複数の前記キャラクタの指定を受け付けさせ、 Let the specification of multiple characters appearing in the scene be accepted,
前記複数のキャラクタに適用する、特定の感情を表すマークの指定を受け付けさせ、 Apply to the multiple characters, let them accept the designation of marks that represent specific emotions,
前記シーン情報を作成するステップでは、指定された前記時点において、指定された前記複数のキャラクタに対して、指定された前記マークを表示するように前記シーン情報を作成させるためのプログラム。 In the step of creating the scene information, a program for creating the scene information so that the specified characters are displayed on the specified characters at the specified time.
コンテンツの作成を支援するためのプログラムであって、 A program to support the creation of content,
コンピュータに、 On the computer,
シーン中の複数の時点のそれぞれについて、前記シーン上で複数のキャラクタに発生させるイベントの指定を受け付けるステップと、 For each of a plurality of time points in the scene, receiving a designation of an event to be generated in a plurality of characters in the scene,
前記シーンを出力するためのシーン情報を作成するステップと、 Creating scene information for outputting the scene,
を実行させ、 Run
前記イベントの指定を受け付けるステップでは、 In the step of accepting the designation of the event,
前記時点の指定を受け付けさせ、 Accept the designation of the time point,
前記シーンに登場している前記キャラクタのうち、前記シーンから退場させる複数の前記キャラクタの指定を受け付けさせ、 Of the characters appearing in the scene, allow the designation of a plurality of the characters to leave the scene,
前記シーン情報を作成するステップでは、指定された前記時点において、指定された前記複数のキャラクタを前記シーンから退場させるように前記シーン情報を作成させるためのプログラム。 In the step of creating the scene information, a program for creating the scene information so that the specified characters leave the scene at the specified time.
JP2020103825A 2020-06-16 2020-06-16 Content creation support system Active JP6747741B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020103825A JP6747741B1 (en) 2020-06-16 2020-06-16 Content creation support system
JP2020131665A JP2021197120A (en) 2020-06-16 2020-08-03 Content creation support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020103825A JP6747741B1 (en) 2020-06-16 2020-06-16 Content creation support system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020131665A Division JP2021197120A (en) 2020-06-16 2020-08-03 Content creation support system

Publications (2)

Publication Number Publication Date
JP6747741B1 true JP6747741B1 (en) 2020-08-26
JP2021196952A JP2021196952A (en) 2021-12-27

Family

ID=72146222

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020103825A Active JP6747741B1 (en) 2020-06-16 2020-06-16 Content creation support system
JP2020131665A Pending JP2021197120A (en) 2020-06-16 2020-08-03 Content creation support system

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020131665A Pending JP2021197120A (en) 2020-06-16 2020-08-03 Content creation support system

Country Status (1)

Country Link
JP (2) JP6747741B1 (en)

Also Published As

Publication number Publication date
JP2021197120A (en) 2021-12-27
JP2021196952A (en) 2021-12-27

Similar Documents

Publication Publication Date Title
WO2021157595A1 (en) Content creation assistance system
US20170168782A1 (en) System and method for creating a universally compatible application development system
US20170337841A1 (en) Interactive multimedia story creation application
CN112230909B (en) Method, device, equipment and storage medium for binding data of applet
Lal Digital design essentials: 100 ways to design better desktop, web, and mobile interfaces
US20160103608A1 (en) Virtual keyboard of a computing device to create a rich output and associated methods
CN115082602A (en) Method for generating digital human, training method, device, equipment and medium of model
KR20210156742A (en) Method and system for providing conversation with artificial intelligence character
WO2017219967A1 (en) Virtual keyboard generation method and apparatus
WO2020186837A1 (en) Text animation control method and device, storage medium and processor
JP2020529680A (en) Methods and systems for recognizing emotions during a call and leveraging the perceived emotions
CN107491311B (en) Method and system for generating page file and computer equipment
JP2024050636A (en) Content recommendation method and user device
JP6747741B1 (en) Content creation support system
CN117520490A (en) Man-machine conversation method, system and related device
JP6815054B1 (en) Content creation support system
King -Screenreaders, Magnifiers, and Other Ways of Using Computers
JP7450112B2 (en) Methods, devices, equipment, and media for producing video in text mode
CN115963963A (en) Interactive novel generation method, presentation method, device, equipment and medium
CN115167967A (en) Interaction method and related equipment
CN114924704A (en) Animation special effect display control method and device, electronic equipment and storage medium
JP2021125235A (en) Content creation support system
KR101977208B1 (en) Document editor and method using the same
Aziz et al. Inclusive Voice Interaction Techniques for Creative Object Positioning
JP6964918B1 (en) Content creation support system, content creation support method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200616

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200616

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200727

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200803

R150 Certificate of patent or registration of utility model

Ref document number: 6747741

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250