JP2023043120A - Content creation support system, content creation support method, and program - Google Patents

Content creation support system, content creation support method, and program Download PDF

Info

Publication number
JP2023043120A
JP2023043120A JP2021168133A JP2021168133A JP2023043120A JP 2023043120 A JP2023043120 A JP 2023043120A JP 2021168133 A JP2021168133 A JP 2021168133A JP 2021168133 A JP2021168133 A JP 2021168133A JP 2023043120 A JP2023043120 A JP 2023043120A
Authority
JP
Japan
Prior art keywords
timing
audio data
scene
unit
reproduction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021168133A
Other languages
Japanese (ja)
Inventor
彰二 遠藤
Shoji Endo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Type Bee Group
Type Bee Group Inc
Original Assignee
Type Bee Group
Type Bee Group Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Type Bee Group, Type Bee Group Inc filed Critical Type Bee Group
Priority to JP2021168133A priority Critical patent/JP2023043120A/en
Publication of JP2023043120A publication Critical patent/JP2023043120A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily create a content.
SOLUTION: A system for supporting creation of a content comprises: an input unit which receives designation of voice data to reproduce with a first timing in a scene; a reproduction option designation unit which receives designation of an offset time from the first timing to the reproduction of the voice data; and a scene creation unit which creates scene information for outputting the scene so as to reproduce the voice data with a second timing shifted from the first timing by the offset time.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2023,JPO&INPIT

Description

本発明は、コンテンツ作成支援システム、コンテンツ作成支援方法及びプログラムに関
する。
The present invention relates to a content creation support system, a content creation support method, and a program.

特許文献1には、連載小説をネット配信する連載作品配信装置が開示されている。 Patent Literature 1 discloses a serialized work distribution device that distributes serialized novels over the Internet.

特開2011-227596号公報JP 2011-227596 A

しかしながら、小説や漫画などのコンテンツを作成するには手間がかかる。 However, it takes time and effort to create content such as novels and comics.

本発明はこのような背景を鑑みてなされたものであり、コンテンツを容易に作成するこ
とのできる技術を提供することを目的とする。
The present invention has been made in view of such a background, and an object of the present invention is to provide a technique for easily creating content.

上記課題を解決するための本発明の主たる発明は、コンテンツの作成を支援するシステ
ムであって、シーン中の第1のタイミングに再生する音声データの指定を受け付ける入力
部と、前記第1のタイミングから前記音声データを再生するまでのオフセット時間の指定
を受け付ける再生オプション指定部と、前記第1のタイミングから前記オフセット時間だ
けシフトした第2のタイミングに前記音声データを再生するように、前記シーンを出力す
るためのシーン情報を作成するシーン作成部と、を備えることを特徴とする。
The main invention of the present invention for solving the above problems is a system for supporting content creation, comprising: an input unit for receiving designation of audio data to be reproduced at a first timing in a scene; a reproduction option designation unit for receiving a designation of an offset time from the first timing to the reproduction of the audio data; and a scene creation unit for creating scene information for output.

その他本願が開示する課題やその解決方法については、発明の実施形態の欄及び図面に
より明らかにされる。
Other problems disclosed by the present application and solutions thereof will be clarified by the section of the embodiment of the invention and the drawings.

本発明によれば、コンテンツを容易に作成することができる。 According to the present invention, content can be easily created.

第1実施形態に係るコンテンツ作成支援システムによって制作することができる小説の一例を示す図である。It is a figure which shows an example of the novel which can be produced by the content creation support system which concerns on 1st Embodiment. 本実施形態のコンテンツ作成支援システムの全体構成例を示す図である。It is a figure which shows the whole structural example of the content creation support system of this embodiment. 管理サーバ1のハードウェア構成例を示す図である。2 is a diagram showing an example hardware configuration of a management server 1; FIG. 本実施形態のコンテンツ作成支援システムのソフトウェア構成例を示す図である。It is a figure which shows the software structural example of the content creation support system of this embodiment. シーン制作処理の流れを説明する図である。FIG. 11 is a diagram for explaining the flow of scene production processing; 音声データの入力画面の一例を示す図である。It is a figure which shows an example of the input screen of audio|voice data. 録音中の画面例を示す図である。It is a figure which shows the example of a screen during recording. 音声データの再生パラメータを設定する画面例を示す図である。FIG. 10 is a diagram showing an example of a screen for setting reproduction parameters of audio data; 音声データの再生中の画面例を示す図である。FIG. 10 is a diagram showing an example of a screen during playback of audio data;

<発明の概要>
本発明の実施形態の内容を列記して説明する。本発明は、たとえば、以下のような構成
を備える。
[項目1]
コンテンツの作成を支援するシステムであって、
シーン中の第1のタイミングに再生する音声データの指定を受け付ける入力部と、
前記第1のタイミングから前記音声データを再生するまでのオフセット時間の指定を受
け付ける再生オプション指定部と、
前記第1のタイミングから前記オフセット時間だけシフトした第2のタイミングに前記
音声データを再生するように、前記シーンを出力するためのシーン情報を作成するシーン
作成部と、
を備えることを特徴とするコンテンツ作成支援システム。
[項目2]
項目1に記載のコンテンツ作成支援システムであって、
前記入力部は、マイクロフォンから音声を集音して前記音声データを作成すること、
を特徴とするコンテンツ作成支援システム。
[項目3]
項目1又は2に記載のコンテンツ作成支援システムであって、
前記再生オプション指定部は、前記音声データの再生速度の指定をさらに受け付け、
前記シーン作成部は、前記第1のタイミングから前記オフセット時間だけシフトした第
2のタイミングに前記音声データを、指定された前記再生速度に応じて再生するように、
前記シーン情報を作成すること、
を特徴とするコンテンツ作成支援システム。
[項目4]
項目1乃至3のいずれか1項に記載のコンテンツ作成支援システムであって、
前記再生オプション指定部は、作成者からの指示に応じて、前記第2のタイミングで前
記音声データを再生すること、
を特徴とするコンテンツ作成支援システム。
[項目5]
コンテンツの作成を支援する方法であって、
シーン中の第1のタイミングに再生する音声データの指定を受け付けるステップと、
前記第1のタイミングから前記音声データを再生するまでのオフセット時間の指定を受
け付けるステップと、
前記第1のタイミングから前記オフセット時間だけシフトした第2のタイミングに前記
音声データを再生するように、前記シーンを出力するためのシーン情報を作成するステッ
プと、
をコンピュータが実行することを特徴とするコンテンツ作成支援方法。
[項目6]
コンテンツの作成を支援するためのプログラムであって、
シーン中の第1のタイミングに再生する音声データの指定を受け付けるステップと、
前記第1のタイミングから前記音声データを再生するまでのオフセット時間の指定を受
け付けるステップと、
前記第1のタイミングから前記オフセット時間だけシフトした第2のタイミングに前記
音声データを再生するように、前記シーンを出力するためのシーン情報を作成するステッ
プと、
をコンピュータに実行させるためのプログラム。
<Overview of the invention>
The contents of the embodiments of the present invention are listed and explained. The present invention has, for example, the following configurations.
[Item 1]
A system for supporting the creation of content,
an input unit that receives designation of audio data to be reproduced at a first timing in a scene;
a reproduction option designation unit that receives designation of an offset time from the first timing to reproduction of the audio data;
a scene creation unit for creating scene information for outputting the scene so as to reproduce the audio data at a second timing shifted from the first timing by the offset time;
A content creation support system comprising:
[Item 2]
The content creation support system according to item 1,
The input unit collects sound from a microphone to create the sound data;
A content creation support system characterized by:
[Item 3]
The content creation support system according to item 1 or 2,
The reproduction option designation unit further receives designation of a reproduction speed of the audio data,
wherein the scene creation unit reproduces the audio data at a second timing shifted from the first timing by the offset time according to the specified reproduction speed;
creating the scene information;
A content creation support system characterized by:
[Item 4]
The content creation support system according to any one of items 1 to 3,
the reproduction option specifying unit reproduces the audio data at the second timing in accordance with an instruction from a creator;
A content creation support system characterized by:
[Item 5]
A method of assisting content creation, comprising:
a step of accepting designation of audio data to be reproduced at a first timing in the scene;
receiving a specification of an offset time from the first timing to the reproduction of the audio data;
creating scene information for outputting the scene so as to reproduce the audio data at a second timing shifted from the first timing by the offset time;
A content creation support method, characterized in that a computer executes:
[Item 6]
A program for supporting the creation of content,
a step of accepting designation of audio data to be reproduced at a first timing in the scene;
receiving a specification of an offset time from the first timing to the reproduction of the audio data;
creating scene information for outputting the scene so as to reproduce the audio data at a second timing shifted from the first timing by the offset time;
A program that causes a computer to run

<システムの概要>
以下、本発明の一実施形態について、図面を参照しながら説明する。
<Overview of the system>
An embodiment of the present invention will be described below with reference to the drawings.

本実施形態に係るコンテンツ作成支援システムは、提供者(クリエイター)が制作した
背景やキャラクタ等のコンテンツ素材を利用して、使用者(ライター)が小説や漫画など
のストーリー(コンテンツ)を制作するストーリー制作支援プラットフォームである。
The content creation support system according to the present embodiment is a story in which a user (writer) creates stories (contents) such as novels and comics using content materials such as backgrounds and characters created by a provider (creator). It is a production support platform.

ストーリーは、例えば小説や漫画、絵本、ゲーム、ドラマ、アニメ、戯曲、映画等が含
まれる。図1は、第1実施形態に係るコンテンツ作成支援システムによって制作すること
ができる小説の一例を示す図である。本例は、複数の背景画像やキャラクタ画像とともに
、セリフが次々と表示され、クリックやタッチスクリーンへのタップ等の入力操作によっ
てストーリーを読み進めることができるものである。
Stories include, for example, novels, comics, picture books, games, dramas, animations, plays, movies, and the like. FIG. 1 is a diagram showing an example of a novel that can be created by the content creation support system according to the first embodiment. In this example, lines are displayed one after another along with a plurality of background images and character images, and the story can be read by input operations such as clicking and tapping on the touch screen.

<構成>
図2は、本実施形態のコンテンツ作成支援システムの全体構成例を示す図である。コン
テンツ作成支援システムは、管理サーバ1、使用者端末2、提供者端末3、ネットワーク
4、閲覧者端末5を備える。サーバ1は、ネットワーク4を介して使用者端末2、提供者
端末3、閲覧者端末5に接続される。また、端末2、3、5の具体的な機器は、携帯電話
、スマートフォン、タブレットコンピュータ、パーソナルコンピュータ等のコンピュータ
である。ストーリーを制作するライターは使用者端末2、コンテンツ素材を提供するクリ
エイターは提供者端末3を操作して管理サーバ1にアクセスし、ストーリー制作支援プラ
ットフォームを利用する。
<Configuration>
FIG. 2 is a diagram showing an example of the overall configuration of the content creation support system of this embodiment. The content creation support system includes a management server 1 , user terminal 2 , provider terminal 3 , network 4 and viewer terminal 5 . The server 1 is connected to the user terminal 2 , the provider terminal 3 and the viewer terminal 5 via the network 4 . Further, specific devices of the terminals 2, 3, and 5 are computers such as mobile phones, smart phones, tablet computers, and personal computers. A writer who creates a story operates a user terminal 2, and a creator who provides content materials operates a provider terminal 3 to access the management server 1 and use the story creation support platform.

<ハードウェア構成>
図3は、管理サーバ1のハードウェア構成例を示す図である。管理サーバ1は、使用者
端末2及び提供者端末3と通信を介して情報処理を実行することにより、システムの一部
を構成する。管理サーバ1は、例えばワークステーションやパーソナルコンピュータのよ
うな汎用コンピュータとしてもよいし、或いはクラウド・コンピューティングによって論
理的に実現されてもよい。
<Hardware configuration>
FIG. 3 is a diagram showing a hardware configuration example of the management server 1. As shown in FIG. The management server 1 constitutes a part of the system by executing information processing through communication with the user terminal 2 and the provider terminal 3 . The management server 1 may be, for example, a general-purpose computer such as a workstation or personal computer, or may be logically realized by cloud computing.

管理サーバ1は、少なくとも、制御部10、メモリ11、ストレージ12、送受信部1
3、入出力部14等を備え、これらはバス15を通じて相互に電気的に接続される。
The management server 1 includes at least a control unit 10, a memory 11, a storage 12, a transmission/reception unit 1
3. It has an input/output unit 14 and the like, which are electrically connected to each other through a bus 15 .

制御部10は、管理サーバ1全体の動作を制御し、各要素間におけるデータの送受信の
制御、及びアプリケーションの実行に必要な情報処理等を行う演算装置である。例えば制
御部10はCPU(Central Processing Unit)であり、ストレ
ージ12に格納されメモリ11に展開されたプログラム等を実行して各情報処理を実施す
る。
The control unit 10 is an arithmetic unit that controls the overall operation of the management server 1, controls transmission and reception of data between elements, and performs information processing necessary for executing applications. For example, the control unit 10 is a CPU (Central Processing Unit), and executes each information processing by executing a program or the like stored in the storage 12 and developed in the memory 11 .

メモリ11は、DRAM(Dynamic Random Access Memor
y)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリやHDD(Hard
Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ
11は、制御部10のワークエリア等として使用され、また、管理サーバ1の起動時に実
行されるBIOS(Basic Input / Output System)、及び
各種設定情報等を格納する。
The memory 11 is a DRAM (Dynamic Random Access Memory
y) and other volatile storage devices, and flash memory and HDD (Hard
Auxiliary memory composed of a non-volatile memory device such as a Disc Drive). The memory 11 is used as a work area or the like for the control unit 10, and stores a BIOS (Basic Input/Output System) executed when the management server 1 is started, various setting information, and the like.

ストレージ12は、アプリケーション・プログラム等の各種プログラムを格納する。各
処理に用いられるデータを格納したデータベースがストレージ12に構築されていてもよ
い。
The storage 12 stores various programs such as application programs. A database storing data used for each process may be constructed in the storage 12 .

送受信部13は、管理サーバ1をネットワーク4に接続する。なお、送受信部13は、
Bluetooth(登録商標)及びBLE(Bluetooth Low Energ
y)の近距離通信インタフェースを備えていてもよい。
The transmission/reception unit 13 connects the management server 1 to the network 4 . In addition, the transmission/reception unit 13
Bluetooth® and BLE (Bluetooth Low Energy
The short-range communication interface of y) may be provided.

入出力部14は、必要に応じて使用するキーボード・マウス類等の情報入力機器、及び
ディスプレイ等の出力機器である。
The input/output unit 14 is an information input device such as a keyboard and a mouse, and an output device such as a display, which are used as necessary.

バス15は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各
種制御信号を伝達する。
A bus 15 is commonly connected to the above elements and transmits, for example, address signals, data signals and various control signals.

なお、使用者端末2及び提供者端末3は、管理サーバ1と同様のハードウェア構成を備
えることができる。
In addition, the user terminal 2 and the provider terminal 3 can have the same hardware configuration as the management server 1 .

<ソフトウェア構成>
図4は、本実施形態のコンテンツ作成支援システムのソフトウェア構成例を示す図であ
る。
<Software configuration>
FIG. 4 is a diagram showing a software configuration example of the content creation support system of this embodiment.

<使用者端末2>
使用者端末2は、入力部211、再生オプション指定部212、使用要求送信部213
、送信部214を備える。
<User terminal 2>
The user terminal 2 includes an input unit 211, a reproduction option designation unit 212, a use request transmission unit 213.
, and a transmitter 214 .

入力部211は、使用者からデータの入力を受け付ける。入力部211は、例えば、キ
ーボードやタッチパネルなどからテキストの入力を受け付けることができる。入力部21
1は、使用者端末2が備えるマイクロフォン(不図示)から音声を集音して音声データを
作成することができる。また、入力部211は、音声データを音声解析したテキストデー
タを受け付けるようにすることもできる。入力部211は、表示されたボタンやプルダウ
ンリストなどのフォームから選択された選択肢を受け付けることもできる。
The input unit 211 receives input of data from the user. The input unit 211 can receive text input from, for example, a keyboard or a touch panel. Input unit 21
1 can collect sound from a microphone (not shown) provided in the user terminal 2 and create sound data. The input unit 211 can also receive text data obtained by analyzing voice data. The input unit 211 can also accept options selected from forms such as displayed buttons and pull-down lists.

再生オプション指定部212は、音声データの再生パラメータ(オプション)の指定を
受け付けることができる。再生オプション指定部212は、オプションの指定を受け付け
なかった場合には、音声データはデフォルトのパラメータにより再生されるものとする。
本実施形態において、再生パラメータには、再生のオフセット時間と、再生速度とが含ま
れうる。オフセット時間は、指定された音声データの再生タイミング(第1のタイミング
)から、実際に音声データを再生させるタイミング(第2のタイミング)までシフトさせ
る時間である。オフセット時間は負の値とすることもできる。オフセット時間は、例えば
、+0.1秒や-0.1秒とすることができ、指定された音声データの再生タイミングに
到達してから0.1秒後や当該再生タイミングに到達する0.1秒前に音声データの再生
を開始することができる。また、再生速度は、テンポ(BPM)により指定してもよいし
、1.1倍や0.8倍などの通常の再生速度に対する倍数により指定してもよい。音声デ
ータは指定された再生速度で再生される。
The reproduction option designation unit 212 can accept designation of reproduction parameters (options) of audio data. If the reproduction option designation unit 212 does not accept designation of an option, the audio data is reproduced with default parameters.
In this embodiment, the playback parameters may include playback offset time and playback speed. The offset time is the time to shift from the designated reproduction timing (first timing) of the audio data to the actual reproduction timing (second timing) of the audio data. The offset time can also be negative. The offset time can be, for example, +0.1 seconds or -0.1 seconds, and can be 0.1 seconds after reaching the reproduction timing of the designated audio data or 0.1 seconds after reaching the reproduction timing. You can start playing audio data seconds before. Also, the playback speed may be specified by a tempo (BPM), or may be specified by a multiple of the normal playback speed, such as 1.1 times or 0.8 times. Audio data is played back at the specified playback speed.

使用要求送信部213は、ストーリーを保存する旨のリクエスト(以下、使用要求とい
う。)を管理サーバ1に送信する。
The use request transmission unit 213 transmits a request to save the story (hereinafter referred to as a use request) to the management server 1 .

送信部214は、入力部211が受け付けた入力データや再生オプション指定部212
が受け付けたパラメータを管理サーバ1に送信する。
The transmission unit 214 transmits the input data received by the input unit 211 and the reproduction option designation unit 212.
sends the received parameters to the management server 1 .

<管理サーバ1>
管理サーバ1は、コンテンツ素材受付部111、コンテンツ素材提供部112、ストー
リー受付部113、使用者要求受付部114、シーン生成部115、コンテンツ素材記憶
部120、ストーリー記憶部130を備える。
<Management server 1>
The management server 1 includes a content material reception section 111 , a content material provision section 112 , a story reception section 113 , a user request reception section 114 , a scene generation section 115 , a content material storage section 120 and a story storage section 130 .

なお、コンテンツ素材受付部111、コンテンツ素材提供部112、ストーリー受付部
113、使用者要求受付部114、シーン生成部115は、管理サーバ1が備える制御部
10がストレージ12に記憶されているプログラムをメモリ11に読み出して実行するこ
とにより実現され、コンテンツ素材記憶部120、ストーリー記憶部130は、メモリ1
1及びストレージ12の少なくともいずれかにより提供される記憶領域の一部として実現
される。
Note that the content material receiving unit 111, the content material providing unit 112, the story receiving unit 113, the user request receiving unit 114, and the scene generating unit 115 are controlled by the control unit 10 provided in the management server 1 by executing programs stored in the storage 12. The content material storage unit 120 and the story storage unit 130 are realized by reading to the memory 11 and executing.
1 and/or storage 12 .

コンテンツ素材受付部111は、提供者端末3からコンテンツ素材の提供を受ける。コ
ンテンツ素材とは、ストーリーの制作に使用され得る画像、動画、音、テキスト、記号、
アイコン等のデータである。ストーリーにおいて背景、キャラクタ、アイテム、スチル、
BGM、効果音、音声、テキスト、記号、アイコン等として使用されるが、これらに限定
されない。提供者は、提供者端末3により、自身で制作、入手したコンテンツ素材を提供
することができる。
The content material reception unit 111 receives provision of content materials from the provider terminal 3 . Content materials are images, videos, sounds, texts, symbols,
This is data such as an icon. Backgrounds, characters, items, stills,
It is used as background music, sound effects, voice, text, symbols, icons, etc., but is not limited to these. The provider can provide the content material produced and obtained by himself/herself through the provider terminal 3. - 特許庁

コンテンツ素材受付部111は、提供されたコンテンツ素材データをコンテンツ素材記
憶部120に格納する。コンテンツ素材提供部112は、使用者端末2からの要請に応じ
てコンテンツ素材を使用者端末2に対して提供する。
The content material reception unit 111 stores the provided content material data in the content material storage unit 120 . The content material providing unit 112 provides content materials to the user terminal 2 in response to requests from the user terminal 2 .

ストーリー受付部113は、ストーリーを受け付ける。本実施形態では、ストーリー受
付部113は、ストーリーを構成するシーンの制作を1回以上行うことによりストーリー
を制作することができる。ストーリー受付部113は、背景や登場するキャラクタ、シー
ンに登場するオブジェクト(物や動物など)などのコンテンツ素材の指定を受け付け、ま
た、キャラクタが発するセリフやシーンに流れるナレーションなどの入力を受け付けるこ
とができる。ストーリー受付部113は、コンテンツ素材記憶部120に登録されている
コンテンツ素材を提示して、その中から選択を受け付けるようにしてもよいし、使用者か
らコンテンツ素材の入力を受け付けるようにしてもよい。また、ストーリー受付部113
は、複数のシーンが連続したものとしてストーリーを制作することができる。すなわち、
ストーリー受付部113は、複数のシーン情報を含むストーリー情報(ストーリーを表す
情報)を作成することができる。
The story accepting unit 113 accepts stories. In this embodiment, the story reception unit 113 can create a story by creating scenes that form the story one or more times. The story accepting unit 113 accepts specification of content materials such as backgrounds, characters appearing, and objects (things, animals, etc.) appearing in scenes, and also accepts inputs such as lines spoken by characters and narration flowing in scenes. can. The story receiving unit 113 may present content materials registered in the content material storage unit 120 and receive selection from them, or may receive input of content materials from the user. . Also, the story reception unit 113
can create a story as a sequence of multiple scenes. i.e.
The story receiving unit 113 can create story information (information representing a story) including a plurality of scene information.

使用者要求受付部114は、使用者からストーリーを保存する旨の入力を受け付ける。
使用者要求受付部114は、使用者からの入力に応じて、ストーリーをストーリー記憶部
130に登録することができる。
User request receiving unit 114 receives an input from the user indicating that the story is to be saved.
The user request receiving unit 114 can register a story in the story storage unit 130 according to the input from the user.

シーン生成部115は、シーンを再生するための情報(以下、シーン情報という。)を
生成する。シーン情報は、例えば、発生するイベントを記述したファイルとすることがで
きる。シーン情報は、例えば、XMLやJSONなどの構造化テキストファイルとするこ
とができる。シーン生成部115は、ストーリー受付部113が受け付けた背景、キャラ
クタが登場すること、オブジェクト(物や動物など)が登場すること、音声データを再生
することなどのイベントをシーン情報に記述することができる。本実施形態では、ストー
リーの再生時には、閲覧者がスマートフォンなどの画面をタップすることを契機として次
のイベントを発生させる契機とし、発生させるイベントを並べてシーン情報を作成するこ
とができる。シーン生成部115は、使用者が選択したコンテンツ素材をコンテンツ素材
記憶部120から呼び出し、また、使用者が入力したテキスト等と関連付けることによっ
てシーンを生成することができる。また、シーン生成部115は、使用者から受信したコ
ンテンツ素材データを使ってシーンを作成することもできる。例えば、各コンテンツ素材
及びテキストの表示位置や、閲覧時の表示順、タイミング等の設定情報を付与することが
できる。ストーリーは、一以上のコンテンツ素材及びテキストデータで構成される最小単
位であるシーンと、任意の数のシーンで構成されるエピソードによって構成されてもよい
が、これに限られない。
The scene generator 115 generates information for reproducing a scene (hereinafter referred to as scene information). The scene information can be, for example, a file describing events that occur. Scene information can be, for example, a structured text file such as XML or JSON. The scene generation unit 115 can describe in the scene information events such as the background received by the story reception unit 113, the appearance of a character, the appearance of an object (such as an object or an animal), and the reproduction of audio data. can. In the present embodiment, when a story is reproduced, the next event can be generated by tapping the screen of a smartphone or the like by the viewer, and scene information can be created by arranging the events to be generated. The scene generation unit 115 can generate a scene by calling the content material selected by the user from the content material storage unit 120 and associating it with the text or the like input by the user. The scene generation unit 115 can also create a scene using content material data received from the user. For example, setting information such as the display position of each content material and text, display order at the time of browsing, timing, etc. can be added. A story may be composed of a scene, which is the minimum unit composed of one or more content materials and text data, and an episode composed of an arbitrary number of scenes, but is not limited to this.

シーン生成部115はまた、入力部211から音声データ及び再生のタイミングの入力
を受け付け、再生オプション指定部212からオフセット時間及び再生速度を受け付けた
場合には、受け付けた再生のタイミングからオフセット時間だけシフトしたタイミングに
、当該音声データを、指定された再生速度で再生させるようにシーンを生成することがで
きる。
The scene generating unit 115 also receives input of audio data and playback timing from the input unit 211, and when receiving offset time and playback speed from the playback option specifying unit 212, shifts the received playback timing by the offset time. A scene can be generated so that the audio data is reproduced at the designated reproduction speed at the timing specified.

<ストーリー制作の流れ>
以下、ストーリー制作におけるシーンの制作処理について説明する。
<Flow of story production>
The scene production process in story production will be described below.

図5は、シーン制作処理の流れを説明する図である。 FIG. 5 is a diagram for explaining the flow of scene creation processing.

ストーリー受付部113は、背景の指定を受け付け(S201)、シーン制作終了の指
示を受けるまで、イベントの選択を受け付け(S202)、受け付けたインベントの設定
を行う(S203)。本実施形態において、イベントとは、キャラクタが登場すること、
キャラクタが退場すること、キャラクタが発するセリフを文字列で表示すること、キャラ
クタが発するセリフを音声により出力する(セリフに係る音声データを再生する)こと、
BGMを再生開始すること、効果音を再生すること、シーンのナレーションを文字列で表
示すること、シーンのナレーションを音声により出力する(ナレーションに係る音声デー
タを作成する)こと、アイテムが登場すること、アイテムが消失することなどとすること
ができる。なお、イベントは、これらに限らず、シーンに含めうる任意のイベントであっ
てよい。イベントの設定とは、当該シーンにおけるイベントの具体的な内容を設定するこ
とであり、例えば、キャラクタの登場の場合、登場させるキャラクタの選択やキャラクタ
を登場させる位置の選択などがあり、セリフの場合、セリフの内容の入力やセリフの吹き
出しの形状の選択などがあり、ナレーションの場合、ナレーションの内容の入力やナレー
ションを文字列として表示する枠の選択などがあり、アイテムの登場の場合、登場させる
アイテムの選択やアイテムが登場する位置の選択などがある。また、セリフやBGM、効
果音などの音声データを再生させる場合には、再生する音声データとともに、音声データ
の再生パラメータ(本実施形態ではオフセット時間及び再生速度であるものとするが、こ
れらに限られず、音声データの再生に係る任意のパラメータを指定することができる。)
を設定することをイベントの設定とすることができる。
The story accepting unit 113 accepts designation of a background (S201), accepts selection of an event (S202), and sets the accepted event (S203) until an instruction to end scene production is received. In this embodiment, the event means the appearance of a character,
the character exiting the stage, displaying the lines uttered by the character as a character string, outputting the lines uttered by the character by voice (reproducing audio data related to the lines),
Starting playback of BGM, playing sound effects, displaying the narration of the scene as a character string, outputting the narration of the scene by voice (creating audio data related to the narration), and appearing of an item. , the item disappears, and so on. Note that the event is not limited to these, and may be any event that can be included in the scene. The setting of an event is to set the specific contents of the event in the scene. , there are input of the contents of dialogue and selection of the shape of speech balloons. There are item selection and selection of the position where the item appears. In addition, when reproducing audio data such as lines, BGM, and sound effects, the audio data to be reproduced and the audio data reproduction parameters (offset time and reproduction speed in this embodiment, but not limited to these) Any parameters related to the playback of audio data can be specified.)
can be set as an event setting.

ストーリー受付部113は、イベントの選択及び設定を繰り返した後、シーンにおいて
イベントが発生するように設定したシーン情報を作成する(S204)。
After repeating the selection and setting of the event, the story receiving unit 113 creates scene information in which the event is set to occur in the scene (S204).

以上のようにして、ストーリー受付部113は、シーン情報を作成することができる。
なお、ストーリー受付部113は、一連のシーン情報を作成することにより、最終的にス
トーリーを作成することができる。
As described above, the story receiving unit 113 can create scene information.
Note that the story receiving unit 113 can finally create a story by creating a series of scene information.

図6は、音声データの入力画面の一例を示す図である。なお、図6乃至図9の例ではス
マートフォンを用いてシーン制作を行うことを想定しているが、これに限らず、パーソナ
ルコンピュータによりシーン制作を行うことも可能である。図6乃至図9に示す例は、ス
トーリー受付部113が使用者端末2を使用している使用者とのインタラクションにより
行われうる。
FIG. 6 is a diagram showing an example of an input screen for voice data. In addition, in the examples of FIGS. 6 to 9, it is assumed that scenes are created using a smart phone, but the present invention is not limited to this, and it is also possible to create scenes using a personal computer. The examples shown in FIGS. 6 to 9 can be performed by interaction between the story reception unit 113 and the user using the user terminal 2. FIG.

画面41は、音声データの入力を受け付ける画面である。図6では、シーン411にお
いて登場するキャラクタのセリフ(ボイス)としての音声データを登録する例を示してい
る。画面41において「録音する」のボタン412が押下されると、使用者端末2におい
てマイクロフォンが集音した音声データを録音し、管理サーバ1にアップロードされる。
また、使用者端末2に録音済みの音声データが存在する場合には、「アップロード」のボ
タン413を押下し、録音済みの音声データを選択することができる。選択された音声デ
ータは管理サーバ1にアップロードすることができる。ここで、シーン411に複数のキ
ャラクタが登場しているような場合には、ボイスを紐付けるキャラクタを選択することが
でき、音声データとともに、キャラクタの指定が管理サーバ1にアップロードされるよう
にすることができる。
The screen 41 is a screen for accepting input of voice data. FIG. 6 shows an example of registering voice data as lines (voice) of characters appearing in a scene 411 . When the “record” button 412 on the screen 41 is pressed, the voice data collected by the microphone in the user terminal 2 is recorded and uploaded to the management server 1 .
Also, when recorded voice data exists in the user terminal 2, the user can press the "upload" button 413 to select the recorded voice data. The selected audio data can be uploaded to the management server 1. FIG. Here, when a plurality of characters appear in the scene 411, it is possible to select the character whose voice is to be linked, and the designation of the character is uploaded to the management server 1 together with the voice data. be able to.

図7は、録音中の画面例を示す図である。図6の例においてボタン412が押下される
と、マイクロフォンから集音した音声データの録音が開始され、図7に示すように、ボタ
ン412の表示は「停止する」に変化する。このボタン412が押下されると録音は終了
する。「停止する」のボタン412が押下されたことを契機として、音声データを管理サ
ーバ1にアップロードすることができる。
FIG. 7 is a diagram showing an example of a screen during recording. When the button 412 is pressed in the example of FIG. 6, recording of audio data collected from the microphone is started, and the display of the button 412 changes to "stop" as shown in FIG. Recording ends when this button 412 is pressed. The audio data can be uploaded to the management server 1 when the "stop" button 412 is pressed.

図8は、音声データの再生パラメータを設定する画面例を示す図である。音声データが
録音され、又は、録音済みの音声データが選択されると、フォーム42において再生パラ
メータを設定することができる。具体的には、音声データの再生を開始するタイミングの
オフセット値(発声タイミング)を、例えば0.1秒単位で入力欄421に設定すること
ができる。入力欄421には、キーボードなどから数値を入力するようにしてもよいし、
トグルボタンの押下によりオフセット値を、例えば0.1秒単位で増減させるようにして
もよい。オフセット値にはマイナスの値を設定することもできる。また、設定欄422に
おいて再生スピードを設定することもできる。図8の例では再生スピードは、通常速度に
対する倍数で設定可能となっている。倍数には、マイナスの値を設定することもできる。
再生スピードは、キーボードなどから数値を入力するようにしてもよい、トグルボタンの
押下により再生スピードを、例えば、0.1倍単位で増減させるようにしてもよい。「再
生する」のボタン423を押下すると、使用者端末2は、ボタン押下のタイミングをイベ
ントの発生タイミングとして、音声データをオフセット値分だけシフトさせて再生するこ
とができる。使用者端末2は、オフセット値がマイナスである場合には、オフセット値が
示す秒数だけ進めた時点から音声データを再生することができる。
FIG. 8 is a diagram showing an example of a screen for setting reproduction parameters of audio data. Once audio data has been recorded or pre-recorded audio data has been selected, playback parameters can be set in form 42 . Specifically, the offset value (speech timing) of the timing to start reproducing the audio data can be set in the input field 421 in units of 0.1 seconds, for example. In the input field 421, a numerical value may be input from a keyboard or the like.
By pressing the toggle button, the offset value may be increased or decreased, for example, in units of 0.1 seconds. A negative value can also be set for the offset value. Also, the playback speed can be set in the setting field 422 . In the example of FIG. 8, the reproduction speed can be set as a multiple of the normal speed. Negative values can also be set for multiples.
The playback speed may be set by inputting a numerical value from a keyboard or the like, or by pressing a toggle button, the playback speed may be increased or decreased in units of 0.1 times, for example. When the "playback" button 423 is pressed, the user terminal 2 can shift the audio data by the offset value and play back the audio data, using the timing of pressing the button as the event generation timing. When the offset value is negative, the user terminal 2 can reproduce the audio data from the time point advanced by the number of seconds indicated by the offset value.

図9は、音声データの再生中の画面例を示す図である。図8に示す画面で「再生する」
のボタン423が押下されて音声データの再生が開始されると、図9に示すように、ボタ
ンの表示は「停止する」に変化する。このボタン423が押下されると、音声データの再
生が終了する。
FIG. 9 is a diagram showing a screen example during playback of audio data. "Play" on the screen shown in FIG.
button 423 is pressed to start reproducing audio data, the display of the button changes to "stop" as shown in FIG. When this button 423 is pressed, reproduction of audio data is terminated.

以上のようにして、シーンの時系列にそって順番に発生するイベント(キャラクタの登
場、キャラクタによるセリフのテキスト又は音声による発話、テキスト又は音声によるナ
レーションの配置、アイテムの登場、効果音の発声、BGMの発声など)を設定していく
ことで、一連のイベントをシーンとして制作することができる。また、音声データを設定
するにあたっては、イベントの発生タイミングからのオフセット値(発声タイミング)や
再生速度などの再生オプションを設定することができ、ストーリーの再生時に、音声デー
タに関するイベントが発生するときには、この再生オプションに応じて音声データの再生
開始のタイミングをシフトさせ、また音声データの再生スピードを変更することができる
As described above, events (appearance of characters, utterance of lines by text or voice by characters, placement of narration by text or voice, appearance of items, utterance of sound effects, A series of events can be produced as a scene by setting BGM vocalizations, etc.). Also, when setting the audio data, you can set playback options such as the offset value (speech timing) from the event occurrence timing and playback speed.When an event related to audio data occurs during story playback, It is possible to shift the timing of starting the reproduction of the audio data and change the reproduction speed of the audio data according to this reproduction option.

以上、本実施形態について説明したが、上記実施形態は本発明の理解を容易にするため
のものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸
脱することなく、変更、改良され得ると共に、本発明にはその等価物も含まれる。
Although the present embodiment has been described above, the above-described embodiment is intended to facilitate understanding of the present invention, and is not intended to limit and interpret the present invention. The present invention can be modified and improved without departing from its spirit, and the present invention also includes equivalents thereof.

1 管理サーバ
2 使用者端末
3 提供者端末
5 閲覧者端末
1 Management Server 2 User Terminal 3 Provider Terminal 5 Viewer Terminal

Claims (6)

コンテンツの作成を支援するシステムであって、
シーン中の第1のタイミングに再生する音声データの指定を受け付ける入力部と、
前記第1のタイミングから前記音声データを再生するまでのオフセット時間の指定を受
け付ける再生オプション指定部と、
前記第1のタイミングから前記オフセット時間だけシフトした第2のタイミングに前記
音声データを再生するように、前記シーンを出力するためのシーン情報を作成するシーン
作成部と、
を備えることを特徴とするコンテンツ作成支援システム。
A system for supporting the creation of content,
an input unit that receives designation of audio data to be reproduced at a first timing in a scene;
a reproduction option designation unit that receives designation of an offset time from the first timing to reproduction of the audio data;
a scene creation unit for creating scene information for outputting the scene so as to reproduce the audio data at a second timing shifted from the first timing by the offset time;
A content creation support system comprising:
請求項1に記載のコンテンツ作成支援システムであって、
前記入力部は、マイクロフォンから音声を集音して前記音声データを作成すること、
を特徴とするコンテンツ作成支援システム。
The content creation support system according to claim 1,
The input unit collects sound from a microphone to create the sound data;
A content creation support system characterized by:
請求項1又は2に記載のコンテンツ作成支援システムであって、
前記再生オプション指定部は、前記音声データの再生速度の指定をさらに受け付け、
前記シーン作成部は、前記第1のタイミングから前記オフセット時間だけシフトした第
2のタイミングに前記音声データを、指定された前記再生速度に応じて再生するように、
前記シーン情報を作成すること、
を特徴とするコンテンツ作成支援システム。
The content creation support system according to claim 1 or 2,
The reproduction option designation unit further receives designation of a reproduction speed of the audio data,
wherein the scene creation unit reproduces the audio data at a second timing shifted from the first timing by the offset time according to the specified reproduction speed;
creating the scene information;
A content creation support system characterized by:
請求項1乃至3のいずれか1項に記載のコンテンツ作成支援システムであって、
前記再生オプション指定部は、作成者からの指示に応じて、前記第2のタイミングで前
記音声データを再生すること、
を特徴とするコンテンツ作成支援システム。
The content creation support system according to any one of claims 1 to 3,
the reproduction option specifying unit reproduces the audio data at the second timing in accordance with an instruction from a creator;
A content creation support system characterized by:
コンテンツの作成を支援する方法であって、
シーン中の第1のタイミングに再生する音声データの指定を受け付けるステップと、
前記第1のタイミングから前記音声データを再生するまでのオフセット時間の指定を受
け付けるステップと、
前記第1のタイミングから前記オフセット時間だけシフトした第2のタイミングに前記
音声データを再生するように、前記シーンを出力するためのシーン情報を作成するステッ
プと、
をコンピュータが実行することを特徴とするコンテンツ作成支援方法。
A method of assisting content creation, comprising:
a step of accepting designation of audio data to be reproduced at a first timing in the scene;
receiving a specification of an offset time from the first timing to the reproduction of the audio data;
creating scene information for outputting the scene so as to reproduce the audio data at a second timing shifted from the first timing by the offset time;
A content creation support method, characterized in that a computer executes:
コンテンツの作成を支援するためのプログラムであって、
シーン中の第1のタイミングに再生する音声データの指定を受け付けるステップと、
前記第1のタイミングから前記音声データを再生するまでのオフセット時間の指定を受
け付けるステップと、
前記第1のタイミングから前記オフセット時間だけシフトした第2のタイミングに前記
音声データを再生するように、前記シーンを出力するためのシーン情報を作成するステッ
プと、
をコンピュータに実行させるためのプログラム。
A program for supporting the creation of content,
a step of accepting designation of audio data to be reproduced at a first timing in the scene;
receiving a specification of an offset time from the first timing to the reproduction of the audio data;
creating scene information for outputting the scene so as to reproduce the audio data at a second timing shifted from the first timing by the offset time;
A program that causes a computer to run
JP2021168133A 2021-09-15 2021-10-13 Content creation support system, content creation support method, and program Pending JP2023043120A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021168133A JP2023043120A (en) 2021-09-15 2021-10-13 Content creation support system, content creation support method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021150257A JP6964918B1 (en) 2021-09-15 2021-09-15 Content creation support system, content creation support method and program
JP2021168133A JP2023043120A (en) 2021-09-15 2021-10-13 Content creation support system, content creation support method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021150257A Division JP6964918B1 (en) 2021-09-15 2021-09-15 Content creation support system, content creation support method and program

Publications (1)

Publication Number Publication Date
JP2023043120A true JP2023043120A (en) 2023-03-28

Family

ID=78466237

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021150257A Active JP6964918B1 (en) 2021-09-15 2021-09-15 Content creation support system, content creation support method and program
JP2021168133A Pending JP2023043120A (en) 2021-09-15 2021-10-13 Content creation support system, content creation support method, and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021150257A Active JP6964918B1 (en) 2021-09-15 2021-09-15 Content creation support system, content creation support method and program

Country Status (1)

Country Link
JP (2) JP6964918B1 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003248730A (en) * 2001-12-19 2003-09-05 Fuji Xerox Co Ltd System for content reuse process, and method for content reuse process
JP2005026739A (en) * 2003-06-30 2005-01-27 Yamaha Corp Video content producing apparatus and program thereof
JP2006039705A (en) * 2004-07-23 2006-02-09 Matsushita Electric Ind Co Ltd Content creation device, content creation method, and content creation system
WO2008055273A2 (en) * 2006-11-05 2008-05-08 Sean Joseph Leonard System and methods for rapid subtitling
JP5137031B2 (en) * 2007-10-26 2013-02-06 株式会社国際電気通信基礎技術研究所 Dialogue speech creation device, utterance speech recording device, and computer program
JP6714286B1 (en) * 2020-02-03 2020-06-24 株式会社Type Bee Content creation support system

Also Published As

Publication number Publication date
JP2023042862A (en) 2023-03-28
JP6964918B1 (en) 2021-11-10

Similar Documents

Publication Publication Date Title
CN113365134B (en) Audio sharing method, device, equipment and medium
US20220093132A1 (en) Method for acquiring video and electronic device
JP2015517684A (en) Content customization
US20240121468A1 (en) Display method, apparatus, device and storage medium
WO2020259130A1 (en) Selected clip processing method and device, electronic equipment and readable medium
WO2021157595A1 (en) Content creation assistance system
JP7135063B2 (en) Smart voice device control method, device, electronic device and storage medium
CN110311858A (en) A kind of method and apparatus sending conversation message
CN111343074A (en) Video processing method, device and equipment and storage medium
WO2024067157A1 (en) Special-effect video generation method and apparatus, electronic device and storage medium
US11093120B1 (en) Systems and methods for generating and broadcasting digital trails of recorded media
WO2023174073A1 (en) Video generation method and apparatus, and device, storage medium and program product
JP6964918B1 (en) Content creation support system, content creation support method and program
JP7254842B2 (en) A method, system, and computer-readable recording medium for creating notes for audio files through interaction between an app and a website
CN112037745B (en) Music creation system based on neural network model
CN114924704A (en) Animation special effect display control method and device, electronic equipment and storage medium
JP6815054B1 (en) Content creation support system
JP6747741B1 (en) Content creation support system
JP2005141424A (en) Information processing method and information processor
Plans Composer in Your Pocket: Procedural Music in Mobile Devices
WO2022268045A1 (en) Interaction method and apparatus based on multimedia work, and device and storage medium
JP7337366B2 (en) Video distribution system, program, and computer-readable storage medium
JP7166373B2 (en) METHOD, SYSTEM, AND COMPUTER-READABLE RECORDING MEDIUM FOR MANAGING TEXT TRANSFORMATION RECORD AND MEMO TO VOICE FILE
JP7367945B1 (en) Electronic content distribution system, electronic content distribution program and application program
US20240121485A1 (en) Method, apparatus, device, medium and program product for obtaining text material