JP6964918B1 - Content creation support system, content creation support method and program - Google Patents

Content creation support system, content creation support method and program Download PDF

Info

Publication number
JP6964918B1
JP6964918B1 JP2021150257A JP2021150257A JP6964918B1 JP 6964918 B1 JP6964918 B1 JP 6964918B1 JP 2021150257 A JP2021150257 A JP 2021150257A JP 2021150257 A JP2021150257 A JP 2021150257A JP 6964918 B1 JP6964918 B1 JP 6964918B1
Authority
JP
Japan
Prior art keywords
timing
scene
audio data
designation
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021150257A
Other languages
Japanese (ja)
Other versions
JP2023042862A (en
Inventor
彰二 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Type Bee Group
Original Assignee
Type Bee Group
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Type Bee Group filed Critical Type Bee Group
Priority to JP2021150257A priority Critical patent/JP6964918B1/en
Priority to JP2021168133A priority patent/JP2023043120A/en
Application granted granted Critical
Publication of JP6964918B1 publication Critical patent/JP6964918B1/en
Publication of JP2023042862A publication Critical patent/JP2023042862A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】コンテンツを容易に作成することができるようにする。【解決手段】コンテンツの作成を支援するシステムであって、シーン中の第1のタイミングに再生する音声データの指定を受け付ける入力部と、第1のタイミングから音声データを再生するまでのオフセット時間の指定を受け付ける再生オプション指定部と、第1のタイミングからオフセット時間だけシフトした第2のタイミングに音声データを再生するように、シーンを出力するためのシーン情報を作成するシーン作成部と、を備えることを特徴とする。【選択図】図1PROBLEM TO BE SOLVED: To easily create a content. SOLUTION: This is a system that supports the creation of content, and has an input unit that accepts designation of audio data to be reproduced at a first timing in a scene, and an offset time from the first timing to reproducing the audio data. It includes a playback option specification unit that accepts specifications, and a scene creation unit that creates scene information for outputting the scene so that audio data is reproduced at the second timing that is shifted by the offset time from the first timing. It is characterized by that. [Selection diagram] Fig. 1

Description

本発明は、コンテンツ作成支援システム、コンテンツ作成支援方法及びプログラムに関する。 The present invention relates to a content creation support system, a content creation support method, and a program.

特許文献1には、連載小説をネット配信する連載作品配信装置が開示されている。 Patent Document 1 discloses a serialized work distribution device that distributes serialized novels on the Internet.

特開2011−227596号公報Japanese Unexamined Patent Publication No. 2011-227596

しかしながら、小説や漫画などのコンテンツを作成するには手間がかかる。 However, it takes time to create contents such as novels and manga.

本発明はこのような背景を鑑みてなされたものであり、コンテンツを容易に作成することのできる技術を提供することを目的とする。 The present invention has been made in view of such a background, and an object of the present invention is to provide a technique capable of easily creating contents.

上記課題を解決するための本発明の主たる発明は、コンテンツの作成を支援するシステムであって、シーン中の第1のタイミングに再生する音声データの指定を受け付ける入力部と、前記第1のタイミングから前記音声データを再生するまでのオフセット時間の指定を受け付ける再生オプション指定部と、前記第1のタイミングから前記オフセット時間だけシフトした第2のタイミングに前記音声データを再生するように、前記シーンを出力するためのシーン情報を作成するシーン作成部と、を備えることを特徴とする。 The main invention of the present invention for solving the above problems is a system that supports the creation of content, that is, an input unit that accepts designation of audio data to be reproduced at the first timing in a scene, and the first timing. The scene is displayed so that the playback option specification unit that accepts the designation of the offset time from the first timing to the playback of the audio data and the second timing that is shifted by the offset time from the first timing are reproduced. It is characterized by including a scene creation unit for creating scene information for output.

その他本願が開示する課題やその解決方法については、発明の実施形態の欄及び図面により明らかにされる。 Other problems disclosed in the present application and solutions thereof will be clarified in the columns and drawings of the embodiments of the invention.

本発明によれば、コンテンツを容易に作成することができる。 According to the present invention, content can be easily created.

第1実施形態に係るコンテンツ作成支援システムによって制作することができる小説の一例を示す図である。It is a figure which shows an example of the novel which can be produced by the content creation support system which concerns on 1st Embodiment. 本実施形態のコンテンツ作成支援システムの全体構成例を示す図である。It is a figure which shows the whole structure example of the content creation support system of this embodiment. 管理サーバ1のハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example of management server 1. 本実施形態のコンテンツ作成支援システムのソフトウェア構成例を示す図である。It is a figure which shows the software configuration example of the content creation support system of this embodiment. シーン制作処理の流れを説明する図である。It is a figure explaining the flow of a scene production process. 音声データの入力画面の一例を示す図である。It is a figure which shows an example of the voice data input screen. 録音中の画面例を示す図である。It is a figure which shows the screen example during recording. 音声データの再生パラメータを設定する画面例を示す図である。It is a figure which shows the screen example which sets the reproduction parameter of audio data. 音声データの再生中の画面例を示す図である。It is a figure which shows the screen example during reproduction of audio data.

<発明の概要>
本発明の実施形態の内容を列記して説明する。本発明は、たとえば、以下のような構成を備える。
[項目1]
コンテンツの作成を支援するシステムであって、
シーン中の第1のタイミングに再生する音声データの指定を受け付ける入力部と、
前記第1のタイミングから前記音声データを再生するまでのオフセット時間の指定を受け付ける再生オプション指定部と、
前記第1のタイミングから前記オフセット時間だけシフトした第2のタイミングに前記音声データを再生するように、前記シーンを出力するためのシーン情報を作成するシーン作成部と、
を備えることを特徴とするコンテンツ作成支援システム。
[項目2]
項目1に記載のコンテンツ作成支援システムであって、
前記入力部は、マイクロフォンから音声を集音して前記音声データを作成すること、
を特徴とするコンテンツ作成支援システム。
[項目3]
項目1又は2に記載のコンテンツ作成支援システムであって、
前記再生オプション指定部は、前記音声データの再生速度の指定をさらに受け付け、
前記シーン作成部は、前記第1のタイミングから前記オフセット時間だけシフトした第2のタイミングに前記音声データを、指定された前記再生速度に応じて再生するように、前記シーン情報を作成すること、
を特徴とするコンテンツ作成支援システム。
[項目4]
項目1乃至3のいずれか1項に記載のコンテンツ作成支援システムであって、
前記再生オプション指定部は、作成者からの指示に応じて、前記第2のタイミングで前記音声データを再生すること、
を特徴とするコンテンツ作成支援システム。
[項目5]
コンテンツの作成を支援する方法であって、
シーン中の第1のタイミングに再生する音声データの指定を受け付けるステップと、
前記第1のタイミングから前記音声データを再生するまでのオフセット時間の指定を受け付けるステップと、
前記第1のタイミングから前記オフセット時間だけシフトした第2のタイミングに前記音声データを再生するように、前記シーンを出力するためのシーン情報を作成するステップと、
をコンピュータが実行することを特徴とするコンテンツ作成支援方法。
[項目6]
コンテンツの作成を支援するためのプログラムであって、
シーン中の第1のタイミングに再生する音声データの指定を受け付けるステップと、
前記第1のタイミングから前記音声データを再生するまでのオフセット時間の指定を受け付けるステップと、
前記第1のタイミングから前記オフセット時間だけシフトした第2のタイミングに前記音声データを再生するように、前記シーンを出力するためのシーン情報を作成するステップと、
をコンピュータに実行させるためのプログラム。
<Outline of the invention>
The contents of the embodiments of the present invention will be described in a list. The present invention includes, for example, the following configuration.
[Item 1]
A system that supports the creation of content
An input unit that accepts the designation of audio data to be played at the first timing in the scene,
A playback option specification unit that accepts the designation of the offset time from the first timing to the playback of the audio data, and
A scene creation unit that creates scene information for outputting the scene so that the audio data is reproduced at the second timing shifted from the first timing by the offset time.
A content creation support system characterized by being equipped with.
[Item 2]
The content creation support system described in item 1
The input unit collects voice from a microphone and creates the voice data.
A content creation support system featuring.
[Item 3]
The content creation support system according to item 1 or 2.
The playback option designation unit further accepts the designation of the playback speed of the audio data, and receives the designation.
The scene creation unit creates the scene information so as to reproduce the audio data at a second timing shifted by the offset time from the first timing according to the designated reproduction speed.
A content creation support system featuring.
[Item 4]
The content creation support system according to any one of items 1 to 3.
The reproduction option designation unit reproduces the audio data at the second timing in response to an instruction from the creator.
A content creation support system featuring.
[Item 5]
A way to help create content
A step that accepts the designation of audio data to be played at the first timing in the scene,
A step of accepting the designation of the offset time from the first timing to the reproduction of the audio data, and
A step of creating scene information for outputting the scene so that the audio data is reproduced at a second timing shifted from the first timing by the offset time.
A content creation support method characterized by a computer executing.
[Item 6]
A program to support the creation of content
A step that accepts the designation of audio data to be played at the first timing in the scene,
A step of accepting the designation of the offset time from the first timing to the reproduction of the audio data, and
A step of creating scene information for outputting the scene so that the audio data is reproduced at a second timing shifted from the first timing by the offset time.
A program that lets your computer run.

<システムの概要>
以下、本発明の一実施形態について、図面を参照しながら説明する。
<System overview>
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

本実施形態に係るコンテンツ作成支援システムは、提供者(クリエイター)が制作した背景やキャラクタ等のコンテンツ素材を利用して、使用者(ライター)が小説や漫画などのストーリー(コンテンツ)を制作するストーリー制作支援プラットフォームである。 The content creation support system according to this embodiment is a story in which a user (writer) creates a story (content) such as a novel or a manga by using a content material such as a background or a character created by a provider (creator). It is a production support platform.

ストーリーは、例えば小説や漫画、絵本、ゲーム、ドラマ、アニメ、戯曲、映画等が含まれる。図1は、第1実施形態に係るコンテンツ作成支援システムによって制作することができる小説の一例を示す図である。本例は、複数の背景画像やキャラクタ画像とともに、セリフが次々と表示され、クリックやタッチスクリーンへのタップ等の入力操作によってストーリーを読み進めることができるものである。 The story includes, for example, novels, comics, picture books, games, dramas, anime, plays, movies, and the like. FIG. 1 is a diagram showing an example of a novel that can be produced by the content creation support system according to the first embodiment. In this example, lines are displayed one after another along with a plurality of background images and character images, and the story can be read by input operations such as clicking and tapping on the touch screen.

<構成>
図2は、本実施形態のコンテンツ作成支援システムの全体構成例を示す図である。コンテンツ作成支援システムは、管理サーバ1、使用者端末2、提供者端末3、ネットワーク4、閲覧者端末5を備える。サーバ1は、ネットワーク4を介して使用者端末2、提供者端末3、閲覧者端末5に接続される。また、端末2、3、5の具体的な機器は、携帯電話、スマートフォン、タブレットコンピュータ、パーソナルコンピュータ等のコンピュータである。ストーリーを制作するライターは使用者端末2、コンテンツ素材を提供するクリエイターは提供者端末3を操作して管理サーバ1にアクセスし、ストーリー制作支援プラットフォームを利用する。
<Structure>
FIG. 2 is a diagram showing an overall configuration example of the content creation support system of the present embodiment. The content creation support system includes a management server 1, a user terminal 2, a provider terminal 3, a network 4, and a viewer terminal 5. The server 1 is connected to the user terminal 2, the provider terminal 3, and the viewer terminal 5 via the network 4. The specific devices of the terminals 2, 3 and 5 are computers such as mobile phones, smartphones, tablet computers and personal computers. The writer who creates the story operates the user terminal 2, and the creator who provides the content material operates the provider terminal 3 to access the management server 1 and use the story production support platform.

<ハードウェア構成>
図3は、管理サーバ1のハードウェア構成例を示す図である。管理サーバ1は、使用者端末2及び提供者端末3と通信を介して情報処理を実行することにより、システムの一部を構成する。管理サーバ1は、例えばワークステーションやパーソナルコンピュータのような汎用コンピュータとしてもよいし、或いはクラウド・コンピューティングによって論理的に実現されてもよい。
<Hardware configuration>
FIG. 3 is a diagram showing a hardware configuration example of the management server 1. The management server 1 constitutes a part of the system by executing information processing via communication with the user terminal 2 and the provider terminal 3. The management server 1 may be a general-purpose computer such as a workstation or a personal computer, or may be logically realized by cloud computing.

管理サーバ1は、少なくとも、制御部10、メモリ11、ストレージ12、送受信部13、入出力部14等を備え、これらはバス15を通じて相互に電気的に接続される。 The management server 1 includes at least a control unit 10, a memory 11, a storage 12, a transmission / reception unit 13, an input / output unit 14, and the like, and these are electrically connected to each other through a bus 15.

制御部10は、管理サーバ1全体の動作を制御し、各要素間におけるデータの送受信の制御、及びアプリケーションの実行に必要な情報処理等を行う演算装置である。例えば制御部10はCPU(Central Processing Unit)であり、ストレージ12に格納されメモリ11に展開されたプログラム等を実行して各情報処理を実施する。 The control unit 10 is an arithmetic unit that controls the operation of the entire management server 1, controls the transmission and reception of data between each element, and performs information processing and the like necessary for executing an application. For example, the control unit 10 is a CPU (Central Processing Unit), and executes each information processing by executing a program or the like stored in the storage 12 and expanded in the memory 11.

メモリ11は、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリやHDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ11は、制御部10のワークエリア等として使用され、また、管理サーバ1の起動時に実行されるBIOS(Basic Input / Output System)、及び各種設定情報等を格納する。 The memory 11 includes a main memory composed of a volatile storage device such as a DRAM (Dynamic Random Access Memory) and an auxiliary memory composed of a non-volatile storage device such as a flash memory or an HDD (Hard Disk Drive). .. The memory 11 is used as a work area or the like of the control unit 10, and also stores a BIOS (Basic Input / Output System) executed when the management server 1 is started, various setting information, and the like.

ストレージ12は、アプリケーション・プログラム等の各種プログラムを格納する。各処理に用いられるデータを格納したデータベースがストレージ12に構築されていてもよい。 The storage 12 stores various programs such as application programs. A database storing data used for each process may be built in the storage 12.

送受信部13は、管理サーバ1をネットワーク4に接続する。なお、送受信部13は、Bluetooth(登録商標)及びBLE(Bluetooth Low Energy)の近距離通信インタフェースを備えていてもよい。 The transmission / reception unit 13 connects the management server 1 to the network 4. The transmission / reception unit 13 may be provided with a short-range communication interface of Bluetooth (registered trademark) and BLE (Bluetooth Low Energy).

入出力部14は、必要に応じて使用するキーボード・マウス類等の情報入力機器、及びディスプレイ等の出力機器である。 The input / output unit 14 is an information input device such as a keyboard and a mouse, and an output device such as a display, which are used as needed.

バス15は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各種制御信号を伝達する。 The bus 15 is commonly connected to each of the above elements and transmits, for example, an address signal, a data signal, and various control signals.

なお、使用者端末2及び提供者端末3は、管理サーバ1と同様のハードウェア構成を備えることができる。 The user terminal 2 and the provider terminal 3 can be provided with the same hardware configuration as the management server 1.

<ソフトウェア構成>
図4は、本実施形態のコンテンツ作成支援システムのソフトウェア構成例を示す図である。
<Software configuration>
FIG. 4 is a diagram showing a software configuration example of the content creation support system of the present embodiment.

<使用者端末2>
使用者端末2は、入力部211、再生オプション指定部212、使用要求送信部213、送信部214を備える。
<User terminal 2>
The user terminal 2 includes an input unit 211, a playback option designation unit 212, a usage request transmission unit 213, and a transmission unit 214.

入力部211は、使用者からデータの入力を受け付ける。入力部211は、例えば、キーボードやタッチパネルなどからテキストの入力を受け付けることができる。入力部211は、使用者端末2が備えるマイクロフォン(不図示)から音声を集音して音声データを作成することができる。また、入力部211は、音声データを音声解析したテキストデータを受け付けるようにすることもできる。入力部211は、表示されたボタンやプルダウンリストなどのフォームから選択された選択肢を受け付けることもできる。 The input unit 211 accepts data input from the user. The input unit 211 can receive text input from, for example, a keyboard or a touch panel. The input unit 211 can create voice data by collecting voice from a microphone (not shown) provided in the user terminal 2. In addition, the input unit 211 can also accept text data obtained by analyzing voice data. The input unit 211 can also accept options selected from forms such as displayed buttons and pull-down lists.

再生オプション指定部212は、音声データの再生パラメータ(オプション)の指定を受け付けることができる。再生オプション指定部212は、オプションの指定を受け付けなかった場合には、音声データはデフォルトのパラメータにより再生されるものとする。本実施形態において、再生パラメータには、再生のオフセット時間と、再生速度とが含まれうる。オフセット時間は、指定された音声データの再生タイミング(第1のタイミング)から、実際に音声データを再生させるタイミング(第2のタイミング)までシフトさせる時間である。オフセット時間は負の値とすることもできる。オフセット時間は、例えば、+0.1秒や−0.1秒とすることができ、指定された音声データの再生タイミングに到達してから0.1秒後や当該再生タイミングに到達する0.1秒前に音声データの再生を開始することができる。また、再生速度は、テンポ(BPM)により指定してもよいし、1.1倍や0.8倍などの通常の再生速度に対する倍数により指定してもよい。音声データは指定された再生速度で再生される。 The reproduction option designation unit 212 can accept the specification of the reproduction parameter (option) of the audio data. If the reproduction option specification unit 212 does not accept the option specification, the audio data is reproduced according to the default parameters. In the present embodiment, the reproduction parameters may include the reproduction offset time and the reproduction speed. The offset time is a time for shifting from the designated audio data reproduction timing (first timing) to the actual audio data reproduction timing (second timing). The offset time can also be a negative value. The offset time can be, for example, +0.1 seconds or -0.1 seconds, and 0.1 seconds after reaching the specified playback timing of the audio data or 0.1 reaching the playback timing. Playback of audio data can be started seconds before. Further, the reproduction speed may be specified by the tempo (BPM), or may be specified by a multiple of the normal reproduction speed such as 1.1 times or 0.8 times. The audio data is played back at the specified playback speed.

使用要求送信部213は、ストーリーを保存する旨のリクエスト(以下、使用要求という。)を管理サーバ1に送信する。 The usage request transmission unit 213 transmits a request for saving the story (hereinafter referred to as a usage request) to the management server 1.

送信部214は、入力部211が受け付けた入力データや再生オプション指定部212が受け付けたパラメータを管理サーバ1に送信する。 The transmission unit 214 transmits the input data received by the input unit 211 and the parameters received by the reproduction option designation unit 212 to the management server 1.

<管理サーバ1>
管理サーバ1は、コンテンツ素材受付部111、コンテンツ素材提供部112、ストーリー受付部113、使用者要求受付部114、シーン生成部115、コンテンツ素材記憶部120、ストーリー記憶部130を備える。
<Management server 1>
The management server 1 includes a content material reception unit 111, a content material provision unit 112, a story reception unit 113, a user request reception unit 114, a scene generation unit 115, a content material storage unit 120, and a story storage unit 130.

なお、コンテンツ素材受付部111、コンテンツ素材提供部112、ストーリー受付部113、使用者要求受付部114、シーン生成部115は、管理サーバ1が備える制御部10がストレージ12に記憶されているプログラムをメモリ11に読み出して実行することにより実現され、コンテンツ素材記憶部120、ストーリー記憶部130は、メモリ11及びストレージ12の少なくともいずれかにより提供される記憶領域の一部として実現される。 The content material reception unit 111, the content material provision unit 112, the story reception unit 113, the user request reception unit 114, and the scene generation unit 115 have programs in which the control unit 10 included in the management server 1 is stored in the storage 12. It is realized by reading into the memory 11 and executing, and the content material storage unit 120 and the story storage unit 130 are realized as a part of the storage area provided by at least one of the memory 11 and the storage 12.

コンテンツ素材受付部111は、提供者端末3からコンテンツ素材の提供を受ける。コンテンツ素材とは、ストーリーの制作に使用され得る画像、動画、音、テキスト、記号、アイコン等のデータである。ストーリーにおいて背景、キャラクタ、アイテム、スチル、BGM、効果音、音声、テキスト、記号、アイコン等として使用されるが、これらに限定されない。提供者は、提供者端末3により、自身で制作、入手したコンテンツ素材を提供することができる。 The content material reception unit 111 receives the content material from the provider terminal 3. Content material is data such as images, videos, sounds, texts, symbols, and icons that can be used in story production. Used as backgrounds, characters, items, stills, BGM, sound effects, sounds, texts, symbols, icons, etc. in stories, but is not limited to these. The provider can provide the content material produced and obtained by himself / herself by the provider terminal 3.

コンテンツ素材受付部111は、提供されたコンテンツ素材データをコンテンツ素材記憶部120に格納する。コンテンツ素材提供部112は、使用者端末2からの要請に応じてコンテンツ素材を使用者端末2に対して提供する。 The content material reception unit 111 stores the provided content material data in the content material storage unit 120. The content material providing unit 112 provides the content material to the user terminal 2 in response to a request from the user terminal 2.

ストーリー受付部113は、ストーリーを受け付ける。本実施形態では、ストーリー受付部113は、ストーリーを構成するシーンの制作を1回以上行うことによりストーリーを制作することができる。ストーリー受付部113は、背景や登場するキャラクタ、シーンに登場するオブジェクト(物や動物など)などのコンテンツ素材の指定を受け付け、また、キャラクタが発するセリフやシーンに流れるナレーションなどの入力を受け付けることができる。ストーリー受付部113は、コンテンツ素材記憶部120に登録されているコンテンツ素材を提示して、その中から選択を受け付けるようにしてもよいし、使用者からコンテンツ素材の入力を受け付けるようにしてもよい。また、ストーリー受付部113は、複数のシーンが連続したものとしてストーリーを制作することができる。すなわち、ストーリー受付部113は、複数のシーン情報を含むストーリー情報(ストーリーを表す情報)を作成することができる。 The story reception unit 113 accepts a story. In the present embodiment, the story reception unit 113 can produce a story by producing the scenes constituting the story one or more times. The story reception unit 113 accepts the designation of content materials such as the background, the characters that appear, and the objects (objects, animals, etc.) that appear in the scene, and also accepts the input of the lines emitted by the characters and the narration flowing in the scene. can. The story reception unit 113 may present the content material registered in the content material storage unit 120 and accept the selection from the content material, or may accept the input of the content material from the user. .. Further, the story reception unit 113 can create a story as if a plurality of scenes are continuous. That is, the story reception unit 113 can create story information (information representing a story) including a plurality of scene information.

使用者要求受付部114は、使用者からストーリーを保存する旨の入力を受け付ける。使用者要求受付部114は、使用者からの入力に応じて、ストーリーをストーリー記憶部130に登録することができる。 The user request reception unit 114 receives an input from the user to save the story. The user request reception unit 114 can register the story in the story storage unit 130 in response to the input from the user.

シーン生成部115は、シーンを再生するための情報(以下、シーン情報という。)を生成する。シーン情報は、例えば、発生するイベントを記述したファイルとすることができる。シーン情報は、例えば、XMLやJSONなどの構造化テキストファイルとすることができる。シーン生成部115は、ストーリー受付部113が受け付けた背景、キャラクタが登場すること、オブジェクト(物や動物など)が登場すること、音声データを再生することなどのイベントをシーン情報に記述することができる。本実施形態では、ストーリーの再生時には、閲覧者がスマートフォンなどの画面をタップすることを契機として次のイベントを発生させる契機とし、発生させるイベントを並べてシーン情報を作成することができる。シーン生成部115は、使用者が選択したコンテンツ素材をコンテンツ素材記憶部120から呼び出し、また、使用者が入力したテキスト等と関連付けることによってシーンを生成することができる。また、シーン生成部115は、使用者から受信したコンテンツ素材データを使ってシーンを作成することもできる。例えば、各コンテンツ素材及びテキストの表示位置や、閲覧時の表示順、タイミング等の設定情報を付与することができる。ストーリーは、一以上のコンテンツ素材及びテキストデータで構成される最小単位であるシーンと、任意の数のシーンで構成されるエピソードによって構成されてもよいが、これに限られない。 The scene generation unit 115 generates information for reproducing the scene (hereinafter, referred to as scene information). The scene information can be, for example, a file that describes an event that occurs. The scene information can be, for example, a structured text file such as XML or JSON. The scene generation unit 115 can describe in the scene information events such as the background received by the story reception unit 113, the appearance of characters, the appearance of objects (objects, animals, etc.), and the reproduction of audio data. can. In the present embodiment, when the story is played back, the viewer can tap the screen of a smartphone or the like to generate the next event, and the events to be generated can be arranged to create the scene information. The scene generation unit 115 can generate a scene by calling the content material selected by the user from the content material storage unit 120 and associating it with the text or the like input by the user. In addition, the scene generation unit 115 can also create a scene using the content material data received from the user. For example, setting information such as the display position of each content material and text, the display order at the time of browsing, and the timing can be added. A story may be composed of a scene, which is the smallest unit composed of one or more content materials and text data, and an episode composed of an arbitrary number of scenes, but is not limited to this.

シーン生成部115はまた、入力部211から音声データ及び再生のタイミングの入力を受け付け、再生オプション指定部212からオフセット時間及び再生速度を受け付けた場合には、受け付けた再生のタイミングからオフセット時間だけシフトしたタイミングに、当該音声データを、指定された再生速度で再生させるようにシーンを生成することができる。 When the scene generation unit 115 receives input of audio data and playback timing from the input unit 211 and receives the offset time and playback speed from the playback option designation unit 212, the scene generation unit 115 shifts by the offset time from the received playback timing. A scene can be generated so that the audio data is reproduced at a specified reproduction speed at the same timing.

<ストーリー制作の流れ>
以下、ストーリー制作におけるシーンの制作処理について説明する。
<Flow of story production>
The scene production process in story production will be described below.

図5は、シーン制作処理の流れを説明する図である。 FIG. 5 is a diagram for explaining the flow of the scene production process.

ストーリー受付部113は、背景の指定を受け付け(S201)、シーン制作終了の指示を受けるまで、イベントの選択を受け付け(S202)、受け付けたインベントの設定を行う(S203)。本実施形態において、イベントとは、キャラクタが登場すること、キャラクタが退場すること、キャラクタが発するセリフを文字列で表示すること、キャラクタが発するセリフを音声により出力する(セリフに係る音声データを再生する)こと、BGMを再生開始すること、効果音を再生すること、シーンのナレーションを文字列で表示すること、シーンのナレーションを音声により出力する(ナレーションに係る音声データを作成する)こと、アイテムが登場すること、アイテムが消失することなどとすることができる。なお、イベントは、これらに限らず、シーンに含めうる任意のイベントであってよい。イベントの設定とは、当該シーンにおけるイベントの具体的な内容を設定することであり、例えば、キャラクタの登場の場合、登場させるキャラクタの選択やキャラクタを登場させる位置の選択などがあり、セリフの場合、セリフの内容の入力やセリフの吹き出しの形状の選択などがあり、ナレーションの場合、ナレーションの内容の入力やナレーションを文字列として表示する枠の選択などがあり、アイテムの登場の場合、登場させるアイテムの選択やアイテムが登場する位置の選択などがある。また、セリフやBGM、効果音などの音声データを再生させる場合には、再生する音声データとともに、音声データの再生パラメータ(本実施形態ではオフセット時間及び再生速度であるものとするが、これらに限られず、音声データの再生に係る任意のパラメータを指定することができる。)を設定することをイベントの設定とすることができる。 The story reception unit 113 accepts the designation of the background (S201), accepts the selection of the event (S202) until the instruction to end the scene production is received, and sets the accepted event (S203). In the present embodiment, the event means that the character appears, that the character leaves, that the dialogue that the character emits is displayed as a character string, and that the dialogue that the character emits is output by voice (playing voice data related to the dialogue). To start playing BGM, to play sound effects, to display the narration of the scene as a character string, to output the narration of the scene by voice (create voice data related to the narration), items Can appear, items can disappear, and so on. The event is not limited to these, and may be any event that can be included in the scene. The setting of the event is to set the specific content of the event in the scene. For example, in the case of the appearance of a character, there are selection of the character to appear, selection of the position where the character appears, and the case of dialogue. , Input the content of the dialogue and select the shape of the balloon of the dialogue, etc. In the case of narration, there are input of the content of the narration and selection of the frame to display the narration as a character string, etc. There are selection of items and selection of the position where the item appears. Further, when the voice data such as dialogue, BGM, and sound effect is reproduced, the reproduction parameters of the voice data (in this embodiment, the offset time and the reproduction speed are assumed to be, but are limited to these) together with the voice data to be reproduced. Instead, any parameter related to the reproduction of audio data can be specified.) Can be set as the event setting.

ストーリー受付部113は、イベントの選択及び設定を繰り返した後、シーンにおいてイベントが発生するように設定したシーン情報を作成する(S204)。 After repeating the selection and setting of the event, the story reception unit 113 creates the scene information set so that the event occurs in the scene (S204).

以上のようにして、ストーリー受付部113は、シーン情報を作成することができる。なお、ストーリー受付部113は、一連のシーン情報を作成することにより、最終的にストーリーを作成することができる。 As described above, the story reception unit 113 can create the scene information. The story reception unit 113 can finally create a story by creating a series of scene information.

図6は、音声データの入力画面の一例を示す図である。なお、図6乃至図9の例ではスマートフォンを用いてシーン制作を行うことを想定しているが、これに限らず、パーソナルコンピュータによりシーン制作を行うことも可能である。図6乃至図9に示す例は、ストーリー受付部113が使用者端末2を使用している使用者とのインタラクションにより行われうる。 FIG. 6 is a diagram showing an example of a voice data input screen. In the examples of FIGS. 6 to 9, it is assumed that the scene is created using a smartphone, but the scene is not limited to this, and the scene can be created by a personal computer. The example shown in FIGS. 6 to 9 can be performed by the story reception unit 113 interacting with the user using the user terminal 2.

画面41は、音声データの入力を受け付ける画面である。図6では、シーン411において登場するキャラクタのセリフ(ボイス)としての音声データを登録する例を示している。画面41において「録音する」のボタン412が押下されると、使用者端末2においてマイクロフォンが集音した音声データを録音し、管理サーバ1にアップロードされる。また、使用者端末2に録音済みの音声データが存在する場合には、「アップロード」のボタン413を押下し、録音済みの音声データを選択することができる。選択された音声データは管理サーバ1にアップロードすることができる。ここで、シーン411に複数のキャラクタが登場しているような場合には、ボイスを紐付けるキャラクタを選択することができ、音声データとともに、キャラクタの指定が管理サーバ1にアップロードされるようにすることができる。 The screen 41 is a screen that accepts input of voice data. FIG. 6 shows an example of registering voice data as dialogue (voice) of a character appearing in scene 411. When the "record" button 412 is pressed on the screen 41, the voice data collected by the microphone on the user terminal 2 is recorded and uploaded to the management server 1. Further, when the recorded voice data exists in the user terminal 2, the recorded voice data can be selected by pressing the "upload" button 413. The selected voice data can be uploaded to the management server 1. Here, when a plurality of characters appear in the scene 411, the character to be associated with the voice can be selected, and the character designation is uploaded to the management server 1 together with the voice data. be able to.

図7は、録音中の画面例を示す図である。図6の例においてボタン412が押下されると、マイクロフォンから集音した音声データの録音が開始され、図7に示すように、ボタン412の表示は「停止する」に変化する。このボタン412が押下されると録音は終了する。「停止する」のボタン412が押下されたことを契機として、音声データを管理サーバ1にアップロードすることができる。 FIG. 7 is a diagram showing an example of a screen during recording. When the button 412 is pressed in the example of FIG. 6, the recording of the voice data collected from the microphone is started, and as shown in FIG. 7, the display of the button 412 changes to "stop". Recording ends when this button 412 is pressed. The voice data can be uploaded to the management server 1 when the "stop" button 412 is pressed.

図8は、音声データの再生パラメータを設定する画面例を示す図である。音声データが録音され、又は、録音済みの音声データが選択されると、フォーム42において再生パラメータを設定することができる。具体的には、音声データの再生を開始するタイミングのオフセット値(発声タイミング)を、例えば0.1秒単位で入力欄421に設定することができる。入力欄421には、キーボードなどから数値を入力するようにしてもよいし、トグルボタンの押下によりオフセット値を、例えば0.1秒単位で増減させるようにしてもよい。オフセット値にはマイナスの値を設定することもできる。また、設定欄422において再生スピードを設定することもできる。図8の例では再生スピードは、通常速度に対する倍数で設定可能となっている。倍数には、マイナスの値を設定することもできる。再生スピードは、キーボードなどから数値を入力するようにしてもよい、トグルボタンの押下により再生スピードを、例えば、0.1倍単位で増減させるようにしてもよい。「再生する」のボタン423を押下すると、使用者端末2は、ボタン押下のタイミングをイベントの発生タイミングとして、音声データをオフセット値分だけシフトさせて再生することができる。使用者端末2は、オフセット値がマイナスである場合には、オフセット値が示す秒数だけ進めた時点から音声データを再生することができる。 FIG. 8 is a diagram showing an example of a screen for setting playback parameters of audio data. Once the audio data has been recorded or the recorded audio data has been selected, playback parameters can be set in Form 42. Specifically, the offset value (speech timing) of the timing at which the reproduction of the voice data is started can be set in the input field 421 in units of 0.1 seconds, for example. A numerical value may be input to the input field 421 from a keyboard or the like, or the offset value may be increased or decreased in units of 0.1 seconds by pressing the toggle button. A negative value can be set for the offset value. The playback speed can also be set in the setting field 422. In the example of FIG. 8, the reproduction speed can be set as a multiple of the normal speed. Negative values can be set for multiples. The playback speed may be entered from a keyboard or the like, or the playback speed may be increased or decreased in units of 0.1 times, for example, by pressing the toggle button. When the "play" button 423 is pressed, the user terminal 2 can play the audio data by shifting the audio data by the offset value, with the button pressing timing as the event occurrence timing. When the offset value is negative, the user terminal 2 can reproduce the audio data from the time when the offset value advances by the number of seconds indicated by the offset value.

図9は、音声データの再生中の画面例を示す図である。図8に示す画面で「再生する」のボタン423が押下されて音声データの再生が開始されると、図9に示すように、ボタンの表示は「停止する」に変化する。このボタン423が押下されると、音声データの再生が終了する。 FIG. 9 is a diagram showing an example of a screen during playback of audio data. When the "play" button 423 is pressed on the screen shown in FIG. 8 to start playing the audio data, the button display changes to "stop" as shown in FIG. When this button 423 is pressed, the reproduction of the audio data ends.

以上のようにして、シーンの時系列にそって順番に発生するイベント(キャラクタの登場、キャラクタによるセリフのテキスト又は音声による発話、テキスト又は音声によるナレーションの配置、アイテムの登場、効果音の発声、BGMの発声など)を設定していくことで、一連のイベントをシーンとして制作することができる。また、音声データを設定するにあたっては、イベントの発生タイミングからのオフセット値(発声タイミング)や再生速度などの再生オプションを設定することができ、ストーリーの再生時に、音声データに関するイベントが発生するときには、この再生オプションに応じて音声データの再生開始のタイミングをシフトさせ、また音声データの再生スピードを変更することができる。 As described above, events that occur in order along the time series of the scene (appearance of characters, utterance by text or voice of dialogue by character, arrangement of narration by text or voice, appearance of items, utterance of sound effects, By setting (BGM utterance, etc.), a series of events can be created as a scene. In addition, when setting audio data, playback options such as offset value (speech timing) from the event occurrence timing and playback speed can be set, and when an event related to audio data occurs during story playback, The timing of starting the reproduction of the audio data can be shifted according to this reproduction option, and the reproduction speed of the audio data can be changed.

以上、本実施形態について説明したが、上記実施形態は本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物も含まれる。 Although the present embodiment has been described above, the above embodiment is for facilitating the understanding of the present invention, and is not for limiting and interpreting the present invention. The present invention can be modified and improved without departing from the spirit thereof, and the present invention also includes an equivalent thereof.

1 管理サーバ
2 使用者端末
3 提供者端末
5 閲覧者端末
1 Management server 2 User terminal 3 Provider terminal 5 Viewer terminal

Claims (6)

コンテンツの作成を支援するシステムであって、
シーン中の第1のタイミングに再生する音声データの指定を受け付ける入力部と、
前記第1のタイミングから前記音声データを再生するまでのオフセット時間の指定を受け付ける再生オプション指定部と、
前記第1のタイミングから前記オフセット時間だけシフトした第2のタイミングに前記音声データを再生するように、前記シーンを出力するためのシーン情報を作成するシーン作成部と、
を備えることを特徴とするコンテンツ作成支援システム。
A system that supports the creation of content
An input unit that accepts the designation of audio data to be played at the first timing in the scene,
A playback option specification unit that accepts the designation of the offset time from the first timing to the playback of the audio data, and
A scene creation unit that creates scene information for outputting the scene so that the audio data is reproduced at the second timing shifted from the first timing by the offset time.
A content creation support system characterized by being equipped with.
請求項1に記載のコンテンツ作成支援システムであって、
前記入力部は、マイクロフォンから音声を集音して前記音声データを作成すること、
を特徴とするコンテンツ作成支援システム。
The content creation support system according to claim 1.
The input unit collects voice from a microphone and creates the voice data.
A content creation support system featuring.
請求項1又は2に記載のコンテンツ作成支援システムであって、
前記再生オプション指定部は、前記音声データの再生速度の指定をさらに受け付け、
前記シーン作成部は、前記第1のタイミングから前記オフセット時間だけシフトした第2のタイミングに前記音声データを、指定された前記再生速度に応じて再生するように、前記シーン情報を作成すること、
を特徴とするコンテンツ作成支援システム。
The content creation support system according to claim 1 or 2.
The playback option designation unit further accepts the designation of the playback speed of the audio data, and receives the designation.
The scene creation unit creates the scene information so as to reproduce the audio data at a second timing shifted by the offset time from the first timing according to the designated reproduction speed.
A content creation support system featuring.
請求項1乃至3のいずれか1項に記載のコンテンツ作成支援システムであって、
前記再生オプション指定部は、作成者からの指示に応じて、前記第2のタイミングで前記音声データを再生すること、
を特徴とするコンテンツ作成支援システム。
The content creation support system according to any one of claims 1 to 3.
The reproduction option designation unit reproduces the audio data at the second timing in response to an instruction from the creator.
A content creation support system featuring.
コンテンツの作成を支援する方法であって、
シーン中の第1のタイミングに再生する音声データの指定を受け付けるステップと、
前記第1のタイミングから前記音声データを再生するまでのオフセット時間の指定を受け付けるステップと、
前記第1のタイミングから前記オフセット時間だけシフトした第2のタイミングに前記音声データを再生するように、前記シーンを出力するためのシーン情報を作成するステップと、
をコンピュータが実行することを特徴とするコンテンツ作成支援方法。
A way to help create content
A step that accepts the designation of audio data to be played at the first timing in the scene,
A step of accepting the designation of the offset time from the first timing to the reproduction of the audio data, and
A step of creating scene information for outputting the scene so that the audio data is reproduced at a second timing shifted from the first timing by the offset time.
A content creation support method characterized by a computer executing.
コンテンツの作成を支援するためのプログラムであって、
シーン中の第1のタイミングに再生する音声データの指定を受け付けるステップと、
前記第1のタイミングから前記音声データを再生するまでのオフセット時間の指定を受け付けるステップと、
前記第1のタイミングから前記オフセット時間だけシフトした第2のタイミングに前記音声データを再生するように、前記シーンを出力するためのシーン情報を作成するステップと、
をコンピュータに実行させるためのプログラム。
A program to support the creation of content
A step that accepts the designation of audio data to be played at the first timing in the scene,
A step of accepting the designation of the offset time from the first timing to the reproduction of the audio data, and
A step of creating scene information for outputting the scene so that the audio data is reproduced at a second timing shifted from the first timing by the offset time.
A program that lets your computer run.
JP2021150257A 2021-09-15 2021-09-15 Content creation support system, content creation support method and program Active JP6964918B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021150257A JP6964918B1 (en) 2021-09-15 2021-09-15 Content creation support system, content creation support method and program
JP2021168133A JP2023043120A (en) 2021-09-15 2021-10-13 Content creation support system, content creation support method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021150257A JP6964918B1 (en) 2021-09-15 2021-09-15 Content creation support system, content creation support method and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021168133A Division JP2023043120A (en) 2021-09-15 2021-10-13 Content creation support system, content creation support method, and program

Publications (2)

Publication Number Publication Date
JP6964918B1 true JP6964918B1 (en) 2021-11-10
JP2023042862A JP2023042862A (en) 2023-03-28

Family

ID=78466237

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021150257A Active JP6964918B1 (en) 2021-09-15 2021-09-15 Content creation support system, content creation support method and program
JP2021168133A Pending JP2023043120A (en) 2021-09-15 2021-10-13 Content creation support system, content creation support method, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021168133A Pending JP2023043120A (en) 2021-09-15 2021-10-13 Content creation support system, content creation support method, and program

Country Status (1)

Country Link
JP (2) JP6964918B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003248730A (en) * 2001-12-19 2003-09-05 Fuji Xerox Co Ltd System for content reuse process, and method for content reuse process
JP2005026739A (en) * 2003-06-30 2005-01-27 Yamaha Corp Video content producing apparatus and program thereof
JP2006039705A (en) * 2004-07-23 2006-02-09 Matsushita Electric Ind Co Ltd Content creation device, content creation method, and content creation system
JP2009122667A (en) * 2007-10-26 2009-06-04 Advanced Telecommunication Research Institute International Dialogue voice generating device, uttering voice recording device and computer program
JP2010509859A (en) * 2006-11-05 2010-03-25 ショーン ジョセフ レオナルド System and method for high speed subtitle creation
JP2021124810A (en) * 2020-02-03 2021-08-30 株式会社Type Bee Content creation support system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003248730A (en) * 2001-12-19 2003-09-05 Fuji Xerox Co Ltd System for content reuse process, and method for content reuse process
JP2005026739A (en) * 2003-06-30 2005-01-27 Yamaha Corp Video content producing apparatus and program thereof
JP2006039705A (en) * 2004-07-23 2006-02-09 Matsushita Electric Ind Co Ltd Content creation device, content creation method, and content creation system
JP2010509859A (en) * 2006-11-05 2010-03-25 ショーン ジョセフ レオナルド System and method for high speed subtitle creation
JP2009122667A (en) * 2007-10-26 2009-06-04 Advanced Telecommunication Research Institute International Dialogue voice generating device, uttering voice recording device and computer program
JP2021124810A (en) * 2020-02-03 2021-08-30 株式会社Type Bee Content creation support system

Also Published As

Publication number Publication date
JP2023043120A (en) 2023-03-28
JP2023042862A (en) 2023-03-28

Similar Documents

Publication Publication Date Title
US10580319B2 (en) Interactive multimedia story creation application
CN101743531B (en) Method for inputting user command using user&#39;s motion and multimedia apparatus thereof
US8959437B2 (en) System and method for personalizing the user interface of audio rendering devices
KR101246976B1 (en) Aspects of media content rendering
US20220093132A1 (en) Method for acquiring video and electronic device
Magaudda et al. Retromedia-in-practice: A practice theory approach for rethinking old and new media technologies
US20080126939A1 (en) System, method and medium playing moving images
US20180226101A1 (en) Methods and systems for interactive multimedia creation
WO2021157595A1 (en) Content creation assistance system
JP2012003804A (en) Av device
CN105051820B (en) Information processing equipment and information processing method
JPWO2008102413A1 (en) Music playback apparatus and music playback method
JP6964918B1 (en) Content creation support system, content creation support method and program
CN113535116A (en) Audio file playing method and device, terminal and storage medium
JP6815054B1 (en) Content creation support system
KR100473163B1 (en) A storage medium storing multimedia contents and apparatus and method for reproducing the same
JP2005141424A (en) Information processing method and information processor
JP6747741B1 (en) Content creation support system
Plans Composer in Your Pocket: Procedural Music in Mobile Devices
JP2021125235A (en) Content creation support system
WO2022268045A1 (en) Interaction method and apparatus based on multimedia work, and device and storage medium
EP4134947A1 (en) Music customization user interface
JP5860575B1 (en) Voice recording program, voice recording terminal device, and voice recording system
JP5605083B2 (en) Video playback device and video playback program
KR20070109103A (en) An online system for making multi-contents

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210915

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211007

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211013

R150 Certificate of patent or registration of utility model

Ref document number: 6964918

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371