WO2021157595A1 - コンテンツ作成支援システム - Google Patents

コンテンツ作成支援システム Download PDF

Info

Publication number
WO2021157595A1
WO2021157595A1 PCT/JP2021/003834 JP2021003834W WO2021157595A1 WO 2021157595 A1 WO2021157595 A1 WO 2021157595A1 JP 2021003834 W JP2021003834 W JP 2021003834W WO 2021157595 A1 WO2021157595 A1 WO 2021157595A1
Authority
WO
WIPO (PCT)
Prior art keywords
scene
character
event
support system
time point
Prior art date
Application number
PCT/JP2021/003834
Other languages
English (en)
French (fr)
Inventor
彰二 遠藤
Original Assignee
株式会社TypeBee
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社TypeBee filed Critical 株式会社TypeBee
Publication of WO2021157595A1 publication Critical patent/WO2021157595A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/80Creating or modifying a manually drawn or painted image using a manual input device, e.g. mouse, light pen, direction keys on keyboard

Definitions

  • the present invention relates to a content creation support system.
  • Patent Document 1 discloses a serialized work distribution device that distributes serialized novels online.
  • the present invention has been made in view of such a background, and an object of the present invention is to provide a technique capable of easily creating contents.
  • the main invention of the present invention for solving the above problems is a system that supports the creation of content, and occurs at the above-mentioned time points with respect to a background designation unit that accepts the designation of the background of the scene and a plurality of time points in the scene. It is characterized by including an event designation unit that accepts the designation of the event to be performed, and a scene creation unit that creates scene information for outputting the scene in which the event is generated at the time point on the background.
  • FIG. 1 It is a figure which shows an example of the novel which can be produced by the content creation support system which concerns on this embodiment. It is a figure which shows the whole structure example of the content creation support system of this embodiment. It is a figure which shows the hardware configuration example of management server 1. It is a figure which shows the software configuration example of management server 1. It is a figure explaining the flow of a scene production process. It is a figure which shows an example of a scene production process. It is a figure explaining the background arrangement process. It is a figure explaining the character arrangement process (when it appears in a scene for the first time). It is a figure explaining the character arrangement process (when it reappears in a scene). It is a figure explaining the arrangement process of a line. It is a figure explaining the arrangement process of a narration (text).
  • the present invention includes, for example, the following configuration.
  • [Item 1] A system that supports the creation of content
  • a background specification part that accepts the specification of the background of the scene, For a plurality of time points in the scene, an event designation unit that accepts the designation of events that occur at the time points, and A scene creation unit that creates scene information for outputting a scene that generated the event at the time point on the background, and a scene creation unit.
  • the content creation support system described in item 1 The event includes the appearance of a character,
  • the event designation unit accepts the designation of the character to appear and the position where the character appears.
  • the content creation support system is a story in which a user (writer) creates a story (content) such as a novel or a manga by using a content material such as a background or a character created by a provider (creator). It is a production support platform.
  • FIG. 1 is a diagram showing an example of a novel that can be produced by the content creation support system according to the present embodiment.
  • lines are displayed one after another along with a plurality of background images and character images, and the story can be read by input operations such as clicking and tapping on the touch screen.
  • FIG. 2 is a diagram showing an overall configuration example of the content creation support system of the present embodiment.
  • the content creation support system includes a management server 1, a user terminal 2, a provider terminal 3, a network 4, and a viewer terminal 5.
  • the server 1 is connected to the user terminal 2, the provider terminal 3, and the viewer terminal 5 via the network 4.
  • the specific devices of the terminals 2, 3 and 5 are computers such as mobile phones, smartphones, tablet computers and personal computers.
  • the writer who creates the story operates the user terminal 2, and the creator who provides the content material operates the provider terminal 3 to access the management server 1 and uses the story production support platform.
  • FIG. 3 is a diagram showing a hardware configuration example of the management server 1.
  • the management server 1 constitutes a part of the system by executing information processing via communication with the user terminal 2 and the provider terminal 3.
  • the management server 1 may be a general-purpose computer such as a workstation or a personal computer, or may be logically realized by cloud computing.
  • the management server 1 includes at least a control unit 10, a memory 11, a storage 12, a transmission / reception unit 13, an input / output unit 14, and the like, and these are electrically connected to each other through a bus 15.
  • the control unit 10 is an arithmetic unit that controls the operation of the entire management server 1, controls the transmission and reception of data between each element, and performs information processing and the like necessary for executing an application.
  • the control unit 10 is a CPU (Central Processing Unit), and executes each information processing by executing a program or the like stored in the storage 12 and expanded in the memory 11.
  • CPU Central Processing Unit
  • the memory 11 includes a main memory composed of a volatile storage device such as a DRAM (Dynamic Random Access Memory) and an auxiliary memory composed of a non-volatile storage device such as a flash memory or an HDD (Hard Disc Drive). ..
  • the memory 11 is used as a work area or the like of the control unit 10, and also stores a BIOS (Basic Input / Output System) executed when the management server 1 is started, various setting information, and the like.
  • BIOS Basic Input / Output System
  • the storage 12 stores various programs such as application programs.
  • a database storing data used for each process may be built in the storage 12.
  • the transmission / reception unit 13 connects the management server 1 to the network 4.
  • the transmission / reception unit 13 may be provided with a short-range communication interface of Bluetooth (registered trademark) and BLE (Bluetooth Low Energy).
  • the input / output unit 14 is an information input device such as a keyboard and a mouse, and an output device such as a display, which are used as needed.
  • the bus 15 is commonly connected to each of the above elements and transmits, for example, an address signal, a data signal, and various control signals.
  • FIG. 4 is a diagram showing a software configuration example of the management server 1.
  • the management server 1 includes a content material reception unit 111, a content material provision unit 112, a story reception unit 113, a user request reception unit 114, a scene generation unit 115, a content material storage unit 120, and a story storage unit 130.
  • the content material reception unit 111, the content material provision unit 112, the story reception unit 113, the user request reception unit 114, and the scene generation unit 115 have programs in which the control unit 10 included in the management server 1 is stored in the storage 12. It is realized by reading into the memory 11 and executing, and the content material storage unit 120 and the story storage unit 130 are realized as a part of the storage area provided by at least one of the memory 11 and the storage 12.
  • the content material reception unit 111 receives the content material from the provider terminal 3.
  • Content material is data such as images, videos, sounds, texts, symbols, and icons that can be used in story production. Used as backgrounds, characters, items, stills, BGM, sound effects, sounds, texts, symbols, icons, etc. in stories, but is not limited to these.
  • the provider can provide the content material produced and obtained by himself / herself by the provider terminal 3.
  • the content material reception unit 111 stores the provided content material data in the content material storage unit 120.
  • the content material providing unit 112 provides the content material to the user terminal 2 in response to a request from the user terminal 2.
  • the story reception unit 113 accepts stories.
  • the story reception unit 113 can produce a story by producing the scenes constituting the story one or more times.
  • the story reception unit 113 accepts the designation of content materials such as the background, the characters that appear, and the objects (objects, animals, etc.) that appear in the scene, and also accepts the input of the lines emitted by the characters and the narration flowing in the scene. It is possible to create scene information (information representing a scene) including.
  • the story reception unit 113 may present the content material registered in the content material storage unit 120 and accept the selection from the content material, or may accept the input of the content material from the user. .. Further, the story reception unit 113 can create a story as if a plurality of scenes are continuous. That is, the story reception unit 113 can create story information (information representing a story) including a plurality of scene information.
  • the user request reception unit 114 accepts an input from the user to save the story.
  • the user request reception unit 114 can register the story in the story storage unit 130 in response to the input from the user.
  • the scene generation unit 115 generates a scene.
  • the scene generation unit 115 can generate a scene by calling the content material selected by the user from the content material storage unit 120 and associating it with the text or the like input by the user.
  • the scene generation unit 115 can also create a scene using the content material data received from the user. For example, setting information such as the display position of each content material and text, the display order at the time of browsing, and the timing can be added.
  • a story may be composed of a scene, which is the smallest unit composed of one or more content materials and text data, and an episode composed of an arbitrary number of scenes, but is not limited to this.
  • FIG. 5 is a diagram for explaining the flow of the scene production process.
  • the story reception unit 113 accepts the designation of the background (S201), accepts the selection of the event (S202) until the instruction to end the scene production is received, and sets the accepted event (S203).
  • the event is any one of the appearance of a character, the dialogue by the character, the narration of the scene, and the appearance of the item, but the event is not limited to this and is any event that can be included in the scene. good.
  • BGM settings may be added as an event.
  • the setting of the event is to set the specific content of the event in the scene. For example, in the case of the appearance of a character, there are selection of the character to appear, selection of the position where the character appears, and the case of dialogue.
  • In the case of narration there are input of the content of the narration and selection of the frame to display the narration as a character string, etc.
  • the story reception unit 113 creates the scene information set so that the event occurs in the scene (S204).
  • the story reception unit 113 can create scene information.
  • the story reception unit 113 can finally create a story by creating a series of scene information.
  • FIG. 6 is a diagram showing an example of a scene production process.
  • the scene is created using a smartphone, but the scene is not limited to this, and the scene can be created by a personal computer.
  • the example shown in FIGS. 6 to 11 can be performed by the story reception unit 113 interacting with the user using the user terminal 2.
  • a new character 3161 can be made to appear in the scene (screen 316).
  • the display of the characters that have already appeared in the scene can be improved in visibility by displaying the characters that have already appeared in the scene lighter than the display of the newly appeared character 3161 (the new character 3161 is displayed darker than the characters 3131 that have already appeared).
  • the line 3171 to be emitted can be arranged also for the new character 3161 (screen 317).
  • narration can be placed here, and further characters, items, etc. can be made to appear without inserting lines or narration.
  • a new character 3181 can be arranged (screen 318), and the dialogue 3191 of the character 3181 can be set (screen 319).
  • the shape of the balloon different from the example of the screen 314 is set in the dialogue 3191.
  • FIG. 7 is a diagram for explaining the background arrangement process.
  • the story reception unit 113 can read the background content material from the content material storage unit 120 and display the thumbnail list 3211 (screen 321).
  • the story reception unit 113 can accept the selection of the background 3212 from the thumbnail list 3211 and process the background 3212 (screen 322).
  • the selected background 3212 is subjected to image processing so as to have a color of a sunrise or a sunset (morning and evening).
  • the story reception unit 113 may not process the image, or may perform arbitrary image processing instead of or in addition to changing the color.
  • the story reception unit 113 can set the background 3121 selected and processed in this way as the background of the scene (screen 312).
  • FIG. 8 is a diagram for explaining the character placement process (when it first appears in the scene).
  • the story reception unit 113 can perform character placement processing when the button 41 instructing the appearance of the character is pressed from the event selection tool 40.
  • the story reception unit 113 can read the content material of the character from the content material storage unit 120 and display the list 3311 (screen 331).
  • the story reception unit 113 can accept the selection of the character 3312 from the thumbnail list 3311. Further, the story reception unit 113 can set a costume (screen 333) and a hair color for the selected character 3312 (screen 333). Further, the story reception unit 113 can set the name of the character (screen 334) and set the facial expression of the character (screen 335).
  • the story reception unit 113 can set the standing position of the character in the scene (screen 336).
  • the standing position can be accepted by displaying slots up to the upper limit of the number of characters or items that can appear in the scene (3 in the example of FIG. 8) and selecting the slots.
  • the screen 336 displays slots in three standing positions, left and right and in the center, and the user can select one of these slots.
  • the story reception unit 113 can set the scene as if the character 3131 set in this way appears at the designated standing position.
  • FIG. 9 is a diagram for explaining the character placement process (when it reappears in the scene).
  • the costume and hair color of the character 3131 do not change in the same scene. Therefore, when the character appearance button 41 is pressed from the event selection tool 40, the costume selection (screen 332) and the hair color setting (screen 333) are omitted, and the story reception unit 113 has a facial expression. Selection (screen 335) and standing position selection (screen 336) can be performed. It is also possible to change the costume (screen 332) and the hair color (screen 333).
  • the story reception unit 113 can display a list of characters 3131 set in the past on the character selection screen 331. In this case, the story reception unit 113 can record the parameters related to the set character 3131 in the memory 11 or the storage 12, and display and select the list 3312 of the character 3131 in which the recorded parameters are set. ..
  • the item button 44 When the item button 44 is pressed in the event selection tool 40, the item can be placed in the scene in the same manner as the character 3131.
  • the story reception unit 113 can read the content material of the item from the content material storage unit 120 and display it in a list (screen 331), and accept the selection of the item from there.
  • the facial expression selection screen 335 is omitted, and the story reception unit 113 can accept the item arrangement position by presenting a slot in the same manner as the screen 336.
  • various parameter settings related to the item for example, changes in the color, shape, and state of the item
  • FIG. 10 is a diagram illustrating an arrangement process of dialogue.
  • the story reception unit 113 determines the position of the speech balloon (in the example of FIG. 10, the position of the balloon source). That is, the selection of the standing position of the character 3131 that emits the dialogue) is accepted (screen 351).
  • the position of the speech balloon can be accepted by displaying the slot for setting the position where the character 3131 is arranged and selecting the slot.
  • the story reception unit 113 can accept input of the content (text) of the dialogue (screen 352).
  • the story reception unit 113 can also receive the designation of the shape of the balloon (screen 353).
  • the story reception unit 113 can set the dialogue 3141 of the arranged character 3131.
  • FIG. 11 is a diagram illustrating an arrangement process of narration (text).
  • the screen transition from the screen 314 after setting the dialogue 3141 of the character 3131 is described, but the narration can be set from any screen on which the event selection tool 40 is displayed.
  • the story reception unit 113 can accept the input of the text indicating the content of the narration (screen 361).
  • the story reception unit 113 can also set the shape of the framework for displaying the narration (screen 362).
  • the story reception unit 113 can receive the designation of the content of the narration and the display shape, and can arrange the narration (text) in the scene.
  • the background is set for the scenes constituting the story, and the characters appear (and / or leave) and exit from the characters in chronological order.
  • You can set events such as speaking lines, presenting narration, and appearing (and / or leaving) items.
  • the content material proposed by the provider can be used for the characters and items used for the event, the user can easily create the scene simply by considering the development of the story in the scene.
  • the scene set in this way it is possible to advance the story while activating the set event in response to a tap by the viewer of the story.
  • events in chronological order are displayed side by side in the scene production process, so that the creator (user) can easily grasp the story development.
  • the characters that continue to appear in the scene are displayed lighter than the characters that newly appear (or reappear). Therefore, the creator (user) can quickly determine the newly appearing character on the screen when setting the event. Therefore, the efficiency of scene production can be improved.
  • the appearance positions of characters and items can be set by slots. Therefore, the creator (user) can focus on the development of the story without worrying about the detailed arrangement on the drawing, so that the production efficiency of the content can be improved.
  • the newly appearing character 3161 is displayed darker than the character 3131 that has already appeared in the past.
  • the costume is changed, the facial expression is changed, or a mark expressing the emotion of the character 3131 is set (not shown. For example, an exclamation mark indicating awareness, a tornado mark indicating trouble, etc.) are set.
  • a change occurs in the character 3131 that has already appeared, the character 3131 in which such a change has occurred can be displayed darker than the character 3131 in which the change has not occurred.
  • the appearance of the character, the utterance of the dialogue by the character, the arrangement of the narration, and the appearance of the item are taken up as the events occurring in the scene, but the event is not limited to these, and various events can be set.
  • various events can be set.
  • You can set various events such as changing the background.
  • Management server 2 User terminal 3 Provider terminal 4 Network 5 Viewer terminal 111 Content material reception department 112 Content material provision department 113 Story reception department 114 User request reception department 115 Scene generation department 120 Content material storage department 130 Story storage department

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本発明は、コンテンツの容易な作成を可能にすることを目的としている。本発明のコンテンツ作成支援システムは、シーンの背景の指定を受け付ける背景指定部と、前記シーン中の複数の時点について、複数の位置のうちから一つの位置を選択させることで、前記時点における前記シーンに登場可能なキャラクタの位置が設定可能となっており、前記時点において発生するイベントの指定を受け付けるイベント指定部と、前記背景上に前記時点において前記イベントを発生させたシーンを出力するためのシーン情報を作成するシーン作成部を備え、前記イベント指定部が、第1の前記時点より前の第2の前記時点には登場しておらず前記第1の時点に登場した前記キャラクタ、前記第2の時点から前記第1の時点で衣装が変化した前記キャラクタ、前記第2の時点から前記第1の時点で表情が変化した前記キャラクタ、前記第2の時点から前記第1の時点で感情を表現するマークが変化した前記キャラクタの少なくともいずれかについて、他の前記キャラクタよりも濃く表示することを特徴とする。

Description

コンテンツ作成支援システム
 本発明はコンテンツ作成支援システムに関する。
 近年、ネット上で小説や漫画を配信するサービスが提供されている。
 特許文献1には、連載小説をネット配信する連載作品配信装置が開示されている。
特開2011-227596号公報
 しかしながら、小説や漫画などのコンテンツを作成するには手間がかかる。
 本発明はこのような背景を鑑みてなされたものであり、コンテンツを容易に作成することのできる技術を提供することを目的とする。
 上記課題を解決するための本発明の主たる発明は、コンテンツの作成を支援するシステムであって、シーンの背景の指定を受け付ける背景指定部と、前記シーン中の複数の時点について、前記時点において発生するイベントの指定を受け付けるイベント指定部と、前記背景上に前記時点において前記イベントを発生させたシーンを出力するためのシーン情報を作成するシーン作成部と、を備えることを特徴とする。
 本発明によれば、コンテンツを容易に作成することができる。
本実施形態に係るコンテンツ作成支援システムによって制作することができる小説の一例を示す図である。 本実施形態のコンテンツ作成支援システムの全体構成例を示す図である。 管理サーバ1のハードウェア構成例を示す図である。 管理サーバ1のソフトウェア構成例を示す図である。 シーン制作処理の流れを説明する図である。 シーン制作処理の一例を示す図である。 背景の配置処理を説明する図である。 キャラクターの配置処理(初めてシーンに登場する場合)を説明する図である。 キャラクターの配置処理(シーンに再登場する場合)を説明する図である。 セリフの配置処理を説明する図である。 ナレーション(テキスト)の配置処理を説明する図である。
<発明の概要>
 本発明の実施形態の内容を列記して説明する。本発明は、たとえば、以下のような構成を備える。
[項目1]
 コンテンツの作成を支援するシステムであって、
 シーンの背景の指定を受け付ける背景指定部と、
 前記シーン中の複数の時点について、前記時点において発生するイベントの指定を受け付けるイベント指定部と、
 前記背景上に前記時点において前記イベントを発生させたシーンを出力するためのシーン情報を作成するシーン作成部と、
 を備えることを特徴とするコンテンツ作成支援システム。
[項目2]
 項目1に記載のコンテンツ作成支援システムであって、
 前記イベントには、キャラクタの登場が含まれ、
 前記イベント指定部は、登場する前記キャラクタ及び前記キャラクタが登場する位置の指定を受け付けること、
 を特徴とするコンテンツ作成支援システム。
[項目3]
 項目2に記載のコンテンツ作成支援システムであって、
 前記イベントには、前記キャラクタの登場に加えて、前記キャラクタがセリフを発することが含まれ、
 前記イベント指定部はさらに、前記キャラクタが発する前記セリフの入力を受け付けること、
 を特徴とするコンテンツ作成支援システム。
[項目4]
 項目2に記載のコンテンツ作成支援システムであって、
 前記イベント指定部は、前記シーンに登場し得る前記キャラクタの最大数以下のスロットを提示し、前記スロットの何れかの指定により前記位置の指定を受け付けること、
 を特徴とするコンテンツ作成支援システム。
[項目5]
 項目4に記載のコンテンツ作成支援システムであって、
 前記イベント指定部は、
  指定された前記位置に対応する前記スロットに、指定された前記キャラクタを表示し、
  過去の前記時点から変化が生じている前記キャラクタは、変化が生じていない前記キャラクタよりも濃く表示すること、
 を特徴とするコンテンツ作成支援システム。
[項目6]
 項目1に記載のコンテンツ作成支援システムであって、
 前記イベントには、前記シーンにナレーションが提供されることが含まれ、
 前記イベント指定部は、前記ナレーションを表すテキストの入力を受け付けること、
 を特徴とするコンテンツ作成支援システム。
 以下、本発明の一実施形態について、図面を参照しながら説明する。
<システム概要>
 本実施形態に係るコンテンツ作成支援システムは、提供者(クリエイター)が制作した背景やキャラクタ等のコンテンツ素材を利用して、使用者(ライター)が小説や漫画などのストーリー(コンテンツ)を制作するストーリー制作支援プラットフォームである。
 ストーリーは、例えば小説や漫画、絵本、ゲーム、ドラマ、アニメ、戯曲、映画等が含まれる。図1は、本実施形態に係るコンテンツ作成支援システムによって制作することができる小説の一例を示す図である。本例は、複数の背景画像やキャラクタ画像とともに、セリフが次々と表示され、クリックやタッチスクリーンへのタップ等の入力操作によってストーリーを読み進めることができるものである。
<構成>
 図2は、本実施形態のコンテンツ作成支援システムの全体構成例を示す図である。コンテンツ作成支援システムは、管理サーバ1、使用者端末2、提供者端末3、ネットワーク4、閲覧者端末5を備える。サーバ1は、ネットワーク4を介して使用者端末2、提供者端末3、閲覧者端末5に接続される。また、端末2、3、5の具体的な機器は、携帯電話、スマートフォン、タブレットコンピュータ、パーソナルコンピュータ等のコンピュータである。ストーリーを制作するライターは使用者端末2、コンテンツ素材を提供するクリエイターは提供者端末3を操作して管理サーバ1にアクセスし、ストーリー制作支援プラットフォームを利用する。
<ハードウェア構成>
 図3は、管理サーバ1のハードウェア構成例を示す図である。管理サーバ1は、使用者端末2及び提供者端末3と通信を介して情報処理を実行することにより、システムの一部を構成する。管理サーバ1は、例えばワークステーションやパーソナルコンピュータのような汎用コンピュータとしてもよいし、或いはクラウド・コンピューティングによって論理的に実現されてもよい。
 管理サーバ1は、少なくとも、制御部10、メモリ11、ストレージ12、送受信部13、入出力部14等を備え、これらはバス15を通じて相互に電気的に接続される。
 制御部10は、管理サーバ1全体の動作を制御し、各要素間におけるデータの送受信の制御、及びアプリケーションの実行に必要な情報処理等を行う演算装置である。例えば制御部10はCPU(Central Processing Unit)であり、ストレージ12に格納されメモリ11に展開されたプログラム等を実行して各情報処理を実施する。
 メモリ11は、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリやHDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ11は、制御部10のワークエリア等として使用され、また、管理サーバ1の起動時に実行されるBIOS(Basic Input / Output System)、及び各種設定情報等を格納する。
 ストレージ12は、アプリケーション・プログラム等の各種プログラムを格納する。各処理に用いられるデータを格納したデータベースがストレージ12に構築されていてもよい。
 送受信部13は、管理サーバ1をネットワーク4に接続する。なお、送受信部13は、Bluetooth(登録商標)及びBLE(Bluetooth Low Energy)の近距離通信インタフェースを備えていてもよい。
 入出力部14は、必要に応じて使用するキーボード・マウス類等の情報入力機器、及びディスプレイ等の出力機器である。
 バス15は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各種制御信号を伝達する。
 図4は、管理サーバ1のソフトウェア構成例を示す図である。管理サーバ1は、コンテンツ素材受付部111、コンテンツ素材提供部112、ストーリー受付部113、使用者要求受付部114、シーン生成部115、コンテンツ素材記憶部120、ストーリー記憶部130を備える。
 なお、コンテンツ素材受付部111、コンテンツ素材提供部112、ストーリー受付部113、使用者要求受付部114、シーン生成部115は、管理サーバ1が備える制御部10がストレージ12に記憶されているプログラムをメモリ11に読み出して実行することにより実現され、コンテンツ素材記憶部120、ストーリー記憶部130は、メモリ11及びストレージ12の少なくともいずれかにより提供される記憶領域の一部として実現される。
 コンテンツ素材受付部111は、提供者端末3からコンテンツ素材の提供を受ける。コンテンツ素材とは、ストーリーの制作に使用され得る画像、動画、音、テキスト、記号、アイコン等のデータである。ストーリーにおいて背景、キャラクタ、アイテム、スチル、BGM、効果音、音声、テキスト、記号、アイコン等として使用されるが、これらに限定されない。提供者は、提供者端末3により、自身で制作、入手したコンテンツ素材を提供することができる。
 コンテンツ素材受付部111は、提供されたコンテンツ素材データをコンテンツ素材記憶部120に格納する。コンテンツ素材提供部112は、使用者端末2からの要請に応じてコンテンツ素材を使用者端末2に対して提供する。
 ストーリー受付部113は、ストーリーを受け付ける。本実施形態では、ストーリー受付部113は、ストーリーを構成するシーンの制作を1回以上行うことによりストーリーを制作することができる。ストーリー受付部113は、背景や登場するキャラクタ、シーンに登場するオブジェクト(物や動物など)などのコンテンツ素材の指定を受け付け、また、キャラクタが発するセリフやシーンに流れるナレーションなどの入力を受け付け、これらを含むシーン情報(シーンを表す情報)を作成することができる。ストーリー受付部113は、コンテンツ素材記憶部120に登録されているコンテンツ素材を提示して、その中から選択を受け付けるようにしてもよいし、使用者からコンテンツ素材の入力を受け付けるようにしてもよい。また、ストーリー受付部113は、複数のシーンが連続したものとしてストーリーを制作することができる。すなわち、ストーリー受付部113は、複数のシーン情報を含むストーリー情報(ストーリーを表す情報)を作成することができる。
 使用者要求受付部114は、使用者からストーリーを保存する旨の入力を受け付ける。使用者要求受付部114は、使用者からの入力に応じて、ストーリーをストーリー記憶部130に登録することができる。
 シーン生成部115は、シーンを生成する。シーン生成部115は、使用者が選択したコンテンツ素材をコンテンツ素材記憶部120から呼び出し、また、使用者が入力したテキスト等と関連付けることによってシーンを生成することができる。また、シーン生成部115は、使用者から受信したコンテンツ素材データを使ってシーンを作成することもできる。例えば、各コンテンツ素材及びテキストの表示位置や、閲覧時の表示順、タイミング等の設定情報を付与することができる。ストーリーは、一以上のコンテンツ素材及びテキストデータで構成される最小単位であるシーンと、任意の数のシーンで構成されるエピソードによって構成されてもよいが、これに限られない。
<ストーリー制作の流れ>
 以下、ストーリー制作におけるシーンの制作処理について説明する。
 図5は、シーン制作処理の流れを説明する図である。
 ストーリー受付部113は、背景の指定を受け付け(S201)、シーン制作終了の指示を受けるまで、イベントの選択を受け付け(S202)、受け付けたインベントの設定を行う(S203)。本実施形態において、イベントとは、キャラクタの登場、キャラクタによるセリフ、シーンのナレーション、及びアイテムの登場のいずれかであるものとするが、これに限らず、シーンに含めうる任意のイベントであってよい。例えば、BGMの設定などをイベントとして追加するようにしてもよい。イベントの設定とは、当該シーンにおけるイベントの具体的な内容を設定することであり、例えば、キャラクタの登場の場合、登場させるキャラクタの選択やキャラクタを登場させる位置の選択などがあり、セリフの場合、セリフの内容の入力やセリフの吹き出しの形状の選択などがあり、ナレーションの場合、ナレーションの内容の入力やナレーションを文字列として表示する枠の選択などがあり、アイテムの条等の場合、登場させるアイテムの選択やアイテムが登場する位置の選択などがある。ストーリー受付部113は、イベントの選択及び設定を繰り返した後、シーンにおいてイベントが発生するように設定したシーン情報を作成する(S204)。
 以上のようにして、ストーリー受付部113は、シーン情報を作成することができる。なお、ストーリー受付部113は、一連のシーン情報を作成することにより、最終的にストーリーを作成することができる。
 図6は、シーン制作処理の一例を示す図である。なお、図6乃至図11の例ではスマートフォンを用いてシーン制作を行うことを想定しているが、これに限らず、パーソナルコンピュータによりシーン制作を行うことも可能である。図6乃至図11に示す例は、ストーリー受付部113が使用者端末2を使用している使用者とのインタラクションにより行われうる。
 空のシーン(画面311)から、背景3121を設定し(画面312)、キャラクタ3131を配置し(画面313)、配置したキャラクタ3131のセリフ3141を設定し(画面314)、あるいは、シーンのナレーション3151を配置することができる(画面315)。
 また、新たなキャラクタ3161をシーンに登場させることができる(画面316)。ここでシーンに登場済みのキャラクタ
の表示は、新規に登場したキャラクタ3161の表示よりも薄く(新規のキャラクタ3161を登場済みのキャラクタ3131よりも濃く)表示することで、視認性を向上することができる。そして、新たなキャラクタ3161についても、発するセリフ3171を配置することができる(画面317)。なお、ここでナレーションを配置することもできるし、セリフやナレーションを挿入せずに、さらなるキャラクタやアイテム等を登場させることもできる。
 さらに、新しいキャラクタ3181を配置して(画面318)、そのキャラクタ3181のセリフ3191を設定することができる(画面319)。画面319の例では、画面314の例とは異なる吹き出しの形状がセリフ3191に設定されている。
 以上のように、シーンの時系列にそって順番に発生するイベント(キャラクタの登場、キャラクタによるセリフの発話、ナレーションの配置、アイテムの登場など)を設定していくことで、一連のイベントをシーンとして制作することができる。
 図7は、背景の配置処理を説明する図である。ストーリー受付部113は、トップページ311において背景部3111がタップされると、コンテンツ素材記憶部120から背景のコンテンツ素材を読み出して、そのサムネイルの一覧3211を表示することができる(画面321)。ストーリー受付部113は、サムネイルの一覧3211から背景3212の選択を受け付けるとともに、その背景3212を加工することもできる(画面322)。図7の例では、選択された背景3212について、朝焼けあるいは夕焼け(朝夕)の色味となるような画像処理が行われている。なお、ストーリー受付部113は、画像の加工を行わなくてもよいし、色味の変更に代えてまたは色味の変更に加えて、任意の画像処理を行うようにしてもよい。ストーリー受付部113は、このようにして選択及び加工された背景3121をシーンの背景として設定することができる(画面312)。
 図8は、キャラクタの配置処理(初めてシーンに登場する場合)を説明する図である。ストーリー受付部113は、イベントの選択ツール40から、キャラクタの登場を指示するボタン41が押下されると、キャラクタの配置処理を行うことができる。ストーリー受付部113は、コンテンツ素材記憶部120からキャラクタのコンテンツ素材を読み出してその一覧3311を表示することができる(画面331)。ストーリー受付部113は、サムネイルの一覧3311からキャラクタ3312の選択を受け付けることができる。また、ストーリー受付部113は、選択されたキャラクタ3312について、衣装を設定し(画面333)、髪の色を設定することができる(画面333)。さらに、ストーリー受付部113は、キャラクタの名前を設定し(画面334)、キャラクタの表情を設定することができる(画面335)。また、ストーリー受付部113は、シーンにおけるキャラクタの立ち位置を設定することができる(画面336)。立ち位置は、シーンに登場可能なキャラクタ又はアイテムの数の上限値(図8の例では3)までのスロットを表示し、そのスロットを選択させることにより受け付けることができる。図8の例では、画面336には、左右並びに中央の3つの立ち位置のスロットが表示され、使用者はこれらのスロットの1つを選択することができる。ストーリー受付部113は、このようにして設定したキャラクタ3131を、指定された立ち位置に登場するものとしてシーンを設定することができる。
 図9は、キャラクタの配置処理(シーンに再登場する場合)を説明する図である。本実施形態では、キャラクタ3131の衣装及び髪の色は、同一のシーンでは変化しないものとする。したがって、イベントの選択ツール40からキャラクタの登場ボタン41が押下された場合に、衣装の選択(画面332)及び髪の色の設定(画面333)を省略して、ストーリー受付部113は、表情の選択(画面335)と立ち位置の選択(画面336)を行うことができる。なお、衣装の変更(画面332)及び髪の色の変更(画面333)を行うようにすることもできる。ストーリー受付部113は、キャラクタの選択画面331において、過去に設定したキャラクタ3131を一覧表示することができる。この場合、ストーリー受付部113は、設定したキャラクタ3131に関するパラメータを、メモリ11やストレージ12に記録しておき、記録されているパラメータを設定したキャラクタ3131の一覧3312を表示して選択させることができる。
 なお、イベントの選択ツール40において、アイテムボタン44が押下された場合には、キャラクタ3131と同様にして、アイテムをシーンに配置することができる。この場合、ストーリー受付部113は、コンテンツ素材記憶部120からアイテムのコンテンツ素材を読み出して一覧表示し(画面331)、そこからアイテムの選択を受け付けることができる。アイテムについては、表情の選択画面335を省略し、ストーリー受付部113は、アイテムの配置位置を、画面336と同様にスロットを提示することなどにより受け付けることができる。なお、アイテムに関する各種のパラメータの設定(例えば、アイテムの色、形状、状態の変化など)を表情選択と同様にして受け付けるようにしてもよい。
 図10は、セリフの配置処理を説明する図である。キャラクタ3131が配置され(画面313)、イベントの選択ツール40からセリフボタン42が押下されると、ストーリー受付部113は、セリフの吹き出しの位置(図10の例では、吹き出しの吹き出し元の位置、すなわち、セリフを発するキャラクタ3131の立ち位置)の選択を受け付ける(画面351)。セリフの吹き出しの位置は、上述したキャラクタ3131を配置する位置を設定するスロットを表示し、スロットを選択させることにより受け付けることができる。ストーリー受付部113は、セリフの内容(テキスト)の入力を受け付けることができる(画面352)。また、ストーリー受付部113は、吹き出しの形状の指定を受け付けることもできる(画面353)。以上のようにして、ストーリー受付部113は、配置したキャラクタ3131のセリフ3141を設定することができる。
 図11は、ナレーション(テキスト)の配置処理を説明する図である。図11の例では、キャラクタ3131のセリフ3141の設定後の画面314からの画面遷移を説明しているが、イベントの選択ツール40が表示されている任意の画面からナレーションを設定することができる。イベントの選択ツール40のテキストボタン43が押下されると、ストーリー受付部113は、ナレーションの内容を示すテキストの入力を受け付けることができる(画面361)。また、ストーリー受付部113は、ナレーションを表示する枠組みの形状を設定することもできる(画面362)。ストーリー受付部113は、ナレーションの内容及び表示形状の指定を受け付けて、シーンにナレーション(テキスト)を配置することができる。
 以上説明したように、本実施形態のコンテンツ作成支援システムによれば、ストーリーを構成するシーンについて、背景を設定するとともに、時系列に沿って、キャラクタの登場(及び/又は退場)、キャラクタからのセリフの発話、ナレーションの提示、アイテムの登場(及び/又は退場)などのイベントを設定することができる。また、イベントに用いるキャラクタやアイテムなどには、提供者が提要したコンテンツ素材を用いることができるので、使用者は、シーンにおけるストーリーの展開を考えるだけで、容易にシーンを制作することができる。また、このようにして設定されたシーンを用いることにより、ストーリーの閲覧者によるタップに応じて、設定されたイベントを発動させながら、ストーリーを進めるようにすることができる。
 また、本実施形態のコンテンツ作成支援システムによれば、シーンの制作過程において、時系列に沿ったイベントが並んで表示されるため、制作者(使用者)がストーリー展開を把握しやすい。
 また、本実施形態のコンテンツ作成支援システムによれば、シーンに登場し続けているキャラクタは、新たに登場(又は再登場)したキャラクタに比べて薄く表示される。したがって、制作者(使用者)は、新たに登場したキャラクタをイベント設定時に画面上で迅速に判断することができる。よって、シーン制作の効率を向上することができる。
 また、本実施形態のコンテンツ作成支援システムによれば、キャラクタやアイテムの登場位置をスロットにより設定することができる。したがって、制作者(使用者)は、細かな描画上の配置を気にすることなく、ストーリーの展開に注力することができるので、コンテンツの制作効率を向上させることができる。
 上述した実施の形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。
 例えば、本実施形態では、新たなキャラクタ3161がシーンに登場した場合に、過去に登場済みのキャラクタ3131よりも新たに登場したキャラクタ3161を濃く表示するものとしたが、登場に限らず、例えば、衣装を変更した場合や、表情を変更した場合、キャラクター3131の感情を表現するマーク(不図示。例えば、気づきを示すエクスクラメーションマークや、悩みを示すトルネードマークなど。)を設定した場合など、登場済みのキャラクタ3131に変化が生じた場合に、そのような変化が生じたキャラクタ3131について、変化が生じていないキャラクタ3131よりも濃く表示するようにすることができる。
 また、本実施形態では、シーンにおいて発生するイベントには、キャラクタの登場、キャラクタによるセリフの発話、ナレーションの配置、アイテムの登場を取り上げたが、これらに限らず、各種のイベントを設定することができる。例えば、上述したキャラクタの衣装や表情の変更、キャラクタの感情を示すマークの設定、変更若しくは解除、キャラクタの立ち位置(スロット)の変更、キャラクタの顔や身体の向きの変更、キャラクタの手足の動作、背景の変更など、各種のイベントを設定することができる。
  1    管理サーバ
  2    使用者端末
  3    提供者端末
  4    ネットワーク
  5    閲覧者端末
  111  コンテンツ素材受付部
  112  コンテンツ素材提供部
  113  ストーリー受付部
  114  使用者要求受付部
  115  シーン生成部
  120  コンテンツ素材記憶部
  130  ストーリー記憶部

Claims (6)

  1.  コンテンツの作成を支援するシステムであって、
     シーンの背景の指定を受け付ける背景指定部と、
     前記シーン中の複数の時点について、複数の位置のうちから一つの位置を選択させることで、前記時点における前記シーンに登場可能なキャラクタの位置が設定可能となっており、前記時点において発生するイベントの指定を受け付けるイベント指定部と、
     前記背景上に前記時点において前記イベントを発生させたシーンを出力するためのシーン情報を作成するシーン作成部と、
     を備え、
     前記イベント指定部は、第1の前記時点より前の第2の前記時点には登場しておらず前記第1の時点に登場した前記キャラクタ、前記第2の時点から前記第1の時点で衣装が変化した前記キャラクタ、前記第2の時点から前記第1の時点で表情が変化した前記キャラクタ、前記第2の時点から前記第1の時点で感情を表現するマークが変化した前記キャラクタの少なくともいずれかについて、他の前記キャラクタよりも濃く表示すること、
     を特徴とするコンテンツ作成支援システム。
  2.  請求項1に記載のコンテンツ作成支援システムであって、
     前記イベントには、キャラクタの登場が含まれ、
     前記イベント指定部は、登場する前記キャラクタ及び前記キャラクタが登場する前記表示位置の指定を受け付けること、
     を特徴とするコンテンツ作成支援システム。
  3.  請求項2に記載のコンテンツ作成支援システムであって、
     前記イベントには、前記キャラクタの登場に加えて、前記キャラクタがセリフを発することが含まれ、
     前記イベント指定部はさらに、前記キャラクタが発する前記セリフの入力を受け付けること、
     を特徴とするコンテンツ作成支援システム。
  4.  請求項2に記載のコンテンツ作成支援システムであって、
     前記イベント指定部は、前記シーンに登場し得る前記キャラクタの最大数以下の前記表示位置を提示し、前記表示位置の何れかの指定を受け付けること、
     を特徴とするコンテンツ作成支援システム。
  5.  請求項4に記載のコンテンツ作成支援システムであって、
     前記イベント指定部は、
      指定された前記表示位置に、指定された前記キャラクタを表示すること、
     を特徴とするコンテンツ作成支援システム。
  6.  請求項1に記載のコンテンツ作成支援システムであって、
     前記イベントには、前記シーンにナレーションテキストが提供されることが含まれ、
     前記イベント指定部は、前記ナレーションテキストの入力を受け付けること、
     を特徴とするコンテンツ作成支援システム。
PCT/JP2021/003834 2020-02-03 2021-02-03 コンテンツ作成支援システム WO2021157595A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-016081 2020-02-03
JP2020016081A JP6714286B1 (ja) 2020-02-03 2020-02-03 コンテンツ作成支援システム

Publications (1)

Publication Number Publication Date
WO2021157595A1 true WO2021157595A1 (ja) 2021-08-12

Family

ID=71103971

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/003834 WO2021157595A1 (ja) 2020-02-03 2021-02-03 コンテンツ作成支援システム

Country Status (2)

Country Link
JP (1) JP6714286B1 (ja)
WO (1) WO2021157595A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114143281A (zh) * 2021-11-10 2022-03-04 聚好看科技股份有限公司 一种文案生成方法、服务器及显示设备

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115804081A (zh) * 2020-07-15 2023-03-14 索尼集团公司 信息处理装置、信息处理方法和程序
JP6964918B1 (ja) * 2021-09-15 2021-11-10 株式会社Type Bee Group コンテンツ作成支援システム、コンテンツ作成支援方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007018076A (ja) * 2005-07-05 2007-01-25 Matsushita Electric Ind Co Ltd 情報管理装置および情報管理方法
JP2011227596A (ja) * 2010-04-16 2011-11-10 Mediaindex Co Ltd 連載作品配信装置、連載作品配信システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007018076A (ja) * 2005-07-05 2007-01-25 Matsushita Electric Ind Co Ltd 情報管理装置および情報管理方法
JP2011227596A (ja) * 2010-04-16 2011-11-10 Mediaindex Co Ltd 連載作品配信装置、連載作品配信システム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HAGIWARA TAKAYUKI: "Script girl NovelChan", SCRIPT I/O, vol. 40, no. 11, 1 November 2015 (2015-11-01), pages 100 - 102 *
TANAKA YUKI, KOHGAKU SHA: "INtroduction of developing unity & banquet Novel Game first Edition", UNITY, 15 June 2018 (2018-06-15), pages 97 - 132 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114143281A (zh) * 2021-11-10 2022-03-04 聚好看科技股份有限公司 一种文案生成方法、服务器及显示设备

Also Published As

Publication number Publication date
JP6714286B1 (ja) 2020-06-24
JP2021124810A (ja) 2021-08-30

Similar Documents

Publication Publication Date Title
WO2021157595A1 (ja) コンテンツ作成支援システム
US20180095734A1 (en) System and method for creating a universally compatible application development system
US10580319B2 (en) Interactive multimedia story creation application
CN106502638B (zh) 用于提供视听反馈的设备、方法和图形用户界面
WO2020034747A1 (zh) 图片生成方法、装置、设备及存储介质
CN111294663B (zh) 弹幕处理方法、装置、电子设备及计算机可读存储介质
EP3835933A1 (en) Product browsing method and apparatus, device and storage medium
CN112230909B (zh) 小程序的数据绑定方法、装置、设备及存储介质
US20130268826A1 (en) Synchronizing progress in audio and text versions of electronic books
Lal Digital design essentials: 100 ways to design better desktop, web, and mobile interfaces
US20220093132A1 (en) Method for acquiring video and electronic device
US20180143741A1 (en) Intelligent graphical feature generation for user content
US20160188558A1 (en) Information processing device, information processing method, and program
US11556967B2 (en) Reduced bias submission review system
CN111432264A (zh) 基于媒体信息流的内容展示方法、装置、设备及存储介质
CN115129212A (zh) 视频编辑方法、装置、计算机设备、存储介质及产品
WO2017219967A1 (zh) 一种虚拟键盘的生成方法及装置
US20180088791A1 (en) Method and apparatus for producing virtual reality content for at least one sequence
WO2020186837A1 (zh) 文本动画控制方法和装置、存储介质和处理器
KR101550346B1 (ko) 다문화 가정 임산부를 위한 콘텐츠 앱 기반의 태교용 그림책 콘텐츠 재생 방법
JP6815054B1 (ja) コンテンツ作成支援システム
KR102607377B1 (ko) 컨텐츠 추천 방법 및 사용자 단말
JP6747741B1 (ja) コンテンツ作成支援システム
KR102613143B1 (ko) 텍스트-비디오 생성 방법, 장치, 설비 및 매체
JP2021125235A (ja) コンテンツ作成支援システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21751318

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21751318

Country of ref document: EP

Kind code of ref document: A1