JP2022138739A - Processing apparatus for animation generation and distribution, animation generation and distribution method, and animation generation and distribution program - Google Patents

Processing apparatus for animation generation and distribution, animation generation and distribution method, and animation generation and distribution program Download PDF

Info

Publication number
JP2022138739A
JP2022138739A JP2021038796A JP2021038796A JP2022138739A JP 2022138739 A JP2022138739 A JP 2022138739A JP 2021038796 A JP2021038796 A JP 2021038796A JP 2021038796 A JP2021038796 A JP 2021038796A JP 2022138739 A JP2022138739 A JP 2022138739A
Authority
JP
Japan
Prior art keywords
data
moving image
distribution
generating
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021038796A
Other languages
Japanese (ja)
Other versions
JP7372020B2 (en
Inventor
峻 高野
shun Takano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bloom Act
Bloom Act Inc
Original Assignee
Bloom Act
Bloom Act Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=83400199&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2022138739(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Bloom Act, Bloom Act Inc filed Critical Bloom Act
Priority to JP2021038796A priority Critical patent/JP7372020B2/en
Publication of JP2022138739A publication Critical patent/JP2022138739A/en
Application granted granted Critical
Publication of JP7372020B2 publication Critical patent/JP7372020B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an animation generation and distribution device which allows for obtaining detailed feedback of users irrespective of playback environment while reducing users' operation as much as possible.SOLUTION: An animation generation and distribution system for generation and distribution of animation allows for obtaining detailed feedback of each of individual users by comprising: data reception means which receives input data; animation generation means which generates animation data by using processed input data generated from the input data received by the data reception means; branching data setting means which sets branching data for branching data to be next distributed, from the received input data, pre-stored data, and data generated by the system; animation distribution means which distributes an animation by using the received input data, pre-stored data, and data generated by the system; and transmission source identification code generation means which generates a transmission source identification code allowing the animation distribution means to provide animation distribution.SELECTED DRAWING: Figure 1

Description

本発明は、動画生成配信処理装置、動画生成配信方法、および動画生成配信プログラムに関し、特に、ユーザによって入力された情報等によって、動画を作成し、配信する装置等に関する。 The present invention relates to a moving image generation and distribution processing device, a moving image generation and distribution method, and a moving image generation and distribution program, and more particularly to a device for generating and distributing a moving image based on information input by a user.

従来、インターネットやテレビを介して提供される動画として、コンピュータグラフィックによって作成したものや、実画像に前記コンピュータグラフィックを合成して作成したものが見られる。 2. Description of the Related Art Conventionally, moving images provided via the Internet or television have been created using computer graphics or created by synthesizing actual images with the computer graphics.

特許5146974号Patent No. 5146974 特許6308602号Patent No. 6308602

上記先行技術は、ユーザの選択に応じて変化する動画を、容易に作成することが可能な動画作成システムを提供しているが、ユーザに求める選択操作が複雑な上、再生環境が限られ、動画を提供した際の感想などのフィードバックも取得できない。 The prior art described above provides a moving picture creation system that can easily create a moving picture that changes according to the user's selection. Feedback such as impressions when providing videos cannot be obtained.

本願発明は上記事情に鑑みてなされたものであり、ユーザの操作を極力減らし、再生環境を問わずに、顧客の詳細なフィードバックが得られるような装置を提供する。 SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and provides an apparatus that minimizes user operations and allows detailed customer feedback to be obtained regardless of the reproduction environment.

前記課題を解決するために、請求項1の発明は、動画を生成及び配信する動画生成配信装置であって、入力データを受信するデータ受信手段と、前記データ受信手段で受け取った前記入力データから生成された入力加工データを用いて動画データを生成する動画生成手段と、受信した前記入力データ、事前保管データ及び当該システムで生成されたデータから、次に配信するデータを分岐させる分岐データを設定する分岐データ設定手段と、受信した前記入力データ、前記事前保管データ及び当該システムで生成されたデータを使用して動画を配信する動画配信手段と、前記動画配信手段にて動画配信を提供可能とする送信元識別符号を生成する送信元識別符号生成手段と、を備えることを特徴としている。 In order to solve the above-mentioned problems, the invention of claim 1 is a moving image generation and distribution apparatus for generating and distributing moving images, comprising: data receiving means for receiving input data; A moving image generating means for generating moving image data using the generated input processed data, and branch data for branching data to be distributed next from the received input data, pre-stored data, and data generated by the system are set. branch data setting means for setting the branch data, video distribution means for distributing a video using the received input data, the pre-stored data, and data generated by the system, and the video distribution can be provided by the video distribution means and source identification code generation means for generating a source identification code.

請求項2の発明は、動画を生成及び配信する動画生成配信装置であって、入力データを受信するデータ受信手段と、前記データ受信手段で受け取った前記入力データから生成された入力加工データを用いてHTMLファイルを生成するHTML生成手段と、受信した前記入力データ、事前保管データ及び当該システムで生成されたデータから、次に配信するデータを分岐させる分岐データを設定する分岐データ設定手段と、受信した前記入力データ、前記事前保管データ及び当該システムで生成されたデータを使用して動画を配信する動画配信手段と、前記動画配信手段にて動画配信を提供可能とする送信元識別符号を生成する送信元識別符号生成手段と、を備えることを特徴としている。 According to a second aspect of the invention, there is provided a motion picture generation and distribution apparatus for generating and distributing a motion picture, which uses data receiving means for receiving input data and input processed data generated from the input data received by the data receiving means. branch data setting means for setting branch data for branching data to be distributed next from the received input data, pre-stored data, and data generated by the system; a moving image distribution means for distributing a moving image using the input data, the pre-stored data, and the data generated by the system; and a transmission source identification code generation means for generating the transmission source identification code.

請求項3の発明は、前記データ受信手段で受け取った前記入力データの展開を行うファイル展開手段と、前記ファイル展開手段で展開された展開データを解析するファイル解析手段と、前記ファイル解析手段で生成された展開解析データからテキスト抽出を行うテキスト抽出手段と、前記テキスト抽出手段で抽出したテキストデータから音声データを生成する音声合成手段と、を備えることを特徴としている。 According to a third aspect of the present invention, a file developing means for expanding the input data received by the data receiving means, a file analyzing means for analyzing the expanded data expanded by the file expanding means, and a file generated by the file analyzing means. text extracting means for extracting text from the developed analysis data; and speech synthesizing means for generating speech data from the text data extracted by the text extracting means.

請求項4の発明は、前記生成されたHTMLファイルはHTML5にて記述され、HTML5で表現するイメージやリンク情報を動画として扱う、又は動画ファイルを埋め込み配信を行う、ことを特徴としている。 According to a fourth aspect of the present invention, the generated HTML file is described in HTML5, and images and link information expressed in HTML5 are handled as moving images, or the moving image files are embedded and distributed.

請求項5の発明は、前記HTMLファイルを直接編集可能なHTML編集手段と、を備えることを特徴としている。 The invention of claim 5 is characterized by comprising HTML editing means capable of directly editing the HTML file.

請求項6の発明は、前記送信元識別符号生成手段は視聴者毎に生成され、送信元識別符号毎のデータを取得、データ解析を可能とするアクセスデータ分析手段と、を備えることを特徴としている。 The invention according to claim 6 is characterized in that the transmission source identification code generation means is generated for each viewer, and includes access data analysis means for obtaining data for each transmission source identification code and enabling data analysis. there is

請求項7の発明は、会議システムと連携する会議システム連携手段と、前記会議システム連携手段で連携した会議システムと通信を行う会議通信手段と、を備えることを特徴としている。 The invention according to claim 7 is characterized by comprising conference system cooperation means for cooperating with a conference system, and conference communication means for communicating with the conference system cooperated by the conference system cooperation means.

請求項8の発明は、表情、感情又は人間が発するデータを読み取る人感データ取得デバイスと、を備えることを特徴としている。 The invention of claim 8 is characterized by comprising a human feeling data acquisition device for reading facial expressions, emotions, or data emitted by humans.

請求項9の発明は、前記人感データ取得デバイスから読み取った人感データを認識する人感データ認識手段と、認識された前記人感データを解析する人感データ解析手段と、を備えることを特徴としている。 According to the ninth aspect of the present invention, there is provided human feeling data recognition means for recognizing human feeling data read from the human feeling data acquisition device, and human feeling data analyzing means for analyzing the recognized human feeling data. Characterized by

本発明によれば、ユーザの操作を極力減らすことが可能となるだけでなく、再生環境を問わず、様々なユーザから感想等のフィードバックを取得することが可能となる。 According to the present invention, not only can user operations be reduced as much as possible, but feedback such as impressions can be obtained from various users regardless of the reproduction environment.

本実施形態に係る動画生成配信システムSの概要構成の一例を示す図である。It is a figure which shows an example of a schematic structure of the moving image production|generation distribution system S which concerns on this embodiment. 本実施形態に係る動画生成配信処理装置10の概要構成の一例を示すブロック図である。1 is a block diagram showing an example of a schematic configuration of a video generation/distribution processing apparatus 10 according to this embodiment; FIG. 本実施形態に係る動画生成外部処理装置40の概要構成の一例を示すブロック図である。1 is a block diagram showing an example of a schematic configuration of a moving image generation external processing device 40 according to this embodiment; FIG. 本実施形態に係る動画生成配信処理装置10及び外部処理装置40が動画生成する際における処理例を示すフローチャート図である。FIG. 4 is a flow chart diagram showing an example of processing when the moving image generation/distribution processing device 10 and the external processing device 40 according to the present embodiment generate moving images. 本実施形態に係る動画製作者等端末30に表示されるログイン画面の一例である。It is an example of the login screen displayed on the terminal 30, such as animation producers, etc. which concerns on this embodiment. 本実施形態に係る動画製作者等端末30に表示される動画生成初期画面の一例である。It is an example of a moving image generation initial screen displayed on the moving image creator terminal 30 according to the present embodiment. 本実施形態に係る動画製作者等端末30に表示されるプレゼンテーションファイル指定画面の一例である。It is an example of a presentation file designation screen displayed on the terminal 30 for video creators, etc. according to the present embodiment. 本実施形態に係る動画製作者等端末30に表示されるプレゼンテーションファイル指定画面にてプレゼンテーションファイルのアップロードを行っている一例である。It is an example of uploading a presentation file on the presentation file designation screen displayed on the terminal 30 for video creators, etc. according to the present embodiment. 本実施形態に係る動画製作者等端末30に表示される動画生成初期画面にてプレゼンテーションファイルのアップロードを行っている状態の一例である。It is an example of a state in which a presentation file is being uploaded on the animation generation initial screen displayed on the terminal 30 for animation creators, etc. according to the present embodiment. 本実施形態に係る動画製作者等端末30に表示される動画生成初期画面にてプレゼンテーションファイルのアップロードが完了した状態の一例である。It is an example of a state in which the upload of the presentation file is completed on the animation generation initial screen displayed on the terminal 30 of the animation creator etc. according to the present embodiment. 本実施形態に係る動画製作者等端末30に表示される設定・編集画面の一例である。It is an example of a setting/editing screen displayed on the terminal 30 for video creators, etc., according to the present embodiment. 本実施形態に係る動画生成配信処理装置10が動画編集する際における処理例を示すフローチャート図である。FIG. 4 is a flow chart diagram showing an example of processing when the moving image generation and distribution processing device 10 according to the present embodiment edits a moving image. 本実施形態に係る動画製作者等端末30に表示される設定・編集画面のセリフ編集画面の一例を示す図である。FIG. 11 is a diagram showing an example of a dialogue edit screen of the setting/edit screen displayed on the terminal 30 such as the video creator according to the present embodiment. 本実施形態に係る動画製作者等端末30に表示される設定・編集画面のテロップ編集画面の一例を示す図である。FIG. 10 is a diagram showing an example of a telop edit screen of the setting/edit screen displayed on the terminal 30 for movie creators, etc. according to the present embodiment. 本実施形態に係る動画製作者等端末30に表示される設定・編集画面の分岐データ設定編集画面の一例を示す図である。FIG. 10 is a diagram showing an example of a branch data setting/editing screen of the setting/editing screen displayed on the terminal 30 for movie producers, etc. according to the present embodiment. 本実施形態に係る動画製作者等端末30に表示される設定・編集画面のHTML編集画面の一例を示す図である。FIG. 10 is a diagram showing an example of an HTML editing screen of a setting/editing screen displayed on the terminal 30 for movie creators, etc. according to the present embodiment. 本実施形態に係る動画製作者等端末30に表示される設定・編集画面の会議システム連携画面の一例を示す図である。FIG. 10 is a diagram showing an example of a conference system cooperation screen of setting/editing screens displayed on the terminal 30 for video creators, etc. according to the present embodiment. 本実施形態に係る動画製作者等端末30に表示される設定画面の一例を示す図である。FIG. 3 is a diagram showing an example of a setting screen displayed on the terminal 30 for video creators, etc. according to the present embodiment. 本実施形態に係る動画生成配信処理装置10が動画を設定する際における処理例を示すフローチャート図である。FIG. 4 is a flow chart diagram showing an example of processing when the moving image generation and distribution processing device 10 according to the present embodiment sets a moving image. 本実施形態に係る動画製作者等端末30に表示される設定画面のアバター設定画面の一例を示す図である。FIG. 10 is a diagram showing an example of an avatar setting screen of the setting screens displayed on the terminal 30 for video creators, etc. according to the present embodiment. 本実施形態に係る動画製作者等端末30に表示される設定画面の背景設定画面の一例を示す図である。FIG. 10 is a diagram showing an example of a background setting screen of the setting screen displayed on the terminal 30 such as the video creator according to the present embodiment. 本実施形態に係る動画製作者等端末30に表示される設定画面の音楽設定画面の一例を示す図である。FIG. 10 is a diagram showing an example of a music setting screen of the setting screen displayed on the terminal 30 for video creators, etc. according to the present embodiment. 本実施形態に係る動画生成配信処理装置10が動画を配信し、視聴者等端末50にて動画を視聴する際における処理例を示すフローチャート図であるFIG. 10 is a flow chart diagram showing an example of processing when the moving image generation and distribution processing device 10 according to the present embodiment distributes moving images and the moving images are viewed on a terminal 50 such as a viewer. 本実施形態に係るシステム管理者等端末20及び動画製作者等端末30が動画生成配信処理装置10に動画解析指示を行い、動画生成配信処理装置10は動画視聴データを解析後、システム管理者等端末20及び動画製作者等端末30へ解析結果表示指示をする処理例を示すフローチャート図である。The system administrator terminal 20 and the video creator terminal 30 according to the present embodiment instruct the video generation and distribution processing device 10 to analyze the video, and the video generation and distribution processing device 10 analyzes the video viewing data. FIG. 10 is a flow chart diagram showing an example of processing for instructing the terminal 20 and the terminal 30 of a video creator, etc., to display analysis results. 本実施形態に係るシステム管理者等端末20及び動画製作者等端末30に表示される動画解析初期画面の一例を示す図である。FIG. 10 is a diagram showing an example of a moving image analysis initial screen displayed on the system administrator's terminal 20 and the moving image creator's terminal 30 according to the present embodiment. 本実施形態に係るシステム管理者等端末20及び動画製作者等端末30に表示される動画解析個別画面の一例を示す図であるFIG. 10 is a diagram showing an example of a video analysis individual screen displayed on the system administrator terminal 20 and the video producer terminal 30 according to the present embodiment. 本実施形態に係るシステム管理者等端末20及び動画製作者等端末30に表示される動画解析個別詳細画面の一例を示す図であるFIG. 10 is a diagram showing an example of a video analysis individual detail screen displayed on the system administrator terminal 20 and the video creator terminal 30 according to the present embodiment. 本実施形態に係るシステム管理者等端末20及び動画製作者等端末30に表示される動画解析全体詳細画面の一例を示す図であるFIG. 10 is a diagram showing an example of an overall video analysis detailed screen displayed on the system administrator terminal 20 and the video producer terminal 30 according to the present embodiment.

以下、添付図面を参照しながら本発明の実施の形態について説明する。以下の実施の形態は、本発明を説明するための例示であり、本発明をその実施の形態のみに限定する趣旨ではない。また、本発明は、その要旨を逸脱しない限り、様々な変形が可能である。さらに、各図面において同一の構成要素に対しては可能な限り同一の符号を付し、重複する説明は省略する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. The following embodiments are examples for explaining the present invention, and are not intended to limit the present invention only to the embodiments. Also, the present invention can be modified in various ways without departing from the gist thereof. Furthermore, in each drawing, the same reference numerals are given to the same constituent elements as much as possible, and redundant explanations are omitted.

[1.動画生成配信システムSの構成及び機能概要]
先ず、本実施形態に係る動画生成配信システムSの構成及び機能概要について、図1を用いて説明する。図1は、本実施形態に係る動画生成配信システムSの概要構成の一例を示す図である。
[1. Configuration and Function Overview of Moving Image Generation and Distribution System S]
First, the configuration and functional overview of a moving image generation and distribution system S according to this embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an example of a schematic configuration of a moving image generation/distribution system S according to this embodiment.

図1に示すように、動画生成配信システムSは、システム管理者2等が管理する動画生成配信処理装置10 ( 以下、処理装置10と略す) 、システム管理者2等が管理するシステム管理者等端末20、動画製作者3等が管理する動画製作者等端末30、管理者を問わない動画生成外部処理装置40 ( 以下、外部処理装置40と略す)、動画の視聴者5等が操作する複数の視聴者等端末50、及び自社又は他社の会議システム処理装置60とは、ネットワークNWを介して、例えば、通信プロトコルにTCP/IP等を用いて相互にデータの送受信が可能になっている。なお、ネットワークNWは、例えば、インターネット、専用通信回線(例えば、CATV(Community Antenna Television)回線)、移動体通信網(基地局等を含む)、及びゲートウェイ等により構築されている。 As shown in FIG. 1, a moving picture generation and distribution system S includes a moving picture generation and distribution processing device 10 (hereinafter abbreviated as processing device 10) managed by a system administrator 2, etc., and a system manager managed by a system manager 2, etc. A terminal 20, a video producer terminal 30 managed by a video producer 3, etc., a video generation external processing device 40 (hereinafter abbreviated as external processing device 40) regardless of the administrator, a plurality of video viewers 5, etc. The viewer terminal 50 and the conference system processing device 60 of the company or another company can mutually transmit and receive data via the network NW using, for example, TCP/IP as a communication protocol. The network NW is constructed by, for example, the Internet, a dedicated communication line (for example, a CATV (Community Antenna Television) line), a mobile communication network (including base stations, etc.), gateways, and the like.

処理装置10は、管理する者は特定しないが、例えば動画配信業者といったシステム管理者2等が管理する。処理装置10の詳細は後述するが、サーバ装置等で構築され、内部の記憶部に動画製作者及び視聴者のデータベースや処理プログラム等を有しており、動画生成配信システムの中核となる装置である。 The processor 10 is managed by a system administrator 2 or the like, for example, a moving image distribution company, although a person who manages it is not specified. Although the details of the processing device 10 will be described later, the processing device 10 is constructed by a server device or the like, has a database of video creators and viewers, a processing program, etc. in an internal storage unit, and is the core device of the video generation and distribution system. be.

システム管理者等端末20は管理する者は特定しないが、例えば特定のシステム管理者2等が保有、もしくは契約をしている通信機機能を有した汎用端末であり、パソコンであってもよく、タブレット等でも良い。 The person who manages the terminal 20, such as the system administrator, is not specified, but for example, it is a general-purpose terminal with a communication function that is owned by, or has a contract with, a specific system administrator 2, etc., and may be a personal computer. A tablet or the like is fine.

動画製作者等端末30は動画製作者3等が管理、保有、もしくは契約をしている通信機機能を有した汎用端末であり、パソコンであってもよく、タブレット、もしくはスマートフォン等でも良い。内部にWEBブラウザアプリケーションを有している、もしくは専用アプリケーションを有しており、それらを使って、ネットワークNWを介し、処理装置10に接続を行って、プレゼンテーションファイルの転送を行い、動画生成指示を行う。 The moving image producer terminal 30 is a general-purpose terminal having a communication function managed, owned, or contracted by the moving image producer 3 or the like, and may be a personal computer, a tablet, a smartphone, or the like. It has a WEB browser application inside, or has a dedicated application, and uses them to connect to the processing device 10 via the network NW, transfer the presentation file, and issue a moving image generation instruction. conduct.

外部処理装置40は、管理する者は特定しないが、例えば自動動画生成業者又は動画製作業者といった者が管理しても良いし、システム管理者2が管理しても良い。外部処理装置40の詳細は後述するが、サーバ装置などで構築され、内部の記憶部に処理プログラム等を有しており、処理装置10と並び動画生成配信システムの中核となる装置である。外部処理装置40は処理装置10と一体として、設置しないシステムを構築しても良い。 Although the person who manages the external processing device 40 is not specified, it may be managed by, for example, an automatic moving image generator or a moving image producer, or may be managed by the system administrator 2 . Although the details of the external processing device 40 will be described later, the external processing device 40 is constructed by a server device or the like, has a processing program or the like in an internal storage unit, and is a core device of the moving image generation/distribution system along with the processing device 10 . The external processing device 40 may be integrated with the processing device 10 to form a system in which it is not installed.

視聴者等端末50は、管理する者は特定しないが、例えば動画を視聴する視聴者5、つまり動画製作者の顧客又は製作者の社員等が動画を視聴するために保有、もしくは契約をしている通信機機能を有した汎用端末であり、スマートフォンであってもよく、タブレット、もしくはパソコン等でも良い。内部にWEBブラウザアプリケーションを有している、もしくは専用アプリケーションを有しており、それらを使って、ネットワークNWを介し、処理装置10に接続を行って、動画の視聴を行う。また視聴者等端末50にはWEBカメラ、脈拍計測計、体温計測計、ウェアラブルデバイスといった、人間の感情や体の変化を読み取る人感データ取得デバイス51Dを接続しても良い。 Although the administrator of the viewer terminal 50 is not specified, for example, the viewer 5 who watches the moving image, that is, the customer of the moving image producer or the employee of the producer, etc. owns or contracts to watch the moving image. It is a general-purpose terminal having a communication device function, and may be a smartphone, a tablet, a personal computer, or the like. It has a WEB browser application inside, or has a dedicated application, and uses them to connect to the processing device 10 via the network NW and watch moving images. Also, the viewer terminal 50 may be connected to a human sensory data acquisition device 51D such as a WEB camera, a pulse meter, a thermometer, or a wearable device that reads human emotions and changes in the body.

会議システム処理装置60は、自社又は他社のWEB会会議システム処理装置である。具体的にはzoom(登録商標)、Teams(登録商標)といった大手通信業者の会議システムでもよいし、処理装置10と一体として自社の会議システムを用いても良い。会議システム処理装置60はあってもなくても良い。 The conference system processing device 60 is a WEB conference system processing device of the company or another company. Specifically, a conference system of a major telecommunications company such as Zoom (registered trademark) or Teams (registered trademark) may be used, or a company's conference system integrated with the processing device 10 may be used. The conference system processor 60 may or may not be present.

[2.処理装置10の構成]
次に、図2を参照しながら、処理装置10 の構成について説明する。
[2. Configuration of processing device 10]
Next, the configuration of the processing device 10 will be described with reference to FIG.

図2は本実施形態に係る処理装置10の概要構成の一例を示すブロック図である。図2に示すように処理装置10は、通信制御部101と、入出力インターフェース部102と、処理部103と、及び記憶部104と、を備えている。 FIG. 2 is a block diagram showing an example of a schematic configuration of the processing device 10 according to this embodiment. As shown in FIG. 2 , the processing device 10 includes a communication control section 101 , an input/output interface section 102 , a processing section 103 and a storage section 104 .

処理装置10は複数のサーバ装置で構成されてもよい。例えば、リクエストに応じてWEBページを送信するサーバ装置、及びデータベースを管理するサーバ装置等が、互いにLAN等で接続されてもよい。 The processing device 10 may be composed of a plurality of server devices. For example, a server device that transmits web pages in response to requests, a server device that manages a database, and the like may be connected to each other via a LAN or the like.

通信制御部101は汎用の通信プロトコル制御部から構成され、ネットワークNW、及び他端末に接続して、システム管理者2等が管理するシステム管理者等端末20、動画製作者3等が管理する動画製作者等端末30、外部処理装置40及び視聴者5等が管理する視聴者等端末50との通信状態を制御する。 The communication control unit 101 is composed of a general-purpose communication protocol control unit, is connected to the network NW and other terminals, and is connected to the system administrator terminal 20 managed by the system administrator 2, etc., and the animation managed by the animation producer 3, etc. It controls the state of communication with the producer terminal 30, the external processing device 40, and the viewer terminal 50 managed by the viewer 5 or the like.

入出力インターフェース部102は、通信制御部101、処理部103及び記憶部104各部との間のインターフェース処理を行う。 The input/output interface unit 102 performs interface processing between the communication control unit 101 , the processing unit 103 and the storage unit 104 .

処理部103は不図示であるが、記憶部104に格納されているプログラムをCPU等が実行することにより各手段の機能を実現することができる。以下、処理部103内の各手段の機能について説明する。 Although the processing unit 103 is not shown, the CPU or the like executes a program stored in the storage unit 104 to realize the functions of each means. The function of each unit in the processing unit 103 will be described below.

データ受信手段111は、動画製作者等端末30から動画製作者3等が作成したプレゼンテーションファイル142、音楽・背景データ144及び指示等、並びに外部処理装置40等が生成した音声・動画データ145(以下、データ142乃至145を入力データという)を受信する。ここでデータ受信手段111が受信する入力データはプレゼンテーションファイル142、アバターデータ143、音楽・背景データ144及び音声・動画データに限られず、あらゆるデータを指す。 The data receiving means 111 receives the presentation file 142 created by the video creator 3, etc., the music/background data 144 and instructions from the video creator terminal 30, and the audio/video data 145 generated by the external processing device 40 (hereinafter referred to as , data 142 to 145 are referred to as input data). Here, the input data received by the data receiving means 111 is not limited to the presentation file 142, the avatar data 143, the music/background data 144, and the audio/video data, but refers to any data.

アバター設定手段112、音楽設定手段113及び背景設定手段114の機能については後述する実施例において説明する。データ選択手段115は入力データ、事前保管データ(システム管理者2等が登録した、記憶部104が事前に保管しているデータ、以下同じ)又は処理装置10が自ら生成した等から音声・動画データ145等から使用するデータを選択する。具体的な選択方法は後述する実施例において説明する。 The functions of the avatar setting means 112, the music setting means 113, and the background setting means 114 will be explained in the embodiments described later. Data selection means 115 selects audio/video data from input data, pre-stored data (data stored in advance in storage unit 104 registered by system administrator 2, hereinafter the same), or audio/video data generated by processor 10 itself. 145 or the like to be used. A specific selection method will be described in Examples described later.

分岐データ設定手段116は入力データ142乃至145、事前保管データ、後述する入力加工データ、動画データ及びHTMLファイルから、次に配信するデータを分岐させる分岐データを設定する。例えば、視聴者5等が動画を視聴している途中で一旦視聴者5に回答又は選択させ、回答又は選択した内容によって再生させる動画を変化又はログを取得する分岐データを設定する。具体的な設定方法は後述する実施例において説明する。 The branch data setting means 116 sets branch data for branching data to be distributed next from the input data 142 to 145, pre-stored data, input processed data described later, moving image data and HTML files. For example, while the viewer 5 or the like is watching the moving image, the viewer 5 is made to answer or select once, and depending on the content of the answer or selection, the moving image to be reproduced is changed or branch data for obtaining a log is set. A specific setting method will be described in an embodiment described later.

ファイル展開手段117及びファイル解析手段118は動画製作者3等が作成したプレゼンテーションファイル142等の入力データのファイルに含まれる画像、テキストといったデータ毎に展開をし、解析を行う。ファイル展開手段117及びファイル解析手段118が扱うファイルはプレゼンテーションファイル142に限らず、様々なファイルを解析可能な機能を持たせても良い。 The file expansion means 117 and the file analysis means 118 expand and analyze each data such as images and texts included in the input data files such as the presentation file 142 created by the animation creator 3 or the like. The files handled by the file expansion means 117 and the file analysis means 118 are not limited to the presentation file 142, and may be provided with a function capable of analyzing various files.

データ送信手段119はファイル展開手段117及びファイル解析手段118が展開及び解析したデータ(以下、展開解析データという)をシステム管理者等端末20、動画製作者等端末30及び外部処理装置40に送信する。展開解析データを受信したシステム管理者等端末20及び動画製作者等端末30は展開解析データを確認しながら、さらに動画作成に必要な展開解析データを修正することが可能となる。展開解析データを受け取った外部処理装置40は受信した展開解析データを用いて音声合成処理及び動画作成処理を行う。 The data transmission means 119 transmits the data developed and analyzed by the file expansion means 117 and the file analysis means 118 (hereinafter referred to as expansion analysis data) to the system manager terminal 20, the animation producer terminal 30, and the external processing device 40. . The terminal 20 for system administrator and the terminal 30 for animation producer, etc., which have received the development analysis data, can further correct the development analysis data necessary for creating the animation while confirming the development analysis data. The external processing device 40 that has received the development analysis data uses the received development analysis data to perform voice synthesis processing and moving image creation processing.

送信元識別符号生成手段120は処理装置10自ら又は外部処理装置40が生成した動画、例えばHTML5で表現するイメージやリンク情報を動画として扱った場合、当該動画を再生させる送信元識別符号であるURL(Uniform Resource Locator)を生成する。同一動画であっても、視聴者5等毎のログ生成手段や分岐データを設定した場合は、視聴者5毎の送信元識別符号を生成しても良い。 The transmission source identification code generating means 120 treats a moving image generated by the processing device 10 itself or by the external processing device 40, for example, an image or link information expressed in HTML5 as a moving image, generates a URL which is a transmission source identification code for reproducing the moving image. Generate a (Uniform Resource Locator). Even if it is the same moving image, if log generation means and branch data are set for each viewer 5, etc., a transmission source identification code for each viewer 5 may be generated.

動画再生手段121は動画の再生を行い。動画配信手段122は入力データ、事前保管データ、後述する入力加工データ、生成された動画データ、生成されたHTMLファイル及び分岐データを使用して動画を視聴者5に配信する。例えば、動画再生手段121及び動画配信手段122は独自の動画データを再生手段及び配信手段を用いて行っても良いし、HTML5で表現するイメージやリンク情報を動画として扱い、さらに動画ファイルを埋め込んで配信を行っても良いし、再生及び配信方法は問わない。 The moving picture reproducing means 121 reproduces moving pictures. The moving image distribution means 122 distributes the moving image to the viewer 5 using the input data, pre-stored data, input processed data described later, generated moving image data, generated HTML file and branch data. For example, the moving image reproducing means 121 and the moving image distribution means 122 may use their own moving image data reproduction means and distribution means, or treat images and link information expressed in HTML5 as moving images, and furthermore embed moving image files. It may be distributed, and the method of reproduction and distribution does not matter.

HTML編集手段123は生成されたHTML5を動画製作者3が動画製作者等端末30を用いて直接編集する。動画製作者3が動画又はHTMLを生成後にプレビューで誤りに気づいた場合、プレゼンテーションファイルを修正するだけでなく、生成されたHTMLをHTML編集手段123を用いて直接編集を行うことができる。HTML編集手段123は動画製作者等端末30に編集可能な環境を独自のエディタを用いて提供する。 The HTML editing means 123 directly edits the generated HTML5 by the moving picture creator 3 using the moving picture creator's terminal 30 . When the animation producer 3 notices an error in the preview after generating the animation or HTML, he can not only correct the presentation file, but also directly edit the generated HTML using the HTML editing means 123 . The HTML editing means 123 provides an editable environment to the terminal 30 of the animation creator using a unique editor.

人感データ展開手段124は、視聴者等端末50に視聴者5の表情を収録する人感データ取得デバイス51D(例えばWEBカメラ)が接続され、表情データを取得することができた場合に、データ受信手段111から受信した当該表情データを展開する。展開された当該表情データは、後述する外部処理装置40内で表情の意味を解析しても良いし、処理装置10内で解析しても良い。 Human feeling data expansion means 124 is connected to human feeling data acquisition device 51D (e.g., WEB camera) for recording facial expression of viewer 5 to viewer terminal 50, and when facial expression data can be acquired, data The facial expression data received from the receiving means 111 is expanded. The developed facial expression data may be analyzed for the meaning of the facial expression in the external processing device 40 described later, or may be analyzed in the processing device 10 .

アクセスデータ分析手段125は、送信元識別符号毎に視聴者等端末50で視聴(配信)されたデータを分析する。配信時間、分岐データの分岐結果及び表情データ解析結果などから、視聴者等端末50毎のデータを解析して、どの視聴者等端末50がどの箇所に興味を持ったか解析することが可能となる。実際の解析手段は統計解析手段でクラスタリング又は主成分分析などを行う。 The access data analysis means 125 analyzes the data viewed (distributed) by the terminal 50 such as the viewer for each transmission source identification code. It is possible to analyze which viewer terminal 50 is interested in which part by analyzing the data for each viewer terminal 50 based on the delivery time, branch data branch result, facial expression data analysis result, and the like. . The actual analysis means is a statistical analysis means, which performs clustering, principal component analysis, or the like.

会議システム連携手段126は会議システム処理装置60と連携を実現する。具体的にはあらかじめ各会議システム処理装置60の接続URL等を有し、ネットワークNWを通じて会議室IDと呼ばれる会議室固有の数値を取得しても良いし、会議システム連携手段126がローカルで生成しても良い。生成されたIDを用いて会議システム処理装置60と接続を行う。 The conference system cooperation means 126 realizes cooperation with the conference system processing device 60 . Specifically, a connection URL or the like of each conference system processing device 60 may be provided in advance, and a numeric value specific to the conference room called a conference room ID may be obtained through the network NW, or the conference system cooperation means 126 may generate the conference room ID locally. can be The generated ID is used to connect with the conference system processor 60 .

会議システム通信手段127は、会議システム連携手段126が取得又は生成したIDを用いて会議システム処理装置60と通信を実現する。具体的にはあらかじめ各会議システム処理装置60から送られてきた通信データを基にWEB会議を実現する。WEBブラウザ上で実現しても良いし、独自のアプリケーションでもよいし、実現できなくても良い。 The conference system communication means 127 implements communication with the conference system processing device 60 using the ID acquired or generated by the conference system cooperation means 126 . Specifically, the WEB conference is realized based on the communication data sent from each conference system processing device 60 in advance. It may be realized on a WEB browser, may be an original application, or may not be realized.

記憶部104は、例えばハードディスクドライブ及びSSD等により構成されている。この記憶部104には、入力データ及び事前保管データである製作者・視聴者データ141、プレゼンテーションファイル142、アバターデータ143、音楽・背景データ144及び音声・動画データ等のデータベースが構築されている。なお、記憶部104は、本発明における記憶手段及び入力及び事前保管データ記憶手段の一例である。 The storage unit 104 is composed of, for example, a hard disk drive and an SSD. In this storage unit 104, a database of input data and pre-stored data such as producer/viewer data 141, presentation file 142, avatar data 143, music/background data 144, audio/video data, etc. is constructed. Note that the storage unit 104 is an example of storage means and input and pre-saved data storage means in the present invention.

[3.外部処理装置40の構成]
次に、図3を参照しながら、外部処理装置40 の構成について説明する。
[3. Configuration of external processing device 40]
Next, the configuration of the external processing device 40 will be described with reference to FIG.

図3は本実施形態に係る外部処理装置40の概要構成の一例を示すブロック図である。図3に示すように外部処理装置40は、通信制御部401と、入出力インターフェース部402と、処理部403と、及び記憶部404と、を備えている。各部の機能は処理装置10の101乃至104同様である。 FIG. 3 is a block diagram showing an example of a schematic configuration of the external processing device 40 according to this embodiment. As shown in FIG. 3 , the external processing device 40 includes a communication control section 401 , an input/output interface section 402 , a processing section 403 and a storage section 404 . The function of each part is the same as 101 to 104 of the processing device 10 .

外部処理装置40は複数のサーバ装置で構成されてもよい。例えば、リクエストに応じてWEBページを送信するサーバ装置、及びデータベースを管理するサーバ装置等が、互いにLAN等で接続されてもよいし、処理装置10と一体化して扱っても良く、以下に記載する手段は処理装置10で実現させても良い。 The external processing device 40 may be composed of a plurality of server devices. For example, a server device that transmits web pages in response to requests, a server device that manages a database, and the like may be connected to each other via a LAN or the like, or may be integrated with the processing device 10, as described below. The means for doing so may be realized by the processing device 10 .

以下、処理部403内の各手段の機能について説明する。
データ受信手段411は、処理装置10が生成した展開解析データを受信する。ここでデータ受信手段411が受信する入力データは展開解析データに限られず、単純なテキストデータ及び画像データ等、あらゆるデータを指す。
The function of each unit in the processing unit 403 will be described below.
The data receiving means 411 receives the deployment analysis data generated by the processing device 10 . Here, the input data received by the data receiving means 411 is not limited to the development analysis data, but refers to all kinds of data such as simple text data and image data.

ファイル展開手段412及びファイル解析手段413はデータ受信手段411で受信した展開解析データをさらに展開をし、解析を行う。ファイル展開手段412及びファイル解析手段413が扱うファイルは展開解析データに限らず、様々なファイルを解析可能な機能を持たせても良い。 The file development means 412 and the file analysis means 413 further develop and analyze the development analysis data received by the data reception means 411 . The files handled by the file expansion means 412 and the file analysis means 413 are not limited to expansion analysis data, and may be provided with a function capable of analyzing various files.

テキスト抽出手段414はデータ受信手段411で受信した展開解析データからテキスト抽出を行う。テキスト抽出手段414が扱うファイルは展開解析データに限らず、様々なファイルを抽出可能な機能を持たせても良い。 The text extracting means 414 extracts text from the expansion analysis data received by the data receiving means 411 . The files handled by the text extracting means 414 are not limited to expansion analysis data, and may be provided with a function capable of extracting various files.

音声合成手段415はテキスト抽出手段414で抽出したテキストデータ又はデータ受信手段411で受信した展開解析データからアバターに合わせた音声データを生成する。音声合成手段415により、プレゼンテーションファイル142等に記載されたテキストを、アバターが読み上げる音声データとして生成し、動画内に埋め込むことが可能となる。音声合成手段415が扱うファイルはテキストデータ及び展開解析データに限らず、様々なファイルから音声生成させる機能を持たせても良い。 The voice synthesizing means 415 generates voice data suitable for the avatar from the text data extracted by the text extracting means 414 or the expansion analysis data received by the data receiving means 411 . The voice synthesizing means 415 can generate the text described in the presentation file 142 or the like as voice data read by the avatar and embed it in the moving image. Files handled by the speech synthesizing means 415 are not limited to text data and development analysis data, and may be provided with a function of generating speech from various files.

動画生成手段416及びHTML生成手段417はファイル展開手段412及びファイル解析手段413で展開及び解析したデータ、並びに音声合成手段415で生成した音声データ(以下総じて、入力加工データという)から動画データ又はHTMLファイルを生成する。入力加工データは、処理装置10が受信した入力データから処理装置10内の各手段を通じて展開解析データを生成し、当該展開解析データを受信した外部処理装置40等が各手段を用いて生成する。当該入力加工データからの動画データ又はHTMLファイル生成方法は既存の技術を利用しても良いし、独自の技術を利用しても良いし、方法は問わない。 Animation generation means 416 and HTML generation means 417 generate animation data or HTML from data developed and analyzed by file development means 412 and file analysis means 413 and audio data generated by audio synthesis means 415 (hereinafter generally referred to as input processed data). Generate files. The input processing data is generated by generating development analysis data from the input data received by the processing device 10 through each means in the processing device 10, and the external processing device 40 or the like receiving the development analysis data uses each means. A method for generating moving image data or an HTML file from the input processing data may use an existing technique, or may use a unique technique, and the method does not matter.

データ転送手段418は動画生成手段416及びHTML生成手段417で生成した動画又はHTMLファイルを通信制御部401を介してネットワークNW、及び他端末に接続し、処理装置10に転送する。転送された動画又はHTMLファイルは処理装置10から視聴者5等に配信され、視聴が可能となる。 The data transfer means 418 connects the moving picture or HTML file generated by the moving picture generating means 416 and the HTML generating means 417 to the network NW and other terminals via the communication control section 401 and transfers them to the processing device 10 . The transferred moving image or HTML file is distributed from the processing device 10 to the viewer 5 or the like, and can be viewed.

人感データ認識手段419は顔認識アルゴリズム等を備え、受信した人感データを取得して、その表情データといった人感データがどのような意味を持つか認識する。認識方法の一つである顔認識アルゴリズムは核非線形相互部分空間法でも良いし、摂動空間法を用いても良いし、方法は定めない。 The human feeling data recognition means 419 has a face recognition algorithm or the like, acquires the received human feeling data, and recognizes the meaning of the human feeling data such as facial expression data. The face recognition algorithm, which is one of the recognition methods, may be a nuclear nonlinear mutual subspace method or a perturbation space method, and the method is not specified.

人感データ解析手段420は人感データ認識手段419で認識した表情及び姿勢をとった際に視聴者5等がどのような行動を行ったか行動パターンデータを有しており、当該行動パターンデータから人感データに重み(行動結果分析データ)を付与する。付与されたデータは人感解析データとして、処理装置10へ転送する。 The human feeling data analysis means 420 has action pattern data indicating how the viewer 5 or the like behaved when taking the facial expressions and postures recognized by the human feeling data recognition means 419 . A weight (behavior result analysis data) is given to the human feeling data. The given data is transferred to the processing device 10 as human feeling analysis data.

[4.処理装置10及び外部処理装置40による動画生成実施例]
次に本実施形態に係る動画製作者等端末30を用いて、処理装置10及び外部処理装置40による、動画生成実施例について図4乃至及び図11を参照しながら説明する。図4は、本実施形態に係る処理装置10及び外部処理装置40が動画生成する際における処理例を示すフローチャート図、図5は本実施形態に係る動画製作者等端末30に表示されるログイン画面の一例、図6は本実施形態に係る動画製作者等端末30に表示される動画生成初期画面の一例、図7は本実施形態に係る動画製作者等端末30に表示されるプレゼンテーションファイル指定画面の一例、図8は本実施形態に係る動画製作者等端末30に表示されるプレゼンテーションファイル指定画面にてプレゼンテーションファイルのアップロードを行っている一例、図9は本実施形態に係る動画製作者等端末30に表示される動画生成初期画面にてプレゼンテーションファイルのアップロードを行っている状態の一例、図10は本実施形態に係る動画製作者等端末30に表示される動画生成初期画面にてプレゼンテーションファイルのアップロードが完了した状態の一例及び図11は本実施形態に係る動画製作者等端末30に表示される設定・編集画面の一例を示す図である。
[4. Example of video generation by processing device 10 and external processing device 40]
Next, an example of moving image generation by the processing device 10 and the external processing device 40 using the moving image producer terminal 30 according to the present embodiment will be described with reference to FIGS. 4 to 11. FIG. FIG. 4 is a flow chart showing an example of processing when the processing device 10 and the external processing device 40 according to the present embodiment generate moving images, and FIG. An example, FIG. 6 is an example of a moving picture generation initial screen displayed on the moving picture producer terminal 30 according to the present embodiment, and FIG. 7 is a presentation file designation screen displayed on the moving picture producer terminal 30 according to the present embodiment. An example, FIG. 8 shows an example of uploading a presentation file on the presentation file designation screen displayed on the terminal 30 for movie producers, etc. according to the present embodiment, and FIG. 10 shows an example of a state in which a presentation file is being uploaded on the animation generation initial screen displayed on the screen 30. FIG. An example of a state in which uploading is completed and FIG. 11 are diagrams showing an example of a setting/editing screen displayed on the terminal 30 for video creators, etc. according to the present embodiment.

(ステップS11)
動画製作者等端末30は動画製作者3等の接続要求操作により、処理装置10は動画製作者等端末30へログインフォームデータを送信する。動画製作者等端末30の表示部には、例えば図5のようなログイン画面が表示され入力待ち状態となる。動画製作者3等はシステム管理者2等から指定されたログインIDを入力ボックス301に、設定したパスワードを302に入力し、ログインボタン303を押下又はクリックをする。動画製作者等端末30は処理装置10へログイン入力データを送信する。
(Step S11)
The processing device 10 transmits the login form data to the terminal 30 of the moving picture producer and the like in response to the connection request operation of the moving picture producer 3 and the like. For example, a login screen such as that shown in FIG. 5 is displayed on the display unit of the terminal 30 for the animation producer, etc., and the input waiting state is entered. The animation producer 3 or the like enters the login ID specified by the system administrator 2 or the like into the input box 301 and the set password into the input box 302 , and presses or clicks the login button 303 . The moving picture producer terminal 30 transmits login input data to the processing device 10 .

(ステップS12)
入力されたログインデータが正しい場合、処理装置10は動画製作者等端末30へ動画生成初期画面データを送信する。動画製作者等端末30の表示部には、例えば図6のような動画生成初期画面が表示され入力待ち状態となる。
(Step S12)
If the input login data is correct, the processing device 10 transmits animation generation initial screen data to the terminal 30 of the animation producer. On the display unit of the terminal 30 for the video producer, etc., an initial screen for generating a video, such as that shown in FIG.

(ステップS13)
動画製作者等端末30にて動画製作者3等が新規作成ボタン314を押下又はクリックを行った場合、処理装置10は動画製作者等端末30へプレゼンテーションファイル指定画面データを送信する。動画製作者等端末30の表示部には、例えば図7のようなプレゼンテーションファイル指定画面が表示され入力待ち状態となる。動画製作者等端末30にて動画製作者3等はファイル選択ボタン351を押下又はクリック後、OSのファイル指定方法によってプレゼンテーションファイルを選択しても良いし、ファイル名をテキストボックス352に直接入力してもよい。
(Step S13)
When the moving picture creator 3 or the like presses or clicks the new creation button 314 on the moving picture creator terminal 30 , the processing device 10 transmits presentation file designation screen data to the moving picture creator terminal 30 . For example, a presentation file designation screen such as that shown in FIG. 7 is displayed on the display unit of the terminal 30 for the video creator, etc., and the screen is in an input waiting state. After pressing or clicking the file selection button 351 on the terminal 30 of the motion picture creator, etc., the motion picture creator 3 or the like may select a presentation file by the file specification method of the OS, or directly enter the file name in the text box 352. may

(ステップS14)
動画製作者等端末30にて動画製作者3等がアップロードボタン353を押下又はクリックを行った場合、動画製作者等端末30は処理装置10へ指定された入力データとなるプレゼンテーションファイルを送信する。動画製作者等端末30の表示部には、例えば図8のように、入力データとなるプレゼンテーションファイルがアップロードを行っている状態が表示される。動画製作者等端末30の表示部は、図8に示す通り送信中アニメ354及び進捗を表すプログレスバー355を表示してもよい。
(Step S14)
When the moving picture creator 3 or the like presses or clicks the upload button 353 at the moving picture creator terminal 30 , the moving picture creator terminal 30 transmits the presentation file as the specified input data to the processing device 10 . For example, as shown in FIG. 8, a state in which a presentation file serving as input data is being uploaded is displayed on the display unit of the terminal 30 for the video creator. The display unit of the video creator terminal 30 may display a sending animation 354 and a progress bar 355 indicating progress as shown in FIG.

(ステップS15)
処理装置10がすべての入力データとなるプレゼンテーションファイルを受信した場合、例えば図9のような動画生成初期画面に戻っても良い。処理装置10が自身で、又は外部処理装置40で動画又はHTMLファイルを生成している間は、図9の生成中アニメ315を表示しても良い。処理装置10又は外部処理装置40はファイル展開手段117及びファイル解析手段118、又はファイル展開手段412及びファイル解析手段413にてプレゼンテーションファイルを解析し、入力加工データを生成後、動画生成手段416及びHTML生成手段417で動画又はHTMLを生成する。
(Step S15)
When the processing device 10 has received the presentation file as all the input data, it may return to the animation generation initial screen as shown in FIG. 9, for example. While the processing device 10 itself or the external processing device 40 is generating the animation or HTML file, the generating animation 315 of FIG. 9 may be displayed. The processing device 10 or the external processing device 40 analyzes the presentation file with the file expansion means 117 and the file analysis means 118, or the file expansion means 412 and the file analysis means 413, and after generating the input processing data, the animation generation means 416 and the HTML A moving image or HTML is generated by the generating means 417 .

(ステップS16)
処理装置10又は外部処理装置40が動画又はHTMLファイルの生成が完了した際には、例えば図10のような生成が完了したことを表す動画生成初期画面に戻っても良い。ログアウトボタン318を押下又はクリックした際は終了となるが、押下又はクリックしない際はステップS12の操作待ち状態となる。
(Step S16)
When the processing device 10 or the external processing device 40 has completed the generation of the moving image or HTML file, it may return to the moving image generation initial screen, for example, as shown in FIG. 10, which indicates that generation has been completed. When the logout button 318 is pressed or clicked, the process ends, but when the logout button 318 is not pressed or clicked, the operation waiting state of step S12 is entered.

(ステップS17)
動画製作者等端末30にて動画製作者3等が編集ボタン316を押下又はクリックを行った場合、処理装置10は動画製作者等端末30へ設定・編集画面データを送信する。動画製作者等端末30の表示部には、例えば図11のような設定・編集画面が表示され入力待ち状態となる。動画の設定、編集の方法に関しては後述する。
(Step S17)
When the moving picture creator 3 or the like presses or clicks the edit button 316 on the moving picture creator terminal 30 , the processing device 10 transmits setting/editing screen data to the moving picture creator terminal 30 . For example, a setting/editing screen such as that shown in FIG. 11 is displayed on the display unit of the terminal 30 for the moving picture producer, etc., and the screen is in an input waiting state. How to set and edit moving images will be described later.

(ステップS18)
動画製作者等端末30にて動画製作者3等が終了ボタン501を押下又はクリックを行った場合、処理装置10は動画製作者等端末30へ再度動画生成初期画面データを送信する。動画製作者等端末30の表示部には、例えば図6のような動画生成初期画面が表示されステップS12の操作待ち状態となる。
(Step S18)
When the moving picture creator 3 or the like presses or clicks the end button 501 on the moving picture creator terminal 30, the processing device 10 transmits the moving picture generation initial screen data to the moving picture creator terminal 30 again. On the display unit of the terminal 30 of the moving picture producer, etc., a moving picture generation initial screen, for example, as shown in FIG.

(ステップS19)
動画製作者等端末30にて動画製作者3等がプレビューボタン317を押下又はクリックを行った場合、処理装置10は動画製作者等端末30へプレビュー画面データを送信し、動画製作者3等はプレビューを見ることができる。
(Step S19)
When the moving picture producer 3 or the like presses or clicks the preview button 317 on the moving picture producer terminal 30, the processing device 10 transmits preview screen data to the moving picture producer terminal 30, and the moving picture producer 3 or the like You can see the preview.

(ステップS20)
プレビュー終了後、図示しないが動画製作者等端末30にて動画製作者3等が終了ボタンを押下又はクリックを行った場合、処理装置10は動画製作者等端末30へ再度動画生成初期画面データを送信する。動画製作者等端末30の表示部には、例えば図6のような動画生成初期画面が表示されステップS12の操作待ち状態となる。
(Step S20)
After the preview is finished, when the moving picture producer 3 or the like presses or clicks an end button on the moving picture producer terminal 30 (not shown), the processing device 10 sends the moving picture generation initial screen data to the moving picture producer terminal 30 again. Send. On the display unit of the terminal 30 of the moving image producer, etc., an initial screen for generating moving images such as that shown in FIG.

[5.処理装置10による動画編集実施例]
次に本実施形態に係る動画製作者等端末30を用いて、処理装置10による、動画編集実施例について図12乃至及び図18を参照しながら説明する。図12は本実施形態に係る処理装置10が動画編集する際における処理例を示すフローチャート図、図13は本実施形態に係る動画製作者等端末30に表示される設定・編集画面のセリフ編集画面の一例を示す図、図14は本実施形態に係る動画製作者等端末30に表示される設定・編集画面のテロップ編集画面の一例を示す図、図15は本実施形態に係る動画製作者等端末30に表示される設定・編集画面の分岐データ設定編集画面の一例を示す図、図16は本実施形態に係る動画製作者等端末30に表示される設定・編集画面のHTML編集画面の一例を示す図及び図18は本実施形態に係る動画製作者等端末30に表示される設定画面の一例を示す図である。
[5. Example of video editing by processing device 10]
Next, an example of video editing by the processing device 10 will be described using the video creator terminal 30 according to the present embodiment with reference to FIGS. 12 to 18. FIG. FIG. 12 is a flow chart showing an example of processing when the processing device 10 according to the present embodiment edits a moving image, and FIG. 13 is a dialogue edit screen of a setting/editing screen displayed on the terminal 30 such as a moving image creator according to the present embodiment. FIG. 14 is a diagram showing an example of a telop edit screen of a setting/editing screen displayed on the terminal 30 of the video producer etc. according to the present embodiment, FIG. A view showing an example of a branch data setting/editing screen of the setting/editing screen displayed on the terminal 30, FIG. and FIG. 18 are diagrams showing an example of a setting screen displayed on the terminal 30 for video creators, etc. according to the present embodiment.

(ステップS31)
動画製作者等端末30はステップS17に分岐した際に、処理装置10は動画製作者等端末30へログインフォームデータを送信する。動画製作者等端末30の表示部には、例えば図11のような設定・編集画面が表示され入力待ち状態となる。
(Step S31)
When the moving picture producer terminal 30 branches to step S<b>17 , the processing device 10 transmits login form data to the moving picture producer terminal 30 . For example, a setting/editing screen such as that shown in FIG. 11 is displayed on the display unit of the terminal 30 for the moving picture producer, etc., and the screen is in an input waiting state.

(ステップS32)
動画製作者等端末30にて動画製作者3等が「セリフ」タブ502又は「テロップ」タブ503を押下又はクリックを行った場合、処理装置10はファイル展開手段117及びファイル解析手段118にてプレゼンテーションファイルを解析し、テキストデータを抽出する。処理装置10はプレゼンテーションファイルを受信したステップS15段階でテキストデータを抽出しても良い。
(Step S32)
When the moving picture producer 3 or the like presses or clicks the "line" tab 502 or the "telop" tab 503 on the moving picture producer terminal 30, the processing device 10 causes the file expansion means 117 and the file analysis means 118 to perform the presentation. Parse the file and extract the text data. The processing device 10 may extract the text data at step S15 when the presentation file is received.

(ステップS33)
ステップS32でテキストを抽出すると、処理装置10は動画製作者等端末30へセリフ及びテロップ編集画面データを送信する。動画製作者等端末30の表示部には、例えば図13及び図14のように、セリフテキスト表示エリア511に解析抽出したセリフテキスト及びテロップテキストを表示してもよい。動画製作者等端末30にて動画製作者3等は、シーン選択ボタン507でシーンを選択し、セリフ及びテロップを入力修正することが可能となる。
(Step S33)
After extracting the text in step S32, the processing device 10 transmits dialogue and telop editing screen data to the terminal 30 of the animation producer. On the display unit of the terminal 30 for video producers, etc., the analyzed and extracted dialogue text and telop text may be displayed in the dialogue text display area 511, as shown in FIGS. 13 and 14, for example. At the terminal 30 for movie producers, etc., the movie producer 3 or the like can select a scene with the scene selection button 507 and input and correct dialogues and telops.

(ステップS34)
動画製作者等端末30にて動画製作者3等がテキストの編集が完了し、終了ボタン501を押下又はクリックした際は編集・設定が終了となるが、押下又はクリックしない際はステップS31の操作待ち状態となる。
(Step S34)
When the moving picture creator 3 or the like completes text editing on the moving picture creator terminal 30 and presses or clicks the end button 501, the editing/setting ends. It will be in a waiting state.

(ステップS35)
動画製作者等端末30にて動画製作者3等が「分岐」タブ503を押下又はクリックを行った場合、処理装置10は動画製作者等端末30へ分岐データ設定画面データを送信する。動画製作者等端末30の表示部には、例えば図15のような設定・編集画面が表示され入力待ち状態となる。図15のような画面の場合、動画製作者3等が分岐数を分岐数設定ボックス512で分岐データを設定する。設定された分岐数は動画製作者等端末30から処理装置10の分岐データ設定手段116によって分岐数が設置され、処理装置10は動画製作者等端末30へ、分岐ボタン516及び516がプレビュー画面506に表示データを送信する。
(Step S35)
When the moving picture creator 3 or the like presses or clicks the “branch” tab 503 on the moving picture creator terminal 30 , the processing device 10 transmits branch data setting screen data to the moving picture creator terminal 30 . For example, a setting/editing screen such as that shown in FIG. 15 is displayed on the display unit of the terminal 30 for the video creator, etc., and the input waiting state is entered. In the case of the screen as shown in FIG. 15, the animation producer 3 or the like sets the number of branches in the number of branches setting box 512 as branch data. The set number of branches is set by the branch data setting means 116 of the processing device 10 from the moving picture producer terminal 30, and the processing device 10 transfers the branch buttons 516 and 516 to the preview screen 506. Send display data to

(ステップS36)
処理装置10の分岐データ設定手段116を用いて、動画製作者等端末30のプレビュー画面506に表示された分岐ボタン516及び516はドラッグ等でボタンの位置や形を修正及び設定を行う。
(Step S36)
The branch buttons 516 and 516 displayed on the preview screen 506 of the terminal 30 of the moving picture creator etc. are corrected and set by dragging or the like using the branch data setting means 116 of the processing device 10 .

(ステップS37)
さらに処理装置10の分岐データ設定手段116を用いて、シーン選択ボタン507及び514を用いて分岐シーンを設定し、設定ボタン517を押下又はクリックする。動画製作者等端末30にて動画製作者3等が分岐データの設定を完了し、終了ボタン501を押下又はクリックした際は終了となるが、押下又はクリックしない際はステップS31の操作待ち状態となる。
(Step S37)
Further, using the branch data setting means 116 of the processing device 10, a branch scene is set using the scene selection buttons 507 and 514, and the setting button 517 is pressed or clicked. When the moving picture creator 3 or the like completes the branch data setting on the moving picture creator terminal 30 and presses or clicks the end button 501, the process ends. Become.

(ステップS38)
動画製作者等端末30にて動画製作者3等が「HTML」タブ505を押下又はクリックを行った場合、処理装置10はHTML編集手段123にてHTMLファイルを展開する。
(Step S38)
When the moving picture creator 3 or the like presses or clicks the “HTML” tab 505 on the moving picture creator terminal 30 , the processing device 10 develops the HTML file with the HTML editing means 123 .

(ステップS39)
処理装置10は動画製作者等端末30へHTML編集画面データを送信する。動画製作者等端末30の表示部には、例えば図16のように、HTML表示エリア519に展開したセリフテキスト及びテロップテキストを表示してもよい。動画製作者等端末30にて動画製作者3等は、シーン選択ボタン507でシーンを選択し、HTML文に知識がある動画製作者3等は、HTML文を直接入力修正することが可能となる。
(Step S39)
The processing device 10 transmits the HTML editing screen data to the terminal 30 of the moving picture creator. For example, as shown in FIG. 16, dialogue text and telop text developed in the HTML display area 519 may be displayed on the display unit of the terminal 30 for the video producer or the like. The moving picture producer 3 or the like selects a scene with the scene selection button 507 on the moving picture producer terminal 30, and the moving picture producer 3 or the like who has knowledge of HTML sentences can directly input and correct the HTML sentences. .

(ステップS40)
動画製作者等端末30にて動画製作者3等がテキストの編集をすると、処理装置10はHTML編集手段123にてHTMLファイルを再コンパイルする。終了ボタン501を押下又はクリックした際は終了となるが、押下又はクリックしない際はステップS31の操作待ち状態となる。
(Step S40)
When the moving picture producer 3 or the like edits the text at the moving picture producer terminal 30, the processing device 10 causes the HTML editing means 123 to recompile the HTML file. When the end button 501 is pressed or clicked, the process ends, but when the end button 501 is not pressed or clicked, the process waits for an operation in step S31.

(ステップS41)
動画製作者等端末30にて動画製作者3等が「会議S」タブ520を押下又はクリックを行った場合、処理装置10はあらかじめ有している連携可能な会議システムを会議システム連携手段126にて展開する。
(Step S41)
When the moving picture producer 3 or the like presses or clicks the "meeting S" tab 520 on the moving picture producer terminal 30, the processing device 10 sends the conference system linking means 126 to the conference system linking means 126. to expand.

(ステップS42)
処理装置10は会議システム通信手段127を用いて会議システム処理装置60に接続し、接続可能と応答のあった会議システム処理装置60を動画製作者等端末30へ送信する。動画製作者等端末30の表示部には、例えば図17のように、接続可能な会議システムを521乃至525のように表示してもよい。
(Step S42)
The processing device 10 connects to the conference system processing device 60 using the conference system communication means 127 , and transmits the conference system processing device 60 that responds that connection is possible to the terminal 30 such as the video creator. For example, as shown in FIG. 17, connectable conference systems 521 to 525 may be displayed on the display unit of the terminal 30 for the video producer or the like.

(ステップS43)
動画製作者等端末30にて動画製作者3等が各会議システムの設定ボタン526乃至530を押下すると会議システム通信手段127が会議システム処理装置60と通信を行って会議室IDを生成し、521乃至525のように接続URLを表示する。このURLは選択しているシーン選択ボタン507中の選択動画から動画視聴中に直接商談が出るように設定が可能となる。終了ボタン501を押下又はクリックした際は終了となるが、押下又はクリックしない際はステップS31の操作待ち状態となる。
(Step S43)
When the video creator 3 or the like presses the setting buttons 526 to 530 of each conference system on the video creator terminal 30, the conference system communication means 127 communicates with the conference system processor 60 to generate a conference room ID. 525 to display the connection URL. This URL can be set so that business negotiations can be made directly from the selected moving image in the selected scene selection button 507 while viewing the moving image. When the end button 501 is pressed or clicked, the process ends, but when the end button 501 is not pressed or clicked, the process waits for an operation in step S31.

(ステップS44)
動画製作者等端末30にて動画製作者3等が設定ボタン508を押下又はクリックを行った場合、処理装置10は動画製作者等端末30へ設定画面データを送信する。動画製作者等端末30の表示部には、例えば図18のような設定画面が表示され入力待ち状態となる。動画の設定の方法に関しては後述する。
(Step S44)
When the moving image creator 3 or the like presses or clicks the setting button 508 on the moving image creator terminal 30 , the processing device 10 transmits setting screen data to the moving image creator terminal 30 . A setting screen such as that shown in FIG. 18, for example, is displayed on the display unit of the terminal 30 for the video creator, etc., and the input waiting state is entered. How to set the moving image will be described later.

(ステップS45)
設定が終了し設定登録した際は、動画製作者等端末30にて動画製作者3等が登録ボタン601を押下又はクリックし、ステップS34に遷移する。終了しない場合はステップS44に戻る。
(Step S45)
When the setting is completed and the setting is registered, the moving image creator 3 or the like presses or clicks the registration button 601 on the moving image creator terminal 30, and the process proceeds to step S34. If not, the process returns to step S44.

[6.処理装置10による動画設定実施例]
次に本実施形態に係る動画製作者等端末30を用いて、処理装置10による、動画設定実施例について図18乃至及び図22を参照しながら説明する。図18は本実施形態に係る動画製作者等端末30に表示される設定画面の一例を示す図、図19は本実施形態に係る処理装置10が動画を設定する際における処理例を示すフローチャート図、図20は本実施形態に係る動画製作者等端末30に表示される設定画面のアバター設定画面の一例を示す図、図21は本実施形態に係る動画製作者等端末30に表示される設定画面の背景設定画面の一例を示す図、図22は本実施形態に係る動画製作者等端末30に表示される設定画面の音楽設定画面の一例を示す図である。
[6. Example of moving image setting by processing device 10]
Next, an example of moving image setting by the processing device 10 will be described with reference to FIGS. FIG. 18 is a diagram showing an example of a setting screen displayed on the video producer terminal 30 according to this embodiment, and FIG. 19 is a flowchart showing an example of processing when the processing device 10 according to this embodiment sets a video. 20 is a diagram showing an example of an avatar setting screen of a setting screen displayed on the terminal 30 for video producers etc. according to the present embodiment, and FIG. FIG. 22 is a diagram showing an example of the background setting screen of the screen, and FIG. 22 is a diagram showing an example of the music setting screen of the setting screen displayed on the terminal 30 for video creators etc. according to the present embodiment.

(ステップS61)
動画製作者等端末30はステップS44に分岐した際に、処理装置10は動画製作者等端末30へ設定画面データを送信する。動画製作者等端末30の表示部には、例えば図18のような設定画面が表示されタブ選択待ち状態となる。
(Step S61)
When the moving picture producer terminal 30 branches to step S44, the processing device 10 transmits setting screen data to the moving picture producer terminal 30. FIG. For example, a setting screen such as that shown in FIG. 18 is displayed on the display unit of the terminal 30 for the video creator, etc., and the screen waits for tab selection.

(ステップS62)
動画製作者等端末30にて動画製作者3等が「設定」タブ602を押下又はクリックを行った場合、動画の設定画面データを送信する。動画製作者等端末30の表示部には、例えば図18のように、各種設定項目を表示してもよい。動画製作者等端末30にて動画製作者3等は、タイトルボックス606で動画の名前を入力し、公開設定ボタン607で動画の公開又は非公開を設定しても良い。
(Step S62)
When the moving picture creator 3 or the like presses or clicks the "setting" tab 602 on the moving picture creator terminal 30, the moving picture setting screen data is transmitted. For example, as shown in FIG. 18, various setting items may be displayed on the display unit of the terminal 30 for the video creator. On the terminal 30 of the moving image creator, etc., the moving image creator 3 or the like may input the name of the moving image in the title box 606 and set public or non-public of the moving image with the public setting button 607 .

(ステップS63)
動画製作者等端末30にて動画製作者3等が送信元識別符号生成欄608の生成ボタン621及び622等を押下又はクリックすると、送信元識別符号生成手段120にて視聴者毎に送信元識別符号(URL)が送信元識別符号欄611及び612等に生成される。さらに追加ボタン609を押下又はクリックすると、送信元識別符号欄及び送信元識別符号生成ボタンが追加される。この視聴者毎に送信元識別符号(URL)が生成により、異なる送信元識別記号をカテゴリー毎の視聴者5等に割り当てることが可能となる。視聴特性分析をより精密に行うことが可能となる。実際個別の動作設定は後述する図26に示した分析画面で行っても良い。
(Step S63)
When the moving picture producer 3 or the like presses or clicks the generation buttons 621 and 622 in the transmission source identification code generation column 608 on the moving picture producer terminal 30, the transmission source identification code generating means 120 identifies the transmission source for each viewer. A code (URL) is generated in the source identification code fields 611 and 612 and the like. Further, when an add button 609 is pressed or clicked, a source identification code column and a source identification code generation button are added. By generating a transmission source identification code (URL) for each viewer, it becomes possible to assign a different transmission source identification code to the viewers 5 and the like for each category. It becomes possible to perform viewing characteristic analysis more precisely. Actual individual operation settings may be made on the analysis screen shown in FIG. 26, which will be described later.

(ステップS64)
登録ボタン601を押下又はクリックした際は設定が終了となるが、押下又はクリックしない際はステップS61の操作待ち状態となる。
(Step S64)
When the registration button 601 is pressed or clicked, the setting is completed, but when the registration button 601 is not pressed or clicked, an operation waiting state of step S61 is entered.

(ステップS65)
動画製作者等端末30にて動画製作者3等が「アバター」タブ603を押下又はクリックを行った場合、動画の人物設定画面データを送信する。動画製作者等端末30の表示部には、例えば図20のように、事前保管データである人物データ(以下アバター)のリスト631を表示してもよい。アバターリストに中から選択し、押下又はクリックすると、アバター選択枠632が表示され、当該アバターをアバター設定手段112にて設定する。
(Step S65)
When the moving picture creator 3 or the like presses or clicks the "avatar" tab 603 on the moving picture creator terminal 30, the person setting screen data of the moving picture is transmitted. For example, as shown in FIG. 20, a list 631 of person data (hereinafter referred to as avatars), which is pre-stored data, may be displayed on the display unit of the video creator terminal 30. FIG. When an avatar list is selected and pressed or clicked, an avatar selection frame 632 is displayed and the avatar is set by the avatar setting means 112 .

(ステップS66)
処理装置10は動画製作者等端末30へ事前保管データである人物音声データ(以下音声データ)リスト633を表示してもよい。動画製作者等端末30にて動画製作者3等が音声データリスト633の中からを押下又はクリックすると、動画製作者等端末30は処理装置10又は外部処理装置40へ音声合成の指示をする。処理装置10又は外部処理装置40はセリフテキスト表示エリア511で設定したセリフを音声合成手段415を用いて、セリフから音声データを生成する。
(Step S66)
The processing device 10 may display a person voice data (hereinafter referred to as voice data) list 633, which is pre-saved data, on the terminal 30 of the moving picture creator. When the moving picture creator 3 or the like presses or clicks on the voice data list 633 at the moving picture creator terminal 30, the moving picture creator terminal 30 instructs the processing device 10 or the external processing device 40 to synthesize voice. The processing device 10 or the external processing device 40 generates speech data from the speech set in the speech text display area 511 using the speech synthesizing means 415 .

また同様に、処理装置10は動画製作者等端末30へ事前保管データである人物音声言語別データ(以下言語別データ)リスト634を表示してもよい。動画製作者等端末30にて動画製作者3等が言語データリスト634の中からを押下又はクリックすると、動画製作者等端末30は処理装置10又は外部処理装置40へ音声合成の指示をする。処理装置10又は外部処理装置40はセリフテキスト表示エリア511で設定したセリフを音声合成手段415を用いて、セリフから音声データを生成する。処理装置10又は外部処理装置40は入力されたセリフを他言語に自動翻訳をする、自動翻訳手段を設けても良い。 Similarly, the processing device 10 may display a list 634 of human speech language-specific data (hereinafter, language-specific data), which is pre-saved data, on the terminal 30 of the moving picture creator. When the moving picture producer 3 or the like presses or clicks on the language data list 634 at the moving picture producer terminal 30, the moving picture producer terminal 30 instructs the processing device 10 or the external processing device 40 to synthesize speech. The processing device 10 or the external processing device 40 generates speech data from the speech set in the speech text display area 511 using the speech synthesizing means 415 . The processing device 10 or the external processing device 40 may be provided with automatic translation means for automatically translating the input lines into another language.

(ステップS67)
ステップS66で生成された音声データを再生させるプレビューボタン635を設けても良い。プレビューボタン635を動画製作者等端末30にて動画製作者3等が押下又はクリックすると、処理装置10はデータ送信手段119を用いて動画製作者等端末30へ生成した音声データを送信し、動画製作者等端末30生成された音声データを再生する。この動作によって音声合成された音声データを動画製作者等端末30にて動画製作者3等が確認、チェックすることが可能となる。その後ステップS64に遷移する。
(Step S67)
A preview button 635 may be provided to reproduce the audio data generated in step S66. When the video producer 3 or the like presses or clicks the preview button 635 on the video producer terminal 30, the processing device 10 uses the data transmission means 119 to transmit the generated audio data to the video producer terminal 30, Producer terminal 30 reproduces the generated voice data. This operation enables the moving picture creator 3 or the like to confirm and check the synthesized voice data at the moving picture creator terminal 30 . After that, the process transitions to step S64.

(ステップS68)
動画製作者等端末30にて動画製作者3等が「背景」タブ604を押下又はクリックを行った場合、動画の背景設定画面データを送信する。動画製作者等端末30の表示部には、例えば図21のように、事前保管データである背景データのリスト641を表示してもよい。背景リストに中から選択し、押下又はクリックすると、背景選択枠642が表示され、当該背景を背景設定手段114にて動画の背景設定をする。その後ステップS64に遷移する。
(Step S68)
When the moving image creator 3 or the like presses or clicks the "background" tab 604 on the moving image creator terminal 30, the moving image background setting screen data is transmitted. For example, as shown in FIG. 21, a list 641 of background data, which is pre-saved data, may be displayed on the display unit of the moving picture producer terminal 30 . When a background is selected from the background list and pressed or clicked, a background selection frame 642 is displayed, and the background is set as the background of the moving image by the background setting means 114 . After that, the process transitions to step S64.

(ステップS69)
動画製作者等端末30にて動画製作者3等が「音楽」タブ605を押下又はクリックを行った場合、動画の音楽設定画面データを送信する。動画製作者等端末30の表示部には、例えば図22のように、事前保管データである音楽データのリスト651を表示してもよい。音楽リストに中からチェックボックス653選択し、押下又はクリックすると音楽設定手段113にて動画の音楽を設定する。
(Step S69)
When the moving image creator 3 or the like presses or clicks the "music" tab 605 on the moving image creator terminal 30, the music setting screen data of the moving image is transmitted. For example, as shown in FIG. 22, a list 651 of music data, which is pre-saved data, may be displayed on the display unit of the terminal 30 for video creators and the like. When a check box 653 is selected from the music list and pressed or clicked, the music of the moving image is set by the music setting means 113 .

(ステップS70)
ステップS69で選択した音楽データを再生させるプレビューボタン654を設けても良い。プレビューボタン654を動画製作者等端末30にて動画製作者3等が押下又はクリックすると、処理装置10はデータ送信手段119を用いて動画製作者等端末30へ選択した音楽データを送信し、動画製作者等端末30生成された音楽データを再生する。この動作によって音楽データを動画製作者等端末30にて動画製作者3等が確認、チェックすることが可能となる。その後ステップS64に遷移する。
(Step S70)
A preview button 654 for reproducing the music data selected in step S69 may be provided. When the preview button 654 is pressed or clicked by the video creator 3 or the like on the video creator terminal 30, the processing device 10 uses the data transmission means 119 to transmit the selected music data to the video creator terminal 30, and the video is displayed. The producer terminal 30 reproduces the generated music data. By this operation, music data can be confirmed and checked by the moving picture producer 3 or the like at the terminal 30 of the moving picture producer or the like. After that, the process transitions to step S64.

[7.処理装置10及び視聴者等端末50による動画視聴実施例]
次に本実施形態に係る視聴者等端末50を用いて、処理装置10による、動画視聴実施例について図23を参照しながら説明する。図23は本実施形態に係る処理装置10が動画を配信し、視聴者等端末50にて動画を視聴する際における処理例を示すフローチャート図である。
[7. Example of video viewing by processing device 10 and viewer terminal 50]
Next, an example of video viewing by the processing device 10 will be described with reference to FIG. 23 using the viewer terminal 50 according to the present embodiment. FIG. 23 is a flow chart showing an example of processing when the processing device 10 according to the present embodiment distributes moving images and the moving images are viewed on the terminal 50 of the viewer or the like.

(ステップS81)
視聴者5等は付与された送信元識別符号を使用して、視聴者等端末50を通して、動画の視聴要求を処理装置10に動画視聴請求を行う。
(Step S81)
The viewer 5 or the like requests the processing device 10 to view the moving image through the terminal 50 of the viewer or the like using the given transmission source identification code.

(ステップS82)
視聴者等端末50にカメラデバイスといった表情、感情又は人間が発するデータを読み取る人感データ取得デバイス51Dがあるか否かの判定を行う。当該人感データ取得デバイス51DはWEBカメラでも良いし、興奮度を図る脈拍計測計でもよいし、あらゆる人感データ取得デバイスでよく、特に定めない。
(Step S82)
It is determined whether or not the terminal 50 of the viewer or the like has a human feeling data acquisition device 51D, such as a camera device, for reading facial expressions, emotions, or data emitted by humans. The human sensing data acquisition device 51D may be a WEB camera, a pulse meter for measuring the degree of excitement, or any human sensing data acquisition device, and is not particularly defined.

(ステップS83)
視聴者等端末50にカメラデバイス等、表情や感情を読み取る人感データ取得デバイス51Dがあった場合は、視聴者5等に当該人感データ取得デバイス51Dを使用して良いか、視聴者等端末50を通して確認を行う。
(Step S83)
If the viewer's terminal 50 has a human feeling data acquisition device 51D that reads facial expressions and emotions, such as a camera device, the viewer's terminal 50 asks the viewer 5 whether it is okay to use the human feeling data acquisition device 51D. Check through 50.

(ステップS84)
視聴者5等から当該人感データ取得デバイス51Dを使用して良い、との意志が視聴者等端末50を通して受信した場合、処理装置10は動画再生手段121及び動画配信手段122を用いて動画配信をスタートするとともに、当該人感データ取得デバイス51Dから視聴者等端末50が受信した人感データ等をデータ受信手段111を用いて受信を行う。
(Step S84)
When the viewer's 5 or the like indicates that the human sensor data acquisition device 51D may be used, the processor 10 distributes the moving image using the moving image reproducing means 121 and the moving image distributing means 122. is started, and the data receiving means 111 receives the human feeling data and the like received by the viewer terminal 50 from the human feeling data acquisition device 51D.

(ステップS85)
処理装置10は受信した人感データ等を処理装置10自ら又は転送した人感データを外部処理装置40が人感データ認識手段419及び人感データ解析手段420等で表情解析等を行う。解析の一つである表情解析は、一般化学習ベクトル量子化手法により、顔検出技術及び多点特徴点検出法による特徴点検出技術によって顔の表情を読み取り、解析を行う。動画再生時にどのような行動パターンであったか、行動結果分析データをロギングし、ステップS87へ飛ぶ。
(Step S85)
The processor 10 itself or the external processor 40 performs facial expression analysis and the like on the received human feeling data and the like by the human feeling data recognition means 419 and the human feeling data analysis means 420 and the like on the transferred human feeling data. Facial expression analysis, which is one of the analyses, reads and analyzes facial expressions using a face detection technique and a feature point detection technique based on a multi-point feature point detection method using a generalized learning vector quantization method. The action result analysis data is logged as to what kind of action pattern was observed during the reproduction of the moving image, and the process jumps to step S87.

(ステップS86)
ステップS82にて、視聴者5等から当該人感データ取得デバイス51Dを使用しない又は当該人感データ取得デバイス51Dが無い、との判断が視聴者等端末50を通して受信した場合、処理装置10は動画再生手段121及び動画配信手段122を用いて動画配信をスタートする。
(Step S86)
In step S82, when it is received from the viewer 5 or the like through the terminal 50 of the viewer or the like that the motion data acquisition device 51D is not used or that there is no motion data acquisition device 51D, the processing device 10 The moving image distribution is started using the reproduction means 121 and the moving image distribution means 122 .

(ステップS87)
処理装置10は配信を続けながら、視聴時間、分岐データ、外部リンククリック及びその他データを取得する。
(Step S87)
The processing device 10 acquires viewing time, branching data, external link clicks and other data while continuing the distribution.

(ステップS88)
視聴者5等は視聴者等端末50を通して、視聴を止める操作を行ったか、又は動画の配信実態が終了したか、判定を行う。終了した場合、処理装置10は商談システム判断ステップS89へ移行し、終了しない場合はステップS87に戻る。
(Step S88)
The viewer 5 or the like determines through the viewer terminal 50 whether an operation to stop viewing has been performed or whether the delivery of the moving image has ended. If completed, the processing device 10 proceeds to the business negotiation system determination step S89, and if not completed, returns to step S87.

(ステップS89)
動画を終了した際には最後の動画、動画を中断した際には当該中断した動画に商談システムの会議IDが割り当てられていた場合は、処理装置10は視聴者等端末50を通して、視聴者5等に商談を希望するかメッセージを表示する。商談を希望する場合は商談ステップS90へ、会議IDが設定されておらず商談が設定されていない場合、又は商談を希望しない場合は終了する。
(Step S89)
If the conference ID of the business negotiation system is assigned to the last moving image when the moving image ends, and to the interrupted moving image when the moving image is interrupted, the processing device 10 sends the viewer 5 through the viewer terminal 50. etc. to display a message asking for business negotiations. If the business negotiation is desired, the process proceeds to the business negotiation step S90. If the meeting ID is not set and the business negotiation is not set, or if the business negotiation is not desired, the process ends.

(ステップS90)
商談を希望した際には処理装置10は会議システム連携手段126を使って会議システムと連携をし、会議システム通信手段127を使って商談をスタートする。同時に動画視聴ステップは終了する。
(Step S90)
When a business negotiation is desired, the processing device 10 uses the conference system cooperation means 126 to cooperate with the conference system, and uses the conference system communication means 127 to start the business negotiation. At the same time, the video viewing step ends.

[8.処理装置10、システム管理者等端末20及び動画製作者等端末30による動画解析実施例]
次に本実施形態に係るシステム管理者等端末20及び動画製作者等端末30を用いて、処理装置10による、動画解析実施例について図24乃至図28を参照しながら説明する。図24は本実施形態に係るシステム管理者等端末20及び動画製作者等端末30が処理装置10に動画解析指示を行い、処理装置10は動画視聴データを解析後、システム管理者等端末20及び動画製作者等端末30へ解析結果表示指示をする処理例を示すフローチャート図、図25は本実施形態に係るシステム管理者等端末20及び動画製作者等端末30に表示される動画解析初期画面の一例を示す図、図26は本実施形態に係るシステム管理者等端末20及び動画製作者等端末30に表示される動画解析個別画面の一例を示す図、図27は本実施形態に係るシステム管理者等端末20及び動画製作者等端末30に表示される動画解析個別詳細画面の一例を示す図及び図28は本実施形態に係るシステム管理者等端末20及び動画製作者等端末30に表示される動画解析全体詳細画面の一例を示す図である。
[8. Example of video analysis by processing device 10, system administrator terminal 20, and video creator terminal 30]
Next, an example of video analysis by the processing device 10 will be described using the system administrator terminal 20 and the video creator terminal 30 according to the present embodiment with reference to FIGS. 24 to 28. FIG. FIG. 24 shows that the system administrator terminal 20 and the moving image producer terminal 30 according to the present embodiment instruct the processing device 10 to analyze the moving image, and the processing device 10 analyzes the moving image viewing data. FIG. 25 is a flow chart showing an example of processing for instructing the video producer terminal 30 to display analysis results. FIG. FIG. 26 is a diagram showing an example of a video analysis individual screen displayed on the system administrator terminal 20 and the video producer terminal 30 according to this embodiment, and FIG. 27 is a system management screen according to this embodiment. FIG. 28 shows an example of a video analysis individual detail screen displayed on the terminal 20 of the person who performs the video and the terminal 30 of the video creator, etc., and FIG. FIG. 10 is a diagram showing an example of an overall moving image analysis detailed screen.

(ステップS101)
システム管理者2等及び動画製作者3等は、システム管理者等端末20及び動画製作者等端末30を通じて処理装置10へ動画解析要求を行う。システム管理者等端末20及び動画製作者等端末30の表示部には、例えば図25のような動画解析初期画面が表示され操作待ち状態となる。
(Step S101)
The system administrator 2 or the like and the motion picture producer 3 or the like make a motion picture analysis request to the processing device 10 through the system manager terminal 20 and the motion picture producer terminal 30 . On the display units of the system manager terminal 20 and the moving picture creator terminal 30, for example, a moving picture analysis initial screen as shown in FIG.

(ステップS102)
図25に示す動画解析初期画面上には簡単動画毎に動画欄812及び813を設け、動画のサムネイル表示欄814、公開有無欄816、TOTALアクセス解析表示欄817、当日アクセス解析表示欄818にて簡易的なアクセス解析結果を表示して良い。システム管理者2等及び動画製作者3等は操作欄815に設けられている個別解析ボタン819又は動画解析ボタン820を選択して、押下又はクリックを行う。
(Step S102)
On the video analysis initial screen shown in FIG. 25, video columns 812 and 813 are provided for each simple video. A simple access analysis result may be displayed. The system administrator 2 or the like and the animation producer 3 or the like select an individual analysis button 819 or animation analysis button 820 provided in the operation column 815 and press or click.

(ステップS103)
ステップS102でシステム管理者2等及び動画製作者3等が操作欄815に設けられている個別解析ボタン819を押下又はクリックを行った場合は、システム管理者等端末20及び動画製作者等端末30を通じて処理装置10へ個別動画解析要求を行い、処理装置10はアクセスデータ分析手段125等を用いてアクセスデータを解析する。システム管理者等端末20及び動画製作者等端末30の表示部には、例えば図26のような動画解析個別画面が表示される。
図26は例示であるが、簡易的に動画アクセス有無欄836、最終到達欄837及び外部クリック欄838を設けて、動画へのアクセスの有無、動画が最後まで再生された可能されたか否か、及び外部リンクへクリックした回数等を表示しても良い。
また、この動画個別解析画面で送信元識別符号であるURL表示欄833及びアクセス者表示欄835で直接編集をできるようにしても良い。また言語設定欄834に設けられた言語設定ボタン840を押下又はクリックする事で再生される言語を変更できるようにしても良い。
(Step S103)
In step S102, when the system administrator 2 or the like and the animation producer 3 or the like presses or clicks the individual analysis button 819 provided in the operation column 815, the system administrator terminal 20 and the animation producer terminal 30 An individual video analysis request is sent to the processing device 10 through the access data analysis means 125 or the like, and the processing device 10 analyzes the access data. On the display units of the system manager terminal 20 and the moving picture creator terminal 30, for example, a moving picture analysis individual screen as shown in FIG. 26 is displayed.
Although FIG. 26 is an example, a video access presence/absence column 836, a final arrival column 837, and an external click column 838 are simply provided to indicate whether or not the video has been accessed, whether the video has been played to the end, And the number of clicks to external links may be displayed.
In addition, direct editing may be enabled in the URL display field 833 and the accessor display field 835, which are transmission source identification codes, on this moving picture individual analysis screen. Alternatively, the language to be reproduced may be changed by pressing or clicking a language setting button 840 provided in the language setting field 834 .

(ステップS104)
システム管理者2等及び動画製作者3等が解析欄839に設けられている詳細解析ボタン841を押下又はクリックを行った場合は、システム管理者等端末20及び動画製作者等端末30を通じて処理装置10へ個別動画詳細解析要求を行い、処理装置10はアクセスデータ分析手段125等を用いてアクセスデータを解析する。
(Step S104)
When the system administrator 2, etc. and the animation producer 3, etc. press or click the detailed analysis button 841 provided in the analysis column 839, the processing device through the system administrator terminal 20 and the animation producer terminal 30 10, and the processing device 10 analyzes the access data using the access data analysis means 125 or the like.

(ステップS105)
S104の解析により、システム管理者等端末20及び動画製作者等端末30の表示部には、例えば図27のような動画解析個別詳細画面が表示される。
図27は例示であるが、動画解析グラフ欄855、表情解析グラフ856、在席解析グラフ857及びアクセス回数表示グラフ858を設けて、動画を見た視聴者5等の行動結果分析データから、興味度、興奮度、離席率及びアクセス回数を表示しても良い。
印刷をする機能を設けて良いし、デジタルデータとして保存する機能を設けても良い。戻るボタン859を押下及びクリックをすると、解析画面は終了する。
(Step S105)
As a result of the analysis in S104, for example, a moving image analysis individual detailed screen such as that shown in FIG.
Although FIG. 27 is an example, a video analysis graph column 855, a facial expression analysis graph 856, a presence analysis graph 857, and an access count display graph 858 are provided, and from the behavior result analysis data of the viewer 5 who watched the video, the interest degree, excitement level, absence rate, and number of accesses may be displayed.
A function of printing may be provided, and a function of saving as digital data may be provided. Pressing and clicking the return button 859 terminates the analysis screen.

(ステップ106)
ステップS102でシステム管理者2等及び動画製作者3等が操作欄815に設けられている動画解析ボタン820を押下又はクリックを行った場合は、システム管理者等端末20及び動画製作者等端末30を通じて処理装置10へ個別動画解析要求を行い、処理装置10はアクセスデータ分析手段125等を用いてアクセスデータを解析する。
(Step 106)
In step S102, when the system administrator 2 or the like and the animation producer 3 or the like press or click the animation analysis button 820 provided in the operation field 815, the system administrator terminal 20 and the animation producer terminal 30 An individual video analysis request is sent to the processing device 10 through the access data analysis means 125 or the like, and the processing device 10 analyzes the access data.

(ステップ107)
システム管理者等端末20及び動画製作者等端末30の表示部には、例えば図28のような動画解析全体詳細画面が表示される。
図28は例示であるが、動画解析グラフ欄875、属性1グラフ876、属性2グラフ877及び属性グラフ878を設けて、動画を見た視聴者5等らの行動結果分析データから、アクセス回数、性別属性及び完全再生率を表示しても良い。
印刷をする機能を設けて良いし、デジタルデータとして保存する機能を設けても良い。戻るボタン879を押下及びクリックをすると、解析画面は終了する。
(Step 107)
On the display units of the system administrator's terminal 20 and the moving picture creator's terminal 30, for example, an overall moving picture analysis detailed screen such as that shown in FIG. 28 is displayed.
Although FIG. 28 is an example, a video analysis graph column 875, an attribute 1 graph 876, an attribute 2 graph 877, and an attribute graph 878 are provided, and from the action result analysis data of the viewers 5 who watched the video, the number of accesses, You may display a gender attribute and a complete reproduction rate.
A function of printing may be provided, and a function of saving as digital data may be provided. Pressing and clicking the return button 879 terminates the analysis screen.

S 動画生成配信システム
10 動画生成配信処理装置
101 通信制御部
102 入出力インターフェース部
103 処理部
104 記憶部
111 データ受信手段
112 アバター設定手段
113 音楽設定手段
114 背景設定手段
115 データ選択手段
116 分岐データ設定手段
117 ファイル展開手段
118 ファイル解析手段
119 データ送信手段
120 送信元識別符号生成手段
121 動画再生手段
122 動画配信手段
123 HTML編集手段
124 人感データ展開手段
125 アクセスデータ分析手段
126 会議システム連携手段
127 会議システム通信手段
141 製作者・視聴者データ
142 プレゼンテーションファイル
143 アバターデータ
144 音楽・背景データ
145 音声・動画データ
2 システム管理者
20 システム管理者等端末
3 動画製作者
30 動画製作者等端末
40 動画生成外部処理装置
401 通信制御部
402 入出力インターフェース部
403 処理部
404 記憶部
411 データ受信手段
412 ファイル展開手段
413 ファイル解析手段
414 テキスト抽出手段
415 音声合成手段
416 動画生成手段
417 HTML生成手段
418 データ転送手段
419 人感データ認識手段
420 人感データ解析手段
5 視聴者
50 視聴者等端末
51D 人感データ取得デバイス
60 会議システム処理装置
S Moving image generation/distribution system 10 Moving image generation/distribution processing device 101 Communication control unit 102 Input/output interface unit 103 Processing unit 104 Storage unit 111 Data receiving means 112 Avatar setting means 113 Music setting means 114 Background setting means 115 Data selection means 116 Branch data setting Means 117 File expansion means 118 File analysis means 119 Data transmission means 120 Transmission source identification code generation means 121 Video playback means 122 Video distribution means 123 HTML editing means 124 Human feeling data expansion means 125 Access data analysis means 126 Conference system cooperation means 127 Conference System communication means 141 creator/viewer data 142 presentation file 143 avatar data 144 music/background data 145 audio/video data 2 system manager 20 system manager terminal 3 video creator 30 video creator terminal 40 video generation external Processing device 401 Communication control unit 402 Input/output interface unit 403 Processing unit 404 Storage unit 411 Data reception unit 412 File development unit 413 File analysis unit 414 Text extraction unit 415 Voice synthesis unit 416 Animation generation unit 417 HTML generation unit 418 Data transfer unit 419 Human feeling data recognition means 420 Human feeling data analysis means 5 Viewer 50 Viewer terminal 51D Human feeling data acquisition device 60 Conference system processing device

Claims (13)

動画を生成及び配信する動画生成配信装置であって、
入力データを受信するデータ受信手段と、
前記データ受信手段で受け取った前記入力データから生成された入力加工データを用いて動画データを生成する動画生成手段と、
受信した前記入力データ、事前保管データ及び当該システムで生成されたデータから、次に配信するデータを分岐させる分岐データを設定する分岐データ設定手段と、
受信した前記入力データ、前記事前保管データ及び当該システムで生成されたデータを使用して動画を配信する動画配信手段と、
前記動画配信手段にて動画配信を提供可能とする送信元識別符号を生成する送信元識別符号生成手段と、
を備えることを特徴とする動画生成配信装置。
A moving image generation and distribution device for generating and distributing moving images,
data receiving means for receiving input data;
a moving image generating means for generating moving image data using input processed data generated from the input data received by the data receiving means;
branch data setting means for setting branch data for branching data to be distributed next from the received input data, pre-stored data, and data generated by the system;
video distribution means for distributing a video using the received input data, the pre-stored data, and data generated by the system;
source identification code generating means for generating a source identification code that enables the moving image distribution means to provide moving image distribution;
A video generation and distribution device characterized by comprising:
動画を生成及び配信する動画生成配信装置であって、
入力データを受信するデータ受信手段と、
前記データ受信手段で受け取った前記入力データから生成された入力加工データを用いてHTMLファイルを生成するHTML生成手段と、
受信した前記入力データ、事前保管データ及び当該システムで生成されたデータから、次に配信するデータを分岐させる分岐データを設定する分岐データ設定手段と、
受信した前記入力データ、前記事前保管データ及び当該システムで生成されたデータを使用して動画を配信する動画配信手段と、
前記動画配信手段にて動画配信を提供可能とする送信元識別符号を生成する送信元識別符号生成手段と、
を備えることを特徴とする動画生成配信装置。
A moving image generation and distribution device for generating and distributing moving images,
data receiving means for receiving input data;
HTML generating means for generating an HTML file using input processing data generated from the input data received by the data receiving means;
branch data setting means for setting branch data for branching data to be distributed next from the received input data, pre-stored data, and data generated by the system;
video distribution means for distributing a video using the received input data, the pre-stored data, and data generated by the system;
source identification code generating means for generating a source identification code that enables the moving image distribution means to provide moving image distribution;
A video generation and distribution device characterized by comprising:
前記データ受信手段で受け取った前記入力データの展開を行うファイル展開手段と、
前記ファイル展開手段で展開された展開データを解析するファイル解析手段と、
前記ファイル解析手段で生成された展開解析データからテキスト抽出を行うテキスト抽出手段と、
前記テキスト抽出手段で抽出したテキストデータから音声データを生成する音声合成手段と、
を備えることを特徴とする請求項1又は請求項2に記載の動画生成配信装置。
a file expansion means for expanding the input data received by the data reception means;
a file analysis means for analyzing the expanded data expanded by the file expansion means;
text extraction means for extracting text from the expansion analysis data generated by the file analysis means;
a speech synthesizing means for generating speech data from the text data extracted by the text extracting means;
3. The moving image generating and distributing apparatus according to claim 1, further comprising:
前記生成されたHTMLファイルはHTML5にて記述され、HTML5で表現するイメージやリンク情報を動画として扱う、又は動画ファイルを埋め込み配信を行う、
ことを特徴とする請求項2及び請求項3に記載の動画生成配信装置。
The generated HTML file is described in HTML5, and images and link information expressed in HTML5 are treated as moving images, or embedded and distributed with moving image files.
4. The moving image generating and distributing apparatus according to claim 2, wherein:
前記HTMLファイルを直接編集可能なHTML編集手段と、
を備えることを特徴とする請求項2乃至請求項4に記載の動画生成配信装置。
HTML editing means capable of directly editing the HTML file;
5. The moving image generating and distributing apparatus according to claim 2, further comprising:
前記送信元識別符号生成手段は視聴者毎に生成され、
送信元識別符号毎のデータを取得、データ解析を可能とするアクセスデータ分析手段と、
を備えることを特徴とする請求項1乃至請求項5に記載の動画生成配信装置。
The transmission source identification code generation means is generated for each viewer,
access data analysis means for obtaining data for each source identification code and enabling data analysis;
6. The moving image generating and distributing apparatus according to claim 1, further comprising:
会議システムと連携する会議システム連携手段と、
前記会議システム連携手段で連携した会議システムと通信を行う会議通信手段と、
を備えることを特徴とする請求項1乃至請求項6に記載の動画生成配信装置。
a conference system cooperation means that cooperates with the conference system;
a conference communication means for communicating with the conference system linked by the conference system cooperation means;
7. The moving image generating and distributing apparatus according to claim 1, further comprising:
表情、感情又は人間が発するデータを読み取る人感データ取得デバイスと、
を備えることを特徴とする請求項1乃至請求項7に記載の動画生成配信装置。
a human data acquisition device that reads facial expressions, emotions, or data emitted by humans;
8. The moving image generating and distributing apparatus according to claim 1, further comprising:
前記人感データ取得デバイスから読み取った人感データを認識する人感データ認識手段と、
認識された前記人感データを解析する人感データ解析手段と、
を備えることを特徴とする請求項8に記載の動画生成配信装置。
Human feeling data recognition means for recognizing human feeling data read from the human feeling data acquisition device;
human feeling data analysis means for analyzing the recognized human feeling data;
The moving image generation and distribution device according to claim 8, characterized by comprising:
動画を生成及び配信する動画生成配信方法であって、
入力データを受信するデータ受信ステップと、
前記データ受信ステップで受け取った前記入力データから生成された入力加工データを用いて動画データを生成する動画生成ステップと、
受信した前記入力データ、事前保管データ及び当該システムで生成されたデータから、次に配信するデータを分岐させる分岐データを設定する分岐データ設定ステップと、
受信した前記入力データ、前記事前保管データ及び当該システムで生成されたデータを使用して動画を配信する動画配信ステップと、
前記動画配信ステップにて動画配信を提供可能とする送信元識別符号を生成する送信元識別符号生成ステップと、
を備えることを特徴とする動画生成配信方法。
A moving image generation and distribution method for generating and distributing a moving image,
a data receiving step for receiving input data;
a video generating step of generating video data using input processed data generated from the input data received in the data receiving step;
a branch data setting step of setting branch data for branching data to be distributed next from the received input data, pre-stored data, and data generated by the system;
a video distribution step of distributing a video using the received input data, the pre-stored data, and data generated by the system;
a transmission source identification code generation step for generating a transmission source identification code that enables video distribution to be provided in the moving image distribution step;
A moving image generation and distribution method characterized by comprising:
動画を生成及び配信する動画生成配信方法であって、
入力データを受信するデータ受信ステップと、
前記データ受信ステップで受け取った前記入力データから生成された入力加工データを用いてHTMLファイルを生成するHTML生成ステップと、
受信した前記入力データ、事前保管データ及び当該システムで生成されたデータから、次に配信するデータを分岐させる分岐データを設定する分岐データ設定ステップと、
受信した前記入力データ、前記事前保管データ及び当該システムで生成されたデータを使用して動画を配信する動画配信ステップと、
前記動画配信ステップにて動画配信を提供可能とする送信元識別符号を生成する送信元識別符号生成ステップと、
を備えることを特徴とする動画生成配信方法。
A moving image generation and distribution method for generating and distributing a moving image,
a data receiving step for receiving input data;
an HTML generation step of generating an HTML file using input processed data generated from the input data received in the data reception step;
a branch data setting step of setting branch data for branching data to be distributed next from the received input data, pre-stored data, and data generated by the system;
a video distribution step of distributing a video using the received input data, the pre-stored data, and data generated by the system;
a transmission source identification code generation step for generating a transmission source identification code that enables video distribution to be provided in the moving image distribution step;
A moving image generation and distribution method characterized by comprising:
コンピュータを
入力データを受信するデータ受信手段、
前記データ受信手段で受け取った前記入力データから生成された入力加工データを用いて動画データを生成する動画生成手段、
受信した前記入力データ、事前保管データ及び当該システムで生成されたデータから、次に配信するデータを分岐させる分岐データを設定する分岐データ設定手段、
受信した前記入力データ、前記事前保管データ及び当該システムで生成されたデータを使用して動画を配信する動画配信手段、
前記動画配信手段にて動画配信を提供可能とする送信元識別符号を生成する送信元識別符号生成手段、
として機能させることを特徴とする動画生成配信プログラム。
data receiving means for receiving input data;
A moving image generating means for generating moving image data using input processed data generated from the input data received by the data receiving means;
branch data setting means for setting branch data for branching data to be distributed next from the received input data, pre-stored data, and data generated by the system;
video distribution means for distributing videos using the received input data, the pre-stored data, and data generated by the system;
transmission source identification code generation means for generating a transmission source identification code that enables video distribution to be provided by the video distribution means;
A moving image generation and distribution program characterized by functioning as a
コンピュータを
入力データを受信するデータ受信手段、
前記データ受信手段で受け取った前記入力データから生成された入力加工データを用いてHTMLファイルを生成するHTML生成手段、
受信した前記入力データ、事前保管データ及び当該システムで生成されたデータから、次に配信するデータを分岐させる分岐データを設定する分岐データ設定手段、
受信した前記入力データ、前記事前保管データ及び当該システムで生成されたデータを使用して動画を配信する動画配信手段、
前記動画配信手段にて動画配信を提供可能とする送信元識別符号を生成する送信元識別符号生成手段、
として機能させることを特徴とする動画生成配信プログラム。
data receiving means for receiving input data;
HTML generation means for generating an HTML file using input processing data generated from the input data received by the data reception means;
branch data setting means for setting branch data for branching data to be distributed next from the received input data, pre-stored data, and data generated by the system;
video distribution means for distributing videos using the received input data, the pre-stored data, and data generated by the system;
transmission source identification code generation means for generating a transmission source identification code that enables video distribution to be provided by the video distribution means;
A moving image generation and distribution program characterized by functioning as a
JP2021038796A 2021-03-10 2021-03-10 Video generation and distribution processing device, video generation and distribution method, and video generation and distribution program Active JP7372020B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021038796A JP7372020B2 (en) 2021-03-10 2021-03-10 Video generation and distribution processing device, video generation and distribution method, and video generation and distribution program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021038796A JP7372020B2 (en) 2021-03-10 2021-03-10 Video generation and distribution processing device, video generation and distribution method, and video generation and distribution program

Publications (2)

Publication Number Publication Date
JP2022138739A true JP2022138739A (en) 2022-09-26
JP7372020B2 JP7372020B2 (en) 2023-10-31

Family

ID=83400199

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021038796A Active JP7372020B2 (en) 2021-03-10 2021-03-10 Video generation and distribution processing device, video generation and distribution method, and video generation and distribution program

Country Status (1)

Country Link
JP (1) JP7372020B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030018974A1 (en) * 2001-07-18 2003-01-23 Fujitsu Limited Image delivery system, image delivery method, and recording medium in which image delivery program is recorded
WO2003027860A1 (en) * 2001-09-19 2003-04-03 Ntt Advertising, Inc. Content delivery system for delivering content changing on time axis, content delivery server, log collection server, content relay server, user terminal, content viewing/listening state grasping method, recommendation method, and content providing method
JP2004265067A (en) * 2003-02-28 2004-09-24 National Institute Of Information & Communication Technology Content distribution system
JP2005062420A (en) * 2003-08-11 2005-03-10 Nec Corp System, method, and program for content generation
JP2014215859A (en) * 2013-04-26 2014-11-17 ソニー株式会社 Reception device, information processing method in reception device, transmission device, information processing device, and information processing method
JP2016127513A (en) * 2015-01-07 2016-07-11 株式会社クリエ・ジャパン Moving image generation server, moving image generation program, moving image generation method, and moving image generation system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030018974A1 (en) * 2001-07-18 2003-01-23 Fujitsu Limited Image delivery system, image delivery method, and recording medium in which image delivery program is recorded
WO2003027860A1 (en) * 2001-09-19 2003-04-03 Ntt Advertising, Inc. Content delivery system for delivering content changing on time axis, content delivery server, log collection server, content relay server, user terminal, content viewing/listening state grasping method, recommendation method, and content providing method
JP2004265067A (en) * 2003-02-28 2004-09-24 National Institute Of Information & Communication Technology Content distribution system
JP2005062420A (en) * 2003-08-11 2005-03-10 Nec Corp System, method, and program for content generation
JP2014215859A (en) * 2013-04-26 2014-11-17 ソニー株式会社 Reception device, information processing method in reception device, transmission device, information processing device, and information processing method
JP2016127513A (en) * 2015-01-07 2016-07-11 株式会社クリエ・ジャパン Moving image generation server, moving image generation program, moving image generation method, and moving image generation system

Also Published As

Publication number Publication date
JP7372020B2 (en) 2023-10-31

Similar Documents

Publication Publication Date Title
JP6861454B2 (en) Storyboard instruction video production from shared and personalized assets
US11818496B2 (en) Remotely accessed virtual recording room
KR100826959B1 (en) Method and system for making a picture image
JP2008293219A (en) Content management system, information processor in content management system, link information generation system in information processor, link information generation program in information processor, and recording medium with link information generation program recorded thereon
US20190199763A1 (en) Systems and methods for previewing content
Li et al. Introduction to multimedia
JP7372020B2 (en) Video generation and distribution processing device, video generation and distribution method, and video generation and distribution program
JP2004266578A (en) Moving image editing method and apparatus
KR20090000761A (en) Method and apparatus for authoring web pages
KR20070103951A (en) Method and apparatus for authoring web pages
JP2006237682A (en) Moving image distribution system, management server capable of recording moving image data, and moving image data recording program
KR102615377B1 (en) Method of providing a service to experience broadcasting
CN111221452B (en) Scheme explanation control method
KR101951032B1 (en) System for providing the interactive media and method thereof
KR101607084B1 (en) Apparatus for providing smart tv movie using still image and the method thereof
KR20230043647A (en) Method and apparatus for providing a platform for sign language subtitles video
CN117407611A (en) Portal wall-mounting method, portal wall-mounting device and computer storage medium
JP2004128710A (en) Moving image searching method, and apparatus and program thereof
Wittner HTML5 in the Norwegian Higher Education Institutions
KR20140142410A (en) Method for sharing multimedia file
KR20140142411A (en) System for sharing multimedia file

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231018

R150 Certificate of patent or registration of utility model

Ref document number: 7372020

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150