JP2008139560A - Content base and communications system - Google Patents

Content base and communications system Download PDF

Info

Publication number
JP2008139560A
JP2008139560A JP2006325677A JP2006325677A JP2008139560A JP 2008139560 A JP2008139560 A JP 2008139560A JP 2006325677 A JP2006325677 A JP 2006325677A JP 2006325677 A JP2006325677 A JP 2006325677A JP 2008139560 A JP2008139560 A JP 2008139560A
Authority
JP
Japan
Prior art keywords
content
terminal
video
server
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006325677A
Other languages
Japanese (ja)
Other versions
JP5152458B2 (en
Inventor
Motoyasu Tanaka
基康 田中
Yusuke Nara
裕介 奈良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2006325677A priority Critical patent/JP5152458B2/en
Priority to PCT/JP2007/072792 priority patent/WO2008069037A1/en
Publication of JP2008139560A publication Critical patent/JP2008139560A/en
Application granted granted Critical
Publication of JP5152458B2 publication Critical patent/JP5152458B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/251Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/252Processing of multiple end-users' preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4751End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for defining user accounts, e.g. accounts for children
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8106Monomedia components thereof involving special audio data, e.g. different tracks for different languages
    • H04N21/8113Monomedia components thereof involving special audio data, e.g. different tracks for different languages comprising music, e.g. song in MP3 format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • H04N7/17309Transmission or handling of upstream communications
    • H04N7/17336Handling of requests in head-ends
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/175Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments for jam sessions or musical collaboration through a network, e.g. for composition, ensemble playing or repeating; Compensation of network or internet delays therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/201Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
    • G10H2240/241Telephone transmission, i.e. using twisted pair telephone lines or any type of telephone network
    • G10H2240/251Mobile telephone transmission, i.e. transmitting, accessing or controlling music data wirelessly via a wireless or mobile telephone receiver, analog or digital, e.g. DECT GSM, UMTS

Abstract

<P>PROBLEM TO BE SOLVED: To provide a participation-type communications system which allots parts to a plurality of persons to generate content, and also provide a content base used for the system. <P>SOLUTION: The communications system is provided with a server 1 and a plurality of terminals. The server 1 generates a content base based on instructions from a leader terminal 2a. The content base is provided with music data, image data, voice scenario data, image scenario data and so on. A generation member terminal 2b receives the content base, generates element voices 9 and element images 10, based on the voice scenario data and the image scenario data, and transmits them to the server 1. The server 1 composites the music data, or the like, from the received element voices 9, or the like, and makes the content K completed and transmits it to a receiving member terminal 2c. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、複数人がパートを分担して一つのコンテンツを作成することができるコンテンツベース、およびこれを用いたコミュニケーションシステムに関する。   The present invention relates to a content base in which a plurality of persons can share parts and create one content, and a communication system using the content base.

携帯電話やパーソナルコンピュータ(PC)などで電子メールによるコミュニケーションが広く行われている。当初は、文字データだけのコミュニケーションだったものが、最近では、文字に音声や映像が付加されたデータによるコミュニケーションも行われつつある(特許文献1、2)。本発明者も、単に音声や映像を加えるだけでなく、加える音声にエコーをつけたり、効果音を合成したりすることで、個性豊かな電子メールが作成できるシステムを先に提案している(特許文献3)。   Communication by e-mail is widely performed using a mobile phone or a personal computer (PC). Although communication was originally performed only on character data, recently communication using data in which voice or video is added to characters is being performed (Patent Documents 1 and 2). The present inventor has previously proposed a system that can create a unique e-mail by adding an echo or synthesizing a sound effect as well as simply adding sound and video (patent) Reference 3).

当初、この種のコミュニケーションは、電子メールにみられるように、1対1、あるいは1対少数の特定された相手間での形態に限られていた。しかし、近年では、インターネットの普及により、ブログやソーシャルネットワーク(SNS)など、1対不特定多数のコミュニケーションが盛んである。また、今でも電子メールのような非リアルタイム型のコミュニケーションが主流ではあるが、オンラインの相手どうしで直接情報を交換するリアルタイム型のコミュニケーションも盛んになりつつある。   Initially, this type of communication was limited to one-to-one or one-to-a few identified forms as seen in email. However, in recent years, with the spread of the Internet, a large number of one-to-unspecified communications such as blogs and social networks (SNS) have become popular. In addition, although non-real-time communication such as e-mail is still the mainstream, real-time communication that exchanges information directly with online partners is also becoming popular.

特開2002−366496号公報JP 2002-366396 A 特開2003−018084号公報JP 2003-018084 A 特開2006−127443号公報JP 2006-127443 A

単に情報を伝達するだけであれば、従来の文字データだけのコミュニケーションでも用を成すことはできるかもしれない。しかし、文字データだけでは、生の相手の様子は伝わり難く、興趣に欠けるし、コミュニケーションの手段としては十分とはいえない。先の特許文献1や特許文献2の技術によれば、音声や映像が付加できるため、相手の様子が伝わり易く優れてはいる。しかし、そこでの技術は、そのまま音声や映像を付加するものであるため、変化に乏しいきらいがある。その点、引用文献3の発明によれば、電子メールの音声を多種多様に加工することができ、電子データとして伝えられる有形の情報に加えて、送信者の“個性”や“思い”などの無形の情報までも伝えることができ、楽しんで、より密接なコミュニケーションを行うことが可能となっている。   If only information is to be transmitted, it may be possible to use conventional text data only. However, character data alone is difficult to convey the state of a live partner, lacks interest, and is not sufficient as a means of communication. According to the technique of the above-mentioned patent document 1 and patent document 2, since the sound and the image can be added, it is excellent that the state of the other party is easily transmitted. However, the technology there is not easy to change because it adds audio and video as it is. In that respect, according to the invention of Cited Document 3, it is possible to process a variety of voices of e-mails, in addition to tangible information conveyed as electronic data, such as “individuality” and “thought” of the sender Even intangible information can be conveyed, and it is possible to enjoy and communicate more closely.

しかしながら、そこでの技術は、個人で楽しむことを想定したものであったため、今日の多種多様なコミュニケーションの形態にまで対応させるには難があった。   However, since the technology there was supposed to be enjoyed by individuals, it was difficult to cope with various forms of communication today.

そこで、本発明は前記問題点に鑑み、今日の多種多様なコミュニケーションの形態に好適で、よりいっそう楽しめる参加型のコミュニケーションシステム、およびそれに用いられるコンテンツベースの提供を目的とする。   Therefore, in view of the above problems, the present invention is suitable for a variety of communication forms today, and an object thereof is to provide a participatory communication system that can be further enjoyed, and a content base used therefor.

上記課題を解決するため、請求項1記載の本発明は、複数人がパートを分担して一つのコンテンツを作成することに利用される、複数のデジタルデータ領域を有するコンテンツベースであって、楽曲を構成する音楽データと、前記音楽データに対応して作成される音声シナリオデータと、を備え、パート別に作成される音声を前記音楽データに合成する手順が、前記音声シナリオデータに規定されていることを特徴とする。   In order to solve the above-mentioned problem, the present invention according to claim 1 is a content base having a plurality of digital data areas, which is used when a plurality of persons share parts to create one content. , And voice scenario data created corresponding to the music data, and the voice scenario data defines a procedure for synthesizing the voice created for each part with the music data It is characterized by that.

請求項2に記載の本発明は、請求項1に記載のコンテンツベースであって、前記音声シナリオデータが、合成する音声を加工する音声エフェクトデータを含むことを特徴とする。   The present invention according to claim 2 is the content base according to claim 1, wherein the sound scenario data includes sound effect data for processing sound to be synthesized.

請求項3に記載の本発明は、請求項1または請求項2に記載のコンテンツベースであって、任意の位置に、効果音を合成できる効果音データ領域が設けられていることを特徴とする。   A third aspect of the present invention is the content base according to the first or second aspect, wherein a sound effect data area capable of synthesizing a sound effect is provided at an arbitrary position. .

請求項4に記載の本発明は、請求項1ないし請求項3のいずれかに記載のコンテンツベースであって、予め設定された所定のメンバー以外のコピーを禁止する不正コピー防止フラグ、を備えていることを特徴とする。   A fourth aspect of the present invention is the content base according to any one of the first to third aspects, further comprising an illegal copy prevention flag that prohibits a copy other than a predetermined member set in advance. It is characterized by being.

請求項5に記載の本発明は、請求項1ないし請求項4のいずれかに記載のコンテンツベースであって、前記楽曲と連動して再生される映像データと、前記映像データに対応して作成される映像シナリオデータと、を備え、パート別に作成される映像を前記映像データに合成する手順が、前記映像シナリオデータに規定されていることを特徴とする。   The present invention according to claim 5 is the content base according to any one of claims 1 to 4, and is created corresponding to the video data reproduced in conjunction with the music and the video data Video scenario data, and a procedure for synthesizing video created for each part with the video data is defined in the video scenario data.

請求項6に記載の本発明は、請求項5に記載のコンテンツベースであって、前記映像シナリオデータが、合成する映像を加工する映像エフェクトデータを含むことを特徴とする。   The present invention according to claim 6 is the content base according to claim 5, wherein the video scenario data includes video effect data for processing a video to be synthesized.

請求項7に記載の本発明は、請求項5または請求項6に記載のコンテンツベースであって、任意の位置に、効果映像を合成できる効果映像データ領域が設けられていることを特徴とする。   A seventh aspect of the present invention is the content base according to the fifth or sixth aspect, wherein an effect video data area capable of synthesizing the effect video is provided at an arbitrary position. .

請求項8に記載の本発明は、請求項1ないし請求項4のいずれかに記載のコンテンツベースを用いたコミュニケーションシステムであって、ネットワーク上に配置されるサーバと、前記サーバにアクセス可能な複数の端末と、を備え、前記複数の端末には、コンテンツの作成に参加する作成メンバー端末と、作成されたコンテンツを受け取る受取メンバー端末と、を含み、前記作成メンバー端末は、音声シナリオデータに規定されたそれぞれのパートの要素音声を作成する手段と、作成した要素音声を前記サーバに送信する手段と、
を有し、前記サーバは、音声シナリオデータに基づいて、前記作成メンバー端末から受信した要素音声を音楽データに合成する手段と、前記受取メンバー端末に、要素音声と音楽データとを合成して作成したコンテンツを送信する手段と、を備え、サーバを介して、複数人がパートを分担して一つのコンテンツの作成を可能としたことを特徴とする。
An eighth aspect of the present invention is a communication system using the content base according to any one of the first to fourth aspects, wherein a server arranged on a network and a plurality of servers accessible to the server are provided. The plurality of terminals includes a creation member terminal that participates in content creation and a receiving member terminal that receives the created content, and the creation member terminal is defined in the audio scenario data Means for generating element sounds of each of the parts, means for transmitting the generated element sounds to the server,
And the server synthesizes the component voice received from the creation member terminal with the music data based on the voice scenario data, and synthesizes the component voice and the music data with the receiving member terminal. Means for transmitting the content, and a plurality of persons can share the part and create one content via the server.

請求項9に記載の本発明は、請求項5ないし請求項7のいずれかに記載のコンテンツベースを用いたコミュニケーションシステムであって、ネットワーク上に配置されるサーバと、前記サーバにアクセス可能な複数の端末と、を備え、各端末には、コンテンツの作成に参加する作成メンバー端末と、作成されたコンテンツを受け取る受取メンバー端末と、が含まれており、前記作成メンバー端末は、音声シナリオデータおよび映像シナリオデータに規定されたそれぞれのパートの要素音声および要素映像を作成する手段と、作成した要素音声および要素映像を前記サーバに送信する手段と、を有し、前記サーバは、音声シナリオデータに基づいて、前記作成メンバー端末から受信した要素音声を音楽データに合成する手段と、映像シナリオデータに基づいて、前記作成メンバー端末から受信した要素映像を映像データに合成する手段と、前記受取メンバー端末に、要素音声および要素映像を合成して完成したコンテンツを送信する手段と、を備え、前記サーバを介して、複数人がパートを分担して一つのコンテンツの作成を可能としたことを特徴とする。   The present invention according to claim 9 is a communication system using the content base according to any one of claims 5 to 7, wherein a server arranged on a network and a plurality of servers accessible to the server are provided. Each of which includes a creation member terminal that participates in the creation of content and a receiving member terminal that receives the created content, wherein the creation member terminal includes voice scenario data and Means for generating elemental audio and elemental video for each part defined in the video scenario data, and means for transmitting the generated elemental audio and elemental video to the server. On the basis of means for synthesizing the elemental sound received from the creation member terminal with music data, And a means for synthesizing the element video received from the creation member terminal with video data, and a means for transmitting the completed content by synthesizing the element audio and the element video to the receiving member terminal, A plurality of persons can share parts through the server to create one content.

請求項10に記載の本発明は、請求項1ないし請求項4のいずれかに記載のコンテンツベースを用いたコミュニケーションシステムであって、互いにアクセス可能な複数の端末、を備え、各端末には、コンテンツの作成に参加する作成メンバー端末と、作成されたコンテンツを受け取る受取メンバー端末と、を含み、いずれかの前記作成メンバー端末に対し、コンテンツベースが設定され、前記作成メンバー端末は、音声シナリオデータに規定されたそれぞれのパートの要素音声を作成する手段と、音声シナリオデータに基づいて要素音声を音楽データに合成することにより、要素コンテンツを作成する手段と、担当するパートの要素音声が合成されていない他のいずれかの作成メンバー端末に、作成した要素コンテンツを送信する手段と、他のいずれかの作成メンバー端末から要素コンテンツを受信する手段と、を備え、他の作成メンバーの要素音声が全て合成された要素コンテンツを受信した最後の作成メンバーの端末は、コンテンツを完成させて前記受取メンバー端末に送信する手段と、を備え、リレー形式で、複数人がパートを分担して一つのコンテンツの作成を可能としたことを特徴とする。   A tenth aspect of the present invention is a communication system using the content base according to any one of the first to fourth aspects, comprising a plurality of terminals accessible to each other, and each terminal includes: A creation member terminal that participates in the creation of content, and a receiving member terminal that receives the created content, wherein a content base is set for any of the creation member terminals, and the creation member terminal is configured with voice scenario data The means for creating elemental audio for each part defined in the above, the means for creating elemental content by synthesizing elemental audio to music data based on the audio scenario data, and the elemental audio of the part in charge are synthesized Means for transmitting the created element content to any other creator member terminal that has not, Means for receiving elemental content from any one of the creating member terminals, and the terminal of the last creating member that has received the elemental content in which the elemental sounds of the other creating members are all synthesized, completes the content and And a means for transmitting to the receiving member terminal, and in a relay format, a plurality of persons can share parts to create one content.

請求項11に記載の本発明は、請求項5ないし請求項7のいずれかに記載のコンテンツベースを用いたコミュニケーションシステムであって、互いにアクセス可能な複数の端末、を備え、各端末には、コンテンツの作成に参加する作成メンバー端末と、作成されたコンテンツを受け取る受取メンバー端末と、を含み、いずれかの前記作成メンバー端末に対し、コンテンツベースが設定され、前記作成メンバー端末は、音声シナリオデータおよび映像シナリオデータに規定されたそれぞれのパートの要素音声および要素映像を作成する手段と、音声シナリオデータに基づいて要素音声を音楽データに合成するとともに、映像シナリオデータに基づいて要素映像を映像データに合成することにより、要素コンテンツを作成する手段と、担当するパートの要素音声および要素映像が合成されていない他のいずれかの作成メンバー端末に、作成した要素コンテンツを送信する手段と、他のいずれかの作成メンバー端末から要素コンテンツを受信する手段と、を備え、他の作成メンバーの要素音声および要素映像が全て合成された要素コンテンツを受信した最後の作成メンバーの端末は、コンテンツを完成させて前記受取メンバー端末に送信する手段と、を備え、リレー形式で、複数人がパートを分担して一つのコンテンツの作成を可能としたことを特徴とする。   The present invention according to claim 11 is a communication system using the content base according to any one of claims 5 to 7, comprising a plurality of terminals accessible to each other, A creation member terminal that participates in the creation of content, and a receiving member terminal that receives the created content, wherein a content base is set for any of the creation member terminals, and the creation member terminal is configured with voice scenario data And means for creating elemental audio and elemental video of each part specified in the video scenario data, and synthesizing the elemental audio into music data based on the audio scenario data, and the elemental video based on the video scenario data To create element content and Means for transmitting the created element content to any other creation member terminal in which the element voice and the element video are not synthesized, and means for receiving the element content from any other creation member terminal, A terminal of the last creation member that has received the element content in which the element audio and the element video of the other creation member are all synthesized, and has a means for completing the content and transmitting the content to the receiving member terminal, Thus, a plurality of persons can share parts and create one content.

請求項12に記載の本発明は、請求項1ないし請求項4のいずれかに記載のコンテンツベースを用いたコミュニケーションシステムであって、ネットワーク上に配置されるサーバと、前記サーバにアクセス可能な複数の端末と、を備え、前記サーバは、コンテンツの作成を企画する端末からの指示に基づいて、作成されたコンテンツベースを、タイトルが表示されたコンテンツ掲示画面を通じて各端末に閲覧可能にする手段と、いずれかの端末からの送信要求に応じて、コンテンツベースを送信する手段と、いずれかの端末によって作成された要素コンテンツを受信して記憶する手段と、記憶した要素コンテンツを、各端末の要求に応じて再生する手段と、を有し、各パートの要素コンテンツを全て受信した場合に、コンテンツを完成させて前記コンテンツ掲示画面を通じて閲覧可能にする手段と、を有し、各端末は、前記サーバから前記コンテンツベースを受信する手段と、音声シナリオデータに規定されたそれぞれのパートの要素音声を作成する手段と、音声シナリオデータに基づいて、要素音声を音楽データに合成して要素コンテンツを作成する手段と、作成した要素コンテンツを前記サーバに送信する手段と、を有し、不特定のメンバー間において、複数人がパートを分担して一つのコンテンツの作成を可能としたことを特徴とする。   A twelfth aspect of the present invention is a communication system using the content base according to any one of the first to fourth aspects, wherein a server arranged on a network and a plurality of servers accessible to the server are provided. And a means for enabling the server to view the created content base on each terminal through a content posting screen on which a title is displayed based on an instruction from the terminal planning the creation of the content. , Means for transmitting a content base in response to a transmission request from any terminal, means for receiving and storing element content created by any terminal, and requesting the stored element contents from each terminal And a means for reproducing according to the content, and when all the elemental content of each part is received, the content is completed. Means for enabling browsing through the content posting screen, each terminal receiving the content base from the server, and means for generating elemental audio of each part defined in the audio scenario data And means for synthesizing elemental sound into music data based on the voice scenario data to generate elemental content and means for transmitting the generated elemental content to the server. It is characterized in that a person can share parts and create one content.

請求項13に記載の本発明は、請求項5ないし請求項7のいずれかに記載のコンテンツベースを用いたコミュニケーションシステムであって、ネットワーク上に配置されるサーバと、前記サーバにアクセス可能な複数の端末と、を備え、前記サーバは、コンテンツの作成を企画する端末からの指示に基づいて、作成されたコンテンツベースを、タイトルが表示されたコンテンツ掲示画面を通じて各端末に閲覧可能にする手段と、いずれかの端末からの送信要求に応じて、コンテンツベースを送信する手段と、いずれかの端末によって作成された要素コンテンツを受信して記憶する手段と、記憶した要素コンテンツを、各端末の要求に応じて再生する手段と、を有し、各パートの要素コンテンツを全て受信した場合に、コンテンツを完成させて前記コンテンツ掲示画面を通じて閲覧可能にする手段と、を有し、各端末は、前記サーバから前記コンテンツベースを受信する手段と、音声シナリオデータおよび映像シナリオデータに規定されたそれぞれのパートの要素音声および要素映像を作成する手段と、音声シナリオデータに基づいて要素音声を音楽データに合成するとともに、映像シナリオデータに基づいて要素映像を映像データに合成することにより、要素コンテンツを作成する手段と、作成した要素コンテンツを前記サーバに送信する手段と、を有し、不特定のメンバー間において、複数人がパートを分担して一つのコンテンツの作成を可能としたことを特徴とする。   A thirteenth aspect of the present invention is a communication system using the content base according to any one of the fifth to seventh aspects, wherein a server arranged on a network and a plurality of servers accessible to the server are provided. And a means for enabling the server to view the created content base on each terminal through a content posting screen on which a title is displayed based on an instruction from the terminal planning the creation of the content. , Means for transmitting a content base in response to a transmission request from any terminal, means for receiving and storing element content created by any terminal, and requesting the stored element contents from each terminal And a means for reproducing according to the content, and when all the elemental content of each part is received, the content is completed. Means for enabling browsing through the content posting screen, and each terminal receives means for receiving the content base from the server, and the component audio of each part defined in the audio scenario data and the video scenario data, and Means for creating elemental video, means for creating elemental content by synthesizing elemental audio with music data based on audio scenario data, and synthesizing elemental video with video data based on video scenario data, and creation Means for transmitting the element content to the server, and a plurality of persons can share a part among unspecified members to create one content.

請求項14に記載の本発明は、請求項13に記載のコミュニケーションシステムであって、前記サーバが、端末からの投票に基づいて、各パートの要素コンテンツを選択する手段、を有することを特徴とする。   The present invention according to claim 14 is the communication system according to claim 13, wherein the server includes means for selecting element contents of each part based on a vote from a terminal. To do.

請求項15に記載の本発明は、請求項13または請求項14に記載のコミュニケーションシステムであって、前記サーバが、前記端末からの要求に応じて、要素コンテンツの任意の位置に音声のコメントを関連付けて記憶する手段、を有し、前記サーバを介して、前記端末間で情報交換可能としたことを特徴とする。   The present invention according to claim 15 is the communication system according to claim 13 or claim 14, wherein the server adds an audio comment to an arbitrary position of the element content in response to a request from the terminal. And a means for storing the information in association with each other, and the information can be exchanged between the terminals via the server.

請求項16に記載の本発明は、請求項8または請求項9または請求項12ないし請求項15のいずれかに記載のコミュニケーションシステムであって、コンテンツベースが、いずれかの端末からの指示によって前記サーバにおいて作成されることを特徴とする。   The present invention according to claim 16 is the communication system according to claim 8 or claim 9 or claim 12 to claim 15, wherein the content base is set according to an instruction from any terminal. It is created in a server.

請求項17に記載の本発明は、請求項8または請求項9または請求項12ないし請求項15のいずれかに記載のコミュニケーションシステムであって、コンテンツベースが、予め前記サーバに備えられていることを特徴とする。   The present invention according to claim 17 is the communication system according to any one of claims 8, 9, or 12 to 15, wherein a content base is provided in the server in advance. It is characterized by.

請求項18に記載の本発明は、請求項8ないし請求項15のいずれかに記載のコミュニケーションシステムであって、コンテンツベースを記憶する記憶媒体、を備え、前記記憶媒体を介してコンテンツベースの利用を可能としたことを特徴とする。   The present invention according to claim 18 is the communication system according to any one of claims 8 to 15, comprising a storage medium for storing a content base, and the use of the content base via the storage medium It is possible to make it possible.

請求項19に記載の本発明は、請求項8ないし請求項15のいずれかに記載のコミュニケーションシステムであって、コンテンツベースが、予めいずれかの端末に備えられていることを特徴とする。   According to a nineteenth aspect of the present invention, there is provided the communication system according to any one of the eighth to fifteenth aspects, wherein a content base is provided in any one of the terminals in advance.

本発明のコンテンツベースおよびこれを用いたコミュニケーションシステムによれば、多種多様なコミュニケーションの形態に対応でき、グループでグリーティングメッセージの交換を行うなど、多数の参加者の間で楽しむことが可能となる。   According to the content base and the communication system using the content base of the present invention, it is possible to deal with a wide variety of communication forms, and it is possible to enjoy among a large number of participants such as exchanging greeting messages in groups.

以下、本発明を実施するための最良の形態について、第1ないし第3の実施の形態を用いて説明する。   Hereinafter, the best mode for carrying out the present invention will be described with reference to first to third embodiments.

{第1の実施の形態}
第1の実施の形態は、たとえば、インスタントメッセンジャー等のリアルタイム形式のコミュニケーションに適用したものである。
{First embodiment}
The first embodiment is applied to real-time communication such as an instant messenger, for example.

図1に示すように、本実施の形態のコミュニケーションシステムは、インターネット上に配置されるサーバ1と、このサーバ1にアクセス可能な複数の端末2とを備える。本実施の形態では、サーバ1を介して、複数のメンバーがパートを分担して音と映像とが一体となったコンテンツKの作成に参加し、各メンバーそれぞれが、音と映像とで“個性”や“思い”を表現しつつ、皆で一つのコンテンツKを作成して楽しむことができる。コンテンツKの具体例としては、たとえば、グリーティングメッセージを挙げることができる。ここでは、卒業記念向けのグリーティングメッセージを例示した。以下、具体的に説明する。   As shown in FIG. 1, the communication system according to the present embodiment includes a server 1 disposed on the Internet and a plurality of terminals 2 that can access the server 1. In the present embodiment, a plurality of members share a part through the server 1 and participate in the creation of the content K in which sound and video are integrated. Everyone can create and enjoy one piece of content K while expressing "and" thoughts. As a specific example of the content K, for example, a greeting message can be cited. Here is an example of a greeting message for graduation. This will be specifically described below.

{端末}
端末2は、たとえば携帯電話などの携帯端末やパーソナルコンピュータ(PC)であり、音声の録音および再生が可能な音声入出力手段、音声の処理が可能な音声処理手段を有している。たとえば、音声入出力手段は端末が備えるマイクやスピーカであり、音声処理手段は端末に実装された制御装置と音声処理用の各種アプリケーションである。これらによって、端末2は、そのまま録音した音声を再生することに加え、入力した音声に対して、音声のテンポを変更する処理や、音声の各音域の高さ調整をするイコライザ処理、和音を付加するハーモナイズ処理、時間差を設けて再生するエコー処理などの音声加工処理(エフェクト処理)を施して出力することが可能となっている。
{Terminal}
The terminal 2 is, for example, a portable terminal such as a mobile phone or a personal computer (PC), and has voice input / output means capable of recording and reproducing voice and voice processing means capable of processing voice. For example, the voice input / output means is a microphone or a speaker provided in the terminal, and the voice processing means is a control device mounted on the terminal and various applications for voice processing. As a result, the terminal 2 reproduces the recorded voice as it is, and also adds a process for changing the tempo of the voice, an equalizer process for adjusting the height of each voice range, and a chord to the input voice. It is possible to perform sound processing (effect processing) such as harmonization processing to be performed and echo processing to be reproduced with a time difference and output.

端末2は、さらに、映像の録画および再生が可能な映像入出力手段、映像の処理が可能な映像処理手段を有するものであってもよい。たとえば、映像入出力手段は、端末2が備えるデジタルカメラやデジタルビデオであり、映像処理手段は、端末2に実装された制御装置と映像処理用の各種アプリケーションである。この場合、端末2は、音声に加えて静止画や動画を撮影して再生することができ、さらに、フェードイン・フェードアウト、スライド、フラッシュ、アルファ変換などの映像加工処理(トランジション処理)を施して出力することが可能となる。   The terminal 2 may further include a video input / output unit capable of recording and reproducing video and a video processing unit capable of processing video. For example, the video input / output means is a digital camera or digital video provided in the terminal 2, and the video processing means is a control device mounted on the terminal 2 and various applications for video processing. In this case, the terminal 2 can shoot and play still images and moving images in addition to audio, and further performs video processing (transition processing) such as fade-in / fade-out, slide, flash, and alpha conversion. It becomes possible to output.

端末2は、また、拍手音や破裂音などの効果音を作成する機能や、3Dフォントや、アニメなどの効果映像を作成する機能を実装することもできる。そして、端末2は、予め効果音や効果映像をプリセットしておくこともできる。   The terminal 2 can also be equipped with a function for creating sound effects such as applause sounds and plosive sounds, and a function for creating effect images such as 3D fonts and animations. And the terminal 2 can also preset a sound effect and an effect image | video beforehand.

各端末2には、図1に示すように、コンテンツKの作成を指示するリーダAが保有するリーダ端末2aと、コンテンツKの作成に参加する作成メンバーBが保有する作成メンバー端末2bと、作成されたコンテンツKを受け取る受取メンバーCが保有する受取メンバー端末2cとが含まれる。   As shown in FIG. 1, each terminal 2 includes a reader terminal 2a held by a reader A instructing creation of content K, a created member terminal 2b held by a created member B participating in the creation of content K, and created Receiving member terminal 2c possessed by receiving member C that receives received content K.

すなわち、コンテンツKの作成を企画する、いわば「いいだしっぺ」がリーダAであり、そのリーダAが保有する端末がリーダ端末2aである。コンテンツKは、リーダAを含む複数のメンバーによって作成され、そのコンテンツKの作成に参加する作成メンバーBが保有する端末が作成メンバー端末2bである。完成したコンテンツKは、作成メンバーBを含め予め指定された相手に送信されるようになっており、その受取メンバーCが保有する端末が受取端末2cである。したがって、受取メンバー端末2cであり、かつ作成メンバー端末2bであるなど、各端末が重複する場合もある。   In other words, the creation of the content K is planned. In other words, “Oidasippe” is the reader A, and the terminal held by the reader A is the reader terminal 2a. The content K is created by a plurality of members including the reader A, and the terminal owned by the creation member B participating in the creation of the content K is the creation member terminal 2b. The completed content K is transmitted to a predesignated partner including the creation member B, and the terminal held by the receiving member C is the receiving terminal 2c. Therefore, each terminal may be duplicated, such as the receiving member terminal 2c and the creating member terminal 2b.

{サーバ}
サーバ1は、端末2との間で、コンテンツKの作成に関連する所定の処理を実行する。たとえば、サーバ1は、リーダ端末2aからの指示に基づいてコンテンツベース3を作成する処理や、作成メンバー端末2bにコンテンツベース3を送信する処理、コンテンツベース3に基づいてコンテンツKを完成させる処理、受取メンバー端末2cに完成したコンテンツKを送信する処理などを実行する。また、サーバ1は、予めコンテンツベース3のテンプレートを各種保有し、その中から選択されたコンテンツベース3を端末2に提供する機能を備えることもできる。
{server}
The server 1 executes predetermined processing related to the creation of the content K with the terminal 2. For example, the server 1 creates a content base 3 based on an instruction from the reader terminal 2a, transmits the content base 3 to the creation member terminal 2b, and completes the content K based on the content base 3. A process of transmitting the completed content K to the receiving member terminal 2c is executed. The server 1 can also have a function of previously holding various templates of the content base 3 and providing the terminal 2 with the content base 3 selected from the templates.

{コンテンツベース}
コンテンツベース3は、コンテンツKの作成の基礎となるものであり、本コミュニケーションシステムにおいて重要な機能を発揮する。そこで、図2のイメージ図を参照しつつ、コンテンツベース3について具体的に説明する。
{Content-based}
The content base 3 is a basis for creating the content K, and exhibits an important function in the communication system. Therefore, the content base 3 will be specifically described with reference to the image diagram of FIG.

コンテンツベース3は、複数のデジタルデータ領域を有し、楽曲を構成する音楽データ5と、音楽データ5に対応して作成される音声シナリオデータ6を備えている。コンテンツベース3は、さらに、楽曲と連動して再生される映像データ7と、映像データ7に対応して作成される映像シナリオデータ8を備えるものであってもよい。ここではいずれも備えているものとして説明する。   The content base 3 has a plurality of digital data areas, and includes music data 5 constituting music and voice scenario data 6 created corresponding to the music data 5. The content base 3 may further include video data 7 reproduced in conjunction with music and video scenario data 8 created corresponding to the video data 7. Here, description will be made assuming that both are provided.

図2に示すように、コンテンツベース3は、5層のデータ構造からなる。すなわち、コンテンツベース3は、楽曲を構成する音楽データ5(楽曲レイヤ)と、パート別に作成される要素音声9を音楽データ5に合成する手順が規定される音声シナリオデータ6(録音レイヤ)と、パート別に作成される要素映像10を映像データ7に合成する手順が規定される映像シナリオデータ8(映像レイヤ)と、映像データ7の任意の位置に、効果映像11を合成する効果映像データ12(効果映像レイヤ)と、音楽データ5の任意の位置に、効果音13を合成する効果音データ14(効果音レイヤ)とで構成されている。   As shown in FIG. 2, the content base 3 has a five-layer data structure. That is, the content base 3 includes music data 5 (music layer) constituting music, audio scenario data 6 (recording layer) in which a procedure for synthesizing the elemental audio 9 created for each part into the music data 5 is defined, The video scenario data 8 (video layer) in which the procedure for synthesizing the component video 10 created for each part with the video data 7 is defined, and the effect video data 12 (synthesize the effect video 11 at an arbitrary position of the video data 7 Sound effect layer) and sound effect data 14 (sound effect layer) for synthesizing the sound effect 13 at an arbitrary position of the music data 5.

音楽データ5は、楽曲のデジタルデータである。音楽データ5は、区分け位置を特定するマーカの設定などによって楽曲のパートごとに区分けされている。たとえば、楽曲は、通常その構成に応じて複数のパートに区分けすることができ、図2に示すように「イントロ」、「Aメロ」、「Bメロ」、「サビ」などに区分けされる。そして、この区分けされた各パートが作成メンバーの担当領域となる。もっとも、音楽データの区分けの方法はこれに限らず、任意の位置で区分けしてもよい。   The music data 5 is music digital data. The music data 5 is classified for each part of the music by setting a marker for identifying the classification position. For example, a music piece can usually be divided into a plurality of parts according to its configuration, and is divided into “intro”, “A melody”, “B melody”, “rust” and the like as shown in FIG. Each of the divided parts becomes an area in charge of the creation member. However, the method of dividing the music data is not limited to this, and the music data may be divided at an arbitrary position.

音声シナリオデータ6は、音楽データ5の各パートに対応して区分けされた録音領域で構成されている。各録音領域には、要素音声9が録音される。各録音領域は、担当する作成メンバーを特定できる情報、たとえば、アドレスやIDなどが対応付けて記録されることで、特定の作成メンバーだけに特定の録音領域への録音を許す設定が可能となっている。そのほかにも、録音のタイミングなど、音声を編集する各種設定を記録することも可能となっている。また、図2に示すように、録音領域は、各パート内に複数形成可能であり、一つのパートを複数の作成メンバーで担当させることができる。   The audio scenario data 6 is composed of recording areas divided in correspondence with the parts of the music data 5. Element voice 9 is recorded in each recording area. Each recording area is recorded by associating information that can identify the creating member in charge, for example, an address or ID, so that only a specific creating member can be set to record in a specific recording area. ing. In addition, it is also possible to record various settings for editing sound such as recording timing. Also, as shown in FIG. 2, a plurality of recording areas can be formed in each part, and one part can be assigned by a plurality of creation members.

音声シナリオデータ6には、合成する音声を加工する音声エフェクトデータを含ませておくことができる。すなわち、音声エフェクトデータは、音声が録音されると、自動的に所定の音声加工処理を実行するプログラムデータである。音声シナリオデータに音声エフェクトデータを含ませておくことで、手間を要せず簡単に音声の加工ができる。予め複数の音声エフェクトデータを設定しておき、その中から選択するようにすれば、いっそう便利である。   The voice scenario data 6 can include voice effect data for processing the voice to be synthesized. That is, the sound effect data is program data that automatically executes a predetermined sound processing process when sound is recorded. By including audio effect data in the audio scenario data, it is possible to easily process the audio without any hassle. It is more convenient to set a plurality of audio effect data in advance and select from among them.

映像シナリオデータ8は、音楽データ5と連動して同時に再生される映像データ7(テンプレート映像)と一体に合成される録画領域で構成されている。録画領域は、録音領域と同様に、各パートに対応して区分けされている。そして、それぞれに担当する作成メンバーを特定する情報が対応付けて記録されることで、特定の作成メンバーだけに特定の録画領域への録画(要素映像10)を許す設定が可能となっている。そのほかにも、撮影のタイミングなど、映像を編集するための各種設定が記録可能となっている。なお、図2に示す符号16は、録画領域に録画された要素映像10を映像データ7と合成する際に、要素映像10の前後に生じるビデオトランジション適応範囲を示したものである。   The video scenario data 8 is composed of a recording area that is combined with video data 7 (template video) that is reproduced simultaneously with the music data 5. As with the recording area, the recording area is divided corresponding to each part. Since information for identifying the creation member in charge of each is recorded in association with each other, only the specific creation member can be set to allow recording (elementary video 10) in a specific recording area. In addition, various settings for editing video such as shooting timing can be recorded. Note that reference numeral 16 shown in FIG. 2 indicates a video transition adaptive range that occurs before and after the elementary video 10 when the elementary video 10 recorded in the recording area is combined with the video data 7.

映像シナリオデータ8には、合成する映像を加工する映像エフェクトデータを含ませておくことができる。すなわち、映像エフェクトデータは、映像が録画されると、トランジション処理など、自動的に所定の映像加工処理を実行するプログラムデータである。映像シナリオデータ8に映像エフェクトデータを含ませておくことで、手間を要せず簡単に映像の加工ができる。予め複数の映像エフェクトデータを設定しておき、その中から選択するようにすれば、いっそう便利である。   The video scenario data 8 can include video effect data for processing a video to be synthesized. That is, the video effect data is program data that automatically executes a predetermined video processing process such as a transition process when a video is recorded. By including the video effect data in the video scenario data 8, it is possible to easily process the video without any effort. It is more convenient to set a plurality of video effect data in advance and select from among them.

効果映像データ12は、3Dフォントや、アニメなどの予め設定されている効果映像11の中から適宜選択でき、選択した効果映像データ12を映像データ7の任意の位置に合成することができる。効果音データ14は、拍手音や、破裂音などの予め設定されている効果音13の中から適宜選択でき、選択した効果音データ14を音声データ5の任意の位置に合成することができる。なお、図2中の点線で示すように、効果映像データ12と効果音データ14は、カテゴリー別に一体に構成してあってもよい。このように、コンテンツKの任意の位置に効果的な音や映像を挿入可能とすることによって、よりいっそうコミュニケーションを楽しむことができ、コンテンツKにオリジナリティを付与することができる。   The effect image data 12 can be appropriately selected from preset effect images 11 such as 3D fonts and animations, and the selected effect image data 12 can be synthesized at an arbitrary position of the image data 7. The sound effect data 14 can be appropriately selected from preset sound effects 13 such as applause sounds and plosive sounds, and the selected sound effect data 14 can be synthesized at any position of the audio data 5. In addition, as shown by the dotted line in FIG. 2, the effect video data 12 and the sound effect data 14 may be integrally configured for each category. In this way, by making it possible to insert an effective sound or video at an arbitrary position of the content K, communication can be further enjoyed and originality can be imparted to the content K.

コンテンツベース3は、予め設定された所定のメンバー以外のコピーを禁止する不正コピー防止フラグを備えている。オリジナルの楽曲データの著作権等を保護するためである。これにより、たとえば、著作権を伴う楽曲のコンテンツベース3であっても安心してネット上で提供することができ、コンテンツベース3を利用した新たなビジネスを構築することが可能となる。   The content base 3 includes an illegal copy prevention flag that prohibits copying other than a predetermined member set in advance. This is to protect the copyright of the original music data. Thereby, for example, even the content base 3 of the music with the copyright can be provided on the Internet with confidence, and a new business using the content base 3 can be constructed.

したがって、コンテンツベース3は、所定のコンテンツプロバイダーからダウンロードして利用できるようにするのが好ましい。コンテンツベース3に含まれる各シナリオデータ6、8は、ユーザ側で自由に編集できるようにしてもよい。また、MIDIやMP3、AACなどの音楽データの形式に応じて楽曲を解析することにより、自動的に各シナリオデータ6、8が設定できるようにしてもよい。そうすれば、既存の音源が利用できて効率的である。   Therefore, it is preferable that the content base 3 be downloaded from a predetermined content provider and used. The scenario data 6 and 8 included in the content base 3 may be freely edited on the user side. Further, the scenario data 6 and 8 may be automatically set by analyzing the music according to the music data format such as MIDI, MP3, AAC or the like. Then, the existing sound source can be used and is efficient.

コンテンツベース3は、リーダ端末2aからの指示によってサーバ1で作成されるようにしておくことができる。また、予め複数のコンテンツベース3のテンプレートを作成してサーバ1や端末2に利用可能に備えておき、その中から選択したテンプレートを利用してコンテンツベース3を作成するようにしてもよい。この場合、コンテンツベース3の各種設定を行う手間が省ける分、利用し易い利点がある。   The content base 3 can be created by the server 1 in accordance with an instruction from the reader terminal 2a. Alternatively, a plurality of content base 3 templates may be created in advance so that they can be used in the server 1 or the terminal 2, and the content base 3 may be created using a template selected from the templates. In this case, there is an advantage that it is easy to use because the trouble of performing various settings of the content base 3 is saved.

その他、コンテンツベース3の各種テンプレートを、メモリカードなどの記憶媒体に記憶する。そして、その記憶媒体を端末2に組み入れることで、コンテンツベース3が作成できるようにしてもよい。この場合、たとえば、コンテンツベース3のテンプレートをカテゴリー別に分けて記憶させた多数のメモリカードを市場に供給することもでき、コミュニケーションツールの新たな市場を創生することも可能となる。   In addition, the various templates of the content base 3 are stored in a storage medium such as a memory card. Then, the content base 3 may be created by incorporating the storage medium into the terminal 2. In this case, for example, it is possible to supply a large number of memory cards in which the templates of the content base 3 are stored by dividing into categories, and it is possible to create a new market for communication tools.

{システムの流れ}
次に、コミュニケーションシステムの操作方法について、図3ないし図5のフローチャートにしたがって説明する。たとえば、インスタントメッセンジャーであれば、事前に、各メンバーにコンテンツKの作成の参加を呼び掛けておけば、リアルタイムでコンテンツKの作成ができ、グループで、よりいっそう楽しいコミュニケーションを行うことができる。
{System flow}
Next, an operation method of the communication system will be described according to the flowcharts of FIGS. For example, in the case of an instant messenger, if the members are invited to participate in the creation of the content K in advance, the content K can be created in real time, and even more fun communication can be performed in the group.

図3は、リーダ端末2aにおける処理の流れを示している。コンテンツKの作成を企画するリーダAの操作によって、リーダ端末2aがサーバ1にアクセスして、コンテンツベース3の作成処理をサーバ1に指示する(ステップS20)。ここではサーバ1には、テーマ、目的別など、予め各種コンテンツベース3のテンプレートが設定されているものとした。したがって、リーダAはその中から、所望のコンテンツベース3を選択することができる。ここでは、「グリーティングメッセージ」、「卒業記念」を選択した場合を例示した。   FIG. 3 shows the flow of processing in the reader terminal 2a. By the operation of the reader A who plans the creation of the content K, the reader terminal 2a accesses the server 1 and instructs the server 1 to create the content base 3 (step S20). Here, it is assumed that templates of various content bases 3 are set in advance in the server 1 such as by theme and purpose. Therefore, the reader A can select a desired content base 3 from the reader A. Here, the case where “greeting message” and “graduation commemoration” are selected is illustrated.

リーダAの指示によってリーダ端末2aは、コンテンツKの作成に参加する作成メンバーBと、完成したコンテンツKを受け取る受取メンバーCと、をサーバ1に指定する(ステップS21)。通常、受取メンバーCは、グリーティングメッセージの送り先(たとえば、先生)と、リーダAを含む作成メンバーB(たとえば、卒業生)とで構成される。各メンバーの特定には、アカウントやIDなどが特定情報として利用され、特定された特定情報は、コンテンツベース3に記録される。   In response to the instruction from the reader A, the reader terminal 2a designates the creation member B participating in the creation of the content K and the receiving member C that receives the completed content K to the server 1 (step S21). Usually, the receiving member C is composed of a destination of the greeting message (for example, a teacher) and a creating member B (for example, a graduate) including the reader A. For identification of each member, an account or ID is used as identification information, and the identified identification information is recorded in the content base 3.

メンバーの指定処理とあわせて、特定のメンバー以外のコピーを禁止する不正コピー防止フラグが設定される。ここでは、作成メンバーBと受取メンバーC以外は、不正コピー防止フラグが設定されたコンテンツベース3、あるいはコンテンツKのコピーが自動的に制限される。リーダAは、コピーを許可する特定のメンバーを任意に設定することができ、先に設定されるメンバーB、Cに対して、新たなメンバーの追加やメンバーの削除を行うことができる。   Along with the member designation process, an illegal copy prevention flag that prohibits copying other than a specific member is set. Here, except for the creation member B and the receiving member C, copying of the content base 3 or the content K in which the illegal copy prevention flag is set is automatically restricted. The leader A can arbitrarily set a specific member permitted to copy, and can add a new member or delete a member from the members B and C set in advance.

続いて、リーダAの操作に基づいてリーダ端末2aは、楽曲を選定する(ステップS22)。楽曲もまた、サーバ1に予め各種設定されており、その中から選択することができる。   Subsequently, based on the operation of the reader A, the reader terminal 2a selects a music piece (step S22). Various pieces of music are also preset in the server 1 and can be selected from them.

次に、リーダ端末2aは、リーダAの指示により、シナリオの設定を行う(ステップS23)。具体的には、各作成メンバーBが担当する楽曲の各パートを指定する、各パートのエフェクトデータや、トランジションデータを設定する、等を行う。その他にも、予めコンテンツベース3に設定されている各種オプション設定を行うこともできる。たとえば、コンテンツKの作成に際しての約束事として“お題”を設定することができる。お題は、リーダAが任意で指定できるように設定してもよいし、予め複数のテンプレートを準備しておいてもよい。お題を設けることによって、コンテンツKの作成に遊び心が加わってコミュニケーションをよりいっそう深めることができる。   Next, the reader terminal 2a sets a scenario according to an instruction from the reader A (step S23). Specifically, each part of the music piece that each creation member B is in charge of is designated, effect data for each part, transition data, etc. are set. In addition, various option settings previously set in the content base 3 can also be performed. For example, “theme” can be set as a promise when the content K is created. The theme may be set so that the reader A can be arbitrarily designated, or a plurality of templates may be prepared in advance. By providing a theme, it is possible to add a sense of fun to the creation of the content K and further deepen communication.

リーダAの操作に基づき、リーダ端末2aは、コンテンツベース3が完成したか否かの判断を行い(ステップS24)、完成したと判断した場合には、作成メンバーBへのコンテンツベース3の送信指示をサーバ1に送信する(ステップS25)。サーバ1は、リーダ端末2aからの送信指示を受けて、各作成メンバー端末2bに、コンテンツベース3を送信する。   Based on the operation of the reader A, the reader terminal 2a determines whether or not the content base 3 has been completed (step S24). If it is determined that the content base 3 has been completed, an instruction to transmit the content base 3 to the creation member B is given. Is transmitted to the server 1 (step S25). In response to the transmission instruction from the reader terminal 2a, the server 1 transmits the content base 3 to each created member terminal 2b.

図4は、作成メンバー端末2bにおける処理の流れを示している。リーダAによって作成されたコンテンツベース3がサーバ1から送信されて、作成メンバーBの作成メンバー端末2bが受信する(ステップS30)。   FIG. 4 shows the flow of processing in the creation member terminal 2b. The content base 3 created by the reader A is transmitted from the server 1 and received by the creation member terminal 2b of the creation member B (step S30).

コンテンツベース3を受信した作成メンバー端末2bを操作して、作成メンバーBは、指定されたパートについて、“お題”を考慮しながら、要素音声9および要素映像10を作成する(ステップS31)。具体的には、楽曲が再生される中、録音開始前および録画開始前には、カウントダウンが表示され、それにあわせてパートの歌詞を歌って作成メンバー端末2bに録音し、デジタル写真を撮影して作成メンバー端末2bに録画する。なお、録音と録画とは、連動させてあっても、それぞれ別個であってもよい。   By operating the creation member terminal 2b that has received the content base 3, the creation member B creates the element audio 9 and the element video 10 for the designated part while considering the “theme” (step S31). Specifically, while the music is being played, before the recording starts and before the recording starts, a countdown is displayed, and the lyrics of the part are sung and recorded on the created member terminal 2b, and a digital photograph is taken. Record on the created member terminal 2b. Note that the recording and the recording may be linked to each other or may be separate from each other.

そうすると、録音された要素音声9や録画された要素映像10は、作成メンバー端末2bにおいて、自動的に予め設定されている音声加工処理や映像加工処理が実行される。作成メンバーBは、作成メンバー端末2bを操作して作成された要素音声9、あるいは要素映像10をプレビュー再生することができ、予め設定されている各種加工処理に換えて、端末2が備える機能を利用して、独自に各種加工処理を施すこともできる。録音、あるいは録画中には、他の作成メンバー端末2bに、その情報が表示され、作成メンバーBはリアルタイムでグリーティングメッセージの作成状況が把握できるようになっている。   Then, the recorded element audio 9 and the recorded element video 10 are automatically subjected to preset audio processing and video processing in the creation member terminal 2b. The creation member B can preview playback of the component audio 9 or the component video 10 created by operating the creation member terminal 2b, and replaces various preset processing processes with the functions provided in the terminal 2. It can also be used to perform various types of processing. During recording or during recording, the information is displayed on the other creating member terminal 2b, so that the creating member B can grasp the creation status of the greeting message in real time.

作成メンバー端末2bは、作成メンバーBの操作に基づき、各種加工処理が施された要素音声9や要素映像10が完成したか否かを判断し(ステップS32)、完成したと判断した場合、その要素音声9および要素映像10をサーバ1に送信する(ステップS33)。なお、各作成メンバーBの操作の順序は、たとえば、リーダAが予め設定し、各作成メンバーBに順番を通知して行う順序固定方式であってもよいし、順序不同方式であってもよい。   The creation member terminal 2b determines whether or not the element voice 9 and the element video 10 subjected to various processing processes are completed based on the operation of the creation member B (step S32). The element sound 9 and the element image 10 are transmitted to the server 1 (step S33). The order of operation of each creation member B may be, for example, a fixed order method in which the reader A sets in advance and notifies each creation member B of the order, or may be an unordered method. .

図5は、サーバ1における処理の流れを示している。サーバ1は、各作成メンバー端末2bから各パートの要素音声9および要素映像10を受信する(ステップS40)。そして、サーバ1は、全ての作成メンバー端末2bから要素音声9と要素映像10とを受信したか否かを判断する(ステップS41)。サーバ1が、全ての作成メンバー端末2bから要素音声9と要素映像10とを受信したと判断すると、これらの合成処理を実行する(ステップS42)。具体的には、サーバ1は、音声シナリオデータ6に基づいて、各作成メンバー端末2bから受信した要素音声9を音楽データ5の所定位置に合成する。そして、サーバ1は、映像シナリオデータ8に基づいて、各作成メンバー端末2bから受信した要素映像10を映像データ7の所定位置に合成する。   FIG. 5 shows the flow of processing in the server 1. The server 1 receives the component audio 9 and the component video 10 of each part from each creation member terminal 2b (step S40). And the server 1 judges whether the element audio | voice 9 and the element image | video 10 were received from all the production member terminals 2b (step S41). When the server 1 determines that the element audio 9 and the element video 10 have been received from all the created member terminals 2b, these combining processes are executed (step S42). Specifically, the server 1 synthesizes the elemental voice 9 received from each created member terminal 2 b into a predetermined position of the music data 5 based on the voice scenario data 6. Then, the server 1 synthesizes the elemental video 10 received from each created member terminal 2 b at a predetermined position of the video data 7 based on the video scenario data 8.

要素音声9が合成された音楽データ5は、楽曲のメロディの上に、加工された各作成メンバーの音声が連続的に挿入されて一体化した状態で再生される。要素映像10が合成された映像データ7は、テンプレート映像の上に、加工された各作成メンバーの映像が連続的に挿入されて一体化した状態で再生される。要素映像10と映像データ7との境目は、ビデオトランジション適応がなされて、切れ目の無い映像となる。こうして、コンテンツベース3を基礎として、一つのグリーティングメッセージ(コンテンツK)が完成するのである。なお、完成したコンテンツKのデジタルデータは、コンテンツベース3のデジタルデータを含む構成となっている。   The music data 5 in which the element voices 9 are synthesized is reproduced in a state where the voices of the respective created members are continuously inserted and integrated on the melody of the music. The video data 7 combined with the element video 10 is reproduced in a state where the processed video of each created member is continuously inserted and integrated on the template video. The boundary between the elemental video 10 and the video data 7 is video transition adaptation and becomes a continuous video. Thus, one greeting message (content K) is completed based on the content base 3. Note that the digital data of the completed content K includes the content base 3 digital data.

全ての要素音声9および要素映像10が合成されて完成したグリーティングメッセージは、サーバ1の記憶装置に保存される(ステップS43)。そして、指定のあった各受取メンバー端末2cに、サーバ1から保存されたグリーティングメッセージのアップロード先が通知される(ステップS44)。   The greeting message completed by synthesizing all the element sounds 9 and the element images 10 is stored in the storage device of the server 1 (step S43). The designated recipient member terminal 2c is notified of the upload destination of the greeting message stored from the server 1 (step S44).

通知を受けた各受取メンバーCは、サーバ1にアクセスして、完成したグリーティングメッセージをダウンロードする。グリーティングメッセージには、不正コピー防止フラグが設けられているため、安心して利用できる。グリーティングメッセージを受け取った各受取メンバーCは、完成したグリーティングメッセージを見て、楽しむのである。   Each receiving member C that has received the notification accesses the server 1 and downloads the completed greeting message. The greeting message is provided with a fraud prevention flag so that it can be used with confidence. Each receiving member C who receives the greeting message sees and enjoys the completed greeting message.

なお、先のステップS44は承認ステップを含ませてもよい。すなわち、グリーティングメッセージの作成に関与した、リーダ端末2aを含む作成メンバー端末2b(卒業生)に先に通知し、作成メンバー2b全員の承認指示を受信した後に、グリーティングメッセージの作成に関与していない受取メンバー端末2c(先生)にアップロード先を通知するのである。   The previous step S44 may include an approval step. In other words, after receiving the approval instruction of all the creating members 2b after receiving the approval instructions of all the creating members 2b (graduates) including the leader terminal 2a who were involved in the creation of the greeting message, the receipts not involved in the creation of the greeting message The upload destination is notified to the member terminal 2c (teacher).

そして、作成メンバーBでもある受取メンバー(作成受取メンバー)Cは、完成したグリーティングメッセージを見て、効果音13や効果映像11を加えてよりオリジナリティを付与させる。すなわち、各作成受取メンバーCは、グリーティングメッセージをサーバ1からダウンロードして、各作成受取メンバー端末2cで3Dフォントなどの効果映像11や、拍手音などの効果音13を、完成したグリーティングメッセージの任意の位置に合成する。たとえば、グリーティングメッセージを再生しながら、タイミングを計って端末2が備えるキーを押して挿入することができる。   Then, the receiving member (created receiving member) C who is also the creating member B sees the completed greeting message and adds the sound effect 13 and the effect image 11 to give the originality more. That is, each created receiving member C downloads a greeting message from the server 1, and creates an effect image 11 such as 3D font and an effect sound 13 such as applause sound at each created and received member terminal 2 c. To the position of. For example, while playing a greeting message, the user can press and insert a key provided in the terminal 2 at a timing.

効果音13等がさらに加えられたグリーティングメッセージは、再度、サーバ1にアップロードして更新することができ、更新されたグリーティングメッセージを、各作成受取メンバーCは再度ダウンロードできる。もちろん、合成した効果音13等は、元に戻すことができるため、各作成受取メンバーCの間でやりとりして、コミュニケーションを楽しむことができる。   The greeting message to which the sound effect 13 or the like is further added can be uploaded again to the server 1 and updated, and the created greeting member C can download the updated greeting message again. Of course, since the synthesized sound effect 13 and the like can be returned to the original, it is possible to enjoy communication by exchanging between each of the created and received members C.

そして、各作成受取メンバーCから端末2cを介して承認指示を受けたサーバ1が、本来の受取先である、作成に関与していない受取メンバーC(先生)の端末2cにアップロード先を通知し、完成したグリーティングメッセージをサーバ1からダウンロードして楽しんでもらうのである。   Then, the server 1 receiving the approval instruction from each creation receiving member C via the terminal 2c notifies the upload destination to the terminal 2c of the receiving member C (teacher) who is not involved in the creation, which is the original receiving destination. The completed greeting message is downloaded from the server 1 to be enjoyed.

なお、端末2側では、録音、あるいは録画のみを行って、その他の全ての加工処理は、サーバ1側で行うようにしてもよい。また、効果音13等の合成は、各作成メンバー端末2bで要素音声9等を合成する際(ステップS42)に、その要素音声9等に合成するようにしてもよい。   Note that the terminal 2 side may perform recording or only recording, and all other processing may be performed on the server 1 side. Further, the sound effect 13 or the like may be synthesized with the element voice 9 or the like when the element voice 9 or the like is synthesized at each created member terminal 2b (step S42).

{第2の実施の形態}
第1の実施の形態ではサーバ1でコンテンツKの合成処理等を行っていたが、本実施の形態では、コンテンツKの合成処理等が各作成メンバー端末2bで行われる。本実施の形態では、リレー形式でコンテンツKを作成する点に特徴がある。
{Second Embodiment}
In the first embodiment, the server 1 performs the composition process of the content K and the like, but in the present embodiment, the composition process of the content K and the like are performed in each creation member terminal 2b. The present embodiment is characterized in that the content K is created in a relay format.

図6に示すように、本実施の形態のコミュニケーションシステムは、インターネット上に配置されるサーバ1と、このサーバ1にアクセス可能であるとともに、互いにアクセス可能な複数の端末2とを備える。本実施の形態の各端末2やサーバ1、コンテンツベース3の基本的な構成は第1の実施の形態と同様であるため同じ符号を付して省略し、以下の操作の流れの説明を通じて、本実施の形態について詳しく説明する。   As shown in FIG. 6, the communication system of the present embodiment includes a server 1 arranged on the Internet, and a plurality of terminals 2 that can access the server 1 and can access each other. Since the basic configuration of each terminal 2, server 1, and content base 3 of the present embodiment is the same as that of the first embodiment, the same reference numerals are used, and the description is omitted. This embodiment will be described in detail.

図7は、リーダ端末2aにおける処理の流れを示している。ここでのステップS50からステップS54は、第1の実施の形態のステップS20からステップS24と同じであるため、説明は省略する。本実施の形態では、コンテンツベース3が完成すると、リーダ端末2aは、サーバ1から完成したコンテンツベース3を受信する(ステップS55)。なお、コンテンツベース3のテンプレートが記憶された記憶媒体を利用する場合や、端末2自体にコンテンツベース3のテンプレートが予め備えられているような場合には、端末2側でコンテンツベース3を完成させることができるため、その場合には、サーバ1は必ずしも必要でない。   FIG. 7 shows the flow of processing in the reader terminal 2a. Since step S50 to step S54 here are the same as step S20 to step S24 of the first embodiment, description thereof will be omitted. In the present embodiment, when the content base 3 is completed, the reader terminal 2a receives the completed content base 3 from the server 1 (step S55). When a storage medium storing the content base 3 template is used, or when the terminal 2 itself is provided with the content base 3 template in advance, the content base 3 is completed on the terminal 2 side. In this case, the server 1 is not always necessary.

図8は、作成メンバー端末2bにおける処理の流れを示している。ここでは、リーダ端末2aもコンテンツKの作成に参加するため、作成メンバー端末2bを兼ねている。もっとも、リーダ端末2aは作成を指示するだけの場合には、リーダ端末2aは、いずれかの作成メンバー端末2bに対してコンテンツベース3を送信することになる。   FIG. 8 shows the flow of processing in the creation member terminal 2b. Here, since the reader terminal 2a also participates in the creation of the content K, it also serves as the creation member terminal 2b. However, when the reader terminal 2a only instructs the creation, the reader terminal 2a transmits the content base 3 to any one of the creation member terminals 2b.

作成メンバー端末2b(リーダ端末2a)が、コンテンツベース3(編集用コンテンツ)を受信する(ステップS60)。リーダAは、指定されたパートについて“お題”を考慮しながら作成メンバー端末2b(リーダ端末2a)を操作して、作成メンバー端末2b(リーダ端末2a)に要素音声9および要素映像10を作成させる(ステップS61)。   The creation member terminal 2b (reader terminal 2a) receives the content base 3 (editing content) (step S60). The leader A operates the created member terminal 2b (leader terminal 2a) while considering the “theme” for the designated part, and creates the element audio 9 and the element video 10 on the created member terminal 2b (leader terminal 2a). (Step S61).

そうすると、音声シナリオデータ6に基づいて要素音声9が音楽データ5に自動的に合成されるとともに、映像シナリオデータ8に基づいて要素映像10が映像データ7に自動的に合成される(ステップS62)。つまり、各作成メンバー端末2bで、担当する各パートの要素音声9と要素映像10の合成処理が行われるのである。   Then, the element voice 9 is automatically synthesized with the music data 5 based on the voice scenario data 6 and the element video 10 is automatically synthesized with the video data 7 based on the video scenario data 8 (step S62). . In other words, the composition member terminal 2b performs the composition process of the component audio 9 and the component video 10 of each part in charge.

こうすることで、サーバ1でのデータ処理量が軽減され、アクセスの集中による通信トラブルの発生を効果的に防止することができる。また、サーバ1に合成処理機能等、特殊な機能を実装する必要がなくなり、サーバ1の運用が容易になる点でも有利である。もちろん、記憶媒体を利用等すれば、端末2だけでの運用も可能である。   By doing so, the amount of data processing in the server 1 can be reduced, and the occurrence of communication troubles due to concentration of access can be effectively prevented. Further, it is not necessary to mount a special function such as a composition processing function on the server 1, which is advantageous in that the operation of the server 1 is facilitated. Of course, if the storage medium is used, the operation with only the terminal 2 is possible.

こうして、コンテンツベース3に、一部のパートの要素音声9および要素映像10が合成された未完成のコンテンツ(要素コンテンツS)が作成される。   In this way, incomplete content (element content S) in which the element audio 9 and the element video 10 of some parts are synthesized in the content base 3 is created.

作成メンバー端末2b(リーダ端末2a)は、要素コンテンツSが完成したか否かを判断し(ステップS63)、要素コンテンツSが完成したと判断すると、コンテンツKが完成したか否かを判断する(ステップS64)。そして、完成していないと判断すると、作成メンバー端末2b(リーダ端末2a)は、担当するパートの要素音声9および要素映像10が合成されていない他のいずれかの作成メンバー端末2bに、作成した要素コンテンツS(編集用コンテンツ)を送信する(ステップS65)。   The creation member terminal 2b (reader terminal 2a) determines whether or not the element content S is completed (step S63), and if it determines that the element content S is completed, it determines whether or not the content K is completed ( Step S64). When it is determined that the creation member terminal 2b (leader terminal 2a) has not been completed, the creation member terminal 2b (leader terminal 2a) creates the creation member terminal 2b in which the element voice 9 and the element video 10 of the part in charge are not synthesized. Element content S (content for editing) is transmitted (step S65).

要素コンテンツS(編集用コンテンツ)を受信した作成メンバー端末2bは(ステップS60)、同様にして担当するパートの要素音声9と要素映像10とを作成し(ステップS61)、受け取った要素コンテンツSに、担当するパートの要素音声9と要素映像10とを合成し(ステップS62)、リレー形式で転送していく。   The creation member terminal 2b that has received the element content S (editing content) (step S60) similarly creates the element audio 9 and the element video 10 of the part in charge (step S61). The element voice 9 and the element video 10 of the part in charge are synthesized (step S62) and transferred in the relay format.

そして、他の作成メンバーの要素音声9および要素映像10が全て合成された要素コンテンツSを受信した最後の作成メンバーBSの作成メンバー端末2bsは、担当する要素音声9と要素映像10とを作成、合成してコンテンツK(グリーティングメッセージ)を完成させる。そして、コンテンツKが完成したと判断すると(ステップS64)、最後の作成メンバー端末2bsは、完成したグリーティングメッセージを、各受取メンバー端末2cに送信する(ステップS66)。   Then, the creation member terminal 2bs of the last creation member BS that has received the element content S in which the element voice 9 and the element video 10 of the other creation members are all synthesized creates the element voice 9 and the element video 10 in charge. The content K (greeting message) is completed by compositing. When it is determined that the content K is completed (step S64), the last created member terminal 2bs transmits a completed greeting message to each receiving member terminal 2c (step S66).

最後の作成メンバー端末2bsから直接各受取メンバー端末2cに送信するのに換えて、いったん完成したグリーティングメッセージをサーバ1に送信してサーバ1に保管する。そして、サーバ1、あるいは最後の作成メンバー端末2bsから各受取メンバー端末2cに、完成したグリーティングメッセージのアップロード先を通知することにより、それぞれが適宜ダウンロードできるようにしてもよい。   Instead of transmitting directly from the last created member terminal 2bs to each receiving member terminal 2c, the completed greeting message is transmitted to the server 1 and stored in the server 1. Then, the server 1 or the last created member terminal 2bs may notify each recipient member terminal 2c of the upload destination of the completed greeting message so that each can be downloaded as appropriate.

なお、各作成メンバー端末2bに、サーバ1からそれぞれにコンテンツベース3を送信し、要素音声9および要素映像10を各作成メンバー端末2b間で転送するようにしてもよい。   Alternatively, the content base 3 may be transmitted from the server 1 to each created member terminal 2b, and the element audio 9 and the element video 10 may be transferred between the created member terminals 2b.

{第3の実施の形態}
本実施の形態では、ブログやソーシャルネットワーク(SNS)など、1対不特定多数の非リアルタイム型のコミュニケーションに適用したものである。従来の文字データで行われている電子掲示板を音声データで行うようなコミュニケーションであり、不特定のメンバー間において、複数人がパートを分担して一つのコンテンツKを作成して楽しむことができる。
{Third embodiment}
In the present embodiment, the present invention is applied to non-real time type communication such as blogs and social networks (SNS). Communication is performed by voice data on an electronic bulletin board that has been performed using conventional character data, and a plurality of persons can share a part and create and enjoy one content K among unspecified members.

図9に示すように、本実施の形態のコミュニケーションシステムは、インターネット上に配置されるサーバ1と、このサーバ1にアクセス可能な複数のメンバーMが所有する端末2とを備える。   As shown in FIG. 9, the communication system according to the present embodiment includes a server 1 arranged on the Internet and a terminal 2 owned by a plurality of members M that can access the server 1.

ここでのサーバ1は、タイトルが表示されたコンテンツ掲示画面20を通じて、作成されたコンテンツベース3の情報を各端末2に表示する手段や、いずれかの端末2で作成された要素コンテンツSを受信して記憶する手段、記憶した要素コンテンツSを各端末の要求に応じて再生する手段、コンテンツKを完成させてコンテンツ掲示画面20を通じて閲覧可能にする手段などを備えている点で、第1の実施の形態のサーバ1と異なっている。そのほか、本実施の形態の各端末2やサーバ1、コンテンツベース3の基本的な構成は第1の実施の形態と同様であるため同じ符号を付して省略し、以下の操作の流れの説明を通じて、本実施の形態について詳しく説明する。   Here, the server 1 receives means for displaying the information of the created content base 3 on each terminal 2 and the element content S created on any of the terminals 2 through the content posting screen 20 on which the title is displayed. And a means for reproducing the stored elemental content S in response to a request from each terminal, a means for completing the content K and making it viewable through the content posting screen 20, etc. This is different from the server 1 of the embodiment. In addition, since the basic configuration of each terminal 2, server 1, and content base 3 of this embodiment is the same as that of the first embodiment, the same reference numerals are used and the description is omitted. Through this, the present embodiment will be described in detail.

図10は、コンテンツKの作成を企画するリーダAの操作に基づく、リーダ端末2aの処理を示している。たとえば、リーダAは、メンバーMの一人であり、従来の電子掲示板であれば、いわゆるスレッド主に相当し、リーダAの操作はスレッドを立てる行為に該当するものである。   FIG. 10 shows processing of the reader terminal 2a based on the operation of the reader A who plans to create the content K. For example, the reader A is one of the members M, and if it is a conventional electronic bulletin board, it corresponds to a so-called thread main, and the operation of the reader A corresponds to an act of setting up a thread.

リーダ端末2aは、リーダAの指示に基づき、サーバ1にアクセスして、コンテンツベース3の作成処理をサーバ1に指示する(ステップS70)。このサーバ1には、テーマ、目的別など、予め各種コンテンツベース3のテンプレートが設定されており、リーダAはその中から、所望のコンテンツベース3を選択することができる。   Based on the instruction from the reader A, the reader terminal 2a accesses the server 1 and instructs the server 1 to create the content base 3 (step S70). In the server 1, templates for various content bases 3 such as themes and purposes are set in advance, and the reader A can select a desired content base 3 from the templates.

次にリーダ端末2aは、リーダAの操作により楽曲を選定する(ステップS71)。楽曲もまた、サーバ1に予め各種設定されており、その中から選定することができる。そして、リーダ端末2aは、リーダAの指示に基づいてシナリオの設定を行う(ステップS72)。ここでは、楽曲の各パートの設定が行われる。楽曲の構成にあわせてサーバ1によって自動的にパートの設定が行われるようにしてあってもよい。ただし、特定のメンバーMでパートを分担するものではないため、各パートを担当するメンバーMの設定は行われない。   Next, the reader terminal 2a selects music by operating the reader A (step S71). Various pieces of music are also set in the server 1 in advance, and can be selected from them. Then, the reader terminal 2a sets a scenario based on an instruction from the reader A (step S72). Here, each part of the music is set. The server 1 may automatically set the part according to the composition of the music. However, since the specific member M does not share the part, the member M in charge of each part is not set.

そのほか、各パートのエフェクトデータを予め設定する等の操作が行われる。とくに、音声は、自動的にエフェクト処理されるように設定しておくのが好ましい。個人の特定が可能な音声が直接公開されることを確実に防止することができ、個人情報保護上極めて効果的だからである。同様にして、音声だけでなく、そのままであれば直ちに個人が特定されてしまう映像であっても、自動的に加工処理を施すように設定すれば、本実施の形態に適用することが可能である。   In addition, operations such as setting effect data for each part in advance are performed. In particular, it is preferable to set the sound so that the effect processing is automatically performed. This is because it is possible to reliably prevent the voice that can identify an individual from being directly disclosed, and is extremely effective in protecting personal information. Similarly, it is possible to apply not only the sound but also the video in which an individual is identified immediately if it is left as long as it is set to automatically perform the processing. is there.

続いてリーダ端末2aは、リーダAの指示に基づいて各種条件の設定を行う(ステップS73)。具体的には、図9に示すコンテンツ掲示画面20のように、コンテンツKの作成に際しての約束事として“お題(タイトル)”や、人的条件(最大参加人数)、時間的条件(参加可能期間)、コメントなどのコンテンツKの作成に関する条件を設定する。お題は、リーダAによって入力されるか、あるいは予め用意された複数のテンプレートの中から選択されることにより設定される。   Subsequently, the reader terminal 2a sets various conditions based on an instruction from the reader A (step S73). Specifically, as shown in the content posting screen 20 shown in FIG. 9, “themes (titles)”, personal conditions (maximum number of participants), time conditions (participation period) ), Conditions for creating content K such as comments are set. The theme is set by being input by the reader A or selected from a plurality of templates prepared in advance.

リーダ端末2aは、リーダAの指示に基づきコンテンツベース3が完成したか否か判断し(ステップS74)、完成したと判断した場合、そのコンテンツベース3の内容を不特定多数のメンバーMが閲覧可能とする表示指示をサーバ1に送信する(ステップS75)。   The reader terminal 2a determines whether or not the content base 3 is completed based on an instruction from the reader A (step S74). If it is determined that the content base 3 is completed, an unspecified number of members M can view the contents of the content base 3 Is sent to the server 1 (step S75).

図11は、サーバ1の処理を示したものである。サーバ1は、リーダ端末2aから完成したコンテンツベース3の表示指示を受信する(ステップS80)。そうすると、図9に示すように、そのコンテンツベース3の内容がWeb上のコンテンツ掲示画面20を通じて公開され、不特定のメンバーMが所有する端末2で閲覧できるようになる(ステップS81)。これを見たコンテンツKの作成に参加を希望するメンバーMの操作によって、端末2からサーバ1に対し、コンテンツベース3の送信要求が送信される。サーバ1は、そのコンテンツベース3の送信要求を受信したと判断すると(ステップS82)、送信元のメンバーMの端末2にコンテンツベース3を送信する(ステップS83)。   FIG. 11 shows the processing of the server 1. The server 1 receives a display instruction for the completed content base 3 from the reader terminal 2a (step S80). Then, as shown in FIG. 9, the content of the content base 3 is released through the content posting screen 20 on the Web, and can be viewed on the terminal 2 owned by an unspecified member M (step S81). As a result of the operation of the member M who wishes to participate in the creation of the content K that sees this, a transmission request for the content base 3 is transmitted from the terminal 2 to the server 1. When the server 1 determines that the transmission request for the content base 3 has been received (step S82), the server 1 transmits the content base 3 to the terminal 2 of the member M that is the transmission source (step S83).

図12は、メンバーMの端末2での処理操作を示したものである。図12に示すように、端末2は、コンテンツベース3を受信すると(ステップS90)、メンバーMの操作により、端末2はメンバーMが希望するパートの要素音声9を作成する(ステップS91)。すなわち、端末2は、音声入力手段や音声処理手段を活用して、メンバーMによって創造されるお題を考慮した歌詞(レス)に対し、様々な音声加工処理を施してオリジナルな要素音声9を作成するのである。   FIG. 12 shows the processing operation at the terminal 2 of the member M. As shown in FIG. 12, when the terminal 2 receives the content base 3 (step S90), the terminal 2 creates an element voice 9 of the part desired by the member M by the operation of the member M (step S91). In other words, the terminal 2 uses the voice input means and the voice processing means to perform various voice processing processes on the lyrics (less) in consideration of the theme created by the member M to obtain the original element voice 9. Create it.

作成された要素音声9は、コンテンツベース3の音楽データ5と合成されて要素コンテンツSが作成される(ステップS92)。端末2は、メンバーMの操作に基づき、要素コンテンツSが完成したか否かを判断する(ステップS93)。そして、要素コンテンツSが完成したと判断すると、端末2は、その要素コンテンツSをサーバ1に送信する(ステップS94)。   The created element sound 9 is synthesized with the music data 5 of the content base 3 to create the element content S (step S92). Based on the operation of the member M, the terminal 2 determines whether or not the element content S is completed (step S93). If it is determined that the element content S is completed, the terminal 2 transmits the element content S to the server 1 (step S94).

なお、サーバ1に送信するデータは要素コンテンツSではなく、要素音声9だけを送信するようにしてもよい。この場合、データ量が減少する分、通信負担が少なくなって有利である。   Note that the data to be transmitted to the server 1 may be transmitted not only the element content S but only the element sound 9. In this case, the communication load is reduced as the amount of data decreases, which is advantageous.

図11に示すように、サーバ1は、要素コンテンツSをメンバーMの端末2から受信したか否かを判断する(ステップS84)。要素コンテンツSを受信したと判断すると、その要素コンテンツSを記憶手段に記憶する(ステップS85)。このとき、送信のあったメンバーMの端末2を特定する情報、たとえばハンドルネーム21などと関連付けて記憶される。なお、要素コンテンツSに換えて、要素音声9を記憶してもよい。   As shown in FIG. 11, the server 1 determines whether or not the element content S is received from the terminal 2 of the member M (step S84). If it is determined that the element content S has been received, the element content S is stored in the storage means (step S85). At this time, information specifying the terminal 2 of the member M who has transmitted is stored in association with the handle name 21, for example. Instead of the element content S, the element sound 9 may be stored.

コンテンツKの作成の参加可能期間中は、コンテンツ掲示画面20が常時公開され、メンバーMは、最大参加人数になるまで、端末2から自由にコンテンツKの作成に参加することができる。その間、サーバ1に記憶される要素コンテンツSは、それぞれのパートに関連付けて記憶される。   During the participation possible period of the creation of the content K, the content posting screen 20 is always open, and the member M can freely participate in the creation of the content K from the terminal 2 until the maximum number of participants is reached. Meanwhile, the element content S stored in the server 1 is stored in association with each part.

図13は、要素コンテンツSに関わるコンテンツ掲示画面20の一部の画面を示したものである。図13に示すように、要素コンテンツSの送信のあったメンバーMのハンドルネーム21、たとえば「花子」や「ガッツ」などが各パート別に表示されるようになっている。各メンバーMは、その中からいずれかのハンドルネーム21を選択(クリック)することで、そのハンドルネーム21と関連付けされた要素コンテンツSを再生させることができる。すなわち、各端末2は、いずれかの要素コンテンツSを指定して、サーバ1に再生要求することができ、サーバ1は、再生要求を受信したか否かを判断する(ステップS86)。そして、サーバ1は、再生要求を受信受すると、その端末2で指定された要素コンテンツSの内容を再生する処理を行う(ステップS87)。要素コンテンツSに換えて、要素音声9を再生するようにしてもよい。   FIG. 13 shows a part of the content posting screen 20 related to the element content S. As shown in FIG. 13, the handle name 21 of the member M who has transmitted the element content S, such as “Hanako” and “Guts”, is displayed for each part. Each member M can play back the element content S associated with the handle name 21 by selecting (clicking) one of the handle names 21 from the member M. That is, each terminal 2 can designate one of the element contents S and make a reproduction request to the server 1, and the server 1 determines whether or not a reproduction request has been received (step S86). Then, when the server 1 receives and receives the reproduction request, the server 1 performs a process of reproducing the content of the element content S designated by the terminal 2 (step S87). Instead of the element content S, the element sound 9 may be reproduced.

メンバーMは、各要素コンテンツSを再生して楽しむことができる。そして、各端末2は、再生した要素コンテンツS、あるいは要素音声9を評価して、投票することができるようになっている。投票は、たとえば、再生終了後に表示される得点選択画面を通じて行うことができる。サーバ1は、投票の結果に基づいて、各パートの要素コンテンツSの順位付けを行う。たとえば、図13に示すように、順位別に要素コンテンツSが入れ替わり表示されるようにすることができる。   The member M can play and enjoy each element content S. Each terminal 2 can evaluate and reproduce the reproduced element content S or element sound 9. Voting can be performed, for example, through a score selection screen displayed after the end of reproduction. The server 1 ranks the element contents S of each part based on the result of voting. For example, as shown in FIG. 13, the element contents S can be switched and displayed according to the order.

サーバ1は、参加可能期間が過ぎて、そして、各パートの要素コンテンツSを全て受信したと判断した場合(ステップS88)、各パートの第1位にある要素コンテンツSを音楽データ5に合成して、コンテンツKを完成させる(ステップS89)。そして、完成したコンテンツKの内容を、コンテンツ掲示画面20を通じて閲覧可能にするのである(ステップS90)。なお、要素コンテンツSはリーダAが任意に選択し、その指示に基づいてサーバ1がコンテンツKを完成するようにしてもよい。また、投票によるのではなく、早いもの順に全てのパートの要素コンテンツSを受信した場合に、自動的にコンテンツKを完成させるようにしてもよい。   When the server 1 determines that the participation possible period has passed and all the element contents S of each part have been received (step S88), the server 1 combines the element contents S at the first place of each part with the music data 5. Thus, the content K is completed (step S89). Then, the content of the completed content K can be browsed through the content posting screen 20 (step S90). The element content S may be arbitrarily selected by the reader A, and the server 1 may complete the content K based on the instruction. Further, instead of voting, the content K may be automatically completed when the element contents S of all the parts are received in order from the earliest.

サーバ1は、端末2からの要求に応じて、要素コンテンツSの任意の位置に音声のコメント25を関連付けて記憶する機能を備えたものであってもよい。この機能は、従来の電子掲示板のレスに相当する。   The server 1 may have a function of storing a voice comment 25 in association with an arbitrary position of the element content S in response to a request from the terminal 2. This function is equivalent to the conventional electronic bulletin board.

たとえば、図14に示すように、要素コンテンツSの要素音声9の録音領域の任意の位置に録音開始位置26aと録音終了位置26bとを示すマーカを設定し、その間に音声のコメント25を合成させるのである。なお、音声のコメント25には、そのコメント25を付したメンバーMの特定情報が関連付けされている。これらの操作は、たとえば端末2のボタン操作などによって行うことができる。そうすることで、不特定のメンバーM間で、サーバ1を介して、音声による情報交換が可能となり、より充実したコミュニケーションを楽しむことができる。   For example, as shown in FIG. 14, a marker indicating a recording start position 26a and a recording end position 26b is set at an arbitrary position in the recording area of the element voice 9 of the element content S, and an audio comment 25 is synthesized therebetween. It is. The voice comment 25 is associated with the specific information of the member M to which the comment 25 is attached. These operations can be performed by, for example, button operations on the terminal 2. By doing so, it becomes possible to exchange information by voice between the unspecified members M via the server 1 and enjoy more fulfilling communication.

この実施の形態では、リーダ端末2aの指示に基づいてサーバ1側でコンテンツベース3の作成処理を行ったが、メモリカード等の利用により、リーダ端末2a側でコンテンツベース3の作成処理を行うようにしてもよい。   In this embodiment, the creation process of the content base 3 is performed on the server 1 side based on the instruction from the reader terminal 2a. However, the creation process of the content base 3 is performed on the reader terminal 2a side by using a memory card or the like. It may be.

以上のように、本発明のコンテンツベースおよびこれを用いたコミュニケーションシステムであれば、多種多様なコミュニケーションの形態に対応でき、多数の参加者の間で楽しむことが可能となる。   As described above, the content base of the present invention and the communication system using the content base can cope with various communication forms and can be enjoyed among a large number of participants.

第1の実施の形態のコミュニケーションシステムのイメージ図である。It is an image figure of the communication system of 1st Embodiment. コンテンツベースの構成を説明するための図である。It is a figure for demonstrating the structure of a content base. 第1の実施の形態のフローチャートである。It is a flowchart of a 1st embodiment. 第1の実施の形態のフローチャートである。It is a flowchart of a 1st embodiment. 第1の実施の形態のフローチャートである。It is a flowchart of a 1st embodiment. 第2の実施の形態のコミュニケーションシステムのイメージ図である。It is an image figure of the communication system of 2nd Embodiment. 第2の実施の形態のフローチャートである。It is a flowchart of a 2nd embodiment. 第2の実施の形態のフローチャートである。It is a flowchart of a 2nd embodiment. 第3の実施の形態のコミュニケーションシステムのイメージ図である。It is an image figure of the communication system of 3rd Embodiment. 第3の実施の形態のフローチャートである。It is a flowchart of a 3rd embodiment. 第3の実施の形態のフローチャートである。It is a flowchart of a 3rd embodiment. 第3の実施の形態のフローチャートである。It is a flowchart of a 3rd embodiment. コンテンツ掲示画面の一部を示すイメージ図である。It is an image figure which shows a part of content posting screen. 第3の実施の形態における音声のコメントを説明するための図である。It is a figure for demonstrating the comment of the sound in 3rd Embodiment.

符号の説明Explanation of symbols

1 サーバ
2 端末
3 コンテンツベース
5 音楽データ
6 音声シナリオデータ
7 映像データ
8 映像シナリオデータ
9 要素音声
10 要素映像
12 効果映像データ
14 効果音データ
20 コンテンツ掲示画面
A リーダ
B 作成メンバー
C 受取メンバー
K コンテンツ
S 要素コンテンツ
1 server 2 terminal 3 content base 5 music data 6 audio scenario data 7 video data 8 video scenario data 9 element audio 10 element video 12 effect video data 14 effect sound data 20 content posting screen A reader B creating member C receiving member K content S Element content

Claims (19)

複数人がパートを分担して一つのコンテンツを作成することに利用される、複数のデジタルデータ領域を有するコンテンツベースであって、
楽曲を構成する音楽データと、
前記音楽データに対応して作成される音声シナリオデータと、
を備え、
パート別に作成される音声を前記音楽データに合成する手順が、前記音声シナリオデータに規定されていることを特徴とするコンテンツベース。
A content base having a plurality of digital data areas used by a plurality of people to share parts and create one content,
The music data that composes the song,
Voice scenario data created corresponding to the music data;
With
The content base characterized in that a procedure for synthesizing audio created for each part with the music data is defined in the audio scenario data.
請求項1に記載のコンテンツベースであって、
前記音声シナリオデータが、合成する音声を加工する音声エフェクトデータを含むことを特徴とするコンテンツベース。
The content base of claim 1,
The content base, wherein the voice scenario data includes voice effect data for processing voice to be synthesized.
請求項1または請求項2に記載のコンテンツベースであって、
任意の位置に、効果音を合成できる効果音データ領域が設けられていることを特徴とするコンテンツベース。
The content base according to claim 1 or claim 2,
A content base characterized in that a sound effect data area capable of synthesizing sound effects is provided at an arbitrary position.
請求項1ないし請求項3のいずれかに記載のコンテンツベースであって、
予め設定された所定のメンバー以外のコピーを禁止する不正コピー防止フラグ、
を備えていることを特徴とするコンテンツベース。
The content base according to any one of claims 1 to 3,
Unauthorized copy prevention flag that prohibits copying other than predetermined members,
A content base characterized by comprising:
請求項1ないし請求項4のいずれかに記載のコンテンツベースであって、
前記楽曲と連動して再生される映像データと、
前記映像データに対応して作成される映像シナリオデータと、
を備え、
パート別に作成される映像を前記映像データに合成する手順が、前記映像シナリオデータに規定されていることを特徴とするコンテンツベース。
The content base according to any one of claims 1 to 4,
Video data played back in conjunction with the music;
Video scenario data created corresponding to the video data;
With
The content base characterized in that the video scenario data defines a procedure for synthesizing video created for each part with the video data.
請求項5に記載のコンテンツベースであって、
前記映像シナリオデータが、合成する映像を加工する映像エフェクトデータを含むことを特徴とするコンテンツベース。
The content base according to claim 5,
The content base, wherein the video scenario data includes video effect data for processing a video to be synthesized.
請求項5または請求項6に記載のコンテンツベースであって、
任意の位置に、効果映像を合成できる効果映像データ領域が設けられていることを特徴とするコンテンツベース。
The content base according to claim 5 or 6, wherein
A content base characterized in that an effect video data area capable of synthesizing an effect video is provided at an arbitrary position.
請求項1ないし請求項4のいずれかに記載のコンテンツベースを用いたコミュニケーションシステムであって、
ネットワーク上に配置されるサーバと、
前記サーバにアクセス可能な複数の端末と、
を備え、
前記複数の端末には、
コンテンツの作成に参加する作成メンバー端末と、
作成されたコンテンツを受け取る受取メンバー端末と、
を含み、
前記作成メンバー端末は、
音声シナリオデータに規定されたそれぞれのパートの要素音声を作成する手段と、
作成した要素音声を前記サーバに送信する手段と、
を有し、
前記サーバは、
音声シナリオデータに基づいて、前記作成メンバー端末から受信した要素音声を音楽データに合成する手段と、
前記受取メンバー端末に、要素音声と音楽データとを合成して作成したコンテンツを送信する手段と、
を備え、
サーバを介して、複数人がパートを分担して一つのコンテンツの作成を可能としたことを特徴とするコミュニケーションシステム。
A communication system using the content base according to any one of claims 1 to 4,
A server located on the network;
A plurality of terminals accessible to the server;
With
The plurality of terminals include
Create member terminals that participate in content creation,
A receiving member terminal that receives the created content,
Including
The creation member terminal is
Means for creating elemental audio for each part defined in the audio scenario data;
Means for transmitting the created elemental audio to the server;
Have
The server
Means for synthesizing elemental voice received from the creation member terminal into music data based on voice scenario data;
Means for transmitting to the receiving member terminal a content created by synthesizing elemental audio and music data;
With
A communication system characterized in that a plurality of people can share a part and create one content via a server.
請求項5ないし請求項7のいずれかに記載のコンテンツベースを用いたコミュニケーションシステムであって、
ネットワーク上に配置されるサーバと、
前記サーバにアクセス可能な複数の端末と、
を備え、
各端末には、
コンテンツの作成に参加する作成メンバー端末と、
作成されたコンテンツを受け取る受取メンバー端末と、
が含まれており、
前記作成メンバー端末は、
音声シナリオデータおよび映像シナリオデータに規定されたそれぞれのパートの要素音声および要素映像を作成する手段と、
作成した要素音声および要素映像を前記サーバに送信する手段と、
を有し、
前記サーバは、
音声シナリオデータに基づいて、前記作成メンバー端末から受信した要素音声を音楽データに合成する手段と、
映像シナリオデータに基づいて、前記作成メンバー端末から受信した要素映像を映像データに合成する手段と、
前記受取メンバー端末に、要素音声および要素映像を合成して完成したコンテンツを送信する手段と、
を備え、
前記サーバを介して、複数人がパートを分担して一つのコンテンツの作成を可能としたことを特徴とするコミュニケーションシステム。
A communication system using the content base according to any one of claims 5 to 7,
A server located on the network;
A plurality of terminals accessible to the server;
With
Each terminal has
Create member terminals that participate in content creation,
A receiving member terminal that receives the created content,
Is included,
The creation member terminal is
Means for creating elementary audio and elementary video for each part defined in the audio scenario data and video scenario data;
Means for transmitting the created element audio and element video to the server;
Have
The server
Means for synthesizing elemental voice received from the creation member terminal into music data based on voice scenario data;
Means for synthesizing elemental video received from the creation member terminal into video data based on video scenario data;
Means for transmitting content completed by synthesizing element audio and element video to the receiving member terminal;
With
A communication system in which a plurality of persons share parts and create one content via the server.
請求項1ないし請求項4のいずれかに記載のコンテンツベースを用いたコミュニケーションシステムであって、
互いにアクセス可能な複数の端末、
を備え、
各端末には、
コンテンツの作成に参加する作成メンバー端末と、
作成されたコンテンツを受け取る受取メンバー端末と、
を含み、
いずれかの前記作成メンバー端末に対し、コンテンツベースが設定され、
前記作成メンバー端末は、
音声シナリオデータに規定されたそれぞれのパートの要素音声を作成する手段と、
音声シナリオデータに基づいて要素音声を音楽データに合成することにより、要素コンテンツを作成する手段と、
担当するパートの要素音声が合成されていない他のいずれかの作成メンバー端末に、作成した要素コンテンツを送信する手段と、
他のいずれかの作成メンバー端末から要素コンテンツを受信する手段と、
を備え、
他の作成メンバーの要素音声が全て合成された要素コンテンツを受信した最後の作成メンバーの端末は、
コンテンツを完成させて前記受取メンバー端末に送信する手段と、
を備え、
リレー形式で、複数人がパートを分担して一つのコンテンツの作成を可能としたことを特徴とするコミュニケーションシステム。
A communication system using the content base according to any one of claims 1 to 4,
Multiple devices accessible to each other,
With
Each terminal has
Create member terminals that participate in content creation,
A receiving member terminal that receives the created content,
Including
A content base is set for any of the created member terminals,
The creation member terminal is
Means for creating elemental audio for each part defined in the audio scenario data;
Means for creating elemental content by synthesizing elemental audio with music data based on audio scenario data;
Means for transmitting the created element content to any other creation member terminal in which the element voice of the part in charge is not synthesized;
Means for receiving elemental content from any other authoring member terminal;
With
The terminal of the last creating member that received the element content in which all the element sounds of other creating members were synthesized,
Means for completing the content and transmitting it to the receiving member terminal;
With
A communication system characterized by the ability to create a single content by sharing the parts in a relay format.
請求項5ないし請求項7のいずれかに記載のコンテンツベースを用いたコミュニケーションシステムであって、
互いにアクセス可能な複数の端末、
を備え、
各端末には、
コンテンツの作成に参加する作成メンバー端末と、
作成されたコンテンツを受け取る受取メンバー端末と、
を含み、
いずれかの前記作成メンバー端末に対し、コンテンツベースが設定され、
前記作成メンバー端末は、
音声シナリオデータおよび映像シナリオデータに規定されたそれぞれのパートの要素音声および要素映像を作成する手段と、
音声シナリオデータに基づいて要素音声を音楽データに合成するとともに、映像シナリオデータに基づいて要素映像を映像データに合成することにより、要素コンテンツを作成する手段と、
担当するパートの要素音声および要素映像が合成されていない他のいずれかの作成メンバー端末に、作成した要素コンテンツを送信する手段と、
他のいずれかの作成メンバー端末から要素コンテンツを受信する手段と、
を備え、
他の作成メンバーの要素音声および要素映像が全て合成された要素コンテンツを受信した最後の作成メンバーの端末は、
コンテンツを完成させて前記受取メンバー端末に送信する手段と、
を備え、
リレー形式で、複数人がパートを分担して一つのコンテンツの作成を可能としたことを特徴とするコミュニケーションシステム。
A communication system using the content base according to any one of claims 5 to 7,
Multiple devices accessible to each other,
With
Each terminal has
Create member terminals that participate in content creation,
A receiving member terminal that receives the created content,
Including
A content base is set for any of the created member terminals,
The creation member terminal is
Means for creating element audio and element video of each part defined in the audio scenario data and video scenario data;
Means for creating element content by synthesizing elemental audio with music data based on audio scenario data and combining elemental video with video data based on video scenario data;
Means for transmitting the created element content to any other creation member terminal in which the element audio and the element video of the part in charge are not synthesized;
Means for receiving elemental content from any other authoring member terminal;
With
The terminal of the last creating member who received the element content in which the element audio and the element video of the other creating members were all combined,
Means for completing the content and transmitting it to the receiving member terminal;
With
A communication system characterized by the ability to create a single content by sharing the parts in a relay format.
請求項1ないし請求項4のいずれかに記載のコンテンツベースを用いたコミュニケーションシステムであって、
ネットワーク上に配置されるサーバと、
前記サーバにアクセス可能な複数の端末と、
を備え、
前記サーバは、
コンテンツの作成を企画する端末からの指示に基づいて、作成されたコンテンツベースを、タイトルが表示されたコンテンツ掲示画面を通じて各端末に閲覧可能にする手段と、
いずれかの端末からの送信要求に応じて、コンテンツベースを送信する手段と、
いずれかの端末によって作成された要素コンテンツを受信して記憶する手段と、
記憶した要素コンテンツを、各端末の要求に応じて再生する手段と、
を有し、
各パートの要素コンテンツを全て受信した場合に、コンテンツを完成させて前記コンテンツ掲示画面を通じて閲覧可能にする手段と、
を有し、
各端末は、
前記サーバから前記コンテンツベースを受信する手段と、
音声シナリオデータに規定されたそれぞれのパートの要素音声を作成する手段と、
音声シナリオデータに基づいて、要素音声を音楽データに合成して要素コンテンツを作成する手段と、
作成した要素コンテンツを前記サーバに送信する手段と、
を有し、
不特定のメンバー間において、複数人がパートを分担して一つのコンテンツの作成を可能としたことを特徴とするコミュニケーションシステム。
A communication system using the content base according to any one of claims 1 to 4,
A server located on the network;
A plurality of terminals accessible to the server;
With
The server
A means for enabling each terminal to view the created content base based on an instruction from a terminal planning the creation of content through a content posting screen on which a title is displayed;
Means for transmitting a content base in response to a transmission request from any of the terminals;
Means for receiving and storing elemental content created by any terminal;
Means for reproducing the stored element content in response to a request from each terminal;
Have
Means for completing the content and making it viewable through the content posting screen when all the elemental contents of each part are received;
Have
Each terminal
Means for receiving the content base from the server;
Means for creating elemental audio for each part defined in the audio scenario data;
Means for synthesizing elemental audio into music data based on audio scenario data to create elemental content;
Means for transmitting the created element content to the server;
Have
A communication system characterized by the ability for multiple people to share parts and create one content among unspecified members.
請求項5ないし請求項7のいずれかに記載のコンテンツベースを用いたコミュニケーションシステムであって、
ネットワーク上に配置されるサーバと、
前記サーバにアクセス可能な複数の端末と、
を備え、
前記サーバは、
コンテンツの作成を企画する端末からの指示に基づいて、作成されたコンテンツベースを、タイトルが表示されたコンテンツ掲示画面を通じて各端末に閲覧可能にする手段と、
いずれかの端末からの送信要求に応じて、コンテンツベースを送信する手段と、
いずれかの端末によって作成された要素コンテンツを受信して記憶する手段と、
記憶した要素コンテンツを、各端末の要求に応じて再生する手段と、
を有し、
各パートの要素コンテンツを全て受信した場合に、コンテンツを完成させて前記コンテンツ掲示画面を通じて閲覧可能にする手段と、
を有し、
各端末は、
前記サーバから前記コンテンツベースを受信する手段と、
音声シナリオデータおよび映像シナリオデータに規定されたそれぞれのパートの要素音声および要素映像を作成する手段と、
音声シナリオデータに基づいて要素音声を音楽データに合成するとともに、映像シナリオデータに基づいて要素映像を映像データに合成することにより、要素コンテンツを作成する手段と、
作成した要素コンテンツを前記サーバに送信する手段と、
を有し、
不特定のメンバー間において、複数人がパートを分担して一つのコンテンツの作成を可能としたことを特徴とするコミュニケーションシステム。
A communication system using the content base according to any one of claims 5 to 7,
A server located on the network;
A plurality of terminals accessible to the server;
With
The server
A means for enabling each terminal to view the created content base based on an instruction from a terminal planning the creation of content through a content posting screen on which a title is displayed;
Means for transmitting a content base in response to a transmission request from any of the terminals;
Means for receiving and storing elemental content created by any terminal;
Means for reproducing the stored element content in response to a request from each terminal;
Have
Means for completing the content and making it viewable through the content posting screen when all the elemental contents of each part are received;
Have
Each terminal
Means for receiving the content base from the server;
Means for creating element audio and element video of each part defined in the audio scenario data and video scenario data;
Means for creating element content by synthesizing elemental audio with music data based on audio scenario data and combining elemental video with video data based on video scenario data;
Means for transmitting the created element content to the server;
Have
A communication system characterized by the ability for multiple people to share parts and create one content among unspecified members.
請求項13に記載のコミュニケーションシステムであって、
前記サーバが、
端末からの投票に基づいて、各パートの要素コンテンツを選択する手段、
を有することを特徴とするコミュニケーションシステム。
The communication system according to claim 13,
The server is
Means for selecting elemental content for each part based on votes from the terminal,
A communication system characterized by comprising:
請求項13または請求項14に記載のコミュニケーションシステムであって、
前記サーバが、
前記端末からの要求に応じて、要素コンテンツの任意の位置に音声のコメントを関連付けて記憶する手段、
を有し、
前記サーバを介して、前記端末間で情報交換可能としたことを特徴とするコミュニケーションシステム。
The communication system according to claim 13 or 14,
The server is
Means for associating and storing a voice comment at an arbitrary position of the element content in response to a request from the terminal;
Have
A communication system characterized in that information can be exchanged between the terminals via the server.
請求項8または請求項9または請求項12ないし請求項15のいずれかに記載のコミュニケーションシステムであって、
コンテンツベースが、いずれかの端末からの指示によって前記サーバにおいて作成されることを特徴とするコミュニケーションシステム。
A communication system according to claim 8 or claim 9 or claims 12 to 15,
A communication system, wherein a content base is created in the server according to an instruction from any terminal.
請求項8または請求項9または請求項12ないし請求項15のいずれかに記載のコミュニケーションシステムであって、
コンテンツベースが、予め前記サーバに備えられていることを特徴とするコミュニケーションシステム。
A communication system according to claim 8 or claim 9 or claims 12 to 15,
A communication system, wherein a content base is provided in the server in advance.
請求項8ないし請求項15のいずれかに記載のコミュニケーションシステムであって、
コンテンツベースを記憶する記憶媒体、
を備え、
前記記憶媒体を介してコンテンツベースの利用を可能としたことを特徴とするコミュニケーションシステム。
The communication system according to any one of claims 8 to 15,
A storage medium for storing the content base;
With
A communication system characterized in that a content base can be used via the storage medium.
請求項8ないし請求項15のいずれかに記載のコミュニケーションシステムであって、
コンテンツベースが、予めいずれかの端末に備えられていることを特徴とするコミュニケーションシステム。
The communication system according to any one of claims 8 to 15,
A communication system, wherein a content base is provided in advance in any terminal.
JP2006325677A 2006-12-01 2006-12-01 Content-based communication system Expired - Fee Related JP5152458B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006325677A JP5152458B2 (en) 2006-12-01 2006-12-01 Content-based communication system
PCT/JP2007/072792 WO2008069037A1 (en) 2006-12-01 2007-11-26 Content base and communication system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006325677A JP5152458B2 (en) 2006-12-01 2006-12-01 Content-based communication system

Publications (2)

Publication Number Publication Date
JP2008139560A true JP2008139560A (en) 2008-06-19
JP5152458B2 JP5152458B2 (en) 2013-02-27

Family

ID=39491940

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006325677A Expired - Fee Related JP5152458B2 (en) 2006-12-01 2006-12-01 Content-based communication system

Country Status (2)

Country Link
JP (1) JP5152458B2 (en)
WO (1) WO2008069037A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010176383A (en) * 2009-01-29 2010-08-12 Nippon Hoso Kyokai <Nhk> Content manufacturing system and content manufacturing program
JP2010231522A (en) * 2009-03-27 2010-10-14 Nippon Hoso Kyokai <Nhk> Content creation system and content creation program
JP2014071226A (en) * 2012-09-28 2014-04-21 Brother Ind Ltd Music reproduction system and music reproduction method
JP2015031885A (en) * 2013-08-05 2015-02-16 ヤマハ株式会社 Music creating method, device, system and program
JP2017157915A (en) * 2016-02-29 2017-09-07 株式会社Hearr Portable terminal device and content distribution system
US10242712B2 (en) 2013-08-05 2019-03-26 Yamaha Corporation Video synchronization based on audio

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102472801B1 (en) 2016-10-12 2022-12-01 천종윤 Distributed Multimedia editing System and Method

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11341350A (en) * 1998-05-28 1999-12-10 Yamaha Corp Multimedia information editing and reproducing device, recording medium with multimedia information reproduction program and recording medium with sequence information respectively recorded on them
JP2001100754A (en) * 1999-09-28 2001-04-13 Sharp Corp Method and device for data processing and computer readable recording medium stored with data processing program
JP2001219174A (en) * 2000-02-07 2001-08-14 Sanyo Shisetsu Kogyo Kk Method and apparatus for making sterilizing metal ion dissolved water
JP2002297136A (en) * 2001-03-30 2002-10-11 Casio Comput Co Ltd Musical piece generating device, music distribution system, and program
JP2003255933A (en) * 2002-02-28 2003-09-10 Yamaha Corp Collaboration music composing method of terminal device, music data transmitting method of server, terminal device, server, collaboration program, and recording medium
JP2004045624A (en) * 2002-07-10 2004-02-12 Yamaha Corp Method and system for collaboration, server, and program
JP2004170618A (en) * 2002-11-19 2004-06-17 Yamaha Corp Data conversion format of sequence data, speech reproducing device, and server device
JP2005081011A (en) * 2003-09-10 2005-03-31 Namco Ltd Game system, program, and information storage medium
JP2005141018A (en) * 2003-11-07 2005-06-02 Yamaha Corp Video processing device and program
JP2005141870A (en) * 2003-11-10 2005-06-02 Munku:Kk Reading voice data editing system
JP2006178496A (en) * 2006-02-17 2006-07-06 Yamaha Corp Tone material conversion device and program for tone material conversion
JP2006215210A (en) * 2005-02-02 2006-08-17 Fujitsu Ltd Musical piece collaborating method and musical piece collaborating program
JP2006301775A (en) * 2005-04-18 2006-11-02 Digital Hands Co Ltd Moving image with voice producing method, moving image with voice producing system, moving image with voice producing server, and computer readable program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3758450B2 (en) * 2000-01-10 2006-03-22 ヤマハ株式会社 Server device, client device, and recording medium for creating song data
JP2001296865A (en) * 2000-04-10 2001-10-26 Mudix Inc Music management database system and music cooperative production support system
JP4660879B2 (en) * 2000-04-27 2011-03-30 ソニー株式会社 Information providing apparatus and method, and program
JP2003067301A (en) * 2001-08-22 2003-03-07 One Shot Sound:Kk Advertisement distribution method, home page distribution method, advertisement distribution system and home page distribution system

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11341350A (en) * 1998-05-28 1999-12-10 Yamaha Corp Multimedia information editing and reproducing device, recording medium with multimedia information reproduction program and recording medium with sequence information respectively recorded on them
JP2001100754A (en) * 1999-09-28 2001-04-13 Sharp Corp Method and device for data processing and computer readable recording medium stored with data processing program
JP2001219174A (en) * 2000-02-07 2001-08-14 Sanyo Shisetsu Kogyo Kk Method and apparatus for making sterilizing metal ion dissolved water
JP2002297136A (en) * 2001-03-30 2002-10-11 Casio Comput Co Ltd Musical piece generating device, music distribution system, and program
JP2003255933A (en) * 2002-02-28 2003-09-10 Yamaha Corp Collaboration music composing method of terminal device, music data transmitting method of server, terminal device, server, collaboration program, and recording medium
JP2004045624A (en) * 2002-07-10 2004-02-12 Yamaha Corp Method and system for collaboration, server, and program
JP2004170618A (en) * 2002-11-19 2004-06-17 Yamaha Corp Data conversion format of sequence data, speech reproducing device, and server device
JP2005081011A (en) * 2003-09-10 2005-03-31 Namco Ltd Game system, program, and information storage medium
JP2005141018A (en) * 2003-11-07 2005-06-02 Yamaha Corp Video processing device and program
JP2005141870A (en) * 2003-11-10 2005-06-02 Munku:Kk Reading voice data editing system
JP2006215210A (en) * 2005-02-02 2006-08-17 Fujitsu Ltd Musical piece collaborating method and musical piece collaborating program
JP2006301775A (en) * 2005-04-18 2006-11-02 Digital Hands Co Ltd Moving image with voice producing method, moving image with voice producing system, moving image with voice producing server, and computer readable program
JP2006178496A (en) * 2006-02-17 2006-07-06 Yamaha Corp Tone material conversion device and program for tone material conversion

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010176383A (en) * 2009-01-29 2010-08-12 Nippon Hoso Kyokai <Nhk> Content manufacturing system and content manufacturing program
JP2010231522A (en) * 2009-03-27 2010-10-14 Nippon Hoso Kyokai <Nhk> Content creation system and content creation program
JP2014071226A (en) * 2012-09-28 2014-04-21 Brother Ind Ltd Music reproduction system and music reproduction method
JP2015031885A (en) * 2013-08-05 2015-02-16 ヤマハ株式会社 Music creating method, device, system and program
US10242712B2 (en) 2013-08-05 2019-03-26 Yamaha Corporation Video synchronization based on audio
US10541003B2 (en) 2013-08-05 2020-01-21 Yamaha Corporation Performance content synchronization based on audio
JP2017157915A (en) * 2016-02-29 2017-09-07 株式会社Hearr Portable terminal device and content distribution system

Also Published As

Publication number Publication date
WO2008069037A1 (en) 2008-06-12
JP5152458B2 (en) 2013-02-27

Similar Documents

Publication Publication Date Title
JP5152458B2 (en) Content-based communication system
US20100125795A1 (en) Method and apparatus for concatenating audio/video clips
Hetcher User-generated content and the future of copyright: Part one-investiture of ownership
JP4536694B2 (en) Linking additional information provided by the user to a performance reservation song and outputting it during karaoke performance
WO2005062221A1 (en) Wedding ceremony information distribution system
US11714957B2 (en) Digital story generation
US20110047625A1 (en) System and method for secure sharing of creatives
JP2008523759A (en) Method and system for synthesizing video messages
Braun Listen up!: podcasting for schools and libraries
McQuiston " An effort to decide": More Research into Kubrick's Music Choices for 2001: A Space Odyssey
Willett Always on: Camera phones, video production and identity
JP2021158661A (en) Moving image editing device, moving image editing method, and program
Fenwick John Boorman’s the Lord of the Rings: A Case Study of an Unmade Film
JP2006215210A (en) Musical piece collaborating method and musical piece collaborating program
Amos Reaching Out to Music Industry Professionals
JP5153521B2 (en) Data distribution device and data distribution program
Chertkow et al. The DIY music manual: How to record, promote and distribute your music without a record deal
JPWO2002025633A1 (en) Image reproducing method / system, image editing method / system, electronic album and its creation / delivery system
Macrossan A double-layered nostalgia:'The Sixties,'the Iraq War and The Beatles in Julie Taymor's Across the Universe (2007)
TW200413974A (en) Server and communication terminal device
Mashau The use of digital platforms by the music industry: A case study of the Vhembe District, Limpopo Region in South Africa
Baker Little Help.
JP2003317074A (en) System and method for providing electronic album theater service, program realizing function of the system, and recording medium
Keane His Remastered Voice
Bradshaw Liveblogging and mobile journalism

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110719

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121120

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151214

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5152458

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees