JP2010134037A - Electronic device - Google Patents

Electronic device Download PDF

Info

Publication number
JP2010134037A
JP2010134037A JP2008307605A JP2008307605A JP2010134037A JP 2010134037 A JP2010134037 A JP 2010134037A JP 2008307605 A JP2008307605 A JP 2008307605A JP 2008307605 A JP2008307605 A JP 2008307605A JP 2010134037 A JP2010134037 A JP 2010134037A
Authority
JP
Japan
Prior art keywords
data
content
voice
sound
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008307605A
Other languages
Japanese (ja)
Other versions
JP5416953B2 (en
Inventor
Hajime Uchida
哉 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taito Corp
Original Assignee
Taito Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taito Corp filed Critical Taito Corp
Priority to JP2008307605A priority Critical patent/JP5416953B2/en
Publication of JP2010134037A publication Critical patent/JP2010134037A/en
Application granted granted Critical
Publication of JP5416953B2 publication Critical patent/JP5416953B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To supply voice data by degrading voice quality of the voice data, as time passes. <P>SOLUTION: A distribution server records the voice data received via network to a recording part. A content reproduction processing control section 31d includes a voice degrading section for degrading voice quality of the recorded voice data. When reproduction request of the voice data is input, the voice data in which voice quality is degraded is created and output, based on the elapsed time from when the voice data is recorded. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、音声データを記録し、この音声データをもとに音声を出力させるための電子機器に関する。   The present invention relates to an electronic device for recording sound data and outputting sound based on the sound data.

近年、サーバからネットワークを介して接続されたパーソナルコンピュータや携帯電話機などの端末装置に対して、音声データを配信する各種サービスが提供されている。この種のサービスを提供するシステム(サーバ)では、音声データに様々な音響効果を付加して演出効果を高めている。   In recent years, various services for delivering audio data to a terminal device such as a personal computer or a mobile phone connected via a network from a server have been provided. In a system (server) that provides this type of service, various sound effects are added to audio data to enhance the production effect.

音声データを提供するシステムとしては、例えば音声チャットシステムがある(例えば特許文献1)。特許文献1に記載された音声チャットシステムは、仮想空間にキャラクタを配置して音声チャットを可能とするシステムであり、チャット音声を出力する前に仮想空間と音声の関連を密にするような音声変換処理あるいは音声合成処理を施す。例えば、仮想空間に配置されたキャラクタ以外の音の存在によって音声の聞こえ方が変わるようにしたり、仮想空間内を移動しながら発声するキャラクタの声が移動とともにリアルタイムに変化して聞こえるようにする。また、チャット音声が、仮想空間内で発生するチャット音声以外の音に影響されたり、音声を実際に発しているユーザの身体状態に影響されるようにしている。
特開2004−267433号公報
An example of a system that provides voice data is a voice chat system (for example, Patent Document 1). The voice chat system described in Patent Document 1 is a system that enables voice chat by arranging characters in a virtual space, and voice that closely links the virtual space and voice before outputting chat voice. Conversion processing or speech synthesis processing is performed. For example, the way the sound is heard changes depending on the presence of sound other than the character placed in the virtual space, or the voice of the character uttered while moving in the virtual space changes and can be heard in real time as it moves. The chat voice is influenced by sounds other than the chat voice generated in the virtual space, or is influenced by the physical condition of the user who is actually emitting the voice.
JP 2004-267433 A

このように従来では、音声データを提供するシステムにおいて、音声データを状況に合わせて変化させて出力することが行われている。一般に、音声データを記録し、これを提供するシステムでは、特許文献1に記載されたシステムのように、特定の目的をもった音声となるように音声データを変換するか、あるいは音声品質を向上させるために音声データの生成が行われていた。   As described above, conventionally, in a system that provides audio data, the audio data is changed according to the situation and output. In general, in a system that records and provides audio data, as in the system described in Patent Document 1, the audio data is converted into audio having a specific purpose, or the audio quality is improved. In order to make it happen, voice data has been generated.

このため従来のシステムでは、時間経過に伴って、ユーザが意図することなく音声品質が劣化していくという演出をすることができなかった。   For this reason, in the conventional system, it was not possible to produce an effect that the voice quality deteriorates with the lapse of time without the user's intention.

本発明は前述した事情に考慮してなされたもので、その目的は、時間経過に伴って音声データの音声品質を劣化させてユーザに提供することができる電子機器を提供することにある。   The present invention has been made in view of the above-described circumstances, and an object of the present invention is to provide an electronic device that can be provided to a user by degrading the voice quality of voice data over time.

本発明は、音声データを記録する音声データ記録手段と、前記音声データ記録手段により記録された音声データの音声品質を劣化させる音声劣化手段と、前記音声データ記録手段により記録された音声データに対する再生要求を入力する再生要求入力手段と、前記再生要求入力手段により入力された再生要求に対して、前記音声データが前記音声データ記録手段により記録されてからの経過時間に基づいて前記音声劣化手段により音声品質が劣化された音声データを出力する音声データ出力手段とを具備したことを特徴とする。   The present invention provides audio data recording means for recording audio data, audio deterioration means for deteriorating audio quality of the audio data recorded by the audio data recording means, and reproduction for the audio data recorded by the audio data recording means A reproduction request input means for inputting a request; and for the reproduction request input by the reproduction request input means, by the sound deterioration means based on an elapsed time after the sound data is recorded by the sound data recording means. And voice data output means for outputting voice data whose voice quality has been deteriorated.

本発明によれば、記録された音声データについて、時間経過に伴って音声データの音声品質を劣化させてユーザに提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the audio | voice quality of audio | voice data can be deteriorated with respect to recorded audio | voice data, and it can provide to a user.

以下、図面を参照して本発明の実施の形態について説明する。
図1は、本実施形態における電子機器を用いたシステムの構成を示すブロック図である。図1に示すシステムでは、電子機器は、データ配信サービスを提供する配信サーバ10として構成されている。配信サーバ10は、インターネットや公衆電話網などを含むネットワーク12を介して、パーソナルコンピュータ13、携帯電話機14、ゲーム機15などの端末装置(電子機器)と接続されている。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram illustrating a configuration of a system using an electronic device according to the present embodiment. In the system shown in FIG. 1, the electronic device is configured as a distribution server 10 that provides a data distribution service. The distribution server 10 is connected to terminal devices (electronic devices) such as a personal computer 13, a mobile phone 14, and a game machine 15 via a network 12 including the Internet and a public telephone network.

配信サーバ10は、パーソナルコンピュータ13、携帯電話機14、ゲーム機15などの電子機器から提供されるコンテンツデータを受信し、また電子機器からの要求に応じてコンテンツデータを配信するサービスを提供する。パーソナルコンピュータ13、携帯電話機14、ゲーム機15などの電子機器は、送信側あるいは受信側クライアントとして使用される。なお、パーソナルコンピュータ13、携帯電話機14、ゲーム機15に限らず、ネットワーク12を介して配信サーバ10と接続可能な機能が搭載された電子機器であれば、送信側/受信側クライアントとして使用することができる。   The distribution server 10 receives content data provided from electronic devices such as the personal computer 13, the mobile phone 14, and the game machine 15, and provides a service for distributing content data in response to a request from the electronic device. Electronic devices such as the personal computer 13, the mobile phone 14, and the game machine 15 are used as clients on the transmission side or reception side. In addition, not only the personal computer 13, the mobile phone 14, and the game machine 15, but an electronic device equipped with a function that can be connected to the distribution server 10 via the network 12 can be used as a transmitting / receiving client. Can do.

図2は、送信側クライアント17、配信サーバ10、受信側クライアント18の関係を示す図である。
配信サーバ10は、送信側クライアント17(第1の端末装置)から送信された、データ配信を制御するための制御情報が付加されたコンテンツデータを受信し、この受信された複数のデータを所定の分類によって記録しておく。コンテンツデータには、例えば画像(動画、静止画)、テキストデータ、音声データ等を含むことができる。配信サーバ10は、受信側クライアント18(第2の端末装置)からのデータ配信要求を受け付けると、記録されたデータのそれぞれに対して付加された制御情報に従って配信対象とするデータを選択し、受信側クライアント18に配信するサービスを提供する。配信サーバ10は、制御情報に含まれる、例えばデータの保存期間、再生回数、パスワードの有無などのデータ(配信ルール情報)に基づいてデータ配信を制御することで、送信先の数に制限がない不特定の受信側クライアント18に対するデータ送信、送信先の数に制限を付けた不特定の受信側クライアント18に対するデータ送信、送信先を1つに制限した不特定の受信側クライアント18に対するデータ送信を実現する。また、配信サーバ10に記録されるコンテンツデータは、送信側クライアントから受信されものに限らず、予め配信サーバ10側で用意されたデータも含まれる。例えば、企業から提供されるコマーシャル用のデータがサービス提供側で用意されていても良い。
FIG. 2 is a diagram illustrating the relationship among the transmission side client 17, the distribution server 10, and the reception side client 18.
The distribution server 10 receives the content data to which the control information for controlling the data distribution transmitted from the transmitting client 17 (first terminal device) is added, and the received plurality of data are transmitted in a predetermined manner. Record by classification. The content data can include, for example, images (moving images, still images), text data, audio data, and the like. When the distribution server 10 receives a data distribution request from the receiving client 18 (second terminal device), the distribution server 10 selects data to be distributed according to control information added to each of the recorded data, and receives the data. A service distributed to the side client 18 is provided. The distribution server 10 controls the data distribution based on the data (distribution rule information) included in the control information, such as the data storage period, the number of times of reproduction, and the presence / absence of a password, so that the number of transmission destinations is not limited. Data transmission to an unspecified receiving client 18, data transmission to an unspecified receiving client 18 with a limited number of transmission destinations, and data transmission to an unspecified receiving client 18 with a single transmission destination Realize. Further, the content data recorded in the distribution server 10 is not limited to data received from the transmission-side client, but also includes data prepared in advance on the distribution server 10 side. For example, commercial data provided by a company may be prepared on the service providing side.

図3は、配信サーバ10の機能構成を示すブロック図である。
配信サーバ10は、図3に示すように、制御部31、入力部32、表示部33、記録装置37、及び通信部38が設けられている。
FIG. 3 is a block diagram illustrating a functional configuration of the distribution server 10.
As shown in FIG. 3, the distribution server 10 includes a control unit 31, an input unit 32, a display unit 33, a recording device 37, and a communication unit 38.

制御部31は、プロセッサやメモリを含んで構成されるもので、各種プログラムをプロセッサにより実行することにより各種の機能を実現することができる。制御部31は、 ネットワーク12を介して接続されたクライアント17,18に対してデータ配信サービスを提供するもので、送信側クライアント170からのコンテンツのアップロード、コンテンツの記録、及び受信側クライアント18に対するコンテンツのダウンロード(データ配信)のための制御を行う。制御部31は、サーバ用のデータ配信プログラムを実行することで、コンテンツ作成処理制御部31a、コンテンツ保存処理制御部31b、コンテンツ検索処理制御部31c、及びコンテンツ再生処理制御部31dの機能を実現する。   The control unit 31 includes a processor and a memory, and various functions can be realized by executing various programs by the processor. The control unit 31 provides a data distribution service to the clients 17 and 18 connected via the network 12, and uploads contents from the sending client 170, records contents, and contents to the receiving client 18. Control for downloading (data distribution). The control unit 31 implements the functions of the content creation processing control unit 31a, the content storage processing control unit 31b, the content search processing control unit 31c, and the content reproduction processing control unit 31d by executing a data distribution program for the server. .

コンテンツ作成処理制御部31aは、送信側クライアント17からデータ配信を制御するための少なくとも保存期間と再生回数を含む制御情報が付加されたコンテンツデータとコンテンツデータの分類先とする区分の指定を受信し、コンテンツデータと制御情報をもとに配信用のコンテンツデータを作成する。また、コンテンツ作成処理制御部31aは、送信側クライアント17から、コンテンツデータとして、音声に対する音響効果の指定と送信側クライアント17において入力された音声データを受信し、音声データに対して、指定された音響効果を付加して配信用の音声データファイルを生成することができる。さらに、コンテンツ作成処理制御部31aは、送信側クライアント17から、音声に対する音響効果の指定と、送信側クライアント17において入力されたテキストデータを受信し、この受信されたテキストデータが示す文章の音声データを生成して、同音声データに対して、指定された音響効果を付加して配信用の音声データファイルを生成することができる。   The content creation processing control unit 31a receives, from the transmission side client 17, the designation of the classification as the classification destination of the content data and the content data to which the control information including at least the storage period and the number of reproductions for controlling the data distribution is added. Then, content data for distribution is created based on the content data and the control information. In addition, the content creation processing control unit 31a receives, as content data, the audio effect designation for the audio and the audio data input in the transmission client 17 from the transmission client 17, and is designated for the audio data. A sound data file for distribution can be generated by adding a sound effect. Further, the content creation processing control unit 31a receives the sound effect designation for the sound and the text data input in the transmitting client 17 from the transmitting client 17, and the audio data of the sentence indicated by the received text data. , And a sound data file for distribution can be generated by adding a designated acoustic effect to the sound data.

コンテンツ保存処理制御部31bは、送信側クライアント17から受信されたコンテンツデータ(音声データを含む)を複数の区分(通常フィールド)に分類して記録装置37において記録する。コンテンツ保存処理制御部31bは、送信側クライアント17から受信したコンテンツを記録する際には、送信側クライアント17から区分(通常フィールド))の指定を受信して、制御情報と関連付けて分類して記録する。また、コンテンツ保存処理制御部31bは、コンテンツに対して設定された保存期間が経過した場合には、通常フィールドにおいて分類して記録されたコンテンツを削除予定フィールドに移動して、所定の期間が経過した後に削除する。なお、コンテンツ保存処理制御部31bは、削除予定フィールドに移動されたコンテンツに対して、例えば送信側クライアント17から音声データに対する音声品質の劣化のための制御データ、例えば削除されるまでの期間の延長を指示するデータ等を受信することができる。コンテンツ保存処理制御部31bは、この制御データに応じて削除するまでの所定の期間を変更する。   The content storage processing control unit 31b classifies the content data (including audio data) received from the transmission-side client 17 into a plurality of sections (normal fields) and records them in the recording device 37. When recording the content received from the transmission client 17, the content storage processing control unit 31b receives the designation of the classification (normal field) from the transmission client 17, classifies and records it in association with the control information. To do. In addition, when the storage period set for the content has elapsed, the content storage processing control unit 31b moves the content classified and recorded in the normal field to the deletion scheduled field, and the predetermined period has elapsed. Delete after. Note that the content storage processing control unit 31b extends, for example, control data for deterioration of audio quality from the sending client 17 to audio data, for example, a period until the content is moved to the deletion scheduled field, for example Can be received. The content storage processing control unit 31b changes a predetermined period until deletion according to the control data.

コンテンツ検索処理制御部31cは、受信側クライアント18から区分の指定と共にデータ配信要求を受け付け、このデータ配信要求に応じて、記録装置37に指定された区分に分類して記録された複数のコンテンツデータから配信対象とするコンテンツデータを選択する。また、コンテンツ検索処理制御部31cは、コンテンツに付加された制御情報(保存期間、再生回数、パスワード等)に従って、配信対象とするデータを選択する。また、コンテンツ検索処理制御部31cは、削除予定フィールドに移動されたコンテンツを検索対象とすることもできる。   The content search processing control unit 31c receives a data distribution request from the receiving client 18 together with the designation of the category, and a plurality of content data classified and recorded in the category designated by the recording device 37 according to the data distribution request. Content data to be distributed is selected. Further, the content search processing control unit 31c selects data to be distributed according to control information (storage period, number of reproductions, password, etc.) added to the content. The content search processing control unit 31c can also search for content that has been moved to the scheduled deletion field.

コンテンツ再生処理制御部31dは、コンテンツ検索処理制御部31cにより選択されたコンテンツデータを受信側クライアント18に配信して、受信側クライアント18において再生出力させる。コンテンツ再生処理制御部31dは、削除予定フィールドに記録されたコンテンツに対しては、音声データに対して、記録されてからの経過時間に基づいて音声品質を劣化させて提供する。すなわち、コンテンツ再生処理制御部31dは、削除予定フィールドに記録されたコンテンツが削除されるまでの所定の期間に合わせて、段階的に音声品質が劣化していくように音声処理が実行される。コンテンツ再生処理制御部31dの詳細な構成については後述する(図4参照)。   The content reproduction processing control unit 31d distributes the content data selected by the content search processing control unit 31c to the reception side client 18, and causes the reception side client 18 to reproduce and output the content data. The content reproduction processing control unit 31d provides audio data with degraded audio quality based on the elapsed time from the recording for the content recorded in the scheduled deletion field. In other words, the content reproduction processing control unit 31d performs audio processing so that the audio quality gradually deteriorates in accordance with a predetermined period until the content recorded in the scheduled deletion field is deleted. The detailed configuration of the content reproduction processing control unit 31d will be described later (see FIG. 4).

記録部37は、ハードディスク等の記録媒体への記録を制御する。記録部37は、コンテンツ保存処理制御部31bにより複数のコンテンツデータが複数の区分に分類して記録される他、サービスを提供するために必要な各種のデータが記録される。記録部37では、送信側クライアント17からアップロードされたコンテンツは、論理的に設定される通常フィールドにおいて記録され、コンテンツに対して設定された保存期間が経過した後には、削除予定フィールドにおいて記録される。   The recording unit 37 controls recording on a recording medium such as a hard disk. The recording unit 37 records a plurality of pieces of data necessary for providing a service in addition to a plurality of pieces of content data classified into a plurality of categories by the content storage processing control unit 31b. In the recording unit 37, the content uploaded from the transmission-side client 17 is recorded in the logically set normal field, and is recorded in the deletion scheduled field after the storage period set for the content has elapsed. .

通信部38は、ネットワーク12を介してクライアント20等との通信を制御する。   The communication unit 38 controls communication with the client 20 and the like via the network 12.

図4は、コンテンツ再生処理制御部31dの詳細な機能構成を示すブロック図である。
図4に示すように、コンテンツ再生処理制御部31dには、再生要求入力部40、音声劣化部41、計時部42、及び音声出力部43の機能が設けられている。
FIG. 4 is a block diagram showing a detailed functional configuration of the content reproduction processing control unit 31d.
As shown in FIG. 4, the content reproduction processing control unit 31 d is provided with functions of a reproduction request input unit 40, an audio deterioration unit 41, a timer unit 42, and an audio output unit 43.

再生要求入力部40は、コンテンツ保存処理制御部31bによって記録されたコンテンツ(音声データを含む)に対する再生要求を入力するもので、コンテンツ検索処理制御部31cによって選択されたコンテンツデータを再生対象とする。   The playback request input unit 40 inputs a playback request for the content (including audio data) recorded by the content storage processing control unit 31b, and sets the content data selected by the content search processing control unit 31c as a playback target. .

音声劣化部41は、コンテンツ保存処理制御部31bによって記録部37に記録された音声データの音声品質を劣化させる処理を実行するもので、特に、削除予定フィールドに記録されたコンテンツの音声データに対して、計時部42により算出されるコンテンツ(音声データ)が記録部37に記録されてからの経過時間に基づいて段階的に音声品質を劣化させる。   The audio degradation unit 41 performs processing for degrading the audio quality of the audio data recorded in the recording unit 37 by the content storage processing control unit 31b, and particularly for the audio data of the content recorded in the scheduled deletion field. Thus, the audio quality is gradually deteriorated based on the elapsed time after the content (audio data) calculated by the time measuring unit 42 is recorded in the recording unit 37.

計時部42は、コンテンツデータが記録部37に記録されてからの経過時間を算出する。計時部42は、記録部37の通常フィールドから削除フィールドに移行されたコンテンツ、すなわち保存期間が過ぎたコンテンツの経過時間を算出する。   The timer unit 42 calculates an elapsed time after the content data is recorded in the recording unit 37. The timer 42 calculates the elapsed time of the content that has been transferred from the normal field of the recording unit 37 to the deletion field, that is, the content whose storage period has passed.

音声出力部43は、再生要求入力部40により入力された再生要求に対して、コンテンツデータに含まれる音声データを出力する。音声出力部43は、通常フィールドに記録されているコンテンツの音声データについては、元のままの音声品質による音声データを出力し、保存期間が経過して削除予定フィールドに記録されたコンテンツの音声データについては、削除フィールドに移動されてからの経過時間に応じて音声劣化部41により音声品質が劣化された音声データを出力する。   The audio output unit 43 outputs audio data included in the content data in response to the reproduction request input by the reproduction request input unit 40. The audio output unit 43 outputs the audio data with the original audio quality for the audio data of the content recorded in the normal field, and the audio data of the content recorded in the scheduled deletion field after the storage period has elapsed. As for, the voice data whose voice quality has been degraded by the voice degradation unit 41 is output in accordance with the elapsed time since moving to the deletion field.

次に、ユーザによって設定される制御情報に含まれる配信ルール情報の一例について説明する。図5は、配信ルール情報の一例を示している。本実施形態では、例えば配信ルールとして、保存期間、再生回数、パスワードの有無などを、プレイヤが任意に指定することができる。   Next, an example of distribution rule information included in control information set by the user will be described. FIG. 5 shows an example of the distribution rule information. In the present embodiment, for example, as a distribution rule, the player can arbitrarily specify a storage period, the number of reproductions, the presence or absence of a password, and the like.

保存期間は、配信サーバ10にアップロードされてからダウンロードを終了するまでの期間を示すもので、例えば1日〜7日の間で任意に指定することができる。   The storage period indicates a period from uploading to the distribution server 10 until the download is completed, and can be arbitrarily specified between 1 day and 7 days, for example.

再生回数は、配信サーバ10にアップロードされたコンテンツデータを受信側クライアント18に配信可能な回数を示すもので、例えば1回〜10回までの任意の回数、あるいは無制限を指定することができる。例えば、再生回数を無制限とすることで、送信先の数に制限がない不特定の受信側クライアント18に対するデータ送信を実現することができる。また、再生回数を2回〜10回の任意回数とすることで、送信先の数に制限を付けた不特定の受信側クライアント18に対するデータ送信を実現することができる。また、再生回数を1回とすることで、送信先を1つに制限した不特定の受信側クライアント18に対するデータ送信を実現することができる。   The number of times of reproduction indicates the number of times that the content data uploaded to the distribution server 10 can be distributed to the receiving client 18, and can be specified as an arbitrary number of times from 1 to 10 times or unlimited. For example, by making the number of reproductions unlimited, it is possible to realize data transmission to an unspecified receiving client 18 with no limitation on the number of transmission destinations. Further, by setting the number of reproductions to an arbitrary number of 2 to 10, data transmission to an unspecified receiving client 18 with a limited number of transmission destinations can be realized. Further, by setting the number of reproductions to one, it is possible to realize data transmission to an unspecified receiving client 18 in which the transmission destination is limited to one.

パスワードは、ユーザが任意に設定するか否かを選択することができる。パスワードについては、英数字であらわしたり、図形の組み合わせなどによって設定することができる。パスワードを有りにすることで、パスワードを知るユーザのみがコンテンツをダウンロードすることができるので、送信先を1つに制限した特定の受信側クライアント18に対するデータ送信を実現することができる。   The user can select whether or not the user arbitrarily sets the password. The password can be set by alphanumeric characters or a combination of figures. By providing the password, only the user who knows the password can download the content, so that it is possible to realize data transmission to a specific receiving-side client 18 limited to one transmission destination.

次に、送信側クライアント17からアップロードされるコンテンツの保存形態について図6を参照しながら説明する。
本実施形態では、コンテンツデータをアップロードする場合、保存先として複数の通常フィールドの何れかを選択することができる。通常フィールドとしては、例えば「森」「お墓」「街」など、ユーザが認識し易い名称が付されているものとする。コンテンツをアップロードするユーザは、コンテンツの内容などを考慮して、何れかの適当な名称が付された通常フィールドを選択してアップロードすることができる。また、コンテンツをダウンロードしようとするユーザは、フィールドの名称をもとに何れかを選択することで、所望するイメージに合ったコンテンツをダウンロードし易くできる。
Next, the storage form of the content uploaded from the transmission client 17 will be described with reference to FIG.
In the present embodiment, when uploading content data, one of a plurality of normal fields can be selected as a storage destination. As the normal field, for example, a name that can be easily recognized by the user, such as “forest”, “grave”, and “town”, is assumed. A user who uploads content can select and upload a normal field with any appropriate name in consideration of the content and the like. In addition, a user who wants to download content can easily download content suitable for a desired image by selecting one based on the name of the field.

また、各通常フィールドには、予め決められたトラックが用意されており、そのトラック数の分のコンテンツデータがアップロード可能であるものとする。配信サーバ10では、保存先情報が示す通常フィールドとトラックをもとに、アップロードされた各コンテンツデータを管理する。   Further, it is assumed that a predetermined track is prepared in each normal field, and content data corresponding to the number of tracks can be uploaded. The distribution server 10 manages each uploaded content data based on the normal field and track indicated by the storage location information.

さらに、通常フィールドに保存されたコンテンツの保存期間が経過した後の保存先として削除予定フィールドが用意されている。削除予定フィールドには、複数のトラックが用意されており、そのトラックにコンテンツデータが保存可能であるものとする。通常フィールドに保存されていたコンテンツは、保存期間を過ぎると、削除予定フィールドに移動され、その時の時刻を示す記録時刻データがコンテンツデータと共に記録される。この記録時刻データをもとに、コンテンツが削除予定フィールドに移動されてからの経過時間を算出することができる。削除予定フィールドに保存されたコンテンツ(音声データを含む)は、所定の期間が経過した後に削除される。   Furthermore, a deletion scheduled field is prepared as a storage destination after the storage period of the content stored in the normal field has elapsed. It is assumed that a plurality of tracks are prepared in the deletion schedule field, and content data can be stored in the tracks. The content stored in the normal field is moved to the deletion scheduled field after the storage period, and recording time data indicating the time at that time is recorded together with the content data. Based on this recording time data, it is possible to calculate the elapsed time since the content was moved to the deletion scheduled field. The content (including audio data) stored in the scheduled deletion field is deleted after a predetermined period has elapsed.

次に、本実施形態における配信サーバ10の動作について説明する。
送信側クライアント17では、音声を含むコンテンツをアップロードする場合には、音声データの録音作業が行われ、必要に応じて各種の音響効果の種類の指定などが行われる。コンテンツ作成処理制御部31aは、クライアント20から音声データを受信し、指定された音響効果を付加した音声データを生成する。さらに、コンテンツに画像やテキストを含む場合には、コンテンツ作成処理制御部31aは、送信側クライアント17から画像データやテキストデータを受信して、コンテンツデータとして音声データと共に一時保存する。
Next, the operation of the distribution server 10 in this embodiment will be described.
In the case of uploading content including audio, the transmitting client 17 performs audio data recording work, and designates various types of acoustic effects as necessary. The content creation processing control unit 31a receives audio data from the client 20, and generates audio data to which the designated acoustic effect is added. Furthermore, when an image or text is included in the content, the content creation processing control unit 31a receives the image data or text data from the transmission-side client 17 and temporarily stores it as content data together with audio data.

また、送信側クライアント17では、コンテンツのデータ配信を制御するための制御情報(配信ルール情報)の設定が行われる。   In addition, the transmission side client 17 sets control information (distribution rule information) for controlling content data distribution.

送信側クライアント17では、配信ルールに該当する保存時間、再生回数、パスワードの有無、名前などが、ユーザ操作によって任意に設定される。配信サーバ10のコンテンツ作成処理制御部31aは、送信側クライアント17において設定された制御情報を受信し、それまでに一時保存していた音声データ、画像データあるいはテキストデータと共にコンテンツデータとして確定保存する。   In the transmission side client 17, the storage time corresponding to the distribution rule, the number of times of reproduction, the presence / absence of a password, a name, and the like are arbitrarily set by a user operation. The content creation processing control unit 31a of the distribution server 10 receives the control information set in the transmission client 17, and confirms and stores it as content data together with the audio data, image data, or text data temporarily stored so far.

次に、コンテンツ作成処理で作成されたコンテンツを配信可能となるように保存するコンテンツ保存処理について説明する。
送信側クライアント17では、コンテンツ作成処理で作成されたコンテンツをアップロードする場合、保存先とする通常フィールドがユーザにより指定される。例えば、フィールド選択画面において、ポインティングデバイスやボタンなどの操作により、コンテンツの保存先とする通常フィールドを指定する。通常フィールドとしては、例えば「森」「お墓」「街」などが用意されており、作成したコンテンツの内容やコンテンツの配信要求で指定されやすくなるように何れかの適当な名称が付されたフィールドを選択することができる。送信側クライアント17は、フィールド決定が指示されると、配信サーバ10のコンテンツ保存処理制御部31bに対して選択フィールドを送信する。
Next, content storage processing for storing the content created in the content creation processing so that it can be distributed will be described.
In the transmission side client 17, when uploading the content created by the content creation processing, a normal field as a storage destination is designated by the user. For example, on the field selection screen, a normal field as a content storage destination is designated by an operation of a pointing device or a button. For example, “Forest”, “Tomb”, “City”, etc. are prepared as normal fields, and any appropriate name is given so that it can be easily specified in the content of the created content or content distribution request. A field can be selected. When the field determination is instructed, the transmission client 17 transmits the selected field to the content storage processing control unit 31b of the distribution server 10.

コンテンツ保存処理制御部31bは、選択フィールドを受信すると、このフィールドに空きトラックがあれば、コンテンツ作成処理により作成されたコンテンツを、選択された通常フィールドに分類して記録部37において保存する。   When the content storage processing control unit 31b receives the selected field, if there is an empty track in this field, the content storage processing control unit 31b classifies the content created by the content creation processing into the selected normal field and stores it in the recording unit 37.

次に、通常フィールドに保存されたコンテンツデータを、削除予定フィールドに移動するための音声データ記録処理について、図7に示すフローチャートを参照しながら説明する。   Next, audio data recording processing for moving content data stored in the normal field to the scheduled deletion field will be described with reference to the flowchart shown in FIG.

コンテンツ保存処理制御部31bは、記録部37において通常フィールドに分類して記録されたコンテンツデータについて、各コンテンツに付加された制御情報(配信ルール)を参照して、保存期間が経過したものを検索する(ステップA1)。   The content storage processing control unit 31b searches the content data recorded in the normal field by the recording unit 37 with reference to the control information (distribution rule) added to each content and for which the storage period has passed. (Step A1).

ここで、保存期間が経過したコンテンツデータがあった場合(ステップA2、Yes)、コンテンツ保存処理制御部31bは、検索されたコンテンツデータを削除予定フィールドに移動させる(ステップA3)。削除予定フィールド中の何れかのトラックに、保存期間が経過したコンテンツデータを登録する。   Here, when there is content data whose storage period has passed (step A2, Yes), the content storage processing control unit 31b moves the searched content data to the scheduled deletion field (step A3). The content data whose storage period has elapsed is registered in any track in the scheduled deletion field.

そして、削除予定フィールドに移動された時刻を示す記録時刻データをコンテンツデータに付加して記録する(ステップA4)。   Then, recording time data indicating the time moved to the scheduled deletion field is added to the content data and recorded (step A4).

削除予定フィールドに記録されたコンテンツデータは、通常フィールドに記録されたコンテンツと同様にしてダウンロード対象となる。すなわち、受信側クライアント18において、コンテンツの検索対象とするフィールドとして削除予定フィールドが指定された場合に、この削除予定フィールドからコンテンツデータが選択される。詳細については後述する。   The content data recorded in the scheduled deletion field is to be downloaded in the same manner as the content recorded in the normal field. That is, in the receiving client 18, when a deletion scheduled field is designated as a field to be searched for content, content data is selected from this deletion scheduled field. Details will be described later.

次に、配信サーバ10からコンテンツをダウンロードするコンテンツ検索処理について説明する。
受信側クライアント18では、コンテンツのダウンロードがユーザにより要求されると、コンテンツの探し方を選択するための選択画面を表示させ、例えばフィールドの指定によってコンテンツのダウンロードを要求するのか、あるいはパスワードを指定することにより要求するのかをユーザにより指定させる。
Next, content search processing for downloading content from the distribution server 10 will be described.
When the content download is requested by the user, the receiving client 18 displays a selection screen for selecting how to search for content, for example, requests content download by specifying a field, or specifies a password. The user designates whether to make a request.

ここで、「フィールドから探す」が指定された場合には、受信側クライアント18は、コンテンツの検索対象とするフィールドを指定するためのフィールド選択画面を表示させ、その中か何れかのフィールドをユーザにより選択させる。各フィールドには、フィールドに付された名称(例えば「森」「お墓」「街」など)と関連する内容のコンテンツが記録されている傾向があるため、所望するコンテンツの内容に関連する何れかの名称のフィールドを選択することで、所望する内容のコンテンツを取得され易くなる。また、ここでは、コンテンツの検索対象とするフィールドとして削除予定フィールドを選択することもできる。   Here, when “search by field” is designated, the receiving client 18 displays a field selection screen for designating a field to be searched for content, and any one of the fields is selected by the user. To select. Each field has a tendency to record content related to the name (for example, “forest”, “grave”, “town”, etc.) assigned to the field. By selecting such a name field, it becomes easy to obtain the desired content. In this case, a field to be deleted can be selected as a field to be searched for content.

コンテンツ検索処理制御部31cは、受信側クライアント18から選択フィールドの指定を受信すると、選択されたフィールドに分類して記録された配信ルールを満たす複数のコンテンツからダウンロード対象とするコンテンツを選択する。すなわち、配信ルールの保存期間、再生回数とが有効であり、パスワードが設定されていない配信可能なコンテンツからランダムに1つのコンテンツを選択する。   When the selection of the selection field is received from the receiving client 18, the content search processing control unit 31c selects a content to be downloaded from a plurality of contents that satisfy the distribution rule classified and recorded in the selected field. That is, the storage period of the distribution rule and the number of reproductions are valid, and one content is randomly selected from the distributable content for which no password is set.

また、コンテンツ検索処理制御部31cは、受信側クライアント18から削除予定フィールドの指定を受信した場合には、削除予定フィールドからダウンロード対象とするコンテンツをランダムに選択する。   In addition, when receiving the designation of the scheduled deletion field from the receiving client 18, the content search processing control unit 31c randomly selects the content to be downloaded from the planned deletion field.

コンテンツ検索処理制御部31cは、フィールドから選択したコンテンツを再生出力させるためのコンテンツ再生処理をコンテンツ再生処理制御部31dにより実行させる。また、コンテンツ検索処理制御部31cは、削除予定フィールドからコンテンツを選択した場合には、コンテンツ再生処理制御部31dに対して、コンテンツデータに設定されている記録時刻データを通知する。   The content search processing control unit 31c causes the content reproduction processing control unit 31d to execute content reproduction processing for reproducing and outputting the content selected from the field. In addition, when the content search processing control unit 31c selects content from the scheduled deletion field, the content search processing control unit 31c notifies the content reproduction processing control unit 31d of the recording time data set in the content data.

次に、コンテンツを受信側クライアント18において再生出力させるコンテンツ再生処理について説明する。
配信サーバ10のコンテンツ再生処理制御部31dは、再生要求入力部40によりコンテンツの再生要求を受信すると、コンテンツ検索処理制御部31cによって選択されたコンテンツが削除予定フィールドに保存されていたデータでない場合には、音声出力部43により記録装置37の通常フィールドに記憶されていたコンテンツを、そのまま受信側クライアント18に対して送信する。また、コンテンツ再生処理制御部31dは、受信側クライアント18に送信されたコンテンツに対して設定された制御情報(配信ルール)を更新する。すなわち、コンテンツデータの再生回数が無制限に設定されていなければ、再生回数を更新(デクリメント)する。
Next, content reproduction processing for reproducing and outputting content in the receiving client 18 will be described.
When the content reproduction processing control unit 31d of the distribution server 10 receives a content reproduction request from the reproduction request input unit 40, the content selected by the content search processing control unit 31c is not data stored in the scheduled deletion field. Transmits the content stored in the normal field of the recording device 37 by the audio output unit 43 to the receiving client 18 as it is. Further, the content reproduction processing control unit 31d updates the control information (distribution rule) set for the content transmitted to the receiving client 18. That is, if the number of reproductions of content data is not set to unlimited, the number of reproductions is updated (decremented).

受信側クライアント18は、受信したコンテンツデータをもとにコンテンツ再生画面を表示させ、コンテンツを再生出力する。すなわち、画像を表示させると共に、コンテンツデータに含まれる音声を再生出力させる。   The receiving client 18 displays a content reproduction screen based on the received content data, and reproduces and outputs the content. That is, the image is displayed and the sound included in the content data is reproduced and output.

一方、コンテンツ再生処理制御部31dは、コンテンツ検索処理制御部31cによって選択されたコンテンツが削除予定フィールドに保存されていたデータである場合には、コンテンツデータに含まれる音声データに対して劣化音声再生処理を実行する。   On the other hand, when the content selected by the content search processing control unit 31c is data stored in the scheduled deletion field, the content playback processing control unit 31d performs degraded audio playback on the audio data included in the content data. Execute the process.

図8は、劣化音声再生処理を説明するためのフローチャートである。
コンテンツ再生処理制御部31dは、再生要求入力部40により削除予定フィールドに保存されていたコンテンツの再生要求を受信する(ステップB1、Yes)、音声劣化部41によりコンテンツデータ中の音声データの品質を劣化させるための処理を実行させる。
FIG. 8 is a flowchart for explaining the degraded sound reproduction processing.
The content playback processing control unit 31d receives the playback request for the content stored in the scheduled deletion field by the playback request input unit 40 (step B1, Yes), and the audio degradation unit 41 determines the quality of the audio data in the content data. A process for deteriorating is executed.

音声劣化部41は、計時部42により計時されている現在時刻を取得して、コンテンツ検索処理制御部31cから受信した記録時刻データが示す録音時刻(削除予定フィールドに保存された時刻)からの経過時間を算出する(ステップB2)。そして、音声劣化部41は、経過時間に応じて、経過時間が長いほど、より音を劣化させるように音声データに対する加工処理を実行する(ステップB3)。   The sound deterioration unit 41 acquires the current time measured by the time measuring unit 42, and the elapsed time from the recording time (the time stored in the scheduled deletion field) indicated by the recording time data received from the content search processing control unit 31c. Time is calculated (step B2). And the audio | voice degradation part 41 performs the process process with respect to audio | voice data so that a sound may be degraded more, so that elapsed time is long according to elapsed time (step B3).

音声出力部43は、音声劣化部41によって品質が劣化された音声データを含むコンテンツを、受信側クライアント18に対して送信し、受信側クライアント18において時間経過に応じて品質が劣化された音を再生出力させる(ステップB4)。   The audio output unit 43 transmits the content including the audio data whose quality has been deteriorated by the audio deterioration unit 41 to the reception side client 18, and the reception side client 18 receives the sound whose quality has been deteriorated over time. Reproduction output is performed (step B4).

これにより、通常フィールドに保存されていたコンテンツ(音声データ)が、保存期間を経過したことにより削除予定フィールドに移され、時間が経過するほど品質を劣化させることで、例えばコンテンツが溶けていく、あるいは腐っていくような印象をユーザに与える演出が可能となる。   As a result, the content (audio data) stored in the normal field is moved to the deletion scheduled field when the storage period has elapsed, and the content degrades as time elapses, for example, the content melts. Alternatively, it is possible to produce an impression that gives the user a rotting impression.

図9には、音声劣化部41において音声の品質を劣化させる方法の一例(音声波形の変化)を示している。
図9(a)は、音声データのサンプリングレートをレートダウンする手法を示している。例えば、原音とする音声データのサンプリングレートが44100Hzであった場合に、1/8にレートダウン(サンプリングレート5512.5Hz)にすることにより音の品質を劣化させることができる。音声劣化部41は、経過時間が長くなるに従って、例えばサンプリングレートを1/2、1/4、1/8、…のように段階的にレートダウンしていくことによって、経過時間が長くなるほど品質が劣化した音声データを生成することができる。
FIG. 9 shows an example (speech waveform change) of the method of degrading the sound quality in the sound degradation unit 41.
FIG. 9A shows a technique for reducing the sampling rate of audio data. For example, when the sampling rate of the audio data as the original sound is 44100 Hz, the sound quality can be degraded by reducing the rate to 1/8 (sampling rate 5512.5 Hz). As the elapsed time becomes longer, the sound degradation unit 41 gradually decreases the sampling rate, for example, 1/2, 1/4, 1/8,. It is possible to generate voice data with degraded.

図9(b)は、音声データのサンプリングビット長を少なくすることにより音を劣化させる手法を示している。例えば、原音とする音声データがビット長16ビットで表されている場合に、ビット長を8ビットにダウンさせた音声データに変換することで、音声データが持つ情報量を削減して音の品質を劣化させることができる。音声劣化部41は、経過時間が長くなるに従って、例えば8ビット、4ビットのようにビット長を段階的にダウンさせていくことによって、経過時間が長くなるほど品質が劣化した音声データを生成することができる。   FIG. 9B shows a technique for deteriorating sound by reducing the sampling bit length of audio data. For example, when audio data as the original sound is represented by a bit length of 16 bits, it is converted to audio data with the bit length reduced to 8 bits, thereby reducing the amount of information held by the audio data and improving the sound quality. Can be deteriorated. The voice deterioration unit 41 generates voice data whose quality is deteriorated as the elapsed time becomes longer by gradually decreasing the bit length such as 8 bits or 4 bits as the elapsed time becomes longer. Can do.

図9(c)は、原音に対して周波数フィルタ(EQ)をかけることにより音を劣化させる手法を示している。例えば、ハイカットフィルタに原音を通過させることにより所定の周波数以上の音をカットすることにより音を劣化させる。音声劣化部41は、経過時間が長くなるに従って、カットする基準となる所定の周波数を下げていくことにより、経過時間が長くなるほど品質が劣化した音声データを生成することができる。   FIG. 9C shows a method of deteriorating sound by applying a frequency filter (EQ) to the original sound. For example, the sound is degraded by cutting the sound having a predetermined frequency or higher by passing the original sound through the high cut filter. The voice degradation unit 41 can generate voice data having a quality that deteriorates as the elapsed time increases by lowering a predetermined frequency that is a reference for cutting as the elapsed time increases.

図9(d)は、原音に対してノイズを付加することにより音を劣化させる手法を示している。例えば、原音に対してホワイトノイズを付加することにより音を劣化させる。音声劣化部41は、経過時間が長くなるほど、原音に付加するノイズの量を増加させていくことにより、経過時間が長くなるほど品質が劣化した音声データを生成することができる。   FIG. 9D shows a technique for deteriorating sound by adding noise to the original sound. For example, the sound is degraded by adding white noise to the original sound. The voice deterioration unit 41 can generate voice data having a quality that deteriorates as the elapsed time increases by increasing the amount of noise added to the original sound as the elapsed time increases.

音声劣化部41は、前述した図9(a)〜(d)に示す音を劣化させる手法の何れかを用いて、音声データを変換することができる機能が搭載されるものとする。   It is assumed that the voice deterioration unit 41 is equipped with a function that can convert voice data using any one of the above-described methods for deteriorating the sound shown in FIGS.

なお、前述した説明では、単に経過時間に応じて音声の品質を劣化させるとしているが、品質を劣化させるペースを変化させることが可能である。   In the above description, the voice quality is simply degraded according to the elapsed time, but the pace at which the quality is degraded can be changed.

例えば、基本的には、削除予定フィールドに移されたコンテンツ(音声データ)は、予め決められた期間(例えば5日)が経過した時点で消滅する、すなわち再生音声が認識されなくなるように、その期間内では一定のペースで品質を段階的に劣化させていくようにする。   For example, basically, the content (audio data) moved to the scheduled deletion field disappears when a predetermined period (for example, 5 days) elapses, that is, the reproduced audio is not recognized. Within a period, quality is gradually deteriorated at a constant pace.

また、コンテンツに対して設定された保存期間に応じて品質を劣化させるペースを変えるようにしても良い。例えば、配信ルールにおいて7日が設定されていたコンテンツについては、同じ日数の7日が経過した時点で消滅する(認識できない)ように段階的に音声の品質を劣化させていき、3日が設定されているコンテンツについては、同様にして3日が経過した時点で消滅するように音を劣化させるレベルを変化させることにより、コンテンツの違いによって腐っていくペースが異なるような演出をすることができる。   Further, the pace at which the quality is degraded may be changed according to the storage period set for the content. For example, for content for which 7 days have been set in the distribution rule, the audio quality is gradually deteriorated so that it disappears (cannot be recognized) when 7 days of the same number of days have passed, and 3 days is set. For content that has been changed, the level of deterioration of the sound is changed so that it disappears when three days have passed in the same manner, so that it is possible to produce an effect in which the decaying pace varies depending on the content. .

さらに、削除予定フィールドに移動されたコンテンツに対して、例えば同コンテンツをアップロードした送信側クライアント17から、音声データに対する音声品質の劣化のための制御データを受信し、この制御データに応じて音声データの音声品質を劣化させるようにしても良い。例えば、腐っていくことを表すように演出が加えられる削除フィールドに保存されたコンテンツに対して、防腐剤の追加を指示する制御データ、すなわちコンテンツが完全に消滅するまでの期間を延長することを指示する制御データを送信側クライアント17から受信する。コンテンツ再生処理制御部31d(音声劣化部41)は、制御データに応じて、削除予定フィールドに保存された音声データに対して音声を劣化させるペースを変更する。   Further, for the content moved to the scheduled deletion field, for example, control data for audio quality deterioration with respect to the audio data is received from the transmission side client 17 that uploaded the content, and the audio data is received according to the control data. The voice quality may be degraded. For example, for the content stored in the deletion field where the presentation is added to indicate that it is rotten, the control data instructing the addition of the preservative, that is, extending the period until the content is completely extinguished. Control data to be instructed is received from the sending client 17. The content reproduction processing control unit 31d (audio deterioration unit 41) changes the pace at which the audio is deteriorated with respect to the audio data stored in the scheduled deletion field, according to the control data.

このようにして、音声データを劣化させて提供することができるので、これまでになかった演出効果を付加することが可能となる。   In this way, since the audio data can be provided after being deteriorated, it is possible to add an effect that has never been achieved.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

本実施形態における電子機器を用いたシステムの構成を示すブロック図。1 is a block diagram illustrating a configuration of a system using an electronic device according to an embodiment. 送信側クライアント17、配信サーバ10、受信側クライアント18の関係を示す図。The figure which shows the relationship between the transmission side client 17, the delivery server 10, and the receiving side client 18. FIG. 配信サーバ10の機能構成を示すブロック図。The block diagram which shows the function structure of the delivery server. コンテンツ再生処理制御部31dの詳細な機能構成を示すブロック図。The block diagram which shows the detailed functional structure of the content reproduction process control part 31d. 配信ルール情報の一例を示す図。The figure which shows an example of delivery rule information. 送信側クライアント17からアップロードされるコンテンツの保存形態について示す図。The figure shown about the preservation | save form of the content uploaded from the transmission side client. 通常フィールドに保存されたコンテンツデータを、削除予定フィールドに移動するための音声データ記録処理について示すフローチャート。The flowchart which shows the audio | voice data recording process for moving the content data preserve | saved at the normal field to a deletion plan field. 劣化音声再生処理を説明するためのフローチャート。The flowchart for demonstrating degradation audio | voice reproduction | regeneration processing. 音声劣化部41において音声の品質を劣化させる方法の一例(音声波形の変化)を示す図。The figure which shows an example (change of an audio | voice waveform) of the method of deteriorating the quality of audio | voice in the audio | voice degradation part 41.

符号の説明Explanation of symbols

10…配信サーバ、12…ネットワーク、13…パーソナルコンピュータ、14…携帯電話機、15…ゲーム機、17…送信側クライアント、18…受信側クライアント、31…制御部、31a…コンテンツ作成処理制御部、31b…コンテンツ保存処理制御部、31c…コンテンツ検索処理制御部、31d…コンテンツ再生処理制御部、32…入力部、33…表示部、37…記録装置、38…通信部、38…通信部、40…再生要求入力部、41…音声劣化部、42…計時部、43…音声出力部。   DESCRIPTION OF SYMBOLS 10 ... Distribution server, 12 ... Network, 13 ... Personal computer, 14 ... Mobile phone, 15 ... Game machine, 17 ... Transmission side client, 18 ... Reception side client, 31 ... Control part, 31a ... Content creation process control part, 31b ... Content storage processing control unit, 31c ... Content search processing control unit, 31d ... Content reproduction processing control unit, 32 ... Input unit, 33 ... Display unit, 37 ... Recording device, 38 ... Communication unit, 38 ... Communication unit, 40 ... Playback request input unit, 41... Sound deterioration unit, 42.

Claims (5)

音声データを記録する音声データ記録手段と、
前記音声データ記録手段により記録された音声データの音声品質を劣化させる音声劣化手段と、
前記音声データ記録手段により記録された音声データに対する再生要求を入力する再生要求入力手段と、
前記再生要求入力手段により入力された再生要求に対して、前記音声データが前記音声データ記録手段により記録されてからの経過時間に基づいて、前記音声劣化手段により音声品質が劣化された音声データを出力する音声データ出力手段と
を具備したことを特徴とする電子機器。
Audio data recording means for recording audio data;
Voice degradation means for degrading the voice quality of the voice data recorded by the voice data recording means;
Reproduction request input means for inputting a reproduction request for the audio data recorded by the audio data recording means;
In response to the playback request input by the playback request input means, the voice data whose voice quality has been deteriorated by the voice deterioration means based on the elapsed time since the voice data was recorded by the voice data recording means. An electronic apparatus comprising audio data output means for outputting.
ネットワークを介して複数の端末装置との通信を行う通信手段をさらに具備し、
前記音声データ記録手段は、前記通信手段による通信によって第1の端末装置から受信された音声データを記録し、
前記音声要求入力手段は、前記通信手段による通信によって第2の端末装置から再生要求を入力し、
前記音声データ出力手段は、前記第2の端末装置に対して、音声品質が劣化された音声データを出力することを特徴とする請求項1記載の電子機器。
Further comprising a communication means for communicating with a plurality of terminal devices via a network;
The voice data recording means records voice data received from the first terminal device by communication by the communication means,
The voice request input means inputs a reproduction request from the second terminal device through communication by the communication means,
2. The electronic apparatus according to claim 1, wherein the audio data output means outputs audio data with degraded audio quality to the second terminal device.
前記音声データの音声品質を劣化させない保存期間を表すデータを、前記音声データと共に前記第1の端末装置から受信し、
前記音声データ出力手段は、前記保存期間を越える経過時間に応じて、前記音声劣化手段により音声品質が劣化された音声データを出力することを特徴とする請求項2記載の電子機器。
Data representing a storage period that does not degrade the voice quality of the voice data is received from the first terminal device together with the voice data;
3. The electronic apparatus according to claim 2, wherein the sound data output means outputs sound data whose sound quality has been deteriorated by the sound deterioration means in accordance with an elapsed time exceeding the storage period.
前記音声劣化手段は、前記保存期間の長さに応じて、一定期間が経過する毎に音声品質を劣化させるレベルを変化させることを特徴とする請求項3記載の電子機器。   4. The electronic apparatus according to claim 3, wherein the sound deterioration means changes a level at which sound quality is deteriorated every time a predetermined period elapses according to the length of the storage period. 前記音声データに対する音声品質の劣化のための制御データを前記第1の端末装置から受信する制御データ受信手段をさらに具備し、
前記音声劣化手段は、前記制御データ受信手段により受信された制御データに応じて、前記音声データの音声品質を劣化させることを特徴とする請求項2乃至4の何れかに記載の電子機器。
Control data receiving means for receiving control data for deterioration of voice quality for the voice data from the first terminal device;
5. The electronic device according to claim 2, wherein the sound deterioration unit deteriorates a sound quality of the sound data in accordance with control data received by the control data receiving unit.
JP2008307605A 2008-12-02 2008-12-02 Electronics Active JP5416953B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008307605A JP5416953B2 (en) 2008-12-02 2008-12-02 Electronics

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008307605A JP5416953B2 (en) 2008-12-02 2008-12-02 Electronics

Publications (2)

Publication Number Publication Date
JP2010134037A true JP2010134037A (en) 2010-06-17
JP5416953B2 JP5416953B2 (en) 2014-02-12

Family

ID=42345409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008307605A Active JP5416953B2 (en) 2008-12-02 2008-12-02 Electronics

Country Status (1)

Country Link
JP (1) JP5416953B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014038506A (en) * 2012-08-17 2014-02-27 Fuji Xerox Co Ltd Data storage device and program
WO2018088449A1 (en) * 2016-11-08 2018-05-17 ヤマハ株式会社 Voice playback device and voice playback method

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000182325A (en) * 1998-12-14 2000-06-30 Samsung Japan Corp Digital audio signal recording medium, and recording/ reproducing device
JP2000298926A (en) * 1999-04-12 2000-10-24 Toshiba Corp Data reproducing device
JP2001285803A (en) * 2000-03-31 2001-10-12 Matsushita Electric Ind Co Ltd Picture and sound recorder
JP2002006885A (en) * 2000-06-19 2002-01-11 Sharp Corp Method for recording and reproducing conditional digital information, reproducing method, and storage medium used for the same
JP2004030630A (en) * 2002-05-14 2004-01-29 Docomo Communications Laboratories Usa Inc Method and device for performing self-impairment of digital data
JP2004128787A (en) * 2002-10-01 2004-04-22 Sony Corp Information processing apparatus and information processing method, program storage medium, and program
JP2004267433A (en) * 2003-03-07 2004-09-30 Namco Ltd Information processor, server, program, recording medium for providing voice chat function
JP2006246239A (en) * 2005-03-04 2006-09-14 Yamaha Corp System for processing speech signal of a plurality of loudspeakers, terminal device, server device, and program
JP2008077787A (en) * 2006-09-22 2008-04-03 Kddi Corp Method and system for duplicating digital data with degradation
JP2008543125A (en) * 2005-04-25 2008-11-27 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Data processing method and data processing system

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000182325A (en) * 1998-12-14 2000-06-30 Samsung Japan Corp Digital audio signal recording medium, and recording/ reproducing device
JP2000298926A (en) * 1999-04-12 2000-10-24 Toshiba Corp Data reproducing device
JP2001285803A (en) * 2000-03-31 2001-10-12 Matsushita Electric Ind Co Ltd Picture and sound recorder
JP2002006885A (en) * 2000-06-19 2002-01-11 Sharp Corp Method for recording and reproducing conditional digital information, reproducing method, and storage medium used for the same
JP2004030630A (en) * 2002-05-14 2004-01-29 Docomo Communications Laboratories Usa Inc Method and device for performing self-impairment of digital data
JP2004128787A (en) * 2002-10-01 2004-04-22 Sony Corp Information processing apparatus and information processing method, program storage medium, and program
JP2004267433A (en) * 2003-03-07 2004-09-30 Namco Ltd Information processor, server, program, recording medium for providing voice chat function
JP2006246239A (en) * 2005-03-04 2006-09-14 Yamaha Corp System for processing speech signal of a plurality of loudspeakers, terminal device, server device, and program
JP2008543125A (en) * 2005-04-25 2008-11-27 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Data processing method and data processing system
JP2008077787A (en) * 2006-09-22 2008-04-03 Kddi Corp Method and system for duplicating digital data with degradation

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014038506A (en) * 2012-08-17 2014-02-27 Fuji Xerox Co Ltd Data storage device and program
WO2018088449A1 (en) * 2016-11-08 2018-05-17 ヤマハ株式会社 Voice playback device and voice playback method

Also Published As

Publication number Publication date
JP5416953B2 (en) 2014-02-12

Similar Documents

Publication Publication Date Title
WO2014013604A1 (en) Message editing device, message communication terminal and message communication system
JP2009193344A (en) Complex content information creating system, complex content information creating method, terminal device, content management device, and program
JP5416953B2 (en) Electronics
JP5713214B2 (en) Karaoke system and karaoke device
JP2013156543A (en) Posting reproducer and program
JP5630447B2 (en) Karaoke system
JP4042484B2 (en) Collaboration method, collaboration system, server and program
JP4213058B2 (en) Karaoke device that can output model vocals
JP5153521B2 (en) Data distribution device and data distribution program
JP4096734B2 (en) Music activity support system and program
JP5153520B2 (en) Data distribution device and data distribution program
JP6565554B2 (en) Karaoke system, server, karaoke equipment
JP4682652B2 (en) REPRODUCTION DEVICE, CONTENT REPRODUCTION SYSTEM, AND PROGRAM
JP2009301089A (en) System, method, and program for reproducing voice of character on virtual space
JP2003255933A (en) Collaboration music composing method of terminal device, music data transmitting method of server, terminal device, server, collaboration program, and recording medium
JP5522418B2 (en) Karaoke system and karaoke device
JP5731661B2 (en) Recording apparatus, recording method, computer program for recording control, and reproducing apparatus, reproducing method, and computer program for reproducing control
JP4964977B2 (en) A karaoke apparatus for outputting a web page of a URL linked by a user to a reserved music piece during karaoke performance
JP2004191517A (en) Contents distribution system, audio equipment, and contents management method
KR100985605B1 (en) Rich-media Playing System and Control Method thereof
JP2021057847A (en) Content distribution system
JP2005017706A (en) System and method for sound recording
JP2014048470A (en) Music reproduction device, music reproduction system, and music reproduction method
JP2014048471A (en) Server, and music reproduction system
JP2009259171A (en) Application delivery apparatus, application delivery program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20100305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100408

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20100415

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131022

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131118

R150 Certificate of patent or registration of utility model

Ref document number: 5416953

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150