JP2008219345A - 合成装置、合成システム、合成方法及びプログラム - Google Patents

合成装置、合成システム、合成方法及びプログラム Download PDF

Info

Publication number
JP2008219345A
JP2008219345A JP2007052641A JP2007052641A JP2008219345A JP 2008219345 A JP2008219345 A JP 2008219345A JP 2007052641 A JP2007052641 A JP 2007052641A JP 2007052641 A JP2007052641 A JP 2007052641A JP 2008219345 A JP2008219345 A JP 2008219345A
Authority
JP
Japan
Prior art keywords
identification information
tag
data
moving image
audio data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007052641A
Other languages
English (en)
Other versions
JP5009650B2 (ja
Inventor
Koji Giga
公二 儀賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xing Inc
Original Assignee
Xing Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xing Inc filed Critical Xing Inc
Priority to JP2007052641A priority Critical patent/JP5009650B2/ja
Publication of JP2008219345A publication Critical patent/JP2008219345A/ja
Application granted granted Critical
Publication of JP5009650B2 publication Critical patent/JP5009650B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】動画データ内の音声データの存否に関わらず選択された音声データと動画データとを合成することが可能な合成装置を提供する。
【解決手段】携帯電話機2は受け付けた音声データの識別情報及び動画データの識別情報をサーバコンピュータ1へ送信する。サーバコンピュータ1は、判断手段により、受信した識別情報に係る動画データ内に音声データに関連付けられるタグが存在するか否かを判断する。そして判断手段によりタグが存在しないと判断した場合、タグを動画データ内に書き込み、該タグに関連付けて受信した識別情報に係る音声データを書き込む。一方、判断手段によりタグが存在すると判断した場合、該タグ内に記述された音声データを削除し、該タグに関連付けて受信した識別情報に係る音声データを書き込む。
【選択図】図1

Description

本発明は、音声データ及び動画データを合成する合成装置、合成システム、合成方法及びコンピュータを合成装置として機能させるためのプログラムに関する。
近年、携帯端末機等に動画を配信するサービスが普及している。このサービスにおいては、ユーザが携帯端末機からWebサーバへアクセスし、Flash(登録商標)またはiモーション(登録商標)等の動画データをダウンロードする。そして携帯端末機内のアプリケーションを起動してダウンロードした動画データを再生する。その一方で、着うた(登録商標)等の携帯端末機等に音声データを配信するサービスも普及している。またユーザが作成するビデオメールの作成支援ツールも知られている(例えば、特許文献1参照)。
特開2003−195863号公報
しかしながら、動画データ及び音声データのコンテンツが増大しているにもかかわらず、これらを組み合わせた有益なサービスが提供できていないという問題があった。また動画データには無音のものと音声データが付加されたものとが混在しており、容易に組み合わせることができないという問題があった。なお、特許文献1は動画情報を基準に音楽情報を抽出し、動画情報の長さに応じて音楽情報の長さを補正するにすぎず上述した問題を解決するものではない。
本発明は斯かる事情に鑑みてなされたものであり、その目的は、動画データ内に音声データに関連付けられるタグの有無を判断し、これに応じて音声データ及びタグを書き込むことにより、動画データ内の音声データの存否に関わらず選択された音声データと動画データとを合成することが可能な合成装置、合成システム、合成方法及びコンピュータを合成装置として機能させるためのプログラムを提供することにある。
本発明の他の目的は、合成に係る利用回数を計数することにより、利用回数に応じた課金が可能な合成システムを提供することにある。
本発明の他の目的は、合成に係る履歴を記憶し同一リクエストの場合は、利用回数を計数しない合成システムを提供することにある。
本発明に係る合成装置は、音声データ及び動画データを合成する合成装置において、複数の音声データの識別情報から選択された音声データの識別情報を受け付ける音声受け付け手段と、複数の動画データの識別情報から選択された動画データの識別情報を受け付ける動画受け付け手段と、該動画受け付け手段により受け付けた識別情報に係る動画データ内に音声データに関連付けられるタグが存在するか否かを判断する判断手段と、該判断手段によりタグが存在しないと判断した場合に、該タグを前記動画データ内に書き込み、該タグに関連付けて前記音声受け付け手段により受け付けた識別情報に係る音声データを書き込む書き込み手段と、前記判断手段によりタグが存在すると判断した場合に、該タグ内に記述された音声データを削除し、該タグに関連付けて前記音声受け付け手段により受け付けた識別情報に係る音声データを書き込む書き換え手段とを備えることを特徴とする。
本発明に係る合成装置は、前記判断手段によりタグが存在しないと判断した場合に、前記書き込み手段により前記タグ内に書き込む音声データと前記動画データとの同期に関する情報及び該同期に関する情報に関連付けられる同期情報タグを、前記動画データ内に書き込む手段をさらに備えることを特徴とする。
本発明に係る合成装置は、前記書き込み手段または前記書き換え手段により音声データが書き込まれた動画データを外部へ出力する手段を備えることを特徴とする。
本発明に係る合成システムは、携帯端末機に通信網を介して接続される合成装置により音声データ及び動画データを合成する合成システムにおいて、前記携帯端末機は、複数の音声データの識別情報から選択された音声データの識別情報を受け付ける音声受け付け手段と、複数の動画データの識別情報から選択された動画データの識別情報を受け付ける動画受け付け手段と、前記音声受け付け手段により受け付けた音声データの識別情報及び前記動画受け付け手段により受け付けた動画データの識別情報を前記合成装置へ送信する手段とを備え、前記合成装置は、前記携帯端末機から送信された音声データの識別情報及び動画データの識別情報を受信する受信手段と、該受信手段により受信した識別情報に係る動画データ内に音声データに関連付けられるタグが存在するか否かを判断する判断手段と、該判断手段によりタグが存在しないと判断した場合に、該タグを前記動画データ内に書き込み、該タグに関連付けて前記受信手段により受信した識別情報に係る音声データを書き込む書き込み手段と、前記判断手段によりタグが存在すると判断した場合に、該タグ内に記述された音声データを削除し、該タグに関連付けて前記受信手段により受信した識別情報に係る音声データを書き込む書き換え手段と、前記書き込み手段または前記書き換え手段により音声データが書き込まれた動画データを前記携帯端末機へ送信する手段とを備えることを特徴とする。
本発明に係る合成システムは、前記合成装置は、前記受信手段により受信した音声データの識別情報及び動画データの識別情報を、携帯端末機を特定するための特定情報に対応付けて記憶部に記憶する手段と、前記受信手段により音声データの識別情報及び動画データの識別情報を受信した場合に、利用回数を計数する計数手段と、該計数手段により計数した回数を携帯端末機の特定情報に対応付けて記憶するデータベースとを備えることを特徴とする。
本発明に係る合成システムは、前記合成装置は、前記受信手段により、携帯端末機から音声データの識別情報及び動画データの識別情報を受信した場合に、前記記憶部に前記携帯端末機の特定情報、前記音声データの識別情報及び動画データの識別情報と一致する情報が記憶されているか否かを判断する記憶判断手段を備え、前記計数手段は、該記憶判断手段により一致する情報が記憶されていると判断した場合は、利用回数を計数しないよう構成してあることを特徴とする。
本発明に係る合成方法は、携帯端末機に通信網を介して接続される合成装置により動画データ及び音声データを合成する合成方法において、複数の音声データの識別情報から選択された音声データの識別情報を、前記携帯端末機の入力部から受け付ける音声受け付けステップと、複数の動画データの識別情報から選択された動画データの識別情報を、前記携帯端末機の入力部から受け付ける動画受け付けステップと、前記音声受け付けステップにより受け付けた音声データの識別情報及び前記動画受け付けステップにより受け付けた動画データの識別情報を前記携帯端末機から前記合成装置へ送信するステップと、前記携帯端末機から送信された音声データの識別情報及び動画データの識別情報を前記合成装置により受信する受信ステップと、該受信ステップにより受信した識別情報に係る動画データ内に音声データに関連付けられるタグが存在するか否かを前記合成装置の制御部により判断する判断ステップと、該判断ステップによりタグが存在しないと判断した場合に前記制御部により、該タグを前記動画データ内に書き込み、該タグに関連付けて前記受信ステップにより受信した識別情報に係る音声データを書き込む書き込みステップと、前記判断ステップによりタグが存在すると判断した場合に前記制御部により、該タグ内に記述された音声データを削除し、該タグに関連付けて前記受信ステップにより受信した識別情報に係る音声データを書き込む書き換えステップと、前記書き込みステップまたは前記書き換えステップにより音声データが書き込まれた動画データを前記合成装置から前記携帯端末機へ送信するステップとを備えることを特徴とする。
本発明に係るプログラムは、音声データ及び動画データをコンピュータに合成させるためのプログラムにおいて、コンピュータに、複数の音声データの識別情報から選択された音声データの識別情報及び複数の動画データの識別情報から選択された動画データの識別情報を取り込む取り込みステップと、該取り込みステップにより取り込んだ識別情報に係る動画データ内に音声データに関連付けられるタグが存在するか否かをコンピュータの制御部により判断する判断ステップと、該判断ステップによりタグが存在しないと判断した場合に前記制御部により、該タグを前記動画データ内に書き込み、該タグに関連付けて前記取り込みステップにより取り込んだ識別情報に係る音声データを書き込む書き込みステップと、前記判断ステップによりタグが存在すると判断した場合に前記制御部により、該タグ内に記述された音声データを削除し、該タグに関連付けて前記取り込みステップにより取り込んだ識別情報に係る音声データを書き込む書き換えステップとを実行させることを特徴とする。
本発明にあっては、携帯端末機と合成装置とは通信網を介して接続される。携帯端末機は、複数の音声データの識別情報から選択された音声データの識別情報を受け付け、複数の動画データの識別情報から選択された動画データの識別情報を受け付ける。携帯端末機は受け付けた音声データの識別情報及び動画データの識別情報を合成装置へ送信する。合成装置は、携帯端末機から送信された音声データの識別情報及び動画データの識別情報を受信する。
合成装置は、判断手段により、受信した識別情報に係る動画データ内に音声データに関連付けられるタグが存在するか否かを判断する。そして判断手段によりタグが存在しないと判断した場合、タグを動画データ内に書き込み、該タグに関連付けて受信した識別情報に係る音声データを書き込む。一方、判断手段によりタグが存在すると判断した場合、該タグ内に記述された音声データを削除し、該タグに関連付けて受信した識別情報に係る音声データを書き込む。そして、音声データが書き込まれた動画データを前記携帯端末機へ送信する。
本発明にあっては、合成装置は、判断手段によりタグが存在しないと判断した場合に、該タグ内に書き込む音声データと動画データとの同期に関する情報、及び、該同期に関する情報に関連付けられる同期情報タグを、動画データ内に書き込む。
本発明にあっては、合成装置は、受信した音声データの識別情報及び動画データの識別情報を、携帯端末機を特定するための特定情報に対応付けて記憶部に記憶する。そして計数手段は、音声データの識別情報及び動画データの識別情報を受信する度に、利用回数を計数する。そして計数手段により計数した回数を携帯端末機の特定情報に対応付けてデータベースに記憶する。
本発明にあっては、記憶判断手段は、携帯端末機から音声データの識別情報及び動画データの識別情報を受信した場合に、記憶部に携帯端末機の特定情報、音声データの識別情報及び動画データの識別情報と一致する情報が記憶されているか否かを判断する。すなわち、同一の携帯端末機から同一の動画データ及び音声データの組み合わせに係るリクエストがあったか否かを判断する。そして、計数手段は、記憶判断手段により一致する情報が記憶されていると判断した場合は、利用回数を計数しない。
本発明にあっては、判断手段によりタグが存在しないと判断した場合、タグを動画データ内に書き込み、該タグに関連付けて受信した識別情報に係る音声データを書き込む。一方、判断手段によりタグが存在すると判断した場合、該タグ内に記述された音声データを削除し、該タグに関連付けて受信した識別情報に係る音声データを書き込む。そして、音声データが書き込まれた動画データを前記携帯端末機へ送信する。これにより、動画データの音声データの有無にかかわらず、シームレスに希望する動画データと音声データとを合成でき、この合成した動画データをユーザに提供することが可能となる。
本発明にあっては、合成装置は、判断手段によりタグが存在しないと判断した場合に、該タグ内に書き込む音声データと動画データとの同期に関する情報、及び、該同期に関する情報に関連付けられる同期情報タグを、動画データ内に書き込む。これにより、携帯端末機は、同期情報タグ内の同期に関する情報を参照して、動画データと音声データとを同期再生することが可能となる。その結果、関連のないユーザが選択した音声データと動画データとが合成され、適切なタイミングで両者が再生されることになる。
本発明にあっては、計数手段は、音声データの識別情報及び動画データの識別情報を受信する度に、利用回数を計数し、計数した回数を携帯端末機の特定情報に対応付けてデータベースに記憶する。これにより、合成のリクエストの度に適切な課金処理を行うことが可能となる。
本発明にあっては、記憶判断手段は、携帯端末機から音声データの識別情報及び動画データの識別情報を受信した場合に、記憶部に携帯端末機の特定情報、音声データの識別情報及び動画データの識別情報と一致する情報が記憶されているか否かを判断する。そして、計数手段は、記憶判断手段により一致する情報が記憶されていると判断した場合は、利用回数を計数しない。これにより、同一リクエストの場合は、課金しないことが可能となりより適切なサービスを提供することが可能となる等、本発明は優れた効果を奏する。
実施の形態1
図1は本発明に係る合成システムの概要を示す模式図である。合成システムは、合成装置1、通信網N、データベース(以下DB)3及び携帯端末機2、2、2、・・・を含んで構成される。合成装置1は、例えばサーバコンピュータが用いられる。以下では合成装置1をサーバコンピュータ1であるものとして説明する。携帯端末機2は例えば、携帯電話機、PDA(Personal Digital Assistance)、表示部を備える可搬型オーディオプレーヤまたは可搬型ゲーム機等であり、一般のカラオケ店舗に設置されるモニタより小型の表示画面を備える可搬型の携帯端末機である。本実施の形態においては、携帯端末機2を携帯電話機2であるものとして説明する。
サーバコンピュータ1と携帯電話機2、2、2、・・・とはインターネット及び携帯電話網等の通信網Nを介して接続されている。DB3には複数の音声データ及び動画データが記憶されており、サーバコンピュータ1は、携帯電話機2からのリクエストに応じて選択された音声データ及び動画データを合成する処理を行う。合成処理された音声データを含む動画データはサーバコンピュータ1から携帯電話機2へ送信され、携帯電話機2での音声データを含む動画データの再生が行われる。
図2はサーバコンピュータ1のハードウェア構成を示すブロック図である。サーバコンピュータ1は、制御部としてのCPU(Central Processing Unit)11、RAM(Random Access Memory)12、通信部16及び記憶部15を含んで構成される。CPU11は、バス17を介してサーバコンピュータ1のハードウェア各部と接続されていて、それらを制御すると共に、記憶部15に格納された制御プログラム15Pに従って、種々のソフトウェア的機能を実行する。制御プログラムは、C言語等のプログラミング言語で記述されている。
通信部16はファイアウォールとしての機能を果たすゲートウェイ等であり、携帯電話機2との間で必要な情報を送受信する。記憶部15は例えばハードディスクで構成され、内部には上述した制御プログラム15Pが記憶されている。DB3には複数の動画データを記憶する動画DB31及び複数の音声データを記憶する音声DB32が格納されている。CPU11は動画DB31及び音声DB32のフィールドのキーを関連付けたスキーマにおいてSQL(Structured Query Language)等を用いて対話することにより、必要な情報の記憶、検索等の処理を実行する。
図3は動画DB31及び音声DB32のレコードレイアウトを示す説明図である。動画DB31はデータフィールド及び動画IDフィールドを含んで構成される。データフィールドには複数の動画データが記憶されている。また動画IDフィールドには動画データを特定するための固有の識別情報(以下、動画IDという)が動画データに対応付けて記憶されている。例えば「動画データ1」に対応付けて動画ID「V1」が記憶されている。ここで記憶される動画データは例えば、Adobe社のFlash(登録商標)により作成された動画データ、またはiモーション(登録商標)に係る動画データ等である。以下ではFlash(登録商標)を利用した際の例を説明する。
動画データは後述するように音声データを含む場合と音声データを含まない無音声のものの2種類が存在する。音声DB32はデータフィールド及び音声IDフィールドを含んで構成される。データフィールドには複数の音声データが記憶されている。また音声IDフィールドには音声データを特定するための固有の識別情報(以下、音声IDという)が音声データに対応付けて記憶されている。例えば「音声データ1」に対応付けて音声ID「M1」が記憶されている。音声データは例えば携帯電話機2で再生することが可能な、mmfまたはmld等の音声データが用いられる。
図4は携帯電話機2のハードウェア構成を示すブロック図である。携帯電話機2は、制御部としてのCPU21、RAM22、入力部23、表示部24、通信部26、マイク28、スピーカ29及び記憶部25を含んで構成される。CPU21は、バス27を介して携帯電話機2のハードウェア各部と接続されていて、それらを制御すると共に、記憶部25に格納された制御プログラム25Pに従って、種々のソフトウェア的機能を実行する。
表示部24は例えば液晶ディスプレイ等であり、入力部23はプッシュボタン等により構成される。なお、タッチパネルのように表示部24と入力部23とを一体的に構成するようにしても良い。スピーカ29は音声データ、通話データ、またはマイク28から入力された音声に係る音声信号を増幅して出力する。マイク28は外部から入力された音声信号を電気信号へ変換する。変換後の電気信号は図示しないA/D変換器によりデジタルデータへ変換されてCPU21へ出力される。通信部26は高周波送受信部及びアンテナ等を備え、音声データ、文字データ等を含む各種データの送受信を行う。
記憶部25には制御プログラム25P、ブラウザ251、及び再生アプリケーション252が記憶されている。ブラウザ251はHTTP(Hyper Text Transfer Protocol)により通信部26を介して送受信されるHTML(HyperText Markup Language)ファイルを解析して表示部24に表示する。再生アプリケーション252はブラウザ251のプラグインソフトウェアであり、例えばFlash(登録商標)プレーヤである。音声データが合成された動画データを、通信部26を介して受信した場合、CPU21は合成された動画データをRAM22に記憶する。
そして、CPU21は再生アプリケーション252を起動し、表示部24にRAM22に記憶した動画データに基づく動画を表示すると共に、スピーカ29からRAM22に記憶した音声データに基づく音声を出力する。次に、ユーザが携帯電話機2を用いて希望する動画データ及び音声データを選択する手順を説明する。
図5は音声データを選択する際のイメージを示す説明図である。携帯電話機2からサーバコンピュータ1へアクセスした場合、サーバコンピュータ1のCPU11は図5に示す音声データの選択画面を記憶部15から読み出して携帯電話機2へ送信する。携帯電話機2のCPU21はブラウザ251に音声データの選択画面を表示する。複数の新曲の情報が表示されており、ユーザは入力部23を操作することにより、再生を希望する一の音声データを選択する。例えば、曲名「A1」については、対応する歌手「1A」が表示され、さらに曲名「A1」に対応する音声ID「M1」が表示される。
なお、DB3には音声IDに対応付けて、曲名及び歌手等の情報が記憶されている。ブラウザ251の曲名にはハイパーリンク51、52、53が設定されている。ハイパーリンク51、52、53にはそれぞれの曲名に対応する音声IDが記述されている。例えばハイパーリンク51の一部には音声ID「M1」が記述されている。ユーザは入力部23を操作し、一のハイパーリンク51、ハイパーリンク52、またはハイパーリンク53のいずれかをクリックする。CPU11は入力部23により選択されたハイパーリンク51、52、または53に記述された音声IDをサーバコンピュータ1へ通信部26を介して送信する。本例では曲名「A1」が選択され音声ID「M1」が送信されたものとして説明する。
図6は合成指示画面のイメージを示す説明図である。サーバコンピュータ1のCPU11は音声IDを受信した場合、図6に示す合成指示画面を記憶部15から読み出し、携帯電話機2へ送信する。ブラウザ251にはユーザが選択した音声データの情報として、曲名「A1」、歌手「1A」及び音声ID「M1」が表示される。さらに、音声データをダウンロードするコマンドを送信するためのハイパーリンク54、歌詞データをダウンロードするコマンドを送信するためのハイパーリンク55、及び、選択した音声データと次に選択する動画データとを合成するためのコマンドを送信するためのハイパーリンク56が表示される。ユーザは動画データとの合成を希望する場合、入力部23を操作してハイパーリンク56をクリックする。
ハイパーリンク56がクリックされた場合、合成するためのコマンドがサーバコンピュータ1へ送信される。図7は動画データの選択画面のイメージを示す説明図である。DB3は、動画IDに対応付けて、動画データの名称、その概要を示す動画データの情報、及び動画データの一フレームを抽出しJPEG(Joint Photographic Experts Group)等の形式により静止画像データとしたイメージデータを記憶している。サーバコンピュータ1のCPU11はDB3から動画データの名称、動画データの情報、動画ID及び動画データのイメージ(サムネイル画像)70を読み出し、携帯電話機2へ送信する。
携帯電話機2のブラウザ251には複数の動画データの情報が表示される。例えば、動画データの名称(以下、動画名という)として「動画1」、が表示され、動画データの内容を示す情報として「キャラクタXXの動画です。」が表示される。また動画ID「M1」が表示されるほか、動画ID「V1」に対応する「動画1」のイメージ(サムネイル画像)70が表示される。なお、サムネイル画像はJPEGに代えてGIF(Graphics Interchange Format)等の動画像としても良い。ユーザは、音声データとの合成を希望する一の動画データを選択する。動画データを選択する場合、各動画データに割り当てられているハイパーリンク57、58、59のいずれかを入力部23から選択する。
ハイパーリンク57には、動画ID「V1」の情報が記述されており、ハイパーリンク58には、動画ID「V2」の情報が記述されており、ハイパーリンク59には、動画ID「V3」の情報が記述されている。CPU21は入力部23からハイパーリンク57、58、59のいずれかが選択された場合、これを受け付け、受け付けたハイパーリンク57、58、59に対応する動画IDをサーバコンピュータ1へ送信する。本例では入力部23からハイパーリンク57がクリックされ、動画ID「V1」がサーバコンピュータ1へ送信されたものとして説明する。
図8は音声データに関連付けられるタグのフォーマットを示す説明図である。動画データ内に音声データが存在する場合、動画データ内には音声データに関連付けられるタグが記述される。音声データに関連付けられるタグは<Define Sound>・・・<Define Sound>及び<Start Sound>・・・<Start Sound>であり、これらのタグ内部には、さらに詳細を定義するためのタグが記述される。<Define Sound>・・・<Define Sound>は音声データの各種詳細及び音声データそのものを記憶するためのタグであり、その内部には、<Sound ID>・・・<Sound ID>、<Sound Format>・・・<Sound Format>、<Sound Rate>・・・<Sound Rate>、及び、<Sound Data>・・・<Sound Data>等が記述されている。タグ内の音声データを含む各種データはバイナリデータにより記述されている。
タグ<Sound ID>・・・<Sound ID>は音声データを特定するための固有の音声IDを記述するための領域である。タグ<Sound Format>・・・<Sound Format>は、音声データのフォーマットを記述する領域である。例えば、音声データのフォーマットとして、mmf、mld、MP3(MPEG 1 Audio Layer 3)、またはwav(WAVE)等の種類が記述されている。タグ<Sound Rate>・・・<Sound Rate>は、音声データのサンプリングレートを記述するための領域であり、例えば44.1kHz等の情報が記述されている。タグ<Sound Data>・・・<Sound Data>はバイナリデータである音声データそのものを記憶する領域である。図8に示すように<Sound Data>・・・<Sound Data>内には音声データが記憶されている。
一方、タグ<Start Sound>・・・<Start Sound>は、音声データと動画データとの同期に関する情報に関連付けられるタグ(同期情報タグ)であり、タグ<Sound ID>・・・<Sound ID>及び<Sound Style Information>・・・<Sound Style Information>等を含んで構成される。タグ<Sound ID>・・・<Sound ID>は音声データを特定するための固有の音声IDを記述するための領域であり、タグ<Define Sound>・・・<Define Sound>内のタグ<Sound ID>・・・<Sound ID>内に記述された音声IDと同一のものが記述される。
また、<Sound Style Information>・・・<Sound Style Information>内には音声データと動画データとの同期に関する情報が記述される。この情報は例えば、動画データの再生と同時に音声データの再生を開始するコマンド、音声データと動画データとを同時に再生し、音声データの再生中に動画データの再生が終了した場合、動画データを最初から再生するコマンド、及び、音声データと動画データとを同時に再生し、動画データの再生中に音声データの再生が終了した場合、音声データを最初から再生するコマンド等である。以下ではこれらのコマンドを同期データといい、本実施の形態においては音声データと動画データとを同時に再生し、音声データの再生中に動画データの再生が終了した場合、動画データを最初から再生するコマンドであるものとして説明する。なお、この基本となる同期データは予め記憶部15に記憶されている。
動画DB31に記憶された動画データは、音声データを含むものと、含まない無音声のものとが存在する。音声データを含む場合は図8に示したタグ<Define Sound>・・・<Define Sound>内に音声データ及びこれに関連する情報が記憶され、またタグ<Start Sound>・・・<Start Sound>内には同期データ及びこれに関連する情報が記憶される。一方、音声データを含まない無音声の動画データは、タグ<Define Sound>・・・<Define Sound>及びタグ<Start Sound>・・・<Start Sound>が存在しない。
図9は無音声の動画データに音声データを合成する際のイメージを示す説明図である。図9Aは無音声の動画データのデータ構造を示し、図9Bは音声データを合成した後の動画データのデータ構造を示す説明図である。図9Aに示すように、無音声の動画データにはタグ<Define Sound>・・・<Define Sound>及びタグ<Start Sound>・・・<Start Sound>が存在しない。任意の<タグ1>、<タグ2>及び<タグ3>の次に、動画データ及び動画データのフォーマット等を記述するタグ<Define Movie>・・・<Define Movie>が記述される。CPU11は図9Aに示すデータ中のタグに、タグ<Define Sound>・・・<Define Sound>またはタグ<Start Sound>・・・<Start Sound>が存在するか否かを判断する。存在しない場合は、ユーザが選択した音声データを新たに記述する処理を行う。
ユーザが選択した音声データを合成する場合、CPU11は<タグ1>の前にタグ<Define Sound>・・・<Define Sound>、並びに、その内部のタグ<Sound ID>・・・<Sound ID>及びタグ<Sound Data>・・・<Sound Data>等を記述する。なお、タグ<Sound Format>等の記載は省略している。そして、CPU11は音声DB32から選択された音声データ及び音声IDを読み出し、タグ<Sound ID>・・・<Sound ID>内に読み出した音声IDを記述し、タグ<Sound Data>・・・<Sound Data>内に読み出した音声データを記述する。
さらにCPU11はタグ<Start Sound>・・・<Start Sound>、並びに、その内部のタグ<Sound ID>・・・<Sound ID>及びタグ<Sound Style Information>・・・<Sound Style Information>を記述する。CPU11はタグ<Sound ID>・・・<Sound ID>内に音声DB32から読み出した音声IDを記述する。また、タグ<Sound Style Information>・・・<Sound Style Information>内に記憶部15から読み出した同期データを記述する。なお、この同期データは予め一つの種類に決めておけばよい。このようにして合成された音声データを含む合成データは記憶部15に記憶され、適宜のタイミングで携帯電話機2へ送信される。
図10は音声データを含む動画データの音声データを書き換える際のイメージを示す説明図である。図10Aは音声データを含む動画データのデータ構造を示し、図10Bは音声データを書き換えて合成した後の動画データのデータ構造を示す説明図である。図10Aに示すように、動画データには予め音声データに関連付けられるタグ<Define Sound>・・・<Define Sound>及びタグ<Start Sound>・・・<Start Sound>が存在し、その内部には音声データ、同期データ及びこれらに関連する情報が記述されている。タグ<Define Sound>・・・<Define Sound>内には、タグ<Sound ID>・・・<Sound ID>及びタグ<Sound Data>・・・<Sound Data>等が記述されており、それぞれの内部には、元の動画データに予め付随する音声データに係る音声ID及び当該音声データが記述されている。
任意のタグ<タグ1>及び<タグ2>の次には同期に係るタグ<Start Sound>・・・<Start Sound>が記述されている。その内部には、タグ<Sound ID>・・・<Sound ID>及びタグ<Sound Style Information>・・・<Sound Style Information>が記述され、それぞれ元の動画データに付随する音声データの音声ID及び同期データが記述されている。任意の<タグ3>の次には動画データに係るタグ<Define Movie>・・・<Define Movie>が記述されその内部には元の動画データが記述されている。
CPU11はユーザが選択した動画データを動画DB31から読み出し、図10Aに示すデータ中のタグに、タグ<Define Sound>・・・<Define Sound>またはタグ<Start Sound>・・・<Start Sound>が存在するか否かを判断する。存在する場合は、予め記述されている音声データを削除し、ユーザが選択した音声データに書き換える処理を行う。CPU11は選択された音声データ及び音声IDを音声DB32から読み出す。CPU11は、タグ<Define Sound>・・・<Define Sound>中のタグ<Sound ID>・・・<Sound ID>に予め記述された音声IDを削除し、読み出した音声IDを新たに記述する。同様に<Sound Data>・・・<Sound Data>内に予め記述されている音声データを削除し、新たに読み出した音声データを記述する。なお、音声データのフォーマット及びサンプリングレート等の記述は書き換え前後で同一の場合は書き換える必要がなく、相違する場合に適宜書き換えるようにすればよい。
さらに、CPU11はタグ<Start Sound>・・・<Start Sound>中のタグ<Sound ID>・・・<Sound ID>内に予め記述された音声IDを削除し、読み出した音声IDを記述する。CPU11は<Start Sound>・・・<Start Sound>中の<Sound Style Information>・・・<Sound Style Information>内に予め記述された同期データを削除し、記憶部15に予め記憶した同期データを新たに記述する。このようにして新たな音声データに書き換えられた音声データを含む動画データは記憶部15に記憶され、適宜のタイミングで携帯電話機2へ送信される。
以上のハードウェア構成において一連の処理手順を、フローチャートを用いて説明する。図11及び図12は動画データ及び音声データの選択及び送信処理の手順を示すフローチャートである。ユーザはサービスを利用するために入力部23を通じてユーザID及びパスワードを入力する。携帯電話機2のCPU21は入力されたユーザID及びパスワードを受け付け、受け付けたユーザID及びパスワードを、通信部26を介してサーバコンピュータ1へ送信する(ステップS111)。なお、ユーザID及びパスワードを入力させる代わりに、携帯電話機2内部に格納されたICカード内に記憶された固有の識別番号等を用いるようにしても良い。
サーバコンピュータ1は送信されたユーザID及びパスワードを、通信部16を介して受信する。CPU11は受信したユーザID及びパスワードが記憶部15に予め記憶したユーザID及びパスワードと一致するか否かを判断する(ステップS112)。CPU11は一致しないと判断した場合(ステップS112でNO)、不正なアクセスであるとして処理を終了する。一方、一致すると判断した場合(ステップS112でYES)、DB3から複数の音声データに対応する曲名、歌手及び音声IDを読み出す(ステップS113)。そしてこれらの情報を書き込んだ音声データに係る選択画面を生成し、携帯電話機2へ送信する(ステップS114)。
携帯電話機2のCPU21は選択画面を受信し、図5に示す如くそれぞれの曲名、歌手及び音声IDをブラウザ251に表示する(ステップS115)。ユーザは合成を希望する一の音声データを、入力部23を通じて選択する。CPU11は入力部23から入力されたハイパーリンク51、52または53に対応する一の曲名を受け付け(ステップS116)、ハイパーリンク51、52または53に記述された対応する音声IDをサーバコンピュータ1へ送信する(ステップS117)。
サーバコンピュータ1のCPU11は送信された音声IDを受信し(ステップS118)、記憶部15に記憶する(ステップS119)。CPU11は選択された音声IDに対応する曲名及び歌手、並びに、動画データと対応する音声データとを合成させる合成指示等が記述された合成指示画面を生成し、携帯電話機2へ送信する(ステップS121)。携帯電話機2のCPU21は送信された合成指示画面を受信しブラウザ251に図6の如く合成指示画面を表示する(ステップS122)。
ユーザは合成を希望する場合、入力部23を通じて合成指示のコマンドが記述されたハイパーリンク56をクリックする。CPU21は入力部23から入力されたハイパーリンク56に係る操作信号に基づく合成指示を受け付け(ステップS123)、受け付けた合成指示をサーバコンピュータ1へ送信する(ステップS124)。サーバコンピュータ1のCPU11は送信された合成指示を受信する(ステップS125)。CPU11はDB3から複数の動画名、動画の情報、動画ID及びイメージを読み出し(ステップS126)、これらをHTML形式で記述した動画データの選択画面を生成する。CPU11は生成した動画データの選択画面を携帯電話機2へ送信する(ステップS127)。
携帯電話機2のCPU21は動画データの選択画面を受信し、図7に示す如くそれぞれの動画名、動画の情報、動画ID及びイメージをブラウザ251に表示する(ステップS128)。ユーザは合成を希望する一の動画データを、入力部23を通じて選択する。CPU21は入力部23から入力されたハイパーリンク57、58または59に対応する一の動画名を受け付け(ステップS129)、ハイパーリンク57、58または59に記述された対応する動画IDをサーバコンピュータ1へ送信する(ステップS1210)。
サーバコンピュータ1のCPU11は送信された動画IDを受信し(ステップS1211)、記憶部15に動画IDを記憶する。CPU11はステップS119で記憶した音声ID及び動画IDを読み出し、対応する音声データ及び動画データを音声DB32及び動画DB31からそれぞれ読み出す(ステップS1212)。CPU11は読み出した音声データと動画データとを合成する処理を行う(ステップS1213)。なお合成処理の詳細は後述する。CPU11は合成した音声データを含む動画データを、通信部16を介して携帯電話機2へ送信する(ステップS1214)。携帯電話機2の通信部26は送信された音声データを含む動画データを受信し、CPU21は受信した音声データを含む動画データを記憶部25に記憶する。なお、ステップS1213において合成した音声データを含む動画データは記憶部15に所定期間内記憶しておいても良い。
CPU21は、再生アプリケーション252を起動し、音声データ及び動画データを再生する(ステップS1215)。具体的には、CPU11はタグ<Define Sound>・・・<Define Sound>内のタグ<Sound Data>・・・<Sound Data>から音声データを読み出しRAM22上に展開する。またCPU11はタグ<Define Movie>・・・<Define Movie>から動画データを読み出しRAM22上に展開する。そして、タグ<Start Sound>・・・<Start Sound>内の<Sound Style Information>・・・<Sound Style Information>に記述された同期データを読み出し、この同期データに従って、RAM22上に展開した音声データ及び動画データを再生する。動画データは表示部24に表示され、音声データはスピーカ29から出力される。
図13は合成処理の詳細な手順を示すフローチャートである。CPU11はステップS1212で読み出した動画データ内に音声データに関連付けられるタグが存在するか否かを判断する(ステップS131)。CPU11は音声データに関連付けられるタグが存在しないと判断した場合(ステップS131でNO)、無音声の動画データであるとして、音声データに関連付けられるタグを記述する(ステップS132)。そしてCPU11はステップS1212で読み出した音声データを、音声データに関連付けられるタグ内に記述する(ステップS133)。
また、CPU11は音声データに関連付けられるタグ内にステップS1212で読み出した音声データに対応する音声IDを記述する(ステップS134)。具体的には上述したタグ<Define Sound>・・・<Define Sound>内の、タグ<Sound ID>・・・<Sound ID>に音声IDを、タグ<Sound Data>・・・<Sound Data>内に音声データを記述する。CPU11はさらに同期情報タグを記述し(ステップS135)、同期情報タグ内に同期データを記述する(ステップS136)。CPU11は同期情報タグ内に音声IDを記述する(ステップS137)。具体的には、同期情報タグであるタグ<Start Sound>・・・<Start Sound>中のタグ<Sound ID>・・・<Sound ID>内に音声IDを記述し、タグ<Sound Style Information>・・・<Sound Style Information>内に同期データを記述する。
一方、ステップS131においてCPU11は、動画データ内に音声データに関連付けられるタグが存在すると判断した場合(ステップS131でYES)、音声データに関連付けられるタグ内に記述されている音声データを削除する(ステップS138)。同様に、CPU11は音声データに関連付けられるタグ内に記述されている音声IDを削除する(ステップS139)。そしてCPU11は音声データに関連付けられるタグ内にステップS1212で読み出した音声データを記述し(ステップS1310)、さらに当該音声データに対応する音声IDを記述する(ステップS1311)。具体的には、CPU11は、タグ<Define Sound>・・・<Define Sound>中のタグ<Sound ID>・・・<Sound ID>に予め記述された音声IDを削除し、読み出した音声IDを新たに記述する。またタグ<Sound Data>・・・<Sound Data>内に予め記述されている音声データを削除し、新たに読み出した音声データを記述する。
CPU11は同期情報タグ内に予め記述された同期データを削除し、記憶部15から読み出した新たな同期データを記述する(ステップS1312)。最後に、CPU11は同期情報タグ内に予め記述された音声IDを削除し、読み出した音声データに対応する音声IDを同期情報タグ内に記述する(ステップS1313)。具体的には、同期情報タグであるタグ<Start Sound>・・・<Start Sound>中のタグ<Sound ID>・・・<Sound ID>内に記述された音声IDを削除し、新たな音声IDを記述し、タグ<Sound Style Information>・・・<Sound Style Information>内に記述された同期データを削除し、読み出した新たな同期データを記述する。
実施の形態2
実施の形態2は同一組み合わせに係るリクエストが同一携帯電話機2からあった場合に、所定期間内課金を行わない形態に関する。図14はサーバコンピュータ1のハードウェア構成を示すブロック図である。実施の形態1の構成に加えて、履歴DB151及び課金DB152が新たに記憶部15に記憶されている。また時計部18は日時情報をCPU11へ出力する。
図15は履歴DB151のレコードレイアウトを示す説明図である。履歴DB151は特定情報フィールド、音声IDフィールド、動画IDフィールド及び受信日時フィールドを含んで構成される。特定情報は携帯電話機2を特定するための固有の識別情報であり、例えば、携帯電話機2内部の図示しないICカードに記憶された固有の番号、電子メールアドレス、電話番号またはMAC(Media Access Control)アドレス等が利用される。この特定情報に対応付けてユーザが合成を希望した音声ID、動画ID及び合成のリクエストを受信した受信日時を記憶している。
音声IDフィールドには、ユーザが選択した音声データに係る音声IDが特定情報に対応付けて記憶され、同様に、動画IDフィールドには、ユーザが選択した動画データに係る動画IDが特定情報に対応付けて記憶されている。CPU11は、ステップS118において特定情報に対応付けて送信される音声IDを履歴DB151に記憶し、ステップS1211において特定情報に対応付けて送信される動画IDを履歴DB151に、特定情報に対応付けて記憶する。受信日時フィールドは合成処理のリクエストをCPU11が受け付けた日時の情報を記憶しており、時計部18からの出力に基づき日時を特定情報、音声ID及び動画IDに対応付けて記憶する。具体的には、音声ID及び動画ID双方を受信したステップS1211の時点、または、ステップS1213にて合成処理が完了した日時でも良い。
図15に示すように、例えば特定情報「001」の携帯電話機2からは、2007年1月10日18時20分15秒に音声ID「M1」及び動画ID「V1」の合成処理のリクエストがあったことが理解できる。またその4日後の2007年1月14日1時22分53秒に、特定情報「001」の携帯電話機2から、音声ID「M2」及び動画ID「V1」の合成処理のリクエストがあったことが記憶されている。この場合、4日前とは音声IDが相違するので、同じ組み合わせのリクエストではない。さらにその翌日2007年1月15日11時22分15秒に、特定情報「001」の携帯電話機2から、再び音声ID「M1」及び動画ID「V1」の合成処理のリクエストがあったことが記憶されている。これは5日前のリクエストと同一の組み合わせである。
図16は課金DB152のレコードレイアウトを示す説明図である。課金DB152は特定情報フィールド及び利用回数フィールドを含んで構成される。利用回数フィールドには、特定情報に対応付けて、音声データ及び動画データの合成処理のリクエストがあった回数を記憶している。CPU11は履歴DB151に新たな履歴が記憶されるたびに、特定情報に対応付けられる課金DB152の利用回数をインクリメントする。ただし、CPU11は所定期間内(例えば1週間内)に、同一の携帯電話機2から同一の音声ID及び動画IDの合成処理のリクエストがあった場合は、インクリメントを行わない。
具体的にはCPU11は履歴DB151に新たなレコードを記憶した場合、特定情報、音声ID及び動画IDがアンド条件で一致するレコードが所定期間内に存在するか否かを判断し、存在しない場合は、特定情報に対応する課金DB152の利用回数をインクリメントする処理を行い、存在する場合は当該処理をスキップする。CPU11は所定期間(例えば1ヶ月)経過後、利用回数に記憶部15に記憶した単価(例えば100円)を乗じて、図示しない金融機関のサーバコンピュータへ通信部16を介して送信する。例えば、2007年1月10日18時20分15秒の音声ID「M1」及び動画ID「V1」の合成処理リクエストの後、2007年1月14日1時22分53秒に、特定情報「001」の携帯電話機2から、音声ID「M2」及び動画ID「V1」の合成処理のリクエストがあった場合は、同一リクエストではないので利用回数が計数される。一方、2007年1月15日11時22分15秒に、特定情報「001」の携帯電話機2から、再び音声ID「M1」及び動画ID「V1」の合成処理のリクエストがあった場合は、5日前と同一携帯端末機2からの同一リクエストであるので、利用回数が計数されない。
図17は履歴記憶処理及び計数処理の手順を示すフローチャートである。携帯電話機2のCPU21はサーバコンピュータ1へアクセスする際、特定情報を送信する(ステップS171)。CPU21は実施の形態1で述べたとおり、音声IDをサーバコンピュータ1へ送信し(ステップS172)、また動画IDをサーバコンピュータ1へ送信する(ステップS173)。サーバコンピュータ1のCPU11は、送信された特定情報、音声ID及び動画IDを受信する(ステップS174)。CPU11は新たなレコードとして、特定情報に対応付けて音声ID、動画ID及び受信日時を、時計部18から出力される日時情報を参照して、履歴DB151に記憶する(ステップS175)。
CPU11は履歴DB151内に記憶されている所定期間内の特定情報、音声ID及び動画IDのレコードを読み出す(ステップS176)。CPU11は読み出した所定期間内の特定情報、音声ID及び動画IDのレコード内に、ステップS175で記憶した特定情報、音声ID及び動画IDの全てが一致するレコードが存在するか否かを判断する(ステップS177)。CPU11は一致するレコードが存在しないと判断した場合(ステップS177でNO)、特定情報に対応する課金DB152の利用回数をインクリメントする(ステップS178)。一方、一致するレコードが存在する場合(ステップS177でYES)、ステップS178の処理をスキップする。
実施の形態3
図18は実施の形態3に係るサーバコンピュータ1の構成を示すブロック図である。実施の形態3に係るサーバコンピュータ1を動作させるためのコンピュータプログラムは、本実施の形態3のように、CD−ROM、MO、またはDVD−ROM等の可搬型記録媒体1Aで提供することも可能である。さらに、コンピュータプログラムを、通信網Nを介して図示しないサーバコンピュータからダウンロードすることも可能である。以下に、その内容を説明する。
図18に示すサーバコンピュータ1の図示しないリーダ/ライタに、音声ID及び動画IDを取り込ませ、タグが存在するかを判断させ、音声データを書き込ませ、音声データを書き換えさせるコンピュータプログラムが記録された可搬型記録媒体1A(CD−ROM、MO又はDVD−ROM等)を、挿入して記憶部15の制御プログラム15P内にこのプログラムをインストールする。または、かかるプログラムを、通信部16を介して外部の図示しないサーバコンピュータからダウンロードし、記憶部15にインストールするようにしても良い。かかるプログラムはRAM12にロードして実行される。これにより、上述のような本発明のサーバコンピュータ1として機能する。なお、当該プログラムをパーソナルコンピュータ等にインストールし、パーソナルコンピュータにて、実施の形態1及び2で述べた音声データと動画データとの合成処理を実行させるようにしても良い。
本実施の形態3は以上の如き構成としてあり、その他の構成及び作用は実施の形態1及び2と同様であるので、対応する部分には同一の参照番号を付してその詳細な説明を省略する。
本発明に係る合成システムの概要を示す模式図である。 サーバコンピュータのハードウェア構成を示すブロック図である。 動画DB及び音声DBのレコードレイアウトを示す説明図である。 携帯電話機のハードウェア構成を示すブロック図である。 音声データを選択する際のイメージを示す説明図である。 合成指示画面のイメージを示す説明図である。 動画データの選択画面のイメージを示す説明図である。 音声データに関連付けられるタグのフォーマットを示す説明図である。 無音声の動画データに音声データを合成する際のイメージを示す説明図である。 音声データを含む動画データの音声データを書き換える際のイメージを示す説明図である。 動画データ及び音声データの選択及び送信処理の手順を示すフローチャートである。 動画データ及び音声データの選択及び送信処理の手順を示すフローチャートである。 合成処理の詳細な手順を示すフローチャートである。 サーバコンピュータのハードウェア構成を示すブロック図である。 履歴DBのレコードレイアウトを示す説明図である。 課金DBのレコードレイアウトを示す説明図である。 履歴記憶処理及び計数処理の手順を示すフローチャートである。 実施の形態3に係るサーバコンピュータの構成を示すブロック図である。
符号の説明
1 サーバコンピュータ
1A 可搬型記録媒体
2 携帯電話機
11 CPU(制御部)
15 記憶部
15P 制御プログラム
16 通信部
18 時計部
21 CPU(制御部)
23 入力部
24 表示部
25 記憶部
25P 制御プログラム
251 ブラウザ
252 再生アプリケーション
26 通信部
28 マイク
29 スピーカ
3 DB
31 動画DB
32 音声DB
151 履歴DB
152 課金DB
N 通信網

Claims (8)

  1. 音声データ及び動画データを合成する合成装置において、
    複数の音声データの識別情報から選択された音声データの識別情報を受け付ける音声受け付け手段と、
    複数の動画データの識別情報から選択された動画データの識別情報を受け付ける動画受け付け手段と、
    該動画受け付け手段により受け付けた識別情報に係る動画データ内に音声データに関連付けられるタグが存在するか否かを判断する判断手段と、
    該判断手段によりタグが存在しないと判断した場合に、該タグを前記動画データ内に書き込み、該タグに関連付けて前記音声受け付け手段により受け付けた識別情報に係る音声データを書き込む書き込み手段と、
    前記判断手段によりタグが存在すると判断した場合に、該タグ内に記述された音声データを削除し、該タグに関連付けて前記音声受け付け手段により受け付けた識別情報に係る音声データを書き込む書き換え手段と
    を備えることを特徴とする合成装置。
  2. 前記判断手段によりタグが存在しないと判断した場合に、前記書き込み手段により前記タグ内に書き込む音声データと前記動画データとの同期に関する情報及び該同期に関する情報に関連付けられる同期情報タグを、前記動画データ内に書き込む手段
    をさらに備えることを特徴とする請求項1に記載の合成装置。
  3. 前記書き込み手段または前記書き換え手段により音声データが書き込まれた動画データを外部へ出力する手段
    を備えることを特徴とする請求項1または2に記載の合成装置。
  4. 携帯端末機に通信網を介して接続される合成装置により音声データ及び動画データを合成する合成システムにおいて、
    前記携帯端末機は、
    複数の音声データの識別情報から選択された音声データの識別情報を受け付ける音声受け付け手段と、
    複数の動画データの識別情報から選択された動画データの識別情報を受け付ける動画受け付け手段と、
    前記音声受け付け手段により受け付けた音声データの識別情報及び前記動画受け付け手段により受け付けた動画データの識別情報を前記合成装置へ送信する手段とを備え、
    前記合成装置は、
    前記携帯端末機から送信された音声データの識別情報及び動画データの識別情報を受信する受信手段と、
    該受信手段により受信した識別情報に係る動画データ内に音声データに関連付けられるタグが存在するか否かを判断する判断手段と、
    該判断手段によりタグが存在しないと判断した場合に、該タグを前記動画データ内に書き込み、該タグに関連付けて前記受信手段により受信した識別情報に係る音声データを書き込む書き込み手段と、
    前記判断手段によりタグが存在すると判断した場合に、該タグ内に記述された音声データを削除し、該タグに関連付けて前記受信手段により受信した識別情報に係る音声データを書き込む書き換え手段と、
    前記書き込み手段または前記書き換え手段により音声データが書き込まれた動画データを前記携帯端末機へ送信する手段と
    を備えることを特徴とする合成システム。
  5. 前記合成装置は、
    前記受信手段により受信した音声データの識別情報及び動画データの識別情報を、携帯端末機を特定するための特定情報に対応付けて記憶部に記憶する手段と、
    前記受信手段により音声データの識別情報及び動画データの識別情報を受信した場合に、利用回数を計数する計数手段と、
    該計数手段により計数した回数を携帯端末機の特定情報に対応付けて記憶するデータベースと
    を備えることを特徴とする請求項4に記載の合成システム。
  6. 前記合成装置は、
    前記受信手段により、携帯端末機から音声データの識別情報及び動画データの識別情報を受信した場合に、前記記憶部に前記携帯端末機の特定情報、前記音声データの識別情報及び動画データの識別情報と一致する情報が記憶されているか否かを判断する記憶判断手段を備え、
    前記計数手段は、
    該記憶判断手段により一致する情報が記憶されていると判断した場合は、利用回数を計数しないよう構成してある
    ことを特徴とする請求項5に記載の合成システム。
  7. 携帯端末機に通信網を介して接続される合成装置により動画データ及び音声データを合成する合成方法において、
    複数の音声データの識別情報から選択された音声データの識別情報を、前記携帯端末機の入力部から受け付ける音声受け付けステップと、
    複数の動画データの識別情報から選択された動画データの識別情報を、前記携帯端末機の入力部から受け付ける動画受け付けステップと、
    前記音声受け付けステップにより受け付けた音声データの識別情報及び前記動画受け付けステップにより受け付けた動画データの識別情報を前記携帯端末機から前記合成装置へ送信するステップと、
    前記携帯端末機から送信された音声データの識別情報及び動画データの識別情報を前記合成装置により受信する受信ステップと、
    該受信ステップにより受信した識別情報に係る動画データ内に音声データに関連付けられるタグが存在するか否かを前記合成装置の制御部により判断する判断ステップと、
    該判断ステップによりタグが存在しないと判断した場合に前記制御部により、該タグを前記動画データ内に書き込み、該タグに関連付けて前記受信ステップにより受信した識別情報に係る音声データを書き込む書き込みステップと、
    前記判断ステップによりタグが存在すると判断した場合に前記制御部により、該タグ内に記述された音声データを削除し、該タグに関連付けて前記受信ステップにより受信した識別情報に係る音声データを書き込む書き換えステップと、
    前記書き込みステップまたは前記書き換えステップにより音声データが書き込まれた動画データを前記合成装置から前記携帯端末機へ送信するステップと
    を備えることを特徴とする合成方法。
  8. 音声データ及び動画データをコンピュータに合成させるためのプログラムにおいて、
    コンピュータに、
    複数の音声データの識別情報から選択された音声データの識別情報及び複数の動画データの識別情報から選択された動画データの識別情報を取り込む取り込みステップと、
    該取り込みステップにより取り込んだ識別情報に係る動画データ内に音声データに関連付けられるタグが存在するか否かをコンピュータの制御部により判断する判断ステップと、
    該判断ステップによりタグが存在しないと判断した場合に前記制御部により、該タグを前記動画データ内に書き込み、該タグに関連付けて前記取り込みステップにより取り込んだ識別情報に係る音声データを書き込む書き込みステップと、
    前記判断ステップによりタグが存在すると判断した場合に前記制御部により、該タグ内に記述された音声データを削除し、該タグに関連付けて前記取り込みステップにより取り込んだ識別情報に係る音声データを書き込む書き換えステップと
    を実行させるためのプログラム。
JP2007052641A 2007-03-02 2007-03-02 合成装置、合成システム、合成方法及びプログラム Expired - Fee Related JP5009650B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007052641A JP5009650B2 (ja) 2007-03-02 2007-03-02 合成装置、合成システム、合成方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007052641A JP5009650B2 (ja) 2007-03-02 2007-03-02 合成装置、合成システム、合成方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2008219345A true JP2008219345A (ja) 2008-09-18
JP5009650B2 JP5009650B2 (ja) 2012-08-22

Family

ID=39838876

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007052641A Expired - Fee Related JP5009650B2 (ja) 2007-03-02 2007-03-02 合成装置、合成システム、合成方法及びプログラム

Country Status (1)

Country Link
JP (1) JP5009650B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7185172B1 (ja) 2022-03-02 2022-12-07 株式会社Mixi 情報処理装置、情報処理方法および情報処理プログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004200811A (ja) * 2002-12-16 2004-07-15 Canon Inc 動画撮影装置
JP2004206643A (ja) * 2002-12-26 2004-07-22 Konica Minolta Holdings Inc 記録装置及び記録プログラム
JP2005062420A (ja) * 2003-08-11 2005-03-10 Nec Corp コンテンツ生成システム、コンテンツ生成方法およびコンテンツ生成プログラム
WO2005039175A1 (ja) * 2003-10-16 2005-04-28 Matsushita Electric Industrial Co., Ltd. 映像音声記録再生装置、映像音声記録方法及び映像音声再生方法
JP2005321639A (ja) * 2004-05-10 2005-11-17 Daiki Sound Kk 音楽コンテンツの配信方法、音楽コンテンツ配信システム及び音楽コンテンツ再生用プログラム
JP2006344107A (ja) * 2005-06-10 2006-12-21 Onkyo Corp コンテンツ配信システムおよびコンテンツ配信方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004200811A (ja) * 2002-12-16 2004-07-15 Canon Inc 動画撮影装置
JP2004206643A (ja) * 2002-12-26 2004-07-22 Konica Minolta Holdings Inc 記録装置及び記録プログラム
JP2005062420A (ja) * 2003-08-11 2005-03-10 Nec Corp コンテンツ生成システム、コンテンツ生成方法およびコンテンツ生成プログラム
WO2005039175A1 (ja) * 2003-10-16 2005-04-28 Matsushita Electric Industrial Co., Ltd. 映像音声記録再生装置、映像音声記録方法及び映像音声再生方法
JP2005321639A (ja) * 2004-05-10 2005-11-17 Daiki Sound Kk 音楽コンテンツの配信方法、音楽コンテンツ配信システム及び音楽コンテンツ再生用プログラム
JP2006344107A (ja) * 2005-06-10 2006-12-21 Onkyo Corp コンテンツ配信システムおよびコンテンツ配信方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7185172B1 (ja) 2022-03-02 2022-12-07 株式会社Mixi 情報処理装置、情報処理方法および情報処理プログラム
JP2023128082A (ja) * 2022-03-02 2023-09-14 株式会社Mixi 情報処理装置、情報処理方法および情報処理プログラム

Also Published As

Publication number Publication date
JP5009650B2 (ja) 2012-08-22

Similar Documents

Publication Publication Date Title
CN104205209B (zh) 回放控制设备、回放控制方法
CN103443759B (zh) 提供媒体文件的不同版本
JP2010250023A (ja) テキスト表示機能付情報処理装置、データ取得方法およびデータ取得プログラム
US7870222B2 (en) Systems and methods for transmitting content being reproduced
JP2005506602A (ja) 文書に注釈をつける方法および装置
JP2007164078A (ja) 楽曲再生装置および楽曲情報配信サーバ
JP2004117618A (ja) 情報処理装置、コンテンツ転送方法、および音楽再生装置
US20110099080A1 (en) Content delivery system and method, content reproduction apparatus and content-providing server, and program for use in the same
JP2001061019A (ja) ダウンロードプログラムによる音楽データ再現システム
JP2002014681A (ja) 情報提供システム
JP2005158015A (ja) データ処理装置、データ処理方法、およびデータ処理プログラム
JPH11283325A (ja) 記録システムおよび記録方法
JP2006252734A (ja) 情報処理装置、情報記録再生システムおよびコンテンツ転送方法
CN111787391A (zh) 一种信息卡片展示方法、装置、设备及存储介质
JP2007058103A (ja) 歌詞ダウンロード機能付き携帯端末装置
KR20060028240A (ko) 음원 편집 방법 및 그 장치
JP5009650B2 (ja) 合成装置、合成システム、合成方法及びプログラム
JP2008523759A (ja) 映像メッセージを合成する方法及びシステム
JP2008052693A (ja) コンテンツ再生方法及び通信端末装置
CN116800988A (zh) 视频生成方法、装置、设备、存储介质和程序产品
JP2009017417A (ja) コンテンツ配信サーバ、コンテンツ配信プログラム、及びコンテンツ配信システム
JP3997763B2 (ja) 電子機器及び電子機器制御プログラム
KR100778016B1 (ko) 멀티미디어 파일 제공 서버의 동작 방법 및 상기 방법을채용한 멀티미디어 파일 제공 서버
JP2009089297A (ja) コンテンツ取得システムおよび携帯端末装置
JP2007299336A (ja) サイト検索方法、サイト検索システム、サーバ装置、端末装置、及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120522

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120531

R150 Certificate of patent or registration of utility model

Ref document number: 5009650

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150608

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees