JP2007087267A - 音声ファイル生成装置、音声ファイル生成方法およびプログラム - Google Patents

音声ファイル生成装置、音声ファイル生成方法およびプログラム Download PDF

Info

Publication number
JP2007087267A
JP2007087267A JP2005277639A JP2005277639A JP2007087267A JP 2007087267 A JP2007087267 A JP 2007087267A JP 2005277639 A JP2005277639 A JP 2005277639A JP 2005277639 A JP2005277639 A JP 2005277639A JP 2007087267 A JP2007087267 A JP 2007087267A
Authority
JP
Japan
Prior art keywords
data
audio file
explanation
article
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005277639A
Other languages
English (en)
Inventor
Masahiro Watanabe
昌洋 渡辺
Aya Okano
紋 岡野
Daisuke Asai
大介 朝井
Yoko Asano
陽子 浅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2005277639A priority Critical patent/JP2007087267A/ja
Publication of JP2007087267A publication Critical patent/JP2007087267A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)

Abstract


【課題】 複雑な構造をしているブログの記事等を音声化する際に、説明音声を聞くことができ、ブログの記事等を音声で聞いたときに、その記事等の判別やその記事の属性を、容易に知ることができる音声ファイル生成装置、音声ファイル生成方法およびプログラムを提供することを目的とする。

【解決手段】 音声として聞きたいデータである再生対象データを説明するデータである説明データを生成し、上記再生対象データと上記説明データとを互いに連続した順番で再生する音声ファイル生成装置である。

【選択図】 図1

Description

本発明は、ウェブコンテンツをはじめとする文字による情報や、音声による情報に対して、その情報の構造を示すデータを解釈し、説明文を生成し、音声ファイルを生成する音声ファイル生成装置に関する。
情報機器の発達に従って、ディジタルデータは、コンピュータ以外の機器において、様々な場所で使われている。アナログデータを使っている機器も、ディジタル化が進んでいる。たとえば、音楽を記録再生する場合、以前はアナログデータを使ったレコードが使用され、近年は、ディジタルデータを使ったコンパクトディスク(CD)が開発され、普及している。
ディジタルデータを使い、各曲がディジタル化されているCDでは、アナログデータを使っているレコードと比較すると、いくつかの利点がある。音質の高品質化という点以外にも、少なくとも1曲を飛ばし易い点や、ランダムに選曲できる点等、アナログのレコードでは実現し難い機能を、ディジタル化されているCDでは、実現することができる。
一方、音楽等の音声ディジタルデータを、PCでも扱うことができ、録音した音を、mp3やwav等の形式を使った音声ファイルに変換することができ、これによって、さらに簡単に扱うことができる。
これらの音声ファイルを、携帯型のCDやハードディスクに保存し、携帯型のハードディスクプレーヤ等の再生装置を使い、屋外で音声ファイルを再生して聞くことが普通になった。さらに、音声合成技術を使えば、テキストファイルを音声ファイルに変換することができる(たとえば、特許文献1、特許文献2参照)。
ところで、インターネットの普及によって、テレビやラジオ等の放送以外でも、様々な情報を得ることができる。インターネットの利用方法のうちの1つに、ウェブコンテンツの閲覧がある。様々なユーザが、ウェブコンテンツを介して、情報を得ている。ウェブコンテンツを表示する装置がブラウザである。全盲のユーザは、ウェブコンテンツ中のテキストデータを、合成音声に変換し、読み上げる音声ブラウザを使用している。音声ブラウザを使えば、ウェブコンテンツを音声で聞くことができる。
音声ブラウザは、全盲のユーザだけでなく、晴眼のユーザにとっても、情報を得るためには、有効な手段である。さらに、ウェブコンテンツを音声に変換し、CDに記録し、音楽のように携帯型の再生装置で聞くことも便利であると考えられる。
特許第2761552号公報 特許第3344487号公報
ウェブコンテンツは、一般に構造が複雑であり、それらを音声化して聞いたときに、理解し難い。特に、最近普及してきたブログコンテンツは、構造が複雑である。上記「ブログ」は、フォーマットの決まったウェブコンテンツであり、日記のウェブページの作成等に使われている。
従来、あまり技術のないウェブコンテンツ製作者にとって、ウェブページを製作することは難しく、自分の持っている情報を発信したくても、製作が大変であるという欠点がある。
しかし、最近では、ブログサービスが普及し、自分の情報を簡単に発信することができる。上記「ブログサービス」は、サービスの運営元のウェブサイト(以下、単に、「ブログサイト」という)上で、本文と写真等とを登録するだけで、HTMLの知識がなくても、所定の決められたフォーマットに従って、ブログサイト上にウェブページを作成することができるサービスである。
図24は、一般的なブログページを示す図である。
ブログサイト内のウェブページ(以下、単に「ブログページ」という)は、図24に示すように、ナビゲーションのための様々なメニュー、たとえば、カレンダー、最近の記事へのリンク、記事とそれに対するコメント等によって構成されている。
このようなブログサイトでは、情報が構造化されている。たとえば、1つのブログサイトには、一般にはブログのタイトルと複数の記事とが含まれている。記事には、記事のタイトルと記事の本文とが含まれている。
このブログの記事を、音声合成技術を使って音声ファイルに変換すると、音声ファイルが生成される。しかし、音声合成してできた音声ファイルについての構造を表わす情報が失われるという問題がある。
すなわち、ブログの記事部分だけを音声ファイルに変換し、その音声ファイルを再生して聞いただけでは、それがどのブログの記事であるのか、作者は誰なのか等という情報(、その元のテキスト文書の情報)が分からなくなるという問題がある。特に、合成音声では、声の種類が数種類に限られているので、楽曲と異なり、音声を聞いただけでは、誰のブログであるかということが分かり難いという問題がある。
また、楽曲である場合、曲名、アーティスト名、作曲者名等、様々な属性を、楽曲ファイルとともに保存することができる。このような複雑な構造を、視覚的に表示する方法が知られている。
つまり、音声ファイルについて考えると、CDやMD、ハードディスクでも、曲名やアーティスト名をディスプレイに表示する。
ブログの構造で、記事と作者等との対応を取るためには、その記事の説明(作者等)を視覚的に表示し、目で見て参照する方法が考えられる。
しかし、音だけで情報を得るユーザ(すなわち、視覚障害者等、音声しか情報を得られないユーザ)にとっては、音声ファイルの説明を視覚的に参照することはできない。さらに、晴眼者であっても、自動車を運転しながら音声ファイルを再生して聞いているユーザを考えると、音声ファイルの説明を表示する方法には大きな問題がある。
本発明は、複雑な構造をしているブログの記事等を音声化する際に、説明音声を聞くことができ、ブログの記事等を音声で聞いたときに、その記事等の判別やその記事の属性を、容易に知ることができる音声ファイル生成装置、音声ファイル生成方法およびプログラムを提供することを目的とする。
また、本発明は、楽曲についての説明を音声で付加し、その説明を音声で伝えることができ、ディスプレイなしの再生装置を実現することができる音声ファイル生成装置、音声ファイル生成方法およびプログラムを提供することを目的とする。
本発明は、音声として聞きたいデータである再生対象データを説明するデータである説明データを生成し、上記再生対象データと上記説明データとを互いに連続した順番で再生する音声ファイル生成装置である。
本発明によれば、複雑な構造をしているブログの記事等を音声化する際に、説明音声を聞くことができるので、その説明音声で聞いたときにも、上記記事等を容易に判別することができ、また、その記事の属性を容易に知ることができるという効果を奏する。
発明を実施するための最良の形態は、以下の実施例である。
図1は、本発明の実施例1である音声ファイル生成装置100を示す図である。
音声ファイル生成装置100は、情報入力部11と、情報出力部12と、情報受信部13と、情報解析部14と、制御部15と、情報蓄積部16と、情報生成部17と、音声ファイル記録部19とを有する。
情報入力部11は、ユーザが所定情報を入力する手段である。
情報出力部12は、エラーメッセージ等を出力するモニタ、スピーカである。
情報受信部13は、ネットワークNWを介して、ウェブサーバWSから、HTML文書やRSSフィード等、ブログに関する情報を受信する。
情報解析部14は、受信したブログの情報を解析する。
制御部15を含む音声ファイル生成装置100の全体は、上記所定のデータの属性を説明する属性説明データを読み出し、記憶装置に記憶する属性説明データ読み出し手段の例であり、また、上記属性説明データに基づいて、説明部分のテキストデータを生成し、記憶装置に記憶する手段の例であり、さらに、上記説明部分のテキストデータを音声合成し、説明用音声ファイルを生成し、記憶装置に記憶する手段の例であり、また、上記所定のデータを示す音声ファイルと、上記説明用音声ファイルとが、隣り合った順番で再生されるように、上記音声ファイルを説明する上記説明用音声ファイルと、上記所定のデータを示す音声ファイルとを出力する出力制御手段の例である。
情報蓄積部16は、同じブログ運営者のブログサイトの複数のHTML文書を比較し、共通の部分を、テンプレートとして蓄積し、また、説明文の雛型を蓄積する。
情報生成部17は、説明文を生成する。
音声ファイル記録部19は、音声ファイルを記録する。
実施例1を、パーソナルコンピュータ(PC)で実現する場合、情報入力部11は、キーボード、マウス等の入力装置に対応し、情報出力部12は、モニタやスピーカに対応し、情報受信部13、情報解析部14、制御部15、情報蓄積部16、情報生成部17、音声ファイル記録部19は、PC本体に対応している。
音声ファイル生成装置100は、ネットワークNWを介して、ウェブサーバWSと通信し、ウェブコンテンツを受信する。CD等の取り外し可能なメディアに記録する際には、音声ファイル記録部19は、CDである。または、PC内のハードディスクに記録する際には、音声ファイル記録部19は、PC内のハードディスクである。または、持ち運び可能なハードディスクプレーヤであってもよい。
実施例1は、説明部分のテキストデータ(再生対象データを説明する説明データ)を生成し、音声合成技術によって音声ファイル化し、この音声ファイルを、上記再生対象データと同一のファイルとし、上記再生対象データと上記音声ファイルとを互いに連続した順番で再生するように保存する実施例である。
ここでは、複雑なウェブコンテンツを代表するものとして、ブログの記事を扱い、このブログの記事を音声ファイル化する方法について説明する。この場合、ブログにおける記事本文、コメント、トラックバックが1つの記事であるとし、同一音声ファイルとして生成する。
なお、上記「トラックバック」は、記事の投稿者であるユーザ1以外のユーザが作ったブログの記事を閲覧できるようにリンクする設定である。
まず、ブログの情報構造について説明する。
ブログの記事は、情報発信したいユーザが文章を書き、時には写真を添えて投稿した記事である。投稿された文章と写真とは、HTMLの雛型を適用し、自動的にウェブページになる。ブログページは、図24に示すように、ブログタイトル、ブログサブタイトル、ユーザ名、記事タイトル、カテゴリ、投稿日時、記事本文、写真等によって構成されている。
記事本文に対して、投稿ユーザ以外のユーザからコメント、トラックバックがあれば、図24に示すブログページと同じブログページに掲載される(図示せず)。
一般に、ブログには、ユーザ1が書いた記事1本文を読んだ他のユーザが、上記記事1本文にコメント投稿できる仕組みが実装されている。
図2は、ブログ全体の構造を示す図である。
図2において、ユーザ1のブログ1は、ブログ種類1に属している。上記「ブログ種類」は、たとえば、gooブログ等、どのブログサービスであるかを示すものである。
同じブログ種類には、複数のユーザが登録されている。各ユーザは、少なくとも1つのブログを公開している。図2に示す例では、ユーザ1は、ブログ1のみを公開しているが、複数公開することも可能である。
ブログ1は、カテゴリ1とカテゴリ2とに分けられている。記事の内容に基づいて、記事を複数のカテゴリに分けることによって、他のユーザが好きな記事を選択することが容易であるようにしている。
カテゴリ1の中には、記事1と記事2とが存在する。これら2つの記事は、同じカテゴリ1の中にあるので、同じような話題である。記事1は、記事1本文と記事1コメント1、記事1コメント2、記事1トラックバック1によって構成されている。
ここで、「記事本文」は、文章と写真等からなり、ユーザが投稿した内容である。コメントやトラックバックは、特定の記事に対するものであるので、記事の一部であると考え、図24に示す構造になる。
図24に示す例では、記事1本文に対して、コメントとトラックバックとは、1つづつであるが、0件であることもあり、また、多数であることもある。このように、ブログは、非常に複雑な階層構造によって構成されている。
ユーザが投稿する単位は、ブログの記事本文単位である。このために、ブログの記事本文毎に、異なる話題が書かれ、投稿日時が、記事本文毎に異なる。
図2に示すブログの記事1に着目して整理すると、ブログ種類、ブログタイトル、ユーザ名、カテゴリ名、投稿日時等、様々な属性を持っている。これらの属性は、記事を説明するデータであるので、「メタデータ」とも呼ばれる。
実施例1では、これらのメタデータの情報を説明する説明音声ファイルを生成する。なお、実施例1では、図2に示すように、記事1は、記事1本文、記事1に対するコメント1(記事1コメント1)、記事1に対するコメント2(記事1コメント2)、記事1に対するトラックバック1(記事1トラックバック1)によって構成されている。つまり、記事本文、コメント、トラックバックを合わせたものが、記事である。したがって、記事本文を音声化する際、記事の本文、コメント、トラックバックをまとめて、1つの文章とした後に、音声化する。
次に、説明音声ファイルを生成する過程について説明する。
図3は、実施例1において、説明音声ファイルを生成する過程を示すフローチャートである。
まず、ウェブサーバWSから、ネットワークNWを介して、HTML文書やRSSフィード等、ブログに関する情報を情報受信部13が受信する(S1)。受信したブログの情報を、情報解析部14が解析する(S2)。
図4は、受信したRSSフィードの例を示す図である。
上記「RSSフィード」は、記事のタイトルや更新日時等が記述されているデータである。なお、「RSS」は、Rich Site Summaryの略である。
データからHTML文書を自動的に生成し、ブログを作るので、そのブログの構造を解析することができる。同じブログ運営者の生成するブログサイトは、自動的に生成されるので、基本的な構造が共通である。したがって、同じブログ運営者のブログサイトの複数のHTML文書を比較し、共通の部分を、テンプレートとして、情報蓄積部16に記録する。共通でない部分が、データ部分である。これらのデータが、記事タイトルであるのか、記事本文であるのか等を、予めテンプレートし、情報蓄積部16に記録すれば、HTML文書が何を表わしているかが分かる。
図5は、情報受信部13が受信したHTML文書の例を示す図である。
たとえば、受信したブログが、図5に示すHTML文書であるとする。予め、その構造を情報蓄積部16に記録し、この記録されているデータに基づいて、受信したブログを情報解析部14が解析する。
図6は、情報解析部14が解析した結果例を示す図である。
つまり、図6に示す「タグ等付加データ(セパレータ)」を、情報蓄積部16に予め記録し、情報解析部14が解析する。
また、ブログに関するデータは、RSSのデータであるRSSフィードで提供されることがあり、RSSフィードでは、さらに解析が容易である。
「RSSフィード」は、上記のように、記事のタイトルや更新日時等が記述されているデータであるので、どこが記事タイトルであるのか等を、容易に判断することができる。たとえば、各ユーザのブログを示すRSSフィードが提供されている。このRSSフィードには、ブログのタイトル、サブタイトル、各記事のURLを示すchannel要素1つと、各記事のタイトルや要約等を示す記事の個数分のitemを示す図である。
titleタグに、記事のタイトル、linkタグに、記事の本文のあるURL、descriptionタグに、記事の要約、dc:subjectタグに、カテゴリ、dc:creatorタグに、ユーザ名、dc:dateタグに、投稿日時が書かれている。
したがって、受信したブログのRSSフィードを解析すれば、記事のメタデータを容易に取得することができる。
図5に示すブログのデータを解析した結果である図6に示す要素番号2がブログタイトルであり、要素番号3が記事タイトルであり、要素番号4が投稿日時であり、要素番号7〜10が記事本文である。
図7は、情報解析部14が解析した結果の例を示す図である。
図7に示すデータを、情報蓄積部16に記録する。
次に、予め記録しておいた説明文の雛型を、情報蓄積部16から読み出す(S3)。
図8は、情報蓄積部16が蓄積されている説明文の雛形の例を示す図である。
この説明文の雛形は、「次の記事は、(A)の、(B)さんのブログで、ブログのタイトルは(C)です。(E)に投稿されたカテゴリ(D)の(F)という記事です。」である。
図9は、情報蓄積部16に蓄積されている説明文の雛形の例を示す図である。
または、図9に示すように、「次にお聞きいただく記事は(E)に投稿された(B)さんの(F)という記事です。」という情報の一部を使って、説明文を構成するようにしてもよい。
続いて、情報生成部17が、説明文を生成する(S4)。図8に示す説明文の(A)〜(F)に、図7に示すデータを挿入すれば、『次にお聞き頂く記事は、「gooブログ」の、「ユーザ1」さんのブログで、ブログのタイトルは「ブログ日記」です。「2005年7月1日13時20分」に投稿されたカテゴリ「Weblog」の「ある夏の日」という記事です。』という説明文を生成することができる。
そして、上記生成された説明文を、情報蓄積部16に記録する(S5)。
図10は、記事本文の直後に再生されるべき説明文の雛形であり、情報蓄積部16に蓄積されている説明文の雛形の例を示す図である。
これらの説明文と記事本文とを音声化し、この音声化された説明文と記事本文とを連続して再生することによって、音声を聞いただけで、記事を理解することができる。
次に、ユーザ1が、複数の記事を投稿した場合について考える。
図2に示す例では、記事は、記事1、記事2、記事3の3つがある。記事本文1に対する説明文である説明文1、記事本文2に対する説明文である説明文2、記事本文3に対する説明文である説明文3を考えると、それぞれの記事本文が対応する説明文と連続して再生されなければ、記事本文の意味を理解することができない。
ここで、説明文は、記事本文の直前に再生されるべき説明文であるとして説明する。たとえば、「説明文2、記事本文1、説明文3、記事本文2、説明文1、記事本文3」の順に再生すると、説明文2が、記事本文1の説明であるとして聞こえるので、内容を誤解する。
聞いた人が内容を誤解せずに理解するためには、記事本文とこの記事本文に対応する説明文とが連続して聞こえるようにする必要があり、このためには、記事本文とこの記事本文に対応する説明文とを、同じ音声ファイルとして音声ファイル化すればよい。
このように、記事本文とこの記事本文に対応する説明文とを同じ音声ファイルとして音声ファイル化するためには、説明文1、記事本文1、説明文2、記事本文2、説明文3、記事本文3の順で、情報蓄積部16から読み出す(S6)。そして、「説明文1、記事本文1、説明文2、記事本文2、説明文3、記事本文3」を、この順番で再生されるように記録することを決定する(S7)。
そして、音声ファイルの記録条件を決定する(S8)。この場合、説明文1、記事本文1、説明文2、記事本文2、説明文3、記事本文3の順番で記録することを決める。
次に,説明文と記事本文とを1つの文章として、情報生成部17が、音声化対象文を生成する(S9)。
そして、音声ファイル生成部18が、音声化対象文を音声合成し、この合成音声を音声ファイル化し(S10)、音声ファイル記録部19に記録する(S11)。記録媒体として、CDかハードディスクかを選択する場合、情報入力部11を介して、ユーザが記録媒体の種類を入力することによって、記録媒体を選択すればよい。または、PC内のハードディスクに蓄積した後に、CDやハードディスクプレーヤに、コピーまたは移動するようにしてもよい。
本発明の実施例2は、説明部分のテキストデータ(説明文)を生成し、音声合成技術によって音声ファイル化し、この説明文の音声ファイルを、再生対象データとは別ファイルとして、保存する実施例である。
ここで、複雑なウェブコンテンツを代表するものとして、ブログの記事を採用し、このブログの記事を、音声ファイル化する方法について説明する。記事本文、コメント、トラックバックを、別々の音声ファイルとして生成する方法について説明する。
次に、実施例2において、説明音声ファイルを生成する過程について説明する。
図11は、実施例2において、説明音声ファイルを生成する過程を示すフローチャートである。
まず、ウェブサーバから、ネットワークを介して、HTML文書やRSSフィード等のブログに関する情報を、情報受信部13が受信する(S21)。受信したブログの情報を、情報解析部14が解析する(S22)。
図12は、情報受信部13が解析した結果を示す図であり、記事本文と、記事本文に対するコメントと、トラックバックとを示す図である。
図12において、A〜Fの欄は、記事1の属性を示す欄である。コメント、トラックバックも、記事1に対するものであるので、これらの欄は、同一の記事についての属性である。投稿日時(E)は、記事本文、コメント、トラックバックが投稿された日時を示す欄である。
種類(I)は、その文章が記事本文であるのか、コメントであるのか、トラックバックであるのかを示す欄である。タイトル(F)は、種類が記事本文であれば、記事本文のタイトルを示し、種類がコメントであれば、コメントのタイトルを示し、種類がトラックバックであれば、トラックバック先の記事のタイトルを示す欄である。
投稿者(H)は、それらの記事本文、コメント、トラックバックの投稿者を示す欄である。ユーザ1が投稿した記事本文に対して、ユーザ2、ユーザ3がコメントを投稿し、ユーザ4がトラックバックを設定したことが示されている。
本文(G)は、種類が記事本文であれば、記事の本文を示し、種類がコメントであれば、コメントの本文を示し、種類がトラックバックであれば、トラックバック先の記事の本文を示す欄である。
実施例2では、記事本文、コメント、トラックバックを、互いに異なる音声ファイルであるとするために、説明文を、それぞれ生成する必要がある。
図13は、情報蓄積部16に蓄積されている説明文の雛形の例を示す図である。
したがって、説明文の雛形を、図13に示すように、3種類用意する必要がある。これらを、図12に示す種類(I)に応じて、使い分ける必要がある。
そこで、解析データを1行読み出し、種類(I)が記事本文であるかどうかを判別する(S23)。記事本文であれば、S26に進み、記事本文用の説明文の雛形を、情報蓄積部16から読み出す(S26)。記事本文でなければ、S24に進む。
S24では、種類(I)がコメントであるかどうかを判別する(S24)。コメントであれば、S27に進み、コメント用の説明文の雛形を、情報蓄積部16から読み出す(S27)。コメントでなければ、S25に進む。
S25では、種類(I)が、トラックバックであるかどうかを判別する(S25)。トラックバックであれば、S28に進み、トラックバック用の説明文の雛形を、情報蓄積部16から読み出す。トラックバックでなければ、S29に進む。
S29では、種類(I)が記事本文、コメント、トラックバックのいずれでもないので、「解析結果に誤りがあります」等というエラーメッセージを、情報出力部12に表示し、処理を終了する(S29)。
続いて、情報生成部17が、説明文を生成する(S30)。
図13に示す説明文の雛形に、図12に示すデータを挿入すれば、説明文を生成することができる。そして、この生成された説明文を情報蓄積部16に記録する(S31)。
図13に示す説明文の雛形は、記事本文の直前に再生されるべき説明文の雛形であり、本実施例2は、記事本文の直前に再生されるべき説明文を生成する実施例であるが、図10に示すように、記事本文の直後に、再生されるべき説明文の雛形を用いてもよい。
以下では、図12のデータにおいて、2行目の記事本文に対する説明文を、「説明文1」と呼び、3行目のコメントを、「コメント1」と呼び、コメント1に対する説明文を、「説明文2」、4行目のコメントを「コメント2」と呼び、コメント2に対する説明文を「説明文3」と呼び、5行目のトラックバックに対する説明文を、「説明文4」と呼ぶ。
まず、説明文、記事本文、コメント、トラックバックを再生する順番を決定する(S32)。
この再生順番を決定する場合、図12に示す解析結果の順番で決定すると分かり易い。
図14は、情報蓄積部16に蓄積されている再生順番データの例を示す図である。
説明文は、記事本文の直前に再生される説明文であるので、この記事本文の直前に挿入すると、図14に示す順番になる。図14に示す順番で再生できるように、音声ファイルを記録すればよい。
そして、図14に示すよう順番で再生されるように、記録の条件を決定する(S33)。たとえば、CDに記録する場合、CDでは、記録された順番に再生される。つまり、CDにおいて、再生の順番は、記録された順番である。そこで、図14に示す順番で、CDに記録すればよい。
また、ハードディスクに記録する場合を考える。ハードディスクに記録されている内容を、図14に示す順番で再生する場合、まず、時間順に再生することが考えられる。この場合、CDと同様に、図14に示す順番でハードディスクに記録すればよい。
また、ファイル名の順番で再生することも考えられる。この場合、ファイル名をアルファベット順や五十音順等で、図14に示す順番になるように、ファイル名をつける。ファイル名で並び替える場合、ファイル名の数字、アルファベット、ひらがなの五十音順、漢字のコード順等が考えられる。
たとえば、記録した時間をファイル名として使用することが考えられる。ファイル名を数字で表し、数字の順番に並べることであり、再生順序を制御する。図14に示す1行目の説明文1が、2005年7月24日13時20分32秒に記録されたと、20050724132032.mp3等というファイル名になる。2行目の記事本文が、その10秒後に記録されると、20050724132042.mp3等というファイル名になり、ファイル名の順番に再生すれば、図14に示す順番に再生することができる。
図15は、情報蓄積部16に蓄積されている再生順番データの例を示す図である。
または、ファイル名として、先頭に数字を付加し、「01ある夏の日の説明文.mp3」等としてもよい。または、ファイル名として、図15に示すように、「ある夏の日の説明文.mp3」等とし、メタデータに順番をつけるようにしてもよい。
または、ファイル名として、図15に示すように、「ある夏の日の説明文.mp3」等とし、メタデータに順番をつけるようにしてもよい。
一般に、CDに記録されているコンテンツをハードディスクに記録し、CDと同じ曲順で再生するためには、メタデータにその順番を記録する。または、ファイル名等で、並び替えができるようにしておく必要がある。図15に示すように、説明文を含めて再生の順番をつけ、メタデータにその順番を記録しておけばよい。
また、mp3形式等のファイルは、そのファイルの示す楽曲のデータ(つまり、メタデータ)を格納することができる。
図16は、情報蓄積部16に蓄積されている楽曲データのメタデータの例を示す図である。
図16に示すように、楽曲データにおけるメタデータの種類は、楽曲に特化したものであり、つまり、アーティスト名、ジャンル、アルバム名、作曲者名、トラック番号等である。このうちで、「トラック番号」は、同じアルバム内の曲について順番に与えられ、再生の順番を決めるものである。
したがって、音声ファイルのメタデータのトラック番号を、図14に示す順に与えるようにしてもよい。また、上記の方法に限らず、再生装置の機能を使って、図14に示す順に再生できるようにすればよい。
S34では、説明文と記事本文等のそれぞれが、音声化対象文であるので、それらの音声化対象文を、情報蓄積部16から読み出す(S34)。
そして、音声ファイル生成部18が、音声化対象文を音声ファイル化し(S35)、音声ファイル記録部19に記録する(S36)。CDに記録するのか、ハードディスクに記録するのかを選択するには、情報入力部11を介して、ユーザが記録媒体の種類を入力し、記録媒体を選択すればよい。
本発明の第3の実施例は、説明部分のテキストデータは、文章数を含めたテキストデータである実施例である。
ここでは、記事本文、コメント、トラックバックのそれぞれを、1つの音声ファイルとして生成する。たとえば、コメントが複数ある場合に、そのうちのいくつ目のコメントであるのかを、説明文で示す。コメントが100個あれば、次に読み上げるコメントが、いくつ目であるのか、全部でいくつあるのか等は、重要な情報である。
また、コメントが複数ある場合、コメントの始まりと終わりとを音声で説明し、このようにすれば、ユーザにとって便利である。同じ記事についてコメントする場合、記事名をその都度、説明するよりも、コメントの始まりであることと終わりであることとを説明すれば、説明が簡素である。
ここでは、始まりと終わりとの両方で、説明するが、どちらか一方だけ、説明するようにしてもよい。
実施例3は、ある階層に着目したときに、その下の階層の数を数え、この数えた下の階層の数を説明する説明文を生成する方法の実施例であり、あるグループの最初と最後とに関する説明文を生成する方法の実施例である。
実施例3では、記事本文、コメント、トラックバックという順番で再生される音声について、記事の始まりであることを示す説明文、記事本文についての説明文、記事本文、記事本文の終わりであることを示す説明文、コメントの始まりであることを示す説明文、コメントの1件目であることを示す説明文、コメント1、コメント2件目であることを示す説明文、コメント2、コメントの終わりであることを示す説明文、トラックバックの始まりであることを示す説明文、トラックバック、トラックバックの終わりであることを示す説明文、記事の終わりであることを示す説明文という順序で、再生されるように、説明文を生成する。
次に、説明音声ファイルを生成する過程について説明する。
図17は、説明音声ファイルを生成する過程を示すフローチャートである。
まず、ウェブサーバWSから、ネットワークNWを介して、HTML文書やRSSフィード等のブログに関する情報を、情報受信部13が受信する(S41)。
受信したブログの情報を、情報解析部14が解析し、記憶装置に記憶する(S42)。
図18は、情報解析部14が解析した結果の例を示す図である。
図18の2行目には、記事本文が記載され、記事本文が1つ存在しているので、個数の欄に「1」が記載され、種類別番号(同一種類のうちで出現した順番)の欄には、「1」が記載されている。
図18の3行目には、コメントが記載され、コメントが2つ存在しているので、その個数の欄には、「2」が記載され、コメントの1つ目であるので、種類別番号の欄には、「1」が記載されている。
図18の4行目には、コメントが記載され、コメントが2つ存在しているので、その個数の欄には、「2」が記載され、コメントの2つ目であるので、種類別番号の欄には、「2」が記載されている。
図18において、コメントの個数の欄をつくるときに、記事本文からコメントに変わったときに、「1」とし、コメント行が出てくる度に、コメントの個数に1を加算し、コメント行から、それ以外の行に代わったときに、コメントの個数の加算を終了し、その数を、図18に追記すればよい。
図18の5行目には、トラックバックが記載され、トラックバックが1つ存在しているので、トラックバックの個数の欄には、「1」が記載され、種類別番号の欄には、「1」が記載されている。
図18には、備考の欄が設けられている。ブログサービス業者が発表している付加情報があれば、その付加情報を、上記備考の欄に分類する。たとえぱ、gooブログのサービスでは、アクセス数の多いものをランキングとして発表している。また、著名人のブログである特設ブログや、業者がお勧めするブログであるピックアップや、ブログサービス業者が作成している公式ブログ等の多くのカテゴリが、ブログサービスのトップページに表示され、それらから選択することによって、記事を選び易くする。
上記ランキング、特設ブログ、ピックアップ、公式ブログ等は、記事やブログの属性であると考えられる。これらの属性は、RSSフィード等によっても提供されている。この付加情報の属性がある記事、ない記事が存在する。そこで、図18に示すようにまとめたが、備考(J)の欄に、内容が記載されていても、記載されていなくてもよい。
図19は、情報蓄積部16に蓄積されている説明文の雛形の例を示す図である。
これらの解析結果に対して、図19に示す説明文の雛形を使う。コメントがいくつあり、そのうちのいくつ目であるかを説明文で示すことができる。たとえば、図18の1行目に示すデータに基づいて、「次はgooブログの、ユーザ1さんのブログで、ブログのタイトルはブログ日記、アクセスランキング1位です。2005年7月1日13時20分に投稿されたカテゴリWeblogのある夏の日という記事です。」という説明文を作ることができる。
以下では、図18の2行目に示す記事本文に対する説明文を、説明文1と呼び、同3行目のコメントを、コメント1と呼び、コメント1に対する説明文を、説明文2と呼び、4行目のコメントを、コメント2と呼び、コメント2に対する説明文を、説明文3と呼び、5行目のトラックバックに対する説明文を、説明文4と呼ぶ。
また、記事の始まりと記事の終わりとを示す説明文を、それぞれ、記事開始説明文、記事終了説明文と呼ぶ。
図20は、情報蓄積部16に蓄積され、生成された説明文の例を示す図である。
なお、実施例3では、記事の開始と終了とに、説明文を加えているが、ブログの開始と終了、コメントの開始と終了、トラックバックの開始と終了等、所定の単位の開始と終了を説明する説明文を、つけることが有効である。
実施例3でも、図18に示すように、コメントが2つあるので、コメントの開始の説明文を付加し、その中に「全コメントは2件です」等という説明文を加えるようにしてもよい。このようにすれば、全体でどれくらいの数のコメントが読み上げられようとしているのかがわかる。
次に、図18に示す種類(I)別に、音声ファイルと作る。
CD等では、音声ファイル単位で、聞き飛ばしや聞き直しが可能であるので、複数のコメントがある場合、同じファイルとして記録すれば、コメントを聞いている途中で、コメントを聞き飛ばすことができる。
次に、その過程について説明する。
まず、解析データを1行読み出し、その種類(I)が、記事本文であるかどうかを判別する(S43)。記事本文であれば、S46に進み、記事本文用の説明文の雛形を、情報蓄積部16から読み出す(S46)。記事本文でなければ、S44に進み、種類(I)が、コメントであるかどうかを判別する(S44)。
コメントであれば、S47に進み、コメント用の説明文の雛形を、情報蓄積部16から読み出す(S47)。コメントでなければ、S45に進む。S45において、種類(I)が、全てトラックバックであるかどうかを判別する(S45)。
トラックバックであれば、S48に進み、トラックバック用の説明文の雛形を、情報蓄積部16から読み出す(S48)。トラックバックでなければ、S49に進む。S49では、種類(I)が、記事本文、コメント、トラックバックのいずれでもないので、「解析結果に誤りがあります」等というエラーメッセージを、情報出力部12に表示し、処理を終了する(S49)。
続いて、情報生成部17で説明文を生成する(S50)。図19に示す説明文の雛形に、図18に示すデータを挿入すれば、説明文を生成することができる。そして、この生成された説明文を、情報蓄積部16に記録する(S51)。
再生されるべき説明文の雛形を、図10に示すように、記事本文の直後に用いるようにしてもよい。
そして、説明文、記事本文、コメント、トラックバックを再生する順番を決定する(S52)。再生する順番は、図18に示す解析結果の順番に再生すると分かり易い。さらに、説明文は、記事本文の直前に再生される説明文であるので、その直前に挿入すると、図20に示す順番になる。図20に示す順番で再生できるように、音声ファイルを記録すればよい。
次に、図20に示す順番で再生されるように、記録の条件を決定する(S53)。CDでは、記録された順番に再生されるので、CDにおいて再生の順番を決める要素は、記録の順番である。そこで、図20に示す順番に、CDに記録すればよい。
また、ハードディスクに記録する場合、実施例1のように、図20に示す順番に再生されるように、ハードディスクに記録すればよい。つまり、ファイル名が、図20に示す順番に並び替えられるように、ハードディスクに記録すればよい。または、メタデータに順番を記録すればよい。
さて、説明文と記事本文等のそれぞれが、音声化対象文であるので、それらの音声化対象文を、情報蓄積部16から読み出し(S54)、音声化対象文を生成する(S55)。ただし、実施例3では、説明文と記事本文とを、同一ファイルに記録し、また、複数存在しているコメントを、1つのファイルに記録する。よって、生成されるファイルは、図20に示す順番で再生すると、番号1〜3、4〜7、8〜10の3つの音声化対象文ができる。
そして、音声ファイル生成部18が、音声化対象文を音声ファイル化し(S56)、音声ファイル記録部19に記録する(S57)。CDに記録するのか、ハードディスクに記録するのかを選択する場合、情報入力部11を介して、ユーザが入力し、選択する。
実施例3は、ある階層に着目したときに、その階層の下の階層の数を数え、説明文を生成する実施例である。実施例3では、記事本文1つに対して、コメントとトラックバックとが複数あるので、コメントとトラックバックとの数を数え、説明文を生成する。記事の1つ上の階層(すなわち、ブログ)を考えると、ブログ1つに対して、記事は複数ある場合、記事の数を数えて説明文を生成するようにしてもよい。
実施例4は、ブログのようなテキストデータに説明を付けるのではなく、音声データに説明を付ける実施例である。
図16に示すように、楽曲が収められているmp3等の形式の音声ファイルには、メタデータが記録されている。実施例4は、mp3等の形式の音声からメタデータを読み込む実施例である。この場合のメタデータの種類は、楽曲に特化したものであり、アーティスト名、ジャンル、アルバム名、作曲者名、トラック番号等である。これらの情報も音声で聞くことができれば便利である。
図21は、実施例4(音声ファイル生成装置)の動作を示すフローチャートである。
まず、楽曲ファイルを読み込み、楽曲に関する情報を、情報受信部13が読み込む(S61)。この読み込んだ楽曲の情報を、情報解析部14が解析する(S62)。
実施例4は、図16に示すように、5曲で構成されているアルバムについての実施例である。図16の1行のデータは、1つの楽曲ファイルに対応している。これら5つの楽曲ファイルを順次読み込み、メタデータを解析し、図16に示す形にまとめる。
次に、予め記録した説明文の雛形を、情報蓄積部16から読み出す(S63)。続いて、情報生成部17が説明文を生成する(S64)。これらの手順は、実施例1における手順と同様である。
そして、これら生成された説明文と楽曲との再生順を決定し(S65)、再生の順番を示すプレイリストを生成する(S66)。
図22は、情報蓄積部16に蓄積されている説明文の雛形の例を示す図である。
図23は、情報蓄積部16に蓄積されているプレイリストの例を示す図である。
図22に示すように、アルバムの開始、終了を示す説明文と、曲の直前での説明文とを生成したので、説明文を含んだ曲順は、図23に示すようになる。
ハードディスクを使った再生機には、プレイリストの曲順に従って再生することができるものがあるので、プレイリストを作れば、S65で決めた順序で再生することができる。
説明文を音声化対象文とし、音声ファイル生成部18が音声ファイルを生成する(S67)。なお、実施例1〜3とは異なり、記事本文にあたる楽曲は、音声ファイルである。したがって、楽曲を音声化する必要はなく、説明文のみが音声化対象文である。
音声、楽曲、プレイリストの各ファイルを、音声ファイル記録部19に記録する(S68)。CDに記録するのか、ハードディスクに記録するのかを選択するには、情報入力部11を介して、ユーザが入力し、選択すればよい。
上記実施例では、複雑な構造をしているブログの記事等を音声化する際に、説明音声を聞くことができるので、音声で聞いたときにも、その記事等の判別やその記事の属性を、容易に知ることができ、ディスプレイ等に表示することなしに、その記事等の属性を知ることができる。
また、上記実施例では、楽曲についても同様に、説明を音声で付加するので、説明を音声で伝えることができ、ディスプレイを具備しない再生装置を実現することができる。
そして、上記実施例では、ディスプレイを具備しない再生装置では、ディスプレイで消費する電力を必要としないので、再生時間の長い再生装置を作ることができる。
つまり、上記実施例は、所定のデータを説明するための音声ファイルを生成する音声ファイル生成装置において、上記所定のデータの属性を説明する属性説明データを読み出し、記憶装置に記憶する属性説明データ読み出し手段と、上記属性説明データに基づいて、説明部分のテキストデータを生成し、記憶装置に記憶する手段と、上記説明部分のテキストデータを音声合成し、説明用音声ファイルを生成し、記憶装置に記憶する手段と、上記所定のデータを示す音声ファイルと、上記所定のデータを説明する説明用音声ファイルとが、隣り合った順番で再生されるように、上記所定のデータを示す音声ファイルと、上記音声ファイルを説明する上記説明用音声ファイルとを出力する出力制御手段とを有することを特徴とする音声ファイル生成装置の例である。
なお、上記実施例における「説明部」は、上記「説明部分のテキストデータ」の一例である。
この場合、上記出力制御手段は、上記所定のデータを示す音声ファイルと、上記所定のデータを説明する説明用音声ファイルとを、同一のファイルとして記録する手段である。また、上記出力制御手段は、記録時刻、ファイル名、メタデータのトラック番号のうちの少なくとも1つに基づいて、上記順番を決め、この決められた順番を記録する手段である。さらに、上記出力制御手段は、再生の順番を示すプレイリストを出力する手段である。
そして、同一のカテゴリに属する少なくとも1つのデータの再生が始まる前と、上記同一のカテゴリに属する少なくとも1つのデータの再生が終わった後とにおいて、上記カテゴリの始まり、または上記カテゴリの終わりを示す説明部分のテキストデータのうちで、少なくとも一方を生成する。また、同一のカテゴリに属するデータの数の情報と、何番目に再生されるかを示す情報とが入っている説明のためのテキストデータを生成する。
なお、上記実施例をプログラムの実施例として把握することができる。つまり、上記実施例は、所定のデータを説明するための音声ファイルを生成するプログラムにおいて、上記所定のデータの属性を説明する属性説明データを読み出し、記憶装置に記憶する属性説明データ読み出し手順と、上記属性説明データに基づいて、説明部分のテキストデータを生成し、記憶装置に記憶する手順と、上記説明部分のテキストデータを音声合成し、説明用音声ファイルを生成し、記憶装置に記憶する手順と、上記所定のデータを示す音声ファイルと、上記所定のデータを説明する説明用音声ファイルとが、隣り合った順番で再生されるように、上記所定のデータを示す音声ファイルと、上記音声ファイルを説明する上記説明用音声ファイルとを出力する出力制御手順とをコンピュータに実行させるプログラムの例である。
さらに、上記実施例は、音声で出力されるデータである再生対象データを、音声で説明するデータである音声説明データを生成する音声説明データ生成手段と、上記再生対象データと、上記再生対象データを説明する上記音声説明データとを互いに連続した順番で再生する再生手段とを有することを特徴とする音声ファイル生成装置の例である。なお、上記「音声で出力されるデータである再生対象データ」は、テキストデータ、または、音声として再生できるデータである。
本発明の実施例1である音声ファイル生成装置100を示す図である。 ブログ全体の構造を示す図である。 実施例1において、説明音声ファイルを生成する過程を示すフローチャートである。 受信したRSSフィードの例を示す図である。 情報受信部13が受信したHTML文書の例を示す図である。 情報解析部14が解析した結果例を示す図である。 情報解析部14が解析した結果の例を示す図である。 情報蓄積部16が蓄積されている説明文の雛形の例を示す図である。 情報蓄積部16に蓄積されている説明文の雛形の例を示す図である。 記事本文の直後に再生されるべき説明文の雛形であり、情報蓄積部16に蓄積されている説明文の雛形の例を示す図である。 実施例2において、説明音声ファイルを生成する過程を示すフローチャートである。 情報受信部13が解析した結果を示す図であり、記事本文と、記事本文に対するコメントと、トラックバックとを示す図である。 情報蓄積部16に蓄積されている説明文の雛形の例を示す図である。 情報蓄積部16に蓄積されている再生順番データの例を示す図である。 情報蓄積部16に蓄積されている再生順番データの例を示す図である。 情報蓄積部16に蓄積されている楽曲データのメタデータの例を示す図である。 説明音声ファイルを生成する過程を示すフローチャートである。 情報解析部14が解析した結果の例を示す図である。 情報蓄積部16に蓄積されている説明文の雛形の例を示す図である。 情報蓄積部16に蓄積されている生成された説明文の例を示す図である。 実施例4(音声ファイル生成装置)の動作を示すフローチャートである。 情報蓄積部16に蓄積されている説明文の雛形の例を示す図である。 情報蓄積部16に蓄積されているプレイリストの例を示す図である。 一般的なブログページを示す図である。
符号の説明
100…音声ファイル生成装置、
11…情報入力部、
12…情報出力部、
13…情報受信部、
14…情報解析部、
15…制御部、
16…情報蓄積部、
17…情報生成部、
18…音声ファイル生成部、
19…音声ファイル記録部、
WS…ウェブサーバ、
NW…ネットワーク。

Claims (9)

  1. 所定のデータを説明するための音声ファイルを生成する音声ファイル生成装置において、
    上記所定のデータの属性を説明する属性説明データを読み出し、記憶装置に記憶する属性説明データ読み出し手段と;
    上記属性説明データに基づいて、説明部分のテキストデータ(実施例の「説明部」と同じ)を生成し、記憶装置に記憶する手段と;
    上記説明部分のテキストデータを音声合成し、説明用音声ファイルを生成し、記憶装置に記憶する手段と;
    上記所定のデータを示す音声ファイルと、上記所定のデータを説明する説明用音声ファイルとが、隣り合った順番で再生されるように、上記所定のデータを示す音声ファイルと、上記音声ファイルを説明する上記説明用音声ファイルとを出力する出力制御手段と;
    を有することを特徴とする音声ファイル生成装置。
  2. 請求項1において、
    上記出力制御手段は、上記所定のデータを示す音声ファイルと、上記所定のデータを説明する説明用音声ファイルとを、同一のファイルとして記録する手段であることを特徴とする音声ファイル生成装置。
  3. 請求項1において、
    上記出力制御手段は、記録時刻、ファイル名、メタデータのトラック番号のうちの少なくとも1つに基づいて、上記順番を決め、この決められた順番を記録する手段であることを特徴とする音声ファイル生成装置。
  4. 請求項1において、
    上記出力制御手段は、再生の順番を示すプレイリストを出力する手段であることを特徴とする音声ファイル生成装置。
  5. 請求項2〜請求項4のいずれか1項において、
    同一のカテゴリに属する少なくとも1つのデータの再生が始まる前と、上記同一のカテゴリに属する少なくとも1つのデータの再生が終わった後とにおいて、上記カテゴリの始まり、または上記カテゴリの終わりを示す説明部分のテキストデータのうちで、少なくとも一方を生成することを特徴とする音声ファイル生成装置。
  6. 請求項2〜請求項4のいずれか1項において、
    同一のカテゴリに属するデータの数の情報と、何番目に再生されるかを示す情報とが入っている説明のためのテキストデータを生成することを特徴とする音声ファイル生成装置。
  7. 所定のデータを説明するための音声ファイルを生成する音声ファイル生成方法において、
    上記所定のデータの属性を説明する属性説明データを読み出し、記憶装置に記憶する属性説明データ読み出し段階と;
    上記属性説明データに基づいて、説明部分のテキストデータを生成し、記憶装置に記憶する段階と;
    上記説明部分のテキストデータを音声合成し、説明用音声ファイルを生成し、記憶装置に記憶する段階と;
    上記所定のデータを示す音声ファイルと、上記所定のデータを説明する説明用音声ファイルとが、隣り合った順番で再生されるように、上記所定のデータを示す音声ファイルと、上記音声ファイルを説明する上記説明用音声ファイルとを出力する出力制御段階と;
    を有することを特徴とする音声ファイル生成方法。
  8. 所定のデータを説明するための音声ファイルを生成するプログラムにおいて、
    上記所定のデータの属性を説明する属性説明データを読み出し、記憶装置に記憶する属性説明データ読み出し手順と;
    上記属性説明データに基づいて、説明部分のテキストデータを生成し、記憶装置に記憶する手順と;
    上記説明部分のテキストデータを音声合成し、説明用音声ファイルを生成し、記憶装置に記憶する手順と;
    上記所定のデータを示す音声ファイルと、上記所定のデータを説明する説明用音声ファイルとが、隣り合った順番で再生されるように、上記所定のデータを示す音声ファイルと、上記音声ファイルを説明する上記説明用音声ファイルとを出力する出力制御手順と;
    をコンピュータに実行させるプログラム。
  9. 音声で出力されるデータである再生対象データを、音声で説明するデータである音声説明データを生成する音声説明データ生成手段と;
    上記再生対象データと、上記再生対象データを説明する上記音声説明データとを互いに連続した順番で再生する再生手段と;
    を有することを特徴とする音声ファイル生成装置。
JP2005277639A 2005-09-26 2005-09-26 音声ファイル生成装置、音声ファイル生成方法およびプログラム Pending JP2007087267A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005277639A JP2007087267A (ja) 2005-09-26 2005-09-26 音声ファイル生成装置、音声ファイル生成方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005277639A JP2007087267A (ja) 2005-09-26 2005-09-26 音声ファイル生成装置、音声ファイル生成方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2007087267A true JP2007087267A (ja) 2007-04-05

Family

ID=37974164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005277639A Pending JP2007087267A (ja) 2005-09-26 2005-09-26 音声ファイル生成装置、音声ファイル生成方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2007087267A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009265279A (ja) * 2008-04-23 2009-11-12 Sony Ericsson Mobilecommunications Japan Inc 音声合成装置、音声合成方法、音声合成プログラム、携帯情報端末、および音声合成システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11249867A (ja) * 1998-02-27 1999-09-17 Nippon Telegr & Teleph Corp <Ntt> 音声ブラウザシステム
JP2002169750A (ja) * 2000-11-30 2002-06-14 Nec Corp ブラウザ搭載装置
JP2002358194A (ja) * 2001-06-01 2002-12-13 Kaisen Baitai Kenkyusho:Kk 音声情報提供システム、音声情報提供方法及びそのシステムでの処理をコンピュータに行なわせるためのプログラムを格納した記憶媒体
JP2004139274A (ja) * 2002-10-16 2004-05-13 Mitsubishi Electric Engineering Co Ltd コンテンツ変換装置及び情報端末装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11249867A (ja) * 1998-02-27 1999-09-17 Nippon Telegr & Teleph Corp <Ntt> 音声ブラウザシステム
JP2002169750A (ja) * 2000-11-30 2002-06-14 Nec Corp ブラウザ搭載装置
JP2002358194A (ja) * 2001-06-01 2002-12-13 Kaisen Baitai Kenkyusho:Kk 音声情報提供システム、音声情報提供方法及びそのシステムでの処理をコンピュータに行なわせるためのプログラムを格納した記憶媒体
JP2004139274A (ja) * 2002-10-16 2004-05-13 Mitsubishi Electric Engineering Co Ltd コンテンツ変換装置及び情報端末装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009265279A (ja) * 2008-04-23 2009-11-12 Sony Ericsson Mobilecommunications Japan Inc 音声合成装置、音声合成方法、音声合成プログラム、携帯情報端末、および音声合成システム
US9812120B2 (en) 2008-04-23 2017-11-07 Sony Mobile Communications Inc. Speech synthesis apparatus, speech synthesis method, speech synthesis program, portable information terminal, and speech synthesis system
US10720145B2 (en) 2008-04-23 2020-07-21 Sony Corporation Speech synthesis apparatus, speech synthesis method, speech synthesis program, portable information terminal, and speech synthesis system

Similar Documents

Publication Publication Date Title
US7684991B2 (en) Digital audio file search method and apparatus using text-to-speech processing
Rubin et al. Content-based tools for editing audio stories
US7533091B2 (en) Methods, systems, and computer-readable media for generating a suggested list of media items based upon a seed
WO2008001500A1 (fr) Système de génération de contenus audio, système d&#39;échange d&#39;informations, programme, procédé de génération de contenus audio et procédé d&#39;échange d&#39;informations
CA2727547A1 (en) Method and apparatus for generating voice annotations for playlists of digital media
JP2006268100A (ja) プレイリスト生成装置、プレイリスト生成方法、プログラムおよび記録媒体
KR20100005177A (ko) 맞춤형 학습 시스템, 맞춤형 학습 방법, 및 학습기
Dunn et al. Variations2: Retrieving and using music in an academic setting
US20060248105A1 (en) Interactive system for building and sharing databank
JP2007200495A (ja) 音楽再生装置、音楽再生方法及び音楽再生用プログラム
JP2011133882A (ja) 音声付映像合成システム及び音声付映像合成方法
Marsden et al. Tools for searching, annotation and analysis of speech, music, film and video—a survey
CN101925897A (zh) 建议用于与内容数据项同步再现的伴奏乐曲的方法
Holden The definition of the work entity for pieces of recorded sound
JP2007087267A (ja) 音声ファイル生成装置、音声ファイル生成方法およびプログラム
JP2009069449A (ja) オーディオ装置及び曲再生プログラム
Blandford et al. Usability of Musical Digital Libraries: a Multimodal Analysis.
JP2009042265A (ja) デジタルオーディオプレーヤ並びにカラオケ楽曲の選択方法
JP2006313467A (ja) コンテンツ検索装置及びコンテンツ検索方法
Falk et al. A New Take on Cataloging Popular Music Recordings
KR20080066896A (ko) 맞춤형 학습 시스템, 맞춤형 학습 방법, 및 학습기
Mekonnen ETHIO-GROOVE ON THE WORLD STAGE Music, Mobility, Mediation
JP2005141870A (ja) 朗読音声データ編集システム
Mason et al. Music information retrieval in broadcasting: Some visual applications
Fraser CELEBRATING SALUANG: ADVANCING THE ARTS THROUGH THE DIGITAL HUMANITIES

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100319