JP6129977B2 - アノテーション共有方法、アノテーション共有装置及びアノテーション共有プログラム - Google Patents

アノテーション共有方法、アノテーション共有装置及びアノテーション共有プログラム Download PDF

Info

Publication number
JP6129977B2
JP6129977B2 JP2015537527A JP2015537527A JP6129977B2 JP 6129977 B2 JP6129977 B2 JP 6129977B2 JP 2015537527 A JP2015537527 A JP 2015537527A JP 2015537527 A JP2015537527 A JP 2015537527A JP 6129977 B2 JP6129977 B2 JP 6129977B2
Authority
JP
Japan
Prior art keywords
content
annotation
unit
storage unit
information related
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015537527A
Other languages
English (en)
Other versions
JPWO2015040743A1 (ja
Inventor
布目 光生
光生 布目
眞弘 森田
眞弘 森田
由加 黒田
由加 黒田
良彰 水岡
良彰 水岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of JPWO2015040743A1 publication Critical patent/JPWO2015040743A1/ja
Application granted granted Critical
Publication of JP6129977B2 publication Critical patent/JP6129977B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/14Tree-structured documents
    • G06F40/143Markup, e.g. Standard Generalized Markup Language [SGML] or Document Type Definition [DTD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Document Processing Apparatus (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明の実施形態は、アノテーション共有方法、アノテーション共有装置及びアノテーション共有プログラムに関する。
近年、小型端末の普及や性能向上などにより、従来は現実的ではなかった電子書籍の専用端末やコンテンツ配信といったサービスが広がりつつある。また、書籍の電子化に伴い、テキストの閲覧だけでなく、音声合成を連携させた読み上げ機能を備えた端末も提供されている。さらに、視覚障害者や学習障害者を考慮した各種の電子書籍フォーマット(例えばDAISY:Digital Accessible Information System)の普及により、朗読音声データを埋め込んだコンテンツなども徐々に広まりつつある。
一般に、テキストが主体である電子書籍は、固定ページを持たないフロー形式のデータであり、電子書籍中のある場所を指し示すには、本文データを手掛かりとした指定が必要である。しかし、著作権保護やセキュリティ上の理由から、本文データに直接アクセスすることは困難であったり、許可されていない場合が多い。
特表2005−506602号公報 特開2009−70278号公報
つまり、従来は、電子書籍などの本文データに直接アクセスすることが困難であるために、電子書籍中のある位置を指し示してアノテーションを付与し、指し示された位置におけるアノテーションを共有可能にすることができないという問題があった。本発明が解決しようとする課題は、コンテンツ本体を用いることなく、コンテンツ中の指し示された位置におけるアノテーションを共有可能にすることができるアノテーション共有方法、アノテーション共有装置及びアノテーション共有プログラムを提供することである。
実施形態のアノテーション共有方法は、コンテンツ提示部、取得部、位置算出部及び格納部を備えたコンピュータが実行する方法であって、4つの工程を含む。まず、コンテンツ提示部がコンテンツを出力する。次に、コンテンツ提示部が出力したコンテンツに対して位置付けされたアノテーションを取得部が取得する。次に、取得部が取得したアノテーションのコンテンツ中の位置を算出可能になるまで、コンテンツに関連する情報の着目範囲を広げ、取得部が取得したアノテーションのコンテンツ中の位置を、コンテンツ本体を用いることなく、コンテンツにおけるアノテーションの位置特定に利用可能なコンテンツに関連する情報を用いて位置算出部が算出する。次に、位置算出部が算出したコンテンツ中の位置とアノテーションとを対応付けて読出し可能に格納部が格納する。
実施形態にかかるアノテーション共有装置の構成を例示するブロック図。 第1提示部が読込む書籍データ例を示す図。 第1提示部が読込む書籍データに関連付けられた文書メタデータ例を示す図。 アノテーション情報の構成例を示す図表。 実施形態にかかるアノテーション共有装置がアノテーション情報をDBに格納する処理を示すフローチャート。 位置算出部がアノテーションの位置を算出する場合に行う処理を示すフローチャート。 読上げ位置の論理要素を例示する図。 読上げパラメータの論理要素を例示する図。 格納部がDBに格納したデータの具体例を模式的に示す図。 実施形態にかかるアノテーション共有装置がアノテーションを提示する場合に行う処理を示すフローチャート。
以下に添付図面を参照して、実施形態にかかるアノテーション共有装置について説明する。
(実施形態)
図1は、実施形態にかかるアノテーション共有装置1の構成を例示するブロック図である。図1に示すように、アノテーション共有装置1は、アノテーション付与部10、アノテーション出力部12、及びアノテーション格納部20を有する。なお、アノテーション共有装置1は、例えば、汎用のコンピュータ又はクライアントサーバシステムなどによって実現される。即ち、アノテーション共有装置1は、CPU、記憶装置、入出力装置及び通信インターフェイスなどを備えたコンピュータであってもよいし、サーバが記憶する資源を利用するクライアントなどであってもよいし、複数のサーバ及び複数のクライアントを含むものであってもよい。
例えば、アノテーション付与部10及びアノテーション出力部12は、それぞれ別のコンピュータに含まれてもよいし、1つのコンピュータに含まれてもよい。また、アノテーション格納部20は、例えばサーバに含まれ、アノテーション付与部10及びアノテーション出力部12それぞれと通信を行うように構成されてもよい。つまり、アノテーション付与部10、アノテーション出力部12及びアノテーション格納部20は、任意の組合せで組み合わせられて、アノテーション共有プログラムを実行するように構成されてもよい。
アノテーション付与部10は、例えば第1提示部(コンテンツ提示部)100、取得部102及び位置算出部104を有する。第1提示部100は、電子書籍(例えばDAISYフォーマット)などのコンテンツデータを読込み、音声や書誌情報などのアクセス可能な情報を取得し、例えば表示及び音声によってコンテンツをユーザに提示する。例えば、第1提示部100は、図示しない表示装置及びスピーカなどのハードウェアと、CPUが実行するソフトウェアなどによってコンテンツの再生(出力)を行う。
図2は、第1提示部100が読込む書籍データ(コンテンツ本体:本文データ)例を示す図である。書籍データは、例えばテキスト及び音声の構造化のためにXHTMLが使用されている。
図3は、第1提示部100が読込む書籍データに関連付けられた文書メタデータ(書籍関連データ)例を示す図である。書籍関連データは、音声データとテキスト・画像等との同期にSMIL(Synchronized Multimedia Integration Language)が使用されている。また、書籍関連データは、音声フォーマットにMP3が採用されており、音声再生用の定義が記されたナビゲーションファイルとなっている。
ここで、図2に示した書籍データや、図3に示した書籍関連データのテキスト要素に含まれる本文データは、直接アクセスすることが困難なものであるとする。例えば、本文のテキストデータは暗号化され、図2に示したXMLタグ構造は可読であるが、テキスト要素は非可読な(エンコードされた)文字列が挿入されているためにアクセスができないものであるとする。又は、図2に示した書籍データのファイル自体にアクセスができない、若しくは本文のテキストデータを引用して明示的な指定を行うことが許されていないものとする。
一方、図3に示したナビゲーションファイルは、本文データそのものが記載されていないメタデータであるため、アクセス可能な情報であるとする。さらに、ナビゲーションファイルは、書籍データにアクセス可能なAPIなどにより、書籍データに対応する音声データと章節単位の対応付けとを取得可能にされているものとする。
取得部102(図1)は、ユーザによるアノテーション指示入力を取得する。ここで、アノテーション指示入力とは、音声を関連付けられてアノテーション共有装置1に表示されたテキスト(コンテンツ)に対して、例えば入力装置であるペンなどによってユーザが手書きで記号の付加、マーキング、又はペンジェスチャーを特定すること、若しくはアノテーション共有装置1(再生端末)上でコメント挿入のためのボタンを押し下げるなどのアクションを行うことによってアノテーションを特定する入力を指す。また、取得部102は、音声入力からアノテーション指示を取得してもよい。取得部102は、ハードウェアで構成されてもよいし、ソフトウェアで構成されてもよい。
また、アノテーション指示入力によってコンテンツに埋め込まれる(付加される)情報(アノテーション情報)は、例えばコンテンツ中のアノテーションの位置、属性及び値によって構成されるものとする。図4は、アノテーション情報の構成例を示す図表である。例えば、アノテーションは、コンテンツ中のアノテーションの位置を仮に「*」で示すものとすると、後述する手順により、図4に示したアノテーション情報としてコンテンツに関連付けられる。
位置算出部104(図1)は、取得部102が取得したアノテーション指示入力を用いて、各アノテーションがコンテンツ中のどの位置に対して付与されたものであるかを算出して特定する。例えば、位置算出部104は、後述するようにアノテーションの指し示すコンテンツ中の位置を段階的に算定し、最も細かな粒度の情報を位置情報とする。位置算出部104は、ハードウェアで構成されてもよいし、ソフトウェアで構成されてもよい。
アノテーション格納部20は、格納部200及びデータベース(DB)202を有する。格納部200は、コンテンツに対するアノテーションと、コンテンツに関連する情報を用いて位置算出部104が算出したコンテンツ中のアノテーションの位置と、を対応付けて読出し可能にDB202へ格納する。格納部200は、ハードウェアで構成されてもよいし、ソフトウェアで構成されてもよい。DB202は、例えば単一又は複数のHDD(Hard Disk Drive)などによって構成される。そして、格納部200は、読出し可能に格納したコンテンツ中の位置とアノテーションとを読み出す機能を備えていてもよい。
アノテーション出力部12は、第2提示部(アノテーション提示部)120を有する。第2提示部120は、図示しない表示装置及びスピーカなどのハードウェアと、CPUが実行するソフトウェアなどによってアノテーションの提示(出力)を行う。
具体的には、第2提示部120は、コンテンツの提示中(再生中)に、格納したコンテンツ中の位置においてアノテーションを例えば音声等によって提示する。つまり、第2提示部120は、コンテンツに対してアノテーションが付与(関連付け)されていれば、コンテンツ中の付与されている位置においてアノテーションが付与されていることを示したり、同時に値を提示することが可能にされている。よって、自・他ユーザは、付与されているアノテーションをコンテンツの再生と連動させて参照することが可能である。なお、コンテンツの再生は、アノテーション出力部12が行ってもよいし、アノテーション共有装置1がコンテンツを再生するコンテンツ再生部を別途に備えて、コンテンツ再生部が行ってもよい。
なお、例えば書籍のコンテンツの本文テキストを直接アクセスすることによって利用可能である場合には、アノテーションが指し示す位置を、本文文字列を手がかりとして作成したインデックス情報により特定したり、XPath(XMLパス言語)によって直接指定できるため、本実施形態の対象外としてもよい。また、コンテンツに対して外部からは書誌情報や音声データも含めて全くアクセスできない場合には、単純にアノテーションをコンテンツ全体の粒度でしか対応付けることができないため、本実施形態の特別な例に該当する。
一方、フロー形式の電子書籍フォーマットでは、例えば外部から利用可能(アクセス可能)な情報としてタイトルや目次、著者名などの書誌情報や読み上げた音声データなどがある。ただし、電子書籍による音声合成朗読では、通常の映画や動画コンテンツと異なり、再生速度や読み上げ話者、ピッチやテンポなど音声に関するパラメータを変えて再生することが可能であるため、ユーザの再生状況ごとに経過秒数が異なる。つまり、単純にタイムスタンプを手がかりとして、アノテーションを付与することができない場合がある。このような場合にも、本実施形態によってコンテンツにアノテーションを付与し、アノテーションの共有を可能にすることができる。
次に、アノテーション共有装置1の動作について説明する。図5は、アノテーション共有装置1がアノテーション情報をDB202に格納する処理(アノテーション付与)を示すフローチャートである。
ステップ100(S100)において、第1提示部100は、例えば電子書籍のコンテンツデータを読み込む。
ステップ102(S102)において、第1提示部100は、例えばコンテンツの音声を再生する。
ステップ104(S104)において、取得部102は、ユーザによるアノテーション情報が付与されたか否かを判定する。つまり、取得部102は、コンテンツの再生中にユーザがアノテーションを付与したか否かを判定する。取得部102は、ユーザによるアノテーション情報が付与されていないと判定した場合(S104:No)には、S100の処理に進む。つまり、アノテーション情報が付与されていない場合、コンテンツの再生が継続されることとなる。また、取得部102は、ユーザによるアノテーション情報が付与されたと判定した場合(S104:Yes)には、S106の処理に進む。
ステップ106(S106)において、取得部102は、アノテーションの属性と値とを取得する。例えば、アノテーションの属性と値は、図4に示したような種類(属性)と付加情報(値)であり、アノテーション情報を構成する。例えば、ユーザによるアノテーション指示がペン入力である場合には、取得部102は、ペンのストローク情報を取得し、マーキング情報などとして解釈する。また、アノテーション指示は、ペン入力に限られるものではなく、音声再生中のボタン(図示せず)の押し下げや、画面上でメニューから選択して指示を与えるなど、一般的な選択及び確定の指示入力であってもよい。
ステップ108(S108)において、位置算出部104は、アノテーションの位置を算出する。なお、位置算出部104がアノテーションの位置を算出する具体的な処理については、図6等を用いて後述する。
ステップ110(S110)において、格納部200は、アノテーション情報をDB202に格納する。
ステップ112(S112)において、アノテーション共有装置1は、再生しているコンテンツの終端であるか否かを判定する。アノテーション共有装置1は、再生しているコンテンツの終端でないと判定した場合(S112:No)には、S100の処理に進む。また、アノテーション共有装置1は、再生しているコンテンツの終端であると判定した場合(S112:Yes)には、処理を終了する。
図6は、位置算出部104がアノテーションの位置を算出する場合に行う処理を示すフローチャートである。
ステップ200(S200)において、位置算出部104は、コンテンツである書籍に対し、書籍関連データを読み込む。書籍関連データは、例えば音声とテキストコンテンツとが対応付けられたナビゲーションデータである。
ステップ202(S202)において、位置算出部104は、アノテーション共有装置1が現在再生しているコンテンツに対する位置情報で最も細かな論理要素(例えば後述する図9に示したID1〜4のいずれか)を特定する。ここでは、テキスト本文の情報を取得できないものとする。なお、論理要素とは、文書の構造のようにテキストで示されるデータを指すものとする。
ステップ204(S204)において、位置算出部104は、例えば章立て及び図表などの音声以外の近傍の論理要素を特定できるか否かを判定する。位置算出部104は、近傍の論理要素を特定できないと判定した場合(S204:No)には、S206の処理に進む。また、位置算出部104は、近傍の論理要素を特定できると判定した場合(S204:Yes)には、S208の処理に進む。
ステップ206(S206)において、位置算出部104は、着目する論理要素の範囲を広げ、その後にS202の処理に進む。
ステップ208(S208)において、位置算出部104は、近傍の論理要素を検出し、例えばコンテンツ及び論理要素に対するアノテーションの相対位置を保持する。
ステップ210(S210)において、位置算出部104は、音声パラメータの設定情報を取得できるか否かを判定する。なお、音声パラメータとは、音声データや、音声が停止したポーズの回数などのテキストで示されないデータを指すものとする。位置算出部104は、音声パラメータの設定情報を取得できないと判定した場合(S210:No)には、S212の処理に進む。また、位置算出部104は、音声パラメータの設定情報を取得できると判定した場合(S210:Yes)には、S214の処理に進む。
ステップ212(S212)において、位置算出部104は、着目する設定情報の範囲を広げ、その後にS210の処理に進む。
ステップ214(S214)において、位置算出部104は、近傍の音声パラメータ設定を取得する。
ステップ216(S216)において、位置算出部104は、音声パラメータで同じ値が継続する場合は累積継続長を算出し、データの終了まで処理を継続する。
次に、位置算出部104がアノテーションの相対位置を算出して保持(図6参照)するために行う処理を具体的に説明する。位置算出部104は、例えば読上げ位置の近傍の論理要素を手がかりにして、アノテーションの相対位置を算出する。図7は、読上げ位置の論理要素を例示する図である。具体的には、図7は、音声ファイルの開始秒数及び終了秒数と、テキスト領域との対応付けを示すメタデータのテキスト(論理要素)である。
図7に示した例において、現在、id=”xqms_0004”の要素が読上げられていると仮定する。位置算出部104は、例えば章や節など取得可能な文書の論理要素のうち最も細かな単位でカウントした場合の冒頭や末端を検出し、そこからの相対位置を累積時間や論理要素の出現数によって保持する。
例えば、図7に示した例において、位置算出部104は、該当IDを持つ要素が2.357秒から開始されているため、現在の最小の論理要素内(例えば節やパラグラフなど)では、先頭から2.357秒の経過があると判断する。また、位置算出部104は、後続する論理要素を終端とした場合には、要素が9.227秒で終わることから、終端から数えた場合には、相対的な位置の差が9.227秒−2.357秒となり、6.870秒の隔たりがあるとする。また、位置算出部104は、音声にしたコンテンツ中の特徴量が生じた時点からの経過時間又は特徴量が生じるまでの経過時間を用いて、アノテーションのコンテンツ中の位置を算出してもよい。
図8は、読上げパラメータの論理要素を例示する図である。図8において、左側には本文データ(原文)例が示され、右側には本文データ例に対応する書籍関連データ(メタデータ)例が示されている。書籍関連データは、ユーザが後から付与するものであってもよく、位置算出部104が位置算出に利用可能となっている。
ここでは、図8の左側に示したように、本文データの前半にあるパラグラフは女性話者(音声合成辞書名=”Hanako”)による読み上げが指定されており、後半のパラグラフは男性話者(音声合成辞書名=”Kenji”)による読み上げが指定されている。
また、現在の読み上げ位置は、本文データでは最後のパラグラフ「この本をもっと活用する・・・」であるとし、書籍関連データではid=”xqms_0007”が対応しているとする。
図8の右側に示した書籍関連データでは、各idに対して、話者の指定がある。例えば、話者は、id=”xqms_0003”〜”xqms_0004”までは「Hanako」で定義され、それ以降の”xqms_0005”〜”xqms_0007”までは「Kenji」で定義されているものとする。
ここでは、位置算出部104は、話者の変更位置を特定できるので、現在位置から話者の切り替わり地点までの相対位置及び累積時間を算出する。格納部200は、位置算出部104が算出した相対位置及び累積時間をDB202に格納することとなる。
上述したように、位置算出部104は、近傍の論理要素が特定できる場合には、近傍の論理要素を検出して、アノテーションの相対位置を保持する。また、位置算出部104は、近傍の論理要素によってアノテーションの位置を詳細に特定できない場合、着目する論理要素の範囲を広げることにより、現在の着目領域を含むより広範囲な論理要素を近似的に採用する。例えば、位置算出部104は、一般的な書籍の論理構造であれば、行→パラグラフ→節本文→章本文→書籍全体といった順に、相対位置を取得可能な論理要素に拡大していく。
また、位置算出部104は、音声パラメータ(話者以外にも、ピッチやテンポなどの設定値を含む)の設定情報を取得できる場合には、近傍の音声パラメータ設定を取得し、同じ値が継続する場合は累積の継続長を算出する。上述したように、位置算出部104は、音声パラメータについても、相対位置を取得可能になる範囲まで、着目する設定情報の範囲を広げる。
アノテーションの相対位置が算出されると、格納部200は、コンテンツに対するアノテーションと、コンテンツ中のアノテーションの相対位置と、を対応付けて読出し可能にDB202へ格納する。
図9は、格納部200がDB202に格納したデータの具体例を模式的に示す図である。図9に示すように、例えば電子書籍データ中のアノテーション付与先(対象)として、原文と、書籍関連データ<text src=”abc#003” id=”xxx_0003” />とがあるものとする。また、DB202には、コンテンツデータに対し、アノテーションとして「コメント」(「怖いですねぇー」、「ゆとりですねー。」)や、「手書き」のストローク情報(赤で引かれた二重線)の値及び属性がそれぞれ格納されているものとする。
また、このような前提条件において、図9には、アノテーションの相対位置の記述例がいくつか図9中の表に示されている。この表の左端のカラムは、個々の相対位置情報を区別するためのID番号を示している。図9の左側から順に、ID番号の次のカラムには、起点とする参照先が示されている。起点とする参照先は、コンテンツの原文データにアクセスすることなく、外部からアクセス可能なポイントを示したものである。また、次のカラムは、起点とする参照先からの経過秒数である。続くカラムには、話速及び話者が順に定義されている。
図9において、ID=0の場合は、アノテーション共有装置1が直接原文を参照(アクセス)できる場合を例示している。例えば、ID=0は、現在の読み上げ位置が、#xxx_0003(直接文書要素に付与されているid番号)に相当する文書の論理要素であることを示している。
ID=1は、アノテーション共有装置1が章節立て構造を参照できる場合を例示している。この場合、アノテーション共有装置1は、章と節の開始位置として、”第二章 第三節”という単位でアクセスが可能である。例えば、現在の読み上げ位置は、章と節の開始位置から23.45秒経過した位置であることが示されている。さらにこの場合、定義されている話速の変更はなく(デフォルトの0とする)、話者はKenjiであるものとされている。
また、ID=2は、アノテーション共有装置1が章立てと図表やその見出しを示す要素を参照できる場合の定義例である。この場合、アノテーション共有装置1は、起点として”第二章”の他、図表の論理要素、又はその見出しである”fig.2”の位置を利用可能である。例えば、現在の読み上げ位置は、章立てと図表やその見出しの開始位置から3.13秒経過した位置であることが示されている。さらにこの場合、話速は”+3”(速度として3段階早い)に補正されており、話者は”Kenji”である。
また、ID=3は、章立てと音声読み上げ情報を参照できる場合の定義例である。この場合、アノテーション共有装置1は、起点として”第二章”の他、話者の変更が行われた(”kenji”から”Hanako”に変更)位置を利用可能である。例えば、現在の読み上げ位置は、話者の変更が行われた位置から10.3秒経過した位置であることが示されている。さらにこの場合、話速は”−2”(速度として2段階早い)に補正されており、話者は”Kenji”である。つまり、この時の話速が”−2”(速度として2段階遅い)に補正されているほか、現在の話者は”Hanako”である。
また、ID=4の場合もID=3の場合と同様に、章立てと音声読み上げ情報を参照できる場合の定義例である。この場合、アノテーション共有装置1は、起点とする参照先として、”第二章”という大まかな位置情報の他、それを詳細化するための補足情報として、音声上のポーズ(一定時間以上続く無音の空白区間)の出現回数が5回出現した位置から、5.2秒経過した位置を利用可能である。また、話速(の補正)は0(デフォルトの話速)であるとされ、話者は”Hanako”である。
つまり、アノテーション共有装置1は、アノテーションの出現があるたびに、アノテーションが対応付けられた(相対)位置と、アノテーションの属性及び値とをDB202に格納していく。
そして、アノテーション共有装置1は、コンテンツの再生中にアノテーションが出現するたびに格納を行い、コンテンツの終端であれば、処理を終了する。アノテーション共有装置1は、コンテンツがまだ続くようであれば、データを読み込み最初の処理に戻る。
次に、アノテーション共有装置1がアノテーションを提示する場合に行う処理について説明する。図10は、アノテーション共有装置1がアノテーションを提示する場合に行う処理を示すフローチャートである。
ステップ300(S300)において、アノテーション共有装置1は、例えば格納部200がDB202に格納されたアノテーションを読み込む(アノテーションDBを読込む)。
ステップ302(S302)において、アノテーション共有装置1は、コンテンツデータを読込む。ここでは、例えばアノテーションが付与されたものとは別の書籍(同書籍でも同様)を読上げ対象とする。
ステップ304(S304)において、アノテーション共有装置1は、コンテンツの読上げ音声を出力(再生)する。
ステップ306(S306)において、第2提示部120は、コンテンツ中の現在再生している領域にアノテーションが存在するか(付与されているか)否かを判定する。第2提示部120は、アノテーションが存在しないと判定した場合(S306:No)には、S302の処理に進む。また、第2提示部120は、アノテーションが存在すると判定した場合(S306:Yes)には、S308の処理に進む。
ステップ308(S308)において、第2提示部120は、例えば「音声による提示」の指定があるか否かを判定する。第2提示部120は、「音声による提示」の指定がないと判定した場合(S308:No)には、S312の処理に進む。また、第2提示部120は、「音声による提示」の指定があると判定した場合(S308:Yes)には、S310の処理に進む。
ステップ310(S310)において、第2提示部120は、アノテーション情報を音声データに変換する。
ステップ312(S312)において、第2提示部120は、アノテーション情報(又はアノテーション)を出力する。
ステップ314(S314)において、アノテーション共有装置1は、コンテンツの終端であるか否かを判定する。アノテーション共有装置1は、再生しているコンテンツの終端でないと判定した場合(S314:No)には、S302の処理に進む。また、アノテーション共有装置1は、再生しているコンテンツの終端であると判定した場合(S314:Yes)には、処理を終了する。
なお、アノテーション共有装置1は、アノテーションを画面上に明示的に提示してもよいし、音声として本文の読上げ音声に割り込ませて提示してもよい。また、アノテーション共有装置1は、アノテーションの有無のみを提示してもよい。また、アノテーション共有装置1は、ユーザ指示や操作に応じて、さらに詳細な情報(コメントなどの値)を表示又は音声として出力するように構成されてもよい。
また、アノテーション共有装置1は、画面表示を必要としない例えばオーディオブックとしてコンテンツを再生する場合、「音声による提示」の指示に応じて、アノテーションを音声データに変換し、アノテーションに含まれるコメント文字列などを音声合成によって出力してもよい。この場合も、アノテーション共有装置1は、ユーザ指示に応じて、アノテーションの有無を示す効果音やシグナルのみを提示してもよい。
このように、実施形態にかかるアノテーション共有装置によれば、アノテーションのコンテンツ中の位置を、コンテンツに関連する情報を用いて算出するので、コンテンツ本体を用いることなく、コンテンツ中の指し示された位置におけるアノテーションを共有可能にすることができる。また、アノテーション共有装置は、コンテンツの表示だけではなく、朗読音声再生時に再生速度やテンポ、話者などの音声パラメータを変更しても、コンテンツ中の指し示された位置におけるアノテーションを共有可能にすることができる。
本実施形態のアノテーション共有装置で実行されるアノテーション共有プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
また、本実施形態のアノテーション共有装置で実行されるアノテーション共有プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。
また、本発明のいくつかの実施形態を複数の組み合わせによって説明したが、これらの実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規の実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。

Claims (9)

  1. コンテンツ提示部、取得部、位置算出部及び格納部を備えたコンピュータが実行するアノテーション共有方法であって、
    前記コンテンツ提示部がコンテンツを出力する工程と、
    前記コンテンツ提示部が出力した前記コンテンツに対して位置付けされたアノテーションを前記取得部が取得する工程と、
    前記取得部が取得した前記アノテーションの前記コンテンツ中の位置を算出可能になるまで、前記コンテンツに関連する情報の着目範囲を広げ、前記取得部が取得した前記アノテーションの前記コンテンツ中の位置を、前記コンテンツ本体を用いることなく、前記コンテンツにおける前記アノテーションの位置特定に利用可能な前記コンテンツに関連する情報を用いて前記位置算出部が算出する工程と、
    前記位置算出部が算出した前記コンテンツ中の位置と前記アノテーションとを対応付けて読出し可能に前記格納部が格納する工程と、
    を含むアノテーション共有方法。
  2. 前記位置算出部が算出した前記コンテンツ中の位置と前記アノテーションとを対応付けて、前記格納部がネットワークを介してサーバに格納する工程を含む請求項1に記載のアノテーション共有方法。
  3. 前記コンピュータは、アノテーション提示部をさらに備え、
    前記コンテンツ提示部による前記コンテンツの出力中に、前記格納部が格納した前記コンテンツ中の位置において前記アノテーションを前記アノテーション提示部が出力する工程を含む請求項1に記載のアノテーション共有方法。
  4. 前記コンテンツに対する前記アノテーションを、前記取得部が手書き入力又は音声入力から取得する工程を含む請求項1に記載のアノテーション共有方法。
  5. 読出し可能に格納した前記アノテーションの前記コンテンツ中の位置及び前記アノテーションを前記格納部が読み出す工程と、
    前記格納部が読出した前記コンテンツ中の位置において前記アノテーションを音声によって前記アノテーション提示部が出力する工程を含む請求項3に記載のアノテーション共有方法。
  6. コンテンツを出力するコンテンツ提示部と、
    前記コンテンツ提示部が出力した前記コンテンツに対して位置付けされたアノテーションを取得する取得部と、
    前記取得部が取得した前記アノテーションの前記コンテンツ中の位置を算出可能になるまで、前記コンテンツに関連する情報の着目範囲を広げ、前記取得部が取得した前記アノテーションの前記コンテンツ中の位置を、前記コンテンツ本体を用いることなく、前記コンテンツにおける前記アノテーションの位置特定に利用可能な前記コンテンツに関連する情報を用いて算出する位置算出部と、
    前記位置算出部が算出した前記コンテンツ中の位置と前記アノテーションとを対応付けて格納する格納部と、
    を有するアノテーション共有装置。
  7. コンテンツに対して位置付けされたアノテーションと、前記アノテーションの前記コンテンツ中の位置を算出可能になるまで、前記コンテンツに関連する情報の着目範囲が広げられ、前記コンテンツ本体を用いることなく、前記コンテンツにおける前記アノテーションの位置特定に利用可能な前記コンテンツに関連する情報を用いて算出された前記コンテンツ中の前記アノテーションの位置と、を対応付けて読出し可能に格納する格納部と、
    前記コンテンツの出力中に、前記格納部が格納した前記コンテンツ中の位置において前記アノテーションを提示するアノテーション提示部と、
    を有するアノテーション共有装置。
  8. コンテンツを出力するコンテンツ提示部と、
    前記コンテンツ提示部が出力した前記コンテンツに対して位置付けされたアノテーションを取得する取得部と、
    前記取得部が取得した前記アノテーションの前記コンテンツ中の位置を算出可能になるまで、前記コンテンツに関連する情報の着目範囲を広げ、前記取得部が取得した前記アノテーションの前記コンテンツ中の位置を、前記コンテンツ本体を用いることなく、前記コンテンツにおける前記アノテーションの位置特定に利用可能な前記コンテンツに関連する情報を用いて算出する位置算出部と、
    前記コンテンツに対する前記アノテーションと、算出された前記コンテンツ中の前記アノテーションの位置と、を対応付けて読出し可能にサーバへ格納する格納部と、
    前記コンテンツの出力中に、前記格納部が前記サーバへ格納した前記コンテンツ中の位置において前記アノテーションを提示するアノテーション提示部と、
    を有するアノテーション共有装置。
  9. コンテンツを出力するステップと、
    前記コンテンツに対して位置付けされたアノテーションを取得するステップと、
    取得した前記アノテーションの前記コンテンツ中の位置を算出可能になるまで、前記コンテンツに関連する情報の着目範囲を広げるステップと、
    前記アノテーションの前記コンテンツ中の位置を、前記コンテンツ本体を用いることなく、前記コンテンツにおける前記アノテーションの位置特定に利用可能な前記コンテンツに関連する情報を用いて算出するステップと、
    算出した前記コンテンツ中の位置と前記アノテーションとを対応付けて読出し可能に格納するステップと、
    をコンピュータに実行させるためのアノテーション共有プログラム。
JP2015537527A 2013-09-20 2013-09-20 アノテーション共有方法、アノテーション共有装置及びアノテーション共有プログラム Expired - Fee Related JP6129977B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/075499 WO2015040743A1 (ja) 2013-09-20 2013-09-20 アノテーション共有方法、アノテーション共有装置及びアノテーション共有プログラム

Publications (2)

Publication Number Publication Date
JPWO2015040743A1 JPWO2015040743A1 (ja) 2017-03-02
JP6129977B2 true JP6129977B2 (ja) 2017-05-17

Family

ID=52688425

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015537527A Expired - Fee Related JP6129977B2 (ja) 2013-09-20 2013-09-20 アノテーション共有方法、アノテーション共有装置及びアノテーション共有プログラム

Country Status (3)

Country Link
US (1) US10606940B2 (ja)
JP (1) JP6129977B2 (ja)
WO (1) WO2015040743A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10672295B2 (en) * 2017-11-20 2020-06-02 Microsoft Technology Licensing, Llc Accessible metadata in data structures

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7366979B2 (en) 2001-03-09 2008-04-29 Copernicus Investments, Llc Method and apparatus for annotating a document
US7779347B2 (en) * 2005-09-02 2010-08-17 Fourteen40, Inc. Systems and methods for collaboratively annotating electronic documents
US7958444B2 (en) * 2006-06-15 2011-06-07 Xerox Corporation Visualizing document annotations in the context of the source document
JP2009070278A (ja) 2007-09-14 2009-04-02 Toshiba Corp コンテンツ類似性判定装置およびコンテンツ類似性判定方法
JPWO2009122779A1 (ja) 2008-04-03 2011-07-28 日本電気株式会社 テキストデータ処理装置、方法、プログラム
JP2010066949A (ja) 2008-09-10 2010-03-25 Ricoh Co Ltd 情報処理装置、情報処理方法、プログラム、および記録媒体
JP5244547B2 (ja) * 2008-11-10 2013-07-24 株式会社日立ソリューションズ 音声コメント配信共有方法及びシステム
JP5381434B2 (ja) * 2009-07-13 2014-01-08 日本電気株式会社 コンテンツ処理装置
JP5235827B2 (ja) * 2009-09-10 2013-07-10 株式会社エクシング 映像情報配信システム
JP5106608B2 (ja) 2010-09-29 2012-12-26 株式会社東芝 読み上げ支援装置、方法、およびプログラム
TWI488174B (zh) * 2011-06-03 2015-06-11 Apple Inc 自動地建立文字資料與音訊資料間之映射
US10672399B2 (en) 2011-06-03 2020-06-02 Apple Inc. Switching between text data and audio data based on a mapping
US20130031453A1 (en) * 2011-07-28 2013-01-31 Peter Griffiths System for Annotating Documents Served by a Document System without Functional Dependence on the Document System
JP2013072957A (ja) 2011-09-27 2013-04-22 Toshiba Corp 文書読み上げ支援装置、方法及びプログラム
JP5820320B2 (ja) 2012-03-27 2015-11-24 株式会社東芝 情報処理端末及び方法、並びに、情報管理装置及び方法
US9430141B1 (en) * 2014-07-01 2016-08-30 Amazon Technologies, Inc. Adaptive annotations

Also Published As

Publication number Publication date
WO2015040743A1 (ja) 2015-03-26
JPWO2015040743A1 (ja) 2017-03-02
US10606940B2 (en) 2020-03-31
US20160196253A1 (en) 2016-07-07

Similar Documents

Publication Publication Date Title
US9213705B1 (en) Presenting content related to primary audio content
US8548243B2 (en) Information processing device, information processing method, and program
JP5996734B2 (ja) 動画を自動的にアセンブリする方法およびシステム
US8196032B2 (en) Template-based multimedia authoring and sharing
TWI260510B (en) Method of and apparatus for synchronizing interactive contents
JP2005523555A (ja) インタラクティブコンテンツバージョン情報が記録された情報保存媒体、その記録方法及び再生方法
TW200821862A (en) RSS content administration for rendering RSS content on a digital audio player
JP2013072957A (ja) 文書読み上げ支援装置、方法及びプログラム
KR20080019255A (ko) 상호작용 멀티미디어 프리젠테이션을 위한 상태 기초타이밍
TW200849030A (en) System and method of automated video editing
KR20090024969A (ko) 컨텐트에서의 등장 인물간의 관계에 대한 정보 생성 방법및 그 장치
JP2004013823A (ja) コンテンツ配信システム及びプログラム
JP2008242838A (ja) 説明表現付加装置、プログラムおよび説明表現付加方法
JP6603925B1 (ja) 動画編集サーバおよびプログラム
JP5148330B2 (ja) 情報再生装置、情報再生方法および情報再生プログラム
US20060010366A1 (en) Multimedia content generator
JP2006019778A (ja) マルチメディアデータ再生装置およびマルチメディアデータ再生方法
KR102252522B1 (ko) 내용 기반 동영상 목차 자동생성 방법 및 시스템
JP6129977B2 (ja) アノテーション共有方法、アノテーション共有装置及びアノテーション共有プログラム
JP2020096373A (ja) サーバおよびプログラム、動画配信システム
JP5300296B2 (ja) 表示装置、サーバ装置、システムおよび表示方法
JP6903365B1 (ja) サーバおよびデータ割り当て方法
JP2008523759A (ja) 映像メッセージを合成する方法及びシステム
KR101477492B1 (ko) 동영상 콘텐츠 편집 및 재생을 위한 장치 및 그 방법
WO2006030995A9 (en) Index-based authoring and editing system for video contents

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170412

R151 Written notification of patent or utility model registration

Ref document number: 6129977

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees