JP7177175B2 - テキスト・コンテンツからのリッチ・コンテンツの作成 - Google Patents

テキスト・コンテンツからのリッチ・コンテンツの作成 Download PDF

Info

Publication number
JP7177175B2
JP7177175B2 JP2020551936A JP2020551936A JP7177175B2 JP 7177175 B2 JP7177175 B2 JP 7177175B2 JP 2020551936 A JP2020551936 A JP 2020551936A JP 2020551936 A JP2020551936 A JP 2020551936A JP 7177175 B2 JP7177175 B2 JP 7177175B2
Authority
JP
Japan
Prior art keywords
metadata
rendering
content
textual content
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020551936A
Other languages
English (en)
Other versions
JP2021518616A (ja
Inventor
パッドマナブハン ソーリラジャン
Original Assignee
ノキア テクノロジーズ オサケユイチア
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ノキア テクノロジーズ オサケユイチア filed Critical ノキア テクノロジーズ オサケユイチア
Publication of JP2021518616A publication Critical patent/JP2021518616A/ja
Application granted granted Critical
Publication of JP7177175B2 publication Critical patent/JP7177175B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3334Selection or weighting of terms from queries, including natural language queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/34Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/483Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied

Description

本開示は、テキスト・コンテンツからリッチ・コンテンツを作成するための装置および方法に関する。例えば、装置および方法は、電子書籍リーダー環境での出力に適したテキスト・データからのビデオおよび/またはオーディオコンテンツのレンダリングに関することがある。
いわゆる電子書籍などのデジタル出版物は、非常に人気があり、そのようなコンテンツは、専用の電子読取装置、スマートフォン、タブレット・コンピュータ、およびディスプレイを有する仮想アシスタント装置を含む広範囲のデジタル装置を使用して表示およびナビゲートすることができる。電子書籍は、実質的に表示可能なテキストからなるファイルから構成される。
1つの実施形態は、電子書籍リーダー環境で出力するためのテキスト・コンテンツを提供する手段と、テキスト・コンテンツの1つ以上の部分に関連するメタデータを受信する手段であって、該メタデータはテキスト・コンテンツの関連する1つ以上の部分のレンダリング指示を規定する手段と、メタデータ内の少なくともレンダリング指示を使用して、1つ以上のテキスト・コンテンツ部分のレンダリングをリッチ・コンテンツ形式にするための手段と、を備える装置を提供する。
この装置は、レンダリングを引き起こすために手段によって使用されるメタデータのうちの少なくともいくつかに対応する1つ以上のリッチ・コンテンツ・モデルをリモートソースから取り出すための手段をさらに備えることができる。
テキスト・コンテンツは、ドキュメント、書籍、または他の出版物に対応することができる。
電子書籍リーダー環境で表示すると、テキスト・データでメタデータを表示できない場合がある。
メタデータはテキスト・データの中で言及されている1つ以上の特徴の属性を記述することができ、特徴属性はテキスト・データの中で言及されていないが、そのような特徴はレンダリングされたとき、その属性を有する。
メタデータは、テキスト・データに言及されているキャラクタ、物、場所、風景、天気、背景、行動の1つ以上の特徴属性を記述することができる。
この装置はメタデータに基づいてテキスト・コンテンツ内の複数のシーンを自動的に決定するための手段をさらに備えることができ、レンダリングを引き起こすための手段は、装置のディスプレイに提示するための1つ以上のシーンのレンダリングを引き起こす。
この装置は、ユーザ入力の手段によって、決定されたシーンのうちの1つ以上のためのメタデータのユーザ修正を可能にするように構成された手段をさらに備えることができる。
ユーザ修正手段は、装置ディスプレイ上にユーザ・インタフェースを提示するように構成されてもよく、インタフェースはテキスト・データに言及されている1つ以上の特徴のユーザ選択を受信することによって修正を可能にし、対応するメタデータの少なくとも一部をパーソナライズされたメタデータで修正して、レンダリングされるときにシーンにパーソナライズされたリッチ・コンテンツを提供するようにする。
ユーザ・インタフェースは、各シーンについてレンダリングされたリッチ・コンテンツの表示中に装置ディスプレイ上に提示されることができる。
この装置は、キャプチャされたデータからリッチ・コンテンツ・フォーマットモデルを生成し、対応するパーソナライズされたメタデータを生成するために、キャプチャされたビデオおよび/またはオーディオデータを手段に提供することによって、1つ以上の選択可能な文字または記述子を作成する手段をさらに備えてもよい。1つ以上のリッチ・コンテンツ・フォーマットモデルは、ビデオコンテンツおよびオーディオコンテンツの一方または両方を備えることができる。ビデオおよびオーディオコンテンツの一方または両方は、仮想現実デバイスに出力するための仮想現実コンテンツであることができる。
この装置は、さらに、テキスト・コンテンツの1つ以上の部分に関連するメタデータを自動的に生成する手段と、電子書籍リーダー環境を有する装置によってリッチ・コンテンツ・フォーマットでレンダリングされる関連部分のレンダリング指示を規定するメタデータとを含むことができる。
メタデータを自動生成するための手段は、テキスト・データを複数の場面部分に分割するように配置することができる。
メタデータを自動生成するための手段はテキスト・データを複数のシーン部分に分割するように、以下の規則の1つ以上の手段によって配置されることができる。異なる段落は異なるシーンを表し、テキスト・データに言及された時間または日付の変化は新しいシーンの開始を表し、テキスト・データに言及された文字の変化は新しいシーンの開始を表し、テキスト・データに言及された位置の変化は新しいシーンの開始を表す。
この装置はさらに、メタデータをユーザが追加することによって、または自動的に生成されたメタデータを修正することによって、自動的に生成されたメタデータを充実させることを可能にするように配置された手段を含むことができる。
メタデータの少なくとも一部は、テキスト・コンテンツのリッチ・コンテンツ・フォーマットバージョンを生成する際にレンダリング装置によって使用される1つ以上のリッチ・コンテンツ・フォーマットモデルに対応することができる。
上記の手段は、少なくとも1つのプロセッサと、コンピュータプログラムコードを含む少なくとも1つの記憶装置とを備え、少なくとも1つの記憶装置およびコンピュータプログラムコードは少なくとも1つのプロセッサと共に、装置の性能を引き起こすように構成されている。手段は代替的に、または追加的に、他のハードウェア、ソフトウェア、ファームウェア、またはそれらの組合せを含むことができる。
別の実施形態は、電子書籍リーダー環境で出力するためのテキスト・コンテンツを提供することと、テキスト・コンテンツの1つ以上の部分に関連するメタデータを受信することと、ここで、該メタデータは、テキスト・コンテンツの1つ以上の関連部分のレンダリング指示を規定するものであり、メタデータ内のレンダリング指示を使用して1つ以上のテキスト・コンテンツ部分をリッチ・コンテンツ・フォーマットにレンダリングすることと、を含む方法を提供する。
別の実施形態は、データ処理装置の1つ以上のプロセッサによって実行されるときに、電子書籍リーダー環境で出力するためのテキスト・コンテンツを提供することと、テキスト・コンテンツの1つ以上の部分に関連付けられたメタデータを受信することと、テキスト・コンテンツの1つ以上の関連付けられた部分のレンダリング指示を規定するメタデータを提供することと、メタデータ内のレンダリング指示を使用して1つ以上のテキスト・コンテンツ部分をリッチ・コンテンツ・フォーマットにレンダリングすることと、を含む方法をデータ処理装置に実行させる、非一時的コンピュータ可読媒体プログラムを提供する。
別の実施形態は、少なくとも1つのプロセッサと、少なくとも1つのコンピュータプログラムコードを含む少なくとも1つの記憶装置と、少なくとも1つのプロセッサを備え、少なくとも1つの記憶装置は少なくとも1つのプロセッサで、電子書籍リーダー環境で出力するためのテキスト・コンテンツを提供することと、テキスト・コンテンツの1つ以上の部分に関連付けられたメタデータを受信することと、ここで、メタデータは、テキスト・コンテンツの1つ以上の関連付けられた部分のレンダリング指示を規定するものであり、メタデータ内のレンダリング指示を使用して1つ以上のテキスト・コンテンツ部分をリッチ・コンテンツ・フォーマットにレンダリングすることと、を記装置に実行させるように構成された、コンピュータプログラムコードと、を含む装置を提供する。
別の実施形態は、少なくとも1つのプロセッサによって実行されるときに、少なくとも1つのプロセッサに、電子書籍リーダー環境で出力するためのテキスト・コンテンツを提供することと、テキスト・コンテンツの1つ以上の部分に関連するメタデータを受信することと、ここで、該メタデータは、テキスト・コンテンツの1つ以上の関連部分のレンダリング指示を規定するものであり、メタデータ内のレンダリング指示を使用して1つ以上のテキスト・コンテンツ部分をリッチ・コンテンツ形式にレンダリングすることと、を含む方法を実行させる、非一時的コンピュータ可読媒体を提供する。
次に、添付の図面を参照して、非限定的な例として、実施形態を説明する。
図1は、電子リーダー端末の一例の正面図である。 図2は、ネットワークを介してEライブラリに接続された図1の電子書籍リーダー端末を示す模式図である。 図3は、一実施形態例による、ネットワークを介してEライブラリに接続され、さらに別のユーザ端末およびサーバにも接続された図1の電子書籍リーダー端末を示す模式図である。 図4は、図3に示される電子書籍リーダーまたはユーザ端末のうちの1つ以上の構成要素の模式図である。 図5は例示的な実施形態による、第1のメタデータを生成し、レンダリング装置に提供するための処理動作を示すフロー図である。 図6は別の例示的な実施形態による、第1のメタデータを生成し、レンダリング装置に提供するための処理動作を示すフロー図である。 図7は、別の実施例に従った、メタデータを用いて1つ以上のテキスト部分のレンダリングをリッチ・コンテンツ・フォーマットにさせるための処理動作を示すフロー図である。 図8Aは、例示的な実施形態による、構文解析動作中のテキスト・コンテンツの一部を示す。 図8Bは、一実施形態による、構文解析された図8Aテキスト・コンテンツから生成されたメタデータの例を示す。 図8Cは、例示的な実施形態による、第1および第2のシーンに編成された図8Bのメタデータを示す。 図8Dは、図8Cのシーンのうちの1つのための第1のメタデータに対応し得る複数の代表的なモデルを示す。 図9は例示的な実施形態によるメタデータ生成モジュールの機能モジュールを示す概略図である。 図10は、例示的な実施形態によるクライアント・エンド・モジュールの機能モジュールを示す概略図である。
説明および図面において、同様の参照番号は、全体を通して同様の要素を指す。
ここでの例は、メタデータに基づくリッチ・コンテンツへのテキスト(または「テキスト」)コンテンツのレンダリングに関する。
テキスト・コンテンツは、例えば、電子書籍、または、電子マガジンまたは電子ジャーナルなどの他のデジタル出版物を含むことができるテキストを表すデータとすることができる。テキストは、例えば、英数字テキスト、または任意の他のタイプのアルファベットまたは文字セットを使用するテキスト、例えば、アラビア語または中国語の用字系であることができる。このコンテキストにおけるリッチデータは、テキストに関連する非テキストの、提示可能なコンテンツ、例えば、電子書籍テキストのビデオおよび/または音声表現のような、テキスト・コンテンツの1つ以上の視覚的および音声的表現を参照することができる。ビデオ表現は、連続するフレームにわたる動きの印象を与えるようにアニメーション化されることができる。
電子書籍は、ユーザが専用電子読取装置端末のような適切な端末、またはパーソナル・コンピュータ(PC)またはスマートフォンのような、より汎用のコンピュータ端末を使用して書籍を読むための比較的一般的な方法である。また、表示画面を組み込んだディジタル・アシスタント端末は電子書籍および同様の原稿をデータ形式で表示し、ナビゲートするためにも使用可能である。
電子書籍および同様の形態のテキスト・コンテンツは、典型的には電子ライブラリとして知られる遠隔サーバからダウンロードされ、そこから利用者は利用可能なコンテンツタイトルをブラウズおよび検索し、ダウンロードを要求することができる。時には利用者がダウンロードの前に電子書籍に対する支払いを要求され、その場合には通常、支払い情報が予め登録されているか、または購入時にプロンプトされている口座が要求される。電子書籍はXMLに基づくEPUBフォーマットを含むが、これに限定されない多くの可能なフォーマットを有するデータファイルにおいて提供されることができる。
テキスト・コンテンツのビデオおよび/または音声バージョンのようなテキスト・コンテンツの充実したバージョンを提供し、かつ利用者が利用できることは有利である。これは、電子書籍の本文に記載された物語または物語の再生可能な映像および/または音声版を作成する手段であることができる。これは、様々な理由でテキストを読むことができない利用者にとって有用である。例えば、若い利用者や、テキストの特定の言語を学習する過程にいる利用者である。他の例としては、テキストを読むことを困難にする視覚課題を有するユーザが挙げられる。利用者は、おそらく、電子書籍内の特定のキャラクタまたはシーンを視覚化するなど、代替的な方法で本を単に消費したいと思う場合がある。利用者は、何らかの方法で電子書籍をパーソナライズしたい場合がある。
本明細書の実施形態は、電子書籍のビデオバージョンのレンダリングに焦点を当てるが、本明細書で開示される方法およびシステムから逸脱することなく、オーディオ、またはビデオとオーディオの組合せなど、他のリッチ・コンテンツ・フォーマットへのレンダリングも可能であることを理解されたい。さらに、リッチ・コンテンツは、3次元ビデオおよび/または空間オーディオデータであってもよく、バーチャルリアリティヘッドセットまたは他のバーチャルリアリティユーザ端末にレンダリングするためのバーチャルリアリティデータを含んでもよい。場合によっては、リッチ・コンテンツによって、レンダリングされたシーンとの利用者インタラクションが可能になることがある。例えば、いくつかの実施形態はユーザ、例えば、作者および/またはエンド・ユーザが生成されたリッチ・コンテンツの態様を調整し、修正し、および/または個人化することを可能にすることができる。
概観すると、実施形態はテキスト・コンテンツに関連付けられたメタデータを提供することを含み、後者は、電子書籍リーダー環境での出力に適している。電子書籍リーダー環境はユーザがユーザ端末でテキストを提示し、閲覧することができる、表示可能な任意のユーザ環境である。電子書籍リーダー環境は、専用の電子書籍リーダーで提供することも、コンピュータ、スマートフォン、タブレット・コンピュータなどの非専用デバイスで提供することもできる。電子書籍リーダーは、例えば、バーチャルリアリティまたは同様の電子ディスプレイデバイスを介して、2次元電子ディスプレイ上に、または3次元で提示されることができる。メタデータは通常提示されず、通常のやり取りによっても、電子書籍リーダー環境ではアクセスできない場合がある。したがって、メタデータは、少なくとも従来の読者にとっては隠されたデータと見なすことができる。メタデータは電子書籍データと共に移送可能であってもよく、単一ファイルまたは複数の関連ファイルまたはリンクされたファイルで提供されることができる。
例えば、メタデータは、遠隔サーバに記憶された1つ以上のアニメーションまたは適応可能なビデオ・モデルのような、1つ以上のリッチ・コンテンツ・モデルに対応することができる。適応型ビデオ・モデルは、メタデータの削除、置換、追加などによって変更できるモデルである。ビデオ・モデルのアニメーションは、例えば、ストリーミング送信を使用して、利用者端末でのレンダリング動作の一部として、または利用者端末がアニメーション・モデルを受信する別の端末で実行することができる。ビデオ・モデルは、いくつかの例を挙げると、人々、動物、物体、風景、場所、衣服、および衣服のうちの1つ以上を含むことができる。アニメーション化は、1つ以上のモデルに1つ以上のモーション特性を与えることを含むことができ、メタデータの他の部分に基づいて、例えば、引用符で示される人物の歩行、走行、および/または話すテキストを作成することに基づいて決定することができる。
図1は、例えば、電子書籍リーダー端末、タブレット・コンピュータ、パーソナル・コンピュータ、ディジタル・アシスタント、または電子書籍リーダー環境を提供するための他のタイプのコンピュータ端末であることができる、第1のユーザ端末10の例を示す。第1のユーザ端末10は、ディスプレイスクリーン14を有する本体12を含むことができる。表示スクリーン14は任意の適切なタイプのものであってよく、例えば、発光ダイオード(LED)スクリーン、液晶ディスプレイ(LCD)スクリーン、薄膜トランジスタ(TFT)スクリーンまたはプラズマスクリーンを含んでもよい。表示画面14は、図1において、電子読者環境における電子書籍からのテキストの一部を表示している。第1のユーザ端末10はまた、1つ以上のスピーカ16、1つ以上のマイクロフォン18、および1つ以上のカメラ20を備えることができる。第1のユーザ端末10はセルラ(3G/4G)トランシーバまたは他の無線インタフェース(例えば、WiFiトランシーバ)のような通信インタフェースを含み、電子ライブラリのような遠隔ソースからのデータのダウンロードのためにインターネットのようなデータ通信ネットワークへの接続を可能にすることができる。
図2は、インターネットのようなインターネットプロトコル(IP)ネットワーク40に接続された図1の第1のユーザ端末10を示す。この接続は、従来の有線または無線通信の手段によるものであってもよく、ネットワークは代わりに、IP以外のプロトコルを使用する通信ネットワークであることができる。また、IPネットワーク40には、電子ライブラリ30が接続されており、そこから1つ以上の電子書籍を閲覧し、検索し、ダウンロードのために選択することができる。いくつかの実施形態において、1つ以上の電子書籍は、電子リーダー環境を介して出力するためのテキスト・データを表すデータを含むファイルとしてダウンロードされることができる。
図3は、図2と同様に、別のネットワーク図であり、さらに、サーバ・コンピュータ50と、IPネットワーク40に接続された第2のユーザ端末70とが設けられている。
この実施例では、第1のユーザ端末10は、表示画面14を使用して表示するために、テキスト・データに関連するメタデータに基づいて、テキスト・データをビデオおよび/またはオーディオデータに少なくともレンダリングするために、ソフトウェア、ハードウェア、またはそれらの併用として提供されることができるクライアントエンド部60をさらに備える。第1の利用者端末10は第1の利用者に関連付けられており、典型的には、テキスト・データバージョンを読んだり、リッチ化されたバージョンをビデオで見たり、音声で聴いたりすることによって、電子書籍を消費することを望む人がいると仮定される。
サーバ・コンピュータ50は、テキスト・データに関連するメタデータに対応する1つ以上のデータ・モデルを提供するための手段を備えることができ、このデータ・モデルは後述するように、電子書籍テキストのビデオおよび/またはオーディオフォーマットバージョンをレンダリングする際に使用することができる。以下に説明するサーバ・コンピュータ50の機能はある実施形態では2つ以上のサーバ・コンピュータ50を使用して実行することができ、これはおそらく互いに離れた場所にある。例えば、第1のデータ・モデルの設定を第1のサーバ・コンピュータ50上に格納し、第2のデータ・モデルの設定を異なるサーバ・コンピュータ上に格納することができる。「サーバ・コンピュータ」という用語は、特定の形態のコンピュータに限定することを意図したものではない。サーバ・コンピュータ50の機能はある実施形態では、利用者に関連する1つ以上のコンピュータ、例えば、1つ以上のパーソナル・コンピュータ、タブレット・コンピュータ、ディジタル・アシスタントおよびスマートフォンに記憶することができる。
第2のユーザ端末70は、任意の形態のコンピュータ端末とすることができる。第2のユーザ端末70は別のユーザ、例えば、電子ライブラリ30に記憶された電子書籍の著者と関連付けられることができる。第2のユーザ端末70は例えば、電子書籍リーダー端末、タブレット・コンピュータ、パーソナル・コンピュータ、ディジタル・アシスタントまたは他のタイプのコンピュータ端末であることができる。
例示的な実施形態では、第2のユーザ端末70が、特定の電子書籍のテキスト・データからメタデータを生成するための、ソフトウェア、ハードウェア、またはそれらの組合せとして提供され得るメタデータ生成モジュール80をさらに備えることができる。メタデータの生成の少なくとも一部は以下に説明するように、自動的に実行されることができる。さらに、メタデータ生成モジュール80は、例えば、以前のメタデータを追加、削除または置換するために、メタデータの手動生成および/または以前に自動生成されたメタデータの修正をさらに可能にすることができる。さらに、メタデータ生成モジュール80は、テキスト・データに関連する現在のメタデータに基づいて、テキスト・データをビデオデータにレンダリングし、第2のユーザ端末70の表示画面を使用して表示することをさらに可能にすることができる。これは現在のメタデータから導かれたビデオデータの閲覧を可能にすることであり、これは利用者に、現在の出力に基づいて修正を行うように促したり、誘導したりする可能性がある。
ある実施形態では、メタデータ生成モジュール80が代替のユーザ端末、または実際にはIPネットワーク40に接続された任意のコンピュータ端末で提供されることができる。例えば、メタデータ生成モジュール80は、第1のユーザ端末10で提供されることができる。
図4は、第1および第2のユーザ端末10、70の一方または両方の構成要素の模式図である。簡単にするために、図4は第2のユーザ端末70の構成要素を示すものと仮定する。第2のユーザ端末70は、プロセッサ100、プロセッサに密接に結合され、RAM 102およびROM 103、ハードウェアキー106および表示装置108から構成されるメモリ104を有することができる。第2のユーザ端末70は、IPネットワーク50などのネットワークに接続するための1つ以上のネットワークインタフェース110を備えてもよく、1つ以上のネットワークインタフェースは例えば有線または無線データ通信であることができるモデムである。
プロセッサ100はその動作を制御するために、他の各構成要素に接続される。
メモリ104は、リードオンリーメモリ、ハードディスクドライブ、またはソリッドステートドライブのような不揮発性メモリから成る。ROM 103はとりわけ、オペレーティングシステム112を記憶し、ソフトウェアプリケーション114を記憶することができる。RAM 102は、データの一時記憶のために制御部100によって使用される。オペレーティングシステム112は、プロセッサ100によってRAM102と共に実行されると、第2のユーザ端末70のハードウェア構成要素の各々の動作を制御するコードを含むことができる。
プロセッサ100は、任意の適切な形態をとることができる。例えば、マイクロコントローラ、複数のマイクロコントローラ、プロセッサ、または複数のプロセッサであることができる。
いくつかの実施形態では、第2のユーザ端末70が外部ソフトウェアプリケーションに関連付けられてもよい。これらは、リモート・サーバ・デバイスに格納されたアプリケーションであってもよく、リモート・サーバ・デバイス上で部分的または排他的に実行される場合もある。これらのアプリケーションは、クラウドホスト型アプリケーションと呼ばれる場合がある。第2のユーザ端末70はそこに記憶されたソフトウェアプリケーションを利用するために、遠隔サーバ装置と通信することができる。
前記ソフトウェア・アプリケーション114の1つは、図3に示すメタデータ生成モジュール80を含むことができる。
概要では、メタデータ生成モジュール80が電子書籍との関連付けのためのメタデータを生成する。これを実施することができる例示的な方法を以下に説明する。次に、その関連するメタデータを有する電子書籍を、図3に示されているエンド・ユーザ55のようなエンド・ユーザに提供することができる。メタデータは、例えば、表示可能な電子書籍テキストとバンドルされ、第1のユーザ端末10に送信されてもよく、それにより、クライアント・エンド・モジュール60は、メタデータを使用して、電子書籍をリッチなビデオおよび/またはオーディオフォーマットにレンダリングする。先に示したように、これは、レンダリング処理の前または処理中に、メタデータに基づいて、サーバ50から1つ以上のリッチデータモデルを取得することを含むことができる。先に示したように、クライアント・エンド・モジュール60は、メタデータを作成および/または変更するためにも使用することができる。
メタデータは、電子書籍テキストの1つ以上の部分に関連するレンダリング指示を規定する。このようなレンダリング表示は、豊富な内容をレンダリングするためのレンダリング手段によって使用可能な任意の形式のメタデータを含むことができる。例えば、そのようなレンダリング指示はビデオおよび/またはオーディオコンテンツがどのように、どこで、いつ、そしてなぜレンダリングされるかを規定することができる。例えば、1つ以上のレンダリング指示は、取得する1つ以上のビデオおよび/またはモデル、モデルが保存される場所、それらがレンダリングされる場所および/または何のアクションに応答するか、を規定することができる。
図5は、ソフトウェア、ハードウェア、ファームウェア、またはそれらの組み合わせで実行されて、メタデータ生成モジュール80(この場合、電子書籍作成者75に関連付けられた第2のユーザ端末70に提供される)を提供することができる処理動作を示すフロー図である。当然のことながら、特定の動作は、追加、削除、または再順序付けされることができる。なお、動作回数は、必ずしも処理順序を示すものではない。
第1の動作510は、電子書籍リーダー環境のためのテキスト・コンテンツを提供することを含むことができる。例では、テキスト・コンテンツは電子書籍リーダー環境のテキストである。提供されたテキスト・コンテンツは、任意の場所、例えば電子ライブラリ30から受け取ることができる。
第2の動作520は、テキスト・コンテンツを構文解析することによって第1のメタデータを自動的に生成することを含むことができる。自動構文解析は、以下で説明する1つ以上のプログラムされた規則に従うことができる。
第3の動作530は、第1のメタデータを用いてテキスト・コンテンツをリッチフォーマットにレンダリングするための第1のメタデータをレンダリング装置に提供することを含むことができる。レンダリング装置は例えば、第1のメタデータに基づいてレンダリングするための、関連するクライアントエンド部60を有する第1のユーザ端末10であることができる。
テキスト・コンテンツの解析による第1のメタデータの自動生成には、例えば、次の操作が含まれる場合がある。構文解析は、メタデータ生成モジュール80の一部として提供される1つ以上の規則を使用して行われてもよい。
例えば、電子書籍テキスト内の1つ以上の文字を識別することができる。これは、パイソン・ネームパーサ(python-nameparser)のような名前パーサを使う手段であることができる。これはテキスト中の個々の単語を名前の保存された辞書と比較することができる。これは代替的にまたは追加的に、大文字の最初の文字を有する固有名詞を識別し、場合によっては次に、記憶された名前の辞書と比較することを含むことができる。
例えば、電子書籍テキスト内の1つ以上の場所を識別することができる。これは例えばパイソン・ネームパーサ(python-nameparser)に似たものを使って、場所(place)や位置(location)パーサを使って実行できる。これはテキスト中の個々の単語を場所や位置の名称の保存された辞書と比較することができる。これは、代替的に、または追加的に、大文字の最初の文字を有する固有名詞を識別すること、および/または場所または場所名の格納された辞書に見つけることを含むことができる。その例は、「ロンドン」、「ニューヨーク」、「ベッドルーム」、「キッチン」、「ショッピングモール」などを含む。
例えば、電子書籍テキスト内の1回以上またはタイムラインを特定することができる。これは、例えば、日(例えば、月曜日~日曜日)、日付(例えば、dd/mm、dd/mm/yy、または同様の形式の任意のもの)、または月または季節(例えば、2015年9月、2017年夏、または同様のもの)などの短縮ラベルなどの、テキスト内の個々の単語を時間関連ラベルの格納された辞書と比較することができるパイソン・ネームパーサ(pythonーnameparser)に類似する何かを使用して、タイムラインパーサを使用し実行することができる。
例えば、電子書籍テキスト内の1つ以上の気象記述子を識別することができる。これは、例えば、テキスト内の個々の単語を、「日当たり」、「曇り」、「雨」、「薄暗い」などの気象関連ラベルの記憶された辞書と比較することができる、パイソン・ネームパーサ(python-nameparser)に類似する何かを使用する記述子パーサを使用した手段によるものであることができる。
例えば、電子書籍テキスト内の1つ以上の衣装記述子を識別することができる。これは、例えば、パイソン・ネームパーサ類似する何かを使用する別の記述子パーサを使用した手段によることができ、「ブルージーンズ」、「レッドエプロン」、「ブラックシューズ」などの衣装関連ラベルの格納された辞書とテキスト内の個々の単語を比較することができる。
他の実施形態では、自然言語処理(NLP)の使用が、例えば、機械学習モデルおよび/または人工ニューラルネットワークに関連して採用され、テキストの一部から1つ以上の単語カテゴリを識別し、単語を、例えば、文字名、位置、時間またはタイムライン、気象記述子、および/または衣装記述子として分類するように訓練されることができる。
第1のメタデータは、例えば、サーバ50に記憶された1つ以上のリッチ・コンテンツ・モデルに少なくとも部分的に対応するような方法で生成されることができる。
第1のメタデータの設定は、電子書籍テキストの論理部分に対して生成されることができる。例えば、電子書籍テキストは、段落、章または他のセクションに分割されてもよく、各々について順番に生成された第1のメタデータのセットであることができる。
第1のメタデータを生成した後、一実施形態では、メタデータが電子書籍テキストと共に第1のユーザ端末10に提供されることができる。第1のユーザ端末10において、クライアント・エンド・モジュール60は、次に、サーバ50から1つ以上のリッチ・コンテンツ・モデルを取得して、例えば、基本的アニメートされた、メタデータに対応する1つ以上のモデルを用いてテキストのビデオバージョン、例えば、特定の日付上の位置における、特定のコスチュームを装着し、特定の天気を経験するキャラクタをレンダリングすることができる。
いくつかの実施形態において、第1のメタデータ生成の一部として構文解析されない残りのテキストは、さらなる構文解析を受けることができる。例えば、引用符「」内の任意のものは、クライアント・エンド・モジュール60で音声に変換されるか、またはレンダリング時に音声バブル画像と共に表示される音声とみなすことができる。
いくつかの実施形態では、第1のメタデータの改良が第1のユーザ端末10に送信する前に、例えば、著者によって実行されることができる。
図6は、メタデータ生成モジュール80を提供するために、ソフトウェア、ハードウェア、ファームウェア、またはそれらの組合せで実行され得る、別の例示的な実施形態の処理動作を示すフロー図である。当然のことながら、特定の動作は、追加、削除、または再順序付けされることができる。なお、動作回数は、必ずしも処理順序を示すものではない。
第1の動作610は、電子書籍リーダー環境のためのテキスト・コンテンツを提供することを含むことができる。例では、テキスト・コンテンツは電子書籍リーダー環境のテキストである。提供されたテキスト・コンテンツは、任意の場所、例えば電子ライブラリ30から受け取ることができる。
第2の動作620は、テキスト・コンテンツを構文解析することによって第1のメタデータを自動的に生成することを含むことができる。自動構文解析は1つ以上のプログラムされた規則、例えば、動作520に関連して上述した規則のいずれかに従うことができる。
任意選択である第3の動作630は、第1のメタデータに基づいて複数のシーンを自動的に決定することを含むことができる。この判定は、以下に記載されるような1つ以上のプログラムされた規則に従うことができる。いくつかの実施形態では、シーン決定が例えば、シーンの自動割り当てを修正するために、手動で実行されることができる。
第4の動作640はオプションであり、第1のメタデータを使用して、1つ以上のテキスト部分をリッチ・コンテンツ・フォーマットにレンダリングすることを含むことができる。これは、第2の利用者端末70、例えば、著者または別のエンティティ75に関連する利用者が生成されたリッチ・コンテンツ・フォーマットのテキスト・コンテンツ・フォーマットデータ、例えば、第1のメタデータに基づいて生成されたビデオバージョンをプレビューすることを可能にすることができる。
第5の動作650はユーザ入力を受信して第1のメタデータを修正し、そこから新しいメタデータを生成することを含むことができる。修正は、第1のメタデータの1つ以上の部分に追加すること、除去すること、および置き換えることのうちの1つ以上を含むことができる。
第6の動作660は新しいメタデータを使用してテキスト・コンテンツをリッチフォーマットにレンダリングするために、レンダリング装置に新しいメタデータを提供することを含むことができる。レンダリング装置は、例えば、前記新しいメタデータに基づいてレンダリングするための関連するクライアント・エンド・モジュール60を有する第1のユーザ端末10であることができる。
したがって、この実施例は、著者または何らかの他の人またはエンティティ75が、例えば、自動構文解析から知覚できる誤りを訂正し、および/または何らかの欠落した情報を埋めるために、第1のメタデータを修正することを可能にする。修正は、エンド・ユーザまたはリーダーに関連付けられた装置または端末に提供する前にメタデータにアクセスして、人間または自動校正コンピュータとすることができる任意の人またはエンティティによって実行することができる。そのような人またはエンティティ75は、「校正エンティティ」と呼ばれることがある。
修正されたメタデータは、テキスト・データの中で言及される1つ以上の特徴の属性を記述することができる。結果の特徴属性は、前のテキスト・データでは言及されていない可能性がある。特徴は、レンダリングされると、前記属性を有することができる。例えば、メタデータは、テキスト・データ中に言及されているキャラクタ、物、場所、風景、天気、背景および行動の1つ以上の特徴属性を記述することができる。例えば、特定のキャラクタについて、そのキャラクタの外観、サイズまたは顔の表情の1つ以上の属性を、修正されたメタデータに含めることができる。例えば、特定位置について、そのロケーションで何が起こっているか、または、それが昼間か夜間かに関係する1つ以上の属性を、変更されたメタデータに含めることができる。
第3の動作630は例えば、第1のメタデータに基づいて、以下のルールのセットのうちの1つ以上に従うことによって、複数のシーンを自動的に決定することを含むことができる。
(i)電子書籍テキストのあらゆる段落、章、または他の文学的部は、明確な場面である。
(ii)すべての日付または時間の変化は、シーンの終了(および新しいシーンの開始)に対応する。
(iii)すべての場所の変化は、シーンの終わり(および新しいシーンの始まり)に対応する。
(iv)シーン内に現れるすべての新しいキャラクタは、新しいシーンの開始に対応する。
例えば、校正エンティティ75はさらに、ユーザ入力を介して、電子書籍テキストをさらなるシーンに分割し、および/または、ルールによって自動的に分割された2つ以上のシーンを1つのシーンに結合することができる。
第4の動作640は、第1のメタデータのレンダリングされたプレビュー(シーン分割によって修正される可能性があるが)を校正エンティティ75に許可することができる。これは、1つ以上のリッチ・コンテンツ・モデルを、第1のメタデータに対応するサーバ50からプルし、レンダリング・エンジンを使用してレンダリングすることを手段することによって可能である。これは、シーンごとに実行することができる。
第5の動作650は、校正エンティティ75が第1のメタデータを修正することを可能にすることができる。例えば、これは、シーンごとに、おそらく関連する文章と同時に第1のメタデータを示し、その選択および修正を可能にするユーザ・インタフェースの手段によるものであることができる。例えば、これは、それぞれの場面のレンダリングされたプレビューと同時に表示されるユーザ・インタフェースの手段によって可能であり、特定のメタデータの選択および修正を可能にする。次に、特定のシーンは校正エンティティ75が修正されたメタデータの効果をプレビューできるように、メタデータの修正に続いて再レンダリングされることができる。
第1のメタデータの修正は例えば、修正目的のためであることができる。例えば、キャラクタ「サム(Sam)」を含む第1のメタデータが男性リッチ・コンテンツ・モデルのサーバ50からの検索をもたらす場合、実際に「サム(Sam)」が女性を参照するとき、校正エンティティ75は、第1のメタデータの対応する部分を、男性ではなく女性のキャラクタを参照するように修正することができる。
第1のメタデータの修正は、例えば、第1のメタデータと区別できない詳細を記入するためのものであったり、明確に表示されないものであったりすることがある。例えば、第1のメタデータが色を持たない部屋のモデルに帰着する場合、校正エンティティ75は、例えば、色を指定するために、部屋のメタデータに関連するメタデータをさらに追加することができる。部屋 -> 赤い部屋。
他の修正は、サイズ、発話、衣服、照明、および他の記述子のうちの1つ以上、例えば、誰かが何らかの方法で話している(例えば、怒鳴る、ハミングする、混乱させる、ささやく)、色がどれほど鮮やかであるか、などに関連し得る。
他の修正は、キャラクタの個人化を含むことができる。変更には、既存のメタデータへの新しいメタデータの追加、既存のメタデータの変更(置換など)、または既存のメタデータの削除が含まれる場合がある。
例えば、校正エンティティ75は、1つ以上のパーソナライズされたキャラクタをサーバ50にアップロードすることができる。パーソナル化されたキャラクタは、3Dスキャナ、または、ノキアのOZOカメラなどの立体カメラ、または同様のものを使用してキャプチャすることができる。パーソナライズされたキャラクタの音声は、ステレオまたは空間オーディオフォーマットであり得る同様の装置を使用してキャプチャされ得、またアップロードされ得る。例えば、特定の俳優のモデルはサーバ50での選択に利用可能であり、事前にキャプチャされている。校正エンティティ75は、例えば、
ミスター・スミス → 一般的な男性、
ミセス・スミス → 一般的な女性、
のようにメタデータ内の個々の文字に対して使用される1つ以上のモデルを選択することができ、
ミスター・スミス → 俳優#5、
ミセス・スミス → 女優#3、
のように修正することができる。
任意の形態のパーソナライズされたコンテンツは、校正エンティティ75に対して、多数のオプションを提供するために、または、別のユーザに、リッチ・コンテンツ・フォーマットのシーンのレンダリングに影響を与えるメタデータを精細化またはパーソナライズするために、サーバ50にアップロードすることができる。
校正エンティティ75が、プレビューされレンダリングされたリッチ・コンテンツに満足すると、それらは、新しいメタデータを、関連する電子書籍にコミットすることができ、それは次に、電子ライブラリ30、例えば、または別のネットワーク位置に格納される。
続いて、電子ライブラリ30または他のネットワーク位置から電子書籍をダウンロードする任意のユーザが、リッチ・コンテンツバージョンをレンダリングするためのメタデータをダウンロードすることもできる。例えば、第1の利用者端末10に関連する第1の利用者55は電子書籍をダウンロードすることができ、いくつかの実施形態では、テキスト・コンテンツのみをダウンロードするオプション、またはエンリッチメントのためのメタデータも与えることができる。
前述したように、サーバ50の機能は、異なる種類のモデルを記憶する可能性のある2つ以上のサーバによって提供することができ、前記機能は1つ以上のユーザ端末によって実行されることができる。サーバ50への参照は、特定のタイプのコンピュータに限定することを意図したものではない。
図7は、第1のユーザ端末10においてクライアント・エンド・モジュール60を提供するために、ソフトウェア、ハードウェア、ファームウェア、またはそれらの組合せで実行され得る、別の例示的な実施形態の処理動作を示すフロー図である。当然のことながら、特定の動作は、追加、削除、または再順序付けされることができる。なお、動作回数は、必ずしも処理順序を示すものではない。また、クライアント・エンド・モジュール60に関連して説明された機能は、メタデータに基づいてテキスト・コンテンツをレンダリングするという点で、第2のユーザ端末70に提供されることができることが理解される。
第1の動作710は、例えば電子書籍のためのテキスト形式でテキストを表示することができる環境など、電子読取り装置環境のためのテキスト・コンテンツを提供することを含むことができる。この提供は、電子ライブラリ30または別のネットワーク位置から受信されたテキスト・コンテンツを含むことができる。
第2の動作720は、テキスト・コンテンツの1つ以上の部分に関連するメタデータを提供することを含むことができる。メタデータは、図5および図6に関連して上述した動作で導出された第1のメタデータまたは新しいメタデータであることができる。メタデータは、テキスト・コンテンツに関連して受信され、電子ライブラリ30または別のネットワーク位置から受信されることができる。
第3の動作730は、メタデータを使用して、1つ以上のテキスト部分をリッチ・コンテンツ・フォーマットにレンダリングすることを含むことができる。
レンダリングは、ソフトウェア、ハードウェア、ファームウェア、またはそれらの組合せを備えることができるレンダリング・エンジンによって実行することができる。レンダリングは実行するレンダリングのタイプ(ビデオのみ、オーディオのみ、両方の組み合わせ、バーチャルリアリティレンダリングなど)に基づいて行うことができる。レンダリング・エンジンは、専用のグラフィックス処理ハードウェアに関連付けることができる。レンダリング・エンジンはサーバ50から1つ以上のリッチ・コンテンツ・モデルを受け取ることができ、これらを処理して、モデルを表示し、場合によってはアニメーション化することができる。前記リッチ・コンテンツ・モデルの表示装置およびアニメーションの特性は、メタデータの少なくとも一部を採用することができる。
例えば、レンダリング・エンジンは、自然言語処理(NLP)または何らかのルールベースまたは機械学習法を使用して、移動またはアニメーションを示すメタデータを復号化することができる。例えば、上述のメタデータ生成プロセスでは、テキスト内に引用符が存在すると、シーンに対して以下のようなメタデータが生成される可能性がある。
ミスター・スミスに対して
-> 口をアニメーション化し、スピーチバブル「猫に餌をあげることができるか?」を見せる、あるいは、
ミスター・スミスに対して
-> 口をアニメーション化し、「猫に餌をあげることができるか?」と音声を再生する。
メタデータの下線部分はレンダリング・エンジンによってデコード可能であり、この場合、ミスター・スミスのモデルを使用してレンダリングされた出力を生成する一方で、引用された音声を音声として表示または再生する。
メタデータは第1のユーザ端末10におけるクライアント・エンド・モジュール60のレンダリング・エンジンによって復号できるように、任意の適切な形態で提供することができる。任意の適切なレンダリング方法を使用することができる。
完全性のために、図8Aから図8Dはテキスト・コンテンツデータを生成し、メタデータにレンダリングし、次にメタデータからレンダリング可能なコンテンツにレンダリングするプロセスをグラフィカルな形で示している。
図8Aは、図1の電子書籍リーダー端末からのテキスト・コンテンツ120の一部を示す。
上記の規則に基づいてテキスト・コンテンツを構文解析する第1の動作は、様々なタイプの内容に対応する様々な下線の手段によって示される。
図8Bは、3つのキャラクタ、日、天気、衣装、物、およびアクションを含む生成された第1のメタデータ130を示す。この第1のメタデータ130は、自動的に生成され得る。
図8Cは、第1および第2のシーン140、142に編成された第1のメタデータ130を示し、これは、上述の方法に基づいて自動的に実行される。第2のシーン142はテキストが別個のパラグラフにあることにより、第1のシーン140から分割される。たとえテキストが単一の段落にあったとしても、新しい文字(ヘンリー)がこの段落に出現するので、そうでなければ、同じ分割が生じる。
図8Dは、第2のシーン142のための第1のメタデータ130に対応し得る代表的なモデル150を示す。これらのモデル150はクライアント・エンド・モジュール60によってアニメートするために、サーバ50に記憶され、そこから検索されることができる。検索されたモデル150は、第2のシーン142の第1のメタデータに対応する。
ミセス・スミス -> 一般的な女性151、
ミスタ-・スミス -> 一般的な男性152、
ヘンリー -> 一般的な男性153、
土曜日 -> テキストのキャプション154、
赤色エプロン -> 赤色エプロン155、
卵 -> 鍋(パン)の一般的な卵156、
携帯電話 -> 一般的な携帯電話157、
誕生日ケ-キ -> 一般的なケーキ158、
猫 -> 一般的な猫159、
口笛 -> 一般的なホイッスリングオーディオ160、
等、を含むことができる。
校正エンティティ75は、いくつかの例において、このメタデータを変更することができる。例えば、校正エンティティ75は猫が物として第2のシーン142メタデータ内で検出されるが、実際にはシーン内に存在することが意図されていないことに留意することができる。したがって、校正エンティティ75は、メタデータから猫を除去することができる。第2のシーンに実際には現れないヘンリーについても同様である。校正エンティティ75は、例えば、第1のメタデータを記入または変更するために、メタデータを追加するいくつかの例において可能である。例えば、校正エンティティ75は、風景または場所が大きな台所であり、口笛が「ハッピーバースデー」の曲に対応するオーディオであることを指定することができる
校正エンティティ75によって更新されるように、第1のメタデータ130を含む新しいメタデータを保存すると、新しいメタデータは、クライアント・エンド・モジュール60でレンダリングするためにエンド・ユーザに利用可能にされ、モデル150の少なくともいくつかを検索することによってアニメーション化されたシーンを生成し、例えば、キャプション154にテキストを追加し、おそらく、メタデータ内の他のデータに従ってそれらをアニメーション化することによって、それらを完了する。
いくつかの実施形態では、個人化がクライアント・エンド・モジュール60で許可される。これは校正エンティティ75に利用可能な上記オプションのいずれかを含むことができるが、メタデータが一般にエンド・ユーザの電子書籍リーダー環境から隠されることを考慮すると、エンド・ユーザ55は、おそらく、異なるユーザ・インタフェースを介してコンテンツをパーソナライズすることを許可されている。
例えば、エンド・ユーザ55は、ユーザ・インタフェースを介して、1つ以上のパーソナライズされたキャラクタをサーバ50にアップロードすることができる。個人化されたキャラクタはNokiaのOZOカメラのような空間カメラを用いてキャプチャされることができるし、または同様のものであることができる。パーソナライズされたキャラクタの音声は、ステレオまたは空間オーディオフォーマットであり得、同様の装置を使用してキャプチャされ、また、アップロードされ得る。例えば、特定の俳優のモデルはサーバ50での選択のために利用可能であり、事前にキャプチャされアップロードされている。エンド・ユーザ55は、メタデータ内の個々の文字に対して使用される1つ以上のモデルを選択することができる。例えば、エンド・ユーザ55は、空間カメラを使用して、自分自身、または1人もしくは家族のメンバーまたは友人をキャプチャして、テキスト・コンテンツの任意のそのようなレンダリングされたバージョンで使用するための自分自身の仮想現実モデルを生成することができる。例えば、エンド・ユーザ55は、特定の予め選択された俳優を、電子書籍の特定のキャラクタとして「スター」とするように選択することができる。
いくつかの実施形態では、エンド・ユーザ55が、電子ライブラリ30またはサーバ50に登録されたアカウントを有することができ、このアカウントは、自分自身および友人または家族のキャプチャされたバージョンなどの個人化されたキャラクタおよび/またはオブジェクトのグループを格納し、アクセスすることを可能にし、現在の電子書籍のレンダリングされたバージョンに配置するために前記キャラクタおよび/またはオブジェクトを選択することができるようにすることができ、その選択は他の場所で生成された対応するメタデータを、汎用モデルの代わりに個人化されたモデルのレンダリングを引き起こすメタデータの1つ以上の新しい部分と置き換えることをもたらすことができる。
図9は、本発明の一実施形態によるメタデータ生成モジュール80の機能モジュールを示す模式図である。テキストパーサモジュール172はルールまたはモデルに従って第1のメタデータを自動的に生成するために、テキストを構文解析するためのものである。シーンパーサ172は別個のシーンを自動的に決定し、それに応じて第1のメタデータを分割するためのものである。プレビュー・レンダリング・エンジン173は第1のメタデータに基づいてシーンの少なくともレンダリングされたプレビューを提供するためのものであり、シーン単位で実行することができる。オーサリング(または校正)ユーザ・インタフェース174は、第1のメタデータの一部の変更を可能にするためのものであり、例えば、レンダリングされた内容に基づいて第1のメタデータを削除、追加、または変更して、作成者または他の個人またはエンティティが詳細を入力または修正したり、新しい詳細を追加したりできるようにする。
図10は、一実施形態における、例のクライアント・エンド・モジュール60の機能モジュールを示す模式図である。レンダリング・エンジン181は、例えば、サーバ50からモデルを検索しアニメーション化することによって、電子書籍と共に取得されたメタデータに基づいて電子書籍テキストをレンダリングするためのものである。パーソナライゼーション・ユーザ・インタフェース182は、例えば、ユーザ・アカウントに関連して記憶され、サーバ50または別のネットワーク位置から検索可能な1つ以上のプロンプト選択および/またはキャプチャされたモデルを選択することによって、ユーザがレンダリングされるコンテンツの1つ以上の部分をパーソナライズするためのものである。
例示的な実施形態は、テキストに記述された物語またはストーリーの再生可能なビデオおよび/またはオーディオバージョンを作成することなどによって、テキスト・コンテンツがテキスト・コンテンツの強化されたフォーマットに変換されることを有利に可能にする。これは、様々な理由でテキストを読むことができない利用者にとって有用でありえる。例えば、若い利用者や、テキストの特定の言語を学習する過程にいる利用者である。他の例は、テキストを読むことを困難にする視覚課題を有する利用者を含むことができる。このような状況では、テキストによって搬送されるストーリーの代替的でより豊富なバージョンを消費することができることが有用である。
例示的な実施形態は、必要とされる追加データの量が比較的少なく、それによって必要とされる記憶空間および/または帯域幅の節約を提供するような方法で、そのような変換を可能にする。上述の実施形態は純粋に例示的なものであり、本発明の範囲を限定するものではないことが理解される。他の変形および修正は、本出願を読めば当業者には明らかである。
さらに、本出願の開示は、本明細書に明示的または暗黙的に開示された任意の新規な特徴または特徴の任意の新規な組み合わせ、または、その任意の一般化を含むように理解されるべきであり、本出願または、それから派生する任意の出願の手続き中に、新規な特許請求の範囲は、任意のそのような特徴および/またはそのような特徴の組み合わせを網羅するように定式化されることができる。

Claims (12)

  1. 少なくとも1つのプロセッサと、コンピュータ・プログラム・コードを含む少なくとも1つのメモリとを備える装置(10)であって、
    前記少なくとも1つのメモリと、前記コンピュータ・プログラム・コードとは、前記少なくとも1つのプロセッサを用いて、前記装置に、少なくとも、
    電子書籍リーダー環境で出力するためのテキスト・コンテンツを提供するステップ(710)と、
    前記テキスト・コンテンツの1つ以上の部分に関連するメタデータを受信するステップであって、該メタデータは、テキスト・コンテンツの関連する1つ以上の部分のレンダリング指示を規定する、ステップ(720)と、
    前記メタデータ内の少なくとも前記レンダリング指示を用いて、1つ以上のテキスト・コンテンツ部分をリッチ・コンテンツ・フォーマットにレンダリングさせるステップと、
    前記メタデータに基づいて前記テキスト・コンテンツ内の複数のシーンを自動的に決定するステップであって、前記レンダリングさせるステップは、提示するために1つ以上のシーンのレンダリングをさせる、ステップと、
    前記決定されたシーンのうちの1つ以上のための前記メタデータを、ユーザが修正することを可能にするステップと、
    を実行させるように構成され
    前記メタデータは、1つ以上の特徴の属性を記述し、それにより、該特徴は、レンダリングされると、該属性を有することになる、ここで、該特徴は、前記テキスト・データでは言及されるが、前記特徴の前記属性は、前記テキスト・データでは言及されない、
    装置。
  2. 前記少なくとも1つのメモリと、前記コンピュータ・プログラム・コードとは、前記少なくとも1つのプロセッサを用いて、前記装置に、
    前記レンダリングさせるステップによって使用される前記メタデータの少なくとも一部に対応する1つ以上のリッチ・コンテンツ・モデルを、リモートソースから取得するステップを実行させるように構成される、
    請求項1に記載の装置。
  3. 前記少なくとも1つのメモリおよび前記コンピュータ・プログラム・コードは、さらに、前記少なくとも1つのプロセッサを用いて、前記装置に、キャプチャされたデータからリッチ・コンテンツ・フォーマットモデルを生成し、対応するパーソナライズされたメタデータを生成する、の両方のために、キャプチャされた映像および/または音声データを手段に提供することによって、1つ以上の選択可能な文字または記述子を作成するステップを実行させるように構成される、請求項2に記載の装置。
  4. 前記1つ以上のリッチ・コンテンツ・モデルは、ビデオおよびオーディオコンテンツの一方または両方を備える、請求項2または請求項3に記載の装置。
  5. 前記ビデオおよびオーディオコンテンツの一方または両方が、仮想現実デバイスに出力するための仮想現実コンテンツである、請求項4に記載の装置。
  6. 前記テキスト・コンテンツが、文書、書籍または他の刊行物に対応する、請求項1ないし5のいずれか1項に記載の装置。
  7. 前記メタデータは前記電子書籍リーダー環境で見られるときにテキスト・データと共に見ることができない、請求項1ないし6のいずれか1項に記載の装置。
  8. 前記メタデータは、テキスト・データにおいて言及されたキャラクタ、物、位置、風景、気象、背景、およびアクションのうちの1つ以上の特徴属性を記述する、請求項6または7に記載の装置。
  9. 前記メタデータを、ユーザが修正することを可能にするステップは、前記装置のディスプレイ上にユーザインターフェースを提示することを含み、
    前記ユーザインターフェースは、テキスト・データに言及された1つ以上の特徴のユーザ選択を受信することによって修正を可能にし、対応する前記メタデータの少なくとも一部をパーソナライズされたメタデータで修正して、レンダリングされたときに前記シーンにパーソナライズされたリッチ・コンテンツを提供するようにすることを可能にする、請求項1ないしのいずれか1項に記載の装置。
  10. 前記少なくとも1つのメモリおよび前記コンピュータ・プログラム・コードは、さらに、前記少なくとも1つのプロセッサを用いて、前記装置に、前記テキスト・コンテンツの1つ以上の部分に関連するメタデータを自動的に生成するステップを実行させるように構成され、
    該メタデータは、電子書籍リーダー環境を有する装置によってリッチ・コンテンツ・フォーマットでレンダリングされるものである前記関連する部分のレンダリング表示を規定する、請求項1ないしのいずれか1項に記載の装置。
  11. 電子書籍リーダー環境で出力するためのテキスト・コンテンツを提供するステップ(710)と、
    前記テキスト・コンテンツの1つ以上の部分に関連するメタデータを受信するステップであって、該メタデータは、前記テキスト・コンテンツの前記1つ以上の関連する部分のレンダリングを規定する、ステップ(720)と、
    メタデータ中のレンダリング表示を使用して1つ以上のテキスト・コンテンツ部分をリッチ・コンテンツ・フォーマットにレンダリングさせるステップと、
    前記メタデータに基づいて前記テキスト・コンテンツ内の複数のシーンを自動的に決定するステップであって、前記レンダリングさせるステップは、提示するために1つ以上のシーンのレンダリングをさせる、ステップと、
    ユーザ入力の手段によって前記決定されたシーンのうちの1つ以上のための前記メタデータを、ユーザが修正することを可能にするステップと、
    を含む方法であって、
    前記メタデータは、1つ以上の特徴の属性を記述し、それにより、該特徴は、レンダリングされると、該属性を有することになる、ここで、該特徴は、前記テキスト・データでは言及されるが、前記特徴の前記属性は、前記テキスト・データでは言及されない、
    方法。
  12. 少なくとも、電子書籍リーダー環境で出力するためのテキスト・コンテンツを提供するステップ(710)と、
    前記テキスト・コンテンツの1つ以上の部分に関連するメタデータを受信するステップであって、該メタデータは、前記テキスト・コンテンツの前記1つ以上の関連する部分のレンダリングを規定する、ステップ(720)と、
    メタデータ中のレンダリング表示を使用して1つ以上のテキスト・コンテンツ部分をリッチ・コンテンツ・フォーマットにレンダリングさせるステップと、
    前記メタデータに基づいて前記テキスト・コンテンツ内の複数のシーンを自動的に決定するステップであって、前記レンダリングさせるステップは、提示するために1つ以上のシーンのレンダリングをさせる、ステップと、
    ユーザ入力の手段によって前記決定されたシーンのうちの1つ以上のための前記メタデータを、ユーザが修正することを可能にするステップと、
    を実行するためのプログラム命令を含むコンピュータプログラムであって、
    前記メタデータは、1つ以上の特徴の属性を記述し、それにより、該特徴は、レンダリングされると、該属性を有することになる、ここで、該特徴は、前記テキスト・データでは言及されるが、前記特徴の前記属性は、前記テキスト・データでは言及されない、
    コンピュータプログラム
JP2020551936A 2018-03-27 2019-03-27 テキスト・コンテンツからのリッチ・コンテンツの作成 Active JP7177175B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP18164205.9 2018-03-27
EP18164205.9A EP3547160A1 (en) 2018-03-27 2018-03-27 Creation of rich content from textual content
PCT/EP2019/057683 WO2019185689A1 (en) 2018-03-27 2019-03-27 Creation of rich content from textual content

Publications (2)

Publication Number Publication Date
JP2021518616A JP2021518616A (ja) 2021-08-02
JP7177175B2 true JP7177175B2 (ja) 2022-11-22

Family

ID=61912962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020551936A Active JP7177175B2 (ja) 2018-03-27 2019-03-27 テキスト・コンテンツからのリッチ・コンテンツの作成

Country Status (4)

Country Link
US (1) US20210056252A1 (ja)
EP (1) EP3547160A1 (ja)
JP (1) JP7177175B2 (ja)
WO (1) WO2019185689A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111368036B (zh) * 2020-03-05 2023-09-26 百度在线网络技术(北京)有限公司 用于搜索信息的方法和装置
CN114925656B (zh) * 2022-06-14 2023-01-24 北京新唐思创教育科技有限公司 富文本显示方法、装置、设备和存储介质
CN115878867B (zh) * 2023-02-22 2023-05-30 湖南视觉伟业智能科技有限公司 一种基于元宇宙的ai自动虚拟场景构建体验系统及方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008305171A (ja) 2007-06-07 2008-12-18 Sony Corp マンガ自動作成装置、マンガ自動作成方法及びマンガ自動作成プログラム
JP2015525417A (ja) 2012-06-18 2015-09-03 オーディブル・インコーポレイテッドAudible, Inc. 補足コンテンツの選択および伝達

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9842109B1 (en) * 2011-05-25 2017-12-12 Amazon Technologies, Inc. Illustrating context sensitive text
US20130145241A1 (en) * 2011-12-04 2013-06-06 Ahmed Salama Automated augmentation of text, web and physical environments using multimedia content
GB2519312A (en) * 2013-10-16 2015-04-22 Nokia Technologies Oy An apparatus for associating images with electronic text and associated methods

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008305171A (ja) 2007-06-07 2008-12-18 Sony Corp マンガ自動作成装置、マンガ自動作成方法及びマンガ自動作成プログラム
JP2015525417A (ja) 2012-06-18 2015-09-03 オーディブル・インコーポレイテッドAudible, Inc. 補足コンテンツの選択および伝達

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
金子 つばさ,ラジオドラマ生成システムと読み上げデータの作成支援,言語処理学会第19回年次大会 発表論文集 [online] Proceedings of the Nineteenth Annual Meeting of the Association for Natural Language Processing,日本,言語処理学会,2013年03月04日

Also Published As

Publication number Publication date
WO2019185689A1 (en) 2019-10-03
JP2021518616A (ja) 2021-08-02
EP3547160A1 (en) 2019-10-02
US20210056252A1 (en) 2021-02-25

Similar Documents

Publication Publication Date Title
Gustafson Adaptive web design: crafting rich experiences with progressive enhancement
US9213705B1 (en) Presenting content related to primary audio content
US10380227B2 (en) Generating layout for content presentation structures
US8656283B2 (en) Interactive storybook system and method
US10088983B1 (en) Management of content versions
JP7177175B2 (ja) テキスト・コンテンツからのリッチ・コンテンツの作成
US20140163980A1 (en) Multimedia message having portions of media content with audio overlay
US20140188997A1 (en) Creating and Sharing Inline Media Commentary Within a Network
US20140163957A1 (en) Multimedia message having portions of media content based on interpretive meaning
US20120276504A1 (en) Talking Teacher Visualization for Language Learning
CN108924599A (zh) 视频字幕显示方法及装置
US20190104325A1 (en) Event streaming with added content and context
JP2013506921A (ja) 対話型電子ドキュメント
US20180143741A1 (en) Intelligent graphical feature generation for user content
KR20050086942A (ko) 오디오 신호의 증대 방법 및 시스템
US20150130816A1 (en) Computer-implemented methods and systems for creating multimedia animation presentations
Hayashi et al. T2v: New technology of converting text to cg animation
GB2519312A (en) An apparatus for associating images with electronic text and associated methods
US20100194761A1 (en) Converting children's drawings into animated movies
US10418065B1 (en) Intellimark customizations for media content streaming and sharing
Ortabasi Indexing the past: Visual language and translatability in Kon Satoshi's Millennium Actress
US11809688B1 (en) Interactive prompting system for multimodal personalized content generation
KR101576094B1 (ko) 애니메이션을 이용한 자막 삽입 시스템 및 방법
KR20200093295A (ko) 가상현실 기반의 전시회 컨텐츠 제공 방법
WO2005057578A1 (en) Method for manufacturing and displaying real character type movie and recorded medium including said real character type movie and program for displaying thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220304

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220816

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220816

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220830

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221110

R150 Certificate of patent or registration of utility model

Ref document number: 7177175

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150