JP7289756B2 - 生成装置、生成方法および生成プログラム - Google Patents

生成装置、生成方法および生成プログラム Download PDF

Info

Publication number
JP7289756B2
JP7289756B2 JP2019149020A JP2019149020A JP7289756B2 JP 7289756 B2 JP7289756 B2 JP 7289756B2 JP 2019149020 A JP2019149020 A JP 2019149020A JP 2019149020 A JP2019149020 A JP 2019149020A JP 7289756 B2 JP7289756 B2 JP 7289756B2
Authority
JP
Japan
Prior art keywords
image
information
context
content
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019149020A
Other languages
English (en)
Other versions
JP2021033367A (ja
Inventor
義宗 田渕
隼人 小林
一真 村尾
毅司 増山
太一 谷塚
立 日暮
健 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2019149020A priority Critical patent/JP7289756B2/ja
Publication of JP2021033367A publication Critical patent/JP2021033367A/ja
Application granted granted Critical
Publication of JP7289756B2 publication Critical patent/JP7289756B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、生成装置、生成方法および生成プログラムに関する。
従来、記事からキーワードを抽出し、抽出したキーワードに対応する画像をこの記事に付与すべき画像として選択する技術が知られている。例えば、特許文献1には、配信記事に含まれるキーワードと適合するキーワードが対応付けられている画像を候補画像として選択し、画像関心度に基づいて、候補画像の中から配信記事に添付する画像を決定する技術が開示されている。
特開2018-200565号公報
しかしながら、上記の従来技術では、文章の内容を容易かつ正確に理解させることができるとは限らない。例えば、読み手は記事を読むよりも先に画像を見て記事の内容を確認することが多いが、上記の従来技術のように、単に記事のキーワードに対応する画像が抽出されるだけでは、例えば、記事の文章が長く複雑な場合等、読み手は記事の内容を正確に理解することができない。また、画像だけでは記事の内容を理解できないことから、読み手は、結局、記事も読む必要がでてきて手間であるから、記事の内容を容易に理解することもできない。
本願は、上記に鑑みてなされたものであって、文章の内容を容易かつ正確に理解させることができる生成装置、生成方法および生成プログラムを提供することを目的とする。
本願にかかる生成装置は、処理対象のコンテンツから、当該コンテンツに対応するコンテキストに関する情報を抽出する抽出部と、前記抽出部により抽出されたコンテキストを示す動画像を生成する生成部とを有することを特徴とする。
実施形態の一態様によれば、文章の内容を容易かつ正確に理解させることができるといった効果を奏する。
図1は、実施形態にかかる生成処理の一例を示す図である。 図2は、実施形態にかかる生成処理を概念的に示す図である。 図3は、実施形態にかかるコンテンツ提供の一例を示す図である。 図4は、実施形態にかかる生成システムの構成例を示す図である。 図5は、実施形態にかかる生成装置の構成例を示す図である。 図6は、実施形態にかかるユーザ情報記憶部の一例を示す図である。 図7は、実施形態にかかる前処理の手順を示すフローチャートである。 図8は、実施形態にかかる本処理の手順を示すフローチャートである。 図9は、生成装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本願にかかる生成装置、生成方法および生成プログラムを実施するための形態(以下、「実施形態」という)について図面を参照しつつ説明する。なお、この実施形態により本願にかかる生成装置、生成方法および生成プログラムが限定されるものではない。また、以下の実施形態において、同一の部位には同一の符号を付し、重複する説明は省略される。
〔1.生成処理の概要〕
図1~図3を用いて、実施形態にかかる生成処理の一例について説明する。以下では、実施形態にかかる生成処理を前処理、および、本処理に分けて説明する。また、実施形態にかかる生成処理は、図1に示す生成装置100によって行われる。図1~図3を用いて実施形態にかかる生成処理の一例を説明する前に、まずは、実施形態にかかる生成処理の概要を示すことにする。
実施形態にかかる生成処理の概要として、まず、図4を用いて、実施形態にかかる生成システムについて説明する。図4は、実施形態にかかる生成システム1の構成例を示す図である。実施形態にかかる生成システム1は、図4に示すように、端末装置10と、生成装置100とを含む。端末装置10、生成装置100は、ネットワークNを介して有線または無線により通信可能に接続される。なお、図4に示す生成システム1には、複数台の端末装置10や、複数台の生成装置100が含まれてよい。
端末装置10は、ユーザによって利用される情報処理端末である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等である。端末装置10は、各種のコンテンツを表示画面に表示する。例えば、端末装置10は、ユーザ操作に応じて、コンテンツの配信要求を生成装置100に送信することで、生成装置100によって生成された動画像を含むコンテンツを受信する。そして、端末装置10は、受信したコンテンツを表示画面に表示させる。
ここで、実施形態にかかる生成処理が行われるにあたっての前提について説明する。処理対象のコンテンツをニュース記事が表示されるコンテンツ(ニュースコンテンツ)とすると、このようなコンテンツは、ニュース記事(テキスト情報)のみ、あるいは、記事と画像で構成されていることが多い。ここで、例えば、ニュース記事の内容が、事故・事件・スポーツ(もちろんこれらに限定されない)等である場合、読み手(ユーザ)は事故・事件が実際に起こった場所やスポーツを行った場所である現場の状況を詳しく知りたいと考える。しかしながら、画像があったとしても、読み手は必ずしも現場の状況を理解することができるとは限らない。例えば、記事が長かったり、複雑であったり、難解な文章で構成されている場合、読み手は、先に画像を見ることで現場の状況を理解しようとするが、現場の状況がわかり易く示された画像でないことも多く、仮に、画像があったとしても、読み手は現場の状況を理解するのは困難なことがある。また、画像ではなく動画であったとしても、このような動画は、ニュース記事の重要な箇所をピックアップして生成されたものであるとも限らず、やはり読み手は現場の状況を理解するのは困難であることが多い。
ここで、テキストから映像を生成する技術が一般に知られているが、このような技術の多くは、読み手(ユーザ)の興味をいかに引き寄せるかを考慮して映像を生成することに主眼が置かれており、ニュース記事で示される現場の状況を端的かつわかり易く伝える映像といった実用的な映像生成には対応していない。
実施形態にかかる生成処理は、上記のような前提(課題)を解決するためのものであり、処理対象のコンテンツが示すコンテキスト(ニュース記事の内容、すなわちニュース記事が示す現場の状況)を読み手が容易に認識することができるような、わかり易い動画像を生成するための処理である。具体的には、生成装置100は、処理対象のコンテンツから、当該コンテンツが示すコンテキストに関する情報を抽出し、抽出したコンテキストに関する情報に基づいて、当該コンテキストを示す動画像を生成する。例えば、生成装置100は、処理対象のコンテンツに含まれるテキスト情報(例えば、ニュース記事)によって示されるコンテキストに関する情報を抽出する。このコンテキストに関する情報として、生成装置100は、例えば、テキスト情報によって示されるコンテキストの特徴を示す文字列である対象文字列を抽出し、対象文字列に基づいて、このコンテキストを示す動画像を生成する。
例えば、生成装置100は、任意のコンテンツに基づく定型文(テンプレート文章)によって示されるコンテキスト応じた画像情報を抽出し、抽出した定型文によって示されるコンテキスト応じた画像情報に含まれる各オブジェクトを示す画像であって、動画像を生成する際に組み合わせて用いられる部分的な画像である部分画像を生成し、生成した部分画像と前記定型文とを組み合わせて(紐付けて)おくという前処理を行う。そして、このような状態において、生成装置100は、前処理で用意した組合せのうち、処理対象のコンテンツの対象文字列に対応する定型文を含む組合せに対して対応付けられている部分画像を抽出し、処理対象のコンテンツが示すコンテキストとなるように部分画像を組み合わせることで、このコンテキストを示す動画像を生成する。例えば、生成装置100は、部分画像として、3次元情報に基づく画像情報を組み合わせることで、コンテキストを示す動画像を生成する。
なお、生成装置100は、前処理なしに動画像を生成したり、機械学習によるモデルを用いて動画像を生成することもできる。この点については、実施形態にかかる情報処理のバリーえーションとして後述することにする。
〔2.実施形態にかかる生成処理(前処理)の一例〕
さて、ここからは、図1を用いて、実施形態にかかる生成処理について説明する。図1は、実施形態にかかる生成処理の一例を示す図である。また、本実施形態では、処理対象のコンテンツは、ニュース記事(テキスト情報)、および、このニュース記事に基づき生成装置100により生成された動画像が含まれる(表示される)コンテンツであるものとする。さらに、処理対象のコンテンツは、ここに含まれる上記ニュース記事をニュースの詳細内容を示す詳細情報として、対応する見出し情報が選択された場合に、選択元のユーザに提供(配信)されるコンテンツであるものとする。また、ニュース記事は、所定の入稿元により適宜入稿される。また、本実施形態では、ニュース記事(あるいは、ニュース記事としてのテキスト情報)自体を処理対象のコンテンツと言い換えることができるものとする。
また、ニュース記事というのはあくまで一例であり、実施形態にかかる生成処理は、あらゆる分野の文章を対象とすることができる。例えば、実施形態にかかる生成処理は、各種の書籍の文章や、学術論文の文章を対象に動画像を生成することができる。
まず、実施形態にかかる生成処理のうち前処理について説明する。生成装置100は、最終的に生成される動画像のベースとなる画像情報(すなわち元画像)を取得し、画像情報記憶部121に格納する(ステップS11)。ここで取得される画像情報は、例えば、入稿元によりニュース記事とともに入稿される等によりニュース記事に対して紐づけられた画像情報であってもよいし、ニュース記事とは無関係な画像情報であってもよい。また、生成装置100は、所定の外部装置から画像情報を取得することもできるし、自装置に入稿されてきた画像情報を取得することもできる。また、生成装置100は、画像情報ではなく動画像(動画像情報)を取得してもよい。
ここで、実施形態にかかる画像情報記憶部121について説明する。画像情報記憶部121は、動画像のベースとなる画像情報(元画像)を記憶する。図1の例では、画像情報記憶部121は、「カテゴリ」、「画像情報」、「タグ」といった項目を有する。「カテゴリ」は、画像情報が属するカテゴリを示す。例えば、画像情報が交通事故の状況を示す画像情報、あるいは、交通事故に関する記事に用いられた画像情報である場合には、この画像情報は、カテゴリ「交通事故」に属される。「画像情報」は、動画像のベースとなる画像のデータそのものである。
「タグ」は、「画像情報」に付与されている(タグ付けされている)キーワードであって、「画像情報」の内容がどのようなものであるかその特徴を端的に示すキーワードである。例えば、「画像情報」が自転車と乗用車との間で起こった事故の現場を示す画像、あるいは、このような事故を仮想的に示すような画像である場合には、タグとして「自転車事故」、「自動車事故」、「事故現場」等のキーワードが付与される。また、「タグ」は、生成装置100が「画像情報」を解析することにより動的に生成されてもよいし、人手で判断されたものであってもよい。また、1つの「画像情報」に対して付与されるタグの数は限定されない。
すなわち、図1に示す画像情報記憶部121の例では、画像情報GF11は、カテゴリ「交通事故」に属する画像情報であり、タグとして「TG111」および「TG112」が付与されている例を示す。また、図1に示す画像情報記憶部121の例では、タグが「TG111」等と概念的に示されているが、実際には、リアルなキーワードが用いられる。
次に、生成装置100は、テンプレ文章(テンプレート文章)を取得し、取得したテンプレ情報をテンプレ情報記憶部122に格納する(ステップS12)。テンプレ文章について説明する。例えば、自動車事故に関する異なる複数のニュース記事を例に挙げると、この記事の中で用いられる文章の一部は共通してくることが多い(もちろんこのような傾向は、自動車事故に関するニュース記事以外の記事にも共通していえることである)。一例を示すと、「加害者が運転する乗用車は信号無視して・・・」といった文章や、「カーブするトラックの内輪に巻き込まれて・・・」といった文章は、自動車事故に関する多くのニュース記事で用いられる文章である。したがって、生成装置100は、このようにニュース記事で用いられることの多い文章をテンプレ文章として取得する。
生成装置100は、カテゴリ毎に人手で生成されたテンプレ文章を取得してもよいし、任意の手法により動的にテンプレ文章を生成(取得)してもよい。例えば、生成装置100は、特定のカテゴリ(例えば、交通事故)に属するニュース記事の集合を正解データとして、特定のカテゴリに属するニュース記事ではどのような文章を用いられる傾向にあるかを学習することで、傾向が得られた文章をテンプレ文章として取得することができる。なお、ここでいう特定のカテゴリに属するニュース記事は「任意のコンテンツ」の一例であり、テンプレ文章は「任意のコンテンツに基づく定型文」の一例である。
ここで、実施形態にかかるテンプレ情報記憶部122について説明する。テンプレ情報記憶部122は、テンプレ文章に関する情報を記憶する。図1の例では、テンプレ情報記憶部122は、「カテゴリ」、「テンプレ文章」、「パーツ画像」といった項目を有する。「カテゴリ」は、テンプレ文章が属するカテゴリを示す。例えば、テンプレ文章によって示されるコンテキストが交通事故の状況を示すものである場合には、このテンプレ文章は、カテゴリ「交通事故」に属される。「テンプレ文章」は、テンプレ文章に対応するテキスト情報である。「パーツ画像」については後述する。
すなわち、図1に示すテンプレ情報記憶部122は、生成装置100が、カテゴリ「交通事故」に関するテンプレ文章として、「自転車二人乗りによる交通事故」(テンプレ文章TP10-1)、「乗用車の運転手は前方人物の急な飛び出しに対応しきれず前方人物に衝突」(テンプレ文章TP10-2)、「大型車両に気を取られあわや大惨事」(テンプレ文章TP10-3)といったテンプレ文章を取得した例を示す。
次に、生成装置100は、テンプレ情報記憶部122に記憶されるテンプレ文章によって示されるコンテキストの特徴を示すキーワード(特徴ワード)を、当該テンプレ文章から抽出する(ステップS13)。ここでいうコンテキストとは、テンプレ文章の内容、あるいは、テンプレ文章の内容によって示される現場の状況を指し示す。したがって、コンテキストの特徴を示すキーワード(特徴ワード)とは、内容や状況を最も効果的に表す文字列(例えば、単語)である。例えば、生成装置100は、テンプレ文章のコンテキストを解析し、解析によって検出したコンテキストに基づいて、当該コンテキスの特徴を示す特徴ワードをテンプレ文章から抽出する。生成装置100は、任意の従来技術を用いてコンテキスト解析、および、特徴ワード抽出を行うことができる。
図1の例では、生成装置100は、テンプレ文章TP10-1からは特徴ワード「自転車二人乗り」「交通事故」を抽出したとする。また、図1の例では、生成装置100は、テンプレ文章TP10-2からは特徴ワード「乗用車」「飛び出し」「衝突」を抽出したとする。また、図1の例では、生成装置100は、テンプレ文章TP10-3からは特徴ワード「大型車両」「大惨事」を抽出したとする。なお、図1に示すテンプレ情報記憶部122では不図示であるが、抽出された特徴ワードも対応付けて記憶してもよい。
次に、生成装置100は、特徴ワードに関連する(一致または類似する)キーワードがタグ付けされている画像情報を画像情報記憶部121の中から検索(抽出)し、検索によって得られた画像情報に含まれる各オブジェクトを示すパーツ画像を生成し、生成したパーツ画像をテンプレ情報記憶部122に格納する(ステップS14)。ここで、検索によって得られた画像情報は「任意のコンテンツに基づく定型文によって示されるコンテキスト応じた画像情報」の一例である。また、パーツ画像は「定型文によって示されるコンテキスト応じた画像情報に含まれる各オブジェクトを示す画像であって、動画像を生成する際に組み合わせて用いられる部分的な画像である部分画像」の一例である。また、オブジェクトは、画像情報に含まれる人物やその他物体である。
テンプレ文章TP10-1に対応する特徴ワード「自転車二人乗り」「交通事故」の例では、生成装置100は、特徴ワード「自転車二人乗り」または「交通事故」の少なくともいずれか一方を「タグ」として付された画像情報を抽出する。ここで抽出された画像情報には、例えば、自転車二人乗り(オブジェクトの一例)を示す画像が含まれる。そこで、生成装置100は、自転車二人乗りを示す画像に基づいて、自転車二人乗りを示す3次元画像PGF10-1を生成する。生成装置100は、任意の従来技術を用いて、2次元画像から3次元画像を生成することができる。そして、生成装置100は、テンプレ文章TP10-1と、テンプレ文章TP10-1に基づき生成した3次元画像PGF10-1とを紐付ける形で、3次元画像PGF10-1をテンプレ情報記憶部122に格納する。図1に示すテンプレ情報記憶部122には、この例が示されている。
また、テンプレ文章TP10-2に対応する特徴ワード「乗用車」「飛び出し」「衝突」の例では、生成装置100は、特徴ワード「乗用車」、「飛び出し」、「衝突」の少なくともいずれか1つを「タグ」として付された画像情報を抽出する。ここで抽出された画像情報には、例えば、事故に関する乗用車を示す画像が含まれる。そこで、生成装置100は、乗用車を示す画像に基づいて、乗用車を示す3次元画像PGF10-2を生成する。そして、生成装置100は、テンプレ文章TP10-2と、テンプレ文章TP10-2に基づき生成した3次元画像PGF10-2とを紐付ける形で、3次元画像PGF10-2をテンプレ情報記憶部122に格納する。図1に示すテンプレ情報記憶部122には、この例も示されている。
また、テンプレ文章TP10-3に対応する特徴ワード「大型車両」「大惨事」の例では、生成装置100は、特徴ワード「大型車両」または「大惨事」の少なくともいずれか一方を「タグ」として付された画像情報を抽出する。ここで抽出された画像情報には、例えば、事故に関する大型車両を示す画像が含まれる。そこで、生成装置100は、大型車両を示す画像に基づいて、大型車両を示す3次元画像PGF10-3を生成する。そして、生成装置100は、テンプレ文章TP10-3と、テンプレ文章TP10-3に基づき生成した3次元画像PGF10-3とを紐付ける形で、3次元画像PGF10-3をテンプレ情報記憶部122に格納する。図1に示すテンプレ情報記憶部122には、この例も示されている。
さて、このようにテンプレ文章と、テンプレ文書が示すコンテキストに関する3次元画像との対応付けを行うところまでが実施形態にかかる前処理となる。以下では、引き続き図1を用いて、実施形態にかかる本処理の一例について説明する。
〔3.実施形態にかかる生成処理(本処理)の一例〕
本処理の説明に先立って、まず、生成装置100が有するコンテンツ情報記憶部123について説明する。コンテンツ情報記憶部123は、処理対象のコンテンツに関する情報を記憶する。処理対象のコンテンツとは、それが示すコンテキストに基づき動画像が生成される対象のコンテンツである。また、処理対象のコンテンツは、対応する見出し情報が選択された場合に、選択元のユーザに提供(配信)されるコンテンツである。また、上記の通り、処理対象のコンテンツは、見出し情報に対する詳細を示すニュース記事であるものとする。
図1の例では、コンテンツ情報記憶部123は、「カテゴリ」、「コンテンツID」、「テキスト情報」、「動画像データ」といった項目を有する。「カテゴリ」は、処理対象のコンテンツが属するカテゴリを示す。例えば、処理対象のコンテンツとしての「テキスト情報」によって示されるコンテキストが交通事故の状況を示すものである場合には、この処理対象のコンテンツはカテゴリ「交通事故」に属される。図1に示すコンテンツ情報記憶部123の例では、テキスト情報TX11が交通事故に関するものであるため、テキスト情報TX11およびこれを識別するコンテンツIDに対して、カテゴリ「交通事故」が対応付けられている。
「コンテンツID」は、処理対象のコンテンツ、すなわち、実質、処理対象のコンテンツに対応する「テキスト情報」を識別する識別情報を示す。「テキスト情報」は、処理対象のコンテンツとして表示されるテキスト情報(例えば、ニュース記事)である。また、「テキスト情報」は、処理対象のコンテンツに含まれるテキスト情報ともいえる。「テキスト情報」は、任意のタイミングで入稿される。したがって、生成装置100は、入稿元から「テキスト情報」の入稿を受け付ける度に、受け付けた「テキスト情報」をコンテンツ情報記憶部123に格納する。なお、「テキスト情報」は、生成装置100以外の他の外部装置に入稿されてもよく、この場合、生成装置100は、適宜、外部装置から「テキスト情報」を取得する。「動画像データ」については後述する。
ここから本処理の説明に入る。まず、生成装置100は、処理対象のコンテンツに含まれるテキスト情報によって示されるコンテキストの特徴を示す文字列(対象文字列)を、当該テキスト情報から抽出する(ステップS21)。ここでいうコンテキストとは、テキスト情報の内容、テキスト情報の内容によって示される現場の状況を指し示す。したがって、コンテキストの特徴を示す文字列(対象文字列)とは、内容や状況を最も効果的に表す文字列(例えば、単語)である。例えば、生成装置100は、テキスト情報のコンテキストを解析し、解析によって検出したコンテキストに基づいて、当該コンテキスの特徴を示す対象文字列をテキスト情報から抽出する。生成装置100は、任意の従来技術を用いてコンテキスト解析、および、対象文字列抽出を行うことができる。図1の例では、生成装置100は、対象文字列として、処理対象のコンテンツに含まれるテキスト情報によって示されるコンテキストの特徴を示すキーワード(単語)を抽出するものとする。
この点について、処理対象のコンテンツC11(コンテンツID「C11」で識別されるコンテンツ)に対応するテキスト情報TX11を例に説明する。また、以下では、処理対象のコンテンツC11に焦点を当てて説明するが、全ての処理対象のコンテンツについて同様の処理が行われる。
図1に示すコンテンツ情報記憶部123の例では、テキスト情報TX11は「自転車二人乗りによるスピード出し過ぎのため、前方の大型トラックを避けるのに気を取られ後方確認を怠った結果、急な飛び出しにより後方を走行していた車両にぶつかりました。幸い大惨事には至りませんでした。」という交通事故に関するニュース記事である。かかる例では、生成装置100は、対象文字列として、「自転車二人乗り/飛び出し」「前方/大型トラック」「後方走行/車両」といった対象文字列の組をそれぞれ抽出したものとする。
このような状態において、生成装置100は、テンプレ情報記憶部122において紐づけられたテンプレ文章およびパーツ画像の組合せのうち、対象文字列に関連する特徴ワードを有するテンプレ文章を含む組合せを特定し、特定した各組合せに対して紐付けられるパーツ画像を抽出する(ステップS22)。
対象文字列の組「自転車二人乗り/飛び出し」について説明する。対象文字列の組「自転車二人乗り/飛び出し」が抽出されたテキスト情報TX11は、カテゴリ「交通事故」に属するため、生成装置100は、テンプレ情報記憶部122においてカテゴリ「交通事故」に属するテンプレ情報のうち、対象文字列の組「自転車二人乗り/飛び出し」に関連する特徴ワードを有するテンプレ文章を含む組合せを特定する。図1に示すテンプレ情報記憶部122の例では、テンプレ文章TP10-1から特徴ワード「自転車二人乗り」「交通事故」が抽出されている。したがって、生成装置100は、対象文字列の組「自転車二人乗り/飛び出し」に関連する特徴ワードを有するテンプレ文章はテンプレ文章TP10-1と判断し、この結果、テンプレ文章TP10-1/パーツ画像PGF10-1という組合せを特定する。よって、かかる例では、生成装置100は、対象文字列の組「自転車二人乗り/飛び出し」について、パーツ画像PGF10-1を抽出する。また、この場合、テンプレ文章TP10-1は「対象文字列に対応する定型文」の一例といえる。また、パーツ画像PGF10-1は「対象文字列に対応する定型文を含む組合せに対して対応付けられている部分画像」の一例といえる。
また、対象文字列の組「前方/大型トラック」について説明する。対象文字列の組「前方/大型トラック」が抽出されたテキスト情報TX11は、カテゴリ「交通事故」に属するため、生成装置100は、テンプレ情報記憶部122においてカテゴリ「交通事故」に属するテンプレ情報のうち、対象文字列の組「前方/大型トラック」に関連する特徴ワードを有するテンプレ文章を含む組合せを特定する。図1に示すテンプレ情報記憶部122の例では、テンプレ文章TP10-3から特徴ワード「大型車両」「大惨事」が抽出されている。したがって、生成装置100は、対象文字列の組「前方/大型トラック」に関連する特徴ワードを有するテンプレ文章はテンプレ文章TP10-3と判断し、この結果、テンプレ文章TP10-3/パーツ画像PGF10-3という組合せを特定する。よって、かかる例では、生成装置100は、対象文字列の組「前方/大型トラック」について、パーツ画像PGF10-3を抽出する。また、この場合、テンプレ文章TP10-3は「対象文字列に対応する定型文」の一例といえる。また、パーツ画像PGF10-3は「対象文字列に対応する定型文を含む組合せに対して対応付けられている部分画像」の一例といえる。
また、対象文字列の組「後方走行/車両」について説明する。対象文字列の組「後方走行/車両」が抽出されたテキスト情報TX11は、カテゴリ「交通事故」に属するため、生成装置100は、テンプレ情報記憶部122においてカテゴリ「交通事故」に属するテンプレ情報のうち、対象文字列の組「後方走行/車両」に関連する特徴ワードを有するテンプレ文章を含む組合せを特定する。図1に示すテンプレ情報記憶部122の例では、テンプレ文章TP10-2から特徴ワード「乗用車」「飛び出し」「衝突」が抽出されている。したがって、生成装置100は、対象文字列の組「後方走行/車両」に関連する特徴ワードを有するテンプレ文章はテンプレ文章TP10-2と判断し、この結果、テンプレ文章TP10-2/パーツ画像PGF10-2という組合せを特定する。よって、かかる例では、生成装置100は、対象文字列の組「後方走行/車両」について、パーツ画像PGF10-2を抽出する。また、この場合、テンプレ文章TP10-2は「対象文字列に対応する定型文」の一例といえる。また、パーツ画像PGF10-2は「対象文字列に対応する定型文を含む組合せに対して対応付けられている部分画像」の一例といえる。
なお、ステップS22の例は、いわゆるキーワードでのマッチングによる抽出であるが、生成装置100は、コンテキストでのマッチングによるパーツ画像の抽出を行ってもよい。具体的には、生成装置100は、テキスト情報TX11が示すコンテキストにマッチするコンテキストを示すテンプレ文章を特定することで、特定したテンプレ文章に紐づけられるパーツ画像を抽出してもよい。
次に、生成装置100は、処理対象のコンテンツに含まれるテキスト情報に基づいて、当該テキスト情報によって示されるコンテキストを解析する(ステップS23)。例えば、生成装置100は、処理対象のコンテンツC11に対応するテキスト情報TX11を解析し、テキスト情報TX11によって示されるコンテキストを検出する。
次に、生成装置100は、解析によって検出したコンテキストを示すようにパーツ画像を組み合わせたうえで、当該コンテキストを示すように各パーツ画像に動き(アニメーション)を付けることで当該コンテキストを再現する動画像を生成する(ステップS24)。ステップS22の例では、生成装置100は、テキスト情報TX11から抽出された各対象文字列に合ったパーツ画像として、パーツ画像PGF10-1、パーツ画像PGF10-2、パーツ画像PGF10-3(パーツ画像10-1~10-3)を抽出している。したがって、生成装置100は、かかる例では、テキスト情報TX11から検出したコンテキストを示すようにパーツ画像10-1~10-3を組み合わせる。そして、生成装置100は、テキスト情報TX11から検出したコンテキストを示すようにパーツ画像10-1~10-3に動き(アニメーション)を付けることで当該コンテキストを再現する動画像を生成する。この点について、図2を用いて説明する。
図2は、実施形態にかかる生成処理を概念的に示す図である。図2に示す生成処理は、処理対象のコンテンツC11を用いてこれまで説明してきた一例に対応するものである。したがって、図2に示すように、パーツ画像PGF10-1は、自転車二人乗りを示す3次元画像である。また、パーツ画像PGF10-2は、乗用車を示す3次元画像である。また、パーツ画像PGF10-3は、大型車両(トラック)を示す3次元画像である。図2の例では、生成装置100は、パーツ画像10-1~10-3を組み合わせ、そして、に動き(アニメーション)を付けることで、テキスト情報TX11から検出したコンテキストを再現する動画像MIG11を生成している。
また、生成装置100は、図2の例のように、道路を示す画像、背景画像、衝突時の模様を印象付けるアクション画像等をさらに組み合わせることで、より忠実にコンテキストを再現するようにしてもよい。また、動画像の再生時間を所定の長さにすることが予め決められている場合には、生成装置100は、この所定の長さ以内の再生時間の動画像を生成する。そして、生成装置100は、生成した動画像をコンテンツ情報記憶部123に格納する。これまでの例によると、生成装置100は、図1に示すコンテンツ情報記憶部123のように、コンテンツID「C11」に対応する「動画像データ」として動画像MIG11を格納する。
さて、これまで説明してきたように、実施形態にかかる生成装置100は、処理対象のコンテンツから、当該コンテンツが示すコンテキストに関する情報を抽出し、抽出したコンテキストに関する情報に基づいて、コンテキストを示す動画像を生成する。例えば、生成装置100は、前処理でテンプレ文章とパーツ画像との紐付けを行っておく。このような状態で、生成装置100は、処理対象のコンテンツに対応するテキスト情報によって示されるコンテキストとテンプレ文章とのマッチングを行うことで、このコンテキストに合ったパーツ画像を抽出する。そして、生成装置100は、抽出したパーツ画像を組み合わせて動きを付けることでコンテキストを再現する動画像を生成する。
このようなことから、生成装置100は、テキスト情報と動画像とによって構成される処理対象のコンテンツを提供することがえきるようになるため、ユーザに対してテキスト情報(例えば、ニュース記事)の内容を容易かつ正確に理解させることができる。
ここからは、テキスト情報と動画像とによって構成される処理対象のコンテンツを提供する点についても図1を用いて説明する。例えば、生成装置100は、実施形態にかかる生成処理により動画像をコンテンツ情報記憶部123に有している。このような状態において、生成装置100は、処理対象のコンテンツの配信要求を端末装置10から受け付ける。図1の例では、生成装置100は、ユーザU1の所有する端末装置10から配信要求を受け付けたと判定したとする。かかる場合、生成装置100は、配信要求で識別されるコンテンツに紐付けられる動画像(動画像データ)をコンテンツ情報記憶部123から取得し、取得した動画像が配信要求で識別されるコンテンツとともに表示されるよう配信制御する(ステップS25)。この点について、図3を用いて説明する。
図3は、実施形態にかかるコンテンツ提供の一例を示す図である。図3の例では、端末装置の表示画面Dに、各ニュース記事の見出し情報が一覧表示される一覧コンテンツCxが表示されている。このような状態において、ユーザU1が、処理対象のコンテンツC11に対応する見出し情報HD11を選択したとする。そうすると、端末装置10は、コンテンツID「C11」を含む配信要求を生成装置100に送信する。生成装置100は、テンツID「C11」を含む配信要求を受け付けると、コンテンツ情報記憶部123において、コンテンツID「C11」に対応付けられるテキスト情報T11および動画像MIG11を取得する。そして、生成装置100は、テキスト情報T11とともに動画像MIGが表示されるコンテンツC11を生成する。図3の例では、生成装置100は、再生領域AR1に動画像MIG11が表示されるようなコンテンツC11を生成する。ユーザU1は、再生領域AR1に表示される再生ボタンBT1を押下することで動画像MIG11を視聴することもできるし、生成装置100は、端末装置10の表示画面Dに表示された段階で自動で動画像MIG11の再生が開始されるようなコンテンツC11を生成してもよい。また、生成装置100は、このように生成したコンテンツC11をユーザU1に提供する。すなわち、生成装置100は、コンテンツC11をユーザU1の端末装置10に配信する。これにより、生成装置100は、動画像MIG11を用いて、ユーザU1に対してテキスト情報TX11の内容を容易かつ正確に理解させることができる。
〔4.生成装置の構成〕
次に、図5を用いて、実施形態にかかる生成装置100について説明する。図5は、実施形態にかかる生成装置100の構成例を示す図である。図5に示すように、生成装置100は、通信部110と、記憶部120と、制御部130とを有する。例えば、生成装置100は、図1~図3で説明した生成処理を行うサーバ装置である。
(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、例えば、端末装置10との間で情報の送受信を行う。
(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子またはハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、画像情報記憶部121と、テンプレ情報記憶部122と、コンテンツ情報記憶部123、ユーザ情報記憶部124とを有する。画像情報記憶部121、テンプレ情報記憶部122、コンテンツ情報記憶部123については、図1で説明済みのため省略する。
(ユーザ情報記憶部124について)
ユーザ情報記憶部124は、ユーザに関する情報を記憶する。例えば、ユーザ情報記憶部124は、ユーザに関する属性情報や履歴情報を記憶する。ここで、図6ではこの最も単純な例を示す。図6に実施形態にかかるユーザ情報記憶部124の一例を示す。図6の例では、「ユーザID」、「属性情報」、「履歴情報」といった項目を有する。
「ユーザID」は、ユーザまたはユーザの端末装置10を識別する識別情報を示す。「属性情報」は、「ユーザID」で識別されるユーザの各種属性情報を示す。図6の例では、属性情報として概念的な記号を用いているが、実際には属性情報は、例えば、性別・年齢・現住所・出身地・職業・家族構成、「履歴情報」から判別された嗜好性等である。「履歴情報」は、「ユーザID」で識別されるユーザの各種履歴情報を示す。図6の例では、履歴情報として概念的な記号を用いているが、実際には履歴情報は、例えば、インターネット上あるいはリアルでの行動履歴である。履歴情報の一例としては、検索履歴、閲覧履歴、購買履歴、移動履歴が挙げられる。
ユーザ情報記憶部124に記憶される属性情報や履歴情報は、動画像の態様を制御する際に用いられる。
(制御部130について)
制御部130は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、生成装置100内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
図5に示すように、制御部130は、取得部131と、抽出部132と、生成部133と、解析部134と、提供部135とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図5に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図5に示した接続関係に限られず、他の接続関係であってもよい。
(取得部131について)
取得部131は、実施形態にかかる生成処置に必要な情報を取得する。例えば、取得部131は、図1で説明した前処理において、最終的に生成される動画像のベースとなる画像情報(すなわち元画像)を取得し、画像情報記憶部121に格納する。例えば、取得部131は、所定の外部装置から画像情報を取得してもよいし、自装置に入稿されてきた画像情報を取得してもよい。また、取得部131は、画像情報ではなく動画像(動画像情報)を取得してもよい。また、取得部131は、テンプレ文章を取得し、取得したテンプレ情報をテンプレ情報記憶部122に格納する。
また、取得部131は、各処理部によって処理が行われる際に、その処理に必要な情報を記憶部から取得し、対象の処理部に出力する。具体的には、取得部131は、画像情報記憶部121、テンプレ情報記憶部122、コンテンツ情報記憶部123、ユーザ情報記憶部124から適宜情報を取得し、対象の処理部に出力する。
(抽出部132について)
抽出部132は、処理対象のコンテンツから、当該コンテンツが示すコンテキストに関する情報を抽出する。例えば、抽出部132は、コンテキストとして、処理対象のコンテンツに含まれるテキスト情報によって示されるコンテキストに関する情報を抽出する。例えば、抽出部132は、コンテキストに関する情報として、コンテキストの特徴を示す文字列である対象文字列を抽出する。
また、図1で説明した前処理に関して、抽出部132は、任意のコンテンツに基づく定型文によって示されるコンテキストに応じた画像情報をさらに抽出する。この場合、後述する生成部133は、定型文によって示されるコンテキストに応じた画像情報に含まれる各オブジェクトを示す画像であって、動画像を生成する際に組み合わせて用いられる部分的な画像である部分画像を生成し、生成した部分画像と定型文とを組み合わせた組合せのうち、対象文字列に対応する組合せに基づいて、当該コンテキストを示す動画像を生成する。
このような状態において、図1で説明した本処理に関して、抽出部132は、組合せのうち、対象文字列に対応する定型文を含む組合せに対して対応付けられている部分画像を抽出する。そうすると、後述する生成部133は、コンテキストを示すように部分画像を組み合わせることで、コンテキストを示す動画像を生成する。
(生成部133について)
生成部133は、抽出部132により抽出されたコンテキストに関する情報に基づいて、コンテキストを示す動画像を生成する。例えば、コンテキストに関する情報として、コンテキストの特徴を示す文字列である対象文字列を抽出された場合には、生成部133は、対象文字列に基づいて、コンテキストを示す動画像を生成する。
また、図1で説明した前処理に関して、任意のコンテンツに基づく定型文によって示されるコンテキストに応じた画像情報が抽出された場合には、生成部133は、定型文によって示されるコンテキスト応じた画像情報に含まれる各オブジェクトを示す画像であって、動画像を生成する際に組み合わせて用いられる部分的な画像である部分画像を生成し、生成した部分画像と定型文とを組み合わせた組合せのうち、対象文字列に対応する組合せに基づいて、当該コンテキストを示す動画像を生成する。
また、図1で説明した本処理に関して、組合せのうち、対象文字列に対応する定型文を含む組合せに対して対応付けられている部分画像が抽出されると、生成部133は、コンテキストを示すように部分画像を組み合わせることで、コンテキストを示す動画像を生成する。
また、生成部133は、部分画像として、3次元情報に基づく画像情報を組み合わせることで、コンテキストを示す動画像を生成する。
(解析部134について)
解析部134は、コンテキストの解析の解析を行うことによりコンテキストを検出する。具合的には、解析部134は、処理対象のコンテンツに含まれるテキスト情報に基づいて、当該テキスト情報によって示されるコンテキストを解析することにより、該テキスト情報によって示されるコンテキストを検出する。
ここで、図1の例を用いて、抽出部132、生成部133、解析部134それぞれによって行われる処理の一例を示す。まず、前処理として、抽出部132は、テンプレ情報記憶部122に記憶されるテンプレ文章によって示されるコンテキストの特徴を示すキーワード(特徴ワード)を、当該テンプレ文章から抽出する。また、抽出部132は、特徴ワードに関連する(一致または類似する)キーワードがタグ付けされている画像情報を画像情報記憶部121の中から検索(抽出)し、抽出した画像情報を生成部133に出力する。生成部133は、抽出部132から取得した画像情報に含まれる各オブジェクトを示すパーツ画像を生成し、生成したパーツ画像をテンプレ情報記憶部122に格納する。具体的には、生成部133は、テンプレ文章と、当該テンプレ文章に対応する特徴ワードを用いて抽出(検索)された画像情報から生成したパーツ画像とを紐付けて、テンプレ情報記憶部122に格納する。
次に、本処理として、抽出部132は、処理対象のコンテンツに含まれるテキスト情報によって示されるコンテキストの特徴を示す文字列(対象文字列)を、当該テキスト情報から抽出する。このときコンテキストの解析は、解析部134によって行われる。また、抽出部132は、テンプレ情報記憶部122において紐付けられたテンプレ文章およびパーツ画像の組合せのうち、対象文字列に関連する特徴ワードを有するテンプレ文章を含む組合せを特定し、特定した各組合せに対して紐付けられるパーツ画像を抽出する。また、抽出部132は、抽出したパーツ画像を生成部133に出力する。
生成部133は、処理対象のコンテンツに含まれるテキスト情報によって示されるコンテキストを示すようにパーツ画像を組み合わせる。そして、生成部133は、当該コンテキストを示すように各パーツ画像に動き(アニメーション)を付けることで当該コンテキストを再現する動画像を生成する。
(提供部135について)
提供部135は、処理対象のコンテンツとともに、生成部133により生成された動画像をユーザに提供する。例えば、提供部135は、処理対象のコンテンツに関する見出しが選択された場合に、処理対象のコンテンツとともに、動画像を提供する。この点について、例えば、図3で説明したように、一覧コンテンツCxにおいて表示される見出し情報のうち、処理対象のコンテンツC11に対応する見出し情報HD11が選択されたとする。かかる場合、提供部135は、領域AR1に動画像MIG11が表示されるようなコンテンツC11を生成する。そして、提供部135は、コンテンツC11が端末装置10に表示されるよう配信制御する。
〔5.処理手順(1)〕
次に、図7を用いて、実施形態にかかる生成処理のうち、前処理の手順について説明する。図7は、実施形態にかかる前処理の手順を示すフローチャートである。
まず、取得部131は、最終的に生成される動画像のベースとなる画像情報(すなわち元画像)を取得し、画像情報記憶部121に格納する(ステップS101)。また、取得部131は、テンプレ文章を取得し、取得したテンプレ情報をテンプレ情報記憶部122に格納する。なお、取得部131は、ステップS101およびS102を順不同で行ってよい。
次に、抽出部132は、テンプレ情報記憶部122に記憶される各テンプレ文章について、当該テンプレ文章によって示されるコンテキストの特徴を示すキーワード(特徴ワード)を当該テンプレ文章から抽出する(ステップS103)。また、抽出部132は、各特徴ワードに関連する(一致または類似する)キーワードがタグ付けされている画像情報を画像情報記憶部121の中から抽出する(ステップS104)。
次に、生成部133は、抽出部132から取得した画像情報に含まれる各オブジェクトを示すパーツ画像を生成する。また、生成部133は、テンプレ文章と、当該テンプレ文章に対応する特徴ワードを用いて抽出された画像情報(ステップS104より)から生成したパーツ画像とを紐付けて、テンプレ情報記憶部122に格納する。
〔6.処理手順(2)〕
次に、図8を用いて、実施形態にかかる生成処理のうち、本処理の手順について説明する。図8は、実施形態にかかる本処理の手順を示すフローチャートである。
まず、抽出部132は、処理対象のコンテンツに含まれるテキスト情報(コンテンツ情報記憶部123に格納されるテキスト情報)によって示されるコンテキストの特徴を示す文字列(対象文字列)を、当該テキスト情報から抽出する(ステップS201)。また、抽出部132は、テンプレ情報記憶部122において紐付けられたテンプレ文章およびパーツ画像の組合せのうち、対象文字列に関連する特徴ワードを有するテンプレ文章を含む組合せを特定し、特定した各組合せに対して紐付けられるパーツ画像を抽出する(ステップS202)。
解析部134は、処理対象のコンテンツに含まれるテキスト情報に基づいて、当該テキスト情報によって示されるコンテキストを解析することにより、当該テキスト情報によって示されるコンテキストを検出する(ステップS203)。
次に、生成部133は、処理対象のコンテンツに含まれるテキスト情報によって示されるコンテキストを示すようにパーツ画像を組み合わせる。そして、生成部133は、当該コンテキストを示すように各パーツ画像に動き(アニメーション)を付けることで当該コンテキストを再現する動画像を生成する(ステップS204)。なお、ここで用いられるパーツ画像は、処理対象となっているテキスト情報から抽出された対象文字列に関連する特徴ワードを有するテンプレ文章に対して紐付けられるパーツ画像である。また、生成部133は、処理対象となっているテキスト情報と、このテキスト情報について生成した動画像(動画像データ)とを対応付けてコンテンツ情報記憶部123に格納しておく。
このような状態において、提供部135は、コンテンツの配信要求を受信したか否かを判定する(ステップS205)。例えば、提供部135は、見出し情報に対応する詳細情報(詳細記事)が表示されるコンテンツの配信要求を受信したか否かを判定する。提供部135は、配信要求を受信していないと判定した場合には(ステップS205;No)、配信要求を受信するまで待機する。
一方、提供部135は、配信要求を受信したと判定した場合には(ステップS205;Yes)、配信要求で識別されるコンテンツに対応するテキスト情報、および、動画像に基いて、このテキスト情報を詳細記事とする配信対象のコンテンツを生成する(ステップS206)。例えば、提供部135は、図3で示されるように、テキスト情報および動画像が組み合わされたコンテンツを生成する。そして、提供部135は、生成したコンテンツを配信要求元のユーザに提供する(ステップS207)。
〔7.生成処理のバリエーションについて〕
上記実施形態にかかる生成装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、生成装置100の他の実施形態について説明する。
〔7-1.前処理無しの生成処理〕
上記実施形態では、例えば図1のステップS14で説明したように、抽出部132が、任意のコンテンツに基づく定型文(テンプレ文章)によって示されるコンテキスト応じた画像情報を抽出し、生成部133が、この画像情報に含まれる各オブジェクトを示す画像であって、動画像を生成する際に組み合わせて用いられる部分的な画像である部分画像(パーツ画像)を生成し、生成した部分画像と定型文とを対応付ける形でテンプレ情報記憶部122に格納しておくという前処理を行う例を示した。また、このように前処理を行っておいたうえで、抽出部132が、テンプレ情報記憶部122に格納される組合せのうち、対象文字列に対応する定型文を含む組合せに対して対応付けられている部分画像を抽出し、生成部133が、処理対象のコンテンツのコンテキストを示すように部分画像を組み合わせることで、このコンテキストを示す動画像を生成する例を示した。
しかしながら、生成装置100は、定型文と部分画像を対応付ける前処理を行わず、直接部分画像を抽出し、処理対象のコンテンツのコンテキストを示すように部分画像を組み合わせることで、このコンテキストを示す動画像を生成してもよい。具体的には、抽出部132は、処理対象のコンテンツに含まれるテキスト情報によって示されるコンテキストに関する情報として、コンテキストの特徴を示す文字列である対象文字列を抽出する。また、抽出部132は、抽出した対象文字列に関連する画像情報をさらに抽出し、生成部133は、対象文字列に関連する画像情報に含まれる各オブジェクトを示す画像であって、動画像を生成する際に組み合わせて用いられる部分的な画像である部分画像を生成し、生成した部分画像それぞれをコンテキストを示すように組み合わせることで、コンテキストを示す動画像を生成する。
この点について、図1の例を用いて説明する。かかる例の場合、生成装置100は、例えば、テンプレ情報記憶部122を有しない。このような状態において、抽出部132は、処理対象のコンテンツC11に含まれるテキスト情報によって示されるコンテキストの特徴を示す文字列(対象文字列)を、当該テキスト情報から抽出する。図1のステップS21で説明したように、抽出部132は、対象文字列として、「自転車二人乗り/飛び出し」「前方/大型トラック」「後方走行/車両」といった対象文字列の組をそれぞれ抽出したものとする。
次に、抽出部132は、各対象文字列の組に関連する(一致または類似する)キーワードがタグ付けされている画像情報を画像情報記憶部121の中から検索(抽出)する。そうすると、生成部133は、抽出された画像情報に含まれる各オブジェクトを示すパーツ画像を生成する。
対象文字列「自転車二人乗り/飛び出し」の例では、抽出部132は、対象文字列「自転車二人乗り/飛び出し」を「タグ」として付された画像情報を抽出する。ここで抽出された画像情報には、例えば、自転車二人乗り(オブジェクトの一例)を示す画像が含まれる。そこで、生成部133は、自転車二人乗りを示す画像に基づいて、自転車二人乗りを示す3次元画像PGF10-1を生成する。
また、対象文字列「後方走行/車両」の例では、抽出部132は、対象文字列「後方走行/車両」を「タグ」として付された画像情報を抽出する。ここで抽出された画像情報には、例えば、事故に関する乗用車を示す画像が含まれる。そこで、生成部133は、乗用車を示す画像に基づいて、乗用車を示す3次元画像PGF10-2を生成する。
また、対象文字列「前方/大型トラック」の例では、抽出部132は、「前方/大型トラック」を「タグ」として付された画像情報を抽出する。ここで抽出された画像情報には、例えば、事故に関する大型車両を示す画像が含まれる。そこで、生成部133は、大型車両を示す画像に基づいて、大型車両を示す3次元画像PGF10-3を生成する。
そして、生成部133は、テキスト情報TX11から検出したコンテキストを示すようにパーツ画像10-1~10-3を組み合わせる。そして、生成部133は、テキスト情報TX11から検出したコンテキストを示すようにパーツ画像10-1~10-3に動き(アニメーション)を付けることで当該コンテキストを再現する動画像を生成する。
このように、定型文と部分画像を対応付ける前処理を行う場合と、行わない場合とではそれぞれ利点がある。前者の場合、生成装置100は、テンプレ情報記憶部122において予めパーツ画像を有していることになるため、後はパーツ画像を組み合わせるだけで動画像を生成することができる。このため、生成装置100は、例えば、ユーザから配信要求を受け付けたそのタイミング、すなわちリアルタイムでも高速に動画像を生成することができる。また、後者では、生成装置100は、実質、処理対象のコンテンツのコンテキストと、画像情報記憶部121に記憶される画像情報とのマッチングを行うことになるため、よりコンテキストに合った動画像を抽出することができる。この結果、生成装置100は、処理対象のコンテンツのコンテキストに合った動画像を精度よく生成することができる。
〔7-2.学習モデルを用いた生成処理〕
また、生成装置100は、機械学習モデルを用いて動画像を生成することができる。具体的には、生成部133は、任意のテキスト情報によって示されるコンテキストと、当該コンテキストを示す動画像との関係性を学習したモデルに基づいて、処理対象のコンテンツに対応するコンテキストを示す動画像を生成する。例えば、生成部133は、コンテキストを示す情報と、当該コンテキストを示す動画像との組合せを正例として、コンテキストと動画像との関係性を学習したモデルを生成する。そして、生成部133は、生成したモデルを用いて、処理対象のコンテンツに対応するコンテキストを示す動画像を生成する。例えば、生成部133は、処理対象のコンテンツに含まれるテキスト情報を入力として、このテキスト情報によって示されるコンテキストに応じた動画像を出力するモデルを生成することができる。また、このようなモデルを用いることで、生成装置100は、より早く動画像を生成することができる。なお、モデルの生成(学習)は、生成部133以外の処理部によって行われてもよい。例えば、生成装置100は、学習部を有してもよい。
〔7-3.動画像をパーソナライズ化(1)〕
また、生成部133は、提供先のユーザ(図1の例では、詳細コンテンツの配信要求を送信した要求元ユーザ)に応じた態様で動画像が表示されるよう動画像の表示態様を制御してもよい。具体的には、生成部133は、抽出部132により抽出されたコンテキストに関する情報に基づいて、コンテキストを示す動画像を生成する。そして、生成部133は、このように生成した動画像について、処理対象のコンテンツが提供される提供先のユーザに関する所定の情報に基づいて、当該ユーザに応じた態様で表示されるよう動画像の表示態様を制御する。
動画像の表示態様を制御する一例として、生成部133は、所定の情報として、提供先のユーザの属性情報または履歴情報に基づいて、当該ユーザに応じた態様で動画像が表示されるよう動画像の表示態様を制御する。例えば、生成部133は、図6に示したユーザ情報記憶部124を参照し、ユーザU1(提供先のユーザの一例)の属性情報や履歴情報からユーザの興味の対象あるいは嗜好性を特定する。かかる例では、生成部133は、ユーザU1が「著名人AP」のファンであることを特定したとする。このような状態において、ユーザU1からの配信要求に応じて生成された動画像の元となったコンテキストが「著名人AP」に関するコンテキストであったとする。かかる場合、生成部133は、ユーザU1からの配信要求に応じて生成された動画像に含まれるオブジェクト(パーツ画像)のうち、「著名人AP」に対応する人物オブジェクトの見た目を抽象的な人物画像から「著名人AP」であることがわかる見た目に制御(変更)する。
これにより、生成装置100は、提供先のユーザに対する興味をより引き付け易いコンテンツを生成することができるため、ユーザ満足度の高いコンテンツ生成を実現することができる。
なお、図2に示すように、事故に遭遇している人物を示すパーツ画像PGF10-1の見た目が、提供先のユーザが好む著名人の見た目に変更された場合、ユーザは気分を害する恐れがある。したがって、生成部133は、例えば、コンテキストがポジティブな内容である場合に限り、上記のように見た目を変更する処理を行ってもよい。また、生成部133は、例えば、ユーザU1がカラフルな色合いを好むことを特定した場合には、動画像に含まれる各オブジェクトの色合いを単色から複数色に変更することで派手な見た目に変更することもできる。
〔7-4.動画像をパーソナライズ化(2)〕
動画像の表示態様を制御する他の一例として、生成部133は、所定の情報(ユーザの属性情報または履歴情報)に基づき特定されたユーザの嗜好性に応じて、動画像に含まれるオブジェクトのサイズ(縮小率、あるいは、拡大率)や配置位置を制御する。上記例と同様に、提供先のユーザをユーザU1とすると、ここで用いられる履歴情報は、生成装置100によってこれまでに生成された動画像が表示される詳細コンテンツであって、ユーザU1がこれまでに閲覧した詳細コンテンツを示す履歴情報である。このような状態において、生成部133は、ユーザU1がどのようなサイズ(縮小率、あるいは、拡大率)、および(または)、どのような位置関係でオブジェクトが配置されている動画像を閲覧している傾向にあるかを分析する。なお、かかる分析処理は生成部133以外の処理部(例えば、分析部)によって行われてもよい。
単純な例として、生成部133は、例えば、ユーザU1について、「人物を示すオブジェクトを画面の中心に大きく見せ、かつ、背景となるオブジェクトを人物の両端に配置する」というサイズ感および位置関係を好む傾向にあることを特定したとする。かかる場合、生成部133は、今回のユーザU1からの配信要求に応じて提供される動画像について、かかる動画像に含まれる各オブジェクトの表示態様を、ユーザU1が好む傾向にあるサイズ感および位置関係に応じた表示態様に制御する。
これにより、生成装置100は、提供先のユーザに対する興味をより引き付け易いコンテンツを生成することができるため、ユーザ満足度の高いコンテンツ生成を実現することができる。
〔8.ハードウェア構成〕
また、上記実施形態にかかる生成装置100は、例えば図9に示すような構成のコンピュータ1000によって実現される。図9は、生成装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、および、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、通信網50を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを、通信網50を介して他の機器へ送信する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを、入出力インターフェイス1600を介して出力装置へ出力する。
メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態にかかる生成装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを、記録媒体1800から読み取って実行するが、他の例として、他の装置から、通信網50を介してこれらのプログラムを取得してもよい。
〔9.その他〕
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
以上、本願の実施形態をいくつかの図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。
1 生成システム
10 端末装置
100 生成装置
120 記憶部
121 画像情報記憶部
122 テンプレ情報記憶部
123 コンテンツ情報記憶部
124 ユーザ情報記憶部
130 制御部
131 取得部
132 抽出部
133 生成部
134 解析部
135 提供部

Claims (12)

  1. 文字情報に係るコンテンツから、当該コンテンツが示すコンテキストに関する情報として、当該コンテキストの特徴を示す文字列である対象文字列を抽出し、画像情報に係るコンテンツから当該対象文字列に関連する画像情報を抽出し、任意のコンテンツに基づく定型文によって示されるコンテキストに応じた画像情報をさらに抽出する抽出部と、
    前記定型文によって示されコンテキストに応じた画像情報に含まれる各オブジェクトを示す画像であって、文字情報に係るコンテンツが示すコンテキストに従った動画像を生成する際に組み合わせて用いられる部分的な画像である部分画像を生成し、生成した部分画像と前記定型文とを組み合わせた組合せのうち、前記対象文字列関連する画像情報に含まれる各オブジェクトを示す画像であって、動画像を生成する際に組み合わせて用いられる部分的な画像である部分画像を前記コンテキストに基づき組み合わせた組み合わせに基づいて、前記文字情報に係るコンテンツについて、前記コンテキストに従った動画像を生成する生成部と
    を有することを特徴とする生成装置。
  2. 前記抽出部は、前記組合せのうち、前記対象文字列に対応する定型文を含む組合せに対して対応付けられている部分画像を抽出し、
    前記生成部は、前記コンテキストに基づいて前記部分画像を組み合わせることで、前記コンテキストに従った動画像を生成する
    ことを特徴とする請求項1に記載の生成装置。
  3. 前記生成部は、前記部分画像として、3次元情報に基づく画像情報を組み合わせることで、前記コンテキストに従った動画像を生成する
    ことを特徴とする請求項1または2に記載の生成装置。
  4. 前記生成部は、任意の文字情報によって示されるコンテキストと、当該コンテキストを示す動画像との関係性を学習したモデルに基づいて、処理対象のコンテンツに対応するコンテキストに従った動画像を生成する
    ことを特徴とする請求項1~のいずれか1つに記載の生成装置。
  5. 前記生成部は、前記コンテキストを示す情報と、当該コンテキストを示す前記動画像との組合せを正例として前記関係性を学習したモデルに基づいて、処理対象のコンテンツに対応するコンテキストに従った動画像を生成する
    ことを特徴とする請求項に記載の生成装置。
  6. 前記生成部は、前記文字情報に係るコンテンツ及び前記画像情報に係るコンテンツが提供される提供先のユーザに関する所定の情報に基づいて、当該ユーザに応じた態様で前記動画像が表示されるよう前記動画像の態様を制御する
    ことを特徴とする請求項1~のいずれか1つに記載の生成装置。
  7. 前記生成部は、前記所定の情報として、前記ユーザの属性情報または履歴情報に基づいて、当該ユーザに応じた態様で前記動画像が表示されるよう前記動画像の態様を制御する
    ことを特徴とする請求項に記載の生成装置。
  8. 前記生成部は、前記所定の情報に基づき特定された前記ユーザの嗜好性に応じて、前記動画像に含まれるオブジェクトの態様、当該オブジェクトのサイズ、または、当該オブジェクトの配置位置を制御する
    ことを特徴とする請求項またはに記載の生成装置。
  9. 前記文字情報に係るコンテンツ及び前記画像情報に係るコンテンツとともに、前記生成部により生成された動画像をユーザに提供する提供部をさらに有する
    ことを特徴とする請求項1~のいずれか1つに記載の生成装置。
  10. 前記提供部は、前記文字情報に係るコンテンツ及び前記画像情報に係るコンテンツに関する見出しが選択された場合に、前記文字情報に係るコンテンツ及び前記画像情報に係るコンテンツとともに、前記動画像を提供する
    ことを特徴とする請求項に記載の生成装置。
  11. 生成装置が実行する生成方法であって、
    文字情報に係るコンテンツから、当該コンテンツが示すコンテキストに関する情報として、当該コンテキストの特徴を示す文字列である対象文字列を抽出し、画像情報に係るコンテンツから当該対象文字列に関連する画像情報を抽出し、任意のコンテンツに基づく定型文によって示されるコンテキストに応じた画像情報をさらに抽出する抽出工程と、
    前記定型文によって示されコンテキストに応じた画像情報に含まれる各オブジェクトを示す画像であって、文字情報に係るコンテンツが示すコンテキストに従った動画像を生成する際に組み合わせて用いられる部分的な画像である部分画像を生成し、生成した部分画像と前記定型文とを組み合わせた組合せのうち、前記対象文字列関連する画像情報に含まれる各オブジェクトを示す画像であって、動画像を生成する際に組み合わせて用いられる部分的な画像である部分画像を前記コンテキストに基づき組み合わせた組み合わせに基づいて、前記文字情報に係るコンテンツについて、前記コンテキストに従った動画像を生成する生成工程と
    を含むことを特徴とする生成方法。
  12. 文字情報に係るコンテンツから、当該コンテンツが示すコンテキストに関する情報として、当該コンテキストの特徴を示す文字列である対象文字列を抽出し、画像情報に係るコンテンツから当該対象文字列に関連する画像情報を抽出し、任意のコンテンツに基づく定型文によって示されるコンテキストに応じた画像情報をさらに抽出する抽出手順と、
    前記定型文によって示されコンテキストに応じた画像情報に含まれる各オブジェクトを示す画像であって、文字情報に係るコンテンツが示すコンテキストに従った動画像を生成する際に組み合わせて用いられる部分的な画像である部分画像を生成し、生成した部分画像と前記定型文とを組み合わせた組合せのうち、前記対象文字列関連する画像情報に含まれる各オブジェクトを示す画像であって、動画像を生成する際に組み合わせて用いられる部分的な画像である部分画像を前記コンテキストに基づき組み合わせた組み合わせに基づいて、前記文字情報に係るコンテンツについて、前記コンテキストに従った動画像を生成する生成手順と
    をコンピュータに実行させることを特徴とする生成プログラム。
JP2019149020A 2019-08-15 2019-08-15 生成装置、生成方法および生成プログラム Active JP7289756B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019149020A JP7289756B2 (ja) 2019-08-15 2019-08-15 生成装置、生成方法および生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019149020A JP7289756B2 (ja) 2019-08-15 2019-08-15 生成装置、生成方法および生成プログラム

Publications (2)

Publication Number Publication Date
JP2021033367A JP2021033367A (ja) 2021-03-01
JP7289756B2 true JP7289756B2 (ja) 2023-06-12

Family

ID=74678335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019149020A Active JP7289756B2 (ja) 2019-08-15 2019-08-15 生成装置、生成方法および生成プログラム

Country Status (1)

Country Link
JP (1) JP7289756B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006227838A (ja) 2005-02-16 2006-08-31 Nec Corp 画像処理装置及び画像処理プログラム
JP2009212858A (ja) 2008-03-04 2009-09-17 Sharp Corp コンテンツ処理装置、コンテンツ処理方法、コンテンツ再生装置、プログラム、および記録媒体
JP6151404B1 (ja) 2016-04-26 2017-06-21 ヤフー株式会社 学習装置、学習方法および学習プログラム
JP2017126340A (ja) 2016-01-12 2017-07-20 株式会社4Colors 動画作成システム、動画作成方法、動画作成プログラム
JP2017169140A (ja) 2016-03-17 2017-09-21 ヤフー株式会社 生成装置、生成方法、及び生成プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006227838A (ja) 2005-02-16 2006-08-31 Nec Corp 画像処理装置及び画像処理プログラム
JP2009212858A (ja) 2008-03-04 2009-09-17 Sharp Corp コンテンツ処理装置、コンテンツ処理方法、コンテンツ再生装置、プログラム、および記録媒体
JP2017126340A (ja) 2016-01-12 2017-07-20 株式会社4Colors 動画作成システム、動画作成方法、動画作成プログラム
JP2017169140A (ja) 2016-03-17 2017-09-21 ヤフー株式会社 生成装置、生成方法、及び生成プログラム
JP6151404B1 (ja) 2016-04-26 2017-06-21 ヤフー株式会社 学習装置、学習方法および学習プログラム

Also Published As

Publication number Publication date
JP2021033367A (ja) 2021-03-01

Similar Documents

Publication Publication Date Title
KR102010221B1 (ko) 스마트폰 기반 방법들 및 시스템들
US10565255B2 (en) Method and system for selecting images based on user contextual information in response to search queries
KR101715971B1 (ko) 키워드 및 스트링 입력에 기초한 애니메이트된 미디어를 어셈블링하는 방법 및 시스템
TWI573042B (zh) 基於手勢標記來檢視相關內容
US10503829B2 (en) Book analysis and recommendation
CN103988202A (zh) 基于索引和搜索的图像吸引力
CN107835994A (zh) 通过图像的任务聚焦搜索
EP3109775A1 (en) Multimedia content providing method and device
CN105531700A (zh) 通过扩充服务的内容的自动扩充
CN105589852B (zh) 一种信息推荐的方法和装置
JP2007179276A (ja) 適合判定方法、装置、およびプログラム
JP2021510216A (ja) ビデオを分類・マッチングする方法、装置及び選択エンジン
JP4809201B2 (ja) 情報提供装置、情報提供方法、及びコンピュータプログラム
WO2023160555A1 (zh) 百科信息展示方法、装置、设备和介质
US20140161423A1 (en) Message composition of media portions in association with image content
CN109726329A (zh) 内容推荐方法、装置及设备
US11308154B2 (en) Method and system for dynamically overlay content provider information on images matched with content items in response to search queries
TWI609280B (zh) 在電子閱讀器環境中基於內容及物件元資料的搜尋
JP7289756B2 (ja) 生成装置、生成方法および生成プログラム
KR102538156B1 (ko) 전자 장치에서 시나리오 작성을 지원하기 위한 방법 및 그 장치
CN116150488A (zh) 呈现推荐内容的方法、装置、设备、介质和程序产品
TWM565376U (zh) 數位內容的整合瀏覽服務系統
US10496698B2 (en) Method and system for determining image-based content styles
CN111143595A (zh) 基于语音识别的图片管理方法、系统、介质及设备
TWI780333B (zh) 動態處理並播放多媒體內容的方法及多媒體播放裝置

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230531

R150 Certificate of patent or registration of utility model

Ref document number: 7289756

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350