JP2014149713A - 画像評価装置 - Google Patents

画像評価装置 Download PDF

Info

Publication number
JP2014149713A
JP2014149713A JP2013018446A JP2013018446A JP2014149713A JP 2014149713 A JP2014149713 A JP 2014149713A JP 2013018446 A JP2013018446 A JP 2013018446A JP 2013018446 A JP2013018446 A JP 2013018446A JP 2014149713 A JP2014149713 A JP 2014149713A
Authority
JP
Japan
Prior art keywords
image
feature amount
information
information indicating
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013018446A
Other languages
English (en)
Other versions
JP6033697B2 (ja
Inventor
Hayato Akatsuka
隼 赤塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2013018446A priority Critical patent/JP6033697B2/ja
Publication of JP2014149713A publication Critical patent/JP2014149713A/ja
Application granted granted Critical
Publication of JP6033697B2 publication Critical patent/JP6033697B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】ユーザの注目を惹くか否かという観点において任意の画像を適切に評価する。
【解決手段】画像評価装置1は、第1の画像に対するテキストを入力して、当該テキストの数を集計する集計部31と、第1の画像の特徴量を示す情報を取得する第1特徴量取得部34と、第1特徴量取得部34によって取得された特徴量を説明変数に対応する情報、及び集計部31によって集計された数に基づく情報を目的変数に対応する情報とした学習用データを用いて機械学習を実行して、任意の画像の特徴量を入力としてスコアを出力する学習モデルを生成する学習モデル生成部36と、第2の画像の特徴量を示す情報を取得する第2特徴量取得部52と、学習モデル生成部36によって生成された学習モデルに、第2特徴量取得部52によって取得された特徴量を説明変数として入力して、当該学習モデルの出力から第2の画像のスコアを算出するスコア算出部54と、を備える。
【選択図】図1

Description

本発明は、特に任意の画像を評価する画像評価装置に関する。
従来から、ウェブページのデザインとして、画像及びテキストを関連付けて表示するレイアウトが一般的に利用されている。このようなレイアウト表示は、例えばニュースサイト等において、ニュース記事の見出し表示等に用いられる。
このようなニュースサイト等の情報コンテンツをユーザに提供するサービスにおいては、コンテンツへの集客性を高める観点から、できるだけユーザの注目を惹く画像を表示することが好ましいと考えられる。しかし、そのような画像をウェブページの表示画像として選択するためには、ユーザの注目を惹くか否かという観点において画像を適切に評価する必要がある。
これに関連して、下記特許文献1において、ウェブ上に公開された画像について、話題性があると考えられる画像のランキングを自動的に行うための方法が開示されている。上記方法では、画像毎のインターネット上における掲載数をカウントし、当該カウント数が多いものほど上位となるように画像をランク付けしている。
特開2010−39533号公報
しかしながら、上記方法は、現にウェブ上に存在するウェブ画像の数(当該ウェブ画像が掲載されているウェブページの数)に基づいて画像を評価するものであり、当該画像がユーザの注目を惹くものであるか否かの観点において画像を評価するものではない。また、上記方法では、未だウェブ上に公開されておらず(又は公開されてから日が浅く)ユーザに知られていない画像について適切に評価することは困難である。
そこで本発明は、上記課題に鑑み、ユーザの注目を惹くか否かという観点において任意の画像を適切に評価することができる画像評価装置を提供することを目的とする。
本発明に係る画像評価装置は、第1の画像に対するテキストを入力して、当該テキストの数を集計する第1の集計手段と、第1の画像の特徴量を示す情報を取得する第1の特徴量取得手段と、第1の特徴量取得手段によって取得された特徴量を説明変数に対応する情報、及び第1の集計手段によって集計された数に基づく情報を目的変数に対応する情報とした学習用データを用いて機械学習を実行して、任意の画像の特徴量を入力としてスコアを出力する学習モデルを生成する学習モデル生成手段と、第2の画像の特徴量を示す情報を取得する第2の特徴量取得手段と、学習モデル生成手段によって生成された学習モデルに、第2の特徴量取得手段によって取得された特徴量を説明変数として入力して、当該学習モデルの出力から第2の画像のスコアを算出するスコア算出手段と、を備える。
本発明による画像評価装置では、画像(第1の画像)の特徴量を説明変数、当該画像に対するテキストの数を目的変数とした学習データを用いた機械学習を実行し、任意の画像の特徴量を入力としてスコアを出力する学習モデルを生成する。そして、生成した学習モデルを用いて任意の画像(第2の画像)のスコアを算出する。ここで、画像に対するテキストの数(例えばインターネット上の画像(又は画像を含むコンテンツ)に対してマイクロブログ等を介してユーザによって投稿されたテキストの数等)は、画像に対する関心及び注目度等を示す指標となり得る。即ち、上述のように生成された学習モデルにより算出されるスコアは、ユーザの注目を惹くか否かという観点における評価値とみなすことができる。したがって、本発明による画像評価装置によれば、未だウェブ上に公開されておらず(又は公開されてから日が浅く)ユーザに知られていない画像を含む任意の画像について、上記学習モデルを用いることにより、ユーザの注目を惹くか否かという観点において適切に評価することができる。
また、上記画像評価装置は、第1の画像の分類を示す情報を取得する第1の分類情報取得手段と、第2の画像の分類を示す情報を取得する第2の分類情報取得手段と、を更に備え、学習モデル生成手段は、第1の分類情報取得手段によって取得された情報によって示される第1の画像の分類に応じて学習モデルを生成し、スコア算出手段は、第2の分類情報取得手段によって取得された情報によって示される第2の画像の分類に応じた学習モデルを用いて第2の画像のスコアを算出してもよい。
例えば、同一又は近い特徴量を有する画像同士であっても、これらの画像間で例えば人物、動物、及び特定の建物等の分類が異なる場合には、ユーザに与える印象は異なり得る(即ち一方の分類に属する画像はユーザの注目を惹く場合であっても、他方の分類に属する画像はユーザの注目を惹かない場合があり得る)。上記画像評価装置によれば、画像の分類毎に生成した学習モデルを用いて、評価対象の画像の分類に応じた学習モデルを用いてスコアを算出することができるため、ユーザの注目を惹くか否かという観点において任意の画像をより適切に評価することができる。
また、上記画像評価装置では、第1の特徴量取得手段は、第1の画像を入力して、入力した第1の画像から特徴量を算出して、当該特徴量を示す情報を取得し、第2の特徴量取得手段は、第2の画像を入力して、入力した第2の画像から特徴量を算出して、当該特徴量を示す情報を取得してもよい。上記構成によれば、第1の特徴量取得手段及び第2の特徴量取得手段によって第1の画像及び第2の画像の特徴量を算出するため、予め第1の画像及び第2の画像の特徴量を別途用意しておく必要がないため、上記画像評価装置を操作するオペレータの操作性を向上させることができる。
また、上記画像評価装置では、第1の特徴量取得手段は、第1の画像の解像度を示す情報を取得し、当該画像の解像度を示す情報に基づいて第1の画像の特徴量を示す情報を生成し、第2の特徴量取得手段は、第2の画像の解像度を示す情報を取得し、当該画像の解像度を示す情報に基づいて第2の画像の特徴量を示す情報を生成してもよい。上記構成によれば、ユーザの注目を惹くか否かという観点において重要な指標となり得る画像の解像度を画像の特徴量の一要素とすることによって学習モデルの精度を向上させることができる。
また、上記画像評価装置では、第1の特徴量取得手段は、第1の画像に写っている物体の数を示す情報を取得し、当該物体の数を示す情報に基づいて第1の画像の特徴量を示す情報を生成し、第2の特徴量取得手段は、第2の画像に写っている物体の数を示す情報を取得し、当該物体の数を示す情報に基づいて第2の画像の特徴量を示す情報を生成してもよい。上記構成によれば、ユーザの注目を惹くか否かという観点において重要な指標となり得る画像に写っている物体の数を画像の特徴量の一要素とすることによって学習モデルの精度を向上させることができる。
また、上記画像評価装置では、第1の特徴量取得手段は、第1の画像に写っている人の表情を示す情報を取得し、当該人の表情を示す情報に基づいて第1の画像の特徴量を示す情報を生成し、第2の特徴量取得手段は、第2の画像に写っている人の表情を示す情報を取得し、当該人の表情を示す情報に基づいて第2の画像の特徴量を示す情報を生成してもよい。上記構成によれば、ユーザの注目を惹くか否かという観点において重要な指標となり得る画像に写っている人の表情を画像の特徴量の一要素とすることによって学習モデルの精度を向上させることができる。
また、上記画像評価装置では、第1の特徴量取得手段は、第1の画像に対するテキストを入力して、当該テキストに基づいて第1の画像の特徴量を示す情報を生成し、第2の特徴量取得手段は、第2の画像に対するテキストを入力して、当該テキストに基づいて第2の画像の特徴量を示す情報を生成してもよい。画像に対するテキストには、画像がユーザに与えた印象等の画像の特徴が間接的に含まれる場合がある。したがって、上記構成によれば、画像に対するテキストに間接的に含まれている画像の特徴を画像の特徴量の一要素とすることによって学習モデルの精度を向上させることができる。
また、上記画像評価装置では、第1の特徴量取得手段は、第1の画像に対するテキストの内容がネガティブなものか、ポジティブなものかを判定し、当該判定結果に基づいて第1の画像の特徴量を示す情報を生成し、第2の特徴量取得手段は、第2の画像に対するテキストの内容がネガティブなものか、ポジティブなものかを判定し、当該判定結果に基づいて第2の画像の特徴量を示す情報を生成してもよい。上記構成によれば、画像がユーザに肯定的な印象を抱かせるものか、否定的な印象を抱かせるものかという、ユーザの注目を惹くか否かという観点において重要な指標となり得る画像の特徴を画像の特徴量の一要素とすることができる。
また、上記画像評価装置は、第2の画像に対するテキストを入力して、当該第2の画像毎のテキストの数を集計する第2の集計手段と、スコア算出手段によって算出された第2の画像のスコア、及び第2の集計手段によって集計された数に基づいて、第2の画像の総合スコアを算出する総合スコア算出手段と、を更に備えてもよい。この構成によれば、画像についてユーザの注目を惹くであろうという観点において算出されたスコアと実際にユーザの注目を惹いていることを示す画像に対するテキストの数との両方を考慮したスコア(総合スコア)を算出できる。
また、上記画像評価装置は、第2の画像を複数取得する画像取得手段と、画像取得手段によって取得された第2の画像に対するテキストを取得するテキスト取得手段と、画像取得手段によって取得された第2の画像と、テキスト取得手段によって取得されたテキストとに基づいて、第2の画像同士が類似するか否かを判定する類似判定手段と、類似判定手段によって類似すると判定された複数の第2の画像について、スコア算出手段によって算出されたスコアに基づいて、複数の第2の画像を代表する代表画像を決定する代表画像決定手段と、を更に備えてもよい。
例えばニュースサイト等のウェブサイトにおいては、ユーザの注目を惹きやすい情報を提示しつつも、多種多様な情報をユーザに提示したい場合がある。即ち、ユーザに提示される情報が互いに似た(類似した)内容に偏ってしまうことを防止したい場合がある。上記構成によれば、複数の画像について互いに類似する画像同士を1つのグループ(類似群)にまとめることができる。そして、各グループで、画像のスコア(総合スコアを含む)に基づいてグループを代表する画像を適切に決定することができる。したがって、グループ毎にユーザの注目を惹きつけることが期待できる画像を揃えることができる。
本発明によれば、ユーザの注目を惹くか否かという観点において任意の画像を適切に評価することができる。
本発明の一実施形態に係る画像評価装置の機能構成を示すブロック図である。 画像評価装置のハードウェア構成を示す図である。 投稿情報の例を示す図である。 学習画像情報の例を示す図である。 集計結果の例を示す図である。 タグが付加された学習画像情報の例を示す図である。 ネガポジ判定に用いられる辞書情報の例を示す図である。 画像の特徴量の情報が付加された学習画像情報の例を示す図である。 タグ毎に学習モデルが生成されることを示す概念図である。 評価画像情報の例を示す図である。 タグ付加後及び画像の特徴量の情報付加後の評価画像情報ならびにスコア情報の例を示す図である。る。 判定用情報の例を示す図である。 評価画像毎及び形態素毎のTFIDF値の例を示す図である。 画像評価装置の動作を示すフロー図である。 画像評価装置によって出力された画像の総合スコア及び代表画像によって実現されるレイアウト例を示す図である。
以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。なお、図面の説明において同一又は同等の要素には同一の符号を付し、重複する説明を省略する。
図1は、本発明に係る画像評価装置の一実施形態の機能構成を示すブロック図である。本実施形態に係る画像評価装置1は、例えばコンテンツに含まれる画像又はテキストを雑誌風にレイアウト表示する情報サイト等において、掲載するコンテンツ及びその掲載位置を決定するのに有用な情報となり得る、コンテンツに含まれる画像のスコア(総合スコア)を算出する装置として構成されている。さらに、画像評価装置1は、当該総合スコアを用いることによって互いに類似する画像群毎に代表画像を決定する。ここで、「コンテンツ」とは、例えばインターネット上で公開されているブログ記事及びニュース記事等のWebコンテンツを指す。
上述のように画像又はテキストを雑誌風にレイアウト表示する情報サイトのウェブページにおいては、特に掲載対象コンテンツに含まれる画像のデザイン性やインパクト等が、ユーザによって注目される度合(例えば情報サイトへのユーザのアクセス数及び滞在率等)を左右すると考えられる。
一方、既にインターネット上に公開されてからある程度の日数が経過している画像については、実際にユーザによってツイッター等のマイクロブログサービスに投稿(送信)された当該画像(画像を含むコンテンツ)に対するコメントの数(実績値)に基づいて、ユーザの注目を惹く度合をある程度把握可能である。しかし、上述の情報サイト等においては、ユーザの興味を惹き続けるために、常に最新の情報を提供し続けなければならない。すなわち、公開されてから間もない画像(又は未公開の画像)の中から、できるだけユーザの注目を惹くような画像を選んで掲載することが求められる。
また上記情報サイトでは、できるだけ提供情報に偏りを生じさせずに多くの話題に関する情報を提供してユーザを飽きさせないことが要請される。即ち、ユーザの注目を惹く画像であっても、同一の内容及び話題等を示す互いに類似する画像を情報サイトに複数掲載されてしまうことを防止することが求められる。
このような事情の下、画像評価装置1は、学習用の画像(第1の画像)と当該画像に対して投稿されたユーザのテキストに基づいて画像の特徴量を入力としてユーザの注目を惹く度合を示すスコアを出力する学習モデルを生成する。そして、当該学習モデルを用いて情報サイトに掲載する候補のコンテンツに含まれる画像のスコアを算出し、当該スコアと掲載候補のコンテンツに対して投稿されたユーザのテキストの数とに基づいて画像の総合スコアを算出する。さらに、この総合スコアに基づいて、同一の話題等を示す類似する画像(類似群)の中から掲載コンテンツを選定する。これによって、ユーザの注目を惹く雑誌風なレイアウト表示が実現される。
画像評価装置1による出力結果(総合スコア及び代表画像)によって具体的に実現されるレイアウト例について図15を用いて説明する。同図右上のレイアウトは、例えば芸能人のブログ記事等を華やかにアレンジしたレイアウト例であり、同図右下のレイアウトは、例えば様々なジャンルのニュース記事をジャンル毎に1つ選んで並べたレイアウト例である。
例えば同図右上のレイアウトにおいては、画像領域とテキスト領域とから形成される各コンテンツ領域A1〜A5に対して、総合スコア上位の画像を含むコンテンツから画像領域の広い順(A1→A2→A3→A4→A5)に配置するといったことが可能となる。また、同図右下のレイアウトにおいては、各ジャンル(類似群)の中から決定された代表画像のうち上位6つの画像を掲載画像として選定することによって、バラエティ豊かな情報を提供しつつ、各ジャンルにおいてユーザの注目を惹く可能性の高い画像を掲載することが可能となる。
上記を実現するために、画像評価装置1は、投稿情報記憶部10、学習画像情報記憶部20、学習部30、評価画像情報記憶部40、評価部50、及びスコア利用部60を備える。
続いて、画像評価装置1のハードウェア構成について説明する。図2は、画像評価装置1のハードウェア構成図である。図2に示すように、画像評価装置1は、オペレーティングシステムやアプリケーションプログラムなどを実行するCPU101と、ROM及びRAMで構成される主記憶部102と、ハードディスクメモリなどで構成される補助記憶部103と、データ通信を行う通信制御部104と、液晶モニタなどで構成される出力部105と、入力デバイスであるキーボード、マウス及びマイク等で構成される入力部106と、USBメモリ、CD−ROM、DVDなどの記録媒体108を読み取る記録媒体読取部107とを備える。
図1に示す画像評価装置1の各機能は、CPU101の制御の下で、主記憶部102に所定のソフトウェアプログラムを読み込ませて実行することにより実現される。その際、CPU101は、ソフトウェアプログラムの処理手順に従い、主記憶部102及び補助記憶部103におけるデータの読み出し及び書き込み動作を制御し、入力部106、出力部105及び通信制御部104の動作を制御する。
図1に戻り、画像評価装置1の各機能要素について順に説明する。
投稿情報記憶部10は、ツイッター等のマイクロブログサービス等を介して、画像を含むコンテンツ(画像のみのコンテンツを含む)に対するコメントとしてユーザによって投稿(送信)されたテキストと、投稿時刻を示す情報とから生成した投稿情報を当該記憶する記憶手段である。
図3は、投稿情報の例を示す図である。図3に示すように、投稿情報は、コンテンツのインターネットアドレスを示す「URL」と、ユーザによってテキストが投稿された時刻(例えばマイクロブログサービスを提供するサーバがユーザの投稿を受信した時刻)の情報を示す「投稿時刻」と、コンテンツに対してユーザが投稿したコメントを示す「テキスト」とが関連付けられた情報である。
例えばツイッターの場合には、ユーザは、あるコンテンツに対するテキストを投稿する際には、テキスト中に当該コンテンツのURLを付すことが多い(例えば図3の「面白い xxx.com」)。したがって、このようにURLが含まれているテキストからURL部分を抽出することによって、投稿情報記憶部10は、上記形式の投稿情報を生成することができる。
ここでコンテンツに画像が含まれる場合には、当該コンテンツに対するテキストは、当該コンテンツに含まれる画像に対するテキストと捉えることもできる。よって、本実施形態においては、「コンテンツに対するテキスト」は「コンテンツに含まれる画像に対するテキスト」でもあるものとして考える。なお、コンテンツに複数の画像が含まれる場合には、コンテンツに対するテキストは複数の画像それぞれに対するテキストであると考えてもよいし、ウェブページの先頭に表示される画像に対するテキストであると考えてもよい。本実施形態においては、前者を前提として説明を行う。
投稿情報記憶部10は、例えば、予め指定されたテキスト取得元となるサイト(例えばツイッター)から、ユーザが投稿したテキスト及び当該テキストに関連付けられた投稿時刻を示す情報を予め指定されたタイミングで収集する。テキストの取得元及び収集タイミングを示す情報は、例えば管理者等によって予め投稿情報記憶部10に設定及び記憶されている。具体的には、投稿情報記憶部10は、マイクロブログサービスを提供すると共にユーザによって投稿されたテキストを保存するサーバに対して、インターネット経由で当該テキストの取得を要求して取得(受信)することとしてもよいし、他のシステム(不図示)が収集したテキストを、当該他のシステムからバッチ処理等によって取得(入力)してもよい。
学習画像情報記憶部20は、学習部30による機械学習に用いるための画像(学習画像、第1の画像)と、当該学習画像を含むコンテンツのURL(学習画像自身のURLを含む)とを関連付けた学習画像情報を記憶する手段である。図4は、学習画像情報の例を示す図である。図4に示すように、URL(xxx.com)に対して、当該URLで特定されるコンテンツに含まれる各画像(xxx1.jpg、xxx2.jpg)が学習画像として関連付けられている。また、URL(yyy.com/yyy.jpg)に対して、当該URLが指し示す画像(yyy.jpg)が学習画像として関連付けられている。
学習画像情報記憶部20は、例えば以下の方法により学習画像情報を取得する。即ち、学習画像情報記憶部20は、投稿情報記憶部10に記憶されている投稿情報を参照し、インターネット経由で当該投稿情報に含まれるURLが示すコンテンツにアクセスすることによって、当該コンテンツに含まれる画像を学習画像として取得する。このような処理は、例えば予め管理者等により指定されたタイミングで定期的に行われる。
ただし、投稿情報記憶部10及び学習画像情報記憶部20に投稿情報及び学習画像を記憶させる手順は、上述した手順に限定されない。例えば、以下のような手順が考えられる。管理者等がインターネット上に公開されている画像の中から学習用の画像として選定した画像を学習画像とし、当該学習画像と当該学習画像に紐付くURLとを関連付けた学習画像情報を学習画像情報記憶部20に記憶させる。その後、投稿情報記憶部10が、学習画像情報記憶部20に記憶されている学習画像情報を参照して、当該学習画像情報に含まれるURLに対するテキストをインターネット上から収集及び記憶するようにしてもよい。
学習部30は、機械学習によって、画像の特徴量を入力するとユーザの注目を惹くか否か(即ち、ユーザからのコメント(テキスト)数が伸びそうか否か)という観点でのスコアを出力する学習モデルを生成する機能要素である。学習部30は、集計部31、集計結果記憶部32、第1分類情報取得部33、第1特徴量取得部34、第1特徴量記憶部35、学習モデル生成部36、及び学習モデル記憶部37を備える。
集計部31は、投稿情報記憶部10に記憶されている学習画像(第1の画像)に対するテキストを含んだ投稿情報を読み込み(入力し)、URL毎のシェア数を集計する第1の集計手段である。「シェア数」とは、当該URLを含む投稿情報の数(テキストの数)の集計値である。例えば図3の例においては、「xxx.com」のシェア数は3と集計され、「yyy.com/yyy.jpg」のシェア数は2と集計される。
ここで、シェア数の集計は、予め集計期間として定められている一定期間内に投稿された投稿情報に絞り込んで行ってもよい。例えば図3の例において、集計期間が「2012年12月1日〜2012年12月31日」の1か月間として定められている場合には、投稿時刻が「2013/1/13 20:17」の投稿情報は集計対象から除外されて、「xxx.com」のシェア数は2となる。このように集計することで、特定の期間内におけるユーザによる注目度を示す指標としてのシェア数を得ることができる。
また、例えば、投稿情報に当該投稿情報を投稿したユーザを識別するIDをさらに関連付けておくことによって、シェア数としてユニークユーザ数(同一ユーザによる同一URLに対する2以上の投稿情報を1回として計数した値)を用いることができる。例えば図3の例において、「xxx.com」に対する「面白い xxx.com」及び「いいね! xxx.com」がユーザAによって投稿されたテキストであり、「だめだな。 xxx.com」がユーザBによって投稿されたテキストであるとすると、「xxx.com」のシェア数は2となる。このように集計することで、テキストを投稿した正味ユーザ数をカウントすることができるため、どのくらい多くのユーザに注目されているかを示す指標としてのシェア数を得ることができる。
集計部31は、集計したURL毎のシェア数(集計結果)を、集計結果を記憶する手段である集計結果記憶部32に記憶する。図5に集計結果記憶部32に記憶される集計結果の例を示す。
第1分類情報取得部33は、学習画像情報記憶部20に記憶されている学習画像情報を取得し、当該学習画像情報に含まれている学習画像(第1の画像)の分類を示す情報(タグ)を取得する第1の分類情報取得手段である。「画像の分類」とは、当該画像が何に関する画像であるか(何を被写体とする画像であるか)を示す分類(例えば「人物」、「建造物」、「東京タワー」等)である。
第1分類情報取得部33は、例えば、周知のタグ付け(タギング)手法のうちから選択した任意の手法によって学習画像のタグを取得する。また、第1分類情報取得部33は、自身でタギングを実行せずに、図示しない他システムに学習画像を入力し、当該他のシステムに学習画像のタグを出力させて、学習画像のタグを取得してもよい。また、予め学習画像に上記タグに相当する情報が付与されている場合(例えば画像ファイルのメタデータにタグに関する情報が埋め込まれている場合)には、当該タグに相当する情報をタグとして学習情報から取り出してもよい。このように、第1分類情報取得部33が学習画像のタグを取得する方法は、特に限定されない。
第1分類情報取得部33は、学習画像情報に学習画像について取得したタグを付加し、当該学習画像情報を第1特徴量取得部34に出力する。図6に、タグ付加後の学習画像情報の例を示す。この例では、学習画像「xxx1.jpg」及び「yyy.jpg」に対してはタグ「人」が付加されており(図6(a))、第1の画像「aaa1.jpg」及び「bbb.jpg」に対してはタグ「東京タワー」が付加されている(図6(b))。
第1特徴量取得部34は、第1分類情報取得部33から、図6に示されるようなタグが付加された学習画像情報を取得(入力)し、当該学習画像情報に含まれる学習画像(第1の画像)の特徴量を取得する第1の特徴量取得手段である。具体的には、第1特徴量取得部34は、学習画像を入力して、入力した学習画像から特徴量を算出する。ここで、「画像の特徴量」とは、例えば、画像の種々の特徴をそれぞれ数値化した値を予め定めた順に並べたベクトル値として表現される。
第1特徴量取得部34は、学習画像の解像度を示す情報を取得し、当該解像度に基づく画像の特徴量を生成する。第1特徴量取得部34は、例えば学習画像のファイルフォーマット情報(例えばEXIF(Exchangeable image file format)等)に含まれている解像度を示す情報を抽出することによって、学習画像の解像度を取得する。第1特徴量取得部34は、このようにして取得した学習画像の解像度の数値を画像の特徴量の一要素とする。即ち、上述のベクトル値の一要素に解像度の数値を含める。
また、第1特徴量取得部34は、学習画像に写っている物体の数を示す情報を取得し、当該物体の数に基づく画像の特徴量を生成する。第1特徴量取得部34は、例えば学習画像に対して任意の物体認識処理を実行することにより、学習画像の領域内に存在する物体の数を特定又は推定する。ここでいう「物体」は、「人の顔」等のように「物体(ここでは一例として「人」)の一部」であってもよい。第1特徴量取得部34は、このようにして特定又は推定した学習画像に写っている物体の数を画像の特徴量の一要素とする。即ち、上述のベクトル値の一要素に物体の数を含める。
このような物体認識処理は、例えば、デジタルカメラ等でピント合わせをする際等に利用される顔認識技術等の従来技術を応用することで実現される。より具体的には、顔認識技術では、予め「人の顔」のパターンを示すパターン情報を保持しておき、当該パターン情報に示されるパターンとの一致度を計算すること等によって顔認識を実現している。したがって、「人の顔」のパターンではなく、例えば「建物」、「食品」、「動物」等の任意の物体のパターンを示すパターン情報を用いることによって、顔認識技術と同様の認識処理により任意の物体の数を示す情報を取得することができる。
また、第1特徴量取得部34は、学習画像に写っている人の表情を示す情報を取得し、当該人の表情に基づく画像の特徴量を生成する。具体的には、例えば、第1特徴量取得部34は、学習画像に対して従来知られている顔認識技術を用いることによって、学習画像に写っている人の顔部分を抽出する。さらに、抽出した人の顔部分の画像に対して人の顔の表情を推定する表情推定技術を用いることによって、当該人の顔に現れている人の表情(例えば、喜び、驚き、恐怖、嫌悪、怒り、悲しみ、無表情等)それぞれの度合を示す数値(重み)を算出する。第1特徴量取得部34は、このようにして算出した学習画像に写っている人の顔の表情を示す重みを画像の特徴量の一要素とする。即ち、上述のベクトル値の一要素に人の顔の表情を示す重みを含める。
また、第1特徴量取得部34は、学習画像に対して投稿されたテキストを入力し、当該テキストの内容がネガティブ(否定的)なものか、ポジティブ(肯定的)なものかを判定(ネガポジ判定)し、この判定結果に基づく画像の特徴量を生成する。具体的には、第1特徴量取得部34は、以下に示す評判分析手法により実施する。
まず、第1特徴量取得部34は、ネガティブに関連付けられたワード(形態素)のリストを格納したネガティブワード辞書と、ポジティブに関連付けられたワードのリストを格納したポジティブワード辞書とを読み込み、ネガティブワード及びポジティブワードの情報を取得する。図7に、これらの辞書の例を示す。図7(a)は、ネガティブワード辞書の例を示しており、例えば「だめ」、「ひどい」等のワードがネガティブワードとして格納されている。図7(b)は、ポジティブワード辞書の例を示しており、例えば「いいね」、「面白い」等のワードがポジティブワードとして格納されている。なお、ネガティブワード辞書及びポジティブワード辞書は、例えば画像評価装置1内の図示しない記憶部に予め記憶されているものとする。
次に、第1特徴量取得部34は、第1分類情報取得部33から取得した学習画像情報を参照して、当該学習画像情報において学習画像と関連付けられたURLを抽出する。そして、第1特徴量取得部34は、投稿情報記憶部10に記憶された投稿情報のうちから、上記URLに関連付けられた投稿情報を抽出し、当該投稿情報に関連付けられたテキストを取得する。例えば、学習画像が図6(a)に示される「xxx1.jpg」である場合には、当該学習画像に関連付けられたURL「xxx.com」を抽出し、当該URLに関連付けられた投稿情報のテキストを取得する。例えば図3の例では、「面白い xxx.com」、「いいね! xxx.com」、及び「だめだな。 xxx.com」を取得する。
次に、第1特徴量取得部34は、予め読み込んだネガティブワード及びポジティブワードの各ワードについて、取得したテキストに含まれる各ワードの数を計数することによって、テキスト中に含まれるネガティブワード数及びポジティブワード数を算出する。
次に、第1特徴量取得部34は、学習画像に対するネガティブワード数及びポジティブワード数に基づく値を画像の特徴量とする。このような特徴量としては、例えば、単純なテキスト数を示す値である「ポジティブワードを含むテキスト数」及び「ネガティブワードを含むテキスト数」や、全体の中でのネガティブ又はポジティブの割合を示す値である「ポジティブワードを含むテキスト数/(ポジティブワードを含むテキスト数+ネガティブワードを含むテキスト数)」及び「ネガティブワードを含むテキスト数/(ポジティブワードを含むテキスト数+ネガティブワードを含むテキスト数)」等を用いることができる。第1特徴量取得部34は、このようにして算出したネガポジ判定結果に基づく値を画像の特徴量の一要素とする。即ち、上述のベクトル値の一要素にネガポジ判定結果に基づく値を含める。
なお、ネガポジ判定結果に基づく値を算出するには、上述の評判分析手法を用いる他、ユーザの発言内容(テキスト)を入力して、ポジティブ、ネガティブ、ニュートラルの3種類の分析結果(数値情報を含む)を出力するウェブサービス等を用いてもよい。即ち、このようなウェブサービスに学習画像に対するテキストを入力することによって得られた出力結果を、ネガポジ判定結果に基づく値としてもよい。
なお、第1特徴量取得部34は、上述した種々の画像の特徴量に加えて、例えば、ウェーブレット特徴量(Wavelet)、SIFT特徴量、SURF特徴量、Haar−like特徴量、HOG特徴量、JointHaar−like特徴量、Joint Hog特徴量、Shapelet特徴量等の一般的な特徴量を第1の画像の特徴量の一要素に含めてもよい。これらの特徴量についても、各特徴量を算出するための計算方法として従来知られている計算方法を用いることができる。
最終的に、第1特徴量取得部34は、上述した各特徴、即ち、画像の解像度の数値、画像に写っている物体の数、画像に写っている人の顔の表情に基づく重み、ネガポジ判定結果に基づく値、及びウェーブレット特徴量等の一般的な特徴量を予め定めた順序で結合し、学習画像の特徴ベクトル(第1の画像の特徴量)を取得する。第1特徴量取得部34は、取得した学習画像の特徴量を学習画像情報に付加する。
図8に、画像の特徴量の情報が付加された後の学習画像情報の例を示す。図8に示す特徴量の「1:0.3 2:0.3 3:1 4:9.1」との記載は、1つ目の特徴量(素性)の値が0.3、2つ目の特徴量(素性)の値が0.3、3つ目の特徴量(素性)の値が1、4つ目の特徴量(素性)の値が9.1であることを示している。
第1特徴量取得部34は、画像の特徴量の情報が付加された学習画像情報を第1特徴量記憶部35に記憶させる。
学習モデル生成部36は、任意の画像の特徴量を入力としてスコアを出力する学習モデルを生成する学習モデル生成手段である。具体的には、学習モデル生成部36は、第1特徴量記憶部35及び集計結果記憶部32から学習画像の特徴量及びシェア数の情報を取得し、当該学習画像の特徴量を説明変数、当該シェア数を目的変数とした学習用データを作成する。そして、学習モデル生成部36は、当該学習用データを用いて機械学習を実行し、任意の画像の特徴量を入力としてスコアを出力する学習モデルを生成する。ここで、学習モデル生成部36は、第1分類情報取得部33によって取得されたタグに応じて(タグ毎に)学習モデルを生成する。
例えば、集計結果記憶部32に記憶されている集計結果が図5、第1特徴量記憶部35に記憶されている学習画像情報(タグ及び特徴量が付加された情報)が図8のように示される場合について考える。この場合、学習モデル生成部36は、URLをキーとして集計結果と学習画像情報とを突き合わせることにより、学習画像「xxx1.jpg」の特徴量「1:0.3 2:0.3 3:1 4:9.1」を説明変数、当該学習画像を含むコンテンツのURL「xxx.com」に関連付けられたシェア数「56」を目的変数とする学習用データを作成することができる。学習モデル生成部36は、このようにして複数作成した学習用データをタグ毎に分別して保持する。
学習モデル生成部36は、タグ毎に作成された学習用データを用いて、タグ毎に機械学習を実行することにより、タグ毎に異なる学習モデルを生成する。このような機械学習の手法としては、例えば、サポートベクターマシン(SVM)、ニューラルネットワーク、及びAdaBoostに代表されるブースティング等の教師あり機械学習を用いることができる。
学習モデル生成部36は、タグ毎に生成した学習モデルを学習モデル記憶部37にタグ毎に記憶させる。図9に、タグ毎に生成された学習モデルの例を示す。この例では、「人」、「東京タワー」、「建物」のタグ毎に学習モデル生成部36によって生成された学習モデルが、それぞれ別の学習モデルとして学習モデル記憶部37に記憶される。
評価画像情報記憶部40は、学習部30によって生成された学習モデルを用いてスコアを算出する対象となる評価画像(第2の画像)と、当該評価画像を含むコンテンツのURLとを関連付けた評価画像情報を記憶する手段である。図10は、評価画像情報の例を示す図である。この図に示すように、評価画像情報の形式は、学習画像情報の形式と同一である。
評価画像情報記憶部40には、例えば上述の情報サイトの管理者によって、掲載候補のコンテンツに含まれる評価画像に関する評価画像情報が予め格納される。評価画像とは、例えば、直近一週間以内の最新ニュースを提供する情報サイトであれば、直近一週間以内にウェブ上に公開されたコンテンツに含まれる画像である。
本実施形態では、「評価画像はウェブ上に公開されて間もない画像又は未公開の画像」であるものとする。なお、このように、既に公開されて一定の期間を経過している画像を評価画像に含めない理由は、以下の通りである。即ち、既に公開されて一定の期間を経過している画像については、当該画像に対してウェブ上に投稿されたテキストの数をもって当該画像がユーザの注目を惹くか否かという観点での判断がある程度可能と考えられるため、後述する評価部50によって画像を評価する必要性があまりないと考えられるからである。
また、評価画像を学習画像として生成した学習モデルを用いて当該評価画像自身のスコアを算出することは妥当ではないため、学習画像情報記憶部20に記憶される学習画像には、評価画像情報記憶部40に記憶される評価画像と同一の画像は含まれないものとする。例えば、学習画像情報記憶部20は、画像に関連付けられたURLに基づいて評価画像情報記憶部40に記憶された評価画像と同一の学習画像を除外するものとし、学習部20は、評価画像を含まない学習画像に基づいて上述の学習処理を実行するものとする。ただし、評価画像には、上述のとおり既にウェブ上に公開されている画像が含まれるため、投稿情報記憶部10に評価画像に対するテキストが収集及び記憶されている場合があるものとする。
評価部50は、学習部30によって生成された学習モデルを用いて評価画像のスコアを算出する機能要素である。評価部50は、第2分類情報取得部51、第2特徴量取得部52、第2特徴量記憶部53、スコア算出部54、及びスコア情報記憶部55を備える。
第2分類情報取得部51は、評価画像情報記憶部40に記憶されている評価画像情報を取得し、当該評価画像(第2の画像)の分類を示す情報(タグ)を取得する第2の分類情報取得手段である。第2分類情報取得部51は、上述した第1分類情報取得部33と同一の方法及び手順により評価画像のタグを取得する。
第2分類情報取得部51は、評価画像情報に取得したタグを付加し、当該評価画像情報を第2特徴量取得部52に入力する。図11(a)に、タグが付加された評価画像情報の例を示す。この例では評価画像「ppp1.jpg」及び「qqq.jpg」に対して、タグ「人」及び「東京タワー」が付加されている。
第2特徴量取得部52は、第2分類情報取得部51から、図11(a)に示されるようなタグが付加された評価画像情報を取得(入力)し、当該評価画像情報に含まれる評価画像(第2の画像)の特徴量を取得する第2の特徴量取得手段である。第2特徴量取得部52は、第1特徴量取得部34が学習画像の特徴量の素性とした特徴量について、第1特徴量取得部34と同様の方法及び手順によって、評価画像の特徴量を取得する。
ここで、ネガポジ判定結果に基づく特徴量について述べる。評価画像は未公開の画像又はウェブ上に公開されて間もない画像であるため、インターネット上において評価画像に対する投稿情報が存在しない又は非常に少ないことが考えられる。しかしながら、評価部50によって評価画像を評価する時点において、評価画像に対するテキストが一定数以上投稿情報記憶部10に記憶されており、評価画像についてのネガポジ判定結果に基づく特徴量が適切に得られる可能性もある。そこで、第1特徴量取得部34及び第2特徴量取得部52が、ネガポジ判定結果に基づく特徴量を学習画像及び評価画像の特徴量の素性とすることによって、後述するスコア算出部54によるスコア算出において、ネガポジ判定結果に基づいて、より適切なスコアを算出できる可能性がある。ただし、評価画像として未公開の画像のみを利用する場合等、評価画像に対するテキストが一切存在しないことが予めわかっているような場合には、第1特徴量取得部34及び第2特徴量取得部52は、ネガポジ判定結果に基づく特徴量を学習画像及び評価画像の特徴量の素性としなくともよい。
第2特徴量取得部52は、取得した評価画像の特徴量の情報を評価画像情報に付加し、当該評価画像情報を第2特徴量記憶部53に記憶させる。図11(b)に、第2特徴量記憶部53に記憶される評価画像情報の例を示す。
スコア算出部54は、学習モデル生成部36によって生成された学習モデルを用いて評価画像のスコアを算出するスコア算出手段である。スコア算出部54は、評価画像毎に、当該評価画像のタグに応じた学習モデルを用いてスコアを算出する。以下、評価画像情報に対するスコア算出処理について説明する。
まず、スコア算出部54は、第2特徴量記憶部53から1つの評価画像情報(例えば図11(b)のURLが「ppp.com」の評価画像情報)を取得し、当該評価画像情報に含まれる評価画像「ppp1.jpg」の特徴量「1:0.2 2:0.5 3:1 4:9.1・・・」を取得する。また、スコア算出部54は、学習モデル記憶部37から、当該評価画像情報に含まれるタグ「人」に対応する学習モデルを取得する。
そして、スコア算出部54は、取得した学習モデル(タグ「人」に対応する学習モデル)に、取得した特徴量を説明変数として入力して、当該学習モデルの出力から評価画像「ppp1.jpg」のスコアを算出する。図11(c)に、このようにして算出されたスコアの例を示す。
スコア算出部54は、図11(c)に示すようにURL、評価画像、及びスコアを関連付けたスコア情報をスコア情報記憶部55に出力する。スコア情報記憶部55は、スコア情報を記憶するデータベース等の記憶手段である。
スコア利用部60は、評価部50によって算出された評価画像のスコアを利用して、掲載候補のコンテンツの中から掲載するコンテンツ及びその掲載位置を決定するのに有用な情報となり得る、掲載候補のコンテンツに含まれる評価画像の総合スコア及び類似群毎の代表画像を示す情報を出力する機能要素である。スコア利用部60は、画像取得部61、テキスト取得部62、第2集計部63、総合スコア算出部64、類似判定部65、及び代表画像決定部66を備える。
画像取得部61は、評価画像情報記憶部40から、評価画像を含む評価画像情報を複数取得する画像取得手段である。例えば、評価画像情報記憶部40に図10に示す3つの評価画像情報が記憶されている場合には、画像取得部61は、当該3つの評価画像情報を取得する。
テキスト取得部62は、画像取得部61によって取得された評価画像情報に含まれる評価画像(第2の画像)に対するテキストを取得するテキスト取得手段である。具体的には、テキスト取得部62は、評価画像情報に含まれるURLに関連付けられた投稿情報を投稿情報記憶部10から取得することによって、評価画像に対するテキストを取得する。
ここで、評価画像に対するテキストを取得するのは、評価画像に対するテキストが投稿情報記憶部10において一定数記憶されている場合には、後述する類似判定部65による類似判定及び評価画像の総合スコアの算出において、当該テキストの内容及び数を考慮することによって、より精度良く類似判定及び総合スコアの算出を行う可能性を高めることができると考えられるからである。
ただし、上述のように、評価画像は公開されて間もない画像又は未公開の画像であるため、テキスト取得部62が処理を実行する時点で、評価画像に対するテキストが投稿情報記憶部10に記憶されていない場合も考えられる。その場合には、以降の処理においては、評価画像に対するテキストに基づく判定及び処理を省略すればよい。
第2集計部63は、評価画像に対するテキストを入力して、当該評価画像毎のテキストの数を集計する第2の集計手段である。具体的には、第2集計部65は、例えばテキスト取得部62が取得したテキストを取得し、上述した集計部31と同一の方法及び手順によって評価画像毎のシェア数(テキストの数)を集計し、集計したシェア数を総合スコア算出部64に入力する。
総合スコア算出部64は、スコア算出部54によって算出された評価画像のスコア(スコア情報記憶部55に記憶されているスコア情報)、及び第2集計部63によって集計されたシェア数に基づいて、評価画像の総合スコアを算出する総合スコア算出手段である。具体的には、総合スコア算出部64は、例えば画像取得部61から評価画像情報を取得し、評価画像情報毎に、評価画像情報に含まれるURLに対応する評価画像のスコアをスコア情報記憶部55から取得し、当該URLに対応するシェア数を第2集計部63から取得する。そして、総合スコア算出部64は、例えば当該評価画像のスコア及び当該シェア数に対して予め定めた重み付けをそれぞれ掛けて足し合わせた値を総合スコアとして算出する。
類似判定部65は、画像取得部61によって取得された評価画像情報と、テキスト取得部62によって取得されたテキストとを取得し、当該評価画像情報に含まれる評価画像自体と当該テキストとに基づいて、評価画像同士が類似するか否か、即ち評価画像同士が同一の内容及び話題等を示すものか否かを判定する類似判定手段である。
類似判定部65による類似判定処理は、後述する代表画像決定部66によって掲載候補の評価画像を同一の内容及び話題等を示すグループ(類似群)毎の代表画像(掲載画像)を決定するための前段処理として位置付けられる処理である。
類似判定部65は、取得した評価画像情報とテキストとをURLによって突合することにより、図12に示すような、同一URLに関連付けられる評価画像及びテキストの組を示す情報を、判定用情報としてURL毎(評価画像毎)に取得する。類似判定部65は、当該組を示す情報を参照することによって、以下に説明する処理を行う。
類似判定部65は、判定用情報に含まれる評価画像及びテキストのそれぞれについて、画像ベース及びテキストベースの類似判定の手法を用いることによって、評価画像同士が類似するか否かを判定する。
まず、評価画像を用いた画像ベースの類似判定について説明する。画像の類似判定には、例えば、互いに類似する画像を入力すると互いに近似するハッシュ値を生成する知覚的ハッシュアルゴリズム(例えば「pHash」等)を用いる。SHA256やMD5等の一般的なハッシュ値生成アルゴリズムでは、入力元のデータが少しでも異なると全く異なる値のハッシュ値が生成されるが、知覚的ハッシュアルゴリズムでは、互いに類似するデータを入力として与えると類似度が大きい程近い値のハッシュ値を生成する。
したがって、類似判定部65は、例えば、各評価画像に対して任意の知覚的ハッシュアルゴリズムを実行することでハッシュ値を取得し、評価画像間でのハッシュ値の近似度を所定の計算式によって算出し、当該近似度が所定の閾値以上であるか否かによって評価画像同士の類似を判定する。即ち、上記近似度が所定の閾値以上である(類似度が一定以上の)場合には、評価画像同士は互いに類似すると判定し、上記近似度が所定の閾値未満である(類似度が一定未満の)場合には評価画像同士は互いに非類似と判定する。
次に、評価画像に対するテキストを用いたテキストベースの類似判定について説明する。テキストの類似判定は、評価画像毎(即ち評価画像に関連付けられるURL毎)に、形態素解析により得られた形態素毎のTFIDF値を並べた特徴ベクトルを生成し、当該特徴ベクトルの類似度をテキスト間で判定することにより行う。
まず、類似判定部65は、取得した全ての判定用情報に含まれる評価画像(URL)に対する全てのテキストに対して形態素解析を実行し、得られた形態素を処理対象の形態素とする。
次に、類似判定部65は、1つの評価画像に対するテキスト群を1つのドキュメントとして、ドキュメント内での形態素の出現頻度を示すTF値を算出する。したがって、TF値は、評価画像毎及び形態素毎に算出される。また、類似判定部65は、形態素毎に、全ドキュメント数(即ち全ての判定用情報に含まれるURL数)を、テキストが当該形態素を含むドキュメント数で割って対数を取ることでIDF値を算出する。したがって、IDF値は、形態素毎に算出される。
類似判定部65は、形態素毎に算出したTF値とIDF値との積を取ることで、図13に示すように、評価画像毎(URL毎)及び形態素毎のTFIDF値を取得する。類似判定部65は、このように取得したTFIDF値を並べた特徴ベクトルをURL毎に取得する。図13の例では、「ppp.com」の特徴ベクトルは「1.0,2.0,1.0,・・・」となり、「qqq.com」の特徴ベクトルは「1.5,2.0,0.5,・・・」となる。
類似判定部65は、URL毎に取得した特徴ベクトル同士について、例えばコサイン距離、ジャカード係数、及びピアソン相関係数を算出し、算出された値が予め定めた閾値以上である(類似度が一定以上の)場合には、評価画像同士は互いに類似すると判定し、上記値が閾値未満である(類似度が一定未満)場合には、評価画像同士は互いに非類似と判定する。
その他の方法として、類似判定部65は、上記特徴ベクトル同士について、マンハッタン距離及びユークリッド距離等の距離を算出し、算出された値算出された値が予め定めた閾値以上である(類似度が一定以上の)場合には、評価画像同士は互いに類似すると判定し、上記値が閾値未満である(類似度が一定未満)場合には、評価画像同士は互いに非類似と判定してもよい。
なお、類似判定部65による上記特徴ベクトル同士の類似度判定の手法は、これらが類似するか否かを判定できるものであれば、任意の指標及び方法に基づくものであってよく、上記方法に限定されない。
類似判定部65は、以上のように、評価画像を用いた画像ベースの類似度判定、及び評価画像に対すテキストを用いたテキストベースの類似判定を実行し、各判定結果に基づいて評価画像同士が類似するか否かの最終的な判定を行う。例えば、類似判定部65は、いずれか一方の判定結果が「類似する」である場合に評価画像同士は類似すると判定する。
例えば、図12に示すように、同一の内容(キャラクター肉まん)を示し、ユーザに与える印象がほぼ同一の評価画像同士であっても、評価画像間での全体的な特徴(構図、角度、色合い等)が必ずしも一致せず画像ベースでは非類似と判定される場合が考えられる。このような場合に、当該評価画像に対するテキストに基づく類似判定を併せて行うことによって、評価画像同士が類似である(同一の内容及び話題等を示す同一の類似群に属する)と適切に判定することができる。
類似判定部65は、例えば、互いに類似する評価画像が同一の類似群に属することを示す識別情報(類似ID)を画像取得部61から取得した評価画像情報に付加し、当該評価画像情報を代表画像決定部66に出力する。これにより、代表画像決定部66が、互いに類似する評価画像同士を認識することが可能となる。
代表画像決定部66は、類似判定部65によって互いに類似すると判定された複数の評価画像(類似群)について、総合スコア算出部64によって算出されたスコアに基づいて、当該類似群を代表する代表画像を決定する代表画像決定手段である。
具体的には、代表画像決定部66は、類似判定部65から取得した類似IDを含む評価画像情報と、総合スコア算出部64から取得した評価画像毎の総合スコアとを参照することによって、同一の類似群に属する評価画像のうち最も総合スコアが高い評価画像を抽出する。そして、代表画像決定部66は、抽出した評価画像を当該類似群における代表画像として決定する。
例えば、総合スコア算出部64によって算出された評価画像毎の総合スコア及び代表画像決定部66によって決定された類似群毎の代表画像を示す情報は、情報サイトのウェブページのレイアウトを決定するレイアウト決定装置(不図示)に出力される。レイアウト決定装置は、評価画像毎の総合スコア及び類似群毎の代表画像を示す情報に基づいて、例えば類似群毎の代表画像間で総合スコアの高い順での順位付を行うことができる。そして、レイアウト決定装置は、当該順位付に基づいて、例えば図15右上のレイアウトにおいて、上位の代表画像を含むコンテンツから順に、画像領域の広い順(コンテンツ領域A1→A2→A3→A4→A5)に割り当てることができる。
これによって、ウェブページ内が同一の類似群に属する画像に関するコンテンツで埋め尽くされず、バラエティ豊かなページが実現されるとともに、できるだけユーザの注目を惹く可能性の高い画像を含むコンテンツを優先的に配置することができる。
続いて、図14を用いて、画像評価装置1の動作について説明する。
図14に示すように、まず、集計部31によって、投稿情報記憶部10に記憶された学習画像(第1の画像)に対するテキストを含んだ投稿情報が読み込まれる。そして、学習画像に対するテキストの数(シェア数)が、学習画像毎(URL毎)に集計され、集計結果が集計結果記憶部32に記憶される(ステップS1、第1の集計ステップ)。
続いて、第1分類情報取得部33によって、学習画像情報記憶部20に記憶された学習画像情報が読み込まれる(入力される)。そして、学習画像毎に画像の分類を示すタグが取得され、当該タグを付加した学習画像情報が第1特徴量取得部34に出力される(ステップS2)。
続いて、第1特徴量取得部34によって、第1分類情報取得部33からタグが付加された学習画像情報が取得され、当該学習画像情報に含まれる学習画像の特徴量が取得される。そして、当該特徴量を示す情報を付加した学習画像情報が第1特徴量記憶部35に記憶される(ステップS3、第1の特徴量取得ステップ)。
続いて、学習モデル生成部36によって、集計結果記憶部32に記憶された集計結果と第1特徴量記憶部35に記憶された学習画像の特徴量とが取得される。そして、当該学習情報の特徴量を説明変数、当該集計結果を目的変数とした学習用データがタグ毎に作成され、当該学習データを用いた機械学習がタグ毎に実行される。これによって、任意の画像の特徴量を入力としてスコアを出力する学習モデルがタグ毎に生成され、学習モデル記憶部37に記憶される(ステップS4、学習モデル生成ステップ)。
続いて、第2分類情報取得部51によって、評価画像情報記憶部40に記憶された評価画像情報が読み込まれる(入力される)。そして、評価画像毎に画像の分類を示すタグが取得され、当該タグを付加した評価画像情報が第2特徴量取得部52に出力される(ステップS5)。
続いて、第2特徴量取得部52によって、第2分類情報取得部51からタグが付加された評価画像情報が取得され、当該評価画像情報に含まれる評価画像の特徴量が取得される。そして、当該特徴量を示す情報を付加した評価画像情報が第2特徴量記憶部53に記憶される(ステップS6、第2の特徴量取得ステップ)。
続いて、スコア算出部54によって、学習モデル記憶部37から評価画像に付加されたタグに応じた学習モデルが読み込まれる。そして、当該学習モデルに、評価画像の特徴量が説明変数として入力されて、学習モデルの出力から評価画像のスコアが算出される。そして、当該スコアを評価画像に関連付けたスコア情報がスコア情報記憶部55に記憶される(ステップS7、スコア算出ステップ)。
続いて、画像取得部61によって、評価画像情報記憶部40に記憶された評価画像情報(評価画像を示す情報を含む)が複数取得される(ステップS8)。また、テキスト取得部62によって、画像取得部61によって取得された評価画像情報に含まれる評価画像に対するテキストが取得される(ステップS9)。
続いて、第2集計部63によって、テキスト取得部62が取得したテキストが取得され、評価画像に対するテキストの数(シェア数)が、評価画像毎(URL毎)に集計され、集計結果が総合スコア算出部64に出力される(ステップS10)。
続いて、総合スコア算出部64によって、画像取得部61から評価画像情報が取得され、評価画像情報に含まれるURLに対応する評価画像のスコアがスコア情報記憶部55から読み込まれ、当該URLに対応するシェア数が第2集計部63から入力される。そして、当該評価画像のスコア及び当該シェア数に基づいて総合スコアが算出され、当該総合スコアが代表画像決定部66に出力される(ステップS11)。
続いて、類似判定部65によって、画像取得部61によって取得された評価画像情報及びテキスト取得部62によって取得されたテキストが読み込まれ、当該評価画像情報に含まれる評価画像自体と当該テキストとに基づいて評価画像同士が類似するか否かが判定される。ここで、互いに類似すると判定された評価画像同士は同一の類似群に分類される。即ち、評価画像情報に互いに類似する評価画像が同一の類似群に属することを示す類似IDが付加される。当該類似IDが付加された評価画像情報は、代表画像決定部66に出力される(ステップS12)。
続いて、代表画像決定部66によって、類似判定部65から類似IDを付加された評価画像情報が取得され、総合スコア算出部64から評価画像毎の総合スコアが算出される。そして、当該評価画像情報及び当該総合スコアに基づいて、同一の類似群に属する評価画像のうち最も総合スコアが高い評価画像が抽出され、抽出された評価画像が代表画像として決定される(ステップS13)。
本実施形態に係る画像評価装置1では、学習部20によって、学習画像(第1の画像)の特徴量を説明変数、当該学習画像に対するテキストの数を目的変数とした学習データを用いた機械学習を実行し、任意の画像の特徴量を入力としてスコアを出力する学習モデルを生成する。そして、評価部50によって、生成された学習モデルを用いて任意の評価画像(第2の画像)のスコアを算出する。
ここで、画像に対するテキストの数(例えばインターネット上の画像(又は画像を含むコンテンツ)に対してマイクロブログ等を介してユーザによって投稿されたテキストの数等)は、画像に対する関心及び注目度等を示す指標となり得る。即ち、上述のように生成された学習モデルにより算出されるスコアは、ユーザの注目を惹くか否かという観点における評価値とみなすことができる。
したがって、画像評価装置1によれば、未だウェブ上に公開されておらず(又は公開されてから日が浅く)ユーザに知られていない画像を含む評価画像(本実施形態では、掲載候補の任意の画像)について、上記学習モデルを用いることにより、ユーザの注目を惹くか否かという観点において適切に評価することができる。
また、画像評価装置1によれば、画像の分類(タグ)毎に生成した学習モデルを用いて、タグに応じた学習モデルを用いて評価画像のスコアを算出するため、ユーザの注目を惹くか否かという観点において評価画像をより適切に評価することができる。
また、画像評価装置1では、第1特徴量取得部34及び第2特徴量取得部52によって学習画像及び評価画像の特徴量を算出するため、予め学習画像及び評価画像の特徴量を別途用意しておく必要がないため、画像評価装置1を操作するオペレータの操作性を向上させることができる。
また、画像評価装置1では、第1特徴量取得部34及び第2特徴量取得部52によって、ユーザの注目を惹くか否かという観点において重要な指標となり得る画像の解像度の数値、画像に写っている物体の数、及び画像に写っている人の顔の表情に基づく重みに基づく値を画像の特徴量の一要素とすることができる。また、画像に対するテキストには、画像がユーザに与えた印象等の画像の特徴が間接的に含まれる場合があるところ、画像がユーザに肯定的な印象を抱かせるものか、否定的な印象を抱かせるものかという、ユーザの注目を惹くか否かという観点において重要な指標となり得るネガティブ判定結果に基づく値を画像の特徴量の一要素とすることもできる。以上により、学習モデルの精度を向上させることができる。
また、画像評価装置1では、学習モデルを用いて算出された評価画像についてのスコア(ユーザの注目を惹くであろうという観点におけるスコア)と、実際にユーザの注目を惹いていることを示す画像に対するテキストの数との両方を考慮したスコア(総合スコア)を算出することができる。
また、画像評価装置1では、複数の評価画像について互いに類似する画像同士を1つのグループ(類似群)にまとめることができる。そして、類似群毎に、評価画像のスコア(本実施形態では総合スコアを用いた)に基づいて当該類似群を代表する画像を適切に決定することができる。したがって、類似群毎にユーザの注目を惹きつけることが期待できる画像を揃えることができる。
先に述べたように、総合スコア算出部64によって算出された評価画像毎の総合スコアと、代表画像決定部66によって決定された類似群毎の代表画像とに基づいて、図15右側に示すような情報サイトのレイアウトにおいて、ユーザの注目を惹くという観点においてより適切なコンテンツの配置が実現される。
即ち、同図右上のレイアウトにおいては、画像領域とテキスト領域とから形成される各コンテンツ領域A1〜A5に対して、総合スコアが上位の評価画像を含むコンテンツから画像領域の広い順(A1→A2→A3→A4→A5)に配置するといったことが可能となる。また、同図右下のレイアウトにおいては、各ジャンル(類似群)の中から決定された代表画像のうち上位6つの画像を掲載画像として選定することによって、バラエティ豊かな情報を提供しつつ、各ジャンルにおいてユーザの注目を惹く可能性の高い画像を掲載することが可能となる。
1…画像評価装置、10…投稿情報記憶部、20…学習画像情報記憶部、30…学習部、31…集計部、32…集計結果記憶部、33…第1分類情報取得部、34…第1特徴量取得部、35…第1特徴量記憶部、36…学習モデル生成部、37…学習モデル記憶部、40…評価情報記憶部、50…評価部、51…第2分類情報取得部、52…第2特徴量取得部、53…第2特徴量記憶部、54…スコア算出部、55…スコア情報記憶部、60…スコア利用部、61…画像取得部、62…テキスト取得部、63…第2集計部、64…総合スコア算出部、65…類似判定部、66…代表画像決定部。

Claims (10)

  1. 第1の画像に対するテキストを入力して、当該テキストの数を集計する第1の集計手段と、
    前記第1の画像の特徴量を示す情報を取得する第1の特徴量取得手段と、
    前記第1の特徴量取得手段によって取得された特徴量を説明変数に対応する情報、及び前記第1の集計手段によって集計された数に基づく情報を目的変数に対応する情報とした学習用データを用いて機械学習を実行して、任意の画像の特徴量を入力としてスコアを出力する学習モデルを生成する学習モデル生成手段と、
    第2の画像の特徴量を示す情報を取得する第2の特徴量取得手段と、
    前記学習モデル生成手段によって生成された学習モデルに、前記第2の特徴量取得手段によって取得された特徴量を説明変数として入力して、当該学習モデルの出力から前記第2の画像のスコアを算出するスコア算出手段と、
    を備える画像評価装置。
  2. 前記第1の画像の分類を示す情報を取得する第1の分類情報取得手段と、
    前記第2の画像の分類を示す情報を取得する第2の分類情報取得手段と、を更に備え、
    前記学習モデル生成手段は、第1の分類情報取得手段によって取得された情報によって示される前記第1の画像の分類に応じて学習モデルを生成し、
    前記スコア算出手段は、第2の分類情報取得手段によって取得された情報によって示される前記第2の画像の分類に応じた学習モデルを用いて前記第2の画像のスコアを算出する、請求項1に記載の画像評価装置。
  3. 前記第1の特徴量取得手段は、前記第1の画像を入力して、入力した第1の画像から特徴量を算出して、当該特徴量を示す情報を取得し、
    前記第2の特徴量取得手段は、前記第2の画像を入力して、入力した第2の画像から特徴量を算出して、当該特徴量を示す情報を取得する、請求項1又は2に記載の画像評価装置。
  4. 前記第1の特徴量取得手段は、前記第1の画像の解像度を示す情報を取得し、当該画像の解像度を示す情報に基づいて前記第1の画像の特徴量を示す情報を生成し、
    前記第2の特徴量取得手段は、前記第2の画像の解像度を示す情報を取得し、当該画像の解像度を示す情報に基づいて前記第2の画像の特徴量を示す情報を生成する、請求項1〜3の何れか一項に記載の画像評価装置。
  5. 前記第1の特徴量取得手段は、前記第1の画像に写っている物体の数を示す情報を取得し、当該物体の数を示す情報に基づいて前記第1の画像の特徴量を示す情報を生成し、
    前記第2の特徴量取得手段は、前記第2の画像に写っている物体の数を示す情報を取得し、当該物体の数を示す情報に基づいて前記第2の画像の特徴量を示す情報を生成する、請求項1〜4の何れか一項に記載の画像評価装置。
  6. 前記第1の特徴量取得手段は、前記第1の画像に写っている人の表情を示す情報を取得し、当該人の表情を示す情報に基づいて前記第1の画像の特徴量を示す情報を生成し、
    前記第2の特徴量取得手段は、前記第2の画像に写っている人の表情を示す情報を取得し、当該人の表情を示す情報に基づいて前記第2の画像の特徴量を示す情報を生成する、請求項1〜5の何れか一項に記載の画像評価装置。
  7. 前記第1の特徴量取得手段は、前記第1の画像に対するテキストを入力して、当該テキストに基づいて前記第1の画像の特徴量を示す情報を生成し、
    前記第2の特徴量取得手段は、前記第2の画像に対するテキストを入力して、当該テキストに基づいて前記第2の画像の特徴量を示す情報を生成する、請求項1〜6の何れか一項に記載の画像評価装置。
  8. 前記第1の特徴量取得手段は、前記第1の画像に対するテキストの内容がネガティブなものか、ポジティブなものかを判定し、当該判定結果に基づいて前記第1の画像の特徴量を示す情報を生成し、
    前記第2の特徴量取得手段は、前記第2の画像に対するテキストの内容がネガティブなものか、ポジティブなものかを判定し、当該判定結果に基づいて前記第2の画像の特徴量を示す情報を生成する、請求項7に記載の画像評価装置。
  9. 第2の画像に対するテキストを入力して、当該第2の画像毎のテキストの数を集計する第2の集計手段と、
    前記スコア算出手段によって算出された前記第2の画像のスコア、及び前記第2の集計手段によって集計された数に基づいて、前記第2の画像の総合スコアを算出する総合スコア算出手段と、を更に備える、請求項1〜8の何れか一項に記載の画像評価装置。
  10. 第2の画像を複数取得する画像取得手段と、
    前記画像取得手段によって取得された第2の画像に対するテキストを取得するテキスト取得手段と、
    前記画像取得手段によって取得された第2の画像と、前記テキスト取得手段によって取得されたテキストとに基づいて、前記第2の画像同士が類似するか否かを判定する類似判定手段と、
    前記類似判定手段によって類似すると判定された複数の第2の画像について、前記スコア算出手段によって算出されたスコアに基づいて、当該複数の第2の画像を代表する代表画像を決定する代表画像決定手段と、
    を更に備える請求項1〜9の何れか一項に記載の画像評価装置。
JP2013018446A 2013-02-01 2013-02-01 画像評価装置 Active JP6033697B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013018446A JP6033697B2 (ja) 2013-02-01 2013-02-01 画像評価装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013018446A JP6033697B2 (ja) 2013-02-01 2013-02-01 画像評価装置

Publications (2)

Publication Number Publication Date
JP2014149713A true JP2014149713A (ja) 2014-08-21
JP6033697B2 JP6033697B2 (ja) 2016-11-30

Family

ID=51572628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013018446A Active JP6033697B2 (ja) 2013-02-01 2013-02-01 画像評価装置

Country Status (1)

Country Link
JP (1) JP6033697B2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016151640A1 (ja) * 2015-03-26 2016-09-29 日本電気株式会社 学習システム、方法およびプログラム
JP2017135505A (ja) * 2016-01-26 2017-08-03 ヤフー株式会社 生成装置、生成方法、及び生成プログラム
KR101831821B1 (ko) * 2016-10-04 2018-02-23 한국과학기술원 삼차원 모델의 대표 이미지 생성 장치 및 방법
JP2019053409A (ja) * 2017-09-13 2019-04-04 ヤフー株式会社 付与装置、付与方法、付与プログラム、及びモデル
JP2019531783A (ja) * 2016-08-26 2019-11-07 エレクタ、インク.Elekta, Inc. 畳み込みニューラルネットワークを用いた画像セグメンテーションのためのシステムおよび方法
JP2019219945A (ja) * 2018-06-20 2019-12-26 Zホールディングス株式会社 データ抽出装置、データ抽出方法、及びプログラム
WO2020039476A1 (ja) * 2018-08-20 2020-02-27 株式会社ソニー・インタラクティブエンタテインメント メッセージ出力装置、学習装置、メッセージ出力方法、学習方法及びプログラム
CN113226153A (zh) * 2018-12-26 2021-08-06 佳能株式会社 图像处理装置、图像处理方法和程序
JP2021128723A (ja) * 2020-02-17 2021-09-02 ヤフー株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP2022048237A (ja) * 2018-08-20 2022-03-25 株式会社ソニー・インタラクティブエンタテインメント メッセージ出力装置、メッセージ出力方法及びプログラム
JP7475405B2 (ja) 2022-09-20 2024-04-26 Lineヤフー株式会社 情報処理装置、情報処理方法および情報処理プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007279930A (ja) * 2006-04-05 2007-10-25 Hitachi Ltd 画像処理プログラム、画像処理装置
JP2009282824A (ja) * 2008-05-23 2009-12-03 Toyota Central R&D Labs Inc 感情推定装置及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007279930A (ja) * 2006-04-05 2007-10-25 Hitachi Ltd 画像処理プログラム、画像処理装置
JP2009282824A (ja) * 2008-05-23 2009-12-03 Toyota Central R&D Labs Inc 感情推定装置及びプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JPN6016026624; 石原のぞみ、外4名: 'ウェブ上の類似画像に付加されたメタ情報に基づく画像スコアリング' インタラクション2011予稿集[online] , 20110311, 一般社団法人情報処理学会 *
JPN7016001926; Pedro, Jose San. et al.: 'Ranking and Classifying Attractiveness of Photos in Folksonomies' Proceedings of the 18th international conference on World Wide Web , 20090420, pp.771-780, ACM *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016151640A1 (ja) * 2015-03-26 2016-09-29 日本電気株式会社 学習システム、方法およびプログラム
JPWO2016151640A1 (ja) * 2015-03-26 2017-10-26 日本電気株式会社 学習システム、方法およびプログラム
JP2017135505A (ja) * 2016-01-26 2017-08-03 ヤフー株式会社 生成装置、生成方法、及び生成プログラム
JP2019531783A (ja) * 2016-08-26 2019-11-07 エレクタ、インク.Elekta, Inc. 畳み込みニューラルネットワークを用いた画像セグメンテーションのためのシステムおよび方法
KR101831821B1 (ko) * 2016-10-04 2018-02-23 한국과학기술원 삼차원 모델의 대표 이미지 생성 장치 및 방법
JP2019053409A (ja) * 2017-09-13 2019-04-04 ヤフー株式会社 付与装置、付与方法、付与プログラム、及びモデル
JP2019219945A (ja) * 2018-06-20 2019-12-26 Zホールディングス株式会社 データ抽出装置、データ抽出方法、及びプログラム
JP7181014B2 (ja) 2018-06-20 2022-11-30 ヤフー株式会社 データ抽出装置、データ抽出方法、及びプログラム
JPWO2020039476A1 (ja) * 2018-08-20 2021-05-13 株式会社ソニー・インタラクティブエンタテインメント メッセージ出力装置、学習装置、メッセージ出力方法、学習方法及びプログラム
JP7014913B2 (ja) 2018-08-20 2022-02-01 株式会社ソニー・インタラクティブエンタテインメント メッセージ出力装置、学習装置、メッセージ出力方法、学習方法及びプログラム
JP2022048237A (ja) * 2018-08-20 2022-03-25 株式会社ソニー・インタラクティブエンタテインメント メッセージ出力装置、メッセージ出力方法及びプログラム
WO2020039476A1 (ja) * 2018-08-20 2020-02-27 株式会社ソニー・インタラクティブエンタテインメント メッセージ出力装置、学習装置、メッセージ出力方法、学習方法及びプログラム
JP7285349B2 (ja) 2018-08-20 2023-06-01 株式会社ソニー・インタラクティブエンタテインメント メッセージ出力装置、メッセージ出力方法及びプログラム
US11711328B2 (en) 2018-08-20 2023-07-25 Sony Interactive Entertainment Inc. Message output apparatus, learning apparatus, message output method, learning method, and program
CN113226153A (zh) * 2018-12-26 2021-08-06 佳能株式会社 图像处理装置、图像处理方法和程序
JP2021128723A (ja) * 2020-02-17 2021-09-02 ヤフー株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP7144468B2 (ja) 2020-02-17 2022-09-29 ヤフー株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP7475405B2 (ja) 2022-09-20 2024-04-26 Lineヤフー株式会社 情報処理装置、情報処理方法および情報処理プログラム

Also Published As

Publication number Publication date
JP6033697B2 (ja) 2016-11-30

Similar Documents

Publication Publication Date Title
JP6033697B2 (ja) 画像評価装置
KR102092691B1 (ko) 웹페이지 트레이닝 방법 및 기기, 그리고 검색 의도 식별 방법 및 기기
JP6240916B2 (ja) 視覚的クエリーに応答したテキスト用語の識別
Cappallo et al. New modality: Emoji challenges in prediction, anticipation, and retrieval
JP6381775B2 (ja) 情報処理システム及び情報処理方法
JP6506439B1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
WO2021019831A1 (ja) 管理システム及び管理方法
US9483740B1 (en) Automated data classification
JP6767342B2 (ja) 検索装置、検索方法および検索プログラム
WO2013080214A1 (en) Topic extraction and video association
JP6529133B2 (ja) 複数地域でのトピックの評価を分析する装置、プログラム及び方法
WO2016114790A1 (en) Reading difficulty level based resource recommendation
CN114238573B (zh) 基于文本对抗样例的信息推送方法及装置
US10289624B2 (en) Topic and term search analytics
JP5048852B2 (ja) 検索装置、検索方法、検索プログラム、及びそのプログラムを記憶するコンピュータ読取可能な記録媒体
US9516089B1 (en) Identifying and processing a number of features identified in a document to determine a type of the document
JP5952756B2 (ja) 予測対象コンテンツにおける将来的なコメント数を予測する予測サーバ、プログラム及び方法
CN110647504B (zh) 司法文书的检索方法及装置
JP5138621B2 (ja) 情報処理装置及び不満解決商品発見方法及びプログラム
JP2016076115A (ja) 情報処理装置、情報処理方法及びプログラム
EP3731108A1 (en) Search system, search method, and program
JP6696270B2 (ja) 情報提供サーバ装置、プログラム及び情報提供方法
KR101318843B1 (ko) 시간 정보를 활용한 블로그 카테고리 분류 방법 및 장치
JP6696344B2 (ja) 情報処理装置及びプログラム
JP2017068862A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150814

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161026

R150 Certificate of patent or registration of utility model

Ref document number: 6033697

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250