JP7158902B2 - 情報処理装置、情報処理方法、及び情報処理プログラム - Google Patents
情報処理装置、情報処理方法、及び情報処理プログラム Download PDFInfo
- Publication number
- JP7158902B2 JP7158902B2 JP2018112463A JP2018112463A JP7158902B2 JP 7158902 B2 JP7158902 B2 JP 7158902B2 JP 2018112463 A JP2018112463 A JP 2018112463A JP 2018112463 A JP2018112463 A JP 2018112463A JP 7158902 B2 JP7158902 B2 JP 7158902B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- moving image
- scene
- information
- highlight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 75
- 238000003672 processing method Methods 0.000 title claims description 17
- 238000001514 detection method Methods 0.000 claims description 61
- 230000005540 biological transmission Effects 0.000 claims description 34
- 238000000605 extraction Methods 0.000 claims description 17
- 238000004458 analytical method Methods 0.000 claims description 13
- 230000009471 action Effects 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 6
- 238000012545 processing Methods 0.000 description 24
- 238000000034 method Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 13
- 238000010191 image analysis Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000003780 insertion Methods 0.000 description 6
- 230000037431 insertion Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000010411 cooking Methods 0.000 description 5
- 230000009191 jumping Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 235000013305 food Nutrition 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
特許文献1に記載の情報処理装置(動画像解析装置)は、動画を解析して、シーンの切り替わりの位置を検出し、シーンの切り替わりの位置にCM(広告)を挿入する。
また、シーンの一部にCMを挿入する態様として、特許文献1では、再生開始から15分間隔でCMを挿入している。しかし、ユーザによっては、動画の途中をスキップし、見所のみを視聴するユーザも存在し、この場合、見所のシーンがCMの挿入対象ではない場合、ユーザにCMを視聴させることができない。すなわち、ユーザ毎に動画に対する見所が異なる場合があり、ユーザにとっての見所を判定できないと、ユーザにCMを視聴させることができず、広告効果が低下する。
以下、本発明に係る第一実施形態について説明する。
[1.情報処理システムの全体構成]
図1は、本実施形態の情報処理システム1の概略構成を示す図である。
図1に示すように、情報処理システム1は、本発明の情報処理装置であるサーバ装置10と、サーバ装置10にインターネットを介して接続されるユーザ端末20とを備えている。
この情報処理システム1では、ユーザ端末20からサーバ装置10に対して、動画の送信を要求する動画送信要求を送信することで、サーバ装置10は、要求送信元のユーザ端末20に動画(動画コンテンツ)を送信する。この際、サーバ装置10は、ユーザ毎に動画における見所を検出し、見所を示す情報と、動画に挿入する広告とを、動画とともに送信して、ユーザ端末20でストリーミング再生させる。ここで、サーバ装置10は、ユーザ端末20においてユーザが動画を最初から再生する旨の再生操作を実施した場合に、動画の開始位置に広告を挿入して動画を再生させる。また、サーバ装置10は、ユーザ端末20においてユーザが動画の再生位置を見所の位置に移動させるジャンプ操作(スキップ操作やバック操作)を実施した際に、動画の見所の部分に広告を挿入し、見所のシーンから動画を再生させる。
以下、このような情報処理システム1の各構成について詳細に説明する。
図2は、サーバ装置10の概略構成を示すブロック図である。
サーバ装置10は、コンピューターにより構成され、本発明の情報処理装置として機能する。このサーバ装置10は、通信部11と、記憶部12と、制御部13と、等を含んで構成されている。
通信部11は、例えばLAN等を介してネットワーク(インターネット)に接続されており、ユーザ端末20等と通信する。
記憶部12は、例えばメモリ、ハードディスク等により構成されたデータ記録装置である。この記憶部12は、ユーザ情報記憶部(ユーザDB121)、グループ記憶部(グループDB122)、動画情報記憶部(動画DB123)、及び広告記憶部(広告DB124)等を備えている。なお、ここでは、記憶部12にユーザDB121、グループDB122、動画DB123、及び広告DB124が設けられる例を示すが、サーバ装置10とネットワークを介して通信可能に接続されたデータサーバにこれらのデータベースが設けられ、適宜必要なデータをダウンロードする構成としてもよい。
また、記憶部12には、サーバ装置10を制御するための情報処理プログラム(ソフトウェア)が記録されている。
ユーザDB121は、本システムを利用するユーザに関する各種情報を記録したデータベースであり、個々のユーザ毎のユーザ情報が記憶されている。
このユーザ情報には、例えば、ユーザID、ユーザ名、ユーザ特性情報、視聴履歴、所属グループ等が含まれる。
ユーザIDは、ユーザを識別するための識別情報である。ユーザ名は、ユーザIDで特定されるユーザのアカウント名である。
ユーザ属性は、例えば性別、年齢、居所、職業等のユーザを特定する個人情報の他、ユーザの趣味、特技、好物等が記録される。また、ユーザ属性として、ユーザの行動履歴が記録されていてもよい。行動履歴としては、例えば、検索エンジンを使用した際の検索キーワードの履歴や、ネットショッピングやネットオークションでの売買履歴等が挙げられる。また、クレジットカードの利用履歴や、POS端末からインターネットを介して取得される売買履歴、GPS等の位置検出装置によるユーザの移動経路履歴等が含まれてもよい。
この動画のカテゴリは、例えば、ユーザが視聴した複数の動画のうち、所定数の動画が同じカテゴリである場合に、ユーザが好む動画の傾向として、その動画のカテゴリが記録される。同様に、ユーザが視聴した複数の動画のうち、所定数の動画において同じシーンタグが共通するシーンの位置にユーザがジャンプ操作を行った場合に、そのシーンタグが、ユーザが好むシーンの傾向として記録される。
グループDB122は、ユーザ特性に基づいてユーザを複数のグループに分類した際の各グループに関するグループ情報を記憶する。グループ情報には、グループID、所属ユーザ、共通特性、見所分類情報等の各情報が含まれる。
グループIDは、グループを特定する識別情報である。
所属ユーザは、グループに属するユーザを示す情報であり、例えばグループに所属するユーザのユーザIDが記録される。
共通特性は、グループに属するユーザで共通するユーザ特性情報を示す情報である。すなわち、共通特性には、所属するユーザの共通するユーザ属性や、共通する動画視聴傾向等が記録される。
この見所分類情報には、グループに属するユーザのうち、所定数以上(又は所定割合以上)のユーザにおいて共通する動画視聴傾向(動画カテゴリやシーンタグ)が記録される。
また、見所分類情報には、動画DB123に記録される各動画の見所が記録されている。つまり、動画を識別する動画IDと、その動画に対する見所となるシーンの始まりの位置(動画内のフレームの位置)とが関連付けられて記録される。
動画DB123は、ユーザ端末20に送信する動画やその動画に関する各種情報を含む動画関連情報が記録されている。動画関連情報には、動画ID、動画カテゴリ、シーン情報、動画コンテンツ等が含まれる。
動画IDは、動画を識別するための識別情報である。
動画カテゴリは、動画を特定するためのキーワード情報である。
シーンIDは、動画におけるシーンを特定する識別情報である。
シーン位置情報は、シーンの始まり位置を示す情報を記録する。また、シーンの終わり位置を示す情報等が含まれてもよい。なお、シーンの終わり位置は、次のシーンの始まり位置と一致するので、シーンの終わり位置が含まれていなくてもよい。
シーンの始まり位置(動画内のフレームの位置)を示す情報としては、例えば、動画の開始位置からシーンIDで特定されるシーンの始まり位置までの時間が記録されている。また、シーンの終わり位置を示す情報としては、例えば、動画の開始位置からシーンIDで特定されるシーンの終わり位置までの時間、またはシーンの始まり位置からシーンの終わり位置までの時間が記録されている。なお、本実施形態では、動画における所定の再生位置(シーン始まり位置等)を、動画における開始位置からの時間として示すが、これに限定されない。例えば、動画を構成する各フレーム画像を特定するフレーム番号であってもよい。
広告DB124は、動画内に挿入する広告に関する広告情報が記憶される。広告情報には、広告ID、広告商品、広告属性、及び広告コンテンツ等が含まれる。
広告IDは、広告情報を識別する識別情報である。
広告商品は、広告対象の商品の名称や商品のカテゴリに関する情報である。
広告属性は、広告送信対象のユーザの条件を記録する。広告属性としては、例えば広告主が希望する広告の配信対象のユーザ属性が記録される。
広告コンテンツは、動画内で再生する広告の動画または画像である。
制御部13は、CPU(Central Processing Unit)等の演算回路、RAM(Random Access Memory)等の記録回路により構成される。制御部13は、記憶部12等に記録されている情報処理プログラムをRAMに展開し、RAMに展開されたプログラムとの協働により各種処理を実行する。そして、制御部13は、記憶部12に記録された情報処理プログラムを読み込み実行することで、図2に示すように、ユーザ登録部131、視聴傾向判定部132、グループ分類部133、操作情報取得部134、動画取得部135、動画解析部136(シーン特定部、カテゴリ解析部)、見所検出部137、広告選択部138、及び動画送信部139として機能する。
なお、本実施形態では、1台のサーバ装置10により情報処理装置が構成され、制御部13がユーザ登録部131、視聴傾向判定部132、グループ分類部133、操作情報取得部134、動画取得部135、動画解析部136(シーン特定部、カテゴリ解析部)、見所検出部137、広告選択部138、及び動画送信部139として機能する例を示すが、これに限定されない。例えば、通信可能に接続された複数のサーバ装置によって本発明の情報処理装置が構成されていてもよく、この場合、各機能に対応したサーバ装置を設けることで、処理負荷の軽減を図ることができる。
視聴傾向判定部132は、ユーザ情報に蓄積された視聴履歴に基づいて、ユーザの動画視聴傾向を判定する。
つまり、ユーザ登録部131は、ユーザ特性情報であるユーザ属性を取得し、視聴傾向判定部132は、ユーザ特性情報である動画視聴傾向を判定(取得)するものであり、これらのユーザ登録部131及び視聴傾向判定部132は、本発明のユーザ特性取得部に相当する。
また、動画解析部は、動画のカテゴリ、及び動画内の各シーンに対するシーンタグを特定する。
広告選択部138は、動画の所定位置に挿入する広告を広告DB124から選択する。
動画送信部139は、動画及び広告をユーザ端末20に送信し、ユーザ端末20で再生させる。
なお、各機能構成の詳細な説明については後述する。
ユーザ端末20は、ユーザが保有する端末装置であり、例えばスマートフォン、タブレット端末、パーソナルコンピューター等のコンピューターにより構成されている。ユーザ端末20の具体的な構成の図示は省略するが、ユーザ端末20は、一般的なコンピューターが有する基本的な構成を有する。すなわち、ユーザ端末20は、ユーザの操作を受け付ける入力操作部、画像情報を表示させるディスプレイ、各種情報を記録する記録装置、各種情報を演算処理する演算回路(CPU等)を備えている。
次に、情報処理システム1における処理について、特に、サーバ装置10における情報処理方法について説明する。
[4-1.動画のシーン特定処理]
図3は、第一実施形態の情報処理方法に係る動画のシーン特定処理のフローチャートである。
本実施形態の情報処理システム1では、サーバ装置10の動画取得部135は、ユーザ端末20で再生させる動画を、予め、動画を配信する配信者が操作する端末装置や動画配信サーバから受信する(ステップS1)。
シーンの特定は、公知の技術を利用でき、例えば、フレーム画像を解析し、フレーム画像内に含まれる画像のエッジ部を検出して、複数のフレームに亘って、同じエッジ部が画像内に含まれる場合に、その連続するフレームを同一シーンとして特定する。この際、全てのフレームを解析対象とせず、例えばキーフレームのみをシーンの解析対象として抽出してもよい。また、動画によっては、例えば配信者によって動画に含まれる各シーンの位置が指定されている場合もある。この場合は、当該シーンを特定してもよい。
また、本実施形態では、動画解析部136は、動画に含まれる各フレーム画像に基づいたシーンのみならず、動画内の音声を解析し、音声に基づいてシーンを特定する。動画解析部136は、これらのフレーム画像に基づいたシーンの特定と、音声に基づいたシーンの特定との双方を実施することで、視覚的に動画を区分した複数のシーンと、聴覚的に動画を区分した複数のシーンとを特定することができる。この場合、例えば、フレーム画像に基づいたシーン特定で1つのシーンが検出されるパターンで、当該シーンの中で楽曲が切り替わる場合、動画解析部136は、フレーム画像に基づいた1つのシーンと、音声に基づいた2つのシーンとを特定することが可能となる。
具体的には、動画解析部136は、各シーンのフレーム画像や音声を解析して、登場人物、動物、物品、背景、楽曲名やアーティスト名、効果音の種別、発声音の種別等を特定する。この解析処理としては、公知の画像認識技術や、音声認識技術を用いることができる。例えば、フレーム画像からシーンタグを特定する場合、フレーム画像から特徴量を算出し、予め記憶部12等に記憶されているサンプル画像の特徴量と比較することで、対象物を認識する。ディープラーニング等のAIによる機械学習を用いることで、高度に登場物を識別することができ、これにより、正確なシーンタグを各シーンに付与することができる。
音声認識技術に関しても、公知の技術を用いることができ、例えば音声の特徴データを、予め記憶部12等に記憶されたサンプルデータの特徴データと比較することで、発声主や、楽曲、アーティスト名を特定することができる。また、ディープラーニング等のAIを用いた機械学習により、正確な音声認識や、発声者の感情認識、発声内容の把握等も可能となり、正確なシーンタグを各シーンに付与することができる。
楽曲に対応するシーンタグとしては、その楽曲名やアーティスト名の他、楽曲のテンポや調を検出してもよい。この場合、例えば予め記憶部12に曲のテンポや調に対するシーンタグを記録したテーブルデータを記憶しておき、検出された楽曲のテンポや調に対するシーンタグを特定する。
動画の配信者が、動画のカテゴリを示すタグを付与して動画をサーバ装置10にアップロードする場合があり、この場合、動画解析部136は、当該配信者に指定されたタグを、動画のカテゴリとすることができる。配信者によって動画のカテゴリが示されていない場合、動画に含まれるシーンタグのうち、付与数が最大のシーンタグを動画のカテゴリとして特定する。例えば、動画に含まれるシーンとして、「ホラー」といったシーンタグのシーンが多数含まれている場合、動画のカテゴリを「ホラー」とする。
次に、本実施形態の情報処理方法における動画送信処理について説明する。
図4及び図5は、本実施形態の動画送信処理を示すフローチャートである。
情報処理システム1を利用してユーザ端末20において動画を再生させる場合、サーバ装置10にユーザ情報が登録されている必要がある。ユーザ情報を登録する場合、ユーザは、ユーザ端末20を操作して、サーバ装置10にユーザ情報の登録または更新を要求するユーザ登録要求を送信する。つまり、ユーザ端末20は、ユーザ操作によってユーザ登録要求の送信を行う操作が入力されたか否かを判定する(ステップS11)。
ユーザ登録部131は、ユーザ登録情報を受信すると、ユーザ情報を更新する(ステップS21)。
新規登録に関する案内コンテンツは、例えば、ユーザ名、及びユーザ属性の入力を促すコンテンツである。ユーザ登録部131は、新規登録の案内コンテンツにしたがって送信されたユーザ登録情報をユーザ端末20から受信すると、新規のユーザIDを付与してユーザ情報としてユーザDB121に登録する。
登録更新に関する案内コンテンツは、例えばユーザ端末20からユーザIDが送信されることで、サーバ装置10からユーザ端末20に送信され、ユーザ属性の入力を促すコンテンツである。ユーザ登録部131は、登録更新の案内コンテンツにしたがって送信されたユーザ登録情報をユーザ端末20から受信すると、対応するユーザIDのユーザ情報を更新する。
このステップS21により、サーバ装置10は、ユーザ特性情報の1つであるユーザ属性を取得する。
例えば、ステップS21において、ユーザ属性に趣味「料理」が追加されるユーザ情報の更新が行われた場合、グループ分類部133は、共通特性に「料理」が含まれるグループ情報を検索する。また、グループ分類部133は、検索したグループ情報の共通特性として、その他の特性(例えばユーザ属性として「男性」、動画視聴傾向として「料理人R」)が記録されている場合、当該特性がユーザ情報のユーザ属性や動画視聴傾向に記録されているか否かを判定する。検索したグループ情報の共通特性がユーザ情報として記録されていない場合は、そのグループ情報を分類対象から除外する。このようにして、グループ分類部133は、共通特性に記録される各情報(タグやカテゴリ)が、ユーザ属性や動画視聴傾向に含まれる場合に、そのグループにユーザを属させる(分類する)。
ステップS23では、視聴傾向判定部132は、グループに属する複数のユーザ(グループメンバー)のユーザ情報に記録された視聴履歴を参照し、所定の第一数(所定の第一割合)以上のグループメンバーにおいて、共通して視聴された動画が有るか否かを判定する。さらに、視聴傾向判定部132は、特定された動画において、所定の第二数(所定の第二割合)以上のグループメンバーにおいて、同一シーンをジャンプ先としたジャンプ操作があるか否かを判定する。
つまり、視聴履歴において、動画の再生位置を変更するジャンプ操作が実施され、当該再生位置から所定時間以上の動画視聴が有った場合、その視聴されたシーンは、ユーザの興味が高いシーンである可能性が高く、ユーザにとっての見所となる。よって、視聴傾向判定部132は、第一数以上のグループメンバーが視聴された動画で、第二数以上のグループメンバーがジャンプ先としたシーンがある場合に、その動画の動画IDと、ジャンプ先のシーンの始まり位置(見所に対応するシーンの始まり位置)とを含む動画別見所分類情報を、見所分類情報に記録する。つまり、視聴傾向判定部132は、グループメンバーが共通してジャンプ先としたシーンを、その動画における共通の見所とする。
見所検出処理では、見所検出部137は、動画送信要求で特定される再生対象動画が、動画送信要求を送信したユーザが初めて視聴する動画であるか否かを判定する(ステップS41)。ステップS41では、見所検出部137は、ユーザ情報の視聴履歴に、再生対象動画を視聴した旨の履歴が含まれているか否かを判定する。
ステップS41において、Yesと判定した場合、見所検出部137は、当該視聴履歴に含まれるユーザの動画に対する操作情報を参照し、ジャンプ操作が含まれ、かつ、ジャンプ先の位置から所定時間以上動画が再生された操作情報があるか否かを判定する(ステップS42)。ステップS42において、Yesと判定した場合、見所検出部137は、ジャンプ操作によって変更された再生位置(ジャンプ先)に対応するシーンを見所のシーンとして検出する(ステップS43)。
ステップS43において、ジャンプ先の位置が、シーンの途中である場合、当該シーンの次のシーンを見所として指定してもよい。なお、シーンの長さ(シーンの始まりから終わりまでの時間)に対するジャンプ先の位置に応じて、シーンを変更してもよい。例えば、ジャンプ先が、シーンの中心より後(後半)である場合、そのシーンに続く次のシーンを見所とし、再生位置が、シーンの中心より前(前半)である場合、再生位置に対応するシーンを見所としてもよい。
ステップS44でYesと判定した場合、見所検出部137は、ユーザ特性に対応するシーンタグが関連付けられたシーンを、見所として検出する(ステップS45)。
具体的には、見所検出部137は、視聴履歴に再生対象動画と同一のカテゴリの動画が含まれているか否かを判定する。そして、同一のカテゴリが含まれている場合に、その動画に対してジャンプ操作が実施され、かつ、再生時間が所定時間以上となる操作情報が有るか否かを判定する。そして、当該操作情報が有る場合に、そのジャンプ先に対応するシーンのシーンタグが、再生対象動画に含まれているか否かを判定する。
ステップS46でYesと判定した場合、見所検出部137は、同一のカテゴリの動画におけるジャンプ先のシーンタグが含まれる、再生対象動画のシーンを見所として検出する(ステップS47)。
つまり、本実施形態では、過去の視聴履歴に基づいて、各動画のジャンプ操作によるジャンプ先のシーンが見所の候補となり、その見所の候補のシーンタグを抽出する。この際、シーンタグののべ抽出回数がカウントされ、のべ抽出回数が所定数(第一値)以上のシーンタグが動画視聴傾向(ユーザの特性)として記録される。この動画視聴傾向に基づいた見所の抽出は、ステップS45によって実施される。一方、見所の候補のシーンタグとして抽出されたが、その抽出回数が少ないものは、動画視聴傾向に記録されない。そこで、本実施形態では、ステップS45による見所の抽出ができない場合に、見所の候補を動画の見所として検出する処理を実施する。
ステップS48でYesと判定した場合、見所検出部137は、動画別見所分類情報に記録された見所を、再生対象動画の見所として検出する(ステップS49)。
ステップS50でYesと判定した場合、見所検出部137は、カテゴリ別見所分類情報に記録されたシーンタグが、再生対象動画に含まれているか否かを判定し(ステップS51)、含まれている場合は、そのシーンタグに対応するシーンを見所として検出する(ステップS52)。
具体的には、広告選択部138は、見所のシーンタグに対応する広告属性を有する広告情報を検索し、さらに、ユーザ属性等に基づいて広告情報を選択する。なお、本実施形態では、ジャンプ操作が実施されず、動画を最初から再生する場合は、動画の開始位置に広告を挿入する。したがって、動画の開始位置に挿入するための広告情報を別途選択してもよい。動画の開始位置に挿入する広告情報の選択としては、例えば、動画のカテゴリに基づいて広告情報を抽出し、さらに、ユーザ属性に基づいて、広告情報を絞り込むことが好ましい。
なお、本実施形態では、ストリーミング再生によって動画を再生する例であり、サーバ装置10からユーザ端末20の動画送信と同時に、ユーザ端末20における動画の視聴が可能となる。
ユーザ端末20は、サーバ装置10から送信される動画を受信すると(ステップS14)、ディスプレイ21上に、図7に示すような、動画を再生させる動画再生画面21Aを表示させる。動画再生画面21Aには、動画表示枠21B、時間表示バー21C、再生位置カーソル21D、再生開始指示部21E、見所表示部21F等が含まれる。
動画表示枠21Bは、動画が表示される表示領域である。
時間表示バー21C及び再生位置カーソル21Dは、動画のトータル長さ(時間長)に対する現在の再生位置を示す。時間表示バー21Cにおける左端は、動画の開始位置を示し、右端は、動画の終了位置を示している。
再生開始指示部21Eは、動画の再生開始及び停止を指示するための表示ボタンである。
見所表示部21Fは、例えば、見所のシーンのサムネイル画像や、見所の位置(トータル長さに対する位置)を表示する。
また、時間表示バー21Cに対する再生位置カーソル21Dの位置を変更する操作が行われると、動画の再生位置を変更する操作情報(ジャンプ操作)が生成されてサーバ装置10に送信される。
したがって、図7のような、動画が配信された直後の状態において、ユーザによって、再生位置カーソル21Dの位置を変更せずに、再生開始指示部21Eが選択されると、動画を最初から再生する旨の操作情報がサーバ装置10に送信されることになる。
一方、ユーザによって、再生位置カーソル21Dの位置を変更されると、その再生位置カーソル21Dの位置に応じたシーンのサムネイル画像が、時間表示バー21Cの近傍に表示される。そして、ユーザが所望する再生位置に再生位置カーソル21Dが移動されて、再生開始指示部21Eが選択されると、その再生位置から動画を再生するジャンプ操作を含む操作情報がサーバ装置10に送信される。この際、再生位置カーソル21Dが見所表示部21Fの位置に移動されると、見所から動画を再生するジャンプ操作を含む操作情報がサーバ装置10に送信される。
サーバ装置10の操作情報取得部134は、ユーザ端末20から操作情報を受信すると(ステップS28)、動画送信部139は、動画を最初から再生させる旨の操作情報であるか否かを判定する(ステップS29)。
ステップS29でYesと判定した場合、動画送信部139は、動画の開始位置を広告の挿入位置とし(ステップS30)、開始位置に挿入するための広告情報から広告コンテンツを読み出して、ユーザ端末20に送信する。
これにより、ユーザ端末20では、広告コンテンツが再生された後、動画の本編が再生される。
これにより、ユーザ端末20では、広告コンテンツが再生された後、ユーザが指定した見所位置から動画が再生される。なお、広告の挿入位置は、ジャンプ先の位置であることが好ましいが、これに限定されず、見所のシーン始まり位置から所定範囲内の位置であればよく、例えば、見所のシーン始まり位置としてもよい。
また、本実施形態では、再生位置を、動画の開始位置からの経過時間として説明しているが、上述したように、動画を構成する各フレームのフレーム番号を再生位置として処理を実施してもよい。この場合、ステップS31では、見所のシーン始まり位置のフレーム番号と、ジャンプ先のフレーム番号との差、つまり、動画において、見所のシーン始まり位置のフレーム画像と、ジャンプ先のフレーム画像との間に配置されるフレーム画像の数を算出する。そして、ステップS32において、フレーム番号の差(間に配置されるフレーム画像の数)が所定の判定値以上であるか否かを判定すればよい。
そして、ステップS33でNoと判定される場合では、広告挿入が実施されない。つまり、本実施形態では、見所ではない位置にジャンプした場合は、広告挿入を行わない。
同様に、サーバ装置10は、ステップS29からステップS33の処理の後、動画が終了したか否かを判定する(ステップS34)。ステップS34でNoと判定される場合は、ステップS28に戻る。
このため、ユーザによって、見所の位置へのジャンプ操作が実施される度に広告が挿入されることになる。なお、図7に示す例では、動画に対して1つのみの見所が設定されている例であるが、1つの動画に複数の見所が検出される場合もある。この場合、例えば、ユーザが見所に順にジャンプして動画を再生する操作を行えば、見所にジャンプする毎に広告が表示されることになる。
そして、視聴傾向判定部132は、ユーザ情報に蓄積された視聴履歴に基づいて、ユーザの動画視聴傾向を判定する(ステップS36)。具体的には、視聴傾向判定部132は、視聴履歴に含まれる各動画に対する操作履歴に含まれるジャンプ操作を特定し、各動画のシーン情報からジャンプ先のシーンタグを抽出する。また、視聴傾向判定部132は、抽出したシーンタグのそれぞれののべ抽出回数をカウントする。例えば、動画A、動画B、及び動画Cにおいて「芸能人Y」とのシーンタグが抽出された場合は、シーンタグ「芸能人Y」ののべ抽出回数は3となる。ここで、動画Aの視聴履歴として、シーンタグが「芸能人Y」である見所へのジャンプ操作が2つ記録されている場合、動画A、動画B、動画Cのシーンタグ「芸能人Y」ののべ抽出回数は4となる。そして、視聴傾向判定部132は、のべ抽出回数が第一値以上となるシーンタグを、動画視聴傾向としてユーザ情報に記録する。すなわち、ステップS35により、視聴傾向判定部132により、ユーザ特性情報の1つである動画視聴傾向が取得される。
このようにして、ユーザが動画を視聴する毎にその視聴履歴が蓄積されることで、動画視聴傾向が更新され、次回の動画視聴時の見所検出処理での見所の検出精度が向上する。
本実施形態の情報処理装置であるサーバ装置10では、制御部13は、記憶部12に記憶される情報処理プログラムを読み込み実行することで、動画解析部136(シーン特定部)、ユーザ登録部131(ユーザ特性取得部)、視聴傾向判定部132(ユーザ特性取得部)、見所検出部137として機能する。動画解析部136は、動画に含まれる複数のシーンを特定する。ユーザ登録部131は、動画を視聴するユーザのユーザ属性を含むユーザ登録情報を取得してユーザ特性情報として記憶する。視聴傾向判定部132は、ユーザの動画の視聴履歴に基づいて、ユーザの動画視聴傾向を判定してユーザ特性情報として記録する。そして、見所検出部137は、動画に含まれる複数のシーンから、ユーザ特性情報に記録されたユーザ属性や動画視聴傾向に対応するシーンを見所として検出する。
このため、本実施形態では、ユーザの趣味や好物等の様々なユーザの属性や、ユーザの動画に対する視聴傾向に基づいて、見所を検出するので、各ユーザに対して、最適な見所を検出することができる。
このように、本実施形態では、各シーンにシーンタグが付されているので、ユーザ特性情報に対応するシーンを容易に特定することができる。また、各シーンの状況(明るいシーンや楽しいシーン等)のみでは、ユーザが望むシーンであるか否かの判定は困難となるが、キーワード情報であるシーンタグに基づいた見所の検出を行うことで、ユーザの望む見所の検出精度を向上させることができる。
このように、ユーザの過去の動画の視聴実績から、ユーザの動画視聴傾向を判定することで、ユーザにとっての動画の見所を精度良く検出することができる。
ユーザが属するグループの他のグループメンバーは、ユーザと同じようなユーザ特性を有しており、視聴履歴も類似したものとなり、動画に対して見所と感じるシーンや、好きな動画のカテゴリ等が類似する。したがって、グループメンバーの視聴履歴に基づいて見所を検出することで、ユーザが初めて視聴する動画に対しても、その見所を精度良く検出することができる。
より具体的には、本実施形態では、視聴傾向判定部132は、各グループに対して、第一数以上のユーザが視聴した動画で、第二数以上のユーザが、同じシーンをジャンプ先とした操作情報を送信している場合、そのシーンを見所とした動画別見所分類情報を生成してグループ情報に記録し、見所検出部137は、この動画別見所分類情報に基づいて、見所を検出する。つまり、見所検出部137は、再生対象動画を視聴したグループメンバーの、当該再生対象動画に対する操作情報に、共通するジャンプ操作がある場合に、そのジャンプ先に対応するシーンを見所として検出する。
この場合、ユーザが、再生対象動画を始めてみる場合等、ユーザの視聴履歴に基づいた見所の検出が困難である場合でも、ユーザが属するグループの他のグループメンバーの視聴実績に基づいて、その動画に対する見所を好適に検出できる。
この場合、再生対象動画に対する動画別見所分類情報が記録されていない場合でも、グループメンバーの再生対象動画と同一カテゴリの動画に対するシーンタグに基づいて、見所を検出することができる。
これにより、ユーザが見所の位置にジャンプ操作を行った際に、動画に広告が挿入されることになる。動画の見所は、ユーザにとって興味度が高い部分であり、広告が挿入されていても広告を視聴する確率が高く、広告効果の向上を図れる。
つまり、図7に示すように、時間表示バー21Cに対する再生位置カーソル21Dの位置を移動させて、動画の再生位置(ジャンプ先)を指定する場合、見所のシーン始まり位置に再生位置カーソル21Dを移動させてジャンプ先を指定しても、シーン始まり位置からずれる場合がある。また、ユーザが意図的に、シーン始まり位置からずらして、再生位置カーソル21Dを移動させる場合もある。本実施形態では、このような場合でも、ジャンプ先が見所に対する移動であると判定することができ、見所から視聴するユーザに広告を視聴させることができる。
また、判定値としては、乱数を設定することが好ましい。これによって、ユーザが、広告が挿入されないように、ジャンプ先を調整することが困難となり、ユーザが意図的に広告を外して見所を視聴しようとする操作を抑制することができる。
さらに、動画送信部139は、ジャンプ操作によって指定されたジャンプ先の位置に広告を挿入する。例えば、見所の始まり位置に広告を挿入すると、見所の始まり位置よりも少し先の位置をジャンプ先と指定すると、広告が再生されない。これに対して、ジャンプ先を広告挿入位置とすることで、確実にユーザに広告を視聴させることができる。
次に、本発明の第二実施形態について説明する。
上述した第一実施形態では、ユーザ操作に、見所に対するジャンプ操作が含まれる場合に、必ず見所の位置に広告が挿入される例であるが、これに限定さない。すなわち、第二実施形態では、見所にジャンプした際の広告の再生条件が第一実施形態と異なり、条件によっては、見所にジャンプした場合でも広告が挿入されない点で上記第一実施形態と相違する。
第二実施形態では、図5のステップS33において、以下の処理を実施する。
つまり、本実施形態では、ステップS32においてYesと判定(操作情報に含まれるジャンプ操作が、見所へのジャンプ先であると判定)された場合、まず、現在の動画の再生位置からジャンプ先までの時間(ジャンプ先へのジャンプ量)を算出する。例えば、開始位置(00:00:00)から、見所に対応したジャンプ先(00:50:00)に移動する操作情報を受信した場合、ジャンプ量は50分となる。
なお、動画における再生位置をフレーム画像の配置順で判定する場合は、現在再生中のフレーム番号と、ジャンプ先のフレーム番号との差(または、現在再生中のフレーム画像と、ジャンプ先のフレーム画像との間に配置されるフレーム画像の数)を算出して、所定値以上であるか否かを判定すればよい。
なお、本発明は、上述した実施形態に限定されるものではなく、本発明の目的を達成できる範囲で、以下に示される変形をも含むものである。
第二実施形態では、動画送信部139は、現在の再生位置から、ジャンプ操作によるジャンプ先までのジャンプ量を算出し、見所に近い再生位置から見所にジャンプした場合には、広告の挿入を行わない例を示した。これに対して、見所へのジャンプ回数によって、広告を挿入するか否かを判定してもよい。
例えば、動画送信部139は、見所へジャンプ操作が1回目である場合に、ジャンプ先(見所の始まり位置を中心とした所定範囲内)に広告を挿入し、同じ見所に対する2回目以降のジャンプ操作では、ジャンプ先での広告挿入を行わずに動画を送信してもよい。
この際、動画のカテゴリやシーンタグによって、係数kを変更してもよい。例えば、シーンタグ「料理レシピ」が関連付けられた見所に対しては、k=5が設定され、シーンタグ「音楽」が関連付けられた見所に対しては、k=3が設定されていてもよい。
ステップS50及びステップS51においてNoと判定された場合、見所を検出しないとしたが、これに限定されない。例えば、動画別見所分類情報やカテゴリ別見所分類情報としては登録されていないが、グループメンバーの視聴履歴に、再生対象動画に含まれるシーンタグを有するシーンをジャンプ先とした操作情報が有るか否かを判定して、ある場合にそのシーンタグを見所と検出してもよい。さらに、グループメンバー以外(ユーザ属性や動画視聴傾向が異なるユーザ)の視聴履歴に基づいて、見所を検出してもよい。
上記実施形態では、見所検出部137は、ユーザが動画に対する操作を行った際の操作情報(ジャンプ操作)に基づいて見所を検出する例を示したが、これに限定されない。
見所検出部137は、動画を視聴中の、ユーザのジャンプ操作以外の操作に基づいて見所を検出してもよい。例えば、動画の視聴画面、または別ウインドウに、検索ボックスを表示させ、検索ボックスで検索キーワードが入力されて、ユーザ端末20から検索要求を受信した場合に、検索要求を受信した際に再生されていたシーンのシーンタグを、動画視聴傾向に加えてもよい。または、動画の視聴終了後等に実施された検索処理の検索キーワードに対応するシーンタグを動画視聴傾向に加えてもよい。
また、動画再生時に、再生されているシーンのシーンタグを表示させ、ユーザによって当該シーンタグが選択されることで、シーンタグに関する検索処理が実施される態様としてもよい。この場合も同様に、見所検出部137は、選択されたシーンタグを動画視聴傾向に加えてもよい。
さらに、検索履歴の他、ネットショッピング等のユーザのインターネット上での行動履歴等に基づいて、見所を検出してもよい。
つまり、上記実施形態では、操作情報取得部134は、動画に対する操作情報のほか、ユーザのインターネット上の行動履歴をも取得する。視聴傾向判定部132は、このようなインターネット上の行動履歴に基づいて、ユーザ属性を判定し、ユーザ情報に記録してもよい。例えば、ユーザが実施した検索処理において、同じ検索キーワードを用いた検索処理が複数回実施された場合、当該検索キーワードをユーザ特性情報として記録してもよい。また、ユーザの購入履歴において、複数回、同じ商品を購入している場合、当該購入された商品や商品カテゴリを、ユーザ特性情報として記録してもよい。
第一実施形態では、複数の操作情報に基づいて、ジャンプ先のシーンタグを抽出し、のべ抽出回数が所定の第一値以上となったシーンタグを、動画視聴傾向として記録した。これに対して、のべ抽出回数が所定の第二値以上となったシーンタグを、ユーザ属性として、ユーザ情報に記録してもよい。ここで、第一値と第二値とは同じ数値であってもよく、異なる値であってもよい。同じ値である場合、のべ抽出回数が第一値以上となるシーンタグは、動画視聴傾向としても、ユーザ属性としても記録される。
また、第二値が第一値よりも大きくてもよい。この場合、視聴傾向判定部132は、抽出されたシーンタグののべ抽出回数が第一値以上となった場合に、当該シーンタグを動画視聴傾向として記録し、のべ抽出回数がさらに多い場合は、ユーザがより好む分野である可能性が高いので、ユーザ属性として記録する。
このような構成では、レコメンド情報を送信する際のユーザ属性と、過去の動画視聴履歴に基づいて、ユーザにとっての見所を高い精度で検出することができる。これに加え、過去の動画の視聴履歴に基づくユーザの好む見所に対応したキーワードが、ユーザ属性として追加されるので、レコメンド情報の配信においても、ユーザの好みに対応したレコメンド情報を高精度に選択することができ、ユーザ満足度をより高めることができる。
上記実施形態では、図6に示すように、ユーザが動画を初めて閲覧するものか否か、再生対象動画にユーザ特性に対応するシーンタグが含まれるか否か、再生対象動画が動画別分類見所情報に記録された動画であるか否か、再生対象動画のカテゴリに対応するカテゴリ別分類見所情報があり、そのシーンタグが再生対象動画に有るか否か、のそれぞれを順に判定して、見所を検出する例を示したが、これに限定されない。これらのうちの1つまたは複数の処理によって見所を検出してもよい。
さらに、上記実施形態では、ユーザ特性情報は、ユーザ属性及び動画視聴傾向である例を示したが、操作情報を含む動画の視聴履歴がユーザ特性情報に含まれてもよい。この場合、見所検出部は、ユーザ属性、過去に視聴した動画のカテゴリ、及び、その動画に対して実施したジャンプ操作から、再生対象動画において、ユーザがジャンプ操作するシーン(見所)を推測する学習モデルを用いて、見所を検出する。
上記実施形態では、サーバ装置10は、ユーザ端末20で動画をストリーミング方式で送信する例を示し、ストリーミング再生中の動画に対してユーザが操作を行った際に、ステップS28からステップS33の処理を実施することで、見所に広告を挿入した。これに対して、ストリーミング方式ではなく、プログレッシブダウンロード方式による動画を送信してもよい。
この場合、動画送信部139は、動画の開始位置や、見所の位置に広告を挿入した動画コンテンツを生成して、ユーザ端末20に送信すればよい。また、動画に対する操作を実施した際の広告挿入動作を制御するプログラムを動画に組み込んで送信してもよい。
Claims (18)
- 動画に含まれる複数のシーンを特定するシーン特定部と、
前記動画を視聴するユーザの特性に関するユーザ特性情報を取得するユーザ特性取得部と、
前記動画内の複数の前記シーンのうち、前記ユーザの特性に応じた見所を検出する見所検出部と、
前記動画内の再生位置を所定のジャンプ先に変更するジャンプ操作を含む操作情報を取得する操作情報取得部と、を備え、
前記シーン特定部は、前記動画を解析して前記シーンを特定するとともに、各前記シーンに対して当該シーンに関連するタグを付与し、
前記ユーザ特性取得部は、過去に視聴した前記動画に対する前記操作情報から、前記ジャンプ操作の前記ジャンプ先に対応する前記シーンの前記タグを抽出し、抽出された回数が第一値以上となる前記タグを前記ユーザ特性情報として取得し、
前記見所検出部は、前記ユーザ特性情報の前記タグが含まれる前記シーンを、前記見所として検出する
ことを特徴とする情報処理装置。 - 請求項1に記載の情報処理装置において、
前記ユーザ特性情報は、前記ユーザの属性と、前記ユーザの前記動画に対する視聴傾向とを含み、
前記ユーザ特性取得部は、過去に視聴した前記動画に対する前記操作情報から、前記ジャンプ操作の前記ジャンプ先に対応する前記シーンの前記タグを抽出し、抽出された回数が第二値以上となる前記タグを前記ユーザの属性として取得する
ことを特徴とする情報処理装置。 - 請求項2に記載の情報処理装置において、
前記ユーザの属性に基づいて前記ユーザが操作するユーザ端末にレコメンド情報を送信するレコメンド送信部をさらに備える
ことを特徴とする情報処理装置。 - 請求項1から請求項3のいずれか1項に記載の情報処理装置において、
前記ユーザ特性取得部は、前記ユーザの属性を前記ユーザ特性情報としてさらに取得する
ことを特徴とする情報処理装置。 - 請求項4に記載の情報処理装置において、
前記ユーザの属性は、前記ユーザのインターネット上における行動履歴を含む
ことを特徴とする情報処理装置。 - 動画に含まれる複数のシーンを特定するシーン特定部と、
前記動画を視聴するユーザの特性に関するユーザ特性情報を取得するユーザ特性取得部と、
前記ユーザを、前記ユーザの特性に応じて複数のグループのいずれかに分類するグループ分類部と、
前記ユーザが分類された前記グループに属する複数の前記ユーザであるグループメンバーの前記動画の視聴履歴に基づいて、前記動画内の複数の前記シーンのうちの前記ユーザの特性に応じた見所を検出する見所検出部と、を備え、
前記視聴履歴には、前記動画内の再生位置を所定のジャンプ先に変更するジャンプ操作を含む操作情報が含まれ、
前記見所検出部は、前記グループメンバーの前記操作情報に基づいて、前記見所を検出する
ことを特徴とする情報処理装置。 - 請求項6に記載の情報処理装置において、
前記見所検出部は、前記ユーザにより指定された再生対象動画を視聴した前記グループメンバーで共通する前記ジャンプ操作に基づいた前記見所を検出する
ことを特徴とする情報処理装置。 - 請求項7に記載の情報処理装置において、
前記動画のカテゴリを解析するカテゴリ解析部を備え、
前記シーン特定部は、前記動画を解析して前記シーンを特定するとともに、各前記シーンに対して当該シーンに関連するタグを付与し、
前記見所検出部は、前記ユーザにより指定された前記再生対象動画と同一の前記カテゴリである類似動画を視聴した前記グループメンバーで共通する前記ジャンプ操作の、前記ジャンプ先の前記シーンに関連付けられた前記タグに基づいて、前記見所を検出する
ことを特徴とする情報処理装置。 - 動画に含まれる複数のシーンを特定するシーン特定部と、
前記動画を視聴するユーザの特性に関するユーザ特性情報を取得するユーザ特性取得部と、
前記動画内の複数の前記シーンのうち、前記ユーザの特性に応じた見所を検出する見所検出部と、
前記動画の前記見所に挿入する広告を選択する広告選択部と、
選択された前記広告を、前記見所の始まり位置を中心とした所定範囲内の位置に挿入して、前記ユーザが操作するユーザ端末に前記動画を送信する動画送信部と、を備える
ことを特徴とする情報処理装置。 - 請求項9に記載の情報処理装置において、
前記広告選択部は、複数の前記広告を記憶する広告記憶部から、前記ユーザ特性情報に関連する前記広告を選択する
ことを特徴とする情報処理装置。 - 請求項9または請求項10に記載の情報処理装置において、
前記動画内の再生位置を所定のジャンプ先に変更するジャンプ操作を含む操作情報を取得する操作情報取得部を備え、
前記動画送信部は、前記ジャンプ操作の前記ジャンプ先に選択された前記広告を挿入した前記動画を送信する
ことを特徴とする情報処理装置。 - 請求項11に記載の情報処理装置において、
前記動画送信部は、前記見所の始まり位置と、前記ジャンプ先との間が、所定の判定値以内である場合に、選択された前記広告を前記ジャンプ先に挿入した前記動画を送信する
ことを特徴とする情報処理装置。 - 請求項12に記載の情報処理装置において、
前記判定値は、乱数である
ことを特徴とする情報処理装置。 - 請求項11から請求項13のいずれか1項に記載の情報処理装置において、
前記動画送信部は、前記ジャンプ操作による前記ジャンプ先が前記見所に対応する位置であり、現在の再生位置と前記ジャンプ先との間が、所定値以上離れている場合に、選択された前記広告を前記ジャンプ先に挿入した前記動画を送信する
ことを特徴とする情報処理装置。 - コンピューターにより動画の見所を検出させる情報処理方法であって、
前記コンピューターは、シーン特定部と、ユーザ特性取得部と、見所検出部と、操作情報取得部と、を備え、
前記コンピューターは、
前記シーン特定部が、前記動画に含まれる複数のシーンを特定するシーン特定ステップと、
前記ユーザ特性取得部が、前記動画を視聴するユーザの特性に関するユーザ特性情報を取得するユーザ特性取得ステップと、
前記見所検出部が、前記動画内の複数の前記シーンのうち、前記ユーザの特性に応じた前記見所を検出する見所検出ステップと、
前記操作情報取得部が、前記動画内の再生位置を所定のジャンプ先に変更するジャンプ操作を含む操作情報を取得する操作情報取得ステップと、を実施し、
前記シーン特定ステップでは、前記動画を解析して前記シーンを特定するとともに、各前記シーンに対して当該シーンに関連するタグを付与し、
前記ユーザ特性取得ステップでは、過去に視聴した前記動画に対する前記操作情報から、前記ジャンプ操作の前記ジャンプ先に対応する前記シーンの前記タグを抽出し、抽出された回数が第一値以上となる前記タグを前記ユーザ特性情報として取得し、
前記見所検出ステップでは、前記ユーザ特性情報の前記タグが含まれる前記シーンを、前記見所として検出する
ことを特徴とする情報処理方法。 - コンピューターにより動画の見所を検出させる情報処理方法であって、
前記コンピューターは、シーン特定部と、ユーザ特性取得部と、グループ分類部と、見所検出部と、を備え、
前記コンピューターは、
前記シーン特定部が、前記動画に含まれる複数のシーンを特定するシーン特定ステップと、
前記ユーザ特性取得部が、前記動画を視聴するユーザの特性に関するユーザ特性情報を取得するユーザ特性取得ステップと、
前記グループ分類部が、前記ユーザを、前記ユーザの特性に応じて複数のグループのいずれかに分類するグループ分類ステップと、
前記見所検出部が、前記ユーザが分類された前記グループに属する複数の前記ユーザであるグループメンバーの前記動画の視聴履歴に基づいて、前記動画内の複数の前記シーンのうちの前記ユーザの特性に応じた前記見所を検出する見所検出ステップと、を実施し、
前記視聴履歴には、前記動画内の再生位置を所定のジャンプ先に変更するジャンプ操作を含む操作情報が含まれ、
前記見所検出ステップでは、前記グループメンバーの前記操作情報に基づいて、前記見所を検出する
ことを特徴とする情報処理方法。 - コンピューターにより動画の見所を検出させる情報処理方法であって、
前記コンピューターは、シーン特定部と、ユーザ特性取得部と、見所検出部と、広告選択部と、動画送信部と、を備え、
前記コンピューターは、
前記シーン特定部が、前記動画に含まれる複数のシーンを特定するシーン特定ステップと、
前記ユーザ特性取得部が、前記動画を視聴するユーザの特性に関するユーザ特性情報を取得するユーザ特性取得ステップと、
前記見所検出部が、前記動画内の複数の前記シーンのうち、前記ユーザの特性に応じた前記見所を検出する見所検出ステップと、
前記広告選択部が、前記動画の前記見所に挿入する広告を選択する広告選択ステップと、
前記動画送信部が、選択された前記広告を、前記見所の始まり位置を中心とした所定範囲内の位置に挿入して、前記ユーザが操作するユーザ端末に前記動画を送信する動画送信ステップと、を実施する
ことを特徴とする情報処理方法。 - コンピューターにより読み込み実行される情報処理プログラムであって、
前記コンピューターを、請求項1から請求項14のいずれか1項に記載の情報処理装置として機能させる
ことを特徴とする情報処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018112463A JP7158902B2 (ja) | 2018-06-13 | 2018-06-13 | 情報処理装置、情報処理方法、及び情報処理プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018112463A JP7158902B2 (ja) | 2018-06-13 | 2018-06-13 | 情報処理装置、情報処理方法、及び情報処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019216355A JP2019216355A (ja) | 2019-12-19 |
JP7158902B2 true JP7158902B2 (ja) | 2022-10-24 |
Family
ID=68918050
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018112463A Active JP7158902B2 (ja) | 2018-06-13 | 2018-06-13 | 情報処理装置、情報処理方法、及び情報処理プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7158902B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7410105B2 (ja) * | 2021-10-19 | 2024-01-09 | Lineヤフー株式会社 | 情報提供装置、アプリケーションプログラム、情報提供方法、およびプログラム |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000013755A (ja) | 1998-06-17 | 2000-01-14 | Jisedai Joho Hoso System Kenkyusho:Kk | 放送システム |
JP2004007342A (ja) | 2002-03-29 | 2004-01-08 | Fujitsu Ltd | ダイジェスト自動生成方法 |
JP2011217197A (ja) | 2010-03-31 | 2011-10-27 | Sony Corp | 電子機器、再生制御システム、再生制御方法及びプログラム |
JP2012049875A (ja) | 2010-08-27 | 2012-03-08 | Fujitsu Ltd | 映像配信サーバ及び映像配信方法 |
JP2012160788A (ja) | 2011-01-28 | 2012-08-23 | Sony Computer Entertainment Inc | 放送番組処理装置、放送番組処理方法及びプログラム |
JP2016035607A (ja) | 2012-12-27 | 2016-03-17 | パナソニック株式会社 | ダイジェストを生成するための装置、方法、及びプログラム |
JP2016103714A (ja) | 2014-11-27 | 2016-06-02 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 録画再生装置 |
-
2018
- 2018-06-13 JP JP2018112463A patent/JP7158902B2/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000013755A (ja) | 1998-06-17 | 2000-01-14 | Jisedai Joho Hoso System Kenkyusho:Kk | 放送システム |
JP2004007342A (ja) | 2002-03-29 | 2004-01-08 | Fujitsu Ltd | ダイジェスト自動生成方法 |
JP2011217197A (ja) | 2010-03-31 | 2011-10-27 | Sony Corp | 電子機器、再生制御システム、再生制御方法及びプログラム |
JP2012049875A (ja) | 2010-08-27 | 2012-03-08 | Fujitsu Ltd | 映像配信サーバ及び映像配信方法 |
JP2012160788A (ja) | 2011-01-28 | 2012-08-23 | Sony Computer Entertainment Inc | 放送番組処理装置、放送番組処理方法及びプログラム |
JP2016035607A (ja) | 2012-12-27 | 2016-03-17 | パナソニック株式会社 | ダイジェストを生成するための装置、方法、及びプログラム |
JP2016103714A (ja) | 2014-11-27 | 2016-06-02 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 録画再生装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2019216355A (ja) | 2019-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7437296B2 (en) | Speech recognition dictionary creation apparatus and information search apparatus | |
KR101382499B1 (ko) | 영상 태깅 방법 및 이를 사용하는 영상 재생 장치. | |
RU2539585C2 (ru) | Адаптивное размещение вспомогательных медиаданных в рекомендательных системах | |
US8321203B2 (en) | Apparatus and method of generating information on relationship between characters in content | |
JP4423568B2 (ja) | 表示制御処理装置および方法並びにプログラム | |
RU2595520C2 (ru) | Скоординированное автоматическое размещение рекламных объявлений для каналов персонального содержимого | |
JP2008165759A (ja) | 情報処理装置及び方法並びにプログラム | |
JP4466733B2 (ja) | コンテンツ処理装置および方法、プログラム、並びに記録媒体 | |
US20050273812A1 (en) | User profile editing apparatus, method and program | |
JPH06124309A (ja) | 情報サービスシステムおよび放送受信システム | |
JPWO2005122579A1 (ja) | 番組選択支援装置 | |
JP2009532956A (ja) | メディア・ストリームに注釈を付ける方法および装置 | |
US10462508B2 (en) | Method of recommending personal broadcasting contents | |
US20210082382A1 (en) | Method and System for Pairing Visual Content with Audio Content | |
KR20080031148A (ko) | 정보 처리 장치, 특징 추출 방법, 기록 매체, 및 프로그램 | |
KR20070007290A (ko) | 지침서 생성 유닛 | |
KR20100116412A (ko) | 동영상 장면 기반 광고정보 제공장치 및 방법 | |
CN108292314A (zh) | 信息处理装置、信息处理方法和程序 | |
US11609738B1 (en) | Audio segment recommendation | |
CN103729403A (zh) | 用于更新用户简档的方法和系统 | |
CN108920585A (zh) | 音乐推荐的方法及装置、计算机可读存储介质 | |
KR20060017808A (ko) | 정보 프리젠테이션 시스템, 관리장치, 및 단말장치 | |
JP4496690B2 (ja) | 映像情報レコメンドシステム、方法及び装置、並びに、映像情報レコメンドプログラム及びプログラムの記録媒体 | |
KR20090099439A (ko) | 멀티미디어 콘텐츠 정보에 포함된 메타 정보 기반 키워드광고 서비스 방법 및 그 서비스를 위한 시스템 | |
JP7158902B2 (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191112 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201209 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210928 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211012 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220620 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220913 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221012 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7158902 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |