JP2016004566A - 提示情報制御装置、方法及びプログラム - Google Patents
提示情報制御装置、方法及びプログラム Download PDFInfo
- Publication number
- JP2016004566A JP2016004566A JP2014126731A JP2014126731A JP2016004566A JP 2016004566 A JP2016004566 A JP 2016004566A JP 2014126731 A JP2014126731 A JP 2014126731A JP 2014126731 A JP2014126731 A JP 2014126731A JP 2016004566 A JP2016004566 A JP 2016004566A
- Authority
- JP
- Japan
- Prior art keywords
- information
- event
- presentation
- moving image
- holding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Studio Circuits (AREA)
Abstract
【課題】 動画像に映っている事象に関連する情報を、動画像に自動的に付与しようとした場合、その事象の展開や状況に応じた情報提示タイミングや内容の制御を行うことができない。【解決手段】 外部からの情報を入力するための入力手段と、前記入力手段で入力された情報の一部である動画像に映っている事象に関連する情報を保持する保持手段と、前記保持手段が保持する情報から判断される事象に応じて情報の適切な提示方法を決める決定手段と、前記決定手段で決められた提示方法で前記事象に関連する情報を前記動画像に合成した映像を作成する合成手段と、を備える。【選択図】 図6
Description
本発明は、提示情報制御装置、方法及びプログラムに関する。
近年、スポーツをテレビなどで観戦する際には文字や画像といった様々なコンテンツが提供されている。具体的な例としては、得点や試合経過、選手名といったものが挙げられる。現在、これらのコンテンツはテレビなどのサービスの提供・作成者が手動で配信画像に付与している。しかし、配信対象の種目の増加やスポーツ以外の日常生活、例えば店舗情報の配信等も対象となり、同時にサービスの種類もスマートフォン等を利用した拡張現実によるコンテンツ提供へと拡大するにつれ、コンテンツを自動的に付与することが考えられている。
このような利用シーンに対し、特許文献1ではユーザ情報と提供されるコンテンツの属性から、ユーザがコンテンツを選択した際に適切なコンテンツを候補内から自動的に出力する方法が提案されている。また特許文献2では、ユーザのプロフィール情報と視聴状況に応じて、提示されるテレビ番組コンテンツそのものを変更する方法が提案されている。またテレビ以外のデバイスにコンテンツを提供する方法として、特許文献3ではスマートフォンなどのコンピューティングデバイスを用いてイベント情報を取得し、そのうちユーザの関心が高いと思われるイベント情報を提示する方法が提案されている。
しかしながら、上記特許文献1においては、ユーザの入力操作を処理実行のキーとしているため、ユーザ操作以外のきっかけ、例えば観戦中の試合で行われているプレーなどをキーにして処理を実行することができない。特許文献2についても同様であり、リアルタイムで発生している状況を取得する手段を備えていない。また特許文献3においては、予め発生する場所や時間が決まっている情報しか提示できないため、試合展開等に応じて発生するイベント、つまり予め発生が決まっていないイベントを対象とすることができない。
上記の問題を解決するために、本発明は、
外部からの情報を入力するための入力手段と、
前記入力手段で入力された情報の一部である動画像に映っている事象に関連する情報を保持する保持手段と、
前記保持手段が保持する情報から判断される前記事象の状況に応じて情報の適切な提示方法を決める決定手段と、
前記決定手段で決められた提示方法で前記事象に関連する情報を前記動画像に合成した映像を作成する合成手段と、を備える。
外部からの情報を入力するための入力手段と、
前記入力手段で入力された情報の一部である動画像に映っている事象に関連する情報を保持する保持手段と、
前記保持手段が保持する情報から判断される前記事象の状況に応じて情報の適切な提示方法を決める決定手段と、
前記決定手段で決められた提示方法で前記事象に関連する情報を前記動画像に合成した映像を作成する合成手段と、を備える。
本発明によれば、スポーツの試合などの進行状況に応じて提示情報を選択し、かつユーザの視聴の邪魔にならないタイミングでその情報を提示することができる。
以下に、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。
(第一の実施形態)
本実施形態は、ユーザの観戦している対象の動きの激しさによって提示情報を変更する場合を想定したものである。
図1は、本発明の第1の実施形態を適用すべき課題を有するシーンの例を示す模式図である。ここで、ユーザはテレビ、タブレットなどのスマートデバイスもしくはヘッドマウントディスプレイなどを通してサッカーの試合を観戦しているものとする。
図1(A)に示すユーザが観戦しているシーン101は、選手102と選手103がボールをめぐり激しく競り合いをしているシーンである。そして同時に、選手102についての情報104が自動的に選択され画面上に表示されている。しかし、このように激しく競り合いをしている、つまり画面上で大きな動きのあるシーンが展開されている場合には、ユーザはそのシーンを集中して見たいと考える。従って情報104のような詳細な情報を提示されても、ユーザはこの情報104を見ず、むしろ邪魔なものとみなしてしまう。
本実施形態は、ユーザの観戦している対象の動きの激しさによって提示情報を変更する場合を想定したものである。
図1は、本発明の第1の実施形態を適用すべき課題を有するシーンの例を示す模式図である。ここで、ユーザはテレビ、タブレットなどのスマートデバイスもしくはヘッドマウントディスプレイなどを通してサッカーの試合を観戦しているものとする。
図1(A)に示すユーザが観戦しているシーン101は、選手102と選手103がボールをめぐり激しく競り合いをしているシーンである。そして同時に、選手102についての情報104が自動的に選択され画面上に表示されている。しかし、このように激しく競り合いをしている、つまり画面上で大きな動きのあるシーンが展開されている場合には、ユーザはそのシーンを集中して見たいと考える。従って情報104のような詳細な情報を提示されても、ユーザはこの情報104を見ず、むしろ邪魔なものとみなしてしまう。
また、図1(B)に示すシーン105は、選手106がほぼ静止しているシーンである。そして同時に、選手106についての情報107が自動的に選択され画面上に表示されている。このように選手が静止している、つまりシーン101とは逆に画面上で動きがあまりないシーンが展開されている場合には、ユーザには様々な情報を受け入れる余裕があると言える。従って、このタイミングでは情報107よりも多種多量な情報を提示することができる。そこで、本実施形態により、図1(A)、(B)はそれぞれ図2(A)、(B)のような表示になる。
図2は、本発明の第1の実施形態を適用した結果の例を示す模式図である。図2(A)でユーザは、図1(A)と同様に選手202と選手203が激しく競り合っているシーン201を観戦している。しかし、このシーン201ではシーン101と異なり、自動的に表示する情報は選手202の名前204と選手203の名前205のみである。この程度のシンプルな情報であればユーザの観戦の邪魔にならず、本来の目的通り観戦の手助けになる。
一方、図2(B)は図1(B)と同様に選手207がほぼ静止してシーン206を示している。この場合には、シーン105と異なり選手207についての詳細な情報208を表示し、ユーザの観戦の手助けをしている。このように、シーンに応じて提示する情報量を変化させ、ユーザの観戦の手助けもしくは邪魔にならないようにする必要がある。
一方、図2(B)は図1(B)と同様に選手207がほぼ静止してシーン206を示している。この場合には、シーン105と異なり選手207についての詳細な情報208を表示し、ユーザの観戦の手助けをしている。このように、シーンに応じて提示する情報量を変化させ、ユーザの観戦の手助けもしくは邪魔にならないようにする必要がある。
次に、この実施形態を実現する装置等について詳細に述べていく。
<概略構成>
図3は、本実施形態に係る提示情報制御装置の概略構成の一例を示す模式図である。本実施形態に係る提示情報制御装置は、CPU302、通信装置303、記憶装置304、RAM305、ROM306及びこれらをつなぐBUS307を搭載するサーバ301によって構成されている。
<概略構成>
図3は、本実施形態に係る提示情報制御装置の概略構成の一例を示す模式図である。本実施形態に係る提示情報制御装置は、CPU302、通信装置303、記憶装置304、RAM305、ROM306及びこれらをつなぐBUS307を搭載するサーバ301によって構成されている。
CPU302は、記憶装置304に格納されている制御プログラムを実行することにより、サーバ301の制御をおこなう。記憶装置304としては、ハードディスク、フラッシュメモリ等を用いることができる。サーバ301がプログラムを実行することにより、システムは後述するフローチャートに示す各処理を実行するための各種手段として機能する。通信装置303は各種外部入力装置からのデータの受け取りと、サーバ301内で処理されたデータをユーザの有する端末や外部の中継装置への送信を行う。通信装置303は各種外部装置と有線・無線のどちらの方式で接続されていても良い。ROM306は、処理プログラム等の制御プログラムを記憶する。RAM305は、各構成要素からの各種データを一時記憶する。また、プログラムを展開し、サーバ301によって実行する。
なお、本実施形態では後述するフローチャートの各ステップに対応する処理を、CPU302を用いてソフトウェアで実現するが、その処理の一部又は全部を電子回路などのハードウェアで実現するようにしても良い。
<機能構成>
図4は、本実施形態における機能構成を示した構成図である。サーバ401では、まず外部情報入力部402が外部の入力装置から送られたデータを受信する。このデータはまず人物識別部403に送られ、入力された画像に誰が写っているかを認識する。これは顔認識や背番号の認識などによって行われる。次にこのデータは、事象関連情報保持部404に送られる。事象関連情報保持部404では、この送られてきたデータのうち、現在観戦しているシーンで起きている事象、例えばプレイヤーの動きや得点の有無といったものに関連する情報のみを保持する。
<機能構成>
図4は、本実施形態における機能構成を示した構成図である。サーバ401では、まず外部情報入力部402が外部の入力装置から送られたデータを受信する。このデータはまず人物識別部403に送られ、入力された画像に誰が写っているかを認識する。これは顔認識や背番号の認識などによって行われる。次にこのデータは、事象関連情報保持部404に送られる。事象関連情報保持部404では、この送られてきたデータのうち、現在観戦しているシーンで起きている事象、例えばプレイヤーの動きや得点の有無といったものに関連する情報のみを保持する。
この保持された情報は、提示情報決定部405から呼び出され、ユーザに提示する情報の決定処理に用いられる。映像合成部406ではこの提示情報決定部405で決定された提示情報を受け取り、それに基づいて基の映像に情報を重畳もしくは合成し、実際にユーザに提供する映像を作成する。この作成された映像は映像送出部407に渡され、ここからユーザに配信されていく。
図5は、上記の機能をもつサーバを含む各種装置の実世界における配置を示した図である。サーバ505は、フィールド501を映しているカメラ(撮像手段)502、観客や選手の声、実況アナウンサーの声などを集音しているマイク503、インターネット上などから各種情報を集めてくる情報収集ユニット504からなる。先述の通りこれらの情報をサーバで受信・処理した後、作成された情報をユーザの持つ重畳表示をできる端末506やテレビ507に配信する。
図6に示すフローチャートと併せて、上記の動作を説明する。まずステップS601では、外部情報入力部402を用いて各種外部入力装置からの情報を取得する。次にステップS602に進み、入力された動画像に映っている人物の識別を、人物識別部403によって行う。人物の識別後はステップS603に移り、入力された情報がそれぞれ観戦しているシーンに関連しているかどうかを事象関連情報保持部404によって判断する。ここでもし関連情報がなければステップS601に戻り、次の情報の取得に移る。
保持すべき情報があれば、ステップS604でこの情報をRAM305に記録する。なお、事象関連情報保持部404で記録される情報が人物に関係する情報である場合には、人物識別部403で識別された人物情報も併せて記録される。そして、この保持された情報を基にステップS605は提示情報決定部405がユーザに提示する情報を詳細にしてもよいかを判断する。ここで、デフォルトの提示情報は、最低限の情報(例えば名前だけ等)となっていることとする。もしくは、情報を全く提示しないことになっていてもよい。
このステップS605において、例えば図1(A)のように動きが激しいシーンの場合には、情報を詳細化しないと判断しステップS607に進む。ステップS607では映像合成部406がステップS605での判断結果を受け取り、それに基づいてデフォルトの情報を映像に合成・重畳する。
これに対し図1(B)のように動きがほとんどないシーンでは、情報を詳細化すべきと判断しステップS606に進む。ステップS606では映像合成部406がステップS605での判断結果を受け取り、それに基づいて詳細化された情報を映像に合成・重畳する。
合成・重畳が終わるとステップS608に移り、ステップS607またはステップS606で作成した映像を映像送出部407によってユーザへと配信する。その結果、図2(A)、(B)のような映像が配信されることとなる。
これに対し図1(B)のように動きがほとんどないシーンでは、情報を詳細化すべきと判断しステップS606に進む。ステップS606では映像合成部406がステップS605での判断結果を受け取り、それに基づいて詳細化された情報を映像に合成・重畳する。
合成・重畳が終わるとステップS608に移り、ステップS607またはステップS606で作成した映像を映像送出部407によってユーザへと配信する。その結果、図2(A)、(B)のような映像が配信されることとなる。
<表示内容を詳細にできるかの判断>
ここで、ステップS605での判断処理をより詳細に述べる。
図8(A)〜(C)は画像特徴量、音声、時間をそれぞれ使用した場合のS605での処理の詳細を示したフローチャートである。ここで、使用されている特徴はすべてカメラ502やマイク503、情報収集ユニット504の入力から抽出されたものである。次に、各特徴を利用した具体的処理について述べる。
ここで、ステップS605での判断処理をより詳細に述べる。
図8(A)〜(C)は画像特徴量、音声、時間をそれぞれ使用した場合のS605での処理の詳細を示したフローチャートである。ここで、使用されている特徴はすべてカメラ502やマイク503、情報収集ユニット504の入力から抽出されたものである。次に、各特徴を利用した具体的処理について述べる。
<画像特徴量に基づく判定>
例えば画像特徴量の場合には、画像中の各特徴量の一定のフレーム間での移動量を利用する。
具体的には、図7の(A)のシーン701のように、画像全体で画像特徴量の移動量702が大きい場合には激しい動きがあるものとみなす。一方、図7(B)のシーン703のように、画像特徴量の移動量704が小さい場合には、激しい動きはないものとみなす。なお、画像特徴量を取る範囲は画面全体でも人物領域だけでもよい。また特徴量はSIFTやエッジなど既存のものを使う。
例えば画像特徴量の場合には、画像中の各特徴量の一定のフレーム間での移動量を利用する。
具体的には、図7の(A)のシーン701のように、画像全体で画像特徴量の移動量702が大きい場合には激しい動きがあるものとみなす。一方、図7(B)のシーン703のように、画像特徴量の移動量704が小さい場合には、激しい動きはないものとみなす。なお、画像特徴量を取る範囲は画面全体でも人物領域だけでもよい。また特徴量はSIFTやエッジなど既存のものを使う。
この場合の処理の詳細フローが図8(A)である。まずステップS801で一定フレーム間の既定特徴量での移動量を算出する。次にステップS802でその移動量が予め設定された閾値を超えているかどうかを判断する。移動量が閾値未満である場合には、ステップS803に移り、動きが小さいと判定する。一方、閾値未満ではない場合にはステップS804移り、動きが激しいと判定する。この結果によって次ステップがS606、S607のどちらであるか(つまり、表示内容を詳細にできるか否か)が決定される。
<音声に基づく判定>
次に、音声を利用する場合の処理フローが図8(B)である。まずステップS805においてマイク503で取得したデータをサーバ505に送信する。このマイク503で取得するデータは、主にテレビやラジオの実況・解説の音声であるとする。次にステップS806で、ステップS805で取得した音声データの中に、予め「この言葉があれば動きが小さい」と定義されたキーワードがないかを探索する。あった場合には、ステップS807に移り、動きが小さいと判定する。一方、キーワードがなかった場合には動きが大きいと判定し、ステップS808に移る。具体的なキーワードの例としては、「ボールが外に出た」、「ファウルを犯した」などが挙げられる。これらのキーワードが実況・解説の音声内に現れた直後にはプレーが止まる事が高い確率で期待されるため、音声を利用した動きの大きさの判定を行うことができる。画像特徴量の場合と同様に、この結果次第で次ステップ(つまり、表示内容を詳細にできるか否か)が決定される。
次に、音声を利用する場合の処理フローが図8(B)である。まずステップS805においてマイク503で取得したデータをサーバ505に送信する。このマイク503で取得するデータは、主にテレビやラジオの実況・解説の音声であるとする。次にステップS806で、ステップS805で取得した音声データの中に、予め「この言葉があれば動きが小さい」と定義されたキーワードがないかを探索する。あった場合には、ステップS807に移り、動きが小さいと判定する。一方、キーワードがなかった場合には動きが大きいと判定し、ステップS808に移る。具体的なキーワードの例としては、「ボールが外に出た」、「ファウルを犯した」などが挙げられる。これらのキーワードが実況・解説の音声内に現れた直後にはプレーが止まる事が高い確率で期待されるため、音声を利用した動きの大きさの判定を行うことができる。画像特徴量の場合と同様に、この結果次第で次ステップ(つまり、表示内容を詳細にできるか否か)が決定される。
<経過時間に基づく判定>
最後に、経過時間を利用する場合の処理フローが図8(C)である。まずステップS809において情報収集ユニット504で取得したデータをサーバ505に送信する。本実施形態では、サッカーの試合を扱い、判定は試合開始時刻からの経過時間に基づいて行うものとする。次にステップS810で、ステップS809で取得したデータの中から、試合開始時刻からの経過時間を抽出する。この経過時間が予め決められた閾値(例えば、45分間)を越えていればステップS811に移り、動きが小さいと判定する。一方、経過時間が閾値を越えていなければ、ステップS812に移り、動きが大きいと判定する。これは例えば、45分ハーフの試合において閾値を45分としておけば、試合の経過時間が45分を越えた後はハーフタイムとなり選手の動きは小さくなることを利用するものである。画像特徴量、音声同様、この結果次第で次ステップが決定される。
最後に、経過時間を利用する場合の処理フローが図8(C)である。まずステップS809において情報収集ユニット504で取得したデータをサーバ505に送信する。本実施形態では、サッカーの試合を扱い、判定は試合開始時刻からの経過時間に基づいて行うものとする。次にステップS810で、ステップS809で取得したデータの中から、試合開始時刻からの経過時間を抽出する。この経過時間が予め決められた閾値(例えば、45分間)を越えていればステップS811に移り、動きが小さいと判定する。一方、経過時間が閾値を越えていなければ、ステップS812に移り、動きが大きいと判定する。これは例えば、45分ハーフの試合において閾値を45分としておけば、試合の経過時間が45分を越えた後はハーフタイムとなり選手の動きは小さくなることを利用するものである。画像特徴量、音声同様、この結果次第で次ステップが決定される。
以上のような流れでステップS605の判定がされるが、最終的に動きが大きいか小さいかの判定が行われる形であれば図8のフローチャートはアレンジしても構わない。例えば、キーワードを動きが大きい際のものにしたり、図8(C)のステップS812を省き、ステップS810で経過時間が閾値を越えていないと判断された場合には他の特徴量、例えば画像特徴量を使用して判定するという形にしたりしても構わない。
本実施形態によれば、各種外部入力装置から得たデータをサーバ内部の各機能が処理することにより、ユーザが観戦している対象の動きの激しさによって提示する情報を変更することができる。これにより、スポーツの試合などの事象の進行状況に応じて適切な提示情報を選択し、かつユーザの邪魔にならないタイミングでその情報を提示するように制御することができる。
(第2の実施形態)
本実施形態では、ユーザが観戦している対象に関する活躍具合に応じて提示情報を変更する場合を想定したものである。
なお、以下の第2の実施形態の説明では、第1の実施形態と同様の内容については説明を省略し、第1の実施形態の内容と異なる部分について説明を行う。
本実施形態では、ユーザが観戦している対象に関する活躍具合に応じて提示情報を変更する場合を想定したものである。
なお、以下の第2の実施形態の説明では、第1の実施形態と同様の内容については説明を省略し、第1の実施形態の内容と異なる部分について説明を行う。
第1の実施形態と同じく、図1(B)のシーンを例として説明を行う。このシーンにおける選手106が得点を挙げるなど活躍が目立ってくると、ユーザにはその選手についてより詳細な情報を知りたいという要求が現れてくる。そこで、本実施形態を適用することにより、選手が活躍すると図9のシーン901に示すような、選手902についてより詳細な情報903が表示されるようになる。
図10は、本実施形態を実現するためのステップS605の詳細を述べたものである。本実施形態も基本的な処理の流れは図6に示すものになるが、このステップS605の処理を変更することによって上記の対応を行う。
まず、ステップS1001において、ステップS604で保持された情報のうち選手が活躍しているかどうかの判断に用いることができる情報を各選手について取得する。本実施形態では、この判断を行う情報として試合中の統計情報、動画像、音声を利用することとする。なお、情報を選手ごとに分類する際には、ステップS602で取得した人物情報を利用する。
次にステップS1002に移り、ステップS1001で得た情報を比較し、特定の情報が目立っている選手がいないかを判断する。具体的には以下のようにして判断を行う。
まず、ステップS1001において、ステップS604で保持された情報のうち選手が活躍しているかどうかの判断に用いることができる情報を各選手について取得する。本実施形態では、この判断を行う情報として試合中の統計情報、動画像、音声を利用することとする。なお、情報を選手ごとに分類する際には、ステップS602で取得した人物情報を利用する。
次にステップS1002に移り、ステップS1001で得た情報を比較し、特定の情報が目立っている選手がいないかを判断する。具体的には以下のようにして判断を行う。
<統計情報を利用する場合>
まず統計情報を利用する場合である。ここで利用する統計情報とは、各選手のシュート数や得点数、ボール奪取回数など、試合中の各プレーについてカウントもしくは算出されたものである。これらの情報は情報収集ユニット504によって取得することができる。活躍している選手は、これらの情報のうち特定の項目について他の選手と顕著に差がついてくる。従って、この差が所定の閾値より大きくなった選手を活躍していると判断し、この選手の情報を中心に詳細化していく。また、どの項目について差がついてきたかに応じて、提示する情報を変更してもよい。例えば、シュート数や得点数が多い選手に関しては、これまでの通算得点数やシュート決定率、ボール奪取回数が多い選手に関してはパスカット率やタックル回数を表示するということである。
まず統計情報を利用する場合である。ここで利用する統計情報とは、各選手のシュート数や得点数、ボール奪取回数など、試合中の各プレーについてカウントもしくは算出されたものである。これらの情報は情報収集ユニット504によって取得することができる。活躍している選手は、これらの情報のうち特定の項目について他の選手と顕著に差がついてくる。従って、この差が所定の閾値より大きくなった選手を活躍していると判断し、この選手の情報を中心に詳細化していく。また、どの項目について差がついてきたかに応じて、提示する情報を変更してもよい。例えば、シュート数や得点数が多い選手に関しては、これまでの通算得点数やシュート決定率、ボール奪取回数が多い選手に関してはパスカット率やタックル回数を表示するということである。
<動画像を利用する場合>
次に動画像を利用する場合である。この場合は、顔や背番号によって選手を判別し、その選手が表示される回数が多い、あるいは特定のエリア、例えばペナルティエリア内に現れる回数が所定の閾値より多いといったことによって活躍しているかを判断する。この動画像はカメラ502から取得する。
次に動画像を利用する場合である。この場合は、顔や背番号によって選手を判別し、その選手が表示される回数が多い、あるいは特定のエリア、例えばペナルティエリア内に現れる回数が所定の閾値より多いといったことによって活躍しているかを判断する。この動画像はカメラ502から取得する。
<音声を利用する場合>
最後に音声を利用する場合である。この場合は、マイク503で取得した実況・解説音声に対する認識を行い、音声内で登場する回数が多いかどうかで活躍しているかどうかを判断する。
動画像、音声共に統計情報と同じく表示、登場の仕方に応じて提示する情報を変更してもよい。例えば動画像の場合、敵陣ペナルティエリア内に現れる回数が多ければ攻撃中に目立っている選手である可能性が高いので、攻撃に関する情報を多く提示するようにする。また音声の場合、「カットした」「ブロックした」といった主に守備時に用いられることが多い所定の言葉と共に選手名が現れた場合には、守備で活躍していると判断し、守備に関する情報を多く提示する。
最後に音声を利用する場合である。この場合は、マイク503で取得した実況・解説音声に対する認識を行い、音声内で登場する回数が多いかどうかで活躍しているかどうかを判断する。
動画像、音声共に統計情報と同じく表示、登場の仕方に応じて提示する情報を変更してもよい。例えば動画像の場合、敵陣ペナルティエリア内に現れる回数が多ければ攻撃中に目立っている選手である可能性が高いので、攻撃に関する情報を多く提示するようにする。また音声の場合、「カットした」「ブロックした」といった主に守備時に用いられることが多い所定の言葉と共に選手名が現れた場合には、守備で活躍していると判断し、守備に関する情報を多く提示する。
このようにして活躍している選手がいると特定された場合には、ステップS1003に移る。ここでは、その選手が既に活躍していると判断されているかどうかを確認する。まだ活躍していると判断されていない場合には、ステップS1005に移り、デフォルトの状態よりも詳細な情報を提示用に選択する。しかし、既に活躍している、つまり1度以上ステップS1005の処理を行っている選手の場合には、ステップS1004に移り、より詳細な情報を提示することとする。これは例えば、図1(B)の選手207が1回目に活躍しているとステップS1003で判断された場合には、情報107から図2の情報208に詳細化されるのに対し、2回目以降はより詳細な情報である図9の情報903が提示されるということである。
この処理が終わると、ステップS1006に移り、詳細化された回数が選手ごとにカウントされる。この情報は先述のステップS1003における判断に利用される。
この処理が終わると、ステップS1006に移り、詳細化された回数が選手ごとにカウントされる。この情報は先述のステップS1003における判断に利用される。
本実施形態によれば、各種外部入力装置から得たデータをサーバ内部の各機能が処理することにより、ユーザが観戦している対象の活躍具合によって提示する情報を変更することができる。これにより、スポーツの試合などの事象の進行状況に応じて適切な提示情報を選択し提示するように制御することができる。
(第3の実施形態)
本実施形態は、ユーザが観戦している試合に関する状況に応じて提示情報を変更する場合を想定したものである。
なお、以下の第3の実施形態の説明では、第1、2の実施形態と同様の内容については説明を省略し、第1、2の実施形態の内容と異なる部分について説明を行う。
本実施形態は、ユーザが観戦している試合に関する状況に応じて提示情報を変更する場合を想定したものである。
なお、以下の第3の実施形態の説明では、第1、2の実施形態と同様の内容については説明を省略し、第1、2の実施形態の内容と異なる部分について説明を行う。
第1、2の実施形態では人物の状況に応じて提示情報を変更する例を示したが、本実施形態では観戦している試合などのイベントの状況に応じて提示情報を変更する場合を想定する。
例えば、ある大会への出場権をかけた予選リーグの試合を観戦している場合、他の試合の状況に応じて、現在観戦している試合を戦っているチームの出場権獲得条件が変わってくる場合がある。この状況変化をリアルタイムかつ自動的に反映することにより、観戦しているユーザに正確かつ要求に応じた情報を提示することができる。
例えば、ある大会への出場権をかけた予選リーグの試合を観戦している場合、他の試合の状況に応じて、現在観戦している試合を戦っているチームの出場権獲得条件が変わってくる場合がある。この状況変化をリアルタイムかつ自動的に反映することにより、観戦しているユーザに正確かつ要求に応じた情報を提示することができる。
本実施形態では、図6に示す処理において、まずステップS601で観戦中の試合を含む関係試合全ての情報や、観戦中の試合が含まれる大会に関する情報を情報収集ユニット504から取得し、これらをステップS604で保存する。そしてステップS604で保存した情報を用いて、ステップS605において状況判断を行う。例えば、他の試合において点数が入り観戦中のチームの出場権がなくなる状況になった場合には、ステップS605でこのことを判断する。そしてステップS606において、情報を更新すると共に今後どのように各試合の結果が変化すれば出場権がどう変化するかといった情報を選択し、ステップS608でその情報をユーザに送信する。
本実施形態によれば、各種外部入力装置から得たデータをサーバ内部の各機能が処理することにより、ユーザが観戦している試合に関する状況に応じて提示情報を変更することができる。これにより、スポーツの試合などの事象の進行状況に応じて適切な提示情報を選択し提示するように制御することができる。
(第4の実施形態)
本実施形態は、ユーザが気に入っている人物、チームの情報を利用して提示情報を変更する場合を想定したものである。
なお、以下の第4の実施形態の説明では、他の実施形態と同様の内容については説明を省略し、他の実施形態の内容と異なる部分について説明を行う。
ユーザによっては、特に応援している選手やチームがいる場合がある。この場合、ユーザはその選手やチームの情報を重点的に得たいと考えることが多い。そこでこの「応援している選手は誰か」や「応援しているチームはどのチームか」という情報を利用することによって、提示情報を変更することができる。
本実施形態では、まずユーザの使用しているテレビや各種デバイス、あるいは観戦サービスに、各ユーザお気に入りの選手やチームを登録しておく。そして実際の観戦時には、図6のステップS601においてこの登録されたお気に入り情報を情報収集ユニット504から取得し、ステップS604で保存する。そしてステップS604で保存した情報を用いて、ステップS605において提示情報を変更すべき選手やチームの判断を行う。そしてステップS606において、対象の選手やチームの情報を変更し、ステップS608でその情報をユーザが見ている端末506などに送信する。
本実施形態は、ユーザが気に入っている人物、チームの情報を利用して提示情報を変更する場合を想定したものである。
なお、以下の第4の実施形態の説明では、他の実施形態と同様の内容については説明を省略し、他の実施形態の内容と異なる部分について説明を行う。
ユーザによっては、特に応援している選手やチームがいる場合がある。この場合、ユーザはその選手やチームの情報を重点的に得たいと考えることが多い。そこでこの「応援している選手は誰か」や「応援しているチームはどのチームか」という情報を利用することによって、提示情報を変更することができる。
本実施形態では、まずユーザの使用しているテレビや各種デバイス、あるいは観戦サービスに、各ユーザお気に入りの選手やチームを登録しておく。そして実際の観戦時には、図6のステップS601においてこの登録されたお気に入り情報を情報収集ユニット504から取得し、ステップS604で保存する。そしてステップS604で保存した情報を用いて、ステップS605において提示情報を変更すべき選手やチームの判断を行う。そしてステップS606において、対象の選手やチームの情報を変更し、ステップS608でその情報をユーザが見ている端末506などに送信する。
本実施形態によれば、各種外部入力装置から得たデータをサーバ内部の各機能が処理することにより、ユーザが気に入っている人物、チームの情報を利用して提示情報を変更することができる。これにより、スポーツの試合などの事象の進行状況に応じて適切な提示情報(応援している選手が個人タイトルを取るための条件や、応援しているチームが決勝トーナメントへ進むための条件など)を選択して提示するように制御することができる。
(その他の実施形態)
その他の実施形態として、以下のものが挙げられる。
ここまでは第1〜4の実施形態をそれぞれ独立に扱う形で説明したが、これらを組み合わせて実施することも可能である。例えば、第1の実施形態により提示タイミングを決めた後、第2の実施形態を実施することにより提示内容をより正確に決めることもできる。
以上により、ユーザの邪魔にならないタイミングで事象の進行状況に応じたより適切な提示情報を選択し提示することができる。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
その他の実施形態として、以下のものが挙げられる。
ここまでは第1〜4の実施形態をそれぞれ独立に扱う形で説明したが、これらを組み合わせて実施することも可能である。例えば、第1の実施形態により提示タイミングを決めた後、第2の実施形態を実施することにより提示内容をより正確に決めることもできる。
以上により、ユーザの邪魔にならないタイミングで事象の進行状況に応じたより適切な提示情報を選択し提示することができる。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
301 サーバ、302 CPU、303 通信装置、304 記憶装置、305 RAM、306 ROM、307 BUS、
401 サーバ、402 外部情報入力部、403 人物識別部、404 事象関連情報保持部、405 提示情報決定部、406 映像合成部、407 映像送出部
401 サーバ、402 外部情報入力部、403 人物識別部、404 事象関連情報保持部、405 提示情報決定部、406 映像合成部、407 映像送出部
Claims (8)
- 外部からの情報を入力するための入力手段と、
前記入力手段で入力された情報の一部である動画像に映っている事象に関連する情報を保持する保持手段と、
前記保持手段が保持する情報から判断される前記事象の状況に応じて情報の適切な提示方法を決める決定手段と、
前記決定手段で決められた提示方法で前記事象に関連する情報を前記動画像に合成した映像を作成する合成手段と、を備えることを特徴とする提示情報制御装置。 - 前記動画像に映っている事象に関連する情報が、
前記動画像から得られる特徴量、前記動画像の撮像とともに集音される音声、前記事象の開始時刻からの経過時間、又は前記事象に関連する統計情報の少なくとも1つを含んでいることを特徴とする、請求項1に記載の提示情報制御装置。 - 前記決定手段は、前記提示方法として、ユーザに情報を提示するタイミングを決めることを特徴とする、請求項1又は2に記載の提示情報制御装置。
- 前記決定手段は、前記保持手段の情報から、前記事象の進行が止まっている又は動きが小さいと判断されるときを、ユーザに情報を提示するタイミングであると決めることを特徴とする、請求項1乃至3のいずれか1項に記載の提示情報制御装置。
- 前記決定手段は、前記提示方法として、前記タイミングで提示する情報の内容を決定することを特徴とする、請求項1乃至4のいずれか1項に記載の提示情報制御装置。
- 前記決定手段は、前記保持手段の情報から、時間の経過と共に所定の閾値より大きな変化をした情報又は所定の言葉を含む情報に関連する詳細な情報を提示することを特徴とする、請求項1乃至5のいずれか1項に記載の提示情報制御装置。
- 外部からの情報を入力するための入力工程と、
前記入力工程で入力された情報から、前記動画像に映っている事象に関連する情報を選択し保持する保持工程と、
前記保持工程で保持された情報から判断される前記事象の状況に応じて情報の適切な提示方法を決める決定工程と、
前記決定工程で決められた提示方法で前記事象に関連する情報を前記動画像に合成した映像を作成する合成工程と、を備えることを特徴とする提示情報制御方法。 - コンピュータを、請求項1乃至6のいずれか1項に記載された提示情報制御装置の各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014126731A JP2016004566A (ja) | 2014-06-19 | 2014-06-19 | 提示情報制御装置、方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014126731A JP2016004566A (ja) | 2014-06-19 | 2014-06-19 | 提示情報制御装置、方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016004566A true JP2016004566A (ja) | 2016-01-12 |
Family
ID=55223758
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014126731A Pending JP2016004566A (ja) | 2014-06-19 | 2014-06-19 | 提示情報制御装置、方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016004566A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018221012A1 (ja) * | 2017-05-31 | 2018-12-06 | シャープ株式会社 | 電子機器、プログラム、制御装置および制御方法 |
JP2021114079A (ja) * | 2020-01-17 | 2021-08-05 | 楽天グループ株式会社 | サーバ装置、制御方法及びプログラム |
-
2014
- 2014-06-19 JP JP2014126731A patent/JP2016004566A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018221012A1 (ja) * | 2017-05-31 | 2018-12-06 | シャープ株式会社 | 電子機器、プログラム、制御装置および制御方法 |
JPWO2018221012A1 (ja) * | 2017-05-31 | 2020-05-28 | シャープ株式会社 | 電子機器、プログラム、制御装置および制御方法 |
JP2021114079A (ja) * | 2020-01-17 | 2021-08-05 | 楽天グループ株式会社 | サーバ装置、制御方法及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10293263B2 (en) | Custom content feed based on fantasy sports data | |
US11899637B2 (en) | Event-related media management system | |
JP7049428B2 (ja) | 動画配信装置、動画配信方法、動画配信プログラム | |
US20220323871A1 (en) | Interaction Interleaver | |
CN107615766B (zh) | 用于创建和分配多媒体内容的系统和方法 | |
US10706889B2 (en) | Selective content insertion into areas of media objects | |
US9056253B2 (en) | Fantasy sports interleaver | |
US9138652B1 (en) | Fantasy sports integration with video content | |
US10231024B2 (en) | Selectively incorporating feedback from a remote audience | |
US9278288B2 (en) | Automatic generation of a game replay video | |
US20170072321A1 (en) | Highly interactive fantasy sports interleaver | |
US10864447B1 (en) | Highlight presentation interface in a game spectating system | |
US10363488B1 (en) | Determining highlights in a game spectating system | |
KR101883018B1 (ko) | 3d 통신 시스템에서 보조 콘텐츠를 제공하기 위한 방법 및 장치 | |
US10365728B2 (en) | Adaptive provision of content based on user response | |
US11076201B2 (en) | Systems and methods for providing to a user a personalized viewing experience of a content item | |
KR102171356B1 (ko) | 대회 일정과 연동되는 경기영상 스트리밍 방법 및 장치 | |
JP2016004566A (ja) | 提示情報制御装置、方法及びプログラム | |
US20220224958A1 (en) | Automatic generation of augmented reality media | |
CN114288645A (zh) | 一种画面生成方法、系统、装置及计算机存储介质 | |
JP2022067478A (ja) | 情報処理プログラム、装置、及び方法 | |
US10792565B2 (en) | Computer server, a method and computer program product | |
WO2022230291A1 (ja) | 情報処理装置、情報処理方法、プログラム | |
GB2559983A (en) | Entertainment device and system | |
US20230121820A1 (en) | Generating virtual scenes shared by multiple participants |