JP6091551B2 - 表示制御装置、表示制御方法及びプログラム - Google Patents

表示制御装置、表示制御方法及びプログラム Download PDF

Info

Publication number
JP6091551B2
JP6091551B2 JP2015120910A JP2015120910A JP6091551B2 JP 6091551 B2 JP6091551 B2 JP 6091551B2 JP 2015120910 A JP2015120910 A JP 2015120910A JP 2015120910 A JP2015120910 A JP 2015120910A JP 6091551 B2 JP6091551 B2 JP 6091551B2
Authority
JP
Japan
Prior art keywords
display control
video
video data
bar
period
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015120910A
Other languages
English (en)
Other versions
JP2015216647A (ja
Inventor
康夫 馬塲
康夫 馬塲
俊瑞 山根
俊瑞 山根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015120910A priority Critical patent/JP6091551B2/ja
Publication of JP2015216647A publication Critical patent/JP2015216647A/ja
Application granted granted Critical
Publication of JP6091551B2 publication Critical patent/JP6091551B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は表示制御装置、表示制御方法及びプログラムに関し、特に、ユーザの嗜好を考慮し、ユーザにとって重要な場面を簡単に探すことを可能にするために用いて好適な技術に関する。
近年、映像解析技術や音声認識技術の発展に伴い、豊富なメタデータが付与された映像が増えている。メタデータとして付与されうる情報には、例えば、映っている人が誰であるかという情報や、子供の笑い声が聞こえる場面はどこかという情報がある。メタデータを利用することにより、見たい場面を素早く見つけたり、個人の嗜好に合わせた場面のみを視聴したりすることを可能にする方法が提案されている(特許文献1および2参照)。
一方、近年の通信ネットワークの発展に伴い、映像配信装置に保存された映像を、複数のユーザがネットワークを通じて手元の表示装置でストリーミング再生する視聴形態が浸透しつつある。今後、映像配信システムは、それぞれのユーザの嗜好を考慮し、ユーザにとって重要な場面を簡単に探すことのできるユーザインタフェースを提供する必要性が高まっていくと考えられる。
また、ユーザが映像の中から自らにとって重要な場面を探すためには、映像から切り出したフレームを参照することができれば便利である。すなわち、ユーザがスライダーを移動させるとともに、代表的なフレームが映像表示画面に表示される。ストリーミング再生と併行して、ある先読み対象期間内に存在する複数枚の映像フレームデータを取得する方法が提案されている(特許文献3参照)。
特開2001−292402号公報 特開2007−208651号公報 特開2006−287875号公報
既存の表示装置では、シークバーと呼ばれるユーザインタフェースが用いられる。シークバーは、映像全体のうち再生した量を表示画面上の長さに投影して示す。また、ユーザがシークバー上のスライダーを何らかの操作デバイスによりある位置へと移動させると、その位置に対応する時間点から映像が再生される。つまり、スライダーを移動させることにより、映像の任意の時間点からの再生が可能となる。
通常、映像の時間の経過とバー上の位置が比例の関係で対応付けられているため、ユーザにとって重要な場面がシークバー上で偏ってしまうことが起こりうる。すると、スライダーを動かすとき、ユーザにとって重要ではない領域をスキップするためにはスライダーを大きく動かさねばならなくなる。逆に、重要場面が集まっている領域を細かくシークするためには、スライダーの微細な操作が必要となる。これでは、ユーザにとっての映像再生に係る利便性が損なわれる問題点があった。
本発明は前述の問題に鑑み、ユーザにとっての映像再生に係る利便性を向上させることを目的とする。
本発明の表示制御装置は、映像データを取得する第1取得手段と、前記第1取得手段により取得される映像データに係る、映像の内容に関する特徴及び音声の特徴の少なくとも何れかに基づく特徴情報を取得する第2取得手段と、前記第1取得手段により取得される映像データの再生位置をユーザに指定させるためのバーを表示部に表示させる表示制御手段であって、前記映像データの等しい時間長の異なる期間それぞれに対応する、前記バーの異なる部分の長さが、前記第2取得手段により取得される前記映像の内容に関する特徴及び音声の特徴の少なくとも何れかに基づく特徴情報に応じて異なる前記バーを、前記表示部に表示させる前記表示制御手段とを有することを特徴とする。
本発明によれば、ユーザにとっての映像再生に係る利便性を向上させることが可能となる。
一般的に用いられるシークバーの具体例を説明する図である。 本発明の実施形態を示し、メタデータの具体例を説明する図である。 本発明の実施形態を示し、ユーザ嗜好データの具体例を説明する図である。 本発明の実施形態の映像配信システムの一構成例を示すブロック図である。 本発明の実施形態を示し、全体の流れの一例を示すシーケンス図である。 XMLで記述されたユーザ嗜好データの具体例を説明する図である。 図5における配信準備の詳細を説明するフローチャートである。 本発明の実施形態を示し、フレームデータの具体例を説明する図である。 本発明の実施形態を示し、非線形なシークバーの具体例を説明する図である。 ユーザインタフェースデータの具体例を説明する図である。 図5における配信の詳細を説明するフローチャートである。 フレームの周辺から動的にフレームデータを作成する様子を示す図である。
まず、一般的なシークバーについて説明する。既存の表示装置では、シークバーと呼ばれるユーザインタフェースがよく用いられる。
図1は、一般的なシークバーの例を示す図である。このユーザインタフェースでは直線状にバーBが配置される。このバーBは、映像全体のうち再生した量を表示画面上の長さに投影して示す。通常、左端が映像の最初に、右端が映像の最後に対応し、映像の時間の経過とバー上の位置が比例の関係で対応付けられていることが多い。
ユーザが映像の再生を要求すると、映像が映像表示画面Dに表示される。映像の再生中、バーBの上のスライダーSLが、再生中の時間点と対応するようにバーB上を動く。また、ユーザがスライダーSLを何らかの操作デバイスによりある位置へと移動させると、その位置に対応する時間点から映像が再生される。つまり、スライダーSLを移動させることにより、映像の任意の時間点からの再生が可能となる。
このような一般的なシークバーには、以下のような問題点がある。例えば、ユーザが、自分の写っている場面を見たいという嗜好を持っているとする。このとき、ユーザの写っている場面をシークバー上に投影すると、図1のI1〜I10のように配置されたとする。通常、バーBと時間点との対応は比例関係にあるため、このようにユーザにとって重要な場面がシークバー上で偏ってしまうことが起こりうる。
すると、スライダーSLを動かすとき、ユーザにとって重要ではない領域をスキップするためにはスライダーSLを大きく動かさねばならなくなる。逆に、重要場面が集まっている領域を細かくシークするためには、スライダーSLの微細な操作が必要となる。これでは、ユーザにとって利便性のある映像の再生ができない問題点があった。
以下に、本発明の実施形態を説明する。
まず、以降の説明で用いる用語を定義する。
「メタデータ」は、映像に付随して存在するデータで、映像のどの時間点にどんな場面があるかという、映像の特徴を示したデータのことである。具体的には、顔や物の認識情報、景色の認識情報、映像を撮像したビデオカメラに加えられたズームの操作情報、音量の変化情報、音声の認識情報、ユーザ自らによるタグ付け情報のうち、少なくとも一つを含む。例えば、映像の0分14秒16の時間点から子供の顔が映り始める、といった情報がメタデータに含まれる。メタデータは、映像の中に埋め込まれている場合と、映像と分離して管理される場合の両方があるが、本実施形態では後者の場合を想定して説明する。図2に、メタデータの一例を示す。
「ユーザ嗜好データ」は、メタデータとして付与される各種情報に対して与えられたスコアのことである。このスコアは、ユーザが各メタデータに対して持つ嗜好の度合いを表している。図3に、ユーザ嗜好データの例を示す。
「重要な場面」とは、ユーザ嗜好データにおいて高いスコアをもつメタデータの種類に対応する映像の時間点を表す。
図4に、本発明の実施形態における典型的な映像配信システムの構成を示す。本実施形態では、映像配信装置100と、1つ以上の表示装置200を用いる。映像配信装置100と表示装置200は、ネットワーク300を介して接続されている。ユーザは、表示装置200を操作することで、映像配信装置100に保存された映像をネットワークを介して視聴する。
映像配信装置100の構成要素について説明する。受信部101と送信部109は、表示装置200と情報の送受信を行う。映像データベース103は、映像IDに対応する映像を保存する。ここで映像IDとは、映像を識別するためのIDのことである。メタデータ・データベース104は、映像IDに対応する映像のメタデータを保存する。
ユーザ嗜好データ・データベース105は、表示装置200から送信されて取得したユーザ嗜好データを保存する。データベース管理部102は、これらの映像データベース103、メタデータ・データベース104、ユーザ嗜好データ・データベース105を管理する。なお、本実施形態では、表示装置200から送信されるユーザ嗜好データを用いる方法をとっている。しかし、データベース管理部102がユーザの嗜好を推測してユーザ嗜好データを作成するようにしてもよい。
重要場面判定部106は、ユーザ嗜好データによって重み付けられたメタデータを元に映像の重要場面情報を作成する。「重要場面情報」とは、映像のどの時間点に誰にとってどれだけ重要な場面があるかという情報をまとめたものである。ユーザインタフェースデータ作成部107は、得られた重要場面情報をもとに、ユーザにとって重要な場面を探すのに適すようにカスタマイズされたユーザインタフェースデータを作成する。また、フレームデータ作成部108は、重要場面情報、映像、シーク情報をもとに、映像からフレームデータを作成する。ここで「フレームデータ」は、映像から抽出したフレームと、フレームに関するデータとから構成される。
次に、表示装置200の構成要素について説明する。
操作部201は、操作デバイス400と接続され、ユーザからの操作を受け付ける。また、操作部201は、ユーザが映像中のどのフレームを選択したかという情報であるシーク情報を作成する。表示部203は、映像配信装置100から受信した映像を表示デバイス500に出力して表示する。
また、表示部203は、映像配信装置100からユーザインタフェースデータを受信し、それをもとにユーザインタフェースを作成して表示する。さらに、表示部203は、映像配信装置100からフレームデータを受信し、ユーザがシーク動作を行ったときに適切にフレームを表示する。送信部202と受信部204は、映像配信装置と情報の送受信を行う。
次に、図5を用いて、本実施形態における処理の流れを説明する。
まず、表示装置200は、映像配信装置100に、ユーザのユーザ嗜好データを送信する(S100)。送信されたユーザ嗜好データは、図4のユーザ嗜好データ・データベース105に保存される(S200)。送信されるユーザ嗜好データの具体例は後述する。
次に、表示装置200は、所望する映像のIDを映像配信装置100に送信する(S300)。映像配信装置100は、これをもとに配信準備(S400)を行い、作成したフレームデータおよびユーザインタフェースデータを表示装置200へ送信する。配信準備(S400)の詳細は後述する。
続いて、表示装置200は、配信開始の要求を映像配信装置100に通知する(S500)。映像配信装置100は、これをもとに映像の配信(S600)を行い、表示装置200へ映像を送信する。配信(S600)の詳細は後述する。以上が、本実施形態における処理の流れである。
次に、図6を用いて表示装置200から映像配信装置100に送信されるユーザ嗜好データの具体例について説明する。ここで、ユーザ嗜好データは外部から受け取るときのデータ形式としてXML形式(拡張可能マークアップ言語形式)で表現されたもの、またはそれをバイナリ化されたものであり、以下のような内容が記述されている。
(1)ユーザを識別するID、(2)メタデータのクラスと種類、(3)メタデータに与えられたスコア。
図6では、ID「0000123」を持つユーザが、4種のメタデータに対して自らの嗜好を設定したときの例を示している。ここで、ユーザ嗜好データの1つ目の記述は、「風景」クラスに属する「夜景」に対してスコア「5」が与えられていることを意味する。2つ目の記述は、「顔」クラスに属するID「0000123」(つまりユーザ自身)に対してスコア「4」が与えられていることを意味する。
3つ目の記述は、「ユーザ定義」クラスに属する「お気に入り」に対してスコア「4」が与えられていることを意味する。ここでユーザ定義クラスは、ユーザ自らがタグ付けしたメタデータが属するクラスである。4つ目の記述は、「音」クラスに属する「騒音」に対してスコア「−3」が与えられていることを意味する。ここで負のスコアは、この場面を視聴したくないという嗜好を意味する。
次に、図5の配信準備(S400)の方法の具体例について、図4と図7を用いて詳しく説明する。
配信準備を開始すると(S701)、次に、映像配信装置100は表示装置200から映像のIDを受け取る(S702)。データベース管理部102は、この映像IDに対応する映像が存在するかを調べ、映像IDの有効性を確認する(S703)。映像IDが有効でなかった場合は、表示装置200にエラーを通知し(S704)、配信準備を終了する(S705)。映像IDが有効であった場合は、映像IDに対応する映像を映像データベース103から読み出す(S706)。
続いて、データベース管理部102は、ユーザ嗜好データにおいてスコアの与えられたメタデータが、メタデータ・データベース104に存在するかどうかを調べる(S707)。該当するメタデータが存在しない場合は、そのメタデータが映像配信装置100で作成可能かどうかを調べる(S708)。
そして、そのメタデータを作成することができるならば、メタデータを映像から動的に作成するメタデータ作成処理を実行し(S711)、メタデータ・データベース104を更新する(S712)。メタデータを作成することができないならば、表示装置200にエラーを通知し(S709)、再生準備を終了する(S710)。もちろん、図7に示したこの方法をとらず、メタデータが存在しなかった時点でそのメタデータに対応するユーザ嗜好データは無視して処理を続行するという方法をとることもできる。
こうして、メタデータを取り出した後(S713)、取り出したメタデータをもとに、重要場面判定部106が、映像のどの時間点に誰にとってどれだけ重要な場面があるかという重要場面情報を作成する(S714)。このとき、ユーザ嗜好データにおいて与えられたスコアに応じて、場面の重要度の高さを重み付けすることができる。
この重要場面情報をもとに、フレームデータ作成部108が、重要な場面においてフレームデータを作成し(S715)、またユーザインタフェースデータ作成部107が、表示装置200に最適化されたユーザインタフェースデータを作成する(S716)。そして、送信部109がフレームデータおよびユーザインタフェースデータを、ネットワーク300を介して接続されている外部の表示装置200の受信部204に送り、映像の配信準備が整い(S717)、処理を終了する(S718)。
次に、映像配信装置100から表示装置200に送信されるフレームデータの具体例について説明する。
フレームデータは、前述したように、映像から抽出したフレームと、フレームに関するデータとから構成される。フレームデータの例を図8に示す。フレームは映像から抽出され、識別するためのIDが付与される。フレームに関するデータは、例えば図8のXML形式を用いて表現される。図8のXMLには、各フレームについて、フレームが映像のどの時間点から作成されたかという情報と、そのフレームが抽出された原因となるメタデータのクラスと種類とが記述されている。
図8では、複数のフレームに関するデータをすべてまとめて一つのXMLにする方法をとったが、各フレームに一つのXMLを用意する方法をとってもよい。このようにして構成したフレームデータを表示装置200に送信することで、表示装置200側でシークバー上の該当する場所にフレームを配置することができるようになる。このフレームデータは、映像配信準備のときおよびユーザがシーク動作を行ったとき(後述)に送信される。
図9は、本実施形態における典型的なユーザインタフェースの例である。図9のシークバーは、ユーザにとって重要な場面が多く集まっている領域については、スライダーの移動距離に対応する時間の幅を小さくとっている。逆に、ユーザにとって重要な場面がほとんどない領域については、スライダーの移動距離に対応する時間の幅を大きくとっている。このように、時間に対して非線形なシークバーの形態をしたユーザインタフェースを提供することにより、ユーザの嗜好に応じた映像の再生を可能にすることができる。
次に、非線形なシークバーの作成方法例を説明する。
まず、映像の総時間を、ある適当な数Nで等分割する。次に、分割された各区間それぞれについて、その区間に存在する重要な場面の数と種類をパラメータとして適当なスコアを与える。スコアの与え方には、例えばユーザにとって重要度の高い場面には高いスコアを与える方法や、ユーザが視聴したくないという嗜好を持つ場面には負のスコアを与える方法など、種々の方法が適用可能である。
そして、各区間のスコアに比例するようにシークバーを分割し、各区間に割り当てる。このようにして非線形なシークバーを構築することができる。
分割数Nを6、スコアの計算方法として「各区間に存在する重要な場面の数に1を加える」という方法をとったとき、図1のシークバーを非線形なシークバーにしたものを図9に示す。
次に、映像配信装置100から表示装置200に送信されるユーザインタフェースデータの具体例について、図10を用いて説明する。
図10では、ユーザインタフェースデータはXML形式で表現されており、以下のような内容が記述されている。
(1)ユーザインタフェースのクラス(ここではシークバー)、(2)映像の総時間、(3)映像の時間点とシークバーの位置との対応関係。表示装置200はこのようなユーザインタフェースデータを受信し、ユーザインタフェース作成を行うことができる。
次に、図5の配信(S600)の方法について、図4、図11を用いて詳しく説明する。
前述した通り、映像配信装置100は、映像配信に先立ち、重要な場面に対応するフレームデータを表示装置200に送信している。
配信開始(S1101)すると、映像配信装置100が表示装置200から配信開始の要求を受け取る(S1102)。次に、映像配信装置100は再生開始位置を最初にセットし(S1103)、映像を表示装置200へと送信する(S1104)。
ここで、ユーザがシーク動作に入り、映像中のフレームの一つを選択したとする(S1105)。どのフレームが選択されたかという情報は、シーク情報として表示装置200からフレームデータ作成部108に送られる。フレームデータ作成部108は、選択されたフレームの前後一定の範囲内において、先に抽出したフレーム同士の時間間隔よりも短い時間間隔でフレームデータを作成し(S1106)、表示装置200へと送信する(S1107)。ユーザによるフレームの選択動作が終了したか判断し(S1108)、終了すれば、再生開始位置を修正し(S1109)、映像を表示装置200へと再送信する(S1110)。S1108において、ユーザによるフレームの選択動作が終了しなければS1105に戻る。
S1111で再生終了か否かを判断する。そして、再生終了でなければS1105に戻り、再生終了ならばS1112に進んで終了処理を行う。
次に、ユーザがシーク動作を行ったときの動作例を図12に示す。
映像配信に先立って表示装置200に送られた、重要な場面に対応するフレームデータの位置がI1〜I10である。
図12は、ユーザがスライダーSLをI6の位置までスライドさせたとき、その周辺でフレームデータが動的に作成され、シークバー上のJ1〜J3に配置されたところを表している。これにより、ユーザはより細かいシークが可能になる。
ユーザによるフレームの選択動作が終了すれば、映像配信装置100は再生開始位置を修正し(S1109)、映像の再配信を行う(S1110)。このように、フレームデータの送信を段階的に行うことで、ユーザは映像の全域にわたって、ユーザにとって重要な場面を簡単にシークすることができ、かつ、通信帯域を無駄に使用することなくより細かいシークを行うことができる。
次に、ユーザがシーク動作に入ったときに送るフレームの抽出方法について説明する。
ユーザがシーク動作に入ったときに送るフレームデータの作成については、いくつかの方法が適用可能である。一つ目の方法としては、選択されたフレームから一定の時間だけ離れた時間点においてフレームデータを何個か作成する方法がある。例えば、選択されたフレームが映像の22.50秒目から抽出されたものであった場合、22.50秒から前後2.00秒離れた時間点、および前後1.00秒離れた時間点からフレームデータを作成する。
二つ目の方法としては、今映像を視聴しようとしているユーザ以外のユーザの嗜好に対応するフレームを抽出する方法がある。以下、映像を視聴しようとしているユーザを「視聴ユーザ」、視聴ユーザ以外のユーザを「他ユーザ」と呼ぶ。前述の通り、重要場面判定部106は、ユーザ嗜好データとメタデータを元に映像の重要場面情報を作成する。
このとき、視聴ユーザの嗜好データから視聴ユーザにとっての重要場面情報を作成するのみならず、他ユーザの嗜好データから他ユーザにとっての重要場面情報も作成しておく。これにより、他ユーザにとって重要な場面に対応するフレームデータを作成することが可能になる。この結果、視聴ユーザがシーク動作を行うとき、視聴ユーザ一人では気付かなかった場面に気付く効果が期待できる。ただし、個人情報保護の観点から、他ユーザの範囲は事前に設定できることが望ましい。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、前述した実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種のコンピュータ読み取り可能な記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
100 映像配信装置、101 受信部、102 データベース管理部、103 映像データベース、104 メタデータ・データベース、105 ユーザ嗜好データ・データベース、106 重要場面判定部、107 ユーザインタフェースデータ作成部、108 フレームデータ作成部、109 送信部、200 表示装置、300 ネットワーク、400 操作デバイス、500 表示デバイス

Claims (18)

  1. 映像データを取得する第1取得手段と、
    前記第1取得手段により取得される映像データに係る、映像の内容に関する特徴及び音声の特徴の少なくとも何れかに基づく特徴情報を取得する第2取得手段と、
    前記第1取得手段により取得される映像データの再生位置をユーザに指定させるためのバーを表示部に表示させる表示制御手段であって、前記映像データの等しい時間長の異なる期間それぞれに対応する、前記バーの異なる部分の長さが、前記第2取得手段により取得される前記映像の内容に関する特徴及び音声の特徴の少なくとも何れかに基づく特徴情報に応じて異なる前記バーを、前記表示部に表示させる前記表示制御手段とを有することを特徴とする表示制御装置。
  2. 前記第2取得手段により取得される特徴情報は、前記第1取得手段により取得される映像データから作成されるメタデータであることを特徴とする請求項1に記載の表示制御装置。
  3. 前記第2取得手段により取得される特徴情報は、前記映像データにおける所定の場面を特定するための情報を含むことを特徴とする請求項1又は2に記載の表示制御装置。
  4. 前記所定の場面は、前記第2取得手段により取得される特徴情報と、前記特徴情報に基づいて特定される場面の重要度を表すデータとに基づいて特定されることを特徴とする請求項に記載の表示制御装置。
  5. 前記重要度を表すデータは、前記特徴情報に基づいて特定される場面に対してユーザごとに設定される重要度を表すことを特徴とする請求項に記載の表示制御装置。
  6. 前記所定の場面は、前記特徴情報に基づいて特定される場面のうち、前記重要度を表すデータにより表される重要度が所定の閾値以上の場面であることを特徴とする請求項4又は5に記載の表示制御装置。
  7. 前記表示制御手段は、前記映像データの等しい時間長の異なる期間それぞれに対応する、前記バーの異なる部分の長さが、当該異なる期間それぞれに前記所定の場面が含まれるか否かに応じて異なる前記バーを、前記表示部に表示させることを特徴とする請求項乃至6の何れか1項に記載の表示制御装置。
  8. 前記表示制御手段は、前記映像データの等しい時間長の異なる期間それぞれに対応する、前記バーの異なる部分の長さが、当該異なる期間それぞれに含まれる前記所定の場面の重要度に応じて異なる前記バーを、前記表示部に表示させることを特徴とする請求項3乃至6の何れか1項に記載の表示制御装置。
  9. 前記表示制御手段は、前記映像データの第1期間に前記所定の場面が含まれ、前記第1期間と等しい時間長の第2期間に前記所定の場面が含まれない場合に、前記バーの前記第1期間に対応する部分の長さが前記バーの前記第2期間に対応する部分の長さよりも長い前記バーを前記表示部に表示させることを特徴とする請求項乃至8の何れか1項に記載の表示制御装置。
  10. 前記表示制御手段は、前記映像データの第1期間に含まれる前記所定の場面の重要度の合計が所定値以上であり、前記第1期間と等しい時間長の第2期間に含まれる前記所定の場面の重要度の合計が前記所定値より小さい場合に、前記バーの前記第1期間に対応する部分の長さが前記バーの前記第2期間に対応する部分の長さよりも長い前記バーを前記表示部に表示させることを特徴とする請求項3乃至8の何れか1項に記載の表示制御装置。
  11. 前記表示制御手段は、前記映像データの第1期間に前記所定の場面が所定数以上含まれ、前記第1期間と等しい時間長の第2期間に前記所定の場面が所定数以上含まれない場合に、前記バーの前記第1期間に対応する部分の長さが前記バーの前記第2期間に対応する部分の長さよりも長い前記バーを前記表示部に表示させることを特徴とする請求項乃至の何れか1項に記載の表示制御装置。
  12. 前記所定の場面は、特定のオブジェクトが映像に含まれる場面であることを特徴とする請求項乃至11の何れか1項に記載の表示制御装置。
  13. 前記第2取得手段により取得される特徴情報は、映像に含まれる顔、物、及び景色の少なくとも何れかの認識情報、映像を撮像したカメラに加えられたズーム操作に関する情報、音量の変化に関する情報、並びに音声の認識情報の少なくとも何れかを含むことを特徴とする請求項1乃至12の何れか1項に記載の表示制御装置。
  14. 前記第1取得手段により取得される映像データを、前記表示制御手段により表示部に表示されるバーに基づいてユーザが指定した再生位置から再生する再生制御手段を有することを特徴とする請求項1乃至13の何れか1項に記載の表示制御装置。
  15. 映像データを取得する第1取得工程と、
    前記第1取得工程において取得される映像データに係る、映像の内容に関する特徴及び音声の特徴の少なくとも何れかに基づく特徴情報を取得する第2取得工程と、
    前記第1取得工程において取得される映像データの再生位置をユーザに指定させるためのバーを表示部に表示させる表示制御工程であって、前記映像データの等しい時間長の異なる期間それぞれに対応する、前記バーの異なる部分の長さが、前記第2取得工程により取得される前記映像の内容に関する特徴及び音声の特徴の少なくとも何れかに基づく特徴情報に応じて異なる前記バーを、前記表示部に表示させる前記表示制御工程とを有することを特徴とする表示制御装置の表示制御方法。
  16. 前記第2取得工程において取得される特徴情報は、前記第1取得工程において取得される映像データから作成されるメタデータであることを特徴とする請求項15に記載の表示制御方法。
  17. 前記第2取得工程において取得される特徴情報は、前記映像データにおける所定の場面を特定するための情報を含むことを特徴とする請求項15又は16に記載の表示制御方法。
  18. コンピュータを、請求項1乃至14の何れか1項に記載の表示制御装置の各手段として機能させるためのプログラム。
JP2015120910A 2015-06-16 2015-06-16 表示制御装置、表示制御方法及びプログラム Expired - Fee Related JP6091551B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015120910A JP6091551B2 (ja) 2015-06-16 2015-06-16 表示制御装置、表示制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015120910A JP6091551B2 (ja) 2015-06-16 2015-06-16 表示制御装置、表示制御方法及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010278288A Division JP5765927B2 (ja) 2010-12-14 2010-12-14 表示制御装置及び表示制御装置の制御方法

Publications (2)

Publication Number Publication Date
JP2015216647A JP2015216647A (ja) 2015-12-03
JP6091551B2 true JP6091551B2 (ja) 2017-03-08

Family

ID=54753101

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015120910A Expired - Fee Related JP6091551B2 (ja) 2015-06-16 2015-06-16 表示制御装置、表示制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6091551B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6864833B2 (ja) * 2017-06-05 2021-04-28 株式会社Jvcケンウッド チャット端末装置、チャットシステム、チャット表示方法、及びチャット表示プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4325071B2 (ja) * 2000-04-07 2009-09-02 ソニー株式会社 デジタルビデオ再生方法及びデジタルビデオ再生装置
JP4593842B2 (ja) * 2001-08-03 2010-12-08 キヤノン株式会社 動画像検索装置及びその制御方法
JP2006345929A (ja) * 2005-06-13 2006-12-28 Olympus Medical Systems Corp 画像表示装置
JP2008033743A (ja) * 2006-07-31 2008-02-14 Fuji Xerox Co Ltd 時系列データ再生制御のためのプログラム及び装置
WO2008029479A1 (en) * 2006-09-08 2008-03-13 Panasonic Corporation Content reproduction device and content reproduction method
JP2010211881A (ja) * 2009-03-11 2010-09-24 Seiko Epson Corp 再生装置、再生方法、及びプログラム

Also Published As

Publication number Publication date
JP2015216647A (ja) 2015-12-03

Similar Documents

Publication Publication Date Title
JP5765927B2 (ja) 表示制御装置及び表示制御装置の制御方法
US10115433B2 (en) Section identification in video content
KR102392497B1 (ko) 자막 및 더빙에 대한 선호도의 자동 검출
CN102113009B (zh) 注释媒体内容项目
US20160232696A1 (en) Method and appartus for generating a text color for a group of images
US10334300B2 (en) Systems and methods to present content
JP4360390B2 (ja) 情報処理装置および方法、プログラム、並びに記録媒体
EP2816564B1 (en) Method and apparatus for smart video rendering
US10496243B2 (en) Method and apparatus for color detection to generate text color
US10503778B2 (en) Methods, systems, and media for associating scenes depicted in media content with a map of where the media content was produced
US11792205B2 (en) Location based authentication
CN109074347A (zh) 具有限制交互性的实时内容编辑
JP2002170119A (ja) 画像認識装置、画像認識方法及び記録媒体
JP5798451B2 (ja) 情報処理装置およびその方法
CN108463997A (zh) 支持众包视频
CN111698261B (zh) 基于流媒体的视频播放方法、装置、设备及存储介质
JP2005277847A (ja) 画像再生システム、画像送信装置、画像受信装置、画像再生方法、画像再生プログラム、記録媒体
JP6091551B2 (ja) 表示制御装置、表示制御方法及びプログラム
KR102247532B1 (ko) 비디오 장면 모아보기 제공 방법, 서버 및 시스템
US20230260549A1 (en) Information processing apparatus, information processing method, and program
WO2012132530A1 (ja) 映像処理システム、映像処理方法、映像処理装置及びその制御方法と制御プログラムを格納した記憶媒体
JP4225701B2 (ja) 要約映像特定装置、および要約映像特定方法
KR101866964B1 (ko) 스트리밍 미디어 중계 장치 및 그 방법
JP7365195B2 (ja) カラオケシステム
WO2018201195A1 (en) Devices, systems and methodologies configured to enable generation, capture, processing, and/or management of digital media data

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170207

R151 Written notification of patent or utility model registration

Ref document number: 6091551

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees