JP6179889B2 - コメント情報生成装置およびコメント表示装置 - Google Patents

コメント情報生成装置およびコメント表示装置 Download PDF

Info

Publication number
JP6179889B2
JP6179889B2 JP2013104547A JP2013104547A JP6179889B2 JP 6179889 B2 JP6179889 B2 JP 6179889B2 JP 2013104547 A JP2013104547 A JP 2013104547A JP 2013104547 A JP2013104547 A JP 2013104547A JP 6179889 B2 JP6179889 B2 JP 6179889B2
Authority
JP
Japan
Prior art keywords
comment
movement locus
movement trajectory
moving image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013104547A
Other languages
English (en)
Other versions
JP2014225808A (ja
Inventor
亜矢子 丸山
亜矢子 丸山
登 一生
一生 登
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2013104547A priority Critical patent/JP6179889B2/ja
Priority to US14/279,303 priority patent/US9398349B2/en
Publication of JP2014225808A publication Critical patent/JP2014225808A/ja
Application granted granted Critical
Publication of JP6179889B2 publication Critical patent/JP6179889B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/8133Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
    • H04N21/8583Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot by creating hot-spots

Description

本発明は、コメントつき動画に関し、動画像中のオブジェクトに追従するコメント表示を実現するための移動軌跡を含むコメント情報を生成するコメント情報生成装置およびコメント情報生成方法、および前記オブジェクトに追従するコメントを表示するコメント表示装置、及びプログラムに関する。
近年、ネットワークの発達や、携帯端末の普及により、ネットワークを介して、遠隔地の相手と、手軽に動画コンテンツや静止画コンテンツを通じたコミュニケーションを楽しむことが日常的に行なわれている。例えば、既存のコンテンツに対し、複数のユーザがそれぞれコンテンツの時間軸上の指定したタイミングで、文章によって個人の嗜好や考えを書き込めるサービスが存在する。このような、コンテンツを通じたコミュニケーションは、表示デバイスや通信技術の発達とともに、今後ますます増えると考えられる。上述のようなコミュニケーションを実現するため、動画像上にユーザが付与したコメントを合成した動画像を生成(コメント重畳)し、インターネット上で配信する技術が特許文献1に示されている。
特許文献1に記載のシステムは、動画サーバ、およびコメント蓄積配信サーバを備えるシステムであり、各ユーザがネットワークを介して書き込んだコメントは、全てコメント蓄積配信サーバ上に蓄えられ、コメントが書き込まれた動画像上の再生時刻を基準点として動画像に重畳され配信される(以降、このような動画像を「コメント付き動画像」と呼ぶ)。動画像ないしコメント付動画像が配信され再生されるたびに、ユーザによって新たに書き込まれるコメントは、動画像時間軸上の時刻と対応付けられてコメント蓄積配信サーバ上で管理され、基本的にはコメントの新旧に関わらず、将来の配信では動画像時間軸上の時刻に基づいて配信される。各コメントは、ユーザがコメントの投稿の対象としたオブジェクトとは無関係に、動画像上を流れるように、または動画像上の一定の位置に固定して表示される。
また、特許文献2および3には、インターネットを介さずに動画像に文字情報を付加するムービー機器が開示されている。特許文献2および3は、特に、付加した文字情報をフキダシなどで表示し、動画像中のオブジェクトの移動に応じてフキダシを変化させることで、文字情報を付加したユーザの意図が容易にわかる手法を提案している。
また、特許文献4には、フキダシを表示するチャットシステムが開示されている。共通背景上の特定位置に合成されたユーザの顔画像や、他に表示されたフキダシを隠さないようにフキダシが表示される。
また、特許文献5には、携帯電話または携帯端末から、映像記録装置に文字情報または絵情報を入力する技術が開示されている。携帯電話または携帯端末は、コメント追従メニューを備え、ユーザが指定した追従枠を動きベクトルを利用して追従させる。
特開2008−148071号公報 特開2010−244437号公報 国際公開第2010/116820号 特開2004−128614号公報 特開2009−81592号公報
しかしながら、従来のコメント重畳(ないしコメント付き動画像生成)方法によると、コメントは動画像中のオブジェクトとは無関係な位置に表示される。このため、各コメント投稿者がどのオブジェクトに対して付与したコメントであるのか、動画像の視聴者にとって理解しにくい。つまり、特許文献1に開示されている技術を用いたコメント付き動画像配信サイトでは、画面の一端から他端までの一行に表示可能な文字数が限られており、コメントは限られた文字数が画面上にスクロール表示される設定がデフォルトとなっているため、ユーザが本当に付加データを与えたかったのは、どのオブジェクトであるかが分かりづらい。
一方、どのオブジェクトに付与したコメントかがわかるよう、コメントをオブジェクトに追従させた場合、画像特徴に基づいてオブジェクトの移動軌跡を推定し、推定した移動軌跡に沿ってコメントを表示させるような追従手法では、コメントの表示時間は、あるオブジェクトにコメントを付与して以降、”そのオブジェクトが見えている間”のみとなる。つまり、シーンチェンジや当該オブジェクトに対する遮蔽が起きた時点で、コメントの文字長さと関係がないタイミングで消去されてしまう。すなわち、コメントが表示されている時間内に読み終わらないままコメントが消去されることが容易に起こりうる。つまり、特許文献2〜5のように、「オブジェクトに追従して動くコメント」は、オブジェクトの動きベクトルを推定することにより算出される移動軌跡の座標を、「追従して動くコメント」の座標として求めることで、容易に実現できる。一方で、シーンチェンジが発生した場合や、追従しているオブジェクトが遮蔽された場合、一般的なオブジェクト動き推定はその時点でほとんどの場合、追従すべき対象を失って中断される。その場合、そのオブジェクトに付与されたコメントの表示時間は短くなり、コメントが表示されている間にユーザがコメントを読み終わらず、コメントの視認性が低下する可能性がある。
本発明は、上述の課題を解決するためになされたものであり、コメントの視認性を向上させることのできるコメント情報生成装置および方法、およびコメント表示装置、およびプログラムを提供することを目的とする。
本願の第1の発明は、以下の発明である。なお、本項において、発明とは出願時の明細書に記載した発明をいう。
動画像が入力される動画入力部と、
前記動画像中のオブジェクトに追従してコメントを表示させるためにユーザが入力した位置情報が入力される情報入力部と、
前記位置情報に対応する前記オブジェクトの移動軌跡である初期移動軌跡を取得する初期移動軌跡取得部と、
前記初期移動軌跡の終了点より後に開始点を有する移動軌跡である後方移動軌跡を取得し、前記初期移動軌跡の近傍に付与された第1のコメントおよび前記後方移動軌跡の近傍に付与された第2のコメントを収集し、前記第1のコメントおよび前記第2のコメントに基づいて前記後方移動軌跡を前記初期移動軌跡に接続して延長移動軌跡を取得する移動軌跡延長部と、
前記延長移動軌跡をコメント情報として出力する出力部と、
を備えるコメント情報生成装置。
「動画像」とは、動画の他、連続する静止画の集合も含む。
「オブジェクト」とは、動画像中の人物、物、背景、あるいはこれらの部分など、動画像を構成する構成要素をいう。視覚で区別可能か否かは問わない。
「コメント」とは、ユーザが入力する情報であり、文字情報の他、絵文字やマーク、キャラクターなどの画像情報も含む。
「位置情報」とは、フレーム、ピクチャー、時間、フレーム中の座標など、画像中の絶対位置または相対位置を特定する情報をいう。
「取得」とは、自装置内で演算し、算出し、生成する場合の他、他装置から結果を取得する場合も含む。
「初期移動軌跡の終了点」とは、初期移動軌跡の時間的な後端であり、対応するフレームやピクチャーで特定する場合の他、絶対時間、相対時間などで特定する場合も含む。
「後」とは、初期移動軌跡の終了点を含むとともに、終了点以降であればよい。
「後方移動軌跡の開始点」とは、後方移動軌跡の時間的な前端であり、対応するフレームやピクチャーで特定する場合の他、絶対時間、相対時間などで特定する場合も含む。
「接続」とは、初期移動軌跡と後方移動軌跡とを直接接続する場合の他、両者の間に間隔があるときに両者の間を補完して間接的に接続する場合も含む。
本願の第2の発明は、以下の発明である。
前記移動軌跡延長部は、前記後方移動軌跡を複数算出し、前記第1のコメントおよび前記第2のコメントに基づいて前記複数の後方移動軌跡のうち少なくとも一つを選択し前記初期移動軌跡に接続して延長移動軌跡を取得する、
第1の発明に記載のコメント情報生成装置。
本願の第3の発明は、以下の発明である。
前記移動軌跡延長部は、前記第1のコメントと最も類似度の高い前記第2のコメントが付与されている前記後方移動軌跡を選択する、
第2の発明に記載のコメント情報生成装置。
「類似度」とは、コメントの有する意味や内容、表現などが類似する程度をいう。
本願の第4の発明は、以下の発明である。
前記移動軌跡延長部は、前記初期移動軌跡の開始点より前の移動軌跡である前方移動軌跡を取得し、前記初期移動軌跡および前記前方移動軌跡の近傍に付与された第1のコメントを収集する、
第1の発明ないし第3の発明のいずれかに記載のコメント情報生成装置。
「初期移動軌跡の開始点」とは、初期移動軌跡の時間的な前端であり、ユーザが位置情報を付与したフレーム、ピクチャー、時間、フレーム中の座標で示される点の他、その近傍の点から開始する場合も含む。
本願の第5の発明は、以下の発明である。
前記移動軌跡延長部は、前記第1のコメントまたは前記第2のコメントの収集の際、投稿時間が時間的に新しいものを優先して収集する、
第1の発明ないし第3の発明のいずれかに記載のコメント情報生成装置。
本願の第6の発明は、以下の発明である。
前記移動軌跡延長部は、前記第1のコメントまたは前記第2のコメントについて前記情報入力部がユーザ入力を受け付けた時刻により近い投稿日時のコメントから形態素分類によって得られた単語の重みを、類似度計算に用いる特徴ベクトル上でより重くする、
第1の発明ないし第3の発明のいずれかに記載のコメント情報生成装置。
本願の第7の発明は、以下の発明である。
前記初期移動軌跡の時間長が所定時間に満たない場合に前記移動軌跡延長部での処理を行なうことを選択し、それ以外の場合は前記初期移動軌跡をそのまま前記コメント情報として前記出力部から出力することを選択する処理選択部をさらに有する、
第1の発明ないし第6の発明のいずれかに記載のコメント情報生成装置。
「所定時間」とは、一定の時間の他、一定の規則によって算出された時間も含む。
本願の第8の発明は、以下の発明である。
前記移動軌跡延長部は、前記初期移動軌跡の終了点の後にシーンチェンジが起こったかそれ以外が起こったかを判定し、判定結果に応じて前記後方移動軌跡を取得する前記動画像中の領域を決定する、
第1の発明ないし第7の発明のいずれかに記載のコメント情報生成装置。
本願の第9の発明は、以下の発明である。
シーンチェンジ以外が起こったと判定した場合の方が、シーンチェンジが起こったと判定した場合よりも前記領域は狭い、
第8の発明に記載のコメント情報生成装置。
本願の第10の発明は、以下の発明である。
前記動画像の輝度ヒストグラムの変化量が所定の閾値以上の場合シーンチェンジが起こったと判定する、
第8の発明に記載のコメント情報生成装置。
本願の第11の発明は、以下の発明である。
シーンチェンジ以外が起こったと判定した場合に、前記初期移動軌跡の終了点より前のフレームから存在する移動軌跡と連続するもの以外を前記後方移動軌跡とする、
第8の発明または第9の発明に記載のコメント情報生成装置。
本願の第12の発明は、以下の発明である。
シーンチェンジが起こったと判定した場合に、前記動画像中の全ての領域で前記後方移動軌跡を取得する、
第8の発明または第9の発明に記載のコメント情報生成装置。
本願の第13の発明は、以下の発明である。
前記情報入力部にはさらに前記コメントが入力され、
前記出力部は、表示装置にコメント情報および前記コメントを出力する、
第1の発明ないし第12の発明のいずれかに記載のコメント情報生成装置。
本願の第14の発明は、以下の発明である。
前記情報入力部にはさらに前記コメントが入力され、
前記出力部は、表示装置にコメント情報および前記コメントを出力し、
前記表示装置は、前記延長移動軌跡に基づき前記動画像中における前記位置情報の入力時点から前記所定時間の間、または前記初期移動軌跡の終了点までの前記所定時間の間、前記コメントを表示する、
の発明に記載のコメント情報生成装置。
本願の第15の発明は、以下の発明である。
前記出力部は、前記初期移動軌跡の終了点の後にシーンチェンジが起こったかそれ以外が起こったかを判定し、判定結果に応じて前記コメントの表示態様を変更する、
第13の発明に記載のコメント情報生成装置。
本願の第16の発明は、以下の発明である。
前記出力部は、前記初期移動軌跡の終了点の後に、追従対象の前記オブジェクトが存在する場合としない場合とで前記コメントの表示様態を異ならしめて前記表示装置に出力する、
第13の発明に記載のコメント情報生成装置。
本願の第17の発明は、以下の発明である。
前記出力部は、前記初期移動軌跡の終了点と前記後方移動軌跡の開始点との間に時間的間隔がある場合は、前記時間的間隔の間、前記コメントの表示を行わない、
第16の発明に記載のコメント情報生成装置。
本願の第18の発明は、以下の発明である。
第1の発明ないし第12の発明のいずれかに記載のコメント情報生成装置から前記コメント情報を受信して、前記動画像および前記コメントを表示するコメント表示装置。
本願の第19の発明は、以下の発明である。
動画像が入力される動画入力ステップと、
前記動画像中のオブジェクトに追従してコメントを表示させるためにユーザが入力した位置情報が入力される情報入力ステップと、
前記位置情報に対応する前記オブジェクトの移動軌跡である初期移動軌跡を取得する初期移動軌跡取得ステップと、
前記初期移動軌跡の終了点より後に開始点を有する移動軌跡である後方移動軌跡を取得し、前記初期移動軌跡の近傍に付与された第1のコメントおよび前記後方移動軌跡の近傍に付与された第2のコメントを収集し、前記第1のコメントおよび前記第2のコメントに基づいて前記後方移動軌跡を前記初期移動軌跡に接続して延長移動軌跡を取得する移動軌跡延長ステップと、
前記延長移動軌跡をコメント情報として出力する出力ステップと、
を備えるコメント情報生成方法。
本願の第20の発明は、以下の発明である。
第19の発明に記載のコメント情報生成方法をコンピュータに実行させるためのプログラム。
「取得する」とは、プログラムの場合、自プログラムで演算し、算出し、生成する場合の他、動画処理を行なう装置のライブラリやOSなど、他プログラムから結果を取得する場合も含む。
本発明によると、コメントの視認性を向上させることのできるコメント情報を生成することができる。
さらに、下位の発明によれば、シーンチェンジや被写体が遮蔽されるような場合にも、追従コメントが中断されたり、コメントの視認性を失ったりすることがないような、コメント情報の生成および表示が行える。
本願の実施形態のコメント付き動画像配信システムの構成を示す説明図 本願の実施形態の動画像へのコメント付与に関する時間的な流れを示す説明図 本願の実施形態におけるコメント情報生成装置の構成図 本願の実施形態におけるコメント情報生成装置をコンピュータによって構成した場合の構成図 本願の実施形態におけるコメント情報生成装置の動作を示す流れ図 本願の実施形態における動画像の一例および動画像中の被写体領域を説明する説明図 本願の実施形態において動画像上でユーザがコメント入力を行なう場合の説明図 本願の実施形態におけるオブジェクト動き推定部による移動軌跡の算出方法の説明図 本願の実施形態における移動軌跡延長部の構成を示す要部構成図 本願の実施形態における移動軌跡延長部の動作を示す流れ図 本願の実施形態における初期移動軌跡及び前方移動軌跡を説明する説明図 本願の実施形態における初期移動軌跡と前方移動軌跡上のコメントを収集し分析する例を示す説明図 本願の実施形態における後方コメントの例を示す説明図 本願の実施形態においてコメントの類似度に応じて後方移動軌跡を接続する手法を説明する説明図 本願の実施形態における移動軌跡延長部の例を示す要部構成図 本願の実施形態において生じるシーンチェンジおよび遮蔽を説明する説明図 本願の第2の実施形態におけるコメント表示装置の構成図 本願の第2の実施形態のコメント表示装置において動画像上でユーザがコメント入力を行う場合の説明図 本願の第2の実施形態のコメント表示装置におけるコメント対象オブジェクトの例を示す説明図 本願の第2の実施形態のコメント表示装置の表示例を説明する説明図 本願の第2の実施形態のコメント表示装置の表示例を説明する説明図 本願の第2の実施形態のコメント表示装置の表示例を説明する説明図
以下、本発明の一態様に係るコメント情報生成装置、およびコメント表示装置について、図面を参照しながら具体的に説明する。
なお、以下で説明する実施の形態は、いずれも本発明の一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する趣旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(第1の実施形態)
図1に、本実施の形態が対象とするコメント付き動画像配信システムの構成を示す。特許文献1と同様に、コメント付き動画像配信システムは、動画サーバ、およびコメント蓄積配信サーバを備えている。第1の実施形態におけるコメント情報生成装置は、ユーザの端末で実現してもよいし、動画サーバやコメント蓄積サーバ内、あるいはその他のサーバで実現してもよい。
図1に示す互いに異なるユーザA〜Dは、ネットワークを通じて各ユーザの保持する端末(スマートフォン、PCまたはタブレットPC等)に配信された動画像を閲覧する。ここではさらに、ユーザA、ユーザBが、端末に備えつけられたキーボードやソフトウェアキーボード等を通じて、動画像にコメントを付与する例が示されている。コメントはここでは文字情報であり、ユーザによって指定された位置情報、ここでは動画像中の時間的な位置(すなわち所望の時間ないしフレーム番号)、および空間的な位置(すなわち座標)に対応付けて付与される。なお、以下の説明で動画像と言う場合には、動画像データまたは動画像データが示す動画像を指しうるものとする。
ユーザが付与したコメントは、当該コメントが付与された動画像、当該ユーザのユーザIDや、当該コメントが対応付けられた(動画像中の)時刻および座標、当該コメントが投稿された実際の時刻、等の情報と合わせて、コメント蓄積配信サーバに随時蓄積される。そして、ユーザAおよびユーザBがある動画像にコメントを付与した後に、別のユーザCおよびユーザDが当該動画像を視聴した際には、当該動画像に対応付けられた他のコメントと同様に、ユーザAおよびユーザBのコメントがコメント蓄積配信サーバより配信され、前記コメントに対応付けられた情報(動画中で経過した時間である動画上時刻および座標等)に基づいて動画上にコメントが合成された動画が表示される。
図2(a)(b)で、動画像へのコメント付与の時間的な流れを示す。
まず図2(a)に、動画像中の時間の流れと、表示されるコメントとの関係を示す。コメントは映像内時刻(動画像の再生時刻)に対応付けられてサーバに蓄積される。各コメントは、コメントの視認に適した所定時間長表示されることが望ましい。時間長の算出については詳しくは後述する。
図2(a)によれば、ユーザAのコメントは、映像内時刻SA秒〜EA秒の間表示され、ユーザBのコメントは、SB秒〜EB秒(秒の代わりにフレームで求めてもよい)の間表示される。なお、時間の単位として以下では”秒”を用いるが、秒の代わりに”フレーム数”を用いても良い。
また、図2(b)には、実際の日時の流れを示す。図2(b)に示すように、ユーザAおよびユーザBがコメントを付与(書き込み)した後に、ユーザCまたはユーザDが、コメント付き動画像を視聴するものとすると、ユーザCは、コメント付き動画像のうち、映像内時刻がSB秒〜EA秒の間の動画像を視聴している場合、図2(a)に示すような、ユーザAのコメント上にユーザBのコメントが重畳されたコメント付き動画像を見ることができる。一方ユーザDは、映像内時刻がEA秒〜EB秒の間の動画像を視聴しているとする。ユーザDは、図2(a)に示すような、ユーザBのコメントのみが付与された動画像を見ることができる。
以上が、本実施の形態が対象とするコメント付き動画像の概念的な説明である。
図3は、本実施の形態におけるコメント情報生成装置100の機能的な構成を示すブロック図である。図3に示されるように、コメント情報生成装置100は、コメントつき動画像において、追従するオブジェクトの動きである移動軌跡を算出するものであり、動画入力部101aと、情報入力部101bと、初期移動軌跡取得部102と、処理選択部103と、移動軌跡延長部104と、出力部105とを備える。
コメント情報生成装置100は、動画像110および、前記動画像でユーザが指定した座標、フレームに関する位置情報を含む入力情報111を入力とし、ユーザが指定した動画像110中のオブジェクトである画素または被写体の動きを含む移動軌跡(初期移動軌跡または延長移動軌跡)を生成し、コメント情報として記憶装置120に出力する。
動画入力部101aは、動画像、または動画像を構成する複数枚の静止画であるピクチャ(「画像」とも言う)の入力を受け付ける。動画入力部101aは、例えば、動画サーバなどの記憶装置に記憶されている動画像を、直接、または通信経路を介して読み出すインタフェースであっても良い。
情報入力部101bは、前記動画像中のオブジェクトに追従してコメントを表示させることを意図してユーザが入力した位置情報であるフレームおよび座標を含む入力情報111の入力を受け付ける。情報入力部101bへの情報入力方法は、例えばユーザがマウスのクリックやタッチパネルのタッチ等を通して入力した動画像上の時刻、座標などに関する情報を、直接、または通信経路を介して読み出すことで実現する。なお、コメント情報生成装置100がサーバで実現されている場合は、入力情報111はユーザの端末から通信回線を通じて情報入力部101bに入力される。
初期移動軌跡取得部102は、動画入力部101aが受け付けた動画像110および情報入力部101bが受け付けた入力情報111に基づき、オブジェクトの移動軌跡、ここではオブジェクト動き推定結果である初期移動軌跡を算出する。
処理選択部103は、初期移動軌跡取得部102が算出した初期移動軌跡の時間長が、あらかじめ定めた所定時間よりも短かった場合に、初期移動軌跡を移動軌跡延長部104へ入力して移動軌跡延長処理を行うよう選択し、そうでない場合は、出力部105に初期移動軌跡を出力するよう選択する。
移動軌跡延長部104は、さらに初期移動軌跡の開始点の座標から、動画の時間軸上で早い方向にさかのぼって算出した前方移動軌跡を求め、初期移動軌跡および前方移動軌跡の近傍に付与された複数のコメント(第1のコメント)をコメントサーバに問い合わせて収集する。
さらに初期移動軌跡の終了点より後のフレームの任意の座標から、動画の時間軸上で遅い方向に算出した後方移動軌跡を求め、前記後方移動軌跡近傍に付与されたコメントをコメントサーバより第2のコメントとして収集する。
そして、第1のコメントと第2のコメントが十分類似していれば、後方移動軌跡を初期移動軌跡の後方に接続することで初期移動軌跡を延長して延長移動軌跡を生成し、延長移動軌跡を出力部へ出力する。
さらに望ましくは、初期移動軌跡の終了点より後のフレームであって、前記移動軌跡の終了点との時間的な間隙があらかじめ定めた一定のフレーム数内である近傍フレームの座標から任意のサンプリングを行って取得した座標から、動画の時間軸上で遅い方向に算出した後方移動軌跡を複数求め、後方移動軌跡近傍に付与された複数のコメントを第2のコメントとしてコメントサーバよりそれぞれ収集し、第1のコメントと最も類似する第2のコメントに対応する後方移動軌跡を選択して初期移動軌跡の後方に接続することで初期移動軌跡を延長して延長移動軌跡を生成し、延長移動軌跡を出力部105へ出力する。
なお、後方移動軌跡を求める座標に関しては、必ずしも近傍フレームの座標から任意のサンプリングを行わなくともよい。たとえば、装置のパワーに余裕がある場合は、後方全フレームの全座標について求めてもよい。このようにすることで、より多くの候補を得ることができ、より正しく移動軌跡が延長される可能性がある。また、あらかじめシーンチェンジがないことがわかっている場合は、任意のサンプリングではなく、初期移動軌跡の終了点の座標から一定距離以内の近傍に存在する座標のみについて後方移動軌跡を求めるとしてもよい。このようにすることで、処理時のメモリ容量を抑えられる。
出力部105は、初期移動軌跡取得部102または移動軌跡延長部104が生成した初期移動軌跡または延長移動軌跡を、コメント情報として有線または無線を介してコメント蓄積配信サーバに設けられた記憶装置120に出力する。ここで、コメント情報は、コメントを付与した座標、コメント投稿時刻、コメント表示時間などのコメントに関する情報を含む。さらに、コメント情報は、動画像に対して付与されたコメントの文字情報、コメントを表示する際の、コメントの形状またはサイズを含んでいてもよい。
出力部105の出力先は、この他、コメント情報生成装置100がユーザの端末で実現された場合は同一機器内の画像表示装置、コメント情報生成装置100がサーバで実現された場合は動画配信のリクエストを行ったユーザ端末装置たるコメント表示装置であってもよい。
なお、処理選択部103は任意の構成である。処理選択部103を有することにより、すべての初期移動軌跡について移動軌跡延長処理を行なう必要がないので、効率的な処理を行なうことができるコメント情報生成装置100が実現できる。
あるいは、処理選択部103の動作条件を他の条件としてもよい。例えば、処理を行なうリソースに余裕があるかどうかで移動軌跡延長処理の頻度に差を設ける等が考えられる。
なお、コメント情報生成装置100を構成する各構成要素(動画入力部101a、情報入力部101b、初期移動軌跡取得部102、処理選択部103、移動軌跡延長部104、出力部105)は、コンピュータ上で実行されるプログラム等のソフトウェアで実現されてもよいし、電子回路または集積回路等のハードウェアで実現されてもよい。図4は、コンピュータによって構成された本実施の形態におけるコメント情報生成装置100のハードウェア構成を示す図である。
図4において、記憶装置210aは、格納した動画像110をI/F(インタフェース)201aへ出力する。ユーザからの入力を受け付ける入力端末210bは、入力情報111をI/F201bへ出力する。コメントを格納している記憶装置210cは、第1のコメント情報、第2のコメント情報をI/F201cへ出力する。コンピュータ200は、動画像110および入力情報111を取得して、コメント情報生成処理を行う。記憶装置B220は、コンピュータ200で生成されたコメント情報を取得して格納する。
コンピュータ200は、I/F201aおよび201b、201c、CPU202、ROM203、RAM204、HDD205およびI/F206を含む。コンピュータ200を動作させるプログラムは、ROM203またはHDD205にあらかじめ保持されている。プログラムは、プロセッサであるCPU202によって、ROM203またはHDD205からRAM204に読み出されて展開される。CPU202は、RAM204に展開されたプログラム中のコード化された各命令を実行する。I/F201aおよび201b、201cは、プログラムの実行に応じて、動画像110および入力情報111、および蓄積されたコメントを、RAM204へそれぞれ取り込む。I/F206は、プログラムの実行により生成されたコメント情報を出力し、記憶装置B220に格納する。
なお、コンピュータプログラムは、半導体であるROM203またはHDD205に限らず、例えばCD−ROMに格納されていてもよい。また、有線や無線のネットワーク、放送などを介して伝送され、コンピュータのRAM204に取り込まれてもよい。
コンピュータ200は、ユーザが用いる端末であってもよいし、コメント情報をユーザ端末に送信するサーバであってもよい。サーバの場合、コメント情報の送信はユーザからのリクエストに応じて送信する場合の他、リクエストにかかわらず特定ないし不特定のユーザ端末に一斉に送信してもよい。
以下、本実施の形態におけるコメント情報生成装置100の動作を、図5以下を用いて説明する。図5は、本実施の形態におけるコメント情報生成装置100の動作を表すフローチャートである。
図5において、6つのステップS301a〜S305は、それぞれ図3の各処理部101a〜105に対応している。すなわち、動画入力部101aでは動画入力ステップS301a、情報入力部101bでは情報入力ステップS301b、初期移動軌跡取得部102では初期移動軌跡取得ステップ302、処理選択部103では処理選択ステップS303、移動軌跡延長部104では移動軌跡延長ステップS304、出力部105では出力ステップS305の各動作を実行する。
最初に、動画入力ステップS301aが、動画入力部101aにより実行される。動画入力部101aは、動画像110を取得する。
本実施の形態では、動画入力部101aが取得する動画像110として、放送動画、自家用ムービーで撮影された動画像、動画像を構成する複数のピクチャ(画像)を想定している。これらの動画像110は、動画サーバなどに蓄積されており、動画入力部101aは、有線や無線のネットワーク、放送などを介して、動画像110を取得する。本実施の形態では、動画像は30フレーム/秒とする。
取得される動画像の例を図6(a)に示す。ここでは音楽関連の動画コンテンツの例を示すが、本発明が対象とする動画像はこれに限られない。なお、以降では、説明および図面の簡略化のため、ここで示した動画像例について、図6(b)のように、被写体領域を簡略表示した図を用いる。
次に、情報入力ステップS301bが情報入力部101bにより実行される。情報入力部101bは、入力情報111を取得する。取得される入力情報111の例を図7に示す。
取得する入力情報111は図7(a)に示すとおり、少なくとも、時刻(time)、座標(position)の2つの情報を含む。時刻は、動画像110中の経過時間(再生時刻)を示す情報であり、時間情報の代わりに、フレーム番号など、動画像110中でユーザによってコメントが付与されたタイミングを特定できる情報であれば他の情報であってもよい。座標も、画素座標値の代わりに、画面の縦および横の値域が1になるように正規化した座標値など、当該フレームにおいて、ユーザによってコメントが付与された空間的位置が特定できる情報であれば、他の情報であってもよい。
入力情報111は、図7(b)のように、時刻、座標からなる位置情報に加え、コメントを含んでもよい。
なお、これらの情報入力は、PCまたは携帯端末などの機器上のユーザインタフェースを通じて行なわれてもよい。または、PCまたは携帯端末などの機器上のユーザインタフェースを通じて行なわれた操作から、通信回線を介して、オブジェクトの位置情報などを受け付けることで、情報入力が行われるとしてもよい。
次に、初期移動軌跡取得ステップS302が初期移動軌跡取得部102により実行される。
初期移動軌跡取得部102は、情報入力部101bが受けつけた入力情報111、および動画入力部101aが受けつけた動画像110に基づいて、ユーザの追従対象のオブジェクトの動きである、一連の時間軸に沿った座標値(初期移動軌跡)を算出する。以下、動画像を構成するフレームごとの静止画をピクチャと呼ぶ。
具体的には、初期移動軌跡取得部102は、動画入力部101aから複数のピクチャを入力し、ピクチャ間の対応点を検出して、入力情報が含む、特定のフレームのピクチャ上の特定の座標を始点とした移動軌跡を生成して出力する。すなわち、動画像110を構成する時間的に隣接する2枚のピクチャ間での画素または、画素を含むブロックの動きを検出し、検出した動きを前記複数枚のピクチャについて連結した、一連の時間軸に沿った座標値を移動軌跡と称する。
図8(a)に示すように、初期移動軌跡取得部102は、時刻tにおける入力ピクチャ501の画素i503a、画素j503bに基づき、算出された2枚のピクチャ間の動きベクトル情報502を用いて、画素i503a、画素j503bの動きを追跡し、画素i503a、画素j503bの対応点を求める。この時、初期移動軌跡取得部102は、1フレームのピクチャ上のある画素iの座標値(x ,y )と、時刻tにおける画素iの対応点の画素座標値(x ,y )とから、式1のように初期移動軌跡xを算出する。
(式1)
本実施の形態において、初期移動軌跡xは、1フレームからTフレームまでのT枚のピクチャ間にわたる対応点であるものとする。初期移動軌跡は、上記の通り座標値で表現されるほか、所定の点を基準とするベクトルで表現されてもよい。
図8(b)は、初期移動軌跡の例を示す。初期移動軌跡取得部102に入力された動画像110は、T枚のピクチャ504で構成されている。このとき移動軌跡x506a、x506bは、1フレームのある画素i505a、画素j505bにそれぞれ対応する、2フレームからTフレームのピクチャ上の対応点の集まりである。移動軌跡x506a、x506bは、各ピクチャのピクチャ座標値を要素とするベクトルで表される。ここでは1フレームのピクチャ上における全ての画素(I個)を基準として、2フレームからTフレームまでの(T−1)枚のピクチャ上の対応する画素を求めている。
なお、初期移動軌跡取得部102においてピクチャ間の対応点を求める際、ピクチャの全ての画素ごとに対応点を求める代わりに、ピクチャ内の隣接する複数の画素(ブロック)ごとに対応点を求めるものとしてもよい。本実施の形態では、画素単位の処理について説明するが、複数の画素からなるブロック(領域)単位で処理をする場合には、(i)ブロック内で画素値を合計したり、(ii)ブロック内の画素値の平均を求めたり、(iii)ブロック内の画素値の中央値を求めたりすることで、ブロックに対応するデータ(代表値)を求め、得られた代表値を用いて画素単位の処理と同様に処理すればよい。本実施の形態において、ある対応点が1画素ごとに求められたものか、または複数の画素に対して1つの対応点が求められたかを区別しない。また、あるピクチャの画素iに対応する他のピクチャの対応点、および、あるピクチャのブロックiに対応する他のピクチャの対応点を、いずれも画素iの移動軌跡と呼ぶ。
また、ピクチャ間の対応点を求める際、必ずしもフレームが連続している必要はなく、例えば、時刻tと時刻t+nに入力された2枚のピクチャから移動軌跡を求めてもよい。ただし、nは1以上の整数である。上記した複数のピクチャ間の対応点を算出する具体的な手法としては、非特許文献1または非特許文献2などに開示されている方法を用いてもよい。ともに、オプティカルフローを計算することにより動きベクトルを算出する手法であり、非特許文献1では階層的なブロックマッチングをベースに、オプティカルフローを算出する。画素間の滑らかさを拘束条件とするため、隣り合うオプティカルフロー間で動きベクトルが滑らかに変化するようなオプティカルフローが得られる。特に急峻な動きまたは遮蔽がない場合に効率的かつ正確な対応点が求められる。また、推定の信頼度を計算できるため、後述するように、信頼度がある閾値より低い対応点を以降の処理より除くことで、全動きベクトルに対する誤った動きベクトルの割合を低減できる。
これに対して、非特許文献2は、グラフカットベースのオプティカルフロー算出手法を開示している。この手法は、計算コストは高いが、正確な対応点がピクチャ上で密に求まる。また、この手法では、双方向の探索を行ない、互いの相関が閾値より低い対応点は遮蔽領域の画素であると推定する。このため、遮蔽領域に位置する対応点を以降の処理より除くことができる。全動きベクトルに対する誤った動きベクトルの割合を低減できる。
この際、すべての画素について動き情報を求めてもよい。また、より高速に処理を行いたい場合には、ピクチャをグリッドに区切って一定間隔のグリッド上の画素についてのみ動き情報を求めてもよいし、上述したように、ピクチャをブロックに区切ってブロックごとに動き情報を求めてもよい。
この場合、前記ブロックの並進移動を仮定して動きベクトルを算出する方法を用いることができる。特に回転運動をする物体に対しては、並進移動を仮定するよりも、非特許文献3に開示されているアフィン変形を仮定した手法を用いることで、より高精度に画素動きを推定できる。
(非特許文献1)P.Anandan,“A Computational Framework and an Algorithm for the Measurement of Visual Motion”,International Journal of Computer Vision, Vol.2, pp.283−310,1989
(非特許文献2)Vladimir Kolmogorov and Ramin Zabih, “Computing Visual Correspondence with Occlusions via Graph Cuts”, International Conference on Computer Vision,2001
(非特許文献3)Jianbo Shi and Carlo Tomasi “Good Features to Track”, IEEE Conference on Computer Vision and Pattern Recognition,pp593−600,1994
なお、非特許文献1の開示技術を用いて動きベクトルを算出する場合は、信頼度を計算することができる。このため、信頼度の高い動き情報を持つ画素のみを用いてもよい。また、非特許文献2の開示技術を用いて動きベクトルを算出する場合は、遮蔽を推定することができるため、遮蔽されていない画素の動き情報のみを用いてもよい。
次に、処理選択ステップS303が、処理選択部103によって実行される。処理選択部103は、初期移動軌跡取得部102ないし移動軌跡延長部104より受け取った移動軌跡、およびあらかじめ定めた目標時間である所定時間に基づいて、後段の処理を決定する。
具体的には、初期移動軌跡が連続するフレーム数が、前記所定時間に相当するフレーム数と同じか、それより長い場合は、移動軌跡を延長する必要がないため、初期移動軌跡をそのまま出力部105へ受け渡す。逆に、初期移動軌跡が連続するフレーム数が、別途定めた所定時間に相当するフレーム数に満たない場合は、コメントの視認性を担保するために初期移動軌跡を延長する必要がある。そこで、初期移動軌跡を、移動軌跡延長部104へ受け渡す。
なお、前記所定時間に相当するフレーム数は、実行時に求めるものとしてもよい。前記フレーム数は、動画像のフレームレートを用いて求めることができる。たとえば、一般的にはフレームレートは30fpsであるため、所定時間をTa(秒)とすると、所定時間に相当するフレーム数はTa×30、となる。また、あらかじめ定めた所定時間に関しては、特にtwitter(登録商標)やmixi(登録商標)のつぶやきのように、入力可能なコメントの最大文字数をあらかじめ決めてあるような場合には、最大文字数に相当する所定時間を求めて用いることができる。たとえば、映画の字幕のガイドラインにならい、一文字1/4秒と定めた場合、twitterと同じ文字数に対する所定時間は144×1/4=36秒となる。あるいは、動画に対してのコメントは、一般的にはそれほど長いものにはならないため、非追従コメントが付与されるニコニコ動画(登録商標)などの動画サービスで一般的に用いられる基準を用いてもよい。この場合、所定時間は3秒と設定することができる。
また、前記所定時間は、あらかじめ定める代わりに、実行時に求めるものとしてもよい。あるいは、入力されたコメントの長さに比例して、所定時間を求めるようにしてもよい。例えば、前記情報入力部101bが受け付けた入力情報111にユーザが入力したコメントが含まれる場合、このコメントを当該ユーザないし他のユーザが視認するために必要な時間として所定時間を算出する。
例えば、情報入力部101bが受け付けた入力情報111に基づいて、コメントをオブジェクトに追従させて表示させる所定時間、すなわち入力情報111に含むコメントを表示するのに適切な目標時間を算出する。所定時間は、例えば、コメントの文字数に基づいて決定することができる。
例えば映画等の字幕に関しては、「1秒間に4文字を表示する」という自主的なガイドラインが定められている。最も標準的なこの方式を採用すると、例えば、図7(b)、又は図18(a)および図18(b)に示すコメント「www」については、3/4=0.75秒間コメントを表示することが最低限必要になる。これは、30fpsの動画像110aの場合、(端数は切り上げるものとすると)23フレームに相当する。つまり、23フレームの間、ユーザが指定した画素またはオブジェクトの動きを追従できればよい。つまり、「0.75秒」という時間の形式で所定時間を算出してもよいし、23フレーム、というフレーム長の形式で所定時間を算出してもよい。どちらの形式を利用したかが、その都度処理選択部103に伝わりさえすれば、例えば動画像110aのフレームレート情報などを用いて、フレーム長形式と時間形式との間の変換は可能である。
なお、単語単位で所定時間を求めてもよい。例えば英文の場合、文章を読むスピードとしてWPM(Words per minute:1分に読める単語数)という単位が用いられることがある。成人アメリカ人が通常、雑誌、新聞または本を読むスピードが250〜300WPMと言われていることから、この基準を目標時間算出の際に適用することができる。
すなわち、入力が英文であった場合には、所定時間の算出にWPMを用いるものとする。例えば、読みやすさのために単語間にマージンを設けて、目標を200WPM等と設定する。入力コメント文中のスペースを検出することで、単語数Wを求めることができる。このため、所定時間Nw=W*60/200のように、計算により所定時間Nw(秒)を求めることができる。
なお、人が視覚的な認識を行なうには、約0.5秒ほどかかるといわれている。これを加味し、前述の「1秒間に4文字」のルールを適用した場合でも、WPMを適用した場合でも、所定時間は必ず、予め定めた長さ(例えば0.5秒)以上になるようにすることが望ましい。
また、既に別のコメントが表示されているフレームに、ユーザがコメントを入力する場合、表示されている過去のコメント文字情報と、新たにユーザが入力するコメント文字情報との両方が視認可能な時間となるよう、新たに入力したコメントの所定時間を長めに算出しても良い。新たなコメントの文字数または単語数に、所定の文字数または単語数を加算したうえで所定時間を算出するとしても良い。このようにすることで、コメントつき動画を閲覧するユーザにとって、より確実に、同時に表示されるコメント文を視認できるようになる。
また、ユーザがコメントを付与しようとしているフレーム上に、既に同じ文字列よりなるコメントが付与されている場合は、コメント内容の重複による冗長さが不快感を与える可能性もある。そこで、同じフレーム上に存在する同一内容のコメントの数が多いほど、新たに追加される同一内容のコメントについては、所定時間を短く、ないしゼロとしてもよい。所定時間を短くするには、例えば、文字数から求めた所定時間を、同一コメントの数で割った値に変更する、等により実現できる。また、同一のコメントが同一フレームに付与されていなくても、同一の動画像中に複数回登場するコメントについては、同様に所定時間を短く、ないしゼロとしてもよい。
なお、処理選択ステップS303は、処理選択部103で説明した通り、任意の処理ステップである。
処理選択ステップS303によって、移動軌跡延長ステップS304の処理が選択された場合、移動軌跡延長ステップS304が、移動軌跡延長部104によって実行される。
移動軌跡延長部104は、処理選択部103より受け取った初期移動軌跡に対して、移動軌跡を延長する処理を施し、結果得られた延長移動軌跡を、再度処理選択部103へ出力する。
図9に、移動軌跡延長部104の構成を示す。移動軌跡延長部104は、前方移動軌跡取得部601、第1コメント取得部602、後方移動軌跡取得部603、第2コメント取得部604、類似コメント選択部605、延長移動軌跡取得部606を備える。
以下、移動軌跡延長部104の動作を、図10を用いて説明する。図10は、本実施の形態における移動軌跡延長部104の動作を表すフローチャートである。
図10において、6つのステップS701〜S706は、それぞれ図9の各処理部601〜606に対応している。すなわち、前方移動軌跡取得部601では前方移動軌跡取得ステップS701の動作を実行し、前方移動軌跡を算出する。次に第1コメント取得部602では第1コメント取得ステップS702の動作を実行し、初期移動軌跡と前方移動軌跡に対応する第1のコメントをコメントサーバから取得する。次に、後方移動軌跡取得部603では後方移動軌跡取得ステップS703の動作を実行し、後方移動軌跡を算出する。次に、第2コメント取得部604では第2コメント出力ステップS704の動作を実行し、後方移動軌跡に対応する第2のコメントをコメントサーバから取得する。次に、類似コメント選択部605では類似コメント選択ステップS705の動作を実行し、第1のコメントに類似した第2のコメントを選択する。最後に、延長移動軌跡取得部606では延長移動軌跡取得ステップS706の動作を実行し、選択した第2のコメントに対応する後方移動軌跡を初期移動軌跡に接続し、新たに延長移動軌跡を生成する。
以下、各ステップについてより詳しく説明する。
まず前方移動軌跡取得ステップS701が前方移動軌跡取得部601により実行される。前方移動軌跡取得部601は、初期移動軌跡の開始点の座標から、動画の時間軸上で早い方向にさかのぼって算出した前方移動軌跡を求める。
図11(a)に、前方移動軌跡取得部で受け付けた初期移動軌跡の例を示す。初期移動軌跡の開始点のフレームをTs(802)、開始点の座標をXs(801)、終了点のフレームをTe(803)、終了点の座標をXe(804)とする。フレームTe(803)でシーンチェンジが起き、初期移動軌跡が中断されたケースについて示している。したがって初期移動軌跡の終了点のフレームTe(803)の座標Xe(804)以降は、通常の画像特徴ベースの軌跡推定手法はうまく働かないといえる。
そこで、本実施形態では、図11(b)に示すように、Xs(801)を起点とし、下部の矢印とtで示す動画の時間軸上で早い方向にさかのぼって前方移動軌跡を算出する。算出方法に関しては、初期移動軌跡取得部102と同様の処理で算出することができるため、ここでは説明は省略する。なお、初期移動軌跡取得部102と異なる部分は、入力ピクチャおよびその順である。フレームTs(802)上の座標Xs(801)を起点に、初期移動軌跡取得部102での処理とは逆に、さかのぼって、時間の経過方向とは逆順にピクチャを入力する必要がある。このようにすることで、図11(b)に示すような前方移動軌跡を得ることができる。
次に第1コメント取得ステップS702が、第1コメント取得部602により実行される。第1コメント取得部602は、前記初期移動軌跡、そして前方移動軌跡の近傍に付与された複数のコメント(第1のコメント)をコメントサーバに問い合わせて取得する。ここで、移動軌跡の近傍はあらかじめ定めた半径r画素以内、としてもよい。たとえばr=10としてもよい。また半径の代わりに矩形を用いてもよい。
初期移動軌跡と前方移動軌跡の両方を示した図を図12(a)に示す。この2本の移動軌跡の両方に対して、各フレームにおける移動軌跡の座標近傍に、それまで付与されたコメントの例を図12(b)に示す。これらは、別途コメントが蓄積されているコメントサーバに、有線または無線を通じて問い合わせを行って取得することができる。このようにして取得した複数のコメントを第1のコメントとする。
本実施形態においては、初期移動軌跡を後方へ延長するための情報として、これらの第1のコメントの文章情報を利用する。文章の分析方法はすでに様々なものが提案されている。特に日本語の場合は、まず形態素解析を行って、文章を単語列にまで分解することが有効である。形態素解析を行うフリーのオープンソフトツールとしては、MeCab、ChaSenといったものが有名である。
第1コメント取得部で得られた複数の第1のコメントに対し、形態素解析を行って単語に分解し、単純に登場回数でヒストグラムをとった例を図12(c)に示す。この例では動画像中のネコをオブジェクトとして想定したが、このように、特定のオブジェクトに対しては、複数のコメント間で同じ単語が複数回出てくる可能性が非常に高く、コメント情報を移動軌跡の延長に用いることは有効であるといえる。
なお、本実施形態においては、前方移動軌跡を求め、これを初期移動軌跡に接続した移動軌跡上から第1のコメントを収集したが、初期移動軌跡で十分なコメントを収集できる場合は前方移動軌跡を求めることなく第1のコメントを収集してもよい。この点から見れば、前方移動軌跡取得部601、および前方移動軌跡取得ステップS701は任意の構成である。
次に後方移動軌跡取得ステップS703が、後方移動軌跡取得部603により実行される。後方移動軌跡取得部603は、初期移動軌跡の終了点より後のフレームの任意の座標から、動画の時間軸上で遅い方向に算出した後方移動軌跡を求める。算出方法に関しては、初期移動軌跡取得部102と同様の処理で算出することができるため、ここでは説明は省略する。また、後方移動軌跡の算出を開始する点については後述する。
次に、第2コメント取得ステップS704が第2コメント取得部604により実行される。第2コメント取得部604は、前記後方移動軌跡近傍に付与されたコメントをコメントサーバより第2のコメントとして取得する。
図13に、異なる後方移動軌跡について取得した第2のコメントの例を示す。図13(a)に示す、フレームTl1の座標Xl1(1006)から開始した後方移動軌跡は、ここではネコの飼い主に対応する例である。図12(b)の例とは異なるコメントがついている。一方、図13(b)に示す、フレームTl1の座標Xl2(1010)から開始した後方移動軌跡は、ここでは図12(b)と同じネコをオブジェクトとした例である。文体は違うが、図12(b)と類似したコメントが取得できている。動画像上でのコミュニケーションにおいて、オブジェクトや、オブジェクトのパーツ単位で特有のコメントが付く可能性は非常に高く、これらの情報を用いることで、通常の輝度ベースの手法ではつなぐことができない、シーンチェンジをはさんだ同一のオブジェクトについた移動軌跡同士をつなぐことができる。
次に、類似コメント選択ステップS705は、類似コメント選択部605により実行される。類似コメント選択部605は、前記第1のコメントと十分類似している第2のコメントを選択する。図14に類似コメント選択の概念図を示す。それぞれ、形態素解析を行ってコメント群の文章特徴量を解析した結果のもっとも簡単な例を示している。先に述べたとおり、オブジェクトごとに付与される特徴的な単語の登場頻度を比較することで、この例では明らかに座標Xl2(1010)から開始する後方移動軌跡を、初期移動軌跡の後方に接続するほうがよいことがわかる。
このように接続することで、たとえばフレームTs(802)で座標(Xs)(801)に「猫かわいい」というコメントが付与された場合、シーンチェンジ後に、飼い主の移動軌跡である座標Xl1(1006)から始まる後方移動軌跡上に「猫かわいい」のコメントが表示されることなく、同じネコの移動軌跡である座標Xl2(1010)から始まる後方移動軌跡上に「猫かわいい」のコメントを表示し続けることができる。
なお、コメント間の類似度を評価する方法として、単語の登場頻度によるヒストグラム間の距離を比較する例を図14では示したが、ほかにもさまざまな方法が提案されている。
特に単純比較では、類似語や概念が近い単語を考慮した類似度算出ができないため、前記形態素解析された単語群を、辞書におけるシソーラスや概念ベースの記述に基づく重みづけを行い、特徴ベクトル表現したものに対して、コサイン相関をとったベクトル間類似度をコメント間の類似度として算出するほうが望ましい。
また、たとえば、特許文献6では、単語や文字が持つ意味の極性に関する情報を別途定量化し、類似度計算に反映させる手法が提案されている。このような手法を用いることで、より単語の意味や概念を反映した、精度の高い類似度の評価を行うことができる。
また、特許文献7では、形態素解析された単語に対し、TF(出現頻度)/IDF(逆文章頻度)、共起頻度、文タイプごとの出現頻度を特徴量とし、生成した単語の特徴ベクトルを類似度算出に用いる方法が提案されている。この手法を応用し、たとえば文タイプの代わりに文の長さ(短文と長文では語の構成が特徴的に異なる)などを用いて特徴ベクトルを算出することで、より各オブジェクトを各単語が特徴的に記述するかを考慮した、より本手法に適した類似度の評価が行える。
なお、ここに挙げた以外にも文章の類似度解析には非常に多くの手法が提案されており、同様に本手法に適用することができる。
(特許文献6)特開2011−159098
(特許文献7)特開2009−053743
なお、コメントサーバより取得する第1のコメントは、投稿時刻のより新しいものを優先的に取得したり利用したりするとしてもよい。より望ましくは、軌跡を延長する対象であるコメントが投稿された時刻により近いものを優先的に取得したり利用したりするとしてもよい。あるオブジェクトに対する会話トピックについて、時間がたっても変わらないものもあるが、時事的な事象が影響することもある。したがって、ユーザがコメント投稿を意図して本装置を利用した日時時刻により近い第1のコメントをコメントサーバから取得して使う、ないし、より近いコメントの重みを類似度算出時に用いることで、より精度の高いコメント選択が行える。なおユーザのコメント投稿時にのみ本装置が利用されることが既知の場合には、より新しいコメントの投稿時刻が、前記ユーザのコメント投稿時刻により近いため、より新しいコメントを優先的に用いる、とするだけでもよい。
最後に、延長移動軌跡取得ステップS706は、延長移動軌跡取得部606により実行される。延長移動軌跡取得部606には、選択された後方移動軌跡を初期移動軌跡の後方に接続することで延長移動軌跡を生成し、処理選択部103へ出力する。もしフレームTeとフレームTl1が時間的に離れている場合は、Te〜Tl1の間の移動軌跡はたとえば、通常の座標値が正数である場合は、(-1,-1)のような、座標として利用できない数値を与えておく等すればよい。こうすることで、ユーザの入力したコメントを一時的に表示しないこともできる。
あるいは、Te〜Tl1の間の移動軌跡に関しても、第2のコメントの選択と同様の処理を行い、コメントを付与可能な移動軌跡を求めてもよい。
なお、コメントの類似度があらかじめ定めた閾値よりも低い場合は、同一のオブジェクトがその後登場していない可能性が高い。つまり、接続すべき後方移動軌跡がそもそもなかった場合に相当する。そのような場合は後方移動軌跡を接続しないほうが望ましく、たとえば、先に求めた前方移動軌跡と接続したものを延長移動軌跡として、処理選択部103に返すとしてもよい。このようにしても、所定時間を満たす、又はより所定時間に近い長さの延長移動軌跡を得ることができる。
あるいは、「接続不可」フラグをたてて、処理選択部103に返してもよい。処理選択部103は、「接続不可」フラグが立っていない間は、初期移動軌跡の長さが所定時間より不足している限り、何度でも移動軌跡延長部104に処理を進めるが、「接続不可」フラグが立っている場合は、例外的に、そのまま出力部105に初期移動軌跡を渡すものとする。このような処理であれば移動軌跡の開始点のフレームを変更しないので、前記開始点のフレームに関する、ユーザの意図を反映させることができる。
なお、前記初期移動軌跡の終了点のフレームより後のフレームであって、終了点のフレームとの差があらかじめ定めた一定のフレーム数内である近傍フレームの座標から後方移動軌跡を複数求めるとしてもよい。さらに、同一オブジェクトが、シーンチェンジが起きても消えないことがわかっている場合は、一定のフレーム数は1としてもよい。このようにすることで、コメントが類似した移動軌跡の選択にかかる処理量を低減させることができる。
また、前記後方移動軌跡の算出を開始する座標に関しては、必ずしも近傍フレームの座標から任意のサンプリングを行わなくともよい。たとえば、装置のパワーに余裕がある場合は、後方全フレームの、全座標について求めてもよい。このようにすることで、より多くの候補を得ることができ、もしシーンチェンジ後に同一オブジェクトが一時的に消滅するような場合などに、より正しく初期移動軌跡が延長される可能性がある。
また、中心付近のオブジェクトに関して、シーンチェンジ後も中心付近に映っている、ということが映像テクニックとしてよくあるため、シーンによっては、任意のサンプリングではなく、初期移動軌跡の終了点での座標から一定距離以内の近傍に存在する座標のみについて後方移動軌跡を求めるとしてもよい。このようにすることで、後方移動軌跡の算出にかかる処理量を抑えることができる。
本実施形態では、まず、後方移動軌跡を算出し、その後に第2のコメントを収集したが、先に第2のコメントを収集し、第1のコメントと類似するコメントが存在する領域を中心とする領域で後方移動軌跡を算出してもよい。このようにすることで、後方移動軌跡の算出にかかる処理量を抑えることができる。
なお、移動軌跡延長部は、領域分割部を備え、移動軌跡算出に先立って、もしくは移動軌跡算出のあとに(第1のコメント、第2のコメント取得前であればどちらでもよい)、領域分割部がピクチャの領域分割を行うとしてもよい。すなわち、領域分割部により分割された領域のうち、初期移動軌跡を含む小領域を、コメントを取得する移動軌跡の近傍領域の代わりに用いることができる。この場合の構成例を図15に示す。
例えば、図15において、領域分割部1101は、各移動軌跡が属する画素またはブロックの色類似度に基づいて、ピクチャを複数の領域に分割する。また、画素の色類似度をもとに、いわゆる”superpixel”と呼ばれる複数の領域にピクチャを分割する方法を用いてもよい。superpixelを算出する方法については、グラフベースの手法などを用いることができる。処理手順の詳細説明は非特許文献4等に記載されているため省略する。この手法は、ピクチャのグラフ表現に基づいて各領域間の境界を推定することで、効率的かつグローバルな特徴を保持しながらピクチャを小領域に分割するものであり、遮蔽に強いため、よりロバストな分割ができる。
(非特許文献4)Pedro F. Felzenszwalb and Daniel P. Huttenlocher “Efficient Graph−Based Image Segmentation”, International Journal of Computer Vision ,Vol.59,No.2,pp.167−181,Sept,2004
特に移動体の色と背景の色が異なるようなシーンにおいては、各領域が移動体のみ、または背景のみで構成される可能性が高くなる(色が異なると、別のサブクラスに分離される確率が高まる)ため、ピクチャを、類似した動きをする領域に、より正しく分割することができる。
また、動きに基づく領域分割方法を適用してもよい。具体的には、特許文献8のような手法を用いてもよい。上記のようにすることで、移動体と背景の色が類似する場合であっても、類似した動きをする被写体領域ごとに、より正しくピクチャを分割できる。
(特許文献8)特許第4994525号公報
なお、領域分割部1101は、前方移動軌跡生成部601および後方移動軌跡生成部603の次段に設けるようにしてもよい。
最後に、出力ステップS305が出力部105により実行される。出力部105は、初期移動軌跡取得部102または移動軌跡延長部104が生成した初期移動軌跡または延長移動軌跡を記憶装置120へ有線または無線の通信経路を通じて出力する。より具体的には、コメントを追従して表示させることを意図してユーザが指定したオブジェクトの動きである初期移動軌跡または延長移動軌跡を、コメント蓄積配信サーバに備えられたコメントデータベースに記憶させる。
コメント情報生成装置100は、連続して入力される入力情報111に対して処理を行う場合には、上述したステップS301〜S307の動作を入力情報111が入力されるたびに繰り返し行うとしてもよい。
なお、初期移動軌跡取得部102、前方移動軌跡取得部601、後方移動軌跡取得部603、延長移動軌跡生成部606は、本実施形態によれば自装置内で演算し、算出し、生成する場合について説明したが、他装置にこれらの演算を任せて結果を取得してもよい。また、上記構成に対応するステップを実行する方法やプログラムの場合、本実施形態によれば自プログラムで演算し、算出し、生成する場合について説明したが、動画処理を行なう他装置やグラフィックエンジンなどのパーツに備わったライブラリ、さらにはOSなど、他プログラムから結果を取得する場合も含む。
次に、より望ましい実施形態として、シーンチェンジや遮蔽を検出して、検出結果に応じて最適な処理を行なうコメント情報生成装置について説明する。
特に、TV番組映像またはムービーで録画した映像などの一般的な動画像110では、シーンチェンジ、他のオブジェクトによる遮蔽、自己遮蔽、またはオブジェクトもしくはカメラの移動により、指定画素または指定領域の撮影範囲外への移動、などが起こりやすい。効率よく軌跡延長処理を行うためには、軌跡延長処理が選択された要因に応じて処理を切り替えられるとなおよい。すなわち、移動軌跡延長部104は、「遮蔽」および「シーンチェンジ」のどちらが生じたかを判定し、判定結果に応じて後方移動軌跡の算出方法やコメントの表示態様を変化させるようにしてもよい。コメントの表示態様については、後述の第2の実施形態で説明する。シーンチェンジの例を図16(a)、遮蔽の例を図16(b)に示す。
遮蔽が生じたかシーンチェンジが生じたかは、例えば、画像全体の輝度ヒストグラムの時間変化などから判定することができる。すなわち、輝度ヒストグラムが、フレーム間で大きく変化している場合(例えば、輝度ヒストグラムの変化量が所定の閾値以上の場合)には、シーンチェンジが生じたと判定することができるし、それ以外の場合は遮蔽が生じたと判定することができる。あるいは、メタデータとしてシーンチェンジの時間情報が動画像110に付随している場合、それを利用してシーンチェンジが生じたか否かを判定することも可能である。
たとえば、シーンチェンジの場合はシーン全体の見えが変わるため、画面全体から後方移動軌跡を求め、類似コメントを探すことができれば望ましい。これに対し、遮蔽の場合はシーン全体の見えは変わらず、追従対象のオブジェクトのみが見えなくなる。このような場合は、追随対象のオブジェクト以外のオブジェクトや背景を事前に後方移動軌跡の算出対象から外すために、後方移動軌跡の開始点として、フレームTsやフレームTeから移動軌跡が連続していないような座標を選ぶことで、より効率的にコメントが類似した軌跡を選ぶことができる。
あるいは、遮蔽の場合、動画像中における遮蔽前のオブジェクトの位置と遮蔽後のオブジェクトの位置は、大きく変化しない場合も多い。そこで、遮蔽が検出された場合は、移動軌跡の終了点のフレームのオブジェクトの近傍から後方移動軌跡の算出を開始してもよい。例えば、所定の半径を設定したり、あるいはオブジェクトの大きさに比例した広さを有する領域を設定して、後方移動軌跡の算出を開始してもよい。
つまり、遮蔽やその他シーンチェンジが起こった場合の方が、シーンチェンジが起こった場合に比べて、後方移動軌跡を算出する領域を狭く設定することにより、より効率的に後方移動軌跡を算出することができる。
なお、軌跡延長処理の選択要因は、遮蔽、シーンチェンジ以外に、光源環境の変化による輝度変化や動きぶれによって移動軌跡算出が中断する場合もある。この場合は実際には追従すべきオブジェクトは実際には見えており、シーン全体の見え方もある程度変化しないといえるため、遮蔽のケースと同様の処理を選択すればよい。すなわちシーンチェンジのみを検出し、別の処理を行うとすれば問題ない。
このような構成により、コメント情報生成装置100は、コメントの表示が途切れることなく表示することができる。そして、ユーザはコメント付き動画像表示時にコメントを表示時間内に読むことができ、そのコメントがどのオブジェクトに対して付与されたものであるかを容易に視認できる。よって、コメントの視認性を向上させることのできるコメント情報を生成することができる。
さらに、特に、商用動画コンテンツのように数秒程度でシーンが次々に変わる動画像に対してコメントつき動画を生成した場合、移動軌跡が、シーンが変わるたびに中断されてコメントがすぐに途切れ、コメントが少なくなってしまう。本発明によれば、前のシーンのコメントを後のシーンの同一オブジェクトに引き続き表示しつづけることができるため、コメントの視認性が上がるだけでなく、全体としてコメントが少なくなることを防止でき、コミュニケーションの活性化を促すという効果も期待できる。
(第2の実施形態)
第1の実施形態はコメント情報生成装置にかかる発明であり、ユーザの端末で実現してもよいし、動画サーバやコメント蓄積サーバ内、あるいはその他のサーバで実現してもよいものであった。これに対して本実施形態は、ユーザの端末等、動画像に付されたコメントを閲覧することのできるコメント表示装置にかかる発明である。つまり、PCやタブレット、携帯電話、カーナビゲーションシステムなど、視聴者が所持する端末を主として対象とするものである。ただし、放送局での画像チェックやサーバ管理などに用いる端末でも使用することができることは言うまでもない。
本実施形態はコメント表示装置であるが、その構成は図3で示される第1の実施形態であるコメント情報生成装置の構成とほぼ同一である。図17に本実施形態のコメント表示装置の構成を示す。第1の実施形態と異なる点は、情報入力部1201に入力される入力情報111の中、および出力部1204が出力するコメント情報の中にユーザが入力したコメントが含まれること、そして、出力部1204の出力先が、CRTや液晶ディスプレイなどの表示装置1205であることである。そして、出力部1204は、動画像、延長移動軌跡あるいは初期移動軌跡、およびコメント情報に基づき、コメントが視認しやすいようにコメントの表示様態を決定する機能を有すること、である。以下、これらについて、図17を用いてより詳細に説明する。
情報入力部1201は、前記動画像中のオブジェクトに追従して表示させることを意図してユーザが入力したコメント、フレームおよび座標に関する情報入力を受け付ける。
受け付ける情報には、最終的に表示に利用する情報が含まれていればよく、たとえば投稿時刻やユーザ名の情報が含まれてもよい。情報入力部1201への情報入力方法は、例えばユーザがマウスのクリックやタッチパネルのタッチ等を通して入力した動画像上の時刻、座標などに関する情報、および、ユーザがキーボードの打鍵やソフトウェアキーボードへのタッチ等を通して入力したコメント文やユーザ名を直接、または通信経路を介して読み出すことで得るとしてよい。その際、投稿時刻は、ユーザが利用しているシステムないし、コメント表示装置1200本体から、有線または無線で取得するとしてもよい。
より詳細には、ユーザが閲覧している端末上での動画像110の再生に際し、ユーザのマウス入力、キー入力またはタッチ入力を端末側で検出した際、自動的に動画像110の再生が一時停止された状態で行われる。または、コメントの投稿は、ユーザの画面上での操作によって動画像110の再生が一時停止された状態で実行されるとしてもよい。
例えば、図18(a)に示す表示画面において対象となる動画像110の再生が一時停止されている状態で、画面上のある座標をユーザが指定すると、この指定に応答して、コメント表示装置1200にポップアップ画面が重畳表示され、ユーザが、ポップアップ画面内にコメントを入力することにより、コメントの投稿を行うとしてもよい。
出力部1204は、処理選択部103から延長移動軌跡等を受け取ってコメントの形状や表示位置を決定し、入力情報111に含まれる情報と、動画像110を合わせ、有線または無線の通信経路を通じて表示装置1205へ出力する。出力する情報は、最低限の情報として、入力情報111のうち移動軌跡の開始点のフレーム、および文章情報と、初期移動軌取得部102ないし移動軌跡延長部104が生成した初期移動軌跡ないし延長移動軌跡とを含む。さらに望ましくは、入力情報111に以下の情報が入っていれば、コメント文やフキダシの色・形状、フォント等の情報を含んでもよい。これにより、よりユーザの意向を反映した表示が可能なコメント情報を生成できる。
さらに、コメントの形状や、表示タイミング、ピクチャの表示方法に関して、シーンチェンジや遮蔽の状況に応じて出力部1204で決定の上、表示装置1205に受け渡すとしてもよい。具体的な例について、図19以下を参照しながら説明する。
図19に、初期移動軌跡が中断されるシーンの例を示す。特に、コメント追従対象のオブジェクトが、延長処理後に存在する場合としない場合で、コメント表示方法を変更すべき理由、およびどのように変更することがユーザのコメントに対する視認性を確保するために望ましいかを説明する。図19(a)は、シーンチェンジの例を示しており、コメント対象人物1401が、シーンチェンジ後も存在する場合を示す。延長された移動軌跡は、シーンチェンジ前後で、たとえば第1の実施形態で示した例でいえば、(−1、−1)ではない正の座標値を示すことから容易に判定できる。また、図19(b)は、シーンチェンジ後に、コメント対象人物1401が現れない場合を示す。延長された移動軌跡は、シーンチェンジ後に、たとえば第1の実施形態で示した例でいえば、(−1、−1)を示すことから容易に判定できる。
図20に、図19(a)のケースにおけるコメント表示方法の例を示す。
シーンチェンジ後も同一オブジェクトが画面内に存在する場合、望ましくは当該オブジェクトの存在位置が変わるのに合わせて、コメントをフキダシごと追従させるとよい(図20(a))。コメントがそのオブジェクトに意図してつけられたものであるからである。しかし、実際に表示した場合、あまりにオブジェクトの位置変化がシーンチェンジ前後で大きい場合、フキダシ全体を追従させると、視聴しているユーザの目がついていかずに、逆に視認性を落としてしまう場合がある。したがって、どのオブジェクトを指しているかがわかる状態にすると同時に、コメント文字の位置移動はできるだけ小さいほうがより望ましい。すなわち、たとえば図20(b)のように、コメント文章は位置を動かさずに、フキダシの先端のみをオブジェクト移動に追従させるという表示方法をとるとよい。また、
図20(c)のように、先にフキダシの先端のみをオブジェクトに追従させ、コメント文章の部分はゆっくりと、ユーザが容易に視認可能な速度で移動する、としても同様の効果が得られる。また、図21に示すように、フキダシの位置変化を最小限にするために、シーンチェンジ直前にフキダシを含む画面全体を徐々に縮小した表示を行い、シーンチェンジ後のフキダシが同一の位置にくるよう、シーンチェンジ後の縮小表示画像を表示したのち、もとのサイズに徐々に拡大する、という手法をとってもよい。同一オブジェクトを指しながら、シーンチェンジ前後で移動しないフキダシを実現でき、ユーザは容易にコメントを視認することができる。
一方、図22のように、シーンチェンジ後に同一オブジェクトが画面内に存在しない場合、延長移動軌跡はシーンチェンジ直後からオブジェクトが再度現れるまで(−1、−1)を示す。望ましくは、シーンチェンジ直後の座標から、オブジェクトが再出現する場合はその座標まで、ゆるやかにフキダシが移動し、再出現しない場合は、たとえば同じ場所にフキダシがとどまる、等とすることで、コメント文字の視認性は時間的に保つことができる。しかし、ここで残ったコメントが、別の特定のオブジェクトを指すようなことは望ましくない。コメントが別の特定のオブジェクトに意図してつけられたものではないため、誤解を招く可能性があるからである。したがって、コメントの視認性は保ちつつ、先に述べた誤解が起きにくい表示を採用する必要がある。
もっとも単純には、図22(a)のように、フキダシの先端部分をシーンチェンジ後消滅させるとよい。フキダシの先端は、「オブジェクトを指す」印象を大きく与える。そこで、先端のみ見えないようにすることで、コメント対象オブジェクトが不在のときに、そのコメントが別のオブジェクトを指すという印象を低減することができる。
あるいは、シーンチェンジ後、フキダシの方を残像のように徐々に薄くなるよう消去したり、あるいは画面外にフェードアウトするようにしてもよい。
さらには、図22(b)のように、前方移動軌跡を取得した上で表示開始点をさかのぼってコメントを表示するものとしてもよい。別のオブジェクトにコメントが付与されることなく、ユーザが余裕をもってコメント文字を読めるだけの追従表示時間を実現できる。
なお、初期移動軌跡の終了点の後にシーンチェンジが起こったかそれ以外が起こったかを判定し、判定結果に応じてコメントの表示態様を変更してもよい。シーンチェンジの検出方法は上述した通りである。
シーンチェンジが起こったときは、オブジェクトの移動が一般的に大きいので、フキダシの移動は大きくなる。そこで、シーンチェンジの場合は、フキダシを徐々に消去する。
一方シーンチェンジ以外が起こったときは、オブジェクトの移動が一般的に少ないので、フキダシの移動も小さくなる。そこで、シーンチェンジ以外の場合は、オブジェクトに追随させてフキダシを表示する。
もちろん、これ以外の表示態様の変更であってもよい。
以上、本明細書に記載の発明および実施形態の全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはこれを記録したコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
本発明は、例えば、ネットワーク接続を通じて動画像の取得または閲覧が可能なタブレットPC、スマートフォン、携帯電話、PC、カーナビゲーションシステム、ビデオカメラまたはTV等のAV機器に内蔵させるコメント情報生成装置およびコメント表示装置等として利用することができる。
100 コメント情報生成装置
101a 動画入力部
101b 情報入力部
102 初期移動軌跡取得部
103 処理選択部
104 移動軌跡延長部
105 出力部
110 動画像
111 入力情報
120 記憶装置
1200 コメント表示装置

Claims (20)

  1. 動画像が入力される動画入力部と、
    前記動画像中のオブジェクトに追従してコメントを表示させるためにユーザが入力した位置情報が入力される情報入力部と、
    前記位置情報に対応する前記オブジェクトの移動軌跡である初期移動軌跡を取得する初期移動軌跡取得部と、
    前記初期移動軌跡の終了点より後に開始点を有する移動軌跡である後方移動軌跡を取得し、前記初期移動軌跡の近傍に付与された第1のコメントおよび前記後方移動軌跡の近傍に付与された第2のコメントを収集し、前記第1のコメントおよび前記第2のコメントに基づいて前記後方移動軌跡を前記初期移動軌跡に接続して延長移動軌跡を取得する移動軌跡延長部と、
    前記延長移動軌跡をコメント情報として出力する出力部と、
    を備えるコメント情報生成装置。
  2. 前記移動軌跡延長部は、前記後方移動軌跡を複数算出し、前記第1のコメントおよび前記第2のコメントに基づいて前記複数の後方移動軌跡のうち少なくとも一つを選択し前記初期移動軌跡に接続して延長移動軌跡を取得する、
    請求項1記載のコメント情報生成装置。
  3. 前記移動軌跡延長部は、前記第1のコメントと最も類似度の高い前記第2のコメントが付与されている前記後方移動軌跡を選択する、
    請求項2記載のコメント情報生成装置。
  4. 前記移動軌跡延長部は、前記初期移動軌跡の開始点より前の移動軌跡である前方移動軌跡を取得し、前記初期移動軌跡および前記前方移動軌跡の近傍に付与された第1のコメントを収集する、
    請求項1ないし3いずれかに記載のコメント情報生成装置。
  5. 前記移動軌跡延長部は、前記第1のコメントまたは前記第2のコメントの収集の際、投稿時間が時間的に新しいものを優先して収集する、
    請求項1ないし3いずれかに記載のコメント情報生成装置。
  6. 前記移動軌跡延長部は、前記第1のコメントまたは前記第2のコメントについて前記情報入力部がユーザ入力を受け付けた時刻により近い投稿日時のコメントから形態素分類によって得られた単語の重みを、類似度計算に用いる特徴ベクトル上でより重くする、
    請求項1ないし3いずれかに記載のコメント情報生成装置。
  7. 前記初期移動軌跡の時間長が所定時間に満たない場合に前記移動軌跡延長部での処理を行なうことを選択し、それ以外の場合は前記初期移動軌跡をそのまま前記コメント情報として前記出力部から出力することを選択する処理選択部をさらに有する、
    請求項1ないし6いずれかに記載のコメント情報生成装置。
  8. 前記移動軌跡延長部は、前記初期移動軌跡の終了点の後にシーンチェンジが起こったかそれ以外が起こったかを判定し、判定結果に応じて前記後方移動軌跡を取得する前記動画像中の領域を決定する、
    請求項1ないし7いずれかに記載のコメント情報生成装置。
  9. シーンチェンジ以外が起こったと判定した場合の方が、シーンチェンジが起こったと判定した場合よりも前記領域は狭い、
    請求項8記載のコメント情報生成装置。
  10. 前記動画像の輝度ヒストグラムの変化量が所定の閾値以上の場合シーンチェンジが起こったと判定する、
    請求項8記載のコメント情報生成装置。
  11. シーンチェンジ以外が起こったと判定した場合に、前記初期移動軌跡の終了点より前のフレームから存在する移動軌跡と連続するもの以外を前記後方移動軌跡とする、
    請求項8または9記載のコメント情報生成装置。
  12. シーンチェンジが起こったと判定した場合に、前記動画像中の全ての領域で前記後方移動軌跡を取得する、
    請求項8または9記載のコメント情報生成装置。
  13. 前記情報入力部にはさらに前記コメントが入力され、
    前記出力部は、表示装置にコメント情報および前記コメントを出力する、
    請求項1ないし12いずれかに記載のコメント情報生成装置。
  14. 前記情報入力部にはさらに前記コメントが入力され、
    前記出力部は、表示装置にコメント情報および前記コメントを出力し、
    前記表示装置は、前記延長移動軌跡に基づき前記動画像中における前記位置情報の入力時点から前記所定時間の間、または前記初期移動軌跡の終了点までの前記所定時間の間、前記コメントを表示する、
    請求項7記載のコメント情報生成装置。
  15. 前記出力部は、前記初期移動軌跡の終了点の後にシーンチェンジが起こったかそれ以外が起こったかを判定し、判定結果に応じて前記コメントの表示態様を変更する、
    請求項13記載のコメント情報生成装置。
  16. 前記出力部は、前記初期移動軌跡の終了点の後に、追従対象の前記オブジェクトが存在する場合としない場合とで前記コメントの表示様態を異ならしめて前記表示装置に出力する、
    請求項13記載のコメント情報生成装置。
  17. 前記出力部は、前記初期移動軌跡の終了点と前記後方移動軌跡の開始点との間に時間的間隔がある場合は、前記時間的間隔の間、前記コメントの表示を行わない、
    請求項16記載のコメント情報生成装置。
  18. 請求項1ないし12いずれかに記載のコメント情報生成装置から前記コメント情報を受信して、前記動画像および前記コメントを表示するコメント表示装置。
  19. 動画像が入力される動画入力ステップと、
    前記動画像中のオブジェクトに追従してコメントを表示させるためにユーザが入力した位置情報が入力される情報入力ステップと、
    前記位置情報に対応する前記オブジェクトの移動軌跡である初期移動軌跡を取得する初期移動軌跡取得ステップと、
    前記初期移動軌跡の終了点より後に開始点を有する移動軌跡である後方移動軌跡を取得し、前記初期移動軌跡の近傍に付与された第1のコメントおよび前記後方移動軌跡の近傍に付与された第2のコメントを収集し、前記第1のコメントおよび前記第2のコメントに基づいて前記後方移動軌跡を前記初期移動軌跡に接続して延長移動軌跡を取得する移動軌跡延長ステップと、
    前記延長移動軌跡をコメント情報として出力する出力ステップと、
    を備えるコメント情報生成方法。
  20. 請求項19に記載のコメント情報生成方法をコンピュータに実行させるためのプログラム。
JP2013104547A 2013-05-16 2013-05-16 コメント情報生成装置およびコメント表示装置 Expired - Fee Related JP6179889B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013104547A JP6179889B2 (ja) 2013-05-16 2013-05-16 コメント情報生成装置およびコメント表示装置
US14/279,303 US9398349B2 (en) 2013-05-16 2014-05-15 Comment information generation device, and comment display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013104547A JP6179889B2 (ja) 2013-05-16 2013-05-16 コメント情報生成装置およびコメント表示装置

Publications (2)

Publication Number Publication Date
JP2014225808A JP2014225808A (ja) 2014-12-04
JP6179889B2 true JP6179889B2 (ja) 2017-08-16

Family

ID=51896914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013104547A Expired - Fee Related JP6179889B2 (ja) 2013-05-16 2013-05-16 コメント情報生成装置およびコメント表示装置

Country Status (2)

Country Link
US (1) US9398349B2 (ja)
JP (1) JP6179889B2 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6122768B2 (ja) * 2013-11-19 2017-04-26 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、表示方法およびコンピュータプログラム
JP6482295B2 (ja) * 2015-01-27 2019-03-13 国立大学法人電気通信大学 動画配信システム及び動画再生装置
JP6702657B2 (ja) * 2015-05-29 2020-06-03 キヤノン株式会社 映像処理装置、映像処理方法、及びプログラム
US10623636B2 (en) 2015-08-17 2020-04-14 C360 Technologies, Inc. Generating objects in real time panoramic video
KR102096733B1 (ko) * 2016-03-04 2020-04-02 천종윤 동영상 재생산 서비스 방법 및 서버
CN105681851A (zh) * 2016-03-18 2016-06-15 深圳市轱辘软件开发有限公司 一种信息处理的方法和装置
EP3429706B1 (en) * 2016-03-18 2020-02-26 C360 Technologies, Inc. Shared experiences in panoramic video
WO2017203432A1 (en) * 2016-05-23 2017-11-30 Robert Brouwer Video tagging and annotation
CN106101747B (zh) * 2016-06-03 2019-07-16 腾讯科技(深圳)有限公司 一种弹幕内容处理方法及应用服务器、用户终端
WO2018073765A1 (en) * 2016-10-18 2018-04-26 Robert Brouwer Messaging and commenting for videos
CN106603537A (zh) * 2016-12-19 2017-04-26 广东威创视讯科技股份有限公司 一种移动智能终端标注视频信号源的系统及方法
CN106993234A (zh) * 2017-03-22 2017-07-28 北京潘达互娱科技有限公司 弹幕显示方法和装置
JP6198983B1 (ja) * 2017-04-26 2017-09-20 株式会社 ディー・エヌ・エー 動画を配信するためのシステム、方法、及びプログラム
CN107181976B (zh) * 2017-04-28 2021-01-29 华为技术有限公司 一种弹幕显示方法及电子设备
CN110062269A (zh) * 2018-01-18 2019-07-26 腾讯科技(深圳)有限公司 附加对象显示方法、装置及计算机设备
JP7121270B2 (ja) * 2018-07-25 2022-08-18 株式会社ミクシィ 情報処理装置、動画配信方法及び動画配信プログラム
CN110933511B (zh) * 2019-11-29 2021-12-14 维沃移动通信有限公司 一种视频分享方法、电子设备及介质
CN114584824A (zh) * 2020-12-01 2022-06-03 阿里巴巴集团控股有限公司 数据处理方法、系统、电子设备、服务端及客户端设备
US20220253807A1 (en) * 2021-02-11 2022-08-11 Nvidia Corporation Context aware annotations for collaborative applications
KR102503854B1 (ko) * 2022-08-05 2023-02-27 주식회사 리플에이아이 영상 처리 방법 및 장치

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5523791A (en) * 1993-10-12 1996-06-04 Berman; John L. Method and apparatus for applying overlay images
US6357042B2 (en) * 1998-09-16 2002-03-12 Anand Srinivasan Method and apparatus for multiplexing separately-authored metadata for insertion into a video data stream
JP3773670B2 (ja) * 1998-09-30 2006-05-10 株式会社東芝 情報呈示方法および情報呈示装置および記録媒体
WO2002073462A1 (fr) * 2001-03-08 2002-09-19 Fujitsu Limited Systeme de travail cooperatif multimedia, client/serveur, procede, support enregistre et programme
JP3982295B2 (ja) * 2002-03-20 2007-09-26 日本電信電話株式会社 映像コメント入力・表示方法およびシステムと、クライアント装置と、映像コメント入力・表示プログラム及びその記録媒体
US20030182663A1 (en) * 2002-03-25 2003-09-25 Sony Corporation System and method for sharing user comments on TV screens
JP2004128614A (ja) 2002-09-30 2004-04-22 Toshiba Corp 画像表示制御装置及び画像表示制御プログラム
US20040068758A1 (en) * 2002-10-02 2004-04-08 Mike Daily Dynamic video annotation
US20050078221A1 (en) * 2003-09-26 2005-04-14 Koji Kobayashi Apparatus for generating video contents with balloon captions, apparatus for transmitting the same, apparatus for playing back the same, system for providing the same, and data structure and recording medium used therein
JP4304108B2 (ja) * 2004-03-31 2009-07-29 株式会社東芝 メタデータ配信装置、動画再生装置および動画再生システム
JP2005318473A (ja) * 2004-04-30 2005-11-10 Toshiba Corp 動画像のメタデータ
JP4380513B2 (ja) * 2004-11-30 2009-12-09 日本電信電話株式会社 視聴者コミュニケーションシステムにおける後方映像区間参照コメント表示制御方法及び装置及びプログラム
US8412021B2 (en) * 2007-05-18 2013-04-02 Fall Front Wireless Ny, Llc Video player user interface
JP4695583B2 (ja) 2006-12-11 2011-06-08 株式会社ドワンゴ 表示装置、コメント表示方法、及びプログラム
JP5219183B2 (ja) * 2007-03-01 2013-06-26 任天堂株式会社 映像コンテンツ表示プログラム、情報処理装置、映像コンテンツ表示方法および映像コンテンツ表示システム
US20080235587A1 (en) * 2007-03-23 2008-09-25 Nextwave Broadband Inc. System and method for content distribution
JP2009053743A (ja) 2007-08-23 2009-03-12 Kyushu Institute Of Technology 文書類似性導出装置、文書類似性導出方法、及び、文書類似性導出プログラム
JP2009081592A (ja) 2007-09-26 2009-04-16 Hitachi Ltd 映像記録装置
WO2009046324A2 (en) * 2007-10-05 2009-04-09 Flickbitz Corporation Online search, storage, manipulation, and delivery of video content
KR101648711B1 (ko) * 2008-01-14 2016-08-24 삼성전자주식회사 스크립트를 기반으로 하는 동영상 부가정보 처리 장치 및방법
US8566353B2 (en) * 2008-06-03 2013-10-22 Google Inc. Web-based system for collaborative generation of interactive videos
JP2010081457A (ja) * 2008-09-29 2010-04-08 Hitachi Ltd 情報記録再生装置およびビデオカメラ
JP5690473B2 (ja) * 2009-01-28 2015-03-25 任天堂株式会社 プログラムおよび情報処理装置
JP5051305B2 (ja) * 2009-01-30 2012-10-17 富士通株式会社 画像表示装置、画像表示方法及びコンピュータプログラム
US20100238323A1 (en) * 2009-03-23 2010-09-23 Sony Ericsson Mobile Communications Ab Voice-controlled image editing
JP5343676B2 (ja) 2009-04-08 2013-11-13 ソニー株式会社 画像処理装置、画像処理方法およびコンピュータプログラム
JP5714812B2 (ja) * 2009-11-20 2015-05-07 ソニー株式会社 情報処理装置、ブックマーク設定方法およびプログラム
JP5457864B2 (ja) 2010-02-01 2014-04-02 日本電信電話株式会社 類似度計算装置、類似度計算方法および類似度計算プログラム
KR101688153B1 (ko) * 2010-08-11 2016-12-20 엘지전자 주식회사 3차원 영상의 편집 방법 및 이를 이용하는 이동 단말기
EP2437512B1 (en) * 2010-09-29 2013-08-21 TeliaSonera AB Social television service
JP4994525B1 (ja) 2011-01-26 2012-08-08 パナソニック株式会社 関節領域表示装置、関節領域検出装置、関節領域帰属度算出装置、関節状領域帰属度算出装置および関節領域表示方法

Also Published As

Publication number Publication date
JP2014225808A (ja) 2014-12-04
US20140344853A1 (en) 2014-11-20
US9398349B2 (en) 2016-07-19

Similar Documents

Publication Publication Date Title
JP6179889B2 (ja) コメント情報生成装置およびコメント表示装置
JP5659307B2 (ja) コメント情報生成装置およびコメント情報生成方法
JP5571269B2 (ja) コメント付き動画像生成装置およびコメント付き動画像生成方法
WO2020220968A1 (zh) 一种视频数据处理方法和相关装置
JP5857450B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN107633241B (zh) 一种全景视频自动标注和追踪物体的方法和装置
CN110035329B (zh) 图像处理方法、装置及存储介质
CN106575361B (zh) 提供视觉声像的方法和实现该方法的电子设备
US8565520B2 (en) Determining foreground regions and background regions in an image
US10248216B2 (en) Method for operating terminal device with gesture and device
US20160198097A1 (en) System and method for inserting objects into an image or sequence of images
JP2012248070A (ja) 情報処理装置、メタデータ設定方法、及びプログラム
CN109960452B (zh) 图像处理方法及其装置、存储介质
US11758082B2 (en) System for automatic video reframing
BRPI1011189B1 (pt) Sistema baseado em computador para selecionar pontos de visualização ótimos e meio de armazenamento de sinal legível por máquina não transitória
CN112752158B (zh) 一种视频展示的方法、装置、电子设备及存储介质
WO2020236949A1 (en) Forensic video exploitation and analysis tools
JP3312105B2 (ja) 動画像インデックス生成方法および生成装置
CN103219028B (zh) 信息处理装置和信息处理方法
JP5612457B2 (ja) 動画像表示装置と動画像オブジェクト探索システムと動画像表示方法とプログラム
Lee Novel video stabilization for real-time optical character recognition applications
WO2023029924A1 (zh) 评论信息的显示方法、装置、设备、存储介质及程序产品
KR20190030565A (ko) 전자 장치 및 그 동작방법
CN110662104B (zh) 视频拖动条生成方法、装置、电子设备及存储介质
US10586367B2 (en) Interactive cinemagrams

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141006

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20141014

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170710

R151 Written notification of patent or utility model registration

Ref document number: 6179889

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z03

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees