JP2012074773A - 編集装置、制御方法及びプログラム - Google Patents

編集装置、制御方法及びプログラム Download PDF

Info

Publication number
JP2012074773A
JP2012074773A JP2010215990A JP2010215990A JP2012074773A JP 2012074773 A JP2012074773 A JP 2012074773A JP 2010215990 A JP2010215990 A JP 2010215990A JP 2010215990 A JP2010215990 A JP 2010215990A JP 2012074773 A JP2012074773 A JP 2012074773A
Authority
JP
Japan
Prior art keywords
emotion
scene
information
viewer
keyword
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010215990A
Other languages
English (en)
Other versions
JP5635859B2 (ja
Inventor
Koji Iiyama
晃司 飯山
Akira Maruyama
亮 丸山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Personal Computers Ltd
Original Assignee
NEC Personal Computers Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Personal Computers Ltd filed Critical NEC Personal Computers Ltd
Priority to JP2010215990A priority Critical patent/JP5635859B2/ja
Publication of JP2012074773A publication Critical patent/JP2012074773A/ja
Application granted granted Critical
Publication of JP5635859B2 publication Critical patent/JP5635859B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

【課題】視聴者の嗜好に即したシーンを特定することが可能な編集装置を提供する。
【解決手段】 本実施形態の編集装置(100)は、コンテンツを視聴している時の視聴者の生体情報を取得する生体情報取得部(1)と、生体情報に所定の反応のあったシーンをコンテンツの中から特定するシーン特定部(4)と、を有することを特徴とする。
【選択図】図1

Description

本発明は、コンテンツを編集する編集装置、制御方法及びプログラムに関する。
近年、コンテンツを要約したダイジェスト情報を作成する技法が開発されている。例えば、特許文献1(特開2007-174260号広報)には、映像データを解析し、映像データ中の重要度の高いシーンのみをダイジェスト情報として生成し、重要度の高いシーンのみを短時間で視聴するなどの、視聴者の視聴形態に合わせたダイジェスト情報の生成を可能にしている技術について開示されている。
しかし、上記特許文献1の技術は、映像データ中の重要度の高いシーンのみをダイジェスト情報として生成しているため、ユーザが実際に求めているシーンとは異なるシーンが含まれたダイジェスト情報を生成してしまう場合がある。
例えば、映像コンテンツがチームA対チームBのサッカー番組とする。また、視聴者がチームAのファンであるとする。上記特許文献1の技術は、映像データ中の重要度の高いシーンのみをダイジェスト情報として生成するため、視聴者の嗜好に関係なく、映像データ中の重要度の高いシーンのみをダイジェスト情報として生成することになる。このため、上記特許文献1の技術では、視聴者がチームAに特化したシーンを求めていても、そのようなシーンで構成するダイジェスト情報を生成することができない。このため、視聴者の嗜好に即したシーンが含まれるダイジェスト情報を生成することができる仕組みの開発が必要視されることになる。
なお、本発明より先に出願された技術文献として、特許文献2(特開2007-97047号公報)には、個人の感性をより反映した要約映像を生成する技術について開示されている。具体的には、コンテンツの出演者の感情を推測する。また、コンテンツを視聴しているときの視聴者の感情を推測する。そして、上記推測した出演者及び視聴者の感情情報に基づいて、コンテンツの中から視聴者と出演者とで共感度の高いシーンを推測し、その推測した共感度の高いシーンを用いてコンテンツの要約映像を生成することにしている。これにより、個人の感性をより反映した要約映像を生成することにしている。
特開2007−174260号公報 特開2007−97047号公報
上記特許文献2の技術は、個人の感性をより反映したダイジェスト情報を生成する技術について開示されている。しかし、上記特許文献2の技術は、視聴者と映像データの出演者とで共感度の高いシーンを推測し、その推測した共感度の高いシーンを用いてダイジェスト情報を生成している。このため、上記特許文献2の技術は、視聴者と出演者とで共感したシーンでなければ、ダイジェスト情報として生成することができない。その結果、上記特許文献2の技術でも、視聴者の嗜好に即したシーンが含まれるダイジェスト情報を生成することができない場合がある。
例えば、映像コンテンツがチームA対チームBのサッカー番組とする。また、視聴者がチームAのファンであり、コンテンツの出演者が主にチームBのファンであるとする。この場合、上記特許文献2の技術は、視聴者と出演者とで共感したシーンをダイジェスト情報として生成するため、上記特許文献2の技術では、視聴者がチームAに特化したシーンを求めていても、そのようなシーンで構成するダイジェスト情報を生成することができない。
本発明は、上記事情に鑑みてなされたものであり、視聴者の嗜好に即したシーンを特定することが可能な編集装置、制御方法及びプログラムを提供することを目的とする。
かかる目的を達成するために、本発明は、以下の特徴を有することとする。
<編集装置>
本発明にかかる編集装置は、
コンテンツのシーンを特定する編集装置であって、
前記コンテンツを視聴している時の視聴者の生体情報を取得する生体情報取得手段と、
前記生体情報に所定の反応のあったシーンを前記コンテンツの中から特定する特定手段と、を有することを特徴とする。
<制御方法>
本発明にかかる制御方法は、
コンテンツのシーンを特定する編集装置で行う制御方法であって、
前記コンテンツを視聴している時の視聴者の生体情報を取得する生体情報取得工程と、
前記生体情報に所定の反応のあったシーンを前記コンテンツの中から特定する特定工程と、を有することを特徴とする。
<プログラム>
本発明にかかるプログラムは、
コンテンツのシーンを特定する編集装置のコンピュータに実行させるプログラムであって、
前記コンテンツを視聴している時の視聴者の生体情報を取得する生体情報取得処理と、
前記生体情報に所定の反応のあったシーンを前記コンテンツの中から特定する特定処理と、を、前記コンピュータに実行させることを特徴とする。
本発明によれば、視聴者の嗜好に即したシーンを特定することができる。
本実施形態の編集装置100の構成例を示す図である。 キーワードDB24の構成例を示す図である。 感情判定DB25の構成例を示す図である。 キーワード検出処理の処理動作例を示す図である。 感情判定の切り替わりポイントの検出処理の処理動作例を示す図である。 各感情の感情ポイント(a)と、感情判定の切り替わりポイント(b)と、を説明するための図である。 感情盛り上がりの算出方法例を示す図である。 視聴者の生体情報から取得したキーワード、感情判定の切換ポイント、感情盛り上がりを示す図である。 映像コンテンツから抽出したシーン切換点を示す図である。 視聴者の生体情報に即したシーン切換点の特定処理例を示す図である。 図10に示す特定処理例で得られるシーン切換点の一例を示す図である。
<編集装置100の概要>
まず、図1を参照しながら、本実施形態の編集装置100の概要について説明する。
本実施形態の編集装置100は、コンテンツのシーンを特定する編集装置100であり、コンテンツを視聴している時の視聴者の生体情報を取得する生体情報取得部1と、生体情報取得部1で取得した生体情報に所定の反応のあったシーンをコンテンツの中から特定するシーン特定部4と、を有することを特徴とする。
本実施形態の編集装置100は、上記構成を有することで、コンテンツを視聴している視聴者の生体情報に所定の反応のあったシーンをそのコンテンツの中から特定することになるため、視聴者の嗜好に即したシーンを特定することができる。以下、添付図面を参照しながら、本実施形態の編集装置100について詳細に説明する。
<編集装置100の構成例>
まず、図1を参照しながら、本実施形態の編集装置100の構成例について説明する。
本実施形態の編集装置100は、生体情報取得部1と、視聴者反応抽出部2と、シーン切換抽出部3と、シーン特定部4と、を有して構成する。
生体情報取得部1は、映像コンテンツを視聴している時の視聴者の生体情報を取得するものである。本実施形態の生体情報取得部1は、マイク11と、カメラ12と、を有して構成する。マイク11は、視聴者の音声などを取得する。カメラ12は、視聴者の画像などを取得する。なお、生体情報取得部1は、視聴者の生体情報を取得することが可能であれば、あらゆるものが適用可能である。例えば、視聴者の体温を測定する温度センサや、視聴者の心拍数を測定する心拍数センサなどが挙げられる。
視聴者反応抽出部2は、生体情報取得部1で取得した視聴者の生体情報を基に、映像コンテンツを視聴している時の視聴者の反応を抽出する。視聴者反応抽出部2は、番組情報取得部21と、ジャンル判別部22と、ジャンル別キーワード特定部23と、キーワードDB24と、感情判定DB25と、センシング部26と、を有して構成する。
番組情報取得部21は、EPGやWEB等から番組情報を取得する。
ジャンル判別部22は、番組情報取得部21で取得した番組情報から番組のジャンルを判別する。ジャンルとしては、例えば、『スポーツ』、『お笑い』、『ホラー』などが挙げられる。例えば、番組情報取得部21が取得した番組情報がサッカー番組の場合は、ジャンルとして『スポーツ』と判別する。
ジャンル別キーワード特定部23は、ジャンル判別部22で判別したジャンルと、番組情報取得部21で取得した番組情報と、を基に、ジャンル判別部22で判別したジャンルに関連するキーワード(人名、地名、曲名、ジャンル関連ワードなど)を取得する。また、各ジャンルに共通なキーワード(ジャンル共通ワード)を取得する。例えば、ジャンル判別部22で判別したジャンルが『スポーツ』であれば、ジャンル別キーワード特定部23は、番組情報取得部21で取得した番組情報を基に、『選手名』、『チーム名』などを取得する。また、スポーツに関連する『ジャンル関連ワード(ゴール、アシスト、シュート)』を取得する。また、各ジャンルに共通する『ジャンル共通ワード』を取得する。なお、上述したジャンル関連ワードやジャンル共通ワードは、予め、データベース等に格納して管理し、ジャンル判別部22で判別したジャンルを基に、データベース等からジャンル関連ワードやジャンル共通ワードを取得するようにすることも可能である。
キーワードDB24は、ジャンル判別部22で判別した『ジャンル』と、ジャンル別キーワード特定部23で特定した『人名、地名、曲名、ジャンル関連ワード』、『ジャンル共通ワード』と、を関連付けて記憶する。これにより、キーワードDB24は、図2に示すように、『ジャンル』と、そのジャンルに関連する『キーワード』(人名、地名、曲名、ジャンル関連ワード、ジャンル共通ワード)と、を対応付けて管理することができる。なお、キーワードDB24で管理する情報は、予め登録しておくことも可能である。
感情判定DB25は、視聴者の感情を判定するための情報を管理するものであり、図3に示すように、喜・怒・哀・楽の各々に対応付けて各種情報を管理する。本実施形態の編集装置100は、マイク11から視聴者の『セリフ』、『効果音』、『声質』などを取得し、カメラ12から視聴者の『表情』、『視線』、『動作』などを取得するため、喜・怒・哀・楽の各々に対応づけて『セリフ』、『効果音』、『声質』、『表情』、『視線』、『動作』を管理している。
センシング部26は、マイク11やカメラ12等の生体情報取得部1から取得した視聴者の生体情報(セリフ、効果音、声質、表情、視線、動作などの情報)を基に、視聴者の反応を抽出する。
シーン切換抽出部3は、再生装置200で再生している映像コンテンツを解析し、映像コンテンツのシーン切換点を抽出する。シーン切換抽出部3は、コンテンツ解析部31と、シーン切換検出部32と、を有して構成する。
コンテンツ解析部31は、再生装置200で再生している映像コンテンツを解析する。コンテンツ解析部31は、ジャンル別キーワード特定部23で特定した『人名、地名、曲名、ジャンル関連ワード』、『ジャンル共通ワード』などの情報を基に、映像コンテンツを解析する。シーン切換検出部32は、コンテンツ解析部31で解析した解析結果を基に、映像コンテンツのシーン切換点を検出する。なお、シーン切換点の検出方法は特に限定せず、様々な手法が適用可能である。例えば、映像コンテンツに含まれるBGMやカメラワーク、字幕情報などを基に、シーン切換点を検出することも可能である。
シーン特定部4は、視聴者反応抽出部2で抽出した視聴者の反応を基に、シーン切換抽出部3で抽出したシーン切換点の中から視聴者の嗜好に即したシーン切換点を特定する。シーン特定部4は、反応分析部41と、視聴者シーン切換検出部42と、を有して構成する。
反応分析部41は、センシング部26で抽出した視聴者の反応を分析する。視聴者シーン切換検出部42は、反応分析部41の分析結果を基に、シーン切換抽出部3で抽出したシーン切換点の中から視聴者の嗜好に即したシーン切換点を特定する。
<編集装置100の処理動作例>
次に、本実施形態の編集装置100の処理動作例について説明する。
<キーワード検出処理例>
まず、図4を参照しながら、キーワード検出処理例について説明する。センシング部26は、生体情報取得部1で取得した生体情報の中からキーワードDB24で管理している図2に示すキーワードを検出する。
まず、映像コンテンツを視聴している視聴者の生体情報を生体情報取得部1で取得する。センシング部21は、生体情報取得部1で取得した生体情報と、キーワードDB24で管理しているキーワードと、を基に視聴者の反応をモニタリングし(ステップA1)、生体情報取得部1で取得した生体情報の中から、キーワードDB24で管理しているキーワード(人名、地名、曲名、ジャンル関連ワード、ジャンル共通ワード)を検出する(ステップA2)。
本実施形態では、キーワードDB24でジャンル毎に図2に示す情報を管理しているため、センシング部26は、視聴者が現在視聴している映像コンテンツのジャンルに該当するキーワードをキーワードDB24から特定し、生体情報取得部1を構成するマイク11やカメラ12から取得した生体情報の中に、キーワードDB24から特定したジャンルのキーワード(人名、地名、曲名、ジャンル関連ワード、ジャンル共通ワード)が含まれている場合は、そのキーワードを検出する。
これにより、センシング部26は、生体情報取得部1で取得した生体情報の中からキーワードDB24で管理しているキーワードを検出することができる。
<感情判定の切り替わりポイントの検出処理例>
次に、図5を参照しながら、感情判定の切り替わりポイントの検出処理例について説明する。センシング部26は、生体情報取得部1で取得した生体情報の中から感情判定DB25で感情(喜・怒・哀・楽)毎に管理している図3に示す情報を検出し、その検出した情報を基に、感情判定の切り替わりポイントを検出する。
まず、映像コンテンツを視聴している視聴者の生体情報を生体情報取得部1で取得する。センシング部26は、生体情報取得部1で取得した生体情報と、感情判定DB25で管理している情報と、を基に視聴者の反応をモニタリングし(ステップB1)、視聴者の反応をリアルタイムに各感情(喜・怒・哀・楽)に分類する(ステップB2)。
本実施形態では、感情判定DB25で感情(喜・怒・哀・楽)毎に図3に示す情報を管理しているため、センシング部26は、生体情報取得部1を構成するマイク11やカメラ12から取得した生体情報(セリフ、効果音、声質、表情、視線、動作)の中に、感情判定DB25で感情(喜・怒・哀・楽)毎に管理している図3に示す情報が含まれている場合は、視聴者の反応をその情報に該当する感情に割り振る。
センシング部26は、ステップB2で分類した各感情の情報を基に、各感情(喜・怒・哀・楽)の単位時間当たりの出現頻度を計測する。これにより、図6(a)に示すような各感情(喜・怒・哀・楽)の単位時間当たりの感情ポイントを算出することができる(ステップB3)。なお、感情ポイントの算出方法は特に限定せず、様々な方法で算出することが可能である。例えば、各感情の出現頻度を全て1ポイントとして換算し、単位時間毎の各感情のポイントを算出することで、各感情の単位時間当たりのポイントを算出することも可能である。
センシング部26は、ステップB3で算出した各感情の感情ポイントの中で、最も感情ポイントの高い感情が変わったか否かを判定し(ステップB4)、最も感情ポイントの高い感情が変わった場合は(ステップB4/Yes)、感情判定の切り替わりポイントとして検出する(ステップB5)。これにより、図6(b)に示すような感情判定の切り替わりポイントを検出することができる。なお、図6(b)に図示する感情判定の切り替わりポイントは、一部分であり、図6(a)に示す各感情の感情ポイントの中で、最も感情ポイントの高い感情が変わった部分は、全て感情判定の切り替わりポイントとして検出することになる。
これにより、センシング部26は、生体情報取得部1で取得した生体情報の中から感情判定の切り替わりポイントを検出することができる。
<感情盛り上がりの算出方法例>
次に、図7を参照しながら、感情盛り上がりの算出方法例について説明する。
センシング部26は、上述した感情判定の切り替わりポイントの検出処理で算出した図7(a)に示す各感情の感情ポイントを加算し、図7(b)に示す感情盛り上がりを算出する。
なお、図7(b)に示す感情盛り上がりを算出する際は、映像コンテンツのジャンルや、視聴者の設定により、各感情ポイントに重み付けを施すことも可能である。例えば、視聴者が面白いシーンを見たい場合には、『喜』、『楽』の感情ポイントを1.2倍にして感情盛り上がりを算出することも可能である。また、視聴者が悲しいシーンを見たい場合には、『哀』の感情ポイントを1.2倍にして感情盛り上がりを算出することも可能である。
これにより、センシング部26は、生体情報取得部1から取得した視聴者の生体情報を基に、キーワード、感情判定の切り替わりポイント、感情盛り上がりを得ることができる。
例えば、視聴者が視聴している映像コンテンツがサッカーであった場合は、センシング部26は、図8に示すような、『キーワード』、『感情判定の切り替わりポイント』、『感情盛り上がり』を得ることができる。なお、図8では、『感情判定の切り替わりポイント』は、キーワードを検出した周囲の感情判定の切り替わりポイントのみを表示しており、例えば、図6(a)に示す各感情の感情ポイントの中で、最も感情ポイントの高い感情が変わった部分は、感情判定の切り替わりポイントとして検出することになる。
<映像コンテンツのシーン切換点の抽出処理例>
次に、図9を参照しながら、映像コンテンツのシーン切換点の抽出処理例について説明する。
シーン切換抽出部3は、再生装置200で再生している映像コンテンツを解析し、映像コンテンツのシーン切換点を抽出する。なお、シーン切換抽出部3で行う抽出処理は、映像コンテンツのシーン切換点を抽出することが可能であれば、様々な手法を用いて行うことが可能である。
例えば、再生装置200で再生している映像コンテンツがサッカーであった場合は、シーン切換抽出部3は、『ゴール』、『アシストゴール』、『セットプレイゴール』などのキーワードを基に、図9に示すようなシーン切換点を抽出することができる。
<視聴者の生体情報に即したシーン切換点の特定処理例>
次に、図10を参照しながら、視聴者の生体情報に即したシーン切換点の特定処理例について説明する。シーン特定部4は、視聴者反応抽出部2で抽出した視聴者の反応(キーワード、感情判定の切り替わりポイント、感情盛り上がり)を基に、シーン切換抽出部3で抽出したシーン切換点の中から視聴者の嗜好に即したシーン切換点を特定する。
反応分析部41は、センシング部26で該当するキーワードを検出したか否かを判定する(ステップC1)。該当するキーワードを検出した場合は(ステップC1/Yes)、そのキーワードを検出した時間から所定の範囲(Δt1)内に感情判定の切り替わりポイントがあるか否かを判定する(ステップC2)。
キーワードを検出した時間から所定の範囲(Δt1)内に感情判定の切り替わりポイントがある場合は(ステップC2/Yes)、反応分析部41は、キーワードを検出した時間から所定の範囲(Δt2)内の感情盛り上がりを分析する(ステップC3)。
また、キーワードを検出した時間から所定の範囲(Δt1)内に感情判定の切り替わりポイントがない場合は(ステップC2/No)、キーワードを検出した時間の感情の盛り上がりが閾値(α)以上か否かを判定する(ステップC4)。反応分析部41は、キーワードを検出した時間の感情の盛り上がりが閾値(α)以上である場合は(ステップC4/Yes)、キーワードを検出した時間から所定の範囲(Δt2)内の感情盛り上がりを分析する(ステップC3)。
反応分析部41は、感情盛り上がりの分析結果を基に、感情盛り上がりの立ち上がり直前にシーン切換点があるか否かを判定する(ステップC5)。反応分析部41は、例えば、感情盛り上がりの傾き量が所定の値以上で、且つ、感情盛り上がりが増加している場合は、立ち上がりがあると判定する。そして、その立ち上がりの時間から所定の時間前の範囲にシーン切換点があるか否かを判定する。
反応分析部41は、感情盛り上がりの立ち上がり直前にシーン切換点がある場合は(ステップC5/Yes)、視聴者シーン切換検出部42は、そのシーン切換点にStartフラグを立てる(ステップC7)。
また、反応分析部41は、感情盛り上がりの立ち上がり直前にシーン切換点がない場合は(ステップC5/No)、キーワードを検出した時間の直前にシーン切換点があるか否かを判定する(ステップC6)。例えば、反応分析部41は、キーワードを検出した時間から所定の時間前の範囲にシーン切換点があるか否かを判定する。
キーワードを検出した時間の直前にシーン切換点がある場合は(ステップC6/Yes)、視聴者シーン切換検出部42は、そのシーン切換点にStartフラグを立てる(ステップC7)。
また、反応分析部41は、感情盛り上がりの分析結果を基に、感情盛り上がりの立ち下がり直後にシーン切換点があるか否かを判定する(ステップC8)。反応分析部41は、例えば、感情盛り上がりの傾き量が所定の値以下で、且つ、感情盛り上がりが減少している場合は、立ち下がりがあると判定する。そして、その立ち下がりの時間から所定の時間前の範囲にシーン切換点があるか否かを判定する。
反応分析部41は、感情盛り上がりの立ち下がり直後にシーン切換点がある場合は(ステップC8/Yes)、視聴者シーン切換検出部42は、そのシーン切換点にStopフラグを立てる(ステップC9)。
また、反応分析部41は、感情盛り上がりの立ち下がり直後にシーン切換点がない場合は(ステップC8/No)、視聴者シーン切換検出部42は、キーワードを検出した時間の直後にシーン切換点にStopフラグを立てる(ステップC10)。
これにより、シーン特定部4は、視聴者反応抽出部2で抽出した視聴者の反応(キーワード、感情判定の切り替わりポイント、感情盛り上がり)を基に、シーン切換抽出部3で抽出したシーン切換点の中から視聴者の嗜好に即したシーン切換点を特定することができる。
例えば、視聴者反応抽出部2で抽出した視聴者の反応(キーワード、感情判定の切り替わりポイント、感情盛り上がり)が図8に示す情報であり、シーン切換抽出部3で抽出したシーン切換点が図9に示す情報であると仮定する。この場合、シーン特定部4は、視聴者反応抽出部2で抽出した図8に示す視聴者の反応(キーワード、感情判定の切り替わりポイント、感情盛り上がり)を基に、シーン切換抽出部3で抽出した図9に示すシーン切換点に対して、図11(a)に示すようなフラグを立てることができる。
例えば、図11(b)に示す『ゴール』のキーワードを検出した場合は(ステップC1/Yes)、その『ゴール』のキーワードを検出した時間から所定の範囲(Δt1)内に感情判定の切り替わりポイントがあるか否かを判定する(ステップC2)。この場合、感情判定の切り替わりポイントがあるため(ステップC2/Yes)、『ゴール』のキーワードを検出した時間から所定の範囲(Δt2)内の感情盛り上がりを分析する(ステップC3)。そして、感情盛り上がりの分析結果を基に、感情盛り上がりの立ち上がり直前にシーン切換点があるか否かを判定する(ステップC5)。この場合、感情盛り上がりの立ち上がり直前にシーン切換点があるため(ステップC5/Yes)、視聴者シーン切換検出部42は、そのシーン切換点にStartフラグを立てる(ステップC7)。また、感情盛り上がりの分析結果を基に、感情盛り上がりの立ち下がり直後にシーン切換点があるか否かを判定する(ステップC8)。この場合、感情盛り上がりの立ち下がり直後にシーン切換点があるため(ステップC8/Yes)、視聴者シーン切換検出部42は、そのシーン切換点にStopフラグを立てる(ステップC9)。これにより、図11(a)に示すように、『ロングシュート』にStartフラグを立て、『ゴールならず』にstopフラグを立てることになり、この間を視聴者にとって嗜好性の高いシーンとして認識することができる。
また、図11(b)に示す『アシスト』のキーワードを検出した場合は(ステップC1/Yes)、その『アシスト』のキーワードを検出した時間から所定の範囲(Δt1)内に感情判定の切り替わりポイントがあるか否かを判定する(ステップC2)。この場合、感情判定の切り替わりポイントがあるため(ステップC2/Yes)、『アシスト』のキーワードを検出した時間から所定の範囲(Δt2)内の感情盛り上がりを分析する(ステップC3)。そして、感情盛り上がりの分析結果を基に、感情盛り上がりの立ち上がり直前にシーン切換点があるか否かを判定する(ステップC5)。この場合、感情盛り上がりの立ち上がり直前にシーン切換点があるため(ステップC5/Yes)、視聴者シーン切換検出部42は、そのシーン切換点にStartフラグを立てる(ステップC7)。また、感情盛り上がりの分析結果を基に、感情盛り上がりの立ち下がり直後にシーン切換点があるか否かを判定する(ステップC8)。この場合、感情盛り上がりの立ち下がり自体がないため(ステップC8/No)、視聴者シーン切換検出部42は、キーワードを検出した時間の直後にシーン切換点にStopフラグを立てる(ステップC10)。これにより、図11(a)に示すように、『スルーパス』にStartフラグを立て、『センタリング』にstopフラグを立てることになり、この間を視聴者にとって嗜好性の高いシーンとして認識することができる。
また、図11(b)に示す『ゴールゴール』のキーワードを検出した場合は(ステップC1/Yes)、その『ゴールゴール』のキーワードを検出した時間から所定の範囲(Δt1)内に感情判定の切り替わりポイントがあるか否かを判定する(ステップC2)。この場合、感情判定の切り替わりポイントがないため(ステップC2/No)、感情の盛り上がりが閾値(α)以上か否かを判定する(ステップC4)。この場合、感情の盛り上がりが閾値(α)以上であるため(ステップC4/Yes)、『ゴールゴール』のキーワードを検出した時間から所定の範囲(Δt2)内の感情盛り上がりを分析する(ステップC3)。そして、感情盛り上がりの分析結果を基に、感情盛り上がりの立ち上がり直前にシーン切換点があるか否かを判定する(ステップC5)。この場合、感情盛り上がりの立ち上がり直前にシーン切換点があるため(ステップC5/Yes)、視聴者シーン切換検出部42は、そのシーン切換点にフラグを立てる(ステップC7)。また、感情盛り上がりの分析結果を基に、感情盛り上がりの立ち下がり直後にシーン切換点があるか否かを判定する(ステップC8)。この場合、感情盛り上がりの立ち下がり直後にシーン切換点があるため(ステップC8/Yes)、視聴者シーン切換検出部42は、そのシーン切換点にStopフラグを立てる(ステップC9)。これにより、図11(a)に示すように、『スルーパス』にStartフラグを立て、『リプレイ』にstopフラグを立てることになり、この間を視聴者にとって嗜好性の高いシーンとして認識することができる。
また、図11(b)に示す『くそ』のキーワードを検出した場合は(ステップC1/Yes)、その『くそ』のキーワードを検出した時間から所定の範囲(Δt1)内に感情判定の切り替わりポイントがあるか否かを判定する(ステップC2)。この場合、感情判定の切り替わりポイントがあるため(ステップC2/Yes)、『くそ』のキーワードを検出した時間から所定の範囲(Δt2)内の感情盛り上がりを分析する(ステップC3)。そして、感情盛り上がりの分析結果を基に、感情盛り上がりの立ち上がり直前にシーン切換点があるか否かを判定する(ステップC5)。この場合、感情盛り上がりの立ち上がり直前にシーン切換点があるため(ステップC5/Yes)、視聴者シーン切換検出部42は、そのシーン切換点にフラグを立てる(ステップC7)。また、感情盛り上がりの分析結果を基に、感情盛り上がりの立ち下がり直後にシーン切換点があるか否かを判定する(ステップC8)。この場合、感情盛り上がりの立ち下がり直後にシーン切換点があるため(ステップC8/Yes)、視聴者シーン切換検出部42は、そのシーン切換点にStopフラグを立てる(ステップC9)。これにより、図11(a)に示すように、『味方の反則』にStartフラグを立て、『押し込まれゴール』にstopフラグを立てることになり、この間を視聴者にとって嗜好性の高いシーンとして認識することができる。
なお、図11(a)に示すようにStart,Stopのフラグを立てたシーン切換点を基に、ダイジェスト情報を生成する場合は、フラグを立てた採用回数が多いシーン切換点や、感情盛り上がりの高いシーン切換点を優先的に使用してダイジェスト情報を生成し、ダイジェスト再生を行う。例えば、図11(a)の場合は、『スルーパス』が2回採用されおり、その後の『リプレイ』の感情盛り上がりが高いため、『スルーパス』から『リプレイ』までの間のシーンをダイジェスト情報として生成し、その生成したダイジェスト情報を再生する。これにより、視聴者の嗜好に即したシーンを含んだダイジェスト情報を再生することができる。また、早送り、巻き戻しのスキップ再生時にStartのフラグを立てたシーン切換点をスキップ先として利用することで、より効果的な再生視聴が可能となる。
なお、図10、図11に示す処理動作内で使用するΔt1や、Δt2は、固定である必要はなく、ジャンルに応じて任意に変更したりすることが可能である。例えば、シーンの切換が早いジャンルについては、Δt1や、Δt2を短く設定し、シーンの切換が遅いジャンルについては、Δt1や、Δt2を長く設定することも可能である。また、視聴者反応抽出部2で抽出した視聴者の反応(キーワード、感情判定の切り替わりポイント、感情盛り上がり)に応じてΔt1や、Δt2を動的に変更することも可能である。
また、図10、図11に示す処理動作では、重要シーンを確実に含めるために、ステップC5において、感情盛り上がりの立ち上がり直前にシーン切換点があるか否かを判定し、ステップC8において、感情盛り上がりの立ち上がり直後にシーン切換点があるか否かを判定することにした。しかし、ステップC5において、感情盛り上がりの立ち上がり直後にシーン切換点があるか否かを判定し、ステップC8において、感情盛り上がりの立ち上がり直前にシーン切換点があるか否かを判定することも可能である。即ち、図10、図11に示す処理動作で使用する直前、直後は、任意に設定変更することが可能である。
<本実施形態の編集装置100の作用・効果>
このように、本実施形態の編集装置100において、生体情報取得部1は映像コンテンツを視聴している時の視聴者の生体情報を取得し、視聴者反応抽出部2は、生体情報取得部1で取得した視聴者の生体情報を基に、映像コンテンツを視聴している時の視聴者の反応(キーワード、感情判定の切り替わりポイント、感情盛り上がり)を抽出する。また、シーン切換抽出部3は、映像コンテンツのシーン切換点を抽出する。そして、シーン特定部4は、視聴者反応抽出部2で抽出した視聴者の反応(キーワード、感情判定の切り替わりポイント、感情盛り上がり)を基に、シーン切換抽出部3で抽出したシーン切換点の中から視聴者の嗜好に即したシーン切換点を特定する。これにより、視聴者の嗜好に即したシーンを特定することができる。
例えば、映像コンテンツがチームA対チームBのサッカー番組とする。また、視聴者がチームAのファンであるとする。この場合、視聴者は、映像コンテンツを視聴している時に、主に、チームAに即した反応をすることになるため、視聴者反応抽出部2は、チームAに即した視聴者の反応(キーワード、感情判定の切り替わりポイント、感情盛り上がり)を抽出することになる。その結果、シーン特定部4は、視聴者反応抽出部2で抽出したチームAに即した視聴者の反応(キーワード、感情判定の切り替わりポイント、感情盛り上がり)を基に、シーン切換抽出部3で抽出したシーン切換点の中からチームAに即したシーン切換点を特定することができる。
なお、上述する実施形態は、本発明の好適な実施形態であり、上記実施形態のみに本発明の範囲を限定するものではなく、本発明の要旨を逸脱しない範囲において種々の変更を施した形態での実施が可能である。
例えば、上述した本実施形態における編集装置100を構成する各装置における制御動作は、ハードウェア、または、ソフトウェア、あるいは、両者の複合構成を用いて実行することも可能である。
なお、ソフトウェアを用いて処理を実行する場合には、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれているコンピュータ内のメモリにインストールして実行させることが可能である。あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。
例えば、プログラムは、記録媒体としてのハードディスクやROM(Read Only Memory)に予め記録しておくことが可能である。あるいは、プログラムは、リムーバブル記録媒体に、一時的、あるいは、永続的に格納(記録)しておくことが可能である。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウエアとして提供することが可能である。なお、リムーバブル記録媒体としては、フロッピー(登録商標)ディスク、CD-ROM(Compact Disc Read Only Memory)、MO(Magneto optical)ディスク、DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどが挙げられる。
なお、プログラムは、上述したようなリムーバブル記録媒体からコンピュータにインストールすることになる。また、ダウンロードサイトから、コンピュータに無線転送することになる。また、ネットワークを介して、コンピュータに有線で転送することになる。
また、本実施形態における編集装置100は、上記実施形態で説明した処理動作に従って時系列的に実行されるのみならず、処理を実行する装置の処理能力、あるいは、必要に応じて並列的にあるいは個別に実行するように構築することも可能である。
100 編集装置
200 再生装置
1 生体情報取得部
11 マイク
12 カメラ
2 視聴者反応抽出部
21 番組情報取得部
22 ジャンル判別部
23 ジャンル別キーワード特定部
24 キーワードDB
25 感情判定DB
26 センシング部
3 シーン切換抽出部
31 コンテンツ解析部
32 シーン切換検出部
4 シーン特定部
41 反応分析部
42 視聴者シーン切換検出部

Claims (8)

  1. コンテンツのシーンを特定する編集装置であって、
    前記コンテンツを視聴している時の視聴者の生体情報を取得する生体情報取得手段と、
    前記生体情報に所定の反応のあったシーンを前記コンテンツの中から特定する特定手段と、を有することを特徴とする編集装置。
  2. 前記視聴者の反応を特定するためのキーワードを管理するキーワード管理手段と、
    前記生体情報の中から前記キーワードを抽出するキーワード抽出手段と、を有し、
    前記特定手段は、前記キーワードを抽出した時刻を前記生体情報に所定の反応のあった時刻と判断し、前記時刻に該当するシーンを前記コンテンツの中から特定することを特徴とする請求項1記載の編集装置。
  3. 前記視聴者の感情を特定するための感情情報を管理する感情情報管理手段と、
    前記生体情報の中から前記感情情報を抽出する感情情報抽出手段と、
    前記感情情報により特定される感情が切り替わった切替点を検出する切替点検出手段と、を有し、
    前記特定手段は、前記キーワードを抽出した時刻から所定の範囲内に前記切替点を検出している場合に、前記生体情報に所定の反応のあった時刻と判断することを特徴とする請求項2記載の編集装置。
  4. 前記感情情報管理手段は、喜怒哀楽の各感情を特定するための前記感情情報を各感情に対応付けて管理し、
    前記感情情報抽出手段は、前記生体情報の中から各感情の前記感情情報を抽出し、
    前記切換点検出手段は、各感情の前記感情情報を基に、前記感情情報が最も多い前記感情が切り替わった切替点を検出することを特徴とする請求項3記載の編集装置。
  5. 各感情の前記感情情報を加算して得られる感情盛り上がり値を算出する算出手段を有し、
    前記特定手段は、前記キーワードを抽出した時刻から所定の範囲内に前記切替点を検出していない場合は、前記キーワードを抽出した時刻の前記感情盛り上がり値が所定の閾値以上の場合は、前記生体情報に所定の反応のあった時刻と判断することを特徴とする請求項4記載の編集装置。
  6. 前記特定手段で特定したシーンのダイジェスト情報を生成する生成手段を有し、
    前記生成手段は、前記特定手段で特定した回数の多いシーンと、前記感情盛り上がり値が所定の閾値以上のシーンと、の少なくとも一方のシーンを優先的に使用してダイジェスト情報を生成することを特徴とする請求項5記載の編集装置。
  7. コンテンツのシーンを特定する編集装置で行う制御方法であって、
    前記コンテンツを視聴している時の視聴者の生体情報を取得する生体情報取得工程と、
    前記生体情報に所定の反応のあったシーンを前記コンテンツの中から特定する特定工程と、を有することを特徴とする制御方法。
  8. コンテンツのシーンを特定する編集装置のコンピュータに実行させるプログラムであって、
    前記コンテンツを視聴している時の視聴者の生体情報を取得する生体情報取得処理と、
    前記生体情報に所定の反応のあったシーンを前記コンテンツの中から特定する特定処理と、を、前記コンピュータに実行させることを特徴とするプログラム。
JP2010215990A 2010-09-27 2010-09-27 編集装置、制御方法及びプログラム Active JP5635859B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010215990A JP5635859B2 (ja) 2010-09-27 2010-09-27 編集装置、制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010215990A JP5635859B2 (ja) 2010-09-27 2010-09-27 編集装置、制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2012074773A true JP2012074773A (ja) 2012-04-12
JP5635859B2 JP5635859B2 (ja) 2014-12-03

Family

ID=46170566

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010215990A Active JP5635859B2 (ja) 2010-09-27 2010-09-27 編集装置、制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP5635859B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015082691A (ja) * 2013-10-21 2015-04-27 日本電信電話株式会社 映像編集装置、映像編集方法、および、映像編集プログラム
JP2015088203A (ja) * 2013-10-30 2015-05-07 日本電信電話株式会社 コンテンツ作成方法、コンテンツ作成装置及びコンテンツ作成プログラム
JP2015088923A (ja) * 2013-10-30 2015-05-07 日本電信電話株式会社 コンテンツ再生方法、コンテンツ再生装置及びコンテンツ再生プログラム
JP2016146075A (ja) * 2015-02-09 2016-08-12 日本放送協会 映像評価装置およびそのプログラム
WO2016199335A1 (ja) * 2015-06-12 2016-12-15 株式会社Jvcケンウッド タギング装置、タギングシステム、タギング方法、ダイジェスト作成装置及びダイジェスト作成システム
JP2017005559A (ja) * 2015-06-12 2017-01-05 株式会社Jvcケンウッド タギング装置、タギングシステム、タギング方法及びプログラム
JP2017005558A (ja) * 2015-06-12 2017-01-05 株式会社Jvcケンウッド ダイジェスト作成装置、ダイジェスト作成システム、ダイジェスト作成方法及びプログラム
KR102262702B1 (ko) * 2019-12-27 2021-06-08 덕성여자대학교 산학협력단 샷 변화패턴을 이용한 동영상 생성 시스템
WO2023120263A1 (ja) * 2021-12-20 2023-06-29 ソニーグループ株式会社 情報処理装置及び情報処理方法
WO2024150696A1 (ja) * 2023-01-12 2024-07-18 ソニーグループ株式会社 情報処理装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004159192A (ja) * 2002-11-07 2004-06-03 Nippon Telegr & Teleph Corp <Ntt> 映像要約方法及びプログラム及び映像要約プログラムを格納した記憶媒体
JP2005267455A (ja) * 2004-03-19 2005-09-29 Seiko Epson Corp 画像処理システム、表示装置、及び画像処理方法
JP2005341138A (ja) * 2004-05-26 2005-12-08 Nippon Telegr & Teleph Corp <Ntt> 映像要約方法及びプログラム及びそのプログラムを格納した記憶媒体
JP2005348872A (ja) * 2004-06-09 2005-12-22 Nippon Hoso Kyokai <Nhk> 感情推定装置及び感情推定プログラム
JP2010016482A (ja) * 2008-07-01 2010-01-21 Sony Corp 情報処理装置および情報処理方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004159192A (ja) * 2002-11-07 2004-06-03 Nippon Telegr & Teleph Corp <Ntt> 映像要約方法及びプログラム及び映像要約プログラムを格納した記憶媒体
JP2005267455A (ja) * 2004-03-19 2005-09-29 Seiko Epson Corp 画像処理システム、表示装置、及び画像処理方法
JP2005341138A (ja) * 2004-05-26 2005-12-08 Nippon Telegr & Teleph Corp <Ntt> 映像要約方法及びプログラム及びそのプログラムを格納した記憶媒体
JP2005348872A (ja) * 2004-06-09 2005-12-22 Nippon Hoso Kyokai <Nhk> 感情推定装置及び感情推定プログラム
JP2010016482A (ja) * 2008-07-01 2010-01-21 Sony Corp 情報処理装置および情報処理方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015082691A (ja) * 2013-10-21 2015-04-27 日本電信電話株式会社 映像編集装置、映像編集方法、および、映像編集プログラム
JP2015088203A (ja) * 2013-10-30 2015-05-07 日本電信電話株式会社 コンテンツ作成方法、コンテンツ作成装置及びコンテンツ作成プログラム
JP2015088923A (ja) * 2013-10-30 2015-05-07 日本電信電話株式会社 コンテンツ再生方法、コンテンツ再生装置及びコンテンツ再生プログラム
JP2016146075A (ja) * 2015-02-09 2016-08-12 日本放送協会 映像評価装置およびそのプログラム
WO2016199335A1 (ja) * 2015-06-12 2016-12-15 株式会社Jvcケンウッド タギング装置、タギングシステム、タギング方法、ダイジェスト作成装置及びダイジェスト作成システム
JP2017005559A (ja) * 2015-06-12 2017-01-05 株式会社Jvcケンウッド タギング装置、タギングシステム、タギング方法及びプログラム
JP2017005558A (ja) * 2015-06-12 2017-01-05 株式会社Jvcケンウッド ダイジェスト作成装置、ダイジェスト作成システム、ダイジェスト作成方法及びプログラム
KR102262702B1 (ko) * 2019-12-27 2021-06-08 덕성여자대학교 산학협력단 샷 변화패턴을 이용한 동영상 생성 시스템
WO2023120263A1 (ja) * 2021-12-20 2023-06-29 ソニーグループ株式会社 情報処理装置及び情報処理方法
WO2024150696A1 (ja) * 2023-01-12 2024-07-18 ソニーグループ株式会社 情報処理装置

Also Published As

Publication number Publication date
JP5635859B2 (ja) 2014-12-03

Similar Documents

Publication Publication Date Title
JP5635859B2 (ja) 編集装置、制御方法及びプログラム
CN112753227B (zh) 从事件的描绘提取元数据的方法、计算机可读介质和系统
US7796860B2 (en) Method and system for playing back videos at speeds adapted to content
KR102197098B1 (ko) 콘텐츠 추천 방법 및 장치
US8103149B2 (en) Playback system, apparatus, and method, information processing apparatus and method, and program therefor
US11922968B2 (en) Audio processing for detecting occurrences of loud sound characterized by brief audio bursts
JP2010016482A (ja) 情報処理装置および情報処理方法
JP2011253374A (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP4331217B2 (ja) 映像再生装置および方法
KR20110110147A (ko) 적어도 하나의 신호를 렌더링하기 위한 시스템을 제어하기 위한 데이터를 생성하는 방법 및 시스템
JP2007041988A (ja) 情報処理装置および方法、並びにプログラム
WO2007132566A1 (ja) 映像再生装置、映像再生方法、および映像再生用プログラム
JP2008283486A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2007097047A (ja) コンテンツの編集装置、コンテンツの編集方法及びコンテンツの編集プログラム
JP2024133486A (ja) 視聴覚コンテンツから可変長分解されたセグメントを抽出するためのオーディオ処理
KR102624650B1 (ko) 스포츠 이벤트를 검출하는 방법 및 이를 수행하는 시스템
KR101571888B1 (ko) 표정 인식을 이용한 영상 추출 장치 및 방법
Lehane et al. Indexing of fictional video content for event detection and summarisation
WO2022230291A1 (ja) 情報処理装置、情報処理方法、プログラム
JP2009135754A (ja) ダイジェスト作成装置及び方法
JP2022510057A (ja) コンテンツの一部の対象を表示するためのシステムおよび方法
JPWO2022244199A5 (ja)
Divakaran et al. Audio-assisted video browsing for DVD recorders

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141007

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141017

R150 Certificate of patent or registration of utility model

Ref document number: 5635859

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250