JP2019192144A - 画面構成分析装置、画面構成分析方法及びプログラム - Google Patents

画面構成分析装置、画面構成分析方法及びプログラム Download PDF

Info

Publication number
JP2019192144A
JP2019192144A JP2018087310A JP2018087310A JP2019192144A JP 2019192144 A JP2019192144 A JP 2019192144A JP 2018087310 A JP2018087310 A JP 2018087310A JP 2018087310 A JP2018087310 A JP 2018087310A JP 2019192144 A JP2019192144 A JP 2019192144A
Authority
JP
Japan
Prior art keywords
screen
screen configuration
index
content
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018087310A
Other languages
English (en)
Other versions
JP7209441B2 (ja
Inventor
佐藤 誠
Makoto Sato
佐藤  誠
芳博 岩佐
Yoshihiro Iwasa
芳博 岩佐
正斗 神崎
Masato Kanzaki
正斗 神崎
鈴木寿晃
Hisaaki Suzuki
寿晃 鈴木
貴之 篠田
Takayuki Shinoda
貴之 篠田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Television Network Corp
Original Assignee
Nippon Television Network Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Television Network Corp filed Critical Nippon Television Network Corp
Priority to JP2018087310A priority Critical patent/JP7209441B2/ja
Publication of JP2019192144A publication Critical patent/JP2019192144A/ja
Application granted granted Critical
Publication of JP7209441B2 publication Critical patent/JP7209441B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】コンテンツ映像の画面構成を分析することができる画面構成分析装置、画面構成分析方法及びプログラムを提供すること。【解決手段】コンテンツのコンテンツ映像から、コンテンツ映像を構成する画面構成要素のうち、指定された注目構成要素を認識する画像認識部と、注目構成要素に着目した場合のコンテンツ映像の画像の画面構成を分析し、分析結果である画面構成情報と、画面構成の分析対象とした画像のコンテンツ映像上の時間的位置情報とを出力する画面構成分析部と、指標と指標の時刻情報とを取得する指標取得部と、コンテンツ映像上の時間的位置情報と指標の時刻情報とを用いて、画面構成情報と指標とを同一時間軸上に関連付けて、記憶部に記憶する関連付け部とを有する画面構成分析装置である。【選択図】図1

Description

本発明は、画面構成分析装置、画面構成分析方法及びプログラムに関する。
放送番組において、ある番組の評価を放送後に行う場合に、番組の様々な構成、例えば、複数のTVカメラの配置、カメラの使用方法の評価、バラエティ番組の進行状況の確認、当該番組の視聴率との関係で番組を傍聴している観客に、出演者のどの発言が受けたか、というような観点から番組の評価、確認を事後的に行いたいという要望がある。
この課題を解決すべく、特許文献1の発明が提案されている。
特許文献1の発明は、TVで放送された映像の各ショットの静止画像を作成し、この静止画像と、TV局名、チャンネル名、番組タイトル、放送日付、放送開始時間、放送経過時間、番組コンテンツの要約、及びタイムコードを有するインデックスとを関連付けて記憶している。このインデックスはメタデータとも呼ばれ、番組に関する情報である。
特開2013−162337号公報
しかし、特許文献1の発明は、インデックスには、出演者などの画面上における時系列的な有無や、配置、占有比等の画面構成に関する情報は含まれておらず、制作者側が実際にその映像を目視して画面構成を確認している。一方、制作者としては、出演者などの画面上における時系列的な出現の有無や、配置、占有比等のメタデータには表れない映像の画面構成が、視聴者に対してどのような影響を与えるのかを知りたい。
そこで、本発明は上記課題に鑑みて発明されたものであって、コンテンツ映像の画面構成を分析することができる画面構成分析装置、画面構成分析方法及びプログラムを提供することにある。
本発明の一態様は、コンテンツのコンテンツ映像から、前記コンテンツ映像を構成する画面構成要素のうち、指定された注目構成要素を認識する画像認識部と、前記注目構成要素に着目した場合の前記コンテンツ映像の画像の画面構成を分析し、分析結果である画面構成情報と、画面構成の分析対象とした画像の前記コンテンツ映像上の時間的位置情報とを出力する画面構成分析部と、指標と前記指標の時刻情報とを取得する指標取得部と、前記コンテンツ映像上の時間的位置情報と前記指標の時刻情報とを用いて、前記画面構成情報と前記指標とを同一時間軸上に関連付けて、記憶部に記憶する関連付け部とを有する画面構成分析装置である。
本発明の一態様は、コンテンツのコンテンツ映像から、前記コンテンツ映像を構成する画面構成要素のうち、指定された注目構成要素を認識し、前記注目構成要素に着目した場合の前記コンテンツ映像の画像の画面構成を分析し、分析結果である画面構成情報と、画面構成の分析対象とした画像の前記コンテンツ映像上の時間的位置情報とを出力し、指標と前記指標の時刻情報とを取得し、前記コンテンツ映像上の時間的位置情報と前記指標の時刻情報とを用いて、前記画面構成情報と前記指標とを同一時間軸上に関連付けて、記憶部に記憶する画面構成分析方法である。
本発明の一態様は、コンテンツのコンテンツ映像から、前記コンテンツ映像を構成する画面構成要素のうち、指定された注目構成要素を認識する画像認識処理と、前記注目構成要素に着目した場合の前記コンテンツ映像の画像の画面構成を分析し、分析結果である画面構成情報と、画面構成の分析対象とした画像の前記コンテンツ映像上の時間的位置情報とを出力する画面構成分析処理と、指標と前記指標の時刻情報とを取得する指標取得処理と、前記コンテンツ映像上の時間的位置情報と前記指標の時刻情報とを用いて、前記画面構成情報と前記指標とを同一時間軸上に関連付けて、記憶部に記憶する関連付け処理とをコンピュータに実行させるプログラムである。
本発明は、コンテンツ映像の画面構成を分析することができる
図1は第1の実施形態における画面構成分析装置を示すブロック図である。 図2は画像認識部1による注目画面構成要素の画面上の位置、大きさの認識例を示す図である。 図3は画面構成の分析及び画面構成情報を説明するための図である。 図4は画面構成の分析及び画面構成情報を説明するための図である。 図5は画面構成の分析及び画面構成情報を説明するための図である。 図6は画面構成情報と指標とを関連付けを説明するための図である。 図7はコンピュータシステムによって構成された画面構成分析装置のブロック図である。 図8は出力部7に出力されるドラマXの出演者Aの占有比及びドラマXの視聴率の折れ線グラフの一例を示す図である。 図9は第1の実施形態の変形例1のブロック図である。 図9は第1の実施形態の変形例2のブロック図である。 図10は第2の実施の形態における画面構成分析装置のブロック図である。 図11は出力部7に出力される出演者Bの映像上の表示(出現)の有無、出演者Bの音声のレベルの数値及びコンテンツYの視聴率の折れ線グラフの一例を示す図である。 図13は第3の実施の形態における画面構成分析装置のブロック図である。 図14は第3の実施の形態の応用例を示したブロック図である。
<第1の実施の形態>
以下、図面を参照して、本発明の第1の実施形態における画面構成分析装置を説明する。
図1は本実施形態における画面構成分析装置を示すブロック図である。画面構成分析装置は、画像認識部1と、画面構成分析部2と、指標取得部3と、関連付け部4と、記憶部5と、出力制御部6と、出力部7とを備える。
画像認識部1は、コンテンツ映像の画面(映像)を構成する画面構成要素のうち、指定された注目画面構成要素を、入力されたコンテンツ映像から認識するものである。
ここで、画面構成要素とは、コンテンツ映像の画面(映像)を構成する各要素をいう。コンテンツ映像には人物や各種のオブジェクト(建物や、空、木等の自然物)、テロップ等が映っており、これらの要素から画面(映像)が構成される。本実施の形態では、これらのコンテンツ映像の画面を構成する要素を画面構成要素と記載する。そして、画面構成要素のうち、コンテンツ映像の画面構成を分析する上で着目する画面構成要素を注目画面構成要素と記載する。注目画面構成要素の代表的な例としては、コンテンツ映像に映っている特定の出演者、商品、テロップ等である。そして、コンテンツ映像は、画面構成要素が経時的に変化するものであれば種類は問わないが、例えば、放送番組の番組映像、ストリーミング配信される動画、デジタルサイネージに表示される連続する静止画からなるコンテンツ等がある。また、画像認識部1に入力されるコンテンツ映像は、リアルタイムの映像であるかは問わない。
注目画面構成要素の指定であるが、ユーザが分析を行いたい画面構成要素を、画像認識部1に指定することにより行われる。注目画面構成要素の指定は、個々の個体を特定する方法(例えば、具体的な司会者や主演者等を指定する方法)と、個々の個体を特定しない方法(例えば、映像上に現れる人物等を指定する方法)とのいずれでも良い。また、指定する注目画面構成要素の数は、単数、複数を問わない。
このような、注目画面構成要素を認識する画像認識方法としては、パターンマッチングや、ディープラーニング等の手法を用いた機械学習を用いた画像認識技術などがある。
画像認識部1は、コンテンツ映像から、指定された注目画面構成要素を認識すると、注目画面構成要素を識別する識別情報(例えば、注目画面構成要素が人物ならば氏名、注目画面構成要素がテロップならばテロップ等)と、注目画面構成要素の画面上の位置、大きさ等を含む注目画面構成要素認識情報を出力する。認識及び注目画面構成要素認識情報の出力は、予め定められた時間間隔(例えば、1秒又は2秒毎)で行われる。
画像認識部1による注目画面構成要素の画面上の位置、大きさの認識であるが、例えば、図2の例がある。図2の例は、注目画面構成要素を人物とした場合の例である。画像認識部1は、検出した人物に関して、図2に示す如く、認識した人物を囲む領域を注目領域に設定し、その注目領域の対角線の交点を中心点とする。そして、認識した人物の大きさを注目領域の面積とし、その中心点を認識した人物の画面上の位置座標とする。本例は一例であり、他の方法でもかまわない。
画面構成分析部2は、画像認識部1が認識した少なくとも一以上の注目画面構成要素に着目した場合のコンテンツ映像の画面構成を分析し、画面構成情報を生成する。この画面構成の分析は、注目画面構成要素をどのような観点から着目するかを設定し、その観点から画面構成を分析する。
画面構成の分析及び画面構成情報について、図3から図5を参照しながら説明する。
注目画面構成要素をドラマに出演しているある出演者Aとした場合、出演者Aが画面上にどのように映っているかによって画面構成は異なる。図3の例は、出演者A(単独)の画面での占有率の観点から画面構成を着目した例であり、出演者Aが画面中央に大きく(アップで)映っている場合と、出演者Aが背景・情景・エキストラ多数とともに画面比70%以下で映っている場合と、出演者Aが背景・情景・エキストラ多数とともに画面比50%以下で映っている場合と、出演者Aが背景・情景・エキストラ多数とともに画面比30%以下で映っている場合を例示している。このような場合、出演者Aが映っているという点では共通しているが、画面構成は異なり、それぞれの映像(画面)が視聴者に与える影響は異なる。注目画面構成要素をドラマに出演している複数の出演者とした場合も同様である。更に、注目画面構成要素をドラマの映像の各種スーパの文字とし、その各種スーパの位置、及びスーパ内の文字(番組名や、出演者名等)としても、その配置や内容によって、視聴者に与える影響は異なる。
また、注目画面構成要素を情報番組の司会者(MC)とした場合、司会者(MC)が画面上にどのように映っているかによって画面構成は異なる。図4の例は、司会者(MC)と他の構成要素との位置関係に着目した例であり、司会者(MC)が単独で画面中央に大きく(アップで)映っている場合と、司会者(MC)が画面にフリップ(あるいはCG画面)と一緒に映っている場合と、司会者(MC)が他の出演者(あるいはコメンテーター)と映っている(あるいは会話している)場合と、司会者(MC)が画面上のワイプ画面に映っている場合を例示している。このような場合、同じ司会者(MC)が映っているという点では共通しているが、画面構成は異なり、それぞれの映像(画面)が視聴者に与える影響は異なる。
また、注目画面構成要素をある商品とした場合、商品が画面上にどのように映っているかによって画面構成は異なる。図5の例は、商品の表示形態に着目した例であり、商品が単独で画面中央に大きく(アップで)映っている場合と、商品を紹介するVTRやCG映像が映っている場合を例示しているが、同じ商品が映っているという点では共通しているが、画面構成は異なり、それぞれの映像(画面)が視聴者に与える影響は異なる。
このように、画像認識部1が認識した少なくとも一以上の注目画面構成要素に対し、着目する観点を設定し、コンテンツ映像の画面構成を分析する。具体的な分析方法であるが、着目する観点の基準となる分析基準を指定し、その分析基準に基づいて、注目画面構成要素に着目した場合の画面構成を判断する。
最も簡単な分析基準としては、出演者や司会者のような特定の人物を注目画面構成要素に指定した場合、画面上にその特定の人物が出現しているか否かである。例えば、出演者Aを注目画面構成要素に指定した場合、画面構成分析部2は、出演者Aが画面上に出現している場合は“1”、出演者Aが画面上に出現していない場合は“0”とする分析する。そして、その数値化したデータを画面構成情報として生成する。また、複数の人物を注目画面構成要素に指定した場合、指定した注目画面構成要素(人物)が画面に出現している数でも良い。更に、画面構成分析部2は、その分析対象とした画像のコンテンツ映像の時間的位置情報(コンテンツ映像のタイムコード等)も取得する。そして、画面構成分析部2は、画面構成情報及び時間的位置情報を出力する。
また、特定の人物を注目画面構成要素に設定した場合、その特定の人物が画面を占有する占有率を分析基準として良い。この場合、画面構成分析部2は、上述した図2の例における注目領域の面積と画面面積との比を占有率として計算し、その占有率の数値を画面構成情報として生成する。更に、画面構成分析部2は、その分析対象とした画像のコンテンツ映像の時間的位置情報(コンテンツ映像のタイムコード等)も取得する。そして、画面構成分析部2は、画面構成情報及び時間的位置情報を出力する。尚、占有率を段階的な数値としても良い。例えば、出演者Aが画面を占有する占有率が0%の場合は“0”、出演者Aが画面を占有する占有率が0%以上30%未満の場合は“1”、出演者Aが画面を占有する占有率が30%以上50%未満の場合は“2”、出演者Aが画面を占有する占有率が50%以上70%未満の場合は“3”、出演者Aが画面を占有する占有率が70%以上の場合は“4”とする。そして、その数値化したデータを画面構成情報として生成する。更に、画面構成分析部2は、その分析対象とした画像のコンテンツ映像の時間的位置情報(コンテンツ映像のタイムコード等)も取得する。そして、画面構成分析部2は、画面構成情報及び時間的位置情報を出力する。
また、テロップ等を注目画面構成要素に設定し、その分析基準を、そのテロップ等の位置としても良い。例えば、画面を9個の領域に分割し、左上から順番にその領域を識別する識別番号を付する(例えば、左上の領域:1,・・・,右下の領域:9)。画面構成分析部2は、画像認識部1で認識した注目画面構成要素の中心点の位置座標がいずれの領域に属するかを判断し、属する領域の識別番号を画面構成情報として出力する。更に、画面構成分析部2は、その分析対象とした画像のコンテンツ映像の時間的位置情報(コンテンツ映像のタイムコード等)も取得し、時間的位置情報も出力する。
上述した画面構成分析部2による画面構成の分析及び画面構成情報は、一例であり、他の方法でも良い。
指標取得部3は、指標とこの指標の時刻情報とを取得する。指標には、直接コンテンツに関連する指標のみならず、直接コンテンツには関係しないが、経時的な人の行動をセンシングして得られた指標も含む。また、指標は、コンテンツの視聴者の行動の指標ともいえる。尚、取得する指標は所定時間間隔毎の指標であることが好ましい。
コンテンツ映像のコンテンツに関連する指標は、例えば、放送番組の視聴率、コンテンツに関連するWebページの時系列のアクセス数、コンテンツに関連した時系列のツィート数、コンテンツの時系列の再生回数等である。これらの指標は、コンテンツの内容を直接反映する指標であり、コンテンツ映像の画面構成を検討する上で重要な指標である。
一方、経時的な人の行動をセンシングして得られた指標は、コンテンツの内容を直接反映するものではないが、コンテンツ映像の画面構成を検討する上で有益な指標となる可能性がある。例えば、テレビ受信機に装着された人感センサによりセンシングして得られたテレビ受信機前に存在する人の時系列の有無、家屋に設けられた水量計によりセンシングして得られた時系列の水道量等である。サッカーの試合のコンテンツでは、試合中は視聴のためにテレビ受信機前に人が存在する場合が多いが、ハーフタイムになるとそれまで我慢していた家事等を行うため、コンテンツを表示させたまま、テレビ受信機前から離れる傾向があると思われる。すると、人感センサは人を検出しなくなり、また、水道量も増えると思われる。このように、コンテンツの視聴率のようにコンテンツの直接の指標となるものではないが、コンテンツの構成を検討する上で、有益な指標となりうる。
また、各家電に設けられたセンサの時系列データを指標としても良い。例えば、テレビ受信機の電源のON・OFF、テレビリモコンの各種ボタンの押下、冷蔵庫のドアの開閉等の時系列データである。これらのデータも、コンテンツへの興味を分析する上で、有益な指標となる。
また、コンテンツを表示する表示装置(例えば、テレビ受信機)に、視線検出センサが設けられている場合、時系列的な視聴者の画面上の注視領域を指標としても良い。更に、視線検出センサが視聴者の瞳孔の大きさも検出できる場合は、その視聴者の瞳孔の大きさの時系列的な変化を指標としても良い。瞳孔径は「興味」のあるモノに対しては広がり、興味のないものに対しては狭まるという実験結果があり、コンテンツへの興味を分析する上で、有益な指標となるからである。
また、人体に各種センサが装着されている場合、その各種センサから得られる人体の変化の時系列データも指標としても良い。視聴者のコンテンツへの興味により、視聴者の体には変化が生じるからである。
関連付け部4は、画面構成分析部2から取得した画面構成情報と、指標取得部3から取得した指標とを、同一時間軸上に関連付けて、記憶部5に記憶する。例えば、コンテンツのタイムコードを時間軸として、同一の時刻情報を持つ、画面構成情報と指標とを関連付けて記憶部5に記憶する。図6の例では、コンテンツタイムコード1:00:25に、画面構成情報Aと指標Aとが関連付けて記憶され、コンテンツタイムコード1:00:27に、画面構成情報Bと指標Bとが関連付けて記憶され、コンテンツタイムコード1:00:29に、画面構成情報Cと指標Cとが関連付けて記憶され、コンテンツタイムコード1:00:31に、画面構成情報Dと指標Dとが関連付けて記憶されている。
記憶部5は、ハードディスクのような記録媒体である。
出力制御部6は、分析基準及び指標が指定されると、その分析基準の画面構成情報と指標との関係を時系列で表現した時系列情報を出力部7に出力する。尚、出力される画面構成情報と指標とは一対一の関係でなくても良く、複数の画面構成情報とひとつの指標、ひとつの画面構成情報と複数の指標、又は、複数の画面構成情報と複数の指標を同時に出力するようにしても良い。この場合、出力される画面構成情報と指標とは、同一の時間軸に対応付けられて出力されることが好ましい。
出力部7は、ディスプレイ等の出力手段である。
上述した画面構成分析装置は、具体的には、各種の演算処理等を行うプロセッサを有するコンピュータシステム(情報処理装置)によって実現することができる。図7はコンピュータシステムによって構成された画面構成分析装置のブロック図である。
画面構成分析装置は、プロセッサ10、メモリ(ROMやRAM)11、記憶装置(ハードディスク、半導体ディスクなど)12、入力装置(キーボード、マウス、タッチパネルなど)13、表示装置14、通信装置15などのハードウェア資源を有する汎用のコンピュータにより構成することができる。
画面構成分析装置は、記憶装置12に格納されたプログラムがメモリ11にロードされ、プロセッサ10により実行されることにより、画像認識処理と、画面構成分析処理と、指標取得処理と、関連付け処理と、出力制御処理とが実現されるものである。尚、画像認識処理は画像認識部1に対応し、画面構成分析処理は画面構成分析部2に対応し、指標取得処理は指標取得部3に対応し、関連付け処理は関連付け部4に対応し、出力制御処理は出力制御部6に対応する。
次に、上述した画面構成分析装置の具体的な実施例を説明する。
本実施例は、コンテンツを放送番組のドラマX、注目構成要素をドラマXに出演している出演者Aとし、分析基準を出演者A(単独)の画面での占有比とし、指標をドラマXの視聴率とする例を説明する。
画像認識部1は、ドラマXの映像から出演者Aを認識する。認識は、1秒毎に行うものとする。そして、画像認識部1は、出演者Aの注目領域の面積と、出演者Aを認識した映像のタイムコードとを出力する。
画面構成分析部2は、画像認識部1から受信した出演者Aの注目領域の面積とタイムコードとから、タイムコードで特定される画面において出演者Aの注目領域の面積が占める占有比を求める。ここでの占有比は、出演者Aが映像の画面に表示されていない場合を0とし、出演者Aの注目領域の面積が画面の面積と一致する場合を10として、0から10の範囲で求める。画面構成分析部2は、求めた出演者Aの占有比とその時のタイムコードとを関連付け部4に出力する。
指標取得部3は、ドラマXの1秒単位の視聴率を取得する。尚、視聴率のデータは、既存のサービスから取得することができる。
関連付け部4は、画面構成分析部2から受信した出演者Aの占有比(画面構成情報)と、指標取得部3から受信したドラマXの1秒単位の視聴率とを、ドラマXのタイムコードに関連付けて記憶部5に記憶する。
出力制御部6は、分析基準であるドラマXの出演者Aの占有比(画面構成情報)と、ドラマXの視聴率(指標)との時系列情報が指定されると、横軸をタイムコード(時間)とし、縦軸の第1軸を視聴率とし、縦軸の第2軸を出演者Aの占有比としたドラマXの出演者Aの占有比及びドラマXの視聴率の折れ線グラフを、時系列情報として出力部7に出力する。出力部7に出力されるドラマXの出演者Aの占有比及びドラマXの視聴率の折れ線グラフの一例を、図8に示す。図8では、出演者Aの占有比と視聴率の増加とに相関があることがわかる。
このように、注目構成要素に着目した場合のコンテンツ映像の画像の画面構成情報と指標との関係を時系列に並べることにより、客観的にコンテンツ映像の画面構成を検討、評価できる。
尚、出力制御部6は、時系列情報とともに、時系列に沿ってコンテンツ映像も表示するようにしても良い。
更に、画面構成分析部2は、画面構成情報を生成すると共に、タイムコードのようなコンテンツ映像の時間的位置情報も取得し、それらは記録部に記憶されているので、画面構成情報はコンテンツ映像のメタデータとしても活用することができる。例えば、画面構成情報が出演者の画面上の出現の有無である場合、出演者の出現が有の画面構成情報の時間的位置情報を用いて、出演者が出現する映像のみを選択することができる。
<第1の実施の形態の変形例1>
第1の実施の形態の変形例1を説明する。
図9は第1の実施の形態の変形例1のブロック図である。
第1の実施の形態の変形例1は、上述した第1の実施の形態における画像分析装置の構成要素のうち、出力制御部6及び出力部7が除かれ、画像認識部1と画面構成分析部2と指標取得部3と関連付け部4と記憶部5とから画像分析装置100が構成される。そして、LAN等のネットワークを介して画像分析装置100と接続されている端末200が出力制御部6及び出力部7を備える。
このような構成にすることにより、画像分析装置100が分析収集した画面構成と指標との時系列的な関係を、複数の端末が閲覧することができる。
<第1の実施の形態の変形例2>
第1の実施の形態の変形例2を説明する。
第1の実施の形態の変形例2は、第1の実施の形態の変形例1の画像分析装置100が複数設けられ、各画像分析装置100が分析したコンテンツ映像の画面構成情報及び指標を、端末200の出力制御部6において対比させて出力できるように構成したものである。
図10は第1の実施の形態の変形例2のブロック図である。
第1の実施の形態の変形例2では、複数の画像分析装置100が設けられ、それぞれの画像分析装置100には、異なる番組映像M、番組映像N、...、番組映像Zのいずれかが入力される。
各画像分析装置100に指定される注目構成要素であるが、注目構成要素を出演者とした場合、各番組映像M、番組映像N、...、番組映像Zの出演者は異なるので、指定される注目構成要素も異なる。例えば、番組映像Mでは出演者A、番組映像Nでは出演者Bとなるからである。しかし、着目する注目構成要素の概念としては、番組に出演している出演者のように共通していることが好ましい。
一方、各画像分析装置100に指定される分析基準であるが、好ましくは同一の分析基準であることが好ましい。例えば、各番組映像M、番組映像N、...、番組映像Zの出演者の画面の占有比等である。
また、指標取得部3が取得する指標であるが、対比の観点から好ましくは同一種類の指標が好ましい。例えば、各番組映像M、番組映像N、...、番組映像Zの各番組の視聴率である。
このようにして各画像分析装置100は、各番組映像M、番組映像N、...、番組映像Zの分析を行い、画面構成情報と指標とを同一時間軸上に関連付けて記憶する。
出力制御6は、分析基準及び指標が指定されると、各画像分析装置100から画面構成情報及び指標と読み出して、各画面構成情報及び各指標との関係を、同一画面上に時系列で表現した時系列情報を出力部7に出力する。例えば、各番組映像M、番組映像N、...、番組映像Zの画面構成情報(例えば、各番組の出演者の画面占有比)と各番組映像M、番組映像N、...、番組映像Zの指標(例えば、各番組の視聴率)とを、同一画面上で時系列に並べた時系列情報を出力する。
このように構成することにより、複数のコンテンツ映像と指標との関係を対比させることができ、画面構成情報の変化に伴う視聴者の番組の遷移も評価することができる。
尚、番組映像M、番組映像N、...、番組映像Zをリアルタイムで分析しない場合は、単独の画像分析装置100により、各番組映像M、番組映像N、...、番組映像Zをそれぞれ分析後、出力制御6が各番組映像M、番組映像N、...、番組映像Zの画面構成情報と各番組映像M、番組映像N、...、番組映像Zの指標とを、同一画面上で時系列に並べた時系列情報を出力しても良いことはいうまでもない。
<第2の実施の形態>
第2の実施の形態を説明する。
コンテンツの映像に含まれる音声も、視聴者に大きな影響を与えると考えられる。そこで、第2の実施の形態は、コンテンツの映像に含まれる音声も認識対象に加えてコンテンツ映像を分析する例を説明する。
図11は第2の実施の形態における画面構成分析装置のブロック図である。
第2の実施の形態の画面構成分析装置は、第1の実施の形態の画面構成分析装置に加えて音声認識部20を備える。
音声認識部20は、注目画面構成要素の音声を認識するものである。注目画面構成要素の音声を認識するために、音声認識部20は、機械学習等により、注目画面構成要素の音声を学習させておく。認識する音声は、注目画面構成要素が人物である場合は人物の音声、注目画面構成要素が楽器等のオブジェクトの場合はその注目画面構成要素が発する音である。尚、音声認識部20は、注目画面構成要素の音声に限らず、例えば、オープニング曲や、バックグラウンドミュージックのように、映像としではなく、音が単独で存在する場合には、その音自体を注目構成要素として認識するようにしても良い。
音声認識部20認識する音声の情報は、注目画面構成要素の音声の有無のみならず、注目画面構成要素が発する音声のレベル、周波数、ピッチ、スピード、ラウドネス値も含む。そして、これら識別した音声について、その内容に関する情報である注目構成要素音声認識情報を生成する。
画面構成分析部2は、画像認識部1から受信した注目画面構成要素認識情報と、音声認識部20から受信した注目構成要素音声認識情報とを用いて、設定された分析基準でコンテンツ映像の画面構成を分析する。分析基準の例としては、注目画面構成が人物である場合、その人物が映像上に出現している場合におけるその人物の音声のレベルや、周波数、ピッチ、スピード、ラウドネス値等があげられる。
画面構成分析部2は、分析基準に従って、コンテンツ映像の画面構成を分析し、画面構成情報及び時間的位置情報を出力する。
指標取得部3、関連付け部4、記憶部5、出力制御部6、及び出力部7の動作は、第1の実施の形態と同様である。
具体的な実施例を説明する
本実施例は、注目構成要素を、コンテンツYに出演しているある出演者Bと出演者Bの音声とし、分析基準を出演者B(単独)の映像上の表示(出現)の有無と、出演者Bの音声のレベルとし、指標をそのコンテンツYの視聴率とする例を説明する。
画像認識部1は、コンテンツYの映像から出演者Bを認識する。認識は、1秒毎に行うものとする。そして、画像認識部1は、出演者Bの注目領域の面積と、出演者Bを認識した映像のタイムコードとを出力する。
音声認識部20は、出演者Bの音声を認識し、その音声データを画面構成分析部2に出力する。
画面構成分析部2は、画像認識部1から受信した出演者Bの注目領域の面積とタイムコードとから、タイムコードで特定される画面において出演者Bの映像上の表示(出現)の有無について判断する。すなわち、出演者Bの注目領域の面積がゼロでなければ、出演者Bの映像上の表示(出現)されていることになる。ここでの画面構成情報は、出演者Bの映像上の表示(出現)されている場合は1となり、出演者Bの映像上の表示(出現)されていない場合は0となる。
更に、画面構成分析部2は、音声認識部20からの出演者Bの音声データに基づいて、出演者Bの音声のレベルを判定する。レベルの判定は、10段階で行い、レベルが高くなると、数値が高くなるものとする。そして、画面構成分析部2は、音声のレベルの数値を画面構成情報として出力する。
指標取得部3は、コンテンツYの1秒単位の視聴率を取得する。
関連付け部4は、画面構成分析部2から受信した出演者Bの画面構成情報(出演者Bの映像上の表示(出現)の有無と、出演者Bの音声のレベルの数値)と、指標取得部3から受信したコンテンツYの1秒単位の視聴率とを、コンテンツYのタイムコードと、そのタイムコードに対応する画面構成情報と、コンテンツYの視聴率とを関連付けて記憶部5に記憶する。
出力制御部6は、分析基準であるコンテンツYの出演者Bの画面構成情報と、コンテンツYの視聴率との時系列情報が指定されると、横軸をタイムコード(時間)とし、縦軸の第1軸をコンテンツYの視聴率、縦軸の第2軸を出演者Bの映像上の表示(出現)の有無及び出演者Bの音声のトーンの数値とする出演者Bの映像上の表示(出現)の有無、出演者Bの音声のレベルの数値及びコンテンツYの視聴率の折れ線グラフを、時系列情報として出力部7に出力する。出力部7に出力されるドラマXの出演者Aの占有比及びドラマXの視聴率の折れ線グラフの一例を、図12に示す。図12では、出演者Bの音声のレベルと視聴率の増加とに相関があることがわかる。
このように、注目構成要素に着目した場合のコンテンツ映像の画像の画面構成情報と指標との関係を時系列に並べることにより、客観的にコンテンツ映像の画面構成を検討、評価できる。
尚、第2の実施の形態は、上述した第1の実施の形態の変形と組み合わせて構成することもできる。
<第3の実施の形態>
図13は第3の実施の形態における画面構成分析装置を示すブロック図である。第3の実施の形態は、第2の実施の形態に加えて、相関分析部30を有する。
分析部30は、記憶部5に記憶されている画面構成情報及び指標を入力データとし、その画面構成情報と指標との相関性を分析する。例えば、画面構成情報の変化にともない、その指標がどのように変化していくか、また、指標に特徴的な変化が起きた時の画面構成情報の提示等の情報である。これらは、ひとつのコンテンツ映像の分析だけでも良いが、第1の実施の形態の変形例2に説明したように複数のコンテンツの画面構成情報及び指標を分析することにより、より効果的なものとなる。
相関分析部30の分析の一例として、相関分析部30は、特定のコンテンツの視聴率の急上昇や急降下、人感センサの検出値が同時多発的に下がるなどの指標の特徴的変化を検出し、その特徴的変化が起きた時のコンテンツの画面構成情報とその指標データとを出力する。また、相関分析部30は、毎日の同じ時間や、同じ曜日に現れる等の定期的な指標の特徴的変化を検出し、その特徴的変化が起きた時のコンテンツの画面構成情報とその指標データとを出力する。
また、記憶部5に記憶されている複数の画面構成情報及び指標のデータを、分析部30に学習させ、どのような画面構成情報のときにどのような指標が変化する傾向があるのか、又は、どのような画面構成情報の変化のときにどのような指標が変化する傾向にあるのか、又は、その指標の値の高低はどのような画面構成情報が影響を与える傾向にあるのか等の総合的な分析情報も提供することができる。このような、分析方法としては、パターンマッチングや、ディープラーニング等の手法を用いた機械学習によるものなどがある。
このような相関分析部30の分析結果は、コンテンツの編集の自動化にも貢献することができる。
図14は第3の実施の形態の応用例を示したブロック図である。
図14の例では、相関分析部30の分析結果は、コンテンツ制作システム40に入力される。コンテンツ制作システム40の一例を説明すると、分析の結果、視聴率の上昇が認められる画面構成情報、例えば、コンテンツの特定の時間帯に、主演者が50〜70%の画面占有率で映像上に映っていることが、視聴率の上昇に大きく貢献しているとの分析結果があるものとする。そして、複数のカメラで撮影した映像からひとつのコンテンツの映像を制作するような場合、各カメラの映像における主演者の画面占有率を監視し、特定の時間帯において、主演者が50〜70%の画面占有率で映っているカメラの映像を自動的に選択するようにすれば、カメラの映像のスイッチング処理を自動化することができる。1台のカメラにおけるカメラワーク(ズームやパン等)の処理も同様である。
第3の実施の形態は、相関分析部を設けることにより、画面構成情報と指標との関係を推測できる。更に、分析結果を用いることにより、コンテンツの制作の自動化にも貢献することができる。
以上好ましい実施の形態をあげて本発明を説明したが、全ての実施の形態の構成を備える必要はなく、適時組合せて実施することができるばかりでなく、本発明は必ずしも上記実施の形態に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。
1 画像認識部
2 画面構成分析部
3 指標取得部
4 関連付け部
5 記憶部
6 出力制御部
7 出力部
20 音声認識部
30 相関分析部
40 コンテンツ制作システム
100 画面構成分析装置

Claims (15)

  1. コンテンツのコンテンツ映像から、前記コンテンツ映像を構成する画面構成要素のうち、指定された注目構成要素を認識する画像認識部と、
    前記注目構成要素に着目した場合の前記コンテンツ映像の画像の画面構成を分析し、分析結果である画面構成情報と、画面構成の分析対象とした画像の前記コンテンツ映像上の時間的位置情報とを出力する画面構成分析部と、
    指標と前記指標の時刻情報とを取得する指標取得部と、
    前記コンテンツ映像上の時間的位置情報と前記指標の時刻情報とを用いて、前記画面構成情報と前記指標とを同一時間軸上に関連付けて、記憶部に記憶する関連付け部と
    を有する画面構成分析装置。
  2. 前記画面構成情報と前記指標との時系列情報を出力する出力制御部を
    有する請求項1に記載の画面構成分析装置。
  3. 前記画面構成要素は、前記コンテンツ映像に映っている人物、オブジェクト及びテロップである
    請求項1又は請求項2に記載の画面構成分析装置。
  4. 前記指標は、前記コンテンツに関連した指標である
    請求項1から請求項3のいずれかに記載の画面構成分析装置。
  5. 前記指標は、経時的な人の行動をセンシングして得られた指標である
    請求項1から請求項3のいずれかに記載の画面構成分析装置。
  6. 前記指標は、放送番組の時系列の視聴率、コンテンツの時系列の再生回数、コンテンツに関連するWebページの時系列のアクセス数、コンテンツに関連したツィートの時系列の数、テレビ受信機に装着された人感センサによりセンシングして得られた前記テレビ受信機の前に存在する人の時系列の有無、家屋に設けられた水量計によりセンシングして得られた時系列の水道量、視線検出センサによるコンテンツ映像の注視領域の時系列の変化のいずれかである
    請求項1から請求項5のいずれかに記載の画面構成分析装置。
  7. 前記画面構成分析部は、前記注目画面構成要素の画面上の数、前記注目画面構成要素の画面上の出現の有無、前記注目画面構成要素の画面の占有比、前記注目画面構成要素の画面上の位置、及び前記注目画面構成要素と他の前記画面構成要素との位置関係の少なくともいずれかに基づいて、前記コンテンツ映像の画面構成を分析する
    請求項1から請求項6のいずれかに記載の画面構成分析装置。
  8. 前記コンテンツ映像から、音声を認識する音声認識部を有し、
    前記画面構成情報分析部は、認識された音声を用いて、前記コンテンツ映像の画像の画面構成を分析する
    請求項1から請求項7のいずれかに記載の画面構成分析装置。
  9. 前記認識する音声は、前記注目構成要素の音声である
    請求項8に記載の画面構成分析装置。
  10. 前記画面構成情報分析部は、前記注目構成要素の音声の有無、周波数、ピッチ、スピード、ラウドネス値を用いて、前記コンテンツ映像の画像の画面構成を分析する
    請求項8又は請求項9に記載の画面構成分析装置。
  11. 前記画像認識部と、前記画面構成分析部と、前記指標取得部と、前記関連付け部とを有する画面構成分析装置を複数設け、
    前記各画面構成分析装置に、異なるコンテンツ映像の分析を行わせ、
    前記出力制御部は、前記各コンテンツ映像の画面構成情報及び指標との時系列情報を出力する
    請求項2から請求項10のいずれかに記載の画面構成分析装置。
  12. 前記同一時間軸上に関連付けて記憶されている前記画面構成情報と前記指標とを用いて、前記画面構成情報と前記指標との相関性を分析する相関性分析部を有する
    請求項1から請求項11のいずれかに記載の画面構成分析装置。
  13. 前記相関性分析部の分析結果を用いて、映像制作機器を制御する映像制作システムを有する
    請求項1から請求項12のいずれかに記載の画面構成分析装置。
  14. コンテンツのコンテンツ映像から、前記コンテンツ映像を構成する画面構成要素のうち、指定された注目構成要素を認識し、
    前記注目構成要素に着目した場合の前記コンテンツ映像の画像の画面構成を分析し、分析結果である画面構成情報と、画面構成の分析対象とした画像の前記コンテンツ映像上の時間的位置情報とを出力し、
    指標と前記指標の時刻情報とを取得し、
    前記コンテンツ映像上の時間的位置情報と前記指標の時刻情報とを用いて、前記画面構成情報と前記指標とを同一時間軸上に関連付けて、記憶部に記憶する
    画面構成分析方法。
  15. コンテンツのコンテンツ映像から、前記コンテンツ映像を構成する画面構成要素のうち、指定された注目構成要素を認識する画像認識処理と、
    前記注目構成要素に着目した場合の前記コンテンツ映像の画像の画面構成を分析し、分析結果である画面構成情報と、画面構成の分析対象とした画像の前記コンテンツ映像上の時間的位置情報とを出力する画面構成分析処理と、
    指標と前記指標の時刻情報とを取得する指標取得処理と、
    前記コンテンツ映像上の時間的位置情報と前記指標の時刻情報とを用いて、前記画面構成情報と前記指標とを同一時間軸上に関連付けて、記憶部に記憶する関連付け処理と
    をコンピュータに実行させるプログラム。
JP2018087310A 2018-04-27 2018-04-27 画面構成分析装置、画面構成分析方法及びプログラム Active JP7209441B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018087310A JP7209441B2 (ja) 2018-04-27 2018-04-27 画面構成分析装置、画面構成分析方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018087310A JP7209441B2 (ja) 2018-04-27 2018-04-27 画面構成分析装置、画面構成分析方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2019192144A true JP2019192144A (ja) 2019-10-31
JP7209441B2 JP7209441B2 (ja) 2023-01-20

Family

ID=68390508

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018087310A Active JP7209441B2 (ja) 2018-04-27 2018-04-27 画面構成分析装置、画面構成分析方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7209441B2 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008116826A (ja) * 2006-11-07 2008-05-22 Nippon Hoso Kyokai <Nhk> 休止時間長算出装置及びそのプログラム、並びに音声合成装置
JP2009081575A (ja) * 2007-09-25 2009-04-16 Toshiba Corp 映像を出力する装置、方法およびシステム
JP2010034675A (ja) * 2008-07-25 2010-02-12 Yahoo Japan Corp 番組分析装置、番組分析方法および番組分析プログラム
JP2010114723A (ja) * 2008-11-07 2010-05-20 Brother Ind Ltd 再生情報出力装置、再生情報出力方法、及び再生情報出力処理プログラム
JP2010204823A (ja) * 2009-03-02 2010-09-16 Hitachi Information & Control Solutions Ltd 視線認識装置
JP2012129760A (ja) * 2010-12-15 2012-07-05 Casio Comput Co Ltd コンテンツ評価装置、及びコンテツ評価方法
JP2013021661A (ja) * 2011-07-14 2013-01-31 Ntt Docomo Inc 視聴率推定装置及び視聴率推定方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008116826A (ja) * 2006-11-07 2008-05-22 Nippon Hoso Kyokai <Nhk> 休止時間長算出装置及びそのプログラム、並びに音声合成装置
JP2009081575A (ja) * 2007-09-25 2009-04-16 Toshiba Corp 映像を出力する装置、方法およびシステム
JP2010034675A (ja) * 2008-07-25 2010-02-12 Yahoo Japan Corp 番組分析装置、番組分析方法および番組分析プログラム
JP2010114723A (ja) * 2008-11-07 2010-05-20 Brother Ind Ltd 再生情報出力装置、再生情報出力方法、及び再生情報出力処理プログラム
JP2010204823A (ja) * 2009-03-02 2010-09-16 Hitachi Information & Control Solutions Ltd 視線認識装置
JP2012129760A (ja) * 2010-12-15 2012-07-05 Casio Comput Co Ltd コンテンツ評価装置、及びコンテツ評価方法
JP2013021661A (ja) * 2011-07-14 2013-01-31 Ntt Docomo Inc 視聴率推定装置及び視聴率推定方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
昼間 貴宏,外2名: "スポーツ映像を対象としたストリーム処理型内容分析によるスポンサー広告価値計量方式と実現", 第1回データ工学と情報マネジメントに関するフォーラム−DEIMフォーラム−論文集, JPN6022014524, 9 May 2009 (2009-05-09), JP, ISSN: 0004888963 *
藤田 悦郎,外2名: "D-8-7 コンテンツ空間の可視化に基づく視聴率分析", 電子情報通信学会2001年総合大会予稿集, JPN6022014525, 7 March 2001 (2001-03-07), JP, pages 106, ISSN: 0004888964 *

Also Published As

Publication number Publication date
JP7209441B2 (ja) 2023-01-20

Similar Documents

Publication Publication Date Title
EP3488618B1 (en) Live video streaming services with machine-learning based highlight replays
CA2923807C (en) Generating alerts based upon detector outputs
CA2924065C (en) Content based video content segmentation
JP2021525031A (ja) 埋め込まれた情報カード位置特定およびコンテンツ抽出のためのビデオ処理
US20150082330A1 (en) Real-time channel program recommendation on a display device
JP2009140010A (ja) 情報処理装置、情報処理端末、情報処理方法、およびプログラム
CN108282598B (zh) 一种软件导播系统及方法
CN110121093A (zh) 视频中目标对象的搜索方法及装置
CN107615766A (zh) 用于创建和分配多媒体内容的系统和方法
CN111193890B (zh) 会议记录解析装置、方法和会议记录播放系统
US20150199995A1 (en) Modular content generation, modification, and delivery system
TWI527442B (zh) 資訊萃取方法及設備以及其電腦可讀取的媒體
US20080096174A1 (en) Tutorial generation unit, multimedia management system, portable apparatus, method of explanation of multimedia management behavior, computer program product
US11503375B2 (en) Systems and methods for displaying subjects of a video portion of content
JP2007215046A (ja) 情報処理装置、情報処理方法、情報処理プログラム、および記録媒体
JP2005130416A (ja) 動画像処理装置、動画像処理方法および動画像処理プログラム
JP2013109537A (ja) 関心度推定装置及びそのプログラム
JP2011164681A (ja) 文字入力装置、文字入力方法、文字入力プログラムおよびそれを記録したコンピュータ読み取り可能な記録媒体
KR20160021016A (ko) 영상 콘텐츠 제공 방법 및 영상 콘텐츠 제공 장치
WO2017008498A1 (zh) 搜索节目的方法及装置
US20230097729A1 (en) Apparatus, systems and methods for determining a commentary rating
JP7209441B2 (ja) 画面構成分析装置、画面構成分析方法及びプログラム
CN113099250B (zh) 信息处理方法及电子设备
JP2016144192A (ja) 盛り上がり通知システム
CN112188221B (zh) 播放控制方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210409

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220413

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230109

R150 Certificate of patent or registration of utility model

Ref document number: 7209441

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150