JP6424339B2 - 表示制御装置、および表示制御方法 - Google Patents

表示制御装置、および表示制御方法 Download PDF

Info

Publication number
JP6424339B2
JP6424339B2 JP2016544950A JP2016544950A JP6424339B2 JP 6424339 B2 JP6424339 B2 JP 6424339B2 JP 2016544950 A JP2016544950 A JP 2016544950A JP 2016544950 A JP2016544950 A JP 2016544950A JP 6424339 B2 JP6424339 B2 JP 6424339B2
Authority
JP
Japan
Prior art keywords
area
unit
additional information
fingerprint
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016544950A
Other languages
English (en)
Other versions
JPWO2016031203A1 (ja
Inventor
博史 藪
博史 藪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2016031203A1 publication Critical patent/JPWO2016031203A1/ja
Application granted granted Critical
Publication of JP6424339B2 publication Critical patent/JP6424339B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/8133Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本開示は、フィンガープリントを用いて映像コンテンツに対応付けられる付加情報を、映像コンテンツと共に表示するための表示制御装置、および表示制御方法に関する。
クラウドを介してコンテンツを認識する技術を利用する通信サービスが提案されている。この技術を用いれば、入力された映像を認識し、この映像に関連する付加情報を通信ネットワークを介して取得して、取得した付加情報を映像コンテンツと共に表示画面に表示するテレビジョン受信装置(以下、「テレビ」と略記する)を実現することができる。入力された映像を認識する技術は、「ACR(Automatic Content Recognition)」と呼ばれている。
ACRに、フィンガープリント技術が用いられることがある。特許文献1および特許文献2は、フィンガープリント技術を開示する。この技術では、映像内の画像フレームに映る顔等の輪郭を検知し、検知した輪郭に基づいてフィンガープリントを生成し、生成したフィンガープリントをデータベースに蓄積されたデータと照合する。
米国特許出願公開第2010/0318515号明細書 米国特許出願公開第2008/0310731号明細書
本開示は、映像コンテンツ上のより適切な位置に付加情報を重畳して表示画面に表示する表示制御装置および表示制御方法を提供する。
本開示における表示制御装置は、フィンガープリントを用いて映像コンテンツに対応付けられる付加情報を、映像コンテンツと共に表示画面に表示するための装置である。この表示制御装置は、領域特定部と、注目領域推定部と、位置決定部と、を備える。領域特定部は、映像コンテンツに含まれる複数のフレームのそれぞれにおいて、第一領域と、当該フレーム内の第一領域を除く領域に含まれる第二領域と、を特定する。注目領域推定部は、複数のフレームのそれぞれにおいて、第一領域と第二領域との位置関係に基づいて、第一領域と第二領域とのうち、いずれか一方を注目領域とし、他方を非注目領域とする。位置決定部は、複数のフレームのそれぞれの非注目領域に共通に含まれる位置を、付加情報を表示する位置とする。
本開示における表示制御装置は、映像コンテンツ上のより適切な位置に付加情報を重畳して表示画面に表示することができる。
図1は、実施の形態1におけるコンテンツ認識システムの一構成例を示すブロック図である。 図2は、実施の形態1における受信装置の一構成例を示すブロック図である。 図3は、実施の形態1における表示位置制御部の一構成例を示すブロック図である。 図4は、実施の形態1におけるコンテンツ認識処理の一例を示すフローチャートである。 図5は、実施の形態1における重畳領域情報の算出処理の一例を示すフローチャートである。 図6は、実施の形態1における重畳範囲の算出処理の一例を示すフローチャートである。 図7は、実施の形態1における重畳期間の算出処理の一例を示すフローチャートである。 図8は、実施の形態1における領域の特定処理の一例を示すフローチャートである。 図9は、実施の形態1における包含関係の有無の判定処理の一例を示すフローチャートである。 図10は、実施の形態1における重畳領域の候補の決定処理の一例を示すフローチャートである。 図11は、実施の形態1におけるコンテンツ認識処理の一具体例を模式的に示す図である。 図12は、実施の形態1における重畳表示の可否判定処理の一具体例を模式的に示す第1の図である。 図13は、実施の形態1における重畳表示の可否判定処理の一具体例を模式的に示す第2の図である。 図14Aは、実施の形態1における重畳領域の位置の一例を模式的に示す図である。 図14Bは、実施の形態1における重畳領域の位置の他の一例を模式的に示す図である。 図15は、実施の形態2におけるコンテンツ認識システムの一構成例を示すブロック図である。 図16は、実施の形態2における受信装置の一構成例を示すブロック図である。 図17は、実施の形態2におけるコンテンツ認識処理の一例を示すフローチャートである。 図18は、実施の形態における表示制御装置の構成の変形例を示すブロック図である。
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。ただし、必要以上に詳細な説明は省略する場合がある。例えば、すでによく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
また、各図は、模式図であり、必ずしも厳密に図示されたものではない。また、各図において、同じ構成要素については同じ符号を付している。
(実施の形態1)
以下、図1〜14を用いて、実施の形態1を説明する。
[1−1.コンテンツ認識システム]
まず、本実施の形態におけるコンテンツ認識システム1について、図1を用いて説明する。
図1は、実施の形態1におけるコンテンツ認識システム1の一構成例を示すブロック図である。
コンテンツ認識システム1は、フィンガープリントを用いて映像コンテンツに対応付けられる付加情報を、映像コンテンツと共に表示するための表示制御装置を備える。
図1に示すように、コンテンツ認識システム1は、放送局3と、STB(Set Top Box)4と、受信装置10と、サーバ装置20と、付加情報サーバ装置30と、を備える。実施の形態1では、サーバ装置20が、表示制御装置の一例である。
放送局3は、映像コンテンツを映像信号に変換してテレビジョン放送信号(以下、単に「放送信号」とも記す)として放送するように構成された送信装置である。映像コンテンツは、例えば、無線または有線の放送または通信によって放送される放送コンテンツであり、テレビ番組等の番組コンテンツと、コマーシャルメッセージ(CM)などの広告コンテンツと、が含まれる。番組コンテンツと広告コンテンツとは、時間の経過に伴って互いに切り替わる。放送局3は、映像コンテンツをSTB4およびサーバ装置20に送信する。
STB4は、テレビ放送用のチューナ・デコーダである。STB4は、放送局3から送信された映像信号の中から、ユーザの指示に基づいて選局した映像コンテンツをデコードし、通信路を介して受信装置10に出力する。なお、通信路は、例えば、HDMI(登録商標)(High−Definition Multimedia Interface)である。
受信装置10は、テレビ等の映像受信装置である。受信装置10は、通信ネットワークを介してサーバ装置20および付加情報サーバ装置30と接続されている。受信装置10は、受信した映像コンテンツのフレームシーケンスから複数の画像フレーム(以降、単に「フレーム」ともいう)を抽出し、抽出したフレームに対して画像認識を行う。受信装置10は、画像認識結果に基づいて付加情報サーバ装置30から付加情報を取得し、取得した付加情報を映像と共に実質的にリアルタイムで表示画面に表示する。
なお、フレームは、映像コンテンツを構成するピクチャである。フレームには、プログレッシブ方式におけるフレームや、インターレース方式におけるフィールド、等が含まれる。
サーバ装置20は、例えば、Webサーバである。サーバ装置20は、放送局3から送信された映像コンテンツを取得し、取得した映像コンテンツを解析することで、その映像コンテンツに対応する認識データを生成する。認識データは、例えば、映像コンテンツを表すデータ(ハッシュ値)であって、映像コンテンツの認識を行う際にフィンガープリントとして用いられるデータである。具体的には、認識データは、フレーム間の画像の変化に基づいて生成されるフィンガープリントである。サーバ装置20は、例えば、放送局3が放送する全ての映像コンテンツに対するフィンガープリントを生成し、記憶部(図示せず)に蓄積する。なお、映像コンテンツの認識とは、フィンガープリントを用いて画像認識を行い映像コンテンツを特定する処理のことである。
付加情報サーバ装置30は、例えば、受信装置10による画像認識結果に関連する付加情報を配信するWebサーバである。例えば、付加情報サーバ装置30は、様々な商品の広告を保持して配信する広告配信サーバである。
なお、本実施の形態では、サーバ装置20と付加情報サーバ装置30とは、それぞれが互いに独立したWebサーバであるが、1台のWebサーバがサーバ装置20および付加情報サーバ装置30として動作してもよい。
以下、受信装置10、サーバ装置20および付加情報サーバ装置30の各構成について、説明する。
[1−2.受信装置]
まず、本実施の形態における受信装置10について、図1を参照しながら図2を用いて説明する。
図2は、実施の形態1における受信装置10の一構成例を示すブロック図である。なお、図2は、受信装置10の主要なハードウェア構成を示している。
図1に示すように、受信装置10は、映像受信部11と、映像抽出部12と、付加情報取得部13と、映像出力部14と、画像認識部100と、を備える。より詳細には、図2に示すように、受信装置10は、さらに、制御部15と、操作信号受信部16と、HTTP(Hyper Text Transfer Protocol)送受信部17と、を備える。また、図1に示す付加情報取得部13は、付加情報格納部18と、付加情報表示制御部19と、を備える。
制御部15は、受信装置10が備える各構成要素を制御するように構成された処理部である。制御部15は、不揮発性メモリ、CPU(Central Processing Unit)、揮発性メモリ、を備えている。不揮発性メモリは、例えばROM(Read Only Memory)等であり、プログラム(アプリケーションプログラム、等)を格納している。CPUは、そのプログラムを実行するように構成されている。揮発性メモリは、例えばRAM(Random Access Memory)等であり、CPUが動作しているときの一時的な作業領域として使用される。
操作信号受信部16は、操作部(図示せず)から出力される操作信号を受信するように構成された回路である。操作信号は、受信装置10を操作するためにユーザが操作部(例えば、リモートコントローラ。以下、「リモコン」と記す)を操作することで、その操作部から出力される信号である。なお、操作部が、ジャイロセンサを有するリモコンである場合、操作信号受信部16は、そのリモコンから出力されるリモコン自身の物理的な動きに関する情報(ユーザがリモコンを、振る、傾ける、向きを変える、等したときの動きを示す信号)を受信するように構成されていてもよい。
HTTP送受信部17は、通信ネットワーク105を介してサーバ装置20および付加情報サーバ装置30と通信するように構成されたインターフェイスである。HTTP送受信部17は、例えば、IEEE802.3の規格に適合する有線LAN(Local Area Network)用の通信アダプタである。
HTTP送受信部17は、サーバ装置20から通信ネットワーク105を介して送信されるフィンガープリント、等を取得する。取得したフィンガープリントは、制御部15を介して画像認識部100に出力される。また、HTTP送受信部17は、例えば、付加情報サーバ装置30から通信ネットワーク105を介して送信される付加情報を取得する。取得した付加情報は、制御部15を介して付加情報格納部18に格納される。
映像受信部11は、映像コンテンツを受信するように構成された受信回路およびデコーダ(図示せず)、を有する。映像受信部11は、例えば、操作信号受信部16で受信された操作信号に基づき、受信する放送チャンネルの選局や外部から入力される信号の選択、等を行う。
図2に示すように、映像受信部11は、映像入力部11aと、第1外部入力部11bと、第2外部入力部11cとを備える。
映像入力部11aは、例えばアンテナ(図示せず)で受信される放送信号(図2には、「TV放送信号」と記す)等の、外部から送信されてくる映像信号を入力するように構成された回路である。
第1外部入力部11bおよび第2外部入力部11cは、STB4および映像信号記録再生装置(図示せず)等の外部機器から送信されてくる映像信号(図2には、「外部入力信号」と記す)を入力するように構成されたインターフェイスである。第1外部入力部11bは、例えば、HDMI(登録商標)端子であり、HDMI(登録商標)に適合したケーブルによってSTB4に接続されている。
映像抽出部12は、映像受信部11によって受信された映像コンテンツを構成するフレームシーケンスから、所定のフレームレートで複数のフレームを抽出する。例えば、映像コンテンツのフレームレートが60fps(Frames Per Second)である場合に、映像抽出部12は、30fps、または20fps、または15fps、といったフレームレートで複数のフレームを抽出する。なお、後段の画像認識部100が60fpsの映像を処理可能な処理能力を持っていれば、映像抽出部12は、映像コンテンツのフレームシーケンスを構成する全てのフレームを抽出してもよい。
付加情報取得部13は、情報を取得する回路および通信インターフェイスとして動作する。付加情報取得部13は、画像認識部100による画像認識の結果に基づいて、付加情報サーバ装置30から付加情報を取得するように構成されている。
映像出力部14は、映像受信部11によって受信された映像コンテンツを表示画面に出力するように構成された表示制御回路である。表示画面は、例えば、液晶表示装置や有機EL(Electro Luminescence)等のディスプレイである。
付加情報格納部18は、付加情報を格納するように構成された記憶装置である。付加情報格納部18は、例えば、フラッシュメモリ等の不揮発性記憶素子である。付加情報格納部18は、付加情報サーバ装置30から取得した付加情報に加え、EPG(Electronic Program Guide)等の番組メタ情報を保持してもよい。
付加情報表示制御部19は、付加情報サーバ装置30から取得した付加情報を、映像受信部11で受信した映像コンテンツ(例えば、番組コンテンツ、または広告コンテンツ)に重畳するように構成されている。付加情報表示制御部19は、例えば、映像コンテンツに含まれる各フレームに付加情報を重畳して重畳画像を生成し、生成した重畳画像を映像出力部14に出力する。映像出力部14が重畳画像を表示画面に出力することで、表示画面には、付加情報が重畳された映像コンテンツが表示される。
画像認識部100は、映像コンテンツの認識(例えば、ACR)を行うように構成された処理部である。映像コンテンツは、映像抽出部12が抽出する複数のフレームを含んでおり、画像認識部100による画像認識の対象である。画像認識部100は、例えば、集積回路等で実現される。
図1に示すように、画像認識部100は、フィンガープリント生成部110と、出力部140と、を備える。
フィンガープリント生成部110は、認識データ生成回路の一例である。フィンガープリント生成部110は、受信した映像コンテンツに基づいて、映像コンテンツ毎にフィンガープリントを生成する。そして、生成したフィンガープリントをサーバ装置20に送信する。フィンガープリントを生成する方法には、従来開示されている様々な技術を用いることができる。例えば、フィンガープリント生成部110は、受信した映像コンテンツを構成するフレームのハッシュ値を算出することで、フィンガープリントを生成してもよい。あるいは、フィンガープリント生成部22は、受信した映像コンテンツを構成するフレームシーケンスのフレーム間の画像の変化に基づいてフィンガープリントを生成してもよい。本開示は、フィンガープリントの生成方法を限定しない。
出力部140は、サーバ装置20の照合部25から出力される照合結果を受け取り、画像認識の結果を出力する。具体的には、出力部140は、サーバ装置20から受け取った照合結果に基づいて、映像受信部11が受信した映像コンテンツを示す情報を生成し、生成したその情報を画像認識の結果として出力する。画像認識の結果は、例えば、映像受信部11が受信した映像コンテンツを示すコンテンツID(IDentifier)等である。
[1−3.サーバ装置]
次に、本実施の形態におけるサーバ装置20について、図1、図2を用いて説明する。
サーバ装置20は、放送局3から送信される映像コンテンツを取得し、取得した映像コンテンツに対応する認識データを生成する。
図1に示すように、サーバ装置20は、コンテンツ受信部21と、フィンガープリント生成部22と、フィンガープリントDB(Data Base)23と、照合部25と、を備える。なお、図2のサーバ装置20には、フィンガープリントDB23のみを示し、他のブロックは省略している。
コンテンツ受信部21は、受信回路およびデコーダを備え、放送局3から送信される映像コンテンツを受信するように構成されている。例えば、コンテンツ受信部21は、放送局3が生成し、送信する全ての映像コンテンツを受信する。コンテンツ受信部21は、受信した映像コンテンツを、フィンガープリント生成部22に出力する。
フィンガープリント生成部22は、受信した映像コンテンツに基づいて、映像コンテンツ毎にフィンガープリントを生成する。フィンガープリント生成部22は、受信装置10のフィンガープリント生成部110と実質的に同じ方法によりフィンガープリントを生成する。そして、フィンガープリント生成部22は、生成したフィンガープリントをフィンガープリントDB23に格納する。
フィンガープリント生成部22は、表示位置制御部40を有する。表示位置制御部40は、受信した映像コンテンツを映像出力部14が表示画面に表示する際に、付加情報を表示する位置を制御する制御回路である。表示位置制御部40は、表示位置情報24を生成し、生成した表示位置情報24をフィンガープリントDB23に格納する。表示位置情報24は、画像認識部100における画像認識の結果に基づいて付加情報取得部13が取得する付加情報を、表示画面のどの位置に表示するかを示す情報である。表示位置制御部40の動作については、後述する。
なお、サーバ装置20において、フィンガープリント生成部22がフィンガープリントを生成してフィンガープリントDB23に格納する処理と、表示位置制御部40が表示位置情報を生成してフィンガープリントDB23に格納する処理とは、互いに独立して平行に行われてもよいし、いずれか一方が先に行われ、その後に他方が行われてもよい。
フィンガープリントDB23は、映像コンテンツ毎に、映像コンテンツを表す情報とフィンガープリントとが互いに対応付けられたデータベースである。フィンガープリントDB23には、例えば、複数の映像コンテンツを互いに識別するための識別情報(例えば、コンテンツID)と、フィンガープリントと、が互いに対応付けられて保存されている。サーバ装置20は、新たな映像コンテンツがコンテンツ受信部21で受信される毎に、フィンガープリント生成部22で新たなフィンガープリントを生成してフィンガープリントDB23を更新する。また、フィンガープリントDB23は、表示位置制御部40が出力する表示位置情報24を保持する。フィンガープリントDB23は、サーバ装置20が備える記憶装置(例えば、HDD(Hard Disk Drive)等)に記憶されている。なお、フィンガープリントDB23は、サーバ装置20の外部に設置された記憶装置に記憶されていてもよい。
照合部25は、受信装置10で生成されたフィンガープリントと、フィンガープリント生成部22で生成されフィンガープリントDB23に蓄積された複数のフィンガープリントとを照合し、受信装置10で生成されたフィンガープリントに一致または類似するフィンガープリントを、フィンガープリントDB23に蓄積された複数のフィンガープリントから特定する。そして、特定したフィンガープリントに対応する映像コンテンツを示す情報を、照合結果として受信装置10に出力する。
なお、照合部25は、フィンガープリント生成部22から直接フィンガープリントを受け取り、そのフィンガープリントと、受信装置10から受け取ったフィンガープリントと、を照合することも可能である。
なお、サーバ装置20は、通信部(図示せず)を備え、その通信部を介して受信装置10と通信する。照合部25が受信装置10から認識データを取得するときには、その通信部が用いられる。
[1−4.付加情報サーバ装置]
次に、付加情報サーバ装置30について説明する。
付加情報サーバ装置30は、放送局3から送信される映像コンテンツに関連する付加情報を配信するように構成されたWebサーバである。図1に示すように、付加情報サーバ装置30は、付加情報DB31を備える。
付加情報DB31は、映像コンテンツ毎に、映像コンテンツを表す情報と付加情報とを互いに対応付けたデータベースである。付加情報DB31では、例えば、コンテンツIDと付加情報とが互いに対応付けられている。
付加情報DB31は、付加情報サーバ装置30が備える記憶装置(例えば、HDD、等)に記憶されている。なお、付加情報DB31は、付加情報サーバ装置30の外部に設置された記憶装置に記憶されていてもよい。
付加情報は、例えば、映像コンテンツ内に表示される物(例えば、広告対象の商品、等)の属性を示す情報である。付加情報は、例えば、商品の仕様、販売店(例えば、販売店の住所、URL(Uniform Resource Locator)、電話番号、等)、製造者、使用方法、効能、等の商品に関する情報である。
[1−5.表示位置制御部]
次に、本実施の形態における表示位置制御部40について説明する。なお、図1に示すように、表示位置制御部40は、フィンガープリント生成部22が有する機能ブロックの1つである。
図3は、実施の形態1における表示位置制御部40の一構成例を示すブロック図である。
図3に示すように、表示位置制御部40は、領域特定部41と、包含判定部42と、重畳領域決定部43と、を有する。
領域特定部41は、映像コンテンツに含まれる複数のフレームのそれぞれにおいて、第一領域と、そのフレーム内の第一領域を除く領域に含まれる第二領域と、を特定する。第一領域および第二領域は、フレーム内において互いに異なる特徴を有する二つの領域のことである。
領域特定部41は、例えば、フレーム内において、画像の変化が所定の大きさより大きい領域を第一領域とし、画像の変化が所定の大きさより小さい領域を第二領域とする。第一領域は、例えば、シーンの切り替わり時に大きな画像の変化が発生する領域(以下、「動的領域」とも記す)である。第二領域は、例えば、画像中の背景または動きや変化の少ない被写体が占める領域(以下、「静的領域」とも記す)である。
このように、本実施の形態では、所定より動きの量が大きい領域(動的領域)を第一領域とし、所定より動きの量が小さい領域(静的領域)を第二領域とする例を説明する。しかし、本開示は、第一領域および第二領域を上述した設定に限定しない。例えば、フレーム内にて、所定の被写体が表示される部分を第一領域とし、所定の被写体が表示されない部分を第二領域としてもよい。なお、画像の変化の大きさを判断する方法は後述する。
なお、上記した複数のフレームは、コンテンツ受信部21が放送局3から受信した映像コンテンツを構成するフレームである。ここでは、コンテンツ受信部21が、表示位置制御部40での処理のために、上記した複数のフレームを既に受信し、保持していることを前提として、以下の説明を進める。
包含判定部42は、上記した複数のフレームのそれぞれにおいて、第一領域と第二領域との位置関係に基づいて、注目領域と非注目領域とを決定する。包含判定部42は、第一領域と前記第二領域とのうち、いずれか一方を注目領域とし、他方を非注目領域とする。
包含判定部42は、上記した複数のフレームのそれぞれにおいて、第一領域と第二領域とが、所定の位置関係にあるか否かを判定する。具体的には、包含判定部42は、一方が他方を包含する位置関係にあるか否かを判定する。以下、そのような関係を「包含関係」と記す。「包含関係」とは、一方の領域が他方の領域の周囲を取り囲んでいる位置関係のことである。なお、本開示において「包含関係」には、一方の領域が他方の領域の全周囲を取り囲んだ状態だけでなく、一方の領域が他方の領域の周囲の一部を取り囲んだ状態も含まれる。なお、包含判定部42は、注目領域推定部の一例である。
本実施の形態では、包含する方の領域を非注目領域とし、包含される方の領域を注目領域とする。
重畳領域決定部43は、表示画面における付加情報を表示する位置を決定する。重畳領域決定部43は、上記した複数のフレームのそれぞれの非注目領域に共通に含まれる位置を、付加情報を表示する位置とする。具体的には、重畳領域決定部43は、包含判定部42が決定した、複数のフレームのそれぞれの非注目領域に基づき、各非注目領域に共通に含まれる1つの位置を決定し、決定した位置を付加情報の表示位置とする。この位置が、映像出力部14が、上記した複数のフレームを表示画面に表示する期間に、付加情報を表示する位置となる。なお、この位置は、画面内における固定的な位置、つまり、時間経過に伴い画面内で移動しない位置、である。なお、重畳領域決定部43は、位置決定部の一例である。
[1−6.動作]
以上のように構成された表示位置制御部40について、その動作を説明する。なお、図4〜図10はコンテンツ認識処理に含まれる処理のフローチャートであり、図11〜図13はコンテンツ認識処理の具体例を模式的に示す図である。以下では、これらの図を適宜参照しながら、説明を行う。
図4は、実施の形態1におけるコンテンツ認識処理の一例を示すフローチャートである。
まず、コンテンツ受信部21は、放送局3から送信される複数のフレームを含む映像コンテンツを受信する(ステップS101)。
次に、フィンガープリント生成部22は、ステップS101でコンテンツ受信部21が受信した映像コンテンツの複数のフレームに関して、フィンガープリントを生成する(ステップS102)。
次に、表示位置制御部40は、重畳情報を算出する(ステップS103)。
表示位置制御部40は、ステップS101でコンテンツ受信部21が受信した映像コンテンツが付加情報と共に表示画面に表示される場合に、その付加情報が映像コンテンツ上のどこに表示されるか、また、どの期間に表示されるか、を算出する。この付加情報は、ステップS101で受信された映像コンテンツに関してステップS102で生成されたフィンガープリントに、付加情報DB31において対応付けられた付加情報である。なお、映像コンテンツ上でその付加情報が表示される領域を「重畳領域」、表示される期間を「重畳期間」ともいう。
次に、フィンガープリント生成部22は、ステップS102で生成されたフィンガープリントおよびステップS103で生成された重畳領域情報を、フィンガープリントDB23に保存する(ステップS104)。これにより、フィンガープリントDB23が更新される。
次に、照合部25は、受信装置10で生成されたフィンガープリントを受信装置10から受信するのを待つ(ステップS105)。ここで、照合部25が受信を待つフィンガープリントは、受信装置10のフィンガープリント生成部110が、映像受信部11が受信した映像コンテンツと同じ映像コンテンツから生成したフィンガープリントである。
ステップS105において照合部25がフィンガープリントを受信すると(ステップS105のYes)、処理はステップS106へ進む。一方、ステップS105において照合部25がフィンガープリントを受信しなければ(ステップS105のNo)、処理はステップS101に戻り、コンテンツ受信部21は、映像コンテンツを新たに受信する。
照合部25は、ステップS105で受信装置10から受信したフィンガープリントを、フィンガープリントDBに蓄積されたフィンガープリントと照合する(ステップS106)。
次に、照合部25は、ステップS106での照合の結果、照合した2つのフィンガープリントが一致するか否かを判定する(ステップS107)。
照合部25は、ステップS102でフィンガープリント生成部22が生成したフィンガープリントと、ステップS105で受信装置10から受信したフィンガープリントとが一致するか否かを判定する。
ステップS107において、2つのフィンガープリントは互いに一致すると照合部25が判定すると(ステップS107のYes)、処理はステップS108に進む。一方、2つのフィンガープリントは互いに一致しないと照合部25が判定すれば(ステップS107のNo)、処理はステップS101に戻り、コンテンツ受信部21は、映像コンテンツを新たに受信する。
照合部25は、ステップS106で実行した照合の結果(すなわち、画像認識の結果)を示す情報と、ステップS103で算出した重畳領域情報と、を受信装置10に送信する(ステップS108)。
次に、サーバ装置20は、映像コンテンツの認識が完了したか否かを判定する(ステップS109)。
サーバ装置20は、映像コンテンツに含まれる複数のフレームのそれぞれについて、画像認識の結果を示す情報と重畳領域情報とが得られたか否かを判定する。そして、全てのフレームについて画像認識の結果を示す情報と重畳領域情報とが得られたと判定された場合、コンテンツ認識処理を終了する(ステップS109のYes)。一方、画像認識の結果を示す情報と重畳領域情報とが未だ得られていないフレームがあると判定された場合(ステップS109のNo)、処理はステップS101に戻り、コンテンツ受信部21は、映像コンテンツを新たに受信する。
なお、図4のコンテンツ認識処理のフローチャートでは、ステップS102でフィンガープリント生成部22がフィンガープリントを生成した後に、ステップS103で表示位置制御部40が重畳情報の算出を行う動作例を説明したが、本開示は何らこの動作に限定されない。例えば、ステップS102とステップS103とは並行して(実質的に同時に)行われてもよい。あるいは、ステップS103の後にステップS102が行われてもよい。
図5は、実施の形態1における重畳領域情報の算出処理の一例を示すフローチャートである。図5に示す一連の処理は、図4のステップS103の処理を詳細に示したものである。
表示位置制御部40は、映像コンテンツ上で付加情報が表示される領域である重畳領域の算出を行う(ステップS201)。
重畳領域は、ユーザによる注目度が相対的に低いと推定される領域に含まれる位置であって、かつ、複数のフレームが表示画面に表示される期間に画面上で移動しない位置、に決定される。上記の具体的な処理については後述する。
次に、表示位置制御部40は、映像コンテンツ上で付加情報が表示される期間である重畳期間の算出を行う(ステップS202)。
重畳期間は、重畳領域が有効である期間のことであり、重畳領域の算出の際に用いた、複数のフレームが表示画面に表示される期間に相当する。上記の具体的な処理については後述する。
図6は、実施の形態1における重畳範囲の算出処理の一例を示すフローチャートである。図6に示すフローチャートは、図5のステップS201の処理を詳細に示したものである。
以下、図11を参照しながら、図6に示すフローチャートを説明する。図11は、実施の形態1におけるコンテンツ認識処理の一具体例を模式的に示す図である。
まず、表示位置制御部40は、コンテンツ受信部21が受信した複数のフレームのうち、2以上のフレームを取得する(ステップS301)。
ステップS301で取得されるフレームの一例を、図11の(a)に示す。図11の(a)には、9のフレームが取得され、9のフレームは、異なる3つのシーンを含み、各シーンは3つのフレームで構成される例を示す。
次に、領域特定部41は、ステップS302で表示位置制御部40が取得した2以上のフレームのそれぞれについて、第一領域と第二領域とを特定する(ステップS302)。
領域特定部41は、上記2以上のフレームのうちの時間的に隣接する2つのフレームを比較することで差分フレームを生成し、生成した差分フレーム内において第一領域および第二領域を特定する。そして、後で実行される処理ステップにおいて、これらのいずれかの領域に含まれる位置が、付加情報が表示される位置として決定される。
ステップS302で生成される差分フレームの一例を、図11の(d)に示す。差分フレームは、フレーム内の画素(または、画素を含むブロック)における画像の変化の大きさを示すフレームである。なお、図11の(d)には、画像の変化の大きさを濃淡で表示しており、画像の変化が比較的大きいブロックは濃く、画像の変化が比較的小さいブロックは薄く表示している。
ここで、一具体例として、図11の(d)に示す差分フレーム1141を説明する。差分フレーム1141は、図11の(a)に示す画像フレーム1101および画像フレーム1102が、後述するグレースケール変換およびダウンスケール変換されて生成されたフレーム1131とフレーム1132とから生成された差分フレームである。画像フレーム1101および画像フレーム1102では、フレーム内の中央付近に表示された人物が動いており、人物の領域に比較的大きな画像の変化があり、人物の周辺部分に比較的小さな画像の変化がある。差分フレーム1141では、人物の動作が含まれた領域を示す部分1142が黒に比較的近い色で表示され、比較的小さな画像の変化がある領域を示す部分1143が中程度の濃さの色で表示され、上記のいずれにも含まれない領域を示す部分1144が白に比較的近い色で表示されている。
次に、図11の(d)に示す差分フレーム1143について説明する。差分フレーム1143は、図11の(a)に示す画像フレーム1103および画像フレーム1104が、後述するグレースケール変換およびダウンスケール変換されて生成されたフレーム1134とフレーム1134とから生成された差分フレームである。画像フレーム1103と画像フレーム1104との間には、映像コンテンツのシーンの切り替わりが存在する。すなわち、差分フレーム1143は、シーンの切り替わりに対応した差分フレームである。したがって、フレーム1134とフレーム1134との間では、画素の大部分で比較的大きな画像の変化が生じている。そのため、差分フレーム1143内のほぼ全域が黒に近い色で表示されている。
次に、包含判定部42は、第一領域と第二領域との位置関係を判定する(ステップS303)。
包含判定部42は、第一領域が第二領域を包含する位置関係にあるか否か、を判定する。すなわち、包含判定部42は、第一領域と第二領域との包含関係の有無を判定する。
ステップS303での判定の結果を示すフレームの一例を、図11の(e)に示す。図11の(e)に示すフレームは、図11の(d)に示す差分フレームのうち、ステップS303で包含判定部42に包含関係を有すると判定されたものである。また、図11の(e)に「無効フレーム」と記したフレームは、ステップS303で包含判定部42に包含関係を有しないと判定されたものである。
ステップS303で包含判定部42に包含関係を有すると判定された差分フレームは、そのまま次の処理に使用される。ステップS303で包含判定部42に包含関係を有さないと判定された差分フレームは、無効フレームとなる。
ここで、一具体例として、図11の(e)に示すフレーム1151、フレーム1153を説明する。フレーム1151は、図11の(d)に示す差分フレーム1141と同一のフレームである。包含判定部42は、図11の(d)に示す差分フレーム1141について包含関係の有無を判定した結果、包含関係を有すると判定したので、差分フレーム1141をそのままフレーム1151とする。
フレーム1153は、無効フレームである。包含判定部42は、図11の(d)に示す差分フレーム1143について包含関係の有無を判定した結果、包含関係を有しないと判定したので、フレーム1153を無効フレームとする。このように、シーンの切り替わりに対応して生成された差分フレームは、フレーム内のほぼ全域において画像の変化が比較的大きいので無効フレームとなりやすい。
次に、ステップS303での判定結果に基づいて処理が分岐される(ステップS304)。
ステップS303で第一領域および第二領域に包含関係があると判定された場合(ステップS304のYes)、処理はステップS305へ進む。一方、ステップS303で第一領域および第二領域に包含関係はないと判定された場合(ステップS304のNo)、処理はステップS301に戻り、表示位置制御部40は、2以上のフレームを新たに取得する。
重畳領域決定部43は、第一領域および第二領域のうちの一方を重畳領域の候補に決定する(ステップS305)。
重畳領域決定部43は、第一領域と第二領域との包含関係において、相手を包含する側の領域を、重畳領域の候補に決定する。例えば、第一領域が第二領域を包含する位置関係にある場合、第一領域に含まれる位置を重畳領域の候補に決定する。なお、重畳領域の候補とは、受信装置10の映像出力部14において表示画面に付加情報を重畳して表示する領域の候補という意味である。最終的には、重畳領域の候補に含まれる位置が、付加情報が表示される位置に決定される。
ステップS305で決定した重畳領域の候補の一例を、図11の(f)に示す。図11の(f)に示すように、包含関係があると判定された差分フレームに対して、包含する側の領域が重畳領域の候補に決定される。
ここで、一具体例として、図11の(f)に示すフレーム1161を説明する。フレーム1161は、図11の(e)に示すフレーム1151に対して重畳領域決定部43が決定した重畳領域の候補を示している。フレーム1161のうちの部分1162が、フレーム1161における重畳領域の候補である。部分1162は、フレーム1151において設定された第一領域および第二領域のうち、相手を包含する側の領域に相当する部分である。
なお、以前にステップS305の処理が実行されていれば、重畳領域決定部43は、以前のステップS305で決定された重畳領域の候補を保有している状態で、今回のステップS305で決定された新たな重畳領域の候補を得る。その場合、以前のステップS305の結果として保有している重畳領域の候補に、今回のステップS305で新たに得た重畳領域の候補に含まれる位置を加える。
次に、表示位置制御部40は、コンテンツ受信部21が受信した複数のフレームの全てのフレームに対して、ステップS302からステップS305までの処理が行われたか否かを判定する(ステップS306)。
ステップS306において、全てのフレームに対してステップS302からステップS305までの処理が行われたと判定された場合(ステップS306のYes)、図6に示す一連の処理は終了する。一方、ステップS306において、それらの処理が未だ行われていないフレームがあると判定された場合(ステップS306のNo)、処理はステップS301に戻り、表示位置制御部40は、2以上のフレームを新たに取得する。
図7は、実施の形態1における重畳期間の算出処理の一例を示すフローチャートである。図7に示すフローチャートは、図5のステップS202の処理を詳細に示したものである。
以下、図11を参照しながら、図7に示すフローチャートを説明する。
まず、重畳領域決定部43は、図6のステップS305で決定した2以上の重畳領域の候補に共通して含まれる領域(以下、「共通領域」と記す)を重畳領域として算出する。そして、重畳領域を示す情報である重畳領域情報を保有する。また、重畳領域決定部43は、重畳領域の候補を含むフレームが表示画面に表示される期間を重畳期間として算出する。そして、重畳期間を示す情報である重畳期間情報を保有する(ステップS401)。
次に、重畳領域決定部43は、ステップS401で算出した重畳領域の面積が、所定の閾値(以下、「重畳面積閾値」とも記す)以上であるか否かを判定する(ステップS402)。
付加情報を表示画面に表示するためには、表示画面上に付加情報に相当する面積を有する領域が必要である。ステップS402では、ステップS401で算出された重畳領域が、付加情報を表示するために十分な大きさを有するか否かが判定される。
ステップS402において、重畳領域の面積が重畳面積閾値以上であると判定された場合(ステップS402のYes)、処理はステップS403へ進む。一方、重畳領域の面積が重畳面積閾値未満であると判定された場合(ステップS402のNo)、処理はステップS401に戻り、重畳領域を新たに算出する。
重畳領域決定部43は、ステップS401で算出した重畳期間の時間長が所定の閾値(以下、「重畳時間閾値」とも記す)以上であるか否かを判定する(ステップS403)。
表示画面に表示された付加情報をユーザが視認するためには、表示画面上の同一箇所に一定期間以上、付加情報が表示されることが望ましい。ステップS403では、ステップS401で算出された重畳期間が、ユーザが付加情報を視認するために十分な期間、同一位置に表示されるか否かが判定される。
なお、上記した一定期間、すなわち重畳時間閾値は、例えば、5秒〜10秒程度であるが、本開示は、何らこの数値に限定されない。ユーザの好み等に応じて、上記した一定期間がより長くなるように重畳時間閾値が設定されてもよく、または、より短くなるように重畳時間閾値が設定されてもよい。
ステップS403において、重畳期間の時間長が重畳時間閾値以上であると判定された場合(ステップS403のYes)、処理はステップS404へ進む。一方、重畳期間の時間の長さが重畳時間閾値未満であると判定された場合(ステップS403のNo)、処理はステップS401に戻り、重畳領域を新たに算出する。
重畳領域決定部43は、ステップS401で算出された重畳期間に含まれる無効フレームの数が所定の閾値(以下、「無効フレーム閾値」とも記す)以下であるか否かを判定する(ステップS404)。
映像コンテンツが連続的にまたは断続的に無効フレームを含む場合、表示位置制御部40は、付加情報を表示する位置を適切に定めることができない。ステップS404では、ステップS401で算出した重畳期間に含まれる無効フレームの数が適切であるか否かが判定される。
なお、ステップS404では、無効フレームの数が無効フレーム閾値以下であるか否かの判定を行わずに、無効フレームでないフレームの数が所定数以上であるか否かの判定を行ってもよい。
ステップS404において、無効フレームの数が無効フレーム閾値以下であると判定された場合(ステップS404のYes)、処理はステップS405へ進む。一方、無効フレームの数が無効フレーム閾値を超えると判定された場合(ステップS404のNo)、処理はステップS401に戻り、重畳領域を新たに算出する。
重畳領域決定部43は、重畳領域情報と重畳期間情報とに基づき、重畳情報を生成する。そして、生成した重畳情報を保有する(ステップS405)。
重畳領域決定部43は、ステップS402、ステップS403およびステップS404のいずれのステップにおいても付加情報を表示するために適切であると判定された重畳領域について、重畳領域を示す情報である重畳領域情報と、付加情報を重畳領域に表示させる期間を示す情報である重畳期間情報と、を含む重畳情報を生成する。なお、重畳領域決定部43は、既に重畳情報を保有している場合は、新たに生成した重畳情報を、既に保有している重畳情報に追加して重畳情報を更新する。
ステップS405で生成される重畳情報により示される重畳領域の一例を、図11の(g)に示す。図11の(g)に示すように、図11の(f)に示す各重畳領域の候補に共通に含まれる位置が、重畳領域に決定される。
次に、重畳領域決定部43は、2以上の重畳領域の候補の全てに対してステップS401からステップS405までの処理が行われたか否かを判定する(ステップS406)。
ステップS406において、重畳領域の候補の全てに対して、ステップS401からステップS405までの処理が行われたと判定された場合(ステップS406のYes)、図7に示す一連の処理は終了する。一方、ステップS406において、ステップS401からステップS405までの処理が未だ行われていない重畳領域の候補があると判定された場合(ステップS406のNo)、処理はステップS401に戻り、重畳領域を新たに算出する。
図8は、実施の形態1における領域の特定処理の一例を示すフローチャートである。図8に示すフローチャートは、図6のステップS302の処理を詳細に示したものである。
以下、図11を参照しながら、図8に示すフローチャートを説明する。
まず、領域特定部41は、グレースケーリング処理を行う(ステップS501)。
グレースケーリング処理とは、カラー画像をグレースケール画像に変換すること、すなわち、グレースケール変換を行うこと、である。領域特定部41は、グレースケーリング処理を実行し、フレームの各画素が有する色情報を輝度値に変換することで、カラー画像をグレースケール画像に変換する。本開示は、この変換手法を限定しない。例えば、領域特定部41は、画素のRGBの1つを抽出し、それを輝度値に変換してもよい。あるいは、画素毎に輝度値を算出してもよい。ここでは、画素毎に輝度値を算出するグレースケーリング処理を行う例を説明する。なお、ステップS501を実行する主体である領域特定部41は、図3に示したように、表示位置制御部40が有する機能ブロックの1つである。また、図1を参照すれば、領域特定部41は、フィンガープリント生成部22が有する機能ブロックの1つであるともいえる。
ステップS501でのグレースケーリング処理の結果として得られるフレームの一例を図11の(b)に示す。図11の(b)に示すフレームは、図11の(a)に示すフレームのそれぞれに対してグレースケーリング処理を施したものである。
次に、領域特定部41は、ダウンスケーリング処理を行う(ステップS502)。
ダウンスケーリング処理とは、1つのフレームを構成する画素の数を、元の画素数から、より少ない画素数に変換すること、すなわち、ダウンスケール変換を行うこと、である。領域特定部41は、ダウンスケーリング処理を実行して、フレームの画像を、より少ない画素数で構成される画像に変換する。本開示は、この変換手法を限定しない。例えば、領域特定部41は、フレームに含まれる複数の画素が1つのブロックに含まれるように、フレームを複数のブロックに分割し、ブロック毎に1つの輝度値を算出することでダウンスケール変換を行ってもよい。このとき、領域特定部41は、ブロック毎に、そのブロックに含まれる画素の輝度値の平均値や中間値等を算出して、そのブロックの輝度値としてもよい。
ステップS502でのダウンスケーリング処理の結果として得られるフレームの一例を図11の(c)に示す。図11の(c)に示すフレームは、図11の(b)に示すフレームのそれぞれに対してダウンスケーリング処理を施したものである。
次に、領域特定部41は、差分フレームの生成を行う(ステップS503)。
差分フレームは、時間的に隣接する2つのフレーム(例えば、時間的に連続する2つのフレーム)間の輝度値の差分を算出することで、生成される。領域特定部41は、時間的に隣接する2つのフレームの、ブロック毎に、同じ位置のブロック同士で輝度値の差分を算出することで、差分フレームを生成する。なお、ブロック毎に算出した輝度値の差分(絶対値)を「差分値」という。
ステップS503で生成される差分フレームの一例を、図11の(d)に示す。図11の(d)に示す差分フレームでは、画像の変化の大きさを濃淡で表示しており、画像の変化が比較的大きいブロックは濃く、画像の変化が比較的小さいブロックは薄く表示している。
次に、領域特定部41は、静動領域を特定する(ステップS504)。
静動領域の特定とは、フレーム内の動的領域と静的領域とを特定する処理のことである。領域特定部41は、ステップS503で生成した差分フレーム内のブロックの差分値が所定値より大きいブロックを動的ブロックとし、その差分値が所定値より小さいブロックを静的ブロックとする。そして、領域特定部41は、動的ブロックを含むように動的領域を設定し、静的ブロックを含むように静的領域を設定することで、動的領域および静的領域を特定する。なお、この所定値は、動的領域と静的領域とを適切に設定できるように、差分値が取りうる最大値等に基づき、適切に設定することが望ましい。
なお、ステップS501〜ステップS503の各処理は、フィンガープリント生成部22がフィンガープリントを生成する処理の一部として実行する処理でもある。したがって、領域特定部41は、ステップS501〜ステップS503を行わずに、フィンガープリント生成部22で行われるステップS501〜ステップS503と同一の処理により生成された差分フレームを、フィンガープリント生成部22から取得してもよい。
図9は、実施の形態1における包含関係の有無の判定処理の一例を示すフローチャートである。図9に示すフローチャートは、図6のステップS303の処理を詳細に示したものである。
以下、図12、図13を参照しながら、図9に示すフローチャートを説明する図12は、実施の形態1における重畳表示の可否判定処理の一具体例を模式的に示す第1の図である。図13は、実施の形態1における重畳表示の可否判定処理の一具体例を模式的に示す第2の図である。
まず、包含判定部42は、静動領域比率の算出を行う(ステップS601)。
包含判定部42は、ステップS504で特定された静的領域と動的領域との比率を算出する。なお、ステップS601を実行する主体である包含判定部42は、図3に示したように、表示位置制御部40が有する機能ブロックの1つである。また、図1を参照すれば、包含判定部42は、フィンガープリント生成部22が有する機能ブロックの1つであるともいえる。
ステップS601の処理について、図12の(a)および(b)を参照しながら具体的に説明する。図12の(a)は、処理の対象となる差分フレームの一例を示している。図12の(b)は、図12の(a)に示す差分フレームにおける静的領域と動的領域との各ブロック数と、その比率の一例を示している。図12に示す例では、差分フレームは、16ブロックの静的領域と、2ブロックの動的領域と、を有している。また、静的領域と動的領域との比率は、89%:11%である。
次に、包含判定部42は、領域の高さヒストグラムおよび幅ヒストグラムを生成する(ステップS602)。
高さヒストグラムおよび幅ヒストグラムは、静的領域または動的領域が、差分フレーム内の高さおよび幅の各方向に関して、どの位置を占めるかを示す情報である。包含判定部42は、ステップS601で算出した比率が小さい方の領域(図12に示す例では動的領域)について、高さヒストグラムおよび幅ヒストグラムを生成する。
なお、本実施の形態では、フレーム内の最上段を原点として下方向を高さ方向とし、下へ行くほど数値が大きくなるものとする。また、フレーム内の最左列を原点として右方向を幅方向とし、右へ行くほど数値が大きくなるものとする。なお、上記した高さ方向および幅方向は単なる一例であり、本開示は何らこの定義に限定されない。上記とは異なる定義で高さ方向および幅方向を定めてもよく、そのような場合でも上記の定義と同様の処理を行うことが可能である。
ステップS602の処理について、図12の(c)を参照しながら具体的に説明する。図12の(c)は、ヒストグラムの算出方法の一具体例を模式的に示している。
まず、包含判定部42は、処理の対象となる差分フレームにおける静的領域と動的領域とのうち、各領域に含まれるブロックの数がより少ない方(つまり、領域の面積が小さい方)を、ヒストグラムの算出の対象とする。図12に示す例では、動的領域がヒストグラムの算出の対象となる。
次に、包含判定部42は、算出対象の領域に関して、高さヒストグラムを算出する。高さヒストグラムは、差分フレームにおける高さ方向のブロックの数と同数の数値の配列で表され、各数値(以下、「度数」とも記す)は、算出対象の領域の幅方向におけるブロックの数とする。図12に示す例では、差分フレームの高さ方向および幅方向のブロックの数はそれぞれ5なので、高さヒストグラムは、0から5までのいずれかの数値が5つ並んだ情報として表される。図12に示す例では、差分フレームの高さ方向の2ブロック目と3ブロック目とのそれぞれに動的領域のブロックが幅方向に1つずつあり、それ以外は0なので、高さヒストグラムは「0、1、1、0、0」となる。
次に、包含判定部42は、算出対象の領域に関して、幅ヒストグラムを算出する。幅ヒストグラムは、差分フレームにおける幅方向のブロックの数と同数の数値の配列で表され、各数値(以下、「度数」とも記す)は、算出対象の領域の高さ方向におけるブロックの数とする。図12に示す例では、差分フレームの幅方向および高さ方向のブロックの数はそれぞれ5なので、幅ヒストグラムは、0から5までのいずれかの数値が5つ並んだ情報として表される。図12に示す例では、差分フレームの幅方向の3ブロック目に動的領域のブロックが高さ方向に2つあり、それ以外は0なので、幅ヒストグラムは「0、0、2、0、0」となる。
次に、包含判定部42は、領域の分散度を算出する(ステップS603)。
包含判定部42は、ステップS602で生成した高さヒストグラムおよび幅ヒストグラムを用いて、差分フレーム内における領域の分散度を算出する。
ステップS603の処理について、図12の(d)を参照しながら具体的に説明する。図12の(d)は、分散度の算出方法の一具体例を示している。
分散度は、ヒストグラムの各度数と度数の平均値との差分の2乗平均として算出される。図12に示す例では、高さヒストグラム、幅ヒストグラム、ともに、度数の平均値は0.4である。したがって、図12の(d)に示すように、処理対象の差分フレームに関して、動的領域の高さ方向の分散度は0.24となり、幅方向の分散度は0.64となる。
次に、包含判定部42は、中心重みベクトルを生成する(ステップS604)。
中心重みベクトルとは、フレーム内における中心から各ブロックまでの距離を示す指標である。中心重みベクトルの各要素は、それぞれが1つのブロックに対応する。中心重みベクトルの各要素は、0以上1以下の数値であり、中心において1となり、中心から離れるほど0に近づく。このようにして中心重みベクトルは定められる。図12に示す例では、中心重みベクトルを、例えば、「0.1、0.5、1、0.5、0.1」とする。
中心重みベクトルの各要素は、数値が大きいほど、そのブロックがフレーム内の中心であると判定される傾向が高まる。すなわち、中心重みベクトルにおいて中心を含む広い範囲で各要素の数値が大きければ、フレーム内の中心を含む広い領域がフレームの中心部分と認識されやすい。一方、中心重みベクトルにおいて中心を含む狭い範囲の要素のみ数値が大きければ、フレーム内の中心を含む狭い領域がフレームの中心部分と認識されやすい。
なお、図12に示す例では、処理の対象となる差分フレームは、高さ方向、幅方向のそれぞれが5ブロックであるので、5つの要素を有する中心重みベクトルを、高さ方向および幅方向のそれぞれに共通に用いることができる。なお、本開示は何らこの構成に限定されない。例えば、高さ方向と幅方向とで互いに異なる中心重みベクトルを用いてもよい。なお、処理の対象となる差分フレームの高さ方向と幅方向とでブロックの数が互いに異なる場合は、各方向のそれぞれに適した中心重みベクトルを用いすることが望ましい。
次に、包含判定部42は、重心ベクトルを生成する(ステップS605)。
重心ベクトルとは、高さ方向および幅方向の各重心から、各ブロックまでの距離を示す指標である。重心ベクトルの各要素は、0以上1以下の数値であり、重心の位置(または、重心に最も近い位置)において1となり、重心から離れるほど0に近づく。このようにして重心ベクトルは定められる。
重心重みベクトルの各要素は、数値が大きいほど、そのブロックが重心に近いと判定される傾向が高まる。すなわち、重心ベクトルにおいて重心を含む広い範囲で各要素の数値が大きければ、重心を含む広い領域が重心と認識されやすい。一方、重心ベクトルにおいて重心を含む狭い範囲の要素のみ数値が大きければ、重心を含む狭い領域がフレームの重心と認識されやすい。
重心ベクトルは、高さ方向に関しては高さヒストグラムに基づき、幅方向に関しては幅ヒストグラムに基づき、それぞれ算出される。図12の(c)に一例を示す高さヒストグラムおよび幅ヒストグラムから、高さ方向の重心ベクトルおよび幅方向の重心ベクトルをそれぞれ求めるときの一具体例を図13の(f)に示す。
まず、高さ方向の重心ベクトルの求め方を説明する。高さヒストグラムの各要素(図12、図13に示す例では、「0、1、1、0、0」)と、高さ方向の座標(図12、図13に示す例では、「1、2、3、4、5」)との積を、高さヒストグラムのすべての要素について算出し、それらを足し合わせる。そして、その足し合わせた結果を、算出対象の領域のブロック数(図13に示す例では、動敵領域のブロック数)に1を足した数で割って得られた数値を重心位置とする。図13に示す例では、1.6という数値が得られるので、それを四捨五入して2とする。すなわち、高さ方向の座標「2」の位置が重心の位置となる。したがって、高さ方向の重心ベクトルでは、高さ方向の座標「2」の位置の要素は1となり、重心から離れるほど0に近づくように、重心からの距離に応じて各要素が定められる。このようにして、高さ方向の重心ベクトル「0.5、1、0.5、0.33、0.25」が生成される。
次に、幅方向の重心ベクトルの求め方を説明する。幅ヒストグラムの各要素(図12、図13に示す例では、「0、0、2、0、0」)と、幅方向の座標(図12、図13に示す例では、「1、2、3、4、5」)との積を、幅ヒストグラムのすべての要素について算出し、それらを足し合わせる。そして、その足し合わせた結果を、算出対象の領域のブロック数(図13に示す例では、動敵領域のブロック数)に1を足した数で割って得られた数値を重心位置とする。図13に示す例では、2という数値が得られるので、幅方向の座標「2」の位置が重心の位置となる。したがって、幅方向の重心ベクトルでは、幅方向の座標「2」の位置の要素は1となり、重心から離れるほど0に近づくように、重心からの距離に応じて各要素が定められる。このようにして、幅方向の重心ベクトル「0.5、1、0.5、0.33、0.25」が生成される。
なお、図13の(f)に示す計算式で分母に1を足しているのは、0による除算を避けるためである。なお、分母を、処理の対象となる差分フレームのブロック数(図12に示す例では、25)としてもよい。
次に、包含判定部42は、包含度を算出する(ステップS606)。
包含度とは、静的領域および動的領域のいずれか一方が他方を包含している度合いを示す指標である。包含判定部42は、包含度が所定の閾値より大きい場合に、静的領域および動的領域のいずれか一方が他方を包含していると判定する。なお、包含度だけでは、静的領域および動的領域のどちらが包含する側であり、どちらが包含される側であるかを知ることはできない。
包含度は、ステップ602で算出した高さヒストグラムおよび幅ヒストグラム、ステップS604で生成した中心重みベクトル、ステップS605で生成した高さ方向の重心ベクトルおよび幅方向の重心ベクトル、から算出される。
包含度を算出するときの一具体例を図13の(g)に示す。
包含度は、高さ方向および幅方向のそれぞれにおいて、ヒストグラム、中心重みベクトル、および、重心重みベクトルの積をブロック毎に算出して包含ベクトルを算出し、高さ方向および幅方向の包含ベクトルの要素の平均を算出することで、算出される。図13に示す例では、高さ方向の包含ベクトルは、「0、0.5、0.5、0、0」となり、幅方向の包含ベクトルは、「0、0、1、0、0」となる。したがって、包含度は0.67となる。
次に、包含判定部42は、包含情報を出力する(ステップS607)。
包含情報とは、処理の対象となるフレームが包含関係を有するか否かを示す情報である。包含判定部42は、ステップS606で算出した包含度が所定の閾値(以下、「包含度閾値」とも記す)より大きいときは、包含関係があるということを示す情報を包含情報として出力する。包含度閾値を、例えば、0.5とすれば、図13に示す例では、包含度は0.67なので、包含関係があることを示す包含情報が包含判定部42から出力される。
一方、包含判定部42は、ステップS606で算出した包含度が包含度閾値より小さいときは、包含関係がないということを示す情報を包含情報として出力する。なお、両者が等しい場合には、包含関係があるとしてもよいし、包含関係がないとしてもよい。なお、本実施の形態で閾値として挙げた各数値は単なる一例に過ぎない。各閾値は、サーバ装置20の仕様等に応じて適切に設定されることが望ましい。
図10は、実施の形態1における重畳領域の候補の決定処理の一例を示すフローチャートである。図10に示すフローチャートは、図6のステップS305の処理を詳細に示したものである。
以下、図12、図13を参照しながら、図10に示すフローチャートを説明する。
まず、重畳領域決定部43は、包含する側の領域を、重畳領域の候補として特定する(ステップS701)。
重畳領域決定部43は、ステップS607で出力された包含情報を取得し、包含関係の有無を判定する。包含関係がある場合には、重畳領域決定部43は、静的領域および動的領域のうちブロック数が多い方の領域を、包含する側の領域とする。なお、ステップS701を実行する主体である重畳領域決定部43は、図3に示したように、表示位置制御部40が有する機能ブロックの1つである。また、図1を参照すれば、重畳領域決定部43は、フィンガープリント生成部22が有する機能ブロックの1つであるともいえる。
次に、重畳領域決定部43は、重畳領域の候補を示す情報を出力する(ステップS702)。
重畳領域の候補を示す情報とは、ステップS701で特定した重畳領域の候補を示す情報のことであり、その重畳領域の候補のフレーム内における位置を示す情報と、映像コンテンツ内における表示時刻を示す情報と、を含む。
以上の一連の処理によって、表示位置制御部40は、複数のフレームのそれぞれにおいて、ユーザによる注目度が相対的に低いと推定される領域を特定し、特定した領域に所定の時間含まれる位置を、付加情報を表示する位置に決定する。これにより、付加情報は、表示画面において注目度が低いと推定される非注目領域に重畳されるので、ユーザが映像コンテンツを視聴するときに、付加情報が視聴の障害となることを回避することができる。
図14Aは、実施の形態1における重畳領域の位置の一例を模式的に示す図である。図14Bは、実施の形態1における重畳領域の位置の他の一例を模式的に示す図である。図14A、14Bを参照しながら、本実施の形態における表示位置制御部40により決定される付加情報の表示位置について説明する。
図14Aに一例として示すフレームは、中央部分に静的領域1401が存在し、フレーム内の中央部分を除く周縁部分に動的領域1402が存在する。このようなフレームに対して、表示位置制御部40は、上述した一連の処理により、静的領域1401を相対的に注目度が高い領域(注目領域)とし、動的領域1402を相対的に注目度が低い領域(非注目領域)とする。そして、動的領域1402に含まれる位置を、付加情報1403を表示する位置とする。その結果、そのフレームが表示画面に表示される際には、動的領域1402に含まれる位置に付加情報1403が表示される。
図14Bに一例として示すフレームは、中央部分に動的領域1411が存在し、フレーム内の中央部分を除く周縁部分に静的領域1412が存在する。このようなフレームに対して、表示位置制御部40は、上述した一連の処理により、動的領域1411を相対的に注目度が高い領域(注目領域)と推定し、静的領域1412を相対的に注目度が低い領域(非注目領域)と推定する。そして、静的領域1412に含まれる位置を、付加情報1413を表示する位置とする。その結果、そのフレームが表示画面に表示される際には、静的領域1412に含まれる位置に付加情報1413が表示される。
[1−7.効果等]
以上のように、本実施の形態におけるサーバ装置20は、複数のフレームのそれぞれにおいて、ユーザによる注目度が相対的に低いと推定される非注目領域を特定する。そして、複数のフレームの各非注目領域に共通に含まれる位置を、付加情報を表示する位置とする。
これにより、付加情報は、表示画面において注目度が高いと推定される注目領域を除く位置に重畳されるので、ユーザが映像コンテンツを視聴するときに、付加情報が視聴の障害となることを回避することができる。
一般に、1台のサーバ装置20は、数百〜数千の受信装置10に対して画像認識処理を提供する。本実施の形態によれば、サーバ装置20において付加情報の表示位置の算出処理を行うことで、受信装置10のそれぞれにおいて、付加情報の表示位置を算出する処理を行う必要がなくなり、受信装置10における処理量を削減することができる。
なお、これらの包括的または具体的な態様は、システム、装置、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROM等の記録媒体で実現されてもよく、システム、装置、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
(実施の形態2)
実施の形態1では、サーバ装置20で画像認識を行う構成例を説明した。実施の形態2では、受信装置10Aで画像認識を行う構成例を説明する。
以下、図15〜17を用いて、実施の形態2を説明する。
[2−1.構成]
まず、本実施の形態におけるコンテンツ認識システム1Aについて、図15、図16を用いて説明する。
図15は、実施の形態2におけるコンテンツ認識システム1Aの一構成例を示すブロック図である。
図16は、実施の形態2における受信装置10Aの一構成例を示すブロック図である。なお、図16は、受信装置10Aの主要なハードウェア構成を示している。
図1に示すように、コンテンツ認識システム1Aは、放送局3と、STB(Set Top Box)4と、受信装置10Aと、サーバ装置20Aと、付加情報サーバ装置30と、を備える。実施の形態2では、受信装置10Aが、表示制御装置の一例である。
以下、実施の形態1で説明した構成要素と実質的に同じ動作をする構成要素については実施の形態1で付与した符号と同じ符号を付与し、重複説明を省略する。本実施の形態では、実施の形態1との差異を説明する。
受信装置10Aは、画像認識部100Aと、映像受信部11と、映像抽出部12と、付加情報取得部13と、映像出力部14と、制御部15と、操作信号受信部16と、HTTP送受信部17と、を備える。
画像認識部100Aは、フィンガープリント生成部110Aと、フィンガープリント取得部120と、照合部130と、出力部140と、を備える。
フィンガープリント生成部110Aは、実施の形態1で説明したフィンガープリント生成部110と実質的に同じ動作をする。フィンガープリント生成部110Aは、映像受信部11が受信した映像コンテンツに基づいて、フィンガープリントを生成する。また、フィンガープリント生成部110Aは、表示位置制御部45を備えている。
表示位置制御部45は、実施の形態1で説明したサーバ装置20が備える表示位置制御部40と実質的に同じ動作をする。表示位置制御部45は、受信した映像コンテンツを映像出力部14が表示画面に表示する際に、付加情報を表示する位置を制御する制御回路である。
フィンガープリント取得部120は、サーバ装置20AのフィンガープリントDB23からフィンガープリントを取得する。フィンガープリント取得部120が取得するフィンガープリントは、フィンガープリントDB23に蓄積されたフィンガープリントのうち、画像認識部100Aで画像認識処理を行う時点で放送局3から放送されている映像コンテンツを含む所定数の映像コンテンツのフィンガープリントである。
照合部130は、実施の形態1で説明したサーバ装置20が備える照合部25と実質的に同じ動作をする。照合部130は、フィンガープリント生成部110Aが生成したフィンガープリントを、フィンガープリント取得部120がサーバ装置20Aから取得したフィンガープリントと照合する。
サーバ装置20Aは、コンテンツ受信部21と、フィンガープリント生成部22Aと、フィンガープリントDB23と、を備える。
フィンガープリント生成部22Aは、受信した映像コンテンツに基づいて、映像コンテンツ毎にフィンガープリントを生成する。フィンガープリント生成部22Aは、表示位置制御部を備えていない。この点で、フィンガープリント生成部22Aは、実施の形態1におけるフィンガープリント生成部22と異なる。
[2−2.動作]
図17は、実施の形態1におけるコンテンツ認識処理の一例を示すフローチャートである。
まず、映像受信部11は、放送局3から送信される複数のフレームを含む映像コンテンツを受信する(ステップS801)。
次に、フィンガープリント生成部110Aは、ステップS801で映像受信部11が受信した映像コンテンツの複数のフレームに関して、フィンガープリントを生成する(ステップS802)。
次に、表示位置制御部45は、重畳情報を算出する(ステップS803)。
表示位置制御部45は、ステップS801で映像受信部11が受信した映像コンテンツが付加情報と共に表示画面に表示される場合に、その付加情報が映像コンテンツ上のどこに表示されるか、また、どの期間に表示されるか、を算出する。この付加情報は、ステップS801で受信された映像コンテンツに関してステップS802で生成されたフィンガープリントに、付加情報DB31において対応付けられた付加情報である。なお、映像コンテンツ上でその付加情報が表示される領域が「重畳領域」であり、表示される期間が「重畳期間」である。
次に、フィンガープリント生成部110Aは、ステップS802で生成されたフィンガープリントおよびステップS803で生成された重畳領域情報を、受信装置10Aが備える記憶装置(図示せず)に保持する(ステップS804)。
次に、フィンガープリント取得部120は、サーバ装置20Aで生成されたフィンガープリントをサーバ装置20Aから受信するのを待つ(ステップS805)。ここで、フィンガープリント取得部120が受信を待つフィンガープリントは、サーバ装置20Aのフィンガープリント生成部22Aが、映像受信部11が受信した映像コンテンツと同じ映像コンテンツから生成したフィンガープリントである。
ステップS805においてフィンガープリント取得部120がフィンガープリントを受信すると(ステップS805のYes)、処理はステップS806へ進む。一方、ステップS805においてフィンガープリント取得部120がフィンガープリントを受信しなければ(ステップS805のNo)、処理はステップS801に戻り、映像受信部11は、映像コンテンツを新たに受信する。
照合部130は、ステップS802でフィンガープリント生成部110Aが生成したフィンガープリントを、ステップS805でサーバ装置20Aから受信したフィンガープリントと照合する(ステップS806)。
次に、照合部130は、ステップS806での照合の結果、照合した2つのフィンガープリントが一致するか否かを判定する(ステップS807)。
照合部130は、ステップS802でフィンガープリント生成部110Aが生成したフィンガープリントと、ステップS805でサーバ装置20Aから受信したフィンガープリントとが一致するか否かを判定する。
ステップS807において、2つのフィンガープリントは互いに一致すると照合部130が判定すると(ステップS807のYes)、処理はステップS808に進む。一方、2つのフィンガープリントは互いに一致しないと照合部130が判定すれば(ステップS807のNo)、処理はステップS801に戻り、映像受信部11は、映像コンテンツを新たに受信する。
次に、画像認識部100Aは、映像コンテンツの認識が完了したか否かを判定する(ステップS808)。
画像認識部100Aは、映像コンテンツに含まれる複数のフレームのそれぞれについて、画像認識の結果を示す情報と重畳領域情報とが得られたか否かを判定する。そして、全てのフレームについて画像認識の結果を示す情報と重畳領域情報とが得られたと判定された場合、コンテンツ認識処理を終了する(ステップS808のYes)。一方、画像認識の結果を示す情報と重畳領域情報とが未だ得られていないフレームがあると判定された場合(ステップS808のNo)、処理はステップS801に戻り、映像受信部11は、映像コンテンツを新たに受信する。
[2−3.効果等]
以上のように、本実施の形態における受信装置10Aは、複数のフレームのそれぞれにおいて、ユーザによる注目度が相対的に低いと推定される非注目領域を特定する。そして、複数のフレームの各非注目領域に共通に含まれる位置を、付加情報を表示する位置とする。
これにより、付加情報は、表示画面において注目度が高いと推定される注目領域を除く位置に重畳されるので、ユーザが映像コンテンツを視聴するときに、付加情報が視聴の障害となることを回避することができる。
本実施の形態によれば、受信装置10Aが付加情報の表示位置の算出処理を行う。そのため、受信装置10Aの構成や設置環境に適合した処理を行うことができる。
[3.まとめ]
以上のように、本開示における表示制御装置は、フィンガープリントを用いて映像コンテンツに対応付けられる付加情報を、映像コンテンツと共に表示画面に表示するための装置である。この表示制御装置は、領域特定部と、注目領域推定部と、位置決定部と、を備える。領域特定部は、映像コンテンツに含まれる複数のフレームのそれぞれにおいて、第一領域と、当該フレーム内の第一領域を除く領域に含まれる第二領域と、を特定する。注目領域推定部は、複数のフレームのそれぞれにおいて、第一領域と第二領域との位置関係に基づいて、第一領域と第二領域とのうち、いずれか一方を注目領域とし、他方を非注目領域とする。位置決定部は、複数のフレームのそれぞれの非注目領域に共通に含まれる位置を、付加情報を表示する位置とする。
なお、サーバ装置20、受信装置10Aは、それぞれが表示制御装置の一例である。領域特定部41、領域特定部52、表示位置制御部45は、それぞれが領域特定部の一例である。包含判定部42、注目領域推定部53、表示位置制御部45は、それぞれが注目領域推定部の一例である。重畳領域決定部43、位置決定部54、表示位置制御部45は、それぞれが位置決定部の一例である。動的領域は第一領域の一例であり、静的領域は第二領域の一例である。包含関係にある第一領域と第二領域とのうち、包含される方の領域は注目領域の一例であり、包含する方の領域は非注目領域の一例である。静的領域1401、動的領域1411は、それぞれが注目領域の一例であり、動的領域1402、静的領域1412は、それぞれが非注目領域の一例である。
本開示に示す表示制御装置によれば、複数のフレームのそれぞれにおいて、ユーザによる注目度が相対的に低いと推定される領域に、付加情報を表示することができる。これにより、付加情報は、表示画面において注目度が高いと推定される注目領域を除く位置に重畳されるので、ユーザが映像コンテンツを視聴するときに、付加情報が視聴の障害となることを回避することができる。
また、本開示に示す表示制御装置によれば、複数のフレームのそれぞれの非注目領域に共通に含まれる位置を、付加情報を表示する位置とする。したがって、付加情報が頻繁に表示画面内を移動する、といったことが防止され、ユーザが映像コンテンツを視聴するときに、付加情報が視聴の障害となることを回避することができる。
また、その表示制御装置において、注目領域推定部は、複数のフレームのそれぞれにおいて、第一領域と第二領域とのいずれか一方が他方を包含する位置関係にある場合に、包含する方を非注目領域とし、包含される方を注目領域としてもよい。
この場合、表示制御装置は、例えば、複数のフレームのそれぞれにおいて第二領域の周囲の少なくとも一部を第一領域が取り囲んでいれば、ユーザは第二領域に注目していると推定する。すなわち、表示制御装置は、第一領域は、ユーザによる注目度が相対的に低い領域である、と推定して、第一領域内に付加情報を表示する位置を決定する。これにより、表示制御装置は、注目領域と非注目領域とを精度良く推定することができ、映像コンテンツ上のより適切な位置に付加情報を表示することができる。
また、その表示制御装置において、位置決定部は、付加情報を重畳する複数のフレームが表示画面に表示される期間が、所定の時間以上のときに、付加情報を表示する位置を示す情報を生成してもよい。
この場合、表示制御装置は、付加情報を重畳する対象となる複数のフレームが表示画面に表示される期間が短い場合には付加情報を表示しない、という判断を行うことが可能になる。これにより、表示期間が短くユーザに視認されにくい付加情報を表示画面に表示しないようにすることができる。
また、その表示制御装置において、位置決定部は、付加情報を表示する位置の領域が所定の面積以上のときに、付加情報を表示する位置を示す情報を生成してもよい。
この場合、表示制御装置は、付加情報を重畳する領域が確保される場合のみ、付加情報を表示画面に表示する、という判断を行うことが可能になる。したがって、付加情報が注目領域に重なって表示されることを防止することができる。
また、その表示制御装置において、領域特定部は、時間的に隣接する2つのフレーム間で画像の変化を検出し、画像の変化が所定値より大きい領域を動的領域とし、画像の変化が所定値より小さい領域を静的領域とし、静的領域および動的領域の一方を第一領域とし、他方を第二領域としてもよい。
また、本開示における表示制御方法は、フィンガープリントを用いて映像コンテンツに対応付けられる付加情報を、映像コンテンツと共に表示画面に表示するための表示制御方法である。この表示制御方法では、映像コンテンツに含まれる複数のフレームのそれぞれにおいて、第一領域と、当該フレーム内の第一領域を除く領域に含まれる第二領域と、を特定し、複数のフレームのそれぞれにおいて、第一領域と第二領域との位置関係に基づいて、第一領域と第二領域とのうち、いずれか一方を注目領域とするとともに他方を非注目領域とし、複数のフレームのそれぞれの非注目領域に共通に含まれる位置を、付加情報を表示する位置とする。
これにより、上記の表示制御装置と同様の効果を得ることができる。
(他の実施の形態)
以上のように、本出願において開示する技術の例示として、実施の形態1、2を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略等を行った実施の形態にも適用できる。また、上記実施の形態1、2で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
そこで、以下、他の実施の形態を例示する。
図18は、実施の形態における表示制御装置50の構成の変形例を示すブロック図である。
図18に示すように、表示制御装置50は、表示位置制御部51を備える。
表示位置制御部51は、領域特定部52と、注目領域推定部53と、位置決定部54と、を備える。領域特定部52は、映像コンテンツに含まれる複数のフレームのそれぞれにおいて、第一領域と、そのフレーム内の第一領域を除く領域に含まれる第二領域と、を特定する。注目領域推定部53は、複数のフレームのそれぞれにおいて、第一領域と第二領域との位置関係に基づいて、第一領域と第二領域とのうち、いずれか一方を注目領域に決定し、他方を非注目領域に決定する。位置決定部54は、複数のフレームのそれぞれにおける非注目領域に共通に含まれる位置を、付加情報を表示する位置に決定する。
これにより、表示制御装置50は、映像コンテンツ上のより適切な位置に付加情報を重畳し、付加情報を重畳した映像コンテンツを表示画面に表示することができる。
実施の形態1では、サーバ装置20が実質的にリアルタイムで映像コンテンツの認識を行う動作例を示したが、本開示は何らこの動作例に限定されない。例えば、受信装置10が記録媒体に保存された映像コンテンツ(例えば、録画された番組コンテンツ)を読み出して表示する場合にも、サーバ装置20は、上述した実施の形態1と同様に動作して、映像コンテンツを認識することができる。
実施の形態1に示すサーバ装置20は、例えば、広告コンテンツの認識に利用することができる。あるいは、ドラマやバラエティ等の番組コンテンツの認識に利用することもできる。このとき、受信装置10は、付加情報サーバ装置30から、画像認識の結果に基づく付加情報として、例えば、出演者自身のプロフィール、出演者が身につけている衣服、出演者が訪れた場所、等に関する情報を取得し、取得したそれらの情報を表示中の映像に重畳して表示させてもよい。
サーバ装置20は、広告コンテンツだけでなく、番組コンテンツ等の映像コンテンツを受信し、その映像コンテンツに対応するフィンガープリントを生成してもよい。そして、フィンガープリントDB23は、広告コンテンツだけでなく、番組コンテンツに対応するフィンガープリントを、コンテンツIDに対応付けて保持してもよい。
なお、本開示は、装置として実現できるだけでなく、その装置を構成する処理手段をステップとする方法として実現してもよい。また、それらのステップをコンピュータに実行させるプログラムとして実現してもよい。また、そのプログラムを記録したコンピュータ読み取り可能なCD−ROM等の記録媒体として実現してもよい。または、それらを、集積回路として実現したり、そのプログラムを示す情報、データまたは信号として実現したりすることもできる。そして、それらプログラム、情報、データおよび信号は、インターネット等の通信ネットワークを介して配信してもよい。
また、実施の形態において、各処理(各機能)は、単一の装置(システム)によって集中処理されることによって実現されてもよく、あるいは、複数の装置によって分散処理されることによって実現されてもよい。
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
本開示は、映像コンテンツ上のより適切な位置に付加情報を表示する表示制御装置に適用可能である。具体的には、テレビ等の映像受信装置、またはサーバ装置等に、本開示は適用可能である。
1,1A コンテンツ認識システム
3 放送局
4 STB
10,10A 受信装置
11 映像受信部
11a 映像入力部
11b 第1外部入力部
11c 第2外部入力部
12 映像抽出部
13 付加情報取得部
14 映像出力部
15 制御部
16 操作信号受信部
17 HTTP送受信部
18 付加情報格納部
19 付加情報表示制御部
20,20A サーバ装置
21 コンテンツ受信部
22,22A,110,110A フィンガープリント生成部
23 フィンガープリントDB
24 表示位置情報
25,130 照合部
30 付加情報サーバ装置
31 付加情報DB
40,45,51 表示位置制御部
41,52 領域特定部
42 包含判定部
43 重畳領域決定部
50 表示制御装置
53 注目領域推定部
54 位置決定部
100,100A 画像認識部
120 フィンガープリント取得部
140 出力部
1401,1412 静的領域
1402,1411 動的領域
1403,1413 付加情報

Claims (5)

  1. フィンガープリントを用いて映像コンテンツに対応付けられる付加情報を、前記映像コンテンツと共に表示画面に表示するための表示制御装置であって、
    前記映像コンテンツに含まれる複数のフレームのそれぞれにおいて、第一領域と、当該フレーム内の前記第一領域を除く領域に含まれる第二領域と、を特定する領域特定部と、
    前記複数のフレームのそれぞれにおいて、前記第一領域と前記第二領域との位置関係に基づいて、前記第一領域と前記第二領域とのうち、いずれか一方を注目領域とし、他方を非注目領域とする注目領域推定部と、
    前記複数のフレームのそれぞれの前記非注目領域に共通に含まれる位置を、前記付加情報を表示する位置とする位置決定部と、を備える、
    表示制御装置。
  2. 前記注目領域推定部は、
    前記複数のフレームのそれぞれにおいて、前記第一領域と前記第二領域とのいずれか一方が他方を包含する位置関係にある場合に、包含する方を前記非注目領域とし、包含される方を前記注目領域とする、
    請求項1に記載の表示制御装置。
  3. 前記位置決定部は、前記付加情報を重畳する前記複数のフレームが前記表示画面に表示される期間が、所定の時間以上のときに、前記付加情報を表示する前記位置を示す情報を生成する、
    請求項1に記載の表示制御装置。
  4. 前記位置決定部は、前記付加情報を表示する前記位置の領域が所定の面積以上のときに、前記付加情報を表示する前記位置を示す情報を生成する、
    請求項1に記載の表示制御装置。
  5. 前記領域特定部は、
    時間的に隣接する2つのフレーム間で画像の変化を検出し、前記画像の変化が所定値より大きい領域を動的領域とし、前記画像の変化が前記所定値より小さい領域を静的領域とし、前記静的領域および前記動的領域の一方を前記第一領域とし、他方を前記第二領域とする、
    請求項1に記載の表示制御装置。
JP2016544950A 2014-08-26 2015-08-21 表示制御装置、および表示制御方法 Active JP6424339B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014172098 2014-08-26
JP2014172098 2014-08-26
PCT/JP2015/004187 WO2016031203A1 (ja) 2014-08-26 2015-08-21 表示制御装置、および表示制御方法

Publications (2)

Publication Number Publication Date
JPWO2016031203A1 JPWO2016031203A1 (ja) 2017-06-15
JP6424339B2 true JP6424339B2 (ja) 2018-11-21

Family

ID=55399119

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016544950A Active JP6424339B2 (ja) 2014-08-26 2015-08-21 表示制御装置、および表示制御方法

Country Status (5)

Country Link
US (1) US9883232B2 (ja)
EP (1) EP3188488B1 (ja)
JP (1) JP6424339B2 (ja)
CN (1) CN106233742B (ja)
WO (1) WO2016031203A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10063917B2 (en) * 2016-03-16 2018-08-28 Sorenson Media Inc. Fingerprint layouts for content fingerprinting
US10447537B2 (en) * 2017-07-11 2019-10-15 Roku, Inc. Automatic determination of display device functionality
CN107450876A (zh) * 2017-08-11 2017-12-08 河南羲和网络科技股份有限公司 一种同屏信息同步方法
CN112686981B (zh) * 2019-10-17 2024-04-12 华为终端有限公司 画面渲染方法、装置、电子设备及存储介质
CN115280402B (zh) * 2020-03-19 2024-03-08 夏普Nec显示器解决方案株式会社 显示控制系统、显示控制方法及程序

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09185720A (ja) * 1995-12-28 1997-07-15 Canon Inc 画像抽出装置
WO2004057439A2 (en) * 2002-05-31 2004-07-08 University Of Utah Research Foundation System and method for visual annotation and knowledge representation
JP4552426B2 (ja) * 2003-11-28 2010-09-29 カシオ計算機株式会社 表示制御装置および表示制御処理のプログラム
KR100886337B1 (ko) * 2006-11-23 2009-03-02 삼성전자주식회사 이미지 내 선택 영역을 일괄 저장하는 장치 및 이미지정보의 문서화 장치
JP4746568B2 (ja) * 2007-01-16 2011-08-10 ヤフー株式会社 情報提供装置、情報提供方法、及びプログラム
US8229227B2 (en) 2007-06-18 2012-07-24 Zeitera, Llc Methods and apparatus for providing a scalable identification of digital video sequences
US8195689B2 (en) * 2009-06-10 2012-06-05 Zeitera, Llc Media fingerprinting and identification system
KR101520069B1 (ko) * 2008-12-26 2015-05-21 삼성전자 주식회사 관심 영역 기반 영상 처리 장치 및 방법
JP5434265B2 (ja) * 2009-05-22 2014-03-05 三菱電機株式会社 領域分類装置、画質改善装置、映像表示装置、およびそれらの方法
JP2013125191A (ja) * 2011-12-15 2013-06-24 Canon Inc 映像表示装置、映像表示方法及びプログラム
JP5867133B2 (ja) 2012-02-10 2016-02-24 富士通株式会社 画像処理装置、画像処理方法及び画像処理プログラム
WO2014013689A1 (ja) * 2012-07-20 2014-01-23 パナソニック株式会社 コメント付き動画像生成装置およびコメント付き動画像生成方法
TW201419846A (zh) * 2012-11-09 2014-05-16 Inst Information Industry 動態解析度調節方法系統與動態解析度調節方法
JP2017510167A (ja) * 2014-02-07 2017-04-06 ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー メディアにおける広告および他の挿入物の位置およびタイミングを判定するスキーム

Also Published As

Publication number Publication date
CN106233742B (zh) 2019-07-09
JPWO2016031203A1 (ja) 2017-06-15
EP3188488B1 (en) 2021-07-21
US20170188090A1 (en) 2017-06-29
CN106233742A (zh) 2016-12-14
EP3188488A4 (en) 2017-08-30
EP3188488A1 (en) 2017-07-05
US9883232B2 (en) 2018-01-30
WO2016031203A1 (ja) 2016-03-03

Similar Documents

Publication Publication Date Title
JP6471359B2 (ja) 認識データ生成装置、画像認識装置および認識データ生成方法
JP6424339B2 (ja) 表示制御装置、および表示制御方法
KR101731346B1 (ko) 멀티미디어 장치의 디스플레이화면 제공 방법 및 그에 따른 멀티미디어 장치
JP6432047B2 (ja) コンテンツ認識装置およびコンテンツ認識方法
EP2453386B1 (en) Multimedia device, multiple image sensors having different types and method for controlling the same
US10873788B2 (en) Detection of common media segments
JP6352126B2 (ja) 広告表示装置、広告表示方法、及び広告表示プログラム
CN103946871A (zh) 图像处理装置、图像识别装置、图像识别方法以及程序
WO2014030405A1 (ja) 表示装置、表示方法、テレビジョン受信機及び表示制御装置
US9191607B2 (en) Information display device, information display method, and information display system
KR20180025754A (ko) 디스플레이장치 및 그 제어방법
EP3043571A1 (en) Video reception device, video recognition method, and additional information display system
JP2012080354A (ja) 検出装置及び検出方法
KR101519019B1 (ko) 감성광고 기반의 플래시 기능을 구비한 스마트 tv
CN105872591A (zh) 图标覆盖方法及装置
KR101453793B1 (ko) 스마트 tv 기반의 사용자 맞춤형 감성광고 방법
KR101453788B1 (ko) 대상물 인식을 이용한 스마트 tv 기반의 감성광고 방법
EP4164234A1 (en) Image display device and operation method thereof
US11501534B2 (en) Information processing apparatus, information processing system, information processing method, and storage medium
KR101453884B1 (ko) 사용자 맞춤형 감성광고 기능을 구비한 스마트 tv
KR20140075655A (ko) 대상물 인식을 이용한 스마트 tv 기반의 감성광고 방법
KR101506717B1 (ko) 대상물 인식 감성광고 기능을 구비한 스마트 tv
KR20150044991A (ko) 스마트 tv 기반의 감성광고 방법
JP2013219447A (ja) コンテンツ表示装置、コンテンツ受信装置、プログラム及びコンテンツ再生装置
JP2019101934A (ja) 速度推定装置、速度推定方法、及び速度推定プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180924

R151 Written notification of patent or utility model registration

Ref document number: 6424339

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151