JP6471359B2 - 認識データ生成装置、画像認識装置および認識データ生成方法 - Google Patents

認識データ生成装置、画像認識装置および認識データ生成方法 Download PDF

Info

Publication number
JP6471359B2
JP6471359B2 JP2016534112A JP2016534112A JP6471359B2 JP 6471359 B2 JP6471359 B2 JP 6471359B2 JP 2016534112 A JP2016534112 A JP 2016534112A JP 2016534112 A JP2016534112 A JP 2016534112A JP 6471359 B2 JP6471359 B2 JP 6471359B2
Authority
JP
Japan
Prior art keywords
image
fingerprint
unit
static
dynamic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016534112A
Other languages
English (en)
Other versions
JPWO2016009637A1 (ja
Inventor
博史 薮
博史 薮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2016009637A1 publication Critical patent/JPWO2016009637A1/ja
Application granted granted Critical
Publication of JP6471359B2 publication Critical patent/JP6471359B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/48Matching video sequences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/8133Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • H04N21/8358Generation of protective data, e.g. certificates involving watermark
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8453Structuring of content, e.g. decomposing content into time segments by locking or enabling a set of features, e.g. optional functionalities in an executable program

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Image Analysis (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Collating Specific Patterns (AREA)

Description

本開示は、映像コンテンツを認識するための認識データ生成装置、画像認識装置および認識データ生成方法に関する。
クラウドを介してコンテンツを認識する技術を利用する通信サービスが提案されている。この技術を用いれば、入力された映像を認識し、この映像に関連する付加情報を通信ネットワークを介して取得して、取得した付加情報を映像コンテンツと共に表示画面に表示するテレビジョン受信装置(以下、「テレビ」と略記する)を実現することができる。入力された映像を認識する技術は、「ACR(Automatic Content Recognition)」と呼ばれている。
ACRに、フィンガープリント技術が用いられることがある。特許文献1および特許文献2は、フィンガープリント技術を開示する。この技術では、映像内の画像フレームに映る顔等の輪郭を検知し、検知した輪郭に基づいてフィンガープリントを生成し、生成したフィンガープリントをデータベースに蓄積されたデータと照合する。
米国特許出願公開第2010/0318515号明細書 米国特許出願公開第2008/0310731号明細書
本開示は、画像認識の精度を上げつつ画像認識に係る処理を低減できる認識データ生成装置、画像認識装置および認識データ生成方法を提供する。
本開示における認識データ生成装置は、画像取得部と、データ生成部と、を備える。画像取得部は、映像コンテンツを構成するフレームシーケンスに含まれる複数の画像フレームを取得する。データ生成部は、画像取得部によって取得された複数の画像フレームのフレーム間における画像の変化に基づいて、映像コンテンツを表す認識データであって、映像コンテンツを認識する際のフィンガープリントとして用いられる認識データ、を生成する。
本開示における画像認識装置は、上述の認識データ生成装置と、取得部と、照合部と、を備える。取得部は、複数の映像コンテンツのそれぞれを表す複数の認識データを取得する。照合部は、データ生成部で生成された認識データを、取得部によって取得された複数の認識データと照合する。
本開示における認識データ生成方法は、映像コンテンツを構成するフレームシーケンスに含まれる複数の画像フレームを取得する画像取得ステップと、取得した複数の画像フレームのフレーム間における画像の変化に基づいて、映像コンテンツを表す認識データであって、映像コンテンツを認識する際のフィンガープリントとして用いられる認識データを生成する生成ステップと、を含む。
本開示における認識データ生成装置は、画像認識の精度を上げつつ、画像認識に係る処理を低減できる。
図1は、実施の形態1におけるコンテンツ認識システムの一構成例を示すブロック図である。 図2は、実施の形態1における受信装置の一構成例を示すブロック図である。 図3は、実施の形態1における映像抽出部で抽出される各フレームレートの画像フレームと静的領域との関係の一例を模式的に示す図である。 図4は、実施の形態1における映像抽出部で抽出される各フレームレートの画像フレームと動的領域との関係の一例を模式的に示す図である。 図5は、実施の形態1におけるフィンガープリント生成部の一構成例を示すブロック図である。 図6は、実施の形態1におけるコンテンツ認識システムが備える受信装置の一動作例を示すフローチャートである。 図7は、実施の形態1における画像認識の処理の一例を示すフローチャートである。 図8は、実施の形態1における認識データを生成するときの処理の一例を示すフローチャートである。 図9は、実施の形態1における認識データの生成処理過程における画像フレームの変化の一例を模式的に示す図である。 図10は、実施の形態1における画像フレーム間の変化量の算出処理の一例を示すフローチャートである。 図11は、実施の形態1における画像フレームのダウンスケール変換処理の一例を模式的に示す図である。 図12は、実施の形態1における画像フレーム間の変化量の算出処理の一例を模式的に示す図である。 図13は、実施の形態1における静的フィンガープリントの生成処理の一例を示すフローチャートである。 図14は、実施の形態1における画像フレーム間の変化量に基づいて生成される静的フィンガープリントの一例を模式的に示す図である。 図15は、実施の形態1における動的フィンガープリントの生成処理の一例を示すフローチャートである。 図16Aは、実施の形態1における動的フィンガープリントが生成されない画像フレームの一例を模式的に示す図である。 図16Bは、実施の形態1における画像フレーム間の変化量に基づいて生成される動的フィンガープリントの一例を模式的に示す図である。 図17は、実施の形態1における認識データの照合処理の一例を示すフローチャートである。 図18は、実施の形態1における静的フィンガープリントの照合処理の一例を模式的に示す図である。 図19は、実施の形態1における動的フィンガープリントの照合処理の一例を模式的に示す図である。 図20は、実施の形態1における映像コンテンツの認識条件の一例を示す図である。 図21は、実施の形態1における映像コンテンツの照合処理の一例を模式的に示す図である。
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。ただし、必要以上に詳細な説明は省略する場合がある。例えば、すでによく知られた事項の詳細説明、および実質的に同一の構成に対する重複説明等を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
また、各図は、模式図であり、必ずしも厳密に図示されたものではない。また、各図において、同じ構成要素については同じ符号を付している。
(実施の形態1)
[1−1.コンテンツ認識システム]
まず、本実施の形態におけるコンテンツ認識システムについて、図1を用いて説明する。
図1は、実施の形態1におけるコンテンツ認識システム1の一構成例を示すブロック図である。
図1に示すように、コンテンツ認識システム1は、広告主2と、放送局3と、STB(Set Top Box)4と、受信装置10と、サーバ装置20と、広告サーバ装置30と、を備える。
広告主2は、コマーシャルメッセージ(CM)等の広告用の映像コンテンツ(以下、「広告コンテンツ」とも記載する)を生成するように構成された生成装置である。広告主2は、広告コンテンツ(図1には、「広告」と記す)を放送局3およびサーバ装置20に送信する。広告主2は、例えばインターネット等の通信ネットワーク105を介して、放送局3およびサーバ装置20に広告コンテンツを送信する。
放送局3は、映像コンテンツを映像信号に変換してテレビジョン放送信号(以下、単に「放送信号」とも記す)として放送するように構成された送信装置である。映像コンテンツは、例えば、無線または有線の放送または通信によって放送される放送コンテンツであり、テレビ番組等の番組コンテンツと、CM等の広告用の映像コンテンツ(以下、「広告コンテンツ」と記す)と、が含まれる。番組コンテンツと広告コンテンツとは、時間の経過に伴って互いに切り替わる。
STB4は、放送局3から放送される放送信号を受信し、受信した放送信号に基づく映像信号等を出力するように構成されたチューナ・デコーダである。STB4は、放送局3から放送された放送信号の中から、ユーザの指示に基づいて選局された放送チャンネルを受信する。そして、受信した放送チャンネルの映像コンテンツをデコードし、デコードした映像コンテンツを、通信路を介して受信装置10に出力する。なお、通信路は、例えば、HDMI(登録商標)(High−Definition Multimedia Interface)、等である。
受信装置10は、例えばテレビ等の映像受信装置である。受信装置10は、通信ネットワーク105を介してサーバ装置20および広告サーバ装置30と接続されている。受信装置10は、受信した映像コンテンツのフレームシーケンスから複数の画像フレームを抽出し、抽出した画像フレームに対して画像認識を行うように構成されている。受信装置10は、サーバ装置20から、画像認識に用いる複数の認識データを予め取得して保持している。受信装置10は、画像認識の結果に基づいて広告サーバ装置30から付加情報を取得し、取得した付加情報を、映像コンテンツと共に実質的にリアルタイムで表示画面に表示する。
なお、画像フレームは、映像コンテンツを構成するピクチャである。画像フレームには、プログレッシブ方式におけるフレームや、インターレース方式におけるフィールド、等が含まれる。
サーバ装置20は、例えば、Webサーバである。サーバ装置20は、広告主2から送信された広告コンテンツを取得し、取得した広告コンテンツを解析することで、その広告コンテンツに対応する認識データを生成するように構成されている。認識データは、広告コンテンツを表すデータ(ハッシュ値)であって、広告コンテンツの認識を行う際にフィンガープリントとして用いられるデータである。具体的には、認識データは、画像フレーム間の画像の変化に基づいて生成されるフィンガープリントである。サーバ装置20は、例えば、広告主2が生成する全ての広告コンテンツを取得し、それら全ての広告コンテンツのそれぞれに対応するフィンガープリントを生成し、生成したフィンガープリントを記憶部に蓄積する。
広告サーバ装置30は、例えば、Webサーバである。広告サーバ装置30は、受信装置10で行われる画像認識の結果に関連する付加情報を、受信装置10に配信するように構成されている。広告サーバ装置30は、例えば、様々な商品の広告を保持して配信する広告配信サーバである。
なお、本実施の形態では、サーバ装置20と広告サーバ装置30とは、それぞれが互いに独立したWebサーバであるものとするが、1台のWebサーバにサーバ装置20および広告サーバ装置30が含まれていてもよい。
以下、受信装置10、サーバ装置20および広告サーバ装置30の各構成について、説明する。
[1−1−1.受信装置]
まず、本実施の形態における受信装置10について、図1を参照しながら図2を用いて説明する。
図2は、実施の形態1における受信装置10の一構成例を示すブロック図である。なお、図2は、受信装置10の主要なハードウェア構成を示している。
図1に示すように、受信装置10は、映像受信部11と、映像抽出部12と、付加情報取得部13と、映像出力部14と、画像認識部100と、を備える。より詳細には、図2に示すように、受信装置10は、さらに、制御部15と、操作信号受信部16と、HTTP(Hyper Text Transfer Protocol)送受信部17と、を備える。
制御部15は、受信装置10が備える各構成要素を制御するように構成された処理部である。制御部15は、不揮発性メモリ、CPU(Central Processing Unit)、揮発性メモリ、を備えている。不揮発性メモリは、例えばROM(Read Only Memory)等であり、プログラム(アプリケーションプログラム、等)を格納している。CPUは、そのプログラムを実行するように構成されている。揮発性メモリは、例えばRAM(Random Access Memory)等であり、CPUが動作しているときの一時的な作業領域として使用される。
操作信号受信部16は、操作部(図示せず)から出力される操作信号を受信するように構成された回路である。操作信号は、受信装置10を操作するためにユーザが操作部(例えば、リモートコントローラ。以下、「リモコン」と記す)を操作することで、その操作部から出力される信号である。なお、操作部が、ジャイロセンサを有するリモコンである場合、操作信号受信部16は、そのリモコンから出力されるリモコン自身の物理的な動きに関する情報(ユーザがリモコンを、振る、傾ける、向きを変える、等したときの動きを示す信号)を受信するように構成されていてもよい。
HTTP送受信部17は、通信ネットワーク105を介してサーバ装置20および広告サーバ装置30と通信するように構成されたインターフェイスである。HTTP送受信部17は、例えば、IEEE802.3の規格に適合する有線LAN(Local Area Network)用の通信アダプタである。
HTTP送受信部17は、サーバ装置20から通信ネットワーク105を介して送信されるフィンガープリント、等を取得する。取得したフィンガープリントは、制御部15を介して画像認識部100に出力される。また、HTTP送受信部17は、例えば、広告サーバ装置30から通信ネットワーク105を介して送信される付加情報を取得する。取得した付加情報は、制御部15を介して付加情報格納部18に格納される。
映像受信部11は、映像コンテンツを受信するように構成された受信回路およびデコーダ(図示せず)、を有する。映像受信部11は、例えば、操作信号受信部16で受信された操作信号に基づき、受信する放送チャンネルの選局や外部から入力される信号の選択、等を行う。映像受信部11が受信する映像コンテンツには、広告コンテンツが含まれる。
図2に示すように、映像受信部11は、映像入力部11aと、第1外部入力部11bと、第2外部入力部11cと、を備える。
映像入力部11aは、例えばアンテナ(図示せず)で受信される放送信号(図2には、「TV放送信号」と記す)等の、外部から送信されてくる映像信号を入力するように構成された回路である。
第1外部入力部11bおよび第2外部入力部11cは、STB4および映像信号記録再生装置(図示せず)等の外部機器から送信されてくる映像信号(図2には、「外部入力信号」と記す)を入力するように構成されたインターフェイスである。第1外部入力部11bは、例えば、HDMI(登録商標)端子であり、HDMI(登録商標)に適合したケーブルによってSTB4に接続されている。
映像抽出部12は、映像受信部11によって受信された広告コンテンツを構成するフレームシーケンスから、所定のフレームレートで複数の画像フレームを抽出する。例えば、広告コンテンツのフレームレートが60fps(Frames Per Second)である場合に、映像抽出部12は、30fps、または20fps、または15fps、といったフレームレートで複数の画像フレームを抽出する。なお、後段の画像認識部100が60fpsの映像を処理可能な処理能力を持っていれば、映像抽出部12は、広告コンテンツのフレームシーケンスを構成する全ての画像フレームを抽出してもよい。
映像出力部14は、映像受信部11によって受信された映像コンテンツを表示画面に出力するように構成された表示制御回路である。表示画面は、例えば、液晶表示装置や有機EL(Electro Luminescence)等のディスプレイである。
付加情報取得部13は、情報を取得する回路および通信インターフェイスとして動作する。付加情報取得部13は、画像認識部100による画像認識の結果に基づいて、広告サーバ装置30から付加情報を取得するように構成されている。付加情報取得部13は、付加情報格納部18と、付加情報表示制御部19と、を備える。
付加情報格納部18は、付加情報を格納するように構成された記憶装置である。付加情報格納部18は、例えば、フラッシュメモリ等の不揮発性記憶素子である。付加情報格納部18は、広告サーバ装置30から取得した付加情報に加え、EPG(Electronic Program Guide)等の番組メタ情報を保持してもよい。
付加情報表示制御部19は、広告サーバ装置30から取得した付加情報を、映像受信部11で受信した映像コンテンツ(例えば、広告コンテンツ)に重畳するように構成されている。付加情報表示制御部19は、広告コンテンツに含まれる各画像フレームに付加情報を重畳して重畳画像を生成し、生成した重畳画像を映像出力部14に出力する。映像出力部14が重畳画像を表示画面に出力することで、表示画面には、付加情報が重畳された広告コンテンツが表示される。
画像認識部100の詳細は、後述する。
[1−1−2.サーバ装置]
次に、サーバ装置20について説明する。
サーバ装置20は、広告主2から送信される広告コンテンツを取得し、取得した広告コンテンツに対応する認識データを生成する。
図1に示すように、サーバ装置20は、コンテンツ受信部21と、フィンガープリントDB(Data Base)22と、フィンガープリント生成部110と、を備える。なお、図2のサーバ装置20には、フィンガープリントDB22のみを示し、コンテンツ受信部21およびフィンガープリント生成部110は省略している。
コンテンツ受信部21は、受信回路およびデコーダを備え、広告主2から送信される広告コンテンツを受信するように構成されている。コンテンツ受信部21は、例えば、広告主2が生成して送信する全ての広告コンテンツを受信する。コンテンツ受信部21は、受信した広告コンテンツを、フィンガープリント生成部110に出力する。
フィンガープリント生成部110は、広告コンテンツ毎にフィンガープリントを生成するように構成されている。フィンガープリント生成部110は、広告コンテンツを構成するフレームシーケンスの、画像フレーム間の変化に基づいて、フィンガープリントを生成する。なお、サーバ装置20が備えるフィンガープリント生成部110は、例えば、受信装置10の画像認識部100が備えるフィンガープリント生成部110と実質的に同じ構成および動作であってもよい。フィンガープリント生成部110の詳細は、図5を用いて後述する。
フィンガープリントDB22は、広告コンテンツ毎に、広告コンテンツを表す情報とフィンガープリントとを互いに対応付けたデータベースである。フィンガープリントDB22では、例えば、複数の広告コンテンツを互いに識別するための識別情報(例えば、コンテンツID(IDentifier))と、フィンガープリントと、が互いに対応付けられている。サーバ装置20は、新たな広告コンテンツがコンテンツ受信部21で受信される毎に、フィンガープリント生成部110で新たなフィンガープリントを生成してフィンガープリントDB22を更新する。
フィンガープリントDB22は、サーバ装置20が備える記憶装置(例えば、HDD(Hard Disk Drive)等)に記憶されている。なお、フィンガープリントDB22は、サーバ装置20の外部に設置された記憶装置に記憶されていてもよい。
サーバ装置20は、通信部(図示せず)を備え、その通信部および通信ネットワーク105を介して、受信装置10と通信することが可能である。例えば、サーバ装置20は、受信装置10から送信される要求(フィンガープリントDB22を求める要求)をその通信部を介して受信し、受信したその要求に応じてフィンガープリントDB22を受信装置10に送信する。なお、サーバ装置20は、フィンガープリントDB22が更新されたときに、フィンガープリントDB22の更新情報を、通信部を介して受信装置10に送信してもよい。
[1−1−3.広告サーバ装置]
次に、広告サーバ装置30について説明する。
広告サーバ装置30は、広告主2から送信される広告コンテンツに関する付加情報を配信するように構成されたWebサーバである。図1に示すように、広告サーバ装置30は、付加情報DB31を備える。
付加情報DB31は、広告コンテンツ毎に、広告コンテンツを表す情報と付加情報とを互いに対応付けたデータベースである。付加情報DB31では、例えば、コンテンツIDと付加情報とが互いに対応付けられている。
付加情報DB31は、広告サーバ装置30が備える記憶装置(例えば、HDD)に記憶されている。なお、付加情報DB31は、広告サーバ装置30の外部に設置された記憶装置に記憶されていてもよい。
付加情報は、例えば、広告コンテンツ内に表示される物(例えば、広告対象の商品、等)の属性を示す情報である。付加情報は、例えば、商品の仕様、販売店(例えば、販売店の住所、URL(Uniform Resource Locator)、電話番号、等)、製造者、使用方法、効能、等の商品に関する情報である。
[1−2.画像認識部]
続いて、本実施の形態における画像認識部100について説明する。
画像認識部100は、画像認識装置の一例であり、映像コンテンツの認識(例えば、ACR)を行うように構成された処理部である。映像コンテンツは、映像抽出部12が抽出する複数の画像フレームを含んでおり、画像認識部100による画像認識の対象である。画像認識部100は、例えば、集積回路等で実現することができる。
図1に示すように、画像認識部100は、フィンガープリント生成部110と、フィンガープリント取得部120と、照合部130と、出力部140と、を備える。なお、図2の画像認識部100には、フィンガープリント生成部110およびフィンガープリント取得部120のみを示し、照合部130および出力部140は省略している。
フィンガープリント生成部110は、認識データ生成回路の一例である。フィンガープリント生成部110は、映像コンテンツを認識する際に用いられる認識データを生成するように構成されている。具体的には、フィンガープリント生成部110は、映像コンテンツを構成するフレームシーケンスに含まれる複数の画像フレームを取得し、取得した画像フレームのフレーム間における画像の変化に基づいて認識データを生成する。認識データは、例えば、フィンガープリントである。フィンガープリント生成部110の詳細は、図5を用いて後述する。
フィンガープリント取得部120は、取得部の一例である。フィンガープリント取得部120は、複数の映像コンテンツのそれぞれに対応した複数の認識データを取得する。具体的には、フィンガープリント取得部120は、複数の映像コンテンツのそれぞれに対応するフィンガープリントをサーバ装置20から取得する。取得された複数のフィンガープリントは、フィンガープリント生成部110で生成された映像コンテンツのフィンガープリントとの照合に使用される。
なお、フィンガープリント取得部120は、記憶部(図示せず)を備えていてもよい。その場合、フィンガープリント取得部120は、複数のフィンガープリントを予めサーバ装置20から取得して記憶部に保持しておくことができる。したがって、照合部130は、フィンガープリント生成部110によってフィンガープリントが生成された後、直ちに、生成されたフィンガープリントの照合を開始することができる。
照合部130は、フィンガープリント生成部110で生成された認識データであるフィンガープリントを、フィンガープリント取得部120によってサーバ装置20から取得され記憶部に格納された複数のフィンガープリントと照合する。
より具体的には、照合部130は、フィンガープリント生成部110で生成されたフィンガープリントに含まれる静的フィンガープリントおよび動的フィンガープリントのそれぞれを、フィンガープリント取得部120によってサーバ装置20から取得された複数の認識データと照合する。そして、照合部130は、サーバ装置20から取得された複数の認識データの中から、静的フィンガープリントまたは動的フィンガープリントに類似する認識データを選定し、選定された認識データに対応する情報を照合結果として出力する。例えば、照合部130は、フィンガープリント生成部110で生成された認識データに含まれる1以上の静的フィンガープリントおよび1以上の動的フィンガープリントのうちの少なくとも2つが類似する認識データを選定し、その認識データに対応する情報を照合結果として出力する。
なお、静的フィンガープリント、動的フィンガープリント、照合部130、の動作の詳細は、後述する。
出力部140は、照合部130から受け取った照合結果に基づいて、映像受信部11が受信した映像コンテンツを示す情報を画像認識の結果として出力する。画像認識の結果は、例えば、映像受信部11が受信した映像コンテンツを示すコンテンツIDである。
なお、照合部130が、フィンガープリント生成部110で生成されたフィンガープリントに類似するフィンガープリントを、フィンガープリント取得部120で取得された複数のフィンガープリントから見つけることができなかった場合、すなわち、映像コンテンツに対応するコンテンツを検出できず画像認識できなかった場合、出力部140は、何も出力しない。あるいは、出力部140は、画像認識できなかったことを示す情報を画像認識の結果として出力してもよい。
[1−3.フィンガープリント生成部]
次に、本実施の形態におけるフィンガープリント生成部110について説明する。
フィンガープリント生成部110は、認識データ生成装置の一例である。フィンガープリント生成部110は、映像コンテンツを構成するフレームシーケンスにおける静的領域および動的領域の少なくとも一方に基づいて、フィンガープリントを生成するように構成されている。フィンガープリント生成部110は、例えば集積回路等で実現することができる。
以下、まず静的領域および動的領域について、図3および図4を用いて説明する。
図2の映像抽出部12は、映像コンテンツを構成するフレームシーケンスから、所定のフレームレートで複数の画像フレームを抽出するように構成されている。このフレームレートは、画像認識部100における処理能力等に基づいて設定される。本実施の形態では、放送局3から放送される映像コンテンツのフレームレートが60fpsであり、映像抽出部12が、30fps、20fps、15fpsの3つのフレームレートで画像フレームを抽出するときの動作例を説明する。なお、映像抽出部12は、複数のフレームレートで画像フレームを抽出するわけではない。図3、図4は、抽出するフレームレートが異なるときの動作例を示しているに過ぎない。図3、図4に示す例では、映像抽出部12は、30fps、または20fps、または15fps、のいずれかのフレームレートで画像フレームを抽出する。
[1−3−1.静的領域]
静的領域とは、2つの画像フレーム間で画像の変化量が、あらかじめ定められた閾値(以下、「第1閾値」と記す)よりも少ない領域のことである。静的領域は、例えば、画像中の背景または動きや変化の少ない被写体が占める領域、等である。静的領域は、画像フレーム間で画像の変化量を算出することにより決定される。
図3は、実施の形態1における映像抽出部12で抽出される各フレームレートの画像フレームと静的領域との関係の一例を模式的に示す図である。
図3に一例として示す放送映像の映像コンテンツは、映像に大きな変化がない同一のシーンが9フレームで構成されている。映像内では、2人の被写体が動いているが、背景は動いていない。
図3に示すように、映像抽出部12が30fps、20fps、15fpsのいずれのフレームレートで画像フレームを抽出したとしても、各フレームレートにおいて決定される静的領域は、互いに類似し、かつ、放送される60fpsの映像コンテンツにおいて決定される静的領域に類似する。
このことから、画像フレームを抽出する際のフレームレートが30fps、20fps、15fpsのいずれであっても、映像抽出部12で抽出される画像フレームにおいて決定される静的領域と、放送される映像コンテンツにおいて決定される静的領域と、を互いに照合することで、映像コンテンツの認識が可能であることが分かる。静的領域は、画像フレームにおいて背景および動きや変化の小さい被写体等が占める領域であり、所定の期間(例えば、数秒間)は画像フレーム内に存在する可能性が高い領域である。したがって、静的領域を用いることで、高精度な認識が可能になる。
本実施の形態では、放送される映像コンテンツにおける静的領域は、サーバ装置20によって予め決定されている。したがって、受信装置10は、映像抽出部12で抽出される画像フレームに基づき決定される静的領域を、サーバ装置20から取得する静的領域に照合することで、受信中の映像コンテンツを認識することができる。
[1−3−2.動的領域]
動的領域とは、2つの画像フレーム間で画像の変化量が、あらかじめ定められた閾値(以下、「第2閾値」と記す)より大きい領域のことである。動的領域は、例えば、シーンの切り替わり時に大きな画像の変化が発生する領域、等である。
図4は、実施の形態1における映像抽出部12で抽出される各フレームレートの画像フレームと動的領域との関係の一例を模式的に示す図である。
図4に一例として示す映像コンテンツは、シーンの切り替えを含んでいる。図4に示す映像コンテンツは、時間の経過とともに切り替わる第1〜第3の3つのシーンを含んでいる。第1のシーンは画像フレームA001〜A003を含み、第2のシーンは画像フレームA004〜A006を含み、第3のシーンは画像フレームA007〜A009を含む。
動的領域は、画像フレーム間で画像の変化量を算出することにより決定される。
図4に示す例では、30fps、20fps、15fpsのいずれの場合においても、映像抽出部12で抽出される複数の画像フレームには、3つのシーンのそれぞれの画像フレームが含まれている。このため、時間的に隣り合う2つの画像フレーム間で画像の変化量を算出すると、シーンの切り替わりの前後の画像フレームで大きな変化量が算出される。なお、図4には、一例として、第1のシーンから第2のシーンへの切り替わりにおける動的領域を示す。
例えば、図4の30fpsにおいて、第1のシーンと第2のシーンとの切り替わりは、画像フレームA003と画像フレームA005である。したがって、図4の30fpsでは、動的領域は、画像フレームA003と画像フレームA005との間で発生する。同様に、図4の20fpsでは、動的領域は、画像フレームA001と画像フレームA004との間で発生し、図4の15fpsでは、動的領域は、画像フレームA001と画像フレームA005との間で発生する。
一方、放送される60fpsの映像コンテンツにおいて、第1のシーンと第2のシーンの切り替わりは、画像フレームA003と画像フレームA004である。したがって、放送される映像コンテンツでは、動的領域は、画像フレームA003と画像フレームA004との間で発生する。
すなわち、放送される60fpsの映像コンテンツにおける動的領域と、映像抽出部12によって抽出される30fps、20fps、15fpsのそれぞれにおける動的領域とは、図4に示すように、互いに類似している。
このように、映像抽出部12が30fps、20fps、15fpsのいずれのフレームレートで画像フレームを抽出したとしても、各フレームレートのそれぞれで決定される動的領域は、互いに類似し、かつ、放送される60fpsの映像コンテンツにおいて決定される動的領域に類似する。
このことから、画像フレームを抽出する際のフレームレートが30fps、20fps、15fpsのいずれであっても、映像抽出部12で抽出される画像フレームに基づき決定される動的領域と、放送される映像コンテンツにおいて決定される動的領域と、を互いに照合することで、映像コンテンツの認識が可能であることが分かる。動的領域は、シーンの切り替わり等により大きな画像の変化が発生した領域であり、特徴的な画像の変化が起きた領域である。したがって、動的領域を用いることで、高精度な認識が可能になる。また、特徴的な画像の変化に基づいて認識が行われるので、認識に必要なフレーム数を従来に比べて削減することができ、認識に係る処理を高速にすることができる。
本実施の形態では、放送される映像コンテンツにおける動的領域は、サーバ装置20によって予め決定されている。したがって、受信装置10は、映像抽出部12で抽出される画像フレームに基づき決定される動的領域を、サーバ装置20から取得する動的領域に照合することで、受信中の映像コンテンツを認識することができる。
[1−3−3.構成]
次に、本実施の形態におけるフィンガープリント生成部110について、図5を用いて説明する。
図5は、実施の形態1におけるフィンガープリント生成部110の一構成例を示すブロック図である。
図5に示すように、フィンガープリント生成部110は、画像取得部111と、データ生成部112と、を備える。
画像取得部111は、映像抽出部12によって抽出された複数の画像フレームを取得する。
データ生成部112は、画像取得部111によって取得された複数の画像フレームのフレーム間における画像の変化に基づいて、認識データとしてフィンガープリントを生成する。フィンガープリントは、フレーム間の画像の変化量が第1閾値より小さい静的領域に基づいた静的フィンガープリント、および、フレーム間の画像の変化量が第2閾値より大きい動的領域に基づいた動的フィンガープリント、の少なくとも一方を含む。なお、第1閾値の値および第2閾値の値によっては、静的フィンガープリントおよび動的フィンガープリントがともに生成されない場合がある。この場合、フィンガープリントは、静的フィンガープリントおよび動的フィンガープリントのいずれも含まない。
データ生成部112は、スケール変換部210と、差分算出部220と、決定部230と、生成部240と、を備える。
スケール変換部210は、画像取得部111によって取得された複数の画像フレームのそれぞれに対してスケール変換を実行する。具体的には、スケール変換部210は、グレースケール変換およびダウンスケール変換を各画像フレームに対して実行する。
グレースケール変換とは、カラー画像をグレースケール画像に変換することである。スケール変換部210は、画像フレームの各画素が有する色情報を輝度値に変換することで、カラー画像をグレースケール画像に変換する。本開示は、この変換手法を限定しない。例えば、スケール変換部210は、各画素からRGBの1つの要素を抽出し、それを、対応する画素の輝度値に変換してもよい。なお、輝度値は、画素の明るさを示す数値であり、画素値の一例である。あるいは、スケール変換部210は、NTSC系加重平均法または単純平均法、等を利用して輝度値を算出してもよい。
ダウンスケール変換とは、1つの画像フレームを構成する画素の数を、元の画素数から、より少ない画素数に変換することである。スケール変換部210は、ダウンスケール変換を実行して、画像フレームの画像を、より少ない画素数で構成される画像に変換する。本開示は、この変換手法を限定しない。例えば、スケール変換部210は、各画像を、それぞれが複数の画素を含む複数のブロックに分割し、領域毎に1つの数値を算出することで、ダウンスケール変換を行ってもよい。このとき、スケール変換部210は、領域毎に、輝度値の平均値や中間値等を算出して、その領域の明るさを表す数値としてもよい。
なお、本実施の形態では、スケール変換部210は、グレースケール変換およびダウンスケール変換の両方を行うものとするが、本開示は何らこの構成に限定されない。スケール変換部210は、これらのいずれか一方のみを行ってもよく、あるいは、いずれも行わなくてもよい。すなわち、データ生成部112は、スケール変換部210を備えなくてもよい。
差分算出部220は、画像取得部111によって取得された複数の画像フレームのそれぞれから、画像変化フレームを生成する。画像変化フレームは、時間的に隣り合う2つの画像フレーム(例えば、時間的に連続する2つの画像フレーム)間の輝度値の差分を算出することで、生成される。したがって、画像変化フレームは、時間的に隣り合う2つの画像フレーム間の輝度値の変化量(以下、「輝度変化値」と記す)を示している。なお、輝度変化値は、画素変化値の一例であり、画素値の一例である輝度値の変化量を示す値である。差分算出部220は、スケール変換部210によってグレースケール変換およびダウンスケール変換が行われた画像フレームを用いて、画像変化フレームを生成する。
決定部230は、静的領域決定部231と、動的領域決定部232と、を備える。
決定部230は、差分算出部220で生成された画像変化フレームの各輝度変化値の絶対値を、第1閾値および第2閾値と比較する。そして、輝度変化値の絶対値が第1閾値より小さい静的領域、および、輝度変化値の絶対値が第2閾値より大きい動的領域、の少なくとも一方を決定する。具体的には、決定部230は、画像変化フレームの各輝度変化値の絶対値をそれぞれ算出し、その絶対値が第1閾値より小さいか否かの判定と、その絶対値が第2閾値より大きいか否かの判定と、をそれぞれ実行することで、静的領域および動的領域を決定する。
なお、輝度変化値の絶対値の算出は、差分算出部220で行われてもよい。
第1閾値および第2閾値は、予め定められた数値が設定され、輝度変化値の取りうる範囲に基づいて決定される。例えば、第1閾値および第2閾値は、輝度変化値の絶対値の最大値の0%〜20%の範囲で定められる。具体的な一例を挙げると、輝度変化値の絶対値の最大値が255である場合、第1閾値は「1」であり、第2閾値は「20」である。なお、これらの数値は単なる一例に過ぎない。各閾値は適切に設定されることが望ましい。第1閾値と第2閾値とは、互いに同じ数値でもよく、互いに異なる数値でもよい。また、第2閾値は、第1閾値より大きい数値であることが望ましいが、第2閾値が第1閾値より小さい数値であってもよい。
決定部230が備える静的領域決定部231は、画像変化フレームの輝度変化値の絶対値のそれぞれを第1閾値と比較し、その絶対値が第1閾値より小さいか否かを判定することで、静的領域を決定する。例えば、第1閾値が「1」である場合、静的領域決定部231は、輝度変化値が「0」の領域を静的領域とする。輝度変化値が「0」の領域は、時間的に隣り合う2つの画像フレーム間で輝度値が実質的に変化していない領域、である。
決定部230が備える動的領域決定部232は、画像変化フレームの輝度変化値の絶対値のそれぞれを第2閾値と比較し、その絶対値が第2閾値より大きいか否かを判定することで、動的領域を決定する。例えば、第2閾値が「20」である場合、動的領域決定部232は、輝度変化値の絶対値が「21」以上の領域を動的領域とする。輝度変化値の絶対値が「21」以上の領域は、時間的に隣り合う2つの画像フレーム間で輝度値が21以上変化した領域、である。
なお、静的領域決定部231および動的領域決定部232は、スケール変換部210でグレースケール変換およびダウンスケール変換が行われた画像フレームに基づく画像変化フレームの輝度変化値の絶対値を、判定に用いる。
生成部240は、静的フィンガープリント生成部241と、動的フィンガープリント生成部242と、を備える。
静的フィンガープリント生成部241は、静的領域決定部231から出力される静的領域が、画像変化フレーム内のあらかじめ定められた割合(以下、「第1割合」と記す)以上を占めるか否かを判定する。そして、静的フィンガープリント生成部241は、静的領域が第1割合以上の場合に、静的領域に基づき以下のようにして静的フィンガープリントを生成する。そうでなければ、静的フィンガープリントを生成しない。静的フィンガープリント生成部241は、画像変化フレーム内に占める静的領域の範囲が大きい場合、言い換えると、時間的に隣り合う2つの画像フレーム間で画像の変化が少ない場合に、静的フィンガープリントを生成する。
静的フィンガープリント生成部241は、画像変化フレームの生成に用いた2つの画像フレームの一方を静的領域でフィルタリングして静的フレームを生成する。このフィルタリングについては後述する。そして、静的フィンガープリント生成部241は、生成した静的フレームを、静的フィンガープリントとする。静的フレームは、画像変化フレームの生成に用いた2つの画像フレームの一方の静的領域の輝度値を含み、かつ、静的領域以外の領域の輝度値が一定値(例えば、「0」)であるフレームである。静的フレームの詳細は後述する。
動的フィンガープリント生成部242は、動的領域決定部232から出力される動的領域が、画像変化フレーム内のあらかじめ定められた割合(以下、「第2割合」と記す)以上を占めるか否かを判定する。そして、動的フィンガープリント生成部242は、動的領域が第2割合以上の場合に、動的領域に基づき以下のようにして動的フィンガープリントを生成する。そうでなければ、動的フィンガープリントを生成しない。動的フィンガープリント生成部242は、画像変化フレーム内に占める動的領域の範囲が大きい場合、言い換えると、時間的に隣り合う2つの画像フレーム間で画像の変化が多い場合に、動的フィンガープリントを生成する。
動的フィンガープリント生成部242は、画像変化フレームを動的領域でフィルタリングして動的フレームを生成する。このフィルタリングについては後述する。そして、動的フィンガープリント生成部242は、生成した動的フレームを、動的フィンガープリントとする。動的フレームは、画像変化フレームの動的領域の輝度値を含み、かつ、動的領域以外の領域の輝度値が一定値(例えば、「0」)であるフレームである。動的フレームの詳細は後述する。
なお、第1割合および第2割合には、予め定められた数値が設定される。例えば、第1割合および第2割合は、20%〜40%の範囲で定められる。具体的な一例を挙げると、第1割合および第2割合は、それぞれ30%である。なお、これらの数値は単なる一例に過ぎない。第1割合および第2割合は、適切に設定されることが望ましい。第1割合と第2割合とは、互いに同じ数値でもよく、互いに異なる数値でもよい。
以上の構成により、フィンガープリント生成部110は、画像フレーム毎に、静的フィンガープリントおよび動的フィンガープリントのいずれか一方を生成する。もしくは、いずれも生成しない。すなわち、フィンガープリント生成部110は、映像コンテンツからN個の画像フレームを取得した場合、静的フィンガープリントおよび動的フィンガープリントを合わせて最大でN−1個含むフィンガープリントを生成する。
なお、連続する同一のシーンで生成される各静的フィンガープリントは、互いに類似する可能性が高い。したがって、静的フィンガープリント生成部241は、連続する複数の画像フレームが同一のシーンを映したものである場合、同一のシーンから生成される複数の静的フィンガープリントから、1つの静的フィンガープリントを選択して出力してもよい。
[1−4.動作]
次に、本実施の形態におけるコンテンツ認識システム1の動作を、図6〜図21を用いて説明する。なお、サーバ装置20は、複数の映像コンテンツのフィンガープリントを予め生成し、生成したフィンガープリントとコンテンツIDとを互いに対応付けたフィンガープリントDB22を保持しているものとする。
[1−4−1.全体の動作]
まず、本実施の形態におけるコンテンツ認識システム1の全体の動作について、図6を用いて説明する。
図6は、実施の形態1におけるコンテンツ認識システム1が備える受信装置10の一動作例を示すフローチャートである。
映像受信部11が映像コンテンツを受信すると、映像抽出部12は、映像コンテンツを構成するフレームシーケンスから、予め定められたフレームレートで複数の画像フレームを抽出する(ステップS1)。
画像認識部100は、映像抽出部12で抽出された複数の画像フレームを取得し、取得した複数の画像フレームのフレーム間の変化に基づいて、画像認識を行う(ステップS2)。画像認識の処理の詳細は、図7を用いて後述する。
画像認識部100は、ステップS2において画像認識ができたときは画像認識の結果を出力し、画像認識ができないときは画像認識の結果を出力しない(ステップS3)。
ステップS3で画像認識部100から画像認識の結果が出力されたとき(ステップS3のYes)、付加情報取得部13は、その画像認識の結果に基づいて広告サーバ装置30から付加情報を取得する(ステップS4)。そして、映像出力部14は、取得した付加情報を映像コンテンツに重畳して出力する。
ステップS3で画像認識部100から画像認識の結果が出力されないとき(ステップS3のNo)、受信装置10の処理はステップS1に戻り、ステップS1の画像フレームの抽出、およびステップS2の画像認識が繰り返される。受信装置10では、映像コンテンツに対応するコンテンツが検出されないときに、画像認識部100から画像認識の結果が出力されず、ステップS3でNoとなる。
ステップS4の後は、映像コンテンツが終了したか否かが判定される(ステップS5)。具体的には、映像受信部11が映像コンテンツを取得できるか否か、すなわち、受信装置10に映像コンテンツが入力されているか否か、によってステップS5の判定がなされる。
ステップS5で映像コンテンツが終了したと判定された場合(ステップS5のYes)、コンテンツ認識システム1の処理は終了する。映像受信部11が映像コンテンツを取得できないとき(受信装置10に映像コンテンツが入力されないとき)に、ステップS5でYesと判定され、コンテンツ認識システム1の処理は終了する。
ステップS5で映像コンテンツは終了していないと判定された場合(ステップS5のNo)、すなわち、受信装置10への映像コンテンツの入力が継続していれば、コンテンツ認識システム1の処理はステップS1に戻り、ステップS1以降の一連の処理が繰り返される。
[1−4−2.画像認識]
次に、本実施の形態における画像認識部100の動作について、図7を用いて説明する。
図7は、実施の形態1における画像認識の処理の一例を示すフローチャートである。図7のフローチャートは、図6のステップS2で実行される処理の概要を示している。
画像認識部100のフィンガープリント生成部110は、ステップS1で映像コンテンツのフレームシーケンスから抽出された複数の画像フレームにおける、画像フレーム間の画像の変化に基づいて、認識データを生成する(ステップS10)。なお、図7には、ステップS10を「フレームシーケンシャル認識データ生成」と記す。ステップS10の詳細は、図8を用いて後述する。
次に、画像認識部100の照合部130は、ステップS10でフィンガープリント生成部110が生成した認識データを、フィンガープリント取得部120によってサーバ装置20から取得された複数の認識データと照合する(ステップS20)。なお、図7には、ステップS20を「フレームシーケンシャル認識データ照合」と記す。ステップS20の詳細は、図17を用いて後述する。
[1−4−3.フレームシーケンシャル認識データ生成]
次に、本実施の形態で認識データが生成されるときの処理の詳細を、図8〜図16Bを用いて説明する。
まず、認識データを生成するときの処理の概要を、図8を用いて説明する。
図8は、実施の形態1における認識データを生成するときの処理の一例を示すフローチャートである。図8のフローチャートは、図7のステップS10で実行される処理の概要を示している。
まず、フィンガープリント生成部110は、ステップS1で抽出された複数の画像フレームから、画像フレーム間の画像の変化量を算出する(ステップS100)。画像の変化量の算出の詳細は、図10〜図12を用いて後述する。
次に、フィンガープリント生成部110は、静的フィンガープリントを生成する(ステップS110)。
フィンガープリント生成部110は、画像変化フレームに基づいて静的領域を決定し、決定した静的領域に基づいて静的フィンガープリントを生成する。静的フィンガープリントの生成の詳細は、図13、図14を用いて後述する。
次に、フィンガープリント生成部110は、動的フィンガープリントを生成する(ステップS120)。
フィンガープリント生成部110は、画像変化フレームに基づいて動的領域を決定し、決定した動的領域に基づいて動的フィンガープリントを生成する。動的フィンガープリントの生成の詳細は、図15、図16A、16Bを用いて後述する。
なお、ステップS110における静的フィンガープリントの生成処理と、ステップS120における動的フィンガープリントの生成処理とは、どちらが先に実行されてもよく、あるいは、互いに並列に実行されてもよい。
ここで、認識データの生成処理過程における画像フレームの変化について、図9に一例を挙げて説明する。
図9は、実施の形態1における認識データの生成処理過程における画像フレームの変化の一例を模式的に示す図である。
なお、図9には、ステップS1で抽出された複数の画像フレーム(a)と、後述するステップS101でグレースケール変換された画像フレーム(b)と、後述するステップS102でダウンスケール変換された画像フレーム(c)と、後述するステップS103で算出された変化量(d)と、ステップS110、ステップS120で生成されたフィンガープリント(e)と、を模式的に示す。
まず、図9の画像フレーム(a)に、図6に示したステップS1で、9つの画像フレームA001〜A009が映像コンテンツから抽出されたときの例を示す。図9に示す例では、画像フレームA001〜A009のそれぞれは、第1のシーン〜第3のシーンの3つのシーンのいずれかに含まれる。画像フレームA001〜A003は第1のシーンに含まれ、画像フレームA004〜A006は第2のシーンに含まれ、画像フレームA007〜A009は第3のシーンに含まれる。画像フレームA001〜A009は、いわゆるカラー画像であり、色情報を含んでいる。
次に、図9の画像フレーム(b)に、図6のステップS1で抽出された9つの画像フレームA001〜A009のそれぞれに対して、後述する図10のステップS101でグレースケール変換が行われたときの例を示す。これにより、画像フレームA001〜A009に含まれる色情報は、画素毎に輝度値に変換される。
次に、図9の画像フレーム(c)に、後述する図10のステップS101でグレースケール変換された9つの画像フレームA001〜A009のそれぞれに対して、後述する図10のステップS102でダウンスケール変換が行われたときの例を示す。これにより、画像フレームを構成する画素数が削減される。なお、図9の画像フレーム(c)には、1つの画像フレームが5ブロック×5ブロックの25個のブロックに分割されたときの例を示す。これは、1つの画像フレームを構成する画素の数を25個にダウンスケールした、と言い換えることができる。図9の画像フレーム(c)に示す各ブロックの輝度値は、各ブロックを構成する複数の画素の輝度値から算出される。各ブロックの輝度値は、ブロック毎に、ブロックを構成する複数の画素の輝度値の平均値や中間値等を算出することで、算出できる。
なお、図9の画像フレーム(c)において、各ブロックの濃淡は、輝度値の大小に対応している。輝度値が大きいほどそのブロックをより濃く、輝度値が小さいほどそのブロックをより薄く、示している。
次に、図9の変化量(d)に、後述する図10のステップS102でダウンスケール変換された9つの画像フレームA001〜A009から、後述する図10のステップS103で8つの画像変化フレームB001〜B008が生成されたときの例を示す。ステップS103では、時間的に隣り合う2つの画像フレーム間で輝度値の変化量(すなわち、輝度変化値)を算出することで、1つの画像変化フレームが生成される。ステップS103では、例えば、ダウンスケール変換された画像フレームA001と画像フレームA002とから画像変化フレームB001が生成される。
なお、図9の変化量(d)において、画像変化フレームを構成する各ブロックの濃淡は、画像変化フレームの輝度変化値、すなわち、ダウンスケール変換された2つの画像フレーム間の輝度値の変化量、に対応している。輝度値の変化量が大きいほどそのブロックをより濃く、輝度値の変化量が小さいほどそのブロックをより薄く、示している。
次に、図9のフィンガープリント(e)に、後述する図10のステップS103で生成された8つの画像変化フレームB001〜B008から、合計で5つの静的フィンガープリントおよび動的フィンガープリントが生成されたときの例を示す。
図9に示す例では、画像変化フレームB001と画像変化フレームB002とは、共に、同一のシーンに含まれる画像フレームA001〜A003から生成される。このため、画像変化フレームB001と画像変化フレームB002とは互いに類似する。したがって、ステップS110では、画像変化フレームB001と画像変化フレームB002から、1つの静的フィンガープリントC002を生成することができる。画像変化フレームB004と画像変化フレームB005、および、画像変化フレームB007と画像変化フレームB008、についても同様である。
一方、図9に示す例では、画像変化フレームB003は、シーンの切り替わりとなる2つの画像フレームA003、A004から生成される。したがって、ステップS120では、画像変化フレームB003から、1つの動的フィンガープリントD003を生成することができる。画像変化フレームB006も同様である。
図9に示す例では、このようにして画像フレームA001〜A009から生成された映像コンテンツのフィンガープリントは、3つの静的フィンガープリントC002、C005、C008と、2つの動的フィンガープリントD003、D006と、を有する。
このように、生成された映像コンテンツのフィンガープリントは、1以上の静的フィンガープリントおよび1以上の動的フィンガープリントのうちの、少なくとも2つを含む。映像コンテンツのフィンガープリントは、2以上の静的フィンガープリントだけで構成されてもよく、2以上の動的フィンガープリントだけで構成されてもよく、あるいは、1以上の静的フィンガープリントおよび1以上の動的フィンガープリントで構成されてもよい。
なお、図9のフィンガープリント(e)において、静的フィンガープリントまたは動的フィンガープリントを構成する各ブロックの濃淡は、そのブロックの輝度値の大小に対応する。
[1−4−4.スケール変換および変化量の算出]
次に、本実施の形態で画像フレーム間の変化量を算出するときの処理の詳細を、図10〜図12を用いて説明する。
図10は、実施の形態1における画像フレーム間の変化量の算出処理の一例を示すフローチャートである。図10のフローチャートは、図8のステップS100で実行される処理の概要を示している。
図11は、実施の形態1における画像フレームのダウンスケール変換処理の一例を模式的に示す図である。
図12は、実施の形態1における画像フレーム間の変化量の算出処理の一例を模式的に示す図である。
図10のフローチャートを説明する。まず、図5に示したスケール変換部210は、抽出された複数の画像フレームのグレースケール変換を行う(ステップS101)。
スケール変換部210は、抽出された複数の画像フレームの1つと、その画像フレームに時間的に隣り合う画像フレームとをそれぞれグレースケールに変換する。なお、本実施の形態では、抽出された1つの画像フレームを「フレーム91」とし、フレーム91に時間的に隣り合う画像フレームを「フレーム92」とする。スケール変換部210は、例えば、NTSC系加重平均法に基づいて、フレーム91、92の色情報を輝度値に変換する。
なお、本実施の形態では、フレーム91の直後の画像フレームをフレーム92とする。しかし、本開示は何らこの構成に限定されない。フレーム92は、フレーム91の直前の画像フレームでもよい。あるいは、フレーム92は、フレーム91の2フレーム以上前の画像フレームでもよく、または、フレーム91の2フレーム以上後の画像フレームでもよい。
次に、スケール変換部210は、グレースケール変換された2つの画像フレームのダウンスケール変換を行う(ステップS102)。
図11は、画像フレームA003、A004をダウンスケール変換する例を示している。図11に示す例では、画像フレームA003がフレーム91に相当し、画像フレームA004がフレーム92に相当する。
例えば、図11に示すように、スケール変換部210は、画像フレームA003を、5ブロック×5ブロックの25個のブロックに分割する。図11に示す例では、各ブロックは、9画素×9画素の81個の画素を含んでいるものとする。例えば、画像フレームA003の左上のブロックは、図11に示すように、「77」、「95」などの輝度値を有する81個の画素から構成されている。なお、これらの数値は単なる一例に過ぎず、本開示は何らこれらの数値に限定されるものではない。
スケール変換部210は、例えば、ブロック毎に、各ブロックに含まれる複数の画素の輝度値の平均値を算出することで、そのブロックを表す輝度値を算出する。図11に示す例では、画像フレームA003の左上のブロックを構成する81個の画素の輝度値の平均値を算出することで、「103」という値が算出される。このようにして算出された値(平均値)が、左上のブロックを表す輝度値である。スケール変換部210は、このようにして、画像フレームA003を構成する全てのブロックのそれぞれに関して、各ブロックを表す輝度値を算出する。
これにより、画像フレームを構成する画素数を、ブロックの数に変換(すなわち、ダウンスケール)することができる。図11に示す例では、45画素×45画素の画素数を有する画像フレームを、5ブロック×5ブロックの25個のブロックで構成された画像フレームにダウンスケール変換している。これは、45画素×45画素の画素数を有する画像フレームを、5画素×5画素の画素数を有する画像フレームにダウンスケール変換した、と言い換えることができる。
図11に示す例では、ダウンスケール後の画像フレームA003は、「103」、「100」などの平均値を含む25個のブロックで構成されている。これは、ダウンスケール後の画像フレームA003は、「103」、「100」等の輝度値を有する25個の画素で構成される、と言い換えてもよい。画像フレームA004も同様にダウンスケール変換される。なお、本実施の形態では、ダウンスケール変換後の画像フレームを構成する各ブロックを「画素」と表現し、ブロック毎に算出される輝度の平均値を「ダウンスケール変換後の画像フレームの画素の輝度値」と表現する場合がある。
次に、図5に示した差分算出部220は、ダウンスケール変換後のフレーム91とフレーム92との間で輝度値の差分を算出して、輝度値の差分(すなわち、輝度変化値)で構成された画像変化フレームを生成する(ステップS103)。
例えば、図12に示す例では、差分算出部220は、ダウンスケール変換後のフレーム91を構成する各画素の輝度値と、ダウンスケール変換後のフレーム92を構成する各画素の輝度値と、の差分をそれぞれ算出する。このとき、差分算出部220は、同じ位置の画素同士で輝度値の差分を算出する。例えば、差分算出部220は、画像フレームA003の左上の輝度値「103」から、画像フレームA004の左上の輝度値「89」を減算して、画像変化フレームB003の左上の輝度変化値「14」を算出する。
このようにして、差分算出部220は、ダウンスケール変換後の2つの画像フレーム間で、全画素(すなわち、全ブロック)について輝度値の差分を算出し、画像変化フレームを生成する。図12に示す例では、ダウンスケール変換後の画像フレームA003、A004から画像変化フレームB003が生成される。
[1−4−5.静的フィンガープリントの生成]
次に、本実施の形態で静的フィンガープリントを生成するときの処理の詳細を、図13、図14を用いて説明する。
図13は、実施の形態1における静的フィンガープリントの生成処理の一例を示すフローチャートである。図13のフローチャートは、図8のステップS110で実行される処理の概要を示している。
図14は、実施の形態1における画像フレーム間の変化量に基づいて生成される静的フィンガープリントの一例を模式的に示す図である。
まず、図5に示した静的領域決定部231が静的領域を決定する(ステップS111)。
静的領域決定部231は、画像変化フレームの輝度変化値の絶対値を算出し、その絶対値を第1閾値と比較する。そして、輝度変化値の絶対値が第1閾値より小さいか否かを判定し、輝度変化値の絶対値が第1閾値より小さい領域を静的領域とする。こうして、静的領域が決定される。輝度変化値の絶対値は、時間的に隣り合う2つの画像フレーム間における輝度値の変化量である。
例えば、第1閾値が「1」に設定されていれば、静的領域決定部231は、画像変化フレームの輝度変化値が「0」である領域、すなわち、時間的に隣り合う2つの画像フレーム間で輝度値が実質的に変化していない領域、を静的領域とする。この設定の場合、図14に示す例では、画像変化フレームB002で輝度変化値として「0」が記入された13個のブロックが静的領域になる。
次に、図5に示した静的フィンガープリント生成部241は、ステップS111で決定された静的領域でフレーム91をフィルタリングして、静的フレームを生成する(ステップS112)。
このフィルタリングとは、フレーム91を構成する各ブロックの輝度値に対して、次の処理を施すことである。ステップS111で決定された静的領域に関してはその静的領域に該当するフレーム91のブロックの輝度値をそのまま使用し、静的領域以外のブロックに関しては輝度値を一定値(例えば、「0」)にする。
フレーム91をフィルタリングすることで生成される静的フレームは、図14に示す例では、静的フレームC002である。静的フレームC002では、画像変化フレームB002で輝度変化値が「0」となったブロック(静的領域)に関してはフレーム91の輝度値がそのまま用いられ、静的領域以外のブロックに関しては輝度値が「0」になる。
次に、静的フィンガープリント生成部241は、ステップS111で決定された静的領域の割合を算出して第1割合と比較し、静的領域の割合が第1割合以上であるか否かを判定する(ステップS113)。
静的フィンガープリント生成部241は、画像変化フレームを構成するブロックの総数に対する、ステップS111で静的領域とされたブロックの数、に基づき静的領域の割合を算出する。図14に示す画像変化フレームB002の例では、画像変化フレームを構成するブロックの総数は25であり、静的領域のブロックの数は13であるので、静的領域の割合は52%となる。したがって、第1割合が例えば30%であれば、図14に示す例では、ステップS113でYesと判定される。
ステップS113において静的領域の割合は第1割合以上であると判定された場合(ステップS113のYes)、静的フィンガープリント生成部241は、ステップS112で生成された静的フレームを静的フィンガープリントとして保存する(ステップS114)。
図14に示す例では、ステップS113でYesと判定された場合、静的フレームC002が、静的フィンガープリントC002として、受信装置10が有する記憶装置(例えば、画像認識部100の内部メモリ等、図示せず)に保存される。
ステップS113において静的領域の割合は第1割合未満であると判定された場合(ステップS113のNo)、静的フィンガープリント生成部241は、ステップS112で生成された静的フレームを保存せずに破棄する(ステップS115)。したがって、ステップS113でNoと判定された場合、静的フィンガープリントは生成されない。
なお、図13のフローチャートでは、ステップS112においてフィルタリングを行って静的フレームを生成した後に、ステップS113において静的フレームを保存するか否かの判定を行う動作例を説明したが、本開示は何らこの処理順序に限定されない。例えば、ステップS111において静的領域を決定した後に、ステップS113を実行し、ステップS113でYesと判定されたときに、ステップS112を実行して静的フレームを生成し、続くステップS114でその静的フレームを静的フィンガープリントとして保存する、ように各処理の順番が設定されてもよい。
[1−4−6.動的フィンガープリントの生成]
次に、本実施の形態で動的フィンガープリントを生成するときの処理の詳細を、図15、図16A、16Bを用いて説明する。
図15は、実施の形態1における動的フィンガープリントの生成処理の一例を示すフローチャートである。
図16Aは、実施の形態1における動的フィンガープリントが生成されない画像フレームの一例を模式的に示す図である。
図16Bは、実施の形態1における画像フレーム間の変化量に基づいて生成される動的フィンガープリントの一例を模式的に示す図である。
まず、図5に示した動的領域決定部232が動的領域を決定する(ステップS121)。
動的領域決定部232は、画像変化フレームの輝度変化値の絶対値を算出し、その絶対値を第2閾値と比較する。そして、輝度変化値の絶対値が第2閾値より大きいか否かを判定し、輝度変化値の絶対値が第2閾値より大きい領域を動的領域とする。こうして、動的領域が決定される。
例えば、第2閾値が「20」に設定されていれば、画像変化フレームにおいて輝度変化値の絶対値が「21」以上のブロックが動的領域となる。この設定の場合、図16Aに示す例では、画像変化フレームB002において輝度変化値として「21」以上または「−21」以下の数値が記入された2個のブロックが動的領域になり、図16Bに示す例では、画像変化フレームB003において輝度変化値として「21」以上または「−21」以下の数値が記入された11個のブロックが動的領域になる。
次に、図5に示した動的フィンガープリント生成部242は、ステップS121で決定された動的領域で画像変化フレームをフィルタリングして、動的フレームを生成する(ステップS122)。
このフィルタリングとは、画像変化フレームを構成する各ブロックの輝度変化値に対して、次の処理を施すことである。ステップS121で決定された動的領域に関してはその動的領域に該当するブロックの輝度変化値をそのまま使用し、動的領域以外のブロックに関しては輝度変化値を一定値(例えば、「0」)にする。
画像変化フレームをフィルタリングすることで生成される動的フレームは、図16Aに示す例では動的フレームD002であり、図16Bに示す例では動的フレームD003である。動的フレームD002、D003では、画像変化フレームB002、B003で輝度変化値が「21」以上または「−21」以下となったブロック(動的領域)に関しては画像変化フレームB002、B003の輝度変化値がそのまま用いられ、動的領域以外のブロックに関しては輝度変化値が「0」になる。
なお、画像変化フレームに対するステップS121、ステップS122の処理は、例えば、輝度変化値の絶対値が第2閾値以下であるブロックに関して、その輝度変化値を「0」に置き換える、という一括した処理で実行することができる。
次に、動的フィンガープリント生成部242は、ステップS121で決定された動的領域の割合を算出して第2割合と比較し、動的領域の割合が第2割合以上であるか否かを判定する(ステップS123)。
動的フィンガープリント生成部242は、画像変化フレームを構成するブロックの総数に対する、ステップS121で動的領域とされたブロックの数、に基づき動的領域の割合を算出する。図16Aに示す画像変化フレームB002の例では、画像変化フレームを構成するブロックの総数は25であり、動的領域のブロックの数は2であるので、動的領域の割合は8%となる。図16Bに示す画像変化フレームB003の例では、画像変化フレームを構成するブロックの総数は25であり、動的領域のブロックの数は11であるので、動的領域の割合は44%となる。したがって、第2割合が例えば30%であれば、図16Aに示す例では、ステップS123でNoと判定され、図16Bに示す例では、ステップS123でYesと判定される。
ステップS123において動的領域の割合は第2割合以上であると判定された場合(ステップS123のYes)、動的フィンガープリント生成部242は、ステップS122で生成された動的フレームを動的フィンガープリントとして保存する(ステップS124)。
一方、動的領域の割合は第2割合未満であると判定された場合(ステップS123のNo)、動的フィンガープリント生成部242は、ステップS122で生成された動的フレームを保存せずに破棄する(ステップS125)。したがって、ステップS123でNoと判定された場合、動的フィンガープリントは生成されない。
図16Bに示す例では、ステップS123でYesと判定された動的フレームD003が、動的フィンガープリントD003として、受信装置10が有する記憶装置(例えば、画像認識部100の内部メモリ等、図示せず)に保存される。
図16Aに示す例では、ステップS123でNoと判定された動的フレームD002は、保存されずに破棄される。
なお、図15のフローチャートでは、ステップS122においてフィルタリングを行って動的フレームを生成した後に、ステップS123において動的フレームを保存するか否かの判定を行う動作例を説明したが、本開示は何らこの処理順序に限定されない。例えば、ステップS121において動的領域を決定した後に、ステップS123を実行し、ステップS123でYesと判定されたときに、ステップS122を実行して動的フレームを生成し、続くステップS124でその動的フレームを動的フィンガープリントとして保存する、ように各処理の順番が設定されてもよい。
[1−4−7.フレームシーケンシャル認識データ照合]
次に、本実施の形態において認識データの照合を実行するときの処理の詳細を、図17〜図21を用いて説明する。
図17は、実施の形態1における認識データの照合処理の一例を示すフローチャートである。図17のフローチャートは、図7のステップS20で実行される処理の概要を示している。
図18は、実施の形態1における静的フィンガープリントの照合処理の一例を模式的に示す図である。
図19は、実施の形態1における動的フィンガープリントの照合処理の一例を模式的に示す図である。
図20は、実施の形態1における映像コンテンツの認識条件の一例を示す図である。図20には、一例として、5つの認識条件(a)〜(e)を示す。
図21は、実施の形態1における映像コンテンツの照合処理の一例を模式的に示す図である。
[1−4−7−1.静的フィンガープリントの類似度]
図17のフローチャートを説明する。図1および図2に示した照合部130は、静的フィンガープリントの類似度を算出する(ステップS200)。
照合部130は、フィンガープリント生成部110で生成されたフィンガープリントに含まれる静的フィンガープリントを、フィンガープリント取得部120によってサーバ装置20から取得された複数のフィンガープリントのそれぞれに含まれる静的フィンガープリント(以下、「データベースに含まれる静的フィンガープリント」とも記す)と照合する。そして、照合部130は、フィンガープリント生成部110で生成された静的フィンガープリントと、データベースに含まれる複数の静的フィンガープリントのそれぞれとの類似度を算出する。なお、サーバ装置20から取得された複数のフィンガープリントは、サーバ装置20のフィンガープリントDB22に蓄積されたフィンガープリントである。
照合部130は、静的領域の一致度合いを、類似度として算出する。具体的には、照合部130は、フィンガープリント生成部110で生成された静的フィンガープリントの静的領域の位置と、フィンガープリント取得部120により取得された静的フィンガープリントの静的領域の位置と、を互いに比較する。そして、照合部130は、両者が互いに一致する領域(ブロック)の数を計数し、両者が一致する領域が静的フィンガープリント内に占める割合を、類似度として算出する。
なお、本実施の形態では、両者が互いに一致するか否かを、静的領域か否かだけで判断し、各ブロックの輝度値は考慮しないものとする。照合部130は、互いに同じ位置にあるブロックがともに静的領域であれば、それぞれのブロックの輝度値が互いに異なっていても、両者は一致する、と判定する。
照合部130で行われる類似度の算出処理の一例を、図18に具体例を示して、説明する。
図18に示す静的フィンガープリントC002は、フィンガープリント生成部110で生成された静的フィンガープリントである。また、図18に示す静的フィンガープリントC00Xは、フィンガープリント取得部120によってサーバ装置20から取得された静的フィンガープリントである。なお、図18では、静的フィンガープリントC002を「認識データに含まれる静的フィンガープリント」と記し、静的フィンガープリントC00Xを「データベースに含まれる静的フィンガープリント」と記す。
図18に示す例では、静的フィンガープリントC002が有する静的領域のブロックの数と、静的フィンガープリントC00Xが有する静的領域のブロックの数は、ともに13であり同数である。しかし、位置に若干の違いがある。静的フィンガープリントC002と静的フィンガープリントC00Xとの間で、静的領域のブロックの位置が互いに一致するのは、静的フィンガープリント内の25個のブロックのうち、上から1段目の5つと、上から2段目の1つ(輝度値が「128」のブロック)と、上から5段目の5つの、合計で11のブロックである。ここでは静的フィンガープリントを構成するブロックの総数は25であるので、照合部130は、11/25=44%を算出し、算出した44%を、静的フィンガープリントC002と静的フィンガープリントC00Xとの類似度とする。
そして、照合部130は、算出した類似度を予め定められた静的閾値と比較し、その比較の結果に基づき類似判定を行う。照合部130は、算出した類似度が静的閾値以上であれば「類似する」と判定し、算出した類似度が静的閾値未満であれば「類似しない」と判定する。上述の例では、静的閾値が例えば40%に設定されていれば、照合部130は、静的フィンガープリントC002と静的フィンガープリントC00Xとは類似する、と判定する。なお、この静的閾値の数値は、単なる一例に過ぎず、適切に設定されることが望ましい。
なお、本実施の形態では、静的フィンガープリントの類似度を算出する際に、静的フィンガープリントを構成する各ブロックが有する輝度値は考慮しない、と説明したが、本開示は何らこの構成に限定されない。照合部130は、静的フィンガープリントの類似度を算出する際に、静的フィンガープリントを構成する各ブロックが有する輝度値を用いてもよい。例えば、照合部130は、2つの静的フィンガープリントを照合する際に、位置だけでなく輝度値も互いに一致するブロックの数を計数して静的フィンガープリントの類似度を算出してもよい。あるいは、照合部130は、正規化相互相関マッチング(Normalized Cross Correlation)を利用して、静的フィンガープリントの類似度を算出してもよい。
[1−4−7−2.動的フィンガープリントの類似度]
次に、照合部130は、動的フィンガープリントの類似度を算出する(ステップS210)。
照合部130は、フィンガープリント生成部110で生成されたフィンガープリントに含まれる動的フィンガープリントを、フィンガープリント取得部120によってサーバ装置20から取得された複数のフィンガープリントのそれぞれに含まれる動的フィンガープリント(以下、「データベースに含まれる動的フィンガープリント」とも記す)と照合する。そして、照合部130は、フィンガープリント生成部110で生成された動的フィンガープリントと、データベースに含まれる複数の動的フィンガープリントのそれぞれとの類似度を算出する。
照合部130は、動的領域の一致度合いを、類似度として算出する。具体的には、照合部130は、フィンガープリント生成部110で生成された動的フィンガープリントの動的領域の位置および輝度変化値の符号と、フィンガープリント取得部120により取得された動的フィンガープリントの動的領域の位置および輝度変化値の符号と、を互いに比較する。そして、照合部130は、両者が互いに一致する領域(ブロック)の数を計数し、両者が一致する領域が動的フィンガープリント内に占める割合を、類似度として算出する。
なお、本実施の形態では、両者が互いに一致するか否かを、動的領域か否か、および輝度変化値の符号、で判断し、各ブロックの輝度変化値の数値は考慮しないものとする。照合部130は、互いに同じ位置にあるブロックがともに動的領域であり、かつ輝度変化値の符号が互いに同じであれば、それぞれのブロックの輝度変化値の数値が互いに異なっていても、両者は一致する、と判定する。
照合部130で行われる類似度の算出処理の一例を、図19に具体例を示して、説明する。
図19に示す動的フィンガープリントD003は、フィンガープリント生成部110で生成された動的フィンガープリントである。また、図19に示す動的フィンガープリントD00Xは、フィンガープリント取得部120によってサーバ装置20から取得された動的フィンガープリントである。なお、図19では、動的フィンガープリントD003を「認識データに含まれる動的フィンガープリント」と記し、動的フィンガープリントD00Xを「データベースに含まれる動的フィンガープリント」と記す。
図19に示す例では、動的フィンガープリントD003が有する動的領域のブロックの数は11であり、動的フィンガープリントD00Xが有する動的領域のブロックの数は8である。そして、動的フィンガープリントD003と動的フィンガープリントD00Xとの間で、動的領域のブロックの位置および輝度変化値の符号が互いに一致するのは、動的フィンガープリント内の25個のブロックのうち、上から1段目の2つと、上から2段目の2つと、上から5段目の1つの、合計で5つのブロックである。ここでは動的フィンガープリントを構成するブロックの総数は25であるので、照合部130は、5/25=20%を算出し、算出した20%を、動的フィンガープリントD003と動的フィンガープリントD00Xとの類似度とする。
そして、照合部130は、算出した類似度を予め定められた動的閾値と比較し、その比較の結果に基づき類似判定を行う。照合部130は、算出した類似度が動的閾値以上であれば「類似する」と判定し、算出した類似度が動的閾値未満であれば「類似しない」と判定する。上述の例では、動的閾値が例えば30%に設定されていれば、照合部130は、動的フィンガープリントD003と動的フィンガープリントD00Xとは類似しない、と判定する。
なお、この動的閾値の数値は、単なる一例に過ぎず、適切に設定されることが望ましい。また、上述した静的閾値と、この動的閾値とは、互いに同じ数値に設定されてもよく、あるいは、互いに異なる数値に設定されてもよい。
このように、照合部130は、ステップS200で算出した類似度に基づく静的フィンガープリントに関する類似判定と、ステップS210で算出した動的フィンガープリントに関する類似判定とを、それぞれ実行する。
なお、本実施の形態では、動的フィンガープリントの類似度を算出する際に、動的フィンガープリントを構成する各ブロックが有する輝度変化値の大きさは考慮しない、と説明したが、本開示は何らこの構成に限定されない。照合部130は、動的フィンガープリントの類似度を算出する際に、動的フィンガープリントを構成する各ブロックが有する輝度変化値の絶対値を用いてもよい。例えば、照合部130は、2つの動的フィンガープリントを照合する際に、位置および符号に加え輝度変化値の絶対値も互いに一致するブロックの数を計数して動的フィンガープリントの類似度を算出してもよい。あるいは、照合部130は、静的フィンガープリントの類似度を算出するときと同様に、動的領域のブロックの位置のみを用いて動的フィンガープリントの類似度を算出してもよい。あるいは、照合部130は、正規化相互相関マッチングを利用して、動的フィンガープリントの類似度を算出してもよい。
なお、ステップS200における静的フィンガープリントの類似度の算出処理と、ステップS210における動的フィンガープリントの類似度の算出処理とは、どちらが先に実行されてもよく、あるいは、双方が並列に実行されてもよい。
[1−4−7−3.コンテンツ認識]
次に、照合部130は、フィンガープリントの類似判定の結果に基づき、映像コンテンツの認識を行う(ステップS220)。
照合部130は、静的フィンガープリントの類似判定の結果と、動的フィンガープリントの類似判定の結果と、所定の認識条件と、に基づいて、映像コンテンツの認識を行う。照合部130は、上述したように、フィンガープリント生成部110で生成されたフィンガープリントに含まれる静的フィンガープリントおよび動的フィンガープリントのそれぞれと、フィンガープリント取得部120によってサーバ装置20から取得された複数のフィンガープリントとを照合する。そして、照合部130は、その照合の結果と所定の認識条件とに基づき、フィンガープリント取得部120で取得された複数のフィンガープリントから1つのフィンガープリントを選定し、選定したフィンガープリントに対応する情報を照合結果として出力する。
認識条件は、静的フィンガープリントおよび動的フィンガープリントの少なくとも一方に基づいて定められた条件である。認識条件の一例を、図20に示す。なお、図20に示す認識条件は、所定の期間において用いられる条件である。この所定の期間とは、予め定められたフレーム数の期間である。所定の期間は、例えば、10フレーム以下の期間である。
すなわち、照合部130は、所定の期間にフィンガープリント生成部110で生成された静的フィンガープリントおよび動的フィンガープリントのそれぞれを、フィンガープリント取得部120で取得された静的フィンガープリントおよび動的フィンガープリントと照合する。
なお、ここでのフレーム数は、画像変化フレームのフレーム数のことである。したがって、実際の期間は、所定の期間として定められたフレーム数に、映像抽出部12に設定された抽出フレームレートとコンテンツのフレームレートとに基づく係数(例えば、図3、4に示す例では、30fpsであれば「2」、20fpsであれば「3」、15fpsであれば「4」、等)を乗じたものに相当する。なお、このフレーム数を、画像変化フレームのフレーム数としてもよく、あるいはフィンガープリントの数としてもよい。
なお、以下の説明において、「類似する」とは、上述した類似判定において「類似する」と判定されたことを示す。
図20に一例として示す認識条件(a)〜(e)は、以下の通りである。
(a)静的フィンガープリントおよび動的フィンガープリントの少なくとも1つが類似する。
(b)静的フィンガープリントおよび動的フィンガープリントの少なくとも2つが類似する。
(c)静的フィンガープリントの少なくとも1つが類似し、動的フィンガープリントの少なくとも1つが類似する。
(d)静的フィンガープリントまたは動的フィンガープリントが2回連続して類似する。
(e)静的フィンガープリントまたは動的フィンガープリントが3回連続して類似する。
照合部130は、例えば認識条件(a)に基づいて照合処理を行う場合は、以下のように判断する。照合部130は、上述した類似判定において、静的フィンガープリントおよび動的フィンガープリントの少なくとも1つに対して「類似する」との判定がなされた場合に、映像コンテンツを認識できた、と判断する(ステップS230のYes)。そうでなければ、照合部130は、映像コンテンツを認識できなかった、と判断する(ステップS230のNo)。
照合部130は、例えば所定の期間が3フレームに設定されていれば、画像変化フレームの3フレームの期間に、以下の処理を実行する。照合部130は、フィンガープリント生成部110で生成されたフィンガープリントに含まれる静的フィンガープリントおよび動的フィンガープリントに対して上述の類似判定を行う。そして、それらのうちの少なくとも1つに「類似する」との判定がなされたフィンガープリントがあれば、照合部130は、映像コンテンツを認識できた、と判断する。そして、照合部130は、そのフィンガープリントに対応する情報を照合結果として出力する。
また、照合部130は、例えば認識条件(b)に基づいて照合処理を行う場合は、以下のように判断する。照合部130は、上述した類似判定において、静的フィンガープリントおよび動的フィンガープリントの少なくとも2つに対して「類似する」との判定がなされた場合に、映像コンテンツを認識できた、と判断する(ステップS230のYes)。そうでなければ、照合部130は、映像コンテンツを認識できなかった、と判断する(ステップS230のNo)。
なお、この認識条件(b)には、静的フィンガープリントが2つ以上「類似する」と判定される場合、動的フィンガープリントが2つ以上「類似する」と判定される場合、静的フィンガープリントが1つ以上「類似する」と判定されかつ動的フィンガープリントが1つ以上「類似する」と判定される場合、が含まれる。
照合部130は、例えば所定の期間が5フレームに設定されていれば、画像変化フレームの5フレームの期間に、以下の処理を実行する。照合部130は、フィンガープリント生成部110で生成されたフィンガープリントに含まれる静的フィンガープリントおよび動的フィンガープリントに対して上述の類似判定を行う。そして、それらのうちの少なくとも2つに「類似する」との判定がなされたフィンガープリントがあれば、照合部130は、映像コンテンツを認識できた、と判断する。そして、照合部130は、そのフィンガープリントに対応する情報を照合結果として出力する。
また、照合部130は、例えば認識条件(c)に基づいて照合処理を行う場合は、以下のように判断する。照合部130は、上述した類似判定において、静的フィンガープリントの少なくとも1つおよび動的フィンガープリントの少なくとも1つに対して「類似する」との判定がなされた場合に、映像コンテンツを認識できた、と判断する(ステップS230のYes)。そうでなければ、照合部130は、映像コンテンツを認識できなかった、と判断する(ステップS230のNo)。
照合部130は、例えば所定の期間が5フレームに設定されていれば、画像変化フレームの5フレームの期間に、以下の処理を実行する。照合部130は、フィンガープリント生成部110で生成されたフィンガープリントに含まれる静的フィンガープリントおよび動的フィンガープリントに対して上述の類似判定を行う。そして、静的フィンガープリントの少なくとも1つと動的フィンガープリントの少なくとも1つとに「類似する」との判定がなされたフィンガープリントがあれば、照合部130は、映像コンテンツを認識できた、と判断する。そして、照合部130は、そのフィンガープリントに対応する情報を照合結果として出力する。
なお、この認識条件には、類似すると判定されるフィンガープリントの数に関する条件に加え、静的フィンガープリントおよび動的フィンガープリントの順序に関する条件が加えられてもよい。
また、照合部130は、例えば認識条件(d)に基づいて照合処理を行う場合は、以下のように判断する。照合部130は、上述した類似判定において、静的フィンガープリントまたは動的フィンガープリントが2回連続して「類似する」と判定された場合に、映像コンテンツを認識できた、と判断する(ステップS230のYes)。そうでなければ、照合部130は、映像コンテンツを認識できなかった、と判断する(ステップS230のNo)。
なお、この認識条件(d)は、以下の意味である。フィンガープリント生成部110において生成される時間的に連続したフィンガープリントが、2回以上連続して「類似する」と判定される。これには、2回以上連続して生成された静的フィンガープリントが2回以上連続して「類似する」と判定される場合と、2回以上連続して生成された動的フィンガープリントが2回以上連続して「類似する」と判定される場合と、互いに切り替わりながら連続して生成された静的フィンガープリントおよび動的フィンガープリントが2回以上連続して「類似する」と判定される場合と、が含まれる。
照合部130は、例えば所定の期間が5フレームに設定されていれば、画像変化フレームの5フレームの期間に、以下の処理を実行する。照合部130は、フィンガープリント生成部110によって生成されたフィンガープリントに含まれる静的フィンガープリントおよび動的フィンガープリントに対して上述の類似判定を行う。そして、静的フィンガープリントまたは動的フィンガープリントが2回連続して「類似する」と判定されたフィンガープリントがあれば、照合部130は、映像コンテンツを認識できた、と判断する。そして、照合部130は、そのフィンガープリントに対応する情報を認識結果として出力する。
また、照合部130は、例えば認識条件(e)に基づいて照合処理を行う場合は、以下のように判断する。照合部130は、上述した類似判定において、静的フィンガープリントまたは動的フィンガープリントが3回連続して「類似する」と判定された場合に、映像コンテンツを認識できた、と判断する(ステップS230のYes)。そうでなければ、照合部130は、映像コンテンツを認識できなかった、と判断する(ステップS230のNo)。
なお、この認識条件(e)は、以下の意味である。フィンガープリント生成部110において生成される時間的に連続したフィンガープリントが、3回以上連続して「類似する」と判定される。これには、3回以上連続して生成された静的フィンガープリントが3回以上連続して「類似する」と判定される場合と、3回以上連続して生成された動的フィンガープリントが3回以上連続して「類似する」と判定される場合と、互いに切り替わりながら連続して生成された静的フィンガープリントおよび動的フィンガープリントが3回以上連続して「類似する」と判定される場合と、が含まれる。
照合部130は、例えば所定の期間が8フレームに設定されていれば、画像変化フレームの8フレームの期間に、以下の処理を実行する。照合部130は、フィンガープリント生成部110によって生成されたフィンガープリントに含まれる静的フィンガープリントおよび動的フィンガープリントに対して上述の類似判定を行う。そして、静的フィンガープリントまたは動的フィンガープリントが3回連続して「類似する」と判定されたフィンガープリントがあれば、照合部130は、映像コンテンツを認識できた、と判断する。そして、照合部130は、そのフィンガープリントに対応する情報を認識結果として出力する。
なお、上述した認識条件においては、「類似する」と判定されるフィンガープリントの数、または、連続して「類似する」と判定されるフィンガープリントの数、を多くすることで、照合(コンテンツ認識)の精度を高めることができる。
照合部130が認識条件(e)に基づいて照合処理を行う場合の動作の一例を、図21に模式的に示す。この場合、照合部130は、静的フィンガープリントまたは動的フィンガープリントが3回連続で類似することを認識条件とする。
例えば、サーバ装置20のフィンガープリントDB22から取得されたコンテンツ00Xのフィンガープリントが、静的フィンガープリントA、動的フィンガープリントB、静的フィンガープリントC、動的フィンガープリントD、静的フィンガープリントE、の順番で並んでいたとする。なお、図21には、それぞれを、「静的A」、「動的B」、「静的C」、「動的D」、「静的E」、と記す。
このとき、映像受信部11で受信された映像コンテンツから生成されるフィンガープリントが、静的フィンガープリントA、動的フィンガープリントB、静的フィンガープリントCの順番で並んでいたとする。なお、図21には、それぞれを、「静的A」、「動的B」、「静的C」、と記す。
この例では、照合部130は、上述した類似判定において、静的フィンガープリントA、動的フィンガープリントB、静的フィンガープリントC、のそれぞれに対して、「類似する」の判定結果を出す。すなわち、照合部130は、3回連続で「類似する」と判定する。
これにより、照合部130は、映像受信部11で受信された映像コンテンツのフィンガープリントは、サーバ装置20から取得されたコンテンツ00Xのフィンガープリントに類似する、と判定する。すなわち、照合部130は、映像受信部11で受信された映像コンテンツはコンテンツ00Xである、と認識する。そして、照合部130は、コンテンツ00Xを示す情報(コンテンツ00Xのフィンガープリントに対応する情報)を照合結果として出力する。
照合部130で映像コンテンツを認識でき、照合部130から照合結果が出力されたとき(ステップS230でYes)は、出力部140は、照合部130から受け取った照合結果に基づく画像認識の結果を付加情報取得部13に出力する(ステップS240)。この画像認識の結果は、フィンガープリント取得部120によってサーバ装置20から取得された複数のフィンガープリントの中の1つのフィンガープリントに対応する映像コンテンツを示す情報であって、映像受信部11で受信された映像コンテンツのフィンガープリントに類似すると判定されたフィンガープリントに対応する映像コンテンツを示す情報である。この映像コンテンツを示す情報は、例えばコンテンツIDであるが、本開示はこの情報を限定しない。映像コンテンツを特定できる情報であればどのような情報であってもよい。
照合部130で映像コンテンツを認識できず、照合部130から照合結果が出力されないとき(ステップS230でNo)、受信装置10の処理はステップS1に戻り、ステップS1以降の一連の処理が繰り返される。
[1−5.効果等]
以上のように、本実施の形態において、認識データ生成装置は、画像取得部と、データ生成部と、を備える。画像取得部は、映像コンテンツを構成するフレームシーケンスに含まれる複数の画像フレームを取得する。データ生成部は、画像取得部によって取得された複数の画像フレームのフレーム間における画像の変化に基づいて、映像コンテンツを表す認識データであって、映像コンテンツを認識する際のフィンガープリントとして用いられる認識データ、を生成する。
また、本実施の形態において、画像認識装置は、認識データ生成装置と、取得部と、照合部と、を備える。取得部は、複数の映像コンテンツのそれぞれを表す複数の認識データを取得する。照合部は、データ生成部で生成された認識データを、取得部によって取得された複数の認識データと照合する。
なお、フィンガープリント生成部110は認識データ生成装置の一例である。画像取得部111は画像取得部の一例である。フィンガープリントは認識データの一例である。データ生成部112はデータ生成部の一例である。画像認識部100は画像認識装置の一例である。フィンガープリント取得部120は取得部の一例である。照合部130は照合部の一例である。
この構成により、画像フレーム間の画像の変化に基づいて認識データ(フィンガープリント)が生成されるので、画像認識の精度を上げつつ画像認識に係る処理を低減できる。例えば、フレーム間の画像の変化は、差分の算出等の比較的負荷の軽い処理で実行可能である。一方、従来技術では、画像フレームの照合等に輪郭検知などの比較的負荷の重い処理が必要である。したがって、本開示によれば、従来技術に比べて処理を低減してフィンガープリントを生成することができる。
その認識データ生成装置において、データ生成部は、フレーム間の画像の変化量が第1閾値より小さい静的領域に基づいた静的フィンガープリント、および、フレーム間の画像の変化量が第2閾値より大きい動的領域に基づいた動的フィンガープリント、の少なくとも一方を含む認識データを生成してもよい。
例えば、静的領域は、画像フレームにおいて背景および動きや変化の小さい被写体等が占める領域である。すなわち、連続した画像フレームにおいて、静的領域の被写体は、動きや変化が相対的に少ない。したがって、静的領域を特定して画像認識を行うことで、画像認識の精度を高めることが可能になる。動的領域は、シーンの切り替わり等に生じる比較的大きな画像の変化が発生した領域である。すなわち、動的領域は、特徴的な画像の変化が起きる領域であるので、動的領域を特定して画像認識を行うことで、画像認識の精度を高めることが可能になる。また、動的領域が発生するフレームは相対的に少ないので、画像認識に必要なフレーム数を従来に比べて削減することができる。
その認識データ生成装置において、データ生成部は、差分算出部と、決定部と、生成部240と、を備えてもよい。差分算出部は、画像取得部によって取得された複数の画像フレームのうち、時間的に隣り合う2つの画像フレーム間の画素値の差分を画素変化値として算出することで、画像変化フレームを生成してもよい。決定部は、画像変化フレーム内の画素変化値の絶対値が第1閾値より小さい静的領域、および、画像変化フレーム内の画素変化値の絶対値が第2閾値より大きい動的領域の少なくとも一方を決定してもよい。生成部は、決定部によって決定された静的領域および動的領域の少なくとも一方に基づいて、静的フィンガープリントおよび動的フィンガープリントの少なくとも一方を生成してもよい。
なお、差分算出部220は差分算出部の一例である。決定部230は決定部の一例である。生成部240は生成部の一例である。
その認識データ生成装置において、生成部は、静的領域が画像変化フレーム内の第1割合以上を占める場合に、静的領域に基づいて静的フィンガープリントを生成してもよい。
これにより、背景および動きや変化の少ない被写体を適切に抽出することが可能になる。
その認識データ生成装置において、生成部は、2つの画像フレームの一方を静的領域でフィルタリングして静的フレームを生成し、生成した静的フレームを静的フィンガープリントとしてもよい。
これにより、画像フレーム内の静的領域以外の領域の輝度値を例えば「0」にする等して、静的フィンガープリントの情報量を削減することができる。
その認識データ生成装置において、生成部は、動的領域が画像変化フレーム内の第2割合以上を占める場合に、動的領域に基づいて動的フィンガープリントを生成してもよい。
これにより、シーンの切り替わり等の大きな画像の変化が起きたことを適切に抽出することが可能になる。
その認識データ生成装置において、生成部は、画像変化フレームを動的領域でフィルタリングして動的フレームを生成し、生成した動的フレームを動的フィンガープリントとしてもよい。
これにより、画像フレーム内の動的領域以外の領域の輝度変化値を例えば「0」にする等して、動的フィンガープリントの情報量を削減することができる。
この画像認識装置において、データ生成部は、フレーム間の画像の変化量が第1閾値より小さい静的領域に基づいた1以上の静的フィンガープリント、および、フレーム間の画像の変化量が第2閾値より大きい動的領域に基づいた1以上の動的フィンガープリントの少なくとも2つを含む認識データを生成してもよい。照合部は、データ生成部で生成された認識データに含まれる静的フィンガープリントおよび動的フィンガープリントのそれぞれを、取得部によって取得された複数の認識データと照合することで、静的フィンガープリントまたは動的フィンガープリントに類似する認識データを選定し、選定された認識データに対応する情報を照合結果として出力してもよい。
なお、データ生成部112は、データ生成部の一例である。
これにより、背景および動きや変化の小さい被写体を適切に抽出することが可能になる。また、シーンの切り替わり等の大きな画像の変化が起きたことを適切に抽出することが可能になる。
この画像認識装置において、照合部は、データ生成部で生成された認識データに含まれる静的フィンガープリントおよび動的フィンガープリントの少なくとも2つに類似する認識データを選定し、選定された認識データに対応する情報を照合結果として出力してもよい。
これにより、静的フィンガープリントおよび動的フィンガープリントの少なくとも2つの判定結果を用いて画像認識を行うことができるので、画像認識の精度をより高めることができる。
また、本実施の形態において、認識データ生成方法は、映像コンテンツを構成するフレームシーケンスに含まれる複数の画像フレームを取得する画像取得ステップと、取得した複数の画像フレームのフレーム間における画像の変化に基づいて、映像コンテンツを表す認識データであって、映像コンテンツを認識する際のフィンガープリントとして用いられる認識データ、を生成する生成ステップと、を含む。
これにより、画像認識に係る処理をより低減できる。
なお、これらの包括的または具体的な態様は、システム、装置、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROM等の記録媒体で実現されてもよく、システム、装置、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
(他の実施の形態)
以上のように、本出願において開示する技術の例示として、実施の形態1を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略等を行った実施の形態にも適用できる。また、上記実施の形態1で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
そこで、以下、他の実施の形態を例示する。
実施の形態1では、映像コンテンツの認識に、静的フィンガープリントと動的フィンガープリントとの両方を用いる構成例を示したが、本開示は何らこの構成に限定されない。静的フィンガープリントと動的フィンガープリントとのいずれか一方のみを用いて映像コンテンツの認識が行われてもよい。例えば、図8のフローチャートにおいて、ステップS110およびステップS120のいずれか一方のみが行われてもよい。フィンガープリント生成部110は、例えば、静的領域決定部231および動的領域決定部232のいずれか一方のみを備える構成であってもよい。また、フィンガープリント生成部110は、例えば、静的フィンガープリント生成部241および動的フィンガープリント生成部242のいずれか一方のみを備える構成であってもよい。
実施の形態1では、広告コンテンツを画像認識する動作例を説明したが、画像認識の対象は何ら広告コンテンツに限定されない。受信装置10で行う画像認識の対象は、例えば、ドラマやバラエティなどの番組コンテンツであってもよい。この場合、受信装置10は、付加情報として、例えば、出演者自身のプロフィール、出演者が身につけている衣服、出演者が訪れた場所、等に関する情報を取得して映像に重畳し、表示画面に表示することができる。
サーバ装置20は、番組コンテンツ等の、広告コンテンツ以外の映像コンテンツに対応するフィンガープリントを生成してもよい。フィンガープリントDB22は、番組コンテンツに対応するフィンガープリントを、コンテンツIDに対応付けて保持してもよい。
実施の形態1において、各構成要素は、専用のハードウェアで構成されてもよく、あるいは、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリ等の記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、実施の形態の受信装置を実現するソフトウェアは、次のようなプログラムである。
すなわち、当該プログラムは、認識データ生成方法をコンピュータに実行させるためのプログラムであって、認識データ生成方法は、映像コンテンツを構成するフレームシーケンスに含まれる複数の画像フレームを取得する画像取得ステップと、取得した複数の画像フレームのフレーム間における画像の変化に基づいて、映像コンテンツを表す認識データであって、映像コンテンツを認識する際のフィンガープリントとして用いられる認識データを生成する生成ステップと、を含む。
また、上記のプログラムを、記録媒体に記録して頒布または流通させてもよい。例えば、頒布されたプログラムを装置類にインストールして、装置類のプロセッサに実行させることで、装置類に各種処理を行わせることが可能となる。
また、上記の各装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAM等を含んで構成されるコンピュータシステムである。ROMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、ROMからRAMにコンピュータプログラムをロードし、ロードしたコンピュータプログラムにしたがって演算等の動作をすることにより、システムLSIは、その機能を達成する。
また、上記の各装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されてもよい。ICカードまたはモジュールは、マイクロプロセッサ、ROM、RAM等から構成されるコンピュータシステムである。ICカードまたはモジュールには、上記の超多機能LSIが含まれてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、ICカードまたはモジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有してもよい。
また、本開示は、コンピュータプログラムまたはデジタル信号をコンピュータで読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−Ray Disc(登録商標))、半導体メモリ等に記録したもので実現してもよい。さらに、これらの記録媒体に記録されているデジタル信号で実現してもよい。
また、本開示におけるコンピュータプログラムまたはデジタル信号を、電気通信回線、無線または有線通信回線、インターネット等のネットワーク、データ放送、等を経由して伝送してもよい。
また、本開示は、プログラムまたはデジタル信号を記録媒体に記録して移送することにより、またはプログラムまたはデジタル信号を、ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施してもよい。
また、実施の形態において、各処理(各機能)は、単一の装置(システム)によって集中処理されることによって実現されてもよく、あるいは、複数の装置によって分散処理されることによって実現されてもよい。
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
本開示は、通信ネットワークを利用して映像コンテンツの認識を行う認識データ生成装置、画像認識装置および認識データ生成方法に適用可能である。具体的には、テレビ等の映像受信装置、またはサーバ装置等に、本開示は適用可能である。
1 コンテンツ認識システム
2 広告主
3 放送局
4 STB
10 受信装置
11 映像受信部
11a 映像入力部
11b 第1外部入力部
11c 第2外部入力部
12 映像抽出部
13 付加情報取得部
14 映像出力部
15 制御部
16 操作信号受信部
17 HTTP送受信部
18 付加情報格納部
19 付加情報表示制御部
20 サーバ装置
21 コンテンツ受信部
22 フィンガープリントDB
30 広告サーバ装置
31 付加情報DB
91,92 フレーム
100 画像認識部
110 フィンガープリント生成部
111 画像取得部
112 データ生成部
120 フィンガープリント取得部
130 照合部
140 出力部
210 スケール変換部
220 差分算出部
230 決定部
231 静的領域決定部
232 動的領域決定部
240 生成部
241 静的フィンガープリント生成部
242 動的フィンガープリント生成部

Claims (3)

  1. 映像コンテンツを構成するフレームシーケンスに含まれる複数の画像フレームを取得する画像取得部と、
    前記画像取得部によって取得された前記複数の画像フレームのフレーム間における画像の変化に基づいて、前記映像コンテンツを表す認識データであって、前記映像コンテンツを認識する際のフィンガープリントとして用いられる認識データを生成するデータ生成部と、を備え、
    前記データ生成部は、
    前記画像取得部によって取得された前記複数の画像フレームのうち、時間的に隣り合う2つの画像フレーム間の画素値の差分を画素変化値として算出することで、画像変化フレームを生成する差分算出部と、
    前記画像変化フレーム内の画素変化値の絶対値が第1閾値より小さい静的領域、および、前記画像変化フレーム内の画素変化値の絶対値が第2閾値より大きい動的領域、の少なくとも一方を決定する決定部と、
    前記決定部によって決定された前記静的領域が前記画像変化フレーム内の第1割合以上を占める場合に、前記静的領域に基づいて静的フィンガープリントを生成する生成部と、を備える、
    認識データ生成装置。
  2. 映像コンテンツを構成するフレームシーケンスに含まれる複数の画像フレームを取得する画像取得部と、
    前記画像取得部によって取得された前記複数の画像フレームのフレーム間における画像の変化に基づいて、前記映像コンテンツを表す認識データであって、前記映像コンテンツを認識する際のフィンガープリントとして用いられる認識データを生成するデータ生成部と、を備え、
    前記データ生成部は、
    前記画像取得部によって取得された前記複数の画像フレームのうち、時間的に隣り合う2つの画像フレーム間の画素値の差分を画素変化値として算出することで、画像変化フレームを生成する差分算出部と、
    前記画像変化フレーム内の画素変化値の絶対値が第1閾値より小さい静的領域、および、前記画像変化フレーム内の画素変化値の絶対値が第2閾値より大きい動的領域、の少なくとも一方を決定する決定部と、
    前記決定部によって決定された前記動的領域が前記画像変化フレーム内の第2割合以上を占める場合に、前記動的領域に基づいて動的フィンガープリントを生成する生成部と、 を備える
    認識データ生成装置。
  3. 請求項1に記載の認識データ生成装置と、
    複数の映像コンテンツのそれぞれを表す複数の認識データを取得する取得部と、
    前記データ生成部で生成された認識データを、前記取得部によって取得された前記複数の認識データと照合する照合部と、を備え、
    前記認識データ生成装置の前記照合部は、前記データ生成部で生成された前記認識データに含まれる前記静的フィンガープリントを、前記取得部によって取得された前記複数の認識データと照合することで、前記静的フィンガープリントに類似する認識データを選定し、選定された前記認識データに対応する情報を照合結果として出力する、
    画像認識装置。
JP2016534112A 2014-07-17 2015-07-13 認識データ生成装置、画像認識装置および認識データ生成方法 Active JP6471359B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014147176 2014-07-17
JP2014147176 2014-07-17
PCT/JP2015/003527 WO2016009637A1 (ja) 2014-07-17 2015-07-13 認識データ生成装置、画像認識装置および認識データ生成方法

Publications (2)

Publication Number Publication Date
JPWO2016009637A1 JPWO2016009637A1 (ja) 2017-04-27
JP6471359B2 true JP6471359B2 (ja) 2019-02-20

Family

ID=55078145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016534112A Active JP6471359B2 (ja) 2014-07-17 2015-07-13 認識データ生成装置、画像認識装置および認識データ生成方法

Country Status (5)

Country Link
US (1) US10616613B2 (ja)
EP (1) EP3171609B1 (ja)
JP (1) JP6471359B2 (ja)
CN (1) CN106233747B (ja)
WO (1) WO2016009637A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6432047B2 (ja) * 2014-08-21 2018-12-05 パナソニックIpマネジメント株式会社 コンテンツ認識装置およびコンテンツ認識方法
US10013614B2 (en) * 2016-06-29 2018-07-03 Google Llc Using an image matching system to improve the quality of service of a video matching system
US11328322B2 (en) * 2017-09-11 2022-05-10 [24]7.ai, Inc. Method and apparatus for provisioning optimized content to customers
KR102503152B1 (ko) * 2018-07-03 2023-02-24 삼성디스플레이 주식회사 유기 발광 표시 장치 및 이의 구동 방법
CN110198475B (zh) * 2018-11-09 2022-02-25 腾讯科技(深圳)有限公司 视频处理方法、装置、设备、服务器与可读存储介质
US10971161B1 (en) 2018-12-12 2021-04-06 Amazon Technologies, Inc. Techniques for loss mitigation of audio streams
US11336954B1 (en) * 2018-12-12 2022-05-17 Amazon Technologies, Inc. Method to determine the FPS on a client without instrumenting rendering layer
US11356326B2 (en) 2018-12-13 2022-06-07 Amazon Technologies, Inc. Continuously calibrated network system
US11368400B2 (en) 2018-12-13 2022-06-21 Amazon Technologies, Inc. Continuously calibrated network system
US11252097B2 (en) 2018-12-13 2022-02-15 Amazon Technologies, Inc. Continuous calibration of network metrics
US11016792B1 (en) 2019-03-07 2021-05-25 Amazon Technologies, Inc. Remote seamless windows
US11245772B1 (en) 2019-03-29 2022-02-08 Amazon Technologies, Inc. Dynamic representation of remote computing environment
US11461168B1 (en) 2019-03-29 2022-10-04 Amazon Technologies, Inc. Data loss protection with continuity
US20210209203A1 (en) * 2020-01-06 2021-07-08 Accenture Global Solutions Limited Methods and systems for protecting digital content against artificial intelligence-based unauthorized manipulation of the digital content
CN111565300B (zh) * 2020-05-22 2020-12-22 深圳市百川安防科技有限公司 基于对象的视频文件处理方法、设备及系统
CN113920463A (zh) * 2021-10-19 2022-01-11 平安国际智慧城市科技股份有限公司 基于视频指纹的视频匹配方法、装置、设备及存储介质
CN116996639A (zh) * 2023-02-13 2023-11-03 深圳Tcl新技术有限公司 投屏帧率获取方法、装置、计算机设备以及存储介质

Family Cites Families (109)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04245552A (ja) 1991-01-31 1992-09-02 Canon Inc データベース検索方法
JPH09185720A (ja) 1995-12-28 1997-07-15 Canon Inc 画像抽出装置
JP3731952B2 (ja) 1996-10-18 2006-01-05 シャープ株式会社 動画像検索用情報生成装置
JPH10214258A (ja) 1997-01-28 1998-08-11 Victor Co Of Japan Ltd データ処理システム
JP2000287189A (ja) 1999-03-31 2000-10-13 Toshiba Corp テレビ番組の視聴管理装置
JP3485020B2 (ja) 1999-04-09 2004-01-13 日本電気株式会社 文字認識方法及び装置ならびに記憶媒体
US8205223B2 (en) 2000-04-12 2012-06-19 Lg Electronics Inc. Method and video device for accessing information
CN100592788C (zh) 2000-04-14 2010-02-24 日本电信电话株式会社 与广播信息相关的信息取得方法、系统和装置
CN1324895C (zh) 2000-04-14 2007-07-04 日本电信电话株式会社 与广播信息相关的信息取得方法、系统和装置
JP3994682B2 (ja) 2000-04-14 2007-10-24 日本電信電話株式会社 放送情報送受信システム
JP2002016885A (ja) 2000-06-30 2002-01-18 Pioneer Electronic Corp 映像再生装置及び映像再生方法
US20020126990A1 (en) 2000-10-24 2002-09-12 Gary Rasmussen Creating on content enhancements
JP2002175311A (ja) 2000-12-08 2002-06-21 Nippon Telegr & Teleph Corp <Ntt> 映像情報登録方法、映像情報登録装置、映像情報検索方法及び映像情報検索装置
US6829015B2 (en) 2001-01-19 2004-12-07 Samsung Electronics Co., Ltd. Device and method for realizing transparency in an on screen display
JP2002232372A (ja) 2001-01-31 2002-08-16 Matsushita Electric Ind Co Ltd 放送番組関連情報提供装置
KR20020072453A (ko) 2001-03-10 2002-09-16 삼성전자 주식회사 재생장치 및 부가정보 서비스 서버 시스템
JP2002334010A (ja) 2001-05-11 2002-11-22 Tsubasa System Co Ltd 広域ネットワークシステム
JP2004007323A (ja) 2001-06-11 2004-01-08 Matsushita Electric Ind Co Ltd テレビジョン放送受信機
US20030084462A1 (en) 2001-10-26 2003-05-01 Junichi Kubota Digital boradcast reception device and method thereof, and printing device and method thereof
US20030149983A1 (en) 2002-02-06 2003-08-07 Markel Steven O. Tracking moving objects on video with interactive access points
JP2004104368A (ja) 2002-09-06 2004-04-02 Sony Corp 画像データ処理方法、画像データ処理プログラム及び立体画像表示装置
KR100930351B1 (ko) 2003-02-25 2009-12-08 엘지전자 주식회사 고밀도 광디스크의 그래픽 및 서브타이틀 데이터관리방법
US7809154B2 (en) 2003-03-07 2010-10-05 Technology, Patents & Licensing, Inc. Video entity recognition in compressed digital video streams
US7738704B2 (en) 2003-03-07 2010-06-15 Technology, Patents And Licensing, Inc. Detecting known video entities utilizing fingerprints
US20040194130A1 (en) * 2003-03-07 2004-09-30 Richard Konig Method and system for advertisement detection and subsitution
JP4374902B2 (ja) 2003-05-16 2009-12-02 富士通株式会社 類似画像検索装置、類似画像検索方法、および類似画像検索プログラム
JP4109185B2 (ja) 2003-12-01 2008-07-02 日本電信電話株式会社 映像シーン区間情報抽出方法,映像シーン区間情報抽出装置,映像シーン区間情報抽出プログラムおよびそのプログラムを記録した記録媒体
JP2005167894A (ja) 2003-12-05 2005-06-23 Matsushita Electric Ind Co Ltd コンテンツ切替方法、およびチャンネル切替方法
JP2005347806A (ja) 2004-05-31 2005-12-15 Toshiba Corp 電子機器および該電子機器にて実行される番組情報取得方法
JP2006030244A (ja) 2004-07-12 2006-02-02 Matsushita Electric Ind Co Ltd 情報端末及びプログラム
WO2006030742A1 (ja) 2004-09-14 2006-03-23 Matsushita Electric Industrial Co., Ltd. 機器制御システムおよび機器制御方法
US20060200842A1 (en) 2005-03-01 2006-09-07 Microsoft Corporation Picture-in-picture (PIP) alerts
JP2006303936A (ja) 2005-04-21 2006-11-02 Matsushita Electric Ind Co Ltd コンテンツデータ、受信装置、生成装置および送信装置
WO2007017970A1 (ja) 2005-08-11 2007-02-15 Mitsubishi Denki Kabushiki Kaisha 映像記録装置、シーンチェンジ抽出方法、及び映像音声記録装置
JP3894940B2 (ja) 2005-08-11 2007-03-22 三菱電機株式会社 映像音声記録装置
JP4757876B2 (ja) 2005-09-30 2011-08-24 パイオニア株式会社 ダイジェスト作成装置およびそのプログラム
JP2007134948A (ja) 2005-11-10 2007-05-31 Matsushita Electric Ind Co Ltd 駐車車両搭乗者撮像装置
US20070157242A1 (en) 2005-12-29 2007-07-05 United Video Properties, Inc. Systems and methods for managing content
US20090288170A1 (en) * 2006-06-29 2009-11-19 Ryoichi Osawa System and method for object oriented fingerprinting of digital videos
JP4871668B2 (ja) 2006-08-01 2012-02-08 キヤノン株式会社 画像処理システム、画像処理方法及びプログラム
JP2008040622A (ja) 2006-08-02 2008-02-21 Sharp Corp 広告提供システム、広告提供装置、広告表示装置、広告提供方法およびプログラム
JP2008116792A (ja) 2006-11-07 2008-05-22 Sharp Corp 表示制御装置、映像表示機器及び表示制御方法
JP4746568B2 (ja) 2007-01-16 2011-08-10 ヤフー株式会社 情報提供装置、情報提供方法、及びプログラム
JP4957960B2 (ja) 2007-01-29 2012-06-20 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
US8281332B2 (en) 2007-05-02 2012-10-02 Google Inc. Animated video overlays
US8229227B2 (en) 2007-06-18 2012-07-24 Zeitera, Llc Methods and apparatus for providing a scalable identification of digital video sequences
US8433611B2 (en) 2007-06-27 2013-04-30 Google Inc. Selection of advertisements for placement with content
WO2009011030A1 (ja) 2007-07-17 2009-01-22 Pioneer Corporation 情報処理システム、並びに情報処理装置及び情報処理方法
JP5203648B2 (ja) 2007-07-20 2013-06-05 オリンパス株式会社 画像抽出装置および画像抽出プログラム
JP2009088777A (ja) 2007-09-28 2009-04-23 Dentsu Inc 広告選択最適化処理装置及びその処理方法
US8060609B2 (en) 2008-01-04 2011-11-15 Sling Media Inc. Systems and methods for determining attributes of media items accessed via a personal media broadcaster
US8621505B2 (en) 2008-03-31 2013-12-31 At&T Intellectual Property I, L.P. Method and system for closed caption processing
JP4623135B2 (ja) 2008-05-08 2011-02-02 株式会社デンソー 画像認識装置
JP4870820B2 (ja) 2008-05-28 2012-02-08 京セラ株式会社 通信端末、検索サーバ及び通信システム
CN101689328B (zh) 2008-06-11 2014-05-14 松下电器产业株式会社 图像处理设备以及图像处理方法
US8195689B2 (en) 2009-06-10 2012-06-05 Zeitera, Llc Media fingerprinting and identification system
US9367544B2 (en) 2008-06-18 2016-06-14 Gracenote, Inc. Method for efficient database formation and search on media devices acting synchronously with television programming
JP4640456B2 (ja) 2008-06-25 2011-03-02 ソニー株式会社 画像記録装置、画像記録方法、画像処理装置、画像処理方法、プログラム
WO2010022000A2 (en) 2008-08-18 2010-02-25 Ipharro Media Gmbh Supplemental information delivery
JP5602138B2 (ja) * 2008-08-21 2014-10-08 ドルビー ラボラトリーズ ライセンシング コーポレイション オ−ディオ及びビデオ署名生成及び検出のための特徴の最適化及び信頼性予測
WO2010021527A2 (ko) 2008-08-22 2010-02-25 Jung Tae Woo 영상에 포함된 객체를 색인하는 시스템 및 방법
US20100259684A1 (en) 2008-09-02 2010-10-14 Panasonic Corporation Content display processing device and content display processing method
CN101803396B (zh) 2008-09-17 2014-03-05 松下电器产业株式会社 记录方法、再现装置和集成电路
JP2010164901A (ja) 2009-01-19 2010-07-29 Sharp Corp Osd信号処理装置、av装置、映像表示システム、及びosd表示方法
KR101369915B1 (ko) * 2009-01-23 2014-03-06 닛본 덴끼 가부시끼가이샤 영상 식별자 추출 장치
US8260055B2 (en) 2009-03-27 2012-09-04 The Nielsen Company (Us), Llc Methods and apparatus for identifying primary media content in a post-production media content presentation
JP5434265B2 (ja) 2009-05-22 2014-03-05 三菱電機株式会社 領域分類装置、画質改善装置、映像表示装置、およびそれらの方法
JP5320204B2 (ja) 2009-07-31 2013-10-23 日本電信電話株式会社 情報端末装置、情報検索方法、および情報検索プログラム
US8421921B1 (en) 2009-07-31 2013-04-16 Pixelworks, Inc. Post processing displays with on-screen displays
JP5440051B2 (ja) 2009-09-11 2014-03-12 株式会社Jvcケンウッド コンテンツ同定方法、コンテンツ同定システム、コンテンツ検索装置及びコンテンツ利用装置
US8582952B2 (en) 2009-09-15 2013-11-12 Apple Inc. Method and apparatus for identifying video transitions
US8327407B2 (en) 2009-10-27 2012-12-04 Sling Media, Inc. Determination of receiving live versus time-shifted media content at a communication device
US20110137976A1 (en) 2009-12-04 2011-06-09 Bob Poniatowski Multifunction Multimedia Device
US8682145B2 (en) 2009-12-04 2014-03-25 Tivo Inc. Recording system based on multimedia content fingerprints
KR20110088334A (ko) 2010-01-28 2011-08-03 삼성전자주식회사 3차원 멀티미디어 서비스를 제공하기 위한 데이터스트림 생성 방법 및 장치, 3차원 멀티미디어 서비스를 제공하기 위한 데이터스트림 수신 방법 및 장치
US8355910B2 (en) 2010-03-30 2013-01-15 The Nielsen Company (Us), Llc Methods and apparatus for audio watermarking a substantially silent media content presentation
JP5111627B2 (ja) 2010-04-06 2013-01-09 キヤノン株式会社 映像処理装置及び映像処理方法
JP5594002B2 (ja) 2010-04-06 2014-09-24 ソニー株式会社 画像データ送信装置、画像データ送信方法および画像データ受信装置
ES2670663T3 (es) 2010-07-12 2018-05-31 Koninklijke Philips N.V. Datos auxiliares en difusión de vídeo en 3D
JP2012027687A (ja) 2010-07-23 2012-02-09 Casio Comput Co Ltd 画像処理装置及びプログラム
WO2012070250A1 (ja) 2010-11-25 2012-05-31 パナソニック株式会社 通信機器
US9106871B2 (en) * 2011-04-01 2015-08-11 Google Inc. Detecting which channel a local STB is displaying using a local tuner
JP2012231383A (ja) 2011-04-27 2012-11-22 Nippon Telegr & Teleph Corp <Ntt> Iptvサービスを利用した情報表示制御装置、表示用情報提供サーバ、情報表示制御方法、情報配信方法、情報表示制御用プログラム、および情報配信用プログラム
KR101778530B1 (ko) 2011-06-14 2017-09-15 삼성전자 주식회사 영상 처리 방법 및 장치
RU2594000C2 (ru) * 2011-08-05 2016-08-10 Сони Корпорейшн Приемное устройство, способ приема, носитель записи и система обработки информации
KR101828342B1 (ko) 2011-08-10 2018-02-12 삼성전자 주식회사 방송수신장치, 방송신호 관련 연관정보 제공방법 및 서버
KR101995425B1 (ko) 2011-08-21 2019-07-02 엘지전자 주식회사 영상 표시 장치, 단말 장치 및 그 동작 방법
US8805827B2 (en) 2011-08-23 2014-08-12 Dialogic (Us) Inc. Content identification using fingerprint matching
US20130111514A1 (en) 2011-09-16 2013-05-02 Umami Co. Second screen interactive platform
JP5948773B2 (ja) 2011-09-22 2016-07-06 ソニー株式会社 受信装置、受信方法、プログラム、及び情報処理システム
KR101310943B1 (ko) 2011-09-26 2013-09-23 (주)엔써즈 방송 콘텐츠와 연관된 콘텐츠 연관 정보를 제공하는 시스템 및 방법
US8842879B2 (en) 2011-10-12 2014-09-23 Vixs Systems, Inc Video processing device for embedding time-coded metadata and methods for use therewith
US9626798B2 (en) 2011-12-05 2017-04-18 At&T Intellectual Property I, L.P. System and method to digitally replace objects in images or video
US9204199B2 (en) 2011-12-06 2015-12-01 Lg Electronics Inc. Image display apparatus and methods for operating the same
JP2013125191A (ja) 2011-12-15 2013-06-24 Canon Inc 映像表示装置、映像表示方法及びプログラム
US20120092248A1 (en) 2011-12-23 2012-04-19 Sasanka Prabhala method, apparatus, and system for energy efficiency and energy conservation including dynamic user interface based on viewing conditions
US9578378B2 (en) 2012-01-05 2017-02-21 Lg Electronics Inc. Video display apparatus and operating method thereof
US20130198773A1 (en) 2012-01-27 2013-08-01 Xumo Llc System and method of augmenting linear broadcast advertising
US9210467B2 (en) 2012-02-07 2015-12-08 Turner Broadcasting System, Inc. Method and system for a universal remote control
KR20140125766A (ko) 2012-02-10 2014-10-29 엘지전자 주식회사 영상 표시 장치 및 그 동작 방법
JP5867133B2 (ja) 2012-02-10 2016-02-24 富士通株式会社 画像処理装置、画像処理方法及び画像処理プログラム
WO2013130988A1 (en) 2012-03-02 2013-09-06 Care Cam Innovations, Llc Apparatus, method and computer-readable storage medium for media processing and delivery
WO2013133601A1 (en) 2012-03-05 2013-09-12 Lg Electronics Inc. Video display apparatus and operating method thereof
US9292894B2 (en) 2012-03-14 2016-03-22 Digimarc Corporation Content recognition and synchronization using local caching
US8645994B2 (en) 2012-06-28 2014-02-04 Microsoft Corporation Brand detection in audiovisual media
CN103765421B (zh) 2012-07-06 2018-03-06 松下电器(美国)知识产权公司 内容控制方法、内容控制装置以及程序
JP5820986B2 (ja) 2013-03-26 2015-11-24 パナソニックIpマネジメント株式会社 映像受信装置及び受信映像の画像認識方法
US20150026718A1 (en) 2013-07-19 2015-01-22 United Video Properties, Inc. Systems and methods for displaying a selectable advertisement when video has a background advertisement
US9456237B2 (en) 2013-12-31 2016-09-27 Google Inc. Methods, systems, and media for presenting supplemental information corresponding to on-demand media content

Also Published As

Publication number Publication date
CN106233747A (zh) 2016-12-14
CN106233747B (zh) 2019-07-09
EP3171609A1 (en) 2017-05-24
EP3171609B1 (en) 2021-09-01
WO2016009637A1 (ja) 2016-01-21
US20170034542A1 (en) 2017-02-02
US10616613B2 (en) 2020-04-07
EP3171609A4 (en) 2017-06-07
JPWO2016009637A1 (ja) 2017-04-27

Similar Documents

Publication Publication Date Title
JP6471359B2 (ja) 認識データ生成装置、画像認識装置および認識データ生成方法
JP6432047B2 (ja) コンテンツ認識装置およびコンテンツ認識方法
US11212582B2 (en) Providing restricted overlay content to an authorized client device
US10057657B2 (en) Content replacement with onscreen displays
JP2020025322A (ja) 自動コンテンツ認識フィンガープリントシーケンス照合
JP6424339B2 (ja) 表示制御装置、および表示制御方法
EP2165525A1 (en) Method of processing moving picture and apparatus thereof
US20160125472A1 (en) Gesture based advertisement profiles for users
CN110099298B (zh) 多媒体内容处理方法及终端设备
US11294956B2 (en) Automatic content recognition search optimization
CN112822539A (zh) 信息显示方法、装置、服务器及存储介质
WO2016172715A1 (en) Content replacement with onscreen displays
US9747330B2 (en) Demographic determination for media consumption analytics
JP2018530081A (ja) Acrテレビ・モニタリング・システムにおける作業負荷管理を改善するためのシステムおよび方法
US20150106828A1 (en) Method and apparatus for identifying point of interest and inserting accompanying information into a multimedia signal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181224

R151 Written notification of patent or utility model registration

Ref document number: 6471359

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151