JP7420134B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP7420134B2
JP7420134B2 JP2021508917A JP2021508917A JP7420134B2 JP 7420134 B2 JP7420134 B2 JP 7420134B2 JP 2021508917 A JP2021508917 A JP 2021508917A JP 2021508917 A JP2021508917 A JP 2021508917A JP 7420134 B2 JP7420134 B2 JP 7420134B2
Authority
JP
Japan
Prior art keywords
image
similarity
degree
area
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021508917A
Other languages
English (en)
Other versions
JPWO2020195657A1 (ja
Inventor
啓文 日比
裕之 森崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020195657A1 publication Critical patent/JPWO2020195657A1/ja
Application granted granted Critical
Publication of JP7420134B2 publication Critical patent/JP7420134B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/247Aligning, centring, orientation detection or correction of the image by affine transforms, e.g. correction due to perspective effects; Quadrilaterals, e.g. trapezoids
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Image Analysis (AREA)

Description

本開示は、情報処理装置、情報処理方法及びプログラムに関する。
従来から、画像内の所定のオブジェクトを検出する技術が提案されている。例えば、下記特許文献1には、ディープラーニングによる学習を利用したオブジェクト検出技術が記載されている。
国際公開2017/073344号公報
特許文献1に記載の技術では、毎回、学習を行うことにより処理にかかるコストが増大してしまうという問題がある。
本開示は、学習を行なわずに所定の画像における情報を抽出することができる情報処理装置、情報処理方法及びプログラムを提供することを目的の一つとする。
本開示は、例えば、
テンプレート画像に基づいて設定された、画像領域と解析処理内容とが関連付けられた設定情報を取得する取得部と、
入力画像とテンプレート画像との類似度が一定以上であるか否かを判断し、類似度が一定以上である場合に、入力画像における画像領域に対応する対象領域の画像に対して、画像領域に関連づけられた解析処理内容に対応する解析処理として、対象領域の画像をカテゴリ毎に分類する処理を行う画像処理部と
を有する情報処理装置である。
本開示は、例えば、
取得部が、テンプレート画像に基づいて設定された、画像領域と解析処理内容とが関連付けられた設定情報を取得し、
画像処理部が、入力画像とテンプレート画像との類似度が一定以上であるか否かを判断し、類似度が一定以上である場合に、入力画像における画像領域に対応する対象領域の画像に対して、画像領域に関連づけられた解析処理内容に対応する解析処理として、対象領域の画像をカテゴリ毎に分類する処理を行う
情報処理方法である。
本開示は、例えば、
取得部が、テンプレート画像に基づいて設定された、画像領域と解析処理内容とが関連付けられた設定情報を取得し、
画像処理部が、入力画像とテンプレート画像との類似度が一定以上であるか否かを判断し、類似度が一定以上である場合に、入力画像における画像領域に対応する対象領域の画像に対して、画像領域に関連づけられた解析処理内容に対応する解析処理として、対象領域の画像をカテゴリ毎に分類する処理を行う
情報処理方法をコンピュータに実行させるプログラムである。
図1は、第1の実施形態の概要を説明する際に参照される図である。 図2は、第1の実施形態にかかる情報処理装置の構成例を説明するためのブロック図である。 図3は、第1の実施形態にかかる、テンプレート画像を使用して設定情報を入力するためのUIの一例を示す図である。 図4A及び図4Bは、第1の実施形態にかかる情報処理装置の動作例を説明する際に参照される図である。 図5A及び図5Bは、第1の実施形態にかかる情報処理装置の動作例を説明する際に参照される図である。 図6A及び図6Bは、第1の実施形態にかかる情報処理装置の動作例を説明する際に参照される図である。 図7は、第1の実施形態にかかる情報処理装置の動作例を説明する際に参照される図である。 図8A及び図8Bは、第1の実施形態にかかる情報処理装置の動作例を説明する際に参照される図である。 図9は、第1の実施形態にかかる情報処理装置の動作例を説明する際に参照される図である。 図10は、第1の実施形態にかかる情報処理装置の動作例を説明するためのフローチャートである。 図11は、第1の実施形態にかかる表示情報に対応する表示の一例を示す図である。 図12は、第1の実施形態にかかる表示情報に対応する表示の一例を示す図である。 図13は、第2の実施形態にかかるテロップ画像の一例を示す図である。 図14は、第2の実施形態にかかる、テンプレート画像を使用して設定情報を入力するためのUIの一例を示す図である。 図15は、第2の実施形態にかかる情報処理装置の動作例を説明するためのフローチャートである。 図16は、第2の実施形態にかかる情報処理装置の動作例を説明する際に参照される図である。 図17は、第2の実施形態にかかる情報処理装置の動作例を説明する際に参照される図である。 図18は、第2の実施形態にかかる情報処理装置の動作例を説明する際に参照される図である。 図19は、第2の実施形態にかかる表示情報に対応する表示の一例を示す図である。 図20は、変形例を説明するための図である。 図21は、変形例を説明するための図である。 図22A及び図22Bは、変形例を説明するための図である。 図23は、変形例を説明するための図である。
以下、本開示の実施形態等について図面を参照しながら説明する。なお、説明は以下の順序で行う。
<第1の実施形態>
<第2の実施形態>
<変形例>
<応用例>
以下に説明する実施形態等は本開示の好適な具体例であり、本開示の内容がこれらの実施形態等に限定されるものではない。
<第1の実施形態>
[第1の実施形態の概要]
始めに、図1を参照して、第1の実施形態の概要について説明する。図1は、野球スポーツの映像の中における一画像を示している。コンテンツの一つである野球の映像は、例えば、放送により放映されたり、インターネットにより配信される映像である。図1に示すように、野球の映像等のコンテンツには、広告が表示される。図示の例では、例えば、「AA」という広告1A、「BBエアコン」という広告1B、「CCスポーツ」という広告1C、「株式会社DD」という広告1D、「EEカメラ」という広告1E、「お弁当FF」という広告1F、「グループGG」という広告1Gが表示されている。これらの広告は、野球スタジアムの所定位置に設置されたディスプレイに表示される。
一般に、広告が表示される広告枠は、設置場所やディスプレイの大きさ等に応じて定められた価格により販売される。しかしながら、一つの野球のコンテンツの中で、広告が時間的にどれだけ表示されているかが不明であるため、広告枠の購入者にとっては、広告による宣伝効果がどれだけあるのかがわかりづらいという問題があった。そこで、第1の実施形態では、例えば野球の映像、具体的には、野球の開始から終了までの映像又は放送時間枠における野球の映像の中における広告を抽出し、広告が実際に表示された時間を演算することにより、広告の表示箇所の価値を定量化する。また、かかる処理が、機械学習を行うことなく、比較的、簡易な処理により行われるようにする。以下、第1の実施形態について詳細に説明する。
[情報処理装置の構成例]
図2は、第1の実施形態にかかる情報処理装置(情報処理装置10)の構成例を説明するための図である。情報処理装置10は、取得部101、画像処理部102及び演算部103を有している。画像処理部102は、その機能として、類似度比較部102A、特徴点マッチング部102B、射影変換部102C、領域抽出部102D、画像分類部102E、及び、OCR(Optical Character Recognition/Reader)102Fを有している。
取得部101は、テンプレート画像、設定情報及び入力画像(以下、テンプレート画像等と称する場合がある)を取得する。設定情報は、任意のテンプレート画像に基づいて設定された、画像領域と解析処理内容とが関連付けられた情報である。取得部101の具体的構成は、テンプレート画像等を取得する態様に応じて適宜な構成とすることができる。テンプレート画像等が、情報処理装置10に内蔵されたメモリや情報処理装置10に着脱自在とされるメモリに記憶されている場合には、取得部101は、それらのメモリから読み出し処理を行う構成を有する。また、テンプレート画像等がインターネットや放送により配信される場合には、取得部101は、配信元と通信を行うための構成を有する。取得部101により取得されたテンプレート画像等が、画像処理部102に出力される。
画像処理部102は、入力画像における画像領域に対応する対象領域の画像に対して、画像領域に関連づけられた解析処理内容に対応する解析処理を行う。
類似度比較部102Aは、テンプレート画像と入力画像との類似度を判断する。類似度比較部102Aは、例えば、両画像のそれぞれの特徴量ベクトルを検出し、検出した特徴量ベクトルの差分に基づいて、テンプレート画像と入力画像との類似度を比較し、類似度を判断する。
特徴点マッチング部102Bは、類似度比較部102Aにより、テンプレート画像と入力画像との類似度が一定以上であると判断された場合に、更に、テンプレート画像と入力画像との類似度を詳細に判断する。特徴点マッチング部102Bは、テンプレート画像に含まれる特徴点に対応する特徴点が入力画像に閾値以上の数だけ含まれるか否かに応じて、テンプレート画像と入力画像との類似度を判断する。閾値は、後述する射影変換部102Cによる射影変換を可能とする値に設定される。即ち、特徴点マッチング部102Bにより、入力画像を射影変換することが可能であるか否かが判断されることになる。閾値の具体例としては、カメラの動きを規定する6次元のパラメータ(X軸方向の動き、Y軸方向の動き、Z軸方向の動き、X軸周りの回転運動(ピッチ)、Y軸周りの回転運動(ロール)Z軸周りの回転運動(ヨー))に対応して、6個に設定される。
射影変換部102Cは、特徴点マッチング部102Bにより射影可能と判断されると、入力画像の画角をテンプレート画像の画角と同じにする射影変換を行う。射影変換部102Cによる処理により、テンプレート画像の画角と入力画像の画角が同じとされる。
領域抽出部102Dは、入力画像における、設定情報により設定された画像領域に対応する対象領域の画像を抽出する(切り出す)。抽出された画像が出力される。抽出された対象領域の画像に対しては、設定情報において画像領域に関連付けられた解析処理内容に対応する解析処理が行われる。解析処理は、画像分類処理と、文字及び数字の少なくとも一方を認識する処理(以下、文字認識処理と適宜、称する)である。即ち、領域抽出部102Dは、抽出した画像の領域に関連付けられている解析処理内容が画像分類処理である場合には、当該抽出した対象領域の画像を画像分類部102Eに出力する。また、領域抽出部102Dは、抽出した対象領域の画像の領域に関連付けられている解析処理内容が文字認識処理である場合には、当該抽出した画像をOCR102Fに出力する。
画像分類部102Eは、対象領域の画像をカテゴリ毎に分類する処理を行う。具体的には、画像分類部102Eは、現在の対象領域の画像と、時間的に前の入力画像における対象領域の画像との類似度を判断し、判断結果に応じて、現在の対象領域の画像を所定のカテゴリに分類する。更に具体的には、画像分類部102Eは、現在の対象領域の画像が、時間的に前の入力画像における対象領域の画像と一定以上の類似度である場合には、当該画像と同一のカテゴリに現在の対象領域の画像を分類する。また、画像分類部102Eは、現在の対象領域の画像が、時間的に前の入力画像における対象領域の画像と一定以上の類似度でない場合には、新たに設定したカテゴリに現在の対象領域の画像を分類する。
OCR102Fは、対象領域の画像に対して文字認識処理を行う。OCR102Fによる認識処理結果が、例えば、時系列に沿って記憶される。
なお、画像処理部102は、画像分類部102EやOCR102Fによる解析処理の結果を時間軸に沿って表示する表示情報を生成するようにしても良い。
演算部103は、画像処理部102による処理の結果を使用した演算を行う。演算部103は、例えば、1つの野球のコンテンツにおいて所定の広告が表示された時間を演算する。
以上、情報処理装置10の構成例について説明した。上述した情報処理装置10の構成は一例であり、他の構成が適宜追加されても良い。例えば、情報処理装置10を統括的に制御する制御部や、各種情報を記憶するメモリ等があっても良い。また、設定情報が情報処理装置10により入力されても良く、この場合、設定情報を入力するための適宜な操作入力部(キーボードやタッチパネル等)を情報処理装置10が有していても良い。
[設定情報について]
次に、設定情報の具体例について説明する。なお、以下では、放送コンテンツである野球のコンテンツを構成する映像の中で、所定周期(例えば、1秒とする)で入力される画像を入力画像とした説明がなされる。
図3は、テンプレート画像を使用して設定情報を入力するためのUI(User Interface)の一例を示す図である。なお、上述したように、設定情報は、情報処理装置10で入力されても良いし、情報処理装置10とは異なる他の機器で入力されても良い。
図3に示すように、ディスプレイDPの左側には、テンプレート画像TIMが表示されている。テンプレート画像TIMは、例えば、広告が表示されている野球の一場面の画像である。広告は、例えば、上述した広告1A、広告1B、広告1C、広告1D、広告1E、広告1F及び広告1Gである。テンプレート画像TIMにより示される野球の試合は、入力画像における野球の試合と同一である必要はないが、広告の表示位置は野球スタジアムで異なるため、同じ野球スタジアムでの野球の試合であることが必要である。
テンプレート画像TIMが参照されながら、設定情報が入力される。設定情報は、例えば、互いに関連付けられた、ネーム情報21、解析処理内容に対応するタイプ22、及び、領域情報23を含む。ネーム情報21は、任意に設定される名称である。本例では、ネーム情報21として「telop」、「board1」~「board7」が設定されている。そして、各ネーム情報に対して解析処理内容が関連付けられている。「telop」に対応するタイプ22として「Telop」が関連付けられている。解析処理内容「Telop」とは、テンプレート画像TIMに含まれるテロップ31を公知の画像認識方法で検出する処理である。
「board1」~「board7」には、タイプ22として「ImageClassify」が関連付けられている。「ImageClassify」は、領域情報23で指定される領域の画像に対して、画像分類部102Eによる処理を行うことが指示されていることを意味する。
領域情報23は、テンプレート画像TIM内の領域を指定する情報である。領域情報23としては、例えば、広告が表示されている領域が指定される。例えば、「board1」は広告1Aに対応しているとする。「board1」の領域情報23として、広告1Aが表示される領域、具体的には、x座標が「76」、y座標が「30」である箇所を起点として、幅が「100」で高さが「28」の領域が指定される。なお、「board2」~「board7」は、広告1B~広告1Gに対応している。そして、「board2」~「board7」のそれぞれには、広告1B~広告1Gが表示される領域が領域情報23として指定される。このように、本例では、テンプレート画像TIMに基づいて7個の設定情報が入力されている。
なお、別のアングル、例えば、バッターボックスに立つ打者が正面から写るアングルで撮影される範囲に、広告が表示されるディスプレイやフェンスが存在する場合もある。この場合は、同じアングルのテンプレート画像を用意し、当該テンプレート画像に基づいて設定情報が入力される。即ち、テンプレート画像は、複数あっても良い。そして、複数のテンプレート画像毎の設定情報が用意され、設定情報に基づく処理がパラレルに行われても良い。
[情報処理装置の動作例]
次に、情報処理装置10の動作例について説明する。図4Aに示すように、情報処理装置10の取得部101により、野球のコンテンツの入力画像が取得される。例えば、1秒毎に5フレームの入力画像(IM10~IM14)が取得される。なお、一つの野球のコンテンツの放送時間は実際には数時間程度あるため入力画像も多数取得されるが、ここでは説明を簡単にするために、5個の入力画像としている。図4Bは、テンプレート画像の一例(テンプレート画像TIM)を示している。また、取得部101により、テンプレート画像TIMに基づいて設定された設定情報が取得される。テンプレート画像TIM、テンプレート画像TIMに対応する設定情報、及び、入力画像が画像処理部102に入力される。
類似度比較部102Aは、特徴量ベクトルを使用して入力画像とテンプレート画像との類似度を比較し、判断する。図5Aに示すように、類似度比較部102Aは、例えば入力画像IM12の特徴量ベクトルとして5×5×512の特徴量ベクトルを公知の方法により検出する。なお、特徴量ベクトルの各値は、縦、横、奥行(次元)をそれぞれ示している。また、図5Bに示すように、類似度比較部102Aは、テンプレート画像TIMについても同様に、5×5×512の特徴量ベクトルを検出する。
各入力画像に対して特徴量ベクトルが検出される。本例では、図6Aに模式的に示すようにして、5個の入力画像のそれぞれの特徴量ベクトルが検出される。また、図6Bに模式的に示すように、テンプレート画像TIMの特徴量ベクトルが検出される。
類似度比較部102Aは、各入力画像の特徴量ベクトルとテンプレート画像TIMの特徴量ベクトルとの差分を算出する。そして、類似度比較部102Aは、差分が所定の閾値以下であれば、入力画像とテンプレート画像TIMが、類似度が一定以上であり類似しているものと判断する。また、類似度比較部102Aは、差分が所定の閾値より大きければ、入力画像とテンプレート画像TIMが、類似度が一定より小さく類似していないものと判断する。類似度比較部102Aは、判断結果を特徴点マッチング部102Bに出力する。
特徴点マッチング部102Bは、特徴点検出を行う。特徴点マッチング部102Bは、例えば、2つの画像(テンプレート画像TIMと類似度比較部102Aによりテンプレート画像TIMと類似すると判断された入力画像)の特徴点の類似度が2番目の候補よりも大きく距離が離れているとき、即ち、画像内でその特徴点が特徴的なとき、図7に示すように、その特徴点のペアを抽出する。特徴点のペアが6個以上抽出されると、テンプレート画像TIMと入力画像とが類似されると判断される。上述したように、テンプレート画像TIMと入力画像とが類似するということは、射影変換が可能であることを意味する。特徴点マッチング部102Bは、判断結果を射影変換部102Cに出力する。
射影変換部102Cは、特徴点マッチング部102Bにより類似すると判断された入力画像に対して位置合わせの一例である射影変換を行い、当該入力画像の画角をテンプレート画像TIMの画角に合わせる。図8Aは、射影変換がなされた入力画像IM12が示されている。射影変換により、例えば、左側に黒い箇所が生じ得る。射影変換が行われることにより、図8Aに示す入力画像IM12の画角と、図8Bに示すテンプレート画像TIMの画角とが同じとなる。そして、射影変換部102Cは、射影変換後の入力画像を領域抽出部102Dに出力する。
類似度比較部102A及び特徴点マッチング部102Bによりテンプレート画像TIMと類似していると判断された入力画像には、テンプレート画像TIMと同様に広告が表示されている可能性が高い。また、射影変換部102Cにより、入力画像の画角がテンプレート画像TIMの画角に合わせられている。そこで、領域抽出部102Dは、射影変換後の入力画像から、設定情報の領域情報23で指定されている領域を抽出する。
例えば、領域抽出部102Dは、「board1」に対応する領域情報23に基づいて画像は抽出する。「board1」に対応するタイプ22としては、抽出された画像をカテゴリに分類する処理が指定されている。そこで、領域抽出部102Dは、切り出した画像を画像分類部102Eに出力する。
画像分類部102Eは、領域抽出部102Dから供給された画像に対して、「board1」に対応するタイプ22に対応する解析処理、即ち、抽出された画像をカテゴリに分類する処理を行う。抽出された画像は、例えば、広告1Aに対応する画像である。勿論、「board1」に対応する領域情報23に表示される広告は、時間の経過に伴って、広告1Aと異なる広告に変更される可能性もある。そこで、画像分類部102Eは、抽出された画像(以下、現在対象画像と適宜、称する)と、時間的に前に(過去に)抽出された画像(以下、過去対象画像と適宜、称する)との類似度が判断する。類似度の判断は、例えば、特徴点マッチング部102Bにより行われるが、画像分類部102Eが、特徴点マッチング部102Bによる判断方法と同様の方法により行っても良い。なお、過去対象画像は、1個だけでなく複数個あり得る。その場合には、現在対象画像と複数の過去対象画像のそれぞれとの類似度が判断される。
画像分類部102Eは、現在対象画像と過去対象画像との類似度が一定以上である場合には、現在対象画像を当該過去対象画像と同じカテゴリに分類する。画像分類部102Eは、現在対象画像と類似度が一定以上である過去対象画像が存在しない場合には、新たなカテゴリを設定し、設定したカテゴリに現在対象画像を分類する。カテゴリは、ID(Identifier)により識別される。
例えば、始めの現在対象画像として広告1Aに対応する画像が領域抽出部102Dに抽出されたとする。過去対象画像は存在しないことから、ID1としてカテゴリ1が設定される。次に、同じ入力画像から別の現在対象画像として広告1Bに対応する画像が領域抽出部102Dに抽出されたとする。広告1Aに対応する画像と広告1Bに対応する画像とは類似しないことから、ID2としてカテゴリ2が新たに設定され、カテゴリ2に広告1Bに対応する画像が分類される。図9に示すように、次に入力された入力画像から、広告1Aに対応する画像が抽出されると、当該画像は画像分類部102Eによりカテゴリ1に分類され、カテゴリ1に画像が追加される。広告1B及びその他の広告に対応する画像が抽出された場合も同様にして所定のカテゴリに分類される。
情報処理装置10の動作例を図10のフローチャートを参照して説明する。処理が開始されると、ステップST11では、類似度比較部102Aにより、テンプレート画像の特徴量ベクトルと入力画像の特徴量ベクトルとが検出される。なお、テンプレート画像の特徴量ベクトルは、処理の度に検出されるようにしても良いし、一度検出された特徴量ベクトルを記憶しておきその特徴量ベクトルが処理の度に読み出されるようにしても良い。入力画像は、所定の周期(例えば、1秒)で入力される。そして、処理がステップST12に進む。
ステップST12では、類似度比較部102Aが、テンプレート画像の特徴量ベクトルと入力画像の特徴量ベクトルとの差分を求め、差分に応じて類似度を判断する。具体的には、類似度比較部102Aは、差分が閾値以下であればテンプレート画像と入力画像とが類似していると判断し、差分が閾値より大きい場合にはテンプレート画像と入力画像とが類似していないと判断する。そして、処理がステップST13に進む。
ステップST13では、テンプレート画像と入力画像との類似度に関する判断結果が、類似度比較部102Aから出力される。テンプレート画像と入力画像との類似度が一定以上ない場合には処理がステップST11に戻る。テンプレート画像と入力画像との類似度が一定ある場合には処理がステップST14に進む。
ステップST14では、特徴点マッチング部102Bにより、テンプレート画像と入力画像との間の特徴点マッチングが行われる。具体的には、両画像に含まれる特徴点のペアが閾値(例えば、6個)以上の個数、存在するか否かが判断される。特徴点のペアが閾値以上の個数、存在する場合には、入力画像の画角をテンプレート画像の画角に合わせる射影変換が可能と判断される。特徴点のペアの個数が閾値未満である場合には、射影変換ができないと判断される。そして、処理がステップST15に進む。
ステップST15では、特徴点マッチング部102Bによる判断結果が出力される。特徴点のペアの個数が閾値未満である場合には、処理がステップST11に戻る。特徴点のペアの個数が閾値以上である場合は、処理がステップST16に進む。
ステップST16では、射影変換部102Cによる射影変換が行われ、入力画像の画角がテンプレート画像の画角と同じ画角に射影される。そして、処理がステップST17に進む。
ステップST17では、領域抽出部102Dにより、設定情報で指定されている領域、即ち、広告の箇所の画像が抽出され、これにより現在対象画像が得られる。そして、処理がステップST18に進む。
ステップST18では、特徴点マッチング部102Bにより、現在対象画像と、領域抽出部102Dにより過去に抽出された過去対象画像との類似度が判断される。そして、処理がステップST19に進む。
ステップST19では、特徴点マッチング部102Bによる判断結果が画像分類部102Eに出力される。現在対象画像と過去対象画像との間に存在する特徴点のペアの個数が閾値以上である場合、即ち、射影変換が可能である場合は、処理がステップST20に進む。現在対象画像と過去対象画像との間に存在する特徴点のペアの個数が閾値未満である場合、即ち、射影変換ができない場合は、処理がステップST21に進む。
ステップST20では、特徴点のペアの個数が閾値以上であることから、現在対象画像と類似する過去対象画像が存在することになる。従って、画像分類部102Eは、現在対象画像を類似する過去対象画像と同じカテゴリに分類する。そして、処理がステップST22に進む。
ステップST21では、特徴点のペアの個数が閾値未満であることから、現在対象画像が類似する過去対象画像が存在しないことになる。従って、画像分類部102Eは、新たなカテゴリを設定し、設定したカテゴリに現在対象画像を分類する。そして、処理がステップST22に進む。
ステップST22では、上述したようにして、領域抽出部102Dにより抽出された画像がカテゴリ毎に分類される。
なお、図10では図示を省略しているが、更に、演算部103による処理が行われても良い。例えば、カテゴリ1に、広告1Aに対応する画像が300個分、分類されたとする。入力画像が1秒毎に入力される例では、画像300個が300秒、即ち、一つの野球のコンテンツ内で全体として5分、表示されていたことになる。このように、一つの野球コンテンツの中で、ある広告がどれだけ表示されているのかが定量的に示されるので、広告が表示される広告枠の価値を、広告枠の購買者に対して説得力がある形で示すことが可能となる。
勿論、野球の試合展開に応じて、野球のコンテンツに含まれる場面(アングル)も様々になるため、広告の表示時間も変動し得る。しかしながら、野球の試合展開の内容が、毎試合大幅に変わる可能性は少ないので、広告の表示時間も大幅に異なることはない。なお、演算部103は、かかる点を考慮して、今回演算された広告の表示時間と過去に演算された広告の表示時間との平均等を算出するようにしても良い。
なお、上述した処理例では、類似度比較部102Aが特徴量ベクトルを使用した類似度比較を行うようにしていたが、かかる処理が行われなくても良い。しかしながら、事前に特徴量ベクトルを使用した類似度比較を行うことで、後段の処理の負荷を軽くすることができ、全体として効率的な処理を行うことが可能となる。
なお、複数のテンプレートがある場合には、上述した一連の処理がパラレルに行われる。また、上述した処理は、放送中若しくは配信中の野球のコンテンツのデータに対してリアルタイムで行われても良いし、一旦、記憶された野球のコンテンツのデータに対して行われても良い。
[広告検出結果に対応する表示情報の例]
画像処理部102は、広告検出結果を可視化する表示情報を生成しても良い。情報処理装置10が表示部を有する構成とし、当該表示部に、画像処理部102により生成された表示情報が表示されても良い。
図11は、画像処理部102により生成された表示情報に対応する表示の一例を示している。なお、図11及び後述する図12では、図示のスペースの関係上、画像を矩形により簡略化して示している。
図中、「サムネイル」と表示されている箇所の右側には、1秒毎に入力される入力画像に対応するサムネイル画像が表示される。サムネイル画像は、時間の経過に沿うように表示される。「サムネイル」の下側には、「テンプレート1」及び「テンプレート2」が表示されている。即ち、本例は、「テンプレート1」及び「テンプレート2」の2個のテンプレート画像が使用されている例である。「テンプレート1」に対応するテンプレート画像は、例えば、上述したテンプレート画像TIMである。「テンプレート1」及び「テンプレート2」の右側には、時間軸TL1及び時間軸TL2がそれぞれ表示される。
各時間軸の所定箇所には、矩形のマークMKが表示されている。例えば、時間軸TL1上の2箇所に、マークMK1及びマークML2が表示されている。また、時間軸TL2上に、マークMK3が表示されている。マークMKの意味は、マークMKが表示されている箇所に対応する入力画像が、テンプレート画像と類似していると判断されたことを示している。例えば、マークMK1は、マークMK1に対応する入力画像IM21及び入力画像IM22が、テンプレート1に対応するテンプレート画像と類似していると、類似度比較部102A及び特徴点マッチング部102Bにより判断されたことを示している。また、マークMK2は、マークMK2に対応する入力画像IM26~入力画像IM28が、テンプレート1に対応するテンプレート画像と類似していると、類似度比較部102A及び特徴点マッチング部102Bにより判断されたことを示している。また、マークMK3は、マークMK3に対応する入力画像IM31及び入力画像IM32が、テンプレート2に対応するテンプレート画像と類似していると、類似度比較部102A及び特徴点マッチング部102Bにより判断されたことを示している。
「テンプレート2」の下側には「広告1A」~「広告1G」が順に表示されている。そして、「テンプレート1」に対応するテンプレート画像又は「テンプレート2」に対応するテンプレート画像に類似していると判断された入力画像から抽出された広告の画像が、各マークMKの下側に表示される。なお、図11では、マークMK3の下側に「広告1A」から「広告1G」の画像が表示されているが、「テンプレート2」に対応するテンプレート画像の内容によっては、他の広告の画像が表示される場合もある。
例えば、時間軸TL1上で、テンプレート画像と入力画像とが類似しない箇所を除去する操作がなされると、画面内容が図11から図12に遷移する。図12に示す表示情報も画像処理部102により生成される。テンプレート画像と入力画像とが類似しない箇所を除去する操作は、例えば、マークMK1若しくはマークMK2を指定する操作である。
図12では、野球のコンテンツの代表的な代表画面MIが表示されている。代表画面MIは、任意の画面とすることができる。そして、代表画面MIの下側に、「映像」、「広告1A」、「広告1B」・・・「広告1G」との文字が表示される。「映像」の右側には、テンプレート画像TIMと類似されると判断された入力画像のサムネイル画像が表示される。また、「広告1A」の右側には「広告1A」に対応する画像が表示される。「広告1B」から「広告1G」までのそれぞれについても同様である。そして、「映像」、「広告1A」~「広告1G」の文字の右側には、広告が検出された時間の合計、即ち、一つの野球のコンテンツ内で広告が表示された時間(図示の例では2850秒)が表示される。
なお、例えば、広告1Eの表示箇所の全てが、野球のプレイヤーの身体により隠れてしまった場合には、ユニホームの画像がサムネイル画像として表示される。図12で広告のカテゴリを表現するために、サムネイルをカテゴリ毎の色がついた枠で表示したり、カテゴリの数字がオーバレイで表示されても良い。
以上、説明した情報処理装置10によれば、学習を行う必要がなく、比較的、処理コストがかからない方法によって広告を検出することができる。
また、テンプレート画像TIMを使用することにより、予め領域を指定することができ、更に、当該領域に行うべき解析処理の内容を指定することができる。
また、一つのコンテンツにおける広告の表示時間が演算されることで、広告が表示される広告枠の価値を定量化することができる。
<第2の実施形態>
次に、第2の実施形態について説明する。なお、第2の実施形態の説明において、上述した説明における同一又は同質の構成については同一の参照符号を付し、重複した説明を適宜、省略する。また、特に断らない限り、第1の実施形態で説明した事項は第2の実施形態に対して適用することができる。例えば、第2の実施形態にかかる情報処理装置は、第1の実施形態で説明した情報処理装置10を適用することができる。
第1の実施形態では、1フレームの画像をテンプレート画像とした例を説明したが、第2の実施形態では、図13に示すテロップ画像TEがテンプレート画像の一例とされる。テロップ画像とは、スポーツの経過途中を当該スポーツのルールに従って表した情報である。勿論、スポーツだけでなく、将棋や囲碁等でもテロップ画像は表示され得る。
図13に示すように、テロップ画像TEは、チーム名61(具体例として「チームHH」)及びチーム名62(具体例として「チームJJ」)が上下2段に渡って表示されている。各チーム名の左側には、どちらのチームが攻撃であるのかを示す矩形のマークが表示される。例えば、チーム名61の左側に矩形のマーク63が表示され、チーム名62の左側に矩形のマーク64が表示される。攻撃中のチームのマークが着色表示される。
また、チーム名61の右側には、チームHHが獲得した点数であるスコア65が表示される。チーム名62の右側には、チームJJが獲得した点数であるスコア66が表示される。また、スコア65及びスコア66の右側には、イニング67、イニング67の「表」又は「裏」を示す表示67A、及び、3個のベースマーク(1塁のベースマーク68A、2塁のベースマーク68B、3塁のベースマーク68C)が表示される。ランナーがいるベースマークが着色表示される。
また、テロップ画像TEの下側左寄りには、ボールと判定された球の数であるボール数71が表示される。また、ボール数71の右側には、ストライクと判定された球の数であるストライク数72が表示される。また、ストライク数72の右側には、アウトの数であるアウト数73が表示される。ボール数71、ストライク数72及びアウト数73は、丸印の中が着色表示されることでカウント数が表示される。
図14は、テンプレート画像であるテロップ画像を使用して設定情報を入力するためのUIの一例を示す図である。なお、上述したように、設定情報は、情報処理装置10で入力されても良いし、情報処理装置10とは異なる他の機器で入力されても良い。
図14に示すように、ディスプレイDPの左側には、テロップ画像TEが表示されている。テロップ画像TEが参照されながら、設定情報が入力される。設定情報は、例えば、ネーム情報51、解析処理内容に対応するタイプ52及び領域情報53を含む。ネーム情報51は、任意に設定される名称である。本例では、テロップ画像TEに基づいて、12個の設定情報が入力されている。
例えば、ネーム情報51の一つとして「offence1」が指定されている。「offence1」には、タイプ52として「ImageClassify」が設定されている。「ImageClassify」は、第1の実施形態と同様で、画像分類部102Eによる処理を行うことが指示されていることを意味する。「offence1」には、領域情報53として、テロップ画像TEにおけるx座標が「10」、y座標が「12」である箇所を起点として、幅が「20」で高さが「80」である領域が指定される。かかる領域情報53で指定される領域は、上述したマーク63に対応する領域である。
また、ネーム情報51の一つとして「offence2」が指定されている。「offence2」には、タイプ52として「ImageClassify」が関連付けられている。「offence2」に関連付けられている領域情報53で指定される領域は、上述したマーク64に対応する領域である。
また、ネーム情報51の一つとして「score1」が指定されている。「score1」には、タイプ52として「Number」が関連付けられている。「Number」は、OCR102Fにより文字認識処理を行うことが指示されていることを意味する。「score1」に関連付けられている領域情報53で指定される領域は、上述したスコア65に対応する領域である。
また、ネーム情報51の一つとして「score2」が指定されている。「score2」には、タイプ52として「Number」が関連付けられている。上述したように、「Number」は、OCR102Fにより文字認識処理を行うことが指示されていることを意味する。「score2」に関連付けられている領域情報53で指定される領域は、上述したスコア66に対応する領域である。
また、ネーム情報51の一つとして「inning」が指定されている。「inning」には、タイプ52として「Number」が関連付けられている。「inning」に関連付けられている領域情報53で指定される領域は、上述したイニング67に対応する領域である。
また、ネーム情報51の一つとして「top_bottom」が指定されている。「top_bottom」には、タイプ52として「ImageClassify」が関連付けられている。「top_bottom」に関連付けられている領域情報53で指定される領域は、上述したイニング67の「表」又は「裏」の表示71に対応する領域である。「top_bottom」の領域には「表」又は「裏」の何れかしか表示されないことから、「top_bottom」の領域に関連付けられるタイプ52は「Number」でも良い。
また、ネーム情報51の一つとして「base1」が指定されている。「base1」には、タイプ52として「ImageClassify」が関連付けられている。「base1」に関連付けられている領域情報53で指定される領域は、上述した1塁のベースマーク68Aに対応する領域である。
また、ネーム情報51の一つとして「base2」が指定されている。「base2」には、タイプ52として「ImageClassify」が関連付けられている。「base2」に関連付けられている領域情報53で指定される領域は、上述した2塁のベースマーク68Bに対応する領域である。
また、ネーム情報51の一つとして「base3」が指定されている。「base3」には、タイプ52として「ImageClassify」が関連付けられている。「base3」に関連付けられている領域情報53で指定される領域は、上述した3塁のベースマーク68Cに対応する領域である。
また、ネーム情報51の一つとして「balls」が指定されている。「balls」には、タイプ52として「ImageClassify」が関連付けられている。「balls」に関連付けられている領域情報53で指定される領域は、上述したボール数71に対応する領域である。
また、ネーム情報51の一つとして「strikes」が指定されている。「strikes」には、タイプ52として「ImageClassify」が関連付けられている。「strikes」に関連付けられている領域情報53で指定される領域は、上述したストライク数72に対応する領域である。
また、ネーム情報51の一つとして「outs」が指定されている。「outs」には、タイプ52として「ImageClassify」が関連付けられている。「outs」に関連付けられている領域情報53で指定される領域は、上述したアウト数73に対応する領域である。
[情報処理装置の動作例]
次に、情報処理装置10の第2の実施形態における動作例について、図15に示すフローチャートを参照して説明する。処理が開始されると、ステップST31では、画像処理部102(例えば、領域抽出部102D)により、入力画像におけるテロップ領域の画像が切り出される。一般に、テロップ画像が表示される領域はスポーツ毎に略決まっており、かかる箇所を予め指定しておくことで、入力画像が入力される度にテロップ領域の画像が切り出されるようにすることができる。そして、処理がステップST32に進む。
ステップST32では、類似度比較部102Aにより、テンプレート画像であるテロップ画像TEの特徴量ベクトルと、入力画像におけるテロップ画像の特徴量ベクトルとが検出される。そして、両特徴量ベクトルの間の差分により、テロップ画像TEと入力画像におけるテロップ画像との間の類似度が判断される。具体的な判断方法は、第1の実施形態で説明した判断方法を適用することができる。そして、処理がステップST33に進む。
ステップST33では、類似度比較部102Aの判断結果が出力される。テロップ画像TEと、入力画像におけるテロップ画像との間の類似度が一定以上でない場合は、処理がステップST31に戻る。また、テロップ画像TEと、入力画像におけるテロップ画像との間の類似度が一定以上である場合は、処理がステップST34に進む。即ち、ステップST31~ST33までの処理が行われることにより、入力画像にテロップ画像が含まれているか否かが判断される。
ステップST34では、領域抽出部102Dにより、入力画像からテロップ画像が抽出される処理が行われる。この処理により、例えば、図16に示すテロップ画像TE1が取得される。そして、処理がステップST35に進む。
ステップST35では、領域抽出部102Dにより、矩形マーク、スコア、イニング等のテロップ画像TE1の構成要素が抽出される。具体的には、上述した設定情報の領域情報53で指定された領域の画像が抽出される。図17A~図17Lは、抽出されるテロップ画像TE1の構成要素の画像を示している。これらの画像は、現在対象画像に対応する。また、過去に抽出されるテロップ画像TE1の構成要素の画像が、過去対象画像に対応する。そして、処理がステップST36に進む。
ステップST36では、切り出された画像に対応するタイプ52が判断される。タイプ52として「Number」が指定されている場合には、テロップ画像TE1の構成要素の画像がOCR102Fに供給される。そして、処理がステップST37に進み、OCR102Fにより文字認識処理が行われる。
タイプ52として「ImageClassify」が指定されている場合には、テロップ画像TE1の構成要素の画像が類似度比較部102Aに供給される。そして、処理がステップST38に進む。
ステップST38では、現在対象画像の特徴量ベクトルと過去対象画像の特徴量ベクトルとがそれぞれ検出される。そして、処理がステップST39に進む。
ステップST39では、現在対象画像の特徴量ベクトルと過去対象画像の特徴量ベクトルとの差分が算出され、差分に応じて類似度が判断される。そして、判断結果が出力される。類似度が一定以上である場合は、処理がステップST40に進み、画像分類部102Eにより、現在対象画像が過去対象画像と同じカテゴリに分類される。また、類似度が一定以上でない場合は、処理がステップST41に進み、画像分類部102Eにより新たなカテゴリが設定され、現在対象画像が当該新たなカテゴリに分類される。図18に示すように、例えば、ボール数71の場合は、着色表示がなされる数によって、各画像が違うカテゴリに分類される。そして、処理がステップST42に進む。
ステップST42では、テロップ画像TE1の各構成要素に対する解析結果が蓄積される。例えば、文字認識処理の結果や画像のカテゴリ毎の分類結果が、入力画像に対応するようにして時系列に蓄積される。そして、処理が終了する。
なお、所定の周期(例えば1秒)で次の入力画像が供給された場合には、同様の処理が行われる。
[解析結果の可視化する例]
画像処理部102は、テロップ画像の解析結果を可視化する表示情報を生成しても良い。図19は、かかる表示情報に対応する表示の一例を示す図である。例えば、スコア65及びスコア66の箇所に表示される数字が例えば1秒毎に蓄積されるのでその変化点を検出し、検出した変化点に基づいて、図19に示すように得点が変化した箇所を表示することができる。また、図19に示すように、ボール数71やストライク数72の画像に対する画像分類部102Eによる分類結果に基づいて変化点を検出し、検出した変化点を表示することができる。図19に示す情報が表示されることで、例えば、ある野球のコンテンツにおけるスコアが「3-1で2ストライク」の場面等、任意の場面を検索することが可能となる。また、例えば、野球スタジアムにあるスコアボードの所定の領域(例えば、球速の表示領域)を切り出し、上述した技術を適用することでテロップ画像を自動で作成することも可能となる。
また、設定情報により解析処理内容が指定できるので、数字や文字に対しては、比較的処理コストが小さい文字認識処理を適用することができ、全体として効率的な処理を行うことができる。
<変形例>
以上、本開示の実施形態について説明したが、本開示は、上述した実施形態に限定されることはなく、本開示の趣旨を逸脱しない範囲で種々の変形が可能である。
[本開示の他の適用例]
(適用例1)
本開示は、スポーツのコンテンツ画像以外も適用することができる。例えば、商品の欠品管理システムに本開示を適用することができる。図20を参照して、欠品管理に本開示を適用した例について説明する。図20における点線は、商品棚を示している。予め商品が置かれていないで撮影された画像をテンプレート画像として記憶し、当該テンプレート画像に基づいて、各商品棚が存在する領域を領域情報として指定した設定情報を登録しておく。具体的には、商品棚75の領域は、始めは何も置かれていない画像が抽出される。次に、商品棚75にパン76が置かれると、新たなカテゴリが設定され、当該カテゴリに商品棚75にパン76が置かれた画像が分類される。そして、パン76が購入されると、商品棚75に何も置かれていない画像が抽出される。この画像は、以前に撮影された、商品棚75に何も置かれていない画像と同じカテゴリに分類される。当該カテゴリに画像が追加されたタイミングが、POS(Point Of Sale System)等により店員に報知される。店員は、パン76が欠品になったことを認識し、パン76を補充する。勿論、本開示は、パン以外の商品の欠品管理に対しても適用することができる。
(適用例2)
本開示は、物品管理システムに対しても適用することができる。図21を参照して、物品管理システムに本開示を適用した例について説明する。図21に示すように、例えば、4個の工具(工具81~工具84)が壁に吊り下げられ、貸し出し可能とされる例を考える。各工具の吊り下げ箇所が点線で示されている。始めに、全ての工具が揃っている状態で撮影が行われる。設定情報には、各工具の保管場所を区画する領域(図21で点線で示される領域)が指定されている。
本例では、理解を容易とするために、工具81を例にして説明する。始めに、工具81がある画像が例えばID100のカテゴリに分類される。工具81が貸し出されると、工具81がなくなることから、工具81の保管場所の画像、即ち、工具81が存在しない画像は、新たに設定される例えばID101のカテゴリに分類される。また、工具81が戻されると、工具81がある画像がID100のカテゴリに追加される。このタイミングが例えば管理者に報知されることで、管理者は、工具81が返却されたことを認識することができる。若し、工具81の保管場所に別の工具が返却されると、当該工具を含む画像が、新たなに設定された別のIDのカテゴリに分類される。この場合は、「工具の返却場所が違います」等の案内放送が再生されるようにしても良い。このように、本開示は、様々なシステムに対して適用することができる。
[その他の変形例]
テンプレート画像及び当該テンプレート画像に基づく設定情報は、所定のスポーツが行われるスタジアム毎に登録しておくことも可能である。例えば、図22Aに示すように、スタジアムABに対して、2個のテンプレート画像(テンプレート画像AC及びテンプレート画像AD)及び各テンプレート画像に基づく設定情報を登録しておくことが可能である。そして、図22Bに模式的に示すように、スタジアムABを使用した映像に対して、テンプレート画像AC及びテンプレート画像ADに基づく抽出結果が得られる。スタジアムの選択は、本開示を実現するシステムにログインするときに行われるようにしても良い。
また、スポーツ毎にテンプレート画像が登録されても良い。例えば、図23に示すように、あるスポーツBBに対して、2個のテンプレート画像(テンプレート画像AF及びテンプレート画像AG)及び各テンプレート画像に基づく設定情報を登録しておくことが可能である。この場合のテンプレート画像AF及びテンプレート画像AGは、テロップ画像でも良い。スポーツの選択は、本開示を実現するシステムにログインするときに行われるようにしても良い。
本開示は、装置、方法、プログラム、システム等により実現することもできる。例えば、上述した実施形態で説明した機能を行うプログラムをダウンロード可能とし、実施形態で説明した機能を有しない装置が当該プログラムをダウンロードしてインストールすることにより、当該装置において実施形態で説明した制御を行うことが可能となる。本開示は、このようなプログラムを配布するサーバにより実現することも可能である。また、実施形態、変形例で説明した事項は、適宜組み合わせることが可能である。
なお、本開示中に例示された効果により本開示の内容が限定して解釈されるものではない。
本開示は、以下の構成も採ることができる。
(1)
テンプレート画像に基づいて設定された、画像領域と解析処理内容とが関連付けられた設定情報を取得する取得部と、
入力画像における前記画像領域に対応する対象領域の画像に対して、前記画像領域に関連づけられた解析処理内容に対応する解析処理を行う画像処理部と
を有する情報処理装置。
(2)
前記画像処理部は、前記入力画像と前記テンプレート画像との類似度が一定以上であるか否かを判断し、類似度が一定以上である場合に前記解析処理を行う
(1)に記載の情報処理装置。
(3)
前記画像処理部は、前記解析処理として、前記対象領域の画像をカテゴリ毎に分類する処理を行う
(2)に記載の情報処理装置。
(4)
前記対象領域の画像が、時間的に前の入力画像における対象領域の画像との類似度に応じて、所定のカテゴリに分類される
(3)に記載の情報処理装置。
(5)
前記対象領域の画像が、時間的に前の入力画像における対象領域の画像と一定以上の類似度である場合には当該画像と同一のカテゴリに分類され、時間的に前の入力画像における対象領域の画像と一定以上の類似度でない場合には、新たに設定されたカテゴリに分類される
(4)に記載の情報処理装置。
(6)
複数の前記対象領域の画像に対するカテゴリ毎の分類結果に応じて、所定のカテゴリに対応する画像の表示時間を演算する演算部を有する
(3)から(5)までの何れかに記載の情報処理装置。
(7)
前記画像処理部は、前記入力画像の特徴量ベクトルと前記テンプレート画像の特徴量ベクトルとに基づいて類似度が一定以上であるか否かを判断する第1判断処理を行い、第1判断処理の結果、類似度が一定以上と判断された場合に、更に、特徴点マッチングに基づいて類似度が一定以上であるか否かを判断する第2判断処理を行うことにより、前記入力画像と前記テンプレート画像との類似度が一定以上であるか否かを判断する
(2)から(6)までの何れかに記載の情報処理装置。
(8)
前記画像処理部は、前記第2判断処理の結果、前記テンプレート画像の特徴点に対応する前記所定の画像の特徴点の数が閾値以上存在する場合に、前記テンプレート画像と前記所定の画像との位置合わせを行い、位置合わせ後の画像における前記画像領域に対応する対象領域の画像に対して、前記画像領域に関連づけられた解析処理内容に対応する解析処理を行う
(7)に記載の情報処理装置。
(9)
前記閾値は、カメラの動きを規定するパラメータ数に応じた値である
(8)に記載の情報処理装置。
(10)
前記画像処理部は、前記解析処理として、文字及び数字の少なくとも一方を認識する処理を行う
(2)から(9)までの何れかに記載の情報処理装置。
(11)
前記入力画像は、所定の周期で入力される1フレーム画像又はテロップの画像である
(1)から(10)までの何れかに記載の情報処理装置。
(12)
前記取得部は、前記テンプレート画像に基づいて設定された複数の設定情報を取得する
(1)から(11)までの何れかに記載の情報処理装置。
(13)
前記取得部は、複数のテンプレート画像のそれぞれに対して設定された前記設定情報を取得する
(1)から(12)までの何れかに記載の情報処理装置。
(14)
前記画像処理部は、前記解析処理の結果を、時間の経過に沿って表示する表示情報を生成する
(1)から(13)までの何れかに記載の情報処理装置。
(15)
前記画像領域は、広告又はテロップを構成する要素が表示される領域である
(1)から(14)までの何れかに記載の情報処理装置。
(16)
取得部が、テンプレート画像に基づいて設定された、画像領域と解析処理内容とが関連付けられた設定情報を取得し、
画像処理部が、入力画像における前記画像領域に対応する対象領域の画像に対して、前記画像領域に関連づけられた解析処理内容に対応する解析処理を行う情報処理方法。
(17)
取得部が、テンプレート画像に基づいて設定された、画像領域と解析処理内容とが関連付けられた設定情報を取得し、
画像処理部が、入力画像における前記画像領域に対応する対象領域の画像に対して、前記画像領域に関連づけられた解析処理内容に対応する解析処理を行う情報処理方法をコンピュータに実行させるプログラム。
1A~1G・・・広告、10・・・情報処理装置、101・・・取得部、102・・・画像処理部、102A・・・類似度比較部、102B・・・特徴点マッチング部、102C・・・射影変換部、102D・・・領域抽出部、102E・・・画像分類部、102F・・・OCR、103・・・演算部、TIM・・・テンプレート画像

Claims (15)

  1. テンプレート画像に基づいて設定された、画像領域と解析処理内容とが関連付けられた設定情報を取得する取得部と、
    入力画像と前記テンプレート画像との類似度が一定以上であるか否かを判断し、類似度が一定以上である場合に、前記入力画像における前記画像領域に対応する対象領域の画像に対して、前記画像領域に関連づけられた解析処理内容に対応する解析処理として、前記対象領域の画像をカテゴリ毎に分類する処理を行う画像処理部と
    を有する情報処理装置。
  2. 前記対象領域の画像が、時間的に前の入力画像における対象領域の画像との類似度に応じて、所定のカテゴリに分類される
    請求項に記載の情報処理装置。
  3. 前記対象領域の画像が、時間的に前の入力画像における対象領域の画像と一定以上の類似度である場合には当該画像と同一のカテゴリに分類され、時間的に前の入力画像における対象領域の画像と一定以上の類似度でない場合には、新たに設定されたカテゴリに分類される
    請求項に記載の情報処理装置。
  4. 複数の前記対象領域の画像に対するカテゴリ毎の分類結果に応じて、所定のカテゴリに対応する画像の表示時間を演算する演算部を有する
    請求項に記載の情報処理装置。
  5. 前記画像処理部は、前記入力画像の特徴量ベクトルと前記テンプレート画像の特徴量ベクトルとに基づいて類似度が一定以上であるか否かを判断する第1判断処理を行い、第1判断処理の結果、類似度が一定以上と判断された場合に、更に、特徴点マッチングに基づいて類似度が一定以上であるか否かを判断する第2判断処理を行うことにより、前記入力画像と前記テンプレート画像との類似度が一定以上であるか否かを判断する
    請求項に記載の情報処理装置。
  6. 前記画像処理部は、前記第2判断処理の結果、前記テンプレート画像の特徴点に対応する前記入力画像の特徴点の数が閾値以上存在する場合に、前記テンプレート画像と前記入力画像との位置合わせを行い、位置合わせ後の画像における前記画像領域に対応する対象領域の画像に対して、前記画像領域に関連づけられた解析処理内容に対応する解析処理を行う
    請求項に記載の情報処理装置。
  7. 前記閾値は、カメラの動きを規定するパラメータ数に応じた値である
    請求項に記載の情報処理装置。
  8. 前記画像処理部は、前記解析処理として、文字及び数字の少なくとも一方を認識する処理を行う
    請求項に記載の情報処理装置。
  9. 前記入力画像は、所定の周期で入力される1フレーム画像又はテロップの画像である
    請求項1に記載の情報処理装置。
  10. 前記取得部は、前記テンプレート画像に基づいて設定された複数の設定情報を取得する
    請求項1に記載の情報処理装置。
  11. 前記取得部は、複数のテンプレート画像のそれぞれに対して設定された前記設定情報を取得する
    請求項1に記載の情報処理装置。
  12. 前記画像処理部は、前記解析処理の結果を、時間の経過に沿って表示する表示情報を生成する
    請求項1に記載の情報処理装置。
  13. 前記画像領域は、広告又はテロップを構成する要素が表示される領域である
    請求項1に記載の情報処理装置。
  14. 取得部が、テンプレート画像に基づいて設定された、画像領域と解析処理内容とが関連付けられた設定情報を取得し、
    画像処理部が、入力画像と前記テンプレート画像との類似度が一定以上であるか否かを判断し、類似度が一定以上である場合に、前記入力画像における前記画像領域に対応する対象領域の画像に対して、前記画像領域に関連づけられた解析処理内容に対応する解析処理として、前記対象領域の画像をカテゴリ毎に分類する処理を行う
    情報処理方法。
  15. 取得部が、テンプレート画像に基づいて設定された、画像領域と解析処理内容とが関連付けられた設定情報を取得し、
    画像処理部が、入力画像と前記テンプレート画像との類似度が一定以上であるか否かを判断し、類似度が一定以上である場合に、前記入力画像における前記画像領域に対応する対象領域の画像に対して、前記画像領域に関連づけられた解析処理内容に対応する解析処理として、前記対象領域の画像をカテゴリ毎に分類する処理を行う
    情報処理方法をコンピュータに実行させるプログラム。
JP2021508917A 2019-03-28 2020-03-05 情報処理装置、情報処理方法及びプログラム Active JP7420134B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019062405 2019-03-28
JP2019062405 2019-03-28
PCT/JP2020/009291 WO2020195657A1 (ja) 2019-03-28 2020-03-05 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2020195657A1 JPWO2020195657A1 (ja) 2020-10-01
JP7420134B2 true JP7420134B2 (ja) 2024-01-23

Family

ID=72611321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021508917A Active JP7420134B2 (ja) 2019-03-28 2020-03-05 情報処理装置、情報処理方法及びプログラム

Country Status (3)

Country Link
EP (1) EP3951706A4 (ja)
JP (1) JP7420134B2 (ja)
WO (1) WO2020195657A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117197501A (zh) * 2023-09-08 2023-12-08 南昌大学 一种基于模板匹配算法的目标检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004535129A (ja) 2001-07-10 2004-11-18 ビスタス アンリミテッド、インコーポレイテッド 目標エリアが画像ストリーム内に含まれる持続時間を算出する方法およびシステム
WO2015004840A1 (ja) 2013-07-10 2015-01-15 パナソニックIpマネジメント株式会社 映像受信装置、情報表示方法および映像受信システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8059865B2 (en) * 2007-11-09 2011-11-15 The Nielsen Company (Us), Llc Methods and apparatus to specify regions of interest in video frames
JP5556524B2 (ja) * 2010-09-13 2014-07-23 株式会社リコー 帳票処理装置、帳票処理方法、帳票処理プログラム、及びそのプログラムを記録した記録媒体
JP6299148B2 (ja) * 2013-10-31 2018-03-28 ブラザー工業株式会社 読み取り装置及びプログラム
JP5643415B2 (ja) * 2013-12-03 2014-12-17 キヤノンソフトウェア株式会社 画像処理装置及び方法、並びにプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004535129A (ja) 2001-07-10 2004-11-18 ビスタス アンリミテッド、インコーポレイテッド 目標エリアが画像ストリーム内に含まれる持続時間を算出する方法およびシステム
WO2015004840A1 (ja) 2013-07-10 2015-01-15 パナソニックIpマネジメント株式会社 映像受信装置、情報表示方法および映像受信システム

Also Published As

Publication number Publication date
US20220164974A1 (en) 2022-05-26
EP3951706A4 (en) 2022-05-25
JPWO2020195657A1 (ja) 2020-10-01
WO2020195657A1 (ja) 2020-10-01
EP3951706A1 (en) 2022-02-09

Similar Documents

Publication Publication Date Title
US10134441B2 (en) Method and system for overlaying image in video stream
US11132578B2 (en) System and method for creating navigable views
US9881376B2 (en) Content aware slideshows
Figueroa et al. Tracking soccer players aiming their kinematical motion analysis
KR100355382B1 (ko) 영상 시퀀스에서의 객체 레이블 영상 생성장치 및 그 방법
KR101611895B1 (ko) 감정 기반의 자동 문구 디자인 장치 및 그 방법
KR100998428B1 (ko) 이미지 평가 방법 및 이미지 이동 결정 방법
JP2010518673A (ja) ビデオの索引付けとビデオシノプシスのための、方法およびシステム
CN115063482A (zh) 物品识别及追踪方法与系统
TWI415030B (zh) 前景領域抽出程式,前景領域抽出裝置,及前景領域抽出方法
JP7420134B2 (ja) 情報処理装置、情報処理方法及びプログラム
EP2787741A1 (en) Video processing system and method
KR101513414B1 (ko) 감시 영상 분석 방법 및 시스템
CN108833964B (zh) 一种实时的连续帧信息植入识别系统
US11962873B2 (en) Advertisement analysis system and method for sports broadcasting video using artificial intelligence
JP4546762B2 (ja) 映像イベント判別用学習データ生成装置及びそのプログラム、並びに、映像イベント判別装置及びそのプログラム
US12039746B2 (en) Information processing device and information processing method for extracting information from an image
Chao et al. Augmented keyframe
JP7229698B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP5276609B2 (ja) 画像処理装置及びプログラム
JP4177689B2 (ja) 映像特徴情報生成装置
Martín et al. Automatic players detection and tracking in multi-camera tennis videos
US20230103116A1 (en) Content utilization platform system and method of producing augmented reality (ar)-based image output
JP3513011B2 (ja) 映像テロップ領域判別方法、装置、および映像テロップ領域判別プログラムを記録した記録媒体
De Beugher et al. Automatic analysis of in-the-wild mobile eye-tracking experiments using object, face and person detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231225

R151 Written notification of patent or utility model registration

Ref document number: 7420134

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151