JP6966705B2 - Cm区間検出装置、cm区間検出方法、及びプログラム - Google Patents

Cm区間検出装置、cm区間検出方法、及びプログラム Download PDF

Info

Publication number
JP6966705B2
JP6966705B2 JP2018108004A JP2018108004A JP6966705B2 JP 6966705 B2 JP6966705 B2 JP 6966705B2 JP 2018108004 A JP2018108004 A JP 2018108004A JP 2018108004 A JP2018108004 A JP 2018108004A JP 6966705 B2 JP6966705 B2 JP 6966705B2
Authority
JP
Japan
Prior art keywords
section
credit display
detected
provided credit
program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018108004A
Other languages
English (en)
Other versions
JP2019213064A (ja
Inventor
康智 大石
隆仁 川西
薫 平松
邦夫 柏野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018108004A priority Critical patent/JP6966705B2/ja
Priority to US15/734,807 priority patent/US11368762B2/en
Priority to PCT/JP2019/021929 priority patent/WO2019235405A1/ja
Publication of JP2019213064A publication Critical patent/JP2019213064A/ja
Application granted granted Critical
Publication of JP6966705B2 publication Critical patent/JP6966705B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • H04N21/2407Monitoring of transmitted content, e.g. distribution time, number of downloads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/147Scene change detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Marketing (AREA)
  • Human Computer Interaction (AREA)
  • Finance (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • Acoustics & Sound (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Description

本発明は、番組に含まれるコマーシャル(以下、「CM」(Commercial Message)と称する)の区間を検出するCM区間検出装置、CM区間検出方法、及びプログラムに関する。
従来、テレビ放送などにより放送される放送番組に含まれるCMの部分を判定する方法が知られている。例えば、特許文献1には、番組本編とCMとの間に再生される音の音量が所定値よりも低くなることを利用してCM部分を判定するCM部分認識装置が記載されている。具体的には、特許文献1に記載のCM部分認識装置は、音量が所定時間(例えば、0.1秒)以上、所定値を下回る時間帯をブランクとし、互いに隣接する2つのブランクの間をCM部分と判定している。
特開2000−322076号公報
近年、CMが放送された実績、あるいはCMの視聴傾向などを分析するために、番組中のCM区間を自動判定することが求められている。しかしながら、特許文献1に記載のCM部分認識装置は、ブランクに幅があるため、該幅のいずれの時点がCM境界であるかを正確に判定することが困難であった。また、番組本編の直前又は直後のCM境界を検出することが困難であった。
上記のような問題点に鑑みてなされた本発明の目的は、番組中のCM区間を高精度に検出することが可能なCM区間検出装置、CM区間検出方法、及びプログラムを提供することにある。
上記課題を解決するため、本発明に係るCM区間検出装置は、番組に含まれるCMの区間を検出するCM区間検出装置であって、番組の音量音量閾値未満となる低音量区間を複数検出し、該低音量区間同士の間隔が、CM規定長との差が誤差閾値未満である略CM規定長となる部分をCM区間として検出し、検出したCM区間を示す検出CM区間を生成するCM区間検出部と、前記検出CM区間を、前記番組における、該番組のスポンサーを示す提供クレジットが表示された区間である提供クレジット表示区間に基づいて修正するCM区間修正部と、を備え、前記CM区間修正部は、前記CM区間検出部により検出されたCM区間内に前記提供クレジット表示区間が含まれる場合には、該CM区間を前記検出CM区間から除外することを特徴とする。
また、本発明に係るCM区間検出装置は、番組に含まれるCMの区間を検出するCM区間検出装置であって、番組の音量が音量閾値未満となる低音量区間を複数検出し、該低音量区間同士の間隔が、CM規定長との差が誤差閾値未満である略CM規定長となる部分をCM区間として検出し、検出したCM区間を示す検出CM区間を生成するCM区間検出部と、前記検出CM区間を、前記番組における、該番組のスポンサーを示す提供クレジットが表示された区間である提供クレジット表示区間に基づいて修正するCM区間修正部と、を備え、前記CM区間修正部は、前記CM区間検出部により検出されたCM区間外に前記提供クレジット表示区間が存在する場合には、該CM区間及び該提供クレジット表示区間の間隔と所定時間との差が時間閾値未満である場合のみ、該間隔を前記検出CM区間に追加することを特徴とする。
また、上記課題を解決するため、本発明に係るCM区間検出方法は、番組に含まれるCMの区間を検出するCM区間検出装置におけるCM区間検出方法であって、番組の音量音量閾値未満となる低音量区間を複数検出し、該低音量区間同士の間隔が、CM規定長との差が誤差閾値未満である略CM規定長となる部分をCM区間として検出し、検出したCM区間を示す検出CM区間を生成する生成ステップと、前記検出CM区間を、前記番組における、該番組のスポンサーを示す提供クレジットが表示された区間である提供クレジット表示区間に基づいて修正する修正ステップと、を含み、前記修正ステップは、前記生成ステップにより検出されたCM区間内に前記提供クレジット表示区間が含まれる場合には、該CM区間を前記検出CM区間から除外することを特徴とする。
また、本発明に係るCM区間検出方法は、番組に含まれるCMの区間を検出するCM区間検出装置におけるCM区間検出方法であって、番組の音量が音量閾値未満となる低音量区間を複数検出し、該低音量区間同士の間隔が、CM規定長との差が誤差閾値未満である略CM規定長となる部分をCM区間として検出し、検出したCM区間を示す検出CM区間を生成する生成ステップと、前記検出CM区間を、前記番組における、該番組のスポンサーを示す提供クレジットが表示された区間である提供クレジット表示区間に基づいて修正する修正ステップと、を含み、前記修正ステップは、前記生成ステップにより検出されたCM区間外に前記提供クレジット表示区間が存在する場合には、該CM区間及び該提供クレジット表示区間の間隔と所定時間との差が時間閾値未満である場合のみ、該間隔を前記検出CM区間に追加することを特徴とする。
また、上記課題を解決するため、本発明に係るプログラムは、コンピュータを、上記のCM区間検出装置として機能させることを特徴とする。
本発明によれば、番組中のCM区間を高精度に検出することが可能となる。
本発明の一実施形態に係るCM区間検出装置の構成例を示す図である。 本発明の一実施形態に係るCM区間検出装置におけるCM区間修正部による処理を説明する図である 本発明の一実施形態に係るCM区間検出装置におけるCM区間検出部の構成例を示す図である。 本発明の一実施形態に係るCM区間検出装置におけるCM境界候補区間の一例を示す模式図である。 本発明の一実施形態に係るCM区間検出装置におけるカット点の一例を示す図である。 本発明の一実施形態に係るCM区間検出装置におけるCM区間決定部の処理を説明するための図である。 本発明の一実施形態に係るCM区間検出装置におけるCM境界の第1の決定例を示す図である。 本発明の一実施形態に係るCM区間検出装置におけるCM境界の第2の決定例を示す図である。 本発明の一実施形態に係るCM区間検出装置における画像認識部の構成例を示す図である。 本発明の一実施形態に係るCM区間検出装置における画像認識部の他の構成例を示す図である。 本発明の一実施形態に係るCM区間検出装置における音声認識部の構成例を示す図である。 本発明の一実施形態に係るCM区間検出装置における音声認識部による音声認識の結果の一例を示す図である。 本発明の一実施形態に係るCM区間検出方法の一例を示すフローチャートである。
以下、本発明を実施するための形態について、図面を参照しながら詳細に説明する。
図1は、本発明の一実施形態に係るCM区間検出装置の構成例を示す図である。図1に示すCM区間検出装置100は、放送映像/音声信号蓄積部110と、CM区間検出部120と、提供クレジット表示区間推定部130と、CM区間修正部140とを備える。CM区間検出装置100は、番組における、該番組のスポンサーを示す提供クレジットが表示された区間(以下、「提供クレジット表示区間」という)を用いて、番組に含まれるCMの区間を検出するものである。
放送映像/音声信号蓄積部110は、番組を固定時間長(例えば、65分)でエンコードした放送映像/音声信号を蓄積する。放送映像/音声信号蓄積部110は、例えば、番組の映像信号をH.264方式でエンコードした信号と、番組の音声信号をAAC(Advanced Audio Coding)方式でエンコードした信号とをMP4ファイル形式で格納する。なお、放送映像/音声信号蓄積部110は、放送用の番組の映像/音声信号に限られず、インターネット配信用の番組の映像/音声信号を蓄積してもよい。
CM区間検出部120は、放送映像/音声信号蓄積部110から、提供クレジット表示の検出対象となる番組の音声信号を取得し、番組の音声信号の大きさ(音量)と音量閾値とを比較することにより、番組内の1以上のCM区間を検出し、検出したCM区間を示す検出CM区間を生成してCM区間修正部140に出力する。
CM区間検出部120は、より正確にCM区間を検出する場合には、放送映像/音声信号蓄積部110から、提供クレジット表示の検出対象の番組の音声信号を取得し、番組の音量が音量閾値未満であり、かつ前フレームからの変化量が画素変化閾値以上であるフレームが再生される時点であるカット点を検出し、該カット点の間隔とCM規定長とを比較することにより1以上のCM区間を検出する。CM規定長は、1つのCMの長さであり、15秒、30秒、60秒などと規定されている。そして、CM区間の検出結果をCM区間修正部140に出力する。CM区間検出部120の詳細については後述する。
提供クレジット表示区間推定部130は、提供クレジット表示区間を推定し、推定結果を示す信号(本実施形態では、バイナリ時系列信号)をCM区間修正部140に出力する。提供クレジット表示区間推定部130は、画像認識部200と、音声認識部300と、提供クレジット表示区間出力部400とを備える。提供クレジット表示区間推定部130は、画像認識部200及び音声認識部300の一方のみを備える構成としてもよく、その場合には、提供クレジット表示区間出力部400は不要となる。
画像認識部200は、放送映像/音声信号蓄積部110から取得した番組の映像信号に基づき、検出モデルを用いて提供クレジット表示区間を推定し、推定結果を示す信号(本実施形態では、バイナリ時系列信号)を提供クレジット表示区間出力部400に出力する。検出モデルに適用されるパラメータは、提供クレジット表示が検出済みの学習用番組における、提供クレジット表示が表示された静止画及び提供クレジット表示が表示されていない静止画を含む学習データを用いてあらかじめ学習されているものとする。画像認識部200の詳細については後述する。
音声認識部300は、放送映像/音声信号蓄積部110から取得した番組の音声信号に基づき、提供クレジット表示区間を推定し、推定結果を示す信号(本実施形態では、バイナリ時系列信号)を提供クレジット表示区間出力部400に出力する。音声認識部300は、番組の音声信号の音声認識の結果から、提供クレジット表示のアナウンスに含まれ、提供クレジット表示に関連する関連語句を検出し、該関連語句の出現時刻を起点として、所定の期間を提供クレジット表示区間と推定する。音声認識部300の詳細については後述する。
提供クレジット表示区間出力部400は、画像認識部200により推定された提供クレジット表示区間と、音声認識部300により推定された提供クレジット表示区間の共通部分又は和集合を最終的な提供クレジット表示区間としてCM区間修正部140に出力する。本実施形態では、提供クレジット表示区間がバイナリ時系列信号であるため、和集合は論理和演算により求まり、共通部分は論理積演算により求まる。
CM区間修正部140は、CM区間検出部120により生成された検出CM区間を、提供クレジット表示区間推定部130により推定された提供クレジット表示区間に基づいて修正し、修正したCM区間を示す情報(本実施形態では、時刻情報)を出力する。例えば、バイナリ時系列信号のサンプリング間隔が1秒であり、CM区間を修正した結果、300番目から310番目に信号「1」が連続して並んでいる場合、5分00秒から5分10秒をCM区間の時刻情報とする。
図2は、CM区間修正部140による処理を説明する図である。図2(a)はCM区間検出部120により生成された検出CM区間(CM区間A〜G)と、提供クレジット表示区間推定部130により推定された提供クレジット表示区間を表示しており、図2(b)はCM区間修正部140による修正処理後の検出CM区間を表示している。
提供クレジット表示区間はCM区間には含まれない。そこで、CM区間修正部140は、CM区間検出部120により検出されたCM区間内に提供クレジット表示区間推定部130により検出された提供クレジット表示区間が含まれる場合には、該CM区間は誤検出とみなして検出CM区間から除外する。図2(a)に示す例では、CM区間A内に提供クレジット表示区間が含まれているため、CM区間修正部140はCM区間Aを誤検出とみなし、図2(b)に示すように検出CM区間からCM区間Aが除外される。
また、提供クレジット表示区間の直前又は直後にCMが放送されることが多い。そこで、CM区間修正部140は、CM区間検出部120により検出された検出CM区間外に提供クレジット表示区間推定部130により検出された提供クレジット表示区間が存在する場合には、該CM区間及び該提供クレジット表示区間の間隔と、所定時間とを比較することにより、該間隔を検出CM区間に追加するか否かを決定する。具体的には、CM区間修正部140は、CM区間及び提供クレジット表示区間の間隔と所定時間との差が時間閾値未満である場合にのみ、該間隔をCM区間とみなして検出CM区間に追加する。例えば、CM区間及び提供クレジット表示区間の間隔が略CM規定長(例えば、15秒)である場合に、該間隔をCM区間とみなして検出CM区間に追加する。図2(a)に示す例では、CM区間Eの前、及びCM区間Gの後に提供クレジット表示区間が存在する。CM区間E及び提供クレジット表示区間の間隔Xと所定時間との差分時間が時間閾値未満である場合には、CM区間修正部140は間隔XをCM区間とみなし、図2(b)に示すように間隔XをCM区間Hとして検出CM区間に追加する。CM区間G及び提供クレジット表示区間の間隔Yと所定時間との差分時間が時間閾値以上である場合には、CM区間修正部140は間隔YをCM区間とはみなさず、図2(b)に示すように間隔Yを検出CM区間に追加しない。
検出CM区間の修正前では、提供クレジット表示区間をCM区間として誤検出すること、及び番組本編の直前又は直後のCM区間を検出できないことがあったが、CM区間修正部140によってCM区間の誤検出及び未検出を修正することができる。
<CM区間検出部>
次に、CM区間検出部120の詳細について説明する。図3は、CM区間検出部120の構成例を示す図である。CM区間検出部120は、検出用データ作成部121と、音量算出部122と、CM境界候補区間決定部123と、カット点抽出部124と、CM区間決定部125とを備える。
検出用データ作成部121は、放送映像/音声信号蓄積部110から取得した音声信号をデコードして、所定の形式のCM区間検出用の音声信号(例えば、WAV形式、16kHz、16ビット、モノラル音声信号)を作成し、音量算出部122に出力する。また、検出用データ作成部121は、放送映像/音声信号蓄積部110から取得した映像信号をデコードして、所定の時間間隔で、時系列的に連続する静止画を作成し、カット点抽出部124に出力する。
音量算出部122は、音声データの時系列での音量を算出し、算出結果をCM境界候補区間決定部123に出力する。
CM境界候補区間決定部123は、音量算出部122によって算出された音量の時系列データから所定時間(例えば0.1秒)以上、音量が音量閾値未満となる低音量区間を複数検出し、低音量区間同士の間隔が略CM規定長(CM規定長との差が誤差閾値未満)となる部分をCMとして検出する。そして、CM境界候補区間決定部123は、検出したCMの端部の低音量区間を含む時間帯をCM境界候補区間として決定する。すなわち、低音量区間同士の間隔とCM規定長との差が誤差閾値未満である場合に、該低音量区間の前後に所定時間を付した区間をCM境界候補区間と決定する。なお、CM境界とは、2つの連続したCMの区切りとなる時点、及び番組とCMとの区切りとなる時点である。
図4は、CM境界候補区間の一例を示す模式図である。CM境界候補区間決定部123は、低音量区間Aと低音量区間Cとの間が略CM規定長である場合に、低音量区間Aと低音量区間Cとの間をCMとして検出する。そして、CM境界候補区間決定部123は、低音量区間Aの前後に所定時間(図4の例では、0.5秒)を付した区間、及び低音量区間Cの前後に所定時間(図4の例では、0.5秒)を付した区間を、それぞれCM境界候補区間Tと決定する。
カット点抽出部124は、放送映像/音声信号蓄積部110から取得した映像信号をデコードして、時系列的に連続するフレームを作成する。そして、CM境界候補区間決定部123によって決定されたCM境界候補区間T(k=1〜n(nは2以上の整数))それぞれから、CM境界候補区間内で前フレームからの変化量が画素変化閾値以上であるフレームが再生される時点(以下、「カット点」という)をC_k(0以上の整数)個抽出する。変化量は、各フレームの画素値と、該各フレームの前フレームの画素値との差分又は比に基づく値である。例えば、変化量は、各フレームを構成する各画素の画素値と、各フレームの各画素にそれぞれ対応する、前フレームの画素の画素値との差分に基づく値であってもよい。差分に基づく値とは、例えば、各画素についての差分の絶対値の和、平均値、若しくは中央値、又は差分の二乗平均値である。また、変化量は、隣接するフレーム間の画素の平均値の比であってもよい。再生時点は、番組が始めから再生される場合の開始を基準時点としたときの、該基準時点からの経過時間である。カット点抽出部124は、変化量が画素変化閾値以上であるフレームの再生時点をカット点として抽出する。例えば、カット点抽出部124は、変化量の比及び差それぞれが画素変化閾値以上であるフレームの再生時点をカット点としてもよい。なお、実験においては、各CM境界候補区間Tから6〜8個程度のカット点が抽出されることが多い。
図5は、カット点の一例を示す図である。この例では、カット点抽出部124は、CM境界候補区間Tから2個のカット点P11,P12を抽出し、CM境界候補区間Tから3個のカット点P21,P22,P12を抽出し、CM境界候補区間Tから1個のカット点P31を抽出し、CM境界候補区間Tから2個のカット点Pk1,Pk2を抽出する。
CM区間決定部125は、CM規定長との差が少なくなるように、CM境界候補区間Tごとにカット点を選択し、選択したカット点の間の区間をCM区間と決定し、決定したCM区間を示す情報をCM区間修正部140に出力する。
具体的には、CM区間決定部125は、CM境界候補区間それぞれから1個ずつ選択されたカット点の組み合わせで構成される複数のカット点系列Sを生成する。カット点系列Sは、複数のCM境界候補区間それぞれから選択されたカット点の組み合わせであり、カット点系列Sの全数Callは式(1)に示すとおりである。なお、CM境界候補区間Tにおいてカット点が検出されなかった場合、C_k=1とする。
all=C_1×C_2×・・・×C_k×・・・×C_n (1)
そして、CM区間決定部125は、隣接するCM境界候補区間において、1個ずつ選択されたカット点の間の時間である隣接カット点時間の差の合計が最小となるカット点系列を決定し、該カット点系列のカット点の間の区間をCM区間と決定する。隣接カット点時間とは、CM境界候補区間T内の1つのカット点とCM境界候補区間Tk-1内の1つのカット点との間の時間である。
例えば、CM区間決定部125は、各隣接カット点時間とCM規定長との差を算出する。CM区間決定部125は、ノイズの影響を加味して、該差が時間差閾値未満である数(以下、「一致数」という)をカット点系列Sごとに算出する。時間差閾値は、例えば、放送映像の所定フレーム数が再生される時間であり、所定フレーム数が2フレームで、放送映像のフレームレートが30fpsである場合には、時間差閾値は(2/30)秒である。
図6を参照して、CM区間決定部125の処理について説明する。ここでは、CM境界候補区間決定部123が、3つのCM境界候補区間T〜Tを決定し、カット点抽出部124が、CM境界候補区間Tから2個のカット点P11,P12を抽出し、CM境界候補区間Tから3個のカット点P21,P22,P23を抽出し、CM境界候補区間Tから1個のカット点P31を抽出したものとする。
図6に示す例では、カット点系列Sの全数CallはC_1×C_2×C_3=2×3×1=6個である。カット点系列Sは、カット点P11,P21,P31の組合せで構成される系列であり、カット点系列Sは、カット点P11,P22,P31の組合せで構成される系列であり、カット点系列Sは、カット点P11,P23,P31の組合せで構成される系列であり、カット点系列Sは、カット点P12,P21,P31の組合せで構成される系列であり、カット点系列Sは、カット点P12,P22,P31の組合せで構成される系列であり、カット点系列Sは、カット点P12,P23,P31の組合せで構成される系列である。
CM区間決定部125は、カット点系列S(j=1〜6)それぞれにおける各隣接カット点時間とCM規定長との差を算出する。CM規定長を15秒、所定範囲が(2/30)秒であるとすると、CM区間決定部125は、カット点系列S〜Sの一致数をそれぞれ0,2,0,0,1,0と算出する。
CM区間決定部125は、一致数が最大となるカット点系列Sが1つである場合には、該カット点系列Sを境界系列と判定し、一致数が最大となるカット点系列Sが複数存在する場合には、一致数が最大の複数のカット点系列Sのうち、各隣接カット点時間とCM規定長との差の合計が最小であるカット点系列Sを境界系列と判定する。図6に示す例では、CM区間決定部125は、カット点系列S〜Sのうち、一致数が最大のカット点系列はカット点系列Sの1つであるため、カット点系列Sを境界系列と判定する。そして、CM区間決定部125は、境界系列において、隣接カット点時間が略CM規定長に一致するカット点が含まれる場合には、該カット点をCM境界とみなすことができる。そのため、CM区間決定部125は、隣接カット点時間が略CM規定長に一致するカット点の間の区間をCM区間と決定する。
また、CM区間決定部125は、境界系列において、隣接カット点時間が略CM規定長に一致するカット点(以下、「有効なカット点」という)が含まれないCM境界候補区間のCM境界を、隣接するCM境界候補区間において決定されたCM境界とCM規定長とに基づいて決定する。この場合の具体例を、図7及び図8を参照して説明する。
図7は、有効なカット点が含まれないCM境界候補区間のCM境界の第1の決定例を示す図である。第1の決定例では、CM区間決定部125は、隣接するCM境界候補区間におけるCM境界からの時間が略CM規定長となる時点をCM境界と決定する。図7に示す例では、境界系列はカット点P11,P22,P32,P41,P53で構成されるカット点系列である。この境界系列において、CM区間決定部125により、カット点P22について、隣接カット点時間がCM規定長である15秒に一致していると判定され、カット点P32について、隣接カット点時間が16.5秒であるため、隣接カット点時間とCM規定長との差が時間差閾値以上であり、CM境界候補区間Tは有効なカット点が含まれないCM境界候補区間であると判定されているものとする。
この場合、CM区間決定部125は、カット点P22をCM境界候補区間TにおけるCM境界と決定する。また、CM区間決定部125は、カット点P22に、CM規定長に許容時間を加算又は減算した時間を加算した時点を、有効なカット点が含まれないCM境界候補区間TにおけるCM境界と決定する。許容時間は、CM境界候補区間ごとに異なる時間である。各CM境界候補区間の許容時間は、CM規定長に許容時間を加算又は減算した時間の合計がCM全体の再生時間となるように調整される。
図8は、有効なカット点が含まれないCM境界候補区間のCM境界の第2の決定例を示す図である。第2の決定例では、カット点抽出部124によってCM境界候補区間Tにおいてカット点が抽出されなかった場合、CM区間決定部125は、隣接するCM境界候補区間におけるCM境界からの時間が略CM規定長となる時点をCM境界と決定する。例えば、CM境界近傍の映像がブラックアウトしている場合、CM境界候補区間においてカット点が抽出されないことがある。
図8(a)に示す例では、境界系列はカット点P11,P22,P41,P53で構成されるカット点系列であり、CM境界候補区間Tはカット点を有していない。この場合、CM区間決定部125は、図8(b)に示すように、CM境界候補区間Tの前のCM境界候補区間Tにおいて抽出されたCM境界(カット点P22)に、CM規定長に許容時間を加算又は減算した時間を加算した時点をCM境界候補区間TにおけるCM境界と決定する。これにより、CM境界候補区間において映像の変更量が少なく、カット点が抽出されなかった場合においても、CM境界を正確に検出することができる。
なお、CM区間決定部125は、CM区間の決定に要する時間が許容時間以下となるように、番組を分割してから上述の処理を行うようにしてもよい。例えば、CM区間決定部125は、分割された各番組に含まれるカット点系列Sの全数Callを算出し、全数Callが閾値以下である場合には、番組を分割せず、全数Callが閾値を超えた場合には、分割された番組のカット点系列Sの全数Callが閾値以下となるように番組を分割する。このとき、CM区間決定部125は、カット点の位置で番組を分割する。これにより、カット点とカット点との間のCMの途中と推定される時点で番組が分割されることを防止できる。また、CM区間決定部125は、分割された番組の長さの差が所定範囲内となるように番組を等分割してもよいし、分割された番組におけるカット点系列Sの全数Callが規定値となるように、番組を分割してもよい。
<画像認識部>
次に、画像認識部200の詳細について説明する。図9は、画像認識部200の構成例を示す図である。図9に示す画像認識部200は、正解メタデータ蓄積部210と、パラメータ蓄積部220と、学習データ作成部230と、学習部240と、検出用画像データ作成部250と、提供クレジット表示区間推定部260とを備える。
正解メタデータ蓄積部210は、番組における、提供クレジット表示が表示された時刻を示す時刻情報を蓄積する。提供クレジット表示が表示された時刻は、例えば、あらかじめ作業者により目視により確認され、正解メタデータ蓄積部210に蓄積される。
パラメータ蓄積部220は、後述する、番組における提供クレジット表示を検出する検出モデルに適用するパラメータを蓄積する。
検出モデルは、例えば、畳み込みニューラルネットワークを用いたモデルである。詳細な説明は省略するが、畳み込みニューラルネットワークは、一般に、入力側から、畳み込み層とプーリング層とがこの順に、複数回繰り返して配置され、その後、全結合層が配置された構成を有する。畳み込み層では、入力画像に対して畳み込みフィルタを適用する処理が行われる。プーリング層では、畳み込み層の出力に対して、矩形フィルタを順次ずらしていきながら適用し、矩形フィルタ内の最大の値を取り出して新しい画像を生成する処理が行われる。全結合層では、畳み込み層及びプーリング層により特徴部分が取り出された画像データを1つのノードに結合し、活性化関数によって変換された値を出力する処理が行われる。パラメータ蓄積部220は、例えば、検出モデルが畳み込みニューラルネットワークを用いたモデルである場合には、各層で適用するフィルタのフィルタ重み、及び、畳み込み層の出力に加算するバイアスパラメータなどを蓄積する。なお、検出モデルは、畳み込みニューラルネットワークを用いて構築されるものに限定されるものではなく、例えば、SVM(Support Vector Machine)などを用いて構築してもよい。
学習データ作成部230は、放送映像/音声信号蓄積部110から、提供クレジット表示が検出済みの学習用番組の映像信号を取得する。また、学習データ作成部230は、その番組における提供クレジット表示の時刻情報を正解メタデータ蓄積部210から取得する。学習データ作成部230は、提供クレジット表示が検出済みの学習用番組から、提供クレジット表示が表示された静止画(以下、「提供クレジット表示ありの静止画」と称する)と、提供クレジットが表示されていない静止画(以下、「提供クレジット表示なしの静止画」と称する)とを学習データとして作成する。
具体的には、学習データ作成部230は、取得した映像信号をデコードして、所定の時間間隔で、時系列的に連続する静止画を作成する。なお、静止画は、画面内符号化が行われたIフレームのみを用いて作成してもよい。例えば、学習データ作成部230は、1秒ごとに静止画を作成する。この場合、学習データ作成部230は、例えば、65分の番組に対して、1秒間隔で時系列的に連続する3900枚の静止画を作成する。
次に、学習データ作成部230は、取得した時刻情報に基づき、生成した静止画から、提供クレジット表示ありの静止画を抽出する。また、学習データ作成部230は、生成した静止画から、提供クレジット表示なしの静止画を抽出する。提供クレジット表示なしの静止画は、取得した時刻情報に示される時刻以外の時刻の静止画からランダムに抽出される。学習データ作成部230は、提供クレジット表示ありの静止画及び提供クレジット表示なしの静止画をそれぞれ、例えば、8000枚程度、抽出する。学習データ作成部230は、抽出した提供クレジット表示ありの静止画及び提供クレジット表示なしの静止画を学習データとして学習部240に出力する。
学習部240は、学習データ作成部230により作成された学習データ(提供クレジット表示ありの静止画及び提供クレジット表示なしの静止画)を用いて、番組における提供クレジット表示を検出する検出モデルに適用するパラメータを学習する。例えば、検出モデルが上述した畳み込みニューラルネットワークを用いたモデルである場合、学習部240は、確率的勾配法を利用して、フィルタ重み及びバイアスパラメータを学習する。学習部240は、学習したパラメータをパラメータ蓄積部220に蓄積する。
検出用画像データ作成部250は、放送映像/音声信号蓄積部110から、提供クレジット表示の検出対象の番組の映像信号を取得する。検出用画像データ作成部250は、取得した映像信号をデコードして、所定の時間間隔で、時系列的に連続する静止画を作成する。例えば、検出用画像データ作成部250は、1秒ごとに静止画を作成する。この場合、検出用画像データ作成部250は、例えば、65分の番組に対して、1秒間隔で時系列的に連続する3900枚の静止画を作成する。検出用画像データ作成部250は、作成した時系列的に連続する静止画を提供クレジット表示区間推定部260に出力する。
提供クレジット表示区間推定部260は、学習部240によりあらかじめ学習されたパラメータを適用した検出モデルを用いて、提供クレジット表示の検出対象の番組における提供クレジット表示区間を推定する。
具体的には、提供クレジット表示区間推定部260は、検出用画像データ作成部250から出力された、検出用画像データ(提供クレジット表示の検出対象の番組の静止画)を順次、番組における提供クレジット表示を検出する検出モデルに入力する。そして、提供クレジット表示区間推定部260は、各静止画に対する検出モデルの出力値に基づき、各静止画における提供クレジット表示の有無を時系列的に示す時系列信号を生成する。ここで、提供クレジット表示区間推定部260は、パラメータ蓄積部220に蓄積されたパラメータを検出モデルに適用する。例えば、検出モデルが畳み込みニューラルネットワークを用いたモデルである場合には、提供クレジット表示区間推定部260は、パラメータ蓄積部220に蓄積されたパラメータを固定値としたネットワーク(検出モデル)を構築する。
提供クレジット表示区間推定部260は、検出モデルの出力値が所定の閾値以上である場合、入力した静止画は、提供クレジット表示ありの静止画であると判定する。また、提供クレジット表示区間推定部260は、検出モデルの出力値が所定の閾値より小さい場合、入力した静止画は、提供クレジット表示なしの静止画であると判定する。提供クレジット表示区間推定部260は、提供クレジット表示の検出対象の番組の時系列的に連続する静止画それぞれに対して、上述した判定を行い、判定結果を示す信号(本実施形態では、バイナリ時系列信号)を生成し、提供クレジット表示区間と推定される区間については信号「1」、それ以外の区間については信号「0」である信号を提供クレジット表示区間出力部400に出力する。
一般に、提供クレジット表示では、スポンサー名を示す文字として、黒枠で縁取られた白文字、カラー文字などが用いられる。また、提供クレジット表示では、スポンサー名を示す文字として、種々のフォントの文字が用いられる。また、提供クレジット表示であっても、「提供」という文字が含まれる場合と、「提供」という文字が含まれない場合とがある。また、提供クレジット表示が、スポンサーロゴのみを含む場合もある。さらに、提供クレジット表示の位置が、画面全体、右下、左下、右上、左上あるいは中央下である場合もある。このように、提供クレジット表示には、様々なバリエーションが存在する。このような様々なバリエーションの提供クレジット表示を、例えば、画像に登場する物体の特徴ベクトルなどを用いて検出することは困難である。
この点、画像認識部200においては、提供クレジット表示が検出済みの番組から学習データが作成され、その学習データを用いて、番組における提供クレジット表示を検出する検出モデルに適用するパラメータが学習される。そして、画像認識部200においては、学習したパラメータを適用した検出モデルを用いて、提供クレジット表示の検出対象の番組における提供クレジット表示区間が推定される。そのため、画像認識部200によれば、様々なバリエーションの提供クレジット表示を学習データとすることで、上述したような様々なバリエーションの提供クレジット表示に対しても提供クレジット表示区間を検出することができる。また、画像認識部200によれば、提供クレジット表示の検出対象の番組の映像信号を用いるので、アナウンスがない場合にも、提供クレジット表示区間を検出することができる。
<画像認識部の変形例>
次に、画像認識部の変形例について説明する。図10は、画像認識部の他の構成例を示す図である。図10において、図9と同様の構成については同じ符号を付し、説明を省略する。図10に示す画像認識部200Aは、図9示す画像認識部200と比較して、学習データ作成部230を学習データ作成部230Aに変更した点と、学習部240を学習部240Aに変更した点と、提供クレジット表示区間推定部260を提供クレジット表示区間推定部260Aに変更した点とが異なる。
学習データ作成部230Aは、放送映像/音声信号蓄積部110から、曜日ごとに、提供クレジット表示が検出済みの番組の映像信号を取得する。また、学習データ作成部230Aは、その番組における提供クレジット表示の時刻情報を正解メタデータ蓄積部210から取得する。学習データ作成部230Aは、取得した提供クレジット表示が検出済みの各曜日の番組から、曜日ごとの学習データを作成し、学習部240Aに出力する。学習データ作成部230Aは、初期学習用学習データ作成部231Aと、曜日別再学習用学習データ作成部232Aとを備える。
初期学習用学習データ作成部231Aは、放送映像/音声信号蓄積部110から、提供クレジット表示が検出済みの番組の映像信号を取得する。例えば、初期学習用学習データ作成部231Aは、1カ月前の1日分の番組の映像信号を取得する。また、初期学習用学習データ作成部231Aは、映像信号を取得した番組における提供クレジット表示の時刻情報を正解メタデータ蓄積部210から取得する。そして、初期学習用学習データ作成部231Aは、取得した提供クレジット表示が検出済みの番組から、その番組における提供クレジット表示の時刻情報に基づき、検出モデルの初期学習用の学習データを作成する。
具体的には、初期学習用学習データ作成部231Aは、取得した映像信号をデコードして、所定の時間間隔(例えば、1秒ごと)で、時系列的に連続する静止画を作成する。
次に、初期学習用学習データ作成部231Aは、取得した時刻情報に基づき、生成した静止画から、提供クレジット表示ありの静止画を抽出する。また、初期学習用学習データ作成部231Aは、生成した静止画から、提供クレジット表示なしの静止画を抽出する。提供クレジット表示なしの静止画は、取得した時刻情報に示される時刻以外の時刻の静止画からランダムに抽出される。初期学習用学習データ作成部231Aは、提供クレジット表示ありの静止画及び提供クレジット表示なしの静止画をそれぞれ、例えば、8000枚程度、抽出する。初期学習用学習データ作成部231Aは、抽出した提供クレジット表示ありの静止画及び提供クレジット表示なしの静止画を、検出モデルの初期学習用の学習データとして学習部240Aに出力する。
曜日別再学習用学習データ作成部232Aは、放送映像/音声信号蓄積部110から、曜日ごとに、提供クレジット表示が検出済みの番組の映像信号を取得する。例えば、曜日別再学習用学習データ作成部232Aは、前週の曜日ごとの番組の映像信号を取得する。また、曜日別再学習用学習データ作成部232Aは、映像信号を取得した番組における提供クレジット表示の時刻情報を正解メタデータ蓄積部210から取得する。そして、曜日別再学習用学習データ作成部232Aは、曜日ごとに、提供クレジット表示が検出済みの番組から、その番組における提供クレジット表示の時刻情報に基づき、検出モデルの再学習用の学習データを作成する。
具体的には、曜日別再学習用学習データ作成部232Aは、取得した放送映像/音声信号をデコードして、所定の時間間隔(例えば、1秒ごと)で、時系列的に連続する静止画を作成する。
次に、曜日別再学習用学習データ作成部232Aは、取得した時刻情報に基づき、生成した静止画から、提供クレジット表示ありの静止画、及び提供クレジット表示なしの静止画を抽出する。提供クレジット表示なしの静止画は、取得した時刻情報に示される時刻以外の時刻の静止画からランダムに抽出される。曜日別再学習用学習データ作成部232Aは、提供クレジット表示ありの静止画及び提供クレジット表示なしの静止画をそれぞれ、例えば、1000枚程度、抽出する。曜日別再学習用学習データ作成部232Aは、上述した処理を曜日ごとに行う。そして、曜日別再学習用学習データ作成部232Aは、曜日ごとに抽出した提供クレジット表示ありの静止画及び提供クレジット表示なしの静止画を、曜日ごとの再学習用データとして学習部240Aに出力する。
学習部240Aは、学習データ作成部230Aにより作成された曜日ごとの学習データを用いて、検出モデルに適用するパラメータを曜日ごとに学習(再学習)する。学習部240Aは、初期学習部241Aと、曜日別再学習部242Aとを備える。
初期学習部241Aは、初期学習用学習データ作成部231Aにより作成された初期学習用の学習データを用いて、番組における提供クレジット表示を検出する検出モデルに適用するパラメータを学習する。例えば、検出モデルが上述した畳み込みニューラルネットワークを用いたモデルである場合、初期学習部241Aは、確率的勾配法を利用して、フィルタ重み及びバイアスパラメータを学習する。初期学習部241Aは、学習したパラメータをパラメータ蓄積部220に蓄積する。
曜日別再学習部242Aは、曜日別再学習用学習データ作成部232Aにより作成された曜日ごとの再学習用データを用いて、番組における提供クレジット表示を検出する検出モデルに適用するパラメータを曜日ごとに学習する。曜日別再学習部242Aは、学習したパラメータをパラメータ蓄積部220に蓄積する。すなわち、曜日別再学習部242Aは、曜日ごとに、検出モデルに適用するパラメータを学習し、パラメータ蓄積部220に蓄積する。曜日ごとの再学習用データを用いて検出モデルに適用するパラメータを学習(再学習)することで、曜日ごとの番組における提供クレジット表示の検出に適したパラメータを設定することができる。
提供クレジット表示区間推定部260Aは、パラメータ蓄積部220に蓄積された、提供クレジット表示の検出対象の番組が放送される曜日について学習されたパラメータを検出モデルに適用して、提供クレジット表示の検出対象の番組における提供クレジット表示区間を推定する。
具体的には、提供クレジット表示区間推定部260Aは、検出用画像データ作成部250から出力された、提供クレジット表示の検出対象の番組の時系列的に連続する静止画を順次、番組における提供クレジット表示を検出する検出モデルに入力する。そして、提供クレジット表示区間推定部260Aは、各静止画に対する検出モデルの出力値に基づき、各静止画における提供クレジット表示の有無を時系列的に示す時系列信号を生成する。ここで、提供クレジット表示区間推定部260Aは、パラメータ蓄積部220に蓄積された、提供クレジット表示の検出対象の番組が放送される曜日について学習されたパラメータを検出モデルに適用する。
例えば、検出モデルが畳み込みニューラルネットワークを用いたモデルである場合には、提供クレジット表示区間推定部260Aは、パラメータ蓄積部220に蓄積された、提供クレジット表示の検出対象の番組が放送される曜日について学習されたパラメータを固定値としたネットワーク(検出モデル)を構築する。
提供クレジット表示区間推定部260Aは、検出モデルの出力値が所定の閾値以上である場合、入力した静止画は、提供クレジット表示ありの静止画であると判定する。また、提供クレジット表示区間推定部260Aは、検出モデルの出力値が所定の閾値より小さい場合、入力した静止画は、提供クレジット表示なしの静止画であると判定する。提供クレジット表示区間推定部260Aは、提供クレジット表示の検出対象の番組の時系列的に連続する静止画それぞれに対して、上述した判定を行い、判定結果を示す信号(本実施形態では、バイナリ時系列信号)を生成し、供クレジット表示区間と推定される区間については信号「1」、それ以外の区間については信号「0」である信号を出力部140Aに出力する。なお、提供クレジット表示区間推定部260Aは、学習部240Aにより曜日ごとに学習されたパラメータをそれぞれ適用した、曜日ごとの検出モデルを構築し、提供クレジット表示の検出対象の番組が放送される曜日に対応する検出モデルを用いてもよい。
一般に、同じ番組であれば、毎週、同じ曜日に放送されることが多い。このような番組では、同じ形式の提供クレジット表示が表示される傾向がある。そのため、画像認識部200Aによれば、曜日ごとに学習データを作成し、その学習データを用いて、曜日ごとに、検出モデルに適用するパラメータを学習することで、提供クレジット表示の検出精度の向上を図ることができる。なお、本実施形態においては、曜日ごとに、学習データの作成及び検出モデルに適用するパラメータの学習が行われる例を用いて説明したが、これに限られるものではない。例えば、平日と、土曜日と、日曜日とに分けて、学習データの作成および検出モデルに適用するパラメータの学習が行われてもよい。また、例えば、番組ごとに、学習データの作成及び検出モデルに適用するパラメータの学習が行われてもよい。
ここで、初期学習用学習データ作成部231Aは、取得した時刻情報に基づき、生成した静止画から、提供クレジット表示ありの静止画、及び提供クレジット表示なしの静止画を、その静止画が放送された時刻とペアにして抽出し、抽出した提供クレジット表示ありの静止画とその静止画が放送された時刻とのペア、及び、提供クレジット表示なしの静止画とその静止画が放送された時刻とのペアを、検出モデルの初期学習用の学習データとして学習部240Aに出力するようにしてもよい。この場合には、初期学習部241Aは、初期学習用学習データ作成部231Aにより作成された初期学習用の学習データ(提供クレジット表示ありの静止画とその静止画が放送された時刻とのペア、及び、提供クレジット表示なしの静止画とその静止画が放送された時刻とのペア)を用いて、番組における提供クレジット表示を検出する検出モデルに適用するパラメータを学習する。
また、曜日別再学習用学習データ作成部232Aは、取得した時刻情報に基づき、生成した静止画から、提供クレジット表示ありの静止画、及び提供クレジット表示なしの静止画を、その静止画が放送された時刻とペアにして抽出し、曜日ごとに抽出した、提供クレジット表示ありの静止画とその静止画が放送された時刻とのペア、及び、提供クレジット表示なしの静止画とその静止画が放送された時刻とのペアを、曜日ごとの再学習用データとして学習部240Aに出力するようにしてもよい。この場合には、曜日別再学習部242Aは、曜日別再学習用学習データ作成部232Aにより作成された曜日ごとの再学習用データ(曜日ごとの、提供クレジット表示ありの静止画とその静止画が放送された時刻とのペア、及び、提供クレジット表示なしの静止画とその静止画が放送された時刻とのペア)を用いて、番組における提供クレジット表示を検出する検出モデルに適用するパラメータを曜日ごとに学習する。曜日別再学習部242Aは、学習したパラメータをパラメータ蓄積部220に蓄積する。
なお、学習データ作成部230Aは、曜日は区別することなく、提供クレジット表示ありの静止画とその静止画が放送された時刻とのペア、及び、提供クレジット表示なしの静止画とその静止画が放送された時刻とのペアを学習データとして作成してもよい。すなわち、学習データ作成部230Aは、提供クレジット表示が検出済みの番組から、提供クレジット表示ありの静止画及びその静止画が放送された時刻と、提供クレジット表示なしの静止画及びその静止画が放送された時刻とを学習データとして作成してもよい。また、学習部240Aは、曜日は区別することなく、学習データ作成部230Aにより作成された学習データを用いて、検出モデルに適用するパラメータを学習してもよい。
一般に、同じ番組であれば、毎週、同じ曜日の同じ時間帯に放送されることが多い。このような番組では、同じ形式の提供クレジット表示が表示される傾向がある。そのため、提供クレジット表示ありの静止画及びその静止画が放送された時刻と、提供クレジット表示なしの静止画及びその静止画が放送された時刻とを学習データとして作成し、その学習データを用いて、検出モデルに適用するパラメータを学習することで、さらに提供クレジット表示の検出精度の向上を図ることができる。
<音声認識部>
次に、音声認識部300の詳細について説明する。図11は、音声認識部300の構成例を示す図である。図11に示す音声認識部300は、関連語句蓄積部310と、音声データ作成部320と、音声認識処理部330と、関連語句検出部340と、提供クレジット表示区間推定部350とを備える。
関連語句蓄積部310は、提供クレジット表示のアナウンス(提供クレジット表示の際に流れるアナウンス)に含まれ、提供クレジット表示に関連する関連語句を蓄積する。関連語句としては、例えば、提供クレジット表示のアナウンスに含まれることが多い、「ご覧の」、「スポンサー」、「提供」、「お送り(お送りします/お送りしました)」などの語句がある。また、関連語句としては、例えば、企業名を示す語句などがある。
また、関連語句蓄積部310は、関連語句に対応付けて、その関連語句の出現時刻の前後少なくとも一方の所定の期間を提供クレジット表示区間と推定する推定期間を蓄積する。関連語句の推定期間は、提供クレジット表示のアナウンスにおいて、その関連語句が出現する可能性が高い位置に応じて設定される。
例えば、提供クレジット表示のアナウンスとしては、「この番組は、ご覧のスポンサーの提供でお送りします/お送りしました」という定型文が用いられることが多い。このような定型文では、「番組」、「ご覧の」などの関連語句はアナウンスの前半に、「スポンサー」、「提供」などの関連語句はアナウンスの中頃に、「お送り」などの関連語句はアナウンスの後半に出現することが多いという傾向がある。関連語句の推定期間は、このような傾向に基づき設定される。
例えば、アナウンスの前半に出現する可能性が高い関連語句「番組」に対しては、推定期間として、「0秒〜+5秒」が設定される。また、アナウンスの中頃に出現する可能性が高い関連語句「提供」に対しては、推定期間として、「−3秒〜+2秒」が設定される。また、アナウンスの後半に出現する可能性が高い関連語句「お送り」に対しては、推定期間として、「−4秒〜+1秒」が設定される。なお、「−X秒〜+Y秒」とは、関連語句の出現時刻の前X秒から、関連語句の出現時刻の後Y秒までの区間を指す。
音声データ作成部320は、放送映像/音声信号蓄積部110から、提供クレジット表示の検出対象の番組の音声信号を取得する。音声データ作成部320は、取得した音声信号をデコードして、所定の形式の音声認識用の音声信号(例えば、WAV形式、16kHz、16ビット、モノラル音声信号)を音声認識用の音声データとして作成し、音声認識処理部330に出力する。
音声認識処理部330は、音声データ作成部320から出力された、音声認識用の音声データ(提供クレジット表示の検出対象の番組の音声信号)に対する音声認識を行う。具体的には、音声認識処理部330は、提供クレジット表示の検出用にチューニングされた、音声認識用の音響モデル/言語モデルに適用するパラメータを蓄積している。音声認識処理部330は、蓄積しているパラメータを適用した音響モデル/言語モデルを用いて、提供クレジット表示の検出対象の番組の音声信号に対する音声認識を行い、音声認識の結果を関連語句検出部340に出力する。なお、音響モデル/言語モデルに適用するパラメータは、不図示の蓄積部に蓄積されていてもよい。
図12は、音声認識処理部330による音声認識の結果の一例を示す図である。ここでは、「ここからはご覧のスポンサーの提供でお送りします」という文言の音声信号に対する音声認識の結果を示している。
図12に示すように、音声認識処理部330は、音声信号に対する音声認識により、対象の文言を複数の語句("Word Name")に分割して、テキストデータとして書き起こす。また、音声認識処理部330は、各語句("Word Name")に対応付けて、その語句を識別するID("Word ID")、その語句の開始時刻("Word Start Time")及びその語句の終了時刻("Word End Time")を音声認識の結果として出力する。
図11を再び参照すると、関連語句検出部340は、音声認識処理部330による音声認識の結果から、関連語句蓄積部310に蓄積されている関連語句を検出し、検出結果を示す信号(本実施形態では、バイナリ時系列信号)を提供クレジット表示区間推定部350に出力する。関連語句検出部340は、例えば、関連語句が検出された時刻については、信号「1」を、それ以外の時刻については、信号「0」を提供クレジット表示区間推定部350に出力する。関連語句検出部340は、上述した処理を所定の時間間隔で行う。したがって、例えば、提供クレジット表示の検出対象の番組が65分であり、1秒間隔で上述した処理を行う場合、関連語句検出部340は、時系列的に信号「1」又は信号「0」が3900個連続するバイナリ時系列信号を提供クレジット表示区間推定部350に出力する。
提供クレジット表示区間推定部350は、関連語句検出部340から出力されたバイナリ時系列信号に基づき、提供クレジット表示区間を推定する。具体的には、提供クレジット表示区間推定部350は、検出された関連語句の出現時刻(信号「1」に対応する時刻)を起点として、検出された関連語句に対応付けて関連語句蓄積部310に蓄積されている推定期間に相当する期間を、提供クレジット表示区間と推定する。例えば、ある関連語句に対応付けて、推定期間として「−X秒〜+Y秒」が設定されており、その関連語句が時刻tに検出されたとする。この場合、提供クレジット表示区間推定部350は、時刻tを起点として、時刻t−Xから時刻t+Yまでを提供クレジット表示区間と推定する。なお、提供クレジット表示区間推定部350は、音声認識処理部330による音声認識の結果を、音声認識処理部330あるいは関連語句検出部340から出力する。提供クレジット表示区間推定部350は、音声認識処理部330による音声認識の結果を取得することで、バイナリ時系列信号に含まれる信号「1」が、どの関連語句に対応する信号であるかを特定することができる。
提供クレジット表示区間推定部350は、提供クレジット表示区間と推定した時刻については、信号「1」を、それ以外の時刻については、信号「0」を提供クレジット表示区間出力部400に出力する。提供クレジット表示区間推定部350は、上述した処理を所定の時間間隔で行う。したがって、例えば、提供クレジット表示の検出対象の番組が65分であり、1秒間隔で上述した処理を行う場合、提供クレジット表示区間推定部350は、時系列的に1ビットの信号が3900個連続するバイナリ時系列信号を提供クレジット表示区間出力部400に出力する。
番組内において、提供クレジット表示区間外に関連語句が出現した場合、提供クレジット表示区間推定部350からは信号「1」が出力される。しかしながら、この場合、その語句の前後に、さらに関連語句が出現しなければ、信号「1」が出力される期間は、その関連語句に対応付けられた推定期間に相当する期間だけである。一方、提供クレジット表示区間は通常、関連語句が連続して出現し、例えば、十数秒程度の長さを有している。したがって、信号「1」が所定時間以上連続する区間を、提供クレジット表示区間として検出することで、高精度に提供クレジット表示区間を検出することができる。
<CM区間検出方法>
次に、CM区間検出装置100によるCM区間検出方法について、図13を参照して説明する。図13は、本発明の一実施形態に係るCM区間検出方法の一例を示すフローチャートである。
ステップS11では、検出用データ作成部121により、CM区間検出用の音声データを作成する。
ステップS12では、音量算出部122により、ステップS11で作成された音声データの時系列での音量を算出する。
ステップS13では、CM境界候補区間決定部123により、ステップS12で算出された音量が音量閾値未満となる低音量区間を抽出する。そして、互いに隣接する低音量区間の間隔が略CM規定長となる部分をCMとして検出する。そして、検出したCMの端部の低音量区間を含む時間帯をCM境界候補区間と決定する。
ステップS14では、カット点抽出部124により、ステップS13で決定されたCM境界候補区間の映像からカット点を抽出する。
ステップS15では、CM区間決定部125により、ステップS14で抽出された各CM境界候補区間内のカット点の組合せによって構成される全てのカット点系列Sについて、各隣接カット点時間とCM規定長との差が時間差閾値未満となる一致数を算出し、一致数が最大のカット点系列Sが1つである場合には、該カット点系列Sを境界系列と判定し、一致数が最大のカット点系列Sが複数ある場合には、一致数が最大のカット点系列Sのうち、隣接カット点時間のCM規定長との差が最小であるカット点系列Sを境界系列と判定する。そして、CM区間決定部125により、境界系列において、隣接カット点時間が略CM規定長に一致するカット点をCM境界と決定し、隣接するCM境界の間の区間をCM区間と決定する。
ステップS21では、学習データ作成部230により、提供クレジット表示が検出済みの番組の映像信号から、提供クレジット表示ありの静止画、及び提供クレジット表示なしの静止画を学習データとして作成する。
ステップS22では、学習部240により、ステップS21で作成された学習データを用いて、番組における提供クレジット表示を検出する検出モデルに適用するパラメータを学習する。
ステップS23では、検出用画像データ作成部250により、提供クレジット表示の検出対象の番組の映像信号をデコードして、所定の時間間隔で、時系列的に連続する静止画を検出用画像データとして作成する。
ステップS24では、提供クレジット表示区間推定部260により、ステップS23で学習されたパラメータを適用した検出モデルを用いて、提供クレジット表示の検出対象の番組における提供クレジット表示区間を推定する。
ステップS31では、音声データ作成部320により、提供クレジット表示の検出対象の番組の音声信号から音声認識用の音声データを作成する。
ステップS32では、音声認識処理部330により、ステップS31で作成された音声データに対して音声認識処理を行う。
ステップS33では、関連語句検出部340により、ステップS32で得られた音声認識の結果から、提供クレジット表示に関連する関連語句を検出する。
ステップS34では、提供クレジット表示区間推定部350により、ステップS33で検出された関連語句に基づき、提供クレジット表示区間を推定する。
ステップS25では、提供クレジット表示区間出力部400により、ステップS24で推定された提供クレジット表示区間と、ステップS34で推定された提供クレジット表示区間の共通部分又は和集合を最終的な提供クレジット表示区間として出力する。例えば、できるだけ漏れなく提供クレジット表示区間を検出したい場合には、和集合を提供クレジット表示区間とし、できるだけ提供クレジット表示区間の誤検出率を下げたい場合には、共通部分を提供クレジット表示区間とする。なお、ステップS21からステップS24の処理と、ステップS31からステップS34の処理とは、並行して行われてもよいし、いずれか一方が先に行われてもよい。
ステップS16では、CM区間修正部140により、ステップS15で検出されたCM区間を、ステップS25により検出された提供クレジット表示区間に基づいて修正し、修正したCM区間を出力する。
以上説明したように、本発明では、CM区間修正部140は、CM区間検出部120により検出されたCM区間を、提供クレジット表示区間を用いて修正する。そのため、CM検出区間の修正前では、提供クレジット表示区間をCM区間として誤検出すること、及び番組本編の直前又は直後のCM区間を検出できないことがあったが、このような誤検出及び未検出を修正することが可能となる。関東キー5局の一日分の放送データを対象に実験を行ったところ、CM区間検出部120により検出されたCM区間は4770箇所であった。そのうち、CM区間修正部140により、提供クレジット表示区間が含まれるCM区間を誤検出とみなして除外することにより、16箇所の誤検出を正しく修正することができた。また、CM区間修正部140により、CM区間及び提供クレジット表示区間の間隔が略15秒である場合に、該間隔をCM区間とみなして追加することにより、1箇所の未検出を正しく修正することができた。
CMとCMの間、及びCMと番組の間では、映像が切り替わることが多い。すなわち、CM境界はカット点であることが多い。そのため、CM区間検出部120は、番組の音声信号の音量が音量閾値未満であり、かつ前フレームからの変化量が画素変化閾値以上であるフレームが再生される時点であるカット点を抽出し、該カット点の間隔とCM規定長とを比較することによりCM区間を検出するのが好適である。この手法によれば、音量にのみ基づいてCM境界を検出する場合に比べて、さらにCM区間を高精度に検出することが可能となる。
なお、発明者らによる検証実験において、CM区間検出部120が上記手法により、742個のCMを含む、17時間の再生時間の番組のCM境界を検出した結果、実際のCM境界との差の合計は計3.7秒であった。これに対して、従来のように低音量区間のみに基づいてCM境界が検出された場合、実際のCM境界との差の合計は計17.7秒であった。また、この検証実験において、従来の判定における適合率は93.5%であったのに対してCM区間検出部120による判定の適合率は93.9%であった。また、従来の判定における再現率は97.3%であったのに対して、CM区間検出部120による判定の再現率は99.0%であった。このことから、CM区間検出部120は従来に比べて正確にCM境界を判定可能であることが検証された。
また、画像認識部200は、あらかじめ学習データを用いて学習されたパラメータを適用した検出モデルを用いて、提供クレジット表示の検出対象の番組における提供クレジット表示を検出するため、様々なバリエーションの提供クレジット表示を学習データとすることで、上述したような様々なバリエーションの提供クレジット表示の検出が可能となる。そこで、画像認識部200により検出された高精度の提供クレジット表示区間を用いて、CM区間検出部120により検出されたCM区間を修正することにより、さらにCM区間を高精度に検出することができる。
また、音声認識部300は、音声認識処理により検出された関連語句の前後の推定期間を提供クレジット表示区間と推定するため、関連語句が連続して出現する区間だけを提供クレジット表示区間として検出することができる。番組内において、提供クレジット表示区間外に関連語句が出現する場合があるが、提供クレジット表示区間外において、関連語句が連続して出現することは少ないため、提供クレジット表示とは無関係に、関連語句が出現しても、提供クレジット表示区間とは検出されず、提供クレジット表示の際に関連語句が連続して出現した区間だけが提供クレジット表示区間として検出される。そこで、音声認識部300により検出された高精度の提供クレジット表示区間を用いて、CM区間検出部120により検出されたCM区間を修正することにより、さらにCM区間を高精度に検出することができる。
以上、CM区間検出装置100について説明したが、CM区間検出装置100として機能させるために、コンピュータを用いることも可能である。そのようなコンピュータは、CM区間検出装置100の各機能を実現する処理内容を記述したプログラムを、該コンピュータの記憶部に格納しておき、該コンピュータのCPUによってこのプログラムを読み出して実行させることで実現することができる。
また、プログラムは、コンピュータが読取り可能な記録媒体に記録されていてもよい。このような記録媒体を用いれば、プログラムをコンピュータにインストールすることが可能である。ここで、プログラムが記録された記録媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD−ROMやDVD−ROMなどの記録媒体であってもよい。
上述の実施形態は代表的な例として説明したが、本発明の趣旨及び範囲内で、多くの変更及び置換が可能であることは当業者に明らかである。したがって、本発明は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形及び変更が可能である。例えば、実施形態の構成図に記載の複数の構成ブロックを1つに組み合わせたり、あるいは1つの構成ブロックを分割したりすることが可能である。
100 CM区間検出装置
110 放送映像/音声信号蓄積部
120 CM区間検出部
121 検出用データ作成部
122 音量算出部
123 CM境界候補区間決定部
124 カット点抽出部
125 CM区間決定部
130 提供クレジット表示区間推定部
140 CM区間修正部
200 画像認識部
210 正解メタデータ蓄積部
220 パラメータ蓄積部
230,230A 学習データ作成部
231A 初期学習用学習データ作成部
232A 曜日別再学習用学習データ作成部
240,240A 学習部
241A 初期学習部
242A 曜日別再学習部
250 検出用画像データ作成部
260,260A 提供クレジット表示区間推定部
300 音声認識部
310 関連語句蓄積部
320 音声データ作成部
330 音声認識処理部
340 関連語句検出部
350 提供クレジット表示区間推定部
400 提供クレジット表示区間出力部

Claims (9)

  1. 番組に含まれるCMの区間を検出するCM区間検出装置であって、
    番組の音量音量閾値未満となる低音量区間を複数検出し、該低音量区間同士の間隔が、CM規定長との差が誤差閾値未満である略CM規定長となる部分をCM区間として検出し、検出したCM区間を示す検出CM区間を生成するCM区間検出部と、
    前記検出CM区間を、前記番組における、該番組のスポンサーを示す提供クレジットが表示された区間である提供クレジット表示区間に基づいて修正するCM区間修正部と、を備え
    前記CM区間修正部は、前記CM区間検出部により検出されたCM区間内に前記提供クレジット表示区間が含まれる場合には、該CM区間を前記検出CM区間から除外することを特徴とするCM区間検出装置。
  2. 番組に含まれるCMの区間を検出するCM区間検出装置であって、
    番組の音量が音量閾値未満となる低音量区間を複数検出し、該低音量区間同士の間隔が、CM規定長との差が誤差閾値未満である略CM規定長となる部分をCM区間として検出し、検出したCM区間を示す検出CM区間を生成するCM区間検出部と、
    前記検出CM区間を、前記番組における、該番組のスポンサーを示す提供クレジットが表示された区間である提供クレジット表示区間に基づいて修正するCM区間修正部と、を備え、
    前記CM区間修正部は、前記CM区間検出部により検出されたCM区間外に前記提供クレジット表示区間が存在する場合には、該CM区間及び該提供クレジット表示区間の間隔と所定時間との差が時間閾値未満である場合のみ、該間隔を前記検出CM区間に追加することを特徴とするCM区間検出装置。
  3. 請求項1又は2に記載のCM区間検出装置において、
    前記CM区間検出部は、前記番組の音量が音量閾値未満であり、かつ前フレームからの画素値の変化量が画素変化閾値以上であるフレームが再生される時点であるカット点を抽出し、該カット点の間隔とCM規定長とを比較することにより1以上のCM区間を検出し、検出したCM区間を示す検出CM区間を生成することを特徴とするCM区間検出装置。
  4. 請求項1からのいずれか一項に記載のCM区間検出装置において、
    検出モデルを用いて、前記提供クレジット表示区間を推定する提供クレジット表示区間推定部をさらに備え
    前記検出モデルに適用されるパラメータは、前記提供クレジット表示が検出済みの学習用番組における、前記提供クレジット表示が表示された静止画及び前記提供クレジット表示が表示されていない静止画を含む学習データを用いて、あらかじめ学習されていることを特徴とするCM区間検出装置。
  5. 請求項1からのいずれか一項に記載のCM区間検出装置において、
    前記番組の音声信号の音声認識の結果から、前記提供クレジット表示のアナウンスに含まれ、前記提供クレジット表示に関連する関連語句を検出し、該関連語句の出現時刻を起点として、所定の期間を前記提供クレジット表示区間と推定する提供クレジット表示区間推定部をさらに備えることを特徴とするCM区間検出装置。
  6. 請求項1からのいずれか一項に記載のCM区間検出装置において、
    検出モデルを用いて、前記番組における第1の提供クレジット表示区間を推定するとともに、前記番組の音声信号の音声認識の結果から、前記提供クレジット表示のアナウンスに含まれ、前記提供クレジット表示に関連する関連語句を検出し、該関連語句の出現時刻を起点として、所定の期間を第2の提供クレジット表示区間と推定し、前記第1の提供クレジット表示区間及び前記第2の提供クレジット表示区間の共通部分又は和集合を前記提供クレジット表示区間と推定する提供クレジット表示区間推定部をさらに備え、
    前記検出モデルに適用されるパラメータは、前記提供クレジット表示が検出済みの学習用番組における、前記提供クレジット表示が表示された静止画及び前記提供クレジット表示が表示されていない静止画を含む学習データを用いて、あらかじめ学習されていることを特徴とするCM区間検出装置。
  7. 番組に含まれるCMの区間を検出するCM区間検出装置におけるCM区間検出方法であって、
    番組の音量音量閾値未満となる低音量区間を複数検出し、該低音量区間同士の間隔が、CM規定長との差が誤差閾値未満である略CM規定長となる部分をCM区間として検出し、検出したCM区間を示す検出CM区間を生成する生成ステップと、
    前記検出CM区間を、前記番組における、該番組のスポンサーを示す提供クレジットが表示された区間である提供クレジット表示区間に基づいて修正する修正ステップと、
    を含み、
    前記修正ステップは、前記生成ステップにより検出されたCM区間内に前記提供クレジット表示区間が含まれる場合には、該CM区間を前記検出CM区間から除外することを特徴とするCM区間検出方法。
  8. 番組に含まれるCMの区間を検出するCM区間検出装置におけるCM区間検出方法であって、
    番組の音量が音量閾値未満となる低音量区間を複数検出し、該低音量区間同士の間隔が、CM規定長との差が誤差閾値未満である略CM規定長となる部分をCM区間として検出し、検出したCM区間を示す検出CM区間を生成する生成ステップと、
    前記検出CM区間を、前記番組における、該番組のスポンサーを示す提供クレジットが表示された区間である提供クレジット表示区間に基づいて修正する修正ステップと、
    を含み、
    前記修正ステップは、前記生成ステップにより検出されたCM区間外に前記提供クレジット表示区間が存在する場合には、該CM区間及び該提供クレジット表示区間の間隔と所定時間との差が時間閾値未満である場合のみ、該間隔を前記検出CM区間に追加することを特徴とするCM区間検出方法。
  9. コンピュータを、請求項1からのいずれか一項に記載のCM区間検出装置として機能させるプログラム。
JP2018108004A 2018-06-05 2018-06-05 Cm区間検出装置、cm区間検出方法、及びプログラム Active JP6966705B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018108004A JP6966705B2 (ja) 2018-06-05 2018-06-05 Cm区間検出装置、cm区間検出方法、及びプログラム
US15/734,807 US11368762B2 (en) 2018-06-05 2019-06-03 Commercial section detection device, commercial section detection method, and program
PCT/JP2019/021929 WO2019235405A1 (ja) 2018-06-05 2019-06-03 Cm区間検出装置、cm区間検出方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018108004A JP6966705B2 (ja) 2018-06-05 2018-06-05 Cm区間検出装置、cm区間検出方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2019213064A JP2019213064A (ja) 2019-12-12
JP6966705B2 true JP6966705B2 (ja) 2021-11-17

Family

ID=68770410

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018108004A Active JP6966705B2 (ja) 2018-06-05 2018-06-05 Cm区間検出装置、cm区間検出方法、及びプログラム

Country Status (3)

Country Link
US (1) US11368762B2 (ja)
JP (1) JP6966705B2 (ja)
WO (1) WO2019235405A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7011170B2 (ja) * 2018-06-05 2022-01-26 日本電信電話株式会社 提供クレジット表示検出装置、提供クレジット表示検出方法及びプログラム
US11930063B2 (en) * 2020-12-09 2024-03-12 Nagravision S.A. Content completion detection for media content
US11469840B1 (en) * 2020-12-23 2022-10-11 Meta Platforms, Inc. Systems and methods for repairing a live video recording
US11935300B2 (en) * 2021-11-05 2024-03-19 Netflix, Inc. Techniques for generating candidate match cuts

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3513424B2 (ja) 1999-05-10 2004-03-31 日本電信電話株式会社 コマーシャル部分認識方法及びそのプログラム記録媒体
JP2001118297A (ja) * 1999-10-14 2001-04-27 Funai Electric Co Ltd 記録制御装置および記録制御方法
JP4512969B2 (ja) * 2001-07-18 2010-07-28 ソニー株式会社 信号処理装置及び方法、記録媒体、並びにプログラム
US8155498B2 (en) * 2002-04-26 2012-04-10 The Directv Group, Inc. System and method for indexing commercials in a video presentation
JP3894940B2 (ja) * 2005-08-11 2007-03-22 三菱電機株式会社 映像音声記録装置
JP2007266838A (ja) * 2006-03-28 2007-10-11 Sharp Corp 記録再生装置、記録再生方法、及び、記録再生プログラムを記録した記録媒体
US9554061B1 (en) * 2006-12-15 2017-01-24 Proctor Consulting LLP Smart hub
JP4929127B2 (ja) * 2007-11-07 2012-05-09 株式会社日立製作所 Cm検出方法及びこれを用いた動画再生装置
JP5658964B2 (ja) * 2010-09-29 2015-01-28 Necパーソナルコンピュータ株式会社 コマーシャル検出方法および装置

Also Published As

Publication number Publication date
US20210235166A1 (en) 2021-07-29
JP2019213064A (ja) 2019-12-12
WO2019235405A1 (ja) 2019-12-12
US11368762B2 (en) 2022-06-21

Similar Documents

Publication Publication Date Title
JP6966705B2 (ja) Cm区間検出装置、cm区間検出方法、及びプログラム
US20160337691A1 (en) System and method for detecting streaming of advertisements that occur while streaming a media program
US7149365B2 (en) Image information summary apparatus, image information summary method and image information summary processing program
US11902632B2 (en) Timely addition of human-perceptible audio to mask an audio watermark
CN108153882A (zh) 一种数据处理方法及装置
CN107133266B (zh) 视频镜头类别的检测方法及装置和数据库更新方法及装置
JP6966707B2 (ja) 提供クレジット表示検出装置、提供クレジット表示検出方法、及びプログラム
JP7208499B2 (ja) 検出装置、検出方法およびプログラム
JP6713229B2 (ja) Cm情報生成装置、cm情報生成方法、及びプログラム
JP6966706B2 (ja) 提供クレジット表示検出装置、提供クレジット表示検出方法及びプログラム
JP4359120B2 (ja) コンテンツ品質評価装置及びそのプログラム
US11736744B2 (en) Classifying segments of media content using closed captioning
JP6295381B1 (ja) 表示タイミング決定装置、表示タイミング決定方法、及びプログラム
JP7011170B2 (ja) 提供クレジット表示検出装置、提供クレジット表示検出方法及びプログラム
JP6710476B2 (ja) コマーシャル境界判定装置、コマーシャル境界判定方法、及びプログラム
JP7196656B2 (ja) クレジット区間特定装置、クレジット区間特定方法及びプログラム
CN112437340B (zh) 一种音视频中确定有无变种长广告的方法及系统
CN112804587B (zh) 基于观看人数序列的视频质检方法、装置及计算机设备
WO2024034401A1 (ja) 映像編集装置、映像編集プログラム、及び映像編集方法
WO2019156043A1 (ja) コンテンツ判定装置、コンテンツ判定方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201215

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211004

R150 Certificate of patent or registration of utility model

Ref document number: 6966705

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150