JP6433273B2 - 端末装置、サーバ装置、及びプログラム - Google Patents

端末装置、サーバ装置、及びプログラム Download PDF

Info

Publication number
JP6433273B2
JP6433273B2 JP2014246515A JP2014246515A JP6433273B2 JP 6433273 B2 JP6433273 B2 JP 6433273B2 JP 2014246515 A JP2014246515 A JP 2014246515A JP 2014246515 A JP2014246515 A JP 2014246515A JP 6433273 B2 JP6433273 B2 JP 6433273B2
Authority
JP
Japan
Prior art keywords
content
video
elapsed time
data
program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014246515A
Other languages
English (en)
Other versions
JP2016111492A (ja
Inventor
松下 剛
剛 松下
一浩 横田
一浩 横田
Original Assignee
株式会社テレビ朝日
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社テレビ朝日 filed Critical 株式会社テレビ朝日
Priority to JP2014246515A priority Critical patent/JP6433273B2/ja
Publication of JP2016111492A publication Critical patent/JP2016111492A/ja
Application granted granted Critical
Publication of JP6433273B2 publication Critical patent/JP6433273B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、テレビ受像機により表示される映像と、端末が実行するコンテンツとを同期させる技術に関する。
従来から、スマートフォンなど視聴者の携帯端末で実行される放送映像と連動したインターネットコンテンツが提供されている。このインターネットコンテンツとしては、テレビ受像機とは別の映像を表示させるスクリーン(所謂セカンドスクリーン)として携帯端末を機能させるコンテンツや、放送番組の進行及び演出と密接に連動した内容のコンテンツが存在する。例えば、特許文献1には、放送に同期させてネットワークにおける広告を表示する技術が開示されている。また、特許文献2には、放送中の番組と関連する関連情報を放送と同期してネットワークを介して配信する技術が開示されている。その他、本発明に関連する技術が特許文献3〜5に開示されている。
国際公開WO2008/081596 特許公開2013−141133号公報 特開公開2013−9359号公報 特開公開2013−9343号公報 特開公開2012−208654号公報
放送映像の進行と完全にタイミングを一致させてインターネットコンテンツの進行を制御するためには、放送受信における遅延が課題となる。特に、放送受信エリア毎に若干の放送電波の受信タイミングのずれ(即ちタイムラグ)が発生するため、全国の放送エリアにある各テレビ受像機は、それぞれ異なるタイミングで放送映像を受信して再生することになる。特許文献1には、放送と広告とを同期させる際に、上述したような放送受信エリア毎のタイムラグを考慮する点については何ら開示されていない。また、特許文献2についても、現在時刻に対応した単位時間枠の連動情報により制御を行うため、上述のタイムラグを考慮する点については何ら開示されていない。また、特許文献3及び特許文献4には、再生の遅延時間を制御するための制御情報を放送のデータに付加する手段について記載されているが、この制御情報を全ての放送エリアにおいて運用することは放送運用が複雑になるという課題が生じることになる。また、特許文献5には、放送のデータに同期用のマーカ情報を埋め込む方法が開示されているが、マーカ情報を埋め込む作業が生じることになり、かつ、上述のタイムラグについて何ら考慮していない。
本発明が解決しようとする課題には上記のようなものが一例として挙げられる。本発明は、放送映像などにマーカ情報や時刻制御情報を付加することなく、テレビ受像機で再生される映像とコンテンツとの進行タイミングの同期を図ることが可能な端末装置及びサーバ装置を提供することを主な課題とする。
本発明の1つの観点では、番組の開始からの経過時間が関連付けられた動画のコンテンツを実行する端末装置であって、前記番組の放送映像又は放送音声に関する照合用データを記憶する記憶手段と、テレビ受像機が出力する映像を撮影する撮影手段が生成した映像データ又は前記テレビ受像機が出力する音声を電気信号に変換する音声入力手段が生成した音声データを取得するデータ取得手段と、前記照合用データを参照することで、前記映像データ又は前記音声データから、前記テレビ受像機が出力する映像の前記番組の開始からの経過時間を認識する経過時間認識手段と、前記経過時間に基づき、前記コンテンツと前記テレビ受像機が出力する映像とを同期させて前記コンテンツを再生するコンテンツ実行手段と、を備え、前記コンテンツ実行手段は、前記経過時間認識手段が認識した経過時間に、当該経過時間認識手段が前記経過時間を認識する処理中に前記映像が進んだ時間を加算した時間だけ、前記コンテンツの時間軸上において経過した時点から、前記コンテンツを前記映像と同期させて再生を行う
上記端末装置は、番組と関連するコンテンツを実行し、記憶手段と、データ取得手段と、経過時間認識手段と、コンテンツ実行手段とを有する。記憶手段は、番組の放送映像又は放送音声に関する照合用データを記憶する。データ取得手段は、テレビ受像機が出力する映像を撮影する撮影手段が生成した映像データ又はテレビ受像機が出力する音声を電気信号に変換する音声入力手段が生成した音声データを取得する。経過時間認識手段は、記憶手段が記憶する照合用データを参照することで、映像データ又は音声データから、テレビ受像機が出力する映像の前記番組の開始からの経過時間を認識する。コンテンツ実行手段は、認識した経過時間に基づき、コンテンツとテレビ受像機が出力する映像とを同期させてコンテンツを実行する。ここで、コンテンツ実行手段は、経過時間認識手段が認識した経過時間に、当該経過時間認識手段が経過時間を認識する処理中に映像が進んだ時間を加算した時間だけ、コンテンツの時間軸上において経過した時点から、コンテンツを映像と同期させて再生を行う。この態様によれば、端末装置は、放送受信エリアごとの放送映像の再生タイミングの違いによらず、コンテンツとテレビ受像機が出力する映像とを的確に同期させてコンテンツを実行することができる。
上記端末装置の一態様では、端末装置は、ネットワークを介してサーバ装置と通信を行う通信手段をさらに備え、前記記憶手段は、前記通信手段が前記サーバ装置から受信した照合用データを記憶する。この態様により、端末装置は、照合用データを好適に取得することができる。
上記端末装置の他の一態様では、前記映像データ又は音声データから特徴量を算出する特徴量算出手段をさらに備え、前記記憶手段は、前記照合用データとして、前記番組の各時点での放送映像又は放送音声の特徴量と、前記番組の開始からの経過時間とを関連付けて記憶し、前記経過時間認識手段は、前記特徴量算出手段が算出した特徴量に最も近似する特徴量を前記照合用データから検索することで、前記経過時間を認識する。この態様により、端末装置は、データ取得手段が取得した映像データ又は音声データに対応する番組開始からの経過時間を好適に認識することができる。
上記端末装置の他の一態様では、前記コンテンツは、前記番組の開始時点からの経過時間毎に対応するフレームを含み、前記コンテンツ実行手段は、前記経過時間認識手段が認識した経過時間に前記映像が進んだ時間を加算した時間だけ前記コンテンツの時間軸上において経過した時点に対応する前記フレーム表示して前記コンテンツの再生を開始する。この態様により、端末装置は、認識した番組の経過時間に映像が進んだ時間を加算した時間だけコンテンツの時間軸上において経過した時点に対応するフレームからコンテンツを再生して放送映像及び放送音声と同期させることができる。
上記端末装置の他の一態様では、前記記憶手段は、前記テレビ受像機のセカンドスクリーンとして表示すべき映像データを前記コンテンツとして記憶し、前記コンテンツ実行手段は、前記経過時間に基づき、前記テレビ受像機が出力する映像と同期させて前記映像データを表示する。この態様により、端末装置は、テレビ受像機に映る映像と的確に同期した映像を好適に表示することができる。
本発明の他の観点では、番組と関連するコンテンツを実行する端末装置であって、前記番組の放送映像又は放送音声に関する照合用データを記憶する記憶手段と、テレビ受像機が出力する映像を撮影する撮影手段が生成した映像データ又は前記テレビ受像機が出力する音声を電気信号に変換する音声入力手段が生成した音声データを取得するデータ取得手段と、前記照合用データを参照することで、前記映像データ又は前記音声データから、前記テレビ受像機が出力する映像の前記番組の開始からの経過時間を認識する経過時間認識手段と、前記経過時間に基づき、前記コンテンツと前記テレビ受像機が出力する映像とを同期させて前記コンテンツを実行するコンテンツ実行手段と、を備え、前記記憶手段は、前記コンテンツとして、音声を採点するための採点情報を、前記番組の開始時点からの経過時間に対応付けて記憶し、前記コンテンツ実行手段は、前記経過時間に基づき、前記採点情報を参照して、前記音声入力手段により入力された音声の採点を行う。この態様により、端末装置は、歌が放送された場合に、放送された歌に合わせて歌った音程等に関する採点(即ちカラオケ採点)を的確に実行することができる。
本発明の他の観点では、番組と関連するコンテンツを実行し、前記番組の放送映像又は放送音声に関する照合用データを記憶する記憶手段と、テレビ受像機が出力する映像を撮影する撮影手段が生成した映像データ又は前記テレビ受像機が出力する音声を電気信号に変換する音声入力手段が生成した音声データを取得するデータ取得手段と、前記照合用データを参照することで、前記映像データ又は前記音声データから、前記テレビ受像機が出力する映像の前記番組の開始からの経過時間を認識する経過時間認識手段と、前記経過時間に基づき、前記コンテンツと前記テレビ受像機が出力する映像とを同期させて前記コンテンツを実行するコンテンツ実行手段と、を有する端末装置と、前記番組が生放送番組の場合に、前記テレビ受機に受信させる放送電波の送出タイミングを所定時間幅だけ遅延させる放送システムと通信を行うサーバ装置であって、前記番組が生放送番組の場合に、前記放送システムが生成した放送用の映像又は音声のデータと、前記コンテンツ実行手段が実行するコンテンツとを、前記放送システムから即時に取得する取得手段と、前記取得手段が取得した放送用の映像又は音声のデータに基づき、映像又は音声に関する照合用データを生成する照合用データ生成手段と、前記照合用データ生成手段が生成した照合用データと、前記取得手段が取得した前記コンテンツとを前記端末装置に送信するデータ送信手段と、を有する。この態様により、サーバ装置は、生放送番組の場合、放送システムが放送電波の送出タイミングを所定時間幅だけ遅延させている間に、端末装置が使用する照合用データを好適に生成し、端末装置に供給する。従って、サーバ装置は、生放送番組であっても、放送映像とコンテンツとを的確に同期させて端末装置に再生させることができる。
本発明のさらに他の観点では、番組の開始からの経過時間が関連付けられた動画のコンテンツを実行し、前記番組の放送映像又は放送音声に関する照合用データを参照するコンピュータが実行するプログラムであって、テレビ受像機が出力する映像を撮影する撮影手段が生成した映像データ又は前記テレビ受像機が出力する音声を電気信号に変換する音声入力手段が生成した音声データを取得するデータ取得手段と、前記照合用データを参照することで、前記映像データ又は前記音声データから、前記テレビ受像機が出力する映像の前記番組の開始からの経過時間を認識する経過時間認識手段と、前記経過時間に基づき、前記コンテンツと前記テレビ受像機が出力する映像とを同期させて前記コンテンツを再生するコンテンツ実行手段として前記コンピュータを機能させ、前記コンテンツ実行手段は、前記経過時間認識手段が認識した経過時間に、当該経過時間認識手段が前記経過時間を認識する処理中に前記映像が進んだ時間を加算した時間だけ、前記コンテンツの時間軸上において経過した時点から、前記コンテンツを前記映像と同期させて再生を行う。コンピュータは、このプログラムを実行することで、放送受信エリアごとの放送映像の再生タイミングの違いによらず、コンテンツとテレビ受像機が出力する映像とを的確に同期させてコンテンツを実行することができる。
実施形態に係る放送システムの概略構成図を示している。 携帯端末の概略構成を示すブロック図である。 実施形態に基づくタイムチャートの一例である。 放送電波の受信タイミングが異なる地域で同一の番組に同期させてコンテンツアプリをそれぞれ実行する場合のタイムチャートを示す。 コンテンツ同期処理の手順を示すフローチャートである。
以下、図面を参照して本発明の好適な実施の形態について説明する。
[システム構成]
図1は、本実施形態に係る放送システムの概略構成図を示している。図1に示すように、放送システムは、放送波を送出する放送局1と、テレビ受像機2と、携帯端末3と、サーバ装置5とを有する。そして、放送システムは、テレビ番組に連動したコンテンツを、放送と好適に同期して実行することが可能なシステムである。携帯端末3及びサーバ装置5は、ネットワーク4を介して電気的に接続している。
テレビ受像機2は、視聴者の家庭に設置され、放送局1からの放送波を受信することにより、テレビ番組の映像や音声を出力する。
携帯端末3は、テレビ受像機2の視聴者が使用するスマートフォンなどの通信端末である。携帯端末3には、コンテンツを実行するためのアプリケーションプログラム(単に「コンテンツアプリ」とも呼ぶ。)が予めインストールされている。例えば、携帯端末3は、コンテンツアプリに基づき、テレビ受像機2(メインスクリーン)に対するセカンドスクリーンとして表示する映像を出力する。他の例では、携帯端末3は、番組中に歌が再生されていた場合に、コンテンツアプリに基づき、当該歌に合わせて携帯端末3のマイクを利用してユーザが歌った音の採点(即ちカラオケの採点)を行い、結果を表示する。
また、携帯端末3は、ユーザ操作に基づき、テレビ受像機2の表示画面の映像を撮影する機能、及び、テレビ受像機2が出力する音声を音声データとして取得する機能を有する。そして、携帯端末3は、取得した映像データ又は音声データに対応する番組開始からの経過時間(「経過時間Tp」とも呼ぶ。)を認識する。これにより、携帯端末3は、実行するコンテンツと放送映像との同期を行う。
サーバ装置5は、放送局1が送出する放送波により送信するテレビ番組の放送データ等を管理する。具体的には、サーバ装置5は、携帯端末3が取得した映像又は音声から経過時間Tpを算出するのに必要な情報(「照合用データDt1」とも呼ぶ。)を番組ごとに記憶する。ここで、照合用データDt1は、対象の番組で時系列に表示される各映像フレームの特徴量又は当該番組で出力される音声の時系列の特徴量(「照合用特徴量Frf」とも呼ぶ。)と、当該特徴量に対応する映像又は音声に対応する番組開始からの経過時間とを関連付けたデータである。サーバ装置5は、例えば、携帯端末3から所定の要求信号を受信した場合に、当該要求信号で指定された番組に対応する照合用データDt1を携帯端末3へ送信する。また、サーバ装置5は、携帯端末3が実行するコンテンツアプリ、及び、コンテンツアプリにより実行されるコンテンツを記憶し、携帯端末3の要求に応じて携帯端末3へ送信する。
[携帯端末の構成]
図2は、携帯端末3の概略構成を示すブロック図である。図2に示すように、携帯端末3は、主に、マイク31と、カメラ32と、通信部33と、記憶部34と、制御部35と、表示部36と、音声出力部37とを有する。
記憶部34は、コンテンツアプリなどの携帯端末3の動作を制御するためのプログラムを保存したり、携帯端末3の動作に必要な情報を保持したりする。また、記憶部34は、照合用データDt1と、コンテンツDt2とを記憶する。ここで、コンテンツDt2は、コンテンツアプリに基づく処理を実行するのに必要なデータである。例えば、表示部36をセカンドスクリーンとして機能させるコンテンツアプリの場合、コンテンツDt2は、フレームごとに番組開始からの経過時間が関連付けられた映像データに相当する。他の例では、上述したカラオケの採点を実行するコンテンツアプリの場合、コンテンツDt2は、番組開始からの経過時間が関連付けられた採点の基準となる音程等の時系列の情報(採点情報)である。コンテンツDt2は、コンテンツアプリと共にサーバ装置5からダウンロードされたものであってもよく、照合用データDt1と共にサーバ装置5からダウンロードされたものであってもよい。
制御部35は、図示しないCPU(Central Processing Unitなどを備え、携帯端末3内の各構成要素に対して種々の制御を行う。制御部35は、機能的には、照合用データ取得部51と、特徴量抽出部52と、経過時間認識部53と、コンテンツ実行部54とを有する。制御部35は、本発明におけるプログラムを実行するコンピュータの一例である。
照合用データ取得部51は、通信部33により、サーバ装置5から照合用データDt1を取得する。そして、照合用データ取得部51は、取得した照合用データDt1を、記憶部34に記憶させる。
特徴量抽出部52は、インストールされたコンテンツアプリに対応するテレビ番組の放送中に、ユーザ操作により指定されたタイミングにより、マイク31から入力された所定時間長の音声データ、又は、カメラ32が生成した映像データを取得する。そして、特徴量抽出部52は、取得したデータから特徴量(「抽出特徴量Fet」とも呼ぶ。)を抽出する。例えば、特徴量抽出部52は、カメラ32から静止画像である映像データを取得した場合、種々の公知技術に基づき対象の画像から特徴点を抽出し、抽出した特徴点の情報を、抽出特徴量Fetとして定める。また、特徴量抽出部52は、マイク31から音声データを取得した場合、当該音声データから音量及び周波数を抽出し、これらの情報を、抽出特徴量Fetとして定める。上述した方法の他、特徴量抽出部52は、種々の画像認識又は音声認識で用いられる任意の特徴量を、抽出特徴量Fetとして抽出してもよい。特徴量抽出部52は、本発明における「データ取得手段」及び「特徴量抽出手段」の一例である。
経過時間認識部53は、特徴量抽出部52が算出した抽出特徴量Fetと、記憶部34が記憶する照合用データDt1の照合用特徴量Frfとを照合することで、経過時間Tpを認識する。具体的には、経過時間認識部53は、特徴量抽出部52が算出した抽出特徴量Fetと一致又は最も近似する照合用特徴量Frfを照合用データDt1から検索し、検索した照合用特徴量Frtと照合用データDt1において関連付けられた経過時間を、経過時間Tpとして認識する。そして、経過時間認識部53は、認識した経過時間Tpの情報を、コンテンツ実行部54へ供給する。経過時間認識部53がコンテンツ実行部54に通知する経過時間Tpの情報は、特徴量抽出部52が音声データ又は映像データを取得した時点でテレビ受像機2に表示された映像フレームを特定可能な情報であり、例えば、番組開始からX秒後のYフレーム目(X,Yは自然数)であるかを示す情報である。経過時間認識部53は、本発明における「経過時間認識手段」の一例である。
コンテンツ実行部54は、経過時間認識部53から通知された経過時間Tpに基づき、コンテンツアプリに基づく処理を実行する。具体的には、コンテンツ実行部54は、経過時間認識部53から通知された経過時間Tpに対応するコンテンツDt2の時間軸上の時点(「コンテンツ同期時点」とも呼ぶ。)を認識し、コンテンツ同期時点からコンテンツDt2の再生等を実行する。例えば、表示部36をセカンドスクリーンとして機能させるコンテンツアプリの場合、コンテンツ実行部54は、通知された経過時間Tpに対応するコンテンツDt2の映像フレームからコンテンツDt2を再生して表示部36に表示する。他の例では、カラオケの採点を実行するコンテンツアプリの場合、コンテンツ実行部54は、通知された経過時間Tpに対応するコンテンツDt2の音程情報等を参照し、入力された音声データから抽出した音程等の採点を開始する。コンテンツ実行部54は、本発明における「コンテンツ実行手段」の一例である。
[コンテンツ同期処理]
次に、テレビ受像機2に表示されている放送映像とコンテンツアプリに基づくコンテンツDt2とを同期させる処理(「コンテンツ同期処理」とも呼ぶ。)について詳しく説明する。
図3は、本実施形態に基づくタイムチャートの一例である。図3の例では、時刻「T0」において、テレビ受像機2に所定のテレビ番組の最初の映像フレームが表示されたものとする。
まず、ユーザが携帯端末3を操作することで、時刻「T1」にテレビ受像機2が表示又は音声出力する映像又は音声データである映像・音声データ61を携帯端末3が取得した場合、携帯端末3の特徴量抽出部52は、映像・音声データ61から抽出特徴量「Fet1」を算出する。
そして、経過時間認識部53は、抽出特徴量Fet1と、対象のテレビ番組に対応する照合用データDt1の照合用特徴量Frfとを比較することで、抽出特徴量Fet1に最も近似する照合用特徴量「Frf1」を認識する。そして、経過時間認識部53は、照合用データDt1において照合用特徴量Frf1に関連付けられていた経過時間を経過時間Tpとして認識し、コンテンツ実行部54に通知する。この場合、コンテンツ実行部54は、経過時間Tpだけ経過したコンテンツアプリの時間軸上の時点を、コンテンツ同期時点とみなし、コンテンツ同期時点からコンテンツDt2の再生等を行う。この場合、経過時間Tpだけ現在時刻よりも前の時点が、コンテンツアプリが出力するコンテンツDt2の開始時点(即ち先頭地点)となる。
同様に、時刻「T2」にテレビ受像機2が表示又は音声出力する映像又は音声データである映像・音声データ62を携帯端末3が取得した場合、特徴量抽出部52は、画像・音声データ62から抽出特徴量「Fet2」を算出する。そして、経過時間認識部53は、照合用データDt1を参照し、抽出特徴量Fet2に最も近似する照合用特徴量「Frf2」を認識する。そして、経過時間認識部53は、照合用データDt1において照合用特徴量Frf2に関連付けられた経過時間を経過時間Tpとして認識し、コンテンツ実行部54に通知する。この場合、コンテンツ実行部54は、コンテンツアプリの時間軸で経過時間Tpだけ経過した時点をコンテンツ同期時点とみなし、コンテンツ同期時点からコンテンツDt2の再生等を行う。
図4は、放送電波の受信タイミングが異なる地域の各々で同時にコンテンツアプリを実行する場合のタイムチャートを示す。図4の例では、放送エリアBは、放送エリアAよりも、ミリ秒単位の時間差「dT」だけ、放送電波の受信タイミングが遅い。以後では、テレビ受像機2に表示された映像フレームF1を撮影した映像データに基づき抽出特徴量Fetを生成する場合について説明する。
まず、時刻「T10」において、放送エリアAに設置されたテレビ受像機2は、番組の最初の映像フレームを表示する。その後、放送エリアAのテレビ受像機2は、番組開始から時間長「Tp1」だけ経過した時刻「T12」に、映像フレームF1を表示する。この場合、放送エリアAにあるテレビ受像機2の視聴者が使用する携帯端末3の特徴量抽出部52は、ユーザ操作に基づき映像フレームF1を撮影した映像データを生成し、抽出特徴量Fetを算出する。この場合、経過時間認識部53は、抽出特徴量Fetに最も近似する照合用特徴量Frfに関連付けられた経過時間(即ち時間長Tp1)を、経過時間Tpとして認識する。そして、経過時間認識部53は、コンテンツアプリの時間軸で時間長Tp1だけ経過した時点をコンテンツ同期時点とみなし、コンテンツ同期時点からコンテンツDt2の再生等を行う。
一方、時刻T10よりも数ミリ秒後の時刻「T11」において、放送エリアBに設置されたテレビ受像機2は、番組の最初の映像フレームを表示する。その後、放送エリアBのテレビ受像機2は、番組開始から時間長Tp1だけ経過した時刻「T13」に、映像フレームF1を表示する。なお、時刻T13は、時刻T12よりも時間差dTだけ経過した時刻を示す。この場合、放送エリアBにあるテレビ受像機2の視聴者が使用する携帯端末3の特徴量抽出部52は、ユーザ操作に基づき映像フレームF1を撮影した映像データを生成し、抽出特徴量Fetを算出する。この場合、経過時間認識部53は、抽出特徴量Fetに最も近似する照合用特徴量Frfに関連付けられた経過時間(即ち時間長Tp1)を、経過時間Tpとして認識する。そして、経過時間認識部53は、コンテンツアプリの時間軸で時間長Tp1だけ経過した時点をコンテンツ同期時点とみなし、コンテンツ同期時点からコンテンツDt2の再生等を行う。
このように、放送エリアAの携帯端末3は、時刻T12に、コンテンツDt2の時間軸上で時間長Tp1だけ経過した時点からコンテンツDt2の再生等を開始し、放送エリアBの携帯端末3は、時間差dTだけ時刻T12より後の時刻T13に、同一時点からコンテンツDt2の再生等を開始する。即ち、放送エリアA、Bにある各携帯端末3は、同期させるテレビ受像機2が存在するエリアの受信タイミングの時間差dT分だけずらして、コンテンツアプリに基づきコンテンツDt2を再生する。
次に、映像フレームF1の所定時間経過後に表示される映像フレームF2を撮影した映像データに基づき抽出特徴量Fetを生成する場合について、引き続き図4を参照して説明する。
この場合、放送エリアAにあるテレビ受像機2が時刻「T14」に映像フレームF2を表示した場合、放送エリアAの携帯端末3は、コンテンツDt2の時間軸上で、時刻T10から時刻T14までの時間長「Tp2」を経過時間Tpとして認識する。この場合、携帯端末3は、コンテンツDt2の時間軸上で時間長Tp2だけ経過した時点からコンテンツDt2の再生等を開始する。また、放送エリアBにあるテレビ受像機2は、時刻T14よりも時間差dTだけ経過した時刻「T15」に映像フレームF2を表示する。この場合、放送エリアBの携帯端末3は、コンテンツDt2の時間軸上で、時刻T11から時刻T15までの時間長Tp2を経過時間Tpとして認識する。この場合、携帯端末3は、コンテンツDt2の時間軸上で時間長Tp2だけ経過した時点からコンテンツDt2の再生等を開始する。
このように、映像フレームF2に基づき抽出特徴量Fetを生成する場合であっても、放送エリアA、Bにある各携帯端末3は、同期させるテレビ受像機2が存在するエリアの受信タイミングの時間差dT分だけずらして、コンテンツアプリに基づきコンテンツを再生している。
以上のように、携帯端末3は、放送エリアごとに放送電波の受信タイミングが異なる場合であっても、対応するテレビ受像機2が表示する映像に的確に同期させてコンテンツDt2を実行することができる。
[処理フロー]
図5は、携帯端末3が実行するコンテンツ同期処理の手順を示すフローチャートである。携帯端末3は、図5のフローチャートの処理を、例えば、コンテンツアプリを起動する旨の入力を検知した場合に実行する。
まず、携帯端末3は、照合用データDt1をサーバ装置5から取得する(ステップS101)。この場合、携帯端末3の照合用データ取得部51は、例えば、コンテンツアプリと同期させる放送番組を指定する情報を送信することで、当該放送番組に対応する照合用データDt1をサーバ装置5から受信する。
次に、携帯端末3は、テレビ受像機2の画面の撮影又はテレビ受像機2が出力する音声の収録を指示する操作を、ユーザに対して要求する(ステップS102)。第1の例では、携帯端末3は、「テレビ画面が撮影範囲に含まれることを確認後、撮影ボタンを押してください」と音声ガイダンスを出力する。この例では、携帯端末3の特徴量抽出部52は、撮影ボタンが押下された時点でカメラ32が生成した静止画である映像データを取得する。第2の例では、携帯端末3は、「テレビの音声が届く位置で録音開始ボタンを押してください」と音声ガイダンスを出力する。そして、携帯端末3の特徴量抽出部52は、録音開始ボタンが押下されてから所定秒の間、マイク31から入力された音声データを取得する。
そして、特徴量抽出部52は、ステップS102での要求に基づき、映像又は音声データを取得したか否か判定する(ステップS103)。そして、特徴量抽出部52は、映像又は音声データを取得した場合(ステップS104;Yes)、取得した映像又は音声データから特徴量を抽出する(ステップS104)。この場合、携帯端末3の特徴量抽出部52は、照合用データDt1に含まれる照合用特徴量Frfの算出方法と同一の方法により、映像又は音声データを解析し、抽出特徴量Fetを算出する。
次に、携帯端末3の経過時間認識部53は、ステップS104で抽出した抽出特徴量Fetに基づき、照合用データDt1を参照して経過時間Tpを認識する(ステップS105)。この場合、経過時間認識部53は、抽出特徴量Fetと、照合用データDt1に含まれる経過時間ごとの照合用特徴量Frfとのマッチングを行い、抽出特徴量Fetに最も近似する照合用特徴量Frtに関連付けられた経過時間を、経過時間Tpとして認識する。この場合、経過時間認識部53は、音声データに基づく特徴量の場合には、音声データの取得期間中の複数の時点における特徴量のマッチングを行うことで、取得した音声データの特徴量と照合用データDt1に含まれる特徴量との対応を認識して経過時間Tpを決定してもよい。
そして、携帯端末3のコンテンツ実行部54は、ステップS105で認識した経過時間Tpを基準として、コンテンツDt2の再生等を開始する(ステップS106)。具体的には、コンテンツ実行部54は、コンテンツDt2の時間軸上で経過時間Tpだけ経過した時点からコンテンツDt2の再生等を開始する。これにより、携帯端末3は、放送エリアごとに放送電波の受信タイミングが異なる場合であっても、テレビ受像機2が表示する映像に好適に同期させてコンテンツDt2を実行することができる。
[変形例]
次に、上述の実施形態に好適な各変形例について説明する。なお、これらの各変形例は、組み合わせて上述の実施例に適用してもよい。
(変形例1)
生放送番組の場合、携帯端末3は、照合用データDt1及びコンテンツDt2を予めサーバ装置5から取得することができない。そこで、この場合、放送システムは、放送局1による放送電波の送出タイミングを所定時間幅だけ遅延させ、サーバ装置5は、遅延された放送前の生放送番組の照合用データDt1の生成及び携帯端末3への送信を行い、コンテンツ同期処理を携帯端末3に実行させてもよい。
この場合、放送システムは、中継映像などを含む放送用データを所定時間幅(例えば90秒間)だけ蓄積した後、蓄積した放送用データの電波を放送局1により送出させる。ここで、上述の所定時間幅は、後述する照合用データDt1とコンテンツDt2の生成時間、携帯端末3への送信時間、及びエンコードに要する時間等を勘案して設定される。そして、サーバ装置5は、放送システムが生成した映像及び音声データを即時に(即ち放送電波による送出前に)取得し、解析することで照合用データDt1を生成する。そして、サーバ装置5は、生成した照合用データDt1を携帯端末3へ送信する。この場合、例えば、サーバ装置5は、生成した照合用データDt1を、ストリーミング方式により即時に送信する。また、サーバ装置5は、放送用の映像を撮影したカメラとは異なる別カメラから撮影された映像等に基づくコンテンツDt2を生成し、ストリーミング方式により携帯端末3へ送信する。この場合、サーバ装置5は、コンテンツDt2として、上述の別カメラから遅延なく取得した映像等を、ストリーミング方式により携帯端末3へ即時に送信する。
そして、携帯端末3は、コンテンツアプリの起動要求に基づき、映像又は音声データを取得して抽出特徴量Fetを算出した場合、サーバ装置5から受信した照合用データDt1を参照してコンテンツアプリの時間軸上での経過時間である経過時間Tpを認識する。この場合、放送電波の送出を遅延させたことにより、携帯端末3が受信した照合用データDt1には、テレビ受像機2が出力する映像又は音声に対応する照合用特徴量Frfが含まれている。よって、携帯端末3は、抽出特徴量Fetに最も近似する照合用特徴量Frfに関連付けられた経過時間を、経過時間Tpとして好適に認識することができる。そして、携帯端末3は、認識した経過時間Tpに基づき、サーバ装置3から受信したコンテンツDt2を実行する。この場合、携帯端末3がサーバ装置5から受信したコンテンツDt2には、放送電波の送出を遅延させたことにより、経過時間Tpに相当するデータが既に含まれている。よって、携帯端末3は、テレビ受像機2の出力と適切に同期させて、コンテンツDt2を好適に実行することができる。
なお、本変形例のサーバ装置5のCPUなどは、本発明の「取得手段」、「照合用データ生成手段」及び「データ送信手段」の一例である。
(変形例2)
携帯端末3は、コンテンツ同期処理の実行時にサーバ装置5から照合用データDt1を受信するのに代えて、照合用データDt1を予め記憶してもよい。例えば、携帯端末3は、コンテンツアプリのダウンロード時などに、照合用データDt1及びコンテンツDt2をダウンロードして記憶してもよい。
(変形例3)
携帯端末3の経過時間認識部53は、コンテンツ同期処理に要する時間を考慮して、コンテンツ実行部54に通知する経過時間Tpを決定してもよい。
例えば、経過時間認識部53は、抽出特徴量Fetに最も近似する照合用特徴量Frfに関連付けられた経過時間に、コンテンツ同期処理の処理時間を加算した時間を、経過時間Tpとしてコンテンツ実行部54に通知してもよい。例えば、経過時間認識部53は、照合用データDt1に基づき、抽出特徴量Fetが番組開始から90秒50フレーム目に対応すると認識した場合、これにコンテンツ同期処理の処理時間に相当する2フレーム分を足した90秒52フレームを、経過時間Tpとしてコンテンツ実行部54に通知する。なお、経過時間認識部53がコンテンツ同期処理に要する時間を加算した経過時間Tpを決定する代わりに、経過時間認識部53から通知された経過時間Tpにコンテンツ同期処理に要する時間をコンテンツ実行部54が自ら加算してもよい。
(変形例4)
照合用特徴量Frtに代えて、携帯端末3は、放送番組で使用される映像又は音声データそのものを、番組の経過時間と関連付けて照合用データDt1として記憶し、カメラ32又はマイク31から入力された映像又は音声データと直接比較してもよい。
この場合、携帯端末3は、特徴量抽出部52により抽出特徴量Fetを算出する処理を行うことなく、カメラ32又はマイク31から入力された映像又は音声データと最も近い照合用データDt1中の映像又は音声データを検索する。そして、携帯端末3は、検索した照合用データDt1中の映像又は音声データに関連付けられた経過時間を、経過時間Tpとして認識する。
(変形例5)
携帯端末3は、マイク31とカメラ32の一方のみを有していてもよい。具体的には、携帯端末3は、マイク31から入力された音声データに基づき抽出特徴量Fetを算出する場合、カメラ32を有していなくともよい。同様に、携帯端末3は、カメラ32から入力された映像データに基づき抽出特徴量Fetを算出する場合、マイク31を有していなくともよい。
1 放送局
2 テレビ受像機
3 携帯端末
4 ネットワーク
5 サーバ装置

Claims (8)

  1. 番組の開始からの経過時間が関連付けられた動画のコンテンツを実行する端末装置であって、
    前記番組の放送映像又は放送音声に関する照合用データを記憶する記憶手段と、
    テレビ受像機が出力する映像を撮影する撮影手段が生成した映像データ又は前記テレビ受像機が出力する音声を電気信号に変換する音声入力手段が生成した音声データを取得するデータ取得手段と、
    前記照合用データを参照することで、前記映像データ又は前記音声データから、前記テレビ受像機が出力する映像の前記番組の開始からの経過時間を認識する経過時間認識手段と、
    前記経過時間に基づき、前記コンテンツと前記テレビ受像機が出力する映像とを同期させて前記コンテンツを再生するコンテンツ実行手段と、を備え、
    前記コンテンツ実行手段は、前記経過時間認識手段が認識した経過時間に、当該経過時間認識手段が前記経過時間を認識する処理中に前記映像が進んだ時間を加算した時間だけ、前記コンテンツの時間軸上において経過した時点から、前記コンテンツを前記映像と同期させて再生を行うことを特徴とする端末装置。
  2. ネットワークを介してサーバ装置と通信を行う通信手段をさらに備え、
    前記記憶手段は、前記通信手段が前記サーバ装置から受信した照合用データを記憶することを特徴とする請求項1に記載の端末装置。
  3. 前記映像データ又は音声データから特徴量を算出する特徴量算出手段をさらに備え、
    前記記憶手段は、前記照合用データとして、前記番組の各時点での放送映像又は放送音声の特徴量と、前記番組の開始からの経過時間とを関連付けて記憶し、
    前記経過時間認識手段は、前記特徴量算出手段が算出した特徴量に最も近似する特徴量を前記照合用データから検索することで、前記経過時間を認識することを特徴とする請求項1または2に記載の端末装置。
  4. 前記コンテンツは、前記番組の開始時点からの経過時間毎に対応するフレームを含み、
    前記コンテンツ実行手段は、前記経過時間認識手段が認識した経過時間に前記映像が進んだ時間を加算した時間だけ前記コンテンツの時間軸上において経過した時点に対応する前記フレームを表示して前記コンテンツの再生を開始することを特徴とする請求項1〜3のいずれか一項に記載の端末装置。
  5. 前記記憶手段は、前記テレビ受像機のセカンドスクリーンとして表示すべき映像データを前記コンテンツとして記憶し、
    前記コンテンツ実行手段は、前記経過時間に基づき、前記テレビ受像機が出力する映像と同期させて前記映像データを表示することを特徴とする請求項1〜4のいずれか一項に記載の端末装置。
  6. 番組と関連するコンテンツを実行する端末装置であって、
    前記番組の放送映像又は放送音声に関する照合用データを記憶する記憶手段と、
    テレビ受像機が出力する映像を撮影する撮影手段が生成した映像データ又は前記テレビ受像機が出力する音声を電気信号に変換する音声入力手段が生成した音声データを取得するデータ取得手段と、
    前記照合用データを参照することで、前記映像データ又は前記音声データから、前記テレビ受像機が出力する映像の前記番組の開始からの経過時間を認識する経過時間認識手段と、
    前記経過時間に基づき、前記コンテンツと前記テレビ受像機が出力する映像とを同期させて前記コンテンツを実行するコンテンツ実行手段と、を備え、
    前記記憶手段は、前記コンテンツとして、音声を採点するための採点情報を、前記番組の開始時点からの経過時間に対応付けて記憶し、
    前記コンテンツ実行手段は、前記経過時間に基づき、前記採点情報を参照して、前記音声入力手段により入力された音声の採点を行うことを特徴とする端末装置。
  7. 番組と関連するコンテンツを実行し、前記番組の放送映像又は放送音声に関する照合用データを記憶する記憶手段と、テレビ受像機が出力する映像を撮影する撮影手段が生成した映像データ又は前記テレビ受像機が出力する音声を電気信号に変換する音声入力手段が生成した音声データを取得するデータ取得手段と、前記照合用データを参照することで、前記映像データ又は前記音声データから、前記テレビ受像機が出力する映像の前記番組の開始からの経過時間を認識する経過時間認識手段と、前記経過時間に基づき、前記コンテンツと前記テレビ受像機が出力する映像とを同期させて前記コンテンツを実行するコンテンツ実行手段と、を有する端末装置と、前記番組が生放送番組の場合に、前記テレビ受機に受信させる放送電波の送出タイミングを所定時間幅だけ遅延させる放送システムと通信を行うサーバ装置であって、
    前記番組が生放送番組の場合に、前記放送システムが生成した放送用の映像又は音声のデータと、前記コンテンツ実行手段が実行するコンテンツとを、前記放送システムから即時に取得する取得手段と、
    前記取得手段が取得した放送用の映像又は音声のデータに基づき、映像又は音声に関する照合用データを生成する照合用データ生成手段と、
    前記照合用データ生成手段が生成した照合用データと、前記取得手段が取得した前記コンテンツとを前記端末装置に送信するデータ送信手段と、
    を有することを特徴とするサーバ装置。
  8. 番組の開始からの経過時間が関連付けられた動画のコンテンツを実行し、前記番組の放送映像又は放送音声に関する照合用データを参照するコンピュータが実行するプログラムであって、
    テレビ受像機が出力する映像を撮影する撮影手段が生成した映像データ又は前記テレビ受像機が出力する音声を電気信号に変換する音声入力手段が生成した音声データを取得するデータ取得手段と、
    前記照合用データを参照することで、前記映像データ又は前記音声データから、前記テレビ受像機が出力する映像の前記番組の開始からの経過時間を認識する経過時間認識手段と、
    前記経過時間に基づき、前記コンテンツと前記テレビ受像機が出力する映像とを同期させて前記コンテンツを再生するコンテンツ実行手段
    として前記コンピュータを機能させ、
    前記コンテンツ実行手段は、前記経過時間認識手段が認識した経過時間に、当該経過時間認識手段が前記経過時間を認識する処理中に前記映像が進んだ時間を加算した時間だけ、前記コンテンツの時間軸上において経過した時点から、前記コンテンツを前記映像と同期させて再生を行うことを特徴とするプログラム。
JP2014246515A 2014-12-05 2014-12-05 端末装置、サーバ装置、及びプログラム Active JP6433273B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014246515A JP6433273B2 (ja) 2014-12-05 2014-12-05 端末装置、サーバ装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014246515A JP6433273B2 (ja) 2014-12-05 2014-12-05 端末装置、サーバ装置、及びプログラム

Publications (2)

Publication Number Publication Date
JP2016111492A JP2016111492A (ja) 2016-06-20
JP6433273B2 true JP6433273B2 (ja) 2018-12-05

Family

ID=56124655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014246515A Active JP6433273B2 (ja) 2014-12-05 2014-12-05 端末装置、サーバ装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP6433273B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3534618A4 (en) * 2016-10-27 2020-06-03 Evixar Inc. CONTENT REPRODUCING PROGRAM AND CONTENT REPRODUCING APPARATUS
JP7102826B2 (ja) * 2018-03-23 2022-07-20 ヤマハ株式会社 情報処理方法および情報処理装置
CN108718420B (zh) * 2018-07-06 2021-05-18 青岛海信传媒网络技术有限公司 一种电视时间同步的方法及装置
WO2022190717A1 (ja) 2021-03-11 2022-09-15 ヤマハ株式会社 コンテンツデータ処理方法およびコンテンツデータ処理装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006005897A (ja) * 2004-05-19 2006-01-05 Dowango:Kk 端末装置、コンテンツ配信システム、情報出力方法、情報出力プログラム
JP4573301B2 (ja) * 2005-08-18 2010-11-04 Kddi株式会社 映像信号のフレーム同期方式
JP5259519B2 (ja) * 2009-07-31 2013-08-07 日本放送協会 デジタル放送受信機、送信機及び端末装置
US9814977B2 (en) * 2010-07-13 2017-11-14 Sony Interactive Entertainment Inc. Supplemental video content on a mobile device
JP5771098B2 (ja) * 2011-09-02 2015-08-26 日本放送協会 通信コンテンツ生成装置および通信コンテンツ生成プログラム
JP6103990B2 (ja) * 2013-02-28 2017-03-29 株式会社ビデオリサーチ 情報表示装置及びシステム及び方法及びプログラム
JP6089874B2 (ja) * 2013-03-28 2017-03-08 大日本印刷株式会社 多言語同時再生システム

Also Published As

Publication number Publication date
JP2016111492A (ja) 2016-06-20

Similar Documents

Publication Publication Date Title
KR102043088B1 (ko) 멀티미디어 스트림들의 동기화
EP2954511B1 (en) Systems and methods for interactive broadcast content
US20170034263A1 (en) Synchronized Playback of Streamed Audio Content by Multiple Internet-Capable Portable Devices
JP2021530928A (ja) フレーム精度のコンテンツ修正の円滑化を支援する、低レートフィンガープリンティングを用いた補間に基づく時間マッピングの確立及び使用
EP3011691B1 (en) System and method to assist synchronization of distributed play out of control
US20070260634A1 (en) Apparatus, system, method, and computer program product for synchronizing the presentation of media content
JP4482829B2 (ja) 嗜好抽出装置、嗜好抽出方法及び嗜好抽出プログラム
JP6433273B2 (ja) 端末装置、サーバ装置、及びプログラム
US8924417B2 (en) Content reproduction method and apparatus in IPTV terminal
US8931024B2 (en) Receiving apparatus and subtitle processing method
US8781291B2 (en) Data processing device, data processing method, and program
JP2006528859A (ja) オーディオとビデオを同期させるための指紋生成及び検出の方法及び装置
CN103460128A (zh) 借助智能电话和音频水印的多种语言同步电影配音
US10503460B2 (en) Method for synchronizing an alternative audio stream
JP6289651B2 (ja) 2つの電子機器での再生を同期させる方法及び装置
KR102167276B1 (ko) 복수의 동영상 처리를 위한 장치 및 방법
US20140047309A1 (en) Apparatus and method for synchronizing content with data
US20210297731A1 (en) Video distribution system, video generation method, and reproduction device
KR101403969B1 (ko) 타임코드를 상실한 동영상의 자막 재생 시점 인식 방법
TW201619953A (zh) 複合節拍特效系統及複合節拍特效處理方法
KR20200028085A (ko) 방송 콘텐츠 송출을 위한 장치 및 방법
EP2713370A1 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170710

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181106

R150 Certificate of patent or registration of utility model

Ref document number: 6433273

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250