JP2022048131A - マルチメディアコンテンツと音源を同期するための電子装置およびその作動方法 - Google Patents

マルチメディアコンテンツと音源を同期するための電子装置およびその作動方法 Download PDF

Info

Publication number
JP2022048131A
JP2022048131A JP2021148571A JP2021148571A JP2022048131A JP 2022048131 A JP2022048131 A JP 2022048131A JP 2021148571 A JP2021148571 A JP 2021148571A JP 2021148571 A JP2021148571 A JP 2021148571A JP 2022048131 A JP2022048131 A JP 2022048131A
Authority
JP
Japan
Prior art keywords
sound source
section
multimedia content
reproduction
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021148571A
Other languages
English (en)
Other versions
JP7261276B2 (ja
Inventor
ジョンウン パク
Chan Wung Park
デファン キム
Dae Hwang Kim
ジャンヒ イ
Jang Hee Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Naver Corp
Original Assignee
Naver Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Naver Corp filed Critical Naver Corp
Publication of JP2022048131A publication Critical patent/JP2022048131A/ja
Application granted granted Critical
Publication of JP7261276B2 publication Critical patent/JP7261276B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

【課題】マルチメディアコンテンツとマルチメディアコンテンツに使用された音源を同期するための電子装置およびその作動方法を提供する。【解決手段】電子装置は、マルチメディアコンテンツのフィンガープリントに基づいて、マルチメディアコンテンツの少なくとも1つの表示区間にそれぞれマッチングされる音源の少なくとも1つの再生区間を検出し、マルチメディアコンテンツ内の表示区間の時間位置と音源内の再生区間の時間位置との時間差を検出し、時間差に基づいて、表示区間と再生区間を同期させるように構成される。【選択図】図5

Description

多様な実施形態は、マルチメディアコンテンツ(multimedia content)とマルチメディアコンテンツに使用された音源(audio source)を同期するための電子装置およびその作動方法に関する。
音源検出技術とは、マルチメディアコンテンツに使用された音源を検出する技術である。一般的に、サーバには、複数の音源が登録されており、音源のフィンガープリント(finger print)がそれぞれ記録されている。このようなサーバは、音源検出技術を利用して、マルチメディアコンテンツのフィンガープリントに基づいて、登録された音源からマルチメディアコンテンツに使用された音源を検出する。これにより、サーバは、音源に関する情報と、音源内でマルチメディアコンテンツに使用された部分の開始位置を提供する。
しかし、このようなサーバは、マルチメディアコンテンツに使用された音源を検出するための動作性能が低いという問題を抱えている。具体的に、サーバが、マルチメディアコンテンツの全体のフィンガープリントと登録された音源のフィンガープリントとを比較しなければならないため、サーバの演算量が増加し、サーバの動作効率性が低下する。さらに、サーバが、音源内からマルチメディアコンテンツに使用された部分を正確に検出することに困難がある。
多様な実施形態は、マルチメディアコンテンツに使用された少なくとも1つの音源を効率的に検出することができる、電子装置およびその作動方法を提供する。
多様な実施形態は、マルチメディアコンテンツと音源内で互いにマッチングする部分を特定することにより、これらを同期することができる、電子装置およびその作動方法を提供する。
多様な実施形態は、マルチメディアコンテンツと音源を自然に切り換えることができる、電子装置およびその作動方法を提供する。
多様な実施形態は、音源の歌詞情報に基づいて、マルチメディアコンテンツに字幕データを表示することができる、電子装置およびその作動方法を提供する。
多様な実施形態に係る電子装置の作動方法は、前記電子装置のプロセッサが、マルチメディアコンテンツのフィンガープリントに基づいて、マルチメディアコンテンツの少なくとも1つの表示区間にそれぞれマッチングされる音源の少なくとも1つの再生区間を検出する段階、前記マルチメディアコンテンツ内の前記表示区間の時間位置と前記音源内の前記再生区間の時間位置との時間差を検出する段階、および前記時間差に基づいて、前記表示区間と前記再生区間を同期する段階を含んでよい。
多様な実施形態に係るコンピュータプログラムは、前記作動方法を前記電子装置に実行させるために非一時的なコンピュータ読み取り可能な記録媒体に記録されてよい。
多様な実施形態に係る非一時的なコンピュータ読み取り可能な記録媒体には、前記作動方法を前記電子装置に実行させるためのプログラムが記録されている。
多様な実施形態に係る電子装置は、メモリ、および前記メモリに連結され、前記メモリに記録された少なくとも1つの命令を実行するように構成されたプロセッサを含み、前記プロセッサは、マルチメディアコンテンツのフィンガープリントに基づいて、マルチメディアコンテンツの少なくとも1つの表示区間にそれぞれマッチングされる音源の少なくとも1つの再生区間を検出し、前記マルチメディアコンテンツ内の前記表示区間の時間位置と前記音源内の前記再生区間の時間位置との時間差を検出し、前記時間差に基づいて、前記表示区間と前記再生区間を同期するように構成されてよい。
多様な実施形態によると、電子装置はマルチメディアコンテンツに使用された少なくとも1つの音源を効率的に検出することができる。具体的に、電子装置は、マルチメディアコンテンツと音源で互いにマッチングする表示区間と再生区間を効率的に検出することができる。すなわち、電子装置は、マルチメディアコンテンツのフィンガープリントで時間範囲を拡張させながら、マルチメディアコンテンツと音源で互いにマッチングする表示区間と再生区間をより正確に特定することができる。また、電子装置は、互いにマッチングする表示区間と再生区間との時間差に基づいて表示区間と再生区間を同期することにより、マルチメディアコンテンツと音源を関連付けることができる。これにより、電子装置は、マルチメディアコンテンツと音源を自然に切り換えることが可能となる上に、音源の歌詞情報に基づいて、マルチメディアコンテンツに字幕データを表示することができる。
多様な実施形態における、電子装置を示した図である。 図1のプロセッサの動作特徴を説明するための例示図である。 図1のプロセッサの動作特徴を説明するための例示図である。 図1のプロセッサを詳しく示した図である。 多様な実施形態における、電子装置の作動方法を示した図である。 図5の表示区間と再生区間検出段階を詳しく示した図である。 図5の表示区間と再生区間同期段階を詳しく示した図である 多様な実施形態における、電子装置の作動方法を説明するための例示図である。 多様な実施形態における、電子装置の作動方法を説明するための例示図である。 多様な実施形態における、電子装置の作動方法を説明するための例示図である。 多様な実施形態における、電子装置の作動方法を説明するための例示図である。 多様な実施形態における、電子装置の作動方法を説明するための例示図である。 多様な実施形態における、電子装置の作動方法を説明するための例示図である。
以下、本文書の多様な実施形態について、添付の図面を参照しながら説明する。
図1は、多様な実施形態における、電子装置100を示した図である。図2および図3は、図1のプロセッサ160の動作特徴を説明するための例示図である。図4は、図1のプロセッサ160を詳しく示した図である。
図1を参照すると、多様な実施形態に係る電子装置100は、連結端子110、通信モジュール120、入力モジュール130、出力モジュール140、メモリ150、またはプロセッサ160のうちの少なくともいずれか1つを含んでよい。一実施形態によっては、電子装置100の構成要素のうちの少なくともいずれか1つが省略されても、少なくとも1つの他の構成要素が追加されてもよい。一実施形態によっては、電子装置100の構成要素のうちの少なくともいずれか2つが、1つの統合された回路で実現されてよい。例えば、電子装置100は、サーバ(server)、スマートフォン(smart phone)、携帯電話、ナビゲーション、PC、ノート型PC、デジタル放送用端末、PDA(personal digital assistants)、PMP(portable multimedia player)、タブレット、ゲームコンソール(game console)、ウェアラブルデバイス(wearable device)、IoT(internet of things)デバイス、家電機器、医療機器、またはロボット(robot)のうちの少なくともいずれか1つを含んでよい。
連結端子110は、電子装置100で外部装置102と物理的に連結されてよい。例えば、外部装置102は、他の電子装置を含んでよい。このために、連結端子110は、少なくとも1つのコネクタを含んでよい。例えば、コネクタは、HDMIコネクタ、USBコネクタ、SDカードコネクタ、またはオーディオコネクタのうちの少なくともいずれか1つを含んでよい。
通信モジュール120は、電子装置100で外部装置102、104との通信を実行してよい。通信モジュール120は、電子装置100と外部装置102、104との間に通信チャンネルを樹立し、通信チャンネルを介して外部装置102、104との通信を実行してよい。ここで、外部装置102、104は、衛星、基地局、または他の電子装置のうちの少なくともいずれか1つを含んでよい。通信モジュール120は、有線通信モジュールまたは無線通信モジュールのうちの少なくともいずれか1つを含んでよい。有線通信モジュールは、連結端子102を介して外部装置102と有線で接続し、有線で通信してよい。無線通信モジュールは、近距離通信モジュールまたは遠距離通信モジュールのうちの少なくともいずれか1つを含んでよい。近距離通信モジュールは、外部装置102と近距離通信方式で通信してよい。例えば、近距離通信方式は、ブルートゥース(Bluetooth)、Wi-Fi direct、または赤外線通信(IrDA:infrared data association)のうちの少なくともいずれか1つを含んでよい。遠距離通信モジュールは、外部装置104と遠距離通信方式で通信してよい。ここで、遠距離通信モジュールは、ネットワーク190を介して外部装置104と通信してよい。例えば、ネットワーク190は、セルラネットワーク、インターネット、またはLAN(local area network)やWAN(wide area network)のようなコンピュータネットワークのうちの少なくともいずれか1つを含んでよい。
入力モジュール130は、電子装置100の少なくとも1つの構成要素に使用される信号を入力してよい。入力モジュール130は、利用者が電子装置100に信号を直接入力するように構成される入力装置、周辺環境を感知して信号を発生するように構成されるセンサ装置、または画像を撮影して画像データを生成するように構成されるカメラモジュールのうちの少なくともいずれか1つを含んでよい。例えば、入力装置は、マイクロフォン(microphone)、マウス(mouse)、またはキーボード(keyboard)のうちの少なくともいずれか1つを含んでよい。一実施形態において、センサ装置は、タッチを感知するように設定されたタッチ回路(touch circuitry)、またはタッチによって発生する力の強度を測定するように設定されたセンサ回路のうちの少なくともいずれか1つを含んでよい。
出力モジュール140は、情報を出力してよい。出力モジュール140は、情報を視覚的に表示するように構成される表示モジュール、または情報を聴覚的に再生するように構成されるオーディオモジュールのうちの少なくとも1つを含んでよい。例えば、表示モジュールは、ディスプレイ、ホログラム装置、またはプロジェクタのうちの少なくともいずれか1つを含んでよい。一例として、表示モジュールは、入力モジュール130のタッチ回路またはセンサ回路のうちの少なくともいずれか1つと組み立てられて、タッチスクリーンとして実現されてよい。例えば、オーディオモジュールは、スピーカまたはレシーバのうちの少なくともいずれか1つを含んでよい。
メモリ150は、電子装置100の少なくとも1つの構成要素によって使用される多様なデータを記録してよい。例えば、メモリ150は、揮発性メモリまたは不揮発性メモリのうちの少なくともいずれか1つを含んでよい。データは、少なくとも1つのプログラム、およびこれと関連する入力データまたは出力データを含んでよい。プログラムは、メモリ150に少なくとも1つの命令を含むソフトウェアとして記録されてよく、例えば、オペレーティングシステム、ミドルウェア、またはアプリケーションのうちの少なくともいずれか1つを含んでよい。
プロセッサ160は、メモリ150のプログラムを実行して、電子装置100の少なくとも1つの構成要素を制御してよい。これにより、プロセッサ160は、データ処理または演算を実行してよい。このとき、プロセッサ160は、メモリ150に記録された命令を実行してよい。プロセッサ160は、マルチメディアコンテンツ(multimedia content)に使用された少なくとも1つの音源(audio source)を検出してよい。ここで、マルチメディアコンテンツは、画像データまたはオーディオデータのうちの少なくとも1つで構成されてよい。一例として、マルチメディアコンテンツは、画像データとオーディオデータで構成され、ミュージックビデオやネットワークを介して共有される動画などを含んでよい。他の例として、マルチメディアコンテンツは、オーディオデータで構成され、ポッドキャスト、放送局などで生成されてよい。また、マルチメディアコンテンツのオーディオデータには、音源が使用されてよい。
多様な実施形態によると、プロセッサ160は、図2に示すように、マルチメディアコンテンツとマルチメディアコンテンツに使用された音源から、互いにマッチングされる少なくとも1つの表示区間210と少なくとも1つの再生区間220をそれぞれ検出してよい。ここで、マルチメディアコンテンツの少なくとも1つの表示区間210は、音源の少なくとも1つの再生区間220がそれぞれ使用された時間領域を示してよい。このとき、互いにマッチングされる表示区間210と再生区間220との時間差(TD1、TD2)が定義されてよい。時間差(TD1、TD2)は、マルチメディアコンテンツの開始点(Tm0)から該当の表示区間210の開始点(Tm1、Tm2)までの時間オフセット(ΔTm1、ΔTm2)と、音源の開始点(Ta0)から該当の再生区間220の開始点(Ta1、Ta2)までの時間オフセット(ΔTa1、ΔTa2)とのオフセット差を示してよい(TD1=ΔTm1-ΔTa1、TD2=ΔTm2-ΔTa2)。ここで、時間差(TD1、TD2)としては、1つの値が定義されてもよいし、一定の範囲内の値が定義されてもよい。一例として、時間差(TD1、TD2)は、オフセット差を中心とする範囲内の値が定義されてよい。時間差(TD1、TD2)が一定の範囲内の値で定義される場合、同じ音源に対する多様な再生速度が考慮されてよい。
多様な実施形態によると、プロセッサ160は、図3に示すように、時間差(TD1、TD2)に基づいて、互いにマッチングされる表示区間210と再生区間220を同期してよい。一実施形態によると、プロセッサ160は、同一時点に、マルチメディアコンテンツと音源の切り換えを可能にしてよい。言い換えれば、プロセッサ160は、同一時点に、同期された表示区間210と再生区間220を切り換えることができるようにしてよい。他の実施形態によると、プロセッサ160は、音源の歌詞情報に基づいて、マルチメディアコンテンツに字幕データが表示されるようにしてよい。すなわち、プロセッサ160は、音源の歌詞情報に基づいて、各再生区間220にマッピングされる字幕データを生成し、以下の表1のように、表示区間210に、該当の表示区間210に同期された再生区間220の字幕データが表示されるようにしてよい。一実施形態によると、電子装置100がサーバである場合、プロセッサ160は、外部装置102、104によってマルチメディアコンテンツまたは音源を再生してよい。他の実施形態によると、電子装置100がサーバである場合、プロセッサ160は、出力モジュール140によってマルチメディアコンテンツまたは音源を再生してよい。
Figure 2022048131000002
例えば、マルチメディアコンテンツが第1表示区間210および第2表示区間210を含み、音源が第1再生区間220および第2再生区間220を含み、第1表示区間210および第2表示区間210が第1再生区間220および第2再生区間220とそれぞれマッチングされる場合を仮定する。このとき、マルチメディアコンテンツで、第1表示区間210は00:00:00~00:03:40の時間領域に該当し、第2表示区間210は00:03:57~00:05:21の時間領域に該当するとする。また、第1表示区間210と第1再生区間220の時間差(TD1)は-0.581であり、第2表示区間210と第2再生区間220の時間差(TD2)は-15.814であるとする。さらに、第1再生区間220内の00:00:03.000および00:00:06.125の時間位置のそれぞれに「abcdefg」および「hijklmn」という字幕データがあり、第2再生区間220内の00:03:52.055の時間位置に「opqrstu」という字幕データがあるとする。このような場合、プロセッサ160は、時間差(TD1、TD2)に基づいて、第1表示区間210と第1再生区間220および第2表示区間210と第2再生区間220をそれぞれ同期してよい。これにより、プロセッサ160は、第1表示区間210内の00:00:03:581および00:00:06.706の時間位置のそれぞれに「abcdefg」および「hijklmn」という字幕データを表示し、第2表示区間210内の00:04:07.869の時間位置に「hijklmn」という字幕データを表示してよい。
多様な実施形態によると、プロセッサ160は、図4に示すように、API(application programming interface)461、プロセスAPI(process-API)463、制御部465、コンテンツ取得部467、フィンガープリント部469、マッチング部471、比較部473、またはクラスタリング部475のうちの少なくとも1つを含んでよい。一実施形態によっては、プロセッサ160の構成要素のうちの少なくともいずれか1つが省略されても、少なくとも1つの他の構成要素が追加されてもよい。一実施形態によっては、プロセッサ160の構成要素のうちの少なくともいずれか2つが、1つの統合された回路で実現されてよい。
API461は、利用者の要請を検出してよい。プロセスAPI463は、利用者の要請に基づいて、命令語を生成してよい。制御部465は、プロセッサ160の構成要素のうちの少なくとも1つを制御してよい。このとき、制御部465は、プロセッサ160の構成要素のうちの少なくとも2つを仲介する役割を実行してよく、プロセッサ160の構成要素のうちの少なくとも1つのための作業を実行してよい。コンテンツ取得部467は、命令語に基づいて、マルチメディアコンテンツを取得してよい。フィンガープリント部469は、マルチメディアコンテンツのフィンガープリントを取得してよい。このとき、フィンガープリント部469は、マルチメディアコンテンツのオーディオデータからフィンガープリントを直接抽出してよい。マッチング部471は、マルチメディアコンテンツのフィンガープリントに基づいて、少なくとも1つの音源を検出してよい。このとき、メモリ150には、複数の音源が予め登録されており、登録された音源のフィンガープリントがそれぞれ記録されていてよい。マッチング部471は、マルチメディアコンテンツのフィンガープリントと登録された音源のフィンガープリントをマッチングさせることにより、登録された音源のフィンガープリントのうちの少なくとも1つを検出してよい。比較部473は、マルチメディアコンテンツのフィンガープリントと検出された音源のフィンガープリントとを比較して、検出された音源の信頼度を検出してよい。クラスタリング部475は、検出された音源に基づいて、マルチメディアコンテンツに対する比較対象またはマルチメディアコンテンツの比較結果のうちの少なくとも1つを、検出された音源と同一あるいは類似の音源を包括するように拡張させてよい。具体的に、クラスタリング部475は、検出された音源と同一あるいは類似の音源の情報を取得し、マルチメディアコンテンツに対する比較対象を、検出された音源と同一あるいは類似の音源に拡張させてよい。一方、クラスタリング部475は、比較部473の比較結果に基づいて、検出された音源と同一あるいは類似の音源をまとめてよい。
図5は、多様な実施形態における、電子装置100の作動方法を示した図である。図6は、図5の表示区間210と再生区間220検出段階(段階510)を詳しく示した図である。図7は、図5の表示区間210と再生区間220同期段階(段階530)を詳しく示した図である。図8~13は、多様な実施形態における、電子装置100の作動方法を説明するための例示図である。
図5を参照すると、段階510で、電子装置100は、マルチメディアコンテンツの少なくとも1つの表示区間210にそれぞれマッチングされる音源の少なくとも1つの再生区間220を検出してよい。プロセッサ160は、マルチメディアコンテンツに使用された音源を検出してよい。ここで、マルチメディアコンテンツは、画像データまたはオーディオデータのうちの少なくとも1つで構成されてよい。一例として、マルチメディアコンテンツは、画像データとオーディオデータで構成され、ミュージックビデオやネットワークを介して共有される動画などを含んでよい。他の例として、マルチメディアコンテンツは、オーディオデータで構成され、ポッドキャストや放送局などで生成されてよい。また、オーディオデータには、少なくとも1つの音源が使用されてよく、各音源の少なくとも一部が含まれてよい。また、プロセッサ160は、マルチメディアコンテンツと音源で互いにマッチングされる表示区間210と再生区間220をそれぞれ検出してよい。これについては、図6を参照しながらより詳しく説明する。
図6を参照すると、段階611で、電子装置100は、マルチメディアコンテンツのフィンガープリント810を複数の検索区間820に分割してよい。プロセッサ160は、マルチメディアコンテンツのフィンガープリント810を取得してよい。一実施形態によると、プロセッサ160は、マルチメディアコンテンツのオーディオデータからフィンガープリント810を直接抽出してよい。例えば、利用者によってマルチメディアコンテンツが選択されれば、プロセッサ160は、マルチメディアコンテンツのオーディオデータからフィンガープリント810を抽出してよい。他の実施形態によると、プロセッサ160は、外部装置102、104からマルチメディアコンテンツのフィンガープリント810をクエリとして受信してよい。ここで、フィンガープリントは、オーディオデータに対する時間による周波数分布を示してよい。プロセッサ160は、図8に示すように、マルチメディアのフィンガープリント810を予め設定された時間間隔によって複数の検索区間820に分割してよい。一例として、時間間隔は、約3秒であってよい。
段階613で、電子装置100は、検索区間820のうちの少なくとも1つがマッチングされる少なくとも1つの検出区間1110を有する音源を検出してよい。このとき、メモリ150には、複数の音源が予め登録されており、登録された音源のフィンガープリント1010がそれぞれ記録されていてよい。プロセッサ160は、図9に示すように、検索区間820のそれぞれを、登録された音源のフィンガープリント1010と比較してよい。これにより、プロセッサ160は、検索区間820のうちの1つに基づいて、登録された音源のフィンガープリント1010のうちの1つを検出してよい。このとき、プロセッサ160は、図10に示すように、検索区間820のうちの1つから時間範囲を拡張させながら、マルチメディアコンテンツのフィンガープリント810と検出された音源のフィンガープリント1010とを比較してよい。これにより、プロセッサ160は、図11に示すように、検出された音源のフィンガープリント1010から、検索区間820のうちの少なくとも1つがマッチングされる少なくとも1つの検出区間1110を検出することができる。
段階615で、電子装置100は、検索区間820のうちの少なくとも1つと少なくとも1つの検出区間1110を、少なくとも1つの表示区間210と少なくとも1つの再生区間220としてそれぞれ検出してよい。プロセッサ160は、各検出区間1110を各再生区間220として決定してよい。このとき、プロセッサ160は、検出された音源のフィンガープリント1010内で各再生区間220の時間位置を決定してよい。ここで、各再生区間220の時間位置は、検出された音源のフィンガープリント1010の開始点(Ta0)から該当の再生区間220の開始点(Ta1、Ta2)までの時間オフセット(ΔTa1、ΔTa2)を示してよい。また、プロセッサ160は、各検出区間1110にマッチングされる少なくとも1つの検索区間820を各表示区間210として決定してよい。このとき、プロセッサ160は、マルチメディアコンテンツのフィンガープリント810内から各表示区間210の時間位置を検出してよい。ここで、各表示区間210の時間位置は、マルチメディアコンテンツのフィンガープリント810の開始点(Tm0)から該当の表示区間210の開始点(Tm1、Tm2)までの時間オフセット(ΔTm1、ΔTm2)を示してよい。
この後、電子装置100は、図5にリターンして、段階520に進んでよい。
段階520で、電子装置100は、互いにマッチングされる表示区間210と再生区間220の時間差(TD1、TD2)を検出してよい。プロセッサ160は、マルチメディアコンテンツのフィンガープリント810内の該当の表示区間210の時間位置と検出された音源のフィンガープリント1010内の該当の再生区間220の時間位置との時間差(TD1、TD2)を検出してよい。ここで、時間差(TD1、TD2)は、マルチメディアコンテンツのフィンガープリント810の開始点(Tm0)からの時間オフセット(ΔTm1、ΔTm2)と検出された音源のフィンガープリント1010の開始点(Ta0)からの時間オフセット(ΔTa1、ΔTa2)とのオフセット差を示してよい(TD1=ΔTm1-ΔTa1、TD2=ΔTm2-ΔTa2)。
段階530で、電子装置100は、時間差(TD1、TD2)に基づいて、互いにマッチングされる表示区間210と再生区間220を同期してよい。プロセッサ160は、マルチメディアコンテンツ内の該当の表示区間210の時間位置と検出された音源内の該当の再生区間220の時間位置を一致させてよい。一実施形態によると、プロセッサ160は、同一時点に、マルチメディアコンテンツと検出された音源を切り換えることができるようにしてよい。言い換えれば、プロセッサ160は、同一時点に、同期された表示区間210と再生区間220の切り換えを可能にしてよい。他の実施形態によると、プロセッサ160は、音源の歌詞情報に基づいて、マルチメディアコンテンツに字幕データが表示されるようにしてよい。すなわち、プロセッサ160は、音源の歌詞情報に基づいて、各再生区間220にマッピングされる字幕データを生成し、表示区間210に、該当の表示区間210に同期された再生区間220の字幕データが表示されるようにしてよい。これについては、図7を参照しながらより詳しく説明する。
図7を参照すると、段階731で、電子装置100は、マルチメディアコンテンツを再生するための利用者要請を感知してよい。一実施形態によると、プロセッサ160は、外部装置102、104から受信される利用者要請を感知してよい。他の実施形態によると、プロセッサ160は、入力モジュール130に入力される利用者要請を感知してよい。これに応答して、段階733で、電子装置100は、マルチメディアコンテンツを再生してよい。一実施形態によると、電子装置100がサーバである場合、プロセッサ160は、外部装置102、104にマルチメディアコンテンツをストリーミングすることにより、外部装置102、104によってマルチメディアコンテンツを再生してよい。他の実施形態によると、電子装置100が利用者装置である場合、サーバからマルチメディアコンテンツがストリーミングされることにより、プロセッサ160が出力モジュール140を通じてマルチメディアコンテンツを再生してよい。
段階735で、電子装置100は、マルチメディアコンテンツを再生しながら、表示区間210に字幕データを表示してよい。プロセッサ160は、音源の歌詞情報に基づいて、表示区間210と同期する再生区間220にマッピングされる字幕データを生成してよい。これにより、プロセッサ160は、表示区間210に字幕データを表示することができる。一実施形態によると、電子装置100がサーバである場合、プロセッサ160は、外部装置102、104にマルチメディアコンテンツをストリーミングしながら表示区間210に対応して字幕データを提供し、これにより、外部装置102、104により、図12に示すように、表示区間210に字幕データを表示してよい。他の実施形態によると、電子装置100が利用者装置である場合、サーバからマルチメディアコンテンツがストリーミングされながら表示区間210に対応して字幕データが提供され、これにより、プロセッサ160が出力モジュール140を通じて、図12に示すように、表示区間210に字幕データを表示してよい。
段階737で、電子装置100は、マルチメディアコンテンツの再生中に、音源への切り換えのための利用者要請を感知してよい。一実施形態によると、プロセッサ160は、外部装置102、104から受信される利用者要請を感知してよい。他の実施形態によると、プロセッサ160は、入力モジュール130に入力される利用者要請を感知してよい。これに応答して、段階739で、電子装置100は、マルチメディアコンテンツ内の表示区間210の再生を中断してよい。プロセッサ160は、表示区間210内の一時点で表示区間210の再生を中断してよい。一実施形態によると、電子装置100がサーバである場合、プロセッサ160は、マルチメディアコンテンツを、表示区間210で再生が中断された時点から、外部装置102、104にこれ以上ストリーミングしなくてよい。他の実施形態によると、電子装置100が利用者装置である場合、プロセッサ160がサーバに表示区間210で再生が中断された時点を送信することにより、サーバは、マルチメディアコンテンツを、表示区間210で再生が中断された時点からストリーミングしなくてよい。
段階741で、電子装置100は、音源内で表示区間210に同期された再生区間220を続けて再生してよい。プロセッサ160は、再生区間220内の一時点から再生区間220を続けて再生してよい。ここで、再生区間220内の再生時点は、表示区間210内で再生が中断された時点と一致してよい。一実施形態によると、電子装置100がサーバである場合、プロセッサ160は、外部装置102、104に音源を再生区間220の再生時点からストリーミングすることにより、外部装置102、104により、図13に示すような画面を表示しながら、音源を続けて再生してよい。他の実施形態によると、電子装置100が利用者装置である場合、サーバから音源が再生区間220の再生時点からストリーミングされることにより、プロセッサ160が出力モジュール140を通じて、図13に示すような画面を表示しながら、音源を続けて再生してよい。
一方、段階731で、マルチメディアコンテンツを再生するための利用者要請を感知する代りに、段階751で、電子装置100は、音源を再生するための利用者要請を感知してよい。一実施形態によると、プロセッサ160は、外部装置102、104から受信される利用者要請を感知してよい。他の実施形態によると、プロセッサ160は、入力モジュール130に入力される利用者要請を感知してよい。これに応答して、段階753で、電子装置100は、音源を再生してよい。一実施形態によると、電子装置100がサーバである場合、プロセッサ160は、外部装置102、104に音源をストリーミングすることにより、外部装置102、104により、図13に示すような画面を表示しながら、音源を再生してよい。他の実施形態によると、電子装置100が利用者装置である場合、サーバから音源がストリーミングされることにより、プロセッサ160が出力モジュール140を通じて、図13に示すような画面を表示しながら、音源を再生してよい。
段階755で、電子装置100は、音源の再生中に、マルチメディアコンテンツに切り換えるための利用者要請を感知してよい。一実施形態によると、プロセッサ160は、外部装置102、104から受信される利用者要請を感知してよい。他の実施形態によると、プロセッサ160は、入力モジュール130に入力される利用者要請を感知してよい。これに応答して、段階757で、電子装置100は、音源内の再生区間220の再生を中断してよい。プロセッサ160は、再生区間220内の一時点で再生区間220の再生を中断してよい。一実施形態によると、電子装置100がサーバである場合、プロセッサ160は、音源を、再生区間220で再生が中断された時点から、外部装置102、104にこれ以上ストリーミングしなくてよい。他の実施形態によると、電子装置100が利用者装置である場合、プロセッサ160は、再生区間220で再生が中断された時点をサーバに送信することにより、サーバは、音源を、再生区間220で再生が中断された時点からストリーミングしなくてよい。
段階759で、電子装置100は、マルチメディアコンテンツ内で再生区間220に同期された表示区間210を続けて再生してよい。プロセッサ160は、表示区間210内の一時点から表示区間210を続けて再生してよい。ここで、表示区間210内の再生時点は、再生区間220内で再生が中断された時点と一致してよい。一実施形態によると、電子装置100がサーバである場合、プロセッサ160は、外部装置102、104に、マルチメディアコンテンツを表示区間210の再生時点からストリーミングすることにより、外部装置102、104により、マルチメディアコンテンツを続けて再生してよい。他の実施形態によると、電子装置100が利用者装置である場合、サーバから、マルチメディアコンテンツが再生区間220の再生時点からストリーミングされることにより、プロセッサ160が出力モジュール140を通じて、マルチメディアコンテンツを続けて再生してよい。この後、電子装置100は、段階735に進んでよい。段階735で、電子装置100は、マルチメディアコンテンツを再生しながら、表示区間210に字幕データを表示してよい。プロセッサ160は、音源の歌詞情報に基づいて、表示区間210に同期された再生区間220にマッピングされる字幕データを生成してよい。これにより、プロセッサ160は、表示区間210に、図12に示すように、字幕データを表示することができる。
段階761で、電子装置100は、感知されるイベントに対応して、マルチメディアコンテンツまたは音源の再生を終了してよい。一例として、イベントは、マルチメディアコンテンツまたは音源の終了時点で発生してよい。他の例として、イベントは、利用者要請に基づいて発生してよい。段階735でマルチメディアコンテンツを再生しながら表示区間210に字幕データを表示する間に、段階737で音源への切り換えのための利用者要請が感知されなければ、プロセッサ160は、マルチメディアコンテンツを続けて再生し、結果的にマルチメディアコンテンツの再生を終了してよい。または、段階741または段階753で音源を再生する間に、段階755でマルチメディアコンテンツへの切り換えのための利用者要請が感知されなければ、プロセッサ160は、音源を続けて再生し、結果的に音源の再生を終了してよい。
多様な実施形態によると、電子装置100は、マルチメディアコンテンツに対応して、検出された音源と関連する情報、位置情報、または信頼度のうちの少なくとも1つを提供してよい。音源と関連する情報は、音源の識別子、名称、またはアーティストのうちの少なくとも1つを含んでよい。位置情報は、マルチメディアコンテンツのフィンガープリント810内の検出区間1110の時間位置、および検出された音源のフィンガープリント1010内の検出区間1110の時間位置を示してよい。信頼度は、検出された音源がマルチメディアコンテンツに使用されたものであるかに対する正確度を示すものであり、信頼度が高いほど正確度が高くてよい。このような信頼度は、互いにマッチングされる表示区間210と再生区間220の比較結果として検出されてよい。一例として、プロセッサ160は、互いにマッチングされる表示区間210と再生区間220のビット演算により、信頼度を検出してよい。ここで、マルチメディアコンテンツから複数の音源が検出された場合、プロセッサ160は、音源のリストとして、検出された音源と関連する情報、位置情報、または信頼度のうちの少なくとも1つを提供してよい。
一例として、プロセッサ160は、検出された音源の信頼度とは関係なく、検出された音源と関連する情報、位置情報、および信頼度を提供してよい。他の例として、検出された音源の信頼度が基準値以上であれば、プロセッサ160は、検出された音源と関連する情報、位置情報、または信頼度のうちの少なくとも1つを提供してよい。言い換えれば、検出された音源の信頼度が基準値未満であれば、プロセッサ160は、検出された音源と関連する情報、位置情報、および信頼度を提供しなくてもよい。プロセッサ160は、外部装置102、104のクエリに対する応答として、検出された音源と関連する情報、位置情報、または信頼度のうちの少なくとも1つを提供してよい。一実施形態によると、プロセッサ160は、外部装置102、104に、検出された音源と関連する情報、位置情報、または信頼度のうちの少なくとも1つを送信してよい。他の実施形態によると、プロセッサ160は、出力モジュール140から、検出された音源と関連する情報、位置情報、または信頼度のうちの少なくとも1つを直接出力してよい。
多様な実施形態によると、利用者は、マルチメディアコンテンツに使用された音源を確認し、これを多様に活用してよい。一例として、マルチメディアコンテンツが放送や公演の動画である場合、利用者は、マルチメディアコンテンツに使用された音源に基づいて、マルチメディアコンテンツのキューシート(cue sheet)を取得してよい。他の例として、利用者は、マルチメディアコンテンツに使用された音源の著作権保護または著作権精算のために活用してよい。
多様な実施形態によると、検出された音源と関連する情報、位置情報、および信頼度のうちの少なくとも1つを提供した後、電子装置100は、検出された音源と関連付いた多様なサービスを提供してよい。一実施形態によると、プロセッサ160は、外部装置102、104に、検出された音源を提供してよい。外部装置102、104によって検出された音源と関連する情報が選択されれば、プロセッサ160は、外部装置102、104に、検出された音源を提供してよい。他の実施形態によると、プロセッサ160は、検出された音源と関連付いた他のマルチメディアコンテンツを提供してよい。外部装置102、104によって検出された音源と関連する情報が選択されれば、プロセッサ160は、検出された音源と関連する情報に基づいて、他のマルチメディアコンテンツを検索し、外部装置102、104に、検索されたマルチメディアコンテンツを提供してよい。また他の実施形態によると、プロセッサ160は、検出された音源と関連付いた付加情報を提供してよい。外部装置102、104によって検出された音源と関連する情報が選択されれば、プロセッサ160は、検出された音源と関連する情報に基づいて、例えば、ニュースやソーシャルネットワークサービス(social network service:SNS)などを利用して付加情報を検索し、外部装置102、104に検索された付加情報を提供してよい。
多様な実施形態によると、電子装置100は、マルチメディアコンテンツに使用された少なくとも1つの音源を効率的に検出してよい。具体的に、電子装置100は、マルチメディアコンテンツと音源で互いにマッチングされる表示区間210と再生区間220を効率的に検出してよい。すなわち、電子装置100は、マルチメディアコンテンツのフィンガープリント810で時間範囲を拡張させながら、マルチメディアコンテンツと音源で互いにマッチングされる表示区間210と再生区間220をより正確に特定してよい。また、電子装置100は、互いにマッチングされる表示区間210と再生区間220との時間差に基づいて表示区間210と再生区間220を同期することにより、マルチメディアコンテンツと音源を関連付けてよい。これにより、電子装置100は、マルチメディアコンテンツと音源を自然に切り換えることが可能となる上に、音源の歌詞情報に基づいて、マルチメディアコンテンツに字幕データを表示することができる。
多様な実施形態に係る電子装置100の作動方法は、マルチメディアコンテンツのフィンガープリント810に基づいて、マルチメディアコンテンツの少なくとも1つの表示区間210にそれぞれマッチングされる音源の少なくとも1つの再生区間220を検出する段階(段階510)、マルチメディアコンテンツ内の表示区間210の時間位置と音源内の再生区間220の時間位置との時間差(TD1、TD2)を検出する段階(段階520)、および時間差に基づいて、表示区間210と再生区間220を同期する段階(段階530)を含んでよい。
多様な実施形態によると、電子装置100の作動方法は、音源の歌詞情報に基づいて、再生区間220にマッピングされる字幕データを生成する段階をさらに含んでよい。
多様な実施形態によると、電子装置100の作動方法は、マルチメディアコンテンツの再中に(段階733、段階759)、表示区間210に、表示区間210に同期された再生区間220の字幕データを表示する段階(段階735)をさらに含んでよい。
多様な実施形態によると、電子装置100の作動方法は、マルチメディアコンテンツの表示区間210の再生中に(段階735)、利用者の要請に基づいて(段階737)、一時点で表示区間210の再生を中断する段階(段階739)、および音源で表示区間210に同期された再生区間220を、中断された時点から続けて再生する段階(段階741)をさらに含んでよい。
多様な実施形態によると、電子装置100の作動方法は、音源の再生区間220の再生中に(段階741、段階753)、利用者の要請に基づいて(段階755)、一時点で再生区間220の再生を中断する段階(段階757)、およびマルチメディアコンテンツで再生区間220に同期された表示区間210を、中断された時点から続けて再生する段階(段階759)をさらに含んでよい。
多様な実施形態によると、再生区間220を検出する段階(段階510)は、フィンガープリント810を予め設定された時間間隔によって複数の検索区間820に分割する段階(段階611)、検索区間820のうちの少なくとも1つがマッチングされる少なくとも1つの検出区間1110を有する音源を検出する段階(段階613)、および互いにマッチングされた検出区間1110のうちの少なくとも1つと検出区間1110を表示区間210と再生区間220としてそれぞれ検出する段階(段階615)を含んでよい。
多様な実施形態によると、マルチメディアコンテンツは、画像データまたはオーディオデータのうちの少なくとも1つで構成されてよい。
多様な実施形態によると、電子装置100の作動方法は、音源と関連する情報、およびマルチメディアコンテンツ内の検出区間1110の時間位置および音源内の検出区間1110の時間位置を示す位置情報を提供する段階をさらに含んでよい。
多様な実施形態によると、電子装置100の作動方法は、音源と関連する情報が選択されれば、音源を提供する段階、または音源と関連する情報が選択されれば、音源と関連付いた他のマルチメディアコンテンツを提供する段階のうちの少なくとも1つをさらに含んでよい。
多様な実施形態に係る電子装置100は、メモリ150、およびメモリ150に連結され、メモリ150に記録された少なくとも1つの命令を実行するように構成されたプロセッサ160を含んでよい。
多様な実施形態によると、プロセッサ160は、マルチメディアコンテンツのフィンガープリント810に基づいて、マルチメディアコンテンツの少なくとも1つの表示区間210にそれぞれマッチングされる音源の少なくとも1つの再生区間220を検出し、マルチメディアコンテンツ内の表示区間210の時間位置と音源内の再生区間220の時間位置との時間差を検出し、時間差に基づいて、表示区間210と再生区間220を同期するように構成されてよい。
多様な実施形態によると、プロセッサ160は、音源の歌詞情報に基づいて、再生区間220にマッピングされる字幕データを生成するように構成されてよい。
多様な実施形態によると、プロセッサ160は、マルチメディアコンテンツの再生中に、表示区間210に、表示区間210に同期された再生区間220の字幕データを表示するように構成されてよい。
多様な実施形態によると、プロセッサ160は、マルチメディアコンテンツの表示区間210の再生中に、利用者の要請に基づいて、一時点で表示区間210の再生を中断し、音源で表示区間210に同期された再生区間220を、中断された時点から続けて再生するように構成されてよい。
多様な実施形態によると、プロセッサ160は、音源の再生区間220の再生中に、利用者の要請に基づいて、一時点で再生区間220の再生を中断し、マルチメディアコンテンツで再生区間220に同期された表示区間210を、中断された時点から続けて再生するように構成されてよい。
多様な実施形態によると、プロセッサ160は、フィンガープリント810を予め設定された時間間隔によって複数の検索区間820に分割し、検索区間820のうちの少なくとも1つがマッチングされる少なくとも1つの検出区間1110を有する音源を検出し、互いにマッチングされた検出区間1110のうちの少なくとも1つと検出区間1110を表示区間210と再生区間220としてそれぞれ検出するように構成されてよい。
多様な実施形態によると、マルチメディアコンテンツは、画像データまたはオーディオデータのうちの少なくとも1つで構成されてよい。
多様な実施形態によると、プロセッサ160は、音源と関連する情報、およびマルチメディアコンテンツ内の検出区間1110の時間位置および音源内の検出区間1110の時間位置を示す位置情報を提供するように構成されてよい。
多様な実施形態によると、プロセッサ160は、音源と関連する情報が選択されれば、音源または音源と関連付いた他のマルチメディアコンテンツのうちの少なくとも1つを提供するように構成されてよい。
上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、および/またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)およびOS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを記録、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、コンピュータ記録媒体または装置に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で記録されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータ読み取り可能な記録媒体に記録されてよい。
実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータ読み取り可能な媒体に記録されてよい。ここで、媒体は、コンピュータ実行可能なプログラムを継続して記録するものであっても、実行またはダウンロードのために一時記録するものであってもよい。また、媒体は、単一または複数のハードウェアが結合した形態の多様な記録手段または格納手段であってよく、あるコンピュータシステムに直接接続する媒体に限定されることはなく、ネットワーク上に分散して存在するものであってもよい。媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク、および磁気テープのような磁気媒体、CD-ROMおよびDVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどを含み、プログラム命令が記録されるように構成されたものであってよい。また、媒体の他の例として、アプリケーションを配布するアプリケーションストアやその他の多様なソフトウェアを供給または配布するサイト、サーバなどで管理する記録媒体または格納媒体が挙げられる。
本文書の多様な実施形態およびこれに使用された用語は、本文書に記載された技術を特定の実施形態だけに対して限定するためのものではなく、該当の実施例の多様な変更、均等物、および/または代替物を含むものと理解されなければならない。図面の説明と関連し、類似する構成要素に対しては類似する参照符号を付与した。単数の表現は、文脈上で明らかに異なるように意味しない限り、複数の表現を含んでよい。本文書において、「AまたはB」、「Aおよび/またはBのうちの少なくとも1つ」、「A、B、またはC」、または「A、B、および/またはCのうちの少なくとも1つ」などの表現は、ともに羅列される項目のすべての可能な組み合わせを含んでよい。「第1」、「第2」、「1番目」、または「2番目」などの表現は、該当の構成要素を順序または重要度とは関係なく修飾するものであり、ある構成要素を他の構成要素と区分するために使用されるものに過ぎず、該当の構成要素を限定するためのものではない。ある(例:第1)構成要素が他の(例:第2)構成要素に「(機能的にまたは通信的に)連結されて」いるか「接続されて」いると記載されるときには、前記ある構成要素が前記他の構成要素に直接に連結されている場合はもちろん、他の構成要素(例:第3構成要素)を介して連結されている場合も含まれる。
本文書で使用される用語「モジュール」は、ハードウェア、ソフトウェア、またはファームウェアで構成されたユニットを含み、例えば、ロジック、論理ブロック、部品、または回路などの用語と互換的に使用されてよい。モジュールは、一体で構成された部品、または1つまたはそれ以上の機能を実行する最小単位またはその一部であってよい。例えば、モジュールは、ASIC(application-specific integrated circuit)で構成されてよい。
多様な実施形態によると、記載した構成要素のそれぞれの構成要素(例:モジュールまたはプログラム)は、単数または複数の個体を含んでよい。多様な実施形態によると、上述した該当の構成要素のうちの1つ以上の構成要素または段階が省略されてもよいし、1つ以上の他の構成要素または段階が追加されてもよい。代替的にまたは追加的に、複数の構成要素(例:モジュールまたはプログラム)は、1つの構成要素として統合されてよい。このような場合、統合された構成要素は、複数の構成要素それぞれの構成要素の1つ以上の機能を、統合される前に複数の構成要素のうちの該当の構成要素によって実行されるときと同一または類似するように実行してよい。多様な実施形態によると、モジュール、プログラム、または他の構成要素によって実行される段階は、順次的に、並列的に、反復的に、または発見的に実行されても、段階のうちの1つ以上が他の順序で実行されても、省略されても、または1つ以上の他の段階が追加されてもよい。
460:プロセッサ
461:API
462:プロセスAPI
465:制御部
467:コンテンツ取得部
469:フィンガープリント部
471:マッチン部部
473:比較部
475:クラスタリング部

Claims (20)

  1. 電子装置の作動方法であって、前記電子装置のプロセッサが、
    マルチメディアコンテンツのフィンガープリントに基づいて、マルチメディアコンテンツの少なくとも1つの表示区間にそれぞれマッチングされる音源の少なくとも1つの再生区間を検出する段階、
    前記マルチメディアコンテンツ内の前記表示区間の時間位置と前記音源内の前記再生区間の時間位置との時間差を検出する段階、および
    前記時間差に基づいて、前記表示区間と前記再生区間を同期する段階
    を含む、方法。
  2. 前記電子装置のプロセッサが、
    前記音源の歌詞情報に基づいて、前記再生区間にマッピングされる字幕データを生成する段階
    をさらに含む、請求項1に記載の方法。
  3. 前記電子装置のプロセッサが、
    前記マルチメディアコンテンツの再生中に、前記表示区間に、前記表示区間に同期された前記再生区間の前記字幕データを表示する段階
    をさらに含む、請求項2に記載の方法。
  4. 前記電子装置のプロセッサが、
    前記マルチメディアコンテンツの前記表示区間の再生中に、利用者の要請に基づいて、一時点で前記表示区間の再生を中断する段階、および
    前記音源で前記表示区間に同期された前記再生区間を、前記中断された時点から続けて再生する段階
    をさらに含む、請求項1に記載の方法。
  5. 前記電子装置のプロセッサが、
    前記音源の前記再生区間の再生中に、利用者の要請に基づいて、一時点で前記再生区間の再生を中断する段階、および
    前記マルチメディアコンテンツで前記再生区間に同期された前記表示区間を、前記中断された時点から続けて再生する段階
    をさらに含む、請求項1に記載の方法。
  6. 前記再生区間を検出する段階は、
    前記フィンガープリントを予め設定された時間間隔によって複数の検索区間に分割する段階、
    前記検索区間のうちの少なくとも1つがマッチングされる少なくとも1つの検出区間を有する前記音源を検出する段階、および
    互いにマッチングされた前記検出区間のうちの少なくとも1つと前記検出区間を前記表示区間と前記再生区間としてそれぞれ検出する段階
    を含む、請求項1に記載の方法。
  7. 前記マルチメディアコンテンツは、
    画像データまたはオーディオデータのうちの少なくとも1つで構成される、
    請求項1に記載の方法。
  8. 前記電子装置のプロセッサが、
    前記音源と関連する情報、および前記マルチメディアコンテンツ内の前記検出区間の時間位置および前記音源内の前記検出区間の時間位置を示す位置情報を提供する段階
    をさらに含む、請求項6に記載の方法。
  9. 前記電子装置のプロセッサが、
    前記音源と関連する情報が選択されれば、前記音源を提供する段階、または
    前記音源と関連する情報が選択されれば、前記音源と関連付いた他のマルチメディアコンテンツを提供する段階
    のうちの少なくとも1つをさらに含む、請求項8に記載の方法。
  10. 請求項1または請求項9のうちのいずれか一項に記載の作動方法を前記電子装置に実行させる、コンピュータプログラム。
  11. 請求項1または9のうちのいずれか一項に記載の作動方法を前記電子装置に実行させるためのプログラムが記録されている、非一時的なコンピュータ読み取り可能な記録媒体。
  12. 電子装置であって、
    メモリ、および
    前記メモリに連結され、前記メモリに記録された少なくとも1つの命令を実行するように構成されたプロセッサを含み、
    前記プロセッサは、
    マルチメディアコンテンツのフィンガープリントに基づいて、マルチメディアコンテンツの少なくとも1つの表示区間にそれぞれマッチングされる音源の少なくとも1つの再生区間を検出し、
    前記マルチメディアコンテンツ内の前記表示区間の時間位置と前記音源内の前記再生区間の時間位置との時間差を検出し、
    前記時間差に基づいて、前記表示区間と前記再生区間を同期するように構成される、
    装置。
  13. 前記プロセッサは、
    前記音源の歌詞情報に基づいて、前記再生区間にマッピングされる字幕データを生成するように構成される、
    請求項12に記載の装置。
  14. 前記プロセッサは、
    前記マルチメディアコンテンツの再生中に、前記表示区間に、前記表示区間に同期された前記再生区間の前記字幕データを表示するように構成される、
    請求項13に記載の装置。
  15. 前記プロセッサは、
    前記マルチメディアコンテンツの前記表示区間の再生中に、利用者の要請に基づいて、一時点で前記表示区間の再生を中断し、
    前記音源で前記表示区間に同期された前記再生区間を、前記中断された時点から続けて再生するように構成される、
    請求項12に記載の装置。
  16. 前記プロセッサは、
    前記音源の前記再生区間の再生中に、利用者の要請に基づいて、一時点で前記再生区間の再生を中断し、
    前記マルチメディアコンテンツで前記再生区間に同期された前記表示区間を、前記中断された時点から続けて再生するように構成される、
    請求項12に記載の装置。
  17. 前記プロセッサは、
    前記フィンガープリントを予め設定された時間間隔によって複数の検索区間に分割し、
    前記検索区間のうちの少なくとも1つがマッチングされる少なくとも1つの検出区間を有する前記音源を検出し、
    互いにマッチングされた前記検出区間のうちの少なくとも1つと前記検出区間を前記表示区間と前記再生区間としてそれぞれ検出するように構成される、
    請求項12に記載の装置。
  18. 前記マルチメディアコンテンツは、
    画像データまたはオーディオデータのうちの少なくとも1つで構成される、
    請求項12に記載の装置。
  19. 前記プロセッサは、
    前記音源と関連する情報、および前記マルチメディアコンテンツ内の前記検出区間の時間位置および前記音源内の前記検出区間の時間位置を示す位置情報を提供するように構成される、
    請求項17に記載の装置。
  20. 前記プロセッサは、
    前記音源と関連する情報が選択されれば、前記音源または前記音源と関連付いた他のマルチメディアコンテンツのうちの少なくとも1つを提供するように構成される、
    請求項19に記載の装置。
JP2021148571A 2020-09-14 2021-09-13 マルチメディアコンテンツと音源を同期するための電子装置およびその作動方法 Active JP7261276B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0117629 2020-09-14
KR1020200117629A KR102439201B1 (ko) 2020-09-14 2020-09-14 멀티미디어 콘텐츠와 음원을 동기화하기 위한 전자 장치 및 그의 동작 방법

Publications (2)

Publication Number Publication Date
JP2022048131A true JP2022048131A (ja) 2022-03-25
JP7261276B2 JP7261276B2 (ja) 2023-04-19

Family

ID=80781421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021148571A Active JP7261276B2 (ja) 2020-09-14 2021-09-13 マルチメディアコンテンツと音源を同期するための電子装置およびその作動方法

Country Status (2)

Country Link
JP (1) JP7261276B2 (ja)
KR (1) KR102439201B1 (ja)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006528859A (ja) * 2003-07-25 2006-12-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ オーディオとビデオを同期させるための指紋生成及び検出の方法及び装置
KR20070025284A (ko) * 2005-09-01 2007-03-08 삼성전자주식회사 디지털 멀티미디어 방송에서 가사 정보를 제공하기 위한디지털 멀티미디어 방송 시스템 및 가사 정보 제공 방법
JP2013506874A (ja) * 2009-09-30 2013-02-28 ユナイテッド ビデオ プロパティーズ, インコーポレイテッド 双方向メディアガイダンスアプリケーションを使用してオーディオコンテンツを識別するシステムおよび方法
KR20130116118A (ko) * 2012-04-13 2013-10-23 주식회사 네오위즈인터넷 음원 서비스를 제공하는 방법, 단말 및 서버
JP2016219979A (ja) * 2015-05-19 2016-12-22 西日本電信電話株式会社 クライアント端末、インターネット動画再生システム、及びプログラム
JP2016226053A (ja) * 2016-09-26 2016-12-28 西日本電信電話株式会社 クライアント端末及びそれを備えたインターネット動画再生システム
KR20170063077A (ko) * 2015-11-30 2017-06-08 한국전자통신연구원 미디어 콘텐츠 식별 방법
KR20170100007A (ko) * 2014-12-31 2017-09-01 피씨엠에스 홀딩스, 인크. 청취 로그 및 음악 라이브러리를 생성하기 위한 시스템 및 방법
KR20190051261A (ko) * 2017-11-06 2019-05-15 주식회사 샵캐스트 오디오 핑거프린트 매칭 시스템
WO2019121904A1 (de) * 2017-12-22 2019-06-27 Nativewaves Gmbh Verfahren zum synchronisieren von einem zusatzsignal zu einem hauptsignal
JP2019146174A (ja) * 2018-02-23 2019-08-29 エヴィクサー株式会社 コンテンツ再生プログラム、コンテンツ再生方法及びコンテンツ再生システム

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006528859A (ja) * 2003-07-25 2006-12-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ オーディオとビデオを同期させるための指紋生成及び検出の方法及び装置
US20080062315A1 (en) * 2003-07-25 2008-03-13 Koninklijke Philips Electronics N.V. Method and Device for Generating and Detecting Fingerprints for Synchronizing Audio and Video
KR20070025284A (ko) * 2005-09-01 2007-03-08 삼성전자주식회사 디지털 멀티미디어 방송에서 가사 정보를 제공하기 위한디지털 멀티미디어 방송 시스템 및 가사 정보 제공 방법
JP2013506874A (ja) * 2009-09-30 2013-02-28 ユナイテッド ビデオ プロパティーズ, インコーポレイテッド 双方向メディアガイダンスアプリケーションを使用してオーディオコンテンツを識別するシステムおよび方法
KR20130116118A (ko) * 2012-04-13 2013-10-23 주식회사 네오위즈인터넷 음원 서비스를 제공하는 방법, 단말 및 서버
JP2018505442A (ja) * 2014-12-31 2018-02-22 ピーシーエムエス ホールディングス インコーポレイテッド 聴取ログおよび音楽ライブラリの生成のためのシステムおよび方法
KR20170100007A (ko) * 2014-12-31 2017-09-01 피씨엠에스 홀딩스, 인크. 청취 로그 및 음악 라이브러리를 생성하기 위한 시스템 및 방법
JP2016219979A (ja) * 2015-05-19 2016-12-22 西日本電信電話株式会社 クライアント端末、インターネット動画再生システム、及びプログラム
KR20170063077A (ko) * 2015-11-30 2017-06-08 한국전자통신연구원 미디어 콘텐츠 식별 방법
JP2016226053A (ja) * 2016-09-26 2016-12-28 西日本電信電話株式会社 クライアント端末及びそれを備えたインターネット動画再生システム
KR20190051261A (ko) * 2017-11-06 2019-05-15 주식회사 샵캐스트 오디오 핑거프린트 매칭 시스템
WO2019121904A1 (de) * 2017-12-22 2019-06-27 Nativewaves Gmbh Verfahren zum synchronisieren von einem zusatzsignal zu einem hauptsignal
JP2019146174A (ja) * 2018-02-23 2019-08-29 エヴィクサー株式会社 コンテンツ再生プログラム、コンテンツ再生方法及びコンテンツ再生システム

Also Published As

Publication number Publication date
JP7261276B2 (ja) 2023-04-19
KR102439201B1 (ko) 2022-09-01
KR20220035636A (ko) 2022-03-22

Similar Documents

Publication Publication Date Title
US8826132B2 (en) Methods and systems for navigating content on a portable device
US8996145B2 (en) Album playback in a random mode
US8699862B1 (en) Synchronized content playback related to content recognition
KR102545837B1 (ko) 디스플레이 장치, 디스플레이 장치의 배경음악 제공방법 및 배경음악 제공 시스템
KR101242040B1 (ko) 포터블 기기의 재생 목록 자동 생성 방법 및 장치
US20080165906A1 (en) Method and apparatus for transferring digital content from a personal computer to a mobile handset
JP2015510602A (ja) 補助情報の再生の管理
US10198244B1 (en) Head-mounted device, headphone apparatus and separation control method for head-mounted device
WO2015048693A1 (en) Multiple data source aggregation for efficient synchronous multi-device media consumption
US20150347511A1 (en) Universal identifier
US8880531B2 (en) Method and apparatus for identifying a piece of content
US9224385B1 (en) Unified recognition of speech and music
US20150018993A1 (en) System and method for audio processing using arbitrary triggers
WO2022160603A1 (zh) 歌曲的推荐方法、装置、电子设备及存储介质
WO2014022605A1 (en) Attestation of possession of media content items using fingerprints
JP2022048131A (ja) マルチメディアコンテンツと音源を同期するための電子装置およびその作動方法
JP6089874B2 (ja) 多言語同時再生システム
JP2022048130A (ja) 音源を検出するための電子装置およびその作動方法
US20230237992A1 (en) Variable wake word detectors
CN107340968B (zh) 一种基于手势来播放多媒体文件的方法、设备和计算机可读存储介质
KR20170018273A (ko) 다국어 가사 서비스 제공 방법, 이를 수행하는 단말기 및 서버
JP5812531B2 (ja) 機能実行装置、機能実行方法、およびプログラム
KR20240054513A (ko) 인기 리액션 영상을 원본 영상과 함께 출력하는 영상 콘텐츠 서비스 제공 방법 및 장치
JP2019079585A (ja) コンテンツ再生装置およびコンテンツ再生装置の制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230407

R150 Certificate of patent or registration of utility model

Ref document number: 7261276

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150