JP2023179635A - トラッキングされるビデオズーミング - Google Patents

トラッキングされるビデオズーミング Download PDF

Info

Publication number
JP2023179635A
JP2023179635A JP2023174574A JP2023174574A JP2023179635A JP 2023179635 A JP2023179635 A JP 2023179635A JP 2023174574 A JP2023174574 A JP 2023174574A JP 2023174574 A JP2023174574 A JP 2023174574A JP 2023179635 A JP2023179635 A JP 2023179635A
Authority
JP
Japan
Prior art keywords
window
pip
objects
frame
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2023174574A
Other languages
English (en)
Inventor
ルイ・ケロフスキー
Kerofsky Louis
エデュアルド・アスバン
Asbun Eduardo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vid Scale Inc
Original Assignee
Vid Scale Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vid Scale Inc filed Critical Vid Scale Inc
Publication of JP2023179635A publication Critical patent/JP2023179635A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】クライアントによる動的なPIPのシステム、方法及び手段が開示される。【解決手段】クライアントは、サーバからビデオコンテンツを受信して、オブジェクト認識またはメタデータのうちの少なくとも1つを使用してビデオコンテンツ内のオブジェクトを識別し得る。メタデータは、ビデオコンテンツのフレーム内のオブジェクトのロケーションを示す情報を含み得る。クライアントは、ユーザによるオブジェクトの選択を受信して、オブジェクト認識またはメタデータのうちの少なくとも1つを使用してビデオコンテンツのフレームにわたってオブジェクトの位置データを決定し得る。クライアントは、ビデオコンテンツのフレームにわたるPIPウィンドウ内にオブジェクトの拡大された、時間遅延されたバージョンを表示し得る。各フレーム内のPIPウィンドウのロケーションは、固定され、またはそれぞれのフレーム内のオブジェクトのロケーションに基づき得る。【選択図】図13

Description

関連出願の相互参照
本出願は、2017年8月30日に出願された米国特許仮出願第62/552,032号の利益を主張するものであり、その内容は、参照によって本明細書に組み込まれている。
様々なデジタルビデオ圧縮技術が、効率的なデジタルビデオ通信、配信、および消費を可能にする。標準化されたビデオ圧縮技術のいくつかの例は、H.261、MPEG-1、MPEG-2、H.263、MPEG-4 part2、およびH.264/MPEG-4 part 10 AVCである。高効率ビデオ符号化(HEVC)などの進んだビデオ圧縮技術は、H.264/AVCに比較して、同じビデオ品質で2倍の圧縮または半分のビットレートを提供することができる。
クライアントによる動的なピクチャーインピクチャー(PIP)のためのシステム、方法、および手段が開示される。クライアントは、例えば、有線デバイス(例えば、テレビジョン(TV))または無線送受信ユニット(WTRU)(例えば、スマートTV、ハンドヘルド無線デバイス等)などの任意のデバイス上に存在することが可能である。デバイスは、サーバからビデオコンテンツを受信すること、およびオブジェクト認識またはメタデータのうちの少なくとも1つを使用してビデオコンテンツ内のオブジェクトを識別することが可能である。メタデータは、ビデオコンテンツのフレーム内のオブジェクトのロケーションを示す情報を含むことが可能である。メタデータは、ビデオコンテンツにおいて、またはビデオコンテンツとともに提供されてよい。デバイスは、ユーザによるオブジェクトの選択を受信すること、およびオブジェクト認識またはメタデータのうちの少なくとも1つを使用してビデオコンテンツのフレームを横断するオブジェクトの位置データを決定すること(例えば、ビデオコンテンツのフレームを横断してオブジェクトをトラッキングすること)が可能である。デバイスは、ビデオコンテンツのフレームを横断するPIP内にオブジェクトの拡大されたおよび時間遅延されたバージョンを表示することが可能である。それぞれのフレーム内のPIPのロケーションは、固定されること(例えば、事前に決定されて、それぞれのフレーム内のオブジェクトのロケーションに結合されていないこと)が可能であり、またはそれぞれのフレーム内のオブジェクトのロケーションに基づくこと(例えば、オブジェクトのロケーションに基づいてそれぞれのビデオフレーム間で「浮動すること」、オブジェクトに対して最も近いコーナー内に配置されることなど)が可能である。
いくつかの例においては、デバイスは、サーバからビデオコンテンツを受信すること、およびオブジェクト認識またはメタデータのうちの少なくとも1つを使用してビデオコンテンツ内のオブジェクトを識別することが可能である。デバイスは、ユーザによるオブジェクトの選択を受信すること、およびオブジェクト認識またはメタデータのうちの少なくとも1つを使用してビデオコンテンツのフレームを横断するオブジェクトの位置データを決定すること(例えば、フレーム ビデオコンテンツを横断してオブジェクトをトラッキングすること)が可能である。デバイスは、ビデオコンテンツのフレームを横断するピクチャーインピクチャー(PIP)内にオブジェクトの拡大されたバージョンを表示することが可能であり、例えば、フレーム内のPIPのロケーションは、ビデオコンテンツのフレーム内のオブジェクトの位置データに基づいて決定される(例えば、PIPは、トラッキングされているオブジェクトのロケーションに基づいてフレームを横断して「浮動している」)。PIPは、ビデオコンテンツのフレーム内にあるさらに小さなウィンドウであることが可能である。
いくつかの例においては、デバイスは、サーバ(例えば、コンテンツサーバ)からビデオコンテンツを受信することが可能である。デバイスは、オブジェクト認識またはメタデータに基づいてビデオコンテンツの第1のフレーム内のオブジェクトの第1の位置を決定することが可能である。例えば、デバイスは、(例えば、オブジェクト認識またはメタデータに基づいて)オブジェクトを識別すること、および(例えば、オブジェクト認識またはメタデータに基づいて)ビデオコンテンツのフレームに伴うオブジェクトのロケーションを決定することが可能である。デバイスは、オブジェクトの第1の位置に基づいて第1のウィンドウの位置を決定することが可能である。例えば、第1のウィンドウの位置は、第1のビデオフレームにおけるオブジェクトの位置と直接相関付けられること(例えば、それと重なること、またはそれを包含すること)が可能である。第1のウィンドウは、第1のフレームの視覚的に拡大された部分を含むことが可能であり、第1のフレームの視覚的に拡大された部分は、オブジェクトを含むことが可能である。デバイスは、ディスプレイデバイス上の第1のフレーム内に第1のウィンドウを表示することが可能である。
デバイスは、オブジェクト認識またはメタデータに基づいてビデオコンテンツの第2のフレーム内のオブジェクトの第2の位置を決定することが可能であり、例えば、第2のフレームは、ビデオコンテンツにおいて第1のフレームに時間的に後続すること(例えば、その後にあること)が可能である。オブジェクトの第2の位置は、オブジェクトの第1の位置とは異なることが可能である(例えば、オブジェクトは、フレームを横断して移動したように見えることが可能である)。デバイスは、オブジェクトの第2の位置に基づいて第2のウィンドウの位置を決定することが可能である。第2のウィンドウは、第2のビデオフレームの視覚的に拡大された部分を含むことが可能であり、第2のビデオフレームの視覚的に拡大された部分は、オブジェクトを含むことが可能である。第2のウィンドウの位置は、(例えば、第1のフレームから第2のフレームへのオブジェクトの位置における変化に基づいて)第1のウィンドウの位置とは異なることが可能である。デバイスは、ディスプレイデバイス上の第2のフレーム内に第2のウィンドウを表示することが可能である。いくつかの例においては、デバイスは、オブジェクトに関連している情報を第2のフレーム内に表示すること(例えば、情報をオブジェクトの上にオーバーレイすること)が可能である。
デバイスは、複数のオブジェクトをトラッキングすることが可能であり、複数のオブジェクトをトラッキングしているときに、オブジェクトが互いにきわめて近接した場合には、それらのオブジェクトのためのマージされたウィンドウを作成することが可能である。例えば、デバイスは、オブジェクト認識またはメタデータに基づいてビデオコンテンツの第3のフレーム内の第2のオブジェクト(例えば、第2のサッカープレーヤ)の位置を決定することが可能であり、第3のフレーム内の第2のオブジェクトの位置に基づいて、第3のフレームにおける第2のオブジェクトを含むウィンドウの位置を決定することが可能である。デバイスは、オブジェクト認識またはメタデータに基づいて第3のフレーム内のオブジェクト(例えば、「第1の」オブジェクト)の第3の位置を決定すること、およびオブジェクトの第3の位置に基づいて、第3のフレームにおけるオブジェクトを含むウィンドウの位置を決定することも可能である。デバイスは次いで、第3のフレームにおけるオブジェクトを含むウィンドウが、第3のフレームにおける第2のオブジェクトを含むウィンドウと重なっていると決定することが可能である。次にデバイスは、ディスプレイデバイス上で、オブジェクトと第2のオブジェクトとを含むマージされたウィンドウを第3のフレーム内に表示することが可能である。マージされたウィンドウのロケーションは、例えば、第3のフレームにおけるオブジェクトの位置および第2のオブジェクトの位置に基づくことが可能である(例えば、それによって、マージされたウィンドウは、オブジェクトおよび第2のオブジェクトの両方を含む)。
デバイスは、複数のトラッキングされているオブジェクトが互いから離れて移動した場合には、マージされたウィンドウをアンマージすることが可能である。例えば、デバイスは、オブジェクト認識またはメタデータに基づいてビデオコンテンツの第4のフレーム内のオブジェクトの位置を決定すること、および第4のフレーム内のオブジェクトの位置に基づいて、第4のフレームにおけるオブジェクトを含むウィンドウの位置を決定することが可能である。デバイスは、オブジェクト認識またはメタデータに基づいて第4のフレーム内の第2のオブジェクトの位置を決定すること、および第4のフレーム内の第2のオブジェクトの位置に基づいて、第4のフレームにおける第2のオブジェクトを含むウィンドウの位置を決定することが可能である。その後、デバイスは、第4のフレームにおけるオブジェクトを含むウィンドウが、第4のフレームにおける第2のオブジェクトを含むウィンドウともはや重なっていないと決定することが可能であり、次にデバイスは、ディスプレイデバイス上で、オブジェクトを含むウィンドウと、第2のオブジェクトを含むウィンドウとを第4のフレーム内に表示すること(例えば、2つの別々のウィンドウ、すなわち、それぞれのオブジェクトを伴うウィンドウを表示すること)が可能である。
デバイスは、トラッキングされているオブジェクトを含むウィンドウの表示に時間遅延を組み込むことが可能である。例えば、デバイスは、オブジェクト認識またはメタデータに基づいてビデオコンテンツの第3のフレーム内のオブジェクトの第3の位置を決定することが可能である。その後、デバイスは、ディスプレイデバイス上の第4のフレーム内の事前に決定されたロケーションに第3のウィンドウを表示することが可能であり、第4のフレームは、第3のフレームに時間的に後続する。事前に決定されたロケーションは、例えば、オブジェクトのロケーションに結合されていないこと、および/またはビデオフレームを横断する固定されたロケーションにあることが可能である。ある例においては、第3のウィンドウは、第3のビデオフレームの視覚的に拡大された部分を含むことが可能であり、第3のビデオフレームの視覚的に拡大された部分は、オブジェクトを含むことが可能である。
デバイスは、選択可能であるオブジェクトのユーザ選択を可能にすること、および/またはユーザがPIPのための(例えば、PIP内での拡大のための)オブジェクトを選択するのを可能にすることができる。例えば、第1のウィンドウは、オブジェクトのユーザ選択に基づいて第1のビデオフレームの視覚的に拡大された部分を含むことが可能である。さらに、デバイスは、ユーザが選択のために複数のオブジェクトを繰り返し表示することを可能にすることもできる。例えば、デバイスは、ビデオコンテンツのさらに前のビデオフレーム内の複数のオブジェクトを識別することが可能であり、それらの複数のオブジェクトは、そのオブジェクトを含む。複数のオブジェクトは、ユーザによって選択され得る(例えば、選択可能である)。デバイスは、さらに前のビデオフレーム内の複数のウィンドウを表示することが可能であり、複数のウィンドウのそれぞれは、複数のオブジェクトのそれぞれのオブジェクトを含むことが可能であり、例えば、複数のウィンドウのそれぞれは、それぞれのオブジェクトのインジケーションを提供することが可能である。デバイスは、ユーザ入力に基づいて複数のウィンドウのうちの焦点ウィンドウを繰り返し表示することが可能である。焦点ウィンドウは、例えば、どのオブジェクトが現在選択可能であるかをユーザが識別することをやはり可能にする強調表示されたウィンドウであることが可能である。デバイスは、複数のオブジェクトのうちのオブジェクトのユーザ選択を受信すること、およびそのユーザ選択に基づいてそのオブジェクトを第1のウィンドウ内で拡大することが可能である。デバイスは、ユーザが複数のオブジェクトからオブジェクトを除去することを可能にすることもできる。例えば、デバイスは、複数のウィンドウのうちの望まれていないウィンドウのユーザ選択を受信すること、および望まれていないウィンドウの表示をやめること(例えば、ユーザが繰り返し表示することが可能であるオブジェクトからそのオブジェクトを除去すること)が可能である。
トラッキングされるビデオズーミングのためのシステム、方法、および手段が開示される。クライアント側(オンデバイス)またはローカルトラッキングが、ユーザがトラッキングおよびズーミングのために任意のオブジェクトを選択することを可能にすることができる。例えば、クライアント側トラッキングに加えて、またはそれに対する代替として、トラッキングメタデータが提供されてよい(例えば、ビデオブロードキャストが、ビデオフレームにおけるオブジェクトのロケーションを記述するメタデータを含むことが可能である)。メタデータは、トラッキングされているオブジェクトに関する強化された情報を含むことが可能である。ユーザは、(例えば、ピクチャーインピクチャー(PIP)において)示されているオブジェクトと対話して、さらなる情報を入手することが可能である。(例えば、PIPにおける)ビデオズーミングが、固定されたロケーション、および/または(例えば、トラッキングされているオブジェクトとともに移動する)浮動するロケーションにおいて提供されてよい。複数のオブジェクトが、(例えば、複数のPIPにおいて)同時にトラッキングおよびズームされることが可能である。ユーザは、(例えば、PIPにおいてトラッキングおよびズームされているオブジェクトを切り替えるために)複数のトラッキングされているオブジェクトを繰り返し表示して、それらの間で選択を行うことが可能である。PIPズームは、進んだ機能、例えば、複数のPIPウィンドウを結合すること、PIPウィンドウを分割すること、一時停止およびズーム、時間遅延ズーム、PIPおよびソーシャルメディア、並びにPIPを再配置することを伴って提供され得る。
図における同様の参照番号は、同様の要素を示す。
オンデバイストラッキングを伴うテレビジョンの例示的なシステム図である。 クライアント側オブジェクトトラッキングの例を提供する図である。 クライアント側オブジェクトトラッキングの例を提供する図である。 最初のオブジェクトウィンドウ位置(例えば、赤色のボックス)および探索ウィンドウ位置(例えば、黄色のボックス)の例を示す図である。 ビデオフレームの探索ブロックにおける彩度機能の例を提供する図である。 ビデオフレームの探索ブロックにおける色相機能の例を提供する図である。 逆投影確率およびターゲットウィンドウの例を示す図である。 新たなオブジェクトウィンドウ位置(例えば、赤色のボックス)および探索ウィンドウ位置(例えば、黄色のボックス)の例を示す図である。 PIPウィンドウにおいて(例えば、右下のボックスにおいて)ズームされたトラッキングされているオブジェクトの例を示す図である。 フレームに適用されるオブジェクト確率の例を示す図である。 フィールドから離れている応答を除去することによってきれいにされた確率マップの例を示す図である。 オープニングおよびクロージングのモルフォロジー演算の例示的な結果を示す図である。 メタデータから入手された情報を使用して複数のオブジェクトをトラッキングすることの例を示す図である。 固定されたロケーション(例えば、右下)におけるPIPにおいてズームされている選択されたオブジェクトの例を示す図である。 (例えば、選択されたオブジェクトの上の)浮動ウィンドウにおけるPIPにおいてズームされている選択されたオブジェクトの例を示す図である。 複数のトラッキングされているオブジェクトを繰り返し表示することの例を示す図である。 複数のトラッキングされているオブジェクトに関する複数のPIPウィンドウを結合することの例を提供する図である。 複数のトラッキングされているオブジェクトに関する複数のPIPウィンドウを結合することの例を提供する図である。 複数のトラッキングされているオブジェクトに関する複数のPIPウィンドウを結合することの例を提供する図である。 複数のトラッキングされているオブジェクトに関する複数のPIPウィンドウを結合することの例を提供する図である。 複数のトラッキングされているオブジェクトに関する複数のPIPウィンドウを結合することの例を提供する図である。 複数のトラッキングされているオブジェクトに関する複数のPIPウィンドウを結合することの例を提供する図である。 1つまたは複数の開示されている実施形態が実施され得る例示的な通信システムを示すシステム図である。 実施形態による、図16Aにおいて示されている通信システム内で使用され得る例示的な無線送受信ユニット(WTRU)を示すシステム図である。 実施形態による、図16Aにおいて示されている通信システム内で使用され得る例示的な無線アクセスネットワーク(RAN)および例示的なコアネットワーク(CN)を示すシステム図である。 実施形態による、図16Aにおいて示されている通信システム内で使用され得るさらなる例示的なRANおよびさらなる例示的なCNを示すシステム図である。
様々な図を参照して、例示的な実施形態の詳細な説明が記述される。この説明は、可能な実施態様の詳細な例を提供するが、それらの詳細は、例示的なものであり、決して本出願の範囲を限定するものではないことを意図されているという点に留意されたい。
スマートTVは、TVコンテンツとの対話を可能にすることができる。例えば、TVは、ユーザが拡大鏡ユーティリティーを使用してビデオをナビゲートすることを可能にすることができる。ユーザは、例えば、スクリーンの領域を指すことによって、手動でピクチャーインピクチャー(PIP)コンテンツを選択することが可能である。拡大および/またはPIPは、TV視聴者インターフェースを強化することが可能である。PIPは、例えば、アクティビティーに関する第2のビデオソースをモニタするために使用されることが可能である(例えば、ユーザは、ディスプレイのメインエリアにおいて第1のTVチャネルを見ながらPIPにおいて第2のTVチャネルを見ることが可能である)。メインビューおよびPIPビューは、切り替えられることが可能である。
外部の放送事業者から供給されることが可能であるトラッキング情報が、例えば、(例えば、シーンをナビゲートする際に視聴者を支援する目的で)プレーヤ位置の表示を作成するために使用されることが可能である。例えば、シーンをナビゲートする際に視聴者を支援するために(例えば、オーディオおよびプレーヤロケーションデータを使用して)アクティビティーグラフが作成されることが可能である。
テレビジョン視聴経験は、静的であること、およびパーソナライズされていないことが可能である。PIPは、メインテレビジョンディスプレイの小さなウィンドウにおいて第2のビデオソースを表示するために使用されることが可能である。PIPは、異なるチャネルまたはビデオ入力に割り振られることが可能である。ユーザは、最小のカスタマイゼーションおよび対話を用いて、PIPにおいて示されているチャネルまたはソースを選択することが可能である。
進んだ画像分析技術は、ピクセルのアレイおよびコンテンツの説明をユーザに提供することをサポートすることが可能である。ユーザは、例えば、ビデオの特定の部分の上でクローズアップまたはズームインを見ることが可能である。拡大鏡が提供されることが可能であり、それによってユーザは、動いているビデオコンテンツにおける関心のある領域へズームインするためにスクリーンの上で操作を行うことが可能である。ユーザは、例えば、関心のあるオブジェクトに追随するために、(例えば、モーションリモコンまたはその他のポインティングデバイスを使用して)拡大鏡を移動させることが可能である。
ビデオズームの提示を制御するためにオブジェクトトラッキングが使用されることが可能である。オブジェクトトラッキングは、例えば、ユーザによって選択されたオブジェクトのクライアント側トラッキングを含むことが可能である。ビデオフレームに伴うメタデータとしてオブジェクトロケーション情報が提供されてよい。関心のある複数のオブジェクトの間で選択を行うためにポインティングデバイス(例えば、リモコン)が使用されてよい。ポインティングデバイスは、例えば、関心のある(例えば、単一の)オブジェクト(例えば、チーム上の単一のプレーヤ)を選択するために使用されることが可能であり、(例えば、結果として)1つまたは複数の関連付けられている(例えば、さらなる)オブジェクト(例えば、同じチーム上の複数のプレーヤ)が、(例えば、選択されたオブジェクトとともに)(例えば、加えて)選択およびトラッキングされることが可能である。複数の使用モードが提供されてよい(例えば、固定されたPIPズームおよび浮動するPIPズーム)。オブジェクトは、トラッキングおよび/または処理(例えば、ズーミング)のために、例えば、自動的に(例えば、1つもしくは複数の選択基準に基づいて)、および/または(例えば、ユーザが)複数のトラッキングされているオブジェクトを繰り返し表示することによって選択され得る。
コンテンツの選択と、(例えば、デバイス上でローカルに、またはコンテンツとともに受信されたトラッキングメタデータを介して動作する)オブジェクトトラッキングと、例えば、固定されたロケーションにおける、または浮動する(例えば、トラッキングデータに追随する)(例えば、PIPにおける)再生とが実行されることが可能である。
図1は、オンデバイストラッキングを伴うディスプレイデバイス(例えば、TV)の例示的なシステム図200を示している。リモコンからのリモートデータ202が、ディスプレイデバイスのモーションエンジン204によって受信されることが可能である。リモートデータ202は、ビデオフレームのオブジェクトのユーザの選択に関連している情報を含むことが可能である。ユーザは、(例えば、トラッキングをサポートする目的で)関心のあるオブジェクトを選択するためにリモコンを使用することが可能である。リモコンは、例えば、「モーションリモコン」であることが可能であり、それは、ユーザがオンスクリーンポインタを制御することを可能にすることができる。モーションエンジン204は、リモートデータ202に基づいてユーザのポインタのロケーションを決定することが可能である。例えば、ユーザがPIPのために選択することが可能であるオブジェクトを彼らに示すために、ディスプレイデバイス上のビデオフレームにカーソル206がオーバーレイされることが可能である。
いくつかの実施形態においては、リモコンは、モーションリモコンではないことが可能であり、例えば、オブジェクト選択のためのタッチスクリーンを含むことが可能である。そのような例においては、リモートデータ202は、ディスプレイデバイスのトラッキングモジュール(例えば、CamShift)208に直接提供されてよい。
トラッキングモジュール208は、例えば、(例えば、リモコン上のボタンを押すことによる)トラッキング機能のアクティブ化210の際にオブジェクト位置情報を受信することが可能である。トラッキングモジュール208は、(例えば、オブジェクトを含む)ソースビデオフレーム216を受信することも可能である。オブジェクトの位置は、時間とともにビデオフレーム216を横断してトラッキングされることが可能である。境界ボックス(例えば、小さなボックスなど、オブジェクトのインジケーション)が決定されて、ビデオフレームにおいて(例えば、それぞれのソースビデオフレーム216において)オブジェクトを囲んで表示されることが可能である。
オブジェクト位置情報は、例えば、PIP構築モジュール218に提供されてよい。PIP構築モジュール218は、ソースビデオフレーム216を含むことも可能である。アクティブ化された場合には、PIP構築モジュール218は、オブジェクトを含むビデオフレームのいくらかの部分を囲んでウィンドウ(例えば、PIPウィンドウ)を生成することが可能である。いくつかの例においては、PIP構築モジュール218は、PIPウィンドウ内のオブジェクトを含むビデオフレームの部分を視覚的に拡大することが可能である(例えば、ズームオペレーションが実行されることが可能である)。視覚的な拡大(例えば、ズーミング)は、例えば、補間(例えば、バイリニアもしくはバイキュービック)またはリサンプリング(例えば、Lanczos)などの画像スケーリング手順を使用して実行されることが可能である。PIP構築モジュール218は、PIPウィンドウをソースビデオフレーム216上へオーバーレイすることが可能である。結果として生じるフレームは、合成フレーム(例えば、ソースビデオフレームとPIPウィンドウとを合わせたもの)と呼ばれることが可能である。PIP構築モジュール218は、合成フレームを、ユーザへの提示のためにディスプレイ220に提供することが可能である。
PIPウィンドウは、例えば、ズームの基礎となるオブジェクトに関する境界ボックスに比較して、拡大されたサイズを有することが可能である。例えば、オブジェクトに関する境界ボックスは、200×225ピクセルであると決定されることが可能である。例示的なズーム比は、2xであることが可能である。ズームされているオブジェクトを表示するPIPウィンドウは、例えば、400×450ピクセルであることが可能である。PIPウィンドウは、例えば、ディスプレイの固定されたロケーションにおいて(例えば、ディスプレイのコーナーにおいて)、またはトラッキングされているオブジェクトとともに移動するなど、モバイル/移動するロケーション(例えば、浮動するPIP)において表示されることが可能である。さらに、ある例においては、PIPウィンドウは、(例えば、オブジェクトのロケーションに基づいて、下にあるソースビデオフレームからのディスプレイ情報に基づいてなどで)ディスプレイのコーナー間を移動することが可能である。オブジェクトおよびその関連付けられている位置(例えば、中心位置)は時間とともに変化する可能性があるので、例えば、オブジェクトの位置(例えば、中心位置)に基づいて、ズームされるオブジェクトを含むPIPウィンドウが表示されることが可能である。浮動するPIPウィンドウは、例えば、それが基づくことが可能であるオブジェクトを、例えば、そのオブジェクトを囲んでいるエリアとともに塞ぐことまたはブロックすることが可能である。
クライアント側(オンデバイス)トラッキングは、ユーザがトラッキングのためにオブジェクト(例えば、任意のオブジェクト)を選択することを可能にすることができ、それは、(例えば、ユーザに自分自身の関心のあるオブジェクトを選択させることによって)ユーザ経験を改善することが可能である。デバイスは、ユーザ選択に基づいて1つまたは複数のオブジェクトを視覚的に拡大することが可能である。クライアント側トラッキングは、(例えば、トラッキングがクライアントによってオブジェクト認識に基づいて実行されることが可能であるので、)TV放送の一部としてオブジェクト位置情報を受信する必要性を回避することが可能である。クライアント側トラッキングは、インタラクティブズームシステムが任意の受信されたコンテンツとともに機能することを可能にすることができる。デバイス上の計算要件は、例えば、控えめなリソースを利用することが可能であって、かつリアルタイムに実行されることが可能であるアルゴリズムを実施することによって管理されることが可能である。時間とともにビデオフレームを横断してオブジェクトのロケーションに追随するための1つまたは複数のビデオオブジェクトトラッキングアルゴリズム、例えば、「CAMshift」および「平均シフト」などが使用されてよい(ただし、その他のアルゴリズムが利用されることも可能である)。
オブジェクトトラッキングのフローは、初期化ステージおよびトラッキングステージなど、複数の(例えば、2つの)ステージにあることが可能である。図2Aは、クライアント側オブジェクトトラッキングの初期化手順230の例を示している。図3Aは、オブジェクト302と、オブジェクトウィンドウ位置304と、探索ウィンドウ位置306とを含む例示的なビデオフレーム300を示している。
デバイスは、トラッキングするための1つまたは複数のオブジェクトを決定することが可能である。例えば、デバイスは、232におけるユーザ選択に基づいて、トラッキングするためのオブジェクトを決定することが可能である。ユーザは、1つまたは複数のオブジェクト(例えば、任意のオブジェクト)を選択することが可能である。例においては、ユーザは、リモコンまたはその他のポインティングデバイスを使用して、スクリーンのあちこちにカーソルまたはボックスを移動させること、引くこと、またはその他の形で位置付けること、および選択されたオブジェクトをトラッキングしたいという要望を(例えば、ボタンを押すことによって)示すことが可能である。デバイスは、オブジェクトの開始位置に基づいてオブジェクトトラッキングを実行することが可能である。234において、デバイスは、ビデオフレームのビデオ特徴(例えば、解像度、フレームレート、色空間、SDR/HDR)を受信することが可能である。
236において、デバイスは、関心のあるオブジェクト(例えば、オブジェクト302)を含むオブジェクトウィンドウ(例えば、オブジェクトウィンドウ304)を定義することが可能である。デバイスは、例えば、ビデオの特徴(例えば、解像度、フレームレート、色空間、SDR/HDR)に基づいて、オブジェクトウィンドウのサイズを決定することが可能である。238において、デバイスは、探索ウィンドウ(例えば、探索ウィンドウ306)を決定することが可能である。探索ウィンドウは、フレーム間においてオブジェクトをトラッキングする際に使用されてよい。デバイスは、ビデオフレームの特徴を使用して探索ウィンドウのサイズを決定することが可能である。
デバイスは、例えば、オブジェクトウィンドウ内のピクセルがオブジェクトの一部である可能性を決定するために、確率マップを決定すること(例えば、構築すること)が可能である。デバイスは、確率マップを構築するために様々な機能を使用することが可能である。例えば、デバイスは、確率マップを構築するためにカラーヒストグラムを使用することが可能である。デバイスは、オブジェクトを含むオブジェクトウィンドウを分析して、確率推定を形成することが可能である。240において、デバイスは、オブジェクトウィンドウにおけるピクセルを、例えば、HSV色空間へ変換することが可能である。242において、デバイスは、オブジェクトウィンドウ内のピクセルの(例えば、図4A~図4Bにおける例によって示されているような)色相および彩度値の2次元(2D)ヒストグラムを算出することが可能である。図4Aは、ビデオフレームの探索ブロックにおける色相機能400の例を示しており、その一方で図4Bは、ビデオフレームの探索ブロックにおける彩度機能410の例を示している。244において、デバイスは、例えば、ピクセルが、トラッキングされているオブジェクトの一部である確率推定を形成するために、2Dヒストグラムを使用することが可能である。図5は、逆投影確率およびターゲットウィンドウ500の例を示している。図5は、「平均シフト」反復のもとでの検知された領域の移動を示す長方形504、506を伴うピクセルごとの確率を表す画像502の例を示している。
図2Bは、クライアント側オブジェクトトラッキング手順250の例を示している。図6は、オブジェクトウィンドウ604と探索ウィンドウ606とを伴うオブジェクト602を含む例示的なビデオフレーム600を示している。ビデオフレーム600は、ビデオフレーム300の後の時間的に後続の時点で生じることが可能である(例えば、ビデオフレーム300の後に来ることが可能である)。ビデオフレーム600のオブジェクト602は、ビデオフレーム300のオブジェクト302と同じオブジェクトであることが可能である。
オブジェクトトラッキング手順250は、例えば、ユーザがオブジェクト(例えば、オブジェクト602)をトラッキングすることをやめるか、またはオブジェクトのトラッキングが失われるまで、(例えば、後続のビデオフレームにおいて)実行されることが可能である。252において、デバイスは、探索ウィンドウ(例えば探索ウィンドウ606)におけるピクセルをHSV色空間へ変換することが可能である。254において、デバイスは、探索ウィンドウ内のピクセルの色相および彩度値の2Dヒストグラムを算出することが可能である。256において、デバイスは、探索ウィンドウ内のピクセルが、関心のあるオブジェクトのピクセルである確率推定を形成することが可能である。例えば、デバイスは、関心のあるオブジェクトに関する探索ウィンドウ内で、例えば、探索ウィンドウ内のピクセルに関する確率マップを構築することによって、探索を実行することが可能である。例えば、デバイスは、ピクセルが、トラッキングされているオブジェクトに属するかどうかを決定するために、探索ウィンドウ内のそれぞれのピクセルの確率を使用することが可能である。
デバイスが258においてオブジェクトを見つけ出さなかった場合には、デバイスは、探索タイマー上に時間が残っているかどうかを268において決定することが可能である。探索タイマー上に時間が実際に残っている場合には、デバイスは、270において探索ウィンドウのサイズを増やすこと、および/または確率閾値を下げること、並びにオブジェクトを求めて探索ウィンドウを探索し続けることが可能である。例えば、デバイスは、例えば、258においてオブジェクトが探索ウィンドウにおいて見つからない場合には、(例えば、デコードされたフレームがスクリーン上にレンダリングされることが可能になる前に十分な時間が残っている状態で)探索ウィンドウを拡大すること、および/または確率閾値を減らすことが可能である。268において探索タイマーが切れた場合には、デバイスは、オブジェクトのトラッキングが失われているという何らかの視覚的な手掛かりを272において提供すること、および274において終了することが可能である。例えば、デバイスは、オブジェクトのトラッキングが失われたということを示すための視覚的な手掛かりまたはインジケーションを表示することが可能であり、ユーザは、要望に応じて、トラッキングのための新たなオブジェクトを選択すること(例えば、同じオブジェクトを再選択すること)が可能である。
デバイスは、オブジェクトが探索ウィンドウ内で見つかった場合には、ビデオフレーム内のオブジェクトの新たな位置を(例えば、さらに前のビデオフレームにおけるオブジェクトのロケーションに比較して)決定することが可能である。例えば、デバイスが258において探索ウィンドウ内でオブジェクトを見つけ出した場合には、デバイスは、260においてオブジェクトウィンドウの位置上で平滑化フィルタを使用することが可能である。例えば、デバイスは、時間とともにオブジェクトのトラッキングされた位置を平滑化するためのフィルタを、例えば、変動を最小化してユーザ経験を改善するために使用することが可能である(例えば、オブジェクト位置は広く変わる可能性がある)。デバイスは、任意のタイプの平滑化フィルタ(例えば、ローパスフィルタ、メジアンフィルタ)と、例えば、コンテンツのタイプ(例えば、映画、スポーツなど)に応じて、様々な数の過去のオブジェクト位置とを使用することが可能である。
デバイスは、262においてオブジェクトの位置に基づいてオブジェクトウィンドウおよび探索ウィンドウの位置を更新することが可能である。例えば、デバイスは、例えば、トラッキングされているオブジェクトに関するN個の過去の位置を把握しておくことによって、フィルタを適用することが可能であり、Nは、オブジェクトが識別された前のビデオフレームの数である。フィルタは、1つまたは複数の過去のビデオフレームおよび/または現在のビデオフレームからのオブジェクトの位置を使用して、現在のビデオフレームに関する更新されたオブジェクト位置を、例えば、下記の式またはロジックに従って入手することが可能である。
現在のビデオフレームに関する更新された位置=filter(現在の位置,N個の過去の位置)
例においては、N=4個の過去の位置(t1、t2、t3、t4)とともに現在の位置(t0)にメジアンフィルタが適用されることが可能であり、それは、例えば、下記の結果をもたらすことが可能である。
現在のフレームに関する更新された位置=median{pos(t0),pos(t1),pos(t2),pos(t3),pos(t4)}
デバイスは、例えば、オブジェクトがビデオフレームを横断してあちこち移動するにつれてそれに追随するために、(例えば、フレームごとに)オブジェクトウィンドウの位置を更新することが可能である。デバイスは、(例えば、フレームごとに)探索ウィンドウの位置を更新することが可能であり、それは、オブジェクトウィンドウを中心にして囲むように配置されることが可能である。デバイスは、264において、オブジェクトウィンドウに含まれているビデオフレームの部分を視覚的に拡大すること(例えば、ズームすること)が可能である。デバイスは、266において、結果として生じるビデオフレームを、オブジェクトを含むビデオフレームの部分を含むPIPウィンドウとともに表示することが可能である。例えば、デバイスは、PIPウィンドウを、(例えば、図7における例によって示されているような)固定されたウィンドウとして、または浮動ウィンドウ(例えば、オブジェクトのロケーションに基づくロケーションを有するウィンドウ。例えば、そのウィンドウは、オブジェクトがフレームを横断して移動するにつれてフレームからフレームへディスプレイスクリーンのあちこちを移動する)として表示することが可能である。
図7は、PIPウィンドウ708においてズームされたトラッキングされているオブジェクト702を含むビデオフレーム700の例を示している。ビデオフレーム700は、図6のビデオフレーム600と同じビデオフレームであることが可能であるが、オーバーレイされたPIPウィンドウ708を含んでいる。従って、オブジェクト702は、オブジェクト602と同じであることが可能である。PIPウィンドウ708に含まれているビデオフレームの視覚的に拡大された部分は、探索ウィンドウ706の内側にあるビデオフレームの同じ視覚的に拡大された部分であることが可能である。PIPウィンドウ708に関するズームレベルは、例えば、ビデオフレームの特徴に基づいて、ユーザによって(例えば、利用可能なズームレベルのセットから)選ばれたものとして、などで選択されること(例えば、自動的に選択されること)が可能である。
デバイスは、カラーヒストグラムを生成するために(例えば、ユーザ選択によって)決定されて1つまたは複数の後続フレームにおける探索のための基礎を提供するピクセルを使用することが可能である。デバイスは、ピクセルのサブセットに基づいて、例えば、オブジェクトおよび背景のセグメンテーションまたは色差閾値に基づいて、カラーヒストグラムを決定することが可能である。オブジェクトは、時間が経過するにつれてシーンのあちこちを移動する可能性があり、照明が変化する可能性があり、および/またはオブジェクトは、以前のビデオフレームにおいては見えなかった新たな情報を明らかにするようになる可能性がある。従って、より前の(例えば、最初の)カラーヒストグラムは、探索ウィンドウにおいてオブジェクトを識別する際に良好な結果をもはや生み出さない可能性がある。従って、デバイスは、ピクセルが、トラッキングされているオブジェクトの一部である確率推定を算出するために使用されるカラーヒストグラムを更新すること(例えば、後続のビデオフレームにおける情報に基づいてカラーヒストグラムを更新すること)が可能である。
デバイスは、ビデオフレームを横断して1つまたは複数のオブジェクトをトラッキングすることが可能である。デバイスは、(例えば、リモートポインティングデバイスを使用してオブジェクトが識別される場合には)ローカルにオブジェクトをトラッキングすることが可能である。例においては、デバイスは、ビデオフレームにおいて存在する可能性がある複数のオブジェクト(例えば、同じチームのプレーヤ)のトラッキングを初期化するためにオブジェクトの選択を活用することが可能である。例えば、トラッキングするためのオブジェクトが(例えば、ポインティングを介して)選択され得る。デバイスは、例えば、逆投影を介して、オブジェクトの一部であることが可能であるピクセルを決定するための確率マップを算出することが可能である。例えば、新たな位置を探索するために、例えば、トラッキングされているオブジェクトの以前の位置の周囲のちょっとした近辺において、逆投影が使用されてよい。確率マップがビデオフレームに適用されることが可能であり、それは、類似のオブジェクト(例えば、同じチームのプレーヤ)を強調表示することが可能である。
図8は、ビデオフレーム800に適用されるオブジェクト確率の例を示している。図8は、1つの(例えば、単一の)オブジェクトを選択すること、および1つのフレーム(例えば、その全体)への確率マップの適用の例を示している。個々の明色の(例えば、白色の)スポットは、同じチームのプレーヤであることが可能である。示されているように、フィールドから離れて配置されている類似の色からの多大な応答がある場合がある(例えば、チームカラーのファンたち)。デバイスは、例えば、(例えば、色相を介して)フィールドの境界を識別することによって、フィールドから離れて配置されているさらなる要素(例えば、フィールドから離れている白色の要素)を拒否して(例えば、無視して)、フィールド内の明色のスポットに焦点を合わせることが可能である。
図9は、ビデオフレーム800のフィールドから離れている応答を除去することによって(例えば、ファンたちによって作成されている明色のスポット、マーケティングバナー、および、プレイフィールド上に配置されていないその他のオブジェクトを除去することによって)きれいにされた確率マップ900の例を示している。デバイスは、例えば、オープニングおよびクロージングのモルフォロジカル画像処理アプリケーションを介してフィールドの領域を統一することが可能である。
図10は、図9の確率マップ900を使用したオープニングおよびクロージングのモルフォロジー演算の例示的な結果1000を示している。結果1000において示されているように、デバイスは、選択されたチームの7人のプレーヤ(例えば、7つのオブジェクト)に対応する7つの明色のスポットを識別することが可能である。デバイスは、例えば、それぞれの対応するプレーヤのトラッキングを初期化するために、7つの明色のスポットのロケーションを使用することが可能である。デバイスは、複数の(例えば、全ての)オブジェクトに関する選択されたオブジェクトに対応するヒストグラムを再利用することが可能であり、それは、例えば、デバイスが複数のオブジェクトのそれぞれに関する個々のオブジェクトヒストグラムを再作成するのを回避することを可能にすることができる。デバイスは、複数のオブジェクト(例えば、同じチームの同じユニフォームを着たプレーヤたち)を識別すること、および、例えば、単一の初期化子の選択(例えば、単一のプレーヤの選択)に基づいて、(例えば、上述のように)オブジェクトをトラッキングすることが可能である。
デバイスは、例えば、ビデオストリーム内で、またはビデオストリームとともに、トラッキングメタデータを受信することが可能である。デバイスは、例えば、クライアント側トラッキングに加えて、またはそれに対する代替として、1つまたは複数のオブジェクトを識別および/またはトラッキングするために(例えば、1つまたは複数のオブジェクトのロケーションを識別および/またはトラッキングするために)メタデータを使用することが可能である。例えば、ビデオブロードキャストは、例えば、クライアント側でオブジェクトのローカルトラッキングを実行することに加えて、またはそれに対する代替として、それぞれのビデオフレームにおけるオブジェクトのロケーションを記述するメタデータを含むことが可能である。例においては、境界ボックスを記述するために、H.264およびH.265ビデオ符号化標準における補助強化情報(SEI)メッセージ(例えば、パンスキャン長方形SEIメッセージ)が使用されてよい。メッセージは、オブジェクト識別子に対応することが可能である境界ボックスにおけるピクセルの範囲を記述することが可能である。ビデオサーバは、例えば、クライアント側デバイスにおいてオブジェクトトラッキングリソースが限られている可能性がある場合には、より進んだオブジェクトトラッキングを使用することが可能である。複数のオブジェクトが(例えば、ビデオサーバによってリアルタイムまたはオフラインで)トラッキングされることが可能であり、それらの位置情報がブロードキャストされることが可能であり、それは、ユーザが複数のオブジェクトから選択を行うこと、およびトラッキングされているオブジェクトのリストを通じてトラッキングフォーカスを切り替えることを可能にすることをディスプレイデバイスが行うのを可能にすることができる。
オブジェクトトラッキングを改善するための他の技術が使用されることも可能である。例えば、それぞれのビデオオブジェクト(例えば、それぞれのスポーツチームプレーヤ)が、(例えば、フットボールゲーム中に)正確なトラッキングを可能にする無線周波数識別(RFID)チップを有することが可能である。RFIDチップからの情報は、ビデオストリーム内のトラッキングされているオブジェクトの位置へ変換されることが可能である。デバイスは、ビデオストリームのブロードキャストを介してトラッキング情報を受信することができ、RFIDチップからのロケーション情報を使用して、ビデオフレームを横断してオブジェクト(例えば、プレーヤ)をトラッキングすることが可能である。
デバイス(例えば、クライアント)は、例えば、ビデオストリームにおいてサーバからオブジェクトトラッキング情報を受信しているときに、ビデオビットストリームから情報を抽出すること(例えば、SEIメッセージを抽出すること)が可能である。トラッキング情報は、例えば、ビデオフレーム内のオブジェクトのロケーション、「オブジェクトボックス」のサイズ、および/または関連のある可能性があるその他の(例えば、さらなるまたは代替の)メタデータ(例えば、オブジェクト識別子、プレーヤの名前または位置、プレーヤが属するチームの名前など)を含むことが可能である。デバイスは、例えば、図11において示されているように、スクリーン上のオブジェクトのサブセット上にボックスをオーバーレイすることが可能である。
図11は、メタデータから入手された情報を使用して複数のオブジェクトをトラッキングする例を示している。例えば、デバイスは、オブジェクト1102をトラッキングすることが可能であり、トラッキングされているオブジェクト1102を、ビデオフレームの一部分とトラッキングされているオブジェクト1102とを含むウィンドウ1104内に表示することが可能である。デバイスは、オブジェクト1112をトラッキングすることが可能であり、トラッキングされているオブジェクト1112を、ビデオフレームの一部分とトラッキングされているオブジェクト1112とを含むウィンドウ1114内に表示することが可能である。さらに、デバイスは、オブジェクト1122をトラッキングすることが可能であり、トラッキングされているオブジェクト1122を、ビデオフレームの一部分とトラッキングされているオブジェクト1122とを含むウィンドウ1124内に表示することが可能である。オブジェクト1102、1112、1122は、クライアントによって(例えば、チームのプレーヤたち、チームの最も重要なプレーヤたち等など、固定されることまたは選択できることが可能である1つまたは複数の基準に基づいて)選択され得る。オブジェクト1102、1112、1122は、ユーザによって好み(例えば、ユーザ定義)に基づいて、または選択肢のメニューから選択を行うことによって選ばれることが可能である。ユーザは、トラッキングするためのオブジェクト1102、1112、1122を選択することが可能である。デバイスは、ビデオフレームを横断してオブジェクト1102、1112、1122をトラッキングすることが可能であり、トラッキングされているオブジェクトを含むウィンドウをそれぞれの各フレームにおいて表示することが可能である。
デバイスは、オブジェクトを視覚的に拡大すること(例えば、ズームすること)が可能であり、視覚的に拡大されたオブジェクトを、例えば、図12において示されているように、ディスプレイ上のPIPウィンドウ内に表示することが可能である。図12は、オブジェクト1222を囲んでいるウィンドウ1224と、ビデオフレーム1200からのオブジェクト1232の視覚的に拡大されたコピーを示すPIPウィンドウ1230とを含むビデオフレーム1200の例を示している。固定されたPIPウィンドウ1230として示されている(例えば、PIPウィンドウ1230は、固定されたロケーション、例えば、右下にある)が、デバイスは、オブジェクト1222にオーバーレイする浮動するPIPを表示することが可能であるということを理解されたい。ビデオフレーム1200は、ビデオフレーム1100と同じであることが可能であるが、PIPウィンドウ1230が含まれており、ウィンドウ1104、1114が除去されているということを理解されたい。さらに、PIPウィンドウ1230は、オブジェクト1232の視覚的に拡大されたバージョンを示しているが、ある例においては、PIPウィンドウ1230は、オブジェクト1222がPIPウィンドウ1230内で視覚的に拡大されないようにサイズ設定および構成されることが可能である。
デバイスは、ユーザがオブジェクト(例えば、PIPウィンドウ内に配置されているオブジェクト)と対話することを可能にすることができる。デバイスは、トラッキングされているオブジェクトに関する強化された情報を含むメタデータを受信することが可能である。例においては、メタデータは、例えば、映画における女優の名前、またはNFLゲームにおけるプレーヤのリアルタイム統計を含むことが可能である。デバイスは、ユーザがPIPにおけるオブジェクトと対話してオブジェクトに関するさらなる情報を入手することを可能にすることができる。例においては、メタデータは、情報をデータベース(例えば、ローカルもしくはリモートデータベース)に、またはウェブサイトに要求するためにデバイスによって使用されてよいオブジェクト識別子を含むことが可能である。デバイスは、例えば、PIPにおいて示されているオブジェクトに対応することが可能であるオブジェクト識別子をメタデータからフェッチすることが可能である。デバイスは、利用可能な情報をデータベースまたはウェブサイトに要求することが可能であり、ディスプレイスクリーン上に(例えば、メインまたはPIPウィンドウにおいて、その中のメニューにおいてなどで)情報を提示することが可能である。デバイスは、スクリーンの固定されたロケーションにおいて、または対応するトラッキングされているオブジェクトの位置に追随することが可能である浮動するオーバーレイにおいて、情報を表示することが可能である。デバイスは、例えば、スクリーンの周辺(例えば、底部)において示されるニュースクロールと同様に、自動的にユーザ/視聴者へ情報を提示することが可能である。ユーザ/視聴者の関心のあるオブジェクトに関する情報をPIPにおいて提示することは、無関係である可能性がある一般的な情報を提示すること、またはいかなる情報も提示しないことに比較して、ユーザ/視聴者に関連のある情報を提示することが可能である。この機能は、ユーザの関心を引くこと、およびパーソナライズ感を作り出すことが可能である。
例においては、デバイスは、第2のスクリーン(例えば、第2のTVスクリーン、スマートフォン、タブレットなど)の上にPIPを表示するシステムにおいて使用されることが可能であり、それは、TVスクリーン上のスペースの一部分を遮るのを回避することが可能である。第2のスクリーンは、ユーザとの強化された対話(例えば、映画において女優によって着用されている衣服を求めるショッピング)を可能にすることができ、それは、ブロードキャスト情報に関する一種の直接または間接の広告および収益を提供することが可能である。
デバイスは、固定されたロケーションにおいてPIPを表示することが可能であり、またはPIPは、(例えば、オブジェクトのロケーションに基づいて)オブジェクトとともにスクリーンのあちこちを浮動することが可能である。デバイスは、(例えば、オブジェクト認識またはメタデータに基づいて)オブジェクトトラッキング情報を受信することが可能であり、デバイスは、オブジェクトトラッキング情報を使用してPIPウィンドウを生成することが可能である。ある例においては、PIPウィンドウは、オブジェクトのロケーションにかかわらずに、固定されたロケーション(例えば、スクリーンの右下)において保持されることが可能である。デバイスは、例えば、図12におけるPIPウィンドウ1230によって示されているように、トラッキングされているコンテンツを、固定されたPIPロケーションへとマップすることが可能である。PIPコンテンツは、例えば、ローカルにトラッキングされているオブジェクトの位置情報、および/またはビデオコンテンツとともに受信されることが可能であるトラッキングメタデータを使用して、トラッキングされているオブジェクト1222に追随することが可能である。PIPウィンドウ1230内のビデオフレームの部分は、例えば、図12において示されているように、(例えば、視聴者によって選ばれることが可能である様々な係数によって)拡大されることが可能である。さらに、ある例においては、PIPウィンドウ1230は、PIPウィンドウ1230内でオブジェクト1222が視覚的に拡大されないようにサイズ設定および構成されることが可能である。
デバイスは、浮動するPIPウィンドウを表示することが可能であり、例えば、浮動するPIPウィンドウのロケーションは、トラッキングされているオブジェクトのロケーションに基づく。デバイスは、(例えば、ローカルなオブジェクト認識または受信されたメタデータに基づいて)オブジェクトトラッキング情報を受信することが可能であり、デバイスは、(例えば、ローカルなオブジェクト認識または受信されたメタデータに基づいて)オブジェクトトラッキング情報を使用してPIPウィンドウに関するロケーションを決定することが可能である。
図13は、トラッキングされているオブジェクト1302を含む浮動するPIPウィンドウ1304を含むビデオフレーム1300の例を示している。デバイスは、トラッキングされているオブジェクト1302の上に、浮動するPIPウィンドウ1304を表示することが可能である。デバイスは、(例えば、ローカルなオブジェクト認識または受信されたメタデータに基づいて、)トラッキングされているオブジェクト1302のロケーションを決定すること、およびトラッキングされているオブジェクト1302のロケーションに基づいて、浮動するPIPウィンドウ1304のロケーションを決定することが可能である。従って、ある例においては、PIPウィンドウ1304の位置は、オブジェクト1302がビデオフレームを横断してディスプレイスクリーンのあちこちを移動するにつれてオブジェクト1302に追随することが可能である。例えば、デバイスは、オブジェクト1302の上に(例えば、オブジェクト1302の中心の上に)直接PIPウィンドウ1304を表示することが可能であり、それによって元のトラッキングされているオブジェクト1302を隠し、または代替として、デバイスは、トラッキングされているオブジェクト1302のロケーションに基づくロケーション(例えば、ディスプレイスクリーンの4つのコーナーのうちの1つ)において(例えば、トラッキングされているオブジェクト1302に最も近いコーナーにおいて)PIPウィンドウ1304を表示することが可能である。さらに、示されているように、PIPウィンドウ1304内のビデオフレームの部分は、(例えば、オブジェクト1302そのものを含んで)視覚的に拡大されることが可能である。しかしながら、ある例においては、PIPウィンドウ1304は、PIPウィンドウ1304内でオブジェクト1302が視覚的に拡大されないようにサイズ設定および構成されることが可能である。
デバイスは、ユーザが、例えば、1つまたは複数のトラッキングされているオブジェクトを選択するために(例えば、PIPウィンドウにおいてトラッキングおよび/またはズームされているオブジェクトを切り替えるために、アクティブにトラッキングされているオブジェクトのリストからオブジェクトを除去するためになどで)複数のトラッキングされているオブジェクトを繰り返し表示することを可能にすることができる。図14は、ユーザが複数のトラッキングされているオブジェクト1~Nを繰り返し表示することを可能にするためにデバイスによって実行される例示的なプロセス1400を示している。オブジェクトは、例えば、サーバによって(例えば、メタデータは、トラッキングされているオブジェクトがリストにおいてどのように順序付けられることが可能であるかに関する情報を含むことが可能である)、および/またはクライアントもしくはユーザによって、リストにおいて順序付けられることが可能である。デバイスは、(例えば、メタデータにおけるトラッキング情報を受信した後に)ユーザの好みに基づいて(例えば、アルファベット順に、チーム別に、ユーザ選択によって、および/または利用可能なオブジェクトのサブセットの順序付けによってなどで)、トラッキングされているオブジェクトを順序付けることが可能である。代替として、または追加として、デバイスは、(例えば、オブジェクトIDに基づいて、)トラッキングされているオブジェクトのリストを作成するために1つまたは複数の手順を使用することが可能である。N個のオブジェクトがビデオフレームを横断してトラッキングされることが可能である例においては、デバイスは、PIPにおいてズームするためのオブジェクト(例えば、オブジェクトi)をユーザが選択することを可能にすることができる。ユーザは、例えば、動いているビデオまたは一時停止されたビデオフレームから1つまたは複数のオブジェクトを選択することによってオブジェクトを選択すること(例えば、1つまたは複数のオブジェクトを選択すると再開する再生を伴う)が可能である。
いったんリストが作成されて、ユーザが、PIPウィンドウのための選択用のオブジェクトを繰り返し表示する用意ができたら、デバイスは、焦点ウィンドウを生成することが可能である。デバイスは、選択用の現在のオブジェクトをユーザに示すために焦点ウィンドウ内にオブジェクトを表示することが可能である。焦点ウィンドウは、例えば、PIPウィンドウと同様に見えることが可能である(例えば、ただし、オブジェクトを含むビデオフレームの部分の視覚的な拡大は伴わない)。いくつかの例においては、焦点ウィンドウは、PIPウィンドウとは異なる色または形状のものであることが可能である。デバイスは、ユーザがリスト(例えば、リスト1402)に従ってオブジェクトを繰り返し表示することを可能にすることができ、オブジェクト1~Nは、それぞれの焦点ウィンドウを通じて繰り返し表示される。例えば、ユーザが繰り返し表示するにつれて、焦点ウィンドウ内のオブジェクトは、(例えば、ユーザ入力に基づいて)リストからの次のトラッキングされるオブジェクトになる可能性がある。デバイスは、リストの終わりに達すると、例えば、図14において示されているように、リストの始めに戻ることが可能である。焦点ウィンドウの位置は、固定されること(例えば、常にスクリーンのコーナーにあること)が可能であり、または(例えば、焦点ウィンドウによって強調表示されたオブジェクトのロケーションに基づいて)浮動していることが可能である。
デバイスは、1つまたは複数のPIPの進んだ機能を実行することが可能であり、それらは、複数のPIPウィンドウを結合すること、PIPウィンドウを複数のPIPウィンドウへと分割すること、PIPウィンドウ内のコンテンツを一時停止すること、PIPウィンドウのコンテンツを拡大または最小化すること、PIPウィンドウ内のコンテンツに時間遅延を提供すること、ソーシャルメディアをPIPウィンドウ内にまたはPIPウィンドウとともに組み込むこと、(例えば、ユーザ選択に基づいて)PIPウィンドウを再配置すること等などであるが、それらには限定されない。
図15A~図15Fは、複数のトラッキングされているオブジェクトに関する複数のPIPウィンドウを結合することの例を提供している。図15Aは、複数のトラッキングされているオブジェクトを含む例示的なビデオフレーム1500を示している。図15Bは、複数のトラッキングされているオブジェクトに対応する複数のズームPIPウィンドウを含む例示的なビデオフレーム1500’を示している。図15Cは、トラッキングされているオブジェクトが互いに近づくにつれて重なる複数のズームPIPウィンドウを含む例示的なビデオフレーム1530を示している。図15Dは、互いに重なっている複数のトラッキングされているオブジェクトを含むビデオフレーム1532の例を示している。図15Eは、複数の重なっているオブジェクトを含む結合されたPIPウィンドウを含む例示的なビデオフレーム1532’を示している。図15Fは、複数の重なっているオブジェクトを含む結合されたPIPウィンドウを含む例示的なビデオフレーム1532’’を示している。
デバイスは、複数のビデオフレームを横断して関心のある複数のオブジェクトをトラッキングすることが可能である。デバイスは、(例えば、デバイスにおいて)オブジェクト認識技術を使用して、および/または(例えば、ビデオストリームもしくはブロードキャストの一部として受信されることが可能である)メタデータに基づいて、オブジェクトトラッキング(例えば、それぞれのビデオフレーム内でオブジェクトを識別すること、および/またはオブジェクトのロケーションを決定すること)を実行することが可能である。デバイスは、同時表示(例えば、ズームされているまたはズームされていない表示)のために複数のトラックオブジェクトを選択することが可能であり、および/またはそれらのトラックオブジェクトをユーザが選択することを可能にすることができる。デバイスは、複数のトラッキングされているオブジェクトに関して複数のPIPウィンドウ(例えば、浮動するまたは固定されたPIPウィンドウ)を表示することが可能である。例えば、図15Aのビデオフレーム1500を参照すると、デバイスは、オブジェクト1502、1512、1522をトラッキングすることが可能であり、トラッキングされているオブジェクト1502、1512、1522のそれぞれに関して、デバイスは、ウィンドウ1504、1514、1524など、オブジェクトを囲んでウィンドウを表示することが可能である。さらに、デバイスは、ウィンドウ内のトラッキングされているオブジェクトを含むフレームの部分を視覚的に拡大することが可能である。例えば、デバイスは、トラッキングされているオブジェクト1502、1512、1522をそれぞれ含むビデオフレームの視覚的に拡大された部分を表示するウィンドウ1506、1516、1526を含むフレーム1500’を表示することが可能である。図15Aのウィンドウ1504、1514、1524、および図15Bのウィンドウ1506、1516、1526のロケーションは、それぞれの各オブジェクト1502、1512、1522のロケーションに基づいて決定されること(例えば、オブジェクトの上に中心を置かれて、ビデオフレームを横断してオブジェクトとともに移動すること)が可能であるということを理解されたい。
デバイスは、ビデオフレームを横断して移動する(すなわち、複数のビデオフレームが時間とともに順次表示されるにつれて移動する)複数の浮動するPIPウィンドウ(例えば、それぞれのトラッキングされているオブジェクトごとに1つ)を表示することが可能である。例えば、浮動するPIPウィンドウは、それらの浮動するPIPウィンドウのそれぞれに関連付けられているトラッキングされているオブジェクトの移動に従って、互いに独立して移動することが可能である。いくつかの例においては、トラッキングされているオブジェクトが時間とともに(例えば、ビデオフレームを横断して)移動するにつれて、トラッキングされているオブジェクトに関連付けられているPIPウィンドウは、ともに近づくまたは重なる場合があり、それは、1つまたは複数のPIPウィンドウを塞ぐ場合がある。
例えば、図15Cのビデオフレーム1530を参照すると、オブジェクト1502および1512にそれぞれ関連付けられているウィンドウ1508および1518が重なっており、その一方で、オブジェクト1522に関連付けられているウィンドウ1528は、別のウィンドウと重なっていない。2つ以上のオブジェクトが近づく場合があり、それらの浮動するPIPウィンドウが(例えば、やはり)ともに近づく、または重なり始める場合がある。デバイスは、複数のトラッキングされているオブジェクトのPIPウィンドウを単一の、より大きなPIPウィンドウ(例えば、マージされたPIPウィンドウ)へと合併することが可能であり、それは、例えば、図15D~図15Fにおいて示されているように、複数のオブジェクト(例えば、結合されたPIPウィンドウに関連付けられているオブジェクト)のズームされたビューを含むことが可能である。
図15Dのビデオフレーム1532を参照すると、デバイスは、互いに重なるウィンドウ1552、1562、1572(例えば、探索ウィンドウまたはPIPウィンドウ)を有する複数のオブジェクト1502、1512、1522をトラッキングすることが可能である。デバイスは、それぞれのトラッキングされているオブジェクトを含むマージされたPIPウィンドウを生成することが可能である。例えば、図15Eのビデオフレーム1532’を参照すると、デバイスは、トラッキングされているオブジェクト1502、1512、1522を含むマージされたPIPウィンドウ1550を生成および表示することが可能である。デバイスは、トラッキングされているオブジェクト1502、1512、1522のロケーションに基づいて、マージされたPIPウィンドウのロケーションを決定することが可能である(例えば、それによって、トラッキングされているオブジェクト1502、1512、1522は、PIPウィンドウ内の比較的中心に置かれる)。いくつかの例においては、マージされたPIPウィンドウは、下にあるトラッキングされているオブジェクトを含むビデオフレームの拡大された部分を表示することが可能である。例えば、図15Fのビデオフレーム1532’’を参照すると、デバイスは、トラッキングされているオブジェクト1502、1521、1522を含むビデオフレーム1532’’の視覚的に拡大された部分を含むマージされたPIPウィンドウ1560を生成および表示することが可能である。マージされたPIPウィンドウは、(例えば、図15E~図15Fにおいて示されているように)浮動していることが可能であり、または事前に決定されたロケーションにおいて(例えば、ビデオフレームのコーナーにおいて)固定されることが可能である。例えば、さらなるビデオフレームが表示されるにつれて、マージされたPIPウィンドウは、対応するトラッキングされているオブジェクト1502、1512、1522とともに移動することが可能である。
デバイスは、例えば、トラッキングされているオブジェクト1502、1512、1522のうちの1つまたは複数が互いから離れて移動する場合には、マージされたPIPウィンドウを2つ以上の個々のPIPウィンドウへと分割することが可能であり、それらのそれぞれのPIPウィンドウが(例えば、1つまたは複数の近接度閾値に基づいて)別々のPIPウィンドウとして表示された場合には、それらはもはや重なっていない。PIPウィンドウが浮動している場合には、分割した後に、PIPウィンドウは、下にあるトラッキングされているオブジェクト1502、1512、1522の動きに従って(例えば、再び)独立して移動することが可能である。
デバイスは、例えば、2つ以上の対応する浮動するPIPウィンドウをマージするかどうかを決定するために、個々のトラッキングされているオブジェクトの近さまたは隔たりの1つまたは複数の度合いを指定すること(例えば、オブジェクト位置間における距離を第1の距離閾値に比較すること)が可能である近接度閾値を使用することが可能である。代替として、または追加として、デバイスは、表示されているPIPウィンドウの重なりの検知に基づいて、PIPウィンドウをマージすることを決定することが可能である。デバイスは、例えば、マージされた(例えば、浮動する)PIPウィンドウを2つ以上のコンポーネントPIPウィンドウへと分割するかどうかを決定する場合に、個々のトラッキングされているオブジェクトの隔たりまたは近さの何らかの度合いを指定すること(例えば、オブジェクト位置間における距離を第2の距離閾値に比較すること)が可能である近接度閾値を使用することが可能である。代替として、または追加として、デバイスは、例えば、分割から生じるであろう2つ以上のコンポーネントPIPウィンドウがビデオフレーム内で空間的に重ならないことが可能である(例えば、重ならないであろう)という決定に基づいて、マージされた(例えば、浮動する)PIPウィンドウを分割することを決定することが可能である。
デバイスは、例えば、ユーザのコマンド(例えば、トラッキングおよび/またはズームされるオブジェクトの選択)に基づいて、ビデオフレームの一時停止およびズームを実行することが可能である。例えば、デバイスは、例えばユーザのコマンドに基づいて、ビデオフレームを一時停止することが可能である。ユーザは、ビデオフレームのあちこちにズームの焦点を移動させることが可能である。この機能は、例えばスポーツを観ている間に、有用である場合があり、ユーザが、例えばプレーヤたちの位置(例えば、フィールドにおける、コート上での)を観察するために、アクションを停止してメインウィンドウにおけるオブジェクトたちを見回すことを可能にする。デバイスは、(例えば、放送されているビデオを見続ける目的で)ライブビデオを見せるためにPIPウィンドウを使用することが可能であり、その一方で別のPIPウィンドウは、一時停止されたビデオフレーム上にズームインするために使用されてよい。
デバイスは、ビデオコンテンツの複数のフレームにわたってPIPウィンドウ内にオブジェクトの時間遅延されたバージョンを表示することが可能である。それぞれのフレーム内のPIPウィンドウのロケーションは、固定されること(例えば、事前に決定されて、それぞれのフレーム内のオブジェクトのロケーションに結合されていないこと)が可能であり、またはそれぞれのフレーム内のオブジェクトのロケーションに基づくこと(例えば、オブジェクトのロケーションに基づいてそれぞれのビデオフレーム間で「浮動すること」、オブジェクトに対して最も近いコーナー内に配置されることなど)が可能である。さらに、PIPウィンドウ内のオブジェクトの時間遅延されたバージョンは、(例えば、PIPウィンドウによって取り込まれた周囲のビデオフレームとともに)視覚的に拡大されることが可能である。例えば、デバイスは、時間的に後続のビデオフレーム内の(例えば、またはそれと重なる)ビデオフレームの一部分を含む第1のPIPウィンドウを表示することが可能である。すなわち、いくつかの例においては、デバイスは、(例えば、数秒だけ)遅れた視覚的に拡大されたコンテンツを伴うPIPウィンドウを表示して、例えば、ユーザがメインウィンドウに注意を払って、重要なプレイまたはシーンを識別した後にPIPウィンドウを見ることを可能にすることができる。PIPウィンドウのロケーションは、事前に決定されたロケーション(例えば、ディスプレイのコーナーなど)の中に固定されることが可能である。デバイスは、ある数のフレーム(例えば、120フレーム、30HzのTV放送において4秒に相当する)にわたってオブジェクトを含むウィンドウを保存することが可能であり、ある遅延(例えば、4秒)を伴って時間遅延されたPIPウィンドウを含む後続のビデオフレームを表示することが可能である。ある例においては、デバイスは、ユーザがPIPウィンドウ(例えば、時間遅延されたPIPウィンドウ)のオン/オフを切り替えることを可能にすることができる。
デバイスは、PIPウィンドウのコンテンツがソーシャルメディアとともに使用されることを可能にすることができる。例えば、ユーザは、TV放送からの関心のある何かを友達と共有したい場合がある。デバイスは、ユーザがリモコンを使用してPIPウィンドウのスクリーンショットを撮ることを可能にすることができる。ユーザは、スクリーンショットに注釈を付けること、その上に描くこと、効果を加えることなどが可能である。デバイスは、ユーザがPIPウィンドウのもとのまたは修正された(例えば、注釈を付けられた)スクリーンショットを、例えば、公正な使用のコンテキストにおいて、または宣伝のコンテキストにおいて(例えば、ソーシャルメディアを介して)他者と共有することを可能にすることができる。例えば、コンテンツプロバイダたちは、彼らのコンテンツの部分を、マーケティングの(例えば、新たなショーもしくは映画に関する情報を作成する)目的で、またはコンテスト(例えば、ショーにおけるお気に入りの瞬間、もしくは競技会におけるお気に入りの歌手に関する投票)の一部としてユーザたちが共有することを可能にしたい場合がある。デバイスは、(例えば、ソーシャルメディアでの共有を可能にするために)PIPウィンドウのスクリーンショットをTVからモバイルデバイスにおけるリンクされているアプリへ送って、ユーザがそれをソーシャルメディアにおいて共有することを可能にすることができる。
デバイスは、(例えば、固定されたPIPウィンドウのコンテキストにおいて)ユーザがPIPウィンドウのロケーションを再配置することを可能にすることができる。例えば、ユーザは、スクリーンの底部において示されている情報に関心がある場合がある。デバイスは、ユーザが(例えば、関心のある情報を見るために、)固定されたPIPウィンドウの位置をスクリーンの別の部分へ移動させることを可能にすることができる。いくつかの例においては、デバイスは、例えば、トラッキングされているオブジェクトの現在のロケーションに基づいて(例えば、あるコーナーにオブジェクトが近づきすぎた場合には、デバイスは、PIPウィンドウを別のコーナーへ切り替えることが可能である)、下にあるビデオコンテンツからの情報に基づいて(例えば、ゲームのスコアまたはプレーヤ情報が右下に表示された場合には、デバイスは、PIPウィンドウのロケーションを切り替えて、そのコンテンツと重なるのを回避することが可能である)などで、PIPウィンドウのロケーションを切り替えることを自動的に決定することが可能である。さらに、ある例においては、ユーザは、リモコンを使用してPIP再配置機能をアクティブ化することが可能である。デバイスは、ユーザによって示されることが可能である新たなロケーションへPIPウィンドウを移動させることが可能である。新たなロケーションは、別の固定されたPIPウィンドウロケーション(例えば、ディスプレイの別のコーナーまたはエッジ)であることが可能である。固定されたPIPウィンドウは、(例えば、代替として、または追加として)「浮動する」PIPウィンドウへ変換されることが可能であり、それは、対応するトラッキングされているオブジェクト位置に基づいて(例えば、そこに中心を置かれて)配置されることが可能である。
図16Aは、1つまたは複数の開示されている実施形態が実施され得る例示的な通信システム100を示す図である。通信システム100は、コンテンツ、例えば、音声、データ、ビデオ、メッセージング、放送などを複数の無線ユーザに提供する多元アクセスシステムであることが可能である。通信システム100は、複数の無線ユーザが、無線帯域幅を含むシステムリソースの共有を通じてそのようなコンテンツにアクセスすることを可能にすることができる。例えば、通信システム100は、1つまたは複数のチャネルアクセス方法、例えば、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、周波数分割多元接続(FDMA)、直交FDMA(OFDMA)、シングルキャリアFDMA(SC-FDMA)、ゼロテールユニークワードDFT-Spread OFDM(ZT UW DTS-s OFDM)、ユニークワードOFDM(UW-OFDM)、リソースブロックフィルタードOFDM、フィルタバンクマルチキャリア(FBMC)などを採用することが可能である。
図16Aにおいて示されているように、通信システム100は、無線送受信ユニット(WTRU)102a、102b、102c、102d、RAN104/113、CN106/115、公衆交換電話ネットワーク(PSTN)108、インターネット110、および他のネットワーク112を含むことが可能であるが、開示されている実施形態は、任意の数のWTRU、基地局、ネットワーク、および/またはネットワーク要素を想定しているということが理解されるであろう。WTRU102a、102b、102c、102dのそれぞれは、無線環境において動作および/または通信するように構成されている任意のタイプのデバイスであることが可能である。例えば、WTRU102a、102b、102c、102d(これらのいずれも、「ステーション」および/または「STA」と呼ばれることが可能である)は、無線信号を送信および/または受信するように構成されることが可能であり、ユーザ機器(UE)、移動局、固定式または移動式のサブスクライバーユニット、サブスクリプションベースのユニット、ページャー、セルラー電話、PDA、スマートフォン、ラップトップ、ネットブック、パーソナルコンピュータ、無線センサ、ホットスポットまたはMi-Fiデバイス、IoTデバイス、腕時計またはその他のウェアラブル、ヘッドマウントディスプレイ(HMD)、乗り物、ドローン、医療デバイスおよびアプリケーション(例えば、遠隔手術)、工業デバイスおよびアプリケーション(例えば、工業および/または自動化された処理チェーンのコンテキストにおいて動作するロボットおよび/またはその他の無線デバイス)、家庭用電子機器、商業および/または工業無線ネットワーク上で動作するデバイスなどを含むことが可能である。WTRU102a、102b、102c、および102dのいずれも、UEと言い換え可能に呼ばれることが可能である。
通信システム100は、基地局114aおよび/または基地局114bを含むことも可能である。基地局114a、114bのそれぞれは、1つまたは複数の通信ネットワーク、例えば、CN106/115、インターネット110、および/または他のネットワーク112へのアクセスを容易にするために、WTRU102a、102b、102c、102dのうちの少なくとも1つとワイヤレスにインターフェース接続するように構成されている任意のタイプのデバイスであることが可能である。例えば、基地局114a、114bは、ベーストランシーバステーション(BTS)、Node-B、eNode B、ホームNode B、ホームeNode B、gNB、NR NodeB、サイトコントローラ、アクセスポイント(AP)、無線ルータなどであることが可能である。基地局114a、114bは、それぞれ単一の要素として示されているが、基地局114a、114bは、任意の数の相互接続された基地局および/またはネットワーク要素を含むことが可能であるということが理解されるであろう。
基地局114aは、RAN104/113の一部であることが可能であり、RAN104/113は、その他の基地局および/またはネットワーク要素(図示せず)、例えば、基地局コントローラ(BSC)、無線ネットワークコントローラ(RNC)、中継ノードなどを含むことも可能である。基地局114aおよび/または基地局114bは、1つまたは複数のキャリア周波数上で無線信号を送信および/または受信するように構成されることが可能であり、それらのキャリア周波数は、セル(図示せず)と呼ばれることが可能である。これらの周波数は、ライセンス供与されているスペクトル、ライセンス供与されていないスペクトル、またはライセンス供与されているスペクトルと、ライセンス供与されていないスペクトルとの組合せであることが可能である。セルは、比較的固定されることが可能である、または時間とともに変わることが可能である特定の地理的エリアへの無線サービスのためのカバレッジを提供することが可能である。セルは、セルセクタにさらに分割されることが可能である。例えば、基地局114aに関連付けられているセルは、3つのセクタへと分割されることが可能である。従って、一実施形態においては、基地局114aは、3つのトランシーバ、すなわち、セルのそれぞれのセクタごとに1つのトランシーバを含むことが可能である。実施形態においては、基地局114aは、多入力多出力(MIMO)技術を採用することが可能であり、セルのそれぞれのセクタごとに複数のトランシーバを利用することが可能である。例えば、所望の空間方向において信号を送信および/または受信するためにビームフォーミングが使用されてよい。
基地局114a、114bは、エアインターフェース116を介してWTRU102a、102b、102c、102dのうちの1つまたは複数と通信することが可能であり、エアインターフェース116は、任意の適切な無線通信リンク(例えば、無線周波数(RF)、マイクロ波、センチメートル波、マイクロメートル波、赤外線(IR)、紫外線(UV)、可視光など)であることが可能である。エアインターフェース116は、任意の適切な無線アクセス技術(RAT)を使用して確立されることが可能である。
より具体的には、上述されているように、通信システム100は、多元アクセスシステムであることが可能であり、1つまたは複数のチャネルアクセス方式、例えば、CDMA、TDMA、FDMA、OFDMA、SC-FDMAなどを採用することが可能である。例えば、RAN104/113における基地局114a、およびWTRU102a、102b、102cは、ユニバーサルモバイルテレコミュニケーションズシステム(UMTS)テレストリアルラジオアクセス(UTRA)などの無線技術を実施することが可能であり、この無線技術は、広帯域CDMA(WCDMA(登録商標))を使用してエアインターフェース115/116/117を確立することが可能である。WCDMAは、高速パケットアクセス(HSPA)および/またはエボルブドHSPA(HSPA+)などの通信プロトコルを含むことが可能である。HSPAは、高速ダウンリンク(DL)パケットアクセス(HSDPA)および/または高速ULパケットアクセス(HSUPA)を含むことが可能である。
実施形態においては、基地局114aおよびWTRU102a、102b、102cは、ロングタームエボリューション(LTE)および/またはLTEアドバンスト(LTE-A)および/またはLTEアドバンストプロ(LTE-A Pro)を使用してエアインターフェース116を確立することが可能であるエボルブドUMTSテレストリアル無線アクセス(E-UTRA)などの無線技術を実施することが可能である。
実施形態においては、基地局114aおよびWTRU102a、102b、102cは、新無線(NR)を使用してエアインターフェース116を確立することが可能であるNR無線アクセスなどの無線技術を実施することが可能である。
実施形態においては、基地局114aおよびWTRU102a、102b、102cは、複数の無線アクセス技術を実施することが可能である。例えば、基地局114aおよびWTRU102a、102b、102cは、例えばデュアル接続(DC)原理を使用して、LTE無線アクセスおよびNR無線アクセスをともに実施することが可能である。従って、WTRU102a、102b、102cによって利用されるエアインターフェースは、複数のタイプの無線アクセス技術、および/または複数のタイプの基地局(例えば、eNBおよびgNB)へ/から送られる送信によって特徴付けられることが可能である。
他の実施形態においては、基地局114aおよびWTRU102a、102b、102cは、無線技術、例えば、IEEE802.11(すなわち、WiFi(Wireless Fidelity)、IEEE802.16(すなわち、WiMAX(Worldwide Interoperability for Microwave Access))、CDMA2000、CDMA2000 1X、CDMA2000EV-DO、暫定標準2000(IS-2000)、暫定標準95(IS-95)、暫定標準856(IS-856)、GSM(登録商標)(Global System for Mobile Communications)、EDGE((Enhanced Data Rates for GSM Evolution)、GSM EDGE(GERAN)などを実施することが可能である。
図16Aにおける基地局114bは、例えば、無線ルータ、ホームNode B、ホームeNode B、またはアクセスポイントであることが可能であり、局所的なエリア、例えば、事業所、家庭、乗り物、キャンパス、工業施設、空中回廊(例えば、ドローンによる使用のための)、車道などにおける無線接続を容易にするために、任意の適切なRATを利用することが可能である。一実施形態においては、基地局14bおよびWTRU102c、102dは、無線ローカルエリアネットワーク(WLAN)を確立するために、IEEE802.11などの無線技術を実施することが可能である。実施形態においては、基地局114bおよびWTRU102c、102dは、無線パーソナルエリアネットワーク(WPAN)を確立するために、IEEE802.15などの無線技術を実施することが可能である。さらに別の実施形態においては、基地局114bおよびWTRU102c、102dは、ピコセルまたはフェムトセルを確立するために、セルラーベースのRAT(例えば、WCDMA、CDMA2000、GSM、LTE、LTE-A、LTE-A Pro、NRなど)を利用することが可能である。図16Aにおいて示されているように、基地局114bは、インターネット110への直接接続を有することが可能である。従って、基地局114bは、CN106/115を介してインターネット110にアクセスすることを求められないことが可能である。
RAN104/113は、CN106/115と通信状態にあることが可能であり、CN106/115は、音声、データ、アプリケーション、および/またはVoIPサービスをWTRU102a、102b、102c、102dのうちの1つまたは複数に提供するように構成されている任意のタイプのネットワークであることが可能である。データは、様々なサービス品質(QoS)要件、例えば、別々のスループット要件、待ち時間要件、エラー許容範囲要件、信頼性要件、データスループット要件、モビリティー要件などを有することが可能である。CN106/115は、呼制御、料金請求サービス、モバイル位置情報サービス、プリペイドコーリング、インターネット接続、ビデオ配信などを提供すること、および/またはハイレベルセキュリティー機能、例えばユーザ認証を実行することが可能である。図16Aにおいては示されていないが、RAN104/113および/またはCN106/115は、RAN104/113と同じRATまたは異なるRATを採用しているその他のRANと直接または間接の通信状態にあることが可能であるということが理解されるであろう。例えば、CN106/115は、NR無線技術を利用していることが可能であるRAN104/113に接続されていることに加えて、GSM、UMTS、CDMA2000、WiMAX、E-UTRA、またはWiFi無線技術を採用している別のRAN(図示せず)と通信状態にあることも可能である。
CN106/115は、WTRU102a、102b、102c、102dがPSTN108、インターネット110、および/またはその他のネットワーク112にアクセスするためのゲートウェイとしての役割を果たすことも可能である。PSTN108は、単純旧式電話サービス(POTS)を提供する回線交換電話ネットワークを含むことが可能である。インターネット110は、一般的な通信プロトコル、例えば、TCP/IPインターネットプロトコルスイートにおけるTCP、UDP、および/またはIPを使用する相互接続されたコンピュータネットワークおよびデバイスからなるグローバルシステムを含むことが可能である。ネットワーク112は、他のサービスプロバイダによって所有および/または運営されている有線通信ネットワークおよび/または無線通信ネットワークを含むことが可能である。例えば、ネットワーク112は、RAN104/113と同じRATまたは異なるRATを採用することが可能である1つまたは複数のRANに接続されている別のCNを含むことが可能である。
通信システム100におけるWTRU102a、102b、102c、102dのうちのいくつかまたは全ては、マルチモード機能を含むことが可能である(例えば、WTRU102a、102b、102c、102dは、別々の無線リンクを介して別々の無線ネットワークと通信するために複数のトランシーバを含むことが可能である)。例えば、図16Aにおいて示されているWTRU102cは、セルラーベースの無線技術を採用することが可能である基地局114aと、およびIEEE802無線技術を採用することが可能である基地局114bと通信するように構成されることが可能である。
図16Bは、例示的なWTRU102を示すシステム図である。図16Bにおいて示されているように、WTRU102は、数ある中でも、プロセッサ118、トランシーバ120、送受信要素122、スピーカー/マイクロフォン124、キーパッド126、ディスプレイ/タッチパッド128、取り外し不能メモリ130、取り外し可能メモリ132、電源134、GPSチップセット136、および/または他の周辺機器138を含むことが可能である。WTRU102は、実施形態との整合性を保持しながら、上述の要素の任意の下位組合せを含むことが可能であるということが理解されるであろう。
プロセッサ118は、汎用プロセッサ、専用プロセッサ、従来型プロセッサ、デジタルシグナルプロセッサ(DSP)、複数のマイクロプロセッサ、DSPコアに関連付けられている1つまたは複数のマイクロプロセッサ、コントローラ、マイクロコントローラ、ASIC、FPGA回路、その他の任意のタイプの集積回路(IC)、状態マシンなどであることが可能である。プロセッサ118は、信号符号化、データ処理、電力制御、入力/出力処理、および/または、WTRU102が無線環境において動作することを可能にするその他の任意の機能を実行することが可能である。プロセッサ118は、トランシーバ120に結合されることが可能であり、トランシーバ120は、送受信要素122に結合されることが可能である。図16Bは、プロセッサ118およびトランシーバ120を別々のコンポーネントとして示しているが、プロセッサ118およびトランシーバ120は、電子パッケージまたはチップにおいてともに統合されることが可能であるということが理解されるであろう。
送受信要素122は、エアインターフェース116を介して、基地局(例えば、基地局114a)に信号を送信するように、または基地局(例えば、基地局114a)から信号を受信するように構成されることが可能である。例えば、一実施形態においては、送受信要素122は、RF信号を送信および/または受信するように構成されているアンテナであることが可能である。実施形態においては、送受信要素122は、例えば、IR信号、UV信号、または可視光信号を送信および/または受信するように構成されているエミッタ/検知器であることが可能である。さらに別の実施形態においては、送受信要素122は、RF信号および光信号の両方を送信および/または受信するように構成されることが可能である。送受信要素122は、無線信号の任意の組合せを送信および/または受信するように構成されることが可能であるということが理解されるであろう。
送受信要素122は、図16Bにおいては単一の要素として示されているが、WTRU102は、任意の数の送受信要素122を含むことが可能である。より具体的には、WTRU102は、MIMO技術を採用することが可能である。従って、一実施形態においては、WTRU102は、エアインターフェース116を介して無線信号を送信および受信するために、2つ以上の送受信要素122(例えば、複数のアンテナ)を含むことが可能である。
トランシーバ120は、送受信要素122によって送信されることになる信号を変調するように、および送受信要素122によって受信される信号を復調するように構成されることが可能である。上述されているように、WTRU102は、マルチモード機能を有することが可能である。従って、トランシーバ120は、WTRU102が、例えばNRおよびIEEE802.11などの複数のRATを介して通信することを可能にするために複数のトランシーバを含むことが可能である。
WTRU102のプロセッサ118は、スピーカー/マイクロフォン124、キーパッド126、および/またはディスプレイ/タッチパッド128(例えば、液晶ディスプレイ(LCD)ディスプレイユニットもしくは有機発光ダイオード(OLED)ディスプレイユニット)に結合されることが可能であり、そこからユーザ入力データを受信することが可能である。プロセッサ118は、ユーザデータをスピーカー/マイクロフォン124、キーパッド126、および/またはディスプレイ/タッチパッド128へ出力することも可能である。加えて、プロセッサ118は、任意のタイプの適切なメモリ、例えば、取り外し不能メモリ130および/または取り外し可能メモリ132からの情報にアクセスすること、およびそれらのメモリにデータを格納することが可能である。取り外し不能メモリ130は、RAM、ROM、ハードディスク、または他の任意のタイプのメモリストレージデバイスを含むことが可能である。取り外し可能メモリ132は、SIMカード、メモリスティック、SDメモリカードなどを含むことが可能である。その他の実施形態においては、プロセッサ118は、WTRU102上に物理的に配置されていない、例えば、サーバまたはホームコンピュータ(図示せず)上のメモリからの情報にアクセスすること、およびそのメモリにデータを格納することが可能である。
プロセッサ118は、電源134から電力を受け取ることが可能であり、WTRU102における他のコンポーネントへの電力を分配および/または制御するように構成されることが可能である。電源134は、WTRU102に電力供給するための任意の適切なデバイスであることが可能である。例えば、電源134は、1つまたは複数の乾電池(例えば、ニッケルカドミウム(NiCd)、ニッケル亜鉛(NiZn)、ニッケル水素(NiMH)、リチウムイオン(Li-ion)など)、太陽電池、燃料電池などを含むことが可能である。
プロセッサ118は、GPSチップセット136に結合されることも可能であり、GPSチップセット136は、WTRU102の現在のロケーションに関するロケーション情報(例えば、経度および緯度)を提供するように構成されることが可能である。WTRU102は、GPSチップセット136からの情報に加えて、またはその情報の代わりに、基地局(例えば、基地局114a、114b)からエアインターフェース116を介してロケーション情報を受信すること、および/または2つ以上の近隣の基地局から受信される信号のタイミングに基づいてそのロケーションを決定することが可能である。WTRU102は、実施形態との整合性を保持しながら、任意の適切なロケーション決定方法を通じてロケーション情報を取得することが可能であるということが理解されるであろう。
プロセッサ118は、他の周辺機器138にさらに結合されることが可能であり、他の周辺機器138は、さらなる特徴、機能性、および/または有線接続もしくは無線接続を提供する1つまたは複数のソフトウェアモジュールおよび/またはハードウェアモジュールを含むことが可能である。例えば、周辺機器138は、加速度計、eコンパス、衛星トランシーバ、デジタルカメラ(写真および/またはビデオ用)、USBポート、振動デバイス、テレビジョントランシーバ、ハンドフリーヘッドセット、Bluetooth(登録商標)モジュール、周波数変調(FM)ラジオユニット、デジタルミュージックプレーヤ、メディアプレーヤ、ビデオゲームプレーヤモジュール、インターネットブラウザ、仮想現実および/または拡張現実(VR/AR)デバイス、アクティビティートラッカーなどを含むことが可能である。周辺機器138は、1つまたは複数のセンサを含むことが可能であり、それらのセンサは、ジャイロスコープ、加速度計、ホール効果センサ、磁力計、方位センサ、近接度センサ、温度センサ、時間センサ、ジオロケーションセンサ、高度計、光センサ、タッチセンサ、磁力計、バロメータ、ジェスチャーセンサ、バイオメトリックセンサおよび/または湿度センサのうちの1つまたは複数であることが可能である。
WTRU102は、(例えば、UL(例えば、送信用)およびダウンリンク(例えば、受信用)の両方に関して特定のサブフレームに関連付けられている)信号のうちのいくつかまたは全ての送信および受信が並列および/または同時であることが可能である全二重無線を含むことが可能である。全二重無線は、ハードウェア(例えば、チョーク)、またはプロセッサを介した(例えば、別個のプロセッサ(図示せず)もしくはプロセッサ118を介した)信号処理を介して自己干渉を減らすおよび/または実質的になくすための干渉管理ユニットを含むことが可能である。実施形態においては、WRTU102は、(例えば、UL(例えば、送信用)またはダウンリンク(例えば、受信用)のいずれかに関して特定のサブフレームに関連付けられている)信号のうちのいくつかまたは全ての送信および受信のための半二重無線を含むことが可能である。
図16Cは、実施形態によるRAN104およびCN106を示すシステム図である。上述されているように、RAN104は、エアインターフェース116を介してWTRU102a、102b、102cと通信するためにE-UTRA無線技術を採用することが可能である。RAN104は、CN106と通信状態にあることも可能である。
RAN104は、eNode-B160a、160b、160cを含むことが可能であるが、RAN104は、実施形態との整合性を保持しながら、任意の数のeNode-Bを含むことが可能であるということが理解されるであろう。eNode-B160a、160b、160cはそれぞれ、エアインターフェース116を介してWTRU102a、102b、102cと通信するために1つまたは複数のトランシーバを含むことが可能である。一実施形態においては、eNode-B160a、160b、160cは、MIMO技術を実施することが可能である。従って、eNode-B160aは、例えば、WTRU102aに無線信号を送信するために、および/またはWTRU102aから無線信号を受信するために、複数のアンテナを使用することが可能である。
eNode-B160a、160b、160cのそれぞれは、特定のセル(図示せず)に関連付けられることが可能であり、無線リソース管理の決定、ハンドオーバーの決定、ULおよび/またはDLにおけるユーザのスケジューリングなどを取り扱うように構成されることが可能である。図16Cにおいて示されているように、eNode-B160a、160b、160cは、X2インターフェースを介して互いに通信することが可能である。
図16Cにおいて示されているCN106は、モビリティー管理エンティティー(MME)162、サービングゲートウェイ(SGW)164、およびパケットデータネットワーク(PDN)ゲートウェイ(またはPGW)166を含むことが可能である。上述の要素のうちのそれぞれは、CN106の一部として示されているが、これらの要素のうちのいずれかが、CNオペレータ以外のエンティティーによって所有および/または運営されることが可能であるということが理解されるであろう。
MME162は、S1インターフェースを介してRAN104におけるeNode-B162a、162b、162cのそれぞれに接続されることが可能であり、制御ノードとしての役割を果たすことが可能である。例えば、MME162は、WTRU102a、102b、102cのユーザを認証すること、ベアラのアクティブ化/非アクティブ化、WTRU102a、102b、102cの最初の接続中に特定のサービングゲートウェイを選択することなどを担当することが可能である。MME162は、RAN104と、GSMおよび/またはWCDMAなどのその他の無線技術を採用しているその他のRAN(図示せず)との間における切り替えを行うための制御プレーン機能を提供することが可能である。
SGW164は、S1インターフェースを介してRAN104におけるeNode B160a、160b、160cのそれぞれに接続されることが可能である。SGW164は一般に、ユーザデータパケットをWTRU102a、102b、102cへ/WTRU102a、102b、102cからルーティングおよび転送することが可能である。SGW164は、その他の機能、例えば、eNode B間でのハンドオーバー中にユーザプレーンを固定すること、WTRU102a、102b、102cにとってDLデータが利用可能である場合にページングをトリガーすること、WTRU102a、102b、102cのコンテキストを管理および格納することなどを実行することが可能である。
SGW164は、PGW166に接続されることが可能であり、PGW166は、WTRU102a、102b、102cと、IP対応デバイスとの間における通信を容易にするために、インターネット110などのパケット交換ネットワークへのアクセスをWTRU102a、102b、102cに提供することが可能である。
CN106は、他のネットワークとの通信を容易にすることが可能である。例えば、CN106は、WTRU102a、102b、102cと、従来の地上通信線通信デバイスとの間における通信を容易にするために、PSTN108などの回線交換ネットワークへのアクセスをWTRU102a、102b、102cに提供することが可能である。例えば、CN106は、CN106とPSTN108との間におけるインターフェースとしての役割を果たすIPゲートウェイ(例えば、IPマルチメディアサブシステム(IMS)サーバ)を含むことが可能であり、またはそうしたIPゲートウェイと通信することが可能である。加えて、CN106は、その他のネットワーク112へのアクセスをWTRU102a、102b、102cに提供することが可能であり、その他のネットワーク112は、その他のサービスプロバイダによって所有および/または運営されているその他の有線ネットワークおよび/または無線ネットワークを含むことが可能である。
WTRUは、図16A~図16Dにおいて無線端末として記述されているが、特定の代表的な実施形態においては、そのような端末は、通信ネットワークとの有線通信インターフェースを(例えば、一時的にまたは永久に)使用することが可能であると想定される。
代表的な実施形態においては、その他のネットワーク112は、WLANであることが可能である。
インフラストラクチャーベーシックサービスセット(BSS)モードにおけるWLANは、BSS用のアクセスポイント(AP)と、APに関連付けられている1つまたは複数のステーション(STA)とを有することが可能である。APは、BSSとの間で出入りするトラフィックを搬送する配信システム(DS)または別のタイプの有線/無線ネットワークへのアクセスまたはインターフェースを有することが可能である。BSSの外部から生じるSTAへのトラフィックは、APを通じて着信することが可能であり、STAへ配信されることが可能である。STAからBSSの外部の宛先へ生じるトラフィックは、APへ送られて、それぞれの宛先へ配信されることが可能である。BSS内のSTA間におけるトラフィックは、例えば、ソースSTAがトラフィックをAPへ送ることが可能であり、APがそのトラフィックを宛先STAへ配信することが可能である場合には、APを通じて送られることが可能である。BSS内のSTA間におけるトラフィックは、ピアツーピアトラフィックとみなされること、および/または呼ばれることが可能である。ピアツーピアトラフィックは、直接リンクセットアップ(DLS)を用いてソースSTAと宛先STAとの間において(例えば、間において直接)送られることが可能である。特定の代表的な実施形態においては、DLSは、802.11e DLSまたは802.11zトンネルドDLS(TDLS)を使用することが可能である。独立BSS(IBSS)モードを使用するWLANは、APを有さないことが可能であり、IBSS内のまたはIBSSを使用するSTA(例えば、STAのうちの全て)は、互いに直接通信することが可能である。通信のIBSSモードは、本明細書においては、時には通信の「アドホック」モードと呼ばれることが可能である。
オペレーションの802.11acインフラストラクチャーモードまたはオペレーションの同様のモードを使用する場合には、APは、プライマリーチャネルなどの固定されたチャネル上でビーコンを送信することが可能である。プライマリーチャネルは、固定された幅(例えば、20MHzの幅の帯域幅)またはシグナリングを介した動的に設定される幅であることが可能である。プライマリーチャネルは、BSSの動作チャネルであることが可能であり、APとの接続を確立するためにSTAによって使用されてよい。特定の代表的な実施形態においては、例えば802.11システムにおいて、搬送波感知多重アクセス/衝突回避方式(CSMA/CA)が実施され得る。CSMA/CAに関しては、APを含むSTA(例えば、あらゆるSTA)は、プライマリーチャネルを感知することが可能である。特定のSTAによってプライマリーチャネルが感知/検知され、および/またはビジーであると決定された場合には、その特定のSTAは、引き下がることが可能である。1つのSTA(例えば、1つのステーションのみ)が、所与のBSSにおいて任意の所与の時点で送信を行うことが可能である。
高スループット(HT)STAは、例えば、プライマリー20MHzチャネルと、隣り合っているまたは隣り合っていない20MHzのチャネルとの組合せを介して、通信のために40MHzの幅のチャネルを使用して、40MHzの幅のチャネルを形成することが可能である。
超高スループット(VHT)STAは、20MHz、40MHz、80MHz、および/または160MHzの幅のチャネルをサポートすることが可能である。40MHzのチャネル、および/または80MHzのチャネルは、隣接している20MHzのチャネルを組み合わせることによって形成されることが可能である。160MHzのチャネルは、8つの隣接している20MHzのチャネルを組み合わせることによって、または2つの隣接していない80MHzのチャネルを組み合わせること(これは、80+80構成と呼ばれることが可能である)によって形成されることが可能である。80+80構成に関しては、データは、チャネルエンコーディングの後に、セグメントパーサに通されることが可能であり、セグメントパーサは、そのデータを2つのストリームへと分割することが可能である。逆高速フーリエ変換(IFFT)処理、および時間ドメイン処理が、それぞれのストリーム上で別々に行われることが可能である。それらのストリームは、2つの80MHzのチャネル上にマップされることが可能であり、データは、送信側STAによって送信されることが可能である。受信側STAの受信機においては、80+80構成に関する上述のオペレーションは、逆にされることが可能であり、組み合わされたデータは、媒体アクセス制御(MAC)へ送られることが可能である。
オペレーションのサブ1GHzモードが、802.11afおよび802.11ahによってサポートされている。チャネル動作帯域幅、およびキャリアは、802.11afおよび802.11ahにおいては、802.11nおよび802.11acにおいて使用されるものに比べて低減される。802.11afは、TVホワイトスペース(TVWS)スペクトルにおける5MHz、10MHz、および20MHzの帯域幅をサポートし、802.11ahは、非TVWSスペクトルを使用する1MHz、2MHz、4MHz、8MHz、および16MHzの帯域幅をサポートする。代表的な実施形態によれば、802.11ahは、マクロカバレッジエリアにおけるMTCデバイスなど、メータタイプ制御/マシンタイプ通信をサポートすることが可能である。MTCデバイスは、特定の能力、例えば、特定のおよび/または限られた帯域幅に関するサポートを(例えば、それらに関するサポートのみを)含む限られた能力を有することが可能である。MTCデバイスは、(例えば、非常に長いバッテリー寿命を保持するために)閾値を上回るバッテリー寿命を有するバッテリーを含むことが可能である。
複数のチャネル、およびチャネル帯域幅、例えば、802.11n、802.11ac、802.11af、および802.11ahをサポートすることが可能であるWLANシステムは、プライマリーチャネルとして指定されることが可能であるチャネルを含む。プライマリーチャネルは、BSSにおける全てのSTAによってサポートされている最大の共通動作帯域幅に等しい帯域幅を有することが可能である。プライマリーチャネルの帯域幅は、BSSにおいて動作している全てのSTAのうちで、最小の帯域幅動作モードをサポートしているSTAによって設定および/または制限されることが可能である。802.11ahの例においては、たとえAP、およびBSSにおけるその他のSTAが、2MHz、4MHz、8MHz、16MHz、および/またはその他のチャネル帯域幅動作モードをサポートしても、1MHzモードをサポートする(例えば、サポートするだけである)STA(例えば、MTCタイプデバイス)に関しては、プライマリーチャネルは、1MHzの幅であることが可能である。キャリア感知および/またはネットワーク割り当てベクトル(NAV)設定は、プライマリーチャネルのステータスに依存する場合がある。例えば(1MHzの動作モードだけをサポートする)STAがAPへの送信を行っていることに起因して、プライマリーチャネルがビジーである場合には、利用可能な周波数帯域の全体は、たとえそれらの周波数帯域の大部分がアイドルのままであって利用可能である可能性があっても、ビジーとみなされる場合がある。
米国においては、802.11ahによって使用されてよい利用可能な周波数帯域は、902MHzから928MHzまでである。韓国においては、利用可能な周波数帯域は、917.5MHzから923.5MHzまでである。日本においては、利用可能な周波数帯域は、916.5MHzから927.5MHzまでである。802.11ahにとって利用可能な合計の帯域幅は、国コードに応じて6MHzから26MHzである。
図16Dは、実施形態によるRAN113およびCN115を示すシステム図である。上述されているように、RAN113は、エアインターフェース116を介してWTRU102a、102b、102cと通信するためにNR無線技術を採用することが可能である。RAN113は、CN115と通信状態にあることも可能である。
RAN113は、gNB180a、180b、180cを含むことが可能であるが、RAN113は、実施形態との整合性を保持しながら、任意の数のgNBを含むことが可能であるということが理解されるであろう。gNB180a、180b、180cはそれぞれ、エアインターフェース116を介してWTRU102a、102b、102cと通信するために1つまたは複数のトランシーバを含むことが可能である。一実施形態においては、gNB180a、180b、180cは、MIMO技術を実施することが可能である。例えば、gNB180a、180bは、gNB180a、180b、180cへ信号を送信するために、および/またはgNB180a、180b、180cから信号を受信するために、ビームフォーミングを利用することが可能である。従って、gNB180aは、例えば、WTRU102aへ無線信号を送信するために、および/またはWTRU102aから無線信号を受信するために、複数のアンテナを使用することが可能である。実施形態においては、gNB180a、180b、180cは、キャリアアグリゲーション技術を実施することが可能である。例えば、gNB180aは、複数のコンポーネントキャリアをWTRU102a(図示せず)へ送信することが可能である。これらのコンポーネントキャリアのサブセットが、ライセンス供与されていないスペクトル上にあることが可能であり、その一方で残りのコンポーネントキャリアが、ライセンス供与されているスペクトル上にあることが可能である。実施形態においては、gNB180a、180b、180cは、協調マルチポイント(CoMP)技術を実施することが可能である。例えば、WTRU102aは、gNB180aおよびgNB180b(および/またはgNB180c)から協調送信を受信することが可能である。
WTRU102a、102b、102cは、スケーラブルなニューメロロジーに関連付けられている送信を使用して、gNB180a、180b、180cと通信することが可能である。例えば、OFDMシンボルスペーシングおよび/またはOFDMサブキャリアスペーシングは、別々の送信、別々のセル、および/または無線送信スペクトルの別々の部分ごとに異なることが可能である。WTRU102a、102b、102cは、様々なまたはスケーラブルな長さのサブフレームまたは送信時間間隔(TTI)(例えば、様々な数のOFDMシンボルおよび/または持続する様々な長さの絶対時間を含む)を使用して、gNB180a、180b、180cと通信することが可能である。
gNB180a、180b、180cは、スタンドアロンの構成および/またはスタンドアロンではない構成でWTRU102a、102b、102cと通信するように構成されることが可能である。スタンドアロンの構成においては、WTRU102a、102b、102cは、その他のRAN(例えば、eNode-B160a、160b、160cなど)にアクセスすることも伴わずに、gNB180a、180b、180cと通信することが可能である。スタンドアロンの構成においては、WTRU102a、102b、102cは、gNB180a、180b、180cのうちの1つまたは複数をモビリティーアンカーポイントとして利用することが可能である。スタンドアロンの構成においては、WTRU102a、102b、102cは、ライセンス供与されていないバンドにおける信号を使用してgNB180a、180b、180cと通信することが可能である。スタンドアロンではない構成においては、WTRU102a、102b、102cは、gNB180a、180b、180cと通信する/それらに接続する一方で、eNode-B160a、160b、160cなどの別のRANと通信すること/それらに接続することも可能である。例えば、WTRU102a、102b、102cは、DC原理を実施して、1つまたは複数のgNB180a、180b、180cおよび1つまたは複数のeNode-B160a、160b、160cと実質的に同時に通信することが可能である。スタンドアロンではない構成においては、eNode-B160a、160b、160cは、WTRU102a、102b、102cのためのモビリティーアンカーとしての役割を果たすことが可能であり、gNB180a、180b、180cは、WTRU102a、102b、102cにサービス提供するためのさらなるカバレッジおよび/またはスループットを提供することが可能である。
gNB180a、180b、180cのそれぞれは、特定のセル(図示せず)に関連付けられることが可能であり、無線リソース管理の決定、ハンドオーバーの決定、ULおよび/またはDLにおけるユーザのスケジューリング、ネットワークスライシングのサポート、デュアル接続、NRとE-UTRAとの間におけるインターワーキング、ユーザプレーン機能(UPF)184a、184bへのユーザプレーンデータのルーティング、アクセスおよびモビリティー管理機能(AMF)182a、182bへの制御プレーン情報のルーティングなどを取り扱うように構成されることが可能である。図16Dにおいて示されているように、gNB180a、180b、180cは、Xnインターフェースを介して互いに通信することが可能である。
図16Dにおいて示されているCN115は、少なくとも1つのAMF182a、182b、少なくとも1つのUPF184a、184b、少なくとも1つのセッション管理機能(SMF)183a、183b、および場合よってはデータネットワーク(DN)185a、185bを含むことが可能である。上述の要素のうちのそれぞれは、CN115の一部として示されているが、これらの要素のうちのいずれかが、CNオペレータ以外のエンティティーによって所有および/または運営されることが可能であるということが理解されるであろう。
AMF182a、182bは、N2インターフェースを介してRAN113におけるgNB180a、180b、180cのうちの1つまたは複数に接続されることが可能であり、制御ノードとしての役割を果たすことが可能である。例えば、AMF182a、182bは、WTRU102a、102b、102cのユーザを認証すること、ネットワークスライシングに関するサポート(例えば、別々の要件を伴う別々のPDUセッションを取り扱うこと)、特定のSMF183a、183bを選択すること、登録エリアの管理、NASシグナリングの終了、モビリティー管理などを担当することが可能である。ネットワークスライシングは、WTRU102a、102b、102cによって利用されているサービスのタイプに基づいてWTRU102a、102b、102cのためにCNサポートをカスタマイズするためにAMF182a、182bによって使用されてよい。例えば、超高信頼低遅延(URLLC)アクセスに依存するサービス、拡張大容量モバイルブロードバンド(eMBB)アクセスに依存するサービス、マシンタイプ通信(MTC)アクセスに関するサービス等などの別々の使用事例に関して、別々のネットワークスライスが確立されることが可能である。AMF162は、RAN113と、LTE、LTE-A、LTE-A Proなどのその他の無線技術、および/またはWiFiなどの非3GPPアクセス技術を採用しているその他のRAN(図示せず)との間において切り替えを行うための制御プレーン機能を提供することが可能である。
SMF183a、183bは、N11インターフェースを介してCN115におけるAMF182a、182bに接続されることが可能である。SMF183a、183bは、N4インターフェースを介してCN115におけるUPF184a、184bに接続されることも可能である。SMF183a、183bは、UPF184a、184bを選択および制御すること、並びにUPF184a、184bを通るトラフィックのルーティングを構成することが可能である。SMF183a、183bは、その他の機能、例えば、UE IPアドレスを管理することおよび割り当てること、PDUセッションを管理すること、ポリシー施行およびQoSを制御すること、ダウンリンクデータ通知を提供することなどを実行することが可能である。PDUセッションタイプは、IPベース、非IPベース、イーサネットベースなどであることが可能である。
UPF184a、184bは、N3インターフェースを介してRAN113におけるgNB180a、180b、180cのうちの1つまたは複数に接続されることが可能であり、N3インターフェースは、WTRU102a、102b、102cとIP対応デバイスとの間における通信を容易にするために、インターネット110などのパケット交換ネットワークへのアクセスをWTRU102a、102b、102cに提供することが可能である。UPF184、184bは、その他の機能、例えば、パケットをルーティングおよび転送すること、ユーザプレーンポリシーを施行すること、マルチホームPDUセッションをサポートすること、ユーザプレーンQoSを取り扱うこと、ダウンリンクパケットをバッファリングすること、モビリティーアンカリングを提供することなどを実行することが可能である。
CN115は、その他のネットワークとの通信を容易にすることが可能である。例えば、CN115は、CN115とPSTN108との間におけるインターフェースとしての役割を果たすIPゲートウェイ(例えば、IPマルチメディアサブシステム(IMS)サーバ)を含むことが可能であり、またはそうしたIPゲートウェイと通信することが可能である。加えて、CN115は、その他のネットワーク112へのアクセスをWTRU102a、102b、102cに提供することが可能であり、その他のネットワーク112は、その他のサービスプロバイダによって所有および/または運営されているその他の有線ネットワークおよび/または無線ネットワークを含むことが可能である。一実施形態においては、WTRU102a、102b、102cは、UPF184a、184bへのN3インターフェース、およびUPF184a、184bとローカルデータネットワーク(DN)185a、185bとの間におけるN6インターフェースを介して、UPF184a、184bを通じてDN185a、185bに接続されることが可能である。
図16A~図16D、および図16A~図16Dの対応する説明を考慮すると、WTRU102a~d、基地局114a~b、eNode-B160a~c、MME162、SGW164、PGW166、gNB180a~c、AMF182a~b、UPF184a~b、SMF183a~b、DN185a~b、および/または本明細書において記述されているその他の任意のデバイスのうちの1つまたは複数に関連して本明細書において記述されている機能のうちの1つもしくは複数または全ては、1つまたは複数のエミュレーションデバイス(図示せず)によって実行されることが可能である。エミュレーションデバイスは、本明細書において記述されている機能のうちの1つもしくは複数または全てをエミュレートするように構成されている1つまたは複数のデバイスであることが可能である。例えば、エミュレーションデバイスは、その他のデバイスをテストするために、並びに/またはネットワークおよび/もしくはWTRU機能をシミュレートするために使用されてよい。
エミュレーションデバイスは、ラボ環境において、および/またはオペレータネットワーク環境においてその他のデバイスの1つまたは複数のテストを実施するように設計されることが可能である。例えば、1つまたは複数のエミュレーションデバイスは、有線および/または無線の通信ネットワーク内のその他のデバイスをテストするためにその通信ネットワークの一部として全体的にまたは部分的に実装および/または展開されている間に、1つもしくは複数のまたは全ての機能を実行することが可能である。1つまたは複数のエミュレーションデバイスは、有線および/または無線の通信ネットワークの一部として一時的に実装/展開されている間に、1つもしくは複数のまたは全ての機能を実行することが可能である。エミュレーションデバイスは、テスティングの目的のために別のデバイスに直接結合されることが可能であり、および/またはオーバージエアー無線通信を使用してテスティングを実行することが可能である。
1つまたは複数のエミュレーションデバイスは、有線および/または無線の通信ネットワークの一部として実装/展開されていない間に、全ての機能を含む1つまたは複数の機能を実行することが可能である。例えば、エミュレーションデバイスは、1つまたは複数のコンポーネントのテスティングを実施するために、テスティングラボラトリー並びに/または展開されていない(例えば、テスティングの)有線および/もしくは無線の通信ネットワークにおけるテスティングシナリオにおいて利用されることが可能である。1つまたは複数のエミュレーションデバイスは、テスト機器であることが可能である。直接RF結合、および/または、RF回路(例えば、1つもしくは複数のアンテナを含むことが可能である)を介した無線通信が、エミュレーションデバイスによってデータを送信および/または受信するために使用されてよい。
トラッキングされるビデオズーミングのためのシステム、方法、および手段が開示されてきた。クライアント側(オンデバイス)またはローカルトラッキングが、ユーザがトラッキングおよびズーミングのために任意のオブジェクトを選択することを可能にすることができる。例えば、クライアント側トラッキングに加えて、またはそれに対する代替として、トラッキングメタデータが提供されてよい(例えば、ビデオブロードキャストが、ビデオフレームにおけるオブジェクトのロケーションを記述するメタデータを含むことが可能である)。メタデータは、トラッキングされているオブジェクトに関する強化された情報を含むことが可能である。ユーザは、(例えば、PIPにおいて)示されているオブジェクトと対話して、さらなる情報を入手することが可能である。(例えば、PIPにおける)ビデオズーミングが、固定されたロケーション、および/または(例えば、トラッキングされているオブジェクトとともに移動する)浮動するロケーションにおいて提供されてよい。複数のオブジェクトが、(例えば、複数のPIPにおいて)同時にトラッキングおよびズームされることが可能である。ユーザは、(例えば、PIPにおいてトラッキングおよびズームされているオブジェクトを切り替えるために)複数のトラッキングされているオブジェクトを繰り返し表示して、それらの間で選択を行うことが可能である。PIPズームは、進んだ機能、例えば、複数のPIPウィンドウを結合すること、PIPウィンドウを分割すること、一時停止およびズーム、時間遅延ズーム、PIPおよびソーシャルメディア、並びにPIPを再配置することを伴って提供されてよい。
特徴および要素が特定の組合せで上述されているが、それぞれの特徴または要素は、単独で、またはその他の特徴および要素との任意の組合せで使用されてよいということを当技術分野における標準的な技術者なら理解するであろう。加えて、本明細書において記述されている方法は、コンピュータまたはプロセッサによって実行するためにコンピュータ可読媒体に組み込まれているコンピュータプログラム、ソフトウェア、またはファームウェアで実施され得る。コンピュータ可読メディアの例は、(有線接続または無線接続を介して送信される)電子信号、およびコンピュータ可読記憶媒体を含む。コンピュータ可読記憶媒体の例は、ROM、RAM、レジスタ、キャッシュメモリ、半導体メモリデバイス、内蔵ハードディスクおよび取り外し可能ディスクなどの磁気メディア、光磁気メディア、並びに、CD-ROMディスクおよびデジタル多用途ディスク(DVD)などの光メディアを含むが、それらには限定されない。WTRU、UE、端末、基地局、RNC、または任意のホストコンピュータにおいて使用するための無線周波数トランシーバを実施するために、ソフトウェアに関連付けられているプロセッサが使用されてよい。

Claims (1)

  1. 動的なピクチャーインピクチャーを表示する方法であって、
    ビデオコンテンツをサーバから受信することと、
    オブジェクト認識またはメタデータに基づいてビデオコンテンツの第1のフレーム内のオブジェクトの第1の位置を判定することと、
    前記オブジェクトの前記第1の位置に基づいて第1のウィンドウの位置を判定することであって、前記第1のウィンドウは、前記第1のフレームの視覚的に拡大された部分を備え、前記第1のフレームの視覚的に拡大された部分は、オブジェクトを備える、ことと、
    前記第1のフレーム内の前記第1のウィンドウを表示装置上に表示することと、
    オブジェクト認識またはメタデータに基づいて前記ビデオコンテンツの第2のフレーム内の前記オブジェクトの第2の位置を判定することであって、前記オブジェクトの前記第2の位置は、前記オブジェクトの前記第1の位置とは異なる、ことと、
    前記オブジェクトの前記第2の位置に基づいて第2のウィンドウの位置を判定することであって、前記第2のウィンドウは、前記第2のフレームの視覚的に拡大された部分を備え、前記第2のフレームの視覚的に拡大された部分は、前記オブジェクトを備える、ことと、
    前記第2のフレーム内の前記第2のウィンドウを前記表示装置上に表示することと
    を備える方法。
JP2023174574A 2017-08-30 2023-10-06 トラッキングされるビデオズーミング Withdrawn JP2023179635A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201762552032P 2017-08-30 2017-08-30
US62/552,032 2017-08-30
PCT/US2018/047731 WO2019046095A1 (en) 2017-08-30 2018-08-23 VIDEO ZOOM FOLLOW
JP2020511211A JP7405738B2 (ja) 2017-08-30 2018-08-23 トラッキングされるビデオズーミング

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020511211A Division JP7405738B2 (ja) 2017-08-30 2018-08-23 トラッキングされるビデオズーミング

Publications (1)

Publication Number Publication Date
JP2023179635A true JP2023179635A (ja) 2023-12-19

Family

ID=63490744

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020511211A Active JP7405738B2 (ja) 2017-08-30 2018-08-23 トラッキングされるビデオズーミング
JP2023174574A Withdrawn JP2023179635A (ja) 2017-08-30 2023-10-06 トラッキングされるビデオズーミング

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020511211A Active JP7405738B2 (ja) 2017-08-30 2018-08-23 トラッキングされるビデオズーミング

Country Status (5)

Country Link
US (1) US20200351543A1 (ja)
EP (1) EP3677042A1 (ja)
JP (2) JP7405738B2 (ja)
CN (1) CN111052753A (ja)
WO (1) WO2019046095A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190253618A1 (en) * 2015-12-28 2019-08-15 Nec Corporation Information processing apparatus, control method, and program
US11507619B2 (en) 2018-05-21 2022-11-22 Hisense Visual Technology Co., Ltd. Display apparatus with intelligent user interface
US10965985B2 (en) * 2018-05-21 2021-03-30 Hisense Visual Technology Co., Ltd. Display apparatus with intelligent user interface
US11908340B2 (en) * 2019-07-24 2024-02-20 Arris Enterprises Llc Magnification enhancement of video for visually impaired viewers
US10970835B1 (en) * 2020-01-13 2021-04-06 Capital One Services, Llc Visualization of damage on images
CN113597754A (zh) * 2020-03-02 2021-11-02 深圳市大疆创新科技有限公司 比赛画面的获取方法和装置及拍摄装置的控制方法和装置
CN112044086B (zh) * 2020-08-31 2023-09-26 广州玖的数码科技有限公司 一种vr游戏播放方法和存储介质
US11985389B2 (en) * 2021-07-12 2024-05-14 Avago Technologies International Sales Pte. Limited Object or region of interest video processing system and method
US11862126B2 (en) * 2022-02-10 2024-01-02 Hewlett-Packard Development Company, L.P. Inset window alterations
CN116112781B (zh) * 2022-05-25 2023-12-01 荣耀终端有限公司 录像方法、装置及存储介质
CN116055861B (zh) * 2022-05-30 2023-10-20 荣耀终端有限公司 一种视频编辑方法和电子设备

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0965225A (ja) * 1995-08-24 1997-03-07 Hitachi Ltd テレビジョン装置及びその表示方法
US20060045381A1 (en) * 2004-08-31 2006-03-02 Sanyo Electric Co., Ltd. Image processing apparatus, shooting apparatus and image display apparatus
JP4578197B2 (ja) * 2004-09-29 2010-11-10 三洋電機株式会社 画像表示装置
FR2875662A1 (fr) * 2004-09-17 2006-03-24 Thomson Licensing Sa Procede de visualisation de document audiovisuels au niveau d'un recepteur, et recepteur apte a les visualiser
CN100515036C (zh) * 2004-10-10 2009-07-15 倚强科技股份有限公司 智能型图像处理闭路电视摄像机装置及其物体追踪方法
CN100496122C (zh) * 2005-11-03 2009-06-03 中国科学院自动化研究所 利用单个摄像机进行主从视频跟踪的方法
JP2008048364A (ja) * 2006-08-21 2008-02-28 Toshiba Corp 画像表示装置
JP4915655B2 (ja) * 2006-10-27 2012-04-11 パナソニック株式会社 自動追尾装置
JP2009069185A (ja) * 2007-09-10 2009-04-02 Toshiba Corp 映像処理装置及び映像処理方法
KR101009881B1 (ko) * 2008-07-30 2011-01-19 삼성전자주식회사 재생되는 영상의 타겟 영역을 확대 디스플레이하기 위한장치 및 방법
JP4591586B2 (ja) * 2008-09-22 2010-12-01 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
CN102473291B (zh) * 2009-07-20 2014-08-20 汤姆森特许公司 体育视频中的远视场景的检测和自适应视频处理方法
CN102014248B (zh) * 2009-09-04 2012-07-04 华晶科技股份有限公司 自动聚焦方法及模块和应用该方法的影像撷取装置
US8918737B2 (en) * 2010-04-29 2014-12-23 Microsoft Corporation Zoom display navigation
US8331760B2 (en) * 2010-06-02 2012-12-11 Microsoft Corporation Adaptive video zoom
US20160057508A1 (en) * 2012-05-24 2016-02-25 Video Grid Central Llc Interactive overlay for digital video
KR101951228B1 (ko) * 2012-10-10 2019-02-22 삼성전자주식회사 멀티 디스플레이 장치 및 그 촬상 방법
TWI480795B (zh) * 2012-11-19 2015-04-11 First Int Computer Inc 影像監視與分析方法
CN103886322A (zh) * 2012-12-20 2014-06-25 中山大学深圳研究院 一种基于SVM和Mean-Shift的视频目标跟踪方法
US9973722B2 (en) * 2013-08-27 2018-05-15 Qualcomm Incorporated Systems, devices and methods for displaying pictures in a picture
US9589595B2 (en) * 2013-12-20 2017-03-07 Qualcomm Incorporated Selection and tracking of objects for display partitioning and clustering of video frames
US9626084B2 (en) * 2014-03-21 2017-04-18 Amazon Technologies, Inc. Object tracking in zoomed video
KR102146858B1 (ko) * 2014-06-03 2020-08-21 삼성전자주식회사 촬영 장치 및 촬영 장치의 비디오 생성방법
EP3162074A1 (en) * 2014-06-27 2017-05-03 Koninklijke KPN N.V. Determining a region of interest on the basis of a hevc-tiled video stream
US9851868B2 (en) * 2014-07-23 2017-12-26 Google Llc Multi-story visual experience
KR102396036B1 (ko) * 2015-05-18 2022-05-10 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
US20180270515A1 (en) * 2015-10-01 2018-09-20 Vid Scale, Inc. Methods and systems for client interpretation and presentation of zoom-coded content
KR102474244B1 (ko) * 2015-11-20 2022-12-06 삼성전자주식회사 영상 표시 장치 및 그 동작방법
US9681165B1 (en) * 2016-04-11 2017-06-13 Rovi Guides, Inc. Methods and systems for enhancing media viewing experiences on multiple devices
US10313417B2 (en) * 2016-04-18 2019-06-04 Qualcomm Incorporated Methods and systems for auto-zoom based adaptive video streaming
CN106204653B (zh) * 2016-07-13 2019-04-30 浙江宇视科技有限公司 一种监控跟踪方法及装置
CN106384359B (zh) * 2016-09-23 2019-06-25 青岛海信电器股份有限公司 运动目标跟踪方法和电视
CN107066990B (zh) * 2017-05-04 2019-10-11 厦门美图之家科技有限公司 一种目标跟踪方法及移动设备

Also Published As

Publication number Publication date
CN111052753A (zh) 2020-04-21
US20200351543A1 (en) 2020-11-05
JP2020532902A (ja) 2020-11-12
EP3677042A1 (en) 2020-07-08
RU2020111070A3 (ja) 2022-03-29
RU2020111070A (ru) 2021-09-17
JP7405738B2 (ja) 2023-12-26
WO2019046095A1 (en) 2019-03-07

Similar Documents

Publication Publication Date Title
JP7405738B2 (ja) トラッキングされるビデオズーミング
US11736675B2 (en) Viewpoint metadata for omnidirectional video
US11974001B2 (en) Secondary content insertion in 360-degree video
US20220377385A1 (en) Handling face discontinuities in 360-degree video coding
JP6941694B2 (ja) 次世代ネットワークを介した360度ビデオ配信
US20200322632A1 (en) Face discontinuity filtering for 360-degree video coding
CN112219406B (zh) 用于全向视频的等待时间报告方法和系统
JP2022501905A (ja) 360度ビデオコード化のためのサンプル導出
JP7249948B2 (ja) ジオメトリパディングに基づいた360度ビデオのための予測符号化
WO2019089382A1 (en) 360-degree video coding using face-based geometry padding
KR20210106996A (ko) 타일 그룹 분할
JP2023536725A (ja) ジオメトリベースのポイントクラウドデータのためのタイルトラック
WO2021211665A1 (en) Partial access support in isobmff containers for video-based point cloud streams
US11917127B2 (en) Monitoring of video streaming events
RU2782451C2 (ru) Масштабирование отслеживаемого видео
US20230276053A1 (en) Adaptive streaming of geometry-based point clouds
WO2023242431A1 (en) Degree-of-freedom control in xr experiences
WO2024006279A1 (en) Signaling parameter sets for geometry-based point cloud streams
WO2023114464A1 (en) Viewport-based and region-of-interest-based retrieval of media objects in scene rendering engines

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231106

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231106

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20231219