JP2022546081A - パーソナルデバイスによって支援されるtvストリーミング及びレンダリングコンテンツの中心窩最適化 - Google Patents

パーソナルデバイスによって支援されるtvストリーミング及びレンダリングコンテンツの中心窩最適化 Download PDF

Info

Publication number
JP2022546081A
JP2022546081A JP2022513488A JP2022513488A JP2022546081A JP 2022546081 A JP2022546081 A JP 2022546081A JP 2022513488 A JP2022513488 A JP 2022513488A JP 2022513488 A JP2022513488 A JP 2022513488A JP 2022546081 A JP2022546081 A JP 2022546081A
Authority
JP
Japan
Prior art keywords
display
video
roi
server
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022513488A
Other languages
English (en)
Other versions
JP7339435B2 (ja
Inventor
アール. スタフォード、ジェフリー
裕 横川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2022546081A publication Critical patent/JP2022546081A/ja
Application granted granted Critical
Publication of JP7339435B2 publication Critical patent/JP7339435B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】携帯電話等のモバイルデバイス(210)が、TV等のディスプレイデバイス(12)上のカメラによって提供されるよりも近い範囲で、視標追跡のために近くのユーザを画像化し(406)、ディスプレイ上に提示されているビデオをストリーミングするサーバ(52)に視標追跡データを送信する(412)のに使用される。【解決手段】視標追跡データがサーバによって使用されて(502)、ビデオ内の関心領域(ROI)が特定される。このROIは、ユーザが見ている画像内のROIの品質を維持しながらもビデオゲーム画像の効率的な圧縮を促進するために、ROI外の領域よりも高度に圧縮される(504)。【選択図】図1

Description

本出願は、一般に、コンピュータ技術に必然的に根差し、具体的な技術的改善をもたらす、技術的に独創的で非定型的な解決策に関する。
本明細書で認められるように、コンピュータゲーム等のコンピュータシミュレーションをストリーミングするためのサービスには、ユーザのインターネットサービスプロバイダ(ISP)、及びWi-Fi(登録商標)等のローカルネットワークによって通常課せられる厳しい帯域幅制限内で、リモートサーバからホームコンソールデバイスに発信されるビデオゲームからの高解像度画像(1080p、4k、8K等)を圧縮、転送、及び復元することが要求されている。高解像度ビデオでも帯域幅要件を削減するために新しいビデオ圧縮コーデックが開発されているが、その効率には限界がある。
現在のところ、上記のコンピュータ関連の技術的問題に対する適切な解決策はない。
本明細書で理解されるように、ユーザがTVでストリーミングゲームをプレイするときにどこを見ているかを正確に知ることは、関心領域(ROI)内に基づいた圧縮を比較的低圧縮にする(または非圧縮にする)よう調節するとともに、ROI外の領域の圧縮を比較的高圧縮にし、したがって画像を高度に圧縮してそのデータサイズを減らすよう調節することにより、ビデオ圧縮コーデックの効率向上に役立つことになる。これを実現するには、ユーザの注視を追跡することが必要である。しかし、本明細書でやはり理解されるように、TV搭載のカメラシステム、またはTVの近くにあるカメラシステムは、ユーザから遠すぎて、ユーザの注視を正確に追跡することはできない。さらに、TVからユーザまでの距離には大きなばらつきがあり、そのため、そのような距離からの注視追跡はより困難になる。
以下の解決策は、TV等のディスプレイでストリーミングゲームまたは他のビデオコンテンツを再生するユーザにとってのこのような問題に対処するものである。
そのために、システムは、TVディスプレイ等であるがこれに限定されない少なくとも1つのディスプレイと、第1のカメラ及び第2のカメラを備え、ディスプレイとディスプレイを閲覧するユーザとの間に配置可能な少なくとも1つのデバイスと、圧縮されたビデオを送信してディスプレイに提示するように構成された少なくとも1つのサーバとを含む。このデバイスは、第1のカメラを使用して、TVディスプレイの画像を含む第1の画像を生成するために実行可能な命令でプログラムされている。この命令はさらに、第2のカメラを使用して、ユーザの画像を含む第2の画像を生成するために実行可能である。サーバ及び/またはデバイスは、カメラからの画像を使用してTVディスプレイでのユーザの注視点(POG)を特定することと、少なくとも部分的にPOGに基づいて、ビデオの関心領域(ROI)を特定することと、のために実行可能な命令でプログラムされている。サーバは、ROIがROI外のビデオのエリアよりも高い解像度及び/または高い品質でディスプレイに表示されるように、ビデオを圧縮し、ビデオを送信してTVディスプレイに提示する命令でプログラムされている。
実施例では、デバイスは、モバイル通信デバイス、またはタブレットコンピュータ、またはビデオゲームコントローラ、または通常の処方眼鏡を含む。
必要に応じて、サーバは、ビデオの「N」フレームにおいて、POGを使用して特定されたROIを少なくとも部分的に使用して、それぞれの投機的ROIを特定することであって、「N」がゼロより大きい整数である、特定することと、少なくとも部分的にそれぞれの投機的ROIに基づいてビデオの「N」フレームを圧縮することと、を行う命令でプログラムされてもよい。
別の態様では、システムは、1つのプロセッサと、一時的な信号ではなく、デバイス上の第1のカメラを使用してユーザを画像化するためにプロセッサによって実行可能な命令を含む、少なくとも1つのコンピュータメモリとを含む。このデバイスは、TVディスプレイ等であるがこれに限定されないディスプレイ上にはない。命令は、デバイス上の第2のカメラを使用してTVディスプレイを画像化することと、少なくとも部分的に画像に基づいて、TVディスプレイ上の注視点(POG)を決定することとのために実行可能である。命令はまた、POGを少なくとも1つのリモートサーバに送信して、サーバが、少なくとも1つのビデオフレームのPOGに関連する関心領域(ROI)を使用するのを促進することのために実行可能である。ビデオフレームはまた、ROI外の少なくとも1つのエリアを含み、サーバが第1の圧縮を使用してROIを圧縮し、第2の圧縮を使用してROI外のエリアを圧縮できるようにする。
特定のゲーム画面のどこにPOGが存在したかについての履歴アカウントをデータベースに保存することができる。データベース内の情報を機械学習アルゴリズムに入力して、予測されるROIとの相関関係を学習させることができる。
別の態様では、方法は、モバイルデバイスを使用して、TVディスプレイ等であるがこれに限定されないディスプレイを閲覧するユーザの画像を生成することを含む。本方法はまた、モバイルデバイスを使用して、ディスプレイの画像を生成することと、画像を使用して、ユーザが見ているTVディスプレイ上の位置を特定することと、を含む。本方法は、ワイドエリアネットワークを介して、少なくとも1つのサーバに、位置を送信することを含む。
本出願の詳細は、その構造及び動作の両方に関して、添付図面を参照して最もよく理解することができ、図面中、同様の参照番号は同様の部分を指す。
本原理と一致するシステム例のブロック図である。 本原理と一致するシステム例を示す概略図である。 本原理と一致する全体的なロジックの例のフローチャートである。 本原理と一致するモバイルデバイスロジックの例のフローチャートである。 本原理と一致するサーバロジックの例のフローチャートである。 本原理と一致する代替のコントローラベースのシステムの概略図である。 本原理と一致する代替の眼鏡ベースのシステムの概略図である。 本原理を示す概略図である。 さらなる原理を示すロジックの例のフローチャートである。 代替の単一カメラの実施形態の概略図である。
本開示は、一般に、家電(CE)デバイスを含み得るコンピュータネットワークの態様を含むコンピュータエコシステムに関する。本明細書のシステムは、クライアントコンポーネントとサーバコンポーネントとの間でデータが交換され得るようにネットワークを介して接続されたサーバコンポーネント及びクライアントコンポーネントを備え得る。クライアントコンポーネントは、ポータブルTV(例えば、スマートTV、インターネット対応TV)、ラップトップ及びタブレットコンピュータ等のポータブルコンピュータ、ならびにスマートフォン及び後述される追加例を含む他のモバイルデバイスを含む、1つ以上のコンピューティングデバイスを含み得る。これらのクライアントデバイスは、様々な動作環境で動作し得る。例えば、クライアントコンピュータの一部は、例として、Microsoft(登録商標)のオペレーティングシステム、またはUnix(登録商標)オペレーティングシステム、またはApple(登録商標) ComputerもしくはGoogle(登録商標)によって製造されたオペレーティングシステムを使用し得る。これらの動作環境は、Microsoft(登録商標)もしくはGoogle(登録商標)もしくはMozilla(登録商標)によって作られたブラウザ、または後述されるインターネットサーバによってホストされたウェブサイトにアクセスすることができる他のブラウザプログラム等、1つ以上の閲覧プログラムを実行するために用いられ得る。
サーバ及び/またはゲートウェイは、インターネット等のネットワークを介してデータの受信及び送信を行うようにサーバを構成する命令を実行する1つ以上のプロセッサを含み得る。または、クライアント及びサーバは、ローカルイントラネットまたは仮想プライベートネットワークを通じて接続できる。サーバまたはコントローラは、Sony PlayStation(登録商標)等のゲームコンソール、パーソナルコンピュータ等によってインスタンス化され得る。
クライアントとサーバとの間でネットワークを通じて情報を交換し得る。この目的のために及びセキュリティのために、サーバ及び/またはクライアントは、ファイアウォール、ロードバランサ、テンポラリストレージ、及びプロキシ、ならびに信頼性及びセキュリティのための他のネットワークインフラストラクチャを含み得る。
本明細書で使用するとき、命令は、システム内の情報を処理するためのコンピュータ実施ステップを指す。命令は、ソフトウェア、ファームウェア、またはハードウェアで実施され、システムのコンポーネントにより実行される任意の種類のプログラム化されたステップを含み得る。
プロセッサは、アドレス線、データ線、及び制御線等の各種の線、ならびにレジスタ及びシフトレジスタによってロジックを実行できる、従来の任意の汎用シングルチッププロセッサまたは汎用マルチチッププロセッサであり得る。
本明細書でフローチャート及びユーザインタフェースによって記述されるソフトウェアモジュールは、様々なサブルーチン、手順等を含み得る。本開示を限定することなく、特定のモジュールによって実行されるように規定されたロジックは、他のソフトウェアモジュールに再分配すること、及び/または単一のモジュールにまとめて集約すること、及び/または共有可能ライブラリで利用できるようにすることが可能である。フローチャート形式を用いることができるが、ソフトウェアは状態機械ステートマシンまたは他の論理的方法として実装される場合があることを理解されたい。
本明細書に記載された本原理は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの組み合わせとして実装することができる。したがって、実例となるコンポーネント、ブロック、モジュール、回路、及びステップは、それらの機能性の観点から説明されている。
さらに、上記言及されたものについて、以下で説明される論理ブロック、モジュール、及び回路は、汎用プロセッサ、デジタルシグナルプロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)、あるいは本明細書で説明される機能を実行するよう設計された特定用途向け集積回路(ASIC)、離散ゲートもしくはトランジスタロジック、離散ハードウェアコンポーネント、またはそれらのいずれかの組み合わせ等の他のプログラマブルロジックデバイスにより実装または実行されてもよい。プロセッサは、コントローラもしくは状態機械、またはコンピューティングデバイスの組み合わせによって実装されてもよい。
以下に記載されている機能及び方法は、ソフトウェアで実装される場合、限定されるものではないが、C#またはC++等の適切な言語で記述することができ、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、コンパクトディスクリードオンリメモリ(CD-ROM)またはデジタル多用途ディスク(DVD)等の他の光ディスクストレージ、磁気ディスクストレージまたはリムーバブルサムドライブ等を含む他の磁気記憶デバイス等のコンピュータ可読記憶媒体に格納し、またはそのコンピュータ可読記憶媒体を介して伝送することができる。接続によりコンピュータ可読媒体が確立され得る。このような接続は、例として、光ファイバ、同軸ワイヤ、デジタル加入者回線(DSL)、及びツイストペアワイヤを含む有線ケーブルを含み得る。
ある実施形態に含まれるコンポーネントを、他の実施形態において任意の適切な組み合わせで使用することができる。例えば、本明細書で説明され及び/または図に描かれる様々なコンポーネントのいずれも、組み合わされてもよく、交換されてもよく、または他の実施形態から除外されてもよい。
「A、B、及びCの少なくとも1つを有するシステム」(同様に「A、B、またはCの少なくとも1つを有するシステム」及び「A、B、Cのうちの少なくとも1つを有するシステム」)は、Aを単独で、Bを単独で、Cを単独で、A及びBを一緒に、A及びCを一緒に、B及びCを一緒に、及び/またはA、B、及びCを一緒に有するシステム等を含む。
ここで具体的に図1を参照すると、例示的なシステム10が示されており、このシステムは、本原理による、上で述べられかつ以下に詳述される、例示的なデバイスの1つ以上を含むことができる。本明細書の全ての図で説明されるコンピュータ化されたデバイスは、図1の様々なデバイスについて規定されたコンポーネントの一部または全てを含むことができることに留意されたい。
システム10に含まれる例示的なデバイスのうちの第1のデバイスは、例示的な主ディスプレイデバイスとして構成された家電(CE)デバイスであり、図示の実施形態では、TVチューナ(等価的には、TVを制御するセットトップボックス)を備えたインターネット対応TV等のこれに限定されないオーディオビデオディスプレイデバイス(AVDD)12である。AVDD12は、Android(登録商標)ベースのシステムであってもよい。あるいは、AVDD12はまた、コンピュータ制御型インターネット対応(「スマート」)電話、タブレットコンピュータ、ノートブックコンピュータ、例えば、コンピュータ制御型インターネット対応時計、コンピュータ制御型インターネット対応ブレスレット、他のコンピュータ制御型インターネット対応デバイス等のウェアラブルコンピュータ制御デバイス、コンピュータ制御型インターネット対応ミュージックプレイヤ、コンピュータ制御型インターネット対応ヘッドフォン、インプラント可能な皮膚用デバイス等のコンピュータ制御型インターネット対応のインプラント可能なデバイス等であってよい。いずれにしても、AVDD12及び/または本明細書に記載された他のコンピュータは、本原理を実施する(例えば、本原理を実施するように他のCEデバイスと通信し、本明細書に説明されるロジックを実行し、本明細書に説明されるいずれかの他の機能及び/または動作を行う)ように構成されることを理解されたい。
したがって、このような原理を実施するために、AVDD12は、図1に示すコンポーネントの一部または全てによって確立され得る。例えば、AVDD12は、高解像度フラットスクリーンまたは「4K」以上の超高解像度フラットスクリーンによって実装してもよく、ユーザ入力信号をディスプレイ上のタッチを介して受け取るためのタッチ対応であってもよいしそうでなくてもよい、1つ以上のディスプレイ14を含むことが可能である。AVDD12はまた、本原理に従ってオーディオを出力するための1つ以上のスピーカ16と、例えば、可聴コマンドをAVDD12に入力して、AVDD12を制御するための、例えば、オーディオ受信機/マイクロフォン等の少なくとも1つの追加の入力デバイス18とを備え得る。例示のAVDD12は、1つ以上のプロセッサ24の制御下で、インターネット、WAN、LAN、PAN等の少なくとも1つのネットワーク22を介して通信するための1つ以上のネットワークインタフェース20をさらに含み得る。したがって、インタフェース20は、限定ではないが、Wi-Fi送受信機であり得、Wi-Fi送受信機は、限定するものではないが、メッシュネットワーク送受信機等の無線コンピュータネットワークインタフェースの実施例である。インタフェース20は、限定ではないが、ブルートゥース(登録商標)送受信機、Zigbee(登録商標)送受信機、IrDA送受信機、無線USB送受信機、有線USB、有線LAN、PowerlineまたはMoCAであり得る。プロセッサ24は、例えば、ディスプレイ14を、画像を提示するように制御することや、そこから入力を受信すること等の本明細書に説明されるAVDD12の他の要素を含む、本原理を実施するようにAVDD12を制御することが理解されよう。さらに、ネットワークインタフェース20は、例えば、有線もしくは無線のモデムもしくはルータ、または、例えば、無線テレフォニ送受信機もしくは上述したWi-Fi送受信機等の他の適切なインタフェースであってよいことに留意されたい。
上記のものに加えて、AVDD12はまた、例えば、別のCEデバイスに(例えば、有線接続を使用して)物理的に接続する高解像度マルチメディアインタフェース(HDMI(登録商標))ポートもしくはUSBポート、及び/またはヘッドフォンを通してAVDD12からユーザにオーディオを提供するためにAVDD12にヘッドフォンを接続するヘッドフォンポート等の1つまたは複数の入力ポート26を備えてよい。例えば、入力ポート26は、オーディオビデオコンテンツのケーブルまたは衛星ソース26aに有線でまたは無線で接続されてよい。従って、ソース26aは、例えば、分離もしくは統合されたセットトップボックス、またはサテライト受信機であり得る。または、ソース26aは、ゲームコンソールまたはディスクプレイヤであり得る。
AVDD12は、ディスクベースまたはソリッドステート記憶装置等の1つ以上のコンピュータメモリ28であって、一時的信号でなく、場合により、スタンドアロンデバイスとしてAVDDのシャーシに具現化され、またはAVDDのシャーシの内部もしくは外部のいずれかでAVプログラムを再生するためのパーソナルビデオレコーディングデバイス(PVR)もしくはビデオディスクプレイヤとして具現化され、またはリムーバブルメモリ媒体として具現化されるコンピュータメモリ28をさらに含んでもよい。また、いくつかの実施形態では、AVDD12は、限定されるものではないが、例えば、少なくとも1つの衛星または携帯電話塔から地理的位置情報を受信し、その情報をプロセッサ24に提供するように構成され、及び/またはAVDD12がプロセッサ24と併せて配置される高度を判定するように構成される携帯電話受信機、GPS受信機、及び/または高度計30等の位置または場所の受信機を含み得る。しかしながら、携帯電話受信機、GPS受信機、及び/または高度計以外の別の好適な位置受信機を本原理に従って使用して、例えば、AVDD12の位置を例えば3つの次元全てにおいて決定できることを理解されたい。
AVDD12の説明を続けると、いくつかの実施形態では、AVDD12は、例えば、熱探知カメラ、ウェブカメラ等のデジタルカメラ、及び/またはAVDD12に組み込まれ、本原理に従って写真/画像及び/またはビデオを収集するようプロセッサ24によって制御可能なカメラであってもよい1つ以上のカメラ32を含み得る。AVDD12にはまた、ブルートゥース及び/または近距離無線通信(NFC)技術をそれぞれ使用した他のデバイスとの通信のためのブルートゥース送受信機34及び他のNFC素子36が含まれ得る。例示のNFC素子は、無線周波数識別(RFID)素子であってもよい。
さらにまた、AVDD12は、プロセッサ24に入力を提供する1つ以上の補助センサ38(例えば、加速度計、ジャイロスコープ、サイクロメータ等の運動センサ、または磁気センサ、リモートコントロールからのIRコマンドを受信するための赤外線(IR)センサ、光学センサ、速度センサ及び/またはケイデンスセンサ、ジェスチャセンサ(例えば、ジェスチャコマンドを検知するためのセンサ)等)を含み得る。AVDD12は、プロセッサ24への入力をもたらすOTA(無線経由)TV放送を受信するための無線経由TV放送ポート40を含み得る。前述に加えて、AVDD12はまた、赤外線データ協会(IRDA)デバイス等の赤外線(IR)送信機及び/またはIR受信機及び/またはIR送受信機42を含み得ることに留意されたい。AVDD12に給電するためのバッテリ(図示せず)が備えられてよい。
依然としてさらに、いくつかの実施形態では、AVDD12は、グラフィックスプロセシングユニット(GPU)44及び/またはフィールドプログラマブルゲートアレイ(FPGA)46を含み得る。GPU及び/またはFPGAは、例えば、本原理に従って、ニューラルネットワークを訓練し、ニューラルネットワークの演算(例えば、推論)を実行する等の人工知能処理のために、AVDD12によって利用されてもよい。しかしながら、プロセッサ24が中央処理装置(CPU)であり得る等の場合には、プロセッサ24を人工知能処理に使用できることにも留意されたい。
さらに図1を参照すると、システム10は、AVDD12に加えて、AVDD12について示したコンポーネントの一部または全部を含むことができる1つ以上の他のコンピュータデバイスタイプを含んでもよい。一実施例では、第1のデバイス48及び第2のデバイス50を示しており、これらはAVDD12のコンポーネントの一部または全部と同様のコンポーネントを含むことができる。図示したものより少ないデバイスまたは多いデバイスを使用してもよい。第1のデバイス48は、例えば、ユーザを画像化できる携帯電話、ユーザを画像化できる眼鏡等を含む、後述するデバイスのいずれかを実装してもよい。第2のデバイス50は、例えば、コンピュータシミュレーション用のコントローラまたはコンソールを含む、後述するデバイスのいずれかを実装してもよく、その例には、コンピュータゲーム用のコントローラ及びコンソールが含まれる。
システム10はまた、1つ以上のサーバ52を含み得る。サーバ52は、少なくとも1つのサーバプロセッサ54と、ディスクベースまたはソリッドステート記憶装置等の少なくとも1つのコンピュータメモリ56と、サーバプロセッサ54の制御下で、ネットワーク22を通じて図1の他のデバイスとの通信を可能にし、実際に、本原理に従ってサーバ、コントローラ、及びクライアントデバイス間の通信を促進し得る少なくとも1つのネットワークインタフェース58とを含み得る。ネットワークインタフェース58は、例えば、有線もしくは無線のモデムもしくはルータ、Wi-Fi(登録商標)送受信機、または、例えば、無線テレフォニ送受信機等の他の適切なインタフェースであり得ることに留意されたい。
したがって、いくつかの実施形態では、サーバ52は、インターネットサーバであってもよく、システム10のデバイスが、例示的な実施形態においてサーバ52を介して「クラウド」環境にアクセスできるような「クラウド」機能を含み、この「クラウド」機能を実行することができる。あるいは、サーバ52は、図1に示す他のデバイスと同じ部屋かまたはその近くにあるゲームコンソールまたは他のコンピュータによって実装されてもよい。
以下に説明するデバイスは、上記の要素の一部または全てを組み込むことができる。
本明細書で説明される方法は、プロセッサ、適切に構成される特定用途向け集積回路(ASIC)もしくはフィールドプログラマブルゲートアレイ(FPGA)モジュール、または当業者によって認識されるであろうようないずれかの他の便利な様式によって実行されるソフトウェア命令として実施され得る。使用される場合、ソフトウェア命令は、CD ROMまたはフラッシュドライブ等の非一時的デバイスにおいて具体化され得る。あるいはソフトウェアコード命令は、無線信号もしくは光信号等の一時的な配置において、またはインターネット上でのダウンロードによって、代替的に具体化することができる。
図2は、ユーザ200がTV等のディスプレイ204を閲覧するシステムを示す。より具体的には、ユーザ200は、表示領域全体に焦点を合わせることができず、本明細書で関心領域(ROI)と呼ばれる、その表示領域の一部203に焦点を合わせるものとする。
ユーザ200は、ディスプレイ204上に提示されているビデオゲーム等のコンピュータシミュレーションを制御するために、ビデオゲームコントローラの例であるコンピュータシミュレーションコントローラ202を使用することができる。「ビデオゲームコントローラ」及び「ビデオゲーム」という用語の使用は、例示のためにすぎず、一般性の喪失を意味するものではないことを理解されたい。ビデオゲームは、ディスプレイ204によって直接、またはビデオゲームコンソール208を介してのいずれかによって、インターネット等のワイドエリアネットワークを通じてリモートサーバ206から受信され得る。本原理は、ビデオゲームに加えて、またはビデオゲームの代わりに、サーバから受信されたビデオにも適用される。開示目的のために、ビデオゲームが例として用いられることにする。
携帯電話またはタブレットコンピュータ等のモバイルデバイス210は、少なくとも1つ、図示のように好ましくは前面カメラ及び背面カメラ212、214を含む。モバイルデバイス210は、前面カメラ212がディスプレイ204に向いてその画像を取得し、背面カメラがユーザ200に向いて視標追跡のためにユーザの眼を画像化するように向けられ得る。典型的には、モバイルデバイス210は、位置受信機216をも含む。モバイルデバイス210は、じきに開示されることになる目的のために、サーバ206と通信することができる。モバイルデバイス210、サーバ206、ディスプレイ204、コンソール208、及びコントローラ202は、必要に応じて、図1に示した様々なデバイスの電子的コンポーネントの一部または全てを含むことができることに留意されたい。
次に図3を参照すると、サーバ206内のプロセッサと協働するモバイルデバイス210内のプロセッサ等の1つ以上のプロセッサによって実行され得る全体ロジックが示されている。ブロック300で開始すると、ユーザの眼の画像が、視標追跡情報として、モバイルデバイス210の背面カメラ214から受信される。ブロック302に移行して、視標追跡情報に基づいてROI203の位置が決定される。この位置がサーバ206に提供され、サーバ206は、ブロック304において、ROIの外側に提示されることになるビデオ領域を、ROIの内側に提示されることになるビデオ領域よりも高度に圧縮する。言い換えれば、ROI内のビデオの解像度及び/または画質は、ROI外のビデオの解像度及び/または画質よりも高い。異なって圧縮されたビデオは、ブロック306で、デコード(ROIの復元とROI外のビデオエリアの復元とを含む)とディスプレイ204上への提示とのために送信される。
このようにして、モバイルデバイス210の顔及び注視の追跡機能を用いることにより、モバイルデバイス210で動作するアプリケーションは、ディスプレイ204からよりも近い距離でユーザの注視を追跡し、その視標追跡データをサーバ206に送信することができる。視標追跡データは、ディスプレイ204上へのユーザの注視を予測するためにサーバによって使用され、その結果、サーバによって実行されるビデオ圧縮コーデックのためにROIの位置を特定し、それによってビデオゲーム画像をより効率的に圧縮して、ユーザが見ている画像203の品質を維持することが可能になる。
ユーザのモバイルデバイス210は、ユーザ200のごく近傍に、例えば、コーヒーテーブルまたは他の近傍の表面に配置することができ、ディスプレイ204よりもかなり近くにある。
上記で示唆したように、モバイルデバイス210は、前面カメラ212を使用してディスプレイ204を画像化することもできる。ディスプレイ204の画像を使用すると、モバイルデバイス210は、モバイルデバイス210に対するディスプレイ204の位置及び向きを(コンピュータビジョン技法によって)特定することができる。さらなる説明を提供する図4のブロック400で示されるように、この動作は、モバイルデバイス上の実行可能なアプリケーションの起動中に実行されてもよく、モバイルデバイス内の1つ以上の運動センサが、モバイルデバイスが移動したことを示すときに、所望により繰り返されてもよい。
ブロック402に移行して、モバイルデバイス210は、ディスプレイ204を画像化する。ブロック404に進んで、機械視覚アルゴリズムによって採用される画像認識技法を、ディスプレイ204の画像に基づいて使用するとともに、位置受信機216に基づいてモバイルデバイス210の位置を知り、モバイルデバイス210内の1つ以上の運動/配向センサ(図1に示す適切なセンサのいずれか等)に基づいてモバイルデバイスの向きを知ることにより、モバイルデバイス210に対するディスプレイ204の位置が決定される。
ブロック406に進んで、モバイルデバイス210は、カメラ214を用いユーザ200を画像化して、そのカメラ画像データ(赤-緑-青データ及び/または深度データを含み得る)を用いユーザの顔の位置及び向き(PnO)を本質的に画像化する。また、ユーザ200の画像を用いて、ユーザの眼の位置が決定される。
ブロック408に移行して、ブロック406からの眼の画像を用いて、顔に対するユーザの注視の視線(LOS)が決定される。ブロック410は、ブロック404で決定されたディスプレイの位置にLOSが投影されて、ユーザ200が見ているディスプレイ204上の注視点(POG)が決定されることを示す。ユーザの眼の注視方向は、ディスプレイに対する過去のPnOを用いて、ディスプレイ204の表面に対する三角法で測定することができる。このことから、ディスプレイのフレーム内でユーザの注視点(POG)を決定することができる。POGはブロック412でサーバ206に送信され、サーバ206はそのPOGを所与の大きさのROIの中心として使用することができる。例えば、解像度が1920×1080(フルHD)の50インチTVから約1.93メートル離れた最適な視距離に座り、典型的な5度の高視力中心窩を有するユーザは、TV上の領域に直径約168mmの大きさのROIを投影することになる。これは、フルHD画像全体の約4%の関心領域に相当する。一部の領域で圧縮レベルを遷移させることを可能にするので、画像の80%超を高度に圧縮して帯域幅を大幅に節約できる。
図4は単一のユーザについて説明しているが、図4の原理を複数のユーザに拡張して、各ユーザがディスプレイの異なる領域に独自のROIを有するようにしてもよい。
図5は、サーバ206のロジックの例を示す。ブロック500で開始すると、図4で決定されたディスプレイ204上のユーザのPOGがモバイルデバイス210から受信される。ブロック502に移行して、POGを使用してビデオのROIが決定される。一例では、POGをROIの中心であると仮定してもよく、POGを中心とするN×Mピクセルの大きさのグループ(または所望により一定の半径を有する円形領域)等の所定の領域を、ブロック504で圧縮すべきビデオのROIであると決定して、N×Mピクセルの外側のビデオ領域に達成される異なった圧縮よりも高い解像度及び/または画質を達成してもよい。したがって、ROI内のビデオ領域が、ROI外のビデオ領域が表示されるよりも高い解像度及び/または画質でディスプレイ204に提示されるように、ブロック506でビデオがディスプレイ204に送信される。ROIがビデオフレーム全体よりも小さいことは容易に理解されよう。
本原理によると、図2のシステムには考慮すべき待ち時間が存在することが理解される。例えば、この待ち時間には、モバイルデバイス210での追跡処理、モバイルデバイス210からサーバ206へのPOGデータの通信、サーバ206によるビデオゲーム画像の処理及びエンコード、サーバ206から家庭内のシステム208を経由するディスプレイ204への圧縮されたビデオゲーム画像の通信、及び家庭内のシステム208による圧縮されたビデオゲーム画像のデコードが含まれる。
この点を考慮に入れて、図5のブロック508で示されるように、サーバ206及び/またはモバイルデバイス210及び/またはコンソール208は、現在及び以前の眼のPOGに基づいて、「N」個の将来の注視点(及びしたがって「N」個の将来のROI(「N」はゼロより大きい整数である))を予測する。この処理がサーバ206及び/またはコンソール208によって実行されるとき、視標追跡データがモバイルデバイス210からサーバ206及び/またはコンソール208に追加的に送信される。ブロック510で、現在のフレームに続く次の「N」個のビデオのフレームが、ブロック508からの予測に対応する「N」個のROIの位置を使用して投機的に圧縮され得る。
予測POGは、表示されている現在のアプリケーション画面から生成され得る。アプリケーション画面の画像と観測されたPOGとの履歴データセットが蓄積されてもよい。現在のディスプレイ画面からのPOGは、機械学習を用いて予測することができる。その機械学習の例としてはディープニューラルネットワークがある。
さらに、画像をより良い品質に動的にアップサンプリングすることが可能な機械学習されたフィルタを通して画像を処理することにより、デコーダの結果画像を改善することができる。このような適応フィルタは、アプリケーション画面及びデコード結果の履歴データセットを作成し、畳み込みディープニューラルネットワークを訓練して画像を回復させることにより作成することができる。
上記の解決策を用いることで、ユーザの自宅のインターネット帯域幅とストリーミングゲームを表示するディスプレイへの注視方向とによりよく適応する、改善されたゲームストリーミングサービスが提供される。
図6は、下記の例外を除いて、構成及び動作が図2に示したシステムと実質的に同一であるシステムを示す。モバイルデバイス上のカメラを使用してユーザ200及びディスプレイ204を画像化する代わりに、ビデオゲームコントローラ604上のカメラ600、602が使用されて、コントローラ604に対するディスプレイ204及びユーザ200の顔/眼の位置及び向きが追跡される。この実施形態では、カメラ600、602の1つは、ユーザに向かって上向きに角度が付けられてもよく、ユーザは、コンソール208によって提供されるディスプレイ204に示される指示を介して、指定された様式または向きにコントローラを保持するよう促される。
図7は、下記の例外を除いて、構成及び動作が図2に示したシステムと実質的に同一である、さらに別の実施形態を示す。モバイルデバイス上のカメラを使用してユーザ200及びディスプレイ204を画像化する代わりに、眼鏡704上のカメラ700、702が使用されて、眼鏡704に対するディスプレイ204及びユーザ200の顔/眼の位置及び向きが追跡される。
ビデオ画像をストリーミングする代わりに、コンソール208上で実行されるネイティブコンテンツは、中心窩適応レンダリングを組み込むことができる。このような実施形態では、ユーザの注視点(POG)が本明細書に記載されるように決定され、その後POGが、POGの外側のコンテンツ領域を特定するために使用される。これらの領域のコンテンツについては、レンダリング解像度及び/またはレンダリング品質、及び/またはコンテンツの他の態様が変更されて、コンソール208でのレンダリングコストが低減される。
次に図8を参照すると、携帯電話の実施形態の詳細がさらに示されている。大画面8KTVディスプレイ等であるがこれらに限定されないディスプレイ800は、ビデオゲームコンソール802からのビデオまたは画像等であるがこれらに限定されない画像情報を受信する。ビデオゲームコンソール802は、無線式ビデオゲームコントローラ804から制御情報を受信し得る。携帯電話806は、ディスプレイ800上のROI810を画像化する第1のカメラ808と、ユーザの眼814を画像化する第2のカメラ812とを含み得る。
電話機806上の上記のアプリケーションは、ユーザがディスプレイ上の画像を最高解像度または最高品質で再生したいかどうかに関してユーザに促すことができ、そのように再生したいのであれば、特定の向きに電話機を傾けるよう、例えば、カメラ808をディスプレイ800に直接向けるよう、ユーザに促すことができる。図8の816に示すように、携帯電話806のディスプレイ818は、ユーザが可能な限り最良の顔画像を提示するために電話機を動かすときに、顔のシルエットまたは直接平面図等のユーザの顔の画像を提示することができる。図8の820に示すように、アプリケーションは、電話ディスプレイ818上に、電話機が適切に向けられ、カメラ812がユーザの眼814を画像化していることを示す表示(「OK」及び/またはチェックマーク等)を提示することができる。同じプロトコルを使用して、ディスプレイ800を画像化する反対側のカメラ808が必ず適切に向けられるようにすることができる。
図6に関連して上記に述べたコントローラの実施形態では、ディスプレイ800は、適切な画像化のために、正しいコントローラの位置決めに関するフィードバックを提供することができることに留意されたい。あるいは、コントローラはスピーカを含み、それが「コントローラを低くしてください」または「あなたが見えません」等の音響式のフィードバックを提供して、ユーザにコントローラの向きを変えるよう促してもよい。あるいは、コントローラは、図8に示す確認ビューを提示する画面を含むことができる。
コンソール802は、電話機806と無線で通信してもよい。通信は、ローカルエリアネットワークを介して、またはWiFi(登録商標)もしくはその他の適切なプロトコルを介して行うことができる。使用例には、非常に大きく、ユーザから比較的離れているディスプレイ800、またはユーザに比較的近いビデオディスプレイを実装するモバイルタブレットコンピュータもしくはラップトップコンピュータが含まれる。
いくつかの実施形態では、カメラ808からの画像を用いて画面領域を識別する電話機806上でアプリケーションが実行されるのを促進するために、領域位置情報を示すバーコードまたはクイックレスポンス(QR)コード(登録商標)等の可視マーカが、ディスプレイ800上の画像に挿入され得る。あるいは、図9に示すように、ブロック900で電話機がディスプレイ800を画像化し、ブロック902でコンソール802が、ディスプレイに送信されている画像を同様に電話機806にも送信することができる。電話機は、ブロック904で、ブロック900及び902からの2つの画像を比較して、それらが有利に一致するかどうかを判定し、電話機が正しい向きであることを示すことができる。
本原理によると、トラフィックの高いネットワークで映画またはゲームをストリーミングする状況では、ユーザの画像が劣化する可能性があることが理解される。したがって、カメラがユーザの顔を認識できない場合、またはデータをシステムに十分な速度で取り込むことができない場合、システムは、提示された画像を従来の低解像度または低画質の画像に戻してもよい。代替または追加として、フレームレートを低下させてもよく、しかし解像度及びまたは画質は維持され、その後、視標追跡が回復したら、本明細書に記載の選択的圧縮技法を実施して、フレームレート、及び/または知覚される解像度、及び/または画質を増大させてもよい。
図10は、携帯電話1002上または他のデバイス上の単一の、好ましくは高解像度の、広角カメラ1000のみを有する実施形態において、この単一のカメラがディスプレイ1004に向けられ得、凸面鏡等のミラー1006が、ユーザ1008の前に配置されて、広角カメラ1000がミラー1006からの反射にもよってユーザを画像化するための視界を提示し得ることを示す。本実施形態では、モバイルデバイス1002のディスプレイ1004に対するPnOは、前に述べた方法によって決定されるが、モバイルデバイス1002に対するユーザ1008の顔/眼のPnOは、ミラー1006に反射したユーザ1008の顔/眼のおおよその大きさ及び向きの測定値によって決定されてもよいことを理解されたい。したがって、モバイルデバイス1002に取り付けられたカメラ1000からの画像を、コンピュータビジョン技法を介して処理するのに使用される処理ロジックは、ユーザ1008の顔/眼が鏡映されていることを想定し、それに応じてコンピュータビジョン処理を調節することになる。
いくつかの例示的な実施形態を参照して本原理を説明したが、これらは限定することを意図しておらず、各種の代替的な構成が本明細書で特許請求される主題を実施するために使用されてよいことが理解されよう。

Claims (21)

  1. 少なくとも1つのディスプレイと、
    第1のカメラ及び第2のカメラを含み、前記ディスプレイと前記ディスプレイを閲覧するユーザとの間に配置可能な少なくとも1つのデバイスと、
    前記ディスプレイに提示するために圧縮ビデオを送信するように構成された少なくとも1つのサーバと、を備え、
    前記デバイスが、
    前記第1のカメラを使用して、第1の画像を生成することであって、前記第1の画像が前記ディスプレイの画像を含む、前記第1の画像を生成することと、
    前記第2のカメラを使用して、第2の画像を生成することであって、前記第2の画像が前記ユーザの画像を含む、前記第2の画像を生成することと、のために実行可能な命令でプログラムされており、
    前記サーバ及び/または前記デバイスが、
    前記第1のカメラ及び前記第2のカメラからの前記画像に少なくとも部分的に基づいて、前記ディスプレイでの前記ユーザの注視点(POG)を特定することと、
    少なくとも部分的に前記POGに基づいて、前記ビデオの関心領域(ROI)を特定することと、のために実行可能な命令でプログラムされており、
    前記サーバが、
    前記ビデオを圧縮し、前記ビデオを送信して前記ディスプレイに提示することであって、前記圧縮が、前記ROIが前記ROI外の前記ビデオのエリアよりも高い解像度及び/または画質で前記ディスプレイに提示されるような圧縮である、前記提示することのために実行可能な命令でプログラムされている、
    システム。
  2. 前記デバイスは、モバイル通信デバイスを含む、請求項1に記載のシステム。
  3. 前記デバイスは、タブレットコンピュータを含む、請求項1に記載のシステム。
  4. 前記デバイスは、コンピュータシミュレーションコントローラを含む、請求項1に記載のシステム。
  5. 前記デバイスは、眼鏡を含む、請求項1に記載のシステム。
  6. 前記サーバは、
    前記ROI内のビデオのフレームを、前記ROI外の前記ビデオのフレームのエリアより高度に圧縮しない命令でプログラムされている、請求項1に記載のシステム。
  7. 前記サーバは、
    ビデオの「N」フレームにおいて、前記POGを使用して特定された前記ROIを少なくとも部分的に使用して、それぞれの投機的ROIを特定することであって、「N」がゼロより大きい整数である、前記特定することと、
    少なくとも部分的に前記それぞれの投機的ROIに基づいて前記ビデオの「N」フレームを圧縮することと、を行う命令でプログラムされている、請求項1に記載のシステム。
  8. 少なくとも1つのプロセッサと、
    少なくとも1つのコンピュータメモリであって、前記少なくとも1つのコンピュータメモリは、一時的信号ではなく、
    デバイス上の第1のカメラを使用してユーザを画像化することであって、前記デバイスはディスプレイ上にない、前記ユーザを画像化することと、
    前記デバイス上の第2のカメラを使用して前記ディスプレイを画像化することと、
    少なくとも部分的に前記画像に基づいて、前記ディスプレイ上の注視点(POG)を決定することと、
    前記POGを少なくとも1つのリモートサーバに送信して、前記サーバが、少なくとも1つのビデオフレームの前記POGに関連する関心領域(ROI)を使用するのを促進することであって、前記少なくとも1つのビデオフレームがまた、前記ROI外の少なくとも1つのエリアを含み、前記サーバが第1の圧縮を使用して前記ROIを圧縮し、第2の圧縮を使用して前記ROI外の前記エリアを圧縮できるようにする、前記促進することと、を行うために、前記少なくとも1つのプロセッサによって実行可能な命令を含む、前記少なくとも1つのコンピュータメモリと、
    を備える、システム。
  9. 前記デバイスは、モバイル通信デバイスを含む、請求項8に記載のシステム。
  10. 前記デバイスは、タブレットコンピュータを含む、請求項8に記載のシステム。
  11. 前記デバイスは、コンピュータシミュレーションコントローラを含む、請求項8に記載のシステム。
  12. 前記デバイスは、眼鏡を含む、請求項8に記載のシステム。
  13. 前記サーバを備えており、前記サーバは、
    前記第1の圧縮を使用して前記ROIを圧縮し、前記第2の圧縮を使用して前記ROI外の前記エリアを圧縮する命令でプログラムされている、請求項8に記載のシステム。
  14. 前記サーバは、
    ビデオの「N」フレームにおいて、前記POGを使用して特定された前記ROIを少なくとも部分的に使用して、それぞれの投機的ROIを特定することであって、「N」がゼロより大きい整数である、前記特定することと、
    少なくとも部分的に前記それぞれの投機的ROIに基づいて前記ビデオの「N」フレームを圧縮することと、を行う命令でプログラムされている、請求項13に記載のシステム。
  15. モバイルデバイスを使用して、ディスプレイを閲覧するユーザの画像を生成することと、
    前記モバイルデバイスを使用して、前記ディスプレイの画像を生成することと、
    前記画像を使用して、前記ユーザが見ている前記ディスプレイ上の位置を特定することと、
    ネットワークを介して、少なくとも1つのサーバまたは少なくとも1つのコンピュータシミュレーションコンソールに、前記位置を送信することと、
    を含む、方法。
  16. 前記サーバまたは前記コンソールは、
    ビデオを圧縮し、前記ビデオを送信して前記ディスプレイに提示することであって、前記圧縮は、前記ユーザが見ている前記ディスプレイ上の前記位置に提示されることになるビデオが、前記ユーザが見ている前記ディスプレイ上の前記位置の外側のビデオよりも高い解像度及び/または画質で前記ディスプレイ上に提示されるような圧縮である、前記提示すること、を行う命令でプログラムされている、請求項15に記載の方法。
  17. 前記モバイルデバイスは、モバイル通信デバイスを含む、請求項15に記載の方法。
  18. 前記モバイルデバイスは、タブレットコンピュータを含む、請求項15に記載の方法。
  19. 前記モバイルデバイスは、ビデオゲームコントローラを含む、請求項15に記載の方法。
  20. 前記サーバまたは前記コンソールは、
    ビデオの「N」フレームにおいて、前記ユーザが見ている前記ディスプレイ上の前記位置を少なくとも部分的に使用して、それぞれの投機的関心領域(ROI)を特定することであって、「N」がゼロより大きい整数である、前記特定することと、
    少なくとも部分的に前記それぞれの投機的ROIに基づいて前記ビデオの「N」フレームを圧縮することと、を行う命令でプログラムされている、請求項15に記載の方法。
  21. 前記コンピュータシミュレーションコンソールは、
    前記ディスプレイに対する注視点を決定することと、
    前記POGを使用して、前記POG外の前記提示されるビデオ画像のレンダリング解像度/レンダリング品質を低減させることと、を行う命令でプログラムされている、請求項15に記載の方法。
JP2022513488A 2019-08-29 2020-08-26 パーソナルデバイスによって支援されるtvストリーミング及びレンダリングコンテンツの中心窩最適化 Active JP7339435B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/556,127 US11106929B2 (en) 2019-08-29 2019-08-29 Foveated optimization of TV streaming and rendering content assisted by personal devices
US16/556,127 2019-08-29
PCT/US2020/047992 WO2021041538A2 (en) 2019-08-29 2020-08-26 Foveated optimization of tv streaming and rendering content assisted by personal devices

Publications (2)

Publication Number Publication Date
JP2022546081A true JP2022546081A (ja) 2022-11-02
JP7339435B2 JP7339435B2 (ja) 2023-09-05

Family

ID=74679794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022513488A Active JP7339435B2 (ja) 2019-08-29 2020-08-26 パーソナルデバイスによって支援されるtvストリーミング及びレンダリングコンテンツの中心窩最適化

Country Status (5)

Country Link
US (1) US11106929B2 (ja)
EP (1) EP4022381A4 (ja)
JP (1) JP7339435B2 (ja)
CN (1) CN114556188A (ja)
WO (1) WO2021041538A2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004056335A (ja) * 2002-07-18 2004-02-19 Sony Corp 情報処理装置および方法、表示装置および方法、並びにプログラム
WO2014103732A1 (ja) * 2012-12-26 2014-07-03 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US20180192058A1 (en) * 2016-12-29 2018-07-05 Sony Interactive Entertainment Inc. Foveated video link for vr, low latency wireless hmd video streaming with gaze tracking

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6252989B1 (en) * 1997-01-07 2001-06-26 Board Of The Regents, The University Of Texas System Foveated image coding system and method for image bandwidth reduction
US20030067476A1 (en) * 2001-10-04 2003-04-10 Eastman Kodak Company Method and system for displaying an image
US20050018911A1 (en) * 2003-07-24 2005-01-27 Eastman Kodak Company Foveated video coding system and method
US8793620B2 (en) 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
GB0704421D0 (en) 2007-03-08 2007-04-18 Mcintosh John R The fan watch camera
JP5351006B2 (ja) * 2009-12-24 2013-11-27 京セラ株式会社 携帯端末及び表示制御プログラム
US8687840B2 (en) * 2011-05-10 2014-04-01 Qualcomm Incorporated Smart backlights to minimize display power consumption based on desktop configurations and user eye gaze
US9897805B2 (en) 2013-06-07 2018-02-20 Sony Interactive Entertainment Inc. Image rendering responsive to user actions in head mounted display
KR101885295B1 (ko) * 2011-12-26 2018-09-11 엘지전자 주식회사 전자기기 및 그 제어방법
WO2013168171A1 (en) * 2012-05-10 2013-11-14 Umoove Services Ltd. Method for gesture-based operation control
US9996150B2 (en) 2012-12-19 2018-06-12 Qualcomm Incorporated Enabling augmented reality using eye gaze tracking
US20150193658A1 (en) * 2014-01-09 2015-07-09 Quentin Simon Charles Miller Enhanced Photo And Video Taking Using Gaze Tracking
CN103824308A (zh) * 2014-02-11 2014-05-28 广州中国科学院先进技术研究所 一种无线多媒体传感器网络中的图像处理方法
US9934573B2 (en) * 2014-09-17 2018-04-03 Intel Corporation Technologies for adjusting a perspective of a captured image for display
US10567641B1 (en) * 2015-01-19 2020-02-18 Devon Rueckner Gaze-directed photography
US9900602B2 (en) * 2015-08-20 2018-02-20 Citrix Systems, Inc. Optimizing remote graphics delivery and presentation
US10401952B2 (en) 2016-03-31 2019-09-03 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
US10560680B2 (en) * 2017-01-28 2020-02-11 Microsoft Technology Licensing, Llc Virtual reality with interactive streaming video and likelihood-based foveation
US10643307B2 (en) * 2017-11-10 2020-05-05 Intel Corporation Super-resolution based foveated rendering
US10848768B2 (en) * 2018-06-08 2020-11-24 Sony Interactive Entertainment Inc. Fast region of interest coding using multi-segment resampling

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004056335A (ja) * 2002-07-18 2004-02-19 Sony Corp 情報処理装置および方法、表示装置および方法、並びにプログラム
WO2014103732A1 (ja) * 2012-12-26 2014-07-03 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US20180192058A1 (en) * 2016-12-29 2018-07-05 Sony Interactive Entertainment Inc. Foveated video link for vr, low latency wireless hmd video streaming with gaze tracking

Also Published As

Publication number Publication date
WO2021041538A2 (en) 2021-03-04
CN114556188A (zh) 2022-05-27
EP4022381A2 (en) 2022-07-06
WO2021041538A3 (en) 2021-04-01
JP7339435B2 (ja) 2023-09-05
EP4022381A4 (en) 2023-09-06
US11106929B2 (en) 2021-08-31
US20210064904A1 (en) 2021-03-04

Similar Documents

Publication Publication Date Title
US10681342B2 (en) Behavioral directional encoding of three-dimensional video
US11050810B2 (en) Method and apparatus for transmitting and receiving image data for virtual-reality streaming service
US11025959B2 (en) Probabilistic model to compress images for three-dimensional video
US10270825B2 (en) Prediction-based methods and systems for efficient distribution of virtual reality media content
US11024083B2 (en) Server, user terminal device, and control method therefor
KR101945082B1 (ko) 미디어 컨텐츠 송신 방법, 미디어 컨텐츠 송신 장치, 미디어 컨텐츠 수신 방법, 및 미디어 컨텐츠 수신 장치
US20160005435A1 (en) Automatic generation of video and directional audio from spherical content
US11635802B2 (en) Combined light intensity based CMOS and event detection sensor for high speed predictive tracking and latency compensation in virtual and augmented reality HMD systems
US20160227280A1 (en) Content that reacts to viewers
KR102164686B1 (ko) 타일 영상의 영상 처리 방법 및 장치
JP7339435B2 (ja) パーソナルデバイスによって支援されるtvストリーミング及びレンダリングコンテンツの中心窩最適化
US10425696B2 (en) User placement of closed captioning
US10805676B2 (en) Modifying display region for people with macular degeneration
US10650702B2 (en) Modifying display region for people with loss of peripheral vision
US20190018640A1 (en) Moving audio from center speaker to peripheral speaker of display device for macular degeneration accessibility
US11863902B2 (en) Techniques for enabling high fidelity magnification of video
US11431952B2 (en) User selection of virtual camera location to produce video using synthesized input from multiple cameras
KR102114466B1 (ko) 영상 컨텐츠 내 관심 영역 정보를 이용한 영상 디스플레이 방법 및 장치
US20230222754A1 (en) Interactive video playback techniques to enable high fidelity magnification
US20240094977A1 (en) Field of vision audio control for physical or mix of physical and extended reality media displays in a spatially mapped space
CN116418937A (zh) 视频分辨率调整方法、装置、存储介质以及电子设备
JP2024532717A (ja) Vr放送ストリームを通じたテレプレゼンス

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230824

R150 Certificate of patent or registration of utility model

Ref document number: 7339435

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150