JP2021118517A - 映像処理装置 - Google Patents

映像処理装置 Download PDF

Info

Publication number
JP2021118517A
JP2021118517A JP2020012680A JP2020012680A JP2021118517A JP 2021118517 A JP2021118517 A JP 2021118517A JP 2020012680 A JP2020012680 A JP 2020012680A JP 2020012680 A JP2020012680 A JP 2020012680A JP 2021118517 A JP2021118517 A JP 2021118517A
Authority
JP
Japan
Prior art keywords
moving image
image data
display
display device
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020012680A
Other languages
English (en)
Inventor
岳史 四宮
Takeshi Shinomiya
岳史 四宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020012680A priority Critical patent/JP2021118517A/ja
Publication of JP2021118517A publication Critical patent/JP2021118517A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ネットワーク帯域を圧迫することなく、全天球動画データの見どころと思われる部分を表示装置において視点移動操作不要で視聴可能とする映像処理装置を提供すること。【解決手段】動画データを配信する画像処理装置であって、一つ以上の表示装置と相互に通信するための手段と、表示装置における画角より広い画角の動画データを保持するための手段と、前記動画データを表示装置において表示した画角情報を取得する手段と、取得した画角情報に基づき前記動画データにおける各領域の視聴頻度を算出する手段と、前記ヒートマップに基づき前記動画データの画角の一部からなる動画データ生成する手段を備える。【選択図】図1

Description

本発明は、映像処理装置に関し、特に、パノラマ動画や全天球動画などの視点を移動可能とした動画を配信する映像処理装置に関する。
近年、Youtube(登録商標)に代表される様々な動画配信サービスが普及してきている。これらの動画配信サービスでは、一般的な二次元で表現される動画データの配信に加え、パノラマ動画や全天球動画(以降、全天球動画と総称する)などの視点を移動可能とする動画データを配信することが可能となった。
このような動画配信サービスで配信される視点移動可能な動画データを再生する場合には、ユーザはヘッドマントディスプレイのようなユーザの視点を検出可能な表示装置を用いると、視点に対応した映像が表示される。一方、そのような表示装置を有しておらず、パーソナルコンピュータやスマートフォンなどの一般的な表示装置を用いて再生する場合は、マウスやタッチパネルのような操作手段を用いて視点の移動を操作する必要があった。
このような問題に対し、他のユーザの視聴数、時刻、コメントなどの不可情報を用いて、全天球動画から表示する範囲を自動的に選択することのできる表示装置が提案されている(例えば、特許文献1参照)。
この表示装置によれば、一般的な表示装置を用いても、自動的に表示領域が選択され、操作手段を用いて視点の移動操作をする必要がない。
特開2016−201714号公報
しかしながら、特許文献1の表示装置を用いた場合、次のような課題が存在する。
すなわち、特許文献1の表示装置では、全天球動画のデータを受信してその一部を選択して表示するため、実際には表示しない領域のデータを受信してしまう。このため、動画配信サービスとのデータ通信量が増大し、ネットワーク帯域の圧迫や、通信コストの増大を招くという課題がある。
また、特許文献1の表示装置を実現するためには、当該表示装置が全天球動画を受信し、その一部を表示する機能を有する必要がある。このため、従来の二次元で表現される動画データを再生するための表示装置に対しては、特許文献1記載の技術は適用できないという課題がある。
本発明は上記課題を解決するためになされたものであって、本発明の目的は、ネットワーク帯域を圧迫することなく、全天球動画データの見どころと思われる部分を表示装置において視点移動操作不要で視聴可能とする映像処理装置を提供することである。さらに好ましくは、当該表示装置は従来の二次元で表現される動画データを再生するための表示装置であってもよいとする。
上記の課題を解決するために、本発明の映像処理装置は、ネットワークを通じて表示装置に対して動画データを配信する画像処理装置であって、一つ以上の表示装置と相互に通信するための通信手段と、表示装置における画角より広い画角の動画データを保持するための動画データ保持手段と、前記動画データを表示装置において表示した画角情報を取得する視聴画角情報取得手段と、取得した画角情報に基づき前記動画データにおける各領域の視聴頻度(ヒートマップ)を算出するヒートマップ作成手段と、前記ヒートマップに基づき前記動画データの画角の一部からなる動画データ生成するダイジェスト動画データ生成手段を備えることを特徴とする。
本発明によれば、ネットワーク帯域を圧迫することなく、全天球動画データの見どころと思われる部分を表示装置において視点移動操作不要で視聴可能とする映像処理装置を提供することができる。さらに、当該表示装置は従来の二次元で表現される動画データを再生するための表示装置で、同様の効果が実現可能な映像処理装置を提供することができる。
映像処理装置A100と表示装置C101〜C103を用いたシステム全体の構成を示すブロック図である。 (A)、(B)、(C)は映像処理装置A100から受信した全天球動画データを再生しているときの表示装置C101〜C103の画面を説明するための図である。 (A)、(B)は映像処理装置A100が、全天球動画データのメタデータとして生成するヒートマップを説明するための図である。 映像処理装置A100が大容量ストレージA106に保持するデータベースを説明するための図である。 映像処理装置A100がダイジェスト動画データを生成する処理を説明するためのフローチャートである。 (A)、(B)はダイジェスト動画データを生成処理において、ダイジェスト動画データに使用する領域を説明するための図である。 映像処理装置A100が、全天球動画データの配信を要求された際の処理を説明するためのフローチャートである。
以下、図面を参照しながら本発明の実施の形態について説明する。
[実施例1]
実施例1においては、本発明の映像処理装置をインターネットに接続した映像配信サーバとし、複数の表示装置がクライアントして本発明の映像処理装置から動画データを取得して表示する構成として説明する。
<装置説明>
図1は本発明の映像処理装置A100と表示装置C101〜C103を用いたシステム全体の構成を示すブロック図である。
図1において、A100は本発明による映像処理装置であり、後述のA101〜A108のユニットで構成される。
A101はCPUであり、本映像処理装置全体の制御をつかさどる。CPU A101 は後述する各ユニットを制御し、受信したコマンドに応じて各種データの送受信等を行う。
A102は書き換え可能なメモリであり、本映像処理装置を制御するプログラムが作業領域として使用する。メモリA102 は、例えばRAM(半導体素子を利用した揮発性のメモリ)などからなる。
A103は不揮発性メモリであり、本映像処理装置を制御するプログラムを格納する。本映像処理装置に電源が投入されると、CPU A101は不揮発性メモリA103 から初期プログラムを読み込み、本映像処理装置の制御を開始する。不揮発性メモリA103は、例えばROM(半導体素子を利用した不揮発性のメモリ)などからなる。なお、本制御装置を制御するプログラムを後述する大容量ストレージの保持し、そのプログラムを不揮発性メモリA103内の初期プログラムがロードするように構成してもよい。
A104は操作部であり、本映像処理装置の管理者の指示を入力するために使用する。操作部A104は、キーボードやマウスなどにより構成される。なお、複数の映像処理装置を同時に設置する場合などでは、操作部A104を他の映像処理装置と共用する場合もある。
A105は表示部であり、CPU A101の制御に基づいて、本映像処理装置の動作状態の表示や、図示しない操作者による操作を受け付ける。表示部A105は、例えば、液晶表示装置(LCD)とそれをコントロールするLCDドライバユニットで構成される。CPU A101は、プログラムに従い表示制御信号を生成し、表示部A105に表示するための映像信号を生成して表示部A105に出力するように映像処理装置A100の各部を制御する。表示部A105は出力された映像信号に基づいて映像を表示する。なお、表示部A105を、映像信号を出力する部分と映像信号を表示する部分に分け、映像信号を出力する部分のみ映像処理装置に内蔵するような構成としてもよい。
A106は大容量ストレージであり、メモリA102上の各種データをCPU A101の制御に基づいて保存するためのユニットである。また、大容量ストレージA106に保存されているデータを、CPU A101の制御に基づきメモリA102上にデータを読む込むことができる。大容量ストレージA106にはたとえばハードディスクドライブ(HDD)やソリッドステートドライブ(SSD)が用いられる。本実施例においては、大容量ストレージA106には、すくなくとも全天球の映像データと映像データを管理するデータベースが保存されている。
A107は有線LAN部であり、有線LAN通信のための信号送受信部と受信した信号を処理するための通信コントローラから構成され、IEEE802.3abに基づいた有線通信を実現する。本実施例では、有線LAN部A107はインターネットB100と直接あるいは間接的にデータ通信を行う際に利用される。
A108は、システムバスであり、システムバスA108に接続される各部は、システムバスA108を介して互いにデータのやりとりを行うことができるようにされている。
B100は、インターネットを模式的に表したものである。実際には、インターネットB100は、複数のルータや光ケーブルなどで構成される。
C101〜C103は、本発明の映像処理装置A100とインターネットB100を介して接続し、映像処理装置A100の配信する映像データを受信・表示する機能を持つ表示装置である。具体的には、パーソナルコンピュータ・スマートフォン・タブレット・ゲーム機・ヘッドマウントディスプレイなどからなる。表示装置C101〜C103の内部構造については本発明とは直接関係がないため、説明を省略する。
図2は映像処理装置A100が大容量ストレージA106に保持する全天球動画データについて説明するための図である。
図2(A)は表示装置C101〜C103をスマートフォンとし、映像処理装置A100から受信した全天球動画データを再生しているときの表示装置C101〜C103の画面を説明するための図である。
図2(A)において、201は表示装置において表示される全天球動画データを表示するための領域である。図2(B)で後述するように表示領域201で表示される映像は、全天球動画データによる映像の一部の領域を切り出した状態となっている。なお、本実施例では表示領域201のアスペクト比は16:9であるものとする。
202は、再生中の動画データにおいて表示領域201に表示されている映像の時間的位置を示すシークバーである。表示装置のユーザはこのシークバー202を使うことによって、時間的な再生位置(再生時刻)を自由に変更することができる。
203は、表示装置において表示領域201に表示する領域(すなわち、全天球動画から切り出す領域)を変更する様子である。スマートフォンのようなタッチ操作可能な表示装置では、操作203のように表示領域201で上下左右にドラッグすることで表示する領域を変更することができる。なお、パーソナルコンピュータのようにタッチ操作ができないような表示装置においては、マウスなどのポインティングデバイスで上下左右にドラッグする操作で表示する領域を変更できるように構成してもよい。また、表示領域を変更するためのGUI(例えば上下左右を表すボタン)を設け、そのGUIを用いて表示する領域を変更できるように構成してもよい。
図2(B)は、全天球動画の模式図であり、全天球動画と図2(A)の表示領域201との関係を説明するための図である。
図2(B)において、全天球動画とは撮影時にカメラを設置した撮影点204を中心とし、上下左右全方位を撮影した動画である。この全天球動画の再生時は、撮影点204に表示装置の視聴者がいる状態となる。そして、撮影点204を中心とした球体205の内側に投影される映像の一部を、視聴者が選択した方位206に基づいて全天球上の表示領域207として選択する。この全天球上の表示領域207は、後述する正距円筒図法に基づく変換により正距円筒図法上の表示領域213となる。そして、操作203により視点の移動要求があると、視点移動操作に対応する方向(208〜211のいずれか)に応じて視聴者が選択した方位206を更新し、これに合わせて全天球上の表示領域207も移動する。
図2(C)は、球体205を正距円筒図法により平面に展開した図である。全天球動画は正距円筒図法による平面展開212の状態で動画データとしてエンコードされ、映像処理装置A100の大容量ストレージA106に格納されている。
表示装置C101〜C103では まず全天球上の表示領域207に対応する領域を正距円筒図法上の表示領域213として決定する。そして、平面展開212の状態の動画データを受信すると、正距円筒図法上の表示領域213を切り出し、表示装置の表示領域201の形状に補正して表示する。
なお、図2においては、操作203により表示領域201を移動することができることとして説明したが、表示領域201に表示する映像を拡大・縮小する操作をできるようにしてもよい。例えば操作203において、ピンチアウト操作を検出したら全天球上の表示領域207を拡大し、ピンチイン操作を検出したら全天球上の表示領域207を縮小するなどのようにする。
図3は、本発明の映像処理装置A100が、全天球動画データのメタデータとして生成するヒートマップを説明するための図である。
図3(A)は、全天球動画に対するヒートマップの例である。301は正距円筒図法により平面展開された全天球動画のあるフレームに対するヒートマップである。
ヒートマップ301は、平面展開した全天球動画のフレームを、8ピクセル×8ピクセルのブロックに分割し、各ブロックが表示領域(例えば図2の正距円筒図法上の表示領域213)に含まれた割合を保持する。ここで凡例302のように表示領域に含まれた割合が高くなるにつれて濃い色になるように各ブロックに色を付けると、303で示すように表示される回数が多い領域が視覚的に認識できるようになる。
図3(B)は、平面展開された全天球動画のあるフレームが、3回表示されたときの状況を説明するための図である。この図において、このフレームは表示装置において3回表示され、1回目が表示領域304を、2回目が表示領域305を、3回目が表示領域306を表示したとする。
この場合、領域307は3回表示されているので、領域307に含まれるブロックは表示された割合が100%となる。同様に、領域308は2回表示されているので、領域308に含まれるブロックは表示された割合は67%、領域309 は1回表示されているので領域309に含まれるブロックは33%、その他の領域のブロックは0%となる。
今回は3回の例を示したが、表示回数が増えた場合にも同様に各ブロックの表示された割合が算出できることは明らかである。
このように各フレームのヒートマップを全天球動画の全フレームに対して生成することで、表示装置は全天球動画において多く視聴されている領域を任意のフレームにおいて抽出することができる。
なお、上記説明では、平面展開した全天球動画の各フレームを8ピクセル×8ピクセルのブロックに分割してヒートマップを作製したが、このブロックのサイズは任意である。また、ヒートマップを作成するフレームは全天球動画の全フレームではなく、一部のフレーム(例えばキーフレームのみ)としてもよい。
図4は、本発明の映像処理装置A100が大容量ストレージA106に保持している全天球動画データを管理するためのデータベースを模式化したものである。
映像処理装置A100は、大容量ストレージA106に保持する各全天球動画データに対し「ID 401」「ファイルパス402」「表示回数403」「ヒートマップ情報404」「ダイジェスト動画データ405」という情報を管理している。
ID 401は、大容量ストレージA106に保持している全天球動画データを一意に決定するためのIDである。表示装置は映像処理装置A100に対して、IDを指定することで所望の全天球動画データを映像処理装置A100から取得する。例えば、映像処理装置A100がHTTPサーバとして動作しているときには、映像処理装置A100に対して「GET /play?id=0001 」というようなリクエストを送信する。
ファイルパス402は、各全天球動画データの大容量ストレージA106内のファイル位置を示す情報である。
表示回数403は、各全天球動画データが表示装置において何回再生されたかを示す情報である。
ヒートマップ情報404は、各全天球動画データに対するヒートマップ(図3)に関する情報(ヒートマップのステータスとファイル位置)である。本発明の映像処理装置A100では、表示回数403が1000回を超えた場合にその動画に対するヒートマップが利用可能であるとして、ヒートマップのステータスを「YES」とする。表示回数403が0回の場合はヒートマップに関する情報がないとしてヒートマップのステータスは「NO」となり、1回から999回の場合はヒートマップ生成中として「In Progress」となる。また、ヒートマップのステータスが「YES」および「In Progress」の場合は、ヒートマップデータの大容量ストレージA106内のファイル位置を本フィールドに保持する。
ダイジェスト動画データ405は、各全天球動画データに対するダイジェスト動画データに関する情報である。ここで、ダイジェスト動画データとは、対応する全天球動画データに基づき生成された平面画像の動画データを表す。ダイジェスト動画データの生成方法については、図5および図6を用いて後述する。
ダイジェスト動画データは3つの異なる解像度(FHD: 1920×1080、HD: 1280×720、SD: 640×360)のデータがあり、それぞれの解像度に対応した動画データの大容量ストレージA106内のファイル位置が保持される。
例えば、全天球動画データ406は、4526回の表示が行われているため有効なヒートマップ情報を持ち、また、3つの解像度のダイジェスト動画データが存在することがわかる。
一方、全天球動画データ407は再生回数が少ないためヒートマップ情報は「In progress」であり、またダイジェスト動画データが存在していない。同様に全天球動画データ408は再生がされていないためヒートマップ情報が存在せず、またダイジェスト動画データが存在していない。
<動作説明>
本実施例における映像処理装置A100の動作を、図5〜図7のフローチャートと図と用いて説明する。
図5は、映像処理装置A100におけるダイジェスト動画データを生成するための処理である。
ステップS501では、CPU A101は、図4のデータベースを監視し、いずれかの全天球動画データの表示回数403が更新されるのを待つ。表示回数403が更新されると対応する全天球動画データを処理対象と選択して、次のステップへ進む。
ステップS502では、CPU A101は更新された表示回数403を確認し、表示回数403が所定回数以上となっているかどうかを判定する。本実施例では、表示回数403が1000回以上の場合に本ステップでYESとなり、1000回未満の場合に本ステップでNOとなるものとする。
本ステップでYESの場合はステップS503へ進み、NOの場合はステップS501 に戻り再び 表示回数403の変化を監視する。
ステップS503〜ステップS511は、ステップS501で処理対象として選択した全天球動画データの各フレームの処理を行うループ処理である。以降ではこのループ処理で選択されているフレームを対象フレームと記す。
ステップS504では、CPU A101は、対象フレームに対するヒートマップを用いて対象フレームから切り出す領域を決定する。
図6は、ヒートマップを用いて切り出す領域を決定する処理を説明するための図である。
図6(A)では、CPU A101はヒートマップ601において最も表示頻度が高いブロック603が中心になるように切り出し領域602を決定する。
なお、本実施例においては、切り出し領域602は、表示時に1920ピクセル×1080ピクセルの矩形領域に相当する領域とする。ヒートマップ601は正距円筒図法に基づき全天球動画を平面展開したものであるため、ヒートマップ601上の切り出し領域602は矩形ではなく、正距円筒図法に基づき変形している。
ステップS505では、CPU A101は、ステップS504で決定した切り出し領域602に基づき、対象フレームからダイジェスト動画の生成に使用する画像データを取得する。
ステップS506では、CPU A101は、ステップS505で取得した画像データを正距円筒図法に基づき補正し、1920ピクセル×1080ピクセルの矩形の画像データに変換する。
ステップS507〜ステップS510は、ステップS506で補正した画像データを用いてダイジェスト動画データを生成するための処理である。生成するダイジェスト動画データの解像度の分だけ繰り返し処理を行う。すなわち、FHD(1920×1080)・HD(1280×720)・SD(640×360)の3回の繰り返し処理を行う。
ステップS508では、CPU A101は、ステップS506で補正した画像データを生成するダイジェスト動画データの解像度に合わせて縮小する。なお、生成するダイジェスト画像データの解像度がFHDである場合は、ステップS506で補正した画像データの解像度と一致するためステップS506の画像データをそのまま用いる。
ステップS509では、CPU A101は、ステップS508で生成した画像データを用いてダイジェスト動画データを生成(エンコード)する。なお、本ステップにおける動画エンコード処理はダイジェスト動画データで使用する動画圧縮規格により異なる。
ステップS510では、CPU A101は、ダイジェスト動画データに必要なすべての解像度の処理が終わった場合に、ステップS507から始まるループ処理を終了する。
ステップS511では、CPU A101は、処理対象として選択した全天球動画データの全フレームに対して処理を実施した場合に、ステップS503から始まるループ処理を終了する。
ステップS512では、CPU A101は、ステップS503〜ステップS511で生成したダイジェスト動画データを大容量ストレージA106に保存する。
ステップS513では、CPU A101は、図4のデータベースを更新する。具体的には、処理対象として選択した全天球動画データのダイジェスト動画データ405フィールドに、ステップS512で保存したダイジェスト動画データのパス情報を設定する。
なお、ステップS504においては、CPU A101は対象フレームからの切り出し位置を、ヒートマップに基づいて最も表示頻度が高いブロック603が中心になるように決定したが、本発明はこれに限定されるわけではない。例えば、図6(B)で示すように、切り出し領域604に含まれるブロックの出現頻度の和が最大となるように切り出し領域604の位置を決定してもよい。
以上、図5のフローチャートによれば、本発明の映像処理装置A100において、全天球動画データの表示回数が更新された場合に、所定の回数を超過していた場合は、ヒートマップ情報に基づきダイジェスト動画データを生成することができる。ヒートマップに基づくことで、このダイジェスト動画データは所定回数以上の再生において、最も多く表示された領域(すなわち見どころと思われる領域)を含む動画データとなる。
続いて図7のフローチャートを用いて、本発明の映像処理装置A100が全天球動画データを表示装置に配信する場合の処理について説明する。
ステップS701では、CPU A101は、有線LAN部A107が受信するデータを監視し、全天球動画データの配信要求が発生するのを待つ。具体的には、映像処理装置A100がHTTPサーバとして動作しているときに、表示装置から「GET /play?id=0001 」というような、GETリクエストが送信されるのを待つ。このGETリクエストでは、配信を要求する全天球動画データのIDをパラメータとしてエントリポイントplayをGETすることにより、映像処理装置A100に対して全天球動画データの配信を要求することになる。なお、表示装置において、縮小した動画データを複数並べて表示する場合(いわゆるサムネイル表示の場合)などは、表示装置はサムネイル表示要であることを明示するために、URIパラメータ「type=thumb」を付与するものとする。すなわち、ID 0001の全天球動画データをサムネイル用途で要求する場合は、表示装置は「GET /play?id=0001&type=thumb」というGETリクエストを映像処理装置A100に送信することになる。
ステップS702では、CPU A101は、ステップS701の配信要求を行った表示装置と通信し、当該表示装置の表示能力を取得する。ここで取得する表示能力は、少なくても当該表示装置の表示解像度と、当該表示装置による全天球動画データの表示能力を含む。
表示解像度とは、FHD・HD・SDというような解像度を表す情報か、1920×1080というような表示装置のピクセル数となる。
一方、全天球動画データの表示能力としては、VR表示可能・視点移動可能・非対応というような情報となる。VR(Virtual Reality)表示可能な表示装置とは、全天球動画データによる映像の一部の領域を表示装置の動きに合わせて自動的に選択する機能を有する表示装置である。例えば、モーションセンサーを内蔵したヘッドマウントディスプレイや、モーションセンサーと連動する機能を備えた動画再生アプリケーション実行しているスマートフォンがVR表示可能な表示装置の例である。視点移動可能な表示装置とは、ユーザの操作(例えば、タッチパネルやポインティングデバイスによるスライド操作)により、全天球動画データによる映像の一部の領域を選択して表示する機能を有する表示装置である。例えば、視点移動のユーザインターフェースを備える動画再生アプリケーションを実行しているパーソナルコンピュータやスマートフォンが視点移動可能な表示装置の例である。非対応の表示装置とは、VR表示も視点移動も不可能な表示装置であり、すなわち、従来の平面動画の再生・表示を想定している表示装置である。例えば、視点移動のユーザインターフェースを備えない動画再生アプリケーションを実行しているパーソナルコンピュータやスマートフォンが該当する。
なお、ステップS701のGETリクエストに、表示能力を表すURLパラメータ(例えば「resolution=fhd/hd/sd」や「view=vr(VR表示可能)/flexible(視点移動可能)/fixed(非対応)」)を付与し、ステップS702でパラメータから表示装置の能力を取得するような構成としてもよい。
ステップS703では、CPU A101は、ステップS702で取得した表示装置の能力に基づき、全天球動画データの配信要求を行った表示装置が、VR表示可能か否かを判定する。表示装置がVR表示できない場合はステップS704へ進み、VR表示が可能な場合は、後述するステップS713〜ステップS717の全天球動画データの配信処理を行う。
ステップS704では、CPU A101は、図4のデータベースを確認し、配信を要求された全天球動画データに対応したダイジェスト動画データ405が存在するか否かを判定する。対応するダイジェスト動画データ405が存在する場合にはステップS705へ進み、存在しない場合は全天球動画データを配信するため後述するステップS713〜ステップS717の処理を行う。
ステップS705では、CPU A101は、全天球動画データの配信を要求した表示装置が、サムネイル表示をおこなうために要求しているか否かを判定する。ステップS701の説明で述べたとおり、映像処理装置A100が受信したGETリクエストにURIパラメータ「type=thumb」ついている場合に、CPU A101はサムネイル用途の配信要求であると判定する。サムネイル表示用途である場合は、ステップS706へ進み、サムネイル表示用途でない場合はステップS709へ進む。
ステップS706〜ステップS708 は、サムネイル表示用の動画データを配信するための処理である。
ステップS706では、CPU A101は、ステップS701で要求された全天球動画データのIDと図4のデータベースから、要求された全天球動画データに対応したSD解像度のダイジェスト動画データを、送信する画像データとして選択する。
ステップS707では、CPU A101は、ステップS706で選択したSD解像度のダイジェスト動画データを既定のプロトコルにしたがって表示装置に送信する。例えば、HTTP GETレスポンスとして動画データの一部を逐次送信する。
ステップS708では、CPU A101は、ステップS706で選択したダイジェスト動画データをすべて送信したか否かを判別し、すべて送信した場合に本フローチャートを終了する。
ステップS709〜ステップS712は、VR表示不可能な表示装置に対して、全天球動画データの代わりにダイジェスト動画データを配信するための処理である。
ステップS709では、CPU A101は、まずステップS702で取得した表示装置の表示解像度を元に、FHD・HD・SDの解像度の中から配信するダイジェスト動画データの解像度を決定する。具体的には、表示装置の解像度がFHDより以上の場合はFHDを使用し、FHDより小さい場合は表示装置の解像度より大きい最も小さい解像度を使用する。次に、CPU A101は、ステップS701で要求された全天球動画データのIDと図4のデータベースと選択した解像度から、要求された全天球動画データに対応したダイジェスト動画データを選択する。
ステップS710では、CPU A101は、ステップS709で選択したイジェスト動画データを既定のプロトコルにしたがって表示装置に送信する。例えば、HTTP GETレスポンスとして動画データの一部を逐次送信する。
ステップS711では、CPU A101は、表示装置と通信して、表示装置において視野変更の操作203が行われたか否かを取得する。視野変更操作が行われない場合は、ダイジェスト動画データの配信を継続するためにステップS712へ進む。一方、視野変更操作が行われた場合には、配信する動画データを全天球動画データに切り替えるために、ステップS713〜ステップS717の処理を行う。なお、表示装置が視野変更のできない平面動画データの再生のみに対応している場合は、本ステップは常にNOとなる。
ステップS712では、CPU A101は、ステップS709で選択したダイジェスト動画データをすべて送信したか否かを判別し、すべて送信した場合に本フローチャートを終了する。
ステップS713〜ステップS716は、全天球動画データを配信するための処理である。
ステップS713では、CPU A101は、ステップS701で要求された全天球動画データを既定のプロトコルにしたがって表示装置に送信する。例えば、HTTP GETレスポンスとして動画データの一部を逐次送信する。なお、ステップS711からステップS713へ遷移した場合は、ステップS709〜ステップS712で送信した動画データの続きとして全天球動画をステップS713〜ステップS717で配信するように制御する。
ステップS714では、CPU A101は、表示装置と通信して、表示装置において表示されている全天球動画データの領域(すなわち正距円筒図法上の表示領域213)の情報を取得する。
ステップS715では、CPU A101は、ステップS714で取得した情報にした以外、配信している全天球動画データのヒートマップ301を更新する。具体的には、ステップS714で取得したち正距円筒図法上の表示領域213に含まれるブロックの表示回数を更新する。これにより、ステップS713〜ステップS717で配信する全天球動画データの視聴状況に応じて、ヒートマップが順次更新されることとなる。
ステップS716では、CPU A101は、ステップS701で要求された全天球動画データをすべて送信したか否かを判別し、すべて送信した場合はステップS717へ進む。
ステップS717では、CPU A101は、図4のデータベースを更新し、ステップS713〜ステップS716で送信した全天球動画データの表示回数403を増加させる。
以上、図7のフローチャートによれば、本発明の映像処理装置A100において、全天球動画データの配信が要求された場合に、表示装置の表示能力と表示目的に応じて、全天球動画データあるいはダイジェスト動画データの配信を行うことができる。
したがって本発明によれば、VR再生機能を備えない表示装置(すなわち視点移動操作が必要となる表示装置や、および、全天球動画に対応しない従来の表示装置)に対して、ヒートマップにも基づくダイジェスト動画配信データを配信することができる。当該表示装置においては、このダイジェスト動画データを表示することにより、視点移動操作を行うことなく全天球動画データの最も多く表示された領域を視聴することができる。さらに、ダイジェスト動画データは、表示装置で表示される領域のみを含むことから、全天球動画データよりデータ量が少なく、ダイジェスト動画データを配信することでネットワーク帯域の圧迫を避けることができる。
[その他の実施例]
実施例1では、表示装置における画角より広い画角の動画データとして、全天球動画データを例示したが、本発明はこれに限定されるわけではなく、パノラマ動画データや360度動画データなど他の広い画角の動画データ形式であってもよい。
実施例1では、全天球動画データの平面表現に際し正距円筒図法を用いたが、本発明はこれに限定されるわけではない。例えば、ダブルフィッシュアイというような平面表現を用いてもよい。
A100 映像処理装置
A101 CPU(情報取得手段、ヒートマップ作製手段、ダイジェスト動画データ生成手段)
A102 メモリ
A103 不揮発性メモリ
A104 操作部
A105 表示部
A106 大容量ストレージ(動画データ保持手段)
A107 有線LAN部(通信手段)
A108 システムバス
B100 インターネット
C101〜C103 表示装置

Claims (8)

  1. ネットワークを通じて表示装置に対して動画データを配信する画像処理装置であって、
    一つ以上の表示装置と相互に通信するための通信手段と、
    表示装置における画角より広い画角の動画データを保持するための動画データ保持手段と、
    前記動画データを表示装置のおける表示視野情報を含む表示状況を取得する表示情報取得手段と、
    取得した上記表示情報に基づき前記動画データにおける各領域の視聴頻度(ヒートマップ)を算出するヒートマップ作成手段と、
    前記ヒートマップに基づき前記動画データの画角の一部からなる動画データ生成するダイジェスト動画データ生成手段を備えることを特徴とする画像処理装置。
  2. 請求項1記載の画像処理装置であって、
    表示情報取得手段の取得する情報には再生装置の再生能力情報を含み、
    前記ヒートマップ作製手段は所望の再生機能を有する表示装置からの情報に基づきヒートマップを生成することを特徴とする画像処理装置。
  3. 請求項1〜2記載の画像処理装置であって、
    前記ダイジェスト動画データ生成手段で生成する動画データの画角は前記表示装置で表示可能な画角であることを特徴とする画像処理装置。
  4. 請求項1〜3記載の画像処理装置であって、
    前記ダイジェスト動画データ生成手段で生成する動画データは同一画角で解像度の異なる一つ以上の表示動画データを生成することを特徴とする画像処理装置。
  5. 請求項1〜4記載の画像処理装置であって、
    前記動画データ保持手段は前記表示データ生成手段により生成された表示動画データも同様に保持することを特徴とする画像処理装置。
  6. 請求項1〜5記載の画像処理装置であって、
    前記表示装置が画角変更の機能を有さない場合は、生成したいずれかのダイジェスト動画データを前記通信手段により送信することを特徴とする画像処理装置。
  7. 請求項1〜6記載の画像処理装置であって、
    表示装置が動画の一覧表示ないしは縮小表示をする場合は、生成したいずれかの表示動画データを前記通信手段により送信することを特徴とする画像処理装置。
  8. 請求項1〜7記載の画像処理装置であって、
    表示装置において画角変更操作が行われない間は、生成したいずれかの表示動画データを前記通信手段により送信し、表示装置において画角変更操作が行われた場合は、元の動画データを前記通信手段により送信することを特徴とする画像処理装置。
JP2020012680A 2020-01-29 2020-01-29 映像処理装置 Pending JP2021118517A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020012680A JP2021118517A (ja) 2020-01-29 2020-01-29 映像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020012680A JP2021118517A (ja) 2020-01-29 2020-01-29 映像処理装置

Publications (1)

Publication Number Publication Date
JP2021118517A true JP2021118517A (ja) 2021-08-10

Family

ID=77175793

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020012680A Pending JP2021118517A (ja) 2020-01-29 2020-01-29 映像処理装置

Country Status (1)

Country Link
JP (1) JP2021118517A (ja)

Similar Documents

Publication Publication Date Title
EP2490179B1 (en) Method and apparatus for transmitting and receiving a panoramic video stream
US9781356B1 (en) Panoramic video viewer
KR102336997B1 (ko) 서버, 디스플레이장치 및 그 제어방법
JP2007043505A (ja) 撮像システムとカメラ制御装置およびパノラマ画像生成方法とプログラム
JP7111288B2 (ja) ビデオ処理方法、装置および記憶媒体
JP2016201714A (ja) 表示制御装置および表示制御方法
JP7472217B2 (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
JP2012094990A (ja) 視点連動画像表示システム
CN104380707A (zh) 捕获控制装置、捕获控制方法及程序
US11956408B2 (en) Information processing system, information processing method, and storage medium
JP2020527883A5 (ja)
JP4317234B2 (ja) 画像表示制御装置および画像表示制御方法および画像表示制御プログラム
KR20200005591A (ko) 몰입형 비디오 컨텐츠를 생성 및 렌더링하기 위한 방법들, 시스템들 및 매체들
JP5915604B2 (ja) 情報処理装置、プログラム及び情報処理方法
JP2021118517A (ja) 映像処理装置
US10841490B2 (en) Processing method and processing system for video data
JP6261191B2 (ja) 表示制御装置、表示制御方法、プログラム
JP6341924B2 (ja) ハンドヘルドディスプレイズーム機能
JP6551107B2 (ja) サーバ装置、サーバプログラム、端末プログラム、動画送信方法、動画表示方法、通信システム
JP2020136821A (ja) 情報処理装置及びその制御方法、プログラム
JP5850012B2 (ja) 情報処理装置、プログラム及び通信システム
JP2021192471A (ja) 表示制御装置および表示制御方法、並びにプログラム
US20230009185A1 (en) Information processing apparatus, information processing method, video display system, and storage medium
JP6589526B2 (ja) ビットレート決定装置、サーバ装置、ビットレート決定方法、及びプログラム
JP5769527B2 (ja) 情報処理装置、情報処理方法