JP5777185B1 - 全周動画配信システム、全周動画配信方法、通信端末装置およびそれらの制御方法と制御プログラム - Google Patents

全周動画配信システム、全周動画配信方法、通信端末装置およびそれらの制御方法と制御プログラム Download PDF

Info

Publication number
JP5777185B1
JP5777185B1 JP2014102673A JP2014102673A JP5777185B1 JP 5777185 B1 JP5777185 B1 JP 5777185B1 JP 2014102673 A JP2014102673 A JP 2014102673A JP 2014102673 A JP2014102673 A JP 2014102673A JP 5777185 B1 JP5777185 B1 JP 5777185B1
Authority
JP
Japan
Prior art keywords
round
video
live
data
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014102673A
Other languages
English (en)
Other versions
JP2015220595A (ja
Inventor
俊一郎 左部
俊一郎 左部
小林 史明
史明 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
UNIMOTO INCORPORATED
Original Assignee
UNIMOTO INCORPORATED
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by UNIMOTO INCORPORATED filed Critical UNIMOTO INCORPORATED
Priority to JP2014102673A priority Critical patent/JP5777185B1/ja
Priority to EP15792343.4A priority patent/EP3145199A4/en
Priority to US15/311,458 priority patent/US9741091B2/en
Priority to PCT/JP2015/063934 priority patent/WO2015174501A1/ja
Application granted granted Critical
Publication of JP5777185B1 publication Critical patent/JP5777185B1/ja
Publication of JP2015220595A publication Critical patent/JP2015220595A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】ユーザが全周動画をライブで視聴することができるライブ配信システム、ライブ配信方法、画像処理装置、通信端末装置およびそれらの制御方法と制御プログラムを提供する。【解決手段】全周カメラ110と、全周カメラ110で撮影された全周動画を取得して時系列の全周フレーム画像データを生成する全周画像生成部121と、時系列の全周フレーム画像データに対して符号化を行なって、通信端末装置150において実時間でストリーミング再生可能なフォーマットの全周動画データを生成する全周動画データ生成部122と、全周動画データ生成部122からアップロードされた全周動画データを、通信端末装置150に配信するライブ配信サーバ130と、ライブ配信サーバ130から配信された全周動画データを実時間でストリーミング再生し、ユーザによる視線の指示に応じた範囲の動画映像を表示する全周動画ライブ再生部140を備える。【選択図】図1

Description

本発明は、全周カメラで取得した全周動画のライブ配信を可能とする技術に関する。
上記技術分野において、特許文献1には、複数のカメラからなる全周カメラで撮影した映像に基づいて、全周ビデオを生成するための技術が開示されている。また、特許文献2には、1つの撮像センサからなる全周カメラから全周動画を再生するための技術が開示されている。
特開2012−189551号公報 特開2004−012717号公報
しかしながら、上記文献に記載の技術では、ユーザが全周動画をライブで視聴することができなかった。
本発明の目的は、上述の課題を解決する技術を提供することにある。
上記目的を達成するため、本発明に係る全周動画配信システムは、
全周カメラと、
前記全周カメラで撮影された全周動画を取得して時系列の全周フレーム画像データを生成する全周画像生成手段と、
前記全周カメラの撮影に同期して立体音声を取得するマイクと、
前記立体音声から時系列の立体音声データを生成してアップロードする立体音声データ生成手段と、
前記時系列の全周フレーム画像データに対して符号化を行なって、全周動画データを生成してアップロードする全周動画データ生成手段と、
前記全周動画データ生成手段からアップロードされた前記全周動画データと、前記立体音声データ生成手段からアップロードされた前記立体音声データとを配信する配信用サーバと、
前記配信用サーバから配信された前記全周動画データを再生し、ユーザによる視線変化の指示に応じて、再生された全周動画から選択された範囲の動画映像を表示し、前記動画映像の表示方向に対応する立体音声を、前記配信用サーバから配信された前記立体音声データから再生して出力する全周動画再生手段と、
を備え
前記全周動画再生手段は、前記動画映像のズームインまたはズームアウトを行ない、前記立体音声データから、前記動画映像のズームインまたはズームアウトに応じた立体音声を再生して出力する。
上記目的を達成するため、本発明に係る全周動画配信方法は、
全周画像生成手段が、全周カメラで撮影された全周動画を取得して時系列の全周フレーム画像データを生成する全周画像生成ステップと、
立体音声データ生成手段が、前記全周カメラの撮影に同期してマイクにより取得した立体音声から、時系列の立体音声データを生成してアップロードする立体音声データ生成ステップと、
全周動画データ生成手段が、前記時系列の全周フレーム画像データに対して符号化を行なって、全周動画データを生成してアップロードする全周動画データ生成ステップと、
配信用サーバが、アップロードされた前記全周動画データと前記立体音声データとを配信する配信ステップと、
全周動画再生手段が、前記配信用サーバから配信された前記全周動画データを再生し、ユーザによる視線変化の指示に応じて、再生された全周動画から選択された範囲の動画映像を表示し、前記動画映像の表示方向に対応する立体音声を、前記配信用サーバから配信された前記立体音声データから再生して出力する全周動画再生ステップと、
を含み、
前記全周動画再生ステップにおいて、前記動画映像のズームインまたはズームアウトを行ない、前記立体音声データから、前記動画映像のズームインまたはズームアウトに応じた立体音声を再生して出力する
上記目的を達成するため、本発明に係る通信端末装置は、
全周動画を配信する配信用サーバから全周動画データを受信する全周動画データ受信手段と、
前記全周動画データと同期して取得した立体音声から生成された立体音声データを、前記配信用サーバから受信する立体音声データ受信手段と、
受信した前記全周動画データを復号して全周フレーム画像の単位で、視点を内部に含むマッピング用立体上に展開する全周動画展開手段と、
ユーザによる視線変化の指示に応じて、展開された前記全周フレーム画像から表示範囲を選択して表示し、前記表示範囲の前記全周フレーム画像の中の方向に対応する立体音声を、前記立体音声データから再生して出力する全周動画再生手段と、
を備え
前記全周動画再生手段は、前記動画映像のズームインまたはズームアウトを行ない、前記立体音声データから、前記動画映像のズームインまたはズームアウトに応じた立体音声を再生して出力する。
上記目的を達成するため、本発明に係る通信端末装置の制御方法は、
通信端末装置の全周動画データ受信手段が、全周動画を配信する配信用サーバから全周動画データを受信する全周動画データ受信ステップと、
前記通信端末装置の立体音声データ受信手段が、前記全周動画データと同期して取得した立体音声から生成された立体音声データを、前記配信サーバから受信する立体音声データ受信ステップと、
前記通信端末装置の全周動画展開手段が、受信した前記全周動画データを復号して全周フレーム画像の単位で、視点を内部に含むマッピング用立体上に展開する全周動画展開ステップと、
前記通信端末装置の全周動画再生手段が、ユーザによる視線変化の指示に応じて、展開された前記全周フレーム画像から表示範囲を選択して表示し、前記表示範囲の前記全周フレーム画像の中の方向に対応する立体音声を、前記立体音声データから再生して出力する全周動画再生ステップと、
を含み、
前記全周動画再生ステップにおいて、前記動画映像のズームインまたはズームアウトを行ない、前記立体音声データから、前記動画映像のズームインまたはズームアウトに応じた立体音声を再生して出力する
上記目的を達成するため、本発明に係る通信端末装置の制御プログラムは、
全周動画を配信する配信用サーバから全周動画データを受信する全周動画データ受信ステップと、
前記全周動画データと同期して取得した立体音声から生成された立体音声データを、前記配信用サーバから受信する立体音声データ受信ステップと、
受信した前記全周動画データを復号して全周フレーム画像の単位で、視点を内部に含むマッピング用立体上に展開する全周動画展開ステップと、
ユーザによる視線変化の指示に応じて、展開された前記全周フレーム画像から表示範囲を選択して表示し、前記表示範囲の前記全周フレーム画像の中の方向に対応する立体音声を、前記立体音声データから再生して出力する全周動画再生ステップと、
を通信端末装置が有するコンピュータに実行させる通信端末装置の制御プログラムであって、
前記全周動画再生ステップにおいて、前記動画映像のズームインまたはズームアウトを行ない、前記立体音声データから、前記動画映像のズームインまたはズームアウトに応じた立体音声を再生して出力する
本発明によれば、ユーザが全周動画をライブで視聴することができる。
本発明の第1実施形態に係る全周動画ライブ配信システムの構成を示すブロック図である。 本発明の第2実施形態に係る全周動画ライブ配信システムの処理の概要を示す図である。 本発明の第2実施形態に係る全周動画ライブ配信システムの動作の概要を示す図である。 本発明の第2実施形態に係る全周動画ライブ配信システムの構成を示すブロック図である。 本発明の第2実施形態に係る全周動画ライブ配信システムの動作例を示す図である。 本発明の第2実施形態に係る全周動画ライブ配信システムの動作手順を示すシーケンス図である。 本発明の第2実施形態に係る全周カメラの機能構成を示すブロック図である。 本発明の第2実施形態に係る全周カメラの構造例を説明する図である。 本発明の第2実施形態に係る全周カメラのデータ構成を示す図である。 本発明の第2実施形態に係る撮影配信用PCの機能構成を示すブロック図である。 本発明の第2実施形態に係る撮影配信用PCの映像データ構成を示す図である。 本発明の第2実施形態に係る撮影配信用PCの音声データ構成を示す図である。 本発明の第2実施形態に係る撮影配信用PCのライブ配信用データ形式およびライブ配信用データを示す図である。 本発明の第2実施形態に係るライブ映像配信サーバの機能構成を示すブロック図である。 本発明の第2実施形態に係るライブ映像配信サーバへのURLの構成例およびデータ変換例を示す図である。 本発明の第2実施形態に係る通信端末の機能構成を示すブロック図である。 本発明の第2実施形態に係る通信端末における全周ライブ映像の展開を説明する図である。 本発明の第2実施形態に係る通信端末の全周動画のライブ再生用情報、映像データ構成および音声データ構成を示す図である。 本発明の第2実施形態に係る撮影配信用PCのハードウェア構成を示すブロック図である。 本発明の第2実施形態に係る撮影配信用PCの処理手順を示すフローチャートである。 本発明の第2実施形態に係るライブ映像配信サーバのハードウェア構成を示すブロック図である。 本発明の第2実施形態に係るライブ映像配信サーバの処理手順を示すフローチャートである。 本発明の第2実施形態に係る通信端末のハードウェア構成を示すブロック図である。 本発明の第2実施形態に係る通信端末の処理手順を示すフローチャートである。 本発明の第2実施形態に係る全周動画ライブ再生プレーヤの処理手順を示すフローチャートである。 本発明の第3実施形態に係る全周動画ライブ配信システムの処理の概要を示す図である。 本発明の第3実施形態に係る通信端末の処理データの構成を示す図である。 本発明の第3実施形態に係る全周動画ライブ再生プレーヤの処理手順を示すフローチャートである。 本発明の第4実施形態に係る全周動画ライブ配信システムの処理の概要を示す図である。 本発明の第4実施形態に係る全周動画ライブ配信システムの処理の概要を示す図である。 本発明の第4実施形態に係る通信端末の処理データの構成を示す図である。 本発明の第4実施形態に係る全周動画ライブ再生プレーヤの処理手順を示すフローチャートである。 本発明の第5実施形態に係る全周動画ライブ配信システムの処理の概要を示す図である。 本発明の第5実施形態に係る通信端末の処理データの構成を示す図である。 本発明の第5実施形態に係る全周動画ライブ再生プレーヤの処理手順を示すフローチャートである。 本発明の第6実施形態に係る全周動画ライブ配信システムの処理の概要を示す図である。 本発明の第6実施形態に係る全周動画ライブ配信システムの動作の概要を示す図である。 本発明の第6実施形態に係る通信端末の処理データの構成を示す図である。 本発明の第6実施形態に係る全周動画ライブ再生プレーヤの処理手順を示すフローチャートである。 本発明の第7実施形態に係る全周動画ライブ配信システムの処理の概要を示す図である。 本発明の第7実施形態に係るテレビ局における処理データの変換を示す図である。 本発明の第8実施形態に係る全周動画ライブ配信システムの処理の概要を示す図である。
以下に、図面を参照して、本発明の実施の形態について例示的に詳しく説明する。ただし、以下の実施の形態に記載されている構成要素は単なる例示であり、本発明の技術範囲をそれらのみに限定する趣旨のものではない。
本明細書において、「データ」は、装置間の通信用に処理をされていない生の情報を示し、例えば、「映像データ」は、カメラで撮像してデジタル量子化し、画素処理や画像処理、あるいはベクトル化などをした映像の情報である。また、「音声データ」は、マイクで集音してデジタル量子化し、音声処理、あるいはベクトル化などをした音声の情報である。そして、「動画データ」は、「映像データ」と「音声データ」を時系列に同期して含む動画の情報である。また、「メッセージ」は、これら「データ」を装置間で通信するために、装置間の通信を規定する所望のプロトコルが許容する所定のフォーマット化(通信元/通信先を含むヘッダと通信するデータ、必要であれば、圧縮符号化や暗号化を含む)を施した情報である。なお、本明細書における「メッセージ」は、1つのまとまった映像コンテンツや画像あるいは動画コンテンツを表現する、いわゆる「ファイル」とは異なり、ライブ配信を提供するための断片的な実時間のデータをフォーマット化した情報を示す。また、「全周カメラ」「全周動画」「全周フレーム」などで使用する「全周」は、視点(撮像位置)を囲む全域を表わす。
[第1実施形態]
本発明の第1実施形態としての情報処理装置100について、図1を用いて説明する。情報処理装置100は、全周動画をライブ再生する装置である。
図1に示すように、情報処理装置100は、全周カメラ110と、全周画像生成部121と、全周動画データ生成部122と、ライブ配信用サーバ130と、動画ライブ再生部140と、を含む。全周カメラ110は、全周映像を撮影する。全周画像生成部121は、全周カメラ110で撮影された全周動画を取得して時系列の全周フレーム画像データを生成する。全周動画データ生成部122は、時系列の全周フレーム画像データに対して符号化を行なって、通信端末装置150において実時間でストリーミング再生可能なフォーマットの全周動画データを生成する。ライブ配信用サーバ130は、全周動画データ生成部122からアップロードされた全周動画データを、通信端末装置150に配信する。動画ライブ再生部140は、ライブ配信用サーバ130から配信された全周動画データを実時間でストリーミング再生し、ユーザによる視線の指示に応じた範囲の動画映像を表示する。
本実施形態によれば、全周カメラからの全周動画をライブ配信可能に構成したことにより、ユーザが全周動画をライブで視聴することができる。
[第2実施形態]
次に、本発明の第2実施形態に係る全周動画ライブ配信システムについて説明する。本実施形態の全周動画ライブ配信システムは、全周カメラで撮影した動画からフレーム単位の全周画像データを生成して、通信端末において動画ライブ再生が可能なフォーマットのデータを生成して、動画ライブ配信サーバにアップロードする。動画ライブ配信サーバは、通信端末が受信可能なプロトコルでメッセージを実時間に配信する。通信端末は、配信されたメッセージから全周動画をライブ再生し、ユーザの指示に従って所望の方向の全周動画をライブ表示する。また、全周動画の表示方向に対応する音声を立体音声でライブ再生する。なお、全周動画のライブ表示に対応する立体音声は、ステレオマイクで集音したライブ音声に限定されず、ライブ表示された全周動画に関連する他の立体音声や人工的に生成した立体音声であってもよい。また、本実施形態では立体音声として、ステレオ音声データに基づくステレオ音声の出力例を示すが、5.1チャネルの立体音声データに基づく立体音声であってもよい。
《全周動画ライブ配信システム》
図2A乃至図3Cを参照して、本実施形態の全周動画ライブ配信システムの処理を説明する。
(処理の概要)
図2Aは、本実施形態に係る全周動画ライブ配信システム200の処理の概要を示す図である。
全周動画ライブ配信システム200においては、全周の5方向の映像を撮影する5つの撮像センサと、真上の映像を撮影する1つの撮像センサからなる全周カメラにより、6方向の動画を同時に撮影する。したがって、この全周カメラを全天空カメラとも言う。なお、全周カメラの撮像センサの数は本例に限定されない。図2Aにおいて、映像210は真上の映像、映像211〜215は全周をカバーする映像である。本実施形態においては、映像210〜215に基づいて、各映像の重なり部分を整合する画像調整を行なって全周を結合した全周画像フレーム220を生成する。なお、全周画像フレーム220の下辺222から所定距離領域225の画像データは、全周カメラの下方の撮影不可能な直下領域を補完するデータである。
この全周画像フレーム220からなるライブ動画は、全周動画が通信端末240においてライブ再生可能なフォーマットのデータに変換される。例えば、FLV(Flash Video)フォーマットが使用されるのが望ましいが、限定されるわけではない。また、送信するデータ(いわゆる、ストリームデータ)のパターンによっては、FLVフォーマットへの変換が必ず必要なわけではなく、その場合はFLVフォーマットへの変換は削除されてもよい。
FLVフォーマットに変換された全周動画は、所定の動画配信プロトコルに従ってライブ映像配信サーバを中継して、本実施形態の全周動画ライブ再生プレーヤが動作する通信端末240で再生される。図2Aの通信端末240において、まず、全周画像フレーム220が、球体230に投影される。全周画像フレーム220の上辺221は、球体の頂点231に投影される。全周画像フレーム220の下辺222は、球体の底232に投影される。なお、切断円235から下方の底232までは、全周カメラでは撮影できない直下領域に相当する。球体230に投影された全周動画を球体230の中心233から平面234に投射すると、通信端末240に全周動画中の視線に応じた領域の動画がライブ再生される。ライブ再生された全周動画はユーザのタッチ251〜254のスライドに従って、映像241〜244のように全周動画の方向が回転する。図2Aでは視点を球体230の中心233として説明したが、視点の位置を変えることにより、ライブ再生する領域やサイズを変更できる。
なお、図2Aには、ステレオ音響については図示されていない。例えは、全周カメラと同じ位置にステレオマイクを配置して、全周動画と同期してステレオ音響を集音して、全周動画のライブ配信および再生に同期してステレオ音響を出力する。かかる、全周動画とステレオ音響とを同期させてライブ再生すれば、野外でのお祭りなどのイベント、あるいは屋内でのライブコンサートや展示会場などで、視線を変えることで音声も変化するのでより臨場感にあふれたライブ動画を視聴できる。また、ライブ音声とは異なる美術館の絵画の解説などのステレオ音響を、全周動画のライブ再生と同期させることもできる。
(動作の概要)
図2Bは、本実施形態に係る全周動画ライブ配信システム200の動作の概要を示す図である。
通信端末240において、画面261では、サービスメニューからユーザが所望するサービスを選択する。本例では、「全周動画ライブ視聴」のサービスを選択する。画面262には、「全周動画ライブ視聴」のホームページが立ち上がり、複数の全周動画ライブの番組が表示されている。本例では、複数の全周動画ライブの番組から野球中継が選択されている。通信端末240は、データ配信サーバから野球中継のHTMLタグに基づいて、ライブ映像配信サーバから全周動画ライブを得るURL(Uniform Resource Locator)を取得して、ライブ映像配信サーバ上の野球中継の全周動画ライブにアクセスする。通信端末240には、全周ライブ開始の画面263が表示される。全周ライブ開始の指示に応じて、全周ライブの動画と全周カメラの位置264が表示される。なお、図2Bの動作の概要は、一例であってこれに限定されない。
(システム構成)
図3Aは、本実施形態に係る全周動画ライブ配信システム200の構成を示すブロック図である。
全周動画ライブ配信システム200は、全周カメラ310と、オプションとしてのステレオマイク370と、撮影配信用パーソナルコンピュータ(以降、PC)320と、ライブ映像配信サーバ330と、通信端末341〜343と、を含む。また、全周動画ライブ配信システム200は、データ配信サーバ350を含む。なお、ライブ映像配信サーバ330やデータ配信サーバ350は、ネットワーク360を介して、撮影配信用PC320や通信端末341〜343と通信接続する。
全周カメラ310は、前述のように6つの撮像センサにより全天動画を撮影する。レンズなどによる歪みや明暗などの調整は、全周カメラ310で行なわれて、各デジタル画像フレームを撮影配信用PC320に出力する。ステレオマイク370は、全周カメラ310で撮影する動画に同期した立体音声を集音する。なお、図3Aでは、ステレオマイク370の音声は1つのデータストリームに結合されて撮影配信用PC320に入力されているが、撮影配信用PC320において結合処理がされてもよい。また、音声が必要なければ、ステレオマイク370は接続しなくてもよい。
撮影配信用PC320では、まず、全周カメラ310からの6つの撮像センサの動画データに基づいて、各画像の境の整合性を取ってそれぞれ全周画像データをフレーム単位で生成する。次に、全周画像データに対して圧縮符号化を行なって、全周動画がライブ再生可能なFLVフォーマットのデータに変換される。同期するステレオ音響があれば、圧縮符号化を行なって、FLVフォーマットのデータに追加される。
次に、FLVフォーマットのデータは、RTMP(Real Time Messaging Protocol)に従って、ライブ映像配信サーバ330にアップロードされる。ライブ映像配信サーバ330においては、例えば、あらかじめHTML(Hyper Text Markup Language)タグでWebページに埋め込まれたものから、URLで参照できるように確保された格納位置に格納される。ライブ映像配信サーバ330は、必要であれば、各通信端末341〜343で復号可能な符号化あるいは暗号化を行なう。
一方、全周動画のライブ再生を視聴する通信端末341〜343からは、まず、データ配信サーバ(Webサーバ)350とHTTP(Hypertext Transfer Protocol)に従い全周動画のライブ再生の視聴サービスを提供するWebページを開く。そのWebページに埋め込まれた全周動画ライブ配信タグが指示されると、ライブ映像配信サーバ330の該当IPアドレスにアクセスする。ライブ映像配信サーバ330は、確保された格納位置に順次に格納される全周動画をライブ配信する。ただし、全周動画のライブ配信先が携帯端末342や343のスマートフォンやタブレットの場合は、配信規格をHLS(HTTP Live Streaming)に変換することにより配信する。一方、全周動画のライブ配信先が通信端末341のPCの場合は、RTMPのまま配信、あるいは配信規格をHLSやHDS(HTTP Dynamic Streaming)に変換することにより配信する。
(動作例)
図3Bは、本実施形態に係る全周動画ライブ配信システム200の動作例を示す図である。なお、図3Bは、図3AにおけるHTMLタグを埋め込む操作を可視的に図示したものである。
図3Bにおいて、データ変換部とフラッシュメディアサーバとが、図3Aのライブ映像配信サーバ330に相当する。ホームページ371、372にライブコンテンツごとあるいはイベントごとのHTMLタグを貼り付け、ここからライブ映像配信サーバ330にアクセスして、全周カメラからのライブデータをアクセスし、通信端末340で全周動画のライブ再生を視聴する。
なお、本実施形態においては、ホームページ371、372にライブコンテンツごとあるいはイベントごとのHTMLタグを貼り付けて、全周動画をライブ再生する例を示したが、ライブ映像配信サーバ330に通信端末341〜343から直接アクセスして、全周動画のライブ再生を視聴することも可能である。
(動作手順)
図3Cは、本実施形態に係る全周動画ライブ配信システム200の動作手順を示すシーケンス図である。なお、図3Cにおいては、ユーザPC341と携帯端末342、343とのステップを同じボックスで図示した部分があるが、煩雑さを避けるためであって別のステップである。また、図3Cにおいては、ユーザ認証などの処理は省略している。ユーザ認証を行なうためには、他に認証サーバを設けてユーザあるいは通信端末を登録しておき、認証を行なう。
撮影配信用PC320は、ステップS311において、カメラあるいはマイクの調整制御を行なう。全周カメラ310は、ステップS301において、撮影配信用PC320の制御に従って、カメラの調整を行なう。そして、全周カメラ310は、ステップS303において、6つの撮影センサにより全周映像を取得して、撮像センサの位置IDを付加して撮影配信用PC320に送信する。なお、ステレオマイク370においても、ステップS305において、マイクが調整され、ステップS307において、立体音声を取得して、マイクIDを付加して撮影配信用PC320に送信する。
撮影配信用PC320は、ステップS313において、全周カメラ310から6つの撮影センサが撮影した映像データを取得する。そして、撮影配信用PC320は、ステップS315において、取得した映像データを結合して全周画像フレームを生成する。次に、撮影配信用PC320は、ステップS317において、ライブ配信するための全周動画データを作成する。この時に、例えば、H.264による動画圧縮を行なう。なお、動画圧縮はH.264に限定されない。しかしながら、多くの通信端末のプレーヤで伸張可能な圧縮方式が望ましい。動画圧縮方式としては、H.264の外に、H.263、WMV、DivX、VP6、VP7、VP8、VP9、Theora、WebM、MPEG1、MPEG2、MPEG4、DV等が使用可能である。
一方、音声について、撮影配信用PC320は、ステップS319において、ステレオマイクから音声データを取得する。次に、撮影配信用PC320は、ステップS321において、ライブ配信するための音声データを作成する。この時に、例えば、MP3による音声圧縮を行なう。なお、音声圧縮はMP3に限定されない。しかしながら、多くの通信端末のプレーヤで伸張可能な圧縮方式が望ましい。音声圧縮方式としては、MP3の外に、AAC、HE-AAC、Vorbis、FLAC、Nellymoser、Speex、Apple Lossless、非圧縮のWAV等が使用可能である。
撮影配信用PC320は、ステップS323において、所望の圧縮処理をされた全周動画データと音声データとを同期再生可能に、ライブ映像配信用データを生成する。本例では、前述のFLVフォーマットのデータを生成する。生成したFLVフォーマットのデータは、撮影配信用PC320により、ステップS325において、本例では、RTMPに従ったライブ映像配信メッセージによりライブ映像配信サーバ330にアップロードされる。
一方、ライブ映像配信サーバ330は、ステップS331において、ライブ映像配信URLを決定してライブ映像配信エリアを確保する。データ配信サーバ350では、ステップS351において、Webページに全周動画ライブ配信用タグが貼り付けられる。そして、通信端末341〜343から、ステップS361またはS381において、Webページから全周動画ライブ視聴の指示があるとする。データ配信サーバ350は、ステップS353において、通信端末341〜343からの視聴指示を取得して、ステップS355において、ライブ映像配信元を通信端末341〜343に通知する。この時に、全周動画をライブ再生するための全周動画ライブ再生プレーヤが、通信端末341〜343に送信される。すなわち、実際はプレーヤURLを、全周動画ライブ配信用タグで指定し、ライブ映像配信URLはプレーヤ自体に埋め込まれたり、プレーヤが別途取得したり、あるいは、全周動画ライブ配信用タグに含ませることもできる。
通信端末341〜343は、ステップS363またはS383において、ライブ映像配信元を取得すると共に、全周動画ライブ再生プレーヤを受信して、ステップS365またはS385において、全周動画ライブ再生プレーヤを起動させる。そして、通信端末341〜343は、ステップS367またはS387において、通信端末ごとに対応したURLを指定することで全周動画のライブ再生の視聴をライブ映像配信サーバ330に要求する。
RTMPに従った撮影配信用PC320からの全周ライブ映像配信用データのアップロードがあると、ライブ映像配信サーバ330は、ステップS335において、全周ライブ映像配信用データを取得してライブ動画記憶領域に一時保持する。そして、ライブ映像配信サーバ330は、ステップS337において、全周ライブ動画配信用メッセージをスマートフォンやタブレット用のフォーマット(例えば、HLS)に変換して一時保持する。さらに他のフォーマットが必要であれば、フォーマット変換して一時保持しておく。
全周ライブ映像の配信先が通信端末341のPCであれば、ライブ映像配信サーバ330は、ステップS339において、全周動画をRTMPに従って配信先の通信端末341にライブ配信する。この場合に、複数の配信先があればユニキャストにより同時に配信される。通信端末341は、ステップS369において、全周ライブ動画配信用メッセージを受信し、ステップS371において、全周動画をライブ再生する。なお、PC向けには、RTMFP(Real Time Media Flow Protocol)プロトコルによるマルチキャストも可能である。
一方、全周ライブ映像の配信先が携帯端末342または343のスマートフォンやタブレットであれば、ライブ映像配信サーバ330は、ステップS341において、全周動画をHLSにより配信先の携帯端末342または343にライブ配信する。この場合に、複数の配信先があればユニキャストにより順次に配信される。携帯端末342または343は、ステップS389において、全周ライブ動画配信用メッセージを受信し、ステップS391において、全周動画をライブ再生する。
上記例では、スマートフォン、タブレット向けの変換はライブ映像配信サーバ330にアップロードされた段階で行われる手順を説明したが、携帯端末342または343からアクセスされてから変換を行なうことも可能である。この場合には、再生が開始されるまでに余分に時間がかかるが、スマートフォン、タブレットからのアクセスがない場合に処理負荷を押さえることができる。また、ライブ映像配信サーバ330から通信端末341〜343へのライブ映像配信メッセージとしては、一般的に、RTMP、HLS、HDS、RTSP、MMS、Microsoft Smooth Streaming、MPEG-DASHのプロトコルが用いられることが多い。しかし、これらとは異なるプロトコルや、独自開発のプロトコルを利用することも可能である。
《全周カメラの機能構成》
図4Aは、本実施形態に係る全周カメラ310の機能構成を示すブロック図である。
全周カメラ310は、複数の撮像センサ411と、A/D変換およびゲイン調整部412と、画素処理部413と、画像処理部414と、オプションとしての転送用圧縮部415と、を有する。
複数の撮像センサ411は、本例では前述の6つの撮像センサである。A/D変換およびゲイン調整部412は、複数の撮像センサ411から出力される映像のアナログ信号をデジタルデータに変換すると共に、アナログ信号が飽和しないように適切なゲインに調整する。画素処理部413は、画素単位の調整を行なう。画像処理部414は、画像全体の明暗などの調整を行なう。オプションとしての転送用圧縮部415は、全周カメラ310から出力される複数の撮像センサ411からの映像データを実時間で高速に転送するための圧縮部である。全周カメラ310の構成部品や構造により歪みを補償された映像データは、例えば、IEEE-1394bケーブルやUSBケーブルなどにより外部に出力される。本実施形態においては、撮影配信用PC320に接続されて映像データが送信される。
図4Bは、本実施形態に係る全周カメラ310の構造例を説明する図である。
図4Bの全周カメラ外観420は、全周カメラ310の具体的な構造を示している。また、図4Bの撮像センサの撮像位置430は、全周カメラ310の6つの撮像センサの位置関係と、それらが撮像する方向とを示したものである。
(データ構成)
図5は、本実施形態に係る全周カメラ310のデータ構成500を示す図である。図5のデータ構成500は、全周カメラ310から外部に出力される撮像データの構成である。なお、データ構成は、図5に限定されない。
データ構成500は、どの撮像センサで撮影した撮像データかを識別するセンサ番号501と、撮像した時刻を示すタイムスタンプ502と、映像データ503と、を有し、全周カメラ310に記憶される(図2Aの210〜215参照)。なお、映像データ503は、圧縮されたデータであってもよい。
《撮影配信用PCの機能構成》
図6は、本実施形態に係る撮影配信用PC320の機能構成を示すブロック図である。なお、撮影配信用PC320は、本実施形態の撮影配信のためのソフトウェアを搭載する一般的なPCである。
撮影配信用PC320は、通信制御部601と、入力インタフェース602とを備える。また、撮影配信用PC320は、全周映像データ取得部603と、全周画像生成部604と、全周動画圧縮部605と、立体音声データ取得部606と、立体音声圧縮部607、とを備える。また、撮影配信用PC320は、ライブ映像配信用データ生成部608と、ライブ映像配信用メッセージ送信部609と、表示部610と、操作部611と、を備える。
通信制御部601は、ネットワークを介してライブ映像配信サーバ330および外部通信機器と通信する。入力インタフェース602は、全周カメラ310からの映像データおよび/またはステレオマイクからの音声データを入力制御する。
全周映像データ取得部603は、全周カメラ310から全周を撮像した映像データを取得する。全周画像生成部604は、全周映像データ取得部603が取得した6つの映像データの境界領域の歪みを補償し、お互いに調整して、1フレームごとの全周画像を生成する(図2Aの220参照)。そして、全周動画圧縮部605は、全周画像生成部604で生成された1フレームごとの全周画像からなる全周ライブ動画データを配信して全周動画がライブ再生できる形式の、全周画像圧縮データを生成する。この場合に、全周ライブ動画データは所定長単位に所望方式で圧縮符号化される。本例では、動画圧縮方式としてH.264を使用しているが、これに限定されない。他の使用可能な動画圧縮方式については、前述した。
立体音声データ取得部606は、ステレオマイクからの立体音声データを取得する。そして、立体音声圧縮部607は、立体音声データ取得部606が取得した立体音声データを配信してステレオ音響が再生できる形式の、立体音声圧縮データを生成する。この場合に、立体音声データは所定長単位に所望方式で圧縮符号化される。本例では、音声圧縮方式としてMP3を使用しているが、これに限定されない。他の使用可能な音声圧縮方式については、前述した。かかる立体音声データ取得部606と立体音声圧縮部607とが、立体音声データ生成部として機能する。
ライブ映像配信用データ生成部608は、全周動画圧縮部605が生成した全周動画圧縮データと、立体音声圧縮部607が生成した立体音声圧縮データとを、ライブ配信するためのライブ配信用データを生成する。この時に、全周動画と立体音声とが同期再生できるようにする。本例では、FLVフォーマットを使用するが、これに限定されない。例えば、Windows(登録商標) Media、Real Media(登録商標)、Quick Time(登録商標)などであってもよい。ライブ映像配信用メッセージ送信部609は、ライブ映像配信用データ生成部608が生成したライブ映像配信用データを、ライブ映像配信用メッセージによりライブ映像配信サーバ330にアップロードする。
表示部610は、撮影配信用PC320の動作状況を表示する。また、操作部611は、上記各記憶構成部の起動や制御などを指示する。
(データ構成)
図7Aは、本実施形態に係る撮影配信用PC320の映像データ構成710を示す図である。図7Aの映像データ構成710は、全周カメラ310から取得した映像データから全周画像データを生成する記憶構成である。
映像データ構成710においては、映像センサのセンサ番号711に対応付けて、撮影時刻のタイムスタンプ712と、全周カメラ310から取得した映像データ713と、全周画像に結合するために処理された全周処理データ714と、を記憶する。そして、6つの撮像センサの映像データを結合した全周画像データ715を記憶する(図2Aの220参照)。
図7Bは、本実施形態に係る撮影配信用PC320の音声データ構成720を示す図である。図7Bの音声データ構成720は、ステレオマイクから取得した音声データを記憶する構成である。
音声データ構成720においては、マイク番号721に対応付けて、集音時刻のタイムスタンプ722と、音声データ723とを記憶する。
図7Cは、本実施形態に係る撮影配信用PC320のライブ配信用データ形式730およびライブ映像配信用データ740を示す図である。ライブ配信用データ形式730は、生成するライブ配信用データ形式を指定するテーブルである。ライブ映像配信用データ740は、ライブ配信用データ形式730に従って生成されたデータである。
ライブ配信用データ形式730は、ライブ動画配信フォーマット731に対応して、使用する動画圧縮方式732と音声圧縮方式733とを記憶する。ライブ映像配信用データ740は、ライブ配信用データ形式730に従って圧縮生成された全周動画圧縮データ741と立体音声圧縮データ742とを同期再生可能に含むライブ動画配信用データを記憶する。本例では、ライブ動画配信用メッセージ形式としてFLVを使用する。
《ライブ映像配信サーバの機能構成》
図8は、本実施形態に係るライブ映像配信サーバ330の機能構成を示すブロック図である。
ライブ映像配信サーバ330は、通信制御部801と、ライブ映像配信メッセージ受信部802と、配信データフォーマット変換部803と、ライブ映像配信用データ格納部804と、を備える。また、ライブ映像配信サーバ330は、ライブ映像配信要求受信部805と、配信データ取得部806と、ライブ映像配信メッセージ送信部807と、を備える。
通信制御部801は、ネットワークを介して、撮影配信用PC320からアップロードされたライブ配信用メッセージの受信、および、通信端末341〜343に対するライブ配信用メッセージの送信を制御する。ライブ映像配信メッセージ受信部802は、撮影配信用PC320からアップロードされたライブ配信用メッセージを受信する。配信データフォーマット変換部803は、ライブ配信用メッセージを、配信先がスマートフォン・タブレットの場合のためにHLSフォーマットに変換する。さらに他のフォーマットが必要であれば、フォーマット変換する。ライブ映像配信用データ格納部804は、ライブ配信用データを、フォーマット変換されないものと変換されたものとを識別可能に一時保持する。それぞれのライブ配信用データは、配信元および配信要求先からのURLに対応付けられる。なお、ライブ映像配信用データ格納部804は、一時記憶のメモリ内であってもディスクなどの記憶媒体であってもよい。
ライブ映像配信要求受信部805は、通信端末からのライブ配信用メッセージの要求を受信して、配信データ取得部806の取得領域とライブ映像配信メッセージ送信部807の送信先とを通知する。配信データ取得部806は、通信端末からのURLに対応してライブ映像配信用データ格納部804の格納領域からライブ配信用データを取得する。ライブ映像配信メッセージ送信部807は、ライブ配信用データをライブ映像配信メッセージで要求した通信端末にユニキャストで送信する。なお、配信先がPCである場合に、マルチキャストも可能であることは前述した。
(URLおよびデータ変換)
図9は、本実施形態に係るライブ映像配信サーバ330へのURLの構成900およびデータ変換910を示す図である。
本実施形態のURLの構成900は、基本的に、ライブ映像配信サーバ330のIPアドレスと、配信元(あるいはイベント)識別子と、ライブ動画記憶領域識別子と、データフォーマット識別子と、を有している。
さらに具体的に、本実施形態のライブ映像配信サーバ330におけるデータ変換910を説明する。なお、ライブ映像配信サーバ330におけるデータ変換は本例に限定されない。なお、ライブ映像配信サーバ330のサーバ名またはIPアドレスを192.0.2.1として説明する。また、複数の全周動画ライブの配信元あるいはイベントを“eventX”で識別し、元の全周動画ライブデータを“live”、変換により派生した全周動画ライブデータを“liveX”で識別し、RTMP形式を“stream”、HLS形式を“stream.m3u8”で識別する。
<配信元の認証を行い、受信したライブ動画データをバッファに格納する手順>
(1)撮影配信用PC320からライブ映像配信サーバ330上のURL“rtmp://192.0.2.1/event1/live/stream”に対して、ライブ動画データを送信する。
(2)ライブ映像配信サーバ330は、受信したライブ動画データが正規の配信元からのものであることを確認し、バッファ領域に格納する。
<各端末で再生可能な形式にバッファのライブ動画データを変換する手順>
(3)ライブ映像配信サーバ330内にて、“rtmp://192.0.2.1/event1/live/stream”からライブ動画データを読み込み、ライブ映像配信サーバ330のURL“rtmp://192.0.2.1/event1/live1/stream”に再入力する。
(4)ライブ映像配信サーバ330内にて“rtmp://192.0.2.1/event1/live/stream”からライブ動画データを読み込み、コード変換を行って動画解像度を縮小し、ライブ映像配信サーバ330上のURL“rtmp://192.0.2.1/event1/live2/stream”に再入力する。
(5)上記(3)(4)に対し、ライブ映像配信サーバ330は、受信したライブ動画データが正規の配信元(=ライブ映像配信サーバ330自身)からのものであることを確認し、バッファ領域に格納する。
(6)上記(3)(4)に対し、ライブ映像配信サーバ330は、バッファ領域のライブ動画データからHLS形式のファイル(連番ファイル)を順次作成し、HDD上の一時領域に保存する。この一時領域には、URL“http://192.0.2.1/event1/live1/stream.m3u8”、または、“http://192.0.2.1/event1/live2/stream.m3u8”等でアクセス可能である。
<通信端末からの配信要求に対してバッファのライブ動画データをRTMP形式で配信する手順>
(7)RTMP形式にてライブ動画データを受信する通信端末は、ライブ映像配信サーバ330上のURL“rtmp://192.0.2.1/event1/live1/stream”、または、“rtmp://192.0.2.1/event1/live2/stream”にアクセスする。
(8)ライブ映像配信サーバ330は、通信端末に対して、上記(5)によるバッファ領域のライブ動画データを配信する。
<通信端末からの配信要求に対してバッファのライブ動画データをHLS形式で配信する手順>
(9)HLS形式にてライブ動画データを受信する通信端末は、データ配信サーバ350にアクセスし、“master.m3u8”ファイルを取得する。このファイルには、ライブ映像配信サーバ330上のHLS向け一時領域のファイルを指し示すURLが記載されている。
(10)HLS形式にてデータを受信する通信端末は、通常のHLS形式の動画再生手順に従い、取得した“master.m3u8”ファイルを解析し、ライブ映像配信サーバ330上のHLS向け一時領域に、URL“http://192.0.2.1/event1/live1/stream.m3u8”、または、“http://192.0.2.1/event1/live2/stream.m3u8”のファイルにアクセスする。
(11)ライブ映像配信サーバ330は、通信端末からの要求URLに応じて、一時領域のファイルを配信する。
<配信後の手順>
(12)ライブ映像配信サーバ330は、一定時間経過したライブ動画データをバッファ領域から削除する。
(13)ライブ映像配信サーバ330は、一定時間経過したHLS形式のファイルを一時領域から削除する。
なお、動画解像度やコーデック等の変換を行なわず、単にRTMP形式をHLS形式に変換するだけであれば、上記(3)〜(5)の処理は不要である。この場合、上記(6)の処理は、上記(2)に対するものとなる。ここで、複数の全周ライブ動画を、ライブ映像配信サーバ330を介して配信する場合は、各URLの“eventX”の部分を変更することでそれぞれを区別することができる。
《通信端末の機能構成》
図10は、本実施形態に係る通信端末341〜343の機能構成を示すブロック図である。以下、通信端末341〜343を総称して、通信端末340として説明する。なお、通信端末340は、一般的なPCやスマートフォン・タブレットである。
通信端末340は、通信制御部1001と、全周動画ライブ再生プレーヤ1010と、表示部1021と、操作部1022と、音声出力部1023と、を備える。
通信制御部1001は、ネットワークを介して、ライブ映像配信サーバ330やデータ配信サーバ(Webサーバ)350などとの通信を制御する。全周動画ライブ再生プレーヤ1010は、配信された画像あるいは動画メッセージから画像あるいは動画を再生するアプリケーションである。本実施形態においては、全周動画をライブ再生するアプリケーションである。全周動画ライブ再生プレーヤ1010は、全周動画メッセージ受信部1011と、全周動画展開部1012と、表示範囲制御部1013と、表示方向指示受付部1014と、立体音声制御部1015と、を有する。
全周動画データ受信のための全周動画メッセージ受信部1011は、ライブ映像配信サーバ330から配信された全周動画メッセージを受信する。全周動画展開部1012は、配信された全周動画メッセージの全周動画データから全周動画をライブ展開する。表示範囲制御部1013は、全周動画展開部1012がライブ展開した全周動画から指定を受けた方向の動画を表示するように制御する。表示方向指示受付部1014は、ユーザによる全周動画の表示方向の指示を受け付ける。立体音声制御部1015は、全周動画の表示方向に応じたステレオ音響を出力するように制御する。
表示部1021は、全周動画のライブ表示を含むデータを表示する。操作部1022は、各機能構成部の駆動あるいは制御を指示する。音声出力部1023は、ステレオ音響を出力する。
(全周ライブ映像の展開)
図11Aは、本実施形態に係る通信端末340における全周ライブ映像の展開を説明する図である。
図11Aにおいて、球体1100には、配信された全周動画データが含む全周動画の、各全周画像フレームを、球体面を覆うように順次に貼り付ける。そして、内部の視点1101から球体1100を覆った全周画像フレームを、通信端末の画面を示す表示平面に投影した画像1102、1103および1105が、通信端末の表示画面に表示される。視点1101からの視線方向が球体1100の軸を中心に回転すれば、画像1102も視線方向の回転につれて回転する。また、視点1101が上下に移動すれば、画像1102の範囲も視点1101の上下に応じて上下する。また、視線方向が上向き/下向きになると、見上げた画面/見下ろした画面となる。また、視点1101が球体の中心から視点1104に離れると、球体1100に近づいた方向ではズームインとなり、球体1100から離れた方向ではズームアウトとなる。
このように、視点位置と視線方向とを変化させることで、全周動画のライブ再生を見渡すことができて、臨場感にあふれる全周動画のライブ視聴が可能となる。なお、立体音声との再生方向の同期は、図11Aの視線ベクトルと球体1100の交点に基づいて実現できる。また、ライブ映像とは異なる人工的な映像を合成するには、他の球体を設けてその球体に画像を貼り付ければよい。例えば、ライブ映像の上に人工画像を表示する場合は、球体1100の内部に他の球体を設ければよい。一方、人工背景を付加する場合には、球体1100の外に他の球体を設ければよい。3次元映像においては、視点から球体への距離の違いを奥行きとして表現することができる。
(データ構成)
図11Bは、本実施形態に係る通信端末340の全周動画のライブ再生用情報1110、映像データ構成1120および音声データ構成1130を示す図である。図11Bのライブ再生用情報1110は、ホームページから全周動画ライブ再生を実現するための情報である。また、図11Bの映像データ構成1120は、全周ライブ映像の記憶構成である。また、図11Bの音声データ構成1130は、立体音声の記憶構造である。
ライブ再生用情報1110は、ホームページに貼り付けられたHTMLタグ1111と、HTMLタグ1111に基づいてデータ配信サーバ350から取得したライブ動画データにアクセスするためのURL1112と、を記憶する。ライブ再生用情報1110は、さらに、通信端末340において全周動画ライブ再生するために使用する全周動画ライブ再生プレーヤ1113、を記憶する。映像データ構成1120は、図11Aの球体1100に貼り付けられた全周ライブ映像1121から、ユーザ指示方向(視線方向)1122に対応して選択された、ライブ表示データ1123を記憶する。音声データ構成1130は、配信されたステレオライブ音声1131から、ユーザ指示方向(視線方向)1122に対応して混合比率を変えた、ライブ音声データ1133を記憶する。
なお、詳細な説明は省略するが、ライブ映像表示とライブ音声出力との同期は、タイムスタンプを使用すれば実現できる。
《撮影配信用PCのハードウェア構成》
図12は、本実施形態に係る撮影配信用PC320のハードウェア構成を示すブロック図である。
図12で、CPU1210は演算制御用のプロセッサであり、プログラムを実行することで図6の撮影配信用PC320の機能構成部を実現する。ROM(Read Only Memory)1220は、初期データおよびプログラムなどの固定データを記憶する。また、通信制御部601は、ネットワークを介して他の通信端末や各サーバと通信する。なお、CPU1210は1つに限定されず、複数のCPUであっても、あるいは画像処理用のGPUを含んでもよい。また、通信制御部601は、CPU1210とは独立したCPUを有して、RAM1240の領域に送受信データを書き込みあるいは読み出しするのが望ましい。また、RAM1240とストレージ1250との間でデータを転送するDMACを設けるのが望ましい(図示なし)。さらに、入出力インタフェース1260は、CPU1210とは独立したCPUを有して、RAM1240の領域に入出力データを書き込みあるいは読み出しするのが望ましい。したがって、CPU1210は、RAM1240にデータが受信あるいは転送されたことを認識してデータを処理する。また、CPU1210は、処理結果をRAM1240に準備し、後の送信あるいは転送は通信制御部601やDMAC、あるいは入出力インタフェース1260に任せる。
RAM1240は、CPU1210が一時記憶のワークエリアとして使用するランダムアクセスメモリである。RAM1240には、本実施形態の実現に必要なデータを記憶する領域が確保されている。全周映像データ1241は、全周カメラ310から取得した6つの撮像センサからの映像データである。全周画像データ715は、全周映像データ1241から生成された1フレームの全周データである。全周動画圧縮データ741は、全周画像データ715をライブ再生が可能な所定の圧縮符号化した動画データである。立体音声データ1244は、複数のマイクから取得した音声データである。立体音声圧縮データ742は、立体音声データ1244をライブ再生が可能な所定の圧縮符号化した音声データである。ライブ映像配信用データ740は、全周動画圧縮データ741と立体音声圧縮データ742とを含み、ライブ配信可能なフォーマットの配信用データである。送受信メッセージ1247は、通信制御部601を介して送受信されるメッセージである。入出力データ1248は、入出力インタフェース1260を介して入出力されるデータである。
ストレージ1250には、データベースや各種のパラメータ、あるいは本実施形態の実現に必要な以下のデータまたはプログラムが記憶されている。ライブ映像配信用データ格納部1251は、ライブ映像配信サーバ330にアップロードするためのライブ映像配信用データ740をそれぞれ識別可能に格納するデータベースである。ライブ映像アップロード先サーバ1252は、撮影配信用PC320がライブ映像配信用データ740をアップロードする先のライブ映像配信サーバ330のアドレスである。
ストレージ1250には、以下のプログラムが格納される。撮影配信用PC制御プログラム1253は、本撮影配信用PC320の全体を制御する制御プログラムである。全周映像データ取得モジュール1254は、全周カメラ310から全周映像データ1241を取得するモジュールである。全周画像データ生成モジュール1255は、取得した全周映像データ1241に基づいてフレーム単位の全周画像データを生成するモジュールである。全周動画圧縮モジュール1256は、全周画像データからなる全周動画を圧縮するモジュールである。立体音声圧縮モジュール1257は、ステレオマイクから取得した立体音声データ1244に基づいて立体音声圧縮データ742を生成するモジュールである。ライブ映像配信用データ生成モジュール1258は、全周動画圧縮データ741と立体音声圧縮データ742とを含む、ライブ配信可能なライブ映像配信用データ740を生成するモジュールである。ライブ映像配信用メッセージ送信モジュール1259は、生成されたライブ映像配信用データ740を、ライブ映像配信用メッセージでライブ映像アップロード先サーバ1252の情報を使用して、ライブ映像配信サーバ330にアップロードするモジュールである。
入出力インタフェース1260は、入出力機器との入出力データをインタフェースする。入出力インタフェース1260は、全周カメラ310と接続するためのIEEE-1394b用コネクタあるいはUSBコネクタや、ステレオマイクを接続可能なコネクタを有する。入出力インタフェース1260には、表示部610、操作部611、が接続される。また、GPS位置判定部1265や、例えば、全周カメラ310が移動して撮影配信用PC320も移動する場合に、移動速度を測定する速度センサ1266を接続してもよい。
なお、図12においては、全周カメラ310からの映像データやステレオマイクからの音声データ、あるいは、GPS位置情報や速度センサなどの情報を、入出力インタフェース1260を介して取得する構成を示した。しかし、これらの情報を、通信制御部601を介して通信により取得する構成であってもよい。また、図12のRAM1240やストレージ1250には、撮影配信用PC320が有する汎用の機能や他の実現可能な機能に関連するプログラムやデータは図示されていない。
《撮影配信用PCの処理手順》
図13は、本実施形態に係る撮影配信用PC320の処理手順を示すフローチャートである。このフローチャートは、図12のCPU1210がRAM1240を使用しながら実行し、図6の機能構成部を実現する。
撮影配信用PC320は、ステップS1311において、全周カメラ310からの映像データの受信か否かを判定する。映像データの受信であれば、撮影配信用PC320は、ステップS1313において、受信した6つの映像データから1フレームの全周画像データを生成する。そして、撮影配信用PC320は、ステップS1315において、全周画像データのライブ配信可能な長さをフレーム順に全周動画として保持する。全周カメラ310からの映像データの受信がなければ、撮影配信用PC320は、ステップS1321に進んで、音声入力の判定を行なう。
次に、撮影配信用PC320は、ステップS1321において、ステレオマイク370からの音声データの受信か否かを判定する。音声データの受信であれば、撮影配信用PC320は、ステップS1323において、受信した立体音声データをライブ配信可能な長さ保持する。なお、保持する長さは、全周画像データのフレーム長に対応する長さとするのが望ましい。音声データの受信がなければ、撮影配信用PC320は、ステップS1331に進む。
そして、撮影配信用PC320は、ステップS1331において、ライブ動画配信用メッセージの送信タイミングであるか否かを判定する。ライブ動画配信を可能とするライブ動画配信用メッセージの送信タイミングでなければ、撮影配信用PC320は、ステップS1311に戻って、映像データまたは音声データを受信して保持する。ライブ動画配信を可能とするライブ動画配信用メッセージの送信タイミングであれば、撮影配信用PC320は、ステップS1333において、保持した全周動画データから全周動画メッセージを生成する。次に、撮影配信用PC320は、ステップS1335において、保持した立体音声データから立体音声メッセージを生成する。次に、撮影配信用PC320は、ステップS1337において、全周動画メッセージと立体音声メッセージとを含む、ライブ動画配信用メッセージを生成する。そして、撮影配信用PC320は、ステップS1339において、生成したライブ動画配信用メッセージをライブ映像配信サーバ330にアップロードする。撮影配信用PC320は、ステップS1341において、ライブ配信の終了か否かを判定する。ライブ配信の終了でなければ、撮影配信用PC320は、ステップS1311に戻って、全周カメラデータの受信とライブ動画配信を繰り返す。
《ライブ映像配信サーバのハードウェア構成》
図14は、本実施形態に係るライブ映像配信サーバ330のハードウェア構成を示すブロック図である。
図14で、CPU1410は演算制御用のプロセッサであり、プログラムを実行することで図8のライブ映像配信サーバ330の機能構成部を実現する。ROM1420は、初期データおよびプログラムなどの固定データを記憶する。また、通信制御部801は、ネットワークを介して通信端末や撮影配信用PCと通信する。なお、CPU1410は1つに限定されず、複数のCPUであっても、あるいは画像処理用のGPUを含んでもよい。また、通信制御部801は、CPU1410とは独立したCPUを有して、RAM1440の領域に送受信データを書き込みあるいは読み出しするのが望ましい。また、RAM1440とストレージ1450との間でデータを転送するDMACを設けるのが望ましい(図示なし)。したがって、CPU1410は、RAM1440にデータが受信あるいは転送されたことを認識してデータを処理する。また、CPU1410は、処理結果をRAM1440に準備し、後の送信あるいは転送は通信制御部801やDMACに任せる。
RAM1440は、CPU1410が一時記憶のワークエリアとして使用するランダムアクセスメモリである。RAM1440には、本実施形態の実現に必要なデータを記憶する領域が確保されている。PC向けライブ映像配信用データ1441は、撮影配信用PC320からアップロードされて、PC向けに配信されるデータである。携帯端末向けライブ映像配信用データ1442は、撮影配信用PC320からアップロードされて、携帯端末向けに配信されるデータである。本実施形態においては、PC向けライブ映像配信用データ1441は、撮影配信用PC320からアップロードされたそのままであり、携帯端末向けライブ映像配信用データ1442は、HLSフォーマットに変換されたものである。URL(配信元/配信先)1443は、撮影配信用PC320である配信元からのURL、通信端末341〜343である配信先からのURLを、ライブ映像配信用データ1441あるいは1442の格納位置と関連付ける情報である。送受信メッセージ1444は、通信制御部801を介して送受信されるメッセージである。
ストレージ1450には、データベースや各種のパラメータ、あるいは本実施形態の実現に必要な以下のデータまたはプログラムが記憶されている。ライブ映像配信用データ格納部1451は、撮影配信用PC320からアップロードされたライブ映像配信用データをそれぞれURLでアクセス可能に格納する領域である。配信用データ変換アルゴリズム1452は、ライブ映像配信用データをHLSフォーマットに変換するアルゴリズムである。
ストレージ1450には、以下のプログラムが格納される。ライブ映像配信サーバ制御プログラム1455は、本ライブ映像配信サーバ330の全体を制御する制御プログラムである。配信用データ変換モジュール1456は、配信先がスマートフォンやタブレットなどの携帯端末の場合に、ライブ映像配信用データの圧縮符号化方式を変更し、HLSフォーマットに変換するモジュールである。ライブ映像配信モジュール1457は、ライブ映像配信用メッセージを配信先に配信するためのモジュールである。
なお、図14のRAM1440やストレージ1450には、ライブ映像配信サーバ330が有する汎用の機能や他の実現可能な機能に関連するプログラムやデータは図示されていない。
《ライブ映像配信サーバの処理手順》
図15は、本実施形態に係るライブ映像配信サーバ330の処理手順を示すフローチャートである。このフローチャートは、図14のCPU1410がRAM1440を使用しながら実行し、図8の機能構成部を実現する。
ライブ映像配信サーバ330は、ステップS1511において、配信元の撮影配信用PC320からのライブ映像配信用データのアップロード要求か否かを判定する。配信元からのライブ映像配信用データのアップロード要求であれば、ライブ映像配信サーバ330は、ステップS1513において、ライブ映像配信用メッセージを取得する。そして、ライブ映像配信サーバ330は、ステップS1515において、URLに基づいてそのままのライブ映像配信用データをPC向けライブ映像配信用データとして保持する。次に、ライブ映像配信サーバ330は、ステップS1517において、他の機種に対応する異なるフォーマットのライブ映像配信用データを生成する。そして、URLに基づいて生成したライブ映像配信用データを携帯端末向けライブ映像配信用データとして保持する。
配信元の撮影配信用PC320からのライブ映像配信用メッセージの受信でない場合、ライブ映像配信サーバ330は、ステップS1521において、配信先の通信端末340からのライブ映像配信用メッセージの配信要求か否かを判定する。配信先の通信端末340からのライブ映像配信用メッセージの配信要求であれば、ライブ映像配信サーバ330は、ステップS1523において、URLからライブ映像配信用データの格納場所を取得する。ライブ映像配信サーバ330は、ステップS1525において、ライブ映像配信用データを読み出す。そして、ライブ映像配信サーバ330は、ステップS1527において、ライブ映像配信用メッセージを配信先にユニキャストで配信する。
《通信端末のハードウェア構成》
図16は、本実施形態に係る通信端末340のハードウェア構成を示すブロック図である。
図16で、CPU1610は演算制御用のプロセッサであり、プログラムを実行することで図10の通信端末340の機能構成部を実現する。ROM1620は、初期データおよびプログラムなどの固定データを記憶する。また、通信制御部1001は、ネットワークを介して他の通信端末や各サーバと通信する。なお、CPU1610は1つに限定されず、複数のCPUであっても、あるいは画像処理用のGPUを含んでもよい。また、通信制御部1001は、CPU1610とは独立したCPUを有して、RAM1640の領域に送受信データを書き込みあるいは読み出しするのが望ましい。また、RAM1640とストレージ1650との間でデータを転送するDMACを設けるのが望ましい(図示なし)。さらに、入出力インタフェース1660は、CPU1610とは独立したCPUを有して、RAM1640の領域に入出力データを書き込みあるいは読み出しするのが望ましい。したがって、CPU1610は、RAM1640にデータが受信あるいは転送されたことを認識してデータを処理する。また、CPU1610は、処理結果をRAM1640に準備し、後の送信あるいは転送は通信制御部1001やDMAC、あるいは入出力インタフェース1660に任せる。
RAM1640は、CPU1610が一時記憶のワークエリアとして使用するランダムアクセスメモリである。RAM1640には、本実施形態の実現に必要なデータを記憶する領域が確保されている。ライブ映像配信用データ1641は、ライブ映像配信サーバ330から配信されたデータである。再生した全周ライブ映像1121は、ライブ映像配信用データ1641から再生したライブ映像であり、図11Bの全周ライブ映像に相当する。再生したステレオライブ音声1131は、ライブ映像配信用データ1641から再生したライブ音声である。ユーザ指示方向1122は、操作部1022から指示されたユーザの全周動画の視聴方向である。指示方向のライブ表示データ1123は、再生した全周ライブ映像1121からユーザ指示方向1122に従い選択表示された表示データである。指示方向のライブ音声データ1133は、再生したステレオライブ音声1131からユーザ指示方向1122に従い混合変更された音声データである。送受信メッセージ1648は、通信制御部1001を介して送受信されるメッセージである。入出力データ1649は、入出力インタフェース1660を介して入出力されるデータである。
ストレージ1650には、データベースや各種のパラメータ、あるいは本実施形態の実現に必要な以下のデータまたはプログラムが記憶されている。ユーザ認証データ1651は、本通信端末340から全周動画ライブ再生プレーヤを起動させるため、あるいは、ライブ映像自体へのアクセス可否にも利用されるユーザの認証データである。端末認証データ1652は、本通信端末340から全周動画ライブ再生プレーヤを起動させるための端末の認証データである。
ストレージ1650には、以下のプログラムが格納される。通信端末制御プログラム1653は、本通信端末340の全体を制御する制御プログラムである。全周動画ライブ再生プレーヤ1655は、ライブ映像配信サーバ330から配信された全周動画をライブ再生するためのアプリケーションである。全周動画ライブ再生プレーヤ1655は、配信用データ取得モジュール1656と、全周動画再生モジュール1657と、立体音声再生モジュール1658と、ユーザ指示制御モジュール1659と、を含む。配信用データ取得モジュール1656は、ライブ映像配信サーバ330から配信されたデータを取得するモジュールである。全周動画再生モジュール1657は、配信されたデータから全周動画をライブ再生するモジュールである。立体音声再生モジュール1658は、配信されたデータから、全周動画のライブ再生に同期して立体音声を再生するモジュールである。ユーザ指示制御モジュール1659は、ユーザの指示に応じて全周動画の表示方向を制御するモジュールである。
入出力インタフェース1660は、入出力機器との入出力データをインタフェースする。入出力インタフェース1660には、表示部1021、操作部1022、音声出力部1023が接続される。また、音声入力部1664や、GPS位置判定部1665が接続される。
なお、図16のRAM1640やストレージ1650には、通信端末340が有する汎用の機能や他の実現可能な機能に関連するプログラムやデータは図示されていない。
《通信端末の処理手順》
図17Aは、本実施形態に係る通信端末340の処理手順を示すフローチャートである。このフローチャートは、図16のCPU1610がRAM1640を使用しながら実行し、図10の機能構成部を実現する。
通信端末340は、ステップS1711において、ホームページのアクセスか否かを判定する。ホームページのアクセスであれば、通信端末340は、ステップS1713において、ブラウザを起動する。そして、通信端末340は、ステップS1715において、データ配信サーバ350と接続する。
ホームページのアクセスでない場合、通信端末340は、ステップS1721において、HTMLタグの取得であるか否かを判定する。本例においては、所望サイトのホームページに貼り付けられたHTMLタグをクリックしたものとするが、再生要求の操作は限定されない。
HTMLタグの取得であれば、通信端末340は、ステップS1723において、HTMLタグに対応するコンテンツを取得する。次に、通信端末340は、ステップS1725において、取得したコンテンツが全周ライブ動画コンテンツであるか否かを判定する。全周ライブ動画コンテンツであれば、通信端末340は、ステップS1727において、全周ライブ動画コンテンツを実時間再生するために適切なプレーヤの有無を判定する。適切なプレーヤを有する場合は、通信端末340は、ステップS1731に進んで、全周動画ライブ再生プレーヤを起動する。一方、適切なプレーヤを持たない場合は、通信端末340は、ステップS1729において、再生する全周ライブ動画コンテンツに対応する機能を持った全周動画ライブ再生プレーヤを取得する。なお、全周ライブ動画コンテンツとプレーヤとの対応は1つに限定されるのもではない。当該通信端末において、全周ライブ動画コンテンツの情報が最大限に使用可能なプレーヤが対応付けられるのが望ましい。ただし、上述のように、最適なプレーヤが端末内にインストールされているものである場合は、プレーヤを新たに取得する必要はない。また、使用するプレーヤをユーザに選択させてもよい。
そして、通信端末340は、ステップS1731において、取得した全周動画ライブ再生プレーヤを起動する。そして、通信端末340で起動した全周動画ライブ再生プレーヤは、HTMLタグに基づきライブ映像配信サーバ330およびデータ配信サーバ350から所望の全周ライブ動画コンテンツの配信を受けて、ライブ再生された全周動画からユーザの指示に対応する方向の動画を出力する。
ホームページのアクセスでなくHTMLタグの取得でなければ、あるいは、全周ライブ動画コンテンツでなければ、通信端末340は、ステップS1741において、他の処理を行なう。
(全周動画ライブ再生プレーヤの処理手順)
図17Bは、本実施形態に係る全周動画ライブ再生プレーヤ1010の処理S1731の詳細な手順を示すフローチャートである。このフローチャートも、図16のCPU1610がRAM1640を使用しながら実行するものであるが、以下、全周動画ライブ再生プレーヤ1010の処理手順として説明する。
全周動画ライブ再生プレーヤ1010は、ステップS1741において、ライブ映像配信サーバ330から全周ライブ映像データを取得する。そして、全周動画ライブ再生プレーヤ1010は、ステップS1743において、取得した全周ライブ映像データ中の全周動画の各フレームの全周画像を、ユーザ視点を360度取り巻く球体上に展開する。次に、全周動画ライブ再生プレーヤ1010は、ステップS1745において、ユーザから指示された全周動画の表示方向を取得する。そして、全周動画ライブ再生プレーヤ1010は、ステップS1747において、球体上に展開された全周画像列のユーザから指示された表示方向のライブ映像を表示する。また、立体音声の同期出力があれば、全周動画ライブ再生プレーヤ1010は、ステップS1749において、ユーザから指示された表示方向のライブ映像に同期して、表示方向に向いた場合の立体音声に調整して出力する。
全周動画ライブ再生プレーヤ1010は、ステップS1751において、ライブ終了(プレーヤ停止)か否かを判定する。ライブ終了でなければ、全周動画ライブ再生プレーヤ1010は、ステップS1741に戻って、全周動画のライブ再生を繰り返す。
本実施形態によれば、全周カメラからの全周動画をライブ配信可能に構成し、ユーザの視線方向指示に応じて表示方向を変更することにより、ユーザが全周動画を視線方向に応じてライブで視聴することにより、臨場感にあふれた映像視聴ができる。
[第3実施形態]
次に、本発明の第3実施形態に係る全周動画ライブ配信システムについて説明する。本実施形態に係る全周動画ライブ配信システムは、上記第2実施形態と比べると、全周カメラと撮影配信用PCとが移動しながら全周動画をライブ配信する点で異なる。なお、本実施形態では、例えば、マラソン競技でランナーを追いかける伴走車に、全周カメラを設置して撮影配信用PCから配信する例を説明する。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
《全周動画ライブ配信システム》
図18は、本実施形態に係る全周動画ライブ配信システム1800の処理の概要を示す図である。なお、図18において、図3Aまたは図10と同様な構成要素には同じ参照番号を付して、説明は省略する。
図18においては、全周カメラ310および撮影配信用PC320は、車両に配備されて移動している。図18では、マラソンランナーに伴走してライブ撮影している例を示す。なお、図18にはマイクは図示していないが、ステレオマイクによるライブ音声を収集してもよい。
全周動画ライブ再生プレーヤ1810は、図10の全周動画ライブ再生プレーヤ1010に代わるプレーヤである。なお、図18の全周動画ライブ再生プレーヤ1810には、本実施形態に特有の処理に関連する機能構成部を図示しており、煩雑さを回避するために、図10の全周動画ライブ再生プレーヤ1010の機能構成部などの図示は省かれている。また、通信端末の各々は、ユーザの選択あるいは視聴する全周動画コンテンツに対応して、全周動画ライブ再生プレーヤ1010と、全周動画ライブ再生プレーヤ1810とを選択する。あるいは、全周動画ライブ再生プレーヤ1010と、図18の機能のみを有する全周動画ライブ再生プレーヤ1810とを共に起動し、協働させてもよい。
全周動画ライブ再生プレーヤ1810は、映像マッチング処理部1811と表示画面生成部1812とを含む。映像マッチング処理部1811は、データ配信サーバ350から全周カメラ310の移動経路である既知のマラソンコースの映像を取得する。そして、映像マッチング処理部1811は、全周カメラ310により撮影されて、ライブ映像配信サーバ330を介して配信された全周ライブマラソン映像を、マラソンコースの映像とマッチングして、全周カメラ310の現在位置を判定する。表示画面生成部1812は、データ配信サーバ350からマラソンコースの地図データを取得する。そして、表示画面生成部1812は、映像マッチング処理部1811からの現在位置の情報に基づいて、マラソンコースの地図データに現在位置と、ユーザにより指示されて表示されたライブ動画の視線方向とを付加する。
ライブ動画1841は、伴走車から前方の動画である。ライブ動画1842は、伴走車からランナー越しの沿道の動画である。ライブ動画1843は、伴走車の後方を追走する次のランナーの動画である。
(通信端末の処理データ)
図19は、本実施形態に係る通信端末の処理データ1900の構成を示す図である。処理データ1900は、全周ライブ映像を撮像している現在位置を判定して、地図上にその現在位置と視線方向とを表示するためのデータである。なお、通信端末は、図11Bに図示したデータも使用する。
処理データ1900は、ライブ映像配信サーバ330から配信されたライブ映像配信用メッセージから再生された全周ライブ映像1901と、その全周ライブ映像1901の特徴量1902と、データ配信サーバ350から配信されたマラソンコース映像の特徴量1903と、を記憶する。また、処理データ1900は、全周ライブ映像1901の特徴量1902とマラソンコース映像の特徴量1903とのマッチングから判定された、現在位置1904と、ユーザが指示した視線方向1905と、を記憶する。さらに、処理データ1900は、ユーザが指示した視線方向1905のライブ表示データ1906と、現在位置1904を地図上に表示したコース地図表示データ1907と、を記憶する。
《全周動画ライブ再生プレーヤの処理手順》
図20は、本実施形態に係る全周動画ライブ再生プレーヤ1810の処理S1731の詳細手順を示すフローチャートである。このフローチャートも、図16のCPU1610がRAM1640を使用しながら実行するものであるが、以下、全周動画ライブ再生プレーヤ1810の処理手順として説明する。
全周動画ライブ再生プレーヤ1810は、ステップS2001において、データ配信サーバ350からマラソンコースの地図データを取得する。次に、全周動画ライブ再生プレーヤ1810は、ステップS2003において、データ配信サーバ350からマラソンコースの映像を取得する。なお、あらかじめデータ配信サーバ350で算出された特徴量を取得しても、映像を取得して通信端末で特徴量を算出してもよい。
全周動画ライブ再生プレーヤ1810は、ステップS2005において、ライブ映像配信サーバ330から全周ライブ映像データを取得する。次に、全周動画ライブ再生プレーヤ1810は、ステップS2007において、取得した全周ライブ映像データ中の全周動画の各フレームの全周画像を、ユーザ視点を360度取り巻く球体上に展開する。また、全周動画ライブ再生プレーヤ1810は、取得した全周ライブ映像データ中の全周動画の各フレームの全周画像の特徴量を抽出する。次に、全周動画ライブ再生プレーヤ1810は、ステップS2009において、マラソンコースの映像の特徴量と、全周画像の特徴量とをマッチングして、全周カメラ310が撮影している現在位置を判定する。なお、現在位置の判定は全ての通信端末で行うのではなく、現在位置の判定を撮影配信用PCまたは現在位置判定用プレーヤで行い、取得した位置とタイムスタンプを紐付けたデータを、データ配信サーバから各通信端末に配信してもよい。
次に、全周動画ライブ再生プレーヤ1810は、ステップS2011において、ユーザから指示された全周動画の表示方向を取得する。そして、全周動画ライブ再生プレーヤ1810は、ステップS2013において、球体上に展開された全周画像列のユーザから指示された表示方向のライブ映像を表示する。同時に、全周動画ライブ再生プレーヤ1810は、ステップS2015において、全周カメラ310の現在位置と視線指示方向とを表示したマラソンコース地図を表示する。
全周動画ライブ再生プレーヤ1810は、ステップS2017において、ライブ終了(プレーヤ停止)か否かを判定する。ライブ終了でなければ、全周動画ライブ再生プレーヤ1810は、ステップS2005に戻って、全周動画のライブ再生を繰り返す。
本実施形態によれば、移動する全周カメラの現在位置を判定して、地図上に表示することにより、臨場感にあふれた映像視聴ができる上に、GPSなどがなくてもライブ動画の視聴位置と視聴方向とを知ることができる。
[第4実施形態]
次に、本発明の第4実施形態に係る全周動画ライブ配信システムについて説明する。本実施形態に係る全周動画ライブ配信システムは、上記第2実施形態および第3実施形態と比べると、複数地点に配置された複数の全周カメラからユーザが所望の全周カメラからの全周動画を選択できる点で異なる。その他の構成および動作は、第2実施形態、第3実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
《全周動画ライブ配信システム》
図21Aは、本実施形態に係る全周動画ライブ配信システム2101の処理の概要を示す図である。なお、図21Aにおいて、図3A、図10または図18と同様な構成要素には同じ参照番号を付して、説明は省略する。また、通信端末の各々は、ユーザの選択あるいは視聴する全周動画コンテンツに対応して、全周動画ライブ再生プレーヤ1010と、全周動画ライブ再生プレーヤ1810と、全周動画ライブ配信システム2101とを選択する。あるいは、全周動画ライブ再生プレーヤ1010と、図18の機能のみを有する全周動画ライブ再生プレーヤ1810と、図21Aの機能のみを有する全周動画ライブ配信システム2101とを組み合わせて起動し、協働させてもよい。
図21Aにおいては、複数の全周カメラ311〜313および全周カメラに対応する複数の撮影配信用PC321〜323を、複数地点に配置してユーザが複数の全周動画の選択視聴を可能としている。図21Aでは、カヌー競技をコースの複数地点でライブ撮影している例を示す。なお、図21Aにはマイクは図示していないが、ステレオマイクによるライブ音声を収集してもよい。
全周動画ライブ再生プレーヤ2110は、図10の全周動画ライブ再生プレーヤ1010や図18の全周動画ライブ再生プレーヤ1810に代わるプレーヤである。なお、図21Aの全周動画ライブ再生プレーヤ2110には、本実施形態に特有の処理に関連する機能構成部を図示しており、煩雑さを回避するために、図10の全周動画ライブ再生プレーヤ1010や図18の全周動画ライブ再生プレーヤ1810の機能構成部などの図示は省かれている。
全周動画ライブ再生プレーヤ2110は、映像選択部2111を含む。映像選択部2111は、全周ライブカヌー映像Aと、全周ライブカヌー映像Bと、全周ライブカヌー映像Cと、をユーザの選択指示に従って選択して通信端末に配信する。全周ライブカヌー映像Aは、全周カメラ311が撮像してライブ映像配信サーバ330を介して配信されるライブ映像である。全周ライブカヌー映像Bは、全周カメラ312が撮像してライブ映像配信サーバ330を介して配信される映像である。全周ライブカヌー映像Cは、全周カメラ313が撮像してライブ映像配信サーバ330を介して配信される映像である。
ライブ動画2141は、全周カメラ311から撮像したカヌー選手2151の方向の動画である。ライブ動画2142は、全周カメラ312から撮像したカヌー選手2152の方向の動画である。ライブ動画2143は、全周カメラ313から撮像したカヌー選手2153の方向の動画である。ユーザは、視聴したい全周動画を3つのライブ動画から選択可能である。
図21Bは、本実施形態に係る全周動画ライブ配信システム2102の処理の概要を示す図である。なお、図21Bにおいて、図3A、図10、図18または図21Aと同様な構成要素には同じ参照番号を付して、説明は省略する。また、通信端末の各々は、ユーザの選択あるいは視聴する全周動画コンテンツに対応して、全周動画ライブ再生プレーヤ1010と、全周動画ライブ再生プレーヤ1810と、全周動画ライブ配信システム2102とを選択する。あるいは、全周動画ライブ再生プレーヤ1010と、図18の機能のみを有する全周動画ライブ再生プレーヤ1810と、図21Bの機能のみを有する全周動画ライブ配信システム2102とを組み合わせて起動し、協働させてもよい。
図21Bにおいては、複数の全周カメラ311〜313を複数地点に配置してユーザが複数の全周動画の選択視聴を可能としている。図21Bでは、野球場での試合を複数地点でライブ撮影している例を示す。なお、図21Bでは、撮影配信用PCの図示は省略している。また、図21Bにはマイクは図示していないが、ステレオマイクによるライブ音声を収集してもよい。
全周動画ライブ再生プレーヤ2110は、図10の全周動画ライブ再生プレーヤ1010や図18の全周動画ライブ再生プレーヤ1810に代わるプレーヤである。なお、図21Bの全周動画ライブ再生プレーヤ2110には、本実施形態に特有の処理に関連する機能構成部を図示しており、煩雑さを回避するために、図10の全周動画ライブ再生プレーヤ1010や図18の全周動画ライブ再生プレーヤ1810の機能構成部などの図示は省かれている。
全周動画ライブ再生プレーヤ2110は、映像選択部2111を含む。映像選択部2111は、全周ライブ野球映像Aと、全周ライブ野球映像Bと、全周ライブ野球映像Cと、をユーザの選択指示に従って選択して通信端末に配信する。全周ライブ野球映像Aは、全周カメラ311が撮像してライブ映像配信サーバ330を介して配信される、バックネット裏からのライブ映像である。全周ライブ野球映像Bは、全周カメラ312が撮像してライブ映像配信サーバ330を介して配信される、バックスクリーンからの映像である。全周ライブ野球映像Cは、全周カメラ313が撮像してライブ映像配信サーバ330を介して配信される、ドーム天井からの映像である。
ライブ動画2144は、全周カメラ311から撮像した動画である。ライブ動画2145は、全周カメラ312から撮像した動画である。ライブ動画2146は、全周カメラ313から撮像した動画である。ユーザは、視聴したい全周動画を3つのライブ動画から選択可能である。
(通信端末の処理データ)
図22は、本実施形態に係る通信端末の処理データ2200の構成を示す図である。処理データ2200は、図21Aのカヌー競技に使用する複数の全周映像を選択するデータを示す。
処理データ2200は、全周映像の取得元2201と、ユーザが取得元を選択した選択フラグ2202と、を記憶する。また、処理データ2200は、ライブ映像配信サーバ330から配信されたライブ映像配信用メッセージから再生された全周ライブ映像2203と、ユーザが指示した視線方向2204と、を記憶する。また、処理データ2200は、ユーザが指示した視線方向2204のライブ表示データ2205と、選択した全周カメラ位置を地図上に表示したコース地図表示データ2206と、を記憶する。
《全周動画ライブ再生プレーヤの処理手順》
図23は、本実施形態に係る全周動画ライブ再生プレーヤ2110の処理S1731の詳細手順を示すフローチャートである。このフローチャートも、図16のCPU1610がRAM1640を使用しながら実行するものであるが、以下、全周動画ライブ再生プレーヤ2110の処理手順として説明する。なお、図23は、図21Aのカヌー競技におけるフローチャートを示す。
全周動画ライブ再生プレーヤ2110は、ステップS2301において、データ配信サーバ350からカヌー競技コースの地図データを取得する。
全周動画ライブ再生プレーヤ2110は、ステップS2303において、ユーザによる全周映像の配信元の選択指示を取得する。全周動画ライブ再生プレーヤ2110は、ステップS2305において、選択指示された配信元からのライブ映像に接続する。
全周動画ライブ再生プレーヤ2110は、ステップS2307において、ライブ映像配信サーバ330から選択配信元の全周ライブ映像データを取得して球体上に展開する。次に、全周動画ライブ再生プレーヤ2110は、ステップS2309において、ユーザから指示された全周動画の表示方向を取得する。そして、全周動画ライブ再生プレーヤ2110は、ステップS2311において、球体上に展開された全周画像列のユーザから指示された表示方向のライブ映像を表示する。同時に、全周動画ライブ再生プレーヤ2110は、ステップS2313において、選択された全周カメラと視線指示方向とを表示したカヌーコース地図を表示する。
全周動画ライブ再生プレーヤ2110は、ステップS2315において、ユーザから全周映像の配信元の変更指示があったか否かを判定する。全周映像の配信元の変更指示があった場合、全周動画ライブ再生プレーヤ2110は、ステップS2303に戻って、新たな配信元からの全周映像を表示する。
全周映像の配信元の変更指示がなかった場合、全周動画ライブ再生プレーヤ2110は、ステップS2317において、ライブ終了(プレーヤ停止)か否かを判定する。ライブ終了でなければ、全周動画ライブ再生プレーヤ2110は、ステップS2307に戻って、全周動画のライブ再生を繰り返す。
本実施形態によれば、複数の全周カメラから選択して、撮像位置を地図上に表示することにより、ユーザの所望の位置からの臨場感にあふれた全周映像を視聴ができる。
[第5実施形態]
次に、本発明の第5実施形態に係る全周動画ライブ配信システムについて説明する。本実施形態に係る全周動画ライブ配信システムは、上記第2実施形態乃至第4実施形態と比べると、全周動画のライブ再生に対して所望の情報を付加する点で異なる。本実施形態においては、ライブ再生中の全周動画内の対象を見付けてテロップを付加する例を示す。なお、本実施形態はテロップの付加に限定されず、全周動画ライブ再生に他の情報を付加表示する技術として種々適用が可能である。その他の構成および動作は、第2実施形態から第4実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
《全周動画ライブ配信システム》
図24は、本実施形態に係る全周動画ライブ配信システム2400の処理の概要を示す図である。なお、図24において、図3A、図10、図18、図21Aまたは図21Bと同様な構成要素には同じ参照番号を付して、説明は省略する。また、通信端末の各々は、ユーザの選択あるいは視聴する全周動画コンテンツに対応して、全周動画ライブ再生プレーヤ1010と、全周動画ライブ再生プレーヤ1810と、全周動画ライブ配信システム2101や2102と、全周動画ライブ配信システム2400とを選択する。あるいは、全周動画ライブ再生プレーヤ1010と、図18の機能のみを有する全周動画ライブ再生プレーヤ1810と、図21Aや図21Bの機能のみを有する全周動画ライブ配信システム2101や2102と、図24の機能のみを有する全周動画ライブ配信システム2400とを組み合わせて起動し、協働させてもよい。例えば、特徴点との判定は全ての通信端末で行なうのではなく、撮影配信用PCまたは判定用プレーヤで行い、検索対象の有無とタイムスタンプとを紐付けたデータを、データ配信サーバから各通信端末に配信してもよい。
図24においては、全周カメラ310および撮影配信用PC320は、車両に配備されて移動している。図24では、街中を移動しながらライブ撮影している例を示す。なお、図24にはマイクは図示していないが、ステレオマイクによるライブ音声を収集してもよい。
全周動画ライブ再生プレーヤ2410は、上記実施形態の各全周動画ライブ再生プレーヤに代わるプレーヤである。なお、図24の全周動画ライブ再生プレーヤ2410には、本実施形態に特有の処理に関連する機能構成部を図示しており、煩雑さを回避するために、上記実施形態の全周動画ライブ再生プレーヤの機能構成部などの図示は省かれている。
全周動画ライブ再生プレーヤ2410は、テロップ挿入部2411を含む。テロップ挿入部2411は、データ配信サーバ350から全周動画ライブ再生に付加するテロップデータを取得する。そして、テロップ挿入部2411は、全周カメラ310により撮影されて、ライブ映像配信サーバ330を介して配信された全周街中のライブ映像の所定位置に、データ配信サーバ350から取得したテロップを重ねて表示する。なお、所望の位置にテロップを付加するために、データ配信サーバ350からテロップ付加の対象物の特徴量を取得して、全周映像の特徴量とマッチングして、対象物を見つけ出してもよい。
ライブ動画2441は、店舗Aのためのテロップ2451が付加表示される。ライブ動画2442は、店舗Bのためのテロップ2452が付加表示される。ライブ動画2443は、店舗Cのためのテロップ2453が付加表示される。なお、図24には、店舗の説明が付加表示されたが、付加情報に制限はない。例えば、付加情報は、表示情報に限定されず音声情報であってもよい。
(通信端末の処理データ)
図25は、本実施形態に係る通信端末の処理データ2500の構成を示す図である。処理データ2500は、全周ライブ映像にテロップなどの付加用データを付加するために使用する。
処理データ2500は、ライブ映像配信サーバ330から配信されたライブ映像配信用メッセージから再生された全周ライブ映像2501と、ユーザが指示した視線方向2502と、ユーザが指示した視線方向2502のライブ表示データ2503と、を記憶する。また、処理データ2500は、各全周ライブ映像2501に対して、1つまたは複数の検索対象物の特徴量2504と、付加用データ2505と、付加位置2506と、を記憶する。そして、処理データ2500は、特徴量の合致フラグ2507と、付加用データを付加した全周ライブ付加表示データ2508と、を記憶する。
《全周動画ライブ再生プレーヤの処理手順》
図26は、本実施形態に係る全周動画ライブ再生プレーヤ2410)の処理S1731の詳細手順を示すフローチャートである。このフローチャートも、図16のCPU1610がRAM1640を使用しながら実行するものであるが、以下、全周動画ライブ再生プレーヤ2410の処理手順として説明する。
全周動画ライブ再生プレーヤ2410は、ステップS2601において、データ配信サーバ350から検索対象物の情報を取得する。情報は対象物の特徴量であってもよい。
全周動画ライブ再生プレーヤ2410は、ステップS2603において、ライブ映像配信サーバ330から選択配信元の全周ライブ映像データを取得して球体上に展開する。次に、全周動画ライブ再生プレーヤ2410は、ステップS2605において、ユーザから指示された全周動画の表示方向を取得する。
全周動画ライブ再生プレーヤ2410は、ステップS2607において、ユーザの指示した方向に対象物があるか否かを特徴量のマッチングで判定する。対象物があると判定した場合、全周動画ライブ再生プレーヤ2410は、ステップS2609において、指示方向の全周ライブ表示データの対象物に関連情報(テロップ)を付加する。そして、全周動画ライブ再生プレーヤ2410は、ステップS2611において、球体上に展開された全周画像列のユーザから指示された表示方向のライブ映像を、添付されたテロップと共に表示する。ステップS2607において対象物がないと判定した場合、全周動画ライブ再生プレーヤ2410は、ステップS2611に進む。
全周動画ライブ再生プレーヤ2410は、ステップS2613において、検索対象物の変更があったか否かを判定する。検索対象物の変更があった場合、全周動画ライブ再生プレーヤ2410は、ステップS2601に戻って、新たな検索対象物を付加した全周映像を表示する。
検索対象物の変更がなかった場合、全周動画ライブ再生プレーヤ2410は、ステップS2615において、ライブ終了(プレーヤ停止)か否かを判定する。ライブ終了でなければ、全周動画ライブ再生プレーヤ2410は、ステップS2603に戻って、全周動画のライブ再生を繰り返す。
本実施形態によれば、全周カメラで撮像した全周動画の表示に、対象物に対応する情報を付加することにより、ユーザの所望の位置からの臨場感にあふれた全周映像を対象物の情報を含めて視聴ができる。
[第6実施形態]
次に、本発明の第6実施形態に係る全周動画ライブ配信システムについて説明する。本実施形態に係る全周動画ライブ配信システムは、上記第2実施形態乃至第5実施形態と比べると、全周動画のライブ再生から所望の対象物を選別して表示する点で異なる。本実施形態においては、サッカーの全周動画から対象選手を選別してライブ再生する。なお、対象者(物)の特徴は、人物であれば顔や服装、装飾品、模様(スポーツ選手の背番号などを含む)を含み、物体であれば、形状、色、模様などを含むが、これに限定されない。その他の構成および動作は、第2実施形態から第5実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
《全周動画ライブ配信システム》
(処理の概要)
図27Aは、本実施形態に係る全周動画ライブ配信システム2700の処理の概要を示す図である。なお、図27Aにおいて、図3A、図10、図18、図21A、図21Bまたは図24と同様な構成要素には同じ参照番号を付して、説明は省略する。また、通信端末の各々は、ユーザの選択あるいは視聴する全周動画コンテンツに対応して、全周動画ライブ再生プレーヤ1010と、全周動画ライブ再生プレーヤ1810と、全周動画ライブ配信システム2101や2102と、全周動画ライブ配信システム2400と、全周動画ライブ配信システム2700を選択する。あるいは、全周動画ライブ再生プレーヤ1010と、図18の機能のみを有する全周動画ライブ再生プレーヤ1810と、図21Aや図21Bの機能のみを有する全周動画ライブ配信システム2101や2102と、図24の機能のみを有する全周動画ライブ配信システム2400と、図27Aの機能のみを有する全周動画ライブ配信システム2700とを組み合わせて起動し、協働させてもよい。例えば、特徴点との判定は全ての通信端末で行なうのではなく、撮影配信用PCまたは判定用プレーヤで行い、全選手分のデータとタイムスタンプとを紐付けたデータを、データ配信サーバから各視聴端末に配信してもよい。
図27Aにおいては、複数の全周カメラ314〜317を複数地点に配置してユーザが複数の全周動画の選択視聴を可能としている。図27Aでは、サッカー場での試合を複数地点でライブ撮影している例を示す。なお、図27Aでは、撮影配信用PCの図示は省略している。また、図27Aにはマイクは図示していないが、ステレオマイクによるライブ音声を収集してもよい。
全周動画ライブ再生プレーヤ2710は、上記実施形態の全周動画ライブ再生プレーヤに代わるプレーヤである。なお、図27Aの全周動画ライブ再生プレーヤ2710には、本実施形態に特有の処理に関連する機能構成部を図示しており、煩雑さを回避するために、上記実施形態の全周動画ライブ再生プレーヤの機能構成部などの図示は省かれている。
全周動画ライブ再生プレーヤ2710は、選手識別部2711を含む。選手識別部2711は、データ配信サーバ350から取得した選手選択用データと、全周カメラ314〜317が撮像した全周映像とのマッチングにより、選手を見つけて、その選手が映っている全周動画の所定方向を、望ましくはズームイン/ズームアウトして表示する。
本実施形態において、サッカー場には、全周カメラ314〜317が設置されている。全周カメラ314は、正面スタンドに配置されている。全周カメラ315は、一方のゴール背後に設置されている。全周カメラ316は、他方のゴール背後に配置されている。全周カメラ317は、競技場中空からサッカー場全体を撮像している。
ライブ動画2741は、全周カメラ314から対象選手2751をズームインして撮像した動画である。ライブ動画2742は、全周カメラ317から対象選手2751をズームインして撮像した動画である。ライブ動画2743は、全周カメラ316から対象選手2751をズームアウトして撮像した動画である。ユーザは、視聴したい選手の全周動画を自動選択して追跡することが可能である。
(動作の概要)
図27Bは、本実施形態に係る全周動画ライブ配信システム2700の動作の概要を示す図である。図27Bの左図には、全周動画ライブ再生プレーヤ2710において、追跡選手を選択する操作の画面遷移を示す。また、図27Bの右図には、全周動画ライブ再生を画面全体ではなく、画面の一部に再生表示する例を示す。なお、図27Bの画面遷移や一部表示は、他の実施形態においても同様である。
<画面遷移>
(1)図27Bの左最上段は、図27Aのライブ動画2741を示す画面である。
(2)マウス、タッチパネル、端末のボタン等ユーザによる規定の操作により、左図2段目のように、操作用UI2761および2762を表示する。操作用UI2761および2762には、追跡対象選択メニュー表示/非表示ボタン2762が含まれている。操作用UI2761は、全周カメラと視線との選択・表示である。
(3)操作用UI上の追跡対象選択メニュー表示/非表示ボタン2762のクリックにより、左図3段目のように、追跡対象選択メニュー2763を表示する。追跡対象選択メニュー表示/非表示ボタン2762は、ボタンが押され、メニューが表示されている状態であることを示す。この状態に遷移するための、特別なショートカット操作を用意してもよい。追跡対象選択メニュー2763には、選択可能な対象(この場合は選手、監督、審判等)の一覧が表示される。既に追跡対象が選択されている場合は、該当項目を選択状態とする。
(4)ユーザ操作により追跡対象を選択する。選択された項目は、左図最下段のように、色を変更する、特別なマークを表示する等して、選択状態であることがわかるようにする。また、操作用UI上に、選択された追跡対象の画像、番号、名前等を簡易表示してもよい。自動追跡機能を有効とし、結果を動画エリアで再生中の映像に反映させる。これにより、ユーザはテレビのチャンネルを切り替えるのと同様の感覚で、順次追跡対象を切り替えながら、好みのアングルを探すことが可能となる。
(5)ユーザ操作により選択状態にある追跡対象を解除する場合、(2)〜(4)とは逆に、対象項目の表示を通常に戻し、操作用UI上から追跡対象の表示を消去する。自動追跡機能を無効とし、結果を動画エリアで再生中の映像に反映させる。
(6)操作用UI上の追跡対象選択メニュー表示/非表示ボタン2762が操作された場合、追跡対象選択メニュー2763を消去する。追跡対象選択メニュー表示/非表示ボタン2762は解除され、メニューが表示されていない状態であることを示す。ユーザによる操作が一定時間ない場合、操作用UI2761および2762を消去する。
<部分表示>
図27Bの右図には、動画を通信端末の全画面に表示しない場合に、動画エリアの外部に追跡対象選択メニュー2763を表示する例が示されている。
(通信端末の処理データ)
図28は、本実施形態に係る通信端末の処理データ2800の構成を示す図である。処理データ2800は、ユーザが望む対象者(物)を追跡して、全周映像を選択してその表示方向を決定し、必要であればズームイン/ズームアウトをして、対象者(物)を追跡表示するために使用される。
処理データ2800は、追跡対象物の特徴量2801と、マッチングの結果、対象者が見付かった全周ライブ映像2802と、対象者が見付かった方向2803と、を記憶する。また、処理データ2800は、全周ライブ映像2802内の方向2803の全周ライブ表示データ2804と、ズームイン/ズームアウト2805と、を記憶する。
《全周動画ライブ再生プレーヤの処理手順》
図29は、本実施形態に係る全周動画ライブ再生プレーヤ2710)の処理S1731の詳細手順を示すフローチャートである。このフローチャートも、図16のCPU1610がRAM1640を使用しながら実行するものであるが、以下、全周動画ライブ再生プレーヤ2710の処理手順として説明する。
全周動画ライブ再生プレーヤ2710は、ステップS2901において、データ配信サーバ350から追跡対象物の情報を取得する。情報は対象物の特徴量であってもよい。
全周動画ライブ再生プレーヤ2710は、ステップS2903において、ライブ映像配信サーバ330から複数の選択配信元の全周ライブ映像データを取得して球体上に展開する。
全周動画ライブ再生プレーヤ2710は、ステップS2905において、全周動画に対象物があるか否かを特徴量のマッチングで判定する。対象物があると判定した場合、全周動画ライブ再生プレーヤ2710は、ステップS2907において、追跡対象物が映っている全周ライブの配信元を選択する。次に、全周動画ライブ再生プレーヤ2710は、ステップS2909において、追跡対象物が映っている全周ライブの方向を選択する。そして、全周動画ライブ再生プレーヤ2710は、ステップS2911において、追跡対象物の映っている全周ライブの選択方向を表示する。その時に、必要であれば、ズームイン/ズームアウトの処理を行なう。ステップS2905において対象物がないと判定した場合、全周動画ライブ再生プレーヤ2710は、ステップS2917において、今まで出力中の全周ライブ映像データと、現在の表示方向とを維持して、全周ライブの出力を継続する。そして、全周動画ライブ再生プレーヤ2710は、ステップS2913に進む。
全周動画ライブ再生プレーヤ2710は、ステップS2913において、追跡対象物の変更があったか否かを判定する。追跡対象物の変更があった場合、全周動画ライブ再生プレーヤ2710は、ステップS2901に戻って、新たな追跡対象物が映った全周映像を表示する。
追跡対象物の変更がなかった場合、全周動画ライブ再生プレーヤ2710は、ステップS2915において、ライブ終了(プレーヤ停止)か否かを判定する。ライブ終了でなければ、全周動画ライブ再生プレーヤ2710は、ステップS2903に戻って、全周動画のライブ再生を繰り返す。
本実施形態によれば、全周カメラで撮像した全周動画の内で、追跡対象物が映っている動画をライブ再生することにより、ユーザの所望の追跡対象者(物)を含む臨場感にあふれた全周映像を視聴ができる。
[第7実施形態]
次に、本発明の第7実施形態に係る全周動画ライブ配信システムについて説明する。本実施形態に係る全周動画ライブ配信システムは、上記第2実施形態乃至第6実施形態と比べると、全周動画をテレビにライブ配信して視聴可能とする点で異なる。その他の構成および動作は、第2実施形態から第6実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
《全周動画ライブ配信システム》
図30は、本実施形態に係る全周動画ライブ配信システム3000の処理の概要を示す図である。なお、図30において、図3A、図10、図18、図21A、図21B、図24または図27Aと同様な構成要素には同じ参照番号を付して、説明は省略する。
ライブ映像配信サーバ330は、テレビ局3070に対して全周動画をライブ配信し、テレビ局3070は、テレビ受像機3040に対して全周動画をライブ放送する。テレビ受像機3040は、テレビ放送信号により本実施形態の全周動画を受信する。
テレビ局3070は、テレビ映像送信部3071と、テレビ画面変換部3072と、を有する。テレビ画面変換部3072は、ライブ映像配信サーバ330から配信された全周ライブ動画データを、全周ライブ放送可能なテレビ画面データに変換する。そして、テレビ映像送信部3071は、変換された全周ライブ放送可能なテレビ画面データを送信する。
テレビ受像機3040には、データ量により必要であれば全周映像を間引きして、テレビ放送信号により全周映像を送信する。テレビ受像機3040では、受信したテレビ放送信号の映像データから全周映像を復元する。そして、復元された全周映像を球体3030に投影する。そして、球体3030に投影された全周映像のユーザの視線方向指示に応じた映像を選択して、テレビ画面に投射して走査出力する。
テレビ映像画面3041〜3043は、全周動画のユーザ指示方向の選択表示を示す。
(テレビ局における処理データ)
図31は、本実施形態に係るテレビ局3070における処理データの変換を示す図である。
全周カメラで撮像された全周映像が、例えば、15フレーム/秒であれば、ライブ映像配信サーバ330からテレビ局3070へも15フレーム/秒で配信される。全周カメラで撮像された全周映像は半分に分割されて、現在のデジタル放送における30フレーム/秒で放送される。また、全周カメラで撮像された全周映像は1/4に分割されて、現在のデジタル放送における60フレーム/秒で放送される。ただし、放送ビットレートおよび対応解像度が全周ライブ動画データの転送に十分であれば、全周映像の分割を行なう必要はなくフレーム補完処理(同じフレームを繰り返す、または、中間フレームを合成する)によって、30フレーム/秒または60フレーム/秒またはその他放送で使用されるフレームレートへの変換を行ってもよい。なお、フレームレートの変換処理は、撮影配信用PC、ライブ映像配信サーバ、テレビ局のいずれでも行なうことが可能であるが、テレビ局内設備において行なうことが最も効率的だと思われる。
テレビ受像機3040においては、全周映像が復元されると共に、間のフレームが補完される。そして、再生した全周ライブ画像から、ユーザの指示に応じて視線を変化させ、テレビ映像画面3041〜3043がそれぞれ表示される。
本実施形態によれば、全周カメラで撮像した全周動画をテレビ放送によりテレビ受像機にライブ再生することにより、ユーザが臨場感にあふれた全周映像をテレビ視聴できる。
[第8実施形態]
次に、本発明の第8実施形態に係る全周動画ライブ配信システムについて説明する。本実施形態に係る全周動画ライブ配信システムは、上記第2実施形態乃至第7実施形態と比べると、全周動画のライブ再生をヘッドマウンティングディスプレイ(以下、HMD)で視聴する、特に3次元視聴する点で異なる。その他の構成および動作は、第2実施形態から第7実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
《全周動画ライブ配信システム》
図32は、本実施形態に係る全周動画ライブ配信システム3200の処理の概要を示す図である。なお、図32において、図3A、図10、図18、図21A、図21B、図24および図27Aと同様な構成要素には同じ参照番号を付して、説明は省略する。
全周動画ライブ配信システム3200は、図18のマラソンの全周動画の例を示している。図32において、ユーザ3241はHMD3240によって全周動画を視聴している。そして、その視線方向は、HMD3240が有する加速度センサによるユーザ3241の頭の向きの変化に応じて変更される。したがって、ユーザ3241が1回転すると全周動画全体を視聴できることとなる。
本実施形態によれば、全周カメラで撮像した全周動画を頭の回転を検知するセンサを有するHMDで視聴することにより、ユーザが指の指示でなく自分の動きに合致した臨場感にあふれた全周映像をテレビ視聴できる。
[他の実施形態]
なお、上記実施形態では、全周カメラを、周囲360度を撮影する5つのカメラと天空を撮影する1つのカメラとを有するカメラとして、説明した。しかしながら、カメラの数は本例に限定されない。映像の精度(解像度)やライブのための処理速度などから決定されればよい。また、全周カメラのレンズが1つの超広角レンズ等からなる場合は、全周画像の合成処理が不要となる。また、全周カメラのレンズが1つで鏡面撮影方式により円錐状の鏡面を撮影して、全周動画を取得する場合は、全周画像の生成処理は本実施形態と異なったものとなる。本発明は、全周カメラの構造によらず適用が可能であり、それらも本発明の範疇に含まれる。
また、上記実施形態においては、プレーヤにおけるマッピング用立体上への展開として、球体マッピングを行なう例を示したが、マッピング用立体は球体に限定されず、円筒マッピングや多面体マッピングであってもよい。そして、多面体マッピングの場合には、各面に対応する画像を、配信側またはサーバ側(またはプレーヤ側)で切り出すことになる。
また、上記実施形態においては、全周カメラの撮像位置や全周動画中から対象者(物)を見付けるためのマッチング、あるいは、再生する全周動画にテロップや音声などを付加するためのマッチングを、全周動画ライブ再生プレーヤで実現する例を示した。しかしながら、撮影配信用PCがデータ配信サーバから映像や画像、その特徴量を取得して、全周カメラの選択や、対象者(物)の追跡、テロップや音声などの付加を実行して、その結果を、ライブ映像配信サーバまたはデータ配信サーバを介してユーザの通信端末に配信する構成であってもよい。その場合には、図3A、図18、図21Aおよび図21B(データ配信サーバは省略)、図24、図27A、図30および図32に破線で示したように、影配信用PCがデータ配信サーバから映像や画像、その特徴量を取得する。
以上、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。また、それぞれの実施形態に含まれる別々の特徴を如何様に組み合わせたシステムまたは装置も、本発明の範疇に含まれる。
また、本発明は、複数の機器から構成されるシステムに適用されてもよいし、単体の装置に適用されてもよい。さらに、本発明は、実施形態の機能を実現する情報処理プログラムが、システムあるいは装置に直接あるいは遠隔から供給される場合にも適用可能である。したがって、本発明の機能をコンピュータで実現するために、コンピュータにインストールされるプログラム、あるいはそのプログラムを格納した媒体、そのプログラムをダウンロードさせるWWW(World Wide Web)サーバも、本発明の範疇に含まれる。特に、少なくとも、上述した実施形態に含まれる処理ステップをコンピュータに実行させるプログラムを格納した非一時的コンピュータ可読媒体(non-transitory computer readable medium)は本発明の範疇に含まれる。

Claims (11)

  1. 全周カメラと、
    前記全周カメラで撮影された全周動画を取得して時系列の全周フレーム画像データを生成する全周画像生成手段と、
    前記全周カメラの撮影に同期して立体音声を取得するマイクと、
    前記立体音声から時系列の立体音声データを生成してアップロードする立体音声データ生成手段と、
    前記時系列の全周フレーム画像データに対して符号化を行なって、全周動画データを生成してアップロードする全周動画データ生成手段と、
    前記全周動画データ生成手段からアップロードされた前記全周動画データと、前記立体音声データ生成手段からアップロードされた前記立体音声データとを配信する配信用サーバと、
    前記配信用サーバから配信された前記全周動画データを再生し、ユーザによる視線変化の指示に応じて、再生された全周動画から選択された範囲の動画映像を表示し、前記動画映像の表示方向に対応する立体音声を、前記配信用サーバから配信された前記立体音声データから再生して出力する全周動画再生手段と、
    を備え
    前記全周動画再生手段は、前記動画映像のズームインまたはズームアウトを行ない、前記立体音声データから、前記動画映像のズームインまたはズームアウトに応じた立体音声を再生して出力する全周動画配信システム。
  2. 前記全周動画再生手段は、前記配信用サーバから受信した前記全周動画データを復号して、全周フレーム画像の単位で、視点を内部に含むマッピング用立体上に展開する全周動画展開手段を有し、前記視点からの視線方向の動画映像を選択して表示し、
    前記視点を前記マッピング用立体に近づけて前記動画画像のズームインを行ない、前記視点を前記マッピング用立体から遠ざけて前記動画画像のズームアウトを行なう、請求項1に記載の全周動画配信システム。
  3. 前記全周カメラは、少なくとも2つの固定された全周カメラであって、
    前記全周動画再生手段は、前記配信用サーバから配信される前記全周動画データを、ユーザからの前記少なくとも2つの全周カメラの選択指示に従って選択する映像選択手段を有する請求項1または2に記載の全周動画配信システム。
  4. 前記全周カメラは、移動する全周カメラであって、
    前記全周動画の特徴量と、既知の位置からあらかじめ撮影された画像の特徴量とのマッチングに基づいて、前記全周動画を撮影した位置を判定する位置判定手段、をさらに備え、
    前記全周動画再生手段は、前記ユーザによる視線変化の指示に応じた範囲の動画映像と、前記位置判定手段が判定した位置とを表示する、請求項1乃至のいずれか1項に記載の全周動画配信システム。
  5. 既知の対象物に対応する表示情報および音声情報の少なくともいずれかを含む情報を取得する取得手段と、
    前記ユーザによる視線変化の指示に応じた範囲の全周映像データの特徴量と、前記既知の対象物の画像データの特徴量とのマッチングに基づいて、前記全周映像データに前記既知の対象物があるか否かを判定する判定手段と、
    をさらに備え、
    前記全周動画再生手段は、前記全周映像データに前記既知の対象物がある場合に、前記既知の対象物に対応して前記情報を合成して、前記全周動画を出力する請求項1乃至のいずれか1項に記載の全周動画配信システム。
  6. 前記配信用サーバから配信された前記全周動画データからテレビ用映像データを生成して送信するテレビ局をさらに備え、
    前記全周動画再生手段はテレビ受像機にあって、前記テレビ局から送信された前記テレビ用映像データに基づいて、前記ユーザによる視線変化の指示に応じて、全周動画から選択された範囲の動画映像を走査表示し、前記動画映像の表示方向に対応する立体音声を、前記テレビ局から送信された前記立体音声データから再生して出力する、請求項1乃至のいずれか1項に記載の全周動画配信システム。
  7. 全周画像生成手段が、全周カメラで撮影された全周動画を取得して時系列の全周フレーム画像データを生成する全周画像生成ステップと、
    立体音声データ生成手段が、前記全周カメラの撮影に同期してマイクにより取得した立体音声から、時系列の立体音声データを生成してアップロードする立体音声データ生成ステップと、
    全周動画データ生成手段が、前記時系列の全周フレーム画像データに対して符号化を行なって、全周動画データを生成してアップロードする全周動画データ生成ステップと、
    配信用サーバが、アップロードされた前記全周動画データと前記立体音声データとを配信する配信ステップと、
    全周動画再生手段が、前記配信用サーバから配信された前記全周動画データを再生し、ユーザによる視線変化の指示に応じて、再生された全周動画から選択された範囲の動画映像を表示し、前記動画映像の表示方向に対応する立体音声を、前記配信用サーバから配信された前記立体音声データから再生して出力する全周動画再生ステップと、
    を含み、
    前記全周動画再生ステップにおいて、前記動画映像のズームインまたはズームアウトを行ない、前記立体音声データから、前記動画映像のズームインまたはズームアウトに応じた立体音声を再生して出力する、全周動画配信方法。
  8. 全周動画を配信する配信用サーバから全周動画データを受信する全周動画データ受信手段と、
    前記全周動画データと同期して取得した立体音声から生成された立体音声データを、前記配信用サーバから受信する立体音声データ受信手段と、
    受信した前記全周動画データを復号して全周フレーム画像の単位で、視点を内部に含むマッピング用立体上に展開する全周動画展開手段と、
    ユーザによる視線変化の指示に応じて、展開された前記全周フレーム画像から表示範囲を選択して表示し、前記表示範囲の前記全周フレーム画像の中の方向に対応する立体音声を、前記立体音声データから再生して出力する全周動画再生手段と、
    を備え
    前記全周動画再生手段は、前記動画映像のズームインまたはズームアウトを行ない、前記立体音声データから、前記動画映像のズームインまたはズームアウトに応じた立体音声を再生して出力する通信端末装置。
  9. 前記全周動画再生手段は、3次元の視聴をするヘッドマウンティングディスプレイを有する請求項に記載の通信端末装置。
  10. 通信端末装置の全周動画データ受信手段が、全周動画を配信する配信用サーバから全周動画データを受信する全周動画データ受信ステップと、
    前記通信端末装置の立体音声データ受信手段が、前記全周動画データと同期して取得した立体音声から生成された立体音声データを、前記配信サーバから受信する立体音声データ受信ステップと、
    前記通信端末装置の全周動画展開手段が、受信した前記全周動画データを復号して全周フレーム画像の単位で、視点を内部に含むマッピング用立体上に展開する全周動画展開ステップと、
    前記通信端末装置の全周動画再生手段が、ユーザによる視線変化の指示に応じて、展開された前記全周フレーム画像から表示範囲を選択して表示し、前記表示範囲の前記全周フレーム画像の中の方向に対応する立体音声を、前記立体音声データから再生して出力する全周動画再生ステップと、
    を含み、
    前記全周動画再生ステップにおいて、前記動画映像のズームインまたはズームアウトを行ない、前記立体音声データから、前記動画映像のズームインまたはズームアウトに応じた立体音声を再生して出力する、通信端末装置の制御方法。
  11. 全周動画を配信する配信用サーバから全周動画データを受信する全周動画データ受信ステップと、
    前記全周動画データと同期して取得した立体音声から生成された立体音声データを、前記配信用サーバから受信する立体音声データ受信ステップと、
    受信した前記全周動画データを復号して全周フレーム画像の単位で、視点を内部に含むマッピング用立体上に展開する全周動画展開ステップと、
    ユーザによる視線変化の指示に応じて、展開された前記全周フレーム画像から表示範囲を選択して表示し、前記表示範囲の前記全周フレーム画像の中の方向に対応する立体音声を、前記立体音声データから再生して出力する全周動画再生ステップと、
    を通信端末装置が有するコンピュータに実行させる通信端末装置の制御プログラムであって、
    前記全周動画再生ステップにおいて、前記動画映像のズームインまたはズームアウトを行ない、前記立体音声データから、前記動画映像のズームインまたはズームアウトに応じた立体音声を再生して出力する、通信端末装置の制御プログラム
JP2014102673A 2014-05-16 2014-05-16 全周動画配信システム、全周動画配信方法、通信端末装置およびそれらの制御方法と制御プログラム Active JP5777185B1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014102673A JP5777185B1 (ja) 2014-05-16 2014-05-16 全周動画配信システム、全周動画配信方法、通信端末装置およびそれらの制御方法と制御プログラム
EP15792343.4A EP3145199A4 (en) 2014-05-16 2015-05-14 360-degree video-distributing system, 360-degree video distribution method, image-processing device, and communications terminal device, as well as control method therefor and control program therefor
US15/311,458 US9741091B2 (en) 2014-05-16 2015-05-14 All-around moving image distribution system, all-around moving image distribution method, image processing apparatus, communication terminal apparatus, and control methods and control programs of image processing apparatus and communication terminal apparatus
PCT/JP2015/063934 WO2015174501A1 (ja) 2014-05-16 2015-05-14 全周動画配信システム、全周動画配信方法、画像処理装置、通信端末装置およびそれらの制御方法と制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014102673A JP5777185B1 (ja) 2014-05-16 2014-05-16 全周動画配信システム、全周動画配信方法、通信端末装置およびそれらの制御方法と制御プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2014205993A Division JP6002191B2 (ja) 2014-05-16 2014-10-06 全周動画配信システム、全周動画配信方法、通信端末装置およびそれらの制御方法と制御プログラム

Publications (2)

Publication Number Publication Date
JP5777185B1 true JP5777185B1 (ja) 2015-09-09
JP2015220595A JP2015220595A (ja) 2015-12-07

Family

ID=54192600

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014102673A Active JP5777185B1 (ja) 2014-05-16 2014-05-16 全周動画配信システム、全周動画配信方法、通信端末装置およびそれらの制御方法と制御プログラム

Country Status (1)

Country Link
JP (1) JP5777185B1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017047173A1 (ja) * 2015-09-14 2017-03-23 ソニー株式会社 情報処理装置及び情報処理方法
JP6126272B1 (ja) * 2016-05-17 2017-05-10 株式会社コロプラ 仮想空間を提供する方法、プログラム及び記録媒体
JP6126271B1 (ja) * 2016-05-17 2017-05-10 株式会社コロプラ 仮想空間を提供する方法、プログラム及び記録媒体
WO2017199848A1 (ja) * 2016-05-17 2017-11-23 株式会社コロプラ 仮想空間を提供する方法、プログラム及び記録媒体
WO2018168902A1 (en) 2017-03-14 2018-09-20 Ricoh Company, Ltd. Sound recording apparatus, sound system, sound recording method, and carrier means
CN110114759A (zh) * 2016-09-20 2019-08-09 佳能株式会社 信息处理装置、其控制方法和计算机程序
US10539797B2 (en) 2016-05-06 2020-01-21 Colopl, Inc. Method of providing virtual space, program therefor, and recording medium
WO2022137606A1 (ja) * 2020-12-22 2022-06-30 株式会社エイリアンミュージックエンタープライズ 管理サーバ

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10419671B2 (en) 2016-06-30 2019-09-17 Optim Corporation System, method, and program for displaying omnidirectional camera image
WO2018076357A1 (zh) * 2016-10-31 2018-05-03 北京小米移动软件有限公司 多媒体信息播放方法及系统、采集设备、标准化服务器
JP6819368B2 (ja) 2017-03-07 2021-01-27 株式会社リコー 装置、システム、方法およびプログラム
JP7196399B2 (ja) 2017-03-14 2022-12-27 株式会社リコー 音響装置、音響システム、方法およびプログラム
JP6919242B2 (ja) 2017-03-16 2021-08-18 株式会社リコー 音声取得装置
JP2018196076A (ja) * 2017-05-22 2018-12-06 株式会社ラムダシステムズ テロップ表示システム、テロップ表示プログラム及びテロップ表示方法
JP2019022014A (ja) * 2017-07-13 2019-02-07 日本電信電話株式会社 画像提供方法、画像提供装置及びコンピュータプログラム
CN107295377B (zh) * 2017-07-14 2020-12-01 程工 影片制作方法、装置及系统
JP6805341B2 (ja) * 2018-02-06 2020-12-23 株式会社Nttドコモ 情報処理装置及び情報処理方法
JP6686125B1 (ja) * 2018-12-26 2020-04-22 キヤノン株式会社 通信装置、その制御方法、およびそのプログラム
JP7284007B2 (ja) * 2019-06-28 2023-05-30 株式会社Nttドコモ 情報処理装置
JP2023130186A (ja) * 2022-03-07 2023-09-20 パナソニックIpマネジメント株式会社 映像ストリーム管理方法、映像ストリーム管理システムおよび映像ストリーム管理装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0955925A (ja) * 1995-08-11 1997-02-25 Nippon Telegr & Teleph Corp <Ntt> 画像システム
JP2003125389A (ja) * 2001-10-19 2003-04-25 Nippon Telegraph & Telephone West Corp 映像配信装置及びその方法
JP2003219389A (ja) * 2002-01-18 2003-07-31 Nippon Telegr & Teleph Corp <Ntt> 映像配信方法及びシステム及び装置及びユーザ端末及び映像配信プログラム及び映像配信プログラムを格納した記憶媒体
JP2004048546A (ja) * 2002-07-15 2004-02-12 Sony Corp 情報処理装置および方法、表示装置および方法、並びにプログラム
JP2005217536A (ja) * 2004-01-27 2005-08-11 Sony Corp 映像配信システム
WO2012011466A1 (ja) * 2010-07-20 2012-01-26 シャープ株式会社 中継装置、中継方法、通信システム、中継制御プログラム、および記録媒体
US8872888B2 (en) * 2010-10-01 2014-10-28 Sony Corporation Content transmission apparatus, content transmission method, content reproduction apparatus, content reproduction method, program and content delivery system

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108028964A (zh) * 2015-09-14 2018-05-11 索尼公司 信息处理装置以及信息处理方法
US11132099B2 (en) 2015-09-14 2021-09-28 Sony Corporation Information processing device and information processing method
WO2017047173A1 (ja) * 2015-09-14 2017-03-23 ソニー株式会社 情報処理装置及び情報処理方法
JPWO2017047173A1 (ja) * 2015-09-14 2018-06-28 ソニー株式会社 情報処理装置及び情報処理方法
US10539797B2 (en) 2016-05-06 2020-01-21 Colopl, Inc. Method of providing virtual space, program therefor, and recording medium
WO2017199848A1 (ja) * 2016-05-17 2017-11-23 株式会社コロプラ 仮想空間を提供する方法、プログラム及び記録媒体
JP2017207595A (ja) * 2016-05-17 2017-11-24 株式会社コロプラ 仮想空間を提供する方法、プログラム及び記録媒体
JP2017208676A (ja) * 2016-05-17 2017-11-24 株式会社コロプラ 仮想空間を提供する方法、プログラム及び記録媒体
JP6126271B1 (ja) * 2016-05-17 2017-05-10 株式会社コロプラ 仮想空間を提供する方法、プログラム及び記録媒体
JP6126272B1 (ja) * 2016-05-17 2017-05-10 株式会社コロプラ 仮想空間を提供する方法、プログラム及び記録媒体
CN110114759A (zh) * 2016-09-20 2019-08-09 佳能株式会社 信息处理装置、其控制方法和计算机程序
WO2018168902A1 (en) 2017-03-14 2018-09-20 Ricoh Company, Ltd. Sound recording apparatus, sound system, sound recording method, and carrier means
WO2022137606A1 (ja) * 2020-12-22 2022-06-30 株式会社エイリアンミュージックエンタープライズ 管理サーバ
JPWO2022137606A1 (ja) * 2020-12-22 2022-06-30
JP7344610B2 (ja) 2020-12-22 2023-09-14 株式会社エイリアンミュージックエンタープライズ 管理サーバ

Also Published As

Publication number Publication date
JP2015220595A (ja) 2015-12-07

Similar Documents

Publication Publication Date Title
JP5777185B1 (ja) 全周動画配信システム、全周動画配信方法、通信端末装置およびそれらの制御方法と制御プログラム
WO2015174501A1 (ja) 全周動画配信システム、全周動画配信方法、画像処理装置、通信端末装置およびそれらの制御方法と制御プログラム
JP6002191B2 (ja) 全周動画配信システム、全周動画配信方法、通信端末装置およびそれらの制御方法と制御プログラム
US9591349B2 (en) Interactive binocular video display
US20170257414A1 (en) Method of creating a media composition and apparatus therefore
US20150058709A1 (en) Method of creating a media composition and apparatus therefore
KR20170015938A (ko) 콘텐트를 전달 및/또는 콘텐트를 재생하기 위한 방법들 및 장치
US20150124171A1 (en) Multiple vantage point viewing platform and user interface
US10296281B2 (en) Handheld multi vantage point player
US20200329266A1 (en) Information processing apparatus, method for processing information, and storage medium
US10156898B2 (en) Multi vantage point player with wearable display
US20180227501A1 (en) Multiple vantage point viewing platform and user interface
US20150221334A1 (en) Audio capture for multi point image capture systems
KR20150105058A (ko) 온라인을 이용한 혼합현실형 가상 공연 시스템
CN113891117B (zh) 沉浸媒体的数据处理方法、装置、设备及可读存储介质
US10664225B2 (en) Multi vantage point audio player
JP2008510357A (ja) 画像のエンコーディング方法、エンコーディング装置、画像のデコーディング方法及びデコーディング装置
US20180227572A1 (en) Venue specific multi point image capture
CN107835435B (zh) 一种赛事宽视角直播设备和相关联的直播系统和方法
US20150304724A1 (en) Multi vantage point player
WO2013116163A1 (en) Method of creating a media composition and apparatus therefore
JP2009194594A (ja) 放送システム、送信装置、及び送信方法、受信装置、及び受信方法、並びにプログラム
US9338429B2 (en) Video processing apparatus capable of reproducing video content including a plurality of videos and control method therefor
US20180227694A1 (en) Audio capture for multi point image capture systems
KR20190129865A (ko) 정보 처리 장치 및 정보 처리 방법, 그리고 프로그램

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150702

R150 Certificate of patent or registration of utility model

Ref document number: 5777185

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250