(本発明の基礎となった知見)
異なる視点の複数の映像を配信する場合には、ユーザが視聴対象の映像を選択し、サーバから端末装置に選択された映像が配信される。これにより、ユーザが映像を選択してから、映像が表示されるまでに待ち時間が発生する可能性がある。なお、通信帯域には制限があるため、全ての映像を予め端末装置に送信しておくことは困難である。
一方で、特許文献1には、視聴画像の周囲を含む大きな画像を送る方法が開示されている。また、特許文献2には、異なる視点の複数の映像のうち、表示視点映像の周辺の視点映像をグループ映像として配信する方法が開示されている。
しかしながら、複数のユーザにより任意の視点から撮影された映像を配信する場合には、上記技術では、シームレスな表示を行なうことが困難である。具体的には、上記技術では、撮影視点が予め定められているため、予めグループ映像等を判定することができる。一方、複数のユーザが任意に撮影した映像では、視点、画質及びズーム度などの撮影条件が任意に設定される。このような場合に、ユーザが好む視点からの映像をシームレスに表示することは困難である。
本発明の一態様に係る映像配信方法は、複数のユーザにより異なる視点から撮影された複数の映像のいずれかを端末装置に配信するサーバによる映像配信方法であって、前記複数の映像の一つであり、前記端末装置から要求された第1映像を前記端末装置に配信する配信ステップと、前記複数の映像の一つであり、前記端末装置から次に要求される可能性が高い第2映像を選択する選択ステップと、前記第1映像を前記端末装置に配信している間に前記第2映像の前記端末装置への送信を開始する送信ステップとを含む。
これによれば、第1映像の表示中に第2映像が予め端末装置に送られる。これにより、端末装置は、第1映像から第2映像への切り替えをスムーズに行なえる。
例えば、前記選択ステップでは、前記複数の映像のうち、前記第1映像との関連度が高い映像を前記第2映像として選択してもよい。
これによれば、現在表示中の第1映像に関連度が高い第2映像が選択された場合に、端末装置は、映像の切り替えをスムーズに行なえる。
例えば、前記選択ステップでは、撮影シーンの位置が前記第1映像の撮影シーンの位置に近いほど、前記関連度が高いと判定してもよい。
例えば、前記選択ステップでは、さらに、前記撮影シーンの広さが前記第1映像の前記撮影シーンの広さに近いほど、前記関連度が高いと判定してもよい。
例えば、前記選択ステップでは、前記第1映像に含まれる被写体と、同一の被写体が撮影されている映像の前記関連度を高く設定してもよい。
例えば、前記選択ステップでは、前記複数の映像のフレームレート、解像度又はビットレートに基づき、前記第2映像を選択してもよい。
例えば、前記選択ステップでは、前記複数の映像のうち、他のユーザに選択された回数が多い映像を前記第2映像として選択してもよい。
例えば、前記選択ステップでは、ユーザの視聴履歴又は予め登録されている嗜好情報に基づき、前記第2映像を選択してもよい。
また、本発明の一態様に係る映像受信方法は、複数の視点から撮影された複数の映像のいずれかをサーバから受信し、当該映像を表示する端末装置による映像受信方法であって、前記複数の映像から第1映像を選択する選択ステップと、前記第1映像の送信を前記サーバに要求する要求ステップと、前記第1映像を前記サーバから受信する第1受信ステップと、前記第1映像を表示する表示ステップと、前記第1映像の受信中に、前記複数の映像の一つであり、次に選択される可能性が高い第2映像の受信を開始する第2受信ステップとを含む。
これによれば、端末装置は、第1映像の表示中に予め第2映像を受信する。これにより、端末装置は、第1映像から第2映像への切り替えをスムーズに行なえる。
例えば、前記映像受信方法は、さらに、前記受信された前記第2映像を蓄積するステップと、前記第1映像の表示中に前記第2映像が選択された場合に、前記蓄積されている前記第2映像を表示するステップとを含んでもよい。
例えば、前記映像配信方法は、さらに、前記第1映像の表示中に、前記第1映像及び前記第2映像と異なる第3映像が選択された場合、前記第3映像を前記サーバから受信するステップと、前記第3映像を受信するまでの間、前記蓄積されている前記第2映像を表示するステップとを含んでもよい。
これによれば、端末装置は、第1映像から他の映像への切り替えの待ち時間に第2映像を表示できる。
例えば、前記表示ステップでは、さらに、前記複数の映像が撮影されている場所を俯瞰する画像であり、前記複数の視点の位置を示す複数のアイコンを含む画像を表示してもよい。
例えば、前記表示ステップでは、前記複数のアイコンのうち、前記第2映像の視点の位置を示すアイコンが強調表示されてもよい。
これによれば、ユーザに第2映像を選択されやすくできる。
また、本発明の一態様に係るサーバは、複数のユーザにより異なる視点から撮影された複数の映像のいずれかを端末装置に配信するサーバであって、前記複数の映像の一つであり、前記端末装置から指定された第1映像を前記端末装置に配信する配信部と、前記複数の映像の一つであり、前記端末装置から次に要求される可能性が高い第2映像を選択する選択部と、前記第1映像を前記端末装置に配信している間に前記第2映像の前記端末装置への送信を開始する送信部とを備える。
これによれば、第1映像の表示中に第2映像が予め端末装置に送られる。これにより、端末装置は、第1映像から第2映像への切り替えをスムーズに行なえる。
また、本発明の一態様に係る端末装置は、複数の視点から撮影された複数の映像のいずれかをサーバから受信し、当該映像を表示する端末装置であって、前記複数の映像から第1映像を選択する選択部と、前記第1映像の送信を前記サーバに要求する要求部と、前記第1映像を前記サーバから受信する第1受信部と、前記第1映像を表示する表示部と、前記第1映像の受信中に、前記複数の映像の一つであり、次に選択される可能性が高い第2映像の受信を開始する第2受信部とを備える。
これによれば、端末装置は、第1映像の表示中に予め第2映像を受信する。これにより、端末装置は、第1映像から第2映像への切り替えをスムーズに行なえる。
また、本発明の一態様に係る映像配信システムは、前記サーバと、前記端末装置とを含む。
これによれば、第1映像の表示中に第2映像が予め端末装置に送られる。これにより、端末装置は、第1映像から第2映像への切り替えをスムーズに行なえる。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
以下、実施の形態について、図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも本発明の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(実施の形態1)
本実施の形態に係る映像配信システムでは、複数の映像のうち一部の映像を、予め端末装置に送信する。これにより、当該一部の映像が次に選択された場合に、シームレスに映像を切り替えることができる。
まず、本実施の形態に係る映像配信システムの構成を説明する。図1は、本実施の形態に係る映像配信システム100の構成を示すブロック図である。この映像配信システム100は、各々がネットワーク104を介して通信可能な、複数のカメラ101と、端末装置102と、サーバ103とを含む。
複数のカメラ101は、異なる視点から同一のシーンを同一の時間帯に撮影することで複数の映像信号を生成する。各カメラ101は、複数のユーザの各々に携帯される。例えば、複数のカメラ101は、スポーツスタジアムのような場所にいる複数の観客に所有される。複数のカメラ101で撮影された複数の映像信号は、ネットワーク104を経由してサーバ103に送信される。また、この映像信号には、撮影視点(カメラ位置)、カメラの向き、及び倍率等を示す情報が含まれる。
なお、カメラ101は、少なくとも撮影機能を有する機器であればよく、例えば、デジタルスチルカメラ、デジタルビデオカメラ、スマートフォン、又は携帯端末等である。
端末装置102は、ユーザが使用する端末であり、少なくとも映像を表示する機能を有する。例えば、この端末装置102は、スマートフォン、携帯端末又はパーソナルコンピュータ等である。なお、端末装置102は、カメラ101と同様の機能を有し、当該ユーザが上記観客に含まれていてもよいし、当該ユーザは、上記スタジアム以外の場所から映像を視聴してもよい。
サーバ103は、複数のカメラ101から送信された複数の映像信号を保持する。また、サーバ103は、端末装置102からの要求に従い、端末装置102に、保持する複数の映像信号の一部を送信する。また、サーバ103は、複数の映像信号の中身を解析し、得られた映像の特徴に基づき、複数の映像信号の関連度を算出する。さらに、サーバ103は、端末装置102から指定された選択映像信号に加え、選択映像信号に関連度の高い関連映像信号を端末装置102に送信する。
なお、以下では、複数の映像信号が複数のカメラ101からリアルタイムに送信され、当該映像信号を、ユーザが端末装置102を用いてリアルタイムに視聴する例を述べるが、映像の送信及び視聴の少なくとも一方がリアルタイムに行なわれなくてもよい。また、以下で述べる、映像信号(映像)の送信及び受信とは、主に、映像信号が連続的に送信又は受信されるストリーム送信及び受信を意味する。
以下、各装置の構成を説明する。図2はサーバ103の構成を示すブロック図である。このサーバ103は、受信部111と、映像蓄積部112と、制御部113と、送信部114とを備える。
受信部111は、複数のカメラ101で同一のシーンが異なる視点から撮影された複数の映像信号151を受信する。また、受信部111は、端末装置102から送信された視点指定信号152を受信する。この視点指定信号152は、複数の映像信号151のうちいずれかを指定する。
映像蓄積部112は、受信部111が受信した複数の映像信号151を蓄積する。
制御部113は、映像蓄積部112に蓄積されている複数の映像信号151から視点指定信号152で指定される映像信号151を選択映像信号153として選択し、送信部114を経由して、選択映像信号153を端末装置102へ送信する。また、制御部113は、映像蓄積部112に蓄積されている複数の映像信号151から、選択映像信号153に関連する関連映像信号154を選択し、送信部114を経由して、当該関連映像信号154を端末装置102へ送信する。
図3は端末装置102のブロック図である。この端末装置102は、受信部121と、蓄積部122と、復号部123と、出力部124と、送信部125と、制御部126と、入力部127とを備える。
受信部121は、サーバ103から送信された選択映像信号153及び関連映像信号154を受信する。蓄積部122は、受信部121が受信した選択映像信号153及び関連映像信号154を一時的に保持する。
復号部123は、選択映像信号153を復号することで復号映像を生成する。出力部124は、復号映像を含む出力映像155を生成し、当該出力映像155を、例えば、端末装置102が備えるディスプレイ等の表示装置に表示する。
入力部127は、ユーザ操作を受け付ける。例えば、入力部127は、端末装置102が備えるタッチパネルに対するユーザの操作を受け付ける。制御部126は、入力部127が、ユーザによる視点変更の操作を受け付けた場合に、変更先の視点を示す視点指定信号152を、送信部125を経由して、サーバ103へ送信する。
次に、映像配信システム100の動作を説明する。図4は、映像配信システム100における映像配信処理のシーケンス図である。なお、図4では、複数の映像信号151が既にサーバ103に保持されている。なお、複数の映像信号151は、上記スタジアムの例においてユーザがスタジアムの観客である場合のように、複数のカメラ101からリアルタイムにアップデートされている映像であってもよいし、予めサーバ103に保持された過去の映像であってもよい。
まず、端末装置102は、例えば、ユーザ操作に従いアプリケーションプログラム(アプリ)を起動する(S101)。次に、端末装置102は、初期画面を表示する(S102)。具体的には、端末装置102は、サーバ103から初期情報として、複数の映像信号151が撮影された際の複数のカメラ101の位置(視点位置)を示す情報を受信し、複数のカメラ101の位置を示す情報を初期画面として表示する。
図5は、この初期画面の一例を示す図である。背景画像201には、複数の映像が撮影されている場所を俯瞰する画像が使用される。また、視聴可能な映像の視点位置であり、当該映像を撮影したカメラ101の位置を示すカメラアイコン202が背景画像201上に表示される。
なお、カメラアイコン202の代わりに、又は、カメラアイコン202に加え、サムネイルが表示されてもよい。さらに、初期画面が拡大された場合に、カメラアイコン202の変わりにサムネイルが表示されてもよい。
また、映像の数が多い場合には、後述する関連度等に基づき、ユーザへのお薦め度が高い映像のカメラアイコン202又はサムネイルだけが表示されてもよい。また、サムネイルが表示され場合には、サムネイルはカメラアイコン202より大きく表示されてもよい。
また、映像の数が多い場合には、関連性の高い映像がグループ化され、各グループ又は各グループの代表映像に対してカメラアイコン202が表示されてもよい。ここで代表映像は、例えば、映像の特性(解像度、フレームレート又はビットレート等)に基づき決定される。例えば解像度が一番高い映像、フレームレートが一番高い映像、又はビットレートが一番高い映像が代表映像に決定される。
また、各グループの関連内容を示す情報が、カメラアイコン202と合せて表示されてもよい。また、カメラアイコン202の代わりに、各グループの代表映像のサムネイル、又は、縮小された映像が表示されてもよい。
ここで、各グループの代表映像はクリックされる可能性が高い。このため、端末装置102は、予め代表映像をサーバ103から受信しておいてもよい。つまり、端末装置102は、初期画面の表示時に各グループの代表映像を全て受信してもよい。または、端末装置102は、あるグループ又は代表映像が選択された場合に、そのグループに含まれる映像の一部又は全てをサーバ103から受信してもよい。
また、端末装置102は、受信し始めてからしばらく経過し蓄積部122に十分データを蓄積した映像に対応するカメラアイコン202のみを選択可能な状態に設定してもよい。
また、端末装置102は、ユーザ操作に応じて画面が拡大又は縮小されても、表示されるカメラアイコン202の数が一定になるように、表示する視点を選択してもよい。
また、初期画面の背景画像201は、ユーザが現在いる位置によって切替えられてもよい。例えば、ユーザがスタジアムの内野側スタンドにいる場合は、内野側スタンドから見える風景の画像が背景画像201に設定され、ユーザが外野側スタンドにいる場合は外野スタンドから見える風景の画像が背景画像201に設定されてもよい。
また、初期画面に表示するカメラアイコン202が背景画像201に合せて切替えられてもよい。また、カメラアイコン202はユーザの位置に応じて切替えられてもよい。例えば、ユーザが内野側スタンドにいる場合は、内野側スタンドから見える風景の画像が背景画像201に設定され、その風景内に存在する撮影視点を示すカメラアイコン202が表示されてもよい。
この際、ユーザの位置に応じて、予め受信する映像が切り替えられてもよい。例えば、ユーザが内野側スタンドにいる場合は、端末装置102は、外野側スタンドから撮影された映像を予め受信してもよい。
また、初期画面又は予め受信される映像は、全ユーザ又は一部のユーザの視聴状況によって切り替えらえてもよい。例えば、視聴中のユーザの数が多い、又は、過去に視聴された数が多い映像が優先的に受信されてもよい。
再度、図4を用いて説明を行なう。初期画面において、ユーザによりいずれかのカメラアイコン202が選択されると(S103)、端末装置102は、選択された視点を示す視点指定信号152をサーバ103に送信する(S104)。
視点指定信号152を受信したサーバ103は、視点指定信号152で指定される選択映像信号153の端末装置102への送信を開始する(S105)。選択映像信号153を受信した端末装置102は、選択映像信号153を復号し、得られた映像の表示を開始する(S106)。
また、視点指定信号152を受信したサーバ103は、選択映像信号153に関連する関連映像信号154を選択し(S107)、関連映像信号154の端末装置102への送信を開始する(S108)。なお、ここでは、選択映像信号153の送信の開始(S105)後に関連映像信号154の選択(S107)が行なわれているが、これらの処理順は任意でよく、一部が並列に行なわれてもよい。
この関連映像の選択処理(S108)について説明する。サーバ103は、関連映像の選択処理として以下に示す複数の方法の少なくとも一つを用いる。また、以下に示す複数の方法の各々において、各映像の関連度が設定され、最終的な関連度が最も高い映像が関連映像として選択される。なお、優先度が高い側から順に複数の映像が関連映像として選択されてもよい。
図6〜図11は、この選択処理のフローチャートである。
図6に示す例では、サーバ103は、選択映像の撮影シーン(映像に写っている領域)の位置を算出し(S151)、選択映像の撮影シーンの位置に撮影シーンが近い映像の関連度を増加させる(S152)。具体的には、サーバ103は、カメラ101に送信された映像信号151に含まれる情報を用いて各映像の撮影シーンの位置を算出する。より具体的には、映像信号151には、当該映像を撮影した視点位置、カメラ101の方向及びズーム倍率などの情報が含まれる。サーバ103は、これらの情報を用いて、カメラ101が撮影している撮影シーンの位置を算出する。
なお、サーバ103は、各映像の撮影シーンの位置の算出を予め行なっておいてもよく、映像信号151の受信後であれば任意のタイミングで行なってよい。
また、サーバ103は、撮影シーンの位置に加え、選択映像の撮影シーンの広さに撮影シーンの広さが近い映像の関連度を増加させてもよい。
また、サーバ103は、選択映像の撮影シーンの位置に撮像シーンの位置が非常に近い(ほぼ同じ)映像に関しては関連度を増加させなくてもよい。
図7に示す例では、サーバ103は、選択映像中の被写体(例えば選手)を特定し(S161)、選択映像中の被写体と同じ被写体が写っている映像の関連度を増加させる(S162)。例えば、カメラ101は、画像解析(顔認証等)により、映像中の被写体を特定し、当該被写体を示す情報を含む映像信号151をサーバ103に送信する。サーバ103は、当該情報を用いて、各映像中の被写体を判定する。なお、上記画像解析は、サーバ103で行なわれてもよい。また、被写体とは特定の人物に限らず、特定のチームなどであってもよい。
このように、サーバ103は、カメラ101又はサーバ103が、カメラ101が撮影した映像、及びカメラに付属するセンサで取得された情報の少なくとも一方を用いて生成された情報を用いて関連度を算出する。
図8に示す例では、サーバ103は、複数の映像の人気度を取得し(S171)、人気度の高い映像の関連度を増加させる(S172)。ここで人気度とは、例えば、現在又は過去のある一定時間内に映像が視聴された回数、又は映像を視聴したユーザの数を示す。なお、この人気度は、例えば、サーバ103において、複数のユーザの視聴状況に基づき順次算出される。
図9に示す例では、サーバ103は、ユーザの嗜好情報を取得し(S181)、ユーザの嗜好にあった映像の関連度を増加させる(S182)。ここで、嗜好情報とは、ユーザの視聴履歴、又は予め登録されている、ユーザの嗜好又は趣味を示す登録情報などである。例えば、サーバ103は、ユーザが過去に特定の選手又はチームが写っている映像を多く視聴している場合には、当該選手又はチームが写っている映像の関連度を増加させる。また、サーバ103は、登録情報にユーザが応援する選手又はチームが示されている場合には、当該選手又はチームが写っている映像の関連度を増加させる。
図10に示す例では、サーバ103は、端末装置102が使用できる通信帯域を示す通信帯域情報を取得し(S191)、当該通信帯域に応じて関連度を変更する(S192)。具体的には、サーバ103は、端末装置102が使用できる通信帯域に適した、ビットレート、フレームレート又は解像度の映像の関連度を増加させる。例えば、端末装置102が使用できる通信帯域が十分に広い場合には、サーバ103は、ビットレート、フレームレート又は解像度が高い映像の関連度を増加させる。
なお、サーバ103は、カメラ101から送信された映像信号151の解像度又はフレームレートを変換することで複数のビットレートの映像信号を生成し、この複数の映像信号を格納しておいてもよい。
また、視聴中に端末装置102が使用できる帯域幅が変動した場合、使用できる帯域幅にあわせて、選択映像又は関連映像を切り替えてもよい。
図11に示す例では、サーバ103は、端末装置102が使用できる通信帯域を示す通信帯域情報を取得し(S191)、当該通信帯域に応じて関連映像の数を決定する(S193)。具体的には、サーバ103は、通信帯域が広いほど、関連映像の数を増加させる。
このように、サーバ103は、複数の映像のうち、選択映像(第1映像)との関連度が高い映像を関連映像(第2映像)として選択する。具体的には、サーバ103は、撮影シーンの位置が選択映像の撮影シーンの位置に近いほど関連度が高いと判定する。また、サーバ103は、撮影シーンの広さが選択映像の撮影シーンの広さに近いほど関連度が高いと判定する。また、サーバ103は、選択映像に含まれる被写体と、同一の被写体が撮影されている映像の関連度を高く設定する。
また、サーバ103は、複数の映像のフレームレート、解像度又はビットレートに基づき、関連映像を選択する。また、サーバ103は、複数の映像のうち、他のユーザに選択された回数が多い映像を関連映像として選択する。また、サーバ103は、ユーザの視聴履歴又は予め登録されている嗜好情報に基づき、関連映像を選択する。
図12は、映像が選択された後の表示画面の一例を示す図である。図12に示すように表示画面には、選択された映像である選択映像211と、俯瞰画像212と、上面画像213と、操作ボタン214〜216とが表示される。
俯瞰画像212は、撮影シーンを俯瞰する画像であり、カメラアイコン202を含む。この俯瞰画像212は、初期画面で表示されていた画像と同様である。上面画像213は、撮影シーン全体を上から見た図であり、カメラアイコン202を含む。
操作ボタン214〜216はユーザが操作を行うためのボタンである。操作ボタン214が選択されることで、表示が初期画面に戻る。操作ボタン215又は216が操作されることで、他の視点映像に表示映像が切り替わる。なお、この時、選択映像との関連度が高い映像が優先的に選ばれる。
例えば、操作ボタン215が操作されることで、選択映像の撮影シーンの位置に、撮影シーンの位置が最も近い映像に表示映像が切り替えられる。
また、操作ボタン216が操作させることで、最もお薦め度の高い映像に表示映像が切り替えられる。これにより、一度選択して視聴した映像がユーザの好みにあわなくても、ユーザは容易な操作で、その時点の試合を一番楽しむことができる映像に表示映像を切り替えて当該表示映像を視聴できる。
また、ユーザが俯瞰画像212又は上面画像213に含まれるカメラアイコン202を選択することで、選択されたカメラアイコン202に対応する映像に表示映像が切り替えられる。
なお、図12に示す各画像及び操作ボタンの配置は一例であり、この例に限定されない。また、複数の画像及び複数の操作ボタンの全てが表示される必要はなく一部のみが表示されてもよい。
ここで、本実施の形態では、選択映像との関連度に応じて、カメラアイコン202の表示が変更される。例えば、選択映像と関連度の高い映像に対応するカメラアイコン202が強調表示される。なお、複数の映像のうち、選択映像と関連度の高い映像に対応するカメラアイコン202のみが表示されてもよい。また、関連度に応じてカメラアイコン202の表示方法が連続的又は段階的に変更されてもよい。また、カメラアイコン202の近傍に関連度を示す情報が表示されてもよい。
また、別の実施の形態として、ボールにセンサが組み込まれており、当該センサで検知された情報に基づき、ボールがどのように飛んで行ったかが判別されてもよい。そして、ボールの軌跡が、俯瞰画像212又は上面画像213に重畳表示されてもよい。
さらには、ボールが飛んで行った先にカメラアイコン202がある場合には、端末装置102は、ボールの位置に近い視点位置の映像信号を予めサーバ103が受信しておいてもよい。
つまり、当該システムは、試合の流れなどをなんらかの手段(ボールのセンサ等)から取得し、その情報を基にユーザが見たいと思うカメラアイコン202をあらかじめ推定し、端末装置102は、推定された映像を予め受信しておいてもよい。
また、サーバ103は、このような試合の流れ等のその場の状況、又はユーザの位置等に基づき、複数の映像に優先度を設定してもよい。
再度、図4を用いて説明を行なう。図6に示す表示画面において、視点切替の操作が行なわれる(S109)。なお、ここでは、関連映像が選択されるとする。この場合、端末装置102は、関連映像信号154を予め受信しているので、当該関連映像信号154を復号し、関連映像を表示する(S110)。このように、端末装置102は、次に選択される可能性の高い関連映像を予め受信することで、映像の切替をシームレスに行うことができる。
また、端末装置102は、選択された視点を示す視点指定信号152をサーバ103に送信する(S111)。また、視点指定信号152を受信したサーバ103は、視点指定信号152で指定される選択映像信号153を端末装置102へ送信する。つまり、サーバ103は、先の関連映像信号154の送信を、選択映像信号153の送信として継続する(S112)。また、サーバ103は、新たな選択映像信号153に関連する関連映像信号154を選択し(S113)、関連映像信号154の端末装置102への送信を開始する(S114)。
なお、映像表示(S110)と、視点指定信号152の送信(S111)との順序は任意でよく、一部が並列に行なわれてもよい。
次に、端末装置102の動作の流れを説明する。図13は、端末装置102の動作の流れ示すフローチャートである。なお、図13は、ある視点映像が表示されている状態における端末装置102の処理を示す。
端末装置102は、ユーザの操作により視点切替が指示されたかを判定する(S121)。視点切替が指示された場合(S121でYes)、端末装置102は、視点指定信号152をサーバ103に送信する(S122)。
また、端末装置102は、視点切替先の選択映像が関連映像であるかを判定する(S123)。選択映像が関連映像でない場合(S123でNo)、端末装置102は、視点指定信号152に応じてサーバ103が送信する選択映像を受信するまで待機し(S124)、選択映像を受信した場合(S124でYes)、当該選択映像を表示する(S125)。
一方、選択映像が関連映像である場合(S123でYes)、端末装置102は、既に蓄積している関連映像を選択映像として表示する(S125)。
ここで、本システムがライブ映像を表示する場合、復号映像の切替は、ランダムアクセスフレームの復号が完了した時刻で行われてもよい。その際、ユーザの視点切替指示が発生した時刻から、切替わる時刻まで待ち時間が発生するが、端末装置102は、この待ち時間において、切り替え前の映像を再生し続けてもよいし、待ち画面を表示してもよい。
また、本システムがライブ映像ではなくハイライト映像を表示する場合は、端末装置102は、切替前の映像の再生時刻から最も近い時刻のランダムアクセスポイントを探し、そこから映像を復号し表示してもよい。
次に、端末装置102は、新たな選択映像に関連する関連映像を受信した場合(S126でYes)、受信した関連映像を蓄積部122に順次蓄積する(S127)。なお、表示された後の選択映像のデータ及び、受信後に一定期間使用されなかった関連映像のデータは、順次蓄積部122から削除される。
次に、端末装置102は、新たに受信した関連映像の情報を表示する(S128)。具体的には、端末装置102は、関連映像のカメラアイコン202を強調表示する。例えば、関連映像のカメラアイコン202は、他のカメラアイコン202よりも大きく表示される。また、関連映像のカメラアイコン202の輪郭線が、他のカメラアイコン202の輪郭線よりも太く表示される。または、関連映像のカメラアイコン202の色が、赤色などの目立つ色に変更される。なお、強調表示の方法はこれに限定されない。
なお、端末装置102は、図14又は図15に示す処理を行なってもよい。図14及び図15は、端末装置102の動作の変形例の流れ示すフローチャートである。
図14に示す処理は、図13に示す処理に対してステップS129が追加されている。つまり、選択映像が関連映像でない場合(S123でNo)、端末装置102は、選択映像を受信するまでの期間において関連映像を表示する(S129)。また、端末装置102が複数の関連映像を蓄積している場合には、端末装置102は、蓄積している複数の関連映像のうち、新たな選択映像に関連度が最も高い関連映像を表示してもよい。
また、図15に示す処理は、図13に示す処理に対してステップS130が追加されている。つまり、選択映像が関連映像でない場合(S123でNo)、端末装置102は、選択映像を受信するまでの期間において三次元構成データを表示する(S130)。ここで、三次元構成データとは、複数の映像が撮影されている場所の三次元構成データであり、図5に示す例では、野球場の三次元構成データである。また、この三次元構成データは、複数の映像信号151を用いてサーバ103で生成され、予め端末装置102に送信されている。
なお、端末装置102は、三次元構成データを用いて、この期間において表示する映像を生成してもよい。例えば、端末装置102は、三次元構成データにおいて直前の表示映像の視点位置から選択映像の視点位置に視点位置が連続的に変更される映像を生成し、当該映像を上記期間に表示してもよい。また、このような視覚効果は、蓄積部122に映像データが蓄積されている場合にも用いられてもよい。さらに、この視覚効果が用いられるか否かは、直前の表示映像の視点位置と選択映像の視点位置との距離に応じて切り替えられてもよい。例えば、上記距離が短い場合には視覚効果が用いられず、上記距離が長い場合には視覚効果が用いられる。
また、ここでは、選択映像を受信するまでの待ち時間において、関連映像又は三次元構成データが表示される例を述べたが、端末装置102は、通信エラー等により選択映像を受信できない場合など、何らかのエラーで選択映像を受信できない場合に、関連映像又は三次元構成データを表示してもよい。
また、端末装置102は、選択映像を受信できない場合であって、当該映像を撮影しているカメラ101が、ユーザの近くに存在する場合は、近距離通信などの別の通信方法を用いてカメラ101から直接映像信号を受信してもよい。
以上のように、端末装置102は、複数の視点から撮影された複数の映像のいずれかをサーバ103から受信し、当該映像を表示する。まず、端末装置102は、複数の映像から選択映像(第1映像)を選択する(S121)。次に、端末装置102は、選択映像の送信をサーバ103に要求する(S122)。次に、端末装置102は、選択映像をサーバ103から受信し(S124)、当該選択映像を表示する(S125)。次に、端末装置102は、選択映像の受信及び表示中に、複数の映像の一つであり、選択映像と異なる映像であって、次に選択される可能性が高い関連映像の受信を開始する(S126)。
また、端末装置102は、受信された関連映像を蓄積する(S127)。端末装置102は、選択映像の表示中に関連映像が選択された場合(S123でYes)に、蓄積されている関連映像を表示する(S125)。
また、端末装置102は、選択映像の表示中に、選択映像及び関連映像と異なる第3映像が選択された場合(S123でNo)、第3映像をサーバ103から受信する(S124)。端末装置102は、第3映像を受信するまでの間、蓄積されている関連映像を表示する(S129)。
次に、サーバ103の動作の流れを説明する。図16は、サーバ103の動作の流れを示すフローチャートである。
まず、サーバ103は、視点指定信号152を端末装置102から受信したかを判定する(S141)。サーバ103は、視点指定信号152を受信した場合(S141でYes)、蓄積している複数の映像信号から、視点指定信号152で示される映像信号を選択映像信号153として選択し、当該選択映像信号153を端末装置102へ送信する(S142)。
また、サーバ103は、上述したように、蓄積している複数の映像信号151から、優先度に基づき選択映像に関連度が高い関連映像信号154を選択し(S143)、関連映像信号154を端末装置102へ送信する(S144)。
以上のように、サーバ103は、複数のユーザにより異なる視点から撮影された複数の映像のいずれかを端末装置102に配信する。まず、サーバ103は、複数の映像の一つであり、端末装置102から要求された選択映像(第1映像)を端末装置102に配信する(S142)。次に、サーバ103は、複数の映像から、選択映像と異なる映像であって、端末装置102から次に要求される可能性が高い関連映像(第2映像)を選択する(S143)。言い換えると、関連映像は、端末装置102から要求されていない映像である。次に、サーバ103は、選択映像を端末装置102に配信している間に関連映像の端末装置102への送信を開始する(S144)。
以上、実施の形態に係る映像配信方法、映像受信方法及び映像配信システムついて説明したが、本発明は、この実施の形態に限定されるものではない。
また、上記実施の形態に係る映像配信システムに含まれる各装置に含まれる各処理部は典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。
また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU又はプロセッサなどのプログラム実行部が、ハードディスク又は半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
言い換えると、映像配信システムに含まれる各装置は、処理回路(processing circuitry)と、当該処理回路に電気的に接続された(当該処理回路からアクセス可能な)記憶装置(storage)とを備える。処理回路は、専用のハードウェア及びプログラム実行部の少なくとも一方を含む。また、記憶装置は、処理回路がプログラム実行部を含む場合には、当該プログラム実行部により実行されるソフトウェアプログラムを記憶する。処理回路は、記憶装置を用いて、上記実施の形態に係る映像配信方法又波映像受信方法を実行する。
さらに、本発明は上記ソフトウェアプログラムであってもよいし、上記プログラムが記録された非一時的なコンピュータ読み取り可能な記録媒体であってもよい。また、上記プログラムは、インターネット等の伝送媒体を介して流通させることができるのは言うまでもない。
また、上記で用いた数字は、全て本発明を具体的に説明するために例示するものであり、本発明は例示された数字に制限されない。
また、上記の映像配信方法又は映像受信方法に含まれるステップが実行される順序は、本発明を具体的に説明するために例示するためのものであり、上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。
以上、本発明の一つ又は複数の態様に係る映像配信方法、映像受信方法、映像配信システム、サーバ及び端末装置について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の一つ又は複数の態様の範囲内に含まれてもよい。
(実施の形態2)
上記各実施の形態で示した画像処理方法及び装置の構成の他の応用例とそれを用いたシステムを説明する。当該システムは、インテリジェント化と対象空間の広域化とが進む映像システムに適用でき、例えば、(1)店舗或いは工場のセキュリティカメラ、又は警察の車載カメラなどに実装される監視システム、(2)個人所有のカメラ或いは各車載カメラ、又は道路に備えられたカメラなどを用いた交通情報システム、(3)ドローンなど遠隔操作又は自動制御可能な装置を用いた環境調査又は配送システム、及び(4)エンターテイメント施設又はスタジアム等における設置カメラ、ドローン等の移動カメラ、又は個人所有のカメラなどを用いた映像などのコンテンツ送受信システムなどに適用できる。
図17は、本実施の形態における映像情報処理システムex100の構成を示す図である。本実施の形態においては、死角の発生を防止する例、及び特定の領域を撮影禁止にする例について説明する。
図17に示す映像情報処理システムex100は、映像情報処理装置ex101と、複数のカメラex102と、映像受信装置ex103とを含む。なお、映像受信装置ex103は、必ずしも映像情報処理システムex100に含まれる必要はない。
映像情報処理装置ex101は、保存部ex111と、解析部ex112とを備える。N個のカメラex102のそれぞれは、映像を撮影する機能と撮影した映像データを映像情報処理装置ex101に送信する機能とを有する。また、カメラex102は、撮影中の映像を表示する機能を有する場合もある。なお、カメラex102は、撮影された映像信号をHEVC又はH.264のような符号化方式を用いてエンコードしたうえで映像情報処理装置ex101に送信してよいし、エンコードされていない映像データを映像情報処理装置ex101に送信してもよい。
ここで、各カメラex102は、監視カメラ等の固定カメラ、無人飛行型ラジコンや車等に搭載された移動カメラ、又は、ユーザが所持するユーザカメラである。
移動カメラは、映像情報処理装置ex101から送信された指示信号を受信し、受信された指示信号に応じて、移動カメラ自体の位置又は撮影方向を変更する。
また、撮影開示前に複数のカメラex102の時刻が、サーバ又は基準カメラの時刻情報などを用いてキャリブレーションされる。また、複数のカメラex102の空間位置が、撮影対象となる空間のオブジェクトの写り方又は基準カメラからの相対位置に基づいてキャリブレーションされる。
情報処理装置ex101に含まれる保存部ex111は、N個のカメラex102から送信された映像データを保存する。
解析部ex112は、保存部ex111に保存された映像データから死角を検出し、死角の発生を防止するための移動カメラへの指示を示す指示信号を移動カメラへ送信する。移動カメラは指示信号に従って移動を行い、撮影を継続する。
解析部ex112は、例えば、SfM(Structure from Motion)を用いて死角検出を行う。SfMとは、異なる位置から撮影された複数の映像から被写体の三次元形状を復元する手法であり、被写体形状及びカメラ位置を同時に推定する形状復元技術として広く知られている。例えば、解析部ex112は、SfMを用いて、保存部ex111に保存された映像データから施設内又はスタジアム内の三次元形状を復元し、復元できない領域を死角として検出する。
なお、解析部ex112は、カメラex102の位置及び撮影方向が固定であり、位置及び撮影方向の情報が既知の場合は、これらの既知の情報を用いてSfMを行ってもよい。また、移動カメラの位置及び撮影方向が、移動カメラが備えるGPS及び角度センサ等により取得できる場合は、移動カメラは、当該移動カメラの位置及び撮影方向の情報を解析部ex112に送信し、解析部ex112は、送信された位置及び撮影方向の情報を用いてSfMを行ってもよい。
なお、死角検出の方法は上述したSfMを用いた方法に限られるものではない。例えば、解析部ex112は、レーザレンジファインダなどのデプスセンサの情報を用いることで、撮影対象であるオブジェクトの空間距離を把握してもよい。また、解析部ex112は、カメラ位置、撮影方向及びズーム倍率等の情報を、空間内の予め設定したマーカ又は特定のオブジェクトが画像に含まれるか、含まれる場合にはそのサイズ等から検出してもよい。このように、解析部ex112は、各カメラの撮影領域を検出できる任意の方法を用いて、死角の検出を行う。また、解析部ex112は、複数の撮影対象について互いの位置関係等の情報を映像データ又は近接距離センサ等から取得し、取得した位置関係に基づいて死角が発生する可能性の高い領域を特定してもよい。
ここで死角とは、撮影したい領域中で映像が存在しない部分だけでなく、他の部分と比較して画質の悪い部分、及び予め定められた画質を得られていない部分などを含む。この検出対象の部分は、当該システムの構成又は目的に応じて適宜設定されればよい。例えば、撮影される空間中の特定の被写体について、要求される画質が高く設定されてもよい。また、逆に撮影空間中の特定の領域について、要求される画質が低く設定されてもよいし、映像が撮影されていなくても死角と判定しないように設定されてもよい。
なお、上述した画質とは、映像中の撮影対象となる被写体が占める面積(例えばピクセル数)、又は撮影対象となる被写体にピントが合っているかといった映像に関する様々な情報を含むものであり、それらの情報又はその組み合わせを基準に死角であるか否かが判定されればよい。
なお、上記の説明では、実際に死角となっている領域の検出について説明したが、死角の発生を防止するために検出する必要のある領域は実際に死角となっている領域に限定されない。例えば、複数の撮影対象が存在し、少なくともその一部が移動している場合には、ある撮影対象とカメラとの間に別の撮影対象が入ることによって新たな死角が生じる可能性がある。これに対し、解析部ex112は、例えば撮影された映像データ等から複数の撮影対象の動きを検出し、検出された複数の撮影対象の動きとカメラex102の位置情報に基づいて、新たに死角となる可能性のある領域を推定してもよい。この場合、映像情報処理装置ex101は、死角となる可能性のある領域を撮影するように移動カメラに指示信号を送信し、死角の発生を防止してもよい。
なお、移動カメラが複数ある場合、映像情報処理装置ex101は、死角、又は死角となる可能性がある領域を撮影させるために指示信号を送信する移動カメラを選択する必要がある。また、移動カメラ及び死角、又は死角となる可能性がある領域がそれぞれ複数存在する場合、映像情報処理装置ex101は、複数の移動カメラのそれぞれについて、どの死角、又は死角となる可能性がある領域を撮影させるかを決定する必要がある。例えば、映像情報処理装置ex101は、死角、又は死角となる可能性のある領域と各移動カメラが撮影中の領域の位置とに基づいて、死角、又は死角となる領域に最も近い移動カメラを選択する。また、映像情報処理装置ex101は、各移動カメラについて、当該移動カメラが現在撮影中の映像データが得られない場合に新たに死角が発生するか否かを判定し、現在撮影中の映像データが得られなくても死角が発生しないと判断された移動カメラを選択してもよい。
以上の構成により、映像情報処理装置ex101は、死角を検出し、死角を防止するように移動カメラに対して指示信号を送信することにより、死角の発生を防止できる。
(変形例1)
なお、上記説明では、移動カメラに移動を指示する指示信号が送信される例を述べたが、指示信号は、ユーザカメラのユーザに移動を指示するための信号であってもよい。例えば、ユーザカメラは、指示信号に基づき、ユーザにカメラの方向を変更するように指示する指示画像を表示する。なお、ユーザカメラは、ユーザの移動の指示として、地図上に移動経路を示した指示画像を表示してもよい。また、ユーザカメラは、取得される画像の質を向上させるために撮影方向、角度、画角、画質、及び撮影領域の移動など詳細な撮影の指示を表示してもよく、さらに映像情報処理装置ex101側で制御可能であれば、映像情報処理装置ex101は、そのような撮影に関するカメラex102の特徴量を自動で制御してもよい。
ここで、ユーザカメラは、例えば、スタジアム内の観客又は施設内の警備員が持つスマートフォン、タブレット型端末、ウェアラブル端末、又はHMD(Head Mounted Display)である。
また、指示画像を表示する表示端末は、映像データを撮影するユーザカメラと同一である必要はない。例えば、ユーザカメラに予め対応付けられた表示端末に対して、ユーザカメラが指示信号又は指示画像を送信し、当該表示端末が指示画像を表示してもよい。また、ユーザカメラに対応する表示端末の情報が、予め映像情報処理装置ex101に登録されてもよい。この場合は、映像情報処理装置ex101は、ユーザカメラに対応する表示端末に対して指示信号を直接送信することで、表示端末に指示画像を表示させてもよい。
(変形例2)
解析部ex112は、例えばSfMを用いて、保存部ex111に保存された映像データから施設内又はスタジアム内の三次元形状を復元することで自由視点映像(三次元再構成データ)を生成してもよい。この自由視点映像は、保存部ex111に保存される。映像情報処理装置ex101は、映像受信装置ex103から送信される視野情報(及び/又は、視点情報)に応じた映像データを保存部ex111から読み出して、映像受信装置ex103に送信する。なお、映像受信装置ex103は、複数のカメラ111の一つであってもよい。
(変形例3)
映像情報処理装置ex101は、撮影禁止領域を検出してもよい。この場合、解析部ex112は撮影画像を解析し、移動カメラが撮影禁止領域を撮影している場合には移動カメラに対して撮影禁止信号を送信する。移動カメラは撮影禁止信号を受信している間は撮影を停止する。
解析部ex112は、例えば、SfMを用いて復元された三次元の仮想空間と、撮影映像とのマッチングを取ることで、空間内で予め設定されている移動カメラが撮影禁止領域を撮影中かを判定する。または、解析部ex112は、空間内に配置されたマーカ又は特徴的なオブジェクトをトリガーとして移動カメラが撮影禁止領域を撮影中かを判定する。撮影禁止領域とは、例えば施設内又はスタジアム内のトイレなどである。
また、ユーザカメラが撮影禁止領域を撮影している場合には、ユーザカメラは、無線又は有線で接続されるディスプレイ等にメッセージを表示したり、スピーカ又はイヤホンから音又は音声を出力したりすることで、現在の場所が撮影禁止場所であることをユーザに知らせてもよい。
例えば、上記メッセージとして、現在カメラを向けている方向が撮影禁止である旨が表示される。または、表示される地図上に撮影禁止領域と現在の撮影領域とが示される。また、撮影の再開は、例えば、撮影禁止信号が出力されなくなれば自動的に行われる。または、撮影禁止信号が出力されておらず、かつ、ユーザが撮影再開を行う操作をした場合に、撮影が再開されてもよい。また、撮影の停止と再開とが短期間で複数回起こった場合には、再度キャリブレーションが行われてもよい。または、ユーザに現在位置を確認したり移動を促したりするための通知が行われてもよい。
また、警察など特別な業務の場合には、記録のためこのような機能をオフにするパスコード又は指紋認証などが用いられてもよい。さらに、そのような場合であっても撮影禁止領域の映像が外部に表示されたり保存される場合には自動でモザイクなど画像処理が行われてもよい。
以上の構成により、映像情報処理装置ex101は、撮影禁止の判定を行い、撮影を停止するようにユーザに通知することで、ある領域を撮影禁止に設定できる。
(変形例4)
映像から三次元の仮想空間を構築するためには、複数視点の映像を集める必要があるため、映像情報処理システムex100は、撮影映像を転送したユーザに対してインセンティブを設定する。例えば、映像情報処理装置ex101は、映像を転送したユーザに対し、無料又は割引料金で映像配信を行ったり、オンライン又はオフラインの店又はゲーム内で使用できるような金銭的な価値、又はゲームなどのバーチャル空間での社会的地位など非金銭的な価値のあるポイントを付与する。また、映像情報処理装置ex101は、リクエストが多いなど価値のある視野(及び/又は、視点)の撮影映像を転送したユーザに対しては特に高いポイントを付与する。
(変形例5)
映像情報処理装置ex101は、解析部ex112の解析結果に基づき、ユーザカメラに対して付加情報を送信してもよい。この場合、ユーザカメラは撮影映像に付加情報を重畳して、画面に表示する。付加情報とは、例えば、スタジアムでの試合が撮影されている場合には、選手名又は身長などの選手の情報であり、映像内の各選手に対応付けて当該選手の名前又は顔写真などが表示される。なお、映像情報処理装置ex101は、映像データの一部又は全部の領域に基づきインターネット経由の検索により、付加情報を抽出してもよい。また、カメラex102は、Bluetooth(登録商標)をはじめとする近距離無線通信又は、スタジアム等の照明から可視光通信によりそのような付加情報を受け取り、受け取った付加情報を、映像データにマッピングしてもよい。また、カメラex102は、このマッピングを、カメラex102に有線又は無線により接続される記憶部に保持されるテーブルであって、可視光通信技術により得られる情報と付加情報との対応関係を示すテーブルなどの一定規則に基づいて行なってもよいし、インターネット検索により最も確からしい組み合わせの結果を用いて行なってもよい。
また、監視システムにおいては、施設内の警備員が持つユーザカメラに対して、例えば注意人物の情報が重畳されることで、監視システムの高精度化を図ることができる。
(変形例5)
解析部ex112は,自由視点映像とユーザカメラの撮影映像とのマッチングを取ることで、ユーザカメラが施設内又はスタジアム内のどの領域を撮影中かを判定してもよい。なお、撮影領域の判定方法はこれに限られず、上述した各実施の形態で説明した様々な撮影領域の判定方法又はその他の撮影領域の判定方法を用いられてもよい。
映像情報処理装置ex101は、解析部ex112の解析結果に基づき、ユーザカメラに対して過去映像を送信する。ユーザカメラは撮影映像に過去映像を重畳して、又は撮影映像を過去映像に置換して、画面に表示する。
例えば、ハーフタイム中に、過去映像として前半のハイライトシーンが表示される。これにより、ユーザはハーフタイム中に、前半のハイライトシーンを自分が見ている方向の映像として楽しむことができる。なお過去映像は、前半のハイライトシーンに限らず、そのスタジアムで行われた過去の試合のハイライトシーンなどでもよい。また、映像情報処理装置ex101が過去映像を配信するタイミングはハーフタイム中に限らず、例えば試合終了後でも、試合中でもよい。特に試合中の場合には、解析部ex112の解析結果に基づき、映像情報処理装置ex101はユーザが見逃した重要と考えられるシーンを配信してもよい。また、映像情報処理装置ex101はユーザからリクエストがあった場合のみ過去映像を配信してもよく、又は過去映像の配信前に配信許可のメッセージを配信してもよい。
(変形例6)
映像情報処理装置ex101は、解析部ex112の解析結果に基づき、ユーザカメラに対して広告情報を送信してもよい。ユーザカメラは撮影映像に広告情報を重畳して、画面に表示する。
広告情報は例えば変形例5で示した、ハーフタイム中又は試合終了後の過去映像配信直前に配信されてもよい。これにより、配信業者は広告主からの広告料を得ることができ、ユーザに安価又は無料で映像配信サービスを提供できる。また、映像情報処理装置ex101は、広告情報の配信直前に広告配信許可のメッセージを配信してもよいし、ユーザが広告を視聴した場合のみ無料でサービスを提供してもよいし、広告を視聴しない場合より安価にサービスを提供してもよい。
また、広告に従ってユーザが「今すぐ注文する」などをクリックすると、当該システム又は何らかの位置情報に基づいてユーザの位置を把握しているスタッフ又は会場の自動の配送システムが注文された飲み物を席まで届けてくれる。決裁はスタッフへの手渡しでもよいし、予めモバイル端末のアプリ等に設定されているクレジットカード情報に基づいて行われてもよい。また、広告にはeコマースサイトへのリンクが含まれ、通常の自宅配送等のオンラインショッピングが可能な状態になっていてもよい。
(変形例7)
映像受信装置ex103は、カメラex102(ユーザカメラ)の一つであってもよい。この場合、解析部ex112は、自由視点映像とユーザカメラの撮影映像とのマッチングを取ることで、ユーザカメラが施設内又はスタジアム内のどの領域を撮影中かを判定する。なお、撮影領域の判定方法はこれに限らない。
例えば、ユーザが、画面に表示されている矢印の方向にスワイプ操作をすると、ユーザカメラはその方向へ視点を移動させることを示す視点情報を生成する。映像情報処理装置ex101は、解析部ex112が判定したユーザカメラの撮影領域から視点情報の分だけ移動させた領域を撮影した映像データを保存部ex111から読み出し、当該映像データのユーザカメラへの送信を開始する。そしてユーザカメラは撮影映像ではなく、映像情報処理装置ex101から配信された映像を表示する。
以上により、施設内又はスタジアム内のユーザは、画面スワイプのような簡易な動作で、好きな視点からの映像を視聴できる。例えば野球場の3塁側で観戦している観客が、1塁側の視点からの映像を視聴できる。また、監視システムにおいては、施設内の警備員が画面スワイプのような簡易な動作で、自身が確認したい視点又はセンターからの割り込みとして注視すべき映像などを、視点を適用的に変えながら視聴することができるので、監視システムの高精度化を図ることができる。
また、施設内又はスタジアム内のユーザへの映像の配信は、例えばユーザカメラと撮影対象との間に障害物が存在し、見えない領域がある場合等にも有効である。この場合、ユーザカメラは、ユーザカメラの撮影領域のうち障害物が含まれる一部の領域の映像を、撮影映像から、映像情報処理装置ex101からの配信映像に切り替えて表示してもよいし、画面全体を撮影映像から配信映像に切り替えて表示してもよい。また、ユーザカメラは、撮影映像と配信映像とを合成して障害物を透過して視聴対象が見えているような映像を表示してもよい。この構成によると、障害物の影響でユーザの位置から撮影対象が見えない場合にも、映像情報処理装置ex101から配信された映像を視聴することができるので、障害物の影響を軽減することができる。
また、障害物により見えない領域の映像として配信映像を表示する場合は、上述した画面スワイプのようなユーザによる入力処理に応じた表示の切り替え制御とは異なる表示の切り替え制御が行われてもよい。例えば、ユーザカメラの移動及び撮影方向の情報、並びに予め得られている障害物の位置情報に基づいて撮影領域に障害物が含まれると判定される場合に、撮影映像から配信映像への表示の切り替えが自動的に行われもよい。また、撮影映像データの解析により撮影対象ではない障害物が映っていると判定された場合に、撮影映像から配信映像への表示の切り替えが自動的に行われてもよい。また、撮影映像に含まれる障害物の面積(例えばピクセル数)が所定の閾値を超えた場合、又は撮影対象の面積に対する障害物の面積の比が所定の割合を超えた場合に、撮影映像から配信映像への表示の切り替えが自動的に行われてもよい。
なお、ユーザの入力処理に応じて撮影映像から配信映像への表示の切り替え及び配信映像から撮影映像への表示の切り替えが行われてもよい。
(変形例8)
各カメラex102で撮影された映像データの重要度に基づき映像データを映像情報処理装置ex101に転送する速度が指示されてもよい。
この場合、解析部ex112は保存部ex111に保存された映像データ、又は当該映像データを撮影したカメラex102の重要度を判定する。ここでの重要度の判定は、例えば映像中に含まれる人の数或いは移動物体の数、映像データの画質などの情報、又はその組み合わせに基づいて行われる。
また、映像データの重要度の判定は、映像データが撮影されたカメラex102の位置又は映像データが撮影している領域に基づいてもよい。例えば、対象のカメラex102の近くに撮影中の他のカメラex102が複数存在する場合に、対象のカメラex102で撮影された映像データの重要度を低くする。また、対象のカメラex102の位置が他のカメラex102から離れていても同じ領域を撮影している他のカメラex102が複数存在する場合に、対象のカメラex102で撮影された映像データの重要度を低くする。また、映像データの重要度の判定は、映像配信サービスにおけるリクエストの多さに基づいて行われてもよい。なお、重要度の判定方法は、上述したものやその組み合わせに限られず、監視システム又は映像配信システムの構成又は目的に応じた方法であればよい。
また、重要度の判定は撮影された映像データに基づくものでなくてもよい。例えば、映像情報処理装置ex101以外の端末へ映像データを送信するカメラex102の重要度が高く設定されてもよい。逆に、映像情報処理装置ex101以外の端末へ映像データを送信するカメラex102の重要度が低く設定されてもよい。これにより、例えば、映像データの伝送を必要とする複数のサービスが通信帯域を共有している場合に、各サービスの目的又は特性に応じた通信帯域の制御の自由度が高くなる。これにより、必要な映像データが得られないことによる各サービスの品質の劣化を防止できる。
また、解析部ex112は、自由視点映像とカメラex102の撮影映像とを用いて、映像データの重要度を判定してもよい。
映像情報処理装置ex101は、解析部ex112で行われた重要度の判定結果に基づき、カメラex102に対して通信速度指示信号を送信する。映像情報処理装置ex101は、例えば、重要度が高い映像を撮影しているカメラex102に対して高い通信速度を指示する。また、映像情報処理装置ex101は、速度の制御だけではなく、重要な情報については、欠落によるデメリットを低減するために複数回送るような方式を指示する信号を送信してもよい。これにより、施設内又はスタジアム内全体の通信を効率的に行うことができる。なお、カメラex102と映像情報処理装置ex101との通信は、有線通信であっても無線通信であってもよい。また、映像情報処理装置ex101は、有線通信及び無線通信のいずれか一方のみを制御してもよい。
カメラex102は、通信速度指示信号に従った通信速度で、撮影映像データを映像情報処理装置ex101に送信する。なお、カメラex102は所定の回数再送が失敗した場合には、その撮影映像データの再送を停止し、次の撮影映像データの転送を開始してもよい。これにより、施設内又はスタジアム内全体の通信を効率的に行うことができ、解析部ex112における処理の高速化を実現できる。
また、カメラex102は、それぞれに割り当てられた通信速度が撮影した映像データを転送するために十分な帯域でない場合は、撮影した映像データを、割り当てられた通信速度で送信可能なビットレートの映像データに変換し、変換後の映像データを送信してもよし、映像データの転送を中止してもよい。
また、上述したように死角の発生を防止するために映像データが使用される場合、撮影された映像データに含まれる撮影領域のうちの一部の領域のみが死角を埋めるために必要である可能性がある。この場合、カメラex102は、少なくとも、映像データから、死角の発生を防止するために必要とされる領域のみを抽出することで抽出映像データを生成し、生成された抽出映像データを映像情報処理装置ex101に送信してもよい。この構成によると、死角の発生の抑制をより少ない通信帯域で実現できる。
また、例えば、付加情報の重畳表示又は映像配信が行われる場合には、カメラex102は、映像情報処理装置ex101にカメラex102の位置情報及び撮影方向の情報を送信する必要がある。この場合、映像データを転送するためには十分ではない帯域しか割り当てられなかったカメラex102は、カメラex102で検出された位置情報及び撮影方向の情報のみを送信してもよい。また、映像情報処理装置ex101においてカメラex102の位置情報及び撮影方向の情報を推定する場合は、カメラex102は、撮影した映像データを、位置情報及び撮影方向の情報の推定に必要な解像度に変換し、変換された映像データを映像情報処理装置ex101に送信してもよい。この構成によると、少ない通信帯域しか割り当てられなかったカメラex102に対しても、付加情報の重畳表示又は映像配信のサービスを提供できる。また、映像情報処理装置ex101は、より多くのカメラex102から撮影領域の情報を取得できるため、例えば注目されている領域を検出する等の目的で、撮影領域の情報を利用するような場合においても有効である。
なお、上述した割り当てられた通信帯域に応じた映像データの転送処理の切り替えは、通知された通信帯域に基づいてカメラex102が行ってもよいし、映像情報処理装置ex101が各カメラex102の動作を決定し、決定された動作を示す制御信号を各カメラex102に通知してもよい。これにより、動作の切り替えの判定に必要な計算量、カメラex102の処理能力、及び必要となる通信帯域等に応じて、適切に処理の分担を行える。
(変形例9)
解析部ex112は、映像受信装置ex103から送信された視野情報(及び/又は、視点情報)に基づき、映像データの重要度を判定してもよい。例えば、解析部ex112は、視野情報(及び/又は、視点情報)が示す領域を多く含む撮影映像データの重要度を高く設定する。また、解析部ex112は、映像中に含まれる人の数、又は移動物体の数を考慮して、映像データの重要度を判定してもよい。なお、重要度の判定方法はこれに限らない。
なお、本実施の形態で説明した通信制御方法は、必ずしも複数の映像データから三次元形状の再構築を行うシステムにおいて用いられる必要はない。例えば複数のカメラex102が存在する環境において、映像データを選択的又は伝送速度に差をつけて有線通信及び/又は無線通信で送信する場合であれば、本実施の形態で説明した通信制御方法は有効である。
(変形例10)
映像配信システムにおいて、映像情報処理装置ex101は、撮影シーンの全体を示す概観映像を映像受信装置ex103に送信してもよい。
具体的には、映像情報処理装置ex101は、映像受信装置ex103から送信された配信リクエストを受信した場合、保存部ex111から施設内又はスタジアム内全体の概観映像を読み出し、当該外観映像を映像受信装置ex103に送信する。この概観映像は更新間隔が長くてもよく(低フレームレートでもよく)、また画質が低くてもよい。視聴者は、映像受信装置ex103の画面上に表示された概観映像中で、見たい部分をタッチする。これにより、映像受信装置ex103は、タッチされた部分に対応する視野情報(及び/又は、視点情報)を映像情報処理装置ex101に送信する。
映像情報処理装置ex101は、視野情報(及び/又は、視点情報)に応じた映像データを保存部ex111から読み出し、当該映像データを映像受信装置ex103に送信する。
また、解析部ex112は、視野情報(及び/又は、視点情報)で示される領域に対して優先的に三次元形状の復元(三次元再構成)を行うことで自由視点映像を生成する。解析部ex112は、施設内又はスタジアム内全体の三次元形状を、概観を示す程度の精度で復元する。これにより、映像情報処理装置ex101は、三次元形状の復元を効率的に行うことができる。その結果、視聴者が見たい領域の自由視点映像の高フレームレート化、及び高画質を実現できる。
(変形例11)
なお、映像情報処理装置ex101は、例えば、設計図面などから事前に生成された施設又はスタジアムの三次元形状復元データを事前映像として、予め保存しておいてもよい。なお、事前映像はこれに限らず、デプスセンサから得られる空間の凹凸と、過去又はキャリブレーション時の画像又は映像データから導出されるピクチャとをオブジェクトごとにマッピングした仮想空間データであってもよい。
例えば、スタジアムでサッカーが行われている場合、解析部ex112は、選手及びボールのみに限定して三次元形状の復元を行い、得られた復元データと事前映像とを合成することで自由視点映像を生成してもよい。あるいは、解析部ex112は、選手及びボールに対して優先して三次元形状の復元を行ってもよい。これにより、映像情報処理装置ex101は、三次元形状の復元を効率的に行うことができる。その結果、視聴者が注目する選手及びボールに関する自由視点映像の高フレームレート化及び高画質化を実現できる。また、監視システムにおいては、解析部ex112は、人物及び移動物体のみに限定して、又はそれらを優先して三次元形状の復元を行ってもよい。
(変形例12)
各装置の時刻は、サーバの基準時刻等に基づき、撮影開始時にキャリブレーションされてもよい。解析部ex112は、複数のカメラex102で撮影された複数の撮影映像データのうち、時刻設定の精度に応じて、予め設定された時間範囲内に属する時刻に撮影された複数の映像データを用いて、三次元形状の復元を行う。この時刻の検出には、例えば撮影映像データが保存部ex111に格納された時刻が用いられる。なお、時刻の検出方法はこれに限らない。これにより、映像情報処理装置ex101は、三次元形状の復元を効率的に行うことができるので、自由視点映像の高フレームレート化及び高画質化を実現できる。
または、解析部ex112は、保存部ex111に保存された複数の映像データのうち、高画質データのみを用いて、又は高画質データを優先的に用いて、三次元形状の復元を行ってもよい。
(変形例13)
解析部ex112は,カメラ属性情報を用いて、三次元形状の復元を行ってもよい。この場合、カメラex102は、撮影映像データとカメラ属性情報とを映像情報処理装置ex101に送信する。カメラ属性情報は、例えば、撮影位置、撮影角度、撮影時刻、又はズーム倍率などである。
これにより、映像情報処理装置ex101は、三次元形状の復元を効率的に行うことができるので、自由視点映像の高フレームレート化及び高画質化を実現できる。
具体的には、カメラex102は、施設内又はスタジアム内に三次元座標を定義し、カメラex102がどのあたりの座標をどの角度から、どれ位のズームで、どの時間に撮ったかという情報を映像と共にカメラ属性情報として映像情報処理装置ex101に送信する。また、カメラex102の起動時に、施設内又はスタジアム内の通信ネットワーク上の時計とカメラ内の時計との同期がとられ、時間情報が生成される。
また、カメラex102の起動時又は任意のタイミングで施設内又はスタジアム内の特定のポイントにカメラex102を向けることにより、カメラex102の位置及び角度情報が取得される。図18は、カメラex102に起動時に、カメラex102の画面上に表示される通知の一例を示す図である。ユーザがこの通知に従い、スタジアム北側の広告中のサッカーボール中心にある「+」に、画面中央に表示された「+」を合わせて、カメラex102のディスプレイをタッチすると、カメラex102は、カメラex102から広告までのベクトル情報を取得しカメラ位置及び角度の基準を特定する。その後、カメラex102のモーション情報からその時々のカメラ座標及び角度が特定される。もちろん、この表示に限るものではなく、矢印等を用いて撮影期間中も座標、角度、又は撮影領域の移動速度等を指示するような表示が用いられてもよい。
カメラex102の座標の特定は、GPS、WiFi(登録商標)、3G、LTE(Long Term Evolution)、及び5G(無線LAN)の電波を用いて行われてもよいし、ビーコン(Bluetooth(登録商標)、超音波)など近距離無線を利用して行われてもよい。また、施設内又はスタジアム内のどの基地局に撮影映像データが届いたかという情報が用いられてもよい。
(変形例14)
当該システムはスマートフォン等のモバイル端末上で動作するアプリケーションとして提供されてもよい。
上記システムへのログインには、各種SNS等のアカウントが用いられてもよい。なお、アプリ専用のアカウント、又は機能が制限されたゲストアカウントが用いられてもよい。このようにアカウントが用いられることで、好みの映像又は好みのアカウント等を評価することができる。また、撮影中又は視聴中の映像データに類似した映像データ、撮影中又は視聴中の映像データの視点に類似した視点の映像データなどに優先的に帯域を割り振ることで、これらの映像データの解像度を高めることができる。これにより、これらの視点からの三次元形状の復元をより精度よく行うことができる。
また、ユーザは、当該アプリケーションで、好みの画像映像を選択し、相手方をフォローすることで、選択した画像を他のユーザよりも優先して見たり、相手方の承認などを条件にテキストチャット等でつながりをもつことができる。このように、新たなコミュニティの生成が可能である。
このようにユーザ同士がコミュニティ内でつながることにより、撮影自体、また撮影した画像の共有などが活発化し、より精度の高い三次元形状の復元を促すことができる。
また、コミュニティ内のつながりの設定に応じて、ユーザは、他人が撮影した画像又は映像を編集したり、他人の画像と自分の画像とをコラージュして新たな画像又は映像を作成したりできる。これにより、新たな画像又は映像を当該コミュニティ内の人のみでシェアするなど、新たな映像作品のシェアが可能になる。また、この編集においてCGのキャラクタを挿入するなどにより、拡張現実(Augmented Reality)のゲーム等にも映像作品を利用できる。
また、当該システムによると三次元モデルデータが逐次出力可能になるため、ゴールシーンなどの特徴的なシーンでの三次元モデルデータに基づき、施設が有する3Dプリンタなどが立体オブジェクトを出力することができる。これにより、試合後に、その試合中のシーンに基づくオブジェクトをキーホルダーのようなお土産として売ったり、参加ユーザに配布することも可能である。もちろん通常の写真として、もっとも良い視点からの画像をプリントすることも可能である。
(変形例15)
上記システムを用いて、例えば、警察の車載カメラ、及び警察官のウェアラブルカメラの映像などから、地域全体の大雑把な状態を、当該システムに接続されたセンターで管理することができる。
一般のパトロールの時は、例えば数分おきで静止画の送受信が行なわれる。また、センターは、過去の犯罪データ等を用いて分析した結果に基づいた犯罪マップに基づいて犯罪発生の可能性が高い地域を特定する、もしくはこのように特定された犯罪発生確率に関連する地域データを保持している。特定された犯罪発生確率の高い地域では、画像の送受信の頻度を上げたり、画像を動画に変更したりしてもよい。また、事件発生時は、動画、又はSfM等を用いた三次元再構成データが用いられてもよい。また、センターもしくは各端末が、同時にデプスセンサ又はサーモセンサなど他のセンサの情報を用いて画像又は仮想空間を補正することで、警察官は、より正確に状況を把握できる。
また、センターは、三次元再構成データを用いることで、複数の端末にそのオブジェクトの情報をフィードバックできる。これにより、各端末を持つ個々人がオブジェクトをトラッキングできる。
また、最近では、建造物或いは環境の調査、又はスポーツなどの臨場感ある撮影等の目的で、クワッドコプター、ドローンなどの飛行可能な装置による空中からの撮影が行なわれる。このような自律移動装置による撮影は、画像がブレるということが問題になりやすいが、SfMは位置及び傾きによりそのブレを補正しながら三次元化を行なうことが可能である。これにより、画質の向上、及び空間の復元精度の向上を実現できる。
また、車外を撮影する車載カメラの設置が、国によっては義務付けられている。このような車載カメラにおいても、複数の画像からモデル化された三次元データを用いることで、行き先の方向の天気及び路面の状態、並びに渋滞度合い等をより精度よく把握できる。
(実施の形態3)
上記各実施の形態で示した画像処理方法の構成を実現するためのプログラムを記憶メディアに記録することにより、上記各実施の形態で示した処理を独立したコンピュータシステムにおいて簡単に実施することが可能となる。記憶メディアは、磁気ディスク、光ディスク、光磁気ディスク、ICカード、半導体メモリ等、プログラムを記録できるものであればよい。
さらにここで、上記各実施の形態で示した画像処理方法の応用例とそれを用いたシステムを説明する。当該システムは、画像処理方法を用いた装置を有することを特徴とする。システムにおける他の構成について、場合に応じて適切に変更することができる。
図19は、コンテンツ配信サービスを実現するコンテンツ供給システムex200の全体構成を示す図である。通信サービスの提供エリアを所望の大きさに分割し、各セル内にそれぞれ固定無線局である基地局ex206、ex207、ex208、ex209、ex210が設置されている。
このコンテンツ供給システムex200は、インターネットex201にインターネットサービスプロバイダex202および通信網ex204、および基地局ex206からex210を介して、コンピュータex211、PDA(Personal Digital Assistant)ex212、カメラex213、スマートフォンex214、ゲーム機ex215などの各機器が接続される。
しかし、コンテンツ供給システムex200は図19のような構成に限定されず、いずれかの要素を組合せて接続するようにしてもよい。また、固定無線局である基地局ex206からex210を介さずに、各機器が電話線、ケーブルテレビ、又は光通信などの通信網ex204に直接接続されてもよい。また、各機器が近距離無線等を介して直接相互に接続されていてもよい。
カメラex213はデジタルビデオカメラ等の動画撮影が可能な機器であり、カメラex216はデジタルカメラ等の静止画撮影、動画撮影が可能な機器である。また、スマートフォンex214は、GSM(登録商標)(Global System for Mobile Communications)方式、CDMA(Code Division Multiple Access)方式、W−CDMA(Wideband−Code Division Multiple Access)方式、若しくはLTE(Long Term Evolution)方式、HSPA(High Speed Packet Access)、又は高周波帯域を利用した通信方式などに対応するスマートフォン機、またはPHS(Personal Handyphone System)等であり、いずれでも構わない。
コンテンツ供給システムex200では、カメラex213等が基地局ex209、通信網ex204を通じてストリーミングサーバex203に接続されることで、ライブ配信等が可能になる。ライブ配信では、ユーザがカメラex213を用いて撮影するコンテンツ(例えば、音楽ライブの映像等)に対して符号化処理を行い、ストリーミングサーバex203に送信する。一方、ストリーミングサーバex203は要求のあったクライアントに対して送信されたコンテンツデータをストリーム配信する。クライアントとしては、上記符号化処理されたデータを復号化することが可能な、コンピュータex211、PDAex212、カメラex213、スマートフォンex214、ゲーム機ex215等がある。配信されたデータを受信した各機器では、受信したデータを復号化処理して再生する。
なお、撮影したデータの符号化処理はカメラex213で行っても、データの送信処理をするストリーミングサーバex203で行ってもよいし、互いに分担して行ってもよい。同様に配信されたデータの復号化処理はクライアントで行っても、ストリーミングサーバex203で行ってもよいし、互いに分担して行ってもよい。また、カメラex213に限らず、カメラex216で撮影した静止画像および/または動画像データを、コンピュータex211を介してストリーミングサーバex203に送信してもよい。この場合の符号化処理はカメラex216、コンピュータex211、ストリーミングサーバex203のいずれで行ってもよいし、互いに分担して行ってもよい。さらに復号された画像の表示についても、システムにつながった複数の機器が連動して同じ画像を表示してもよいし、大きな表示部を有する装置で全体の画像を表示し、スマートフォンex214等では画像の一部の領域を拡大して表示してもよい。
また、これら符号化・復号化処理は、一般的にコンピュータex211や各機器が有するLSIex500において処理する。LSIex500は、ワンチップであっても複数チップからなる構成であってもよい。なお、動画像符号化・復号化用のソフトウェアをコンピュータex211等で読み取り可能な何らかの記録メディア(CD−ROM、フレキシブルディスク、ハードディスクなど)に組み込み、そのソフトウェアを用いて符号化・復号化処理を行ってもよい。さらに、スマートフォンex214がカメラ付きである場合には、そのカメラで取得した動画データを送信してもよい。このときの動画データはスマートフォンex214が有するLSIex500で符号化処理されたデータである。
また、ストリーミングサーバex203は複数のサーバや複数のコンピュータであって、データを分散して処理したり記録したり配信するものであってもよい。
以上のようにして、コンテンツ供給システムex200では、符号化されたデータをクライアントが受信して再生することができる。このようにコンテンツ供給システムex200では、ユーザが送信した情報をリアルタイムでクライアントが受信して復号化し、再生することができ、特別な権利や設備を有さないユーザでも個人放送を実現できる。
なお、コンテンツ供給システムex200の例に限らず、図20に示すように、デジタル放送用システムex300にも、上記各実施の形態を適用してもよい。具体的には、放送局ex301では映像データに音楽データなどが多重化された多重化データが電波を介して通信または衛星ex302に伝送される。この映像データは上記各実施の形態で説明した動画像符号化方法により符号化されたデータである。これを受けた放送衛星ex302は、放送用の電波を発信し、この電波を衛星放送の受信が可能な家庭のアンテナex304が受信する。受信した多重化データを、テレビ(受信機)ex400またはセットトップボックス(STB)ex317等の装置が復号化して再生する。
また、DVD、BD等の記録メディアex315、もしくはSDなどのメモリex316に記録した多重化データを読み取り復号化する、または記録メディアex315もしくはメモリex316に映像信号を符号化し、さらに場合によっては音楽信号と多重化して書き込むリーダ/レコーダex318にも上記各実施の形態で示した動画像復号化装置または動画像符号化装置を実装することが可能である。この場合、再生された映像信号はモニタex319に表示され、多重化データが記録された記録メディアex315、又はメモリex316により他の装置やシステムにおいて映像信号を再生することができる。また、ケーブルテレビ用のケーブルex303または衛星/地上波放送のアンテナex304に接続されたセットトップボックスex317内に動画像復号化装置を実装し、これをテレビのモニタex319で表示してもよい。このときセットトップボックスではなく、テレビ内に動画像復号化装置を組み込んでもよい。
図21は、スマートフォンex214を示す図である。また、図22は、スマートフォンex214の構成例を示す図である。スマートフォンex214は、基地局ex210との間で電波を送受信するためのアンテナex450、映像、静止画を撮ることが可能なカメラ部ex465、カメラ部ex465で撮像した映像、アンテナex450で受信した映像等が復号化されたデータを表示する液晶ディスプレイ等の表示部ex458を備える。スマートフォンex214は、さらに、タッチパネル等である操作部ex466、音声を出力するためのスピーカ等である音声出力部ex457、音声を入力するためのマイク等である音声入力部ex456、撮影した映像、静止画、録音した音声、または受信した映像、静止画、メール等の符号化されたデータもしくは復号化されたデータを保存可能なメモリ部ex467、又は図20に例示されたメモリex316、もしくはユーザを特定し、ネットワークをはじめ各種データへのアクセスの認証をするためのSIMex468とのインタフェース部であるスロット部ex464を備える。
スマートフォンex214は、表示部ex458及び操作部ex466等を統括的に制御する主制御部ex460に対して、電源回路部ex461、操作入力制御部ex462、映像信号処理部ex455、カメラインタフェース部ex463、LCD(Liquid Crystal Display)制御部ex459、変調/復調部ex452、多重/分離部ex453、音声信号処理部ex454、スロット部ex464、メモリ部ex467がバスex470を介して互いに接続されている。
電源回路部ex461は、ユーザの操作により終話及び電源キーがオン状態にされると、バッテリパックから各部に対して電力を供給することによりスマートフォンex214を動作可能な状態に起動する。
スマートフォンex214は、CPU、ROM、RAM等を有する主制御部ex460の制御に基づいて、音声通話モード時に音声入力部ex456で収音した音声信号を音声信号処理部ex454でデジタル音声信号に変換し、これを変調/復調部ex452でスペクトラム拡散処理し、送信/受信部ex451でデジタルアナログ変換処理および周波数変換処理を施した後にアンテナex450を介して送信する。またスマートフォンex214は、音声通話モード時にアンテナex450を介して受信した受信データを増幅して周波数変換処理およびアナログデジタル変換処理を施し、変調/復調部ex452でスペクトラム逆拡散処理し、音声信号処理部ex454でアナログ音声信号に変換した後、これを音声出力部ex457から出力する。
さらにデータ通信モード時に電子メールを送信する場合、本体部の操作部ex466等の操作によって入力された電子メールのテキストデータは操作入力制御部ex462を介して主制御部ex460に送出される。主制御部ex460は、テキストデータを変調/復調部ex452でスペクトラム拡散処理をし、送信/受信部ex451でデジタルアナログ変換処理および周波数変換処理を施した後にアンテナex450を介して基地局ex210へ送信する。電子メールを受信する場合は、受信したデータに対してこのほぼ逆の処理が行われ、表示部ex458に出力される。
データ通信モード時に映像、静止画、または映像と音声を送信する場合、映像信号処理部ex455は、カメラ部ex465から供給された映像信号を上記各実施の形態で示した動画像符号化方法によって圧縮符号化し、符号化された映像データを多重/分離部ex453に送出する。また、音声信号処理部ex454は、映像、静止画等をカメラ部ex465で撮像中に音声入力部ex456で収音した音声信号を符号化し、符号化された音声データを多重/分離部ex453に送出する。
多重/分離部ex453は、映像信号処理部ex455から供給された符号化された映像データと音声信号処理部ex454から供給された符号化された音声データを所定の方式で多重化し、その結果得られる多重化データを変調/復調部(変調/復調回路部)ex452でスペクトラム拡散処理をし、送信/受信部ex451でデジタルアナログ変換処理及び周波数変換処理を施した後にアンテナex450を介して送信する。
データ通信モード時にホームページ等にリンクされた動画像ファイルのデータを受信する場合、または映像およびもしくは音声が添付された電子メールを受信する場合、アンテナex450を介して受信された多重化データを復号化するために、多重/分離部ex453は、多重化データを分離することにより映像データのビットストリームと音声データのビットストリームとに分け、同期バスex470を介して符号化された映像データを映像信号処理部ex455に供給するとともに、符号化された音声データを音声信号処理部ex454に供給する。映像信号処理部ex455は、上記各実施の形態で示した動画像符号化方法に対応した動画像復号化方法によって復号化することにより映像信号を復号し、LCD制御部ex459を介して表示部ex458から、例えばホームページにリンクされた動画像ファイルに含まれる映像、静止画が表示される。また音声信号処理部ex454は、音声信号を復号し、音声出力部ex457から音声が出力される。
また、上記スマートフォンex214等の端末は、テレビex400と同様に、符号化器・復号化器を両方持つ送受信型端末の他に、符号化器のみの送信端末、復号化器のみの受信端末という3通りの実装形式が考えられる。さらに、デジタル放送用システムex300において、映像データに音楽データなどが多重化された多重化データを受信、送信するとして説明したが、音声データ以外に映像に関連する文字データなどが多重化されたデータであってもよいし、多重化データではなく映像データ自体であってもよい。
また、本発明はかかる上記実施の形態に限定されるものではなく、本発明の範囲を逸脱することなく種々の変形または修正が可能である。