JP7075202B2 - Terminal device - Google Patents
Terminal device Download PDFInfo
- Publication number
- JP7075202B2 JP7075202B2 JP2017242037A JP2017242037A JP7075202B2 JP 7075202 B2 JP7075202 B2 JP 7075202B2 JP 2017242037 A JP2017242037 A JP 2017242037A JP 2017242037 A JP2017242037 A JP 2017242037A JP 7075202 B2 JP7075202 B2 JP 7075202B2
- Authority
- JP
- Japan
- Prior art keywords
- terminal device
- video
- divided
- distributed
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、端末装置に関する。 The present invention relates to a terminal device.
8K-SHVに代表されるような超高精細な高解像度映像のコンテンツ(高解像度映像コンテンツ)が普及しつつある。このような高解像度映像コンテンツには、高い再現性が得られる、本物を見ているような立体感を視聴者に感じさせることができるといった特徴がある。 Ultra-high-definition high-resolution video content (high-resolution video content) such as 8K-SHV is becoming widespread. Such high-resolution video content has the characteristics that high reproducibility can be obtained and that the viewer can feel a three-dimensional effect as if looking at the real thing.
しかしながら、上記のような高解像度映像コンテンツを、ユーザが使用する、携帯電話、スマートフォン、タブレット端末などの端末装置において再生する再生環境が十分には整っていないのが現状である。例えば、映像コンテンツを視聴者に提供する方式としては、映像コンテンツを放送波で送信するBroadcasting型、映像コンテンツを端末装置で受信しつつ、受信した部分から順次再生するStreaming型、映像コンテンツ全体を端末装置で受信した後に生成するDownload型などがある。高解像度映像コンテンツは、データ容量が大きいため、上述したStreaming型の適用は困難であり、Video PodcastなどのDownload型の適用が考えられる。また、上述の受信環境を考慮すると、現状ではBroadcasting型の適用も決して容易ではない。 However, the current situation is that the reproduction environment for reproducing the above-mentioned high-resolution video content on a terminal device such as a mobile phone, a smartphone, or a tablet terminal used by the user is not sufficiently prepared. For example, as a method of providing video content to a viewer, a Broadcasting type in which the video content is transmitted by a broadcast wave, a Streaming type in which the video content is received by a terminal device and sequentially played from the received portion, and the entire video content is played on the terminal. There is a Download type that is generated after being received by the device. Since the data capacity of high-resolution video content is large, it is difficult to apply the above-mentioned Streaming type, and it is conceivable to apply a Download type such as Video Podcast. Further, considering the above-mentioned reception environment, it is not easy to apply the Broadcasting type at present.
また、近年、端末装置の中には、2K/4Kレベルの映像を表示可能なディスプレイを備えたものもある。しかしながら、現状では、さらに高解像度の8Kレベルの映像を表示可能なディスプレイを端末装置に搭載することは、コストなどの観点から難しい。
Further, in recent years, some terminal devices are provided with a display capable of displaying 2K / 4K level images. However, at present, it is difficult to mount a display capable of displaying a
ところで、近年の通信サービスの高速化・低価格化、および、スマートフォンなどの端末装置の普及に伴い、ユーザは、場所を問わず、各種のコンテンツを消費(閲覧)するようになっている。また、ソーシャルメディアの普及もあり、利用者のコンテンツ消費がよりパーソナルなものとなる傾向にある。このような傾向の下では、視聴者を引き付けるコンテンツの制作だけでなく、視聴者によるコンテンツの消費行動、視聴者によるコンテンツの消費環境などに適した態様でのコンテンツの提供が必要となる。 By the way, with the recent increase in speed and price of communication services and the widespread use of terminal devices such as smartphones, users have come to consume (view) various contents regardless of location. In addition, with the spread of social media, user content consumption tends to be more personal. Under such a tendency, it is necessary not only to produce content that attracts viewers, but also to provide content in a manner suitable for the consumption behavior of the content by the viewer, the consumption environment of the content by the viewer, and the like.
例えば、非特許文献1には、2台の端末装置(スマートフォン)で連携してコンテンツを視聴させる技術が開示されている。この技術では、一方の端末装置にはあるキャラクタの視点でのコンテンツを配信し、他方の端末装置には別のキャラクタの視点でのコンテンツを配信する。そして、この技術では、それぞれの端末装置で別々にコンテンツを視聴する場合には、2つのキャラクタが出会うことなくコンテンツが終了し、2つの端末装置を並べてコンテンツを視聴すると、2つのキャラクタが出会うという演出が施されている。
For example, Non-Patent
また、非特許文献2には、複数の端末装置を一列に並べて配置することで、その複数の端末装置の仮想的に1つのスクリーンのようにしてコンテンツを視聴させる技術が開示されている。
Further, Non-Patent
非特許文献1,2などに開示されている技術では、複数の端末装置はそれぞれ、ネットワーク上の外部サーバ(配信サーバ)に接続し、サーバから付与されたグループIDによりグルーピングされる。そして、そのグループへの所属順に採番するなどして、外部サーバに通知するとともに、その採番された番号順に複数の端末装置が配置される。外部サーバは、各番号の端末装置にそれぞれ異なるコンテンツを配信して、全体として1つのコンテンツをユーザに視聴させる。
In the techniques disclosed in
上述したような技術では、複数の端末装置の配置は、各端末装置に割り当てられた番号などに基づき固定される。すなわち、端末装置が自律的に他の端末装置との相対的な位置関係を検出することができない。そのため、端末装置の配置変更などに対して、柔軟に対応することができない。 In the technique as described above, the arrangement of the plurality of terminal devices is fixed based on the number assigned to each terminal device or the like. That is, the terminal device cannot autonomously detect the relative positional relationship with other terminal devices. Therefore, it is not possible to flexibly respond to changes in the arrangement of terminal devices.
上記のような問題点に鑑みてなされた本発明の目的は、自律的に自装置と他の端末装置との相対的な位置関係を検出することができる端末装置を提供することにある。 An object of the present invention made in view of the above problems is to provide a terminal device capable of autonomously detecting a relative positional relationship between a self-device and another terminal device.
上記課題を解決するため、本発明に係る端末装置は、自装置とともに平面上または立体表面上に配置された他の端末装置との相対的な位置関係を決定する端末装置であって、タッチ面に対するタッチ操作によるタッチ位置を検出し、前記タッチ位置をスライドさせるスライド操作により、前記タッチ面内において、前記タッチ面の外縁に沿って設定された複数の外縁領域の少なくとも1つがタッチされた場合、該タッチされた外縁領域および該外縁領域がタッチされたタイミングを示すセンサ情報を生成する検出部と、前記他の端末装置との直接通信により、前記検出部により生成されたセンサ情報を前記他の端末装置に送信するとともに、前記他の端末装置から前記センサ情報を受信する共有部と、自装置と前記他の端末装置との同期をとるとともに、前記共有部が前記他の端末装置との間で送受信したセンサ情報に基づき、自装置と前記他の端末装置との相対的な位置関係を決定する決定部と、を備え、前記検出部は、自装置と前記他の端末装置とのローカル時刻の差分をさらに検出し、前記決定部は、自装置および前記他の端末装置の中で基準となる端末装置と自装置とのローカル時刻の差分に基づき、自装置と他の端末装置との同期をとり、前記決定部は、配信対象の映像を分割した複数の分割映像を生成し、前記複数の分割映像それぞれの格納場所を示す情報を含むマニフェストファイルを生成する配信装置から、前記マニフェストファイルを取得し、前記決定した自装置と他の端末装置との相対的な位置関係に基づく、自装置の位置に対応する分割映像を、前記マニフェストファイルに基づいて取得し、前記決定部により取得された分割映像を自装置が備える表示部に表示する再構成部をさらに備える。 In order to solve the above problems, the terminal device according to the present invention is a terminal device that determines a relative positional relationship with another terminal device arranged on a plane or a three-dimensional surface together with the own device, and is a touch surface. When at least one of a plurality of outer edge regions set along the outer edge of the touch surface is touched in the touch surface by the slide operation of detecting the touch position by the touch operation with respect to the touch position and sliding the touch position. The sensor information generated by the detection unit is obtained by direct communication between the touched outer edge region and the detection unit that generates sensor information indicating the timing at which the outer edge region is touched, and the other terminal device. The shared unit that transmits to the terminal device and receives the sensor information from the other terminal device synchronizes the own device with the other terminal device, and the shared unit is between the other terminal device. The detection unit includes a determination unit that determines the relative positional relationship between the own device and the other terminal device based on the sensor information transmitted and received in, and the detection unit is the local time between the own device and the other terminal device. The determination unit further detects the difference between the own device and the other terminal device, and the determination unit synchronizes the own device with the other terminal device based on the difference in the local time between the own device and the own device as a reference among the own device and the other terminal device. The determination unit generates the manifest file from a distribution device that generates a plurality of divided videos obtained by dividing the video to be distributed and generates a manifest file including information indicating the storage location of each of the plurality of divided videos. The divided video corresponding to the position of the own device, which was acquired and based on the relative positional relationship between the own device and the other terminal device determined, was acquired based on the manifest file and acquired by the determination unit. It further includes a reconstructing unit that displays the divided video on the display unit of the own device .
また、本発明に係る端末装置において、前記タッチ面は、矩形であり、前記外縁領域は、前記矩形のタッチ面の四辺それぞれに対応して設けられていることが好ましい。 Further, in the terminal device according to the present invention, it is preferable that the touch surface is rectangular and the outer edge region is provided corresponding to each of the four sides of the rectangular touch surface.
また、本発明に係る端末装置において、前記タッチ面の四辺のうち、少なくとも一辺に沿って、複数の外縁領域が設けられていることが好ましい。 Further, in the terminal device according to the present invention, it is preferable that a plurality of outer edge regions are provided along at least one of the four sides of the touch surface.
また、上記課題を解決するため、本発明に係る端末装置は、自装置とともに平面上または立体表面上に配置された他の端末装置との相対的な位置関係を決定する端末装置であって、三次元空間での相対座標系における基準位置からの自装置の移動距離および移動方向を検出する検出部と、自装置と前記他の端末装置との重ね合わせに応じて、前記他の端末装置との間で直接通信により前記三次元空間での相対座標系に関する情報を送受信して、前記他の端末装置との間で前記相対座標系を一致させる共有部と、前記共有部による前記相対座標系の一致後に前記検出部により検出された自装置の移動距離および移動方向に基づき前記他の端末装置との相対的な位置関係を決定する決定部と、を備える。 Further, in order to solve the above problems, the terminal device according to the present invention is a terminal device that determines a relative positional relationship with another terminal device arranged on a plane or a three-dimensional surface together with the own device. The detection unit that detects the movement distance and movement direction of the own device from the reference position in the relative coordinate system in the three-dimensional space, and the other terminal device according to the overlap between the own device and the other terminal device. Information about the relative coordinate system in the three-dimensional space is transmitted and received by direct communication between the two, and the shared portion that matches the relative coordinate system with the other terminal device and the relative coordinate system by the shared portion. A determination unit for determining a relative positional relationship with the other terminal device based on the movement distance and the movement direction of the own device detected by the detection unit after the match is provided.
また、本発明に係る端末装置において、自装置の一面に配置されたカメラ部をさらに有し、前記検出部は、前記カメラ部の撮影画像に基づき、前記一面に前記他の端末装置が重ね合わされたことを検出することが好ましい。 Further, in the terminal device according to the present invention, the terminal device further includes a camera unit arranged on one surface of the own device, and the detection unit has the other terminal device superimposed on the one surface based on the captured image of the camera unit. It is preferable to detect that.
また、本発明に係る端末装置において、前記決定部は、前記検出部により自装置が前記平面上または立体表面上から所定距離以上離れたことを検出すると、自装置および前記共有部により直接通信を行う他の端末装置からなるグループから、自装置が除外されたと判定することが好ましい。 Further, in the terminal device according to the present invention, when the determination unit detects that the own device is separated from the plane or the three-dimensional surface by a predetermined distance or more, the determination unit directly communicates with the own device and the common unit. It is preferable to determine that the own device is excluded from the group consisting of other terminal devices.
本発明に係る端末装置によれば、自律的に自装置と他の端末装置との相対的な位置関係を検出することができる。 According to the terminal device according to the present invention, it is possible to autonomously detect the relative positional relationship between the own device and another terminal device.
以下、本発明を実施するための形態について、図面を参照しながら説明する。各図中、同一符号は、同一または同等の構成要素を示している。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. In each figure, the same reference numerals indicate the same or equivalent components.
図1は、本発明の一実施形態に係る映像表示システム1の構成例を示す図である。
FIG. 1 is a diagram showing a configuration example of a
図1に示す映像表示システム1は、配信装置10と、複数の端末装置20とを備える。配信装置10は、複数の端末装置20それぞれと、有線通信または無線通信により、ネットワーク2を介して通信可能である。本実施形態に係る映像表示システム1は、配信装置10から配信された映像コンテンツを複数の端末装置20で表示するものである。
The
配信装置10は、映像コンテンツをネットワーク2を介して端末装置20に配信する。配信装置10が配信する映像コンテンツとしては、例えば、8K-SHVに代表されるような超高精細な高解像度映像のコンテンツ(高解像度映像コンテンツ)がある。
The
端末装置20は、携帯電話、スマートフォン、タブレット端末のような、ユーザが所有する装置である。端末装置20は、表示部を有しており、配信装置10による配信対象の映像コンテンツ(映像)を表示部で表示する。
The
図2は、本実施形態に係る端末装置20による配信装置10から配信された映像コンテンツの表示態様の一例を示す図である。
FIG. 2 is a diagram showing an example of a display mode of video content distributed from the
図2に示すように、本実施形態においては、複数の端末装置20が平面上に、表示部が閲覧可能に配置され、配信装置10による配信対象の映像コンテンツ(映像)を、複数の端末装置20により表示する。すなわち、複数の端末装置20はそれぞれ、配信対象の映像が分割された映像を表示し、全体として、配信対象の映像を利用者に閲覧させる。なお、複数の端末装置20が立体表面上に、表示部が閲覧可能に配置され、配信装置10による配信対象の映像コンテンツ(映像)を、複数の端末装置20により表示してもよい。
As shown in FIG. 2, in the present embodiment, a plurality of
次に、配信装置10および端末装置20の構成について説明する。
Next, the configurations of the
図3は、本実施形態に係る配信装置10および端末装置20の構成例を示す図である。なお、図3においては、端末装置20の構成のうち、配信対象の映像の表示部(不図示)での表示(再生)に係る構成を中心に説明する。まず、配信装置10の構成について説明する。
FIG. 3 is a diagram showing a configuration example of the
図3に示す配信装置10は、分割部11と、配信部12とを備える。
The
分割部11は、配信対象の映像コンテンツ(例えば、高解像度映像)が入力されると、そのコンテンツを配信するための配信ファイルを生成する。具体的には、分割部11は、配信ファイルとして、配信対象の映像を分割した複数の分割映像を生成する。ここで、分割部11は、配信対象の映像を、複数の端末装置20による表示態様に応じた異なる分割パターンで分割し、分割パターンごとの複数の分割映像をまとめた分割グループ(分割グループ1,2,・・・)を生成する。複数の端末装置20による表示態様としては、配信対象の映像を表示する端末装置20の台数、複数の端末装置20の配置、端末装置20の回転に応じた表示の切り替え(Landscape表示(横向き表示)/Portrait表示(縦向き表示))の対応の有無などがある。分割部11は、種々の表示態様に応じた分割パターンで配信対象の映像を分割し、分割映像を生成する。また、分割部11は、表示態様に応じて、配信対象の映像の解像度を調整してもよい。
When the video content to be distributed (for example, high-resolution video) is input, the
図4A~図4Dは、分割部11による配信対象の映像の分割および解像度調整の例を示す図である。図4A~図4Dにおいては、配信対象の映像の解像度をサイズで示している。
4A to 4D are diagrams showing an example of division and resolution adjustment of the video to be distributed by the
図4Aは、配信対象の映像(オリジナルの映像)は分割せず、解像度を小さくした(例えば、8Kから2Kに縮小)例を示す図である。 FIG. 4A is a diagram showing an example in which the video to be distributed (original video) is not divided and the resolution is reduced (for example, reduced from 8K to 2K).
図4Bは、配信対象の映像を4分割した例を示す図である。図4Bにおいては、配信対象の映像の解像度を小さくした上で4分割(2×2)した例、および、配信対象の映像の解像度はそのままで4分割した例を示している。 FIG. 4B is a diagram showing an example in which the video to be distributed is divided into four. FIG. 4B shows an example in which the resolution of the video to be distributed is reduced and then divided into four (2 × 2), and an example in which the resolution of the video to be distributed is divided into four as it is.
図4Cは、配信対象の映像を9分割した例を示す図である。図4Cにおいては、配信対象の映像の解像度を小さくした上で9分割(3×3)した例を示している。なお、図4Cにおいては、配信対象の映像の解像度を小さくした上で9分割した例を示しているが、解像度はそのままで、配信対象の映像を9分割してもよい。 FIG. 4C is a diagram showing an example in which the video to be distributed is divided into nine. FIG. 4C shows an example in which the resolution of the video to be distributed is reduced and then divided into 9 parts (3 × 3). Although FIG. 4C shows an example in which the resolution of the video to be distributed is reduced and then divided into nine, the video to be distributed may be divided into nine while the resolution remains the same.
図4Dは、配信対象の映像を16分割した例を示す図である。図4Dにおいては、配信対象の映像の解像度はそのままで16分割(4×4)した例を示している。 FIG. 4D is a diagram showing an example in which the video to be distributed is divided into 16 parts. FIG. 4D shows an example of 16 divisions (4 × 4) while maintaining the resolution of the video to be distributed.
図3を再び参照すると、分割部11は、配信ファイルとしてさらに、マニフェストファイルを生成する。マニフェストファイルには、配信対象の映像が分割された複数の分割映像それぞれの格納場所を示す情報(例えば、URL(Uniform Resource Locator))が含まれる。また、マニフェストファイルには、配信対象の映像の分割パターンを含む、配信対象の映像の表示(再構成)に関する情報が含まれる。
Referring to FIG. 3 again, the
なお、分割部11は、配信対象の映像の解像度を小さくするだけでなく、配信対象の映像のサイズを大きくした上で分割してもよい。例えば、端末装置20での再構成時に、分割映像の一部だけを端末装置20の表示部で表示する、すなわち、分割映像の一部をトリミングして再生することを前提として、配信対象の映像のサイズを縦横それぞれ2倍にした上で、4分割するなどしてもよい。
The dividing
配信部12は、分割部11により生成された複数の分割映像およびマニフェストファイルを端末装置20に配信する。配信方法としては、例えば、既存のポッドキャストと同様に、マニフェストファイルおよび分割映像をWebサーバで公開する方法がある。
The
次に、端末装置20の構成について説明する。
Next, the configuration of the
図3に示す端末装置20は、受信部21と、同期部22と、再構成部23とを備える。
The
受信部21は、ネットワーク2を介して、配信装置10が公開したマニフェストファイル、および、配信対象の映像を分割した複数の分割映像のうち、受信したマニフェストファイルに基づく分割映像を受信する。より具体的には、受信部21は、配信対象の映像を分割した複数の分割映像のうち、自装置で表示する部分に対応する分割映像を受信する。したがって、マニフェストファイルは、全ての端末装置20が受信する。一方、分割映像は、その分割映像を表示する端末装置20のみが受信する。すなわち、各端末装置20で分割映像の受信対象が異なる。したがって、各端末装置20は、配信対象の映像全体を受信する必要がないので、通信量を削減することができる。
The receiving
同期部22は、任意の方法により、配信対象の映像を表示するために平面上または立体表面上に配置された複数の端末装置20による配信対象の映像の表示態様、および、その表示態様における自装置の位置(自装置と他の端末装置20との相対的な位置関係)を検出する。以下では、複数の端末装置20が平面上に配置された例を用いて説明する。
The
図2に示したように、配信装置10から配信されたコンテンツを視聴する際に、複数の端末装置20が平面上に格子状に配置される。同期部22は、配信対象の映像を表示する端末装置20の数、格子状の配置における自装置の位置(格子状座標)、他の端末装置20の回転に応じた表示の切り替えの対応の有無などを検出する。また、同期部22は、例えば、自装置と他の端末装置20とのローカル時刻のズレを検出する。
As shown in FIG. 2, when viewing the content distributed from the
同期部22は、端末装置20が備える各種センサ(ジャイロセンサ、地軸センサなど)の検出結果、端末装置20への操作入力などの種々の情報を他の端末装置20と送受信する。そして、同期部22は、他の端末装置20と送受信した情報に基づき、コンテンツの表示態様、その表示態様における自装置の位置などを検出する。なお、同期部22は、他の端末装置20との近距離無線通信により、すなわち、ネットワーク2を介さずに、種々の情報を送受信する。したがって、端末装置20は、ネットワーク2にアクセスできない環境でも、複数の端末装置20による配信対象の映像の表示態様、および、その表示態様における自装置の位置などを自律的に検出することができる。
The
同期部22は、配信対象の映像の複数の表示端末20による表示態様および自装置の位置を検出すると、受信部21が受信したマニフェストファイルに示される、検出した表示態様に応じた分割パターンで配信対象の映像が分割された複数の分割映像のうち、検出した自装置の位置に対応する分割映像を受信部21に受信させる。また、同期部22は、検出した表示態様および自装置の位置を再構成部23に出力する。
When the
なお、同期部22は、自装置の位置変更および回転、また、コンテンツを再生する端末装置20の追加などを検出すると、受信部21および再構成部23に再処理を要求する。こうすることで、表示態様に変更があった場合にも、自律的に変更後の表示態様に合わせて配信対象の映像を表示することができる。
When the
再構成部23は、受信部21が受信したマニフェストファイルに基づき、同期部22が検出した表示態様に応じて、受信部21が受信した分割画像を、拡大・縮小するなどして表示部に表示する。また、再構成部23は、所定の操作入力により、コンテンツの再生・停止・一時停止などを行う。また、再構成部23は、自装置あるいは他の端末装置20の位置変更および回転、また、コンテンツを再生する端末装置20の追加などにより再処理が要求されると、変更後の表示態様に応じた映像を表示部に表示させる。
Based on the manifest file received by the receiving
次に、本実施形態に係る映像表示システム1における配信装置10および端末装置20の動作について説明する。
Next, the operation of the
図5は、本実施形態に係る端末装置20による配信対象の映像の表示について説明するための図である。図5においては、配信対象の映像が8Kの映像であるものとして説明する。
FIG. 5 is a diagram for explaining the display of the video to be distributed by the
配信装置10は、配信対象の映像(8Kの映像)の解像度を下げた映像(2Kの映像)、配信対象の映像を4分割した分割映像(4K×4)、配信対象の映像を16分割した分割映像(2K×16)などを予め生成しておく。
The
端末装置20は、配信対象の映像を1台で表示する場合には、例えば、図5に示すように、配信対象の映像の解像度を下げた映像を表示する。
When the
配信対象の映像を表示する端末装置20が1台追加され、例えば、図5に示すように、縦方向に隣接して2台の端末装置20が配置されると、2台の端末装置20はそれぞれ、配信対象の映像の表示態様(配信対象の映像を表示する台数およびその配置)、自装置と他の端末装置20との位置関係などを検出し、検出した表示態様に対応する分割パターンで分割された分割映像(4分割された分割映像)のうち、自装置の位置に対応する分割映像を受信し、表示部に表示する。
One
さらに、図5に示すように、配信対象の映像を表示する端末装置20が3台追加されると、5台の端末装置20はそれぞれ、配信対象の映像の表示態様、自装置と他の端末装置20との位置関係などを検出し、検出した表示態様に対応する分割パターンで分割された分割映像(16分割された分割映像)のうち、自装置の位置に対応する分割映像を受信し、表示部に表示する。
Further, as shown in FIG. 5, when three
このように、配信装置10は、配信対象の映像の表示態様に応じた異なる分割パターンで配信対象の映像を分割した複数の分割映像を生成する。端末装置20は、配信対象の映像を複数の端末装置20で表示する表示態様およびその表示態様における自装置の位置を検出し、検出した表示態様に応じた分割パターンで配信対象の映像が分割された複数の分割映像のうち、自装置の位置に対応する分割映像を受信して表示する。そのため、サーバ装置などを介さずに、複数の端末装置20による配信対象の映像の表示態様に応じてより柔軟な映像の表示が可能となる。
In this way, the
図6A~図6Cは、端末装置20の数に応じた配信対象の映像の再構成パターンの例を示す図である。
6A to 6C are diagrams showing an example of a reconstruction pattern of a video to be distributed according to the number of
図6Aに示す再構成パターン(再構成パターンA)では、配信対象の映像を表示する端末装置20の台数が1台の場合には、端末装置20は、分割されていない配信対象の映像を表示する。配信対象の映像を表示する端末装置20の台数が2-4台である場合には、2×2の格子状配置の表示態様で、各端末装置20が、自装置の位置に対応する分割映像を表示する。また、配信対象の映像を表示する端末装置20の台数が5-16台である場合には、4×4の格子状配置の表示態様で、各端末装置20が、自装置の位置に対応する分割映像を表示する。
In the reconstruction pattern (reconstruction pattern A) shown in FIG. 6A, when the number of
図6Bに示す再構成パターン(再構成パターンB)では、配信対象の映像を表示する端末装置20の台数が1台の場合には、端末装置20は、分割されていない配信対象の映像を表示する。配信対象の映像を表示する端末装置20の台数が2-4台である場合には、2×2の格子状配置の表示態様で、各端末装置20が、自装置の位置に対応する分割映像を表示する。また、配信対象の映像を表示する端末装置20の台数が5-9台である場合には、3×3の格子状配置の表示態様で、各端末装置20が、自装置の位置に対応する分割映像を表示する。また、配信対象の映像を表示する端末装置20の台数が10-16台である場合には、4×4の格子状配置の表示態様で、各端末装置20が、自装置の位置に対応する分割映像を表示する。
In the reconstruction pattern (reconstruction pattern B) shown in FIG. 6B, when the number of
図6Cに示す再構成パターン(再構成パターンC)では、配信対象の映像を表示する端末装置20の台数が1台の場合には、端末装置20は、分割されていない配信対象の映像を表示する。配信対象の映像を表示する端末装置20の台数が2-16台である場合には、4×4の格子状配置の表示態様で、各端末装置20が、自装置の位置に対応する分割映像を表示する。
In the reconstruction pattern (reconstruction pattern C) shown in FIG. 6C, when the number of
このように、配信対象の映像を表示する端末装置20の台数が同じであっても、種々の再構成パターンを設定することができる。分割部11は、マニフェストファイルにおいて、配信対象の映像の分割パターンと共に、配信対象の映像の再構成パターンを指定する。こうすることで、配信側において、所望の再構成パターンで配信対象の映像を表示させることができる。
In this way, even if the number of
また、同じ再構成パターンであっても、各端末装置20が受信する分割映像が異なるようにしてもよい。以下では、同じ再構成パターンでも、各端末装置20が受信する分割映像が異なる場合について、説明する。
Further, even if the reconstruction pattern is the same, the divided video received by each
図7Aは、再構成パターンとして、図6Aを参照して説明した再構成パターンAを用いる場合の、各端末装置20が受信する分割映像を示す図である。図7Aにおいては、配信対象の映像の解像度が下げられた映像と、配信対象の映像を4分割した分割映像と、配信対象の映像を16分割した分割映像とが用意されているとする。また、以下では、再構成パターンの各矩形は、各端末装置20を示しており、各矩形に付された番号は、その矩形に対応する端末装置20が受信する分割映像を示すものとする。
FIG. 7A is a diagram showing a divided image received by each
図6Aを参照して説明したように、再構成パターンAでは、配信対象の映像を表示する端末装置20の台数が2-4台の場合には、2×2の格子状配置の表示態様で、各端末装置20が、自装置の位置に対応する分割映像を表示する。また、配信対象の映像を表示する端末装置20の台数が5-16台の場合には、4×4の格子状配置の表示態様で、各端末装置20が、自装置の位置に対応する分割映像を表示する。
As described with reference to FIG. 6A, in the reconstruction pattern A, when the number of
再構成パターンA1では、図7Aに示すように、配信対象の映像を表示する端末装置20の台数が2-4台の場合には、各端末装置20は、2×2の格子状配置の表示態様で、配信対象の映像が4分割された分割映像の中から、2×2の格子状配置における自装置の位置に対応する分割映像を表示する。また、配信対象の映像を表示する端末装置20の台数が5-16台の場合には、各端末装置20は、4×4の格子状配置の表示態様で、配信対象の映像が16分割された分割映像の中から、4×4の格子状配置における自装置の位置に対応する分割映像を表示する。
In the reconstruction pattern A1, as shown in FIG. 7A, when the number of
再構成パターンA2では、図7Aに示すように、配信対象の映像を表示する端末装置20の台数が2-4台の場合には、各端末装置20は、2×2の格子状配置の表示態様で、配信対象の映像が4分割された分割映像の中から、2×2の格子状配置における自装置の位置に対応する分割映像を表示する。
In the reconstruction pattern A2, as shown in FIG. 7A, when the number of
また、配信対象の映像を表示する端末装置20の台数が5-16台の場合には、各端末装置20は、4×4の格子状配置の表示態様で、配信対象の映像が4分割された分割映像の中から、4×4の格子状配置における自装置の位置に対応する分割映像を表示する。すなわち、端末装置20は、例えば、自装置の位置が、4×4の格子状配置のうち、左上の4台分の位置に当たる場合には、配信対象の映像が4分割された分割映像のうち、右上の分割映像2を受信する。そして、端末装置20は、例えば、自装置の位置が、4×4の格子状配置の内、左上端の位置に当たる場合には、図7Bに示すように、受信した分割映像2のうち、左上の4分の1の部分の映像2Aを表示する。
Further, when the number of
図8は、再構成パターンとして、図6Bを参照して説明した再構成パターンBを用いる場合の、各端末装置20が受信する分割映像を示す図である。図8においては、配信対象の映像の解像度が下げられた映像と、配信対象の映像を4分割した分割映像と、配信対象の映像を9分割した分割映像と、配信対象の映像を16分割した分割映像とが用意されているとする。
FIG. 8 is a diagram showing a divided image received by each
図6Bを参照して説明したように、再構成パターンBでは、配信対象の映像を表示する端末装置20の台数が2-4台の場合には、2×2の格子状配置の表示態様で、各端末装置20が、自装置の位置に対応する分割映像を表示する。また、配信対象の映像を表示する端末装置20の台数が5-9台の場合には、3×3の格子状配置の表示態様で、各端末装置20が、自装置の位置に対応する分割映像を表示する。また、配信対象の映像を表示する端末装置20の台数が10-16台の場合には、4×4の格子状配置の表示態様で、各端末装置20が、自装置の位置に対応する分割映像を表示する。
As described with reference to FIG. 6B, in the reconstruction pattern B, when the number of
再構成パターンB1では、図8に示すように、配信対象の映像を表示する端末装置20の台数が2-4台の場合には、各端末装置20は、2×2の格子状配置の表示態様で、配信対象の映像が4分割された分割映像の中から、2×2の格子状配置における自装置の位置に対応する分割映像を表示する。また、配信対象の映像を表示する端末装置20の台数が5-9台の場合には、各端末装置20は、3×3の格子状配置の表示態様で、配信対象の映像が9分割された分割映像の中から、3×3の格子状配置における自装置の位置に対応する分割映像を表示する。また、配信対象の映像を表示する端末装置20の台数が10-16台の場合には、各端末装置20は、4×4の格子状配置の表示態様で、配信対象の映像が16分割された分割映像の中から、4×4の格子状配置における自装置の位置に対応する分割映像を表示する。
In the reconstruction pattern B1, as shown in FIG. 8, when the number of
再構成パターンB2では、図8に示すように、配信対象の映像を表示する端末装置20の台数が2-4台の場合には、各端末装置20は、2×2の格子状配置の表示態様で、配信対象の映像が4分割された分割映像の中から、2×2の格子状配置における自装置の位置に対応する分割映像を表示する。
In the reconstruction pattern B2, as shown in FIG. 8, when the number of
また、配信対象の映像を表示する端末装置20の台数が5-9台の場合には、左上端、右上端、左下端、右下端に位置する端末装置20は、配信対象の映像が4分割された分割映像の中から、それぞれ対応する位置の分割映像を受信する。すなわち、左上端の端末装置20は、配信対象の映像が4分割された分割映像のうち、左上の分割映像2を受信する。また、右上端の端末装置20は、配信対象の映像が4分割された分割映像のうち、右上の分割映像3を受信する。また、左下端の端末装置20は、配信対象の映像が4分割された分割映像のうち、左下の分割映像4を受信する。また、右下端の端末装置20は、配信対象の映像が4分割された分割映像のうち、右下の分割映像5を受信する。また、その他の端末装置20は、3×3の格子状配置の表示態様で、配信対象の映像が9分割された分割映像の中から、3×3の格子状配置における自装置の位置に対応する分割映像を表示する。左上端、右上端、左下端、右下端に位置する端末装置20はそれぞれ、図7Bと同様に、受信した分割映像のうち、自装置の位置に応じた一部の映像を表示部に表示する。
When the number of
また、配信対象の映像を表示する端末装置20の台数が10-16台の場合には、各端末装置20は、4×4の格子状配置の表示態様で、配信対象の映像が4分割された分割映像の中から、4×4の格子状配置における自装置の位置に対応する分割映像を表示する。すなわち、端末装置20は、例えば、自装置の位置が、4×4の格子状配置のうち、左上の4台分の位置に当たる場合には、配信対象の映像が4分割された分割映像のうち、左上の分割映像2を受信する。そして、端末装置20は、例えば、自装置の位置が、4×4の格子状配置の内、左上端の位置に当たる場合には、図7Bと同様に、受信した分割映像のうちの一部(左上の4分の1の部分)の映像を表示部に表示する。
Further, when the number of
図9は、再構成パターンとして、図6Cを参照して説明した再構成パターンCを用いる場合の、各端末装置20が受信する分割映像を示す図である。図9においては、配信対象の映像の解像度が下げられた映像と、配信対象の映像を4分割した分割映像と、配信対象の映像を16分割した分割映像とが用意されているとする。
FIG. 9 is a diagram showing a divided image received by each
図6Cを参照して説明したように、再構成パターンCでは、配信対象の映像を表示する端末装置20の台数が2-16台の場合には、4×4の格子状配置の表示態様で、各端末装置20が、自装置の位置に対応する分割映像を表示する。
As described with reference to FIG. 6C, in the reconstruction pattern C, when the number of
再構成パターンC1では、図9に示すように、配信対象の映像を表示する端末装置20の台数が2-16台の場合には、各端末装置20は、4×4の格子状配置の表示態様で、配信対象の映像が16分割された分割映像の中から、4×4の格子状配置における自装置の位置に対応する分割映像を表示する。
In the reconstruction pattern C1, as shown in FIG. 9, when the number of
再構成パターンC2では、図9に示すように、配信対象の映像を表示する端末装置20の台数が2-16台の場合には、各端末装置20は、4×4の格子状配置の表示態様で、配信対象の映像が4分割された分割映像の中から、4×4の格子状配置における自装置の位置に対応する分割映像を表示する。すなわち、端末装置20は、例えば、自装置の位置が、4×4の格子状配置のうち、左上の4台分の位置に当たる場合には、配信対象の映像が4分割された分割映像のうち、左上の分割映像2を受信する。そして、端末装置20は、例えば、自装置の位置が、4×4の格子状配置の内、左上端の位置に当たる場合には、図7Bと同様に、受信した分割映像のうちの一部(左上の4分の1の部分)の映像を表示部に表示する。
In the reconstruction pattern C2, as shown in FIG. 9, when the number of
図7Aを参照して説明したように、再構成パターンA2では、配信対象の映像を表示する端末装置20の台数が5-16台である場合には、配信対象の映像が4分割された分割映像が用いられる。また、図8を参照して説明したように、再構成パターンB2では、配信対象の映像を表示する端末装置20の台数が10-16台である場合には、配信対象の映像が4分割された分割映像が用いられる。また、再構成パターンC2では、映像を表示する端末装置20の台数が2-16台である場合には、配信対象の映像が4分割された分割映像が用いられる。すなわち、これらの再構成パターンA2,B2,C2では、配信対象の映像を16分割した分割映像を用意する必要がない。したがって、分割部11が生成する分割グループを減らし、処理負荷、分割映像を記憶する記憶容量などの削減を図ることができる。
As described with reference to FIG. 7A, in the reconstruction pattern A2, when the number of
このように、分割部11は、配信対象の映像を表示する端末装置20の台数よりも少ない分割数で配信対象の映像を分割してもよい。すなわち、分割部11は、分割映像が1台の端末装置20で表示される映像よりも大きくなるような分割パターンで配信対象の映像を分割してもよい。この場合、再構成部23は、同期部22が検出した自装置の位置に応じて、受信部21が受信した分割映像における一部の映像を表示部に表示する。すなわち、再構成部23は、受信部21が受信した分割映像の一部をトリミングして表示部に表示する。こうすることで、分割部11が生成する分割グループの数を減らすことができる。
In this way, the
なお、例えば、図9に示す再構成パターンC2の場合、端末装置20は、自装置で映像を表示するサイズの4倍のサイズの分割映像を受信する。端末装置20は、その4倍のサイズの分割映像のトリミングを行う。この場合、端末装置20は、Landscape表示(横向き表示)を行うために横向きに配置するだけでなく、Portrait表示(縦向き表示)を行うために縦向きに配置することも可能である。したがって、図10A,10Bに示すように、縦向きの端末装置20と横向きの端末装置20とを組み合わせて配置して、配信対象の映像を表示することも可能である。なお、図10Aにおいては、配信対象の映像を表示する端末装置20の台数が4台である例を示している。また、図10Bにおいては、配信対象の映像を表示する端末装置20の台数が10台である例を示している。
For example, in the case of the reconstruction pattern C2 shown in FIG. 9, the
また、分割映像が1台の端末装置20で表示される映像よりも大きくなるような分割パターンで配信対象の映像が分割されている場合、再構成部23は、同期部22が検出した自装置の向きに応じて、受信部21が受信した分割映像における一部の映像を表示部に表示するようにしてもよい。すなわち、再構成部23は、図11に示すように、端末装置20が横向きの場合には(Landscape表示を行う場合には)、分割映像のうち、横向き(横長)の一部の映像(斜線を付した部分)を表示部に表示し、端末装置20が縦向きの場合には(Portrait表示を行う場合には)、縦向き(縦長)の一部の映像(斜線を付した部分)を表示部に表示視してもよい。
Further, when the video to be distributed is divided by a division pattern such that the divided video is larger than the video displayed by one
また、分割部11が生成するマニフェストファイルには、図12に示すように、配信されたコンテンツを表示する複数の端末装置20のうち、その複数の端末装置20による表示態様における特定の位置の端末装置20に音声出力をさせるような指示が含まれていてもよい。図12の例では、4×4の格子状に配置された端末装置20のうち、左上端の端末装置20と、左から三番目上から三番目の端末装置20とが音声出力をしている例を示している。
Further, as shown in FIG. 12, in the manifest file generated by the
次に、端末装置20による、自装置と他の端末装置20との相対的な位置関係の決定方法について説明する。
Next, a method of determining the relative positional relationship between the own device and another
図13は、端末装置20における、他の端末装置20との相対的な位置関係の決定に係る構成例を示す図である。
FIG. 13 is a diagram showing a configuration example relating to the determination of the relative positional relationship between the
図13に示す端末装置20は、検出部24と、共有部25と、決定部26とを備える。検出部24、共有部25および決定部26は、例えば、同期部22を構成する。
The
検出部24は、端末装置20が備えるタッチセンサ27、種々のセンサからなるセンサ部28およびカメラ部29などを用いて、自装置と他の端末装置20との相対的な位置関係を決定するために利用可能な情報、自装置での配信対象の映像の表示に関する情報など種々の情報(以下、準備情報と称する)を収集する。ここで、検出部24は、ネットワーク2へのアクセスを必須とせずに自装置で収集可能な範囲で準備情報を収集する。
The
検出部24が収集する情報としては、自装置のローカル時刻、自装置が備える表示部の画面サイズ、自装置の向く方位など種々の情報が含まれる。検出部24は、収集した準備情報を共有部25に出力する。
The information collected by the
共有部25は、他の端末装置20と、Wifi(登録商標)、Bluetooth(登録商標)などの近距離無線通信を行い、グループを構成する。ここで、共有部25は、ネットワーク2に接続された外部サーバなどを介さずに、近距離無線通信により通信可能な他の端末装置20とグループを構成する。共有部25は、検出部24から出力された準備情報をグループを構成する他の端末装置20に送信するとともに、グループを構成する他の端末装置20から準備情報を受信する。すなわち、共有部25は、グループを構成する他の端末装置20と準備情報を共有する。以下では、グループを構成する端末装置20間で共有された準備情報の集合を、相互位置情報と称することがある。共有部25は、相互位置情報を決定部26に出力する。また、共有部25は、検出部24により自装置の位置の変更、自装置の回転などが検出される(準備情報が更新される)と、更新後の準備情報を他の端末装置20と共有して、相互位置情報を更新する。
The
なお、共有部25は、予め定められた事前ルールに基づき、準備情報の共有処理を制限してもよい。例えば、共有部25は、N台以上での準備情報の共有を認めない、表示部の画面サイズ、アスペクト比などが異なる端末装置20との共有を認めない、などの制限を加えてもよい。また、共有部25は、準備情報の変更の有無の検知の頻度を調整してもよい。
In addition, the
決定部26は、共有部25から出力された相互位置情報に基づき、グループを構成する他の端末装置20との間で同期をとる。また、決定部26は、共有部25から出力された相互位置情報に基づき、自装置とともにグループを構成する他の端末装置20との相対的な位置関係(自装置の位置(格子状座標))を決定する。
The
決定部26は、例えば、グループへの追加の順序、各端末装置20のローカル時刻の中央値などに基づき同期の基準となる端末装置20を決定し、その基準となる端末装置20のローカル時刻と自装置のローカル時刻との差分をとるなどして、グループを構成する他の端末装置20との間で同期をとる。
The
次に、決定部26による他の端末装置20との相対的な位置関係の決定方法について説明する。
Next, a method of determining the relative positional relationship with the other
他の端末装置20との相対的な位置関係の決定方法の1つとして、端末装置20が備えるタッチセンサ27のタッチ面へのタッチ操作を用いる方法(第1の方法)がある。また、別の決定方法として、端末装置20が備える種々のセンサからなるセンサ部28およびカメラ部29を用いる方法(第2の方法)がある。近年、スマートフォン、タブレット端末などの端末装置20の多くには、指、スタイラスペンなどによるタッチ面に対するタッチ操作によるタッチ位置を検出するタッチセンサ27が搭載されている。決定部26は、このタッチ面へのタッチ操作に基づき、自装置の位置を決定することができる。また、近年、スマートフォン、タブレット端末などの端末装置20の多くには、端末装置20の姿勢の検出などに用いられる種々のセンサからなるセンサ部28およびカメラ部29が搭載されている。決定部26は、センサ部28の検出結果およびカメラ部29により撮像された撮影画像に基づき、自装置の位置を決定することができる。以下では、まず第1の方法について説明する。
As one of the methods for determining the relative positional relationship with the other
第1の方法では、検出部24は、タッチセンサ27のタッチ面に対するタッチ操作によるタッチを検出する。そして、検出部24は、タッチ位置をスライドさせるスライド操作により、タッチ面内において、タッチ面の外縁に沿って設定された複数の外縁領域の少なくとも1つがタッチされた場合、タッチされた外縁領域およびその外縁領域へのタッチのタイミング(時刻など)を示すセンサ情報を生成し、共有部25に出力する。
In the first method, the
図14は、端末装置20が備えるタッチ面27aにおける外縁領域の設定の一例を示す図である。
FIG. 14 is a diagram showing an example of setting an outer edge region on the
通常、タッチ面27aは、端末装置20が備える表示部に重畳して設けられており、その形状は矩形(長方形)であることが一般的である。外縁領域は、タッチ面27a内において、タッチ面27aの外縁に沿って複数設定されている。図14においては、タッチ面27aの上端に沿って外縁領域27T(Top)が設定され、タッチ面27aの右端に沿って外縁領域27R(Right)が設定され、タッチ面27aの下端に沿って外縁領域27B(Bottom)が設定され、タッチ面27aの左端に沿って外縁領域27L(Left)が設けられている例を示している。
Usually, the
図15は、複数の端末装置20が平面上に配置され、隣接する端末装置20に跨るようにタッチ操作が行われた状態を示す図である。図15においては、端末装置20-1~20-4が横向きに、2×2の格子状に配置されているとする。そして、左上に配置された端末装置20-1から左下に配置された端末装置20-3に跨るタッチ操作(タッチ操作1)、左上に配置された端末装置20-1から右上に配置された端末装置20-2に跨るタッチ操作(タッチ操作2)、および、右上に配置された端末装置20-2から右下に配置された端末装置20-4に跨るタッチ操作(タッチ操作3)が行われたとする。
FIG. 15 is a diagram showing a state in which a plurality of
タッチ操作1により、端末装置20-1の検出部24は、外縁領域27Lがタッチされたこと、および、外縁領域27Lがタッチされたタイミングを示すセンサ情報を生成する。また、端末装置20-3の検出部24は、外縁領域27Rがタッチされたこと、および、外縁領域27Rがタッチされたタイミングを示すセンサ情報を生成する。ここで、端末装置20-3の検出部24が生成するセンサ情報に示されるタイミング(外縁領域27Rがタッチされたタイミング)は、端末装置20-1の検出部24が生成するセンサ情報に示されるタイミング(外縁領域27Lがタッチされたタイミング)の直後である。したがって、これらのセンサ情報から、端末装置20-1,20-3が、端末装置20-1の左端と端末装置20-3の右端とが接するように配置されていることが分かる。
By the
タッチ操作2により、端末装置20-1の検出部24は、外縁領域27Bがタッチされたこと、および、外縁領域27Bがタッチされたタイミングを示すセンサ情報を生成する。また、端末装置20-2の検出部24は、外縁領域27Tがタッチされたこと、および、外縁領域27Tがタッチされたタイミングを示すセンサ情報を生成する。ここで、端末装置20-2の検出部24が生成するセンサ情報に示されるタイミング(外縁領域27Tがタッチされたタイミング)は、端末装置20-1の検出部24が生成するセンサ情報に示されるタイミング(外縁領域27Bがタッチされたタイミング)の直後である。したがって、これらのセンサ情報から、端末装置20-1,20-2が、端末装置20-1の下端と端末装置20-2の上端とが接するように配置されていることが分かる。
By the
タッチ操作3により、端末装置20-2の検出部24は、外縁領域27Lがタッチされたこと、および、外縁領域27Lがタッチされたタイミングを示すセンサ情報を生成する。また、端末装置20-4の検出部24は、外縁領域27Rがタッチされたこと、および、外縁領域27Rがタッチされたタイミングを示すセンサ情報を生成する。ここで、端末装置20-4の検出部24が生成するセンサ情報に示されるタイミング(外縁領域27Rがタッチされたタイミング)は、端末装置20-2の検出部24が生成するセンサ情報に示されるタイミング(外縁領域27Lがタッチされたタイミング)の直後である。したがって、これらのセンサ情報から、端末装置20-2,20-4が、端末装置20-2の左端と端末装置20-4の右端とが接するように配置されていることが分かる。
By the
このように、検出部24は、各端末装置20のタッチ面27aの外縁に沿って設定された複数の外縁領域のいずれかがタッチされると、タッチされた外縁領域およびその外縁領域がタッチされたタイミングを示すセンサ情報を生成する。共有部25は、検出部24が生成したセンサ情報を他の端末装置20に送信すると共に、他の端末装置20からセンサ情報を受信する。そして、決定部26は、共有部25が他の端末装置20との間で送受信したセンサ情報に基づき、自装置と他の端末装置20との相対的な位置関係を決定する。
As described above, when any one of the plurality of outer edge regions set along the outer edge of the
第1の方法では、各端末装置20へのタッチ操作(隣接する端末装置20に跨るスライド操作)だけで、端末装置20間の位置関係を決定することができる。したがって、ネットワーク2に接続された外部サーバなどを用いることなく、端末装置20が自律的に、自装置と他の端末装置20との相対的な位置関係を決定することができる。
In the first method, the positional relationship between the
なお、図14においては、タッチ面27aの四辺にそれぞれ、1つの外縁領域を設ける例を用いて説明したが、これに限られるものではない。タッチ面の四辺の少なくとも一辺に沿って複数の外縁領域を設定してもよい。
In FIG. 14, an example in which one outer edge region is provided on each of the four sides of the
図16は、タッチ面27aの一辺に複数の外縁領域を設定した例を示す図である。図16においては、端末装置20-5のタッチ面27aの右端に沿って、2つの外縁領域27RT,27RDが設定されている例を示している。外縁領域27RTは、タッチ面27a内において、タッチ面27aの右端に沿って、タッチ面27aの上端から下端に向かって、略半分の位置まで延在する。また、外縁領域27RDは、タッチ面27aにおいて、タッチ面の右端に沿って、タッチ面27aの下端から上端に向かって、略半分の位置まで延在する。
FIG. 16 is a diagram showing an example in which a plurality of outer edge regions are set on one side of the
図16に示すように、端末装置20-5は縦向きに配置され、端末装置20-6は横向きに、端末装置20-6の下端が端末装置20-5の右端下側に接するように配置されている場合に、端末装置20-5から端末装置20-6に跨るようにスライド操作が行われたとする。この場合、端末装置20-5の検出部24は、外縁領域27RDがタッチされたこと、および、外縁領域27RDがタッチされたタイミングを示すセンサ情報を生成する。また、端末装置20-6の検出部24は、外縁領域27Tがタッチされたこと、および、外縁領域27Tがタッチされたタイミングを示すセンサ情報を生成する。ここで、端末装置20-6の検出部24が生成するセンサ情報に示されるタイミング(外縁領域27Tがタッチされたタイミング)は、端末装置20-5の検出部24が生成するセンサ情報に示されるタイミング(外縁領域27RDがタッチされたタイミング)の直後である。したがって、これらのセンサ情報から、端末装置20-5,20-6が、端末装置20-5の右端下側と端末装置20-4の上端とが接するように配置されていることが分かる。
As shown in FIG. 16, the terminal device 20-5 is arranged vertically, the terminal device 20-6 is arranged horizontally, and the lower end of the terminal device 20-6 is arranged so as to be in contact with the lower right end of the terminal device 20-5. If this is the case, it is assumed that the slide operation is performed so as to straddle the terminal device 20-6 from the terminal device 20-5. In this case, the
このように、タッチ面27aの一辺に沿って複数の外縁領域を設けることで、他の端末装置20との相対的な位置関係をより正確に検出することができる。
In this way, by providing a plurality of outer edge regions along one side of the
次に、第2の方法について説明する。 Next, the second method will be described.
上述したように、スマートフォン、タブレット端末などの端末装置20の多くには、端末装置20の姿勢などを検出するために、加速度センサ、ジャイロセンサ、地磁気センサなどの各種のセンサが搭載されている。そして、近年、端末装置20の中には、これらのセンサを利用して、図17に示すように、仮想的に三次元空間での相対座標系を設定し、その相対座標系の原点(基準位置)からの端末装置20の移動距離および移動の向きを検出する機能を備えるものがある。検出部24は、端末装置20が備えるセンサ部28の検出結果から、三次元空間での相対座標系における端末装置20の移動距離および移動の向きをセンサ情報として検出する。第2の方法においては、端末装置20は、このセンサ情報を他の端末装置20と交換することで、自装置と他の端末装置20との相対的な位置関係を検出する。このとき、各端末装置20で相対座標系の軸がずれないように地磁気センサなどを用いて、座標軸を揃えておく必要がある。
As described above, many of the
具体的には、まず、ユーザにより、図18に示すように、2台の端末装置20-7,20-8が、表示部が上方向を向くようにして重ね合わされる。近年の端末装置20の多くには、表示部がユーザに向けられた状態で、ユーザに向かって配置されたカメラ(フロントカメラ)が搭載されている。したがって、下側の端末装置20-7のカメラ部29は、上側の端末装置20-8により覆われる。そのため、端末装置20-7のカメラ部29により撮像された撮影画像は、暗くなる。端末装置20-7の検出部24は、カメラ部29により撮像された撮影画像より、自装置の上側に他の端末装置20が重ね合わせられたことを検出する。すなわち、端末装置20-7の検出部24は、端末装置20の一面に配置されたカメラ部29により撮像された撮影画像に基づき、端末装置20の一面(カメラ部29が配置された面)に他の端末装置20が重ね合わされたことを検出する。
Specifically, first, as shown in FIG. 18, the user superimposes the two terminal devices 20-7 and 20-8 so that the display unit faces upward. Many of the
端末装置20-7は、自装置の上側に他の端末装置20が重ね合わせられたことを検出すると、例えば、その旨を近距離無線通信により付近の端末装置20に通知する。上側の端末装置20-8の検出部24は、下側の端末装置20-7から他の端末装置20が上側に重ね合わせられた旨の通知を受けると、その通知の前後でセンサ部28の検出結果から自装置が移動していると判定した場合には、自装置が端末装置20-7の上側に重ね合わせられたと検出する。また、端末装置20-8の検出部24は、所定の操作(例えば、タッチ面へのタッチ操作)の入力により、自装置が端末装置20-7の上側に重ね合わせられたことを検出してもよい。
When the terminal device 20-7 detects that another
共有部25は、自装置と他の端末装置20とが重ね合わせられたことを検出すると(自装置と他の端末装置20との重ね合わせに応じて)、その他の端末装置20と近距離無線通信を行い、検出部24で設定された三次元空間での相対座標系に関する情報を送受信して、三次元空間での相対座標系を一致させる(原点を一致させる)。例えば、上側の端末装置20の共有部25が、自装置において設定されている三次元空間での相対座標系を、下側の端末装置20において設定されている三次元空間での相対座標系に一致させる。
When the shared
端末装置20-8の決定部26は、図18に示すように、下側の端末装置20-7との三次元空間での相対座標の一致後に、端末装置20-8が移動すると、検出部24により検出された自装置の移動距離および移動方向に基づき、下側に配置された他の端末装置20-7との相対的な位置関係を決定する。
As shown in FIG. 18, the
すなわち、第2の方法においては、各端末装置20は、自装置が備える各種センサにより相対座標系を算出(設定)する。次に、各端末装置20は、地磁気センサなどを用いて、設定した相対座標系の軸をそろえる。次に、端末装置20同士の重ね合わせにより、設定した座標系の原点を重ね合わせられた端末装置20間で一致させる。次に、端末装置20は、自装置が移動すると、設定した相対座標系での位置(移動方向および移動距離)を検出する。
That is, in the second method, each
決定部26は、予め定められた事前ルールに基づき、配信対象の映像を表示する端末装置20の数に対応する座標数に応じた格子状配置における自装置の位置(座標)を決定する。事前ルールとしては、例えば、図19に示すように、最大で16台の端末装置20で配信対象の映像が表示される場合に、グループを構成する端末装置20の数が16台に満たなければ、できるだけ配信対象の映像の中央部分の分割映像が表示されるように、自装置の位置を決定するというルールが考えられる。なお、決定部26は、例えば、グループを構成する端末装置20の数を、配信対象の映像を表示する端末装置20として、自装置の位置を決定する。また、グループを構成する端末装置20の数は、ユーザにより端末装置20に入力されてもよい。
The
また、決定部26は、所定の操作入力、例えば、タッチ面27aへのタッチ操作により、自装置が他の端末装置20とともに形成するグループから除外されたと判定してもよい。また、決定部26は、検出部24の検出結果から、自装置が他の端末装置20と共に配置された平面から所定距離以上離れたことを検出すると、自装置が他の端末装置20とともに形成するグループから除外されたと判定してもよい。なお、第1の方法においても、決定部26は、同様にして、所定の操作入力、自装置が他の端末装置20と共に配置された平面上または立体表面上から所定距離以上離れたことなどに基づき、グループから除外されたと判定してもよい。
Further, the
また、端末装置20の配置方法として、Landscape表示を行う横向きの配置およびPortrait表示を行う縦向きの配置のいずれか一方に固定してもよい。また、配信対象の映像を表示する端末装置20の数に応じて、Landscape表示を行う端末装置20の数と、Portrait表示を行う端末装置20の数とを変動させてもよい。
Further, as a method of arranging the
また、各端末装置20ごとに、Landscape表示およびPortrait表示のいずれか一方、あるいは、Landscape表示およびPortrait表示の両方を行わせるかを、事前ルールとして予め決めておいてもよい。Landscape表示およびPortrait表示の両方を行う場合、例えば、図20に示すように、端末装置20は、Landscape表示を行うか、Portrait表示を行うかに応じて、分割映像のうち、異なる部分を表示部に表示するようにしてもよい。
Further, it may be determined in advance as a pre-rule whether to display either the Landscape display or the Portrait display or both the Landscape display and the Portrait display for each
このように本実施形態によれば、端末装置20は、タッチ面27aに対するタッチ操作によるタッチ位置を検出し、タッチ位置をスライドさせるスライド操作により、タッチ面27a内において、タッチ面27aの外縁に沿って設定された複数の外縁領域の少なくとも1つがタッチされた場合、タッチされた外縁領域およびその外縁領域がタッチされたタイミングを示すセンサ情報を生成する検出部24と、他の端末装置20との直接通信により、検出部24により生成されたセンサ情報を他の端末装置20に送信するとともに、他の端末装置20からセンサ情報を受信する共有部25と、共有部25が他の端末装置20との間で送受信したセンサ情報に基づき、自装置と他の端末装置20との相対的な位置関係を決定する決定部26と、を備える。
As described above, according to the present embodiment, the
直接通信により、他の端末装置20との間でセンサ情報を送受信し、そのセンサ情報に基づき、自装置と他の端末装置20との相対的な位置関係を決定することで、外部サーバなどを介さずに、自律的に自装置と他の端末装置との相対的な位置関係を決定することができる。
By sending and receiving sensor information to and from another
また、本実施形態によれば、端末装置20は、基準位置からの三次元空間での相対座標系における自装置の移動距離および移動方向を検出する検出部24と、自装置と他の端末装置20との重ね合わせに応じて、他の端末装置20との間で直接通信により三次元空間での相対座標系に関する情報を送受信して、他の端末装置20との間で相対座標系を一致させる共有部25と、共有部25による相対座標系の一致後に検出部24により検出された自装置の移動距離および移動方向に基づき他の端末装置20との相対的な位置関係を決定する決定部26と、を備える。
Further, according to the present embodiment, the
他の端末装置20との重ね合わせに応じて、他の端末装置20との直接通信により、三次元空間での相対座標系に関する情報を送受信して、他の端末装置20と間で相対座標系を一致させ、相対座標系の一致後の自装置の移動距離および移動方向に基づき、自装置と他の端末装置20との相対的な位置関係を決定することで、外部サーバなどを介さずに、自律的に自装置と他の端末装置との相対的な位置関係を決定することができる。
Information about the relative coordinate system in the three-dimensional space is transmitted and received by direct communication with the other
上述の実施形態は代表的な例として説明したが、本発明の趣旨および範囲内で、多くの変更および置換が可能であることは当業者に明らかである。したがって、本発明は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば、実施形態の構成図に記載の複数の構成ブロックを1つに組み合わせたり、あるいは1つの構成ブロックを分割したりすることが可能である。 Although the above embodiments have been described as representative examples, it will be apparent to those skilled in the art that many modifications and substitutions are possible within the spirit and scope of the invention. Therefore, the present invention should not be construed as being limited by the above-described embodiments, and various modifications and modifications can be made without departing from the scope of claims. For example, it is possible to combine a plurality of the constituent blocks described in the configuration diagram of the embodiment into one, or to divide one constituent block into one.
1 映像表示システム
2 ネットワーク
10 配信装置
11 分割部
12 配信部
20,20-1~20-8 端末装置
21 受信部
22 同期部
23 再構成部
24 検出部
25 共有部
26 決定部
27 タッチセンサ
27a タッチ面
27T,27R,27B,27L,27RT,27RD 外縁領域
28 センサ部
29 カメラ部
1
Claims (3)
タッチ面に対するタッチ操作によるタッチ位置を検出し、前記タッチ位置をスライドさせるスライド操作により、前記タッチ面内において、前記タッチ面の外縁に沿って設定された複数の外縁領域の少なくとも1つがタッチされた場合、該タッチされた外縁領域および該外縁領域がタッチされたタイミングを示すセンサ情報を生成する検出部と、
前記他の端末装置との直接通信により、前記検出部により生成されたセンサ情報を前記他の端末装置に送信するとともに、前記他の端末装置から前記センサ情報を受信する共有部と、
自装置と前記他の端末装置との同期をとるとともに、前記共有部が前記他の端末装置との間で送受信したセンサ情報に基づき、自装置と前記他の端末装置との相対的な位置関係を決定する決定部と、を備え、
前記検出部は、自装置と前記他の端末装置とのローカル時刻の差分をさらに検出し、
前記決定部は、自装置および前記他の端末装置の中で基準となる端末装置と自装置とのローカル時刻の差分に基づき、自装置と他の端末装置との同期をとり、
前記決定部は、配信対象の映像を分割した複数の分割映像を生成し、前記複数の分割映像それぞれの格納場所を示す情報を含むマニフェストファイルを生成する配信装置から、前記マニフェストファイルを取得し、前記決定した自装置と他の端末装置との相対的な位置関係に基づく、自装置の位置に対応する分割映像を、前記マニフェストファイルに基づいて取得し、
前記決定部により取得された分割映像を自装置が備える表示部に表示する再構成部をさらに備えることを特徴とする端末装置。 It is a terminal device that determines the relative positional relationship with other terminal devices arranged on a plane or a three-dimensional surface together with the own device.
By the slide operation of detecting the touch position by the touch operation with respect to the touch surface and sliding the touch position, at least one of a plurality of outer edge regions set along the outer edge of the touch surface is touched in the touch surface. In the case, a detection unit that generates sensor information indicating the touched outer edge region and the timing at which the outer edge region is touched, and
By direct communication with the other terminal device, the sensor information generated by the detection unit is transmitted to the other terminal device, and the shared unit receives the sensor information from the other terminal device.
The relative positional relationship between the own device and the other terminal device based on the sensor information transmitted and received by the shared unit between the own device and the other terminal device while synchronizing the own device with the other terminal device. With a decision-making part to decide,
The detection unit further detects the difference in local time between the own device and the other terminal device, and further detects the difference.
The determination unit synchronizes the own device with the other terminal device based on the difference in the local time between the own device and the own device as a reference among the own device and the other terminal device .
The determination unit acquires the manifest file from a distribution device that generates a plurality of divided videos obtained by dividing the video to be distributed and generates a manifest file including information indicating the storage location of each of the plurality of divided videos. Based on the manifest file, the divided video corresponding to the position of the own device based on the relative positional relationship between the own device and the other terminal device determined is acquired.
A terminal device further comprising a reconstructing unit that displays a divided image acquired by the determination unit on a display unit included in the own device.
前記タッチ面は、矩形であり、
前記外縁領域は、前記矩形のタッチ面の四辺それぞれに対応して設けられていることを特徴とする端末装置。 In the terminal device according to claim 1,
The touch surface is rectangular and has a rectangular shape.
The terminal device is characterized in that the outer edge region is provided corresponding to each of the four sides of the rectangular touch surface.
前記タッチ面の四辺のうち、少なくとも一辺に沿って、複数の外縁領域が設けられていることを特徴とする端末装置。 In the terminal device according to claim 2,
A terminal device characterized in that a plurality of outer edge regions are provided along at least one of the four sides of the touch surface.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017242037A JP7075202B2 (en) | 2017-12-18 | 2017-12-18 | Terminal device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017242037A JP7075202B2 (en) | 2017-12-18 | 2017-12-18 | Terminal device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019109694A JP2019109694A (en) | 2019-07-04 |
JP7075202B2 true JP7075202B2 (en) | 2022-05-25 |
Family
ID=67179840
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017242037A Active JP7075202B2 (en) | 2017-12-18 | 2017-12-18 | Terminal device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7075202B2 (en) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004064123A (en) | 2002-07-24 | 2004-02-26 | Denso Corp | Network communication system and control processing system using this network communication system |
JP2011048610A (en) | 2009-08-27 | 2011-03-10 | Jvc Kenwood Holdings Inc | Image display system and image display method |
JP2011223060A (en) | 2010-04-02 | 2011-11-04 | Mitsubishi Electric Corp | Information display system, information content distribution server, and display device |
JP2011237532A (en) | 2010-05-07 | 2011-11-24 | Nec Casio Mobile Communications Ltd | Terminal device, terminal communication system and program |
US20120139939A1 (en) | 2009-03-19 | 2012-06-07 | Microsoft Corporation | Dual Module Portable Devices |
JP2012133068A (en) | 2010-12-21 | 2012-07-12 | Yahoo Japan Corp | Multi-display system, terminal, method and program |
JP2012169739A (en) | 2011-02-10 | 2012-09-06 | Nippon Telegr & Teleph Corp <Ntt> | Video division reproduction method, video reproduction method, video division reproduction system and video division reproduction program |
JP2013246583A (en) | 2012-05-24 | 2013-12-09 | Buffalo Inc | Information processing system, server device, information processing method, and program |
JP2014123252A (en) | 2012-12-21 | 2014-07-03 | Ntt Docomo Inc | Communication terminal, screen display method, and program |
JP2015079480A (en) | 2013-09-13 | 2015-04-23 | 株式会社リコー | Distribution system and terminal management system |
US20160349893A1 (en) | 2015-05-28 | 2016-12-01 | Konica Minolta, Inc. | Operation display system, operation display apparatus, and operation display program |
JP2017050609A (en) | 2015-08-31 | 2017-03-09 | 沖電気工業株式会社 | Video processing system, video processing apparatus, video processing program, and video processing method |
-
2017
- 2017-12-18 JP JP2017242037A patent/JP7075202B2/en active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004064123A (en) | 2002-07-24 | 2004-02-26 | Denso Corp | Network communication system and control processing system using this network communication system |
JP2012521043A (en) | 2009-03-19 | 2012-09-10 | マイクロソフト コーポレーション | Dual module portable device |
US20120139939A1 (en) | 2009-03-19 | 2012-06-07 | Microsoft Corporation | Dual Module Portable Devices |
JP2011048610A (en) | 2009-08-27 | 2011-03-10 | Jvc Kenwood Holdings Inc | Image display system and image display method |
JP2011223060A (en) | 2010-04-02 | 2011-11-04 | Mitsubishi Electric Corp | Information display system, information content distribution server, and display device |
JP2011237532A (en) | 2010-05-07 | 2011-11-24 | Nec Casio Mobile Communications Ltd | Terminal device, terminal communication system and program |
JP2012133068A (en) | 2010-12-21 | 2012-07-12 | Yahoo Japan Corp | Multi-display system, terminal, method and program |
JP2012169739A (en) | 2011-02-10 | 2012-09-06 | Nippon Telegr & Teleph Corp <Ntt> | Video division reproduction method, video reproduction method, video division reproduction system and video division reproduction program |
JP2013246583A (en) | 2012-05-24 | 2013-12-09 | Buffalo Inc | Information processing system, server device, information processing method, and program |
JP2014123252A (en) | 2012-12-21 | 2014-07-03 | Ntt Docomo Inc | Communication terminal, screen display method, and program |
US20150294645A1 (en) | 2012-12-21 | 2015-10-15 | Ntt Docomo, Inc. | Communication terminal, screen display method, and recording medium |
JP2015079480A (en) | 2013-09-13 | 2015-04-23 | 株式会社リコー | Distribution system and terminal management system |
US20160349893A1 (en) | 2015-05-28 | 2016-12-01 | Konica Minolta, Inc. | Operation display system, operation display apparatus, and operation display program |
JP2016225762A (en) | 2015-05-28 | 2016-12-28 | コニカミノルタ株式会社 | Operation display system, operation display device and operation display program |
JP2017050609A (en) | 2015-08-31 | 2017-03-09 | 沖電気工業株式会社 | Video processing system, video processing apparatus, video processing program, and video processing method |
Also Published As
Publication number | Publication date |
---|---|
JP2019109694A (en) | 2019-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210127061A1 (en) | Image management system, image management method, and computer program product | |
EP2981883B1 (en) | Method and apparatus for creating a multi-device media presentation | |
US11550531B2 (en) | System and method to increase display area utilizing a plurality of discrete displays | |
EP3004803B1 (en) | A method and apparatus for self-adaptively visualizing location based digital information | |
JP2015018296A (en) | Display controller, program, and recording medium | |
KR20130081068A (en) | Method and apparatus for implementing multi-vision system using multiple portable terminals | |
KR20190136117A (en) | Virtual Three Dimensional Video Creation and Management System and Method | |
JP7249755B2 (en) | Image processing system, its control method, and program | |
US20140344053A1 (en) | Electronic device and method for manipulating the same | |
CN103414950A (en) | Interface display method, device, set top box and server | |
JP2013218468A (en) | Information processing system, display terminal device, server, information processing method, and program | |
JP7075202B2 (en) | Terminal device | |
CN107851069B (en) | Image management system, image management method, and program | |
JP7054338B2 (en) | Video display system, distribution device and terminal device | |
JP2013135422A (en) | Image synthesizing apparatus, terminal device, image synthesizing system, and program | |
US20170011064A1 (en) | Methods and Apparatus for Sending or Receiving an Image | |
JP2021089382A (en) | Electronic apparatus, method for controlling electronic apparatus, program, and storage medium | |
KR20200116378A (en) | Apparatus and method for displaying videoes of a plurality of broadcast channels | |
JP2017108356A (en) | Image management system, image management method and program | |
US20170026688A1 (en) | Terminal device, video display method, and program | |
US10219025B2 (en) | Video distribution device, video distribution method, and program | |
Chen et al. | AR-Span: A Multi-Screen Adaptive Displaying System Using Smart Handheld Devices Based on Mobile Networks | |
US9305514B1 (en) | Detection of relative positions of tablet computers | |
KR101849384B1 (en) | 3D image display system | |
US20220164154A1 (en) | Virtual playout screen for visual media using arrangement of mobile electronic devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201027 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210812 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210817 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210924 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220316 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220419 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220513 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7075202 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |