JP7075202B2 - Terminal device - Google Patents

Terminal device Download PDF

Info

Publication number
JP7075202B2
JP7075202B2 JP2017242037A JP2017242037A JP7075202B2 JP 7075202 B2 JP7075202 B2 JP 7075202B2 JP 2017242037 A JP2017242037 A JP 2017242037A JP 2017242037 A JP2017242037 A JP 2017242037A JP 7075202 B2 JP7075202 B2 JP 7075202B2
Authority
JP
Japan
Prior art keywords
terminal device
video
divided
distributed
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017242037A
Other languages
Japanese (ja)
Other versions
JP2019109694A (en
Inventor
喬輔 神戸
和也 藤澤
美加 金谷
悠 増渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2017242037A priority Critical patent/JP7075202B2/en
Publication of JP2019109694A publication Critical patent/JP2019109694A/en
Application granted granted Critical
Publication of JP7075202B2 publication Critical patent/JP7075202B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、端末装置に関する。 The present invention relates to a terminal device.

8K-SHVに代表されるような超高精細な高解像度映像のコンテンツ(高解像度映像コンテンツ)が普及しつつある。このような高解像度映像コンテンツには、高い再現性が得られる、本物を見ているような立体感を視聴者に感じさせることができるといった特徴がある。 Ultra-high-definition high-resolution video content (high-resolution video content) such as 8K-SHV is becoming widespread. Such high-resolution video content has the characteristics that high reproducibility can be obtained and that the viewer can feel a three-dimensional effect as if looking at the real thing.

しかしながら、上記のような高解像度映像コンテンツを、ユーザが使用する、携帯電話、スマートフォン、タブレット端末などの端末装置において再生する再生環境が十分には整っていないのが現状である。例えば、映像コンテンツを視聴者に提供する方式としては、映像コンテンツを放送波で送信するBroadcasting型、映像コンテンツを端末装置で受信しつつ、受信した部分から順次再生するStreaming型、映像コンテンツ全体を端末装置で受信した後に生成するDownload型などがある。高解像度映像コンテンツは、データ容量が大きいため、上述したStreaming型の適用は困難であり、Video PodcastなどのDownload型の適用が考えられる。また、上述の受信環境を考慮すると、現状ではBroadcasting型の適用も決して容易ではない。 However, the current situation is that the reproduction environment for reproducing the above-mentioned high-resolution video content on a terminal device such as a mobile phone, a smartphone, or a tablet terminal used by the user is not sufficiently prepared. For example, as a method of providing video content to a viewer, a Broadcasting type in which the video content is transmitted by a broadcast wave, a Streaming type in which the video content is received by a terminal device and sequentially played from the received portion, and the entire video content is played on the terminal. There is a Download type that is generated after being received by the device. Since the data capacity of high-resolution video content is large, it is difficult to apply the above-mentioned Streaming type, and it is conceivable to apply a Download type such as Video Podcast. Further, considering the above-mentioned reception environment, it is not easy to apply the Broadcasting type at present.

また、近年、端末装置の中には、2K/4Kレベルの映像を表示可能なディスプレイを備えたものもある。しかしながら、現状では、さらに高解像度の8Kレベルの映像を表示可能なディスプレイを端末装置に搭載することは、コストなどの観点から難しい。 Further, in recent years, some terminal devices are provided with a display capable of displaying 2K / 4K level images. However, at present, it is difficult to mount a display capable of displaying a higher resolution 8K level image on a terminal device from the viewpoint of cost and the like.

ところで、近年の通信サービスの高速化・低価格化、および、スマートフォンなどの端末装置の普及に伴い、ユーザは、場所を問わず、各種のコンテンツを消費(閲覧)するようになっている。また、ソーシャルメディアの普及もあり、利用者のコンテンツ消費がよりパーソナルなものとなる傾向にある。このような傾向の下では、視聴者を引き付けるコンテンツの制作だけでなく、視聴者によるコンテンツの消費行動、視聴者によるコンテンツの消費環境などに適した態様でのコンテンツの提供が必要となる。 By the way, with the recent increase in speed and price of communication services and the widespread use of terminal devices such as smartphones, users have come to consume (view) various contents regardless of location. In addition, with the spread of social media, user content consumption tends to be more personal. Under such a tendency, it is necessary not only to produce content that attracts viewers, but also to provide content in a manner suitable for the consumption behavior of the content by the viewer, the consumption environment of the content by the viewer, and the like.

例えば、非特許文献1には、2台の端末装置(スマートフォン)で連携してコンテンツを視聴させる技術が開示されている。この技術では、一方の端末装置にはあるキャラクタの視点でのコンテンツを配信し、他方の端末装置には別のキャラクタの視点でのコンテンツを配信する。そして、この技術では、それぞれの端末装置で別々にコンテンツを視聴する場合には、2つのキャラクタが出会うことなくコンテンツが終了し、2つの端末装置を並べてコンテンツを視聴すると、2つのキャラクタが出会うという演出が施されている。 For example, Non-Patent Document 1 discloses a technique for viewing content in cooperation with two terminal devices (smartphones). In this technique, content is delivered to one terminal device from the viewpoint of a certain character, and content is delivered to the other terminal device from the viewpoint of another character. In this technology, when the content is viewed separately on each terminal device, the content ends without the two characters meeting, and when the two terminal devices are arranged side by side to view the content, the two characters meet. The production is given.

また、非特許文献2には、複数の端末装置を一列に並べて配置することで、その複数の端末装置の仮想的に1つのスクリーンのようにしてコンテンツを視聴させる技術が開示されている。 Further, Non-Patent Document 2 discloses a technique in which a plurality of terminal devices are arranged side by side in a row so that the content can be viewed virtually like one screen of the plurality of terminal devices.

「スマホ2台を並べると瀧と三葉の“カタワレ時”を体験できる!? 「Yahoo! JAPAN」アプリで特別動画が配信開始!」、[online]、[平成29年11月22日検索]、インターネット<URL:http://www.animatetimes.com/news/details.php?id=1501043635>"You can experience the" Kataware time "of Taki and Mitsuha by arranging two smartphones side by side !? A special video is now available on the" Yahoo! JAPAN "app! , [Online], [Search on November 22, 2017], Internet <URL: http://www.animatetimes.com/news/details.php?id=1501043635> 「みんなでスマートフォンを繋げて、クリスマス限定の光り輝くパレードを楽しもう!「SYNC!ILLUMINATION(シンク!イルミネーション)」」、[online]、[平成29年11月22日検索]、インターネット<URL:http://www.tokyodisneyresort.jp/blog/pr151029/>"Let's connect smartphones together and enjoy the Christmas-only brilliant parade!" SYNC! ILLUMINATION "", [online], [Search on November 22, 2017], Internet <URL: http: //www.tokyodisneyresort.jp/blog/pr151029/ >

非特許文献1,2などに開示されている技術では、複数の端末装置はそれぞれ、ネットワーク上の外部サーバ(配信サーバ)に接続し、サーバから付与されたグループIDによりグルーピングされる。そして、そのグループへの所属順に採番するなどして、外部サーバに通知するとともに、その採番された番号順に複数の端末装置が配置される。外部サーバは、各番号の端末装置にそれぞれ異なるコンテンツを配信して、全体として1つのコンテンツをユーザに視聴させる。 In the techniques disclosed in Non-Patent Documents 1 and 2, each of a plurality of terminal devices is connected to an external server (distribution server) on the network and grouped by a group ID assigned by the server. Then, the external server is notified by numbering in the order of belonging to the group, and a plurality of terminal devices are arranged in the order of the numbered numbers. The external server distributes different contents to the terminal devices of each number, and makes the user view one content as a whole.

上述したような技術では、複数の端末装置の配置は、各端末装置に割り当てられた番号などに基づき固定される。すなわち、端末装置が自律的に他の端末装置との相対的な位置関係を検出することができない。そのため、端末装置の配置変更などに対して、柔軟に対応することができない。 In the technique as described above, the arrangement of the plurality of terminal devices is fixed based on the number assigned to each terminal device or the like. That is, the terminal device cannot autonomously detect the relative positional relationship with other terminal devices. Therefore, it is not possible to flexibly respond to changes in the arrangement of terminal devices.

上記のような問題点に鑑みてなされた本発明の目的は、自律的に自装置と他の端末装置との相対的な位置関係を検出することができる端末装置を提供することにある。 An object of the present invention made in view of the above problems is to provide a terminal device capable of autonomously detecting a relative positional relationship between a self-device and another terminal device.

上記課題を解決するため、本発明に係る端末装置は、自装置とともに平面上または立体表面上に配置された他の端末装置との相対的な位置関係を決定する端末装置であって、タッチ面に対するタッチ操作によるタッチ位置を検出し、前記タッチ位置をスライドさせるスライド操作により、前記タッチ面内において、前記タッチ面の外縁に沿って設定された複数の外縁領域の少なくとも1つがタッチされた場合、該タッチされた外縁領域および該外縁領域がタッチされたタイミングを示すセンサ情報を生成する検出部と、前記他の端末装置との直接通信により、前記検出部により生成されたセンサ情報を前記他の端末装置に送信するとともに、前記他の端末装置から前記センサ情報を受信する共有部と、自装置と前記他の端末装置との同期をとるとともに、前記共有部が前記他の端末装置との間で送受信したセンサ情報に基づき、自装置と前記他の端末装置との相対的な位置関係を決定する決定部と、を備え、前記検出部は、自装置と前記他の端末装置とのローカル時刻の差分をさらに検出し、前記決定部は、自装置および前記他の端末装置の中で基準となる端末装置と自装置とのローカル時刻の差分に基づき、自装置と他の端末装置との同期をとり、前記決定部は、配信対象の映像を分割した複数の分割映像を生成し、前記複数の分割映像それぞれの格納場所を示す情報を含むマニフェストファイルを生成する配信装置から、前記マニフェストファイルを取得し、前記決定した自装置と他の端末装置との相対的な位置関係に基づく、自装置の位置に対応する分割映像を、前記マニフェストファイルに基づいて取得し、前記決定部により取得された分割映像を自装置が備える表示部に表示する再構成部をさらに備える。 In order to solve the above problems, the terminal device according to the present invention is a terminal device that determines a relative positional relationship with another terminal device arranged on a plane or a three-dimensional surface together with the own device, and is a touch surface. When at least one of a plurality of outer edge regions set along the outer edge of the touch surface is touched in the touch surface by the slide operation of detecting the touch position by the touch operation with respect to the touch position and sliding the touch position. The sensor information generated by the detection unit is obtained by direct communication between the touched outer edge region and the detection unit that generates sensor information indicating the timing at which the outer edge region is touched, and the other terminal device. The shared unit that transmits to the terminal device and receives the sensor information from the other terminal device synchronizes the own device with the other terminal device, and the shared unit is between the other terminal device. The detection unit includes a determination unit that determines the relative positional relationship between the own device and the other terminal device based on the sensor information transmitted and received in, and the detection unit is the local time between the own device and the other terminal device. The determination unit further detects the difference between the own device and the other terminal device, and the determination unit synchronizes the own device with the other terminal device based on the difference in the local time between the own device and the own device as a reference among the own device and the other terminal device. The determination unit generates the manifest file from a distribution device that generates a plurality of divided videos obtained by dividing the video to be distributed and generates a manifest file including information indicating the storage location of each of the plurality of divided videos. The divided video corresponding to the position of the own device, which was acquired and based on the relative positional relationship between the own device and the other terminal device determined, was acquired based on the manifest file and acquired by the determination unit. It further includes a reconstructing unit that displays the divided video on the display unit of the own device .

また、本発明に係る端末装置において、前記タッチ面は、矩形であり、前記外縁領域は、前記矩形のタッチ面の四辺それぞれに対応して設けられていることが好ましい。 Further, in the terminal device according to the present invention, it is preferable that the touch surface is rectangular and the outer edge region is provided corresponding to each of the four sides of the rectangular touch surface.

また、本発明に係る端末装置において、前記タッチ面の四辺のうち、少なくとも一辺に沿って、複数の外縁領域が設けられていることが好ましい。 Further, in the terminal device according to the present invention, it is preferable that a plurality of outer edge regions are provided along at least one of the four sides of the touch surface.

また、上記課題を解決するため、本発明に係る端末装置は、自装置とともに平面上または立体表面上に配置された他の端末装置との相対的な位置関係を決定する端末装置であって、三次元空間での相対座標系における基準位置からの自装置の移動距離および移動方向を検出する検出部と、自装置と前記他の端末装置との重ね合わせに応じて、前記他の端末装置との間で直接通信により前記三次元空間での相対座標系に関する情報を送受信して、前記他の端末装置との間で前記相対座標系を一致させる共有部と、前記共有部による前記相対座標系の一致後に前記検出部により検出された自装置の移動距離および移動方向に基づき前記他の端末装置との相対的な位置関係を決定する決定部と、を備える。 Further, in order to solve the above problems, the terminal device according to the present invention is a terminal device that determines a relative positional relationship with another terminal device arranged on a plane or a three-dimensional surface together with the own device. The detection unit that detects the movement distance and movement direction of the own device from the reference position in the relative coordinate system in the three-dimensional space, and the other terminal device according to the overlap between the own device and the other terminal device. Information about the relative coordinate system in the three-dimensional space is transmitted and received by direct communication between the two, and the shared portion that matches the relative coordinate system with the other terminal device and the relative coordinate system by the shared portion. A determination unit for determining a relative positional relationship with the other terminal device based on the movement distance and the movement direction of the own device detected by the detection unit after the match is provided.

また、本発明に係る端末装置において、自装置の一面に配置されたカメラ部をさらに有し、前記検出部は、前記カメラ部の撮影画像に基づき、前記一面に前記他の端末装置が重ね合わされたことを検出することが好ましい。 Further, in the terminal device according to the present invention, the terminal device further includes a camera unit arranged on one surface of the own device, and the detection unit has the other terminal device superimposed on the one surface based on the captured image of the camera unit. It is preferable to detect that.

また、本発明に係る端末装置において、前記決定部は、前記検出部により自装置が前記平面上または立体表面上から所定距離以上離れたことを検出すると、自装置および前記共有部により直接通信を行う他の端末装置からなるグループから、自装置が除外されたと判定することが好ましい。 Further, in the terminal device according to the present invention, when the determination unit detects that the own device is separated from the plane or the three-dimensional surface by a predetermined distance or more, the determination unit directly communicates with the own device and the common unit. It is preferable to determine that the own device is excluded from the group consisting of other terminal devices.

本発明に係る端末装置によれば、自律的に自装置と他の端末装置との相対的な位置関係を検出することができる。 According to the terminal device according to the present invention, it is possible to autonomously detect the relative positional relationship between the own device and another terminal device.

本発明の一実施形態に係る映像表示システムの構成例を示す図である。It is a figure which shows the structural example of the image display system which concerns on one Embodiment of this invention. 図1に示す複数の端末装置によるコンテンツの表示態様の一例を示す図である。It is a figure which shows an example of the display mode of the content by a plurality of terminal devices shown in FIG. 図1に示す配信装置および端末装置の構成例を示す図である。It is a figure which shows the configuration example of the distribution apparatus and the terminal apparatus shown in FIG. 図3に示す分割部による配信対象の映像の分割・解像度調整の一例を示す図である。It is a figure which shows an example of the division and the resolution adjustment of the video to be distributed by the division part shown in FIG. 図3に示す分割部による配信対象の映像の分割・解像度調整の別の一例を示す図である。It is a figure which shows another example of the division and the resolution adjustment of the video to be distributed by the division part shown in FIG. 図3に示す分割部による配信対象の映像の分割・解像度調整のさらに別の一例を示す図である。FIG. 3 is a diagram showing still another example of division / resolution adjustment of the video to be distributed by the division unit shown in FIG. 3. 図3に示す分割部による配信対象の映像の分割・解像度調整のさらに別の一例を示す図である。FIG. 3 is a diagram showing still another example of division / resolution adjustment of the video to be distributed by the division unit shown in FIG. 3. 図1に示す端末装置による映像の表示について説明するための図である。It is a figure for demonstrating the display of the image by the terminal apparatus shown in FIG. 図1に示す端末装置による配信対象の映像の再構成パターンの一例を示す図である。It is a figure which shows an example of the reconstruction pattern of the image to be delivered by the terminal apparatus shown in FIG. 図1に示す端末装置による配信対象の映像の再構成パターンの別の一例を示す図である。It is a figure which shows another example of the reconstruction pattern of the image to be delivered by the terminal apparatus shown in FIG. 1. 図1に示す端末装置による配信対象の映像の再構成パターンのさらに別の一例を示す図である。It is a figure which shows still another example of the reconstruction pattern of the image to be delivered by the terminal apparatus shown in FIG. 1. 図6Aに示す再構成パターンAにおいて、各端末装置が受信する分割映像について説明するための図である。It is a figure for demonstrating the divided image received by each terminal apparatus in the reconstruction pattern A shown in FIG. 6A. 図7Aに示す再構成パターンA2における左上端の端末装置が表示する映像について説明するための図である。It is a figure for demonstrating the image displayed by the terminal apparatus at the upper left end in the reconstruction pattern A2 shown in FIG. 7A. 図6Bに示す再構成パターンBにおいて、各端末装置が受信する分割映像について説明するための図である。It is a figure for demonstrating the divided image received by each terminal apparatus in the reconstruction pattern B shown in FIG. 6B. 図6Cに示す再構成パターンCにおいて、各端末装置が受信する分割映像について説明するための図である。It is a figure for demonstrating the divided image received by each terminal apparatus in the reconstruction pattern C shown in FIG. 6C. 図1に示す複数の端末装置の縦向きと横向きとを組み合わせた配置の一例を示す図である。It is a figure which shows an example of the arrangement which combined the vertical direction and the horizontal direction of the plurality of terminal devices shown in FIG. 1. 図1に示す複数の端末装置の縦向きと横向きとを組み合わせた配置の他の一例を示す図である。It is a figure which shows another example of the arrangement which combined the vertical direction and the horizontal direction of the plurality of terminal devices shown in FIG. 1. 図1に示す端末装置の向きに応じた映像の表示の一例を示す図である。It is a figure which shows an example of the display of the image corresponding to the orientation of the terminal apparatus shown in FIG. 図1に示す複数の端末装置によるコンテンツの再生状態の一例を示す図である。It is a figure which shows an example of the reproduction state of the content by a plurality of terminal devices shown in FIG. 図1に示す端末装置における他の端末装置との相対的な位置関係の決定に係る構成例を示す図である。It is a figure which shows the structural example which concerns on the determination of the relative positional relationship with other terminal apparatus in the terminal apparatus shown in FIG. 図13に示すタッチセンサのタッチ面に設けられた外縁領域の一例を示す図である。It is a figure which shows an example of the outer edge region provided on the touch surface of the touch sensor shown in FIG. 図13に示す端末装置に対するタッチ操作が行われた状態を示す図である。It is a figure which shows the state which the touch operation is performed with respect to the terminal apparatus shown in FIG. 図13に示すタッチセンサのタッチ面に設けられた外縁領域の他の一例を示す図である。It is a figure which shows another example of the outer edge region provided on the touch surface of the touch sensor shown in FIG. 図13に示す端末装置による、三次元空間での相対座標系における移動距離および移動の向きの検出について説明するための図である。It is a figure for demonstrating the detection of the movement distance and the movement direction in the relative coordinate system in the three-dimensional space by the terminal apparatus shown in FIG. 図13に示す端末装置による、第2の方法による他の端末装置との相対的な位置関係の決定方法について説明するための図である。It is a figure for demonstrating the method of determining the relative positional relationship with other terminal apparatus by the 2nd method by the terminal apparatus shown in FIG. 図13に示す端末装置による、第2の方法による他の端末装置との相対的な位置関係の検出結果の一例を示す図である。It is a figure which shows an example of the detection result of the relative positional relationship with other terminal apparatus by the 2nd method by the terminal apparatus shown in FIG. 図1に示す端末装置によるLandscape表示とPortrait表示との切り替えの一例を示す図である。It is a figure which shows an example of switching between landscape display and Portrait display by the terminal apparatus shown in FIG. 1.

以下、本発明を実施するための形態について、図面を参照しながら説明する。各図中、同一符号は、同一または同等の構成要素を示している。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. In each figure, the same reference numerals indicate the same or equivalent components.

図1は、本発明の一実施形態に係る映像表示システム1の構成例を示す図である。 FIG. 1 is a diagram showing a configuration example of a video display system 1 according to an embodiment of the present invention.

図1に示す映像表示システム1は、配信装置10と、複数の端末装置20とを備える。配信装置10は、複数の端末装置20それぞれと、有線通信または無線通信により、ネットワーク2を介して通信可能である。本実施形態に係る映像表示システム1は、配信装置10から配信された映像コンテンツを複数の端末装置20で表示するものである。 The video display system 1 shown in FIG. 1 includes a distribution device 10 and a plurality of terminal devices 20. The distribution device 10 can communicate with each of the plurality of terminal devices 20 via the network 2 by wired communication or wireless communication. The video display system 1 according to the present embodiment displays video content distributed from the distribution device 10 on a plurality of terminal devices 20.

配信装置10は、映像コンテンツをネットワーク2を介して端末装置20に配信する。配信装置10が配信する映像コンテンツとしては、例えば、8K-SHVに代表されるような超高精細な高解像度映像のコンテンツ(高解像度映像コンテンツ)がある。 The distribution device 10 distributes the video content to the terminal device 20 via the network 2. The video content distributed by the distribution device 10 includes, for example, ultra-high-definition high-resolution video content (high-resolution video content) represented by 8K-SHV.

端末装置20は、携帯電話、スマートフォン、タブレット端末のような、ユーザが所有する装置である。端末装置20は、表示部を有しており、配信装置10による配信対象の映像コンテンツ(映像)を表示部で表示する。 The terminal device 20 is a device owned by the user, such as a mobile phone, a smartphone, or a tablet terminal. The terminal device 20 has a display unit, and displays the video content (video) to be distributed by the distribution device 10 on the display unit.

図2は、本実施形態に係る端末装置20による配信装置10から配信された映像コンテンツの表示態様の一例を示す図である。 FIG. 2 is a diagram showing an example of a display mode of video content distributed from the distribution device 10 by the terminal device 20 according to the present embodiment.

図2に示すように、本実施形態においては、複数の端末装置20が平面上に、表示部が閲覧可能に配置され、配信装置10による配信対象の映像コンテンツ(映像)を、複数の端末装置20により表示する。すなわち、複数の端末装置20はそれぞれ、配信対象の映像が分割された映像を表示し、全体として、配信対象の映像を利用者に閲覧させる。なお、複数の端末装置20が立体表面上に、表示部が閲覧可能に配置され、配信装置10による配信対象の映像コンテンツ(映像)を、複数の端末装置20により表示してもよい。 As shown in FIG. 2, in the present embodiment, a plurality of terminal devices 20 are arranged on a plane so that the display unit can be viewed, and the video content (video) to be distributed by the distribution device 10 is distributed to the plurality of terminal devices. Displayed by 20. That is, each of the plurality of terminal devices 20 displays the video in which the video to be distributed is divided, and makes the user view the video to be distributed as a whole. A plurality of terminal devices 20 may be arranged on a three-dimensional surface so that the display unit can be viewed, and the video content (video) to be distributed by the distribution device 10 may be displayed by the plurality of terminal devices 20.

次に、配信装置10および端末装置20の構成について説明する。 Next, the configurations of the distribution device 10 and the terminal device 20 will be described.

図3は、本実施形態に係る配信装置10および端末装置20の構成例を示す図である。なお、図3においては、端末装置20の構成のうち、配信対象の映像の表示部(不図示)での表示(再生)に係る構成を中心に説明する。まず、配信装置10の構成について説明する。 FIG. 3 is a diagram showing a configuration example of the distribution device 10 and the terminal device 20 according to the present embodiment. Note that, in FIG. 3, among the configurations of the terminal device 20, the configuration related to the display (reproduction) on the display unit (not shown) of the video to be distributed will be mainly described. First, the configuration of the distribution device 10 will be described.

図3に示す配信装置10は、分割部11と、配信部12とを備える。 The distribution device 10 shown in FIG. 3 includes a division unit 11 and a distribution unit 12.

分割部11は、配信対象の映像コンテンツ(例えば、高解像度映像)が入力されると、そのコンテンツを配信するための配信ファイルを生成する。具体的には、分割部11は、配信ファイルとして、配信対象の映像を分割した複数の分割映像を生成する。ここで、分割部11は、配信対象の映像を、複数の端末装置20による表示態様に応じた異なる分割パターンで分割し、分割パターンごとの複数の分割映像をまとめた分割グループ(分割グループ1,2,・・・)を生成する。複数の端末装置20による表示態様としては、配信対象の映像を表示する端末装置20の台数、複数の端末装置20の配置、端末装置20の回転に応じた表示の切り替え(Landscape表示(横向き表示)/Portrait表示(縦向き表示))の対応の有無などがある。分割部11は、種々の表示態様に応じた分割パターンで配信対象の映像を分割し、分割映像を生成する。また、分割部11は、表示態様に応じて、配信対象の映像の解像度を調整してもよい。 When the video content to be distributed (for example, high-resolution video) is input, the division unit 11 generates a distribution file for distributing the content. Specifically, the division unit 11 generates a plurality of divided videos obtained by dividing the video to be distributed as a distribution file. Here, the division unit 11 divides the video to be distributed into different division patterns according to the display mode by the plurality of terminal devices 20, and divides the plurality of division videos for each division pattern into a division group (division group 1, 2, ...) Is generated. As the display mode by the plurality of terminal devices 20, the number of terminal devices 20 for displaying the image to be distributed, the arrangement of the plurality of terminal devices 20, and the switching of the display according to the rotation of the terminal devices 20 (Landscape display (landscape display)). / Portrait display (portrait display)) is supported or not. The division unit 11 divides the video to be distributed according to the division patterns according to various display modes, and generates the divided video. Further, the division unit 11 may adjust the resolution of the video to be distributed according to the display mode.

図4A~図4Dは、分割部11による配信対象の映像の分割および解像度調整の例を示す図である。図4A~図4Dにおいては、配信対象の映像の解像度をサイズで示している。 4A to 4D are diagrams showing an example of division and resolution adjustment of the video to be distributed by the division unit 11. In FIGS. 4A to 4D, the resolution of the video to be distributed is shown in size.

図4Aは、配信対象の映像(オリジナルの映像)は分割せず、解像度を小さくした(例えば、8Kから2Kに縮小)例を示す図である。 FIG. 4A is a diagram showing an example in which the video to be distributed (original video) is not divided and the resolution is reduced (for example, reduced from 8K to 2K).

図4Bは、配信対象の映像を4分割した例を示す図である。図4Bにおいては、配信対象の映像の解像度を小さくした上で4分割(2×2)した例、および、配信対象の映像の解像度はそのままで4分割した例を示している。 FIG. 4B is a diagram showing an example in which the video to be distributed is divided into four. FIG. 4B shows an example in which the resolution of the video to be distributed is reduced and then divided into four (2 × 2), and an example in which the resolution of the video to be distributed is divided into four as it is.

図4Cは、配信対象の映像を9分割した例を示す図である。図4Cにおいては、配信対象の映像の解像度を小さくした上で9分割(3×3)した例を示している。なお、図4Cにおいては、配信対象の映像の解像度を小さくした上で9分割した例を示しているが、解像度はそのままで、配信対象の映像を9分割してもよい。 FIG. 4C is a diagram showing an example in which the video to be distributed is divided into nine. FIG. 4C shows an example in which the resolution of the video to be distributed is reduced and then divided into 9 parts (3 × 3). Although FIG. 4C shows an example in which the resolution of the video to be distributed is reduced and then divided into nine, the video to be distributed may be divided into nine while the resolution remains the same.

図4Dは、配信対象の映像を16分割した例を示す図である。図4Dにおいては、配信対象の映像の解像度はそのままで16分割(4×4)した例を示している。 FIG. 4D is a diagram showing an example in which the video to be distributed is divided into 16 parts. FIG. 4D shows an example of 16 divisions (4 × 4) while maintaining the resolution of the video to be distributed.

図3を再び参照すると、分割部11は、配信ファイルとしてさらに、マニフェストファイルを生成する。マニフェストファイルには、配信対象の映像が分割された複数の分割映像それぞれの格納場所を示す情報(例えば、URL(Uniform Resource Locator))が含まれる。また、マニフェストファイルには、配信対象の映像の分割パターンを含む、配信対象の映像の表示(再構成)に関する情報が含まれる。 Referring to FIG. 3 again, the division unit 11 further generates a manifest file as a distribution file. The manifest file contains information (for example, a URL (Uniform Resource Locator)) indicating the storage location of each of the plurality of divided videos in which the video to be distributed is divided. In addition, the manifest file contains information regarding the display (reconstruction) of the video to be distributed, including the division pattern of the video to be distributed.

なお、分割部11は、配信対象の映像の解像度を小さくするだけでなく、配信対象の映像のサイズを大きくした上で分割してもよい。例えば、端末装置20での再構成時に、分割映像の一部だけを端末装置20の表示部で表示する、すなわち、分割映像の一部をトリミングして再生することを前提として、配信対象の映像のサイズを縦横それぞれ2倍にした上で、4分割するなどしてもよい。 The dividing unit 11 may not only reduce the resolution of the video to be distributed, but also increase the size of the video to be distributed and then divide the video. For example, at the time of reconstruction in the terminal device 20, only a part of the divided image is displayed on the display unit of the terminal device 20, that is, the image to be distributed is assumed to be reproduced by trimming a part of the divided image. The size of the device may be doubled vertically and horizontally, and then divided into four parts.

配信部12は、分割部11により生成された複数の分割映像およびマニフェストファイルを端末装置20に配信する。配信方法としては、例えば、既存のポッドキャストと同様に、マニフェストファイルおよび分割映像をWebサーバで公開する方法がある。 The distribution unit 12 distributes the plurality of divided images and manifest files generated by the division unit 11 to the terminal device 20. As a distribution method, for example, there is a method of publishing a manifest file and a divided video on a Web server as in the case of an existing podcast.

次に、端末装置20の構成について説明する。 Next, the configuration of the terminal device 20 will be described.

図3に示す端末装置20は、受信部21と、同期部22と、再構成部23とを備える。 The terminal device 20 shown in FIG. 3 includes a receiving unit 21, a synchronization unit 22, and a reconstructing unit 23.

受信部21は、ネットワーク2を介して、配信装置10が公開したマニフェストファイル、および、配信対象の映像を分割した複数の分割映像のうち、受信したマニフェストファイルに基づく分割映像を受信する。より具体的には、受信部21は、配信対象の映像を分割した複数の分割映像のうち、自装置で表示する部分に対応する分割映像を受信する。したがって、マニフェストファイルは、全ての端末装置20が受信する。一方、分割映像は、その分割映像を表示する端末装置20のみが受信する。すなわち、各端末装置20で分割映像の受信対象が異なる。したがって、各端末装置20は、配信対象の映像全体を受信する必要がないので、通信量を削減することができる。 The receiving unit 21 receives the manifest file released by the distribution device 10 and the divided video based on the received manifest file among the plurality of divided videos obtained by dividing the video to be distributed via the network 2. More specifically, the receiving unit 21 receives the divided video corresponding to the portion to be displayed by the own device among the plurality of divided videos obtained by dividing the video to be distributed. Therefore, the manifest file is received by all terminal devices 20. On the other hand, the divided video is received only by the terminal device 20 that displays the divided video. That is, the receiving target of the divided video is different in each terminal device 20. Therefore, each terminal device 20 does not need to receive the entire video to be distributed, so that the amount of communication can be reduced.

同期部22は、任意の方法により、配信対象の映像を表示するために平面上または立体表面上に配置された複数の端末装置20による配信対象の映像の表示態様、および、その表示態様における自装置の位置(自装置と他の端末装置20との相対的な位置関係)を検出する。以下では、複数の端末装置20が平面上に配置された例を用いて説明する。 The synchronization unit 22 displays a video to be distributed by a plurality of terminal devices 20 arranged on a plane or a three-dimensional surface in order to display the video to be distributed by an arbitrary method, and the display mode thereof. The position of the device (relative positional relationship between the own device and the other terminal device 20) is detected. In the following, an example in which a plurality of terminal devices 20 are arranged on a plane will be described.

図2に示したように、配信装置10から配信されたコンテンツを視聴する際に、複数の端末装置20が平面上に格子状に配置される。同期部22は、配信対象の映像を表示する端末装置20の数、格子状の配置における自装置の位置(格子状座標)、他の端末装置20の回転に応じた表示の切り替えの対応の有無などを検出する。また、同期部22は、例えば、自装置と他の端末装置20とのローカル時刻のズレを検出する。 As shown in FIG. 2, when viewing the content distributed from the distribution device 10, the plurality of terminal devices 20 are arranged in a grid pattern on a plane. The synchronization unit 22 supports the number of terminal devices 20 for displaying the video to be distributed, the position of the own device (lattice coordinates) in the grid arrangement, and the presence / absence of switching of the display according to the rotation of the other terminal devices 20. Etc. are detected. Further, the synchronization unit 22 detects, for example, a deviation in the local time between the own device and the other terminal device 20.

同期部22は、端末装置20が備える各種センサ(ジャイロセンサ、地軸センサなど)の検出結果、端末装置20への操作入力などの種々の情報を他の端末装置20と送受信する。そして、同期部22は、他の端末装置20と送受信した情報に基づき、コンテンツの表示態様、その表示態様における自装置の位置などを検出する。なお、同期部22は、他の端末装置20との近距離無線通信により、すなわち、ネットワーク2を介さずに、種々の情報を送受信する。したがって、端末装置20は、ネットワーク2にアクセスできない環境でも、複数の端末装置20による配信対象の映像の表示態様、および、その表示態様における自装置の位置などを自律的に検出することができる。 The synchronization unit 22 transmits and receives various information such as detection results of various sensors (gyro sensor, ground axis sensor, etc.) included in the terminal device 20 and operation input to the terminal device 20 to and from another terminal device 20. Then, the synchronization unit 22 detects the display mode of the content, the position of the own device in the display mode, and the like, based on the information transmitted to and received from the other terminal device 20. The synchronization unit 22 transmits and receives various information by short-range wireless communication with another terminal device 20, that is, without going through the network 2. Therefore, the terminal device 20 can autonomously detect the display mode of the image to be distributed by the plurality of terminal devices 20 and the position of the own device in the display mode even in an environment where the network 2 cannot be accessed.

同期部22は、配信対象の映像の複数の表示端末20による表示態様および自装置の位置を検出すると、受信部21が受信したマニフェストファイルに示される、検出した表示態様に応じた分割パターンで配信対象の映像が分割された複数の分割映像のうち、検出した自装置の位置に対応する分割映像を受信部21に受信させる。また、同期部22は、検出した表示態様および自装置の位置を再構成部23に出力する。 When the synchronization unit 22 detects the display mode of the video to be distributed by the plurality of display terminals 20 and the position of the own device, the synchronization unit 22 distributes the video in a division pattern according to the detected display mode shown in the manifest file received by the reception unit 21. Among the plurality of divided images in which the target image is divided, the receiving unit 21 is made to receive the divided image corresponding to the detected position of the own device. Further, the synchronization unit 22 outputs the detected display mode and the position of the own device to the reconstruction unit 23.

なお、同期部22は、自装置の位置変更および回転、また、コンテンツを再生する端末装置20の追加などを検出すると、受信部21および再構成部23に再処理を要求する。こうすることで、表示態様に変更があった場合にも、自律的に変更後の表示態様に合わせて配信対象の映像を表示することができる。 When the synchronization unit 22 detects a position change and rotation of the own device, an addition of the terminal device 20 for reproducing the content, or the like, the synchronization unit 22 requests the reception unit 21 and the reconfiguration unit 23 to reprocess. By doing so, even if the display mode is changed, the video to be distributed can be autonomously displayed according to the changed display mode.

再構成部23は、受信部21が受信したマニフェストファイルに基づき、同期部22が検出した表示態様に応じて、受信部21が受信した分割画像を、拡大・縮小するなどして表示部に表示する。また、再構成部23は、所定の操作入力により、コンテンツの再生・停止・一時停止などを行う。また、再構成部23は、自装置あるいは他の端末装置20の位置変更および回転、また、コンテンツを再生する端末装置20の追加などにより再処理が要求されると、変更後の表示態様に応じた映像を表示部に表示させる。 Based on the manifest file received by the receiving unit 21, the reconstructing unit 23 displays the divided image received by the receiving unit 21 on the display unit by enlarging / reducing it according to the display mode detected by the synchronization unit 22. do. In addition, the reconstruction unit 23 plays, stops, pauses, and the like of the content by a predetermined operation input. Further, when the reconfiguration unit 23 is requested to be reprocessed due to the position change and rotation of the own device or another terminal device 20, the addition of the terminal device 20 for reproducing the content, or the like, the reconfiguration unit 23 responds to the changed display mode. The displayed image is displayed on the display unit.

次に、本実施形態に係る映像表示システム1における配信装置10および端末装置20の動作について説明する。 Next, the operation of the distribution device 10 and the terminal device 20 in the video display system 1 according to the present embodiment will be described.

図5は、本実施形態に係る端末装置20による配信対象の映像の表示について説明するための図である。図5においては、配信対象の映像が8Kの映像であるものとして説明する。 FIG. 5 is a diagram for explaining the display of the video to be distributed by the terminal device 20 according to the present embodiment. In FIG. 5, the video to be distributed will be described as an 8K video.

配信装置10は、配信対象の映像(8Kの映像)の解像度を下げた映像(2Kの映像)、配信対象の映像を4分割した分割映像(4K×4)、配信対象の映像を16分割した分割映像(2K×16)などを予め生成しておく。 The distribution device 10 divides the video to be distributed (8K video) into 16 resolutions (2K video), the video to be distributed into 4 parts (4K × 4), and the video to be distributed into 16 parts. A divided video (2K × 16) or the like is generated in advance.

端末装置20は、配信対象の映像を1台で表示する場合には、例えば、図5に示すように、配信対象の映像の解像度を下げた映像を表示する。 When the terminal device 20 displays the image to be distributed by one unit, for example, as shown in FIG. 5, the terminal device 20 displays the image in which the resolution of the image to be distributed is lowered.

配信対象の映像を表示する端末装置20が1台追加され、例えば、図5に示すように、縦方向に隣接して2台の端末装置20が配置されると、2台の端末装置20はそれぞれ、配信対象の映像の表示態様(配信対象の映像を表示する台数およびその配置)、自装置と他の端末装置20との位置関係などを検出し、検出した表示態様に対応する分割パターンで分割された分割映像(4分割された分割映像)のうち、自装置の位置に対応する分割映像を受信し、表示部に表示する。 One terminal device 20 for displaying the image to be distributed is added. For example, as shown in FIG. 5, when two terminal devices 20 are arranged adjacent to each other in the vertical direction, the two terminal devices 20 are arranged. In each case, the display mode of the video to be distributed (the number of video to be distributed and its arrangement), the positional relationship between the own device and the other terminal device 20, etc. are detected, and the division pattern corresponding to the detected display mode is used. Of the divided video (divided video divided into four), the divided video corresponding to the position of the own device is received and displayed on the display unit.

さらに、図5に示すように、配信対象の映像を表示する端末装置20が3台追加されると、5台の端末装置20はそれぞれ、配信対象の映像の表示態様、自装置と他の端末装置20との位置関係などを検出し、検出した表示態様に対応する分割パターンで分割された分割映像(16分割された分割映像)のうち、自装置の位置に対応する分割映像を受信し、表示部に表示する。 Further, as shown in FIG. 5, when three terminal devices 20 for displaying the image to be distributed are added, each of the five terminal devices 20 has a display mode of the image to be distributed, its own device, and other terminals. The positional relationship with the device 20 is detected, and among the divided images (16 divided images) divided by the divided pattern corresponding to the detected display mode, the divided image corresponding to the position of the own device is received. Display on the display.

このように、配信装置10は、配信対象の映像の表示態様に応じた異なる分割パターンで配信対象の映像を分割した複数の分割映像を生成する。端末装置20は、配信対象の映像を複数の端末装置20で表示する表示態様およびその表示態様における自装置の位置を検出し、検出した表示態様に応じた分割パターンで配信対象の映像が分割された複数の分割映像のうち、自装置の位置に対応する分割映像を受信して表示する。そのため、サーバ装置などを介さずに、複数の端末装置20による配信対象の映像の表示態様に応じてより柔軟な映像の表示が可能となる。 In this way, the distribution device 10 generates a plurality of divided videos in which the video to be distributed is divided into different division patterns according to the display mode of the video to be distributed. The terminal device 20 detects a display mode in which the video to be distributed is displayed on the plurality of terminal devices 20 and the position of the own device in the display mode, and the video to be distributed is divided by a division pattern according to the detected display mode. Of the plurality of divided images, the divided image corresponding to the position of the own device is received and displayed. Therefore, it is possible to display the video more flexibly according to the display mode of the video to be distributed by the plurality of terminal devices 20 without going through a server device or the like.

図6A~図6Cは、端末装置20の数に応じた配信対象の映像の再構成パターンの例を示す図である。 6A to 6C are diagrams showing an example of a reconstruction pattern of a video to be distributed according to the number of terminal devices 20.

図6Aに示す再構成パターン(再構成パターンA)では、配信対象の映像を表示する端末装置20の台数が1台の場合には、端末装置20は、分割されていない配信対象の映像を表示する。配信対象の映像を表示する端末装置20の台数が2-4台である場合には、2×2の格子状配置の表示態様で、各端末装置20が、自装置の位置に対応する分割映像を表示する。また、配信対象の映像を表示する端末装置20の台数が5-16台である場合には、4×4の格子状配置の表示態様で、各端末装置20が、自装置の位置に対応する分割映像を表示する。 In the reconstruction pattern (reconstruction pattern A) shown in FIG. 6A, when the number of terminal devices 20 displaying the images to be distributed is one, the terminal devices 20 display the undivided images to be distributed. do. When the number of terminal devices 20 for displaying images to be distributed is 2-4, each terminal device 20 has a divided image corresponding to the position of its own device in a display mode of 2 × 2 grid arrangement. Is displayed. Further, when the number of the terminal devices 20 for displaying the video to be distributed is 5-16, each terminal device 20 corresponds to the position of the own device in the display mode of the 4 × 4 grid arrangement. Display split video.

図6Bに示す再構成パターン(再構成パターンB)では、配信対象の映像を表示する端末装置20の台数が1台の場合には、端末装置20は、分割されていない配信対象の映像を表示する。配信対象の映像を表示する端末装置20の台数が2-4台である場合には、2×2の格子状配置の表示態様で、各端末装置20が、自装置の位置に対応する分割映像を表示する。また、配信対象の映像を表示する端末装置20の台数が5-9台である場合には、3×3の格子状配置の表示態様で、各端末装置20が、自装置の位置に対応する分割映像を表示する。また、配信対象の映像を表示する端末装置20の台数が10-16台である場合には、4×4の格子状配置の表示態様で、各端末装置20が、自装置の位置に対応する分割映像を表示する。 In the reconstruction pattern (reconstruction pattern B) shown in FIG. 6B, when the number of terminal devices 20 displaying the images to be distributed is one, the terminal devices 20 display the undivided images to be distributed. do. When the number of terminal devices 20 for displaying images to be distributed is 2-4, each terminal device 20 has a divided image corresponding to the position of its own device in a display mode of 2 × 2 grid arrangement. Is displayed. Further, when the number of the terminal devices 20 for displaying the video to be distributed is 5-9, each terminal device 20 corresponds to the position of the own device in the display mode of the 3 × 3 grid arrangement. Display split video. Further, when the number of the terminal devices 20 for displaying the video to be distributed is 10 to 16, each terminal device 20 corresponds to the position of the own device in the display mode of the 4 × 4 grid arrangement. Display split video.

図6Cに示す再構成パターン(再構成パターンC)では、配信対象の映像を表示する端末装置20の台数が1台の場合には、端末装置20は、分割されていない配信対象の映像を表示する。配信対象の映像を表示する端末装置20の台数が2-16台である場合には、4×4の格子状配置の表示態様で、各端末装置20が、自装置の位置に対応する分割映像を表示する。 In the reconstruction pattern (reconstruction pattern C) shown in FIG. 6C, when the number of terminal devices 20 displaying the images to be distributed is one, the terminal devices 20 display the undivided images to be distributed. do. When the number of terminal devices 20 for displaying images to be distributed is 2-16, each terminal device 20 has a divided image corresponding to the position of its own device in a display mode of 4 × 4 grid arrangement. Is displayed.

このように、配信対象の映像を表示する端末装置20の台数が同じであっても、種々の再構成パターンを設定することができる。分割部11は、マニフェストファイルにおいて、配信対象の映像の分割パターンと共に、配信対象の映像の再構成パターンを指定する。こうすることで、配信側において、所望の再構成パターンで配信対象の映像を表示させることができる。 In this way, even if the number of terminal devices 20 that display the video to be distributed is the same, various reconstruction patterns can be set. In the manifest file, the division unit 11 specifies the division pattern of the video to be distributed and the reconstruction pattern of the video to be distributed. By doing so, the distribution side can display the video to be distributed in a desired reconstruction pattern.

また、同じ再構成パターンであっても、各端末装置20が受信する分割映像が異なるようにしてもよい。以下では、同じ再構成パターンでも、各端末装置20が受信する分割映像が異なる場合について、説明する。 Further, even if the reconstruction pattern is the same, the divided video received by each terminal device 20 may be different. Hereinafter, a case where the divided video received by each terminal device 20 is different even in the same reconstruction pattern will be described.

図7Aは、再構成パターンとして、図6Aを参照して説明した再構成パターンAを用いる場合の、各端末装置20が受信する分割映像を示す図である。図7Aにおいては、配信対象の映像の解像度が下げられた映像と、配信対象の映像を4分割した分割映像と、配信対象の映像を16分割した分割映像とが用意されているとする。また、以下では、再構成パターンの各矩形は、各端末装置20を示しており、各矩形に付された番号は、その矩形に対応する端末装置20が受信する分割映像を示すものとする。 FIG. 7A is a diagram showing a divided image received by each terminal device 20 when the reconstruction pattern A described with reference to FIG. 6A is used as the reconstruction pattern. In FIG. 7A, it is assumed that an image in which the resolution of the image to be distributed is lowered, a divided image in which the image to be distributed is divided into four, and a divided image in which the image to be distributed is divided into 16 are prepared. Further, in the following, each rectangle of the reconstruction pattern indicates each terminal device 20, and the number assigned to each rectangle indicates the divided image received by the terminal device 20 corresponding to the rectangle.

図6Aを参照して説明したように、再構成パターンAでは、配信対象の映像を表示する端末装置20の台数が2-4台の場合には、2×2の格子状配置の表示態様で、各端末装置20が、自装置の位置に対応する分割映像を表示する。また、配信対象の映像を表示する端末装置20の台数が5-16台の場合には、4×4の格子状配置の表示態様で、各端末装置20が、自装置の位置に対応する分割映像を表示する。 As described with reference to FIG. 6A, in the reconstruction pattern A, when the number of terminal devices 20 for displaying the video to be distributed is 2-4, the display mode is a 2 × 2 grid arrangement. , Each terminal device 20 displays a divided image corresponding to the position of its own device. Further, when the number of terminal devices 20 for displaying the video to be distributed is 5-16, each terminal device 20 is divided according to the position of its own device in the display mode of 4 × 4 grid arrangement. Display the image.

再構成パターンA1では、図7Aに示すように、配信対象の映像を表示する端末装置20の台数が2-4台の場合には、各端末装置20は、2×2の格子状配置の表示態様で、配信対象の映像が4分割された分割映像の中から、2×2の格子状配置における自装置の位置に対応する分割映像を表示する。また、配信対象の映像を表示する端末装置20の台数が5-16台の場合には、各端末装置20は、4×4の格子状配置の表示態様で、配信対象の映像が16分割された分割映像の中から、4×4の格子状配置における自装置の位置に対応する分割映像を表示する。 In the reconstruction pattern A1, as shown in FIG. 7A, when the number of terminal devices 20 displaying the images to be distributed is 2-4, each terminal device 20 displays a 2 × 2 grid arrangement. In the embodiment, the divided video corresponding to the position of the own device in the 2 × 2 grid arrangement is displayed from the divided video in which the video to be distributed is divided into four. Further, when the number of terminal devices 20 for displaying the images to be distributed is 5 to 16, each terminal device 20 is divided into 16 parts of the images to be distributed in a display mode of a 4 × 4 grid arrangement. From the divided images, the divided images corresponding to the positions of the own device in the 4 × 4 grid arrangement are displayed.

再構成パターンA2では、図7Aに示すように、配信対象の映像を表示する端末装置20の台数が2-4台の場合には、各端末装置20は、2×2の格子状配置の表示態様で、配信対象の映像が4分割された分割映像の中から、2×2の格子状配置における自装置の位置に対応する分割映像を表示する。 In the reconstruction pattern A2, as shown in FIG. 7A, when the number of terminal devices 20 displaying the images to be distributed is 2-4, each terminal device 20 displays a 2 × 2 grid arrangement. In the embodiment, the divided video corresponding to the position of the own device in the 2 × 2 grid arrangement is displayed from the divided video in which the video to be distributed is divided into four.

また、配信対象の映像を表示する端末装置20の台数が5-16台の場合には、各端末装置20は、4×4の格子状配置の表示態様で、配信対象の映像が4分割された分割映像の中から、4×4の格子状配置における自装置の位置に対応する分割映像を表示する。すなわち、端末装置20は、例えば、自装置の位置が、4×4の格子状配置のうち、左上の4台分の位置に当たる場合には、配信対象の映像が4分割された分割映像のうち、右上の分割映像2を受信する。そして、端末装置20は、例えば、自装置の位置が、4×4の格子状配置の内、左上端の位置に当たる場合には、図7Bに示すように、受信した分割映像2のうち、左上の4分の1の部分の映像2Aを表示する。 Further, when the number of terminal devices 20 for displaying the video to be distributed is 5 to 16, each terminal device 20 is divided into four in a display mode of a 4 × 4 grid arrangement. From the divided images, the divided images corresponding to the positions of the own device in the 4 × 4 grid arrangement are displayed. That is, for example, when the position of the terminal device 20 corresponds to the position of four units on the upper left of the 4 × 4 grid arrangement, the terminal device 20 is divided into four parts of the image to be distributed. , Receive the split video 2 on the upper right. Then, for example, when the position of the own device corresponds to the position of the upper left end of the 4 × 4 grid arrangement, the terminal device 20 has the upper left of the received divided video 2 as shown in FIG. 7B. The image 2A of a quarter part of the above is displayed.

図8は、再構成パターンとして、図6Bを参照して説明した再構成パターンBを用いる場合の、各端末装置20が受信する分割映像を示す図である。図8においては、配信対象の映像の解像度が下げられた映像と、配信対象の映像を4分割した分割映像と、配信対象の映像を9分割した分割映像と、配信対象の映像を16分割した分割映像とが用意されているとする。 FIG. 8 is a diagram showing a divided image received by each terminal device 20 when the reconstruction pattern B described with reference to FIG. 6B is used as the reconstruction pattern. In FIG. 8, the resolution of the video to be distributed is lowered, the video to be distributed is divided into four parts, the video to be distributed is divided into nine parts, and the video to be distributed is divided into 16 parts. It is assumed that a split video is prepared.

図6Bを参照して説明したように、再構成パターンBでは、配信対象の映像を表示する端末装置20の台数が2-4台の場合には、2×2の格子状配置の表示態様で、各端末装置20が、自装置の位置に対応する分割映像を表示する。また、配信対象の映像を表示する端末装置20の台数が5-9台の場合には、3×3の格子状配置の表示態様で、各端末装置20が、自装置の位置に対応する分割映像を表示する。また、配信対象の映像を表示する端末装置20の台数が10-16台の場合には、4×4の格子状配置の表示態様で、各端末装置20が、自装置の位置に対応する分割映像を表示する。 As described with reference to FIG. 6B, in the reconstruction pattern B, when the number of terminal devices 20 for displaying the video to be distributed is 2-4, the display mode is a 2 × 2 grid arrangement. , Each terminal device 20 displays a divided image corresponding to the position of its own device. Further, when the number of terminal devices 20 for displaying the video to be distributed is 5-9, each terminal device 20 is divided according to the position of its own device in the display mode of 3 × 3 grid arrangement. Display the image. Further, when the number of terminal devices 20 for displaying the video to be distributed is 10 to 16, each terminal device 20 is divided according to the position of its own device in the display mode of 4 × 4 grid arrangement. Display the image.

再構成パターンB1では、図8に示すように、配信対象の映像を表示する端末装置20の台数が2-4台の場合には、各端末装置20は、2×2の格子状配置の表示態様で、配信対象の映像が4分割された分割映像の中から、2×2の格子状配置における自装置の位置に対応する分割映像を表示する。また、配信対象の映像を表示する端末装置20の台数が5-9台の場合には、各端末装置20は、3×3の格子状配置の表示態様で、配信対象の映像が9分割された分割映像の中から、3×3の格子状配置における自装置の位置に対応する分割映像を表示する。また、配信対象の映像を表示する端末装置20の台数が10-16台の場合には、各端末装置20は、4×4の格子状配置の表示態様で、配信対象の映像が16分割された分割映像の中から、4×4の格子状配置における自装置の位置に対応する分割映像を表示する。 In the reconstruction pattern B1, as shown in FIG. 8, when the number of terminal devices 20 for displaying the video to be distributed is 2-4, each terminal device 20 displays a 2 × 2 grid arrangement. In the embodiment, the divided video corresponding to the position of the own device in the 2 × 2 grid arrangement is displayed from the divided video in which the video to be distributed is divided into four. Further, when the number of terminal devices 20 for displaying the images to be distributed is 5-9, each terminal device 20 is divided into 9 parts of the images to be distributed in a display mode of a 3 × 3 grid arrangement. From the divided images, the divided images corresponding to the positions of the own device in the 3 × 3 grid arrangement are displayed. Further, when the number of terminal devices 20 for displaying the images to be distributed is 10 to 16, each terminal device 20 is divided into 16 parts of the images to be distributed in a display mode of a 4 × 4 grid arrangement. From the divided images, the divided images corresponding to the positions of the own device in the 4 × 4 grid arrangement are displayed.

再構成パターンB2では、図8に示すように、配信対象の映像を表示する端末装置20の台数が2-4台の場合には、各端末装置20は、2×2の格子状配置の表示態様で、配信対象の映像が4分割された分割映像の中から、2×2の格子状配置における自装置の位置に対応する分割映像を表示する。 In the reconstruction pattern B2, as shown in FIG. 8, when the number of terminal devices 20 for displaying the video to be distributed is 2-4, each terminal device 20 displays a 2 × 2 grid arrangement. In the embodiment, the divided video corresponding to the position of the own device in the 2 × 2 grid arrangement is displayed from the divided video in which the video to be distributed is divided into four.

また、配信対象の映像を表示する端末装置20の台数が5-9台の場合には、左上端、右上端、左下端、右下端に位置する端末装置20は、配信対象の映像が4分割された分割映像の中から、それぞれ対応する位置の分割映像を受信する。すなわち、左上端の端末装置20は、配信対象の映像が4分割された分割映像のうち、左上の分割映像2を受信する。また、右上端の端末装置20は、配信対象の映像が4分割された分割映像のうち、右上の分割映像3を受信する。また、左下端の端末装置20は、配信対象の映像が4分割された分割映像のうち、左下の分割映像4を受信する。また、右下端の端末装置20は、配信対象の映像が4分割された分割映像のうち、右下の分割映像5を受信する。また、その他の端末装置20は、3×3の格子状配置の表示態様で、配信対象の映像が9分割された分割映像の中から、3×3の格子状配置における自装置の位置に対応する分割映像を表示する。左上端、右上端、左下端、右下端に位置する端末装置20はそれぞれ、図7Bと同様に、受信した分割映像のうち、自装置の位置に応じた一部の映像を表示部に表示する。 When the number of terminal devices 20 for displaying the video to be distributed is 5-9, the terminal device 20 located at the upper left end, the upper right end, the lower left end, and the lower right end divides the image to be distributed into four. From the divided video, the divided video at the corresponding position is received. That is, the terminal device 20 at the upper left end receives the divided video 2 on the upper left of the divided video in which the video to be distributed is divided into four. Further, the terminal device 20 at the upper right end receives the divided video 3 on the upper right of the divided video in which the video to be distributed is divided into four. Further, the terminal device 20 at the lower left end receives the divided video 4 at the lower left of the divided video in which the video to be distributed is divided into four. Further, the terminal device 20 at the lower right end receives the divided video 5 at the lower right of the divided video in which the video to be distributed is divided into four. Further, the other terminal device 20 corresponds to the position of the own device in the 3 × 3 grid arrangement from the divided video in which the image to be distributed is divided into 9 in the display mode of the 3 × 3 grid arrangement. Display the split video. Similar to FIG. 7B, the terminal devices 20 located at the upper left end, the upper right end, the lower left end, and the lower right end each display a part of the received divided images according to the position of the own device on the display unit. ..

また、配信対象の映像を表示する端末装置20の台数が10-16台の場合には、各端末装置20は、4×4の格子状配置の表示態様で、配信対象の映像が4分割された分割映像の中から、4×4の格子状配置における自装置の位置に対応する分割映像を表示する。すなわち、端末装置20は、例えば、自装置の位置が、4×4の格子状配置のうち、左上の4台分の位置に当たる場合には、配信対象の映像が4分割された分割映像のうち、左上の分割映像2を受信する。そして、端末装置20は、例えば、自装置の位置が、4×4の格子状配置の内、左上端の位置に当たる場合には、図7Bと同様に、受信した分割映像のうちの一部(左上の4分の1の部分)の映像を表示部に表示する。 Further, when the number of terminal devices 20 for displaying the video to be distributed is 10 to 16, each terminal device 20 is divided into four in a display mode of a 4 × 4 grid arrangement. From the divided images, the divided images corresponding to the positions of the own device in the 4 × 4 grid arrangement are displayed. That is, for example, when the position of the terminal device 20 corresponds to the position of four units on the upper left of the 4 × 4 grid arrangement, the terminal device 20 is divided into four parts of the image to be distributed. , Receives the split video 2 on the upper left. Then, for example, when the position of the own device corresponds to the position of the upper left end in the grid pattern arrangement of 4 × 4, the terminal device 20 is a part of the received divided video (as in FIG. 7B). The image of the upper left quarter) is displayed on the display.

図9は、再構成パターンとして、図6Cを参照して説明した再構成パターンCを用いる場合の、各端末装置20が受信する分割映像を示す図である。図9においては、配信対象の映像の解像度が下げられた映像と、配信対象の映像を4分割した分割映像と、配信対象の映像を16分割した分割映像とが用意されているとする。 FIG. 9 is a diagram showing a divided image received by each terminal device 20 when the reconstruction pattern C described with reference to FIG. 6C is used as the reconstruction pattern. In FIG. 9, it is assumed that an image in which the resolution of the image to be distributed is lowered, a divided image in which the image to be distributed is divided into four, and a divided image in which the image to be distributed is divided into 16 are prepared.

図6Cを参照して説明したように、再構成パターンCでは、配信対象の映像を表示する端末装置20の台数が2-16台の場合には、4×4の格子状配置の表示態様で、各端末装置20が、自装置の位置に対応する分割映像を表示する。 As described with reference to FIG. 6C, in the reconstruction pattern C, when the number of terminal devices 20 for displaying the video to be distributed is 2-16, the display mode is a 4 × 4 grid arrangement. , Each terminal device 20 displays a divided image corresponding to the position of its own device.

再構成パターンC1では、図9に示すように、配信対象の映像を表示する端末装置20の台数が2-16台の場合には、各端末装置20は、4×4の格子状配置の表示態様で、配信対象の映像が16分割された分割映像の中から、4×4の格子状配置における自装置の位置に対応する分割映像を表示する。 In the reconstruction pattern C1, as shown in FIG. 9, when the number of terminal devices 20 for displaying the video to be distributed is 2-16, each terminal device 20 displays a 4 × 4 grid arrangement. In the embodiment, the divided video corresponding to the position of the own device in the 4 × 4 grid arrangement is displayed from the divided video in which the video to be distributed is divided into 16.

再構成パターンC2では、図9に示すように、配信対象の映像を表示する端末装置20の台数が2-16台の場合には、各端末装置20は、4×4の格子状配置の表示態様で、配信対象の映像が4分割された分割映像の中から、4×4の格子状配置における自装置の位置に対応する分割映像を表示する。すなわち、端末装置20は、例えば、自装置の位置が、4×4の格子状配置のうち、左上の4台分の位置に当たる場合には、配信対象の映像が4分割された分割映像のうち、左上の分割映像2を受信する。そして、端末装置20は、例えば、自装置の位置が、4×4の格子状配置の内、左上端の位置に当たる場合には、図7Bと同様に、受信した分割映像のうちの一部(左上の4分の1の部分)の映像を表示部に表示する。 In the reconstruction pattern C2, as shown in FIG. 9, when the number of terminal devices 20 for displaying the video to be distributed is 2-16, each terminal device 20 displays a 4 × 4 grid arrangement. In the embodiment, the divided video corresponding to the position of the own device in the 4 × 4 grid arrangement is displayed from the divided video in which the video to be distributed is divided into four. That is, for example, when the position of the terminal device 20 corresponds to the position of four units on the upper left of the 4 × 4 grid arrangement, the terminal device 20 is divided into four parts of the image to be distributed. , Receives the split video 2 on the upper left. Then, for example, when the position of the own device corresponds to the position of the upper left end in the grid pattern arrangement of 4 × 4, the terminal device 20 is a part of the received divided video (as in FIG. 7B). The image of the upper left quarter) is displayed on the display.

図7Aを参照して説明したように、再構成パターンA2では、配信対象の映像を表示する端末装置20の台数が5-16台である場合には、配信対象の映像が4分割された分割映像が用いられる。また、図8を参照して説明したように、再構成パターンB2では、配信対象の映像を表示する端末装置20の台数が10-16台である場合には、配信対象の映像が4分割された分割映像が用いられる。また、再構成パターンC2では、映像を表示する端末装置20の台数が2-16台である場合には、配信対象の映像が4分割された分割映像が用いられる。すなわち、これらの再構成パターンA2,B2,C2では、配信対象の映像を16分割した分割映像を用意する必要がない。したがって、分割部11が生成する分割グループを減らし、処理負荷、分割映像を記憶する記憶容量などの削減を図ることができる。 As described with reference to FIG. 7A, in the reconstruction pattern A2, when the number of terminal devices 20 displaying the video to be distributed is 5-16, the video to be distributed is divided into four. Video is used. Further, as described with reference to FIG. 8, in the reconstruction pattern B2, when the number of the terminal devices 20 displaying the images to be distributed is 10 to 16, the images to be distributed are divided into four. The divided video is used. Further, in the reconstruction pattern C2, when the number of terminal devices 20 for displaying images is 2-16, a divided image in which the image to be distributed is divided into four is used. That is, in these reconstruction patterns A2, B2, and C2, it is not necessary to prepare a divided video obtained by dividing the video to be distributed into 16 parts. Therefore, it is possible to reduce the number of division groups generated by the division unit 11 and reduce the processing load, the storage capacity for storing the divided video, and the like.

このように、分割部11は、配信対象の映像を表示する端末装置20の台数よりも少ない分割数で配信対象の映像を分割してもよい。すなわち、分割部11は、分割映像が1台の端末装置20で表示される映像よりも大きくなるような分割パターンで配信対象の映像を分割してもよい。この場合、再構成部23は、同期部22が検出した自装置の位置に応じて、受信部21が受信した分割映像における一部の映像を表示部に表示する。すなわち、再構成部23は、受信部21が受信した分割映像の一部をトリミングして表示部に表示する。こうすることで、分割部11が生成する分割グループの数を減らすことができる。 In this way, the division unit 11 may divide the video to be distributed by the number of divisions smaller than the number of terminal devices 20 that display the video to be distributed. That is, the division unit 11 may divide the video to be distributed in a division pattern such that the divided video is larger than the video displayed by one terminal device 20. In this case, the reconstruction unit 23 displays a part of the divided video received by the reception unit 21 on the display unit according to the position of the own device detected by the synchronization unit 22. That is, the reconstruction unit 23 trims a part of the divided video received by the reception unit 21 and displays it on the display unit. By doing so, the number of division groups generated by the division unit 11 can be reduced.

なお、例えば、図9に示す再構成パターンC2の場合、端末装置20は、自装置で映像を表示するサイズの4倍のサイズの分割映像を受信する。端末装置20は、その4倍のサイズの分割映像のトリミングを行う。この場合、端末装置20は、Landscape表示(横向き表示)を行うために横向きに配置するだけでなく、Portrait表示(縦向き表示)を行うために縦向きに配置することも可能である。したがって、図10A,10Bに示すように、縦向きの端末装置20と横向きの端末装置20とを組み合わせて配置して、配信対象の映像を表示することも可能である。なお、図10Aにおいては、配信対象の映像を表示する端末装置20の台数が4台である例を示している。また、図10Bにおいては、配信対象の映像を表示する端末装置20の台数が10台である例を示している。 For example, in the case of the reconstruction pattern C2 shown in FIG. 9, the terminal device 20 receives a divided image having a size four times the size displayed by the own device. The terminal device 20 trims the divided video having a size four times as large as that. In this case, the terminal device 20 can be arranged not only horizontally for landscape display (landscape display) but also vertically for portrait display (portrait display). Therefore, as shown in FIGS. 10A and 10B, it is also possible to arrange the vertically oriented terminal device 20 and the horizontally oriented terminal device 20 in combination to display the image to be distributed. Note that FIG. 10A shows an example in which the number of terminal devices 20 for displaying the video to be distributed is four. Further, FIG. 10B shows an example in which the number of terminal devices 20 for displaying the video to be distributed is 10.

また、分割映像が1台の端末装置20で表示される映像よりも大きくなるような分割パターンで配信対象の映像が分割されている場合、再構成部23は、同期部22が検出した自装置の向きに応じて、受信部21が受信した分割映像における一部の映像を表示部に表示するようにしてもよい。すなわち、再構成部23は、図11に示すように、端末装置20が横向きの場合には(Landscape表示を行う場合には)、分割映像のうち、横向き(横長)の一部の映像(斜線を付した部分)を表示部に表示し、端末装置20が縦向きの場合には(Portrait表示を行う場合には)、縦向き(縦長)の一部の映像(斜線を付した部分)を表示部に表示視してもよい。 Further, when the video to be distributed is divided by a division pattern such that the divided video is larger than the video displayed by one terminal device 20, the reconstructing unit 23 is the own device detected by the synchronization unit 22. Depending on the orientation of the above, a part of the divided video received by the receiving unit 21 may be displayed on the display unit. That is, as shown in FIG. 11, when the terminal device 20 is landscape-oriented (when landscape display is performed), the reconstruction unit 23 is a part of the landscape-oriented (horizontally long) video (diagonal line) of the divided video. (Parts marked with) are displayed on the display unit, and when the terminal device 20 is in portrait orientation (when displaying Portrait), a part of the vertically oriented (portrait) video (parts with diagonal lines) is displayed. It may be displayed on the display unit.

また、分割部11が生成するマニフェストファイルには、図12に示すように、配信されたコンテンツを表示する複数の端末装置20のうち、その複数の端末装置20による表示態様における特定の位置の端末装置20に音声出力をさせるような指示が含まれていてもよい。図12の例では、4×4の格子状に配置された端末装置20のうち、左上端の端末装置20と、左から三番目上から三番目の端末装置20とが音声出力をしている例を示している。 Further, as shown in FIG. 12, in the manifest file generated by the division unit 11, among the plurality of terminal devices 20 that display the distributed contents, the terminal at a specific position in the display mode by the plurality of terminal devices 20 Instructions may be included to cause the device 20 to output audio. In the example of FIG. 12, among the terminal devices 20 arranged in a 4 × 4 grid pattern, the terminal device 20 at the upper left end and the terminal device 20 third from the top to the third from the left output audio. An example is shown.

次に、端末装置20による、自装置と他の端末装置20との相対的な位置関係の決定方法について説明する。 Next, a method of determining the relative positional relationship between the own device and another terminal device 20 by the terminal device 20 will be described.

図13は、端末装置20における、他の端末装置20との相対的な位置関係の決定に係る構成例を示す図である。 FIG. 13 is a diagram showing a configuration example relating to the determination of the relative positional relationship between the terminal device 20 and the other terminal device 20.

図13に示す端末装置20は、検出部24と、共有部25と、決定部26とを備える。検出部24、共有部25および決定部26は、例えば、同期部22を構成する。 The terminal device 20 shown in FIG. 13 includes a detection unit 24, a common unit 25, and a determination unit 26. The detection unit 24, the common unit 25, and the determination unit 26 constitute, for example, a synchronization unit 22.

検出部24は、端末装置20が備えるタッチセンサ27、種々のセンサからなるセンサ部28およびカメラ部29などを用いて、自装置と他の端末装置20との相対的な位置関係を決定するために利用可能な情報、自装置での配信対象の映像の表示に関する情報など種々の情報(以下、準備情報と称する)を収集する。ここで、検出部24は、ネットワーク2へのアクセスを必須とせずに自装置で収集可能な範囲で準備情報を収集する。 The detection unit 24 uses the touch sensor 27 included in the terminal device 20, the sensor unit 28 composed of various sensors, the camera unit 29, and the like to determine the relative positional relationship between the own device and another terminal device 20. It collects various information (hereinafter referred to as "preparation information") such as information that can be used for the camera and information related to the display of the image to be distributed on the own device. Here, the detection unit 24 collects the preparation information within the range that can be collected by the own device without requiring access to the network 2.

検出部24が収集する情報としては、自装置のローカル時刻、自装置が備える表示部の画面サイズ、自装置の向く方位など種々の情報が含まれる。検出部24は、収集した準備情報を共有部25に出力する。 The information collected by the detection unit 24 includes various information such as the local time of the own device, the screen size of the display unit included in the own device, and the orientation of the own device. The detection unit 24 outputs the collected preparation information to the sharing unit 25.

共有部25は、他の端末装置20と、Wifi(登録商標)、Bluetooth(登録商標)などの近距離無線通信を行い、グループを構成する。ここで、共有部25は、ネットワーク2に接続された外部サーバなどを介さずに、近距離無線通信により通信可能な他の端末装置20とグループを構成する。共有部25は、検出部24から出力された準備情報をグループを構成する他の端末装置20に送信するとともに、グループを構成する他の端末装置20から準備情報を受信する。すなわち、共有部25は、グループを構成する他の端末装置20と準備情報を共有する。以下では、グループを構成する端末装置20間で共有された準備情報の集合を、相互位置情報と称することがある。共有部25は、相互位置情報を決定部26に出力する。また、共有部25は、検出部24により自装置の位置の変更、自装置の回転などが検出される(準備情報が更新される)と、更新後の準備情報を他の端末装置20と共有して、相互位置情報を更新する。 The common unit 25 performs short-range wireless communication such as Wifi (registered trademark) and Bluetooth (registered trademark) with another terminal device 20 to form a group. Here, the shared unit 25 constitutes a group with another terminal device 20 capable of communicating by short-range wireless communication without going through an external server or the like connected to the network 2. The sharing unit 25 transmits the preparation information output from the detection unit 24 to the other terminal devices 20 constituting the group, and receives the preparation information from the other terminal devices 20 constituting the group. That is, the sharing unit 25 shares the preparation information with other terminal devices 20 constituting the group. Hereinafter, a set of preparation information shared between the terminal devices 20 constituting the group may be referred to as mutual position information. The shared unit 25 outputs mutual position information to the determination unit 26. Further, when the detection unit 24 detects a change in the position of the own device, rotation of the own device, or the like (preparation information is updated), the sharing unit 25 shares the updated preparation information with the other terminal device 20. And update the mutual location information.

なお、共有部25は、予め定められた事前ルールに基づき、準備情報の共有処理を制限してもよい。例えば、共有部25は、N台以上での準備情報の共有を認めない、表示部の画面サイズ、アスペクト比などが異なる端末装置20との共有を認めない、などの制限を加えてもよい。また、共有部25は、準備情報の変更の有無の検知の頻度を調整してもよい。 In addition, the sharing unit 25 may limit the sharing process of the preparation information based on a predetermined pre-rule. For example, the sharing unit 25 may impose restrictions such as not allowing sharing of preparation information among N or more units, and not allowing sharing with terminal devices 20 having different screen sizes, aspect ratios, and the like of the display unit. Further, the shared unit 25 may adjust the frequency of detecting whether or not the preparation information has been changed.

決定部26は、共有部25から出力された相互位置情報に基づき、グループを構成する他の端末装置20との間で同期をとる。また、決定部26は、共有部25から出力された相互位置情報に基づき、自装置とともにグループを構成する他の端末装置20との相対的な位置関係(自装置の位置(格子状座標))を決定する。 The determination unit 26 synchronizes with other terminal devices 20 constituting the group based on the mutual position information output from the shared unit 25. Further, the determination unit 26 has a relative positional relationship with the other terminal devices 20 forming a group together with the own device (position of the own device (lattice-like coordinates)) based on the mutual position information output from the shared unit 25. To determine.

決定部26は、例えば、グループへの追加の順序、各端末装置20のローカル時刻の中央値などに基づき同期の基準となる端末装置20を決定し、その基準となる端末装置20のローカル時刻と自装置のローカル時刻との差分をとるなどして、グループを構成する他の端末装置20との間で同期をとる。 The determination unit 26 determines the terminal device 20 as the reference for synchronization based on, for example, the order of addition to the group, the median local time of each terminal device 20, and the local time of the reference terminal device 20. Synchronize with other terminal devices 20 that make up the group, such as by taking the difference from the local time of the own device.

次に、決定部26による他の端末装置20との相対的な位置関係の決定方法について説明する。 Next, a method of determining the relative positional relationship with the other terminal device 20 by the determination unit 26 will be described.

他の端末装置20との相対的な位置関係の決定方法の1つとして、端末装置20が備えるタッチセンサ27のタッチ面へのタッチ操作を用いる方法(第1の方法)がある。また、別の決定方法として、端末装置20が備える種々のセンサからなるセンサ部28およびカメラ部29を用いる方法(第2の方法)がある。近年、スマートフォン、タブレット端末などの端末装置20の多くには、指、スタイラスペンなどによるタッチ面に対するタッチ操作によるタッチ位置を検出するタッチセンサ27が搭載されている。決定部26は、このタッチ面へのタッチ操作に基づき、自装置の位置を決定することができる。また、近年、スマートフォン、タブレット端末などの端末装置20の多くには、端末装置20の姿勢の検出などに用いられる種々のセンサからなるセンサ部28およびカメラ部29が搭載されている。決定部26は、センサ部28の検出結果およびカメラ部29により撮像された撮影画像に基づき、自装置の位置を決定することができる。以下では、まず第1の方法について説明する。 As one of the methods for determining the relative positional relationship with the other terminal device 20, there is a method (first method) of using a touch operation on the touch surface of the touch sensor 27 included in the terminal device 20. Further, as another determination method, there is a method (second method) in which the sensor unit 28 and the camera unit 29, which are composed of various sensors included in the terminal device 20, are used. In recent years, many terminal devices 20 such as smartphones and tablet terminals are equipped with a touch sensor 27 that detects a touch position by a touch operation on a touch surface with a finger, a stylus pen, or the like. The determination unit 26 can determine the position of the own device based on the touch operation on the touch surface. Further, in recent years, many terminal devices 20 such as smartphones and tablet terminals are equipped with a sensor unit 28 and a camera unit 29 made of various sensors used for detecting the posture of the terminal device 20. The determination unit 26 can determine the position of the own device based on the detection result of the sensor unit 28 and the captured image captured by the camera unit 29. Hereinafter, the first method will be described first.

第1の方法では、検出部24は、タッチセンサ27のタッチ面に対するタッチ操作によるタッチを検出する。そして、検出部24は、タッチ位置をスライドさせるスライド操作により、タッチ面内において、タッチ面の外縁に沿って設定された複数の外縁領域の少なくとも1つがタッチされた場合、タッチされた外縁領域およびその外縁領域へのタッチのタイミング(時刻など)を示すセンサ情報を生成し、共有部25に出力する。 In the first method, the detection unit 24 detects a touch by a touch operation on the touch surface of the touch sensor 27. Then, when at least one of the plurality of outer edge regions set along the outer edge of the touch surface is touched in the touch surface by the slide operation of sliding the touch position, the detection unit 24 touches the touched outer edge region and the touched outer edge region. Sensor information indicating the timing (time, etc.) of touching the outer edge region is generated and output to the shared unit 25.

図14は、端末装置20が備えるタッチ面27aにおける外縁領域の設定の一例を示す図である。 FIG. 14 is a diagram showing an example of setting an outer edge region on the touch surface 27a included in the terminal device 20.

通常、タッチ面27aは、端末装置20が備える表示部に重畳して設けられており、その形状は矩形(長方形)であることが一般的である。外縁領域は、タッチ面27a内において、タッチ面27aの外縁に沿って複数設定されている。図14においては、タッチ面27aの上端に沿って外縁領域27T(Top)が設定され、タッチ面27aの右端に沿って外縁領域27R(Right)が設定され、タッチ面27aの下端に沿って外縁領域27B(Bottom)が設定され、タッチ面27aの左端に沿って外縁領域27L(Left)が設けられている例を示している。 Usually, the touch surface 27a is provided so as to be superimposed on the display unit included in the terminal device 20, and the shape thereof is generally rectangular. A plurality of outer edge regions are set in the touch surface 27a along the outer edge of the touch surface 27a. In FIG. 14, the outer edge region 27T (Top) is set along the upper end of the touch surface 27a, the outer edge region 27R (Right) is set along the right end of the touch surface 27a, and the outer edge is set along the lower end of the touch surface 27a. An example is shown in which a region 27B (Bottom) is set and an outer edge region 27L (Left) is provided along the left end of the touch surface 27a.

図15は、複数の端末装置20が平面上に配置され、隣接する端末装置20に跨るようにタッチ操作が行われた状態を示す図である。図15においては、端末装置20-1~20-4が横向きに、2×2の格子状に配置されているとする。そして、左上に配置された端末装置20-1から左下に配置された端末装置20-3に跨るタッチ操作(タッチ操作1)、左上に配置された端末装置20-1から右上に配置された端末装置20-2に跨るタッチ操作(タッチ操作2)、および、右上に配置された端末装置20-2から右下に配置された端末装置20-4に跨るタッチ操作(タッチ操作3)が行われたとする。 FIG. 15 is a diagram showing a state in which a plurality of terminal devices 20 are arranged on a plane and a touch operation is performed so as to straddle the adjacent terminal devices 20. In FIG. 15, it is assumed that the terminal devices 20-1 to 20-4 are arranged sideways in a 2 × 2 grid pattern. Then, a touch operation (touch operation 1) straddling the terminal device 20-3 arranged in the lower left from the terminal device 20-1 arranged in the upper left, and a terminal arranged in the upper right from the terminal device 20-1 arranged in the upper left. A touch operation (touch operation 2) straddling the device 20-2 and a touch operation (touch operation 3) straddling the terminal device 20-4 arranged in the lower right from the terminal device 20-2 arranged in the upper right are performed. Suppose.

タッチ操作1により、端末装置20-1の検出部24は、外縁領域27Lがタッチされたこと、および、外縁領域27Lがタッチされたタイミングを示すセンサ情報を生成する。また、端末装置20-3の検出部24は、外縁領域27Rがタッチされたこと、および、外縁領域27Rがタッチされたタイミングを示すセンサ情報を生成する。ここで、端末装置20-3の検出部24が生成するセンサ情報に示されるタイミング(外縁領域27Rがタッチされたタイミング)は、端末装置20-1の検出部24が生成するセンサ情報に示されるタイミング(外縁領域27Lがタッチされたタイミング)の直後である。したがって、これらのセンサ情報から、端末装置20-1,20-3が、端末装置20-1の左端と端末装置20-3の右端とが接するように配置されていることが分かる。 By the touch operation 1, the detection unit 24 of the terminal device 20-1 generates sensor information indicating that the outer edge region 27L has been touched and the timing at which the outer edge region 27L has been touched. Further, the detection unit 24 of the terminal device 20-3 generates sensor information indicating that the outer edge region 27R has been touched and the timing at which the outer edge region 27R has been touched. Here, the timing (timing when the outer edge region 27R is touched) shown in the sensor information generated by the detection unit 24 of the terminal device 20-3 is shown in the sensor information generated by the detection unit 24 of the terminal device 20-1. Immediately after the timing (the timing when the outer edge region 27L is touched). Therefore, from these sensor information, it can be seen that the terminal devices 20-1 and 20-3 are arranged so that the left end of the terminal device 20-1 and the right end of the terminal device 20-3 are in contact with each other.

タッチ操作2により、端末装置20-1の検出部24は、外縁領域27Bがタッチされたこと、および、外縁領域27Bがタッチされたタイミングを示すセンサ情報を生成する。また、端末装置20-2の検出部24は、外縁領域27Tがタッチされたこと、および、外縁領域27Tがタッチされたタイミングを示すセンサ情報を生成する。ここで、端末装置20-2の検出部24が生成するセンサ情報に示されるタイミング(外縁領域27Tがタッチされたタイミング)は、端末装置20-1の検出部24が生成するセンサ情報に示されるタイミング(外縁領域27Bがタッチされたタイミング)の直後である。したがって、これらのセンサ情報から、端末装置20-1,20-2が、端末装置20-1の下端と端末装置20-2の上端とが接するように配置されていることが分かる。 By the touch operation 2, the detection unit 24 of the terminal device 20-1 generates sensor information indicating that the outer edge region 27B has been touched and the timing at which the outer edge region 27B has been touched. Further, the detection unit 24 of the terminal device 20-2 generates sensor information indicating that the outer edge region 27T has been touched and the timing at which the outer edge region 27T has been touched. Here, the timing (timing when the outer edge region 27T is touched) shown in the sensor information generated by the detection unit 24 of the terminal device 20-2 is shown in the sensor information generated by the detection unit 24 of the terminal device 20-1. Immediately after the timing (the timing when the outer edge region 27B is touched). Therefore, from these sensor information, it can be seen that the terminal devices 20-1 and 20-2 are arranged so that the lower end of the terminal device 20-1 and the upper end of the terminal device 20-2 are in contact with each other.

タッチ操作3により、端末装置20-2の検出部24は、外縁領域27Lがタッチされたこと、および、外縁領域27Lがタッチされたタイミングを示すセンサ情報を生成する。また、端末装置20-4の検出部24は、外縁領域27Rがタッチされたこと、および、外縁領域27Rがタッチされたタイミングを示すセンサ情報を生成する。ここで、端末装置20-4の検出部24が生成するセンサ情報に示されるタイミング(外縁領域27Rがタッチされたタイミング)は、端末装置20-2の検出部24が生成するセンサ情報に示されるタイミング(外縁領域27Lがタッチされたタイミング)の直後である。したがって、これらのセンサ情報から、端末装置20-2,20-4が、端末装置20-2の左端と端末装置20-4の右端とが接するように配置されていることが分かる。 By the touch operation 3, the detection unit 24 of the terminal device 20-2 generates sensor information indicating that the outer edge region 27L has been touched and the timing at which the outer edge region 27L has been touched. Further, the detection unit 24 of the terminal device 20-4 generates sensor information indicating that the outer edge region 27R has been touched and the timing at which the outer edge region 27R has been touched. Here, the timing (timing when the outer edge region 27R is touched) shown in the sensor information generated by the detection unit 24 of the terminal device 20-4 is shown in the sensor information generated by the detection unit 24 of the terminal device 20-2. Immediately after the timing (the timing when the outer edge region 27L is touched). Therefore, from these sensor information, it can be seen that the terminal devices 20-2 and 20-4 are arranged so that the left end of the terminal device 20-2 and the right end of the terminal device 20-4 are in contact with each other.

このように、検出部24は、各端末装置20のタッチ面27aの外縁に沿って設定された複数の外縁領域のいずれかがタッチされると、タッチされた外縁領域およびその外縁領域がタッチされたタイミングを示すセンサ情報を生成する。共有部25は、検出部24が生成したセンサ情報を他の端末装置20に送信すると共に、他の端末装置20からセンサ情報を受信する。そして、決定部26は、共有部25が他の端末装置20との間で送受信したセンサ情報に基づき、自装置と他の端末装置20との相対的な位置関係を決定する。 As described above, when any one of the plurality of outer edge regions set along the outer edge of the touch surface 27a of each terminal device 20 is touched, the detection unit 24 touches the touched outer edge region and the outer edge region thereof. Generates sensor information indicating the timing. The sharing unit 25 transmits the sensor information generated by the detection unit 24 to the other terminal device 20, and also receives the sensor information from the other terminal device 20. Then, the determination unit 26 determines the relative positional relationship between the own device and the other terminal device 20 based on the sensor information transmitted and received by the shared unit 25 to and from the other terminal device 20.

第1の方法では、各端末装置20へのタッチ操作(隣接する端末装置20に跨るスライド操作)だけで、端末装置20間の位置関係を決定することができる。したがって、ネットワーク2に接続された外部サーバなどを用いることなく、端末装置20が自律的に、自装置と他の端末装置20との相対的な位置関係を決定することができる。 In the first method, the positional relationship between the terminal devices 20 can be determined only by touching each terminal device 20 (sliding operation across the adjacent terminal devices 20). Therefore, the terminal device 20 can autonomously determine the relative positional relationship between the own device and another terminal device 20 without using an external server or the like connected to the network 2.

なお、図14においては、タッチ面27aの四辺にそれぞれ、1つの外縁領域を設ける例を用いて説明したが、これに限られるものではない。タッチ面の四辺の少なくとも一辺に沿って複数の外縁領域を設定してもよい。 In FIG. 14, an example in which one outer edge region is provided on each of the four sides of the touch surface 27a has been described, but the present invention is not limited to this. A plurality of outer edge regions may be set along at least one of the four sides of the touch surface.

図16は、タッチ面27aの一辺に複数の外縁領域を設定した例を示す図である。図16においては、端末装置20-5のタッチ面27aの右端に沿って、2つの外縁領域27RT,27RDが設定されている例を示している。外縁領域27RTは、タッチ面27a内において、タッチ面27aの右端に沿って、タッチ面27aの上端から下端に向かって、略半分の位置まで延在する。また、外縁領域27RDは、タッチ面27aにおいて、タッチ面の右端に沿って、タッチ面27aの下端から上端に向かって、略半分の位置まで延在する。 FIG. 16 is a diagram showing an example in which a plurality of outer edge regions are set on one side of the touch surface 27a. FIG. 16 shows an example in which two outer edge regions 27RT and 27RD are set along the right end of the touch surface 27a of the terminal device 20-5. The outer edge region 27RT extends in the touch surface 27a along the right end of the touch surface 27a from the upper end to the lower end of the touch surface 27a to a substantially half position. Further, the outer edge region 27RD extends from the lower end to the upper end of the touch surface 27a along the right end of the touch surface to a substantially half position on the touch surface 27a.

図16に示すように、端末装置20-5は縦向きに配置され、端末装置20-6は横向きに、端末装置20-6の下端が端末装置20-5の右端下側に接するように配置されている場合に、端末装置20-5から端末装置20-6に跨るようにスライド操作が行われたとする。この場合、端末装置20-5の検出部24は、外縁領域27RDがタッチされたこと、および、外縁領域27RDがタッチされたタイミングを示すセンサ情報を生成する。また、端末装置20-6の検出部24は、外縁領域27Tがタッチされたこと、および、外縁領域27Tがタッチされたタイミングを示すセンサ情報を生成する。ここで、端末装置20-6の検出部24が生成するセンサ情報に示されるタイミング(外縁領域27Tがタッチされたタイミング)は、端末装置20-5の検出部24が生成するセンサ情報に示されるタイミング(外縁領域27RDがタッチされたタイミング)の直後である。したがって、これらのセンサ情報から、端末装置20-5,20-6が、端末装置20-5の右端下側と端末装置20-4の上端とが接するように配置されていることが分かる。 As shown in FIG. 16, the terminal device 20-5 is arranged vertically, the terminal device 20-6 is arranged horizontally, and the lower end of the terminal device 20-6 is arranged so as to be in contact with the lower right end of the terminal device 20-5. If this is the case, it is assumed that the slide operation is performed so as to straddle the terminal device 20-6 from the terminal device 20-5. In this case, the detection unit 24 of the terminal device 20-5 generates sensor information indicating that the outer edge region 27RD has been touched and the timing at which the outer edge region 27RD has been touched. Further, the detection unit 24 of the terminal device 20-6 generates sensor information indicating that the outer edge region 27T has been touched and the timing at which the outer edge region 27T has been touched. Here, the timing (timing when the outer edge region 27T is touched) shown in the sensor information generated by the detection unit 24 of the terminal device 20-6 is shown in the sensor information generated by the detection unit 24 of the terminal device 20-5. Immediately after the timing (the timing when the outer edge region 27RD is touched). Therefore, from these sensor information, it can be seen that the terminal devices 20-5 and 20-6 are arranged so that the lower right end of the terminal device 20-5 and the upper end of the terminal device 20-4 are in contact with each other.

このように、タッチ面27aの一辺に沿って複数の外縁領域を設けることで、他の端末装置20との相対的な位置関係をより正確に検出することができる。 In this way, by providing a plurality of outer edge regions along one side of the touch surface 27a, it is possible to more accurately detect the relative positional relationship with the other terminal device 20.

次に、第2の方法について説明する。 Next, the second method will be described.

上述したように、スマートフォン、タブレット端末などの端末装置20の多くには、端末装置20の姿勢などを検出するために、加速度センサ、ジャイロセンサ、地磁気センサなどの各種のセンサが搭載されている。そして、近年、端末装置20の中には、これらのセンサを利用して、図17に示すように、仮想的に三次元空間での相対座標系を設定し、その相対座標系の原点(基準位置)からの端末装置20の移動距離および移動の向きを検出する機能を備えるものがある。検出部24は、端末装置20が備えるセンサ部28の検出結果から、三次元空間での相対座標系における端末装置20の移動距離および移動の向きをセンサ情報として検出する。第2の方法においては、端末装置20は、このセンサ情報を他の端末装置20と交換することで、自装置と他の端末装置20との相対的な位置関係を検出する。このとき、各端末装置20で相対座標系の軸がずれないように地磁気センサなどを用いて、座標軸を揃えておく必要がある。 As described above, many of the terminal devices 20 such as smartphones and tablet terminals are equipped with various sensors such as an acceleration sensor, a gyro sensor, and a geomagnetic sensor in order to detect the posture of the terminal device 20 and the like. Then, in recent years, in the terminal device 20, as shown in FIG. 17, a relative coordinate system in a three-dimensional space is virtually set by using these sensors, and the origin (reference) of the relative coordinate system is set. Some have a function of detecting the moving distance and the moving direction of the terminal device 20 from the position). The detection unit 24 detects the movement distance and the movement direction of the terminal device 20 in the relative coordinate system in the three-dimensional space as sensor information from the detection result of the sensor unit 28 included in the terminal device 20. In the second method, the terminal device 20 detects the relative positional relationship between the own device and the other terminal device 20 by exchanging this sensor information with the other terminal device 20. At this time, it is necessary to align the coordinate axes by using a geomagnetic sensor or the like so that the axes of the relative coordinate system do not shift in each terminal device 20.

具体的には、まず、ユーザにより、図18に示すように、2台の端末装置20-7,20-8が、表示部が上方向を向くようにして重ね合わされる。近年の端末装置20の多くには、表示部がユーザに向けられた状態で、ユーザに向かって配置されたカメラ(フロントカメラ)が搭載されている。したがって、下側の端末装置20-7のカメラ部29は、上側の端末装置20-8により覆われる。そのため、端末装置20-7のカメラ部29により撮像された撮影画像は、暗くなる。端末装置20-7の検出部24は、カメラ部29により撮像された撮影画像より、自装置の上側に他の端末装置20が重ね合わせられたことを検出する。すなわち、端末装置20-7の検出部24は、端末装置20の一面に配置されたカメラ部29により撮像された撮影画像に基づき、端末装置20の一面(カメラ部29が配置された面)に他の端末装置20が重ね合わされたことを検出する。 Specifically, first, as shown in FIG. 18, the user superimposes the two terminal devices 20-7 and 20-8 so that the display unit faces upward. Many of the terminal devices 20 in recent years are equipped with a camera (front camera) arranged toward the user with the display unit facing the user. Therefore, the camera unit 29 of the lower terminal device 20-7 is covered by the upper terminal device 20-8. Therefore, the captured image captured by the camera unit 29 of the terminal device 20-7 becomes dark. The detection unit 24 of the terminal device 20-7 detects that another terminal device 20 is superimposed on the upper side of the own device from the captured image captured by the camera unit 29. That is, the detection unit 24 of the terminal device 20-7 is placed on one surface of the terminal device 20 (the surface on which the camera unit 29 is arranged) based on the captured image captured by the camera unit 29 arranged on one surface of the terminal device 20. It is detected that the other terminal devices 20 are overlapped with each other.

端末装置20-7は、自装置の上側に他の端末装置20が重ね合わせられたことを検出すると、例えば、その旨を近距離無線通信により付近の端末装置20に通知する。上側の端末装置20-8の検出部24は、下側の端末装置20-7から他の端末装置20が上側に重ね合わせられた旨の通知を受けると、その通知の前後でセンサ部28の検出結果から自装置が移動していると判定した場合には、自装置が端末装置20-7の上側に重ね合わせられたと検出する。また、端末装置20-8の検出部24は、所定の操作(例えば、タッチ面へのタッチ操作)の入力により、自装置が端末装置20-7の上側に重ね合わせられたことを検出してもよい。 When the terminal device 20-7 detects that another terminal device 20 is superposed on the upper side of the own device, the terminal device 20-7 notifies the nearby terminal device 20 by short-range wireless communication, for example. When the detection unit 24 of the upper terminal device 20-8 receives a notification from the lower terminal device 20-7 that the other terminal device 20 is superposed on the upper side, the detection unit 24 of the sensor unit 28 before and after the notification. When it is determined from the detection result that the own device is moving, it is detected that the own device is superposed on the upper side of the terminal device 20-7. Further, the detection unit 24 of the terminal device 20-8 detects that the own device is superposed on the upper side of the terminal device 20-7 by inputting a predetermined operation (for example, a touch operation on the touch surface). May be good.

共有部25は、自装置と他の端末装置20とが重ね合わせられたことを検出すると(自装置と他の端末装置20との重ね合わせに応じて)、その他の端末装置20と近距離無線通信を行い、検出部24で設定された三次元空間での相対座標系に関する情報を送受信して、三次元空間での相対座標系を一致させる(原点を一致させる)。例えば、上側の端末装置20の共有部25が、自装置において設定されている三次元空間での相対座標系を、下側の端末装置20において設定されている三次元空間での相対座標系に一致させる。 When the shared unit 25 detects that the own device and the other terminal device 20 are superposed (according to the superposition of the own device and the other terminal device 20), the shared unit 25 and the other terminal device 20 are short-range wireless. Communication is performed, information about the relative coordinate system in the three-dimensional space set by the detection unit 24 is transmitted and received, and the relative coordinate system in the three-dimensional space is matched (the origin is matched). For example, the shared portion 25 of the upper terminal device 20 changes the relative coordinate system in the three-dimensional space set in the own device to the relative coordinate system in the three-dimensional space set in the lower terminal device 20. Match.

端末装置20-8の決定部26は、図18に示すように、下側の端末装置20-7との三次元空間での相対座標の一致後に、端末装置20-8が移動すると、検出部24により検出された自装置の移動距離および移動方向に基づき、下側に配置された他の端末装置20-7との相対的な位置関係を決定する。 As shown in FIG. 18, the determination unit 26 of the terminal device 20-8 is a detection unit when the terminal device 20-8 moves after matching the relative coordinates in the three-dimensional space with the lower terminal device 20-7. Based on the movement distance and the movement direction of the own device detected by 24, the relative positional relationship with the other terminal devices 20-7 arranged on the lower side is determined.

すなわち、第2の方法においては、各端末装置20は、自装置が備える各種センサにより相対座標系を算出(設定)する。次に、各端末装置20は、地磁気センサなどを用いて、設定した相対座標系の軸をそろえる。次に、端末装置20同士の重ね合わせにより、設定した座標系の原点を重ね合わせられた端末装置20間で一致させる。次に、端末装置20は、自装置が移動すると、設定した相対座標系での位置(移動方向および移動距離)を検出する。 That is, in the second method, each terminal device 20 calculates (sets) the relative coordinate system by various sensors included in the own device. Next, each terminal device 20 aligns the axes of the set relative coordinate system by using a geomagnetic sensor or the like. Next, by superimposing the terminal devices 20 on each other, the origins of the set coordinate systems are matched between the superposed terminal devices 20. Next, when the own device moves, the terminal device 20 detects a position (moving direction and moving distance) in the set relative coordinate system.

決定部26は、予め定められた事前ルールに基づき、配信対象の映像を表示する端末装置20の数に対応する座標数に応じた格子状配置における自装置の位置(座標)を決定する。事前ルールとしては、例えば、図19に示すように、最大で16台の端末装置20で配信対象の映像が表示される場合に、グループを構成する端末装置20の数が16台に満たなければ、できるだけ配信対象の映像の中央部分の分割映像が表示されるように、自装置の位置を決定するというルールが考えられる。なお、決定部26は、例えば、グループを構成する端末装置20の数を、配信対象の映像を表示する端末装置20として、自装置の位置を決定する。また、グループを構成する端末装置20の数は、ユーザにより端末装置20に入力されてもよい。 The determination unit 26 determines the position (coordinates) of its own device in the grid arrangement according to the number of coordinates corresponding to the number of terminal devices 20 that display the video to be distributed, based on a predetermined rule. As a pre-rule, for example, as shown in FIG. 19, when the video to be distributed is displayed on a maximum of 16 terminal devices 20, the number of terminal devices 20 constituting the group must be less than 16. , A rule is conceivable to determine the position of the own device so that the divided video of the central part of the video to be distributed is displayed as much as possible. The determination unit 26 determines the position of its own device, for example, by setting the number of terminal devices 20 constituting the group as the terminal device 20 for displaying the image to be distributed. Further, the number of terminal devices 20 constituting the group may be input to the terminal device 20 by the user.

また、決定部26は、所定の操作入力、例えば、タッチ面27aへのタッチ操作により、自装置が他の端末装置20とともに形成するグループから除外されたと判定してもよい。また、決定部26は、検出部24の検出結果から、自装置が他の端末装置20と共に配置された平面から所定距離以上離れたことを検出すると、自装置が他の端末装置20とともに形成するグループから除外されたと判定してもよい。なお、第1の方法においても、決定部26は、同様にして、所定の操作入力、自装置が他の端末装置20と共に配置された平面上または立体表面上から所定距離以上離れたことなどに基づき、グループから除外されたと判定してもよい。 Further, the determination unit 26 may determine that the own device is excluded from the group formed together with the other terminal device 20 by a predetermined operation input, for example, a touch operation on the touch surface 27a. Further, when the determination unit 26 detects from the detection result of the detection unit 24 that the own device is separated from the plane arranged together with the other terminal device 20 by a predetermined distance or more, the own device forms together with the other terminal device 20. It may be determined that the person has been excluded from the group. In the first method as well, the determination unit 26 similarly performs a predetermined operation input, that the own device is separated from the plane or the three-dimensional surface arranged together with the other terminal device 20 by a predetermined distance or more. Based on this, it may be determined that the group has been excluded.

また、端末装置20の配置方法として、Landscape表示を行う横向きの配置およびPortrait表示を行う縦向きの配置のいずれか一方に固定してもよい。また、配信対象の映像を表示する端末装置20の数に応じて、Landscape表示を行う端末装置20の数と、Portrait表示を行う端末装置20の数とを変動させてもよい。 Further, as a method of arranging the terminal device 20, it may be fixed to either a horizontal arrangement for displaying Landscape or a vertical arrangement for displaying Portratt. Further, the number of the terminal devices 20 for landscape display and the number of terminal devices 20 for portratit display may be varied according to the number of terminal devices 20 for displaying the video to be distributed.

また、各端末装置20ごとに、Landscape表示およびPortrait表示のいずれか一方、あるいは、Landscape表示およびPortrait表示の両方を行わせるかを、事前ルールとして予め決めておいてもよい。Landscape表示およびPortrait表示の両方を行う場合、例えば、図20に示すように、端末装置20は、Landscape表示を行うか、Portrait表示を行うかに応じて、分割映像のうち、異なる部分を表示部に表示するようにしてもよい。 Further, it may be determined in advance as a pre-rule whether to display either the Landscape display or the Portrait display or both the Landscape display and the Portrait display for each terminal device 20. When both Landscape display and Portrait display are performed, for example, as shown in FIG. 20, the terminal device 20 displays different parts of the divided video depending on whether the Landscape display or the Portrait display is performed. It may be displayed in.

このように本実施形態によれば、端末装置20は、タッチ面27aに対するタッチ操作によるタッチ位置を検出し、タッチ位置をスライドさせるスライド操作により、タッチ面27a内において、タッチ面27aの外縁に沿って設定された複数の外縁領域の少なくとも1つがタッチされた場合、タッチされた外縁領域およびその外縁領域がタッチされたタイミングを示すセンサ情報を生成する検出部24と、他の端末装置20との直接通信により、検出部24により生成されたセンサ情報を他の端末装置20に送信するとともに、他の端末装置20からセンサ情報を受信する共有部25と、共有部25が他の端末装置20との間で送受信したセンサ情報に基づき、自装置と他の端末装置20との相対的な位置関係を決定する決定部26と、を備える。 As described above, according to the present embodiment, the terminal device 20 detects the touch position by the touch operation with respect to the touch surface 27a, and slides the touch position to slide the touch position in the touch surface 27a along the outer edge of the touch surface 27a. When at least one of the plurality of outer edge regions set in the above is touched, the detection unit 24 that generates sensor information indicating the touched outer edge region and the timing at which the outer edge region is touched, and the other terminal device 20 By direct communication, the sensor information generated by the detection unit 24 is transmitted to the other terminal device 20, and the shared unit 25 receives the sensor information from the other terminal device 20, and the shared unit 25 communicates with the other terminal device 20. It includes a determination unit 26 that determines a relative positional relationship between the own device and another terminal device 20 based on sensor information transmitted and received between the terminals.

直接通信により、他の端末装置20との間でセンサ情報を送受信し、そのセンサ情報に基づき、自装置と他の端末装置20との相対的な位置関係を決定することで、外部サーバなどを介さずに、自律的に自装置と他の端末装置との相対的な位置関係を決定することができる。 By sending and receiving sensor information to and from another terminal device 20 by direct communication, and determining the relative positional relationship between the own device and the other terminal device 20 based on the sensor information, an external server or the like can be used. It is possible to autonomously determine the relative positional relationship between the own device and another terminal device without intervention.

また、本実施形態によれば、端末装置20は、基準位置からの三次元空間での相対座標系における自装置の移動距離および移動方向を検出する検出部24と、自装置と他の端末装置20との重ね合わせに応じて、他の端末装置20との間で直接通信により三次元空間での相対座標系に関する情報を送受信して、他の端末装置20との間で相対座標系を一致させる共有部25と、共有部25による相対座標系の一致後に検出部24により検出された自装置の移動距離および移動方向に基づき他の端末装置20との相対的な位置関係を決定する決定部26と、を備える。 Further, according to the present embodiment, the terminal device 20 includes a detection unit 24 that detects the movement distance and the movement direction of the own device in the relative coordinate system in the three-dimensional space from the reference position, and the own device and other terminal devices. According to the superposition with 20, information about the relative coordinate system in the three-dimensional space is transmitted and received by direct communication with the other terminal device 20, and the relative coordinate system is matched with the other terminal device 20. A determination unit that determines the relative positional relationship between the shared unit 25 to be used and the other terminal device 20 based on the moving distance and moving direction of the own device detected by the detecting unit 24 after the shared coordinate system is matched by the shared unit 25. 26 and.

他の端末装置20との重ね合わせに応じて、他の端末装置20との直接通信により、三次元空間での相対座標系に関する情報を送受信して、他の端末装置20と間で相対座標系を一致させ、相対座標系の一致後の自装置の移動距離および移動方向に基づき、自装置と他の端末装置20との相対的な位置関係を決定することで、外部サーバなどを介さずに、自律的に自装置と他の端末装置との相対的な位置関係を決定することができる。 Information about the relative coordinate system in the three-dimensional space is transmitted and received by direct communication with the other terminal device 20 according to the superposition with the other terminal device 20, and the relative coordinate system with the other terminal device 20. By matching and determining the relative positional relationship between the own device and the other terminal device 20 based on the movement distance and movement direction of the own device after the matching of the relative coordinate system, without going through an external server or the like. , It is possible to autonomously determine the relative positional relationship between the own device and another terminal device.

上述の実施形態は代表的な例として説明したが、本発明の趣旨および範囲内で、多くの変更および置換が可能であることは当業者に明らかである。したがって、本発明は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば、実施形態の構成図に記載の複数の構成ブロックを1つに組み合わせたり、あるいは1つの構成ブロックを分割したりすることが可能である。 Although the above embodiments have been described as representative examples, it will be apparent to those skilled in the art that many modifications and substitutions are possible within the spirit and scope of the invention. Therefore, the present invention should not be construed as being limited by the above-described embodiments, and various modifications and modifications can be made without departing from the scope of claims. For example, it is possible to combine a plurality of the constituent blocks described in the configuration diagram of the embodiment into one, or to divide one constituent block into one.

1 映像表示システム
2 ネットワーク
10 配信装置
11 分割部
12 配信部
20,20-1~20-8 端末装置
21 受信部
22 同期部
23 再構成部
24 検出部
25 共有部
26 決定部
27 タッチセンサ
27a タッチ面
27T,27R,27B,27L,27RT,27RD 外縁領域
28 センサ部
29 カメラ部
1 Video display system 2 Network 10 Distribution device 11 Division 12 Distribution unit 20, 20-1 to 20-8 Terminal device 21 Reception unit 22 Synchronization unit 23 Reconstruction unit 24 Detection unit 25 Sharing unit 26 Determination unit 27 Touch sensor 27a Touch Surface 27T, 27R, 27B, 27L, 27RT, 27RD Outer edge area 28 Sensor part 29 Camera part

Claims (3)

自装置とともに平面上または立体表面上に配置された他の端末装置との相対的な位置関係を決定する端末装置であって、
タッチ面に対するタッチ操作によるタッチ位置を検出し、前記タッチ位置をスライドさせるスライド操作により、前記タッチ面内において、前記タッチ面の外縁に沿って設定された複数の外縁領域の少なくとも1つがタッチされた場合、該タッチされた外縁領域および該外縁領域がタッチされたタイミングを示すセンサ情報を生成する検出部と、
前記他の端末装置との直接通信により、前記検出部により生成されたセンサ情報を前記他の端末装置に送信するとともに、前記他の端末装置から前記センサ情報を受信する共有部と、
自装置と前記他の端末装置との同期をとるとともに、前記共有部が前記他の端末装置との間で送受信したセンサ情報に基づき、自装置と前記他の端末装置との相対的な位置関係を決定する決定部と、を備え、
前記検出部は、自装置と前記他の端末装置とのローカル時刻の差分をさらに検出し、
前記決定部は、自装置および前記他の端末装置の中で基準となる端末装置と自装置とのローカル時刻の差分に基づき、自装置と他の端末装置との同期をとり、
前記決定部は、配信対象の映像を分割した複数の分割映像を生成し、前記複数の分割映像それぞれの格納場所を示す情報を含むマニフェストファイルを生成する配信装置から、前記マニフェストファイルを取得し、前記決定した自装置と他の端末装置との相対的な位置関係に基づく、自装置の位置に対応する分割映像を、前記マニフェストファイルに基づいて取得し、
前記決定部により取得された分割映像を自装置が備える表示部に表示する再構成部をさらに備えることを特徴とする端末装置。
It is a terminal device that determines the relative positional relationship with other terminal devices arranged on a plane or a three-dimensional surface together with the own device.
By the slide operation of detecting the touch position by the touch operation with respect to the touch surface and sliding the touch position, at least one of a plurality of outer edge regions set along the outer edge of the touch surface is touched in the touch surface. In the case, a detection unit that generates sensor information indicating the touched outer edge region and the timing at which the outer edge region is touched, and
By direct communication with the other terminal device, the sensor information generated by the detection unit is transmitted to the other terminal device, and the shared unit receives the sensor information from the other terminal device.
The relative positional relationship between the own device and the other terminal device based on the sensor information transmitted and received by the shared unit between the own device and the other terminal device while synchronizing the own device with the other terminal device. With a decision-making part to decide,
The detection unit further detects the difference in local time between the own device and the other terminal device, and further detects the difference.
The determination unit synchronizes the own device with the other terminal device based on the difference in the local time between the own device and the own device as a reference among the own device and the other terminal device .
The determination unit acquires the manifest file from a distribution device that generates a plurality of divided videos obtained by dividing the video to be distributed and generates a manifest file including information indicating the storage location of each of the plurality of divided videos. Based on the manifest file, the divided video corresponding to the position of the own device based on the relative positional relationship between the own device and the other terminal device determined is acquired.
A terminal device further comprising a reconstructing unit that displays a divided image acquired by the determination unit on a display unit included in the own device.
請求項1に記載の端末装置において、
前記タッチ面は、矩形であり、
前記外縁領域は、前記矩形のタッチ面の四辺それぞれに対応して設けられていることを特徴とする端末装置。
In the terminal device according to claim 1,
The touch surface is rectangular and has a rectangular shape.
The terminal device is characterized in that the outer edge region is provided corresponding to each of the four sides of the rectangular touch surface.
請求項2に記載の端末装置において、
前記タッチ面の四辺のうち、少なくとも一辺に沿って、複数の外縁領域が設けられていることを特徴とする端末装置。
In the terminal device according to claim 2,
A terminal device characterized in that a plurality of outer edge regions are provided along at least one of the four sides of the touch surface.
JP2017242037A 2017-12-18 2017-12-18 Terminal device Active JP7075202B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017242037A JP7075202B2 (en) 2017-12-18 2017-12-18 Terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017242037A JP7075202B2 (en) 2017-12-18 2017-12-18 Terminal device

Publications (2)

Publication Number Publication Date
JP2019109694A JP2019109694A (en) 2019-07-04
JP7075202B2 true JP7075202B2 (en) 2022-05-25

Family

ID=67179840

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017242037A Active JP7075202B2 (en) 2017-12-18 2017-12-18 Terminal device

Country Status (1)

Country Link
JP (1) JP7075202B2 (en)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004064123A (en) 2002-07-24 2004-02-26 Denso Corp Network communication system and control processing system using this network communication system
JP2011048610A (en) 2009-08-27 2011-03-10 Jvc Kenwood Holdings Inc Image display system and image display method
JP2011223060A (en) 2010-04-02 2011-11-04 Mitsubishi Electric Corp Information display system, information content distribution server, and display device
JP2011237532A (en) 2010-05-07 2011-11-24 Nec Casio Mobile Communications Ltd Terminal device, terminal communication system and program
US20120139939A1 (en) 2009-03-19 2012-06-07 Microsoft Corporation Dual Module Portable Devices
JP2012133068A (en) 2010-12-21 2012-07-12 Yahoo Japan Corp Multi-display system, terminal, method and program
JP2012169739A (en) 2011-02-10 2012-09-06 Nippon Telegr & Teleph Corp <Ntt> Video division reproduction method, video reproduction method, video division reproduction system and video division reproduction program
JP2013246583A (en) 2012-05-24 2013-12-09 Buffalo Inc Information processing system, server device, information processing method, and program
JP2014123252A (en) 2012-12-21 2014-07-03 Ntt Docomo Inc Communication terminal, screen display method, and program
JP2015079480A (en) 2013-09-13 2015-04-23 株式会社リコー Distribution system and terminal management system
US20160349893A1 (en) 2015-05-28 2016-12-01 Konica Minolta, Inc. Operation display system, operation display apparatus, and operation display program
JP2017050609A (en) 2015-08-31 2017-03-09 沖電気工業株式会社 Video processing system, video processing apparatus, video processing program, and video processing method

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004064123A (en) 2002-07-24 2004-02-26 Denso Corp Network communication system and control processing system using this network communication system
JP2012521043A (en) 2009-03-19 2012-09-10 マイクロソフト コーポレーション Dual module portable device
US20120139939A1 (en) 2009-03-19 2012-06-07 Microsoft Corporation Dual Module Portable Devices
JP2011048610A (en) 2009-08-27 2011-03-10 Jvc Kenwood Holdings Inc Image display system and image display method
JP2011223060A (en) 2010-04-02 2011-11-04 Mitsubishi Electric Corp Information display system, information content distribution server, and display device
JP2011237532A (en) 2010-05-07 2011-11-24 Nec Casio Mobile Communications Ltd Terminal device, terminal communication system and program
JP2012133068A (en) 2010-12-21 2012-07-12 Yahoo Japan Corp Multi-display system, terminal, method and program
JP2012169739A (en) 2011-02-10 2012-09-06 Nippon Telegr & Teleph Corp <Ntt> Video division reproduction method, video reproduction method, video division reproduction system and video division reproduction program
JP2013246583A (en) 2012-05-24 2013-12-09 Buffalo Inc Information processing system, server device, information processing method, and program
JP2014123252A (en) 2012-12-21 2014-07-03 Ntt Docomo Inc Communication terminal, screen display method, and program
US20150294645A1 (en) 2012-12-21 2015-10-15 Ntt Docomo, Inc. Communication terminal, screen display method, and recording medium
JP2015079480A (en) 2013-09-13 2015-04-23 株式会社リコー Distribution system and terminal management system
US20160349893A1 (en) 2015-05-28 2016-12-01 Konica Minolta, Inc. Operation display system, operation display apparatus, and operation display program
JP2016225762A (en) 2015-05-28 2016-12-28 コニカミノルタ株式会社 Operation display system, operation display device and operation display program
JP2017050609A (en) 2015-08-31 2017-03-09 沖電気工業株式会社 Video processing system, video processing apparatus, video processing program, and video processing method

Also Published As

Publication number Publication date
JP2019109694A (en) 2019-07-04

Similar Documents

Publication Publication Date Title
US20210127061A1 (en) Image management system, image management method, and computer program product
EP2981883B1 (en) Method and apparatus for creating a multi-device media presentation
US11550531B2 (en) System and method to increase display area utilizing a plurality of discrete displays
EP3004803B1 (en) A method and apparatus for self-adaptively visualizing location based digital information
JP2015018296A (en) Display controller, program, and recording medium
KR20130081068A (en) Method and apparatus for implementing multi-vision system using multiple portable terminals
KR20190136117A (en) Virtual Three Dimensional Video Creation and Management System and Method
JP7249755B2 (en) Image processing system, its control method, and program
US20140344053A1 (en) Electronic device and method for manipulating the same
CN103414950A (en) Interface display method, device, set top box and server
JP2013218468A (en) Information processing system, display terminal device, server, information processing method, and program
JP7075202B2 (en) Terminal device
CN107851069B (en) Image management system, image management method, and program
JP7054338B2 (en) Video display system, distribution device and terminal device
JP2013135422A (en) Image synthesizing apparatus, terminal device, image synthesizing system, and program
US20170011064A1 (en) Methods and Apparatus for Sending or Receiving an Image
JP2021089382A (en) Electronic apparatus, method for controlling electronic apparatus, program, and storage medium
KR20200116378A (en) Apparatus and method for displaying videoes of a plurality of broadcast channels
JP2017108356A (en) Image management system, image management method and program
US20170026688A1 (en) Terminal device, video display method, and program
US10219025B2 (en) Video distribution device, video distribution method, and program
Chen et al. AR-Span: A Multi-Screen Adaptive Displaying System Using Smart Handheld Devices Based on Mobile Networks
US9305514B1 (en) Detection of relative positions of tablet computers
KR101849384B1 (en) 3D image display system
US20220164154A1 (en) Virtual playout screen for visual media using arrangement of mobile electronic devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201027

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220513

R150 Certificate of patent or registration of utility model

Ref document number: 7075202

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150