JP7152778B2 - Information processing system - Google Patents

Information processing system Download PDF

Info

Publication number
JP7152778B2
JP7152778B2 JP2019092952A JP2019092952A JP7152778B2 JP 7152778 B2 JP7152778 B2 JP 7152778B2 JP 2019092952 A JP2019092952 A JP 2019092952A JP 2019092952 A JP2019092952 A JP 2019092952A JP 7152778 B2 JP7152778 B2 JP 7152778B2
Authority
JP
Japan
Prior art keywords
image
data
images
chat
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019092952A
Other languages
Japanese (ja)
Other versions
JP2020187634A (en
Inventor
厚憲 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sugar Inc.
Original Assignee
Sugar Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sugar Inc. filed Critical Sugar Inc.
Priority to JP2019092952A priority Critical patent/JP7152778B2/en
Publication of JP2020187634A publication Critical patent/JP2020187634A/en
Priority to JP2022151418A priority patent/JP7442855B2/en
Application granted granted Critical
Publication of JP7152778B2 publication Critical patent/JP7152778B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Description

本発明は、情報処理システムに関する。 The present invention relates to an information processing system.

従来、テレビ会議システムや動画配信サービスの中には、動画像を始めとする画像のデータを、インターネットを介して配信するものが存在する。
ここで、1台以上の画面共有端末に入力された情報のうち、他の画面共有端末(以下、「クライアント端末」と呼ぶ)に配信する情報の選択を、管理端末から受け付けることが可能な情報処理システムが提案されている(例えば、特許文献1参照)。
2. Description of the Related Art Conventionally, some teleconferencing systems and moving image distribution services distribute image data including moving images via the Internet.
Here, information that can receive from the management terminal a selection of information to be distributed to other screen sharing terminals (hereinafter referred to as "client terminals") from information input to one or more screen sharing terminals. A processing system has been proposed (see Patent Document 1, for example).

特許文献1に記載の技術を含む従来技術では、複数の画像(複数のユーザから送信された画像や、単一のユーザから送信された複数の資料等の画像)を共有する場合、クライアント端末は、管理端末により選択された画像を表示することができる。 In conventional technologies including the technology described in Patent Document 1, when sharing a plurality of images (images sent from a plurality of users or images of a plurality of documents sent from a single user), the client terminal , an image selected by the management terminal can be displayed.

特開2018-063662号公報JP 2018-063662 A

しかしながら、画像のデータをユーザに提供する手法として、ユーザにとっての利便性を向上させ、且つ、コストを低減させる手法が近年要求されているものの、特許文献1を含め従来の技術ではこのような要求に十分に応えられていない。また、ユーザにとっての利便性を向上させつつ、多量のユーザに画像を共有(配信)する場合、コストが大きくなることがあった。
即ち、特許文献1に記載の技術を含む従来技術では、ユーザは、閲覧する画面に、任意の画像を任意の配置で表示することができず、ユーザにとっての利便性が高いとは言える状況ではなかった。
However, as a method of providing image data to users, there has been a demand in recent years for a method that improves convenience for users and reduces costs. are not adequately addressed. In addition, when sharing (distributing) images to a large number of users while improving convenience for users, the cost may increase.
That is, in the conventional technology including the technology described in Patent Document 1, the user cannot display any image in any arrangement on the screen to be browsed, and it can be said that the convenience for the user is high. I didn't.

本発明は、このような状況を鑑みてなされたものであり、画像をユーザに提供する際における、ユーザにとっての利便性を向上させ、且つ、画像の送信に係るコストを低減することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of such circumstances, and an object of the present invention is to improve convenience for users when providing images to users and to reduce costs associated with image transmission. do.

上記目的を達成するため、本発明の一態様の情報処理システムは、
ユーザに提示される画像のデータを生成する第1情報処理装置と、当該画像を当該ユーザに提示する際に利用される第2情報処理装置とを含む情報処理システムにおいて、
前記第1情報処理装置は、
複数の画像のデータを、第1データの群として取得する第1取得手段と、
前記複数の画像の夫々を区分可能に含む画像のデータを、第2データとして生成する第1生成手段と、
前記第2データを前記第2情報処理装置に送信する制御を実行する送信制御手段と、
を備え、
前記第2情報処理装置は、
前記第1情報処理装置から送信された前記第2データを取得する第2取得手段と、
前記第2データに基づいて、前記複数の画像の夫々を区分する区分手段と、
前記複数の画像のうち1以上の画像を表示対象として、表示対象の前記1以上の画像の夫々をどのように配置するのかを示す情報を、配置情報として取得する第3取得手段と、
前記配置情報に基づいて、表示対象の前記1以上の画像の夫々を配置させた画像のデータを、第4データとして生成する第2生成手段と、
前記第4データに対応する前記画像を前記ユーザに提示する制御を行う提示制御手段と、
を備える。
In order to achieve the above object, an information processing system according to one aspect of the present invention includes:
In an information processing system including a first information processing device that generates data of an image to be presented to a user and a second information processing device that is used when presenting the image to the user,
The first information processing device is
a first acquisition means for acquiring data of a plurality of images as a group of first data;
a first generating means for generating image data including each of the plurality of images in a classifiable manner as second data;
transmission control means for executing control to transmit the second data to the second information processing device;
with
The second information processing device is
a second obtaining means for obtaining the second data transmitted from the first information processing device;
segmentation means for segmenting each of the plurality of images based on the second data;
a third obtaining means for obtaining, as layout information, information indicating how to arrange each of the one or more images to be displayed, with one or more images among the plurality of images to be displayed;
second generation means for generating, as fourth data, image data in which the one or more images to be displayed are arranged based on the arrangement information;
presentation control means for performing control to present the image corresponding to the fourth data to the user;
Prepare.

本発明の一態様の上記情報処理システムに対応するプログラムも、本発明の一態様のプログラムとして提供される。 A program corresponding to the information processing system of one aspect of the present invention is also provided as a program of one aspect of the present invention.

本発明によれば、画像をユーザに提供する際における、ユーザにとっての利便性を向上させ、且つ、画像の送信に係るコストを低減することができる。 According to the present invention, it is possible to improve the convenience for the user when providing the user with an image, and reduce the cost associated with the transmission of the image.

本発明の一実施形態に係る情報処理システムの構成を示すブロック図である。1 is a block diagram showing the configuration of an information processing system according to one embodiment of the present invention; FIG. 図1の情報処理システムのうちサーバのハードウェア構成の一例を示すブロック図である。2 is a block diagram showing an example of a hardware configuration of a server in the information processing system of FIG. 1; FIG. 図1の情報処理システムのうちサーバ及び視聴者端末の機能的構成例の一例を示す機能ブロック図である。2 is a functional block diagram showing an example of functional configurations of a server and a viewer terminal in the information processing system of FIG. 1; FIG. 図3のサーバにより提供される本サービスにおける、画像の提供の例を示す図である。4 is a diagram showing an example of image provision in this service provided by the server of FIG. 3. FIG. 図3のサーバが送信する区分可能画像のデータにおける、メイン画像とサブ画像との配置の例を示す図である。4 is a diagram showing an example of arrangement of a main image and sub-images in data of a classifiable image transmitted by the server of FIG. 3; FIG. 図3のサーバが送信する区分可能画像のデータにおける、メイン画像とサブ画像との配置のうち、図5と異なる例を示す図である。6 is a diagram showing an example different from FIG. 5 in the arrangement of the main image and sub-images in the data of the classifiable image transmitted by the server of FIG. 3; FIG. 図3の機能的構成を有するサーバにより実行される、画像送信処理の流れの一例を説明するフローチャートである。4 is a flowchart illustrating an example of the flow of image transmission processing executed by a server having the functional configuration of FIG. 3; 図3の機能的構成を有する視聴者端末により実行される、画像表示処理の流れの一例を説明するフローチャートである。4 is a flowchart illustrating an example of the flow of image display processing executed by the viewer terminal having the functional configuration of FIG. 3;

以下、図面を参照して、本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

なお、以下において、単に「画像」と呼ぶ場合には、「動画像」と「静止画像」との両方を含むものとする。
また、「動画像」には、次の第1処理乃至第3処理の夫々により表示される画像を含むものとする。
第1処理とは、平面画像(2D画像)におけるオブジェクト(例えば自然人の像)の夫々の動作に対して、複数枚からなる一連の静止画像を時間経過と共に連続的に切り替えて表示させる処理をいう。具体的には例えば、2次元アニメーション、いわゆるパラパラ漫画的な処理が第1処理に該当する。
第2処理とは、立体画像(3Dモデルの画像)におけるオブジェクト(例えば自然人の像)の夫々の動作に対応するモーションを設定しておき、時間経過と共に当該モーションを変化させて表示させる処理をいう。具体的には例えば、3次元アニメーションが第2処理に該当する。
第3処理とは、オブジェクト(例えば自然人の像)の夫々の動作に対応した映像(即ち動画像)を準備しておき、時間経過と共に当該映像を流していく処理をいう。
ここで、「映像(即ち動画像)」は、複数のフレームやフィールド等の画像(以下、「単位画像」と呼ぶ)から構成される。なお以下の例では、単位画像はフレームであるものとして説明する。
In the following description, simply calling an "image" includes both a "moving image" and a "still image".
Also, "moving image" includes images displayed by each of the following first to third processes.
The first process refers to a process of continuously switching and displaying a series of still images consisting of a plurality of images over time for each movement of an object (for example, an image of a natural person) in a planar image (2D image). . Specifically, for example, a two-dimensional animation, a so-called flipbook-like process, corresponds to the first process.
The second process is a process of setting a motion corresponding to each action of an object (for example, an image of a natural person) in a stereoscopic image (3D model image), and displaying the motion while changing it over time. . Specifically, for example, three-dimensional animation corresponds to the second process.
The third process is a process of preparing images (that is, moving images) corresponding to each action of an object (for example, an image of a natural person) and playing the images with the lapse of time.
Here, a "video (that is, moving image)" is composed of images such as a plurality of frames and fields (hereinafter referred to as "unit images"). In the following example, the unit image is assumed to be a frame.

本発明が適用される情報処理システムを用いたサービス(以下、「本サービス」と呼ぶ)では、配信者が、ライブ配信を行うことができる。
なお、ライブ配信とは、チャットを含む各種コンテンツについてリアルタイムで行う配信をいう。また、配信者とは、ライブ配信を行う主体であり、本実施形態では1以上の視聴者とチャットを行う者をいう。また、視聴者とは、ライブ配信された画像を含む各種コンテンツ(チャット含む)を視聴する者をいう。
即ち、本実施形態では、チャットの内容は、配信者とチャットを行う視聴者対してのみならず、そのチャットの内容が画像を含むコンテンツとして、チャットを行う視聴者に限られない全ての視聴者にも、ライブ配信される。即ち、本実施形態におけるチャットは、いわゆる公開チャットである。
In a service using an information processing system to which the present invention is applied (hereinafter referred to as "this service"), a distributor can perform live distribution.
Note that live distribution refers to distribution of various contents including chat in real time. Also, a distributor is a subject who performs live distribution, and in this embodiment, a person who chats with one or more viewers. A viewer is a person who views various contents (including chat) including live-delivered images.
That is, in the present embodiment, the content of the chat is not limited to the viewer who chats with the distributor, but the content of the chat includes an image, and all viewers who are not limited to the viewer who chats. will also be live-streamed. That is, the chat in this embodiment is a so-called public chat.

なお、本実施形態では、配信者は、n人(nは1以上の整数値)の視聴者のうち、1人の視聴者と公開チャットを行うものとする。以下、配信者と公開チャットを行う1人の視聴者を、「チャット対象者」と呼ぶ。
また、後述するようにチャット対象者の選択の手法は、特に限定されないが、本実施形態では、配信者の指示に基づいて選択する手法が採用されているものとする。即ち、配信者は、n人の視聴者のうち1以上の視聴者の中から、チャット対象者を選択するものとする。以下、チャット対象者に選択される候補である視聴者を、「チャット候補者」と呼ぶ。
Note that in the present embodiment, the distributor conducts a public chat with one viewer out of n viewers (where n is an integer value of 1 or more). Hereinafter, one viewer who conducts a public chat with the broadcaster is referred to as a "chat target person".
Also, as will be described later, the method of selecting a chat target person is not particularly limited, but in the present embodiment, a method of selecting based on an instruction from a broadcaster is adopted. That is, it is assumed that the distributor selects a chat target person from one or more viewers out of n viewers. A viewer who is a candidate to be selected as a chat target person is hereinafter referred to as a “chat candidate”.

ここで、本明細書において、チャットとは、必要に応じてインターネットを含むネットワークを通じて、複数端末間でメッセージ等をリアルタイムにやり取りするコミュニケーションをいう。コミュニケーションの手段としては、文字、音声、画像(静止画像及び動画像)等を用いることができる。これらの手段の夫々を用いたチャットは、「テキストチャット」、「ボイスチャット及」び「ビデオチャット」の夫々と呼ばれている。以下の説明では、ビデオチャットを想定しているが、特にこれに限定されず、テキストチャットやボイスチャットも採用することができる。ここで、ボイスチャットには、いわゆる「電話」も含めることができる。つまり、ネットワークが、携帯電話のキャリアが管理するキャリア網である場合、いわゆる「電話」もボイスチャットと把握することができる。また、ビデオチャットとテキストチャットを組み合わせて、画像中にメッセージテキストを重畳してスクロール表示させても良い。 Here, in this specification, chat refers to communication in which messages or the like are exchanged in real time between a plurality of terminals via a network including the Internet as necessary. Characters, voices, images (still images and moving images), and the like can be used as means of communication. Chats using each of these means are called "text chat", "voice chat" and "video chat" respectively. Although video chat is assumed in the following description, it is not particularly limited to this, and text chat and voice chat can also be adopted. Here, voice chat can also include so-called "telephone". In other words, if the network is a carrier network managed by a mobile phone carrier, so-called "telephone" can also be understood as voice chat. Also, a video chat and a text chat may be combined, and a message text may be superimposed on an image and displayed by scrolling.

図1は、本発明の一実施形態に係る情報処理システムの構成を示すブロック図である。 FIG. 1 is a block diagram showing the configuration of an information processing system according to one embodiment of the present invention.

図1に示す情報処理システムは、サーバ1と、配信者端末2と、n台の視聴者端末3-1乃至3-nの夫々とが、インターネット等の所定のネットワークNを介して相互に接続されている。 In the information processing system shown in FIG. 1, a server 1, a distributor terminal 2, and n audience terminals 3-1 to 3-n are interconnected via a predetermined network N such as the Internet. It is

サーバ1は、配信者端末2と、視聴者端末3-1乃至3-nとに対してライブ配信をする環境を提供する。 The server 1 provides an environment for live distribution to the distributor terminal 2 and the viewer terminals 3-1 to 3-n.

図1に示すように、配信者端末2は、配信者U1が操作するものとする。
また、視聴者端末3-1乃至3-nの夫々は、視聴者U2-1乃至U2-nの夫々が操作するものとする。なお、視聴者端末3-1乃至3-nの夫々を個々に区別する必要が無い場合、これらをまとめて「視聴者端末3」と呼ぶ。また、「視聴者端末3」とまとめて呼んでいる場合、視聴者U2-1乃至U2-nをまとめて「視聴者U2」と呼ぶ。
As shown in FIG. 1, the distributor terminal 2 is operated by the distributor U1.
Also, the viewer terminals 3-1 to 3-n are operated by the viewers U2-1 to U2-n, respectively. Note that when there is no need to distinguish between the viewer terminals 3-1 to 3-n individually, they are collectively referred to as the "viewer terminal 3". Also, when collectively referred to as "viewer terminal 3", viewers U2-1 to U2-n are collectively referred to as "viewer U2".

図2は、図1の情報処理システムのうちサーバのハードウェア構成の一例を示すブロック図である。 FIG. 2 is a block diagram showing an example of a hardware configuration of a server in the information processing system of FIG. 1. As shown in FIG.

サーバ1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、出力部16と、入力部17と、記憶部18と、通信部19と、ドライブ20と、を備えている。 The server 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input/output interface 15, an output section 16, and an input section 17. , a storage unit 18 , a communication unit 19 , and a drive 20 .

CPU11は、ROM12に記録されているプログラム、又は、記憶部18からRAM13にロードされたプログラムに従って各種の処理を実行する。
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The CPU 11 executes various processes according to programs recorded in the ROM 12 or programs loaded from the storage unit 18 to the RAM 13 .
The RAM 13 also stores data necessary for the CPU 11 to execute various processes.

CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、出力部16、入力部17、記憶部18、通信部19及びドライブ20が接続されている。 The CPU 11 , ROM 12 and RAM 13 are interconnected via a bus 14 . An input/output interface 15 is also connected to this bus 14 . An output unit 16 , an input unit 17 , a storage unit 18 , a communication unit 19 and a drive 20 are connected to the input/output interface 15 .

出力部16は、ディスプレイやスピーカ等で構成され、各種情報を画像や音声として出力する。
入力部17は、キーボードやマウス等で構成され、各種情報を入力する。
The output unit 16 includes a display, a speaker, and the like, and outputs various information as images and sounds.
The input unit 17 is composed of a keyboard, a mouse, etc., and inputs various kinds of information.

記憶部18は、ハードディスクやDRAM(Dynamic Random Access Memory)等で構成され、各種データを記憶する。
通信部19は、インターネットを含むネットワークNを介して他の装置(図1の例では配信者端末2や視聴者端末3)との間で通信を行う。
The storage unit 18 is composed of a hard disk, a DRAM (Dynamic Random Access Memory), or the like, and stores various data.
The communication unit 19 communicates with other devices (distributor terminal 2 and viewer terminal 3 in the example of FIG. 1) via a network N including the Internet.

ドライブ20には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ20によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部18にインストールされる。
また、リムーバブルメディア31は、記憶部18に記憶されている各種データも、記憶部18と同様に記憶することができる。
A removable medium 31 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is mounted in the drive 20 as appropriate. A program read from the removable medium 31 by the drive 20 is installed in the storage unit 18 as necessary.
The removable medium 31 can also store various data stored in the storage unit 18 in the same manner as the storage unit 18 .

なお、図示はしないが、図1の情報処理システムの配信者端末2及び視聴者端末3は図2に示すハードウェア構成と基本的に同様の構成を有している。ただし、配信者端末2、又は視聴者端末3は、入力部の1つとして、カメラ等の撮像部を有していてもよく、タッチパネルを有していてもよい。 Although not shown, the distributor terminal 2 and the viewer terminal 3 of the information processing system of FIG. 1 have basically the same hardware configuration as that shown in FIG. However, the distributor terminal 2 or the viewer terminal 3 may have an imaging unit such as a camera as one of the input units, or may have a touch panel.

このような図2のサーバ1、配信者端末2及び視聴者端末3の各種ハードウェアと各種ソフトウェアとの協働により、次のような一連の処理が実行可能となる。 The following series of processes can be executed by cooperation of various hardware and software of the server 1, the distributor terminal 2, and the viewer terminal 3 of FIG.

本実施形態では、サーバ1は、視聴者端末3で公開チャットを視聴する視聴者の中から、1人以上のチャット候補者を任意の方法で抽出する。サーバ1は、抽出した1人以上のチャット候補者の中から、例えば配信者端末2からの指示に基づいてチャット対象者を決定する。
サーバ1は、この様にして決定したチャット対象者の視聴者端末3と、配信者端末2との間で公開チャットを行うために必要な各種制御を実行し、そのチャット内容を含む所定のコンテンツを全ての視聴者端末3-1乃至3-nにライブ配信をする。
In this embodiment, the server 1 extracts one or more chat candidates from the viewers viewing the public chat on the viewer terminal 3 by any method. The server 1 determines a chat target person based on an instruction from the distributor terminal 2, for example, from among the extracted one or more chat candidates.
The server 1 executes various controls necessary for conducting a public chat between the viewer terminal 3 of the chat target determined in this manner and the distributor terminal 2, and performs predetermined content including the contents of the chat. are distributed live to all viewer terminals 3-1 to 3-n.

ここで、チャット対象者に選択されていない1人以上のチャット候補者の視聴者端末3が撮像する画像(主に視聴者の顔画像)は、少なくとも配信者端末2に一覧表示されて、配信者U1側でいつでもチャット対象者に選択できる状態となっている。
この様にすることにより、例えば、アイドルタレント等が配信者U1となっているライブ配信において、配信者U1は、任意のファン(視聴者U2)との対話を自由に切り替えてライブ配信に載せることができる。これにより、本サービスは、視聴しているファンに「いつか選ばれるかもしれない」という期待感を醸成し、以て、より多くのファンがライブ配信の視聴者となる契機とすることができる。
Here, images (mainly face images of viewers) captured by the viewer terminal 3 of one or more chat candidates who have not been selected as chat candidates are displayed in a list on at least the distributor terminal 2 and distributed. The person U1 is in a state where he can be selected as a chat target person at any time.
By doing so, for example, in live distribution in which the distributor U1 is an idol talent, the distributor U1 can freely switch dialogues with arbitrary fans (viewers U2) and include them in the live distribution. can be done. As a result, this service will create a sense of anticipation among the watching fans that they may be selected someday, and this will serve as an opportunity for more fans to become viewers of the live distribution.

このように、情報処理システムは、ライブ配信をする一連の処理として、サーバ1が視聴者端末3へ画像を送信する段階に係る一連の処理(以下、「画像送信処理」と呼ぶ)と、視聴者端末3が実際に視聴者に画像を表示する段階に係る一連の処理(以下、「画像表示処理」と呼ぶ)と、から構成される一連の処理とを実行することができる。
このような画像送信処理及び画像表示処理を実現すべく、図1の情報処理システムは図3に示すような機能的構成を有している。
即ち、図3は、図1の情報処理システムのうちサーバ及び視聴者端末の機能的構成例の一例を示す機能ブロック図である。
In this way, the information processing system includes, as a series of processes for live distribution, a series of processes (hereinafter referred to as "image transmission A series of processes (hereinafter referred to as "image display process") relating to the stage where the user terminal 3 actually displays an image to a viewer can be executed.
In order to realize such image transmission processing and image display processing, the information processing system in FIG. 1 has a functional configuration as shown in FIG.
That is, FIG. 3 is a functional block diagram showing an example of the functional configuration of the server and the viewer terminal in the information processing system of FIG.

図3以降の説明において、理解を容易なものとすべく、視聴者U2のうち、チャット対象者と、1人のチャット候補者と、1人の一般視聴者についてのみ言及する。一般視聴者とは、チャット対象者でもチャット候補者でもない視聴者U2をいう。
そして、視聴者端末3-1乃至3-nのうち、チャット対象者が操作する視聴者端末3を、視聴者端末3-a(aは1からnのうちの任意の整数値)として説明する。この場合、視聴者端末3-aは、視聴者U2-aにより操作される。そこで、以下、視聴者U2-aを、「チャット対象者U2-a」と呼ぶ。
一方、視聴者端末3-1乃至3-nのうち、チャット候補者が操作する視聴者端末3を視聴者端末3-b(bはaとは異なる整数値であって、1からnのうちの任意の整数値)として説明する。この場合、視聴者端末3-bは、視聴者U2-bにより操作される。そこで、以下、視聴者U2-bを、「チャット候補者U2-b」と呼ぶ。
また、視聴者端末3-1乃至3-nのうち、一般視聴者が操作する視聴者端末3を、視聴者端末3-c(cはa、bとは異なる整数値であって、1からnのうちの任意の整数値)として説明する。そこで、以下、視聴者U2-cを、「一般視聴者U2-c」と呼ぶ。
In the description of FIG. 3 and subsequent figures, only the chat target person, one chat candidate, and one general viewer among the viewers U2 will be referred to for easy understanding. A general viewer means a viewer U2 who is neither a chat target nor a chat candidate.
Among the viewer terminals 3-1 to 3-n, the viewer terminal 3 operated by the chat target person will be described as the viewer terminal 3-a (a is an arbitrary integer value from 1 to n). . In this case, the viewer terminal 3-a is operated by the viewer U2-a. Therefore, the viewer U2-a is hereinafter referred to as "chat target person U2-a".
On the other hand, among the viewer terminals 3-1 to 3-n, the viewer terminal 3 operated by the chat candidate is the viewer terminal 3-b (b is an integer value different from a and Any integer value of ). In this case, the viewer terminal 3-b is operated by the viewer U2-b. Therefore, the viewer U2-b is hereinafter referred to as "chat candidate U2-b".
Further, among the viewer terminals 3-1 to 3-n, the viewer terminal 3 operated by the general viewer is designated as the viewer terminal 3-c (c is an integer value different from a and b, any integer value of n). Therefore, the viewer U2-c is hereinafter referred to as "general viewer U2-c".

図3においては、説明を簡単にするため、視聴者のうち、チャット対象者U2-aと、チャット候補者U2-bとは、既に選択されているものとする。なお、配信者U1、チャット対象者U2-a、及びチャット候補者U2-bは、主に、自らを撮像した画像をチャットに用いるものとする。
また、視聴者端末3-cは図2と同様の構成を有しているが、図3では、CPU311と、通信部312と、入力部313と、出力部314とのみが図示されている。
In FIG. 3, to simplify the explanation, it is assumed that the chat target person U2-a and the chat candidate U2-b have already been selected among the viewers. It should be noted that the distributor U1, chat target person U2-a, and chat candidate U2-b mainly use images of themselves for chat.
The viewer terminal 3-c has the same configuration as in FIG. 2, but only the CPU 311, communication section 312, input section 313, and output section 314 are shown in FIG.

画像送信処理が実行される場合には、サーバ1のCPU11において、画像データ取得部111と、配信者提示画像制御部112と、チャット対象者提示画像制御部113と、チャット候補者提示画像制御部114と、視聴者提示画像制御部115と、が機能する。 When the image transmission process is executed, in the CPU 11 of the server 1, the image data acquisition unit 111, the distributor presentation image control unit 112, the chat target person presentation image control unit 113, and the chat candidate presentation image control unit 114 and the viewer presentation image control unit 115 function.

また、画像表示処理が実行される場合には、視聴者端末3-cのCPU311においては、区分可能画像データ取得部321と、区分可能画像データ領域区分部322と、サブ画像配置情報取得部323と、表示画像データ生成部324と、表示制御部325と、が機能する。 Further, when the image display process is executed, the CPU 311 of the viewer terminal 3-c includes a classifiable image data acquisition unit 321, a classifiable image data region dividing unit 322, and a sub-image arrangement information acquiring unit 323. , the display image data generation unit 324 and the display control unit 325 function.

配信者端末2は、配信者U1を撮像し、その結果得られる画像(配信者U1を被写体に含む画像であり、以下、「配信者画像」と呼ぶ)のデータをサーバ1に送信する。 The distributor terminal 2 takes an image of the distributor U1, and transmits data of an image obtained as a result (an image including the distributor U1 as a subject, hereinafter referred to as a “distributor image”) to the server 1 .

視聴者端末3-aは、チャット対象者U2-aを撮像し、その結果得られる画像(チャット対象者U2-aを被写体に含む画像であり、以下、「チャット対象者画像」と呼ぶ)のデータをサーバ1に送信する。 The viewer terminal 3-a captures an image of the chat target person U2-a, and an image obtained as a result (an image including the chat target person U2-a as a subject, hereinafter referred to as a "chat target person image"). Send data to server 1.

視聴者端末3-bは、チャット候補者U2-bを撮像し、その結果得られる画像(チャット候補者U2-bを被写体に含む画像であり、以下、「チャット候補者画像」と呼ぶ)のデータをサーバ1に送信する。 The viewer terminal 3-b captures an image of the chat candidate U2-b, and an image obtained as a result (an image including the chat candidate U2-b as a subject, hereinafter referred to as a “chat candidate image”). Send data to server 1.

画像データ取得部111は、複数の画像のデータを、画像のデータの群(以下、「画像データの群」と呼ぶ)として取得する。
画像データ取得部111は、メイン画像データ取得部121と、サブ画像データ取得部122とを有する。
The image data acquisition unit 111 acquires data of a plurality of images as a group of image data (hereinafter referred to as an “image data group”).
The image data acquisition section 111 has a main image data acquisition section 121 and a sub image data acquisition section 122 .

メイン画像データ取得部121は、配信者端末2から送信されてきた配信者画像のデータを、メイン画像のデータとして取得する。 The main image data acquisition unit 121 acquires the data of the distributor image transmitted from the distributor terminal 2 as the data of the main image.

サブ画像データ取得部122は、視聴者端末3-aから送信されてきたチャット対象者画像のデータを、サブ画像のデータとして取得する。
また、サブ画像データ取得部122は、視聴者端末3-bから送信されてきたチャット候補者画像のデータを、サブ画像のデータとして取得する。
The sub-image data acquisition unit 122 acquires the chat target person image data transmitted from the viewer terminal 3-a as sub-image data.
Further, the sub-image data acquiring unit 122 acquires the chat candidate image data transmitted from the viewer terminal 3-b as sub-image data.

具体的には例えば、アイドルタレント等が配信者U1となっているライブ配信において、一般視聴者U2-cが視聴する画面には、アイドルタレントを被写体に含む画像(配信者画像)がメイン画像として大きく表示される。一般視聴者U2-cが視聴する画面には、更に、アイドルタレントとチャットを行うファンを被写体に含む画像(チャット対象者画像)がサブ画像として小さくメイン画像に重畳されて表示される。また、一般視聴者U2-cが視聴する画面には、チャット対象者に選択される候補であるファンを被写体に含む画像(チャット候補者画像)がサブ画像としてメイン画像に重畳されて小さく表示される。
つまり、メイン画像とは、視聴者端末3-cの画面において、主として表示される画像である。また、サブ画像とは、視聴者端末3-cの画面において、メイン画像に重畳されて表示される画像である。即ち、視聴者端末3-cの画面において、メイン画像である配信者画像に、サブ画像であるチャット対象者画像やチャット候補者画像が重畳されて表示される。
なお、このようなメイン画像に対するサブ画像の重畳の例は、図4を用いて後述する。
Specifically, for example, in a live distribution in which an idol celebrity or the like is the distributor U1, an image (distributor image) containing the idol talent as a subject is displayed as the main image on the screen viewed by the general viewer U2-c. displayed large. On the screen viewed by the general viewer U2-c, an image including a fan who chats with the idol talent as a subject (chat target person image) is displayed as a small sub image superimposed on the main image. In addition, on the screen viewed by the general viewer U2-c, an image (chat candidate image) including a fan who is a candidate to be selected as a chat target person as a subject is superimposed on the main image as a sub image and displayed in a small size. be.
That is, the main image is an image that is mainly displayed on the screen of the viewer terminal 3-c. A sub-image is an image that is superimposed on the main image and displayed on the screen of the viewer terminal 3-c. That is, on the screen of the viewer terminal 3-c, the chat target person image and the chat candidate image, which are sub-images, are superimposed on the distributor image, which is the main image, and displayed.
An example of superimposing a sub-image on such a main image will be described later with reference to FIG.

上述のように、画像データ取得部111は、メイン画像のデータと、1以上のサブ画像のデータを、画像データの群として取得する。 As described above, the image data acquisition unit 111 acquires main image data and one or more sub-image data as a group of image data.

配信者提示画像制御部112は、画像データ取得部111により取得された画像データの群に基づき、配信者U1に提示される画像のデータを送信する制御を実行する。 Based on the group of image data acquired by the image data acquisition unit 111, the distributor presentation image control unit 112 controls transmission of image data to be presented to the distributor U1.

即ち、例えば、配信者提示画像制御部112は、チャット対象者画像のデータを配信者端末2に送信する。配信者端末2は、サーバ1から送信されてきたチャット対象者画像のデータに基づき、チャット対象者画像を配信者U1に提示する。これにより、配信者U1は、チャット対象者U2-aとビデオチャットをすることができる。
また、例えば、配信者提示画像制御部112は、チャット候補者画像のデータを配信者端末2に送信する。配信者端末2は、サーバ1から送信されてきたチャット候補者画像のデータに基づき、チャット候補者画像を配信者U1に提示する。これにより、配信者U1は、所望のタイミングで、チャット対象者(新たなチャット対象者U2-a)を、チャット候補者U2-bに切り替える操作をすることができる。
That is, for example, the distributor presentation image control unit 112 transmits the data of the chat target person image to the distributor terminal 2 . The distributor terminal 2 presents the chat target person image to the distributor U1 based on the chat target person image data transmitted from the server 1 . As a result, the distributor U1 can have a video chat with the chat target person U2-a.
Also, for example, the distributor presentation image control unit 112 transmits the data of the chat candidate image to the distributor terminal 2 . The distributor terminal 2 presents the chat candidate image to the distributor U1 based on the chat candidate image data transmitted from the server 1 . As a result, the broadcaster U1 can switch the chat target person (new chat target person U2-a) to the chat candidate U2-b at a desired timing.

配信者提示画像制御部112は、画像データの群を配信者端末2に送信する場合において、画像データの群を構成する各画像のデータの夫々を、配信者端末2にストリーミングに係るコネクションの夫々を利用して、送信することができる。 When transmitting a group of image data to the distributor terminal 2, the distributor presentation image control unit 112 transmits each image data constituting the group of image data to the distributor terminal 2 via each connection related to streaming. can be used to send.

ここで、ストリーミングとは、主に音声や動画像等のコンテンツのデータを、インターネット等のネットワークを介して送受信する方式(技術)である。例えば、ストリーミングの方式でコンテンツのデータを受信する情報処理装置は、コンテンツのデータのダウンロードと再生とを並行して行う。 Here, streaming is a method (technique) for transmitting and receiving content data such as audio and moving images mainly via a network such as the Internet. For example, an information processing apparatus that receives content data in a streaming manner downloads and reproduces content data in parallel.

また、ストリーミングの方式でコンテンツのデータを送受信する場合、一般的に、コンテンツのデータを送信する情報処理装置と、コンテンツのデータを受信する情報処理装置との間に「コネクション」を生成する必要がある。
なお、本明細書における「コネクション」の用語は、ストリーミングの方式で送受信されるデータの流れを含む広義な概念である。具体的には例えば、User Datagram Protocol(以下、「UDP」と呼ぶ)を用いたコネクションレス型通信における、ストリーミングのデータの流れは、コネクションに含まれる。
Also, when content data is transmitted and received by streaming, it is generally necessary to create a "connection" between an information processing device that transmits content data and an information processing device that receives content data. be.
The term "connection" used in this specification is a broad concept that includes the flow of data transmitted and received in a streaming manner. Specifically, for example, a connection includes a streaming data flow in connectionless communication using User Datagram Protocol (hereinafter referred to as “UDP”).

また、コネクションは、1つの送信する装置と1つの受信する装置との組毎、且つ、1つのコンテンツ(例えば、1つの動画像)毎に、生成される。なお、詳細は後述するが、多数の端末にコネクションを生成する場合、コネクションは、Content Delivery Network(以下、「CDN」と呼ぶ)の仕組みを活用して、生成されてよい。 Also, a connection is generated for each set of one transmitting device and one receiving device and for each content (for example, one moving image). Although the details will be described later, when creating connections to a large number of terminals, the connections may be created using a mechanism of a Content Delivery Network (hereinafter referred to as "CDN").

例えば、配信者提示画像制御部112は、チャット対象者画像とチャット候補者画像の夫々のデータを、コネクションの夫々を利用して、配信者端末2に送信することができる。
即ち、詳細は後述するが、配信者端末2は、チャット対象者画像及びチャット候補者画像のデータの夫々を、複数のコネクションの夫々を利用して取得する。この場合、チャット対象者画像のデータのためのコネクションと、チャット候補者画像のデータのためのコネクションとは、互いに別のコネクションである。つまり、配信者端末2は、複数の画像が重畳された1つの画像のデータを1つのコネクションを利用して受信するのではない。
これにより、配信者U1は、チャット対象者画像、及びチャット候補者画像を、任意の配置で表示することができる。また、配信者U1にとっては、リアルタイム性を損なわずに、チャット対象者画像及びチャット候補者画像が提示される。
For example, the distributor presentation image control unit 112 can transmit the data of the chat target person image and the chat candidate image to the distributor terminal 2 using each connection.
That is, although the details will be described later, the distributor terminal 2 acquires the data of the chat target person image and the chat candidate image using each of the plurality of connections. In this case, the connection for chat target person image data and the connection for chat candidate image data are separate connections. In other words, the distributor terminal 2 does not use one connection to receive data of one image in which multiple images are superimposed.
Thereby, the distributor U1 can display the chat target person image and the chat candidate image in an arbitrary arrangement. Further, for the distributor U1, the chat target person image and the chat candidate image are presented without impairing real-time performance.

チャット対象者提示画像制御部113は、画像データ取得部111により取得された画像データの群に基づき、チャット対象者U2-aに提示される画像のデータを送信する制御を実行する。 Based on the group of image data acquired by the image data acquisition unit 111, the chat target person presentation image control unit 113 executes control for transmitting image data to be presented to the chat target person U2-a.

即ち、例えば、チャット対象者提示画像制御部113は、配信者画像のデータを視聴者端末3-aに送信する。視聴者端末3-aは、サーバ1から送信されてきた配信者画像のデータに基づき、配信者画像をチャット対象者U2-aに提示する。これにより、チャット対象者U2-aは、配信者U1とビデオチャットをすることができる。
また、例えば、チャット対象者提示画像制御部113は、チャット候補者画像のデータを視聴者端末3-aに送信する。視聴者端末3-aは、サーバ1から送信されてきたチャット候補者画像のデータに基づき、チャット候補者画像をチャット対象者U2-aに提示する。これにより、チャット対象者U2-aは、チャット候補者U3-bの様子を把握することができる。
このとき、上述した一般視聴者U2-cが視聴する画面と同様に、チャット対象者に選択される候補であるファンを被写体に含む画像(チャット候補者画像)がサブ画像として、メイン画像(配信者画像)に重畳されて小さく表示することができる。即ち例えば、チャット対象者U2-aが視聴する視聴者端末3-aの画面は、メイン画像である配信者画像に、サブ画像であるチャット候補者画像が重畳されて表示される。
That is, for example, the chat target person presentation image control unit 113 transmits the data of the distributor image to the viewer terminal 3-a. The viewer terminal 3-a presents the distributor image to the chat target person U2-a based on the data of the distributor image transmitted from the server 1. FIG. This allows chat target person U2-a to have a video chat with distributor U1.
Further, for example, the chat target person presentation image control unit 113 transmits the data of the chat candidate image to the viewer terminal 3-a. The viewer terminal 3-a presents the chat candidate image to the chat target person U2-a based on the chat candidate image data transmitted from the server 1. FIG. This allows the chat target person U2-a to grasp the state of the chat candidate U3-b.
At this time, similarly to the screen viewed by the general viewer U2-c described above, an image (chat candidate image) including a fan who is a candidate to be selected as a chat target person as a subject is used as a sub image as a main image (distribution person image) and displayed in a small size. That is, for example, on the screen of the viewer terminal 3-a viewed by the chat target person U2-a, a chat candidate image, which is a sub-image, is superimposed on a distributor image, which is a main image, and displayed.

チャット候補者提示画像制御部114は、画像データ取得部111により取得された画像データの群に基づき、チャット候補者U3-bに提示される画像のデータを送信する制御を実行する。 Based on the group of image data acquired by the image data acquiring unit 111, the chat candidate presentation image control unit 114 controls transmission of image data to be presented to the chat candidate U3-b.

即ち、例えば、チャット候補者提示画像制御部114は、配信者画像のデータ及びチャット対象者画像のデータを、視聴者端末3-bに送信する。視聴者端末3-bは、サーバ1から送信されてきた配信者画像のデータ及びチャット候補者画像のデータに基づき、配信者画像及びチャット候補者画像を、チャット候補者U3-bに提示する。これにより、チャット対象者U2-bは、配信者U1及びチャット対象者U2-aがビデオチャットをしている様子を、把握することができる。これにより、チャット候補者U3-bは、「いつか選ばれるかもしれない」という期待感を持って視聴したり、新たなチャット対象者U2-aとして選択された場合に備えてビデオチャットの内容を把握したりすることができる。 That is, for example, the chat candidate presentation image control unit 114 transmits the data of the distributor image and the data of the chat target person image to the viewer terminal 3-b. The viewer terminal 3-b presents the distributor image and the chat candidate image to the chat candidate U3-b based on the data of the distributor image and the data of the chat candidate image transmitted from the server 1. FIG. This allows the chat target person U2-b to grasp how the broadcaster U1 and the chat target person U2-a are having a video chat. As a result, the chat candidate U3-b watches with anticipation that "it may be selected someday", and prepares the contents of the video chat in case of being selected as a new chat target person U2-a. can be grasped.

視聴者提示画像制御部115は、画像データ取得部111により取得された画像データの群に基づき、一般視聴者U2-cに提示される画像を生成し、送信する制御を実行する。
視聴者提示画像制御部115は、区分可能画像データ生成部131と、区分可能画像データ送信制御部132とを有する。
The viewer presentation image control unit 115 generates an image to be presented to the general viewer U2-c based on the group of image data acquired by the image data acquisition unit 111, and executes control for transmission.
The viewer presentation image control unit 115 has a classifiable image data generation unit 131 and a classifiable image data transmission control unit 132 .

区分可能画像データ生成部131は、画像データ取得部111により取得された画像データの群に含まれる、複数の画像の夫々を区分可能に含む画像のデータを、区分可能画像のデータとして生成する。 The classifiable image data generation unit 131 generates image data containing each of the plurality of images contained in the group of image data acquired by the image data acquisition unit 111 in a classifiable manner as classifiable image data.

ここで、詳細は後述するが、従来のサービスにおいて、1つのストリーミングのコネクションを利用して複数の画像等を送信する場合の例について説明する。このような場合、画像を送信する情報処理装置は、予め、メインとなる画像に対してサブとなる画像を重畳して合成した画像(以下、「合成画像」と呼ぶ)を生成し、その合成画像を送信するのが一般的である。このようなサービスで送信された合成画像は、原則として、分離することはできず、合成後に元のメインとなる画像自体を復元(再現)することはできない。そのため、例えば、ユーザがサブとなる画像の配置を自由に決定するようなことは難しい。
他方、複数のコネクションを利用して、複数の画像等を配信する場合、ユーザがサブとなる画像の配置を自由に決定することができるが、多数のコネクションを利用しているため、コストがかかる。
Here, although the details will be described later, an example in which a plurality of images or the like are transmitted using one streaming connection in a conventional service will be described. In such a case, an information processing device that transmits an image generates an image (hereinafter referred to as a "composite image") in which a sub image is superimposed on a main image in advance, and the composite image is generated. It is common to send images. In principle, composite images sent by such services cannot be separated, and the original main image itself cannot be restored (reproduced) after composition. Therefore, for example, it is difficult for the user to freely determine the layout of sub images.
On the other hand, when distributing a plurality of images using a plurality of connections, the user can freely determine the layout of sub-images. .

これに対して、本サービスでは、複数の画像の夫々を区分可能に含む画像(以下、「区分可能画像」と呼ぶ)を採用し、これを配信する。この区分可能画像とは、例えば、複数の画像の夫々が重畳しないように1つの画像として、合成された画像である。そのため、区分可能画像から元のメインとなる画像を再現することができる。
つまり、本サービスにおいて、区分可能画像のデータは、複数の画像の夫々を区分可能に含む。即ち、区分可能画像のデータは、1つの画像のデータでありながら、複数の画像のデータを含む。従って、本サービスは、極めて多数の視聴者端末3-cに対して複数の画像のデータを送信した場合であっても、コネクションの数(以下、「コネクション数」と呼ぶ)は、視聴者端末3-cの数にのみ依存する。
そのため、本サービスでは、例えば、1つのコネクションのみを利用することでコストを抑えつつ、ユーザがサブとなる画像の配置を自由に決定するといったユーザが自由度の高い操作を行うという相反する二つの作用を両立することができる。
なお、複数の画像の夫々が区分可能画像のうち何れの領域に配置されるかの情報は、後述する視聴者端末3-cの区分可能画像データ領域区分部322と、予め共有されていてよい。
On the other hand, in this service, an image that includes each of a plurality of images in a classifiable manner (hereinafter referred to as a “classifiable image”) is adopted and distributed. This classifiable image is, for example, an image synthesized as one image so that each of a plurality of images is not superimposed. Therefore, the original main image can be reproduced from the classifiable image.
That is, in this service, the data of the classifiable image includes each of the plurality of images in a classifiable manner. That is, the data of a segmentable image includes data of a plurality of images while being data of one image. Therefore, in this service, even when data of a plurality of images are transmitted to an extremely large number of viewer terminals 3-c, the number of connections (hereinafter referred to as "the number of connections") is Depends only on the number of 3-c.
For this reason, in this service, for example, while keeping costs down by using only one connection, the user can perform operations with a high degree of freedom, such as freely determining the placement of sub-images. It is possible to achieve both functions.
Note that the information as to in which region of the groupable images each of the plurality of images is arranged may be shared in advance with the groupable image data region dividing unit 322 of the viewer terminal 3-c, which will be described later. .

上述のように、例えば、区分可能画像データ生成部131は、配信者画像及びチャット対象者画像の夫々が区分可能に含まれる画像のデータを、区分可能画像のデータとして生成する。具体的には例えば、配信者画像(メイン画像)と、チャット対象者画像やチャット候補者画像(サブ画像)との夫々が重ならないように配置された画像のデータを、区分可能画像のデータとして生成する。 As described above, for example, the classifiable image data generation unit 131 generates image data that includes a distributor image and a chat target person image in a classifiable manner as classifiable image data. Specifically, for example, image data in which the image of the distributor (main image), the image of the person to be chatted or the image of the chat candidate (sub-image) are arranged so as not to overlap each other, is used as the data of the classifiable image. Generate.

区分可能画像データ送信制御部132は、区分可能画像データ生成部131により生成された区分可能画像のデータを、視聴者端末3-cに送信する制御を実行する。
即ち、例えば、区分可能画像データ送信制御部132は、通信部19を制御することで、区分可能画像のデータをサーバ1から視聴者端末3-cに送信する。
The classifiable image data transmission control unit 132 executes control for transmitting the classifiable image data generated by the classifiable image data generating unit 131 to the viewer terminal 3-c.
That is, for example, the classifiable image data transmission control unit 132 controls the communication unit 19 to transmit the classifiable image data from the server 1 to the viewer terminal 3-c.

また、区分可能画像データ送信制御部132は、区分可能画像のデータを、視聴者端末3-cにコネクションを利用して送信する制御を実行することができる。 Further, the classifiable image data transmission control unit 132 can execute control for transmitting the classifiable image data to the viewer terminal 3-c using the connection.

つまり、通常、画像のデータを送信する情報処理装置は、1つのコネクションを利用して、1つの画像のデータを送信する。即ち、配信者提示画像制御部112で説明したように、画像データの群を送信する場合、画像データの群を構成する複数の画像のデータの夫々は、複数のコネクションの夫々を利用して、送信される。
一方、区分可能画像のデータは、配信者画像(メイン画像)と、チャット対象者画像やチャット候補者画像(サブ画像)との夫々が重ならないように配置された1つの画像のデータである。これにより、区分可能画像データ送信制御部132は、複数の画像の夫々を区分可能に含む画像を、1つの区分可能画像として取り扱い、その1つの区分可能画像のデータを、1つのコネクションを利用して送信する制御を実行する。
In other words, an information processing apparatus that transmits image data normally uses one connection to transmit one image data. That is, as described in the distributor-presented image control unit 112, when transmitting a group of image data, each of the plurality of image data constituting the group of image data is transmitted using each of the plurality of connections. sent.
On the other hand, the classifiable image data is data of one image in which the distributor image (main image) and the chat target person image or chat candidate image (sub-image) are arranged so as not to overlap each other. As a result, the classifiable image data transmission control unit 132 treats an image that includes a plurality of images in a classifiable manner as one classifiable image, and uses one connection to transmit the data of the one classifiable image. to execute the control sent by

以上、画像送信処理における機能的構成について説明した。
次に、画面表示処理における機能的構成について説明する。
The functional configuration in the image transmission process has been described above.
Next, a functional configuration in screen display processing will be described.

視聴者端末3-cの区分可能画像データ取得部321は、サーバ1から送信されてきた区分可能画像のデータを取得する。 The classifiable image data acquisition unit 321 of the viewer terminal 3 - c acquires the classifiable image data transmitted from the server 1 .

区分可能画像データ領域区分部322は、区分可能画像のデータに基づいて、区分可能画像を複数の画像の夫々に区分する。
即ち、例えば、区分可能画像データ領域区分部322は、サーバ1における画像データの群に含まれる複数の画像の夫々の領域に対応するように、区分可能画像の領域を区分する。上述のように、複数の画像の夫々が区分可能画像のうちいずれの領域に配置されるかの情報は、サーバ1の区分可能画像データ生成部131と、予め共有されていていてもよい。この場合、区分可能画像データ領域区分部322は、複数の画像の夫々が区分可能画像のうちいずれの領域に配置されるかの情報に基づき、区分可能画像を、複数の画像の夫々の領域に区分する。
即ち、区分された複数の画像の領域の夫々は、配信者画像(メイン画像)及びチャット対象者画像やチャット候補者画像(サブ画像)の領域の夫々に対応する。
The segmentable image data region dividing unit 322 segments the segmentable image into a plurality of images based on the data of the segmentable image.
That is, for example, the segmentable image data area partitioning unit 322 partitions the area of the segmentable image so as to correspond to each area of the plurality of images included in the group of image data in the server 1 . As described above, the information as to in which region of the classifiable images each of the plurality of images is arranged may be shared in advance with the classifiable image data generation unit 131 of the server 1 . In this case, the classifiable image data region partitioning unit 322 divides the classifiable images into regions of the plurality of images based on the information as to in which region of the classifiable images each of the plurality of images is arranged. Separate.
That is, each of the plurality of divided image regions corresponds to each of the regions of the distributor image (main image), chat target person image, and chat candidate image (sub-image).

サブ画像配置情報取得部323は、複数の画像のうち1以上のサブ画像の夫々を表示対象として、表示対象の夫々をどのように配置するのかを示す情報を、配置情報として取得する。 The sub-image layout information acquisition unit 323 acquires, as layout information, information indicating how each of the display targets is to be laid out, with each of one or more sub-images among the plurality of images as the display target.

ここで、「配置情報」とは、表示対象のサブ画像の夫々がどのように配置されるのかを示す情報である。具体的には例えば、「視聴者端末3-cの画面において、サブ画像であるチャット対象者画像は、メイン画像である配信者画像の左下の領域に、配置(重畳)される」といった情報である。例えば、配置情報には、「何れのサブ画像が、何れの位置に、何れの大きさで配置されるか」の情報が含まれてよい。
一般視聴者U2-cは、本人の好みに応じて、サブ画像が配置される位置やサブ画像が配置される大きさ等を、タッチパネルを操作することで入力する。サブ画像配置情報取得部323は、一般視聴者U2-cのタッチパネルの操作に基づき、配置情報を取得する。
Here, the “layout information” is information indicating how the sub-images to be displayed are laid out. Specifically, for example, information such as "on the screen of the viewer terminal 3-c, the image of the person to be chatted as a sub-image is arranged (superimposed) in the lower left area of the distributor image as the main image". be. For example, the arrangement information may include information about "which sub-image is arranged at which position and with what size".
The general viewer U2-c operates the touch panel to input the position of the sub-image, the size of the sub-image, etc. according to his/her preference. The sub-image layout information acquisition unit 323 acquires layout information based on the operation of the touch panel by the general viewer U2-c.

表示画像データ生成部324は、サブ画像配置情報取得部323により取得された配置情報に基づいて、表示対象のサブ画像の夫々を配置させた画像のデータを、表示画像のデータとして生成する。
即ち、例えば、表示画像データ生成部324は、メイン画像である配信者画像に、サブ画像であるチャット候補者画像が配置情報に基づいて配置(重畳)された画像のデータを、表示画像のデータとして生成する。
Based on the arrangement information acquired by the sub-image arrangement information acquisition section 323, the display image data generation section 324 produces image data in which each of the sub-images to be displayed is arranged as display image data.
That is, for example, the display image data generation unit 324 converts image data in which a chat candidate image, which is a sub image, is arranged (superimposed) on a distributor image, which is a main image, based on the arrangement information. Generate as

表示制御部325は、表示画像データ生成部324により生成された表示画像のデータに対応する表示画像を視聴者に提示する制御を行う。
即ち、例えば、表示制御部325は、出力部314の1つであるディスプレイの制御を実行することで、表示画像のデータに対応する表示画像を、視聴者端末3-cのディスプレイに表示する。
The display control unit 325 performs control to present the viewer with a display image corresponding to the display image data generated by the display image data generation unit 324 .
That is, for example, the display control unit 325 controls the display, which is one of the output units 314, to display the display image corresponding to the data of the display image on the display of the viewer terminal 3-c.

上述の通り、区分可能画像データ領域区分部322は、サーバ1から送信されてきた区分可能画像のデータを、サーバ1における画像データの群に含まれる複数の画像の夫々の領域に対応するように区分する。また、サブ画像配置情報取得部323は、複数の画像のうち1以上のサブ画像の夫々を表示対象として、表示対象の夫々をどのように配置するのかを示す情報を、配置情報として取得する。また、表示画像データ生成部324は、配置情報に基づいて、表示対象のサブ画像の夫々を配置させた画像のデータを、表示画像のデータとして生成する。 As described above, the classifiable image data area dividing section 322 divides the classifiable image data transmitted from the server 1 so as to correspond to the respective areas of the plurality of images included in the group of image data in the server 1. Separate. Further, the sub-image layout information acquisition unit 323 acquires, as layout information, information indicating how each of the display targets is to be laid out, with each of one or more sub-images among the plurality of images as the display target. The display image data generation unit 324 also generates image data in which each of the sub-images to be displayed is arranged as display image data based on the arrangement information.

つまり、区分可能画像から区分された複数の画像の領域の夫々は、配信者画像(メイン画像)及びチャット対象者画像やチャット候補者画像(サブ画像)の夫々の領域に対応する。また、一般視聴者U2-cは、本人の好みに応じて、サブ画像が配置される位置やサブ画像が配置される大きさ等を、配置情報として入力する。更に、配置情報に基づいて、表示対象のサブ画像の夫々を配置させた画像のデータが、表示画像のデータとして生成される。 That is, each of the plurality of image regions segmented from the segmentable image corresponds to each region of the distributor image (main image) and the chat target person image and chat candidate image (sub image). In addition, the general viewer U2-c inputs the position of the sub-image, the size of the sub-image, etc. as the arrangement information according to his or her own preferences. Furthermore, based on the arrangement information, image data in which each of the sub-images to be displayed is arranged is generated as display image data.

即ち、視聴者端末3-cは、メイン画像に、一般視聴者U2-cの好みに応じた配置に基づいた表示画像のデータを、生成することができる。これにより、一般視聴者3-cがサブ画像の配置を自由に決定するといったユーザが自由度の高い操作を行うことが可能となる。
つまり、本サービスにおいて、一般視聴者U3-cは、メイン画像である配信者画像に、サブ画像であるチャット候補者画像が、自信の好みに応じた配置情報に基づいて重畳された表示画像を視聴することができる。
In other words, the viewer terminal 3-c can generate the data of the display image based on the layout according to the preferences of the general viewer U2-c in the main image. This allows the user to perform operations with a high degree of freedom, such as the general viewer 3-c freely determining the arrangement of the sub-images.
In other words, in this service, the general viewer U3-c displays a display image in which a chat candidate image, which is a sub image, is superimposed on a distributor image, which is a main image, based on arrangement information according to his or her own preferences. can be viewed.

以上、画像表示処理における機能的構成について説明した。 The functional configuration in the image display processing has been described above.

以下、本実施形態の情報処理システムが、画像送信処理及び画像表示処理から構成される一連の処理を実行することで奏する効果について説明する。 Hereinafter, the effects achieved by the information processing system of this embodiment executing a series of processes including image transmission processing and image display processing will be described.

まず、極めて多数の情報処理装置にリアルタイムに画像のデータを送信するサービスにおいて、従来、採用される技術について説明する。 First, a technique conventionally employed in a service for transmitting image data to a very large number of information processing apparatuses in real time will be described.

通常、多数の情報処理装置にリアルタイムに画像のデータを送信するサービスにおいて、当該サービスのサービス提供者は、CDNを活用したストリーミングの環境を構築する。 Generally, in a service that transmits image data to a large number of information processing apparatuses in real time, the service provider of the service builds a streaming environment using a CDN.

ここで、コネクション数は、画像のデータの数と情報処理装置の数との積となる。また、CDNを活用したストリーミングの環境の構築や利用に係るコストは、コネクション数に依存する。即ち、CDNを活用したストリーミングの環境の構築又は利用に係るコストは、画像のデータの数と情報処理装置の数との両方に依存して増加する。 Here, the number of connections is the product of the number of image data and the number of information processing apparatuses. Also, the cost associated with building and using a streaming environment using a CDN depends on the number of connections. That is, the cost associated with building or using a streaming environment utilizing a CDN increases depending on both the number of image data and the number of information processing devices.

このため、従来、CDNを活用したストリーミングの環境の構築又は利用したサービスにおいて、極めて多数の情報処理装置に対して複数の画像のデータを送信することは、現実的でなかった。そこで、極めて多数の情報処理装置にリアルタイムに画像のデータを送信する場合、当該サービスのサービス提供者は、メイン画像にサブ画像が予め重畳された画像のデータを、1つの画像のデータとしてサーバから送信していた。
なお、CDNに限らず、ストリーミングの環境の構築又は利用に係るコストは、画像のデータの数と情報処理装置の数との両方に依存して増加するものと考えることができる。
For this reason, conventionally, in building a streaming environment using a CDN or in a service using the CDN, it was not realistic to transmit data of a plurality of images to an extremely large number of information processing apparatuses. Therefore, when image data is transmitted in real time to an extremely large number of information processing apparatuses, the service provider of the service may send the image data, in which the sub-image is superimposed in advance on the main image, from the server as one image data. was sending.
Note that the cost associated with building or using a streaming environment, not limited to a CDN, can be considered to increase depending on both the number of image data and the number of information processing devices.

次に、本実施形態における、ストリーミングの環境の構築や利用に係るコストについて説明する。 Next, the costs associated with building and using the streaming environment in this embodiment will be described.

本実施形態において、区分可能画像のデータは、複数の画像の夫々を区分可能に含む。即ち、区分可能画像のデータは、1つの画像のデータでありながら、複数の画像のデータを含む。従って、本実施形態は、極めて多数の視聴者端末3-cに対して複数の画像のデータを送信した場合であっても、コネクション数は、視聴者端末3-cの数にのみ依存する。即ち、本実施形態により、本サービスのサービス提供者は、ストリーミングの環境の構築や利用に係るコストを削減することができる。 In this embodiment, the segmentable image data segmentably includes each of the plurality of images. That is, the data of a segmentable image includes data of a plurality of images while being data of one image. Therefore, in this embodiment, even if data of a plurality of images are transmitted to a very large number of viewer terminals 3-c, the number of connections depends only on the number of viewer terminals 3-c. In other words, according to this embodiment, the service provider of this service can reduce the costs associated with building and using the streaming environment.

ここで、本サービスにおいて、一般視聴者U2-cは、すぐには新たなチャット対象者U2-aとならない。即ち、区分可能画像のデータの生成及び送信に係るタイムラグが生じた場合であっても、視聴者端末3-cにおけるデメリットは、限定的である。 Here, in this service, the general viewer U2-c does not immediately become a new chat target person U2-a. In other words, even if there is a time lag associated with the generation and transmission of the data of the classifiable image, the disadvantage of the viewer terminal 3-c is limited.

上述をまとめると、従来の技術を採用した場合、ストリーミングの環境の構築や利用がされたサービスにおいて、極めて多数の視聴者端末3-cに対して複数の画像のデータを送信することは、現実的でなかった。しかしながら、本実施形態により、本サービスのサービス提供者は、ストリーミングの環境の構築や利用に係るコストを削減することができる。 To summarize the above, when the conventional technology is adopted, it is practically impossible to transmit data of a plurality of images to an extremely large number of viewer terminals 3-c in a service in which a streaming environment is constructed and used. was not the target. However, according to this embodiment, the service provider of this service can reduce the costs associated with building and using the streaming environment.

更に言えば、本実施形態において、区分可能画像のデータの形式は、画像のデータの形式の構造となっている。つまり、データの形式が画像の形式となった区分可能画像のデータをストリーミングすることで、本実施形態の視聴者端末3-cは、区分可能画像のデータを通常の画像処理に係る処理と同様に行うことができる。具体的には例えば、本実施形態の視聴者端末3-cは、区分可能画像のデータの領域を、複数の画像の領域に区分するのみで足りる。 Furthermore, in this embodiment, the data format of the segmentable image has the structure of the data format of the image. In other words, by streaming the classifiable image data whose data format is the image format, the viewer terminal 3-c of the present embodiment processes the classifiable image data in the same manner as in normal image processing. can be done. Specifically, for example, it is sufficient for the viewer terminal 3-c of the present embodiment to divide the data area of the separable image into a plurality of image areas.

一方、サービス提供者は、本実施形態と異なる設計として、複数の画像のデータを細分化したデータを連続に並べた1つのデータ(以下、「細分化連続データ」と呼ぶ)を、サーバから送信することも考えられる。即ち、細分化連続データをコネクションにより送信することで、複数の画像のデータの夫々を細切れに分割して、1つのコネクションにより順次送信することができる。この場合であっても、コネクション数は情報処理装置の数にのみ依存するため、コストは削減される。
しかしながら、細分化連続データは、所謂、画像の形式と異なるデータの形式である。即ち、細分化連続データは、通常の画像を再生(処理)する手段(プログラムやライブラリ等)で再生することができない。そのため、情報処理装置において、細分化画像データを、複数の画像のデータとして再構築する必要がある。この場合、複数の画像のデータの再構築に係るプログラムの設計や実装に係るコストが生じる。また、画像を再生する場合における、情報処理装置のCPUの処理の量が、増加する可能性がある。
On the other hand, as a design different from the present embodiment, the service provider transmits one piece of data in which the data obtained by subdividing the data of a plurality of images are continuously arranged (hereinafter referred to as "subdivided continuous data") from the server. It is also conceivable to That is, by transmitting subdivided continuous data through a connection, each of the data of a plurality of images can be divided into small pieces and sequentially transmitted through one connection. Even in this case, since the number of connections depends only on the number of information processing devices, the cost is reduced.
However, the subdivided continuous data is in a data format different from the so-called image format. That is, the subdivided continuous data cannot be reproduced by means (programs, libraries, etc.) for reproducing (processing) ordinary images. Therefore, in the information processing apparatus, it is necessary to reconstruct the segmented image data as data of a plurality of images. In this case, costs are incurred in designing and implementing a program for reconstructing data of a plurality of images. Also, the amount of processing by the CPU of the information processing apparatus may increase when reproducing images.

上述をまとめると、本実施形態により、本サービスのサービス提供者は、極めて多数の視聴者端末3-cに対して複数の画像のデータを送信する場合であって、コネクション数を削減したとき、視聴者端末3-cにおける画像処理に係るプログラム設計のコストを削減したりすることができる。 To summarize the above, according to this embodiment, when the service provider of this service transmits data of a plurality of images to an extremely large number of viewer terminals 3-c, and reduces the number of connections, It is possible to reduce the cost of program design related to image processing in the viewer terminal 3-c.

なお、図3の例では、配信者提示画像制御部112やチャット対象者提示画像制御部113、チャット候補者提示画像制御部114は、区分可能画像のデータを送信しない構成である。即ち、サーバ1は、配信者端末2や視聴者端末3-a,3-bに対して区分可能画像のデータを送信しない構成となっている。従って、配信者端末2や視聴者端末3-a,3-bは、配信者画像やチャット対象者画像等の夫々を、コネクションの夫々を利用して、受信する。 In the example of FIG. 3, the distributor presentation image control unit 112, the chat target person presentation image control unit 113, and the chat candidate presentation image control unit 114 are configured not to transmit the classifiable image data. In other words, the server 1 is configured not to transmit the data of the classifiable image to the distributor terminal 2 and the viewer terminals 3-a and 3-b. Therefore, the distributor terminal 2 and the viewer terminals 3-a and 3-b receive the distributor image, the chat target person image, etc., using each connection.

これにより、区分可能画像のデータ生成及び送信に係るタイムラグは、存在しない。即ち、チャット候補者U2-bが新たなチャット対象者U2-aとして切り替わる際、配信者端末2や視聴者端末3-a,3-bにおいて、タイムラグにより違和感が発生することがない。 Thus, there is no time lag associated with data generation and transmission of the segmentable image. That is, when the chat candidate U2-b is switched to the new chat target person U2-a, the distributor terminal 2 and the viewer terminals 3-a and 3-b do not feel uncomfortable due to the time lag.

しかしながら、区分可能画像のデータを送信する構成とすることで、ストリーミングの環境の構築や利用に係るコストを削減することができる。従って、区分可能画像のデータの生成及び送信に係る処理の時間が短い場合や、タイムラグによる違和感を許容する場合等において、サービス提供者は、配信者提示画像制御部112に限らず、区分可能画像のデータを送信する構成を採用してよい。 However, by adopting a configuration in which data of a classifiable image is transmitted, it is possible to reduce costs associated with building and using a streaming environment. Therefore, when the processing time related to the generation and transmission of the data of the classifiable image is short, or when a sense of incompatibility due to the time lag is allowed, the service provider is not limited to the distributor presentation image control unit 112, but the classifiable image data may be transmitted.

以上、本実施形態の情報処理システムが、画像送信処理及び画像表示処理から構成される一連の処理を実行することで奏する効果について説明した。 The effect achieved by the information processing system of the present embodiment executing a series of processes including the image transmission process and the image display process has been described above.

図4は、図3のサーバにより提供される本サービスにおける、画像の提供の例を示す図である。 FIG. 4 is a diagram showing an example of image provision in this service provided by the server of FIG.

以下、図4を用いて、本サービスにおける、配信者U1により撮像された配信者画像等及び視聴者端末3-c1乃至3-c3に提示される表示画像の提供の例について説明する。c1乃至c3は、上述のcのうち、互いに異なる整数値である。即ち、c1乃至c3は、互に異なり、a、bとも異なる整数値であって、1からnのうちの任意の整数値である。 An example of providing a distributor image captured by the distributor U1 and display images presented on the viewer terminals 3-c1 to 3-c3 in this service will be described below with reference to FIG. c1 to c3 are integer values different from each other among the aforementioned c. That is, c1 to c3 are integer values different from each other and different from a and b, and are arbitrary integer values from 1 to n.

なお、図4の例においては、1人の配信者U1と、1人のチャット対象者U2-aと、1人のチャット候補者U2-bとが、ビデオチャットを行うものとして説明する。また、このビデオチャットは、ライブ配信をされ、一般視聴者U2-c1乃至U2-c3に視聴される。 In the example of FIG. 4, it is assumed that one broadcaster U1, one chat target U2-a, and one chat candidate U2-b conduct a video chat. Also, this video chat is delivered live and viewed by general viewers U2-c1 to U2-c3.

配信者U1は、配信者端末2を操作し、本サービスに係るアプリケーションを起動する等し、自らを撮像する。図4の配信者端末2の画面には、配信者画像Pi1(配信者U1を被写体に含む画像)が、図示されている。
上述のように、配信者端末2は、配信者画像Pi1のデータを、サーバ1に送信する。
The distributor U1 operates the distributor terminal 2, activates an application related to this service, and takes an image of himself. A screen of the distributor terminal 2 in FIG. 4 shows a distributor image Pi1 (an image including the distributor U1 as a subject).
As described above, the distributor terminal 2 transmits the data of the distributor image Pi1 to the server 1 .

チャット対象者U2-aは、視聴者端末3-aを操作し、本サービスに係るアプリケーションを起動等し、自らを撮像する。図4の視聴者端末3-aの画面には、チャット対象者画像Pi2-a(チャット対象者U2-aを被写体に含む画像)が、図示されている。
上述のように、視聴者端末3-aは、チャット対象者画像Pi2-aのデータを、サーバ1に送信する。
The chat target person U2-a operates the viewer terminal 3-a, activates an application related to this service, and takes an image of himself/herself. A chat target person image Pi2-a (an image including a chat target person U2-a as a subject) is shown on the screen of the viewer terminal 3-a in FIG.
As described above, the viewer terminal 3-a transmits the data of the chat target person image Pi2-a to the server 1. FIG.

チャット候補者U2-bは、視聴者端末3-bを操作し、本サービスに係るアプリケーション等を起動し、自らを撮像する。図4の視聴者端末3-bの画面には、チャット候補者画像Pi2-b(チャット対象者U2-bを被写体に含む画像)が、図示されている。
上述のように、視聴者端末3-bは、チャット候補者画像Pi2-bのデータを、サーバ1に送信する。
The chat candidate U2-b operates the viewer terminal 3-b, activates an application related to this service, etc., and takes an image of himself/herself. The screen of the viewer terminal 3-b in FIG. 4 shows a chat candidate image Pi2-b (an image including a chat target person U2-b as a subject).
As described above, the viewer terminal 3-b transmits the data of the chat candidate image Pi2-b to the server 1. FIG.

なお、図4において、配信者端末2や視聴者端末3-a,3-bの画面の夫々に、配信者画像Pi1、チャット対象者画像Pi2-a及びチャット候補者画像Pi2-bの夫々が図示されているのは、あくまで撮像されている様子を示す例である。即ち、例えば、配信者端末2は、ビデオチャットの相手であるチャット対象者U2-aの画像やチャット候補者U2-bの画像を表示することができる。 Note that, in FIG. 4, a distributor image Pi1, a chat target person image Pi2-a, and a chat candidate image Pi2-b are displayed on the screens of the distributor terminal 2 and the viewer terminals 3-a and 3-b, respectively. What is illustrated is just an example showing how an image is captured. That is, for example, the distributor terminal 2 can display an image of the chat target person U2-a and an image of the chat candidate U2-b who are the partners of the video chat.

サーバ1は、配信者端末2や視聴者端末3-a,3-bの夫々から、配信者画像Pi1、チャット対象者画像Pi2-a及びチャット候補者画像Pi2-bの夫々を受信する。
即ち、図3で説明したように、サーバ1のメイン画像データ取得部121は、配信者U1を撮像した配信者画像Pi1をメイン画像として取得する。また、サーバ1のサブ画像データ取得部122は、チャット対象者U2-a及びチャット候補者U2-bの夫々を撮像した、チャット対象者画像Pi2-a及びチャット候補者画像Pi2-bの夫々を、サブ画像として取得する。
The server 1 receives the distributor image Pi1, the chat target person image Pi2-a, and the chat candidate image Pi2-b from the distributor terminal 2 and the viewer terminals 3-a and 3-b.
That is, as described with reference to FIG. 3, the main image data acquisition unit 121 of the server 1 acquires the distributor image Pi1 in which the distributor U1 is imaged as the main image. Further, the sub-image data acquiring unit 122 of the server 1 obtains the chat target person image Pi2-a and the chat candidate image Pi2-b, which are the chat target person U2-a and the chat candidate U2-b, respectively. , to be obtained as sub-images.

次に、サーバ1の視聴者提示画像制御部115の区分可能画像データ生成部131は、メイン画像、及びサブ画像の夫々を、区分可能に含む画像のデータを、区分可能画像のデータとして生成する。
更に、サーバ1の視聴者提示画像制御部115の区分可能画像データ送信制御部132は、区分可能画像データ生成部131により生成された区分可能画像のデータを、視聴者端末3-c1乃至3-c3に送信する制御を実行する。
Next, the classifiable image data generation unit 131 of the viewer-presented image control unit 115 of the server 1 generates image data including each of the main image and the sub-image in a classifiable manner as classifiable image data. .
Further, the classifiable image data transmission control unit 132 of the viewer-presented image control unit 115 of the server 1 sends the classifiable image data generated by the classifiable image data generating unit 131 to the viewer terminals 3-c1 to 3-c1. Execute the control to send to c3.

以下、図4において、視聴者端末3-c1乃至3-c3の夫々における表示される画像は、表示画像Po2-c1乃至Po2-c3の夫々であり、異なる表示画像の例として説明する。即ち、一般視聴者U2-c1乃至U2-c3の夫々は、異なる配置情報(サブ画像を配置する位置や大きさ)の夫々を入力したものとして説明する。
なお、以下、図4の配信者画像Pi1のうち、配信者U1の顔や肩から上が映っている領域を「顔等の領域」と呼び、顔等の領域でない領域を「背景の領域」と呼ぶ。
Hereinafter, in FIG. 4, the images displayed on the viewer terminals 3-c1 to 3-c3 are the display images Po2-c1 to Po2-c3, respectively, and an example of different display images will be described. That is, the general viewers U2-c1 to U2-c3 will be described as inputting different layout information (positions and sizes of sub-images).
In the image Pi1 of the distributor shown in FIG. 4, the region in which the face and shoulders of the distributor U1 appear is hereinafter referred to as a "face region", and the region other than the face region is referred to as a "background region". call.

図4を見ると、視聴者端末3-c1に表示される表示画像Po2-c1は、メイン画像である配信者画像Pi1の背景の領域に、サブ画像であるチャット対象者画像Pi2-aが重畳された画像である。 Referring to FIG. 4, the display image Po2-c1 displayed on the viewer terminal 3-c1 has a chat target person image Pi2-a as a sub-image superimposed on the background area of the distributor image Pi1 as the main image. This is an image that has been

例えば、一般視聴者U2-c1は、配信者U1のファンであって、配信者U1の顔を見ることを望んでいるものとする。
この場合、一般視聴者U2-c1は、配信者画像Pi1のうち顔等の領域ではなく、背景の領域にチャット対象者画像Pi2-aを配置するよう、視聴者端末3-c1に配置情報を入力する。視聴者端末3-c1は、配信者画像Pi1のうち背景の領域にチャット対象者画像Pi2-a(サブ画像)が重畳された表示画像Po2-c1を表示する。
これにより、一般視聴者U2-c1は、一般視聴者U2-c1の嗜好に合わせた表示画像Po2-c1を視聴することができる。
For example, assume that general viewer U2-c1 is a fan of distributor U1 and wants to see the face of distributor U1.
In this case, the general viewer U2-c1 sends the layout information to the viewer terminal 3-c1 so that the chat target person image Pi2-a is disposed in the background area instead of the face area of the distributor image Pi1. input. The viewer terminal 3-c1 displays a display image Po2-c1 in which the chat target person image Pi2-a (sub-image) is superimposed on the background area of the distributor image Pi1.
As a result, the general viewer U2-c1 can view the display image Po2-c1 that matches the preferences of the general viewer U2-c1.

図4を見ると、視聴者端末3-c2に表示される表示画像Po2-c2は、メイン画像である配信者画像Pi1の顔等の領域に、サブ画像であるチャット対象者画像Pi2-aが重畳された画像である。 Referring to FIG. 4, the display image Po2-c2 displayed on the viewer terminal 3-c2 has a chat target person image Pi2-a as a sub-image in an area such as the face of the distributor image Pi1 as the main image. It is a superimposed image.

例えば、一般視聴者U2-c2は、配信者U1がビデオチャット内で話題にしている、背景(風景)を見ることを望んでいるものとする。
この場合、一般視聴者U2-c2は、配信者画像Pi1のうち背景の領域ではなく、顔等の領域にチャット対象者画像Pi2-aを配置するよう、視聴者端末3-c2に配置情報を入力する。視聴者端末3-c2は、配信者画像Pi1のうち顔等の領域にチャット対象者画像Pi2-a(サブ画像)が重畳された表示画像Po2-c2を表示する。
これにより、一般視聴者U2-c2は、一般視聴者U2-c2の嗜好に合わせた表示画像Po2-c2を視聴することができる。
For example, general viewer U2-c2 wishes to see the background (scenery) that broadcaster U1 is discussing in the video chat.
In this case, the general viewer U2-c2 sends layout information to the viewer terminal 3-c2 so that the chat target person image Pi2-a is disposed in an area such as a face instead of a background area in the distributor image Pi1. input. The viewer terminal 3-c2 displays a display image Po2-c2 in which a chat target person image Pi2-a (sub-image) is superimposed on an area such as a face in the distributor image Pi1.
As a result, the general viewer U2-c2 can view the display image Po2-c2 that matches the preferences of the general viewer U2-c2.

図4を見ると、視聴者端末3-c3に表示される表示画像Po2-c3は、メイン画像である配信者画像Pi1の背景の領域に、サブ画像であるチャット対象者画像Pi2-a及びチャット候補者画像Pi2-bが重畳された画像である。 Referring to FIG. 4, the display image Po2-c3 displayed on the viewer terminal 3-c3 includes a chat target person image Pi2-a as a sub-image and a chat target person image Pi2-a as a sub-image in a background area of a distributor image Pi1 as a main image. This is an image on which the candidate image Pi2-b is superimposed.

例えば、一般視聴者U2-c3は、配信者U1が今後チャットを行う可能性のある、チャット候補者画像Pi2-bの顔を見ることを望んでいるものとする。
この場合、一般視聴者U2-c3は、配信者画像Pi1のうち顔等の領域ではなく、背景の領域にチャット対象者画像Pi2-aを配置するよう、視聴者端末3-c3に配置情報を入力する。また、一般視聴者U2-c3は、配信者画像Pi1のうち背景の領域に、更にチャット対象者画像Pi2-bを配置するよう、視聴者端末3-c3に配置情報を入力する。視聴者端末3-c3は、配信者画像Pi1のうち背景の領域にチャット対象者画像Pi2-a及びチャット候補者画像Pi2-b(サブ画像)が重畳された表示画像Po2-c1を表示する。
これにより、一般視聴者U2-c3は、一般視聴者U2-c3の嗜好に合わせた表示画像Po2-c3を視聴することができる。
For example, general viewer U2-c3 wishes to see the face of chat candidate image Pi2-b with which broadcaster U1 may chat in the future.
In this case, the general viewer U2-c3 sends the placement information to the viewer terminal 3-c3 so that the chat target person image Pi2-a is placed in the background area instead of the face area of the distributor image Pi1. input. Further, the general viewer U2-c3 inputs arrangement information to the viewer terminal 3-c3 so that the chat target person image Pi2-b is further arranged in the background area of the distributor image Pi1. The viewer terminal 3-c3 displays a display image Po2-c1 in which the chat target person image Pi2-a and the chat candidate image Pi2-b (sub-image) are superimposed on the background area of the distributor image Pi1.
As a result, the general viewer U2-c3 can view the display image Po2-c3 that matches the preference of the general viewer U2-c3.

以上、図4に示した表示画像Po2-c1乃至Po2-c3を用いて、メイン画像である配信者画像に、サブ画像であるチャット対象者画像やチャット候補者画像が重畳されて表示される表示画像の例について説明した。 As described above, the display images Po2-c1 to Po2-c3 shown in FIG. 4 are used to display the chat target person image and the chat candidate image, which are sub-images, superimposed on the distributor image, which is the main image. An example image has been described.

本実施形態は、画像送信処理において、サーバ1は複数の画像を1つの区分可能画像のデータとして送信し、画像表示処理において、視聴者端末3-cは一般視聴者U2-cの入力する配置情報に応じて表示画像のデータを生成することにより、以下の効果を奏する。 In this embodiment, in the image transmission process, the server 1 transmits a plurality of images as data of one classifiable image, and in the image display process, the viewer terminal 3-c is arranged to be input by the general viewer U2-c. Generating display image data according to information has the following effects.

例えば、一般視聴者U2-c1が配信者画像Pi1のうち背景の領域を見たい場合、視聴者端末3-c1を操作することにより、図4の表示画像Po2-c2に示したチャット対象者画像Pi2-aの配置とすることができる。即ち、一般視聴者U2-c1乃至U2-c3の夫々は、リアルタイムに、その時々に応じた好みのサブ画像の配置に変更することができる。 For example, when the general viewer U2-c1 wants to see the background area of the distributor image Pi1, by operating the viewer terminal 3-c1, the chat target person image shown in the display image Po2-c2 in FIG. It can be the configuration of Pi2-a. That is, each of the general viewers U2-c1 to U2-c3 can change the arrangement of the sub-images according to their preference in real time.

視聴者端末3-cが、図4に図示した視聴者端末3-c1乃至3-c3の3つのみである場合における、サーバ1から視聴者端末3-c1乃至3-c3へのコネクション数は、3(視聴者端末3-cの数と同数)である。 When there are only three viewer terminals 3-c1 to 3-c3 shown in FIG. 4, the number of connections from the server 1 to the viewer terminals 3-c1 to 3-c3 is , 3 (the same number as the number of viewer terminals 3-c).

一方、従来技術を用いた場合、一般視聴者U2-c1に対して、少なくとも配信者画像Pi1と、チャット対象者画像Pi2-aとを送信する必要がある。更に言えば、一般視聴者U2-c1がリアルタイムにチャット候補者画像Pi2-bを配置できるようにする場合、表示しないチャット候補者画像Pi2-bも並行して送信する必要がある。即ち、一般視聴者U2-c1に対するコネクション数は、3(画像の数と同数)である。
同様に一般視聴者U2-c2及びU2-c3について考えると、図4における合計のコネクション数は9(視聴者端末3-cの数と、画像の数との積)となる。
On the other hand, when the conventional technology is used, it is necessary to transmit at least the distributor image Pi1 and the chat target person image Pi2-a to the general viewer U2-c1. Furthermore, if the general viewer U2-c1 is to be able to arrange the chat candidate images Pi2-b in real time, it is necessary to transmit the non-display chat candidate images Pi2-b in parallel. That is, the number of connections for general viewer U2-c1 is 3 (the same number as the number of images).
Similarly, considering general viewers U2-c2 and U2-c3, the total number of connections in FIG. 4 is 9 (the product of the number of viewer terminals 3-c and the number of images).

上述をまとめると、図4の例において、本実施形態におけるコネクション数は、従来技術におけるコネクション数の3分の1とすることができる。 To summarize the above, in the example of FIG. 4, the number of connections in this embodiment can be one third of the number of connections in the prior art.

更に言えば、図示はしないが、本サービスにおいて、配信者U1は1人、チャット対象者U2-aは1人、チャット候補者U2-bは10人、一般視聴者U2-cは10,000人程度が想定できる。この場合、本実施形態におけるコネクション数は、10,000となる。一方、従来技術におけるコネクション数は、120,000となる。即ち、この場合におけるコネクション数は、従来技術におけるコネクション数の12分の1とすることができる。 Furthermore, although not shown, in this service, there are 1 distributor U1, 1 chat target U2-a, 10 chat candidates U2-b, and 10,000 general viewers U2-c. The number of people can be assumed. In this case, the number of connections in this embodiment is 10,000. On the other hand, the number of connections in the conventional technology is 120,000. That is, the number of connections in this case can be reduced to 1/12 of the number of connections in the prior art.

なお、本サービスの提供者が、チャット候補者画像をストリーミングの方式で送信しない設計とした場合であっても、従来技術におけるコネクション数は20,000となる。
即ち、本実施形態におけるコネクション数は、従来技術におけるコネクション数の2分の1とすることができる。
Note that even if the provider of this service does not transmit the chat candidate images by streaming, the number of connections in the conventional technology is 20,000.
That is, the number of connections in this embodiment can be reduced to half the number of connections in the prior art.

ここで、上述のように、ストリーミングの環境の構築や利用に係るコストは、コネクション数に依存する。即ち、本実施形態により、コネクション数を削減することで、ストリーミングの環境の構築や利用に係るコストは、削減される。 Here, as described above, the cost associated with building and using the streaming environment depends on the number of connections. That is, by reducing the number of connections according to the present embodiment, the cost associated with building and using the streaming environment can be reduced.

以下、図5、及び図6を用いて、区分可能画像のデータにおける、メイン画像とサブ画像との配置の例を説明する。 An example of the layout of the main image and the sub-images in the data of the segmentable image will be described below with reference to FIGS. 5 and 6. FIG.

図5は、図3のサーバが送信する区分可能画像のデータにおける、メイン画像とサブ画像との配置の例を示す図である。ここで、図5に示す画像は、実際には配信者端末2や視聴者端末3に表示される画像ではなく、区分可能画像のデータに対応する画像を概念的に示したものである。 FIG. 5 is a diagram showing an example of arrangement of a main image and sub-images in the segmentable image data transmitted by the server of FIG. Here, the image shown in FIG. 5 is not an image actually displayed on the distributor terminal 2 or the viewer terminal 3, but conceptually shows an image corresponding to the data of the classifiable image.

図5(A)及び(B)は、区分可能画像のデータD1における、メイン画像である配信者画像Pi1、サブ画像であるチャット対象者画像Pi2-a及びサブ画像であるチャット候補者画像Pi2-bの配置の例を示している。 5A and 5B show a distributor image Pi1 as a main image, a chat target person image Pi2-a as a sub-image, and a chat candidate image Pi2- as a sub-image in the classifiable image data D1. 3 shows an example of the arrangement of b.

図5(A)を見ると、メイン画像である配信者画像Pi1は、区分可能画像のデータD1のうち左側に配置されている。また、サブ画像であるチャット対象者U2-aを撮像したチャット対象者画像Pi2-aは、区分可能画像のデータD1のうち右側上段に配置されている。また、サブ画像であるチャット候補者U2-bを撮像したチャット候補者画像Pi2-bは、区分可能画像のデータD1のうち右側中段に配置されている。 Looking at FIG. 5A, the distributor image Pi1, which is the main image, is arranged on the left side of the classifiable image data D1. Also, a chat target person image Pi2-a, which is a sub-image of a chat target person U2-a, is arranged in the upper right part of the classifiable image data D1. In addition, the chat candidate image Pi2-b, which is a sub-image of the chat candidate U2-b, is arranged in the right middle row of the classifiable image data D1.

図5の例において、区分可能画像のデータD1の各所におけるドット密度(画素の密度)は、一定である。図5(A)を見ると、メイン画像である配信者画像Pi1は、サブ画像であるチャット対象者画像Pi2-aやチャット候補者画像Pi2-bと比較して大きい面積を占めて配置されている。つまり、サブ画像である、チャット対象者画像Pi2-a及びチャット候補者画像Pi2-bは、区分可能画像のデータD1に占める割合が小さい。即ち、サブ画像である、チャット対象者画像Pi2-a及びチャット候補者画像Pi2-bは、メイン画像と比較して画素の数が少ない(画質が低い)といえる。
これは、表示画像においてサブ画像がメイン画像の上に重畳されて表示される場合、メイン画像と比較してサブ画像の画素の数は少なくて(画質が低くて)問題がないためである。メイン画像の画質を同一とした場合、このような区分可能画像のデータD1は、単にメイン画像とサブ画像とを同じ大きさで配置した画像のデータのサイズと比較して、全体の画像のデータのサイズが小さくなる。即ち、区分可能画像のデータD1を送信するコストを低減することができる。
In the example of FIG. 5, the dot density (pixel density) at various locations in the segmentable image data D1 is constant. 5A, the distributor image Pi1, which is the main image, is arranged to occupy a larger area than the chat target person image Pi2-a and the chat candidate image Pi2-b, which are sub-images. there is That is, the chat target person image Pi2-a and the chat candidate image Pi2-b, which are sub-images, occupy a small proportion of the classifiable image data D1. That is, it can be said that the chat target person image Pi2-a and the chat candidate image Pi2-b, which are sub-images, have a smaller number of pixels (lower image quality) than the main image.
This is because when the sub-image is displayed superimposed on the main image in the display image, the number of pixels of the sub-image is smaller than that of the main image (image quality is low) and there is no problem. Assuming that the image quality of the main image is the same, the data D1 of such a classifiable image is simply compared with the data size of the image in which the main image and the sub-image are arranged in the same size, and the data of the entire image. becomes smaller. That is, it is possible to reduce the cost of transmitting the data D1 of the classifiable image.

また、図5(A)をみると、サブ画像であるチャット対象者画像Pi2-aを囲う線は、チャット候補者画像Pi2-bを囲う線と比較して、太い線となっている。これは、チャット対象者画像Pi2-aが、チャット対象者U2-aの画像であることを模式的に示している。即ち、図5(A)の例の場合、視聴者端末3-cは、メイン画像である配信者画像Pi1に、サブ画像であるチャット対象者画像Pi2-aを重畳した画像を表示する。 Also, in FIG. 5A, the line surrounding the chat target person image Pi2-a, which is a sub-image, is thicker than the line surrounding the chat candidate image Pi2-b. This schematically shows that the chat target person image Pi2-a is the image of the chat target person U2-a. That is, in the example of FIG. 5A, the viewer terminal 3-c displays an image in which the chat target person image Pi2-a, which is a sub-image, is superimposed on the distributor image Pi1, which is a main image.

次に図5(B)をみると、区分可能画像のデータD1に、配信者画像Pi1、チャット対象者画像Pi2-a及びチャット候補者画像Pi2-bの夫々が、配置されている。夫々の画像の配置は、図5(A)と基本的に同様であるので、説明は省略する。
ただし、図5(B)は、図5(A)と、以下の点で異なる。
Next, referring to FIG. 5B, a distributor image Pi1, a chat target person image Pi2-a, and a chat candidate image Pi2-b are arranged in the classifiable image data D1. Since the arrangement of each image is basically the same as in FIG. 5A, the explanation is omitted.
However, FIG. 5B differs from FIG. 5A in the following points.

図5(B)をみると、サブ画像であるチャット候補者画像Pi2-bを囲う線は、チャット対象者画像Pi2-aを囲う線と比較して、太い線となっている。これは、チャット候補者画像Pi2-bが、新たなチャット対象者画像Pi2-aとなったことを模式的に示している。即ち、図5(B)は、チャット候補者U2-bが、新たなチャット対象者U2-aとなった場合に送信される区分可能画像のデータD1の例である。即ち、図5(B)の例の場合、視聴者端末3-cは、メイン画像である配信者画像Pi1に、サブ画像であるチャット候補者画像Pi2-b(新たなチャット対象者画像Pi2-a)を重畳した画像を表示する。 Looking at FIG. 5B, the line enclosing the chat candidate image Pi2-b, which is a sub-image, is thicker than the line enclosing the chat target person image Pi2-a. This schematically shows that the chat candidate image Pi2-b has become a new chat target person image Pi2-a. That is, FIG. 5B is an example of classifiable image data D1 that is transmitted when chat candidate U2-b becomes a new chat target person U2-a. That is, in the example of FIG. 5B, the viewer terminal 3-c adds a chat candidate image Pi2-b (a new chat target person image Pi2- Display an image on which a) is superimposed.

以上の説明をまとめると、図5(A)及び(B)の例に示した区分可能画像のデータD1を採用した場合、チャット候補者U2-bが新たなチャット対象者U2-aとなった場合であっても、区分可能画像のデータD1を変更する必要はない。即ち、区分可能画像のデータD1に配置されたサブ画像のうち、何れのサブ画像をどの配置で重畳するかを、視聴者端末3-cで変更すればよい。即ち、区分可能画像データ生成部131におけるサブ画像の配置の制御は、簡易なものとできる。 To summarize the above description, when the classifiable image data D1 shown in the examples of FIGS. 5A and 5B is adopted, the chat candidate U2-b becomes the new chat target person U2-a. Even in this case, there is no need to change the data D1 of the classifiable image. That is, the viewer terminal 3-c can change which sub-image is to be superimposed in which sub-image among the sub-images arranged in the data D1 of the classifiable image. That is, the control of the arrangement of the sub-images in the classifiable image data generation unit 131 can be simplified.

また、図5の区分可能画像のデータD1を採用した場合、チャット対象者U2-a以外のサブ画像(チャット候補者画像Pi2-b)も、区分可能画像のデータD1に配置されている。これにより、視聴者端末3-cにおける、サブ画像の重畳のバリエーションを増やすことができる。即ち、ユーザにとっての利便性が、向上する。 When the classifiable image data D1 of FIG. 5 is adopted, sub-images (chat candidate images Pi2-b) other than the chat target person U2-a are also arranged in the classifiable image data D1. As a result, it is possible to increase variations in sub-image superimposition in the viewer terminal 3-c. That is, convenience for the user is improved.

図6は、図3のサーバが送信する区分可能画像のデータにおける、メイン画像とサブ画像との配置のうち、図5と異なる例を示す図である。 FIG. 6 is a diagram showing an example different from FIG. 5 in the arrangement of the main image and sub-images in the segmentable image data transmitted by the server in FIG.

図6(A)及び(B)は、区分可能画像のデータD2における、メイン画像である配信者画像Pi1、サブ画像であるチャット対象者画像Pi2-a及びチャット候補者画像Pi2-bの配置の例を示している。 FIGS. 6A and 6B show the arrangement of the distributor image Pi1 as the main image, the chat target person image Pi2-a as the sub-image, and the chat candidate image Pi2-b in the classifiable image data D2. shows an example.

図6(A)における、メイン画像である配信者画像Pi1及びサブ画像であるチャット対象者画像Pi2-aの配置は、図5と基本的に同様であるので、説明は省略する。
ただし、図6(A)は、図5(A)と、以下の点で異なる。
The arrangement of the distributor image Pi1, which is the main image, and the chat target person image Pi2-a, which is the sub-image, in FIG. 6A is basically the same as in FIG.
However, FIG. 6A differs from FIG. 5A in the following points.

図6(A)の例の区分可能画像のデータD2において、チャット対象者画像Pi2-aのみが、配置されている。即ち、図6の(A)の例の区分可能画像のデータD2において、チャット候補者画像Pi2-bは、配置されていない。 In the classifiable image data D2 in the example of FIG. 6A, only the chat target person image Pi2-a is arranged. That is, in the classifiable image data D2 in the example of FIG. 6A, the chat candidate image Pi2-b is not arranged.

また、図6(A)をみると、サブ画像であるチャット対象者画像Pi2-aを囲う線は、太い線となっている。これは、チャット対象者画像Pi2-aがチャット対象者U2-aの画像であることを模式的に示している。即ち、図6(A)の例の場合、視聴者端末3-cは、メイン画像である配信者画像Pi1に、サブ画像であるチャット対象者画像Pi2-aを重畳した画像を表示する。 Also, in FIG. 6A, the line surrounding the chat target person image Pi2-a, which is a sub-image, is a thick line. This schematically shows that the chat target person image Pi2-a is the image of the chat target person U2-a. That is, in the example of FIG. 6A, the viewer terminal 3-c displays an image in which the chat target person image Pi2-a, which is a sub-image, is superimposed on the distributor image Pi1, which is a main image.

次に図6(B)をみると、配信者画像Pi1の配置は、図6(A)と基本的に同様である。そこで、説明は省略する。
ただし、図6(B)は、図6(A)と、以下の点で異なる。
Next, referring to FIG. 6(B), the layout of the distributor image Pi1 is basically the same as that in FIG. 6(A). Therefore, the description is omitted.
However, FIG. 6B differs from FIG. 6A in the following points.

図6(B)をみると、サブ画像であるチャット候補者画像Pi2-bは、区分可能画像のデータD2のうち右側上段に配置されている。即ち、図6(A)においてチャット対象者画像Pi2-aが配置されていた場所に、図6(B)においてチャット候補者画像Pi2-bが配置されている。 Looking at FIG. 6B, the chat candidate image Pi2-b, which is a sub-image, is arranged in the upper right part of the data D2 of the classifiable image. That is, the chat candidate image Pi2-b is arranged in FIG. 6B at the place where the chat target person image Pi2-a was arranged in FIG. 6A.

また、図6(B)において、サブ画像であるチャット候補者画像Pi2-bを囲う線は、太い線となっている。これは、チャット候補者画像Pi2-bが、新たなチャット対象者画像Pi2-aとなったことを模式的に示している。即ち、図6(B)は、チャット候補者U2-bが、新たなチャット対象者U2-aとなった場合に送信される区分可能画像のデータD2の例である。即ち、図6(B)の例の場合、視聴者端末3-cは、メイン画像である配信者画像Pi1に、サブ画像であるチャット候補者画像Pi2-b(新たなチャット対象者画像Pi2-a)を重畳した画像を表示する。 Also, in FIG. 6B, the line surrounding the chat candidate image Pi2-b, which is a sub-image, is a thick line. This schematically shows that the chat candidate image Pi2-b has become a new chat target person image Pi2-a. That is, FIG. 6B is an example of classifiable image data D2 that is transmitted when chat candidate U2-b becomes a new chat target person U2-a. That is, in the example of FIG. 6B, the viewer terminal 3-c adds a chat candidate image Pi2-b (a new chat target person image Pi2- Display an image on which a) is superimposed.

以上の説明をまとめると、図6(A)及び(B)の例に示した区分可能画像のデータD2を採用した場合、区分可能画像のデータD2の右側上段のサブ画像が、チャット対象者U2-aとして視聴者端末3-cに表示される。つまり、視聴者端末3-cは、チャット候補者U2-bが新たなチャット対象者U2-aとなった場合であっても、区分可能画像のデータD2のうち、サブ画像として重畳する領域を変更する必要はない。即ち、区分可能画像のデータD2に配置されたサブ画像のうち、何れのサブ画像をどの配置で重畳するかを、サーバ1の区分可能画像データ生成部131で変更すればよい。即ち、視聴者端末3-cにおけるサブ画像の配置の制御は、簡易なものとできる。 To summarize the above description, when the classifiable image data D2 shown in the examples of FIGS. -a is displayed on the viewer terminal 3-c. In other words, even if the chat candidate U2-b becomes a new chat target person U2-a, the viewer terminal 3-c selects an area to be superimposed as a sub-image out of the data D2 of the classifiable image. No need to change. That is, the classifiable image data generation unit 131 of the server 1 may change which sub-images among the sub-images arranged in the classifiable image data D2 are to be superimposed and in what arrangement. In other words, the control of the arrangement of the sub-images in the viewer terminal 3-c can be simplified.

また、図6の区分可能画像のデータD2を採用した場合、区分可能画像のデータD2のうち、メイン画像もサブ画像も無い右側下部の領域が、図5の区分可能画像のデータD1と比較して、大きくなる。一般に、画像において、単色で塗りつぶした領域(何の画像も無い領域)が広い画像の方が、当該画像のデータの容量が小さくなる。即ち、図6の区分可能画像のデータD2を採用すると、区分可能画像のデータD2の送信に係るコストが低減する。 When the data D2 of the classifiable image in FIG. 6 is adopted, the lower right region, which has neither the main image nor the sub-image, in the data D2 of the classifiable image is compared with the data D1 of the classifiable image in FIG. and get bigger. In general, in an image, the data volume of the image becomes smaller as the area filled with a single color (the area without any image) is wider. That is, if the data D2 of the classifiable image of FIG. 6 is adopted, the cost associated with the transmission of the data D2 of the classifiable image is reduced.

以上、図5、及び図6を用いて、区分可能画像のデータにおける、メイン画像とサブ画像との配置の例を説明した。 An example of the layout of the main image and the sub-images in the data of the segmentable image has been described above with reference to FIGS. 5 and 6. FIG.

図7は、図3の機能的構成を有するサーバにより実行される、画像送信処理の流れの一例を説明するフローチャートである。
画像送信処理は、サーバ1が区分可能画像のデータを視聴者端末3-cに送信する際に実行される。
FIG. 7 is a flowchart illustrating an example of the flow of image transmission processing executed by the server having the functional configuration of FIG.
The image transmission process is executed when the server 1 transmits the data of the classifiable image to the viewer terminal 3-c.

ステップS11の処理において、メイン画像データ取得部121は、配信者端末2から送信されてきたメイン画像のデータを取得する。 In the process of step S<b>11 , the main image data acquisition unit 121 acquires main image data transmitted from the distributor terminal 2 .

ステップS12の処理において、サブ画像データ取得部122は、視聴者端末3-aや視聴者端末3-bから送信されてきたサブ画像のデータを取得する。 In the process of step S12, the sub-image data acquisition unit 122 acquires sub-image data transmitted from the viewer terminal 3-a or the viewer terminal 3-b.

ステップS13の処理において、区分可能画像データ生成部131は、区分可能画像のデータを生成する。即ち、ステップS13の処理において、ステップS11の処理により取得されたメイン画像のデータと、ステップS12の処理により取得されたサブ画像のデータとからなる群に含まれる、複数の画像の夫々を区分可能に含む画像のデータを、区分可能画像のデータとして生成する。 In the process of step S13, the classifiable image data generation unit 131 generates classifiable image data. That is, in the process of step S13, each of the plurality of images included in the group consisting of the data of the main image acquired by the process of step S11 and the data of the sub-images acquired by the process of step S12 can be classified. is generated as segmentable image data.

ステップS14の処理において、区分可能画像データ送信制御部132は、ステップS13の処理により生成された区分可能画像のデータを、視聴者端末3-cに送信する制御を実行する。 In the process of step S14, the classifiable image data transmission control unit 132 executes control to transmit the classifiable image data generated by the process of step S13 to the viewer terminal 3-c.

図8は、図3の機能的構成を有する視聴者端末により実行される、画像表示処理の流れの一例を説明するフローチャートである。
画像表示処理は、視聴者端末3-cが表示画像を視聴者端末3-cに表示する際に実行される。
FIG. 8 is a flow chart explaining an example of the flow of image display processing executed by the viewer terminal having the functional configuration of FIG.
The image display process is executed when the viewer terminal 3-c displays a display image on the viewer terminal 3-c.

ステップS21の処理において、区分可能画像データ取得部321は、サーバ1から送られてきた区分可能画像のデータを取得する。 In the process of step S<b>21 , the classifiable image data acquisition unit 321 acquires classifiable image data sent from the server 1 .

ステップS22の処理において、区分可能画像データ領域区分部322は、ステップS21の処理により取得された区分可能画像のデータから、メイン画像及びサブ画像の領域を区分する。 In the process of step S22, the segmentable image data area division unit 322 segments the areas of the main image and the sub-image from the data of the segmentable image acquired by the process of step S21.

ステップS23の処理において、サブ画像配置情報取得部323は、視聴者端末3-cが操作等された内容に基づいて、ステップS22の処理で区分したサブ画像を、メイン画像の上にどのように配置するかを示す配置情報を取得する。 In the process of step S23, the sub-image arrangement information acquisition section 323 places the sub-images divided in the process of step S22 on the main image in some way, based on the operation of the viewer terminal 3-c. Gets the placement information indicating whether to place.

ステップS24の処理において、表示画像データ生成部324は、ステップS22の処理により取得された配置情報に基づき、メイン画像の上にサブ画像を重畳した表示画像のデータを生成する。 In the process of step S24, the display image data generation unit 324 generates display image data in which the sub-image is superimposed on the main image based on the arrangement information acquired in the process of step S22.

ステップS25の処理において、表示制御部325は、ステップS24の処理により生成された表示画像のデータを、視聴者端末3-cに表示する制御を実行する。 In the process of step S25, the display control unit 325 executes control to display the data of the display image generated by the process of step S24 on the viewer terminal 3-c.

以上本発明の一実施形態について説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。 Although one embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment, and modifications, improvements, etc. within the scope of achieving the object of the present invention are included in the present invention. be.

本実施形態では、配信者とチャット対象者とがビデオチャットを行う本サービスに適用されるとしたが、特にこれに限定されない。即ち例えば、本発明は、2つ以上の画像が重畳して表示される画像を提供するサービスに採用することができる。 In the present embodiment, the present invention is applied to this service in which the distributor and the chat target person video chat, but the present invention is not particularly limited to this. That is, for example, the present invention can be employed in a service that provides an image in which two or more images are superimposed and displayed.

具体的には例えば、ゲーム配信のサービスに採用することができる。即ち例えば、サーバ1は、メイン画像としてゲームのプレイ画面の画像を取得し、サブ画像としてゲームをプレイする配信者を撮像した画像を取得してもよい。これにより、ゲーム配信の一般視聴者U2-cは、ゲームのプレイ画面の画像(メイン画像)の任意の位置に配信者U1を撮像した画像(サブ画像)を配置することができる。即ち、ゲーム配信を視聴する一般視聴者U2-cにとっての利便性が向上する。 Specifically, for example, it can be adopted for a game distribution service. That is, for example, the server 1 may acquire an image of a game play screen as a main image, and acquire an image of a distributor playing the game as a sub image. As a result, the general viewer U2-c of the game distribution can place an image (sub-image) of the distributor U1 at an arbitrary position on the image (main image) of the game play screen. That is, convenience for the general viewer U2-c who watches the game distribution is improved.

また、例えば、本実施形態では、一般視聴者U2-cが視聴する画面には、メイン画像と比較して小さいサブ画像が、メイン画像の上に重畳されて表示されるものとしたが、特にこれに限定されない。即ち例えば、一般視聴者U2-cが視聴する画面には、メイン画像とサブ画像とが、重畳されずに並べて表示されてよい。
具体的には例えば、視聴者端末3が十分に大きなディスプレイを備えている場合、視聴者端末3は、メイン画像の上にサブ画像を重畳させずに表示することができる。これにより、視聴者端末3は、メイン画像をサブ画像で隠すことなく、表示することができる。
この場合であっても、上述のように、コネクション数は削減されるため、複数の画像(メイン画像とサブ画像)を送信するコストが削減される。更に言えば、区分可能画像からメイン画像とサブ画像の領域を区分することで、重畳しないで表示する場合であっても、メイン画像とサブ画像の夫々を任意の配置とすることで、一般視聴者U2-cにとっての利便性が、向上する。
Further, for example, in the present embodiment, a sub-image that is smaller than the main image is superimposed on the main image and displayed on the screen viewed by the general viewer U2-c. It is not limited to this. That is, for example, the main image and the sub-image may be displayed side by side without being superimposed on the screen viewed by the general viewer U2-c.
Specifically, for example, if the viewer terminal 3 has a sufficiently large display, the viewer terminal 3 can display the sub-image without superimposing it on the main image. As a result, the viewer terminal 3 can display the main image without hiding it with the sub-image.
Even in this case, since the number of connections is reduced as described above, the cost of transmitting multiple images (main image and sub-image) is reduced. Furthermore, by separating the areas of the main image and the sub-image from the separable image, even if the main image and the sub-image are displayed without being superimposed, the main image and the sub-image can be arbitrarily arranged to allow general viewing. Convenience for person U2-c is improved.

また、例えば、本実施形態では、区分可能画像データD1において、メイン画像である配信者画像Pi1は、サブ画像であるチャット対象者画像Pi2-aやチャット候補者画像Pi2-bと比較して大きく配置されるものとしたが、とくにこれに限定されない。即ち、画像データ取得部111は、複数の画像のデータを、データの群として取得すれば足りる。具体的には例えば、メイン画像とサブ画像とは、同じ大きさで区分可能画像に配置されてよい。これにより、例えば、サブ画像の上にメイン画像を重畳して表示した場合であっても、視聴者は、サブ画像の画質が悪化しない状態で視聴することができる。 Further, for example, in the present embodiment, in the classifiable image data D1, the distributor image Pi1, which is the main image, is larger than the chat target person image Pi2-a and the chat candidate image Pi2-b, which are sub-images. Although it is supposed to be arranged, it is not particularly limited to this. That is, it is sufficient for the image data acquisition unit 111 to acquire data of a plurality of images as a group of data. Specifically, for example, the main image and the sub-image may be the same size and arranged in the segmentable image. As a result, for example, even when the main image is superimposed on the sub-image and displayed, the viewer can view the sub-image without degrading the quality of the sub-image.

また例えば、本実施形態において、図5の区分可能画像データD1は、複数の画像のデータを重ならないように配置されているものとしたが、特にこれに限定されない。即ち、区分可能画像のデータは、複数の画像の夫々を区分可能に含めば足りる。具体的には例えば、区分可能画像のデータは、複数の画像の夫々を重畳させて配置されていてもよい。この場合であっても、通常、重畳された部分と重畳されていない部分とで、複数の画像の領域を区分(分離)することが可能である。 Further, for example, in the present embodiment, the classifiable image data D1 in FIG. 5 is arranged such that the data of a plurality of images are arranged so as not to overlap each other, but the present invention is not particularly limited to this. That is, it is sufficient that the data of the classifiable image include each of the plurality of images so that they can be classifiable. Specifically, for example, the data of the classifiable image may be arranged by superimposing each of a plurality of images. Even in this case, it is usually possible to divide (separate) regions of a plurality of images into overlapping portions and non-overlapping portions.

また例えば、本実施形態において、図3の区分可能画像データ送信制御部132は、視聴者端末3-cに区分可能画像のデータを直接送信する例として図示されているが、特にこれに限定されない。即ち、区分可能画像データ送信制御部132は、区分可能画像のデータを、視聴者端末3-cが受信可能に、送信する制御を実行すれば足りる。具体的には例えば、区分可能画像データ送信制御部132は、ストリーミングの環境を構築、又は利用して、視聴者端末3-cに区分可能画像のデータを送信してよい。 Also, for example, in the present embodiment, the classifiable image data transmission control unit 132 in FIG. 3 is illustrated as an example in which the classifiable image data is directly transmitted to the viewer terminal 3-c, but it is not particularly limited to this. . That is, it is sufficient for the classifiable image data transmission control unit 132 to execute control to transmit the classifiable image data so that the viewer terminal 3-c can receive it. Specifically, for example, the classifiable image data transmission control unit 132 may construct or use a streaming environment to transmit the classifiable image data to the viewer terminal 3-c.

また例えば、本実施形態において、図3の区分可能画像データ領域区分部322は、予め共有された複数の画像の夫々が区分可能画像のうち何れの領域に配置されるかの情報に基づき、領域を区分するとしたが、特にこれに限定されない。即ち、区分可能画像データ領域区分部322は、区分可能画像のデータに基づいて、複数の画像の夫々を区分することができれば足りる。具体的には例えば、区分可能画像のデータを解析等することで、区分可能画像のデータに含まれる複数の画像の夫々の領域の端(例えば、図5(A)に図示された区分可能画像のデータD1の直線部分)を検出し、領域を区分してもよい。 Further, for example, in the present embodiment, the segmentable image data region segmentation unit 322 in FIG. , but is not particularly limited to this. That is, it is sufficient for the segmentable image data area segmentation unit 322 to be able to segment each of the plurality of images based on the data of the segmentable image. Specifically, for example, by analyzing the data of the classifiable image, the edge of each region of the plurality of images included in the data of the classifiable image (for example, the classifiable image shown in FIG. 5A) ) may be detected to divide the area.

また例えば、本実施形態において、表示画像データ生成部324により生成される表示画像は、メイン画像と比較して小さいサブ画像が、メイン画像の上に重畳されて表示されるものとしたが、特にこれに限定さない。即ち、サブ画像配置情報取得部323は、複数の画像のうち1以上の画像を表示対象として、表示対象の1以上の画像の夫々をどのように配置するのかを示す情報を、配置情報として取得すれば足りる。具体的には例えば、複数の画像うち、表示対象とする1つの画像の配置情報を取得し、表示画像として表示してもよい。これにより、一般視聴者U2-cは、表示対象とする1つの画像に対してサブ画像が重畳されずに視聴することができる。また、上述のように、表示画像データ生成部324は、複数の画像を重畳させずに表示画像とすることができる。 Further, for example, in the present embodiment, the display image generated by the display image data generation unit 324 is displayed by superimposing a sub-image that is smaller than the main image on the main image. Not limited to this. That is, the sub-image layout information acquisition unit 323 acquires, as layout information, information indicating how to arrange each of the one or more images to be displayed, with one or more images among the plurality of images to be displayed. That's enough. Specifically, for example, layout information of one image to be displayed among a plurality of images may be obtained and displayed as a display image. As a result, the general viewer U2-c can view one image to be displayed without the sub-image being superimposed thereon. Also, as described above, the display image data generation unit 324 can generate a display image without superimposing a plurality of images.

また例えば、本実施形態において、チャット候補者U2-bは、公開チャットを視聴する一般視聴者U2-cから、サーバ1により抽出されるものとしたが、特にこれに限定されない。具体的には例えば、チャット候補者U2-bは、図示せぬ他の装置により抽出されてもよく、公開チャットのプロデューサや、ディレクタ等の自然人による入力に基づいて抽出されてもよい。 Further, for example, in the present embodiment, the chat candidates U2-b are extracted by the server 1 from the general viewers U2-c who watch the public chat, but the present invention is not particularly limited to this. Specifically, for example, the chat candidate U2-b may be extracted by another device (not shown), or may be extracted based on an input by a natural person such as a public chat producer or director.

また例えば、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図3の機能的構成は例示に過ぎず、特に限定されない。
即ち、上述した一連の処理を全体として実行できる機能が情報処理システムに備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図4の例に限定されない。また、機能ブロックの存在場所も、図3に特に限定されず、任意でよい。即ち、サーバ1は複数台で構成され、複数のサーバにより実行されてよい。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
Also, for example, the series of processes described above can be executed by hardware or by software.
In other words, the functional configuration of FIG. 3 is merely an example and is not particularly limited.
That is, it is sufficient that the information processing system has a function capable of executing the above-described series of processes as a whole, and what kind of functional blocks are used to realize this function is not particularly limited to the example in FIG. Also, the locations of the functional blocks are not particularly limited to those shown in FIG. 3, and may be arbitrary. That is, the server 1 may be composed of a plurality of units and executed by a plurality of servers.
Also, one functional block may be composed of hardware alone, software alone, or a combination thereof.

また例えば、一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。
また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他汎用のスマートフォンやパーソナルコンピュータであってもよい。
Further, for example, when a series of processes is executed by software, a program constituting the software is installed in a computer or the like from a network or a recording medium.
The computer may be a computer built into dedicated hardware.
Also, the computer may be a computer capable of executing various functions by installing various programs, such as a server, a general-purpose smart phone, or a personal computer.

また例えば、このようなプログラムを含む記録媒体は、一般視聴者U2-cにプログラムを提供するために装置本体とは別に配布される図示せぬリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態で一般視聴者U2-cに提供される記録媒体等で構成される。 Also, for example, the recording medium containing such a program is not only composed of a removable medium (not shown) that is distributed separately from the main body of the device in order to provide the program to general viewers U2-c, but also It is composed of a recording medium or the like provided to the general viewer U2-c in a pre-installed state.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
In this specification, the steps of writing a program recorded on a recording medium are not only processes that are performed chronologically in that order, but also processes that are not necessarily chronologically processed, and that are performed in parallel or individually. It also includes the processing to be executed.
Further, in this specification, the term "system" means an overall device composed of a plurality of devices, a plurality of means, or the like.

以上を換言すると、本発明が適用される情報処理装置は、次のような構成を有する各種各様の実施形態を取ることができる。
即ち、本発明が適用される情報処理システム(例えば図1の情報処理システム)は、
ユーザ(例えば、図3の視聴者端末3-cを操作する一般視聴者U2-c)に提示される画像のデータを生成する第1情報処理装置(例えば、図3のサーバ1)と、前記ユーザに当該画像を提示する際に利用される第2情報処理装置(例えば、図3の視聴者端末3-c)とを含む情報処理システムにおいて、
前記第1情報処理装置は、
複数の画像のデータ(例えば、図2の配信者画像Pi1のデータやチャット対象者画像Pi2-a,Pi2-bのデータ)を、第1データの群として取得する第1取得手段(例えば、図3の画像データ取得部111)と、
前記複数の画像の夫々を区分可能に含む画像のデータ(例えば、図5の区分可能画像のデータD1)を、第2データとして生成する第1生成手段(例えば、図3の区分可能画像データ生成部131)と、
前記第2データを前記第2情報処理装置に送信する制御を実行する送信制御手段(例えば、図3の区分可能画像データ送信制御部132)と、
を備え、
前記第2情報処理装置は、
前記第1情報処理装置から送信された前記第2データを取得する第2取得手段(例えば、図3の区分可能画像データ取得部321)と、
前記第2データに基づいて、前記複数の画像の夫々を区分する区分手段(例えば、図3の区分可能画像データ領域区分部322)と、
前記複数の画像のうち1以上の画像を表示対象として、表示対象の前記1以上の画像の夫々をどのように配置するのかを示す情報を、配置情報として取得する第3取得手段(例えば、図3のサブ画像配置情報取得部323)と、
前記配置情報に基づいて、表示対象の前記1以上の画像の夫々を配置させた画像のデータを、第4データとして生成する第2生成手段(例えば、図3の表示画像データ生成部324)と、
前記第4データに対応する前記画像を前記ユーザに提示する制御を行う提示制御手段(例えば、図3の表示制御部325)と、
を備える、
情報処理システムであれば足りる。
このような情報処理システムにおいて、第1情報処理装置は、複数の画像の夫々を区分可能に含む画像のデータを、1つの第2データとして、第2情報処理装置に送信することができる。ここで、送信時に係るコストとして、ストリーミングの環境の構築や利用に係るコストが発生する。ストリーミングの環境の構築や利用に係るコストは、コネクション数に依存する。このような情報処理システムは、1つの第2データを送信することで、コネクション数を削減することができる。
また、このような情報処理システムにおいて、第2情報処理装置は、配置情報に基づいて、表示対象の1以上の画像の夫々を配置させた画像のデータを、第4データとして生成することができる。これにより、第2情報処理装置は、表示対象の1以上の画像の夫々を、配置情報に基づいて配置することができる。即ち、第2情報処理装置は、あらゆる配置情報に基づいて配置された第4データを生成し、更に、第4データに対応した画像をユーザに提示することができる。
即ち、このような情報処理システムは、ユーザにとっての利便性を向上させ、且つ、画像の送信に係るコストを低減することができる。
In other words, the information processing apparatus to which the present invention is applied can take various embodiments having the following configurations.
That is, an information processing system to which the present invention is applied (for example, the information processing system in FIG. 1) is
a first information processing device (for example, server 1 in FIG. 3) that generates image data to be presented to a user (for example, general viewer U2-c who operates viewer terminal 3-c in FIG. 3); In an information processing system including a second information processing device (for example, the viewer terminal 3-c in FIG. 3) used when presenting the image to the user,
The first information processing device is
A first obtaining means (for example, 3 image data acquisition unit 111);
A first generating means (for example, a classifiable image data generating section in FIG. 3) for generating image data (for example, classifiable image data D1 in FIG. 5) containing each of the plurality of images in a classifiable manner as second data. Part 131) and
a transmission control means (for example, the classifiable image data transmission control unit 132 in FIG. 3) that executes control for transmitting the second data to the second information processing device;
with
The second information processing device is
a second acquisition unit (for example, the classifiable image data acquisition unit 321 in FIG. 3) that acquires the second data transmitted from the first information processing device;
a segmentation means (for example, segmentable image data region segmentation unit 322 in FIG. 3) for segmenting each of the plurality of images based on the second data;
A third acquisition unit (for example, FIG. 3 sub-image arrangement information acquisition unit 323);
a second generation means (for example, the display image data generation unit 324 in FIG. 3) that generates, as fourth data, image data in which the one or more images to be displayed are arranged based on the arrangement information; ,
Presentation control means (for example, the display control unit 325 in FIG. 3) that performs control to present the image corresponding to the fourth data to the user;
comprising a
An information processing system is sufficient.
In such an information processing system, the first information processing device can transmit image data including each of a plurality of images in a classifiable manner to the second information processing device as one piece of second data. Here, as a cost for transmission, there is a cost for building and using a streaming environment. The cost of building and using a streaming environment depends on the number of connections. Such an information processing system can reduce the number of connections by transmitting one piece of second data.
Further, in such an information processing system, the second information processing device can generate, as the fourth data, image data in which one or more images to be displayed are arranged, based on the arrangement information. . Thereby, the second information processing apparatus can arrange each of the one or more images to be displayed based on the arrangement information. That is, the second information processing apparatus can generate the fourth data arranged based on all arrangement information, and present an image corresponding to the fourth data to the user.
That is, such an information processing system can improve convenience for the user and reduce costs associated with image transmission.

1・・・サーバ、2・・・配信者端末、3・・・視聴者端末、11・・・CPU、19・・・通信部、111・・・画像データ取得部、112・・・配信者提示画像制御部、113・・・チャット対象者提示画像制御部、114・・・チャット候補者提示画像制御部、115・・・視聴者提示画像制御部、121・・・メイン画像データ取得部、122・・・サブ画像データ取得部、131・・・区分画像データ生成部、132・・・区分可能画像データ送信制御部、311・・・CPU、312・・・通信部、313・・・入力部、314・・・出力部、321・・・区分可能画像データ取得部、322・・・区分可能画像データ領域区分部、323・・・サブ画像配置情報取得部、324・・・表示画像データ生成部、325・・・表示制御部 DESCRIPTION OF SYMBOLS 1... Server, 2... Distributor terminal, 3... Viewer terminal, 11... CPU, 19... Communication part, 111... Image data acquisition part, 112... Distributor Presentation image control unit 113 Chat target person presentation image control unit 114 Chat candidate presentation image control unit 115 Viewer presentation image control unit 121 Main image data acquisition unit 122 Sub-image data acquisition unit 131 Divided image data generation unit 132 Divideable image data transmission control unit 311 CPU 312 Communication unit 313 Input Unit 314 Output unit 321 Classifiable image data acquisition unit 322 Classifiable image data area division unit 323 Sub image layout information acquisition unit 324 Display image data generation unit 325 ... display control unit

Claims (4)

ユーザに提示される画像のデータを生成する第1情報処理装置と、当該画像を当該ユーザに提示する際に利用される第2情報処理装置とを含む情報処理システムにおいて、
前記第1情報処理装置は、
複数の画像のデータの夫々を、被写体に関するN種類(Nは2以上の整数値)のうち何 れかの種類に分類して第1データの群として取得する第1取得手段と、
空間方向に予め前記N種類の小領域に区分された領域に対して、前記複数の画像の夫々 を、前記N種類の領域のうち分類された種類の前記小領域に配置させた画像のデータを、第2データとして生成する第1生成手段と、
前記第2データを前記第2情報処理装置に送信する制御を実行する送信制御手段と、
を備え、
前記第2情報処理装置は、
前記第1情報処理装置から送信された前記第2データを取得する第2取得手段と、
前記第2データに基づいて、前記複数の画像の夫々を前記N種類のうち何れかの種類に区分する区分手段と、
前記複数の画像のうち1以上の画像を表示対象として、表示対象の前記1以上の画像の夫々をどのように配置するのかを示す情報であって、前記N種類の夫々に対して予め配置 位置が決定された情報を配置情報として取得する第3取得手段と、
前記配置情報、及び、表示対象の前記1以上の画像の夫々の種類に基づいて、表示対象の前記1以上の画像の夫々を配置させた画像のデータを、第4データとして生成する第2生成手段と、
前記第4データに対応する前記画像を前記ユーザに提示する制御を行う提示制御手段と、
を備える、
情報処理システム。
In an information processing system including a first information processing device that generates data of an image to be presented to a user and a second information processing device that is used when presenting the image to the user,
The first information processing device is
a first acquisition means for classifying each of the data of the plurality of images into one of N types (N is an integer value of 2 or more) relating to the subject and acquiring the data as a first data group;
image data obtained by arranging each of the plurality of images in the small regions of the classified type among the N types of regions, with respect to the regions previously divided into the N types of small regions in the spatial direction ; , a first generating means for generating as second data;
transmission control means for executing control to transmit the second data to the second information processing device;
with
The second information processing device is
a second obtaining means for obtaining the second data transmitted from the first information processing device;
classification means for classifying each of the plurality of images into one of the N types based on the second data;
Information indicating how to arrange one or more images to be displayed among the plurality of images, wherein each of the one or more images to be displayed is arranged in advance for each of the N types . a third acquisition means for acquiring information for which is determined as arrangement information;
Second generation for generating image data in which the one or more images to be displayed are arranged, as fourth data, based on the arrangement information and the type of each of the one or more images to be displayed. means and
presentation control means for performing control to present the image corresponding to the fourth data to the user;
comprising
Information processing system.
前記第1取得手段は、前記N種類のうち前記第2情報処理装置側で表示対象となるM種 The first acquisition means selects M types of the N types to be displayed on the second information processing apparatus side. 類(MはN以下の整数値)に分類された1以上の画像を、前記第1データ群の群として取One or more images classified into a class (M is an integer value equal to or less than N) are taken as a group of the first data group. 得し、get,
前記配置情報は、前記M種類の夫々に対して予め配置位置が決定された情報である、 The arrangement information is information in which arrangement positions are determined in advance for each of the M types.
請求項1に記載の情報処理システム。 The information processing system according to claim 1.
前記第2情報処理装置に表示される画像は、配信者のライブ配信の画像であって、当該 The image displayed on the second information processing device is an image of the live distribution of the distributor, 配信者とチャット対象とがチャットを行っている際の、前記配信者を被写体に含む第1種Type 1 including the broadcaster as a subject when the broadcaster and the chat target are chatting 画像、前記チャット対象を被写体に含む第2種画像、及びチャット候補者を被写体に含むan image, a second-type image including the chat target as a subject, and a chat candidate as the subject 第3種画像のうち、少なくとも前記第1種画像及び前記第2種画像を含む、Including at least the first type image and the second type image among the third type images,
請求項1又は2に記載の情報処理システム。 The information processing system according to claim 1 or 2.
前記第1取得手段は、前記第1データの群の中から、主画像のデータと副画像のデータを取得し、
前記第1生成手段は、第1の画質の前記主画像と第2の画質の前記副画像との夫々を区分可能に含む画像のデータを、前記第2データとして生成する、
請求項1乃至3のうち何れか1項に記載の情報処理システム。
The first acquisition means acquires main image data and sub-image data from the first data group,
The first generating means generates image data, which includes the main image of the first image quality and the sub-image of the second image quality in a distinguishable manner, as the second data.
The information processing system according to any one of claims 1 to 3 .
JP2019092952A 2019-05-16 2019-05-16 Information processing system Active JP7152778B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019092952A JP7152778B2 (en) 2019-05-16 2019-05-16 Information processing system
JP2022151418A JP7442855B2 (en) 2019-05-16 2022-09-22 information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019092952A JP7152778B2 (en) 2019-05-16 2019-05-16 Information processing system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022151418A Division JP7442855B2 (en) 2019-05-16 2022-09-22 information processing system

Publications (2)

Publication Number Publication Date
JP2020187634A JP2020187634A (en) 2020-11-19
JP7152778B2 true JP7152778B2 (en) 2022-10-13

Family

ID=73221880

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019092952A Active JP7152778B2 (en) 2019-05-16 2019-05-16 Information processing system
JP2022151418A Active JP7442855B2 (en) 2019-05-16 2022-09-22 information processing system

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022151418A Active JP7442855B2 (en) 2019-05-16 2022-09-22 information processing system

Country Status (1)

Country Link
JP (2) JP7152778B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007256310A (en) 2006-03-20 2007-10-04 Seiko Epson Corp Image display system and server device
JP2012242918A (en) 2011-05-17 2012-12-10 Sony Corp Information processing device, information processing method and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007256310A (en) 2006-03-20 2007-10-04 Seiko Epson Corp Image display system and server device
JP2012242918A (en) 2011-05-17 2012-12-10 Sony Corp Information processing device, information processing method and program

Also Published As

Publication number Publication date
JP2022188126A (en) 2022-12-20
JP7442855B2 (en) 2024-03-05
JP2020187634A (en) 2020-11-19

Similar Documents

Publication Publication Date Title
US10499118B2 (en) Virtual and augmented reality system and headset display
US9807344B2 (en) Apparatus and method for providing media services with telepresence
Apostolopoulos et al. The road to immersive communication
US20180316939A1 (en) Systems and methods for video processing, combination and display of heterogeneous sources
EP2611127A1 (en) Cloud-based content mixing into one stream
CN102859486B (en) Zoom display navigates
US20110214141A1 (en) Content playing device
Doumanoglou et al. Quality of experience for 3-D immersive media streaming
Prins et al. TogetherVR: A framework for photorealistic shared media experiences in 360-degree VR
CN108322474B (en) Virtual reality system based on shared desktop, related device and method
AU2015345987A1 (en) Reducing data content on a data stream
WO2018071781A2 (en) Systems and methods for video processing and display
CN113518232A (en) Video display method, device, equipment and storage medium
KR20180054377A (en) Interactive virtual reality system
Langa et al. Multiparty holomeetings: Toward a new era of low-cost volumetric holographic meetings in virtual reality
EP4163876A1 (en) Information processing device, information processing method, and program
US20090100484A1 (en) System and method for generating output multimedia stream from a plurality of user partially- or fully-animated multimedia streams
JP2024019361A (en) Information processing apparatus
KR101922968B1 (en) Live streaming method for virtual reality contents and system thereof
US20230217047A1 (en) Method, system, and computer-readable recording medium for implementing fast-switching mode between channels in multi-live transmission environment
JP7152778B2 (en) Information processing system
JP7312858B2 (en) METHOD, SYSTEM AND COMPUTER-READABLE RECORDING MEDIUM FOR SEAMLESS CHANGING MODE OF CHANNEL IN MULTIPLE LIVE DISTRIBUTION ENVIRONMENT
Kondoz et al. Novel 3D Media Technologies
KR101922970B1 (en) Live streaming method for virtual reality contents and system thereof
Rossi et al. Streaming and user behavior in omnidirectional videos

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220406

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220922

R150 Certificate of patent or registration of utility model

Ref document number: 7152778

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150