JP7525801B2 - Information processing system, control program, and information processing device - Google Patents

Information processing system, control program, and information processing device Download PDF

Info

Publication number
JP7525801B2
JP7525801B2 JP2022210355A JP2022210355A JP7525801B2 JP 7525801 B2 JP7525801 B2 JP 7525801B2 JP 2022210355 A JP2022210355 A JP 2022210355A JP 2022210355 A JP2022210355 A JP 2022210355A JP 7525801 B2 JP7525801 B2 JP 7525801B2
Authority
JP
Japan
Prior art keywords
information processing
image
display
processing device
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022210355A
Other languages
Japanese (ja)
Other versions
JP2023052126A (en
Inventor
真 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mixi Inc
Original Assignee
Mixi Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mixi Inc filed Critical Mixi Inc
Priority to JP2022210355A priority Critical patent/JP7525801B2/en
Publication of JP2023052126A publication Critical patent/JP2023052126A/en
Priority to JP2024110414A priority patent/JP2024137965A/en
Application granted granted Critical
Publication of JP7525801B2 publication Critical patent/JP7525801B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Description

本発明は、情報処理システム,制御プログラム及び情報処理装置に関するものである。 The present invention relates to an information processing system, a control program, and an information processing device.

配信中の動画コンテンツの視聴者に、その動画コンテンツの内容を話題とするグループチャットを行わせる仕組みが知られている。例えば、特許文献1には、グループチャットに参加するユーザにそれぞれ対応するアバタが動画コンテンツの周囲に配置されるチャット画面に、ユーザが選択したボタンに応じて動画コンテンツの内容に関する定型メッセージを表示させるクライアント機器が開示されている。 There is a known mechanism for allowing viewers of video content being distributed to hold group chats on the topic of that video content. For example, Patent Literature 1 discloses a client device that displays a standard message related to the content of the video content in response to a button selected by the user on a chat screen on which avatars corresponding to the users participating in the group chat are arranged around the video content.

国際公開第2017/026170号International Publication No. 2017/026170

特許文献1に記載のクライアント機器は、ユーザを表すアバタの傍らに、ユーザが選択した定型メッセージを吹き出し表示する。これにより、ユーザは動画コンテンツを視聴している他のユーザの反応を確認できるものの、ユーザが選択した定型メッセージを吹き出し表示するだけでは、娯楽性に乏しい。 The client device described in Patent Document 1 displays a standard message selected by the user in a speech bubble next to an avatar representing the user. This allows the user to check the reactions of other users watching the video content, but simply displaying a standard message selected by the user in a speech bubble is not very entertaining.

また、特許文献1には、複数のユーザによる定型メッセージの選択頻度に応じた大きさで吹き出しを表示することが開示されている。しかしながら、他のユーザの定型メッセージが大きく表示されると、動画コンテンツを視聴しているユーザがこれを煩わしく感じる可能性がある。 Patent Literature 1 also discloses displaying speech bubbles in sizes that correspond to the frequency with which multiple users select standard messages. However, if standard messages from other users are displayed in a large size, users who are watching video content may find this annoying.

本発明が解決しようとする課題は、視聴対象の表示画面に視聴者の反応を表示させる仕組みにおいて、煩わしさを抑制しつつ娯楽性を向上させることである。 The problem that this invention aims to solve is to improve entertainment value while minimizing annoyance in a system that displays the viewer's response on the display screen of the viewing target.

上記課題を解決するため本発明は、視聴対象が表示される画面において、本人の操作に基づく第1要素を当該視聴対象に重畳可能とする一方で、他人の操作に基づく第2要素を当該視聴対象に重畳不可とする。 To solve the above problem, the present invention allows a first element based on a user's operation to be superimposed on a screen on which a viewing target is displayed, while preventing a second element based on another user's operation from being superimposed on the viewing target.

本発明の一形態である情報処理システムは、第1の情報処理装置において視聴対象が表示される基本領域と少なくとも部分的に重畳する第1範囲に、前記第1の情報処理装置において前記視聴対象を視聴中の第1ユーザによる第1操作に基づく第1要素を表示させる第1制御手段と、前記基本領域と重畳しない第2範囲に、第2の情報処理装置において前記視聴対象を視聴中の第2ユーザによる第2操作に基づく第2要素を表示させる第2制御手段と、を備える。 The information processing system according to one embodiment of the present invention includes a first control means for displaying a first element based on a first operation by a first user viewing the viewing target on a first information processing device in a first range that at least partially overlaps with a basic area in which the viewing target is displayed on the first information processing device, and a second control means for displaying a second element based on a second operation by a second user viewing the viewing target on a second information processing device in a second range that does not overlap with the basic area.

本発明によれば、視聴対象の表示画面に視聴者の反応を表示させる仕組みにおいて、煩わしさを抑制しつつ娯楽性を向上させることができる。 According to the present invention, a mechanism for displaying the viewer's response on the display screen of the viewing target can improve entertainment value while reducing annoyance.

動画配信システムの構成図である。(実施例)FIG. 1 is a configuration diagram of a video distribution system (embodiment); サーバの電気的構成を示すブロック図である。(実施例)1 is a block diagram showing the electrical configuration of a server according to an embodiment of the present invention; 携帯端末の電気的構成を示すブロック図である。(実施例)1 is a block diagram showing an electrical configuration of a mobile terminal according to an embodiment of the present invention. 携帯端末の画面の表示態様を示す図である。(実施例)1 is a diagram showing a display state of a screen of a mobile terminal (embodiment); オノマトペ画像を表示している画面を示す図である。(実施例)FIG. 13 is a diagram showing a screen displaying an onomatopoeia image (Example). 第2画像を表示している画面を示す図である。(実施例)FIG. 13 is a diagram showing a screen displaying a second image (Example); サーバの動画配信に関する機能ブロック図である。(実施例)FIG. 1 is a functional block diagram of a server for video distribution (embodiment); 携帯端末のオノマトペ表示に関する機能ブロック図である。(実施例)FIG. 1 is a functional block diagram relating to onomatopoeia display of a mobile terminal (embodiment); 携帯端末で実行されるオノマトペ表示処理の流れを示すフローチャートであ る。(実施例)1 is a flowchart showing the flow of an onomatopoeia display process executed on a mobile terminal. サーバで実行されるオノマトペ表示処理の流れを示すフローチャートであ る。(実施例)10 is a flowchart showing the flow of an onomatopoeia display process executed by the server. 画面の構成を示す模式図である。(他の実施形態)13 is a schematic diagram showing a configuration of a screen (another embodiment).

[1.実施形態]
[1-1.主要な特徴]
本発明は、視聴対象の表示画面に視聴者の反応を表示させる仕組みに関する。本発明に係る各実施形態は、煩わしさを抑制しつつ娯楽性を向上させるため、視聴対象が表示される基本領域と少なくとも部分的に重畳する第1範囲に、視聴対象を視聴中の第1ユーザによる第1操作に基づく第1要素を表示させ、基本領域と重畳しない第2範囲に、視聴対象を視聴中の第2ユーザによる第2操作に基づく第2要素を表示させる。
1. Embodiment
[1-1. Main features]
The present invention relates to a mechanism for displaying a viewer's reaction on a display screen of a viewing target. In order to reduce annoyance and improve entertainment value, each embodiment of the present invention displays a first element based on a first operation by a first user viewing the viewing target in a first range that at least partially overlaps with a basic area in which the viewing target is displayed, and displays a second element based on a second operation by a second user viewing the viewing target in a second range that does not overlap with the basic area.

視聴対象は、ユーザにより少なくとも視覚的に把握される映像コンテンツをいう。映像コンテンツは、ユーザにより聴覚的に把握される音声コンテンツを含んでいてもよい。映像コンテンツは、例えば、配信装置から情報処理装置に配信される。映像コンテンツの配信は、例えば、ストリーミング配信やプログレッシブダウンロード配信が好適である。映像コンテンツは、例えば、動画である。視聴対象は、情報処理装置の画面内の一部である基本領域に表示される。 The viewing object refers to video content that is at least visually grasped by the user. The video content may also include audio content that is audibly grasped by the user. The video content is distributed, for example, from a distribution device to an information processing device. The video content is preferably distributed, for example, by streaming distribution or progressive download distribution. The video content is, for example, a moving image. The viewing object is displayed in a basic area that is a part of the screen of the information processing device.

視聴対象を視聴するユーザ(視聴者)は、所定の操作(付加操作)により、当該視聴対象に所定の要素(付加要素)を付加することができる。所定の操作は、例えば、入力要素
(操作要素)に対するポインティング操作である。入力要素は、例えば、画面内に表示されるボタンである。ポインティング操作は、例えば、タッチパネルに対するタッチ操作,画面内に表示されるポインタの位置決め操作とクリック操作の組合せである。所定の要素は、例えば、視聴対象に対するユーザの反応を表す画像である。ユーザの反応は、例えば、ユーザの感情である。視聴対象に対するユーザの感情を表す画像は、感情画像と呼ばれることがある。感情画像は、例えば、ユーザの感情を示すようなオノマトペ(擬声語,擬音語,擬態語などともいう。)を図案化した画像である。オノマトペを図案化した画像は、オノマトペ画像と呼ばれることがある。視聴対象に要素を付加するとは、視聴対象の進行に要素の表示タイミングを関連付けることをいう。進行に表示タイミングが関連付けられると、タイムライン上の特定の位置に表示タイミングが指定される。視聴対象に付加された要素は、当該視聴対象の進行中(すなわち、再生表示中)に、関連付けされた表示タイミングで画面に表示され得る。
A user (viewer) viewing a viewing target can add a predetermined element (additional element) to the viewing target by a predetermined operation (additional operation). The predetermined operation is, for example, a pointing operation on an input element (operation element). The input element is, for example, a button displayed on a screen. The pointing operation is, for example, a combination of a touch operation on a touch panel and a positioning operation and a click operation of a pointer displayed on a screen. The predetermined element is, for example, an image representing a user's reaction to the viewing target. The user's reaction is, for example, the user's emotion. An image representing a user's emotion to the viewing target is sometimes called an emotion image. An emotion image is, for example, an image in which an onomatopoeia (also called an onomatopoeic word, mimetic word, or like word) that shows the user's emotion is illustrated. An image in which an onomatopoeia is illustrated is sometimes called an onomatopoeia image. Adding an element to a viewing target means associating the display timing of the element with the progress of the viewing target. When the display timing is associated with the progress, the display timing is specified at a specific position on the timeline. An element added to a viewing target can be displayed on the screen at the associated display timing while the viewing target is in progress (i.e., while the playback and display are in progress).

第1ユーザは、情報処理装置を使用するユーザ(本人)である。第1ユーザによる所定の操作(第1操作)は、例えば、当該情報処理装置が受け付ける。第2ユーザは、他の情報処理装置を使用する他のユーザ(他人)である。第2ユーザによる所定の操作(第2操作)は、例えば、他の情報処理装置が受け付ける。第1操作に基づく所定の要素(第1要素)は、基本領域に少なくとも部分的に重畳する第1範囲に表示される。第2操作に基づく所定の要素(第2要素)は、基本領域に重畳しない第2範囲に表示される。第1範囲は、基本領域に重畳する部分(第2部分)の他に、基本領域に重畳しない部分(第1部分)を有していてもよい。第1範囲は、第2範囲に重畳する部分(第3部分)をさらに有していてもよい。 The first user is a user (the user himself) who uses an information processing device. A predetermined operation (first operation) by the first user is accepted, for example, by the information processing device. The second user is another user (another person) who uses another information processing device. A predetermined operation (second operation) by the second user is accepted, for example, by the other information processing device. A predetermined element (first element) based on the first operation is displayed in a first range that at least partially overlaps the basic area. A predetermined element (second element) based on the second operation is displayed in a second range that does not overlap the basic area. The first range may have a portion (first portion) that does not overlap the basic area in addition to a portion (second portion) that overlaps the basic area. The first range may further have a portion (third portion) that overlaps the second range.

[1-2.付記]
本発明は、下記〔A〕から下記〔D〕までの形態を少なくとも包含する。
[1-2. Supplementary notes]
The present invention includes at least the following embodiments [A] to [D].

〔A〕第1の情報処理装置において視聴対象が表示される基本領域と少なくとも部分的に重畳する第1範囲に、前記第1の情報処理装置において前記視聴対象を視聴中の第1ユーザによる第1操作に基づく第1要素を表示させる第1制御手段と、前記基本領域と重畳しない第2範囲に、第2の情報処理装置において前記視聴対象を視聴中の第2ユーザによる第2操作に基づく第2要素を表示させる第2制御手段と、を備える情報処理システム。 [A] An information processing system comprising: a first control means for displaying a first element based on a first operation by a first user viewing the viewing target on a first information processing device in a first range that at least partially overlaps with a basic area in which the viewing target is displayed on the first information processing device; and a second control means for displaying a second element based on a second operation by a second user viewing the viewing target on a second information processing device in a second range that does not overlap with the basic area.

〔B〕視聴対象を視聴する複数のユーザがそれぞれ使用する複数の情報処理装置を含む情報処理システムに含まれる情報処理装置のコンピュータに、前記視聴対象が表示される基本領域と少なくとも部分的に重畳する第1範囲に、前記視聴対象を視聴中のユーザによる第1操作に基づく第1要素を表示させる第1制御機能と、前記基本領域と重畳しない第2範囲に、前記視聴対象を視聴中の他のユーザによる他の情報処理装置に対する第2操作に基づく第2要素を表示させる第2制御機能と、を実現させる制御プログラム。なお、当該制御プログラムは、記録媒体に非一時的に記録されていてもよい。 [B] A control program that causes a computer of an information processing device included in an information processing system including a plurality of information processing devices used by a plurality of users viewing a viewing target to realize a first control function that causes a first element based on a first operation by a user viewing the viewing target to be displayed in a first range that at least partially overlaps with a basic area in which the viewing target is displayed, and a second control function that causes a second element based on a second operation by another user viewing the viewing target on another information processing device to be displayed in a second range that does not overlap with the basic area. Note that the control program may be non-temporarily recorded on a recording medium.

〔C〕視聴対象を視聴中の第1ユーザによる第1操作を受け付ける受付手段と、前記視聴対象が表示される基本領域と少なくとも部分的に重畳する第1範囲に、前記受付手段により受け付けた前記第1操作に基づく第1要素を表示させる第1制御手段と、前記視聴対象を視聴中の第2ユーザによる第2操作の情報を管理する管理手段から、該第2操作の情報を取得する取得手段と、前記基本領域と重畳しない第2範囲に、前記取得手段により取得された前記第2操作に基づく第2要素を表示させる第2制御手段と、を備える情報処理装置。 [C] An information processing device comprising: a receiving means for receiving a first operation by a first user viewing a viewing target; a first control means for displaying a first element based on the first operation received by the receiving means in a first range that at least partially overlaps with a basic area in which the viewing target is displayed; an acquisition means for acquiring information on a second operation by a second user viewing the viewing target from a management means that manages information on the second operation; and a second control means for displaying a second element based on the second operation acquired by the acquisition means in a second range that does not overlap with the basic area.

〔D〕視聴対象を視聴中の第1ユーザによる第1操作を受け付ける受付段階と、前記視聴対象が表示される基本領域と少なくとも部分的に重畳する第1範囲に、前記受付段階において受け付けた前記第1操作に基づく第1要素を表示させる第1制御段階と、前記視聴対象を視聴中の第2ユーザによる第2操作の情報を管理する管理手段から、該第2操作の情報を取得する取得段階と、前記基本領域と重畳しない第2範囲に、前記取得段階において取得された前記第2操作に基づく第2要素を表示させる第2制御段階と、を含む、情報処理装置の制御方法。 [D] A method for controlling an information processing device, comprising: a reception step of receiving a first operation by a first user viewing a viewing target; a first control step of displaying a first element based on the first operation received in the reception step in a first range that at least partially overlaps with a basic area in which the viewing target is displayed; an acquisition step of acquiring information on a second operation by a second user viewing the viewing target from a management means that manages information on the second operation; and a second control step of displaying a second element based on the second operation acquired in the acquisition step in a second range that does not overlap with the basic area.

上記〔A〕の「情報処理システム」には、下記の技術的限定を加えてもよい。また、同様の技術的限定を、上記〔B〕の「制御プログラム」,上記〔C〕の「情報処理装置」及び上記〔D〕の「情報処理装置の制御方法」にそれぞれ加えてもよい。 The following technical limitations may be added to the "information processing system" in [A] above. Similar technical limitations may also be added to the "control program" in [B] above, the "information processing device" in [C] above, and the "control method for the information processing device" in [D] above.

(1)前記第1の情報処理装置は、前記基本領域に重畳しない位置に配置される操作要素を介して前記第1操作を受け付ける受付手段をさらに備える。これにより、情報処理装置が受け付けた操作に基づく要素が第1要素になる。 (1) The first information processing device further includes a receiving means for receiving the first operation via an operation element that is arranged in a position that does not overlap the basic area. As a result, an element based on the operation received by the information processing device becomes the first element.

(2)前記第1制御手段が、前記基本領域と前記第2範囲のいずれにも重畳しない第1部分と該基本領域に重畳する第2部分とを有する前記第1範囲に前記第1要素を、該第1部分から該第2部分に向けて表示態様を変化させながら表示させる。表示態様は、例えば、サイズ,形状,位置,構成要素の数である。第1部分から第2部分に向けて表示態様を変化させながら表示される第1要素は、視聴対象に重畳しない状態から視聴対象に重畳する状態に変化する。これにより、娯楽性がさらに向上する。 (2) The first control means displays the first element in the first range having a first portion that does not overlap either the basic region or the second range, and a second portion that overlaps the basic region, while changing the display mode from the first portion to the second portion. The display mode is, for example, the size, shape, position, and number of components. The first element, which is displayed while changing the display mode from the first portion to the second portion, changes from a state where it is not overlapped with the viewing target to a state where it is overlapped with the viewing target. This further improves entertainment value.

(3)前記第1制御手段が、前記第2範囲に重畳する第3部分をさらに有する前記第1範囲に前記第1要素を、該第1部分から該第2部分を経て該第3部分に向けて表示態様を変化させながら表示させる。表示態様は、例えば、サイズ,形状,位置,構成要素の数である。第1部分から第2部分を経て第3部分に向けて表示態様を変化させながら表示される第1要素は、視聴対象に重畳しない状態から視聴対象に重畳する状態に変化し、かつ、第2要素に重畳し得ない状態から第2要素に重畳し得る状態に変化する。これにより、娯楽性がさらに向上する。 (3) The first control means displays the first element in the first range, which further has a third portion superimposed on the second range, while changing the display mode from the first portion through the second portion to the third portion. The display mode is, for example, size, shape, position, and number of components. The first element, which is displayed while changing the display mode from the first portion through the second portion to the third portion, changes from a state where it is not superimposed on the viewing target to a state where it is superimposed on the viewing target, and also changes from a state where it cannot be superimposed on the second element to a state where it can be superimposed on the second element. This further improves entertainment value.

(4)前記第1制御手段が、前記第1範囲に前記第1要素を、前記第1部分に配置される前記操作要素の近傍を起点として伸長するように前記表示態様を変化させながら表示させる。これにより、娯楽性がさらに向上する。 (4) The first control means displays the first element in the first range while changing the display mode so as to extend from a point near the operating element located in the first portion. This further improves entertainment value.

[2.実施例]
以下に、本発明の実施例について、図面を参照して説明する。本実施例は、動画(視聴対象)の表示画面にユーザ(視聴者)の感情を表す画像(反応を表す画像)を表示させる仕組みに関する。本実施例では、情報処理装置を携帯端末、いわゆるスマートフォンとして説明する。なお、携帯端末は、スマートフォンに限らず、タブレット端末やノートパソコン等であってもよい。また、情報処理装置は、デスクトップパソコンであってもよい。実施例に係る各プログラムは、情報処理装置に記憶されるが、これに限らず、CD-ROM(Compact Disk Read Only Memory)等の光ディスクや、USB(Universal Serial Bus)フラッシュメモリ等の可搬型の半導体メモリ等の記憶媒体に記憶されてもよい。
2. Examples
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. This embodiment relates to a mechanism for displaying an image (image showing a reaction) showing the emotion of a user (viewer) on a display screen of a video (viewing target). In this embodiment, the information processing device will be described as a mobile terminal, a so-called smartphone. Note that the mobile terminal is not limited to a smartphone, but may be a tablet terminal, a notebook computer, or the like. The information processing device may be a desktop personal computer. Each program according to the embodiment is stored in the information processing device, but is not limited thereto, and may be stored in a storage medium such as an optical disk such as a CD-ROM (Compact Disk Read Only Memory) or a portable semiconductor memory such as a USB (Universal Serial Bus) flash memory.

[2-1.特徴]
本実施例では、煩わしさを抑制しつつ娯楽性を向上させるため、配信動画表示領域(基本領域)と部分的に重畳する範囲(第1範囲)に、動画を視聴中の第1ユーザ(本人)による付加操作(第1操作)に基づく第1画像(付加要素,第1要素)を、第1画像表示領域(第1部分)に配置される入力要素(操作要素)の近傍を起点として、当該第1画像表示領域から配信動画表示領域(第2部分)を経て第2画像表示領域(第3部分)に向けて伸長表示(表示態様を変化させながら表示)させるとともに、配信動画表示領域と重畳しない範囲(第2範囲)に、動画を視聴中の第2ユーザ(他人)による付加操作(第2操作)に基づく第2画像(付加要素,第2要素)を表示させる。
[2-1. Features]
In this embodiment, in order to reduce annoyance while improving entertainment value, a first image (additional element, first element) based on an additional operation (first operation) by a first user (user himself/herself) watching a video is displayed in a range (first range) that partially overlaps with the distributed video display area (basic area), and is extended (displayed while changing the display mode) from the first image display area, starting from the vicinity of an input element (operation element) placed in the first image display area (first part), through the distributed video display area (second part), and toward the second image display area (third part), and a second image (additional element, second element) based on an additional operation (second operation) by a second user (other person) watching the video is displayed in a range (second range) that does not overlap with the distributed video display area.

また、本実施例では、動画の視聴者に当該動画に付加する要素を効率よく指定させるため、動画と入力要素(操作要素)が画面に表示されている状態で、当該動画に対するユーザ(本人)の感情(反応)を表す第1画像(付加要素)を当該画面に表示させるためのタッチ操作(付加操作)を受け付け、当該タッチ操作が受け付けられた場合に、当該画面に当該画像を、長押し時間(付加操作の継続時間)が長いほど大きく伸長表示(表示態様を変化させながら表示)させる。 In addition, in this embodiment, in order to allow a viewer of a video to efficiently specify an element to be added to the video, while the video and input elements (operation elements) are displayed on a screen, a touch operation (addition operation) is accepted for displaying a first image (addition element) representing the user's (own) emotion (reaction) to the video on the screen, and when the touch operation is accepted, the image is displayed on the screen in an expanded form (displayed while changing the display mode) that increases the longer the press and hold time (duration of the addition operation).

[2-2.動画配信システム]
実施例に係る携帯端末は、動画配信システムに含まれ、サーバから動画が配信される。
[2-2. Video distribution system]
The mobile terminal according to the embodiment is included in a video distribution system, and videos are distributed from a server.

[2-2-1.動画配信システムの全体構成]
図1は、実施例に係る動画配信システム1の概略構成図である。動画配信システム1は、通信回線2、複数の携帯端末3、及びサーバ4を含んで構成される。
[2-2-1. Overall configuration of video distribution system]
1 is a schematic diagram of a video distribution system 1 according to an embodiment of the present invention. The video distribution system 1 includes a communication line 2, a plurality of mobile terminals 3, and a server 4.

通信回線2は、コンピュータネットワークを形成するものであり、例えば、電気事業者によって提供される広域通信回線である。 Communication line 2 forms a computer network and is, for example, a wide area communication line provided by an electric power company.

携帯端末3は、例えば、スマートフォンやタブレット端末、ノートパソコン等の情報処理端末である。携帯端末3は、画像を表示するタッチパネルディスプレイ3a、音を出力するスピーカー3b、音が入力されるマイク3c、及び被写体を撮像するカメラ3d等を備える。携帯端末3は、サーバ4から配信される動画を表示させるために、一例として、専用のアプリケーションソフトウエア(以下「動画視聴アプリ」という。)がインストールされる。 The mobile terminal 3 is, for example, an information processing terminal such as a smartphone, a tablet terminal, or a notebook computer. The mobile terminal 3 is equipped with a touch panel display 3a for displaying images, a speaker 3b for outputting sound, a microphone 3c for inputting sound, and a camera 3d for capturing an image of a subject. In order to display videos distributed from the server 4, as an example, dedicated application software (hereinafter referred to as a "video viewing application") is installed on the mobile terminal 3.

サーバ4は、通信回線2を介して、複数の携帯端末3へコンテンツを配信する情報処理装置である。実施例に係るコンテンツは、一例として動画である。動画は、例えばアニメーションやドラマ等のようにストーリーが存在し、ストーリーに沿って物語が進行するものや、ミュージックビデオや音楽のライブ動画、各種スポーツ動画等であり、特に限定されない。なお、実施例に係る動画は、一例としてアニメーションである。また、サーバから配信されるコンテンツも動画に限らず、ユーザが視聴可能なものであれば、連続した静止画の集合等、他のサービスであってもよい。 The server 4 is an information processing device that distributes content to multiple mobile terminals 3 via the communication line 2. One example of the content in the embodiment is a video. The video may be, for example, an animation or drama that has a story and the story progresses along the story, or a music video or a live music video, or a variety of sports videos, and is not particularly limited. Note that, one example of the video in the embodiment is an animation. Furthermore, the content distributed from the server is not limited to a video, and may be other services such as a collection of consecutive still images, as long as the content is viewable by the user.

さらに、ここでいう視聴とは、ユーザが視覚及び聴覚の少なくとも一方でコンテンツを認識することであり、コンテンツは、上記に加え、例えば、音のない動画等であってもよいし、画像のない音等であってもよい。 Moreover, viewing here means that the user perceives the content with at least one of the senses of sight and hearing, and the content may be, in addition to the above, for example, a video without sound, or sound without images, etc.

動画が配信される複数の携帯端末3は、一例として、グループ5としてサーバ4に登録
(以下「グループ登録」という。)される。サーバ4は、グループ登録された携帯端末3に対して同時に動画を配信する。すなわち、グループ登録された複数の携帯端末3は、サーバ4から配信された動画を同じタイミングで、換言すると同期させてタッチパネルディスプレイ3aに表示する。これにより、グループ登録された携帯端末3の各ユーザは、同時に動画を視聴することとなる。
As an example, a plurality of mobile terminals 3 to which videos are distributed are registered in the server 4 as a group 5 (hereinafter referred to as "group registration"). The server 4 distributes videos to the group-registered mobile terminals 3 simultaneously. That is, the group-registered mobile terminals 3 display the videos distributed from the server 4 at the same time, in other words, in synchronization, on their touch panel displays 3a. This allows each user of the group-registered mobile terminals 3 to watch the videos at the same time.

なお、動画の配信は、予め定められた日時であってもよいし、グループ5毎に任意のタイミングであってもよい。任意のタイミングで動画が配信される場合には、例えば、ホストとなる携帯端末3がサーバ4へ動画の配信要求を行い、当該配信要求を受け付けたサーバ4は、グループ5を構成する携帯端末3へ動画の配信を行う。 The video may be distributed at a predetermined date and time, or at any timing for each group 5. When the video is distributed at any timing, for example, the host mobile terminal 3 requests the server 4 to distribute the video, and the server 4 that receives the distribution request distributes the video to the mobile terminals 3 that make up the group 5.

図1では、グループ5を構成する携帯端末3を4つとしているが、これは一例であり、グループ5は複数の携帯端末3で構成されていればその台数は限定されない。また、グループ5を構成する携帯端末3の種類も限定されず、スマートフォンやタブレット端末、ノートパソコン等が混在してもよい。 In FIG. 1, group 5 is made up of four mobile terminals 3, but this is just an example, and the number of mobile terminals 3 is not limited as long as group 5 is made up of multiple mobile terminals 3. In addition, the types of mobile terminals 3 that make up group 5 are not limited, and a mixture of smartphones, tablet terminals, laptops, etc. may be used.

[2-2-2.サーバの構成]
図2は、実施例に係るサーバ4の電気的構成を示すブロック図である。
[2-2-2. Server configuration]
FIG. 2 is a block diagram showing an electrical configuration of the server 4 according to the embodiment.

実施例に係るサーバ4は、サーバ4全体の動作を司る主制御部であるCPU(CentralProcessing Unit)20、各種プログラム及び各種データ等が予め記憶されたROM(Read Only Memory)22、CPU20による各種プログラムの実行時のワークエリア等として用いられるRAM(Random Access Memory)24、各種プログラム及び各種データを記憶する記憶手段としてのHDD(Hard Disk Drive)26を備えている。 The server 4 according to the embodiment includes a CPU (Central Processing Unit) 20, which is the main control unit that controls the operation of the entire server 4, a ROM (Read Only Memory) 22 in which various programs and various data are pre-stored, a RAM (Random Access Memory) 24 used as a work area when the CPU 20 executes various programs, and a HDD (Hard Disk Drive) 26 as a storage means for storing various programs and various data.

HDD26は、登録されたグループ5に関する情報や、携帯端末3に配信する動画(動画データ)、その他各種情報を記憶する。なお、記憶手段は、HDD26に限らず、例えば、フラッシュメモリ等の半導体メモリ等の他の記憶媒体であってもよい。 The HDD 26 stores information about the registered group 5, videos (video data) to be distributed to the mobile terminal 3, and various other information. Note that the storage means is not limited to the HDD 26, and may be other storage media such as semiconductor memory, such as flash memory.

さらに、サーバ4は、キーボード及びマウス等で構成されて各種操作の入力を受け付ける操作入力部28、各種画像を表示する例えば液晶ディスプレイ装置等のモニタ30、通信回線2を介して携帯端末3等の他の情報処理装置等と接続され、他の情報処理装置等との間で各種データの送受信を行う外部インタフェース32を備えている。 The server 4 further includes an operation input unit 28, which is composed of a keyboard, a mouse, etc. and accepts input of various operations, a monitor 30, such as a liquid crystal display device, which displays various images, and an external interface 32, which is connected to other information processing devices, such as a mobile terminal 3, via the communication line 2 and transmits and receives various data to and from the other information processing devices.

これらCPU20、ROM22、RAM24、HDD26、操作入力部28、モニタ30、及び外部インタフェース32は、システムバス34を介して相互に電気的に接続されている。従って、CPU20は、ROM22、RAM24、及びHDD26へのアクセス、操作入力部28に対する操作状態の把握、モニタ30に対する画像の表示、並びに外部インタフェース32を介した他の情報処理装置等との各種データの送受信等を各々行なうことができる。 The CPU 20, ROM 22, RAM 24, HDD 26, operation input unit 28, monitor 30, and external interface 32 are electrically connected to each other via a system bus 34. Therefore, the CPU 20 can access the ROM 22, RAM 24, and HDD 26, grasp the operation state of the operation input unit 28, display images on the monitor 30, and send and receive various data to and from other information processing devices, etc. via the external interface 32.

[2-2-3.携帯端末の電気的構成]
図3は、携帯端末3の電気的構成を示す機能ブロック図である。携帯端末3は、図1に示される構成に加え、主制御部40、主記憶部42、補助記憶部44、通信部46、及び操作ボタン48を備える。
[2-2-3. Electrical configuration of mobile terminal]
Fig. 3 is a functional block diagram showing the electrical configuration of the mobile terminal 3. The mobile terminal 3 includes a main control unit 40, a main memory unit 42, an auxiliary memory unit 44, a communication unit 46, and an operation button 48 in addition to the components shown in Fig. 1.

主制御部40は、例えば、CPU、マイクロプロセッサ、DSP(Digital Signal Processor)等であり、携帯端末3の全体の動作を制御する。 The main control unit 40 is, for example, a CPU, a microprocessor, a DSP (Digital Signal Processor), etc., and controls the overall operation of the mobile terminal 3.

主記憶部42は、例えば、RAMやDRAM(Dynamic Random Access Memory)等で構成されており、主制御部40による各種プログラムに基づく処理の実行時のワークエリア等として用いられる。 The main memory unit 42 is composed of, for example, RAM or DRAM (Dynamic Random Access Memory), and is used as a work area when the main control unit 40 executes processes based on various programs.

補助記憶部44は、例えば、フラッシュメモリ等の不揮発性メモリであり、画像等の各種データ及び主制御部40の処理に利用されるプログラム等を保存する。補助記憶部44に記憶されるプログラムは、例えば、携帯端末3の基本的な機能を実現するためのOS(Operating System)、各種ハードウェアを制御するためのドライバ、電子メールやウェブブラウジング、その他各種機能を実現するためのプログラム等である。また、補助記憶部44には、サーバ4から配信された動画を再生してタッチパネルディスプレイ3aに表示させるための動画視聴アプリ等のアプリケーションソフトが予め記憶されている。 The auxiliary storage unit 44 is, for example, a non-volatile memory such as a flash memory, and stores various data such as images, and programs used in the processing of the main control unit 40. The programs stored in the auxiliary storage unit 44 are, for example, an operating system (OS) for implementing the basic functions of the mobile terminal 3, drivers for controlling various hardware, and programs for implementing e-mail, web browsing, and various other functions. In addition, the auxiliary storage unit 44 pre-stores application software such as a video viewing app for playing videos distributed from the server 4 and displaying them on the touch panel display 3a.

通信部46は、例えばNIC(Network Interface Controller)であり、通信回線2に接続する機能を有する。なお、通信部46は、NICに代えて又はNICと共に、無線LAN(Local Area Network)に接続する機能、無線WAN(Wide Area Network)に接続する機能、例えばBluetooth(登録商標)等の近距離の無線通信、及び赤外線通信等を可能とする機能を有してもよい。 The communication unit 46 is, for example, a network interface controller (NIC), and has a function of connecting to the communication line 2. Note that the communication unit 46 may have a function of connecting to a wireless local area network (LAN), a function of connecting to a wireless wide area network (WAN), and a function of enabling short-range wireless communication such as Bluetooth (registered trademark), infrared communication, etc., instead of or together with the NIC.

操作ボタン48は、携帯端末3の側面に設けられ、携帯端末3を起動又は停止させるための電源ボタンやスピーカー3bが出力する音のボリューム調整ボタン等である。 The operation buttons 48 are provided on the side of the mobile terminal 3 and include a power button for starting and stopping the mobile terminal 3 and a button for adjusting the volume of the sound output by the speaker 3b.

これら主制御部40、主記憶部42、補助記憶部44、通信部46、タッチパネルディスプレイ3a、スピーカー3b、マイクロフォン3c、カメラ3d、及び操作ボタン48は、システムバス49を介して相互に電気的に接続されている。従って、主制御部40は、主記憶部42及び補助記憶部44へのアクセス、タッチパネルディスプレイ3aに対する画像の表示、ユーザによるタッチパネルディスプレイ3aや操作ボタン48に対する操作状態の把握、マイクロフォン3cへの音の入力、スピーカー3bからの音の出力、カメラ3dに対する制御、及び通信部46を介した各種通信網や他の情報処理装置へのアクセス等を行える。 The main control unit 40, main memory unit 42, auxiliary memory unit 44, communication unit 46, touch panel display 3a, speaker 3b, microphone 3c, camera 3d, and operation buttons 48 are electrically connected to each other via a system bus 49. Therefore, the main control unit 40 can access the main memory unit 42 and auxiliary memory unit 44, display images on the touch panel display 3a, grasp the operation state of the touch panel display 3a and the operation buttons 48 by the user, input sound to the microphone 3c, output sound from the speaker 3b, control the camera 3d, and access various communication networks and other information processing devices via the communication unit 46.

[2-3.オノマトペ表示]
実施例に係る携帯端末3は、サーバ4から配信された動画をタッチパネルディスプレイ3aに表示しながら、ユーザの操作に応じた画像(詳細を後述するオノマトペ画像)も表示可能とする。なお、以下の説明において、オノマトペ画像をタッチパネルディスプレイ3aに表示させる機能をオノマトペ表示機能といい、タッチパネルディスプレイ3aを画面3aともいう。
[2-3. Onomatopoeia display]
The mobile terminal 3 according to the embodiment is capable of displaying images (onomatopoeia images, the details of which will be described later) in response to user operations while displaying videos distributed from the server 4 on the touch panel display 3a. In the following description, the function of displaying onomatopoeia images on the touch panel display 3a is referred to as an onomatopoeia display function, and the touch panel display 3a is also referred to as a screen 3a.

オノマトペ表示機能は、一例として、実施例に係る動画視聴アプリが有する機能の一つである。なお、一例として、動画視聴アプリを用いて画面3aに表示される動画のすべてに対してオノマトペ表示が可能ではなく、オノマトペ表示が可能な動画は予め定められている。 The onomatopoeia display function is, for example, one of the functions of the video viewing application according to the embodiment. Note that, for example, onomatopoeia display is not possible for all videos displayed on the screen 3a using the video viewing application, and videos for which onomatopoeia display is possible are determined in advance.

[2-3-1.画面構成]
図4から図6は、実施例に係る動画視聴アプリが起動している携帯端末3の画面3aの表示態様を示す。画面3aには、配信動画表示領域50A、第1画像表示領域50B、及び第2画像表示領域50Cが設定されている。
[2-3-1. screen structure]
4 to 6 show display modes of a screen 3a of a mobile terminal 3 on which a video viewing application according to an embodiment is running. The screen 3a includes a distribution video display area 50A, a first image display area 50B, and A second image display area 50C is defined.

配信動画表示領域50Aは、サーバ4から配信される動画を表示する領域である。第1画像表示領域50Bは、ユーザの操作に応じた第1画像51(図5参照)を表示する領域である。第2画像表示領域50Cは、他のユーザの操作によって他の携帯端末3に表示された第1画像51に基づいた第2画像52(図6参照)を表示する領域である。なお、詳細を後述するように、第2画像52は、他の携帯端末3の第1画像表示領域50Bに表示された第1画像51の縮小画像である。また、実施例に係る第1画像表示領域50B及第2画像表示領域50Cは、一例として、配信動画表示領域50Aを挟んで対向する位置に設けられる。 The distributed video display area 50A is an area for displaying videos distributed from the server 4. The first image display area 50B is an area for displaying a first image 51 (see FIG. 5) in response to a user's operation. The second image display area 50C is an area for displaying a second image 52 (see FIG. 6) based on the first image 51 displayed on another mobile terminal 3 by another user's operation. As will be described in detail later, the second image 52 is a reduced image of the first image 51 displayed in the first image display area 50B of the other mobile terminal 3. In addition, the first image display area 50B and the second image display area 50C according to the embodiment are, as an example, provided in opposing positions sandwiching the distributed video display area 50A therebetween.

ここで、第1画像51は、動画を視聴しているユーザの感情を示す感情画像を含む画像である。実施例に係る感情画像は、一例として、ユーザの感情を示すような擬声語(擬音語や擬態語ともいう。)を図案化した画像、換言するとオノマトペ画像である。オノマトペ画像には、例えば、“スゲェ”、“ヤバイ”、“ブラボー”等がある。なお、図案化とは、例えば擬声語を示す文字を装飾的に描いたものである。 Here, the first image 51 is an image including an emotion image showing the emotion of the user watching the video. The emotion image according to the embodiment is, for example, an image in which an onomatopoeic word (also called mimetic sound word or mimetic word) showing the emotion of the user is illustrated, in other words, an onomatopoeia image. Examples of onomatopoeia images include "Awesome," "Awesome," and "Bravo." The illustration is, for example, a decorative drawing of letters showing the onomatopoeic word.

また、第1画像51には、オノマトペ画像以外にも動画に出演するキャラクタ等を示すキャラクタ画像や、キャラクタのセリフを示すセリフ画像、ユーザ自身が入力したテキスト等、その他様々な画像が含まれてもよい。 In addition to onomatopoeia images, the first image 51 may also include various other images, such as character images showing characters appearing in the video, dialogue images showing the lines of the characters, text entered by the user, etc.

また、第1画像51は、動画のシーンに応じて異なってもよい。例えば、楽しげなシーン、悲しげなシーン、キャラクタ同士の対決シーン等に応じて、ユーザがシーンに共感して選択する可能性が高いオノマトペ画像やキャラクタ画像が表示可能とされてもよい。 The first image 51 may also differ depending on the scene of the video. For example, an onomatopoeia image or a character image that is likely to be selected by the user in response to a happy scene, a sad scene, a scene of confrontation between characters, etc. may be displayed.

また、表示可能な第1画像51は、ユーザによって異なってもよい。例えば、配信される動画と関連するゲーム等のサービスによって特定のアイテムを取得する等によって、表示可能な第1画像51の種類が増えてもよい。また、例えば、所定の対価(例えば、通貨,仮想通貨,ポイント等の金銭的価値)の負担を条件に、表示可能な第1画像51の種類が増えてもよい。 The first images 51 that can be displayed may differ depending on the user. For example, the types of first images 51 that can be displayed may be increased by acquiring a specific item through a service such as a game related to the distributed video. Also, the types of first images 51 that can be displayed may be increased, for example, on the condition that a predetermined fee (for example, monetary value such as currency, virtual currency, or points) is paid.

実施例に係る第1画像表示領域50Bには、ユーザによって操作され、各々異なる第1画像51に対応する操作部である複数の表示ボタン53A~53Dが表示される。これにより、ユーザは、動画を視聴しながら表示ボタン53A~53Dを操作することで、第1画像51を第1画像表示領域50Bに表示させることができる。なお、表示ボタン53A~53Dの操作とは、一例として表示ボタン53A~53Dを指示体でタッチする(押す)ことである。実施例に係る指示体は、一例としてユーザの指である。また、以下の説明において、表示ボタン53A~53Dを区別して説明しない場合には、末尾のアルファベットの表記を省略する。 In the first image display area 50B according to the embodiment, a plurality of display buttons 53A-53D are displayed as operation units that are operated by the user and each of which corresponds to a different first image 51. This allows the user to display the first image 51 in the first image display area 50B by operating the display buttons 53A-53D while watching a video. Note that, as an example, operating the display buttons 53A-53D means touching (pressing) the display buttons 53A-53D with an indicator. As an example, the indicator according to the embodiment is the user's finger. In addition, in the following description, when the display buttons 53A-53D are not to be distinguished from one another, the alphabetical notation at the end is omitted.

図4から図6の例では、4つの表示ボタン53A~53Dが第1画像表示領域50Bの下部において横方向に一列に表示されている。そして、表示ボタン53Aが、“スゲェ”を図案化したオノマトペ画像に対応し、表示ボタン53Bが、“ヤバイ”を図案化したオノマトペ画像に対応し、表示ボタン53Cが、“ブラボー”を図案化したオノマトペ画像に対応する。さらに、表示ボタン53Dは、キャラクタ画像に対応する。なお、表示ボタン53は対応するオノマトペ画像やキャラクタ画像等を、ユーザが直感的に認識可能なデザインとされている。 In the examples of Figures 4 to 6, four display buttons 53A to 53D are displayed in a row horizontally at the bottom of the first image display area 50B. Display button 53A corresponds to a stylized onomatopoeia image of "suge," display button 53B corresponds to a stylized onomatopoeia image of "yabai," and display button 53C corresponds to a stylized onomatopoeia image of "bravo." Furthermore, display button 53D corresponds to a character image. Note that the display buttons 53 are designed to enable the user to intuitively recognize the corresponding onomatopoeia image, character image, etc.

このように、第1画像表示領域50Bに複数の表示ボタン53が表示されることによって、ユーザは、動画に対する自身の反応(感情)に最も合う第1画像51を簡易に画面3aに表示させることができる。また、第1画像51にユーザの感情を示すオノマトペ画像が含まれることによって、ユーザは、動画を視聴した自身の感情を画面3aに表示させることができる。 In this way, by displaying multiple display buttons 53 in the first image display area 50B, the user can easily display on the screen 3a the first image 51 that best matches the user's reaction (emotion) to the video. In addition, by including an onomatopoeia image that indicates the user's emotion in the first image 51, the user can display on the screen 3a the user's own emotion after watching the video.

なお、図4から図6の例では、第1画像表示領域50Bに4種類の表示ボタン53が表示されているが、これは一例であり、表示ボタン53の数及び種類はこれに限られない。また、表示ボタン53は、動画のシーン等に応じて異なる第1画像51を表示可能なように適宜切り替えて表示されてもよい。 In the examples of Figures 4 to 6, four types of display buttons 53 are displayed in the first image display area 50B, but this is just one example, and the number and types of display buttons 53 are not limited to this. In addition, the display buttons 53 may be appropriately switched so that different first images 51 can be displayed depending on the scene of the video, etc.

また、表示ボタン53の配列も一例であり、例えば第1画像表示領域50Bの右側又は左側にまとめて表示されてもよいし、第1画像表示領域50Bの下部において横方向に2列で表示されてもよい。さらに、例えばユーザが画面3aの下部を左又は右方向へスワイプ操作することで、異なる種類の第1画像51を表示させるための表示ボタン53が新たに表示されてもよい。 The arrangement of the display buttons 53 is also an example, and may be displayed together on the right or left side of the first image display area 50B, or may be displayed in two horizontal rows at the bottom of the first image display area 50B. Furthermore, for example, when the user swipes left or right on the bottom of the screen 3a, new display buttons 53 for displaying different types of first images 51 may be displayed.

[2-3-2.第1画像の表示]
図5を参照して、第1画像51の表示態様について詳細に説明する。図5の例では、ユーザによって表示ボタン53Cが操作されて、“ブラボー”が図案化されたオノマトペ画像が画面3aに表示されている。
[2-3-2. Display of the first image]
The display mode of the first image 51 will be described in detail with reference to Fig. 5. In the example of Fig. 5, the user operates the display button 53C, and an onomatopoeia image in which "Bravo" is stylized is displayed on the screen 3a.

実施例に係るオノマトペ表示機能は、画面3aに動画が表示された状態で、オノマトペ画像(第1画像51)を画面3aに表示させるためのユーザの操作を受け付ける。すなわち、ユーザは、動画を視聴しながら、表示ボタン53を操作することで、動画の視聴によって抱いた感情に対応するオノマトペ画像を画面3aに表示させる。 The onomatopoeia display function according to the embodiment accepts a user operation for displaying an onomatopoeia image (first image 51) on screen 3a while a video is being displayed on screen 3a. That is, the user operates display button 53 while watching a video to display on screen 3a an onomatopoeia image that corresponds to the emotion felt while watching the video.

そして実施例に係るオノマトペ画像は、ユーザによる表示ボタン53の操作態様に応じて変化しながら、動画を表示している画面3aに表示される。実施例に係るオノマトペ画像は、一例として、ユーザによる表示ボタン53の操作態様に応じて、第1画像表示領域50Bから配信動画表示領域50Aに伸長するように表示される。 The onomatopoeia image according to the embodiment is displayed on the screen 3a displaying the video, changing according to the manner in which the user operates the display button 53. As an example, the onomatopoeia image according to the embodiment is displayed so as to extend from the first image display area 50B to the distribution video display area 50A according to the manner in which the user operates the display button 53.

このように、ユーザは動画を視聴しながら携帯端末3を操作することで画面3aに表示するオノマトペ画像を変化させることができる。従って、ユーザは、動画の視聴によって抱いた感情を、動画を視聴しながら簡易に画面に表示できる。 In this way, the user can change the onomatopoeia image displayed on the screen 3a by operating the mobile terminal 3 while watching the video. Therefore, the user can easily display the emotions felt while watching the video on the screen while watching the video.

また、図5の例では、オノマトペ画像が第1画像表示領域50Bを越えて配信動画表示領域50Aに重畳して表示されている。このように、実施例に係るオノマトペ表示機能は、オノマトペ画像をユーザの操作態様に応じて第1画像表示領域50Bを超えて配信動画表示領域50Aに重畳させるので、ユーザは、視聴している動画に対してより感情移入し易くなり、動画の視聴に対する娯楽性がより高められる。 In the example of FIG. 5, the onomatopoeia image is displayed beyond the first image display area 50B and superimposed on the distributed video display area 50A. In this way, the onomatopoeia display function according to the embodiment superimposes the onomatopoeia image beyond the first image display area 50B onto the distributed video display area 50A in accordance with the user's operation mode, making it easier for the user to empathize with the video they are watching, and making the video more entertaining to watch.

なお、図5においてオノマトペ画像は、配信動画表示領域50Aも超えて第2画像表示領域50Cにも重畳されている。しかしながら、これは一例であり、オノマトペ画像は、第2画像表示領域50Cに重畳不可とされてもよい。 In addition, in FIG. 5, the onomatopoeia image extends beyond the distribution video display area 50A and is also superimposed on the second image display area 50C. However, this is just one example, and the onomatopoeia image may not be superimposed on the second image display area 50C.

次に、表示ボタン53の操作態様に応じて変化するオノマトペ画像の詳細を説明する。 Next, we will explain in detail the onomatopoeia images that change depending on how the display button 53 is operated.

実施例に係る第1画像51は、一例として、ユーザによる表示ボタン53の操作の継続時間に応じて表示態様が変化する。表示ボタン53の操作の継続時間とは、例えば、表示ボタン53を継続して押し続けた時間(以下「長押し時間」という。)である。 As an example, the display state of the first image 51 according to the embodiment changes depending on the duration of the user's operation of the display button 53. The duration of the operation of the display button 53 is, for example, the time during which the display button 53 is continuously pressed (hereinafter referred to as the "long press time").

実施例に係るオノマトペ表示機能は、ユーザが表示ボタン53を押すと、表示ボタン53の位置の近傍を起点としてオノマトペ画像の表示を開始する。表示ボタン53の位置の近傍を起点としたオノマトペ画像の表示とは、例えば、オノマトペ画像の下端が表示ボタン53の位置とほぼ一致するように、オノマトペ画像が表示されることである。 When a user presses the display button 53, the onomatopoeia display function according to the embodiment starts displaying the onomatopoeia image starting from the vicinity of the position of the display button 53. Displaying the onomatopoeia image starting from the vicinity of the position of the display button 53 means, for example, that the onomatopoeia image is displayed so that the bottom edge of the onomatopoeia image is approximately aligned with the position of the display button 53.

そして、オノマトペ画像は、表示ボタン53に対する長押し時間に応じて第1画像表示領域50Bから配信動画表示領域50Aに向かって伸長(以下「伸長表示」という。)する。 The onomatopoeia image then extends (hereinafter referred to as "extended display") from the first image display area 50B toward the streaming video display area 50A depending on the length of time the display button 53 is pressed.

伸長表示は、例えば、オノマトペ画像が長細く又は拡大して表示されるものである。なお、伸長表示は、例えば、文字数や文字の種類等、形態を変えながら、オノマトペ画像が伸長するものでもよい。例えば、オノマトペ画像が“ブラボー”の場合には、長押し時間に応じて“ブラ”と“ボー”との間に“ァ”が増加するように伸長してもよいし、長押し時間に応じて“ブラボ”と“ー”との間に“ォ”が増加するように伸長してもよい。 In the extended display, for example, the onomatopoeia image is displayed elongated or enlarged. Note that the extended display may be such that the onomatopoeia image is extended while changing the form, such as the number of characters or the type of characters. For example, if the onomatopoeia image is "bravo", it may be extended so that an "a" is added between "bra" and "bo" depending on the long press time, or it may be extended so that an "o" is added between "bravo" and "-" depending on the long press time.

すなわち、ユーザは、視聴している動画に対してより強い感情を抱いた場合には、この感情に対応するオノマトペ画像を表示させるための表示ボタン53を押し続ける。これにより、オノマトペ画像は、第1画像表示領域50Bから配信動画表示領域50Aへ向かって伸長表示され、オノマトペ画像がより目立つように画面3aに表示される。 In other words, if the user feels a stronger emotion toward the video being viewed, the user continues to press the display button 53 to display the onomatopoeia image that corresponds to this emotion. As a result, the onomatopoeia image is displayed extended from the first image display area 50B toward the distribution video display area 50A, and the onomatopoeia image is displayed on the screen 3a so that it stands out more.

このように、第1画像51に含まれるオノマトペ画像が、ユーザによる操作態様に応じて変化することで、ユーザは、コンテンツに対する自身の反応(感情)をより娯楽性高く画面3aに表示できる。 In this way, the onomatopoeia image included in the first image 51 changes according to the manner in which the user operates, allowing the user to display their own reaction (emotions) to the content on the screen 3a in a more entertaining manner.

また、第1画像51は、ユーザによる操作態様に応じて、第1画像表示領域50Bから配信動画表示領域50Aに向かって伸長するように表示されるので、ユーザは、コンテンツに対する自身の反応(感情)をより娯楽性高く画面3aに表示できる。 In addition, the first image 51 is displayed so as to extend from the first image display area 50B toward the distribution video display area 50A according to the manner of operation by the user, so that the user can display his or her own reaction (emotion) to the content on the screen 3a in a more entertaining manner.

なお、ユーザによる表示ボタン53の操作(長押し操作)が終了すると、オノマトペ画像の画面3aへの表示は停止される。オノマトペ画像の表示の停止は、例えば、表示されているオノマトペ画像が瞬間的に画面3aから消えてもよいし、伸長されたオノマトペ画像が表示ボタン53に向かって縮小して画面3aから消えてもよい。 When the user finishes operating the display button 53 (pressing and holding the display button 53), the display of the onomatopoeia image on the screen 3a is stopped. The display of the onomatopoeia image may be stopped, for example, by the displayed onomatopoeia image disappearing from the screen 3a instantly, or by the expanded onomatopoeia image shrinking toward the display button 53 and disappearing from the screen 3a.

また、図5の例では、オノマトペ画像を表示させるために、ユーザによって操作されている表示ボタン53Cの周囲が強調表示されている。これにより、ユーザは自身が操作している表示ボタン53Cを簡易に認識でき、かつオノマトペ表示に関する娯楽性がより高くなる。 In addition, in the example of FIG. 5, the periphery of the display button 53C that is being operated by the user to display the onomatopoeia image is highlighted. This allows the user to easily recognize the display button 53C that he or she is operating, and makes the onomatopoeia display more entertaining.

また、実施例に係るオノマトペ画像以外の第1画像51であるキャラクタ画像等は、変化することなく画面3aに表示されるが、これに限らず、オノマトペ画像以外の第1画像51も、ユーザによる表示ボタン53の操作態様に応じて変化しながら、動画を表示している画面3aに表示されてもよい。 In addition, the character image or the like that is the first image 51 other than the onomatopoeia image in the embodiment is displayed on the screen 3a without changing, but this is not limited thereto, and the first image 51 other than the onomatopoeia image may also be displayed on the screen 3a displaying the video while changing according to the manner in which the user operates the display button 53.

[2-3-3.第1画像の他の表示例]
第1画像51を表示させるための操作や第1画像51の表示態様は、上述した態様に限られず、以下に例示する他の態様であってもよい。
[2-3-3. Other display examples of the first image]
The operation for displaying the first image 51 and the display mode of the first image 51 are not limited to the above-described modes, and may be other modes exemplified below.

オノマトペ画像は、長押し操作に限らず、例えば、ユーザによる画面3aへのジェスチャ操作に応じて表示態様が変化してもよい。これにより、ユーザは、動画の視聴によって抱いた感情を動画を視聴しながら簡易に画面3aに表示できる。 The display state of the onomatopoeia image may change not only in response to a long press operation, but also in response to, for example, a gesture operation made by the user on the screen 3a. This allows the user to easily display the emotions felt as a result of watching the video on the screen 3a while watching the video.

オノマトペ表示を行うためのジェスチャ操作は、例えば、ユーザが表示ボタン53を押して自身の所望する方向へ弾くような操作、いわゆるフリック操作である。フリック操作が行われた場合、一例として、オノマトペ画像は、表示ボタン53の位置の近傍を起点として、フリック操作の方向に向かって表示される。すなわち、ユーザが表示ボタン53を押して右上方向にフリック操作をした場合には、オノマトペ画像は表示ボタン53の位置を起点として右上方向へ表示される。また、オノマトペ画像は、フリック操作の速度に応じて伸長表示の態様が異なってもよい。例えば、フリック速度が速いほどオノマトペ画像はより大きく伸長表示されたり、フリック速度が速いほどオノマトペ画像の伸長速度がより速くなってもよい。 The gesture operation for displaying the onomatopoeia is, for example, an operation in which the user presses the display button 53 and flicks it in a desired direction, a so-called flick operation. When a flick operation is performed, as an example, the onomatopoeia image is displayed in the direction of the flick operation, starting from a position near the position of the display button 53. That is, when the user presses the display button 53 and flicks in the upper right direction, the onomatopoeia image is displayed in the upper right direction, starting from the position of the display button 53. In addition, the manner in which the onomatopoeia image is stretched may differ depending on the speed of the flick operation. For example, the onomatopoeia image may be stretched more as the flick speed increases, or the onomatopoeia image may be stretched faster as the flick speed increases.

また、表示ボタン53を押したユーザの指が画面3aから離間することなくスライド操作した場合、スライド操作しているユーザの指の移動に合わせ、表示ボタン53の位置を起点としてオノマトペ画像が伸長表示されてもよい。また、ダブルタップ等のように表示ボタン53を連続して押した場合、その連続回数に応じてオノマトペ画像が伸長表示されてもよい。 In addition, when the user who pressed the display button 53 performs a sliding operation without lifting his/her finger off the screen 3a, the onomatopoeia image may be elongated from the position of the display button 53 in accordance with the movement of the user's finger performing the sliding operation. In addition, when the display button 53 is pressed repeatedly, such as by double tapping, the onomatopoeia image may be elongated according to the number of consecutive presses.

また、オノマトペ画像の表示態様の変化は伸長表示に限られない。例えば、ユーザによってフリック操作が行われた場合、オノマトペ画像は、表示ボタン53の位置の近傍を始点として、形態を変えることなくフリック操作の方向へ移動するように表示されてもよい。この場合、フリック操作の速度によってオノマトペ画像の移動速度が変化してもよく、例えば、フリック操作の速度が速いほど、オノマトペ画像の移動速度が速くなる。 In addition, the change in the display mode of the onomatopoeia image is not limited to an elongated display. For example, when a user performs a flick operation, the onomatopoeia image may be displayed starting from a position near the position of the display button 53 and moving in the direction of the flick operation without changing its form. In this case, the movement speed of the onomatopoeia image may change depending on the speed of the flick operation; for example, the faster the flick operation, the faster the movement speed of the onomatopoeia image.

また、オノマトペ画像は、表示開始が最も大きく表示され、長押し時間に応じて徐々に縮小するように表示されてもよい。 The onomatopoeia image may also be displayed largest when it first appears, and then gradually shrink depending on how long the image is pressed.

また、オノマトペ画像は、表示ボタン53の位置を起点とした表示に限られない。例えば、表示ボタン53が押されると画面3a(配信動画表示領域50A)の中央にオノマトペ画像が表示され、長押し時間に応じて上下方向に伸長表示されてもよい。 Furthermore, the onomatopoeia image is not limited to being displayed starting from the position of the display button 53. For example, when the display button 53 is pressed, the onomatopoeia image may be displayed in the center of the screen 3a (distribution video display area 50A), and may be extended vertically depending on the duration of the press.

また、表示ボタン53を指で押したタイミングでオノマトペ画像が表示されるのではなく、表示ボタン53から指を離間したタイミングでオノマトペ画像が表示されてもよい。この場合も、例えば、表示ボタン53の長押し時間に応じてオノマトペ画像の表示態様が変化する。 In addition, the onomatopoeia image may be displayed not when the display button 53 is pressed with a finger, but when the finger is released from the display button 53. In this case, too, the display mode of the onomatopoeia image changes depending on, for example, how long the display button 53 is pressed.

さらに、オノマトペ画像は、表示ボタン53の操作態様にかかわらず、その大きさ又は形状が変化しなくてもよい。例えば、ユーザが表示ボタン53を操作したタイミングで第1画像表示領域50B、配信動画表示領域50A、及び第2画像表示領域50Cに重畳する大きさのオノマトペ画像が予め定められた時間表示されてもよい。 Furthermore, the size or shape of the onomatopoeia image may not change regardless of the operation mode of the display button 53. For example, when the user operates the display button 53, an onomatopoeia image of a size that superimposes on the first image display area 50B, the streaming video display area 50A, and the second image display area 50C may be displayed for a predetermined time.

[2-3-4.第2画像の表示]
図6を参照して、第2画像52の表示態様について詳細に説明する。なお、第2画像52は、上述のように、他のユーザの操作によって他の携帯端末3に表示された第1画像51の縮小画像である。
[2-3-4. Display of second image]
The display mode of the second image 52 will be described in detail with reference to Fig. 6. As described above, the second image 52 is a reduced image of the first image 51 displayed on the other mobile terminal 3 by an operation of the other user.

実施例に係るオノマトペ表示機能は、他のユーザが他の携帯端末3に第1画像51を表示させたタイミングから略時間遅れなく、第2画像表示領域50Cに第2画像52を表示させる。これにより、ユーザは、同じ動画を視聴している他のユーザの反応を動画を視聴しながら知ることができる。 The onomatopoeia display function according to the embodiment displays the second image 52 in the second image display area 50C with almost no time delay from the timing when the other user displays the first image 51 on the other mobile terminal 3. This allows the user to know the reactions of other users who are watching the same video while watching the video.

また、第2画像52が第1画像51のように配信動画表示領域50Aに重畳して表示されると、ユーザは第2画像52が動画の視聴に邪魔となり、煩わしく感じる可能性がある。そこで、第2画像52は、他のユーザの操作態様にかかわらず第2画像表示領域50Cを超えて配信動画表示領域50Aに重畳して表示されない。これにより、ユーザは、煩わしさを感じることなく視聴している動画に対する他のユーザの反応を確認することができる。 Furthermore, if the second image 52 is displayed superimposed on the distributed video display area 50A like the first image 51, the user may find the second image 52 to be a nuisance as it interferes with the viewing of the video. Therefore, the second image 52 is not displayed superimposed on the distributed video display area 50A beyond the second image display area 50C regardless of the operation mode of the other user. This allows the user to check the reactions of other users to the video they are watching without feeling annoyed.

なお、上述のように第1画像51は配信動画表示領域50Aへの重畳も可能とされているが、これはユーザ自身の意思で行われているので、配信動画表示領域50Aへの第1画像51の重畳によってユーザが煩わしさを感じることは無い。 As mentioned above, the first image 51 can also be superimposed on the streaming video display area 50A, but this is done at the user's own discretion, so the user does not feel bothered by the first image 51 being superimposed on the streaming video display area 50A.

また、画面3aは、第1画像表示領域50Bと第2画像表示領域50Cとが異なる領域となるように設定されているので、ユーザが表示させた第1画像51と他のユーザが表示させた第2画像52とが混在して表示されることがない。これにより、ユーザは、自身が表示させた第1画像51と他のユーザが表示させた第2画像52とを簡易に分けて認識できる。 In addition, since the screen 3a is configured so that the first image display area 50B and the second image display area 50C are different areas, the first image 51 displayed by the user and the second image 52 displayed by another user are not displayed together. This allows the user to easily distinguish between the first image 51 displayed by the user and the second image 52 displayed by another user.

また、実施例に係る他のユーザとは、一例として、ユーザと同じグループに登録している他のユーザである。すなわち、ユーザがグループ登録せずに動画を視聴している場合には、第2画像表示領域50Cに第2画像52が表示されることはない。なお、これに限らず、グループ登録の有無にかかわらず、動画を視聴している全ての他のユーザの操作による第2画像52が第2画像表示領域50Cに表示されてもよい。 In addition, other users according to the embodiment are, as an example, other users who are registered in the same group as the user. In other words, if a user is watching a video without group registration, the second image 52 will not be displayed in the second image display area 50C. However, this is not limited to this, and second images 52 generated by the operations of all other users watching the video may be displayed in the second image display area 50C, regardless of whether they are registered in a group.

また、実施例に係る第2画像表示領域50Cには、複数の他のユーザの操作による複数の第2画像52が表示される。そして、実施例に係る第2画像表示領域50Cは、一例として、他のユーザ毎に第2画像52を表示する位置が定められていない。すなわち、第2画像表示領域50Cには、複数の他のユーザの操作による複数の第2画像52がランダムな位置に混在して表示される。さらに、第2画像52は、第2画像表示領域50C内で上下左右方向に移動しながら表示されてもよい。なお、これに限らず、第2画像表示領域50C内において、他のユーザ毎に第2画像52を表示する位置が定められてもよい。 In addition, the second image display area 50C according to the embodiment displays multiple second images 52 operated by multiple other users. In the second image display area 50C according to the embodiment, as an example, the position at which the second image 52 is displayed for each other user is not determined. That is, the second image display area 50C displays multiple second images 52 operated by multiple other users in a mixed manner at random positions. Furthermore, the second images 52 may be displayed while moving up, down, left, and right in the second image display area 50C. However, this is not limited to this, and the position at which the second image 52 is displayed for each other user may be determined in the second image display area 50C.

また、第2画像52は、当該第2画像52とされた第1画像51を自身の携帯端末3に表示させた他のユーザを示す識別画像(以下「ユーザアイコン」という。)54が隣接して表示される。これにより、ユーザは、第2画像表示領域50Cに表示されている第2画像52がどのユーザによるものかを認識できる。なお、図6の例では、ユーザアイコン54が円の中心に一文字のアルファベットが表示されたものであるが、これは一例であり、ユーザアイコン54はユーザ毎に設定された画像であったり、ユーザのイニシャルであってもよく、ユーザアイコン54のデザインは限定されない。 In addition, the second image 52 is displayed adjacent to an identification image (hereinafter referred to as a "user icon") 54 indicating the other user who caused the first image 51 designated as the second image 52 to be displayed on the user's own mobile terminal 3. This allows the user to recognize which user created the second image 52 displayed in the second image display area 50C. Note that in the example of FIG. 6, the user icon 54 is a circle with a single alphabet character displayed in the center, but this is only one example, and the user icon 54 may be an image set for each user or the user's initials, and the design of the user icon 54 is not limited.

また、図6に示される第2画像52は、オノマトペ画像が横書きで表示されているが、これは第2画像表示領域50Cのサイズ(縦横比)に対応して設定されており、第2画像52はオノマトペ画像が縦書きで表示されてもよい。 In addition, the second image 52 shown in FIG. 6 displays the onomatopoeia image horizontally, but this is set according to the size (aspect ratio) of the second image display area 50C, and the second image 52 may display the onomatopoeia image vertically.

また、第2画像52は配信動画表示領域50Aに重畳されないものの、他のユーザによる操作態様に対応して第2画像表示領域50C内で変化(例えば伸長)しながら表示されてもよい。なお、第2画像52は、配信動画表示領域50Aに重畳しなければ、第2画像表示領域50Cから第1画像表示領域50Bに重畳してもよい。 Although the second image 52 is not superimposed on the distribution video display area 50A, it may be displayed while changing (e.g., expanding) in the second image display area 50C in response to the operation mode by another user. Note that the second image 52 may be superimposed from the second image display area 50C onto the first image display area 50B as long as it is not superimposed on the distribution video display area 50A.

[2-4.機能ブロック]
次に、オノマトペ表示を機能ブロック図を用いて説明する。なお、サーバ4におけるオノマトペ表示に関する機能は、動画配信機能に含まれる。
[2-4. Functional blocks]
Next, the onomatopoeia display will be described with reference to a functional block diagram. Note that the function of the server 4 relating to the onomatopoeia display is included in the video distribution function.

[2-4-1.サーバの動画配信機能に関する機能ブロック]
図7は、実施例に係るサーバ4の動画配信機能に関する機能ブロック図である。
[2-4-1. Functional block related to video distribution function of server]
FIG. 7 is a functional block diagram of the video distribution function of the server 4 according to the embodiment.

サーバ4が備えるCPU20は、グループ登録部60、動画配信部61、第1画像表示情報受信制御部62、第2画像表示情報生成部63、及び第2画像表示情報送信制御部64を備える。CPU20が備える各機能は、HDD26に記憶されているプログラムによって実現される。 The CPU 20 of the server 4 includes a group registration unit 60, a video distribution unit 61, a first image display information reception control unit 62, a second image display information generation unit 63, and a second image display information transmission control unit 64. Each function of the CPU 20 is realized by a program stored in the HDD 26.

グループ登録部60は、複数の携帯端末3で構成されるグループ5の登録を受け付ける。なお、グループ5の登録は、一例として、ユーザIDの登録によって行われる。 The group registration unit 60 accepts registration of a group 5 consisting of multiple mobile terminals 3. As an example, the group 5 is registered by registering a user ID.

動画配信部61は、携帯端末3からの要求に応じて携帯端末3へ動画を配信する。 The video distribution unit 61 distributes videos to the mobile terminal 3 in response to a request from the mobile terminal 3.

第1画像表示情報受信制御部62は、外部インタフェース32を介して携帯端末3から受信した第1画像表示情報を受け付け、第1画像表示情報を対応する動画に関連付けてHDD26に記憶させる。 The first image display information reception control unit 62 accepts the first image display information received from the mobile terminal 3 via the external interface 32, associates the first image display information with the corresponding video, and stores it in the HDD 26.

第1画像表示情報は、携帯端末3の画面3aに表示された第1画像51に関する情報であり、第1画像51が携帯端末3に表示されたタイミングで携帯端末3からサーバ4へ送信される。第1画像表示情報は、例えば、表示された第1画像51の種類、第1画像51を表示させたユーザを示すユーザID、第1画像51を表示させるために行われたユーザの操作態様、第1画像51が表示されたときの動画開始からの経過時間等である。 The first image display information is information about the first image 51 displayed on the screen 3a of the mobile terminal 3, and is transmitted from the mobile terminal 3 to the server 4 at the timing when the first image 51 is displayed on the mobile terminal 3. The first image display information is, for example, the type of the displayed first image 51, a user ID indicating the user who caused the first image 51 to be displayed, the operation mode performed by the user to display the first image 51, the elapsed time from the start of the video when the first image 51 was displayed, etc.

第2画像表示情報生成部63は、受信した第1画像表示情報に基づいて第2画像表示情報を生成し、第2画像表示情報を対応する動画に関連付けてHDD26に記憶させる。 The second image display information generating unit 63 generates second image display information based on the received first image display information, associates the second image display information with the corresponding video, and stores it in the HDD 26.

第2画像表示情報は、第2画像表示領域50Cに表示させる第2画像52に関する情報であり、第2画像52の種類、第2画像52の元となる第1画像51を自身の携帯端末3に表示させたユーザのユーザID等が含まれる。 The second image display information is information about the second image 52 to be displayed in the second image display area 50C, and includes the type of the second image 52, the user ID of the user who displayed the first image 51 that is the source of the second image 52 on his/her mobile terminal 3, etc.

第2画像表示情報送信制御部64は、第2画像表示情報を携帯端末3へ送信するように外部インタフェース32を制御する。第2画像表示情報の送信先は、第1画像表示情報を送信した携帯端末3とは異なる他の携帯端末3である。 The second image display information transmission control unit 64 controls the external interface 32 to transmit the second image display information to the mobile terminal 3. The destination of the second image display information is another mobile terminal 3 different from the mobile terminal 3 that transmitted the first image display information.

[2-4-2.携帯端末のオノマトペ表示に関する機能ブロック]
図8は、実施例に係る携帯端末3のオノマトペ表示に関する機能ブロック図である。
[2-4-2. Functional blocks related to onomatopoeia display on mobile devices]
FIG. 8 is a functional block diagram relating to onomatopoeia display of the mobile terminal 3 according to the embodiment.

携帯端末3が備える主制御部40は、画像表示制御部70、表示領域設定部71、第1画像表示操作受付部72、操作状態判定部73、第1画像表示情報生成部74、第1画像表示情報送信制御部75、及び第2画像表示情報受信制御部76を備える。主制御部40が備える各機能は、補助記憶部44に記憶されているプログラムによって実現される。 The main control unit 40 of the mobile terminal 3 includes an image display control unit 70, a display area setting unit 71, a first image display operation receiving unit 72, an operation state determination unit 73, a first image display information generating unit 74, a first image display information transmission control unit 75, and a second image display information reception control unit 76. Each function of the main control unit 40 is realized by a program stored in the auxiliary storage unit 44.

画像表示制御部70は、画像データに基づいた画像を表示するようにタッチパネルディスプレイ3aを制御する。実施例に係る画像表示制御部70は、サーバ4から配信された動画を配信動画表示領域50Aに表示させ、ユーザの操作に応じて第1画像51を第1画像表示領域50Bに表示させ、他のユーザが他の携帯端末3に表示させた第1画像51に基づいた第2画像52を第2画像表示領域50Cに表示させる。さらに、実施例に係る画像表示制御部70は、ユーザの操作態様に応じて第1画像51を第1画像表示領域50Bを超えて配信動画表示領域50Aに重畳して表示させる。 The image display control unit 70 controls the touch panel display 3a to display an image based on image data. The image display control unit 70 according to the embodiment displays a video distributed from the server 4 in the distributed video display area 50A, displays a first image 51 in the first image display area 50B in response to a user's operation, and displays a second image 52 based on the first image 51 displayed on another mobile terminal 3 by another user in the second image display area 50C. Furthermore, the image display control unit 70 according to the embodiment displays the first image 51 beyond the first image display area 50B and superimposed on the distributed video display area 50A in response to the user's operation mode.

表示領域設定部71は、サーバ4から動画が配信された場合における画面3aの表示態様として、配信動画表示領域50A、第1画像表示領域50B、及び第2画像表示領域50Cの位置及びサイズ(縦横の長さ)を設定する。なお、これらの位置及びサイズは予め定められているが、ユーザが任意に設定してもよい。 The display area setting unit 71 sets the positions and sizes (length and width) of the distributed video display area 50A, the first image display area 50B, and the second image display area 50C as the display mode of the screen 3a when a video is distributed from the server 4. Note that these positions and sizes are predetermined, but may be set arbitrarily by the user.

第1画像表示操作受付部72は、ユーザによる表示ボタン53の操作を、画面3aが動画を表示している状態で受け付ける。すなわち、第1画像表示操作受付部72は、複数の表示ボタン53のうちユーザが操作した表示ボタン53を認識し、当該表示ボタン53に対応した第1画像51を、画像表示制御部70を介して画面3aに表示させる。なお、第1画像表示操作受付部72は、操作状態判定部73による判定結果に応じて第1画像51の表示態様が変化するように、第1画像51を画面3aに表示させる。 The first image display operation receiving unit 72 receives the operation of the display button 53 by the user while the screen 3a is displaying a video. That is, the first image display operation receiving unit 72 recognizes the display button 53 operated by the user among the multiple display buttons 53, and displays the first image 51 corresponding to the display button 53 on the screen 3a via the image display control unit 70. The first image display operation receiving unit 72 displays the first image 51 on the screen 3a such that the display mode of the first image 51 changes depending on the determination result by the operation state determination unit 73.

操作状態判定部73は、ユーザによる表示ボタン53の操作状態を判定する。ここでいう操作状態は、例えば、表示ボタン53の長押し時間を含む操作態様である。 The operation state determination unit 73 determines the operation state of the display button 53 by the user. The operation state here refers to an operation mode including, for example, the time the display button 53 is pressed and held.

第1画像表示情報生成部74は、ユーザの操作によって画面3aに表示された第1画像51に応じた第1画像表示情報を生成する。 The first image display information generating unit 74 generates first image display information according to the first image 51 displayed on the screen 3a by the user's operation.

第1画像表示情報送信制御部75は、第1画像表示情報をサーバ4へ送信するように通信部46を制御する。 The first image display information transmission control unit 75 controls the communication unit 46 to transmit the first image display information to the server 4.

第2画像表示情報受信制御部76は、通信部46を介してサーバ4から受信した第2画像表示情報を画像表示制御部70へ出力する。 The second image display information reception control unit 76 outputs the second image display information received from the server 4 via the communication unit 46 to the image display control unit 70.

[2-5.処理フロー]
次に、携帯端末3及びサーバ4におけるオノマトペ表示処理の流れをフローチャートを用いて説明する。
[2-5. Processing flow]
Next, the flow of the onomatopoeia display process in the mobile terminal 3 and the server 4 will be described with reference to a flowchart.

[2-5-1.携帯端末におけるオノマトペ表示に関するフロー]
図9は、携帯端末3が備える主制御部40によって実行される実施例に係るオノマトペ表示処理の流れを示すフローチャートである。オノマトペ表示処理を実行するためのプログラムは補助記憶部44の所定領域に予め記憶されている。オノマトペ表示処理は、一例として、携帯端末3がサーバ4から配信され動画の再生を開始した場合に実行が開始され、動画の再生が終了すると共に終了する。
[2-5-1. Flow for displaying onomatopoeia on a mobile device]
9 is a flowchart showing the flow of an onomatopoeia display process according to an embodiment executed by the main control unit 40 of the mobile terminal 3. A program for executing the onomatopoeia display process is pre-stored in a predetermined area of the auxiliary storage unit 44. As an example, the onomatopoeia display process is started when the mobile terminal 3 starts playing a video distributed from the server 4, and ends when the playback of the video ends.

ステップS100では、トリガの発生を検出する。本実施例におけるトリガは、第1トリガ(ユーザによる表示ボタン53の操作の受付け)と第2トリガ(第2画像表示情報の受信)のいずれかである。本実施例に係る携帯端末3は、トリガの発生が検出される度に、画面の表示内容を更新する。第1トリガと第2トリガは、並列的に発生し得る。したがって、一方のトリガの発生に応じた処理の実行中に、他方のトリガの発生に応じた処理が実行されることがある。また、複数の第2トリガが、並列的に発生し得る。したがって、一の第2トリガの発生に応じた処理の実行中に、他の第2トリガの発生に応じた処理が実行されることがある。 In step S100, occurrence of a trigger is detected. In this embodiment, the trigger is either a first trigger (acceptance of operation of the display button 53 by the user) or a second trigger (reception of second image display information). The mobile terminal 3 in this embodiment updates the display content of the screen every time the occurrence of a trigger is detected. The first trigger and the second trigger may occur in parallel. Therefore, while processing is being executed in response to the occurrence of one trigger, processing is sometimes executed in response to the occurrence of the other trigger. Also, multiple second triggers may occur in parallel. Therefore, while processing is being executed in response to the occurrence of one second trigger, processing is sometimes executed in response to the occurrence of another second trigger.

ステップS102において、検出されたトリガが第1トリガの場合はステップS106へ移行し、検出されたトリガが第2トリガの場合はステップS104へ移行する。 In step S102, if the detected trigger is the first trigger, the process proceeds to step S106, and if the detected trigger is the second trigger, the process proceeds to step S104.

ステップS104では、第2画像表示情報により示される第2画像52を、画像表示制御部70が第2画像表示領域50Cに表示させ、処理を終了する。 In step S104, the image display control unit 70 displays the second image 52 indicated by the second image display information in the second image display area 50C, and the process ends.

ステップS106では、ユーザが操作した表示ボタン53に対応した第1画像51を、画像表示制御部70が第1画像表示領域50Bに表示させる。なお、第1画像51は、予め携帯端末3に記憶されていてもよいし、ユーザによって表示ボタン53が操作される毎にサーバ4からダウンロードされてもよい。 In step S106, the image display control unit 70 displays the first image 51 corresponding to the display button 53 operated by the user in the first image display area 50B. The first image 51 may be stored in the mobile terminal 3 in advance, or may be downloaded from the server 4 each time the display button 53 is operated by the user.

ステップS108では、第1画像表示領域50Bに表示された第1画像51に対応する第1画像表示情報を、第1画像表示情報生成部74が生成する。 In step S108, the first image display information generating unit 74 generates first image display information corresponding to the first image 51 displayed in the first image display area 50B.

ステップS110では、第1画像表示情報送信制御部75が通信部46を制御して第1画像表示情報をサーバ4へ送信する。 In step S110, the first image display information transmission control unit 75 controls the communication unit 46 to transmit the first image display information to the server 4.

ステップS112では、ユーザによる表示ボタン53の操作が終了したか否かを操作状態判定部73が判定する。肯定判定の場合はステップS116へ移行し、否定判定の場合はステップS114へ移行する。 In step S112, the operation state determination unit 73 determines whether or not the user has finished operating the display button 53. If the determination is affirmative, the process proceeds to step S116, and if the determination is negative, the process proceeds to step S114.

ステップS114では、ユーザによる表示ボタン53の操作が終了するまで画像表示制御部70が第1画像51(オノマトペ画像)を伸長表示させ、ステップS112へ戻る。 In step S114, the image display control unit 70 displays the first image 51 (onomatopoeia image) in an elongated manner until the user finishes operating the display button 53, and then the process returns to step S112.

ステップS116では、画像表示制御部70が第1画像51の表示を終了し、処理を終了する。 In step S116, the image display control unit 70 ends the display of the first image 51 and ends the process.

なお、図9に示されるフローチャートでは、第1画像51の表示と共に第1画像表示情報が生成され、第1画像表示情報がサーバ4へ送信されるが、これに限らず、第1画像51の表示が終了した後に第1画像表示情報がサーバ4へ送信されてもよい。また、第1画像表示情報送信制御部75は、第1画像51の表示を開始したタイミングで第1画像51の表示開始を示す第1画像表示情報をサーバ4へ送信し、第1画像51の表示が終了したタイミングで第2画像52の表示終了を示す第1画像表示情報をサーバ4へ送信してもよい。これにより、サーバ4は、第1画像51の表示開始を示す第1画像表示情報と表示終了を示す第1画像表示情報の受信間隔において、第1画像51(オノマトペ画像)が伸長表示されていることを認識できる。 9, the first image display information is generated together with the display of the first image 51, and the first image display information is transmitted to the server 4. However, this is not limiting, and the first image display information may be transmitted to the server 4 after the display of the first image 51 ends. The first image display information transmission control unit 75 may transmit to the server 4 first image display information indicating the start of the display of the first image 51 at the timing when the display of the first image 51 starts, and transmit to the server 4 first image display information indicating the end of the display of the second image 52 at the timing when the display of the first image 51 ends. This allows the server 4 to recognize that the first image 51 (onomatopoeia image) is displayed in an elongated manner during the reception interval between the first image display information indicating the start of the display of the first image 51 and the first image display information indicating the end of the display.

[2-5-2.サーバにおけるオノマトペ表示に関するフロー]
図10は、サーバ4が備えるCPU20によって実行される実施例に係るオノマトペ表示処理の流れを示すフローチャートである。オノマトペ表示処理を実行するためのプログラムはHDD26の所定領域に予め記憶されている。オノマトペ表示処理は、一例として、サーバ4が携帯端末3へ動画を配信している場合に実行が開始され、動画の配信が終了すると共に終了する。
[2-5-2. Flow for displaying onomatopoeia on the server]
10 is a flowchart showing the flow of an onomatopoeia display process according to an embodiment executed by the CPU 20 of the server 4. A program for executing the onomatopoeia display process is pre-stored in a predetermined area of the HDD 26. As an example, the onomatopoeia display process is started when the server 4 is distributing a video to the mobile terminal 3, and ends when the distribution of the video ends.

ステップS200では、第1画像表示情報を携帯端末3から受信したか否かを第1画像表示情報受信制御部62が判定する。肯定判定の場合はステップS202へ移行し、否定判定の場合は待ち状態となる。 In step S200, the first image display information reception control unit 62 determines whether or not the first image display information has been received from the mobile terminal 3. If the determination is positive, the process proceeds to step S202, and if the determination is negative, the process enters a waiting state.

ステップS202では、受信した第1画像表示情報を第1画像表示情報受信制御部62がHDD26に記憶させる。 In step S202, the first image display information reception control unit 62 stores the received first image display information in the HDD 26.

ステップS204では、受信した第1画像表示情報に基づいて第2画像表示情報生成部63が第2画像表示情報を生成し、HDD26に記憶させる。 In step S204, the second image display information generating unit 63 generates second image display information based on the received first image display information and stores it in the HDD 26.

ステップS206では、第2画像表示情報送信制御部64が外部インタフェース32を制御して、第1画像表示情報を送信してきた携帯端末3とは異なる携帯端末3へ第2画像表示情報を送信し、ステップS200へ戻る。 In step S206, the second image display information transmission control unit 64 controls the external interface 32 to transmit the second image display information to a mobile terminal 3 different from the mobile terminal 3 that transmitted the first image display information, and the process returns to step S200.

なお、サーバ4は、携帯端末3に配信する動画に既に第2画像表示情報が関連付けられている場合、当該第2画像表示情報も携帯端末3へ送信してもよい。これにより、ユーザは、リアルタイムではなく過去に他のユーザが表示させた第1画像51を認識することができる。例えば、グループ登録されているユーザが、グループ5として動画を視聴した後に、グループ5としてではなく一人(他の携帯端末3とは非同期)で動画を視聴する場合であっても、過去に表示された第1画像51に基づく第2画像52が第2画像表示領域50Cに表示されることになる。 When second image display information is already associated with the video to be distributed to the mobile terminal 3, the server 4 may also transmit the second image display information to the mobile terminal 3. This allows the user to recognize the first image 51 displayed by other users in the past, rather than in real time. For example, even if a user who is registered in a group watches a video as a group 5 and then watches the video alone (asynchronously with the other mobile terminals 3) rather than as a group 5, the second image 52 based on the first image 51 displayed in the past will be displayed in the second image display area 50C.

以上説明したように、実施例に係る携帯端末3は、サーバ4から配信された動画を表示する配信動画表示領域50A、ユーザの操作に応じた第1画像51を表示する第1画像表示領域50B、他のユーザの操作によって他の携帯端末3に表示された第1画像51に基づいた第2画像52を表示する第2画像表示領域50Cが画面3aに設定される。そして、第1画像51はユーザの操作態様に応じて第1画像表示領域50Bを超えて配信動画表示領域50Aに重畳して表示されるものの、第2画像52は他のユーザの操作態様にかかわらず第2画像表示領域50Cを超えて配信動画表示領域50Aに重畳して表示されない。 As described above, the mobile terminal 3 according to the embodiment has a distributed video display area 50A that displays a video distributed from the server 4, a first image display area 50B that displays a first image 51 according to a user's operation, and a second image display area 50C that displays a second image 52 based on the first image 51 displayed on another mobile terminal 3 by another user's operation, set on the screen 3a. Then, although the first image 51 is displayed superimposed on the distributed video display area 50A beyond the first image display area 50B according to the user's operation mode, the second image 52 is not displayed superimposed on the distributed video display area 50A beyond the second image display area 50C regardless of the operation mode of the other user.

これにより、携帯端末3は、動画に対するユーザ自身の反応をより娯楽性高く画面3aに表示でき、かつ動画を視聴しているユーザに煩わしさを感じさせることなく他のユーザの反応を確認させることできる。 This allows the mobile terminal 3 to display the user's own reaction to the video on the screen 3a in a more entertaining manner, and also allows the user watching the video to see the reactions of other users without feeling annoyed.

また、実施例に係る携帯端末3は、画面3aが動画を表示している状態で、ユーザの感情を示すオノマトペ画像を画面3aに表示させるためのユーザの操作を受け付ける。そして、オノマトペ画像は、ユーザによる操作態様に応じて表示態様が変化しながら、動画を表示している画面3aに表示される。従って、ユーザはコンテンツを視聴しながらの操作態様に応じて画面に表示するオノマトペ画像の表示態様を変化させることができる。 The mobile terminal 3 according to the embodiment also accepts a user's operation to display an onomatopoeia image indicating the user's emotion on the screen 3a while the screen 3a is displaying a video. The onomatopoeia image is then displayed on the screen 3a displaying the video, with the display mode of the image changing according to the mode of operation by the user. Thus, the user can change the display mode of the onomatopoeia image displayed on the screen according to the mode of operation while watching the content.

これにより、携帯端末3は、動画の視聴によって抱いた感情を、ユーザが動画を視聴しながら簡易に画面3aに表示することができる。 This allows the mobile device 3 to easily display the emotions felt by the user as they watch the video on the screen 3a while the user is watching the video.

[3.変形例]
本発明の技術的範囲は上記実施例に記載の範囲には限定されない。発明の要旨を逸脱しない範囲で上記実施例に多様な変更又は改良を加えることができ、該変更又は改良を加えた形態も本発明の技術的範囲に含まれる。
3. Modifications
The technical scope of the present invention is not limited to the scope described in the above embodiments. Various modifications or improvements can be made to the above embodiments without departing from the gist of the invention, and such modifications or improvements are also included in the technical scope of the present invention.

上記実施例では、第1画像51を画面3aに表示させるためのユーザの操作を表示ボタン53の操作とする形態について説明したが、本発明は、これに限定されるものではない。例えば、携帯端末3の側面等に備えられている操作ボタン48をユーザが操作することによって第1画像が画面3aに表示されてもよい。また、携帯端末3がキーボードを備える場合には、所定のキー入力が行われることによって第1画像51が画面3aに表示されてもよい。 In the above embodiment, the user operates the display button 53 to display the first image 51 on the screen 3a, but the present invention is not limited to this. For example, the first image may be displayed on the screen 3a by the user operating the operation button 48 provided on the side of the mobile terminal 3, etc. Also, if the mobile terminal 3 is equipped with a keyboard, the first image 51 may be displayed on the screen 3a by performing a predetermined key input.

また、上記実施例では、オノマトペ表示処理が動画の配信と共に開始し、動画の再配信と共に終了する形態について説明したが、本発明は、これに限定されるものではない。例えば、動画の配信の所定時間前からオノマトペ表示処理が開始されてもよい。 In the above embodiment, the onomatopoeia display process is started when the video is distributed and ends when the video is redistributed, but the present invention is not limited to this. For example, the onomatopoeia display process may be started a predetermined time before the video is distributed.

例えば、動画の配信開始時刻が予め定められている場合、第1画像51及び第2画像52は、当該配信開始時刻よりも所定時間前(例えば30分前)から、ユーザの操作によって第1画像表示領域50B及び第2画像表示領域50Cに表示可能とされてもよい。これにより、ユーザは、動画の配信開始前であっても、動画に対する自身の期待感等の反応を画面3aに表示でき、かつ他のユーザの反応を確認できる。また、動画の配信終了よりも所定時間後(例えば30分後)まで、第1画像51及び第2画像52が、ユーザの操作によって第1画像表示領域50B及び第2画像表示領域50Cに表示可能とされてもよい。これにより、ユーザは、動画の配信開始後であっても、動画に対する総合的な感想等の自身の反応を画面3aに表示でき、かつ他のユーザの反応を確認できる。 For example, if the distribution start time of the video is predetermined, the first image 51 and the second image 52 may be made displayable in the first image display area 50B and the second image display area 50C by the user's operation from a predetermined time (e.g., 30 minutes) before the distribution start time. This allows the user to display their own reaction to the video, such as their expectations, on the screen 3a even before the distribution of the video starts, and to check the reactions of other users. In addition, the first image 51 and the second image 52 may be made displayable in the first image display area 50B and the second image display area 50C by the user's operation until a predetermined time (e.g., 30 minutes) after the end of the distribution of the video. This allows the user to display their own reaction to the video, such as their overall impression, on the screen 3a even after the distribution of the video starts, and to check the reactions of other users.

また、図4等に示される配信動画表示領域50A、第1画像表示領域50B及び第2画像表示領域50C、並びに表示ボタン53の画面3aにおける位置及びサイズも一例であり、本発明は、これに限定されるものではない。例えば、図11に示される態様であってもよい。図11(A)の例は、画面3aが横向き(長軸方向がユーザに対して横方向、短軸方向がユーザに対して縦方向)にされた場合における画面3aの表示態様の一例である。図11(B)の例は、画面3aが縦向き(長軸方向がユーザに対して縦方向、短軸方向がユーザに対して横方向)にされた場合における画面3aの表示態様の一例である。 The positions and sizes of the distribution video display area 50A, the first image display area 50B, the second image display area 50C, and the display button 53 on the screen 3a shown in FIG. 4 etc. are also examples, and the present invention is not limited to these. For example, the form shown in FIG. 11 may be used. The example of FIG. 11(A) is an example of the display form of the screen 3a when the screen 3a is oriented horizontally (the long axis direction is horizontal to the user, and the short axis direction is vertical to the user). The example of FIG. 11(B) is an example of the display form of the screen 3a when the screen 3a is oriented vertically (the long axis direction is vertical to the user, and the short axis direction is horizontal to the user).

図11(A)の例では、配信動画表示領域50Aを中央としてその右側に第1画像表示領域50Bが表示され、左側に第2画像表示領域50Cが表示される。そして、第1画像表示領域50Bの右側に複数の表示ボタン53が縦方向に表示される。図11(B)の例では、画面3aの上半分に配信動画表示領域50Aが表示され、画面3aの下半分の右側に第1画像表示領域50Bが表示され、左側に第2画像表示領域50Cが表示される。なお、図11(A),(B)共に、ユーザの利き手に合わせて、画面3aの左側に第1画像表示領域50Bが表示され、右側に第2画像表示領域50Cが表示されてもよい。 In the example of FIG. 11(A), the streaming video display area 50A is in the center, with the first image display area 50B displayed to the right of it and the second image display area 50C displayed to the left. Then, multiple display buttons 53 are displayed vertically to the right of the first image display area 50B. In the example of FIG. 11(B), the streaming video display area 50A is displayed in the upper half of the screen 3a, the first image display area 50B is displayed on the right side of the lower half of the screen 3a, and the second image display area 50C is displayed on the left. Note that in both FIG. 11(A) and (B), the first image display area 50B may be displayed on the left side of the screen 3a and the second image display area 50C may be displayed on the right side, depending on the user's dominant hand.

また、上記実施例では、サーバ4が携帯端末3から第1画像表示情報を受信し、第1画像表示情報に基づいて生成した第2画像表示情報を他の携帯端末3へ送信し、他の携帯端末3は第2画像表示情報により示される第2画像52を第2画像表示領域50Cに表示する形態について説明したが、本発明はこれに限られない。 In addition, in the above embodiment, the server 4 receives first image display information from the mobile terminal 3, transmits second image display information generated based on the first image display information to the other mobile terminal 3, and the other mobile terminal 3 displays the second image 52 indicated by the second image display information in the second image display area 50C, but the present invention is not limited to this.

例えば、サーバ4を経由せずに複数の携帯端末3同士が第1画像表示情報を送受信することで、携帯端末3は第2画像52を第2画像表示領域50Cに表示してもよい。すなわち、携帯端末3は、他の携帯端末3から第1画像表示情報を受信すると、第1画像表示情報から他の携帯端末3に表示された第1画像51に関する情報を読み出し、当該情報に基づく第2画像52を第2画像表示領域50Cに表示する。 For example, a plurality of mobile terminals 3 may transmit and receive first image display information to each other without going through the server 4, so that the mobile terminals 3 display the second image 52 in the second image display area 50C. That is, when the mobile terminal 3 receives first image display information from another mobile terminal 3, it reads information related to the first image 51 displayed on the other mobile terminal 3 from the first image display information, and displays the second image 52 based on that information in the second image display area 50C.

また、上記実施例で説明した各種処理の流れも一例であり、本発明の主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよい。 The various processing flows described in the above embodiments are also examples, and unnecessary steps may be deleted, new steps may be added, or the processing order may be rearranged without departing from the spirit of the present invention.

1 動画配信システム
2 通信回線
3 携帯端末(「情報処理装置」の一例)
3a 画面(「表示画面」の一例)
4 サーバ(「管理手段」の一例)
5 グループ(「情報処理システム」の一例)
50A 配信動画表示領域(「基本領域」の一例,第1範囲の「第2部分」の一例)
50B 第1画像表示領域(第1範囲の「第1部分」の一例)
50C 第2画像表示領域(第1範囲の「第3部分」の一例,「第2範囲」の一例)
51 第1画像(「第1要素」,「付加要素」の一例)
52 第2画像(「第2要素」の一例)
53 表示ボタン(「操作要素」の一例)
70 画像表示制御部(「第1制御手段」,「第2制御手段」,「制御手段」の一例)
71 表示領域設定部
72 第1画像表示操作受付部(「受付手段」の一例)
73 操作状態判定部
74 第1画像表示情報生成部
75 第1画像表示情報送信制御部
76 第2画像表示情報受信制御部(「取得手段」の一例)
1 Video distribution system 2 Communication line 3 Mobile terminal (an example of an "information processing device")
3a Screen (an example of a "display screen")
4. Server (an example of a "management means")
5. Group (an example of an "information processing system")
50A Distribution video display area (an example of the “basic area”; an example of the “second part” of the first range)
50B First image display area (an example of the “first portion” of the first range)
50C Second image display area (an example of the “third portion” of the first range, an example of the “second range”)
51 First image (an example of the "first element" or "additional element")
52 Second image (an example of the "second element")
53 Display button (an example of an "operation element")
70 Image display control unit (an example of the “first control means”, “second control means”, or “control means”)
71 Display area setting unit 72 First image display operation receiving unit (an example of the “receiving unit”)
73 Operation state determination unit 74 First image display information generation unit 75 First image display information transmission control unit 76 Second image display information reception control unit (an example of the “acquisition unit”)

Claims (9)

プロセッサを備え、
前記プロセッサは、
第1の情報処理装置に、前記第1の情報処理装置において視聴対象を視聴中の第1ユーザによる第1操作に基づく第1の第1要素を表示させ、
前記第1の情報処理装置に、第2の情報処理装置において前記視聴対象を視聴中の第2ユーザによる第2操作に基づく第2要素を表示させ、
前記第2操作に基づいて前記第2の情報処理装置に表示された第2の第1要素の表示が終了したことに応じたタイミングで、前記第1の情報処理装置における前記第2要素の表示を終了させ、
前記第1の情報処理装置において前記視聴対象が表示される領域と前記第1要素を表示させる範囲とを少なくとも部分的に重畳させて表示させる、
情報処理装置。
A processor is provided.
The processor,
causing a first information processing device to display a first first element based on a first operation by a first user who is viewing a viewing target on the first information processing device;
causing the first information processing device to display a second element based on a second operation by a second user who is viewing the viewing target on a second information processing device;
ending the display of the second element on the first information processing device at a timing corresponding to the end of the display of the second first element displayed on the second information processing device based on the second operation;
displaying an area in which the viewing target is displayed and an area in which the first element is displayed so as to at least partially overlap each other in the first information processing device;
Information processing device.
プロセッサが、第1の情報処理装置に、前記第1の情報処理装置において視聴対象を視聴中の第1ユーザによる第1操作に基づく第1の第1要素を表示させ、
プロセッサが、前記第1の情報処理装置に、第2の情報処理装置において前記視聴対象を視聴中の第2ユーザによる第2操作に基づく第2要素を表示させ、
プロセッサが、前記第2操作に基づいて前記第2の情報処理装置に表示された第2の第1要素の表示が終了したことに応じたタイミングで、前記第1の情報処理装置における前記第2要素の表示を終了させ、
プロセッサが、前記第1の情報処理装置において前記視聴対象が表示される領域と前記第1要素を表示させる範囲とを少なくとも部分的に重畳させて表示させる、
情報処理方法。
a processor causes a first information processing device to display a first first element based on a first operation by a first user who is viewing a viewing target on the first information processing device;
a processor causes the first information processing device to display a second element based on a second operation by a second user who is viewing the viewing target on a second information processing device;
a processor, at a timing corresponding to a completion of display of a second first element displayed on the second information processing device based on the second operation, ends display of the second element on the first information processing device ;
a processor causes an area in which the viewing target is displayed and an area in which the first element is displayed to be at least partially superimposed on each other in the first information processing device;
Information processing methods.
プロセッサに、
第1の情報処理装置に、前記第1の情報処理装置において視聴対象を視聴中の第1ユーザによる第1操作に基づく第1の第1要素を表示させる機能と、
前記第1の情報処理装置に、第2の情報処理装置において前記視聴対象を視聴中の第2ユーザによる第2操作に基づく第2要素を表示させる機能と、
前記第2操作に基づいて前記第2の情報処理装置に表示された第2の第1要素の表示が終了したことに応じたタイミングで、前記第1の情報処理装置における前記第2要素の表示を終了させる機能と、
前記第1の情報処理装置において前記視聴対象が表示される領域と前記第1要素を表示させる範囲とを少なくとも部分的に重畳させて表示させる機能と、
を実行させるためのプログラム。
The processor:
A function of displaying a first first element based on a first operation by a first user who is viewing a viewing target on the first information processing device;
a function of causing the first information processing device to display a second element based on a second operation by a second user who is viewing the viewing target on a second information processing device;
a function of ending the display of the second element in the first information processing device at a timing corresponding to the end of the display of the second first element displayed in the second information processing device based on the second operation;
a function of displaying an area in which the viewing target is displayed and an area in which the first element is displayed in such a manner that they are at least partially overlapped with each other in the first information processing device;
A program for executing the above.
プロセッサを備え、
前記プロセッサは、
第1の情報処理装置に、前記第1の情報処理装置において視聴対象を視聴中の第1ユーザによる第1操作に基づく第1の第1要素を表示させ、
前記第1の情報処理装置に、第2の情報処理装置において前記視聴対象を視聴中の第2ユーザによる第2操作に基づく第2要素を表示させ、
前記第2操作に基づいて前記第2の情報処理装置に表示された第2の第1要素の表示が終了したことに応じたタイミングで、前記第1の情報処理装置における前記第2要素の表示を終了させ、
前記第1要素を表示させる第1範囲と前記第2要素を表示させる第2範囲とが少なくとも部分的に重畳する領域と、前記第1範囲と前記第2範囲とが重畳しない領域と、が存在するように表示させる、
情報処理装置。
A processor is provided.
The processor,
causing a first information processing device to display a first first element based on a first operation by a first user who is viewing a viewing target on the first information processing device;
causing the first information processing device to display a second element based on a second operation by a second user who is viewing the viewing target on a second information processing device;
ending the display of the second element on the first information processing device at a timing corresponding to the end of the display of the second first element displayed on the second information processing device based on the second operation;
a first range in which the first element is displayed and a second range in which the second element is displayed are displayed so as to have an area in which the first range and the second range are at least partially overlapping, and an area in which the first range and the second range do not overlap;
Information processing device.
プロセッサが、第1の情報処理装置に、前記第1の情報処理装置において視聴対象を視聴中の第1ユーザによる第1操作に基づく第1の第1要素を表示させ、
プロセッサが、前記第1の情報処理装置に、第2の情報処理装置において前記視聴対象を視聴中の第2ユーザによる第2操作に基づく第2要素を表示させ、
プロセッサが、前記第2操作に基づいて前記第2の情報処理装置に表示された第2の第1要素の表示が終了したことに応じたタイミングで、前記第1の情報処理装置における前記第2要素の表示を終了させ、
プロセッサが、前記第1要素を表示させる第1範囲と前記第2要素を表示させる第2範囲とが少なくとも部分的に重畳する領域と、前記第1範囲と前記第2範囲とが重畳しない領域と、が存在するように表示させる、
情報処理方法。
a processor causes a first information processing device to display a first first element based on a first operation by a first user who is viewing a viewing target on the first information processing device;
a processor causes the first information processing device to display a second element based on a second operation by a second user who is viewing the viewing target on a second information processing device;
a processor, at a timing corresponding to a completion of display of a second first element displayed on the second information processing device based on the second operation, ends display of the second element on the first information processing device ;
a processor displays the first range in which the first element is displayed and the second range in which the second element is displayed so as to have an area in which the first range and the second range are at least partially overlapping, and an area in which the first range and the second range do not overlap;
Information processing methods.
プロセッサに、
第1の情報処理装置に、前記第1の情報処理装置において視聴対象を視聴中の第1ユーザによる第1操作に基づく第1の第1要素を表示させる機能と、
前記第1の情報処理装置に、第2の情報処理装置において前記視聴対象を視聴中の第2ユーザによる第2操作に基づく第2要素を表示させる機能と、
前記第2操作に基づいて前記第2の情報処理装置に表示された第2の第1要素の表示が終了したことに応じたタイミングで、前記第1の情報処理装置における前記第2要素の表示を終了させる機能と、
前記第1要素を表示させる第1範囲と前記第2要素を表示させる第2範囲とが少なくとも部分的に重畳する領域と、前記第1範囲と前記第2範囲とが重畳しない領域と、が存在するように表示させる機能と、
を実行させるためのプログラム。
The processor:
A function of displaying a first first element based on a first operation by a first user who is viewing a viewing target on the first information processing device;
a function of causing the first information processing device to display a second element based on a second operation by a second user who is viewing the viewing target on a second information processing device;
a function of ending the display of the second element in the first information processing device at a timing corresponding to the end of the display of the second first element displayed in the second information processing device based on the second operation;
a function of displaying the first range in which the first element is displayed and the second range in which the second element is displayed so as to have an area in which the first range and the second range are at least partially overlapping, and an area in which the first range and the second range do not overlap;
A program for executing the above.
プロセッサを備え、
前記プロセッサは、
第1の情報処理装置の第2範囲と異なる領域である第1範囲に、前記第1の情報処理装置において視聴対象を視聴中の第1ユーザによる第1操作に基づく第1の第1要素を表示させ、
前記第1の情報処理装置の前記視聴対象が表示される領域と重畳しない前記第2範囲に、第2の情報処理装置において前記視聴対象を視聴中の第2ユーザによる第2操作に基づく第2要素を表示させ、
前記第2操作に基づいて前記第2の情報処理装置に表示された第2の第1要素の表示が終了したことに応じたタイミングで、前記第1の情報処理装置における前記第2要素の表示を終了させる、
情報処理装置。
A processor is provided.
The processor,
displaying a first element based on a first operation by a first user viewing a viewing target on a first information processing device in a first range that is a range different from a second range of the first information processing device;
displaying a second element based on a second operation by a second user viewing the viewing target on a second information processing device in the second range not overlapping with an area in which the viewing target is displayed on the first information processing device;
ending the display of the second element on the first information processing device at a timing corresponding to the end of the display of the second first element displayed on the second information processing device based on the second operation;
Information processing device.
プロセッサが、第1の情報処理装置の第2範囲と異なる領域である第1範囲に、前記第1の情報処理装置において視聴対象を視聴中の第1ユーザによる第1操作に基づく第1の第1要素を表示させ、
プロセッサが、前記第1の情報処理装置の前記視聴対象が表示される領域と重畳しない前記第2範囲に、第2の情報処理装置において前記視聴対象を視聴中の第2ユーザによる第2操作に基づく第2要素を表示させ、
プロセッサが、前記第2操作に基づいて前記第2の情報処理装置に表示された第2の第1要素の表示が終了したことに応じたタイミングで、前記第1の情報処理装置における前記第2要素の表示を終了させる、
情報処理方法。
a processor displays a first first element based on a first operation by a first user viewing a viewing target on a first information processing device in a first range that is a region different from a second range of the first information processing device;
a processor displays a second element based on a second operation by a second user viewing the viewing target on a second information processing device in the second range not overlapping with an area in which the viewing target is displayed on the first information processing device;
a processor terminates display of the second element on the first information processing device at a timing corresponding to termination of display of the second first element on the second information processing device based on the second operation;
Information processing methods.
プロセッサに、
第1の情報処理装置の第2範囲と異なる領域である第1範囲に、前記第1の情報処理装置において視聴対象を視聴中の第1ユーザによる第1操作に基づく第1の第1要素を表示させる機能と、
前記第1の情報処理装置の前記視聴対象が表示される領域と重畳しない前記第2範囲に、第2の情報処理装置において前記視聴対象を視聴中の第2ユーザによる第2操作に基づく第2要素を表示させる機能と、
前記第2操作に基づいて前記第2の情報処理装置に表示された第2の第1要素の表示が終了したことに応じたタイミングで、前記第1の情報処理装置における前記第2要素の表示を終了させる機能と、
を実行させるためのプログラム。
The processor:
A function of displaying a first first element based on a first operation by a first user viewing a viewing target on a first information processing device in a first range that is a region different from a second range of the first information processing device;
a function of displaying a second element based on a second operation by a second user viewing the viewing target on a second information processing device in the second range not overlapping with an area in which the viewing target is displayed on the first information processing device;
a function of ending the display of the second element in the first information processing device at a timing corresponding to the end of the display of the second first element displayed in the second information processing device based on the second operation;
A program for executing the above.
JP2022210355A 2019-02-04 2022-12-27 Information processing system, control program, and information processing device Active JP7525801B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022210355A JP7525801B2 (en) 2019-02-04 2022-12-27 Information processing system, control program, and information processing device
JP2024110414A JP2024137965A (en) 2019-02-04 2024-07-09 Information processing system, control program, and information processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019018327A JP7212255B2 (en) 2019-02-04 2019-02-04 Information processing system, control program and information processing device
JP2022210355A JP7525801B2 (en) 2019-02-04 2022-12-27 Information processing system, control program, and information processing device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019018327A Division JP7212255B2 (en) 2019-02-04 2019-02-04 Information processing system, control program and information processing device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024110414A Division JP2024137965A (en) 2019-02-04 2024-07-09 Information processing system, control program, and information processing device

Publications (2)

Publication Number Publication Date
JP2023052126A JP2023052126A (en) 2023-04-11
JP7525801B2 true JP7525801B2 (en) 2024-07-31

Family

ID=72084938

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019018327A Active JP7212255B2 (en) 2019-02-04 2019-02-04 Information processing system, control program and information processing device
JP2022210355A Active JP7525801B2 (en) 2019-02-04 2022-12-27 Information processing system, control program, and information processing device
JP2024110414A Pending JP2024137965A (en) 2019-02-04 2024-07-09 Information processing system, control program, and information processing device

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019018327A Active JP7212255B2 (en) 2019-02-04 2019-02-04 Information processing system, control program and information processing device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024110414A Pending JP2024137965A (en) 2019-02-04 2024-07-09 Information processing system, control program, and information processing device

Country Status (1)

Country Link
JP (3) JP7212255B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008148071A (en) 2006-12-11 2008-06-26 Dowango:Kk Display apparatus, comment displaying method, and program
JP2013013095A (en) 2012-07-24 2013-01-17 Sony Computer Entertainment Inc Information processing device and information processing method
JP2014504760A (en) 2011-03-16 2014-02-24 ペキン ユニバーシティ Superimposed annotation output
JP2015115892A (en) 2013-12-13 2015-06-22 シャープ株式会社 Comment generating apparatus and control method of the same
WO2017026170A1 (en) 2015-08-07 2017-02-16 シャープ株式会社 Client device, server device, display processing method, and data distribution method
JP2018110377A (en) 2017-10-31 2018-07-12 株式会社ドワンゴ Distribution system, distribution server, terminal and program
JP2018182546A (en) 2017-04-13 2018-11-15 株式会社abasaku Information terminal device, distribution management device, system, program, and recording medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120326993A1 (en) 2011-01-26 2012-12-27 Weisman Jordan K Method and apparatus for providing context sensitive interactive overlays for video
BR112015029324A2 (en) 2013-05-30 2017-07-25 Sony Corp client device control method system and program
JP5735672B1 (en) 2014-01-31 2015-06-17 株式会社 ディー・エヌ・エー Content distribution system, distribution program, and distribution method
JP2017016535A (en) 2015-07-03 2017-01-19 国立研究開発法人産業技術総合研究所 Comment input display system and method, and program for comment input display

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008148071A (en) 2006-12-11 2008-06-26 Dowango:Kk Display apparatus, comment displaying method, and program
JP2014504760A (en) 2011-03-16 2014-02-24 ペキン ユニバーシティ Superimposed annotation output
JP2013013095A (en) 2012-07-24 2013-01-17 Sony Computer Entertainment Inc Information processing device and information processing method
JP2015115892A (en) 2013-12-13 2015-06-22 シャープ株式会社 Comment generating apparatus and control method of the same
WO2017026170A1 (en) 2015-08-07 2017-02-16 シャープ株式会社 Client device, server device, display processing method, and data distribution method
JP2018182546A (en) 2017-04-13 2018-11-15 株式会社abasaku Information terminal device, distribution management device, system, program, and recording medium
JP2018110377A (en) 2017-10-31 2018-07-12 株式会社ドワンゴ Distribution system, distribution server, terminal and program

Also Published As

Publication number Publication date
JP7212255B2 (en) 2023-01-25
JP2020126437A (en) 2020-08-20
JP2024137965A (en) 2024-10-07
JP2023052126A (en) 2023-04-11

Similar Documents

Publication Publication Date Title
JP6546886B2 (en) System, method, and program for distributing digital content
JP6001757B1 (en) System, method, and program for distributing digital content
CN113411656B (en) Information processing method, information processing device, computer equipment and storage medium
US20120233564A1 (en) Information Processing Apparatus
KR20140028616A (en) Screen recording method of terminal, apparauts thereof, and medium storing program source thereof
US10082928B2 (en) Providing content to a user based on amount of user contribution
CN112516589A (en) Game commodity interaction method and device in live broadcast, computer equipment and storage medium
CN106878825B (en) Live broadcast-based sound effect display method and device
JP2024106999A (en) Shared information processing device and control program
US20170374391A1 (en) System, method, and program for distributing video
JP7525801B2 (en) Information processing system, control program, and information processing device
JP7545083B2 (en) Information processing system, information processing device, and control program
JP2024149770A (en) Information processing system, information processing device, and control program
JP6781780B2 (en) Game programs and game equipment
JP2020127126A (en) Information processing system and control program
JP6826295B1 (en) Computer programs, information processing equipment and information processing methods
JP7069493B2 (en) Game programs and game equipment
JP7555093B2 (en) GAME SCREEN DISPLAY CONTROL SYSTEM, GAME SCREEN DISPLAY CONTROL METHOD, AND COMPUTER PROGRAM
JP7464869B2 (en) Information processing device, information processing method, program, and information processing system
CN117241055B (en) Live broadcast interaction method and device, electronic equipment and storage medium
JP7564480B2 (en) COMPUTER PROGRAM, INFORMATION PROCESSING APPARATUS, AND INFORMATION PROCESSING METHOD
JP7464853B2 (en) Information processing device, information processing method, and program
JP7381902B2 (en) Information processing device, computer program, and method
JP7136985B1 (en) Program, information processing device and information processing method
JP2004230071A (en) Game machine, control method and program for game machine

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240701

R150 Certificate of patent or registration of utility model

Ref document number: 7525801

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150