JP2023166973A - Method and device for displaying expression of emotion of user in picture content - Google Patents

Method and device for displaying expression of emotion of user in picture content Download PDF

Info

Publication number
JP2023166973A
JP2023166973A JP2023043829A JP2023043829A JP2023166973A JP 2023166973 A JP2023166973 A JP 2023166973A JP 2023043829 A JP2023043829 A JP 2023043829A JP 2023043829 A JP2023043829 A JP 2023043829A JP 2023166973 A JP2023166973 A JP 2023166973A
Authority
JP
Japan
Prior art keywords
user
video content
visual effect
output
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023043829A
Other languages
Japanese (ja)
Inventor
ヘジ イ
Hae Ji Lee
ダムビ イ
Dambi Lee
ソイン ヨン
Seoin Yeon
サンボム ノ
Sangbeom Roh
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Naver Corp
Original Assignee
Naver Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Naver Corp filed Critical Naver Corp
Publication of JP2023166973A publication Critical patent/JP2023166973A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72427User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

To provide a method for displaying expression of an emotion of a user in a picture content which is performed by at least one processor of a user terminal.SOLUTION: A method for displaying expression of an emotion of a user in a picture content includes the steps of: outputting a picture content in a first region of a display of a user terminal (step S910); outputting a chat content related to the picture content in a second region of the display (S920); receiving user input related to expression of the emotion of the user in a third region of the display (step S930); and outputting a first visual effect related to expression of the emotion in the second region in response to the reception of the user input (step S940).SELECTED DRAWING: Figure 9

Description

新規性喪失の例外適用申請有り There is an application for exception to loss of novelty.

本開示は、映像コンテンツ内のユーザの感情表現表示方法及び装置に関し、具体的に、映像コンテンツを再生する際に、ユーザの感情表現と関連付けられた視覚的エフェクトを出力する方法及び装置に関する。 The present disclosure relates to a method and apparatus for displaying a user's emotional expression in video content, and specifically relates to a method and apparatus for outputting a visual effect associated with a user's emotional expression when playing video content.

最近、ソーシャルネットワークサービス(SNS)及び映像提供プラットホームの発達により、ライブインターネット放送などのような映像コンテンツの消費が非常に活発である。ライブインターネット放送などでは、放送者及び視聴者間のコミュニケーションのために、視聴者の感情を表現できる機能及びこれと関連付けられたエフェクトが提供されている。例えば、「いいね」ボタンをクリックすれば、これと関連付けられたエフェクトが画面に表示される。 2. Description of the Related Art Recently, with the development of social network services (SNS) and video providing platforms, consumption of video content such as live Internet broadcasting has become very active. 2. Description of the Related Art In live Internet broadcasting and the like, functions that allow viewers to express their emotions and effects associated therewith are provided for communication between broadcasters and viewers. For example, if you click the "Like" button, the associated effects will appear on your screen.

このようなエフェクトは、各視聴者の「いいね」と関連付けられたエフェクトが互いに同一又は類似しているため、サービス利用者が本人と他の視聴者とのエフェクトを区別し難いという問題がある。また、単純な2D形式のモーションが普遍化しているため、映像提供プラットホーム間の差別性が欠如している。これにより、放送者及び視聴者間に形成される絆が制限的であった。 Such effects have the problem that the effects associated with each viewer's "likes" are the same or similar, making it difficult for the service user to distinguish between the effects of the user himself and other viewers. . Furthermore, because simple 2D motion has become commonplace, there is a lack of differentiation among video providing platforms. This has limited the bond that can be formed between broadcasters and viewers.

韓国特許出願公開第2012-0108485号Korean Patent Application Publication No. 2012-0108485

本開示は、前記問題点を解決するための映像コンテンツ内のユーザの感情表現表示方法、コンピュータプログラム及び装置(システム)を提供する。 The present disclosure provides a method for displaying a user's emotional expression in video content, a computer program, and an apparatus (system) for solving the above problems.

本開示の一実施例によれば、ユーザ端末の少なくとも一つのプロセッサにより遂行される映像コンテンツ内のユーザの感情表現表示方法は、ユーザ端末のディスプレイ上の第1の領域において、映像コンテンツを出力するステップと、ディスプレイ上の第2の領域において、映像コンテンツと関連付けられたチャットコンテンツを出力するステップと、ディスプレイ上の第3の領域において、ユーザの感情表現と関連付けられたユーザ入力を受信するステップと、ユーザ入力の受信に応じて、第2の領域において、感情表現と関連付けられた第1の視覚的エフェクトを出力するステップとを含む。 According to an embodiment of the present disclosure, a method for displaying emotional expressions of a user in video content performed by at least one processor of a user terminal includes outputting the video content in a first area on a display of the user terminal. outputting chat content associated with the video content in a second area on the display; and receiving user input associated with an emotional expression of the user in a third area on the display. , outputting a first visual effect associated with the emotional expression in the second region in response to receiving the user input.

本開示の一実施例に係るユーザの感情表現表示方法をコンピュータで実行するためのコンピュータ読取り可能なコンピュータプログラムが提供される。 A computer-readable computer program for executing on a computer a method for displaying a user's emotional expression according to an embodiment of the present disclosure is provided.

本開示の一実施例に係るユーザ端末は、通信モジュールと、メモリと、ディスプレイと、メモリと連結され、メモリに含まれたコンピュータ読取り可能な少なくとも一つのプログラムを実行するように構成された少なくとも一つのプロセッサとを含む。少なくとも一つのプログラムは、ディスプレイ上の第1の領域において、映像コンテンツを出力し、ディスプレイ上の第2の領域において、映像コンテンツと関連付けられたチャットコンテンツを出力し、ディスプレイ上の第3の領域において、ユーザの感情表現と関連付けられたユーザ入力を受信し、ユーザ入力の受信に応じて、第2の領域において、感情表現と関連付けられた第1の視覚的エフェクトを出力するための命令語を含む。 A user terminal according to an embodiment of the present disclosure includes a communication module, a memory, a display, and at least one computer-readable program coupled to the memory and configured to execute at least one computer-readable program contained in the memory. including two processors. The at least one program outputs video content in a first area on the display, outputs chat content associated with the video content in a second area on the display, and outputs chat content associated with the video content in a second area on the display. , including instruction words for receiving a user input associated with an emotional expression of the user and outputting a first visual effect associated with the emotional expression in the second region in response to receiving the user input. .

本開示の一部の実施例によれば、ユーザが「いいね」ボタンを積極的にクリックするようにすることで、チャット参加の以外にもユーザの能動的なコンテンツ参加を誘導できる。 According to some embodiments of the present disclosure, by having the user actively click the "Like" button, it is possible to induce the user to actively participate in content in addition to chat participation.

本開示の一部の実施例によれば、ユーザは、自分の感情表現を他のユーザの感情表現と容易に区別できる。 According to some embodiments of the present disclosure, users can easily distinguish their emotional expressions from those of other users.

本開示の一部の実施例によれば、ライブ放送ホストや視聴者のユーザ等は、累積感情表現の個数の増加を視覚的に確認でき、累積感情表現の個数が目標値に到達したことを容易に確認できる。 According to some embodiments of the present disclosure, a live broadcast host, viewer user, etc. can visually confirm an increase in the number of cumulative emotional expressions, and can confirm that the number of cumulative emotional expressions has reached a target value. Can be easily confirmed.

本開示の効果は、これに制限されず、言及されない他の効果等が、請求範囲の記載から本開示が属する技術分野における通常の知識を有する者(以下、「当業者」という)に明確に理解されるはずである。 The effects of the present disclosure are not limited to this, and other effects not mentioned will be clearly understood by a person with ordinary knowledge in the technical field to which the present disclosure pertains (hereinafter referred to as "a person skilled in the art") from the description of the claims. It should be understood.

本開示の実施例等は、以下の添付図面に基づいて説明される。ここで、類似の参照符号は類似の要素を示すが、これに限定されるものではない。
本開示の一実施例に係るユーザの感情表現を表示する例を示す図である。 本開示の一実施例に係る情報処理システムが複数のユーザ端末と通信可能であるように連結された構成を示す概要図である。 本開示の一実施例に係るユーザ端末及び情報処理システムの内部構成を示すブロック図である。 本開示の一実施例に係るユーザインタフェースの細部領域を示す図である。 本開示の一実施例に係るユーザの感情表現と関連付けられたエフェクトが表示される例を示す図である。 本開示の一実施例に係る累積感情表現の個数の増加による視覚的エフェクトの出力例を示す図である。 本開示の一実施例に係るチャットコンテンツが出力される領域に表示される視覚的エフェクトの設定値の例を示す図である。 本開示の一実施例に係る映像コンテンツの累積感情表現の個数と関連付けられた視覚的エフェクトの設定値の例を示す図である。 本開示の一実施例に係る映像コンテンツ内のユーザの感情表現表示方法を示すフローチャートである。
Embodiments of the present disclosure will be described based on the accompanying drawings below. Here, similar reference numerals indicate similar elements, but are not limited thereto.
FIG. 2 is a diagram illustrating an example of displaying a user's emotional expression according to an embodiment of the present disclosure. FIG. 1 is a schematic diagram showing a configuration in which an information processing system according to an embodiment of the present disclosure is connected so as to be able to communicate with a plurality of user terminals. FIG. 1 is a block diagram showing the internal configuration of a user terminal and an information processing system according to an embodiment of the present disclosure. FIG. 3 is a diagram illustrating detailed areas of a user interface according to an embodiment of the present disclosure. FIG. 6 is a diagram illustrating an example in which effects associated with a user's emotional expression are displayed according to an embodiment of the present disclosure. FIG. 7 is a diagram illustrating an example of outputting a visual effect due to an increase in the number of cumulative emotional expressions according to an embodiment of the present disclosure. FIG. 7 is a diagram illustrating an example of setting values for visual effects displayed in an area where chat content is output according to an embodiment of the present disclosure. FIG. 6 is a diagram illustrating an example of a setting value of a visual effect associated with the number of cumulative emotional expressions of video content according to an embodiment of the present disclosure. 3 is a flowchart illustrating a method for displaying a user's emotional expression in video content according to an embodiment of the present disclosure.

以下、本開示の実施のための具体的な内容を添付図面に基づいて詳細に説明する。ただし、以下の説明では、本開示の要旨を不要に不明瞭にする恐れがある場合、公知の機能や構成に関する具体的な説明は省略する。 Hereinafter, specific contents for implementing the present disclosure will be described in detail based on the accompanying drawings. However, in the following description, specific descriptions of known functions and configurations will be omitted if there is a risk of unnecessarily obscuring the gist of the present disclosure.

添付図面において、同一又は対応する構成要素には同一の参照符号が付与される。また、以下の実施例の説明において、同一又は対応する構成要素について重複する記述は省略され得る。しかしながら、構成要素に関する記述が省略されても、そのような構成要素が、ある実施例に含まれないものと意図してはならない。 In the accompanying drawings, identical or corresponding components are provided with the same reference symbols. Further, in the following description of the embodiments, duplicate descriptions of the same or corresponding components may be omitted. However, the omission of a description of a component should not be intended to mean that such a component is not included in a given embodiment.

開示の実施例の利点及び特徴、そして、それらを達成する方法は、添付図面に基づいて、後述する実施例を参照すれば明確になる。しかしながら、本開示は、以下で開示される実施例に限定されず、互いに異なる多様な形態で具現化され得る。但し、本実施例は、本開示が完全になるようにし、本開示が当業者に発明のカテゴリを正確に認識させるために提供されるだけである。 The advantages and features of the disclosed embodiments, and the manner in which they are achieved, will become clearer with reference to the following embodiments, taken in conjunction with the accompanying drawings. However, the present disclosure is not limited to the embodiments disclosed below, and may be embodied in various forms different from each other. However, these embodiments are provided only so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art.

本開示で使用される用語について簡略に説明し、開示の実施例について具体的に説明する。本明細書で使用される用語は、本開示での機能を考慮しつつ、可能な限り現在広く使用される一般的な用語を選択したが、これは、関連分野に従事する技術者の意図又は判例、新技術の出現などにより変化し得る。また、特定の場合は、出願人が任意で選定した用語もあり得るが、これらの意味は当該発明の説明の部分において詳細に記載する。よって、本開示で使用される用語は、単純な用語の名称ではなく、その用語が持つ意味と本開示の全般にわたる内容に基づいて定義されるべきである。 Terms used in the present disclosure will be briefly explained, and examples of the disclosure will be specifically explained. The terminology used in this specification has been chosen to be as common as possible and currently widely used, taking into account its function in this disclosure; This may change depending on legal precedents, the emergence of new technology, etc. Furthermore, in certain cases, terms may be arbitrarily selected by the applicant, but their meanings will be described in detail in the description of the invention. Therefore, the terms used in this disclosure should be defined based on the meaning of the term and the overall content of this disclosure, rather than the simple name of the term.

本開示において、文脈上において明確に特定しない限り、単数の表現は複数の表現を含み、複数の表現は単数の表現を含むことができる。明細書の全般に渡り、ある部分がある構成要素を「含む」とすれば、これは、特に反対の記載がない限り、他の構成要素を排除するものではなく、他の構成要素をさらに含むこともできることを意味する。 In this disclosure, singular expressions may include plural expressions, and plural expressions may include singular expressions, unless the context clearly dictates otherwise. Throughout the specification, if a certain part is said to "include" a certain component, this does not mean that it excludes other components, and unless there is a specific statement to the contrary, this does not mean that it further includes other components. It also means that you can.

また、明細書で使用される「モジュール」又は「部」という用語は、ソフトウェアやハードウェア構成要素を意味し、「モジュール」又は「部」はある役割を遂行する。しかしながら、「モジュール」又は「部」はソフトウェアやハードウェアに限定される意味ではない。「モジュール」又は「部」は、アドレッシング可能な保存媒体にあるように構成してもよく、一つ又はそれ以上のプロセッサを再生させるように構成してもよい。したがって、一例として、「モジュール」又は「部」は、ソフトウェア構成要素、オブジェクト指向ソフトウェア構成要素、クラス構成要素、タスク構成要素のような構成要素、並びに、プロセス、関数、属性、プロシージャ、サブルーチン、プログラムコードのセグメント、ドライバー、ファームウェア、マイクロコード、回路、データ、データベース、データ構造、テーブル、アレイ、又は変数のうちで少なくとも一つを含むことができる。構成要素と「モジュール」又は「部」は、内部で提供される機能がさらに少ない数の構成要素及び「モジュール」又は「部」で結合されたり、追加的な構成要素と「モジュール」又は「部」へとさらに分離されたりし得る。 Further, the term "module" or "unit" used in the specification refers to a software or hardware component, and the "module" or "unit" performs a certain role. However, the term "module" or "unit" is not limited to software or hardware. A "module" or "unit" may be configured to reside on an addressable storage medium and may be configured to execute on one or more processors. Thus, by way of example, a "module" or "unit" refers to components such as software components, object-oriented software components, class components, task components, as well as processes, functions, attributes, procedures, subroutines, and program components. It can include at least one of a segment of code, a driver, firmware, microcode, circuitry, data, a database, a data structure, a table, an array, or a variable. Components and "modules" or "sections" may be defined as functions provided internally that may be combined with fewer components and "modules" or "sections" or with additional components and "modules" or "sections." It can be further separated into ``.

本開示の一実施例によれば、「モジュール」又は「部」は、プロセッサ及びメモリで具現化され得る。「プロセッサ」は、汎用プロセッサ、中央処理装置(CPU)、マイクロプロセッサ、デジタル信号プロセッサ(DSP)、コントローラ、マイクロコントローラ、状態マシンなどを含むように広く解釈されるべきである。いくつかの環境では、「プロセッサ」は、特定用途向け集積回路(ASIC)、プログラム可能ロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)等を称することもできる。「プロセッサ」は、例えば、DSPとマイクロプロセッサの組合せ、複数のマイクロプロセッサの組合せ、DSPコアと結合した一つ以上のマイクロプロセッサの組合せ、若しくは、任意の他のそのような構成等の組合せといった処理デバイスの組合せを称することもできる。また、「メモリ」は、電子情報を保存可能な任意の電子コンポーネントを含むように、広く解釈されるべきである。「メモリ」は、RAM(Random Access Memory)、ROM(Read Only Memory)、NVRAM(Non-Volatile Random Access Memory)、PROM(Programmable Read-Only Memory)、EPROM(Erasable Programmable Read-Only Memory)、EEPROM(Electrically Erasable Programmable Reda-Only Memory)、フラッシュメモリ、磁気又は光学データストレージ装置、レジスターなどのようなプロセッサで読取り可能な媒体の多様な類型を称することもできる。プロセッサがメモリから情報を読取り/読取ったりメモリに情報を記録できる場合、メモリは、プロセッサと電子通信状態にあると言われる。プロセッサに集積されたメモリは、プロセッサと電子通信状態にある。 According to one embodiment of the present disclosure, a "module" or "unit" may be embodied in a processor and memory. "Processor" should be construed broadly to include general purpose processors, central processing units (CPUs), microprocessors, digital signal processors (DSPs), controllers, microcontrollers, state machines, and the like. In some environments, a "processor" can also refer to an application specific integrated circuit (ASIC), a programmable logic device (PLD), a field programmable gate array (FPGA), and the like. "Processor" means a processing processor, such as a combination of a DSP and a microprocessor, a combination of multiple microprocessors, a combination of one or more microprocessors combined with a DSP core, or any other such configuration. It can also refer to a combination of devices. Additionally, "memory" should be construed broadly to include any electronic component capable of storing electronic information. "Memory" refers to RAM (Random Access Memory), ROM (Read Only Memory), NVRAM (Non-Volatile Random Access Memory), PROM (Programmable Read-Only Memory), EPROM (Erasable Programmable Read-Only Memory), EEPROM ( It can also refer to various types of processor-readable media, such as electrically erasable programmable reda-only memory, flash memory, magnetic or optical data storage devices, registers, and the like. A memory is said to be in electronic communication with a processor when the processor can read/read information from, and record information to, the memory. Memory integrated into the processor is in electronic communication with the processor.

本開示において、「ユーザ」はライブ映像を視聴している利用者を称し、「他のユーザ」は同一のライブ映像を視聴している他の利用者を称することができる。 In the present disclosure, a "user" can refer to a user who is viewing a live video, and "another user" can refer to another user who is viewing the same live video.

図1は、本開示の一実施例に係るユーザの感情表現を表示する例を示す図である。図に示すように、ユーザ端末110は、ディスプレイ120上に映像コンテンツが再生される画面を表示できる。一実施例において、映像コンテンツは、ライブ映像やライブ映像の録画映像や予め保存された映像などであり得る。 FIG. 1 is a diagram illustrating an example of displaying a user's emotional expression according to an embodiment of the present disclosure. As shown in the figure, the user terminal 110 can display a screen on which video content is played back on the display 120. In one embodiment, the video content may be a live video, a recorded video of a live video, a pre-stored video, or the like.

一実施例において、ユーザ100は、映像コンテンツが再生される際に、感情表現と関連付けられたボタンをクリックすることができる。例えば、映像コンテンツが再生される際に、ユーザ端末110のディスプレイ120上には、ユーザが肯定的フィードバックを入力できる「いいね」ボタン130が、映像コンテンツと一緒に表示される。ユーザ100は、ディスプレイ120上の「いいね」ボタン130をタッチ又はクリックすることで、肯定的フィードバックを入力できる。付加的に、ユーザ100は、ディスプレイ120上のチャット入力窓を介してテキストを入力することで、ライブ放送ホストや他の視聴者等に対してコミュニケーションを行うことができる。 In one example, user 100 may click a button associated with an emotional expression as the video content is played. For example, when the video content is played, a "like" button 130 is displayed on the display 120 of the user terminal 110 along with the video content, allowing the user to input positive feedback. User 100 may input positive feedback by touching or clicking "like" button 130 on display 120. Additionally, the user 100 may communicate with the live broadcast host, other viewers, etc. by entering text via a chat input window on the display 120.

一実施例において、ユーザ端末110は、ユーザ100が「いいね」ボタン130を選択する場合、感情表現と関連付けられた視覚的エフェクト140を出力できる。例えば、ユーザ端末110は、チャットコンテンツが出力されるディスプレイ上の領域に視覚的エフェクト140を出力できる。このとき、チャットコンテンツが出力されるレイヤの下位レイヤに視覚的エフェクト140を出力できる。視覚的エフェクト140は、任意の大きさ、任意の色相または任意の透明度を有し、チャットコンテンツが出力されるディスプレイ上の領域内の任意の位置に出力できる。視覚的エフェクト140は、ディスプレイ120上において既定の時間又は任意の時間の間に出力でき、ブラー(blur)処理したイメージを使用できる。また、ユーザ100は「いいね」ボタン130を数回選択できるが、このとき、ディスプレイ120上に多数の視覚的エフェクトが出力され得る。 In one embodiment, the user terminal 110 may output a visual effect 140 associated with the emotional expression when the user 100 selects the "like" button 130. For example, user terminal 110 may output visual effects 140 to an area on the display where chat content is output. At this time, the visual effect 140 can be output to a layer below the layer in which the chat content is output. Visual effects 140 can have any size, any color, or any transparency, and can be output anywhere within the area on the display where the chat content is output. Visual effects 140 can be output for a predetermined time or any time on display 120, and can use blurred images. Additionally, the user 100 may select the "like" button 130 several times, at which time a number of visual effects may be output on the display 120.

ユーザ100が「いいね」ボタン130を選択する場合、視覚的エフェクト140は、ユーザ100のユーザ端末110だけでなく、同一の映像コンテンツを視聴している他のユーザのユーザ端末、及びライブ放送ホストのユーザ端末にも、同一又は類似に表示できる。また、同一の映像コンテンツを視聴している他のユーザが「いいね」ボタンをクリックする場合にも、ユーザ100が、他のユーザが「いいね」ボタンをクリックしたことを確認できるように、ユーザ端末110のディスプレイ120に視覚的エフェクトが出力され得る。 When the user 100 selects the "Like" button 130, the visual effect 140 is displayed not only on the user terminal 110 of the user 100, but also on the user terminals of other users who are viewing the same video content, and on the live broadcast host. It can be displayed in the same or similar manner on other user terminals. Furthermore, even if another user who is viewing the same video content clicks the "Like" button, the user 100 can confirm that the other user has clicked the "Like" button. Visual effects may be output to display 120 of user terminal 110.

このような構成により、映像コンテンツを視聴しているユーザ等が「いいね」ボタン130を積極的にクリックするようにすることで、チャット参加の以外にもユーザ等の能動的な感情表現の参加を誘導できる。また、ユーザ等は、映像コンテンツ及びチャットコンテンツの視聴の邪魔にならずに視聴者等の感情表現を確認できる。ライブ映像コンテンツにおいて、このような視覚的エフェクト140は、オフラインコンサートで観客等のペンライトと類似な効果を示すことができる。 With this configuration, users who are viewing video content can actively click the "Like" button 130, thereby encouraging users to actively express their emotions in addition to participating in a chat. can be induced. Furthermore, users can check the emotional expressions of viewers without interfering with viewing video content and chat content. In live video content, such a visual effect 140 can have an effect similar to a flashlight of a spectator or the like in an offline concert.

一実施例において、ユーザ端末110は、映像コンテンツに係る累積感情表現の個数と関連付けられた視覚的エフェクト150を出力できる。例えば、ユーザ端末110は、同一の映像コンテンツを視聴しているユーザ等がクリックした「いいね」の累積個数と関連付けられた視覚的エフェクト150を出力できる。視覚的エフェクト150は、チャットコンテンツが出力されるレイヤの下位レイヤに出力できる。また、視覚的エフェクト150は、視覚的エフェクト140と同一のレイヤ又はその下位レイヤに出力できる。 In one embodiment, the user terminal 110 may output the visual effect 150 associated with the cumulative number of emotional expressions related to the video content. For example, the user terminal 110 can output the visual effect 150 associated with the cumulative number of "likes" clicked by users viewing the same video content. The visual effects 150 can be output to a layer below the layer in which chat content is output. Further, the visual effect 150 can be output to the same layer as the visual effect 140 or a layer below it.

一実施例において、視覚的エフェクト150は、映像コンテンツと関連付けられた累積感情表現の個数に基づいて視覚的属性が変化し得る。例えば、視覚的エフェクト150は、累積感情表現の個数の増加に応じて大きさが増加し得る。このような構成により、ユーザ100は、映像コンテンツと関連付けられた累積感情表現の個数を直観的に確認できる。 In one example, visual effects 150 may vary in visual attributes based on the number of cumulative emotional expressions associated with the video content. For example, visual effect 150 may increase in size as the number of cumulative emotional expressions increases. With this configuration, the user 100 can intuitively confirm the number of cumulative emotional expressions associated with video content.

図2は、本開示の一実施例に係る情報処理システム230が複数のユーザ端末210_1、210_2、210_3と通信可能であるように連結された構成を示す概要図である。図に示すように、複数のユーザ端末210_1、210_2、210_3は、ネットワーク220を介して、映像コンテンツサービスを提供できる情報処理システム230と連結される。ここで、複数のユーザ端末210_1、210_2、210_3は、映像コンテンツサービスが提供されるユーザの端末を含むことができる。一実施例において、情報処理システム230は、映像コンテンツサービス等と関連付けられたコンピュータ実行可能なプログラム(例えば、ダウンロード可能なアプリケーション)及びデータの保存、提供及び実行できる一つ以上のサーバー装置及び/又はデータベース、或いは、クラウドコンピューティングサービス基盤の一つ以上の分散コンピューティング装置及び/又は分散データベースを含むことができる。 FIG. 2 is a schematic diagram showing a configuration in which an information processing system 230 according to an embodiment of the present disclosure is communicably connected to a plurality of user terminals 210_1, 210_2, and 210_3. As shown in the figure, a plurality of user terminals 210_1, 210_2, and 210_3 are connected via a network 220 to an information processing system 230 that can provide video content services. Here, the plurality of user terminals 210_1, 210_2, and 210_3 may include terminals of users to whom video content services are provided. In one embodiment, information processing system 230 includes one or more server devices and/or servers capable of storing, providing, and executing computer-executable programs (e.g., downloadable applications) and data associated with video content services and the like. The database may include one or more distributed computing devices and/or distributed databases based on cloud computing services.

情報処理システム230により提供される映像コンテンツサービスは、複数のユーザ端末210_1、210_2、210_3の各々にインストールされた映像コンテンツ再生アプリケーションまたはウェブブラウザなどを介して、ユーザに提供できる。例えば、情報処理システム230は、映像コンテンツ再生アプリケーションなどを介して、ユーザ端末210_1、210_2、210_3から受信される映像コンテンツ再生要請、映像コンテンツと関連付けられた情報に対する要請又はユーザの感情表現と関連付けられたユーザ入力などに対応する情報を提供したり、対応する処理を遂行したりできる。 The video content service provided by the information processing system 230 can be provided to the user via a video content playback application or a web browser installed on each of the plurality of user terminals 210_1, 210_2, and 210_3. For example, the information processing system 230 receives video content playback requests from user terminals 210_1, 210_2, and 210_3 via a video content playback application, a request for information associated with video content, or a request for information associated with a user's emotional expression. It can provide information corresponding to user input, etc., and perform corresponding processing.

複数のユーザ端末210_1、210_2、210_3は、ネットワーク220を介して、情報処理システム230と通信できる。ネットワーク220は、複数のユーザ端末210_1、210_2、210_3及び情報処理システム230間の通信が可能であるように構成できる。ネットワーク220は、設置環境に応じて、例えば、イーサネット(Ethernet)(登録商標)、PLC(Power Line Communication)、電話線通信装置及びRS-serial通信などのような有線ネットワーク、移動通信網、WLAN(Wireless LAN)、Wi-Fi(登録商標)、Bluetooth(登録商標)及びZigBeeなどのような無線ネットワーク又はその組合せからなることができる。通信方式は、制限されず、ネットワーク220を含むことができる通信網(例えば、移動通信網、有線インターネット、無線インターネット、放送網、衛星網等)を活用する通信方式だけでなく、ユーザ端末210_1、210_2、210_3間の近距離無線通信も含まれる。 The plurality of user terminals 210_1, 210_2, and 210_3 can communicate with the information processing system 230 via the network 220. The network 220 can be configured to allow communication between the plurality of user terminals 210_1, 210_2, 210_3 and the information processing system 230. Depending on the installation environment, the network 220 may include, for example, a wired network such as Ethernet (registered trademark), PLC (Power Line Communication), telephone line communication equipment, and RS-serial communication, a mobile communication network, and a WLAN (WLAN). Wireless LAN), Wi-Fi, Bluetooth, ZigBee, etc., or a combination thereof. The communication method is not limited to a communication method that utilizes a communication network that can include the network 220 (for example, a mobile communication network, wired Internet, wireless Internet, broadcasting network, satellite network, etc.), as well as a communication method that utilizes the user terminal 210_1, Near field wireless communication between 210_2 and 210_3 is also included.

図2において、携帯電話端末210_1、タブレット端末210_2及びPC端末210_3がユーザ端末の例として示されるが、これに限定されず、ユーザ端末210_1、210_2、210_3は、有線及び/又は無線通信が可能であり、映像コンテンツ再生アプリケーションまたはウェブブラウザなどがインストールされて実行できる任意のコンピューティング装置であり得る。例えば、ユーザ端末は、スマートフォン、携帯電話、ナビゲーション、コンピュータ、ノートブック、デジタル放送用端末、PDA(Personal Digital Assistants)、PMP(Portable Multimedia Player)、タブレットPC、ゲームコンソール(game console)、ウェアラブルデバイス(wearable device)、IoT(internet of things)デバイス、VR(仮想現実(virtual reality))デバイス及びAR(拡張現実(augmented reality))デバイス、セットトップボックスなどを含むことができる。また、図2では、3つのユーザ端末210_1、210_2、210_3が、ネットワーク220を介して情報処理システム230と通信するものと示されるが、これに限定されず、異なる数のユーザ端末がネットワーク220を介して情報処理システム230と通信するように構成されることもできる。 In FIG. 2, a mobile phone terminal 210_1, a tablet terminal 210_2, and a PC terminal 210_3 are shown as examples of user terminals, but the user terminals 210_1, 210_2, and 210_3 are capable of wired and/or wireless communication. It can be any computing device on which a video content playback application, a web browser, or the like can be installed and run. For example, user terminals include smartphones, mobile phones, navigation systems, computers, notebooks, digital broadcast terminals, PDAs (Personal Digital Assistants), PMPs (Portable Multimedia Players), tablet PCs, game consoles, wearable devices ( wearable devices), IoT (internet of things) devices, VR (virtual reality) and AR (augmented reality) devices, set-top boxes, etc. Further, although FIG. 2 shows three user terminals 210_1, 210_2, and 210_3 communicating with the information processing system 230 via the network 220, the present invention is not limited to this, and different numbers of user terminals may communicate with the information processing system 230 via the network 220. The information handling system 230 may also be configured to communicate with the information handling system 230 via the computer.

一実施例によれば、情報処理システム230は、複数のユーザ端末210_1、210_2、210_3からユーザの感情表現と関連付けられたユーザ入力を受信できる。その後、情報処理システム230は、各ユーザ入力、映像コンテンツと関連付けられた累積感情表現の個数、又は視覚的エフェクトと関連付けられたデータ乃至設定値を複数のユーザ端末210_1、210_2、210_3に提供できる。 According to one embodiment, the information processing system 230 can receive user input associated with the user's emotional expression from the plurality of user terminals 210_1, 210_2, and 210_3. Thereafter, the information processing system 230 may provide data or settings associated with each user input, the number of cumulative emotional expressions associated with the video content, or the visual effect to the plurality of user terminals 210_1, 210_2, and 210_3.

図3は、本開示の一実施例に係るユーザ端末210及び情報処理システム230の内部構成を示すブロック図である。ユーザ端末210は、映像コンテンツ再生アプリケーションまたはウェブブラウザなどが実行可能であり、有/無線通信が可能な任意のコンピューティング装置を称することができ、例えば、図2の携帯電話端末210_1、タブレット端末210_2及びPC端末210_3などを含むことができる。図に示すように、ユーザ端末210は、メモリ312、プロセッサ314、通信モジュール316及び入出力インタフェース318を含むことができる。これと同様に、情報処理システム230は、メモリ332、プロセッサ334、通信モジュール336及び入出力インタフェース338を含むことができる。図3に示すように、ユーザ端末210及び情報処理システム230は、各々の通信モジュール316、336を用いて、ネットワーク220を介して情報及び/又はデータが通信できるように構成できる。また、入出力装置320は、入出力インタフェース318を介して、ユーザ端末210に情報及び/又はデータを入力したり、ユーザ端末210から生成された情報及び/又はデータを出力したりするように構成できる。 FIG. 3 is a block diagram showing the internal configuration of the user terminal 210 and the information processing system 230 according to an embodiment of the present disclosure. The user terminal 210 can be any computing device that can execute a video content playback application or a web browser, and can perform wired/wireless communication, such as the mobile phone terminal 210_1 and the tablet terminal 210_2 in FIG. and a PC terminal 210_3. As shown, user terminal 210 may include memory 312, processor 314, communication module 316, and input/output interface 318. Similarly, information handling system 230 may include memory 332, processor 334, communication module 336, and input/output interface 338. As shown in FIG. 3, user terminal 210 and information handling system 230 can be configured to communicate information and/or data over network 220 using respective communication modules 316, 336. The input/output device 320 is also configured to input information and/or data to the user terminal 210 and output information and/or data generated from the user terminal 210 via the input/output interface 318. can.

メモリ312、332は、非一時的な任意のコンピュータ読取り可能な記録媒体を含むことができる。一実施例によれば、メモリ312、332は、ROM(read only memory)、ディスクドライブ、SSD(solid state drive)、及びフラッシュメモリ(flash memory)などのような永久的な大容量ストレージ装置(permanent mass storage device)を含むことができる。他の例として、ROM、SSD、フラッシュメモリ及びディスクドライブなどのような永久的な大容量ストレージ装置は、メモリとは区分される別個の永久ストレージ装置としてユーザ端末210又は情報処理システム230に含まれ得る。また、メモリ312、332には、オペレーティングシステムと少なくとも一つのプログラムコード(例えば、ユーザ端末210にインストールされて駆動される映像コンテンツ再生アプリケーションなどのためのコード)が保存され得る。 Memory 312, 332 may include any non-transitory computer readable storage medium. According to one embodiment, the memories 312, 332 include permanent mass storage devices such as read only memory (ROM), disk drives, solid state drives (SSD), flash memory, and the like. mass storage device). As another example, permanent mass storage devices such as ROM, SSD, flash memory, disk drives, etc. may be included in user terminal 210 or information handling system 230 as a separate permanent storage device separate from memory. obtain. The memories 312 and 332 may also store an operating system and at least one program code (eg, code for a video content playback application installed and run on the user terminal 210).

このようなソフトウェア構成要素は、メモリ312、332とは別個のコンピュータ読取り可能な記録媒体からローディングできる。このような別個のコンピュータ読取り可能な記録媒体は、このようなユーザ端末210及び情報処理システム230に直接連結可能な記録媒体を含むことができ、例えば、フロッピー(登録商標)ドライブ、ディスク、テープ、DVD/CD-ROMドライブ、及びメモリカードなどのようなコンピュータ読取り可能な記録媒体を含むことができる。他の例として、ソフトウェア構成要素等は、コンピュータ読取り可能な記録媒体ではなく、通信モジュールを介して、メモリ312、332にローディングできる。例えば、少なくとも一つのプログラムは、開発者又はアプリケーションのインストールファイルを配信するファイル配信システムが、ネットワーク220を介して提供するファイルによりインストールされるコンピュータプログラムに基づいて、メモリ312、332にローディングできる。 Such software components may be loaded from a computer readable storage medium separate from memory 312, 332. Such separate computer-readable storage media can include storage media directly coupled to such user terminals 210 and information handling systems 230, such as floppy drives, disks, tapes, etc. It can include computer readable storage media such as DVD/CD-ROM drives, memory cards, and the like. As another example, software components or the like may be loaded into memory 312, 332 via a communication module rather than a computer-readable storage medium. For example, at least one program can be loaded into memory 312, 332 based on a computer program being installed by a file provided over network 220 by a developer or a file distribution system that distributes application installation files.

プロセッサ314、334は、基本的な算術、ロジック及び入出力演算を遂行することで、コンピュータプログラムの命令を処理するように構成できる。命令は、メモリ312、332又は通信モジュール316、336により、プロセッサ314、334に提供され得る。例えば、プロセッサ314、334は、メモリ312、332のような記録装置に保存されたプログラムコードによって受信される命令を実行するように構成できる。 Processors 314, 334 may be configured to process instructions of a computer program by performing basic arithmetic, logic, and input/output operations. Instructions may be provided to the processor 314, 334 by a memory 312, 332 or a communication module 316, 336. For example, processors 314, 334 may be configured to execute instructions received by program code stored in a storage device, such as memory 312, 332.

通信モジュール316、336は、ネットワーク220を介して、ユーザ端末210と情報処理システム230とが互いに通信するための構成や機能が提供でき、ユーザ端末210及び/又は情報処理システム230が、他のユーザ端末又は他のシステム(例えば、別個のクラウドシステムなど)と通信するための構成や機能を提供できる。一例として、ユーザ端末210のプロセッサ314がメモリ312などのような記録装置に保存されたプログラムコードによって生成した要請やデータ(例えば、映像コンテンツ再生要請、ユーザの感情表現と関連付けられたユーザ入力、又はこれと関連付けられたデータなど)は、通信モジュール316の制御により、ネットワーク220を介して情報処理システム230に伝達され得る。反対に、情報処理システム230のプロセッサ334の制御により提供される制御信号や命令が、通信モジュール336及びネットワーク220を経て、ユーザ端末210の通信モジュール316を介してユーザ端末210に受信され得る。例えば、ユーザ端末210は、情報処理システム230から通信モジュール316を介して、他のユーザの感情表現と関連付けられたデータ、または、映像コンテンツに係る累積感情表現の個数と関連付けられたデータなどを受信できる。 The communication modules 316 and 336 can provide configurations and functions for the user terminal 210 and the information processing system 230 to communicate with each other via the network 220, and allow the user terminal 210 and/or the information processing system 230 to communicate with other users. It can provide configuration and functionality for communicating with a terminal or other systems (eg, a separate cloud system, etc.). By way of example, a request or data (e.g., a request to play video content, a user input associated with a user's emotional expression, or data associated therewith) may be communicated to information handling system 230 via network 220 under control of communication module 316 . Conversely, control signals and instructions provided by control of processor 334 of information handling system 230 may be received by user terminal 210 via communication module 316 of user terminal 210 via communication module 336 and network 220 . For example, the user terminal 210 receives data associated with other users' emotional expressions, data associated with the cumulative number of emotional expressions related to video content, etc. from the information processing system 230 via the communication module 316. can.

入出力インタフェース318は、入出力装置320とのインタフェースのための手段であり得る。一例として、入力装置は、オーディオセンサ及び/又はイメージセンサを含むカメラ、キーボード、マイクロホン、マウスなどのような装置を含み、出力装置は、ディスプレイ、スピーカー、ハプティックフィードバックデバイス(haptic feedback device)などのような装置を含むことができる。他の例として、入出力インタフェース318は、タッチスクリーンなどのように入力及び出力を遂行するための構成又は機能が一つで統合された装置とのインタフェースのための手段であり得る。例えば、ユーザ端末210のプロセッサ314がメモリ312にローディングされたコンピュータプログラムの命令を処理する際に、情報処理システム230や他のユーザ端末が提供する情報及び/又はデータを用いて構成されるサービス画面などが、入出力インタフェース318を介してディスプレイに表示され得る。図3では、入出力装置320がユーザ端末210に含まれないように示されるが、これに限定されず、ユーザ端末210と一体に構成することもできる。また、情報処理システム230の入出力インタフェース338は、情報処理システム230と連結する又は情報処理システム230が含むことのできる入力や出力のための装置(図示せず)とのインタフェースのための手段であり得る。図3では、入出力インタフェース318、338をプロセッサ314、334と別個に構成された要素として示されるが、これに限定されず、入出力インタフェース318、338がプロセッサ314、334に含まれるように構成することもできる。 Input/output interface 318 may be a means for interfacing with input/output device 320. By way of example, input devices include devices such as cameras, keyboards, microphones, mice, etc., including audio and/or image sensors, and output devices include devices such as displays, speakers, haptic feedback devices, etc. equipment. As another example, input/output interface 318 may be a means for interfacing with a device that has an integrated structure or function for performing input and output, such as a touch screen. For example, when the processor 314 of the user terminal 210 processes instructions of a computer program loaded into the memory 312, a service screen is configured using information and/or data provided by the information processing system 230 and other user terminals. etc. may be displayed on the display via the input/output interface 318. Although the input/output device 320 is shown not to be included in the user terminal 210 in FIG. 3, the input/output device 320 is not limited to this, and may be configured integrally with the user terminal 210. The input/output interface 338 of the information processing system 230 is a means for interfacing with an input or output device (not shown) that is connected to the information processing system 230 or that the information processing system 230 can include. could be. Although the input/output interfaces 318, 338 are shown in FIG. 3 as elements configured separately from the processors 314, 334, the input/output interfaces 318, 338 may be configured to be included in the processors 314, 334. You can also.

ユーザ端末210及び情報処理システム230は、図3に示す構成要素よりも多くの構成要素を含むことができる。しかしながら、大部分の従来技術的構成要素を明確に示す必要はない。一実施例によれば、ユーザ端末210は、前述した入出力装置320の少なくとも一部を含むように具現化できる。また、ユーザ端末210は、トランシーバー(transceiver)、GPS(Global Positioning system)モジュール、カメラ、各種センサ及びデータベースなどのような他の構成要素をさらに含むことができる。例えば、ユーザ端末210がスマートフォンである場合、一般に、スマートフォンが持つ構成要素を含むことができ、例えば、加速度センサ、ジャイロセンサ、カメラモジュール、各種物理的なボタン、タッチパネルを用いたボタン、入出力ポート、及び振動のための振動器などのような多様な構成要素が、ユーザ端末210にさらに含まれるように具現化できる。 User terminal 210 and information processing system 230 may include more components than those shown in FIG. However, most prior art components need not be explicitly shown. According to one embodiment, the user terminal 210 may be implemented to include at least a portion of the input/output device 320 described above. In addition, the user terminal 210 may further include other components such as a transceiver, a global positioning system (GPS) module, a camera, various sensors, and a database. For example, when the user terminal 210 is a smartphone, it can generally include components that a smartphone has, such as an acceleration sensor, a gyro sensor, a camera module, various physical buttons, buttons using a touch panel, and input/output ports. , a vibrator for vibration, etc., may be further included in the user terminal 210.

図4は、本開示の一実施例に係るユーザインタフェース400の細部領域を示す図である。図に示すように、ユーザインタフェース400は、第1の領域410、第2の領域420及び第3の領域430を含むことができる。各領域410、420、430は、これに限定されず、その位置や大きさが図4に示すものと異なるように構成されることもできる。 FIG. 4 is a diagram illustrating detailed areas of a user interface 400 according to one embodiment of the present disclosure. As shown, the user interface 400 can include a first area 410, a second area 420, and a third area 430. The regions 410, 420, and 430 are not limited to this, and the positions and sizes of the regions 410, 420, and 430 may be different from those shown in FIG. 4.

第1の領域410には映像コンテンツを出力できる。第2の領域420には映像コンテンツと関連付けられたチャットコンテンツを出力できる。チャットコンテンツは、映像コンテンツを視聴しているユーザ等のリアルタイムチャットや公知事項や主要通知などを含むことができる。第2の領域420は、チャットコンテンツが出力される第1のレイヤと、視覚的エフェクトが出力される第2のレイヤとを含むことができる。ここで、第1のレイヤは、第2のレイヤよりも上位レイヤであり得る。 Video content can be output to the first area 410. Chat content associated with the video content can be output to the second area 420. Chat content can include real-time chats of users viewing video content, public notices, major notifications, and the like. The second area 420 may include a first layer where chat content is output and a second layer where visual effects are output. Here, the first layer may be a higher layer than the second layer.

第2のレイヤに出力される視覚的エフェクトは、映像コンテンツを視聴しているユーザ等が「いいね」ボタンを選択する場合に出力される感情表現と関連付けられた視覚的エフェクト、及び、映像コンテンツに係る累積感情表現の個数と関連付けられた視覚的エフェクトを含むことができる。前述したように、映像コンテンツに係る累積感情表現の個数と関連付けられた視覚的エフェクトは、累積感情表現の個数に基づいて視覚的属性が変化し得る。第2のレイヤは、背景色/背景イメージを有し、既定の透明度を有することができる。一例において、第2のレイヤの透明度は、下段から上段へ行くほど高くなる。 The visual effects output to the second layer include visual effects associated with emotional expressions that are output when a user viewing the video content selects the "Like" button, and the video content. may include a visual effect associated with the cumulative number of emotional expressions. As described above, the visual attributes of the visual effects associated with the cumulative number of emotional expressions related to video content may change based on the cumulative number of emotional expressions. The second layer has a background color/background image and can have a default transparency. In one example, the transparency of the second layer increases from the bottom to the top.

一実施例において、映像コンテンツが出力される第1の領域410と、チャットコンテンツが出力される第2の領域420とは、一部重なることができる。このとき、第2の領域420は、映像コンテンツの一部が出力される第3のレイヤをさらに含むことができる。第2のレイヤは、第3のレイヤよりも上位レイヤであり得る。このような構成により、映像コンテンツが表示される第1の領域410を極大化すると同時に、ユーザが第2の領域420を介してチャットコンテンツ及び視覚的エフェクトの両方を確認できる。 In one embodiment, a first area 410 where video content is output and a second area 420 where chat content is output may partially overlap. At this time, the second area 420 may further include a third layer to which a portion of the video content is output. The second layer may be a higher layer than the third layer. With this configuration, the first area 410 in which video content is displayed can be maximized, and at the same time, the user can view both chat content and visual effects through the second area 420.

第3の領域430には、「いいね」ボタンを含む多様なボタン/アイコンを表示できる。ユーザが第3の領域430内の「いいね」ボタンをクリックする場合、第2の領域420に感情表現と関連付けられた視覚的エフェクトを出力できる。付加的又は代替的に、ユーザが第3の領域430内の「いいね」ボタンをクリックする場合、第3の領域430内に感情表現と関連付けられたエフェクトを出力でき、これについては図5で後述する。一実施例において、映像コンテンツが出力される第1の領域410と第3の領域430とは、一部重なることができる。このとき、第3の領域430に含まれた多様なボタン/アイコンが映像コンテンツ上に出力され得る。 The third area 430 may display various buttons/icons including a "like" button. If the user clicks on the "like" button in the third area 430, a visual effect associated with the emotional expression may be output in the second area 420. Additionally or alternatively, if the user clicks on the "Like" button in the third area 430, an effect associated with the emotional expression can be output in the third area 430, as described in FIG. This will be explained later. In one embodiment, the first area 410 and the third area 430 where video content is output may partially overlap. At this time, various buttons/icons included in the third area 430 may be output on the video content.

図5は、本開示の一実施例に係るユーザの感情表現と関連付けられたエフェクトが表示される例を示す図である。第1の動作510は、映像コンテンツを視聴している他のユーザが「いいね」ボタンを選択する場合、他のユーザの感情表現と関連付けられた第1の視覚的エフェクト512が、ディスプレイの第2の領域514に出力される例を示す。第2の領域514には、他のユーザ等の感情表現と関連付けられた複数の視覚的エフェクトを出力できる。このような構成により、ユーザは、他のユーザ等の映像コンテンツに対する呼応度を視覚的に把握できる。図に示すように、他のユーザが「いいね」ボタンを選択する場合、第3の領域516には視覚的エフェクトが出力されない。 FIG. 5 is a diagram illustrating an example in which effects associated with a user's emotional expression are displayed according to an embodiment of the present disclosure. The first operation 510 is that when another user viewing the video content selects the "Like" button, a first visual effect 512 associated with the other user's emotional expression is displayed as the first visual effect 512 on the display. An example of output to area 514 of No. 2 is shown. A plurality of visual effects associated with emotional expressions of other users, etc. can be output to the second area 514. With such a configuration, the user can visually grasp the degree of response to the video content of other users. As shown, if another user selects the "Like" button, no visual effect is output to the third area 516.

一実施例において、映像コンテンツを視聴しているユーザ等が一定時間の間にクリックする「いいね」ボタンの数が、既定の閾値を超過する場合、第1の視覚的エフェクト512の大きさが小さくなったり、持続時間が短くなったりできる。このような構成により、第1の視覚的エフェクト512が、第2の領域に過度に出力されたり、過度に多くの領域を占有したりするという問題や、ユーザの視覚的疲労を防止できる。 In one embodiment, if the number of "like" buttons clicked by a user or the like during a certain period of time while viewing video content exceeds a predetermined threshold, the magnitude of the first visual effect 512 may be increased. It can become smaller and last less long. Such a configuration can prevent the problem of the first visual effect 512 being excessively output to the second area or occupying an excessively large area, and the user's visual fatigue.

第2の動作520は、ユーザが「いいね」ボタン524を選択するとき、ユーザの感情表現と関連付けられた第2の視覚的エフェクト526がディスプレイの第2の領域514に出力され、ユーザの感情表現と関連付けられた第3の視覚的エフェクト528がディスプレイの第3の領域516に出力される例を示す。例えば、ディスプレイの第3の領域516に出力される第3の視覚的エフェクト528は、少なくとも一つの視覚的エフェクト(例えば、ハート形状の視覚的エフェクト)が第3の領域の下段から上段へ上昇するモーションを含むアニメーションであり得る。このような構成により、ユーザは、自分の感情表現を他のユーザの感情表現と容易に区別でき、このような構成は、ユーザが「いいね」ボタン524を積極的にクリックするようにして、チャット参加の以外にもユーザの能動的な感情表現を誘導できる。 A second operation 520 is such that when the user selects the "Like" button 524, a second visual effect 526 associated with the user's emotional expression is output to the second region 514 of the display, and the user's emotional expression An example is shown in which a third visual effect 528 associated with the representation is output to the third area 516 of the display. For example, the third visual effect 528 output to the third area 516 of the display may include at least one visual effect (e.g., a heart-shaped visual effect) rising from the bottom to the top of the third area. It can be an animation that includes motion. Such a configuration allows the user to easily distinguish his or her emotional expression from that of other users, and such a configuration may encourage the user to actively click the "Like" button 524. In addition to chat participation, users can be encouraged to actively express their emotions.

一実施例において、ディスプレイの第3の領域516に出力される第3の視覚的エフェクト528は、ディスプレイの第2の領域514に出力される第1の視覚的エフェクト512及び第2の視覚的エフェクト526と異なる属性を有することができる。例えば、第3の視覚的エフェクト528は、第1及び第2の視覚的エフェクト512、526と異なる形状、色相、透明度、ブラー処理程度、大きさ、アニメーション効果などを有することができる。付加的又は代替的に、第3の視覚的エフェクト528は、第1及び第2の視覚的エフェクト512、526よりも長い持続時間にわたって出力され得る。 In one example, the third visual effect 528 output to the third area 516 of the display is the first visual effect 512 and the second visual effect output to the second area 514 of the display. 526 and different attributes. For example, the third visual effect 528 can have a different shape, hue, transparency, degree of blurring, size, animation effect, etc. than the first and second visual effects 512, 526. Additionally or alternatively, the third visual effect 528 may be output for a longer duration than the first and second visual effects 512, 526.

一実施例において、第3の視覚的エフェクト528は、第3の領域516の最上段レイヤに出力できる。したがって、第3の視覚的エフェクト528は、第3の領域516で表示される多様なボタン/アイコンにより遮られず、ユーザは自分がクリックした「いいね」ボタンと関連付けられたフィードバックを容易に確認できる。 In one example, the third visual effect 528 can be output to the top layer of the third region 516. Therefore, the third visual effect 528 is not obstructed by the various buttons/icons displayed in the third region 516, and the user can easily see the feedback associated with the "like" button he or she clicks. can.

前述したように、ユーザが「いいね」ボタンを選択する場合と、他のユーザが「いいね」ボタンを選択する場合との視覚的エフェクトを異なるようにし、ユーザの視覚的エフェクトを特に強調することで、ユーザは、自分の感情表現が他のユーザの感情表現に対して差別化すると認識できる。すなわち、ユーザは、ディスプレイの第3の領域516に表示される視覚的エフェクトにより自分の感情表現を直ぐに確認し、ディスプレイの第2の領域514に表示される視覚的エフェクトにより映像コンテンツを視聴している全てのユーザの感情表現を直ぐに確認できる。 As mentioned above, the visual effect when a user selects the "Like" button is different from when another user selects the "Like" button, so that the visual effect for the user is particularly emphasized. This allows the user to recognize that his or her emotional expression is differentiated from the emotional expressions of other users. That is, the user can immediately confirm his or her emotional expression through the visual effects displayed in the third area 516 of the display, and can view and listen to the video content through the visual effects displayed in the second area 514 of the display. You can immediately check the emotional expressions of all users.

図6は、本開示の一実施例に係る累積感情表現の個数の増加による視覚的エフェクト612、622、634、636の出力例を示す図である。第1の動作610及び第2の動作620に示すように、映像コンテンツの累積感情表現の個数が増加すれば、視覚的エフェクト612、622の大きさも増加する。また、第3の動作630に示すように、映像コンテンツの累積感情表現の個数が既定の目標値に到達すれば、これと関連付けられた視覚的エフェクト634、636が出力され得る。このような構成により、ライブ放送ホストやユーザ等は、映像コンテンツの累積感情表現の個数が増加し、目標値に到達することを直観的に確認できる。 FIG. 6 is a diagram illustrating output examples of visual effects 612, 622, 634, and 636 due to an increase in the number of cumulative emotional expressions according to an embodiment of the present disclosure. As shown in the first operation 610 and the second operation 620, as the number of cumulative emotional expressions of the video content increases, the magnitude of the visual effects 612 and 622 also increases. Further, as shown in a third operation 630, if the number of cumulative emotional expressions of the video content reaches a predetermined target value, visual effects 634 and 636 associated therewith may be output. With such a configuration, the live broadcast host, user, etc. can intuitively confirm that the number of cumulative emotional expressions in the video content increases and reaches the target value.

第1の動作610は、映像コンテンツの開始時点に、映像コンテンツの累積感情表現の個数と関連付けられた視覚的エフェクト612が、ディスプレイの第2の領域614に出力される例を示す。ここで、映像コンテンツの累積感情表現の個数は0であり、累積感情表現の個数が増加すれば、視覚的エフェクト612の大きさも増加する。視覚的エフェクト612は、第2の領域614内における任意の位置に出力でき、望ましくは第2の領域614の中央に出力できる。 A first operation 610 illustrates an example in which, at the beginning of the video content, a visual effect 612 associated with the number of cumulative emotional expressions of the video content is output to a second region 614 of the display. Here, the number of cumulative emotional expressions of the video content is 0, and as the number of cumulative emotional expressions increases, the size of the visual effect 612 also increases. The visual effect 612 can be output anywhere within the second area 614, preferably in the center of the second area 614.

第2の動作620は、映像コンテンツの進行によって、映像コンテンツの累積感情表現の個数が増加して、初期の視覚的エフェクト612よりも大きくなった視覚的エフェクト622が、ディスプレイの第2の領域614に出力される例を示す。一実施例において、視覚的エフェクト622の大きさは、現在の累積感情表現の個数及び目標値間の比率に基づいて決定できる。例えば、目標値が1,000であり、現在の累積感情表現の個数が500である場合、視覚的エフェクト622の大きさは最大の大きさの半分であり得る。図6では、視覚的エフェクト622の大きさが、視覚的エフェクト612の大きさよりも大きいものと示されるが、これに限定されず、映像コンテンツの累積感情表現の個数の増加によって、視覚的エフェクトの色相、透明度またはブラー処理程度などの視覚的属性が変化し得る。例えば、累積感情表現の個数の増加によって、視覚的エフェクトの透明度が徐々に減少して、視覚的エフェクトが益々鮮明に出力され得る。 The second operation 620 is such that as the video content progresses, the number of cumulative emotional expressions of the video content increases, and a visual effect 622 that is larger than the initial visual effect 612 is displayed in a second area 614 of the display. An example of the output is shown below. In one embodiment, the magnitude of the visual effect 622 may be determined based on the ratio between the current cumulative number of emotional expressions and a target value. For example, if the target value is 1,000 and the current number of cumulative emotional expressions is 500, the size of visual effect 622 may be half of the maximum size. Although the size of the visual effect 622 is shown to be larger than the size of the visual effect 612 in FIG. 6, the size of the visual effect 622 is not limited to this. Visual attributes such as hue, transparency or degree of blurring may change. For example, as the number of cumulative emotional expressions increases, the transparency of the visual effect may gradually decrease, and the visual effect may be output more clearly.

第3の動作630は、累積感情表現の個数が既定の目標値(例えば、1,000)に到達して、ディスプレイの第1の領域632において、視覚的エフェクト634、636が出力される例を示す。一実施例において、視覚的エフェクト634は、既定の形状、大きさ、色相を有し、既定のアニメーション効果が適用される。また、視覚的エフェクト634は、映像コンテンツが出力される第1の領域632内における任意の位置に出力でき、望ましくは第1の領域632の中央に出力できる。 The third operation 630 provides an example in which the number of cumulative emotional expressions reaches a predetermined target value (e.g., 1,000) and visual effects 634, 636 are output in the first region 632 of the display. show. In one example, visual effects 634 have a predetermined shape, size, hue, and have predetermined animation effects applied. Additionally, the visual effect 634 can be output at any position within the first area 632 where the video content is output, preferably at the center of the first area 632.

一実施例において、既定の目標値を示す視覚的エフェクト636(例えば、テキストやイメージなど)が、視覚的エフェクト634と一緒に表示され得る。例えば、視覚的エフェクト636には、「1,000」、「1K」、「1M」などのような形態で数字を表示するか、または、ユーザが特定個数を示すものと認知すべき記号や図形(例えば、各々100個を示す複数の星形状の図形)が表示され得る。 In one example, a visual effect 636 (eg, text, image, etc.) indicating a predetermined target value may be displayed along with visual effect 634. For example, the visual effects 636 may display numbers in the form of "1,000", "1K", "1M", etc., or may include symbols or graphics that the user should recognize as indicating a specific number. (eg, a plurality of star-shaped figures each indicating 100 pieces) may be displayed.

一実施例において、第1の領域632は、映像コンテンツが出力される第1のレイヤと、視覚的エフェクト634、636が出力される第2のレイヤとを含むことができる。ここで、第2のレイヤは、第1のレイヤよりも上位レイヤであり得る。このような構成により、ユーザは、累積感情表現の個数が既定の目標値に到達したことを明確に認知できる。 In one example, the first region 632 can include a first layer in which video content is output and a second layer in which visual effects 634, 636 are output. Here, the second layer may be a higher layer than the first layer. With this configuration, the user can clearly recognize that the number of cumulative emotional expressions has reached the predetermined target value.

一実施例において、第1の領域632において視覚的エフェクト634を出力する前に、そして第2の領域614において視覚的エフェクトを出力した後に、第2の領域614において出力される視覚的エフェクトと、第1の領域632において出力される視覚的エフェクト634とを途切れなく(seamlessly)連結するための連結視覚的エフェクトを出力できる。例えば、第2の領域614に出力される視覚的エフェクトが第1の領域632に上昇した後、視覚的エフェクト634が出力され得る。このような構成により、累積感情表現の個数が目標値を達成するとき、第2の領域614及び第1の領域632において出力される視覚的エフェクト間の連結性を付与できる。 In one example, before outputting the visual effect 634 in the first area 632 and after outputting the visual effect in the second area 614, a visual effect is output in the second area 614; A connected visual effect can be output to seamlessly connect the visual effect 634 output in the first region 632. For example, visual effect 634 may be output after the visual effect output to second area 614 rises to first area 632. With this configuration, connectivity can be provided between the visual effects output in the second area 614 and the first area 632 when the number of cumulative emotional expressions reaches the target value.

図7は、本開示の一実施例に係るチャットコンテンツが出力される領域に表示される視覚的エフェクトの設定値700の例を示す図である。図に示すように、設定値700は、視覚的エフェクトの種類、大きさの範囲、透明度の範囲、ブラー処理の範囲または持続時間の範囲の少なくとも一つを含むことができる。映像コンテンツサービスの管理者や映像コンテンツ管理者は、設定値700の一部を修正又は削除したり、設定値700に新規のデータを追加したりできる。例えば、管理者は、多数の視聴者の流入が予想される映像コンテンツの場合、視覚的エフェクトの持続時間区間を基本値よりも短く設定できる。 FIG. 7 is a diagram illustrating an example of visual effect setting values 700 displayed in an area where chat content is output according to an embodiment of the present disclosure. As shown, the settings 700 may include at least one of a visual effect type, a size range, a transparency range, a blurring range, or a duration range. The administrator of the video content service or the video content manager can modify or delete a part of the setting values 700 or add new data to the setting values 700. For example, in the case of video content that is expected to attract a large number of viewers, the administrator can set the duration period of the visual effect to be shorter than the basic value.

ユーザ端末を介して映像コンテンツが再生される場合、ユーザ端末のディスプレイ上に設定値700内のデータに基づいた視覚的エフェクトを出力できる。ユーザ端末は、情報処理システムから設定値700の全部又は一部を受信したり、設定値700の全部又は一部が反映された映像又は視覚的エフェクトデータを受信したりして、設定値700内のデータに基づいた視覚的エフェクトを映像コンテンツと一緒に出力できる。 When video content is played through the user terminal, a visual effect based on the data in the settings 700 can be output on the display of the user terminal. The user terminal receives all or part of the setting value 700 from the information processing system, or receives video or visual effect data reflecting all or part of the setting value 700, and changes the setting value 700 to within the setting value 700. Visual effects based on data can be output together with video content.

図7に示す設定値700内のデータ等は、例示に過ぎず、これに限定されるものではない。例えば、視覚的エフェクトの種類は、ハート形状及び星形状に限定されず、円形状などのような様々な形状を含むことができる。設定値700と類似に、ディスプレイの第3の領域に出力される視覚的エフェクトと関連付けられた多様な設定値が、映像コンテンツサービスの管理者や映像コンテンツ管理者により保存され得る。 The data and the like in the setting values 700 shown in FIG. 7 are merely examples, and the present invention is not limited thereto. For example, the types of visual effects are not limited to heart shapes and star shapes, but can include various shapes such as circular shapes and the like. Similar to settings 700, various settings associated with visual effects output to the third area of the display may be saved by a video content service administrator or video content administrator.

図8は、本開示の一実施例に係る映像コンテンツの累積感情表現の個数と関連付けられた視覚的エフェクトの設定値800の例を示す図である。図に示すように、設定値800は、視覚的エフェクトの種類、最初の位置、以後の位置、最大の大きさ、色相、透明度、ブラー処理、目標ユーザ入力の個数、大きさ変換区間などを含むことができる。設定値800及び累積感情表現の個数に基づいて、映像コンテンツの累積感情表現の個数と関連付けられた視覚的エフェクトの視覚的属性が変化し得る。映像コンテンツサービスの管理者や映像コンテンツの管理者は、設定値800の一部を修正又は削除したり、設定値800に新規のデータを追加したりできる。例えば、管理者は、多数の視聴者の流入が予想される場合、累積感情表現の個数の目標値を基本値よりも高く設定できる。 FIG. 8 is a diagram illustrating an example of visual effect setting values 800 associated with the cumulative number of emotional expressions of video content according to an embodiment of the present disclosure. As shown in the figure, the settings 800 include the type of visual effect, initial position, subsequent position, maximum size, hue, transparency, blurring, target number of user inputs, size transformation interval, etc. be able to. Based on the setting value 800 and the number of cumulative emotional expressions, visual attributes of the visual effect associated with the number of cumulative emotional expressions of the video content may change. The administrator of the video content service or the administrator of the video content can modify or delete a part of the setting values 800 or add new data to the setting values 800. For example, if an influx of a large number of viewers is expected, the administrator can set the target value for the number of cumulative emotional expressions higher than the basic value.

ユーザ端末を介して映像コンテンツが再生される場合、ユーザ端末のディスプレイ上に設定値800内のデータに基づいた視覚的エフェクトを出力できる。ユーザ端末は、情報処理システムから設定値800の全部又は一部を受信したり、設定値800の全部又は一部が反映された映像又は視覚的エフェクトデータを受信したりして、設定値800内のデータに基づいた視覚的エフェクトを映像コンテンツと一緒に出力できる。 When the video content is played through the user terminal, a visual effect based on the data in the settings 800 can be output on the display of the user terminal. The user terminal receives all or part of the setting value 800 from the information processing system, or receives video or visual effect data reflecting all or part of the setting value 800, and changes the setting value 800 to within the setting value 800. Visual effects based on data can be output together with video content.

一実施例において、設定値800は、累積感情表現の個数が既定の目標値に到達する前後の視覚的エフェクトの位置と関連付けられた情報を含むことができる。例えば、設定値800は、累積感情表現の個数と関連付けられた視覚的エフェクトの位置、及び、累積感情表現の個数の目標到達と関連付けられた視覚的エフェクトの位置に係る情報を含むことができる。位置に係る情報は、座標値(例えば、X:150、Y:30)を含むことのできるが、これに限定されず、位置を特定できるいかなる形式の情報も含むことができる。また、最初の位置及び以後の位置だけでなく、多様な動きを含むための様々な位置情報を含むことができる。 In one embodiment, the setting value 800 may include information associated with the position of the visual effect before and after the number of cumulative emotional expressions reaches a predetermined target value. For example, the setting value 800 may include information regarding a position of a visual effect associated with the number of cumulative emotional expressions and a position of a visual effect associated with reaching a goal of the number of cumulative emotional expressions. The information regarding the location may include coordinate values (eg, X: 150, Y: 30), but is not limited thereto, and may include any type of information that can specify the location. In addition, various position information including not only the initial position and subsequent positions but also various movements may be included.

一実施例において、設定値800は、累積感情表現の個数の目標値、及び、視覚的エフェクトの視覚的属性が変化する細部区間に係る情報を含むことができる。例えば、目標値が2,000、第1の区間値が500、第2の区間値が1,000及び第3の区間値が1,500に設定できる。このとき、累積感情表現の個数が各々500個、1,000個、1,500個に到達する毎に、視覚的エフェクトはその大きさが益々増加し、2,000個に到達すれば、目標達成と関連付けられた視覚的エフェクトを出力できる。細部区間の個数は管理者が設定でき、細部区間の分割なしに累積感情表現の個数に比例して個数毎に視覚的属性が変化するように設定できる。また、目標値の前まで視覚的属性が変化しなくて、目標値の到達と同時に目標値の到達と関連付けられた視覚的エフェクトが出力されるように設定できる。細部区間値は、前述したように、累積感情表現の個数(例えば、500)で表現できるか、または、目標値を最大値とするパーセント値で表現できる。例えば、目標値が2,000、区間値が30%である場合、累積感情表現の個数が600個に到達すれば、視覚的エフェクトの視覚的属性が変化し得る。 In one embodiment, the setting value 800 may include information regarding a target value for the number of cumulative emotional expressions and a detailed section in which visual attributes of the visual effect change. For example, the target value can be set to 2,000, the first interval value to 500, the second interval value to 1,000, and the third interval value to 1,500. At this time, each time the cumulative number of emotional expressions reaches 500, 1,000, and 1,500, the size of the visual effect increases, and when it reaches 2,000, the goal is reached. Visual effects associated with achievements can be output. The number of detailed sections can be set by the administrator, and the visual attributes can be set to change for each number in proportion to the number of cumulative emotional expressions without dividing the detailed sections. Further, it can be set so that the visual attribute does not change until the target value is reached, and a visual effect associated with reaching the target value is output at the same time as the target value is reached. As described above, the detailed interval value can be expressed as the number of cumulative emotional expressions (for example, 500) or as a percentage value with the target value as the maximum value. For example, if the target value is 2,000 and the interval value is 30%, the visual attributes of the visual effect may change when the cumulative number of emotional expressions reaches 600.

図8に示す設定値800内のデータ等は、例示に過ぎず、これに限定されるものではない。例えば、視覚的エフェクトの種類は、ハート形状及び星形状に限定されず、円形状などのような様々な形状を含むことができる。 The data in the setting values 800 shown in FIG. 8 are merely examples, and the present invention is not limited thereto. For example, the types of visual effects are not limited to heart shapes and star shapes, but can include various shapes such as circular shapes and the like.

図9は、本開示の一実施例に係る映像コンテンツ内のユーザの感情表現表示方法900を示すフローチャートである。方法900は、ユーザ端末の少なくとも一つのプロセッサにより遂行できる。方法900は、プロセッサがユーザ端末のディスプレイ上の第1の領域において、映像コンテンツを出力することにより開始することができる(S910)。その後、プロセッサは、ディスプレイ上の第2の領域において、映像コンテンツと関連付けられたチャットコンテンツを出力できる(S920)。 FIG. 9 is a flowchart illustrating a method 900 for displaying a user's emotional expression in video content according to an embodiment of the present disclosure. Method 900 can be performed by at least one processor of a user terminal. Method 900 may begin with the processor outputting video content in a first area on a display of a user terminal (S910). Thereafter, the processor may output chat content associated with the video content in a second area on the display (S920).

続いて、プロセッサは、ディスプレイ上の第3の領域において、ユーザの感情表現と関連付けられたユーザ入力を受信できる(S930)。プロセッサは、ユーザ入力の受信に応じて、第2の領域において、感情表現と関連付けられた第1の視覚的エフェクトを出力できる(S940)。ここで、第1の視覚的エフェクトは、任意の大きさ、任意の色相または任意の透明度の少なくとも一つを有し、第2の領域内における任意の位置に出力できる。代替的に、プロセッサは、ユーザ入力の受信に応じて、第2の領域において、第1の視覚的エフェクトが出力されると同時に、第3の領域において、ユーザの感情表現と関連付けられた第2の視覚的エフェクトが出力される。 Subsequently, the processor can receive user input associated with the user's emotional expression in a third area on the display (S930). The processor can output a first visual effect associated with the emotional expression in the second region in response to receiving the user input (S940). Here, the first visual effect has at least one of an arbitrary size, an arbitrary hue, and an arbitrary transparency, and can be output at an arbitrary position within the second area. Alternatively, in response to receiving the user input, the processor outputs a first visual effect in the second region while outputting a second visual effect associated with the user's emotional expression in the third region. visual effects are output.

一実施例において、第2の領域は、チャットコンテンツが出力される第1のレイヤと、第1の視覚的エフェクトが出力される第2のレイヤとを含むことができる。このとき、第1のレイヤは、第2のレイヤよりも上位レイヤであり得る。また、映像コンテンツが出力される第1の領域と、チャットコンテンツが出力される第2の領域とは一部重なり、第2の領域は、映像コンテンツの一部が出力される第3のレイヤをさらに含むことができる。このとき、第2のレイヤは、第3のレイヤよりも上位レイヤであり得る。 In one example, the second region can include a first layer in which chat content is output and a second layer in which a first visual effect is output. At this time, the first layer may be a higher layer than the second layer. Further, the first area where the video content is output and the second area where the chat content is output partially overlap, and the second area has a third layer where a part of the video content is output. It can further include: At this time, the second layer may be a higher layer than the third layer.

一実施例において、プロセッサは、第2の領域において、他のユーザの感情表現と関連付けられた第3の視覚的エフェクトを出力できる。プロセッサが、第2の領域において、他のユーザの感情表現と関連付けられた第3の視覚的エフェクトを出力するとき、第3の領域において、他のユーザの感情表現と関連付けられた視覚的エフェクトは出力されない。 In one example, the processor can output a third visual effect associated with the other user's emotional expression in the second region. When the processor outputs a third visual effect associated with the emotional expression of the other user in the second region, the visual effect associated with the emotional expression of the other user in the third region is No output.

一実施例において、プロセッサは、第2の領域において、映像コンテンツと関連付けられた累積感情表現の個数に基づいて、視覚的属性が変化する第4の視覚的エフェクトを出力できる。ここで、第4の視覚的エフェクトは、映像コンテンツと関連付けられた累積感情表現の個数の増加によって大きさが増加する。このとき、第2の領域は、チャットコンテンツが出力される第1のレイヤと、第4の視覚的エフェクトが出力される第2のレイヤとを含むことができる。第1のレイヤは、第2のレイヤよりも上位レイヤであり得る。 In one embodiment, the processor can output a fourth visual effect whose visual attributes change based on the number of cumulative emotional expressions associated with the video content in the second region. Here, the fourth visual effect increases in size as the number of cumulative emotional expressions associated with the video content increases. At this time, the second area may include a first layer where chat content is output and a second layer where a fourth visual effect is output. The first layer may be a higher layer than the second layer.

一実施例において、映像コンテンツと関連付けられた累積感情表現の個数が、既定の目標値に到達したと判定することに応じて、プロセッサは、第1の領域において、第5の視覚的エフェクトを出力できる。このとき、第1の領域は、映像コンテンツが出力される第4のレイヤと、第5の視覚的エフェクトが出力される第5のレイヤとを含むことができる。第5のレイヤは、第4のレイヤよりも上位レイヤであり得る。また、第5の視覚的エフェクトを出力する前に、そして第4の視覚的エフェクトを出力した後に、プロセッサは、第2の領域において出力される第4の視覚的エフェクトと、第1の領域において出力される第5の視覚的エフェクトとを、途切れなく(seamlessly)連結するための第6の視覚的エフェクトを出力できる。付加的に、プロセッサは、第1の領域において、既定の目標値を示す第7の視覚的エフェクトを第5の視覚的エフェクトと一緒に出力できる。 In one embodiment, in response to determining that the number of cumulative emotional expressions associated with the video content has reached a predetermined target value, the processor outputs the fifth visual effect in the first region. can. At this time, the first region may include a fourth layer in which video content is output and a fifth layer in which a fifth visual effect is output. The fifth layer may be a higher layer than the fourth layer. Also, before outputting the fifth visual effect and after outputting the fourth visual effect, the processor outputs a fourth visual effect output in the second area and a fourth visual effect output in the first area. A sixth visual effect can be outputted to seamlessly connect the outputted fifth visual effect. Additionally, the processor can output a seventh visual effect indicating a predetermined target value together with the fifth visual effect in the first region.

図9に示すフローチャート及び前述した説明は、一つの例示にすぎず、一部の実施例では異なるように具現化できる。例えば、一つ以上のステップが省略されたり、各ステップの順序が変化したり、一つ以上のステップが重なり合って遂行されたり、一つ以上のステップが数回繰り返して遂行されたりできる。 The flowchart shown in FIG. 9 and the above description are merely exemplary and may be implemented differently in some embodiments. For example, one or more steps may be omitted, the order of each step may be changed, one or more steps may be performed overlapping each other, or one or more steps may be performed repeatedly several times.

前述した方法は、コンピュータで実行するために、コンピュータ読取り可能な記録媒体に保存されたコンピュータプログラムとして提供され得る。媒体は、コンピュータで実行可能なプログラムを継続的に保存し、または、実行又はダウンロードのために一時保存するものであり得る。また、媒体は、単一又は多数のハードウェアが結合された形態の多様な記録手段又は保存手段であり得るが、あるコンピュータシステムに直接接続される媒体に限定されず、ネットワーク上に分散して存在するものであり得る。媒体の例としては、ハードディスク、フロッピー(登録商標)ディスクや磁気テープのような磁気媒体、CD-ROMやDVDのような光記録媒体、フロプティカルディスク(floptical disk)のような磁気-光媒体(magneto-optical medium)、ROM、RAM、フラッシュメモリなどを含み、プログラム命令語が保存されるように構成されたものが挙げられる。また、他の媒体の例としては、アプリケーションを流通するアプリストアやその他の多様なソフトウェアを供給乃至流通するサイト、サーバーなどで管理する記録媒体乃至保存媒体も挙げられる。 The method described above may be provided as a computer program stored on a computer-readable storage medium for execution on a computer. The medium may store the computer executable program continuously or may temporarily store it for execution or download. Furthermore, the medium may be a variety of recording means or storage means in the form of a single piece of hardware or a combination of multiple pieces of hardware, but is not limited to a medium that is directly connected to a certain computer system, and is distributed over a network. It can be something that exists. Examples of media include hard disks, magnetic media such as floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, and magnetic-optical media such as floptical disks. (magneto-optical medium), ROM, RAM, flash memory, etc., and is configured to store program command words. Further, examples of other media include app stores that distribute applications, other sites that supply or distribute various software, and recording or storage media managed by servers or the like.

本開示の方法、動作、又は技法は、多様な手段により具現化できる。例えば、このような技法は、ハードウェア、ファームウェア、ソフトウェア、若しくは、これらの組合せで具現化できる。本願の開示により説明された多様な例示的な論理的ブロック、モジュール、回路、及びアルゴリズムステップは、電子ハードウェア、コンピュータソフトウェア、若しくは、両方の組合せで具現化できることを、当業者であれば理解できるはずである。ハードウェア及びソフトウェアのこのような相互の代替を明確に説明するために、多様な例示的な構成要素、ブロック、モジュール、回路、及びステップが、それらの機能的観点から一般的に前述された。そのような機能が、ハードウェアとして具現化されるか、若しくは、ソフトウェアとして具現化されるかは、特定アプリケーション及び全体システムに付加される設計要求事項によって変化する。当業者は、各々の特定アプリケーションのために多様な方式により説明された機能を具現化することもできるが、そのような具現化は、本開示の範囲から逸脱するものと解釈してはならない。 The methods, acts, or techniques of this disclosure may be implemented through a variety of means. For example, such techniques may be implemented in hardware, firmware, software, or a combination thereof. Those skilled in the art will appreciate that the various example logical blocks, modules, circuits, and algorithmic steps described by this disclosure can be implemented in electronic hardware, computer software, or a combination of both. It should be. To clearly explain such mutual substitutions of hardware and software, various exemplary components, blocks, modules, circuits, and steps have been described above generally in terms of their functionality. Whether such functionality is implemented as hardware or software will vary depending on the particular application and design requirements imposed on the overall system. Those skilled in the art may also implement the described functionality in various ways for each particular application, but such implementation should not be construed as departing from the scope of this disclosure.

ハードウェアの具現化において、技法の遂行に利用されるプロセッシングユニットは、一つ以上のASIC、DSP、デジタル信号処理デバイス(digital signal processing devices DSPD)、プログラム可能論理デバイス(programmable logic devices PLD)、フィールドプログラマブルゲートアレイ(field programmable gate arrays FPGA)、プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、電子デバイス、本開示に説明された機能を遂行するように設計された他の電子ユニット、コンピュータ、若しくは、これらの組合せにおいても具現化され得る。 In a hardware implementation, the processing unit utilized to perform the techniques may include one or more ASICs, DSPs, digital signal processing devices (DSPD), programmable logic devices (PLD), field field programmable gate arrays (FPGAs), processors, controllers, microcontrollers, microprocessors, electronic devices, other electronic units designed to perform the functions described in this disclosure, computers, or the like; It can also be implemented in combination.

したがって、本開示により説明された多様な例示的な論理ブロック、モジュール、及び回路は、汎用プロセッサ、DSP、ASIC、FPGAや他のプログラム可能な論理デバイス、ディスクリートのゲートやトランジスタロジック、ディスクリートのハードウェアコンポーネント、若しくは、本願に説明された機能を遂行するように設計されたもの等の任意の組合せで、具現化又は遂行されることもできる。汎用プロセッサは、マイクロプロセッサであり得るが、代替的に、プロセッサは、任意の従来のプロセッサ、コントローラ、マイクロコントローラ、若しくは、状態マシンであり得る。プロセッサは、また、コンピューティングデバイスの組合せ、例えば、DSPとマイクロプロセッサ、複数のマイクロプロセッサ、DSPコアと関連付けられる一つ以上のマイクロプロセッサ、若しくは、任意の他の構成の組合せで具現化されることもできる。 Accordingly, the various exemplary logic blocks, modules, and circuits described by this disclosure include general purpose processors, DSPs, ASICs, FPGAs and other programmable logic devices, discrete gate and transistor logic, and discrete hardware. It may also be implemented or performed in any combination of components or components designed to perform the functions described herein. A general purpose processor may be a microprocessor, but in the alternative, the processor may be any conventional processor, controller, microcontroller, or state machine. A processor may also be embodied in a combination of computing devices, such as a DSP and a microprocessor, multiple microprocessors, one or more microprocessors associated with a DSP core, or any other configuration combination. You can also do it.

ファームウェア及び/又はソフトウェアの具現化において、技法は、RAM(random access memory)、ROM(read-only memory)、NVRAM(non-volatile random access memory)、PROM(programmable read-only memory)、EPROM(erasable programmable read-only memory)、EEPROM(electrically erasable PROM)、フラッシュメモリ、CD(compact disc)、磁気又は光学データストレージデバイスなどのようなコンピュータ読取り可能な媒体上に保存された命令で具現化できる。命令は、一つ以上のプロセッサによって実行可能であり、プロセッサ等が、本開示に説明された機能の特定様態を遂行するようにできる。 In a firmware and/or software implementation, techniques may include RAM (random access memory), ROM (read-only memory), NVRAM (non-volatile random access memory), PROM (programmable read-only memory), EPROM (erasable The instructions may be embodied in instructions stored on a computer readable medium, such as a programmable read-only memory, an electrically erasable PROM (EEPROM), a flash memory, a compact disc (CD), a magnetic or optical data storage device, and the like. The instructions can be executed by one or more processors to cause the processors, etc. to perform particular aspects of the functionality described in this disclosure.

前述した実施例は、一つ以上の独立型コンピュータシステムで現在開示された主題の態様を活用するものとして記述されているが、本開示は、これに限定されず、ネットワークや分散コンピューティング環境のような任意のコンピューティング環境によって具現化できる。さらに、本開示における主題の様態は、複数のプロセッシングチップや装置で具現化されることもでき、ストレージは、複数の装置にわたって類似に影響を受けることもできる。このような装置は、PC、ネットワークサーバー、及び携帯用装置を含むこともできる。 Although the foregoing embodiments have been described as utilizing aspects of the presently disclosed subject matter in one or more standalone computer systems, the present disclosure is not limited to, and may be applied to, network or distributed computing environments. can be implemented by any computing environment such as Furthermore, aspects of the subject matter in this disclosure may be implemented in multiple processing chips or devices, and storage may be similarly effected across multiple devices. Such devices may also include PCs, network servers, and portable devices.

本明細書では、本開示が一部の実施例によって説明されてきたが、本開示の発明が属する技術分野における当業者が理解し得る本開示から逸脱しない範囲内で、多様な変形や変更が可能である。また、そのような変形や変更は、本明細書に添付された特許請求の範囲内に属するものと理解されるべきである。 Although the present disclosure has been described herein with reference to some embodiments, various modifications and changes may be made without departing from the present disclosure as can be understood by those skilled in the art to which the disclosed invention pertains. It is possible. It is also to be understood that such modifications and changes are within the scope of the claims appended hereto.

100 ユーザ
110 ユーザ端末
120 ディスプレイ
130 「いいね」ボタン
140 ユーザの感情表現と関連付けられた視覚的エフェクト
150 累積感情表現の個数と関連付けられた視覚的エフェクト
100 User 110 User terminal 120 Display 130 "Like" button 140 Visual effect associated with the user's emotional expression 150 Visual effect associated with the cumulative number of emotional expressions

Claims (16)

ユーザ端末の少なくとも一つのプロセッサにより遂行される映像コンテンツ内のユーザの感情表現表示方法において、
前記ユーザ端末のディスプレイ上の第1の領域において、前記映像コンテンツを出力するステップと、
前記ディスプレイ上の第2の領域において、前記映像コンテンツと関連付けられたチャットコンテンツを出力するステップと、
前記ディスプレイ上の第3の領域において、ユーザの感情表現と関連付けられたユーザ入力を受信するステップと、
前記ユーザ入力の受信に応じて、前記第2の領域において、前記感情表現と関連付けられた第1の視覚的エフェクトを出力するステップと、を含む、映像コンテンツ内のユーザの感情表現表示方法。
A method for displaying a user's emotional expression in video content performed by at least one processor of a user terminal, comprising:
outputting the video content in a first area on a display of the user terminal;
outputting chat content associated with the video content in a second area on the display;
receiving user input associated with an emotional expression of a user in a third area on the display;
outputting a first visual effect associated with the emotional expression in the second region in response to receiving the user input.
前記ユーザ入力の受信に応じて、前記第2の領域において、前記第1の視覚的エフェクトが出力されると同時に、前記第3の領域において、前記ユーザの感情表現と関連付けられた第2の視覚的エフェクトが出力されるステップをさらに含む、請求項1に記載の映像コンテンツ内のユーザの感情表現表示方法。 In response to receiving the user input, in the second region, the first visual effect is output, while in the third region, a second visual effect associated with the emotional expression of the user is output. The method for displaying a user's emotional expression in video content according to claim 1, further comprising the step of outputting a target effect. 前記第1の視覚的エフェクトは、任意の大きさ、任意の色相または任意の透明度の少なくとも一つを有し、前記第2の領域内における任意の位置に出力される、請求項1に記載の映像コンテンツ内のユーザの感情表現表示方法。 The first visual effect has at least one of an arbitrary size, an arbitrary hue, and an arbitrary transparency, and is output at an arbitrary position within the second area. A method for displaying a user's emotional expression in video content. 前記第2の領域は、前記チャットコンテンツが出力される第1のレイヤと、前記第1の視覚的エフェクトが出力される第2のレイヤとを含み、
前記第1のレイヤは、前記第2のレイヤよりも上位レイヤである、請求項1に記載の映像コンテンツ内のユーザの感情表現表示方法。
The second area includes a first layer where the chat content is output and a second layer where the first visual effect is output,
2. The method for displaying a user's emotional expression in video content according to claim 1, wherein the first layer is a layer higher than the second layer.
前記映像コンテンツが出力される第1の領域と、前記チャットコンテンツが出力される第2の領域とは、一部重なり、
前記第2の領域は、前記映像コンテンツの一部が出力される第3のレイヤをさらに含み、
前記第2のレイヤは、前記第3のレイヤよりも上位レイヤである、請求項4に記載の映像コンテンツ内のユーザの感情表現表示方法。
The first area where the video content is output and the second area where the chat content is output partially overlap,
The second area further includes a third layer to which a part of the video content is output,
5. The method for displaying a user's emotional expression in video content according to claim 4, wherein the second layer is a layer higher than the third layer.
前記第2の領域において、他のユーザの感情表現と関連付けられた第3の視覚的エフェクトを出力するステップをさらに含む、請求項1に記載の映像コンテンツ内のユーザの感情表現表示方法。 The method of displaying a user's emotional expression in video content according to claim 1, further comprising the step of outputting a third visual effect associated with another user's emotional expression in the second area. 前記第2の領域において、前記他のユーザの感情表現と関連付けられた第3の視覚的エフェクトを出力するとき、前記第3の領域において、前記他のユーザの感情表現と関連付けられた視覚的エフェクトは出力されない、請求項6に記載の映像コンテンツ内のユーザの感情表現表示方法。 When outputting a third visual effect associated with the emotional expression of the other user in the second area, the visual effect associated with the emotional expression of the other user in the third area; 7. The method for displaying a user's emotional expression in video content according to claim 6, wherein: is not output. 前記第2の領域において、前記映像コンテンツと関連付けられた累積感情表現の個数に基づいて、視覚的属性が変化する第4の視覚的エフェクトを出力するステップをさらに含む、請求項1に記載の映像コンテンツ内のユーザの感情表現表示方法。 The video according to claim 1, further comprising outputting, in the second region, a fourth visual effect whose visual attributes change based on the number of cumulative emotional expressions associated with the video content. How to display user emotional expressions in content. 前記第4の視覚的エフェクトは、前記映像コンテンツと関連付けられた累積感情表現の個数の増加によって大きさが増加する、請求項8に記載の映像コンテンツ内のユーザの感情表現表示方法。 9. The method of claim 8, wherein the fourth visual effect increases in size according to an increase in the number of cumulative emotional expressions associated with the video content. 前記第2の領域は、前記チャットコンテンツが出力される第1のレイヤと、前記第4の視覚的エフェクトが出力される第2のレイヤとを含み、
前記第1のレイヤは、前記第2のレイヤよりも上位レイヤである、請求項8に記載の映像コンテンツ内のユーザの感情表現表示方法。
The second area includes a first layer where the chat content is output and a second layer where the fourth visual effect is output,
9. The method for displaying a user's emotional expression in video content according to claim 8, wherein the first layer is a layer higher than the second layer.
前記映像コンテンツと関連付けられた累積感情表現の個数が、既定の目標値に到達したと判定することに応じて、前記第1の領域において、第5の視覚的エフェクトを出力するステップをさらに含む、請求項8に記載の映像コンテンツ内のユーザの感情表現表示方法。 Further comprising outputting a fifth visual effect in the first area in response to determining that the number of cumulative emotional expressions associated with the video content has reached a predetermined target value. The method for displaying a user's emotional expression in video content according to claim 8. 前記第1の領域は、前記映像コンテンツが出力される第4のレイヤと、前記第5の視覚的エフェクトが出力される第5のレイヤとを含み、
前記第5のレイヤは、前記第4のレイヤよりも上位レイヤである、請求項11に記載の映像コンテンツ内のユーザの感情表現表示方法。
The first area includes a fourth layer to which the video content is output, and a fifth layer to which the fifth visual effect is output,
12. The method for displaying a user's emotional expression in video content according to claim 11, wherein the fifth layer is a layer higher than the fourth layer.
前記第5の視覚的エフェクトを出力する前に、そして前記第4の視覚的エフェクトを出力した後に、前記第2の領域において出力される前記第4の視覚的エフェクトと、前記第1の領域において出力される前記第5の視覚的エフェクトとを、途切れなく連結するための第6の視覚的エフェクトを出力するステップをさらに含む、請求項11に記載の映像コンテンツ内のユーザの感情表現表示方法。 Before outputting the fifth visual effect and after outputting the fourth visual effect, the fourth visual effect is output in the second area, and the fourth visual effect is output in the first area. 12. The method for displaying a user's emotional expression in video content according to claim 11, further comprising the step of outputting a sixth visual effect for seamlessly connecting the outputted fifth visual effect. 前記第1の領域において、前記既定の目標値を示す第7の視覚的エフェクトを、前記第5の視覚的エフェクトと一緒に出力するステップをさらに含む、請求項11に記載の映像コンテンツ内のユーザの感情表現表示方法。 The user in the video content according to claim 11, further comprising outputting a seventh visual effect indicating the predetermined target value together with the fifth visual effect in the first area. How to display emotional expression. 請求項1乃至14のいずれか一項に記載の映像コンテンツ内のユーザの感情表現表示方法をコンピュータで実行するためのコンピュータ読取り可能なコンピュータプログラム。 A computer-readable computer program for executing, on a computer, the method for displaying a user's emotional expression in video content according to any one of claims 1 to 14. ユーザ端末であって、
通信モジュールと、
メモリと、
ディスプレイと、
前記メモリと連結され、前記メモリに含まれたコンピュータ読取り可能な少なくとも一つのプログラムを実行するように構成された少なくとも一つのプロセッサと、を含み、
前記少なくとも一つのプログラムは、
前記ディスプレイ上の第1の領域において、映像コンテンツを出力し、
前記ディスプレイ上の第2の領域において、前記映像コンテンツと関連付けられたチャットコンテンツを出力し、
前記ディスプレイ上の第3の領域において、ユーザの感情表現と関連付けられたユーザ入力を受信し、
前記ユーザ入力の受信に応じて、前記第2の領域において、前記感情表現と関連付けられた第1の視覚的エフェクトを出力するための命令語を含む、ユーザ端末。
A user terminal,
a communication module;
memory and
display and
at least one processor coupled to the memory and configured to execute at least one computer readable program contained in the memory;
The at least one program includes:
outputting video content in a first area on the display;
outputting chat content associated with the video content in a second area on the display;
receiving user input associated with an emotional expression of a user in a third area on the display;
A user terminal comprising instructions for outputting a first visual effect associated with the emotional expression in the second region in response to receiving the user input.
JP2023043829A 2022-05-10 2023-03-20 Method and device for displaying expression of emotion of user in picture content Pending JP2023166973A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220057201A KR20230157692A (en) 2022-05-10 2022-05-10 Method and apparatus for displaying user emotions in video contents
KR10-2022-0057201 2022-05-10

Publications (1)

Publication Number Publication Date
JP2023166973A true JP2023166973A (en) 2023-11-22

Family

ID=88837005

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023043829A Pending JP2023166973A (en) 2022-05-10 2023-03-20 Method and device for displaying expression of emotion of user in picture content

Country Status (2)

Country Link
JP (1) JP2023166973A (en)
KR (1) KR20230157692A (en)

Also Published As

Publication number Publication date
KR20230157692A (en) 2023-11-17

Similar Documents

Publication Publication Date Title
JP6301555B2 (en) Apparatus, method and graphical user interface for presenting and installing applications
US11470127B2 (en) Method, system, and non-transitory computer-readable record medium for displaying reaction during VoIP-based call
US10834468B2 (en) Method, system, and non-transitory computer readable medium for audio feedback during live broadcast
US11567638B2 (en) Method, system, and non-transitory computer-readable record medium for providing reputation badge for video chat
CN111970571B (en) Video production method, device, equipment and storage medium
JP6470845B2 (en) Method and terminal for performing virtual character turn
CN113094135B (en) Page display control method, device, equipment and storage medium
CN112653920B (en) Video processing method, device, equipment and storage medium
US20150134742A1 (en) Technology of supporting meeting
CN113298602A (en) Commodity object information interaction method and device and electronic equipment
JP2022125013A (en) Method and system for managing usage privileges on avatar
WO2018190884A1 (en) Enabling third parties to add effects to an application
CN115605837A (en) Game console application with action fob
JP2023099505A (en) Method for displaying virtual space at different point-in-times, computer program, and user terminal
JP2023166973A (en) Method and device for displaying expression of emotion of user in picture content
US11770356B2 (en) Method and device for providing location based avatar messenger service
KR20230052459A (en) Method and system for creating avatar content
JP2024012134A (en) Method and system for providing chat room background screen in instant messaging service
JP7473585B2 (en) Online advertising exposure method and system
US20220141551A1 (en) Moving image distribution system, moving image distribution method, and moving image distribution program
US9384013B2 (en) Launch surface control
KR102243964B1 (en) Method, system, and computer program to express good feeling during video chat
JP7288990B2 (en) Video distribution system, video distribution method and video distribution program
CN110785982B (en) Method, medium, and system for enabling third parties to add effects to an application
JP7183295B2 (en) Method and system for controlling a media player

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230320

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20230417

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240521