JP2021177625A - インターネット電話に基づく通話中にリアクションを表示する方法、システム、およびコンピュータプログラム - Google Patents
インターネット電話に基づく通話中にリアクションを表示する方法、システム、およびコンピュータプログラム Download PDFInfo
- Publication number
- JP2021177625A JP2021177625A JP2021073890A JP2021073890A JP2021177625A JP 2021177625 A JP2021177625 A JP 2021177625A JP 2021073890 A JP2021073890 A JP 2021073890A JP 2021073890 A JP2021073890 A JP 2021073890A JP 2021177625 A JP2021177625 A JP 2021177625A
- Authority
- JP
- Japan
- Prior art keywords
- reaction
- screen
- voip call
- user
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 205
- 238000000034 method Methods 0.000 title claims abstract description 68
- 238000004590 computer program Methods 0.000 title claims abstract description 9
- 230000015654 memory Effects 0.000 claims description 24
- 230000008569 process Effects 0.000 claims description 22
- 230000005540 biological transmission Effects 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 14
- 238000012545 processing Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 241000711573 Coronaviridae Species 0.000 description 2
- 238000006757 chemical reactions by type Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 208000006930 Pseudomyxoma Peritonei Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 229920000306 polymethylpentene Polymers 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/40—Support for services or applications
- H04L65/401—Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference
- H04L65/4015—Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference where at least one of the additional parallel sessions is real time or time sensitive, e.g. white board sharing, collaboration or spawning of a subconference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/1066—Session management
- H04L65/1096—Supplementary features, e.g. call forwarding or call holding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M7/00—Arrangements for interconnection between switching centres
- H04M7/006—Networks other than PSTN/ISDN providing telephone service, e.g. Voice over Internet Protocol (VoIP), including next generation networks with a packet-switched transport layer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/04—Real-time or near real-time messaging, e.g. instant messaging [IM]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/07—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
- H04L51/10—Multimedia information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/52—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail for supporting social networking services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/10—Architectures or entities
- H04L65/1059—End-user terminal functionalities specially adapted for real-time communication
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/1066—Session management
- H04L65/1083—In-session procedures
- H04L65/1089—In-session procedures by adding media; by removing media
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/40—Support for services or applications
- H04L65/403—Arrangements for multi-party communication, e.g. for conferences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/75—Media network packet handling
- H04L65/762—Media network packet handling at the source
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Computing Systems (AREA)
- Telephonic Communication Services (AREA)
- Information Transfer Between Computers (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
Abstract
【課題】 インターネット電話に基づく通話中にリアクションを表示する方法、システム、およびコンピュータプログラムを提供する。【解決手段】ソーシャルグラフ(social graph)を利用したVoIP(voice over internet protocol)通話中に通話参加者が多様なメディアコンテンツを共有することができ、VoIP通話中にメディアコンテンツを共有する環境において通話参加者がやり取りしたリアクション(reaction)をリアルタイムで表示することができる。【選択図】図4
Description
以下の説明は、インターネット電話(VoIP)に基づいて通話機能を提供する技術に関する。
近年、通信デバイスは、音声通話サービスや文字サービスはもちろん、無線インターネットサービスや地上波/衛星放送サービスなどの多様なサービスを提供している。
特に、画像の圧縮および復元技術の発展とカメラが備わったデバイスの常用化により、相手の顔を確認しながら通話することを可能にしたビデオ通話サービスが提供されている。
ビデオ通話サービスを提供する技術の一例として、特許文献1(登録日2003年9月29日)には、無線環境の移動電話網で移動電話端末機にビデオ電話サービスを提供する技術が開示されている。
ソーシャルグラフ(social graph)を利用したVoIP(voice over internet protocol)通話中に通話参加者が多様なメディアコンテンツを共有できるようにすることを目的とする。
VoIP通話中に通話参加者がやり取りしたリアクション(reaction)をリアルタイムで表示できるようにすることを目的とする。
コンピュータ装置が実行するリアクション表示方法であって、前記コンピュータ装置は、メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサを含み、前記リアクション表示方法は、前記少なくとも1つのプロセッサが、前記コンピュータ装置のユーザが参加するVoIP通話中にメディアコンテンツを共有する場合、VoIP通話画面とともにコンテンツ共有画面を表示する段階、前記少なくとも1つのプロセッサが、前記VoIP通話中に前記コンピュータ装置のユーザからリアクション(reaction)が入力された位置情報を受信する段階、前記少なくとも1つのプロセッサが、前記VoIP通話に参加している少なくとも1人の他のユーザを対象にして前記リアクションに関する情報と前記位置情報を送信する段階、および前記少なくとも1つのプロセッサが、前記位置情報に基づき、前記VoIP通話画面または前記コンテンツ共有画面上に前記リアクションを表示する段階を含む、リアクション表示方法を提供する。
一側面によると、前記受信する段階は、前記VoIP通話画面または前記コンテンツ共有画面上の位置情報として前記リアクションが入力された位置座標を認識する段階を含んでよい。
他の側面によると、前記受信する段階は、前記コンテンツ共有画面に対して入力されたリアクションの場合、前記コンピュータ装置のユーザがリアクションを入力した時点に前記コンテンツ共有画面上で再生中のコンテンツの再生位置(playback position)を前記位置情報として認識する段階を含んでよい。
また他の側面によると、前記リアクション表示方法は、前記少なくとも1つのプロセッサが、前記位置情報に基づき、前記VoIP通話画面に含まれる参加者画像と前記コンテンツ共有画面のうちからリアクション対象を特定する段階をさらに含んでよい。
また他の側面によると、前記特定する段階は、前記VoIP通話画面と前記コンテンツ共有画面のうち、前記リアクションが入力された位置座標に対応する画面を前記リアクション対象として特定してよい。
また他の側面によると、前記特定する段階は、前記コンテンツ共有画面上で再生中のコンテンツの再生位置が前記位置情報として受信された場合、前記VoIP通話画面と前記コンテンツ共有画面のうちの前記コンテンツ共有画面を前記リアクション対象として特定してよい。
また他の側面によると、前記送信する段階は、前記VoIP通話に参加している他のユーザのうちから前記リアクション対象に対応するユーザを特定し、前記特定されたユーザを対象にして前記リアクションに関する情報と前記位置情報を送信してよい。
また他の側面によると、前記送信する段階は、前記リアクションに関する情報と前記位置情報を含むVoIP通話パケットのメタデータを生成して送信し、前記他のユーザのコンピュータ装置では、前記メタデータに基づいて前記他のユーザのコンピュータ装置の画面上に前記リアクションが表示されてよい。
また他の側面によると、前記表示する段階は、前記VoIP通話画面と前記コンテンツ共有画面のうちの前記位置情報に対応する画面上の位置に前記リアクションとマッチングするオブジェクトを表示してよい。
また他の側面によると、前記リアクション表示方法は、前記少なくとも1つのプロセッサが、前記VoIP通話中に共有する前記メディアコンテンツに関する情報と前記VoIP通話中に受信した前記リアクションに関する情報を前記VoIP通話と関連するチャットルームに送信する段階をさらに含んでよい。
さらに他の側面によると、前記VoIP通話と関連するチャットルームに送信する段階は、前記メディアコンテンツに関する情報と前記リアクションに関する情報を前記チャットルームに含まれるメッセージタイプで管理する段階を含んでよい。
前記リアクション表示方法を前記コンピュータシステムに実行させるために非一時的なコンピュータ読み取り可能な記録媒体に記録される、コンピュータプログラムを提供する。
コンピュータ装置であって、メモリに含まれるコンピュータ読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサは、前記コンピュータ装置のユーザが参加するVoIP通話中にメディアコンテンツを共有する場合、VoIP通話画面とともにコンテンツ共有画面を表示する過程、前記VoIP通話中に前記コンピュータ装置のユーザからリアクションが入力された位置情報を受信する過程、前記VoIP通話に参加している少なくとも1人の他のユーザを対象にして前記リアクションに関する情報と前記位置情報を送信する過程、および前記位置情報に基づき、前記VoIP通話画面または前記コンテンツ共有画面上に前記リアクションを表示する過程を処理する、コンピュータ装置を提供する。
以下、本発明の実施形態について、添付の図面を参照しながら詳しく説明する。
本発明の実施形態は、VoIP(voice over internet protocol)に基づく通話機能を提供する技術に関する。
本明細書で具体的に開示される事項を含む実施形態によると、ソーシャルグラフを利用したVoIP通話中に通話参加者が多様なメディアコンテンツを共有することができ、VoIP通話中に通話参加者がやり取りしたリアクション(reaction)をリアルタイムで表示することができる。
図1は、本発明の一実施形態における、ネットワーク環境の例を示した図である。図1のネットワーク環境は、複数の電子機器110、120、130、140、複数のサーバ150、160、およびネットワーク170を含む例を示している。このような図1は、発明の説明のための一例に過ぎず、電子機器の数やサーバの数が図1のように限定されることはない。
複数の電子機器110、120、130、140は、コンピュータ装置によって実現される固定端末や移動端末であってよい。複数の電子機器110、120、130、140の例としては、スマートフォン、携帯電話、ナビゲーション、PC(personal computer)、ノート型PC、デジタル放送用端末、PDA(Personal Digital Assistant)、PMP(Portable Multimedia Player)、タブレット、ゲームコンソール、ウェアラブルデバイス、IoT(Internet of Things)デバイス、VR(Virtual Reality)デバイス、AR(Augmented Reality)デバイスなどがある。一例として、図1では、電子機器110の例としてスマートフォンを示しているが、本発明の実施形態において、電子機器110は、実質的に無線または有線通信方式を利用し、ネットワーク170を介して他の電子機器120、130、140および/またはサーバ150、160と通信することのできる多様な物理的なコンピュータ装置のうちの1つを意味してよい。
通信方式が限定されることはなく、ネットワーク170が含むことのできる通信網(一例として、移動通信網、有線インターネット、無線インターネット、放送網、衛星網など)を利用する通信方式だけではなく、機器間の近距離無線通信が含まれてもよい。例えば、ネットワーク170は、PAN(personal area network)、LAN(local area network)、CAN(campus area network)、MAN(metropolitan area network)、WAN(wide area network)、BBN(broadband network)、インターネットなどのネットワークのうちの1つ以上の任意のネットワークを含んでよい。さらに、ネットワーク170は、バスネットワーク、スターネットワーク、リングネットワーク、メッシュネットワーク、スター−バスネットワーク、ツリーまたは階層的ネットワークなどを含むネットワークトポロジのうちの任意の1つ以上を含んでもよいが、これらに限定されることはない。
サーバ150、160それぞれは、複数の電子機器110、120、130、140とネットワーク170を介して通信して命令、コード、ファイル、コンテンツ、サービスなどを提供する1つ以上のコンピュータ装置によって実現されてよい。例えば、サーバ150は、ネットワーク170を介して接続した複数の電子機器110、120、130、140に第1サービスを提供するシステムであってよく、サーバ160もネットワーク170を介して接続した複数の電子機器110、120、130、140に第2サービスを提供するシステムであってよい。より具体的な例として、サーバ150は、複数の電子機器110、120、130、140においてインストールされて実行されるコンピュータプログラムであるアプリケーションを通じ、該当のアプリケーションが目的とするサービス(一例として、VoIP通話サービスなど)を第1サービスとして複数の電子機器110、120、130、140に提供してよい。他の例として、サーバ160は、上述したアプリケーションのインストールおよび実行のためのファイルを複数の電子機器110、120、130、140に配布するサービスを第2サービスとして提供してよい。
図2は、本発明の一実施形態における、電子機器およびサーバの内部構成を説明するためのブロック図である。図2では、電子機器に対する例として電子機器110の内部構成およびサーバ150の内部構成について説明する。また、他の電子機器120、130、140やサーバ160も、上述した電子機器110またはサーバ150と同一または類似の内部構成を有してよい。
電子機器110およびサーバ150は、メモリ211、221、プロセッサ212、222、通信モジュール213、223、および入力/出力インタフェース214、224を含んでよい。メモリ211、221は、非一時的なコンピュータ読み取り可能な記録媒体であって、RAM(random access memory)、ROM(read only memory)、ディスクドライブ、SSD(solid state drive)、フラッシュメモリ(flash memory)などのような永続的大容量記録装置を含んでよい。ここで、ROM、SSD、フラッシュメモリ、ディスクドライブのような永続的大容量記録装置は、メモリ211、221とは区分される別の永続的記録装置として電子機器110やサーバ150に含まれてもよい。また、メモリ211、221には、オペレーティングシステムと、少なくとも1つのプログラムコード(一例として、電子機器110においてインストールされて実行されるブラウザや、特定のサービスの提供のために電子機器110にインストールされたアプリケーションなどのためのコード)が記録されてよい。このようなソフトウェア構成要素は、メモリ211、221とは別のコンピュータ読み取り可能な記録媒体からロードされてよい。このような別のコンピュータ読み取り可能な記録媒体は、フロッピー(登録商標)ドライブ、ディスク、テープ、DVD/CD−ROMドライブ、メモリカードなどのコンピュータ読み取り可能な記録媒体を含んでよい。他の実施形態において、ソフトウェア構成要素は、コンピュータ読み取り可能な記録媒体ではない通信モジュール213、223を通じてメモリ211、221にロードされてもよい。例えば、少なくとも1つのプログラムは、開発者またはアプリケーションのインストールファイルを配布するファイル配布システム(一例として、上述したサーバ160)がネットワーク170を介して提供するファイルによってインストールされるコンピュータプログラム(一例として、上述したアプリケーション)に基づいてメモリ211、221にロードされてよい。
プロセッサ212、222は、基本的な算術、ロジック、および入出力演算を実行することにより、コンピュータプログラムの命令を処理するように構成されてよい。命令は、メモリ211、221または通信モジュール213、223によって、プロセッサ212、222に提供されてよい。例えば、プロセッサ212、222は、メモリ211、221のような記録装置に記録されたプログラムコードにしたがって受信される命令を実行するように構成されてよい。
通信モジュール213、223は、ネットワーク170を介して電子機器110とサーバ150とが互いに通信するための機能を提供してもよいし、電子機器110および/またはサーバ150が他の電子機器(一例として、電子機器120)または他のサーバ(一例として、サーバ160)と通信するための機能を提供してもよい。一例として、電子機器110のプロセッサ212がメモリ211のような記録装置に記録されたプログラムコードにしたがって生成した要求が、通信モジュール213の制御にしたがってネットワーク170を介してサーバ150に伝達されてよい。これとは逆に、サーバ150のプロセッサ222の制御にしたがって提供される制御信号や命令、コンテンツ、ファイルなどが、通信モジュール223とネットワーク170を経て電子機器110の通信モジュール213を通じて電子機器110に受信されてよい。例えば、通信モジュール213を通じて受信されたサーバ150の制御信号や命令、コンテンツ、ファイルなどは、プロセッサ212やメモリ211に伝達されてよく、コンテンツやファイルなどは、電子機器110がさらに含むことのできる記録媒体(上述した永続的記録装置)に記録されてよい。
入力/出力インタフェース214は、入力/出力装置215とのインタフェースのための手段であってよい。例えば、入力装置は、キーボード、マウス、マイクロフォン、カメラなどの装置を、出力装置は、ディスプレイ、スピーカ、触覚フィードバックデバイスなどのような装置を含んでよい。他の例として、入力/出力インタフェース214は、タッチスクリーンのように入力と出力のための機能が1つに統合された装置とのインタフェースのための手段であってもよい。入力/出力装置215は、電子機器110と1つの装置で構成されてもよい。また、サーバ150の入力/出力インタフェース224は、サーバ150に接続するかサーバ150が含むことのできる入力または出力のための装置(図示せず)とのインタフェースのための手段であってよい。より具体的な例として、電子機器110のプロセッサ212がメモリ211にロードされたコンピュータプログラムの命令を処理するにあたり、サーバ150や電子機器120が提供するデータを利用して構成されるサービス画面やコンテンツが、入力/出力インタフェース214を通じてディスプレイに表示されてよい。
また、他の実施形態において、電子機器110およびサーバ150は、図2の構成要素よりも多くの構成要素を含んでもよい。しかし、大部分の従来技術的構成要素を明確に図に示す必要はない。例えば、電子機器110は、上述した入力/出力装置215のうちの少なくとも一部を含むように実現されてもよいし、トランシーバ、GPS(Global Positioning System)モジュール、カメラ、各種センサ、データベースなどのような他の構成要素をさらに含んでもよい。より具体的な例として、電子機器110がスマートフォンである場合、一般的にスマートフォンが含んでいる加速度センサやジャイロセンサ、カメラモジュール、物理的な各種ボタン、タッチパネルを利用したボタン、入力/出力ポート、振動のための振動器などのような多様な構成要素が、電子機器110にさらに含まれるように実現されてよい。
以下では、インターネット電話(VoIP)に基づく通話中にコンテンツを共有する方法およびシステムの具体的な実施形態について説明する。
図3は、本発明の一実施形態における、電子機器のプロセッサが含むことのできる構成要素の例を示したブロック図であり、図4は、本発明の一実施形態における、電子機器が実行することのできる方法の例を示したフローチャートである。
本実施形態に係る電子機器110には、コンピュータによって実現されたVoIP通話システムが構成されてよい。一例として、VoIP通話システムは、独立的に動作するプログラム形態で実現されてもよいし、特定のアプリケーション(例えば、メッセンジャー)のイン−アプリ(in−app)形態で構成され、前記特定のアプリケーション上で動作が可能なように実現されてもよく、場合によっては、サーバ150との連動によってVoIP通話サービスを提供してもよい。
電子機器110にインストールされたアプリケーションが提供する命令に基づき、電子機器110に実現されたVoIP通話システムは、図4に示したコンテンツ共有方法を実行してよい。
図4に係るコンテンツ共有方法を実行するために、電子機器110のプロセッサ212は、構成要素として、図3に示すように、通話提供部310、インタフェース提供部320、共有要請部330、コンテンツ表示部340、およびリアクション表示部350を含んでよい。実施形態によって、プロセッサ212の構成要素は、選択的にプロセッサ212に含まれても除外されてもよい。また、実施形態によって、プロセッサ212の構成要素は、プロセッサ212の機能の表現のために分離されても併合されてもよい。
このようなプロセッサ212およびプロセッサ212の構成要素は、図4のコンテンツ共有方法が含む段階410〜450を実行するように電子機器110を制御してよい。例えば、プロセッサ212およびプロセッサ212の構成要素は、メモリ211が含むオペレーティングシステムのコードと、少なくとも1つのプログラムのコードとによる命令(instruction)を実行するように実現されてよい。
ここで、プロセッサ212の構成要素は、電子機器110に記録されたプログラムコードが提供する命令(一例として、電子機器110で実行されるアプリケーションが提供する命令)にしたがってプロセッサ212によって実行される、プロセッサ212の互いに異なる機能(different functions)の表現であってよい。例えば、電子機器110がVoIP通話を提供するように上述した命令にしたがって電子機器110を制御するプロセッサ212の機能的表現として、通話提供部310が利用されてよい。
プロセッサ212は、電子機器110の制御と関連する命令がロードされたメモリ211から必要な命令を読み取ってよい。この場合、前記読み取られた命令は、プロセッサ212が以下で説明する段階410〜450を実行するように制御するための命令を含んでよい。
図4を参照すると、段階410で、通話提供部310は、電子機器110のユーザを含む、少なくとも2人以上のユーザが参加するVoIP通話を提供してよい。VoIP通話は、VoIPに基づき、音声通話機能とビデオ通話機能を含んでよい。このとき、VoIP通話は、1対1の通話はもちろん、事前に定められた最大人数以内のグループ通話を支援してよい。一例として、サーバ150は、電子機器110、120、130、140のユーザがVoIP通話を要請する場合、相手の電子機器に通話要請を伝達してよく、通話参加を許諾したユーザを対象にしてVoIPに基づく通話チャネルを接続してよい。
ビデオ通話の場合、通話提供部310は、電子機器110のユーザの通話への参加意思をサーバ150に伝達し、サーバ150からVoIP通話の参加者画像を個別の画像としてそれぞれ受信した後、受信した参加者画像を1つの画面にレンダリング(rendering)してビデオ通話画面を構成してよい。サーバ150側で複数の参加者画像を含んだ1つの画像を生成して電子機器110に提供するのではなく、サーバ150が各参加者画像を個別の画像として電子機器110に送信し、電子機器110で複数の参加者画像を1つのビデオ通話画面として構成するのである。
音声通話の場合、通話提供部310は、通話への参加を許諾したユーザを対象にしてプロフィール情報などに基づいて参加者リストを生成し、参加者リストを含む音声通話画面を構成してよい。
段階420で、インタフェース提供部320は、VoIP通話中に電子機器110のユーザからコンテンツ共有機能を呼び出すユーザ入力が受信される場合、通話中の参加者と共有しようとするコンテンツを特定するためのGUI(graphical user interface)を提供してよい。ユーザ入力にはコンテンツ共有媒体として選択されたメディアタイプ(media type)が含まれてよく、例えば、メディアタイプは、画面共有(screen share)、ユーチューブ(YouTube)のようなコンテンツ共有サービスを提供するコンテンツ提供者(content provider)などを含んでよい。コンテンツ共有機能とは、通話参加者がVoIP通話中に画面共有やコンテンツ共有サービスなどを利用してメディアコンテンツを共有することのできる機能を意味する。インタフェース提供部320は、VoIP通話画面上で通話参加者と共有するコンテンツを特定するためのインタフェースとして、ユーザ入力によるメディアタイプに対応するGUIを提供してよい。
一例として、インタフェース提供部320は、メディアタイプのうちの1つとしてコンテンツ提供者のコンテンツを共有しようとする場合、コンテンツ検索のためのGUIを提供してよい。インタフェース提供部320は、先ず、コンテンツ提供者を選択するための提供者選択画面を提供し、提供者選択画面でコンテンツ提供者が選択されれば、選択されたコンテンツ提供者のプラットフォーム内でコンテンツを検索するためのGUIを提供してよい。言い換えれば、インタフェース提供部320は、コンテンツ共有サービスを提供するコンテンツ提供者リストを提供してよく、コンテンツ提供者リストで選択されたコンテンツ提供者のコンテンツを検索するためのインタフェースを提供してよい。ユーザは、メディアタイプとして特定のコンテンツ提供者を選択した後、該当のコンテンツ提供者のプラットフォーム内でコンテンツを検索することにより、通話参加者と共有するためのコンテンツを特定してよい。
他の例として、インタフェース提供部320は、メディアタイプのうちの他の1つとして画面共有を利用してコンテンツを共有しようとする場合、画面共有対象に対するプレビュー(preview)を含むGUIを提供してよい。URLを利用してコンテンツ提供者のコンテンツを共有しようとする場合も、該当のURLのコンテンツに対するプレビューを含むGUIを提供してよい。クリップボードにコンテンツ提供者のコンテンツURLがコピーされた状態でVoIP通話画面に進む場合には、コンテンツ共有機能の呼び出し命令として認識されてよい。このとき、インタフェース提供部320は、コンテンツ共有機能の呼び出し命令が認識されることにより、クリップボードにコピーされたURLに対するプレビューを含むGUIを提供してよい。ユーザは、プレビューを見ながら画面共有の対象やURLのメディアコンテンツを確認した後、通話参加者と共有するためのコンテンツとして特定してよい。
インタフェース提供部320は、コンテンツを検索するためのGUIを提供するにあたり、VoIP通話中のチャットルームに設定されたプロフィール情報または該当のチャットルームで過去に共有したことのあるデータに基づき、コンテンツ検索のための検索語を推薦してよい。ここで、プロフィール情報は、チャットルームのタイトル情報などを含んでよい。チャットルームに参加しているユーザのプロフィール情報、例えば、年齢、性別、居住地域などを考慮して検索語が推薦されてよい。プロフィール情報の他にも、過去の共有データ、例えば、チャットルームから送信されたメッセージまたはコンテンツを分析して関心事が導き出されてよく、導き出された関心事と関連するキーワードを推薦検索語として提供してよい。例えば、チャットルームで「コロナウイルス」に関するメッセージの割合が一定以上となる場合には、「コロナウイルス」と関連する検索語を推薦してよい。また、チャットルームに関する統計情報、例えば、最近のニュースを共有した回数が多い場合には、該当のニュースと関連する検索語を推薦してよい。また、チャットルームのコンテンツ共有履歴に基づき、例えば、VoIP電話中にLINE LIVEを利用してLINE Friendsチャネルのビデオを最も多く共有した場合、LINE LIVEのリアルタイム人気検索語またはLINE Friendsチャネルと関連する検索語を推薦してよい。メッセンジャープラットフォーム上で複数のユーザが特定のタイトルを基準として集まってコンテンツをやり取りするオープンチャットルームの場合には、オープンチャットルームに設定されたタイトル情報に基づいて検索語が推薦されてもよい。
段階430で、共有要請部330は、電子機器110のユーザからGUIによって特定されたコンテンツに対する共有要請を受信する場合、該当のコンテンツに対する共有要請をVoIP通話チャネルのプロトコル内のメタデータとして生成してサーバ150に送信してよい。言い換えれば、共有要請部330は、コンテンツ共有要請に対応するデータを含むVoIP通話パケットのメタデータを生成してサーバ150に送信してよい。
VoIP通話状態でデータを交換するためのコンテンツ共有プロトコルは、メディアタイプに応じて事前に定義されてよい。一例として、コンテンツ共有プロトコルは、コンテンツ共有機能を示す識別子(identifier)と、メディアタイプに応じて定義されたメタデータとを含んでよい。コンテンツ共有のための開始(set)と終了(unset)は、コア(core)のイベントによって処理されてよい。メディアタイプがコンテンツ提供者の場合には、メディアタイプの識別子、ユーザによって特定されたコンテンツの識別子、タイトル、サムネイル、再生状態(playing、pauseなど)、再生位置(playback position)などをVoIP通話パケットのメタデータに追加してよく、URLを利用してコンテンツ提供者のコンテンツを共有しようとする場合には、メディアタイプの識別子、コンテンツURL、再生状態、再生位置などをVoIP通話パケットのメタデータに追加してよい。メディアタイプが画面共有の場合には、メディアタイプの識別子、画面共有のために必要なデータなどをVoIP通話パケットのメタデータに追加してよい。共有要請部330は、GUI(プレビューまたは検索結果)で特定されたコンテンツを電子機器110のユーザと通話参加者との間に同期化し、再生に必要なすべての情報をVoIPのメタデータに記述してサーバ150に送信してよい。
段階440で、コンテンツ表示部340は、VoIP通話画面とともに、電子機器110のユーザの共有要請によるコンテンツを表示してよい。コンテンツ表示部340は、電子機器110のユーザがGUIで特定したコンテンツに対する共有要請がサーバ150に伝達された後、VoIP通話画面とともに該当のコンテンツの再生画面(以下、「コンテンツ共有画面」とする)を表示してよい。一例として、コンテンツ表示部340は、通話提供部310との連動によってコンテンツ共有画面をVoIP通話画面に含ませ、VoIP通話画面に結合された1つの画面として調整して表示してよい。他の例として、コンテンツ表示部340は、VoIP通話画面上にPIPなどの個別の画面としてコンテンツ共有画面を重ねて(overlay)表示してもよい。
サーバ150は、VoIP通話パケットのメタデータに基づいてメディアタイプや共有対象コンテンツなどを認識してよく、通話参加者のうちでコンテンツ共有を要請した電子機器110はセンダー(sender)として判断し、残りの参加者の電子機器(120、130、140のうちの少なくとも1つ)はレシーバー(receiver)として判断してよい。
サーバ150は、センダー側のコンテンツ共有要請に対応するデータを含むVoIP通話パケットのメタデータを、レシーバーに該当する電子機器(120、130、140のうちの少なくとも1つ)に伝達する。サーバ150は、コンテンツを共有するセンダーとレシーバーとの間に、VoIP通話パケットのメタデータをそのまま伝達するリレーの役割を担うものであってよい。
レシーバーに該当する電子機器(120、130、140のうちの少なくとも1つ)では、サーバ150を介してセンダーから受信したVoIP通話パケットのメタデータに基づき、センダーと同じ状態でコンテンツを共有してよい。共有対象がビデオの場合、センダー側では、メタデータにビデオに関する情報(例えば、URL情報(または、コンテンツ識別子)および開始時点に関する情報)だけを含ませるか、共有しようとするビデオパケットをともに含ませてレシーバーに伝達してよく、レシーバー側では、メタデータに含まれた情報に基づき、コンテンツ提供者からビデオをロードするか、ロード作業を経ずにセンダーから受信したVoIP通話パケットに含まれたビデオをセンダー側での再生状態そのままで再生を始めてよい。再生リストに対する共有要請の場合、レシーバー側では、VoIP通話パケットのメタデータに基づいてセンダー側の状態を受信し、再生リストに含まれたビデオ情報はレシーバーが直接照会することによって該当の情報を満たして再生を始めてよい。
VoIP通話のためにはVoIP通話パケットを伝達するリレーサーバ150が利用されると説明したが、これに限定されてはならず、サーバ150を経由しない、個人間の通信であるP2P(peer to peer)が利用されてもよい。電子機器110は、1対1通信であるP2Pを利用することで、ユーザのコンテンツ共有要請に対応するデータを含むVoIP通話パケットのメタデータをレシーバーに該当する電子機器120に直接伝達してよい。したがって、サーバ150を経由する必要がなく、センダーとレシーバーとがP2PによってVoIP通話パケットをやり取りすることができ、VoIP通話パケットのメタデータを利用してVoIP通話中にコンテンツを共有することができる。
レシーバーと共有するコンテンツを操作する権限は基本的にはセンダーにあり、センダー側のユーザが再生位置や再生状態などを変更する場合には変更されたデータを含むVoIP通話パケットのメタデータをレシーバーに伝達することにより、センダーとレシーバーとが共有中のコンテンツ状態をセンダーの操作に合わせて同期化する。他の例として、レシーバーは、センダーあるいは他の通話参加者からの同意を得た上で、共有中のコンテンツ状態を変更したり他のコンテンツの共有を提案したりことも可能となる。
段階450で、リアクション表示部350は、VoIP通話中にコンテンツを共有する環境において、VoIP通話画面またはコンテンツ共有画面に対するユーザ入力に対応するリアクションを該当の画面上に表示してよい。VoIP通話画面またはコンテンツ共有画面上にリアクションを表示する具体的な方法については、以下で詳しく説明する。
図5〜8は、本発明の一実施形態における、VoIP通話中にコンテンツを共有する過程を説明するための例示図である。
図5〜8は、電子機器110のディスプレイに表示されるインタフェース画面の一例を示している。
図5を参照すれば、プロセッサ212は、VoIP通話の参加者画像を個別の画像としてそれぞれ受信した後、受信した参加者画像を1つの画面にレンダリングしてビデオ通話画面510を表示してよい。プロセッサ212は、VoIP通話中に電子機器110のユーザからコンテンツ共有機能を呼び出すユーザ入力が受信される場合、通話中の参加者と共有するコンテンツを特定するためのGUIを提供してよい。
ビデオ通話画面510は、ユーザによる環境設定や参加者人数によって調整されてよく、例えば、参加者画像が1つの画面にすべて表示される形態で構成されてもよいし、参加者画像を一方向に整列した後、整列方向にスワイプ可能な形態で構成されてもよい。
プロセッサ212は、ユーザがメディアタイプのうちの1つとしてユーチューブ(YouTube)のようなコンテンツ提供者のコンテンツを共有しようとする場合、図5に示すように、コンテンツ検索のためのGUI520を提供してよい。プロセッサ212は、連係可能なコンテンツ提供者が複数ある場合には、先ず、コンテンツ提供者を選択するための提供者選択画面を提供した後、提供者選択画面からコンテンツ提供者が選択されれば、選択されたコンテンツ提供者のプラットフォーム内からコンテンツを検索するためのGUI520を提供してよい。
プロセッサ212は、ユーザが、メディアタイプのうちの他の1つとして画面共有によってコンテンツを共有しようとする場合、図6に示すように、電子機器110で実行される画面のうちで画面共有対象として特定された画面に対するプレビューを含むGUI630を提供してよい。
プロセッサ212は、コンテンツを特定するためのGUIとして、コンテンツ検索GUI520とプレビューGUI630をビデオ通話画面510上に重ねて(overlay)表示してもよいし(図5を参照)、ビデオ通話画面510を調整してビデオ通話画面510に結合させて1つの画面として表示してもよい(図6を参照)。
プロセッサ212は、ユーザがコンテンツ検索GUI520またはプレビューGUI630でコンテンツを特定した後、特定したコンテンツの共有を要請する場合、該当のコンテンツを共有するためのデータを含むVoIP通話パケットのメタデータをレシーバーに伝達してよい。これと同時に、プロセッサ212は、図7に示すように、ビデオ通話画面510とともに、共有要請されたコンテンツの再生画面であるコンテンツ共有画面740を表示してよい。
コンテンツ共有画面740をビデオ通話画面510に結合させて1つの画面として表示する場合、ビデオ通話画面510は、コンテンツ共有画面740を除いた残りの領域に参加者画像を組み合わせて表示してよい。このとき、ビデオ通話画面510は、自身の画像を提供する参加者画像がすべてまたは一部が表示される形態で構成してよい。または、ビデオ通話画面510は、参加者画像を一方向に整列した後、整列方向にスワイプ可能な形態で構成してもよい。
ビデオ通話でなく音声通話の場合、プロセッサ212は、図8に示すように、通話に参加中の参加者リストを含む音声通話画面810をVoIP通話画面として提供してよい。プロセッサ212は、音声通話中にコンテンツを共有する場合、参加者リストを含む音声通話画面810とともにコンテンツ共有画面740を表示してよい。
したがって、本実施形態では、ソーシャルグラフを利用したVoIP通話(音声通話またはビデオ通話)中に通話参加者が多様なメディアコンテンツを共有することができる。
図9は、本発明の一実施形態における、VoIP通話中にリアクションを表示する方法の例を示したフローチャートである。図9のリアクション表示方法は、リアクション表示部350によって実行されるものであり、図4のコンテンツ共有方法に含まれる段階450に含まれてよい。
段階901で、リアクション表示部350は、VoIP通話(音声通話またはビデオ通話)中に電子機器110のユーザからリアクションが入力された位置情報を受信してよい。一例として、リアクション表示部350は、ユーザがタッチなどによって実際にリアクションを入力した位置座標を、ユーザのリアクションが入力された画面(VoIP通話画面またはコンテンツ共有画面)上の位置情報として認識してよい。リアクションが入力された位置座標は、リアクションタイプによって一対のXY座標からなってよく、この他にも、1つまたは2つ以上のタッチを追跡した軌跡情報としてXY座標の集合からなってもよい。他の例として、リアクション表示部350は、コンテンツ共有画面に対して入力されたリアクションの場合、ユーザがリアクションを入力した時点にコンテンツ共有画面上で再生中のコンテンツの再生位置を、ユーザのリアクションが入力された位置情報として認識してよい。
段階902で、リアクション表示部350は、段階901で受信した位置情報に基づき、VoIP通話画面に含まれた参加者画像とコンテンツ共有画面のうちから電子機器110のユーザがリアクションを入力した対象(以下、「リアクション対象」とする)を特定してよい。ユーザは、VoIP通話画面に含まれた参加者画像のうちのいずれか1つの参加者画像またはコンテンツ共有画面に対してリアクションを入力してよく、このとき、リアクション表示部350は、ユーザのリアクションが入力された位置情報に基づいてリアクション対象を特定してよい。一例として、リアクション表示部350は、VoIP通話画面とコンテンツ共有画面のうちで、実際にリアクションが入力された位置座標に対応する画面をリアクション対象として特定してよい。ユーザがVoIP通話画面内で特定の参加者の画像に対してリアクションを入力する場合、該当の参加者の識別子に基づいてリアクション対象を特定してよい。他の例として、リアクション表示部350は、コンテンツの再生位置がリアクション位置情報として認識される場合、コンテンツ共有画面をリアクション対象として特定してよい。他の例として、リアクション表示部350は、コンテンツの再生位置に該当する画面の少なくとも一部を分析してリアクション対象を特定してよい。このとき、リアクション表示部350は、画面の少なくとも一部に対するイメージデータをサーバ150に送信し、サーバ150またはサーバ150と連動可能なプラットフォーム上に構築されたイメージ学習モデルによってイメージデータから認識された事物、人物、場所などに関する情報をサーバ150から受信することにより、リアクション対象を特定してよい。
段階903で、リアクション表示部350は、電子機器110のユーザから入力されたリアクションとリアクション対象に関する情報とともに、該当のリアクションと関連する位置情報を、VoIP通話に参加している他のユーザ、すなわち通話参加者に送信してよい。リアクションに関する情報にはリアクションタイプが含まれてよく、リアクション対象に関する情報にはVoIP通話画面内のどの参加者画像に対するリアクションであるか、あるいはコンテンツ共有画面に対するリアクションであるかを示す情報が含まれてよい。リアクション表示部350は、リアクションとリアクション対象に関する情報、およびリアクション位置情報をVoIP通話チャネルのプロトコル内のメタデータとして生成し、サーバ150やP2Pを経て通話参加者に送信してよい。一例として、リアクション表示部350は、VoIP通話に参加するすべてのユーザを対象に、リアクションとリアクション対象に関する情報、およびリアクション位置情報を含むVoIP通話パケットのメタデータを送信してよい。他の例として、リアクション表示部350は、VoIP通話に参加しているユーザのうちからリアクション対象に該当する参加者を特定し、該当の参加者に、リアクションに関する情報およびリアクション位置情報を含むVoIP通話パケットのメタデータを送信してよい。
段階904で、リアクション表示部350は、VoIP通話画面とコンテンツ共有画面のうちでリアクション対象に該当する画面上に、リアクション位置情報に基づいて該当の位置にリアクションを表示してよい。リアクションごとに各リアクションとマッチングするオブジェクトが事前に定義されてよく、リアクション表示部350は、ユーザが入力したリアクションとマッチングするオブジェクトをリアクション対象と関連させて該当のリアクションが入力された位置に表示してよい。このとき、オブジェクトは、リアクションに対応して事前に定義されたイメージやエフェクトアニメーション(effect animation)などの視覚的要素を含んでよく、このような視覚的要素の他にも、ハプティクスなどの触覚的要素やオーディオに基づく聴覚的要素をさらに含んでもよい。
VoIP通話に参加している他のユーザの電子機器120、130、140すべてでVoIP通話画面とともにコンテンツ共有画面を表示するようになるが、このとき、電子機器110から受信されたVoIP通話パケットのメタデータに基づき、電子機器110のユーザが入力したリアクションとリアクション対象、およびリアクション位置情報を分析してよい。他のユーザの電子機器120、130、140では、VoIP通話画面およびコンテンツ共有画面のうちのリアクション対象に該当する画面上に、リアクション位置情報に基づき、該当の位置に電子機器110のユーザが入力したリアクションを表示してよい。実施形態によっては、VoIP通話に参加する他のユーザの電子機器120、130、140のうちのリアクション対象に該当する参加者の電子機器(例えば、120、130、140のうちの120)だけが電子機器110からリアクション関連メタデータを受信し、VoIP通話画面内の自身の参加者画像の画面上に電子機器110のユーザが入力したリアクションを表示してよい。
図10〜12は、本発明の一実施形態における、VoIP通話中にリアクションを表示する過程を説明するための例示図である。
図10および図11は、ビデオ通話中にユーザがリアクションを伝達するシナリオを示している。
図10を参照すると、電子機器110のユーザは、ビデオ通話に参加している他のユーザと同じ動画をコンテンツ共有画面740で共有してよく、このとき、動画を見ながら特定の再生位置にリアクションを記録してよい。
プロセッサ212は、コンテンツ共有画面740と関連するリアクション入力インタフェース(例えば、いいねボタン)1001によってリアクションが入力される場合、ユーザがリアクションを入力した時点のコンテンツの再生位置をユーザのリアクションが入力された位置情報として認識してよい。
プロセッサ212は、コンテンツ共有画面740上に、一例として、コンテンツの再生位置を示すプログレスバー(progress bar)1041上に、ユーザが入力したリアクションのイメージ1002を表示してよく、このとき、リアクションイメージ1002は、ユーザがリアクションを入力した時点の再生位置と対応する地点に表示されてよい。
VoIP通話に参加している他のユーザの電子機器120、130、140すべてにおいて、電子機器110のユーザと共有しているコンテンツ共有画面740上に電子機器110のユーザが入力したリアクションが該当のリアクションの入力位置に表示されてよく、これにより、VoIP通話に参加しているユーザがリアクションを記録した位置を共有することができる。
図11を参照すると、電子機器110のユーザは、コンテンツ共有画面として電子機器110で実行されている画面のうちから画面共有対象として特定されたショッピングサイト画面1150をビデオ通話に参加している他のユーザと共有してよく、このとき、画面共有しているショッピングサイト画面1150の特定のアイテムに対してリアクションを記録してよい。
プロセッサ212は、コンテンツ共有画面に該当するショッピングサイト画面1150に対するユーザ入力にしたがってリアクション入力インタフェース1101を表示してよく、このとき、ユーザは、リアクション入力インタフェース1101を利用してショッピングサイト画面1150内の特定のアイテムの位置にリアクションを入力してよい。
プロセッサ212は、ショッピングサイト画面1150上でユーザがリアクションを入力した位置に、ユーザが入力したリアクションのイメージ1102を表示してよい。
VoIP通話に参加している他のユーザの電子機器120、130、140すべてにおいて、電子機器110のユーザと共有しているショッピングサイト画面1150上に電子機器110のユーザが入力したリアクションを該当のリアクションの入力位置に表示することができ、これにより、VoIP通話に参加するユーザがリアクションを記録した位置を共有することができる。
プロセッサ212は、VoIP通話参加者中にリアクションを入力したユーザを識別してビデオ通話画面510内の該当のユーザの画像画面上にリアクションイメージ1002、1102を表示してよく、これにより、VoIP通話に参加しているユーザのうちのどのユーザによるリアクションであるかを簡単に把握することができる。
上述したようなシナリオの他にも、画面共有を利用した協業の場合も、図11を参照しながら説明したシナリオと同じように、VoIP通話に参加するユーザが協業文書が表示された画面を共有しながら、画面上の文書内の特定の部分に対する質問や意見などをリアクションとして伝達することもできる。
VoIP通話中に共有しているコンテンツに対するリアクションの他にも、ビデオ通話画面510内の特定の参加者を指定してリアクションを伝達することも可能である。プロセッサ212は、電子機器110のユーザがビデオ通話画面510で特定の参加者を選択してリアクションを入力する場合、ビデオ通話画面510内の該当の参加者画像の画面上にリアクションイメージを表示してよい。
VoIP通話中のリアクションは、一方が伝達したものを表示することはもちろん、双方がやり取りしたものを表示することも可能である。例えば、VoIP通話に参加中のユーザ1がハートの一部を描いて伝達すれば、ユーザ2が残りの部分を描いてハートを完成させる形態のリアクションを適用してよい。
さらに、プロセッサ212は、VoIP通話中に共有するメディアコンテンツに関する情報とVoIP通話中に受信したリアクションに関する情報を、該当のVoIP通話を進行中のチャットルームに送信して管理してよい。
図12を参照すると、プロセッサ212は、図10のシナリオのように、VoIP通話に参加中のユーザがVoIP通話中に共有した動画に対してリアクションを記録した場合、該当の動画のサムネイル、リアクションオブジェクト、リアクションを入力した時間、ユーザニックネームなどを受信し、チャットルーム1200に含まれたメッセージタイプ1201で記録して表示してよい。
また、プロセッサ212は、図11のシナリオのように、VoIP通話に参加中のユーザがVoIP通話中に共有した画面に対してリアクションを記録した場合、共有画面のキャプチャ(capture)画像、リアクションオブジェクト、リアクションを入力した時間、ユーザニックネームなどを受信し、チャットルーム1200に含まれたメッセージタイプ1202で記録して表示してよい。このとき、VoIP通話に参加中のユーザがVoIP通話中に他のユーザを対象としてリアクションを入力した場合、リアクションの対象となるユーザのイメージとともに、リアクションを入力したユーザのリアクションオブジェクトを表示してよい。
したがって、プロセッサ212は、VoIP通話中にやり取りしたメディアコンテンツとリアクションに関する情報をチャットルーム1200で管理することにより、VoIP通話と関連するヒストリーを構築することができる。言い換えれば、VoIP通話が終了した後でも、VoIP通話中にやり取りしたメディアコンテンツとリアクションに関する資料がチャットルーム1200に記録されるようにすることができる。
このように、本発明の実施形態によると、VoIP通話中に通話参加者がやり取りしたリアクションをリアルタイムで表示することができる。
上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、および/またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)およびOS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを記録、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、コンピュータ記録媒体または装置に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で記録されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータ読み取り可能な記録媒体に記録されてよい。
実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータ読み取り可能な媒体に記録されてよい。ここで、媒体は、コンピュータ実行可能なプログラムを継続して記録するものであっても、実行またはダウンロードのために一時記録するものであってもよい。また、媒体は、単一または複数のハードウェアが結合した形態の多様な記録手段または格納手段であってよく、あるコンピュータシステムに直接接続する媒体に限定されることはなく、ネットワーク上に分散して存在するものであってもよい。媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク、および磁気テープのような磁気媒体、CD−ROMおよびDVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどを含み、プログラム命令が記録されるように構成されたものであってよい。また、媒体の他の例として、アプリケーションを配布するアプリケーションストアやその他の多様なソフトウェアを供給または配布するサイト、サーバなどで管理する記録媒体または格納媒体が挙げられる。
以上のように、実施形態を、限定された実施形態および図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって対置されたり置換されたとしても、適切な結果を達成することができる。
したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。
212:プロセッサ
310:通話提供部
320:インタフェース提供部
330:共有要請部
340:コンテンツ表示部
350:リアクション表示部
310:通話提供部
320:インタフェース提供部
330:共有要請部
340:コンテンツ表示部
350:リアクション表示部
Claims (20)
- コンピュータ装置が実行するリアクション表示方法であって、
前記コンピュータ装置は、メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサを含み、
前記リアクション表示方法は、
前記少なくとも1つのプロセッサが、前記コンピュータ装置のユーザが参加するVoIP通話中にメディアコンテンツを共有する場合、VoIP通話画面とともにコンテンツ共有画面を表示する段階、
前記少なくとも1つのプロセッサが、前記VoIP通話中に前記コンピュータ装置のユーザからリアクションが入力された位置情報を受信する段階、
前記少なくとも1つのプロセッサが、前記VoIP通話に参加する少なくとも1人の他のユーザを対象にして前記リアクションに関する情報と前記位置情報を送信する段階、および
前記少なくとも1つのプロセッサが、前記位置情報に基づいて前記VoIP通話画面または前記コンテンツ共有画面上に前記リアクションを表示する段階
を含む、リアクション表示方法。 - 前記受信する段階は、
前記VoIP通話画面または前記コンテンツ共有画面上の位置情報として前記リアクションが入力された位置座標を認識する段階
を含む、請求項1に記載のリアクション表示方法。 - 前記受信する段階は、
前記コンテンツ共有画面に対して入力されたリアクションの場合、前記コンピュータ装置のユーザがリアクションを入力した時点に前記コンテンツ共有画面上で再生中のコンテンツの再生位置を前記位置情報として認識する段階
を含む、請求項1に記載のリアクション表示方法。 - 前記リアクション表示方法は、
前記少なくとも1つのプロセッサが、前記位置情報に基づき、前記VoIP通話画面に含まれた参加者画像と前記コンテンツ共有画面のうちからリアクション対象を特定する段階
をさらに含む、請求項1に記載のリアクション表示方法。 - 前記特定する段階は、
前記VoIP通話画面と前記コンテンツ共有画面のうち、前記リアクションが入力された位置座標に対応する画面を前記リアクション対象として特定すること
を特徴とする、請求項4に記載のリアクション表示方法。 - 前記特定する段階は、
前記コンテンツ共有画面上で再生中のコンテンツの再生位置が前記位置情報として受信された場合、前記VoIP通話画面と前記コンテンツ共有画面のうちで前記コンテンツ共有画面を前記リアクション対象として特定すること
を特徴とする、請求項4に記載のリアクション表示方法。 - 前記送信する段階は、
前記VoIP通話に参加している他のユーザのうちから前記リアクション対象に対応するユーザを特定し、前記特定されたユーザを対象にして前記リアクションに関する情報と前記位置情報を送信すること
を特徴とする、請求項4に記載のリアクション表示方法。 - 前記送信する段階は、
前記リアクションに関する情報と前記位置情報を含むVoIP通話パケットのメタデータを生成して送信し、
前記他のユーザのコンピュータ装置では、前記メタデータに基づき、前記他のユーザのコンピュータ装置の画面上に前記リアクションが表示されること
を特徴とする、請求項1に記載のリアクション表示方法。 - 前記表示する段階は、
前記VoIP通話画面と前記コンテンツ共有画面のうちで前記位置情報に対応する画面上の位置に前記リアクションとマッチングするオブジェクトを表示すること
を特徴とする、請求項1に記載のリアクション表示方法。 - 前記リアクション表示方法は、
前記少なくとも1つのプロセッサが、前記VoIP通話中に共有する前記メディアコンテンツに関する情報と前記VoIP通話中に受信した前記リアクションに関する情報を前記VoIP通話と関連するチャットルームに送信する段階
をさらに含む、請求項1に記載のリアクション表示方法。 - 前記VoIP通話と関連するチャットルームに送信する段階は、
前記メディアコンテンツに関する情報と前記リアクションに関する情報を前記チャットルームに含まれたメッセージタイプで管理する段階
を含む、請求項10に記載のリアクション表示方法。 - 請求項1〜11のうちのいずれか一項に記載のリアクション表示方法を前記コンピュータシステムに実行させる、コンピュータプログラム。
- コンピュータ装置であって、
メモリに含まれるコンピュータ読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサ
を含み、
前記少なくとも1つのプロセッサは、
前記コンピュータ装置のユーザが参加するVoIP通話中にメディアコンテンツを共有する場合、VoIP通話画面とともにコンテンツ共有画面を表示する過程、
前記VoIP通話中に前記コンピュータ装置のユーザからリアクションが入力された位置情報を受信する過程、
前記VoIP通話に参加している少なくとも1人の他のユーザを対象にして前記リアクションに関する情報と前記位置情報を送信する過程、および
前記位置情報に基づき、前記VoIP通話画面または前記コンテンツ共有画面上に前記リアクションを表示する過程
を処理する、コンピュータ装置。 - 前記少なくとも1つのプロセッサは、
前記VoIP通話画面または前記コンテンツ共有画面上の位置情報として前記リアクションが入力された位置座標を認識すること
を特徴とする、請求項13に記載のコンピュータ装置。 - 前記少なくとも1つのプロセッサは、
前記コンテンツ共有画面に対して入力されたリアクションの場合、前記コンピュータ装置のユーザがリアクションを入力した時点に前記コンテンツ共有画面上で再生中のコンテンツの再生位置を前記位置情報として認識すること
を特徴とする、請求項13に記載のコンピュータ装置。 - 前記少なくとも1つのプロセッサは、
前記位置情報に基づき、前記VoIP通話画面に含まれた参加者画像と前記コンテンツ共有画面のうちからリアクション対象を特定すること
を特徴とする、請求項13に記載のコンピュータ装置。 - 前記少なくとも1つのプロセッサは、
前記VoIP通話に参加している他のユーザのうちから前記リアクション対象に対応するユーザを特定し、前記特定されたユーザを対象にして前記リアクションに関する情報と前記位置情報を送信すること
を特徴とする、請求項16に記載のコンピュータ装置。 - 前記少なくとも1つのプロセッサは、
前記リアクションに関する情報と前記位置情報を含むVoIP通話パケットのメタデータを生成して送信し、
前記他のユーザのコンピュータ装置では、前記メタデータに基づき、前記他のユーザのコンピュータ装置の画面上に前記リアクションが表示されること
を特徴とする、請求項13に記載のコンピュータ装置。 - 前記少なくとも1つのプロセッサは、
前記VoIP通話画面と前記コンテンツ共有画面のうちで前記位置情報に対応する画面上の位置に前記リアクションとマッチングするオブジェクトを表示すること
を特徴とする、請求項13に記載のコンピュータ装置。 - 前記少なくとも1つのプロセッサは、
前記VoIP通話中に共有する前記メディアコンテンツに関する情報と前記VoIP通話中に受信した前記リアクションに関する情報を前記VoIP通話と関連するチャットルームに送信し、前記チャットルームに含まれたメッセージタイプで管理すること
を特徴とする、請求項13に記載のコンピュータ装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200053605A KR20210135683A (ko) | 2020-05-06 | 2020-05-06 | 인터넷 전화 기반 통화 중 리액션을 표시하는 방법, 시스템, 및 컴퓨터 프로그램 |
KR10-2020-0053605 | 2020-05-06 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021177625A true JP2021177625A (ja) | 2021-11-11 |
Family
ID=78377926
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021073890A Pending JP2021177625A (ja) | 2020-05-06 | 2021-04-26 | インターネット電話に基づく通話中にリアクションを表示する方法、システム、およびコンピュータプログラム |
Country Status (4)
Country | Link |
---|---|
US (2) | US11470127B2 (ja) |
JP (1) | JP2021177625A (ja) |
KR (1) | KR20210135683A (ja) |
CN (1) | CN113630511A (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160019360A1 (en) | 2013-12-04 | 2016-01-21 | Apple Inc. | Wellness aggregator |
US12080421B2 (en) | 2013-12-04 | 2024-09-03 | Apple Inc. | Wellness aggregator |
WO2016144385A1 (en) | 2015-03-08 | 2016-09-15 | Apple Inc. | Sharing user-configurable graphical constructs |
CN113521710A (zh) | 2015-08-20 | 2021-10-22 | 苹果公司 | 基于运动的表盘和复杂功能块 |
DK201770423A1 (en) | 2016-06-11 | 2018-01-15 | Apple Inc | Activity and workout updates |
US10736543B2 (en) | 2016-09-22 | 2020-08-11 | Apple Inc. | Workout monitor interface |
US10845955B2 (en) | 2017-05-15 | 2020-11-24 | Apple Inc. | Displaying a scrollable list of affordances associated with physical activities |
DK201970532A1 (en) | 2019-05-06 | 2021-05-03 | Apple Inc | Activity trends and workouts |
KR20220016503A (ko) | 2019-06-01 | 2022-02-09 | 애플 인크. | 다중 모드 활동 추적 사용자 인터페이스 |
DK202070616A1 (en) | 2020-02-14 | 2022-01-14 | Apple Inc | User interfaces for workout content |
CN111880695B (zh) * | 2020-08-03 | 2024-03-01 | 腾讯科技(深圳)有限公司 | 一种屏幕共享方法、装置、设备及存储介质 |
WO2022245669A1 (en) | 2021-05-15 | 2022-11-24 | Apple Inc. | User interfaces for group workouts |
CN114501089B (zh) * | 2022-01-30 | 2023-05-05 | 深圳创维-Rgb电子有限公司 | 投屏通话方法、装置、电子设备及存储介质 |
CN114911399A (zh) * | 2022-05-06 | 2022-08-16 | 北京字跳网络技术有限公司 | 信息展示方法、装置、设备及存储介质 |
US20230390626A1 (en) | 2022-06-05 | 2023-12-07 | Apple Inc. | User interfaces for physical activity information |
US11977729B2 (en) | 2022-06-05 | 2024-05-07 | Apple Inc. | Physical activity information user interfaces |
Family Cites Families (73)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100401262B1 (ko) | 2001-05-08 | 2003-10-17 | 에스케이 텔레콤주식회사 | 이동전화망에서의 화상전화 서비스 제공 장치 및 그 방법 |
CN101035248A (zh) * | 2007-03-29 | 2007-09-12 | 华为技术有限公司 | 共享图片和/或视频数据的方法、系统及可视电话 |
EP2258085A1 (en) * | 2008-03-10 | 2010-12-08 | Dilithium Holdings, Inc. | Method and apparatus for video services |
US8688841B2 (en) * | 2008-06-05 | 2014-04-01 | Modena Enterprises, Llc | System and method for content rights based on existence of a voice session |
US8594740B2 (en) * | 2008-06-11 | 2013-11-26 | Pantech Co., Ltd. | Mobile communication terminal and data input method |
US8613026B2 (en) * | 2008-09-10 | 2013-12-17 | Qualcomm Incorporated | Methods and systems for viewer interactivity and social networking in a mobile TV broadcast network |
US20100153497A1 (en) * | 2008-12-12 | 2010-06-17 | Nortel Networks Limited | Sharing expression information among conference participants |
US9165073B2 (en) * | 2009-08-17 | 2015-10-20 | Shoutpoint, Inc. | Apparatus, system and method for a web-based interactive video platform |
US9553974B2 (en) * | 2010-08-11 | 2017-01-24 | Apple Inc. | Media/voice binding protocol and related user interfaces |
US20120069028A1 (en) * | 2010-09-20 | 2012-03-22 | Yahoo! Inc. | Real-time animations of emoticons using facial recognition during a video chat |
KR101226560B1 (ko) * | 2011-03-29 | 2013-01-25 | (주)티아이스퀘어 | 커뮤니케이션 서비스 수행 도중 멀티미디어 콘텐츠 공유 서비스 제공 방법 및 시스템 |
US11064257B2 (en) * | 2011-11-07 | 2021-07-13 | Monet Networks, Inc. | System and method for segment relevance detection for digital content |
US10638197B2 (en) * | 2011-11-07 | 2020-04-28 | Monet Networks, Inc. | System and method for segment relevance detection for digital content using multimodal correlations |
US20170251262A1 (en) * | 2011-11-07 | 2017-08-31 | Monet Networks, Inc. | System and Method for Segment Relevance Detection for Digital Content Using Multimodal Correlations |
US20130173742A1 (en) * | 2011-12-28 | 2013-07-04 | United Video Properties, Inc. | Systems and methods for latency-based synchronized playback at multiple locations |
US8554049B2 (en) * | 2011-12-28 | 2013-10-08 | United Video Properties, Inc. | Systems and methods for synchronizing playback at multiple locations |
US10044975B2 (en) * | 2016-12-09 | 2018-08-07 | NetTalk.com, Inc. | Method and apparatus for coviewing video |
US9148611B2 (en) * | 2012-10-18 | 2015-09-29 | Mettalk.Com, Inc. | Method and apparatus for coviewing video |
US10972521B2 (en) * | 2012-10-18 | 2021-04-06 | NetTalk.com, Inc. | Method and apparatus for coviewing video |
US20140123014A1 (en) * | 2012-11-01 | 2014-05-01 | Inxpo, Inc. | Method and system for chat and activity stream capture and playback |
US20140137144A1 (en) * | 2012-11-12 | 2014-05-15 | Mikko Henrik Järvenpää | System and method for measuring and analyzing audience reactions to video |
US20140333713A1 (en) * | 2012-12-14 | 2014-11-13 | Biscotti Inc. | Video Calling and Conferencing Addressing |
US10200654B2 (en) * | 2013-02-27 | 2019-02-05 | Szymczyk Matthew | Systems and methods for real time manipulation and interaction with multiple dynamic and synchronized video streams in an augmented or multi-dimensional space |
US8903958B1 (en) * | 2013-11-20 | 2014-12-02 | Zspace, Inc. | System and methods for cloud based 3D design and collaboration |
CN110475217B (zh) * | 2014-01-20 | 2023-09-12 | 三星电子株式会社 | 用于共享数据的电子设备和用于控制该设备的方法 |
WO2015175240A1 (en) * | 2014-05-15 | 2015-11-19 | Narvii Inc. | Systems and methods implementing user interface objects |
US9319442B2 (en) * | 2014-05-28 | 2016-04-19 | Cisco Technology, Inc. | Real-time agent for actionable ad-hoc collaboration in an existing collaboration session |
US10057305B2 (en) * | 2014-09-10 | 2018-08-21 | Microsoft Technology Licensing, Llc | Real-time sharing during a phone call |
US10965633B2 (en) * | 2014-09-29 | 2021-03-30 | Microsoft Technoiogy Licensing, LLC | Session history horizon control |
EP3198802A1 (en) * | 2014-10-29 | 2017-08-02 | Microsoft Technology Licensing, LLC | Transmitting media content during instant messaging |
US20160150009A1 (en) * | 2014-11-25 | 2016-05-26 | Microsoft Technology Licensing, Llc | Actionable souvenir from real-time sharing |
GB2535980A (en) * | 2015-02-11 | 2016-09-07 | Apps Interactive Ltd | A communication interface |
US20170006356A1 (en) * | 2015-07-01 | 2017-01-05 | Microsoft Corporation | Augmented experience of media presentation events |
US20170034237A1 (en) * | 2015-07-28 | 2017-02-02 | Giga Entertainment Media Inc. | Interactive Content Streaming Over Live Media Content |
US11237717B2 (en) * | 2015-11-04 | 2022-02-01 | Sony Corporation | Information processing device and information processing method |
CN106789543A (zh) * | 2015-11-20 | 2017-05-31 | 腾讯科技(深圳)有限公司 | 会话中实现表情图像发送的方法和装置 |
US20170171275A1 (en) * | 2015-12-14 | 2017-06-15 | Jbf Interlude 2009 Ltd. | Object Embedding in Multimedia |
US20170168692A1 (en) * | 2015-12-14 | 2017-06-15 | Microsoft Technology Licensing, Llc | Dual-Modality Client Application |
US11146865B2 (en) * | 2016-03-03 | 2021-10-12 | Comcast Cable Communications, Llc | Determining points of interest in a content item |
CN105791692B (zh) * | 2016-03-14 | 2020-04-07 | 腾讯科技(深圳)有限公司 | 一种信息处理方法、终端及存储介质 |
CN105930828B (zh) * | 2016-04-15 | 2021-05-14 | 腾讯科技(深圳)有限公司 | 表情分类标识的控制方法及装置 |
US10587724B2 (en) * | 2016-05-20 | 2020-03-10 | Microsoft Technology Licensing, Llc | Content sharing with user and recipient devices |
US10104417B2 (en) * | 2016-07-26 | 2018-10-16 | At&T Mobility Ii Llc | Method and apparatus for sponsored messaging |
US9807732B1 (en) * | 2016-08-10 | 2017-10-31 | Facebook, Inc. | Techniques for tuning calls with user input |
US10218749B2 (en) * | 2016-11-04 | 2019-02-26 | American Teleconferencing Services, Ltd. | Systems, methods, and computer programs for establishing a screen share session for a remote voice call |
US10950275B2 (en) * | 2016-11-18 | 2021-03-16 | Facebook, Inc. | Methods and systems for tracking media effects in a media effect index |
US10554908B2 (en) * | 2016-12-05 | 2020-02-04 | Facebook, Inc. | Media effect application |
US10841660B2 (en) * | 2016-12-29 | 2020-11-17 | Dressbot Inc. | System and method for multi-user digital interactive experience |
US20180188905A1 (en) * | 2017-01-04 | 2018-07-05 | Google Inc. | Generating messaging streams with animated objects |
WO2018145577A1 (zh) * | 2017-02-08 | 2018-08-16 | 腾讯科技(深圳)有限公司 | 表情推荐方法和装置 |
US10348658B2 (en) * | 2017-06-15 | 2019-07-09 | Google Llc | Suggested items for use with embedded applications in chat conversations |
US10404636B2 (en) * | 2017-06-15 | 2019-09-03 | Google Llc | Embedded programs and interfaces for chat conversations |
US20190019533A1 (en) * | 2017-07-17 | 2019-01-17 | Mashlink, Inc. | Methods for efficient annotation of audiovisual media |
CN107479784B (zh) * | 2017-07-31 | 2022-01-25 | 腾讯科技(深圳)有限公司 | 表情展示方法、装置及计算机可读存储介质 |
CN109388297B (zh) * | 2017-08-10 | 2021-10-22 | 腾讯科技(深圳)有限公司 | 表情展示方法、装置、计算机可读存储介质及终端 |
US10536542B1 (en) * | 2017-09-05 | 2020-01-14 | Amazon Technologies, Inc. | Dynamic social content exploring systems and methods |
US10693830B2 (en) * | 2017-10-26 | 2020-06-23 | Halo Innovative Solutions Llc | Methods, systems, apparatuses and devices for facilitating live streaming of content on multiple social media platforms |
CN107888845B (zh) * | 2017-11-14 | 2022-10-21 | 腾讯数码(天津)有限公司 | 一种视频图像处理方法、装置及终端 |
US10855952B1 (en) * | 2018-02-02 | 2020-12-01 | Mado Labs, Inc. | User engagement computer system and method of using same |
US11206462B2 (en) * | 2018-03-30 | 2021-12-21 | Scener Inc. | Socially annotated audiovisual content |
US11012389B2 (en) * | 2018-05-07 | 2021-05-18 | Apple Inc. | Modifying images with supplemental content for messaging |
US10740680B2 (en) * | 2018-05-15 | 2020-08-11 | Ringcentral, Inc. | System and method for message reaction analysis |
US10820060B1 (en) * | 2018-06-27 | 2020-10-27 | Facebook, Inc. | Asynchronous co-watching |
US10970547B2 (en) * | 2018-12-07 | 2021-04-06 | Microsoft Technology Licensing, Llc | Intelligent agents for managing data associated with three-dimensional objects |
USD997952S1 (en) * | 2018-12-21 | 2023-09-05 | Streamlayer, Inc. | Display screen with transitional graphical user interface |
US11251982B2 (en) * | 2019-06-12 | 2022-02-15 | Nextiva, Inc. | System and method of creating and organizing private chat messages |
US11611714B2 (en) * | 2019-08-01 | 2023-03-21 | Meta Platforms, Inc. | Generating customized, personalized reactions to social media content |
US20210067476A1 (en) * | 2019-08-28 | 2021-03-04 | Microsoft Technology Licensing, Llc | Intelligent chat object sending animations |
US10972682B1 (en) * | 2019-12-12 | 2021-04-06 | Facebook, Inc. | System and method for adding virtual audio stickers to videos |
US11562510B2 (en) * | 2019-12-21 | 2023-01-24 | Samsung Electronics Co., Ltd. | Real-time context based emoticon generation system and method thereof |
KR102316822B1 (ko) * | 2020-02-19 | 2021-10-25 | 라인플러스 주식회사 | 영상과 관련된 사용자 반응에 기반하여 컨텐츠를 제공하는 방법, 장치, 및 컴퓨터 프로그램 |
KR102345242B1 (ko) * | 2020-04-22 | 2021-12-30 | 라인플러스 주식회사 | 인터넷 전화 기반 통화 중에 컨텐츠를 공유하는 방법, 시스템, 및 컴퓨터 프로그램 |
KR20210130583A (ko) * | 2020-04-22 | 2021-11-01 | 라인플러스 주식회사 | 인스턴트 메시징 애플리케이션을 통해 콘텐츠를 공유하는 방법 및 시스템 |
-
2020
- 2020-05-06 KR KR1020200053605A patent/KR20210135683A/ko active IP Right Grant
-
2021
- 2021-04-26 JP JP2021073890A patent/JP2021177625A/ja active Pending
- 2021-04-30 CN CN202110478704.XA patent/CN113630511A/zh active Pending
- 2021-05-04 US US17/307,518 patent/US11470127B2/en active Active
-
2022
- 2022-09-12 US US17/942,572 patent/US11792241B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN113630511A (zh) | 2021-11-09 |
US11470127B2 (en) | 2022-10-11 |
KR20210135683A (ko) | 2021-11-16 |
US20210352118A1 (en) | 2021-11-11 |
US11792241B2 (en) | 2023-10-17 |
US20230007058A1 (en) | 2023-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021177625A (ja) | インターネット電話に基づく通話中にリアクションを表示する方法、システム、およびコンピュータプログラム | |
JP7536915B2 (ja) | 生放送中の音声フィードバックのための方法とシステム、および非一時的コンピュータ読取可能な記録媒体 | |
JP6961334B2 (ja) | サーバ、情報処理方法およびプログラム | |
US20210211487A1 (en) | Method and system for sharing avatars through instant messaging application | |
US11496428B2 (en) | Method and system for sharing content on instant messaging application | |
JP7505886B2 (ja) | メッセンジャー内のプラットフォームに追加されたアプリケーションを用いてチャットルームで情報を共有する方法、システム、およびコンピュータプログラム | |
KR102638580B1 (ko) | 하나의 대화방에서 다수의 그룹통화를 제공하는 방법, 시스템, 및 비-일시적인 컴퓨터 판독가능한 기록 매체 | |
JP2021129296A (ja) | ビデオ通話ボットを利用してコミュニケーションを提供する方法、システム、およびコンピュータプログラム | |
JP2021086626A (ja) | ビデオチャットに利用可能な評判バッチを提供する方法、システム、およびコンピュータプログラム | |
US20240007510A1 (en) | METHOD, SYSTEM, AND NON-TRANSITORY COMPUTER-READABLE RECORD MEDIUM FOR SHARING CONTENT DURING VoIP-BASED CALL | |
US20230047600A1 (en) | Method and system for sharing content on instant messaging application during calls | |
KR20200133965A (ko) | 오픈톡에서 하위 채팅방을 생성하는 방법 및 시스템 | |
JP2020177655A (ja) | イベントメッセージを管理するための方法、システム、および非一時的なコンピュータ読み取り可能な記録媒体 | |
TWI461925B (zh) | 分享資料方法及系統 | |
JP7508269B2 (ja) | チャットルームのコンテンツの著作権を保護する方法、システム、およびコンピュータプログラム | |
JP2021111398A (ja) | 特化したタグを利用してグループを生成する方法、システム、およびコンピュータプログラム | |
JP7229628B1 (ja) | プログラム、情報処理装置、情報処理システム、情報処理方法 | |
JP2020198101A (ja) | チャットルームでコンテンツ作成者をピックすることのできる方法、システム、および非一時的なコンピュータ読み取り可能な記録媒体 | |
TW201423417A (zh) | 數位資料即時分享系統與方法 | |
JP2022119740A (ja) | メッセージ処理方法、コンピュータプログラムおよびコンピュータ装置 | |
JP2022130330A (ja) | チャットルーム管理方法、コンピュータプログラムおよびコンピュータシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240419 |