JP7426021B2 - Systems, methods, and computer-readable media for video processing - Google Patents

Systems, methods, and computer-readable media for video processing Download PDF

Info

Publication number
JP7426021B2
JP7426021B2 JP2022522347A JP2022522347A JP7426021B2 JP 7426021 B2 JP7426021 B2 JP 7426021B2 JP 2022522347 A JP2022522347 A JP 2022522347A JP 2022522347 A JP2022522347 A JP 2022522347A JP 7426021 B2 JP7426021 B2 JP 7426021B2
Authority
JP
Japan
Prior art keywords
user
area
video
processing method
user terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022522347A
Other languages
Japanese (ja)
Other versions
JP2023543369A (en
Inventor
ユアン ウー,シャオ
チウ,ポ-シェン
チャン,ユーチュアン
チェン,ミン-チュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
17Live Japan Inc
Original Assignee
17Live Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 17Live Japan Inc filed Critical 17Live Japan Inc
Publication of JP2023543369A publication Critical patent/JP2023543369A/en
Application granted granted Critical
Publication of JP7426021B2 publication Critical patent/JP7426021B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • H04N21/4725End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content using interactive regions of the image, e.g. hot spots
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting

Description

本発明は、ライブビデオストリーミングまたはビデオ電話会議における画像処理または映像処理に関する。 The present invention relates to image or video processing in live video streaming or video teleconferencing.

ユーザ同士のオンライン通信に参加することを可能にするさまざまな技術が知られている。そのアプリケーションには、ライブストリーミング、ライブ電話会議などが含まれる。これらアプリケーションの普及に伴い、コミュニケーション中の交流体験の向上に対するユーザからの要望が高まっている。 Various techniques are known that allow users to participate in online communications with each other. Its applications include live streaming, live conference calls, and more. With the spread of these applications, there is an increasing demand from users for improved interaction experiences during communication.

本発明の一実施態様に係る方法は、映像処理方法である。当該方法が、第1ユーザのライブ映像をユーザ端末の第1領域に表示する工程と、第2ユーザの映像を当該ユーザ端末の第2領域に表示する工程を含み、当該第1ユーザの当該ライブ映像の一部が、当該ユーザ端末の当該第2領域まで延伸される。 A method according to one embodiment of the present invention is a video processing method. The method includes the steps of displaying a first user's live video in a first area of a user terminal, and displaying a second user's live video in a second area of the user terminal, A portion of the video is stretched to the second area of the user terminal.

本発明の一実施態様に係るシステムは、映像処理のためのシステムであり、1以上のプロセッサを含み、当該1以上のプロセッサが機械可読命令を実行して、第1ユーザのライブ映像をユーザ端末上の第1領域に表示する工程と、第2ユーザの映像を当該ユーザ端末の第2領域に表示する工程と、を実行する。当該第1ユーザの当該ライブ映像の一部が、当該ユーザ端末の当該第2領域まで延伸される。 A system according to an embodiment of the present invention is a system for video processing, and includes one or more processors, and the one or more processors execute machine-readable instructions to convert live video of a first user to a user terminal. A step of displaying the video of the second user in the second region of the user terminal is executed. A portion of the live video of the first user is extended to the second area of the user terminal.

本発明の一実施態様に係るコンピュータ可読媒体は、非一時的なコンピュータ可読媒体であり、映像処理のためのプログラムを含み、当該プログラムが1以上のコンピュータに、第1ユーザのライブ映像をユーザ端末上の第1領域に表示する工程と、第2ユーザの映像を当該ユーザ端末の第2領域に表示する工程と、を実行させる。当該第1ユーザの当該ライブ映像の一部が、当該ユーザ端末の当該第2領域まで延伸される。 A computer-readable medium according to an embodiment of the present invention is a non-transitory computer-readable medium, and includes a program for video processing, and the program transmits live video of a first user to a user terminal. A step of displaying the second user's video in the second region of the user terminal is executed. A portion of the live video of the first user is extended to the second area of the user terminal.

グループ通話の一例を示す概略図である。FIG. 2 is a schematic diagram showing an example of a group call. 本発明の一部の実施態様に基づくグループ通話の一例を示す概略図である。1 is a schematic diagram illustrating an example of a group call in accordance with some embodiments of the present invention; FIG. 本発明の一部の実施態様に基づくグループ通話の一例を示す概略図である。1 is a schematic diagram illustrating an example of a group call in accordance with some embodiments of the present invention; FIG. 本発明の一部の実施態様に基づくグループ通話の一例を示す概略図である。1 is a schematic diagram illustrating an example of a group call in accordance with some embodiments of the present invention; FIG. 本発明の一部の実施態様に基づくグループ通話の一例を示す概略図である。1 is a schematic diagram illustrating an example of a group call in accordance with some embodiments of the present invention; FIG. 本発明の一部の実施態様に基づくグループ通話の一例を示す概略図である。1 is a schematic diagram illustrating an example of a group call in accordance with some embodiments of the present invention; FIG. 本発明の一部の実施態様に基づく通信システムの構成を示す概略図である。1 is a schematic diagram illustrating a configuration of a communication system according to some embodiments of the present invention. FIG. 本発明の一部の実施態様に基づく通信システムの例示的な機能構成図である。1 is an exemplary functional block diagram of a communication system according to some embodiments of the present invention. FIG. 本発明の一部の実施態様に基づく通信システムの動作を示す例示的なシーケンス図である。1 is an exemplary sequence diagram illustrating the operation of a communication system according to some embodiments of the present invention. FIG.

ライブストリーミングサービス、アプリケーション(APP)またはプラットフォームの一部では、複数のユーザ(配信者、視聴者、放送者、アンカーなど)がグループ通話モードや電話会議モードで参加することが可能であり、そのうち、複数のユーザの映像がユーザ端末の画面上に同時に表示され、そのグループ通話またはグループ通話への参加を表示する。当該ユーザ端末は、スマートフォンやタブレット、パソコン、ノートパソコンとすることができ、それを使用して当該ユーザの1人が当該グループ通話に参加する。 Some live streaming services, applications (APPs) or platforms allow multiple users (streamers, viewers, broadcasters, anchors, etc.) to participate in group call mode or conference call mode, of which: Images of multiple users are displayed simultaneously on the screen of the user terminal to indicate their group call or participation in the group call. The user terminal can be a smartphone, tablet, personal computer, or laptop, and is used by one of the users to participate in the group call.

図1にグループ通話の一例を示す概略図を示す。S1は当該グループ通話を表示するユーザ端末の画面である。RAは、当該画面S1内の1領域であり、ユーザAのライブ映像を表示する。RBは、当該画面S1内の1領域であり、ユーザBのライブ映像を表示する。当該ユーザAのライブ映像は、ユーザAの近傍に配置されたカメラなどの映像撮影装置によって撮影され、提供されてもよい。当該ユーザBのライブ映像は、ユーザBの近傍に配置されたカメラなどの映像撮影装置によって撮影され、提供されてもよい。 FIG. 1 shows a schematic diagram illustrating an example of a group call. S1 is a screen of the user terminal that displays the group call. RA is one area within the screen S1, and displays user A's live video. RB is one area within the screen S1, and displays user B's live video. The live video of the user A may be captured and provided by a video capture device such as a camera placed near the user A. The live video of the user B may be captured and provided by a video capturing device such as a camera placed near the user B.

従来、当該ユーザAの映像は領域RA内にのみ表示でき、領域RB内に表示することはできない。同様に、当該ユーザBの映像は領域RB内にのみ表示でき、領域RA内に表示することはできない。そのため、コミュニケーション中に不便を感じたり、アプリケーションに支障をきたしたりする場合がある。例えば、ユーザBが当該グループ通話でユーザAに新たに開発した製品を提示する例示的なシナリオにおいて、ユーザAは詳細な議論のために製品の一部または部分を正確に指し示すことができない。そのため、グループ通話や電話会議では、より多くの交流を行うことが望まれる。 Conventionally, the video of the user A can only be displayed within the area RA, and cannot be displayed within the area RB. Similarly, the video of the user B can only be displayed within the area RB, and cannot be displayed within the area RA. This may cause inconvenience during communication or may cause problems with the application. For example, in an exemplary scenario in which User B presents a newly developed product to User A in the group call, User A is unable to pinpoint a part or portion of the product for detailed discussion. Therefore, it is desirable to have more interaction during group calls and conference calls.

図2は本発明の一部の実施態様に基づくグループ通話の一例を示す概略図である。図2に示すように、ユーザAの部分A1が、ユーザBが表示されている領域RBまで延伸されている、または再現/複製されている。本実施態様において、当該部分A1は、領域RAにおけるユーザAの手であり、当該部分A11は、領域RBに表示される当該部分A1の延伸、再現、または複製されたバージョンである。当該部分A11は、領域RB内のオブジェクトB1を指し示す、またはその方向に向けられている。一部の実施態様において、領域RB内に表示されているユーザBの映像はライブ映像である。一部の実施態様において、領域RB内に表示されているユーザBの映像は再生映像である。 FIG. 2 is a schematic diagram illustrating an example of a group call in accordance with some embodiments of the present invention. As shown in FIG. 2, user A's portion A1 has been extended or reproduced/duplicated to area RB where user B is displayed. In this embodiment, the portion A1 is the user A's hand in the area RA, and the portion A11 is a stretched, reproduced, or duplicated version of the portion A1 displayed in the area RB. The portion A11 points to or is oriented towards the object B1 within the region RB. In some implementations, the video of user B displayed within region RB is live video. In some embodiments, the video of user B displayed within region RB is a played video.

一部の実施態様において、当該部分A11は当該部分A1の動きまたは軌跡を追従する。一部の実施態様において、当該部分A11は当該部分A1と同時に移動する。当該ユーザAは、当該部分A1となっている手を動かすだけで、当該ユーザAが議論したい領域RB内の位置を指し示すように、当該部分A11を制御したり、動かしたりすることができる。一部の実施態様において、当該部分A11は、グラフィカルオブジェクトまたはアニメーションオブジェクトとして表現または表示されてもよい。 In some embodiments, the portion A11 follows the movement or trajectory of the portion A1. In some embodiments, the portion A11 moves simultaneously with the portion A1. The user A can control or move the part A11 to point to a position within the area RB that the user A wants to discuss by simply moving the hand that is the part A1. In some implementations, the portion A11 may be represented or displayed as a graphical or animated object.

図2に示すように、領域RA内には境界A3がある。当該境界A3は、領域RA内で領域A31と領域A32を定義する。本実施態様において、当該領域A31は当該領域A32を囲んでいる。当該領域A31は、インタラクティブ領域と呼ぶ、または定義することができる。領域RB内に延伸される、または再現される当該部分A1は、当該インタラクティブ領域A31内にある。当該部分A1は、領域RA内のユーザBに向けて延伸される。一部の実施態様において、当該インタラクティブ領域A31内の部分のみを領域RB内に延伸または表示することができる。一部の実施態様において、ユーザAがユーザAの1部分を領域RBに延伸することによりユーザBと交流したい場合、ユーザAは当該部分を当該インタラクティブ領域A31へ移動するだけで、当該部分が領域RB内に表示される。本実施態様において、当該領域RAと当該領域RBは相互に分離されている。一部の実施態様において、当該領域RAと当該領域RBは、当該画面S1上で少なくとも一部が重なり合ってもよい。 As shown in FIG. 2, there is a boundary A3 within the area RA. The boundary A3 defines an area A31 and an area A32 within the area RA. In this embodiment, the area A31 surrounds the area A32. The area A31 can be called or defined as an interactive area. The portion A1 that is extended or reproduced within the area RB is within the interactive area A31. The portion A1 is extended toward the user B within the area RA. In some implementations, only the portion within the interactive area A31 may be extended or displayed within the area RB. In some implementations, if user A wants to interact with user B by extending a part of user A into region RB, user A can simply move the part to the interactive area A31 and Displayed in RB. In this embodiment, the area RA and the area RB are separated from each other. In some embodiments, the area RA and the area RB may at least partially overlap on the screen S1.

図2に示すように、領域RB内には境界B3がある。当該境界B3は、領域RB内で領域B31と領域B32を定義する。本実施態様において、当該領域B31は当該領域B32を囲んでいる。当該領域B31は、インタラクティブ領域と呼ぶ、または定義することができる。一部の実施態様において、当該インタラクティブ領域B31内の部分を領域RA内に延伸または表示することができる。一部の実施態様において、ユーザBがユーザBの1部分を領域RAに延伸することによりユーザAと交流したい場合、ユーザBは当該部分を当該インタラクティブ領域B31へ移動するだけで、当該部分が領域RA内に表示される。一部の実施態様において、当該境界A3及び/または当該境界B3は、当該領域RA及び/または当該領域RB上に表示されなくてもよい。 As shown in FIG. 2, there is a boundary B3 within the region RB. The boundary B3 defines a region B31 and a region B32 within the region RB. In this embodiment, the area B31 surrounds the area B32. The area B31 can be called or defined as an interactive area. In some implementations, a portion within the interactive area B31 may be extended or displayed within the area RA. In some implementations, if user B wants to interact with user A by extending a part of user B to area RA, user B can simply move the part to the interactive area B31 and Displayed in RA. In some embodiments, the boundary A3 and/or the boundary B3 may not be displayed on the area RA and/or the area RB.

図2において、ユーザAとユーザB、または領域RAと領域RBは、当該ユーザ端末の当該画面S1上で横方向に並んでおり、当該ユーザAのライブ映像の当該部分A1が当該領域RAにおいてユーザBに向かって延伸されている。 In FIG. 2, user A and user B, or area RA and area RB, are arranged horizontally on the screen S1 of the user terminal, and the part A1 of the live video of the user A is displayed by the user in the area RA. It is extended towards B.

図3に本発明の一部の実施態様に基づくグループ通話の別の一例を示す概略図を示す。当該グループ通話には、少なくとも4人のユーザ、すなわちユーザA、ユーザB、ユーザC、ユーザDが参加している。図3において、ユーザAとユーザBは当該ユーザ端末の当該画面S1上で縦方向に並んでいる。図3に示すように、ユーザAの部分A2が、ユーザBが表示されている領域RBまで延伸されている、または再現/複製されている。本実施態様において、当該部分A2はユーザAの手と、その手に保持されたオブジェクトを含み、当該部分A21は領域RB内に表示される当該部分A2の延伸、再現、または複製されたバージョンである。当該部分A21は、領域RB内のユーザBに近づく、またはその方向に向けられている。当該部分A21がユーザBに接触すると、領域RBに特殊効果SP1が表示される。当該特殊効果SP1は、グラフィックオブジェクトまたはアニメーションオブジェクトを含んでもよい。一部の実施態様において、当該特殊効果SP1は効果音を含んでもよい。 FIG. 3 shows a schematic diagram illustrating another example of group calling according to some embodiments of the present invention. At least four users, ie, user A, user B, user C, and user D, are participating in the group call. In FIG. 3, user A and user B are lined up in the vertical direction on the screen S1 of the user terminal. As shown in FIG. 3, user A's portion A2 has been extended or reproduced/duplicated to area RB where user B is displayed. In this embodiment, the portion A2 includes the user A's hand and the object held in the hand, and the portion A21 is a stretched, reproduced, or duplicated version of the portion A2 displayed within the region RB. be. The portion A21 approaches or is directed toward the user B within the region RB. When the portion A21 comes into contact with the user B, a special effect SP1 is displayed in the area RB. The special effect SP1 may include a graphic object or an animation object. In some embodiments, the special effect SP1 may include sound effects.

一部の実施態様において、当該部分A21は当該部分A2の動きまたは軌跡を追従する。一部の実施態様において、当該部分A21は当該部分A2と同時に移動する。当該ユーザAは、当該ユーザAの手(オブジェクトを持っていてもよい)を動かすだけで、当該ユーザAが交流したい領域RB内の1つの位置を指し示す、または触れるように、当該部分A21を制御したり、動かしたりすることができる。一部の実施態様において、当該部分A21は、グラフィカルオブジェクトまたはアニメーションオブジェクトとして表現または表示されてもよい。 In some embodiments, the portion A21 follows the movement or trajectory of the portion A2. In some embodiments, the portion A21 moves simultaneously with the portion A2. The user A controls the part A21 to point to or touch a position in the area RB with which the user A wants to interact by simply moving the user A's hand (which may be holding an object). You can do or move it. In some implementations, the portion A21 may be represented or displayed as a graphical or animated object.

図3に示すように、領域RA内には境界A3がある。当該境界A3は、領域RA内で領域A31と領域A32を定義する。本実施態様において、当該領域A31は当該領域A32を囲んでいる。当該領域A31は、インタラクティブ領域と呼ぶ、または定義することができる。領域RB内に延伸される、または再現される当該部分A2は、当該インタラクティブ領域A31内にある。当該部分A2は、領域RA内のユーザBに向けて延伸される。一部の実施態様において、当該インタラクティブ領域A31内の部分のみを領域RB内に延伸または表示することができる。一部の実施態様において、ユーザAがユーザAの1部分を領域RBに延伸することによりユーザBと交流したい場合、ユーザAは当該部分を当該インタラクティブ領域A31へ移動するだけで、当該部分が領域RB内に表示される。 As shown in FIG. 3, there is a boundary A3 within the area RA. The boundary A3 defines an area A31 and an area A32 within the area RA. In this embodiment, the area A31 surrounds the area A32. The area A31 can be called or defined as an interactive area. The portion A2 that is extended or reproduced within the area RB is within the interactive area A31. The portion A2 is extended toward the user B within the area RA. In some implementations, only the portion within the interactive area A31 may be extended or displayed within the area RB. In some implementations, if user A wants to interact with user B by extending a part of user A into region RB, user A can simply move the part to the interactive area A31 and Displayed in RB.

図4に本発明の一部の実施態様に基づくグループ通話の別の一例を示す概略図を示す。当該グループ通話には、少なくとも4人のユーザ、すなわちユーザA、ユーザB、ユーザC、ユーザDが参加している。図4において、ユーザAとユーザDは当該ユーザ端末の当該画面S1上で対角方向に並んでいる。図4に示すように、ユーザAの部分A1が、ユーザDが表示されている領域RDまで延伸されている、または再現/複製されている。本実施態様において、当該部分A1はユーザAの手であり、当該部分A11は、領域RDに表示される当該部分A1の延伸、再現、または複製されたバージョンである。当該部分A11は、領域RD内のユーザDを指し示す、またはその方向に向けられている。 FIG. 4 shows a schematic diagram illustrating another example of group calling according to some embodiments of the present invention. At least four users, ie, user A, user B, user C, and user D, are participating in the group call. In FIG. 4, users A and D are lined up diagonally on the screen S1 of the user terminal. As shown in FIG. 4, user A's portion A1 has been extended or reproduced/duplicated to region RD where user D is displayed. In this embodiment, the portion A1 is user A's hand, and the portion A11 is a stretched, reproduced, or duplicated version of the portion A1 displayed in region RD. The portion A11 points to or is directed toward the user D within the region RD.

一部の実施態様において、当該部分A11は当該部分A1の動きまたは軌跡を追従する。一部の実施態様において、当該部分A11は当該部分A1と同時に移動する。当該ユーザAは、当該部分A1となっている手を動かすだけで、当該ユーザAが交流したい領域RD内の位置を指し示すように、当該部分A11を制御したり、動かしたりすることができる。一部の実施態様において、当該部分A11は、グラフィカルオブジェクトまたはアニメーションオブジェクトとして表現または表示されてもよい。 In some embodiments, the portion A11 follows the movement or trajectory of the portion A1. In some embodiments, the portion A11 moves simultaneously with the portion A1. The user A can control or move the part A11 so as to point to a position in the area RD with which the user A wants to interact by simply moving the hand that is the part A1. In some implementations, the portion A11 may be represented or displayed as a graphical or animated object.

図4に示すように、領域RA内には境界A3がある。当該境界A3は、領域RA内で領域A31と領域A32を定義する。当該領域A31は当該領域A32を囲んでいる。当該領域A31は、インタラクティブ領域と呼ぶ、または定義することができる。本実施態様において、当該インタラクティブ領域A31はサブ領域A311を含む。領域RD内に延伸される、または再現される当該部分A1は、当該サブ領域A311内にある。当該サブ領域A311は、ユーザAとユーザDの間にある。当該サブ領域A311は、領域RAのうち、ユーザAから見て領域RDの方を向いた位置にある。 As shown in FIG. 4, there is a boundary A3 within the area RA. The boundary A3 defines an area A31 and an area A32 within the area RA. The area A31 surrounds the area A32. The area A31 can be called or defined as an interactive area. In this embodiment, the interactive area A31 includes a sub-area A311. The portion A1 that is stretched or reproduced within the region RD is within the sub-region A311. The sub-area A311 is located between users A and D. The sub-area A311 is located in the area RA at a position facing the area RD when viewed from the user A.

図2、図3、図4の例に示すように、領域RAにおいてユーザAの部分が延伸される方向によって、ユーザAの延伸、複製、再現されたバージョンの当該部分が表示される領域が決定されてもよい。したがって、ユーザAは、ユーザAの当該部分を対応する方向へ移動または伸長させるだけで、どの領域(および対応するユーザ)と交流するかを決定することができる。例えば、ユーザAは横方向に部分を伸長させ、表示領域が当該画面S1上でユーザAに対して横方向に並んだ、または配置されているユーザと交流することができる。別の例で、ユーザAは縦方向に部分を伸長させ、表示領域が当該画面S1上でユーザAに対して縦方向に並んだ、または配置されているユーザと交流することができる。さらに別の例で、ユーザAは対角方向に部分を伸長させ、表示領域が当該画面S1上でユーザAに対して対角方向に並んだ、または配置されているユーザと交流することができる。 As shown in the examples of FIGS. 2, 3, and 4, the direction in which the portion of user A is stretched in area RA determines the area in which the stretched, duplicated, and reproduced version of user A is displayed. may be done. Therefore, user A can decide which area (and corresponding user) to interact with simply by moving or stretching that part of user A in the corresponding direction. For example, user A can extend the portion laterally and interact with users whose display areas are lined up or placed laterally with respect to user A on the screen S1. In another example, user A can extend a portion vertically and interact with a user whose display area is aligned or arranged vertically with respect to user A on the screen S1. In yet another example, user A can extend the portion diagonally and interact with users whose display areas are lined up or arranged diagonally with respect to user A on the screen S1. .

一部の実施態様において、ユーザは別のユーザとより便利に交流できるように、当該インタラクティブ領域の形状を調整することができる。図5に本発明の一部の実施態様に基づくグループ通話の別の一例を示す概略図を示す。当該グループ通話には、少なくとも4人のユーザ、すなわちユーザA、ユーザB、ユーザC、ユーザDが参加している。図5に示すように、当該境界A3は、前の例示的実施態様で説明したように、ユーザAが他のユーザと交流するために利用する領域である当該インタラクティブ領域A31を定義する。当該インタラクティブ領域A31はサブ領域A311を含む。当該境界A3は、少なくとも境界線BR1と境界線BR2を含む。一部の実施態様において、ユーザAが別のユーザとより便利に交流したい場合、ユーザAは当該境界線BR1の位置及び/または当該境界線BR2の位置を調整し、当該インタラクティブ領域A31の形状と当該当該サブ領域A311の形状を調整することができる。当該境界線BR1は、当該領域RAに対するユーザCまたは当該領域RCの方向に対応し、かつ当該領域RAと当該領域RCの間にある。当該境界線BR2は、当該領域RAに対するユーザBまたは当該領域RBの方向に対応し、かつ当該領域RAと当該領域RBの間にある。 In some implementations, a user can adjust the shape of the interactive area to more conveniently interact with another user. FIG. 5 shows a schematic diagram illustrating another example of group calling according to some embodiments of the present invention. At least four users, ie, user A, user B, user C, and user D, are participating in the group call. As shown in FIG. 5, the boundary A3 defines the interactive area A31, which is the area used by user A to interact with other users, as described in the previous exemplary embodiment. The interactive area A31 includes a sub-area A311. The boundary A3 includes at least a boundary line BR1 and a boundary line BR2. In some implementations, if user A wants to interact more conveniently with another user, user A adjusts the position of said border line BR1 and/or the position of said border line BR2, and adjusts the shape of said interactive area A31. The shape of the sub-region A311 can be adjusted. The boundary line BR1 corresponds to the direction of the user C or the region RC with respect to the region RA, and is between the region RA and the region RC. The boundary line BR2 corresponds to the direction of the user B or the area RB with respect to the area RA, and is between the area RA and the area RB.

例えば、ユーザAは、ユーザAとユーザCの間にある当該インタラクティブ領域A31のサブ領域A312がより幅広になり、ユーザAにより近くなるように、当該境界線BR1をユーザAに近づけてドラッグまたは移動することができる。これにより、ユーザAはユーザAの部分を使用してユーザCとより交流しやすくなる。ユーザAは、ユーザAの当該部分を比較的短い距離だけ伸長し、当該境界線BR1を越えて当該インタラクティブ領域A31の当該サブ領域A312に到達すればよく、そうするとユーザCが表示される領域RCにおいて当該部分が延伸、複製または再現される。 For example, user A drags or moves the boundary line BR1 closer to user A so that sub-area A312 of interactive area A31 between users A and C becomes wider and closer to user A. can do. This makes it easier for user A to interact with user C using the user A part. User A only needs to extend the corresponding part of user A by a relatively short distance, cross the boundary line BR1, and reach the corresponding sub-area A312 of the interactive area A31, and then user C will be able to reach the corresponding sub-area A312 in the displayed area RC. The part is stretched, copied or reproduced.

別の一例で、ユーザAは、ユーザAとユーザBの間にある当該インタラクティブ領域A31のサブ領域A313がより幅広になり、ユーザAにより近くなるように、当該境界線BR2をユーザAに近づけてドラッグまたは移動することができる。これにより、ユーザAはユーザAの部分を使用してユーザBとより交流しやすくなる。ユーザAは、ユーザAの当該部分を比較的短い距離だけ伸長し、当該境界線BR2を越えて当該インタラクティブ領域A31の当該サブ領域A312に到達すればよく、そうするとユーザBが表示される領域RBにおいて当該部分が延伸、複製または再現される。 In another example, user A moves the boundary line BR2 closer to user A so that the sub-area A313 of the interactive area A31 between users A and B becomes wider and closer to user A. Can be dragged or moved. This makes it easier for user A to interact with user B using the user A part. User A only needs to extend the corresponding part of user A by a relatively short distance, cross the boundary line BR2 and reach the corresponding sub-area A312 of the interactive area A31, and then user B will be able to reach the corresponding sub-area A312 of the interactive area A31. The part is stretched, copied or reproduced.

さらに別の一例で、ユーザAは、ユーザAとユーザDの間にある当該インタラクティブ領域A31のサブ領域A311がより幅広になり、ユーザAにより近くなるように、当該境界線BR1及び/または境界線BR2をユーザAに近づけてドラッグまたは移動することができる。これにより、ユーザAはユーザAの部分を使用してユーザDとより交流しやすくなる。ユーザAは、ユーザAの当該部分を比較的短い距離だけ対角方向に伸長し、当該インタラクティブ領域A31の当該サブ領域A311に到達すればよく、そうするとユーザDが表示される領域RDにおいて当該部分が延伸、複製または再現される。 In yet another example, the user A may select the border line BR1 and/or the border line so that the sub-area A311 of the interactive area A31 between the user A and the user D is wider and closer to the user A. BR2 can be dragged or moved closer to user A. This makes it easier for user A to interact with user D using the user A part. User A only needs to extend the corresponding part of user A in the diagonal direction by a relatively short distance and reach the corresponding sub-area A311 of the corresponding interactive area A31, and then the corresponding part will be displayed in the area RD where user D is displayed. To be stretched, copied or reproduced.

図6に本発明の一部の実施態様に基づくグループ通話の別の一例を示す概略図を示す。一部の実施態様において、当該インタラクティブ領域の外側のみが抽出され、当該画面S1上に表示される。より具体的に、ユーザAに対しては、当該境界A3で囲まれた領域のみが当該画面S1に表示される。ユーザB、ユーザC、ユーザDに対しては、当該境界B3、C3、D3で囲まれた領域のみが当該画面S1に表示される。それにより、交流の臨場感を向上させることができる。例えば、ユーザAが部分を別のユーザの表示領域に伸長したとき、当該部分はユーザAの表示領域に表示されない。 FIG. 6 shows a schematic diagram illustrating another example of group calling according to some embodiments of the present invention. In some implementations, only the outside of the interactive area is extracted and displayed on the screen S1. More specifically, for user A, only the area surrounded by the boundary A3 is displayed on the screen S1. For users B, C, and D, only the area surrounded by the boundaries B3, C3, and D3 is displayed on the screen S1. Thereby, the sense of realism of the interaction can be improved. For example, when user A stretches a portion into another user's display area, the portion is not displayed in user A's display area.

図7に本発明の一部の実施態様に基づく通信システム1の構成を示す概略図を示す。通信システム1は、コンテンツを介したインタラクションを伴うライブストリーミングサービスを提供することができる。ここで言う「コンテンツ」とは、コンピュータ装置で再生可能なデジタルコンテンツを指す。当該通信システム1は、ユーザがオンラインで他のユーザとのリアルタイムの交流に参加することを可能にする。通信システム1は、複数のユーザ端末10と、バックエンドサーバ30と、ストリーミングサーバ40とを含む。ユーザ端末10、バックエンドサーバ30、及びストリーミングサーバ40は、ネットワーク90(例えばインターネットとしてもよい)を介して接続される。バックエンドサーバ30は、ユーザ端末および/またはストリーミングサーバ40との間のインタラクションを同期させるサーバとすることができる。一部の実施態様において、バックエンドサーバ30は、アプリケーション(APP)プロバイダのオリジンサーバとしてもよい。ストリーミングサーバ40は、ストリーミングデータまたはビデオデータを取り扱う、または提供するためのサーバである。一部の実施態様において、バックエンドサーバ30とストリーミングサーバ40は、独立したサーバとしてもよい。一部の実施態様において、バックエンドサーバ30とストリーミングサーバ40は、1つのサーバに統合してもよい。一部の実施態様において、ユーザ端末10は、ライブストリーミングのためのクライアント装置である。一部の実施態様において、ユーザ端末10は、視聴者、ストリーマー、アンカー、ポッドキャスター、オーディエンス、リスナーなどと呼ばれることがある。ユーザ端末10、バックエンドサーバ30、及びストリーミングサーバ40はそれぞれ情報処理装置の一例である。一部の実施態様において、ストリーミングは、ライブストリーミングまたはビデオ再生とすることができる。一部の実施態様において、ストリーミングは、オーディオストリーミングおよび/またはビデオストリーミングとすることができる。一部の実施態様において、ストリーミングは、オンラインショッピング、トークショー、タレントショー、娯楽イベント、スポーツイベント、音楽ビデオ、映画、コメディ、コンサート、グループ通話、電話会議などのコンテンツを含むことができる。 FIG. 7 shows a schematic diagram showing the configuration of a communication system 1 based on some embodiments of the present invention. The communication system 1 can provide live streaming services with interaction through content. "Content" here refers to digital content that can be played back on a computer device. The communication system 1 allows users to participate in real-time interactions with other users online. The communication system 1 includes a plurality of user terminals 10, a backend server 30, and a streaming server 40. The user terminal 10, the backend server 30, and the streaming server 40 are connected via a network 90 (for example, the Internet may be used). Backend server 30 may be a server that synchronizes interactions between user terminals and/or streaming server 40 . In some implementations, backend server 30 may be an application (APP) provider's origin server. Streaming server 40 is a server for handling or providing streaming data or video data. In some implementations, backend server 30 and streaming server 40 may be independent servers. In some implementations, backend server 30 and streaming server 40 may be integrated into one server. In some implementations, user terminal 10 is a client device for live streaming. In some implementations, user terminal 10 may be referred to as a viewer, streamer, anchor, podcaster, audience, listener, etc. The user terminal 10, the backend server 30, and the streaming server 40 are each examples of information processing devices. In some implementations, streaming can be live streaming or video playback. In some implementations, streaming can be audio streaming and/or video streaming. In some implementations, streaming can include content such as online shopping, talk shows, talent shows, entertainment events, sporting events, music videos, movies, comedy, concerts, group calls, conference calls, and the like.

図8に本発明の一部の実施態様に基づく通信システムの例示的な機能構成図を示す。図8において、ネットワーク90は省略されている。 FIG. 8 shows an exemplary functional block diagram of a communication system according to some embodiments of the present invention. In FIG. 8, the network 90 is omitted.

当該バックエンドサーバ30は、メッセージユニット32を含む。当該メッセージユニット32は、ユーザ端末からデータまたは情報を受け取り、それらデータを処理及び/または保存し、当該データをユーザ端末に送信するように構成される。一部の実施態様において、当該メッセージユニット32は当該バックエンドサーバ30とは別個のユニットとしてもよい。 The backend server 30 includes a message unit 32 . The message unit 32 is configured to receive data or information from a user terminal, process and/or store the data, and send the data to the user terminal. In some implementations, the message unit 32 may be a separate unit from the backend server 30.

当該ストリーミングサーバ40は、データ受信装置400と、データ送信装置402を含む。当該データ受信装置400は、さまざまなユーザ端末からストリーミングデータやビデオデータなどのデータまたは情報を受信するように構成される。当該データ送信装置402は、さまざまなユーザ端末にストリーミングデータやビデオデータなどのデータまたは情報を送信するように構成される。 The streaming server 40 includes a data receiving device 400 and a data transmitting device 402. The data receiving device 400 is configured to receive data or information such as streaming data or video data from various user terminals. The data transmission device 402 is configured to transmit data or information, such as streaming data or video data, to various user terminals.

当該ユーザ端末10Aは、ユーザAにより操作されるユーザ端末であってもよい。当該ユーザ端末10Aは、カメラ700と、レンダラー702と、ディスプレイ704と、エンコーダー706と、デコーダー708と、結果送信装置710と、マッティングユニット712と、オブジェクト認識ユニット714を含む。 The user terminal 10A may be a user terminal operated by user A. The user terminal 10A includes a camera 700, a renderer 702, a display 704, an encoder 706, a decoder 708, a result transmitting device 710, a matting unit 712, and an object recognition unit 714.

当該カメラ700は、任意の種類の映像撮影装置である、またはこれを含むことができる。当該カメラ700は、例えばユーザAの、ビデオデータを撮影するように構成される。 The camera 700 may be or include any type of video capture device. The camera 700 is configured to capture video data of user A, for example.

当該レンダラー702は、当該カメラ700からのビデオデータ(ユーザAのビデオデータ)を受信、当該デコーダー708からのビデオデータ(ユーザBからのビデオデータを含んでもよい)を受信して、当該ディスプレイ704に表示するレンダリングされた映像(ユーザAとユーザBが表示されているグループ通話を表示する映像など)を生成するように構成される。 The renderer 702 receives video data from the camera 700 (user A's video data), receives video data from the decoder 708 (which may include video data from user B), and displays the video data on the display 704. It is configured to generate rendered video for display (such as video displaying a group call in which User A and User B are displayed).

当該ディスプレイ704は、当該レンダラー702からのレンダリングされた映像を表示するように構成される。一部の実施態様において、当該ディスプレイ704はユーザ端末10A上の画面であってもよい。 The display 704 is configured to display rendered video from the renderer 702. In some implementations, the display 704 may be a screen on the user terminal 10A.

当該エンコーダー706は当該カメラ700からのビデオデータをエンコードし、エンコードした当該ビデオデータを当該ストリーミングサーバ40の当該データ受信装置400に送信するように構成される。エンコードしたデータはストリーミングデータとして送信されてもよい。 The encoder 706 is configured to encode video data from the camera 700 and send the encoded video data to the data receiving device 400 of the streaming server 40 . The encoded data may be transmitted as streaming data.

当該デコーダー708は、当該ストリーミングサーバ40の当該データ送信装置402からビデオデータまたはストリーミングデータ(ユーザBからのビデオデータを含んでもよい)を受信し、それらをデコードしてデコードしたビデオデータとし、当該デコードしたビデオデータを当該レンダラー702に送信してレンダリングさせるように構成される。 The decoder 708 receives video data or streaming data (which may include video data from user B) from the data transmission device 402 of the streaming server 40, decodes the video data, converts it into decoded video data, and converts it into decoded video data. The rendered video data is sent to the renderer 702 for rendering.

当該マッティングユニット712は、当該カメラ700からの当該ビデオデータ(ユーザAのビデオデータ)にマッティング処理(画像マッティングまたは映像マッティング)を実行するように構成される。当該マッティング処理は、輪郭認識処理、画像比較処理、移動体検出処理、及び/または切り出し処理が含まれてもよい。当該マッティング処理は、定色マッティング(constant-color matting)、差分マッティング(difference matting)、自然画像マッティング(natural image matting)を含む手法で実行されてもよい。また、当該マッティング処理に関わるアルゴリズムは、ベイジアンマッティング(Bayesian matting)、ポアソンマッティング(Poisson matting)、またはロバストマッティング(Robust matting)を含んでもよい。一部の実施態様において、画像比較プロセスは、初期またはデフォルトの背景画像と現在のまたはライブ画像とを定期的に比較し、インタラクティブ領域におけるユーザAの部分を検出する。 The matting unit 712 is configured to perform a matting process (image matting or video matting) on the video data (user A's video data) from the camera 700. The matting process may include a contour recognition process, an image comparison process, a moving object detection process, and/or a cutting process. The matting process may be performed using techniques including constant-color matting, difference matting, and natural image matting. Further, the algorithm related to the matting process may include Bayesian matting, Poisson matting, or Robust matting. In some implementations, the image comparison process periodically compares the initial or default background image and the current or live image to detect user A's portion in the interactive area.

例えば、当該マッティングユニット712は、カメラ700からユーザAのビデオデータを受け取る。当該ビデオデータは、図2、図3、図4、図5で例に挙げて上述したようにインタラクティブ領域を含むことができる。一部の実施態様において、当該マッティングユニット712は、ビデオデータ中のユーザAの輪郭を検出または抽出するためのマッティング処理を実行する。一部の実施態様において、当該マッティングユニット712は、当該インタラクティブ領域内のユーザAの部分(ユーザAの手や、オブジェクトを持っているユーザAの手など)を検出または抽出するマッティング処理を実行する。一部の実施態様において、当該マッティングユニット712は、ユーザAのビデオデータから当該インタラクティブ領域外側の領域または部分を削除する切り出し処理を実行する。一部の実施態様において、当該マッティングユニット712は、ユーザAの当該部分が検出された当該インタラクティブ領域内の位置を検出、認識、または判断する。一部の実施態様において、切り出し処理の前に輪郭認識処理または画像比較処理を実行し、当該インタラクティブ領域におけるユーザAの当該部分の検出精度を向上させてもよい。 For example, the matting unit 712 receives user A's video data from the camera 700. The video data may include an interactive area as described above by way of example in FIGS. 2, 3, 4, and 5. In some implementations, the matting unit 712 performs a matting process to detect or extract the contour of user A in the video data. In some implementations, the matting unit 712 performs a matting process that detects or extracts a portion of user A within the interactive area (such as user A's hand or user A's hand holding an object). Execute. In some implementations, the matting unit 712 performs a cropping process that removes areas or portions outside the interactive area from the user A's video data. In some implementations, the matting unit 712 detects, recognizes, or determines the location within the interactive area where the portion of user A is detected. In some embodiments, a contour recognition process or an image comparison process may be performed before the cutting process to improve the accuracy of detecting the part of the user A in the interactive area.

一部の実施態様において、当該インタラクティブ領域、及び対応する境界または境界線は、当該ユーザ端末10Aのプロセッサ(図示しない)または当該グループ通話を有効にしているアプリケーションにより定義されてもよい。一部の実施態様において、当該インタラクティブ領域と、対応する境界または境界線は、ユーザAにより当該ユーザ端末10AのUI(ユーザインターフェイス)ユニット(図示しない)で決定されてもよい。一部の実施態様において、当該マッティングユニット712は、領域RA内の境界線を越えたユーザAの部分を検出することにより、当該インタラクティブ領域内のユーザAの当該部分(またはユーザAのライブ映像の当該部分)を検出または判断する。当該領域RA内の当該境界線は、例えば、図5における当該境界線BR1または当該境界線BR2であってもよい。 In some implementations, the interactive area and corresponding boundaries or boundaries may be defined by a processor (not shown) of the user terminal 10A or an application enabling the group call. In some implementations, the interactive area and the corresponding boundaries or boundaries may be determined by the user A in a UI (user interface) unit (not shown) of the user terminal 10A. In some implementations, the matting unit 712 detects the portion of user A within the interactive area (or the live video of user A) by detecting the portion of user A beyond the border within the area RA. detect or determine the relevant part of the The boundary line within the area RA may be the boundary line BR1 or the boundary line BR2 in FIG. 5, for example.

当該オブジェクト認識ユニット714は、当該マッティングユニット712からの出力データに対してオブジェクト認識処理を実行するように構成される。当該出力データは、ユーザAの検出された部分または抽出された部分(ユーザAの手や、オブジェクトを持っているユーザAの手など)を含むことができる。当該オブジェクト認識ユニット714は、当該ユーザAの検出された部分が任意の所定のパターン、オブジェクト及び/またはジェスチャを含むか否かを判定するオブジェクト認識処理を実行する。一部の実施態様において、当該オブジェクト認識処理は、テンプレートマッチング、パターンマッチング、輪郭マッチング、ジェスチャ認識、皮膚認識、外形マッチング、色または形状マッチング、および特徴に基づくマッチングなどの技術を含むことができる。一部の実施態様において、当該オブジェクト認識ユニット714は、当該ユーザAの検出された部分(またはその一部)と所定のパターンのセットとのマッチング相関を計算し、当該ユーザAの検出された部分内で任意のパターンが一致する、または認識されるか否かを判断する。一部の実施態様において、当該オブジェクト認識ユニット714は、ユーザAの当該部分が検出された当該インタラクティブ領域内の位置を検出、認識、または判断する。一部の実施態様において、当該オブジェクト認識処理は、切り出し処理が行われていない当該マッティングユニット712からの画像または映像に対して行われてもよく、それにより、当該オブジェクト認識処理の精度を向上させることができる。一部の実施態様において、当該オブジェクト認識ユニット714は当該インタラクティブ領域内でユーザAの当該部分の画像または映像を認識及び抽出し、当該結果送信装置710に抽出された当該画像または映像を送信する。 The object recognition unit 714 is configured to perform object recognition processing on the output data from the matting unit 712. The output data may include a detected part or an extracted part of user A (user A's hand, user A's hand holding an object, etc.). The object recognition unit 714 performs an object recognition process to determine whether the detected portion of the user A includes any predetermined patterns, objects, and/or gestures. In some implementations, the object recognition process can include techniques such as template matching, pattern matching, contour matching, gesture recognition, skin recognition, shape matching, color or shape matching, and feature-based matching. In some implementations, the object recognition unit 714 calculates matching correlations between the detected portions of the user A (or portions thereof) and a predetermined set of patterns, and Determine whether any pattern within is matched or recognized. In some implementations, the object recognition unit 714 detects, recognizes, or determines the location within the interactive area where the portion of user A is detected. In some embodiments, the object recognition process may be performed on images or videos from the matting unit 712 that have not been subjected to the cropping process, thereby improving the accuracy of the object recognition process. can be done. In some embodiments, the object recognition unit 714 recognizes and extracts the image or video of the part of the user A within the interactive area, and transmits the extracted image or video to the result transmitting device 710.

当該結果送信装置710は、当該オブジェクト認識ユニット714の出力結果(当該マッティングユニット712の出力を含んでもよい)を当該バックエンドサーバ30の当該メッセージユニット32に送信するように構成される。一部の実施態様において、当該結果送信装置710は、当該メッセージユニット32を介して送信する代わりに、当該結果受信装置810に当該出力を直接送信してもよい。 The result sending device 710 is configured to send the output results of the object recognition unit 714 (which may include the output of the matting unit 712) to the message unit 32 of the backend server 30. In some implementations, the results sending device 710 may send the output directly to the results receiving device 810 instead of sending it via the message unit 32.

当該ユーザ端末10Bは、ユーザBにより操作されるユーザ端末であってもよい。当該ユーザ端末10Bは、カメラ800と、レンダラー802と、ディスプレイ804と、エンコーダー806と、デコーダー808と、結果受信装置810と、画像処理装置812を含む。 The user terminal 10B may be a user terminal operated by user B. The user terminal 10B includes a camera 800, a renderer 802, a display 804, an encoder 806, a decoder 808, a result receiving device 810, and an image processing device 812.

当該カメラ800は、任意の種類の映像撮影装置である、またはこれを含むことができる。当該カメラ800は、例えばユーザBの、ビデオデータを撮影するように構成される。当該カメラ800は、撮影したビデオデータを当該エンコーダー806、当該レンダラー802、及び/または当該画像処理装置812に送信する。 The camera 800 may be or include any type of video capture device. The camera 800 is configured to capture video data of user B, for example. The camera 800 sends captured video data to the encoder 806, the renderer 802, and/or the image processing device 812.

当該レンダラー802は、当該カメラ800からのビデオデータ(例:ユーザBのビデオデータ)を受信、当該デコーダー808からのビデオデータ(ユーザAなど、別のユーザからのビデオデータを含んでもよい)を受信、当該画像処理装置812の出力データを受信して、当該ディスプレイ804に表示するレンダリングされた映像(ユーザAとユーザBが表示されているグループ通話を表示する映像など)を生成するように構成される。 The renderer 802 receives video data from the camera 800 (e.g., user B's video data), and receives video data from the decoder 808 (which may include video data from another user, such as user A). , configured to receive output data of the image processing device 812 and generate rendered video for display on the display 804 (such as video displaying a group call in which User A and User B are displayed). Ru.

当該ディスプレイ804は、当該レンダラー802からのレンダリングされた映像を表示するように構成される。一部の実施態様において、当該ディスプレイ804は当該ユーザ端末10B上の画面であってもよい。 The display 804 is configured to display rendered video from the renderer 802. In some implementations, the display 804 may be a screen on the user terminal 10B.

当該エンコーダー806は、当該カメラ800からの当該ビデオデータ、及び/または当該画像処理装置812からのビデオデータを含む、データをエンコードするように構成される。当該エンコーダー806は、エンコードした当該ビデオデータを当該ストリーミングサーバ40の当該データ受信装置400に送信する。エンコードしたデータはストリーミングデータとして送信されてもよい。 The encoder 806 is configured to encode data, including the video data from the camera 800 and/or the video data from the image processing device 812. The encoder 806 transmits the encoded video data to the data receiving device 400 of the streaming server 40 . The encoded data may be transmitted as streaming data.

当該デコーダー808は、当該ストリーミングサーバ40の当該データ送信装置402からビデオデータまたはストリーミングデータ(ユーザAからのビデオデータを含んでもよい)を受信し、それらをデコードしてデコードしたビデオデータとし、当該デコードしたビデオデータを当該レンダラー802に送信してレンダリングさせるように構成される。 The decoder 808 receives video data or streaming data (which may include video data from user A) from the data transmitting device 402 of the streaming server 40, decodes the video data, converts the data into decoded video data, and converts the data into decoded video data. The rendered video data is sent to the renderer 802 for rendering.

当該結果受信装置810は、当該バックエンドサーバ30の当該メッセージユニット32から出力データを受信し、当該データを当該画像処理装置812に送信するように構成される。当該メッセージユニット32からの当該出力データは、当該マッティングユニット712と当該オブジェクト認識ユニット714からのデータまたは情報を含む。一部の実施態様において、当該メッセージユニット32からの当該出力データは、当該オブジェクト認識ユニット714により実行された当該オブジェクト認識処理の結果を含む。例えば、当該メッセージユニット32からの当該出力データは、一致した、または認識されたパターン、オブジェクトまたはジェスチャについての情報を含んでもよい。一部の実施態様において、当該メッセージユニット32からの当該出力データは、(当該ユーザ端末10A上の)当該インタラクティブ領域内における位置に関する情報を含み、そのうち、ユーザAの当該部分が、例えば、当該ユーザ端末10Aの当該マッティングユニット712、または当該オブジェクト認識ユニット714により、検出される。一部の実施態様において、当該メッセージユニット32からの当該出力データは、当該インタラクティブ領域内で検出/認識されたユーザAの部分の映像または画像を含む。 The result receiving device 810 is configured to receive output data from the message unit 32 of the backend server 30 and send the data to the image processing device 812 . The output data from the message unit 32 includes data or information from the matting unit 712 and the object recognition unit 714. In some implementations, the output data from the message unit 32 includes the results of the object recognition processing performed by the object recognition unit 714. For example, the output data from the message unit 32 may include information about matched or recognized patterns, objects or gestures. In some implementations, the output data from the message unit 32 includes information regarding the position within the interactive area (on the user terminal 10A), of which the part of user A is e.g. It is detected by the matting unit 712 or object recognition unit 714 of the terminal 10A. In some implementations, the output data from the message unit 32 includes a video or image of the portion of user A detected/recognized within the interactive area.

当該画像処理装置812は、当該カメラ800からのビデオデータ、及び/または当該結果受信装置810からのデータまたは情報を受信するように構成される。一部の実施態様において、当該画像処理装置812は、当該結果受信装置810から受信したデータまたは情報に基づいて、当該カメラ800から受信した当該ビデオデータに対して画像処理または映像処理を実行する。例えば、当該オブジェクト認識ユニット714により実行された当該オブジェクト認識処理が(当該ユーザ端末10Aの画面上の当該インタラクティブ領域にある)ユーザAの当該部分に所定のパターンを正常に認識したことを当該結果受信装置810から受信した当該データが示す場合、当該画像処理装置812は、当該カメラ800から受信した当該ビデオデータ上に、当該所定のパターンに対応する特殊効果を含める、レンダリングする、重ねることができる。重ねられた当該映像がその後当該レンダラー802に送信され、その後当該ユーザ端末804上に表示されてもよい。一部の実施態様において、当該特殊効果データは、当該ユーザ端末10B(図示しない)上のストレージに保存されてもよい。 The image processing device 812 is configured to receive video data from the camera 800 and/or data or information from the results receiving device 810. In some implementations, the image processing device 812 performs image processing or video processing on the video data received from the camera 800 based on data or information received from the results receiving device 810. For example, receiving a result indicating that the object recognition process executed by the object recognition unit 714 has successfully recognized a predetermined pattern on the part of the user A (in the interactive area on the screen of the user terminal 10A). If the data received from device 810 indicates, the image processing device 812 may include, render, or overlay special effects corresponding to the predetermined pattern on the video data received from the camera 800. The superimposed video may then be sent to the renderer 802 and then displayed on the user terminal 804. In some implementations, the special effects data may be stored in storage on the user terminal 10B (not shown).

一部の実施態様において、当該メッセージユニット32は、当該マッティングユニット712からのデータ及び/または当該オブジェクト認識ユニット714からのデータに基づいて、当該メッセージユニット32の出力データの宛先を決定する。一部の実施態様において、当該メッセージユニット32は、当該インタラクティブ領域内で検出されたユーザA当該部分の位置に基づいて、ユーザAの当該部分を延伸、複製または再現する領域を決定する。 In some implementations, the message unit 32 determines the destination of its output data based on data from the matting unit 712 and/or data from the object recognition unit 714. In some implementations, the message unit 32 determines an area in which to stretch, duplicate, or reproduce the portion of user A based on the detected position of the portion of user A within the interactive area.

例えば、図5に示すように、当該マッティングユニット712(または当該オブジェクト認識ユニット714)によりユーザAの当該部分が検出された当該インタラクティブ領域A31の位置が、当該サブ領域A312内にある場合、当該メッセージユニット32は、当該メッセージユニット32の当該出力データを送信する宛先にユーザCの当該ユーザ端末を決定することができる。その後ユーザAの当該部分が領域RC内に延伸または複製/再現/表示され、これはユーザCの当該ユーザ端末の画像処理装置により実行されてもよい。 For example, as shown in FIG. 5, if the position of the interactive area A31 where the relevant part of user A is detected by the relevant matting unit 712 (or the relevant object recognition unit 714) is within the relevant sub-region A312, the relevant The message unit 32 can determine the user terminal of the user C as the destination to which the output data of the message unit 32 is to be sent. The relevant part of user A is then stretched or copied/reproduced/displayed within the region RC, which may be performed by the image processing device of the relevant user terminal of user C.

別の一例において、当該マッティングユニット712によりユーザAの当該部分検出された当該インタラクティブ領域A31の位置が、当該サブ領域A311内にある場合、当該メッセージユニット32は、当該メッセージユニット32の当該出力データを送信する宛先にユーザDの当該ユーザ端末を決定することができる。その後ユーザAの当該部分が領域RD内に延伸または複製/再現/表示され、これはユーザDの当該ユーザ端末における画像処理装置及び/またはレンダラーとの連携により実行されてもよい。 In another example, when the position of the interactive area A31 where the part of user A is detected by the matting unit 712 is within the sub-area A311, the message unit 32 outputs the output data of the message unit 32. The user terminal of user D can be determined as the destination for transmitting the message. Thereafter, the portion of user A is stretched or duplicated/reproduced/displayed within region RD, and this may be performed in cooperation with an image processing device and/or a renderer in user D's user terminal.

さらに別の一例において、当該マッティングユニット712によりユーザAの当該部分が検出された当該インタラクティブ領域A31の位置が、当該サブ領域A313内にある場合、当該メッセージユニット32は、当該メッセージユニット32の当該出力データを送信する宛先にユーザBの当該ユーザ端末を決定することができる。その後ユーザAの当該部分が領域RB内に延伸または複製/再現/表示され、これはユーザBの当該ユーザ端末における画像処理装置及び/またはレンダラーとの連携により実行されてもよい。 In yet another example, if the position of the interactive area A31 in which the part of user A is detected by the matting unit 712 is within the sub-area A313, the message unit 32 The user terminal of user B can be determined as the destination for transmitting the output data. The portion of user A is then stretched or duplicated/reproduced/displayed within the region RB, and this may be performed in cooperation with an image processing device and/or a renderer in the user terminal of user B.

一部の実施態様において、当該メッセージユニット32の当該出力データは、領域RAの当該インタラクティブ領域で検出されたユーザAの当該部分の画像または映像を含んでもよい。当該画像処理装置812は、その後、当該カメラ800から受信したユーザBの当該映像上にユーザAの当該部分を重ねる、複製する、または再現することができる。この方法において、当該インタラクティブ領域内のユーザAの当該部分は、グラフィカルオブジェクトまたはアニメーションオブジェクトとして表現として表現されることなく、当該領域Bへ延伸されてもよい。 In some embodiments, the output data of the message unit 32 may include an image or video of the part of user A detected in the interactive area of area RA. The image processing device 812 may then overlay, duplicate, or reproduce the portion of user A on the video of user B received from the camera 800. In this way, the portion of user A within the interactive area may be extended to area B without being represented as a graphical or animated object.

一部の実施態様において、当該画像処理装置812は、当該デコーダー808を通じてユーザAの画像またはビデオデータを受信した後、当該メッセージユニット32からの情報(当該インタラクティブ領域内で検出されたユーザAの当該部分に関する範囲、外形、または輪郭情報を含んでもよい)を利用して、当該カメラ800から受信したユーザBの映像上に、当該インタラクティブ領域内のユーザAの当該部分を重ねる、複製する、または再現することができる。この方法において、当該インタラクティブ領域内のユーザAの当該部分は、グラフィカルオブジェクトまたはアニメーションオブジェクトとして表現として表現されることなく、当該領域Bへ延伸されてもよい。 In some implementations, after receiving the image or video data of user A through the decoder 808, the image processing device 812 receives information from the message unit 32 (such as superimposing, duplicating, or reproducing the portion of user A in the interactive area on the video of user B received from the camera 800; can do. In this way, the portion of user A within the interactive area may be extended to area B without being represented as a graphical or animated object.

一部の実施態様において、当該マッティングユニット712及び/または当該オブジェクト認識ユニット714は、当該ユーザ端末10A内に実装されなくてもよい。例えば、当該マッティングユニット712と当該オブジェクト認識ユニット714は、当該バックエンドサーバ30または当該ストリーミングサーバ40内に実装されてもよい。 In some implementations, the matting unit 712 and/or the object recognition unit 714 may not be implemented within the user terminal 10A. For example, the matting unit 712 and the object recognition unit 714 may be implemented within the backend server 30 or the streaming server 40.

図9に本発明の一部の実施態様に基づく通信システムの動作を示す例示的なシーケンス図を示す。一部の実施態様において、図9に、ユーザ(例えば、ユーザA)の部分が、どのように別のユーザ(例えば、ユーザB)が表示されている領域に延伸されるかを示す。 FIG. 9 shows an exemplary sequence diagram illustrating the operation of a communication system according to some embodiments of the present invention. In some implementations, FIG. 9 shows how a portion of a user (eg, user A) is extended into an area where another user (eg, user B) is displayed.

工程S200において、当該ユーザ端末10Aの当該カメラ700は、ユーザAの当該ビデオデータを当該ユーザ端末10Aの当該マッティングユニット712に送信する。 In step S200, the camera 700 of the user terminal 10A transmits the video data of user A to the matting unit 712 of the user terminal 10A.

工程S202において、当該マッティングユニット712は、当該ユーザ端末10Aの画面上の当該インタラクティブ領域内でユーザAの部分を検出する。この検出は、マッティングプロセス及び/またはクロッピングプロセスを含んでもよい。一部の実施態様において、当該マッティングユニット712は、ユーザAの当該部分が検出された当該インタラクティブ領域内の位置を判断する。 In step S202, the matting unit 712 detects the part of the user A within the interactive area on the screen of the user terminal 10A. This detection may include a matting process and/or a cropping process. In some implementations, the matting unit 712 determines the location within the interactive area where the portion of user A is detected.

工程S204において、当該ユーザ端末10Aの当該オブジェクト認識ユニット714は、当該マッティングユニット712から出力データを受信し、当該マッティングユニット712の当該出力に対してオブジェクト認識処理を実行して、当該インタラクティブ領域内で検出されたユーザAの当該部分に任意の所定のパターン、ジェスチャまたはオブジェクトが認識されるか否かを判断する。一部の実施態様において、当該オブジェクト認識処理は、マッチング処理、ジェスチャ認識処理及び/または皮膚認識処理を含んでもよい。 In step S204, the object recognition unit 714 of the user terminal 10A receives the output data from the matting unit 712, performs object recognition processing on the output of the matting unit 712, and converts the interactive area It is determined whether any predetermined pattern, gesture, or object is recognized in the part of user A detected within. In some implementations, the object recognition process may include a matching process, a gesture recognition process, and/or a skin recognition process.

工程S206において、当該オブジェクト認識ユニット714が所定のパターン、ジェスチャまたはオブジェクトを認識すると、当該オブジェクト認識ユニット714は当該所定のパターン、ジェスチャまたはオブジェクトについて位置や大きさなどの関連情報を収集し、データの送信先となる宛先を決定する。 In step S206, when the object recognition unit 714 recognizes a predetermined pattern, gesture, or object, the object recognition unit 714 collects related information such as the position and size of the predetermined pattern, gesture, or object, and collects related information such as the position and size of the predetermined pattern, gesture, or object. Decide on the destination to send to.

工程S208において、当該オブジェクト認識ユニット714の当該出力は、当該ユーザ端末10Aの当該結果送信装置710を介して当該バックエンドサーバ30の当該メッセージユニット32に送信される。 In step S208, the output of the object recognition unit 714 is sent to the message unit 32 of the backend server 30 via the result transmission device 710 of the user terminal 10A.

工程S210において、当該メッセージユニット32は、当該ユーザ端末10Aからのデータに含まれる、当該インタラクティブ領域内のユーザAの当該部分の位置に関する情報に基づいて、当該ユーザ端末10Aからのデータを送信する宛先を決定する。当該情報は、例えば工程S206で決定されてもよい。 In step S210, the message unit 32 determines the destination to which the data from the user terminal 10A is sent based on the information regarding the position of the part of the user A in the interactive area, which is included in the data from the user terminal 10A. Determine. The information may be determined in step S206, for example.

工程S211において、当該メッセージユニット32は、当該ユーザ端末10Aからの当該データを当該ユーザ端末10Bの当該結果受信装置810に送信する(当該メッセージユニット32が宛先をユーザBまたは領域RBと決定した例示的なシナリオの場合)。 In step S211, the message unit 32 transmits the data from the user terminal 10A to the result receiving device 810 of the user terminal 10B (in the exemplary case where the message unit 32 determines the destination as user B or region RB). scenario).

工程S212において、当該結果受信装置810は受信した当該データを当該ユーザ端末10Bの当該画像処理装置812に送信する。 In step S212, the result receiving device 810 transmits the received data to the image processing device 812 of the user terminal 10B.

工程S214において、当該画像処理装置812は、ユーザAの検出された当該部分(または領域RAの当該インタラクティブ領域内にある、ユーザAの検出された当該部分の一部)を、ユーザBの当該ビデオデータ上に重畳する、または重ね合わせる。一部の実施態様において、ユーザAの検出された当該部分の当該画像またはビデオデータが、当該ストリーミングサーバ40を介して当該ユーザ端末10Bに送信される。一部の実施態様において、ユーザAの検出された当該部分の当該画像またはビデオデータが、当該メッセージユニット32を介して当該ユーザ端末10Bに送信される。ユーザBの当該画像またはビデオデータは、当該ユーザ端末10Bの当該カメラ800から当該画像処理装置812に送信される。 In step S214, the image processing device 812 converts the detected portion of user A (or a portion of the detected portion of user A within the interactive area of area RA) into the video of user B. Overlay or superimpose on data. In some implementations, the image or video data of the detected portion of user A is sent to the user terminal 10B via the streaming server 40. In some implementations, the image or video data of the detected portion of user A is sent to the user terminal 10B via the message unit 32. The image or video data of user B is transmitted from the camera 800 of the user terminal 10B to the image processing device 812.

工程S216において、当該画像処理装置812は処理された当該画像またはビデオデータをレンダリングのため当該ユーザ端末10Bの当該レンダラー802に送信する。例えば、処理された当該画像またはビデオデータは、当該ユーザ端末10Bの当該デコーダー808からのビデオデータ及び/または当該カメラ800からのビデオデータと共にレンダリングされてもよい。 In step S216, the image processing device 812 sends the processed image or video data to the renderer 802 of the user terminal 10B for rendering. For example, the processed image or video data may be rendered with video data from the decoder 808 of the user terminal 10B and/or video data from the camera 800.

工程S218において、レンダリングされた当該ビデオデータが、当該ユーザ端末10Bの画面上に表示するため、当該ユーザ端末10Bの当該ディスプレイ804に送信される。 In step S218, the rendered video data is sent to the display 804 of the user terminal 10B for display on the screen of the user terminal 10B.

工程S220において、当該画像処理装置812は、処理された当該画像またはビデオデータをエンコーディングプロセスのため当該ユーザ端末10Bの当該エンコーダー806に送信する。 In step S220, the image processing device 812 sends the processed image or video data to the encoder 806 of the user terminal 10B for an encoding process.

工程S222において、エンコーディングされた当該ビデオデータが、当該ストリーミングサーバ40に送信される。 In step S222, the encoded video data is sent to the streaming server 40.

工程S224において、当該ストリーミングサーバ40はエンコードされた当該ビデオデータを(当該ユーザ端末10Bから)デコーディングプロセスのため当該ユーザ端末10Aの当該デコーダー708に送信する。 In step S224, the streaming server 40 sends the encoded video data (from the user terminal 10B) to the decoder 708 of the user terminal 10A for a decoding process.

工程S226において、デコーディングされた当該ビデオデータが、レンダリングプロセスのため当該ユーザ端末10Aの当該レンダラー702に送信される。 In step S226, the decoded video data is sent to the renderer 702 of the user terminal 10A for a rendering process.

工程S228において、レンダリングされた当該ビデオデータが、当該ユーザ端末10Aの画面上に表示するため当該ディスプレイ804に送信される。 In step S228, the rendered video data is sent to the display 804 for display on the screen of the user terminal 10A.

上述の例示的な工程またはステップは、連続的にまたは周期的に実行されてもよい。例えば、当該マッティングユニット712は、当該インタラクティブ領域内のユーザAの部分を連続的にまたは周期的に検出する。当該オブジェクト認識ユニット714は、当該インタラクティブ領域内のユーザAの当該部分に対して連続的にまたは周期的に認識処理を実行する。当該メッセージユニット32は、当該ユーザ端末10Aから受信した当該データを送信する宛先を連続的にまたは周期的に判断する。当該ユーザ端末10Bの当該画像処理装置812は、当該メッセージユニット32から受信した情報に基づいて連続的にまたは周期的に重畳または重ね合わせのプロセスを実行し、領域RB内の延伸または再現/複製されたユーザAの当該部分が、当該領域RA内のユーザAの当該部分と同期して移動するように確約する。一部の実施態様において、当該ユーザ端末10BはCPUやGPU等の処理ユニットを備え、当該領域RB内のユーザAの延伸または再現された当該部分が、ユーザBの画像または映像に触れるか否かを判断する。この判断の結果は、当該画像処理装置812が当該領域RB内に特殊効果を含めるか否かを決定するために使用することができる。 The example processes or steps described above may be performed continuously or periodically. For example, the matting unit 712 continuously or periodically detects user A's part within the interactive area. The object recognition unit 714 continuously or periodically performs recognition processing on the part of the user A within the interactive area. The message unit 32 continuously or periodically determines the destination to which the data received from the user terminal 10A is to be sent. The image processing device 812 of the user terminal 10B continuously or periodically performs the superimposition or superimposition process based on the information received from the message unit 32, and performs the process of superimposing or superimposing the stretched or reproduced/duplicated image in the area RB. ensure that that part of user A moved in synchronization with the part of user A in the area RA. In some embodiments, the user terminal 10B includes a processing unit such as a CPU or a GPU, and determines whether the stretched or reproduced portion of the user A in the region RB touches the image or video of the user B. to judge. The result of this determination can be used by the image processing device 812 to determine whether or not to include special effects in the region RB.

本発明は電話会議やグループ通話をより便利に、楽しく、またはインタラクティブにするものである。本発明は、ユーザが別のユーザの表示領域内にあるオブジェクトについて話したいとき、誤解を防止することができる。本発明は、グループ通話チャットルーム(ライブストリーミングの形式であってもよい)へのユーザの参加意欲を高めることができる。本発明は、より多くのストリーマーや視聴者を引き付け、ライブストリーミングによるグループ通話に参加してもらうことができる。 The present invention makes conference calls and group calls more convenient, fun, and interactive. The present invention can prevent misunderstandings when a user wants to talk about an object that is in another user's display area. The present invention can increase user motivation to participate in a group call chat room (which may be in the form of live streaming). The present invention can attract more streamers and viewers to participate in live streaming group calls.

本発明で説明した処理及び手順は、明示的に説明したものに加えて、ソフトウェア、ハードウェア、またはそれらの任意の組み合わせにより実現することができる。例えば、本明細書で説明した処理および手順は、その処理および手順に対応するロジックを集積回路、揮発性メモリ、不揮発性メモリ、非一過性のコンピュータ可読媒体、磁気ディスクなどの媒体に実装することにより実現することができる。さらに、本明細書に記載された処理および手順は、その処理および手順に対応するコンピュータプログラムとして実現することができ、各種のコンピュータにより実行することができる。 The processes and procedures described in this invention, in addition to those explicitly described, may be implemented by software, hardware, or any combination thereof. For example, the processes and procedures described herein implement logic corresponding to the processes and procedures in a medium such as an integrated circuit, volatile memory, non-volatile memory, non-transitory computer-readable medium, magnetic disk, etc. This can be achieved by Further, the processes and procedures described in this specification can be realized as a computer program corresponding to the processes and procedures, and can be executed by various computers.

上記実施態様で説明したシステムまたは方法は、固体記憶装置、光ディスク記憶装置、磁気ディスク記憶装置などの非一時的なコンピュータ可読媒体に格納されたプログラムに統合されてもよい。あるいは、プログラムは、インターネットを介してサーバからダウンロードされ、プロセッサにより実行されるものとしてもよい。 The systems or methods described in the above embodiments may be integrated into programs stored on non-transitory computer-readable media, such as solid state storage, optical disk storage, magnetic disk storage, and the like. Alternatively, the program may be downloaded from a server via the Internet and executed by the processor.

以上、本発明の技術的内容及び特徴を説明したが、本発明の属する技術分野において通常の知識を有する者であれば、本発明の教示及び開示から逸脱することなく、なお多くの変形及び修正を行うことができる。したがって、本発明の範囲は、既に開示された実施態様に限定されず、本発明から逸脱しない別の変形や修正を含み、特許請求の範囲に含まれる範囲である。 Although the technical contents and features of the present invention have been described above, those with ordinary knowledge in the technical field to which the present invention pertains will appreciate that many variations and modifications can be made without departing from the teachings and disclosure of the present invention. It can be performed. Therefore, the scope of the invention is not limited to the embodiments already disclosed, but includes other variations and modifications that do not depart from the invention and are included in the scope of the claims.

S1 画面
RA 領域
RB 領域
RC 領域
RD 領域
A1 部分
A11 部分
A2 部分
A21 部分
A3 境界
A31 インタラクティブ領域
A311 サブ領域
A312 サブ領域
A313 サブ領域
A32 領域
B1 オブジェクト
B3 境界
B31 インタラクティブ領域
B32 領域
BR1 境界線
BR2 境界線
SP1 特殊効果
1 システム
10 ユーザ端末
30 バックエンドサーバ
32 メッセージユニット
40 ストリーミングサーバ
400 データ受信装置
402 データ送信装置
90 ネットワーク
700 カメラ
702 レンダラー
704 ディスプレイ
706 エンコーダー
708 デコーダー
710 結果送信装置
712 マッティングユニット
714 オブジェクト認識ユニット
800 カメラ
802 レンダラー
804 ディスプレイ
806 エンコーダー
808 デコーダー
810 結果受信装置
812 画像処理装置
S1 Screen RA Area RB Area RC Area RD Area A1 Part A11 Part A2 Part A21 Part A3 Boundary A31 Interactive area A311 Sub area A312 Sub area A313 Sub area A32 Area B1 Object B3 Boundary B31 Interactive area B32 Area BR1 Boundary line BR2 Boundary line SP1 Special effects 1 System 10 User terminal 30 Back-end server 32 Message unit 40 Streaming server 400 Data receiving device 402 Data transmitting device 90 Network 700 Camera 702 Renderer 704 Display 706 Encoder 708 Decoder 710 Result transmitting device 712 Matting unit 714 Object recognition unit 800 Camera 802 Renderer 804 Display 806 Encoder 808 Decoder 810 Result receiving device 812 Image processing device

Claims (19)

映像処理方法であって、
ユーザ端末上の第1領域内に第1ユーザのライブ映像を表示する工程と、
当該ユーザ端末上の第2領域内に第2ユーザの映像を表示する工程と、
を含み、そのうち、前記第1ユーザの前記ライブ映像の一部が、前記ユーザ端末上の前記第2領域まで延伸され
さらに、前記ユーザ端末上の前記第1領域内の境界線を超えている前記第1ユーザの部分を検出することにより、前記第1ユーザの前記ライブ映像の前記一部を決定する工程を含む、ことを特徴とする、映像処理方法。
An image processing method,
Displaying live video of the first user in a first area on the user terminal;
Displaying a second user's video in a second area on the user terminal;
a portion of the live video of the first user is extended to the second area on the user terminal ;
further comprising determining the portion of the live video of the first user by detecting a portion of the first user that exceeds a boundary within the first area on the user terminal; An image processing method characterized by:
さらに、前記第1領域内にインタラクティブ領域を定義する工程と、
前記インタラクティブ領域内の前記第1ユーザの部分を検出する工程と、
前記第2領域内に前記第1ユーザの前記部分を表示する工程と、
を含むことを特徴とする、請求項1に記載の映像処理方法。
further defining an interactive area within the first area;
detecting a portion of the first user within the interactive area;
displaying the portion of the first user within the second area;
The video processing method according to claim 1, characterized in that it includes:
前記インタラクティブ領域内の前記第1ユーザの前記部分を検出する工程が、マッティングプロセスを含むことを特徴とする、請求項2に記載の映像処理方法。 3. The video processing method of claim 2, wherein the step of detecting the part of the first user within the interactive area includes a matting process. 前記インタラクティブ領域内の前記第1ユーザの前記部分を検出する工程がオブジェクト認識処理を含む、ことを特徴とする、請求項2に記載の映像処理方法。 3. The video processing method according to claim 2, wherein the step of detecting the part of the first user within the interactive area includes an object recognition process. さらに、前記オブジェクト認識処理が、前記第1ユーザの前記部分に所定のパターンを認識した場合、前記ユーザ端末上に特殊効果を表示する工程を含む、ことを特徴とする、請求項4に記載の映像処理方法。 5. The object recognition process further comprises the step of displaying a special effect on the user terminal when a predetermined pattern is recognized in the part of the first user. Video processing method. 前記オブジェクト認識処理が、ジェスチャ認識処理または皮膚認識処理を含む、ことを特徴とする、請求項4に記載の映像処理方法。 5. The video processing method according to claim 4, wherein the object recognition process includes a gesture recognition process or a skin recognition process. 前記インタラクティブ領域内の前記第1ユーザの前記部分を検出する工程が、画像比較処理または移動体検出処理を含む、ことを特徴とする、請求項2に記載の映像処理方法。 3. The video processing method according to claim 2, wherein the step of detecting the part of the first user within the interactive area includes image comparison processing or moving object detection processing. 前記第1ユーザと前記第2ユーザが、前記ユーザ端末上で横方向に並んでおり、前記第1ユーザの前記ライブ映像の前記一部が、前記第1領域内において前記第2ユーザに向かって延伸される、ことを特徴とする、請求項1に記載の映像処理方法。 The first user and the second user are arranged horizontally on the user terminal, and the part of the live video of the first user is directed towards the second user within the first area. The video processing method according to claim 1, wherein the video processing method is stretched. 前記第1ユーザと前記第2ユーザが、前記ユーザ端末上で垂直方向に並んでおり、前記第1ユーザの前記ライブ映像の前記一部が、前記第1領域内において前記第2ユーザに向かって延伸される、ことを特徴とする、請求項1に記載の映像処理方法。 The first user and the second user are vertically aligned on the user terminal, and the part of the live video of the first user is directed toward the second user within the first area. The video processing method according to claim 1, wherein the video processing method is stretched. 前記第1ユーザと前記第2ユーザが、前記ユーザ端末上で対角方向に並んでおり、前記第1ユーザの前記ライブ映像の前記一部が、前記第1領域内において前記第2ユーザに向かって延伸される、ことを特徴とする、請求項1に記載の映像処理方法。 The first user and the second user are diagonally arranged on the user terminal, and the part of the live video of the first user is directed toward the second user within the first area. 2. The video processing method according to claim 1, wherein the video processing method is performed by stretching the video. 映像処理方法であって、
ユーザ端末上の第1領域内に第1ユーザのライブ映像を表示する工程と、
当該ユーザ端末上の第2領域内に第2ユーザの映像を表示する工程と、
を含み、そのうち、前記第1ユーザの前記ライブ映像の一部が、前記ユーザ端末上の前記第2領域まで延伸され、
さらに、前記第1領域内にインタラクティブ領域を定義する工程と、
前記インタラクティブ領域内の前記第1ユーザの部分を検出する工程と、
前記第2領域内に前記第1ユーザの前記部分を表示する工程と、
を含み、
さらに、前記インタラクティブ領域内の前記第1ユーザの前記部分の位置を検出する工程と、
前記インタラクティブ領域内の前記第1ユーザの前記部分の前記位置に基づき、前記第2領域の位置を判断する工程と、
を含むことを特徴とする、像処理方法。
An image processing method,
Displaying live video of the first user in a first area on the user terminal;
Displaying a second user's video in a second area on the user terminal;
a portion of the live video of the first user is extended to the second area on the user terminal;
further defining an interactive area within the first area;
detecting a portion of the first user within the interactive area;
displaying the portion of the first user within the second area;
including;
further detecting a position of the portion of the first user within the interactive area;
determining a position of the second area based on the position of the portion of the first user within the interactive area;
A video processing method characterized by comprising:
前記境界線の位置が、前記第1ユーザにより決定される、ことを特徴とする、請求項に記載の映像処理方法。 The video processing method according to claim 1 , wherein the position of the boundary line is determined by the first user. 前記境界線が、前記第1領域に対する前記第2領域の方向に対応し、かつ前記第1領域と前記第2領域の間にある、ことを特徴とする、請求項に記載の映像処理方法。 The video processing method according to claim 1 , wherein the boundary line corresponds to a direction of the second area with respect to the first area and is between the first area and the second area. . 前記第2ユーザの前記映像がライブ映像であることを特徴とする、請求項1に記載の映像処理方法。 The video processing method according to claim 1, wherein the video of the second user is a live video. 前記第2領域へ延伸された前記第1ユーザの前記ライブ映像の前記一部が、グラフィカルオブジェクトとして表現されることを特徴とする、請求項1に記載の映像処理方法。 The video processing method according to claim 1, wherein the part of the live video of the first user extended to the second area is represented as a graphical object. さらに。前記第1ユーザの前記ライブ映像の前記一部が延伸されて前記第2ユーザの前記第2領域に触れる場合、前記第2領域に特殊効果を表示する工程を含むことを特徴とする、請求項1に記載の映像処理方法。 moreover. 5. The method of claim 1, further comprising the step of displaying a special effect in the second area when the part of the live video of the first user is stretched to touch the second area of the second user. 1. The video processing method according to 1. 映像処理システムであって、1以上のプロセッサを備え、前記1以上のプロセッサが機械可読命令を実行して、
ユーザ端末上の第1領域内に第1ユーザのライブ映像を表示する工程と、
当該ユーザ端末上の第2領域内に第2ユーザの映像を表示する工程と、
を実行し、そのうち、前記第1ユーザの前記ライブ映像の一部が、前記ユーザ端末上の前記第2領域まで延伸され
さらに、前記ユーザ端末上の前記第1領域内の境界線を超えている前記第1ユーザの部分を検出することにより、前記第1ユーザの前記ライブ映像の前記一部を決定する工程を実行する、ことを特徴とする、映像処理システム。
A video processing system comprising one or more processors, the one or more processors executing machine-readable instructions,
Displaying live video of the first user in a first area on the user terminal;
Displaying a second user's video in a second area on the user terminal;
a portion of the live video of the first user is extended to the second area on the user terminal ;
Further, determining the portion of the live video of the first user by detecting a portion of the first user that exceeds a boundary within the first area on the user terminal. An image processing system characterized by the following .
前記1以上のプロセッサが、前記機械可読命令を実行して、さらに、
前記第1領域内にインタラクティブ領域を定義する工程と、
前記インタラクティブ領域内の前記第1ユーザの部分を検出する工程と、
前記第2領域内に前記第1ユーザの前記部分を表示する工程と、
を実行することを特徴とする、請求項17に記載の映像処理システム。
The one or more processors execute the machine-readable instructions, and further:
defining an interactive area within the first area;
detecting a portion of the first user within the interactive area;
displaying the portion of the first user within the second area;
The video processing system according to claim 17 , characterized in that the video processing system executes the following.
映像処理のためのプログラムを含む非一時的なコンピュータ可読媒体であって、そのうち、前記プログラムが、1以上のコンピュータに、
ユーザ端末上の第1領域内に第1ユーザのライブ映像を表示する工程と、
当該ユーザ端末上の第2領域内に第2ユーザの映像を表示する工程と、
を実行させ、そのうち、前記第1ユーザの前記ライブ映像の一部が、前記ユーザ端末上の前記第2領域まで延伸され、
さらに、前記ユーザ端末上の前記第1領域内の境界線を超えている前記第1ユーザの部分を検出することにより、前記第1ユーザの前記ライブ映像の前記一部を決定する工程を実行させる、ことを特徴とする、非一時的なコンピュータ可読媒体。
A non-transitory computer-readable medium containing a program for image processing, the program being stored in one or more computers,
Displaying live video of the first user in a first area on the user terminal;
Displaying a second user's video in a second area on the user terminal;
a portion of the live video of the first user is extended to the second area on the user terminal;
Further, determining the portion of the live video of the first user by detecting a portion of the first user that exceeds a boundary line within the first area on the user terminal. , a non-transitory computer-readable medium.
JP2022522347A 2021-09-30 2021-09-30 Systems, methods, and computer-readable media for video processing Active JP7426021B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2021/052779 WO2023055365A1 (en) 2021-09-30 2021-09-30 System, method and computer-readable medium for video processing

Publications (2)

Publication Number Publication Date
JP2023543369A JP2023543369A (en) 2023-10-16
JP7426021B2 true JP7426021B2 (en) 2024-02-01

Family

ID=85783375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022522347A Active JP7426021B2 (en) 2021-09-30 2021-09-30 Systems, methods, and computer-readable media for video processing

Country Status (2)

Country Link
JP (1) JP7426021B2 (en)
WO (1) WO2023055365A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009218792A (en) 2008-03-10 2009-09-24 Hitachi Ltd Video display method in remote communication
JP2014048938A (en) 2012-08-31 2014-03-17 Omron Corp Gesture recognition device, control method thereof, display equipment, and control program
JP2015172886A (en) 2014-03-12 2015-10-01 オムロン株式会社 Gesture recognition device and control method of gesture recognition device
WO2018074262A1 (en) 2016-10-20 2018-04-26 ソニー株式会社 Communication device, communication method, and program
US20200192550A1 (en) 2017-09-08 2020-06-18 Nokia Technologies Oy Methods, apparatus, systems, computer programs for enabling mediated reality

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8279254B2 (en) * 2007-08-02 2012-10-02 Siemens Enterprise Communications Gmbh & Co. Kg Method and system for video conferencing in a virtual environment
EP3219098B1 (en) * 2014-11-14 2021-10-06 PCMS Holdings, Inc. System and method for 3d telepresence

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009218792A (en) 2008-03-10 2009-09-24 Hitachi Ltd Video display method in remote communication
JP2014048938A (en) 2012-08-31 2014-03-17 Omron Corp Gesture recognition device, control method thereof, display equipment, and control program
JP2015172886A (en) 2014-03-12 2015-10-01 オムロン株式会社 Gesture recognition device and control method of gesture recognition device
WO2018074262A1 (en) 2016-10-20 2018-04-26 ソニー株式会社 Communication device, communication method, and program
US20200192550A1 (en) 2017-09-08 2020-06-18 Nokia Technologies Oy Methods, apparatus, systems, computer programs for enabling mediated reality

Also Published As

Publication number Publication date
WO2023055365A1 (en) 2023-04-06
JP2023543369A (en) 2023-10-16

Similar Documents

Publication Publication Date Title
US20210377591A1 (en) System and methods for interactive filters in live streaming media
JP7407929B2 (en) Information reproduction method, device, computer readable storage medium and electronic equipment
US8876601B2 (en) Method and apparatus for providing a multi-screen based multi-dimension game service
WO2016114249A1 (en) Dynamic-image reproduction method, dynamic-image reproduction device, and computer-readable storage medium having dynamic-image reproduction program stored therein
JP2018521550A (en) Method, client and computer storage medium for playing video
US20210368214A1 (en) Method and mobile terminal for processing data
CN107995482B (en) Video file processing method and device
JP2023528958A (en) Video Composite Method, Apparatus, Electronics and Computer Readable Medium
JP6997219B2 (en) How to generate and render immersive video content, systems, and media
US20140325396A1 (en) Methods and systems for simultaneous display of multimedia during a video communication
JP7176861B2 (en) Video processing method, video restoration method and computer program
WO2019193364A1 (en) Method and apparatus for generating augmented reality images
JP7411791B2 (en) Overlay processing parameters for immersive teleconferencing and telepresence of remote terminals
CN110856005A (en) Live stream display method and device, electronic equipment and readable storage medium
JP7426021B2 (en) Systems, methods, and computer-readable media for video processing
TWI772192B (en) System, method and computer-readable medium for video processing
JP7161715B1 (en) Method and server for handling streaming data
CN112995692B (en) Interactive data processing method, device, equipment and medium
KR102516831B1 (en) Method, computer device, and computer program for providing high-definition image of region of interest using single stream
CN113891135B (en) Multimedia data playing method and device, electronic equipment and storage medium
WO2021088973A1 (en) Live stream display method and apparatus, electronic device, and readable storage medium
US20220207848A1 (en) Method and apparatus for generating three dimensional images
US20230101606A1 (en) System, method and computer-readable medium for video processing
CN110662082A (en) Data processing method, device, system, mobile terminal and storage medium
CN113965813B (en) Video playing method, system, equipment and medium in live broadcasting room

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220413

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240110

R150 Certificate of patent or registration of utility model

Ref document number: 7426021

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150