JP2024504884A - SYSTEMS, METHODS AND COMPUTER-READABLE MEDIA FOR IMAGE RECOGNITION - Google Patents

SYSTEMS, METHODS AND COMPUTER-READABLE MEDIA FOR IMAGE RECOGNITION Download PDF

Info

Publication number
JP2024504884A
JP2024504884A JP2022522349A JP2022522349A JP2024504884A JP 2024504884 A JP2024504884 A JP 2024504884A JP 2022522349 A JP2022522349 A JP 2022522349A JP 2022522349 A JP2022522349 A JP 2022522349A JP 2024504884 A JP2024504884 A JP 2024504884A
Authority
JP
Japan
Prior art keywords
pattern
user
image recognition
user terminal
recognition method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022522349A
Other languages
Japanese (ja)
Other versions
JP7465486B2 (en
Inventor
チャン,ユーチュアン
チウ,ポ-シェン
ユアン ウー,シャオ
チェン,ミン-チュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
17Live Japan Inc
Original Assignee
17Live Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 17Live Japan Inc filed Critical 17Live Japan Inc
Publication of JP2024504884A publication Critical patent/JP2024504884A/en
Application granted granted Critical
Publication of JP7465486B2 publication Critical patent/JP7465486B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1827Network arrangements for conference optimisation or adaptation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/22Synchronisation circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities

Abstract

【課題】画像認識のためのシステム、方法、及びコンピュータ可読媒体の提供。【解決手段】本発明は画像認識のためのシステム、方法、及びコンピュータ可読媒体に関し、本発明の方法は、ユーザ端末に表示する第1のパターンを取得する工程と、当該第1のパターンと当該ユーザ端末に表示されているユーザの部分を比較する工程と、当該比較の結果を更新する工程と、を含み、本発明は、電話会議またはグループ通話中の交流を改善し、オンラインコミュニケーションの同期を容易にする。【選択図】図2CThe present invention provides a system, method, and computer-readable medium for image recognition. The present invention relates to a system, method, and computer-readable medium for image recognition, and the method includes the steps of: obtaining a first pattern to be displayed on a user terminal; The present invention improves interactions during conference calls or group calls and synchronizes online communications, including the steps of comparing portions of users displayed on user terminals and updating the results of the comparison. make it easier. [Selection diagram] Figure 2C

Description

本発明は、ライブビデオストリーミングまたはビデオ電話会議における画像処理または映像処理に関する。 The present invention relates to image or video processing in live video streaming or video teleconferencing.

ユーザ同士のオンライン通信に参加することを可能にするさまざまな技術が知られている。そのアプリケーションには、ライブストリーミング、ライブ電話会議などが含まれる。これらアプリケーションの普及に伴い、コミュニケーション中の交流体験の向上とより円滑な同期に対するユーザからの要望が高まっている。 Various techniques are known that allow users to participate in online communications with each other. Its applications include live streaming, live conference calls, and more. As these applications become more widespread, users are increasingly demanding improved interaction experiences and smoother synchronization during communication.

本発明の一実施態様に係る方法は、画像認識方法である。本発明の方法は、ユーザ端末に表示する第1のパターンを取得する工程と、当該第1のパターンと当該ユーザ端末に表示されているユーザの部分を比較する工程と、当該比較の結果を更新する工程と、を含む。 A method according to one embodiment of the present invention is an image recognition method. The method of the present invention includes a step of obtaining a first pattern to be displayed on a user terminal, a step of comparing the first pattern with a portion of the user displayed on the user terminal, and updating the result of the comparison. and a step of doing so.

本発明の一実施態様に係るシステムは、1以上のプロセッサを含む画像認識のためのシステムであり、当該1以上のプロセッサが機械可読命令を実行し、ユーザ端末に表示する第1のパターンを取得する工程と、当該第1のパターンを当該ユーザ端末に表示されるユーザの部分と比較する工程と、当該比較の結果を更新する工程と、を実行する。 A system according to an embodiment of the present invention is a system for image recognition including one or more processors, the one or more processors executing machine-readable instructions to obtain a first pattern to be displayed on a user terminal. comparing the first pattern with a portion of the user displayed on the user terminal; and updating a result of the comparison.

本発明の一実施態様に係るコンピュータ可読媒体は、画像認識のためのプログラムを含む非一時的なコンピュータ可読媒体であり、当該プログラムが、1または複数のコンピュータに、ユーザ端末に表示される第1のパターンを取得する工程と、当該第1のパターンを当該ユーザ端末に表示されるユーザの部分と比較する工程と、当該比較の結果を更新する工程と、を実行させる。 A computer-readable medium according to an embodiment of the present invention is a non-transitory computer-readable medium that includes a program for image recognition, and the computer-readable medium is a non-transitory computer-readable medium that includes a program for image recognition. the first pattern, the step of comparing the first pattern with the user's portion displayed on the user terminal, and the step of updating the result of the comparison.

グループ通話の一例を示す概略図である。FIG. 2 is a schematic diagram showing an example of a group call. 本発明の一部の実施態様に基づくグループ通話における例示的な交流を示す概略図である。FIG. 2 is a schematic diagram illustrating exemplary interactions in a group call in accordance with some embodiments of the present invention. 本発明の一部の実施態様に基づくグループ通話における例示的な交流を示す概略図である。FIG. 2 is a schematic diagram illustrating an example interaction in a group call in accordance with some embodiments of the present invention. 本発明の一部の実施態様に基づくグループ通話における例示的な交流を示す概略図である。FIG. 2 is a schematic diagram illustrating exemplary interactions in a group call in accordance with some embodiments of the present invention. 本発明の一部の実施態様に基づくグループ通話における例示的な交流を示す概略図である。FIG. 2 is a schematic diagram illustrating exemplary interactions in a group call in accordance with some embodiments of the present invention. 本発明の一部の実施態様に基づくグループ通話における例示的な交流を示す概略図である。FIG. 2 is a schematic diagram illustrating exemplary interactions in a group call in accordance with some embodiments of the present invention. 本発明の一部の実施態様に基づくグループ通話における例示的な交流を示す概略図である。FIG. 2 is a schematic diagram illustrating exemplary interactions in a group call in accordance with some embodiments of the present invention. 本発明の一部の実施態様に基づくグループ通話における例示的な交流を示す概略図である。FIG. 2 is a schematic diagram illustrating exemplary interactions in a group call in accordance with some embodiments of the present invention. 本発明の一部の実施態様に基づくライブストリーミングにおける例示的な交流を示す概略図である。FIG. 2 is a schematic diagram illustrating exemplary interactions in live streaming according to some embodiments of the present invention. 本発明の一部の実施態様に基づく通信システムの構成を示す概略図である。1 is a schematic diagram illustrating a configuration of a communication system according to some embodiments of the present invention. FIG. 本発明の一部の実施態様に基づく通信システムの動作を示す例示的なシーケンス図である。1 is an exemplary sequence diagram illustrating the operation of a communication system according to some embodiments of the present invention. FIG. 本発明の一部の実施態様に基づく通信システムの例示的な機能構成図である。1 is an exemplary functional block diagram of a communication system according to some embodiments of the present invention. FIG.

ライブストリーミングサービス、アプリケーション(APP)またはプラットフォームの一部では、複数のユーザ(配信者、視聴者、放送者、アンカーなど)がグループ通話モードや電話会議モードで参加することが可能であり、そのうち、複数のユーザの映像がユーザ端末の画面上に同時に表示され、そのグループ通話またはグループ通話への参加を表示する。当該ユーザ端末は、スマートフォンやタブレット、パソコン、ノートパソコンとすることができ、それを使用して当該ユーザの1人が当該グループ通話に参加する。 Some live streaming services, applications (APPs) or platforms allow multiple users (streamers, viewers, broadcasters, anchors, etc.) to participate in group call mode or conference call mode, of which: Images of multiple users are displayed simultaneously on the screen of the user terminal to indicate their group call or participation in the group call. The user terminal can be a smartphone, tablet, personal computer, or laptop, and is used by one of the users to participate in the group call.

図1にグループ通話の一例を示す概略図を示す。S1は当該グループ通話を表示するユーザ端末の画面である。RAは、当該画面S1内の表示領域であり、ユーザAのライブ映像を表示する。RBは、当該画面S1内の表示領域であり、ユーザBのライブ映像を表示する。RCは、当該画面S1内の表示領域であり、ユーザCのライブ映像を表示する。RDは、当該画面S1内の表示領域であり、ユーザDのライブ映像を表示する。当該ユーザAのライブ映像は、ユーザAの近傍に配置されたカメラなどの映像撮影装置によって撮影され、提供されてもよい。当該ユーザBのライブ映像は、ユーザBの近傍に配置されたカメラなどの映像撮影装置によって撮影され、提供されてもよい。当該ユーザCのライブ映像は、ユーザCの近傍に配置されたカメラなどの映像撮影装置によって撮影され、提供されてもよい。当該ユーザDのライブ映像は、ユーザDの近傍に配置されたカメラなどの映像撮影装置によって撮影され、提供されてもよい。 FIG. 1 shows a schematic diagram illustrating an example of a group call. S1 is a screen of the user terminal that displays the group call. RA is a display area within the screen S1, and displays user A's live video. RB is a display area within the screen S1, and displays user B's live video. RC is a display area within the screen S1, and displays user C's live video. RD is a display area within the screen S1, and displays live video of user D. The live video of the user A may be captured and provided by a video capture device such as a camera placed near the user A. The live video of the user B may be captured and provided by a video capturing device such as a camera placed near the user B. The live video of the user C may be captured and provided by a video capture device such as a camera placed near the user C. The live video of the user D may be captured by a video capturing device such as a camera placed near the user D, and may be provided.

従来、ユーザA、B、C、Dはそれぞれの表示領域で行動しており、異なる表示領域を横断する集合的な交流は欠如していた。ユーザがグループ通話に参加するモチベーションを高めるためには、より集合的、あるいは興味深い交流が望まれる。 Traditionally, users A, B, C, and D operate in their own display areas, lacking collective interaction across different display areas. In order to increase the motivation of users to participate in group calls, more collective or interesting interactions are desired.

従来、グループ通話中にユーザA、B、C、D間の接続に遅延、遅れ、非同期などの問題が発生したとき、あるユーザは接続の問題にすぐに気づかず、他のユーザが自分のメッセージ(音声や映像)を同期して、または円滑に受信できていないまま話し続けることがある。あるいは、非同期問題が起きているのではないかという懸念や疑いがあっても、ユーザがそれをテストしたり明らかにしたりする便利な方法がない。したがって、グループ通話接続の同期状態をテストする便利な方法をユーザが開始できることが望ましい。 Traditionally, when problems such as delay, lag, or desync occur in the connection between users A, B, C, and D during a group call, one user may not notice the connection problem immediately, and other users may Sometimes I keep talking without being able to receive (audio or video) in sync or smoothly. Or, if you have concerns or suspicions that an out-of-sync problem is occurring, there is no convenient way for users to test or uncover it. Therefore, it would be desirable to be able to initiate a convenient method for users to test the synchronization status of group call connections.

図2A、図2B、図2Cに本発明の一部の実施態様に基づくグループ通話における例示的な交流を示す概略図を示す。 FIGS. 2A, 2B, and 2C provide schematic diagrams illustrating exemplary interactions in a group call in accordance with some embodiments of the present invention.

図2Aに示すように、軌跡または輪郭O1が当該画面S1上に表示される。当該輪郭O1は、当該表示領域RA、RB、RC、RDにわたって表示される。各表示領域に当該輪郭O1の1部分が表示される。本実施態様において、当該表示領域RA、RB、RC、RDは相互に分離されている。一部の実施態様において、当該表示領域RA、RB、RC、RDは一部が重なり合ってもよい。本実施態様において、当該輪郭O1はハート形である。一部の実施態様において、当該輪郭は円形、楕円形、四角形など、任意の形状とすることができる。当該輪郭O1は、第1のパターンと呼んでもよい。当該輪郭O1は、サーバまたはユーザ端末から取得されてもよい。 As shown in FIG. 2A, a trajectory or contour O1 is displayed on the screen S1. The outline O1 is displayed across the display areas RA, RB, RC, and RD. A portion of the outline O1 is displayed in each display area. In this embodiment, the display areas RA, RB, RC, and RD are separated from each other. In some embodiments, the display areas RA, RB, RC, and RD may partially overlap. In this embodiment, the contour O1 is heart-shaped. In some embodiments, the contour can be any shape, such as circular, oval, square, etc. The contour O1 may also be referred to as a first pattern. The contour O1 may be obtained from a server or a user terminal.

図2Bに示すように、ユーザA、B、C、Dは当該輪郭O1に合わせようとする。当該輪郭O1は、ユーザA、ユーザB、ユーザC、ユーザDの部分と比較される。ユーザAは、手や腕を使用して(部分的に衣服で覆われていてもよい)、当該表示領域RA内に表示されている当該輪郭O1の当該部分に合わせたり、適合させたりする。ユーザBは、手や腕を使用して(部分的に衣服で覆われていてもよい)、当該表示領域RB内に表示されている当該輪郭O1の当該部分に合わせたり、適合させたりする。ユーザCは、手や腕を使用して(部分的に衣服で覆われていてもよい)、当該表示領域RC内に表示されている当該輪郭O1の当該部分に合わせたり、適合させたりする。ユーザDは、手や腕を使用して(部分的に衣服で覆われていてもよい)、当該表示領域RD内に表示されている当該輪郭O1の当該部分に合わせたり、適合させたりする。 As shown in FIG. 2B, users A, B, C, and D try to match the contour O1. The contour O1 is compared with the user A, user B, user C, and user D portions. User A uses his or her hands or arms (which may be partially covered by clothing) to fit or fit the part of the outline O1 displayed within the display area RA. User B uses his or her hands or arms (which may be partially covered by clothing) to fit or fit the part of the outline O1 displayed within the display area RB. The user C uses his or her hands or arms (which may be partially covered with clothing) to fit or fit the part of the outline O1 displayed within the display area RC. User D uses his or her hands or arms (which may be partially covered by clothing) to fit or match the part of the outline O1 displayed within the display area RD.

図2Cに示すように、当該画面S1上に特殊効果O11が表示される。当該特殊効果O11は、当該輪郭O1とユーザA、ユーザB、ユーザC、ユーザDの部分との比較結果の更新として機能することができる。当該特殊効果O11は、当該輪郭O1のグラフィックオブジェクト、アニメーションオブジェクト、または具現化オブジェクトであってもよい。一部の実施態様において、当該特殊効果O11は、ユーザの当該部分(ユーザA、B、C、Dの身体部分または非身体部分など)によって形成または構成される集合形状または集合パターンが、当該輪郭O1に一致または適合する場合に表示される。当該集合パターンは、表示領域RA、RB、RC、RDにわたって形成される。 As shown in FIG. 2C, a special effect O11 is displayed on the screen S1. The special effect O11 can function as an update of the comparison result between the contour O1 and the user A, user B, user C, and user D portions. The special effect O11 may be a graphic object, an animation object, or a materialization object of the contour O1. In some embodiments, the special effect O11 is such that an aggregate shape or an aggregate pattern formed or constituted by the part of the user (such as the body parts or non-body parts of users A, B, C, D) is Displayed when matching or conforming to O1. The set pattern is formed across display areas RA, RB, RC, and RD.

一部の実施態様において、当該ユーザらにより形成される当該集合パターンは、ユーザ端末またはパターン認識処理を有する当該グループ通話のサービスを提供するシステムによって認識されてもよい。一部の実施態様において、当該パターン認識処理は、ジェスチャ認識処理、皮膚認識処理、輪郭認識処理、形状認識処理またはオブジェクト認識処理を含んでもよい。一部の実施態様において、当該パターン認識処理は、画像比較処理(一連の画像と各ユーザの表示領域に既定の初期背景画像との比較など)または移動体検出処理を含んでもよい。一部の実施態様において、動き推定(ME)法または動き補償(MC)法が使用されてもよい。一部の実施態様において、当該集合パターンは、第2のパターンと呼んでもよい。 In some implementations, the aggregate pattern formed by the users may be recognized by a system servicing the group call that has a user terminal or pattern recognition process. In some embodiments, the pattern recognition process may include a gesture recognition process, a skin recognition process, a contour recognition process, a shape recognition process, or an object recognition process. In some implementations, the pattern recognition process may include an image comparison process (such as comparing the series of images to a predetermined initial background image for each user's display area) or a moving object detection process. In some implementations, motion estimation (ME) or motion compensation (MC) methods may be used. In some implementations, the aggregate pattern may be referred to as a second pattern.

当該集合パターンが当該輪郭O1と一致するか否かの判定(あるいは、当該輪郭O1と当該ユーザの部分の比較)は、画像またはパターンの比較/照合処理によって行われてもよく、これは、当該集合パターンと当該輪郭O1との間の類似度係数(相関値など)を算出することを含んでもよい。一部の実施態様において、当該類似度係数の算出は、相関計算処理、軌跡重畳処理、正規化処理、または最小距離判定処理を含んでもよい。当該画像またはパターン比較処理は、ユーザ端末または当該グループ通話のサービスを提供するシステムによって実行されてもよい。一部の実施態様において、当該特殊効果O11は、当該類似度係数が所定値以上である場合に表示される。 The determination as to whether or not the set pattern matches the contour O1 (or the comparison between the contour O1 and the user's part) may be performed by image or pattern comparison/matching processing. It may also include calculating a similarity coefficient (correlation value, etc.) between the set pattern and the contour O1. In some embodiments, the calculation of the similarity coefficient may include a correlation calculation process, a trajectory superimposition process, a normalization process, or a minimum distance determination process. The image or pattern comparison process may be performed by a user terminal or a system providing the group call service. In some embodiments, the special effect O11 is displayed when the similarity coefficient is greater than or equal to a predetermined value.

図3A、図3Bに、本発明の一部の実施態様に基づくグループ通話における例示的な交流を示す別の概略図を示す。 3A and 3B depict other schematic diagrams illustrating exemplary interactions in a group call in accordance with some embodiments of the present invention.

図3Aに示すように、当該輪郭O1はオフセットにより移動し続け、当該ユーザの部分(手などの)の位置がリアルタイムに調整される。本実施態様において、当該輪郭O1は横方向に移動される。別の実施態様において、当該輪郭O1は縦方向、対角方向、または任意の方向に移動されてもよい。一部の実施態様において、当該輪郭O1は前後方向に移動されてもよい。一部の実施態様において、当該輪郭O1は、1秒、2秒、または3秒などの時間周期で周期的に移動されてもよい。一部の実施態様において、当該輪郭O1は、異なる時間周期で間欠的に移動されてもよい。 As shown in FIG. 3A, the contour O1 continues to move due to the offset, and the position of the user's part (such as the hand) is adjusted in real time. In this embodiment, the contour O1 is moved laterally. In another embodiment, the contour O1 may be moved vertically, diagonally or in any direction. In some embodiments, the contour O1 may be moved in the front-back direction. In some implementations, the contour O1 may be moved periodically in time periods such as 1 second, 2 seconds, or 3 seconds. In some implementations, the contour O1 may be moved intermittently at different time periods.

図3Bに示すように、特殊効果O11は当該画面S1上に表示される。当該特殊効果O11は、当該輪郭O1のグラフィックオブジェクト、アニメーションオブジェクト、または具現化オブジェクトであってもよい。一部の実施態様において、当該特殊効果O11は、ユーザの当該部分(ユーザA、B、C、Dの身体部分または非身体部分など)によって形成または構成される集合形状または集合パターンが、当該輪郭O1に一致または適合する場合に表示される。本実施態様において、当該輪郭O1は移動する輪郭または移動体である。したがって、ユーザA、B、C、Dは、その集合パターンが連続的または周期的に当該輪郭O1に一致または適合するように、当該輪郭O1の動きに合わせて自分の部分を移動させる必要がある。 As shown in FIG. 3B, the special effect O11 is displayed on the screen S1. The special effect O11 may be a graphic object, an animation object, or a materialization object of the contour O1. In some embodiments, the special effect O11 is such that an aggregate shape or an aggregate pattern formed or constituted by the part of the user (such as the body parts or non-body parts of users A, B, C, D) is Displayed when matching or conforming to O1. In this embodiment, the contour O1 is a moving contour or a moving object. Therefore, users A, B, C, and D need to move their parts in accordance with the movement of the contour O1 so that the collective pattern continuously or periodically matches or fits the contour O1. .

当該集合パターンは、当該ユーザ端末またはパターン認識処理を有する当該グループ通話のサービスを提供するシステムによって連続的または周期的に認識されてもよい。当該集合パターンが当該輪郭O1と一致するか否かの判定は、画像またはパターン比較処理によって行われてもよく、この処理は、移動する集合パターンと移動する当該輪郭O1との間の類似度係数(相関値など)を連続的または周期的に算出することを含んでもよい。当該画像またはパターン比較処理は、ユーザ端末または当該グループ通話のサービスを提供するシステムによって実行されてもよい。一部の実施態様において、当該特殊効果O11は、当該類似度係数が連続的または周期的に所定値以上である場合に表示される。例えば、当該特殊効果O11は、当該類似度係数が所定の期間(5秒や10秒など)、または所定のサイクル数(当該輪郭O1の動作回数が3回や5回など)に所定値以上である場合に表示される。 The aggregation pattern may be recognized continuously or periodically by the user terminal or the system providing the group call service with pattern recognition processing. The determination as to whether or not the aggregate pattern matches the outline O1 may be performed by image or pattern comparison processing, and this processing is performed using a similarity coefficient between the moving aggregate pattern and the moving outline O1. (correlation value, etc.) may be calculated continuously or periodically. The image or pattern comparison process may be performed by a user terminal or a system providing the group call service. In some embodiments, the special effect O11 is displayed when the similarity coefficient is continuously or periodically equal to or greater than a predetermined value. For example, the special effect O11 is such that the similarity coefficient is equal to or greater than a predetermined value for a predetermined period (such as 5 seconds or 10 seconds) or a predetermined number of cycles (such as the number of operations of the contour O1 is 3 or 5 times). Displayed in some cases.

図4に本発明の一部の実施態様に基づくグループ通話における例示的な交流を示す別の概略図を示す。 FIG. 4 depicts another schematic diagram illustrating exemplary interactions in a group call in accordance with some embodiments of the present invention.

図4に示すように、当該輪郭O1は、オフセット角度で連続的、周期的または間欠的に回転される。一部の実施態様において、当該輪郭O1は前後方向に回転されてもよい。一部の実施態様において、当該輪郭O1は、1秒、2秒、または3秒などの時間周期で周期的に回転されてもよい。一部の実施態様において、当該輪郭O1は、異なる時間周期で間欠的に回転されてもよい。 As shown in FIG. 4, the contour O1 is rotated continuously, periodically or intermittently at an offset angle. In some embodiments, the contour O1 may be rotated in the front-back direction. In some implementations, the contour O1 may be rotated periodically in time periods such as 1 second, 2 seconds, or 3 seconds. In some implementations, the contour O1 may be rotated intermittently at different time periods.

特殊効果O11は当該画面S1上に表示される。当該特殊効果O11は、当該輪郭O1のグラフィックオブジェクト、アニメーションオブジェクト、または具現化オブジェクトであってもよい。一部の実施態様において、当該特殊効果O11は、ユーザの当該部分(ユーザA、B、C、Dの身体部分または非身体部分など)によって形成または構成される集合形状または集合パターンが、当該輪郭O1に一致または適合する場合に表示される。本実施態様において、当該輪郭O1は移動する輪郭または移動体である(ここで「移動」は「回転」を含む)。したがって、ユーザA、B、C、Dは、その集合パターンが連続的または周期的に当該輪郭O1に一致または適合するように、当該輪郭O1の動き(または回転)に合わせて自分の部分を移動させる必要がある。 The special effect O11 is displayed on the screen S1. The special effect O11 may be a graphic object, an animation object, or a materialization object of the contour O1. In some embodiments, the special effect O11 is such that an aggregate shape or an aggregate pattern formed or constituted by the part of the user (such as the body parts or non-body parts of users A, B, C, D) is Displayed when matching or conforming to O1. In this embodiment, the contour O1 is a moving contour or a moving object (here, "movement" includes "rotation"). Therefore, users A, B, C, and D move their parts in accordance with the movement (or rotation) of the contour O1 so that the collective pattern continuously or periodically matches or adapts to the contour O1. It is necessary to do so.

当該集合パターンは、当該ユーザ端末またはパターン認識処理を有する当該グループ通話のサービスを提供するシステムによって連続的または周期的に認識されてもよい。当該集合パターンが当該輪郭O1と一致するか否かの判定は、画像またはパターン比較処理によって行われてもよく、この処理は、移動/回転する集合パターンと移動/回転する当該輪郭O1との間の類似度係数(相関値など)を継続的または周期的に算出することを含んでもよい。当該画像またはパターン比較処理は、ユーザ端末または当該グループ通話のサービスを提供するシステムによって実行されてもよい。一部の実施態様において、当該特殊効果O11は、当該類似度係数が連続的または周期的に所定値以上である場合に表示される。例えば、当該特殊効果O11は、当該類似度係数が所定の期間(5秒や10秒など)、または所定のサイクル数(当該輪郭O1の動作回数が3回や5回など)に所定値以上である場合に表示される。 The aggregation pattern may be recognized continuously or periodically by the user terminal or the system providing the group call service with pattern recognition processing. The determination as to whether or not the set pattern matches the outline O1 may be performed by image or pattern comparison processing, and this processing is performed by comparing the moving/rotating set pattern and the moving/rotating outline O1. The method may include continuously or periodically calculating a similarity coefficient (correlation value, etc.) of . The image or pattern comparison process may be performed by a user terminal or a system providing the group call service. In some embodiments, the special effect O11 is displayed when the similarity coefficient is continuously or periodically equal to or greater than a predetermined value. For example, the special effect O11 is such that the similarity coefficient is equal to or greater than a predetermined value for a predetermined period (such as 5 seconds or 10 seconds) or a predetermined number of cycles (such as the number of operations of the contour O1 is 3 or 5 times). Displayed in some cases.

一部の実施態様において、当該輪郭O1とユーザにより形成される当該集合パターンのマッチングを連続的または周期的に行うことは、当該グループ通話の当該ユーザ間の接続の同期状態または同期レベルをテストする方法として利用することもできる。例えば、あるユーザは通信が円滑でないと感じた場合、当該ユーザはユーザ端末を通じて、当該輪郭O1を表示する工程と、当該輪郭O1を周期的に移動させる工程と、当該ユーザが形成する集合パターンを周期的に認識させる工程と、当該集合パターンと当該輪郭O1を周期的に比較する工程などの一連の工程を開始することができる。周期的なマッチング(例えば、所定期間や所定サイクル数のマッチング)が達成された場合、同期レベルが許容可能であると判断されてもよい。 In some embodiments, continuously or periodically matching the contour O1 with the aggregate pattern formed by the users tests the synchronization state or synchronization level of the connections between the users of the group call. It can also be used as a method. For example, if a user feels that the communication is not smooth, the user may display the outline O1 through the user terminal, periodically move the outline O1, and display the set pattern formed by the user. A series of steps can be started, including a step of periodically recognizing the pattern and a step of periodically comparing the set pattern and the contour O1. A synchronization level may be determined to be acceptable if periodic matching (eg, matching for a predetermined period of time or a predetermined number of cycles) is achieved.

例えば、当該輪郭O1と当該集合パターン間の当該類似度係数が所定の期間にわたり所定値以上である場合、同期レベルが許容可能であることを示すメッセージが当該ユーザ端末上に表示されてもよい。当該メッセージは、特殊効果O11のような特殊効果、またはその他任意の形態とすることができる。反対に、当該輪郭O1と当該集合パターン間の当該類似度係数が所定値未満である場合、同期レベルが許容不可であることを示すメッセージが当該ユーザ端末上に表示されてもよい。その場合、ユーザは、接続状態が良くないことを知ることができ、通信のペースを遅くしたり、別の通信方法に変更したりすることができる。一部の実施態様において、上述の同期テストは、オンラインゲームまたはユーザ間の円滑な接続を必要とする任意のイベントを開始する前に行われてもよい。 For example, if the similarity coefficient between the contour O1 and the set pattern is greater than or equal to a predetermined value for a predetermined period of time, a message may be displayed on the user terminal indicating that the synchronization level is acceptable. The message may be a special effect, such as special effect O11, or any other form. Conversely, if the similarity coefficient between the contour O1 and the set pattern is less than a predetermined value, a message indicating that the synchronization level is unacceptable may be displayed on the user terminal. In this case, the user can know that the connection state is not good, and can slow down the pace of communication or change to another communication method. In some implementations, the synchronization test described above may be performed before starting an online game or any event that requires a smooth connection between users.

図5に本発明の一部の実施態様に基づくグループ通話における例示的な交流を示す別の概略図を示す。 FIG. 5 depicts another schematic diagram illustrating exemplary interactions in a group call in accordance with some embodiments of the present invention.

本実施態様において、ユーザA、B、C、Dは当該輪郭O1に一致または適合するように、オブジェクトまたはツールT1を使用する。当該ツールT1は、柔軟な材料を含み、特定の形状に適合するように曲げたり変形させたりすることができる。例えば、ユーザAは当該ツールT1を曲げて、当該表示領域RAに表示された当該輪郭O1の当該部分に合わせることができる。一部の実施態様において、当該ツールT1の色や形状などの情報をユーザ端末または当該グループ通話のサービスを提供するシステムに教えることができる。当該ユーザ端末または当該システムは、当該ツールT1の当該情報を使用して、ユーザA、B、C、Dにより形成される当該集合パターンを認識することができる。 In this embodiment, users A, B, C, and D use the object or tool T1 to match or fit the contour O1. The tool T1 includes a flexible material and can be bent or deformed to fit a particular shape. For example, the user A can bend the tool T1 to match the part of the outline O1 displayed in the display area RA. In some embodiments, information such as the color and shape of the tool T1 can be taught to the user terminal or the system servicing the group call. The user terminal or the system can recognize the aggregation pattern formed by users A, B, C, D using the information of the tool T1.

図6に本発明の一部の実施態様に基づくライブストリーミング(グループ通話の形式またはグループ通話以外の形式であってもよい)における例示的な交流を示す別の概略図を示す。 FIG. 6 depicts another schematic diagram illustrating exemplary interactions in live streaming (which may be in the form of a group call or other than a group call) in accordance with some embodiments of the present invention.

本実施態様において、ユーザA、B、C、Dは、ユーザ端末の画面S1上の単一の表示領域内に表示される。ユーザA、B、C、Dは、実際に同一の空間内にいてもよい。あるいは、ユーザA、B、C、Dは別々の空間内におり、それぞれの画像または映像がユーザ端末または当該ストリーミングサービスに参加またはこれを提供するシステムにより実行される画像処理または映像処理を通じて、1つの表示領域内に結合されてもよい。前述した実施態様と同様に、ユーザA、B、C、Dは当該輪郭O1に一致する集合パターンを形成しようとする。一致が達成された場合、特殊効果が発生してもよい。 In this embodiment, users A, B, C, and D are displayed within a single display area on the screen S1 of the user terminal. Users A, B, C, and D may actually be in the same space. Alternatively, users A, B, C, and D may be in separate spaces and their respective images or videos may be transferred to one another through image processing or video processing performed by the user terminal or the system participating in or providing the streaming service in question. may be combined into one display area. Similar to the embodiment described above, users A, B, C, and D attempt to form a set pattern that matches the contour O1. If a match is achieved, special effects may occur.

一部の実施態様において、(ユーザの部分で形成される)集合パターンと所定の輪郭のマッチングに成功した場合の特殊効果を報酬と見なすこともできる。また、マッチングの仕組みは、複数のユーザが参加するライブストリーミングの雰囲気や交流を盛り上げる手法と見なされてもよい。例えば、マッチングが成功すると、寄付が開始されたり、そのトリガーとなったり、マッチングプロセスを開始したユーザから贈り物が送付されたりしてもよい。マッチングプロセスを開始するユーザは、ストリーマー(またはアンカー、ブロードキャスター)、あるいはストリーミングの視聴者(またはファン)であってもよい。したがって、ストリーミングやライブ配信に関わるユーザ間における、より集団的な、あるいは面白い交流が実現される。これにより、贈り物の送信が増加し、ストリーミングサービスプロバイダーまたはストリーマーの収益が向上し、さらに、プラットフォームの性能向上やコンテンツ制作の向上につながる可能性がある。一部の実施態様において、当該輪郭O1とユーザの当該部分との比較結果に基づき、贈り物の送信がトリガーまたは実現される。 In some implementations, a special effect may also be considered as a reward upon successful matching of a collective pattern (formed by the user's parts) and a predetermined contour. Further, the matching mechanism may be considered as a method to enliven the atmosphere and interaction of live streaming in which multiple users participate. For example, a successful match may initiate or trigger a donation, or a gift may be sent by the user who initiated the matching process. The user who initiates the matching process may be a streamer (or anchor, broadcaster) or a viewer (or fan) of the streaming. Therefore, more collective or interesting interaction between users involved in streaming or live distribution is realized. This could lead to increased gift sending and increased revenue for streaming service providers or streamers, as well as improved platform performance and content production. In some implementations, the sending of a gift is triggered or realized based on the comparison between the contour O1 and the part of the user.

図7に本発明の一部の実施態様に基づく通信システムの構成を示す概略図を示す。通信システム1は、コンテンツを介したインタラクションを伴うライブストリーミングサービスを提供することができる。ここで言う「コンテンツ」とは、コンピュータ装置で再生可能なデジタルコンテンツを指す。当該通信システム1は、ユーザがオンラインで他のユーザとのリアルタイムの交流に参加することを可能にする。通信システム1は、複数のユーザ端末10と、バックエンドサーバ30と、ストリーミングサーバ40とを含む。ユーザ端末10、バックエンドサーバ30、及びストリーミングサーバ40は、ネットワーク90(例えばインターネットとしてもよい)を介して接続される。バックエンドサーバ30は、ユーザ端末および/またはストリーミングサーバ40との間のインタラクションを同期させるサーバとすることができる。一部の実施態様において、バックエンドサーバ30は、アプリケーション(APP)プロバイダーのオリジンサーバとしてもよい。ストリーミングサーバ40は、ストリーミングデータまたはビデオデータを取り扱う、または提供するためのサーバである。一部の実施態様において、バックエンドサーバ30とストリーミングサーバ40は、独立したサーバとしてもよい。一部の実施態様において、バックエンドサーバ30とストリーミングサーバ40は、1つのサーバに統合してもよい。一部の実施態様において、ユーザ端末10は、ライブストリーミングのためのクライアント装置である。一部の実施態様において、ユーザ端末10は、視聴者、ストリーマー、アンカー、ポッドキャスター、オーディエンス、リスナーなどと呼ばれることがある。各当該ユーザ端末10、当該バックエンドサーバ30、及び当該ストリーミングサーバ40はそれぞれ情報処理装置の一例である。一部の実施態様において、ストリーミングは、ライブストリーミングまたはビデオ再生とすることができる。一部の実施態様において、ストリーミングは、オーディオストリーミングおよび/またはビデオストリーミングとすることができる。一部の実施態様において、ストリーミングは、オンラインショッピング、トークショー、タレントショー、娯楽イベント、スポーツイベント、音楽ビデオ、映画、コメディ、コンサート、グループ通話、電話会議などのコンテンツを含むことができる。 FIG. 7 shows a schematic diagram showing the configuration of a communication system based on some embodiments of the present invention. The communication system 1 can provide live streaming services with interaction through content. "Content" here refers to digital content that can be played back on a computer device. The communication system 1 allows users to participate in real-time interactions with other users online. The communication system 1 includes a plurality of user terminals 10, a backend server 30, and a streaming server 40. The user terminal 10, the backend server 30, and the streaming server 40 are connected via a network 90 (for example, the Internet may be used). Backend server 30 may be a server that synchronizes interactions between user terminals and/or streaming server 40 . In some implementations, backend server 30 may be an application (APP) provider's origin server. Streaming server 40 is a server for handling or providing streaming data or video data. In some implementations, backend server 30 and streaming server 40 may be independent servers. In some implementations, backend server 30 and streaming server 40 may be integrated into one server. In some implementations, user terminal 10 is a client device for live streaming. In some implementations, user terminal 10 may be referred to as a viewer, streamer, anchor, podcaster, audience, listener, etc. Each of the user terminals 10, the back-end servers 30, and the streaming servers 40 are examples of information processing devices. In some implementations, streaming can be live streaming or video playback. In some implementations, streaming can be audio streaming and/or video streaming. In some implementations, streaming can include content such as online shopping, talk shows, talent shows, entertainment events, sporting events, music videos, movies, comedy, concerts, group calls, conference calls, and the like.

図8に本発明の一部の実施態様に基づく通信システムの動作を示す例示的なシーケンス図を示す。 FIG. 8 shows an exemplary sequence diagram illustrating the operation of a communication system according to some embodiments of the present invention.

当該処理ユニットセット120は、ユーザAにより使用されるユーザ端末10Aのコンポーネントまたはデバイスを含むことができる。例えば、処理ユニットセット120は、レンダラー、エンコーダー、デコーダー、CPU、GPU、コントローラー、プロセッサ及び(または)カメラなどの画像/ 映像撮影装置を含むことができる。 The processing unit set 120 may include components or devices of the user terminal 10A used by the user A. For example, the processing unit set 120 may include image/video capture devices such as renderers, encoders, decoders, CPUs, GPUs, controllers, processors, and/or cameras.

当該ディスプレイ122は、ユーザAにより使用される当該ユーザ端末10Aの当該ディスプレイを指してもよい。 The display 122 may refer to the display of the user terminal 10A used by user A.

当該処理ユニットセット140は、ユーザBにより使用されるユーザ端末10Bのコンポーネントまたはデバイスを含むことができる。例えば、処理ユニットセット140は、レンダラー、エンコーダー、デコーダー、CPU、GPU、コントローラー、プロセッサ及び(または)カメラなどの画像/ 映像撮影装置を含むことができる。 The processing unit set 140 may include components or devices of the user terminal 10B used by user B. For example, the processing unit set 140 may include image/video capture devices such as renderers, encoders, decoders, CPUs, GPUs, controllers, processors, and/or cameras.

当該ディスプレイ142は、ユーザBにより使用される当該ユーザ端末の当該ディスプレイを指してもよい。 The display 142 may refer to the display of the user terminal used by user B.

当該メッセージユニット32は、ユーザ端末、バックエンドサーバまたはストリーミングサーバ等のデバイスとメッセージまたは信号の通信を行うように構成される。一部の実施態様において、当該メッセージユニット32はバックエンドサーバ内に実装されてもよい。一部の実施態様において、当該メッセージユニット32はバックエンドサーバから独立して実装されてもよい。 The message unit 32 is configured to communicate messages or signals with devices such as user terminals, backend servers or streaming servers. In some implementations, the message unit 32 may be implemented within a backend server. In some implementations, the message unit 32 may be implemented independently of the backend server.

形状認識ユニット50は、ジェスチャ認識処理、皮膚認識処理、輪郭認識処理,及び/またはオブジェクト認識処理を含む、形状/パターン検出/認識処理を実行するように構成される。当該形状認識ユニット50は、2つのパターン間の類似度係数または相関値を算出する工程を含む、パターン比較処理を実行するように構成されてもよい。別の一実施態様によれば、当該形状認識ユニット50は、ユーザ端末、バックエンドサーバ内に実装されても、独立して実装されてもよい。本実施態様において、当該パターン認識処理と当該パターン比較処理はいずれも当該形状認識ユニット50により実行される。一部の実施態様において、これら2つの処理は異なるユニットにより実行されてもよく、実際の応用に基づいてそれぞれがユーザ端末、バックエンドサーバ内に実装されても、独立して実装されてもよい。 Shape recognition unit 50 is configured to perform shape/pattern detection/recognition processes, including gesture recognition processes, skin recognition processes, contour recognition processes, and/or object recognition processes. The shape recognition unit 50 may be configured to perform a pattern comparison process that includes calculating a similarity coefficient or correlation value between two patterns. According to another embodiment, the shape recognition unit 50 may be implemented in a user terminal, a backend server, or independently. In this embodiment, both the pattern recognition process and the pattern comparison process are executed by the shape recognition unit 50. In some implementations, these two processes may be performed by different units, and each may be implemented in the user terminal, backend server, or independently based on the actual application. .

工程S800において、当該処理ユニットセット120は、当該ディスプレイ122上に表示するためのビデオデータをレンダリングし、これは映像撮影装置により撮影されたユーザAの映像を含んでもよい。 In step S800, the processing unit set 120 renders video data for display on the display 122, which may include an image of user A captured by a video capture device.

工程S802において、当該処理ユニットセット120はエンコードされたビデオデータを当該ストリーミングサーバ40に送信する。当該エンコードされたビデオデータは、エンコーダーによりエンコードされたユーザAの映像を含んでもよい。 In step S802, the processing unit set 120 transmits the encoded video data to the streaming server 40. The encoded video data may include user A's video encoded by the encoder.

工程S804において、当該処理ユニットセット140は、当該ディスプレイ142上に表示するためのビデオデータをレンダリングし、これは映像撮影装置により撮影されたユーザBの映像を含んでもよい。 In step S804, the processing unit set 140 renders video data for display on the display 142, which may include the video of user B captured by the video capture device.

工程S806において、当該処理ユニットセット140はエンコードされたビデオデータを当該ストリーミングサーバ40に送信する。当該エンコードされたビデオデータは、エンコーダーによりエンコードされたユーザBの映像を含んでもよい。 In step S806, the processing unit set 140 transmits the encoded video data to the streaming server 40. The encoded video data may include user B's video encoded by the encoder.

工程S808において、ユーザBのビデオデータが当該ストリーミングサーバ40から引き出され、当該ディスプレイ122上に表示される。なお、ここでは引き出されたビデオデータのデコード、加工、レンダリングなど一部の処理が省略されている。 At step S808, user B's video data is retrieved from the streaming server 40 and displayed on the display 122. Note that some processing such as decoding, processing, and rendering of the extracted video data is omitted here.

工程S810において、ユーザAのビデオデータが当該ストリーミングサーバ40から引き出され、当該ディスプレイ142上に表示される。なお、ここでは引き出されたビデオデータのデコード、加工、レンダリングなど一部の処理が省略されている。 At step S810, user A's video data is retrieved from the streaming server 40 and displayed on the display 142. Note that some processing such as decoding, processing, and rendering of the extracted video data is omitted here.

工程S812において、形状またはパターン情報が当該メッセージユニット32から当該処理ユニットセット120に送信される。 In step S812, shape or pattern information is sent from the message unit 32 to the processing unit set 120.

工程S814において、形状またはパターン情報が当該メッセージユニット32から当該処理ユニットセット140に送信される。工程S812と工程S814は同時に行われてもよい。 In step S814, shape or pattern information is sent from the message unit 32 to the processing unit set 140. Step S812 and step S814 may be performed simultaneously.

一部の実施態様において、形状情報の送信は、ユーザ端末を介したユーザの操作によりトリガーされてもよい。当該ユーザは、ストリーマー、ブロードキャスター、アンカー、視聴者であってもよい。一部の実施態様において、形状情報の送信は、通信またはストリーミングサービスのプロバイダーによりトリガーされてもよい。 In some implementations, the transmission of shape information may be triggered by user interaction via a user terminal. The user may be a streamer, broadcaster, anchor, or viewer. In some implementations, the transmission of shape information may be triggered by a communications or streaming service provider.

工程S816において、当該処理ユニットセット120は、受信または取得した形状情報に対応する形状またはパターンをレンダリングして当該ディスプレイ122に表示する。したがって、ユーザAは、適合させる必要のあるパターン(例えば、ユーザAの表示領域におけるパターンの部分)を画面上で確認することができる。 In step S816, the processing unit set 120 renders a shape or pattern corresponding to the received or acquired shape information and displays it on the display 122. Therefore, user A can confirm on the screen the pattern that needs to be matched (eg, the portion of the pattern in user A's display area).

工程S818において、当該処理ユニットセット140は、受信または取得した形状情報に対応する形状またはパターンをレンダリングして当該ディスプレイ142に表示する。したがって、ユーザBは、適合させる必要のあるパターン(例えば、ユーザBの表示領域におけるパターンの部分)を画面上で確認することができる。 In step S818, the processing unit set 140 renders a shape or pattern corresponding to the received or acquired shape information and displays it on the display 142. Therefore, user B can see on the screen the pattern that needs to be matched (eg, the portion of the pattern in user B's display area).

工程S820において、ユーザAは、当該形状を埋める、合わせる、または当該形状に適合させようとする。例えば、ユーザAは、ユーザAまたはユーザAが使用する(当該ディスプレイ122に表示された)ツールの部分が、ユーザAの表示領域に表示される当該形状の当該部分に適合するように振る舞おうとする。 In step S820, user A attempts to fill in, match, or fit the shape. For example, user A may attempt to behave so that user A or a portion of a tool used by user A (displayed on the display 122) conforms to the portion of the shape displayed in user A's display area. do.

工程S822において、ユーザは、当該形状を埋める、合わせる、または当該形状に適合させようとする。例えば、ユーザBは、ユーザBまたはユーザBが使用する(当該ディスプレイ142に表示された)ツールの部分が、ユーザBの表示領域に表示される当該形状の当該部分に適合するように振る舞おうとする。 In step S822, the user attempts to fill, match, or fit the shape. For example, user B may attempt to behave such that user B or a portion of a tool used by user B (displayed on the display 142) conforms to the portion of the shape displayed in user B's display area. do.

工程S824において、当該形状認識ユニット50は、ユーザAとユーザBにより形成される集合形状または集合パターンを検出または認識する。認識される当該集合形状は当該ディスプレイ122上に表示されてもよい。本実施態様において、当該形状認識ユニット50は、当該集合形状と、工程S812で受信した当該形状情報に対応して(例えば、工程S816で)当該ディスプレイ122上に表示された初期形状(または所定の形状)とを比較する。当該形状認識ユニット50は、当該集合形状と当該所定の形状との類似度係数または相関値を算出し、所定の閾値でマッチングが成立するか否かを判定してもよい。 In step S824, the shape recognition unit 50 detects or recognizes a set shape or a set pattern formed by user A and user B. The recognized aggregate shape may be displayed on the display 122. In this embodiment, the shape recognition unit 50 recognizes the initial shape (or a predetermined shape). The shape recognition unit 50 may calculate a similarity coefficient or a correlation value between the set shape and the predetermined shape, and determine whether matching is established using a predetermined threshold.

工程S828において、当該マッチング結果が当該形状認識ユニット50から当該メッセージユニット32に送信される。 In step S828, the matching result is sent from the shape recognition unit 50 to the message unit 32.

工程S830において、当該メッセージユニット32は当該マッチング結果を当該処理ユニットセット120に通知する。 In step S830, the message unit 32 notifies the processing unit set 120 of the matching result.

工程S832において、当該メッセージユニット32は当該マッチング結果を当該処理ユニットセット140に通知する。工程S830と工程S832は同時に行われてもよい。 In step S832, the message unit 32 notifies the processing unit set 140 of the matching result. Step S830 and step S832 may be performed simultaneously.

工程S834において、マッチングが成功した場合、当該ディスプレイ122上に特殊効果がレンダリングされる。当該特殊効果には、ユーザAとユーザB間の通信がスムーズに同期したことを示すメッセージが含まれてもよい。 In step S834, if the matching is successful, special effects are rendered on the display 122. The special effect may include a message indicating that communication between user A and user B has been smoothly synchronized.

工程S836において、マッチングが成功した場合、当該ディスプレイ142上に特殊効果がレンダリングされる。当該特殊効果には、ユーザAとユーザB間の通信がスムーズに同期したことを示すメッセージが含まれてもよい。 In step S836, if the matching is successful, special effects are rendered on the display 142. The special effect may include a message indicating that communication between user A and user B has been smoothly synchronized.

一部の実施態様において、当該メッセージユニット32は各ユーザ端末に周期的に形状情報を送信し、当該形状情報に毎回オフセットを含めることができる。したがって、各ユーザ端末のディスプレイ上に移動または回転する形状を表示することができる。その後のパターン認識処理、パターンマッチング処理も周期的に実行し、通信の同期レベルチェックとして利用してもよい。例えば、ユーザはディスプレイを見ることで、同期の状態を視覚的に知ることができる。 In some implementations, the message unit 32 may periodically send shape information to each user terminal and include an offset in the shape information each time. Therefore, a moving or rotating shape can be displayed on the display of each user terminal. The subsequent pattern recognition processing and pattern matching processing may also be executed periodically and used as a communication synchronization level check. For example, the user can visually know the synchronization status by looking at the display.

図1(または図2A)の当該画面S1については、当該画面S1が、ユーザA、ユーザB、ユーザC、ユーザDのいずれかのユーザ端末上に実装されるものとすることができる。一部の実施態様において、当該通信システムは、当該ユーザのうち任意の2人の当該表示領域を入れ替えるように構成されてもよい。当該通信システムは、ユーザ端末の1つから入れ替えの指示を受信してもよい。これにより、アレンジの自由度が増し、ユーザ間の交流がさらに向上される。 Regarding the screen S1 in FIG. 1 (or FIG. 2A), the screen S1 can be implemented on the user terminal of user A, user B, user C, or user D. In some implementations, the communication system may be configured to swap the display areas for any two of the users. The communication system may receive a replacement instruction from one of the user terminals. This increases the degree of freedom in arrangement and further improves interaction between users.

一部の実施態様において、図1(または図2A)の当該画面S1は、ストリーマーのユーザ端末上に実装されてもよい。この場合、当該ストリーマーがユーザA~Dに何をするか指示することで、両者の交流が深まる。これは、当該ストリーマーと当該ユーザA~Dの一体感を強める。当該ユーザA~Dの誰がストリーマー、または視聴者になることができる。 In some implementations, the screen S1 of FIG. 1 (or FIG. 2A) may be implemented on a streamer's user terminal. In this case, the streamer instructs the users A to D what to do, thereby deepening their interaction. This strengthens the sense of unity between the streamer and the users A to D. Any of the users A to D can become a streamer or a viewer.

一部の実施態様において、軌跡または当該輪郭O1は、ユーザの1人または投票により、候補の輪郭のリストから選択され、その各々が、それぞれの贈り物の量に結び付けられる、または価値の量でそのそれぞれの贈り物に結び付けられる。当該量(または価値の量)は、量が多いほど、それぞれの輪郭に一致することがより困難になるように設定されてもよい。一部の実施態様において、贈り物の価値は、輪郭/パターンのマッチング難易度に対応する。あるいは、当該輪郭O1は、候補の輪郭のリストから任意に選択されても、参加しているユーザA~Dのプロファイルに基づき当該輪郭O1が決定されてもよい。 In some implementations, the trajectory or said contour O1 is selected by one of the users or by a vote from a list of candidate contours, each of which is associated with a respective gift amount or with a value amount. tied to each gift. The amount (or amount of value) may be set such that the larger the amount, the more difficult it is to match the respective contour. In some implementations, the gift value corresponds to the contour/pattern matching difficulty. Alternatively, the contour O1 may be arbitrarily selected from a list of candidate contours, or the contour O1 may be determined based on the profiles of the participating users A to D.

図9に本発明の一部の実施態様に基づく通信システムの例示的な機能構成図を示す。本実施態様において、形状認識ユニット50は、バックエンドサーバ30、ストリーミングサーバ40またはユーザ端末内ではなく、独立して実装されてもよい。別の一実施態様において、当該形状認識ユニット50は、バックエンドサーバ、ストリーミングサーバ、キャッシュサーバ、またはユーザ端末内に実装されてもよい。本実施態様において、当該メッセージユニット32は、当該バックエンドサーバ30内に実装される。別の一実施態様において、当該メッセージユニット32は、当該バックエンドサーバ30の外部に実装されてもよい。例えば、当該メッセージユニット32は、独立して実装されても、ストリーミングサーバ、キャッシュサーバ、またはユーザ端末内に実装されてもよい。 FIG. 9 shows an exemplary functional block diagram of a communication system according to some embodiments of the present invention. In this embodiment, the shape recognition unit 50 may be implemented independently rather than within the backend server 30, streaming server 40 or user terminal. In another embodiment, the shape recognition unit 50 may be implemented within a backend server, a streaming server, a cache server, or a user terminal. In this embodiment, the message unit 32 is implemented within the backend server 30. In another embodiment, the message unit 32 may be implemented external to the backend server 30. For example, the message unit 32 may be implemented independently, within a streaming server, a cache server, or a user terminal.

ユーザ端末10Aは、ユーザAにより使用されるユーザ端末である。当該ユーザ端末10Aは、処理ユニットセット120と、ディスプレイ122を含む。当該処理ユニットセット120は、レンダラー、エンコーダー、デコーダー、CPU、GPU、コントローラー、プロセッサ及び(または)カメラなどの画像/ 映像撮影装置を含むことができる。 The user terminal 10A is a user terminal used by user A. The user terminal 10A includes a processing unit set 120 and a display 122. The processing unit set 120 may include an image/video capture device such as a renderer, an encoder, a decoder, a CPU, a GPU, a controller, a processor, and/or a camera.

ユーザ端末10Bは、ユーザBにより使用されるユーザ端末である。当該ユーザ端末10Bは、処理ユニットセット140と、ディスプレイ142を含む。当該処理ユニットセット120は、レンダラー、エンコーダー、デコーダー、CPU、GPU、コントローラー、プロセッサ及び(または)カメラなどの画像/ 映像撮影装置を含むことができる。 User terminal 10B is a user terminal used by user B. The user terminal 10B includes a processing unit set 140 and a display 142. The processing unit set 120 may include an image/video capture device such as a renderer, an encoder, a decoder, a CPU, a GPU, a controller, a processor, and/or a camera.

図8と図9に示すように、当該メッセージユニット32は、当該ユーザ端末10Aの当該処理ユニットセット120と当該ユーザ端末10Bの当該処理ユニットセット140に形状またはパターン情報を送信してもよい。上述のパターン情報の送信は、ユーザ端末(ストリーマーや視聴者のユーザ端末など)、システム内のサーバ、または通信をサポートするアプリケーションによりトリガーされてもよく、そのうち、当該処理ユニットセット120は、受信または取得した形状情報に対応する形状またはパターンをレンダリングして当該ディスプレイ122に表示する。したがって、ユーザAは、適合させる必要のあるパターン(例えば、ユーザAの表示領域におけるパターンの部分)を画面上で確認することができる。 As shown in FIGS. 8 and 9, the message unit 32 may transmit shape or pattern information to the processing unit set 120 of the user terminal 10A and the processing unit set 140 of the user terminal 10B. The transmission of the pattern information described above may be triggered by a user terminal (such as a streamer's or viewer's user terminal), a server in the system, or an application supporting communication, of which the processing unit set 120 may receive or A shape or pattern corresponding to the acquired shape information is rendered and displayed on the display 122. Therefore, user A can confirm on the screen the pattern that needs to be matched (eg, the portion of the pattern in user A's display area).

当該処理ユニットセット140は、受信または取得した形状情報に対応する形状またはパターンをレンダリングして当該ディスプレイ142に表示する。したがって、ユーザBは、適合させる必要のあるパターン(例えば、ユーザBの表示領域におけるパターンの部分)を画面上で確認することができる。 The processing unit set 140 renders a shape or pattern corresponding to the received or acquired shape information and displays it on the display 142. Therefore, user B can see on the screen the pattern that needs to be matched (eg, the portion of the pattern in user B's display area).

その後当該処理ユニットセット120と当該処理ユニットセット140はユーザAとユーザBがパターンのそれぞれの部分に合わせようとする映像/画像データを収集し、当該データを形状認識ユニット50に送信する。 Thereafter, the processing unit set 120 and the processing unit set 140 collect video/image data that users A and B want to match to their respective parts of the pattern, and send the data to the shape recognition unit 50.

当該形状認識ユニット50は、ユーザAとユーザBにより形成される集合形状または集合パターンを検出または認識する。本実施態様において、当該形状認識ユニット50は、当該集合形状と、図8の工程S812で受信した当該形状情報に対応して(例えば、図8の工程S816で)当該ディスプレイ122上に表示された初期形状(または所定の形状)とを比較する。当該形状認識ユニット50は、当該集合形状と当該所定の形状との類似度係数または相関値を算出し、所定の閾値でマッチングが成立するか否かを判定してもよい。その後当該形状認識ユニット50は当該マッチング結果を当該メッセージユニット32に送信する。 The shape recognition unit 50 detects or recognizes a collective shape or a collective pattern formed by user A and user B. In this embodiment, the shape recognition unit 50 displays the information displayed on the display 122 (for example, in step S816 in FIG. 8) in response to the collective shape and the shape information received in step S812 in FIG. Compare with the initial shape (or predetermined shape). The shape recognition unit 50 may calculate a similarity coefficient or a correlation value between the set shape and the predetermined shape, and determine whether matching is established using a predetermined threshold. The shape recognition unit 50 then sends the matching result to the message unit 32.

当該メッセージユニット32は、当該処理ユニットセット120と当該処理ユニットセット140に当該マッチング結果を通知する。マッチングが成功した場合、当該処理ユニットセット120および当該処理ユニットセット140により、当該ディスプレイ122と当該ディスプレイ142に表示するための特殊効果がレンダリングされてもよい。当該特殊効果には、ユーザAとユーザB間の通信がスムーズに同期したことを示すメッセージが含まれてもよい。 The message unit 32 notifies the processing unit set 120 and the processing unit set 140 of the matching result. If the matching is successful, the processing unit set 120 and the processing unit set 140 may render special effects for display on the display 122 and the display 142. The special effect may include a message indicating that communication between user A and user B has been smoothly synchronized.

本発明は、電話会議またはグループ通話中の交流を改善し、オンライン通信の同期を促進するとともに、オンライン通信サービスプロバイダーの収益を向上させる。 The present invention improves interaction during conference calls or group calls, facilitates synchronization of online communications, and increases revenue for online communication service providers.

本発明で説明した処理及び手順は、明示的に説明したものに加えて、ソフトウェア、ハードウェア、またはそれらの任意の組み合わせにより実現することができる。例えば、本明細書で説明した処理および手順は、その処理および手順に対応するロジックを集積回路、揮発性メモリ、不揮発性メモリ、非一過性のコンピュータ可読媒体、磁気ディスクなどの媒体に実装することにより実現することができる。さらに、本明細書に記載された処理および手順は、その処理および手順に対応するコンピュータプログラムとして実現することができ、各種のコンピュータにより実行することができる。 The processes and procedures described in this invention, in addition to those explicitly described, may be implemented by software, hardware, or any combination thereof. For example, the processes and procedures described herein implement logic corresponding to the processes and procedures in a medium such as an integrated circuit, volatile memory, non-volatile memory, non-transitory computer-readable medium, magnetic disk, etc. This can be achieved by Further, the processes and procedures described in this specification can be realized as a computer program corresponding to the processes and procedures, and can be executed by various computers.

上記実施態様で説明したシステムまたは方法は、固体記憶装置、光ディスク記憶装置、磁気ディスク記憶装置などの非一時的なコンピュータ可読媒体に格納されたプログラムに統合されてもよい。あるいは、プログラムは、インターネットを介してサーバからダウンロードされ、プロセッサにより実行されるものとしてもよい。 The systems or methods described in the above embodiments may be integrated into programs stored on non-transitory computer-readable media, such as solid state storage, optical disk storage, magnetic disk storage, and the like. Alternatively, the program may be downloaded from a server via the Internet and executed by the processor.

以上、本発明の技術的内容及び特徴を説明したが、本発明の属する技術分野において通常の知識を有する者であれば、本発明の教示及び開示から逸脱することなく、なお多くの変形及び修正を行うことができる。したがって、本発明の範囲は、既に開示された実施態様に限定されず、本発明から逸脱しない別の変形や修正を含み、特許請求の範囲に含まれる範囲である。 Although the technical contents and features of the present invention have been described above, those with ordinary knowledge in the technical field to which the present invention pertains will appreciate that many variations and modifications can be made without departing from the teachings and disclosure of the present invention. It can be performed. Therefore, the scope of the invention is not limited to the embodiments already disclosed, but includes other variations and modifications that do not depart from the invention and are included in the scope of the claims.

S1 画面
RA 領域
RB 領域
RC 領域
RD 領域
O1 オブジェクト
O11 特殊効果
T1 ツール
1 システム
10 ユーザ端末
120 処理ユニットセット
122 ディスプレイ
140 処理ユニットセット
142 ディスプレイ
30 バックエンドサーバ
32 メッセージユニット
40 ストリーミングサーバ
50 形状検出ユニット
90 ネットワーク
S800、S802、S804、S806、S808、S810、S812、S814、S816、S818、S820、S822、S824、S828、S830、S832、S834、S836 工程
10A ユーザ端末
10B ユーザ端末
S1 Screen RA Area RB Area RC Area RD Area O1 Object O11 Special effect T1 Tool 1 System 10 User terminal 120 Processing unit set 122 Display 140 Processing unit set 142 Display 30 Back-end server 32 Message unit 40 Streaming server 50 Shape detection unit 90 Network S800, S802, S804, S806, S808, S810, S812, S814, S816, S818, S820, S822, S824, S828, S830, S832, S834, S836 Step 10A User terminal 10B User terminal

Claims (17)

画像認識方法であって、
ユーザ端末上に表示される第1のパターンを取得する工程と、
前記第1のパターンを前記ユーザ端末上に表示されたユーザの部分と比較する工程と、
前記比較の結果を更新する工程と、
を含むことを特徴とする、画像認識方法。
An image recognition method,
obtaining a first pattern displayed on a user terminal;
comparing the first pattern with a portion of the user displayed on the user terminal;
updating the results of the comparison;
An image recognition method comprising:
前記ユーザの前記部分の位置がリアルタイムで調整されることを特徴とする、請求項1に記載の画像認識方法。 The image recognition method according to claim 1, characterized in that the position of the part of the user is adjusted in real time. 前記第1のパターンと前記ユーザの前記部分との比較が、前記第1のパターンと、前記ユーザの前記部分で構成される第2のパターン間の類似度係数の算出を含む、ことを特徴とする、請求項1に記載の画像認識方法。 The comparison between the first pattern and the portion of the user includes calculating a similarity coefficient between the first pattern and a second pattern composed of the portion of the user. The image recognition method according to claim 1. さらに、前記類似度係数が所定値以上である場合、特殊効果を表示する工程を含む、ことを特徴とする、請求項3に記載の画像認識方法。 4. The image recognition method according to claim 3, further comprising the step of displaying a special effect when the similarity coefficient is greater than or equal to a predetermined value. さらに、
前記ユーザ端末上に表示される前記第1のパターンを周期的に取得する工程と、
前記第1のパターンと前記第2のパターン間の前記類似度係数を周期的に算出する工程と、
を含み、そのうち、周期的に取得される前記第1のパターンが、前記ユーザ端末上で移動することを特徴とする、請求項3に記載の画像認識方法。
moreover,
Periodically acquiring the first pattern displayed on the user terminal;
Periodically calculating the similarity coefficient between the first pattern and the second pattern;
4. The image recognition method according to claim 3, wherein the first pattern, which is periodically acquired, moves on the user terminal.
さらに、周期的に算出される前記類似度係数が、所定の期間にわたり所定値以上である場合、前記ユーザ端末上に同期が許容可能であることを示すメッセージを表示する工程を含む、ことを特徴とする、請求項5に記載の画像認識方法。 Further, the method further includes the step of displaying a message indicating that synchronization is acceptable on the user terminal when the periodically calculated similarity coefficient is equal to or greater than a predetermined value for a predetermined period of time. The image recognition method according to claim 5. さらに、ジェスチャ認識処理、皮膚認識処理、輪郭認識処理、形状検出処理、オブジェクト認識処理、画像比較処理、または移動体検出処理で、前記第2のパターンを認識する工程を含む、ことを特徴とする、請求項3に記載の画像認識方法。 The method further includes a step of recognizing the second pattern in gesture recognition processing, skin recognition processing, contour recognition processing, shape detection processing, object recognition processing, image comparison processing, or moving object detection processing. , The image recognition method according to claim 3. 前記ユーザの前記部分が、前記ユーザの身体部分または非身体部分を含む、ことを特徴とする、請求項1に記載の画像認識方法。 The image recognition method according to claim 1, characterized in that the parts of the user include body parts or non-body parts of the user. 前記第1のパターンと前記第2のパターン間の前記類似度係数の算出が、相関計算処理、軌跡重畳処理、正規化処理、または最小距離判定処理を含む、ことを特徴とする、請求項3に記載の画像認識方法。 3. The calculation of the similarity coefficient between the first pattern and the second pattern includes a correlation calculation process, a trajectory superimposition process, a normalization process, or a minimum distance determination process. Image recognition method described in. 前記ユーザが、前記ユーザ端末上のそれぞれの表示領域内に表示され、前記それぞれの表示領域が相互に分離されていることを特徴とする、請求項1に記載の画像認識方法。 2. The image recognition method according to claim 1, wherein the users are displayed in respective display areas on the user terminal, and the respective display areas are separated from each other. さらに、前記ユーザのうち任意の2人の前記表示領域を入れ替える工程を含む、ことを特徴とする、請求項10に記載の画像認識方法。 The image recognition method according to claim 10, further comprising the step of exchanging the display areas of any two of the users. 前記ユーザが、前記ユーザ端末上の1つの表示領域内に表示される、ことを特徴とする、請求項1に記載の画像認識方法。 The image recognition method according to claim 1, characterized in that the user is displayed within one display area on the user terminal. 前記第1のパターンが、前記ユーザを表示する2つの相互に分離された前記表示領域に跨ることを特徴とする、請求項1に記載の画像認識方法。 2. The image recognition method according to claim 1, wherein the first pattern spans two mutually separated display areas displaying the user. さらに、前記比較の結果に基づき、贈り物の送信を実現する工程を含む、ことを特徴とする、請求項1に記載の画像認識方法。 The image recognition method according to claim 1, further comprising the step of realizing the sending of a gift based on the result of the comparison. 前記贈り物の価値が、前記第1のパターンのマッチング難易度に対応する、ことを特徴とする、請求項14に記載の画像認識方法。 15. The image recognition method according to claim 14, wherein the value of the gift corresponds to a matching difficulty level of the first pattern. 画像認識システムであって、1以上のプロセッサを備え、そのうち、前記1以上のプロセッサが機械可読命令を実行して、
ユーザ端末上に表示される第1のパターンを取得する工程と、
前記第1のパターンを前記ユーザ端末上に表示されたユーザの部分と比較する工程と、
前記比較の結果を更新する工程と、
を実行させることを特徴とする、画像認識方法。
An image recognition system comprising one or more processors, the one or more processors executing machine-readable instructions;
obtaining a first pattern displayed on a user terminal;
comparing the first pattern with a portion of the user displayed on the user terminal;
updating the results of the comparison;
An image recognition method characterized by performing the following steps.
画像認識のためのプログラムを含む非一時的なコンピュータ可読媒体であって、そのうち、前記プログラムが、1以上のコンピュータに、
ユーザ端末上に表示される第1のパターンを取得する工程と、
前記第1のパターンを前記ユーザ端末上に表示されたユーザの部分と比較する工程と、
前記比較の結果を更新する工程と、
を実行させることを特徴とする、画像認識方法。
A non-transitory computer-readable medium comprising a program for image recognition, wherein the program is stored in one or more computers;
obtaining a first pattern displayed on a user terminal;
comparing the first pattern with a portion of the user displayed on the user terminal;
updating the results of the comparison;
An image recognition method characterized by performing the following.
JP2022522349A 2021-12-30 2021-12-30 Systems, methods, and computer-readable media for image recognition Active JP7465486B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2021/073182 WO2023129181A1 (en) 2021-12-30 2021-12-30 System, method and computer-readable medium for image recognition

Publications (2)

Publication Number Publication Date
JP2024504884A true JP2024504884A (en) 2024-02-02
JP7465486B2 JP7465486B2 (en) 2024-04-11

Family

ID=87000038

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022522349A Active JP7465486B2 (en) 2021-12-30 2021-12-30 Systems, methods, and computer-readable media for image recognition

Country Status (2)

Country Link
JP (1) JP7465486B2 (en)
WO (1) WO2023129181A1 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5874475B2 (en) 2012-03-21 2016-03-02 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
US10715881B2 (en) * 2016-11-01 2020-07-14 Facebook, Inc. Providing interactive elements with a live video presentation
CN109391792B (en) * 2017-08-03 2021-10-29 腾讯科技(深圳)有限公司 Video communication method, device, terminal and computer readable storage medium
US11019305B2 (en) * 2018-01-12 2021-05-25 Facebook, Inc. Coordinated effects in videos
JP2020044132A (en) 2018-09-19 2020-03-26 株式会社コロプラ Program, information processing apparatus, and information processing method
JP7230394B2 (en) * 2018-09-25 2023-03-01 京セラドキュメントソリューションズ株式会社 Teleconferencing device and teleconferencing program
JP6823150B1 (en) 2019-11-29 2021-01-27 グリー株式会社 Information processing system, information processing method and computer program

Also Published As

Publication number Publication date
JP7465486B2 (en) 2024-04-11
WO2023129181A1 (en) 2023-07-06

Similar Documents

Publication Publication Date Title
CN109874021B (en) Live broadcast interaction method, device and system
EP3691280B1 (en) Video transmission method, server, vr playback terminal and computer-readable storage medium
JP7346459B2 (en) Simulating local experiences by live streaming shareable perspectives of live events
EP3180911B1 (en) Immersive video
JP7135141B2 (en) Information processing system, information processing method, and information processing program
WO2020090786A1 (en) Avatar display system in virtual space, avatar display method in virtual space, and computer program
CN106161219B (en) Message treatment method and device
JP2020512122A (en) Personalized user interface based on behavior within the application
US8876601B2 (en) Method and apparatus for providing a multi-screen based multi-dimension game service
US10289193B2 (en) Use of virtual-reality systems to provide an immersive on-demand content experience
JP2023507817A (en) Method and system for maintaining a smooth frame rate while transmitting streaming video content
CN110662119A (en) Video splicing method and device
US11756228B2 (en) Systems and methods to facilitate interaction by one or more participants with content presented across multiple distinct physical locations
CN113784180A (en) Video display method, video pushing method, video display device, video pushing device, video display equipment and storage medium
JP7465486B2 (en) Systems, methods, and computer-readable media for image recognition
JP2023524930A (en) CONFERENCE PROCESSING METHOD AND SYSTEM USING AVATARS
KR101915065B1 (en) Live streaming system for virtual reality contents and operating method thereof
TW202326516A (en) System, method and computer-readable medium for image recognition
US20230101606A1 (en) System, method and computer-readable medium for video processing
CN115037979B (en) Screen projection method and related equipment
CN115037978B (en) Screen projection method and related equipment
JP7469766B1 (en) System and method for stream distribution
CN111541942B (en) Wheat connecting method, device, equipment and storage medium
CN116320583A (en) Video call method, device, electronic equipment and storage medium
WO2023055365A1 (en) System, method and computer-readable medium for video processing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220413

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240321

R150 Certificate of patent or registration of utility model

Ref document number: 7465486

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150