JP7408792B2 - シーンのインタラクション方法及び装置、電子機器並びにコンピュータプログラム - Google Patents
シーンのインタラクション方法及び装置、電子機器並びにコンピュータプログラム Download PDFInfo
- Publication number
- JP7408792B2 JP7408792B2 JP2022521702A JP2022521702A JP7408792B2 JP 7408792 B2 JP7408792 B2 JP 7408792B2 JP 2022521702 A JP2022521702 A JP 2022521702A JP 2022521702 A JP2022521702 A JP 2022521702A JP 7408792 B2 JP7408792 B2 JP 7408792B2
- Authority
- JP
- Japan
- Prior art keywords
- scene
- image
- real
- features
- audio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003993 interaction Effects 0.000 title claims description 74
- 238000000034 method Methods 0.000 title claims description 68
- 238000004590 computer program Methods 0.000 title claims description 10
- 238000013507 mapping Methods 0.000 claims description 93
- 230000000694 effects Effects 0.000 claims description 85
- 238000004891 communication Methods 0.000 claims description 41
- 238000000605 extraction Methods 0.000 claims description 35
- 230000033001 locomotion Effects 0.000 claims description 29
- 230000004044 response Effects 0.000 claims description 15
- 238000003708 edge detection Methods 0.000 claims description 6
- 230000005540 biological transmission Effects 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 26
- 238000010586 diagram Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 13
- 238000012545 processing Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 11
- 238000013473 artificial intelligence Methods 0.000 description 9
- 230000004927 fusion Effects 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000007664 blowing Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/16—Image acquisition using multiple overlapping images; Image stitching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/15—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/61—Scene description
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/024—Multi-user, collaborative environment
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/57—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for processing of video signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/02—Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L69/00—Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
- H04L69/16—Implementation or adaptation of Internet protocol [IP], of transmission control protocol [TCP] or of user datagram protocol [UDP]
Description
本願は、出願番号が202010049112.1、出願日が2020年01月16日である中国特許出願に基づいて出願されたものであり、該中国特許出願に基づく優先権を主張し、その内容を全て参照により本願に組み込むものとする。
9.35805*5.0+2.67161=49.4619
9.4589*5.0+2.69178=49.9863
9.46147*5.0+2.69229=49.9996
9.46154*5.0+2.69231=50.0
110 クライアント側
120 ネットワーク
130 サーバ側
310 仮想シーン
320 実シーン
410 アプリケーション層
420 抽象化層
430 トランスポート層
440 ネットワーク層
450 リンク層
460 ターゲットハードウェアデバイス
510 クライアント側
520 クライアント側
530 サーバ側
540 サーバ側
710 融合画像
720 畳み込み層
730 プーリング層
740 他のネットワーク構造
810 クラスタ
811 サーバ側
812 パラメータサーバ
813 計算サーバ
820 クライアント側
1110 実シーンオブジェクト
1120 仮想シーンオブジェクト
1310 コントローラ
1320 ブルートゥース(登録商標)通信モジュール
1330 センサ
1340 振動モジュール
1350 ライトモジュール
1360 スピーカ
1400 シーンのインタラクション装置
1410 シーン決定モジュール
1420 情報取得モジュール
1430 特徴抽出モジュール
1440 特徴マッピングモジュール
1500 コンピュータシステム
1501 中央処理装置(Central Processing Unit、CPU)
1502 リードオンリーメモリ(Read-Only Memory、ROM)
1503 からランダムアクセスメモリ(Random Access Memory、RAM)
1504 バス
1505 インタフェース
1506 マウス等を含む入力部
1507 液晶ディスプレイ(Liquid Crystal Display、LCD)等及びスピーカ等を含む出力部
1508 記憶部
1509 通信部
1510 ドライブ
1511 リムーバブルメディア
Claims (15)
- 電子機器が実行する、シーンのインタラクション方法であって、
少なくとも1つの実シーンを決定するステップであって、各前記実シーンは、仮想シーンとの確立されたリアルタイム通信リンクを有するステップと、
各前記実シーンの実シーン情報をリアルタイムで取得するステップであって、前記実シーン情報は画像情報及びオーディオ情報を含む、ステップと、
前記画像情報及び前記オーディオ情報に特徴抽出をそれぞれ行うことで、各前記実シーンの画像特徴及びオーディオ特徴を得るステップと、
前記仮想シーンと前記少なくとも1つの実シーンとの前記リアルタイム通信リンクに基づいて、各前記実シーンと前記仮想シーンとの間の対応関係を決定するステップと、
前記対応関係に応じて、前記少なくとも1つの実シーンの前記画像特徴及び前記オーディオ特徴を前記仮想シーンの画像応答コンテンツとオーディオ応答コンテンツとにマッピングするステップと、を含み、
前記マッピングするステップは、
前記仮想シーンにおけるテキスト応答コンテンツに、前記オーディオ特徴におけるテキストオーディオ特徴をマッピングするステップと、
前記仮想シーンにおけるオーディオ動的効果に、前記オーディオ特徴における波形オーディオ特徴をマッピングするステップと、
をさらに含む、シーンのインタラクション方法。 - 前記画像情報及び前記オーディオ情報に特徴抽出をそれぞれ行うことで、各前記実シーンの前記画像特徴及び前記オーディオ特徴を得る前記ステップは、
前記画像情報の特徴抽出を行うことで前記実シーンの前記画像特徴を得るステップと、
前記オーディオ情報の特徴抽出を行うことで前記実シーンの前記オーディオ特徴を得るステップと、
を含む請求項1に記載のシーンのインタラクション方法。 - 前記画像情報の特徴抽出を行うことで前記実シーンの画像特徴を得る前記ステップは、
前記画像情報に対してシーン認識を行うことで前記実シーンのシーン画像特徴を得るステップと、
前記画像情報に対して顔認識を行うことで前記実シーンの人物画像特徴を得るステップと、
前記画像情報に対して人物動作認識を行うことで前記実シーンの動作画像特徴を得るステップと、
前記シーン画像特徴、前記人物画像特徴及び前記動作画像特徴を、前記実シーンの画像特徴として決定するステップと、
を含む請求項2に記載のシーンのインタラクション方法。 - 前記画像情報の特徴抽出を行うことで前記実シーンの画像特徴を得る前記ステップは、
前記画像情報から、異なる画像キャプチャパラメータに対応する前記実シーンの局所画像を取得するステップと、
同一時間区間に属する前記局所画像をつなぎ合わせることで、前記実シーンの融合画像を得るステップと、
前記融合画像の特徴抽出を行うことで前記実シーンの画像特徴を得るステップと、
を含む請求項2に記載のシーンのインタラクション方法。 - 前記画像キャプチャパラメータは、画像キャプチャ角度及び画像キャプチャ範囲のうちの少なくとも1つを含む、請求項4に記載のシーンのインタラクション方法。
- 前記融合画像の特徴抽出を行うことで前記実シーンの画像特徴を得る前記ステップは、
前記融合画像のエッジ検出を行うことで前記融合画像における特徴領域を得るステップと、
前記特徴領域の特徴抽出を行うことで前記実シーンの画像特徴を得るステップと、
を含む請求項4に記載のシーンのインタラクション方法。 - 前記オーディオ情報の特徴抽出を行うことで前記実シーンの前記オーディオ特徴を得る前記ステップは、
前記オーディオ情報に対して音声認識を行うことで前記実シーンのテキストオーディオ特徴を得るステップと、
前記オーディオ情報に対して波形検出を行うことで前記実シーンの波形オーディオ特徴を得るステップと、
前記テキストオーディオ特徴及び前記波形オーディオ特徴を、前記実シーンのオーディオ特徴として決定するステップと、
を含む請求項2に記載のシーンのインタラクション方法。 - 前記対応関係に応じて、前記画像特徴及び前記オーディオ特徴を前記仮想シーンの前記画像応答コンテンツと前記オーディオ応答コンテンツとにマッピングする前記ステップは、
前記対応関係に応じて、前記仮想シーンにおいて各前記実シーンに対応する特徴マッピング領域を決定するステップと、
前記特徴マッピング領域において、対応する前記実シーンのシーン特徴とマッピング関係を持つシーンコンテンツを表示するステップと、
を含む請求項1に記載のシーンのインタラクション方法。 - 前記特徴マッピング領域は、第1の特徴マッピング領域と第2の特徴マッピング領域とを含み、
前記特徴マッピング領域において、対応する前記実シーンのシーン特徴とマッピング関係を持つシーンコンテンツを表示する前記ステップは、
前記シーン特徴が画像特徴である場合、前記画像特徴とマッピング関係を持つ画像応答コンテンツを前記第1の特徴マッピング領域に表示するステップと、
前記シーン特徴がオーディオ特徴である場合、前記オーディオ特徴とマッピング関係を持つオーディオ応答コンテンツを前記第2の特徴マッピング領域に表示するステップと、
を含む請求項8に記載のシーンのインタラクション方法。 - 前記画像特徴とマッピング関係を持つ画像応答コンテンツを前記第1の特徴マッピング領域に表示する前記ステップは、
前記画像特徴からシーン画像特徴、人物画像特徴及び動作画像特徴のうちの少なくとも1つを取得するステップと、
前記シーン画像特徴とマッピング関係を持つ仮想背景画像を前記第1の特徴マッピング領域に表示するステップと、
前記人物画像特徴とマッピング関係を持つ仮想人物画像を前記第1の特徴マッピング領域に表示するステップと、
前記動作画像特徴とマッピング関係を持つ動作応答コンテンツを前記第1の特徴マッピング領域に表示するステップと、
を含む請求項9に記載のシーンのインタラクション方法。 - 前記オーディオ特徴とマッピング関係を持つオーディオ応答コンテンツを前記第2の特徴マッピング領域に表示する前記ステップは、
前記オーディオ特徴からテキストオーディオ特徴及び波形オーディオ特徴を取得するステップと、
前記テキスト応答コンテンツ及び前記オーディオ動的効果を前記第2の特徴マッピング領域に表示するステップと、
を含む請求項9に記載のシーンのインタラクション方法。 - 前記実シーンの実シーン情報をリアルタイムで取得する前記ステップは、
伝送制御プロトコルの全二重通信プロトコルに従ってリアルタイム通信を行うリアルタイム通信リンクを前記仮想シーンと前記実シーンとの間で確立するステップと、
前記リアルタイム通信リンクを利用して前記実シーンの実シーン情報を取得するステップと、
を含む請求項1に記載のシーンのインタラクション方法。 - 少なくとも1つの実シーンを決定するように構成されるシーン決定モジュールであって、各前記実シーンは、仮想シーンとの確立されたリアルタイム通信リンクを有する、シーン決定モジュールと、
各前記実シーンの実シーン情報をリアルタイムで取得するように構成される情報取得モジュールであって、前記実シーン情報は画像情報及びオーディオ情報を含む、情報取得モジュールと、
前記画像情報及び前記オーディオ情報に特徴抽出をそれぞれ行うことで、各前記実シーンの画像特徴及びオーディオ特徴を得るように構成される特徴抽出モジュールと、
前記仮想シーンと前記少なくとも1つの実シーンとの前記リアルタイム通信リンクに基づいて、各前記実シーンと前記仮想シーンとの間の対応関係を決定し、
前記対応関係に応じて、前記少なくとも1つの実シーンの前記画像特徴及び前記オーディオ特徴を前記仮想シーンの画像応答コンテンツとオーディオ応答コンテンツとにマッピングする
ように構成される特徴マッピングモジュールと、を備え、
前記特徴マッピングモジュールは、
前記仮想シーンにおけるテキスト応答コンテンツに、前記オーディオ特徴におけるテキストオーディオ特徴をマッピングし、
前記仮想シーンにおけるオーディオ動的効果に、前記オーディオ特徴における波形オーディオ特徴をマッピングする
ようにさらに構成される
シーンのインタラクション装置。 - プロセッサと、
前記プロセッサの実行可能命令を記憶するためのメモリと、を備え、
前記プロセッサは、前記実行可能命令を実行することによって、請求項1ないし12のうちのいずれか1項に記載のシーンのインタラクション方法を実行するように構成される電子機器。 - コンピュータに、請求項1乃至12のうちのいずれか1項に記載のシーンのインタラクション方法を実行させるように構成されるコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010049112.1A CN111274910B (zh) | 2020-01-16 | 2020-01-16 | 场景互动方法、装置及电子设备 |
CN202010049112.1 | 2020-01-16 | ||
PCT/CN2020/127750 WO2021143315A1 (zh) | 2020-01-16 | 2020-11-10 | 场景互动方法、装置、电子设备及计算机存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022551660A JP2022551660A (ja) | 2022-12-12 |
JP7408792B2 true JP7408792B2 (ja) | 2024-01-05 |
Family
ID=71001711
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022521702A Active JP7408792B2 (ja) | 2020-01-16 | 2020-11-10 | シーンのインタラクション方法及び装置、電子機器並びにコンピュータプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220156986A1 (ja) |
EP (1) | EP3998550A4 (ja) |
JP (1) | JP7408792B2 (ja) |
KR (1) | KR20220027187A (ja) |
CN (1) | CN111274910B (ja) |
WO (1) | WO2021143315A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111274910B (zh) * | 2020-01-16 | 2024-01-30 | 腾讯科技(深圳)有限公司 | 场景互动方法、装置及电子设备 |
CN111986700A (zh) * | 2020-08-28 | 2020-11-24 | 广州繁星互娱信息科技有限公司 | 无接触式操作触发的方法、装置、设备及存储介质 |
CN112053450A (zh) | 2020-09-10 | 2020-12-08 | 脸萌有限公司 | 文字的显示方法、装置、电子设备及存储介质 |
CN112381564A (zh) * | 2020-11-09 | 2021-02-19 | 北京雅邦网络技术发展有限公司 | 汽车销售数字电商 |
CN112995132B (zh) * | 2021-02-01 | 2023-05-02 | 百度在线网络技术(北京)有限公司 | 在线学习的交互方法、装置、电子设备和存储介质 |
CN113377205B (zh) * | 2021-07-06 | 2022-11-11 | 浙江商汤科技开发有限公司 | 场景显示方法及装置、设备、车辆、计算机可读存储介质 |
CN113923463B (zh) * | 2021-09-16 | 2022-07-29 | 南京安汇科技发展有限公司 | 一种直播场景的实时抠像与场景合成系统及实现方法 |
CN114189743B (zh) * | 2021-12-15 | 2023-12-12 | 广州博冠信息科技有限公司 | 数据传输方法、装置、电子设备和存储介质 |
KR20230158283A (ko) * | 2022-05-11 | 2023-11-20 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
CN115113737B (zh) * | 2022-08-30 | 2023-04-18 | 四川中绳矩阵技术发展有限公司 | 一种虚拟对象声音和图像的重现方法、系统、设备及介质 |
CN116709501A (zh) * | 2022-10-26 | 2023-09-05 | 荣耀终端有限公司 | 业务场景识别方法、电子设备及存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002169901A (ja) | 2000-12-01 | 2002-06-14 | I Academy:Kk | インターネットを利用した集合参加型教育システム |
JP2007266713A (ja) | 2006-03-27 | 2007-10-11 | Fujifilm Corp | 監視システム、監視方法、及びプログラム |
JP2015126524A (ja) | 2013-12-27 | 2015-07-06 | ブラザー工業株式会社 | 遠隔会議プログラム、端末装置および遠隔会議方法 |
WO2017155126A1 (ja) | 2016-03-08 | 2017-09-14 | 一般社団法人 日本画像認識協会 | 情報伝送システム、情報送信装置、情報受信装置、およびコンピュータプログラム |
WO2018087084A1 (de) | 2016-11-08 | 2018-05-17 | 3Dqr Gmbh | Verfahren und vorrichtung zum überlagern eines abbilds einer realen szenerie mit virtuellen bild- und audiodaten und ein mobiles gerät |
WO2018089691A1 (en) | 2016-11-11 | 2018-05-17 | Magic Leap, Inc. | Periocular and audio synthesis of a full face image |
US20180329512A1 (en) | 2016-01-25 | 2018-11-15 | Hiscene Information Technology Co., Ltd | Multimodal input-based interaction method and device |
JP2019049601A (ja) | 2017-09-08 | 2019-03-28 | Kddi株式会社 | 音波信号から音波種別を判定するプログラム、システム、装置及び方法 |
JP2019185185A (ja) | 2018-04-03 | 2019-10-24 | 東京瓦斯株式会社 | 画像処理システム及びプログラム |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101023469B (zh) * | 2004-07-28 | 2011-08-31 | 日本福年株式会社 | 数字滤波方法和装置 |
KR101558553B1 (ko) * | 2009-02-18 | 2015-10-08 | 삼성전자 주식회사 | 아바타 얼굴 표정 제어장치 |
GB2491819A (en) * | 2011-06-08 | 2012-12-19 | Cubicspace Ltd | Server for remote viewing and interaction with a virtual 3-D scene |
US20130222371A1 (en) * | 2011-08-26 | 2013-08-29 | Reincloud Corporation | Enhancing a sensory perception in a field of view of a real-time source within a display screen through augmented reality |
JP2013161205A (ja) * | 2012-02-03 | 2013-08-19 | Sony Corp | 情報処理装置、情報処理方法、及びプログラム |
US9292085B2 (en) * | 2012-06-29 | 2016-03-22 | Microsoft Technology Licensing, Llc | Configuring an interaction zone within an augmented reality environment |
US20140278403A1 (en) * | 2013-03-14 | 2014-09-18 | Toytalk, Inc. | Systems and methods for interactive synthetic character dialogue |
CN103617432B (zh) * | 2013-11-12 | 2017-10-03 | 华为技术有限公司 | 一种场景识别方法及装置 |
CN103810353A (zh) * | 2014-03-09 | 2014-05-21 | 杨智 | 一种虚拟现实中的现实场景映射系统和方法 |
CN104536579B (zh) * | 2015-01-20 | 2018-07-27 | 深圳威阿科技有限公司 | 交互式三维实景与数字图像高速融合处理系统及处理方法 |
US10356393B1 (en) * | 2015-02-16 | 2019-07-16 | Amazon Technologies, Inc. | High resolution 3D content |
CN105608746B (zh) * | 2016-03-16 | 2019-10-11 | 成都电锯互动科技有限公司 | 一种将现实进行虚拟实现的方法 |
CN106355153B (zh) * | 2016-08-31 | 2019-10-18 | 上海星视度科技有限公司 | 一种基于增强现实的虚拟对象显示方法、装置以及系统 |
CN106492461A (zh) * | 2016-09-13 | 2017-03-15 | 广东小天才科技有限公司 | 一种增强现实ar游戏的实现方法及装置、用户终端 |
CN106485782A (zh) * | 2016-09-30 | 2017-03-08 | 珠海市魅族科技有限公司 | 一种现实场景在虚拟场景中展示的方法以及装置 |
CN108881784B (zh) * | 2017-05-12 | 2020-07-03 | 腾讯科技(深圳)有限公司 | 虚拟场景实现方法、装置、终端及服务器 |
US20190129607A1 (en) * | 2017-11-02 | 2019-05-02 | Samsung Electronics Co., Ltd. | Method and device for performing remote control |
CN108305308A (zh) * | 2018-01-12 | 2018-07-20 | 北京蜜枝科技有限公司 | 虚拟形象的线下展演系统及方法 |
CN108269307B (zh) * | 2018-01-15 | 2023-04-07 | 歌尔科技有限公司 | 一种增强现实交互方法及设备 |
CN108985176B (zh) * | 2018-06-20 | 2022-02-25 | 阿里巴巴(中国)有限公司 | 图像生成方法及装置 |
CN109903129A (zh) * | 2019-02-18 | 2019-06-18 | 北京三快在线科技有限公司 | 增强现实显示方法与装置、电子设备、存储介质 |
CN110113298B (zh) * | 2019-03-19 | 2021-09-28 | 视联动力信息技术股份有限公司 | 数据传输方法、装置、信令服务器和计算机可读介质 |
CN110084228A (zh) * | 2019-06-25 | 2019-08-02 | 江苏德劭信息科技有限公司 | 一种基于双流卷积神经网络的危险行为自动识别方法 |
CN110365666B (zh) * | 2019-07-01 | 2021-09-14 | 中国电子科技集团公司第十五研究所 | 军事领域基于增强现实的多端融合协同指挥系统 |
US11232601B1 (en) * | 2019-12-30 | 2022-01-25 | Snap Inc. | Audio-triggered augmented reality eyewear device |
CN111274910B (zh) * | 2020-01-16 | 2024-01-30 | 腾讯科技(深圳)有限公司 | 场景互动方法、装置及电子设备 |
-
2020
- 2020-01-16 CN CN202010049112.1A patent/CN111274910B/zh active Active
- 2020-11-10 EP EP20913676.1A patent/EP3998550A4/en active Pending
- 2020-11-10 JP JP2022521702A patent/JP7408792B2/ja active Active
- 2020-11-10 KR KR1020227002916A patent/KR20220027187A/ko unknown
- 2020-11-10 WO PCT/CN2020/127750 patent/WO2021143315A1/zh unknown
-
2022
- 2022-02-07 US US17/666,081 patent/US20220156986A1/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002169901A (ja) | 2000-12-01 | 2002-06-14 | I Academy:Kk | インターネットを利用した集合参加型教育システム |
JP2007266713A (ja) | 2006-03-27 | 2007-10-11 | Fujifilm Corp | 監視システム、監視方法、及びプログラム |
JP2015126524A (ja) | 2013-12-27 | 2015-07-06 | ブラザー工業株式会社 | 遠隔会議プログラム、端末装置および遠隔会議方法 |
US20180329512A1 (en) | 2016-01-25 | 2018-11-15 | Hiscene Information Technology Co., Ltd | Multimodal input-based interaction method and device |
WO2017155126A1 (ja) | 2016-03-08 | 2017-09-14 | 一般社団法人 日本画像認識協会 | 情報伝送システム、情報送信装置、情報受信装置、およびコンピュータプログラム |
WO2018087084A1 (de) | 2016-11-08 | 2018-05-17 | 3Dqr Gmbh | Verfahren und vorrichtung zum überlagern eines abbilds einer realen szenerie mit virtuellen bild- und audiodaten und ein mobiles gerät |
WO2018089691A1 (en) | 2016-11-11 | 2018-05-17 | Magic Leap, Inc. | Periocular and audio synthesis of a full face image |
JP2019049601A (ja) | 2017-09-08 | 2019-03-28 | Kddi株式会社 | 音波信号から音波種別を判定するプログラム、システム、装置及び方法 |
JP2019185185A (ja) | 2018-04-03 | 2019-10-24 | 東京瓦斯株式会社 | 画像処理システム及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN111274910A (zh) | 2020-06-12 |
EP3998550A1 (en) | 2022-05-18 |
KR20220027187A (ko) | 2022-03-07 |
CN111274910B (zh) | 2024-01-30 |
US20220156986A1 (en) | 2022-05-19 |
JP2022551660A (ja) | 2022-12-12 |
EP3998550A4 (en) | 2022-11-16 |
WO2021143315A1 (zh) | 2021-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7408792B2 (ja) | シーンのインタラクション方法及び装置、電子機器並びにコンピュータプログラム | |
US11670015B2 (en) | Method and apparatus for generating video | |
KR20220029451A (ko) | 가상 환경에서 상호작용을 가능하게 하는 시스템 및 방법 | |
US10354256B1 (en) | Avatar based customer service interface with human support agent | |
CN107683166A (zh) | 用于限制头戴式显示器上的视觉活动的过滤和父母控制方法 | |
CN106547884A (zh) | 一种替身机器人的行为模式学习系统 | |
CN106774894A (zh) | 基于手势的交互式教学方法及交互系统 | |
WO2019119314A1 (zh) | 一种仿真沙盘系统 | |
CN112839196B (zh) | 一种实现在线会议的方法、装置以及存储介质 | |
KR20220030177A (ko) | 가상 환경에서의 애플리케이션의 전달 시스템 및 방법 | |
US20200351384A1 (en) | System and method for managing virtual reality session technical field | |
CN109213304A (zh) | 用于直播教学的手势互动方法和系统 | |
KR20220029471A (ko) | 공간 비디오 기반 존재 | |
KR20220029453A (ko) | 사용자 그래픽 표현 기반 사용자 인증 시스템 및 방법 | |
KR20220029454A (ko) | 가상 환경에서 가상으로 방송하기 위한 시스템 및 방법 | |
CN114463470A (zh) | 虚拟空间浏览方法、装置、电子设备和可读存储介质 | |
CN113220130A (zh) | 一种用于党建的vr体验系统及其设备 | |
KR20220029467A (ko) | 접근하는 사용자 표현 간의 애드혹 가상통신 | |
KR20220030178A (ko) | 가상 환경에서 클라우드 컴퓨팅 기반 가상 컴퓨팅 리소스를 프로비저닝하는 시스템 및 방법 | |
KR102212035B1 (ko) | 제스처 인식 기반 원격 교육서비스 시스템 및 방법 | |
CN115086594A (zh) | 虚拟会议处理方法、装置、设备和存储介质 | |
JP2023527624A (ja) | コンピュータプログラムおよびアバター表現方法 | |
Sanyal et al. | Study of holoportation: using network errors for improving accuracy and efficiency | |
WO2024051467A1 (zh) | 图像处理方法、装置、电子设备及存储介质 | |
WO2023226851A1 (zh) | 三维效果形象的生成方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220411 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220411 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230703 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230927 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231211 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231220 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7408792 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |