CN108777832A - 一种基于视频对象追踪的实时3d声场构建和混音系统 - Google Patents

一种基于视频对象追踪的实时3d声场构建和混音系统 Download PDF

Info

Publication number
CN108777832A
CN108777832A CN201810607331.XA CN201810607331A CN108777832A CN 108777832 A CN108777832 A CN 108777832A CN 201810607331 A CN201810607331 A CN 201810607331A CN 108777832 A CN108777832 A CN 108777832A
Authority
CN
China
Prior art keywords
sound
audio signal
real
video
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810607331.XA
Other languages
English (en)
Other versions
CN108777832B (zh
Inventor
王雨霓
秦明昌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Artsbang Culture Communication Co Ltd
Original Assignee
Shanghai Artsbang Culture Communication Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Artsbang Culture Communication Co Ltd filed Critical Shanghai Artsbang Culture Communication Co Ltd
Priority to CN201810607331.XA priority Critical patent/CN108777832B/zh
Publication of CN108777832A publication Critical patent/CN108777832A/zh
Application granted granted Critical
Publication of CN108777832B publication Critical patent/CN108777832B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2205/00Details of stereophonic arrangements covered by H04R5/00 but not provided for in any of its subgroups
    • H04R2205/024Positioning of loudspeaker enclosures for spatial sound reproduction

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

本发明涉及一种基于视频对象追踪的实时3D声场构建和混音方法及系统,所述方法包括以下步骤:获取视频流,对该视频流进行对象检测及追踪,形成多个对象的三维空间轨迹,各对象具有对象标签,所述对象包括声源对象和非声源对象;获取多路音频信号,所述音频信号包括实时收音信号和预制音频信号;根据所述对象标签将获得的各对象与音频信号进行匹配,基于所述三维空间轨迹渲染构建3D声场;空间音响合成,生成多种格式输出。与现有技术相比,本发明具有灵活、有效、精确等优点,且系统的各个模块间彼此间信息和数据的共享与交互,便于操作。

Description

一种基于视频对象追踪的实时3D声场构建和混音系统
技术领域
本发明涉及一种信号处理技术,尤其是涉及一种基于视频对象追踪的实时3D声场构建和混音系统。
背景技术
在当前虚拟现实、电影、游戏娱乐、多媒体展厅等迅速发展与推广的背景下,音视频交互领域成为了关注的重点。然而,在现有的技术条件下,无论是音频、视频还是音视频的交互方面,都没有将每一个对象进行逐一的对象化的处理,因此这就直接造成了无法自动寻找轨迹而需手动跟踪,实时性、用户的交互性体验感较差的尴尬局面,与此同时音频混音也仅局限于一个大的声场的概念下,没有进行精细的划分。在系统层面,也并无一体化的系统可供直接使用。
究其原因,主要有二大技术瓶颈:
(1)视频对象的对象化处理难点:无法对视频对象进行充分的对象化处理,传统的技术在最终呈现手段方面也极为复杂,无法自动追踪声音、位置等信息,而需要手动操作。
(2)3D声场的实时构建难点:对声场的还原与构建若仅对空间感进行处理,会造成声音的层次感和方位感不清晰,整体混响过大等缺陷。
目前已知的技术和系统均无法彻底解决以上技术难点。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种更为灵活、有效和精确的、适用于音视频交互领域的基于视频对象追踪的实时3D声场构建和混音系统。
本发明的目的可以通过以下技术方案来实现:
一种基于视频对象追踪的实时3D声场构建和混音方法,该方法包括以下步骤:
获取视频流,对该视频流进行对象检测及追踪,形成多个对象的三维空间轨迹,各对象具有对象标签,所述对象包括声源对象和非声源对象;
获取多路音频信号,所述音频信号包括实时收音信号和预制音频信号;
根据所述对象标签将获得的各对象与音频信号进行匹配,基于所述三维空间轨迹渲染构建3D声场;
空间音响合成,生成多种格式输出。
进一步地,通过机器学习方法提取声源相关对象的特征,建立一对象库,基于所述对象库进行对象检测,并利用图像边界追踪技术进行对象追踪。
进一步地,所述各对象与音频信号进行匹配具体为:
对于声源对象,采用一对一或多对一的方式将各声源对象匹配到一路音频信号中,形成声场中的有效音源;对于非声源对象,根据各非声源对象的特性匹配获得吸音与反射声波系数。
进一步地,采用音源信号在空间传播衰减模型与观测点反向模型进行所述3D声场的构建,同时提供多颗粒度选择。
进一步地,所述空间音响合成具体为:
将相关线路匹配到3D声场中带有声源信息的对象上或者一个包含多个声源对象和非声源对象的集合上,并根据声场环境参数,获得一个或多个位置上的声音频谱分布,实现收音线路和预制线路的混音。
一种基于视频对象追踪的实时3D声场构建和混音系统,该方法包括以下步骤:
视频对象检测与追踪模块,用于获取视频流,对该视频流进行对象检测及追踪,形成多个对象的三维空间轨迹,各对象具有对象标签,所述对象包括声源对象和非声源对象;
音频信号采集模块,用于获取多路音频信号,所述音频信号包括实时收音信号和预制音频信号;
3D声场构建模块,用于根据所述对象标签将获得的各对象与音频信号进行匹配,基于所述三维空间轨迹渲染构建3D声场;
终混模块,用于整合以上模块所得到的参数,空间音响合成,生成多种格式输出。
进一步地,所述视频对象检测与追踪模块中,通过机器学习方法提取声源相关对象的特征,建立一对象库,基于所述对象库进行对象检测,并利用图像边界追踪技术进行对象追踪。
进一步地,所述3D声场构建模块中,各对象与音频信号进行匹配具体为:
对于声源对象,采用一对一或多对一的方式将各声源对象匹配到一路音频信号中,形成声场中的有效音源;对于非声源对象,根据各非声源对象的特性匹配获得吸音与反射声波系数。
进一步地,所述3D声场构建模块中,采用音源信号在空间传播衰减模型与观测点反向模型进行所述3D声场的构建,同时提供多颗粒度选择。
进一步地,所述终混模块中,将相关线路到3D声场中带有声源信息的对象上或者一个包含多个声源对象和非声源对象的集合上,并根据声场环境参数,获得一个或多个位置上的声音频谱分布,实现收音线路和预制线路的混音。
与现有技术相比,本发明具有以下有益效果:
(1)本发明基于对象与音频信号的融合形成3D声场,具有更好的准确性和精确度且具有较高的灵活性,所生成的3D声场具有高度的三维空间感和沉浸感,是对声场的高度的还原与再现。
(2)本发明的视频对象追踪能够有效的解决传统手动跟踪方式操作复杂的难题,其基于对声源对象与非声源对象的定义、分类与学习,追踪产生对象相对视频空间的左右,上下和景深三个参数相对于视频时间变量的函数,并且根据视频播放格式进行转换。
(3)本发明系统各模块采用多项技术相结合,构成一个完整的系统集成,实现各个模块间彼此间信息和数据的共享与交互便于操作,且充分发挥了各个模块间的交互作用。
附图说明
图1为本发明的流程示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
如图1所示,本发明提供一种基于视频对象追踪的实时3D声场构建和混音方法,该方法包括以下步骤:获取视频流,对该视频流进行对象检测及追踪,形成多个对象的三维空间轨迹,各对象具有对象标签,所述对象包括声源对象和非声源对象;获取多路音频信号,所述音频信号包括实时收音信号和预制音频信号;根据所述对象标签将获得的各对象与音频信号进行匹配,基于所述三维空间轨迹渲染构建3D声场;空间音响合成,生成多种格式输出。
(1)视频对象检测与追踪
在进行对象检测与追踪前期,通过机器学习方法(如监督学习、深度学习、迁移学习等)在图片和视频参考库中提取声源相关对象的特征,建立一定规模的对象库。获取视频流后,基于所述对象库在视频帧上对对象进行识别,形成场景动态分割并且链接对应语义,设置每一对象的对象标签。
在视频流中采用图像边界追踪技术等方法对对象进行跟踪并且形成三维空间上的轨迹。该方法也支持特定对象的手动标注功能。采用的图像边界追踪技术具体步骤为:
a)选取图像中的坐标原点,并标记为P0(0,0),最靠近P0即为最小行数与最小列数的像素。
b)定义变量dir为边界移动的方向,存储从前一个边界元素到当前元素沿着边界的移动方向。同时判断dir的奇偶性,同时对dir进行计算更改。
c)边界是一个闭合空间,搜索到首尾相接时即结束。同时,删除重复计算的Pn-1与Pn,得出最后边界为P0到Pn-2。
通过上述对象追踪可以获得对象相对视频空间的左右,上下和景深三个参数相对于视频时间变量的函数,并且根据视频播放格式进行转换。
(2)音频信号采集
接收音频信号,包括实时收音信号也可以是预制音频信号。
(3)3D声场构建
根据所述对象标签将获得的各对象与音频信号进行匹配,有些对象为音源对象,有些为非音源对,基于所述三维空间轨迹渲染构建3D声场。对于声源对象,采用一对一或多对一的方式将各声源对象匹配到一路音频信号中,形成声场中的有效音源;对于非声源对象,作为声场中的障碍对象,根据各非声源对象的特性匹配获得吸音与反射声波系数。声场构建采用音源信号在空间传播衰减模型与观测点反向模型,同时提供多颗粒度选择。
(4)混音
把相关线路,即各路收音信号和预制线路信号匹配到声场中带有声源信息的对象或者一个包含多个声源对象和非声源对象的集合,并且依据声场环境参数,即对各非声源对象的特性匹配获得吸音与反射声波系数分析所得出的空间参数,从而给出在一个特定位置或者多个位置上声音频谱分布,实现对实时线路与预制线路的混音。
实现上述基于视频对象追踪的实时3D声场构建和混音方法的系统包括视频对象检测与追踪模块、音频信号采集模块、3D声场构建模块和终混模块,多个模块以及多项技术相结合,使其构成一个完整的系统集成,实现各个模块间彼此间信息和数据的共享与交互。其中,所述视频对象检测与追踪基于对声源对象与非声源对象的定义、分类与学习,并形成三维空间(包括左右、上下、景深三个参数)上的轨迹,同时可根据视频播放格式进行转换;音频信号采集模块用于实时接收音频信号以及预制音频信号;3D声场实时构建模块用于将视频对象检测与追踪模块所获取的各对象匹配到声场中关键元素,同时对声场中的有效声源对象和和无声对象进行相应的数据处理以获得多维的环境参;终混模块整合以上模块所得到的各参数,把相关线路匹配到声场中带有声源信息的对象或者一个包含多个声源对象和非声源对象的集合,并且依据声场环境参数,给出一个特定位置或者多个位置上声音频谱分布,实现收音线路和预制线路的混音。
在某些实施例中,上述3D声场实时构建模块和终混模块可以采用Max来实现。Max程序主要分为以下几个功能:
1)收音及预制声音
实时拾取现场声源和采集预制声音,并将这些声源实时匹配至相关线路,并发送至声场重建效果模块。
2)3D声场构建效果
基于Ambsonics与Binaural双耳录音算法,采用音源信号在空间传播衰减模型与观测点反向模型,同时提供多颗粒度选择。有声对象通过一对一、多对一的方式匹配到一路输入线路,形成声场中有效音源对象;无声对象最为声场中的障碍对象,并根据对象特性匹配吸音与反射声波系数。最终将拾取到的声源实时转制成可供用户在佩戴耳机的回放条件下试听的3D立体声音频文件。
3)混音
对声音拾取和声场重建信息中不足的声音频段进行弥补与对特殊声音效果的加强。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。

Claims (10)

1.一种基于视频对象追踪的实时3D声场构建和混音方法,其特征在于,该方法包括以下步骤:
获取视频流,对该视频流进行对象检测及追踪,形成多个对象的三维空间轨迹,各对象具有对象标签,所述对象包括声源对象和非声源对象;
获取多路音频信号,所述音频信号包括实时收音信号和预制音频信号;
根据所述对象标签将获得的各对象与音频信号进行匹配,基于所述三维空间轨迹渲染构建3D声场;
空间音响合成,生成多种格式输出。
2.根据权利要求1所述的基于视频对象追踪的实时3D声场构建和混音方法,其特征在于,通过机器学习方法提取声源相关对象的特征,建立一对象库,基于所述对象库进行对象检测,并利用图像边界追踪技术进行对象追踪。
3.根据权利要求1所述的基于视频对象追踪的实时3D声场构建和混音方法,其特征在于,所述各对象与音频信号进行匹配具体为:
对于声源对象,采用一对一或多对一的方式将各声源对象匹配到一路音频信号中,形成声场中的有效音源;对于非声源对象,根据各非声源对象的特性匹配获得吸音与反射声波系数。
4.根据权利要求1所述的基于视频对象追踪的实时3D声场构建和混音方法,其特征在于,采用音源信号在空间传播衰减模型与观测点反向模型进行所述3D声场的构建,同时提供多颗粒度选择。
5.根据权利要求1所述的基于视频对象追踪的实时3D声场构建和混音方法,其特征在于,所述空间音响合成具体为:
将相关线路匹配到3D声场中带有声源信息的对象上或者一个包含多个声源对象和非声源对象的集合上,并根据声场环境参数,获得一个或多个位置上的声音频谱分布,实现收音线路和预制线路的混音。
6.一种基于视频对象追踪的实时3D声场构建和混音系统,其特征在于,该方法包括以下步骤:
视频对象检测与追踪模块,用于获取视频流,对该视频流进行对象检测及追踪,形成多个对象的三维空间轨迹,各对象具有对象标签,所述对象包括声源对象和非声源对象;
音频信号采集模块,用于获取多路音频信号,所述音频信号包括实时收音信号和预制音频信号;
3D声场构建模块,用于根据所述对象标签将获得的各对象与音频信号进行匹配,基于所述三维空间轨迹渲染构建3D声场;
终混模块,用于整合以上模块所得到的参数,空间音响合成生成多种格式输出。
7.根据权利要求6所述的基于视频对象追踪的实时3D声场构建和混音系统,其特征在于,所述视频对象检测与追踪模块中,通过机器学习方法提取声源相关对象的特征,建立一对象库,基于所述对象库进行对象检测,并利用图像边界追踪技术进行对象追踪。
8.根据权利要求6所述的基于视频对象追踪的实时3D声场构建和混音系统,其特征在于,所述3D声场构建模块中,各对象与音频信号进行匹配具体为:
对于声源对象,采用一对一或多对一的方式将各声源对象匹配到一路音频信号中,形成声场中的有效音源;对于非声源对象,根据各非声源对象的特性匹配获得吸音与反射声波系数。
9.根据权利要求6所述的基于视频对象追踪的实时3D声场构建和混音系统,其特征在于,所述3D声场构建模块中,采用音源信号在空间传播衰减模型与观测点反向模型进行所述3D声场的构建,同时提供多颗粒度选择。
10.根据权利要求6所述的基于视频对象追踪的实时3D声场构建和混音系统,其特征在于,所述终混模块中,将相关线路到3D声场中带有声源信息的对象上或者一个包含多个声源对象和非声源对象的集合上,并根据声场环境参数,获得一个或多个位置上的声音频谱分布,实现收音线路和预制线路的混音。
CN201810607331.XA 2018-06-13 2018-06-13 一种基于视频对象追踪的实时3d声场构建和混音系统 Active CN108777832B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810607331.XA CN108777832B (zh) 2018-06-13 2018-06-13 一种基于视频对象追踪的实时3d声场构建和混音系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810607331.XA CN108777832B (zh) 2018-06-13 2018-06-13 一种基于视频对象追踪的实时3d声场构建和混音系统

Publications (2)

Publication Number Publication Date
CN108777832A true CN108777832A (zh) 2018-11-09
CN108777832B CN108777832B (zh) 2021-02-09

Family

ID=64025112

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810607331.XA Active CN108777832B (zh) 2018-06-13 2018-06-13 一种基于视频对象追踪的实时3d声场构建和混音系统

Country Status (1)

Country Link
CN (1) CN108777832B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109410912A (zh) * 2018-11-22 2019-03-01 深圳市腾讯信息技术有限公司 音频处理的方法、装置、电子设备及计算机可读存储介质
CN110267166A (zh) * 2019-07-16 2019-09-20 上海艺瓣文化传播有限公司 一种基于双耳效应的虚拟声场实时交互系统
CN112073748A (zh) * 2019-06-10 2020-12-11 北京字节跳动网络技术有限公司 全景视频的处理方法、装置及存储介质
CN113316078A (zh) * 2021-07-30 2021-08-27 腾讯科技(深圳)有限公司 数据处理方法、装置、计算机设备及存储介质
CN117037844A (zh) * 2023-10-10 2023-11-10 中国传媒大学 基于全景视频的全景音频生成方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6829018B2 (en) * 2001-09-17 2004-12-07 Koninklijke Philips Electronics N.V. Three-dimensional sound creation assisted by visual information
US20090154896A1 (en) * 2007-12-17 2009-06-18 Hitachi, Ltd. Video-Audio Recording Apparatus and Video-Audio Reproducing Apparatus
CN102197646A (zh) * 2008-10-22 2011-09-21 索尼爱立信移动通讯有限公司 用便携式电子装置产生多通道音频的系统和方法
CN102480671A (zh) * 2010-11-26 2012-05-30 华为终端有限公司 视频通信中的音频处理方法和装置
CN102576533A (zh) * 2009-08-14 2012-07-11 Srs实验室有限公司 面向对象的音频流系统
CN103858447A (zh) * 2011-07-29 2014-06-11 三星电子株式会社 用于处理音频信号的方法和设备
CN107409264A (zh) * 2015-01-16 2017-11-28 三星电子株式会社 基于图像信息处理声音的方法和对应设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6829018B2 (en) * 2001-09-17 2004-12-07 Koninklijke Philips Electronics N.V. Three-dimensional sound creation assisted by visual information
US20090154896A1 (en) * 2007-12-17 2009-06-18 Hitachi, Ltd. Video-Audio Recording Apparatus and Video-Audio Reproducing Apparatus
CN102197646A (zh) * 2008-10-22 2011-09-21 索尼爱立信移动通讯有限公司 用便携式电子装置产生多通道音频的系统和方法
CN102576533A (zh) * 2009-08-14 2012-07-11 Srs实验室有限公司 面向对象的音频流系统
CN102480671A (zh) * 2010-11-26 2012-05-30 华为终端有限公司 视频通信中的音频处理方法和装置
CN103858447A (zh) * 2011-07-29 2014-06-11 三星电子株式会社 用于处理音频信号的方法和设备
CN107409264A (zh) * 2015-01-16 2017-11-28 三星电子株式会社 基于图像信息处理声音的方法和对应设备

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109410912A (zh) * 2018-11-22 2019-03-01 深圳市腾讯信息技术有限公司 音频处理的方法、装置、电子设备及计算机可读存储介质
CN109410912B (zh) * 2018-11-22 2021-12-10 深圳市腾讯信息技术有限公司 音频处理的方法、装置、电子设备及计算机可读存储介质
CN112073748A (zh) * 2019-06-10 2020-12-11 北京字节跳动网络技术有限公司 全景视频的处理方法、装置及存储介质
CN112073748B (zh) * 2019-06-10 2022-03-18 北京字节跳动网络技术有限公司 全景视频的处理方法、装置及存储介质
CN110267166A (zh) * 2019-07-16 2019-09-20 上海艺瓣文化传播有限公司 一种基于双耳效应的虚拟声场实时交互系统
CN113316078A (zh) * 2021-07-30 2021-08-27 腾讯科技(深圳)有限公司 数据处理方法、装置、计算机设备及存储介质
CN117037844A (zh) * 2023-10-10 2023-11-10 中国传媒大学 基于全景视频的全景音频生成方法及系统

Also Published As

Publication number Publication date
CN108777832B (zh) 2021-02-09

Similar Documents

Publication Publication Date Title
CN108777832A (zh) 一种基于视频对象追踪的实时3d声场构建和混音系统
US11470303B1 (en) Two dimensional to three dimensional moving image converter
US10699482B2 (en) Real-time immersive mediated reality experiences
US7876914B2 (en) Processing audio data
Bostanci et al. Augmented reality applications for cultural heritage using Kinect
CN101567969B (zh) 基于麦克风阵列声音制导的智能视频导播方法
CN112492380B (zh) 音效调整方法、装置、设备及存储介质
Bujacz et al. Naviton—a prototype mobility aid for auditory presentation of three-dimensional scenes to the visually impaired
Doulamis et al. Transforming Intangible Folkloric Performing Arts into Tangible Choreographic Digital Objects: The Terpsichore Approach.
DE112016004216T5 (de) Allgemeine Sphärische Erfassungsverfahren
CN107798932A (zh) 一种基于ar技术的早教训练系统
Skulimowski et al. Interactive sonification of U-depth images in a navigation aid for the visually impaired
Langlotz et al. Audio stickies: visually-guided spatial audio annotations on a mobile augmented reality platform
KR20160119218A (ko) 사운드 이미지 재생 방법 및 디바이스
Larsen et al. Differences in human audio localization performance between a HRTF-and a non-HRTF audio system
Bujacz et al. Sound of Vision-Spatial audio output and sonification approaches
CN111246196B (zh) 视频处理方法、装置、电子设备及计算机可读存储介质
US20170215005A1 (en) Audio refocusing methods and electronic devices utilizing the same
Kim et al. Immersive audio-visual scene reproduction using semantic scene reconstruction from 360 cameras
JP2018019294A (ja) 情報処理システム及びその制御方法、コンピュータプログラム
Hess Head-tracking techniques for virtual acoustics applications
CN109816791B (zh) 用于生成信息的方法和装置
Arabi et al. Integrated vision and sound localization
JP2018019295A (ja) 情報処理システム及びその制御方法、コンピュータプログラム
KR101747800B1 (ko) 입체음향 생성 장치 및 이를 이용한 입체 컨텐츠 생성 시스템

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant