CN109274886B - 一种基于OpenVR的混合现实视频录制方法 - Google Patents
一种基于OpenVR的混合现实视频录制方法 Download PDFInfo
- Publication number
- CN109274886B CN109274886B CN201811089960.4A CN201811089960A CN109274886B CN 109274886 B CN109274886 B CN 109274886B CN 201811089960 A CN201811089960 A CN 201811089960A CN 109274886 B CN109274886 B CN 109274886B
- Authority
- CN
- China
- Prior art keywords
- virtual camera
- parameters
- mixed reality
- camera
- reality video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/40—Transformation of program code
- G06F8/41—Compilation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/60—Software deployment
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/75—Media network packet handling
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/617—Upgrading or updating of programs or applications for camera control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
Abstract
本发明公开了一种基于OpenVR的混合现实视频录制方法,包括:创建虚拟相机驱动脚本,生成VR应用程序;对虚拟相机参数进行校正;将真实相机图像拟合至虚拟相机,输出混合现实视频。其中对虚拟相机参数进行校正包括以下步骤:打开定标程序,选择对应支持的图像输入设备,调整图像参数;指定当前用于定位虚拟相机位置的附件类型,并确认对应设备状态为已连接;根据定标程序提示分别对近景标注点、远景标注点进行确认,以自动生成虚拟相机的校正参数;参数调校好后,导出对当前虚拟相机参数并加以文件存储。本发明具有兼容性好、硬件要求低、实现步骤简单和应用场景广的优点。
Description
技术领域
本发明涉及视频技术领域,尤其涉及一种基于OpenVR的混合现实视频录制方法。
背景技术
随着虚拟现实(Vitual Reality,VR)技术的再次兴起并被普通大众所接受,在虚拟现实中游戏、训练、接受教育等已成为越来越普通化的生活方式,与传统交互方式相比,虚拟现实内容具有着高逼真度,高沉浸感等优势,但由于其全封闭式视听感观剥离,参与者在虚拟现实中饶有兴趣的体验在旁人看来却是一种莫名其妙的手舞足蹈,为弥补这一缺陷,混合现实(Mixed Reality,MR)视频录制技术应运而生。而目前主流的混合现实录制方法则源自于SteamVR支持的四分频录制法:除了两只控制手柄外,在定位场景内在添加一只手柄或定位器,用以标定第三方虚拟摄像头,再通过参数调校,使之与现实摄像头空间位置重合,再通过绿幕抠图法,将现实人物图像与虚拟场景叠加在一起,以使第三方能够直观地看到参与者与虚拟场景之间的互动。此方案的缺点有以下几方面:
1)目前支持的主流设备为基于Light house定位方案的HTC VIVE;
2)必须有第三只控制器(Controller)或定位器(Tracker);
3)VR项目需以Unity3D制作,如Unreal等其它平台暂时未支持;
4)为输出较为清晰的混合现实合成图案,必须至少拥有一个4K级高清显示屏,这样四分屏出来的图像才能达到1080p级画质;
5)由于输出需要4K级四分屏,GPU占有率大大提高,对显卡要求进一步提高。
发明内容
为了解决上述问题,本发明提出一种基于OpenVR的混合现实视频录制方法。本方法基于OpenVR实现,可兼容SteamVR程序,也可独立使用,并且支持多种编译平台(Unity3d,Unreal, Visual Stiduo等),可以使用第三方定位设备,也可以用校正好的纯虚拟位置(定点位置混合现实视频拍摄时),进行混合现实视频录制时,无需使用四分屏,也无需使用4K显示器,普通显示器即可,同时可以大幅降低GPU使用效率,为VR内容创作留出更多的性能空间,并且支持设备包括但不限于HTC VIVE, WMR, 具有第三方定位方案的一体机或者移动VR。
具体的,一种基于OpenVR的混合现实视频录制方法,包括以下步骤:
S1,创建虚拟相机驱动脚本,生成VR应用程序;
S2,对虚拟相机参数进行校正;
S3,将真实相机图像拟合至虚拟相机,输出混合现实视频。
优选的,步骤S1所述创建虚拟相机驱动脚本,生成VR应用程序,包括以下子步骤:
S11,在开发基于Open VR和Steam VR的VR项目时,嵌入第三方虚拟相机支持组件;
S12,在场景中新建空对象,并将此空对象作为参数传递给虚拟相机驱动脚本;所述空对象用于承载虚拟相机驱动脚本;
S13,将Steam VR包中的主视摄像机作为参数传递给虚拟相机驱动脚本;
S14,编译并打包生成VR应用程序;
S15,加载第三方虚拟相机驱动。
优选的,步骤S2所述虚拟相机参数校正,包含以下子步骤:
S211,打开定标程序,选择对应支持的图像输入设备,调整图像参数;
S212,指定当前用于定位虚拟相机位置的附件类型,并确认对应设备状态为已连接;
S213,根据定标程序提示分别对近景标注点、远景标注点进行确认,以自动生成虚拟相机的校正参数;
S214,参数调校好后,导出对当前虚拟相机参数并加以文件存储。
优选的,步骤S2所述虚拟相机参数校正,包含以下子步骤:
S221,确保真实相机位置固定并取此位置图像;
S222,打开定标程序,选择对应支持的图像输入设备,调整图像参数;
S223,指定当前用于定位虚拟相机位置的附件类型,并确认对应虚拟相机状态为已连接;
S224,根据定标程序提示分别对近景标注点、远景标注点进行确认,以自动生成相机的校正参数;
S225,参数调校好后,导出对当前虚拟相机参数并加以文件存储。
优选的,还包括虚拟相机参数微调步骤:在虚拟相机参数生成后再使用参数微调控件进行细微调整,以达最佳效果。
优选的,所述图像参数包括分辨率、编码方式。
优选的,所述校正参数包括视场角、偏移位置、偏移角度。
优选的,所述附件类型为:Tracker, Controller或Other。
优选的,所述附件类型为Virtual Camera。
优选的,所述真实相机图像拟合至虚拟相机,输出混合现实视频,包括以下子步骤:
S31,正常运行VR程序;
S32,运行混合现实图像合成客户端;
在客户端中载入真实相机实时图像,选择相机设备、分辨率和编码方式,若默认则会加载上次设置;
S33:加载步骤S2所生成的虚拟相机校正参数;
S34,在客户端中指定已运行的VR程序,作为输入源;
S35,在客户端输出窗口中进行混合现实视频观看,或者直播到局域网流媒体服务器或互联网直播平台。
本发明的有益效果在于:
1)兼容性好。本发明不仅兼容SteamVR四分屏混合现实视频输出方案,还兼容Unreal或Visual Studio平台的虚拟现实内容。
2)硬件要求更低。大幅降低GPU负载率,为VR内容创作留出更多性能空间,同时,四分屏与4K显示器不再作为必须条件。
3)实现步骤简单。可以由实物定位附件进行真实相机定位,也可以不用定位附件,采用固定机位通过调校虚拟相机参数而进行混合现实内容合成。
4)应用场景广。此方案可以用于HTC VIVE,也可以用于Windows MR设备,甚至可以用于有第三方定位方案的一体机或者移动VR。
附图说明
图1是本发明的系统图;
图2是本发明的实施例图。
具体实施方式
为了对本发明的技术特征、目的和效果有更加清楚的理解,现对照附图说明本发明的具体实施方式。
具体的,一种基于OpenVR的混合现实视频录制方法,包括以下步骤:
S1,创建虚拟相机驱动脚本,生成VR应用程序;
S2,对虚拟相机参数进行校正;
S3,将真实相机图像拟合至虚拟相机,输出混合现实视频。
优选的,步骤S1所述创建虚拟相机驱动脚本,生成VR应用程序,包括以下子步骤:
S11,在开发基于Open VR和Steam VR的VR项目时,嵌入第三方虚拟相机支持组件;
S12,在场景中新建空对象,并将此空对象作为参数传递给虚拟相机驱动脚本;所述空对象用于承载虚拟相机驱动脚本;
S13,将Steam VR包中的主视摄像机作为参数传递给虚拟相机驱动脚本;
S14,编译并打包生成VR应用程序;
S15,加载第三方虚拟相机驱动。
优选的,步骤S2所述虚拟相机参数校正,包含以下子步骤:
S211,打开定标程序,选择对应支持的图像输入设备,调整图像参数;
S212,指定当前用于定位虚拟相机位置的附件类型,并确认对应设备状态为已连接;所述附件类型为:Tracker, Controller或Other。
S213,根据定标程序提示分别对近景标注点、远景标注点进行确认,以自动生成虚拟相机的校正参数;
S214,参数调校好后,导出对当前虚拟相机参数并加以文件存储。
优选的,步骤S2所述虚拟相机参数校正,在无第三方定位附件的情况下,采用以下步骤:
S221,确保真实相机位置固定并取此位置图像;
S222,打开定标程序,选择对应支持的图像输入设备,调整图像参数;
S223,指定当前用于定位虚拟相机位置的附件类型,并确认对应虚拟相机状态为已连接;所述附件类型为Virtual Camera。
S224,根据定标程序提示分别对近景标注点、远景标注点进行确认,以自动生成相机的校正参数;
S225,参数调校好后,导出对当前虚拟相机参数并加以文件存储。
优选的,还包括虚拟相机参数微调步骤:在虚拟相机参数生成后再使用参数微调控件进行细微调整,以达最佳效果。
优选的,所述图像参数包括分辨率、编码方式。
优选的,所述校正参数包括视场角、偏移位置、偏移角度。
优选的,所述真实相机图像拟合至虚拟相机,输出混合现实视频,包括以下子步骤:
S31,正常运行VR程序;
S32,运行混合现实图像合成客户端;
在客户端中载入真实相机实时图像,选择相机设备、分辨率和编码方式,若默认则会加载上次设置;
S33:加载步骤S2所生成的虚拟相机校正参数;
S34,在客户端中指定已运行的VR程序,作为输入源;
S35,在客户端输出窗口中进行混合现实视频观看,或者直播到局域网流媒体服务器或互联网直播平台。
以下列举一个实施例以说明本发明的整体方案:
步骤A:开发基于OpenVR和SteamVR的VR项目时,嵌入第三方虚拟相机支持组件;
步骤B:在场景中新建空对象,用以承载虚拟相机驱动脚本,并将此空对象作为参数传递给脚本;此处空对象为UNIX下建立的对象,脚本为虚拟相机驱动脚本。
步骤C:将SteamVR包中的主视摄像机作为参数传递给虚拟相机驱动脚本;
步骤D:编译并打包生成VR应用程序;
步骤E:加载第三方虚拟相机驱动;
步骤F:若有第三方定位附件,用第三方定位附件为目标进行虚拟相机参数校正,此步骤又分以下几个小步骤:
F1,打开定标程序,选择对应支持的图像输入设备,调好分辨率,编码方式等;
F2,指定当前用于定位虚拟相机位置的附件类型(Tracker, Controller或其它类型),并确认对应设备状态为已连接;
F3,根据程序提示分别对近景标注点、远景标注点进行确认,以自动生成相机的视场角、偏移位置、偏移角度等校正信息;
F4,参数生成后再通过各参数微调控件进行细微调整,以达最佳效果;
F5,参数调校好后,点击导出按钮,对当前虚拟相机参数进行文件存储操作;
步骤G:若无第三方定位附件,确保真实相机位置固定,再用此位置图像进行虚拟相机参数校正此步骤又分以下几个小步骤:
G1,打开定标程序,选择对应支持的图像输入设备,调好分辨率,编码方式等;
G2,指定当前用于定位虚拟相机位置的附件类型(Virtual Camera),并确认对应虚拟相机状态为已连接;
G3,根据程序提示分别对近景标注点、远景标注点进行确认,以自动生成相机的视场角、偏移位置、偏移角度等校正信息;
G4,参数生成后再通过各参数微调控件进行细微调整,以达最佳效果;
G5,参数调校好后,点击导出按钮,对当前虚拟相机参数进行文件存储操作;
步骤H:在步骤F或步骤G的基础上,正常运行VR程序;
步骤I:运行混合现实图像合成客户端(以下简称客户端);
步骤J:在客户端中载入真实相机实时图像,选择相机设备、分辨率和编码方式,若已做出过选择则会加载上次设置;
步骤K:加载步骤F或步骤G所生成的虚拟相机校正参数;
步骤L:在客户端中指定已运行的VR程序,作为输入源;
步骤M:此时即可在客户端输出窗口中进行混合现实视频观看;
步骤N:借助一些流媒体工具,还可以将混合现实视频作为视频流直播到局域网或者互联网直播平台,达到实时互动目的。
需要说明的是,对于前述的各个方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某一些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和单元并不一定是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详细描述的部分,可以参见其他实施例的相关描述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、ROM、RAM等。
以上所揭露的仅为本发明较佳实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。
Claims (9)
1.一种基于OpenVR的混合现实视频录制方法,其特征在于,包括以下步骤:
S1,创建虚拟相机驱动脚本,生成VR应用程序;
S2,对虚拟相机参数进行校正;
S3,将真实相机图像拟合至虚拟相机,输出混合现实视频;
其中,所述步骤S1所述创建虚拟相机驱动脚本,生成VR应用程序,包括以下子步骤:
S11,在开发基于OpenVR和SteamVR的VR项目时,嵌入第三方虚拟相机支持组件;
S12,在场景中新建空对象,并将此空对象作为参数传递给虚拟相机驱动脚本;所述空对象用于承载虚拟相机驱动脚本;
S13,将Steam VR包中的主视摄像机作为参数传递给虚拟相机驱动脚本;
S14,编译并打包生成VR应用程序;
S15,加载第三方虚拟相机驱动。
2.根据权利要求1所述的一种基于OpenVR的混合现实视频录制方法,其特征在于,步骤S2所述虚拟相机参数校正,包含以下子步骤:
S211,打开定标程序,选择对应支持的图像输入设备,调整图像参数;
S212,指定当前用于定位虚拟相机位置的附件类型,并确认对应设备状态为已连接;
S213,根据定标程序提示分别对近景标注点、远景标注点进行确认,以自动生成虚拟相机的校正参数;
S214,参数调校好后,导出对当前虚拟相机参数并加以文件存储。
3.根据权利要求2所述的一种基于OpenVR的混合现实视频录制方法,其特征在于,步骤S2所述虚拟相机参数校正,包含以下子步骤:
S221,确保真实相机位置固定并取此位置图像;
S222,打开定标程序,选择对应支持的图像输入设备,调整图像参数;
S223,指定当前用于定位虚拟相机位置的附件类型,并确认对应虚拟相机状态为已连接;
S224,根据定标程序提示分别对近景标注点、远景标注点进行确认,以自动生成相机的校正参数;
S225,参数调校好后,导出对当前虚拟相机参数并加以文件存储。
4.根据权利要求2或3所述的一种基于OpenVR的混合现实视频录制方法,其特征在于,还包括虚拟相机参数微调步骤:在虚拟相机参数生成后再使用参数微调控件进行细微调整,以达最佳效果。
5.根据权利要求2或3所述的一种基于OpenVR的混合现实视频录制方法,其特征在于,所述图像参数包括分辨率、编码方式。
6.根据权利要求2或3所述的一种基于OpenVR的混合现实视频录制方法,其特征在于,所述校正参数包括视场角、偏移位置、偏移角度。
7.根据权利要求2所述的一种基于OpenVR的混合现实视频录制方法,其特征在于,所述附件类型为:Tracker, Controller或Other。
8.根据权利要求3所述的一种基于OpenVR的混合现实视频录制方法,其特征在于,所述附件类型为Virtual Camera。
9.根据权利要求1所述的一种基于OpenVR的混合现实视频录制方法,其特征在于,所述真实相机图像拟合至虚拟相机,输出混合现实视频,包括以下子步骤:
S31,正常运行VR程序;
S32,运行混合现实图像合成客户端;
在客户端中载入真实相机实时图像,选择相机设备、分辨率和编码方式,若默认则会加载上次设置;
S33:加载步骤S2所生成的虚拟相机校正参数;
S34,在客户端中指定已运行的VR程序,作为输入源;
S35,在客户端输出窗口中进行混合现实视频观看,或者直播到局域网流媒体服务器或互联网直播平台。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811089960.4A CN109274886B (zh) | 2018-09-18 | 2018-09-18 | 一种基于OpenVR的混合现实视频录制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811089960.4A CN109274886B (zh) | 2018-09-18 | 2018-09-18 | 一种基于OpenVR的混合现实视频录制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109274886A CN109274886A (zh) | 2019-01-25 |
CN109274886B true CN109274886B (zh) | 2020-09-25 |
Family
ID=65197632
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811089960.4A Active CN109274886B (zh) | 2018-09-18 | 2018-09-18 | 一种基于OpenVR的混合现实视频录制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109274886B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103886124A (zh) * | 2012-12-21 | 2014-06-25 | 达索系统德尔米亚公司 | 虚拟对象的方位校正 |
CN104539925A (zh) * | 2014-12-15 | 2015-04-22 | 北京邮电大学 | 基于深度信息的三维场景增强现实的方法及系统 |
CN105785373A (zh) * | 2016-04-26 | 2016-07-20 | 上海与德通讯技术有限公司 | 一种虚拟现实位置识别系统及方法 |
CN106454311A (zh) * | 2016-09-29 | 2017-02-22 | 北京利亚德视频技术有限公司 | 一种led三维成像系统及方法 |
CN207429664U (zh) * | 2017-11-02 | 2018-06-01 | 深圳游视虚拟现实技术有限公司 | 一种虚拟现实自助游戏设备 |
JP2018110366A (ja) * | 2017-01-04 | 2018-07-12 | 伊藤 和幸 | 3dサウンド映像音響機器 |
-
2018
- 2018-09-18 CN CN201811089960.4A patent/CN109274886B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103886124A (zh) * | 2012-12-21 | 2014-06-25 | 达索系统德尔米亚公司 | 虚拟对象的方位校正 |
CN104539925A (zh) * | 2014-12-15 | 2015-04-22 | 北京邮电大学 | 基于深度信息的三维场景增强现实的方法及系统 |
CN105785373A (zh) * | 2016-04-26 | 2016-07-20 | 上海与德通讯技术有限公司 | 一种虚拟现实位置识别系统及方法 |
CN106454311A (zh) * | 2016-09-29 | 2017-02-22 | 北京利亚德视频技术有限公司 | 一种led三维成像系统及方法 |
JP2018110366A (ja) * | 2017-01-04 | 2018-07-12 | 伊藤 和幸 | 3dサウンド映像音響機器 |
CN207429664U (zh) * | 2017-11-02 | 2018-06-01 | 深圳游视虚拟现实技术有限公司 | 一种虚拟现实自助游戏设备 |
Also Published As
Publication number | Publication date |
---|---|
CN109274886A (zh) | 2019-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108496199B (zh) | 利用创作意图元数据的色调原版制作系统 | |
US9894314B2 (en) | Encoding, distributing and displaying video data containing customized video content versions | |
US8339418B1 (en) | Embedding a real time video into a virtual environment | |
CN111314577B (zh) | 支持交替色调渲染的动态元数据的变换 | |
CN101313593A (zh) | 用于确定和传送视频图像的校正信息的系统和方法 | |
US20110304735A1 (en) | Method for Producing a Live Interactive Visual Immersion Entertainment Show | |
CN112543344B (zh) | 直播控制方法、装置、计算机可读介质及电子设备 | |
US11677796B2 (en) | System and method for video encoding optimization and broadcasting | |
US7072510B2 (en) | Adjusting data representing image pixel color | |
CN109274886B (zh) | 一种基于OpenVR的混合现实视频录制方法 | |
CN101106704A (zh) | 视频摄像机、视频处理系统及其方法 | |
CN104205795A (zh) | 色彩分级预览方法和装置 | |
KR20000037054A (ko) | 인터넷 망을 이용한 영화제작 시스템 및 그 영화제작 방법 | |
Beach et al. | Video compression handbook | |
CN100587793C (zh) | 视频处理方法、电路和系统 | |
US9277169B2 (en) | Method for enhancing motion pictures for exhibition at a higher frame rate than that in which they were originally produced | |
US20150281637A1 (en) | Method for correcting corrupted frames during conversion of motion pictures photographed at a low frame rate, for exhibition at a higher frame rate | |
CN102724418B (zh) | 一种三维场景中实现出特技的方法 | |
Künüçen | THE EFFECTS OF DIGITAL COMMUNICATION IN CINEMA:‘A NEW FILM LANGUAGE | |
Weber et al. | Creative Grading-Or why a new way of broadcast camera control is needed | |
KR101745658B1 (ko) | Cps기반 온라인 가상 방송 시스템의 무대 구현 및 실제 방송 무대를 제어하는 시스템 및 방법 | |
US20230230617A1 (en) | Computing dynamic metadata for editing hdr content | |
Dupras et al. | UHD Introduction at the Canadian Broadcasting Corporation: A Case Study | |
Clark et al. | American Society of Cinematographers Motion Imaging Technology Council Progress Report 2023 | |
Nandhakumar | Recent Activities of the Ultra HD Forum |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |