CN102238408A - 显示设置菜单的方法以及相应装置 - Google Patents

显示设置菜单的方法以及相应装置 Download PDF

Info

Publication number
CN102238408A
CN102238408A CN2011101126395A CN201110112639A CN102238408A CN 102238408 A CN102238408 A CN 102238408A CN 2011101126395 A CN2011101126395 A CN 2011101126395A CN 201110112639 A CN201110112639 A CN 201110112639A CN 102238408 A CN102238408 A CN 102238408A
Authority
CN
China
Prior art keywords
image
depth
setting
degree
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2011101126395A
Other languages
English (en)
Other versions
CN102238408B (zh
Inventor
迪迪尔.多延
塞尔温.蒂鲍德
蒂里.博里尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
InterDigital CE Patent Holdings SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of CN102238408A publication Critical patent/CN102238408A/zh
Application granted granted Critical
Publication of CN102238408B publication Critical patent/CN102238408B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及一种显示设置菜单的方法。为了最优化由观看者进行的设置的图形表示,该方法包括以下步骤:显示包括三维图形元素(20)的设置菜单,所述三维图形元素(20)的维度之一根据深度方向(z)扩展;在所述图形元素上显示表示至少一个深度信息项的至少一项设置(203、204、205)。

Description

显示设置菜单的方法以及相应装置
技术领域
本发明涉及图像或视频处理领域,并且更具体地涉及三维(3D)图像和/或视频处理。本发明也涉及图像内插(image interpolation)领域并且涉及图像和/或视频的与3D相关联的特征的设置领域。
背景技术
根据现有技术,有几种用于视频处理中恢复立体感(perception of relief)的方法,例如,有立体视觉。在立体视觉中,从在横向上相对彼此偏移的两个不同视角,以两个不同的摄像机或两个不同的照相机,记录相同场景的两个视图。在显示装置上(例如,PDP(等离子显示面板)类型或LCD(液晶显示器)类型的屏幕、或借助于视频投影机),以时间顺序方式(左图像然后右图像依此类推)或以空间交织方式(左图像行然后右图像行依此类推)来显示相同场景的这两个视图,以便恢复立体感,即,深度信息。3D效果的幅度或3D图像中的立体感直接取决于左右图像的视差,即,取决于两个像素隔开的距离(例如可以以像素数目来测量),所述两个像素即在显示装置层面上表示相同的视频信息项(即,表示所记录场景的相同元素)的左图像的像素与右图像的像素。一般地,由导演设置并决定电影或视频的左右图像的视差,并且其与拍摄场景的左右相机之间的距离对应,这两个相机经常地以等于6.5厘米的距离隔开,其与隔开个人双眼的平均距离对应。
由于所选择的相机隔开的距离与平均数对应,因此感到需要适配视差,即,适配3D效果的幅度,从而观看3D电影或图像的每个个人能够将形成立体视觉3D图像的左右图像的视差适配到他的观看(view)以便避免或减少视觉疲劳。此外,显著的3D效果可扰乱一些观看者,这些观看者然后尝试调整3D效果幅度,即,设置图像深度。从2004年4月27日授权的专利文件US 6,727,924B1已知一种允许设置图像深度的GUI(图形用户界面)。该GUI或该设置菜单包括在图像前景中根据垂直方向移动的设置按钮,其从下到上或从上到下移动以便设置图像深度。深度设置越大,设置菜单按入图像越多,从而向观看者给出所选择的深度设置的强度的指示。然而,与观看者进行的深度设置相对应的深度有关的视觉信息并不完整,尤其对于表现3D效果的整体幅度(即所选择的最低与最高深度值)而言。
发明内容
本发明目的在于克服现有技术的这些缺点中的至少一个。
更具体地,本发明目的显著地在于优化观看者的设置的图形表达。
本发明涉及用于显示设置菜单的方法。所述方法包括以下步骤:
-显示包括的三维图形元素的设置菜单,所述三维图形元素中一维根据深度方向延伸,
-在该图形元素上显示表示至少一个深度信息项的至少一项设置。
根据特定特征,所述方法包括以下步骤:选择该图形元素的至少一部分,所选择的至少一部分与所述至少一项设置相关联。
以有利的方式,所述方法包括以下步骤:显示至少一个三维图像,对于所述至少一个三维图像,深度取决于所述至少一项设置,所述至少一个图像的显示是在所述图形元素的显示上应用所述至少一项设置之后。
有利地,所述方法包括以下步骤:显示至少一个三维图像,其深度取决于至少一项设置,所述至少一个图像的显示与所述至少一项设置的显示同时进行。
根据特定特征,所述至少一项设置表示与将要显示的图像的最小深度对应的第一深度信息项、以及与将要显示的图像的最大深度对应的第二深度信息项。
根据特定特征,所述至少一项设置表示与将要显示的图像的平均深度对应的深度信息项。
有利地,所述方法包括以下步骤:分析用户的姿势,解释分析的结果以便控制所述至少一项设置。
根据另一特征,所述姿势的分析包括以下步骤:确定用户的形体的两个确定部分隔开的距离,所确定的距离与所述至少一项设置相关联。
附图说明
阅读以下描述以后将更好地了解本发明,并且其它特征与优点将出现,描述参照附图,在附图中:
-图1示出了根据现有技术特定示例的观看者的深度与视差感知,
-图2示出了根据本发明特定实施例的在显示装置上以3D图像形式的设置菜单的3D图形元素,
-图3A示出了根据本发明特定实施例的在图2的3D图形元素上显示的几个设置等级,
-图3B示出了根据本发明特定实施例的与图3A的图形表达不同的设置菜单的3D图形元素的图形表达,
-图4A至4C示出了根据本发明特定实施例的用于根据用户选择的视差值进行图像内插的方法,
-图5图示地示出了根据本发明特定实施例的用于实施本发明的多媒体终端的结构,以及
-图6和7示出了根据本发明两个特定实施例的、在图5的多媒体终端中实施的、用于显示设置菜单的方法。
具体实施方式
图1示出了观看显示装置或屏幕100的观看者感知的深度、与分别由观看者的左眼10和右眼11观看到的左右图像间的视差效果之间的关系。在时间顺序显示表示根据两个不同视角的相同场景的左右图像(例如,通过以例如等于6.5厘米的距离在横向上彼此偏移的两个相机所捕捉的)的情况下,观看者佩戴主动式眼镜,其左眼遮挡与右眼遮挡分别与在例如LCD或等离子类型屏幕的显示装置上的右图像和左图像显示的同步。由于这些眼镜,观看者的右眼仅看到显示的右图像并且左眼仅看到左图像。在空间交织的左右图像显示的情况下,以以下方式在显示装置上交织左右图像的行:左图像一行然后右图像一行(每行包括表示由两个相机拍摄的场景的相同元素的像素),然后左图像一行然后右图像一行,依此类推。在交织行显示的情况下,观看者佩戴被动式眼镜,其使得右眼仅看到右图像的行并且左眼仅看到左图像的行。在这种情况下,将根据第一方向偏振右图像的行并且根据第二方向偏振左图像的行,使被动式眼镜的左右镜片偏振化,作为结果,左镜片允许左图像的行上显示的信息通过并且右镜片允许在右图像的行上显示的信息通过。图1示出了位于距观看者(或更具体地距与观看者右眼11与左眼10的观看方向正交的并且包括右眼和左眼的平面)一距离或深度Zs的显示屏幕或装置100。深度的参考,即,Z=0,由观看者的双眼10和11形成。观看者的双眼观看两个物体101和102,第一物体101处于小于屏幕100深度的Zfront深度(Zfront<Zs),并且第二物体102处于大于屏幕100深度的Zrear深度(Zrear>Zs)。换言之,观看者将物体101视为相对于屏幕100在前景中,并且将物体102视为相对于屏幕100在背景中。对于被视为相对于屏幕在背景中的物体,表示这个物体的左图像的左像素与右图像的右像素必须具有小于观看者左眼10和右眼11隔开的距离te13的视差,即,这个物体在屏幕100上显示的左右图像之间的沿X方向的位置差小于距离te13。表示左右图像上相同物体的左右像素的在屏幕上的沿X方向的该位置差与左右图像之间的视差等级对应。观看者感知的在屏幕100上显示的物体的深度、视差以及观看者与屏幕的距离之间的关系,由以下等式表示:
Z P = Z S * t S t S - P 等式1
P = W S N col * d 等式2
其中
ZP为感知深度(以米为单位,m),
P为左右图像之间的视差,
d为传输视差信息,
te为眼睛之间距离(m),
ZS为观看者与屏幕之间的距离(m),
WS为屏幕宽度(m),
Ncol为显示装置的列的数目(以像素为单位)
等式2使得能够将(以像素为单位的)视差转换为(以米为单位的)视差。
图2示出了根据本发明特定实施例的在显示装置2上在3D图像中插入的3D设置菜单的显示。设置菜单允许用户或观看者,通过用户界面,设置例如音频/视频电影类型的多媒体文件的参数,可设置的参数包括显示参数(例如,亮度、光亮度、对比度、图像深度等)和/或涉及声音的参数(例如,音频音量、平衡、高音与低音等)。在显示装置2(例如,等离子或LCD屏幕、或借助于视频投影仪向其上投影图像的屏幕)上显示表示三维(3D)内容的例如立体视觉类型的图像。图像包括三维物体21至27,这些物体中的每一个被观看图像的观看者观看为具有给定深度,即,距观看这些物体的观看者的给定距离。观看者与其观看的物体或多个物体隔开的距离越大,物体或多个物体的深度越大。从而以关于观看多个物体的观看者来判断物体的深度。这些物体21、22、24与27中的一些被观看为在屏幕2的前方,即,对于距屏幕给定距离而位于该屏幕2之前的观看者而言具有比屏幕的深度更小的深度。表示房子的物体26是被观看为在屏幕2后面的部分,即,在背景中,即,具有比屏幕2的深度更大的深度。表示树的物体23被观看为在屏幕的前景中,即,对于距屏幕2给定距离而观看图像的观看者而言具有与屏幕2的深度相等的深度。最后,根据形成表示路径的物体25的像素的空间位置,物体25被观看为具有不同的深度。如观看者所看到的,物体25在图像前景中开始直至处于物体26等级在背景中结束,在物体23等级处经过屏幕前景。也向图像中插入以3维表示的图形元素20。该图形元素20为允许设置图像深度的设置菜单的一部分,图像深度即为图像的物体21至27的深度。该图形元素20由几个单一图形元素组成,例如8个单一图形元素201至208每个与一深度信息项对应,例如,与深度设置等级对应。在图2的示例中,选择并且在图形上以例如灰色阴影加亮了单一图形元素(即,可单独选择,在本专利申请下文中称为增量)203、204与205。这些增量204至205表示图像深度的设置,并且使得观看者能够具有由此设置的深度幅度的产生的实际概念。由于在图像的深度中以3D来表示图形元素20,因此对于观看者而言看一眼就容易注意到与以下设置相对应的深度,所述设置是该观看者通过设置菜单作为媒介(尤其是通过图形元素20作为媒介)已经对其设置参数的设置。8个增量201至208有利地与对于在屏幕2上显示的图像可能设置的最大深度幅度相对应。在观看者没有设置任何的特定深度参数的情况下,以初始深度等级(在本专利申请的下文中也称为默认设置)在屏幕2上显示3D图像,即,如向屏幕2提供的深度等级,即,如在图像记录时或在操作者的后期制作时设置的参数。
在没有引入由观看者确定的指令的情况下,在屏幕2上没有显示通过图形元素20表示的设置菜单。图形元素20根据来自用户的指令显示,所述指令例如通过按压显示装置2的遥控装置的特定按键、通过按压深度设置按键(例如,+和-类型,或者↑和↓或←和→类型)、通过选择菜单、通过语音指令的发音或通过检测由观看者作出的姿势,姿势由配备例如深度传感器以及例如放置于屏幕2上的相机检测,以便检测位于屏幕2前方的观看者的任何姿势。
在引入了观看者作出的、用于显示深度设置菜单的指令时,显示图形元素20。有利地,在没有物体出现的图像部分的等级显示图形元素20。根据变体,在由观看者确定的并且由其预设置的图像部分中显示图形元素20。根据另一种变体,在图像上以透明的方式显示图形元素并且不完全遮挡在图像中包括的物体。
在第一次显示设置菜单时,即,在观看者没有主动对其正在屏幕2上观看的视频进行深度设置时,在默认深度设置被加亮的情况下显示图形元素20,即,在视觉上透露与默认深度设置对应的增量或多个增量203至205。在图形上被加亮的增量203至205图示被应用于所接收并显示的图像的内容的3D效果的幅度。非加亮的增量201、202、206、207和208有利地与可用的并且可能用于图像的深度设置相对应,观看者可以选择所述深度设置以便修改深度。第一增量201与能够为图像设置参数的最小深度值(其与观看者和看到的在最前方的图像之间的最小距离相对应)相对应,并且增量208与能够为图像设置参数的最大深度值(其与观看者和看到的在最后方的图像的物体之间的最大距离相对应)相对应。根据一种变体,不是以相应增量的加亮来显示默认设置,而是默认设置与最小与最大深度值相对应,即,图形元素20的增量201至208的设置。根据这种变体,观看者不能降低3D效果的幅度,即,例如通过向前方收缩图像深度从而使所有物体被看到在前景中(即,实质上在屏幕2之前)或向后方偏移图像深度从而使所有物体被看到在背景中(即,实质上在屏幕2之后),来围绕屏幕深度降低图像深度的幅度。
为了修改深度设置,观看者通过加亮与他希望对深度进行的设置相对应的增量来显示这些增量,例如通过修改它们的颜色。为了这样做,观看者通过引入特定指令(例如,通过按压特定键,例如,“OK”类型键,或来自所确定的姿势或者所确定的声音或词(例如词“OK”或词“SELECTION”)的发音的遥控或执行)来移开例如在增量上的移动指针并且选择与所期望的设置相对应的增量或多个增量。有利地,图像深度设置动态地修改与深度有关的图像参数,并且观看者立刻在屏幕2上的显示图像上观看到他的深度设置的效果。通过依据与图像相关联的视差信息生成内插图像,来根据深度设置修改图像。关于图4A至4C更加具体地描述新内插图像的生成。在存储器中存储由观看者执行的深度设置,并且当观看者希望再次修改深度设置时将显示这个设置。
根据一种变体,在深度设置被应用于图像之前,首先将深度设置应用于设置菜单的显示,即,利用与深度有关的新设置对图像进行显示是在考虑到与深度有关的新设置对设置菜单进行显示之后。根据这个变体,用户在将深度设置应用于图像之前,可以以现实的方式在设置菜单的图形元素上预览深度设置的影响。从而,如果设置与用户意图看到的内容不对应,他可以在将所述设置应用于图像之前改变所述设置。
图3A示出了根据本发明三个实施例的在图形元素20上显示的几种设置等级。在图3A示出的示例中,图形元素3a、3b和3c(与图2中的图形元素20对应)具有三维尺寸的形式,所述三维尺寸分别由基本部分31a至39a、31b至39b和31c至39c组成,这些在本专利申请的下文中也被称为增量。在由图形元素3a图示的示例中,选择了单一增量38a。在这种情况下,相关联的深度设置与3D效果的有限幅度(在与观看者最接近的物体和距观看者更远的那些物体之间的深度稍微不同,最小深度值与最大深度值彼此接近,例如初始3D幅度的1/9)相对应。考虑到增量35a与接近屏幕前景深度的深度等级对应,与增量38a对应的设置使得:如观看者观看的,物体向屏幕后方移动,即,物体的深度值大于屏幕的深度值。
在由图形元素3b所示的示例中,选择了三个增量34b、35b和36b。在这种情况下,由于选择了三个元素,因此,与为元素3a所示的设置对应的幅度相比,相关联的深度设置与更大的幅度对应。根据这个示例,3D效果围绕屏幕深度(假设这与增量35b对应)分布,图像深度的幅度集中在屏幕前景深度周边。最小深度值与增量34b对应并且使得能够将物体观看为在屏幕前方(即,具有比屏幕的深度值更小的深度值),并且最大深度值与增量36b对应并且使得物体在屏幕后方(即,具有比屏幕的深度值更大的深度值)。假设图形元素3b以其全部与图像的默认设置对应,增量31b与最小默认深度值对应并且增量39b与图像的最大默认值对应,这样的设置与集中在屏幕前景周边的3D效果的幅度的减少对应。
在由图形元素3c图示的示例中,选择了六个增量31c至36c。在这种情况下,由于选择了六个增量,与为元素3a和3b所示的设置对应的幅度相比,相关联的深度设置与更大的幅度对应。根据这个示例,3D效果全局地位于屏幕前方(仍然假设屏幕深度与增量35c对应),图像的深度幅度实质上被指示为在屏幕前景的前方。最小深度值与增量31c对应并且使得能够将物体观看为在屏幕前方(即,具有比屏幕的深度值更小的深度值),并且最大深度值与增量36c对应并且使得物体稍微在屏幕后方(即,具有比屏幕的深度值更大的深度值)。假设图形元素3c全局地与图像的默认设置对应,增量31c与最小默认深度值对应并且增量39c与图像的最大默认深度值对应,这样的设置与3D效果的略微幅度减少对应,在屏幕前方的效果与默认设置对应(选择了一组增量31c至35c)而在屏幕后方的效果相比默认设置不重要(没有选择增量37c至39c)。
如果考虑到屏幕深度与图形元素3a、3b和3c的相应增量31a、31b和31c的深度等级对应,可能的设置仅允许移动物体至屏幕的背景或保留它们在屏幕前景。相反地,如果考虑到屏幕深度与图形元素3a、3b和3c的相应增量39a、39b和39c的深度等级对应,可能的设置仅允许移动物体至屏幕的前景,即,在屏幕前景中或在屏幕前方。
图3B示出了根据本发明特定实施例的与图3A的一般形式不同的一般形式形式的设置菜单的3D图形元素的图形表示。在图3B的示例中,深度设置图形元素包括5个三维的沿着深度Z的方向向左扩展的矩形平行六面体31d至35d。每个平行六面体与图形元素3d的一部分对应,每个部分与给定深度设置相关联。
自然地,图形元素的形式不限于关于图3A与3B所描述的形式,即,3D阶梯形式或一系列3D平行六面体,也扩展至任何三维几何形式,例如,划分至基本部分的三维圆柱体,所述基本部分例如由三维圆盘表示,或者划分至基本部分的球体,所述基本部分例如由三维球体切片表示。同样地,图形元素的所选择的基本部分或多个基本部分的显示不限于对其它未选择部分的不同着色,反而扩展至所有已知突出显示手段,例如通过对所选择部分纹理的调整、通过使未选择部分透明或再次通过使选择部分突出。
图4A至4C示出了根据本发明特定实施例的用于根据用户选择的视差值进行图像内插的方法。具有视差图(disparity map)的图像内插在于:考虑到一个或几个基准图像之间的像素视差、依据所述图像来内插中间图像。事实上,如关于图1所描述的,通过左图像和右图像的组合来获得屏幕2上显示的立体视觉图像,左右图像表示相同的场景但是具有两个不同的视角。结果是:左右图像上观看的相同物体在每个图像上出现但是在每个图像上具有不同的空间位置。捕捉的物体在给定位置x在右图像上出现,并且相同图像在以在x移动了几个像素的位置在左图像上出现。这个空间移动与由左右图像的组合、由人脑进行的组合以及允许立体感所导致的立体视觉图像的视差对应。从而,从一对左右基准图像的左基准图像(或从右基准图像)开始,有可能通过利用修改的视差进行内插来生成新的左图像(或新的右图像)。新生成的左图像(或新生成的右图像)与基准右图像(相应地与基准左图像)的组合使得能够获得作为结果的立体视觉图像,并且作为结果修改了(与视差相关联的)深度信息。
图像内插需要基准图像(左或右)沿着连接左右基准图像的视差向量在内插图像上的投影。图4A图示了两个基准图像J 40和K 41,其与例如立体视觉图像的左图像和右图像相对应,并且内插图像H 40i位于两个图像J 40和K 41之间。为了通过图像J 40的像素u 401的内插来获得图像H 40i的内插像素u’401i,需要通过将图像J 40的完整视差图投影到图像H 40i上来计算内插图像H 40i的视差图以及向图像H 40i的像素分配视差值。针对小于或等于图像J 40的全部像素数目的、表示图像J 40的许多像素,进行视差图计算。图像J的像素u 401具有视差值disp(u)。以u-disp(u)定义图像K中的相应像素411,并且该相应像素411位于相同行(没有纵向位移)。以u-adisp(u)定义图像H中的相应像素,其中缩放因数a为(当图像J、H和K对齐时获得的)基线JH与JK之间的比率。有利地,因数a被包括在0和1之间。图4B更精确地示出了用于获得内插图像H的图像J的视差补偿内插。分别利用图像J的像素u 401和v的相应视差值disp(u)和dispu(v),来从像素u和v估计内插图像H的u’和v’。通过图像J的像素u和v沿着视差向量的投影获得的图像H的点u’和v’分别位于位置u’=u-a.disp(u)和v’=v-a.disp(v)。然后向图像H中与u’和v’最接近的像素分配视差值,即,分别是uH 401i和vH。J的视差图在H上的投影生成了空位。实际上,不向内插图像H的一些像素分配任何视差值,如图4B的像素405的情况,图像J的像素根据视差向量在H上的投影不遇到这个像素。这个现象出现在当例如从图像J的一个像素到另一个像素之间的视差中存在显著的变化时。然后需要填充在图像的重建视差图中的空位,例如,通过空间内插。呈现了三种情况。在第一种情况下,空位具有小于1个像素的尺寸并且通过将在空位周边与其同一行的像素的视差值求平均来填充这些空位。根据一种变体,通过采用该行中最接近像素的视差值来填充空位。在第二种情况下,消除隔离的像素,即,被不具有视差值的像素包围的具有视差值的像素,即,不考虑分配给这些像素的视差值。实际上,向这些像素分配的视差与相邻像素的视差值不一致并且可能在显示中生成视觉伪像。在第三种情况下,空位具有的尺寸大于1个像素。在这样的第三种情况下,认为这些空位与遮挡(occlusion)对应(即,图像H的像素被与其对应的图像K的像素隐藏)并且这个空位的像素的视差以及向它们分配的视差值为背景视差值。
一旦针对内插图像H 40i获得了视差图,沿着视差向量进行图像间(即,在图像J和K之间)内插以便获得向内插图像H 40i的像素分配的灰度值。有可能区别两种视差向量类型:
-由图像J的视差图的投影定义的向量:依据在矢量的两个端点的灰度来计算向内插图像的像素分配的灰度,所述两个端点中的一个属于图像J并且另一个属于图像K,以及
-已经被空间地内插的向量(即,针对上述填充的空位):假设与内插图像H对应的像素在图像J中被遮挡。然后依据图像K的像素来内插这些像素并且依据矢量的属于图像K的端点的灰度来计算分配到这些像素的灰度。
图4C图示了依据两个接收的基准图像内插的几个图像的示例。根据图4C的示例,依据基准图像401和411的至少一个,通过视差补偿内插来获得6个图像4011至4016。根据这个示例,缩放因数包含在0和1之间,即,在基准图像401和411之间包括所有内插图像4011至4016。根据这个示例,通过组合基准图像401与411获得3D效果的最大幅度,并且通过基准图像401或411与内插图像4011至4016的组合获得的3D效果的幅度全部较弱,这是由于内插图像接近基准图像。通过组合图像401和4011或通过组合图像411和4016获得具有最低幅度的3D效果。
自然地,本发明不限于依据至少一个基准图像的6个图像的内插,而是也扩展至数目x个图像的内插,例如,7、10、20、50、或100或更多图像。此外,本发明也不限于提供小于原始3D效果幅度的3D效果幅度的图像内插(即,具有小于1的缩放因数),而也扩展至用于获得比通过组合基准图像获得的3D效果的幅度更大的幅度的3D效果的图像内插(即,缩放因数大于1)。
图5图示地示出了根据本发明特定实施例的用于实施本发明的多媒体终端5的结构。终端5配备了显示装置501。终端5包括:与程序存储器连接的中央处理单元502;以及接口508,用于与高比特率数字网络510通信使得能够传输实况音频/视频数据。该网络是例如遵循IEEE 1394标准的网络。终端5还包括:红外信号接收器503,用于接收来自遥控器511的信号;存储器507,用于数据库的存储;以及音频/视频解码逻辑509,用于产生向显示装置501传输的视听信号。遥控器511配备导航键↑、↓、→和←,数字键盘以及“OK”键。也可使用配备移动传感器的回旋(Gyration)类型遥控器。
终端还包括:屏幕上的数据显示电路506,通常被称为OSD(屏上显示)电路。OSD电路506为文字和图形生成器,其允许菜单、统计图表(例如,与显示的频道对应的数字)的屏上显示,并且依据本发明可以显示导航菜单。OSD电路接收来自中央处理单元502以及被设计来生成图形元素20的显示信号的模块的信息。
终端5能够再现的多媒体文件为视听文件、音频文件、或图片。
根据一种变体,由能够检测观看者姿势的装置替换遥控器511。然后由终端5的专用模块或非专用模块分析姿势,以便将其解释为对于设置菜单的图形元素的导航指令。根据另一种变体,由能够注册语音指令的微类型装置替换遥控器。然后由终端5的专用模块或非专用模块分析组成语音指令的声音,以便将其解释为对于设置菜单的图形元素的导航指令。
图6示出了根据本发明第一非限制性特定有利实施例的、在多媒体终端5中实施的、用于显示设置菜单的方法。
在初始化步骤60期间,更新了终端的不同参数。
然后,在步骤61期间,在显示屏幕类型(例如,LCD或等离子)或投影屏幕类型的显示装置上显示包括具有三个空间维数的图形菜单的设置菜单。设置菜单插入至显示装置上显示的3D视频内容或3D图像中。图形元素的空间维之一根据深度方向扩展,有利地,根据在显示装置上显示的3D视频内容或3D图像的深度方向扩展。有利地,在借助于指令引入装置输入用户的第一指令时,显示设置菜单,所述指令引入装置例如遥控器、语音识别装置或再次例如姿势识别装置。在显示图形元素时,发起第一超时(持续时间等于例如1、2、3、4或5秒),在其结束时如果没有检测到用户动作,则清空图形元素的显示。
然后在步骤62期间,在图形元素上显示表示至少一个深度信息项的设置。有利地,设置表示在显示的3D图像中包括的物体的深度最小值与最大值。根据一种变体,设置表示3D图像的物体的平均深度。有利地,通过借助于指令引入装置输入的第二用户指令来初始化设置的显示。在显示设置时,发起第二超时(持续时间等于例如1、2、3、4或5秒),在其结束时,如果没有检测到用户动作,则清空图形元素的显示。该设置有利地表示当观看者(或用户)没有修改设置时而在参数被默认设置时的3D视频内容(或3D图像)的3D效果的幅度。通过指令的输入,观看者修改3D图像的深度设置,对深度设置进行的修改在设置菜单的图形元素上显示。在第二超时过期时,如果没有检测到用户指令,则该设置和设置菜单的图形元素从屏幕上消失。为了使设置菜单重现,观看者输入新的第一指令。根据一种变体,通过第二用户指令的输入来对设置菜单的显示作出命令。
图7示出了根据本发明第二非限制性特定有利实施例的、在多媒体终端5中实施的、用于显示设置菜单的方法。
在初始化步骤70期间,更新终端的不同参数。
然后,在步骤71期间,在显示装置上显示设置菜单。该步骤71与关于图6描述的步骤61一致并且在此不进一步描述。
然后,在步骤72期间,用户(或观看者)执行特定姿势以便对他正在观看的3D视频内容或3D图像的深度设置作出指令。例如由配备深度检测器的相机捕捉姿势,并且通过多媒体终端的专用模块或非专用模块来分析相机记录的信息,以便从对所观看的3D图像的深度设置作出指令的视角来对其进行解释。姿势与例如用户双手之间的距离对应。一旦运动结束通过相机以及多媒体终端模块确定双手隔开的距离,双手隔开的距离被解释为与用户期望的3D效果的幅度对应。根据一种变体,用户执行的姿势与左手朝向右(或右手朝向左)的掠动对应,多媒体模块将该姿势解释为指针移开的指令,从而指针从设置菜单的图形元素上的一个深度设置等级到另一个深度设置等级。
然后,在步骤73期间,用户输入指令来选择图形元素的一个或多个部分,每个部分与特定的设置等级相关联,即,与深度设置等级对应。在用户指令与用户姿势对应的情况下,通过特定姿势(例如一只手从上到下的运动)来对部分的选择(即,设置等级的选择)作出命令。根据一种变体,通过任何其它指令部件对一个或几个设置等级的选择作出命令,例如通过按压遥控器的键(例如“OK”键)或通过语音码(例如词“SELECTION”)的发音。几个设置等级的选择有利地与期望的3D效果的幅度设置相关联,即,与深度的不同或如用户观看到的前景的物体与背景的物体之间的距离相关联。换言之,几个等级的选择与表示与3D图像的最小深度对应的第一深度信息项的第一设置、以及表示与3D图像的最大深度对应的第二深度信息项的第二设置对应,最大深度与最小深度之间的差与将要在显示装置上显示的3D图像的3D效果的幅度对应。
最后,在步骤74期间,如关于图6在步骤62中描述的,显示用户命令的图形元素的部分或多个部分的设置。有利地,对于用户对其执行了深度设置的3D图像,其内容被根据用户命令的设置进行了修改。然后,与在图形元素上显示用户的设置同时地,显示与向其应用了该设置的原始3D图像的内容对应的新3D图像。新3D图像的生成有利地依据由立体视觉生成3D图像的左图像和右图像中的至少一个、通过视差补偿内插来获得,内插图像替换基准图像之一以便由立体视觉生成新3D图像。
自然地,本发明不限于先前描述的实施例。
具体地,本发明不限于显示设置菜单的方法,而扩展至实施该方法的多媒体终端,并且扩展至包括实施显示方法的多媒体终端的显示装置。本发明也涉及包括3D多媒体内容的设置菜单的PIP(画中画)显示的图像处理的方法。

Claims (8)

1.一种显示设置菜单的方法,其特征在于,所述方法包括以下步骤:
显示(61、71)包括三维图形元素(20)的所述设置菜单,所述三维图形元素(20)的维度之一根据深度方向(z)扩展,
输入表示至少一个深度信息项的至少一项设置(203、204、205),根据所述深度方向(z)将所述至少一项设置应用于所述图形元素(20)的显示。
2.如权利要求1所述的方法,其特征在于,其包括以下步骤:选择(73)所述图形元素(20)的至少一部分,所选择的至少一部分(203、204、205)与所述至少一项设置相关联。
3.如权利要求1至2中的一项所述的方法,其特征在于,其包括以下步骤:显示至少一个三维图像,所述至少一个三维图像的深度取决于所述至少一项设置,在所述至少一项设置(203、204、205)应用于图形元素(20)的显示之后,进行所述至少一个图像的显示。
4.如权利要求1至2中的一项所述的方法,其特征在于,其包括以下步骤:显示至少一个三维图像,所述至少一个三维图像的深度取决于所述至少一项设置,与所述至少一项设置(203、204、205)应用于图形元素(20)的显示同时地,进行所述至少一个图像的显示。
5.如权利要求1至2中的一项所述的方法,其特征在于,所述至少一项设置表示与将要显示的图像的最小深度对应的第一深度信息项,并且表示与所述将要显示的图像的最大深度对应的第二深度信息项。
6.如权利要求1至2中的一项所述的方法,其特征在于,所述至少一项设置表示与将要显示的图像的平均深度对应的深度信息项。
7.如权利要求1至2中的一项所述的方法,其特征在于,其包括以下步骤:分析(72)用户姿势,解释分析的结果以便控制所述至少一项设置。
8.如权利要求7所述的方法,其特征在于,所述姿势的分析包括以下步骤:确定用户形体的两个确定部分隔开的距离,所确定的距离与所述至少一项设置相关联。
CN201110112639.5A 2010-05-03 2011-05-03 显示设置菜单的方法以及相应装置 Active CN102238408B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1053394A FR2959576A1 (fr) 2010-05-03 2010-05-03 Procede d’affichage d’un menu de reglage et dispositif correspondant
FR1053394 2010-05-03

Publications (2)

Publication Number Publication Date
CN102238408A true CN102238408A (zh) 2011-11-09
CN102238408B CN102238408B (zh) 2016-03-02

Family

ID=43300715

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110112639.5A Active CN102238408B (zh) 2010-05-03 2011-05-03 显示设置菜单的方法以及相应装置

Country Status (6)

Country Link
US (1) US8694922B2 (zh)
EP (1) EP2385454B1 (zh)
JP (1) JP5933931B2 (zh)
KR (1) KR20110122057A (zh)
CN (1) CN102238408B (zh)
FR (1) FR2959576A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102710956A (zh) * 2012-06-04 2012-10-03 天马微电子股份有限公司 一种裸眼立体追踪显示方法及装置
TWI556622B (zh) * 2013-10-14 2016-11-01 鈺立微電子股份有限公司 快速產生照相機的距離對視差關係表的系統及其相關方法
CN107783704A (zh) * 2017-09-27 2018-03-09 北京小米移动软件有限公司 图片效果的调整方法、装置及终端

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8639020B1 (en) 2010-06-16 2014-01-28 Intel Corporation Method and system for modeling subjects from a depth map
US20120293636A1 (en) * 2011-05-19 2012-11-22 Comcast Cable Communications, Llc Automatic 3-Dimensional Z-Axis Settings
JP5926500B2 (ja) * 2011-06-07 2016-05-25 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US11048333B2 (en) 2011-06-23 2021-06-29 Intel Corporation System and method for close-range movement tracking
JP6074170B2 (ja) 2011-06-23 2017-02-01 インテル・コーポレーション 近距離動作のトラッキングのシステムおよび方法
US9628843B2 (en) * 2011-11-21 2017-04-18 Microsoft Technology Licensing, Llc Methods for controlling electronic devices using gestures
WO2013081304A1 (ko) * 2011-11-28 2013-06-06 에스케이플래닛 주식회사 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치, 방법 및 그에 대한 기록매체
WO2013081281A1 (ko) * 2011-11-29 2013-06-06 에스케이플래닛 주식회사 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치와 방법 및 그에 대한 기록매체
KR101309783B1 (ko) * 2011-12-30 2013-09-23 삼성전자주식회사 디스플레이 장치 및 방법
US8918453B2 (en) 2012-01-03 2014-12-23 Qualcomm Incorporated Managing data representation for user equipments in a communication session
CN104039581B (zh) * 2012-01-09 2017-08-18 奥迪股份公司 用于在车辆中产生用户界面的3d‑图示的方法和装置
US9477303B2 (en) * 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
JP5953916B2 (ja) * 2012-05-02 2016-07-20 ソニー株式会社 画像処理装置および方法、並びにプログラム
CN103679127B (zh) * 2012-09-24 2017-08-04 株式会社理光 检测道路路面的可行驶区域的方法和装置
US8890812B2 (en) 2012-10-25 2014-11-18 Jds Uniphase Corporation Graphical user interface adjusting to a change of user's disposition
KR20140061098A (ko) * 2012-11-13 2014-05-21 엘지전자 주식회사 영상표시장치, 및 그 동작방법
CN102970498A (zh) * 2012-11-30 2013-03-13 深圳Tcl新技术有限公司 菜单立体显示的显示方法及显示装置
CN104346136B (zh) * 2013-07-24 2019-09-13 腾讯科技(深圳)有限公司 一种图片处理的方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020126202A1 (en) * 2001-03-09 2002-09-12 Koninklijke Philips Electronics N.V. Apparatus
AU774086B2 (en) * 2000-05-31 2004-06-17 Canon Kabushiki Kaisha A method for active user feedback
US20070240074A1 (en) * 2006-03-31 2007-10-11 Microsoft Corporation Setting control using edges of a user interface
CN101276060A (zh) * 2007-03-29 2008-10-01 三星电子株式会社 控制立体视图或多视图序列图像的动态深度的方法和装置
WO2008132724A1 (en) * 2007-04-26 2008-11-06 Mantisvision Ltd. A method and apparatus for three dimensional interaction with autosteroscopic displays
US20080307351A1 (en) * 2007-06-08 2008-12-11 Apple Inc. Multi-Dimensional Application Environment
CN101632311A (zh) * 2006-09-19 2010-01-20 皇家飞利浦电子股份有限公司 利用多个单独设置的图像观察

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6909443B1 (en) * 1999-04-06 2005-06-21 Microsoft Corporation Method and apparatus for providing a three-dimensional task gallery computer interface
JP2001273503A (ja) * 2000-03-23 2001-10-05 Eiji Kawamura モーション認識システム
JP2001326947A (ja) * 2000-05-12 2001-11-22 Sony Corp 立体画像表示装置
US6727924B1 (en) * 2000-10-17 2004-04-27 Novint Technologies, Inc. Human-computer interface including efficient three-dimensional controls
JP2002175139A (ja) * 2000-12-07 2002-06-21 Sony Corp 情報処理装置、メニュー表示方法及びプログラム格納媒体
US7439975B2 (en) * 2001-09-27 2008-10-21 International Business Machines Corporation Method and system for producing dynamically determined drop shadows in a three-dimensional graphical user interface
JP2004145832A (ja) * 2002-08-29 2004-05-20 Sharp Corp コンテンツ作成装置、コンテンツ編集装置、コンテンツ再生装置、コンテンツ作成方法、コンテンツ編集方法、コンテンツ再生方法、コンテンツ作成プログラム、コンテンツ編集プログラム、および携帯通信端末
JP2005010854A (ja) * 2003-06-16 2005-01-13 Sony Computer Entertainment Inc 情報提示方法および装置
JP2005049668A (ja) * 2003-07-30 2005-02-24 Sharp Corp データ変換装置、表示装置、データ変換方法、プログラム及び記録媒体
US7480873B2 (en) * 2003-09-15 2009-01-20 Sun Microsystems, Inc. Method and apparatus for manipulating two-dimensional windows within a three-dimensional display model
US7755608B2 (en) * 2004-01-23 2010-07-13 Hewlett-Packard Development Company, L.P. Systems and methods of interfacing with a machine
JP4325449B2 (ja) * 2004-03-19 2009-09-02 ソニー株式会社 表示制御装置,表示制御方法,記録媒体
US7441201B1 (en) * 2004-10-19 2008-10-21 Sun Microsystems, Inc. Method for placing graphical user interface components in three dimensions
US7562312B2 (en) * 2006-01-17 2009-07-14 Samsung Electronics Co., Ltd. 3-dimensional graphical user interface
JP2008040576A (ja) * 2006-08-02 2008-02-21 Sharp Corp 画像処理システム及び該システムを備えた映像表示装置
US7665033B2 (en) * 2006-08-31 2010-02-16 Sun Microsystems, Inc. Using a zooming effect to provide additional display space for managing applications
JP4489825B2 (ja) * 2006-09-07 2010-06-23 学校法人 大阪電気通信大学 ジェスチャ入力システム、方法及びプログラム
US8037414B2 (en) * 2006-09-14 2011-10-11 Avaya Inc. Audible computer user interface method and apparatus
US8279241B2 (en) * 2008-09-09 2012-10-02 Microsoft Corporation Zooming graphical user interface
JP5067407B2 (ja) * 2009-09-10 2012-11-07 パナソニック株式会社 表示装置および表示方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU774086B2 (en) * 2000-05-31 2004-06-17 Canon Kabushiki Kaisha A method for active user feedback
US20020126202A1 (en) * 2001-03-09 2002-09-12 Koninklijke Philips Electronics N.V. Apparatus
US20070240074A1 (en) * 2006-03-31 2007-10-11 Microsoft Corporation Setting control using edges of a user interface
CN101632311A (zh) * 2006-09-19 2010-01-20 皇家飞利浦电子股份有限公司 利用多个单独设置的图像观察
CN101276060A (zh) * 2007-03-29 2008-10-01 三星电子株式会社 控制立体视图或多视图序列图像的动态深度的方法和装置
WO2008132724A1 (en) * 2007-04-26 2008-11-06 Mantisvision Ltd. A method and apparatus for three dimensional interaction with autosteroscopic displays
US20080307351A1 (en) * 2007-06-08 2008-12-11 Apple Inc. Multi-Dimensional Application Environment

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102710956A (zh) * 2012-06-04 2012-10-03 天马微电子股份有限公司 一种裸眼立体追踪显示方法及装置
TWI556622B (zh) * 2013-10-14 2016-11-01 鈺立微電子股份有限公司 快速產生照相機的距離對視差關係表的系統及其相關方法
CN107783704A (zh) * 2017-09-27 2018-03-09 北京小米移动软件有限公司 图片效果的调整方法、装置及终端

Also Published As

Publication number Publication date
US8694922B2 (en) 2014-04-08
KR20110122057A (ko) 2011-11-09
FR2959576A1 (fr) 2011-11-04
EP2385454B1 (en) 2018-03-07
EP2385454A1 (en) 2011-11-09
US20110271235A1 (en) 2011-11-03
JP5933931B2 (ja) 2016-06-15
CN102238408B (zh) 2016-03-02
JP2011239398A (ja) 2011-11-24

Similar Documents

Publication Publication Date Title
CN102238408B (zh) 显示设置菜单的方法以及相应装置
US20140063019A1 (en) 2d to 3d user interface content data conversion
TWI528781B (zh) 用以訂製立體內容之三維效果的方法及裝置
KR101719980B1 (ko) 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기
WO2012176431A1 (ja) 多視点画像生成装置、多視点画像生成方法
US20140333739A1 (en) 3d image display device and method
CN101180891A (zh) 立体图像显示装置、立体图像显示方法及计算机程序
US20170111631A1 (en) Apparatus and method for synthesizing additional information while rendering object in 3d graphic-based terminal
CN102932657A (zh) 图像处理装置、图像处理方法和程序
CN103155579B (zh) 3d图像显示设备及其显示方法
US20170185147A1 (en) A method and apparatus for displaying a virtual object in three-dimensional (3d) space
Li et al. Enhancing 3d applications using stereoscopic 3d and motion parallax
CN103597824A (zh) 图像处理装置及其方法和程序
CN102740102B (zh) 图像处理装置、图像处理方法和程序
KR101228916B1 (ko) 멀티 비젼의 3차원 영상 표시 장치 및 방법
KR101632514B1 (ko) 깊이 영상 업샘플링 방법 및 장치
KR20150012976A (ko) 다시점 영상 처리 장치 및 그 영상 처리 방법
US9269177B2 (en) Method for processing image and apparatus for processing image
US9253477B2 (en) Display apparatus and method for processing image thereof
US9547933B2 (en) Display apparatus and display method thereof
CN103716610A (zh) 多视点图像生成装置以及方法
JP4777193B2 (ja) 立体映像合成装置、形状データ生成方法およびそのプログラム
CN117857764A (zh) 图像显示方法与3d显示系统
CN106231281A (zh) 一种显示转换方法和装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20190523

Address after: France

Patentee after: Interactive Digital CE Patent Holding Company

Address before: I Si Eli Murli Nor, France

Patentee before: Thomson Licensing Corp.