CN107742300A - 图像处理方法、装置、电子装置和计算机可读存储介质 - Google Patents
图像处理方法、装置、电子装置和计算机可读存储介质 Download PDFInfo
- Publication number
- CN107742300A CN107742300A CN201710812444.9A CN201710812444A CN107742300A CN 107742300 A CN107742300 A CN 107742300A CN 201710812444 A CN201710812444 A CN 201710812444A CN 107742300 A CN107742300 A CN 107742300A
- Authority
- CN
- China
- Prior art keywords
- image
- active user
- depth
- target object
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种图像处理方法、装置、电子装置和存储介质。其中方法包括:获取当前用户的深度图像,并获取当前用户所在场景的三维背景图像;对三维背景图像进行边缘提取以获取三维背景图像中目标物体的边缘像素在三维背景图像中的深度数据;根据当前用户的深度图像和目标物体的边缘像素的深度数据,判断当前用户是否与场景中目标物体发生碰撞;若是,插入针对目标物体的位置发生改变的视频。本发明实施例通过深度图像提取到的人物区域和目标物体区域更加准确,尤其可以准确标定出人物区域的边缘像素和目标物体区域的边缘像素。另外,在人物与目标物体发生碰撞时,进一步进行图像处理,以模拟该目标物体被碰撞时应发生的现象,提升了用户体验。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种图像处理方法、装置、电子装置和计算机可读存储介质。
背景技术
现有的人物与背景中物体的碰撞提醒的技术通常使用特征点提取人物轮廓和物体轮廓,并根据人物轮廓和物体轮廓来判断当前用户是否与背景中的物体发生碰撞。但是,这种使用特征点提取的人物轮廓和物体轮廓精确度不高,尤其无法准确标定出人物和物体的边界,影响人物与物体是否发生碰撞的判断效果。另外,现有技术中,在判定人物与物体发生碰撞时,只能通过简单的提醒来告知用户,未对该碰撞事件进行更进一步地处理。
发明内容
本发明的目的旨在至少在一定程度上解决上述的技术问题之一。
为此,本发明的第一个目的在于提出一种图像处理方法。该方法在人物与目标物体发生碰撞时,进一步进行图像处理,以模拟该目标物体被碰撞时应发生的现象,提升了用户体验。
本发明的第二个目的在于提出一种图像处理装置。
本发明的第三个目的在于提出一种电子装置。
本发明的第四个目的在于提出一种计算机可读存储介质。
为达到上述目的,本发明第一方面实施例提出的图像处理方法,包括:获取当前用户的深度图像,并获取所述当前用户所在场景的三维背景图像;对所述三维背景图像进行边缘提取以获取所述三维背景图像中目标物体的边缘像素在所述三维背景图像中的深度数据;根据所述当前用户的深度图像和所述目标物体的边缘像素的深度数据,判断所述当前用户是否与所述场景中目标物体发生碰撞;若是,则插入针对所述目标物体的位置发生改变的视频。
为达到上述目的,本发明第二方面实施例提出的图像处理装置,包括:深度图像采集组件,所述深度图像采集组件用于获取当前用户的深度图像,并获取所述当前用户所在场景的三维背景图像;处理器,所述处理器用于:对所述三维背景图像进行边缘提取以获取所述三维背景图像中目标物体的边缘像素在所述三维背景图像中的深度数据;根据所述当前用户的深度图像和所述目标物体的边缘像素的深度数据,判断所述当前用户是否与所述场景中目标物体发生碰撞;若是,则插入针对所述目标物体的位置发生改变的视频。
为达到上述目的,本发明第三方面实施例提出的电子装置,包括:一个或多个处理器;存储器;和一个或多个程序,其中所述一个或多个程序被存储在所述存储器中,并且被配置成由所述一个或多个处理器执行,所述程序包括用于执行本发明第一方面实施例所述的图像处理方法的指令。
为达到上述目的,本发明第四方面实施例提出的计算机可读存储介质,包括与能够摄像的电子装置结合使用的计算机程序,所述计算机程序可被处理器执行以完成发明第一方面实施例所述的图像处理方法。
本发明实施方式的图像处理方法、图像处理装置、电子装置和计算机可读存储介质,通过从当前用户的深度图像获取人物边缘像素的深度数据,并从当前用户所在场景的三维背景图像中获取目标物体的物体边缘像素的深度数据,并根据人物边缘像素和目标物体边缘像素的深度数据来判断人物是否与三维背景中的目标物体发生碰撞,若是,则插入该目标物体的位置发生改变的视频,即模拟该目标物体被碰撞时应发生的现象。由于深度图像的获取不易受光照、场景中色彩分布等因素的影响,因此,通过深度图像提取到的人物区域和目标物体区域更加准确,尤其可以准确标定出人物区域的边缘像素和目标物体区域的边缘像素。进一步地,基于较为精准的人物边缘像素和目标物体边缘像素的深度数据进行当前用户是否与虚拟场景中目标物体发生碰撞的判断效果更佳;另外,在人物与目标物体发生碰撞时,进一步进行图像处理,以模拟该目标物体被碰撞时应发生的现象,大大提升了用户体验。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明某些实施方式的图像处理方法的流程图;
图2是本发明某些实施方式的图像处理装置的模块示意图;
图3是本发明某些实施方式的电子装置的结构示意图;
图4是本发明某些实施方式的图像处理方法的流程图;
图5是本发明某些实施方式的图像处理方法的流程图;
图6(a)至图6(e)是根据本发明一个实施例的结构光测量的场景示意图;
图7(a)和图7(b)根据本发明一个实施例的结构光测量的场景示意图;
图8是本发明某些实施方式的图像处理方法的流程图;
图9是本发明某些实施方式的电子装置的模块示意图;
图10是本发明某些实施方式的电子装置的模块示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
可以理解,本发明所使用的术语“第一”、“第二”等可在本文中用于描述各种元件,但这些元件不受这些术语限制。这些术语仅用于将第一个元件与另一个元件区分。举例来说,在不脱离本发明的范围的情况下,可以将第一客户端称为第二客户端,且类似地,可将第二客户端称为第一客户端。第一客户端和第二客户端两者都是客户端,但其不是同一客户端。
下面参考附图描述本发明实施例的图像处理方法、装置、电子装置和计算机可读存储介质。
请一并参阅图1至2,本发明实施例的图像处理方法可应用于本发明实施例的电子装置1000。该图像处理方法可以包括:
S110,获取当前用户的深度图像,并获取当前用户所在场景的三维背景图像。
S120,对三维背景图像进行边缘提取以获取三维背景图像中目标物体的边缘像素在三维背景图像中的深度数据。
作为一种示例,可通过Canny算子对所述三维背景图像进行边缘提取。其中,Canny算子进行边缘提取的算法的核心主要包括以下几步:首先,用2D高斯滤波模板对三维背景图像进行卷积以消除噪声;随后,利用微分算子得到各个像素的灰度的梯度值,并根据梯度值计算各个像素的灰度的梯度方向,通过梯度方向可以找到对应像素沿梯度方向的邻接像素;随后,遍历每一个像素,若某个像素的灰度值与其梯度方向上前后两个相邻像素的灰度值相比不是最大的,那么认为这个像素不是边缘点。如此,即可确定所述三维背景图像中处于边缘位置的像素点,从而获得边缘提取后的目标物体的边缘像素,进而可获得目标物体的边缘像素在该三维背景图像中的深度数据。
S130,根据当前用户的深度图像和目标物体的边缘像素的深度数据,判断当前用户是否与场景中目标物体发生碰撞。
S140,若是,则插入针对目标物体的位置发生改变的视频。
请参阅图3,本发明实施例的图像处理方法可以由本发明实施例的图像处理装置100实现。本发明实施例的图像处理装置100可用于本发明实施例的电子装置1000。图像处理装置100可包括深度图像采集组件10和处理器20。上述步骤S110可以由深度图像采集组件10实现,步骤S120~步骤S140可以由处理器20实现。
也就是说,深度图像采集组件10可用于获取当前用户的深度图像,并获取所述当前用户所在场景的三维背景图像;处理器20可用于对所述三维背景图像进行边缘提取以获取所述三维背景图像中目标物体的边缘像素在所述三维背景图像中的深度数据,并根据所述当前用户的深度图像和所述目标物体的边缘像素的深度数据,判断所述当前用户是否与所述场景中目标物体发生碰撞,若是,则插入针对目标物体的位置发生改变的视频。
举例而言,假设目标物体为水杯,深度图像采集组件10可获取到当前用户的深度图像,并获取到所述当前用户所在场景的三维背景图像。处理器20对该三维背景图像进行边缘提取以获取所述三维背景图像中水杯的边缘像素在所述三维背景图像中的深度数据,并根据所述当前用户的深度图像和该水杯的边缘像素的深度数据,判断所述当前用户是否与场景中的水杯发生碰撞,若是,则说明当前用户打翻了虚拟场景中的水杯,此时,水杯的位置会发生变化,此时可插入针对该水杯的位置发生改变的视频,如水杯被碰到后应发生的现象视频,比如,水杯的倾倒过程的视频。
其中,所述三维背景图像可理解为所述场景的深度图像,该三维背景图像表征包含当前用户的背景中各个人或物体的深度信息,所述当前用户的深度图像表征包含所述当前用户的背景中人物的深度信息。所述三维背景图像的场景范围与所述当前用户的深度图像的场景范围一致,且所述三维背景图像中的各个像素均能在所述深度图像中找到对应该像素的深度信息。
还需要说明的是,当前用户所在的场景可以是虚拟场景,如电子装置所提供的虚拟场景,还可以是实体场景,即当前用户所在的真实场景。
本发明实施例的图像处理装置可以应用于本发明实施例的电子装置1000。也就是说,本发明实施例的电子装置1000可包括本发明实施例的图像处理装置100。
在某些实施方式中,该电子装置1000可具有拍摄功能,并且该拍摄功能是利用结构光原理进行深度图像的拍摄。例如,该电子装置1000可以是智能手机、平台电脑、智能头盔、智能眼镜等;还可以是VR(Virtual Reality,虚拟现实技术)设备、AR(AugmentedReality,增强现实技术)设备等。
由于深度图像的获取不易受光照、场景中色彩分布等因素的影响,且深度图像中所包含的深度信息具有更高的准确性,因此,通过深度图像提取到的人物边缘以及通过三维背景图像提取到的物体边缘,更加准确,尤其可以准确标定出人物边缘像素和物体边缘像素。进一步地,基于较为精准的人物边缘像素和物体边缘像素的深度数据进行当前用户是否与背景中物体发生碰撞的判断效果更佳。
作为一种示例,请参阅图4,在某些实施方式中,上述步骤S110获取当前用户的深度图像的步骤可包括:
S1101,向当前用户投射结构光;
S1102,拍摄经当前用户调制的结构光图像;
S1103,解调结构光图像的各个像素对应的相位信息以得到深度图像。
请再参阅图3,在某些实施方式中,深度图像采集组件10可包括结构光投射器11和结构光摄像头12。步骤S1101可以由结构光投射器11实现,步骤S1102和步骤S1103可以由结构光摄像头12实现。
也就是说,结构光投射器11可用于向当前用户投射结构光;结构光摄像头12可用于拍摄经所述当前用户调制的结构光图像,并解调所述结构光图像的各个像素对应的相位信息以得到所述深度图像。
举例而言,结构光投射器11可将一定模式的结构光投射到当前用户的面部及躯体上后,在当前用户的面部及躯体的表面会形成由当前用户调制后的结构光图像。结构光摄像头12拍摄经调制后的结构光图像,再对结构光图像进行解调以得到该当前用户的深度图像。其中,结构光的模式可以是激光条纹、格雷码、正弦条纹、非均匀散斑等。
请参阅图5,在某些实施方式中,步骤S1103解调结构光图像的各个像素对应的相位信息以得到深度图像的步骤可包括:
S11031,解调结构光图像中各个像素对应的相位信息;
S11032,将相位信息转化为深度信息;
S11033,根据深度信息生成所述当前用户的深度图像。
请再参阅图2,在某些实施方式中,步骤S11031、步骤S11032和步骤S11033均可以由结构光摄像头12实现。
也就是说,结构光摄像头12可进一步用于解调结构光图像中各个像素对应的相位信息,将该相位信息转化为深度信息,以及根据该深度信息生成深度图像。
举例而言,与未经调制的结构光相比,调制后的结构光的相位信息发生了变化,在结构光图像中呈现出的结构光是产生了畸变之后的结构光,其中,变化的相位信息即可表征物体的深度信息。因此,结构光摄像头12首先解调出结构光图像中各个像素对应的相位信息,再根据相位信息计算出深度信息,从而得到最终的深度图像。
为了使本领域的技术人员更加清楚的了解根据结构来采集当前用户的面部及躯体的深度图像的过程,下面以一种应用广泛的光栅投影技术(条纹投影技术)为例来阐述其具体原理。其中,光栅投影技术属于广义上的面结构光。
如图6(a)所示,在使用面结构光投影的时候,首先通过计算机编程产生正弦条纹,并将正弦条纹通过结构光投射器11投射至被测物,再利用结构光摄像头12拍摄条纹受物体调制后的弯曲程度,随后解调该弯曲条纹得到相位,再将相位转化为深度信息即可获取深度图像。为避免产生误差或误差耦合的问题,使用结构光进行深度信息采集前需对深度图像采集组件10进行参数标定,标定包括几何参数(例如,结构光摄像头12与结构光投射器11之间的相对位置参数等)的标定、结构光摄像头12的内部参数以及结构光投射器11的内部参数的标定等。
具体而言,第一步,计算机编程产生正弦条纹。由于后续需要利用畸变的条纹获取相位,比如采用四步移相法获取相位,因此这里产生四幅相位差为的条纹,然后结构光投射器11将该四幅条纹分时投射到被测物(如图6(a)所示的面具)上,结构光摄像头12采集到如图6(b)左边的图,同时要读取如图6(b)右边所示的参考面的条纹。
第二步,进行相位恢复。结构光摄像头12根据采集到的四幅受调制的条纹图(即结构光图像)计算出被调制相位,此时得到的相位图是截断相位图。因为四步移相算法得到的结果是由反正切函数计算所得,因此结构光调制后的相位被限制在[-π,π]之间,也就是说,每当调制后的相位超过[-π,π],其又会重新开始。最终得到的相位主值如图6(c)所示。
其中,在进行相位恢复过程中,需要进行消跳变处理,即将截断相位恢复为连续相位。如图6(d)所示,左边为受调制的连续相位图,右边是参考连续相位图。
第三步,将受调制的连续相位和参考连续相位相减得到相位差(即相位信息),该相位差表征了被测物相对参考面的深度信息,再将相位差代入相位与深度的转化公式(其中,公式中涉及到的参数经过标定),即可得到如图6(e)所示的待测物体的三维模型。
应当理解的是,在实际应用中,根据具体应用场景的不同,本发明实施例中所采用的结构光除了上述光栅之外,还可以是其他任意图案。
作为一种可能的实现方式,本发明还可使用散斑结构光进行当前用户的深度信息的采集。
具体地,散斑结构光获取深度信息的方法是使用一基本为平板的衍射元件,该衍射元件具有特定相位分布的浮雕衍射结构,横截面为具有两个或多个凹凸的台阶浮雕结构。衍射元件中基片的厚度大致为1微米,各个台阶的高度不均匀,高度的取值范围可为0.7微米~0.9微米。图7(a)所示结构为本实施例的准直分束元件的局部衍射结构。图7(b)为沿截面A-A的剖面侧视图,横坐标和纵坐标的单位均为微米。散斑结构光生成的散斑图案具有高度的随机性,并且会随着距离的不同而变换图案。因此,在使用散斑结构光获取深度信息前,首先需要标定出空间中的散斑图案,例如,在距离结构光摄像头12的0~4米的范围内,每隔1厘米取一个参考平面,则标定完毕后就保存了400幅散斑图像,标定的间距越小,获取的深度信息的精度越高。随后,结构光投射器11将散斑结构光投射到被测物(如当前用户)上,被测物表面的高度差使得投射到被测物上的散斑结构光的散斑图案发生变化。结构光摄像头12拍摄投射到被测物上的散斑图案(即结构光图像)后,再将散斑图案与前期标定后保存的400幅散斑图像逐一进行互相关运算,进而得到400幅相关度图像。空间中被测物体所在的位置会在相关度图像上显示出峰值,把上述峰值叠加在一起并经过插值运算后即可得到被测物的深度信息。
由于普通的衍射元件对光束进行衍射后得到多数衍射光,但每束衍射光光强差别大,对人眼伤害的风险也大。即便是对衍射光进行二次衍射,得到的光束的均匀性也较低。因此,利用普通衍射元件衍射的光束对被测物进行投射的效果较差。本实施例中采用准直分束元件,该元件不仅具有对非准直光束进行准直的作用,还具有分光的作用,即经反射镜反射的非准直光经过准直分束元件后往不同的角度出射多束准直光束,且出射的多束准直光束的截面面积近似相等,能量通量近似相等,进而使得利用该光束衍射后的散点光进行投射的效果更好。同时,激光出射光分散至每一束光,进一步降低了伤害人眼的风险,且散斑结构光相对于其他排布均匀的结构光来说,达到同样的采集效果时,散斑结构光消耗的电量更低。
还需要说明的是,上述获取当前用户的深度图像的实现方式,也适用于上述场景的三维背景图像的获取,其所述三维背景图像的获取方式的描述可参见上述当前用户的深度图像的获取方式的描述,在此不再赘述。
请参阅图8,在某些实施方式中,步骤S130根据当前用户的深度图像和目标物体的边缘像素的深度数据,判断当前用户是否与场景中目标物体发生碰撞的步骤可包括:
S1301,对所述当前用户的深度图像进行人物边缘提取以确定所述当前用户的深度图像中人物的边缘位置对应的像素。
S1302,获取人物边缘像素在所述当前用户的深度图像中的深度数据。
S1303,当检测到所述人物边缘像素与目标物体边缘像素的深度数据相同且像素相邻时,判定所述当前用户与所述场景中目标物体发生碰撞。
需要说明的是,在本发明的实施例中,当检测到人物边缘像素与目标物体边缘像素的深度数据不相同,和/或,人物边缘像素与目标物体边缘像素不相邻时,可判定所述当前用户未与场景中的目标物体发生碰撞。
请再参阅图2,在某些实施方式中,步骤S1301、步骤S1302和步骤S1303均可以由处理器20实现。
也就是说,处理器20可进一步用于对当前用户的深度图像进行人物边缘提取以确定当前用户的深度图像中人物的边缘位置对应的像素,并获取人物边缘像素在当前用户的深度图像中的深度数据,以及根据人物边缘像素与目标物体边缘像素的深度数据判断所述当前用户是否与场景中的目标物体发生碰撞,其中,当检测到人物边缘像素与目标物体边缘像素的深度数据不相同,和/或,人物边缘像素与目标物体边缘像素不相邻时,可判定所述当前用户未与场景中的目标物体发生碰撞;当检测到人物边缘像素与目标物体边缘像素的深度数据相同且像素相邻时,可判定当前用户与场景中的目标物体发生碰撞。
作为一种示例,处理器20可通过Canny算子对所述当前用户的深度图像进行边缘提取。其中,Canny算子进行边缘提取的算法的核心主要包括以下几步:首先,用2D高斯滤波模板对当前用户的深度图像进行卷积以消除噪声;随后,利用微分算子得到各个像素的灰度的梯度值,并根据梯度值计算各个像素的灰度的梯度方向,通过梯度方向可以找到对应像素沿梯度方向的邻接像素;随后,遍历每一个像素,若某个像素的灰度值与其梯度方向上前后两个相邻像素的灰度值相比不是最大的,那么认为这个像素不是边缘点。如此,即可确定所述当前用户的深度图像中处于边缘位置的像素点,从而获得边缘提取后的人物的边缘像素,进而可获得人物的边缘像素在该深度图像中的深度数据。
处理器20在获得人物边缘像素在所述当前用户的深度图像中的深度数据时,可根据所述人物边缘像素与目标物体边缘像素的深度数据来判断所述当前用户是否与场景中的目标物体发生碰撞。例如,在当前用户移动使得人物边缘像素与场景中的目标物体边缘像素的深度数据相同且像素相邻时,可判定所述当前用户与场景中的目标物体发生碰撞。
处理器20在插入针对所述目标物体的位置发生改变的视频的同时,可生成针对碰撞的提醒信息,并提供给所述当前用户。作为一种示例,可通过以下一种或多种方式将所述提醒信息提供给所述当前用户:语音播报的方式、文本展现的方式、振动提醒的方式、和改变显示装置中背景边缘颜色的方式等。
也就是说,处理器20在生成针对碰撞的提醒信息时,可通过以下一种或多种方式将该提醒信息提供给当前用户,以提醒该当前用户“目前您与目标物体发生了碰撞,请远离障碍物”,例如,可通过手机震动的方式提示用户当前与目标物体发生碰撞,或者,通过语音播放的方式提示用户当前与目标物体发生碰撞,或者,通过文本展现的方式将该文本展现在显示装置中,以提示用户当前与目标物体发生碰撞,或者,通过改变显示装置中背景边缘颜色的方式来提示用户当前与目标物体发生碰撞。
请一并参阅图3和图9,本发明实施例还提出了一种电子装置1000。电子装置1000可包括图像处理装置100。图像处理装置100可以利用硬件和/或软件实现。图像处理装置100可包括深度图像采集组件10和处理器20。
具体地,深度图像采集组件10可包括结构光投射器11和结构光摄像头12,深度图像采集组件10可用于捕捉当前用户的深度信息以得到所述当前用户的深度图像,并捕捉所述当前用户所在场景的深度信息以得到三维背景图像。例如,以深度图像采集组件10捕捉当前用户的深度信息以得到所述当前用户的深度图像为例,结构光投射器11可用于将结构光投射至当前用户,其中,结构光图案可以是激光条纹、格雷码、正弦条纹或者随机排列的散斑图案等。结构光摄像头12包括图像传感器121和透镜122,透镜122的个数可为一个或多个。图像传感器121可用于捕捉结构光投射器11投射至当前用户上的结构光图像。结构光图像可由深度图像采集组件10发送至处理器20进行解调、相位恢复、相位信息计算等处理以获取当前用户的深度信息。可以理解,场景的深度信息的实施方式可参见上述当前用户的深度信息的实施方式,在此不再赘述。
在某些实施方式中,图像处理装置100可包括成像设备110,该成像设备110可包括深度图像采集组件10和可见光摄像头111。其中,该可见光摄像头111可用于捕捉被拍物体的彩色信息以获得彩色图像。该可见光摄像头111与结构光摄像头12的功能可由一个摄像头实现,也就是说,成像设备10仅包括一个摄像头和一个结构光投射器11,上述摄像头不仅可以拍摄彩色图像,还可以拍摄结构光图像。
除了采用结构光获取深度图像外,还可通过双目视觉方法、基于飞行时间差(Timeof Flight,TOF)等深度像获取方法来获取当前用户的深度图像和场景的三维背景图像。
处理器20进一步对所述三维背景图像进行边缘提取以获取所述三维背景图像中目标物体的边缘像素在所述三维背景图像中的深度数据,并对所述当前用户的深度图像进行人物边缘提取以确定所述当前用户的深度图像中人物的边缘位置对应的像素,并获取人物边缘像素在所述当前用户的深度图像中的深度数据,当检测到所述人物边缘像素与目标物体边缘像素的深度数据相同且像素相邻时,判定所述当前用户与所述场景中的目标物体发生碰撞,并生成针对该碰撞的提醒信息,并将该提醒信息提供给当前用户。
此外,图像处理装置100还包括图像存储器30。图像存储器30可内嵌在电子装置1000中,也可以是独立于电子装置1000外的存储器,并可包括直接存储器存取(DirectMemory Access,英文简称为DMA)特征。可见光摄像头111采集的原始图像数据或深度图像采集组件10采集的结构光图像相关数据均可传送至图像存储器30中进行存储或缓存。处理器20可从图像存储器30中读取结构光图像相关数据以进行处理得到所述当前用户的深度图像和所述场景的三维背景图像。另外,所述当前用户的深度图像和所述场景的三维背景图像还可存储在图像存储器30中,以供处理器20随时调用处理,例如,处理器20调用所述当前用户的深度图像进行人物边缘提取,并调用所述三维背景图像进行场景中目标物体的边缘提取。其中,可将获得的人物边缘像素以及人物边缘像素的深度数据存储在图像存储器30中,还可将获得的所述三维背景图像中的目标物体边缘像素以及该目标物体边缘像素的深度数据存储在图像存储器30中。
图像处理装置100还可包括显示器50。显示器50可直接从处理器20中获取所述针对碰撞的提醒信息。显示器50显示该提醒信息以提醒用户与场景的目标物体发生碰撞,请远离该障碍物。图像处理装置100还可包括编码器/解码器60,编码器/解码器60可编解码所述当前用户的深度图像、及所述场景的三维背景图像等的图像数据,编码的图像数据可被保存在图像存储器30中,并可以在图像显示在显示器50上之前由解码器解压缩以进行显示。编码器/解码器60可由中央处理器(Central Processing Unit,CPU)、GPU或协处理器实现。换言之,编码器/解码器60可以是中央处理器(Central Processing Unit,CPU)、GPU、及协处理器中的任意一种或多种。
图像处理装置100还包括控制逻辑器40。成像设备10在成像时,处理器20会根据成像设备获取的数据进行分析以确定成像设备10的一个或多个控制参数(例如,曝光时间等)的图像统计信息。处理器20将图像统计信息发送至控制逻辑器40,控制逻辑器40控制成像设备10以确定好的控制参数进行成像。控制逻辑器40可包括执行一个或多个例程(如固件)的处理器和/或微控制器。一个或多个例程可根据接收的图像统计信息确定成像设备10的控制参数。
请参阅图10,本发明实施例的电子装置1000可包括一个或多个处理器200、存储器300和一个或多个程序310。其中一个或多个程序310被存储在存储器300中,并且被配置成由一个或多个处理器200执行。程序310包括用于执行上述任意一项实施方式的图像处理方法的指令。
例如,程序310可包括用于执行以下步骤所述的图像处理方法的指令:
S110’,获取当前用户的深度图像,并获取当前用户所在场景的三维背景图像;
S120’,对三维背景图像进行边缘提取以获取三维背景图像中目标物体的边缘像素在三维背景图像中的深度数据;
S130’,根据当前用户的深度图像和目标物体的边缘像素的深度数据,判断当前用户是否与场景中目标物体发生碰撞;
S140’,若是,则插入针对目标物体的位置发生改变的视频。
再例如,程序310还包括用于执行以下步骤所述的图像处理方法的指令:
S11031’,解调结构光图像中各个像素对应的相位信息;
S11032’,将相位信息转化为深度信息;
S11033’,根据深度信息生成当前用户的深度图像。
又例如,程序310还包括用于执行以下步骤所述的图像处理方法的指令:
S1301’,对当前用户的深度图像进行人物边缘提取以确定当前用户的深度图像中人物的边缘位置对应的像素;
S1302’,获取人物边缘像素在当前用户的深度图像中的深度数据;
S1303’,当检测到人物边缘像素与目标物体边缘像素的深度数据相同且像素相邻时,判定当前用户与场景中目标物体发生碰撞。
本发明实施方式的计算机可读存储介质包括与能够摄像的电子装置1000结合使用的计算机程序。计算机程序可被处理器200执行以完成上述任意一项实施方式的图像处理方法。
例如,计算机程序可被处理器200执行以完成以下步骤所述的图像处理方法:
S110’,获取当前用户的深度图像,并获取当前用户所在场景的三维背景图像;
S120’,对三维背景图像进行边缘提取以获取三维背景图像中目标物体的边缘像素在三维背景图像中的深度数据;
S130’,根据当前用户的深度图像和目标物体的边缘像素的深度数据,判断当前用户是否与场景中目标物体发生碰撞;
S140’,若是,则插入针对目标物体的位置发生改变的视频。
再例如,计算机程序可被处理器200执行以完成以下步骤所述的图像处理方法:
S11031’,解调结构光图像中各个像素对应的相位信息;
S11032’,将相位信息转化为深度信息;
S11033’,根据深度信息生成当前用户的深度图像。
又例如,计算机程序可被处理器200执行以完成以下步骤所述的图像处理方法:
S1301’,对当前用户的深度图像进行人物边缘提取以确定当前用户的深度图像中人物的边缘位置对应的像素;
S1302’,获取人物边缘像素在当前用户的深度图像中的深度数据;
S1303’,当检测到人物边缘像素与目标物体边缘像素的深度数据相同且像素相邻时,判定当前用户与场景中目标物体发生碰撞。
综上,本发明实施方式的图像处理方法、图像处理装置、电子装置和计算机可读存储介质,通过从当前用户的深度图像获取人物边缘像素的深度数据,并从当前用户所在场景的三维背景图像中获取目标物体的物体边缘像素的深度数据,并根据人物边缘像素和目标物体边缘像素的深度数据来判断人物是否与三维背景中的目标物体发生碰撞,若是,则插入该目标物体的位置发生改变的视频,即模拟该目标物体被碰撞时应发生的现象。由于深度图像的获取不易受光照、场景中色彩分布等因素的影响,因此,通过深度图像提取到的人物区域和目标物体区域更加准确,尤其可以准确标定出人物区域的边缘像素和目标物体区域的边缘像素。进一步地,基于较为精准的人物边缘像素和目标物体边缘像素的深度数据进行当前用户是否与虚拟场景中目标物体发生碰撞的判断效果更佳;另外,在人物与目标物体发生碰撞时,进一步进行图像处理,以模拟该目标物体被碰撞时应发生的现象,大大提升了用户体验。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (14)
1.一种图像处理方法,其特征在于,包括以下步骤:
获取当前用户的深度图像,并获取所述当前用户所在场景的三维背景图像;
对所述三维背景图像进行边缘提取以获取所述三维背景图像中目标物体的边缘像素在所述三维背景图像中的深度数据;
根据所述当前用户的深度图像和所述目标物体的边缘像素的深度数据,判断所述当前用户是否与所述场景中目标物体发生碰撞;
若是,则插入针对所述目标物体的位置发生改变的视频。
2.如权利要求1所述的图像处理方法,其特征在于,所述获取当前用户的深度图像,包括:
向所述当前用户投射结构光;
拍摄经所述当前用户调制的结构光图像;
解调所述结构光图像的各个像素对应的相位信息以得到所述深度图像。
3.如权利要求2所述的图像处理方法,其特征在于,所述解调所述结构光图像的各个像素对应的相位信息以得到所述深度图像,包括:
解调所述结构光图像中的各个像素对应的相位信息;
将所述相位信息转化为深度信息;
根据所述深度信息生成所述深度图像。
4.如权利要求1所述的图像处理方法,其特征在于,所述根据所述当前用户的深度图像和所述目标物体的边缘像素的深度数据,判断所述当前用户是否与所述场景中目标物体发生碰撞,包括:
对所述当前用户的深度图像进行人物边缘提取以确定所述当前用户的深度图像中人物的边缘位置对应的像素;
获取人物边缘像素在所述当前用户的深度图像中的深度数据;
当检测到所述人物边缘像素与目标物体边缘像素的深度数据相同且像素相邻时,判定所述当前用户与所述场景中目标物体发生碰撞。
5.如权利要求1至4中任一项所述的图像处理方法,其特征在于,在所述插入针对所述目标物体的位置发生改变的视频的同时,所述方法还包括:
生成针对碰撞的提醒信息,并提供给所述当前用户。
6.如权利要求5所述的图像处理方法,其特征在于,通过以下一种或多种方式将所述提醒信息提供给所述当前用户:
语音播报的方式、文本展现的方式、振动提醒的方式、和改变显示装置中背景边缘颜色的方式。
7.一种图像处理装置,其特征在于,包括:
深度图像采集组件,所述深度图像采集组件用于获取当前用户的深度图像,并获取所述当前用户所在场景的三维背景图像;
处理器,所述处理器用于:
对所述三维背景图像进行边缘提取以获取所述三维背景图像中目标物体的边缘像素在所述三维背景图像中的深度数据;
根据所述当前用户的深度图像和所述目标物体的边缘像素的深度数据,判断所述当前用户是否与所述场景中目标物体发生碰撞;
若是,则插入针对所述目标物体的位置发生改变的视频。
8.如权利要求7所述的图像处理装置,其特征在于,所述深度图像采集组件包括结构光投射器和结构光摄像头,所述结构光投射器用于向所述当前用户投射结构光;
所述结构光摄像头用于:
拍摄经所述当前用户调制的结构光图像;
解调所述结构光图像的各个像素对应的相位信息以得到所述深度图像。
9.如权利要求8所述的图像处理装置,其特征在于,所述结构光摄像头具体用于:
解调所述结构光图像中的各个像素对应的相位信息;
将所述相位信息转化为深度信息;
根据所述深度信息生成所述深度图像。
10.如权利要求7所述的图像处理装置,其特征在于,所述处理器具体用于:
对所述当前用户的深度图像进行人物边缘提取以确定所述当前用户的深度图像中人物的边缘位置对应的像素;
获取人物边缘像素在所述当前用户的深度图像中的深度数据;
当检测到所述人物边缘像素与目标物体边缘像素的深度数据相同且像素相邻时,判定所述当前用户与所述场景中目标物体发生碰撞。
11.如权利要求7至10中任一项所述的图像处理装置,其特征在于,所述处理器还用于:
在插入针对所述目标物体的位置发生改变的视频的同时,生成针对碰撞的提醒信息,并提供给所述当前用户。
12.如权利要求11所述的图像处理装置,其特征在于,所述处理器通过以下一种或多种方式将所述提醒信息提供给所述当前用户:
语音播报的方式、文本展现的方式、振动提醒的方式、和改变显示装置中背景边缘颜色的方式。
13.一种电子装置,其特征在于,所述电子装置包括:
一个或多个处理器;
存储器;和
一个或多个程序,其中所述一个或多个程序被存储在所述存储器中,并且被配置成由所述一个或多个处理器执行,所述程序包括用于执行权利要求1至6中任一项所述的图像处理方法的指令。
14.一种计算机可读存储介质,其特征在于,包括与能够摄像的电子装置结合使用的计算机程序,所述计算机程序可被处理器执行以完成权利要求1至6中任一项所述的图像处理方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710812444.9A CN107742300A (zh) | 2017-09-11 | 2017-09-11 | 图像处理方法、装置、电子装置和计算机可读存储介质 |
PCT/CN2018/105101 WO2019047982A1 (zh) | 2017-09-11 | 2018-09-11 | 图像处理方法、装置、电子装置和计算机可读存储介质 |
EP18853010.9A EP3680857B1 (en) | 2017-09-11 | 2018-09-11 | Image processing method and apparatus, electronic device and computer-readable storage medium |
US16/814,697 US11138740B2 (en) | 2017-09-11 | 2020-03-10 | Image processing methods, image processing apparatuses, and computer-readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710812444.9A CN107742300A (zh) | 2017-09-11 | 2017-09-11 | 图像处理方法、装置、电子装置和计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107742300A true CN107742300A (zh) | 2018-02-27 |
Family
ID=61235570
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710812444.9A Pending CN107742300A (zh) | 2017-09-11 | 2017-09-11 | 图像处理方法、装置、电子装置和计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107742300A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019047982A1 (zh) * | 2017-09-11 | 2019-03-14 | Oppo广东移动通信有限公司 | 图像处理方法、装置、电子装置和计算机可读存储介质 |
CN109934873A (zh) * | 2019-03-15 | 2019-06-25 | 百度在线网络技术(北京)有限公司 | 标注图像获取方法、装置及设备 |
CN111274913A (zh) * | 2020-01-16 | 2020-06-12 | 珠海格力电器股份有限公司 | 垃圾分类识别方法、装置、电子设备及存储介质 |
CN114119693A (zh) * | 2021-10-22 | 2022-03-01 | 昆山丘钛微电子科技股份有限公司 | 一种iToF深度数据获取方法及装置 |
CN114189670A (zh) * | 2020-09-15 | 2022-03-15 | 北京小米移动软件有限公司 | 显示方法、显示装置、显示设备及存储介质 |
CN114332349A (zh) * | 2021-11-17 | 2022-04-12 | 浙江智慧视频安防创新中心有限公司 | 一种双目结构光边缘重建方法、系统及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102194248A (zh) * | 2011-05-05 | 2011-09-21 | 上海大学 | 基于增强现实的虚实碰撞检测及响应方法 |
CN103907138A (zh) * | 2011-11-09 | 2014-07-02 | 索尼公司 | 信息处理设备、显示控制方法和程序 |
CN104504671A (zh) * | 2014-12-12 | 2015-04-08 | 浙江大学 | 一种用于立体显示的虚实融合图像生成方法 |
CN105046710A (zh) * | 2015-07-23 | 2015-11-11 | 北京林业大学 | 基于深度图分割与代理几何体的虚实碰撞交互方法及装置 |
CN205302188U (zh) * | 2016-01-15 | 2016-06-08 | 广东小天才科技有限公司 | 一种头戴式虚拟现实设备 |
CN106909911A (zh) * | 2017-03-09 | 2017-06-30 | 广东欧珀移动通信有限公司 | 图像处理方法、图像处理装置和电子装置 |
-
2017
- 2017-09-11 CN CN201710812444.9A patent/CN107742300A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102194248A (zh) * | 2011-05-05 | 2011-09-21 | 上海大学 | 基于增强现实的虚实碰撞检测及响应方法 |
CN103907138A (zh) * | 2011-11-09 | 2014-07-02 | 索尼公司 | 信息处理设备、显示控制方法和程序 |
CN104504671A (zh) * | 2014-12-12 | 2015-04-08 | 浙江大学 | 一种用于立体显示的虚实融合图像生成方法 |
CN105046710A (zh) * | 2015-07-23 | 2015-11-11 | 北京林业大学 | 基于深度图分割与代理几何体的虚实碰撞交互方法及装置 |
CN205302188U (zh) * | 2016-01-15 | 2016-06-08 | 广东小天才科技有限公司 | 一种头戴式虚拟现实设备 |
CN106909911A (zh) * | 2017-03-09 | 2017-06-30 | 广东欧珀移动通信有限公司 | 图像处理方法、图像处理装置和电子装置 |
Non-Patent Citations (1)
Title |
---|
陈乙雄 等: "《移动设备新技术简明教程》", 31 August 2016, 重庆大学出版社 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019047982A1 (zh) * | 2017-09-11 | 2019-03-14 | Oppo广东移动通信有限公司 | 图像处理方法、装置、电子装置和计算机可读存储介质 |
US11138740B2 (en) | 2017-09-11 | 2021-10-05 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Image processing methods, image processing apparatuses, and computer-readable storage medium |
CN109934873A (zh) * | 2019-03-15 | 2019-06-25 | 百度在线网络技术(北京)有限公司 | 标注图像获取方法、装置及设备 |
CN111274913A (zh) * | 2020-01-16 | 2020-06-12 | 珠海格力电器股份有限公司 | 垃圾分类识别方法、装置、电子设备及存储介质 |
CN114189670A (zh) * | 2020-09-15 | 2022-03-15 | 北京小米移动软件有限公司 | 显示方法、显示装置、显示设备及存储介质 |
CN114189670B (zh) * | 2020-09-15 | 2024-01-23 | 北京小米移动软件有限公司 | 显示方法、显示装置、显示设备及存储介质 |
CN114119693A (zh) * | 2021-10-22 | 2022-03-01 | 昆山丘钛微电子科技股份有限公司 | 一种iToF深度数据获取方法及装置 |
CN114119693B (zh) * | 2021-10-22 | 2024-10-15 | 昆山丘钛微电子科技股份有限公司 | 一种iToF深度数据获取方法及装置 |
CN114332349A (zh) * | 2021-11-17 | 2022-04-12 | 浙江智慧视频安防创新中心有限公司 | 一种双目结构光边缘重建方法、系统及存储介质 |
CN114332349B (zh) * | 2021-11-17 | 2023-11-03 | 浙江视觉智能创新中心有限公司 | 一种双目结构光边缘重建方法、系统及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107742300A (zh) | 图像处理方法、装置、电子装置和计算机可读存储介质 | |
CN107610127A (zh) | 图像处理方法、装置、电子装置和计算机可读存储介质 | |
CN107610077A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107797664A (zh) | 内容显示方法、装置及电子装置 | |
CN107509045A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107707839A (zh) | 图像处理方法及装置 | |
CN107807806A (zh) | 显示参数调整方法、装置及电子装置 | |
CN107707831A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107734267A (zh) | 图像处理方法和装置 | |
CN107734264A (zh) | 图像处理方法和装置 | |
CN107707838A (zh) | 图像处理方法和装置 | |
CN107707835A (zh) | 图像处理方法及装置、电子装置和计算机可读存储介质 | |
CN107734283A (zh) | 视频聊天的画面处理方法、装置和存储介质 | |
CN107705278A (zh) | 动态效果的添加方法和终端设备 | |
CN107644440A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107610078A (zh) | 图像处理方法和装置 | |
CN107527335A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107590828A (zh) | 拍摄图像的虚化处理方法和装置 | |
CN107454376B (zh) | 跌落提醒方法、装置、电子装置和计算机可读存储介质 | |
CN107610076A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107592491A (zh) | 视频通信背景显示方法和装置 | |
CN107613228A (zh) | 虚拟服饰的添加方法和终端设备 | |
CN107622496A (zh) | 图像处理方法及装置 | |
CN107705243A (zh) | 图像处理方法及装置、电子装置和计算机可读存储介质 | |
CN107705277A (zh) | 图像处理方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 523860 No. 18, Wu Sha Beach Road, Changan Town, Dongguan, Guangdong Applicant after: OPPO Guangdong Mobile Communications Co., Ltd. Address before: 523860 No. 18, Wu Sha Beach Road, Changan Town, Dongguan, Guangdong Applicant before: Guangdong OPPO Mobile Communications Co., Ltd. |
|
CB02 | Change of applicant information | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180227 |
|
RJ01 | Rejection of invention patent application after publication |