CN102999926B - 一种基于底层特征融合的图像视觉显著性计算方法 - Google Patents
一种基于底层特征融合的图像视觉显著性计算方法 Download PDFInfo
- Publication number
- CN102999926B CN102999926B CN201210451657.0A CN201210451657A CN102999926B CN 102999926 B CN102999926 B CN 102999926B CN 201210451657 A CN201210451657 A CN 201210451657A CN 102999926 B CN102999926 B CN 102999926B
- Authority
- CN
- China
- Prior art keywords
- fragment
- represent
- image
- significance
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000205 computational method Methods 0.000 title claims abstract description 18
- 239000012634 fragment Substances 0.000 claims abstract description 164
- 230000001788 irregular Effects 0.000 claims abstract description 4
- 238000013467 fragmentation Methods 0.000 claims abstract description 3
- 238000006062 fragmentation reaction Methods 0.000 claims abstract description 3
- 230000004927 fusion Effects 0.000 claims description 6
- 230000005484 gravity Effects 0.000 claims description 4
- 238000000034 method Methods 0.000 description 17
- 238000002474 experimental method Methods 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 4
- 238000005303 weighing Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Abstract
本发明公开了一种基于底层特征融合的图像视觉显著性计算方法,包括以下步骤:1.1)把图像分割成若干不规则碎片;1.2)计算每个碎片颜色特征的独特性;1.3)计算每个碎片颜色特征的分散性;1.4)通过计算每个碎片颜色特征的显著性得到图像的颜色显著性图,进一步得到图像视觉显著性图;1.5)通过计算每个碎片图像的显著性的加权平均,为图像的每一个像素点分配显著性值。本发明能有效地计算图像每个像素的显著性值。
Description
技术领域
本发明涉及无线通讯技术领域,尤其涉及一种基于底层特征融合的图像视觉显著性计算方法。
背景技术
视觉注意力是人类视觉系统重要机制,人类的视觉注意力可以快速有效地检查到图像中显著的区域。因此,在计算机视觉领域模拟人类视觉注意力的显著性检测模型的研究引起了研究者的广泛注意。图像的显著性检测(Saliencydetection)被广泛地应用于许多计算机视觉和图像处理应用当中,如图像中感兴趣物体的分割(专利200910046276)、目标识别、目标敏感的图像缩放(专利200910092756)、图像检索(专利200910081069)等。
该领域目前国内相关专利有:基于色彩直方图和全局对比度的图像视觉显著性计算方法(专利号201110062520.1)。该方法仅考虑了颜色特征的独特性,没有考虑颜色特征的分散性、纹理特征的独特性和分散性以及景深对视觉显著性的影响,所以其性能受到了限制。
发明内容
本发明解决的技术问题是如何融合图像多种底层特征,有效地计算图像像素的显著性值。
为了解决以上技术问题,本发明实施例公开了一种基于底层特征融合的图像视觉显著性计算方法,包括以下步骤:
1.1)把图像分割成若干不规则碎片;
1.2)计算每个碎片颜色特征的独特性;
1.3)计算每个碎片颜色特征的分散性;
1.4)通过计算每个碎片颜色特征的显著性得到图像的颜色显著性图,对任意一个像素点首先与其周围的8个像素点进行比较得到二值化的模型,然后再乘以相应的权重,就可以得到所述像素点的局部二值模型LBP值,最后统计一个碎片中所有像素点的LBP值从而得到统计直方图,将所述统计直方图作为所述碎片的纹理描述子;
计算每个碎片的纹理特征的独特性,计算每个碎片的纹理特征的分散性,通过计算每个碎片的纹理特征的显著性得到图像的纹理显著性图;
计算图像边缘的模糊程度σ,把模糊程度σ归一化到[0,1]的范围,用如下公式求出碎片i的景深值Fi:
其中(x,y)代表是图像I的像素点的位置,σ(x,y)表示像素点(x,y)的模糊程度,w(x,y,xpi,ypi)是加权函数其输入为像素点坐标和碎片坐标,(xpi,ypi)代表碎片i的位置;
通过计算每个碎片的相对景深值得到图像的景深图,融合所述图像的景深图、纹理显著性图和颜色显著性图得到图像的视觉显著性图;
1.5)通过计算每个碎片图像的显著性的加权平均,为图像的每一个像素点分配显著性值。
进一步地,所述颜色特征的独特性具体计算方法如下:
其中代表第i个碎片的颜色独特性,ci和cj分别代表碎片i和碎片j的平均颜色,pi和pj分别代表碎片i和碎片j的位置,w(pi,pj)是加权函数,N表示碎片的总数。
进一步地,所述颜色特征的分散性具体计算方法如下:
其中代表第i个碎片的颜色特征的分散性,ci和cj分别代表碎片i和碎片j的平均颜色,pj代表碎片j的位置,是碎片i的颜色特征ci的加权平均位置,w(ci,cj),是加权函数,N表示碎片的总数。
进一步地,所述图像的颜色显著性图具体计算方法如下:
其中代表第i个碎片的颜色显著性,kC是比重系数,表示第i个碎片的颜色独特性,表示第i个碎片的颜色特征的分散性。
进一步地,所述纹理特征的独特性具体计算方法如下:
其中代表第i个碎片的纹理特征的独特性,N代表碎片的个数,ti和tj分别代表碎片i和碎片j的纹理描述子,pi和pj分别代表碎片i和碎片j的位置,χ(ti,tj)代表是两个纹理描述子ti和tj的差异,w(pi,pj)是加权函数,N表示碎片的总数。
进一步地,所述纹理特征的分散性具体计算方法如下:
其中代表第i个碎片的纹理特征的分散性,ti和tj分别代表碎片i和碎片j的纹理描述子,pj代表碎片j的位置,是碎片i的纹理描述子ti的加权平均位置,w(ti,tj)是加权函数,N表示碎片的总数。
进一步地,所述图像的纹理显著性图具体计算如下:
其中代表第i个碎片的纹理显著性,kT是比重系数,代表第i个碎片的纹理特征的独特性,代表第i个碎片的纹理特征的分散性。
进一步地,所述融合具体计算方法如下:
其中Si代表计算碎片i的显著性,代表第i个碎片的纹理显著性值,代表第i个碎片的颜色显著性值,权重系数α满足条件:0≤α≤1;通过上述公式计算每个碎片的显著性就可得到整幅图像的显著性图。
进一步地,所述融合具体计算方法如下:
其中Si代表碎片i的显著性,Fi表示碎片i的景深值;
或者,其中Si代表碎片i的显著性,Fi表示碎片i的景深值,0≤α≤1;通过上述公式计算每个碎片的显著性就可得到整幅图像的显著性图。
本发明通过计算颜色特征的独特性和分散性并将它们有效地融合在一起,最终计算出整幅图像的显著性图。本方法在国际现有的最大的测试集上取得了明显优于传统方法的结果。
附图说明
当结合附图考虑时,通过参照下面的详细描述,能够更完整更好地理解本发明以及容易得知其中许多伴随的优点,但此处所说明的附图用来提供对本发明的进一步理解,构成本发明的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定,其中:
图1是本发明实施例一种基于底层特征融合的图像视觉显著性计算方法流程示意图。
具体实施方式
参照图1对本发明的实施例进行说明。
为使上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1所示,一种基于底层特征融合的图像视觉显著性计算方法,包括以下步骤:
S101、用简单线性迭代聚类的方法把输入图像分割成N个不规则“碎片”;
S201、计算每个碎片颜色特征的独特性;
用如下公式计算第i个碎片的颜色独特性
其中ci和cj分别代表碎片i和碎片j的平均颜色,pi和pj分别代表碎片i和碎片j的位置,w(pi,pj)取高斯加权函数,N表示碎片的总数。
在实验中,σp取0.25就能得到比较好结果。
S202、计算每个碎片颜色特征的分散性;
用如下公式计算第i个碎片的颜色特征的分散性
其中ci和cj分别代表碎片i和碎片j的平均颜色,pj代表碎片j的位置,是碎片i的颜色特征ci的加权平均位置,加权函数w(ci,cj)取高斯加权函数, 在实验中,σc取20就能得到比较好结果。
S203、通过计算每个碎片颜色特征的显著性得到图像的颜色显著性图。
用如下公式计算第i个碎片的颜色显著性:
表示第i个碎片的颜色独特性,表示第i个碎片的颜色特征的分散性,在实验中,kC取3就能得到比较好结果。这样通过计算每个碎片颜色特征的显著性就可以得到图像的颜色显著性图SC。
S301、计算每个碎片纹理特征的独特性;
一般地讲,一个碎片与其周围的碎片差异越大,这个碎片越显著。所以用如下公式计算第i个碎片的纹理特征的独特性:
其中ti和tj分别代表碎片i和碎片j的纹理描述子,pi和pj分别代表碎片i和碎片j的位置,χ(ti,tj)代表是两个纹理描述子ti和tj的差异,w(pi,pj)是加权函数。
描述一个碎片的纹理特征的方法很多,这里以“局部二值模型”(LBP,LocalBinaryPattern)直方图为例作为碎片的纹理描述子。具体地讲,对任意一个像素点首先与其周围的8个像素点进行比较得到二值化的“模型”(Pattern),然后再乘以相应的权重,就可以得到这个像素的LBP值,最后统计一个碎片中所有像素的LBP值从而得到统计直方图,用这个直方图作为对应碎片的纹理描述子。χ(ti,tj)代表是两个纹理描述子ti和tj的差异,计算两个纹理描述子的差异的方法有很多种,这里以卡方距离(Chi-squaredistance)作为计算方法。加权函数w(pi,pj)也有很多种,这里选用高斯加权函数在实验中,σp取0.25就能得到比较好结果。
S302、计算每个碎片纹理特征的分散性;
如果同样的纹理特征分散于整幅图像,则这种纹理特征的显著性较低;反之,如果一种纹理特征在图像中比较集中比较紧凑,则这种纹理特征的显著性较高。用如下公式计算第i个碎片的纹理特征的分散性:
其中ti和tj分别代表碎片i和碎片j的纹理描述子,pj代表碎片j的位置,是碎片i的纹理描述子ti的加权平均位置,加权函数w(ti,tj)取高斯加权函数。 在实验中,σt取20就能得到比较好结果。
S303、通过计算每个碎片纹理特征的显著性得到图像的纹理显著性图。
用如下公式计算第i个碎片的纹理显著性:
代表第i个碎片的纹理特征的独特性,代表第i个碎片的纹理特征的分散性,在实验中,kT取3就能得到比较好结果。这样通过计算每个碎片纹理特征的显著性就可以得到图像的纹理显著性图ST。
步骤S401:通过计算每个碎片的相对景深值得到图像的景深图;
首先计算图像边缘的模糊程度σ,把模糊程度σ归一化到[0,1]的范围,然后用如下公式求出碎片i的景深值:
其中(x,y)代表是图像I的像素点的位置,σ(x,y)表示像素点(x,y)的模糊程度,w(x,y,xpi,ypi)是权重函数其输入为像素点坐标和碎片坐标,w(x,y,xpi,ypi)取高斯权重函数 (xpi,ypi)代表碎片i的位置。在实验中,σF取0.5就能得到比较好结果。
S501、融合景深图、纹理显著性图和颜色显著性图得到最终的显著性图;
本发明实施例提出了三种融合景深图、纹理显著性图和颜色显著性图的方法,这三种方法都能取得比较好的效果。
方法一:利用如下公式计算碎片i的显著性:
代表第i个碎片的纹理显著性值,表第i个碎片的颜色显著性值。本方法只利用了纹理显著性图和颜色显著性图的线性组合,权重系数α满足条件:0≤α≤1。通过上述公式计算每个碎片的显著性就可得到整幅图像的显著性图。
方法二:利用如下公式计算碎片i的显著性值Fi:
通过上述公式计算每个碎片的显著性就可得到整幅图像的显著性图。
方法三:利用如下公式计算碎片i的显著性:
本方法首先利用了纹理显著性图和颜色显著性图的线性组合,然后再与景深图相乘。在实验中权重系数α取0.5可以得到较好结果。通过上述公式计算每个碎片的显著性就可得到整幅图像的显著性图。
S601、为图像的每一个像素点分配显著性值。利用如下公式计算出像素i的显著性值:
在实验中,为了得到较好的结果权重函数wij可取如下高斯函数:
利用上述公式依次计算出每一个像素值的显著性值,从而得到最终的图像显著性图。
虽然以上描述了本发明的具体实施方式,但是本领域的技术人员应当理解,这些具体实施方式仅是举例说明,本领域的技术人员在不脱离本发明的原理和实质的情况下,可以对上述方法和系统的细节进行各种省略、替换和改变。例如,合并上述方法步骤,从而按照实质相同的方法执行实质相同的功能以实现实质相同的结果则属于本发明的范围。因此,本发明的范围仅由所附权利要求书限定。
Claims (9)
1.一种基于底层特征融合的图像视觉显著性计算方法,其特征在于,包括以下步骤:
1.1)把图像分割成若干不规则碎片;
1.2)计算每个碎片颜色特征的独特性;
1.3)计算每个碎片颜色特征的分散性;
1.4)通过计算每个碎片颜色特征的显著性得到图像的颜色显著性图,对任意一个像素点首先与其周围的8个像素点进行比较得到二值化的模型,然后再乘以相应的权重,就可以得到所述像素点的局部二值模型LBP值,最后统计一个碎片中所有像素点的LBP值从而得到统计直方图,将所述统计直方图作为所述碎片的纹理描述子;
计算每个碎片的纹理特征的独特性,计算每个碎片的纹理特征的分散性,通过计算每个碎片的纹理特征的显著性得到图像的纹理显著性图;
计算图像边缘的模糊程度σ,把模糊程度σ归一化到[0,1]的范围,用如下公式求出碎片i的景深值Fi:
其中(x,y)代表是图像I的像素点的位置,σ(x,y)表示像素点(x,y)的模糊程度,是加权函数其输入为像素点坐标和碎片坐标,代表碎片i的位置;
通过计算每个碎片的景深值得到图像的景深图,融合所述图像的景深图、纹理显著性图和颜色显著性图得到图像的视觉显著性图;
1.5)通过计算每个碎片图像的显著性的加权平均,为图像的每一个像素点分配显著性值。
2.根据权利要求1所述的基于底层特征融合的图像视觉显著性计算方法,其特征在于,所述颜色特征的独特性具体计算方法如下:
其中代表第i个碎片的颜色独特性,ci和cj分别代表碎片i和碎片j的平均颜色,pi和pj分别代表碎片i和碎片j的位置,w(pi,pj)是加权函数,N表示碎片的总数。
3.根据权利要求1所述的基于底层特征融合的图像视觉显著性计算方法,其特征在于,所述颜色特征的分散性具体计算方法如下:
其中代表第i个碎片的颜色特征的分散性,ci和cj分别代表碎片i和碎片j的平均颜色,pj代表碎片j的位置,是碎片i的颜色特征ci的加权平均位置,w(ci,cj),是加权函数,N表示碎片的总数。
4.根据权利要求1所述的基于底层特征融合的图像视觉显著性计算方法,其特征在于,所述图像的颜色显著性图具体计算方法如下:
其中代表第i个碎片的颜色显著性,kC是比重系数,表示第i个碎片的颜色独特性,表示第i个碎片的颜色特征的分散性。
5.根据权利要求1所述的基于底层特征融合的图像视觉显著性计算方法,其特征在于,所述纹理特征的独特性具体计算方法如下:
其中代表第i个碎片的纹理特征的独特性,ti和tj分别代表碎片i和碎片j的纹理描述子,pi和pj分别代表碎片i和碎片j的位置,χ(ti,tj)代表是两个纹理描述子ti和tj的差异,w(pi,pj)是加权函数,N表示碎片的总数。
6.根据权利要求1所述的基于底层特征融合的图像视觉显著性计算方法,其特征在于,所述纹理特征的分散性具体计算方法如下:
其中代表第i个碎片的纹理特征的分散性,ti和tj分别代表碎片i和碎片j的纹理描述子,pj代表碎片j的位置,是碎片i的纹理描述子ti的加权平均位置,w(ti,tj)是加权函数,N表示碎片的总数。
7.根据权利要求1所述的基于底层特征融合的图像视觉显著性计算方法,其特征在于,所述图像的纹理显著性图具体计算如下:
其中代表第i个碎片的纹理显著性,kT是比重系数,代表第i个碎片的纹理特征的独特性,代表第i个碎片的纹理特征的分散性。
8.根据权利要求1所述的基于底层特征融合的图像视觉显著性计算方法,其特征在于,所述融合具体计算方法如下:
其中Si代表计算碎片i的显著性,代表第i个碎片的纹理显著性值,代表第i个碎片的颜色显著性值,权重系数α满足条件:0≤α≤1;通过上述公式计算每个碎片的显著性就可得到整幅图像的显著性图。
9.根据权利要求8所述的基于底层特征融合的图像视觉显著性计算方法,其特征在于,所述融合具体计算方法如下:
其中Si代表碎片i的显著性,Fi表示碎片i的景深值;
或者,其中Si代表碎片i的显著性,Fi表示碎片i的景深值,0≤α≤1;通过上述公式计算每个碎片的显著性就可得到整幅图像的显著性图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210451657.0A CN102999926B (zh) | 2012-11-12 | 2012-11-12 | 一种基于底层特征融合的图像视觉显著性计算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210451657.0A CN102999926B (zh) | 2012-11-12 | 2012-11-12 | 一种基于底层特征融合的图像视觉显著性计算方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102999926A CN102999926A (zh) | 2013-03-27 |
CN102999926B true CN102999926B (zh) | 2016-06-29 |
Family
ID=47928457
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210451657.0A Active CN102999926B (zh) | 2012-11-12 | 2012-11-12 | 一种基于底层特征融合的图像视觉显著性计算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102999926B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10008008B2 (en) * | 2013-09-13 | 2018-06-26 | Straxcorp Pty Ltd | Method and apparatus for assigning colours to an image |
CN104732534B (zh) * | 2015-03-18 | 2017-06-20 | 中国人民公安大学 | 一种图像中显著目标的抠取方法及系统 |
CN105049790A (zh) * | 2015-06-18 | 2015-11-11 | 中国人民公安大学 | 视频监控系统图像获取方法及装置 |
CN105118051B (zh) * | 2015-07-29 | 2017-12-26 | 广东工业大学 | 一种应用于静态图像人体分割的显著性检测方法 |
CN105141924B (zh) * | 2015-09-17 | 2018-03-30 | 成都时代星光科技有限公司 | 基于4g技术的无线图像监控系统 |
CN105913070B (zh) * | 2016-04-29 | 2019-04-23 | 合肥工业大学 | 一种基于光场相机的多线索显著性提取方法 |
CN106295542A (zh) | 2016-08-03 | 2017-01-04 | 江苏大学 | 一种夜视红外图像中的基于显著性的道路目标提取方法 |
CN108354818B (zh) * | 2017-11-06 | 2020-01-03 | 解波 | 鼻腔污物实时检测器 |
CN110006104A (zh) * | 2018-08-02 | 2019-07-12 | 永康市异造科技有限公司 | 空调外机机身清洁平台 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102129693A (zh) * | 2011-03-15 | 2011-07-20 | 清华大学 | 基于色彩直方图和全局对比度的图像视觉显著性计算方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5704909B2 (ja) * | 2010-12-08 | 2015-04-22 | キヤノン株式会社 | 注目領域検出方法、注目領域検出装置、及びプログラム |
-
2012
- 2012-11-12 CN CN201210451657.0A patent/CN102999926B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102129693A (zh) * | 2011-03-15 | 2011-07-20 | 清华大学 | 基于色彩直方图和全局对比度的图像视觉显著性计算方法 |
Non-Patent Citations (2)
Title |
---|
Saliency Filters: Contrast Based Filtering for Salient Region Detection;Federico Perazzi等;《Computer Vision and Pattern Recognition (CVPR), 2012 IEEE Conference on》;20120621;第733-740页 * |
自动特征选择和加权的图像显著区域检测;郑娅峰等;《计算机工程与应用》;20110821;第47卷(第24期);第154-156,181页 * |
Also Published As
Publication number | Publication date |
---|---|
CN102999926A (zh) | 2013-03-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102999926B (zh) | 一种基于底层特征融合的图像视觉显著性计算方法 | |
CN103020993B (zh) | 一种双通道颜色对比度融合的视觉显著性检测方法 | |
CN101673345B (zh) | 基于形状先验的提取目标闭合轮廓的方法 | |
CN102509099B (zh) | 一种图像显著区域检测方法 | |
CN101847163B (zh) | 一种多特征融合的外观设计专利图像检索方法 | |
CN102663431B (zh) | 一种基于区域加权的图像匹配计算方法 | |
CN104392241B (zh) | 一种基于混合回归的头部姿态估计方法 | |
CN102831427A (zh) | 一种融合视觉显著性和灰度共生矩的纹理特征提取方法 | |
CN106778687A (zh) | 基于局部评估和全局优化的注视点检测方法 | |
CN104680140A (zh) | 基于图像的人群聚集状态检测方法 | |
Dey et al. | Voronoi-based feature curves extraction for sampled singular surfaces | |
CN114821249A (zh) | 一种基于分组聚合注意力和局部关系的车辆重识别方法 | |
CN106155540A (zh) | 电子毛笔笔形处理方法和装置 | |
CN105023024A (zh) | 一种基于正则化集合度量学习的遥感图像分类方法及系统 | |
CN104200134A (zh) | 一种基于局部线性嵌入算法的肿瘤基因表数据特征选择方法 | |
Fan et al. | Road vanishing point detection using weber adaptive local filter and salient‐block‐wise weighted soft voting | |
CN104732534A (zh) | 一种图像中显著目标的抠取方法及系统 | |
CN102750546B (zh) | 基于结构化误差编码的人脸遮挡检测方法 | |
CN103413306B (zh) | 一种自适应阈值的Harris角点检测方法 | |
CN105069402A (zh) | 一种面向人脸识别的改进鲁棒稀疏编码算法 | |
CN103093241B (zh) | 基于同质化处理的光学遥感图像非匀质云层判别方法 | |
CN104573727B (zh) | 一种手写体数字图像降维方法 | |
CN104504692A (zh) | 基于区域对比度的图像中显著对象的提取方法 | |
CN107992495A (zh) | 数据分析方法及装置 | |
CN107146215A (zh) | 一种基于颜色直方图和凸包的显著性检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
EE01 | Entry into force of recordation of patent licensing contract |
Application publication date: 20130327 Assignee: Beijing Yongxin Norhua Science & Technology Co.,Ltd. Assignor: Beijing Jiaotong University Contract record no.: X2023980048503 Denomination of invention: A method for calculating visual saliency of images based on low-level feature fusion Granted publication date: 20160629 License type: Common License Record date: 20231124 |
|
EE01 | Entry into force of recordation of patent licensing contract |