CN110020645B - 一种图像处理方法及装置、一种计算设备及存储介质 - Google Patents

一种图像处理方法及装置、一种计算设备及存储介质 Download PDF

Info

Publication number
CN110020645B
CN110020645B CN201910110414.2A CN201910110414A CN110020645B CN 110020645 B CN110020645 B CN 110020645B CN 201910110414 A CN201910110414 A CN 201910110414A CN 110020645 B CN110020645 B CN 110020645B
Authority
CN
China
Prior art keywords
color space
target object
target
base map
brightness value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910110414.2A
Other languages
English (en)
Other versions
CN110020645A (zh
Inventor
徐崴
陈继东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advanced New Technologies Co Ltd
Advantageous New Technologies Co Ltd
Original Assignee
Advanced New Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Advanced New Technologies Co Ltd filed Critical Advanced New Technologies Co Ltd
Priority to CN201910110414.2A priority Critical patent/CN110020645B/zh
Publication of CN110020645A publication Critical patent/CN110020645A/zh
Application granted granted Critical
Publication of CN110020645B publication Critical patent/CN110020645B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供的一种图像处理方法及装置、一种计算设备及存储介质,其中,所述方法包括采集含有目标物体的图像;基于预先训练的图像分割模型分割出所述目标物体的图像中目标物体的底图区域;将所述目标物体的底图区域由第一颜色空间转换到第二颜色空间,并确定所述目标物体的底图区域在所述第二颜色空间的当前亮度值;在所述当前亮度值小于预设目标亮度值的情况下,基于所述预设目标亮度值和当前亮度值确定所述目标物体的底图区域的目标补光亮度值;基于所述目标补光亮度值调整所述目标物体的底图区域的亮度。

Description

一种图像处理方法及装置、一种计算设备及存储介质
技术领域
本申请涉及计算机图像处理技术领域,特别涉及一种图像处理方法及装置、一种计算设备及计算机可读存储介质。
背景技术
证件文字OCR(Optical Character Recognition,光学字符识别)在互联网金融等身份认证场景得到了普遍应用。证件文字OCR是指使用OCR技术对用户提供的证件照片进行处理,从而提取并识别证件上的用户信息(如提取身份证照片上的用户姓名、生日、证件有效期等信息)。在现实场景中,由于用户拍摄证件照片的环境复杂多样(如不同的光照角度与强度等),经常需要在拍摄证件时进行适当的补光,保证拍摄到的证件照片具有较好的清晰度与对比度,从而保障后续采用OCR技术对证件照片上的文字等进行正常识别。
发明内容
有鉴于此,本说明书实施例提供了一种图像处理方法及装置、一种计算设备及计算机可读存储介质,以解决现有技术中存在的技术缺陷。
第一方面,本说明书实施例公开了一种图像处理方法,包括:
采集含有目标物体的图像;
基于预先训练的图像分割模型分割出所述目标物体的图像中目标物体的底图区域;
将所述目标物体的底图区域由第一颜色空间转换到第二颜色空间,并确定所述目标物体的底图区域在所述第二颜色空间的当前亮度值;
在所述当前亮度值小于预设目标亮度值的情况下,基于所述预设目标亮度值和当前亮度值确定所述目标物体的底图区域的目标补光亮度值;
基于所述目标补光亮度值调整所述目标物体的底图区域的亮度。
可选地,所述图像分割模型的训练方法包括:
获取训练样本集,其中,所述训练样本集包含多组含有待识别样本物体的图像,每组所述待识别样本物体的图像包括待识别样本物体的图像以及所述待识别样本物体的图像中待识别样本物体的底图区域、文字区域、背景区域;
通过所述训练样本集对图像分割模型进行训练,得到所述图像分割模型,所述图像分割模型使得所述待识别样本物体的图像与所述待识别样本物体的图像中待识别样本物体的底图区域、文字区域、背景区域相关联。
可选地,所述图像分割模型包括卷积神经网络模型。
可选地,所述第一颜色空间包括RGB颜色空间,所述第二颜色空间包括Lab颜色空间,
将所述目标物体的底图区域由第一颜色空间转换到第二颜色空间,并确定所述目标物体的底图区域在所述第二颜色空间的当前亮度值,包括:
将所述目标物体的底图区域由RGB颜色空间转换到Lab颜色空间,并确定所述目标物体的底图区域在所述Lab颜色空间的当前亮度值。
可选地,将所述目标物体的底图区域由RGB颜色空间转换到Lab颜色空间,包括:
获取目标物体的底图区域的R、G、B值;
基于所述R、G、B值将所述目标物体的底图区域由RGB颜色空间转换到Lab颜色空间。
可选地,所述预设目标亮度值的获取包括:
获取至少两个含有待识别样本物体的图像;
基于预先训练的图像分割模型分割出所述至少两个含有待识别样本物体的图像中至少两个待识别样本物体的底图区域;
将每个待识别样本物体的底图区域由RGB颜色空间转换到Lab颜色空间,并确定每个待识别样本物体的底图区域在所述Lab颜色空间的当前亮度值;
基于所述当前亮度值确定所述至少两个含有待识别样本物体的图像的预设目标亮度值。
可选地,基于所述预设目标亮度值和当前亮度值确定所述目标物体的底图区域的目标补光亮度值之后,还包括:
在所述目标物体的底图区域的颜色不是白色的情况下,确定所述目标物体的底图区域在所述第二颜色空间的当前色彩值;
基于所述当前色彩值确定所述目标物体的底图区域的目标补光色彩值。
可选地,基于所述当前色彩值确定所述目标物体的底图区域的目标补光色彩值之后,还包括:
基于所述目标补光亮度值和所述目标补光色彩值确定最终补光亮度值。
可选地,基于所述目标补光亮度值调整所述目标物体的底图区域的亮度,包括:
基于所述最终补光亮度值调整所述目标物体的底图区域的亮度。
可选地,所述方法还包括:
若所述当前亮度值大于所述预设目标亮度值,则发出提示信息。
可选地,所述方法还包括:
基于预先训练的图像分割模型分割出所述目标物体的图像中目标物体的文字区域,并识别所述文字区域中的文字内容。
第二方面,本说明书实施例公开了一种图像处理装置,包括:
采集模块,被配置为采集含有目标物体的图像;
分割模块,被配置为基于预先训练的图像分割模型分割出所述目标物体的图像中目标物体的底图区域;
当前亮度值确定模块,被配置为将所述目标物体的底图区域由第一颜色空间转换到第二颜色空间,并确定所述目标物体的底图区域在所述第二颜色空间的当前亮度值;
目标补光亮度值确定模块,被配置为在所述当前亮度值小于预设目标亮度值的情况下,基于所述预设目标亮度值和当前亮度值确定所述目标物体的底图区域的目标补光亮度值;
调整模块,被配置为基于所述目标补光亮度值调整所述目标物体的底图区域的亮度。
可选地,所述分割模块,进一步被配置为:
获取训练样本集,其中,所述训练样本集包含多组含有待识别样本物体的图像,每组所述待识别样本物体的图像包括待识别样本物体的图像以及所述待识别样本物体的图像中待识别样本物体的底图区域、文字区域、背景区域;
通过所述训练样本集对图像分割模型进行训练,得到所述图像分割模型,所述图像分割模型使得所述待识别样本物体的图像与所述待识别样本物体的图像中待识别样本物体的底图区域、文字区域、背景区域相关联。
可选地,所述图像分割模型包括卷积神经网络模型。
可选地,所述第一颜色空间包括RGB颜色空间,所述第二颜色空间包括Lab颜色空间,
所述当前亮度值确定模块,进一步被配置为:
将所述目标物体的底图区域由RGB颜色空间转换到Lab颜色空间,并确定所述目标物体的底图区域在所述Lab颜色空间的当前亮度值。
可选地,所述当前亮度值确定模块,进一步被配置为:
获取目标物体的底图区域的R、G、B值;
基于所述R、G、B值将所述目标物体的底图区域由RGB颜色空间转换到Lab颜色空间。
可选地,所述目标补光亮度值确定模块,进一步被配置为:
获取至少两个含有待识别样本物体的图像;
基于预先训练的图像分割模型分割出所述至少两个含有待识别样本物体的图像中至少两个待识别样本物体的底图区域;
将每个待识别样本物体的底图区域由RGB颜色空间转换到Lab颜色空间,并确定每个待识别样本物体的底图区域在所述Lab颜色空间的当前亮度值;
基于所述当前亮度值确定所述至少两个含有待识别样本物体的图像的预设目标亮度值。
可选地,所述装置还包括:
当前色彩值确定模块,被配置为在所述目标物体的底图区域的颜色不是白色的情况下,确定所述目标物体的底图区域在所述第二颜色空间的当前色彩值;
目标补光色彩值确定模块,被配置为基于所述当前色彩值确定所述目标物体的底图区域的目标补光色彩值。
可选地,所述装置还包括:
最终补光亮度值确定模块,被配置为基于所述目标补光亮度值和所述目标补光色彩值确定最终补光亮度值。
可选地,所述调整模块,进一步被配置为:
基于所述最终补光亮度值调整所述目标物体的底图区域的亮度。
可选地,所述装置还包括:
提示模块,被配置为若所述当前亮度值大于所述预设目标亮度值,则发出提示信息。
可选地,所述装置还包括:
识别模块,被配置为基于预先训练的图像分割模型分割出所述目标物体的图像中目标物体的文字区域,并识别所述文字区域中的文字内容。
第三方面,本说明书实施例公开了一种计算设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机指令,所述处理器执行所述指令时实现如上所述图像处理方法的步骤。
第四方面,本说明书实施例公开了一种计算机可读存储介质,其存储有计算机指令,该指令被处理器执行时实现如上所述图像处理方法的步骤。
本说明书提供的一种图像处理方法及装置、一种计算设备及计算机可读存储介质,其中,所述方法包括采集含有目标物体的图像;基于预先训练的图像分割模型分割出所述目标物体的图像中目标物体的底图区域;将所述目标物体的底图区域由第一颜色空间转换到第二颜色空间,并确定所述目标物体的底图区域在所述第二颜色空间的当前亮度值;在所述当前亮度值小于预设目标亮度值的情况下,基于所述预设目标亮度值和当前亮度值确定所述目标物体的底图区域的目标补光亮度值;基于所述目标补光亮度值调整所述目标物体的底图区域的亮度。实现在含有目标物体的图像拍摄光线不佳,亮度不够的情况下,通过图像分割、色彩模式转换以及当前亮度值等自动计算出目标补光亮度值,保证目标物体的图像清晰且文字与背景对比度大,方便后续采用OCR技术对目标物体的图像上的文字的准确识别,提升用户体验。
附图说明
图1是本说明书一个或多个实施例提供的一种计算设备的结构框图;
图2是本说明书一个或多个实施例提供的一种图像处理方法的流程图;
图3是本说明书一个或多个实施例提供的一种图像处理方法的流程图;
图4是本说明书一个或多个实施例提供的一种图像处理方法的流程图;
图5是本说明书一个或多个实施例提供的一种图像处理方法的流程图;
图6是本说明书一个或多个实施例提供的一种图像处理装置的结构示意图。
具体实施方式
在下面的描述中阐述了很多具体细节以便于充分理解本申请。但是本申请能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本申请内涵的情况下做类似推广,因此本申请不受下面公开的具体实施的限制。
在本说明书一个或多个实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本说明书一个或多个实施例。在本说明书一个或多个实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本说明书一个或多个实施例中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本说明书一个或多个实施例中可能采用术语第一、第二等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本说明书一个或多个实施例范围的情况下,第一也可以被称为第二,类似地,第二也可以被称为第一。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
首先,对本发明一个或多个实施例涉及的名词术语进行解释。
OCR:英文全称:Optical Character Recognition,中文全称:光学字符识别,是指电子设备(例如扫描仪或数码相机)检查纸上打印的字符,通过检测暗、亮的模式确定其形状,然后用字符识别方法将形状翻译成计算机文字的过程。
在本申请中,提供了一种图像处理方法及装置、一种计算设备及计算机可读存储介质,在下面的实施例中逐一进行详细说明。
图1是示出了根据本说明书一实施例的计算设备100的结构框图。该计算设备100的部件包括但不限于存储器110和处理器120。处理器120与存储器110通过总线130相连接,数据库150用于保存数据。
计算设备100还包括接入设备140,接入设备140使得计算设备100能够经由一个或多个网络160通信。这些网络的示例包括公用交换电话网(PSTN)、局域网(LAN)、广域网(WAN)、个域网(PAN)或诸如因特网的通信网络的组合。接入设备140可以包括有线或无线的任何类型的网络接口(例如,网络接口卡(NIC))中的一个或多个,诸如IEEE802.11无线局域网(WLAN)无线接口、全球微波互联接入(Wi-MAX)接口、以太网接口、通用串行总线(USB)接口、蜂窝网络接口、蓝牙接口、近场通信(NFC)接口,等等。
在本说明书的一个实施例中,计算设备100的上述部件以及图1中未示出的其他部件也可以彼此相连接,例如通过总线。应当理解,图1所示的计算设备结构框图仅仅是出于示例的目的,而不是对本说明书范围的限制。本领域技术人员可以根据需要,增添或替换其他部件。
计算设备100可以是任何类型的静止或移动计算设备,包括移动计算机或移动计算设备(例如,平板计算机、个人数字助理、膝上型计算机、笔记本计算机、上网本等)、移动电话(例如,智能手机)、可佩戴的计算设备(例如,智能手表、智能眼镜等)或其他类型的移动设备,或者诸如台式计算机或PC的静止计算设备。计算设备100还可以是移动式或静止式的服务器。
其中,处理器120可以执行图2所示方法中的步骤。图2示出了根据本说明书一实施例的一种图像处理方法的示意性流程图,包括步骤202至步骤210。
步骤202:采集含有目标物体的图像。
其中,所述目标物体包括但不限于待核身的证件,例如身份证、结婚证或社保卡等。为了便于描述,本说明书一个或多个实施例中均以所述目标物体为身份证为例进行说明。
实际应用中,可以通过手机摄像头等采集含有目标物体的图像。
以所述目标物体为身份证为例,通过手机摄像头采集含有身份证的图像,即所述图像包括身份证图像、以桌面或者纸张等为身份证拍摄背景的背景图像。
步骤204:基于预先训练的图像分割模型分割出所述目标物体的图像中目标物体的底图区域。
本说明书一个或多个实施例中,所述图像分割模型的训练方法包括:
获取训练样本集,其中,所述训练样本集包含多组含有待识别样本物体的图像,每组所述待识别样本物体的图像包括待识别样本物体的图像以及所述待识别样本物体的图像中待识别样本物体的底图区域、文字区域、背景区域;
通过所述训练样本集对图像分割模型进行训练,得到所述图像分割模型,所述图像分割模型使得所述待识别样本物体的图像与所述待识别样本物体的图像中待识别样本物体的底图区域、文字区域、背景区域相关联。
其中,所述图像分割模型包括卷积神经网络模型,所述卷积神经网络模型即CNN,英文全称为:Convolutional Neural Networks。
若所述待识别样本物体为身份证,则所述待识别样本物体的底图区域、文字区域、背景区域,即所述待识别样本物体的图像为含有身份证的图像,所述底图区域为不含文字的身份证区域、所述文字区域为身份证图像上的文字区域、所述背景区域为排除身份证区域以及身份证上的文字区域的背景区域。
实际应用中,若所述目标物体为身份证,则所述目标物体的图像中目标物体的底图区域为身份证排除掉文字的区域。
采用预先训练的图像分割模型可以快速准确的将所述目标物体的图像中的目标物体的底图区域识别出来。
步骤206:将所述目标物体的底图区域由第一颜色空间转换到第二颜色空间,并确定所述目标物体的底图区域在所述第二颜色空间的当前亮度值。
本说明书一个或多个实施例中,所述第一颜色空间包括RGB颜色空间,所述第二颜色空间包括Lab颜色空间,
将所述目标物体的底图区域由第一颜色空间转换到第二颜色空间,并确定所述目标物体的底图区域在所述第二颜色空间的当前亮度值,包括:
将所述目标物体的底图区域由RGB颜色空间转换到Lab颜色空间,并确定所述目标物体的底图区域在所述Lab颜色空间的当前亮度值。
其中,将所述目标物体的底图区域由RGB颜色空间转换到Lab颜色空间,包括:
获取目标物体的底图区域的R、G、B值;
基于所述R、G、B值将所述目标物体的底图区域由RGB颜色空间转换到Lab颜色空间。
实际使用中,RGB是由红色通道(R)、绿色通道(G)、蓝色通道(B)组成的,最亮的红色+最亮的绿色+最亮的蓝色=白色;最暗的红色+最暗的绿色+最暗的蓝色=黑色;而在最亮和最暗之间,相同明暗度的红色+相同明暗度的绿色+相同明暗度的蓝色=灰色。在RGB的任意一个通道内,白和黑表示这个颜色的明暗度。
而Lab中的明度通道(L)专门负责整张图的明暗度,简单的说就是整幅图的黑白版。a通道和b通道只负责颜色的多少。a通道表示从洋红色(通道里的白色)至深绿色(通道里的黑色)的范围;b表示从焦黄色(通道里的白色)至袅蓝色(通道里的黑色)的范围;a、b通道里的50%中性灰色表示没有颜色,所以越接近灰色说明颜色越少,而且a通道和b通道的颜色没有亮度。
RGB颜色空间不能直接转换为Lab颜色空间,需要借助XYZ颜色空间,把RGB颜色空间转换到XYZ颜色空间,之后再把XYZ颜色空间转换到Lab颜色空间,在Lab颜色空间中可以确定所述目标物体的底图区域的当前亮度值。具体的转换过程可以参见现有技术,在此不再赘述。
步骤208:在所述当前亮度值小于预设目标亮度值的情况下,基于所述预设目标亮度值和当前亮度值确定所述目标物体的底图区域的目标补光亮度值。
参见图3,所述预设目标亮度值的获取包括步骤302至步骤308。
步骤302:获取至少两个含有待识别样本物体的图像。
步骤304:基于预先训练的图像分割模型分割出所述至少两个含有待识别样本物体的图像中至少两个待识别样本物体的底图区域。
步骤306:将每个待识别样本物体的底图区域由RGB颜色空间转换到Lab颜色空间,并确定每个待识别样本物体的底图区域在所述Lab颜色空间的当前亮度值。
步骤308:基于所述当前亮度值确定所述至少两个含有待识别样本物体的预设图像的目标亮度值。
以所述待识别样本物体的图像为多个离线选取的OCR识别率高的、在自然采光条件拍摄的身份证的图像为例,对所述预设目标亮度值的获取进行详细说明。
首先获取多个OCR识别率高的、在自然采光条件拍摄的身份证的图像,然后基于预先训练的图像分割模型分割出每个身份证图像中的身份证的底图区域,再将每个身份证的底图区域由RGB颜色空间转换到Lab颜色空间,并确定每个身份证的底图区域在所述Lab颜色空间的当前亮度值,然后根据所有的身份证的底图区域的当前亮度值计算出身份证的底图区域的均值即预设目标亮度值。
然后某身份证的底图区域的当前亮度值小于所述目标亮度值的情况下,基于所述预设目标亮度值和当前亮度值计算出该身份证的底图区域的目标补光亮度值。
所述目标补光亮度值可以通过公式(1)计算:
L_目标补光亮度值=(L_alpha–L_current)*delta (1);
其中,L_alpha为目标亮度值,L_current为当前输入图像的底图区域的当前亮度值,delta是补光衰减率,实际应用中可以根据经验来定一个值,在此不作限定。
实际使用中,若所述当前亮度值大于所述预设目标亮度值,则发出提示信息,例如通过语音或文字提示用户将目标物体例如身份证移动到其他光照亮度下。
步骤210:基于所述目标补光亮度值调整所述目标物体的底图区域的亮度。
仍以所述目标物体为身份证为例,在计算出目标补光亮度值后,可以根据所述目标补光亮度值调整身份证的底图区域的亮度。
实际应用中,基于所述目标补光亮度值调整所述目标物体的底图区域的亮度之后,还包括:
基于预先训练的图像分割模型分割出所述目标物体的图像中目标物体的文字区域,并识别所述文字区域中的文字内容。
其中,可以通过OCR技术识别所述文字区域中的文字内容。
若所述目标物体为身份证,基于预先训练的图像分割模型分割出身份证图像中身份证上的文字区域,并识别所述文字区域中的文字内容,实现身份证上信息的提取。
本说明书一个或多个实施例中,所述图像处理方法通过采用预先训练的图像分割模型分割出目标物体的底图区域,将该底图区域从RGB颜色空间转换到Lab颜色空间,确定出该底图区域的当前亮度值,然后基于预设目标亮度值和当前亮度值计算出目标补光亮度值,最后基于所述目标补光亮度值对该底图区域进行补光,保证目标物体的图像清晰,方便后续采用OCR技术对目标物体的图像上的文字的准确识别,提升用户体验。
其中,处理器120可以执行图4所示方法中的步骤。图4示出了根据本说明书一实施例的一种图像处理方法的示意性流程图,包括步骤402至步骤418。
步骤402:采集含有目标物体的图像。
步骤404:基于预先训练的图像分割模型分割出所述目标物体的图像中目标物体的底图区域。
步骤406:将所述目标物体的底图区域由第一颜色空间转换到第二颜色空间,并确定所述目标物体的底图区域在所述第二颜色空间的当前亮度值。
步骤408:在所述当前亮度值小于预设目标亮度值的情况下,基于所述预设目标亮度值和当前亮度值确定所述目标物体的底图区域的目标补光亮度值。
步骤410:在所述目标物体的底图区域的颜色不是白色的情况下,确定所述目标物体的底图区域在所述第二颜色空间的当前色彩值。
步骤412:基于所述当前色彩值确定所述目标物体的底图区域的目标补光色彩值。
本说明书一个或多个实施例中,在Lab颜色空间中可以确定所述目标物体的底图区域的当前色彩值,然后基于所述当前色彩值计算出所述目标物体的底图区域的目标补光色彩值。
其中,所述目标补光色彩值可以通过以下公式(2)和公式(3)计算得到:
a_目标补光色彩值=-1*a_current (2)
b_目标补光色彩值=-1*b_current (3)
其中,a和b标识的是Lab颜色空间的色彩,a表示从洋红色至绿色的范围,b表示从黄色至蓝色的范围;a_current表示的是a的当前色彩值,b_current表示的是b的当前色彩值。
实际应用中,所述目标补光色彩值与当前色彩值相加的和为0,即中灰色。
步骤414:基于所述目标补光亮度值和所述目标补光色彩值确定最终补光亮度值。
步骤416:基于所述最终补光亮度值调整所述目标物体的底图区域的亮度。
步骤418:基于预先训练的图像分割模型分割出所述目标物体的图像中目标物体的文字区域,并识别所述文字区域中的文字内容。
实际应用中,将目标物体的底图区域从RGB颜色空间转换至Lab空间,可以实现亮度L与颜色空间a、b之间相互独立,方便分别操作互不影响,在Lab颜色空间中通过主管颜色的2个纬度a、b,非常方便计算补色,即a、b的值为0就表示中灰色,计算目标补光色彩值其实就是将其a、b值取负数即可得到。
本说明书一个或多个实施例中,所述图像处理方法通过采用预先训练的图像分割模型分割出目标物体的底图区域,将该底图区域从RGB颜色空间转换到Lab颜色空间,确定出该底图区域的当前亮度值,然后基于预设目标亮度值和当前亮度值计算出目标补光亮度值,再基于当前色彩值计算出目标补光色彩值,最后基于所述目标补光亮度值和目标补光色彩值确定最终补光亮度值,基于最终补光亮度值对该底图区域进行补光。通过调节补光亮度以及补光色彩等方式拍摄出高质量的目标物体的图像,保证目标物体的图像清晰度以及对比度,方便后续采用OCR技术对目标物体的图像上的文字的准确识别,提升用户体验。
参见图5,以所述目标物体为身份证为例,对本说明书一个或多个实施例提供的一种图像处理方法进行详细说明,包括步骤502至步骤528。
步骤502:通过手机摄像头采集含有身份证的图像。
步骤504:基于预先训练的图像分割模型分割出所述身份证的图像中身份证的底图区域。
步骤506:将所述身份证的底图区域由RGB颜色空间转换到Lab颜色空间,并确定所述身份证的底图区域在所述Lab颜色空间的当前亮度值。
步骤508:判断所述当前亮度值是小于还是大于预设目标亮度值,若小于,则执行步骤510,若等于,则执行步骤512,若大于,则执行步骤514。
步骤510:基于所述预设目标亮度值和当前亮度值确定所述身份证的底图区域的目标补光亮度值。
步骤512:结束。
具体地,所述当前亮度值等于预设目标亮度值的情况下,则所述身份证图像的亮度合适无需调整。
步骤514:发出提示信息,提示用户将身份证移动到其他亮度条件下。
步骤516:判断所述身份证的底图区域的颜色是否为白色,若是,则执行步骤518,若否,则执行步骤520。
步骤518:结束。
步骤520:确定所述身份证的底图区域在所述Lab颜色空间的当前色彩值。
实际应用中,对身份证的底图区域的颜色进行分析,以白色为目标色,补上与身份证的底图区域的颜色互补的颜色,因为身份证的文字区域为黑色,而黑色具有吸收一切光的特性,不会受补光颜色的影响,最后得到的证件区域图是白底黑字,有利于采用OCR技术对文字识别。
步骤522:基于所述当前色彩值确定所述身份证的底图区域的目标补光色彩值。
步骤524:基于所述目标补光亮度值和所述目标补光色彩值确定最终补光亮度值。
步骤526:基于所述最终补光亮度值调整所述身份证的底图区域的亮度。
步骤528:基于预先训练的图像分割模型分割出所述身份证的图像中身份证的文字区域,并识别所述文字区域中的文字内容。
本说明书一个或多个实施例中,所述图像处理方法通过采用预先训练的图像分割模型分割出身份证的底图区域,将该底图区域从RGB颜色空间转换到Lab颜色空间,确定出该底图区域的当前亮度值,然后基于预设目标亮度值和当前亮度值计算出目标补光亮度值,再基于当前色彩值计算出目标补光色彩值,最后基于所述目标补光亮度值和目标补光色彩值确定最终补光亮度值,基于最终补光亮度值对该底图区域进行补光。通过调节补光亮度以及补光色彩等方式拍摄出高质量的身份证的图像,保证身份证的图像清晰度以及对比度,方便后续采用OCR技术对身份证的图像上的文字的准确识别,提升用户体验。
参见图6,本说明书一个或多个实施例提供了一种图像处理装置,包括:
采集模块602,被配置为采集含有目标物体的图像;
分割模块604,被配置为基于预先训练的图像分割模型分割出所述目标物体的图像中目标物体的底图区域;
当前亮度值确定模块606,被配置为将所述目标物体的底图区域由第一颜色空间转换到第二颜色空间,并确定所述目标物体的底图区域在所述第二颜色空间的当前亮度值;
目标补光亮度值确定模块608,被配置为在所述当前亮度值小于预设目标亮度值的情况下,基于所述预设目标亮度值和当前亮度值确定所述目标物体的底图区域的目标补光亮度值;
调整模块610,被配置为基于所述目标补光亮度值调整所述目标物体的底图区域的亮度。
可选地,所述分割模块604,进一步被配置为:
获取训练样本集,其中,所述训练样本集包含多组含有待识别样本物体的图像,每组所述待识别样本物体的图像包括待识别样本物体的图像以及所述待识别样本物体的图像中待识别样本物体的底图区域、文字区域、背景区域;
通过所述训练样本集对图像分割模型进行训练,得到所述图像分割模型,所述图像分割模型使得所述待识别样本物体的图像与所述待识别样本物体的图像中待识别样本物体的底图区域、文字区域、背景区域相关联。
可选地,所述图像分割模型包括卷积神经网络模型。
可选地,所述第一颜色空间包括RGB颜色空间,所述第二颜色空间包括Lab颜色空间,
所述当前亮度值确定模块606,进一步被配置为:
将所述目标物体的底图区域由RGB颜色空间转换到Lab颜色空间,并确定所述目标物体的底图区域在所述Lab颜色空间的当前亮度值。
可选地,所述当前亮度值确定模块606,进一步被配置为:
获取目标物体的底图区域的R、G、B值;
基于所述R、G、B值将所述目标物体的底图区域由RGB颜色空间转换到Lab颜色空间。
可选地,所述目标补光亮度值确定模块608,进一步被配置为:
获取至少两个含有待识别样本物体的图像;
基于预先训练的图像分割模型分割出所述至少两个含有待识别样本物体的图像中至少两个待识别样本物体的底图区域;
将每个待识别样本物体的底图区域由RGB颜色空间转换到Lab颜色空间,并确定每个待识别样本物体的底图区域在所述Lab颜色空间的当前亮度值;
基于所述当前亮度值确定所述至少两个含有待识别样本物体的图像的预设目标亮度值。
可选地,所述装置还包括:
当前色彩值确定模块,被配置为在所述目标物体的底图区域的颜色不是白色的情况下,确定所述目标物体的底图区域在所述第二颜色空间的当前色彩值;
目标补光色彩值确定模块,被配置为基于所述当前色彩值确定所述目标物体的底图区域的目标补光色彩值。
可选地,所述装置还包括:
最终补光亮度值确定模块,被配置为基于所述目标补光亮度值和所述目标补光色彩值确定最终补光亮度值。
可选地,所述调整模块610,进一步被配置为:
基于所述最终补光亮度值调整所述目标物体的底图区域的亮度。
可选地,所述装置还包括:
提示模块,被配置为若所述当前亮度值大于所述预设目标亮度值,则发出提示信息。
可选地,所述装置还包括:
识别模块,被配置为基于预先训练的图像分割模型分割出所述目标物体的图像中目标物体的文字区域,并识别所述文字区域中的文字内容。
本说明书一个或多个实施例中,所述图像处理装置通过采用预先训练的图像分割模型分割出目标物体的底图区域,将该底图区域从RGB颜色空间转换到Lab颜色空间,确定出该底图区域的当前亮度值,然后基于预设目标亮度值和当前亮度值计算出目标补光亮度值,最后基于所述目标补光亮度值对该底图区域进行补光,保证目标物体的图像清晰,方便后续采用OCR技术对目标物体的图像上的文字的准确识别,提升用户体验。
上述为本实施例的一种图像处理装置的示意性方案。需要说明的是,该图像处理装置的技术方案与上述的图像处理方法的技术方案属于同一构思,图像处理装置的技术方案未详细描述的细节内容,均可以参见上述图像处理方法的技术方案的描述。
本申请一实施例还提供一种计算机可读存储介质,其存储有计算机指令,该指令被处理器执行时实现如前所述图像处理方法的步骤。
上述为本实施例的一种计算机可读存储介质的示意性方案。需要说明的是,该存储介质的技术方案与上述的图像处理方法的技术方案属于同一构思,存储介质的技术方案未详细描述的细节内容,均可以参见上述图像处理方法的技术方案的描述。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
所述计算机指令包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上公开的本申请优选实施例只是用于帮助阐述本申请。可选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本说明书的内容,可作很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本申请的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本申请。本申请仅受权利要求书及其全部范围和等效物的限制。

Claims (24)

1.一种图像处理方法,其特征在于,包括:
采集含有目标物体的图像;
基于预先训练的图像分割模型分割出所述目标物体的图像中目标物体的底图区域;
将所述目标物体的底图区域由第一颜色空间转换到第二颜色空间,并确定所述目标物体的底图区域在所述第二颜色空间的当前亮度值;
在所述当前亮度值小于预设目标亮度值的情况下,基于所述预设目标亮度值和当前亮度值确定所述目标物体的底图区域的目标补光亮度值;
基于所述目标补光亮度值调整所述目标物体的底图区域的亮度。
2.根据权利要求1所述的方法,其特征在于,所述图像分割模型的训练方法包括:
获取训练样本集,其中,所述训练样本集包含多组含有待识别样本物体的图像,每组所述待识别样本物体的图像包括待识别样本物体的图像以及所述待识别样本物体的图像中待识别样本物体的底图区域、文字区域、背景区域;
通过所述训练样本集对图像分割模型进行训练,得到所述图像分割模型,所述图像分割模型使得所述待识别样本物体的图像与所述待识别样本物体的图像中待识别样本物体的底图区域、文字区域、背景区域相关联。
3.根据权利要求2所述的方法,其特征在于,所述图像分割模型包括卷积神经网络模型。
4.根据权利要求1所述的方法,其特征在于,所述第一颜色空间包括RGB颜色空间,所述第二颜色空间包括Lab颜色空间,
将所述目标物体的底图区域由第一颜色空间转换到第二颜色空间,并确定所述目标物体的底图区域在所述第二颜色空间的当前亮度值,包括:
将所述目标物体的底图区域由RGB颜色空间转换到Lab颜色空间,并确定所述目标物体的底图区域在所述Lab颜色空间的当前亮度值。
5.根据权利要求4所述的方法,其特征在于,将所述目标物体的底图区域由RGB颜色空间转换到Lab颜色空间,包括:
获取目标物体的底图区域的R、G、B值;
基于所述R、G、B值将所述目标物体的底图区域由RGB颜色空间转换到Lab颜色空间。
6.根据权利要求1所述的方法,其特征在于,所述预设目标亮度值的获取包括:
获取至少两个含有待识别样本物体的图像;
基于预先训练的图像分割模型分割出所述至少两个含有待识别样本物体的图像中至少两个待识别样本物体的底图区域;
将每个待识别样本物体的底图区域由RGB颜色空间转换到Lab颜色空间,并确定每个待识别样本物体的底图区域在所述Lab颜色空间的当前亮度值;
基于所述当前亮度值确定所述至少两个含有待识别样本物体的图像的预设目标亮度值。
7.根据权利要求1或4所述的方法,其特征在于,基于所述预设目标亮度值和当前亮度值确定所述目标物体的底图区域的目标补光亮度值之后,还包括:
在所述目标物体的底图区域的颜色不是白色的情况下,确定所述目标物体的底图区域在所述第二颜色空间的当前色彩值;
基于所述当前色彩值确定所述目标物体的底图区域的目标补光色彩值。
8.根据权利要求7所述的方法,其特征在于,基于所述当前色彩值确定所述目标物体的底图区域的目标补光色彩值之后,还包括:
基于所述目标补光亮度值和所述目标补光色彩值确定最终补光亮度值。
9.根据权利要求8所述的方法,其特征在于,基于所述目标补光亮度值调整所述目标物体的底图区域的亮度,包括:
基于所述最终补光亮度值调整所述目标物体的底图区域的亮度。
10.根据权利要求1所述的方法,其特征在于,还包括:
若所述当前亮度值大于所述预设目标亮度值,则发出提示信息。
11.根据权利要求2所述的方法,其特征在于,还包括:
基于预先训练的图像分割模型分割出所述目标物体的图像中目标物体的文字区域,并识别所述文字区域中的文字内容。
12.一种图像处理装置,其特征在于,包括:
采集模块,被配置为采集含有目标物体的图像;
分割模块,被配置为基于预先训练的图像分割模型分割出所述目标物体的图像中目标物体的底图区域;
当前亮度值确定模块,被配置为将所述目标物体的底图区域由第一颜色空间转换到第二颜色空间,并确定所述目标物体的底图区域在所述第二颜色空间的当前亮度值;
目标补光亮度值确定模块,被配置为在所述当前亮度值小于预设目标亮度值的情况下,基于所述预设目标亮度值和当前亮度值确定所述目标物体的底图区域的目标补光亮度值;
调整模块,被配置为基于所述目标补光亮度值调整所述目标物体的底图区域的亮度。
13.根据权利要求12所述的装置,其特征在于,所述分割模块,进一步被配置为:
获取训练样本集,其中,所述训练样本集包含多组含有待识别样本物体的图像,每组所述待识别样本物体的图像包括待识别样本物体的图像以及所述待识别样本物体的图像中待识别样本物体的底图区域、文字区域、背景区域;
通过所述训练样本集对图像分割模型进行训练,得到所述图像分割模型,所述图像分割模型使得所述待识别样本物体的图像与所述待识别样本物体的图像中待识别样本物体的底图区域、文字区域、背景区域相关联。
14.根据权利要求13所述的装置,其特征在于,所述图像分割模型包括卷积神经网络模型。
15.根据权利要求12所述的装置,其特征在于,所述第一颜色空间包括RGB颜色空间,所述第二颜色空间包括Lab颜色空间,
所述当前亮度值确定模块,进一步被配置为:
将所述目标物体的底图区域由RGB颜色空间转换到Lab颜色空间,并确定所述目标物体的底图区域在所述Lab颜色空间的当前亮度值。
16.根据权利要求15所述的装置,其特征在于,所述当前亮度值确定模块,进一步被配置为:
获取目标物体的底图区域的R、G、B值;
基于所述R、G、B值将所述目标物体的底图区域由RGB颜色空间转换到Lab颜色空间。
17.根据权利要求12所述的装置,其特征在于,所述目标补光亮度值确定模块,进一步被配置为:
获取至少两个含有待识别样本物体的图像;
基于预先训练的图像分割模型分割出所述至少两个含有待识别样本物体的图像中至少两个待识别样本物体的底图区域;
将每个待识别样本物体的底图区域由RGB颜色空间转换到Lab颜色空间,并确定每个待识别样本物体的底图区域在所述Lab颜色空间的当前亮度值;
基于所述当前亮度值确定所述至少两个含有待识别样本物体的图像的预设目标亮度值。
18.根据权利要求12或15所述的装置,其特征在于,所述装置还包括:
当前色彩值确定模块,被配置为在所述目标物体的底图区域的颜色不是白色的情况下,确定所述目标物体的底图区域在所述第二颜色空间的当前色彩值;
目标补光色彩值确定模块,被配置为基于所述当前色彩值确定所述目标物体的底图区域的目标补光色彩值。
19.根据权利要求18所述的装置,其特征在于,所述装置还包括:
最终补光亮度值确定模块,被配置为基于所述目标补光亮度值和所述目标补光色彩值确定最终补光亮度值。
20.根据权利要求19所述的装置,其特征在于,所述调整模块,进一步被配置为:
基于所述最终补光亮度值调整所述目标物体的底图区域的亮度。
21.根据权利要求12所述的装置,其特征在于,所述装置还包括:
提示模块,被配置为若所述当前亮度值大于所述预设目标亮度值,则发出提示信息。
22.根据权利要求13所述的装置,其特征在于,所述装置还包括:
识别模块,被配置为基于预先训练的图像分割模型分割出所述目标物体的图像中目标物体的文字区域,并识别所述文字区域中的文字内容。
23.一种计算设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机指令,其特征在于,所述处理器执行所述指令时实现权利要求1-11任意一项所述方法的步骤。
24.一种计算机可读存储介质,其存储有计算机指令,其特征在于,该指令被处理器执行时实现权利要求1-11任意一项所述方法的步骤。
CN201910110414.2A 2019-02-11 2019-02-11 一种图像处理方法及装置、一种计算设备及存储介质 Active CN110020645B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910110414.2A CN110020645B (zh) 2019-02-11 2019-02-11 一种图像处理方法及装置、一种计算设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910110414.2A CN110020645B (zh) 2019-02-11 2019-02-11 一种图像处理方法及装置、一种计算设备及存储介质

Publications (2)

Publication Number Publication Date
CN110020645A CN110020645A (zh) 2019-07-16
CN110020645B true CN110020645B (zh) 2023-02-21

Family

ID=67189000

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910110414.2A Active CN110020645B (zh) 2019-02-11 2019-02-11 一种图像处理方法及装置、一种计算设备及存储介质

Country Status (1)

Country Link
CN (1) CN110020645B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111126150B (zh) * 2019-11-25 2023-06-09 中国人民解放军国防科技大学 一种指示灯亮、灭状态的实时识别方法
CN111932500B (zh) * 2020-07-10 2023-10-13 泰康保险集团股份有限公司 一种图像处理方法及装置
CN113572974B (zh) * 2021-06-21 2023-04-07 维沃移动通信有限公司 图像处理方法、装置及电子设备

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101059699B1 (ko) * 2011-05-02 2011-08-29 주식회사 고영테크놀러지 인쇄회로기판상의 측정대상물의 측정방법
CN104363676B (zh) * 2014-10-28 2017-10-20 许敏 一种全自动智能恒光控制的led手术无影灯系统
CN107205125B (zh) * 2017-06-30 2019-07-09 Oppo广东移动通信有限公司 一种图像处理方法、装置、终端及计算机可读存储介质

Also Published As

Publication number Publication date
CN110020645A (zh) 2019-07-16

Similar Documents

Publication Publication Date Title
CN110020645B (zh) 一种图像处理方法及装置、一种计算设备及存储介质
US8355574B2 (en) Determination of main object on image and improvement of image quality according to main object
CN101620679B (zh) 图像中的红眼消除方法
CN107292307B (zh) 一种倒置汉字验证码自动识别方法及系统
CN104008401B (zh) 一种图像文字识别的方法及装置
CN107862663A (zh) 图像处理方法、装置、可读存储介质和计算机设备
US11334973B2 (en) Image colorizing method and device
MX2014004073A (es) Aparato y metodo para reconocer de manera automatica un codigo de respuesta rapira (qr).
KR101384627B1 (ko) 영상 내 객체 영역 자동분할 방법
KR20170017911A (ko) 디지털 이미지들의 컬러 프로세싱을 위한 방법들 및 시스템들
CN111680694A (zh) 文字图像中有色印章的滤除方法及装置
CN108647696B (zh) 图片颜值确定方法及装置、电子设备、存储介质
US20090316168A1 (en) Image processing apparatus, image processing method, and image processing program
CN102088539A (zh) 一种预拍照画质评价方法和系统
CN113436081A (zh) 数据处理方法、图像增强方法及其模型训练方法
CN105893927B (zh) 动画视频识别与编码方法及装置
CN111147924B (zh) 一种视频增强处理方法及系统
CN111191716B (zh) 一种印刷图片的分类方法及装置
EP3119074B1 (en) Information processing apparatus, method for processing information, and computer program
JP2009065657A (ja) 画像のかぶりシーン検出システムおよび方法
WO2015189369A1 (en) Methods and systems for color processing of digital images
CN113065407B (zh) 基于注意力机制和生成对抗网络的财务票据印章擦除方法
CN105631812B (zh) 一种对显示图像进行色彩增强的控制方法及控制装置
CN113781330A (zh) 图像处理方法、装置及电子系统
US9251567B1 (en) Providing color corrections to photos

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20201016

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Applicant after: Innovative advanced technology Co.,Ltd.

Address before: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Applicant before: Advanced innovation technology Co.,Ltd.

Effective date of registration: 20201016

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Applicant after: Advanced innovation technology Co.,Ltd.

Address before: A four-storey 847 mailbox in Grand Cayman Capital Building, British Cayman Islands

Applicant before: Alibaba Group Holding Ltd.

GR01 Patent grant
GR01 Patent grant