CN113554046A - 图像处理方法和系统、存储介质及计算设备 - Google Patents
图像处理方法和系统、存储介质及计算设备 Download PDFInfo
- Publication number
- CN113554046A CN113554046A CN202010333591.XA CN202010333591A CN113554046A CN 113554046 A CN113554046 A CN 113554046A CN 202010333591 A CN202010333591 A CN 202010333591A CN 113554046 A CN113554046 A CN 113554046A
- Authority
- CN
- China
- Prior art keywords
- target
- image
- target object
- data
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 49
- 238000000034 method Methods 0.000 claims abstract description 56
- 230000006399 behavior Effects 0.000 claims description 84
- 238000012545 processing Methods 0.000 claims description 63
- 230000015654 memory Effects 0.000 claims description 33
- 210000000746 body region Anatomy 0.000 claims description 18
- 230000003542 behavioural effect Effects 0.000 claims description 17
- 230000001815 facial effect Effects 0.000 claims description 5
- 238000005516 engineering process Methods 0.000 abstract description 3
- 230000009471 action Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010845 search algorithm Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000010195 expression analysis Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013441 quality evaluation Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000028838 turning behavior Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Strategic Management (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- Educational Administration (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- General Business, Economics & Management (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种图像处理方法和系统、存储介质及计算设备。其中,该方法包括:获取第一图像数据,其中,第一图像数据包括目标对象;提取出目标对象的目标特征;以目标特征,检索特征库,得到目标对象的身份信息,其中,特征库中存储有预设区域中的至少一个对象的特征与至少一个对象的身份信息的对应关系。本申请解决了相关技术中图像处理方法的实现需要将对象和位置进行绑定,鲁棒性不高的技术问题。
Description
技术领域
本申请涉及教学领域,具体而言,涉及一种图像处理方法和系统、存储介质及计算设备。
背景技术
在教学领域中,为了让教师、家长以及学生自己了解学生的情况,可以在教室内安装摄像机,通过摄像机采集教室的图像,并对每个学生的学习状态、课堂表现、情绪状况、异常情况等进行分析。
目前教室可以分为两大类,一种是普通教室一般尺寸在7*9米左右。另一种是大型教室,尺寸要比普通教室大很多,容纳的人数可以在100人以上。为了实现覆盖整个教室的图像采集,目前可以采用自研的组合摄像机,其中包括一个带云台的摄像机用于聚焦教室的不同位置;或者采用动点相机的方案,通过学生与教室位置关联,从而跟踪同一区域不同时刻的学生。
但是,自研设备价格昂贵,导致成本增加;通过学生与教室位置关联,无法处理类似学生换座位等破坏这种关联关系的情况,鲁棒性不高。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本申请实施例提供了一种图像处理方法和系统、存储介质及计算设备,以至少解决相关技术中图像处理方法的实现需要将对象和位置进行绑定,鲁棒性不高的技术问题。
根据本申请实施例的一个方面,提供了一种图像处理方法,包括:获取第一图像数据,其中,第一图像数据包括目标对象;提取出目标对象的目标特征;以目标特征,检索特征库,得到目标对象的身份信息,其中,特征库中存储有预设区域中的至少一个对象的特征与至少一个对象的身份信息的对应关系。
根据本申请实施例的另一方面,还提供了一种图像处理方法,包括:获取第一图像数据;接收客户端输入的目标对象;获取特征库中存储的目标对象的目标特征,其中,特征库中存储有预设区域中的至少一个对象的特征与至少一个对象的身份信息的对应关系;基于目标对象的目标特征,确定第一图像数据中目标对象的目标图像;展示目标对象的目标图像。
根据本申请实施例的另一方面,还提供了一种图像处理方法,包括:在操作界面上显示第一图像数据;在操作界面的输入区域中输入目标对象;在从特征库中获取到目标对象的至少一个目标特征的情况下,在操作界面上展示从第一图像数据中确定的目标对象的目标图像;其中,目标图像由目标对象的目标特征来确定,特征库中存储有预设区域中的至少一个对象的特征与至少一个对象的身份信息的对应关系。
根据本申请实施例的另一方面,还提供了一种图像处理方法,包括:在显示面板上投屏第一图像数据;显示面板的输入区域中捕获到目标对象;在获取到目标对象的至少一个目标特征的情况下,在显示面板上展示从第一图像数据中确定的目标对象的目标图像;其中,目标图像由目标对象的目标特征来确定。
根据本申请实施例的另一方面,还提供了一种存储介质,存储介质包括存储的程序,其中,在程序运行时控制存储介质所在设备执行上述的图像处理方法。
根据本申请实施例的另一方面,还提供了一种计算设备,包括:存储器和处理器,处理器用于运行存储器中存储的程序,其中,程序运行时执行上述的图像处理方法。
根据本申请实施例的另一方面,还提供了一种图像处理系统,包括:处理器;以及存储器,与处理器连接,用于为处理器提供处理以下处理步骤的指令:获取第一图像数据,其中,第一图像数据包括目标对象;提取出目标对象的目标特征;以目标特征,检索特征库,得到目标对象的身份信息,其中,特征库中存储有预设区域中的至少一个对象的特征与至少一个对象的身份信息的对应关系。
在本申请实施例中,在获取到第一图像数据之后,可以从第一图像数据中提取出目标对象的目标特征,然后通过将目标特征与特征库中存储的预设区域中的至少一个对象的特征进行匹配,可以得到目标对象的身份信息,从而实现密集人群下的身份识别的目的。容易注意到的是,在提取出目标特征之后,可以通过将其与特征库中存储的至少一个对象的特征进行匹配,得到目标对象的身份信息,无需将身份信息与位置进行绑定,从而达到了提高鲁棒性,提升处理准确率的技术效果,进而解决了相关技术中图像处理方法的实现需要将对象和位置进行绑定,鲁棒性不高的技术问题。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例的一种用于实现图像处理方法的计算机终端的硬件结构框图;
图2是根据本申请实施例的第一种图像处理方法的流程图;
图3是根据本申请实施例的一种可选的动点摄像机的布置示意图;
图4是根据本申请实施例的一种可选的图像处理方法的流程图;
图5是根据本申请实施例的第二种图像处理方法的流程图;
图6是根据本申请实施例的第三种图像处理方法的流程图;
图7是根据本申请实施例的一种可选的操作界面的示意图;
图8是根据本申请实施例的第四种图像处理方法的流程图;
图9是根据本申请实施例的第一种图像处理装置的示意图;
图10是根据本申请实施例的第二种图像处理装置的示意图;
图11是根据本申请实施例的第三种图像处理装置的示意图;
图12是根据本申请实施例的第四种图像处理装置的示意图;以及
图13是根据本申请实施例的一种计算机终端的结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
首先,在对本申请实施例进行描述的过程中出现的部分名词或术语适用于如下解释:
动点摄像机:可以是指焦距可控,且视场角可移动的摄像机。
实施例1
在教学领域中,借助人工智能与大数据技术,教师可以分析学生的整体和个体情况,针对学生的薄弱环节,调整课堂的教学重点以及针对每个学生的个体情况制定对应的教学策略。人工智能可以对每个学生的学习状态、课堂表现、情绪状况、异常情况等等,做到全面分析,从而让老师、家长以及学生自己了解学生的情况,提高学习和校园生活的质量。
目前教室主要分为两大类,一种是普通教室一般尺寸在7*9米左右的范围;另一种是大型教室,比如大学教室、大型培训机构教室等,尺寸要比普通教室大很多,容纳的人数可以在100人以上。对于普通教室一般采用一到两个定焦球机就可以覆盖整个教室,但是对于大型教室定焦球机在视场角和分辨率上都相对受限,如果覆盖整个教室,一般需要4到6个相机,如此多的相机会给学生造成心理压力,影响教学质量;同时学校或者培训机构也会对相机的数量有严格的限制。
针对上述问题,目前现有图像处理方案主要是采用自研的组合摄像机,其中包括一个带云台的摄像机用于聚焦教室的不同位置,实现整个教室的覆盖,但是,自研设备价格昂贵。另外,对于动点相机的图像处理方案主要是通过学生与教室座位关联,从而跟踪同一区域不同时刻的学生,但该方法无法处理类似学生换座位等破坏这种关联关系的情况,鲁棒性不高。
为了解决上述问题,根据本申请实施例,提供了一种图像处理方法,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本申请实施例所提供的方法实施例可以在移动终端、计算机终端、服务器或者类似的运算装置中执行。图1示出了一种用于实现图像处理方法的计算机终端(或移动设备)的硬件结构框图。如图1所示,计算机终端10(或移动设备10)可以包括一个或多个(图中采用102a、102b,……,102n来示出)处理器102(处理器102可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)、用于存储数据的存储器104、以及用于通信功能的传输装置106。除此以外,还可以包括:显示器、输入/输出接口(I/O接口)、通用串行总线(USB)端口(可以作为BUS总线的端口中的一个端口被包括)、网络接口、电源和/或相机。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,计算机终端10还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
应当注意到的是上述一个或多个处理器102和/或其他数据处理电路在本文中通常可以被称为“数据处理电路”。该数据处理电路可以全部或部分的体现为软件、硬件、固件或其他任意组合。此外,数据处理电路可为单个独立的处理模块,或全部或部分的结合到计算机终端10(或移动设备)中的其他元件中的任意一个内。该数据处理电路作为一种处理器控制(例如与接口连接的可变电阻终端路径的选择)。
存储器104可用于存储应用软件的软件程序以及模块,如本申请实施例中的图像处理方法对应的程序指令/数据存储装置,处理器102通过运行存储在存储器104内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的图像处理方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102远程设置的存储器,这些远程存储器可以通过网络连接至计算机终端10。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
传输装置106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括计算机终端10的通信供应商提供的无线网络。在一个实例中,传输装置106包括一个网络适配器(Network Interface Control ler,NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输装置106可以为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
显示器可以例如触摸屏式的液晶显示器(LCD),该液晶显示器可使得用户能够与计算机终端10(或移动设备)的用户界面进行交互。
此处需要说明的是,在一些可选实施例中,上述图1所示的计算机设备(或移动设备)可以包括硬件元件(包括电路)、软件元件(包括存储在计算机可读介质上的计算机代码)、或硬件元件和软件元件两者的结合。应当指出的是,图1仅为特定具体实例的一个实例,并且旨在示出可存在于上述计算机设备(或移动设备)中的部件的类型。
此处需要说明的是,在一些实施例中,上述图1所示的计算机设备(或移动设备)具有触摸显示器(也被称为“触摸屏”或“触摸显示屏”)。在一些实施例中,上述图1所示的计算机设备(或移动设备)具有图像用户界面(GUI),用户可以通过触摸触敏表面上的手指接触和/或手势来与GUI进行人机交互,此处的人机交互功能可选的包括如下交互:创建网页、绘图、文字处理、制作电子文档、游戏、视频会议、即时通信、收发电子邮件、通话界面、播放数字视频、播放数字音乐和/或网络浏览等、用于执行上述人机交互功能的可执行指令被配置/存储在一个或多个处理器可执行的计算机程序产品或可读存储介质中。
在上述运行环境下,本申请提供了如图2所示的图像处理方法。图2是根据本申请实施例的第一种图像处理方法的流程图。如图2所示,该方法还包括如下步骤:
步骤S202,获取第一图像数据,其中,第一图像数据包括目标对象;
可选地,上述步骤中的第一图像数据可以由部署在预设位置的至少一个动点摄像机采集。该动点摄像机可以采用现有通用的动点摄像机,无需采用自研设备,从而达到降低处理成本的目的。
上述的预设位置可以基于动点摄像机的数量,安装动点摄像机的整个区域的尺寸,以及具体应用场景来确定。例如,在教学应用场景中,可以采用一路(一般是9*18米)或两路(一般是18*18米)动点摄像机进行图像采集,其中,在采用一路动点摄像机的情况下,可以在教室黑板上方中间位置(即上述的预设位置)处布置动点摄像机;在采用两路动点摄像机的情况下,如图3所示,可以在教室距离两侧墙面1/4(即上述的预设位置)处分别布置动点摄像机。
上述步骤中的第一图像数据可以是不同的动点摄像机采集到的图像数据,所有动点摄像机采集到的图像数据的处理方式均相同,在本发明实施例中,以一个动点摄像机采集到的图像为例进行说明。
步骤S204,提取出目标对象的目标特征;
上述步骤中的目标对象可以是需要查看具体情况的用户,也可以是该第一图像数据对应的区域中的所有用户,但不仅限于此。例如,在教学应用场景中,可以是教师、家长或者学生等希望查看具体情况的学生;在办公应用场景中,可以是公司管理人员或者公司职员等希望查看具体情况的公司职员;在工业应用场景中,可以是管理人员等希望查看具体情况的车间工人;在医院应用场景中,可以是医生、护士或者家属希望查看具体情况的病患;在园区应用场景中,可以是管理人员或安保人员等希望查看具体情况的安保人员、保洁人员等。
上述步骤中的目标特征可以是能够对目标对象的身份进行识别的特征,例如,可以是人脸特征、头部特征、上半身特征等,但不仅限于此。
在一种可选的实施例中,可以利用现有的目标检测算法对第一图像数据进行目标检测,确定该图像数据中目标对象所在的区域,得到目标对象的图像。进一步地可以利用现有的特征提取算法,对目标对象的图像进行处理,提取出目标对象的特征信息,得到目标特征。
步骤S206,以目标特征,检索特征库,得到目标对象的身份信息,其中,特征库中存储有预设区域中的至少一个对象的特征与至少一个对象的身份信息的对应关系。
上述步骤中的预设区域可以是安装动点摄像机的区域,例如,在教学应用场景中,预设区域可以是教室;在办公应用场景中,预设区域可以是办公室;在工业应用场景中,预设区域可以是车间;在医院应用场景中,预设区域可以是病房;在园区应用场景中,预设区域可以是整个园区,其中,园区可以划分为隐私区域和非隐私区域,因此,预设区域也可以是非隐私区域。
上述步骤中的至少一个对象可以是预设区域中的所有用户,但不仅限于此。例如,在教学应用场景中,至少一个对象可以是整个教室中的所有学生;在办公应用场景中,至少一个对象可以是整个办公室中的所有员工;在工业应用场景中,至少一个对象可以是整个车间中的工作人员;在医院应用场景中,至少一个对象可以是整个病房中的病患;在园区应用场景中,至少一个对象可以是预设区域中的用户。
上述步骤中的身份信息可以是能够唯一标识用户的标识信息,例如,在教学应用场景中,身份信息可以是学生的学号;在办公应用场景中,身份信息可以是员工的工号;在工业应用场景中,身份信息可以是车间工人的工号;在医院应用场景中,身份信息可以是病患的床号、编号等;在园区应用场景中,身份信息可以是用户的编号、身份证号等,但不仅限于此。
在一种可选的实施例中,为了确保能够对目标对象的身份进行确定,可以在线构建整个区域的特征库,将至少一个对象在线提取特征,并将至少一个对象的特征信息和相应的身份信息进行对应存储,得到上述的特征库。因此,在获取到目标对象的目标特征之后,可以通过搜索算法将目标特征与至少一个对象的特征信息进行匹配,如果匹配成功,则可以确定匹配成功的对象的身份信息为该目标对象的身份信息,从而基于目标对象的身份信息,可以实现无感考勤的目的。
基于本申请上述实施例提供的方案,在获取到第一图像数据之后,可以从第一图像数据中提取出目标对象的目标特征,然后通过将目标特征与特征库中存储的预设区域中的至少一个对象的特征进行匹配,可以得到目标对象的身份信息,从而实现密集人群下的身份识别的目的。容易注意到的是,在提取出目标特征之后,可以通过将其与特征库中存储的至少一个对象的特征进行匹配,得到目标对象的身份信息,无需将身份信息与位置进行绑定,从而达到了提高鲁棒性,提升处理准确率的技术效果,进而解决了相关技术中图像处理方法的实现需要将对象和位置进行绑定,鲁棒性不高的技术问题。
在本申请上述实施例中,该方法还包括如下步骤:将预设区域划分为多个区域;获取多个区域的第二图像数据,其中,第二图像数据包括至少一个对象;提取出至少一个对象的特征,以及至少一个对象的人脸图像;对至少一个对象的人脸图像进行识别,确定至少一个对象的身份信息;将至少一个对象的特征和至少一个对象的身份信息进行对应存储至特征库。
可选地,动点摄像机可以循环采集多个区域的图像数据。上述的多个区域可以基于如下至少之一信息确定:动点摄像机的采集区域,预设区域的尺寸,和动点摄像机的扫描时间。上述的采集区域可以是动点摄像机的可覆盖范围。上述的扫描时间可以是图像数据采集所允许的最短巡航时间,也即,扫描整个预设区域所需的时间。
例如,在教学应用场景中,可以根据动点摄像机的当前时刻可覆盖范围、教室的尺寸以及允许的最短巡航时间,自定义划分多个区域。另外,每个摄像机通过调整拍摄角度和相机焦距,来循环采集教室的多个区域,从而达到整个教室的全覆盖。
例如,在办公应用场景中,可以根据动点摄像机的当前时刻可覆盖范围、办公室的尺寸以及允许的最短巡航时间,自定义划分多个区域。另外,每个摄像机通过调整拍摄角度和相机焦距,来循环采集办公室的多个区域,从而达到整个办公室的全覆盖。
例如,在工业应用场景中,可以根据动点摄像机的当前时刻可覆盖范围、车间的尺寸以及允许的最短巡航时间,自定义划分多个区域。另外,每个摄像机通过调整拍摄角度和相机焦距,来循环采集车间的多个区域,从而达到整个办公室的全覆盖。
例如,在医院应用场景中,可以根据动点摄像机的当前时刻可覆盖范围、病房的尺寸以及允许的最短巡航时间,自定义划分多个区域。另外,每个摄像机通过调整拍摄角度和相机焦距,来循环采集病房的多个区域,从而达到整个办公室的全覆盖。
例如,在园区应用场景中,可以根据动点摄像机的当前时刻可覆盖范围、园区或非隐私区域的尺寸以及允许的最短巡航时间,自定义划分多个区域。另外,每个摄像机通过调整拍摄角度和相机焦距,来循环采集园区或非隐私区域的多个区域,从而达到整个办公室的全覆盖。
由于动点摄像机需要对不同区域进行数据采集,导致目标对象的轨迹不连续,无法跟踪同一区域不同时刻的目标对象。
为了解决上述问题,在一种可选的实施例中,特征库可以是在线构建的,因此,在用户进入预设区域之后,首先可以通过动点摄像机拍摄所有区域内的第二图像数据,进一步利用现有的目标检测算法对第二图像数据进行目标检测,确定该图像数据中每个对象所在的区域,得到每个对象的图像。其次可以利用现有的特征提取算法,对每个对象的图像进行处理,提取出每个对象的特征信息,进一步可以利用现有的人脸识别算法对每个对象的人脸图像进行识别,从而可以确定每个对象的身份信息。最终将每个对象的特征信息和身份信息进行对应存储,得到最终的特征库。
例如,以教学应用场景为例进行说明,在学生们进入教室,开始上课时,可以通过至少一个动点摄像机进行拍摄,获取到整个教室的图像数据,并提取出每个学生的特征信息。由于此时学生们注意力集中,都看向黑板,此时可以直接对学生的人脸图像进行识别,确定每个学生的身份信息,也即确定每个特征信息对应的学生的学号,进而通过将特征信息和身份信息进行对应存储,可以得到学生的特征库。
例如,以办公应用场景为例进行说明,在员工开始工作之后,可以通过至少一个动点摄像机进行拍摄,获取到整个办公室的图像数据,并提取出每个员工的特征信息。进一步地可以对员工的人脸图像进行识别,确定每个员工的身份信息,也即确定每个特征信息对应的员工的工号,进而通过将特征信息和身份信息进行对应存储,可以得到员工的特征库。
例如,以工业应用场景为例进行说明,在车间工人开始工作之后,可以通过至少一个动点摄像机进行拍摄,获取到整个车间的图像数据,并提取出每个工人的特征信息。进一步地可以对工人的人脸图像进行识别,确定每个工人的身份信息,也即确定每个特征信息对应的工人的工号,进而通过将特征信息和身份信息进行对应存储,可以得到工人的特征库。
例如,以医院应用场景为例进行说明,在病患住进病房之后,可以通过至少一个动点摄像机进行拍摄,获取到整个病房的图像数据,并提取出每个病患的特征信息。进一步地可以对病患的人脸图像进行识别,确定每个病患的身份信息,也即确定每个特征信息对应的病患的床号或编号,进而通过将特征信息和身份信息进行对应存储,可以得到病患的特征库。
例如,以园区应用场景为例进行说明,可以通过至少一个动点摄像机进行拍摄,获取到整个园区或非隐私区域的图像数据,并提取出每个用户的特征信息。进一步地可以对用户的人脸图像进行识别,确定每个用户的身份信息,也即确定每个特征信息对应的用户的编号或身份证号,进而通过将特征信息和身份信息进行对应存储,可以得到用户的特征库。
在本申请上述实施例中,在以目标特征,检索特征库,得到目标对象的身份信息之后,该方法还包括如下步骤:提取出与目标特征相匹配的目标图像;获取目标对象的目标区域,其中,目标区域包括如下至少之一:脸部区域、头部区域和身体区域;基于目标区域对目标图像进行识别,得到目标对象的识别结果,其中,识别结果包括如下至少之一:行为数据和表情数据。
上述步骤中的目标图像可以是目标对象的整体图像,在具体的应用场景中,目标图像可以是目标对象的半身图像,但不仅限于此。
由于动点摄像机的拍摄角度和分辨率等原因,使得远处以及边侧的目标图像存在畸变、模糊、侧脸、侧身等问题,导致行为识别和表情识别的准确度较低。为了解决该问题,在本申请实施例中,可以预先针对不同的对象,确定其脸部区域、头部区域和上半身区域,并将确定出的多个区域与对象的身份信息进行绑定,从而在对目标对象进行识别时,可以结合目标对象的目标区域,以提高识别准确度。
在一种可选的实施例中,可以利用现有的图像分割算法对第一图像数据进行处理,得到目标对象的目标图像,并基于获取到的目标区域进行跟踪,确定目标对象的当前姿态,进而基于当前姿态对目标图像进行识别,得到目标对象的行为数据和表情数据。
在本申请上述实施例中,基于目标区域对目标图像进行识别,得到目标对象的行为数据包括如下至少之一:对目标图像进行行为识别,得到目标对象的第一行为数据;对目标对象的头部区域的图像进行识别,确定目标对象的头部姿态,并基于头部姿态,得到目标对象的第二行为数据;对目标对象的身体区域的图像进行识别,确定目标对象的行为序列,并基于行为序列中关键点的信息,得到目标对象的第三行为数据。
上述步骤中的第一行为数据可以是目标对象的静态动作,第二行为数据可以是目标对象转头的动作,第三行为数据可以是目标对象的动态动作,例如,以教学应用场景为例,第一行为数据可以是趴在桌子上、倒地、举手等,第二行为数据可以是交头接耳、回头等,第三行为数据可以是传递卷子、抛物等,但不仅限于此。
由于一个区域中用户众多且密集,在有限的计算资源下为了提高速度和准确度,可以采用多分支目标检测算法时序动作识别结合的方式来实现,但不仅限于此。
在一种可选的实施例中,以识别出三种行为数据为例进行说明。可以利用现有的行为识别算法对目标图像进行行为识别,确定目标对象的行为类别,进而得到第一行为数据。也可以通过姿态估计算法对目标对象的头部区域进行跟踪,估计目标对象的头部姿态,判断目标对象是否存在转头的行为,进而得到第二行为数据。还可以通过时序动作识别算法以及人体关键点定位算法对目标对象的上半身区域进行跟踪,识别出目标对象的连续动作,进而得到第三行为数据。
需要说明的是,对于目标对象的第一行为数据,在一种可选的实施例中,可以在获取到第一图像数据之后,直接利用现有的行为识别算法对第一图像数据进行识别,确定目标对象的行为类别,并通过行为特征从特征库中搜索到相应的身份信息,进而得到第一行为数据。
在本申请上述实施例中,基于目标区域对目标图像进行识别,得到目标对象的表情数据包括:对目标对象的脸部区域的图像进行处理,得到目标对象的脸部数据,其中,脸部数据包括如下之一:脸部角度和脸部评分值;基于脸部数据确定目标对象的目标脸部图像;对目标脸部图像进行识别,得到表情数据。
上述步骤中的人脸角度可以表征人脸姿态,从而可以确定采集到的人脸图像是否为侧脸图像。脸部评分值可以表征脸部质量,从而可以确定采集到的人脸图像的分辨率,进而可以确保表情识别的准确度。
上述步骤中的目标脸部图像可以是多次扫描得到的脸部图像中,能够满足表情识别需求的脸部图像,该脸部图像的质量最好,且脸部角度最小。
由于摄像机角度和分辨率的原因,使得远处以及边侧的学生脸部区域存在畸变、侧脸、模糊等问题,在一种可选的实施例中,可以利用现有的姿态估计算法对目标对象的脸部区域进行跟踪,估计目标对象的脸部质量,并计算出人脸角度,进而基于上述脸部属于提取出质量好的目标脸部图像进行识别,可以利用现有的表情识别算法进行识别,得到目标对象的表情数据。
下面结合图3和图4以教学应用场景为例对本申请一种优选的实施例进行说明,如图3所示,可以采用两路动点摄像机分别在距离两侧墙面1/4处排布,根据摄像机的视场角和分辨率、教室的尺寸以及允许的最短巡航时间来将教室划分为多个区域,确保覆盖整个教室,如图3中虚线所示,可以将教室划分为三个区域,分别通过两个摄像机采集两个区域的图像数据。
如图4所示,该方法可以包括如下步骤:可以通过教室中布置的动点摄像机采集不同区域的图像数据,对采集到的图像数据进行目标检测,确定目标的脸框、头框、半身框进行绑定,并通过特征提取和身份识别,构建全区域的特征库。
特征库在线构建完成之后,可以继续获取动点摄像机采集到的图像数据,对图像数据进行目标检测,并进行特征提取,提取出目标的特征后,可以通过搜索算法从特征库中确定该目标的身份,将其与目标进行绑定。
可以通过脸框跟踪,对目标进行人脸姿态估计和质量评估,进而提取出质量较好的人脸图像,通过对人脸图像进行表情识别和身份识别,得到相应的识别结果;通过头框跟踪,对目标进行头部姿态估计,进而得到行为输出;通过半身框跟踪,对目标进行时序动作识别和人体关键点识别,可以得到行为数据。另外,可以对图像数据进行行为识别,并将行为特征与身份信息进行匹配,确定行为类别,得到行为输出。
通过对多摄像机和多区域的输出数据进行融合,可以得到最终的统计报告。
通过上述方案,提供了一种针对大型教室的智能识别系统,采用动点变焦摄像机对教室不同区域循环采集数据,确保在合理的时间间隔内采集到教室内所有位置,并通过智能识别算法,可以实现学生的行为和表情分析,以及无感签到的功能,依靠强大的云计算和AI算法实现自动识别每个学生的学习和生活情况,并通过大数据分析统计学生状况以及教学质量。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本申请各个实施例所述的方法。
实施例2
根据本申请实施例,还提供了一种图像处理方法。
图5是根据本申请实施例的第二种图像处理方法的流程图。如图5所示,该方法还包括如下步骤:
步骤S502,获取第一图像数据;
可选地,上述步骤中的第一图像数据可以由部署在预设位置的至少一个动点摄像机采集。上述的预设位置可以基于动点摄像机的数量,安装动点摄像机的整个区域的尺寸,以及具体应用场景来确定。
步骤S504,接收客户端输入的目标对象;
上述步骤中的目标对象可以是需要查看具体情况的用户,但不仅限于此。
步骤S506,获取特征库中存储的目标对象的目标特征,其中,特征库中存储有预设区域中的至少一个对象的特征与至少一个对象的身份信息的对应关系;
上述步骤中的目标特征可以是能够对目标对象的身份进行识别的特征。预设区域可以是安装动点摄像机的区域。至少一个对象可以是预设区域中的所有用户,但不仅限于此。身份信息可以是能够唯一标识用户的标识信息。
步骤S508,基于目标对象的目标特征,确定第一图像数据中目标对象的目标图像;
上述步骤中的目标图像可以是目标对象的整体图像。
步骤S510,展示目标对象的目标图像。
基于本申请上述实施例提供的方案,在获取到第一图像数据,并接收到客户端输入的目标对象之后,可以获取特征库中存储的目标对象的目标特征,进一步基于目标对象的目标特征,确定第一图像数据中目标对象的目标图像,并将其进行展示,从而实现密集人群下的身份识别的目的。容易注意到的是,在接收到目标对象之后,可以通过将其与特征库中存储的至少一个对象的特征进行匹配,得到目标对象的目标特征,无需将身份信息与位置进行绑定,从而达到了提高鲁棒性,提升处理准确率的技术效果,进而解决了相关技术中图像处理方法的实现需要将对象和位置进行绑定,鲁棒性不高的技术问题。
在本申请上述实施例中,该方法还包括如下步骤:获取目标对象的目标区域,其中,目标区域包括如下至少之一:脸部区域、头部区域和身体区域;基于目标区域对目标图像进行识别,得到目标对象的识别结果,其中,识别结果包括如下至少之一:行为数据和表情数据;展示目标对象的识别结果。
在本申请上述实施例中,基于目标区域对目标图像进行识别,得到目标对象的行为数据包括如下至少之一:对目标图像进行行为识别,得到目标对象的第一行为数据;对目标对象的头部区域的图像进行识别,确定目标对象的头部姿态,并基于头部姿态,得到目标对象的第二行为数据;对目标对象的身体区域的图像进行识别,确定目标对象的行为序列,并基于行为序列中关键点的信息,得到目标对象的第三行为数据。
在本申请上述实施例中,基于目标区域对目标图像进行识别,得到目标对象的表情数据包括:对目标对象的脸部区域的图像进行处理,得到目标对象的脸部数据,其中,脸部数据包括如下之一:脸部角度和脸部评分值;基于脸部数据确定目标对象的目标脸部图像;对目标脸部图像进行识别,得到表情数据。
在本申请上述实施例中,该方法还包括如下步骤:将预设区域划分为多个区域;获取多个区域的第二图像数据,其中,第二图像数据包括至少一个对象;提取出至少一个对象的特征,以及至少一个对象的人脸图像;对至少一个对象的人脸图像进行识别,确定至少一个对象的身份信息;将至少一个对象的特征和至少一个对象的身份信息进行对应存储至特征库。
可选地,动点摄像机可以循环采集多个区域的图像数据。上述的多个区域可以基于如下至少之一信息确定:动点摄像机的采集区域,预设区域的尺寸,和动点摄像机的扫描时间。上述的采集区域可以是动点摄像机的可覆盖范围。上述的扫描时间可以是图像数据采集所允许的最短巡航时间,也即,扫描整个预设区域所需的时间。
需要说明的是,本申请上述实施例中涉及到的优选实施方案与实施例1提供的方案以及应用场景、实施过程相同,但不仅限于实施例1所提供的方案。
实施例3
根据本申请实施例,还提供了一种图像处理方法。
图6是根据本申请实施例的第三种图像处理方法的流程图。如图6所示,该方法还包括如下步骤:
步骤S602,在操作界面上显示第一图像数据;
上述步骤中的操作界面可以是提供给用户查看图像数据和目标对象的目标图像的界面,例如,如图7所示,该操作界面可以分为输入区域和显示区域,输入区域用于输入目标对象的身份信息;显示区域用于显示图像数据,以及目标对象的目标图像。
可选地,上述步骤中的第一图像数据可以由部署在预设位置的至少一个动点摄像机采集。上述的预设位置可以基于动点摄像机的数量,安装动点摄像机的整个区域的尺寸,以及具体应用场景来确定。
步骤S604,在操作界面的输入区域中输入目标对象;
上述步骤中的目标对象可以是需要查看具体情况的用户,但不仅限于此。
步骤S606,在从特征库中获取到目标对象的至少一个目标特征的情况下,在操作界面上展示从第一图像数据中确定的目标对象的目标图像;
其中,目标图像由目标对象的目标特征来确定,特征库中存储有预设区域中的至少一个对象的特征与至少一个对象的身份信息的对应关系。
上述步骤中的目标特征可以是能够对目标对象的身份进行识别的特征。预设区域可以是安装动点摄像机的区域。至少一个对象可以是预设区域中的所有用户,但不仅限于此。身份信息可以是能够唯一标识用户的标识信息。
上述步骤中的目标图像可以是目标对象的整体图像。
基于本申请上述实施例提供的方案,在获取到第一图像数据,并接收到输入的目标对象之后,可以获取特征库中存储的目标对象的目标特征,进一步基于目标对象的目标特征,确定第一图像数据中目标对象的目标图像,并将其进行展示,从而实现密集人群下的身份识别的目的。容易注意到的是,在接收到目标对象之后,可以通过将其与特征库中存储的至少一个对象的特征进行匹配,得到目标对象的目标特征,无需将身份信息与位置进行绑定,从而达到了提高鲁棒性,提升处理准确率的技术效果,进而解决了相关技术中图像处理方法的实现需要将对象和位置进行绑定,鲁棒性不高的技术问题。
在本申请上述实施例中,该方法还包括如下步骤:在操作界面上展示目标对象的识别结果;
其中,识别结果是对目标对象的目标区域的图像进行识别得到,目标区域包括如下至少之一:脸部区域、头部区域和身体区域,识别结果包括如下至少之一:行为数据和表情数据。
在本申请上述实施例中,基于目标对象的目标区域对目标图像进行识别包括如下至少之一:对目标图像进行行为识别,得到目标对象的第一行为数据;对目标对象的头部区域的图像进行识别,确定目标对象的头部姿态,并基于头部姿态,得到目标对象的第二行为数据;对目标对象的身体区域的图像进行识别,确定目标对象的行为序列,并基于行为序列中关键点的信息,得到目标对象的第三行为数据。
在本申请上述实施例中,基于目标对象的目标区域对目标图像进行识别包括:对目标对象的脸部区域的图像进行处理,得到目标对象的脸部数据,其中,脸部数据包括如下之一:脸部角度和脸部评分值;基于脸部数据确定目标对象的目标脸部图像;对目标脸部图像进行识别,得到表情数据。
在本申请上述实施例中,该方法还包括如下步骤:将预设区域划分为多个区域;获取多个区域的第二图像数据,其中,第二图像数据包括至少一个对象;提取出至少一个对象的特征,以及至少一个对象的人脸图像;对至少一个对象的人脸图像进行识别,确定至少一个对象的身份信息;将至少一个对象的特征和至少一个对象的身份信息进行对应存储至特征库。
需要说明的是,本申请上述实施例中涉及到的优选实施方案与实施例1提供的方案以及应用场景、实施过程相同,但不仅限于实施例1所提供的方案。
实施例4
根据本申请实施例,还提供了一种图像处理方法。
图8是根据本申请实施例的第四种图像处理方法的流程图。如图8所示,该方法还包括如下步骤:
步骤S802,在显示面板上投屏第一图像数据;
上述步骤中的显示面板可以是用户的移动终端的显示屏,但不仅限于此,该显示面板上可以提供给用户查看图像数据和目标对象的目标图像的界面。
可选地,上述步骤中的第一图像数据可以由部署在预设位置的至少一个动点摄像机采集。上述的预设位置可以基于动点摄像机的数量,安装动点摄像机的整个区域的尺寸,以及具体应用场景来确定。
步骤S804,显示面板的输入区域中捕获到目标对象;
上述步骤中的目标对象可以是需要查看具体情况的用户,但不仅限于此。
步骤S806,在获取到目标对象的至少一个目标特征的情况下,在显示面板上展示目标对象的目标图像;
其中,目标图像由目标对象的目标特征来确定。
上述步骤中的目标特征可以是能够对目标对象的身份进行识别的特征。至少一个对象可以是预设区域中的所有用户,但不仅限于此。上述步骤中的预设区域可以是安装动点摄像机的区域。身份信息可以是能够唯一标识用户的标识信息。
上述步骤中的目标图像可以是目标对象的整体图像。
可选地,至少一个目标特征可以从特征库中获取,其中,特征库中存储有预设区域中的至少一个对象的特征与至少一个对象的身份信息的对应关系。
在本申请上述实施例中,该方法还包括如下步骤:在显示面板上展示目标对象的识别结果;
其中,识别结果是对目标对象的目标区域的图像进行识别得到,目标区域包括如下至少之一:脸部区域、头部区域和身体区域,识别结果包括如下至少之一:行为数据和表情数据。
在本申请上述实施例中,基于目标对象的目标区域对目标图像进行识别包括如下至少之一:对目标图像进行行为识别,得到目标对象的第一行为数据;对目标对象的头部区域的图像进行识别,确定目标对象的头部姿态,并基于头部姿态,得到目标对象的第二行为数据;对目标对象的身体区域的图像进行识别,确定目标对象的行为序列,并基于行为序列中关键点的信息,得到目标对象的第三行为数据。
在本申请上述实施例中,基于目标对象的目标区域对目标图像进行识别包括:对目标对象的脸部区域的图像进行处理,得到目标对象的脸部数据,其中,脸部数据包括如下之一:脸部角度和脸部评分值;基于脸部数据确定目标对象的目标脸部图像;对目标脸部图像进行识别,得到表情数据。
在本申请上述实施例中,该方法还包括如下步骤:将预设区域划分为多个区域;获取多个区域的第二图像数据,其中,第二图像数据包括至少一个对象;提取出至少一个对象的特征,以及至少一个对象的人脸图像;对至少一个对象的人脸图像进行识别,确定至少一个对象的身份信息;将至少一个对象的特征和至少一个对象的身份信息进行对应存储至特征库。
需要说明的是,本申请上述实施例中涉及到的优选实施方案与实施例1提供的方案以及应用场景、实施过程相同,但不仅限于实施例1所提供的方案。
实施例5
根据本申请实施例,还提供了一种用于实施上述图像处理方法的图像处理装置,如图9所示,该装置900包括:第一获取模块902、第一处理模块904和匹配模块906。
其中,第一获取模块902用于获取第一图像数据,其中,第一图像数据包括目标对象;处理模块904用于提取出目标对象的目标特征;匹配模块906用于以目标特征,检索特征库,得到目标对象的身份信息,其中,特征库中存储有预设区域中的至少一个对象的特征与至少一个对象的身份信息的对应关系。
此处需要说明的是,上述第一获取模块902、第一处理模块904和匹配模块906对应于实施例1中的步骤S202至步骤S206,三个模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例1所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例1提供的计算机终端10中。
在本申请上述实施例中,该装置还包括:划分模块、第一识别模块和存储模块。
其中,划分模块用于将预设区域划分为多个区域;第一获取模块还用于获取多个区域的第二图像数据,其中,第二图像数据包括至少一个对象;第一处理模块还用于提取出至少一个对象的特征,以及至少一个对象的人脸图像;第一识别模块用于对至少一个对象的人脸图像进行识别,确定至少一个对象的身份信息;存储模块用于将至少一个对象的特征和至少一个对象的身份信息进行对应存储至特征库。
在本申请上述实施例中,该装置还包括:第二获取模块和第二识别模块。
其中,第一处理模块还用于提取出与目标特征相匹配的目标图像;第二获取模块用于获取目标对象的目标区域,其中,目标区域包括如下至少之一:脸部区域、头部区域和身体区域;第二识别模块用于基于目标区域对目标图像进行识别,得到目标对象的识别结果,其中,识别结果包括如下至少之一:行为数据和表情数据。
在本申请上述实施例中,第二识别模块包括如下至少之一:第一识别单元、第二识别单元和第三识别单元。
其中,第一识别单元用于对目标图像进行行为识别,得到目标对象的第一行为数据;第二识别单元用于对目标对象的头部区域的图像进行识别,确定目标对象的头部姿态,并基于头部姿态,得到目标对象的第二行为数据;第三识别单元用于对目标对象的身体区域的图像进行识别,确定目标对象的行为序列,并基于行为序列中关键点的信息,得到目标对象的第三行为数据。
在本申请上述实施例中,第二识别模块包括:处理单元、确定单元和第四识别单元。
其中,处理单元用于对目标对象的脸部区域的图像进行处理,得到目标对象的脸部数据,其中,脸部数据包括如下之一:脸部角度和脸部评分值;确定单元用于基于脸部数据确定目标对象的目标脸部图像;第四识别单元用于对目标脸部图像进行识别,得到表情数据。
需要说明的是,本申请上述实施例中涉及到的优选实施方案与实施例1提供的方案以及应用场景、实施过程相同,但不仅限于实施例1所提供的方案。
实施例6
根据本申请实施例,还提供了一种用于实施上述图像处理方法的图像处理装置,如图10所示,该装置1000包括:第一获取模块1002、接收模块1004、第二获取模块1006、确定模块1008和展示模块1010。
其中,第一获取模块1002用于获取第一图像数据;接收模块1004用于接收客户端输入的目标对象;第二获取模块1006用于获取特征库中存储的目标对象的目标特征,其中,特征库中存储有预设区域中的至少一个对象的特征与至少一个对象的身份信息的对应关系,至少一个对象位于多个区域中;确定模块1008用于基于目标对象的目标特征,确定第一图像数据中目标对象的目标图像;展示模块1010用于展示目标对象的目标图像。
此处需要说明的是,上述第一获取模块1002、接收模块1004、第二获取模块1006、确定模块1008和展示模块1010对应于实施例2中的步骤S502至步骤S510,五个模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例1所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例1提供的计算机终端10中。
在本申请上述实施例中,该装置还包括:第三获取模块和第一识别模块。
其中,第三获取模块用于获取目标对象的目标区域,其中,目标区域包括如下至少之一:脸部区域、头部区域和身体区域;第一识别模块用于基于目标区域对目标图像进行识别,得到目标对象的识别结果,其中,识别结果包括如下至少之一:行为数据和表情数据;展示模块还用于展示目标对象的识别结果。
在本申请上述实施例中,第一识别模块包括如下至少之一:第一识别单元、第二识别单元和第三识别单元。
其中,第一识别单元用于对目标图像进行行为识别,得到目标对象的第一行为数据;第二识别单元用于对目标对象的头部区域的图像进行识别,确定目标对象的头部姿态,并基于头部姿态,得到目标对象的第二行为数据;第三识别单元用于对目标对象的身体区域的图像进行识别,确定目标对象的行为序列,并基于行为序列中关键点的信息,得到目标对象的第三行为数据。
在本申请上述实施例中,第一识别模块包括:处理单元、确定单元和第四识别单元。
其中,处理单元用于对目标对象的脸部区域的图像进行处理,得到目标对象的脸部数据,其中,脸部数据包括如下之一:脸部角度和脸部评分值;确定单元用于基于脸部数据确定目标对象的目标脸部图像;第四识别单元用于对目标脸部图像进行识别,得到表情数据。
在本申请上述实施例中,该装置还包括:划分模块、第一处理模块、第二识别模块和存储模块。
其中,划分模块用于将预设区域划分为多个区域;第一获取模块还用于获取多个区域的第二图像数据,其中,第二图像数据包括至少一个对象;第一处理模块用于对第二图像数据进行处理,提取出至少一个对象的特征,以及至少一个对象的人脸图像;第二识别模块用于对至少一个对象的人脸图像进行识别,确定至少一个对象的身份信息;存储模块用于将至少一个对象的特征和至少一个对象的身份信息进行对应存储至特征库。
需要说明的是,本申请上述实施例中涉及到的优选实施方案与实施例1提供的方案以及应用场景、实施过程相同,但不仅限于实施例1所提供的方案。
实施例7
根据本申请实施例,还提供了一种用于实施上述图像处理方法的图像处理装置,如图11所示,该装置1100包括:第一显示模块1102、输入模块1104和第二显示模块1106。
其中,第一显示模块1102用于在操作界面上显示第一图像数据;输入模块1104用于在操作界面的输入区域中输入目标对象;第二显示模块1106用于在从特征库中获取到目标对象的至少一个目标特征的情况下,在操作界面上展示从第一图像数据中确定的目标对象的目标图像;其中,目标图像由目标对象的目标特征来确定,特征库中存储有预设区域中的至少一个对象的特征与至少一个对象的身份信息的对应关系。
此处需要说明的是,上述第一显示模块1102、输入模块1104和第二显示模块1106对应于实施例3中的步骤S602至步骤S606,三个模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例1所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例1提供的计算机终端10中。
在本申请上述实施例中,该装置还包括:第三显示模块。
其中,第三显示模块用于在操作界面上展示目标对象的识别结果;其中,识别结果是对目标对象的目标区域的图像进行识别得到,目标区域包括如下至少之一:脸部区域、头部区域和身体区域,识别结果包括如下至少之一:行为数据和表情数据。
在本申请上述实施例中,该装置还包括:划分模块、获取模块、处理模块、识别模块和存储模块。
其中,划分模块用于将预设区域划分为多个区域;获取模块用于获取多个区域的第二图像数据,其中,第二图像数据包括至少一个对象;处理模块用于提取出至少一个对象的特征,以及至少一个对象的人脸图像;识别模块用于对至少一个对象的人脸图像进行识别,确定至少一个对象的身份信息;存储模块用于将至少一个对象的特征和至少一个对象的身份信息进行对应存储至特征库。
需要说明的是,本申请上述实施例中涉及到的优选实施方案与实施例1提供的方案以及应用场景、实施过程相同,但不仅限于实施例1所提供的方案。
实施例8
根据本申请实施例,还提供了一种用于实施上述图像处理方法的图像处理装置,如图12所示,该装置1200包括:第一投屏模块1202、捕获模块1204和展示模块1206。
其中,第一投屏模块1202用于在显示面板上投屏第一图像数据;捕获模块1204用于显示面板的输入区域中捕获到目标对象;展示模块1206用于在获取到目标对象的至少一个目标特征的情况下,在显示面板上展示目标对象的目标图像;其中,目标图像由目标对象的目标特征来确定。
此处需要说明的是,上述第一投屏模块1202、捕获模块1204和展示模块1206对应于实施例4中的步骤S802至步骤S806,三个模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例1所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例1提供的计算机终端10中。
在本申请上述实施例中,该装置还包括:划分模块、获取模块、处理模块、识别模块和存储模块。
其中,划分模块用于将预设区域划分为多个区域;获取模块用于获取多个区域的第二图像数据,其中,第二图像数据包括至少一个对象;处理模块用于提取出至少一个对象的特征,以及至少一个对象的人脸图像;识别模块用于对至少一个对象的人脸图像进行识别,确定至少一个对象的身份信息;存储模块用于将至少一个对象的特征和至少一个对象的身份信息进行对应存储至特征库。
需要说明的是,本申请上述实施例中涉及到的优选实施方案与实施例1提供的方案以及应用场景、实施过程相同,但不仅限于实施例1所提供的方案。
实施例9
根据本申请实施例,还提供了一种图像处理系统,包括:
处理器;以及
存储器,与处理器连接,用于为处理器提供处理以下处理步骤的指令:获取第一图像数据,其中,第一图像数据包括目标对象;提取出目标对象的目标特征;以目标特征,检索特征库,得到目标对象的身份信息,其中,特征库中存储有预设区域中的至少一个对象的特征与至少一个对象的身份信息的对应关系。
需要说明的是,本申请上述实施例中涉及到的优选实施方案与实施例1提供的方案以及应用场景、实施过程相同,但不仅限于实施例1所提供的方案。
实施例10
本申请的实施例可以提供一种计算机终端,该计算机终端可以是计算机终端群中的任意一个计算机终端设备。可选地,在本实施例中,上述计算机终端也可以替换为移动终端等终端设备。
可选地,在本实施例中,上述计算机终端可以位于计算机网络的多个网络设备中的至少一个网络设备。
在本实施例中,上述计算机终端可以执行图像处理方法中以下步骤的程序代码:获取第一图像数据,其中,第一图像数据包括目标对象;提取出目标对象的目标特征;以目标特征,检索特征库,得到目标对象的身份信息,其中,特征库中存储有预设区域中的至少一个对象的特征与至少一个对象的身份信息的对应关系。
可选地,图13是根据本申请实施例的一种计算机终端的结构框图。如图13所示,该计算机终端A可以包括:一个或多个(图中仅示出一个)处理器1302、以及存储器1304。
其中,存储器可用于存储软件程序以及模块,如本申请实施例中的图像处理方法和装置对应的程序指令/模块,处理器通过运行存储在存储器内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的图像处理方法。存储器可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器可进一步包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至终端A。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
处理器可以通过传输装置调用存储器存储的信息及应用程序,以执行下述步骤:获取第一图像数据,其中,第一图像数据包括目标对象;提取出目标对象的目标特征;以目标特征,检索特征库,得到目标对象的身份信息,其中,特征库中存储有预设区域中的至少一个对象的特征与至少一个对象的身份信息的对应关系。
可选的,上述处理器还可以执行如下步骤的程序代码:将预设区域划分为多个区域;获取多个区域的第二图像数据,其中,第二图像数据包括至少一个对象;提取出至少一个对象的特征,以及至少一个对象的人脸图像;对至少一个对象的人脸图像进行识别,确定至少一个对象的身份信息;将至少一个对象的特征和至少一个对象的身份信息进行对应存储至特征库。
可选的,上述处理器还可以执行如下步骤的程序代码:在以目标特征,检索特征库,得到目标对象的身份信息之后,提取出与目标特征相匹配的目标图像;获取目标对象的目标区域,其中,目标区域包括如下至少之一:脸部区域、头部区域和身体区域;基于目标区域对目标图像进行识别,得到目标对象的识别结果,其中,识别结果包括如下至少之一:行为数据和表情数据。
可选的,上述处理器还可以执行如下步骤的程序代码:对目标图像进行行为识别,得到目标对象的第一行为数据;和/或对目标对象的头部区域的图像进行识别,确定目标对象的头部姿态,并基于头部姿态,得到目标对象的第二行为数据;和/或对目标对象的身体区域的图像进行识别,确定目标对象的行为序列,并基于行为序列中关键点的信息,得到目标对象的第三行为数据。
可选的,上述处理器还可以执行如下步骤的程序代码:对目标对象的脸部区域的图像进行处理,得到目标对象的脸部数据,其中,脸部数据包括如下之一:脸部角度和脸部评分值;基于脸部数据确定目标对象的目标脸部图像;对目标脸部图像进行识别,得到表情数据。
采用本申请实施例,提供了一种图像处理的方案。在提取出目标特征之后,可以通过将其与特征库中存储的至少一个对象的特征进行匹配,得到目标对象的身份信息,无需将身份信息与位置进行绑定,从而达到了提高鲁棒性,提升处理准确率的技术效果,进而解决了相关技术中图像处理方法的实现需要将对象和位置进行绑定,鲁棒性不高的技术问题。
处理器可以通过传输装置调用存储器存储的信息及应用程序,以执行下述步骤:获取第一图像数据;接收客户端输入的目标对象;获取特征库中目标对象的目标特征,其中,特征库中存储有预设区域中的至少一个对象的特征与至少一个对象的身份信息的对应关系;基于目标对象的目标特征,确定第一图像数据中目标对象的目标图像;展示目标对象的目标图像。
可选的,上述处理器还可以执行如下步骤的程序代码:获取目标对象的目标区域,其中,目标区域包括如下至少之一:脸部区域、头部区域和身体区域;基于目标区域对目标图像进行识别,得到目标对象的识别结果,其中,识别结果包括如下至少之一:行为数据和表情数据;展示目标对象的识别结果。
处理器可以通过传输装置调用存储器存储的信息及应用程序,以执行下述步骤:在操作界面上显示第一图像数据;在操作界面的输入区域中输入目标对象;在从特征库中获取到目标对象的至少一个目标特征的情况下,在操作界面上展示从第一图像数据中确定的目标对象的目标图像;其中,目标图像由目标对象的目标特征来确定,特征库中存储有预设区域中的至少一个对象的特征与至少一个对象的身份信息的对应关系。
可选的,上述处理器还可以执行如下步骤的程序代码:在操作界面上展示目标对象的识别结果;其中,识别结果是对目标对象的目标区域的图像进行识别得到,目标区域包括如下至少之一:脸部区域、头部区域和身体区域,识别结果包括如下至少之一:行为数据和表情数据。
处理器可以通过传输装置调用存储器存储的信息及应用程序,以执行下述步骤:在显示面板上投屏第一图像数据;显示面板的输入区域中捕获到目标对象;在获取到目标对象的至少一个目标特征的情况下,在显示面板上展示目标对象的目标图像;其中,目标图像由目标对象的目标特征来确定。
可选的,上述处理器还可以执行如下步骤的程序代码:在显示面板上展示目标对象的识别结果;其中,识别结果是对目标对象的目标区域的图像进行识别得到,目标区域包括如下至少之一:脸部区域、头部区域和身体区域,识别结果包括如下至少之一:行为数据和表情数据。
本领域普通技术人员可以理解,图13所示的结构仅为示意,计算机终端也可以是智能手机(如Android手机、iOS手机等)、平板电脑、掌上电脑以及移动互联网设备(Mobi leInternet Devices,MID)、PAD等终端设备。图13其并不对上述电子装置的结构造成限定。例如,计算机终端A还可包括比图13中所示更多或者更少的组件(如网络接口、显示装置等),或者具有与图13所示不同的配置。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,ROM)、随机存取器(RandomAccess Memory,RAM)、磁盘或光盘等。
实施例11
本申请的实施例还提供了一种存储介质。可选地,在本实施例中,上述存储介质可以用于保存上述实施例所提供的图像处理方法所执行的程序代码。
可选地,在本实施例中,上述存储介质可以位于计算机网络中计算机终端群中的任意一个计算机终端中,或者位于移动终端群中的任意一个移动终端中。
可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:获取第一图像数据,其中,第一图像数据包括目标对象;提取出目标对象的目标特征;以目标特征,检索特征库,得到目标对象的身份信息,其中,特征库中存储有预设区域中的至少一个对象的特征与至少一个对象的身份信息的对应关系。
可选的,上述存储介质还被设置为存储用于执行以下步骤的程序代码:将预设区域划分为多个区域;获取多个区域的第二图像数据,其中,第二图像数据包括至少一个对象;提取出至少一个对象的特征,以及至少一个对象的人脸图像;对至少一个对象的人脸图像进行识别,确定至少一个对象的身份信息;将至少一个对象的特征和至少一个对象的身份信息进行对应存储至特征库。
可选的,上述存储介质还被设置为存储用于执行以下步骤的程序代码:在以目标特征,检索特征库,得到目标对象的身份信息之后,提取出与目标特征相匹配的目标图像;获取目标对象的目标区域,其中,目标区域包括如下至少之一:脸部区域、头部区域和身体区域;基于目标区域对目标图像进行识别,得到目标对象的识别结果,其中,识别结果包括如下至少之一:行为数据和表情数据。
可选的,上述存储介质还被设置为存储用于执行以下步骤的程序代码:对目标图像进行行为识别,得到目标对象的第一行为数据;和/或对目标对象的头部区域的图像进行识别,确定目标对象的头部姿态,并基于头部姿态,得到目标对象的第二行为数据;和/或对目标对象的身体区域的图像进行识别,确定目标对象的行为序列,并基于行为序列中关键点的信息,得到目标对象的第三行为数据。
可选的,上述存储介质还被设置为存储用于执行以下步骤的程序代码:对目标对象的脸部区域的图像进行处理,得到目标对象的脸部数据,其中,脸部数据包括如下之一:脸部角度和脸部评分值;基于脸部数据确定目标对象的目标脸部图像;对目标脸部图像进行识别,得到表情数据。
可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:获取第一图像数据;接收客户端输入的目标对象;获取特征库中目标对象的目标特征,其中,特征库中存储有预设区域中的至少一个对象的特征与至少一个对象的身份信息的对应关系;基于目标对象的目标特征,确定第一图像数据中目标对象的目标图像;展示目标对象的目标图像。
可选的,上述存储介质还被设置为存储用于执行以下步骤的程序代码:获取目标对象的目标区域,其中,目标区域包括如下至少之一:脸部区域、头部区域和身体区域;基于目标区域对目标图像进行识别,得到目标对象的识别结果,其中,识别结果包括如下至少之一:行为数据和表情数据;展示目标对象的识别结果。
可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:在操作界面上显示第一图像数据;在操作界面的输入区域中输入目标对象;在从特征库中获取到目标对象的至少一个目标特征的情况下,在操作界面上展示从第一图像数据中确定的目标对象的目标图像;其中,目标图像由目标对象的目标特征来确定,特征库中存储有预设区域中的至少一个对象的特征与至少一个对象的身份信息的对应关系。
可选的,上述存储介质还被设置为存储用于执行以下步骤的程序代码:在操作界面上展示目标对象的识别结果;其中,识别结果是对目标对象的目标区域的图像进行识别得到,目标区域包括如下至少之一:脸部区域、头部区域和身体区域,识别结果包括如下至少之一:行为数据和表情数据。
可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:在显示面板上投屏第一图像数据;显示面板的输入区域中捕获到目标对象;在获取到目标对象的至少一个目标特征的情况下,在显示面板上展示目标对象的目标图像;其中,目标图像由目标对象的目标特征来确定。
可选的,上述存储介质还被设置为存储用于执行以下步骤的程序代码:在显示面板上展示目标对象的识别结果;其中,识别结果是对目标对象的目标区域的图像进行识别得到,目标区域包括如下至少之一:脸部区域、头部区域和身体区域,识别结果包括如下至少之一:行为数据和表情数据。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
在本申请的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。
Claims (15)
1.一种图像处理方法,包括:
获取第一图像数据,其中,所述第一图像数据包括目标对象;
提取出所述目标对象的目标特征;
以所述目标特征,检索特征库,得到所述目标对象的身份信息,其中,所述特征库中存储有预设区域中的至少一个对象的特征与所述至少一个对象的身份信息的对应关系。
2.根据权利要求1所述的方法,其中,所述方法还包括:
将所述预设区域划分为多个区域;
获取所述多个区域的第二图像数据,其中,所述第二图像数据包括所述至少一个对象;
提取出所述至少一个对象的特征,以及所述至少一个对象的人脸图像;
对所述至少一个对象的人脸图像进行识别,确定所述至少一个对象的身份信息;
将所述至少一个对象的特征和所述至少一个对象的身份信息进行对应存储至所述特征库。
3.根据权利要求2所述的方法,其中,在以所述目标特征,检索特征库中,得到所述目标对象的身份信息之后,所述方法还包括:
提取出与所述目标特征相匹配的目标图像;
获取所述目标对象的目标区域,其中,所述目标区域包括如下至少之一:脸部区域、头部区域和身体区域;
基于所述目标区域对所述目标图像进行识别,得到所述目标对象的识别结果,其中,所述识别结果包括如下至少之一:行为数据和表情数据。
4.根据权利要求3所述的方法,其中,基于所述目标区域对所述目标图像进行识别,得到所述目标对象的行为数据包括如下至少之一:
对所述目标图像进行行为识别,得到所述目标对象的第一行为数据;
对所述目标对象的头部区域的图像进行识别,确定所述目标对象的头部姿态,并基于所述头部姿态,得到所述目标对象的第二行为数据;
对所述目标对象的身体区域的图像进行识别,确定所述目标对象的行为序列,并基于所述行为序列中关键点的信息,得到所述目标对象的第三行为数据。
5.根据权利要求3所述的方法,其中,基于所述目标区域对所述目标图像进行识别,得到所述目标对象的表情数据包括:
对所述目标对象的脸部区域的图像进行处理,得到所述目标对象的脸部数据,其中,所述脸部数据包括如下之一:脸部角度和脸部评分值;
基于脸部数据确定所述目标对象的目标脸部图像;
对所述目标脸部图像进行识别,得到所述表情数据。
6.根据权利要求2所述的方法,其中,所述第一图像数据由部署在预设位置的至少一个动点摄像机采集,其中,所述动点摄像机循环采集所述多个区域的图像数据。
7.根据权利要求6所述的方法,其中,所述多个区域基于如下至少之一信息确定:所述动点摄像机的采集区域,所述预设区域的尺寸,和所述动点摄像机的扫描时间。
8.一种图像处理方法,包括:
获取第一图像数据;
接收客户端输入的目标对象;
获取特征库中存储的所述目标对象的目标特征,其中,所述特征库中存储有预设区域中的至少一个对象的特征与所述至少一个对象的身份信息的对应关系;
基于所述目标对象的目标特征,确定所述第一图像数据中所述目标对象的目标图像;
展示所述目标对象的目标图像。
9.根据权利要求8所述的方法,其中,所述方法还包括:
获取所述目标对象的目标区域,其中,所述目标区域包括如下至少之一:脸部区域、头部区域和身体区域;
基于所述目标区域对所述目标图像进行识别,得到所述目标对象的识别结果,其中,所述识别结果包括如下至少之一:行为数据和表情数据;
展示所述目标对象的识别结果。
10.根据权利要求8所述的方法,其中,所述方法还包括:
将所述预设区域划分为多个区域;
获取所述多个区域的第二图像数据,其中,所述第二图像数据包括所述至少一个对象;
提取出所述至少一个对象的特征,以及所述至少一个对象的人脸图像;
对所述至少一个对象的人脸图像进行识别,确定所述至少一个对象的身份信息;
将所述至少一个对象的特征和所述至少一个对象的身份信息进行对应存储至所述特征库。
11.一种图像处理方法,包括:
在操作界面上显示第一图像数据;
在操作界面的输入区域中输入目标对象;
在从特征库中获取到所述目标对象的目标特征的情况下,在所述操作界面上展示从所述第一图像数据中确定的所述目标对象的目标图像;
其中,所述目标图像由所述目标对象的目标特征来确定,所述特征库中存储有预设区域中的至少一个对象的特征与所述至少一个对象的身份信息的对应关系。
12.一种图像处理方法,包括:
在显示面板上投屏第一图像数据;
所述显示面板的输入区域中捕获到目标对象;
在获取到所述目标对象的至少一个目标特征的情况下,在所述显示面板上展示从所述第一图像数据中确定的所述目标对象的目标图像;
其中,所述目标图像由所述目标对象的目标特征来确定。
13.一种存储介质,所述存储介质包括存储的程序,其中,在所述程序运行时控制所述存储介质所在设备执行权利要求1至12中任意一项所述的图像处理方法。
14.一种计算设备,包括:存储器和处理器,所述处理器用于运行所述存储器中存储的程序,其中,所述程序运行时执行权利要求1至12中任意一项所述的图像处理方法。
15.一种图像处理系统,包括:
处理器;以及
存储器,与所述处理器连接,用于为所述处理器提供处理以下处理步骤的指令:获取第一图像数据,其中,所述第一图像数据包括目标对象;提取出目标对象的目标特征;以所述目标特征,检索特征库,得到所述目标对象的身份信息,其中,所述特征库中存储有预设区域中的至少一个对象的特征与所述至少一个对象的身份信息的对应关系。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010333591.XA CN113554046A (zh) | 2020-04-24 | 2020-04-24 | 图像处理方法和系统、存储介质及计算设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010333591.XA CN113554046A (zh) | 2020-04-24 | 2020-04-24 | 图像处理方法和系统、存储介质及计算设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113554046A true CN113554046A (zh) | 2021-10-26 |
Family
ID=78129673
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010333591.XA Pending CN113554046A (zh) | 2020-04-24 | 2020-04-24 | 图像处理方法和系统、存储介质及计算设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113554046A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023124448A1 (zh) * | 2021-12-27 | 2023-07-06 | 上海商汤智能科技有限公司 | 对象识别方法、系统、存储介质及程序 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106599881A (zh) * | 2016-12-30 | 2017-04-26 | 首都师范大学 | 学生状态的确定方法、装置及系统 |
CN108171207A (zh) * | 2018-01-17 | 2018-06-15 | 百度在线网络技术(北京)有限公司 | 基于视频序列的人脸识别方法和装置 |
WO2018133666A1 (zh) * | 2017-01-17 | 2018-07-26 | 腾讯科技(深圳)有限公司 | 视频目标跟踪方法和装置 |
WO2018192406A1 (zh) * | 2017-04-20 | 2018-10-25 | 腾讯科技(深圳)有限公司 | 身份验证方法及装置、存储介质 |
CN109089099A (zh) * | 2018-09-05 | 2018-12-25 | 广州维纳斯家居股份有限公司 | 图像处理方法、装置、设备及存储介质 |
CN109086669A (zh) * | 2018-06-29 | 2018-12-25 | 汉王科技股份有限公司 | 人脸识别身份验证方法、装置、电子设备 |
CN109389367A (zh) * | 2018-10-09 | 2019-02-26 | 苏州科达科技股份有限公司 | 人员考勤方法、装置及存储介质 |
CN109934182A (zh) * | 2019-03-18 | 2019-06-25 | 北京旷视科技有限公司 | 对象行为分析方法、装置、电子设备及计算机存储介质 |
CN110580470A (zh) * | 2019-09-12 | 2019-12-17 | 深圳壹账通智能科技有限公司 | 基于人脸识别的监测方法、装置、存储介质及计算机设备 |
CN110674664A (zh) * | 2018-06-15 | 2020-01-10 | 阿里巴巴集团控股有限公司 | 视觉注意力的识别方法及系统、存储介质、处理器 |
-
2020
- 2020-04-24 CN CN202010333591.XA patent/CN113554046A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106599881A (zh) * | 2016-12-30 | 2017-04-26 | 首都师范大学 | 学生状态的确定方法、装置及系统 |
WO2018133666A1 (zh) * | 2017-01-17 | 2018-07-26 | 腾讯科技(深圳)有限公司 | 视频目标跟踪方法和装置 |
WO2018192406A1 (zh) * | 2017-04-20 | 2018-10-25 | 腾讯科技(深圳)有限公司 | 身份验证方法及装置、存储介质 |
CN108171207A (zh) * | 2018-01-17 | 2018-06-15 | 百度在线网络技术(北京)有限公司 | 基于视频序列的人脸识别方法和装置 |
CN110674664A (zh) * | 2018-06-15 | 2020-01-10 | 阿里巴巴集团控股有限公司 | 视觉注意力的识别方法及系统、存储介质、处理器 |
CN109086669A (zh) * | 2018-06-29 | 2018-12-25 | 汉王科技股份有限公司 | 人脸识别身份验证方法、装置、电子设备 |
CN109089099A (zh) * | 2018-09-05 | 2018-12-25 | 广州维纳斯家居股份有限公司 | 图像处理方法、装置、设备及存储介质 |
CN109389367A (zh) * | 2018-10-09 | 2019-02-26 | 苏州科达科技股份有限公司 | 人员考勤方法、装置及存储介质 |
CN109934182A (zh) * | 2019-03-18 | 2019-06-25 | 北京旷视科技有限公司 | 对象行为分析方法、装置、电子设备及计算机存储介质 |
CN110580470A (zh) * | 2019-09-12 | 2019-12-17 | 深圳壹账通智能科技有限公司 | 基于人脸识别的监测方法、装置、存储介质及计算机设备 |
Non-Patent Citations (1)
Title |
---|
汤一平;严海东;: "非约束环境下人脸识别技术的研究", 浙江工业大学学报, no. 02, 15 April 2010 (2010-04-15) * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023124448A1 (zh) * | 2021-12-27 | 2023-07-06 | 上海商汤智能科技有限公司 | 对象识别方法、系统、存储介质及程序 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102626909B1 (ko) | 원격 재활 훈련 제공 방법 및 프로그램 | |
CN112287844B (zh) | 学情分析方法及装置、电子设备和存储介质 | |
EP2646948B1 (en) | User interface system and method of operation thereof | |
CN110674664A (zh) | 视觉注意力的识别方法及系统、存储介质、处理器 | |
CN109284737A (zh) | 一种用于智慧教室的学生行为分析和识别系统 | |
CN109376612B (zh) | 一种基于手势协助定位学习的方法和系统 | |
CN105354543A (zh) | 视频处理方法及装置 | |
US11934405B2 (en) | Method for monitoring user behavior when interacting with content and a system for its implementation | |
CN106547338A (zh) | 指令生成方法及装置 | |
CN104143163A (zh) | 一种知识地图的生成方法和装置 | |
CN111144356B (zh) | 一种远程教学的教师视线跟随方法及装置 | |
CN111368808A (zh) | 答题数据的采集方法、装置、系统和教学设备 | |
CN111382655A (zh) | 一种举手行为识别方法及装置、电子设备 | |
CN111160277A (zh) | 行为识别分析方法和系统、计算机可读存储介质 | |
JP6819194B2 (ja) | 情報処理システム、情報処理装置およびプログラム | |
CN110378261B (zh) | 一种学生识别方法及装置 | |
CN113554046A (zh) | 图像处理方法和系统、存储介质及计算设备 | |
CN113326747A (zh) | 教职工人脸识别考勤方法与系统 | |
CN111680179A (zh) | 目标数据的获取方法及装置、电子设备和存储介质 | |
Rajawat et al. | Face Recognition based Attendance System | |
CN110942033B (zh) | 用于推送信息的方法、装置、电子设备和计算机介质 | |
Surasak et al. | Application of Deep Learning on Student Attendance Checking in Virtual Classroom | |
Rahman et al. | The development of a face recognition-based mobile application for student attendance recording | |
Gopalakrishnan et al. | Online proctoring system using image processing and machine learning | |
CN116757524B (zh) | 一种教师授课质量评价方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |