WO2021051573A1 - 分渠道采集数据的唇语活体检测方法、系统和计算机设备 - Google Patents

分渠道采集数据的唇语活体检测方法、系统和计算机设备 Download PDF

Info

Publication number
WO2021051573A1
WO2021051573A1 PCT/CN2019/117766 CN2019117766W WO2021051573A1 WO 2021051573 A1 WO2021051573 A1 WO 2021051573A1 CN 2019117766 W CN2019117766 W CN 2019117766W WO 2021051573 A1 WO2021051573 A1 WO 2021051573A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
recording
video
permission
kernel
Prior art date
Application number
PCT/CN2019/117766
Other languages
English (en)
French (fr)
Inventor
吴磊
陈斌
宋晨
Original Assignee
平安科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 平安科技(深圳)有限公司 filed Critical 平安科技(深圳)有限公司
Publication of WO2021051573A1 publication Critical patent/WO2021051573A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • G10L15/25Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis

Definitions

  • the embodiments of the present application relate to the field of data collection, and in particular, to a method, system, computer device, and non-volatile computer-readable storage medium for lip-language detection in vivo for collecting data by channels.
  • an embodiment of the present application provides a method for detecting live lip language that collects data in different channels, and the method steps include:
  • the operating environment includes: an operating system type and an operating kernel type;
  • the lip in vivo detection including voice recognition, image framing, and lip movement detection;
  • the detection data it is determined whether the detection object is a living body.
  • an embodiment of the present application also provides a lip language living body detection system that collects data by channels, including:
  • the judging module is used to judge the operating environment of the user equipment, and the operating environment includes: an operating system type and an operating kernel type;
  • the matching module is used to match the corresponding data collection mode according to the operating environment, and execute the data collection task based on the data collection mode and the system resource authority corresponding to the data collection mode to obtain the initial data associated with the detection object ;
  • a processing module used to compress the initial data to obtain a compressed file, upload the compressed file to the background for format conversion processing, and obtain target data;
  • the execution module is configured to perform lip in vivo detection based on the target data to obtain detection data, the lip in vivo detection including voice recognition, image framing, and lip movement detection; and
  • the detection module is used for judging whether the detection object is a living body according to the detection data.
  • an embodiment of the present application further provides a computer device, the computer device including a memory, a processor, and computer-readable instructions stored in the memory and running on the processor, the When the computer-readable instructions are executed by the processor, the following steps are implemented:
  • the operating environment includes: an operating system type and an operating kernel type;
  • the lip in vivo detection including voice recognition, image framing, and lip movement detection;
  • the detection data it is determined whether the detection object is a living body.
  • the embodiments of the present application also provide a non-volatile computer-readable storage medium, the non-volatile computer-readable storage medium stores computer-readable instructions, and the computer-readable instructions may Is executed by at least one processor, so that the at least one processor executes the following steps:
  • the operating environment includes: an operating system type and an operating kernel type;
  • the lip in vivo detection including voice recognition, image framing, and lip movement detection;
  • the detection data it is determined whether the detection object is a living body.
  • the method, system, computer equipment, and non-volatile computer-readable storage medium for lip language in vivo detection provide an effective data collection method for lip language in vivo detection; in different device environments Through different data uploads and more time-consuming data transmission methods under the network environment, the efficiency of lip detection can be further improved.
  • FIG. 1 is a schematic flow chart of a method for detecting live lip language by collecting data by channels according to an embodiment of the present application.
  • Fig. 2 is a schematic diagram of the program modules of the second embodiment of the lip language living body detection system for collecting data in different channels according to this application.
  • FIG. 3 is a schematic diagram of the hardware structure of the third embodiment of the computer equipment of this application.
  • the computer device 2 will be used as an execution subject for exemplary description.
  • FIG. 1 there is shown a flow chart of the lip language living body detection method for collecting data by channels in an embodiment of the present application. It can be understood that the flowchart in this method embodiment is not used to limit the order of execution of the steps.
  • the following is an exemplary description with the computer device 2 as the execution subject. details as follows.
  • Step S100 Judging the operating environment of the user equipment, the operating environment including: operating system type and operating kernel type;
  • the judgment of the operating environment of the user equipment can be judged by the navigator.userAgent component; the operating system includes: iOS (iPhone OS mobile operating system), Android, windows, etc.; the operating kernel includes; qq Kernel, Safari kernel, IE kernel, etc.
  • step S100 may further include:
  • Step S100a generating data collection request information according to the operating environment
  • Step S100b sending the data collection request information to the user equipment
  • Step S100c receiving a collection confirmation instruction fed back by the user equipment
  • Step S100d Acquire the use authority of the data collector in the user equipment according to the collection confirmation instruction
  • step S100e the data collector is invoked according to the usage authority, wherein the data collector includes a video data collector, an image data collector, and an audio data collector; the usage authority includes the recording authority and image of the video data collector. The camera permission of the data collector and the recording permission of the audio data collector;
  • Step S100f Perform a data collection operation through the data collector to obtain initial data, where the initial data includes mov (audio, video file format) video data, jpg picture data, wav audio data and/or binary bytes Stream data.
  • initial data includes mov (audio, video file format) video data, jpg picture data, wav audio data and/or binary bytes Stream data.
  • Step S102 matching a corresponding data collection mode according to the operating environment, and executing a data collection task based on the data collection mode and the system resource authority corresponding to the data collection mode to obtain initial data associated with the detection object;
  • step S102 may further include:
  • Step S102a When the operating system type is the IOS system and the kernel type is the browser safari kernel, obtain the recording permission, and call the camera in the user equipment for video recording in real time through the video control interface to obtain the mov Video data;
  • Step S102b When the operating system type is the IOS system and the kernel type is the qq kernel, acquire the permission to take pictures and the permission to record, and call the user equipment through navigator.mediaDevices.getUserMedia (camera and video control interface) Camera camera and microphone perform image shooting and voice recording to obtain jpg picture data and wav audio data;
  • Step S102c when the operating system type is the IOS system and the kernel type is other kernels, obtain the recording permission and the recording permission, and call the camera and microphone of the user device through getUserMedia (hardware device media control interface), Perform video recording and sound recording to obtain binary byte stream data;
  • getUserMedia hardware device media control interface
  • Step S102d When the operating system type is the Android system and the kernel type is the WeChat kernel, obtain the permission to take pictures and the permission to record, and call the camera and microphone of the user equipment to perform image shooting and recording through navigator.mediaDevices.getUserMedia. Voice recording to obtain jpg picture data and wav audio data; and/or
  • Step S102e When the operating system type is the Android system and the kernel type is the browser kernel, obtain the recording permission and the recording permission, and call the camera and microphone of the user equipment through getUserMedia to perform video recording and voice recording To get binary byte stream data.
  • Step S104 compress the initial data to obtain a compressed file, upload the compressed file to the background for format conversion processing, and obtain target data;
  • the initial data is packaged and compressed to obtain a compressed file in *.zip format.
  • the conversion processing includes: converting the mov video data, jpg picture data, wav audio data, and binary byte stream data into mp4 video format data.
  • the target data is mp4 video format data.
  • the step S104 may further include:
  • Step S104a Perform a video format conversion operation on the mov video data to obtain mp4 video format data
  • Step S104b copy and expand the jpg picture data on the time axis to obtain multiple continuous single-frame image data, and perform a framing operation on the multiple continuous single-frame image data to obtain mp4 video format data;
  • Step S104c Transform the binary byte stream data through Blob (Blob Analysis) to obtain mp4 video format data.
  • Step S104 the step of converting the binary byte stream data through Blob to obtain mp4 video format data may further include:
  • Step S104c1 convert the binary byte stream into an array, and output a character string
  • Step S104c2 converting the character string into jpg image data
  • Step S104c3 copy and expand the jpg image data on the time axis to obtain multiple continuous single-frame image data
  • Step S104c4 Perform a framing operation on the multiple continuous single-frame image data to obtain mp4 video format data.
  • Step S106 Perform lip in vivo detection based on the target data to obtain detection data.
  • the lip in vivo detection includes voice recognition, image framing, and lip movement detection;
  • voice recognition is used to perform voice recognition on the voice signal, obtain language information corresponding to the voice signal, and perform matching calculation with a preset value
  • image framing is used to perform framing processing on the video signal, Obtain the position of the lips in each frame of the image after frame division
  • lip movement detection is used to detect the position of the lips in each frame of the image, calculate the trend of continuous frames, and obtain the corresponding language information of the continuous frame of images.
  • the living body detection also includes: material detection, which is used to identify the frame, reflective texture, moiré, image distortion, etc. of each frame of image, and calculate the confidence value of each judgment factor; for example, the electronic screen,
  • material detection which is used to identify the frame, reflective texture, moiré, image distortion, etc. of each frame of image, and calculate the confidence value of each judgment factor; for example, the electronic screen.
  • the features presented by special materials such as paper are detected, and as many as 30 factors such as moiré, linear borders, paper granularity, and facial distortion in the image are recognized, each detection factor is judged, and the electronic screen features and people are given priority when calculating the weight. Facial distortion features are weighted and averaged to ensure the result of live detection.
  • Step S108 judging whether the detection object is a living body according to the detection data.
  • the similarity value of the lip language living body detection data is calculated by a time alignment algorithm, the similarity value is used as one of the living body detection judgment factors, and the material and the lip language recognition confidence result are combined to determine the collected data Whether it was produced by a real person.
  • Fig. 2 is a schematic diagram of the program modules of the second embodiment of the lip language living body detection system for collecting data in different channels according to this application.
  • the lip in vivo detection system 20 may include or be divided into one or more program modules, one or more program modules are stored in a storage medium and executed by one or more processors to complete the application, and may Realize the above-mentioned living body detection method of lip language that collects data from different channels.
  • the program module referred to in the embodiments of the present application refers to a series of computer-readable instruction segments that can complete specific functions. The following description will specifically introduce the functions of each program module in this embodiment:
  • the judging module 200 is used to judge the operating environment of the user equipment.
  • the operating environment includes: an operating system type and an operating kernel type.
  • the judgment module 200 is further configured to: generate data collection request information according to the operating environment; send the data collection request information to the user equipment; receive a collection confirmation instruction fed back by the user equipment; Instructing to obtain the use authority of the data collector in the user equipment; call the data collector according to the use authority, wherein the data collector includes a video data collector, an image data collector, and an audio data collector;
  • the usage rights include the recording rights of the video data collector, the photographing rights of the image data collector, and the recording rights of the audio data collector; the data collection operation is performed through the data collector to obtain the initial data, wherein the initial data includes mov video data, jpg picture data, wav audio data and/or binary byte stream data.
  • the matching module 202 is configured to match the corresponding data collection mode according to the operating environment, and execute the data collection task based on the data collection mode and the system resource authority corresponding to the data collection mode, so as to obtain the initial data;
  • the matching module 202 is further configured to: when the operating system type is the IOS system and the kernel type is the browser safari kernel, obtain the video recording permission, and call the user equipment in real time through the video control interface
  • the camera in the system performs video recording to obtain mov video data; when the operating system type is the IOS system and the kernel type is the qq kernel, the camera permission and the recording permission are obtained, and the call is made through navigator.mediaDevices.getUserMedia
  • the camera camera and microphone of the user equipment perform image shooting and sound recording to obtain jpg picture data and wav audio data; when the operating system type is IOS system and the kernel type is other kernels, the recording permission and recording permission are obtained , And call the camera and microphone of the user equipment through getUserMedia to perform video recording and sound recording to obtain binary byte stream data; when the operating system type is the Android system and the kernel type is the WeChat kernel, get Take photographing permission and recording permission, and call the camera and microphone of the user equipment through navigator.mediaDevices
  • the processing module 204 is configured to compress the initial data to obtain a compressed file, upload the compressed file to the background for format conversion processing, and obtain target data;
  • the processing module 204 is further configured to: convert the mov video data, jpg picture data, wav audio data, and/or binary byte stream data into mp4 video format data, wherein: the mov video data is processed Video format conversion operation to obtain mp4 video format data; copy and expand jpg picture data on the time axis to obtain multiple continuous single-frame image data, and combine the multiple continuous single-frame image data , To obtain mp4 video format data; convert the binary byte stream data through Blob to obtain mp4 video format data.
  • the processing module 204 is further used to: convert the binary byte stream into an array and output a character string; convert the character string into jpg picture data; copy and expand the jpg picture data on the time axis to Obtain a plurality of continuous single-frame image data; and perform a framing operation on the plurality of continuous single-frame image data to obtain mp4 video format data.
  • the execution module 206 is configured to perform lip-language in vivo detection based on the target data to obtain detection data.
  • the lip-language in vivo detection includes voice recognition, image framing, and lip movement detection.
  • the detection module 208 is configured to determine whether the detection object is a living body according to the detection data.
  • the computer device 2 is a device that can automatically perform numerical calculation and/or information processing in accordance with pre-set or stored instructions.
  • the computer device 2 may be a rack server, a blade server, a tower server, or a cabinet server (including an independent server or a server cluster composed of multiple servers).
  • the computer device 2 at least includes, but is not limited to, a memory 21, a processor 22, a network interface 23, and a lip language living body detection system 20 that can communicate with each other through a system bus.
  • the memory 21 includes at least one type of non-volatile computer-readable storage medium, and the readable storage medium includes flash memory, hard disk, multimedia card, card-type memory (for example, SD or DX memory, etc.), Random access memory (RAM), static random access memory (SRAM), read only memory (ROM), electrically erasable programmable read only memory (EEPROM), programmable read only memory (PROM), magnetic memory, magnetic disk, optical disk Wait.
  • the memory 21 may be an internal storage unit of the computer device 2, for example, a hard disk or a memory of the computer device 2.
  • the memory 21 may also be an external storage device of the computer device 2, such as a plug-in hard disk, a smart media card (SMC), and a secure digital (Secure Digital, SD) card, flash card (Flash Card), etc.
  • the memory 21 may also include both the internal storage unit of the computer device 2 and its external storage device.
  • the memory 21 is generally used to store the operating system and various application software installed in the computer device 2, for example, the program code of the lip language living body detection system 20 that collects data by channels in the second embodiment.
  • the memory 21 can also be used to temporarily store various types of data that have been output or will be output.
  • the processor 22 may be a central processing unit (Central Processing Unit, CPU), a controller, a microcontroller, a microprocessor, or other data processing chips in some embodiments.
  • the processor 22 is generally used to control the overall operation of the computer device 2.
  • the processor 22 is used to run the program code stored in the memory 21 or process data, for example, to run the lip language living body detection system 20 that collects data by channel, so as to realize the lip language living body of the data collected by channel in the first embodiment. Detection method.
  • the network interface 23 may include a wireless network interface or a wired network interface, and the network interface 23 is generally used to establish a communication connection between the computer device 2 and other electronic devices.
  • the network interface 23 is used to connect the computer device 2 to an external terminal through a network, and to establish a data transmission channel and a communication connection between the computer device 2 and the external terminal.
  • the network may be Intranet, Internet, Global System of Mobile Communication (GSM), Wideband Code Division Multiple Access (WCDMA), 4G network, 5G Network, Bluetooth (Bluetooth), Wi-Fi and other wireless or wired networks.
  • FIG. 3 only shows the computer device 2 with components 20-23, but it should be understood that it is not required to implement all the components shown, and more or fewer components may be implemented instead.
  • the lip-language living body detection system 20 that collects data in different channels stored in the memory 21 can also be divided into one or more program modules, and the one or more program modules are stored in the memory 21, It is executed by one or more processors (the processor 22 in this embodiment) to complete the application.
  • FIG. 2 shows a schematic diagram of the program modules of the lip language living body detection system 20 that realizes data collection by channels according to the second embodiment of the present application.
  • the lip language living body detection system 20 that collects data by channels is It can be divided into a judgment module 200, a matching module 202, a processing module 204, an execution module 206, and a detection module 208.
  • the program module referred to in this application refers to a series of computer-readable instruction segments that can complete specific functions. The specific functions of the program modules 200-208 have been described in detail in the second embodiment, and will not be repeated here.
  • This embodiment also provides a non-volatile computer-readable storage medium, such as flash memory, hard disk, multimedia card, card-type memory (for example, SD or DX memory, etc.), random access memory (RAM), static random access memory ( SRAM), read-only memory (ROM), electrically erasable programmable read-only memory (EEPROM), programmable read-only memory (PROM), magnetic memory, magnetic disks, optical disks, servers, App application malls, etc., on which storage There are computer-readable instructions, and the corresponding functions are realized when the program is executed by the processor.
  • the non-volatile computer-readable storage medium of this embodiment is used in the lip language living body detection system 20 that collects data in different channels, and the processor executes the following steps:
  • the operating environment includes: an operating system type and an operating kernel type;
  • the lip in vivo detection including voice recognition, image framing, and lip movement detection;
  • the detection data it is determined whether the detection object is a living body.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

一种分渠道采集数据的唇语活体检测方法,所述方法包括:判断用户设备的运行环境,所述运行环境包括:运行系统类型和运行内核类型(S100);根据运行环境匹配相应的数据采集模式,并基于数据采集模式以及与数据采集模式对应的系统资源权限执行数据采集任务,以得到与检测对象关联的初始数据(S102);压缩初始数据以得到压缩文件,将压缩文件上传到后台进行转格式处理,得到目标数据(S104);基于目标数据执行唇语活体检测以得到检测数据,唇语活体检测包括语音识别、图像分帧以及唇动检测(S106);及根据检测数据判断检测对象是否为活体(S108)。该方法在不同的设备环境和网络环境下通过不同的数据上传和更省耗时的数据传输方式,从而进一步提高唇语检测效率。

Description

分渠道采集数据的唇语活体检测方法、系统和计算机设备
本申请申明2019年09月18日递交的申请号为201910883390.4、名称为“分渠道采集数据的唇语活体检测方法、系统和计算机设备”的中国专利申请的优先权,该中国专利申请的整体内容以参考的方式结合在本申请中。
技术领域
本申请实施例涉及数据采集领域,尤其涉及一种分渠道采集数据的唇语活体检测方法、系统、计算机设备及非易失性计算机可读存储介质。
背景技术
随着人工智能技术的普及,尤其计算机视觉人脸识别技术的大面积应用,赋能互联网应用技术,在线上身份核验,线下人脸追踪,人脸黑白红名单识别等场景中应用普遍。其中金融保险医疗行业,长久以来核心的个人业务系统,需要对业务办理人身份进行确认,在线上场景中往往面临的不但是判断本人是本人,更要判断本人是真人。移动互联网加速人脸识别落地应用,在电脑端、手机端、ATM、VTM等各类终端上,用户自助完成银行开户、卡激活、解绑、金融贷款申请、保险投保确认、电子合同签署、医保生存认证,利用活体检测技术确保操作人是真人,并确保是意识清晰、有意愿完成业务办理,变得极为重要。在当前唇语识别进行数据采集时需要消耗较多的数据流量,且在偏远地区弱网环境下无法顺利进行人脸识别社保业务办理,给业务办理人员带来了很大的困扰。
因此,如何在不同的前端设备环境和网络环境下,进行更省数据流量的数据上传和更省耗时的数据传输,从而进一步提高唇语检测效率,成为了当前要解决的技术问题之一。
发明内容
有鉴于此,有必要提供一种分渠道采集数据的唇语活体检测方法、系统、计算机设备及非易失性计算机可读存储介质,以解决在当前唇语识别进行数据采集时需要消耗较多的数据流量,且在偏远地区弱网环境下无法顺利进行人脸识别等技术问题。
为实现上述目的,本申请实施例提供了一种分渠道采集数据的唇语活体检测方法,所述方法步骤包括:
判断用户设备的运行环境,所述运行环境包括:运行系统类型和运行内核类型;
根据所述运行环境匹配相应的数据采集模式,并基于所述数据采集模式以及与所述数据采集模式对应的系统资源权限执行数据采集任务,以得到与检测对象关联的初始数据;
压缩所述初始数据以得到压缩文件,将所述压缩文件上传到后台进行转格式处理,得到目标数据;
基于所述目标数据执行唇语活体检测以得到检测数据,所述唇语活体检测包括语音识别、图像分帧以及唇动检测;及
根据所述检测数据判断所述检测对象是否为活体。
为实现上述目的,本申请实施例还提供了一种分渠道采集数据的唇语活体检测系统,包括:
判断模块,用于判断用户设备的运行环境,所述运行环境包括:运行系统类型和运行内核类型;
匹配模块,用于根据所述运行环境匹配相应的数据采集模式,并基于所述数据采集模式以及与所述数据采集模式对应的系统资源权限执行数据采集任务,以得到与检测对象关联的初始数据;
处理模块,用于压缩所述初始数据以得到压缩文件,将所述压缩文件上传到后台进行转格式处理,得到目标数据;
执行模块,用于基于所述目标数据执行唇语活体检测以得到检测数据,所述唇语活体检测包括语音识别、图像分帧以及唇动检测;及
检测模块,用于根据所述检测数据判断所述检测对象是否为活体。
为实现上述目的,本申请实施例还提供了一种计算机设备,所述计算机设备包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机可读指令,所述计算机可读指令被处理器执行时实现以下步骤:
判断用户设备的运行环境,所述运行环境包括:运行系统类型和运行内核类型;
根据所述运行环境匹配相应的数据采集模式,并基于所述数据采集模式以及与所述数据采集模式对应的系统资源权限执行数据采集任务,以得到与检测对象关联的初始数据;
压缩所述初始数据以得到压缩文件,将所述压缩文件上传到后台进行转格式处理,得到目标数据;
基于所述目标数据执行唇语活体检测以得到检测数据,所述唇语活体检测包括语音识别、图像分帧以及唇动检测;及
根据所述检测数据判断所述检测对象是否为活体。
为实现上述目的,本申请实施例还提供了一种非易失性计算机可读存储介质,所述非 易失性计算机可读存储介质内存储有计算机可读指令,所述计算机可读指令可被至少一个处理器所执行,以使所述至少一个处理器执行如下步骤:
判断用户设备的运行环境,所述运行环境包括:运行系统类型和运行内核类型;
根据所述运行环境匹配相应的数据采集模式,并基于所述数据采集模式以及与所述数据采集模式对应的系统资源权限执行数据采集任务,以得到与检测对象关联的初始数据;
压缩所述初始数据以得到压缩文件,将所述压缩文件上传到后台进行转格式处理,得到目标数据;
基于所述目标数据执行唇语活体检测以得到检测数据,所述唇语活体检测包括语音识别、图像分帧以及唇动检测;及
根据所述检测数据判断所述检测对象是否为活体。
本申请实施例提供的分渠道采集数据的唇语活体检测方法、系统、计算机设备及非易失性计算机可读存储介质,为唇语活体检测提供了有效的数据采集方法;在不同的设备环境和网络环境下通过不同的数据上传和更省耗时的数据传输方式,从而进一步提高唇语检测效率。
附图说明
图1为本申请实施例分渠道采集数据的唇语活体检测方法的流程示意图。
图2为本申请分渠道采集数据的唇语活体检测系统实施例二的程序模块示意图。
图3为本申请计算机设备实施例三的硬件结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,在本申请中涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本申请要求的保护范围之内。
以下实施例中,将以计算机设备2为执行主体进行示例性描述。
实施例一
参阅图1,示出了本申请实施例之分渠道采集数据的唇语活体检测方法的步骤流程图。可以理解,本方法实施例中的流程图不用于对执行步骤的顺序进行限定。下面以计算机设备2为执行主体进行示例性描述。具体如下。
步骤S100,判断用户设备的运行环境,所述运行环境包括:运行系统类型和运行内核类型;
示例性的,所述用户设备的运行环境的判断,可以通过navigator.userAgent组件进行判断;所述运行系统包括:iOS(iPhone OS移动操作系统)、Android、windows等;所述运行内核包括;qq内核、Safari内核、IE内核等。
示例性的,所述步骤S100可以进一步包括:
步骤S100a,根据所述运行环境生成数据采集请求信息;
步骤S100b,将所述数据采集请求信息发送到用户设备;
步骤S100c,接收用户设备反馈的采集确认指令;
步骤S100d,根据所述采集确认指令获取所述用户设备中的数据采集器的使用权限;
步骤S100e,根据所述使用权限调用数据采集器,其中,所述数据采集器包括视频数据采集器、图像数据采集器和音频数据采集器;所述使用权限包括视频数据采集器的录像权限、图像数据采集器的拍照权限和音频数据采集器的录音权限;
步骤S100f,通过所述数据采集器执行数据采集操作,以得到初始数据,其中,所述初始数据包括mov(音频、视频文件格式)视频数据、jpg图片数据、wav音频数据和/或二进制字节流数据。
步骤S102,根据所述运行环境匹配相应的数据采集模式,并基于所述数据采集模式以及与所述数据采集模式对应的系统资源权限执行数据采集任务,以得到与检测对象关联的初始数据;
示例性的,所述步骤S102可以进一步包括:
步骤S102a,当所述运行系统类型为IOS系统且所述内核类型为浏览器safari内核时,则获取录像权限,并通过视频控制接口实时调用所述用户设备中的摄像头进行视频录制,以得到mov视频数据;
步骤S102b,当所述运行系统类型为IOS系统且所述内核类型为qq内核时,则获取拍照权限和录音权限,并通过navigator.mediaDevices.getUserMedia(摄像头和视频控制接口) 调用所述用户设备的相机摄像头和麦克风进行图像拍摄和声音录制,以得到jpg图片数据和wav音频数据;
步骤S102c,当所述运行系统类型为IOS系统且所述内核类型为其他内核时,则获取录像权限和录音权限,并通过getUserMedia(硬件设备媒体控制接口)调用所述用户设备的摄像头和麦克风,进行视频录制和声音录制,以得到二进制字节流数据;
步骤S102d,当所述运行系统类型为Android系统且所述内核类型为微信内核时,则获取拍照权限和录音权限,并通过navigator.mediaDevices.getUserMedia调用所述用户设备的摄像头和麦克风进行图像拍摄和声音录制,以得到jpg图片数据和wav音频数据;和/或
步骤S102e,当所述运行系统类型为Android系统且所述内核类型为浏览器内核时,则获取录像权限和录音权限,并通过getUserMedia调用所述用户设备的摄像头和麦克风,进行视频录制和声音录制,以得到二进制字节流数据。
步骤S104,压缩所述初始数据以得到压缩文件,将所述压缩文件上传到后台进行转格式处理,得到目标数据;
示例性的,将所述初始数据进行打包压缩操作,以得到*.zip格式的压缩文件。
示例性的,所述转格式处理包括:将所述mov视频数据、jpg图片数据、wav音频数据以及二进制字节流数据均其转为mp4视频格式数据。其中,所述目标数据为mp4视频格式数据。
示例性的,所述步骤S104可以进一步包括:
步骤S104a,将mov视频数据进行视频格式转化操作,以得到mp4视频格式数据;
步骤S104b,将jpg图片数据在时间轴上进行复制扩展,以得到多张连续的单帧图像数据,将所述多张连续的单帧图像数据进行合帧操作,以得到mp4视频格式数据;
步骤S104c,通过Blob(Blob Analysis,区块分析)将所述二进制字节流数据进行转格式处理,以得到mp4视频格式数据。
步骤S104,所述通过Blob将所述二进制字节流数据进行转格式处理,以得到mp4视频格式数据的步骤,可以进一步包括:
步骤S104c1,将二进制字节流转化为数组,输出字符串;
步骤S104c2,将所述字符串转化为jpg图片数据;
步骤S104c3,将jpg图片数据在时间轴上进行复制扩展,以得到多张连续的单帧图像数据;
步骤S104c4,将所述多张连续的单帧图像数据进行合帧操作,以得到mp4视频格式数据。
步骤S106,基于所述目标数据执行唇语活体检测以得到检测数据,所述唇语活体检测包括语音识别、图像分帧以及唇动检测;
示例性的,对所述目标数据进行音频解析和图像解析,以得到目标音频数据和目标图像数据;对所述目标音频数据和对目标图像数据分别进行语音识别操作和唇动检测操作,得到检测数据。
示例性的,语音识别,用于对所述语音信号进行语音识别,获得语音信号对应的语言信息,与预设数值进行匹配计算;图像分帧,用于对所述视频信号进行分帧处理,获得分帧后的每帧图像中的嘴唇位置;唇动检测,用于每帧图像中的嘴唇位置进行唇动检测,连续帧趋势计算,获得连续帧图像的对应的语言信息。
其中,所述活体检测还包括:材质检测,用于对每帧图像的边框、反光纹理、摩尔纹、图像畸变等进行识别,并计算各判断因子的置信值;示例性的,对电子屏、纸张等特殊材质呈现的特征进行检测,对摩尔纹、直线边框、纸张颗粒度、图像中人脸畸变等多达30种因子识别,判断各检测因子,进行权重计算时优先取电子屏特征、人脸畸变特征,进行加权平均,保证活体检测结果。
步骤S108,根据所述检测数据判断所述检测对象是否为活体。
示例性的,通过时间对准算法计算所述唇语活体检测数据进行的相似度值,将所述相似度值作为活体检测判断因子之一,综合材质和唇语识别置信结果,判断采集的数据是否为真人产生的。
实施例二
图2为本申请分渠道采集数据的唇语活体检测系统实施例二的程序模块示意图。唇语活体检测系统20可以包括或被分割成一个或多个程序模块,一个或者多个程序模块被存储于存储介质中,并由一个或多个处理器所执行,以完成本申请,并可实现上述分渠道采集数据的唇语活体检测方法。本申请实施例所称的程序模块是指能够完成特定功能的一系列计算机可读指令段。以下描述将具体介绍本实施例各程序模块的功能:
判断模块200,用于判断用户设备的运行环境,所述运行环境包括:运行系统类型和运行内核类型。
示例性的,所述判断模块200还用于:根据所述运行环境生成数据采集请求信息;将所述数据采集请求信息发送到用户设备;接收用户设备反馈的采集确认指令;根据所述采集确认指令获取所述用户设备中的数据采集器的使用权限;根据所述使用权限调用数据采集器,其中,所述数据采集器包括视频数据采集器、图像数据采集器和音频数据采集器; 所述使用权限包括视频数据采集器的录像权限、图像数据采集器的拍照权限和音频数据采集器的录音权限;通过所述数据采集器执行数据采集操作,以得到初始数据,其中,所述初始数据包括mov视频数据、jpg图片数据、wav音频数据和/或二进制字节流数据。
匹配模块202,用于根据所述运行环境匹配相应的数据采集模式,并基于所述数据采集模式以及与所述数据采集模式对应的系统资源权限执行数据采集任务,以得到与检测对象关联的初始数据;
示例性的,所述匹配模块202还用于:当所述运行系统类型为IOS系统且所述内核类型为浏览器safari内核时,则获取录像权限,并通过视频控制接口实时调用所述用户设备中的摄像头进行视频录制,以得到mov视频数据;当所述运行系统类型为IOS系统且所述内核类型为qq内核时,则获取拍照权限和录音权限,并通过navigator.mediaDevices.getUserMedia调用所述用户设备的相机摄像头和麦克风进行图像拍摄和声音录制,以得到jpg图片数据和wav音频数据;当所述运行系统类型为IOS系统且所述内核类型为其他内核时,则获取录像权限和录音权限,并通过getUserMedia调用所述用户设备的摄像头和麦克风,进行视频录制和声音录制,以得到二进制字节流数据;当所述运行系统类型为Android系统且所述内核类型为微信内核时,则获取拍照权限和录音权限,并通过navigator.mediaDevices.getUserMedia调用所述用户设备的摄像头和麦克风进行图像拍摄和声音录制,以得到jpg图片数据和wav音频数据;和/或当所述运行系统类型为Android系统且所述内核类型为浏览器内核时,则获取录像权限和录音权限,并通过getUserMedia调用所述用户设备的摄像头和麦克风,进行视频录制和声音录制,以得到二进制字节流数据。
处理模块204,用于压缩所述初始数据以得到压缩文件,将所述压缩文件上传到后台进行转格式处理,得到目标数据;
示例性的,所述处理模块204还用于:将所述mov视频数据、jpg图片数据、wav音频数据和/或二进制字节流数据均转换为mp4视频格式数据,其中:将mov视频数据进行视频格式转化操作,以得到mp4视频格式数据;将jpg图片数据在时间轴上进行复制扩展,以得到多张连续的单帧图像数据,将所述多张连续的单帧图像数据进行合帧操作,以得到mp4视频格式数据;通过Blob将所述二进制字节流数据进行转格式处理,以得到mp4视频格式数据。
示例性的,所述处理模块204还用于:将二进制字节流转化为数组,输出字符串;将所述字符串转化为jpg图片数据;将jpg图片数据在时间轴上进行复制扩展,以得到多张连续的单帧图像数据;将所述多张连续的单帧图像数据进行合帧操作,以得到mp4视频格式 数据。
执行模块206,用于基于所述目标数据执行唇语活体检测以得到检测数据,所述唇语活体检测包括语音识别、图像分帧以及唇动检测。
检测模块208,用于根据所述检测数据判断所述检测对象是否为活体。
实施例三
参阅图3,是本申请实施例三之计算机设备的硬件架构示意图。本实施例中,所述计算机设备2是一种能够按照事先设定或者存储的指令,自动进行数值计算和/或信息处理的设备。该计算机设备2可以是机架式服务器、刀片式服务器、塔式服务器或机柜式服务器(包括独立的服务器,或者多个服务器所组成的服务器集群)等。如图所示,所述计算机设备2至少包括,但不限于,可通过系统总线相互通信连接存储器21、处理器22、网络接口23、以及唇语活体检测系统20。
本实施例中,存储器21至少包括一种类型的非易失性计算机可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,存储器21可以是计算机设备2的内部存储单元,例如该计算机设备2的硬盘或内存。在另一些实施例中,存储器21也可以是计算机设备2的外部存储设备,例如该计算机设备2上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,存储器21还可以既包括计算机设备2的内部存储单元也包括其外部存储设备。本实施例中,存储器21通常用于存储安装于计算机设备2的操作系统和各类应用软件,例如实施例二的分渠道采集数据的唇语活体检测系统20的程序代码等。此外,存储器21还可以用于暂时地存储已经输出或者将要输出的各类数据。
处理器22在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器22通常用于控制计算机设备2的总体操作。本实施例中,处理器22用于运行存储器21中存储的程序代码或者处理数据,例如运行分渠道采集数据的唇语活体检测系统20,以实现实施例一的分渠道采集数据的唇语活体检测方法。
所述网络接口23可包括无线网络接口或有线网络接口,该网络接口23通常用于在所述计算机设备2与其他电子装置之间建立通信连接。例如,所述网络接口23用于通过网络 将所述计算机设备2与外部终端相连,在所述计算机设备2与外部终端之间的建立数据传输通道和通信连接等。所述网络可以是企业内部网(Intranet)、互联网(Internet)、全球移动通讯系统(Global System of Mobile communication,GSM)、宽带码分多址(Wideband Code Division Multiple Access,WCDMA)、4G网络、5G网络、蓝牙(Bluetooth)、Wi-Fi等无线或有线网络。
需要指出的是,图3仅示出了具有部件20-23的计算机设备2,但是应理解的是,并不要求实施所有示出的部件,可以替代的实施更多或者更少的部件。
在本实施例中,存储于存储器21中的分渠道采集数据的唇语活体检测系统20还可以被分割为一个或者多个程序模块,所述一个或者多个程序模块被存储于存储器21中,并由一个或多个处理器(本实施例为处理器22)所执行,以完成本申请。
例如,图2示出了本申请实施例二之所述实现分渠道采集数据的唇语活体检测系统20的程序模块示意图,该实施例中,所述分渠道采集数据的唇语活体检测系统20可以被划分为判断模块200、匹配模块202、处理模块204、执行模块206和检测模块208。其中,本申请所称的程序模块是指能够完成特定功能的一系列计算机可读指令段。所述程序模块200-208的具体功能在实施例二中已有详细描述,在此不再赘述。
实施例四
本实施例还提供一种非易失性计算机可读存储介质,如闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘、服务器、App应用商城等等,其上存储有计算机可读指令,程序被处理器执行时实现相应功能。本实施例的非易失性计算机可读存储介质用于分渠道采集数据的唇语活体检测系统20,被处理器执行如下步骤:
判断用户设备的运行环境,所述运行环境包括:运行系统类型和运行内核类型;
根据所述运行环境匹配相应的数据采集模式,并基于所述数据采集模式以及与所述数据采集模式对应的系统资源权限执行数据采集任务,以得到与检测对象关联的初始数据;
压缩所述初始数据以得到压缩文件,将所述压缩文件上传到后台进行转格式处理,得到目标数据;
基于所述目标数据执行唇语活体检测以得到检测数据,所述唇语活体检测包括语音识别、图像分帧以及唇动检测;及
根据所述检测数据判断所述检测对象是否为活体。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (20)

  1. 一种分渠道采集数据的唇语活体检测方法,所述方法包括:
    判断用户设备的运行环境,所述运行环境包括:运行系统类型和运行内核类型;
    根据所述运行环境匹配相应的数据采集模式,并基于所述数据采集模式以及与所述数据采集模式对应的系统资源权限执行数据采集任务,以得到与检测对象关联的初始数据;
    压缩所述初始数据以得到压缩文件,将所述压缩文件上传到后台进行转格式处理,得到目标数据;
    基于所述目标数据执行唇语活体检测以得到检测数据,所述唇语活体检测包括语音识别、图像分帧以及唇动检测;及
    根据所述检测数据判断所述检测对象是否为活体。
  2. 如权利要求1所述的分渠道采集数据的唇语活体检测方法,所述根据所述运行环境匹配相应的数据采集模式,并基于所述数据采集模式以及与所述数据采集模式对应的系统资源权限执行数据采集任务以得到初始数据的步骤,包括:
    根据所述运行环境生成数据采集请求信息;
    将所述数据采集请求信息发送到用户设备;
    接收用户设备反馈的采集确认指令;
    根据所述采集确认指令获取所述用户设备中的数据采集器的使用权限;
    根据所述使用权限调用数据采集器,其中,所述数据采集器包括视频数据采集器、图像数据采集器和音频数据采集器;所述使用权限包括视频数据采集器的录像权限、图像数据采集器的拍照权限和音频数据采集器的录音权限;
    通过所述数据采集器执行数据采集操作,以得到初始数据,其中,所述初始数据包括mov视频数据、jpg图片数据、wav音频数据和/或二进制字节流数据。
  3. 如权利要求2所述的分渠道采集数据的唇语活体检测方法,所述根据所述运行环境匹配相应的数据采集模式的步骤,可以包括:
    当所述运行系统类型为IOS系统且所述内核类型为浏览器safari内核时,则获取录像权限,并通过视频控制接口实时调用所述用户设备中的摄像头进行视频录制,以得到mov视频数据;
    当所述运行系统类型为IOS系统且所述内核类型为qq内核时,则获取拍照权限和录音权限,并通过navigator.mediaDevices.getUserMedia调用所述用户设备的相机摄像头和麦克风进行图像拍摄和声音录制,以得到jpg图片数据和wav音频数据;
    当所述运行系统类型为IOS系统且所述内核类型为其他内核时,则获取录像权限和录音权限,并通过getUserMedia调用所述用户设备的摄像头和麦克风,进行视频录制和声音录制,以得到二进制字节流数据;
    当所述运行系统类型为Android系统且所述内核类型为微信内核时,则获取拍照权限和录音权限,并通过navigator.mediaDevices.getUserMedia调用所述用户设备的摄像头和麦克风进行图像拍摄和声音录制,以得到jpg图片数据和wav音频数据;和/或
    当所述运行系统类型为Android系统且所述内核类型为浏览器内核时,则获取录像权限和录音权限,并通过getUserMedia调用所述用户设备的摄像头和麦克风,进行视频录制和声音录制,以得到二进制字节流数据。
  4. 如权利要求1所述的分渠道采集数据的唇语活体检测方法,所述目标数据为mp4视频格式数据;所述转格式处理的步骤包括:
    将所述mov视频数据、jpg图片数据、wav音频数据和/或二进制字节流数据均转换为mp4视频格式数据,其中:
    将mov视频数据进行视频格式转化操作,以得到mp4视频格式数据;
    将jpg图片数据在时间轴上进行复制扩展,以得到多张连续的单帧图像数据,将所述多张连续的单帧图像数据进行合帧操作,以得到mp4视频格式数据;
    通过Blob将所述二进制字节流数据进行转格式处理,以得到mp4视频格式数据。
  5. 如权利要求4所述的分渠道采集数据的唇语活体检测方法,所述通过Blob将所述二进制字节流数据进行转格式处理,以得到mp4视频格式数据的步骤,包括:
    将二进制字节流转化为数组,输出字符串;
    将所述字符串转化为jpg图片数据;
    将jpg图片数据在时间轴上进行复制扩展,以得到多张连续的单帧图像数据;
    将所述多张连续的单帧图像数据进行合帧操作,以得到mp4视频格式数据。
  6. 一种分渠道采集数据的唇语活体检测系统,包括:
    判断模块,用于判断用户设备的运行环境,所述运行环境包括:运行系统类型和运行内核类型;
    匹配模块,用于根据所述运行环境匹配相应的数据采集模式,并基于所述数据采集模式以及与所述数据采集模式对应的系统资源权限执行数据采集任务,以得到与检测对象关联的初始数据;
    处理模块,用于压缩所述初始数据以得到压缩文件,将所述压缩文件上传到后台进行转格式处理,得到目标数据;
    执行模块,用于基于所述目标数据执行唇语活体检测以得到检测数据,所述唇语活体检测包括语音识别、图像分帧以及唇动检测;及
    检测模块,用于根据所述检测数据判断所述检测对象是否为活体。
  7. 如权利要求6所述的分渠道采集数据的唇语活体检测系统,所述判断模块还用于:
    根据所述运行环境生成数据采集请求信息;
    将所述数据采集请求信息发送到用户设备;
    接收用户设备反馈的采集确认指令;
    根据所述采集确认指令获取所述用户设备中的数据采集器的使用权限;
    根据所述使用权限调用数据采集器,其中,所述数据采集器包括视频数据采集器、图像数据采集器和音频数据采集器;所述使用权限包括视频数据采集器的录像权限、图像数据采集器的拍照权限和音频数据采集器的录音权限;
    通过所述数据采集器执行数据采集操作,以得到初始数据,其中,所述初始数据包括mov视频数据、jpg图片数据、wav音频数据和/或二进制字节流数据。
  8. 如权利要求5所述的分渠道采集数据的唇语活体检测系统,所述匹配模块还用于:
    当所述运行系统类型为IOS系统且所述内核类型为浏览器safari内核时,则获取录像权限,并通过视频控制接口实时调用所述用户设备中的摄像头进行视频录制,以得到mov视频数据;
    当所述运行系统类型为IOS系统且所述内核类型为qq内核时,则获取拍照权限和录音权限,并通过navigator.mediaDevices.getUserMedia调用所述用户设备的相机摄像头和麦克风进行图像拍摄和声音录制,以得到jpg图片数据和wav音频数据;
    当所述运行系统类型为IOS系统且所述内核类型为其他内核时,则获取录像权限和录音权限,并通过getUserMedia调用所述用户设备的摄像头和麦克风,进行视频录制和声音录制,以得到二进制字节流数据;
    当所述运行系统类型为Android系统且所述内核类型为微信内核时,则获取拍照权限和录音权限,并通过navigator.mediaDevices.getUserMedia调用所述用户设备的摄像头和麦克风进行图像拍摄和声音录制,以得到jpg图片数据和wav音频数据;和/或
    当所述运行系统类型为Android系统且所述内核类型为浏览器内核时,则获取录像权限和录音权限,并通过getUserMedia调用所述用户设备的摄像头和麦克风,进行视频录制和声音录制,以得到二进制字节流数据。
  9. 如权利要求6所述的分渠道采集数据的唇语活体检测系统,所述处理模块还用于:
    将所述mov视频数据、jpg图片数据、wav音频数据和/或二进制字节流数据均转换为 mp4视频格式数据,其中:
    将mov视频数据进行视频格式转化操作,以得到mp4视频格式数据;
    将jpg图片数据在时间轴上进行复制扩展,以得到多张连续的单帧图像数据,将所述多张连续的单帧图像数据进行合帧操作,以得到mp4视频格式数据;
    通过Blob将所述二进制字节流数据进行转格式处理,以得到mp4视频格式数据。
  10. 如权利要求9所述的分渠道采集数据的唇语活体检测系统,所述处理模块还用于:
    将二进制字节流转化为数组,输出字符串;
    将所述字符串转化为jpg图片数据;
    将jpg图片数据在时间轴上进行复制扩展,以得到多张连续的单帧图像数据;
    将所述多张连续的单帧图像数据进行合帧操作,以得到mp4视频格式数据。
  11. 一种计算机设备,所述计算机设备包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机可读指令,所述计算机可读指令被处理器执行时实现以下步骤:
    判断用户设备的运行环境,所述运行环境包括:运行系统类型和运行内核类型;
    根据所述运行环境匹配相应的数据采集模式,并基于所述数据采集模式以及与所述数据采集模式对应的系统资源权限执行数据采集任务,以得到与检测对象关联的初始数据;
    压缩所述初始数据以得到压缩文件,将所述压缩文件上传到后台进行转格式处理,得到目标数据;
    基于所述目标数据执行唇语活体检测以得到检测数据,所述唇语活体检测包括语音识别、图像分帧以及唇动检测;及
    根据所述检测数据判断所述检测对象是否为活体。
  12. 如权利要求11所述的计算机设备,所述根据所述运行环境匹配相应的数据采集模式,并基于所述数据采集模式以及与所述数据采集模式对应的系统资源权限执行数据采集任务以得到初始数据的步骤,包括:
    根据所述运行环境生成数据采集请求信息;
    将所述数据采集请求信息发送到用户设备;
    接收用户设备反馈的采集确认指令;
    根据所述采集确认指令获取所述用户设备中的数据采集器的使用权限;
    根据所述使用权限调用数据采集器,其中,所述数据采集器包括视频数据采集器、图像数据采集器和音频数据采集器;所述使用权限包括视频数据采集器的录像权限、图像数据采集器的拍照权限和音频数据采集器的录音权限;
    通过所述数据采集器执行数据采集操作,以得到初始数据,其中,所述初始数据包括mov视频数据、jpg图片数据、wav音频数据和/或二进制字节流数据。
  13. 如权利要求12所述的计算机设备,所述根据所述运行环境匹配相应的数据采集模式的步骤,可以包括:
    当所述运行系统类型为IOS系统且所述内核类型为浏览器safari内核时,则获取录像权限,并通过视频控制接口实时调用所述用户设备中的摄像头进行视频录制,以得到mov视频数据;
    当所述运行系统类型为IOS系统且所述内核类型为qq内核时,则获取拍照权限和录音权限,并通过navigator.mediaDevices.getUserMedia调用所述用户设备的相机摄像头和麦克风进行图像拍摄和声音录制,以得到jpg图片数据和wav音频数据;
    当所述运行系统类型为IOS系统且所述内核类型为其他内核时,则获取录像权限和录音权限,并通过getUserMedia调用所述用户设备的摄像头和麦克风,进行视频录制和声音录制,以得到二进制字节流数据;
    当所述运行系统类型为Android系统且所述内核类型为微信内核时,则获取拍照权限和录音权限,并通过navigator.mediaDevices.getUserMedia调用所述用户设备的摄像头和麦克风进行图像拍摄和声音录制,以得到jpg图片数据和wav音频数据;和/或
    当所述运行系统类型为Android系统且所述内核类型为浏览器内核时,则获取录像权限和录音权限,并通过getUserMedia调用所述用户设备的摄像头和麦克风,进行视频录制和声音录制,以得到二进制字节流数据。
  14. 如权利要求11所述的计算机设备,所述目标数据为mp4视频格式数据;所述转格式处理的步骤包括:
    将所述mov视频数据、jpg图片数据、wav音频数据和/或二进制字节流数据均转换为mp4视频格式数据,其中:
    将mov视频数据进行视频格式转化操作,以得到mp4视频格式数据;
    将jpg图片数据在时间轴上进行复制扩展,以得到多张连续的单帧图像数据,将所述多张连续的单帧图像数据进行合帧操作,以得到mp4视频格式数据;
    通过Blob将所述二进制字节流数据进行转格式处理,以得到mp4视频格式数据。
  15. 如权利要求14所述的计算机设备,所述通过Blob将所述二进制字节流数据进行转格式处理,以得到mp4视频格式数据的步骤,包括:
    将二进制字节流转化为数组,输出字符串;
    将所述字符串转化为jpg图片数据;
    将jpg图片数据在时间轴上进行复制扩展,以得到多张连续的单帧图像数据;
    将所述多张连续的单帧图像数据进行合帧操作,以得到mp4视频格式数据。
  16. 一种非易失性计算机可读存储介质,所述非易失性计算机可读存储介质内存储有计算机可读指令,所述计算机可读指令可被至少一个处理器所执行,以使所述至少一个处理器执行如下步骤:
  17. 如权利要求16所述的非易失性计算机可读存储介质,所述根据所述运行环境匹配相应的数据采集模式,并基于所述数据采集模式以及与所述数据采集模式对应的系统资源权限执行数据采集任务以得到初始数据的步骤,包括:
    根据所述运行环境生成数据采集请求信息;
    将所述数据采集请求信息发送到用户设备;
    接收用户设备反馈的采集确认指令;
    根据所述采集确认指令获取所述用户设备中的数据采集器的使用权限;
    根据所述使用权限调用数据采集器,其中,所述数据采集器包括视频数据采集器、图像数据采集器和音频数据采集器;所述使用权限包括视频数据采集器的录像权限、图像数据采集器的拍照权限和音频数据采集器的录音权限;
    通过所述数据采集器执行数据采集操作,以得到初始数据,其中,所述初始数据包括mov视频数据、jpg图片数据、wav音频数据和/或二进制字节流数据。
  18. 如权利要求17所述的非易失性计算机可读存储介质,所述根据所述运行环境匹配相应的数据采集模式的步骤,可以包括:
    当所述运行系统类型为IOS系统且所述内核类型为浏览器safari内核时,则获取录像权限,并通过视频控制接口实时调用所述用户设备中的摄像头进行视频录制,以得到mov视频数据;
    当所述运行系统类型为IOS系统且所述内核类型为qq内核时,则获取拍照权限和录音权限,并通过navigator.mediaDevices.getUserMedia调用所述用户设备的相机摄像头和麦克风进行图像拍摄和声音录制,以得到jpg图片数据和wav音频数据;
    当所述运行系统类型为IOS系统且所述内核类型为其他内核时,则获取录像权限和录音权限,并通过getUserMedia调用所述用户设备的摄像头和麦克风,进行视频录制和声音录制,以得到二进制字节流数据;
    当所述运行系统类型为Android系统且所述内核类型为微信内核时,则获取拍照权限和录音权限,并通过navigator.mediaDevices.getUserMedia调用所述用户设备的摄像头和麦克风进行图像拍摄和声音录制,以得到jpg图片数据和wav音频数据;和/或
    当所述运行系统类型为Android系统且所述内核类型为浏览器内核时,则获取录像权限和录音权限,并通过getUserMedia调用所述用户设备的摄像头和麦克风,进行视频录制和声音录制,以得到二进制字节流数据。
  19. 如权利要求16所述的非易失性计算机可读存储介质,所述目标数据为mp4视频格式数据;所述转格式处理的步骤包括:
    将所述mov视频数据、jpg图片数据、wav音频数据和/或二进制字节流数据均转换为mp4视频格式数据,其中:
    将mov视频数据进行视频格式转化操作,以得到mp4视频格式数据;
    将jpg图片数据在时间轴上进行复制扩展,以得到多张连续的单帧图像数据,将所述多张连续的单帧图像数据进行合帧操作,以得到mp4视频格式数据;
    通过Blob将所述二进制字节流数据进行转格式处理,以得到mp4视频格式数据。
  20. 如权利要求19所述的非易失性计算机可读存储介质,所述通过Blob将所述二进制字节流数据进行转格式处理,以得到mp4视频格式数据的步骤,包括:
    将二进制字节流转化为数组,输出字符串;
    将所述字符串转化为jpg图片数据;
    将jpg图片数据在时间轴上进行复制扩展,以得到多张连续的单帧图像数据;
    将所述多张连续的单帧图像数据进行合帧操作,以得到mp4视频格式数据。
PCT/CN2019/117766 2019-09-18 2019-11-13 分渠道采集数据的唇语活体检测方法、系统和计算机设备 WO2021051573A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910883390.4A CN110765869B (zh) 2019-09-18 2019-09-18 分渠道采集数据的唇语活体检测方法、系统和计算机设备
CN201910883390.4 2019-09-18

Publications (1)

Publication Number Publication Date
WO2021051573A1 true WO2021051573A1 (zh) 2021-03-25

Family

ID=69329706

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2019/117766 WO2021051573A1 (zh) 2019-09-18 2019-11-13 分渠道采集数据的唇语活体检测方法、系统和计算机设备

Country Status (2)

Country Link
CN (1) CN110765869B (zh)
WO (1) WO2021051573A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113569622A (zh) * 2021-06-09 2021-10-29 北京旷视科技有限公司 基于网页的活体检测方法、装置、系统及电子设备
CN113869212A (zh) * 2021-09-28 2021-12-31 平安科技(深圳)有限公司 多模态活体检测方法、装置、计算机设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103777967A (zh) * 2012-10-17 2014-05-07 阿里巴巴集团控股有限公司 页面返回方法、页面生成方法和装置
CN104200146A (zh) * 2014-08-29 2014-12-10 华侨大学 一种结合视频人脸和数字唇动密码的身份验证方法
CN104680375A (zh) * 2015-02-28 2015-06-03 优化科技(苏州)有限公司 电子支付真人活体身份验证系统
US20170039440A1 (en) * 2015-08-07 2017-02-09 International Business Machines Corporation Visual liveness detection

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106203235B (zh) * 2015-04-30 2020-06-30 腾讯科技(深圳)有限公司 活体鉴别方法和装置
CN108197572B (zh) * 2018-01-02 2020-06-12 京东方科技集团股份有限公司 一种唇语识别方法和移动终端

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103777967A (zh) * 2012-10-17 2014-05-07 阿里巴巴集团控股有限公司 页面返回方法、页面生成方法和装置
CN104200146A (zh) * 2014-08-29 2014-12-10 华侨大学 一种结合视频人脸和数字唇动密码的身份验证方法
CN104680375A (zh) * 2015-02-28 2015-06-03 优化科技(苏州)有限公司 电子支付真人活体身份验证系统
US20170039440A1 (en) * 2015-08-07 2017-02-09 International Business Machines Corporation Visual liveness detection

Also Published As

Publication number Publication date
CN110765869A (zh) 2020-02-07
CN110765869B (zh) 2024-05-07

Similar Documents

Publication Publication Date Title
US20210279817A1 (en) Systems and methods for utilizing compressed convolutional neural networks to perform media content processing
US11983909B2 (en) Responding to machine learning requests from multiple clients
US11483370B2 (en) Preprocessing sensor data for machine learning
US8965067B2 (en) Face data acquirer, end user video conference device, server, method, computer program and computer program product for extracting face data
US20170103397A1 (en) Video identification method and computer program product thereof
EP3707612B1 (en) Duplicative data detection
CN109214501B (zh) 用于识别信息的方法和装置
WO2021051573A1 (zh) 分渠道采集数据的唇语活体检测方法、系统和计算机设备
CN113570689B (zh) 人像卡通化方法、装置、介质和计算设备
CN113255685B (zh) 一种图像处理方法、装置、计算机设备以及存储介质
CN112149615A (zh) 人脸活体检测方法、装置、介质及电子设备
US9195896B2 (en) Methods and systems for image recognition
TW201502998A (zh) 圖像識別方法、裝置、終端設備及伺服器
CN113158773A (zh) 一种活体检测模型的训练方法及训练装置
CN111047657A (zh) 图片压缩方法、装置、介质及电子设备
CN115904805A (zh) 一种数据备份方法、装置、电子设备和存储介质
Mukherjee et al. Energy efficient face recognition in mobile-fog environment
CN111062374A (zh) 身份证信息的识别方法、装置、系统、设备及可读介质
CN112367314B (zh) 身份认证的方法、装置、计算设备和介质
CN110764931B (zh) Ota网站上传凭证的处理方法、系统、设备和存储介质
JP2012533922A (ja) 映像処理方法及び装置
US10564601B2 (en) Method and system for image processing and data transmission in network-based multi-camera environment
CN113591513B (zh) 用于处理图像的方法和装置
US20230410476A1 (en) Automated image analysis using artificial intelligence techniques
CN117292222A (zh) 一种训练数据的采集方法、系统、装置、服务器及介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19946227

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 18/07/2022)

122 Ep: pct application non-entry in european phase

Ref document number: 19946227

Country of ref document: EP

Kind code of ref document: A1