CN107193571A - 界面推送的方法、移动终端及存储介质 - Google Patents

界面推送的方法、移动终端及存储介质 Download PDF

Info

Publication number
CN107193571A
CN107193571A CN201710401789.5A CN201710401789A CN107193571A CN 107193571 A CN107193571 A CN 107193571A CN 201710401789 A CN201710401789 A CN 201710401789A CN 107193571 A CN107193571 A CN 107193571A
Authority
CN
China
Prior art keywords
user
picture
emotion
type
pushed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710401789.5A
Other languages
English (en)
Inventor
白剑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN201710401789.5A priority Critical patent/CN107193571A/zh
Publication of CN107193571A publication Critical patent/CN107193571A/zh
Priority to PCT/CN2018/081931 priority patent/WO2018219038A1/en
Priority to AU2018278562A priority patent/AU2018278562B2/en
Priority to JP2019539943A priority patent/JP2020507159A/ja
Priority to EP18166575.3A priority patent/EP3410258B1/en
Priority to US15/957,360 priority patent/US10719695B2/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/30Creation or generation of source code
    • G06F8/38Creation or generation of source code for implementing user interfaces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Psychiatry (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Social Psychology (AREA)
  • Physiology (AREA)
  • Fuzzy Systems (AREA)
  • Signal Processing (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Mathematical Physics (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Educational Technology (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)

Abstract

本申请涉及终端领域,公开了一种界面推送的方法、终端及存储介质。所述方法包括:当检测到屏幕被点亮时,获取包含用户面部表情的图片;对所述图片进行分析以确定所述用户的情绪类型;根据所述用户的情绪类型确定待推送图片的类型;筛选图库以获取符合所述待推送图片的类型的目标图片;向所述用户推送所述目标图片。通过上述技术方案,能够推送与述用户的情绪类型相匹配的目标图片,从而更大可能的推送用户喜欢的界面,进而减少用户选择界面的时间。

Description

界面推送的方法、移动终端及存储介质
技术领域
本发明涉及终端领域,尤其涉及一种界面推送的方法、移动终端及存储介质。
背景技术
目前,随着科学技术的发展,也带动人类的物质生活极大丰富,智能终端也变得普及。
人们可以通过智能终端进行工作、娱乐以及游戏。具体的,目前存在一个场景,服务器会不定期的向终端推送界面,但是服务器在不了解用户状态的情况下,推送的界面被用户应用的概率很低。另外,由于用户很难从推送的界面中选择出自己喜欢,因此还要打开网页选择符合自己风格的界面,整个过程会花费很多时间,从而给用户带来了不便。
发明内容
本发明实施例公开了一种界面推送的方法、移动终端及存储介质,能够推送与述用户的情绪类型相匹配的目标图片,从而更大可能的推送用户喜欢的界面,进而减少用户选择界面的时间。
本发明实施例第一方面公开一种界面推送的方法,所述方法包括:
当检测到屏幕被点亮时,获取包含用户面部表情的图片;
对所述图片进行分析以确定所述用户的情绪类型;
根据所述用户的情绪类型确定待推送图片的类型;
筛选图库以获取符合所述待推送图片的类型的目标图片;
向所述用户推送所述目标图片。
本发明第二方面公开了一种终端,所述终端包括:
获取单元,用于当检测到屏幕被点亮时,获取包含用户面部表情的图片;
分析单元,用于对所述图片进行分析以确定所述用户的情绪类型;
确定单元,用于根据所述用户的情绪类型确定待推送图片的类型;
筛选单元,用于筛选图库以获取符合所述待推送图片的类型的目标图片;
推送单元,用于向所述用户推送所述目标图片。
本发明第三方面公开了一种移动终端,所述移动终端包括:
存储有可执行程序代码的存储器;
与所述存储器耦合的处理器;
所述处理器调用所述存储器中存储的所述可执行程序代码,执行本发明第一方面中任一项所述的方法。
本发明第四方面公开了一种计算机可读存储介质,其存储用于电子数据交换的计算机程序,其中,所述计算机程序使得计算机执行如本发明第一方面任一项所述的方法。
本发明第五方面公开了一种移动终端,所述移动终端包括通用处理器,所述通用处理器用于:
当检测到屏幕被点亮时,获取包含用户面部表情的图片;
对所述图片进行分析以确定所述用户的情绪类型;
根据所述用户的情绪类型确定待推送图片的类型;
筛选图库以获取符合所述待推送图片的类型的目标图片;
向所述用户推送所述目标图片。
与现有技术相比,本发明实施例具有以下有益效果:
本发明实施例中,当检测到屏幕被点亮时,获取包含用户面部表情的图片;对所述图片进行分析以确定所述用户的情绪类型;根据所述用户的情绪类型确定待推送图片的类型;筛选图库以获取符合所述待推送图片的类型的目标图片;向所述用户推送所述目标图片。通过上述技术方案,能够推送与述用户的情绪类型相匹配的目标图片,从而更大可能的推送用户喜欢的界面,进而减少用户选择界面的时间。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例公开的一种界面推送的方法的流程示意图;
图2是本发明实施例公开的另一种界面推送的方法的流程示意图;
图3是本发明实施例公开的另一种界面推送的方法的流程示意图;
图4是本发明实施例公开的一种移动终端的结构示意图;
图5是本发明实施例公开的另一种移动终端的结构示意图;
图6是本发明实施例公开的另一种移动终端的结构示意图;
图7是本发明实施例公开的一种移动终端的物理结构示意图;
图8是本发明实施例公开的另一种移动终端的物理结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例公开了一种界面推送的方法、移动终端及存储介质,能够推送与述用户的情绪类型相匹配的目标图片,从而更大可能的推送用户喜欢的界面,进而减少用户选择界面的时间。
以下分别进行详细说明。
请参阅图1,图1是本发明实施例公开的一种界面推送的方法的流程示意图。该界面推送的方法可以包括以下步骤。
S101、当检测到屏幕被点亮时,获取包含用户面部表情的图片。
本发明实施例中,终端可以包括移动手机、平板电脑、个人数字助理 (PersonalDigita lAssistant,PDA)、移动互联网设备(Mobile Internet Device, MID)等各类终端,本发明实施例不作限定。
其中,需要指出的是,该图片中包括用户的眼睛、鼻子、脸颊、嘴唇、眉毛等位置图像。
S102、对所述图片进行分析以确定所述用户的情绪类型。
其中,常见的情绪类型包括较好,一般或者不好。
需要指出的是,可以对图片进行局部分析来确定用户的情绪类型(比如只对眼睛和嘴巴的形状进行分析),还可以整体的进行分析以确定用户的情绪类型(比如直接将所述图片与模型进行比对以确定用户的情绪类型)。
可选的,所述对所述图片进行分析以确定所述用户的情绪类型,包括:将所述图片与模板进行比对以确定眼睛和嘴巴的位置;对所述眼睛和嘴巴的形状进行分析以确定用户的情绪类型。
举例来说,模板中包括了人脸面目五官的划分,通过将所述图片与模板进行比对以对所述图片中的五官进行标记,比如标记出哪里是嘴巴,哪里是眼睛,哪里是眉毛,哪里是脸颊等等。
其中,对眼睛的形状进行分析,包括:可以将眼睛的形状与预设眼睛形状进行匹配以确定用户情绪的类型。可以理解的是,预设眼睛形状都进行了标记,比如弯弯的形状标记为情绪较好。如果眼睛的形状与弯弯的形状匹配,那么说明用户的心情较好。
其中,对嘴巴的形状进行分析,包括:可以将眼睛的形状与预设嘴巴形状进行匹配以确定用户情绪的类型。
可以理解的是,嘴角往上翘的嘴巴形状一般会被标记为情绪较好,那么如果嘴巴与该嘴角往上翘的嘴巴形状相匹配,那么说明用户的心情较好。可以理解的,嘴唇形状为上下嘴唇紧贴,那么说明用户心情一般或不好。
可以理解的是,如果对眼睛的形状进行分析的结果与对嘴巴的分析的结果不同,还么还可以进一步对眉毛的形状进行分析以获取分析结果。统计分析结果的比例,如果对多个部位进行分析后,一半以上的部位表明用户情绪较好,那么输出的最终结果就是用户的情绪较好。
可选的,所述对所述图片进行分析以确定所述用户的情绪类型,包括:将所述图片与用户情绪模型进行比对以确定所述用户情绪模型中与所述图片匹配的目标情绪图片;根据所述目标情绪图片确定所述用户的情绪类型。
需要指出的,用户情绪模型中包括多张人脸的图片,每个人脸的图片都已经标记有情绪类型。如果所述图片与第一图片的匹配度大于预设阈值(比如 95%),那么第一图片对应的情绪类型就是该用户的情绪类型。其中,所述第一图片为用户情绪模型中的任一张图片。
另外,所述将所述图片与用户情绪模型进行比对以确定所述用户情绪模型中与所述图片匹配的目标情绪图片之前,所述方法还包括:获取预设数量的所述用户的表情图片;根据预设的机器学习算法对所述表情图片进行学习以获取所述用户情绪模型。
举例来说,终端可以从该终端的图片库中获取包含用户面部表情的图片,然后终端向服务器发送部分的图片以使得所述服务器对接收到的图片进行情绪类型标记;终端接收服务器反馈的被标记的图片,然后根据标记的图片和预设机器学习算法对剩余获取的图片进行学习以获取用户情绪模型。可以理解的是,用户情绪模型可以是一个被用户图片库,该图片库的中的所有图片都被标记有情绪类型。
其中,常见的预设学习算法包括分类算法,监督学习算法,贝叶斯算法等等,在此不一一列举。
S103、根据所述用户的情绪类型确定待推送图片的类型。
举例来说,比如用户的情绪类型为情绪较好,那么待推送图片的类型可以是户外风景类的图片。比如用户的情绪类型为情绪不太好,那么待推送图片的类型可以是搞笑类型或幽默类型。
S104、筛选图库以获取符合所述待推送图片的类型的目标图片。
其中,可以筛选终端中存储的图片。
当然,终端可以向云数据中心发送图片获取请求,所述图片获取请求中包括图片的类型;云数据中心搜索互联网以获取属于所述类型的图片,并向终端反馈获取到的图片;终端接收到用户反馈的图片后,可以在桌面弹出缩略图以供用户浏览,进而方便用户选择。
S105、向所述用户推送所述目标图片。
可选的,向所述用户推送所述目标图片之后,所述方法还包括:记录所述用户的选择结果;根据所述用户的选择结构对所述用户情绪模型进行更新。
从上可知,通过实施本发明实施例提供的技术方案,当检测到屏幕被点亮时,获取包含用户面部表情的图片;对所述图片进行分析以确定所述用户的情绪类型;根据所述用户的情绪类型确定待推送图片的类型;筛选图库以获取符合所述待推送图片的类型的目标图片;向所述用户推送所述目标图片。通过上述技术方案,能够推送与述用户的情绪类型相匹配的目标图片,从而更大可能的推送用户喜欢的界面,进而减少用户选择界面的时间。
请参阅图2,图2是本发明实施例公开的一种界面推送的方法的流程示意图。如图2所示,该界面推送的方法可以包括以下步骤。
S201、当检测到屏幕被点亮时,获取包含用户面部表情的图片。
本发明实施例中,终端可以包括移动手机、平板电脑、个人数字助理 (PersonalDigital Assistant,PDA)、移动互联网设备(Mobile InternetDevice, MID)等各类终端,本发明实施例不作限定。
S202、将所述图片与模板进行比对以确定眼睛和嘴巴的位置。
S203、对所述眼睛和嘴巴的形状进行分析以确定用户的情绪类型。
其中,常见的情绪类型包括较好,一般或者不好。
举例来说,模板中包括了人脸面目五官的划分,通过将所述图片与模板进行比对以对所述图片中的五官进行标记,比如标记出哪里是嘴巴,哪里是眼睛,哪里是眉毛,哪里是脸颊等等。
其中,对眼睛的形状进行分析,包括:可以将眼睛的形状与预设眼睛形状进行匹配以确定用户情绪的类型。可以理解的是,预设眼睛形状都进行了标记,比如弯弯的形状标记为情绪较好。如果眼睛的形状与弯弯的形状匹配,那么说明用户的心情较好。
其中,对嘴巴的形状进行分析,包括:可以将眼睛的形状与预设嘴巴形状进行匹配以确定用户情绪的类型。
可以理解的是,嘴角往上翘的嘴巴形状一般会被标记为情绪较好,那么如果嘴巴与该嘴角往上翘的嘴巴形状相匹配,那么说明用户的心情较好。可以理解的,嘴唇形状为上下嘴唇紧贴,那么说明用户心情一般或不好。
可以理解的是,如果对眼睛的形状进行分析的结果与对嘴巴的分析的结果不同,还么还可以进一步对眉毛的形状进行分析以获取分析结果。统计分析结果的比例,如果对多个部位进行分析后,一半以上的部位表明用户情绪较好,那么输出的最终结果就是用户的情绪较好。
S204、根据所述用户的情绪类型确定待推送图片的类型;
举例来说,比如用户的情绪类型为情绪较好,那么待推送图片的类型可以是户外风景类的图片。比如用户的情绪类型为情绪不太好,那么待推送图片的类型可以是搞笑类型或幽默类型。
S205、筛选图库以获取符合所述待推送图片的类型的目标图片。
其中,可以筛选终端中存储的图片。
当然,终端可以向云数据中心发送图片获取请求,所述图片获取请求中包括图片的类型;云数据中心搜索互联网以获取属于所述类型的图片,并向终端反馈获取到的图片;终端接收到用户反馈的图片后,可以在桌面弹出缩略图以供用户浏览,进而方便用户选择。
S206、向所述用户推送所述目标图片。
在图2所描述的方法中,将所述图片与模板进行比对以确定眼睛和嘴巴的位置;对所述眼睛和嘴巴的形状进行分析以确定用户的情绪类型。通过对包含五官的图片进行局部分析以确定用户的情绪类型,并推荐与所述情绪类型相匹配的图片,从而方便用户获取与当前心情匹配的图片。
请参阅图3,图3是本发明实施例公开的一种界面推送的方法的流程示意图。如图3所示,该界面推送的方法可以包括以下步骤。
S301、当检测到屏幕被点亮时,获取包含用户面部表情的图片。
S302、获取预设数量的所述用户的表情图片。
S303、根据预设的机器学习算法对所述表情图片进行学习以获取所述用户情绪模型。
其中,常见的预设学习算法包括分类算法,监督学习算法,贝叶斯算法等等,在此不一一列举。
举例来说,终端可以从该终端的图片库中获取包含用户面部表情的图片,然后终端向服务器发送部分的图片以使得所述服务器对接收到的图片进行情绪类型标记;终端接收服务器反馈的被标记的图片,然后根据标记的图片和预设机器学习算法对剩余获取的图片进行学习以获取用户情绪模型。可以理解的是,用户情绪模型可以是一个被用户图片库,该图片库的中的所有图片都被标记有情绪类型。
S304、将所述图片与用户情绪模型进行比对以确定所述用户情绪模型中与所述图片匹配的目标情绪图片。
需要指出的,用户情绪模型中包括多张人脸的图片,每个人脸的图片都已经标记有情绪类型。如果所述图片与第一图片的匹配度大于预设阈值(比如 95%),那么第一图片对应的情绪类型就是该用户的情绪类型。其中,所述第一图片为用户情绪模型中的任一张图片。
S305、根据所述目标情绪图片确定所述用户的情绪类型。
S306、根据所述用户的情绪类型确定待推送图片的类型。
S307、筛选图库以获取符合所述待推送图片的类型的目标图片。
S308、向所述用户推送所述目标图片。
S309、记录所述用户的选择结果;并根据所述用户的选择结构对所述用户情绪模型进行更新。
在图3所描述的方法中,将所述图片与用户情绪模型进行比对以确定所述用户情绪模型中与所述图片匹配的目标情绪图片;根据所述目标情绪图片确定所述用户的情绪类型。通过对包含五官的图片进行全局分析以确定用户的情绪类型,并推荐与所述情绪类型相匹配的图片,从而方便用户获取与当前心情匹配的图片。
请参阅图4,图4是本发明实施例公开的一种移动终端的结构示意图。在图4所描述的终端中,可以包括:
获取单元401,用于当检测到屏幕被点亮时,获取包含用户面部表情的图片;
分析单元402,用于对所述图片进行分析以确定所述用户的情绪类型;
确定单元403,用于根据所述用户的情绪类型确定待推送图片的类型;
筛选单元404,用于筛选图库以获取符合所述待推送图片的类型的目标图片;
推送单元405,用于向所述用户推送所述目标图片。
需要指出的是,图4所示的结构可用于执行S101-S105所述的方法。
请一并参阅图5,图5是本发明实施例公开的另一种移动终端的结构示意图。图5所示的终端还可以包括:
获取单元501,用于当检测到屏幕被点亮时,获取包含用户面部表情的图片;
分析单元502,用于对所述图片进行分析以确定所述用户的情绪类型;
其中,分析单元502包括第一比对子单元5021和分析子单元5022;
第一比对子单元5021,用于将所述图片与模板进行比对以确定眼睛和嘴巴的位置;
分析子单元5022,用于对所述眼睛和嘴巴的形状进行分析以确定用户的情绪类型。
确定单元503,用于根据所述用户的情绪类型确定待推送图片的类型;
筛选单元504,用于筛选图库以获取符合所述待推送图片的类型的目标图片;
推送单元505,用于向所述用户推送所述目标图片。
可以理解的是,图6所述的终端可用于执行S201-S206所示的方法。
请一并参阅图6,图6是本发明实施例公开的另一种移动终端的结构示意图。图6所示的终端包括:
获取单元601,用于当检测到屏幕被点亮时,获取包含用户面部表情的图片;
获取单元601,用于获取预设数量的所述用户的表情图片;
学习单元602,用于根据预设的机器学习算法对所述表情图片进行学习以获取所述用户情绪模型。
分析单元603,用于对所述图片进行分析以确定所述用户的情绪类型;
其中,分析单元603包括第二比对子单元6031和确定子单元6032;
第二比对子单元6031,用于将所述图片与用户情绪模型进行比对以确定所述用户情绪模型中与所述图片匹配的目标情绪图片;
确定子单元6032,用于根据所述目标情绪图片确定所述用户的情绪类型。
确定单元604,用于根据所述用户的情绪类型确定待推送图片的类型;
筛选单元605,用于筛选图库以获取符合所述待推送图片的类型的目标图片;
推送单元606,用于向所述用户推送所述目标图片。
记录单元607,用于记录所述用户的选择结果;
更新单元608,用于根据所述用户的选择结果对所述用户情绪模型进行更新。
可以理解的是,图6所述的终端能够执行S301-S309所述的方法。
请参阅图7,图7为本发明实施例公开的又一种移动终端的结构示意图,如图7所示,该终端可以包括:至少一个处理器710,例如CPU,存储器720,至少一个通信总线730,输入装置740,输出装置750。其中,通信总线730 用于实现这些组件之间的通信连接。存储器720可以是高速RAM存储器,也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。存储器720可选的还可以是至少一个位于远离前述处理器710的存储装置。其中,处理器710可以结合图4至图6所描述的终端,存储器720中存储一组程序代码,且处理器710调用存储器720中存储的程序代码,用于执行以下操作:
当检测到屏幕被点亮时,获取包含用户面部表情的图片;
对所述图片进行分析以确定所述用户的情绪类型;
根据所述用户的情绪类型确定待推送图片的类型;
筛选图库以获取符合所述待推送图片的类型的目标图片;
向所述用户推送所述目标图片。
可选的,所述对所述图片进行分析以确定所述用户的情绪类型,包括:
将所述图片与模板进行比对以确定眼睛和嘴巴的位置;
对所述眼睛和嘴巴的形状进行分析以确定用户的情绪类型。
可选的,所述对所述图片进行分析以确定所述用户的情绪类型,包括:
将所述图片与用户情绪模型进行比对以确定所述用户情绪模型中与所述图片匹配的目标情绪图片;
根据所述目标情绪图片确定所述用户的情绪类型。
可选的,所述将所述图片与用户情绪模型进行比对以确定所述用户情绪模型中与所述图片匹配的目标情绪图片之前,所述操作还包括:
获取预设数量的所述用户的表情图片;
根据预设的机器学习算法对所述表情图片进行学习以获取所述用户情绪模型。
可选的,向所述用户推送所述目标图片之后,所述操作还包括:
记录所述用户的选择结果;
根据所述用户的选择结构对所述用户情绪模型进行更新。
本发明实施例中,当检测到屏幕被点亮时,获取包含用户面部表情的图片;对所述图片进行分析以确定所述用户的情绪类型;根据所述用户的情绪类型确定待推送图片的类型;筛选图库以获取符合所述待推送图片的类型的目标图片;向所述用户推送所述目标图片。通过上述技术方案,能够推送与述用户的情绪类型相匹配的目标图片,从而更大可能的推送用户喜欢的界面,进而减少用户选择界面的时间。
请参阅图8,图8为本发明实施例公开的又一种移动终端的结构示意图,如图8所示,该移动终端可以包括:基带处理大规模集成电路88(基带处理 LSI),通用处理器820,语音处理集成电路830(语音处理IC),触摸控制器 840,陀螺仪传感器850,通信总线860,存储器870。其中,通信总线860用于实现这些组件之间的通信连接。存储器870可以是高速RAM存储器,也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。其中,通用处理器820可以结合图3至图6所描述的终端,存储器870中存储一组程序代码,且通用处理器820调用存储器870中存储的程序代码,用于执行以下操作:
当检测到屏幕被点亮时,获取包含用户面部表情的图片;
对所述图片进行分析以确定所述用户的情绪类型;
根据所述用户的情绪类型确定待推送图片的类型;
筛选图库以获取符合所述待推送图片的类型的目标图片;
向所述用户推送所述目标图片。
可选的,所述对所述图片进行分析以确定所述用户的情绪类型,包括:
将所述图片与模板进行比对以确定眼睛和嘴巴的位置;
对所述眼睛和嘴巴的形状进行分析以确定用户的情绪类型。
可选的,所述对所述图片进行分析以确定所述用户的情绪类型,包括:
将所述图片与用户情绪模型进行比对以确定所述用户情绪模型中与所述图片匹配的目标情绪图片;
根据所述目标情绪图片确定所述用户的情绪类型。
可选的,所述将所述图片与用户情绪模型进行比对以确定所述用户情绪模型中与所述图片匹配的目标情绪图片之前,所述方法还包括:
获取预设数量的所述用户的表情图片;
根据预设的机器学习算法对所述表情图片进行学习以获取所述用户情绪模型。
其中,可选的,所述通用处理器包括应用处理器和人工智能AI模块,所述AI模块集成于所述应用处理器设置,所述AI模块用于:
获取预设数量的所述用户的表情图片;根据预设的机器学习算法对所述表情图片进行学习以获取所述用户情绪模型。
另外,可选的,所述通用处理器包括应用处理器和人工智能AI模块,所述AI模块独立于所述处理器设置,所述AI模块用于:
获取预设数量的所述用户的表情图片;根据预设的机器学习算法对所述表情图片进行学习以获取所述用户情绪模型。
进一步,需要指出的是,AI模块的具体形式可以是硬件和/或软件,AI 模块包括硬件形态时,处理器和AI模块可以是集成设置,也可以是分离设置,此处不做限定。
在AI模块集成与所述应用处理器集成设置时,若应用处理器为单核处理器,则AI模块可以是应用处理器中的智能微处理电路,若应用处理器为多核处理器,则AI模块可以是多核处理器中的单个智能微处理器内核或者某一个微处理器内核中的智能微处理电路。
在AI模块集成与所述应用处理器分离设置时,AI模块可以是应用处理器平台架构中除所述应用处理器之外的任意一个协处理器(如基带处理器等),或者,可以是应用处理器平台架构中除所述应用处理器之外的一个新设置的智能微处理器,或者,可以是新设置的独立于所述应用处理器平台的智能处理平台,且该智能处理平台至少包括一个专用智能处理器,该智能处理平台与应用处理器平台通信连接,可选的,智能处理平台还可以与存储器、外设等直连通信连接。
可选的,向所述用户推送所述目标图片之后,所述方法还包括:
记录所述用户的选择结果;
根据所述用户的选择结构对所述用户情绪模型进行更新。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质包括只读存储器(Read-Only Memory,ROM)、随机存储器(Random Access Memory,RAM)、可编程只读存储器(Programmable Read-only Memory,PROM)、可擦除可编程只读存储器(Erasable Programmable Read Only Memory,EPROM)、一次可编程只读存储器(One-time Programmable Read-Only Memory,OTPROM)、电子抹除式可复写只读存储器(Electrically-Erasable Programmable Read-Only Memory,EEPROM)、只读光盘(Compact Disc Read-Only Memory,CD-ROM)或其他光盘存储器、磁盘存储器、磁带存储器、或者能够用于携带或存储数据的计算机可读的任何其他介质。
以上对本发明实施例公开的一种基于图像的解锁屏方法及用户终端进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (18)

1.一种界面推送的方法,其特征在于,所述方法包括:
当检测到屏幕被点亮时,获取包含用户面部表情的图片;
对所述图片进行分析以确定所述用户的情绪类型;
根据所述用户的情绪类型确定待推送图片的类型;
筛选图库以获取符合所述待推送图片的类型的目标图片;
向所述用户推送所述目标图片。
2.根据权利要求1所述的方法,其特征在于,所述对所述图片进行分析以确定所述用户的情绪类型,包括:
将所述图片与模板进行比对以确定眼睛和嘴巴的位置;
对所述眼睛和嘴巴的形状进行分析以确定用户的情绪类型。
3.根据权利要求1所述的方法,其特征在于,所述对所述图片进行分析以确定所述用户的情绪类型,包括:
将所述图片与用户情绪模型进行比对以确定所述用户情绪模型中与所述图片匹配的目标情绪图片;
根据所述目标情绪图片确定所述用户的情绪类型。
4.根据权利要求3所述的方法,其特征在于,所述将所述图片与用户情绪模型进行比对以确定所述用户情绪模型中与所述图片匹配的目标情绪图片之前,所述方法还包括:
获取预设数量的所述用户的表情图片;
根据预设的机器学习算法对所述表情图片进行学习以获取所述用户情绪模型。
5.根据权利要求4所述的方法,其特征在于,向所述用户推送所述目标图片之后,所述方法还包括:
记录所述用户的选择结果;
根据所述用户的选择结构对所述用户情绪模型进行更新。
6.一种移动终端,其特征在于,所述移动终端包括:
获取单元,用于当检测到屏幕被点亮时,获取包含用户面部表情的图片;
分析单元,用于对所述图片进行分析以确定所述用户的情绪类型;
确定单元,用于根据所述用户的情绪类型确定待推送图片的类型;
筛选单元,用于筛选图库以获取符合所述待推送图片的类型的目标图片;
推送单元,用于向所述用户推送所述目标图片。
7.根据权利要求6所述的移动终端,其特征在于,所述分析单元包括第一比对子单元和分析子单元;
所述第一比对子单元,用于将所述图片与模板进行比对以确定眼睛和嘴巴的位置;
所述分析子单元,用于对所述眼睛和嘴巴的形状进行分析以确定用户的情绪类型。
8.根据权利要求6所述的移动终端,其特征在于,所述分析单元包括第二比对子单元和确定子单元;
所述第二比对子单元,用于将所述图片与用户情绪模型进行比对以确定所述用户情绪模型中与所述图片匹配的目标情绪图片;
所述确定子单元,用于根据所述目标情绪图片确定所述用户的情绪类型。
9.根据权利要求8所述的移动终端,其特征在于,所述移动终端还包括学习单元;
所述获取单元,用于获取预设数量的所述用户的表情图片;
所述学习单元,用于根据预设的机器学习算法对所述表情图片进行学习以获取所述用户情绪模型。
10.根据权利要求9所述的移动终端,其特征在于,移动终端还包括记录单元和更新单元;
所述记录单元,用于记录所述用户的选择结果;
所述更新单元,用于根据所述用户的选择结果对所述用户情绪模型进行更新。
11.一种移动终端,其特征在于,包括:
存储有可执行程序代码的存储器;
与所述存储器耦合的处理器;
所述处理器调用所述存储器中存储的所述可执行程序代码,执行如权利要求1至权利要求5任一项所述的方法。
12.一种计算机可读存储介质,其特征在于,其存储用于电子数据交换的计算机程序,其中,所述计算机程序使得移动终端执行如权利要求1至权利要求5任一项所述的方法。
13.一种移动终端,其特征在于,所述移动终端包括通用处理器,所述通用处理器用于:
当检测到屏幕被点亮时,获取包含用户面部表情的图片;
对所述图片进行分析以确定所述用户的情绪类型;
根据所述用户的情绪类型确定待推送图片的类型;
筛选图库以获取符合所述待推送图片的类型的目标图片;
向所述用户推送所述目标图片。
14.根据权利要求13所述的移动终端,其特征在于,所述对所述图片进行分析以确定所述用户的情绪类型,包括:
将所述图片与模板进行比对以确定眼睛和嘴巴的位置;
对所述眼睛和嘴巴的形状进行分析以确定用户的情绪类型。
15.根据权利要求13所述的移动终端,其特征在于,所述对所述图片进行分析以确定所述用户的情绪类型,包括:
将所述图片与用户情绪模型进行比对以确定所述用户情绪模型中与所述图片匹配的目标情绪图片;
根据所述目标情绪图片确定所述用户的情绪类型。
16.根据权利要求15所述的移动终端,其特征在于,所述通用处理器还用于:
获取预设数量的所述用户的表情图片;
根据预设的机器学习算法对所述表情图片进行学习以获取所述用户情绪模型。
17.根据权利要求16所述的移动终端,其特征在于,所述通用处理器包括应用处理器和人工智能AI模块,所述AI模块集成于所述应用处理器,所述AI模块用于:
获取预设数量的所述用户的表情图片;
根据预设的机器学习算法对所述表情图片进行学习以获取所述用户情绪模型。
18.根据权利要求16所述的移动终端,其特征在于,所述通用处理器包括应用处理器和人工智能AI模块,所述AI模块独立于所述处理器,所述AI模块用于:
获取预设数量的所述用户的表情图片;
根据预设的机器学习算法对所述表情图片进行学习以获取所述用户情绪模型。
CN201710401789.5A 2017-05-31 2017-05-31 界面推送的方法、移动终端及存储介质 Pending CN107193571A (zh)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN201710401789.5A CN107193571A (zh) 2017-05-31 2017-05-31 界面推送的方法、移动终端及存储介质
PCT/CN2018/081931 WO2018219038A1 (en) 2017-05-31 2018-04-04 Method for pushing picture, mobile terminal, and storage medium
AU2018278562A AU2018278562B2 (en) 2017-05-31 2018-04-04 Method for pushing picture, mobile terminal, and storage medium
JP2019539943A JP2020507159A (ja) 2017-05-31 2018-04-04 ピクチャプッシュの方法、移動端末および記憶媒体
EP18166575.3A EP3410258B1 (en) 2017-05-31 2018-04-10 Method for pushing picture, mobile terminal and storage medium
US15/957,360 US10719695B2 (en) 2017-05-31 2018-04-19 Method for pushing picture, mobile terminal, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710401789.5A CN107193571A (zh) 2017-05-31 2017-05-31 界面推送的方法、移动终端及存储介质

Publications (1)

Publication Number Publication Date
CN107193571A true CN107193571A (zh) 2017-09-22

Family

ID=59876110

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710401789.5A Pending CN107193571A (zh) 2017-05-31 2017-05-31 界面推送的方法、移动终端及存储介质

Country Status (6)

Country Link
US (1) US10719695B2 (zh)
EP (1) EP3410258B1 (zh)
JP (1) JP2020507159A (zh)
CN (1) CN107193571A (zh)
AU (1) AU2018278562B2 (zh)
WO (1) WO2018219038A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018219038A1 (en) * 2017-05-31 2018-12-06 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Method for pushing picture, mobile terminal, and storage medium
WO2019161720A1 (zh) * 2018-02-23 2019-08-29 Oppo广东移动通信有限公司 信息推送方法及相关产品
CN112364241A (zh) * 2020-10-27 2021-02-12 北京五八信息技术有限公司 信息推送的方法、装置、电子设备及存储介质

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106462349B (zh) * 2015-03-27 2019-10-25 华为技术有限公司 一种电子照片显示方法、装置和移动设备
US10950104B2 (en) * 2019-01-16 2021-03-16 PANASONIC l-PRO SENSING SOLUTIONS CO., LTD. Monitoring camera and detection method
CN113785539A (zh) * 2019-04-10 2021-12-10 Oppo广东移动通信有限公司 用于基于对用户情绪的识别来动态推荐输入的系统和方法
CN111783587A (zh) * 2020-06-22 2020-10-16 腾讯数码(天津)有限公司 一种互动方法、装置和存储介质
CN112836732B (zh) * 2021-01-25 2024-04-19 深圳市声扬科技有限公司 数据标注的校验方法、装置、电子设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1940806A (zh) * 2005-09-30 2007-04-04 联想(北京)有限公司 具有表情识别功能的计算机登录系统和方法
CN101958971A (zh) * 2010-09-01 2011-01-26 深圳市同洲电子股份有限公司 移动终端的主题变化方法、装置及移动终端
CN102479024A (zh) * 2010-11-24 2012-05-30 国基电子(上海)有限公司 手持装置及其用户界面构建方法
CN102929660A (zh) * 2012-10-09 2013-02-13 广东欧珀移动通信有限公司 一种终端设备心情主题的控制方法及其终端设备
CN105534534A (zh) * 2015-12-09 2016-05-04 浙江大学 一种基于实时功能磁共振的情绪识别方法、装置及系统
CN106126017A (zh) * 2016-06-20 2016-11-16 北京小米移动软件有限公司 智能识别方法、装置和终端设备
CN106708394A (zh) * 2016-12-23 2017-05-24 维沃移动通信有限公司 一种移动终端的系统主题切换方法及移动终端

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6931147B2 (en) * 2001-12-11 2005-08-16 Koninklijke Philips Electronics N.V. Mood based virtual photo album
WO2005113099A2 (en) * 2003-05-30 2005-12-01 America Online, Inc. Personalizing content
JP4612806B2 (ja) * 2003-07-18 2011-01-12 キヤノン株式会社 画像処理装置、画像処理方法、撮像装置
JP2005242566A (ja) * 2004-02-25 2005-09-08 Canon Inc 画像合成装置及び方法
JP2006287749A (ja) * 2005-04-01 2006-10-19 Canon Inc 撮像装置、及びその制御方法
JP4845755B2 (ja) * 2007-01-30 2011-12-28 キヤノン株式会社 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP5120777B2 (ja) * 2008-04-11 2013-01-16 カシオ計算機株式会社 電子データ編集装置、電子データ編集方法及びプログラム
KR101708682B1 (ko) * 2010-03-03 2017-02-21 엘지전자 주식회사 영상표시장치 및 그 동작 방법.
JP2011176564A (ja) * 2010-02-24 2011-09-08 Kyocera Corp 携帯端末装置
CN102300163A (zh) * 2011-09-22 2011-12-28 宇龙计算机通信科技(深圳)有限公司 信息推送方法、移动终端和系统
CN102946491B (zh) * 2012-11-23 2014-11-05 广东欧珀移动通信有限公司 一种根据用户心情自动调整壁纸的方法及系统
KR102327779B1 (ko) * 2014-02-21 2021-11-18 삼성전자주식회사 이미지 처리 방법 및 장치
EP3110078A4 (en) * 2014-07-02 2017-03-08 Huawei Technologies Co., Ltd. Information transmission method and transmission device
CN104202718A (zh) * 2014-08-05 2014-12-10 百度在线网络技术(北京)有限公司 一种向用户提供信息的方法与装置
CN105956059A (zh) * 2016-04-27 2016-09-21 乐视控股(北京)有限公司 基于情绪识别的信息推荐方法和装置
CN107193571A (zh) * 2017-05-31 2017-09-22 广东欧珀移动通信有限公司 界面推送的方法、移动终端及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1940806A (zh) * 2005-09-30 2007-04-04 联想(北京)有限公司 具有表情识别功能的计算机登录系统和方法
CN101958971A (zh) * 2010-09-01 2011-01-26 深圳市同洲电子股份有限公司 移动终端的主题变化方法、装置及移动终端
CN102479024A (zh) * 2010-11-24 2012-05-30 国基电子(上海)有限公司 手持装置及其用户界面构建方法
CN102929660A (zh) * 2012-10-09 2013-02-13 广东欧珀移动通信有限公司 一种终端设备心情主题的控制方法及其终端设备
CN105534534A (zh) * 2015-12-09 2016-05-04 浙江大学 一种基于实时功能磁共振的情绪识别方法、装置及系统
CN106126017A (zh) * 2016-06-20 2016-11-16 北京小米移动软件有限公司 智能识别方法、装置和终端设备
CN106708394A (zh) * 2016-12-23 2017-05-24 维沃移动通信有限公司 一种移动终端的系统主题切换方法及移动终端

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018219038A1 (en) * 2017-05-31 2018-12-06 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Method for pushing picture, mobile terminal, and storage medium
WO2019161720A1 (zh) * 2018-02-23 2019-08-29 Oppo广东移动通信有限公司 信息推送方法及相关产品
CN112364241A (zh) * 2020-10-27 2021-02-12 北京五八信息技术有限公司 信息推送的方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
AU2018278562B2 (en) 2020-05-28
WO2018219038A1 (en) 2018-12-06
EP3410258B1 (en) 2020-08-26
US20180349686A1 (en) 2018-12-06
JP2020507159A (ja) 2020-03-05
EP3410258A1 (en) 2018-12-05
US10719695B2 (en) 2020-07-21
AU2018278562A1 (en) 2019-07-11

Similar Documents

Publication Publication Date Title
CN107193571A (zh) 界面推送的方法、移动终端及存储介质
US20190362247A1 (en) Image tagging based upon cross domain context
CN102207950B (zh) 电子装置和图像处理方法
US8724908B2 (en) System and method for labeling a collection of images
US7716157B1 (en) Searching images with extracted objects
US12045304B2 (en) Automatic website data migration
CN106233228A (zh) 处理内容的方法及使用该方法的电子设备
CN112150347B (zh) 从有限的修改后图像集合中学习的图像修改样式
KR20220118545A (ko) 메시징 시스템에서의 캡처후 처리
US20120106917A1 (en) Electronic Apparatus and Image Processing Method
US11876634B2 (en) Group contact lists generation
KR20180111242A (ko) 채색 가능한 콘텐트를 제공하는 전자 장치 및 그 방법
CN107025295A (zh) 一种照片电影制作方法及移动终端
CN109871205A (zh) 界面代码调整方法、装置、计算机装置及存储介质
US12099702B2 (en) Messaging system for resurfacing content items
JP2014085814A (ja) 情報処理装置及びその制御方法、プログラム
US11776253B2 (en) Displaying object names in association with augmented reality content
CN112949709A (zh) 图像数据标注方法、装置、电子设备和存储介质
US20230113141A1 (en) Image identification, retrieval, transformation, and arrangement
WO2024186588A1 (en) Intelligent system and method of enhancing images
JP2011244344A (ja) 電子機器及び動画像生成方法
CN115116116A (zh) 图像识别方法、装置、电子设备及可读存储介质
CN117112087A (zh) 一种桌面卡片的排序方法、电子设备以及介质
AU2013273790A1 (en) Heterogeneous feature filtering
CN116304340A (zh) 用于信息处理的方法和设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1242814

Country of ref document: HK

CB02 Change of applicant information
CB02 Change of applicant information

Address after: 523860 No. 18, Wu Sha Beach Road, Changan Town, Dongguan, Guangdong

Applicant after: OPPO Guangdong Mobile Communications Co., Ltd.

Address before: 523860 No. 18, Wu Sha Beach Road, Changan Town, Dongguan, Guangdong

Applicant before: Guangdong OPPO Mobile Communications Co., Ltd.

RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20170922