CN111639567B - 一种三维模型的互动显示方法、电子设备及存储介质 - Google Patents

一种三维模型的互动显示方法、电子设备及存储介质 Download PDF

Info

Publication number
CN111639567B
CN111639567B CN202010425594.6A CN202010425594A CN111639567B CN 111639567 B CN111639567 B CN 111639567B CN 202010425594 A CN202010425594 A CN 202010425594A CN 111639567 B CN111639567 B CN 111639567B
Authority
CN
China
Prior art keywords
target
dimensional model
word
target object
sounded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010425594.6A
Other languages
English (en)
Other versions
CN111639567A (zh
Inventor
周林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Genius Technology Co Ltd
Original Assignee
Guangdong Genius Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Genius Technology Co Ltd filed Critical Guangdong Genius Technology Co Ltd
Priority to CN202010425594.6A priority Critical patent/CN111639567B/zh
Publication of CN111639567A publication Critical patent/CN111639567A/zh
Application granted granted Critical
Publication of CN111639567B publication Critical patent/CN111639567B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/2053D [Three Dimensional] animation driven by audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/04Speaking
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • G10L15/25Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Business, Economics & Management (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本申请实施例涉及计算机技术领域,公开了一种三维模型的互动显示方法、电子设备及存储介质,该方法包括:在页面包含的任一目标物品的二维图像中被选中后,获取用于搭建所述目标物品的三维模型的三维数据;以所述三维数据为依据,搭建所述目标物品的三维模型;以增强现实的方式,在所述页面上的所述目标物品的二维图像的显示位置加载显示所述目标物品的三维模型;检测针对显示的所述目标物品的三维模型做出的隔空位姿调整手势;控制显示的所述目标物品的三维模型的当前位姿调整到所述隔空位姿调整手势对应的目标位姿。实施本申请实施例,可以使孩子从多个不同角度去认知物品,提升认知物品过程中的人机互动性,有利于提升孩子认知物品的积极性。

Description

一种三维模型的互动显示方法、电子设备及存储介质
技术领域
本申请涉及计算机技术领域,具体涉及一种三维模型的互动显示方法、电子设备及存储介质。
背景技术
为了培养孩子对物品的认知能力,一些页面上会显示有若干个不同的物品的二维图像。然而,这种页面上显示物品的二维图像的方式无法使孩子从多个不同角度去认知物品,缺乏互动性,不利于提升孩子认知物品的积极性。
发明内容
本申请实施例公开了一种三维模型的互动显示方法、电子设备及存储介质,可以使孩子从多个不同角度去认知物品,提升认知物品过程中的人机互动性,有利于提升孩子认知物品的积极性。
本申请实施例第一方面公开一种三维模型的互动显示方法,所述方法包括:
在页面包含的任一目标物品的二维图像中被选中后,获取用于搭建所述目标物品的三维模型的三维数据;
以所述三维数据为依据,搭建所述目标物品的三维模型;
以增强现实的方式在所述页面上的所述目标物品的二维图像的显示位置加载显示所述目标物品的三维模型;
检测针对显示的所述目标物品的三维模型做出的隔空位姿调整手势;
控制显示的所述目标物品的三维模型的当前位姿调整到所述隔空位姿调整手势对应的目标位姿。
结合本申请实施例第一方面,在一些可选实施例中,所述方法还包括:
检测所述目标物品的三维模型在所述目标位姿下是否关联有待发音外语句子,若关联待发音外语句子,识别出所述待发音外语句子包含各个待发音单词;
在屏幕展示出由所述各个待发音单词的音阶按所述各个待发音单词的发音顺序依次拼接成的音阶梯图;
在所述音阶梯图中加载显示所述各个待发音单词;其中,任一待发音单词在靠近所述音阶梯图中的所述待发音单词的音阶显示;
从屏幕展示出的用户的实时画像中追踪用户的嘴部位置;
在所述各个待发音单词中的某一目标单词被提示需要发音时,以增强现实的方式在用户的嘴部位置加载显示目标单词的标准发音口型。
结合本申请实施例第一方面,在一些可选实施例中,所述在所述用户的嘴部位置加载显示所述目标单词的标准发音口型之后,所述方法还包括:
拾取所述用户对所述目标单词的发音;
将所述用户对所述目标单词的发音与所述目标单词的标准发音进行比较,获得所述用户对所述目标单词的发音测评结果;
在获得所述用户对所述各个待发音单词的发音测评结果之后,根据所述用户对每一个所述待发音单词的发音测评结果,统计所述各个待发音单词中的发音准确的单词的总数量;
对比所述总数量是否超过指定数量,若超过,判断所述目标物品的二维图像是否关联有待解锁对象,若关联有待解锁对象,解锁所述待解锁对象并输出至所述屏幕。
结合本申请实施例第一方面,在一些可选实施例中,所述将所述用户对所述目标单词的发音与所述目标单词的标准发音进行比较,获得所述用户对所述目标单词的发音测评结果之后,所述方法还包括:
控制所述音阶梯图中的所述目标单词的音阶以及所述目标单词分别显示出与所述发音测评结果相对应的颜色。
结合本申请实施例第一方面,在一些可选实施例中,在判断出所述目标物品的二维图像关联有待解锁对象之后,所述方法还包括:
检测所述待解锁对象是否被配置有解锁允许参数;其中,所述解锁允许参数至少包括所述目标物品的三维模型的允许解锁位置和允许解锁姿态;
若所述待解锁对象被配置有所述解锁允许参数,识别出所述目标位姿包含的所述目标物品的三维模型的目标位置和目标姿态;
校验所述目标物品的三维模型的目标位置与所述允许解锁位置是否匹配,以及校验所述目标物品的三维模型的目标姿态与所述允许解锁姿态是否匹配;
若校验所述目标物品的三维模型的目标位置与所述允许解锁位置匹配,并且所述目标物品的三维模型的目标姿态与所述允许解锁姿态匹配,执行所述的解锁所述待解锁对象并输出至所述屏幕的步骤。
本申请实施例第二方面公开一种电子设备,包括:
获取单元,用于在页面包含的任一目标物品的二维图像中被选中后,获取用于搭建所述目标物品的三维模型的三维数据;
搭建单元,用于以所述三维数据为依据,搭建所述目标物品的三维模型;
第一加载单元,用于以增强现实的方式在所述页面上的所述目标物品的二维图像的显示位置加载显示所述目标物品的三维模型;
第一检测单元,用于检测针对显示的所述目标物品的三维模型做出的隔空位姿调整手势;
第一控制单元,用于控制显示的所述目标物品的三维模型的当前位姿调整到所述隔空位姿调整手势对应的目标位姿。
结合本申请实施例第二方面,在一些可选实施例中,所述电子设备还包括:
第一识别单元,用于检测所述目标物品的三维模型在所述目标位姿下是否关联有待发音外语句子,若关联待发音外语句子,识别出所述待发音外语句子包含各个待发音单词;
展示单元,用于在屏幕展示出由所述各个待发音单词的音阶按所述各个待发音单词的发音顺序依次拼接成的音阶梯图;
第二加载单元,用于在所述音阶梯图中加载显示所述各个待发音单词;其中,任一待发音单词在靠近所述音阶梯图中的所述待发音单词的音阶显示;
追踪单元,用于从屏幕展示出的用户的实时画像中追踪用户的嘴部位置;
第三加载单元,用于在所述各个待发音单词中的某一目标单词被提示需要发音时,以增强现实的方式在用户的嘴部位置加载显示目标单词的标准发音口型。
结合本申请实施例第二方面,在一些可选实施例中,所述电子设备还包括:
拾音单元,用于在所述第三加载单元在所述用户的嘴部位置加载显示所述目标单词的标准发音口型之后,拾取所述用户对所述目标单词的发音;
测评单元,用于将所述用户对所述目标单词的发音与所述目标单词的标准发音进行比较,获得所述用户对所述目标单词的发音测评结果;
统计单元,用于在所述测评单元获得所述用户对所述各个待发音单词的发音测评结果之后,根据所述用户对每一个所述待发音单词的发音测评结果,统计所述各个待发音单词中的发音准确的单词的总数量;
对比单元,用于对比所述总数量是否超过指定数量;
判断单元,用于在所述对比单元的对比结果为超过所述指定数量时,判断所述目标物品的二维图像是否关联有待解锁对象;
解锁单元,用于在所述判断单元的判断结果为关联有待解锁对象时,解锁所述待解锁对象并输出至所述屏幕。
结合本申请实施例第二方面,在一些可选实施例中,所述电子设备还包括:
第二控制单元,用于在所述测评单元获得所述用户对所述目标单词的发音测评结果之后,控制所述音阶梯图中的所述目标单词的音阶以及所述目标单词分别显示出与所述发音测评结果相对应的颜色。
结合本申请实施例第二方面,在一些可选实施例中,所述电子设备还包括:
第二检测单元,用于在所述判断单元判断出所述目标物品的二维图像关联有待解锁对象之后,检测所述待解锁对象是否被配置有解锁允许参数;所述解锁允许参数至少包括所述目标物品的三维模型的允许解锁位置和允许解锁姿态;
第二识别单元,用于在所述待解锁对象被配置有所述解锁允许参数,识别出所述目标位姿包含的所述目标物品的三维模型的目标位置和目标姿态;
校验单元,用于校验所述目标物品的三维模型的目标位置与所述允许解锁位置是否匹配,以及校验所述目标物品的三维模型的目标姿态与所述允许解锁姿态是否匹配;若校验所述目标物品的三维模型的目标位置与所述允许解锁位置匹配,并且所述目标物品的三维模型的目标姿态与所述允许解锁姿态匹配,触发所述解锁单元执行所述的在所述判断单元的判断结果为关联有待解锁对象时,解锁所述待解锁对象并输出至所述屏幕。
本申请实施例第三方面公开一种电子设备,包括:
存储有可执行程序代码的存储器;
与所述存储器耦合的处理器;
所述处理器调用所述存储器中存储的所述可执行程序代码,执行本申请实施例第一方面或第一方面任一可选实施例描述的所述三维模型的互动显示方法的全部或部分步骤。
本申请实施例第五方面一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机指令,所述计算机指令运行时使计算机执行本申请实施例第一方面或第一方面任一可选实施例描述的所述三维模型的互动显示方法的全部或部分步骤。
与现有技术相比,本申请实施例具有以下有益效果:
本申请实施例中,在页面包含的任一目标物品的二维图像中被孩子选中后,可以获取用于搭建该目标物品的三维模型的三维数据,并以该三维数据为依据,搭建该目标物品的三维模型;以及,以增强现实的方式在该页面上的该目标物品的二维图像的显示位置加载显示该目标物品的三维模型;在此基础上,可以检测针对显示的该目标物品的三维模型做出的隔空位姿调整手势,并控制显示的该目标物品的三维模型的当前位姿调整到该隔空位姿调整手势对应的目标位姿。实施本申请实施例,在目标物品的三维模型被调整到不同的隔空位姿调整手势对应的不同的目标位姿时,可以使孩子从多个不同角度去认知物品,从而可以提升认知物品过程中的人机互动性,有利于提升孩子认知物品的积极性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例公开的三维模型的互动显示方法的第一实施例的流程示意图;
图2是本申请实施例公开的三维模型的互动显示方法的第二实施例的流程示意图;
图3是本申请实施例公开的屏幕的界面示意图;
图4是本申请实施例公开的三维模型的互动显示方法的第三实施例的流程示意图;
图5是本申请实施例公开的三维模型的互动显示方法的第四实施例的流程示意图;
图6是本申请实施例公开的电子设备的第一实施例的结构示意图;
图7是本申请实施例公开的电子设备的第二实施例的结构示意图;
图8是本申请实施例公开的电子设备的第三实施例的结构示意图;
图9是本申请实施例公开的电子设备的第四实施例的结构示意图;
图10是本申请实施例公开的电子设备的第四实施例的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,本申请实施例的术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本申请实施例公开了一种三维模型的互动显示方法、电子设备及存储介质,可以使孩子从多个不同角度去认知物品,提升认知物品过程中的人机互动性,有利于提升孩子认知物品的积极性。以下进行结合附图进行详细描述。
请参阅图1,图1是本申请实施例公开的三维模型的互动显示方法的第一实施例的流程示意图。其中,图1所描述的三维模型的互动显示方法适用于教育类设备(如家教设备、课堂电子设备)、电脑(如学生平板、个人PC)、移动手机、智能居家设备(如智能电视、智能音箱、智能机器人)等各类电子设备,本申请实施例不作限定。在图1所描述的三维模型的互动显示方法中,以电子设备作为执行主体对该三维模型的互动显示方法进行描述。如图1所示,该口语测评方法可以包括以下步骤:
101、电子设备在页面包含的任一目标物品的二维图像中被选中后,获取用于搭建该目标物品的三维模型的三维数据。
示例性的,页面可以是纸质页面,也可以是屏幕显示的电子页面,本申请实施例不作限定。其中,页面上可以包含有若干个不同的物品的二维图像,如长颈鹿的二维图像、老虎的二维图像、狮子的二维图像、香蕉的二维图像、苹果的二维图像等等,本申请实施例不作限定。
在一些实施方式中,孩子可以采用手指或笔或语音选中页面包含的任一目标物品的二维图像;相应地,在页面包含的任一目标物品的二维图像中被选中后,电子设备可以识别电子设备所处环境(如室内环境)中是否存在有该目标物品对应的真实物品(如真实的苹果),若存在有该目标物品对应的真实物品(如真实的苹果),电子设备可以运用3D扫描技术对该目标物品对应的真实物品(如真实的苹果)进行3D扫描,从而可以获取到用于搭建该目标物品的三维模型的三维数据。若电子设备所处环境(如室内环境)中不存在有该目标物品对应的真实物品(如真实的苹果),电子设备可以从该目标物品的二维图像中提取出该目标物品的图像特征,并根据该目标物品的图像特征从网络中搜索与该目标物品的图像特征相关联的、用于搭建该目标物品的三维模型的三维数据。
102、电子设备以用于搭建该目标物品的三维模型的三维数据为依据,搭建该目标物品的三维模型。
其中,用于搭建该目标物品的三维模型的三维数据可以是3D扫描技术发射的激光脉冲打到该目标物品对应的真实物品(如真实的苹果)的各个空间面后返回来的信号,电子设备根据这些信号可以确定该目标物品对应的真实物品(如真实的苹果)的各个空间面的大小以及各个空间面之间的位置关系;进而,电子设备可以根据这些信号确定出的该目标物品对应的真实物品(如真实的苹果)的各个空间面的大小以及各个空间面之间的位置关系搭建该目标物品的三维模型。
103、电子设备以增强现实的方式在该页面上的该目标物品的二维图像的显示位置加载显示该目标物品的三维模型。
示例性的,电子设备控制光投射模组以增强现实(即AR)的方式在该页面上的该目标物品的二维图像的显示位置加载显示该目标物品的三维模型。
104、电子设备检测针对显示的该目标物品的三维模型做出的隔空位姿调整手势。
示例性的,电子设备可以通过摄像设备(如摄像头)检测针对显示的该目标物品的三维模型做出的隔空位姿调整手势。
105、电子设备控制显示的该目标物品的三维模型的当前位姿调整到该隔空位姿调整手势对应的目标位姿。
示例性的,当前位姿可以包括当前位置和当前姿态,而目标位姿可以包括目标位置和目标姿态。可以理解的是,姿态是一个专业术语,对于飞行器(一种物品)而言,姿态是指它的横滚角及俯仰角;对于舰艇(另一种物品)而言,姿态一般是指它的横摇角、纵摇角。
可见,实施图1所描述的三维模型的互动显示方法,在目标物品的三维模型被调整到不同的隔空位姿调整手势对应的不同的目标位姿时,可以使孩子从多个不同角度去认知物品,从而可以提升认知物品过程中的人机互动性,有利于提升孩子认知物品的积极性。
请参阅图2,图2是本申请实施例公开的三维模型的互动显示方法的第二实施例的流程示意图。在图2所描述的三维模型的互动显示方法中,以电子设备作为执行主体对该三维模型的互动显示方法进行描述。如图2所示,该三维模型的互动显示方法可以包括以下步骤:
201、电子设备在页面包含的任一目标物品的二维图像中被选中后,获取用于搭建该目标物品的三维模型的三维数据。
202、电子设备以该目标物品的三维模型的三维数据为依据,搭建该目标物品的三维模型。
203、电子设备以增强现实的方式在该页面上的该目标物品的二维图像的显示位置加载显示该目标物品的三维模型。
204、电子设备检测针对显示的该目标物品的三维模型做出的隔空位姿调整手势。
205、电子设备控制显示的该目标物品的三维模型的当前位姿调整到该隔空位姿调整手势对应的目标位姿。
206、电子设备检测该目标物品的三维模型在该目标位姿下是否关联有待发音外语句子,若关联有待发音外语句子,执行步骤207~步骤211;若未关联有待发音外语句子,结束本流程。
示例性的,假设该目标物品的三维模型为老虎的三维模型,当老虎的三维模型在该目标位姿下时若老虎的三维模型中的老虎的眼睛能够被孩子观察到,此时老虎的三维模型可以临时关联预先设置好的待发音外语句子库中的待发音外语句子“You can see thetiger's eyes.”;相应地,电子设备可以检测老虎的三维模型在该目标位姿下关联有待发音外语句子“You can see the tiger's eyes.”,并执行步骤207~步骤211。
207、电子设备识别出该待发音外语句子包含的各个待发音单词。
结合上述示例,电子设备可以识别出该待发音外语句子“You can see thetiger's eyes.”包含的“You”、“can”、“see”、“the”、“tiger's”以及“eyes”各个待发音单词。
208、电子设备在屏幕展示出由上述各个待发音单词的音阶按上述各个待发音单词的发音顺序依次拼接成的音阶梯图。
209、电子设备在该音阶梯图中加载显示上述各个待发音单词;其中,任一待发音单词在靠近该音阶梯图中的该待发音单词的音阶显示。
以图3所示的屏幕的界面示意图为例,电子设备可以在屏幕展示出由上述“You”、“can”、“see”、“the”、“tiger's”以及“eyes”各个待发音单词的音阶按上述各个待发音单词的发音顺序依次拼接成的音阶梯图,并且电子设备在该音阶梯图中加载显示上述各个待发音单词;其中,待发音单词“You”在靠近音阶梯图中的待发音单词“You”的音阶显示,待发音单词“can”在靠近音阶梯图中的待发音单词“can”的音阶显示,待发音单词“see”在靠近音阶梯图中的待发音单词“see”的音阶显示,待发音单词“the”在靠近音阶梯图中的待发音单词“the”的音阶显示,待发音单词“tiger's”在靠近音阶梯图中的待发音单词“tiger's”的音阶显示,待发音单词“eyes”在靠近音阶梯图中的待发音单词“eyes”的音阶显示。
210、电子设备从屏幕展示出的用户的实时画像中追踪用户的嘴部位置。
其中,电子设备可以通过摄像设备(如摄像头)拍摄用户的实时画像,并将拍摄到的用户的实时画像输出至屏幕进行展示,在此基础上,电子设备可以通过面部识别与动作捕捉技术定位到用户的实时画像中的嘴部位置,并实时追踪用户的嘴部位置。
211、电子设备在上述各个待发音单词中的某一目标单词被提示需要发音时,以增强现实的方式在用户的嘴部位置加载显示该目标单词的标准发音口型。
示例性的,电子设备可以在上述“You”、“can”、“see”、“the”、“tiger's”以及“eyes”各个待发音单词中的某一目标单词“tiger's”被提示需要发音时,以增强现实的方式在该用户的嘴部位置加载显示目标单词“tiger's”的标准发音口型。
可以理解的是,以增强现实的方式在该用户的嘴部位置加载显示目标单词的标准发音口型可以为:以增强现实的方式在该用户的嘴部位置加载显示目标单词的标准发音口型的变化过程(属于一种动画过程)。
其中,实施上述步骤206~步骤211,能够让孩子关注该目标物品的三维模型在该目标位姿下关联有的待发音外语句子中每个单词发音时的口型和音阶,使得孩子读该目标物品的三维模型在该目标位姿下关联有的待发音外语句子时的语调更加准确、有情感。
请参阅图4,图4是本申请实施例公开的三维模型的互动显示方法的第三实施例的流程示意图。在图4所描述的三维模型的互动显示方法中,以电子设备作为执行主体对该三维模型的互动显示方法进行描述。如图4所示,该三维模型的互动显示方法可以包括以下步骤:
其中,步骤401~步骤411与前面实施例中的步骤201~步骤211相同,本申请实施例此处不作赘述。
412、电子设备拾取该用户对该目标单词的发音。
其中,电子设备可以通过拾音器来拾取该用户对目标单词的发音。
413、电子设备将该用户对该目标单词的发音与该目标单词的标准发音进行比较,获得该用户对该目标单词的发音测评结果。
在一些实施方式中,电子设备执行步骤413之后,还可以执行以下步骤:
控制该音阶梯图中的该目标单词的音阶以及该目标单词分别显示出与该用户对该目标单词的发音测评结果相对应的颜色。
示例性的,若该用户对目标单词的发音测评结果为准确,那么电子设备可以控制音阶梯图中的目标单词的音阶以及目标单词分别显示出与该发音测评结果(即准确)相对应的黑色;反之,若该用户对目标单词的发音测评结果为不准确,那么电子设备可以控制音阶梯图中的目标单词的音阶以及目标单词分别显示出与该发音测评结果(即不准确)相对应的灰色;例如,若该用户对目标单词“tiger's”的发音测评结果为不准确,那么电子设备可以控制音阶梯图中的目标单词“tiger's”的音阶以及目标单词“tiger's”分别显示出与该发音测评结果(即不准确)相对应的灰色。可以提升发音测评过程中的人机互动性,从而可以更好的引导学生对外语单词进行发音测评,有利于提升学生对外语单词发音的准确性。
414、电子设备在获得该用户对上述各个待发音单词的发音测评结果之后,根据该用户对每一个待发音单词的发音测评结果,统计上述各个待发音单词中的发音准确的单词的总数量。
415、电子设备对比该总数量是否超过该指定数量,若超过,执行步骤416;若未超过,结束本流程。
416、电子设备判断该目标物品的二维图像是否关联有待解锁对象,若关联有待解锁对象,执行步骤417;若未关联有待解锁对象,结束本流程。
示例性的,待解锁对象可以是待解锁页面、待解锁APP等,本申请实施例不作限定。
417、电子设备解锁待解锁对象并输出至屏幕。
其中,实施步骤412~步骤417,可以在引导学生对外语单词进行发音测评,以提升学生对外语单词发音的准确性的同时,提升解锁该目标物品的二维图像关联的待解锁对象时的安全性。
请参阅图5,图5是本申请实施例公开的三维模型的互动显示方法的第四实施例的流程示意图。在图5所描述的三维模型的互动显示方法中,以电子设备作为执行主体对该三维模型的互动显示方法进行描述。如图5所示,该三维模型的互动显示方法可以包括以下步骤:
其中,步骤501~步骤515与前面实施例中的步骤401~步骤415相同,本申请实施例此处不作赘述。
516、电子设备判断该目标物品的二维图像是否关联有待解锁对象,若关联有待解锁对象,执行步骤517;若未关联有待解锁对象,结束本流程。
517、电子设备检测待解锁对象是否被配置有解锁允许参数;其中,解锁允许参数至少包括该目标物品的三维模型的允许解锁位置和允许解锁姿态;若是,执行步骤518~步骤519;若否,执行步骤520。
518、电子设备识别出该目标位姿包含的该目标物品的三维模型的目标位置和目标姿态。
519、电子设备校验该目标物品的三维模型的目标位置与该允许解锁位置是否匹配,以及校验该目标物品的三维模型的目标姿态与该允许解锁姿态是否匹配;若校验该目标物品的三维模型的目标位置与该允许解锁位置匹配,并且该目标物品的三维模型的目标姿态与该允许解锁姿态匹配,执行步骤520。
其中,该目标物品的三维模型的目标位置与该允许解锁位置匹配可以是:该目标物品的三维模型的目标位置与该允许解锁位置相同。
其中,该目标物品的三维模型的目标姿态与该允许解锁姿态匹配可以是:该目标物品的三维模型的目标姿态与该允许解锁姿态相同。
520、电子设备解锁待解锁对象并输出至屏幕。
其中,实施步骤516~步骤520,可以更好的提升解锁该目标物品的二维图像关联的待解锁对象时的安全性。
请参阅图6,图6是本申请实施例公开的电子设备的第一实施例的结构示意图。该电子设备可以包括:
获取单元601,用于在页面包含的任一目标物品的二维图像中被选中后,获取用于搭建该目标物品的三维模型的三维数据;
搭建单元602,用于以该三维数据为依据,搭建该目标物品的三维模型;
第一加载单元603,用于以增强现实的方式在该页面上的该目标物品的二维图像的显示位置加载显示该目标物品的三维模型;
第一检测单元604,用于检测针对显示的该目标物品的三维模型做出的隔空位姿调整手势;
第一控制单元605,用于控制显示的该目标物品的三维模型的当前位姿调整到该隔空位姿调整手势对应的目标位姿。
可见,实施图6所描述的电子设备,在目标物品的三维模型被调整到不同的隔空位姿调整手势对应的不同的目标位姿时,可以使孩子从多个不同角度去认知物品,从而可以提升认知物品过程中的人机互动性,有利于提升孩子认知物品的积极性。
请一并参阅图7,图7是本申请实施例公开的电子设备的第二实施例的结构示意图。其中,图7所示的电子设备是由图6所示的电子设备优化得到的。在图7所示的电子设备中,还包括:
第一识别单元606,用于检测该目标物品的三维模型在该目标位姿下是否关联有待发音外语句子,若关联待发音外语句子,识别出待发音外语句子包含各个待发音单词;
展示单元607,用于在屏幕展示出由该各个待发音单词的音阶按该各个待发音单词的发音顺序依次拼接成的音阶梯图;
第二加载单元608,用于在音阶梯图中加载显示该各个待发音单词;其中,任一待发音单词在靠近该音阶梯图中的该待发音单词的音阶显示;
追踪单元609,用于从屏幕展示出的用户的实时画像中追踪用户的嘴部位置;
第三加载单元610,用于在该各个待发音单词中的某一目标单词被提示需要发音时,以增强现实的方式在用户的嘴部位置加载显示目标单词的标准发音口型。
其中,实施图7所示的电子设备,能够让孩子关注该目标物品的三维模型在该目标位姿下关联有的待发音外语句子中每个单词发音时的口型和音阶,使得孩子读该目标物品的三维模型在该目标位姿下关联有的待发音外语句子时的语调更加准确、有情感。
请一并参阅图8,图8是本申请实施例公开的电子设备的第三实施例的结构示意图。其中,图8所示的电子设备是由图7所示的电子设备优化得到的。在图8所示的电子设备中,还包括:
拾音单元611,用于在第三加载单元610在该用户的嘴部位置加载显示该目标单词的标准发音口型之后,拾取该用户对该目标单词的发音;
测评单元612,用于将该用户对该目标单词的发音与该目标单词的标准发音进行比较,获得该用户对该目标单词的发音测评结果;
统计单元613,用于在测评单元612获得该用户对该各个待发音单词的发音测评结果之后,根据该用户对每一个待发音单词的发音测评结果,统计该各个待发音单词中的发音准确的单词的总数量;
对比单元614,用于对比该总数量是否超过指定数量;
判断单元615,用于在对比单元614的对比结果为超过指定数量时,判断该目标物品的二维图像是否关联有待解锁对象;
解锁单元616,用于在判断单元615的判断结果为关联有待解锁对象时,解锁待解锁对象并输出至屏幕。
可选的,还包括:
第二控制单元617,用于在测评单元612获得该用户对该目标单词的发音测评结果之后,控制音阶梯图中的该目标单词的音阶以及该目标单词分别显示出与该发音测评结果相对应的颜色。
其中,实施图8所示的电子设备,可以在引导学生对外语单词进行发音测评,以提升学生对外语单词发音的准确性的同时,提升解锁该目标物品的二维图像关联的待解锁对象时的安全性。
请一并参阅图9,图9是本申请实施例公开的电子设备的第四实施例的结构示意图。其中,图9所示的电子设备是由图8所示的电子设备优化得到的。在图9所示的电子设备中,还包括:
第二检测单元618,用于在判断单元615判断出目标物品的二维图像关联有待解锁对象之后,检测待解锁对象是否被配置有解锁允许参数;其中,解锁允许参数至少包括目标物品的三维模型的允许解锁位置和允许解锁姿态;
第二识别单元619,用于在待解锁对象被配置有解锁允许参数时,识别出该目标位姿包含的目标物品的三维模型的目标位置和目标姿态;
校验单元620,用于校验该目标物品的三维模型的目标位置与该允许解锁位置是否匹配,以及校验该目标物品的三维模型的目标姿态与该允许解锁姿态是否匹配;若校验该目标物品的三维模型的目标位置与该允许解锁位置匹配,并且该目标物品的三维模型的目标姿态与该允许解锁姿态匹配,触发解锁单元616执行在判断单元615的判断结果为关联有待解锁对象时,解锁待解锁对象并输出至屏幕的操作。
其中,实施图9所示的电子设备,可以更好的提升解锁该目标物品的二维图像关联的待解锁对象时的安全性。
请参阅图10,图10是本申请实施例公开的电子设备的第五实施例的结构示意图。如图10所示,该电子设备可以包括上:
存储有可执行程序代码的存储器1001
与存储器耦合的处理器1002;
其中,处理器1002调用存储器1001中存储的可执行程序代码,执行上述口语测评方法的全部或部分步骤。
需要说明的是,本申请实施例中,图10所示的电子设备还可以包括扬声器模组、屏幕、光投射模组、电池模组、无线通信模组(如移动通信模块、WIFI模块、蓝牙模块等)、传感器模组(如接近传感器等)、输入模组(如麦克风、按键)以及用户接口模组(如充电接口、对外供电接口、卡槽、有线耳机接口等)等未显示的部件。
本发明实施例公开一种计算机可读存储介质,其上存储有计算机指令,该计算机指令运行时使计算机执行上述三维模型的互动显示方法的全部或部分步骤。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质包括只读存储器(Read-Only Memory,ROM)、随机存储器(Random Access Memory,RAM)、可编程只读存储器(Programmable Read-only Memory,PROM)、可擦除可编程只读存储器(Erasable Programmable Read Only Memory,EPROM)、一次可编程只读存储器(One-time Programmable Read-Only Memory,OTPROM)、电子抹除式可复写只读存储器(Electrically-Erasable Programmable Read-Only Memory,EEPROM)、只读光盘(CompactDisc Read-Only Memory,CD-ROM)或其他光盘存储器、磁盘存储器、磁带存储器、或者能够用于携带或存储数据的计算机可读的任何其他介质。
以上对本发明实施例公开的上述三维模型的互动显示方法及电子设备,存储介质进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (8)

1.一种三维模型的互动显示方法,其特征在于,所述方法包括:
在页面包含的任一目标物品的二维图像中被选中后,获取用于搭建所述目标物品的三维模型的三维数据;
以所述三维数据为依据,搭建所述目标物品的三维模型;
以增强现实的方式在所述页面上的所述目标物品的二维图像的显示位置加载显示所述目标物品的三维模型;
检测针对显示的所述目标物品的三维模型做出的隔空位姿调整手势;
控制显示的所述目标物品的三维模型的当前位姿调整到所述隔空位姿调整手势对应的目标位姿;
检测所述目标物品的三维模型在所述目标位姿下是否关联有待发音外语句子,若关联有待发音外语句子,识别出所述待发音外语句子包含的各个待发音单词;
在屏幕展示出由所述各个待发音单词的音阶按所述各个待发音单词的发音顺序依次拼接成的音阶梯图;
在所述音阶梯图中加载显示所述各个待发音单词,任一待发音单词在靠近所述音阶梯图中的所述待发音单词的音阶显示;
从屏幕展示出的用户的实时画像中追踪用户的嘴部位置;
在所述各个待发音单词中的某一目标单词被提示需要发音时,以增强现实的方式在用户的嘴部位置加载显示目标单词的标准发音口型;
拾取所述用户对所述目标单词的发音;
将所述用户对所述目标单词的发音与所述目标单词的标准发音进行比较,获得所述用户对所述目标单词的发音测评结果;
在获得所述用户对所述各个待发音单词的发音测评结果之后,根据所述用户对每一个所述待发音单词的发音测评结果,统计所述各个待发音单词中的发音准确的单词的总数量;
对比所述总数量是否超过指定数量,若超过,判断所述目标物品的二维图像是否关联有待解锁对象,若关联有待解锁对象,解锁所述待解锁对象并输出至所述屏幕。
2.根据权利要求1所述的互动显示方法,其特征在于,所述将所述用户对所述目标单词的发音与所述目标单词的标准发音进行比较,获得所述用户对所述目标单词的发音测评结果之后,所述方法还包括:
控制所述音阶梯图中的所述目标单词的音阶以及所述目标单词分别显示出与所述发音测评结果相对应的颜色。
3.根据权利要求1或2所述的互动显示方法,其特征在于,在判断出所述目标物品的二维图像关联有待解锁对象之后,所述方法还包括:
检测所述待解锁对象是否被配置有解锁允许参数;其中,所述解锁允许参数至少包括所述目标物品的三维模型的允许解锁位置和允许解锁姿态;
若被配置有所述解锁允许参数,识别出所述目标位姿包含的所述目标物品的三维模型的目标位置和目标姿态;
校验所述目标物品的三维模型的目标位置与所述允许解锁位置是否匹配,以及校验所述目标物品的三维模型的目标姿态与所述允许解锁姿态是否匹配;
若校验所述目标物品的三维模型的目标位置与所述允许解锁位置匹配,并且所述目标物品的三维模型的目标姿态与所述允许解锁姿态匹配,执行所述的解锁所述待解锁对象并输出至所述屏幕的步骤。
4.一种电子设备,其特征在于,所述电子设备包括:
获取单元,用于在页面包含的任一目标物品的二维图像中被选中后,获取用于搭建所述目标物品的三维模型的三维数据;
搭建单元,用于以所述三维数据为依据,搭建所述目标物品的三维模型;
第一加载单元,用于以增强现实的方式在所述页面上的所述目标物品的二维图像的显示位置加载显示所述目标物品的三维模型;
第一检测单元,用于检测针对显示的所述目标物品的三维模型做出的隔空位姿调整手势;
第一控制单元,用于控制显示的所述目标物品的三维模型的当前位姿调整到所述隔空位姿调整手势对应的目标位姿;
第一识别单元,用于检测所述目标物品的三维模型在所述目标位姿下是否关联有待发音外语句子,若关联待发音外语句子,识别出所述待发音外语句子包含各个待发音单词;
展示单元,用于在屏幕展示出由所述各个待发音单词的音阶按所述各个待发音单词的发音顺序依次拼接成的音阶梯图;
第二加载单元,用于在所述音阶梯图中加载显示所述各个待发音单词;其中,任一待发音单词在靠近所述音阶梯图中的所述待发音单词的音阶显示;
追踪单元,用于从屏幕展示出的用户的实时画像中追踪用户的嘴部位置;
第三加载单元,用于在所述各个待发音单词中的某一目标单词被提示需要发音时,以增强现实的方式在用户的嘴部位置加载显示目标单词的标准发音口型;
拾音单元,用于在所述第三加载单元在所述用户的嘴部位置加载显示所述目标单词的标准发音口型之后,拾取所述用户对所述目标单词的发音;
测评单元,用于将所述用户对所述目标单词的发音与所述目标单词的标准发音进行比较,获得所述用户对所述目标单词的发音测评结果;
统计单元,用于在所述测评单元获得所述用户对所述各个待发音单词的发音测评结果之后,根据所述用户对每一个所述待发音单词的发音测评结果,统计所述各个待发音单词中的发音准确的单词的总数量;
对比单元,用于对比所述总数量是否超过指定数量;
判断单元,用于在所述对比单元的对比结果为超过所述指定数量时,判断所述目标物品的二维图像是否关联有待解锁对象;
解锁单元,用于在所述判断单元的判断结果为关联有待解锁对象时,解锁所述待解锁对象并输出至所述屏幕。
5.根据权利要求4所述的电子设备,其特征在于,还包括:
第二控制单元,用于在所述测评单元获得所述用户对所述目标单词的发音测评结果之后,控制所述音阶梯图中的所述目标单词的音阶以及所述目标单词分别显示出与所述发音测评结果相对应的颜色。
6.根据权利要求4或5所述的电子设备,其特征在于,还包括:
第二检测单元,用于在所述判断单元判断出所述目标物品的二维图像关联有待解锁对象之后,检测所述待解锁对象是否被配置有解锁允许参数;所述解锁允许参数至少包括所述目标物品的三维模型的允许解锁位置和允许解锁姿态;
第二识别单元,用于在所述待解锁对象被配置有所述解锁允许参数时,识别出所述目标位姿包含的所述目标物品的三维模型的目标位置和目标姿态;
校验单元,用于校验所述目标物品的三维模型的目标位置与所述允许解锁位置是否匹配,以及校验所述目标物品的三维模型的目标姿态与所述允许解锁姿态是否匹配;若校验所述目标物品的三维模型的目标位置与所述允许解锁位置匹配,并且所述目标物品的三维模型的目标姿态与所述允许解锁姿态匹配,触发所述解锁单元执行所述的在所述判断单元的判断结果为关联有待解锁对象时,解锁所述待解锁对象并输出至所述屏幕。
7.一种电子设备,其特征在于,包括:
存储有可执行程序代码的存储器;
与所述存储器耦合的处理器;
所述处理器调用所述存储器中存储的所述可执行程序代码,执行权利要求1~3任一项所述的三维模型的互动显示方法。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机指令,所述计算机指令运行时使计算机执行权利要求1~3任一项所述的三维模型的互动显示方法。
CN202010425594.6A 2020-05-19 2020-05-19 一种三维模型的互动显示方法、电子设备及存储介质 Active CN111639567B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010425594.6A CN111639567B (zh) 2020-05-19 2020-05-19 一种三维模型的互动显示方法、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010425594.6A CN111639567B (zh) 2020-05-19 2020-05-19 一种三维模型的互动显示方法、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN111639567A CN111639567A (zh) 2020-09-08
CN111639567B true CN111639567B (zh) 2024-03-22

Family

ID=72329016

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010425594.6A Active CN111639567B (zh) 2020-05-19 2020-05-19 一种三维模型的互动显示方法、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN111639567B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112562048A (zh) * 2020-12-16 2021-03-26 北京百度网讯科技有限公司 三维模型的控制方法、装置、设备以及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272154A (ja) * 1998-03-18 1999-10-08 Nobuyoshi Nakamura 会話教材用記録媒体
KR101822026B1 (ko) * 2016-08-31 2018-01-26 주식회사 뮤엠교육 아바타 기반의 언어 학습시스템
CN107690303A (zh) * 2015-06-04 2018-02-13 惠普发展公司, 有限责任合伙企业 生成三维模型
CN109215413A (zh) * 2018-09-21 2019-01-15 福州职业技术学院 一种基于移动增强现实的模具设计教学方法、系统及移动终端
CN109643465A (zh) * 2016-06-20 2019-04-16 Cy游戏公司 用于创建混合现实环境的系统等

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8600166B2 (en) * 2009-11-06 2013-12-03 Sony Corporation Real time hand tracking, pose classification and interface control

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272154A (ja) * 1998-03-18 1999-10-08 Nobuyoshi Nakamura 会話教材用記録媒体
CN107690303A (zh) * 2015-06-04 2018-02-13 惠普发展公司, 有限责任合伙企业 生成三维模型
CN109643465A (zh) * 2016-06-20 2019-04-16 Cy游戏公司 用于创建混合现实环境的系统等
KR101822026B1 (ko) * 2016-08-31 2018-01-26 주식회사 뮤엠교육 아바타 기반의 언어 학습시스템
CN109215413A (zh) * 2018-09-21 2019-01-15 福州职业技术学院 一种基于移动增强现实的模具设计教学方法、系统及移动终端

Also Published As

Publication number Publication date
CN111639567A (zh) 2020-09-08

Similar Documents

Publication Publication Date Title
US20210072835A1 (en) Performing an action associated with a motion based input
US9063704B2 (en) Identifying gestures using multiple sensors
US8606735B2 (en) Apparatus and method for predicting user's intention based on multimodal information
WO2019210796A1 (zh) 语音识别方法、装置、存储介质及电子设备
US10241990B2 (en) Gesture based annotations
CN108537702A (zh) 外语教学评价信息生成方法以及装置
US9129602B1 (en) Mimicking user speech patterns
US10311743B2 (en) Systems and methods for providing a multi-modal evaluation of a presentation
US20100277579A1 (en) Apparatus and method for detecting voice based on motion information
KR20060088275A (ko) 움직임 기반 소리 설정장치와 소리 발생장치 및 움직임기반 소리 설정방법과 소리 발생방법
CN108877787A (zh) 语音识别方法、装置、服务器及存储介质
KR20190053001A (ko) 이동이 가능한 전자 장치 및 그 동작 방법
CN113327620A (zh) 声纹识别的方法和装置
US20190138117A1 (en) Information processing device, information processing method, and program
CN111639567B (zh) 一种三维模型的互动显示方法、电子设备及存储介质
CN110580897B (zh) 音频校验方法、装置、存储介质及电子设备
CN111639227B (zh) 一种虚拟角色的口语控制方法、电子设备及存储介质
CN111638781B (zh) 基于ar的发音引导方法、装置、电子设备及存储介质
CN111563514B (zh) 一种三维字符的显示方法及装置、电子设备、存储介质
CN115798033A (zh) 基于手势识别钢琴训练方法、系统、设备以及存储介质
CN115086094A (zh) 设备选择方法及相关装置
CN111639635B (zh) 一种拍摄图片的处理方法及装置、电子设备、存储介质
CN109102810B (zh) 声纹识别方法和装置
US20190354202A1 (en) Electronic interactive method and device for magnetic objects
CN111639220A (zh) 一种口语测评方法及装置、电子设备、存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant