CN108959273B - 翻译方法、电子装置及存储介质 - Google Patents
翻译方法、电子装置及存储介质 Download PDFInfo
- Publication number
- CN108959273B CN108959273B CN201810619685.6A CN201810619685A CN108959273B CN 108959273 B CN108959273 B CN 108959273B CN 201810619685 A CN201810619685 A CN 201810619685A CN 108959273 B CN108959273 B CN 108959273B
- Authority
- CN
- China
- Prior art keywords
- user
- target
- eyeball
- display screen
- characters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000013519 translation Methods 0.000 title claims abstract description 83
- 238000000034 method Methods 0.000 title claims abstract description 42
- 210000005252 bulbus oculi Anatomy 0.000 claims abstract description 134
- 238000004891 communication Methods 0.000 claims abstract description 41
- 210000001508 eye Anatomy 0.000 claims description 32
- 230000015654 memory Effects 0.000 claims description 31
- 230000033001 locomotion Effects 0.000 claims description 28
- 210000001747 pupil Anatomy 0.000 claims description 27
- 241000287181 Sturnus vulgaris Species 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 14
- 238000001514 detection method Methods 0.000 claims description 8
- 230000005540 biological transmission Effects 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 15
- 238000012545 processing Methods 0.000 description 13
- 230000004424 eye movement Effects 0.000 description 10
- 239000000284 extract Substances 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 229910052751 metal Inorganic materials 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- AMGQUBHHOARCQH-UHFFFAOYSA-N indium;oxotin Chemical compound [In].[Sn]=O AMGQUBHHOARCQH-UHFFFAOYSA-N 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了一种翻译方法、电子装置及存储介质,电子装置与可穿戴设备建立无线连接;电子装置包括显示屏、控制器和通信模块;控制器,用于检测用户视线是否覆盖显示屏;控制器,还用于检测到用户视线覆盖显示屏时,识别用户眼球是否盯着显示屏的目标区域;控制器,还用于识别到用户眼球盯着目标区域时,提取目标区域内的文字;控制器,还用于在目标区域内的文字不属于目标语言时,则将目标区域内的文字翻译为目标语言对应的目标语音;通信模块,用于将目标语音传输至可穿戴设备,可穿戴设备用于播放目标语音。采用本申请实施例可以通过可穿戴设备播放电子装置的显示屏上显示的文字的翻译语音。
Description
技术领域
本申请涉及电子技术领域,尤其涉及一种翻译方法、电子装置及存储介质。
背景技术
目前,随着手机、平板电脑等电子装置的逐渐普及,电子装置的功能也越来越多。目前的电子装置可以实现在线翻译,用户输入翻译的文字,翻译软件进行翻译并输出翻译结果。然而,目前的在线翻译方法需要用户手动触发,较为不便。
发明内容
本申请实施例提供一种翻译方法、电子装置及存储介质,可以通过可穿戴设备播放电子装置的显示屏上显示的文字的翻译语音。
第一方面,本申请实施例提供一种电子装置,所述电子装置与可穿戴设备建立无线连接;所述电子装置包括显示屏、控制器和通信模块;
所述控制器,用于检测用户视线是否覆盖所述显示屏;
所述控制器,还用于检测到所述用户视线覆盖所述显示屏时,识别用户眼球是否盯着所述显示屏的目标区域;
所述控制器,还用于识别到所述用户眼球盯着所述目标区域时,提取所述目标区域内的文字;
所述控制器,还用于在所述目标区域内的文字不属于目标语言时,则将所述目标区域内的文字翻译为所述目标语言对应的目标语音;
所述通信模块,用于将所述目标语音传输至可穿戴设备,所述可穿戴设备用于播放所述目标语音。
第二方面,本申请实施例提供一种翻译方法,所述方法包括:
检测用户视线是否覆盖显示屏;
若所述用户视线覆盖所述显示屏,识别用户眼球是否盯着所述显示屏的目标区域;
若所述用户眼球盯着所述目标区域,提取所述目标区域内的文字;若所述目标区域内的文字不属于目标语言,则将所述目标区域内的文字翻译为所述目标语言对应的目标语音,将所述目标语音传输至可穿戴设备,所述可穿戴设备用于播放所述目标语音。
第三方面,本申请实施例提供一种翻译装置,应用于电子装置,所述翻译装置包括检测单元、识别单元、提取单元、翻译单元和传输单元,其中:
所述检测单元,用于检测用户视线是否覆盖所述显示屏;
所述识别单元,还用于当所述检测单元检测到所述用户视线覆盖所述显示屏时,识别用户眼球是否盯着所述显示屏的目标区域;
所述提取单元,还用于当所述识别单元识别到所述用户眼球盯着所述目标区域时,提取所述目标区域内的文字;
所述翻译单元,还用于在所述目标区域内的文字不属于目标语言时,将所述目标区域内的文字翻译为所述目标语言对应的目标语音;
所述传输单元,用于将所述目标语音传输至可穿戴设备,所述可穿戴设备用于播放所述目标语音。
第四方面,本申请实施例提供一种电子装置,包括处理器、存储器、通信接口以及一个或多个程序,其中,上述一个或多个程序被存储在上述存储器中,并且被配置由上述处理器执行,上述程序包括用于执行本申请实施例第二方面任一方法中的步骤的指令。
第五方面,本申请实施例提供了一种计算机可读存储介质,其中,上述计算机可读存储介质存储用于电子数据交换的计算机程序,其中,上述计算机程序使得电子装置执行如本申请实施例第二方面任一方法中所描述的部分或全部步骤。
第六方面,本申请实施例提供了一种计算机程序产品,其中,上述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,上述计算机程序可操作来使电子装置执行如本申请实施例第二方面任一方法中所描述的部分或全部步骤。该计算机程序产品可以为一个软件安装包。
在本申请实施例中,可穿戴装置包括显示屏、控制器和通信模块;控制器用于检测用户视线是否覆盖显示屏,以及用于检测到用户视线覆盖显示屏时,识别用户眼球是否盯着显示屏的目标区域;以及用于识别到用户眼球盯着目标区域时,提取目标区域内的文字;以及用于在目标区域内的文字不属于目标语言时,将目标区域内的文字翻译为目标语言对应的目标语音;通信模块用于将目标语音传输至可穿戴设备,可穿戴设备用于播放目标语音。本申请实施例中,电子装置可以识别用户是否盯着显示屏的目标区域,在检测到用户盯着显示屏的目标区域时,表明用户不认识该目标区域内的文字,提取该目标区域内的文字并翻译为目标语音,然后传输给可穿戴设备播放该目标语音。电子装置可以自动将用户眼球盯着显示屏的区域内的文字翻译成语音后传输给可穿戴设备进行播放,可以自动识别用户需要翻译的文字,并可以通过可穿戴设备快速播放翻译后的语音,可以通过可穿戴设备播放电子装置的显示屏上显示的文字的翻译语音,无需在显示屏上显示翻译后的文字信息,避免翻译后的文字影响用户阅读,进而提升用户阅读体验。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1a是本申请实施例公开的一种网络构架示意图;
图1b是本申请实施例公开的一种电子装置的结构示意图;
图2是本申请实施例公开的另一种电子装置的结构示意图;
图3是本申请实施例公开的一种用户视线与显示屏的位置关系示意图;
图4是本申请实施例公开的另一种电子装置的结构示意图;
图5是本申请实施例公开的一种可穿戴设备的结构示意图;
图6是本申请实施例公开的一种翻译方法的流程示意图;
图7是本申请实施例公开的另一种翻译方法的流程示意图;
图8是本申请实施例公开的另一种电子装置的结构示意图;
图9是本申请实施例公开的一种翻译装置的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
以下分别进行详细说明。
本申请的说明书和权利要求书及所述附图中的术语“第一”、“第二”、“第三”和“第四”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
下面对本申请实施例进行详细介绍。
请参阅图1a,图1a是本申请实施例公开的一种网络构架示意图。在图1a所示的网络构架中,可以包括电子装置100和可穿戴设备200,其中,电子装置100可以通过无线网络(例如,蓝牙、红外线或WiFi)与可穿戴设备200建立通信连接。可穿戴设备200可以包括扬声器、处理模块(比如,处理器和存储器)和通信模块(比如,蓝牙模块)。在图1a所示的网络构架中,电子装置100具有语音翻译功能,电子装置100和可穿戴设备200之间可以实现语音数据传输。
可穿戴设备可以是便携式收听设备(例如,无线耳机)、智能手环、智能耳环、智能头带、智能头盔等。为了便于说明,以下实施例中的可穿戴设备以无线耳机为例进行说明。
无线耳机可以为挂耳式耳机,也可以为耳塞式耳机,也可以为头戴式耳机,本申请实施例不做限定。
无线耳机可以收纳在耳机盒中,耳机盒可以包括:两个接收腔(第一接收腔和第二接收腔),该两个接收腔的大小和形状设计成接收一对无线耳机(第一无线耳机和第二无线耳机);设置在盒内的一个或多个耳机外壳磁性部件,上述一个或多个耳机外壳磁性部件用于将一对无线耳机磁性吸引且分别磁性固定到两个接收腔中。耳机盒还可以包括耳机盖。其中,第一接收腔的大小和形状设计成接收第一无线耳机,第二接收腔的大小和形状设计成接收第二无线耳机。
无线耳机可以包括耳机外壳、设置在耳机外壳内的可循环充电的电池(例如,锂电池)、用于连接电池与充电装置的多个金属触点、包括驱动器单元和定向声音端口的扬声器组件,其中,驱动器单元包括磁体、音圈和隔膜,驱动器单元用于从定向声音端口发出声音,上述多个金属触点设置在耳机外壳的外部表面。
在一种可能的实现方式中,无线耳机还可以包括触摸区,该触摸区可以位于在耳机外壳的外部表面,触摸区内设置有至少一个触摸传感器,用于检测触摸操作,触摸传感器可以包括电容传感器。当用户触摸触摸区时,至少一个电容传感器可以检测到自身电容的变化从而识别触摸操作。
在一种可能的实现方式中,无线耳机还可以包括加速度传感器和三轴陀螺仪,加速度传感器和三轴陀螺仪可以设置在耳机外壳内,加速度传感器和三轴陀螺仪用于识别无线耳机的拿起动作和取下动作。
在一种可能的实现方式中,无线耳机还可以包括至少一个气压传感器,气压传感器可以设置在耳机外壳的表面,用于在无线耳机佩戴后检测耳内气压。可以通过气压传感器检测无线耳机的佩戴松紧度。当检测到无线耳机佩戴较松时,无线耳机可以向与无线耳机连接的电子装置(比如,手机)发送提示信息,以提示用户该无线耳机有掉落风险。
请参阅图1b,图1b是本申请实施例公开的一种电子装置的结构示意图,电子装置100包括存储和处理电路710,以及与所述存储和处理电路710连接的通信电路720和音频组件740,其中,在一些特定的电子装置内,还可以设置显示组件730或触控组件。
电子装置100可以包括控制电路,该控制电路可以包括存储和处理电路710。该存储和处理电路710可以存储器,例如硬盘驱动存储器,非易失性存储器(例如闪存或用于形成固态驱动器的其它电子可编程只读存储器等),易失性存储器(例如静态或动态随机存取存储器等)等,本申请实施例不作限制。存储和处理电路710中的处理电路可以用于控制电子装置100的运转。该处理电路可以基于一个或多个微处理器,微控制器,数字信号处理器,基带处理器,功率管理单元,音频编解码器芯片,专用集成电路,显示驱动器集成电路等来实现。
存储和处理电路710可用于运行电子装置100中的软件,例如互联网协议语音(Voice over Internet Protocol,VOIP)电话呼叫应用程序,同声翻译功能,媒体播放应用程序,操作系统功能等。这些软件可以用于执行一些控制操作,例如,基于照相机的图像采集,基于环境光传感器的环境光测量,基于接近传感器的接近传感器测量,基于诸如发光二极管的状态指示灯等状态指示器实现的信息显示功能,基于触摸传感器的触摸事件检测,与执行无线通信功能相关联的操作,与收集和产生音频信号相关联的操作,与收集和处理按钮按压事件数据相关联的控制操作,以及电子装置100中的其它功能等,本申请实施例不作限制。
电子装置100还可以包括输入-输出电路750。输入-输出电路750可用于使电子装置100实现数据的输入和输出,即允许电子装置100从外部设备接收数据和也允许电子装置100将数据从电子装置100输出至外部设备。输入-输出电路750可以进一步包括传感器770。传感器770可以包括环境光传感器,基于光和电容的接近传感器,触摸传感器(例如,基于光触摸传感器和/或电容式触摸传感器,其中,触摸传感器可以是触控显示屏的一部分,也可以作为一个触摸传感器结构独立使用),加速度传感器,和其它传感器等。
输入-输出电路750还可以包括触摸传感器阵列(即,显示器730可以是触控显示屏)。触摸传感器可以是由透明的触摸传感器电极(例如氧化铟锡(ITO)电极)阵列形成的电容式触摸传感器,或者可以是使用其它触摸技术形成的触摸传感器,例如音波触控,压敏触摸,电阻触摸,光学触摸等,本申请实施例不作限制。
电子装置100还可以包括音频组件740。音频组件740可以用于为电子装置100提供音频输入和输出功能。电子装置100中的音频组件740可以包括扬声器,麦克风,蜂鸣器,音调发生器以及其它用于产生和检测声音的组件。
通信电路720可以用于为穿戴设备100提供与外部设备通信的能力。通信电路720可以包括模拟和数字输入-输出接口电路,和基于射频信号和/或光信号的无线通信电路。通信电路720中的无线通信电路可以包括射频收发器电路、功率放大器电路、低噪声放大器、开关、滤波器和天线。举例来说,通信电路720中的无线通信电路可以包括用于通过发射和接收近场耦合电磁信号来支持近场通信(Near Field Communication,NFC)的电路。例如,通信电路720可以包括近场通信天线和近场通信收发器。通信电路720还可以包括蜂窝电话收发器和天线,无线局域网收发器电路和天线等。
电子装置100还可以进一步包括电池,电力管理电路和其它输入-输出单元760。输入-输出单元760可以包括按钮,操纵杆,点击轮,滚动轮,触摸板,小键盘,键盘,照相机,发光二极管或其它状态指示器等。
用户可以通过输入-输出电路750输入命令来控制电子装置100的操作,并且可以使用输入-输出电路750的输出数据以实现接收来自电子装置100的状态信息和其它输出。
请参阅图2,图2是本申请实施例公开的另一种电子装置的结构示意图,电子装置100可以包括显示屏11、控制器12和通信模块13,显示屏11和通信模块13与控制器12连接。
控制器12,用于检测用户视线是否覆盖显示屏11;
控制器12,还用于检测到用户视线覆盖显示屏11时,识别用户眼球是否盯着显示屏11的目标区域;
控制器12,还用于识别到用户眼球盯着目标区域时,提取目标区域内的文字;
控制器12,还用于在目标区域内的文字不属于目标语言时,则将目标区域内的文字翻译为目标语言对应的目标语音;
通信模块13,用于将目标语音传输至可穿戴设备,可穿戴设备用于播放目标语音。
本申请实施例中,控制器12可以包括处理器和存储器,该处理器是电子装置100的控制中心,利用各种接口和线路连接整个可穿戴设备的各个部分,通过运行或执行存储在存储器内的软件程序和/或模块,以及调用存储在存储器内的数据,执行可穿戴设备的各种功能和处理数据,从而对可穿戴设备进行整体监控。可选的,处理器可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器中。
其中,存储器可用于存储软件程序以及模块,处理器通过运行存储在存储器的软件程序以及模块,从而执行可穿戴设备的各种功能应用以及数据处理。存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据可穿戴设备的使用所创建的数据等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
本申请实施例中,用户视线是用户的眼睛能够发出的视线。用户视线是以用户的眼睛为中心,在一定的空间角度范围发射出来的射线的集合。用户视线可以通过电子装置100上的摄像头获取的用户眼部图像来确定。
本申请实施例中,控制器12检测用户视线是否覆盖显示屏11,具体为:
控制器12根据用户眼部图像确定用户视线的覆盖区域,根据用户眼球与显示屏的相对位置关系检测用户视线是否覆盖显示屏11。
目标区域是显示屏中的任意一块区域,目标区域可以是用户视线的中心方向与显示屏相交的两个点为椭圆的两个焦点组成的椭圆区域。
举例来说,请参阅图3,图3是本申请实施例公开的一种用户视线与显示屏的位置关系示意图。如图3所示,图3中的右图中的虚线为用户视线的方向示意图,图3中的左图为目标区域在显示屏上的示意图。当用户眼球转动时,用户视线中心方向会随着眼球的转动而发生变化。用户视线的中心方向可以通过电子装置100上的摄像头获取的用户眼部图像来确定。具体的,可以通过分析眼部图像中的瞳孔位置在眼部图像中的位置来确定用户视线的中心方向,瞳孔位置在眼部图像中的位置不同,用户视线的中心方向也不相同。图3中的左图上的两个黑点分别为用户的左眼球视线中心方向与显示屏的交点以及用户的右眼球视线中心方向与显示屏的交点,目标区域为椭圆区域,椭圆区域的两个焦点分别为用户的左眼球视线中心方向与显示屏的交点以及用户的右眼球视线中心方向与显示屏的交点,然后根据用户的眼部图像中的瞳孔位置确定椭圆区域的长轴和短轴大小,从而确定目标区域的范围。眼部图像中,瞳孔位置偏离眼部中心位置越远,椭圆区域的长轴和短轴越小。具体的,电子装置100中可以存储有瞳孔位置偏离眼部中心位置的距离与椭圆区域的长轴的映射关系。
其中,电子装置100还可以根据摄像头拍摄的眼部图像中的眼部区域与整个图像区域的面积占比来确定用户眼球与显示器之间的距离。一般而言,眼部区域与整个图像区域的面积占比越大,用户眼球与显示器之间的距离越小,用户视线能够覆盖显示屏的区域越大,椭圆区域的两个交点(用户的左眼球视线中心方向与显示屏的交点以及用户的右眼球视线中心方向与显示屏的交点)之间的距离越短。
本申请实施例中,控制器12提取目标区域内的文字,具体为:
控制器12确定目标区域后,判断显示屏11的目标区域中是否有文字,若有文字,则获取目标区域内的文字,若没有文字,判断显示屏11的目标区域中是否有图片,若有图片,则采用图像识别算法提取图像中的文字。图像识别算法可以包括光学字符识别(OpticalCharacter Recognition,OCR)算法。
目标语言可以为用户设置的语言种类,比如,用户设置的语言种类为汉语,而目标区域内的文字为英文单词,则目标区域内的文字不属于目标语言。
本申请实施例中,控制器12将目标区域内的文字翻译为目标语言对应的目标语音,具体为:
控制器12确定目标区域内的文字对应的语言种类,从翻译数据库中查找与目标区域内的文字对应的目标语言文字,将目标语言文字转换为目标语音。
其中,翻译数据库中可以存储有目标区域内的文字对应的语言种类与目标语言的字典,可以从翻译数据库中快速查找到与目标区域内的文字对应的目标语言文字。
控制器12将目标语言文字转换为目标语音,可以通过文字转语音软件来实现。
本申请实施例中,通信模块13可以将目标语音传输至可穿戴设备,可穿戴设备播放目标语音。其中,可穿戴设备可以是无线耳机等具有音频播放功能的设备。通信模块13可以是蓝牙模块,电子装置100可以与可穿戴设备进行蓝牙配对并建立蓝牙通信连接。
本申请实施例中,电子装置可以自动将用户眼球盯着显示屏的区域内的文字翻译成语音后传输给可穿戴设备进行播放,可以自动识别用户需要翻译的文字,并可以通过可穿戴设备快速播放翻译后的语音,可以通过可穿戴设备播放电子装置的显示屏上显示的文字的翻译语音,无需在显示屏上显示翻译后的文字信息,避免翻译后的文字影响用户阅读,进而提升用户阅读体验。
可选的,如图4所示,电子装置100还包括前置摄像头14,前置摄像头14连接控制器13。
前置摄像头14,用于获取眼球运动信息,眼球运动信息包括眼球瞳孔位置信息、眼球与显示屏的位置关系。
控制器12检测用户视线是否覆盖显示屏11,具体为:
控制器12基于眼球运动信息分析用户视线是否覆盖显示屏11。
本申请实施例中,眼球运动信息包括眼球瞳孔位置信息、眼球与显示屏的位置关系。眼球运动信息可以是一段时间内的眼球运动信息。前置摄像头14可以实时开启,以拍摄用户眼部图像,从用户眼部图像中提取眼球运动信息。眼球运动信息还可以包括眼球瞳孔移动轨迹,眼球瞳孔与眼部区域面积占比等。可以通过分析眼部图像中的瞳孔位置在眼部图像中的位置来确定用户视线的中心方向,根据眼球瞳孔与眼部区域面积占比来确定用户视线的空间角度范围。一般而言,眼球瞳孔与眼部区域面积占比越小,用户视线的空间角度范围越小。用户视线的空间角度范围具体可以参见图3的右图中的用户视线的空间角度α。
本申请实施例中,控制器12可以根据用户视线的中心方向、用户视线的空间角度范围以及眼球与显示屏的位置关系确定用户视线是否覆盖显示屏11。
可选的,控制器12识别用户眼球是否盯着显示屏11的目标区域,具体为:
控制器12基于眼球运动信息分析用户眼球在预设时长内是否发生运动,若没有发生运动,确定用户眼球处于凝视状态,根据眼球运动信息确定用户眼球盯着显示屏的区域为目标区域;若发生运动,确定用户眼球不处于凝视状态。
本申请实施例中,眼球运动信息包括眼球瞳孔位置信息,如果控制器分析出在预设时长内眼球瞳孔位置相对于用户眼部没有发生变化,则认为用户眼球预设时长内没有发生运动,则确定用户眼球处于凝视状态。凝视状态,指的是眼球没有转动的状态。需要说明的是,如果预设时长内,摄像头捕捉到用户有眨眼行为,但眼球没有转动,仍然认为用户处于凝视状态。本申请实施例中的眼球可以是左眼球和右眼球中的任意一个。
一般而言,当用户处于凝视状态时,表明用户对显示屏上的目标区域内的内容很感兴趣,或者用户难以理解目标区域内的内容。比如,用户在阅读电子文档时,眼球是来回转动的,如果检测到眼球突然停止转动,则认为用户遇到了阅读障碍,则对目标区域内的文字进行翻译并输出给耳机播放。
其中,预设时长可以预先进行设定并存储在电子装置100的存储器中。比如,预设时长可以设置为3秒。预设时长也可以根据用户习惯来确定。比如,可以记录用户历史阅读过程中的眼球停止转动的时长,根据用户历史阅读过程中的眼球停止转动的时长确定预设时长的大小。这样可以更加符合用户阅读习惯,提高用户阅读体验。比如,对于老人而言,阅读过程中的眼球停止转动的时长相对较长,则预设时长设置的较大,比如5秒。对于年轻人而言,阅读过程中的眼球停止转动的时长相对较小,则预设时长设置的较小,比如2秒。
可选的,控制器12,还用于在检测到目标区域内的文字属于目标语言时,查找与上述目标区域内的文字对应的解释和说明。将上述目标区域内的文字对应的解释和说明以语音的形式传输至可穿戴设备进行播放。本申请实施例可以在出现阅读障碍时,通过对阅读的文字的进一步的解释和说明,便于用户快速理解阅读内容。并且无需在显示器上显示文字对应的解释和说明,避免解释和说明遮挡原有文字,进而提升用户阅读体验。
可选的,控制器12将目标区域内的文字翻译为目标语言对应的目标语音,具体为:
控制器12向翻译服务器发送翻译请求,翻译请求携带目标区域内的文字以及目标语言标识,翻译请求用于请求翻译服务器将目标区域内的文字翻译为目标语言标识对应的目标语音;
控制器12接收翻译服务器返回的目标语言标识对应的目标语音。
本申请实施例中,电子装置100可以具有联网功能,电子装置100可以连接蜂窝网络,电子装置100可以通过基站访问翻译服务器,翻译服务器可以实现语音翻译功能。具体的,控制器12可以向翻译服务器发送翻译请求,该翻译请求携带目标区域内的文字以及目标语言标识。翻译服务器将目标区域内的文字翻译为目标语言标识对应的目标语音,并将翻译后的目标语音发送给可穿戴设备进行播放。
其中,目标语言标识可以预先设定并存储在电子装置100的存储器中。
翻译服务器将目标区域内的文字翻译为目标语言标识对应的目标语音,具体可以为:
翻译服务器将目标区域内的文字翻译为第一文本,将第一文本转换为目标语音。
可选的,前置摄像头14,还用于采集用户虹膜图像;
控制器12,还用于提取用户虹膜图像中的虹膜特征点,对虹膜特征点进行编码,得到虹膜特征编码;
控制器12,还用于比较虹膜特征编码与预先存储的虹膜特征编码是否匹配;
控制器12,还用于在虹膜特征编码与预先存储的虹膜特征编码匹配时,识别用户眼球是否盯着显示屏11的目标区域。
本申请实施例中,虹膜特征点包括虹膜图像中的相互交错的斑点、细丝、冠状、条纹和隐窝。预先存储的虹膜特征编码为基于预先采集的用户的虹膜特征点编码得到的。
本申请实施例可以进行虹膜识别验证,防止非法用户使用眼球追踪翻译的功能,从而提高安全性。
可选的,请参阅图5,图5是本申请实施例公开的一种可穿戴设备的结构示意图。如图5所示,可穿戴设备200可以包括通信模块21、扬声器22和控制器23,通信模块21、扬声器22连接控制器23,其中:
通信模块21,用于接收电子装置100发送的目标语音。
控制器23,用于对目标语音进行解调和解码。
扬声器22,用于播放解调和解码后的语音。
可选的,可穿戴设备200还可以包括至少一个第一麦克风,第一麦克风可以采集用户输入的语音。
本申请实施例中,通信模块21可以包括蓝牙模块,可穿戴设备200可以通过蓝牙模块与电子装置100建立通信连接,并可以接收电子装置100发送的语音。
请参阅图6,图6是本申请实施例公开的一种翻译方法的流程示意图。如图6所示,该翻译方法包括如下步骤。
601,电子装置检测用户视线是否覆盖显示屏。
602,若用户视线覆盖显示屏,电子装置识别用户眼球是否盯着显示屏的目标区域。
603,若用户眼球盯着目标区域,电子装置提取目标区域内的文字。
604,若目标区域内的文字不属于目标语言,电子装置将目标区域内的文字翻译为目标语言对应的目标语音。
605,电子装置将目标语音传输至可穿戴设备,该可穿戴设备用于播放目标语音。
可选的,在执行步骤601之前,还可以执行如下步骤:
电子装置获取眼球运动信息,眼球运动信息包括眼球瞳孔位置信息、眼球与显示屏的位置关系。
步骤601具体可以包括如下步骤:
基于眼球运动信息分析用户视线是否覆盖显示屏。
可选的,步骤602中,电子装置识别用户眼球是否盯着显示屏的目标区域,可以包括如下步骤:
电子装置基于眼球运动信息分析用户眼球在预设时长内是否发生运动;
若否,电子装置确定用户眼球处于凝视状态,根据眼球运动信息确定用户眼球盯着显示屏的区域为目标区域;
若是,电子装置确定用户眼球不处于凝视状态。
可选的,步骤604中,电子装置将目标区域内的文字翻译为目标语言对应的目标语音,可以包括如下步骤:
电子装置向翻译服务器发送翻译请求,翻译请求携带目标区域内的文字以及目标语言标识,翻译请求用于请求翻译服务器将目标区域内的文字翻译为目标语言标识对应的目标语音;
电子装置接收翻译服务器返回的目标语言标识对应的目标语音。
图6所示的方法的具体实施可以参见图1~图5所示的装置实施例,此处不再赘述。
本申请实施例中,电子装置可以自动将用户眼球盯着显示屏的区域内的文字翻译成语音后传输给可穿戴设备进行播放,可以自动识别用户需要翻译的文字,并可以通过可穿戴设备快速播放翻译后的语音,可以通过可穿戴设备播放电子装置的显示屏上显示的文字的翻译语音,无需在显示屏上显示翻译后的文字信息,避免翻译后的文字影响用户阅读,进而提升用户阅读体验。
请参阅图7,图7是本申请实施例公开的另一种翻译方法的流程示意图。图7是在图6的基础上进一步优化得到的,如图7所示,该翻译方法包括如下步骤。
701,电子装置检测用户视线是否覆盖显示屏。
702,若用户视线覆盖显示屏,电子装置采集用户虹膜图像。
703,电子装置提取用户虹膜图像中的虹膜特征点,对虹膜特征点进行编码,得到虹膜特征编码。
704,电子装置比较虹膜特征编码与预先存储的虹膜特征编码是否匹配。
705,若匹配,电子装置识别用户眼球是否盯着显示屏的目标区域。
706,若用户眼球盯着目标区域,电子装置提取目标区域内的文字。
707,若目标区域内的文字不属于目标语言,电子装置将目标区域内的文字翻译为目标语言对应的目标语音。
708,电子装置将目标语音传输至可穿戴设备,该可穿戴设备用于播放目标语音。
本申请实施例中的步骤701可以参见图6所示步骤601,本申请实施例中的步骤705-708可以参见图6所示的步骤602-605,此处不再赘述。
图7所示的方法的具体实施可以参见图1~图5所示的装置实施例,此处不再赘述。
本申请实施例中,电子装置可以自动将用户眼球盯着显示屏的区域内的文字翻译成语音后传输给可穿戴设备进行播放,可以自动识别用户需要翻译的文字,并可以通过可穿戴设备快速播放翻译后的语音,可以通过可穿戴设备播放电子装置的显示屏上显示的文字的翻译语音,无需在显示屏上显示翻译后的文字信息,避免翻译后的文字影响用户阅读,进而提升用户阅读体验。此外,采用虹膜识别验证,防止非法用户使用眼球追踪翻译的功能,从而提高安全性。
请参阅图8,图8是本申请实施例公开的另一种电子装置的结构示意图,如图所示,该电子装置800包括处理器801、存储器802、通信接口803以及一个或多个程序,其中,上述一个或多个程序被存储在上述存储器802中,并且被配置由上述处理器801执行,上述程序包括用于执行以下步骤的指令:
检测用户视线是否覆盖显示屏;
若用户视线覆盖显示屏,识别用户眼球是否盯着显示屏的目标区域;
若用户眼球盯着目标区域,提取目标区域内的文字;若目标区域内的文字不属于目标语言,则将目标区域内的文字翻译为目标语言对应的目标语音,将目标语音传输至可穿戴设备,可穿戴设备用于播放目标语音。
可选的,上述程序包括还用于执行以下步骤的指令:
获取眼球运动信息,眼球运动信息包括眼球瞳孔位置信息、眼球与显示屏的位置关系;
在检测用户视线是否覆盖显示屏方面,上述程序具体用于执行以下步骤的指令:
基于眼球运动信息分析用户视线是否覆盖显示屏。
可选的,在识别用户眼球是否盯着显示屏的目标区域方面,上述程序具体用于执行以下步骤的指令:
基于眼球运动信息分析用户眼球在预设时长内是否发生运动;
若否,则确定用户眼球处于凝视状态,根据眼球运动信息确定用户眼球盯着显示屏的区域为目标区域;
若是,则确定用户眼球不处于凝视状态。
可选的,在将目标区域内的文字翻译为目标语言对应的目标语音方面,上述程序具体用于执行以下步骤的指令:
向翻译服务器发送翻译请求,翻译请求携带目标区域内的文字以及目标语言标识,翻译请求用于请求翻译服务器将目标区域内的文字翻译为目标语言标识对应的目标语音;
接收翻译服务器返回的目标语言标识对应的目标语音。
可选的,上述程序包括还用于执行以下步骤的指令:
采集用户虹膜图像;
提取用户虹膜图像中的虹膜特征点,对虹膜特征点进行编码,得到虹膜特征编码;
比较虹膜特征编码与预先存储的虹膜特征编码是否匹配;
若匹配,执行识别用户眼球是否盯着显示屏的目标区域的步骤。
图8所示的装置的具体实施可以参见图1~图5所示的装置实施例,此处不再赘述。
实施图8所示的电子装置,电子装置可以自动将用户眼球盯着显示屏的区域内的文字翻译成语音后传输给可穿戴设备进行播放,可以自动识别用户需要翻译的文字,并可以通过可穿戴设备快速播放翻译后的语音,可以通过可穿戴设备播放电子装置的显示屏上显示的文字的翻译语音,无需在显示屏上显示翻译后的文字信息,避免翻译后的文字影响用户阅读,进而提升用户阅读体验。
请参阅图9,图9是本申请实施例公开的一种翻译装置的结构示意图,应用于电子装置,翻译装置900包括检测单元901、识别单元902、提取单元903、翻译单元904和传输单元905,其中:
检测单元901,用于检测用户视线是否覆盖显示屏。
识别单元902,还用于当检测单元901检测到用户视线覆盖显示屏时,识别用户眼球是否盯着显示屏的目标区域。
提取单元903,还用于当识别单元902识别到用户眼球盯着目标区域时,提取目标区域内的文字。
翻译单元904,还用于在目标区域内的文字不属于目标语言时,将目标区域内的文字翻译为目标语言对应的目标语音。
传输单元905,用于将目标语音传输至可穿戴设备,可穿戴设备用于播放目标语音。
其中,检测单元901、识别单元902、提取单元903、翻译单元904可以是处理器或控制器,(例如可以是中央处理器(Central Processing Unit,CPU),通用处理器,数字信号处理器(Digital Signal Processor,DSP),专用集成控制器(Application-SpecificIntegrated Circuit,ASIC),现场可编程门阵列(Field Programmable Gate Array,FPGA)或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。传输单元905可以是无线通信模块(例如,蓝牙模块)。
图9所示的装置的具体实施可以参见图1~图5所示的装置实施例,此处不再赘述。
实施图9所示的电子装置,电子装置可以自动将用户眼球盯着显示屏的区域内的文字翻译成语音后传输给可穿戴设备进行播放,可以自动识别用户需要翻译的文字,并可以通过可穿戴设备快速播放翻译后的语音,可以通过可穿戴设备播放电子装置的显示屏上显示的文字的翻译语音,无需在显示屏上显示翻译后的文字信息,避免翻译后的文字影响用户阅读,进而提升用户阅读体验。
本申请实施例还提供一种计算机存储介质,其中,该计算机存储介质存储用于电子数据交换的计算机程序,该计算机程序使得计算机执行如上述方法实施例中记载的任一方法的部分或全部步骤,上述计算机包括电子装置。
本申请实施例还提供一种计算机程序产品,上述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,上述计算机程序可操作来使计算机执行如上述方法实施例中记载的任一方法的部分或全部步骤。该计算机程序产品可以为一个软件安装包,上述计算机包括可穿戴设备。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置,可通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
上述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储器中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例上述方法的全部或部分步骤。而前述的存储器包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储器中,存储器可以包括:闪存盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取器(英文:Random Access Memory,简称:RAM)、磁盘或光盘等。
以上对本申请实施例进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实现方式及应用范围上均会有改变之处,综上上述,本说明书内容不应理解为对本申请的限制。
Claims (9)
1.一种电子装置,其特征在于,所述电子装置与可穿戴设备建立无线连接;所述电子装置包括显示屏、控制器和通信模块;所述电子装置还包括前置摄像头;
所述前置摄像头,用于获取眼球运动信息,所述眼球运动信息包括眼球瞳孔位置信息、眼球与所述显示屏的位置关系;
所述控制器,用于基于所述眼球运动信息分析用户视线是否覆盖显示屏;
所述控制器,还用于检测到所述用户视线覆盖所述显示屏时,基于所述眼球运动信息分析所述眼球瞳孔位置相对于用户眼部在预设时长内是否发生变化,若没有发生变化,确定用户眼球处于凝视状态,根据所述眼球运动信息确定所述用户眼球盯着所述显示屏的区域为目标区域;若发生变化,确定用户眼球不处于凝视状态;所述目标区域是用户视线的中心方向与所述显示屏相交的两个点为椭圆的两个焦点组成的椭圆区域,所述椭圆区域的两个焦点分别为用户的左眼球视线中心方向与所述显示屏的交点以及用户的右眼球视线中心方向与所述显示屏的交点,所述椭圆区域的长轴和短轴根据用户的眼部图像中的瞳孔位置确定;所述预设时长根据用户习惯确定;
所述控制器,还用于识别到所述用户眼球盯着所述目标区域时,提取所述目标区域内的文字;
所述控制器,还用于在所述目标区域内的文字不属于目标语言时,则将所述目标区域内的文字翻译为所述目标语言对应的目标语音;
所述通信模块,用于将所述目标语音传输至可穿戴设备,所述可穿戴设备用于播放所述目标语音。
2.根据权利要求1所述的电子装置,其特征在于,所述控制器将所述目标区域内的文字翻译为所述目标语言对应的目标语音,具体为:
所述控制器向翻译服务器发送翻译请求,所述翻译请求携带所述目标区域内的文字以及目标语言标识,所述翻译请求用于请求所述翻译服务器将所述目标区域内的文字翻译为目标语言标识对应的目标语音;
所述控制器接收所述翻译服务器返回的所述目标语言标识对应的目标语音。
3.根据权利要求1-2任一项所述的电子装置,其特征在于,
所述前置摄像头,还用于采集用户虹膜图像;
所述控制器,还用于提取所述用户虹膜图像中的虹膜特征点,对所述虹膜特征点进行编码,得到虹膜特征编码;
所述控制器,还用于比较所述虹膜特征编码与预先存储的虹膜特征编码是否匹配;
所述控制器,还用于在所述虹膜特征编码与预先存储的虹膜特征编码匹配时,识别用户眼球是否盯着所述显示屏的目标区域。
4.一种翻译方法,其特征在于,所述方法包括:
获取眼球运动信息,所述眼球运动信息包括眼球瞳孔位置信息、眼球与显示屏的位置关系;
基于所述眼球运动信息分析用户视线是否覆盖显示屏;
若所述用户视线覆盖所述显示屏,基于所述眼球运动信息分析所述眼球瞳孔位置相对于用户眼部在预设时长内是否发生变化,若没有发生变化,确定用户眼球处于凝视状态,根据所述眼球运动信息确定所述用户眼球盯着所述显示屏的区域为目标区域;若发生变化,确定用户眼球不处于凝视状态;所述目标区域是用户视线的中心方向与所述显示屏相交的两个点为椭圆的两个焦点组成的椭圆区域,所述椭圆区域的两个焦点分别为用户的左眼球视线中心方向与所述显示屏的交点以及用户的右眼球视线中心方向与所述显示屏的交点,所述椭圆区域的长轴和短轴根据用户的眼部图像中的瞳孔位置确定;所述预设时长根据用户习惯确定;
若所述用户眼球盯着所述目标区域,提取所述目标区域内的文字;若所述目标区域内的文字不属于目标语言,则将所述目标区域内的文字翻译为所述目标语言对应的目标语音,将所述目标语音传输至可穿戴设备,所述可穿戴设备用于播放所述目标语音。
5.根据权利要求4所述的方法,其特征在于,所述将所述目标区域内的文字翻译为所述目标语言对应的目标语音,包括:
向翻译服务器发送翻译请求,所述翻译请求携带所述目标区域内的文字以及目标语言标识,所述翻译请求用于请求所述翻译服务器将所述目标区域内的文字翻译为目标语言标识对应的目标语音;
接收所述翻译服务器返回的所述目标语言标识对应的目标语音。
6.根据权利要求4-5任一项所述的方法,其特征在于,识别用户眼球是否盯着所述显示屏的目标区域之前,所述方法还包括:
采集用户虹膜图像;
提取所述用户虹膜图像中的虹膜特征点,对所述虹膜特征点进行编码,得到虹膜特征编码;
比较所述虹膜特征编码与预先存储的虹膜特征编码是否匹配;
若匹配,执行所述识别用户眼球是否盯着所述显示屏的目标区域的步骤。
7.一种翻译装置,其特征在于,应用于电子装置,所述翻译装置包括检测单元、识别单元、提取单元、翻译单元和传输单元,所述翻译装置还包括获取单元,其中:
所述获取单元,用于获取眼球运动信息,所述眼球运动信息包括眼球瞳孔位置信息、眼球与显示屏的位置关系;
所述检测单元,用于基于所述眼球运动信息分析用户视线是否覆盖显示屏;
所述识别单元,还用于当所述检测单元检测到所述用户视线覆盖所述显示屏时,基于所述眼球运动信息分析所述眼球瞳孔位置相对于用户眼部在预设时长内是否发生变化,若没有发生变化,确定用户眼球处于凝视状态,根据所述眼球运动信息确定所述用户眼球盯着所述显示屏的区域为目标区域;若发生变化,确定用户眼球不处于凝视状态;所述目标区域是用户视线的中心方向与所述显示屏相交的两个点为椭圆的两个焦点组成的椭圆区域,所述椭圆区域的两个焦点分别为用户的左眼球视线中心方向与所述显示屏的交点以及用户的右眼球视线中心方向与所述显示屏的交点,所述椭圆区域的长轴和短轴根据用户的眼部图像中的瞳孔位置确定;所述预设时长根据用户习惯确定;
所述提取单元,还用于当所述识别单元识别到所述用户眼球盯着所述目标区域时,提取所述目标区域内的文字;
所述翻译单元,还用于在所述目标区域内的文字不属于目标语言时,将所述目标区域内的文字翻译为所述目标语言对应的目标语音;
所述传输单元,用于将所述目标语音传输至可穿戴设备,所述可穿戴设备用于播放所述目标语音。
8.一种电子装置,其特征在于,包括处理器、存储器、通信接口,以及一个或多个程序,所述一个或多个程序被存储在所述存储器中,并且被配置由所述处理器执行,所述程序包括用于执行如权利要求5-6任一项所述的方法中的步骤的指令。
9.一种计算机可读存储介质,其特征在于,存储用于电子数据交换的计算机程序,其中,所述计算机程序使得电子装置执行如权利要求4-6任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810619685.6A CN108959273B (zh) | 2018-06-15 | 2018-06-15 | 翻译方法、电子装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810619685.6A CN108959273B (zh) | 2018-06-15 | 2018-06-15 | 翻译方法、电子装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108959273A CN108959273A (zh) | 2018-12-07 |
CN108959273B true CN108959273B (zh) | 2022-07-08 |
Family
ID=64489535
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810619685.6A Expired - Fee Related CN108959273B (zh) | 2018-06-15 | 2018-06-15 | 翻译方法、电子装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108959273B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109754781A (zh) * | 2019-03-07 | 2019-05-14 | 北京金山安全软件有限公司 | 语音翻译终端、移动终端、翻译系统、翻译方法及其装置 |
CN112967796A (zh) * | 2019-12-13 | 2021-06-15 | 深圳迈瑞生物医疗电子股份有限公司 | 体外诊断设备的非接触式控制方法、设备及存储介质 |
CN111985252B (zh) * | 2020-08-21 | 2024-05-07 | Oppo广东移动通信有限公司 | 对话翻译方法及装置、存储介质和电子设备 |
CN112272279B (zh) * | 2020-10-23 | 2023-04-28 | 岭东核电有限公司 | 作业信息展示方法、装置、计算机设备和存储介质 |
CN116228225B (zh) * | 2023-05-09 | 2023-07-14 | 万联易达物流科技有限公司 | 一种在线充值自动匹配钱包的匹配方法和系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105786804A (zh) * | 2016-02-26 | 2016-07-20 | 维沃移动通信有限公司 | 一种翻译方法及移动终端 |
CN106774836A (zh) * | 2016-11-23 | 2017-05-31 | 上海擎感智能科技有限公司 | 智能眼镜及其控制方法、控制装置 |
CN107403149A (zh) * | 2017-07-17 | 2017-11-28 | 广东欧珀移动通信有限公司 | 虹膜识别方法及相关产品 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105045395A (zh) * | 2015-08-28 | 2015-11-11 | 京东方科技集团股份有限公司 | 一种显示装置及画面显示方法 |
-
2018
- 2018-06-15 CN CN201810619685.6A patent/CN108959273B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105786804A (zh) * | 2016-02-26 | 2016-07-20 | 维沃移动通信有限公司 | 一种翻译方法及移动终端 |
CN106774836A (zh) * | 2016-11-23 | 2017-05-31 | 上海擎感智能科技有限公司 | 智能眼镜及其控制方法、控制装置 |
CN107403149A (zh) * | 2017-07-17 | 2017-11-28 | 广东欧珀移动通信有限公司 | 虹膜识别方法及相关产品 |
Also Published As
Publication number | Publication date |
---|---|
CN108959273A (zh) | 2018-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108959273B (zh) | 翻译方法、电子装置及存储介质 | |
CN108710615B (zh) | 翻译方法及相关设备 | |
US11580983B2 (en) | Sign language information processing method and apparatus, electronic device and readable storage medium | |
US10223574B2 (en) | Method for fingerprint template update and terminal device | |
JP6144849B1 (ja) | 電子デバイス間の接続を確立するための方法および装置 | |
EP3627384A1 (en) | Anti-counterfeiting processing method and related product | |
CN108509033B (zh) | 信息处理方法及相关产品 | |
US10607076B2 (en) | Method for iris recognition and related products | |
CN109067965B (zh) | 翻译方法、翻译装置、可穿戴装置及存储介质 | |
CN108345848A (zh) | 用户注视方向识别方法及相关产品 | |
CN108650408B (zh) | 一种屏幕解锁方法和移动终端 | |
CN111739517B (zh) | 语音识别方法、装置、计算机设备及介质 | |
CN109144245B (zh) | 设备控制方法及相关产品 | |
CN108683790B (zh) | 语音处理方法及相关产品 | |
US10116788B2 (en) | Detecting notable events and annotating multimedia data based on the notable events | |
WO2019011108A1 (zh) | 虹膜识别方法及相关产品 | |
WO2021103449A1 (zh) | 交互方法、移动终端及可读存储介质 | |
US20190050548A1 (en) | Method For Controlling Unlocking And Related Products | |
CN111738100A (zh) | 一种基于口型的语音识别方法及终端设备 | |
CN110210394B (zh) | 静脉图像采集方法及相关产品 | |
CN110210395B (zh) | 静脉图像采集方法及相关产品 | |
CN109164908B (zh) | 一种界面控制方法及移动终端 | |
CN108429956B (zh) | 无线耳机、控制操作方法及相关产品 | |
CN107944242B (zh) | 一种生物识别功能禁用方法和移动终端 | |
CN110139064B (zh) | 一种可穿戴设备的视频通话方法及可穿戴设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220708 |