CN113780013A - 一种翻译方法、设备和可读介质 - Google Patents
一种翻译方法、设备和可读介质 Download PDFInfo
- Publication number
- CN113780013A CN113780013A CN202110876033.2A CN202110876033A CN113780013A CN 113780013 A CN113780013 A CN 113780013A CN 202110876033 A CN202110876033 A CN 202110876033A CN 113780013 A CN113780013 A CN 113780013A
- Authority
- CN
- China
- Prior art keywords
- translation
- video data
- sign language
- user
- language
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/205—3D [Three Dimensional] animation driven by audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Machine Translation (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请实施例提供了一种翻译方法、设备和可读介质,以便捷的进行手语翻译和交互。所述方法包括:接收翻译指令;依据所述翻译指令,启动对应的翻译页面,所述翻译页面包括第一区域和第二区域;在所述第一区域显示包含第一用户的第一视频数据,所述第一视频数据由图像采集单元采集,所述第一视频数据包括第一手语视频数据;在所述第二区域显示包含第二用户的第二视频数据,所述第二用户为虚拟用户,所述第二视频数据包括第二手语视频数据。从而能够采集到用户的手语以便进行翻译,也可以将其他用户的输入翻译为手语视频并显示,便捷的进行手语翻译和交互。
Description
技术领域
本申请涉及计算机技术领域,特别是涉及一种翻译方法、一种终端设备和一种机器可读介质。
背景技术
听障人士、聋哑人士等通常是通过手语进行沟通,手语(sign language)是用手势比量动作,根据手势的变化模拟形象或者音节以构成的一定意思或词语,它是听力障碍或者无法言语的人互相交际和交流思想的一种手的语言。
然而在日常生活中,能够掌握手语的人员非常少,使得听障人士、聋哑人士等难以与其他人沟通,影响日常生活的方方面面。
发明内容
本申请实施例提供了一种翻译方法,以便捷的进行手语翻译和交互。
相应的,本申请实施例还提供了一种翻译装置、一种电子设备和一种机器可读介质,用以保证上述装置的实现及应用。
为了解决上述问题,本申请实施例公开了一种翻译方法,所述方法包括:接收翻译指令;依据所述翻译指令,启动对应的翻译页面,所述翻译页面包括第一区域和第二区域;在所述第一区域显示包含第一用户的第一视频数据,所述第一视频数据由图像采集单元采集,所述第一视频数据包括第一手语视频数据;在所述第二区域显示包含第二用户的第二视频数据,所述第二用户为虚拟用户,所述第二视频数据包括第二手语视频数据。
可选的,还包括:发送所述第一手语视频数据到服务端,以使服务端对所述第一手语视频数据进行手语翻译并生成第一语音数据;接收服务端发送的第一语音数据;播放所述第一语音数据。
可选的,还包括:通过语音输入单元采集第二语音数据;发送所述第二语音数据给服务端,以使服务端对所述第二语音数据进行识别并生成对应的第二手语视频数据;从服务端接收第二手语视频数据。
可选的,所述接收翻译指令,包括:依据对翻译引导页面中翻译控件的触发,接收翻译指令;所述启动对应的翻译页面,包括:将翻译引导页面缩小为第二区域,并对应扩大第一区域。
可选的,还包括:在所述第一区域内显示输入提示信息,以对所述第一用户进行位置提示,所述输入提示信息包括以下至少一种:文本提示信息、线条提示信息、手语提示信息。
可选的,还包括:预先存储服务信息,所述服务信息的信息类型包括:服务文本数据、服务语音数据和服务手语视频数据中的至少一种;所述服务信息的内容类型包括以下至少一种:提示信息、场景常用语;在检测到满足服务条件时,输出所述服务信息。
可选的,还包括:依据对翻译页面中结束控件的触发,接收结束指令;依据所述结束指令,关闭所述翻译页面。
可选的,还包括:依据对所述翻译页面中语言选择控件的触发,确定选择的目标语言。
可选的,还包括:依据对所述翻译页面中人物调整控件的触发,调整第二用户的虚拟形象。
可选的,还包括:在所述翻译页面中显示指示元素,所述指示元素用于指示输入、输出状态;所述指示元素包括以下至少一种:文字指示元素、动态指示元素、颜色指示元素。
可选的,还包括:在所述翻译页面中显示指示标签;依据切换指示在不同的指示标签之间通过设定样式进行切换。
可选的,还包括:依据第一手势操作,调整输入方式,所述输入方式包括:语音输入方式、文本输入方式和\或视频输入方式;或,依据第二手势操作,调整输出方式,所述输入方式包括:语音输出方式、文本输出方式和\或视频输出方式。
本申请实施例还公开了一种翻译方法,其特征在于,所述方法包括:提供翻译页面,所述翻译页面包括第一区域和第二区域;接收第一手语视频数据,并依据所述第一手语视频数据生成第一翻译信息,所述第一手语视频数据为设备侧的图像采集单元采集的第一用户的手语视频数据;发送所述第一翻译信息;接收第二语音数据,并依据所述第二语音数据生成包含第二用户的第二视频数据,所述第二用户为虚拟用户。
本申请实施例还公开了一种电子设备,其特征在于,包括:处理器;和存储器,其上存储有可执行代码,当所述可执行代码被执行时,使得所述处理器执行如本申请实施例中任一项所述的方法。
本申请实施例还公开了一个或多个机器可读介质,其上存储有可执行代码,当所述可执行代码被执行时,使得处理器执行如本申请实施例以下优点:
在本申请实施例中,依据所述翻译指令,启动对应的翻译页面,在在所述第一区域显示包含第一用户的第一视频数据,所述第一视频数据由图像采集单元采集,所述第一视频数据包括第一手语视频数据,从而能够采集到用户的手语以便进行翻译,也可以将其他用户的输入翻译为手语视频,在所述第二区域显示翻译的包含第二用户的第二视频数据,所述第二用户为虚拟用户,所述第二视频数据包括第二手语视频数据,从而便捷的进行手语翻译和交互。
附图说明
图1A是本申请实施例的一种翻译场景的页面示意图;
图1B是本申请的一种翻译方法实施例的步骤流程图;
图2A、图2B是本申请实施例的一种指示元素的示例的示意图;
图3是本申请的另一种翻译方法实施例手语翻译的示例的步骤流程图;
图4是本申请的另一种翻译方法实施例翻译成手语的示例的步骤流程图;
图5是本申请的再一种翻译方法实施例的步骤流程图;
图6是本申请的一种手语教学方法实施例的步骤流程图;
图7A是本申请实施例的一种手语翻译示例的示意图;
图7B为本申请实施例的一种横屏展示示例的示意图;
图7C是本申请的另一种手语翻译方法实施例的步骤流程图;
图8A、图8B是本申请实施例的另一种手语翻译示例的示意图;
图9A是本申请实施例的再一种手语翻译示例的示意图;
图9B是本申请实施例的再一种手语翻译示例的示意图;
图10是本申请实施例的再一种手语翻译示例的示意图;
图11是本申请的一种翻译装置实施例的结构框图;
图12是本申请一实施例提供的装置的结构示意图。
具体实施方式
为使本申请的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本申请作进一步详细的说明。
本申请实施例中可应用于各种需要手语翻译的场景中。例如在听障人士、聋哑人士等目标用户进行购物、就医、法律服务等面对面交流的场景中,本申请实施例能够提供手语翻译服务,可以提供翻译页面,能够采集需要翻译的手语、语音等数据,然后在页面中播放对应翻译的手语视频数据。本申请实施例的手语视频数据为通过虚拟用户(也称数字人)合成的手语视频数据。该虚拟用户指的是通过信息技术基于人体的形态、功能等参数仿真人体所得到的用户,例如基于3D技术结合人体的形态等参数进行人物建模,通过仿真技术得到的虚拟用户,也可称为数字人。虚拟用户可基于人体的形态、肢体、姿势等各种参数驱动执行动作,从而模拟手语动作,实现通过虚拟用户执行手语,生成相应的视频数据来进行手语交互。
本申请实施例不需要第三方用户作为翻译,而是自动识别听障人士、聋哑人士等目标用户的手语,输出翻译的语音、文本等数据;相应的可接收语言、文本等数据,将其翻译成手语并确定虚拟用户执行手语,播放虚拟用户的手语视频给目标用户,从而能够实现手语的目标用户和非手语用户之间的交互。
用户可使用手机、平板以及电脑等各种电子设备执行本申请实施例的翻译方法。
参照图1A,示出了本申请实施例的一种翻译场景的页面示意图。
参照图1B,示出了本申请的一种翻译方法实施例的步骤流程图。
步骤102,接收翻译指令。
电子设备可提供翻译引导页面,该翻译引导页面可作为手语翻译服务的首页,引导用户进行翻译页面。从而翻译引导页面提供翻译控件,如图1A的示例中,左侧的页面为翻译引导页面,其中的箭头“→”控件,以及提示信息“开始翻译”等。基于对对翻译引导页面中翻译控件的触发,可接收翻译指令。在另外一些场景中,也可在通过专门的应用程序提供翻译功能,如通过应用程序的图标、应用程序页面的功能按钮等提供翻译入口,从而通过触发翻译入口可生成翻译指令。
在一些实施例中,翻译引导页面可显示虚拟用户,通过虚拟用户引导用户进入第一页面。例如翻译引导页面的虚拟用户还可通过手语提示信息,如提示点击页面的按钮或指定位置可进入翻译页面等。从而使得目标用户在引导页面也可获取手语提示和引导。
步骤104,依据所述翻译指令,启动对应的翻译页面,所述翻译页面包括第一区域和第二区域。
依据翻译指令可启动对应的翻译页面。所述翻译页面中包括第一区域和第二区域,所述第一区域为图像采集单元采集的视频数据的显示区域,所述第二区域为合成的第二用户的第二视频显示区域。图像采集单元可为摄像头等组件。本申请实施例可在翻译页面中分区域显示采集的视频数据和合成的视频数据,从而方便显示所采集的手语视频数据,并且显示基于回复所合成的手语视频数据。
在一些实施例中,当在翻译引导页面触发进入到翻译页面时,如翻译引导页面包括虚拟用户,则可将翻译引导页面缩小为第二区域,对应扩大的区域作为第一区域,从而第一区域跟随所述第二区域的缩小而扩大。例如翻译引导页面内显示全身的虚拟用户,当翻译引导页面缩小为第二区域在翻译页面时,可显示半身的虚拟用户,从而虚拟用户仍然可展示手语,且对虚拟用户的显示大小影响较小。相应第一区域也可跟随第二区域逐渐扩大显示区域,直到第一区域和第二区域达到翻译页面中对应区域尺寸。
本申请实施例中,设备可横屏摆放,也可竖屏摆放,基于设备的屏幕方向即屏幕显示方式的不同,第一区域和第二区域也可相应的进行划分。例如屏幕显示方式为竖屏显示,则第一区域和第二区域可上下分区,又如屏幕显示方式为横屏显示,则第一区域和第二区域可左右分区,本申请实施例对此不做限制。
一个可选实施例中,所述将翻译引导页面缩小为第二区域,并对应第一区域,包括:依据终端的屏幕方向确定移动方向;依据所述移动方向滑动缩小所述翻译引导页面的显示区域,并对应扩大第一区域。直到达到翻页页面中第一区域和第二区域的尺寸。
可依据终端的屏幕方向确定移动方向,例如屏幕方向为横屏,则移动方向可为向左或向右,屏幕方向为竖屏,则移动方向可为向上或向下。则将翻译引导页面的显示区域按照所述移动方向滑动缩小,可将该显示区域作为第二区域。相应,跟随翻译引导页面的显示区域的缩小会相应有一部分区域逐渐扩大,可将该区域作为第一区域,从而滑动显示第一区域。直到第一区域和第二区域达到翻译页面的布局,完成翻译页面的启动显示。
如图1A的示例中,右侧的页面为翻译页面,依据翻译指令,翻译引导页面向上移动并缩小,其中的虚拟用户“莫小九”在翻译页面中显示在第二区域中。相应第二区域下方的第一区域为摄像头等图像采集单元拍摄的图像,其中第一区域中通过线条示例性的显示第一用户,虽然未实际显示拍摄画面,但可以理解其所展示的内容为摄像头等图像采集单元实际所采集的视频数据,且可为实时的视频数据。
本申请实施例中,在每个区域还设置有指示元素,该指示元素用于指示当前区域的输入、输出状态。可采用多种形式实现,例如指示元素为界面图标,通过不同的颜色指示输入、输出状态,如输入状态为红色、输出状态为绿色,无输入输出的空闲状态为灰色。又如指示元素为动态元素,可通过动态的指示效果来指示不同的输入、输出状态。如一种动态元素的示例为指示灯。该指示灯可通过不同的光圈来指示不同的输入、输出状态。如在输入、输出时,光圈动态的扩大、缩小,指示当前正在输入或输出。并且还可结合不同的颜色、文字等来进行提示。在第一区域和第二区域可分别设置指示原色,从而指示本区域的输入、输出状态,以及指示其他区域的输入、输出状态。也可在翻译页面中显示一个指示原色,通过不同的颜色、动态效果、文字等来提示当前输入、输出的用户。因此,可在所述翻译页面中显示指示元素,所述指示元素用于指示输入、输出状态;所述指示元素包括以下至少一种:文字指示元素、动态指示元素、颜色指示元素。
如图2A所示的一种示例中,提供了一种呼吸灯样式的指示元素,在空闲状态下为白色,在存在输入或输出时亮起,显示为呼吸灯样式。并且可以通过在指示元素上显示文字来表示输入或输出的用户,如“我”代表自己,“他”代表对方,“九”代表虚拟用户,能够直观的指示出执行示输入或输出的用户。例如,在检测到自己执行输入或输出时,可通过指示元素显示“我”,并通过动态变化或颜色变化指示自己正在输入或输出。又如在检测到对方执行输入或输出时,可通过指示元素显示“他”或“她”,并通过动态变化或颜色变化指示对方正在输入或输出。又如在虚拟用户输出手语时,第二界面上的指示元素可显示“九”等虚拟用户的简称、昵称、代号等信息,并且通过动态变化或颜色变化指示虚拟用户正在输出手语。如图2B的示例中,其分步骤展示出了指示元素对应呼吸灯样式的动态效果,在具有输入或输出时,指示元素可通过光圈的逐步扩大和缩小来展示动态效果,指示输入或输出正在执行。如在对方输入时,显示为“他”且颜色由深变浅的调整,在自己输入时,显示为“我”且颜色由浅变深的调整。
本申请实施例中,翻页页面还包括指示标签,该指示标签可用于指示输入状态、对话时间、服务信息等。一个示例中,所述指示标签可位于第一区域和第二区域的交接位置上,可用于指示各种所需的信息。例如将服务信息显示在指示标签上,从而可以指示各种提示信息、场景常用语以及场景所对应的推荐信息等。还可与指示元素相结合来提示输入状态,以及可以显示当前翻译的持续时间等各类型的信息。该指示标签也可通过不同的颜色、图标、文字等来显示不同的信息,还可在不同信息之间切换时,通过相应的切换样式进行提示,如翻转切换、缩放切换、百叶切换等各种样式,从而能够提示信息的变化。在所述翻译页面中显示指示标签;在不同的指示标签之间通过设定样式进行切换。
步骤106,在所述第一区域显示包含第一用户的第一视频数据,所述第一视频数据由图像采集单元采集,所述第一视频数据包括第一手语视频数据。
步骤108,在所述第二区域显示包含第二用户的第二视频数据,所述第二用户为虚拟用户,所述第二视频数据包括第二手语视频数据。
本申请实施例中,可在第一区域实时显示摄像头等图像采集单元所采集的视频数据,相应,第一用户即执行手语的目标用户可执行手语,图像采集单元可采集到包含第一用户的第一视频数据,该第一视频数据包括第一用户的第一手语视频数据。从而可以通过摄像头等图像采集单元采集用户的手语。
为了与第一用户交互,使第一用户可以看到手语,从而能够与其他用户交流。因此可在第二区域中通过第二用户即虚拟用户展示相应的手语,即显示包含第二用户的第二手语视频数据。如图1A中翻译官莫小九即为第二用户。
本申请实施例中,可在所述第一区域内显示输入提示信息,以对所述第一用户进行位置提示,所述输入提示信息包括以下至少一种:文本提示信息、线条提示信息、手语提示信息。为了更准确的识别第一用户的手语,可以在第一区域设置手语识别区,该手语识别区能够使得第一用户的手语位于图像采集单元的采集区域内,从而减少识别失败率。相应可设置输入提示信息以对所述第一用户进行输入位置区域的提示。该输入提示信息可为多种形式的信息,如为文本提示信息,通过文本提示第一用户摆正姿势、位于采集区域中间等。也可为线条提示信息,该线条提示信息可在其区域内提示出第一用户身体所在的区域,从而保证手语的采集,还可包括手语提示信息,第二用户可通过手语提示第一用户摆正姿势、位于采集区域中间等等。或者各种信息相结合,通过文本、手语提示用户身体要位于虚线框中等。
以下提供一种手语翻译成自然语言的实施例:
参照图3,示出了本申请的另一种翻译方法实施例手语翻译的示例的步骤流程图。
步骤302,通过图像采集单元采集第一手语视频数据,并显示在翻译页面的第一区域中。
步骤304,发送第一手语视频数据。
图像采集单元可实时采集第一用户的第一视频数据,然后可将第一手语视频数据上传到服务端,以便理解手语的语义并进行翻译。
在一些实施例中,可在本地检索所采集的第一视频数据是否为第一手语视频数据,例如检测第一视频数据的肢体动作、手势等是否达到手语条件,该手语条件为手语执行的条件,如检测到手势,肢体动作超过一定的范围等。如果达到手语条件,则可上传该第一视频数据。在另外一些场景中,还可在设备本地对第一手语视频数据进行识别处理,包括识别第一用户的肢体数据、手势数据、表情数据、情绪数据等手语关联信息,从而可以对第一视频数据进行脱敏处理,得到不包含个人信息的手语关联信息。然后把手语关联信息上传到服务端进行识别和翻译。
步骤306,接收第一翻译信息。
该第一翻译信息为对第一手语视频数据进行语义翻译,得到的自然语言的翻译信息。该自然语言是可以理解为自然地随文化演化的语言,即通过发音方式输出的语言。如汉语、英语、法语、日语等,也可为一种语言下的方言,如粤语、闽南语、上海话等方言。本申请实施例中,第一翻译信息包括第一语音数据和/或第一文本数据。
步骤308,输出所述第一翻译信息。
可以通过音频输出单元输出该语音信息,也可在翻译页面上显示该第一文本信息,从而使得非手语用户能够获知第一用户的手语的语义,实现对手语的翻译。
以下提供一种自然语言翻译成手语的实施例:
参照图4,示出了本申请的另一种翻译方法实施例翻译成手语的示例的步骤流程图。
步骤402,接收第二语音数据。
当其他用户要和第一用户交流时,可说出交流内容,可通过设备的语音输入单元如麦克风等组件,采集用户说话的第二语音数据。当然在另外一些场景中,也可提供文本框等文本数据控件,方便用户进行文本输入。
步骤404,发送所述第二语音数据,以依据所述第二语音数据生成第二手语视频数据。
可以上传所述第二语音数据到服务端。服务端可对第二语音数据语音识别得到第二文本数据。然后对第二文本数据进行处理得到相应的手语参数,再基于该手语参数驱动虚拟用户执行手语,得到第二手语视频数据,即第二语音数据翻译的手语视频数据。然后可将第二手语视频数据发送给设备。
步骤406,接收第二手语视频数据。
步骤408,在第二区域显示所述第二手语视频数据。
将其他用户如非手语用户的第二语音数据翻译为第二手语视频数据后,可以在第二区域中展示,即通过驱动虚拟用户执行手语的方式,使得第一用户可以观看到手语,理解其他用户表达的意思。
本申请实施例中,在返第二手语视频数据时,服务端还可返回第二语音数据识别的第二文本数据,将第二文本数据显示在第二区域中,方便第一用户通过屏幕观看到文本数据。
从而通过上述手语翻译为自然语音,以及自然语音翻译为手语的示例,本申请实施例的翻译页面可提供手语的自动翻译,对于手语视频可通过语音、文本等输出翻译的自然语言,对于自然语言所翻译的手语可驱动虚拟用户执行并显示为相应的手语视频,使得手语用户可以观看到该手语视频数据。
综上,依据所述翻译指令,启动对应的翻译页面,在所述第一区域显示包含第一用户的第一视频数据,所述第一视频数据由图像采集单元采集,所述第一视频数据包括第一手语视频数据,从而能够采集到用户的手语并进行翻译,也可以接收其他用户的输入,在所述第二区域显示翻译的包含第二用户的第二视频数据,所述第二用户为虚拟用户,所述第二视频数据包括第二手语视频数据,从而便捷的进行手语翻译和交互。
本申请实施例中,该翻译页面可提供语言选择控件,该语言选择控件用于选择目标语言。目标语言可包括各种手语和各种自然语言。其中,不用国家的手语也存在一定的差异,因此可提供手语选择控件,该手语选择控件用于选择不同种类的手语,如中国手语、英国手语等,不同种类的手语可以理解为不同国家的手语,也可包括标准手语、自然手语,该自然手语指的是自然所形成的手语。语言选择控件也可包括自然语言选择控件,用于选择所翻译的自然语言,如汉语、英语、法语,还可包括方言等,从而方便各类用户使用。
本申请实施例中,该翻译引导页面、翻译页面还可显示各种服务信息,所述服务信息的信息类型包括:服务文本数据、服务语音数据和服务手语视频数据中的至少一种;所述服务信息的内容类型包括以下至少一种:提示信息、场景常用语。即服务信息可通过手语、语音、文本等形式输出,而服务信息所对应的内容可为各种提示信息、场景的常用语等。
其中,服务信息包括提示信息,提示信息可为各种事件的提示信息,如等待提示信息、故障提示信息、操作提示信息等。如等待提示信息可通过手语视频、文本等方式提示第一用户,请等待,正在翻译或正在输入数据,也可通过语音、文本等方式提示其他用户,请等待,正在翻译或正在输入数据等。对于故障提示信息,也可通过语音、文本、手语视频等各种形式,提示相应的用户,现在出现故障,如网络出现问题、无法翻译、翻译失败等内容。操作提示信息可通过语音、文本、手语视频等各种形式,提示相应的用户可以执行的操作,如启动翻译,结束翻译,切换语言等。还可包括关于输入的提示,例如第一用户脱离手语识别区,可以进行提示,又如其他用户的声音比较小,也可进行提示。
所述场景常用语可与翻译的场景相关,例如在购物场景中,可为购物相关的常用语如欢迎语、价格回复、商品介绍、购物问询等常用语;又如在就医场景中,对于症状、保险等的常用语;又如在法律服务场景中,对于用户基本信息的询问等场景。总之可基于实际所应用的场景,预先确定出该场景的常用语,并得到对应的文本、语音、手语视频等数据。
上述服务信息为在场景服务中信息,如使用频率比较高的信息,又如必要的提示信息等。因此这些服务信息可预先存储在设备本地,并且每个服务信息可对应服务条件,如提示条件、场景条件等,结合具体的使用场景确定,在检测到满足服务条件时,输出相应的服务信息。
本申请实施例中,翻译页面还可包括人物调整控件,所述人物调整控件用于调整第二用户的虚拟形象,从而用户可调整所需的虚拟人物。因此可触发翻译页面中人物调整控件,依据对所述翻译页面中人物调整控件的触发,调整第二用户的虚拟形象。例如可在翻译页面中显示可选择的虚拟用户的虚拟形象,通过点击、语音、手语等多种方式可发出选择操作,选择想要使用的虚拟形象。
本申请实施例中,还可基于需求调整所需的输入、输出方式,例如在页面上设置输入调整控件、输出调整控件,可基于对相应控件的调整,切换不同的输入、输出方式。另外还可通过手势触发输入、输出方式的切换。其中,可依据第一手势操作,调整输入方式,所述输入方式包括:语音输入方式、文本输入方式和\或视频输入方式;依据第二手势操作,调整输出方式,所述输入方式包括:语音输出方式、文本输出方式和\或视频输出方式。本实施例的手势可为默认手势,也可为自定义手势,还可将指示切换的手语作为切换的第一手势操作、第二手势操作,从而在检测到手势操作后,可以基于该手势操作调整输入、输出方式,如从手语输入切换为语音输入,又如从语音输出调整为文本数据等,可基于需求确定。
本申请实施例中,翻译页面还包括结束控件,依据对翻译页面中结束控件的触发,接收结束指令;依据所述结束指令,关闭所述翻译页面。
在上述实施例的基础上,本申请实施例提供可一种翻译方法,可应用于购物场景、就医场景、法律服务等多种需要手语翻译的。
参照图5,示出了本申请的再一种翻译方法实施例的步骤流程图。
步骤502,显示翻译引导页面。
以线下场景中,如购物场景就医场景、法律服务场景中,相应服务提供方如商家、医院、法律服务机构可提供用于手语翻译的设备,该设备可默认显示为翻译引导页面,从而针对有需要进行手语翻译的用户,可进入翻译页面。
另外,用户自己的手机等设备也可具有手语翻译功能,其可作为设备的控件,或者应用程序的控件。例如在线上购物场景中,商家的客服页面可作为翻译引导页面,提供翻译控件。或者,商家的客服页面提供引导入口,基于该引导入口进入到翻译引导页面,以便手语用户使用手语翻译服务。又如在视频会议场景中,可以在会议发起页面提供引导入口进入翻译引导页面。又如将会议引导页面作为翻译引导页面,从而引导用户在视频会议过程中使用手语翻译。另外,也可在会议页面中提供引导入口进入翻译引导页面,便于手语用户在会议中发言等。
步骤504,依据对翻译引导页面中翻译控件的触发,接收翻译指令。
步骤506,将翻译引导页面缩小为第二区域,并跟随所述第二区域显示第一区域。
其中,所述将翻译引导页面缩小为第二区域,并跟随所述第二区域显示第一区域,包括:依据终端的屏幕方向确定移动方向;依据所述移动方向滑动缩小所述翻译引导页面的显示区域,直到满足所述第二区域的尺寸;跟随滑动方向,滑动显示第一区域。
在购物场景中,商家可通过设备提供手语翻译服务,在手语用户进入到购物环境如卖场等商家中,可以触发翻译引导页面中翻译控件进入到翻译页面中。又如在就医挂号场景中,医院可提供设备在挂号窗口中,第一用户可自己触发翻译指令进入到翻译页面中。
步骤508,播放第二手语视频数据。还可在第二显示区域显示第二文本数据。
该第二手语视频数据可为默认的购物场景的常用语,如“欢迎光临,请问您需要什么”。在就医场景的挂号事件中,第二手语视频数据可为默认的挂号常用语,如“请出示医保卡”等。可依据具体的场景确定。
第二手语视频数据也可为基于卖家用户的第二语音数据翻译的手语视频数据。在此种情况下,可先通过语音输入单元采集第二语音数据。发送所述第二语音数据,以使服务端基于所述第二语音数据进行手语翻译,驱动虚拟用户生成第二手语视频数据。
步骤510,通过图像采集组件采集的包含第一用户的第一手语视频数据并发送所述第一手语视频数据。
发送的第一手语视频数据可为直接采集的第一手语视频数据,也可为通过采样、降低分辨率等减少数据量的第一手语视频数据,还可为对第一手语视频数据进行识别,过滤敏感信息,并提取识别手语所需的手语关联信息,则可将手语关联信息上传给服务端。
步骤512,获取所述第一手语视频数据对应的第一语音数据,所述第一语音数据为对所述第一手语视频数据进行识别语义确定的。
步骤514,播放所述第一语音数据。还可在第一显示区域显示第一文本数据。
步骤516,通过语音输入单元采集第二语音数据。
步骤518,发送所述第二语音数据,以依据所述第二语音数据生成第二手语视频数据。
可基于交流过程执行手语翻译成自然语言,或自然语言翻译成手语的过程。
步骤520,依据对翻译页面中结束控件的触发,接收结束指令。
步骤522,依据所述结束指令,关闭所述翻译页面。
在完成购物、就医挂号等,可触发结束控件,关闭翻译页面,回到翻译引导页面。从而在各种场景中为用户提供手语服务,辅助与手语用户交互。本申请各实施例中,不限制手语视频数据和语音数据的采集前后顺序,可基于需求、具体的通信过程来执行。
本申请实施例还可应用于手语教学场景中,可在各种教学应用程序中提供手语教学功能,从而该翻译引导页面可称为教学引导页面。用户可通过该页面进入到手语翻译页面,从而执行手语教学处理。
参照图6,示出了本申请的一种手语教学方法实施例的步骤流程图。
步骤600,设备提供翻译页面,所述翻译页面包括:第一区域和第二区域。
步骤602,设备通过图像采集单元采集第一手语视频数据。
步骤604,设备在第一区域显示第一手语视频数据。
步骤606,设备上传所述第一手语视频数据到服务端。
步骤608,服务端对所述第一手语视频数据进行手语识别,得到对应的第一翻译数据。手语用户 A可通过自己的设备采集第一手语视频数据,然后传送到服务端进行识别、翻译。所述第一翻译数据包括第一语音数据、第一文本数据。
步骤610,服务端依据所述第一文本数据,合成第二手语视频数据。
基于所识别的第一文本数据,可确定对应的标准手语动作,驱动虚拟用户执行标准的手语动作,并合成第二手语视频数据。还可将第二手语视频数据和第一手语视频数据进行比较,确定待矫正的手语信息。然后可基于待矫正的手语信息,在第二手语视频数据中添加矫正标记。
步骤612,服务端下发第二手语视频数据给设备。还可发送第一手语视频数据和第一文本数据到对端设备。
步骤614,设备在第二区域显示第二手语视频数据。
从而能够在设备上显示标准的第二手语视频数据,并且可基于第二手语视频数据中的矫正标记确定需要矫正的手语动作。在另外的一些场景中,在第二手语视频数据的同时,还可同步播放第一手语视频数据,从而对比显示需要调整的动作。
在一些场景中,手语用户所使用的手语也可能不同,如不同国家的手语存在差异,又如自然手语和标准手语也存在一定的差异等,因此本申请实施例的无障碍通信也可提供使用不同手语的手语用户之间的手语翻译服务,从而便于手语用户的交流。对于不同手语用户的翻译,可通过一个设备的前后两个摄像头分别采集手语视频数据,也可为不同设备分别采集手语视频数据后,基于服务器进行传输处理,实现交互。
本申请实施例中,电子设备可为手语、平板电脑、计算机等各种具有图像采集、音视频输入输出功能的设备。
以下提供一种通过电子设备实现手语无障碍通信的实施例,可在电子设备本地进行视频、语音的采集、识别,手语翻译以及手语视频合成等处理。如图7A所示为一种手语用户和非手语用户进行面对面交互的场景,以就医场景为例,医护人员可通过语音,相应手语用户采用手语,通过设备的翻译可实现交流。又如图7B提供一种横屏展示的场景,如在医院的挂号窗口可设置一平板电脑或其他设备,从而便于手语用户的就医挂号等。
参照图7C,示出了本申请的另一种无障碍通信方法实施例的步骤流程图。
步骤700,提供翻译页面,所述翻译页面包括:第一区域和第二区域。
步骤710,通过图像采集单元采集第一手语视频数据。可通过本地的摄像头等图像采集单元采集第一用户的第一手语视频数据,如通过手机的前置摄像头采集第一用户的第一手语视频数据。
步骤712,在第一区域显示第一手语视频数据。
步骤714,对所述第一手语视频数据进行语义识别,确定对应的第一语音数据。
可以在设备本地对第一手语视频数据进行手语翻译,识别手语所表达的语义,确定对应的第一文本数据,再基于第一文本数据合成第一语音数据。例如基于计算机视觉算法对手语视频数据进行手语识别,然后通过自然语言处理(Neuro-LinguisticProgramming,NLP)翻译成自然语言的文本数据,再基于文本到语音(TextToSpeech,TTS)的语音技术将其翻译成语音数据。
其中,所述对所述第一手语视频数据进行语义识别,确定对应的第一语音数据,包括:对所述第一视频数据进行特征识别,提取对应的手语特征,所述手语特征包括:手势特征;对所述手语特征进行分析,确定对应的手语句子;将所述手语句子作为第一文本数据,生成对应的第一语音数据。所述对所述手语特征进行分析,确定对应的手语句子,包括:对所述手语特征进行分析,确定对应的手语词汇;对所述手语词汇进行语义分析,确定对应的手语句子。
本申请实施例中,可对于第一手语视频数据进行计算机视觉处理,基于手语视频中及其图像进行手语特征的识别处理,其中,所识别的手语特征包括手势特征。该手势特征可基于用户执行手语的肢体工作、手势等确定。所述手语特征还包括以下至少一种:轨迹特征、表情特征、情绪特征。还可从手语视频数据中识别出用户手语的轨迹特征,用户的表情特征,结合肢体工作、表情等识别出用户的情绪特征等。可以对手语特征进行分析,确定用户通过手语所表达的句子,得到相应的手语句子。其中,通过手语特征可识别出用户在手语所表达的词汇,这些手语词汇构成其手语表达的句子,基于手语词汇可进行语义分析,按照对应自然语言的语言习惯等信息,得到对应的手语句子。可基于手语句子确定第一文本数据,然后基于该第一文本数据合成第一语音数据。
步骤716,播放第一语音数据。从而能够实现对手语数据的采集、识别以及翻译,并可通过语音输出手语的含义,使得手语用户能够获知手语用户的意思。另外,在一些实施例中,可以获取该第一语音数据所对应的第一文本数据,在翻译页面如第一区域中显示第一文本数据。
步骤720,通过音频采集单元采集第二语音数据。非手语用户可通过语音进行输入,如语音说出“带医保卡了吗”,相应设备可通过麦克风等音频采集单元采集第二语音数据。
步骤722,对所述第二语音数据进行语音识别,确定对应的第二文本数据。步骤724,依据所述第二文本数据确定手语参数,依据所述手语参数生成包含第二用户的第二手语视频数据。
其中,依据所述第二语音数据识别情绪信息,依据所述情绪信息确定表情参数;所述依据所述手语参数生成包含第二用户的第二手语视频数据,包括:依据所述手语参数和表情参数,生成包含第二用户的第二手语视频数据。
可以对第二语音数据进行语音识别得到对应的第二文本数据。并且可以对第二语音数据进行情绪识别,如基于音量、语速以及词汇等多种信息,识别出情绪信息,可基于情绪信息确定对应的表情参数。如情绪信息为生气、高兴、激动等,相应可确定对应情绪的表情参数。然后基于手语参数和表情参数驱动虚拟用户执行手语,其中,可基于3D技术建模来生成虚拟用户,然后基于驱动手语参数和表情参数驱动虚拟用户执行手语的动作以及相应的表情、口型等,并生成第二手语视频数据。
步骤726,在第二区域显示第二手语视频数据。
从而手语用户可观看在第二区域中显示的虚拟用户的第二手语视频数据,从而了解其他用户的话语,如非手语用户的话语,实现交流。另外,还可将第二文本数据显示在翻译页面中,如显示在翻译页面的第二区域中。
以下提供一种基于设备和服务器交互来实现手语的无障碍通信的实施例,如图8A所示。与上述实施例类似,设备也可通过横屏或竖屏设备进行交互,如图8A为一种设备竖屏展示的示例。该实施例中,对于手语的翻译、合成主要在服务端执行。
参照图8B,示出了本申请的另一种无障碍通信方法实施例的步骤流程图。
步骤800,提供翻译页面,所述翻译页面包括:第一区域和第二区域。
步骤810,通过图像采集单元采集第一手语视频数据。
步骤812,在第一区域显示第一手语视频数据。可通过设备本地的图像采集单元采集第一手语视频数据,并显示在翻译页面的第一区域中。
步骤814,发送第一手语视频数据到服务端。图像采集单元可实时采集第一用户的第一视频数据,然后可将第一手语视频数据上传到服务端,以便理解手语的语义并进行翻译。
其中,可直接上传所述第一视频数据。也可在对采集的视频数据进行检测,检测第一用户在执行手语时再上传第一手语视频数据。其中,可在检测所述第一视频数据是否符合手语条件,如果不符合,则继续检测或者等待预定时间如2秒、3秒等,再检测。在检测所述第一视频数据符合手语条件时,将所述第一视频数据作为第一手语视频数据,并上传所述第一手语视频数据;所述手语条件包括以下至少一种:手势条件、肢体轨迹条件。
本申请实施例针对上传的第一手语视频数据,可先通过预处理减少数据量,以便提高检测的效率,如可以对第一视频数据进行采样处理,如通过降采样来降低数据量,得到待上传的第一视频数据。或者通过降低第一视频数据的分辨率,得到待上传的第一视频数据。在另外一些实施例中,可以在设备本地对第一手语视频数据进行预处理,可以从从所述第一视频数据中提取手语特征,将所述手语特征作为待上传的第一视频数据。从而能够进一步减少数据量,提高手语识别翻译的效率,并且能够过滤敏感信息而保留手语特征。
本实施例中针对第一手语视频数据的手语翻译处理可与上述实施例类似,或者采取所需的而各种视觉、语音、文本的处理,本申请实施例对此不做限制。服务端在识别出第一手语视频数据的语义,得到第一文本数据后,可基于该第一文本数据生成第一语音数据。将第一语音数据返回给设备侧,并且可将第一文本数据也一并返回。
步骤816,接收第一语音数据。
步骤818,播放所述第一语音数据。
该第一翻译信息为对第一手语视频数据进行语义翻译,得到的自然语言的翻译信息。该自然语言是可以理解为自然地随文化演化的语言,即通过发音方式输出的语言。如汉语、英语、法语、日语等,也可为一种语言下的方言,如粤语、闽南语、上海话等方言。本申请实施例中,第一语音数据和第一文本数据可称为第一翻译信息。
可以通过音频输出单元输出该语音信息,也可在翻译页面上显示该第一文本信息,从而使得非手语用户能够获知第一用户的手语的语义,实现对手语的翻译。
步骤820,通过音频采集单元采集接收第二语音数据。当其他非手语用户要和第一用户交流时,可说出交流内容,可通过设备的语音输入单元如麦克风等组件,采集用户说话的第二语音数据。当然在另外一些场景中,也可提供文本框等文本数据控件,方便用户进行文本输入。
步骤822,发送所述第二语音数据,以依据所述第二语音数据生成第二手语视频数据。可以上传所述第二语音数据到服务端。服务端可对第二语音数据语音识别得到第二文本数据。然后对第二文本数据进行处理得到相应的手语参数,再基于该手语参数驱动虚拟用户执行手语,得到第二手语视频数据,即第二语音数据翻译的手语视频数据。然后可将第二手语视频数据发送给设备。
步骤824,接收服务端发送的第二手语视频数据。
步骤826,在第二区域显示所述第二手语视频数据。
将其他用户如非手语用户的第二语音数据翻译为第二手语视频数据后,可以在第二区域中展示,即通过驱动虚拟用户执行手语的方式,使得第一用户可以观看到手语,理解其他用户表达的意思。本申请实施例中,在返第二手语视频数据时,服务端还可返回第二语音数据识别的第二文本数据,将第二文本数据显示在第二区域中,方便第一用户通过屏幕观看到文本数据。
从而通过上述手语翻译为自然语音,以及自然语音翻译为手语的示例,本申请实施例的翻译页面可提供手语的自动翻译,对于手语视频可通过语音、文本等输出翻译的自然语言,对于自然语言所翻译的手语可驱动虚拟用户执行并显示为相应的手语视频,使得手语用户可以观看到该手语视频数据。
以下提供一种基于设备和服务器交互来实现手语的无障碍通信的实施例,远端用户可基于该翻译页面实现无障碍通信,其中,两个用户可为手语用户和非手语用户。
参照图9A,示出了本申请的另一种无障碍通信方法实施例的交互示意图。如图9A所示,手语用户和非手语用户均通过视频进行交互,其中,在手语用户(第一设备)侧采集第一手语视频数据,在非手语用户(第二设备)侧采集第二语音数据。具体可执行以下步骤:
步骤900,设备提供翻译页面,所述翻译页面包括:第一区域和第二区域。以第一设备为手语用户的设备,第二设备为非手语用户的设备为例。例如该翻译页面为即时通讯(Instant Messaging,IM) 应用程序的翻译页面,或者购物应用程序的客服页面等。
步骤902,第一设备通过图像采集单元采集第一手语视频数据。
步骤904,第一设备在第一区域显示第一手语视频数据。
步骤906,第一设备上传所述第一手语视频数据到服务端。可直接上传或在检测到满足手语条件后上传。上传视频数据之前还包括以下至少一种步骤:对第一视频数据进行采样处理,得到待上传的第一视频数据;降低第一视频数据的分辨率,得到待上传的第一视频数据;从所述第一视频数据中提取手语特征,将所述手语特征作为待上传的第一视频数据。
步骤908,服务端对所述第一手语视频数据进行手语识别,得到对应的第一翻译数据。所述第一翻译数据包括第一语音数据、第一文本数据。
步骤910,服务端下发所述第一手语视频数据、第一语音数据、第一文本数据中的至少一个给设备。其中,服务端可将第一语音数据、第一文本数据中的至少一个发送给第一设备。对于所反馈的数据可基于各种情况确定,如第一用户的设置、网络情况等确定是否返回第一翻译数据。
对于第二设备,服务端可至少返回第一语音数据、第一文本数据中的至少一个,以便第二设备的用户能够理解第一用户所表达的意思。当然,也可基于设置、网络情况等反馈第一手语视频数据到第二设备处。
步骤912,第二设备的音频采集单元采集第二语音数据。
步骤914,第二设备上传所述第二语音数据到服务端。
步骤916,服务端依据第二语音数据生成第二手语视频数据。
服务端可对所述第二语音数据进行语音识别,确定对应的第二文本数据。依据所述第二文本数据确定手语参数,并依据所述第二语音数据识别情绪信息,依据所述情绪信息确定表情参数。依据所述手语参数和表情参数,生成包含第二用户的第二手语视频数据。
步骤918,服务端发送第二手语视频数据给第一设备。服务端发送第二手语视频数据给第一设备。也可将第二文本数据、第二语音数据发送到第一设备。而对于第二设备,可基于设置、网络情况等确定是否反馈第二手语视频数据、第二文本数据、第二语音数据。
步骤920,第一设备在第二区域显示所述第一手语视频数据。从而手语用户通过翻译页面可以与非手语用户进行无障碍通信。
在上述实施例的基础上,如图9B所示,手语用户和非手语用户可应用于客户场景,客服页面可给用户提供手语翻译入口,从而基于该手语翻译入口可进入翻译页面。在手语用户(第一设备)侧采集第一手语视频数据,在非手语用户(第二设备)侧采集文本数据,基于文本数据合成第二手语视频数据,发送给第一设备,使得第二用户可以观看该第二手语视频书库。相应的,针对手语用户的第一手语视频数据翻译得到的第一文本数据反馈到客服的第二设备中。其中,设备提供翻译页面,所述翻译页面包括:第一区域和第二区域。以第一设备为手语用户的设备,第二设备为非手语用户的设备为例,该翻译页面为客服页面,如购物应用程序的客服页面、就医咨询页面的服务页面等。第一设备通过图像采集单元采集第一手语视频数据。第一设备在第一区域显示第一手语视频数据。第一设备上传所述第一手语视频数据到服务端。服务端对所述第一手语视频数据进行手语识别,得到对应的第一翻译数据,如第一文本数据,可以发送该第一文本数据到第二设备,使得在客服端(第二设备)可以在服务页面查看文本消息。第二设备接收第二文本数据,上传所述第二文本数据到服务端。服务端依据第二语音数据生成第二手语视频数据。依据所述第二文本数据确定手语参数,依据所述手语参数,生成包含第二用户的第二手语视频数据。服务端发送第二手语视频数据给第一设备,使得第一用户可以观看到相应的手语服务,能够为手语用户提供所需的服务。
以下提供一种基于设备和服务器交互来实现手语的无障碍通信的实施例,远端用户可基于该翻译页面实现无障碍通信,其中,两个用户可均为手语用户。
参照图10,示出了本申请的另一种无障碍通信方法实施例的步骤流程图。
步骤1002,设备提供翻译页面,所述翻译页面包括:第一区域和第二区域。以第一设备为手语用户的设备,第二设备为非手语用户的设备为例。例如该翻译页面为即时通讯(Instant Messaging,IM) 应用程序的翻译页面。
步骤1004,本端设备通过图像采集单元采集第一手语视频数据。
步骤1006,本端设备在第一区域显示第一手语视频数据。
步骤1008,本端设备上传所述第一手语视频数据到服务端。手语用户A可通过自己的设备采集第一手语视频数据,然后传送到服务端进行识别、翻译。其中,手语用户A和远端的手语用户B采用不同的手语进行交互,为了区分,假设手语用户A采用第一类手语,手语用户B采用第二类手语。
步骤1010,服务端对所述第一手语视频数据进行手语识别,得到对应的第一翻译数据。所述第一翻译数据包括第一语音数据、第一文本数据。
步骤1012,服务端依据所述第一文本数据,合成第二手语视频数据。
其中,第一文本数据可为所需要各种自然语言的文本数据。例如手语用户A采用的第一类手语为中国的手语,则第一文本数据可为汉语的文本数据。手语用户B采用的第二类手语为英国的手语,则可进一步将第一文本数据翻译为英文的文本数据。或者,在识别手语时,直接得到英文的第一文本书,可依据需求设定。可基于该第一文本数据确定手语参数,还可从第一手语视频数据中识别的情绪信息等确定表情参数,然后基于手语参数和表情参数驱动虚拟用户执行手语,并合成第二手语视频数据。
步骤1014,服务端下发第二手语视频数据给对端设备。还可发送第一手语视频数据和第一文本数据到对端设备。
步骤1016,对端设备在第二区域显示第二手语视频数据。
本申请实施例中,手语翻译的信息以视觉展示为主,从而使得手语用户能够获知手语视频数据,便捷的与其他用户交流。针对手语识别、翻译为自然语言,以及将自然语言翻译为手语视频数据可在服务端实现。例如基于计算机视觉算法对手语视频数据进行手语识别,然后通过自然语言处理 (Neuro-Linguistic Programming,NLP)翻译成自然语言的文本数据,再基于文本到语音(TextToSpeech, TTS)的语音技术将其翻译成语音数据。针对自然语言翻译为手语,可将语音数据识别为文本数据,然后通过基于该自然语言得到手语对应的手语参数,然后基于3D技术驱动虚拟角色的第二用户做出手语动作,并生成第二手语视频数据。
本申请实施例的各附图仅是一种示例的显示方式,其中所包含的时间、电量、信号等信息仅为示例呈现,不应理解为是对本申请实施例的限制。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请实施例并不受所描述的动作顺序的限制,因为依据本申请实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本申请实施例所必须的。
在上述实施例的基础上,本实施例还提供了一种翻译装置,应用于电子设备中。
参照图11,示出了本申请的一种翻译装置实施例的结构框图,具体可以包括如下模块:
引导模块1102,用于接收翻译指令。启动模块1104,用于依据所述翻译指令,启动对应的翻译页面,所述翻译页面包括第一区域和第二区域。采集显示模块1106,用于在所述第一区域显示包含第一用户的第一视频数据,所述第一视频数据由图像采集单元采集,所述第一视频数据包括第一手语视频数据;手语显示模块1108,用于在所述第二区域显示包含第二用户的第二视频数据,所述第二用户为虚拟用户,所述第二视频数据包括第二手语视频数据。
其中,还包括:语音输出模块,用于输出翻译的第一语音数据;所述语音输出模块,用于获取所述第一手语视频数据对应的第一语音数据,所述第一语音数据为对所述第一手语视频数据进行识别语义确定的;播放所述第一语音数据。
上传模块,用于上传回复的第二语音数据。所述上传模块,用于通过语音输入单元采集第二语音数据;发送所述第二语音数据,以依据所述第二语音数据生成第二手语视频数据。
所述引导模块1102,用于依据对翻译引导页面中翻译控件的触发,接收翻译指令;所述启动模块 1104,用于将翻译引导页面缩小为第二区域,并对应扩大第一区域。所述启动模块1104,用于依据终端的屏幕方向确定移动方向;依据所述移动方向滑动缩小所述翻译引导页面的显示区域,并扩大第一区域。
所述采集显示模块1106,还用于在所述第一区域内显示输入提示信息,以对所述第一用户进行位置提示,所述输入提示信息包括以下至少一种:文本提示信息、线条提示信息、手语提示信息。
所述上传模块,还用于发送图像采集组件采集的包含第一用户的第一手语视频数据;所述采集显示模块1106,还用于接收第一文本数据,所述第一文本数据为所述第一语音数据对应的文本数据;在第一显示区域显示所述第一文本数据。所述手语显示模块1108,还用于接收第二手语视频数据和第二文本数据,所述第二文本数据为对所述第二语音数据进行语音识别得到的,所述第二手语视频数据为对所述第二文本数据进行手语翻译得到的;在所述第二区域显示所述第二文本数据。
存储模块,用于预先存储服务信息,所述服务信息的信息类型包括:服务文本数据、服务语音数据和服务手语视频数据中的至少一种;所述服务信息的内容类型包括以下至少一种:提示信息、场景常用语;所述手语显示模块1108,还用于在检测到满足服务条件时,输出所述服务信息。
结束模块,用于依据对翻译页面中结束控件的触发,接收结束指令;依据所述结束指令,关闭所述翻译页面。
调整模块,用于依据对所述翻译页面中语言选择控件的触发,确定选择的目标语言。依据对所述翻译页面中人物调整控件的触发,调整第二用户的虚拟形象。依据第一手势操作,调整输入方式,所述输入方式包括:语音输入方式、文本输入方式和\或视频输入方式。依据第二手势操作,调整输出方式,所述输入方式包括:语音输出方式、文本输出方式和\或视频输出方式。提示模块,用于在所述翻译页面中显示指示元素,所述指示元素用于指示输入、输出状态;所述指示元素包括以下至少一种:文字指示元素、动态指示元素、颜色指示元素。
综上,依据所述翻译指令,启动对应的翻译页面,在在所述第一区域显示包含第一用户的第一视频数据,所述第一视频数据由图像采集单元采集,所述第一视频数据包括第一手语视频数据,从而能够采集到用户的手语并进行翻译,也可以接收其他用户的输入,在所述第二区域显示翻译的包含第二用户的第二视频数据,所述第二用户为虚拟用户,所述第二视频数据包括第二手语视频数据,从而便捷的进行手语翻译和交互。
服务端包括:页面提供模块,用于提供翻译页面,所述翻译页面包括第一区域和第二区域;手语翻译模块,用于接收第一手语视频数据,并依据所述第一手语视频数据生成第一翻译信息,所述第一手语视频数据为设备侧的图像采集单元采集的第一用户的手语视频数据;发送所述第一翻译信息;手语生成模块,用于接收第二语音数据,并依据所述第二语音数据生成包含第二用户的第二视频数据,所述第二用户为虚拟用户。
本申请实施例中,手语翻译的信息以视觉展示为主,从而使得手语用户能够获知手语视频数据,便捷的与其他用户交流。针对手语识别、翻译为自然语言,以及将自然语言翻译为手语视频数据可在服务端实现。例如基于计算机视觉算法对手语视频数据进行手语识别,然后通过自然语言处理 (Neuro-Linguistic Programming,NLP)翻译成自然语言的文本数据,再基于文本到语音(TextToSpeech, TTS)的语音技术将其翻译成语音数据。针对自然语言翻译为手语,可将语音数据识别为文本数据,然后通过基于该自然语言得到手语对应的手语参数,然后基于3D技术驱动虚拟角色的第二用户做出手语动作,并生成第二手语视频数据。
本申请实施例还提供了一种非易失性可读存储介质,该存储介质中存储有一个或多个模块 (programs),该一个或多个模块被应用在设备时,可以使得该设备执行本申请实施例中各方法步骤的指令(instructions)。
本申请实施例提供了一个或多个机器可读介质,其上存储有指令,当由一个或多个处理器执行时,使得电子设备执行如上述实施例中一个或多个所述的方法。本申请实施例中,所述电子设备包括终端设备、服务器(集群)等各类型的设备。
本公开的实施例可被实现为使用任意适当的硬件,固件,软件,或及其任意组合进行想要的配置的装置,该装置可包括数据中心内的终端设备、服务器(集群)等电子设备。图12示意性地示出了可被用于实现本申请中所述的各个实施例的示例性装置1200。
对于一个实施例,图12示出了示例性装置1200,该装置具有一个或多个处理器1202、被耦合到 (一个或多个)处理器1202中的至少一个的控制模块(芯片组)1204、被耦合到控制模块1204的存储器1206、被耦合到控制模块1204的非易失性存储器(NVM)/存储设备1208、被耦合到控制模块1204 的一个或多个输入/输出设备1210,以及被耦合到控制模块1204的网络接口1212。
处理器1202可包括一个或多个单核或多核处理器,处理器1202可包括通用处理器或专用处理器 (例如图形处理器、应用处理器、基频处理器等)的任意组合。在一些实施例中,装置1200能够作为本申请实施例中所述终端设备、服务器(集群)等设备。
在一些实施例中,装置1200可包括具有指令1214的一个或多个计算机可读介质(例如,存储器 1206或NVM/存储设备1208)以及与该一个或多个计算机可读介质相合并被配置为执行指令1214 以实现模块从而执行本公开中所述的动作的一个或多个处理器1202。
对于一个实施例,控制模块1204可包括任意适当的接口控制器,以向(一个或多个)处理器1202 中的至少一个和/或与控制模块1204通信的任意适当的设备或组件提供任意适当的接口。
控制模块1204可包括存储器控制器模块,以向存储器1206提供接口。存储器控制器模块可以是硬件模块、软件模块和/或固件模块。
存储器1206可被用于例如为装置1200加载和存储数据和/或指令1214。对于一个实施例,存储器1206可包括任意适当的易失性存储器,例如,适当的DRAM。在一些实施例中,存储器1206可包括双倍数据速率类型四同步动态随机存取存储器(DDR4SDRAM)。
对于一个实施例,控制模块1204可包括一个或多个输入/输出控制器,以向NVM/存储设备1208 及(一个或多个)输入/输出设备1210提供接口。
例如,NVM/存储设备1208可被用于存储数据和/或指令1214。NVM/存储设备1208可包括任意适当的非易失性存储器(例如,闪存)和/或可包括任意适当的(一个或多个)非易失性存储设备(例如,一个或多个硬盘驱动器(HDD)、一个或多个光盘(CD)驱动器和/或一个或多个数字通用光盘(DVD)驱动器)。
NVM/存储设备1208可包括在物理上作为装置1200被安装在其上的设备的一部分的存储资源,或者其可被该设备访问可不必作为该设备的一部分。例如,NVM/存储设备1208可通过网络经由(一个或多个)输入/输出设备1210进行访问。
(一个或多个)输入/输出设备1210可为装置1200提供接口以与任意其他适当的设备通信,输入 /输出设备1210可以包括通信组件、音频组件、传感器组件等。网络接口1212可为装置1200提供接口以通过一个或多个网络通信,装置1200可根据一个或多个无线网络标准和/或协议中的任意标准和 /或协议来与无线网络的一个或多个组件进行无线通信,例如接入基于通信标准的无线网络,如WiFi、 2G、3G、4G、5G等,或它们的组合进行无线通信。
对于一个实施例,(一个或多个)处理器1202中的至少一个可与控制模块1204的一个或多个控制器(例如,存储器控制器模块)的逻辑封装在一起。对于一个实施例,(一个或多个)处理器1202中的至少一个可与控制模块1204的一个或多个控制器的逻辑封装在一起以形成系统级封装(SiP)。对于一个实施例,(一个或多个)处理器1202中的至少一个可与控制模块1204的一个或多个控制器的逻辑集成在同一模具上。对于一个实施例,(一个或多个)处理器1202中的至少一个可与控制模块1204的一个或多个控制器的逻辑集成在同一模具上以形成片上系统(SoC)。
在各个实施例中,装置1200可以但不限于是:服务器、台式计算设备或移动计算设备(例如,膝上型计算设备、手持计算设备、平板电脑、上网本等)等终端设备。在各个实施例中,装置1200可具有更多或更少的组件和/或不同的架构。例如,在一些实施例中,装置1200包括一个或多个摄像机、键盘、液晶显示器(LCD)屏幕(包括触屏显示器)、非易失性存储器端口、多个天线、图形芯片、专用集成电路(ASIC)和扬声器。
其中,检测装置中可采用主控芯片作为处理器或控制模块,传感器数据、位置信息等存储到存储器或NVM/存储设备中,传感器组可作为输入/输出设备,通信接口可包括网络接口。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本申请实施例是参照根据本申请实施例的方法、终端设备(系统)、和计算机程序产品的流程图和 /或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和 /或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请实施例范围的所有变更和修改。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
以上对本申请所提供的一种无障碍通信方法和一种无障碍通信装置,进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (10)
1.一种翻译方法,其特征在于,所述方法包括:
接收翻译指令;
依据所述翻译指令,启动对应的翻译页面,所述翻译页面包括第一区域和第二区域;
在所述第一区域显示包含第一用户的第一视频数据,所述第一视频数据由图像采集单元采集,所述第一视频数据包括第一手语视频数据;
在所述第二区域显示包含第二用户的第二视频数据,所述第二用户为虚拟用户,所述第二视频数据包括第二手语视频数据。
2.根据权利要求1所述的方法,其特征在于,还包括:
发送所述第一手语视频数据到服务端,以使服务端对所述第一手语视频数据进行手语翻译并生成第一语音数据;
接收服务端发送的第一语音数据;
播放所述第一语音数据。
3.根据权利要求1所述的方法,其特征在于,还包括:
通过语音输入单元采集第二语音数据;
发送所述第二语音数据给服务端,以使服务端对所述第二语音数据进行识别并生成对应的第二手语视频数据;
从服务端接收第二手语视频数据。
4.根据权利要求1所述的方法,其特征在于,
所述接收翻译指令,包括:依据对翻译引导页面中翻译控件的触发,接收翻译指令;
所述启动对应的翻译页面,包括:
将翻译引导页面缩小为第二区域,并对应扩大第一区域。
5.根据权利要求1所述的方法,其特征在于,还包括:
预先存储服务信息,所述服务信息的信息类型包括:服务文本数据、服务语音数据和服务手语视频数据中的至少一种;所述服务信息的内容类型包括以下至少一种:提示信息、场景常用语;
在检测到满足服务条件时,输出所述服务信息。
6.根据权利要求1所述的方法,其特征在于,还包括以下至少一种调整操作:
依据对所述翻译页面中语言选择控件的触发,确定选择的目标语言;
依据对所述翻译页面中人物调整控件的触发,调整第二用户的虚拟形象;
依据第一手势操作,调整输入方式,所述输入方式包括:语音输入方式、文本输入方式和\或视频输入方式;或者
依据第二手势操作,调整输出方式,所述输入方式包括:语音输出方式、文本输出方式和\或视频输出方式。
7.根据权利要求1所述的方法,其特征在于,还包括:
在所述翻译页面中显示指示元素,所述指示元素用于指示输入、输出状态;所述指示元素包括以下至少一种:文字指示元素、动态指示元素、颜色指示元素。
8.一种翻译方法,其特征在于,所述方法包括:
提供翻译页面,所述翻译页面包括第一区域和第二区域;
接收第一手语视频数据,并依据所述第一手语视频数据生成第一翻译信息,所述第一手语视频数据为设备侧的图像采集单元采集的第一用户的手语视频数据;
发送所述第一翻译信息;
接收第二语音数据,并依据所述第二语音数据生成包含第二用户的第二视频数据,所述第二用户为虚拟用户。
9.一种电子设备,其特征在于,包括:处理器;和
存储器,其上存储有可执行代码,当所述可执行代码被执行时,使得所述处理器执行如权利要求1-8中任一项所述的方法。
10.一个或多个机器可读介质,其上存储有可执行代码,当所述可执行代码被执行时,使得处理器执行如权利要求1-8中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110876033.2A CN113780013A (zh) | 2021-07-30 | 2021-07-30 | 一种翻译方法、设备和可读介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110876033.2A CN113780013A (zh) | 2021-07-30 | 2021-07-30 | 一种翻译方法、设备和可读介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113780013A true CN113780013A (zh) | 2021-12-10 |
Family
ID=78836660
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110876033.2A Pending CN113780013A (zh) | 2021-07-30 | 2021-07-30 | 一种翻译方法、设备和可读介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113780013A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114708367A (zh) * | 2022-03-28 | 2022-07-05 | 长沙千博信息技术有限公司 | 基于WebGL的手语数字人驱动及实时渲染系统 |
CN115131791A (zh) * | 2022-04-28 | 2022-09-30 | 广东小天才科技有限公司 | 翻译方法、装置、可穿戴设备及存储介质 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101794528A (zh) * | 2010-04-02 | 2010-08-04 | 北京大学软件与微电子学院无锡产学研合作教育基地 | 一种手语语音双向翻译系统 |
US20110301934A1 (en) * | 2010-06-04 | 2011-12-08 | Microsoft Corporation | Machine based sign language interpreter |
CN103116576A (zh) * | 2013-01-29 | 2013-05-22 | 安徽安泰新型包装材料有限公司 | 一种语音手势交互翻译装置及其控制方法 |
US9230160B1 (en) * | 2012-08-27 | 2016-01-05 | Amazon Technologies, Inc. | Method, medium, and system for online ordering using sign language |
CN106682593A (zh) * | 2016-12-12 | 2017-05-17 | 山东师范大学 | 一种基于手势识别的手语会议方法及系统 |
US20170236450A1 (en) * | 2016-02-11 | 2017-08-17 | Electronics And Telecommunications Research Institute | Apparatus for bi-directional sign language/speech translation in real time and method |
CN110083250A (zh) * | 2019-05-14 | 2019-08-02 | 长沙手之声信息科技有限公司 | 一种支持手语在线翻译的无障碍会议系统 |
US20190251344A1 (en) * | 2018-02-12 | 2019-08-15 | Avodah Labs, Inc. | Visual language interpretation system and user interface |
CN110555329A (zh) * | 2018-05-31 | 2019-12-10 | 苏州欧力机器人有限公司 | 一种手语翻译的方法、终端以及存储介质 |
CN110728191A (zh) * | 2019-09-16 | 2020-01-24 | 北京华捷艾米科技有限公司 | 手语翻译方法、基于mr的手语-语音交互方法及系统 |
CN110931042A (zh) * | 2019-11-14 | 2020-03-27 | 北京欧珀通信有限公司 | 同声传译方法、装置、电子设备以及存储介质 |
CN112256827A (zh) * | 2020-10-20 | 2021-01-22 | 平安科技(深圳)有限公司 | 一种手语翻译方法、装置、计算机设备及存储介质 |
KR102212298B1 (ko) * | 2020-11-09 | 2021-02-05 | 주식회사 라젠 | 인공지능 기반의 비장애인과 청각장애인 간 화상 커뮤니케이션 플랫폼 시스템 및 그 동작 방법 |
CN112689054A (zh) * | 2020-12-23 | 2021-04-20 | 上海传英信息技术有限公司 | 辅助方法、终端及存储介质 |
CN213634995U (zh) * | 2020-12-28 | 2021-07-06 | 嘉应学院 | 一种基于增强现实和人工智能的双向手语翻译器 |
-
2021
- 2021-07-30 CN CN202110876033.2A patent/CN113780013A/zh active Pending
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101794528A (zh) * | 2010-04-02 | 2010-08-04 | 北京大学软件与微电子学院无锡产学研合作教育基地 | 一种手语语音双向翻译系统 |
US20110301934A1 (en) * | 2010-06-04 | 2011-12-08 | Microsoft Corporation | Machine based sign language interpreter |
US9230160B1 (en) * | 2012-08-27 | 2016-01-05 | Amazon Technologies, Inc. | Method, medium, and system for online ordering using sign language |
CN103116576A (zh) * | 2013-01-29 | 2013-05-22 | 安徽安泰新型包装材料有限公司 | 一种语音手势交互翻译装置及其控制方法 |
US20170236450A1 (en) * | 2016-02-11 | 2017-08-17 | Electronics And Telecommunications Research Institute | Apparatus for bi-directional sign language/speech translation in real time and method |
CN106682593A (zh) * | 2016-12-12 | 2017-05-17 | 山东师范大学 | 一种基于手势识别的手语会议方法及系统 |
US20190251344A1 (en) * | 2018-02-12 | 2019-08-15 | Avodah Labs, Inc. | Visual language interpretation system and user interface |
CN110555329A (zh) * | 2018-05-31 | 2019-12-10 | 苏州欧力机器人有限公司 | 一种手语翻译的方法、终端以及存储介质 |
CN110083250A (zh) * | 2019-05-14 | 2019-08-02 | 长沙手之声信息科技有限公司 | 一种支持手语在线翻译的无障碍会议系统 |
CN110728191A (zh) * | 2019-09-16 | 2020-01-24 | 北京华捷艾米科技有限公司 | 手语翻译方法、基于mr的手语-语音交互方法及系统 |
CN110931042A (zh) * | 2019-11-14 | 2020-03-27 | 北京欧珀通信有限公司 | 同声传译方法、装置、电子设备以及存储介质 |
CN112256827A (zh) * | 2020-10-20 | 2021-01-22 | 平安科技(深圳)有限公司 | 一种手语翻译方法、装置、计算机设备及存储介质 |
KR102212298B1 (ko) * | 2020-11-09 | 2021-02-05 | 주식회사 라젠 | 인공지능 기반의 비장애인과 청각장애인 간 화상 커뮤니케이션 플랫폼 시스템 및 그 동작 방법 |
CN112689054A (zh) * | 2020-12-23 | 2021-04-20 | 上海传英信息技术有限公司 | 辅助方法、终端及存储介质 |
CN213634995U (zh) * | 2020-12-28 | 2021-07-06 | 嘉应学院 | 一种基于增强现实和人工智能的双向手语翻译器 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114708367A (zh) * | 2022-03-28 | 2022-07-05 | 长沙千博信息技术有限公司 | 基于WebGL的手语数字人驱动及实时渲染系统 |
CN115131791A (zh) * | 2022-04-28 | 2022-09-30 | 广东小天才科技有限公司 | 翻译方法、装置、可穿戴设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230316643A1 (en) | Virtual role-based multimodal interaction method, apparatus and system, storage medium, and terminal | |
CN114401438B (zh) | 虚拟数字人的视频生成方法及装置、存储介质、终端 | |
CN113835522A (zh) | 手语视频生成、翻译、客服方法、设备和可读介质 | |
CN109254669B (zh) | 一种表情图片输入方法、装置、电子设备及系统 | |
CN110475069B (zh) | 图像的拍摄方法及装置 | |
US20240070397A1 (en) | Human-computer interaction method, apparatus and system, electronic device and computer medium | |
GB2518318A (en) | Speech processing system and terminal device | |
KR102193029B1 (ko) | 디스플레이 장치 및 그의 화상 통화 수행 방법 | |
CN110322760B (zh) | 语音数据生成方法、装置、终端及存储介质 | |
KR102174922B1 (ko) | 사용자의 감정 또는 의도를 반영한 대화형 수어-음성 번역 장치 및 음성-수어 번역 장치 | |
CN107945806B (zh) | 基于声音特征的用户识别方法及装置 | |
CN108538284A (zh) | 同声翻译结果的展现方法及装置、同声翻译方法及装置 | |
CN113780013A (zh) | 一种翻译方法、设备和可读介质 | |
US20210029304A1 (en) | Methods for generating video, electronic device and storage medium | |
CN113851029B (zh) | 一种无障碍通信方法和装置 | |
CN112764549B (zh) | 翻译方法、装置、介质和近眼显示设备 | |
US20180173394A1 (en) | Method and apparatus for inputting expression information | |
JP7540058B2 (ja) | 作業支援システムおよび作業支援方法ならびに作業支援装置 | |
CN113689879A (zh) | 实时驱动虚拟人的方法、装置、电子设备及介质 | |
EP4404574A1 (en) | Video processing method and apparatus, and medium and program product | |
CN113822187B (zh) | 手语翻译、客服、通信方法、设备和可读介质 | |
CN113689530B (zh) | 一种驱动数字人的方法、装置及电子设备 | |
KR101981091B1 (ko) | 감정시각화자막 생성장치 | |
CN113205569B (zh) | 图像绘制方法及装置、计算机可读介质和电子设备 | |
CN110992958B (zh) | 内容记录方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |