CN112740322A - 语音识别方法及支持该方法的电子装置 - Google Patents

语音识别方法及支持该方法的电子装置 Download PDF

Info

Publication number
CN112740322A
CN112740322A CN201980053540.7A CN201980053540A CN112740322A CN 112740322 A CN112740322 A CN 112740322A CN 201980053540 A CN201980053540 A CN 201980053540A CN 112740322 A CN112740322 A CN 112740322A
Authority
CN
China
Prior art keywords
processor
response
user
input
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980053540.7A
Other languages
English (en)
Inventor
李美烂
金宣景
金蕙璘
全晟翼
全汉鹒
爱德华·亚瑟·施维泽
高拉夫·布珊
马可·保罗·安东尼奥·亚科诺
马克·布莱恩·莫佐列维斯基
理查德·詹姆斯·斯科茨伯格
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN112740322A publication Critical patent/CN112740322A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • G10L15/07Adaptation to the speaker
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

提供了一种电子装置。电子装置包括显示器、麦克风、存储器、通信电路和处理器。处理器经由麦克风接收用户的语音输入,在显示器上显示与语音输入相对应的第一响应,接收第一用户输入,响应于第一用户输入显示用于改变与语音输入相关联的至少一个参数的用户界面,经由用户界面接收第二用户输入,并且基于至少一个参数的值在显示器上显示与语音输入相对应的第二响应,该值由第二用户输入选择。

Description

语音识别方法及支持该方法的电子装置
技术领域
本公开涉及关于用于识别用户的语音的方法和用于支持该方法的电子装置的技术。
背景技术
响应于用户的交互式语音输入(或发声输入或语音命令输入)而操作的各种电子装置已经被投放到市场。例如,智能电话可以响应于用户的语音输入来执行各种功能,例如进行/进行呼叫、消息发送和接收、文件传输和web搜索。
电子装置可以通过使用外部服务器的内部算术操作或处理来分析用户的语音输入。电子装置可以显示分析语音输入的结果,并且可以提供用户想要的各种服务。
上述信息仅作为背景信息来呈现,以帮助理解本公开。关于上述中的任何一个是否可以作为关于本公开的现有技术适用,没有做出任何确定,并且没有做出的断言。
发明内容
技术问题
当提供与用户的语音输入相对应的服务时,根据现有技术的电子装置可以以简单地显示结果的方式或允许用户连续选择各种选项之一的方式来提供服务。以简单地显示结果的方式,当用户想要改变选项时,他或她要再次生成语音输入。以允许用户选择各种选项中的一个的方式,用户要生成附加输入用于连续地确定关于一次性语音输入的选项。
技术方案
本公开的方面在于解决至少上述问题和/或缺点,并提供至少下述优点。因此,本公开的一个方面是提供一种用于识别用户的语音的装置和方法以及一种用于支持该方法的电子装置。
另外的方面将部分地在随后的描述中阐述,并且部分地将从描述中显而易见,或者可以通过所呈现的实施例的实践来获知。
根据本发明的一个方面,提供了一种电子装置。该电子装置包括显示器、麦克风、存储器、通信电路和处理器。该处理器可以配置为:经由麦克风接收用户的语音输入;在显示器上显示与语音输入相对应的第一响应;在显示器上接收第一用户输入;在显示器上显示用于改变与语音输入相关联的至少一个参数的用户界面;响应于第一用户输入,经由用户界面接收第二用户输入;以及基于至少一个参数的值在显示器上显示与语音输入相对应的第二响应,该值由第二用户输入选择。
通过下面结合附图的详细描述,本公开的其他方面、优点和显著特征对于本领域技术人员将变得显而易见,所述详细描述公开了本公开的各种实施例。
有益效果
根据本公开中公开的各种实施例的电子装置可以显示对应于一次性语音输入的第一响应,然后可以显示第二响应,该第二响应的执行选项通过简单的用户输入被改变。
根据本公开中公开的各种实施例的电子装置可以提供能够以各种方式改变语音输入的参数的用户界面。此外,可以提供通过本公开直接或间接确定的各种效果。
附图说明
从以下结合附图的描述中,本公开的某些实施例的上述和其他方面、特征和优点将变得更加明显,其中:
图1是示出根据本公开的实施例的集成智能系统的图;
图2是示出根据本公开的实施例的用户终端的配置的框图;
图3是示出根据本公开的实施例的用于处理语音输入的方法的流程图;
图4是示出根据本公开的实施例的用于显示参数UI的屏幕的图;
图5是示出根据本公开的实施例的指示用于改变选项参数的值的按钮类型对象的屏幕的图;
图6是示出根据本公开的实施例的指示选择类型对象的屏幕和用于改变选项参数的值的弹出窗口的图;
图7是示出根据本公开的实施例的指示提供与选项参数相关联的附加信息的屏幕的图;
图8是示出根据本公开的实施例的指示第一响应和第二响应之间的转换的屏幕的图;
图9是示出根据本公开的实施例的当不存在可选参数时的屏幕的图;以及
图10是示出根据本公开的实施例的网络环境中的电子装置的框图。
在所有附图中,相同的附图标记将被理解为表示相同的部件、组件和结构。
具体实施方式
提供以下参考附图的描述以帮助全面理解如由权利要求书及其等效物界定的本发明的各种实施例。它包括各种具体细节以帮助理解,但是这些仅被认为是示例性的。因此,本领域的普通技术人员将认识到,在不脱离本公开的范围和精神的情况下,可以对这里描述的各种实施例进行各种改变和修改。此外,为了清楚和简洁起见,可以省略对众所周知的功能和结构的描述。
在以下描述和权利要求中使用的术语和词不限于书目含义,而是仅由发明人使用以使得能够清楚和一致地理解本公开。因此,本领域的技术人员应当清楚,提供本公开的各种实施例的以下描述仅仅是为了说明的目的,而不是为了限制由所附权利要求及其等同物限定的公开。
在这里披露的公开内容中,这里使用的表述“具有”、“可以具有”、“包含”和“包括”或者“可以包括”和“可以包含”表示相应特征(例如,诸如数值、函数、操作或组件的元件)的存在,但是不排除附加特征的存在。
在本文公开的公开内容中,本文使用的表述“A或B”、“A或/和B中的至少一个”或“A或/和B中的一个或更多”等可以包括一个或更多相关列出的项目的任何和所有组合。例如,术语“A或B”、“A和B中的至少一个”或“A或B中的至少一个”可以指以下所有情况:(1)包括至少一个A的情况;(2)包括至少一个B的情况;或(3)包括至少一个A和至少一个B两者的情况。
这里使用的术语,例如“第一”、“第二”等,可以指本公开的各种实施例的各种元件,但不限制这些元件。例如,这种术语仅用于将元件与另一个元件区分开,而不限制元件的顺序和/或优先级。例如,第一用户设备和第二用户设备可以表示不同的用户设备,而与顺序或重要性无关。例如,在不脱离本公开的范围的情况下,第一元件可以被称为第二元件,并且类似地,第二元件可以被称为第一元件。
应当理解,当一个元件(例如,第一元件)被称为与另一个元件(例如,第二元件)(可操作地或通信地)联接或连接到另一个元件(例如,第二元件)时,它可以直接与另一个元件联接/或连接到另一个元件,或者可以存在中间元件(例如,第三元件)。相反,当一个元件(例如,第一元件)被称为直接与另一个元件(例如,第二元件)联接或直接连接到另一个元件(例如,第二元件)时,应当理解,不存在中间元件(例如,第三元件)。
根据这种情况,这里使用的表述“被配置为”可以用作例如表述“适于”,具有“被设计为”、“适于”、“被制造为”或“能够”。术语“配置为(或设置为)”不一定仅意味着在硬件方面“专门设计为”。相反,表述“配置为”的设备可以意味着该设备能够与另一设备或其他组件一起“操作”。CPU,例如,“配置为(或设置为)执行A、B和C的处理器”可以意味着用于执行相应操作的专用处理器(例如,嵌入式处理器),或者可以通过执行存储在存储器设备中的一个或更多软件程序来执行相应操作的通用处理器(例如,中央处理单元(CPU)或应用处理器)。
本说明书中使用的术语用于描述本公开的特定实施例,而不是要限制本公开的范围。除非另有说明,否则单数形式的术语可包括复数形式。除非本文另有定义,否则本文所用的所有术语(包括技术或科学术语)可具有本领域技术人员通常理解的相同含义。将进一步理解,除非在本公开的各种实施例中明确地如此定义,否则在词典中定义且通常使用的术语也应如在相关的相关领域中的惯用的那样进行解释,而不是以理想化的或过于形式化的方式进行解释。在一些情况下,即使术语是在说明书中定义的术语,它们也不能被解释为与本公开的实施例矛盾。
根据本公开的各种实施例,可穿戴设备可以包括附件(例如,手表、戒指、手镯、脚链、眼镜、隐形眼镜或头戴设备(HMD))、织物集成类型(例如,电子服饰)、身体附着类型(例如,皮肤垫或纹身)或可植入类型(例如,可植入电路)。
在下文中,将参考附图描述根据本公开的实施例的电子装置。这里使用的术语“用户”可以指使用电子装置的人,或者可以指使用电子装置的设备(例如,人工智能电子装置)。
图1是示出根据本公开的实施例的集成智能系统的图。
参照图1,集成智能系统10可以包括用户终端100、智能服务器200和业务服务器300。
根据实施例,用户终端100可以通过存储在其中的应用(或应用)(例如,警报应用、消息应用、调度应用等)向其用户提供指定的服务。根据实施例,用户终端100可以通过存储在其中的智能应用(或语音识别应用)来提供语音识别服务。例如,用户终端100可以识别通过智能应用接收的语音输入,并且可以向用户提供与识别的语音输入相对应的服务。根据实施例,用户终端100可对应于可连接到因特网的各种终端设备(或各种电子装置)中的每一个,例如,移动电话、智能电话、个人数字助理(PDA)或笔记本计算机。或者,用户终端100可以是诸如电视(TV)、冰箱、扬声器等设备,其中每个设备都包括显示器。
根据实施例,用户终端100可以接收用户输入。用户输入可以包括例如通过物理按钮的输入、触摸输入、语音输入等。根据实施例,用户终端100可以接收由用户话语输入的语音。用户终端100可以基于接收到的语音输入执行指定的操作。例如,用户终端100可以执行与所接收的语音输入相对应的app,并且可以借助于所执行的app来执行指定的操作。
根据实施例,智能服务器200可以通过通信网络从用户终端100接收语音输入。根据实施例,智能服务器200可以将接收到的语音输入改变为文本数据。根据实施例,智能服务器200可以基于文本数据生成用于执行指定任务的计划。该计划可以包括例如,在逐级基础上(或在分层基础上)排列的多个操作,以执行与用户的意图相对应的任务。多个概念可以是限定与所述多个操作相关联的输入值(或参数)和结果值的格式。
根据实施例,该计划可以由人工智能(AI)系统生成。AI系统可以是基于规则的系统或者可以是基于神经网络(例如,前馈神经网络(FNN)或递归神经网络(RNN))的系统。或者,AI系统可以是上述系统的组合或不同于上述系统的AI系统。根据实施例,可以从一组预定义的计划中选择该计划,或者可以响应于用户请求而实时生成该计划。例如,AI系统可以至少在多个预定义的计划中选择计划,或者可以基于动态(或基于实时)生成计划。此外,用户终端100可以使用混合系统来提供计划。
根据实施例,智能服务器200可以根据生成的计划将结果发送到用户终端100,或者可以将生成的计划发送到用户终端100。根据实施例,用户终端100可以根据计划在其显示器上显示结果。根据实施例,用户终端100可以在显示器上显示执行根据计划的操作的结果。
根据实施例,业务服务器300可以向用户终端100提供指定的服务(例如,食品订单、酒店预订等)。根据实施例,业务服务器300可以是由第三方操作的服务器。第三方可以是除用户终端100的制造商和操作智能服务器200的人之外的人。根据实施例,业务服务器300可以向智能服务器200提供关于指定服务的信息。根据实施例,智能服务器200可以基于所提供的信息来确定用于执行与语音输入相对应的任务的操作。根据实施例,业务服务器300可以向智能服务器200提供关于执行所确定的操作的结果的信息。智能服务器200可以将结果信息发送到用户终端100。
因此,集成智能系统10可以通过智能服务器200来识别用户话语的意图,并且可以确定其操作以区分处理通过物理按钮、触摸面板等进行的输入或用于执行简单操作(例如,电子装置的激活或程序的执行)的语音输入的级别并且提供新类型的输入接口,该输入接口能够为用户处理需要彼此有机相关的多个操作的用户话语。
根据各种实施例,业务服务器300可以向智能服务器200提供与未安装在用户终端100中的应用相关联的执行结果。智能服务器200可以响应于用户的语音输入向用户终端100提供与未安装在用户终端100中的应用相关联的服务。
图2是说明根据本发明实施例的用户终端的配置的框图。
参照图2,用户终端100可以包括通信接口110、麦克风120、扬声器130、显示器140、存储器150和处理器160。
根据实施例,通信接口110可以与外部设备连接以发送和接收数据。例如,通信接口110可以将接收到的语音输入发送到智能服务器200。此外,通信接口110可以接收与语音输入相对应的响应。该响应可以包括例如用于执行与语音输入相对应的任务的信息或执行该任务的结果。
根据实施例,麦克风120可以接收由用户话语输入的语音。例如,麦克风120可以检测用户话语并且可以生成与检测到的用户话语相对应的信号(或语音信号)。
根据实施例,扬声器130可以输出语音信号。例如,扬声器130可以将在用户终端100中生成的语音信号输出到外部。
根据实施例,显示器140可以显示图像(或视频图像)。例如,显示器140可以显示所执行的app的图形用户界面(GUI)。
根据实施例,存储器150可以存储客户模块151和软件开发工具包(SDK)153。客户模块151和SDK 153中的每一个可以是用于执行通用功能的框架(或解决方案程序)。例如,客户模块151和SDK 153中的每一个可以是用于处理语音输入的框架。根据实施例,客户模块151和SDK 153中的每一个可以由处理器160执行,并且可以实现其功能。根据实施例,客户模块151和SDK 153可以用硬件以及软件来实现。
根据实施例,存储器150可以存储多个应用(或应用)155。多个应用155可以是用于执行指定功能的程序。根据实施例,多个应用155可以包括第一应用155_1、第二应用155_3等。根据实施例,多个应用155中的每一个可以包括用于执行指定功能的多个操作。根据实施例,多个应用155可以由处理器160执行,以顺序地执行多个操作中的至少一些操作。处理器160可以通过SDK 153控制多个应用155的操作。
根据实施例,处理器160可以控制用户终端100的整体操作。例如,处理器160可以控制通信接口110与外部设备连接。处理器160可以与麦克风120连接以接收语音输入。处理器160可以与扬声器130连接以输出语音信号。处理器160可以与显示器140连接以输出图像。处理器160可以执行存储在存储器150中的程序以执行指定的功能。
根据实施例,处理器160可以执行客户模块151和SDK 153中的至少一个,以执行以下用于处理语音输入的操作。下面作为客户模块151和SDK 153的操作被描述的操作可以是通过处理器160的执行的操作。
根据实施例,客户模块151可以接收语音输入。例如,客户模块151可以接收与麦克风120检测到的用户话语相对应的语音信号。根据实施例,客户模块151可以预处理所接收的用户输入。根据实施例,为了预处理用户输入,客户模块151可以包括自适应回声消除器(AEC)模块、噪声抑制(NS)模块、端点检测(EPD)模块或自动增益控制(AGC)模块。AEC模块可以取消包括在用户输入中的回声。NS模块可以抑制包括在用户输入中的背景噪声。EPD模块可以检测包括在用户输入中的用户语音的端点,并且可以使用检测到的端点来找到存在用户语音的部分。AGC模块可调整用户输入的音量以适于识别用户输入并处理所识别的用户输入。根据实施例,可以执行所有预处理组件来执行性能,但是可以执行一些预处理组件来以低功率操作。
根据实施例,客户模块151可以将接收到的语音输入发送到智能服务器200。例如,客户模块151可以通过通信接口110将与接收到的语音输入相对应的第一数据发送到智能服务器200。根据实施例,客户模块151可以将用户终端100的状态信息连同接收到的语音输入一起发送到智能服务器200。状态信息例如可以是关于执行app的状态的信息。根据实施例,客户模块151可以通过SDK 153获得关于执行app的状态的信息。
根据实施例,客户模块151可以接收与所发送的语音输入相对应的文本数据。根据实施例,客户模块151可以在显示器140上显示所接收的文本数据。客户模块151可以以流方式在显示器140上显示接收到的文本数据。因此,用户可以识别在用户终端100中接收的语音输入。
根据实施例,客户模块151可以接收与所接收的语音输入相对应的结果。例如,当智能服务器200能够计算对应于所接收的语音输入的结果(在服务器端点的情况下)时,客户模块151可以接收对应于所接收的语音输入的结果。结果可以包括例如与接收到的语音输入相对应的信息。此外,结果还可以包括关于用于显示信息的指定应用(例如,第一应用155_1)的指定状态的信息。根据实施例,客户模块151可以在显示器140上显示接收到的结果。
根据实施例,客户模块151可以接收用于获得计算对应于从智能服务器200输入的语音的结果所必需的信息的请求。根据实施例,客户模块151可以响应于该请求将必要的信息发送到智能服务器200。因此,客户模块151可以接收使用该信息计算的结果。
根据实施例,客户模块151可以接收与接收到的语音输入相对应的计划。例如,当智能服务器200不能获得与所接收的用户输入相对应的结果(在客户端端点的情况下)时,客户模块151可以接收与所接收的语音输入相对应的计划。该计划可以包括,例如,用于执行与语音输入相对应的任务的多个操作以及与该多个操作相关联的多个概念。该概念可以是定义在执行多个操作时输入的参数或通过执行多个操作而输出的结果值。此外,所述计划可以包括关于所述多个操作之间以及所述多个概念之间的布置关系的信息。多个操作和多个概念可以逐级地(或按顺序地)被安排来执行与语音输入相对应的任务。根据实施例,客户模块151可以将接收到的计划递送到SDK 153。
根据实施例,当从智能服务器200接收进行操作所需的信息时,客户模块151可以使用深度链接。例如,客户模块151可以接收用于获得必要信息的操作信息以及包括与从智能服务器200输入的语音相对应的计划的深度链接。该计划可以包括用于执行任务的多条操作信息。
根据实施例,SDK 153可以根据计划执行多个应用155中的至少一个(例如,第一应用155_1和第二应用155_2),并且可以执行所执行的至少一个应用的指定操作。例如,SDK153可以绑定要根据计划执行的至少一个app,并且可以根据计划将命令传递到绑定的app以执行指定的操作。当通过一个app(例如,第一app_155_1)的操作生成的结果值是在执行另一app(或第二app_155_2)的操作中输入的参数(或必须输入的参数)时,SDK 153可以将生成的结果值从一个app传递到另一个app。
根据实施例,客户模块151可以根据显示器140上的计划来显示执行应用的多个操作的结果。客户模块151可以在显示器140上顺序地显示执行多个操作的结果。对于另一示例,用户终端100可以在显示器140上仅显示执行多个操作中的一些操作(例如,仅显示最后一个操作的结果)。对于另一个示例,用户终端100可以从智能服务器200接收根据计划执行操作的结果,并且可以在显示器140上显示接收到的结果。
根据另一个实施例,SDK 153可以被包括在多个应用155中的每一个中。换句话说,多个应用155中的每一个可以包括SDK 153。当多个应用155中的每一个包括SDK 153时,客户模块151可以根据计划执行应用,并且可以通过包括在多个应用155中的每一个中的SDK153发送用于执行指定操作的请求。
根据实施例,客户模块151可以根据计划将关于执行多个操作的结果的信息发送到智能服务器200。智能服务器200可以使用结果信息来确定接收到的语音输入被正确地处理。
根据实施例,客户模块151可以从智能服务器200接收用于获得附加信息的请求。附加信息可以是确定与接收到的语音输入相对应的计划所必需的信息。例如,附加信息可以包括用户终端100的状态信息或存储在用户终端100的存储器150中的内容信息中的任一个。根据实施例,客户模块151可以通过SDK 153获得关于执行app的状态的信息。根据实施例,当确定计划所必需的信息不包括在接收到的语音输入中时,智能服务器200可以向用户终端100发送获得附加信息的请求。
根据实施例,客户模块151可以包括语音输入模块。根据实施例,客户模块151可以识别用于通过语音输入模块执行有限功能的语音输入。例如,客户模块151可以执行智能应用,用于处理语音输入,以便通过指定输入执行有机操作(例如唤醒!)。根据实施例,语音输入模块可以帮助智能服务器200处理语音输入。因此,语音输入模块可以快速地处理能够在用户终端100中处理的语音输入。
根据实施例,客户模块151的速度识别模块可以使用指定的算法来识别语音输入。指定算法可以包括例如隐马尔可夫模型(HMM)算法、人工神经网络(ANN)算法或动态时间扭曲(DTW)算法中的至少一个。
图3是说明根据本发明实施例的用于处理语音输入的方法的流程图。
参照图3,在操作310中,图2的处理器160可以经由图2的麦克风120接收用户的语音输入(或发声输入或语音命令)。根据实施例,处理器160可以执行智能应用以等待接收用户的语音输入。智能应用可以由用户的输入执行,或者可以通过调用另一个应用来执行。
根据实施例,处理器160可以将麦克风120产生的电信号转换为文本,并且可以实时地在图2的显示器140上显示转换后的文本。
根据实施例,处理器160可以向图2的智能服务器200提供语音输入(或将语音输入转换为语音输入的信息(例如,将语音转换为文本))。
语音输入可以是用户告知的交互命令。例如,语音输入可以是话语“感恩节假期在圣何塞找400美元以下的酒店”、“将这些照片发送给妈妈”等。
根据各种实施例,语音输入可以包括图2的用户终端100执行与语音输入相对应的服务(或响应或任务)所必需的至少一个参数。在语音输入“感恩节假期在圣何塞找400美元以下的酒店”中,处理器160可以确定“感恩节假期”、“圣何塞”、“400美元”、“酒店”等作为参数。对于另一个示例,在语音输入“将这些照片发送给妈妈”中,处理器160可以确定“这些照片(例如,在屏幕上选择的照片)”、“妈妈”等作为参数。
每个参数可以具有指定的属性(例如,位置属性、日期属性、时间属性、应用类型属性等),并且可以改变为指定的类型(例如,“感恩节假期”→“2018/11/18”)。
根据各种实施例,用户终端100或智能服务器200的处理器160可以确定不包括在用户的语音输入中的参数(以下称为“隐藏参数”)。隐藏参数对于执行与用户的语音输入相对应的服务(或响应或任务)可能是必要的,并且可以根据不包括在用户的语音输入中的指定规则来确定。
例如,在语音输入“感恩节假期在圣何塞找400美元以下的酒店(在酒店搜索app上)”中,处理器160或智能服务器200可以确定没有包括在用户的语音输入中的“在酒店搜索app上”作为隐藏参数。对于另一个示例,在语音输入“将这些照片发送给妈妈(通过消息app)”中,处理器160或智能服务器200可以将不包括在用户的语音输入中的“消息app”确定为隐藏参数。
可以基于使用用户终端100的状态、用户终端100的应用执行信息、用户执行应用的历史等来确定隐藏参数。
根据各种实施例,用户终端100或智能服务器200的处理器160可以确定在关于用户的语音输入的参数中可在指定范围内改变的参数(以下称为“选项参数”)。选项参数可以是在参数或隐藏参数之间的指定范围内可变的参数,这些参数被包括在用户的语音输入中。
例如,在语音输入“感恩节假期在圣何塞找酒店”中,用户终端100或智能服务器200的处理器160可以确定具有周期属性的“感恩节假期”作为选项参数。当为具有位置属性的“圣何塞”找到相同的两个地点名称时,用户终端100或智能服务器200的处理器160可以将“圣何塞”确定为选项参数。
在操作320中,处理器160可以在显示器140上显示与语音输入相对应的第一响应。例如,响应于语音输入“感恩节假期在圣何塞找400美元以下的酒店”,处理器160可以使用“Hotels.com”应用显示搜索能够在圣何塞附近为感恩节假期保留的、400美元以下酒店的列表的结果。
根据实施例,尽管隐藏参数被包括在用户的语音输入中,但是处理器160可以在不请求单独的附加输入的情况下显示第一响应。
根据实施例,处理器160可以使用智能服务器200来分析和处理语音输入。处理器160可以向智能服务器200发送语音输入(或与语音输入相关联的信息)。智能服务器200可以通过通信网络从用户终端100接收语音输入。根据实施例,智能服务器200可以将接收到的语音输入改变为文本数据。根据实施例,智能服务器200可以基于文本数据生成执行指定任务的计划。
智能服务器200可以根据生成的计划向用户终端100发送结果。用户终端100可以根据计划在显示器140上显示结果作为第一响应。智能服务器200可以使用图2的业务服务器300来执行计划。
根据另一个实施例,智能服务器200可以将生成的计划发送到用户终端100。用户终端100可以根据接收到的计划执行操作。用户终端100可以在显示器140上显示由用户终端100执行的结果作为第一响应。
在操作330中,处理器160可以接收第一用户输入。第一用户输入可以是用于显示用于改变与语音输入相关联的选项参数的值的用户界面(UI)的输入。
在对用户的语音输入的第一响应被显示在显示器140上的状态下,处理器160可以接收第一用户输入。例如,第一用户输入可以是用于在指定方向(例如,向上和向下方向)上刷屏幕的输入。对于另一个示例,第一用户输入可以是用于按下与第一响应一起显示的按钮的触摸输入。
在操作340中,处理器160可以响应于第一用户输入显示用于改变选项参数的值的UI(以下称为“参数UI”)。例如,参数UI可以是与第一响应重叠的窗口。对于另一个示例,UI可以是与在其上发生第一用户输入的触摸按钮相邻显示的弹出窗口。这里,它不限于此,并且各种类型的参数UI是可能的。
在操作350中,处理器160可以接收第二用户输入。第二用户输入可以是用于选择选项参数的值的输入。
当第二用户输入发生时,在操作360中,处理器160可以基于由第二用户输入选择的选项参数的值来显示第二响应。
根据实施例,处理器160可以替换第一响应的一部分以生成第二响应。例如,处理器160可以将搜索值改变为由第二用户输入改变的周期,并且可以在安装在用户终端100中的酒店搜索应用上显示找到的酒店。
根据另一个实施例,处理器160可以基于从智能服务器200选择的选项参数的值来接收新结果,并且可以独立于第一响应来显示第二响应。
根据各种实施例的在电子装置中执行的语音识别方法可以包括:经由电子装置的麦克风接收用户的语音输入;在电子装置的显示器上显示与语音输入相对应的第一响应;接收第一用户输入;响应于第一用户输入,显示用于改变与语音输入相关联的至少一个参数的用户界面;接收第二用户输入;以及基于由第二用户输入选择的至少一个参数的值,在显示器上显示与语音输入相对应的第二响应。
根据各种实施例,语音识别方法还可以包括:在语音输入之后通过附加语音输入来改变至少一个参数的值。
根据各种实施例,显示第一响应可以包括:将至少一个参数的值发送到外部服务器并接收第一响应。显示第二响应可以包括:将参数的选定值发送到外部服务器并接收第二响应。
根据各种实施例,显示第一响应可以包括:接收与执行未安装在电子装置中的应用相关联的第一响应。显示第二响应可以包括:接收与执行未安装在电子装置中的应用相关联的第二响应。
根据各种实施例,显示用户界面可以包括:显示包括与至少一个参数相关联的图像的用户界面。
根据各种实施例,显示第二响应可以包括:显示第二响应以及用于将屏幕改变为第一响应的第一对象。该语音识别方法还可以包括:在通过用户输入改变屏幕之后,显示第一响应以及用于将屏幕改变为第二响应的第二对象,其中用户输入发生在第一对象上。
图4是示出根据本公开的实施例的用于显示参数UI的屏幕的图。图4仅仅是说明性的,并不限于此。
参照图4,图2的处理器160可以执行智能应用。智能应用可以接收用户的语音输入,并且可以显示与接收到的语音输入相对应的响应。智能应用可以由用户的输入执行,或者可以通过调用另一个应用来执行。
例如,处理器160可以响应于用于启动用户的语音命令的语音输入(唤醒单词)(例如,Hi Bixby)(开始发声)来执行智能应用。对于另一个示例,处理器160可以通过在执行智能应用的专用按钮上出现的用户输入来执行智能应用。
在屏幕410上,当执行智能应用时,处理器160可以进入能够接收用户的语音输入的空闲状态。处理器160可以显示等待使用文本或语音接收用户的语音输入的状态。
在屏幕420上,处理器160可以接收用户的语音输入。处理器160可以将接收到的语音输入转换为文本421,并且可以在图2的显示器140上显示文本421。在识别所显示的文本421的同时,用户可以确定所识别的语音输入是否与用户的意图相匹配。根据各种实施例,处理器160可以将接收到的语音输入或将语音输入转换成的文本421发送到图2的智能服务器200。
在屏幕430上,处理器160可以在处理用户的语音输入的同时显示空闲屏幕。处理器160可以显示指示正在处理语音输入的动画图像431。
在屏幕440上,处理器160可以显示与用户的语音输入相对应的第一响应441。根据实施例,处理器160可以接收根据由智能服务器200生成的计划的结果,并且可以基于接收到的结果在显示器140上显示第一响应441。例如,当存在语音输入“感恩节假期在圣何塞找400美元以下的酒店”时,处理器160可以从智能服务器200接收酒店搜索app找到的结果(酒店列表),并且可以将接收到的结果显示为第一响应441。
根据另一个实施例,处理器160可以接收由智能服务器200生成的计划,并且可以在图2的用户终端100中根据所接收的计划执行操作。处理器160可以在显示器140上显示所执行的结果作为第一响应441。例如,当存在语音输入“感恩节假期在圣何塞找400美元以下的酒店”时,处理器160可以从智能服务器200接收包括执行app信息(Hotels.com)、周期信息(2018/11/18)、位置信息(美国圣何塞)、金额信息($0-$400)等的计划。在用户终端100本身中,处理器160可以根据所接收的计划来执行“Hotels.com”应用,并且可以输入周期信息(2018/11/18)、位置信息(美国圣何塞)、金额信息($0-$400)等作为搜索选项,从而在显示器140上显示所找到的结果作为第一响应441。
根据各种实施例,当存在与语音输入相关联的选项参数时,处理器160或智能服务器200可以根据指定规则来确定一个值,并且可以显示第一响应441。例如,当存在语音输入“感恩节假期在圣何塞找400美元以下的酒店”时,位置参数(“圣何塞”)可以在美国被找到作为第一区域,而在哥斯达黎加州被找到作为第二区域。在这种情况下,处理器160或智能服务器200可以基于用户终端100的位置、用户终端100与第一区域或第二区域之间的距离、关于用户终端100的移动路径的历史信息等来确定一个区域,并且可以将在所确定的区域中搜索酒店的结果显示为第一响应441。
根据各种实施例,在显示第一响应441的状态下,处理器160可以接收用于改变选项参数的值的第一用户输入445。例如,第一用户输入445可以是向上和向下的滑动输入。
在屏幕450上,处理器160可以显示参数UI,用于响应于第一用户输入445选择选项参数的值。例如,参数UI可以是与第一响应441重叠并显示的窗口。
参数UI可以包括关于至少一个选项参数的列表。该列表可以包括例如,位置参数451、日期参数452和应用类型参数453。
处理器160可以确定是否出现用于选择列表中的一个选项参数的第二用户输入455。
在屏幕460上,处理器160可以显示由在参数UI上出现的第二用户输入455选择的选项参数的可变值。
例如,当第二用户输入455选择位置参数451时,处理器160可以显示可变值作为位置参数451。例如,在语音输入“感恩节假期在圣何塞找400美元以下的酒店”中,位置参数451可以包括美国的第一区域和哥斯达黎加的第二区域。
当用于改变位置参数451的第三用户输入465出现时,处理器160可以基于由第三用户输入465选择的值来显示第二响应。例如,在显示用于搜索第一区域周围的酒店的第一响应的状态下,处理器160可以显示用于搜索由第三用户输入465选择的第二区域周围的酒店的第二响应。
图5是示出根据本公开的实施例的指示用于改变选项参数的值的按钮类型对象的屏幕的图。图5仅是说明性的,并不限于此。
参照图5,在屏幕540上,图2的处理器160可以显示与用户的语音输入相对应的第一响应541。处理器160可以接收根据由图2的智能服务器200生成的计划的结果,并且可以基于接收到的结果在图2的显示器140上显示第一响应541。或者,处理器160可以接收由智能服务器200生成的计划,并且可以根据在用户终端100中接收到的计划执行操作。处理器160可以在显示器140上显示所执行的结果作为第一响应541。
根据各种实施例,处理器160可以显示用于改变选项参数值的按钮类型对象以及第一响应541。根据实施例,按钮类型对象542可以被显示为与选项参数之一相关联的图标或文本。例如,按钮类型对象542可以被显示为在显示第一响应541时执行的应用的图标和名称。处理器160可以接收按钮类型对象542上的第一用户输入545。
在屏幕550上,处理器160可以显示对应于第一用户输入545的参数UI。例如,参数UI可以是与第一响应541重叠并被显示的窗口。参数UI可以包括关于至少一个选项参数的列表。该列表可以包括,例如,app类型参数553。处理器160可以确定是否出现用于选择列表中的一个选项参数的第二用户输入555。
在屏幕560上,处理器160可以在参数UI上显示包括由第二用户输入555选择的选项参数的可变值的选项列表561。
例如,当第二用户输入555选择app类型参数553时,处理器160可以显示app类型参数553的可变值。
根据各种实施例,在屏幕540上,当第一用户输入545发生时,处理器160可能不能显示屏幕550,并且可在屏幕560上显示选项列表561。
在屏幕570上,处理器160可以显示通过由第三用户输入565选择的第二应用(例如,Expedia)执行的第二响应571。
根据实施例,处理器160可以将由第三用户输入565选择的信息发送到智能服务器200,并且可以接收根据由智能服务器200生成的计划的结果,从而基于接收到的结果在显示器140上显示第二响应571。例如,智能服务器200可以请求与由第三用户输入565选择的“Expedia”相关联的业务服务器300搜索酒店并且可以接收结果。智能服务器200可以将接收到的结果发送到用户终端100。用户终端100的处理器160可以显示接收到的搜索酒店的结果作为第二响应571。
根据另一个实施例,处理器160可以在从智能服务器200接收的计划中反映由第三用户输入565选择的信息。处理器160可以根据用户终端100中的计划执行操作,并且可以在显示器140上显示所执行的结果作为第二响应571。例如,处理器160可以执行由第三用户输入565选择的“Expedia”应用,并且可以输入在计划中定义的搜索选项以搜索酒店。处理器160可以显示由“Expedia”应用找到的酒店搜索结果作为第二响应571。
根据各种实施例,处理器160可以显示用于改变参数的按钮类型对象572以及第二响应571。按钮类型对象572的图标可以通过反映由第三用户输入565选择的信息来改变。
图6是示出根据本公开的实施例的指示选择类型对象的屏幕和用于改变选项参数的值的弹出窗口的图。图6仅仅是说明性的,并不限于此。
参照图6,在屏幕640上,图2的处理器160可以显示与用户的语音输入相对应的第一响应641。
处理器160可以接收根据由图2的智能服务器200生成的计划的结果,并且可以基于接收到的结果在图2的显示器140上显示第一响应641。或者,处理器160可以接收由智能服务器200生成的计划,并且可以根据在图2的用户终端100中接收到的计划执行操作。处理器160可以在显示器140上显示所执行的结果作为第一响应641。
根据各种实施例,处理器160可以显示用于参数改变的按钮类型对象642以及第一响应641。根据实施例,按钮类型对象642可以被显示为与可选参数之一相关联的图标或文本。例如,按钮类型对象642可以被显示为在显示第一响应641时执行的应用的图标或名称。处理器160可以接收按钮类型对象642上的第一用户输入645。
在图6中,示例了显示一个按钮类型对象642的实施例。然而,实施例不限于此。例如,按钮类型对象可以通过选项参数的数量来显示,或者可以选择多个选项参数中的两个或三个,并且可以显示与所选择的选项参数相关联的图标。
在屏幕660上,处理器160可以包括弹出窗口661,该弹出窗口661包括与按钮类型对象642相关联的选项参数的可变值。
例如,在显示与执行的app的类型相关联的按钮类型对象642的状态下,当第一用户输入645发生时,处理器160可以显示弹出窗口661,其包括与按钮类型对象642相邻的app类型参数的可变值。
在屏幕670中,当接收到用于选择第二应用(例如,Expedia)的第二用户输入665时,处理器160可以显示由第二应用(例如,Expedia)执行的第二响应671。
根据各种实施例,处理器160可以将由第二用户输入665选择的信息发送到智能服务器200,并且可以接收根据由智能服务器200生成的计划的结果,从而基于接收到的结果在显示器140上显示第二响应671。
根据另一个实施例,处理器160可以反映在从智能服务器200接收的计划中由第二用户输入665选择的信息。处理器160可以根据用户终端100中的计划执行操作,并且可以在显示器140上显示所执行的结果作为第二响应671。
根据各种实施例,处理器160可以显示用于参数改变的按钮类型对象672以及第二响应671。按钮类型对象672的图标可以通过反映由第二用户输入665选择的信息来改变。
根据各种实施例,当发生用于选项改变的单独的语音输入646时,处理器160可以基于语音输入646改变选项参数,并且可以显示第二响应671。在这种情况下,单独的弹出窗口661可能不能被显示(可能存在从屏幕640到屏幕670的改变)。
图7是示出根据本公开的实施例的指示提供与选项参数相关联的附加信息的屏幕的图。图7仅是说明性的,并不限于此。
参照图7,在屏幕750上,图2的处理器160可以显示能够改变选项参数的值的参数UI。参数UI可以包括关于至少一个选项参数的列表。处理器160可以确定是否出现用于选择列表中的一个选项参数的用户输入755。该列表可以包括例如位置参数751。
根据实施例,在屏幕750a上,处理器160可以使用图像显示关于选项参数的列表。例如,处理器160可以使用地图图像显示位置参数751a。处理器160可以确定用于选择列表中的一个选项参数的用户输入755a是否发生。
在屏幕770上,处理器160可以响应于用户输入755或用户输入755a来显示附加信息771。例如,当位置参数751(或位置参数751a)由用户输入755(或用户输入755a)选择时,处理器160可以显示可移动地图图像作为附加信息771。
当通过移动和选择地图图像来改变位置时,以及当用于确定用户位置的输入775出现时,处理器160可以显示通过所确定的位置执行的第二响应。
图8是示出根据本公开的实施例的指示第一响应和第二响应之间的转换的屏幕的图。
参照图8,在屏幕840上,图2的处理器160可以显示对应于用户的语音输入的第一响应841。处理器160可以显示用于参数改变的按钮类型对象842以及第一响应841。根据实施例,按钮类型对象842可以被显示为与选项参数之一相关联的图标或文本。例如,按钮类型对象842可以被显示为在显示第一响应841时执行的应用的图标和名称。
当用户输入发生在按钮类型对象842上时,处理器160可以显示可变选项参数的列表。当另外的用户输入出现在列表上时,处理器160可以改变选项参数的值。
对于屏幕870,处理器160可以响应于由用户输入选择的选项参数的值来显示第二响应871。处理器160可以显示用于参数改变的按钮类型对象872以及第二响应871。按钮类型对象872的图标可以通过反映由用户输入选择的信息来改变。
根据各种实施例,处理器160可以显示返回按钮873,用于在改变选项参数之前返回结果。处理器160可以接收第一屏幕移动按钮(例如,后退按钮)873上的用户输入875。
在屏幕840a上,当用户输入875出现在后按钮873上时,处理器160可以再次显示第一响应841。处理器160可以显示用于在改变选项参数之后返回响应结果的第二屏幕移动按钮(例如,前进按钮)843。当接收到第二屏幕移动按钮843上的用户输入845时,处理器160可以再次显示第二响应871。
根据各种实施例,当用户连续改变选项参数时,可以同时显示第一屏幕移动按钮873和第二屏幕移动按钮843。
图9是示出根据本公开的实施例的当不存在可选参数时的屏幕的图。
参照图9,对于屏幕940,图2的处理器160可以显示与用户的语音输入相对应的第一响应941。在显示第一响应941的状态下,处理器160可以接收用于改变选项参数的值的第一用户输入945。例如,第一用户输入945可以是向上和向下的滑动输入。
在屏幕950上,当没有可变选项参数时,处理器160可以显示信息消息951。
根据实施例,当没有可变选项参数时,处理器160可以使用弹出消息显示没有可变选项的参数,而没有单独的屏幕移动。
图10是根据本发明实施例的网络环境2000中的电子装置2001的框图。根据本公开的各种实施例的电子装置可以包括智能电话、平板个人计算机(PC)、移动电话、视频电话、电子书阅读器、台式PC、膝上型PC、网络书计算机、工作站、服务器、个人数字助理(PDA)、便携式多媒体播放器(PMP)、MP3播放器、移动医疗设备、相机和可穿戴设备中的至少一个。根据本公开的各种实施例,可穿戴设备可以包括附件(例如,手表、戒指、手镯、脚链、眼镜、隐形眼镜或头戴设备(HMD))、织物集成类型(例如,电子服饰)、身体附着类型(例如,皮肤垫或纹身)或可植入类型(例如,可植入电路)。在本公开的一些实施例中,电子装置可以是家用电器之一。家用电器可以包括:例如,数字视频盘(DVD)播放器、音频、冰箱、空调、清洁器、烤箱、微波炉、洗衣机、空气清洁器、机顶盒、家庭自动化控制面板、安全控制面板、游戏控制台、电子词典、电子钥匙、可携式摄像机或电子面板中的至少一个。
在本公开的另一个实施例中,电子装置可以包括各种导航系统、全球导航卫星系统(GNSS)、事件数据记录器(EDR)(例如,车辆/轮船/飞机黑匣子)、汽车信息娱乐设备(例如,车辆的平视显示器)、工业或家庭机器人、无人机、自动取款机(ATM)中的至少一个,或者销售点(POS)或物联网设备(例如,灯泡、喷洒器设备、火灾报警器、恒温器或路灯)中的至少一个。根据本文件的实施例的电子装置不限于上述设备,并且还可以配备有多个电子装置,例如具有测量生物测定信息(例如,心跳或血糖)的功能的智能电话。在本文档中,术语用户可以指使用电子装置的人或者使用电子装置的设备(例如,人工智能电子装置)。
参照图10,网络环境2000中的电子装置2001可以通过第一网络2098(例如,短距离无线通信网络)与电子装置2002通信,或者可以通过第二网络2099(例如,长距离无线通信网络)与电子装置2004或服务器2008通信。根据实施例,电子装置2001可以通过服务器2008与电子装置2004通信。
根据实施例,电子装置2001可以包括处理器2020、存储器2030、输入装置2050、声音输出装置2055、显示装置2060、音频模块2070、传感器模块2076、接口2077、触觉模块2079、相机模块2080、电力管理模块2088、电池2089、通信模块2090、用户识别模块2096或天线模块2097。在任何实施例中,可以从电子装置2001中省略至少一个(例如,显示装置2060或相机模块2080)组件,或者可以在电子装置2001中进一步包括一个或更多其他组件。在任何实施例中,可以用单个集成电路来实现一些组件。例如,传感器模块2076(例如,指纹传感器、虹膜传感器或照度传感器)可以嵌入显示装置2060(例如,显示器)中。
处理器2020可以执行例如软件(例如,程序2040)以控制连接到处理器2020的电子装置2001的至少一个其他组件(例如,硬件或软件组件),并且可以执行各种数据处理或操作。根据实施例,作为数据处理或操作的至少一部分,处理器2020可将从任何其他组件(例如,传感器模块2076或通信模块2090)接收的命令或数据加载到易失性存储器2032,可处理存储在易失性存储器2032中的命令或数据,且可将经处理的数据存储在非易失性存储器2034中。根据实施例,处理器2020可以包括主处理器2021(例如,中央处理单元或应用处理器)和辅助处理器2023(例如,图形处理设备、图像信号处理器、传感器集线器处理器或通信处理器),其可以独立于主处理器2021或与主处理器2021一起操作。附加地或替代地,辅助处理器2023可以被配置为使用比主处理器2021低的功率,或者被配置为专用于指定的功能。辅助处理器2023可以与主处理器2021分开实现,或者可以实现为主处理器2021的一部分。
辅助处理器2023可以在主处理器2021处于非活动(例如,睡眠)状态时,例如替代主处理器2021来控制与电子装置2001的至少一个组件(例如,显示装置2060、传感器模块2076或通信模块2090)相关联的一个或更多功能的至少一部分状态;以及当主处理器2021处于活动(例如,应用执行)状态时,与主处理器2021一起控制与电子装置2001的至少一个组件(例如,显示装置2060、传感器模块2076或通信模块2090)相关联的一个或更多功能的至少一部分状态。根据实施例,辅助处理器2023(例如,图像信号处理器或通信处理器)可以被实现为与辅助处理器2023在功能上(或可操作地)相关联的任何其他组件(例如,相机模块2080或通信模块2090)的一部分。
存储器2030可存储由电子装置2001的至少一个组件(例如,处理器2020或传感器模块2076)使用的各种数据。数据可以包括例如软件(例如,程序2040)或与软件的命令相关联的输入数据或输出数据。存储器2030可以包括易失性存储器2032或非易失性存储器2034。非易失性存储器2034可包括内部存储器和/或外部存储器(例如,内部存储器2036和外部存储器2038)。
程序2040可以作为软件存储在存储器2030中,并且可以包括例如操作系统2042、中间件2044或应用2046。
输入装置2050可以从电子装置2001的外部(例如,用户)接收将由电子装置2001的组件(例如,处理器2020)使用的命令或数据。输入装置2050可以包括例如麦克风、鼠标或键盘。
声音输出装置2055可以向电子装置2001的外部输出声音信号。声音输出装置2055可以包括例如扬声器或接收器。扬声器可以用于诸如多媒体播放或记录播放的通用目的,并且接收器可以用于接收呼入呼叫。根据实施例,接收器可以与扬声器分开实现,或者可以实现为扬声器的一部分。
显示装置2060可以在视觉上向电子装置2001的外部(例如,用户)提供信息。显示装置2060可以包括例如显示器、全息图设备或用于控制投影仪和相应设备的控制电路。根据实施例,显示装置2060可以包括被配置为感测触摸的触摸电路,或者被配置为测量由触摸产生的力的强度的传感器电路(例如,压力传感器)。
音频模块2070可以将声音转换为电信号,或者相反地,可以将电信号转换为声音。根据实施例,音频模块2070可以通过输入装置2050获得声音,或者可以通过声音输出装置2055输出声音,或者通过与电子装置2001直接或无线连接的外部电子装置(例如,电子装置2002)(例如,扬声器或耳机)输出声音。
传感器模块2076可感测电子装置2001的操作状态(例如,功率或温度)或外部环境状态(例如,用户状态),且可产生对应于所感测状态的电信号或数据值。根据实施例,传感器模块2076可以包括例如手势传感器、握持传感器、气压传感器、磁传感器、加速度传感器、握持传感器、接近传感器、颜色传感器、红外(IR)传感器、生物测定传感器、温度传感器、湿度传感器或照度传感器。
接口2077可以支持一个或更多指定的协议,这些协议可以用于直接和无线地将电子装置2001与外部电子装置(例如,电子装置2002)连接。根据实施例,接口2077可以包括例如高清晰度多媒体接口(HDMI)、通用串行总线(USB)接口、安全数字(SD)卡接口或音频接口。
连接端2078可包括允许电子装置2001与外部电子装置(例如,电子装置2002)物理连接的连接器。根据实施例,连接端2078可以包括例如HDMI连接器、USB连接器、SD卡连接器或音频连接器(例如,耳机连接器)。
触觉模块2079可以将电信号转换为机械刺激(例如,振动或运动)或电刺激,用户可以通过触摸感觉或运动感觉来感知机械刺激或电刺激。根据实施例,触觉模块2079可以包括例如电动机、压电传感器或电刺激设备。
相机模块2080可以拍摄静止图像和视频。根据实施例,相机模块2080可以包括一个或更多镜头、图像传感器、图像信号处理器或闪光灯(或电闪光灯)。
电力管理模块2088可以管理提供给电子装置2001的电力。根据实施例,电力管理模块2088可以被实现为例如电力管理集成电路(PMIC)的至少一部分。
电池2089可以为电子装置2001的至少一个部件供电。根据实施例,电池2089可以包括例如不可充电的原电池、可再充电的二次电池或燃料电池。
通信模块2090可以在电子装置2001和外部电子装置(例如,电子装置2002、电子装置2004或服务器2008)之间建立直接(或有线)通信信道或无线通信信道,或者可以通过所建立的通信信道执行通信。通信模块2090可包括独立于处理器2020(例如,应用处理器)操作并支持直接(或有线)通信或无线通信的一个或更多通信处理器。根据实施例,通信模块2090可以包括无线通信模块2092(例如,蜂窝通信模块、短距离无线通信模块或全球导航卫星系统(GNSS)通信模块)或有线通信模块2094(例如,局域网(LAN)通信模块或电力线通信模块)。这种通信模块的相应通信模块可以通过第一网络2098(例如,诸如蓝牙、Wi-Fi直接或红外数据关联(IrDA)的短距离通信网络)或第二网络2099(例如,诸如蜂窝网络、因特网或计算机网络(例如,LAN或WAN)的远距离通信网络)与外部电子装置通信。上述种类的通信模块可以集成在一个组件(例如,单个芯片)中,或者可以用彼此独立的多个组件(例如,多个芯片)来实现。无线通信模块2092可通过使用存储在用户识别模块2096中的用户信息(例如,国际移动用户身份(IMSI))来验证和认证通信网络(例如,第一网络2098或第二网络2099)内的电子装置2001。
天线模块2097可以向外部(例如,外部电子装置)发送信号或功率,或者可以从外部接收信号或功率。根据实施例,天线模块2097可以包括一个或更多天线,并且可以例如由通信模块2090从一个或更多天线中选择至少一个天线,至少一个天线适于在诸如第一网络2098或第二网络2099的计算机网络中使用的通信方案。信号或功率可以通过所选的至少一个天线在通信模块2090和外部电子装置之间交换,或者可以通过所选的至少一个天线和通信模块2090从外部电子装置被接收。
至少一些组件可以通过通信方案(例如,总线、通用输入和输出(GPIO)、串行外围接口(SPI)或移动工业处理器接口(MIPI))在外围设备之间彼此连接,并且可以彼此交换信号(例如,命令或数据)。
根据实施例,可以通过连接到第二网络2099的服务器2008在电子装置2001和电子装置2004之间发送或接收(或交换)命令或数据。电子装置2002和2004中的每一个可以是与电子装置2001的种类相同或不同的设备。根据实施例,可以在电子装置2002、2004或2008的一个或更多外部设备中执行要在电子装置2001中执行的所有或部分操作。例如,在电子装置2001应当自动地或者响应于来自用户或任何其他设备的请求执行任何功能或服务的情况下,电子装置2001可以请求一个或更多外部电子装置执行功能或服务的至少一部分以替代自己执行功能或服务,或者可以除了执行功能或服务之外另外请求一个或更多外部电子装置执行功能或服务的至少一部分。接收请求的一个或更多外部电子装置可以执行这样请求的功能或服务的至少一部分或与请求相关联的附加功能或服务,并且可以将执行的结果提供给电子装置2001。电子装置2001可以按原样或附加地处理接收到的结果,并且可以提供处理的结果作为对请求的响应的至少一部分。为此,例如,可以使用云计算、分布式计算或客户机-服务器计算技术。
根据各种实施例,电子装置包括显示器、麦克风、存储器、通信电路和处理器,其中,处理器被配置为:经由麦克风接收用户的语音输入;在显示器上显示与语音输入相对应的第一响应;接收第一用户输入;响应于第一用户输入,显示用于改变与语音输入相关联的至少一个参数的用户界面;接收经由用户界面的第二用户输入;并基于至少一个参数的值在显示器上显示与语音输入相对应的第二响应,其中该值由第二用户输入选择。
根据各种实施例,用户界面包括至少一个参数的列表或至少一个参数可改变的值的列表。
根据各种实施例,用户界面是包括至少一个参数可改变的值的列表的弹出窗口。
根据各种实施例,处理器被配置为通过在语音输入之后的附加语音输入来改变至少一个参数的值。
根据各种实施例,处理器被配置为经由通信电路将至少一个参数的值发送到外部服务器,并接收第一响应或第二响应。
根据各种实施例,处理器被配置为接收与执行未安装在电子装置中的应用相关联的第一响应或第二响应。
根据各种实施例,处理器被配置为显示包括与至少一个参数相关联的图像的用户界面。
根据各种实施例,处理器被配置为显示第二响应以及用于将屏幕改变为第一响应的第一对象。
根据各种实施例,处理器被配置为在屏幕被用户输入改变之后,显示第一响应以及用于将屏幕改变为第二响应的第二对象,其中用户输入发生在第一对象上。
根据各种实施例,第一用户输入是在指定方向上的滑动输入。
根据各种实施例,第一用户输入是与第一响应一起显示的按钮类型对象上的触摸输入。
根据各种实施例,处理器被配置为将按钮类型对象显示为与至少一个参数相关联的图标或文本。
应当理解,所使用的文档和术语的各种实施例并不旨在将本文档中所描述的技术限制为任何特定实施例,而是旨在包括实施例的各种修改、等同物和/或替换。结合附图的描述,相同的附图标记可以用于类似的部件。单数表达式可以包括复数表达式,除非上下文另有明确规定。在本文中,表述“A或B”、“A和/或B中的至少一个”、“A、B或C”或“A、B和/或C中的至少一个”包括可能的组合。诸如“第一”、“第二”的表述不限于那些组件。当提到一些(例如,第一)组件(功能上或通信上)连接或连接到另一(第二)组件时,可以直接连接到该组件,或者可以通过另一组件(例如,第三组件)进行连接。
在本文中,如本文所使用的术语“适于或配置成”旨在涵盖所有类型的信息,包括(但不限于)“制造成”、“设计成”或“设计为”。在一些情况下,表述“配置成……”的设备可意味着设备可与其他设备或组件一起“做”。举例来说,配置(或经配置)以执行短语“A、B和C”的处理器可为专用于执行操作的处理器(例如,嵌入式处理器)。通过执行上述程序,其可意味着可执行相应操作的通用处理器(例如,CPU或AP)。
如这里所使用的,术语“模块”包括硬件、软件或固件的单元,并且可以与诸如逻辑、逻辑块、组件等术语互换使用。“模块”可以是执行一个或更多功能的整体构造的部件或最小单元或其部分。“模块”可以机械地或电子地实现,例如通过专用集成电路(ASIC)芯片、现场可编程门阵列(FPGA)和可编程逻辑器件。
根据各种实施例的设备(例如,模块或其功能)或方法(例如,操作)中的至少一些可以存储在计算机可读存储介质(例如,存储器2030)中。当指令由处理器(例如,处理器2020)执行时,处理器可执行对应于指令的功能。计算机可读记录介质可以是硬盘、软盘、诸如磁带的磁介质、诸如CD-ROM、DVD的光记录介质、诸如软盘的磁光介质,指令可以包括由编译器生成的代码或可以由解释器执行的代码。
根据各种实施例的每个组件(例如,模块或程序模块)可以包括单个实体或多个实体,并且可以省略先前提到的子组件的一些子组件。可替换地或附加地,一些组件(例如,模块或程序模块)可以被集成到一个实体中,以执行在集成之前由每个相应组件执行的相同或类似的功能。根据各种实施例,由模块、程序模块或其他组件执行的操作可以以并行、重复或试探的方式顺序地执行,或者至少一些操作可以以不同的顺序执行或者可以被添加。
虽然已经参考本公开的各种实施例示出和描述了本公开,但是本领域技术人员将理解,在不脱离由所附权利要求及其等同物限定的本发明的精神和范围的情况下,可以在形式和细节上进行各种改变。

Claims (15)

1.一种电子装置,包括:
显示器;
麦克风;
存储器;
通信电路;以及
处理器,
其中,所述处理器配置为:
经由所述麦克风接收用户的语音输入,
在所述显示器上显示与所述语音输入相对应的第一响应,
接收第一用户输入,
响应于所述第一用户输入在所述显示器上显示用于改变与所述语音输入相关联的至少一个参数的用户界面,
经由所述用户界面接收第二用户输入,以及
基于所述至少一个参数的值在所述显示器上显示与所述语音输入相对应的第二响应,其中所述值由所述第二用户输入选择。
2.根据权利要求1所述的电子装置,其中,所述用户界面包括所述至少一个参数的列表或所述至少一个参数能够改变的值的列表。
3.根据权利要求1所述的电子装置,其中,所述用户界面包括弹出窗口,所述弹出窗口包括所述至少一个参数能够改变的值的列表。
4.根据权利要求1所述的电子装置,其中,所述处理器还配置为:在接收到所述语音输入之后,通过附加语音输入来改变所述至少一个参数的所述值。
5.根据权利要求1所述的电子装置,其中,所述处理器还配置为:
经由所述通信电路将所述至少一个参数的所述值发送到外部服务器,以及
接收所述第一响应或所述第二响应。
6.根据权利要求5所述的电子装置,其中,所述处理器还配置为:
接收与执行未安装在所述电子装置上的应用相关联的所述第一响应或所述第二响应。
7.根据权利要求1所述的电子装置,其中,所述处理器还配置为:
显示包括与所述至少一个参数相关联的图像的所述用户界面。
8.根据权利要求1所述的电子装置,其中,所述处理器还配置为:
与所述第二响应一起显示用于将屏幕改变为所述第一响应的第一对象。
9.根据权利要求8所述的电子装置,其中,所述处理器还配置为:
在通过所述第一对象上出现的用户输入改变所述屏幕之后,与所述第一响应一起显示用于将所述屏幕改变为所述第二响应的第二对象。
10.根据权利要求1所述的电子装置,其中,所述第一用户输入包括指定方向上的滑动输入。
11.根据权利要求1所述的电子装置,其中,所述第一用户输入包括所述第一响应一起显示的按钮类型对象上的触摸输入。
12.根据权利要求1所述的电子装置,其中,所述处理器还配置为:
将所述按钮类型对象显示为与所述至少一个参数相关联的图标或文本。
13.在电子装置中执行的语音识别方法,所述方法包括:
经由所述电子装置的麦克风接收用户的语音输入;
在所述电子装置的显示器上显示与所述语音输入相对应的第一响应;
接收第一用户输入;
响应于所述第一用户输入,显示用于改变与所述语音输入相关联的至少一个参数的用户界面;
经由所述用户界面接收第二用户输入;以及
基于所述至少一个参数的值在所述显示器上显示与所述语音输入相对应的第二响应,所述值由所述第二用户输入选择。
14.根据权利要求13所述的方法,还包括:
在接收到所述语音输入之后,通过附加语音输入来改变所述至少一个参数的所述值。
15.根据权利要求13所述的方法,
其中,显示所述第一响应包括:
将所述至少一个参数的所述值发送到外部服务器;以及
接收所述第一响应,以及
其中,显示所述第二响应包括:
将所选择的参数的值发送到所述外部服务器;以及
接收所述第二响应。
CN201980053540.7A 2018-08-08 2019-08-08 语音识别方法及支持该方法的电子装置 Pending CN112740322A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020180092700A KR20200017292A (ko) 2018-08-08 2018-08-08 음성 인식 방법 및 그 방법을 지원하는 전자 장치
KR10-2018-0092700 2018-08-08
PCT/KR2019/010017 WO2020032650A1 (en) 2018-08-08 2019-08-08 Speech recognition method and electronic device for supporting the same

Publications (1)

Publication Number Publication Date
CN112740322A true CN112740322A (zh) 2021-04-30

Family

ID=67587485

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980053540.7A Pending CN112740322A (zh) 2018-08-08 2019-08-08 语音识别方法及支持该方法的电子装置

Country Status (5)

Country Link
US (1) US11308953B2 (zh)
EP (1) EP3608771B1 (zh)
KR (1) KR20200017292A (zh)
CN (1) CN112740322A (zh)
WO (1) WO2020032650A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180060328A (ko) * 2016-11-28 2018-06-07 삼성전자주식회사 멀티 모달 입력을 처리하는 전자 장치, 멀티 모달 입력을 처리하는 방법 및 멀티 모달 입력을 처리하는 서버
KR20200017292A (ko) * 2018-08-08 2020-02-18 삼성전자주식회사 음성 인식 방법 및 그 방법을 지원하는 전자 장치

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090115599A (ko) * 2008-05-02 2009-11-05 엘지전자 주식회사 이동 단말기 및 그 정보 처리방법
US20100318551A1 (en) * 2009-06-15 2010-12-16 Jenny Lai Method and system for search string entry and refinement on a mobile device
KR20130068303A (ko) * 2011-12-15 2013-06-26 포항공과대학교 산학협력단 음성 명령 수행장치, 이를 구비한 이동 단말기 및 음성 명령 수행방법
JP2014225796A (ja) * 2013-05-16 2014-12-04 京セラ株式会社 電子機器、制御方法、及び制御プログラム
US20150277681A1 (en) * 2014-03-31 2015-10-01 Monticello Enterprises LLC System and method for providing a single input field having multiple processing possibilities
US20160351190A1 (en) * 2015-05-27 2016-12-01 Apple Inc. Device voice control
US20180150280A1 (en) * 2016-11-28 2018-05-31 Samsung Electronics Co., Ltd. Electronic device for processing multi-modal input, method for processing multi-modal input and sever for processing multi-modal input
US20180211665A1 (en) * 2017-01-20 2018-07-26 Samsung Electronics Co., Ltd. Voice input processing method and electronic device for supporting the same

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100107100A1 (en) 2008-10-23 2010-04-29 Schneekloth Jason S Mobile Device Style Abstraction
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US8650210B1 (en) 2010-02-09 2014-02-11 Google Inc. Identifying non-search actions based on a search query
KR101914548B1 (ko) 2012-01-05 2018-11-02 엘지전자 주식회사 음성 인식 기능을 구비한 이동 단말기 및 그 검색 결과 제공 방법
WO2014197635A2 (en) * 2013-06-07 2014-12-11 Apple Inc. Intelligent automated assistant
US10482461B2 (en) * 2014-05-29 2019-11-19 Apple Inc. User interface for payments
US20150350141A1 (en) * 2014-05-31 2015-12-03 Apple Inc. Message user interfaces for capture and transmittal of media and location content
US9275641B1 (en) 2014-09-14 2016-03-01 Speaktoit, Inc. Platform for creating customizable dialog system engines
US9721566B2 (en) * 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10255907B2 (en) * 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
KR20170046958A (ko) * 2015-10-22 2017-05-04 삼성전자주식회사 전자 장치 및 그의 음성 인식을 이용한 기능 실행 방법
US11112963B2 (en) * 2016-05-18 2021-09-07 Apple Inc. Devices, methods, and graphical user interfaces for messaging
US10650621B1 (en) * 2016-09-13 2020-05-12 Iocurrents, Inc. Interfacing with a vehicular controller area network
KR20180092700A (ko) 2017-02-10 2018-08-20 동아대학교 산학협력단 유압식 리프팅 장치를 구비하는 침대
KR102414122B1 (ko) * 2017-04-19 2022-06-29 삼성전자주식회사 사용자 발화를 처리하는 전자 장치 및 그 동작 방법
KR20200017292A (ko) * 2018-08-08 2020-02-18 삼성전자주식회사 음성 인식 방법 및 그 방법을 지원하는 전자 장치

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090115599A (ko) * 2008-05-02 2009-11-05 엘지전자 주식회사 이동 단말기 및 그 정보 처리방법
US20100318551A1 (en) * 2009-06-15 2010-12-16 Jenny Lai Method and system for search string entry and refinement on a mobile device
KR20130068303A (ko) * 2011-12-15 2013-06-26 포항공과대학교 산학협력단 음성 명령 수행장치, 이를 구비한 이동 단말기 및 음성 명령 수행방법
JP2014225796A (ja) * 2013-05-16 2014-12-04 京セラ株式会社 電子機器、制御方法、及び制御プログラム
US20150277681A1 (en) * 2014-03-31 2015-10-01 Monticello Enterprises LLC System and method for providing a single input field having multiple processing possibilities
US20160351190A1 (en) * 2015-05-27 2016-12-01 Apple Inc. Device voice control
US20180150280A1 (en) * 2016-11-28 2018-05-31 Samsung Electronics Co., Ltd. Electronic device for processing multi-modal input, method for processing multi-modal input and sever for processing multi-modal input
US20180211665A1 (en) * 2017-01-20 2018-07-26 Samsung Electronics Co., Ltd. Voice input processing method and electronic device for supporting the same

Also Published As

Publication number Publication date
WO2020032650A1 (en) 2020-02-13
EP3608771A1 (en) 2020-02-12
US11308953B2 (en) 2022-04-19
US20200051562A1 (en) 2020-02-13
EP3608771B1 (en) 2024-03-20
KR20200017292A (ko) 2020-02-18
EP3608771C0 (en) 2024-03-20

Similar Documents

Publication Publication Date Title
EP3396665B1 (en) Voice data processing method and electronic device supporting the same
KR102426704B1 (ko) 음성 인식 서비스 운용 방법 및 이를 지원하는 전자 장치
KR102607666B1 (ko) 전자 장치에서 사용자 의도 확인을 위한 피드백 제공 방법 및 장치
US10825453B2 (en) Electronic device for providing speech recognition service and method thereof
CN108023934B (zh) 电子装置及其控制方法
EP3593347B1 (en) Method for operating speech recognition service and electronic device supporting the same
US10788955B2 (en) Method for controlling display and electronic device supporting the same
CN109474658B (zh) 用外部设备支持任务运行的电子设备、服务器和记录介质
US11120792B2 (en) System for processing user utterance and controlling method thereof
EP3396664B1 (en) Electronic device for providing speech recognition service and method thereof
KR102369083B1 (ko) 음성 데이터 처리 방법 및 이를 지원하는 전자 장치
US11150870B2 (en) Method for providing natural language expression and electronic device supporting same
KR102630662B1 (ko) 어플리케이션 실행 방법 및 이를 지원하는 전자 장치
KR102431817B1 (ko) 사용자 발화를 처리하는 전자 장치 및 서버
US11474780B2 (en) Method of providing speech recognition service and electronic device for same
KR102525108B1 (ko) 음성 인식 서비스 운용 방법 및 이를 지원하는 전자 장치
US11404065B2 (en) Method for displaying visual information associated with voice input and electronic device supporting the same
KR102345883B1 (ko) 그래픽 표시를 출력하는 전자 장치
CN112740322A (zh) 语音识别方法及支持该方法的电子装置
KR102507249B1 (ko) 성능 모드 제어 방법 및 이를 지원하는 전자 장치
CN111095905A (zh) 信息提供方法和支持该信息提供方法的电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination