CN112166408A - 用于提供智能响应的方法和设备 - Google Patents

用于提供智能响应的方法和设备 Download PDF

Info

Publication number
CN112166408A
CN112166408A CN201980035154.5A CN201980035154A CN112166408A CN 112166408 A CN112166408 A CN 112166408A CN 201980035154 A CN201980035154 A CN 201980035154A CN 112166408 A CN112166408 A CN 112166408A
Authority
CN
China
Prior art keywords
command
response
electronic device
intelligent
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980035154.5A
Other languages
English (en)
Inventor
考希克·达斯
玛雅·库马尔·塔吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN112166408A publication Critical patent/CN112166408A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Medical Informatics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

提供了一种在电子装置上提供智能响应的方法及其设备。所述方法包括:从电子装置的用户接收命令,分析所述命令,基于分析的命令生成与所述命令对应的至少一个智能响应以及与所述命令对应的实际响应,并且通过电子装置输出所述至少一个智能响应以及所述实际响应,其中,所述至少一个智能响应包括与所述命令相关联的声音效果、与所述命令相关联的振动效果或者与所述命令相关联的视觉效果中的至少一个。

Description

用于提供智能响应的方法和设备
技术领域
本公开涉及用户与用户的电子装置之间的用户体验。更具体地,本公开涉及一种用于管理电子装置对用户的假响应的方法和设备。
背景技术
通常,用户对安装在电子装置中的应用执行一个或更多个命令。命令可以是例如但不限于语音命令、文本输入、触摸输入等。在示例中,电子装置的用户向应用(例如,智能助理应用、虚拟辅助应用等)提供语音命令以执行特定动作。命令被用于经由一些应用来控制一些装置或执行特定动作(例如,设置闹钟、设置提醒等)。在执行命令之后,用户可通过用户界面接收反馈(或执行报告)。通常,来自装置的反馈是通知或弹出窗口。
因此,期望解决上述缺点或其它不足或者至少提供有用的替代方案。
上述信息仅被呈现为背景信息以帮助对本公开的理解。关于上述内容中的任意内容是否可应用为关于本公开的现有技术,尚未做出确定,也未做出断言。
发明内容
技术方案
根据本公开的一方面,提供了一种在电子装置上提供智能响应的方法。所述方法包括:从电子装置的用户接收命令,分析所述命令,基于分析的命令生成与所述命令对应的至少一个智能响应以及与所述命令对应的实际响应,并且通过电子装置输出所述至少一个智能响应以及所述实际响应,其中,所述至少一个智能响应包括与所述命令相关联的声音效果、与所述命令相关联的振动效果或者与所述命令相关联的视觉效果中的至少一个。
有益效果
提供了一种在电子装置上提供智能响应的方法。所述方法使得电子装置的用户能够通过电子装置体验连同对特定动作的用户的请求的实际响应一起的声音效果、触觉效果、视觉效果。
附图说明
从结合附图的以下描述,本公开的特定实施例的以上和其他方面、特征和优点将更加显而易见,其中:
图1是根据本公开的实施例的用于提供智能响应的电子装置100的框图;
图2是根据本公开的实施例的用于智能响应的服务器200的框图;
图3示出根据本公开的实施例的电子装置100的处理器110中的各种元件;
图4示出根据本公开的实施例的用于提供对命令的智能响应的框图;
图5是根据本公开的实施例的提供对命令的智能响应的系统的概图;
图6是示出根据本公开的实施例的提供智能响应的方法的流程图;
图7是示出根据本公开的实施例的由服务器生成智能响应的另一方法的流程图;
图8示出根据本公开的实施例的提供对查询的智能响应的示例场景;
图9示出根据本公开的实施例的提供具有声音效果的智能响应的示例场景;
图10示出根据本公开的实施例的控制灯操作的示例场景;
图11示出根据本公开的实施例的提供与日程安排相关联的智能响应的示例说明;
图12示出根据本公开的实施例的提供与门相关联的智能响应的示例场景;
图13示出根据本公开的实施例的提供与天气相关联的智能响应的示例场景;
图14示出根据本公开的实施例的提供与体育赛事相关联的智能响应的示例场景;
图15示出根据本公开的实施例的提供与开灯/关灯相关联的智能响应的示例场景;
图16示出根据本公开的实施例的提供与风扇速度相关联的智能响应的示例场景;以及
图17示出根据本公开的实施例的提供与播放歌曲相关联的智能响应的示例场景。
在全部附图中,应当注意,相同的附图标号被用于描绘相同或相似的元件、特征和结构。
最佳模式
本公开的多个方面在于至少解决上述问题和/或缺点,并且至少提供下面描述的优点。因此,本公开的一方面在于提供一种在电子装置上提供智能响应的方法。
另外的方面将部分地在下面的描述中被阐述,并且部分地将从所述描述中显而易见,或者可通过所提出的实施例的实践而被获知。
根据本公开的一方面,提供了一种在电子装置上提供智能响应的方法。所述方法包括:从电子装置的用户接收命令,分析所述命令,基于所分析的命令生成与所述命令对应的至少一个智能响应以及与所述命令对应的实际响应,并且通过电子装置输出所述至少一个智能响应以及所述实际响应,其中,所述至少一个智能响应包括与所述命令相关联的声音效果、与所述命令相关联的振动效果或者与所述命令相关联的视觉效果中的至少一个。
在实施例中,所述命令包括语音命令、文本命令、触摸输入命令或由捕获装置捕获的图像输入中的至少一个。
在实施例中,输出所述至少一个智能响应以及所述实际响应的步骤包括:按照时间顺序或同时地输出所述至少一个智能响应以及所述实际响应。
在实施例中,生成所述至少一个智能响应的步骤包括:向服务器发送对所述至少一个智能响应的请求和所述分析的命令,并且从服务器接收所述至少一个智能响应。
在实施例中,与所述命令对应的实际响应包括将被发送到至少一个远程装置的用于响应于所述命令控制所述至少一个远程装置的控制信号。
在实施例中,生成与所述命令的内容对应的至少一个智能响应的步骤包括:基于所分析的命令的内容和与所述命令相关联的信息来生成所述至少一个智能响应,其中,所述信息是从安装在电子装置中的应用或连接到电子装置的服务器获得的。
在实施例中,与所述命令相关联的视觉效果包括改变电子装置的显示器的亮度的视觉效果。
在实施例中,与所述命令相关联的运动图像包括描绘所述命令的运动图像。
在实施例中,分析所述命令的步骤包括:经由网络从数据库获得与所述命令相关联的信息。
在实施例中,所述视觉效果包括显示与所述命令相关联的静止图像或运动图像。
在实施例中,生成对所述命令的至少一个智能响应的步骤包括:在网络中搜索生成所述至少一个智能响应所需的第一数据并基于第一数据生成所述至少一个智能响应。
在实施例中,生成所述实际响应的步骤包括:在网络中搜索生成所述实际响应所需的第二数据并基于第二数据生成所述实际响应。
根据本公开的另一方面,提供了一种用于提供智能响应的设备。所述设备包括显示器、扬声器、至少一个处理器,其中,所述至少一个处理器被配置为:从用户接收命令,分析所述命令,基于所分析的命令生成与所述命令对应的至少一个智能响应以及与所述命令对应的实际响应,并且输出所述至少一个智能响应以及所述实际响应,其中,所述至少一个智能响应包括由扬声器输出的与所述命令相关联的声音效果、与所述命令相关联的振动效果或者与所述命令相关联的视觉效果中的至少一个。
在实施例中,所述至少一个处理器被配置为:向服务器发送对所述至少一个智能响应的请求和所述分析的命令,并且接收由服务器生成的所述至少一个智能响应。
在实施例中,与所述命令相关联的视觉效果包括改变所述电子装置的显示器的亮度的视觉效果。
在实施例中,所述至少一个处理器还被配置为:向至少一个照明装置发送信号,以与改变所述设备的显示器的亮度的视觉效果成正比地改变所述至少一个照明装置的亮度。
在实施例中,所述至少一个处理器还被配置为:在网络中搜索生成所述至少一个智能响应所需的第一数据,并基于第一数据生成所述智能响应。
在实施例中,所述至少一个处理器还被配置为:在网络中搜索生成所述实际响应所需的第二数据,并基于第二数据生成所述实际响应。
从结合附图公开了本公开的各种实施例的以下详细描述,本公开的其他方面、优点和显著特征对于本领域技术人员将变得显而易见。
具体实施方式
提供参照附图的以下描述,以帮助全面理解由权利要求及其等同物限定的本公开的各种实施例。参照附图的以下描述包括各种具体细节以帮助该理解,但是这些将被认为仅是示例性的。因此,本领域普通技术人员将认识到,在不脱离本公开的范围和精神的情况下,可对这里描述的各种实施例进行各种改变和修改。此外,为了清楚和简洁,可省略对公知功能和构造的描述。
在以下描述和权利要求中使用的术语和词语不限于书面含义,而是仅由发明人使用以使得能够清楚和一致地理解本公开。因此,对于本领域技术人员应显而易见的是,提供本公开的各种实施例的以下描述仅是为了说明的目的,而不是为了限制如由所附权利要求及其等同物限定的本公开的目的。
应理解,单数形式包括复数指示物,除非上下文另有明确指示。因此,例如,提及“组件表面”包括提及一个或更多个这样的表面。
如这里所使用的,术语“第1”或“第一”以及“第2”或“第二”可使用对应的组件而不管重要性或顺序如何,并且被用于将一个组件与另一组件区分开而不限制该组件。
附图被用于帮助容易地理解各种技术特征,并且应理解,这里呈现的实施例不受附图限制。如此,本公开应被解释为除了在附图中具体阐述的那些之外还延伸至任意可选方案、等同方案和替代方案。尽管术语第一、第二等可在此被用于描述各种元件,但这些元件不应受这些术语限制。这些术语通常仅被用于将一个元件与另一元件区分开。
因此,实施例在此公开了一种用于提供智能响应的系统。该系统包括与电子装置进行通信的服务器。电子装置被配置为从用户接收命令并且将该命令发送到服务器。服务器被配置为从电子装置接收该命令并且动态地创建对该命令的响应,其中,反馈模仿从电子装置接收到的该命令的内容或特征。服务器被配置为在电子装置正执行该命令时或者一旦电子装置执行了该命令就将与该命令对应的反馈发送到电子装置。此外,电子装置被配置为在执行该命令时或者一旦执行了该命令就接收对该命令的响应并将该响应提供给用户。此外,电子装置被配置为一旦执行了该命令就提供针对该命令的超现实或智能响应。在实施例中,所述超现实或智能响应对应于创建针对该命令的虚构响应、虚拟响应和可增强虚拟效果中的至少一个。
与现有技术的方法和系统不同,所提出的系统可被用于在通过电子装置提供对当前命令或事件发生的智能响应的同时智能地增强一个或更多个特殊效果(例如,音频效果、视频效果、振动效果等)。这些特殊效果是通过实际的命令执行或事件发生而产生的。智能响应可在提供实际的命令执行或事件发生的同时提高用户体验。
所述系统智能地关联特殊效果以生成完全虚构的情况,其中,所述情况将与用户输入或事件相关联的特定效果与正被执行的动作混合。所述系统智能地提供与用户所意图的命令对应的更像真实世界的执行体验。在生成特定效果的同时,所述系统智能地关联与各种使用情况(例如,IoT照明装置的位置、该位置中的照明装置的数量、照明装置的亮度等)相关的实体的所涉及的底层元素的多个属性(例如,电子装置的能力、电子装置的位置等)。所述效果是基于用户正交互的电子装置的能力而产生的。所述效果可以是但不限于音频效果、视觉效果、物理(例如,振动)效果或其组合。在产生所述效果之前,所述系统智能地检查提供所述效果是否对用户有意义,并且不会用冗余或不必要的效果来烦扰用户。例如,用户提供“虚拟助理!关闭车库门”的命令。响应于语音命令,电子装置确定用户是否位置靠近车库。为了控制将提供的效果的程度,电子装置可利用包括在电子装置中的GPS模块而具有或获得用户的位置信息以及与实际命令相关联的车库位置。如果用户被确定为位置靠近车库,则电子装置以较小的音量生成关闭车库门的背景声音。如果用户相对远离车库,则电子装置以大音量生成关闭车库门的背景声音。
所述系统可被用于在通过电子装置提供关于由用户输入的命令或事件发生的反馈或智能响应的同时智能地增强或组合一个或更多个特殊效果。
现在参照附图,并且更具体地参照图1至图17,示出优选的实施例,其中,在全部附图中相似的附图标号始终表示对应的特征。
在整个说明书中,术语“反馈”和“超现实响应”可分别与术语“实际响应”和“智能响应”可互换地使用。
图1是根据本公开的实施例的用于提供智能响应的电子装置100的框图。
参照图1,电子装置100可以是例如但不限于蜂窝电话、智能电话、个人数字助理(PDA)、平板计算机、膝上型计算机、音乐播放器、视频播放器、物联网(IoT)装置等。智能响应可以是例如但不限于虚拟响应、虚构响应、可增强虚拟效果等。
在实施例中,电子装置100可包括处理器110、通信器120、存储器130和显示器140。处理器110可与存储器130、通信器120(例如,收发器)和显示器140耦接。
在实施例中,处理器110被配置为从用户接收命令。所述命令可以是例如但不限于语音命令、文本命令、诸如摇晃电子装置的物理命令、IoT命令、触摸输入等。处理器110可以能够处理任意模式的命令。在接收到命令之后,处理器110可被配置为解析并分析包括在该命令中的内容或意图。
基于分析结果,处理器110可确定并生成特定于该命令的实际响应和智能响应。对命令的实际响应可模仿从用户接收到的命令的内容或特征。例如,如果命令是“音量增大!”,则实际响应可以是调大音量的动作或者控制电子装置100的扬声器或远程装置的扬声器以调大音量的控制信号。
在实施例中,可通过确定命令的特征、确定电子装置100的能力中的至少一个来确定模仿命令的动作的智能响应,其中,所述命令的特征指示将被应用(例如,虚拟助理应用、IoT应用等)执行的主题和/或动作。处理器110可基于命令的特征或电子装置100的能力中的至少一个来生成对命令的智能响应。
此外,处理器110可在执行对命令的实际响应时或者在执行实际响应之前或之后提供特定于该命令的智能响应。当命令被执行时,处理器110可提供与命令对应的智能响应。对命令的智能响应可以是例如但不限于音频效果、视觉效果、物理效果、音频-视觉效果或音频-视觉-物理效果。
音频效果、视觉效果、物理效果、音频-视觉效果和音频-视觉-物理效果中的至少一个是基于资源细节和效果属性而生成的。通过对前述效果中的至少两个进行组合来提供音频效果、视觉效果、物理效果、音频-视觉效果和音频-视觉-物理效果。
在实施例中,处理器110可获得命令的内容并对命令的内容进行解析以确定什么对应动作(控制)和/或效果将适合于该命令。此外,处理器110可确定命令类型。也就是说,处理器110可确定命令是语音命令、文本命令、触摸输入命令还是由图像捕获装置捕获的图像输入。处理器110可基于命令类型获得语音命令执行元数据、视觉命令执行元数据、物理命令执行元数据。处理器110可基于语音命令执行元数据、视觉命令执行元数据和物理命令执行元数据动态地确定模仿命令的动作或内容的实际响应和智能响应。
处理器110可执行存储在存储器130中的指令并且执行各种处理。通信器120被配置为用于在内部硬件组件之间进行内部通信并且经由一个或更多个网络与外部装置进行通信。在实施例中,通信器120被配置为用于与服务器(未示出)进行通信。
此外,存储器130存储目标知识库并基于在电子装置100中执行的命令来更新目标知识库。目标知识库包含关于命令输出的细节,并且在一段时间内保持更新该命令输出。此外,存储器130存储智能响应。
此外,存储器130存储关于所有类型的智能响应的信息。存储器130保持关于可应用于智能响应的资源(例如,声音文件、样式文件等)的信息。每种智能响应的属性以各种格式(例如,json格式等)被保持。在示例中,在视觉效果的情况下,视觉效果可包含诸如在创建视觉效果时将执行的代码的地址的信息。代码的地址可以是本地地址参考或对某个远程云位置的参考。在另一示例中,在视觉场景创建操作期间,代码信息被用于生成与视觉分量(即,视频帧)相关的参数。在播放场景时,效果合成器(未示出)使用电子装置100的提供/播放超现实响应的显示子系统来创建视觉效果。
存储器130存储将由处理器110执行的指令。存储器130可包括非易失性存储存储器。这样的非易失性存储元件的示例可包括磁性硬盘、光盘、软盘、闪存、或者电可编程存储器(EPROM)或电可擦除可编程存储器(EEPROM)的形式。此外,在一些示例中,存储器130可被视为非暂时性存储介质。术语“非暂时性”可指示不以载波或传播信号实施该存储介质。然而,术语“非暂时性”不应被解释为存储器130是不可移动的。在一些示例中,存储器130可被配置为存储比存储器更大量的信息。在特定示例中,非暂时性存储介质可存储可随时间改变的数据(例如,在随机存取存储器(RAM)或缓存中)。
虽然图1示出了电子装置100的各种硬件组件,但是应理解,其他实施例不限于此。在其他实施例中,电子装置100可包括更少或更多的组件。此外,组件的标签或名称仅被用于说明性目的,并且不限制本公开的范围。一个或更多个组件可被组合在一起以执行相同或基本上相似的功能,从而在电子装置100中提供超现实响应。
图2是根据本公开的实施例的用于智能响应的服务器200的框图。
参照图2,服务器200可包括处理器210、通信器220(例如,收发器)和存储器230。处理器210可被耦接到存储器230和/或通信器220。
在实施例中,当电子装置100由于资源限制而不能对用户输入的命令进行处理以提供智能响应时,电子装置100可连接到服务器200以获得智能响应。服务器200的处理器210可经由通信器220从电子装置100接收命令。在从电子装置100接收到命令之后,处理器210被配置为生成特定于该命令的反馈。特定于该命令的反馈模仿如参照图1描述的命令的内容或特征。
通过确定命令的特征,确定需要在其上执行该命令的电子装置100的能力来动态地创建特定于该命令的实际响应,其中,所述命令的特征指示将在电子装置100执行的主题和/或动作。服务器200基于命令的特征以及电子装置100和/或服务器200的能力来生成特定于该命令的实际响应和特定于该命令的智能响应。
在示例中,能力可包括IoT云环境中的通信能力、服务器200或电子装置100的位置、存储容量、显示能力、扬声器能力和振动能力。在示例中,如果用户有老式手机,则针对老式手机的显示效果与新手机不同。此外,电子装置100通过基于用户偏好或者包括服务器200或电子装置100的能力的任意信息调节音频水平来提供智能响应。用户偏好可在一段时间内被更新。在示例中,智能响应可与旧风扇相关,旧风扇的音量被自动调节。
在生成了智能响应之后,处理器210可在电子装置100正执行实际响应时或者在电子装置100执行特定于命令的实际响应之前/之后向电子装置100发送与该命令对应的智能响应。
处理器210被配置为执行存储在存储器230中的指令,并且执行各种处理。通信器220被配置为在内部硬件组件之间进行内部通信并且经由一个或更多个网络与外部装置进行通信。此外,通信器220被配置为与电子装置100进行通信。
在实施例中,电子装置100可内部地生成特定于命令的实际响应,并且可从服务器200获得智能响应。
存储器230存储目标知识并基于在服务器200中执行的各种命令来更新目标知识。目标知识包含关于命令输出的细节,并且在一段时间内保持更新该命令输出。存储器230存储智能响应。存储器230存储关于所有类型的智能响应的信息。存储器230保持关于可应用于特定效果的资源(例如,声音文件、样式文件等)的信息。
存储器230存储将由处理器210执行的指令。存储器230可包括非易失性存储元件。这样的非易失性存储元件的示例可包括磁性硬盘、光盘、软盘、闪存、或者电可编程存储器(EPROM)或电可擦除可编程存储器(EEPROM)的形式。此外,在一些示例中,存储器230可被视为非暂时性存储介质。术语“非暂时性”可指示不以载波或传播信号实施该存储介质。然而,术语“非暂时性”不应被解释为存储器230是不可移动的。在一些示例中,存储器230可被配置为存储比存储器更大量的信息。在特定示例中,非暂时性存储介质可存储可随时间改变的数据(例如,在随机存取存储器(RAM)或缓存中)。
虽然图2示出了服务器200的各种硬件组件,但是应理解,其他实施例不限于此。在其他实施例中,服务器200可包括更少或更多的组件。此外,组件的标签或名称仅被用于说明性目的,并且不限制本公开的范围。一个或更多个组件可被组合在一起以执行相同或基本上相似的功能,从而在电子装置100中提供超现实响应。
图3示出根据本公开的实施例的电子装置100的处理器110中的各种元件。
参照图3,处理器110可包括虚拟助理310、语音分析器320、文本分析器330、图像分析器340和命令执行器350。虚拟助理310、语音分析器320、文本分析器330、图像分析器340和命令执行器350可被实现为至少一个硬件处理器。
虚拟助理310可启动虚拟辅助应用并接收包括命令的用户输入。语音分析器320可对来自电子装置100的用户的语音命令进行分析。语音分析器320可从语音命令提取可识别的词语和短语。在实施例中,如果语音分析器320接收到“今天的日程安排是什么?”的语音命令,则语音分析器320可从该语音命令中提取词语“什么”、“日程安排”和“今天”,并且命令执行器350可基于语音分析器320的分析结果来参考安装在电子装置100中的日程安排应用,以生成对该语音命令的实际响应和智能响应。
同样,文本分析器330可对来自电子装置的用户的文本命令进行分析,并且图像分析器340可对由电子装置100的用户做出的图像输入进行分析,以生成对该命令的实际响应和智能响应。
虽然图3示出了处理器110的各种硬件组件,但是应理解,其他实施例不限于此。在其他实施例中,处理器110/210可包括更少或更多数量的组件。此外,组件的标签或名称仅被用于说明性目的,并且不限制本公开的范围。一个或更多个组件可被组合在一起以执行相同或基本上相似的功能,从而在电子装置100中提供超现实响应。
图4示出根据本公开的实施例的用于提供对命令的智能响应的框图。
参照图4,系统可包括与电子装置100进行通信的服务器200。电子装置100可从用户接收命令,并且将该命令和对智能响应的请求发送到服务器200。响应于该命令和对智能响应的请求,服务器200可对该命令进行分析并且动态地生成特定于该命令的反馈,其中,所述反馈模仿从电子装置100接收到的命令的特征。
电子装置100可生成特定于命令的实际响应以及包括与命令和/或实际响应自身对应的特定效果的智能响应。一旦电子装置100基于命令的内容确定实际响应包括用于控制IoT装置300的控制信号,电子装置就向IoT装置300发送该控制信号。例如,如果电子装置100从用户接收到“打开门”的命令,则电子装置100可生成包括用于打开门的控制信号的实际响应以及包括“门打开”的声音效果的智能响应。用于打开门的控制信号可被发送到控制打开门和关闭门的IoT装置300。
图5是根据本公开的实施例的提供对命令的智能响应的系统的概图。
参照图5,系统1000包括一组电子装置100a-100n、服务器200、虚拟助理云508a、自然语言解析器(NLP)云508b、效果资源数据库(DB)504、IoT云506、显示子系统510、音频子系统512、振动器子系统514、效果合成器516、场景管理器客户端518、装置配置文件DB客户端520和用户偏好DB客户端522。结合图1至图4解释了电子装置100a至100n和服务器200的所有操作和功能。效果资源DB 504包括音频效果、视觉效果、物理效果、音频-视觉效果和音频-视觉-物理效果。IoT云506使用虚拟助理云508a来管理电子装置100a-100n和服务器200之间的所有操作。效果合成器516可与显示子系统510、音频子系统512和振动器子系统514进行通信。效果合成器516使用显示子系统510、音频子系统512和振动器子系统514来产生各种效果(例如,音频效果、视觉效果、物理效果、音频-视觉效果、音频-视觉-物理效果等)。场景管理器客户端518可与命令执行器350、用户偏好DB客户端522和装置配置文件DB客户端520进行通信。
图6是示出根据本公开的实施例的提供智能响应的方法的流程图。
参照图6,操作602至操作608可由处理器110执行。
在操作602,电子装置的处理器110可从电子装置100的用户接收命令。所述命令可以是使用电子装置的任意种类的用户输入。也就是说,所述命令可以是语音命令、文本命令或触摸输入命令。图像的捕获可以是另一种形式的命令。
在操作604,处理器110可对命令的内容进行分析。例如,接收到“打开窗户”的语音命令,处理器110可控制语音分析器320识别并分析该语音命令的内容。在操作606,处理器110基于分析结果确定用户想要打开窗户,并且处理器110生成与命令的内容上下文相关联的智能响应以及对命令的内容的实际响应。例如,处理器110可基于所分析的命令的内容来生成打开窗户的声音效果作为智能响应,或者处理器110可生成显示在电子装置100的显示器140上的描绘打开窗户的运动画面。实际响应可以是被发送到窗户控制器的控制信号,并且窗户控制器可基于该控制信号打开窗户。
智能响应可以是从与命令的内容相关联的声音效果、与命令的内容相关联的振动效果、与命令的内容相关联的静止图像或运动图像以及与命令的内容相关联的视觉效果的组选择的至少一个或其组合。
在操作608,电子装置100可输出智能响应和包括如上所述的控制信号的实际响应。
图6的流程图中的各种动作、行动、框、操作等可以以所呈现的顺序、以不同的顺序或同时地执行。此外,在一些实施例中,在不脱离本公开的范围的情况下,所述动作、行动、框、操作等中的一些可被省略、添加、修改、跳过等。
图7是示出根据本公开的实施例的由服务器200生成智能响应的另一方法的流程图。
参照图7,操作702至操作706可由处理器210执行。
在操作702,服务器200可以从电子装置100接收命令。服务器200可从电子装置100连同所述命令一起接收对智能响应的请求。
在操作704,服务器200的处理器210可生成特定于所述命令的智能响应和实际响应。实际响应可包含使得电子装置100能够采取对应于或响应于所述命令的特定动作的任意信息或控制信号。在实施例中,实际响应可由电子装置100生成。
在操作706,服务器200发送基于所述命令和对智能响应的请求而生成的智能响应。服务器200可从可经由网络连接的数据库(DB)获得关于所述命令和对应的智能响应的信息。
图7的流程图中的各种动作、行动、框、操作等可以以所呈现的顺序、以不同的顺序或同时地执行。此外,在一些实施例中,在不脱离本公开的范围的情况下,所述动作、行动、框、操作等中的一些可被省略、添加、修改、跳过等。
图8示出根据本公开的实施例的提供对查询的智能响应的示例场景。
参照图8,用户可选择在电子装置100上显示的图像中的对象。对象看起来是一只鸟,并且用户想知道这只鸟的名称。因此,用户输入查询的语音命令-“这只鸟是什么?”。电子装置100可接收包括查询的语音命令,并且处理器110可分析图像的形状和特征并在互联网或网络中搜索具有相似图像的鸟以获得名称。如果搜索结果指示该图像对应于鸭子,则电子装置100可生成“这只鸟是一只鸭子”的实际响应以及鸭叫声的智能响应。如果电子装置100确定鸭叫声在电子装置100的存储器130中是不可用的,则电子装置100可在互联网中搜索鸭叫声并获得该鸭叫声。
一旦电子装置100获得了鸭叫声,电子装置100就可向用户输出实际响应和智能响应。
图9示出根据本公开的实施例的提供具有声音效果的智能响应的示例场景。
参照图9,在操作901,用户可提供“关闭窗帘”的命令。在执行该命令时或者一旦执行了该命令就使用电子装置100的能力来产生特殊智能效果,电子装置100创建智能响应,其中,所述智能响应包括针对关闭窗帘的仅音频效果、音频-视觉效果和音频-视觉-物理效果中的至少一个。智能响应可模仿正被执行的命令的特征,或者还可包括正执行命令的电子装置的特征,或者可重新创建与实际响应相关联的上下文,或者可以是纯虚构的(不是无条件的)。此外,系统1000决定何时创建智能响应以及何时不创建智能响应。在示例中,系统1000可基于用户出现在电子装置100附近来生成包括用于窗帘关闭的控制信号的实际响应以及具有关闭窗帘的声音效果的智能响应。在操作903和操作905,在实际的窗帘被关闭时,用户可听到关闭窗帘的声音效果。
图10示出根据本公开的实施例的控制灯操作的示例场景。
参照图10,在房间中存在IoT灯泡。用户提供“关闭灯泡”的命令。基于该命令,电子装置100识别出命令操作是“关灯”。此外,电子装置从经由互联网可连接的数据库(DB)识别效果。在关闭灯泡时,控制电子装置100的显示器变暗以匹配卧室的相对亮度(例如,30%)。
图11示出根据本公开的实施例的提供与日程安排相关联的智能响应的示例说明。
参照图11,电子装置100的用户可将作为“今天我的日程安排是什么?”的语音命令输入到电子装置100的虚拟辅助。
在操作1103,电子装置100分析包括在语音命令中的内容,并识别出用户想知道今天的日程安排。电子装置100可生成翻看日记或日历页面以检查日记或日历中的日程安排的声音效果。在输出所生成的声音效果之后,在操作1105,电子装置100可提供“在下午4点您与Mark有个会,然后在Rock Cafe与Isabelle共进晚餐”的响应。在如上输出陈述今天的日程安排的响应之后或者当如上输出陈述今天的日程安排的响应时,电子装置可基于对包括“在Rock Cafe共进晚餐”的日程安排的内容的分析来输出包括咖啡馆声音的另一声音效果。电子装置100可通过IoT云506连接到服务器200,以使服务器200生成智能响应。也就是说,电子装置100可基于所分析的包括在命令中的内容向服务器发送对智能响应的请求,并接收由服务器参考所分析的内容而生成的智能响应。
图12示出根据本公开的实施例的提供与门相关联的智能响应的示例场景。
参照图12,在操作1201,用户提供“关闭车库门”的语音命令。在操作1203,电子装置100可基于对命令的内容的分析来生成包括关闭车库门的背景声音的智能响应。在操作1205,电子装置可输出控制命令作为对用户命令的实际响应。控制命令可通过向诸如车库门控制器(未示出)的远程装置发送门关闭信号来控制车库门关闭。可保持关闭车库门的声音效果,直到车库门控制器完成车库门的关闭为止。所述远程装置可以是根据本公开的各种实施例的IoT装置中的任意一个。
在操作1207,当电子装置100确定完成了关闭车库门时,电子装置100可输出“车库门已关闭”的响应。可基于从车库门控制器(未示出)接收到的响应信号来进行该确定。“车库门已关闭”的响应可以是语音响应、文本响应或其组合。
在实施例中,接收“关闭车库门”的命令的电子装置100可以是智能扬声器,但是电子装置100不能决定将生成什么效果。电子装置可由服务器200辅助。服务器200可基于接收到的命令的内容来确定效果,基于接收到的命令的内容来生成包括该效果的恰当智能响应。
图13示出根据本公开的实施例的提供与天气相关联的智能响应的示例场景。
参照图13,在操作1301,用户提供“早上好虚拟助理!”的命令。电子装置100可对命令的内容进行分析并且确定该内容与一天开始时的问候相关。然后,电子装置可基于对命令的内容的分析来确定用户需要天气信息。在操作1305,电子装置可通过参考提供天气信息的天气应用来提供“早上好,Jane!外面在下雨”的响应。在操作1303,在提供响应的同时,电子装置100可提供基于对命令的内容的分析以及从天气应用获得的天气信息而生成的背景雨声。在实施例中,可从安装在服务器200中的天气应用获得天气信息。
图14示出根据本公开的实施例的提供与体育赛事相关联的智能响应的示例场景。
参照图14,在操作1401,用户提供“虚拟助理!当前LA道奇队得分是多少?”的语音命令。处理器110可对命令的内容进行分析,并且在利用语音分析器320对语音命令进行处理之后提取有意义的词语和短语,诸如“LA道奇队”和“得分”。处理器110确定用户想要知道LA道奇队的棒球得分,并且经由网络获得包括LA道奇队的现场得分的职业棒球大联盟信息作为实际响应。职业棒球大联盟信息包括LA道奇队的当前得分,其中,所述当前得分示出LA道奇队4:3旧金山巨人队。然后,在操作1403,处理器110可基于对LA道奇队是棒球队之一的确定来生成包括棒球体育场噪声的背景声音效果的智能响应。在操作1405,处理器110可基于职业棒球大联盟信息生成包括“LA道奇队以4-3领先旧金山队”的信息的实际响应。智能响应可以是经由电子装置100的扬声器输出的语音,并且实际响应可以是经由扬声器输出的语音或者在电子装置100的显示器140上显示的文本输出。
图15示出根据本公开的实施例的提供与开灯/关灯相关联的智能响应的示例场景。
参照图15,响应于关灯的命令,显示器的亮度从正常状态1510改变为变暗状态1520。用户可提供关灯的语音命令。基于用户的语音命令,显示屏变暗作为基于对用户的语音命令的分析而生成的智能响应。
图16示出根据本公开的实施例的提供与风扇速度相关联的智能响应的示例场景。
参照图16,用户经由电子装置100的虚拟助理提供“提高风扇速度”的命令。响应于该命令,电子装置100可生成控制信号以控制风扇装置提高风扇速度。在提高风扇速度时,可输出智能响应的组合。例如,风扇吹动的动画与微风声音和微弱振动一起呈现在显示器140上,以使用可增强虚拟效果来模仿提高的风扇速度。
电子装置100的振动程度、通过动画所示的风扇速度和微风声音的音量可与风扇速度成正比地增加。
图17示出根据本公开的实施例的提供与播放歌曲相关联的智能响应的示例场景。
参照图17,用户在浏览互联网的同时请求电子装置100在背景中播放歌曲(例如,Beatles的Yesterday)。基于该请求,处理器110在网络或存储器130中搜索该歌曲(使用可用的音乐服务),并且在浏览互联网的同时开始在背景中播放该歌曲。
虽然已经参照本公开的各种实施例示出和描述了本公开,但是本领域技术人员将理解,在不脱离如由所附权利要求及其等同物限定的本公开的精神和范围的情况下,可对本公开进行形式和细节上的各种改变。

Claims (15)

1.一种在电子装置上提供智能响应的方法,所述方法包括:
从电子装置的用户接收命令;
分析所述命令;
基于所分析的命令生成与所述命令对应的至少一个智能响应以及与所述命令对应的实际响应,其中,所述至少一个智能响应包括与所述命令相关联的声音效果、与所述命令相关联的振动效果或者与所述命令相关联的视觉效果中的至少一个;并且
通过电子装置输出所述至少一个智能响应以及所述实际响应。
2.如权利要求1所述的方法,其中,所述命令包括语音命令、文本命令、触摸输入命令或由捕获装置捕获的图像输入中的至少一个。
3.如权利要求1所述的方法,其中,输出所述至少一个智能响应以及所述实际响应的步骤包括:按照时间顺序或同时地输出所述至少一个智能响应以及所述实际响应。
4.如权利要求1所述的方法,其中,生成所述至少一个智能响应的步骤包括:
向服务器发送对所述至少一个智能响应的请求和所述分析的命令;并且
从服务器接收所述至少一个智能响应。
5.如权利要求1所述的方法,其中,与所述命令对应的实际响应包括将被发送到至少一个远程装置的用于响应于所述命令控制所述至少一个远程装置的控制信号。
6.如权利要求1所述的方法,
其中,生成与所述命令的内容对应的至少一个智能响应的步骤包括:基于所分析的命令的内容和与所述命令相关联的信息来生成所述至少一个智能响应,并且
其中,所述信息是从安装在电子装置中的应用或连接到电子装置的服务器获得的。
7.如权利要求1所述的方法,其中,与所述命令相关联的视觉效果包括改变电子装置的显示器的亮度的视觉效果。
8.如权利要求1所述的方法,其中,与所述命令相关联的视觉效果包括与所述命令相关联的文本输出。
9.如权利要求1所述的方法,还包括:
使与所述命令相关联的图像运动,
其中,使所述图像运动的步骤包括:使描绘所述命令的一个或更多个图像运动。
10.如权利要求1所述的方法,其中,分析所述命令的步骤包括:经由网络从数据库获得与所述命令相关联的信息。
11.如权利要求1所述的方法,其中,所述视觉效果包括显示与所述命令相关联的静止图像或运动图像。
12.如权利要求1所述的方法,其中,生成对所述命令的至少一个智能响应的步骤包括:在网络中搜索生成所述至少一个智能响应所需的第一数据并基于第一数据生成所述至少一个智能响应。
13.如权利要求12所述的方法,其中,生成所述实际响应的步骤包括:在网络中搜索生成所述实际响应所需的第二数据并基于第二数据生成所述实际响应。
14.一种用于提供智能响应的设备,所述设备包括:
显示器;
扬声器;以及
至少一个处理器,被配置为:
从用户接收命令,
分析所述命令,
基于所分析的命令生成与所述命令对应的至少一个智能响应以及与所述命令对应的实际响应,其中,所述至少一个智能响应包括与所述命令相关联的声音效果、与所述命令相关联的振动效果或者与所述命令相关联的视觉效果中的至少一个,并且
通过所述电子装置输出所述至少一个智能响应以及所述实际响应。
15.一种包括计算机可读存储介质的非暂时性计算机程序产品,其中,所述计算机可读存储介质具有存储在其中的计算机可读程序,所述计算机可读程序在电子装置上被执行时使所述电子装置进行以下操作:
从用户接收命令;
分析所述命令;
基于所分析的命令,生成与所述命令对应的至少一个智能响应以及与所述命令对应的实际响应,其中,所述至少一个智能响应包括与所述命令相关联的声音效果、与所述命令相关联的振动效果或者与所述命令相关联的视觉效果中的至少一个;并且
输出所述至少一个智能响应以及所述实际响应。
CN201980035154.5A 2018-05-25 2019-05-27 用于提供智能响应的方法和设备 Pending CN112166408A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
IN201841019725 2018-05-25
IN201841019725 2019-05-22
PCT/KR2019/006333 WO2019226030A1 (en) 2018-05-25 2019-05-27 Method and apparatus for providing an intelligent response

Publications (1)

Publication Number Publication Date
CN112166408A true CN112166408A (zh) 2021-01-01

Family

ID=68615429

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980035154.5A Pending CN112166408A (zh) 2018-05-25 2019-05-27 用于提供智能响应的方法和设备

Country Status (5)

Country Link
US (1) US11481172B2 (zh)
EP (1) EP3752910A4 (zh)
KR (1) KR20210002109A (zh)
CN (1) CN112166408A (zh)
WO (1) WO2019226030A1 (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070003913A1 (en) * 2005-10-22 2007-01-04 Outland Research Educational verbo-visualizer interface system
US20100018382A1 (en) * 2006-04-21 2010-01-28 Feeney Robert J System for Musically Interacting Avatars
US20140039900A1 (en) * 2009-11-04 2014-02-06 Immersion Corporation Systems and Methods For Haptic Confirmation Of Commands
CN103716669A (zh) * 2012-09-28 2014-04-09 三星电子株式会社 电子装置及其控制方法
US20160055806A1 (en) * 2012-10-02 2016-02-25 Lg Electronics Inc. Screen brightness control for mobile device
US20170068507A1 (en) * 2015-09-03 2017-03-09 Samsung Electronics Co., Ltd. User terminal apparatus, system, and method for controlling the same
US20170242653A1 (en) * 2016-02-22 2017-08-24 Sonos, Inc. Voice Control of a Media Playback System
US20170357637A1 (en) * 2016-06-09 2017-12-14 Apple Inc. Intelligent automated assistant in a home environment
WO2018005334A1 (en) * 2016-06-27 2018-01-04 Amazon Technologies, Inc. Systems and methods for routing content to an associated output device
US20180092189A1 (en) * 2016-09-27 2018-03-29 Cree, Inc. Lighting wall control with virtual assistant

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8001908B2 (en) * 2004-05-28 2011-08-23 Lionel L.L.C. Model vehicle with automated door mechanism
US7465280B2 (en) * 2006-09-14 2008-12-16 Rawls-Meehan Martin B Methods and systems of mounting a vibration motor to an adjustable bed
WO2011020478A1 (en) 2009-08-17 2011-02-24 Vkr Holding A/S Method and apparatus for control of household devices
US9575720B2 (en) * 2013-07-31 2017-02-21 Google Inc. Visual confirmation for a recognized voice-initiated action
US9728188B1 (en) 2016-06-28 2017-08-08 Amazon Technologies, Inc. Methods and devices for ignoring similar audio being received by a system
KR20180037543A (ko) 2016-10-04 2018-04-12 삼성전자주식회사 음성 인식 전자 장치
KR20180069355A (ko) 2016-12-15 2018-06-25 조선기 인체실감형 시뮬레이션시스템

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070003913A1 (en) * 2005-10-22 2007-01-04 Outland Research Educational verbo-visualizer interface system
US20100018382A1 (en) * 2006-04-21 2010-01-28 Feeney Robert J System for Musically Interacting Avatars
US20140039900A1 (en) * 2009-11-04 2014-02-06 Immersion Corporation Systems and Methods For Haptic Confirmation Of Commands
CN103716669A (zh) * 2012-09-28 2014-04-09 三星电子株式会社 电子装置及其控制方法
US20160055806A1 (en) * 2012-10-02 2016-02-25 Lg Electronics Inc. Screen brightness control for mobile device
US20170068507A1 (en) * 2015-09-03 2017-03-09 Samsung Electronics Co., Ltd. User terminal apparatus, system, and method for controlling the same
US20170242653A1 (en) * 2016-02-22 2017-08-24 Sonos, Inc. Voice Control of a Media Playback System
US20170357637A1 (en) * 2016-06-09 2017-12-14 Apple Inc. Intelligent automated assistant in a home environment
WO2018005334A1 (en) * 2016-06-27 2018-01-04 Amazon Technologies, Inc. Systems and methods for routing content to an associated output device
US20180092189A1 (en) * 2016-09-27 2018-03-29 Cree, Inc. Lighting wall control with virtual assistant

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
龟仙人: "如何评价三星的 bixby 智能语音助手?", pages 1 - 12, Retrieved from the Internet <URL:https://www.zhihu.com/question/67856403> *

Also Published As

Publication number Publication date
KR20210002109A (ko) 2021-01-06
US20190361655A1 (en) 2019-11-28
US11481172B2 (en) 2022-10-25
EP3752910A4 (en) 2021-04-14
EP3752910A1 (en) 2020-12-23
WO2019226030A1 (en) 2019-11-28

Similar Documents

Publication Publication Date Title
US10657963B2 (en) Method and system for processing user command to provide and adjust operation of electronic device by analyzing presentation of user speech
CN104918670B (zh) 用于故事阅读的基于位置的增强
CN113593351B (zh) 一种立体综合教学场系统的工作方法
US20230015606A1 (en) Named entity recognition method and apparatus, device, and storage medium
US20190189019A1 (en) System and Method for Integrating Special Effects with a Text Source
CN110381388A (zh) 一种基于人工智能的字幕生成方法和装置
US11457061B2 (en) Creating a cinematic storytelling experience using network-addressable devices
US20150317699A1 (en) Method, apparatus, device and system for inserting audio advertisement
CN105637472A (zh) 具有广义屏幕描述的屏幕内容共享系统的框架
JP6728319B2 (ja) 人工知能機器で複数のウェイクワードを利用したサービス提供方法およびそのシステム
CN111869330B (zh) 基于一种或多种灯光设置渲染动态灯光场景
WO2018076664A1 (zh) 一种语音播报的方法和装置
CN113439447A (zh) 使用深度学习图像分析的房间声学仿真
CN110992937A (zh) 语言离线识别方法、终端及可读存储介质
WO2019196378A1 (zh) 应用程序的内容推送方法、内容推送系统及智能终端
US11481172B2 (en) Method and apparatus for providing an intelligent response
CN108984146B (zh) 应用程序的语音控制方法、智能终端及计算机可读存储介质
KR20160059980A (ko) 제공된 콘텐트를 위한 참조 정보 관리 장치 및 방법
GB2579488A (en) Platform for control in synchronization with music and control method therefor
CN117336564A (zh) 线上演唱会的灯效控制方法、装置、电子设备及介质
US20180048943A1 (en) Method and system for rendering time-compressed multimedia content
WO2022095697A1 (en) Audio emulation
CN112784094B (zh) 自动音频摘要生成方法和装置
CN116708920B (zh) 应用于合成虚拟形象的视频处理方法、装置及存储介质
US20140317655A1 (en) Method for advertising based on audio/video content and method for creating an audio/video playback application

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination