CN109964271A - 用于提供对用户的语音输入的响应消息的设备和方法 - Google Patents

用于提供对用户的语音输入的响应消息的设备和方法 Download PDF

Info

Publication number
CN109964271A
CN109964271A CN201780070874.6A CN201780070874A CN109964271A CN 109964271 A CN109964271 A CN 109964271A CN 201780070874 A CN201780070874 A CN 201780070874A CN 109964271 A CN109964271 A CN 109964271A
Authority
CN
China
Prior art keywords
user
equipment
intention
destination
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201780070874.6A
Other languages
English (en)
Other versions
CN109964271B (zh
Inventor
李佳禧
李仁东
姜世天
吴馨来
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority claimed from PCT/KR2017/012852 external-priority patent/WO2018093110A1/ko
Publication of CN109964271A publication Critical patent/CN109964271A/zh
Application granted granted Critical
Publication of CN109964271B publication Critical patent/CN109964271B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3697Output of additional, non-guidance related information, e.g. low fuel level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

提供了一种用于提供对用户的语音输入的响应消息的设备和方法。由设备执行的提供对用户的语音输入的响应消息的方法包括:接收用户的语音输入;通过分析所接收的语音输入来确定用户的目的地和用户的意图;获得与目的地相关的关联信息;基于获得的关联信息生成推荐与用户的意图相关的替代目的地的响应消息;和显示所生成的响应消息。

Description

用于提供对用户的语音输入的响应消息的设备和方法
技术领域
本公开涉及用于提供对用户的语音输入的响应消息的设备和方法,并且更具体地,涉及用于通过使用诸如深度学习的机器学习算法和诸如人工智能(artificialintelligence,AI)系统的识别或决策以及应用的用于模拟人脑功能的AI系统,来推荐与用户的语音输入相关的操作的设备和方法。
背景技术
随着多媒体技术和网络技术的发展,用户可以通过使用设备来接收各种服务。具体地,随着语音识别技术的发展,用户可以将语音数据输入到设备,并且可以根据语音输入运行设备的操作。
然而,现有技术难以从用户的语音输入准确地掌握用户的意图,甚至当掌握了用户的意图时,也难以向用户提供适当的反馈。因此,需要能够从用户的语音输入中掌握用户的意图并且有效地推荐用户对用户请求的操作执行替代操作的技术。
具体地,随着诸如人工智能(AI)(例如,深度学习)的技术的最近发展,用于自动识别诸如语音、图像、视频或文本的数据并且提供与数据相关的信息或提供与数据相关的服务的智能服务被用于各种领域。
AI系统是被配置为通过自学习和自发决策来实现人类智能并且变得更聪明的计算机系统,这与现有的基于规则的智能系统不同。AI系统被使用得越多,其识别率提高就越多并且其理解用户的品味就越准确,并且因此,基于规则的智能系统逐渐被基于深度学习的AI系统所取代。
AI技术包括机器学习(例如,深度学习)和使用机器学习的元素技术。
机器学习是自我分类和学习输入数据的特征的算法技术,并且元素技术是使用诸如深度学习的机器学习算法来模拟人脑功能的技术(诸如识别和决策)以及包括诸如语言理解、视觉理解、推断/预测、知识表示和运动控制的技术领域。
应用AI技术的各种领域如下。语言理解是用于识别和应用/处理人类语言/字符的技术,并且包括自然语言处理、机器翻译、对话系统、询问和回答以及语音识别/合成。视觉理解是用于以人类视觉系统的方式识别和处理对象的技术,并且包括对象识别、对象跟踪、图像搜索、人物识别、场景理解、空间理解和图像增强。推断/预测是用于判断信息并在逻辑地推断和预测信息的技术,并且包括基于知识/概率的推理、优化预测、基于偏好的计划和推荐。知识表示是用于将人类体验信息结合到知识数据中的自动化技术,并且包括知识构建(例如,数据生成/分类)和知识管理(例如,数据利用)。运动控制是用于控制自主车辆的自动驾驶和机器人的运动的技术,并且包括运动控制(例如,导航、碰撞避免或驾驶)和操纵控制(例如,行为控制)。
发明内容
一些实施例可以提供用于通过使用人工智能(AI)提供对用户的语音输入的响应消息的设备和方法,其可以从用户的语音输入中掌握用户的意图并且可以推荐用于用户请求的操作的替代操作。
此外,一些实施例可以提供用于通过使用AI提供对用户的语音输入的响应消息的设备和方法,其可以从用户的语音输入中掌握用户的意图并且可以推荐类似于用户请求的目的地的替代目的地。
此外,一些实施例可以提供用于提供对用户的语音输入的响应消息的设备和方法,其可以基于通过使用AI从用户的语音输入中掌握的用户的意图的可行性来向用户推荐替代操作。
附图说明
图1是示出根据一些实施例的设备1000提供对用户的语音输入的响应消息的示例的视图。
图2是根据一些实施例的方法的流程图,通过该方法,设备1000推荐与用户意图相关的替代操作。
图3是根据一些实施例的推荐与用户的意图相关的替代目的地的方法的流程图。
图4是根据一些实施例的方法的流程图,通过该方法,设备1000确定用户的意图。
图5是方法的流程图,通过该方法,设备1000基于用户意图的可行性生成替代操作的响应消息。
图6是示出根据一些实施例的示出用户的意图的类别、任务类型和与用户的意图相关的关联信息的表的视图。
图7是示出根据一些实施例的用于确定特定目的地的营业时间的数据表70的视图。
图8是示出根据一些实施例的显示根据用户的意图的可行性的替代目的地的表格的视图。
图9是根据一些实施例的方法的流程图,通过该方法,设备1000运行应用并提供额外信息来满足用户的意图。
图10是根据一些实施例的方法的流程图,通过该方法,设备1000执行与用户意图相关的额外任务。
图11是示出根据一些实施例的设备1000基于用户的购买列表提供与用户的意图相关的额外信息的示例的视图。
图12是示出根据一些实施例的设备1000基于用户的日程信息提供与用户的意图相关的额外信息的示例的视图。
图13是示出根据一些实施例的设备1000向用户提供关于位于目的地的另一用户的信息的示例的视图。
图14是示出根据一些实施例的设备1000考虑到目的地的营业日和营业时间而推荐替代目的地的示例的视图。
图15是示出根据一些实施例的设备1000考虑到到达目的地所需的时间而推荐替代目的地的示例的视图。
图16是示出根据一些实施例的设备1000提供与目的地或替代目的地相关的停车信息的示例的视图。
图17是示出根据一些实施例的设备1000推荐与目的地或替代目的地相关的停车信息和额外任务的示例的视图。
图18是示出根据一些实施例的设备1000提供离开目的地的渡轮的时间表作为额外信息的示例的视图。
图19是示出根据一些实施例的设备1000基于使用目的地设施的等待时间来推荐附近旅游景点作为替代目的地的示例的视图。
图20是示出根据一些实施例的设备1000提供与订购食物的用户的意图相对应的响应消息的示例的视图。
图21是示出根据一些实施例的设备1000提供对用户关于特定地点的询问的响应消息的示例的视图。
图22是示出根据一些实施例的设备1000提供对将要呼叫特定地点的用户的语音输入的响应消息的示例的视图。
图23是示出根据一些实施例的设备1000提供对将要预约理发店的服务的用户的语音输入的响应消息的示例的视图。
图24是示出根据一些实施例的设备1000通过与服务器2000互操作提供对用户的语音输入的响应消息的示例的视图。
图25和图26是根据一些实施例的设备1000的框图。
图27是根据一些实施例的服务器2000的框图。
图28是根据一些实施例的处理器1300的框图。
图29是根据一些实施例的数据学习器1310的框图。
图30是根据一些实施例的数据识别器1320的框图。
图31是示出根据一些实施例的设备1000和服务器2000互操作以学习和识别数据的示例的视图。
具体实施方式
为了解决技术问题,本公开的第一方面可提供一种设备,包括:存储器,存储至少一个程序;麦克风,被配置为接收用户的语音输入;和至少一个处理器,被配置为通过运行至少一个程序来提供对用户的语音输入的响应消息,其中,所述至少一个程序包括用于以下的指令:通过分析所接收的语音输入来确定用户的目的地和用户的意图;获得与目的地相关的关联信息;基于获得的关联信息生成推荐与用户的意图相关的替代目的地的响应消息;和显示所生成的响应消息。
此外,本公开的第二方面可以提供一种由设备执行的提供对用户的语音输入的响应消息的方法,该方法包括:接收用户的语音输入;通过分析所接收的语音输入来确定用户的目的地和用户的意图;获得与目的地相关的关联信息;基于获得的关联信息生成推荐与用户的意图相关的替代目的地的响应消息;和显示所生成的响应消息。
此外,本公开的第三方面可以提供一种计算机可读记录介质,其上实施有用于在计算机中运行第二方面的方法的程序。
现在将参考附图更全面地描述本发明,以使本领域普通技术人员能够毫无困难地执行本发明。然而,本发明可以以许多不同的形式实施,并且不应该被解释为限于本文阐述的实施例。而且,省略了与详细描述无关的附图中的部分以确保本发明的清楚。附图中相似的附图标记表示相似的元素。
在整个说明书中,应当理解,当一个元素被称为被“连接”到另一元素时,它可以“直接连接”到另一元素、或者“电连接”到另一元素,其间有中间元素。将进一步理解,当部件“包含”或“包括”元素时,除非另外定义,否则该部件可以进一步包括其他元素,不排除其他元素。
现在将参考附图更全面地描述本发明。
图1是示出根据一些实施例的设备1000提供对用户的语音输入的响应消息的示例的视图。
参考图1,用户可以向设备1000提供语音输入,并且设备1000可以基于用户的语音输入来掌握用户的意图,并且可以提供满足用户的意图的响应消息。设备1000可以确定用户的意图是否可行,并且当确定用户的意图几乎不可行时,设备1000可以推荐可以替换用户的意图的操作。
此外,设备1000可以通过使用与用户相关的上下文信息,例如,与被包括在用户的语音输入中的特定地点相关的上下文信息,来掌握用户的意图,并且可以确定用户的意图是否是可行的。此外,设备1000可以通过使用与用户相关的上下文信息,例如,与被包括在用户的语音输入中的特定地点相关的上下文信息,来推荐可以替换用户的意图的操作,并且可以提供与用户的意图相关的额外信息。
术语“上下文信息”可以包括但不限于以下中的至少一个:设备1000的周围环境信息、设备1000的状态信息、用户的设备使用历史信息以及用户的日程信息。设备1000的周围环境信息是指距离设备1000预定半径内的环境信息,其可以包括但不限于天气信息、温度信息、湿度信息、照度信息、噪声信息和声音信息。设备1000的状态信息可以包括但不限于关于设备1000的模式(例如,声音模式、振动模式、静音模式、省电模式、截止模式、多窗口模式或自动旋转模式)的信息、设备1000的位置信息、时间信息、通信模块的激活信息(例如,Wi-Fi开启、蓝牙关闭、GPS开启或NFC开启)、设备1000的网络连接状态信息、以及关于由设备1000运行的应用的信息(例如,应用标识信息、应用类型、应用使用时间或应用使用周期)。用户的状态信息是指关于用户的运动或生活模式的信息,其可以包括但不限于关于用户的行走状态、锻炼状态、驾驶状态、睡眠状态和情绪状态的信息。用户的设备使用历史信息是指关于用户使用设备1000的事件的信息,其可以包括但不限于关于应用的运行、应用运行的功能、用户的电话交谈以及用户的文本消息的信息。
设备1000的示例可以是但不限于智能手机、平板个人计算机(personalcomputer,PC)、PC、智能电视(television,TV)、移动电话、个人数字助理(personaldigital assistant,PDA)、笔记本电脑、媒体播放器、微服务器、全球定位系统(globalpositioning system,GPS)设备、电子书终端、数字广播终端、导航系统、自助服务终端、MP3播放器、数码相机、家用电器、以及任何其他移动或非移动计算设备。此外,设备1000的示例可以包括诸如具有通信功能和数据处理功能的手表、眼镜、发带或戒指的可穿戴设备。然而,本公开不限于此,并且设备1000可以是可以接收用户的用户输入并且可以向用户提供响应消息的任何类型的设备。
此外,设备1000可以通过网络与服务器2000和另一设备(未示出)通信以使用各种上下文信息。在这种情况下,网络的示例可以包括局域网(local area network,LAN)、广域网(wide area network,WAN)、增值网络(value-added network,VAN)、移动无线电通信网络、卫星通信网络及其组合。网络是广义上用于网络组件之间的平滑通信的数据通信网络,并且网络的示例可以包括有线因特网、无线因特网和移动无线通信网络。无线通信的示例可以包括但不限于Wi-Fi、蓝牙、蓝牙低功耗、Zigbee、Wi-Fi直连(Wi-Fi Direct,WFD)、超宽带(ultra-wideband,UWB)、红外数据协会(infrared data association,IrDA)以及近场通信(near-field communication,NFC)。
图2是根据一些实施例的方法的流程图,通过该方法,设备1000推荐与用户意图相关的替代操作。
在操作S200中,设备1000可以接收用户的语音输入。设备1000可以基于用户的语音输入运行执行设备1000的操作的应用,并且可以通过运行的应用接收用户的语音输入。设备1000可以运行诸如“S语音(S voice)”的语音助理应用,并且可以通过控制运行的语音助理应用来接收通过麦克风输入的用户的语音输入。
在操作S210中,设备1000可以基于用户的语音输入来确定用户的意图。设备1000可以通过使用各种自然语言分析方法来分析用户的语音输入,并且可以基于用户的语音输入的含义来确定用户的意图。此外,设备1000可以通过使用与用户相关的上下文信息来确定用户的意图。例如,设备1000可以考虑用户使用设备1000的事件、用户的日程信息、用户的电话交谈和用户的文本消息来确定用户的意图。例如,设备1000可以确定请求到特定地点的路径引导以在特定地点购物的用户的意图。而且,例如,设备1000可以确定请求到特定地点的路径引导以在特定地点开会的用户的意图。而且,例如,设备1000可以确定用户订购特定食物的意图。然而,由设备1000确定的用户的意图不限于此。
当根据用户的语音输入的含义掌握用户的意图时,可以使用用户的上下文信息。此外,可以取决于根据预设标准的学习来确定根据语音输入的含义使用哪个上下文信息。例如,使用预定语音输入和预定上下文信息作为输入值的监督学习,以及在没有监督的情况下通过自己学习掌握用户的意图所需的上下文信息的类型来找到用于掌握用户的意图的模式的无监督学习,可以用来掌握用户的意图。此外,例如,使用关于掌握用户的意图的结果是否正确的反馈的强化学习可以用来掌握用户的意图。
在操作S220中,设备1000可以获得与用户的意图相关的关联信息。设备1000可以收集与用户的意图相关的关联信息,以确定用户的意图是否可行。例如,设备1000可以获得关于特定地点的营业时间、特定地点的停车情况、特定设施的可用时间以及到特定地点的交通状况的信息。
可以取决于根据预设标准的学习来确定需要与用户意图相关的哪个关联信息。例如,可以使用监督学习、无监督学习和强化学习来获得关联信息。
在操作S230中,设备1000可以推荐替代操作以满足用户的意图。设备1000可以通过使用关联信息来确定用户的意图是否可行,并且可以基于确定的结果推荐替代操作以满足用户的意图。例如,当请求到A百货商店购物的路径引导的用户的意图几乎不可行时,设备1000可以向用户推荐执行到A百货商店附近的B百货商店的路径引导的替代操作。
可以取决于根据预设标准的学习来确定需要哪种替代操作来满足用户的意图。例如,可以使用监督学习、无监督学习和强化学习来确定替代操作。
此外,设备1000可以在设备1000的屏幕上显示推荐替代操作的响应消息。此外,设备1000可以向用户提供与用户的意图相关的额外操作和额外信息。
尽管在上文中基于单独的学习来执行对用户的意图的掌握、对与用户的意图相关的关联信息的获得以及对替代操作的推荐中的每一个,但是本公开是不限于此。对用户的意图的掌握、对与用户的意图相关的关联信息的获得以及对替代操作的推荐中的至少两个可以由一个学习模型来执行。
此外,例如,可以基于根据深度神经网络技术的学习来执行对用户的意图的掌握、对与用户的意图相关的关联信息的获得以及对替代操作的推荐。
详细地,设备1000可以通过通信器向服务器发送在分析用户的语音输入和用户的上下文信息(例如,用户使用设备1000的事件、用户的日程信息、用户的电话交谈、以及用户的文本消息)之后获得的结果(例如,文本信息),并且服务器可以掌握用户的意图,可以获得与用户的意图相关的关联信息,以及可以通过使用深度神经网络技术来向设备1000推荐和发送替代操作。
图3是根据一些实施例的推荐与用户的意图相关的替代目的地的方法的流程图。
在操作S300中,设备1000可以接收用户的语音输入。设备1000可以运行诸如“S语音”的语音助理应用,并且可以通过控制运行的应用来接收用户通过麦克风的语音输入。例如,设备1000可以接收用户说出“请引导到江南A百货商店”的用户输入。
在操作S310中,设备1000可以确定用户的目的地和用户的意图。设备1000可以基于根据预设标准的学习结果确定用户的目的地和用户的意图。
设备1000可以通过使用各种自然语言分析方法来分析用户的语音输入。例如,设备1000可以通过分析用户说出“请引导到江南A百货商店”的语音输入来确定用户请求到江南A百货商店的路径引导。
此外,设备1000可以通过使用用户的上下文信息来确定用户的意图。例如,设备1000可以考虑用户使用设备1000的事件、用户的日程信息、用户的电话交谈、用户的文本消息、用户访问特定地点的事件、用户的网络搜索历史以及在特定地点的付款历史来确定用户的意图。例如,当在通过设备1000的日程应用记录的日程信息中记录了在用户的语音输入的日期进行购物的日程时,设备1000可以确定用户的意图是请求路径引导,以便在江南A百货商店购物。
当根据用户的语音输入的含义掌握用户的目的地和用户的意图时,可以取决于根据预设标准的学习来确定要使用哪个上下文信息。例如,使用预定语音输入和预定上下文信息作为输入值的监督学习,以及在没有监督的情况下通过自己学习掌握用户的意图所需的上下文信息的类型来找到用于掌握用户的意图的模式的无监督学习,可以用来掌握用户的意图。此外,例如,使用关于掌握用户的意图的结果是否正确的反馈的强化学习可以用来掌握用户的意图。
在操作S320中,设备1000可以获得与目的地相关的关联信息。设备1000可以获得与目的地相关的关联信息以便确定用户的意图是否可行。例如,当用户的意图是请求路径引导以便在江南A百货商店购物时,设备1000可以获得关于A百货商店的营业时间、A百货商店的停车情况、A百货商店的库存、A百货商店的折扣信息以及到A百货商店的交通状况的信息。
可以取决于根据预设标准的学习来执行确定与用户的意图相关的哪个关联信息是需要的以及确定用户的意图的可行性。例如,可以使用监督学习、无监督学习和强化学习来获得关联信息并确定用户的意图的可行性。
在操作S330中,设备1000可以推荐与用户的意图相关的替代目的地。设备1000可以通过使用关联信息来确定用户的意图的可行性。此外,当用户的意图的可行性等于或小于预设值时,设备1000可以推荐替代目的地以满足用户的意图。例如,当江南A百货商店关闭或者没有用户要购买的商品时,设备1000可以推荐Dogok B百货商店作为替代目的地。此外,设备1000可以生成询问用户是否执行到替代目的地的路径引导的响应消息,并且可以在设备1000的屏幕上显示所生成的响应消息。
可以取决于根据预设标准的学习来确定要满足用户的意图的哪个替代目的地。例如,可以使用监督学习、无监督学习和强化学习来确定替代目的地。
尽管在上文中基于单独的学习来执行对用户的目的地和用户的意图的掌握、对与用户的意图相关的关联信息的获得、对用户的意图的可行性的确定、以及对替代操作的推荐中的每一个,但是本公开是不限于此。对用户的目的地和用户的意图的掌握、对与用户的意图相关的关联信息的获得、对用户的意图的可行性的确定、以及对替代操作的推荐中的至少两个可以由一个学习模型来执行。
此外,例如,可以基于根据深度神经网络技术的学习来执行对用户的目的地和用户的意图的掌握、对与用户的意图相关的关联信息的获得、对用户的意图的可行性的确定、以及对替代操作的推荐。
详细地,设备1000可以通过通信器向服务器发送在分析用户的语音输入和用户的上下文信息(例如,用户使用设备1000的事件、用户的日程信息、用户的电话交谈、以及用户的文本消息)之后获得的结果(例如,文本信息),并且服务器可以掌握用户的目的地和用户的意图,可以确定用户的意图的可行性,以及可以通过使用深度神经网络技术来向设备1000推荐和发送并将替代目的地。
图4是根据一些实施例的方法的流程图,通过该方法,设备1000确定用户的意图。
在操作S400中,设备1000可以接收用户的语音输入。在操作S410中,设备1000可以获得用户的上下文信息。设备1000可以获得例如用户使用设备1000的事件、用户的日程信息、用户的电话交谈、用户的文本消息、用户访问特定地点的事件、用户的网络搜索历史以及在特定地点的付款历史。
在操作S420中,设备1000可以确定用户的意图的类别。设备1000可以通过通过语音到文本(speech to text,STT)将用户的语音输入进行转换来获得文本。此外,设备1000可以通过使用自然语言分析方法掌握所获得的文本的含义来确定用户的意图的类别。可以基于根据预设标准的学习来对用户的意图的类别进行分类。例如,设备1000可以从用户的输入语音来确定用户的意图的类别是“路径引导”或“食物订购”。然而,类别的类型不限于此。此外,设备1000可以通过使用用户的上下文信息来确定用户的意图的类别。
在操作S430中,设备1000可以确定类别的任务类型。可以基于根据预设标准的学习对类别的任务类型进行分类,并且可以根据该类别的用户的意图来指示任务的类型。例如,当用户的意图的类别是“路径引导”时,任务类型可以是“购物”或“会议”。然而,任务类型的示例不限于此。设备1000可以通过使用用户的上下文信息和从用户的输入语音转换的文本的含义来确定任务类型。例如,设备1000可以通过使用电话交谈、文本消息或用户的日程信息来确定任务类型。例如,当在日历应用上记录指示用户要在接收用户的语音输入的日期进行购物的备忘录时,设备1000可以考虑到日历应用中记录的备忘录来确定用户的任务类型是“购物”。
在操作S440中,设备1000可以确定用户的目的地。设备1000可以基于从用户的输入语音转换的文本的含义来确定用户的目的地。例如,设备1000可以通过分析用户说出“请引导到江南A百货商店”的语音输入来确定用户的目的地是“江南A百货商店”。
在操作S450中,设备1000可以确定用户的意图。设备1000可以基于操作S420至S440确定用户请求到江南A百货商店的路径引导。此外,设备1000还可以通过考虑用户的上下文信息来确定用户请求到江南A百货商店的路径引导以便购买商品AA。
在上文中,将对上下文信息的获得、对类别的确定、对任务类型的确定、对目的地的确定以及对用户的意图的确定中的每一个作为单独的操作执行,本公开不限于此。可以基于根据预设标准的学习来执行对上下文信息的获得、对类别的确定、对任务类型的确定、对目的地的确定以及对用户的意图的确定中的至少两个。
此外,例如,可以基于根据深度神经网络技术的学习来执行对上下文信息的获得、对类别的确定、对任务类型的确定、对目的地的确定以及对用户的意图的确定中的至少两个。
详细地,设备1000可以通过通过STT将用户的语音输入进行转换来获得文本。设备1000可以通过通信器向服务器发送所获得的文本和用户的上下文信息(例如,用户使用设备1000的事件、用户的日程信息、用户的电话交谈、以及用户的文本消息),并且服务器可以通过将文本和用户的上下文信息应用于深度神经网络来确定用户意图的类别和任务类型,以及可以将与用户的意图相关的关联信息发送到设备1000。
图5是方法的流程图,通过该方法,设备1000基于用户意图的可行性生成替代操作的响应消息。
在操作S500中,设备1000可以获得与目的地相关的关联信息。设备1000可以考虑用户的意图来获得与目的地相关的关联信息。可以基于根据预设标准的学习来确定作为确定用户的意图是否可行所需的信息的与目的地相关的关联信息。例如,当用户的意图的类别是“路径引导”并且任务类型是“购物”时,设备1000可以获得目的地的营业时间、目的地的停车情况以及到目的地的交通状况作为与目的地相关的关联信息。
在操作S510中,设备1000可以基于关联信息确定用户的意图的可行性。设备1000可以基于关联信息确定用户的意图容易可行的程度。例如,当用户的意图是请求到江南A百货商店的路径引导以进行购物时,考虑到江南A百货商店今天是否开放、营业时间是否结束、江南A百货商店的停车情况是否良好、到江南A百货商店的交通状况是否良好、以及江南A百货商店是否销售用户所希望的商品,设备1000可以确定用户的意图的可行性。
在操作S520中,设备1000可以确定用户的意图的可行性是否大于临界值。
当在操作S520中确定用户的意图的可行性大于临界值时,在操作S530中,设备1000可以执行满足与目的地相关的用户的意图的操作。例如,设备1000可以向用户提供关于到江南A百货商店的路径引导的信息。在这种情况下,设备1000可以自动运行用于路径引导的预设导航应用,并且可以将江南A百货商店输入到运行的预设导航应用。
当在操作S520中确定用户的意图的可行性不大于临界值时,在操作S540中,设备1000可以生成推荐替代目的地的响应消息。设备1000可以将除了用户期望访问的目的地之外的目的地确定为替代目的地,以便满足用户的意图。例如,当今天江南A百货商店关闭时,设备1000可以将用户附近的百货商店确定为替代目的地。另外,例如,当难以在江南A百货商店停车时,设备1000可以从用户附近的其他百货商店当中确定具有良好停车情况的百货商店作为替代目的地。另外,例如,当到江南A百货商店的交通状况不好时,设备1000可以从用户附近的其他百货商店当中确定具有良好交通状况的百货商店作为替代目的地。另外,例如,当江南A百货商店不销售用户所期望的商品时,设备1000可以从用户附近的其他百货商店当中确定销售用户所期望的商品的百货商店作为替代目的地。
替代目的地和用户请求的目的地可以是相同类型或类似类型,并且可以从用户的当前位置或由用户请求的目的地附近的目的地当中搜索替代目的地。此外,可以考虑用户的意图的可行性来选择替代目的地。
此外,设备1000可以生成用于询问用户是否引导到替代目的地的响应消息。在这种情况下,设备1000可以使得指示为什么推荐与用户的意图相关的替代操作的原因的文本被包括在响应消息中。例如,设备1000可以使得指示引导到替代目的地的而不是由用户输入的目的地的原因的文本被包括在响应消息中。设备1000可以生成说“今天,江南A百货商店关闭。Dogok B百货商店开放。你想被引导到Dogok B百货商店吗?”的响应消息。此外,设备1000可以使得用于运行用于执行特定操作的应用的对象被包括在响应消息中。例如,设备1000可以使得用于运行预设导航应用的图标被包括在响应消息中。
在操作S550中,设备1000可以在设备1000的屏幕上显示所生成的响应消息。设备1000可以在设备1000的屏幕上以交互方式显示响应消息。
尽管在上文中将对关联信息的获得、对可行性的确定、对响应消息的生成以及对满足用户的意图的操作的执行中的每一个是作为每个操作执行的,但是可以基于根据预设标准的学习来执行对关联信息的获得、对可行性的确定、对响应消息的生成以及对满足用户的意图的操作的执行中的至少两个。
此外,例如,可以基于根据深度神经网络技术的学习来执行对关联信息的获得、对可行性的确定、对响应消息的生成以及对满足用户的意图的操作的执行中的至少两个。
详细地,服务器2000可以通过使用深度神经网络来确定关于与用户输入的语音相对应的用户的意图的类别和任务类型的信息。此外,服务器2000可以通过使用关于用户的意图的类别和任务类型的信息来训练深度神经网络。
此外,服务器2000可以向设备1000发送关于由用户输入的语音的类别和任务类型的信息,并且设备1000可以在屏幕上显示关于类别和任务类型的信息。
此外,服务器2000可以确定是否获得与由用户输入的语音相关的关联信息,通过确定可行性来生成响应消息,并且通过使用深度神经网络来执行满足用户的意图的操作。
图6是示出根据一些实施例的示出用户的意图的类别、任务类型和与用户的意图相关的关联信息的表的视图。
参考图6,表60可以包括类别字段62、任务类型字段64和关联信息字段66。
可以在类别字段62中记录用户的意图的类别。例如,可以在类别字段62中记录“路径引导”和“商品订购”。用户的意图的类别可以基于根据预设标准学习来设置和更改。
可以在任务类型字段64中记录类别的任务类型。例如,任务类型可以包括用户的意图的目的或对应于特定类别的详细操作。例如,类别“路径引导”的任务类型可以包括“购物”、“会议”和“外出就餐”,以及类别“商品订购”的任务类型可以包括“离线递送”和“在线订购”。然而,本公开不限于此。可以基于根据预设标准的学习来设置和改变与用户的意图相关的任务类型。
确定用户的意图的可行性所需的信息可以记录在关联信息字段66中。例如,当类别是“路径引导”并且任务类型是“购物”时,关联信息可以包括营业时间、停车情况和交通状况。另外,例如,当类别是“商品订购”并且任务类型是“离线递送”时,关联信息可以包括营业时间、等待时间、用户评估和折扣信息。可以基于根据预设标准的学习来设置和改变确定用户的意图的可行性所需的关联信息。此外,关联信息可以是通过使用预定的开放数据(open data)预测的信息。
表60可以通过深度神经网络来学习和更新,并且可以被存储在服务器2000的存储器或设备1000的存储器中。
图7是示出根据一些实施例的用于确定特定目的地的营业时间的数据表70的视图。
参考图7,可以通过使用与特定目的地相关的开放数据来预测特定目的地的营业时间。例如,可以按日期和时间累积和存储包括特定目的地的电力消耗、特定目的地的点亮时间和特定目的地的支付数量的数据,并且特定目的地的营业时间可以是通过使用累积的数据来预测。可以基于根据预设标准的学习来设置和改变将使用哪个数据来确定营业时间。
数据表70可以通过深度神经网络来学习和更新,并且可以被存储在服务器2000的存储器或设备1000的存储器中。
图8是示出根据一些实施例的显示根据用户的意图的可行性的替代目的地的表格的视图。
参考图8,例如,当用户通过说出“请引导到江南A百货商店”来输入语音输入时,设备1000可以确定根据用户的意图,用户能够在作为原始目的地的“江南A百货商店”购买商品A的可能性为10%。此外,设备1000可以确定用户能够在“Dogok B百货商店”购买商品A的可能性是90%,以及用户能够在“江南C市场”购买商品A的可能性是80%。因此,设备1000可以确定替代目的地是“Dogok B百货商店”,并且可以生成询问用户是否引导到Dogok B百货商店的响应消息。
替代目的地和用户请求的目的地可以是相同类型或类似类型,并且可以从用户的当前位置或用户请求的目的地附近的目的地当中搜索替代目的地。此外,可以考虑用户的意图的可行性来选择替代目的地。
尽管在图8中以%表示用户的意图的可行性,但是本公开不限于此,并且用户的意图的可行性可以用指示程度的各种单位表示,例如,得分和水平。此外,可以综合考虑诸如在特定目的地是否可以购物、特定目的地是否可获得特定商品、特定商品的价格、以及折扣信息的各种因素,基于预设学习来评估用户的意图的可行性。
图9是根据一些实施例的方法的流程图,通过该方法,设备1000运行应用并提供额外信息来满足用户的意图。
在操作S900中,设备1000可以显示推荐替代目的地的响应消息。在操作S910中,设备1000可以接收请求到替代目的地的路径引导的用户输入。
在操作S920中,设备1000可以显示用于执行在响应消息中的操作的应用列表。例如,当响应消息中的操作是“到Dogok B百货商店的路径引导”时,设备1000可以在设备1000的屏幕上显示安装在设备1000中的导航应用的列表。
在操作S930中,设备1000可以运行用户选择的应用。用户可以在应用列表中选择特定应用,并且设备1000可以运行用户选择的应用,并且可以向运行的应用输入预定的输入值。例如,设备1000可以将“Dogok B百货商店”作为目的地输入到导航应用。
在操作S940中,设备1000可以提供关于替代目的地的额外信息。当设备1000到达替代目的地时,设备1000可以向用户提供关于替代目的地的额外信息。例如,设备1000可以在设备1000的屏幕上显示替代目的地的停车信息、设施使用引导、建筑物的室内地图、要在替代目的地处购买的商品的列表、折扣信息、以及与替代目的地相关的用户的日程信息。
可以基于根据预设标准的学习来执行以下中的至少一个:响应消息的显示、用于执行响应消息中的操作的应用的列表的生成以及替代目的地的额外信息的提供。可以基于根据深度神经网络的学习来执行以下中的至少一个:响应消息的显示、用于执行响应消息中的操作的应用的列表的生成以及替代目的地的额外信息的提供。
图10是根据一些实施例的方法的流程图,通过该方法,设备1000执行与用户意图相关的额外任务。
在操作S1000中,设备1000可以确定是否需要与用户的意图相关的额外任务。设备1000可以通过使用用户的语音输入的含义、用户的意图的类别、任务类型和用户的上下文信息来确定是否需要与用户的意图相关的额外任务。例如,当用户的意图是请求到江南A百货商店的路径引导以便在江南A百货商店购买商品A并且设备1000执行到作为替代目的地的Dogok B百货商店的路径引导,设备1000可以确定需要额外任务以便用户容易地在DogokB百货商店购买商品A。
当在操作S1000中确定需要额外任务时,在操作S1010中,设备1000可以显示推荐额外任务的消息。例如,设备1000可以在设备1000的屏幕上显示询问用户是否接收在DogokB百货商店销售商品A的商店的位置信息和优惠券信息的消息。
此外,推荐额外任务的消息可以包括用于运行用于执行额外任务的应用的对象。例如,询问用户是否接收销售商品A的商店的位置信息和优惠券信息可以包括用于运行提供Dogok B百货商店的优惠券信息和商店信息的应用的图标。
此外,设备1000可以确认设备1000已经到达替代目的地,并且可以显示推荐额外任务的消息。当设备1000不推荐替代目的地时,设备1000可以检查用户是否已到达用户请求的目的地并且可以显示推荐额外任务的消息。
此外,当需要多个额外任务时,设备1000可以在设备1000的屏幕上显示多个额外任务的列表。
在操作S1030中,设备1000可以运行用于执行额外任务的应用。例如,当用户选择了推荐额外任务的消息中包括的应用的图标时,设备1000可以运行执行额外任务的应用。
尽管显示了推荐额外任务的消息并且根据用户输入运行用于执行额外任务的应用,但是本公开不限于此。当在操作S1000中确定需要额外任务时,设备1000可以自动运行执行额外任务的应用。
在操作S1040中,设备1000可以提供与额外任务相关的额外信息。例如,设备1000可以提供诸如店内地图、用户的日程、用户的购买列表、目的地中的朋友的姓名以及设施使用引导的信息。在这种情况下,可以基于根据预设标准的学习结果来设置或改变与额外任务相关的额外信息。
可以基于根据预设标准的学习来执行用于推荐额外任务和提供与额外任务相关的额外信息的操作。例如,可以基于根据深度神经网络技术的学习来执行是否需要额外任务的确定、额外任务的确定以及与额外任务相关的额外信息的确定。
详细地,设备1000可以将语音和用户的上下文信息发送到服务器2000,并且服务器2000可以确定用户的语音输入的含义、用户的意图的类别、以及任务类型,可以确定是否需要与用户的意图相关的额外任务,可以确定额外任务,可以确定与额外任务相关的额外信息,并且可以通过将通过使用深层神经网络所确定的额外信息发送给设备1000。设备1000可以通过使用从服务器2000发送的信息在屏幕上显示推荐额外任务的消息。根据实施例,设备1000可以分析用户的语音。
图11是示出根据一些实施例的设备1000基于用户的购买列表提供与用户的意图相关的额外信息的示例的视图。
参考图11,设备1000可以通知用户已经到达作为目的地的B百货商店,并且可以提供与用户的购物相关的额外信息。详细地,设备1000可以提供用户的购买列表、示出销售要购买的商品的商店的地图以及与要购买的商品相关的优惠券信息。
图12是示出根据一些实施例的设备1000基于用户的日程信息提供与用户的意图相关的额外信息的示例的视图。
参考图12,设备1000可以通知用户已经到达作为目的地的B百货商店,并且可以基于用户的日程推荐用户可以购买的商品。详细地,设备1000可以从用户的日程信息确认用户的祖母的生日是5天之后,并且可以在设备1000的屏幕上显示用于推荐给祖母的礼物列表的消息。
图13是示出根据一些实施例的设备1000向用户提供关于位于目的地的另一用户的信息的示例的视图。
参考图13,设备1000可以基于用户的日程信息确认用户已经到达婚礼大厅以参加朋友的婚礼,并且可以在设备1000的屏幕上显示关于已经到达婚礼大厅的另一用户的信息。在这种情况下,设备1000可以通过使用要结婚的朋友与该用户之间的关系和该用户的朋友信息来标识已经到达婚礼大厅的另一用户。此外,可以通过使用用户的电话交谈、文本消息和SNS活动来确定另一用户是否是该用户的朋友。
图14是示出根据一些实施例的设备1000考虑到目的地的营业日和营业时间而推荐替代目的地的示例的视图。
参考图14,当接收到用户说出“请引导到A百货商店”的语音输入时,设备1000可以在设备1000的屏幕上显示询问用户是否引导到作为替代目的地的B百货商店的消息140。在这种情况下,可以考虑到例如目的地的假期、目的地的营业时间和到目的地的所需时间来确定替代目的地。另外,例如,可以基于目的地的类型、在目的地处销售的商品以及用户访问目的地的事件来确定替代目的地。
此外,设备1000可以在设备1000的屏幕上显示指示A百货商店的假期、到A百货商店所需时间、B百货商店的假期以及到B百货商店所需时间的消息142。在这种情况下,消息142可以包括用于运行导航应用以引导到A百货商店的按钮144和用于运行导航应用以引导到B百货商店的按钮146。当用户选择按钮146时,设备1000可以运行导航应用并且可以将“B百货商店”作为目的地输入到运行的导航应用。
图15是示出根据一些实施例的设备1000考虑到到达目的地所需的时间而推荐替代目的地的示例的视图。
参考图15,当接收到用户说出“请引导到A百货商店”的语音输入时,设备1000可以在设备1000的屏幕上显示询问用户是否引导到作为替代目的地的B百货商店的消息150。在这种情况下,可以考虑例如目的地的营业时间和到目的地的所需时间来确定替代目的地。另外,例如,可以基于目的地的类型、在目的地处销售的商品以及用户访问目的地的事件来确定替代目的地。
此外,设备1000可以在设备1000的屏幕上显示指示B百货商店的营业时间、关于B百货商店可用的商品的信息、C百货商店的营业时间、以及关于C百货商店可用的商品的信息的消息152。在这种情况下,消息152可以包括用于运行导航应用以引导到B百货商店的按钮154和用于运行导航应用以引导到C百货商店的按钮156。当用户选择按钮154时,设备1000可以运行导航应用,并且可以将“B百货商店”作为目的地输入到运行的导航应用。
图16是示出根据一些实施例的设备1000提供与目的地或替代目的地相关的停车信息的示例的视图。
参考图16,当接收到用户说出“请引导到A婚礼大厅”的语音输入时,设备1000可以在设备1000的屏幕上显示用于引导到考虑到A婚礼大厅的停车情况的替代目的地的响应消息160。停车情况可以包括,例如,目的地是否具有停车场以及可以停放在目的地的车辆的数量。指示引导到替代目的地的原因的文本可以被包括在响应消息160中。
可替换地,当接收到用户说出“请引导到A婚礼大厅”的语音输入时,设备1000可以显示引导到A婚礼大厅的消息162。在用户到达A婚礼大厅之后,设备1000可以显示询问用户是否执行到考虑到A婚礼大厅的停车情况的替代目的地的路径引导的消息164。此外,设备1000可以显示指示关于A婚礼大厅附近的停车场的信息的消息166。设备1000可以在前往A婚礼大厅时显示消息164和消息166。
图17是示出根据一些实施例的设备1000推荐与目的地或替代目的地相关的停车信息和额外任务的示例的视图。
参考图17,当接收到用户说出“请引导到A餐馆”的语音输入时,设备1000可以提供到A餐馆的路径引导并且可以显示询问询问用户是否执行到A餐馆附近的A公共停车场的路径引导的消息170,以及指示A公共停车场的停车信息的消息172。此外,设备1000可以显示用于引导如何从A公共停车场步行到A餐厅的消息174。
可替换地,当接收到用户说出“请引导到A餐馆”的语音输入时,设备1000可以提供到A餐馆的路径引导。在用户到达A餐馆之后,设备1000可以显示包括用于向A餐厅打电话以允许用户停放他/她的汽车的按钮的消息176。
图18是示出根据一些实施例的设备1000提供离开目的地的渡轮的时间表作为额外信息的示例的视图。
参考图18,设备1000可以根据用户的语音输入提供到Udo岛码头的路径引导,并且可以向用户提供指示Udo岛码头的渡轮时刻表和票价的信息。在这种情况下,设备1000可以基于用户的语音输入和用户的上下文信息来确定用户的意图是用户将在Udo岛码头登上渡轮。此外,设备1000可以向用户推荐在Udo岛码头预约票的额外任务。
图19是示出根据一些实施例的设备1000基于使用目的地设施的等待时间来推荐附近旅游景点作为替代目的地的示例的视图。
参考图19,设备1000可以根据用户的语音输入提供到Samcheok Manseong洞穴的路径引导,并且可以推荐附近的旅游景点作为替代旅游景点,因为使用Manseong洞穴的单轨列车的等待时间很长。在这种情况下,设备1000可以基于用户的语音输入和用户的上下文信息来确定用户的意图是使用Manseong洞穴的单轨列车。此外,设备1000可以向用户提供关于附近旅游景点的额外信息。
图20是示出根据一些实施例的设备1000提供与订购食物的用户的意图相对应的响应消息的示例的视图。
参考图20,设备1000可以接收用户说出“请在BBQ Jeongja商店订购炸鸡”的语音输入,并且可以向用户提供说出“今天BBQ Jeongja商店的营业时间是到晚上10点,因此结束了。你想在营业至晚上11点的BHC Migeum车站商店订购吗?”的响应消息。在这种情况下,设备1000可以确定用户的意图的类别是“食物递送订购”并且任务类型是“离线订购”。此外,考虑到BBQ Jeongja商店的营业时间、用户的位置、BBQ Migeum车站商店的营业时间、以及BBQ Migeum车站商店的位置,设备1000可以生成用于询问用户是否在BBQ Migeum车站商店订购鸡肉的响应消息。
图21是示出根据一些实施例的设备1000提供对用户关于特定地点的询问的响应消息的示例的视图。
参考图21,设备1000可以接收用户说出“现在星巴克Migeum商店开门吗?”的语音输入,并且可以向用户提供说出“星巴克Migeum商店现在已经关闭。附近的Tom N TomsMigeum商店开放”的响应消息。在这种情况下,设备1000可以确定用户的意图的类别是“查询”并且任务类型是“营业时间”。此外,设备1000可以基于星巴克Migeum商店的营业时间、星巴克Migeum商店的位置、Tom N Toms Migeum商店的营业时间以及Tom N Toms Migeum商店的位置,生成与用户的语音输入相对应的响应。
图22是示出根据一些实施例的设备1000提供对将要呼叫特定地点的用户的语音输入的响应消息的示例的视图。
参考图22,设备1000可以接收用户说出“请打电话给三星电子A/S中心”的语音输入,并且可以向用户提供说出“营业时间结束了。你想预约电话吗?”的响应消息。在这种情况下,设备1000可以确定用户的意图类别是“电话连接”并且任务类型是“A/S查询”。此外,考虑到三星电子A/S中心的营业时间、呼叫等待时间和用户的工作时间,设备1000可以生成与用户的语音输入相对应的响应消息。在这种情况下,关于用于进行呼叫预约的额外任务和用于访问网页的额外任务的信息可以包括在响应消息中。
图23是示出根据一些实施例的设备1000提供对将要预约理发店的服务的用户的语音输入的响应消息的示例的视图。
参考图23,设备1000可以接收用户说出“请预约下午2:00在A理发店”的语音输入,并且可以向用户提供说出“下午2:00不能预约。你想预约4点吗?”的响应消息。在这种情况下,用户可以确定用户的意图的类别是“电话预约”并且任务类型是“理发”。此外,考虑到A理发店的营业日、营业时间和预约条件,设备1000可以生成与用户的语音输入相对应的响应消息。
图24是示出根据一些实施例的设备1000通过与服务器2000互操作提供对用户的语音输入的响应消息的示例的视图。
参考图24,设备1000可以通过网络连接到服务器2000,并且服务器2000可以通过使用用于根据预设标准的学习的数据提供对用户的语音输入的响应消息。
在这种情况下,服务器2000可以执行由图1至图23中的设备1000执行的以下中的至少一个:确定用户的意图的功能、获得与用户的意图相关的关联信息的功能、推荐用于满足用户的意图的替代操作的功能、推荐与用户的意图相关的额外任务的功能、以及提供额外信息的功能。
在这种情况下,设备1000和服务器2000可以发送/接收必要的数据,以便执行其功能。例如,设备1000可以将由服务器2000执行的预定功能所需的数据提供给服务器2000,并且设备1000可以从服务器2000接收根据服务器2000执行的功能生成的结果数据。此外,服务器2000可以将由设备1000执行的预定功能所需的数据提供给设备1000,并且服务器2000可以从设备1000接收根据设备1000执行的功能生成的结果数据。
此外,服务器2000可以管理以下中的至少一个:确定用户的意图所需的数据、获得与用户的意图相关的关联信息所需的数据、推荐替代操作以满足用户的意图所需的数据、推荐与用户的意图相关的额外任务所需的数据、以及提供额外信息所需的数据。
图25和图26是根据一些实施例的设备1000的框图。
如图25所示,根据一些实施例的设备1000可以包括用户输入器1100、输出器1200、处理器1300和通信器1500。然而,图25中所示的所有元素不是设备1000的必要元素。设备1000可以包括比图25中所示的元素更多或更少的元素。
例如,如图26所示,除了用户输入器1100、输出器1200、处理器1300和通信器1500之外,根据一些实施例的设备1000还可以包括传感器1400、音频/视频(audio/video,A/V)输入器1600和存储器1700。
用户输入器1100是用户通过其输入用于控制设备1000的数据的单元。用户输入器1100的示例可以包括但不限于键盘、圆顶开关、触摸板(例如,接触型电容法、压力型电阻膜法、红外检测法、表面超声波传输法、积分张力测量法或压电效应法)、转轮和水壶开关。
用户输入器1100可以请求对用户的语音输入的响应消息,并且可以接收用于运行与响应消息相关的操作的用户输入。
输出器1200可以输出音频信号、视频信号或振动信号,并且可以包括显示器1210、声音输出器1220和振动电机1230。
显示器1210显示并输出由设备1000处理的信息。例如,显示器1210可以显示用于请求对用户输入的响应消息并运行与响应消息相关的操作的用户界面。
声音输出器1220输出从通信器1500接收的或存储在存储器1700中的音频数据。此外,声音输出器1220输出与由设备1000执行的功能相关的声音信号(例如,呼叫信号接收声音、消息接收声音或通知声音)。
处理器1300通常控制设备1000的整体操作。例如,处理器1300可以通过运行存储在存储器1700中的程序来控制用户输入器1100、输出器1200、传感器1400、通信器1500和A/V输入器1600。此外,处理器1300可以通过运行存储在存储器1700中的程序来执行图1至图24的设备1000的功能。
详细地,处理器1300可以通过麦克风1620接收用户的语音输入。处理器1300可以基于用户的语音输入运行执行设备1000的操作的应用,并且可以通过运行的应用接收用户的语音输入。处理器1300可以运行诸如“S语音”的语音助理应用,并且可以通过控制运行的应用来通过麦克风1620接收用户的语音输入。
处理器1300可以基于用户的语音输入来确定用户的意图。处理器1300可以通过使用各种自然语言分析方法来分析用户的语音输入,并且可以基于用户的语音输入的含义来确定用户的意图。此外,处理器1300可以通过使用与用户相关的上下文信息来确定用户的意图。例如,处理器1300可以考虑用户使用设备1000的事件、用户的日程信息、用户的电话交谈、以及用户的文本消息来确定用户的意图。例如,处理器1300可以确定请求到特定地点的路径引导以在特定地点购物的用户的意图。此外,例如,处理器1300可以确定请求到特定地点的路径引导以在特定地点举行会议的用户的意图。此外,例如,处理器1300可以确定用户订购特定食物的意图。然而,由处理器1300确定的用户的意图不限于此。
处理器1300可以获得与用户的意图相关的关联信息。处理器1300可以收集与用户的意图相关的关联信息,以确定用户的意图是否可行。例如,处理器1300可以获得关于特定地点的营业时间、特定地点的停车情况、特定设施的可用时间以及到特定地点的交通状况的信息。
处理器1300可以推荐替代操作以满足用户的意图。处理器1300可以通过使用关联信息来确定用户的意图是否可行,并且可以基于确定的结果推荐替代操作以满足用户的意图。例如,当请求路径引导以在A百货商店购物的用户的意图几乎不可行时,处理器1300可以向用户推荐执行到A百货商店附近的B百货商店的路径引导的替代操作。
此外,处理器1300可以在显示器13210上显示推荐替代操作的响应消息。此外,处理器1300可以向用户提供与用户的意图相关的额外操作和额外信息。
处理器1300可以推荐与用户的意图相关的替代目的地。在这种情况下,处理器1300可以确定用户的目的地和用户的意图。处理器1300可以通过使用各种自然语言分析方法来分析用户的语音输入。例如,处理器1300可以通过分析用户说出“请引导到江南A百货商店”的语音输入来确定用户请求到江南A百货商店的路径引导。
此外,处理器1300可以通过使用用户的上下文信息来确定用户的意图。例如,处理器1300可以考虑例如用户使用设备1000的事件、用户的日程信息、用户的电话交谈、用户的文本消息、用户访问特定地点的事件、用户的网络搜索历史以及在特定地点的付款历史来确定用户的意图。例如,当在通过设备1000的日程应用记录的日程信息中记录了在用户的语音输入的日期进行购物的日程时,处理器1300可以确定用户的意图是请求路径引导,以便在江南A百货商店购物。
处理器1300可以获得与目的地相关的关联信息。处理器1300可以获得与目的地相关的关联信息,以便确定用户的意图是否可行。例如,当用户的意图是请求路径引导以便在江南A百货商店购物时,处理器1300可以获得关于A百货商店的营业时间、A百货商店的停车情况、A百货商店的库存、A百货商店的折扣信息以及到A百货商店的交通状况的信息。
处理器1300可以推荐与用户的意图相关的替代目的地。处理器1300可以通过使用关联信息来确定用户的意图的可行性。此外,当用户的意图的可行性等于或小于预设值时,处理器1300可以推荐替代目的地以满足用户的意图。例如,当江南A百货商店关闭或者没有用户要购买的商品时,处理器1300可以推荐Dogok B百货商店作为替代目的地。此外,处理器1300可以生成询问用户是否执行到替代目的地的路径引导的响应消息,并且可以在显示器1210上显示所生成的响应消息。
此外,处理器1300可以推荐与用户的意图相关的额外任务,并且可以向用户提供与用户的意图相关的额外信息。
此外,处理器1300可以通过使用存储在存储器1700或服务器2000中的数据识别模型来确定用户的意图,可以提供关联信息,并且可以推荐替代操作,如下面参考图28至图31详细描述的。
此外,处理器1300可以通过使用存储在存储器1700或服务器2000中的数据识别模型来有效地学习用于确定用户的意图、提供关联信息、以及推荐替代操作的标准,并且可以根据学习结果提供满足用户的意图的服务。
传感器1400可以检测设备1000的状态或设备1000周围的状态,并且可以将关于状态的信息发送到处理器1300。传感器1400可以用于生成指示用户或设备1000的周围条件的上下文信息的一部分。
传感器1400可以包括但不限于以下中的至少一个:地磁传感器1410、加速度传感器1420、温度/湿度传感器1430、红外传感器1440、陀螺仪传感器1450、位置传感器(例如,全球定位系统)1460、大气压力传感器1470、接近传感器1480和RGB传感器(例如,照度传感器)1490。本领域普通技术人员可以从它们的名称中直观地得出传感器的功能,并且因此将不给出其详细解释。
通信器1500可以包括一个或多个元素,设备1000通过该一个或多个元素与另一设备(未示出)和服务器2000通信。另一设备(未示出)可以是但不限于计算设备或感测设备,如设备1000。例如,通信器1500可以包括短距离通信器1510、移动通信器1520和广播接收器1530。
短距离通信器1510的示例可以包括但不限于蓝牙通信器、蓝牙低能量(Bluetoothlow energy,BLE)通信器、近场通信器、WLAN(Wi-Fi)通信器、Zigbee通信器、红外数据协会(infrared data association,IrDA)通信器、Wi-Fi直连(Wi-Fi Direct,WFD)通信器、超宽带(ultra-wideband,UWB)通信器和Ant+通通信器。
移动通信器1520经由移动通信网络向基站、外部终端和服务器中的至少一个发送无线信号或从基站、外部终端和服务器中的至少一个接收信号。无线信号的示例可以包括语音呼叫信号、视频呼叫信号、以及根据文本/多媒体消息发送/接收的各种数据中的任何一种。
广播接收器1530通过广播信道从外部接收广播信号和/或广播相关信息。广播信道的示例可以包括卫星信道和地面信道。根据实施例,设备1000可以不包括广播接收器1530。
此外,通信器1500可以向服务器2000和另一设备(未示出)发送请求对用户的语音输入的响应消息所需的信息或从服务器2000和另一设备(未示出)接收请求对用户的语音输入的响应消息所需的信息,并且运行与该响应消息相关的操作。
用于接收音频信号输入或视频信号输入的A/V输入器1600可以包括相机1610和麦克风1620。相机1610可以通过在视频呼叫模式或成像模式中使用图像传感器来获得诸如静止图像或运动图像的图像帧。通过图像传感器捕获的图像可以由处理器1300或额外的图像处理器(未示出)处理。由相机1610捕获的图像可以用作用户的上下文信息。
麦克风1620接收外部声音信号并将外部声音信号处理成电子语音数据。例如,麦克风1620可以从外部设备或用户接收声音信号。麦克风1620可以接收用户的语音输入。麦克风1620可以使用各种噪声消除算法中的任何噪声消除算法来消除在接收外部声音信号时发生的噪声。
存储器1700可以存储用于处理和控制处理器1300的程序,并且可以存储输入到设备1000或者从设备1000输出的数据。
存储器1700可以包括来自以下当中的至少一种类型的存储介质:闪存类型、硬盘类型、多媒体卡微型类型、卡型存储器(例如,SD卡或XD存储器)、随机存取存储器(random-access memory,RAM)、静态随机存取存储器(static random-access memory,SRAM)、只读存储器(read-only memory,ROM)、电可擦除可编程只读存储器(electrically erasableprogrammable read-only memory,EEPROM)、可编程只读存储器(programmable read-onlymemory,PROM)、磁存储器、磁盘和光盘。
存储在存储器1700中的程序可以根据存储器1700的功能被分类为多个模块。例如,存储器1700可以包括用户界面(user interface,UI)模块1710、触摸屏模块1720和通知模块1730。
UI模块1710可以根据应用提供与设备1000互操作的专用UI或图形用户界面(graphical user interface,GUI)。触摸屏模块1720可以检测用户的触摸屏上的触摸手势,并且可以将关于触摸手势的信息发送到处理器1300。根据一些实施例的触摸屏模块1720可以识别和分析触摸代码。触摸屏模块1720可以被配置为包括控制器的单独硬件。
通知模块1730可以生成用于通知在设备1000中发生的事件的信号。在设备1000中发生的事件的示例可以包括呼叫信号接收、消息接收、键信号输入和日程通知。通知模块1730可以通过显示器1210输出通知信号作为视频信号,可以通过声音输出器1220输出通知信号作为音频信号,或者可以通过振动电机1230输出通知信号作为振动信号。
图27是根据一些实施例的服务器2000的框图。
参考图27,根据一些实施例的服务器2000可以包括通信器2500、DB2700和处理器2300。
通信器2500可以包括一个或多个元素,服务器2000通过该一个或多个元素与另一设备(未示出)和设备1000通信。
DB 2700可以存储用于验证基于车牌号的支付的数据。
处理器2300通常控制服务器2000的整体操作。例如,处理器2300可以通过运行存储在服务器2000的DB 2700中的程序来控制DB 2700和通信器2500。处理器2300可以通过运行存储在DB 2700中的程序来执行图1至图23的设备1000的功能。
处理器2300可以执行由图1至图23中的设备1000执行的以下中的至少一个:确定用户的意图的功能、获得与用户的意图相关的关联信息的功能、推荐用于满足用户的意图的替代操作的功能、推荐与用户的意图相关的额外任务的功能、以及提供额外信息的功能。
此外,处理器2300可以管理以下中的至少一个:确定用户的意图所需的数据、获得与用户的意图相关的关联信息所需的数据、推荐替代操作以满足用户的意图所需的数据、推荐与用户的意图相关的额外任务所需的数据、以及提供额外信息所需的数据。图28是根据一些实施例的处理器1300的框图。
参考图28,根据一些实施例的处理器1300可以包括数据学习器1310和数据识别器1320。处理器1300可以包括在设备1000或服务器2000中。
根据实施例,数据学习器1310的至少一部分和数据识别器1320的至少一部分可以被实施为软件模块或者被制造为硬件芯片,并且可以安装在设备1000或者服务器2000上。
数据学习器1310可以学习用于确定用户的意图、提供与用户的意图相关的关联信息、并且推荐用于满足用户的意图的替代操作的标准。数据学习器1310可以学习用于确定用户的意图、提供关联信息、以及确定将使用哪些数据来推荐替代操作的标准。此外,数据学习器1310可以学习关于如何通过使用数据来确定用户的意图、如何获得和提供关联信息、以及如何确定替代操作的标准。数据学习器1310可以通过获得要用于学习的数据并将获得的数据应用于如下所述的数据识别模型来学习用于确定用户的意图、提供关联信息、以及推荐替代操作的标准。
语音数据和文本数据可以被包括在输入到数据学习器1310的一类训练数据中。
数据识别器1320可以基于数据确定用户的意图,可以确定关联信息,并且可以推荐替代操作。数据识别器1320可以通过使用训练的数据识别模型,从预定数据确定用户的意图,可以确定关联信息,并且可以推荐替代操作。数据识别器1320可以根据通过学习预先设置的标准获得预定数据,并且可以通过使用获得的预定数据作为输入值来使用数据识别模型。此外,数据识别器1320可以通过使用数据识别模型基于预定数据确定用户的意图、关联信息和替代操作。此外,可以使用通过使用所获得的预定数据作为输入值由数据识别模型输出的结果值来细化数据识别模型。
数据学习器1310和数据识别器1320中的至少一个可以被制造为至少一个硬件芯片并且可以安装在设备1000上。例如,数据学习器1310和数据识别器1320中的至少一个可以被制造为用于人工智能(artificial intelligence,AI)的专用硬件芯片,或者可以被制造为现有通用处理器(例如,中央处理单元(central processing unit,CPU)或应用处理器)或图形处理器(例如,图形处理单元(graphics processing unit,GPU)),并且可以被安装在各种设备1000中的任何设备1000上。在这种情况下,作为用于概率计算的专用处理器的用于人工智能(AI)的专用硬件芯片具有比现有的通用处理器具有更高的并行处理性能,并且因此可以在诸如机器学习的AI领域中快速执行计算操作。
在这种情况下,数据学习器1310和数据识别器1320可以被安装在一个设备1000上,或者可以单独安装在(多个)设备1000上。例如,数据学习器1310和数据识别器1320中的一个可以被包括在设备1000中,并且剩余的一个可以被包括在服务器2000中。此外,由数据学习器1310建立的模型信息可以提供给数据识别器1320,并且输入到数据识别器1320的数据可以作为额外的训练数据通过有线或无线方式提供给数据学习器1310。
例如,设备1000可以包括数据识别器1320,并且服务器2000可以包括数据学习器1310。服务器2000可以学习用于掌握用户的意图的标准,并且设备1000可以基于服务器2000的学习结果来确定意图用户。
服务器2000的数据学习器1310可以学习关于将使用哪个数据来确定用户的意图以及如何通过使用该数据来确定用户的意图的标准。数据学习器1310可以通过获得要用于学习的数据并将获得的数据应用于如下所述的数据识别模型来学习用于掌握用户的意图的标准。
然而,这仅仅是示例,并且设备1000可以包括数据学习器1310,并且诸如服务器2000的外部设备可以包括数据识别器1320。
数据学习器1310和数据识别器1320中的至少一个可以被实施为软件模块。当数据学习器1310和数据识别器1320中的至少一个被实施为软件模块(或包括指令的程序模块)时,软件模块可以被存储在非暂时性计算机可读记录介质中。此外,在这种情况下,可以由操作系统(operating system,OS)或预定应用提供至少一个软件模块。可替换地,可以由OS提供至少一个软件模块的一部分,并且可以由预定应用提供剩余部分。
图21是根据一些实施例的数据学习器1310的框图。
参考图21,根据一些实施例的数据学习器1310可以包括数据获得器1310-1、预处理器1310-2、训练数据选择器1310-3、模型学习器1310-4和模型评估器1310-5。
数据获得器1310-1可以获得确定用户的意图、提供关联信息和推荐替代操作所需的数据。数据获得器1310-1可以获得用于确定用户的意图、提供关联信息以及推荐替代操作的学习所需的数据。
数据获得器1310-1可以获得例如用户的预定语音和预定上下文信息。
预处理器1310-2可以预处理所获得的数据,使得所获得的数据用于学习以确定用户的意图、提供关联信息以及推荐替代操作。预处理器1310-2可以将获得的数据处理成预设格式,使得模型学习器1310-4使用获得的数据用于学习以确定用户的意图、提供关联信息以及推荐替代操作。
训练数据选择器1310-3可以从预处理数据当中选择学习所需的数据。可以将所选择的数据提供给模型学习器1310-4。训练数据选择器1310-3可以根据用于确定用户的意图、提供关联信息以及推荐替代操作的预设标准,从预处理数据当中选择学习所需的数据。此外,训练数据选择器1310-3可以根据通过下面将描述的模型学习器1310-4的学习而预先设置的标准来选择数据。
模型学习器1310-4可以基于训练数据来学习关于如何确定用户的意图、如何确定关联信息以及如何推荐替代操作的标准。此外,模型学习器1310-4可以学习关于将使用哪个训练数据来确定用户的意图、确定关联信息以及推荐替代操作的标准。
此外,模型学习器1310-4可以通过使用训练数据来训练用于确定用户的意图、确定关联信息以及推荐替代操作的数据识别模型。在这种情况下,数据识别模型可以是先前建立的模型。例如,数据识别模型可以是通过接收基本训练数据(例如,样本数据)预先建立的模型。
可以考虑应用识别模型的领域、学习目的或设备1000的计算机性能来建立数据识别模型。数据识别模型可以被设计为在计算机中模拟人脑结构。数据识别模型可以包括具有权重并且模拟人类神经网络的神经元的多个网络节点。多个网络节点可以形成连接关系以模拟其中神经元通过突触发送/接收信号的突触活动。数据识别模型可以包括例如神经网络模型或从神经网络模型开发的深度学习模型。在深度学习模型中,多个网络节点可以位于不同的深度(或层),并且可以根据卷积连接关系发送/接收数据。例如,诸如深度神经网络(deep neural network,DNN)、递归神经网络(recurrent neural network,RNN)或双向递归深度神经网络(bidirectional recurrent deep neural network,BRDNN)的模型可以用作数据识别模型。
根据各种实施例,当存在先前建立的多个数据识别模型时,模型学习器1310-4可以确定与输入训练数据和基本训练数据具有高关联的数据识别模型作为要被训练的数据识别模型。在这种情况下,可以根据数据类型预先对基本训练数据进行分类,并且可以根据数据类型预先建立数据识别模型。例如,基本训练数据可以根据诸如生成训练数据的区域、生成训练数据的时间、训练数据的大小、训练数据的类型、训练数据的生成器以及训练数据中的对象类型的各种标准预先分类。
此外,模型学习器1310-4可以通过使用包括例如误差反向传播或梯度下降的学习算法来训练数据识别模型。
此外,模型学习器1310-4可以例如通过通过使用训练数据作为输入值的监督学习来训练数据识别模型。此外,模型学习器1310-4可以通过无监督学习来训练数据识别模型,以通过在没有监督的情况下自行学习确定用户的意图、提供关联信息、以及推荐替代操作所需的数据类型来找到用于确定用户的意图、提供关联信息、以及推荐替代操作的标准。此外,模型学习器1310-4可以通过强化学习,其中使用关于根据学习来确定用户的意图、提供关联信息、以及推荐替代操作的结果是否正确的反馈,来训练数据识别模型。
此外,当训练数据识别模型时,模型学习器1310-4可以存储训练的数据识别模型。在这种情况下,模型学习器1310-4可以将训练的数据识别模型存储在包括数据识别器1320的设备1000的存储器中。可替换地,模型学习器1310-4可以将训练的数据识别模型存储在通过有线或无线网络连接到设备1000的服务器2000的存储器中。
在这种情况下,其中存储训练数据识别模型的存储器还可以存储例如与设备1000的至少另一元素相关的命令或数据。此外,存储器可以存储软件和/或程序。该程序可以包括例如内核、中间件、应用编程接口(application programming interface,API)和/或应用程序(或应用)。
当模型评估器1310-5将评估数据输入到数据识别模型并且从评估数据输出的识别结果不满足预定标准时,模型评估器1310-5可以使得模型学习器1310-4学习再次。在这种情况下,评估数据可以是用于评估数据识别模型的预设数据。
例如,从评估数据输出的训练的数据识别模型的识别结果当中,当不准确的识别结果的数量或比率超过预设阈值时,可以评估预定标准是不满意的。例如,当2%被定义为预定标准并且从1000条评估数据中的超过20条评估数据输出错误识别结果时,模型评估器1310-5可以评估训练的数据识别模型不是适当的。
当存在多个训练的数据识别模型时,模型评估器1310-5可以评估每个训练的识别模型是否满足预定标准,并且可以将满足预定标准的模型确定为最终数据识别模型。在这种情况下,当多个模型满足预定标准时,模型评估器1310-5可以确定以评估分数的降序预设的一个或预定数量的模型作为最终数据识别模型。
数据学习器1310中的数据获得器1310-1、预处理器1310-2、训练数据选择器1310-3、模型学习器1310-4和模型评估器1310-5中的至少一个可以被制造为至少一个硬件芯片并且可以被安装在设备1000上。例如,数据获得器1310-1、预处理器1310-2、训练数据选择器1310-3、模型学习器1310-4和模型评估器1310-5中的至少一个可以被制造为用于AI的专用硬件芯片,或者可以被制造为现有通用处理器(例如,CPU或应用处理器)或图形处理器(例如,GPU)的一部分,并且可以安装在各种设备1000中的任何一个上。
此外,数据获得器1310-1、预处理器1310-2、训练数据选择器1310-3、模型学习器1310-4和模型评估器1310-5可以安装在一个设备1000上,或者可以单独地分别安装在(多个)设备1000上。例如,数据获得器1310-1、预处理器1310-2、训练数据选择器1310-3、模型学习器1310-4和模型评估器1310-5中的一些可以被包括在设备1000中,并且剩余的可以被包括在服务器2000中。
此外,数据获得器1310-1、预处理器1310-2、训练数据选择器1310-3、模型学习器1310-4和模型评估器1310-5中的至少一个可以实施为软件模块。当数据获得器1310-1、预处理器1310-2、训练数据选择器1310-3、模型学习器1310-4和模型评估器1310-5中的至少一个被实施为软件模块(或包括指令的程序模块)时,软件模块可以被存储在非暂时性计算机可读记录介质中。此外,在这种情况下,可以由操作系统(OS)或预定应用提供至少一个软件模块。可替换地,可以由OS提供至少一个软件模块的一部分,并且可以由预定应用提供剩余部分。
处理器1300可以使用各种数据识别模型,并且可以通过数据识别模型使用各种方法有效地学习用于确定用户的意图、提供关联信息、以及推荐替代操作的标准。
图30是根据一些实施例的数据识别器1320的框图。
参考图30,根据一些实施例的数据识别器1320可以包括数据获得器1320-1、预处理器1320-2、识别数据选择器1320-3、识别结果提供器1320-4、以及模型细化器1320-5。
数据获得器1320-1可以获得确定用户的意图、提供关联信息和推荐替代操作所需的数据,并且预处理器1320-2可以预处理所获得的数据,使得获得的数据数据用于确定用户的意图、提供关联信息以及推荐替代操作。预处理器1320-2可以将获得的数据处理成预设格式,使得识别结果提供器1320-4使用获得的数据来确定用户的意图、提供关联信息以及推荐替代操作。例如,数据获得器1320-1可以获得用户输入到设备1000的语音。此外,数据获得器1320-1可以获得与设备1000或用户相关的上下文信息。上下文信息可以包括但不限于以下中的至少一个:设备1000的周围环境信息、设备1000的状态信息、用户的状态信息、用户的设备使用历史信息以及用户的日程信息中。此外,例如,上下文信息可以是由设备1000生成的信息或从外部设备接收的信息。
识别数据选择器1320-3可以从预处理数据当中选择确定用户的意图、提供关联信息以及推荐替代操作所需的数据。可以将所选择的数据提供给识别结果提供器1320-4。识别数据选择器1320-3可以根据用于确定用户的意图、提供关联信息以及推荐替代操作的预设标准,来选择预处理数据的一些或全部。此外,识别数据选择器1320-3可以根据由模型学习器1310-4通过学习预先设置的标准来选择数据。
识别结果提供器1320-4可以通过将所选择的数据应用于数据识别模型来确定用户的意图、提供关联信息以及推荐替代操作。识别结果提供器1320-4可以根据数据识别的目的提供识别结果。识别结果提供器1320-4可以通过使用由识别数据选择器1320-3选择的数据作为输入值来将所选择的数据应用于数据识别模型。此外,识别结果可以由数据识别模型确定。
模型细化器1320-5可以基于由识别结果提供器1320-4提供的识别结果的评估来细化数据识别模型。例如,模型细化器1320-5可以将由识别结果提供器1320-4提供的识别结果提供给模型学习器1310-4,使得模型学习器1310-4细化数据识别模型。
数据识别器1320中的数据获得器1320-1、预处理器1320-2、识别数据选择器1320-3、识别结果提供器1320-4和模型细化器1320-5中的至少一个可以被制造为至少一个硬件芯片并且可以被安装在设备1000上。例如,数据获得器1320-1、预处理器1320-2、识别数据选择器1320-3、识别结果提供器1320-4和模型细化器1320-5中的至少一个可以被制造为用于AI的专用硬件芯片,或者可以被制造为现有通用处理器(例如,CPU或应用处理器)或图形处理器(例如,GPU)的一部分,并且可以安装在各种设备1000中的任何一个上。
此外,数据获得器1320-1、预处理器1320-2、识别数据选择器1320-3、识别结果提供器1320-4和模型细化器1320-5可以安装在一个设备1000上,或者可以单独地分别安装在(多个)设备1000上。例如,数据获得器1320-1、预处理器1320-2、识别数据选择器1320-3、识别结果提供器1320-4和模型细化器1320-5中的一些可以被包括在设备1000中,并且剩余的可以被包括在服务器2000中。
此外,数据获得器1320-1、预处理器1320-2、识别数据选择器1320-3、识别结果提供器1320-4和模型细化器1320-5中的至少一个可以被实施为一个软件模块。当数据获得器1320-1、预处理器1320-2、识别数据选择器1320-3、识别结果提供器1320-4和模型细化器1320-5中的至少一个被实施为软件模块(或包括指令的程序模块)时,软件模块可以被存储在非暂时性计算机可读记录介质中。此外,在这种情况下,可以由操作系统(OS)或预定应用提供至少一个软件模块。可替换地,可以由OS提供至少一个软件模块的一部分,并且可以由预定应用提供剩余部分。
此外,设备1000可以通过使用应用学习结果的数据识别模型来向用户提供满足用户的意图的服务。
图31是示出根据一些实施例的设备1000和服务器2000互操作以学习和识别数据的示例的视图。
参考图31,服务器2000可以学习用于确定用户的意图、提供关联信息以及推荐替代操作的标准,并且设备1000可以基于服务器2000的学习结果来确定用户的意图、提供关联信息、以及推荐替代操作。
在这种情况下,服务器2000的模型学习器2340可以执行图29的数据学习器1310的功能。服务器2000的模型学习器2340可以学习关于将使用哪个数据来确定用户的意图、提供关联信息、以及推荐替代操作的标准。此外,服务器2000的模型学习器2340可以通过使用该数据学习关于如何确定用户的意图、提供关联信息、以及推荐替代操作的标准。模型学习器2340可以通过获得要用于学习的数据并将获得的数据应用于如下所述的数据识别模型来学习用于确定用户的意图、提供关联信息以及推荐替代操作的标准。
此外,设备1000的识别结果提供器1320-4可以通过将由识别数据选择器1320-3选择的数据应用于由服务器2000生成的数据识别模型来确定用户的意图、提供关联信息以及推荐替代操作。例如,识别结果提供器1320-4可以将由识别数据选择器1320-3选择的数据发送到服务器2000,并且服务器2000可以通过将识别数据选择器1320-3选择的数据应用于识别模型来请求确定用户的意图、提供关联信息以及推荐替代操作。此外,识别结果提供器1320-4可以从服务器2000接收由服务器2000确定的关于如何确定用户的意图、提供关联信息以及推荐替代操作的信息。
可替代地,设备1000的识别结果提供器1320-4可以从服务器2000接收由服务器2000生成的识别模型,并且可以通过使用接收到的识别模型来确定用户的意图、提供关联信息以及推荐替代操作。在这种情况下,设备1000的识别结果提供器1320-4可以通过将由识别数据选择器1320-3选择的数据应用于从服务器2000接收的数据识别模型来确定用户的意图、提供关联信息以及推荐替代操作。
此外,设备1000和服务器2000可以通过角色划分有效地执行用于数据识别模型的学习和数据识别的工作。因此,可以有效地执行数据处理以提供满足用户的意图的服务,并且可以有效地保护用户的隐私。
一些实施例可以实施为包括存储在计算机可读存储介质中的指令的软件程序。
作为能够从存储介质调用存储的指令并根据被调用的指令执行根据实施例的操作的设备的计算机可以包括连接到根据公开的实施例的设备或与该设备通信的外部服务器。
计算机可读存储介质可以被提供为非暂时性存储介质。这里,“非暂时性”意味着存储介质不包括信号或电流并且是有形的,但是不区分数据是半永久地还是临时地被存储在存储介质中。非暂时性存储介质的示例可以包括非暂时性可读存储介质,诸如光盘(compact disc,CD)、数字通用光盘(digital versatile disc,DVD)、硬盘、蓝光盘、通用串行总线(universal serial bus,USB)、内部存储器、存储卡、只读存储器(read-onlymemory,ROM)或随机存取存储器(random-access memory,RAM)以及诸如寄存器、高速缓冲存储器或缓冲器的能够临时存储数据的介质。
此外,可以提供根据所公开实施例的方法作为计算机程序产品。
计算机程序产品可以包括软件程序、存储软件程序的计算机可读存储介质、或者在卖方和购买者之间交易的产品。
例如,计算机程序产品可以包括通过电子市场(例如,Google Play商店或AppStore)或设备的制造商以电子方式作为软件程序分发的产品(例如,可下载的应用)。对于电子分发,软件程序的至少一部分可以被存储在存储介质中或者可以临时生成。在这种情况下,存储介质可以是制造商的服务器、电子市场的服务器或中继服务器的存储介质。
此外,本文使用的术语“单元”可以是诸如处理器、电路的硬件组件和/或在诸如处理器的硬件组件中执行的软件组件。
尽管已经参考其实施例具体示出和描述了本发明,但是本领域普通技术人员将理解,在不脱离由以下权利要求限定的本发明的精神和范围的情况下,可以在形式和细节上进行各种改变。因此,应该理解,上述实施例不限制本发明的范围。例如,以单一类型描述的每个组件可以以分布式方式运行,并且分布式描述的组件也可以以集成形式运行。
本发明的范围由权利要求而不是详细说明指示,并且应当理解,权利要求和从权利要求的概念中得出的所有修改或修改的形式都包括在本发明的范围内。

Claims (15)

1.一种设备,包括:
存储器,存储至少一个程序;
麦克风,被配置为接收用户的语音输入;和
至少一个处理器,被配置为通过运行所述至少一个程序来提供对用户的语音输入的响应消息,
其中,所述至少一个程序包括用于以下的指令:
通过分析所接收的语音输入来确定用户的目的地和用户的意图;
获得与目的地相关的关联信息;
基于获得的关联信息生成推荐与用户的意图相关的替代目的地的响应消息;和
显示所生成的响应消息。
2.如权利要求1所述的设备,其中,生成推荐替代目的地的响应消息还包括:
基于所获得的关联信息确定所确定的意图的可行性;和
基于可行性确定是否推荐替代目的地。
3.如权利要求2所述的设备,其中,确定用户的意图还包括:
确定用户的意图的类别;和
确定所确定的类别的任务类型。
4.如权利要求3所述的设备,其中,生成推荐替代目的地的响应消息包括:基于所确定的可行性、所确定的类别以及所确定的任务类型,生成推荐与用户的意图相关的替代目的地的响应消息。
5.如权利要求3所述的设备,其中,获得关联信息包括:基于所确定的类别和任务类型,获得与目的地相关的并且通过学习来设置的关联信息以确定用户的意图的可行性。
6.如权利要求1所述的设备,其中,所述关联信息包括关于以下中的至少一个的信息:目的地的营业时间、目的地的停车情况、目的地的可用时间以及到达目的地的交通状况。
7.如权利要求1所述的设备,其中,确定用户的意图包括基于所分析的语音输入和用户的日程信息来确定用户的意图。
8.如权利要求3所述的设备,其中,所述至少一个程序还包括用于以下的指令:
基于所确定的类别和所确定的任务类型,获得与用户的意图相关的额外信息;和
提供额外信息以及响应消息。
9.如权利要求1所述的设备,其中,所述至少一个程序还包括用于基于关于所述响应消息的用户输入来运行用于执行被包括在所述响应消息中的操作的预设应用的指令。
10.如权利要求9所述的设备,其中,所述至少一个程序还包括用于基于用户的意图和响应消息向所运行的应用输入预设输入值的指令。
11.一种由设备执行的提供对用户的语音输入的响应消息的方法,所述方法包括:
接收用户的语音输入;
通过分析所接收的语音输入来确定用户的目的地和用户的意图;
获得与目的地相关的关联信息;
基于获得的关联信息生成推荐与用户的意图相关的替代目的地的响应消息;和
显示所生成的响应消息。
12.如权利要求11所述的方法,其中,生成推荐替代目的地的响应消息还包括:
基于所获得的关联信息确定所确定的意图的可行性;和
基于可行性确定是否推荐替代目的地。
13.如权利要求12所述的方法,其中,确定用户的意图还包括:
确定用户的意图的类别;和
确定所确定的类别的任务类型。
14.如权利要求13所述的方法,其中,生成推荐替代目的地的响应消息包括:基于所确定的可行性、所确定的类别以及所确定的任务类型,生成推荐与用户的意图相关的替代目的地的响应消息。
15.一种计算机可读记录介质,其上实施有用于在计算机中运行如权利要求11所述的方法的程序。
CN201780070874.6A 2016-11-16 2017-11-14 用于提供对用户的语音输入的响应消息的设备和方法 Active CN109964271B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR10-2016-0152959 2016-11-16
KR20160152959 2016-11-16
KR1020170147606A KR102501714B1 (ko) 2016-11-16 2017-11-07 사용자의 음성 입력에 대한 답변 메시지를 제공하는 디바이스 및 방법
KR10-2017-0147606 2017-11-07
PCT/KR2017/012852 WO2018093110A1 (ko) 2016-11-16 2017-11-14 사용자의 음성 입력에 대한 답변 메시지를 제공하는 디바이스 및 방법

Publications (2)

Publication Number Publication Date
CN109964271A true CN109964271A (zh) 2019-07-02
CN109964271B CN109964271B (zh) 2024-01-05

Family

ID=62299875

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780070874.6A Active CN109964271B (zh) 2016-11-16 2017-11-14 用于提供对用户的语音输入的响应消息的设备和方法

Country Status (3)

Country Link
US (1) US11501766B2 (zh)
KR (1) KR102501714B1 (zh)
CN (1) CN109964271B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110334352A (zh) * 2019-07-08 2019-10-15 腾讯科技(深圳)有限公司 引导信息显示方法、装置、终端及存储介质

Families Citing this family (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US20120311585A1 (en) 2011-06-03 2012-12-06 Apple Inc. Organizing task items that represent tasks to perform
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
DE212014000045U1 (de) 2013-02-07 2015-09-24 Apple Inc. Sprach-Trigger für einen digitalen Assistenten
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
EP3149728B1 (en) 2014-05-30 2019-01-16 Apple Inc. Multi-command single utterance input method
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
AU2017100670C4 (en) 2016-06-12 2019-11-21 Apple Inc. User interfaces for retrieving contextually relevant media content
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US11301777B1 (en) * 2018-04-19 2022-04-12 Meta Platforms, Inc. Determining stages of intent using text processing
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
KR101997920B1 (ko) * 2018-06-22 2019-10-17 주식회사 스마트크리에이터 맞춤형 응답이 가능한 대화 기반의 채팅 시스템
KR102225984B1 (ko) * 2018-09-03 2021-03-10 엘지전자 주식회사 음성 인식 서비스를 제공하는 서버
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11270084B2 (en) * 2018-10-12 2022-03-08 Johnson Controls Tyco IP Holdings LLP Systems and methods for using trigger words to generate human-like responses in virtual assistants
KR102175890B1 (ko) * 2018-12-10 2020-11-06 김진아 넥타이 선물 추천 프로그램
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US20210117882A1 (en) 2019-10-16 2021-04-22 Talkdesk, Inc Systems and methods for workforce management system deployment
US11736615B2 (en) 2020-01-16 2023-08-22 Talkdesk, Inc. Method, apparatus, and computer-readable medium for managing concurrent communications in a networked call center
US11038934B1 (en) 2020-05-11 2021-06-15 Apple Inc. Digital assistant hardware abstraction
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
KR102256383B1 (ko) * 2020-05-18 2021-05-25 권영훈 사용자의 희망시간을 고려하여 응답정보를 제공하고 캐릭터의 외형을 변환하는 챗봇 서비스를 위한 시스템
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
JP7363715B2 (ja) * 2020-08-07 2023-10-18 トヨタ自動車株式会社 制御方法、情報処理装置、及びシステム
US11721338B2 (en) * 2020-08-26 2023-08-08 International Business Machines Corporation Context-based dynamic tolerance of virtual assistant
CN113409785A (zh) * 2021-06-30 2021-09-17 中国第一汽车股份有限公司 基于车辆的语音交互方法、装置、车辆和存储介质
US11677875B2 (en) 2021-07-02 2023-06-13 Talkdesk Inc. Method and apparatus for automated quality management of communication records
US11856140B2 (en) 2022-03-07 2023-12-26 Talkdesk, Inc. Predictive communications system
US11736616B1 (en) 2022-05-27 2023-08-22 Talkdesk, Inc. Method and apparatus for automatically taking action based on the content of call center communications
US11971908B2 (en) 2022-06-17 2024-04-30 Talkdesk, Inc. Method and apparatus for detecting anomalies in communication data
US11943391B1 (en) 2022-12-13 2024-03-26 Talkdesk, Inc. Method and apparatus for routing communications within a contact center
CN116665676B (zh) * 2023-07-31 2023-09-22 枣庄福缘网络科技有限公司 一种用于智能语音外呼系统的语义识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012032253A (ja) * 2010-07-30 2012-02-16 Sanyo Electric Co Ltd 車両用ナビゲーション装置
US20130303192A1 (en) * 2012-05-09 2013-11-14 Apple Inc. Selecting informative presentations based on navigation cues and user intent
US20160042735A1 (en) * 2014-08-11 2016-02-11 Nuance Communications, Inc. Dialog Flow Management In Hierarchical Task Dialogs
KR20160071732A (ko) * 2014-12-12 2016-06-22 삼성전자주식회사 음성 입력을 처리하는 방법 및 장치

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4312917B2 (ja) 2000-01-31 2009-08-12 株式会社ザナヴィ・インフォマティクス 経路探索サービス方法、ナビゲーション装置
JP4736423B2 (ja) 2004-12-27 2011-07-27 日産自動車株式会社 音声認識装置および音声認識方法
US20090125813A1 (en) * 2007-11-09 2009-05-14 Zhongnan Shen Method and system for processing multiple dialog sessions in parallel
US9141422B2 (en) * 2010-05-18 2015-09-22 Microsoft Technology Licensing, Llc Plug-in task scheduler
CA2747153A1 (en) * 2011-07-19 2013-01-19 Suleman Kaheer Natural language processing dialog system for obtaining goods, services or information
US10210559B2 (en) * 2012-05-17 2019-02-19 Walmart Apollo, Llc Systems and methods for recommendation scraping
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
KR101922691B1 (ko) * 2012-12-27 2019-02-20 현대엠엔소프트 주식회사 목적지 추천 시스템 및 방법
US20140324581A1 (en) * 2013-04-29 2014-10-30 Google Inc. Providing Task-Based Information
KR101488677B1 (ko) 2013-08-01 2015-02-04 현대엠엔소프트 주식회사 네비게이션 시스템의 경로 안내 방법
KR102192157B1 (ko) 2013-09-26 2020-12-16 삼성전자주식회사 검색 장소에 대한 관련 정보를 제공하는 전자 장치 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012032253A (ja) * 2010-07-30 2012-02-16 Sanyo Electric Co Ltd 車両用ナビゲーション装置
US20130303192A1 (en) * 2012-05-09 2013-11-14 Apple Inc. Selecting informative presentations based on navigation cues and user intent
US20160042735A1 (en) * 2014-08-11 2016-02-11 Nuance Communications, Inc. Dialog Flow Management In Hierarchical Task Dialogs
KR20160071732A (ko) * 2014-12-12 2016-06-22 삼성전자주식회사 음성 입력을 처리하는 방법 및 장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110334352A (zh) * 2019-07-08 2019-10-15 腾讯科技(深圳)有限公司 引导信息显示方法、装置、终端及存储介质
CN110334352B (zh) * 2019-07-08 2023-07-07 腾讯科技(深圳)有限公司 引导信息显示方法、装置、终端及存储介质

Also Published As

Publication number Publication date
CN109964271B (zh) 2024-01-05
KR20180055705A (ko) 2018-05-25
US20200058299A1 (en) 2020-02-20
KR102501714B1 (ko) 2023-02-21
US11501766B2 (en) 2022-11-15

Similar Documents

Publication Publication Date Title
CN109964271A (zh) 用于提供对用户的语音输入的响应消息的设备和方法
US10789638B2 (en) Method and system for providing personalized on-location information exchange
US11099867B2 (en) Virtual assistant focused user interfaces
US10706290B2 (en) Method and system for providing personalized on-location information exchange
US10545648B2 (en) Evaluating conversation data based on risk factors
US11295275B2 (en) System and method of providing to-do list of user
US11481551B2 (en) Device and method for providing recommended words for character input
KR102628042B1 (ko) 연락처 정보를 추천하는 방법 및 디바이스
KR20180054365A (ko) 제품의 판매 정보를 제공하는 방법 및 장치
US20230290343A1 (en) Electronic device and control method therefor
US20230052638A1 (en) Systems and methods for proposal communication in a task determination system
AU2022324614A1 (en) Systems and methods for user interfaces for enabling task delegation controls
WO2022232240A1 (en) Systems and methods for proposal generation in a task determination system
US11617957B2 (en) Electronic device for providing interactive game and operating method therefor
CN117959716A (zh) 交互方法、装置、介质及电子设备
WO2023019248A1 (en) Systems and methods for proposal acceptance in a task determination system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant