CN112585642A - 信息处理系统和信息处理方法 - Google Patents

信息处理系统和信息处理方法 Download PDF

Info

Publication number
CN112585642A
CN112585642A CN201980052330.6A CN201980052330A CN112585642A CN 112585642 A CN112585642 A CN 112585642A CN 201980052330 A CN201980052330 A CN 201980052330A CN 112585642 A CN112585642 A CN 112585642A
Authority
CN
China
Prior art keywords
information
utterance
unit
action
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980052330.6A
Other languages
English (en)
Inventor
广屋修一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Coolbit Robot Co ltd
Original Assignee
Coolbit Robot Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Coolbit Robot Co ltd filed Critical Coolbit Robot Co ltd
Publication of CN112585642A publication Critical patent/CN112585642A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/12Hotels or restaurants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/01Customer relationship services
    • G06Q30/015Providing customer assistance, e.g. assisting a customer within a business location or via helpdesk
    • G06Q30/016After-sales

Abstract

信息处理系统包括:分析单元(120),分析与包括在图像捕获单元(110)所捕获到的图像中的人物有关的人物信息;数据库(130),存储人物信息和环境信息,该环境信息指示安装有该信息处理系统的环境;话语单元(140),发出与人物信息和环境信息相对应的话语内容;以及强化学习单元(150),针对人物信息与环境信息的每个组合,基于指示话语单元(140)已发出的话语的结果的结果信息,进行学习以更新与所述话语内容相对应的第一得分。话语单元(140)发出具有如下话语内容的话语:所述话语内容与针对所述组合具有第一得分中的最大值的第一得分相关联。

Description

信息处理系统和信息处理方法
技术领域
本发明涉及信息处理系统和信息处理方法。
背景技术
近来,已广泛引入了具有AI(人工智能)功能的各种系统。它们的重点在于减轻劳动力和人力的短缺。例如,已考虑一种系统,在该系统中,机器人为顾客提供服务,分析已捕获到的图像,把握顾客的请求,并且执行为顾客提供服务的行动(例如,参见专利文献1)。
引文列表
专利文献
专利文献1:JP2018-84998A
发明内容
技术问题
在如上所述的技术中,机器人仅对顾客执行预定的顾客服务动作,并且根据顾客对所执行的动作的反应来学习顾客的要求。因此,存在无法响应于顾客和顾客的状态而执行动作从而无法执行灵活的顾客服务的问题。
本发明的目的是提供一种能够进行灵活的顾客服务的信息处理系统和信息处理方法。
问题的解决方案
根据本发明的信息处理系统包括:成像单元;分析器,分析与包括在成像单元已捕获到的图像中的人物有关的人物信息;数据库,在其自身中存储人物信息和环境信息,环境信息指示安装有该信息处理系统的环境;话语单元,发出具有响应于人物信息和环境信息的话语内容的话语;强化学习单元,从数据库中检索人物信息和环境信息,并且针对已检索到的人物信息与环境信息的每个组合,基于指示话语单元已发出的话语的结果的结果信息,进行学习以更新与话语内容相对应的第一得分;并且话语单元发出具有如下话语内容的话语:所述话语内容与针对所述组合具有第一得分中的最大值的第一得分相关联。
根据本发明的信息处理系统包括相机、机器人和信息处理装置。信息处理装置包括:分析器,分析与包括在相机已捕获到的图像中的人物有关的人物信息;数据库,在其自身中存储人物信息和环境信息,环境信息指示安装有该信息处理系统的环境;话语控制器,指示机器人发出具有响应于人物信息和环境信息的话语内容的话语;以及强化学习单元,从数据库中检索人物信息和环境信息,并且针对已检索到的人物信息与环境信息的每个组合,基于指示话语控制器已指示的话语的结果的结果信息,进行学习以更新与所述话语内容相对应的第一得分。话语控制器指示机器人发出具有如下话语内容的话语:所述话语内容与针对所述组合具有第一得分中的最大值的第一得分相关联,并且机器人包括语音输出单元,该语音输出单元输出由话语控制器已指示的话语内容指示的语音。
此外,根据本发明的信息处理方法是信息处理系统中的信息处理方法,并且进行:用于分析与包括在相机已捕获到的图像中的人物有关的人物信息的处理;从数据库中检索人物信息和环境信息的处理,数据库在其自身中存储人物信息和环境信息,环境信息指示安装有信息处理系统的环境;用于发出具有如下话语内容的话语的处理:所述话语内容与针对已检索到的人物信息和环境信息的组合具有最大值的第一得分相关联;用于基于指示已发出的话语的结果的结果信息来进行学习以更新第一得分的处理。
发明的有益效果
在本发明中,可以进行灵活的顾客服务。
附图说明
图1是示出了根据本发明的信息处理系统的第一实施例的示图。
图2是示出了图1中所示的强化学习单元所具有的得分的示例的示图。
图3是示出了在图1中所示的强化学习单元中进行的强化学习的输入/输出的示例的示图。
图4是用于说明图1中所示的信息处理系统中的信息处理方法的示例的流程图。
图5是示出了根据本发明的信息处理系统的第二实施例的示图。
图6是用于说明用于指定图5中所示的相机已捕获到的人的位置的处理的示例的示图。
图7是示出了执行任务与事件的关联的示例的示图,其中事件能够根据存储在数据库中的人物信息与环境信息的组合来把握,并且上述关联由图5中所示的执行任务选择器171进行参考。
图8是示出图5中所示的信息处理系统中的软件的配置的示例的示图。
图9是示出了存储在图8中所示的人物位置/面部表情/关系/属性数据库中的关联的示例的示图。
图10是示出了图8中所示的话语数据的种类和希望通过话语数据提高的指标的示例的示图。
图11A是示出了被登记为图8中所示的话语数据的信息的示例的示图。
图11B是示出了被登记为图8中所示的话语数据的信息的示例的示图。
图12是用于说明图5中所示的信息处理系统中的信息处理方法的示例的流程图。
具体实施方式
在下文中,将参考附图来描述本发明的实施例。
第一实施例
图1是示出了根据本发明的信息处理系统的第一实施例的示图。如图1中所示,本实施例中的信息处理系统包括成像单元110、分析器120、数据库130、话语单元140和强化学习单元150。
成像单元110对作为对象的人物进行成像。
分析器120分析与包括在成像单元110已捕获到的图像中的人物有关的人物信息。
数据库130在其自身中存储人物信息和环境信息,其中环境信息指示安装有该信息处理系统的环境。
人物信息是与包括在成像单元110已捕获到的图像中的人物有关的信息,该信息例如指示包括在成像单元110已捕获到的图像中的人物的位置、性别、年龄段、面部表情(例如,微笑的脸、惊讶的脸、悲伤的脸、生气的脸等)、身高、衣服、种族、人与人之间的关系等。此外,人物信息还包括:包括在成像单元110已捕获到的图像中的人物所使用的所讲语言,以及指示该人物已下单的内容的下单内容。所讲语言是基于使用安装在成像单元110附近的诸如麦克风之类的声音收集部件(未示出)已收集到的语音,由分析器120通过分析得出的信息。此外,下单内容对应于输入单元(未示出)已接收到的用于下单的订单的内容。此外,当认证(识别)出包括在成像单元110已捕获到的图像中的人物是已经登记的顾客时,人物信息可以是赋予该顾客的个人识别信息(例如顾客ID编号等)。在已经登记了个人识别信息时,与从该个人识别信息中识别出的顾客有关的先前的下单内容(下单的产品、下单的次数等)也被包括在该人物信息中。
环境信息指示人物的数量、当前日期、时间段、天气、系统的操作状态(处理负载状态)、位置类别、基于剩余的下单数量和下单处理状态而确定出的商店状态等。环境信息可以包含上述信息中的至少一项。系统的操作状态是指示系统当前处于什么状态的信息,诸如“已从顾客接收到产品的订单”、“有很多关于烹饪的订单”、“在商店附近看不到人”、“进行烹饪”、“剩余的下单数量为零”、“负责烹饪的机器人已将产品放置在供应位置处”等。
话语内容是指示由话语单元140发出的话语的具体短语的内容。话语内容指示对话语单元140附近发出的话语的内容、对包括在成像单元110已捕获到的图像中的人物说出的言语的内容等。例如,话语内容与由普通商店的店员响应于商店的状态而发出的话语的内容相同,例如:出于揽客的目的而进行招呼的内容、用于吸引存在于附近的人的注意力的内容、用于促使已下单产品的顾客追加下单的内容、自言自语、新闻素材、产品说明等。
得分是由强化学习单元150基于结果信息进行学习而得到的值(第一得分),该结果信息指示话语单元140已发出的话语的结果。该得分随着强化学习单元150进行强化学习由强化学习单元150逐渐地更新。在此,结果信息是包括以下中的至少一项的信息:话语单元140已发出话语之后的顾客的反应、指示销售内容和销售额的变化的销售信息等。通过使分析器120分析与包括在成像单元110已捕获到的图像中的人物有关的面部表情的变化等,来获得顾客的反应。
话语单元140发出具有响应于人物信息和环境信息的话语内容的话语。话语单元140发出具有响应于人物信息和环境信息的话语内容的话语,该话语内容与针对人物信息与环境信息的组合具有最大值的第一得分相关联。
强化学习单元150从数据库130中检索人物信息和环境信息。基于指示话语单元140已发出的话语的结果的结果信息,强化学习单元150针对每个组合(即,已检索到的人物信息与环境信息的组合)学习并更新与话语内容相对应的第一得分。
图2是示出了图1中所示的强化学习单元150所具有的得分的示例的示图。如图2中所示,图1中所示的强化学习单元150包括启动任务,该启动任务是按照与包括在环境信息中的系统的操作状态相对应的方式设置的。强化学习单元150具有与已启动的启动任务相对应的话语类别,并且针对人物信息与环境信息的每个组合,包括与包括在每个话语类别中的话语内容相对应的得分。在图2中,人物信息分别由“a1”、“a2”、“b1”、“b2”和“b3”表示。在图2中,环境信息分别由“c1”、“c2”和“d1”表示。此外,在图2中,话语类别分别由“Cat 1”和“Cat 2”表示。此外,在图2中,与话语类别“Cat 1”相对应的话语内容分别由“Con 11”、“Con 12”和“Con 13”表示。此外,在图2中,与话语类别“Cat 2”相对应的话语内容分别由“Con 21”、“Con 22”和“Con 23”表示。在此,如图2中所示,当人物信息“a”表示性别时,“a1”和“a2”可以被分别表示为男性和女性。其他人物信息和环境信息也是如此。
图3是示出了在图1中所示的强化学习单元150中进行的强化学习的输入/输出的示例的示图。如图3中所示,图1中所示的强化学习单元150被配置为包括报酬计算单元1501、更新单元1502、价值函数计算单元1503。强化学习单元150基于已发出的话语的结果、与话语有关的结果信息、发出话语后的销售额数据(产品、数量、金额等)等来进行强化学习以计算报酬,进行更新,并且将更新输入到价值函数计算单元1503中。此后,基于人物信息和环境信息,输出各个话语内容的价值(得分)。可以使用神经网络来实现价值函数计算单元1503,但是由价值函数计算单元1503进行的分析方法不受特别限制。
在下文中,将描述图1中所示的信息处理系统中的信息处理方法。图4是用于说明图1中所示的信息处理系统中的信息处理方法的示例的流程图。
首先,当成像单元110进行成像时(步骤S1),分析器120分析与包括在成像单元110已捕获到的图像中的人物有关的人物信息(步骤S2)。分析器120将分析结果写入数据库130。然后,强化学习单元150从数据库130中检索人物信息,并且基于检索到的人物信息、环境信息和话语内容来计算话语内容的适当价值。随后,话语单元140选择最适当的话语内容(步骤S3)。具体地,话语单元140对于存储在数据库130中的人物信息和环境信息的组合,选择与具有最大值的得分相关联的话语内容。话语单元140发出具有选择出的话语内容的话语(步骤S4)。强化学习单元150基于在话语单元140已发出话语之后的结果信息来进行学习,并且更新得分(步骤S5)。
在此,对于执行学习之前的得分,可以按照具有彼此相同的值的方式存储所有得分,或者可以按照以下方式存储每个得分:根据对应话语内容针对个人信息与环境信息的对应组合所具有的预测效果,该得分具有已预先设置的值。
以此方式,在本实施例中,发出响应于捕获到的人物和环境的话语,基于该话语的结果来进行学习,并且使用学习的结果逐渐更新与该话语相对应的话语内容的得分。因此,可以进行灵活的顾客服务。
第二实施例
图5是示出了根据本发明的信息处理系统的第二实施例的示图。如图5中所示,本实施例中的信息处理系统包括相机111、信息处理装置101和机器人201。图5中所示的信息处理系统例如是安装在用于提供食物和饮料(例如,咖啡和便餐)的商店中的系统,并且机器人201在该系统中进行顾客服务。相机111对商店附近进行成像,并且机器人201向作为顾客候选者或顾客的包括在捕获到的图像中的人物发出话语和动作。
相机111是捕获作为对象的人物的图像的成像单元。相机111可以是用于捕获静止图像的相机、用于捕获移动图像的相机、或者内置有可以获取深度信息的深度传感器的相机。此外,没有特别规定由相机111进行成像的定时。此外,相机111被安装在这样的位置处,即,可以基于捕获到的图像来识别顾客所在的位置相对于供应产品的位置而言的相对位置。此外,相机111的数量不限于一个。此外,相机111可以是能够基于来自外部的控制自由地改变成像方向的相机。
信息处理装置101是耦接到相机111和机器人201并被配置为控制相机111和机器人201的装置。例如,信息处理装置101可以是能够执行软件的PC(个人计算机)。
机器人201基于来自信息处理装置101的指示来输出预定声音并进行预定动作。作为预定动作,机器人201例如能够进行烹饪和跳舞。
如图5中所示,信息处理装置101包括分析器121、数据库131、话语控制器141、基于话语的强化学习单元1511、动作控制器161、基于动作的强化学习单元1512、执行任务191、执行任务选择器171和输入单元181。注意,图5仅示出了包括在信息处理装置101中的构成元件当中与本实施例相关的主要构成元件。
分析器121分析与包括在相机111已捕获到的图像中的人物有关的人物信息。在此,人物信息与第一实施例中的人物信息相同,例如是关于人物的位置、性别、年龄段、面部表情、身高、衣服、种族、所讲语言、人与人之间的关系、下单内容等。为了使分析器121基于这样的人物信息来根据图像分析人物,可以使用在图像识别中通常使用的任何图像识别方法,并且对分析器121的分析方法没有特别限制。此外,当认证(识别)出包括在相机111已捕获到的图像中的人物是已经登记的顾客时,人物信息可以是赋予该顾客的个人识别信息(例如,顾客ID编号等)。在已经登记了个人识别信息时,与从该个人识别信息中识别出的顾客有关的先前的下单内容(下单的产品、下单的次数等)也被包括在该人物信息中。此外,基于安装相机111的位置和相机111已捕获到的人物的位置,分析器121计算顾客所在的位置相对于供应产品的位置而言的相对位置等。此外,分析器121将位于顾客在下单时输入订单的下单终端前面的人识别为下单者。
数据库131在其自身中存储人物信息和环境信息,该环境信息指示信息处理系统的环境。此外,数据库131在其自身中存储指示执行任务选择器171根据任务点火条件选择的执行任务的信息。稍后将描述所存储的信息的具体示例。
执行任务选择器171基于任务点火条件从多个执行任务191当中选择要由信息处理装置10执行的任务,并且启动所选择的任务。
基于话语的强化学习单元1511进行得分的更新和控制,该得分对应于与所选择并启动的执行任务191相对应的话语类别并对应于包括在该话语类别中的话语内容。针对从数据库131中已检索到的人物信息与环境信息的每个组合,基于指示语音输出单元211已输出的话语的结果的结果信息,基于话语的强化学习单元1511进行学习并更新与话语内容相对应的得分。基于话语的强化学习单元1511收集指示语音输出单元211已发出的话语的结果的结果信息,并且基于所收集的结果信息来进行学习并更新得分。这里进行的学习与第一实施例中的学习相同。此外,这里的得分是通过基于指示语音输出单元211已发出的话语的结果的结果信息已进行的学习而得到的值(第一得分)。该得分随着进行强化学习由基于话语的强化学习单元1511逐渐地更新。在此,结果信息是包括以下中的至少一项的信息:语音输出单元211已发出话语之后的顾客的反应(例如,微笑率等)、指示销售内容和销售额的变化的销售信息(例如,追加销售率、销售增加率等)等。销售信息可以是指示基于对输入单元181的输入已销售的产品的销售内容的信息。注意,顾客的上述反应是由分析器121基于与包括在相机111已捕获到的图像中的人物有关的人物信息通过分析而获得的。
基于动作的强化学习单元1512进行得分的更新和控制,该得分对应于与所选择并启动的执行任务191相对应的动作类别并对应于包括在该动作类别中的动作信息。针对从数据库131中已检索到的人物信息与环境信息的每个组合,基于指示动作执行单元221已执行的动作的结果的结果信息,基于动作的强化学习单元1512进行学习并更新与动作信息相对应的分数。基于动作的强化学习单元1512基于指示动作执行单元221已进行的动作的结果的结果信息来进行学习并更新得分。这里的得分是通过基于指示动作执行单元221已进行的动作的结果的结果信息已进行的学习而得到的值(第二得分)。该得分随着进行强化学习由基于动作的强化学习单元1512逐渐地更新。在此,结果信息是包括以下中的至少一项的信息:动作执行单元221已进行动作之后的顾客的反应(例如,微笑率等)、指示销售内容和销售额的变化的销售信息(例如,追加销售率、销售增加率等)等。注意,顾客的上述反应是由分析器121基于与包括在相机111已捕获到的图像中的人物有关的人物信息根据分析而获得的。
在启动多个执行任务191当中的预定执行任务时,话语控制器141指示包括在机器人201中的语音输出单元211发出具有如下话语内容的话语:该话语内容与基于话语的强化学习单元1511已输出的第一得分当中的具有最大值的第一得分相关联。
在启动多个执行任务191当中的预定执行任务时,动作控制器161指示包括在机器人201中的动作执行单元221进行由如下动作信息指示的动作:该动作信息与基于动作的强化学习单元1512已输出的第二得分当中的具有最大值的第二得分相关联。
输入单元181是向其输入信息的单元。输入单元181可以是基于从外部已接收到的操作而向其输入信息的单元,或者可以是向其输入在信息处理装置101内部或外部已计算出的数值的单元。输入单元181可以是用于下单的单元,在这种情况下,输入基于从外部已接收到的操作已下单的产品。
如图5中所示,机器人201包括语音输出单元211和动作执行单元221。注意,图5仅示出了包括在机器人201中的构成元件当中与本实施方式相关的主要构成元件。
语音输出单元211基于来自话语控制器141的指示来输出语音。语音输出单元211可以是普通扬声器。语音输出单元211优选地附接在这样的位置处,在该位置处,已输出的语音可以像机器人201正在说话的那样到达外部。注意,语音输出单元211的数量不限于一个,并且语音输出单元211可以安装在机器人201内部以外的位置处。动作执行单元221基于来自动作控制器161的指示来进行动作。动作执行单元221例如可以是构成机器人201的手臂部分,并且被配置为使用电动机等来进行动作。注意,在本实施例中,话语控制器141和语音输出单元211被集成到话语单元中,并且动作控制器161和动作执行单元221被集成到动作单元中。
注意,本实施例中的人物信息、环境信息和话语内容可以与在第一实施例中已描述的人物信息、环境信息和话语内容相同。动作信息是用于进行诸如烹饪、跳舞等的预定动作的信息。
在下文中,将描述用于指定相机已捕获到的人物(顾客)的位置的处理。图6是用于说明用于指定图5中所示的相机111已捕获到的人物的位置的处理的示例的示图。如图6中所示,相机111-1至111-3例如被安装在商店中,并且分析器121基于由各个相机111-1至111-3已捕获到的图像来指定人物的位置。分析器121指定包括在相机111-1已捕获到的图像中的、且在从相机111-1观察的方向上存在于特定区域内的人物位于区域1(ZONE 1)中。此外,分析器121指定包括在相机111-2已捕获到的图像中的、且在从相机111-2观察的方向上存在于特定区域内的人物位于区域2(ZONE 2)中。此外,分析器121指定包括在相机111-3已捕获到的图像中的、且在从相机111-3观察的方向上存在于特定区域内的人物位于区域3(ZONE 3)中。此外,分析器121指定包括在相机111-1至111-3中的任一相机已捕获到的图像中的、且存在于远离已捕获到该图像的相机111-1至111-3中的任一相机的区域内的人物位于区域0(ZONE 0)中。然而,不限于以此方式使用多个相机来指定人物的位置的配置,可以采用使用一个相机的配置,基于该相机已捕获到的图像来确定每个人物存在于区域0至3(ZONE 0至3)中的哪一个区域。此外,这些区域0至3(ZONE 0至3)被如下地定义:
ZONE 0:商店附近的区域;路过的顾客和感兴趣的顾客混合在一起。
ZONE 1:下单场所;存在大量对产品进行下单的顾客。
ZONE 2:与商店相邻的区域;存在大量在下单后等待成品的顾客。
ZONE 3:产品供应场所;存在大量带走成品的顾客。
定义这些区域,并且将所定义的区域与行动(话语和动作)的关联预先登记在数据库131中。例如,通过将ZONE 0与用于在商店中招揽的话语内容相关联,可以确定对存在于ZONE 0中的人采取如下行动:用于在商店中招揽的话语、以及用于揽客的动作。此外,通过将ZONE 1与用于询问要下单的产品的话语内容相关联,对存在于ZONE 1中的人可以采取如下行动:用于询问要下单的产品的话语和动作。以此方式,对于对象人物,可以准备与对象人物所在的区域相对应的适当动作。在此,使用四个顶点坐标等来指定各个区域之间的边界。注意,不一定需要分别将相机111-1至111-3与ZONE 0至3相关联。例如,可以采用如下配置:相机111-2和相机111-3捕获存在于ZONE 2中的顾客,并且分析与这两个相机已捕获到的顾客的位置有关的人物信息等。
图7是示出了执行任务与事件的关联的示例的示图,其中事件能够根据存储在数据库131中的人物信息与环境信息的组合来把握,并且上述关联由图5中所示的执行任务选择器171进行参考。该关联可以预先存储在图5中所示的数据库131中。如图7中所示,根据人物的位置和指示系统的操作状态的环境信息来关联各个任务。
例如,烹饪任务与事件“已接收到订单”相关联。通过使用该关联,在当时的事件是“已接收到订单”时,执行任务选择器171选择烹饪任务。此外,详细的话语内容和动作信息与烹饪任务相关联,并且在执行烹饪任务时,机器人201进行烹饪并进行根据这些话语内容和动作信息的行动。此时的话语内容例如是用于发出用于提高微笑率的话语和用于提高重复率的话语的话语内容。这些话语内容被预先存储在数据库131中。
此外,促进下单任务与事件“人物已进入特定区域”和“该区域是下单区域”相关联。通过使用该关联,在当时的事件是“人物已进入特定区域”和“该区域是下单区域”时,执行任务选择器171选择促进下单任务。由分析器121使用指示人物的位置的信息来确定是否“该区域是下单区域”。例如,当人物已进入图6中所示的ZONE 1时,分析器121确定“该区域是下单区域”。此外,详细的话语内容和动作信息与促进下单任务相关联,并且在执行促进下单任务时,进行根据这些话语内容和动作信息的行动。此时的话语内容例如是用于发出如下话语的话语内容:用于鼓励对产品进行下单的话语;或用于提议对另一产品进行下单的话语。这些话语内容被预先存储在数据库131中。
此外,顾客满意度提高任务与事件“人物已进入特定区域”和“该区域是下单区域以外的区域”相关联。通过使用该关联,在当时的事件是“人物已进入特定区域”和“该区域是下单区域以外的区域”时,执行任务选择器171选择顾客满意度提高任务。由分析器121使用指示人物的位置的信息来确定是否“该区域是下单区域以外的区域”。例如,当人物已进入图6中所示的ZONE 2或ZONE 3时,分析器121确定“该区域是下单区域以外的区域”。此外,详细的话语内容和动作信息与顾客满意度提高任务相关联,并且在执行顾客满意度提高任务时,进行根据这些话语内容和动作信息的行动。此时的话语内容例如是用于发出用于提高微笑率的话语和用于提高重复率的话语的话语内容。这些话语内容被预先存储在数据库131中。
此外,揽客任务与事件“剩余的下单数量已变为零”和“附近没有人或没有反应率高的人”相关联。通过使用该关联,在当时的事件是“剩余的下单数量已变为零”和“附近没有人或没有反应率高的人”时,执行任务选择器171选择揽客任务。由分析器121使用环境信息当中指示系统的操作状态的信息来确定是否“剩余的下单数量已变为零”。此外,由分析器121例如基于是否没有人物已进入图6中所示的ZONE 0至3来确定是否“附近没有人”。由分析器121基于如下情况来确定是否“没有反应率高的人”:尽管人物已进入ZONE 0至3,但是在该人物的面部表情和举动上是否没有表示对产品的下单没有兴趣的面部表情和举动。此外,详细的话语内容和动作信息与揽客任务相关联,并且在执行揽客任务时,进行根据这些话语内容和动作信息的行动。此时的动作信息例如是用于配合音乐进行引人注目的揽客机器人动作的动作信息。该动作信息被预先存储在数据库131中。
此外,精确招揽任务与事件“剩余的下单数量已变为零”和“附近存在反应率高的人”相关联。通过使用该关联,在当时的事件是“剩余的下单数量已变为零”和“附近存在反应率高的人”时,执行任务选择器171选择精确招揽任务。由分析器121使用环境信息当中指示系统的操作状态的信息来确定是否“剩余的下单数量已变为零”。此外,例如,当有人已进入图6中所示的ZONE 0至3并且分析器121已分析出的某个人的面部表情和举动是指示对产品的下单有一定兴趣的面部表情和举动时,由分析器121确定事件“附近有反应率高的人”。此外,详细的话语内容和动作信息与精确招揽任务相关联,并且在执行精确招揽任务时,进行根据这些话语内容和动作信息的行动。此时的话语内容和动作信息例如是用于进行容易招揽特定的人的话语和动作的话语内容和动作信息。这些话语内容和动作信息被预先存储在数据库131中。
此外,如图7中所示,对各个执行任务赋予优先级。在选择了优先级比赋予给任务的优先级高的任务时,处理被优先级高的任务中断。这与在顺序执行处理时的中断处理相同。
图8是示出了图5中所示的信息处理系统中的软件的配置的示例的示图。图5中所示的信息处理装置101可以使用具有诸如图8中所示的配置的软件来实现其操作。
图像识别部针对相机已捕获到的图像进行人物识别、人物位置检测和面部表情识别。此外,图像识别部将与识别出的人物有关的信息存储到人物位置/面部表情/关系/属性数据库中。在此,关系是指包括在相机已捕获到的图像中的多个人物之间存在的关系,例如,指示父母与子女、朋友等的信息。此外,属性是指示每个人物的特征的信息,诸如关于人的性别、年龄段、身高、衣服、种族、所讲语言等。该图像识别部可以在图5中所示的分析器121中实现。图像识别部使用地区定义数据来检测人物的位置。地区定义数据可以是指示使用图6已描述的事项的数据,或者可以是使用相机已捕获到的图像和在区域内每个位置处定义的坐标的数据。
此外,订单管理部用于管理已经从用户用来输入订单的下单终端处输入的信息,订单管理部管理订单的接收、已下单的人(已进行输入的用户)与订单内容的关联、以及订单的订单状态。订单管理部在从人物位置/面部表情/关系/属性数据库中检索必要的信息,并且将必要的数据写入人物位置/面部表情/关系/属性数据库中的同时,管理订单。
基于存储在人物位置/面部表情/关系/属性数据库中的人物信息和环境信息、以及订单管理部已接收到的订单,事件检测部检测作为处理触发因素的事件,并且进行用于选择并启动执行任务的处理。在选择了执行任务时,在烹饪任务、揽客任务、下单任务和顾客满意度提高任务之间进行切换。
此外,基于话语的强化学习部基于存储在人物位置/面部表情/关系/属性数据库中的人物信息和环境信息,进行状态观察、报酬计算和话语价值函数更新,并且选择话语对象人物/话语内容。基于话语的强化学习部从预先存储的话语数据当中选择话语内容。此外,基于话语的强化学习部使用在其自身中存储基于话语的学习结果的数据库来进行上述处理。话语内容/对象确定部将基于话语的强化学习部已选择出的话语对象人物/话语内容当中的、与要执行的任务相对应的话语内容和对象人物确定为话语内容和对象人物。语音合成部将话语内容/对象确定部已确定的话语内容合成为语音,并且向扬声器输出该语音。
此外,基于动作的强化学习部使用基于动作的学习结果数据来进行状态观察、报酬计算和动作价值函数更新,并且选择动作。基于动作的强化学习部从预先存储的动作数据当中选择动作。动作确定部将基于动作的强化学习部已选择出的动作当中的、与要执行的任务相对应的动作确定为要执行的动作。动作指示部将动作确定部已确定的动作指示给机器人。
图9是示出了存储在图8中所示的人物位置/面部表情/关系/属性数据库中的关联的示例的示图。如图9中所示,对包括在相机已捕获到的图像中的各个人物赋予人物编号,并且针对每个人物编号,登记对应的数据集。指示人物位置地区类别、人物位置坐标、以及人物位置的确定性的项目对应于与每个人物的所在位置有关的信息。人物位置地区类别对应于使用图6已描述的诸如以下区域:例如,下单场所、产品供应场所、商店周边和商店附近。基于相机的位置、相机的特性、位置指定算法等来计算人物位置的确定性。此外,顾客状态是指示包括在相机已捕获到的图像中的每个人物是顾客、预期顾客、潜在顾客、围观顾客、还是路人的信息。这是分析器121基于关于每个人物的面部认证、面部表情的分析、所在位置、以及举动等已分析出的结果。此外,与另一人物编号的关系是指示与另一人物(该另一人物与每个人物同时包括在图像中)的关系的信息,诸如父母与子女、朋友、恋人等。当作为分析器121对包括在相机已成像的图像中的人物已进行分析的结果,该人物是具有已经登记的ID的顾客时,顾客先前的下单次数和顾客先前的下单内容是指示该顾客先前已下单的次数和内容的两种信息。备选地,当该人物允许系统读取他或她的会员卡时,顾客先前的下单次数和顾客先前的下单内容可以是基于从会员卡中已读取到的信息而获得的、指示顾客先前已下单的次数和内容的两种信息。这两种信息在下单时被登记到数据库中。此外,通过向已对产品下单的顾客赋予顾客ID并登记所下单的产品和下单的次数,可以学习到该顾客的偏好,并且当该顾客再次来到商店时,还可以进行用于提供推荐产品的话语和动作。
图10是示出了图8中所示的话语数据的种类和希望通过话语数据提高的指标的示例的示图。图11A和11B是示出了被登记为图8中所示的话语数据的信息的示例的示图。这些种类的信息被存储在图5中所示的数据库131中。话语数据由下面所示的项目组成。
-语音内容编号
-话语内容的类别(问候素材、自言自语素材、新闻素材、产品对话素材、个人特定素材、顾客好评素材、针对外国人的素材、追加销售素材)
-话语点火条件(连锁店、下单的产品类别、烹饪阶段、位置类别、拥挤状态、时间段、季节、天气/温度/湿度、特殊事件,人物位置地区、顾客状态、与他人的关系、种族/语言、性别、年龄段、面部表情、衣服、身高)
-话语内容的内容(能够按照用变量书写替换词语的方式在内容中进行描述)
-发出话语时的面部表情
-发出话语时的动作
特别地,图10示出了通过响应于分析器121对相机111已捕获到的图像进行分析的结果和当前的系统操作状态,指定要对哪个话语对象发出何种话语得到的示图。此外,图10还示出了希望通过这些话语数据来强化哪些种类的评估结果。评估结果指示已发出的话语的结果,并且指示招揽率、下单率、追加销售率、微笑率和重复率的变化程度。例如,当在机器人将产品放置在供应位置处的状态下或顾客从供应位置已取走产品的状态下与个别人物交谈时,示出了指示要发出用于提高重复率的话语的方针(在图10中用“○”表示)。
此外,如图11A和图11B中所示,对于具体的话语数据,存储了在由分析器121对相机111已捕获到的图像进行分析的结果以及系统的当前操作状态下要发出的多个具体的话语内容。在多个话语内容中,还存储了由除日语以外的外语表达的话语内容,并且还可以存储由英语、中文、韩语等表达的话语内容。此外,按照使得能够响应于关于作为对象的人物的各种属性等而选择话语内容的方式,来存储多个话语内容。此外,对于多个话语内容,根据评价结果来选择这些话语内容中的任何一个。即,选择评价最高的话语内容。
作为已发出的话语的结果输出的基于话语的学习结果数据由下面所示的项目组成。
-话语价值函数学习结果数据
-在多个商店中批量学习所需的数据(话语点火条件、话语内容的编号、话语内容的内容、话语内容的替换词语、话语反应结果)。
基于已发出话语之后的销售内容的变化和对象人物的面部表情,通过强化学习逐渐地更新这些项目。
动作数据由如下所示的项目组成。
-动作内容的编号
-动作类别(烹饪动作、揽客动作、顾客服务动作)
-动作点火条件(连锁店、下单的产品类别、烹饪阶段、位置类别、拥挤状态、时间段、季节、天气/温度/湿度、特殊事件)
-动作内容的内容
-音乐内容的内容
-整个播放时间
-最大中断禁止时间
-进行动作时的面部表情
动作内容的编号例如是与用于使机器人201的手臂移动的数据有关的编号。进行动作时的面部表情是这样的信息:在实现在机器人201的面部部分(例如,用于显示面部图像的显示器)上表示面部表情的功能时,指示要在该显示器上显示的面部表情的信息。例如,进行动作时的面部表情可以是用于允许显示下面所示的面部表情的信息。
-在以与特定的人说话的方式发出话语时眼中射出光芒的面部表情
-在等待下单的状态下时具有兴奋感的面部表情
-在已接收到订单时表示感谢的面部表情
-在烹饪时表示具有动感和活力的动作的面部表情
-发出自言自语时的虚无面部表情
-呼唤顾客以将产品交给顾客时的被治愈的面部表情
作为已进行的动作的结果输出的基于动作的学习结果数据由下面所示的项目组成。
-动作价值函数学习结果数据
-在多个商店中批量学习所需的数据(动作点火条件、动作内容的编号、动作内容、音乐内容、动作反应结果)
基于已进行动作之后的销售内容的变化和对象人物的面部表情,通过强化学习逐渐地更新这些项目。
在下文中,将描述图5中所示的信息处理系统中的信息处理方法。图12是用于说明图5中所示的信息处理系统中的信息处理方法的示例的流程图。
首先,相机111进行成像,并且将通过成像得到的图像发送到信息处理装置101。然后,分析器121分析与包括在已从相机111发送的图像中的人物有关且包括人物位置的人物信息,然后将所分析的人物信息存储到数据库130中(步骤S21)。例如,分析器121分析对象人物位于图6中所示的多个区域当中的哪个区域,以及对象人物从多个区域当中的哪个区域移动到哪个区域。
随后,执行任务选择器171基于已存储在数据库130中的人物信息和环境信息(任务点火条件)来选择执行任务191(步骤S22)。此时包括在环境信息中的系统操作状态例如指示进行烹饪的状态、商店拥挤的状态、剩余的下单数量已变为零的状态、要服务的顾客的数量已变为零等。如使用图7已描述的那样,执行任务选择器171选择要执行的任务。随后,话语控制器141根据执行任务选择器171已选择并启动的执行任务191,根据基于话语的强化学习单元1511已输出的得分来选择话语内容。此时,话语控制器141针对已存储在数据库130中的人物信息与环境信息的组合,选择与基于话语的强化学习单元1511已输出的得分之中具有最大值的得分相对应的话语内容。此外,动作控制器161根据执行任务选择器171已选择并启动的执行任务191,根据基于动作的强化学习单元1512已输出的得分来选择动作信息。此时,动作控制器161针对已存储在数据库130中的人物信息与环境信息的组合,选择与基于动作的强化学习单元1512已输出的得分之中具有最大值的得分相对应的动作信息(步骤S23)。
随后,话语控制器141将选择出的话语内容发送到语音输出单元211,并且指示语音输出单元211发出对应的话语。此外,动作控制器161将选择出的动作信息发送到动作执行单元221,并且指示动作执行单元221进行对应的动作。然后,语音输出单元211发出所指示的话语,并且动作执行单元221进行所指示的动作(步骤S24)。
此后,基于响应于话语和动作而引起的与下单的产品、销售内容、对象人物的面部表情等有关的改变,基于话语的强化学习单元1511和基于动作的强化学习单元1512均进行强化学习以更新得分(步骤S25)。例如,当销售额已增加时,基于话语的强化学习单元1511和基于动作的强化学习单元1512分别增加与已发出的话语相对应的话语内容的得分以及与已进行的动作相对应的动作信息的得分。此外,当销售额已减小时,基于话语的强化学习单元1511和基于动作的强化学习单元1512分别降低与已发出的话语相对应的话语内容的得分以及与已进行的动作相对应的动作信息的得分。这些得分在强化学习中可以分别被称为“报酬”。以此方式,使进行话语和动作时的商店状态、顾客状态、话语对象人物的属性、话语内容和动作内容作为学习状态,根据基于对象人物对话语的反应结果、对象人物对动作的反应结果、产品的销售额的变化等而计算出的报酬计算值,更新与话语内容和动作信息有关的价值函数。通过该方法,进行旨在实现最有效的话语对象、话语内容和动作的强化学习。
注意,可以在多个商店中执行所实施的强化学习。即,根据基于顾客反应的学习而得到的结果可以被多个商店共享。在这种情况下,图8中所示的管理系统可以是将通过多个商店处的学习获得的结果作为数据组进行管理,并且允许所管理的学习结果被多个商店共享的系统。此外,可以针对每个产品、每个商店或每个商店地区执行上述学习方法。
对于这样的图像识别学习中的人物识别、人物位置检测、面部表情识别等,期望通过已应用该系统的所有商店处的共同学习来及早提高学习精度。此外,在针对话语点火条件和动作点火条件确定最有效的话语内容和最有效的动作/音乐内容的强化学习中,预期通过跨多个连锁店、所供产品种类或地区地对每一种内容执行批量学习来提高学习结果精度。
以此方式,在本实施例中,响应于与包括在相机已捕获到的图像中的人物有关的人物信息和环境信息而发出话语和动作;基于话语和动作的结果来进行学习;以及使用学习的结果逐渐地更新话语内容和动作信息的得分。即,逐渐地学习到,响应于捕获到的人物和环境,对处于何种状态下的何种人进行何种话语和动作会带来有效的顾客服务。因此,可以进行灵活的顾客服务。
迄今为止,已通过将各个功能(处理)分别分配给各个构成元件来进行描述,但是其分配方法不限于上述分配方法。此外,对于构成元件的配置,上述实施例的配置完全是示例,本发明不限于上述配置。
附图标记列表
101 信息处理装置
110 成像单元
111、111-1至111-3 相机
120、121 分析器
130、131 数据库
140 话语单元
141 话语控制器
150 强化学习单元
161 动作控制器
171 执行任务选择器
181 输入单元
191 执行任务
201 机器人
211 语音输出单元
221 动作执行单元
1501 报酬计算单元
1502 更新单元
1503 价值函数计算单元
1511 基于话语的强化学习单元
1512 基于动作的强化学习单元。

Claims (8)

1.一种信息处理系统,包括:
成像单元;
分析器,分析与包括在所述成像单元已捕获到的图像中的人物有关的人物信息;
数据库,在其自身中存储所述人物信息和环境信息,所述环境信息指示安装有所述信息处理系统的环境;
话语单元,发出具有响应于所述人物信息和所述环境信息的话语内容的话语;以及
强化学习单元,从所述数据库中检索所述人物信息和所述环境信息,并且针对已检索到的所述人物信息与所述环境信息的每个组合,基于指示所述话语单元已发出的话语的结果的结果信息,进行学习以更新与所述话语内容相对应的第一得分;
其中,所述话语单元发出具有如下话语内容的话语:所述话语内容与针对所述组合具有第一得分中的最大值的第一得分相关联。
2.根据权利要求1所述的信息处理系统,还包括执行任务选择器,所述执行任务选择器基于任务点火条件来选择并启动要执行的任务,所述任务点火条件使用了所述人物信息和所述信息处理系统的操作状态,所述操作状态包括在所述环境信息中,
其中,所述话语单元根据所述执行任务选择器已启动的任务进行操作。
3.根据权利要求1所述的信息处理系统,还包括进行预定动作的动作单元,
其中,所述数据库在其自身中存储指示所述动作的动作内容的动作信息,所述存储以允许与所述动作信息的进一步关联的方式进行,
其中,所述动作单元进行由如下动作信息所指示的动作:所述动作信息与针对所述组合具有第二得分中的最大值的第二得分相关联,以及
其中,基于指示所述动作单元已进行的动作的结果的结果信息,所述强化学习单元进行学习以更新所述第二得分。
4.根据权利要求3所述的信息处理系统,还包括执行任务选择器,所述执行任务选择器基于指示所述信息处理系统的操作状态的任务点火条件来选择并启动要执行的任务,所述操作状态包括在所述环境信息中,
其中,所述动作单元根据所述执行任务选择器已启动的任务进行操作。
5.根据权利要求1至4中任一项所述的信息处理系统,还包括:输入单元,信息被输入到所述输入单元中;
其中,所述结果信息包括以下信息中的至少一项:人物信息,与包括在所述成像单元在所述话语已被发出之后捕获到的图像中的人物有关;以及销售信息,指示已经基于对所述输入单元的输入而销售的产品的销售内容。
6.根据权利要求1至5中任一项所述的信息处理系统,其中,所述环境信息包括以下信息中的至少一项:所述成像单元执行成像时的日期;以及所述信息处理系统的处理负荷状态。
7.一种信息处理系统,包括:
相机;
机器人;以及
信息处理装置,
其中,所述信息处理装置包括:
分析器,分析与包括在所述相机已捕获到的图像中的人物有关的人物信息,
数据库,在其自身中存储所述人物信息和环境信息,所述环境信息指示安装有所述信息处理系统的环境,
话语控制器,指示所述机器人发出具有响应于所述人物信息和所述环境信息的话语内容的话语,以及
强化学习单元,从所述数据库中检索所述人物信息和所述环境信息,并且针对已检索到的所述人物信息与所述环境信息的每个组合,基于指示所述话语控制器已指示的话语的结果的结果信息,进行学习以更新与所述话语内容相对应的第一得分;
其中,所述话语控制器指示所述机器人发出具有如下话语内容的话语:所述话语内容与针对所述组合具有第一得分中的最大值的第一得分相关联,以及
其中,所述机器人包括语音输出单元,所述语音输出单元输出由所述话语控制器已指示的话语内容指示的语音。
8.一种信息处理系统中的信息处理方法,包括:
用于分析与包括在相机已捕获到的图像中的人物有关的人物信息的处理;
从数据库中检索所述人物信息和环境信息的处理,所述数据库在其自身中存储所述人物信息和所述环境信息,所述环境信息指示安装有所述信息处理系统的环境;
用于发出具有如下话语内容的话语的处理:所述话语内容与针对已检索到的所述人物信息和所述环境信息的组合具有最大值的第一得分相关联,以及
用于基于指示已发出的话语的结果的结果信息来进行学习以更新所述第一得分的处理。
CN201980052330.6A 2019-02-25 2019-02-25 信息处理系统和信息处理方法 Pending CN112585642A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/007075 WO2020174537A1 (ja) 2019-02-25 2019-02-25 情報処理システムおよび情報処理方法

Publications (1)

Publication Number Publication Date
CN112585642A true CN112585642A (zh) 2021-03-30

Family

ID=70000623

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980052330.6A Pending CN112585642A (zh) 2019-02-25 2019-02-25 信息处理系统和信息处理方法

Country Status (7)

Country Link
US (1) US20210402611A1 (zh)
EP (1) EP3806022A4 (zh)
JP (1) JP6667766B1 (zh)
KR (1) KR20210027396A (zh)
CN (1) CN112585642A (zh)
TW (1) TWI717030B (zh)
WO (1) WO2020174537A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11645498B2 (en) * 2019-09-25 2023-05-09 International Business Machines Corporation Semi-supervised reinforcement learning
DE102022121132A1 (de) 2022-08-22 2024-02-22 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zur Entwicklung eines technischen Bauteils

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1514399A (zh) * 2002-11-25 2004-07-21 ��˹���´﹫˾ 用于健康监视和个人安全的成像方法和系统
CN1637740A (zh) * 2003-11-20 2005-07-13 阿鲁策株式会社 对话控制设备和对话控制方法
CN101292282A (zh) * 2005-08-29 2008-10-22 沃伊斯博克斯科技公司 支持自然语言人机交互的移动系统和方法
CN102194456A (zh) * 2010-03-11 2011-09-21 索尼公司 信息处理设备、信息处理方法和程序
US20140249676A1 (en) * 2013-03-04 2014-09-04 Microsoft Corporation Adapting robot behavior based upon human-robot interaction
CN106663279A (zh) * 2014-10-14 2017-05-10 富士施乐株式会社 关联程序、计算机可读介质、信息处理方法和信息处理装置
US20170308909A1 (en) * 2016-04-20 2017-10-26 OA Labs LLC Systems and methods for sensor data analysis through machine learning
US20180108352A1 (en) * 2016-10-18 2018-04-19 Hitachi, Ltd. Robot Interactive Communication System
CN108735204A (zh) * 2017-04-17 2018-11-02 三星电子株式会社 用于执行与用户话语相对应的任务的设备

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050289582A1 (en) * 2004-06-24 2005-12-29 Hitachi, Ltd. System and method for capturing and using biometrics to review a product, service, creative work or thing
US8793119B2 (en) * 2009-07-13 2014-07-29 At&T Intellectual Property I, L.P. System and method for generating manually designed and automatically optimized spoken dialog systems
WO2016194173A1 (ja) * 2015-06-03 2016-12-08 株式会社日立システムズ サポート支援システムおよびサポート支援方法ならびにサポート支援プログラム
CN107731225A (zh) * 2016-08-10 2018-02-23 松下知识产权经营株式会社 待客装置、待客方法以及待客系统
US10289076B2 (en) * 2016-11-15 2019-05-14 Roborus Co., Ltd. Concierge robot system, concierge service method, and concierge robot
JP6952453B2 (ja) 2016-11-24 2021-10-20 田嶋 雅美 接客システム及び接客方法
JP6642401B2 (ja) * 2016-12-09 2020-02-05 トヨタ自動車株式会社 情報提供システム
JP7146373B2 (ja) * 2017-07-13 2022-10-04 雅美 田嶋 接客サービスシステム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1514399A (zh) * 2002-11-25 2004-07-21 ��˹���´﹫˾ 用于健康监视和个人安全的成像方法和系统
CN1637740A (zh) * 2003-11-20 2005-07-13 阿鲁策株式会社 对话控制设备和对话控制方法
CN101292282A (zh) * 2005-08-29 2008-10-22 沃伊斯博克斯科技公司 支持自然语言人机交互的移动系统和方法
CN102194456A (zh) * 2010-03-11 2011-09-21 索尼公司 信息处理设备、信息处理方法和程序
US20140249676A1 (en) * 2013-03-04 2014-09-04 Microsoft Corporation Adapting robot behavior based upon human-robot interaction
CN106663279A (zh) * 2014-10-14 2017-05-10 富士施乐株式会社 关联程序、计算机可读介质、信息处理方法和信息处理装置
US20170308909A1 (en) * 2016-04-20 2017-10-26 OA Labs LLC Systems and methods for sensor data analysis through machine learning
US20180108352A1 (en) * 2016-10-18 2018-04-19 Hitachi, Ltd. Robot Interactive Communication System
CN108735204A (zh) * 2017-04-17 2018-11-02 三星电子株式会社 用于执行与用户话语相对应的任务的设备

Also Published As

Publication number Publication date
TW202032491A (zh) 2020-09-01
EP3806022A4 (en) 2022-01-12
KR20210027396A (ko) 2021-03-10
US20210402611A1 (en) 2021-12-30
EP3806022A1 (en) 2021-04-14
TWI717030B (zh) 2021-01-21
JPWO2020174537A1 (ja) 2021-03-11
WO2020174537A1 (ja) 2020-09-03
JP6667766B1 (ja) 2020-03-18

Similar Documents

Publication Publication Date Title
CN110249360B (zh) 用于推荐产品的装置和方法
JP7022062B2 (ja) 統合化された物体認識および顔表情認識を伴うvpa
KR101854431B1 (ko) 컨시어지 로봇
US10026116B2 (en) Methods and devices for smart shopping
US8723796B2 (en) Multi-user interactive display system
US9349131B2 (en) Interactive digital advertising system
US11954150B2 (en) Electronic device and method for controlling the electronic device thereof
CA2946040C (en) Executing software applications on a robot
US20130201105A1 (en) Method for controlling interactive display system
WO2007041223A2 (en) Automated dialogue interface
US20030039379A1 (en) Method and apparatus for automatically assessing interest in a displayed product
US20170032253A1 (en) Information processing apparatus, control method, and program
US20210214875A1 (en) Electronic device
JP2019032778A (ja) 購買支援システム
JP6667766B1 (ja) 情報処理システムおよび情報処理方法
KR20190076870A (ko) 연락처 정보를 추천하는 방법 및 디바이스
CN112528004A (zh) 语音交互方法、装置、电子设备、介质和计算机程序产品
CN106951433B (zh) 一种检索方法及装置
JP5910249B2 (ja) インタラクション装置およびインタラクション制御プログラム
JP2017182261A (ja) 情報処理装置、情報処理方法、およびプログラム
CN113661036A (zh) 信息处理装置、信息处理方法以及程序
WO2021095473A1 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
US20130014055A1 (en) Device and method for inducing use
WO2018182337A1 (ko) 사용자 감정 판단을 위한 전자 장치 및 이의 제어 방법
CN114999449A (zh) 数据处理方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination