CN111475606B - 鼓励话语装置、鼓励话语方法和计算机可读介质 - Google Patents

鼓励话语装置、鼓励话语方法和计算机可读介质 Download PDF

Info

Publication number
CN111475606B
CN111475606B CN202010046783.2A CN202010046783A CN111475606B CN 111475606 B CN111475606 B CN 111475606B CN 202010046783 A CN202010046783 A CN 202010046783A CN 111475606 B CN111475606 B CN 111475606B
Authority
CN
China
Prior art keywords
encouragement
evaluation
user
utterance
motivational
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010046783.2A
Other languages
English (en)
Other versions
CN111475606A (zh
Inventor
堀达朗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of CN111475606A publication Critical patent/CN111475606A/zh
Application granted granted Critical
Publication of CN111475606B publication Critical patent/CN111475606B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/04Speaking
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/04Electrically-operated educational appliances with audible presentation of the material to be studied
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及鼓励话语装置、鼓励话语方法和计算机可读介质。一种鼓励话语装置,其包括:反应检测装置和评估获取装置中的至少一个,该反应检测装置用于检测响应于鼓励话语的用户的反应,该评估获取装置用于获取评估者对鼓励话语的定时和内容的评估;好/坏确定装置,用于基于检测到的反应和所获取的评估中的至少一个来确定鼓励话语的定时和内容是否良好;学习装置,用于对学习数据进行学习,在所述学习数据中,将通过好/坏确定装置确定为良好的鼓励话语的定时和内容与用作当发出该鼓励话语时的触发的触发信息相关联;以及鼓励话语装置,用于基于用户的触发信息和学习装置的学习的结果来发出鼓励话语。

Description

鼓励话语装置、鼓励话语方法和计算机可读介质
技术领域
本公开涉及一种用于发出对用户的行为进行鼓励的话语的话语装置、鼓励话语方法以及程序。
背景技术
已知一种话语装置,该话语装置用于识别用户的语音并基于识别结果做出响应(例如,参见日本未经审查的专利申请公开No.2015-219583)。
发明内容
上述话语装置仅基于语言信息做出响应。因此,当例如考虑到用户的日程安排、时区、用户的状态等而使响应定时不合适时,鼓励话语会使用户烦恼。
为了解决上述问题而提出本公开,并且本公开旨在提供一种能够在适当的定时处发出鼓励话语并增加用户的活动量的鼓励话语装置、鼓励话语方法以及程序。
为了实现上述目的,本公开的一个方面是一种鼓励话语装置,该鼓励话语装置用于执行鼓励话语,所述话语用于鼓励与用户的护理或医疗有关的用户的行为,该鼓励话语装置包括:
反应检测装置和评估获取装置中的至少一个,该反应检测装置用于检测响应于鼓励话语的用户的反应,该评估获取装置用于获取关于鼓励话语的定时和内容的评估者的评估;
好/坏确定装置,用于基于反应检测装置检测到的反应和评估获取装置所获取的评估中的至少一个来确定鼓励话语的定时和内容是否良好;
学习装置,用于对学习数据进行学习,在所述学习数据中,将通过好/坏确定装置确定为良好的鼓励话语的定时和内容与用作当发出该鼓励话语时的触发的触发信息相关联;以及
鼓励话语装置,用于基于用户的触发信息和学习装置的学习的结果来发出鼓励话语。
在这方面,在学习数据中,基于用户的过去行为历史来设置触发信息以及与触发信息相关联的鼓励话语的定时和内容。
在这方面中,评估获取装置可以获取关于鼓励话语的定时和内容的每个评估者的评估,好/坏确定装置可以基于由评估获取装置获取的每个评估者的评估来确定鼓励话语的定时和内容是否良好,学习装置可以针对每个评估者学习学习数据,在该学习数据中,通过好/坏确定装置确定为良好的鼓励话语的定时和内容与该鼓励话语的触发信息相关联,并且鼓励话语装置可以基于学习装置对每个评估者的学习的结果来发出鼓励话语。
在这方面中,鼓励话语装置还可以包括变化量计算装置,用于计算用户的行为相对于由鼓励话语装置发出的鼓励话语的变化量;和评估装置,用于基于由变化量计算装置计算出的用户行为的变化量来评估作为学习数据源的评估者。
在这方面,当评估装置对评估者的评估变为等于或小于预定值时,评估获取装置可以减小该评估者赋予的评估值的加权系数。
在这方面中,鼓励话语装置还可以包括呈现装置,用于为用户呈现通过评估装置的每个评估者的评估。
为了实现上述目的,本公开的一个方面可以是一种用于执行鼓励话语的鼓励话语方法,该鼓励话语用于鼓励与用户的护理或医疗相关的用户的行为,该方法包括下述步骤:
执行响应于鼓励话语的用户的反应的检测以及评估者对鼓励话语的定时和内容的评估的获取中的至少一个;
基于所检测到的反应和所获取的评估中的至少一个来确定鼓励话语的定时和内容是否良好;
对学习数据进行学习,在所述学习数据中,将被确定为良好的鼓励话语的定时和内容与用作当发出该鼓励话语时的触发的触发信息相关联;以及
基于用户的触发信息和学习的结果执行鼓励话语。
为了实现上述目的,本公开的一个方面可以是一种用于执行鼓励话语的程序,该鼓励话语用于鼓励与用户的护理或医疗有关的用户的行为,该程序使计算机执行以下处理:
执行响应于鼓励话语的用户的反应的检测以及评估者对鼓励话语的定时和内容的评估的获取中的至少一个;
基于所检测到的反应和所获取的评估中的至少一个来确定鼓励话语的定时和内容是否良好;
对学习数据进行学习,在所述学习数据中,将被确定为良好的鼓励话语的定时和内容与用作当发出该鼓励话语时的触发的触发信息相关联;以及
基于用户的触发信息和学习的结果执行鼓励话语。
根据本公开,可以提供一种能够在适当的定时处执行鼓励话语并增加用户的活动量的鼓励话语装置、鼓励话语方法以及程序。
通过以下给出的详细描述和仅以图示的方式给出的附图,本公开的上述和其他目的、特征和优点将变得更加充分地理解,并且因此不应视为限制本公开。
附图说明
图1是示出根据本公开的第一实施例的鼓励话语装置的示意性系统配置的框图;
图2是示出根据本公开的第一实施例的鼓励话语方法的流程的流程图;
图3是示出根据本公开的第二实施例的鼓励话语装置的示意性系统配置的框图;
图4是示出根据本公开的第二实施例的鼓励话语装置的评估流程的流程图;以及
图5是示出其中在外部服务器中设置评估获取单元、好/坏确定单元、存储单元和学习单元的配置的图。
具体实施方式
第一实施例
在下文中,将参考附图解释本公开的实施例。图1是示出根据本公开的第一实施例的鼓励话语装置的示意性系统配置的框图。根据第一实施例的鼓励话语装置1发出鼓励话语,用于鼓励关于用户的护理或医疗的用户的行为。因此,可以在适当的定时鼓励用户的行为,并且可以增加用户的活动量,从而可以例如改善用户的康复效果。
用户是指住在医疗机构(医院等)中的患者、住在护理机构中或在家中的受护理者、住在疗养院中的老人。鼓励话语装置1发出鼓励话语,使得增加用户的活动量。例如,鼓励话语装置1发出鼓励话语以允许用户行走、去用餐、参观另一个房间或外出。鼓励话语装置1被安装在例如机器人、个人计算机(PC)或移动终端(智能手机、平板电脑等)上,并且与用户进行会话。
顺便提及,根据现有技术的话语装置仅基于语言信息做出响应。因此,当例如鉴于用户的日程安排、时区、用户的状态等而使响应定时不合适时,鼓励话语可能会使用户烦恼。
另一方面,根据第一实施例的鼓励话语装置1使用用户响应于鼓励话语的反应和评估者对鼓励话语的评估值中的至少一个来确定鼓励话语的定时和内容是否良好。鼓励话语装置1使用已经确定鼓励话语的定时和内容良好的学习数据来执行学习,并且基于学习的结果来执行鼓励话语。因此,通过使用反映鼓励话语的最佳定时和最佳内容的学习的结果来执行鼓励话语,可以在适当的定时发出鼓励话语,并且可以增加用户的活动量。
根据第一实施例的鼓励话语装置1包括:反应检测单元2,其配置成检测用户的反应;评估获取单元3,其被配置成获取评估者对鼓励话语的评估值;好/坏确定单元4,其被配置成确定鼓励话语的定时和内容是否良好;存储单元5,其被配置成存储与指示定时和内容是否良好的确定结果彼此关联的鼓励话语;学习单元6,其被配置成学习指示定时和内容是否良好的确定结果;以及鼓励话语单元7,其被配置成执行鼓励话语。
鼓励话语装置1可以由例如主要使用包括执行算术处理等的中央处理单元(CPU)、由只读存储器(ROM)和随机存取存储器(RAM)构成并且存储由CPU执行的算术程序等等的存储器、外部接收和输出信号的接口单元(I/F)等等的微计算机的硬件形成。CPU、存储器和接口单元通过数据总线等彼此连接。
反应检测单元2是反应检测装置的一个具体实例。反应检测单元2使用例如相机、麦克风、Kinect传感器等来检测用户的反应。此外,反应检测单元2响应于从鼓励话语单元7输出的鼓励话语来检测用户的反应(行为或状态)。反应检测单元2将检测到的用户的反应输出到好/坏确定单元4。
评估获取单元3是评估获取装置的一个具体示例。评估获取单元3通过评估者获取关于鼓励话语的定时和内容的评估值。评估者实际上观察例如用户响应鼓励话语的反应,并将评估值赋予鼓励话语的定时和内容。评估值例如由1到5的分数来指示,评估值高意指评估高。可以任意设置可能是好和坏(1和0)的评估值。每当鼓励话语单元7发出鼓励话语时,评估者等经由输入装置等将各个鼓励话语的评估值输入到评估获取单元3。各个鼓励话语的评估值可以预先存储在评估获取单元3中。评估获取单元3将评估者获取的评估值输出到好/坏确定单元4。
好/坏确定单元4是好/坏确定装置的一个具体示例。好坏确定单元4确定鼓励话语的定时和内容是否良好。好/坏确定单元4基于评估获取单元3获取的鼓励话语的评估值来确定鼓励话语的定时和内容是否良好。例如,当由评估获取单元3获取的鼓励话语的评估值等于或大于预定值(例如,4)时,好/坏确定单元4确定鼓励话语的定时和内容是良好的。因此,可以使用评估者进行的评估来高精度地确定鼓励话语的定时和内容是否良好。预定值预先在好/坏确定单元4中被设置,并且预定值的设置可以由用户任意改变。
好/坏确定单元4可以基于响应于由反应检测单元2检测到的鼓励话语的用户反应来确定鼓励话语的定时和内容是否良好。例如,当用户响应于鼓励话语做出积极的反应时,好/坏确定单元4可以将鼓励话语的定时和内容确定为良好。因此,可以使用由反应检测单元2检测到的反应来自动确定鼓励话语的定时和内容是否良好。
积极反应是,例如,包括与鼓励话语相对应的一些行为、用户的点头行为或积极话语或行为(Yes(是)等等)的用户的反应。更具体地,当鼓励话语为“鼓励用户行走的话语”时,积极的反应是“用户实际上行走了”。
好/坏确定单元4可以基于响应于由反应检测单元2检测到的鼓励话语的用户的反映和评估获取单元3获取的鼓励话语的评估值来确定鼓励话语的定时和内容是否良好。例如,当由评估获取单元3获取的鼓励话语的评估值等于或大于预定值并且用户已经响应于该鼓励话语做出积极反应时,好/坏确定单元4确定鼓励话语的定时和内容是良好的。因此,可以使用反应检测单元2的反应和通过评估获取单元3的评估者的评估值,更准确地确定鼓励话语的定时和内容是否良好。好/坏确定单元4将确定为良好的鼓励话语的定时和内容作为确定结果输出到存储单元5。
存储单元5将与用作用于鼓励话语的触发的触发信息相关联的由好/坏确定单元4确定为良好的鼓励话语的定时和内容存储为学习数据。存储单元5由例如存储器形成。
现在,将详细解释触发信息。触发信息是用作当为用户发出鼓励话语时的触发的信息。
触发信息包括例如诸如用户的时间表、用户的状态(相同姿势等)或时区的信息。更具体地,触发信息是用户在至少预定时间段内采取一种姿势(坐姿、站姿、弯曲姿势等)。该触发信息与用于鼓励用户站起来或行走的鼓励话语相关联。
触发信息是至少在预定的时间段内用户已躺下并且时区为白天。该触发信息与用于鼓励用户唤醒的鼓励话语相关联。触发信息是用户在至少预定时间段内采取他/她已经停止的姿势。该触发信息与用于鼓励用户行走的鼓励话语相关联。在每个预定时间段(每30分钟)唤醒用户的时间表被设置为触发信息。该触发信息与用于鼓励用户在每个预定时间段唤醒的鼓励话语相关联。在唤醒用户之后使用户坐下、站立并且然后行走的时间表设置为触发信息。该触发信息与用于鼓励用户在唤醒用户之后坐下、站立和行走的鼓励话语相关联。将允许用户饭后坐下并且行走的时间表设置为触发信息。该触发信息与用于在餐后在预定时间段内鼓励用户坐下和行走的鼓励话语相关联。
学习单元6是学习装置的一个具体示例。学习单元6使用存储在存储单元5中的学习数据来执行学习。学习单元6接收触发信息,该触发信息触发鼓励话语,输出鼓励话语的定时和内容,并且学习触发信息与鼓励话语的定时和内容之间的关系。
优选地,基于用户的过去行为历史来设置学习数据的上述触发信息,以及与该触发信息相关联的鼓励话语的定时和内容。因此,可以获得反映用户的过去行为历史的学习的结果,并且通过使用学习的结果发出鼓励话语,可以在最佳定时为用户发出包括对于用户而言最佳的内容的鼓励话语。
例如,用户做完一些运动后通常会感到疲倦。在这种情况下,鉴于诸如用户的锻炼历史的行为历史,优选地发出用于允许用户长时间休息的鼓励话语。更具体地,触发信息是用户进行一些锻炼之后的状态。该触发信息与鼓励话语的定时和内容相关联,用于允许用户长时间休息(在特定时间段后唤醒用户的鼓励话语)。
当用户唤醒之后已经流逝预定时间段时,通常优选允许用户坐下。因此,触发信息是在用户唤醒之后已经流逝预定时间段的状态。该触发信息与鼓励话语的定时和内容相关联以允许用户坐下。
学习单元6例如由诸如递归神经网络(RNN)的神经网络形成。该RNN在其中间层包括长短期记忆(LSTM)。学习单元6可以由作为除了神经网络以外的诸如支持向量机(SVM)的学习装置形成。
鼓励话语单元7是鼓励话语装置的一个具体示例。鼓励话语单元7基于学习单元6的学习的结果发出鼓励话语。反应检测单元2检测用户的触发信息,并将检测到的触发信息输出到学习单元6。学习单元6根据输入的触发信息输出鼓励话语的定时和内容。鼓励话语单元7基于从学习单元6输出的鼓励话语的定时和内容来发出鼓励话语。鼓励话语单元7使扬声器等在从学习单元6输出的鼓励话语的定时处输出指示该鼓励话语的内容的话语。
图2是示出根据第一实施例的鼓励话语方法的流程的流程图。如上所述,根据本公开的第一实施例的鼓励话语装置1首先在<学习处理>中学习触发信息的学习数据以及鼓励话语的定时和内容。之后,鼓励话语装置1基于在<鼓励话语处理>中的学习的结果来发出鼓励话语。
<学习处理>
反应检测单元2检测响应于从鼓励话语单元7输出的鼓励话语的用户的反应,并将检测到的用户的反应输出到好/坏确定单元4(步骤S101)。
评估获取单元3获取关于从鼓励话语单元7输出的鼓励话语的定时和内容的评估者的评估值,并将获取的鼓励话语的评估者的评估值输出到好/坏确定单元4(步骤S102)。
好/坏确定单元4基于响应于由反应检测单元2检测到的鼓励话语的用户的反映和由评估获取单元3获取的评估者的鼓励话语的评估值来确定鼓励话语的定时和内容是否良好(步骤S103)。好/坏确定单元4将确定为良好的鼓励话语的定时和内容输出到存储单元5作为确定结果。
存储单元5将由好/坏确定单元4确定为良好的鼓励话语的定时和内容以及该鼓励话语的触发信息彼此关联地存储为学习数据(步骤S104)。
学习单元6接收鼓励话语的触发信息,输出鼓励话语的定时和内容,并且使用存储在存储单元5中的学习数据来学习触发信息与鼓励话语的定时和内容之间的关系(步骤S105)。例如在每个预定时间段重复执行学习处理的上述处理。
<鼓励话语处理>
由反应检测单元2检测到的触发信息被输入到学习单元6。鼓励话语单元7基于从学习单元6输出的鼓励话语的定时和内容发出鼓励话语(学习的结果)(步骤S106)。
如上所述,根据第一实施例的鼓励话语装置1包括被配置成检测响应于鼓励话语的用户的反应的反应检测单元2和被配置成获取关于鼓励话语的定时和内容的通过评估者的评估的评估获取单元3中的至少一个;好/坏确定单元4,其被配置成基于反应检测单元2检测到的反应和由评估获取单元3获取的评估中的至少一个来确定鼓励话语的定时和内容是否良好;学习单元6,其被配置成学习学习数据,在学习数据中,由好/坏确定单元4确定为良好的鼓励话语的定时和内容与用作当发出鼓励话语时的触发的触发信息相关联;以及鼓励话语单元7,其被配置成基于用户的触发信息和学习单元6的学习的结果来发出鼓励话语。
根据上述配置,通过使用反映鼓励话语的最佳定时和最优内容的学习的结果来执行鼓励话语,可以在适当的定时发出鼓励话语,并且可以增加用户活动量。
第二实施例
图3是示出根据本公开的第二实施例的鼓励话语装置的示意性系统配置的框图。根据第二实施例的鼓励话语装置20除了上述第一实施例中所示的组件之外还包括变化量计算单元8,其被配置成计算用户的行为的变化量;以及评估单元9,其被配置成评估评估者。
通过评估每个评估者,所获得的评估可以反映在学习数据中,从而可以生成更准确的学习数据。因此,可以在更适当的定时发出鼓励话语,并且可以进一步增加用户的活动量。
评估获取单元3获取关于鼓励话语的定时和内容的每个评估者的评估。
好/坏确定单元4基于由评估获取单元3获取的每个评估者的评估,来确定鼓励话语的定时和内容是否良好。学习单元6针对每个评估者学习学习数据,在学习数据中,由好/坏确定单元4确定为良好的鼓励话语的定时和内容与鼓励话语的触发信息相互关联。
鼓励话语单元7使用由学习单元6执行的每个评估者的学习的结果来发出鼓励话语。变化量计算单元8是变化量计算装置的一个具体示例。变化量计算单元8基于在鼓励话语之后由反应检测单元2检测到的用户反应来计算用户行为量的变化量。
例如,变化量计算单元8可以基于在鼓励话语之后由反应检测单元2检测到的用户的反应来计算从鼓励话语之前起的用户的运动变化量作为用户行为的变化量。此外,变化量计算单元8可以基于由附接到用户的生物特征传感器检测到的传感器值来计算诸如从鼓励话语之前起的用户的活动量、消耗的卡路里或步骤数作为用户行为的变化量。生物传感器例如是心率计、计步器等。
评估单元是评估装置的一个具体示例。评估单元9基于由变化量计算单元8计算出的用户行为的变化量来评估作为学习数据的源的评估者。例如,评估单元9根据由变化量计算单元8计算出的用户行为的变化量将评估值给予评估者。随着用户行为的变化量的增加,评估者被给予更高的评估值。评估单元9将给予各个评估者的评估值输出到存储单元5。
根据第二实施例的鼓励话语装置20还可以包括呈现单元11,该呈现单元11被配置成向用户呈现被给予存储在存储单元5中的各个评估者的评估值。呈现单元11是呈现装置的一个具体示例。用户参考被给予到为呈现单元11呈现的各个评估者的评估值,并且例如鉴于通过评估者的评估高的鼓励话语的定时,可以生成更准确的学习数据。例如,呈现单元11是显示器或打印机。
在该第二实施例中,与第一实施例相同的元件由与第一实施例相同的附图标记表示,并且将省略其详细描述。
图4是示出根据本公开的第二实施例的鼓励话语装置的评估流程的流程图。评估获取单元3获取关于鼓励话语的定时和内容的每个评估者的评估值(步骤S201)。
好/坏确定单元4基于由评估获取单元3获取的每个评估者的评估值,来确定鼓励话语的定时和内容是否良好(步骤S202)。学习单元6针对每个评估者学习学习数据,在该学习数据中,由好/坏确定单元4确定为良好的鼓励话语的定时和内容与该鼓励话语的触发信息相互关联(步骤S203)。
鼓励话语单元7使用由学习单元6执行的每个评估者的学习的结果来发出鼓励话语(步骤S204)。变化量计算单元8基于在鼓励话语之后由反应检测单元2检测到的用户反应来计算用户行为的变化量(步骤S205)。
评估单元9基于由变化量计算单元8计算出的用户行为的变化量来评估作为学习数据的源的评估者(步骤S206)。评估单元9将被给予各个评估者的评估值输出到存储单元5。呈现单元11为用户呈现被给予存储在存储单元5中的各个评估者的评估值(步骤S207)。
第三实施例
在本公开的第三实施例中,评估获取单元3可以通过评估者对获取的评估值进行加权。评估获取单元3基于评估单元9对评估者的评估,对该评估者所赋予的评估值进行加权。当评估单元9对评估者的评估值等于或小于预定值时,评估获取单元3可以减小该评估者赋予的评估值的加权系数。以此方式,可以减少通过评估者对评估低的评估值的影响,并且可以生成更准确的学习数据。
注意,当评估单元9对评估者的评估值等于或大于预定值时,评估获取单元3可以增加该评估者赋予的评估值的加权系数。随着评估单元9对评估者的评估值变低,评估获取单元3可以减小该评估者赋予的评估值的加权系数。
例如,假设其中评估者A和B分别针对鼓励话语的定时和内容而赋予评估值X和Y。当由评估单元9获得的评估者A的评估值等于或小于三时,评估获取单元3将评估者A对评估值X的加权系数从0.5减小到0.3。另一方面,当评估单元9对评估者B的评估值大于三时,评估获取单元3将评估者B对评估值Y的加权系数从0.5增加到0.7。
评估获取单元3通过将用于鼓励话语的定时和内容的最终评估值从(0.5X+0.5Y)改变为(0.3X+0.7Y)来执行计算。以此方式,降低由评估者A的评估低的评估值所给予的影响,并且由评估者B的评估高的评估值所给予的影响增加,从而针对鼓励话语的定时和内容的评估值可以被计算。
好/坏确定单元4能够基于其中由评估获取单元3调节的评估者的评估被反映的评估值来高精度地确定鼓励话语的定时和内容是否良好。因此,可以产生更准确的学习的结果,并且使用学习的结果来发出鼓励话语,从而可以在对于用户来说最佳的定时处发出对于用户来说内容最优的鼓励话语。
在该第三实施例中,与第一和第二实施例的元件相同的元件由与第一和第二实施例相同的附图标记表示,并且将省略其详细描述。
虽然上面已经描述本公开的一些实施例,但是这些实施例仅作为示例呈现,并且不旨在限制本公开的范围。这些新颖的实施例可以以其他各种形式来实现,并且可以在不脱离本公开的精神的情况下进行各种类型的省略、替换或改变。这些实施例及其变型将落入本公开的范围和精神内,包括在权利要求及其等同物的范围中提供的本公开中。
虽然在上述第一实施例中反应检测单元2、评估获取单元3、好/坏确定单元4、存储单元5、学习单元6和鼓励话语单元7被整体形成,但这仅仅是一个示例。评估获取单元3、好/坏确定单元4、存储单元5和学习单元6中的至少一个可以设置在诸如外部服务器的外部设备中。
例如,如图5中所示,反应检测单元2和鼓励话语单元7设置在交互机器人101中,并且评估获取单元3、好/坏确定单元4、存储单元5、以及学习单元6被设置在外部服务器100中。交互机器人101与外部服务器100之间的通信可以经由诸如长期演进(LTE)的通信网络彼此连接,并且交互机器人101和外部服务器100可以彼此通信数据。这样,外部服务器100和交互机器人101可以执行彼此不同的处理,从而可以减少在交互机器人101中执行的处理量,并且还可以减小交互机器人101的尺寸和重量。
本公开能够通过使CPU执行计算机程序来实现例如图2和图4所示的处理。
可以使用任何类型的非暂时性计算机可读介质来存储程序并将其提供给计算机。非暂时性计算机可读介质包括任何类型的有形存储介质。非暂时性计算机可读介质的示例包括磁存储介质(诸如软盘、磁带、硬盘驱动器等)、光磁存储介质(例如,磁光盘)、光盘只读存储器(CD-ROM)、CD-R、CD-R/W和半导体存储器(诸如掩码ROM、可编程ROM(PROM)、可擦除PROM(EPROM)、闪存ROM、随机存取存储器(RAM)等)。
可以使用任何类型的暂时性计算机可读介质将程序提供给计算机。暂时性计算机可读介质的示例包括电信号、光信号和电磁波。暂时性计算机可读介质可以经由有线通信线(例如,电线和光纤)或无线通信线将程序提供给计算机。
根据这样描述的公开,将会显然的是,可以以许多方式改变本公开的实施例。这样的变化不应被认为是背离本公开的精神和范围,并且对于本领域的技术人员来说显而易见的所有这样的修改旨在包括在所附权利要求的范围内。

Claims (7)

1.一种鼓励话语装置,所述鼓励话语装置用于执行鼓励话语,所述话语用于对与用户的护理或医疗有关的所述用户的行为进行鼓励,所述鼓励话语装置包括:
反应检测装置和评估获取装置,所述反应检测装置用于检测响应于所述鼓励话语的多个用户的反应,所述评估获取装置用于获取由多个评估者对所述鼓励话语的定时和内容进行评估得到的多个评估值,其中,所述评估获取装置进一步被配置为对被获取的多个评估值进行加权,并且,当对于任何一个所述评估者的所述评估值等于或小于预定值时,减小由所述评估者赋予的评估值的加权系数;
好/坏确定装置,所述好/坏确定装置用于基于由所述反应检测装置检测到的所述反应和由所述评估获取装置获取的所述多个评估值的至少一个,来确定所述鼓励话语的定时和内容是否为良好;
学习装置,所述学习装置用于对学习数据进行学习,在所述学习数据中,将通过所述好/坏确定装置确定为良好的所述鼓励话语的定时以及内容与触发信息相关联,所述触发信息是用作当为用户发出鼓励话语时的触发器的信息;以及
鼓励话语装置,所述鼓励话语装置用于基于由所述用户的所述触发信息和由所述学习装置的学习的结果来发出所述鼓励话语。
2.根据权利要求1所述的鼓励话语装置,其中,
在所述学习数据中,基于用户的过去行为历史来设置所述触发信息以及与所述触发信息相关联的所述鼓励话语的定时和内容。
3.根据权利要求1或者2所述的鼓励话语装置,其中,
所述评估获取装置获取每个评估者对所述鼓励话语的定时和内容所进行的评估,
所述好/坏确定装置基于由所述评估获取装置获取的每个评估者的所述评估,来确定所述鼓励话语的定时和内容是否为良好,
针对每个所述评估者,所述学习装置对学习数据进行学习,在所述学习数据中,将通过所述好/坏确定装置确定为良好的所述鼓励话语的定时和内容与该鼓励话语的所述触发信息相关联,以及
所述鼓励话语装置基于由所述学习装置针对每个评估者的学习的结果来发出所述鼓励话语。
4.根据权利要求3所述的鼓励话语装置,还包括:
变化量计算装置,所述变化量计算装置用于计算所述用户的行为相对于由所述鼓励话语装置发出的所述鼓励话语的变化量;以及
评估装置,所述评估装置用于基于由所述变化量计算装置计算出的所述用户的行为的所述变化量,来评估作为所述学习数据的源的所述评估者。
5.根据权利要求4所述的鼓励话语装置,还包括:
呈现装置,所述呈现装置用于为所述用户呈现由所述评估装置对每个所述评估者的评估。
6.一种鼓励话语方法,所述鼓励话语方法用于执行鼓励话语,所述话语用于对与用户的护理或医疗有关的所述用户的行为进行鼓励,所述方法包括下述步骤:
执行对响应于所述鼓励话语的多个用户的反应的检测以及对由多个评估者针对所述鼓励话语的定时和内容的进行评估得到的多个评估值的获取,其中,所述评估值的获取进一步包括对被获取的多个评估值进行加权,并且,当对于任何一个所述评估者的所述评估值等于或小于预定值时,减小由所述评估者赋予的评估值的加权系数;
基于所检测到的反应和所获取的所述多个评估值中的至少一个,来确定所述鼓励话语的定时和内容是否为良好;
对学习数据进行学习,在所述学习数据中,将被确定为良好的所述鼓励话语的定时以及内容与触发信息相关联,所述触发信息是用作当为用户发出鼓励话语时的触发器的信息;以及
基于由所述用户的所述触发信息和所述学习的结果来执行所述鼓励话语。
7.一种存储有程序的计算机可读介质,所述程序用于执行鼓励话语,所述话语用于对与用户的护理或医疗有关的所述用户的行为进行鼓励,所述程序使计算机执行以下处理:
执行对响应于所述鼓励话语的多个用户的反应的检测以及对由多个评估者针对所述鼓励话语的定时和内容的进行评估得到的多个评估值的获取,其中,所述评估值的获取进一步包括对被获取的多个评估值进行加权,并且,当对于任何一个所述评估者的所述评估值等于或小于预定值时,减小由所述评估者赋予的评估值的加权系数;
基于所检测到的反应和所获取的所述多个评估值中的至少一个,来确定所述鼓励话语的定时和内容是否为良好;
对学习数据进行学习,在所述学习数据中,将被确定为良好的所述鼓励话语的定时以及内容与触发信息相关联,所述触发信息是用作当为用户发出鼓励话语时的触发器的信息;以及
基于由所述用户的所述触发信息和所述学习的结果来执行所述鼓励话语。
CN202010046783.2A 2019-01-24 2020-01-16 鼓励话语装置、鼓励话语方法和计算机可读介质 Active CN111475606B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-010050 2019-01-24
JP2019010050A JP7135887B2 (ja) 2019-01-24 2019-01-24 促し発話装置、促し発話方法及びプログラム

Publications (2)

Publication Number Publication Date
CN111475606A CN111475606A (zh) 2020-07-31
CN111475606B true CN111475606B (zh) 2023-07-11

Family

ID=71731504

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010046783.2A Active CN111475606B (zh) 2019-01-24 2020-01-16 鼓励话语装置、鼓励话语方法和计算机可读介质

Country Status (3)

Country Link
US (1) US11361674B2 (zh)
JP (1) JP7135887B2 (zh)
CN (1) CN111475606B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7135886B2 (ja) * 2019-01-24 2022-09-13 トヨタ自動車株式会社 促し発話装置、促し発話方法及びプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011056152A1 (en) * 2009-11-06 2011-05-12 Univerza V Ljubljani Device for exercising the musculoskeletal and nervous system
CN102273323A (zh) * 2009-01-07 2011-12-07 皇家飞利浦电子股份有限公司 智能的可控照明网络及用于其的大纲
CN102567179A (zh) * 2010-12-30 2012-07-11 上海量明科技发展有限公司 一种基于输入法的定时提醒信息方法及系统
CN103380449A (zh) * 2011-02-24 2013-10-30 浦项工科大学校产学协力团 对话管理方法和执行该方法的装置
CN106200976A (zh) * 2016-07-19 2016-12-07 深圳市金立通信设备有限公司 一种运动激励方法及终端
CN106921794A (zh) * 2017-02-09 2017-07-04 歌尔股份有限公司 一种智能设备上的闹钟实现方法和装置
CN107909948A (zh) * 2017-12-15 2018-04-13 惠州市敦雅科技有限公司 一种健身专用语音鼓励设备

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2659862A1 (en) 2006-08-04 2008-02-28 Physicians Ancillary Instrument Development, Inc. Method of improving medical apparatus in order to replace ancillary medical assistance by employing audible verbal human sounding voices to prompt therapeutic usage and provide guidance, measurements, encouragement and response, as needed, to the patient, by using electronic technology
US9009082B1 (en) * 2008-06-30 2015-04-14 Amazon Technologies, Inc. Assessing user-supplied evaluations
US9177257B2 (en) * 2012-08-30 2015-11-03 International Business Machines Corporation Non-transitory article of manufacture and system for providing a prompt to user for real-time cognitive assistance
CN105078479B (zh) * 2014-04-21 2021-05-28 麦克赛尔株式会社 脑功能障碍评价装置
JP2015219583A (ja) 2014-05-14 2015-12-07 日本電信電話株式会社 話題決定装置、発話装置、方法、及びプログラム
JP6573272B2 (ja) * 2014-12-19 2019-09-11 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 生成装置、生成方法、及び、プログラム
US9336268B1 (en) * 2015-04-08 2016-05-10 Pearson Education, Inc. Relativistic sentiment analyzer
JP6737875B2 (ja) 2016-03-30 2020-08-12 川崎重工業株式会社 鞍乗型車両用処理装置
US9947319B1 (en) * 2016-09-27 2018-04-17 Google Llc Forming chatbot output based on user state
JP2018054850A (ja) * 2016-09-28 2018-04-05 株式会社東芝 情報処理システム、情報処理装置、情報処理方法、及びプログラム
CN107888653A (zh) * 2016-09-30 2018-04-06 本田技研工业株式会社 发话装置、沟通装置和移动体
US10147424B1 (en) * 2016-10-26 2018-12-04 Intuit Inc. Generating self-support metrics based on paralinguistic information
JP6720093B2 (ja) 2017-01-04 2020-07-08 オムロン株式会社 ユーザ端末装置
DK201770431A1 (en) * 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
JP6400871B1 (ja) 2018-03-20 2018-10-03 ヤフー株式会社 発話制御装置、発話制御方法、および発話制御プログラム
US11301760B2 (en) * 2018-11-28 2022-04-12 International Business Machines Corporation Automated postulation thresholds in computer-based questioning

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102273323A (zh) * 2009-01-07 2011-12-07 皇家飞利浦电子股份有限公司 智能的可控照明网络及用于其的大纲
WO2011056152A1 (en) * 2009-11-06 2011-05-12 Univerza V Ljubljani Device for exercising the musculoskeletal and nervous system
CN102567179A (zh) * 2010-12-30 2012-07-11 上海量明科技发展有限公司 一种基于输入法的定时提醒信息方法及系统
CN103380449A (zh) * 2011-02-24 2013-10-30 浦项工科大学校产学协力团 对话管理方法和执行该方法的装置
CN106200976A (zh) * 2016-07-19 2016-12-07 深圳市金立通信设备有限公司 一种运动激励方法及终端
CN106921794A (zh) * 2017-02-09 2017-07-04 歌尔股份有限公司 一种智能设备上的闹钟实现方法和装置
CN107909948A (zh) * 2017-12-15 2018-04-13 惠州市敦雅科技有限公司 一种健身专用语音鼓励设备

Also Published As

Publication number Publication date
JP2020119288A (ja) 2020-08-06
US11361674B2 (en) 2022-06-14
US20200242966A1 (en) 2020-07-30
CN111475606A (zh) 2020-07-31
JP7135887B2 (ja) 2022-09-13

Similar Documents

Publication Publication Date Title
KR102363794B1 (ko) 정보 제공 방법 및 이를 지원하는 전자 장치
EP3582123A1 (en) Emotion state prediction method and robot
CN109460752B (zh) 一种情绪分析方法、装置、电子设备及存储介质
US10726846B2 (en) Virtual health assistant for promotion of well-being and independent living
US20180008191A1 (en) Pain management wearable device
JP7285589B2 (ja) 対話型健康状態評価方法およびそのシステム
KR102166124B1 (ko) 기계학습 기반 여성생체신호 분석과 월경통증 예측 통한 여성 질환 예방 방안
JP7060088B2 (ja) 情報処理装置及び情報処理方法
KR20180109633A (ko) 음성 인식 서비스 운용 방법, 이를 지원하는 전자 장치 및 시스템
WO2019132772A1 (en) Method and system for monitoring emotions
WO2018116703A1 (ja) 表示制御装置、表示制御方法及びコンピュータプログラム
US20170316164A1 (en) Method and device for estimating a condition of a person
JP2018005284A (ja) 情報処理方法、情報処理装置及び情報処理プログラム
CN111475606B (zh) 鼓励话语装置、鼓励话语方法和计算机可读介质
JP7027752B2 (ja) 情報処理装置、情報処理方法、プログラム、及び情報処理システム
JP5187450B2 (ja) 予測血糖値算出装置、予測血糖値算出方法
CN110473616B (zh) 一种语音信号处理方法、装置及系统
KR20130032998A (ko) 이동 단말기와 주변기기를 이용한 사용자의 감성인지 시스템
US11615793B1 (en) Voice assistant configured to leverage information from sensing devices
US20220148089A1 (en) Information processing apparatus, information processing method, and recording medium
US10079074B1 (en) System for monitoring disease progression
WO2023058200A1 (ja) 疲労度算出装置、疲労度算出方法及び記憶媒体
WO2022208873A1 (ja) ストレス推定装置、ストレス推定方法及び記憶媒体
EP3773184A1 (en) Method and apparatus for determining the impact of behavior-influenced activities on the health level of a user
US20220108802A1 (en) Techniques for selecting and presenting a customized health related feature for a user of an input/output device

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant