CN111477308A - 促进发话装置、促进发话方法及程序 - Google Patents

促进发话装置、促进发话方法及程序 Download PDF

Info

Publication number
CN111477308A
CN111477308A CN202010069541.5A CN202010069541A CN111477308A CN 111477308 A CN111477308 A CN 111477308A CN 202010069541 A CN202010069541 A CN 202010069541A CN 111477308 A CN111477308 A CN 111477308A
Authority
CN
China
Prior art keywords
user
speech
information
unit
promoting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010069541.5A
Other languages
English (en)
Other versions
CN111477308B (zh
Inventor
堀达朗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of CN111477308A publication Critical patent/CN111477308A/zh
Application granted granted Critical
Publication of CN111477308B publication Critical patent/CN111477308B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/009Nursing, e.g. carrying sick persons, pushing wheelchairs, distributing drugs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Computational Linguistics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Business, Economics & Management (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nursing (AREA)
  • Databases & Information Systems (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

本发明提供一种促进发话装置、促进发话方法及程序,促进发话装置对各用户进行用于促进该各用户的行动的促进发话。促进发话装置具备:状态检测单元,检测各用户的状态;信息取得单元,取得与各用户的护理或医疗相关联的信息;及促进发话单元,将由状态检测单元检测到的各用户的状态与由信息取得单元取得的与各用户的护理或医疗相关联的信息建立关联,以促进各用户的交流的方式对各用户进行促进发话。

Description

促进发话装置、促进发话方法及程序
技术领域
本发明涉及进行促进用户的行动的发话的促进发话装置、促进发话方法及程序。
背景技术
已知有基于表示用户的行动履历的语言信息来决定向用户提供的话题的装置(例如,参照日本特开2015-219583号公报)。
发明内容
在上述装置中,掌握1名用户的状态并与装置进行对话。因而,增加用户的活动量存在界限。
本发明为了解决这样的问题点而完成,其主要目的在于,提供能够有效地增加用户的活动量的促进发话装置、促进发话方法及程序。
用于达成上述目的的本发明的一方案是一种促进发话装置,对各用户进行用于促进该各用户的行动的促进发话,其特征在于,具备:
状态检测单元,检测所述各用户的状态;
信息取得单元,取得与所述各用户的护理或医疗相关联的信息;及
促进发话单元,将由所述状态检测单元检测到的各用户的状态与由所述信息取得单元取得的各用户的护理或医疗相关联的信息建立关联,以促进所述各用户的交流的方式对所述各用户进行所述促进发话。
在该一方案中,可以是,与所述各用户的护理或医疗相关联的信息包括表示各用户的移动能力的信息,所述促进发话单元将所述各用户的状态与各用户的移动能力的信息建立关联,以促进所述各用户的交流的方式进行所述促进发话。
在该一方案中,可以是,与所述各用户的护理或医疗相关联的信息包括与各用户的病床相关的信息,所述促进发话单元以促进同一病床的各用户的交流的方式进行所述促进发话。
在该一方案中,可以是,所述信息取得单元还取得表示所述各用户的特性的用户简介信息,所述促进发话单元将所述各用户的状态与由所述信息取得单元取得的与各用户的护理或医疗相关联的信息和所述用户简介信息建立关联,以促进所述各用户的交流的方式进行所述促进发话。
在该一方案中,可以是,所述用户简介信息包括表示所述各用户间的人际关系的人际关系信息、年龄、兴趣、性别及出身中的至少1个。
在该一方案中,可以是,所述促进发话单元在基于所述用户简介信息的人际关系信息而判断为所述各用户的人际关系良好的情况下,进行促进该各用户的交流的促进发话。
在该一方案中,可以是,还具备报告单元,该报告单元在促进发话单元基于各用户的移动能力的信息而判断为进行所述促进发话的用户需要借助辅助者的辅助而移动的情况下,将该意思对辅助者报告。
用于达成上述目的的本发明的一方案也可以是一种促进发话方法,对各用户进行用于促进该各用户的行动的促进发话,其特征在于,包括以下步骤:
检测所述各用户的状态;
取得与所述各用户的护理或医疗相关联的信息;及
将所述检测到的各用户的状态与所述取得的与各用户的护理或医疗相关联的信息建立关联,以促进所述各用户的交流的方式对所述各用户进行所述促进发话。
用于达成上述目的的本发明的一方案还可以是一种程序,对各用户进行用于促进该各用户的行动的促进发话,其特征在于,使计算机执行以下处理:
检测所述各用户的状态;
取得与所述各用户的护理或医疗相关联的信息;
将所述检测到的各用户的状态与所述取得的与各用户的护理或医疗相关联的信息建立关联,以促进所述各用户的交流的方式对所述各用户进行所述促进发话。
根据本发明,能够提供能够有效地增加用户的活动量的促进发话装置、促进发话方法及程序。
本公开的上述和其他的目的、特征及优点将会根据下文给出的详细描述和附图而被更加充分地理解,附图仅以示例的方式给出,因此不应视为限制本公开。
附图说明
图1是示出本发明的实施方式1的促进发话装置的概略的系统结构的框图。
图2是示出促进发话部的概略的结构的框图。
图3是示出本发明的实施方式1的促进发话方法的流程的流程图。
图4是示出本发明的实施方式3的促进发话装置的概略的系统结构的框图。
图5是示出本发明的实施方式3的促进发话方法的流程的流程图。
具体实施方式
实施方式1
以下,参照附图来对本发明的实施方式进行说明。图1是示出本发明的实施方式1的促进发话装置的概略的系统结构的框图。本实施方式1的促进发话装置1与用户的护理或医疗相关联,对各用户进行用于促进该各用户的行动的促进发话。由此,能够促进各用户的交流,能够提高用户的活动量。
用户是医疗设施(医院等)的患者、护理设施的被护理者、老人之家的高龄者等。促进发话装置1通过以促进各用户间的交流的方式进行促进发话来提高各用户的活动量。促进发话装置1例如搭载于机器人、PC(Personal Computer:个人计算机)、便携终端(智能手机、平板等)等,与用户进行对话。
在以往的对话装置中,掌握1名用户的状态并与装置进行对话。因而,增加用户的活动量存在界限。
相对于此,本实施方式1的促进发话装置1将各用户的状态和与各用户的护理或医疗相关联的信息建立关联,以促进各用户的交流的方式对各用户进行促进发话。由此,能够越过人与装置的限制,积极地促进多个用户间的交流,能够有效地增加用户的活动量。而且,不仅是当前的各用户的状态,能够也考虑与各用户的护理或医疗相关联的信息而准确地促进各用户的交流。即,能够有效地增加用户的活动量。
需要说明的是,促进发话装置1例如以由进行运算处理等的CPU(CentralProcessing Unit:中央处理单元)、存储器、与外部进行信号的输入输出的接口部(I/F)等构成的微型计算机为中心,被设为硬件结构,所述存储器由存储有由CPU执行的运算程序等的ROM(Read Only Memory:只读存储器)和RAM(Random Access Memory:随机存取存储器)构成。CPU、存储器及接口部经由数据库等而相互连接。
本实施方式1的促进发话装置1具备检测各用户的状态的状态检测部2、取得与各用户的护理或医疗相关联的信息(以下,称作护理医疗信息)的信息取得部3及以促进各用户的交流的方式进行促进发话的促进发话部4。状态检测部2、信息取得部3及促进发话部4经由有线或无线而相互连接。
状态检测部2是状态检测单元的一具体例。状态检测部2分别设置于各用户的房间内等。状态检测部2例如可以设置于在各用户的房间内设置的对话机器人或AI(artificialintelligence:人工智能)扬声器等。
状态检测部2例如检测各用户睡着的状态、醒着的状态、正在匆忙行动的状态(正在应对来客的状态等)、闲暇状态等当前的用户的状态。状态检测部2使用相机、麦克风、体感(Kinect)传感器等来检测当前的用户的状态。状态检测部2例如能够通过对由相机拍摄到的各用户的图像进行图案匹配处理来检测用户的状态。
状态检测部2也可以使用神经网络等来学习各用户的状态,使用该学习结果来检测各用户的状态。例如,关于闲暇状态的用户,处于醒着的状态(睁眼的状态)且什么都没做(将不动的状态持续规定时间以上)的用户符合。状态检测部2将检测到的用户的状态向信息取得部3及促进发话部4输出。
信息取得部3是信息取得单元的一具体例。信息取得部3取得各用户的护理医疗信息。各用户的护理医疗信息例如包括不能移动(卧床不起的状态)、能够步行、能够借助拐杖步行、能够借助轮椅移动、能够通过辅助者的辅助而移动(以下,称作辅助移动)等表示各用户的移动能力的信息。而且,各用户的护理医疗信息包括与各用户的病床的种类(一般病床、疗养病床等)相关的信息。
信息取得部3也可以通过对来自状态检测部2的用户的图像进行图案匹配处理等来取得各用户的护理医疗信息。信息取得部3还可以基于各用户与该各用户的护理医疗信息预先建立了对应的表信息来计算各用户的护理医疗信息。例如,信息取得部3可以基于来自状态检测部2的用户的图像来确定各用户,从表信息取得确定出的用户的护理医疗信息。表信息可以预先设定于信息取得部3。而且,信息取得部3还可以使用神经网络等来学习各用户的护理医疗信息,使用该学习结果来检测各用户的护理医疗信息。信息取得部3将取得的各用户的护理医疗信息向促进发话部4输出。
促进发话部4是促进发话单元的一具体例。促进发话部4将由状态检测部2检测到的各用户的状态与由信息取得部3取得的各用户的护理医疗信息建立关联,以促进各用户的交流的方式对各用户进行促进发话。
图2是示出促进发话部的概略的结构的框图。促进发话部4具有选择促进交流的用户且决定对于该用户的促进发话的内容的发话决定部41和按照该决定来进行发话的发话部42。
上述的信息取得部3及发话决定部41也可以设置于外部的服务器等。状态检测部2、信息取得部3、发话决定部41及发话部42也可以经由网络而相互通信连接。
发话部42例如构成为AI扬声器等扬声器。发话部42分别设置于各用户的房间内等。发话部42例如可以设置于在各用户的房间内设置的对话机器人。发话部42和状态检测部2也可以一体地构成。各发话部42和各房间的用户预先建立对应,设定于发话决定部41。发话决定部41也可以基于来自状态检测部2的各用户的图像来确定各用户,将各用户与各发话部42建立对应。
发话决定部41以对与用户建立了对应的发话部42进行决定出的促进发话的内容的发话的方式,对发话部42输出指示信号。发话部42按照来自发话决定部41的指示信号而对各用户输出促进发话的语音。
发话决定部41基于由状态检测部2检测到的各用户的状态与由信息取得部3取得的各用户的护理医疗信息组合信息,从多个用户中决定促进各用户的交流的2名以上的用户。在组合信息中,关于各用户的状态及各用户的护理医疗信息,设定有向各用户促进交流时的用户的组合。
例如,在组合信息中,设定有将醒着的状态的各用户组合的信息,设定有不将睡着的状态的用户组合的信息。在组合信息中,设定有将闲暇状态的各用户组合的信息,设定有不将正在匆忙行动的状态的用户组合的信息。在组合信息中,设定有将同一种类的病床的用户彼此组合的信息。
发话决定部41基于组合信息,将醒着的状态的用户A和醒着的状态的用户B决定为促进交流的用户。发话决定部41基于组合信息,将闲暇状态的用户A、闲暇状态的用户B及闲暇状态的用户C决定为促进交流的用户。发话决定部41基于组合信息,将闲暇状态的一般病床的用户A、闲暇状态的一般病床的用户B及闲暇状态的一般病床的用户C决定为促进交流的用户。
这样,通过积极地促进醒着的状态的用户、闲暇状态的用户、同一种类的病床的用户等用户的交流,能够有效地增加用户的活动量。组合信息预先设定于发话决定部41。组合信息能够经由输入装置等而由用户任意地设定变更。
接着,发话决定部41基于各用户的护理医疗信息来决定对于促进上述交流的各用户的发话内容。发话决定部41也可以基于表示各用户的移动能力的信息来决定对于促进交流的各用户的发话内容。
例如,发话决定部41以使移动能力高的用户向比其移动能力低的移动能力的用户的场所移动的方式决定促进发话的内容。用户的移动能力按照能够进行通常的步行、能够借助拐杖步行、能够借助轮椅移动、不能移动的顺序从高到低。
因此,发话决定部41也可以基于各用户的护理医疗信息,对移动能力高的能够步行的用户A以使其向移动能力低的轮椅的用户B的场所移动的方式决定促进发话的内容。
更具体而言,发话决定部41对用户A决定“不去用户B先生/女士那里吗?”这一促进发话的内容。与用户A建立了对应的发话部42按照发话决定部41的促进发话的内容,将“不去用户B先生/女士那里吗?”这一语音对用户A输出。
另一方面,发话决定部41对用户B决定“等会用户A先生/女士要来聊天哦。”这一促进发话的内容。与用户B建立了对应的发话部42按照发话决定部41的促进发话的内容,将“等会用户A先生/女士要来聊天哦。”这一语音对用户B输出。
发话决定部41也可以基于各用户的护理医疗信息,以使各用户向处于交流的各用户能够移动的范围内的规定场所(休息处、共同空间、食堂、咖啡馆等)移动的方式决定促进发话的内容。规定场所可以预先设定于发话决定部41。
例如,在用户A及用户B能够借助轮椅移动的情况下,用户A及B能够移动的范围限定于比较近的休息处等。发话决定部41基于各用户的护理医疗信息,对用户A及用户B以使其向休息处移动的方式决定促进发话的内容。
更具体而言,发话决定部41对用户A决定“不去休息处吗?B先生/女士在哦。”这一促进发话的内容。另一方面,发话决定部41对用户B决定“不去休息处吗?A先生/女士在哦。”这一促进发话的内容。这样,能够考虑各用户的移动能力来以促进各用户的交流的方式进行促进发话,能够有效地增加用户的活动量。
状态检测部2也可以检测用户对于发话部42的促进发话的反应。发话决定部41也可以基于由状态检测部2检测到的用户对于促进发话的反应来变更组合信息。例如,发话决定部41基于表示用户对于促进发话的反应的图像等,在尽管进行了促进发话用户却没行动的情况下,在组合信息中进行除去该用户的组合的变更。由此,能够考虑用户对于促进发话的反应而更高效地促进各用户的交流。
接着,详细说明本实施方式1的促进发话方法的流程。图3是示出本实施方式1的促进发话方法的流程的流程图。
状态检测部2使用相机等来检测当前的用户的状态,将检测到的用户的状态向信息取得部3及促进发话部4输出(步骤S101)。
信息取得部3基于来自状态检测部2的用户的图像来取得各用户的护理医疗信息,将取得的各用户的护理医疗信息向促进发话部4输出(步骤S102)。
促进发话部4的发话决定部41基于由状态检测部2检测到的各用户的状态、由信息取得部3取得的各用户的护理医疗信息及组合信息,从多个用户中决定促进各用户的交流的2名以上的用户(步骤S103)。
发话决定部41基于各用户的护理医疗信息来决定对于上述决定出的促进交流的各用户的发话内容(步骤S104)。
发话决定部41以对与决定出的用户建立了对应的发话部42进行决定出的促进发话的内容的发话的方式,对发话部42输出指示信号。发话部42按照来自发话决定部41的指示信号而对各用户输出促进发话的语音(步骤S105)。
以上,本实施方式1的促进发话装置1将由状态检测部2检测到的各用户的状态与由信息取得部3取得的与各用户的护理或医疗相关联的信息建立关联,以促进各用户的交流的方式对各用户进行促进发话。由此,能够有效地增加用户的活动量。
实施方式2
在本发明的实施方式2中,信息取得部3进一步取得表示各用户的特性的用户简介信息。促进发话部4将由状态检测部2检测到的各用户的状态与由信息取得部3取得的各用户的护理医疗信息和用户简介信息建立关联,以促进各用户的交流的方式进行促进发话。由此,不仅是当前的各用户的状态及各用户的护理医疗信息,能够也可考虑用户简介信息而更准确地促进各用户的交流。即,能够更有效地增加用户的活动量。
用户简介信息包括表示各用户间的人际关系的人际关系信息、年龄、兴趣、性别及出身中的至少1个。人际关系信息例如是表示各用户的关系的好坏的信息。
信息取得部3也可以基于各用户与该各用户的用户简介信息预先建立了对应的表信息来计算各用户的用户简介信息。例如,信息取得部3可以基于来自状态检测部2的用户的图像来确定各用户,从表信息取得各用户的用户简介信息。表信息可以预先设定于信息取得部3。
促进发话部4的发话决定部41基于由状态检测部2检测到的各用户的状态、由信息取得部3取得的各用户简介信息的人际关系信息及组合信息,从多个用户中决定促进各用户的交流的2名以上的用户。
在组合信息中,除了上述的组合信息之外,还设定有将人际关系良好的各用户组合的信息、不将人际关系差的各用户组合的信息等。在人际关系信息中,例如包括用户A和用户B的人际关系良好、用户C和用户D的人际关系差等表示各用户间的关系的好坏的信息。促进发话部4基于人际关系信息和组合信息来决定促进人际关系良好的各用户的交流的促进发话。由此,能够更顺利地促进各用户的交流,能够更有效地增加用户的活动量。
在组合信息中,也可以除了上述的人际关系的组合信息之外,还设定有将同一年龄层、同一兴趣、同一性别及同一出身的用户组合的信息。
例如,发话决定部41基于各用户的状态、各用户简介信息的人际关系信息及组合信息,将关系好的用户A和用户B决定为促进交流的用户。相反,发话决定部41基于各用户的状态、各用户简介信息的人际关系信息及组合信息,不将关系差的用户C和用户D决定为促进交流的用户。发话决定部41基于各用户的状态、各用户的护理医疗信息、各用户简介信息的人际关系信息及组合信息,将关系好的同一病床的用户A和用户B决定为促进交流的用户。
这样,不仅是当前的各用户的状态及各用户的护理医疗信息,能够也考虑人际关系、病床的种类等用户简介信息而更顺利地促进各用户的交流,能够更有效地增加用户的活动量。
实施方式3
图4是示出本发明的实施方式3的促进发话装置的概略的系统结构的框图。在本发明的实施方式3中,在发话决定部41基于各用户的护理医疗信息而判断为为了促进交流的用户移动而需要辅助(符合“辅助移动”)的情况下,报告部5将该意思向辅助者报告。由此,需要辅助的用户能够自动地呼叫辅助者,能够通过该辅助者的辅助而移动,能够与其他用户积极地交流。因此,能够更有效地增加用户的活动量。
发话决定部41基于由状态检测部2检测到的各用户的状态、由信息取得部3取得的各用户的护理医疗信息及组合信息,从多个用户中决定促进交流的各用户。
发话决定部41在基于各用户的护理医疗信息而判断为决定出的各用户符合“辅助移动”的情况下,对报告部5以向辅助者报告该意思的方式发送报告信号。报告部5是报告单元的一具体例。报告部5根据来自发话决定部41的报告信号,例如将“用户A先生/女士正在呼叫。”等报告对辅助者进行。发话决定部和报告部5通过有线或无线而通信连接。报告部5由输出语音的扬声器、进行显示的显示器等构成。报告部5设置于辅助者常驻的等候室等。
例如,发话决定部41基于由状态检测部2检测到的各用户的状态、由信息取得部3取得的各用户的护理医疗信息及组合信息,将促进交流的各用户决定为用户A及用户B。
发话决定部41基于用户A及用户B的护理医疗信息,以使用户A及B向处于用户A及用户B能够移动的范围的共用空间等移动的方式决定促进发话的内容。与用户A建立了对应的发话部42按照发话决定部41的促进发话的内容,将“不在共用空间与用户B先生/女士聊天吗?”这一语音对用户A输出。另一方面,与用户B建立了对应的发话部42按照发话决定部41的促进发话的内容,将“不在共用空间与用户A先生/女士聊天吗?这一语音对用户B输出。
同时,发话决定部41在基于各用户的护理医疗信息而判断为决定出的用户A及用户B符合“辅助移动”的情况下,将向辅助者报告该意思的报告信号对报告部5发送。报告部5根据来自发话决定部41的报告信号,将“用户A及用户B先生/女士需要辅助。”等报告对辅助者进行。这样,需要辅助的用户A及用户B能够自动地呼叫辅助者,能够通过该辅助者的辅助而向共用空间移动,能够积极地交流。因此,能够更有效地增加用户A及用户B的活动量。
接着,详细说明本实施方式3的促进发话方法的流程。图5是示出本实施方式3的促进发话方法的流程的流程图。
状态检测部2使用相机等来检测当前的用户的状态,将检测到的用户的状态向信息取得部3及促进发话部4输出(步骤S301)。
信息取得部3基于来自状态检测部2的用户的图像而取得各用户的护理医疗信息,将取得的各用户的护理医疗信息向促进发话部4输出(步骤S302)。
促进发话部4的发话决定部41基于由状态检测部2检测到的各用户的状态、由信息取得部3取得的各用户的护理医疗信息及组合信息,从多个用户中决定促进交流的各用户(步骤S303)。
发话决定部41基于各用户的护理医疗信息来决定对于上述决定出的促进交流的各用户的发话内容(步骤S304)。
发话决定部41以对与决定出的用户建立了对应的发话部42进行决定出的促进发话的内容的发话的方式,对发话部42输出指示信号。发话部42按照来自发话决定部41的指示信号而对各用户输出促进发话的语音(步骤S305)。
发话决定部41基于各用户的护理医疗信息来判断决定出的各用户是否符合“辅助移动”(步骤S306)。发话决定部41在判断为决定出的各用户符合“辅助移动”的情况下(步骤S306的是),经由报告部5而向辅助者报告该意思(步骤S307)。另一方面,发话决定部41在判断为决定出的各用户不符合“辅助移动”的情况下(步骤S306的否),结束本处理。
需要说明的是,上述(步骤S306)~(步骤S307)的处理也可以在上述(步骤S304)~(步骤S305)的处理之前执行或同时执行。
虽然说明了本发明的一些实施方式,但这些实施方式作为例而展示,并非意在限定发明的范围。这些新颖的实施方式能够以其他各种各样的方式来实施,能够在不脱离发明的主旨的范围内进行各种省略、置换、变更。这些实施方式及其变形包含于发明的范围、主旨,并且包含于权利要求书所记载的发明及其均等的范围。
本发明例如也能够将图3及图5所示的处理通过使CPU执行计算机程序而实现。
程序能够使用各种各样的类型的非暂时性的计算机可读介质(non-transitorycomputer readable medium)来保存,并向计算机供给。非暂时性的计算机可读介质包括各种各样的类型的存在实体的记录介质(tangible storage medium)。非暂时性的计算机可读介质的例包括磁记录介质(例如软盘、磁带、硬盘驱动器)、光磁记录介质(例如光磁盘)、CD-ROM(Read Only Memory:只读存储器)、CD-R、CD-R/W、半导体存储器(例如,掩模ROM、PROM(Programmable ROM:可编程只读存储器)、EPROM(Erasable PROM:可擦除只读存储器)、快闪ROM、RAM(random access memory:随机存取存储器))。
程序也可以由各种各样的类型的暂时性的计算机可读介质(transitorycomputer readable medium)向计算机供给。暂时性的计算机可读介质的例包括电信号、光信号及电磁波。暂时性的计算机可读介质能够经由电线及光纤等有线通信路或无线通信路而将程序向计算机供给。
根据这样描述的本公开,显然,本公开的实施例能够以各种方式进行变更。这样的变化不应被认为是背离本公开的精神和范围,并且对于本领域的技术人员显而易见的所有这样的修改旨在包含于所附权利要求的范围内。

Claims (9)

1.一种促进发话装置,对各用户进行用于促进该各用户的行动的促进发话,其特征在于,具备:
状态检测单元,检测所述各用户的状态;
信息取得单元,取得与所述各用户的护理或医疗相关联的信息;及
促进发话单元,将由所述状态检测单元检测到的各用户的状态与由所述信息取得单元取得的与各用户的护理或医疗相关联的信息建立关联,以促进所述各用户的交流的方式对所述各用户进行所述促进发话。
2.根据权利要求1所述的促进发话装置,其特征在于,
与所述各用户的护理或医疗相关联的信息包括表示各用户的移动能力的信息,
所述促进发话单元将所述各用户的状态与各用户的移动能力的信息建立关联,以促进所述各用户的交流的方式进行所述促进发话。
3.根据权利要求1或2所述的促进发话装置,其特征在于,
与所述各用户的护理或医疗相关联的信息包括与各用户的病床相关的信息,
所述促进发话单元以促进同一病床的各用户的交流的方式进行所述促进发话。
4.根据权利要求1~3中任一项所述的促进发话装置,其特征在于,
所述信息取得单元还取得表示所述各用户的特性的用户简介信息,
所述促进发话单元将所述各用户的状态与由所述信息取得单元取得的与各用户的护理或医疗相关联的信息和所述用户简介信息建立关联,以促进所述各用户的交流的方式进行所述促进发话。
5.根据权利要求4所述的促进发话装置,其特征在于,
所述用户简介信息包括表示所述各用户间的人际关系的人际关系信息、年龄、兴趣、性别及出身中的至少1个。
6.根据权利要求5所述的促进发话装置,其特征在于,
所述促进发话单元在基于所述用户简介信息的人际关系信息而判断为所述各用户的人际关系良好的情况下,进行促进该各用户的交流的促进发话。
7.根据权利要求2所述的促进发话装置,其特征在于,
还具备报告单元,该报告单元在促进发话单元基于各用户的移动能力的信息而判断为进行所述促进发话的用户需要借助辅助者的辅助而移动的情况下,将该意思对辅助者报告。
8.一种促进发话方法,对各用户进行用于促进该各用户的行动的促进发话,其特征在于,包括以下步骤:
检测所述各用户的状态;
取得与所述各用户的护理或医疗相关联的信息;
将所述检测到的各用户的状态与所述取得的与各用户的护理或医疗相关联的信息建立关联,以促进所述各用户的交流的方式对所述各用户进行所述促进发话。
9.一种计算机可读介质,保存对各用户进行用于促进该各用户的行动的促进发话的程序,其特征在于,所述程序使计算机执行以下处理:
检测所述各用户的状态;
取得与所述各用户的护理或医疗相关联的信息;
将所述检测到的各用户的状态与所述取得的与各用户的护理或医疗相关联的信息建立关联,以促进所述各用户的交流的方式对所述各用户进行所述促进发话。
CN202010069541.5A 2019-01-24 2020-01-21 促进发话装置、促进发话方法及程序 Active CN111477308B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-010049 2019-01-24
JP2019010049A JP7135886B2 (ja) 2019-01-24 2019-01-24 促し発話装置、促し発話方法及びプログラム

Publications (2)

Publication Number Publication Date
CN111477308A true CN111477308A (zh) 2020-07-31
CN111477308B CN111477308B (zh) 2023-08-25

Family

ID=71733749

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010069541.5A Active CN111477308B (zh) 2019-01-24 2020-01-21 促进发话装置、促进发话方法及程序

Country Status (3)

Country Link
US (1) US11423894B2 (zh)
JP (1) JP7135886B2 (zh)
CN (1) CN111477308B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015066639A1 (en) * 2013-11-04 2015-05-07 Sidra Medical and Research Center System to facilitate and streamline communication and information-flow in healthy-care
JP2016110331A (ja) * 2014-12-04 2016-06-20 富士通株式会社 サービス提供方法、患者支援プログラム及び患者支援装置
US20170277268A1 (en) * 2016-03-25 2017-09-28 Fuji Xerox Co., Ltd. Information presentation apparatus and information processing system
WO2017162808A1 (en) * 2016-03-23 2017-09-28 Koninklijke Philips N.V. Systems and methods for matching subjects with care consultants in telenursing call centers
CN108092880A (zh) * 2017-12-13 2018-05-29 安徽跟屁虫科技有限公司 一种基于niwo社交软件系统的个性化集成系统
CN108511083A (zh) * 2018-03-29 2018-09-07 江苏福美裕医疗科技有限公司 基于3d的智能医患交互演示方法及系统
CN108875993A (zh) * 2017-05-16 2018-11-23 清华大学 邀请行为预测方法及装置

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020002558A1 (en) * 2000-01-14 2002-01-03 Krause Thomas W. Method and apparatus for providing customized date information
TWI221574B (en) * 2000-09-13 2004-10-01 Agi Inc Sentiment sensing method, perception generation method and device thereof and software
JP2003296430A (ja) * 2002-03-29 2003-10-17 Fujitsu Ltd 介助者手配システム、介助者手配装置、および介助者手配プログラム
US20050055242A1 (en) * 2002-04-30 2005-03-10 Bryan Bello System and method for medical data tracking, analysis and reporting for healthcare system
US8781859B2 (en) * 2006-08-30 2014-07-15 Carepartners Plus Patient-interactive healthcare management
US20090002178A1 (en) * 2007-06-29 2009-01-01 Microsoft Corporation Dynamic mood sensing
US20100076334A1 (en) * 2008-09-19 2010-03-25 Unither Neurosciences, Inc. Alzheimer's cognitive enabler
US8054964B2 (en) * 2009-04-30 2011-11-08 Avaya Inc. System and method for detecting emotions at different steps in a communication
US10217085B2 (en) * 2009-06-22 2019-02-26 Nokia Technologies Oy Method and apparatus for determining social networking relationships
EP2713881B1 (en) * 2011-06-01 2020-10-07 Koninklijke Philips N.V. Method and system for assisting patients
JP5729192B2 (ja) * 2011-07-22 2015-06-03 大日本印刷株式会社 交流支援サーバ装置、交流支援システム及び交流支援サーバプログラム
US9536049B2 (en) * 2012-09-07 2017-01-03 Next It Corporation Conversational virtual healthcare assistant
US9865176B2 (en) * 2012-12-07 2018-01-09 Koninklijke Philips N.V. Health monitoring system
US20140247155A1 (en) * 2013-03-04 2014-09-04 Hello Inc. Methods using a mobile device to monitor an individual's activities, behaviors, habits or health parameters
US9704209B2 (en) * 2013-03-04 2017-07-11 Hello Inc. Monitoring system and device with sensors and user profiles based on biometric user information
US20150032535A1 (en) * 2013-07-25 2015-01-29 Yahoo! Inc. System and method for content based social recommendations and monetization thereof
US20150086948A1 (en) * 2013-09-25 2015-03-26 Georgianna Donadio Behavioral change model with evidence-based, clinically proven communication skills and methods for providing the online education of the same
WO2015066516A1 (en) * 2013-10-31 2015-05-07 Sina Fateh Method of and apparatus for targeted interactive health status notification and confirmation
JP2015219583A (ja) 2014-05-14 2015-12-07 日本電信電話株式会社 話題決定装置、発話装置、方法、及びプログラム
WO2015191562A1 (en) * 2014-06-09 2015-12-17 Revon Systems, Llc Systems and methods for health tracking and management
US9570074B2 (en) * 2014-12-02 2017-02-14 Google Inc. Behavior adjustment using speech recognition system
WO2016147126A1 (en) * 2015-03-19 2016-09-22 Koninklijke Philips N.V. Systems and methods for building supportive relationships between patients and caregivers
JP6210239B2 (ja) * 2015-04-20 2017-10-11 本田技研工業株式会社 会話解析装置、会話解析方法及びプログラム
JP6391887B2 (ja) * 2016-04-11 2018-09-19 三菱電機株式会社 応答生成装置、対話制御システムおよび応答生成方法
US10726846B2 (en) * 2016-06-03 2020-07-28 Sri International Virtual health assistant for promotion of well-being and independent living
JP6592037B2 (ja) * 2017-06-16 2019-10-16 ヤフー株式会社 配信装置、配信方法および配信プログラム
US10546655B2 (en) * 2017-08-10 2020-01-28 Nuance Communications, Inc. Automated clinical documentation system and method
JP7135887B2 (ja) * 2019-01-24 2022-09-13 トヨタ自動車株式会社 促し発話装置、促し発話方法及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015066639A1 (en) * 2013-11-04 2015-05-07 Sidra Medical and Research Center System to facilitate and streamline communication and information-flow in healthy-care
JP2016110331A (ja) * 2014-12-04 2016-06-20 富士通株式会社 サービス提供方法、患者支援プログラム及び患者支援装置
WO2017162808A1 (en) * 2016-03-23 2017-09-28 Koninklijke Philips N.V. Systems and methods for matching subjects with care consultants in telenursing call centers
US20170277268A1 (en) * 2016-03-25 2017-09-28 Fuji Xerox Co., Ltd. Information presentation apparatus and information processing system
CN108875993A (zh) * 2017-05-16 2018-11-23 清华大学 邀请行为预测方法及装置
CN108092880A (zh) * 2017-12-13 2018-05-29 安徽跟屁虫科技有限公司 一种基于niwo社交软件系统的个性化集成系统
CN108511083A (zh) * 2018-03-29 2018-09-07 江苏福美裕医疗科技有限公司 基于3d的智能医患交互演示方法及系统

Also Published As

Publication number Publication date
US20200243087A1 (en) 2020-07-30
CN111477308B (zh) 2023-08-25
JP2020119287A (ja) 2020-08-06
US11423894B2 (en) 2022-08-23
JP7135886B2 (ja) 2022-09-13

Similar Documents

Publication Publication Date Title
JP5705621B2 (ja) 救命救急補助システムとその方法と救命救急補助装置
Greene et al. IoT-based fall detection for smart home environments
US11064339B2 (en) Emergency event detection and response system
JP7422797B2 (ja) 療養支援システム
US20190069145A1 (en) Emergency response using voice and sensor data capture
JP2015184597A (ja) コミュニケーション支援ロボットシステム
JP2017174266A (ja) 遠隔患者支援システム
JP2018195164A (ja) 解析装置、解析プログラム及び解析方法
JP2019216820A (ja) 支援システム
JP6943490B1 (ja) 見守り支援装置、見守り支援システム、見守り支援方法及びプログラム
JP2019197263A (ja) システム、およびシステムの制御方法
CN111477308A (zh) 促进发话装置、促进发话方法及程序
JP6160324B2 (ja) 看護支援プログラム、看護支援装置および看護支援方法
JP2021146113A (ja) ナースコールシステム
JP2023113525A (ja) 情報処理方法、情報処理装置及びプログラム
JP2021176036A (ja) 情報処理装置および情報処理プログラム
JP7284325B2 (ja) 支援システム
JP7503313B2 (ja) 救急出動支援システム
JP7409313B2 (ja) 情報管理方法、プログラム、情報処理装置、ケア情報管理システム、および、対話端末
JP2021197072A (ja) 制御プログラム、演算装置、制御システム、および制御方法
JP2021176035A (ja) 情報処理装置および情報処理プログラム
JP2023059601A (ja) プログラム、情報処理方法、及び情報処理装置
JP2021189761A (ja) 算出装置、算出システム、プログラムおよび算出方法
JP2017183848A (ja) 端末装置
WO2019239758A1 (ja) レポート出力プログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant