JP2024021234A - Information processing system and information processing method - Google Patents
Information processing system and information processing method Download PDFInfo
- Publication number
- JP2024021234A JP2024021234A JP2022123933A JP2022123933A JP2024021234A JP 2024021234 A JP2024021234 A JP 2024021234A JP 2022123933 A JP2022123933 A JP 2022123933A JP 2022123933 A JP2022123933 A JP 2022123933A JP 2024021234 A JP2024021234 A JP 2024021234A
- Authority
- JP
- Japan
- Prior art keywords
- terminal device
- user
- person
- teacher data
- sensing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 54
- 238000003672 processing method Methods 0.000 title claims abstract description 13
- 238000012545 processing Methods 0.000 claims abstract description 141
- 238000004891 communication Methods 0.000 claims description 53
- 238000004458 analytical method Methods 0.000 claims description 37
- 230000008451 emotion Effects 0.000 claims description 29
- 230000002996 emotional effect Effects 0.000 claims description 16
- 238000000034 method Methods 0.000 description 110
- 230000008569 process Effects 0.000 description 79
- 230000036544 posture Effects 0.000 description 61
- 230000009747 swallowing Effects 0.000 description 59
- 238000001514 detection method Methods 0.000 description 56
- 238000010586 diagram Methods 0.000 description 27
- 238000003384 imaging method Methods 0.000 description 25
- 230000033001 locomotion Effects 0.000 description 21
- 235000012054 meals Nutrition 0.000 description 17
- 238000012986 modification Methods 0.000 description 17
- 230000004048 modification Effects 0.000 description 17
- 235000013305 food Nutrition 0.000 description 15
- 238000012549 training Methods 0.000 description 15
- 230000008859 change Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 230000009471 action Effects 0.000 description 7
- 230000005484 gravity Effects 0.000 description 7
- 238000012797 qualification Methods 0.000 description 7
- 210000001217 buttock Anatomy 0.000 description 6
- 210000003128 head Anatomy 0.000 description 6
- 208000004210 Pressure Ulcer Diseases 0.000 description 5
- 230000006399 behavior Effects 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 230000000474 nursing effect Effects 0.000 description 5
- 230000007958 sleep Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000002349 favourable effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 238000002834 transmittance Methods 0.000 description 4
- 206010003504 Aspiration Diseases 0.000 description 3
- 206010038743 Restlessness Diseases 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 230000029058 respiratory gaseous exchange Effects 0.000 description 3
- 206010012289 Dementia Diseases 0.000 description 2
- 206010062519 Poor quality sleep Diseases 0.000 description 2
- 208000001431 Psychomotor Agitation Diseases 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000001055 chewing effect Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000000611 regression analysis Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000000630 rising effect Effects 0.000 description 2
- 230000000152 swallowing effect Effects 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 206010011224 Cough Diseases 0.000 description 1
- 208000019505 Deglutition disease Diseases 0.000 description 1
- 206010041349 Somnolence Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010224 classification analysis Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000008452 non REM sleep Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000036385 rapid eye movement (rem) sleep Effects 0.000 description 1
- 230000036387 respiratory rate Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Landscapes
- Medical Treatment And Welfare Office Work (AREA)
Abstract
Description
本発明は、情報処理システム及び情報処理方法等に関する。 The present invention relates to an information processing system, an information processing method, and the like.
従来、介助者が被介助者の介助を行う場面において利用されるシステムが知られている。特許文献1には、居住空間にセンサを配置し、当該センサにより取得された検知情報の時間変化に基づいて、居住空間に居住する居住者の状態に関する提供情報を生成する手法が開示されている。 2. Description of the Related Art Conventionally, systems have been known that are used in situations where a caregiver provides assistance to a person being assisted. Patent Document 1 discloses a method of arranging a sensor in a living space and generating provided information regarding the state of a resident living in the living space based on a temporal change in detection information acquired by the sensor. .
また特許文献2には、遠隔医療において、生体情報と、対話装置から取得されるユーザ応答に基づいて、救急車を呼ぶ等のアクションを提供する手法が開示されている。 Additionally, Patent Document 2 discloses a method for providing actions such as calling an ambulance in telemedicine based on biological information and a user response obtained from an interaction device.
介助者による被介助者の介助を適切にサポートする情報処理システム及び情報処理方法等を提供する。 Provided is an information processing system, an information processing method, etc. that appropriately supports assistance of a person being cared for by a carer.
本開示の一態様は、介助における人及び物の少なくとも一方に関する位置の正解を表す教師データに基づく処理を行うポジショニングアプリケーションを記憶し、前記ポジショニングアプリケーションに従って動作する第1端末装置と、前記第1端末装置を用いる第1ユーザに関する前記介助をサポートする第2ユーザによって使用される第2端末装置と、を含み、前記第1端末装置は、前記介助における前記人及び前記物の少なくとも一方に関するセンシング結果を、ネットワークを介して前記第2端末装置に送信し、前記第2端末装置は、前記センシング結果を第2ユーザへ提示し、前記第2ユーザによる前記教師データの設定入力を受け付け、前記第1端末装置は、前記設定入力によって作成された前記教師データに対応する前記ポジショニングアプリケーションに従って動作する情報処理システムに関係する。 One aspect of the present disclosure provides a first terminal device that stores a positioning application that performs processing based on teacher data representing a correct position of at least one of a person and an object in assistance, and operates according to the positioning application; a second terminal device used by a second user who supports the assistance for the first user using the device, the first terminal device receiving sensing results regarding at least one of the person and the object in the assistance. , to the second terminal device via a network, the second terminal device presents the sensing result to the second user, receives setting input of the teacher data by the second user, and transmits the sensing result to the first terminal device. The apparatus relates to an information processing system that operates according to the positioning application corresponding to the teacher data created by the setting input.
本開示の他の態様は、介助における人及び物の少なくとも一方に関する位置の正解を表す教師データに基づく処理を行うポジショニングアプリケーションを記憶し、前記ポジショニングアプリケーションに従って動作する第1端末装置と、前記第1端末装置を用いる第1ユーザの前記介助をサポートする第2ユーザによって使用される第2端末装置と、を含む情報処理システムにおける情報処理方法であって、前記介助における前記人及び前記物の少なくとも一方に関するセンシング結果を、ネットワークを介して前記第1端末装置から前記第2端末装置に送信し、前記第2端末装置において、前記センシング結果を第2ユーザへ提示し、前記第2ユーザによる前記教師データの設定入力を受け付け、前記設定入力によって作成された前記教師データに対応する前記ポジショニングアプリケーションに従って、前記第1端末装置を動作させる情報処理方法に関係する。 Another aspect of the present disclosure is a first terminal device that stores a positioning application that performs processing based on teacher data representing a correct position of at least one of a person and an object in assistance, and operates according to the positioning application; An information processing method in an information processing system, comprising: a second terminal device used by a second user who supports the assistance of the first user using the terminal device, the information processing method comprising: at least one of the person and the object in the assistance; transmitting a sensing result from the first terminal device to the second terminal device via a network, presenting the sensing result to a second user in the second terminal device, and transmitting the sensing result by the second user to the teacher data. The present invention relates to an information processing method of accepting a setting input and operating the first terminal device according to the positioning application corresponding to the teacher data created by the setting input.
以下、本実施形態について図面を参照しつつ説明する。図面については、同一又は同等の要素には同一の符号を付し、重複する説明は省略する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本開示の必須構成要件であるとは限らない。 This embodiment will be described below with reference to the drawings. In the drawings, the same or equivalent elements are denoted by the same reference numerals, and redundant description will be omitted. Note that this embodiment described below does not unduly limit the content described in the claims. Furthermore, not all of the configurations described in this embodiment are essential configuration requirements of the present disclosure.
1.システム構成例
図1は、本実施形態に係る情報処理システム10の構成例である。本実施形態に係る情報処理システム10は、例えば医療や介護の場面において、介助者の“勘”や“暗黙知”によって行われる作業について、当該“勘”や“暗黙知”をデジタル化することによって、熟練度によらず適切な介助を行えるように、介助者に指示を与えるものである。
1. System Configuration Example FIG. 1 is a configuration example of an information processing system 10 according to this embodiment. The information processing system 10 according to the present embodiment is capable of digitizing the "intuition" and "tacit knowledge" of a caregiver regarding work performed based on the "intuition" and "tacit knowledge" in, for example, medical and nursing care situations. This system provides instructions to caregivers so that they can provide appropriate assistance regardless of skill level.
ここでの介助者は、介護施設の介護職員であってもよいし、病院等の医療施設における看護師や准看護師であってもよい。即ち、本実施形態における介助とは、被介助者をサポートする種々の行動を含むものであり、介護を含んでもよいし、注射等の医療に関する行為を含んでもよい。またここでの被介助者は、介助者による介助を受ける者であり、介護施設の入居者であってもよいし、病院に入院や通院を行う患者であってもよい。また、被介助者は、例えば認知症を患っている可能性のある被介助者であってもよい。 The assistant here may be a care worker at a nursing care facility, or a nurse or an assistant nurse at a medical facility such as a hospital. That is, the assistance in this embodiment includes various actions to support the person being assisted, and may include nursing care or medical acts such as injections. Further, the assisted person here is a person who receives assistance from a caregiver, and may be a resident of a nursing care facility or a patient admitted to or visiting a hospital. Further, the person being assisted may be a person being assisted who may be suffering from dementia, for example.
また本実施形態における介助は、家庭において行われてもよい。例えば、本実施形態における被介助者は、在宅介護を受ける要介護者であってもよいし、在宅医療を受ける患者であってもよい。また介助者は、要介護者や患者等の家族であってもよいし、訪問ヘルパー等であってもよい。例えば本実施形態の手法は、在宅介護において専門家ではない被介助者の家族等が介助者となる場合に、熟練の介護士やケアマネージャ等の暗黙知を利用することによって、家族等による介助をサポートするものであってもよい。 Further, the assistance in this embodiment may be provided at home. For example, the person being assisted in this embodiment may be a care recipient who receives home care, or a patient who receives home medical care. Further, the caregiver may be a family member of the care recipient or the patient, or may be a visiting helper. For example, the method of the present embodiment can be used to assist family members, etc. in home care by utilizing the tacit knowledge of skilled caregivers, care managers, etc. when the caregiver is a family member of the person being cared for who is not an expert. It may also support.
図1に示すように、情報処理システム10は、サーバシステム100、第1端末装置200、第2端末装置300、センシングデバイス400を含む。ただし情報処理システム10の構成は図1に限定されず、一部の構成を省略する、他の構成を追加する等の変形実施が可能である。例えば第1端末装置200は複数であってもよい。また第2端末装置300は複数であってもよい。また図1では、センシングデバイス400として、図11を用いて後述するベッドサイドセンサ420及び検出装置430を例示している。ただしセンシングデバイス400はこれに限定されず、図15を用いて後述する座面センサ440であってもよいし、図18を用いて後述する嚥下ムセ検出装置460であってもよいし、他のデバイスであってもよい。またセンシングデバイス400は、圧力検知が可能なベッド610、マットレス620、車椅子630等を含んでもよい。なお以下では、複数のセンシングデバイス400を互いに区別する必要が無い場合、単にセンシングデバイス400と表記する。 As shown in FIG. 1, the information processing system 10 includes a server system 100, a first terminal device 200, a second terminal device 300, and a sensing device 400. However, the configuration of the information processing system 10 is not limited to that shown in FIG. 1, and modifications such as omitting some configurations or adding other configurations are possible. For example, there may be a plurality of first terminal devices 200. Further, there may be a plurality of second terminal devices 300. Further, in FIG. 1, a bedside sensor 420 and a detection device 430, which will be described later with reference to FIG. 11, are illustrated as the sensing device 400. However, the sensing device 400 is not limited to this, and may be a seat sensor 440, which will be described later using FIG. 15, a swallowing discomfort detection device 460, which will be described later using FIG. It may be a device. The sensing device 400 may also include a bed 610, a mattress 620, a wheelchair 630, etc. that can detect pressure. Note that hereinafter, if there is no need to distinguish the plurality of sensing devices 400 from each other, they will simply be referred to as sensing devices 400.
サーバシステム100は、例えばネットワークNWを介して第1端末装置200、第2端末装置300と接続される。ここでのネットワークNWは、例えば、インターネット等の公衆通信網である。ただし、ネットワークNWは公衆通信網に限定されず、LAN(Local Area Network)等であってもよい。例えばサーバシステム100は、IEEE802.11の規格に従った通信を行ってもよい。ただし、各機器の間の通信手法については種々の変形実施が可能である。 The server system 100 is connected to a first terminal device 200 and a second terminal device 300 via a network NW, for example. The network NW here is, for example, a public communication network such as the Internet. However, the network NW is not limited to a public communication network, and may be a LAN (Local Area Network) or the like. For example, the server system 100 may perform communication according to the IEEE802.11 standard. However, various modifications can be made to the communication method between each device.
サーバシステム100は、1つのサーバであってもよいし、複数のサーバを含んでもよい。例えばサーバシステム100は、データベースサーバとアプリケーションサーバを含んでもよい。例えばアプリケーションサーバは、ポジショニングアプリケーションAP1を作成する処理を行ってもよい。ここでのポジショニングアプリケーションAP1とは、介助における人及び物の少なくとも一方の位置に関する処理を行うソフトウェアである。ポジショニングアプリケーションAP1の詳細については後述する。またデータベースサーバは、作成したポジショニングアプリケーションAP1を記憶してもよい。なおここでの複数のサーバは、物理サーバであってもよいし仮想サーバであってもよい。また仮想サーバが用いられる場合、当該仮想サーバは1つの物理サーバに設けられてもよいし、複数の物理サーバに分散して配置されてもよい。以上のように、本実施形態におけるサーバシステム100の具体的な構成は種々の変形実施が可能である。 Server system 100 may be one server or may include multiple servers. For example, server system 100 may include a database server and an application server. For example, the application server may perform processing to create a positioning application AP1. The positioning application AP1 here is software that performs processing regarding the position of at least one of a person and an object during assistance. Details of the positioning application AP1 will be described later. The database server may also store the created positioning application AP1. Note that the plurality of servers here may be physical servers or virtual servers. Further, when a virtual server is used, the virtual server may be provided in one physical server, or may be distributed and arranged in a plurality of physical servers. As described above, the specific configuration of the server system 100 in this embodiment can be modified in various ways.
第1端末装置200は、例えば在宅介護を受ける被介助者、又は、当該被介助者の世話を行う家族等によって使用される装置である。ただしここでの被介助者は、介護施設等の施設に入居する被介助者であることは妨げられない。以下、第1端末装置200を使用するユーザを第1ユーザと表記する。 The first terminal device 200 is a device used, for example, by a person being cared for at home, a family member caring for the person being cared for, or the like. However, the person being assisted here may be a person being assisted who resides in a facility such as a nursing care facility. Hereinafter, the user who uses the first terminal device 200 will be referred to as a first user.
第1端末装置200は、ポジショニングアプリケーションAP1が動作するデバイスである。第1端末装置200は、例えばスマートフォンやタブレット端末等の携帯端末装置である。ただし第1端末装置200は、PC(Personal Computer)、ヘッドセット、AR(Augmented Reality)グラスやMR(Mixed Reality)グラス等のウェアラブル装置等、他の装置であってもよい。また第1ユーザは、複数の第1端末装置200を使用してもよい。例えば第1ユーザは、スマートフォンとヘッドセットの両方を使用してもよい。また被介助者と介助者(家族)がそれぞれ異なるスマートフォンを使用してもよい。 The first terminal device 200 is a device on which a positioning application AP1 operates. The first terminal device 200 is, for example, a mobile terminal device such as a smartphone or a tablet terminal. However, the first terminal device 200 may be other devices such as a PC (Personal Computer), a headset, or a wearable device such as AR (Augmented Reality) glasses or MR (Mixed Reality) glasses. Further, the first user may use multiple first terminal devices 200. For example, the first user may use both a smartphone and a headset. Further, the person being assisted and the caregiver (family member) may each use different smartphones.
第2端末装置300は、介護士、看護師、医師、ケアマネージャ等、介助に関する専門知識を有するユーザによって使用される装置である。以下、第2端末装置300を使用するユーザを第2ユーザと表記する。第2端末装置300も第1端末装置200と同様であり、スマートフォン、タブレット端末、PC、ヘッドセット、ウェアラブル装置等の種々の装置により実現が可能である。 The second terminal device 300 is a device used by a user who has specialized knowledge regarding assistance, such as a caregiver, nurse, doctor, or care manager. Hereinafter, the user who uses the second terminal device 300 will be referred to as a second user. The second terminal device 300 is also similar to the first terminal device 200, and can be realized by various devices such as a smartphone, a tablet terminal, a PC, a headset, and a wearable device.
センシングデバイス400は、被介助者の介助のために使用される機器である。例えばセンシングデバイス400は種々のセンサを有し、当該センサに基づいてセンシングデータを取得する。ここでのセンシングデータは、センサ出力そのものであってもよいし、当該センサ出力に基づく演算処理によって求められた情報であってもよい。センシングデバイス400は、ポジショニングアプリケーションAP1の設定時や利用時に用いられる入力データを出力する機器であってもよい。詳細については後述する。 The sensing device 400 is a device used to assist a person being assisted. For example, the sensing device 400 has various sensors and acquires sensing data based on the sensors. The sensing data here may be the sensor output itself, or may be information obtained by calculation processing based on the sensor output. The sensing device 400 may be a device that outputs input data used when setting or using the positioning application AP1. Details will be described later.
図2は、サーバシステム100の詳細な構成例を示すブロック図である。サーバシステム100は、例えば処理部110と、記憶部120と、通信部130を含む。 FIG. 2 is a block diagram showing a detailed configuration example of the server system 100. The server system 100 includes, for example, a processing section 110, a storage section 120, and a communication section 130.
本実施形態の処理部110は、下記のハードウェアによって構成される。ハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、ハードウェアは、回路基板に実装された1又は複数の回路装置や、1又は複数の回路素子によって構成できる。1又は複数の回路装置は例えばIC(Integrated Circuit)、FPGA(field-programmable gate array)等である。1又は複数の回路素子は例えば抵抗、キャパシター等である。 The processing unit 110 of this embodiment is configured by the following hardware. The hardware can include at least one of a circuit that processes digital signals and a circuit that processes analog signals. For example, the hardware can be configured by one or more circuit devices mounted on a circuit board or one or more circuit elements. The one or more circuit devices are, for example, an IC (Integrated Circuit), an FPGA (Field-Programmable Gate Array), or the like. The one or more circuit elements are, for example, resistors, capacitors, etc.
また処理部110は、下記のプロセッサによって実現されてもよい。本実施形態のサーバシステム100は、情報を記憶するメモリと、メモリに記憶された情報に基づいて動作するプロセッサと、を含む。情報は、例えばプログラムと各種のデータ等である。メモリは、記憶部120であってもよいし、他のメモリであってもよい。プロセッサは、ハードウェアを含む。プロセッサは、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。メモリは、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリなどの半導体メモリであってもよいし、レジスタであってもよいし、ハードディスク装置(HDD:Hard Disk Drive)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータによって読み取り可能な命令を格納しており、当該命令をプロセッサが実行することによって、処理部110の機能が処理として実現される。ここでの命令は、プログラムを構成する命令セットの命令でもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。 Further, the processing unit 110 may be realized by the following processor. The server system 100 of this embodiment includes a memory that stores information and a processor that operates based on the information stored in the memory. The information includes, for example, programs and various data. The memory may be the storage unit 120 or another memory. A processor includes hardware. As the processor, various types of processors can be used, such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and a DSP (Digital Signal Processor). The memory may be a semiconductor memory such as SRAM (Static Random Access Memory), DRAM (Dynamic Random Access Memory), or flash memory, or may be a register, or may be a hard disk drive (HDD), etc. The storage device may be a magnetic storage device, or an optical storage device such as an optical disk device. For example, the memory stores computer-readable instructions, and when the processor executes the instructions, the functions of the processing unit 110 are realized as processing. The instructions here may be instructions of an instruction set that constitutes a program, or instructions that instruct a hardware circuit of a processor to operate.
記憶部120は、処理部110のワーク領域であって、種々の情報を記憶する。記憶部120は、種々のメモリによって実現が可能であり、メモリは、SRAM、DRAM、ROM(Read Only Memory)、フラッシュメモリなどの半導体メモリであってもよいし、レジスタであってもよいし、磁気記憶装置であってもよいし、光学式記憶装置であってもよい。 The storage unit 120 is a work area of the processing unit 110 and stores various information. The storage unit 120 can be realized by various types of memory, and the memory may be a semiconductor memory such as SRAM, DRAM, ROM (Read Only Memory), or flash memory, or may be a register. It may be a magnetic storage device or an optical storage device.
通信部130は、ネットワークを介した通信を行うためのインターフェイスであり、サーバシステム100が無線通信を行う場合、例えばアンテナ、RF(radio frequency)回路、及びベースバンド回路を含む。ただしサーバシステム100は有線通信を行ってもよく、その場合の通信部130は、イーサネットコネクタ等の通信インターフェイス及び、当該通信インターフェイスの制御回路等を含んでもよい。通信部130は、処理部110による制御に従って動作してもよいし、処理部110とは異なる通信制御用のプロセッサを含むことも妨げられない。通信部130は、例えばIEEE802.11やIEEE802.3に規定された方式に従った通信を行ってもよい。ただし具体的な通信方式は種々の変形実施が可能である。 The communication unit 130 is an interface for communicating via a network, and includes, for example, an antenna, an RF (radio frequency) circuit, and a baseband circuit when the server system 100 performs wireless communication. However, the server system 100 may perform wired communication, and in that case, the communication unit 130 may include a communication interface such as an Ethernet connector, a control circuit for the communication interface, and the like. The communication unit 130 may operate under the control of the processing unit 110, and may include a communication control processor different from the processing unit 110. The communication unit 130 may perform communication according to a method defined by IEEE802.11 or IEEE802.3, for example. However, the specific communication method can be modified in various ways.
図3は、第1端末装置200の詳細な構成例を示すブロック図である。第1端末装置200は、例えば処理部210と、記憶部220と、通信部230と、表示部240と、操作部250と、撮像部260を含む。ただし第1端末装置200の構成は図3に限定されず、一部の構成を省略する、他の構成を追加する等の変形実施が可能である。例えば第1端末装置200は、撮像部260に含まれるイメージセンサに加えて、加速度センサやジャイロセンサ等のモーションセンサ、圧力センサ、GPS(Global Positioning System)センサ等の種々のセンサを有してもよい。 FIG. 3 is a block diagram showing a detailed configuration example of the first terminal device 200. The first terminal device 200 includes, for example, a processing section 210, a storage section 220, a communication section 230, a display section 240, an operation section 250, and an imaging section 260. However, the configuration of the first terminal device 200 is not limited to that shown in FIG. 3, and modifications such as omitting some configurations or adding other configurations are possible. For example, in addition to the image sensor included in the imaging unit 260, the first terminal device 200 may include various sensors such as a motion sensor such as an acceleration sensor and a gyro sensor, a pressure sensor, and a GPS (Global Positioning System) sensor. good.
処理部210は、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むハードウェアによって構成される。また処理部210は、プロセッサによって実現されてもよい。プロセッサは、CPU、GPU、DSP等、各種のプロセッサを用いることが可能である。第1端末装置200のメモリに格納された命令をプロセッサが実行することによって、処理部210の機能が処理として実現される。 The processing unit 210 is configured by hardware including at least one of a circuit that processes digital signals and a circuit that processes analog signals. Further, the processing unit 210 may be realized by a processor. As the processor, various types of processors such as a CPU, GPU, and DSP can be used. The functions of the processing unit 210 are realized as processing by the processor executing instructions stored in the memory of the first terminal device 200.
記憶部220は、処理部210のワーク領域であって、SRAM、DRAM、ROM等の種々のメモリによって実現される。記憶部220は、例えばポジショニングアプリケーションAP1を記憶する。処理部210は、ポジショニングアプリケーションAP1に従って動作してもよい。 The storage unit 220 is a work area of the processing unit 210, and is realized by various types of memory such as SRAM, DRAM, and ROM. The storage unit 220 stores, for example, positioning application AP1. The processing unit 210 may operate according to the positioning application AP1.
本実施形態におけるポジショニングアプリケーションAP1とは、ベッド610や車椅子630等における人や物の望ましい位置を提示するアプリケーションソフトウェアである。ここでの人は例えば被介助者や介助者である。また物とは、クッションやオムツ等である。 The positioning application AP1 in this embodiment is application software that presents desirable positions of people and objects on the bed 610, wheelchair 630, and the like. The person here is, for example, a person being assisted or a caregiver. In addition, things include cushions, diapers, etc.
例えば、ポジショニングアプリケーションAP1は、設定を行う設定モードと、当該設定に従って実際のポジション調整をサポートする利用モードで動作してもよい。設定モードにおいて、例えばポジショニングアプリケーションAP1は、望ましい位置で人や物を撮像した教師データを取得する。そして利用モードにおいて、ポジショニングアプリケーションAP1は、調整対象である人や物を撮像した撮像画像に対して、透過処理を施した教師データを重畳表示する。 For example, the positioning application AP1 may operate in a setting mode for making settings and a usage mode for supporting actual position adjustment according to the settings. In the setting mode, for example, the positioning application AP1 acquires training data obtained by capturing an image of a person or object at a desired position. In the usage mode, the positioning application AP1 superimposes and displays training data subjected to transparency processing on a captured image of a person or object to be adjusted.
図4Aは、設定モードにおいて取得される教師データの一例である。図4Aの例では、「AAA」という氏名の被介助者がベッド610に横たわる際の望ましい姿勢を表す画像情報が教師データとして取得される。図4Bは、利用モードにおいて撮像画像に重畳表示される画像であって、透過処理を施した教師データの例である。例えば端末装置200は、ポジション調整の対象である被介助者を撮像した撮像画像に、図4Bの画像を重畳表示する。介助者は、撮像画像上の被介助者が、教師データと一致するように、当該被介助者の介助を行う。このようにすれば、介助者によるポジション調整を適切にサポートすることが可能になる。なおここでは画像情報である教師データの重畳表示を行う例を説明したが、ポジショニングアプリケーションAP1は、被介助者の姿勢が適切であるか否かの判定結果(OK/NG)を出力してもよい。例えばポジショニングアプリケーションAP1は、教師データと、撮像画像の差分に基づいてOK/NGを判定してもよい。例えばポジショニングアプリケーションAP1は、RGBの各画素値に基づいてノルム(例えば差分絶対値の和)を求め、ノルムが閾値以上となる画素の割合が所定以上である場合に差分が大きく、NGであると判定してもよい。ポジショニングアプリケーションAP1が実行する処理の詳細については後述する。 FIG. 4A is an example of teacher data acquired in the setting mode. In the example of FIG. 4A, image information representing a desirable posture of a person being assisted with the name "AAA" lying on the bed 610 is acquired as teacher data. FIG. 4B is an example of teacher data that is displayed superimposed on the captured image in the usage mode and that has been subjected to transparency processing. For example, the terminal device 200 displays the image of FIG. 4B superimposed on the captured image of the person to be assisted whose position is to be adjusted. The assistant assists the person being helped so that the person being helped on the captured image matches the teacher data. In this way, it becomes possible to appropriately support the position adjustment by the caregiver. Although an example in which superimposed display of teacher data, which is image information, is explained here, the positioning application AP1 may output a determination result (OK/NG) as to whether the posture of the person being assisted is appropriate. good. For example, the positioning application AP1 may determine OK/NG based on the difference between the teacher data and the captured image. For example, the positioning application AP1 calculates a norm (for example, the sum of absolute differences) based on each RGB pixel value, and if the ratio of pixels for which the norm is equal to or greater than a threshold is greater than or equal to a predetermined value, the difference is large and the result is NG. You may judge. Details of the processing executed by the positioning application AP1 will be described later.
通信部230は、ネットワークを介した通信を行うためのインターフェイスであり、例えばアンテナ、RF回路、及びベースバンド回路を含む。通信部230は、例えばネットワークNWを介して、サーバシステム100との通信を行う。通信部230は、例えばIEEE802.11の規格に準拠した無線通信をサーバシステム100との間で実行してもよい。 The communication unit 230 is an interface for communicating via a network, and includes, for example, an antenna, an RF circuit, and a baseband circuit. The communication unit 230 communicates with the server system 100, for example, via the network NW. The communication unit 230 may perform wireless communication with the server system 100 based on, for example, the IEEE802.11 standard.
表示部240は、種々の情報を表示するインターフェイスであり、液晶ディスプレイであってもよいし、有機ELディスプレイであってもよいし、他の方式のディスプレイであってもよい。操作部250は、ユーザ操作を受け付けるインターフェイスである。操作部250は、第1端末装置200に設けられるボタン等であってもよい。また表示部240と操作部250は、一体として構成されるタッチパネルであってもよい。 The display unit 240 is an interface that displays various information, and may be a liquid crystal display, an organic EL display, or another type of display. The operation unit 250 is an interface that accepts user operations. The operation unit 250 may be a button or the like provided on the first terminal device 200. Further, the display section 240 and the operation section 250 may be a touch panel configured as one unit.
撮像部260は、所定の撮像範囲を撮像することによって画像情報を出力するイメージセンサを含む。ここでの画像情報は、静止画像であってもよいし、動画像であってもよい。また画像情報は、カラーであってもよいし、モノクロであってもよい。また、撮像部260は、被写体までの距離を検出する深度センサを含んでもよいし、被写体の熱を検出するセンサ(例えば赤外線センサ)等を含んでもよい。 The imaging unit 260 includes an image sensor that outputs image information by imaging a predetermined imaging range. The image information here may be a still image or a moving image. Further, the image information may be in color or monochrome. Further, the imaging unit 260 may include a depth sensor that detects the distance to the subject, or a sensor (for example, an infrared sensor) that detects the heat of the subject.
また第1端末装置200は、発光部、振動部、音入力部、音出力部等、図3には不図示の構成を含んでもよい。発光部は例えばLED(light emitting diode)であり、発光による報知を行う。振動部は例えばモータであり、振動による報知を行う。音入力部は例えばマイクである。音出力部は例えばスピーカであり、音による報知を行う。 Further, the first terminal device 200 may include components not shown in FIG. 3, such as a light emitting section, a vibration section, a sound input section, and a sound output section. The light emitting unit is, for example, an LED (light emitting diode), and provides notification by emitting light. The vibration unit is, for example, a motor, and provides notification by vibration. The sound input section is, for example, a microphone. The sound output section is, for example, a speaker, and provides sound notification.
図5は、第2端末装置300の詳細な構成例を示すブロック図である。第2端末装置300は、例えば処理部310と、記憶部320と、通信部330と、表示部340と、操作部350と、撮像部360を含む。ただし第2端末装置300の構成は図5に限定されず、一部の構成を省略する、他の構成を追加する等の変形実施が可能である。各部の構成については第1端末装置200と同様であるため、詳細な説明は省略する。 FIG. 5 is a block diagram showing a detailed configuration example of the second terminal device 300. The second terminal device 300 includes, for example, a processing section 310, a storage section 320, a communication section 330, a display section 340, an operation section 350, and an imaging section 360. However, the configuration of the second terminal device 300 is not limited to that shown in FIG. 5, and modifications such as omitting some configurations or adding other configurations are possible. Since the configuration of each part is the same as that of the first terminal device 200, detailed explanation will be omitted.
介助において、例えば被介助者のポジション調整、介助者のポジション調整、被介助者の周辺に配置される物のポジション調整等が重要であることが知られている。例えば、被介助者のポジション調整は、褥瘡や転落等のリスク抑制に有用である。介助者のポジション調整は、介助を適切に実行するための動作の教示に有用である。物のポジション調整は、例えば被介助者に適切な姿勢を取らせるためのクッション等を配置する際に有用である。上述したポジショニングアプリケーションAP1を用いることによって、介助におけるポジション調整をサポートすることが可能になる。 2. Description of the Related Art In assistance, it is known that, for example, it is important to adjust the position of the person to be cared for, the position of the caregiver, and the position of objects placed around the person to be cared for. For example, adjusting the position of the person being assisted is useful for reducing the risk of bedsores, falls, and the like. Adjusting the position of the assistant is useful for teaching movements for appropriately performing assistance. Adjusting the position of objects is useful, for example, when arranging a cushion or the like to help the person being assisted take an appropriate posture. By using the positioning application AP1 described above, it becomes possible to support position adjustment in assistance.
しかしポジションをどのように調整すればよいかは、状況に応じて変化するものであり、熟練の介助者による暗黙知となっている。例えば、被介助者のポジション調整では、被介助者の属性等に応じて望ましい姿勢が異なる可能性がある。ここでの属性は、年齢、性別、身長、体重、既往歴、投薬履歴等を含む。そのため、被介助者が異なれば望ましい姿勢が異なるし、同じ被介助者であっても属性が変化する要因があれば望ましい姿勢が変化する可能性がある。介助を行う介助者のポジション等も同様である。 However, how to adjust the position changes depending on the situation and is tacit knowledge of experienced caregivers. For example, when adjusting the position of a person being assisted, the desired posture may vary depending on the attributes of the person being assisted. The attributes here include age, gender, height, weight, medical history, medication history, etc. Therefore, different persons being assisted have different desirable postures, and even for the same person being assisted, the desirable posture may change if there is a factor that changes the attributes. The same applies to the position of the assistant who provides assistance.
そのため、ポジショニングアプリケーションAP1を用いる場合、望ましいポジションを表す教師データは、暗黙知を有する熟練の介助者でなければ設定が容易でない。しかし近年、在宅介護や遠隔医療が広く行われている。この場合、熟練の介助者が直接被介助者の姿勢を調整することが難しいため、当該介助者の暗黙知を遠隔で設定することが望ましい。特許文献1及び特許文献2等の従来手法は、暗黙知の遠隔設定を効率的に行う手法について開示がない。 Therefore, when using the positioning application AP1, the teacher data representing the desired position can only be set by a skilled assistant with tacit knowledge. However, in recent years, home care and telemedicine have become widespread. In this case, since it is difficult for a skilled caregiver to directly adjust the posture of the person being helped, it is desirable to set the tacit knowledge of the caregiver remotely. Conventional methods such as Patent Document 1 and Patent Document 2 do not disclose a method for efficiently remotely setting tacit knowledge.
本実施形態の情報処理システム10は、図1に示したように、第1端末装置200と、第2端末装置300を含む。第1端末装置200は、介助における人及び物の少なくとも一方に関する位置の正解を表す教師データに基づく処理を行うポジショニングアプリケーションAP1を記憶し、当該ポジショニングアプリケーションAP1に従って動作する。第2端末装置300は、第1端末装置200を用いる第1ユーザに関する介助をサポートする第2ユーザによって使用される。なお第1ユーザは被介助者(例えば在宅介護を受ける被介助者)と、介助者(例えば被介助者の家族)を含んでもよく、第1ユーザに関する介助のサポートとは、被介助者自身の行動をサポートするものであってもよいし、家族による介助行動をサポートすることであってもよい。 The information processing system 10 of this embodiment includes a first terminal device 200 and a second terminal device 300, as shown in FIG. The first terminal device 200 stores a positioning application AP1 that performs processing based on teacher data representing the correct position of at least one of a person and an object in assistance, and operates according to the positioning application AP1. The second terminal device 300 is used by a second user who supports the first user using the first terminal device 200. Note that the first user may include a person being cared for (for example, a person being cared for at home) and a caregiver (for example, a family member of the person being cared for), and the assistance support for the first user refers to the person being cared for by the person being cared for. It may be to support behavior, or it may be to support assistance behavior by family members.
そして第1端末装置200は、介助における人及び物の少なくとも一方に関するセンシング結果を、ネットワークNWを介して第2端末装置300に送信する。ここでのセンシング結果とは、第1端末装置200のイメージセンサ(撮像部260)のセンシングデータである撮像画像であってもよいし、センシングデバイス400のセンシングデータである各種情報であってもよい。センシングデバイス400のセンシングデータの具体例については後述する。第2端末装置300は、センシング結果を第2ユーザへ提示し、第2ユーザによる教師データの設定入力を受け付ける。第1端末装置200は、当該設定入力に基づいて作成された教師データに対応するポジショニングアプリケーションAP1に従って動作する。 The first terminal device 200 then transmits the sensing results regarding at least one of a person and an object during assistance to the second terminal device 300 via the network NW. The sensing result here may be a captured image that is sensing data of the image sensor (imaging unit 260) of the first terminal device 200, or various information that is sensing data of the sensing device 400. . A specific example of the sensing data of the sensing device 400 will be described later. The second terminal device 300 presents the sensing results to the second user and accepts input of teacher data settings from the second user. The first terminal device 200 operates according to the positioning application AP1 corresponding to the teacher data created based on the setting input.
本実施形態の手法によれば、第2ユーザに対して、第1端末装置200から提供されるポジション調整に関するセンシング結果を閲覧させることが可能になる。さらに、第2ユーザの設定入力が、ポジショニングアプリケーションAP1で使用される教師データの作成に反映される。そのため、第1端末装置200と第2端末装置300がネットワークNWを介して接続される状況であっても、熟練者の暗黙知を教師データとしてデジタル化すること、及び、ポジショニングアプリケーションAP1においてデジタル化した教師データを利用することが可能になる。 According to the method of this embodiment, it becomes possible to allow the second user to view sensing results related to position adjustment provided from the first terminal device 200. Further, the second user's setting input is reflected in the creation of teacher data used in the positioning application AP1. Therefore, even in a situation where the first terminal device 200 and the second terminal device 300 are connected via the network NW, it is possible to digitize the tacit knowledge of an expert as teacher data, and to digitize it in the positioning application AP1. It becomes possible to use the training data that has been prepared.
また、本実施形態の情報処理システム10が行う処理の一部又は全部は、プログラムによって実現されてもよい。情報処理システム10が行う処理とは、第1端末装置200の処理部210が実行する処理であってもよいし、第2端末装置300の処理部310が実行する処理であってもよいし、サーバシステム100の処理部110が行う処理であってもよい。また情報処理システム10が行う処理とは、サーバシステム100、第1端末装置200及び第2端末装置300のうちの2以上の機器によって行われる処理であってもよい。 Furthermore, part or all of the processing performed by the information processing system 10 of this embodiment may be realized by a program. The processing performed by the information processing system 10 may be the processing performed by the processing unit 210 of the first terminal device 200, the processing performed by the processing unit 310 of the second terminal device 300, The processing may be performed by the processing unit 110 of the server system 100. Further, the processing performed by the information processing system 10 may be the processing performed by two or more devices among the server system 100, the first terminal device 200, and the second terminal device 300.
本実施形態に係るプログラムは、例えばコンピュータによって読み取り可能な媒体である非一時的な情報記憶媒体(情報記憶装置)に格納できる。情報記憶媒体は、例えば光ディスク、メモリーカード、HDD、或いは半導体メモリなどによって実現できる。半導体メモリは例えばROMである。処理部110等は、情報記憶媒体に格納されるプログラムに基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体は、処理部110等としてコンピュータを機能させるためのプログラムを記憶する。コンピュータは、入力装置、処理部、記憶部、出力部を備える装置である。具体的には本実施形態に係るプログラムは、図6、図22、図23A、図23B等を用いて後述する各ステップを、コンピュータに実行させるためのプログラムである。 The program according to this embodiment can be stored, for example, in a non-transitory information storage medium (information storage device) that is a computer-readable medium. The information storage medium can be realized by, for example, an optical disk, a memory card, an HDD, or a semiconductor memory. The semiconductor memory is, for example, a ROM. The processing unit 110 and the like perform various processes of this embodiment based on programs stored in the information storage medium. That is, the information storage medium stores a program for causing the computer to function as the processing unit 110 and the like. A computer is a device that includes an input device, a processing section, a storage section, and an output section. Specifically, the program according to this embodiment is a program for causing a computer to execute each step described later using FIGS. 6, 22, 23A, 23B, etc.
また本実施形態の手法は、以下の各ステップを含む情報処理方法に適用できる。情報処理方法は、介助における人及び物の少なくとも一方に関する位置の正解を表す教師データに基づく処理を行うポジショニングアプリケーションAP1を記憶し、当該ポジショニングアプリケーションAP1に従って動作する第1端末装置200と、第1端末装置200を用いる第1ユーザの介助をサポートする第2ユーザによって使用される第2端末装置300と、を含む情報処理システム10における情報処理方法である。情報処理方法は、介助における人及び物の少なくとも一方に関するセンシング結果を、ネットワークNWを介して第1端末装置200から第2端末装置300に送信するステップと、第2端末装置300において、センシング結果を第2ユーザへ提示し、第2ユーザによる教師データの設定入力を受け付けるステップと、設定入力によって作成された教師データに対応するポジショニングアプリケーションAP1に従って、第1端末装置200を動作させるステップと、を含む。 Further, the method of this embodiment can be applied to an information processing method including the following steps. The information processing method includes a first terminal device 200 that stores a positioning application AP1 that performs processing based on teacher data representing correct positions of at least one of a person and an object in assistance, and operates according to the positioning application AP1; This is an information processing method in an information processing system 10 including a second terminal device 300 used by a second user who supports assistance of a first user using the device 200. The information processing method includes the steps of transmitting sensing results regarding at least one of a person and an object in assistance from a first terminal device 200 to a second terminal device 300 via a network NW, and transmitting the sensing results in the second terminal device 300. The steps include the steps of presenting the teacher data to the second user and receiving the teacher data setting input from the second user, and operating the first terminal device 200 in accordance with the positioning application AP1 corresponding to the teacher data created by the setting input. .
2.ポジショニングアプリケーションの設定
次にポジショニングアプリケーションAP1の具体例について説明する。ポジショニングアプリケーションAP1は、ポジション調整に用いられる教師データを設定する設定モードと、設定された教師データに基づく処理を行う利用モードで動作してもよい。なおポジショニングアプリケーションAP1は、複数のアプリケーションソフトウェアを含んでもよい。例えばポジショニングアプリケーションAP1は、教師データの設定処理を行う設定アプリケーションと、教師データに基づく処理を実行する利用アプリケーションを含んでもよい。この場合、設定モードは設定アプリケーションにより実現され、後述する利用モードは利用アプリケーションにより実現される。その他、ポジショニングアプリケーションAP1の具体的な構成については種々の変形実施が可能である。
2. Setting of Positioning Application Next, a specific example of the positioning application AP1 will be explained. The positioning application AP1 may operate in a setting mode in which teacher data used for position adjustment is set and a usage mode in which processing is performed based on the set teacher data. Note that the positioning application AP1 may include a plurality of application software. For example, the positioning application AP1 may include a setting application that performs a process of setting teacher data, and a usage application that executes a process based on the teacher data. In this case, the setting mode is realized by a setting application, and the usage mode, which will be described later, is realized by a usage application. In addition, various modifications can be made to the specific configuration of the positioning application AP1.
以下では、まず設定モードにおける処理の概要について説明する。その後、ベッドポジション、車椅子ポジション、食事ポジションのそれぞれに対応する設定モードの例について詳細に説明する。なおベッドポジションとは、ベッド610における人又は物のポジションを表す。車椅子ポジションとは、車椅子630における人又は物のポジションを表す。食事ポジションとは、食事における人または物のポジションを表し、例えば車椅子ポジションに含まれてもよいし、ベッドポジションに含まれてもよいし、これらとは異なるポジションであってもよい。 Below, an overview of the processing in the setting mode will first be explained. Thereafter, examples of setting modes corresponding to each of the bed position, wheelchair position, and eating position will be explained in detail. Note that the bed position refers to the position of a person or object on the bed 610. The wheelchair position represents the position of a person or object in the wheelchair 630. The eating position refers to the position of a person or thing when eating, and may include, for example, a wheelchair position, a bed position, or a position different from these.
2.1 設定モードにおける処理の流れ
図6は、本実施形態の情報処理システム10において、ポジショニングアプリケーションAP1の設定を行う際の処理の流れを説明する図である。図1を用いて上述したように、情報処理システム10は、サーバシステム100、第1端末装置200、第2端末装置300、センシングデバイス400を含む。このうち、第1端末装置200及びセンシングデバイス400は、例えば在宅介護等が行われる家庭に配置される。例えばセンシングデバイス400は、被介助者やその家族が、在宅介護で使用する目的で購入した介助用の機器であってもよい。第2端末装置300は、例えば介護士等の専門家が勤務する職場等、上記家庭とは異なる場所に配置される。サーバシステム100の配置場所は任意である。
2.1 Flow of Processing in Setting Mode FIG. 6 is a diagram illustrating the flow of processing when setting the positioning application AP1 in the information processing system 10 of this embodiment. As described above using FIG. 1, the information processing system 10 includes a server system 100, a first terminal device 200, a second terminal device 300, and a sensing device 400. Among these, the first terminal device 200 and the sensing device 400 are placed, for example, in a home where home care is provided. For example, the sensing device 400 may be an assistance device purchased by a person being assisted or their family for use in home care. The second terminal device 300 is placed in a place different from the home, such as a workplace where a professional such as a caregiver works. The server system 100 can be placed at any location.
まずステップS101において、第1端末装置200と第2端末装置300が接続を確立する。例えば、第1端末装置200及び第2端末装置300には、ポジショニングアプリケーションAP1(設定アプリケーション)がインストールされており、処理部210及び処理部310がそれぞれポジショニングアプリケーションAP1に従って動作することによって、機器間の通信が実現される。例えば図9A~図9Cを用いて後述するように、ここでのポジショニングアプリケーションAP1(設定アプリケーション)は、互いの画像や音声を通信するWeb会議アプリケーションの機能を有してもよい。なおここでの通信は、サーバシステム100を経由したものであってもよい。例えば、第1端末装置200とサーバシステム100の通信、及び、第2端末装置300とサーバシステム100の通信が確立されることによって、サーバシステム100を介して第1端末装置200と第2端末装置300が接続してもよい。 First, in step S101, the first terminal device 200 and the second terminal device 300 establish a connection. For example, a positioning application AP1 (setting application) is installed in the first terminal device 200 and the second terminal device 300, and the processing unit 210 and the processing unit 310 operate according to the positioning application AP1, so that the Communication is realized. For example, as will be described later using FIGS. 9A to 9C, the positioning application AP1 (setting application) here may have the function of a web conference application that communicates images and sounds with each other. Note that the communication here may be via the server system 100. For example, by establishing communication between the first terminal device 200 and the server system 100 and communication between the second terminal device 300 and the server system 100, the first terminal device 200 and the second terminal device 300 may be connected.
ステップS102において、第1端末装置200は、導入済みのセンシングデバイス400に関する情報を取得し、当該情報を第2端末装置300に送信する。例えば、被介助者の家族が介助のために圧力検知を行うマットレス620や、図11を用いて後述するベッドサイドセンサ420、検出装置430、図15を用いて後述する座面センサ440等を購入済みの場合、これらの機器を特定する情報が第2端末装置300に送信される。ステップS102の処理は、第1端末装置200の第1ユーザが機器の種類や型番等を、操作部250を用いて入力することによって実現されてもよい。あるいは、ステップS102の処理は、記憶部220に記憶されたセンシングデバイス400の情報を送信する処理であってもよい。例えばセンシングデバイス400の初回導入時に第1端末装置200とセンシングデバイス400が接続されることによって、第1端末装置200の記憶部220が当該センシングデバイス400の情報を記憶してもよい。初回導入は、例えばメーカのサービスマン等の知識を有する者が実行することも可能であるため、第1ユーザがセンシングデバイス400に関する知識を有していない場合であっても、ステップS102の処理を適切に実行可能である。 In step S102, the first terminal device 200 acquires information regarding the installed sensing device 400, and transmits the information to the second terminal device 300. For example, the family of the care recipient purchases a mattress 620 that detects pressure for the purpose of assistance, a bedside sensor 420 and detection device 430, which will be described later using FIG. 11, a seat sensor 440, which will be described later using FIG. 15, etc. If so, information identifying these devices is transmitted to the second terminal device 300. The process in step S102 may be realized by the first user of the first terminal device 200 inputting the type, model number, etc. of the device using the operation unit 250. Alternatively, the process of step S102 may be a process of transmitting information about the sensing device 400 stored in the storage unit 220. For example, when the first terminal device 200 and the sensing device 400 are connected when the sensing device 400 is first introduced, the storage unit 220 of the first terminal device 200 may store information about the sensing device 400. The initial installation can be performed by a person with knowledge, such as a manufacturer's service person, so even if the first user does not have knowledge about the sensing device 400, the process in step S102 can be performed. Appropriately practicable.
ステップS103において、第2端末装置300は、第2ユーザによる接続対象機器の選択入力を受け付ける。上述したように、第2ユーザとは、介助を提供可能な専門家(Caregiverとも表記する)である。ここでの接続対象機器とは、第1端末装置200との接続対象となるセンシングデバイス400である。例えば第2端末装置300は、第1端末装置200から送信されたセンシングデバイス400のリストを表示し、当該リストから接続対象機器を選択する第2ユーザの入力を受け付けてもよい。 In step S103, the second terminal device 300 receives a selection input of a connection target device from the second user. As described above, the second user is an expert (also referred to as a caregiver) who can provide assistance. The connection target device here is the sensing device 400 to be connected to the first terminal device 200. For example, the second terminal device 300 may display the list of sensing devices 400 transmitted from the first terminal device 200, and may receive input from the second user who selects a connection target device from the list.
上述したように、第1端末装置200の周辺には、ベッドサイドセンサ420、検出装置430、座面センサ440等の種々のセンシングデバイス400が導入済みである可能性がある。これらの機器は、ベッド610や車椅子630での姿勢に関するセンシングが可能であるため、教師データの設定や、設定された教師データの利用を行う上で有用である。 As described above, various sensing devices 400 such as the bedside sensor 420, the detection device 430, and the seat sensor 440 may have been installed around the first terminal device 200. Since these devices are capable of sensing the posture of the bed 610 or the wheelchair 630, they are useful for setting teacher data and using the set teacher data.
しかし、対象とする場所に応じて、教師データの設定に有用なセンシングデバイス400は異なる。例えば、ベッドポジション用の教師データ設定であれば、ベッドサイドセンサ420、検出装置430が有用であるし、車椅子ポジション用の教師データ設定であれば、座面センサ440が有用である。 However, the sensing device 400 that is useful for setting teacher data differs depending on the target location. For example, the bedside sensor 420 and the detection device 430 are useful for setting teacher data for a bed position, and the seat sensor 440 is useful for setting teacher data for a wheelchair position.
さらに言えば、同じ場所(例えばベッド610)を対象とする場合であっても、ベッド610やマットレス620のメーカや型番、対象とする被介助者の属性等に応じて、教師データの設定に有用なセンシングデバイス400は異なる可能性がある。そして、教師データの設定(及び、後述する教師データの利用)において、どのセンシングデバイス400を用いることが有用であるかは、熟練の介助者の暗黙知となっている場合がある。 Furthermore, even when targeting the same location (for example, bed 610), it is useful to set training data depending on the manufacturer and model number of bed 610 and mattress 620, attributes of the target care recipient, etc. The sensing device 400 may be different. In setting the teacher data (and using the teacher data to be described later), which sensing device 400 is useful to use may be tacit knowledge of a skilled assistant.
本実施形態の手法では、第2ユーザから接続対象機器の選択入力を受け付けることが可能であるため、教師データそのものだけでなく、当該教師データに関連するセンシングデバイス400の選択においても、熟練者の暗黙知を適切に利用することが可能になる。 In the method of this embodiment, since it is possible to receive the selection input of the device to be connected from the second user, an expert can select not only the teacher data itself but also the sensing device 400 related to the teacher data. It becomes possible to use tacit knowledge appropriately.
ステップS104において、第2端末装置300は、センシング結果を出力するセンシングデバイス400と、第1端末装置200との接続に用いられる接続情報を、ネットワークNWを介して第1端末装置200に出力する。例えばセンシングデバイス400に接続用のQRコード(登録商標)等が予め付与されており、第1端末装置200を用いてQRコードを読み取ることによって第1端末装置200とセンシングデバイス400の接続が確立可能であってもよい。この場合、第2端末装置300が送信する接続情報とは、接続対象機器を特定する情報と、QRコードの読取りアプリケーションの起動を指示する制御情報を含んでもよい。例えば接続情報を受信した第1端末装置200は、「座面センサ440のQRコードを読み取ってください」というテキストを表示する処理、及び、QRコードの読取りアプリケーションを起動する処理を実行する。なおポジショニングアプリケーションAP1が、QRコードの読取り機能を有してもよい。 In step S104, the second terminal device 300 outputs connection information used for connecting the sensing device 400 that outputs the sensing result and the first terminal device 200 to the first terminal device 200 via the network NW. For example, a QR code (registered trademark) for connection is provided to the sensing device 400 in advance, and a connection between the first terminal device 200 and the sensing device 400 can be established by reading the QR code using the first terminal device 200. It may be. In this case, the connection information transmitted by the second terminal device 300 may include information specifying the device to be connected and control information instructing the activation of the QR code reading application. For example, the first terminal device 200 that has received the connection information executes a process of displaying the text "Please read the QR code of the seat sensor 440" and a process of starting a QR code reading application. Note that the positioning application AP1 may have a QR code reading function.
ただし、接続情報はこれに限定されない。例えばセンシングデバイス400のIPアドレス等が既知である場合、接続情報は、当該IPアドレスの機器との接続を指示する情報であってもよい。この場合、例えば第1端末装置200は、「座面センサと接続してよいですか? Yes/No」等のテキストを含む認証画面を表示し、当該認証画面において第1ユーザが接続を許可する入力操作(例えばYesを選択する操作)を行った場合、指定されたIPアドレスを有するセンシングデバイス400との接続を確立してもよい。 However, the connection information is not limited to this. For example, if the IP address of the sensing device 400 is known, the connection information may be information that instructs connection to a device having the IP address. In this case, for example, the first terminal device 200 displays an authentication screen including text such as "Can I connect to the seat sensor? Yes/No," and the first user allows the connection on the authentication screen. When an input operation (for example, an operation of selecting Yes) is performed, a connection may be established with the sensing device 400 having the specified IP address.
その他、ここでの接続情報は、第2ユーザによって指定されたセンシングデバイス400と第1端末装置200との接続確立に用いられる情報であればよく、具体的な態様は種々の変形実施が可能である。 In addition, the connection information here may be any information used to establish a connection between the sensing device 400 specified by the second user and the first terminal device 200, and various modifications can be made to the specific aspect. be.
ステップS105において、第1端末装置200は、接続情報に基づいて、第2ユーザが指定したセンシングデバイス400との接続を確立する。ステップS106において、センシングデバイス400は、センシングデータを取得し、当該センシングデータを第1端末装置200に送信する。センシングデータの詳細については後述する。 In step S105, the first terminal device 200 establishes a connection with the sensing device 400 specified by the second user based on the connection information. In step S106, the sensing device 400 acquires sensing data and transmits the sensing data to the first terminal device 200. Details of the sensing data will be described later.
なお、図6では接続情報に基づく第1端末装置200とセンシングデバイス400の接続が成功した例を説明している。ただし、何らかのエラーが発生することで、第1端末装置200とセンシングデバイス400の接続が失敗するケースもある。例えば、センシングデバイス400は導入済みであるが(ステップS102で送信される情報に含まれるが)、電源がオンになっていない、あるいは、センシングデバイス400の通信機能に何らかの異常が生じている等のケースでは接続が失敗する。この場合、第1端末装置200は、センシングデバイス400との接続に失敗したことを表す情報を第2端末装置300に送信してもよい。そして第2端末装置300は、接続状態を改善するためのアドバイスを第1端末装置200に送信してもよい。例えば第2ユーザは、センシングデバイス400の電源を入れる、センシングデバイス400を再起動する等のアドバイスを行ってもよい。このようにすれば、使用するセンシングデバイス400の選択において第2ユーザのサポートを受けるだけでなく、当該センシングデバイス400との接続が失敗する場合に、接続状態の改善についても第2ユーザのサポートを受けることが可能になる。第2ユーザは、センシングデバイス400の使用方法、設定方法についても第1ユーザに比べて精通している蓋然性が高く、第2ユーザのサポートによりセンシングデバイス400の適切な利用が可能になる。 Note that FIG. 6 describes an example in which the first terminal device 200 and the sensing device 400 are successfully connected based on the connection information. However, there are cases where the connection between the first terminal device 200 and the sensing device 400 fails due to the occurrence of some kind of error. For example, the sensing device 400 has been installed (included in the information transmitted in step S102), but the power is not turned on, or there is some abnormality in the communication function of the sensing device 400. In some cases the connection fails. In this case, the first terminal device 200 may transmit information indicating that the connection with the sensing device 400 has failed to the second terminal device 300. The second terminal device 300 may then send advice for improving the connection state to the first terminal device 200. For example, the second user may give advice such as turning on the sensing device 400 or restarting the sensing device 400. In this way, the second user not only supports the selection of the sensing device 400 to be used, but also receives support from the second user for improving the connection state when the connection with the sensing device 400 fails. becomes possible to receive. The second user is likely to be more familiar with how to use and configure the sensing device 400 than the first user, and the second user's support makes it possible to use the sensing device 400 appropriately.
また以上では接続試行時の接続エラーについて説明したが、第1端末装置200とセンシングデバイス400の接続状態は、接続成功後も定期的に監視されてもよい。このようにすれば、通信中に何らかのエラーが発生した場合にも、当該エラーを適切に検出できる。例えば図6には不図示であるが、第1端末装置200は、ステップS105の処理が完了した後、定期的にセンシングデバイス400と接続できているかを確認する処理を実行する。例えば第1端末装置200は、センシングデバイス400に対して定期的に確認用のパケットを送信し、ACKを受信したかを判定してもよい。あるいは、第1端末装置200は、所定期間以上、センシングデバイス400からセンシングデータが送信されない場合に接続エラーを検出してもよい。そして第1端末装置200は、接続エラーが検出された場合、上記と同様にセンシングデバイス400との接続に失敗したことを表す情報を第2端末装置300に送信してもよい Moreover, although a connection error during a connection attempt has been described above, the connection state between the first terminal device 200 and the sensing device 400 may be periodically monitored even after the connection is successful. In this way, even if some error occurs during communication, the error can be appropriately detected. For example, although not shown in FIG. 6, after the process of step S105 is completed, the first terminal device 200 periodically executes a process of checking whether it is connected to the sensing device 400. For example, the first terminal device 200 may periodically transmit a confirmation packet to the sensing device 400 and determine whether an ACK has been received. Alternatively, the first terminal device 200 may detect a connection error when sensing data is not transmitted from the sensing device 400 for a predetermined period or more. If a connection error is detected, the first terminal device 200 may transmit information indicating that the connection with the sensing device 400 has failed to the second terminal device 300 in the same manner as described above.
またステップS107において、第1端末装置200は、撮像部260を用いて被介助者を含む撮像画像を取得する。例えば、ベッドポジションの調整を行う場面を考えた場合、撮像部260は、介助者である家族が、ベッド610に横たわっている被介助者の姿勢を調整する様子を撮像した動画像を取得してもよい。 Further, in step S107, the first terminal device 200 uses the imaging unit 260 to acquire a captured image including the person being assisted. For example, when considering a situation in which the bed position is adjusted, the imaging unit 260 acquires a moving image of a family member who is a caregiver adjusting the posture of a person being cared for who is lying on the bed 610. Good too.
また本実施形態の情報処理システム10は、第1ユーザを撮像した撮像画像(第1撮像画像とも表記)に基づいて、第1端末装置200の第1ユーザの感情分析を行ってもよい。例えば図6のステップS108において、第1端末装置200は、ステップS107で取得された撮像画像に基づいて、被介助者の感情を推定する処理を行う。なお画像に基づいて人物の感情を推定する手法として、例えば人物の顔を撮像した画像である入力データに対して、当該人物の感情を特定する情報が正解データとして付与された訓練データに基づく機械学習が用いられてもよい。例えば第1端末装置200は、当該機械学習によって取得された学習済モデルにステップS107で取得された撮像画像を入力することによって感情分析を行う。ここでのモデルは、例えばCNN(Convolutional Neural Network)である。また“https://azure.microsoft.com/ja-jp/services/cognitive-services/face/”に開示のFace API等、画像処理に基づいて感情を分析する種々の手法が知られており、本実施形態ではそれらの手法を広く適用可能である。また撮像画像に被介助者の家族が撮像されている場合、ステップS108において、被介助者の家族の感情分析が行われてもよい。なお感情の推定は第1端末装置200で行われるものに限定されない。例えば、撮像画像がサーバシステム100に送信され、サーバシステム100の処理部110において感情分析が行われてもよい。 Further, the information processing system 10 of the present embodiment may perform emotional analysis of the first user of the first terminal device 200 based on a captured image of the first user (also referred to as a first captured image). For example, in step S108 of FIG. 6, the first terminal device 200 performs a process of estimating the emotion of the care recipient based on the captured image acquired in step S107. As a method for estimating a person's emotion based on an image, for example, a machine based on training data in which information specifying the person's emotion is added as correct data to input data that is an image of a person's face. Learning may also be used. For example, the first terminal device 200 performs sentiment analysis by inputting the captured image acquired in step S107 to the learned model acquired by the machine learning. The model here is, for example, a CNN (Convolutional Neural Network). In addition, various methods are known to analyze emotions based on image processing, such as the Face API disclosed at “https://azure.microsoft.com/ja-jp/services/cognitive-services/face/”. In this embodiment, these methods can be widely applied. Furthermore, if the family member of the care recipient is captured in the captured image, emotional analysis of the family member of the care recipient may be performed in step S108. Note that emotion estimation is not limited to that performed by the first terminal device 200. For example, a captured image may be transmitted to the server system 100, and emotion analysis may be performed in the processing unit 110 of the server system 100.
ステップS109において、第1端末装置200は、センシングデータ、撮像画像、感情分析の結果を含む情報を第2端末装置300に送信する。ステップS110において、第2端末装置300の表示部340は、送信された情報を含む画面を表示する。具体的な画面については、図9A-図9C、図14、図16、図19等を用いて後述する。 In step S109, the first terminal device 200 transmits information including the sensing data, the captured image, and the result of emotional analysis to the second terminal device 300. In step S110, the display unit 340 of the second terminal device 300 displays a screen containing the transmitted information. Specific screens will be described later using FIGS. 9A to 9C, FIG. 14, FIG. 16, FIG. 19, and the like.
なお図6のステップS107の処理は、1回行われるものに限定されず、繰り返し実行されてもよい。例えば第1端末装置200は、ポジショニングアプリケーションAP1の設定期間(教師データが設定される期間)において、第1端末装置200の第1ユーザを撮像した第1撮像画像を第2端末装置300に送信してもよい。このようにすれば、教師データの設定を遠隔で行っている間の被介助者、及び当該被介助者の家族等の様子を、分かりやすく第2端末装置300の第2ユーザに提示することが可能になる。 Note that the process of step S107 in FIG. 6 is not limited to being performed once, but may be performed repeatedly. For example, the first terminal device 200 transmits a first captured image of the first user of the first terminal device 200 to the second terminal device 300 during the setting period of the positioning application AP1 (period in which teacher data is set). You can. In this way, it is possible to clearly show the second user of the second terminal device 300 the state of the person being assisted and the person's family while setting the teacher data remotely. It becomes possible.
その際、第2端末装置300は、第1端末装置200から送信された第1撮像画像と、感情分析の結果を関連付けて表示してもよい。例えば図9C等を用いて後述するように、撮像画像の一部に感情を表すオブジェクトEMが重畳表示されてもよい。これにより被介助者等の位置や動作と、当該被介助者等の感情を対応付けて分かりやすく第2ユーザに提示することが可能になる。例えば第2ユーザは、被介助者が現在の姿勢をどのように感じているか、介助を行っている家族が介助の内容や被介助者の反応をどのように感じているかを理解しやすくなる。結果として、被介助者やその家族が好ましく思っていない暗黙知が教師データとして設定されることが抑制されるため、被介助者に適した教師データの設定等が可能になる。 At this time, the second terminal device 300 may display the first captured image transmitted from the first terminal device 200 in association with the result of the emotion analysis. For example, as will be described later with reference to FIG. 9C and the like, an object EM representing an emotion may be displayed superimposed on a portion of the captured image. This makes it possible to associate the position and motion of the person to be assisted, etc. with the emotion of the person to be assisted, etc., and to present this to the second user in an easy-to-understand manner. For example, the second user can easily understand how the person being assisted feels about their current posture, and how the family providing the assistance feels about the content of the assistance and the reaction of the person being assisted. As a result, tacit knowledge that the person being cared for or their family does not like is prevented from being set as teacher data, so it becomes possible to set teacher data suitable for the person being cared for.
またステップS107の処理と同様に、図6のステップS106、S108、S109、S110の処理もそれぞれ1回行われるものに限定されず、繰り返し実行されてもよい。例えば、センシングデータ、感情分析の結果は所定間隔で取得され、任意のタイミングで第1端末装置200から第2端末装置300に送信されてもよい。そして第2端末装置300は、ステップS110において、センシングデータ、撮像画像、感情分析結果の表示領域が所定間隔で更新される画面を表示してもよい。即ち、ステップS110の表示処理は、時間の経過とともに更新されていく画像の表示処理であってもよい。 Further, similar to the process in step S107, the processes in steps S106, S108, S109, and S110 in FIG. 6 are not limited to being performed once each, but may be performed repeatedly. For example, sensing data and emotional analysis results may be acquired at predetermined intervals and transmitted from the first terminal device 200 to the second terminal device 300 at any timing. In step S110, the second terminal device 300 may display a screen in which display areas for sensing data, captured images, and emotion analysis results are updated at predetermined intervals. That is, the display processing in step S110 may be display processing of an image that is updated over time.
次にステップS111において、第2ユーザは表示される画面を閲覧しながら教師データの設定入力を行い、第2端末装置300は当該設定入力を受け付ける。例えば第2ユーザは、第1端末装置200から送信される撮像画像やセンシングデータを閲覧することによって、現在の姿勢が対象の被介助者にとって適切か否かを判定する。不適切であると判定した場合、例えば第2ユーザは、音声や動画像等を用いて被介助者の家族に姿勢の変更や、クッションの追加等を指示する。姿勢が適切であると判定した場合、例えば第2ユーザは、その旨を表す設定入力を行う。例えば図9Cを用いて後述するアルゴリズム作成ボタン(オブジェクトOB4)の選択操作が行われた場合、その際に表示されていた撮像画像等が教師データとして設定される。また図16を用いて後述するように、第2ユーザはセンシングデータの一部を選択する操作を行ってもよく、設定入力の詳細については種々の変形実施が可能である。 Next, in step S111, the second user inputs settings for teacher data while viewing the displayed screen, and the second terminal device 300 accepts the settings input. For example, the second user determines whether the current posture is appropriate for the target person being assisted by viewing the captured image and sensing data transmitted from the first terminal device 200. If it is determined that it is inappropriate, for example, the second user instructs the care recipient's family to change their posture, add a cushion, etc. using audio, video, etc. If it is determined that the posture is appropriate, for example, the second user performs a setting input indicating that. For example, when a selection operation is performed on the algorithm creation button (object OB4), which will be described later using FIG. 9C, the captured image etc. that were displayed at that time are set as the teacher data. Furthermore, as will be described later with reference to FIG. 16, the second user may perform an operation to select part of the sensing data, and various modifications can be made to the details of the setting input.
なお以上の説明から分かるように、設定モードにおいて、第2ユーザの音声等が第1ユーザに送信されてもよい。例えば第2端末装置300は、教師データの遠隔設定が行われる設定期間において、第2端末装置300の第2ユーザを撮像した第2撮像画像を第1端末装置に送信してもよい。このようにすれば、第2ユーザが声や動きを用いて姿勢に関する指示を行えるため、被介助者本人やその家族に対して、適切な姿勢を取るために必要な動作や補助グッズ(クッション等)等をわかりやすく提示することが可能になる。 Note that, as can be seen from the above description, in the setting mode, the second user's voice, etc. may be transmitted to the first user. For example, the second terminal device 300 may transmit a second captured image of the second user of the second terminal device 300 to the first terminal device during a setting period in which remote setting of teacher data is performed. In this way, the second user can give instructions regarding posture using voice and movements, and can provide the person being assisted and their family with the necessary movements and auxiliary goods (such as cushions) to take an appropriate posture. ) etc. can be presented in an easy-to-understand manner.
また第1端末装置200は、第2端末装置300の第2ユーザの撮像画像(第2撮像画像)をログデータとして記憶してもよい。例えば第2撮像画像は教師データの一部として用いられ、第1端末装置200は当該教師データに対応するポジショニングアプリケーションAP1を記憶してもよい。あるいは、ポジショニングアプリケーションAP1とは異なる情報として、第2撮像画像が記憶されてもよい。 Further, the first terminal device 200 may store a captured image (second captured image) of the second user of the second terminal device 300 as log data. For example, the second captured image may be used as part of the teacher data, and the first terminal device 200 may store the positioning application AP1 corresponding to the teacher data. Alternatively, the second captured image may be stored as information different from the positioning application AP1.
例えばここでの第2撮像画像は、介助の専門家である第2ユーザが、被介助者に適切な姿勢を取らせるための動作の見本を見せている画像であってもよい。なお、第2ユーザは第1ユーザとは離れた場所にいることを想定しているため、第1ユーザに含まれる被介助者の介助を実際に行うことは難しい可能性がある。よって、第2ユーザが介助する被介助者は、他の人物であってもよいし、人形等のダミーを用いたものであってもよい。またメタバース等の仮想空間において見本を見せることも妨げられない。このようにすれば、第1ユーザが熟練の介助者の動きを見返すことが可能になるため、専門家ではない被介助者の家族であっても、適切なポジション調整を行うことが可能になる。例えば第1端末装置200は、ポジショニングアプリケーションAP1の利用期間において、ログデータとして記憶した第2撮像画像を表示する。このようにすれば、実際にポジション調整が行われる際に、熟練の介助者の動きを確認することが可能になる。 For example, the second captured image here may be an image in which the second user, who is an assistance expert, is showing a sample motion for making the person being assisted take an appropriate posture. Note that, since the second user is assumed to be in a location apart from the first user, it may be difficult to actually assist the person being assisted included in the first user. Therefore, the person being assisted by the second user may be another person or may be a dummy such as a doll. Furthermore, showing samples in a virtual space such as the metaverse is not prohibited. In this way, the first user can review the movements of the skilled caregiver, making it possible for even the family of the person being assisted who is not an expert to make appropriate position adjustments. . For example, the first terminal device 200 displays the second captured image stored as log data during the usage period of the positioning application AP1. In this way, it becomes possible to check the movements of the skilled assistant when the position is actually adjusted.
またここでのログデータは、第1端末装置200の第1ユーザの撮像画像(第1撮像画像)を含んでもよい。例えば、第2撮像画像が見本を見せている画像である場合、第1撮像画像は、当該見本に従って動作する第1ユーザを撮像した画像である。このようにすれば、第1ユーザはポジション調整の実行時に、過去(設定時)の自身の行動を確認できるため、適切な動作を実行しやすくなる。例えば、ポジショニングアプリケーションAP1(設定アプリケーション)がWeb会議機能を有する場合、第1ユーザの音声及び画像と、第2ユーザの音声及び画像を含む情報(映像)が時系列的に録画され、当該録画データがログデータとして保存されてもよい。このようにすれば、第1ユーザは、第2ユーザとどのようなやり取りを行ったかを確認できるため、より適切な動作を実行しやすくなる。 Further, the log data here may include a captured image of the first user of the first terminal device 200 (first captured image). For example, if the second captured image is an image showing a sample, the first captured image is an image of the first user acting according to the sample. In this way, the first user can check his or her own actions in the past (at the time of setting) when performing position adjustment, making it easier to perform appropriate actions. For example, when the positioning application AP1 (setting application) has a web conference function, information (video) including the first user's voice and image and the second user's voice and image are recorded in chronological order, and the recorded data may be saved as log data. In this way, the first user can check what kind of interaction has taken place with the second user, making it easier for the first user to perform more appropriate actions.
教師データの設定入力が行われた場合、ステップS112において、第2端末装置300は、設定入力に基づく情報をサーバシステム100に送信する。教師データが撮像画像やセンシングデータである場合、ステップS112で送信される情報は教師データそのものであってもよい。またステップS112で送信される情報は、教師データを生成するための情報であってもよい。例えば第2ユーザの設定入力は、分類や回帰等の機械学習を行う際の正解を表すデータであり、当該データに基づく機械学習が行われることによって教師データが生成されてもよい。なお機械学習等の処理が行われる場合、当該処理は第2端末装置300で実行されてもよいし、サーバシステム100で実行されてもよい。詳細については図16、図17を用いて後述する。 If the teacher data settings have been input, the second terminal device 300 transmits information based on the settings input to the server system 100 in step S112. When the teacher data is a captured image or sensing data, the information transmitted in step S112 may be the teacher data itself. Further, the information transmitted in step S112 may be information for generating teacher data. For example, the setting input by the second user is data representing a correct answer when performing machine learning such as classification or regression, and teacher data may be generated by performing machine learning based on the data. Note that when a process such as machine learning is performed, the process may be executed by the second terminal device 300 or by the server system 100. Details will be described later using FIGS. 16 and 17.
ステップS113において、サーバシステム100は、第2ユーザの設定入力に基づいて作成された教師データに対応するアルゴリズムを作成する。ここでのアルゴリズムは、既存のポジショニングアプリケーションAP1に教師データを追加するためのアップデートデータであってもよい。あるいはアルゴリズムは、新規のポジショニングアプリケーションAP1であってもよい。 In step S113, the server system 100 creates an algorithm corresponding to the teacher data created based on the second user's setting input. The algorithm here may be update data for adding training data to the existing positioning application AP1. Alternatively, the algorithm may be a new positioning application AP1.
ステップS114において、サーバシステム100は、作成したアルゴリズムを第1端末装置200に送信する。これにより、第2ユーザの設定入力によって作成された教師データに対応するポジショニングアプリケーションAP1を、第1端末装置200において利用することが可能になる。 In step S114, the server system 100 transmits the created algorithm to the first terminal device 200. This allows the first terminal device 200 to use the positioning application AP1 corresponding to the teacher data created by the second user's setting input.
2.2 ベッドポジション
図7は、ベッド610の周辺におけるデバイスの配置例を示す図である。図7に示すように、本実施形態における第1端末装置200は、ベッド610のフットボード側に固定される端末装置200-1であってもよいし、ベッド610のサイドレールに固定される端末装置200-2であってもよいし、この両方であってもよい。ただし、第1端末装置200が固定される場所はこれに限定されず、ベッド610の他の位置に固定されてもよいし、ベッド610上の被介助者を撮像可能な他の場所(例えば居室の壁や家具等)に固定されてもよい。あるいは、第1端末装置200は介助者によって携帯され、当該介助者がベッド610のフットボード側あるいはサイドレール側に位置した状態で第1端末装置200を使用することによって、以下で説明する処理が実行されてもよい。
2.2 Bed Position FIG. 7 is a diagram showing an example of arrangement of devices around the bed 610. As shown in FIG. 7, the first terminal device 200 in this embodiment may be a terminal device 200-1 fixed to the footboard side of the bed 610, or a terminal device 200-1 fixed to the side rail of the bed 610. It may be the device 200-2 or both. However, the location where the first terminal device 200 is fixed is not limited to this, and may be fixed at another location on the bed 610, or at another location where the person being assisted on the bed 610 can be imaged (for example, in the living room). It may also be fixed to walls, furniture, etc.). Alternatively, the first terminal device 200 is carried by a caregiver, and the process described below can be performed by using the first terminal device 200 while the caregiver is positioned on the footboard side or side rail side of the bed 610. May be executed.
またベッド610に対して、端末装置200-2の反対側にはディスプレイDPが配置されてもよい。なおディスプレイDPは、ベッド610に固定されてもよいし、ポジショニングアプリケーションAP1を用いてベッドポジション調整を行う介助者が自然に閲覧可能な他の位置に配置されてもよい。例えばディスプレイDPは壁面に固定されてもよいし、床面に自立するスタンド等に固定されてもよい。またディスプレイDPは省略が可能である。 Furthermore, a display DP may be placed on the opposite side of the terminal device 200-2 with respect to the bed 610. Note that the display DP may be fixed to the bed 610, or may be placed at another position where it can be viewed naturally by an assistant who adjusts the bed position using the positioning application AP1. For example, the display DP may be fixed to a wall, or may be fixed to a stand that stands on the floor. Further, the display DP can be omitted.
第1端末装置200は、図3を用いて上述したように、例えば撮像部260(カメラ)を有するスマートフォン等の装置である。第1端末装置200はサーバシステム100に撮像画像を送信する。ディスプレイDPは、サーバシステム100から送信された画像を直接、または第1端末装置200等の他の装置を介して受信し、受信した画像を表示する。 As described above using FIG. 3, the first terminal device 200 is, for example, a device such as a smartphone having an imaging unit 260 (camera). The first terminal device 200 transmits the captured image to the server system 100. The display DP receives an image transmitted from the server system 100 directly or via another device such as the first terminal device 200, and displays the received image.
ポジショニングアプリケーションAP1は、ベッドポジションの調整をサポートするアプリケーションであってもよい。ベッドポジションの調整とは、例えば褥瘡抑制のための被介助者の姿勢制御や、クッションの配置制御であってもよい。またベッドポジションの調整とは、オムツ交換における被介助者の姿勢制御や、オムツの配置制御であってもよい。 The positioning application AP1 may be an application that supports adjusting the bed position. Adjustment of the bed position may be, for example, controlling the posture of the person being assisted to prevent bedsores or controlling the arrangement of cushions. Further, the adjustment of the bed position may be the posture control of the person being assisted during diaper changing or the position control of the diaper.
図8は、設定モードにおいて用いられるデバイスの関係を例示する図である。例えばポジショニングアプリケーションAP1は、第1端末装置200に含まれる撮像部260による撮像画像である画像情報と、ベッド610及びマットレス620の少なくとも一方からの情報を取得してもよい。ここでのベッド610及びマットレス620は、被介助者が使用している状態における圧力分布を可視化可能なデバイスである。例えば圧力分布を可視化する手法として、特開2019-039788号公報等に開示された公知の手法を広く適用可能である。 FIG. 8 is a diagram illustrating the relationship of devices used in the setting mode. For example, the positioning application AP1 may acquire image information, which is an image captured by the imaging unit 260 included in the first terminal device 200, and information from at least one of the bed 610 and the mattress 620. The bed 610 and the mattress 620 here are devices that can visualize the pressure distribution while being used by the person being assisted. For example, as a method for visualizing pressure distribution, a known method disclosed in Japanese Patent Application Publication No. 2019-039788 and the like can be widely applied.
例えば第1端末装置200は、図6のステップS109において、第1ユーザを撮像した第1撮像画像、第1撮像画像に基づく感情分析の結果、及び、ベッド610やマットレス620によって取得されたセンシングデータである圧力分布を含む情報を第2端末装置300に送信する。 For example, the first terminal device 200, in step S109 of FIG. The information including the pressure distribution is transmitted to the second terminal device 300.
図9A~図9Cは、教師データの設定処理において、第1端末装置200の表示部240及び第2端末装置300の表示部340に表示される画面の例である。本実施形態に係るポジショニングアプリケーションAP1(設定アプリケーション)は、Web会議機能を有してもよい。図9Aに示す画面は、例えば参加者ボタン、チャットボタン、カメラボタン、マイクボタン等の種々のボタンを含む。参加者ボタンが選択された場合、Web会議の参加者が表示される。チャットボタンが選択された場合、チャット(テキストによるコミュニケーション)を行うための領域が表示される。カメラボタンが選択された場合、図9Aの画面を表示する機器(第1端末装置200又は第2端末装置300)のカメラのオンオフが切り替えられる。マイクボタンが選択された場合、図9Aの画面を表示する機器のマイクのオンオフが切り替えられる。また図9Aに示す画面は、参加者毎の表示領域を含む。図9Aの例では、参加者はユーザAとユーザBであり、ユーザAに対応する領域が相対的に広くなっている。例えば第1ユーザ及び第2ユーザの一方がWeb会議を設定し、各ユーザが当該会議に参加することによって、図6のステップS101の処理が実行され、図9Aに示す画面が表示される。 9A to 9C are examples of screens displayed on the display unit 240 of the first terminal device 200 and the display unit 340 of the second terminal device 300 in the teacher data setting process. The positioning application AP1 (setting application) according to this embodiment may have a web conference function. The screen shown in FIG. 9A includes various buttons such as a participant button, a chat button, a camera button, a microphone button, and the like. When the participant button is selected, the participants of the web conference are displayed. When the chat button is selected, an area for chatting (text communication) is displayed. When the camera button is selected, the camera of the device (first terminal device 200 or second terminal device 300) that displays the screen of FIG. 9A is turned on and off. When the microphone button is selected, the microphone of the device displaying the screen of FIG. 9A is turned on and off. Further, the screen shown in FIG. 9A includes a display area for each participant. In the example of FIG. 9A, the participants are user A and user B, and the area corresponding to user A is relatively large. For example, when one of the first user and the second user sets up a web conference and each user participates in the conference, the process of step S101 in FIG. 6 is executed, and the screen shown in FIG. 9A is displayed.
図9Bは、図9Aに示す画面において、上部に表示される連携ボタンの選択操作が行われた場合に表示される図であり、図6のステップS103に示した接続対象となるセンシングデバイス400の選択処理に対応する図である。 FIG. 9B is a diagram displayed when the selection operation of the cooperation button displayed at the top of the screen shown in FIG. 9A is performed, and is a diagram of the sensing device 400 to be connected shown in step S103 of FIG. 6. It is a figure corresponding to selection processing.
連携ボタンの選択操作が行われた場合、画面の一部(図9Bの例では画面の左)に、接続対象であるセンシングデバイス400を選択するためのオブジェクトOB2が表示されてもよい。なお図6を用いて上述したとおり、ステップS103の処理は第2ユーザが実行するため、連携ボタン及びオブジェクトOB2は、第2端末装置300に表示され、第1端末装置200に表示されなくてもよい。ただし、第1ユーザが接続対象のセンシングデバイス400を選択してもよいため、連携ボタン及びオブジェクトOB2は、第1端末装置200に表示されてもよい。以下、第2端末装置300での表示例について説明する。 When the selection operation of the cooperation button is performed, an object OB2 for selecting the sensing device 400 to be connected may be displayed on a part of the screen (the left side of the screen in the example of FIG. 9B). Note that, as described above using FIG. 6, since the process of step S103 is executed by the second user, the cooperation button and object OB2 are displayed on the second terminal device 300, even if they are not displayed on the first terminal device 200. good. However, since the first user may select the sensing device 400 to be connected, the cooperation button and object OB2 may be displayed on the first terminal device 200. A display example on the second terminal device 300 will be described below.
第2端末装置300は、図6のステップS102に示したように、第1端末装置200の周辺に導入済みのセンシングデバイス400に関する情報を取得し、当該センシングデバイス400のそれぞれについて、接続/非接続を選択するオブジェクトを、オブジェクトOB2として表示してもよい。図9Bの例であれば、マットレス630、ベッド610、眠りスキャン(図11を用いて後述する検出装置430)、ベッドサイドセンサ420、座面センサ440(図15を用いて後述)、嚥下ムセアプリ(図18を用いて後述する嚥下ムセ検出装置460)が第1端末装置200と接続可能であり、オブジェクトOB2として、それぞれに対応するチェックボックスが表示される。また第2端末装置300は、「接続するデバイスを選んでください」等の接続対象装置の選択を促すテキストを表示してもよい。第2ユーザは、オブジェクトOB2を用いてチェックボックスにチェックを入れることによって、接続対象となるセンシングデバイス400を決定する。第1端末装置200は、オブジェクトOB2に対する選択操作の結果に基づいて、センシングデバイス400との接続を行う(図6のステップS104-S105に対応)。 As shown in step S102 in FIG. 6, the second terminal device 300 acquires information regarding the sensing devices 400 that have been introduced around the first terminal device 200, and determines whether each of the sensing devices 400 is connected or disconnected. The object for selecting may be displayed as object OB2. In the example of FIG. 9B, a mattress 630, a bed 610, a sleep scan (detection device 430 described later with reference to FIG. 11), a bedside sensor 420, a seat sensor 440 (described later with reference to FIG. 15), a swallowing motion app ( A swallowing choking detection device 460 (to be described later with reference to FIG. 18) can be connected to the first terminal device 200, and check boxes corresponding to the objects OB2 are displayed. The second terminal device 300 may also display text prompting the user to select a device to be connected, such as "Please select a device to connect." The second user determines the sensing device 400 to be connected by checking the checkbox using object OB2. The first terminal device 200 establishes a connection with the sensing device 400 based on the result of the selection operation on the object OB2 (corresponding to steps S104-S105 in FIG. 6).
また図9Bに示すように、連携ボタンの選択操作が行われた場合、骨格トラッキングのオン/オフを切り替えるチェックボックスに対応するオブジェクトOB1が表示されてもよい。 Further, as shown in FIG. 9B, when a selection operation of the cooperation button is performed, an object OB1 corresponding to a check box for switching on/off of skeleton tracking may be displayed.
オブジェクトOB1に対するユーザ操作に基づいて、ポジショニングアプリケーションAP1は、被介助者の骨格トラッキング処理を行うか否かを切り替える。例えばチェックが入った状態では、ポジショニングアプリケーションAP1は撮像画像に基づく骨格トラッキング処理を行い、チェックが入っていない状態では骨格トラッキング処理を省略する。なお画像に基づく骨格トラッキングの手法としては、“Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields” (https://arxiv.org/pdf/1611.08050.pdf), Zhe Cao他に開示されたOpenPose等、種々の手法が知られており、本実施形態ではそれらを広く適用できる。 Based on the user's operation on the object OB1, the positioning application AP1 switches whether or not to perform the skeleton tracking process of the person being cared for. For example, in a checked state, the positioning application AP1 performs skeleton tracking processing based on the captured image, and in an unchecked state, the positioning application AP1 omits the skeleton tracking processing. Image-based skeleton tracking methods include “Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields” (https://arxiv.org/pdf/1611.08050.pdf), OpenPose disclosed by Zhe Cao et al. Various techniques are known, and they can be widely applied in this embodiment.
図9Cは、図6のステップS110において、第2端末装置300の表示部340に表示される画面例である。例えばWeb会議には、被介助者を撮像する第1端末装置200と、被介助者の家族を撮像する第1端末装置200と、第2ユーザを撮像する第2端末装置300と、が参加してもよい。図9Cの例では、被介助者(例えばユーザA)に対応する画面が相対的に大きく表示され、家族(例えばユーザC)及び第2ユーザ(例えばユーザB)に対応する画面が相対的に小さく表示される。被介助者に対応する画面とは、被介助者を撮像したリアルタイムの撮像画像である。なお、何れのユーザに対応する画面を大きく表示するかは、切り替えが可能であってもよい。また、被介助者の撮像はリアルタイムで実行されるものには限定されず、録画された動画等に対して第2ユーザがアドバイスを行う形式であってもよい。また被介助者と家族は1台の第1端末装置200からWeb会議に参加してもよい。また図9Cに示す画面は、ネットワークを介して接続される他の機器の表示部に表示されてもよい。その他、表示画面の具体的な態様は種々の変形実施が可能である。 FIG. 9C is an example of a screen displayed on the display unit 340 of the second terminal device 300 in step S110 of FIG. For example, a first terminal device 200 that takes an image of the person being cared for, a first terminal device 200 that takes an image of the person's family, and a second terminal device 300 that takes an image of the second user participate in a web conference. You can. In the example of FIG. 9C, the screen corresponding to the person being assisted (for example, user A) is displayed relatively large, and the screens corresponding to the family (for example, user C) and the second user (for example, user B) are displayed relatively small. Is displayed. The screen corresponding to the person being assisted is a real-time captured image of the person being assisted. Note that it may be possible to switch which user's screen is displayed in a larger size. Further, the imaging of the person to be assisted is not limited to being performed in real time, and may also be in a format in which the second user gives advice on a recorded video or the like. Further, the person being cared for and the family member may participate in the web conference from one first terminal device 200. Further, the screen shown in FIG. 9C may be displayed on the display section of another device connected via the network. In addition, various modifications can be made to the specific aspect of the display screen.
図9Cに示す画面のうち、例えば被介助者に対応する画面は、画像情報を表示する領域RE1と、圧力分布を表示する領域RE2を含む。図9Cの例では、領域RE1には、ベッド610に横たわる被介助者を、当該被介助者の足の側から撮像した画像が表示される。当該画像は、例えば図7の端末装置200-1の撮像部260を用いて撮像される。例えば設定モードでは、端末装置200-1の撮像部260を用いて撮像される動画像が、領域RE1にリアルタイムに表示されてもよい。当然、端末装置200-2によって撮像された画像が領域RE1に表示されてもよいし、他の位置に配置される第1端末装置200によって撮像された画像が領域RE1に表示されてもよい。 Among the screens shown in FIG. 9C, for example, the screen corresponding to the person being assisted includes an area RE1 that displays image information and an area RE2 that displays pressure distribution. In the example of FIG. 9C, an image of the person being assisted lying on the bed 610 captured from the side of the assisted person's feet is displayed in the area RE1. The image is captured using, for example, the imaging unit 260 of the terminal device 200-1 in FIG. 7. For example, in the setting mode, a moving image captured using the imaging unit 260 of the terminal device 200-1 may be displayed in the area RE1 in real time. Naturally, an image captured by the terminal device 200-2 may be displayed in the area RE1, or an image captured by the first terminal device 200 placed at another position may be displayed in the area RE1.
上述したように、本実施形態の情報処理システム10は第1ユーザの感情分析を行ってもよい。図9Cの例では、撮像画像に対応する画像情報の一部に、ユーザの感情分析結果を表すオブジェクトEMが表示される。オブジェクトEMは、例えば感情を表すイラストであってもよい。図9Cの例では、被介助者が好意的な感情を抱いていることを示すイラストであるオブジェクトEMが表示される。ただし、感情分析の結果がテキスト等を用いて表示されてもよく、具体的な表示態様は種々の変形実施が可能である。 As described above, the information processing system 10 of this embodiment may perform emotional analysis of the first user. In the example of FIG. 9C, an object EM representing the user's emotion analysis result is displayed as part of the image information corresponding to the captured image. The object EM may be, for example, an illustration expressing an emotion. In the example of FIG. 9C, an object EM is displayed, which is an illustration showing that the person being cared for has favorable feelings. However, the results of the emotional analysis may be displayed using text or the like, and the specific display format can be modified in various ways.
また圧力分布は、上述したベッド610やマットレス620によって出力される情報であり、例えば被介助者が横になる面の各位置における圧力値を色の濃淡等を用いて表現した情報である。例えば設定モードでは、時系列的に取得される圧力分布がリアルタイムに表示されてもよい。 Further, the pressure distribution is information outputted by the bed 610 and the mattress 620 described above, and is, for example, information expressing the pressure value at each position on the surface on which the person to be assisted lies using color shading or the like. For example, in the setting mode, the pressure distribution acquired in time series may be displayed in real time.
また図9Cに示す画面は、回転ボタンに対応するオブジェクトOB3、及びアルゴリズム作成ボタンに対応するオブジェクトOB4、第1ユーザ及び第2ユーザのそれぞれに対応するポインターPO1、PO2を含んでもよい。 The screen shown in FIG. 9C may also include an object OB3 corresponding to the rotation button, an object OB4 corresponding to the algorithm creation button, and pointers PO1 and PO2 corresponding to the first user and the second user, respectively.
オブジェクトOB3は、領域RE1に表示される画像情報、及び領域RE2に表示される圧力分布の少なくとも一方を回転させるための操作インターフェイスである。図9Cの例では、画像情報と圧力分布の両方において、画面左方が被介助者の頭側となっているため、図9Cの画面を閲覧したユーザは画像情報と圧力分布の対応付けが容易である。しかし、ポジショニングアプリケーションAP1を利用する環境において、第1端末装置200が被介助者を撮像する方向が固定されているとは限らない。そのため、画像情報と圧力分布とで被介助者の方向が相違する可能性もある。その点、ポジショニングアプリケーションAP1は、回転ボタンに対する選択操作を受け付けた場合に、画像情報又は圧力分布を回転させる処理を行うことによって、被介助者の方向を揃えることが可能になる。 Object OB3 is an operation interface for rotating at least one of the image information displayed in region RE1 and the pressure distribution displayed in region RE2. In the example of FIG. 9C, the left side of the screen is toward the head of the person being assisted in both the image information and pressure distribution, so the user viewing the screen of FIG. 9C can easily associate the image information with the pressure distribution. It is. However, in an environment where the positioning application AP1 is used, the direction in which the first terminal device 200 images the person being assisted is not necessarily fixed. Therefore, there is a possibility that the direction of the person being assisted differs depending on the image information and the pressure distribution. In this regard, when the positioning application AP1 receives a selection operation on the rotation button, it is possible to align the direction of the person being assisted by rotating the image information or the pressure distribution.
ただし、画像情報の向きと圧力分布の向きは第2ユーザが手動で変更するものには限定されず、ポジショニングアプリケーションAP1が自動的に調整を行ってもよい。例えば、撮像部260が撮像対象とする範囲の所定位置に二次元バーコード(QRコード)等のマーカが予め付与されてもよい。例えば、ベッドの枕元の位置にマーカが印刷されたシール等が貼られる。ポジショニングアプリケーションAP1は、第1端末装置200の撮像部260を用いて撮像された画像からマーカの位置や方向を検出する処理を行う。このようにすれば、画像情報における人の頭の方向等を適切に検出できるため、画像情報の向きと圧力分布の向きを自動的に調整することが可能になる。 However, the orientation of the image information and the orientation of the pressure distribution are not limited to being manually changed by the second user, and may be adjusted automatically by the positioning application AP1. For example, a marker such as a two-dimensional barcode (QR code) may be provided in advance at a predetermined position in the range to be imaged by the imaging unit 260. For example, a sticker or the like with a printed marker is pasted on the bedside position. The positioning application AP1 performs a process of detecting the position and direction of a marker from an image captured using the imaging unit 260 of the first terminal device 200. In this way, the direction of the person's head in the image information, etc. can be appropriately detected, so that the direction of the image information and the direction of the pressure distribution can be automatically adjusted.
また回転ボタンに対応するオブジェクトOB3は、画像情報と圧力分布の両方を同じ角度だけ回転させる処理に用いられてもよい。例えば、領域RE1と領域RE2は上下に並べて配置されるが、画像情報及び圧力分布が時計回り又は反時計回りに90度回転することによって、領域RE1と領域RE2が左右に並べて配置される状態に移行してもよい。このようにすれば、回転ボタンを用いて各種情報をユーザの所望の位置関係で配置することが可能になる。例えば、第2ユーザは、領域RE1及びRE2を、第2ユーザが見やすい位置関係に配置してもよいし、第1ユーザへの説明に適した位置関係に配置してもよい。 Further, the object OB3 corresponding to the rotation button may be used for processing to rotate both the image information and the pressure distribution by the same angle. For example, region RE1 and region RE2 are arranged side by side vertically, but by rotating the image information and pressure distribution 90 degrees clockwise or counterclockwise, region RE1 and region RE2 are arranged side by side horizontally. You may migrate. In this way, it becomes possible to arrange various pieces of information in a positional relationship desired by the user using the rotation button. For example, the second user may arrange the regions RE1 and RE2 in a positional relationship that is easy for the second user to see, or may arrange them in a positional relationship that is suitable for explanation to the first user.
またポインターPO1及びPO2は、それぞれ第1ユーザ、第2ユーザの操作に基づいて、図9Cの画面上を動くオブジェクトである。例えば第1端末装置200や第2端末装置300がPCである場合、ポインターPO1及びPO2は、マウスやトラックボール等のデバイスに対する操作に基づいて移動するオブジェクトであってもよい。また第1端末装置200や第2端末装置300がスマートフォンである場合、ポインターPO1及びPO2は、タッチパネルへのタッチ操作に基づいて移動するオブジェクトであってもよい。 Further, pointers PO1 and PO2 are objects that move on the screen in FIG. 9C based on operations by the first user and the second user, respectively. For example, when the first terminal device 200 and the second terminal device 300 are PCs, the pointers PO1 and PO2 may be objects that move based on an operation on a device such as a mouse or a trackball. Further, when the first terminal device 200 and the second terminal device 300 are smartphones, the pointers PO1 and PO2 may be objects that move based on a touch operation on a touch panel.
例えば第2ユーザは、図9Cに表示される画面の特定の部分について第1ユーザに対して説明を行いたい場合、ポインターPO2を用いて該当箇所を指し示してもよい。例えば、骨格トラッキング結果のうち、この部位がこの位置に来るようにするとよい等の説明を行う際に、該当部位や目標位置をポインターPO2で指し示すことによって、第1ユーザの理解が容易になる。ポインターPO2は、第1端末装置200と第2端末装置300の両方で表示される。同様に第1ユーザは、第2ユーザへ質問をする際に、質問に関連する部分をポインターPO1で指し示すことによって、第2ユーザに質問内容を理解させやすくなる。ポインターPO1は、第1端末装置200と第2端末装置300の両方で表示される。なお、図9Cでは第1ユーザ用のポインターPO1と、第2ユーザ用のポインターPO2の両方を図示したが、何れか一方、あるいは両方が省略されてもよい。 For example, when the second user wants to explain to the first user about a specific part of the screen displayed in FIG. 9C, the second user may point to the relevant part using the pointer PO2. For example, when explaining that a particular part should be placed at a certain position in the skeleton tracking results, the first user's understanding becomes easier by pointing to the relevant part or target position with the pointer PO2. Pointer PO2 is displayed on both the first terminal device 200 and the second terminal device 300. Similarly, when the first user asks a question to the second user, by pointing the pointer PO1 to a part related to the question, the first user can make it easier for the second user to understand the content of the question. Pointer PO1 is displayed on both the first terminal device 200 and the second terminal device 300. Note that although both the pointer PO1 for the first user and the pointer PO2 for the second user are illustrated in FIG. 9C, one or both may be omitted.
以上で説明したように、図9A~図9Cに示した画面を用いることで、第2ユーザは第1ユーザから離れた場所にいたとしても、被介助者を撮像した画像、圧力分布、及び感情分析の結果を参照でき、必要に応じて骨格トラッキング処理の結果も閲覧できる。骨格トラッキング処理の結果は、例えば図9Cに示すように、領域RE1において、画像情報に重畳して表示されてもよい。 As explained above, by using the screens shown in FIGS. 9A to 9C, the second user can view images of the person being assisted, pressure distribution, and emotions, even if the second user is located far away from the first user. You can refer to the analysis results, and if necessary, you can also view the results of skeleton tracking processing. The results of the skeleton tracking process may be displayed superimposed on the image information in the region RE1, for example, as shown in FIG. 9C.
ここでの第2ユーザは熟練の介助者であり、当該第2ユーザは、図9Cの画面に表示される各種情報を参照することによって、被介助者が適切な姿勢を取っているか否かを判定する。ここでの適切な姿勢とは、褥瘡の抑制に適した姿勢であってもよいし、オムツ交換に適した姿勢であってもよいし、他の姿勢であってもよい。例えば、熟練の介助者であるユーザは、患者の属性等を考慮した上で、自身の暗黙知に従って当該患者に適した姿勢であるか否かの判定を行う。 The second user here is a skilled caregiver, and the second user can determine whether or not the person being assisted is in an appropriate posture by referring to various information displayed on the screen in FIG. 9C. judge. The appropriate posture here may be a posture suitable for suppressing bedsores, a posture suitable for changing a diaper, or another posture. For example, a user who is a skilled assistant determines whether or not the posture is suitable for the patient based on his or her own tacit knowledge after considering the patient's attributes and the like.
例えば第2ユーザは、被介助者が適切な姿勢を取ったと判定した場合に、オブジェクトOB4に示すアルゴリズム作成ボタンの選択操作を行う。第1端末装置200は、アルゴリズム作成ボタンが操作された際に表示されていた画像を、教師データとしてサーバシステム100に送信する。このようにすれば、熟練者が好ましいと考えるポジションを教師データとして登録することが可能になる。なお教師データは画像情報に限定されず、圧力分布を含んでもよいし、骨格トラッキングの結果を含んでもよい。また以上では端末装置200-1を用いた例を説明したが、これには限定されず、画像情報の取得に端末装置200-2が用いられてもよい。即ち、画像情報は、被介助者を側面から撮像した画像であってもよい。なお、以上の説明から分かるように、アルゴリズム作成ボタンは、専門家である第2ユーザにより操作されることが想定されており、第1ユーザによる操作は想定されない。よって、第2端末装置300はオブジェクトOB4を表示し、且つ、第1端末装置200はオブジェクトOB4を非表示としてもよい。例えば、ポジショニングアプリケーションAP1は、ログインユーザが第1ユーザか第2ユーザかを判定し、ユーザ属性に応じて表示対象となるオブジェクトを切り替えてもよい。 For example, when the second user determines that the person being assisted has taken an appropriate posture, the second user selects the algorithm creation button shown in the object OB4. The first terminal device 200 transmits the image displayed when the algorithm creation button was operated to the server system 100 as teacher data. In this way, it becomes possible to register positions that an expert considers preferable as teacher data. Note that the teacher data is not limited to image information, and may include pressure distribution or skeleton tracking results. Furthermore, although an example using the terminal device 200-1 has been described above, the present invention is not limited to this, and the terminal device 200-2 may be used to acquire image information. That is, the image information may be an image captured from the side of the person being assisted. Note that, as can be seen from the above description, the algorithm creation button is assumed to be operated by the second user who is an expert, and is not assumed to be operated by the first user. Therefore, the second terminal device 300 may display the object OB4, and the first terminal device 200 may hide the object OB4. For example, the positioning application AP1 may determine whether the logged-in user is the first user or the second user, and may switch the object to be displayed according to the user attribute.
また画像情報を含む教師データに対して、何らかの付加情報が付加されてもよい。図10は、画像情報に付加情報を付加する際に用いられる画面例である。例えば画像情報を選択するユーザ入力が行われた場合に、図10の画面には当該画像情報がファイル名とともに表示される。例えば、アルゴリズム作成ボタンの選択操作が行われた際の画像情報が第1端末装置200の記憶部220や、サーバシステム100の記憶部120に記憶されており、ポジショニングアプリケーションAP1は、当該画像情報のいずれかを選択するユーザ入力を受け付ける。図10の例では、領域RE3に選択された画像情報が表示されるとともに、当該画像情報のファイル名を表すオブジェクトOB5が表示される。 Further, some additional information may be added to the teacher data including image information. FIG. 10 is an example of a screen used when adding additional information to image information. For example, when a user inputs to select image information, the image information is displayed on the screen of FIG. 10 together with the file name. For example, the image information when the algorithm creation button is selected is stored in the storage unit 220 of the first terminal device 200 or the storage unit 120 of the server system 100, and the positioning application AP1 stores the image information. Accepts user input to select one. In the example of FIG. 10, the selected image information is displayed in the area RE3, and an object OB5 representing the file name of the image information is displayed.
また図10に示すように、付加情報の入力画面では、画像情報に対して、特定のマークを追加するためのボタンであるオブジェクトOB6が表示されてもよい。例えば特定のマークは、適切な姿勢を取らせるために用いられるクッションに付与されるマークであってもよい。ここでは三角形が所定サイズ以下のクッションに対応し、四角形が所定サイズより大きいクッションに対応する。例えば、上記対応関係が予めポジショニングアプリケーションAP1のマニュアル等を用いて第2ユーザに提示されており、第2ユーザは適切な姿勢を取らせるためにクッションを配置した場合、オブジェクトOB6を用いて、画像中のクッションに三角形又は四角形のマークを付与する操作を実行する。なお本実施形態では遠隔設定を想定しているため、実際のクッションの配置は第1ユーザ(被介助者の家族等)によって実施されてもよい。このようにすれば、クッションの位置やサイズを特定する情報を教師データに含めることが可能になる。 Further, as shown in FIG. 10, an object OB6, which is a button for adding a specific mark to image information, may be displayed on the additional information input screen. For example, the specific mark may be a mark provided on a cushion used to encourage the user to take an appropriate posture. Here, a triangle corresponds to a cushion of a predetermined size or less, and a rectangle corresponds to a cushion larger than a predetermined size. For example, if the above-mentioned correspondence relationship has been presented to the second user in advance using the manual of the positioning application AP1, and the second user has placed a cushion to make the user take an appropriate posture, the second user may use the object OB6 to create an image. Perform an operation to add a triangular or square mark to the cushion inside. Note that since this embodiment assumes remote setting, the actual arrangement of the cushions may be performed by the first user (such as a family member of the person being assisted). In this way, it becomes possible to include information specifying the position and size of the cushion in the teacher data.
また付加情報は、熟練の介助者によって付加されるコメントであってもよい。例えば付加情報の入力画面では、コメントを入力するためのテキストボックスであるオブジェクトOB7が表示されてもよい。ここでのコメントは、テキストボックスであるオブジェクトOB7を用いて入力される何らかのテキストであってもよい。例えば熟練者は、特定の部位と他の部位との角度、枕やクッションとの位置関係、用いられるクッションの詳細(サイズ、形状、メーカ、品番等)等、適切なベッドポジションを取らせる上で重要となるポイントをテキスト入力する。 Further, the additional information may be a comment added by a skilled assistant. For example, on the additional information input screen, object OB7, which is a text box for inputting a comment, may be displayed. The comment here may be any text input using object OB7, which is a text box. For example, a skilled person may need to check the angle of a specific body part with other body parts, the positional relationship with pillows and cushions, the details of the cushion used (size, shape, manufacturer, product number, etc.), etc. in order to help the person take the appropriate bed position. Enter the important points in text.
また図10に示す付加情報の入力画面において、熟練の介助者がポイントと考える被介助者の部位を指定する情報の入力を受け付けてもよい。例えば被介助者の肩の位置が適切な姿勢を取らせる上で重要である場合、熟練の介助者は被介助者の肩を指定する入力を行ってもよい。例えばポジショニングアプリケーションAP1は、図10に示した三角形や四角形のマークを特定の部位に配置する入力を受け付けてもよい。また熟練の介助者がポイントと考える部位は複数であってもよい。この場合、ポジショニングアプリケーションAP1は、各位置の優先度の入力を受け付けてもよい。また付加情報は音声情報であってもよい。例えば付加情報の入力画面では、音声情報の入力可否を設定するためのチェックボックスであるオブジェクトOB8が表示されてもよい。例えば当該チェックボックスがチェックされた状態である場合、第2ユーザの音声を録音する処理が行われてもよい。 Further, on the additional information input screen shown in FIG. 10, input of information specifying a part of the person to be cared for that a skilled caregiver considers important may be accepted. For example, if the position of the person being cared for's shoulders is important for ensuring proper posture, a skilled helper may input an input specifying the shoulders of the person being cared for. For example, the positioning application AP1 may accept an input for arranging the triangular or quadrangular mark shown in FIG. 10 at a specific location. Furthermore, a skilled caregiver may consider a plurality of parts to be important. In this case, the positioning application AP1 may accept input of the priority of each position. Further, the additional information may be audio information. For example, on the additional information input screen, object OB8, which is a check box for setting whether to input audio information, may be displayed. For example, when the checkbox is checked, a process of recording the second user's voice may be performed.
また図10に示す画面では利用時を想定したプレビューが可能であってもよい。例えば、付加情報の入力画面では、プレビューを行うためのボタンであるオブジェクトOB9が表示されてもよい。ここでのプレビューとは、利用モードにおける表示画面に対応する画面を表示することを表す。なおプレビュー表示は図10に示す付加情報の入力画面で行われてもよい。あるいは、オブジェクトOB9の選択操作に基づいて、図10の入力画面とは異なるポップアップ画面が表示され、当該ポップアップ画面においてプレビュー表示が行われてもよい。 Further, the screen shown in FIG. 10 may be able to preview what will happen when it is used. For example, on the additional information input screen, object OB9, which is a button for previewing, may be displayed. Preview here means displaying a screen corresponding to the display screen in the usage mode. Note that the preview display may be performed on the additional information input screen shown in FIG. Alternatively, a pop-up screen different from the input screen of FIG. 10 may be displayed based on the selection operation of the object OB9, and a preview display may be performed on the pop-up screen.
例えば図4A及び図4Bを用いて上述したように、ポジショニングアプリケーションAP1の利用時には、透過処理を施した教師データと、被介助者を撮像しているリアルタイムの画像とを重畳表示することが考えられる。よって図10のオブジェクトOB9に対する選択操作が行われた場合、ポジショニングアプリケーションAP1は、撮像部260を用いて撮像画像を取得するとともに、当該撮像画像に対して、設定中の教師データに透過処理を施した画像を重畳表示する。このようにすれば、設定中の教師データを実際に使用した場合の表示画面を予め確認することが可能になる。この際、第2ユーザは、図10の画面を用いて、教師データの透過率を設定可能であってもよいし、第1端末装置200の撮像部260が内部カメラと外部カメラを含む場合、いずれのカメラを用いるかを選択可能であってもよい。また実際にポジショニングアプリケーションAP1を使用するのは第1ユーザであるため、透過率は第1ユーザが設定可能であってもよい。例えば付加情報の入力画面では、図10に示すように、透過率を入力するテキストボックスであるオブジェクトOB10、カメラを選択するラジオボタンであるオブジェクトOB11が表示されてもよい。 For example, as described above using FIGS. 4A and 4B, when using the positioning application AP1, it is conceivable to superimpose and display transparently processed teacher data and a real-time image of the person being assisted. . Therefore, when a selection operation is performed on the object OB9 in FIG. 10, the positioning application AP1 uses the imaging unit 260 to acquire a captured image, and also performs transparency processing on the teacher data being set for the captured image. superimpose the image. In this way, it becomes possible to check in advance what the display screen will look like when the teacher data being set is actually used. At this time, the second user may be able to set the transmittance of the teacher data using the screen in FIG. It may be possible to select which camera to use. Further, since it is the first user who actually uses the positioning application AP1, the transmittance may be settable by the first user. For example, on the additional information input screen, as shown in FIG. 10, object OB10, which is a text box for inputting transmittance, and object OB11, which is a radio button for selecting a camera, may be displayed.
またポジショニングアプリケーションAP1で用いられる教師データはこれに限定されない。例えば教師データは、アルゴリズム作成ボタンの選択操作が行われたタイミングに対応するセンシングデータを含んでもよい。教師データであるセンシングデータは、アルゴリズム作成ボタンの選択操作が行われた1タイミングでのデータであってもよいし、選択操作が行われたタイミングを含む所定期間での時系列データであってもよい。また上述したように、第2ユーザが被介助者を適切な姿勢にするまでの動作を撮像した動画像が教師データとして用いられてもよい。また教師データは、当該動画像に基づいて検出された第2ユーザの骨格トラッキング結果を含んでもよい。 Furthermore, the teacher data used in the positioning application AP1 is not limited to this. For example, the teacher data may include sensing data corresponding to the timing when the algorithm creation button is selected. Sensing data, which is training data, may be data at one timing when the selection operation of the algorithm creation button is performed, or may be time-series data over a predetermined period including the timing at which the selection operation is performed. good. Further, as described above, a moving image captured by the second user to put the person being assisted in an appropriate posture may be used as the teacher data. Further, the teacher data may include a skeleton tracking result of the second user detected based on the video image.
以上の画面を用いた処理によって、サーバシステム100は、教師データを取得する。図6のステップS113において、サーバシステム100の処理部110は、当該教師データに基づくアルゴリズムを生成する。ここでのアルゴリズムとは、具体的には教師データに基づく処理を行うポジショニングアプリケーションAP1である。例えば処理部110は、教師データである画像情報を、設定された透過率を用いて、第1端末装置200の撮像部260で撮像された画像に重畳表示するアルゴリズムを作成してもよい。あるいは処理部110は、教師データと、実際のポジション調整時に取得されたデータとを比較し、類似度が閾値以上である場合に適切な姿勢である(OK)と判定し、類似度が閾値未満である場合に不適切な姿勢である(NG)と判定するアルゴリズムを作成してもよい。上述したように、ここでのアルゴリズムとは新規アプリケーションであってもよいし、既存のアプリケーションのアップデートデータであってもよい。 Through the processing using the above screens, the server system 100 acquires teacher data. In step S113 of FIG. 6, the processing unit 110 of the server system 100 generates an algorithm based on the teacher data. Specifically, the algorithm here is a positioning application AP1 that performs processing based on teacher data. For example, the processing unit 110 may create an algorithm that superimposes and displays image information, which is training data, on an image captured by the imaging unit 260 of the first terminal device 200 using a set transmittance. Alternatively, the processing unit 110 compares the teacher data with the data acquired during actual position adjustment, determines that the posture is appropriate (OK) when the degree of similarity is greater than or equal to the threshold, and determines that the posture is appropriate (OK) when the degree of similarity is less than the threshold. An algorithm may be created that determines that the posture is inappropriate (NG) if this is the case. As mentioned above, the algorithm here may be a new application or update data for an existing application.
また以上ではポジショニングアプリケーションAP1の設定及び利用に用いられるセンシングデバイス400として圧力検知が可能なベッド610やマットレス620を例示したがこれには限定されない。例えば、以下で説明するセンシングデバイス400の出力が、図9Cの領域RE2に表示されてもよい。 Moreover, although the bed 610 and the mattress 620 capable of detecting pressure have been exemplified as the sensing device 400 used for setting and using the positioning application AP1, the present invention is not limited thereto. For example, the output of the sensing device 400 described below may be displayed in area RE2 of FIG. 9C.
図11は、ポジショニングアプリケーションAP1に利用可能なセンシングデバイス400の他の例であって、ベッド610のボトムに配置されるベッドサイドセンサ420及び検出装置430の例を説明する図である。ベッドサイドセンサ420及び検出装置430は、例えば図11に示すように、ベッド610のボトムとマットレス620の間に設けられるシート状またはプレート状のデバイスである。 FIG. 11 is another example of the sensing device 400 that can be used in the positioning application AP1, and is a diagram illustrating an example of a bedside sensor 420 and a detection device 430 arranged at the bottom of the bed 610. Bedside sensor 420 and detection device 430 are sheet-like or plate-like devices provided between the bottom of bed 610 and mattress 620, as shown in FIG. 11, for example.
ベッドサイドセンサ420は、センシングデータとして圧力値を出力する圧力センサを含み、ボトムのうち、介助者がベッド610の上り下りに用いる側に配置される。図11の例では、介助者の上り下りはベッド610の手前側を用いて行われる。この際、図11に示すように、ベッド610の手前側には転落防止用の柵が配置され、ベッドサイドセンサ420は当該柵が設けられない位置に配置されてもよい。このようにすれば、ベッド610の上り下りを行うユーザは、一旦、ベッドサイドセンサ420上に座る動作を行う。ベッドサイドセンサ420は、時系列の圧力データをセンシングデータとして出力してもよい。あるいは、ベッドサイドセンサ420は、以下で説明する処理を実行することによって動き出しの有無を判定し、判定結果をセンシングデータとして出力してもよい。 Bedside sensor 420 includes a pressure sensor that outputs a pressure value as sensing data, and is disposed on the bottom side of the bed that is used by the caregiver to go up and down the bed 610. In the example of FIG. 11, the caregiver climbs up and down using the front side of the bed 610. At this time, as shown in FIG. 11, a fall prevention fence may be placed on the front side of the bed 610, and the bedside sensor 420 may be placed at a position where the fence is not provided. In this way, the user who goes up and down the bed 610 temporarily sits on the bedside sensor 420. Bedside sensor 420 may output time-series pressure data as sensing data. Alternatively, the bedside sensor 420 may determine the presence or absence of movement by executing the process described below, and may output the determination result as sensing data.
ベッドサイドセンサ420は、例えばベッドサイドセンサ420にインストールされるアプリケーションに従って動作することによって、圧力値を入力データとして取得し、当該圧力値からベッド610上での被介助者の動きを判定する処理を実行する。 The bedside sensor 420 acquires a pressure value as input data by operating according to an application installed on the bedside sensor 420, for example, and performs a process of determining the movement of the person being assisted on the bed 610 from the pressure value. Execute.
例えば被介助者がベッド610から立ち上がる際には、被介助者は、ベッド上で臥位を取っている状態から、ベッドサイドで座位を取った状態(以下、端座位と表記)に移行し、さらに膝やボトム面に手をついて力を加えることで立ち上がり動作を実行することが想定される。ベッドサイドセンサ420が検出する圧力値は、臥位、端座位、立ち上がり動作の順で大きくなる。例えばベッドサイドセンサ420は、圧力値と所与の閾値の比較処理に基づいて、端座位から立ち上がり動作への変化を検出した場合に動き出しが検出されたと判定してもよい。あるいは、立ち上がり動作をより速い段階で検出するという観点から、ベッドサイドセンサ420は、圧力値と所与の閾値の比較処理に基づいて、臥位から端座位への変化を検出した場合に動き出しが検出されたと判定してもよい。 For example, when the person to be assisted gets up from the bed 610, the person to be assisted shifts from a lying position on the bed to a sitting position at the bedside (hereinafter referred to as edge sitting position), Furthermore, it is assumed that the user will perform a standing motion by applying force to the knees or the bottom surface. The pressure value detected by the bedside sensor 420 increases in the order of lying position, sitting position, and standing up position. For example, the bedside sensor 420 may determine that a start of movement has been detected when a change from an edge sitting position to a standing motion is detected based on a process of comparing the pressure value and a given threshold value. Alternatively, from the viewpoint of detecting a rising motion at a faster stage, the bedside sensor 420 may detect a change from a lying position to an edge sitting position based on a comparison process between a pressure value and a given threshold value. It may be determined that it has been detected.
あるいは、立ち上がり動作が継続されると、被介助者の臀部がボトム面から浮き上がるため、圧力センサから出力される圧力値は大きく減少する。よってベッドサイドセンサ420は、圧力値の時系列変化に基づいて、圧力値が第1閾値以上に増加した後、第1閾値よりも小さい第2閾値以下に減少した場合に、立ち上がり動作が行われたと判定してもよい。その他、動き出し判定の具体的な処理内容については種々の変形実施が可能である。 Alternatively, if the standing up motion continues, the buttocks of the person being assisted rise above the bottom surface, and thus the pressure value output from the pressure sensor decreases significantly. Therefore, the bedside sensor 420 performs a rising operation when the pressure value increases to a first threshold value or more and then decreases to a second threshold value or less, which is smaller than the first threshold value, based on a time-series change in the pressure value. It may be determined that In addition, various modifications can be made to the specific processing contents of the motion start determination.
また図11に示す検出装置430は、被介助者の睡眠に関する情報をセンシングするデバイスである。検出装置430は、圧力値を出力する圧力センサを含む。 Further, a detection device 430 shown in FIG. 11 is a device that senses information regarding the sleep of the person being assisted. Detection device 430 includes a pressure sensor that outputs a pressure value.
検出装置430は、ユーザが就床すると、マットレス620を介してユーザの体振動(体動、振動)を検知する。検出装置430が検知した体振動に基づいて、呼吸数、心拍数、活動量、姿勢、覚醒/睡眠、離床/在床に関する情報が求められる。また検出装置430は、ノンレム睡眠とレム睡眠の判定や、睡眠の深さの判定を行ってもよい。例えば体動の周期性を分析し、ピーク周波数から呼吸数、心拍数が算出されてもよい。周期性の分析は、例えばフーリエ変換等である。呼吸数は、単位時間あたりの呼吸の回数である。心拍数は、単位時間あたりの心拍の回数である。単位時間は、例えば1分である。また、サンプリング単位時間当たりに体振動を検出し、検出された体振動の回数が活動量として算出されてもよい。またユーザの離床時には、在床時に比べて検出される圧力値が減少するため、圧力値やその時系列的な変化に基づいて離床/在床の判定が可能である。 The detection device 430 detects the user's body vibrations (body movements, vibrations) via the mattress 620 when the user goes to bed. Based on the body vibration detected by the detection device 430, information regarding breathing rate, heart rate, amount of activity, posture, wakefulness/sleep, and leaving/staying in bed is obtained. The detection device 430 may also determine non-REM sleep and REM sleep, and determine the depth of sleep. For example, the periodicity of body movements may be analyzed and the respiratory rate and heart rate may be calculated from the peak frequency. The analysis of periodicity is, for example, Fourier transform. Respiration rate is the number of breaths per unit time. Heart rate is the number of heartbeats per unit time. The unit time is, for example, one minute. Alternatively, body vibrations may be detected per sampling unit time, and the number of detected body vibrations may be calculated as the amount of activity. Furthermore, when the user leaves the bed, the detected pressure value is reduced compared to when the user is in bed, so it is possible to determine whether the user is out of bed or in bed based on the pressure value and its chronological changes.
例えば検出装置430は、圧力センサの出力をセンシングデータとして出力してもよい。あるいは検出装置430は、上述した呼吸数、心拍数、活動量、姿勢、覚醒/睡眠、離床/在床に関する情報をセンシングデータとして出力してもよい。 For example, the detection device 430 may output the output of a pressure sensor as sensing data. Alternatively, the detection device 430 may output information regarding the above-mentioned breathing rate, heart rate, amount of activity, posture, wakefulness/sleep, and leaving/staying in bed as sensing data.
また検出装置430は、被介助者の動き出しに関する判定を行ってもよい。例えば検出装置430は、被介助者が在床状態から離床状態に移行した場合に、動き出しがあったと判定する。またより早い段階で動き出しの兆候を検出するという観点から、検出装置430は、被介助者が睡眠状態から覚醒状態に移行した場合に、動き出しがあったと判定してもよい。検出装置430は、動き出しの検出結果をセンシングデータとして出力してもよい。 The detection device 430 may also make a determination regarding the start of movement of the person being assisted. For example, the detection device 430 determines that the person being assisted has started moving when the person being assisted moves from a state in bed to a state out of bed. Furthermore, from the viewpoint of detecting signs of starting to move at an earlier stage, the detection device 430 may determine that the person being assisted has started moving when the person being assisted transitions from a sleeping state to an awake state. The detection device 430 may output the detection result of the start of movement as sensing data.
2.3 車椅子ポジション
図12は、車椅子ポジションの調整を行う際のシステム構成を例示する図である。図12に示すように、車椅子ポジションの調整では、第1端末装置200は、車椅子630に座った被介助者の少なくとも上半身を撮像可能な高さに固定される。第1端末装置200は、例えば在宅介護が行われる家庭の所定位置に配置され、介助者である家族は被介助者を車椅子630に移乗させた上で、第1端末装置200の正面まで移動させた後、車椅子ポジションの調整を行う。ただし、家族が車椅子630の正面に立った状態で第1端末装置200を手に把持することによって、以下で説明する処理が実行されてもよい。
2.3 Wheelchair Position FIG. 12 is a diagram illustrating a system configuration when adjusting the wheelchair position. As shown in FIG. 12, in adjusting the wheelchair position, the first terminal device 200 is fixed at a height at which it can image at least the upper body of the person being assisted sitting in the wheelchair 630. The first terminal device 200 is placed, for example, at a predetermined position in a home where home care is provided, and a family member who is a caregiver transfers the person being assisted to a wheelchair 630 and then moves the person to the front of the first terminal device 200. After that, adjust the wheelchair position. However, the process described below may be executed by the family member standing in front of the wheelchair 630 and holding the first terminal device 200 in their hand.
第1端末装置200は、図3を用いて上述したように、例えば撮像部260カメラを有するスマートフォン等の装置である。ポジショニングアプリケーションAP1は、車椅子ポジションの調整をサポートするアプリケーションであってもよい。車椅子ポジションの調整とは、褥瘡や転落のリスク抑制のための被介助者の姿勢制御や、クッションの配置制御であってもよい。 As described above with reference to FIG. 3, the first terminal device 200 is, for example, a device such as a smartphone having an image capturing unit 260 camera. The positioning application AP1 may be an application that supports adjusting the wheelchair position. Adjustment of the wheelchair position may include controlling the posture of the person being assisted to reduce the risk of bedsores or falling, or controlling the placement of cushions.
図13は、車椅子ポジションで用いられるアプリとデバイスの関係を例示する図である。例えばポジショニングアプリケーションAP1は、第1端末装置200に含まれる撮像部260の出力である画像情報と、車椅子630及び座面センサ440の少なくとも一方からの情報を取得してもよい。ここでの車椅子630は、被介助者が使用している状態における圧力分布を可視化可能なデバイスである。座面センサ440については図15を用いて後述する。 FIG. 13 is a diagram illustrating the relationship between an application and a device used in a wheelchair position. For example, the positioning application AP1 may acquire image information that is the output of the imaging unit 260 included in the first terminal device 200 and information from at least one of the wheelchair 630 and the seat sensor 440. The wheelchair 630 here is a device that can visualize pressure distribution while being used by a person being assisted. The seat sensor 440 will be described later using FIG. 15.
図14は、設定モードにおいて第2端末装置300の表示部340に表示される画面例である。また図14に示す画面は、第1ユーザによる確認のために、第1端末装置200の表示部240に表示されてもよい。例えば図14に示す画面は、図9Cの例と同様に、Web会議の画面のうち、被介助者に対応する領域に表示されてもよい。 FIG. 14 is an example of a screen displayed on the display unit 340 of the second terminal device 300 in the setting mode. Further, the screen shown in FIG. 14 may be displayed on the display unit 240 of the first terminal device 200 for confirmation by the first user. For example, the screen shown in FIG. 14 may be displayed in the area corresponding to the person being assisted on the web conference screen, similar to the example shown in FIG. 9C.
図14に示す画面の構成は、領域RE1に表示される画像情報が車椅子630に座った被介助者を撮像した画像となる点、領域RE2に表示される圧力分布が車椅子630の座面における圧力を表す情報となる点を除いて、図9Cと同様である。そのため、図14の画面に表示される情報の詳細についてはこれ以上の説明を省略する。 The configuration of the screen shown in FIG. 14 is such that the image information displayed in area RE1 is an image of the person being assisted sitting on wheelchair 630, and the pressure distribution displayed in area RE2 is the pressure on the seat surface of wheelchair 630. This is similar to FIG. 9C, except that the information represents the information. Therefore, further explanation of the details of the information displayed on the screen in FIG. 14 will be omitted.
図14に示した画面を用いることで、第2ユーザは被介助者を撮像した画像、圧力分布及び感情分析の結果を参照でき、必要に応じて骨格トラッキング処理の結果も閲覧できる。そのため、例えば熟練の介助者である第2ユーザは、図14の画面に表示される各種情報を参照することによって、離れた場所にいる被介助者が適切な姿勢を取っているか否かを判定する。ここでの適切な姿勢とは、褥瘡の抑制に適した姿勢であってもよいし、他の姿勢であってもよい。 By using the screen shown in FIG. 14, the second user can refer to the captured image of the person being assisted, the pressure distribution, and the results of the emotional analysis, and can also view the results of the skeleton tracking process if necessary. Therefore, for example, the second user, who is a skilled caregiver, can determine whether or not the person being assisted at a remote location is in an appropriate posture by referring to the various information displayed on the screen shown in FIG. do. The appropriate posture here may be a posture suitable for suppressing pressure ulcers, or may be another posture.
オブジェクトOB4に示すアルゴリズム作成ボタンの選択操作に基づいて、熟練者が好ましいと考えるポジションを教師データとして登録できる点もベッドポジションの例と同様である。教師データは画像情報に限定されず、圧力分布を含んでもよいし、骨格トラッキングの結果を含んでもよい。 Similar to the bed position example, a position considered preferable by an expert can be registered as training data based on the selection operation of the algorithm creation button shown in object OB4. The teacher data is not limited to image information, and may include pressure distribution or skeleton tracking results.
さらに、画像情報を含む教師データに対して、何らかの付加情報が付加されてもよい点もベッドポジションの例と同様である。付加情報の付加には、例えば図10を用いて上述した画面が用いられる。 Furthermore, similar to the bed position example, some additional information may be added to the teacher data including image information. For example, the screen described above using FIG. 10 is used to add additional information.
また以上ではポジショニングアプリケーションAP1の設定及び利用に用いられるデバイスとして圧力検知が可能な車椅子630を例示したがこれには限定されない。 Moreover, although the wheelchair 630 capable of pressure detection has been exemplified above as a device used for setting and using the positioning application AP1, the present invention is not limited to this.
図15は、ポジショニングアプリケーションAP1に利用可能なセンシングデバイス400の他の例であって、例えば車椅子630の座面に配置される座面センサ440を示す図である。座面センサ440は圧力値を出力する圧力センサを含み、当該圧力値を出力する。 FIG. 15 is another example of the sensing device 400 that can be used in the positioning application AP1, and is a diagram showing a seat sensor 440 disposed on the seat of a wheelchair 630, for example. Seat sensor 440 includes a pressure sensor that outputs a pressure value, and outputs the pressure value.
また座面センサ440は、ポジショニングアプリケーションAP1への圧力値の出力以外の処理が可能であってもよい。例えば座面センサ440は、圧力センサの圧力値に基づいて、被介助者が車椅子630に座った際の姿勢(以下、座姿勢とも記載する)が、正常、前ずれ、横ずれ等を含む複数の姿勢の何れであるかを判定してもよい。前ずれとは、ユーザの重心が通常よりも前方にずれた状態を表し、横ずれとは、ユーザの重心が通常よりも左右の何れか一方にずれた状態を表す。前ずれと横ずれのいずれも、座面からの転落リスクが相対的に高い状態に対応する。また座面センサ440は、被介助者が座面から転落する可能性の有無を判定する転落可能性の判定を行ってもよい。 Further, the seat sensor 440 may be capable of processing other than outputting the pressure value to the positioning application AP1. For example, the seat sensor 440 determines whether the posture of the person being assisted while sitting in the wheelchair 630 (hereinafter also referred to as sitting posture) is normal, forward-shifted, lateral-shifted, etc., based on the pressure value of the pressure sensor. It may also be determined which of the postures it is in. Forward shift refers to a state in which the user's center of gravity has shifted further forward than usual, and lateral shift refers to a state in which the user's center of gravity has shifted further to the left or right than usual. Both forward slippage and lateral slippage correspond to conditions where the risk of falling from the seat is relatively high. Further, the seat sensor 440 may perform a fall possibility determination to determine whether there is a possibility that the person being assisted will fall from the seat.
図15の例では、車椅子630の座面に配置されるクッション441の裏面側に4つの圧力センサSe1~Se4が配置される。圧力センサSe1は前方に配置されるセンサであり、圧力センサSe2は後方に配置されるセンサであり、圧力センサSe3は右方に配置されるセンサであり、圧力センサSe4は左方に配置されるセンサである。なおここでの前後左右は、車椅子630に被介助者が座った状態において、当該被介助者から見た方向を表す。 In the example of FIG. 15, four pressure sensors Se1 to Se4 are arranged on the back side of a cushion 441 arranged on the seat of the wheelchair 630. Pressure sensor Se1 is a sensor placed in the front, pressure sensor Se2 is a sensor placed in the rear, pressure sensor Se3 is a sensor placed on the right, and pressure sensor Se4 is placed on the left. It is a sensor. Note that the front, rear, left, and right directions here refer to directions seen from the person being assisted while the person being assisted is sitting on the wheelchair 630.
図15に示すように、圧力センサSe1~Se4は、制御ボックス442に接続される。制御ボックス442は、内部に圧力センサSe1~Se4を制御するプロセッサと、プロセッサのワーク領域となるメモリを含む。プロセッサは、圧力センサSe1~Se4を動作させることによって圧力値を検出する。 As shown in FIG. 15, pressure sensors Se1 to Se4 are connected to a control box 442. The control box 442 includes a processor that controls the pressure sensors Se1 to Se4 and a memory that serves as a work area for the processor. The processor detects pressure values by operating pressure sensors Se1 to Se4.
車椅子630に座っている被介助者は、臀部に痛みを感じ、臀部の位置をずらす可能性がある。例えば、臀部が通常よりも前にずれた状態が前ずれであり、左右にずれた状態が横ずれである。また、前ずれと横ずれが同時に発生し、重心が斜めにずれることもある。図15に示すようにクッション441に配置した圧力センサを用いることによって、臀部の位置の変化を適切に検出できるため、前ずれや横ずれを精度よく検出することが可能になる。例えば、座面センサ440は、圧力センサSe1の値が初期状態に比べて所定以上増加した場合に前ずれと判定し、圧力センサSe3又はSe4が初期状態に比べて所定以上増加した場合に横ずれと判定する。 The person receiving assistance sitting in the wheelchair 630 may feel pain in the buttocks and may shift the position of the buttocks. For example, a state in which the buttocks shift further forward than usual is called anterior shift, and a state in which the buttocks shift from side to side is called lateral shift. In addition, forward and lateral shifts may occur at the same time, causing the center of gravity to shift diagonally. By using the pressure sensor disposed on the cushion 441 as shown in FIG. 15, changes in the position of the buttocks can be appropriately detected, making it possible to accurately detect forward displacement and lateral displacement. For example, the seat sensor 440 determines a forward shift when the value of the pressure sensor Se1 increases by a predetermined value or more compared to the initial state, and determines a lateral shift if the pressure sensor Se3 or Se4 increases by a predetermined value or more compared to the initial state. judge.
座面センサ440は、圧力センサSe1~Se4の出力である圧力値をセンシングデータとして出力してもよいし、前ずれや横ずれの判定結果、転落可能性の判定結果等をセンシングデータとして出力してもよい。また制御ボックス442が発光部等を含み、当該発光部を用いて介助者への報知が行われてもよい。このようにすれば、車椅子630等における座姿勢の変化を分かりやすく介助者に通知できるため、被介助者の転落を抑制することが可能になる。 The seat sensor 440 may output the pressure values that are the outputs of the pressure sensors Se1 to Se4 as sensing data, or may output the determination results of forward slippage and lateral slippage, the determination results of the possibility of falling, etc. as sensing data. Good too. Further, the control box 442 may include a light emitting section or the like, and the light emitting section may be used to notify the caregiver. In this way, changes in the sitting posture of the wheelchair 630 or the like can be clearly notified to the caregiver, thereby making it possible to prevent the caregiver from falling.
図16は、設定モードにおいて第2端末装置300の表示部340に表示される画面の他の例である。図16に示す画面は、第1ユーザによる確認のために、第1端末装置200の表示部240に表示されてもよい。 FIG. 16 is another example of the screen displayed on the display unit 340 of the second terminal device 300 in the setting mode. The screen shown in FIG. 16 may be displayed on the display unit 240 of the first terminal device 200 for confirmation by the first user.
図16に示す画面は、図14に示す画面と比較した場合、圧力分布を表示する領域RE2にかえて、座面センサ440の出力を表示する領域RE4及び領域RE5を含む点が相違する。例えば領域RE4は、車椅子630の座面の前後方向を第1軸(例えば横軸)、左右方向を第1軸に交差する第2軸(例えば横軸に直行する縦軸)とする2次元平面において、圧力センサSe1~Se4を用いて取得される被介助者の時系列的な重心位置の変化をプロットした情報を表示する。また領域RE5は、横軸が時間、縦軸が圧力値を表し、圧力センサSe1~Se4の圧力値の時系列的な変化を表す情報を表示する。 The screen shown in FIG. 16 is different from the screen shown in FIG. 14 in that it includes a region RE4 and a region RE5 in which the output of the seat sensor 440 is displayed instead of the region RE2 in which the pressure distribution is displayed. For example, region RE4 is a two-dimensional plane in which the front-rear direction of the seat of the wheelchair 630 is the first axis (for example, the horizontal axis), and the left-right direction is the second axis (for example, the vertical axis perpendicular to the horizontal axis) that intersects the first axis. , information obtained by plotting changes in the position of the center of gravity of the person being assisted over time obtained using the pressure sensors Se1 to Se4 is displayed. Further, in the region RE5, the horizontal axis represents time and the vertical axis represents pressure values, and displays information representing time-series changes in the pressure values of the pressure sensors Se1 to Se4.
図16に示す例において、例えば図14の例と同様に、第2ユーザは、画像情報やセンシングデータに基づいて、第1ユーザが適切な姿勢か否かを判定し、適切であると判定したタイミングでアルゴリズム作成ボタンの選択操作を行ってもよい。ただし、第2ユーザの設定入力はこれに限定されない。 In the example shown in FIG. 16, similarly to the example shown in FIG. 14, the second user determines whether the first user is in an appropriate posture based on image information and sensing data, and determines that the posture is appropriate. The algorithm creation button may be selected at the appropriate timing. However, the second user's setting input is not limited to this.
例えば第2ユーザは、図16の画面において、適切な姿勢に対応するセンシングデータの範囲を選択する入力を行ってもよい。図16の例では、例えば第2端末装置300は、領域RE4において、上記2次元平面の一部を囲む図形の入力を受け付ける。図16では、第2ユーザによる入力結果として図形Sを例示している。ここでの図形Sは、フリーハンドにより描かれてもよいし、円や矩形等の予め設定された形状が用いられてもよい。例えば第2端末装置300がタッチパネルを有するスマートフォンである場合、第2ユーザは指やタッチペンを用いて領域RE4の一部に線を描くことによって、2次元平面の一部を選択する図形Sを入力してもよい。同様に第2端末装置300は、領域RE5のうち、第2ユーザが適切な姿勢と考える範囲を選択する入力を受け付けてもよい。さらに言えば、第2端末装置300は、図9Cや図14を用いて上述した画面において、センシングデータを表示する領域RE2のうち、第2ユーザが適切な姿勢と考える範囲を選択する入力を受け付けてもよい。 For example, the second user may perform an input to select a range of sensing data corresponding to an appropriate posture on the screen of FIG. 16 . In the example of FIG. 16, for example, the second terminal device 300 receives an input of a figure surrounding a part of the two-dimensional plane in the region RE4. In FIG. 16, a figure S is illustrated as an input result by the second user. The figure S here may be drawn freehand, or a preset shape such as a circle or a rectangle may be used. For example, if the second terminal device 300 is a smartphone with a touch panel, the second user inputs a figure S that selects a part of the two-dimensional plane by drawing a line in a part of the area RE4 using a finger or a touch pen. You may. Similarly, the second terminal device 300 may receive an input to select a range that the second user considers to be an appropriate posture from the region RE5. Furthermore, the second terminal device 300 accepts an input for selecting a range that the second user considers to be an appropriate posture from the area RE2 in which sensing data is displayed on the screen described above using FIG. 9C or FIG. You can.
図6のステップS112において、第2端末装置300は、第2ユーザによって選択された範囲を特定する情報をサーバシステム100に送信する。サーバシステム100は、当該情報を正解とする分類を行うことによって、センシングデータをOKに対応するクラスと、NGに対応するクラスに分類する境界を設定する。なお、サーバシステム100における処理は回帰分析であってもよい。例えば図16の例では、第2ユーザは図形Sを描画することによって、図形Sの内部(正解)と、図形Sの外部(ずれ)を区分している。よってこの場合、設定される境界は、二次元平面を2つに区分する境界となる。ただし、第2ユーザの入力、及び分類数はこれに限定されない。 In step S112 in FIG. 6, the second terminal device 300 transmits information specifying the range selected by the second user to the server system 100. The server system 100 sets boundaries for classifying sensing data into a class corresponding to OK and a class corresponding to NG by classifying the information as correct. Note that the processing in the server system 100 may be regression analysis. For example, in the example of FIG. 16, the second user draws the figure S to distinguish between the inside of the figure S (correct answer) and the outside of the figure S (misalignment). Therefore, in this case, the boundary to be set is a boundary that divides the two-dimensional plane into two. However, the second user's input and the number of classifications are not limited to this.
図17は、サーバシステム100によって生成された情報を第2ユーザに提示する画面の例であり、例えば第2端末装置300の表示部340に表示される画面である。図17の画面は、サーバシステム100による処理結果を表示する領域RE6と、登録ボタンを表すオブジェクトOB12を含む。ここでは、車椅子630の座面の前後方向を第1軸、左右方向を第2軸とする2次元平面を4つに分割する境界が設定された例を示している。例えば、第2ユーザが領域RE4等において、二次元平面を、正常を表す領域、前ずれを表す領域、左ずれを表す領域、右ずれを表す領域の4つに区分する図形を描画してもよく、この場合、図17に例示したように4分類を行う結果が取得される。例えば4つの領域のうちの1つは適切な姿勢(OK)を表す領域であり、4つの領域のうちの他の3つの領域は不適切な姿勢(NG)に対応し、それぞれが前ずれ、左ずれ、右ずれを表す領域である。図17の画面に基づいて第2ユーザが処理結果に問題ないと判断した場合、登録ボタンの選択操作が行われる。登録ボタンの選択操作が行われた場合、サーバシステム100は設定された境界を表す情報を教師データとするアルゴリズムを作成する。例えば処理部110は、座面センサ440からのセンシングデータが取得された場合に、重心位置を特定し、当該重心位置が境界によって分類される4つの領域の何れに属するかを判定するアルゴリズムを作成する。また処理部110は、重心位置が属する領域の判定結果に基づいてOK/NGを判定するアルゴリズムを作成してもよい。 FIG. 17 is an example of a screen that presents information generated by the server system 100 to the second user, and is, for example, a screen displayed on the display unit 340 of the second terminal device 300. The screen in FIG. 17 includes an area RE6 that displays processing results by the server system 100, and an object OB12 that represents a registration button. Here, an example is shown in which a boundary is set to divide a two-dimensional plane into four, with the front-rear direction of the seat of the wheelchair 630 being the first axis and the left-right direction being the second axis. For example, if the second user draws a figure in area RE4 etc. that divides the two-dimensional plane into four areas: a region representing normality, a region representing anterior deviation, a region representing leftward deviation, and a region representing rightward deviation. In this case, the results of four classifications as illustrated in FIG. 17 are often obtained. For example, one of the four regions is a region representing an appropriate posture (OK), and the other three regions among the four regions correspond to an inappropriate posture (NG). This is an area that represents leftward and rightward shifts. When the second user determines that there is no problem with the processing result based on the screen of FIG. 17, the registration button is selected. When the registration button is selected, the server system 100 creates an algorithm that uses information representing the set boundaries as training data. For example, when sensing data from the seat sensor 440 is acquired, the processing unit 110 creates an algorithm that identifies the center of gravity position and determines to which of four regions classified by boundaries the center of gravity position belongs. do. Furthermore, the processing unit 110 may create an algorithm for determining OK/NG based on the determination result of the area to which the center of gravity position belongs.
以上のように、センシングデータに対する第2ユーザの操作を、教師データの設定入力として受け付けることによっても、当該第2ユーザの暗黙知を適切にデジタル化して利用することが可能になる。 As described above, also by accepting the second user's operation on the sensing data as the setting input of the teacher data, it becomes possible to appropriately digitize and utilize the second user's tacit knowledge.
2.4 食事ポジション
次に食事ポジションの調整について説明する。なお以下では、車椅子630に乗った状態で食事を行う場合を例示する。そのため、食事ポジションに関して、例えば圧力検知が可能な車椅子630や座面センサ440を用いた車椅子ポジション用の設定が行われてもよい。ただし、ベッド610に横になった状態で食事を行う場合も考えられるため、食事ポジションに関して、例えば圧力検知が可能なベッド610、マットレス620、ベッドサイドセンサ420、検出装置430等を用いたベッドポジション用の設定が行われてもよい。
2.4 Meal Position Next, adjustment of the meal position will be explained. In addition, below, the case where a person eats while riding in a wheelchair 630 will be illustrated. Therefore, regarding the eating position, settings for the wheelchair position may be performed using, for example, the wheelchair 630 or the seat sensor 440 that can detect pressure. However, since it is conceivable that a meal may be eaten while lying down on the bed 610, the bed position using the bed 610, mattress 620, bedside sensor 420, detection device 430, etc. that can detect pressure, for example, is considered. settings may also be made.
図18は、車椅子ポジションの調整を行う際のシステム構成を例示する図である。図18に示すように、食事の際には第1端末装置200と、被介助者の嚥下やムセ等、食事に関係する種々の情報を検出するセンシングデバイス400である嚥下ムセ検出装置460が用いられてもよい。図18に示すように、嚥下ムセ検出装置460は、被介助者の首回りに装着されるスロートマイク461と、カメラを有する端末装置462を含む。 FIG. 18 is a diagram illustrating a system configuration when adjusting the wheelchair position. As shown in FIG. 18, during meals, a first terminal device 200 and a swallowing discomfort detection device 460, which is a sensing device 400 that detects various information related to meals, such as swallowing and discomfort of the person being cared for, are used. It's okay to be hit. As shown in FIG. 18, the swallowing awkwardness detection device 460 includes a throat microphone 461 that is worn around the neck of the person being assisted, and a terminal device 462 that has a camera.
スロートマイク461は、被介助者の嚥下や咳込み等による音声データを出力する。端末装置462のカメラは、被介助者の食事の様子を撮像した撮像画像を出力する。端末装置462は、例えば被介助者が食事をする卓上に置かれるスマートフォンやタブレット型のPC等である。スロートマイク461は、Bluetooth(登録商標)等を用いて端末装置462に接続され、端末装置462はネットワークを介してサーバシステム100に接続される。ただし、スロートマイク461と端末装置462の両方がサーバシステム100に直接接続可能であってもよく、具体的な接続態様は種々の変形実施が可能である。 The throat microphone 461 outputs audio data caused by swallowing, coughing, etc. of the care recipient. The camera of the terminal device 462 outputs a captured image of the person being assisted while eating. The terminal device 462 is, for example, a smartphone or a tablet PC placed on the table where the person being assisted eats. The throat microphone 461 is connected to a terminal device 462 using Bluetooth (registered trademark) or the like, and the terminal device 462 is connected to the server system 100 via a network. However, both the throat microphone 461 and the terminal device 462 may be directly connectable to the server system 100, and the specific connection mode can be modified in various ways.
図18に示すように、食事ポジションの調整では、第1端末装置200は被介助者の側方に配置されてもよい。第1端末装置200の撮像部260は、被介助者の側面を撮像した第1撮像画像を出力する。 As shown in FIG. 18, in adjusting the eating position, the first terminal device 200 may be placed on the side of the person being assisted. The imaging unit 260 of the first terminal device 200 outputs a first captured image of the side of the person being assisted.
図19は、設定モードにおいて第2端末装置300の表示部340に表示される画面例である。図19に示す画面の構成は、車椅子630に座った被介助者を正面から撮像した画像を表示する領域RE1にかえて、被介助者を側面から撮像した画像を表示する領域RE7が用いられる点を除いて、図16と同様である。そのため、図19の画面に表示される情報の詳細についてはこれ以上の説明を省略する。なお図19の領域RE7では、テーブルや料理等を省略している。 FIG. 19 is an example of a screen displayed on the display unit 340 of the second terminal device 300 in the setting mode. The configuration of the screen shown in FIG. 19 is such that, instead of the area RE1 that displays an image taken from the front of the person being cared for sitting in the wheelchair 630, an area RE7 that displays an image taken from the side of the person being cared for is used. It is the same as FIG. 16 except for. Therefore, further explanation of the details of the information displayed on the screen in FIG. 19 will be omitted. Note that in area RE7 of FIG. 19, tables, dishes, etc. are omitted.
図19に示した画面を用いることで、第2ユーザは被介助者を撮像した画像、感情分析の結果、及びセンシングデータを参照でき、必要に応じて骨格トラッキング処理の結果も閲覧できる。そのため、例えば熟練の介助者である第2ユーザは、図19の画面に表示される各種情報を参照することによって、離れた場所にいる被介助者が適切な姿勢を取っているか否かを判定する。ここでの適切な姿勢とは、食事に適した姿勢であってもよいし、他の姿勢であってもよい。食事に適した姿勢とは、例えばムセや誤嚥を抑制可能な姿勢である。 By using the screen shown in FIG. 19, the second user can refer to the captured image of the person being assisted, the results of emotional analysis, and the sensing data, and can also view the results of the skeleton tracking process if necessary. Therefore, for example, the second user, who is a skilled caregiver, can determine whether or not the person being assisted at a remote location is in an appropriate posture by referring to the various information displayed on the screen shown in FIG. do. The appropriate posture here may be a posture suitable for eating, or may be another posture. A posture suitable for eating is, for example, a posture that can suppress stuffiness and aspiration.
オブジェクトOB4に示すアルゴリズム作成ボタンの選択操作に基づいて、熟練者が好ましいと考えるポジションを教師データとして登録できる点は、ベッドポジションや車椅子ポジションの例と同様である。さらに、画像情報を含む教師データに対して、何らかの付加情報が付加されてもよい点もベッドポジションや車椅子ポジションの例と同様である。付加情報の付加には、例えば図10を用いて上述した画面が用いられる。 Similar to the example of the bed position and wheelchair position, a position considered preferable by an expert can be registered as teacher data based on the selection operation of the algorithm creation button shown in object OB4. Furthermore, similar to the example of the bed position and wheelchair position, some additional information may be added to the teacher data including image information. For example, the screen described above using FIG. 10 is used to add additional information.
また食事ポジションにおける教師データは以上の例に限定されない。例えば食事においてムセや誤嚥を抑制するためには、背筋ができるだけまっすぐになっているか、顎が引かれているか、前のめりになりすぎていないか、等のポイントが考えられる。そのため、例えば第2ユーザは、被介助者の頭の位置が適切か否かを表す設定入力を行ってもよい。 Further, the teaching data in the eating position is not limited to the above example. For example, to prevent stiffness and aspiration when eating, consider making sure that your back is as straight as possible, that your jaw is tucked in, and that you are not leaning too far forward. Therefore, for example, the second user may input a setting indicating whether or not the position of the assisted person's head is appropriate.
図20A、図20Bは、第2ユーザの設定入力によって取得される教師データの例である。例えば、食事ポジションにおける教師データは、被介助者を側方から撮像した画像を分割する境界であってもよい。ここでの境界は例えば直線である。図20Aの例では、2本の直線が設定されることによって、画像が4つの領域に分割される。この教師データが用いられる例では、被介助者の頭が右上の領域に位置する場合にOKと判定され、それ以外の領域に位置する場合にNGと判定される。ただし直線は2本に限定されず、図20Bに示すように1本であってもよい。図20Bの例では、1本の直線が設定されることによって、画像が2つの領域に分割される。この教師データが用いられる例では、被介助者の頭が右側の領域に位置する場合にOKと判定され、左側の領域に位置する場合にNGと判定される。また設定される直線は3本以上であってもよいし、画像を分割する境界として曲線が用いられてもよい。 FIGS. 20A and 20B are examples of teacher data acquired by the second user's setting input. For example, the teacher data for the eating position may be a boundary dividing an image of the person being assisted from the side. The boundary here is, for example, a straight line. In the example of FIG. 20A, the image is divided into four regions by setting two straight lines. In an example in which this teacher data is used, if the head of the person being assisted is located in the upper right area, it is determined to be OK, and if it is located in any other area, it is determined to be NG. However, the number of straight lines is not limited to two, and may be one as shown in FIG. 20B. In the example of FIG. 20B, the image is divided into two regions by setting one straight line. In an example in which this teacher data is used, if the head of the person being assisted is located in the right region, it is determined to be OK, and if it is located in the left region, it is determined to be NG. Further, three or more straight lines may be set, or a curved line may be used as a boundary for dividing an image.
また図20Aの教師データを用いる場合、骨格トラッキングが併用されてもよい。ポジショニングアプリケーションAP1は、骨格トラッキング結果のある部分(例えば首、鼻、頭部等)がどの領域に位置するかに応じて、OK/NGを判定してもよい。あるいはポジショニングアプリケーションAP1は、教師データのうちのある領域(狭義には正解領域)に属する部分画像と、ポジション調整時の撮像画像のうちの同じ領域に属する部分画像との比較を行い、差分が大きい場合にNGと判定してもよい。画像の差分判定には、例えば上述したようにRGBの画素値から算出されるノルム等が用いられてもよい。また、図20Aに示す教師データを用いる場合、OK/NGの判定は必須ではない。例えば、ポジショニングアプリケーションAP1は、撮像画像に対して、教師データに含まれる境界を示すデータ(図20Aのであれば2本の直線)を重畳表示してもよい。この場合、重畳表示された画像を閲覧した第1ユーザは、特定の部位と境界との位置関係に基づいて、姿勢を適切に調整することが可能になる。このように、図20Aの教師データを用いた処理には種々の変形実施が可能である。図20Bの教師データを用いる場合も同様である。 Furthermore, when using the teacher data in FIG. 20A, skeleton tracking may also be used. The positioning application AP1 may determine OK/NG depending on which area a certain part (for example, neck, nose, head, etc.) of the skeleton tracking result is located. Alternatively, the positioning application AP1 compares a partial image belonging to a certain region (correct region in a narrow sense) of the teacher data with a partial image belonging to the same region of the captured image at the time of position adjustment, and compares In some cases, it may be determined as NG. For example, the norm calculated from the RGB pixel values as described above may be used for image difference determination. Moreover, when using the teacher data shown in FIG. 20A, determination of OK/NG is not essential. For example, the positioning application AP1 may display data indicating boundaries included in the teacher data (two straight lines in FIG. 20A) superimposed on the captured image. In this case, the first user who viewed the superimposed image can adjust his or her posture appropriately based on the positional relationship between the specific region and the boundary. In this way, various modifications can be made to the process using the teacher data in FIG. 20A. The same applies when using the teacher data in FIG. 20B.
例えば第2ユーザは、図19の画面の領域RE7において、指やタッチペンを用いて線を描くことによって図20A、図20Bに示す直線を設定してもよい。あるいは第2ユーザは、複数の撮像画像のそれぞれについて、OK/NGを判定し、その判定結果を設定入力として第2端末装置300に入力してもよい。サーバシステム100は、当該設定入力を正解とする分類や回帰分析を行うことによって、図20A等に示す直線を自動的に設定する処理を行ってもよい。あるいは第2ユーザは、図16の例と同様に、センシングデータのうち、好ましいと考える一部の範囲を選択する設定入力を行い、当該設定入力に基づく処理が行われることによって、図20A等に示す直線が求められてもよい。 For example, the second user may set the straight line shown in FIGS. 20A and 20B by drawing a line using a finger or a touch pen in the area RE7 of the screen in FIG. 19. Alternatively, the second user may determine OK/NG for each of the plurality of captured images, and input the determination result to the second terminal device 300 as a setting input. The server system 100 may perform a process of automatically setting the straight line shown in FIG. 20A etc. by performing classification or regression analysis in which the setting input is considered as the correct answer. Alternatively, as in the example of FIG. 16, the second user inputs a setting to select a part of the sensing data that he or she considers preferable, and by performing processing based on the setting input, the image shown in FIG. 20A etc. The straight line shown may be found.
図21は、設定モードにおいて第2端末装置300の表示部340に表示される他の画面例である。第1端末装置200は、被介助者を正面から撮像する装置と、被介助者を側面から撮像する装置を含んでもよい。例えば、図18における嚥下ムセ検出装置460の端末装置462が、第1端末装置200として動作してもよい。あるいは、被介助者の正面を撮像する装置と、被介助者の側面を撮像する装置の何れか一方が第1端末装置200として動作し、他方の装置は撮像画像を第1端末装置200に送信する処理を行ってもよい。 FIG. 21 is another example of a screen displayed on the display unit 340 of the second terminal device 300 in the setting mode. The first terminal device 200 may include a device that images the person being assisted from the front and a device that images the person being assisted from the side. For example, the terminal device 462 of the dysphagia detection device 460 in FIG. 18 may operate as the first terminal device 200. Alternatively, one of a device that images the front side of the person to be assisted and a device that images the side surface of the person to be assisted operates as the first terminal device 200, and the other device transmits the captured image to the first terminal device 200. You may also perform processing to do so.
図21に示す画面は、被介助者を正面から撮像した画像を表示する領域RE1と、被介助者を側面から撮像した画像を表示する領域RE7を含んでもよい。このようにすれば、第2ユーザに提示できる情報が増えるため、教師データの精度向上等が可能になる。なお、これ以外の点は図16や図19と同様であるため、詳細な説明は省略する。 The screen shown in FIG. 21 may include an area RE1 that displays an image of the person being assisted from the front, and an area RE7 that displays an image of the person being assisted from the side. In this way, the amount of information that can be presented to the second user increases, making it possible to improve the accuracy of the teacher data. Note that other points are the same as those in FIGS. 16 and 19, so detailed explanation will be omitted.
次に嚥下ムセ検出装置460の詳細について説明する。例えば嚥下ムセ検出装置460は、スロートマイク461の音声データに基づいて、被介助者のムセと、嚥下を判定する。首回りに装着したマイクを用いて嚥下を検出するデバイスは、例えば” Swallowing action measurement device and swallowing action support system”という2019年2月15日に出願された米国特許出願第16/276768号に記載されている。この特許出願は、その全体が本願明細書において参照により援用されている。プロセッサは、音声データに基づいて、ムセの回数、ムセの時間(発生時刻、継続時間等)、嚥下をしたか否かを検出できる。例えば嚥下ムセ検出装置460の出力がセンシングデータとして出力され、図19や図21等の画面に表示されてもよい。また嚥下ムセ検出装置460は以下で説明するように食事に関する種々の情報を求めることが可能である。本実施形態では、これらの情報がセンシングデータとして出力されてもよい。例えば、以下で説明する情報のいずれかが、図19の領域RE4や領域RE5に表示されてもよい。例えばスロートマイク461によって検出される音を表す波形信号や、以下で説明する嚥下時間の平均値等が図19に示した画面において表示されてもよい。 Next, details of the swallowing discomfort detection device 460 will be explained. For example, the swallowing awkwardness detection device 460 determines the assistance recipient's awkwardness and swallowing based on audio data from the throat microphone 461. A device that detects swallowing using a microphone worn around the neck is described, for example, in U.S. Patent Application No. 16/276,768 entitled “Swallowing action measurement device and swallowing action support system” filed on February 15, 2019. ing. This patent application is incorporated herein by reference in its entirety. Based on the audio data, the processor can detect the number of times the patient has a choking, the time of the choking (time of occurrence, duration, etc.), and whether or not the patient has swallowed. For example, the output of the swallowing choking detection device 460 may be output as sensing data and displayed on a screen such as FIG. 19 or FIG. 21. Furthermore, the swallowing discomfort detection device 460 is capable of obtaining various information regarding meals as described below. In this embodiment, this information may be output as sensing data. For example, any of the information described below may be displayed in the area RE4 or RE5 of FIG. 19. For example, a waveform signal representing the sound detected by the throat microphone 461, an average value of the swallowing time described below, etc. may be displayed on the screen shown in FIG. 19.
また端末装置462のカメラは、例えば図18に示すように被介助者を正面方向から撮像することによって、被介助者の口、目、及び被介助者が使用する箸やスプーン等を検出できる。なお画像処理に基づいてこれらの顔のパーツや物体を検出する手法は種々知られており、本実施形態では公知の手法を広く適用可能である。 Furthermore, the camera of the terminal device 462 can detect the mouth, eyes, and chopsticks, spoons, etc. of the person being assisted by capturing an image of the person being assisted from the front, as shown in FIG. 18, for example. Note that there are various known methods for detecting these facial parts and objects based on image processing, and in this embodiment, a wide variety of known methods can be applied.
例えば嚥下ムセ検出装置460は、カメラの撮像画像に基づいて、被介助者の口が開いているか否か、口から食べ物が出ているか否か、食べ物を噛んでいるか否かを判定できる。また嚥下ムセ検出装置460は、カメラの撮像画像に基づいて、被介助者の目が開いているか否かを判定できる。また嚥下ムセ検出装置460は、カメラの撮像画像に基づいて、箸やスプーン等が食器の近くにあるか否か、被介助者が持てているか否か、食べ物をこぼしているか否かを判定できる。 For example, the swallowing awkwardness detection device 460 can determine whether the mouth of the person to be assisted is open, whether food is coming out of the mouth, and whether or not the person is chewing the food, based on an image captured by a camera. Furthermore, the swallowing awkwardness detection device 460 can determine whether or not the eyes of the person being assisted are open based on the image captured by the camera. Furthermore, the swallowing awkwardness detection device 460 can determine whether chopsticks, spoons, etc. are near tableware, whether the person being assisted is holding them, and whether food has been spilled. .
本実施形態の手法では、これらの情報に基づいて、被介助者の嚥下やムセに関する状況を推定する。例えば嚥下ムセ検出装置460は、ムセ及び嚥下の検出結果、及び、被介助者の口の開閉判定結果に基づいて、食事に関する情報を求めてもよい。 In the method of this embodiment, the situation regarding swallowing and stiffness of the care recipient is estimated based on this information. For example, the swallowing awkwardness detection device 460 may obtain information regarding meals based on the detection results of the awkwardness and swallowing, and the open/closed mouth opening/closing determination results of the person being assisted.
例えば嚥下ムセ検出装置460は、ムセの回数や時間に基づいて、ムセが頻発しているか否かを判定し、判定結果を出力してもよい。例えば嚥下ムセ検出装置460は、単位時間あたりのムセの回数が閾値を超えた場合に、ムセが頻発したと判定してもよい。このようにすれば、ムセに関する状況を自動的に判定できる。 For example, the swallowing discomfort detection device 460 may determine whether or not the discomfort occurs frequently based on the number of times the discomfort occurs or the time, and may output the determination result. For example, the swallowing discomfort detection device 460 may determine that the swallowing discomfort occurs frequently when the number of times the swallowing discomfort occurs exceeds a threshold value. In this way, it is possible to automatically determine the situation regarding the mouse.
また嚥下ムセ検出装置460は、嚥下の検出結果、及び、被介助者の口の開閉判定結果に基づいて、被介助者が口を開けてから嚥下するまでの嚥下時間を求めてもよい。このようにすれば、例えば嚥下の回数が減っている場合において、食べ物を口に入れる動作自体が行われていないのか、食べ物を口に入れたのに嚥下が行われないのか等、具体的な状況を判定できる。例えば嚥下ムセ検出装置460は、端末装置462の撮像画像に基づいて口が閉じた状態から開いた状態に移行したときにタイマーのカウントアップを開始し、スロートマイク461によって嚥下が検出された場合にタイマーの計測を停止してもよい。停止時のタイムが、嚥下時間を表す。このようにすれば、食事において誤嚥リスクが高く、介助者が何らかのアクションを実行すべき状況であるかを精度よく判定できる。 Furthermore, the swallowing awkwardness detection device 460 may determine the swallowing time from when the person being assisted opens their mouth to when they swallow, based on the detection result of swallowing and the result of determining whether the assisted person's mouth is open/closed. If you do this, for example, if the number of times you swallow is decreasing, you can find out if the action of putting food in your mouth is not being performed, or if you are not swallowing even after putting food in your mouth. Can judge the situation. For example, the swallowing awkwardness detection device 460 starts counting up a timer when the mouth changes from a closed state to an open state based on the captured image of the terminal device 462, and when swallowing is detected by the throat microphone 461. The timer measurement may be stopped. The time at stop represents the swallowing time. In this way, it is possible to accurately determine whether the situation is such that the risk of aspiration during meals is high and the caregiver should take some action.
また嚥下ムセ検出装置460は、嚥下時間に基づいて食事のペースを判定してもよい。また嚥下ムセ検出装置460は、1回の食事の中での嚥下時間の変化(例えば最初の方の嚥下時間に対する増加量や比率等)に基づいて、嚥下時間が長いか否かを判定してもよい。あるいはプロセッサは、同じ被介助者について、複数回の食事のそれぞれでの平均嚥下時間等を求め、当該平均嚥下時間の変化に基づいて嚥下時間が長くなったか否かを判定してもよい。 Furthermore, the swallowing choking detection device 460 may determine the pace of the meal based on the swallowing time. Furthermore, the swallowing choking detection device 460 determines whether or not the swallowing time is long based on changes in the swallowing time during one meal (for example, the amount of increase or ratio to the initial swallowing time, etc.). Good too. Alternatively, the processor may obtain the average swallowing time for each of a plurality of meals for the same person being assisted, and determine whether the swallowing time has become longer based on a change in the average swallowing time.
また端末装置462の撮像画像による口の開閉判定結果を用いることによって、介助者がスプーン等を近づけても開口しなくなった状況であるかを判定できる。このように、被介助者が開口を渋る状況において、嚥下時間が長くなった場合、口内に食べ物が残るため込みが発生した状況であると推定できる。また撮像画像を用いて口から食べ物が出ているか否か、食べ物を噛んでいるかの認識結果を用いることによって、被介助者が食べ物を噛み切れなくなった状況であるかを判定できる。例えば噛む回数は通常通りであるのに、嚥下時間が長い場合、噛み切れなくなった状況であると推定される。また撮像画像を用いて目が閉じていると判定された場合、被介助者が眠そうになった状況であるかを判定できる。 Furthermore, by using the result of mouth opening/closing determination based on the captured image of the terminal device 462, it is possible to determine whether the caregiver is unable to open the mouth even when a spoon or the like is brought close to the mouth. In this way, if the person being assisted is reluctant to open their mouth and the swallowing time becomes long, it can be assumed that food is left in the mouth and congestion has occurred. Furthermore, by using the captured image to determine whether food is coming out of the mouth and whether the person is chewing the food, it can be determined whether the person being assisted is unable to chew the food. For example, if the number of times you chew is normal, but it takes a long time to swallow, it is assumed that you are unable to chew the food enough. Furthermore, if it is determined using the captured image that the eyes are closed, it can be determined whether the person being assisted is in a sleepy state.
また撮像画像を用いて箸やスプーン等の認識処理を行うことによって、食べ物で遊んでいる、器が持てない、何もしていない等の状況であるか否かが判定されてもよい。例えばスプーン等のオブジェクトが被介助者の手に重なっているが、当該オブジェクトを口に運ぶまでの時間が所定閾値以上である場合、食器が持てない、あるいは、食べ物で遊んでいると判定される。またスプーン等のオブジェクトが被介助者の手に重ならず、且つ、被介助者の視線が食べ物(料理)に向いている時間が所定閾値以上である場合、何もしないで食べ物を見ていると判定される。 Furthermore, by performing recognition processing for chopsticks, spoons, etc. using captured images, it may be determined whether the person is playing with food, cannot hold a utensil, or is not doing anything. For example, if an object such as a spoon is placed on the person's hand, but the time it takes to bring the object to the person's mouth is longer than a predetermined threshold, it is determined that the recipient is unable to hold the tableware or is playing with the food. . In addition, if an object such as a spoon does not overlap the care recipient's hand, and the time the care recipient's line of sight is directed towards the food (cooking) is longer than a predetermined threshold, the care recipient looks at the food without doing anything. It is determined that
またスロートマイク461が検出する音声データの特徴量は、種々の状況に応じて変化することが知られている。ここでの特徴量は、音声データの波形における振幅であってもよいし、周波数であってもよいし、1回の嚥下に含まれる波数であってもよい。例えば、料理の固さやとろみの程度、食事のペース等の要因によって、嚥下の音が変化する。また固さ等が同等の場合であっても、被介助者の体調に応じて嚥下の音が変化することが分かってきた。 Further, it is known that the feature amount of the audio data detected by the throat microphone 461 changes depending on various situations. The feature amount here may be the amplitude in the waveform of the audio data, the frequency, or the number of waves included in one swallow. For example, the sound of swallowing changes depending on factors such as the hardness and consistency of the food and the pace of eating. It has also been found that the sound of swallowing changes depending on the physical condition of the person being assisted, even when the hardness is the same.
よって嚥下ムセ検出装置460は、スロートマイク461の出力に基づいて嚥下の音を表す特徴量を求め、当該特徴量に基づいて、被介助者の体調を推定してもよい。例えば嚥下ムセ検出装置460は、過去の履歴に基づいて嚥下音の特徴量と、被介助者の体調を対応付けるデータを記憶しておく。そして、嚥下ムセ検出装置460は、実際に取得された特徴量と当該データを比較することによって、被介助者の体調を推定する。なお、嚥下音の特徴量と、被介助者の体調を対応付けるデータは機械学習によって作成される学習済モデルであってもよい。 Therefore, the swallowing discomfort detection device 460 may obtain a feature representing the sound of swallowing based on the output of the throat microphone 461, and may estimate the physical condition of the person being assisted based on the feature. For example, the swallowing discomfort detection device 460 stores data that associates the feature amount of the swallowing sound with the physical condition of the person being assisted based on the past history. Then, the swallowing discomfort detection device 460 estimates the physical condition of the person being assisted by comparing the data with the actually acquired feature amount. Note that the data that associates the feature amount of the swallowing sound with the physical condition of the person being assisted may be a trained model created by machine learning.
3.ポジショニングアプリケーションの利用
上述したように、設定モードにおいて、第2ユーザの設定入力に基づくアルゴリズム(アップデートデータ又は新規のポジショニングアプリケーションAP1)が第1端末装置200に送信される。よって第1端末装置200は、当該ポジショニングアプリケーションAP1を利用モードで動作させることが可能である。上述したように、利用モードのポジショニングアプリケーションAP1は、教師データである画像情報を透過させて重畳表示する処理を行ってもよいし、画像情報やセンシングデータの比較処理に基づいて被介助者の姿勢のOK/NGを判定してもよい。またポジショニングアプリケーションAP1は、介助者(被介助者の家族)の姿勢のOK/NGを判定してもよい。第1端末装置200に記憶されているポジショニングアプリケーションAP1を単純に利用する場合、利用モードにおいて第2ユーザが第2端末装置300を用いて介入しなくてもよい。
3. Use of Positioning Application As described above, in the setting mode, the algorithm (update data or new positioning application AP1) based on the second user's setting input is transmitted to the first terminal device 200. Therefore, the first terminal device 200 can operate the positioning application AP1 in the usage mode. As described above, the positioning application AP1 in the usage mode may perform a process of transparently superimposing image information, which is teaching data, or adjust the posture of the person being assisted based on a comparison process of image information and sensing data. OK/NG may be determined. The positioning application AP1 may also determine whether the posture of the caregiver (family member of the person being assisted) is OK or NG. When simply using the positioning application AP1 stored in the first terminal device 200, the second user does not need to intervene using the second terminal device 300 in the usage mode.
ただし、同じ被介助者を対象とする場合であっても、状況に応じて好適な教師データが異なる場合がある。そのため、第1端末装置200が複数の教師データに対応する処理を実行可能である場合、使用する教師データを選択する必要がある。また、本実施形態の情報処理システム10が多数の教師データ(アルゴリズム)を蓄積しており、第1被介助者を対象として設定された教師データが、第1被介助者とは異なる第2被介助者に適しているというケースも考えられる。例えば、第1被介助者と第2被介助者の属性が類似する場合、一方に適した教師データが他方にも適している可能性がある。 However, even when the same care recipient is targeted, suitable teacher data may differ depending on the situation. Therefore, if the first terminal device 200 is capable of executing processing corresponding to a plurality of teacher data, it is necessary to select the teacher data to be used. Further, the information processing system 10 of the present embodiment has accumulated a large amount of teacher data (algorithms), and the teacher data set for the first person being assisted is a second person being different from the first person being assisted. There may also be cases where the person is suitable as a caregiver. For example, when the attributes of the first person being assisted and the second person being assisted are similar, there is a possibility that the teacher data that is suitable for one person is also suitable for the other person.
よって第2端末装置300は、第2ユーザによる操作であって、複数の教師データから、利用対象となる教師データを選択する操作である選択操作を受け付けてもよい。上述したように、教師データは熟練の介助者の暗黙知であるところ、どのような場面でどの暗黙知を使えばよいかの選択も暗黙知となり得る。本実施形態の手法によれば、暗黙知の選択にも専門家である第2ユーザによる判断が用いられるため、第1ユーザに適したポジション調整を実現することが可能になる。例えば利用モードにおいて、ポジショニングアプリケーションAP1は、図4Bに示す透過表示を行う画面上に、複数のタブを表示し、当該タブの選択操作に基づいて教師データを切り替える処理を行ってもよい。例えば1つのタブが1つの教師データに対応し、第2ユーザによるタブの手動切り替えに基づいて教師データが選択されてもよい。 Therefore, the second terminal device 300 may accept a selection operation by the second user, which is an operation for selecting teacher data to be used from a plurality of pieces of teacher data. As mentioned above, the teacher data is the tacit knowledge of a skilled caregiver, and the selection of which tacit knowledge to use in which situations can also be tacit knowledge. According to the method of this embodiment, since judgment by the second user, who is an expert, is also used to select tacit knowledge, it is possible to realize position adjustment suitable for the first user. For example, in the use mode, the positioning application AP1 may display a plurality of tabs on a transparent screen shown in FIG. 4B, and perform a process of switching the teacher data based on the selection operation of the tab. For example, one tab may correspond to one teacher data, and the teacher data may be selected based on manual switching of tabs by the second user.
図22は、第2端末装置300を用いた教師データ(暗黙知、アルゴリズム)の選択が行われる場合の処理を説明するシーケンス図である。図22の処理は、例えば具体的なポジション調整の開始前に実行される。 FIG. 22 is a sequence diagram illustrating a process when teacher data (tacit knowledge, algorithm) is selected using the second terminal device 300. The process in FIG. 22 is executed, for example, before starting specific position adjustment.
まずステップS201において、第1端末装置200と第2端末装置300が接続される。ステップS202において、第1端末装置200は周辺のセンシングデバイス400に関する情報を第2端末装置300に送信する。ステップS201及びS202の処理は、図6のステップS101及びS102と同様である。 First, in step S201, the first terminal device 200 and the second terminal device 300 are connected. In step S202, the first terminal device 200 transmits information regarding the surrounding sensing devices 400 to the second terminal device 300. The processes in steps S201 and S202 are similar to steps S101 and S102 in FIG.
ステップS203において、第2端末装置300は第2ユーザによる接続対象機器の選択入力を受け付ける。この処理は、図6のステップS103と同様である。さらにステップS203において、第2端末装置300は、利用するアルゴリズム(教師データ)の選択入力を受け付ける。 In step S203, the second terminal device 300 receives a selection input of a device to be connected by the second user. This process is similar to step S103 in FIG. Further, in step S203, the second terminal device 300 receives an input for selecting an algorithm (teacher data) to be used.
例えば第2端末装置300は、図22に不図示の処理により、サーバシステム100に登録済みのアルゴリズムのリストを取得し、当該リストを表示する処理を行ってもよい。例えばサーバシステム100は、記憶部120に登録済みのアルゴリズムのうち、第1端末装置200の周辺に導入済みのセンシングデバイス400を用いて実行可能なアルゴリズムのリストを第2端末装置300に送信する処理を行ってもよい。第2ユーザは、当該リストの中から、自身の暗黙知に従って、被介助者に適しているアルゴリズムを選択する操作を行う。 For example, the second terminal device 300 may obtain a list of algorithms registered in the server system 100 by a process not shown in FIG. 22, and may perform a process of displaying the list. For example, the server system 100 performs a process of transmitting to the second terminal device 300 a list of algorithms that are executable using the sensing device 400 installed around the first terminal device 200 among the algorithms registered in the storage unit 120. You may do so. The second user performs an operation to select an algorithm suitable for the person being assisted from the list according to his or her tacit knowledge.
ステップS204において、第2端末装置300は、接続情報と、アルゴリズムを特定する情報を第1端末装置200に送信する。接続情報は、図6のステップS104で上述した例と同様である。アルゴリズムを特定する情報は、例えばアルゴリズムに一意に割り振られたIDであってもよい。またアルゴリズムを特定する情報は、アルゴリズムの名称、作成時に対象となった被介助者の属性、作成した第2ユーザのID、介助歴、保有資格、所属施設等の情報を含んでもよい。 In step S204, the second terminal device 300 transmits the connection information and information specifying the algorithm to the first terminal device 200. The connection information is the same as the example described above in step S104 of FIG. The information specifying the algorithm may be, for example, an ID uniquely assigned to the algorithm. Further, the information specifying the algorithm may include information such as the name of the algorithm, the attributes of the person being assisted at the time of creation, the ID of the second user who created it, the assistance history, the qualifications held, the affiliated facility, and the like.
ステップS205において、第1端末装置200は、接続情報に基づいてセンシングデバイス400との接続を確立する。ステップS205の処理は、図6のステップS105の処理と同様である。 In step S205, the first terminal device 200 establishes a connection with the sensing device 400 based on the connection information. The process in step S205 is similar to the process in step S105 in FIG.
ステップS206において、第1端末装置200は、ステップS204で受信した情報に基づいて利用対象であるアルゴリズムを特定する処理を行う。ステップS207において、特定されたアルゴリズムが第1端末装置200にインストール済みであるかを判定する。例えば第1端末装置200は、記憶部220に記憶しているポジショニングアプリケーションAP1と、特定されたアルゴリズムを比較する処理を行ってもよい。この処理は、同じポジショニングアプリケーションAP1がインストールされているかの判定であってもよい。また、アルゴリズムがポジショニングアプリケーションAP1のアップデートデータ(例えばアドイン)として実現されている場合、ステップS206の処理は、特定されたアルゴリズムに対応するアドインが導入済みであるか否かの判定であってもよい。 In step S206, the first terminal device 200 performs a process of identifying the algorithm to be used based on the information received in step S204. In step S207, it is determined whether the identified algorithm has been installed on the first terminal device 200. For example, the first terminal device 200 may perform a process of comparing the positioning application AP1 stored in the storage unit 220 with the identified algorithm. This process may be a determination as to whether the same positioning application AP1 is installed. Furthermore, if the algorithm is implemented as update data (for example, an add-in) for the positioning application AP1, the process in step S206 may be a determination as to whether an add-in corresponding to the identified algorithm has been installed. .
ステップS207で第2ユーザによって選択されたアルゴリズムがインストール済みであると判定された場合、ステップS208以降の処理は省略され、当該アルゴリズムに従った処理が実行される。 If it is determined in step S207 that the algorithm selected by the second user has been installed, the processes after step S208 are omitted, and the process according to the algorithm is executed.
ステップS207で第2ユーザによって選択されたアルゴリズムがインストール済みでないと判定された場合、ステップS208において、第1端末装置200は、当該アルゴリズムをサーバシステム100に要求する。ステップS209において、サーバシステム100は、要求されたアルゴリズムを第1端末装置200に送信する。ステップS210において、第1端末装置200は送信されたアルゴリズムをインストールする。これにより、第1端末装置200は、当該アルゴリズムに従った処理が実行可能になる。 If it is determined in step S207 that the algorithm selected by the second user has not been installed, the first terminal device 200 requests the algorithm from the server system 100 in step S208. In step S209, the server system 100 transmits the requested algorithm to the first terminal device 200. In step S210, the first terminal device 200 installs the transmitted algorithm. This enables the first terminal device 200 to execute processing according to the algorithm.
なお以上では、ポジショニングアプリケーションAP1の利用モードにおいてもセンシングデバイス400からのセンシングデータが用いられる例を説明した。ただし、ポジショニングアプリケーションAP1は、例えば教師データを表す画像情報を透過させて重畳表示を行う、あるいは、当該画像情報と撮像画像を比較することでOK/NGを判定する等のアルゴリズムであってもよく、センシングデバイス400の利用は必須ではない。この場合、センシングデバイス400に関連するステップS202、S204、S205の処理は省略が可能である。またステップS203のうち、接続対象装置の入力を受け付ける処理についても省略が可能である。 Note that the above has described an example in which sensing data from the sensing device 400 is used also in the usage mode of the positioning application AP1. However, the positioning application AP1 may be an algorithm that allows image information representing training data to be transmitted through and displays it in a superimposed manner, or determines OK/NG by comparing the image information and a captured image. , the use of sensing device 400 is not essential. In this case, the processes of steps S202, S204, and S205 related to the sensing device 400 can be omitted. Further, in step S203, the process of accepting input of the connection target device can also be omitted.
4.負荷に基づく動作モードの変更
また以上では、第1端末装置200がセンシングデバイス400と接続を確立する例を説明した。即ち、家庭等に配置されたセンシングデバイス400のセンシングデータは第1端末装置200に集約される。そして第1端末装置200は、設定モードであれば当該センシングデータを含むデータを第2端末装置300に送信することで、教師データの遠隔設定を行う。また利用モードであれば、第1端末装置200はセンシングデバイス400からセンシングデータを取得し、当該センシングデータに従った処理(例えば教師データとの比較処理等)を行う。ただし、第1端末装置200での処理負荷や、センシングデータの送受信に係る通信負荷が大きい場合、第1端末装置200での処理が遅延する可能性がある。
4. Change of Operation Mode Based on Load In the above, an example has been described in which the first terminal device 200 establishes a connection with the sensing device 400. That is, sensing data from sensing devices 400 placed at home or the like is aggregated into the first terminal device 200. If the first terminal device 200 is in the setting mode, the first terminal device 200 remotely sets the teacher data by transmitting data including the sensing data to the second terminal device 300. In addition, in the usage mode, the first terminal device 200 acquires sensing data from the sensing device 400 and performs processing (for example, comparison processing with teacher data, etc.) according to the sensing data. However, if the processing load on the first terminal device 200 or the communication load related to transmission and reception of sensing data is large, the processing on the first terminal device 200 may be delayed.
よって第1端末装置200は、ポジショニングアプリケーションAP1の処理負荷、及び、センシング結果の通信負荷と、第1端末装置200の処理能力を比較し、比較結果に基づいて、第1端末装置200の動作モードを切り替える処理を行ってもよい。なお、以下で説明する処理は、センシングデバイス400の動作モードを切り替える処理(センシングデータの送信先を切り替える処理)と考えてもよい。以下、設定モードにおける例と、利用モードにおける例をそれぞれ説明する。 Therefore, the first terminal device 200 compares the processing load of the positioning application AP1 and the communication load of the sensing result with the processing capacity of the first terminal device 200, and determines the operation mode of the first terminal device 200 based on the comparison result. You may also perform processing to switch between the two. Note that the process described below may be considered as a process of switching the operation mode of the sensing device 400 (a process of switching the destination of sensing data). An example in the setting mode and an example in the usage mode will be explained below.
図23Aは、設定モードにおける動作モードの切り替えを説明するシーケンス図である。まずステップS301において、第1端末装置200は、ポジショニングアプリケーションAP1の処理負荷を求める。ポジショニングアプリケーションAP1の処理負荷は、当該ポジショニングアプリケーションAP1のアルゴリズムに基づいて予め設定されていてもよいし、実行時のCPU使用量やメモリ使用量に基づいて決定されてもよい。 FIG. 23A is a sequence diagram illustrating switching of operation modes in setting mode. First, in step S301, the first terminal device 200 calculates the processing load of the positioning application AP1. The processing load of the positioning application AP1 may be set in advance based on the algorithm of the positioning application AP1, or may be determined based on the CPU usage amount and memory usage amount at the time of execution.
またステップS301において、第1端末装置200は、センシングデータの通信負荷を取得する。アルゴリズムが既知であれば、通信対象となるセンシングデータの種類や、単位時間あたりに通信される予想データ量は既知である。よって通信負荷は、アルゴリズムに基づいて予め設定されていてもよい。あるいは、第1端末装置200は、実際の通信ログに基づいて通信負荷を決定してもよい。 Further, in step S301, the first terminal device 200 acquires the communication load of sensing data. If the algorithm is known, the type of sensing data to be communicated and the expected amount of data to be communicated per unit time are known. Therefore, the communication load may be set in advance based on an algorithm. Alternatively, the first terminal device 200 may determine the communication load based on the actual communication log.
またステップS301において、第1端末装置200は、処理部210や通信部230の処理能力を取得する。処理能力は、第1端末装置200や通信機器(無線LANのアクセスポイント等)の構成に基づいて予め設定されていてもよい。あるいは、第1端末装置200は、ポジショニングアプリケーションAP1以外に動作しているアプリケーションの処理負荷等を考慮し、動的に処理能力を求めてもよい。 Further, in step S301, the first terminal device 200 acquires the processing capabilities of the processing section 210 and the communication section 230. The processing capacity may be set in advance based on the configuration of the first terminal device 200 or communication equipment (wireless LAN access point, etc.). Alternatively, the first terminal device 200 may dynamically determine the processing capacity by considering the processing load of applications running other than the positioning application AP1.
ステップS301において処理負荷及び通信負荷が第1端末装置200の処理能力を超えないと判定された場合、ステップS302~S307の処理が実行される。 If it is determined in step S301 that the processing load and communication load do not exceed the processing capacity of the first terminal device 200, the processes of steps S302 to S307 are executed.
ステップS302において、第1端末装置200とセンシングデバイス400の接続が確立される。例えばステップS302において、図6のステップS102~S105と同様の処理が実行される。またこれ以降の処理も図6のS107~S110と同様である。具体的には、ステップS303において、センシングデバイス400はセンシングデータを第1端末装置200に送信する。ステップS304において、第1端末装置200は被介助者の撮像画像を取得する。ステップS305において、第1端末装置200は、第1ユーザの感情分析を行う。ステップS306において、第1端末装置200は、第1撮像画像、センシングデータ、感情分析結果を第2端末装置300に送信する。第2端末装置300は、受信した情報に基づいて図9C等の画面を表示する。以上のように、負荷に対して処理能力に余裕がある場合、図6と同様の処理が実行されてもよい。 In step S302, a connection between the first terminal device 200 and the sensing device 400 is established. For example, in step S302, processing similar to steps S102 to S105 in FIG. 6 is executed. Further, the subsequent processing is similar to S107 to S110 in FIG. Specifically, in step S303, the sensing device 400 transmits sensing data to the first terminal device 200. In step S304, the first terminal device 200 acquires a captured image of the person being assisted. In step S305, the first terminal device 200 performs emotional analysis of the first user. In step S306, the first terminal device 200 transmits the first captured image, sensing data, and emotion analysis results to the second terminal device 300. The second terminal device 300 displays a screen such as that shown in FIG. 9C based on the received information. As described above, if there is enough processing capacity for the load, the same process as in FIG. 6 may be executed.
一方、ステップS301において処理負荷及び通信負荷が第1端末装置200の処理能力を超えていると判定された場合、ステップS308~S314の処理が実行される。 On the other hand, if it is determined in step S301 that the processing load and communication load exceed the processing capacity of the first terminal device 200, the processes of steps S308 to S314 are executed.
まずステップS308において、センシングデバイス400とサーバシステム100の接続が確立される。例えばステップS301において処理負荷及び通信負荷が処理能力を超えると判定された場合、第1端末装置200は直接、又はサーバシステム100等を介して、センシングデバイス400に対して、センシングデータの送信先をサーバシステム100に切り替える指示を行ってもよい。例えばセンシングデバイス400は家庭に配置される無線LANのアクセスポイントに接続することによって、サーバシステム100と接続する。ここでの接続には、図6の例と同様に第2ユーザによるサポートがあってもよい。 First, in step S308, a connection between the sensing device 400 and the server system 100 is established. For example, if it is determined in step S301 that the processing load and communication load exceed the processing capacity, the first terminal device 200 directly or via the server system 100 or the like instructs the sensing device 400 about the destination of the sensing data. An instruction to switch may be given to the server system 100. For example, the sensing device 400 connects to the server system 100 by connecting to a wireless LAN access point located at home. The connection here may be supported by the second user as in the example of FIG.
ステップS309において、センシングデバイス400はセンシングデータを取得し、当該センシングデータをサーバシステム100に送信する。ステップS310において、サーバシステム100は、センシングデータを第2端末装置300に送信する。 In step S309, the sensing device 400 acquires sensing data and transmits the sensing data to the server system 100. In step S310, the server system 100 transmits sensing data to the second terminal device 300.
ステップS311及びS312の処理は、ステップS304及びS305と同様である。ステップS306において、第1端末装置200は、撮像画像及び感情分析の結果を、第2端末装置300に送信する。 The processing in steps S311 and S312 is similar to steps S304 and S305. In step S306, the first terminal device 200 transmits the captured image and the emotion analysis result to the second terminal device 300.
以上の処理により、第2端末装置300は、サーバシステム100からセンシングデータを取得し、第1端末装置200から撮像画像と感情分析の結果を取得できる。よって第2端末装置300は、ステップS314において、受信した情報に基づいて図9C等の画面を表示する。 Through the above processing, the second terminal device 300 can acquire sensing data from the server system 100, and can acquire captured images and emotional analysis results from the first terminal device 200. Therefore, in step S314, the second terminal device 300 displays a screen such as that shown in FIG. 9C based on the received information.
ステップS308~S314の処理が実行される場合、ステップS302~S307の処理とは異なり、センシングデータのセンシングデバイス400から受信、及び第2端末装置300への送信をサーバシステム100において実行できる。またセンシングデータをログデータとしてサーバシステム100に記憶する場合、第1端末装置200からサーバシステム100への当該ログデータの送信も省略できる。従って、第1端末装置200の負荷を軽減できる。 When the processes in steps S308 to S314 are executed, unlike the processes in steps S302 to S307, the server system 100 can receive sensing data from the sensing device 400 and transmit it to the second terminal device 300. Furthermore, when sensing data is stored in the server system 100 as log data, transmission of the log data from the first terminal device 200 to the server system 100 can also be omitted. Therefore, the load on the first terminal device 200 can be reduced.
また本実施形態の手法では、暗黙知設定には用いられないセンシングデバイス400が動作してもよい。例えば本実施形態の手法では、負荷に対して処理能力に余裕がある場合、暗黙知設定に使用するセンシングデバイス400と、使用しないセンシングデバイス400の両方が第1端末装置200に接続される第1モードが用いられてもよい。また、負荷に対して処理能力に余裕がない場合、暗黙知設定に使用するセンシングデバイスは第1端末装置200に接続され、他のセンシングデバイス400がサーバシステム100に接続される第2モードが用いられてもよい。また、暗黙知設定に用いられないセンシングデバイス400を直接サーバシステム100に接続しても、負荷が処理能力を超える場合、暗黙知設定に使用するセンシングデバイス400と、暗黙知設定に使用しないセンシングデバイス400の両方が第1端末装置200を介さずにサーバシステム100に接続される第3モードが用いられてもよい。 Furthermore, in the method of this embodiment, the sensing device 400 that is not used for setting tacit knowledge may operate. For example, in the method of this embodiment, if there is enough processing capacity for the load, both the sensing device 400 used for tacit knowledge setting and the sensing device 400 not used are connected to the first terminal device 200. mode may be used. In addition, when there is not enough processing capacity to handle the load, a second mode is used in which the sensing device used for tacit knowledge setting is connected to the first terminal device 200 and the other sensing devices 400 are connected to the server system 100. It's okay to be hit. Furthermore, even if the sensing device 400 not used for tacit knowledge setting is directly connected to the server system 100, if the load exceeds the processing capacity, the sensing device 400 used for tacit knowledge setting and the sensing device not used for tacit knowledge setting 400 may be connected to the server system 100 without going through the first terminal device 200.
またモードの切り替えは図23Aに示した2段階、あるいは、上記の第1~第3モードを用いる3段階のものに限定されない。例えば、各センシングデバイスには優先度が設定されており、負荷に対して処理能力が不足する場合、優先度が低いセンシングデバイスから順に、サーバシステム100への直接接続に切り替えられてもよい。例えば、暗黙知設定に用いられないセンシングデバイス400は、暗黙知設定に用いられるセンシングデバイス400よりも優先度が低く設定される。優先度を用いることによって、第1端末装置200に接続されるセンシングデバイス400と、サーバシステム100に直接接続されるセンシングデバイス400とを柔軟に切り替えることが可能になる。なおこの優先度自体が暗黙知であり、第2ユーザによって各センシングデバイス400の優先度が変更可能であってもよい。以上のように、どのセンシングデバイス400をどの機器に接続するかは種々の変形実施が可能である。 Furthermore, the mode switching is not limited to the two steps shown in FIG. 23A or the three steps using the first to third modes described above. For example, a priority is set for each sensing device, and if the processing capacity is insufficient for the load, the sensing device may be switched to direct connection to the server system 100 in order of priority. For example, the sensing device 400 that is not used for tacit knowledge setting is set to have a lower priority than the sensing device 400 that is used for tacit knowledge setting. By using the priority, it becomes possible to flexibly switch between the sensing device 400 connected to the first terminal device 200 and the sensing device 400 directly connected to the server system 100. Note that this priority itself is tacit knowledge, and the priority of each sensing device 400 may be changeable by the second user. As described above, various modifications can be made regarding which sensing device 400 is connected to which equipment.
図23Bは、利用モードにおける動作モードの切り替え処理の例を説明するシーケンス図である。ステップS401の処理は、図23AのステップS301と同様である。 FIG. 23B is a sequence diagram illustrating an example of operation mode switching processing in the usage mode. The process in step S401 is similar to step S301 in FIG. 23A.
ステップS401において処理負荷及び通信負荷が第1端末装置200の処理能力を超えないと判定された場合、ステップS402~S406の処理が実行される。 If it is determined in step S401 that the processing load and communication load do not exceed the processing capacity of the first terminal device 200, the processes of steps S402 to S406 are executed.
ステップS402において、センシングデバイス400はセンシングデータを取得し、当該センシングデータを第1端末装置200に送信する。ステップS403において、第1端末装置200は、センシングデータに基づく判定を行う。例えば第1端末装置200は、教師データとセンシングデータの比較処理等を行い、処理結果に基づいて姿勢のOK/NG判定等を実行する。またステップS404において、第1端末装置200は撮像部260を用いて第1ユーザを撮像した第1撮像画像を取得する。 In step S402, the sensing device 400 acquires sensing data and transmits the sensing data to the first terminal device 200. In step S403, the first terminal device 200 makes a determination based on the sensing data. For example, the first terminal device 200 performs a comparison process between teacher data and sensing data, and performs an OK/NG determination of the posture based on the processing result. In step S404, the first terminal device 200 uses the imaging unit 260 to obtain a first captured image of the first user.
ステップS405において、第1端末装置200は、ポジショニングアプリケーションAP1に従った表示処理等を行う。例えば、第1端末装置200は、撮像画像に対する教師データの重畳表示、及び、センシングデータ等に基づくOK/NG判定の結果等を表示する。また図23Bには不図示であるが、第1端末装置200は、骨格トラッキングや感情分析を行い、これらに基づく判定結果を表示してもよい。 In step S405, the first terminal device 200 performs display processing and the like according to the positioning application AP1. For example, the first terminal device 200 displays superimposed teaching data on the captured image, and displays OK/NG determination results based on sensing data and the like. Although not shown in FIG. 23B, the first terminal device 200 may perform skeletal tracking and emotional analysis, and display determination results based on these.
ステップS406において、第1端末装置200は、処理結果を第2端末装置300に送信する。これにより、ポジション調整の結果を第2ユーザに通知することが可能になる。なお図23Bには不図示であるが、第1端末装置200は処理結果をサーバシステム100に送信してもよい。この場合、ポジション調整の結果を、サーバシステム100にログデータとして蓄積することが可能になる。 In step S406, the first terminal device 200 transmits the processing result to the second terminal device 300. This makes it possible to notify the second user of the position adjustment results. Although not shown in FIG. 23B, the first terminal device 200 may transmit the processing result to the server system 100. In this case, it becomes possible to accumulate the position adjustment results in the server system 100 as log data.
一方、ステップS401において処理負荷及び通信負荷が第1端末装置200の処理能力を超えていると判定された場合、ステップS407~S412の処理が実行される。 On the other hand, if it is determined in step S401 that the processing load and communication load exceed the processing capacity of the first terminal device 200, the processes of steps S407 to S412 are executed.
ステップS407において、センシングデバイス400はセンシングデータを取得し、当該センシングデータをサーバシステム100に送信する。ステップS408において、サーバシステム100は、センシングデータに基づく判定を行う。例えばサーバシステム100は、教師データとセンシングデータ等に基づくOK/NG判定等を実行する。上述したように、サーバシステム100の記憶部120はポジショニングアプリケーションAP1(アルゴリズム)を記憶しているため、ステップS408の処理を実行可能である。ステップS409において、サーバシステム100は、処理結果を第1端末装置200に送信する。ステップS409で送信される情報は、例えばOK/NGの何れかを表すフラグデータである。 In step S407, the sensing device 400 acquires sensing data and transmits the sensing data to the server system 100. In step S408, the server system 100 makes a determination based on the sensing data. For example, the server system 100 performs OK/NG determination based on teacher data, sensing data, and the like. As described above, since the storage unit 120 of the server system 100 stores the positioning application AP1 (algorithm), it is possible to execute the process of step S408. In step S409, the server system 100 transmits the processing result to the first terminal device 200. The information transmitted in step S409 is, for example, flag data indicating either OK or NG.
またステップS410において、第1端末装置200は撮像部260を用いて第1ユーザを撮像した第1撮像画像を取得する。ステップS411において、第1端末装置200は、ポジショニングアプリケーションAP1に従った表示処理等を行う。例えば、第1端末装置200は、撮像画像に対する教師データの重畳表示、及び、センシングデータ等に基づくOK/NG判定の結果等を表示する。ステップS412において、第1端末装置200は、処理結果を第2端末装置300に送信する。 In step S410, the first terminal device 200 uses the imaging unit 260 to acquire a first captured image of the first user. In step S411, the first terminal device 200 performs display processing etc. according to the positioning application AP1. For example, the first terminal device 200 displays superimposed teaching data on the captured image, and displays OK/NG determination results based on sensing data and the like. In step S412, the first terminal device 200 transmits the processing result to the second terminal device 300.
ステップS407~S412の処理が実行される場合、ステップS402~S406の処理とは異なり、センシングデータの受信や、センシングデータに基づく判定処理をサーバシステム100において実行できる。従って、第1端末装置200の処理負荷及び通信負荷を軽減できる。 When the processing in steps S407 to S412 is executed, unlike the processing in steps S402 to S406, the server system 100 can receive sensing data and perform determination processing based on the sensing data. Therefore, the processing load and communication load on the first terminal device 200 can be reduced.
また図23A、図23Bは不図示であるが、感情分析や骨格トラッキングの処理負荷が大きい場合、第1端末装置200は撮像画像をサーバシステム100に送信し、サーバシステム100が感情分析等の処理を行ってもよい。この場合、撮像画像の通信に関する負荷は増えるものの、感情分析等に関する処理負荷を軽減することが可能になる。 Although FIGS. 23A and 23B are not shown, when the processing load of emotional analysis or skeleton tracking is large, the first terminal device 200 transmits the captured image to the server system 100, and the server system 100 processes the emotional analysis etc. You may do so. In this case, although the load associated with communication of captured images increases, it becomes possible to reduce the processing load associated with emotion analysis and the like.
なお図23A、図23Bは、第1端末装置200の動作モード切り替えの一例であり、処理負荷及び通信負荷が処理能力を超えない場合と超える場合のそれぞれにおける具体的な処理は、上述した例に限定されず種々の変形実施が可能である。 Note that FIGS. 23A and 23B are examples of switching the operation mode of the first terminal device 200, and the specific processing in cases where the processing load and communication load do not exceed the processing capacity and when they exceed the processing capacity is the same as in the example described above. Various modifications are possible without limitation.
5.信頼度
また本実施形態の情報処理システム10は、第1撮像画像を用いた第1ユーザの感情分析結果に基づいて、第1ユーザからの第2ユーザの信頼度を判定してもよい。信頼度を判定する処理は、第1端末装置200、第2端末装置300及びサーバシステム100の何れの機器で行われてもよいし、2以上の機器の分散処理によって実現されてもよい。以下、第1端末装置200が感情分析を行う例について説明する。
5. Reliability The information processing system 10 of the present embodiment may determine the reliability of the second user from the first user based on the emotional analysis result of the first user using the first captured image. The process of determining reliability may be performed by any of the first terminal device 200, the second terminal device 300, and the server system 100, or may be realized by distributed processing of two or more devices. An example in which the first terminal device 200 performs sentiment analysis will be described below.
例えば感情分析において、各感情に対して当該感情が好意的なものであるか、否定的な物であるかを表す情報が対応付けられてもよい。例えば喜びや楽しみ等の感情は好意的であり、怒りや哀しみは否定的である。第1端末装置200は、感情分析により第1ユーザが好意的な感情を抱いていると判定した場合は、当該第1ユーザの第2ユーザへの信頼度が高いと判定する。また第1端末装置200は、感情分析により第1ユーザが否定的な感情を抱いていると判定した場合は、当該第1ユーザの第2ユーザへの信頼度が低いと判定する。また各感情に対して信頼度の高低を表す信頼度スコアが対応付けられ、当該信頼度スコアに基づいて信頼度が算出されてもよい。 For example, in emotion analysis, each emotion may be associated with information indicating whether the emotion is favorable or negative. For example, emotions such as joy and enjoyment are positive, while anger and sadness are negative. If the first terminal device 200 determines that the first user has favorable feelings through emotion analysis, the first terminal device 200 determines that the first user has a high degree of trust in the second user. Further, if the first terminal device 200 determines that the first user has negative emotions through emotional analysis, it determines that the first user has low trust in the second user. Further, a reliability score indicating the level of reliability may be associated with each emotion, and the reliability may be calculated based on the reliability score.
例えば、設定モードにおいて、第2端末装置300を用いる第2ユーザが、被介助者及びその家族等である第1ユーザに姿勢を指導しているとする。この際の第1ユーザの感情が好意的であれば、第1ユーザは第2ユーザの指導内容等を好意的に捉えており、第2ユーザへの信頼度が高いと考えられる。一方、設定モードでの第1ユーザの感情が否定的であれば、第1ユーザは第2ユーザによる指導を快く思っていない可能性があり、第2ユーザへの信頼度は低いと考えられる。 For example, assume that in the setting mode, a second user using the second terminal device 300 is instructing a first user, who is a person being assisted and his or her family, about posture. If the first user's feelings at this time are favorable, it is considered that the first user views the second user's instruction content favorably, and the degree of trust in the second user is high. On the other hand, if the first user's feelings in the setting mode are negative, the first user may not be happy with the second user's guidance, and the degree of trust in the second user is considered to be low.
また感情分析は、設定モードにおいて実行されるものに限定されない。例えば利用モードにおいてフィードバック等を行うために、第1ユーザと第2ユーザが、第1端末装置200及び第2端末装置300を用いて会話やビデオ会議等を行ってもよい。この際に第1ユーザの感情分析を行った場合にも、当該第1ユーザの第2ユーザへの信頼度を推定することが可能である。 Furthermore, emotion analysis is not limited to that executed in the setting mode. For example, the first user and the second user may have a conversation, video conference, etc. using the first terminal device 200 and the second terminal device 300 in order to provide feedback in the usage mode. At this time, also when the first user's emotions are analyzed, it is possible to estimate the degree of trust that the first user has in the second user.
感情分析の結果に基づいて、第1ユーザに関する介助への第2ユーザの関わり方が変更されてもよい。以下、設定モードと利用モードのそれぞれにおける例を説明する。 Based on the result of the emotion analysis, the manner in which the second user is involved in assistance regarding the first user may be changed. Examples of each of the setting mode and usage mode will be explained below.
例えば第2ユーザが複数である場合に、感情分析の結果に基づいて、それぞれの第2ユーザについて、第1端末装置200の第1ユーザからの信頼度が判定されてもよい。例えば、1人の被介助者を担当する専門家として、介護士、看護師、医師、ケアマネージャ等、それぞれ異なる役割を有する複数の第2ユーザが関係することが考えられる。また1人の被介助者に対して、複数の介護士が担当者となることも考えられる。この場合、それぞれの第2ユーザを対象として、第1ユーザからの信頼度が判定される。 For example, when there are a plurality of second users, the reliability from the first user of the first terminal device 200 may be determined for each second user based on the result of sentiment analysis. For example, it is conceivable that a plurality of second users having different roles, such as a caregiver, a nurse, a doctor, and a care manager, may be involved as experts in charge of one person being assisted. It is also conceivable that multiple caregivers may be in charge of one person being cared for. In this case, the reliability from the first user is determined for each second user.
そして教師データを設定するための第2ユーザの設定入力において、信頼度が高い第2ユーザが、信頼度が低い第2ユーザに比べて優先されてもよい。例えば第1ユーザが何らかのポジション調整を行うための教師データの設定を、第2ユーザに依頼する場面を考える。この際、第1端末装置200は、第1ユーザに対応付けられた複数の第2ユーザのうち、信頼度が高いユーザを優先的に選択する処理を行う。例えば、図6のステップS101において、第1端末装置200は、信頼度が高い第2ユーザの第2端末装置300から順に、接続を試行してもよい。このようにすれば、信頼度の高い第2ユーザが教師データを設定する蓋然性が高くなるため、より第1ユーザに適した暗黙知をデジタル化できる。 In the second user's setting input for setting the teacher data, a second user with a high degree of reliability may be given priority over a second user with a low degree of reliability. For example, consider a situation in which a first user requests a second user to set teacher data for making some kind of position adjustment. At this time, the first terminal device 200 performs a process of preferentially selecting a user with high reliability from among the plurality of second users associated with the first user. For example, in step S101 of FIG. 6, the first terminal device 200 may attempt connection in order from the second terminal device 300 of the second user with the highest reliability. In this way, there is a high probability that the second user with high reliability sets the teacher data, so that tacit knowledge that is more suitable for the first user can be digitized.
また利用モードにおいて、信頼度が高い第2ユーザによって設定された教師データは、信頼度が低い第2ユーザによって設定された教師データに比べて、優先的に使用されてもよい。図22を用いて上述したように、本実施形態の手法では複数の第2ユーザが存在し、各第2ユーザが自身の暗黙知を教師データ(ポジショニングアプリケーション、アルゴリズム)として登録することが想定される。そのため、使用する暗黙知の選択も重要である。 Further, in the usage mode, teacher data set by a second user with high reliability may be used preferentially compared to teacher data set by a second user with low reliability. As described above using FIG. 22, in the method of this embodiment, it is assumed that there are a plurality of second users, and each second user registers his or her own tacit knowledge as training data (positioning application, algorithm). Ru. Therefore, the selection of tacit knowledge to use is also important.
その点、暗黙知の選択基準として信頼度を用いることによって、第1ユーザと相性がよいと考えられる第2ユーザの暗黙知を優先的に使用することが可能になる。例えば図22におけるステップS203の使用アルゴリズムの選択入力が省略され、第2端末装置300やサーバシステム100が、信頼度に基づいて自動的に使用する教師データを選択してもよい。あるいは、アルゴリズムの選択自体は第2ユーザが行うが、候補となるアルゴリズムのリストを表示する際に、第1ユーザからの信頼度が高い第2ユーザが作成したアルゴリズムが優先的に表示されてもよい。その他、具体的な処理については種々の変形実施が可能である。 In this regard, by using reliability as a criterion for selecting tacit knowledge, it becomes possible to preferentially use the tacit knowledge of the second user who is considered to be compatible with the first user. For example, the selection input of the algorithm to be used in step S203 in FIG. 22 may be omitted, and the second terminal device 300 or the server system 100 may automatically select the teacher data to be used based on the reliability. Alternatively, the selection of the algorithm itself is performed by the second user, but when displaying a list of candidate algorithms, the algorithm created by the second user that has a high degree of trust from the first user is displayed preferentially. good. In addition, various modifications can be made to the specific processing.
なお、介助の現場では、信頼度の低い第2ユーザを第1ユーザと関わらせなければならない場面も考えられる。例えば医師の信頼度が低い場合であっても、何らかの対応に医師による診断が必要であれば、介護士や看護師が代理で対応を行うことは難しい。 Note that in the field of assistance, there may be a situation in which a second user with a low degree of trust must be involved with the first user. For example, even if a doctor's reliability is low, if a doctor's diagnosis is required for some kind of response, it is difficult for a caregiver or nurse to handle the situation on his or her behalf.
そこで本実施形態の手法では、感情分析の結果に基づいて、第1端末装置200の第1ユーザからの第2ユーザの信頼度が所定閾値以下と判定された場合、第1端末装置200及び第2端末装置300の少なくとも一方は、第1端末装置200と第2端末装置300の通信の際に、被介助者の家族、又は、信頼度が相対的に高い第2ユーザの参加を促す情報を提示してもよい。 Therefore, in the method of the present embodiment, if the reliability of the second user from the first user of the first terminal device 200 is determined to be less than or equal to a predetermined threshold based on the result of emotion analysis, the first terminal device 200 and the second user At least one of the two terminal devices 300 transmits information that encourages the participation of a family member of the care recipient or a second user with a relatively high degree of trust during communication between the first terminal device 200 and the second terminal device 300. May be presented.
例えば、被介助者の医師に対する信頼度が低い場合、被介助者と医師のみで会話やビデオ会議等を行うのではなく、情報処理システム10は、介護士、看護師、ケアマネージャ等の介在を提案することによって、コミュニケーションを円滑にしてもよい。あるいは情報処理システム10は、被介助者の家族の介在を提案することによって、被介助者と医師の間のコミュニケーションを円滑にしてもよい。例えば、介護士等を介在させる提案は第2端末装置300で行われ、被介助者の家族を介在させる提案は第1端末装置200で行われてもよい。ただし、介護士等の介在を第1端末装置200で提案する等、提示手法は種々の変形実施が可能である。 For example, if the person being cared for has low trust in the doctor, the information processing system 10 may require the intervention of a caregiver, nurse, care manager, etc., instead of having a conversation or video conference between the person being cared for and the doctor alone. Communication may be facilitated by making suggestions. Alternatively, the information processing system 10 may facilitate communication between the person being cared for and the doctor by suggesting the intervention of the person's family. For example, a proposal to involve a caregiver or the like may be made on the second terminal device 300, and a proposal to involve the care recipient's family may be made on the first terminal device 200. However, the presentation method can be modified in various ways, such as suggesting intervention by a caregiver or the like using the first terminal device 200.
また信頼度が低い第2ユーザが存在する場合、当該第2ユーザを他のユーザに変更する提案が行われてもよい。例えば第2ユーザは、理学療法士、作業療法士、言語聴覚療法士等、何らかの資格を有するユーザであることが想定される。よって情報処理システム10は、第1ユーザからの信頼度が低い第2ユーザが存在する場合、当該第2ユーザと同じ資格を有する他のユーザを、新たな第2ユーザとして第1ユーザに提案する処理を行ってもよい。例えばサーバシステム100は、資格毎に第2ユーザの候補となる専門家のデータベースを保持し、当該データベースに基づいて新たな第2ユーザを提案する。このようにすれば、第2ユーザを変更しても、第2ユーザが有する資格を維持できる。介助の場面においては、理学療法士の知見が有効なケース、作業療法士の知見が有効なケース、言語聴覚療法士の知見が有効なケース等、状況に応じてどの専門家のサポートを受けるべきかが異なるが、上記手法であれば変更後に適切なサポートを受けることが可能になる。 Furthermore, if there is a second user with low reliability, a proposal may be made to change the second user to another user. For example, the second user is assumed to be a user with some kind of qualification, such as a physical therapist, occupational therapist, speech therapist, or the like. Therefore, if there is a second user who has a low degree of trust from the first user, the information processing system 10 proposes another user who has the same qualifications as the second user to the first user as a new second user. Processing may be performed. For example, the server system 100 maintains a database of experts who are candidates for the second user for each qualification, and proposes a new second user based on the database. In this way, even if the second user is changed, the qualifications held by the second user can be maintained. In the case of assistance, which specialist should be supported depending on the situation, such as cases where the knowledge of a physical therapist is effective, cases where the knowledge of an occupational therapist is effective, cases where the knowledge of a speech-language hearing therapist is effective, etc. Although the details are different, if the above method is used, it will be possible to receive appropriate support after the change.
また信頼度が高い第2ユーザが存在し、且つ、他の第2ユーザの信頼度が低い場合、信頼度が低い第2ユーザを、信頼度が高い第2ユーザの関係者に変更する提案が行われてもよい。例えば医師の信頼度が高いが、ケアマネージャの信頼度が低い場合、ケアマネージャを当該医師に関係する他のケアマネージャに変更してもよい。関係者であれば介助の方針がある程度類似する蓋然性が高いため、第2ユーザを信頼度の高い人物の関係者に変更することによって、第2ユーザと第1ユーザの関係性を良好に保つことが可能になる。なお信頼度の低い第2ユーザを変更する場合、上述したように資格に基づいた判定が行われてもよい。例えばケアマネージャを変更するのであれば、ケアマネージャの資格を有する人物の中から新たな第2ユーザが選択される。信頼度の低いユーザが理学療法士、作業療法士、言語聴覚療法士等である場合も同様である。 Furthermore, if there is a second user with high reliability and other second users have low reliability, there is a proposal to change the second user with low reliability to a person related to the second user with high reliability. May be done. For example, if a doctor has a high degree of trust but a care manager has a low degree of trust, the care manager may be changed to another care manager related to the doctor. If they are related parties, there is a high probability that their assistance policies will be similar to some extent, so by changing the second user to a highly reliable related person, the relationship between the second user and the first user can be maintained in a good manner. becomes possible. Note that when changing a second user with low reliability, a determination may be made based on qualifications as described above. For example, if the care manager is to be changed, a new second user is selected from among the persons who have the qualifications of care manager. The same applies when the user with low reliability is a physical therapist, occupational therapist, speech therapist, etc.
6.ポジショニングアプリケーション以外における暗黙知の遠隔設定
以上では、ポジショニングアプリケーションAP1で用いられる暗黙知を、遠隔で設定する手法について説明した。例えばポジショニングアプリケーションAP1における教師データは第2ユーザの暗黙知であるところ、上述した手法によれば、第2ユーザが第1ユーザから離れた場所にいる場合にも、当該暗黙知を適切にデジタル化することが可能である。
6. Remote setting of tacit knowledge in applications other than positioning applications In the above, a method for remotely setting tacit knowledge used in the positioning application AP1 has been described. For example, the training data in the positioning application AP1 is the tacit knowledge of the second user, and according to the above-mentioned method, even when the second user is in a location far from the first user, the tacit knowledge can be appropriately digitized. It is possible to do so.
しかし、暗黙知の遠隔設定が行われる対象はポジショニングアプリケーションAP1に限定されず、他のデバイスやアプリケーションであってもよい。例えば本実施形態の手法は、介助における人及び物の少なくとも一方に関するセンシング結果を取得する電子機器と、当該電子機器を用いる第1ユーザに関する前記介助をサポートする第2ユーザによって使用される第2端末装置300と、を含む情報処理システム10に適用されてもよい。電子機器は、ネットワークを介してセンシング結果を第2端末装置300に送信する。第2端末装置300は、当該センシング結果を第2ユーザへ提示し、第2ユーザによる電子機器用の設定入力を受け付ける。ここでの設定入力は、電子機器の動作に関する第2ユーザの暗黙知を表す情報である。そして電子機器は、設定入力を取得し、当該設定入力に従って動作する。 However, the object on which the remote setting of tacit knowledge is performed is not limited to the positioning application AP1, but may be other devices or applications. For example, the method of the present embodiment includes an electronic device that acquires sensing results regarding at least one of a person and an object during assistance, and a second terminal used by a second user who supports the assistance regarding the first user using the electronic device. The present invention may be applied to the information processing system 10 including the device 300. The electronic device transmits the sensing result to the second terminal device 300 via the network. The second terminal device 300 presents the sensing result to the second user, and receives the second user's input of settings for the electronic device. The setting input here is information representing the second user's tacit knowledge regarding the operation of the electronic device. The electronic device then obtains the setting input and operates according to the setting input.
ここでの電子機器は、例えば上述したセンシングデバイス400のいずれかであってもよい。例えば座面センサ440では、上述したように前ずれ、右ずれ、左ずれ、正常を含む複数の状態を判別してもよい。座面センサ440による判定処理は、上述したようにポジショニングアプリケーションAP1における動作の一部として実行されてもよいが、ポジショニングアプリケーションAP1とは独立して実行されてもよい。例えば座面センサ440は、圧力値に基づいて前ずれ等の判定を行い、判定結果を制御ボックス442等に設けられる報知部(例えばLED等の発光部)で報知する処理を行ってもよい。なお、圧力値に基づく判定は、制御ボックス442に含まれるプロセッサにより行われてもよいし、サーバシステム100の処理部110で実行されてもよい。このようにすれば、ポジショニングアプリケーションAP1等のアプリケーションを介することなく、車椅子630を使用する被介助者の状態を、当該車椅子630の近傍に位置する介助者等に分かりやすく提示することが可能になる。 The electronic device here may be, for example, any of the sensing devices 400 described above. For example, the seat sensor 440 may determine a plurality of states including forward shift, right shift, left shift, and normal as described above. The determination process by the seat sensor 440 may be executed as a part of the operation in the positioning application AP1 as described above, but it may also be executed independently from the positioning application AP1. For example, the seat sensor 440 may perform a process of determining front shift or the like based on the pressure value, and notifying the determination result with a notification unit (for example, a light emitting unit such as an LED) provided in the control box 442 or the like. Note that the determination based on the pressure value may be performed by a processor included in the control box 442 or may be executed by the processing unit 110 of the server system 100. In this way, it becomes possible to clearly present the condition of the person being assisted using the wheelchair 630 to a caregiver located near the wheelchair 630 without using an application such as the positioning application AP1. .
ただし、座面センサ440で実行される前ずれ等の判定における判定基準は熟練の介助者による暗黙知となっている。よって座面センサ440は、第2ユーザによる設定入力を受け付けることで、当該判定基準を生成してもよい。例えば座面センサ440は、当該座面センサ440のユーザである第1ユーザが使用する第1端末装置200と接続されてもよい。そして第1端末装置200と第2端末装置300は、図16の領域RE4や図17の領域RE6に相当する画面を表示してもよい。この際、第1端末装置200と第2端末装置300は、図9を用いて上述したように、Web会議機能を用いて通信を行ってもよい。このようにすれば、座面センサ440が配置される場所とは異なる場所に専門家である第2ユーザがいる場合であっても、座面センサ440の設定を、当該第2ユーザの暗黙知を用いて実行することが可能になる。 However, the criteria for determining forward displacement, etc., performed by the seat sensor 440 are based on tacit knowledge by a skilled assistant. Therefore, the seat sensor 440 may generate the determination criteria by receiving a setting input from the second user. For example, the seat sensor 440 may be connected to the first terminal device 200 used by a first user who is the user of the seat sensor 440. The first terminal device 200 and the second terminal device 300 may display a screen corresponding to the area RE4 in FIG. 16 or the area RE6 in FIG. 17. At this time, the first terminal device 200 and the second terminal device 300 may communicate using the web conference function, as described above using FIG. 9. In this way, even if the second user, who is an expert, is located at a location different from the location where the seat sensor 440 is placed, the settings of the seat sensor 440 can be changed using the tacit knowledge of the second user. It becomes possible to execute using .
またここでの電子機器は、例えば嚥下ムセ検出装置460であってもよい。嚥下ムセ検出装置460は、上述したように、被介助者の食事に関する種々の判定を実行でき、これらはポジショニングアプリケーションAP1とは独立して実行可能である。 Further, the electronic device here may be, for example, the swallowing discomfort detection device 460. As described above, the swallowing difficulty detection device 460 can perform various determinations regarding the meal of the person being assisted, and these can be performed independently of the positioning application AP1.
例えば、これらの判定のうち、何れの判定が有用であるかは被介助者の状態や、介助者が実行可能な介入の内容に応じて変化するため、熟練者の暗黙知となる。よって嚥下ムセ検出装置460は、スロートマイク461の出力(音声データや波形信号)、端末装置462のカメラによる撮像画像等を、第2端末装置300に送信してもよい。第2ユーザは、送信された情報に基づいて、各判定のオン/オフを決定する設定入力を行ってもよい。このようにすれば、どの判定を実行すべきかに関する第2ユーザの暗黙知を嚥下ムセ検出装置460において適切に利用できる。 For example, which of these judgments is useful changes depending on the condition of the person being cared for and the details of the intervention that can be performed by the carer, and thus becomes tacit knowledge of the expert. Therefore, the swallowing awkwardness detection device 460 may transmit the output of the throat microphone 461 (audio data or waveform signal), the image captured by the camera of the terminal device 462, etc. to the second terminal device 300. The second user may input settings to determine whether each determination is on or off based on the transmitted information. In this way, the second user's tacit knowledge regarding which determination should be performed can be appropriately utilized in the swallowing awkwardness detection device 460.
また嚥下ムセ検出装置460で使用される暗黙知はこれに限定されない。例えば、嚥下ムセ検出装置460は、嚥下時間、ムセの頻度、カメラによる画像認識の結果に基づいて、介助者による介入の要否を判定してもよい。その際、どの程度の異常が検出された場合に介入が必要になるかの基準は、熟練者の暗黙知となり得る。よって嚥下ムセ検出装置460は、第2ユーザから介入基準に関する設定入力を受け付け、嚥下ムセ検出装置460は当該設定入力に基づいて介入基準を決定してもよい。 Further, the tacit knowledge used in the swallowing choking detection device 460 is not limited to this. For example, the swallowing awkwardness detection device 460 may determine whether or not intervention by an assistant is necessary based on the swallowing time, the frequency of the awkwardness, and the result of image recognition by a camera. In this case, the standard for how much abnormality is detected to require intervention may be the tacit knowledge of the expert. Therefore, the swallowing awkwardness detection device 460 may receive a setting input regarding the intervention criteria from the second user, and the swallowing awkwardness detection device 460 may determine the intervention criteria based on the setting input.
また本実施形態の第1端末装置200では、ポジショニングアプリケーションAP1以外の介助に関するアプリケーションが動作してもよい。例えば、第1端末装置200は、食事介助をサポートするための食事アプリケーションが動作してもよいし、認知症による不穏行動の有無を判定するための不穏アプリケーションが動作してもよいし、これ以外の介助用アプリケーションが動作してもよい。そして、これらのアプリケーションにおける判定において、第2ユーザの暗黙知に基づく設定入力が行われてもよい。 Further, in the first terminal device 200 of this embodiment, an application related to assistance other than the positioning application AP1 may be operated. For example, the first terminal device 200 may operate a meal application to support meal assistance, may operate a restlessness application to determine the presence or absence of restless behavior due to dementia, or may operate other than this. An assistance application may also operate. In the determination in these applications, settings may be input based on the second user's tacit knowledge.
例えば本実施形態の手法は、介助における処理を行うアプリケーションを記憶し、当該アプリケーションに従って動作する第1端末装置200と、第1端末装置200を用いる第1ユーザに関する介助をサポートする第2ユーザによって使用される第2端末装置300を含む情報処理システム10に適用されてもよい。第1端末装置200は、介助における人及び物の少なくとも一方に関するセンシング結果を、ネットワークを介して第2端末装置300に送信する。ここでのセンシング結果は、第1端末装置200に含まれるセンサの出力であってもよいし、センシングデバイス400の出力であってもよい。第2端末装置300は、センシング結果を第2ユーザへ提示し、第2ユーザによるアプリケーションの設定入力を受け付ける。ここでの設定入力は、アプリケーションの動作を決定するパラメータであり、例えば第2ユーザが考える適切な判断結果(食事アプリケーションであれば食事介助における適切な介助行動等、不穏アプリケーションであれば不穏行動に関する第2ユーザの判定結果等)を表す情報である。第1端末装置200は、設定入力に対応するアプリケーションに従って動作する。このようにすれば、ポジショニングアプリケーションAP1以外のアプリケーションを対象とする場合にも、第2ユーザによる遠隔設定を行うことで、当該第2ユーザの暗黙知を適切に利用することが可能になる。 For example, the method of the present embodiment is used by a first terminal device 200 that stores an application that performs processing in assistance and operates according to the application, and a second user who uses the first terminal device 200 to support assistance for the first user. The present invention may also be applied to an information processing system 10 including a second terminal device 300 that is configured to operate. The first terminal device 200 transmits sensing results regarding at least one of a person and an object during assistance to the second terminal device 300 via the network. The sensing result here may be the output of a sensor included in the first terminal device 200 or the output of the sensing device 400. The second terminal device 300 presents the sensing results to the second user and receives application setting input from the second user. The setting input here is a parameter that determines the operation of the application, and for example, the second user's appropriate judgment result (for a meal application, appropriate assistance behavior in meal assistance, etc., for an anxiety application, regarding restlessness behavior, etc.) This information represents the second user's determination result, etc.). The first terminal device 200 operates according to the application corresponding to the setting input. In this way, even when an application other than the positioning application AP1 is targeted, the tacit knowledge of the second user can be appropriately utilized by performing remote settings by the second user.
なお、上記のように本実施形態について詳細に説明したが、本実施形態の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本開示の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また本実施形態及び変形例の全ての組み合わせも、本開示の範囲に含まれる。また情報処理システム、サーバシステム、第1端末装置、第2端末装置、センシングデバイスの構成及び動作等も、本実施形態で説明したものに限定されず、種々の変形実施が可能である。 Although this embodiment has been described in detail as above, those skilled in the art will easily understand that many modifications can be made without substantively departing from the novelty and effects of this embodiment. . Therefore, all such modifications are intended to be included within the scope of the present disclosure. For example, a term that appears at least once in the specification or drawings together with a different term with a broader or synonymous meaning may be replaced by that different term anywhere in the specification or drawings. Furthermore, all combinations of this embodiment and modifications are also included within the scope of the present disclosure. Further, the configurations and operations of the information processing system, server system, first terminal device, second terminal device, sensing device, etc. are not limited to those described in this embodiment, and various modifications are possible.
10…情報処理システム、100…サーバシステム、110…処理部、120…記憶部、130…通信部、200…第1端末装置、200-1,200-2…端末装置(第1端末装置)、210…処理部、220…記憶部、230…通信部、240…表示部、250…操作部、260…撮像部、300…第2端末装置、310…処理部、320…記憶部、330…通信部、340…表示部、350…操作部、360…撮像部、400…センシングデバイス、420…ベッドサイドセンサ、430…検出装置、440…座面センサ、441…クッション、442…制御ボックス、460…嚥下ムセ検出装置、461…スロートマイク、462…端末装置、610…ベッド、620…マットレス、630…車椅子、AP1…ポジショニングアプリケーション、DP…ディスプレイ、NW…ネットワーク、OB1~OB12,EM…オブジェクト、RE1~RE7…領域、Se1~Se4…圧力センサ、S…図形、PO1~PO2…ポインター 10... Information processing system, 100... Server system, 110... Processing unit, 120... Storage unit, 130... Communication unit, 200... First terminal device, 200-1, 200-2... Terminal device (first terminal device), 210... Processing section, 220... Storage section, 230... Communication section, 240... Display section, 250... Operation section, 260... Imaging section, 300... Second terminal device, 310... Processing section, 320... Storage section, 330... Communication Part, 340...Display unit, 350...Operation unit, 360...Imaging unit, 400...Sensing device, 420...Bedside sensor, 430...Detection device, 440...Seat surface sensor, 441...Cushion, 442...Control box, 460... Swallowing discomfort detection device, 461...Throat microphone, 462...Terminal device, 610...Bed, 620...Mattress, 630...Wheelchair, AP1...Positioning application, DP...Display, NW...Network, OB1 to OB12, EM...Object, RE1 to RE7...Region, Se1-Se4...Pressure sensor, S...Graphic, PO1-PO2...Pointer
Claims (11)
前記第1端末装置を用いる第1ユーザに関する前記介助をサポートする第2ユーザによって使用される第2端末装置と、
を含み、
前記第1端末装置は、
前記介助における前記人及び前記物の少なくとも一方に関するセンシング結果を、ネットワークを介して前記第2端末装置に送信し、
前記第2端末装置は、
前記センシング結果を第2ユーザへ提示し、前記第2ユーザによる前記教師データの設定入力を受け付け、
前記第1端末装置は、
前記設定入力によって作成された前記教師データに対応する前記ポジショニングアプリケーションに従って動作する情報処理システム。 A first terminal device that stores a positioning application that performs processing based on teacher data representing a correct position of at least one of a person and an object in assistance, and operates according to the positioning application;
a second terminal device used by a second user supporting the assistance for the first user using the first terminal device;
including;
The first terminal device is
transmitting a sensing result regarding at least one of the person and the object in the assistance to the second terminal device via a network;
The second terminal device is
Presenting the sensing results to a second user and accepting input of setting of the teacher data by the second user;
The first terminal device is
An information processing system that operates according to the positioning application corresponding to the teacher data created by the setting input.
前記第2端末装置は、
前記センシング結果を出力するセンシングデバイスと、前記第1端末装置との接続に用いられる接続情報を、前記ネットワークを介して前記第1端末装置に出力する情報処理システム。 In claim 1,
The second terminal device is
An information processing system that outputs connection information used for connection between a sensing device that outputs the sensing result and the first terminal device to the first terminal device via the network.
前記第1端末装置は、
前記ポジショニングアプリケーションの設定期間において、前記第1端末装置の前記第1ユーザを撮像した第1撮像画像を前記第2端末装置に送信し、
前記第2端末装置は、
前記設定期間において、前記第2端末装置の前記第2ユーザを撮像した第2撮像画像を前記第1端末装置に送信する情報処理システム。 In claim 1,
The first terminal device is
During the setting period of the positioning application, transmitting a first captured image of the first user of the first terminal device to the second terminal device;
The second terminal device is
An information processing system that transmits a second captured image of the second user of the second terminal device to the first terminal device during the set period.
前記第1端末装置は、
前記第2撮像画像をログデータとして記憶し、前記ポジショニングアプリケーションの利用期間において前記第2撮像画像を表示する情報処理システム。 In claim 3,
The first terminal device is
An information processing system that stores the second captured image as log data and displays the second captured image during a usage period of the positioning application.
前記第1撮像画像に基づいて、前記第1端末装置の前記第1ユーザの感情分析が行われ、
前記第2端末装置は、
前記第1端末装置から送信された前記第1撮像画像と、前記感情分析の結果を関連付けて表示する情報処理システム。 In claim 3 or 4,
An emotional analysis of the first user of the first terminal device is performed based on the first captured image,
The second terminal device is
An information processing system that associates and displays the first captured image transmitted from the first terminal device and the result of the emotion analysis.
前記第2ユーザが複数である場合に、前記感情分析の結果に基づいて、それぞれの前記第2ユーザについて、前記第1ユーザからの信頼度が判定され、
前記教師データの前記設定入力において、前記信頼度が高い前記第2ユーザが、前記信頼度が低い前記第2ユーザに比べて優先される情報処理システム。 In claim 5,
When there is a plurality of second users, the reliability from the first user is determined for each second user based on the result of the sentiment analysis,
In the information processing system, in the setting input of the teacher data, the second user with the higher reliability is given priority over the second user with the lower reliability.
前記第2ユーザが複数である場合に、前記感情分析の結果に基づいて、それぞれの前記第2ユーザについて、前記第1ユーザからの信頼度が判定され、
前記信頼度が高い前記第2ユーザによって設定された前記教師データに対応する前記ポジショニングアプリケーションは、前記信頼度が低い前記第2ユーザによって設定された前記教師データに対応する前記ポジショニングアプリケーションに比べて、優先的に使用される情報処理システム。 In claim 5,
When there is a plurality of second users, the reliability from the first user is determined for each second user based on the result of the sentiment analysis,
The positioning application corresponding to the teacher data set by the second user with a high reliability is compared to the positioning application corresponding to the teacher data set by the second user with a low reliability. An information processing system that is used preferentially.
前記感情分析の結果に基づいて、前記第1ユーザである被介助者からの前記第2ユーザの信頼度が所定閾値以下と判定された場合、
前記第1端末装置及び前記第2端末装置の少なくとも一方は、
前記第1端末装置と前記第2端末装置の通信の際に、前記被介助者の家族、又は、信頼度が相対的に高い前記第2ユーザの参加を促す情報を提示する情報処理システム。 In claim 5,
Based on the result of the emotion analysis, when it is determined that the reliability of the second user from the person being assisted who is the first user is less than or equal to a predetermined threshold;
At least one of the first terminal device and the second terminal device,
An information processing system that presents information that encourages the participation of a family member of the person being assisted or the second user who has a relatively high degree of reliability during communication between the first terminal device and the second terminal device.
前記第1端末装置は、
複数の前記教師データに対応する処理を実行し、
前記第2端末装置は、
前記第2ユーザによる操作であって、複数の前記教師データから、利用対象となる前記教師データを選択する選択操作を受け付ける情報処理システム。 In any one of claims 1 to 4,
The first terminal device is
Execute processing corresponding to a plurality of the teacher data,
The second terminal device is
An information processing system that accepts a selection operation by the second user to select the teacher data to be used from a plurality of the teacher data.
前記第1端末装置は、
前記ポジショニングアプリケーションの処理負荷、及び、前記センシング結果の通信負荷と、前記第1端末装置の処理能力を比較し、比較結果に基づいて前記第1端末装置の動作モードを切り替える情報処理システム。 In any one of claims 1 to 4,
The first terminal device is
An information processing system that compares a processing load of the positioning application, a communication load of the sensing result, and a processing capacity of the first terminal device, and switches an operation mode of the first terminal device based on the comparison result.
前記介助における前記人及び前記物の少なくとも一方に関するセンシング結果を、ネットワークを介して前記第1端末装置から前記第2端末装置に送信し、
前記第2端末装置において、前記センシング結果を第2ユーザへ提示し、前記第2ユーザによる前記教師データの設定入力を受け付け、
前記設定入力によって作成された前記教師データに対応する前記ポジショニングアプリケーションに従って、前記第1端末装置を動作させる、
情報処理方法。 A first terminal device that stores a positioning application that performs processing based on teacher data representing a correct position of at least one of a person and an object in assistance, and operates according to the positioning application, and a first user who uses the first terminal device. An information processing method in an information processing system including a second terminal device used by a second user who supports assistance,
transmitting a sensing result regarding at least one of the person and the object in the assistance from the first terminal device to the second terminal device via a network;
In the second terminal device, presenting the sensing result to a second user and accepting a setting input of the teacher data by the second user;
operating the first terminal device according to the positioning application corresponding to the teacher data created by the setting input;
Information processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022123933A JP2024021234A (en) | 2022-08-03 | 2022-08-03 | Information processing system and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022123933A JP2024021234A (en) | 2022-08-03 | 2022-08-03 | Information processing system and information processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024021234A true JP2024021234A (en) | 2024-02-16 |
Family
ID=89855217
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022123933A Pending JP2024021234A (en) | 2022-08-03 | 2022-08-03 | Information processing system and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024021234A (en) |
-
2022
- 2022-08-03 JP JP2022123933A patent/JP2024021234A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9600934B2 (en) | Augmented-reality range-of-motion therapy system and method of operation thereof | |
CN111656304B (en) | Communication method and system | |
Carrillo et al. | Everyday technologies for Alzheimer's disease care: Research findings, directions, and challenges | |
US10229491B1 (en) | Medical environment monitoring system | |
CN111212220A (en) | Recording medium storing image processing program and image processing apparatus | |
JP6990040B2 (en) | Bed system | |
US10229489B1 (en) | Medical environment monitoring system | |
JP2024021234A (en) | Information processing system and information processing method | |
Bedaf et al. | Robots supporting care for elderly people | |
WO2022185558A1 (en) | Information processing device and information processing method | |
JP6738715B2 (en) | Terminal device, information providing method, and computer program | |
WO2018097133A1 (en) | Terminal device, information providing system and computer program | |
JP2022116277A (en) | Terminal device, output method, and computer program | |
JP2023161202A (en) | Information processing system, information processing apparatus, and information processing method | |
WO2023105835A1 (en) | Information processing device and information processing method | |
JP2020177383A (en) | Watching system for elderly person or the like | |
WO2023210035A1 (en) | Information processing system, information processing device, and information processing method | |
JP2024020035A (en) | Information processing system and information processing method | |
JP7467392B2 (en) | Information providing device, worker terminal and computer program | |
US20230123333A1 (en) | Devices, systems, and methods for providing remote support to a user of care components | |
US20240127946A1 (en) | Information processing device and information processing method | |
JP2023172460A (en) | Information processing device, and information processing method | |
JP2018082843A (en) | Information provision system, information providing method and computer program | |
JP2023107007A (en) | nurse call system | |
JP2024110164A (en) | Terminal device and control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20241009 |