JP6683974B2 - Coaching support device and program - Google Patents

Coaching support device and program Download PDF

Info

Publication number
JP6683974B2
JP6683974B2 JP2018078887A JP2018078887A JP6683974B2 JP 6683974 B2 JP6683974 B2 JP 6683974B2 JP 2018078887 A JP2018078887 A JP 2018078887A JP 2018078887 A JP2018078887 A JP 2018078887A JP 6683974 B2 JP6683974 B2 JP 6683974B2
Authority
JP
Japan
Prior art keywords
caregiver
support device
head
coaching
guidance information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018078887A
Other languages
Japanese (ja)
Other versions
JP2019185634A (en
Inventor
裕 坂根
裕 坂根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Exa Wizards Inc
Original Assignee
Exa Wizards Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exa Wizards Inc filed Critical Exa Wizards Inc
Priority to JP2018078887A priority Critical patent/JP6683974B2/en
Publication of JP2019185634A publication Critical patent/JP2019185634A/en
Application granted granted Critical
Publication of JP6683974B2 publication Critical patent/JP6683974B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)
  • Image Analysis (AREA)

Description

本発明は、コーチング支援装置及びプログラムに関する。   The present invention relates to a coaching support device and program.

従来、被介護者を介護する介護者を補助するための様々な技術が提案されている。例えば、特許文献1は、体位、温度等の患者特性を検知するセンサの信号に基づいて、当該患者に対して提案されるアクションを介護者に通知するシステムを開示している。   Conventionally, various techniques for assisting a caregiver who cares for a care receiver have been proposed. For example, Patent Document 1 discloses a system that notifies a caregiver of an action proposed for the patient based on a signal of a sensor that detects patient characteristics such as a body position and a temperature.

特開2018−8069号公報JP, 2018-8069, A

しかしながら、上述した従来のシステムは、提案されるアクションの通知によって介護者を補助することが可能となるものの、介護者自身のスキルを向上させることは難しい。そこで、介護者に対するコーチングを支援するための仕組みの実現が望まれる。   However, although the above-described conventional system can assist the caregiver by notifying the suggested action, it is difficult to improve the skill of the caregiver himself. Therefore, it is desired to realize a mechanism to support coaching for caregivers.

本発明の目的は、介護者に対するコーチングを支援する仕組みを提供することである。   An object of the present invention is to provide a mechanism that supports coaching for caregivers.

本発明の一態様は、
被介護者を介護する介護者に対するコーチングを支援するためのコーチング支援装置であって、
前記介護者が前記被介護者を介護する様子の撮影映像を解析する手段を備え、
前記撮影映像の解析結果に基づいて、前記介護者に対する指導情報を設定する手段を備える、
コーチング支援装置である。
One aspect of the present invention is
A coaching support device for supporting coaching for a caregiver who cares for a cared person,
A means for analyzing a photographed image of the caregiver caring for the cared person,
A means for setting guidance information for the caregiver based on an analysis result of the photographed image,
It is a coaching support device.

本発明によれば、介護者に対するコーチングを支援する仕組みを提供することができる。   According to the present invention, it is possible to provide a mechanism for supporting coaching for a caregiver.

本実施形態のコーチング支援システムの構成の一例を示す図である。It is a figure which shows an example of a structure of the coaching assistance system of this embodiment. 本実施形態のコーチング支援装置の構成を概略的に示す構成図である。It is a block diagram which shows schematically the structure of the coaching assistance apparatus of this embodiment. 本実施形態の概要の説明図である。It is an explanatory view of the outline of this embodiment. 本実施形態の撮影データ管理テーブルのデータ構造を示す図である。It is a figure which shows the data structure of the photography data management table of this embodiment. 本実施形態の指導情報参照テーブルのデータ構造を示す図である。It is a figure which shows the data structure of the guidance information reference table of this embodiment. 本実施形態の指導情報管理テーブルのデータ構造を示す図である。It is a figure which shows the data structure of the guidance information management table of this embodiment. 図2のコーチング支援装置の処理のフローチャートである。It is a flowchart of a process of the coaching assistance apparatus of FIG. ウェアラブルカメラによって撮影される第1撮影映像を例示する図である。It is a figure which illustrates the 1st photography video image | photographed with a wearable camera. 天井カメラによって撮影される第2撮影映像を例示する図である。It is a figure which illustrates the 2nd photography image picturized by a ceiling camera. 設定された指導情報を介護者が確認するための指導用画面を例示する図である。It is a figure which illustrates the guidance screen for a caregiver to confirm the guidance information set.

以下、図面を参照しながら、本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(1)コーチング支援システムの構成
本実施形態のコーチング支援システムの構成について説明する。図1は、本実施形態のコーチング支援システムの構成の一例を示す図である。
(1) Configuration of Coaching Support System The configuration of the coaching support system of this embodiment will be described. FIG. 1 is a diagram showing an example of the configuration of the coaching support system of this embodiment.

図1に示すように、本実施形態のコーチング支援システム1は、介護者30が被介護者32を介護する介護現場(例えば、病室)に配置される。
コーチング支援システム1は、コーチング支援装置10と、固定カメラ20と、ウェアラブルカメラ22と、ピンマイク24と、を備える。
As shown in FIG. 1, the coaching support system 1 of the present embodiment is arranged at a care site (for example, a hospital room) where a care giver 30 cares for a care receiver 32.
The coaching support system 1 includes a coaching support device 10, a fixed camera 20, a wearable camera 22, and a pin microphone 24.

固定カメラ20は、例えば、介護現場の天井に配置される。固定カメラ20は、介護者30が被介護者32を介護する様子を介護者30及び被介護者32の上方から撮影するように構成される。   The fixed camera 20 is arranged, for example, on the ceiling of a nursing care site. The fixed camera 20 is configured to take an image of the caregiver 30 caring for the care receiver 32 from above the caregiver 30 and the care receiver 32.

ウェアラブルカメラ22は、介護者30によって装着される。ウェアラブルカメラ22は、介護者30の視界に対応する映像を撮影するように構成される。ウェアラブルカメラ22は、例えば、メガネ型カメラである。   The wearable camera 22 is worn by the caregiver 30. The wearable camera 22 is configured to capture an image corresponding to the field of view of the caregiver 30. The wearable camera 22 is, for example, a glasses-type camera.

ピンマイク24は、介護者30によって装着される。図1の例では、介護者30の胸元に取り付けられる。ピンマイク24は、介護現場における音声を録音するように構成される。   The pin microphone 24 is worn by the caregiver 30. In the example of FIG. 1, it is attached to the chest of the caregiver 30. The pin microphone 24 is configured to record a voice at a care site.

コーチング支援装置10は、介護現場に配置されてもよいし、介護現場の外部に配置されてもよい。   The coaching support device 10 may be arranged at the care site or outside the care site.

(1−1)コーチング支援装置の構成
本実施形態のコーチング支援装置10の構成について説明する。図2は、本実施形態のコーチング支援装置の構成を概略的に示す構成図である。
(1-1) Configuration of Coaching Support Device The configuration of the coaching support device 10 of this embodiment will be described. FIG. 2 is a configuration diagram schematically showing the configuration of the coaching assistance device of this embodiment.

コーチング支援装置10は、介護者30に対するコーチングを支援するための機能を有する。
図2に示すように、コーチング支援装置10は、プロセッサ11と、メモリ12と、入出力インタフェース(以下「入出力I/F」という)13と、通信インタフェース(以下「通信I/F」という)14と、ストレージ15と、を備える。
The coaching support device 10 has a function of supporting coaching for the caregiver 30.
As shown in FIG. 2, the coaching support device 10 includes a processor 11, a memory 12, an input / output interface (hereinafter referred to as “input / output I / F”) 13, and a communication interface (hereinafter referred to as “communication I / F”). 14 and a storage 15.

プロセッサ11は、ストレージ15に記憶されているプログラムをメモリ12に読み込んで、当該プログラムに含まれる命令を実行するように構成される。
プロセッサ11は、例えば、CPU(Central Processing Unit)及びGPU(Graphical Processing Unit)の少なくとも1つである。
The processor 11 is configured to read the program stored in the storage 15 into the memory 12 and execute the instructions included in the program.
The processor 11 is, for example, at least one of a CPU (Central Processing Unit) and a GPU (Graphical Processing Unit).

メモリ12は、データやプログラムを一時的に記憶するように構成される。
メモリ12は、例えば、DRAM(Dynamic Random Access Memory)である。
The memory 12 is configured to temporarily store data and programs.
The memory 12 is, for example, a DRAM (Dynamic Random Access Memory).

入出力I/F13は、ユーザとの間で情報のやり取りを行うように構成される。
入出力I/F13は、例えば、以下の少なくとも1つを含む。
・情報入力装置(一例として、キーボード、マウス、及び、タッチパネル)
・音声入力装置(一例として、マイクロフォン)
・画像入力装置(一例として、カメラ)
・画像出力装置(一例として、ディスプレイ)
・音声出力装置(一例として、スピーカ)
The input / output I / F 13 is configured to exchange information with the user.
The input / output I / F 13 includes, for example, at least one of the following.
Information input device (keyboard, mouse and touch panel as an example)
・ Voice input device (microphone as an example)
Image input device (camera as an example)
Image output device (display, for example)
・ Audio output device (speaker as an example)

通信I/F14は、有線又は無線の通信を制御するように構成される。
通信I/F14は、例えば、以下の少なくとも1つである。
・ハードウェア(一例として、ネットワークアダプタ)
・各種の通信用ソフトウェア
The communication I / F 14 is configured to control wired or wireless communication.
The communication I / F 14 is, for example, at least one of the following.
Hardware (network adapter as an example)
・ Various communication software

ストレージ15は、様々な情報(例えば、データやプログラム)を記憶するように構成される。例えば、図1に示すように、介護者30が被介護者32を介護する様子の撮影データに関する情報を管理するための撮影データ管理テーブル151(図4)と、撮影データの解析結果から指導情報を設定するために参照される指導情報参照テーブル152(図5)と、撮影データの解析結果に基づいて設定された指導情報を管理するための指導情報管理テーブル153(図6)と、を有する。
ストレージ15は、例えば、以下の少なくとも1つを含む。
・磁気ディスク
・フラッシュメモリ
The storage 15 is configured to store various information (for example, data and programs). For example, as shown in FIG. 1, a shooting data management table 151 (FIG. 4) for managing information on shooting data of how the caregiver 30 cares for the care receiver 32, and guidance information based on the analysis result of the shooting data. A guidance information reference table 152 (FIG. 5) that is referred to for setting the guidance information, and a guidance information management table 153 (FIG. 6) for managing the guidance information that is set based on the analysis result of the photographing data. .
The storage 15 includes, for example, at least one of the following.
・ Magnetic disk ・ Flash memory

(2)実施形態の概要
本実施形態の概要について説明する。図3は、本実施形態の概要の説明図である。
(2) Outline of Embodiment An outline of this embodiment will be described. FIG. 3 is an explanatory diagram of the outline of the present embodiment.

図3に示すように、介護者30が被介護者32を介護する様子は、画像入力装置によって撮影される。これにより、介護の様子の撮影映像が得られる。   As shown in FIG. 3, the image of the caregiver 30 caring for the care receiver 32 is captured by the image input device. As a result, a photographed image of nursing care can be obtained.

コーチング支援装置10は、撮影映像を解析する。
コーチング支援装置10は、撮影映像の解析結果に基づいて、介護者30に対する指導情報を設定し、ストレージ15に記憶する。指導情報は、介護に関するアドバイスに関する情報を含む。
つまり、ストレージ15には、介護者30が被介護者32を介護する様子の撮影映像の解析結果に基づく指導情報が自動的に記憶される。
The coaching support device 10 analyzes the captured video.
The coaching support device 10 sets guidance information for the caregiver 30 based on the analysis result of the captured video and stores it in the storage 15. The guidance information includes information on advice regarding caregiving.
That is, the storage 15 automatically stores the guidance information based on the analysis result of the captured image of the caregiver 30 caring for the care receiver 32.

本実施形態によれば、実際の介護の様子に基づく介護者30に対するコーチングを容易に実現することができる。   According to the present embodiment, coaching for the caregiver 30 based on the actual state of care can be easily realized.

(3)データ構造
本実施形態のデータ構造について説明する。各データテーブルは、ストレージ15に記憶される。
(3) Data Structure The data structure of this embodiment will be described. Each data table is stored in the storage 15.

(3−1)撮影データ管理テーブル
本実施形態の撮影データ管理テーブル151のデータ構造について説明する。図4は、本実施形態の撮影データ管理テーブルのデータ構造を示す図である。
(3-1) Shooting Data Management Table The data structure of the shooting data management table 151 of this embodiment will be described. FIG. 4 is a diagram showing the data structure of the shooting data management table of this embodiment.

図4の撮影データ管理テーブル151は、「撮影ID」フィールドと、「ウェアラブルカメラ撮影映像ファイル」フィールドと、「固定カメラ撮影映像ファイル」フィールドと、「ピンマイク録音音声ファイル」フィールドと、を含む。各フィールドは、互いに関連付けられる。   The shooting data management table 151 of FIG. 4 includes a “shooting ID” field, a “wearable camera shooting video file” field, a “fixed camera shooting video file” field, and a “pin microphone recording audio file” field. Each field is associated with each other.

「撮影ID」フィールドには、個別の撮影を識別する撮影IDが格納される。   In the “shooting ID” field, a shooting ID for identifying individual shooting is stored.

「ウェアラブルカメラ撮影映像ファイル」フィールドには、ウェアラブルカメラ22によって撮影された第1撮影映像40のファイルが格納される。   The file of the first captured image 40 captured by the wearable camera 22 is stored in the “wearable camera captured image file” field.

「固定カメラ撮影映像ファイル」フィールドには、固定カメラ20によって撮影された第2撮影映像50のファイルが格納される。   The file of the second captured image 50 captured by the fixed camera 20 is stored in the “fixed camera captured image file” field.

「ピンマイク録音音声ファイル」フィールドには、ピンマイク24によって録音された録音音声のファイルが格納される。   The “pin microphone recorded voice file” field stores a file of recorded voice recorded by the pin microphone 24.

(3−2)指導情報参照テーブル
本実施形態の指導情報参照テーブル152のデータ構造について説明する。図5は、本実施形態の指導情報参照テーブルのデータ構造を示す図である。
(3-2) Guidance Information Reference Table The data structure of the guidance information reference table 152 of this embodiment will be described. FIG. 5 is a diagram showing a data structure of the guidance information reference table of this embodiment.

図5の撮影データ管理テーブル151は、「解析結果」フィールドと、「指導情報」フィールドと、を含む。各フィールドは、互いに関連付けられる。   The shooting data management table 151 of FIG. 5 includes an “analysis result” field and a “teaching information” field. Each field is associated with each other.

「解析結果」フィールドには、第1撮影映像40及び第2撮影映像50に対する画像解析の結果に関する情報が格納される。   The “analysis result” field stores information about the result of image analysis of the first captured video 40 and the second captured video 50.

「指導情報」フィールドには、第1撮影映像40及び第2撮影映像50に対する画像解析の結果に対応する指導情報が格納される。   The “guidance information” field stores guidance information corresponding to the result of image analysis of the first captured video 40 and the second captured video 50.

例えば、解析結果「アイコンタクトなし」には、「会話時はアイコンタクトしましょう。」という指導情報が関連付けられている。
解析結果「アイコンタクトあり、且つ、頭部間距離が20cm超え」には、「アイコンタクトは20cm以内で。」という指導情報が関連付けられている。
撮影映像の解析結果「アイコンタクトあり、且つ、頭部間距離20cm以内」には、「素晴らしい!」という指導情報が関連付けられている。
For example, the analysis result “no eye contact” is associated with instruction information “Let's make eye contact during conversation.”
The analysis result “with eye contact and distance between heads exceeding 20 cm” is associated with instruction information “with eye contact within 20 cm”.
The instructional information of "excellent!" Is associated with the analysis result "there is eye contact and the head distance is within 20 cm" of the captured image.

解析結果「アイコンタクトなし」は、介護者発話が検出されたときの第1撮影映像40において、介護者30と被介護者32との間のアイコンタクトが検出されなかった場合に対応する。
解析結果「アイコンタクトあり」は、第1撮影映像40においてアイコンタクトが検出された場合に対応する。
解析結果「20cm以内」は、第2撮影映像50から判定された頭部間距離が20cm以内である場合に対応する。
The analysis result “no eye contact” corresponds to a case where no eye contact between the caregiver 30 and the care receiver 32 is detected in the first captured image 40 when the caregiver utterance is detected.
The analysis result “with eye contact” corresponds to the case where eye contact is detected in the first captured image 40.
The analysis result “within 20 cm” corresponds to the case where the head-to-head distance determined from the second captured image 50 is within 20 cm.

(3−3)指導情報管理テーブル
本実施形態の指導情報管理テーブルのデータ構造について説明する。図6は、本実施形態の指導情報管理テーブルのデータ構造を示す図である。
(3-3) Guidance Information Management Table The data structure of the guidance information management table of this embodiment will be described. FIG. 6 is a diagram showing the data structure of the guidance information management table of this embodiment.

図6の指導情報管理テーブル153は、「撮影ID」フィールドと、「再生タイミング」フィールドと、「指導情報」フィールドと、を含む。各フィールドは、互いに関連付けられる。   The guidance information management table 153 of FIG. 6 includes a “shooting ID” field, a “playback timing” field, and a “teaching information” field. Each field is associated with each other.

「撮影ID」フィールドには、撮影IDが格納される。   A shooting ID is stored in the “shooting ID” field.

「再生タイミング」フィールドには、撮影映像(第1撮影映像40及び第2撮影映像50)を構成する各画像フレームの再生タイミングに関する情報(例えば、再生タイミング(一例として、時間、分、及び、秒)に関する情報、及び、各画像フレームに対して時系列に沿って割り当てられるフレーム番号の少なくとも1つ)が格納される。   In the “playback timing” field, information (eg, playback timing (as an example, hours, minutes, and seconds ), And at least one of the frame numbers assigned in time series to each image frame).

「指導情報」フィールドには、指導情報が格納される。   Guidance information is stored in the “guidance information” field.

(4)コーチング支援装置の処理
本実施形態のコーチング支援装置10の処理について説明する。図7は、図2のコーチング支援装置の処理のフローチャートである。図8は、ウェアラブルカメラによって撮影される第1撮影映像を例示する図である。図9は、天井カメラによって撮影される第2撮影映像を例示する図である。図10は、設定された指導情報を介護者が確認するための指導用画面を例示する図である。
(4) Process of Coaching Support Device The process of the coaching support device 10 of this embodiment will be described. FIG. 7 is a flowchart of the process of the coaching support device of FIG. FIG. 8 is a diagram illustrating a first captured image captured by the wearable camera. FIG. 9 is a diagram illustrating a second captured image captured by the ceiling camera. FIG. 10: is a figure which illustrates the guidance screen for a caregiver to confirm the guidance information set.

図7の処理は、介護現場の撮影が完了し、且つ、撮影映像及び録音音声が準備された後、コーチング支援装置10のオペレータ(例えば、管理者)による指示に応じて実行される。   The process of FIG. 7 is executed in response to an instruction from an operator (for example, an administrator) of the coaching support device 10 after the shooting at the care site is completed and the shot video and the recorded sound are prepared.

図7に示すように、コーチング支援装置10は、撮影現場の録音音声の解析(ST100)を実行する。
具体的には、プロセッサ11は、ピンマイク24によって取得された録音音声のファイルを、撮影IDと、ピンマイク録音音声ファイルと、に関連付けて撮影データ管理テーブル151(図4)に格納する。
プロセッサ11は、録音音声を解析するための学習済みモデル(以下「音声解析モデル」という)を用いて、ピンマイク24によって取得された録音音声を解析することにより、介護者発話(例えば、例えば、介護における特定の作業を開始するときのセリフを含む発話)を検出する。
学習済みモデルは、多量の介護現場の録音音声を訓練データとして用いた機械学習によって構築される。録音音声解析モデルの入力は、録音音声である。録音音声解析モデルの出力は、介護者発話を検出するための情報である。
As shown in FIG. 7, the coaching support device 10 executes the analysis (ST100) of the recorded voice at the shooting site.
Specifically, the processor 11 stores the recording voice file acquired by the pin microphone 24 in the photographing data management table 151 (FIG. 4) in association with the photographing ID and the pin microphone recording voice file.
The processor 11 analyzes a recorded voice acquired by the pin microphone 24 by using a learned model (hereinafter referred to as a “voice analysis model”) for analyzing a recorded voice, so that a caregiver's utterance (for example, care Utterances including dialogue when starting a specific work in).
The learned model is constructed by machine learning using a large amount of recorded voices at a nursing care site as training data. The input of the recorded voice analysis model is the recorded voice. The output of the recorded voice analysis model is information for detecting a caregiver utterance.

プロセッサ11は、介護者発話が検出されたときの録音音声の再生タイミングを特定する。
録音音声の解析は、介護者30による所定の発話(以下「介護者発話」という)が検出されるまでの間、繰り返し行われる(ST110においてNO)。
The processor 11 specifies the reproduction timing of the recorded voice when the caregiver utterance is detected.
The analysis of the recorded voice is repeated until a predetermined utterance by the caregiver 30 (hereinafter referred to as “caregiver utterance”) is detected (NO in ST110).

介護者発話が検出されると(ST110においてYES)、コーチング支援装置10は、撮影映像の解析(ST120)を実行する。   When the caregiver utterance is detected (YES in ST110), coaching assistance device 10 executes an analysis of the captured image (ST120).

プロセッサ11は、ウェアラブルカメラ22によって取得された第1撮影映像40のファイルを撮影データ管理テーブル151(図4)に格納する。第1撮影映像40のファイルは、ステップST100において録音音声に関連付けられた撮影IDが関連付けられる。
図8に示すように、第1撮影映像40は、典型的には、被介護者32の顔を含む。
The processor 11 stores the file of the first captured image 40 acquired by the wearable camera 22 in the captured data management table 151 (FIG. 4). The file of the first captured image 40 is associated with the captured ID associated with the sound recording in step ST100.
As shown in FIG. 8, the first captured image 40 typically includes the face of the cared person 32.

プロセッサ11は、第1撮影映像40を解析するための学習済みモデル(以下「第1画像解析モデル」という)を用いて、第1撮影映像40の各画像フレームから、アイコンタクトを検出する。第1画像解析モデルは、多量の介護現場の第1撮影映像40を訓練データとして用いた機械学習によって構築される。第1画像解析モデルの入力は、第1撮影映像40である。第1画像解析モデルの出力は、アイコンタクトの状況を検出するための情報である。   The processor 11 detects an eye contact from each image frame of the first captured image 40 by using a learned model (hereinafter referred to as “first image analysis model”) for analyzing the first captured image 40. The first image analysis model is constructed by machine learning using a large number of first captured images 40 of a nursing care site as training data. The input of the first image analysis model is the first captured image 40. The output of the first image analysis model is information for detecting the state of eye contact.

第1画像解析モデルは、例えば、被介護者32の顔の向きを推定するためのアルゴリズム(一例として、ResNet(Residual Network))を含む。
この場合、プロセッサ11は、以下の何れかを検出する。
・介護者30の顔と被介護者32の顔とが向き合っている(つまり、アイコンタクトが成立している)。
・介護者30の顔が被介護者32の顔の方を向いていない。
・被介護者32の顔が介護者30の顔の方を向いていない。
・介護者30顔の及び被介護者32顔が向き合っていない。
The first image analysis model includes, for example, an algorithm (for example, ResNet (Residual Network)) for estimating the face direction of the care receiver 32.
In this case, the processor 11 detects any of the following.
The face of the caregiver 30 and the face of the care receiver 32 face each other (that is, eye contact is established).
The caregiver 30 face is not facing the care recipient 32 face.
-The face of the cared person 32 does not face the face of the cared person 30.
-The face of the caregiver 30 and the face of the care receiver 32 are not facing each other.

プロセッサ11は、アイコンタクトが発生したときの第1撮影映像40の再生タイミングを特定する。   The processor 11 identifies the reproduction timing of the first captured image 40 when the eye contact occurs.

プロセッサ11は、固定カメラ20によって取得された第2撮影映像50のファイルを撮影データ管理テーブル151(図4)に格納する。第2撮影映像50のファイルは、ステップST100において録音音声に関連付けられた撮影IDが関連付けられる。   The processor 11 stores the file of the second captured image 50 acquired by the fixed camera 20 in the captured data management table 151 (FIG. 4). The file of the second captured image 50 is associated with the captured ID associated with the sound recording in step ST100.

図9に示すように、プロセッサ11は、第2撮影映像50を解析するための学習済みモデル(以下「第2画像解析モデル」という)を用いて、第2撮影映像50を構成する各画像フレームから、介護者30の頭頂部の領域52(例えば、頭頂部の特徴量を示す画素を囲う矩形形状の領域)と、被介護者32の顔の領域54(例えば、顔の特徴量を示す画素を囲う矩形形状の領域)と、を検出する。
プロセッサ11は、頭頂部の領域52と顔の領域54との位置関係に基づいて、介護者30の頭部と被介護者32の頭部との間の距離(以下「頭部間距離」という)を再生タイミング毎に判定する。
As shown in FIG. 9, the processor 11 uses the learned model for analyzing the second captured image 50 (hereinafter referred to as “second image analysis model”) to form each image frame forming the second captured image 50. From the above, the parietal region 52 of the caregiver 30 (for example, a rectangular region surrounding the pixel indicating the parietal feature amount) and the face region 54 of the care receiver 32 (for example, the pixel indicating the facial feature amount). And a rectangular area that surrounds).
The processor 11 determines the distance between the head of the care giver 30 and the head of the care receiver 32 (hereinafter referred to as “inter-head distance”) based on the positional relationship between the region 52 of the crown and the face region 54. ) Is determined for each reproduction timing.

第2画像解析モデルは、多量の介護現場の第2撮影映像50を訓練データとして用いた機械学習により構築される。
第2画像解析モデルは、例えば、以下のアルゴリズムを含む。
・介護者30と被介護者32とを分類するためのアルゴリズム(例えば、最近傍法の)
・頭頂部及び顔を検出するためのアルゴリズム(例えば、SSD(Single Shot MultiboxDetector))
・頭部間距離を判定するためのアルゴリズム(例えば、線形回帰アルゴリズム)
The second image analysis model is constructed by machine learning using a large number of second captured images 50 of a nursing care site as training data.
The second image analysis model includes, for example, the following algorithm.
An algorithm for classifying the caregiver 30 and the cared person 32 (for example, the nearest neighbor method)
-Algorithm for detecting top of head and face (for example, SSD (Single Shot MultiboxDetector))
-Algorithm for determining head-to-head distance (for example, linear regression algorithm)

ステップST120の後、コーチング支援装置10は、指導情報の設定(ST130)を実行する。   After step ST120, the coaching assistance device 10 sets instruction information (ST130).

プロセッサ11は、指導情報参照テーブル152(図5)を参照して、ステップST100及びST120の解析結果に対応する指導情報を決定する。
プロセッサ11は、指導情報管理テーブル153に新規レコードを追加する。
新規レコードの各フィールドには、以下の情報が格納される。
・「撮影ID」フィールドには、新規撮影IDが格納される。
・「再生タイミング」フィールドには、指導情報を決定するときに参照された画像フレームの再生タイミングが格納される。
・「指導情報」フィールドには、決定された指導情報が格納される。
The processor 11 refers to the guidance information reference table 152 (FIG. 5) to determine the guidance information corresponding to the analysis results of steps ST100 and ST120.
The processor 11 adds a new record to the guidance information management table 153.
The following information is stored in each field of the new record.
A new shooting ID is stored in the "shooting ID" field.
The "playback timing" field stores the playback timing of the image frame referred to when determining the guidance information.
The determined guidance information is stored in the "teaching information" field.

図7に示すように、こうした録音音声における介護者発話の検出に応じて、撮影映像を解析して指導情報を設定する処理(ST100〜ST120)が、録音音声が終了するまでの間、繰り返される(ST130においてNO)。   As shown in FIG. 7, the processing (ST100 to ST120) of analyzing a captured image and setting teaching information in response to the detection of a caregiver utterance in such recorded voice is repeated until the recorded voice ends. (NO in ST130).

図10に示すように、指導用画面60は、第1再生領域62と、第2再生領域64と、指導情報表示領域66と、を含む。
第1再生領域62は、第1撮影映像40を再生するための領域である。
第2再生領域64は、第2撮影映像50を再生するための領域である。
指導情報表示領域66は、指導情報を表示するための領域である。
As shown in FIG. 10, the guidance screen 60 includes a first reproduction area 62, a second reproduction area 64, and a guidance information display area 66.
The first reproduction area 62 is an area for reproducing the first captured image 40.
The second reproduction area 64 is an area for reproducing the second captured image 50.
The guidance information display area 66 is an area for displaying guidance information.

第1再生領域62及び第2再生領域64には、撮影データ管理テーブル151(図4)の「ウェアラブルカメラ撮影映像ファイル」フィールドに格納された第1撮影映像40と、「固定カメラ撮影映像ファイル」フィールドに格納された第2撮影映像50と、が再生タイミングを同期して再生される。
「ピンマイク録音音声ファイル」フィールドに格納された録音音声は、第1撮影映像40及び第2撮影映像50と再生タイミングを同期して再生される。
指導情報表示領域66には、指導情報管理テーブル153(図6)に格納された指導情報は、指導情報に関連付けられている再生タイミングに従って表示される。例えば、指導情報表示領域66に表示された指導情報は、関連付けられている再生タイミングから所定時間が経過すると消える。
介護者30は、指導用画面60を介して、自身が被介護者32を介護する様子を見ながら、コーチング支援装置10によって設定された指導情報を確認することができる。
In the first reproduction area 62 and the second reproduction area 64, the first captured video 40 stored in the “wearable camera captured video file” field of the captured data management table 151 (FIG. 4) and the “fixed camera captured video file”. The second captured image 50 stored in the field is reproduced in synchronization with the reproduction timing.
The recorded sound stored in the “pin microphone recorded sound file” field is reproduced in synchronization with the reproduction timing of the first captured video 40 and the second captured video 50.
In the guidance information display area 66, the guidance information stored in the guidance information management table 153 (FIG. 6) is displayed according to the reproduction timing associated with the guidance information. For example, the guidance information displayed in the guidance information display area 66 disappears when a predetermined time has elapsed from the associated reproduction timing.
The caregiver 30 can confirm the guidance information set by the coaching support device 10 while watching the caregiver 32 to care for himself / herself via the guidance screen 60.

以上説明した本実施形態に係るコーチング支援装置10は、介護者が被介護者を介護する様子の撮影映像及び録音音声の解析結果に基づいて介護者に対する指導情報を設定するから、実際の介護の様子に基づく介護者に対するコーチングを容易に実現することができる。   Since the coaching support device 10 according to the present embodiment described above sets the guidance information for the caregiver based on the analysis result of the captured video and the recorded sound of the caregiver caring for the caregiver, Coaching for a caregiver based on the situation can be easily realized.

(5)小括
本実施形態について小括する。
(5) Summary This embodiment will be summarized.

本実施形態の第1態様は、
被介護者32を介護する介護者30に対するコーチングを支援するためのコーチング支援装置10であって、
介護者30が被介護者32を介護する様子の撮影映像(例えば、第1撮影映像40及び第2撮影映像50の少なくとも1つ)を解析する手段(例えば、ステップST120を実行するプロセッサ11)を備え、
撮影映像の解析結果に基づいて、介護者30に対する指導情報を設定する手段(例えば、ステップST130を実行するプロセッサ11)を備える、
コーチング支援装置10である。
The first aspect of the present embodiment is
A coaching support device 10 for supporting coaching for a caregiver 30 who cares for a cared person 32,
A means (for example, the processor 11 that executes step ST120) that analyzes a captured video (for example, at least one of the first captured video 40 and the second captured video 50) of how the caregiver 30 cares for the care receiver 32. Prepare,
A means for setting guidance information for the caregiver 30 based on the analysis result of the photographed image (for example, the processor 11 executing step ST130),
The coaching support device 10.

第1態様によれば、介護者30が被介護者32を介護する様子の撮影映像の解析結果に基づいて介護者30に対する指導情報を自動的に設定する。これにより、実際の介護の様子に基づく介護者30に対するコーチングを容易に実現することができる。   According to the first aspect, the guidance information for the caregiver 30 is automatically set based on the analysis result of the captured image of the caregiver 30 caring for the care receiver 32. As a result, coaching for the caregiver 30 based on the actual state of care can be easily realized.

本実施形態の第2態様は、
解析する手段は、介護者30の視界に対応する第1撮影映像40に基づいて被介護者32と介護者30との間のアイコンタクトを検出し、介護者30が被介護者32を介護する様子を上方から撮影した第2撮影映像50に基づいて被介護者32の頭部と介護者30の頭部との間の頭部間距離を判定し、
設定する手段は、アイコンタクトを検出したときの頭部間距離に基づいて指導情報を設定する、
コーチング支援装置10である。
The second aspect of this embodiment is
The analyzing unit detects the eye contact between the care receiver 32 and the care giver 30 based on the first captured image 40 corresponding to the field of view of the care giver 30, and the care giver 30 cares for the care receiver 32. The head-to-head distance between the head of the care-receiver 32 and the head of the care-giver 30 is determined based on the second photographed image 50 obtained by photographing the situation from above,
The setting means sets the guidance information based on the head-to-head distance when eye contact is detected,
The coaching support device 10.

第2態様によれば、アイコンタクトを検出したときの頭部間距離に関する指導が可能になる。   According to the second aspect, it becomes possible to provide guidance regarding the head-to-head distance when eye contact is detected.

本実施形態の第3態様は、
解析する手段は、
第2撮影映像50に含まれる顔の領域及び頭頂部の領域を検出し、
顔の領域を被介護者32の頭部と判定し、
頭頂部の領域を介護者30の頭部と判定する、
コーチング支援装置10である。
The third aspect of the present embodiment is
The means of analysis is
Detecting a face area and a head area included in the second captured image 50,
The face area is determined to be the head of the care-receiver 32,
The area of the crown is determined to be the head of the caregiver 30,
The coaching support device 10.

第3態様によれば、被介護者32及び介護者30それぞれの頭部を簡易に検出することができる。   According to the third aspect, the heads of the cared person 32 and the carer 30 can be easily detected.

本実施形態の第4態様は、
解析する手段は、撮影映像に加えて、介護者30が被介護者32を介護する様子の録音音声を解析し、
設定する手段は、撮影映像の解析結果に加えて、録音音声の解析結果に基づいて指導情報を設定する、
コーチング支援装置である。
The fourth aspect of the present embodiment is
In addition to the captured video, the analyzing means analyzes the recorded sound of the caregiver 30 caring for the care receiver 32,
The setting means sets the teaching information based on the analysis result of the recorded sound in addition to the analysis result of the captured image.
It is a coaching support device.

第4態様によれば、介護者30の発話に基づく指導が可能になる。   According to the fourth aspect, it is possible to provide guidance based on the utterance of the caregiver 30.

本実施形態の第5態様は、
解析する手段は、録音音声に基づいて介護者30の所定の発話を検出すると共に、介護者30の視界に対応する第1撮影映像40に基づいて被介護者32と介護者30との間のアイコンタクトを検出し、
設定する手段は、介護者30の所定の発話を検出したときのアイコンタクトの検出結果に基づいて指導情報を設定する、
コーチング支援装置である。
The fifth aspect of the present embodiment is
The analyzing unit detects a predetermined utterance of the caregiver 30 based on the recorded voice, and detects between the caregiver 32 and the caregiver 30 based on the first captured image 40 corresponding to the field of view of the caregiver 30. Detect eye contact,
The setting means sets the instruction information based on the detection result of the eye contact when the predetermined utterance of the caregiver 30 is detected,
It is a coaching support device.

第5態様によれば、介護者30の所定の発話を検出したときのアイコンタクトに関する指導が可能になる。   According to the fifth aspect, it is possible to provide guidance regarding eye contact when a predetermined utterance of the caregiver 30 is detected.

本実施形態の第6態様は、
設定する手段は、指導情報を撮影映像における再生タイミングに関連付けて設定する、
コーチング支援装置10である。
The sixth aspect of the present embodiment is
The means for setting is to set the instruction information in association with the reproduction timing in the captured video,
The coaching support device 10.

第6態様によれば、介護者30は、撮影映像を再生しながら関連するシーンにおいて指導情報を確認することができる。   According to the sixth aspect, the caregiver 30 can confirm the guidance information in the related scene while reproducing the captured video.

本実施形態の第7態様は、
コンピュータ(例えば、プロセッサ11)を、上記の各手段として機能させるためのコーチング支援プログラムである。
A seventh aspect of the present embodiment is
A coaching support program for causing a computer (for example, the processor 11) to function as each of the above means.

(6)その他の実施形態
その他の実施形態について説明する。
(6) Other Embodiments Other embodiments will be described.

上述した実施形態では、録音音声において介護者による所定の発話が検出された場合に、アイコンタクトの有無、及び、頭部間距離に基づいて指導情報を設定するように構成したが、本実施形態はこれに限定されない。
こうしたルールベースの仕組みに代えて、指導情報自体の設定を、学習済みモデルを用いて実現することもできる。この場合、学習済みモデルは、例えば、人手によって適切な指導情報が設定された多量の撮影データ(撮影映像及び/又は録音音声)を訓練データとして用いた機械学習によって生成される。
In the above-described embodiment, when a predetermined utterance by the caregiver is detected in the recorded voice, the guidance information is set based on the presence / absence of eye contact and the head-to-head distance. Is not limited to this.
Instead of such a rule-based mechanism, setting of the guidance information itself can be realized by using a learned model. In this case, the learned model is generated by, for example, machine learning using a large amount of shooting data (shooting video and / or recorded voice) in which appropriate guidance information is manually set as training data.

上述した実施形態では、居室(病室等)の天井に設けられた固定カメラ20及び介護者が装着するウェアラブルカメラ22によって撮影される第2撮影映像50が用いられているが、本実施形態におけるカメラの設置態様はこれらに限定されない。
本実施形態は、例えば、固定カメラ20及びウェアラブルカメラ22の何れか一方の撮影映像のみが用いられる場合、又は、他の視野を有するように設置された他のカメラ(つまり、固定カメラ20及びウェアラブルカメラ22以外のカメラ)によって取得された撮影映像を用いる場合にも適用可能である。
In the above-described embodiment, the fixed camera 20 provided on the ceiling of the living room (hospital room, etc.) and the second captured image 50 captured by the wearable camera 22 worn by the caregiver are used. The installation mode of is not limited to these.
In the present embodiment, for example, when only one of the fixed camera 20 and the wearable camera 22 is used, or another camera installed to have another field of view (that is, the fixed camera 20 and the wearable camera) is used. It is also applicable when using a captured image acquired by a camera other than the camera 22).

上述した実施形態では、介護現場の撮影が完了し、撮影データが準備された後、当該撮影データの解析結果に基づいて指導情報を設定するようにしたが、本実施形態はこれに限定されない。
本実施形態は、介護現場の撮影データをリアルタイムで解析し、当該解析結果に基づく指導情報の設定もリアルタイムで行う場合にも適用可能である。
この場合、図1に示すように、コーチング支援装置10を介護現場に配置することが好ましい。これにより、介護者30は、コーチング支援装置10によって設定された指導情報を参照しながら、被介護者32を介護することができる。
In the above-described embodiment, after the imaging of the care site is completed and the imaging data is prepared, the guidance information is set based on the analysis result of the imaging data, but the present embodiment is not limited to this.
The present embodiment is also applicable to a case where imaging data of a nursing care site is analyzed in real time and guidance information is set based on the analysis result in real time.
In this case, as shown in FIG. 1, it is preferable to arrange the coaching support device 10 at the care site. Thereby, the caregiver 30 can care for the care receiver 32 while referring to the guidance information set by the coaching support device 10.

以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。   Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited to the above embodiments. Further, the above-described embodiment can be variously modified and changed without departing from the gist of the present invention. Further, the above-described embodiments and modified examples can be combined.

1 :コーチング支援システム
10 :コーチング支援装置
11 :プロセッサ
12 :メモリ
13 :入出力I/F
14 :通信I/F
15 :ストレージ
20 :固定カメラ
22 :ウェアラブルカメラ
24 :ピンマイク
1: Coaching support system 10: Coaching support device 11: Processor 12: Memory 13: Input / output I / F
14: Communication I / F
15: Storage 20: Fixed camera 22: Wearable camera 24: Pin microphone

Claims (6)

被介護者を介護する介護者に対するコーチングを支援するためのコーチング支援装置であって、
前記介護者が前記被介護者を介護する様子の撮影映像を解析する手段を備え、
前記撮影映像の解析結果に基づいて、前記介護者に対する指導情報を設定する手段を備え、
前記解析する手段は、
前記介護者の視界に対応する第1撮影映像に基づいて前記被介護者と前記介護者との間のアイコンタクトを検出し、
前記介護者が前記被介護者を介護する様子を上方から撮影した第2撮影映像に基づいて前記被介護者の頭部と前記介護者の頭部との間の頭部間距離を判定し、
前記設定する手段は、前記アイコンタクトを検出したときの前記頭部間距離に基づいて前記指導情報を設定する、
コーチング支援装置。
A coaching support device for supporting coaching for a caregiver who cares for a cared person,
A means for analyzing a photographed image of the caregiver caring for the cared person,
A means for setting guidance information for the caregiver based on an analysis result of the photographed image,
The means for analyzing is
Detecting eye contact between the cared person and the caregiver based on a first captured image corresponding to the field of view of the caregiver,
The head-to-head distance between the head of the cared person and the head of the cared person is determined based on a second video image of the cared person taking care of the cared person from above,
The setting means sets the teaching information based on the head-to-head distance when the eye contact is detected,
Coaching support device.
前記解析する手段は、
前記第2撮影映像に含まれる顔の領域及び頭頂部の領域を検出し、
前記顔の領域を前記被介護者の頭部と判定し、
前記頭頂部の領域を前記介護者の頭部と判定する、
請求項のコーチング支援装置。
The means for analyzing is
Detecting a face area and a crown area included in the second captured image,
The area of the face is determined to be the care recipient's head,
The area of the crown is determined to be the caregiver's head,
The coaching support device according to claim 1 .
前記解析する手段は、前記撮影映像に加えて、前記介護者が前記被介護者を介護する様子の録音音声を解析
前記設定する手段は、前記撮影映像の解析結果に加えて、前記録音音声の解析結果に基づいて前記指導情報を設定する、
請求項1又は2のコーチング支援装置。
Wherein the means for analysis, in addition to the captured image, to analyze the recording sound voice of a state in which the caregiver caring for the person cared for,
It said means for setting, in addition to the analysis result of the captured image, to set the guidance information based on the analysis results of the recorded speech,
The coaching support device according to claim 1 .
前記解析する手段は、前記録音音声に基づいて前記介護者の所定の発話を検出すると共に、前記介護者の視界に対応する第1撮影映像に基づいて前記被介護者と前記介護者との間のアイコンタクトを検出し、
前記設定する手段は、前記介護者の所定の発話を検出したときの前記アイコンタクトの検出結果に基づいて前記指導情報を設定する、
請求項のコーチング支援装置。
The analyzing unit detects a predetermined utterance of the caregiver based on the recorded voice, and detects between the cared person and the caregiver based on a first captured image corresponding to the field of view of the caregiver. Eye contact of
The setting means sets the guidance information based on a detection result of the eye contact when a predetermined utterance of the caregiver is detected,
The coaching support device according to claim 3 .
前記設定する手段は、前記指導情報を前記撮影映像における再生タイミングに関連付けて設定する、
請求項1〜の何れかのコーチング支援装置。
The setting means sets the instruction information in association with the reproduction timing in the captured video.
Any coaching support device according to claim 1-4.
コンピュータを、請求項1〜の何れかの各手段として機能させるためのプログラム。 The computer program for functioning as one of the means of the claims 1-5.
JP2018078887A 2018-04-17 2018-04-17 Coaching support device and program Active JP6683974B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018078887A JP6683974B2 (en) 2018-04-17 2018-04-17 Coaching support device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018078887A JP6683974B2 (en) 2018-04-17 2018-04-17 Coaching support device and program

Publications (2)

Publication Number Publication Date
JP2019185634A JP2019185634A (en) 2019-10-24
JP6683974B2 true JP6683974B2 (en) 2020-04-22

Family

ID=68341481

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018078887A Active JP6683974B2 (en) 2018-04-17 2018-04-17 Coaching support device and program

Country Status (1)

Country Link
JP (1) JP6683974B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002041660A (en) * 2000-07-25 2002-02-08 Matsushita Electric Works Ltd Caregiver support system and method for providing information to caregiver in caregiver support system
JP4949969B2 (en) * 2007-08-20 2012-06-13 国立大学法人埼玉大学 Communication robot and its operation method
JP2011070275A (en) * 2009-09-24 2011-04-07 Seiko Epson Corp Image processor
JP2014007685A (en) * 2012-06-27 2014-01-16 Panasonic Corp Nursing care system
JP6432434B2 (en) * 2015-04-23 2018-12-05 株式会社ナカヨ Nursing care support device using conversational voice
JP6534893B2 (en) * 2015-08-07 2019-06-26 株式会社エクサウィザーズ Information processing device
JP6279159B2 (en) * 2016-03-04 2018-02-14 新日鉄住金ソリューションズ株式会社 Display system, information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP2019185634A (en) 2019-10-24

Similar Documents

Publication Publication Date Title
JP7387185B2 (en) Systems, methods and computer program products for physiological monitoring
JP2011504316A (en) Method and system for supporting so that composition of face can be determined during self-photographing
JPH0476698A (en) Picture monitoring device
US10021505B2 (en) Control apparatus, measurement system, control method, and storage medium
JP2007293818A (en) Image-recording device, image-recording method, and image-recording program
JP7045797B2 (en) Guidance support system, guidance support method and program
US20230396875A1 (en) Information processing device, information processing method, and information processing program
JP2007213282A (en) Lecturer support device and lecturer support method
CN109698021A (en) For running the method and image capture device of medical image acquisition device
JP2007289657A (en) Image recording apparatus, image recording method, and image recording program
JP6683974B2 (en) Coaching support device and program
JP2014143595A (en) Image recorder
JP2017080199A (en) Information processing device, information processing method and program
JP6829348B1 (en) Shooting control method, information processing device, program, and shooting system
JP4707032B2 (en) Medical video information processing apparatus and medical video information processing program
KR20210028200A (en) How to assess a child's risk of neurodevelopmental disorders
JP2017080200A (en) Information processing device, information processing method and program
JP2017080202A (en) Information processing device, information processing method and program
JP2020156076A (en) Photographing device
JP2014182485A (en) Image processing device and method and program, and imaging device provided with image processing device
JP2010183216A (en) Photographing device, image reproducing device, and photographing result notifying method
JP6263912B2 (en) Image display apparatus and program
JP5805804B2 (en) Recording and recording equipment for articulation training
JP2015119352A (en) Storage and reproduction device
US20240223884A1 (en) Image capturing method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180501

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180517

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20180517

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20180625

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190507

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190507

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190509

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200312

R150 Certificate of patent or registration of utility model

Ref document number: 6683974

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250