JP6683974B2 - Coaching support device and program - Google Patents
Coaching support device and program Download PDFInfo
- Publication number
- JP6683974B2 JP6683974B2 JP2018078887A JP2018078887A JP6683974B2 JP 6683974 B2 JP6683974 B2 JP 6683974B2 JP 2018078887 A JP2018078887 A JP 2018078887A JP 2018078887 A JP2018078887 A JP 2018078887A JP 6683974 B2 JP6683974 B2 JP 6683974B2
- Authority
- JP
- Japan
- Prior art keywords
- caregiver
- support device
- head
- coaching
- guidance information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 claims description 32
- 238000001514 detection method Methods 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims 1
- 238000013523 data management Methods 0.000 description 11
- 238000010191 image analysis Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000007726 management method Methods 0.000 description 8
- 238000000034 method Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000000474 nursing effect Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000001936 parietal effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
Images
Landscapes
- Medical Treatment And Welfare Office Work (AREA)
- Image Analysis (AREA)
Description
本発明は、コーチング支援装置及びプログラムに関する。 The present invention relates to a coaching support device and program.
従来、被介護者を介護する介護者を補助するための様々な技術が提案されている。例えば、特許文献1は、体位、温度等の患者特性を検知するセンサの信号に基づいて、当該患者に対して提案されるアクションを介護者に通知するシステムを開示している。
Conventionally, various techniques for assisting a caregiver who cares for a care receiver have been proposed. For example,
しかしながら、上述した従来のシステムは、提案されるアクションの通知によって介護者を補助することが可能となるものの、介護者自身のスキルを向上させることは難しい。そこで、介護者に対するコーチングを支援するための仕組みの実現が望まれる。 However, although the above-described conventional system can assist the caregiver by notifying the suggested action, it is difficult to improve the skill of the caregiver himself. Therefore, it is desired to realize a mechanism to support coaching for caregivers.
本発明の目的は、介護者に対するコーチングを支援する仕組みを提供することである。 An object of the present invention is to provide a mechanism that supports coaching for caregivers.
本発明の一態様は、
被介護者を介護する介護者に対するコーチングを支援するためのコーチング支援装置であって、
前記介護者が前記被介護者を介護する様子の撮影映像を解析する手段を備え、
前記撮影映像の解析結果に基づいて、前記介護者に対する指導情報を設定する手段を備える、
コーチング支援装置である。
One aspect of the present invention is
A coaching support device for supporting coaching for a caregiver who cares for a cared person,
A means for analyzing a photographed image of the caregiver caring for the cared person,
A means for setting guidance information for the caregiver based on an analysis result of the photographed image,
It is a coaching support device.
本発明によれば、介護者に対するコーチングを支援する仕組みを提供することができる。 According to the present invention, it is possible to provide a mechanism for supporting coaching for a caregiver.
以下、図面を参照しながら、本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(1)コーチング支援システムの構成
本実施形態のコーチング支援システムの構成について説明する。図1は、本実施形態のコーチング支援システムの構成の一例を示す図である。
(1) Configuration of Coaching Support System The configuration of the coaching support system of this embodiment will be described. FIG. 1 is a diagram showing an example of the configuration of the coaching support system of this embodiment.
図1に示すように、本実施形態のコーチング支援システム1は、介護者30が被介護者32を介護する介護現場(例えば、病室)に配置される。
コーチング支援システム1は、コーチング支援装置10と、固定カメラ20と、ウェアラブルカメラ22と、ピンマイク24と、を備える。
As shown in FIG. 1, the
The
固定カメラ20は、例えば、介護現場の天井に配置される。固定カメラ20は、介護者30が被介護者32を介護する様子を介護者30及び被介護者32の上方から撮影するように構成される。
The
ウェアラブルカメラ22は、介護者30によって装着される。ウェアラブルカメラ22は、介護者30の視界に対応する映像を撮影するように構成される。ウェアラブルカメラ22は、例えば、メガネ型カメラである。
The
ピンマイク24は、介護者30によって装着される。図1の例では、介護者30の胸元に取り付けられる。ピンマイク24は、介護現場における音声を録音するように構成される。
The
コーチング支援装置10は、介護現場に配置されてもよいし、介護現場の外部に配置されてもよい。
The
(1−1)コーチング支援装置の構成
本実施形態のコーチング支援装置10の構成について説明する。図2は、本実施形態のコーチング支援装置の構成を概略的に示す構成図である。
(1-1) Configuration of Coaching Support Device The configuration of the
コーチング支援装置10は、介護者30に対するコーチングを支援するための機能を有する。
図2に示すように、コーチング支援装置10は、プロセッサ11と、メモリ12と、入出力インタフェース(以下「入出力I/F」という)13と、通信インタフェース(以下「通信I/F」という)14と、ストレージ15と、を備える。
The
As shown in FIG. 2, the
プロセッサ11は、ストレージ15に記憶されているプログラムをメモリ12に読み込んで、当該プログラムに含まれる命令を実行するように構成される。
プロセッサ11は、例えば、CPU(Central Processing Unit)及びGPU(Graphical Processing Unit)の少なくとも1つである。
The processor 11 is configured to read the program stored in the
The processor 11 is, for example, at least one of a CPU (Central Processing Unit) and a GPU (Graphical Processing Unit).
メモリ12は、データやプログラムを一時的に記憶するように構成される。
メモリ12は、例えば、DRAM(Dynamic Random Access Memory)である。
The memory 12 is configured to temporarily store data and programs.
The memory 12 is, for example, a DRAM (Dynamic Random Access Memory).
入出力I/F13は、ユーザとの間で情報のやり取りを行うように構成される。
入出力I/F13は、例えば、以下の少なくとも1つを含む。
・情報入力装置(一例として、キーボード、マウス、及び、タッチパネル)
・音声入力装置(一例として、マイクロフォン)
・画像入力装置(一例として、カメラ)
・画像出力装置(一例として、ディスプレイ)
・音声出力装置(一例として、スピーカ)
The input / output I / F 13 is configured to exchange information with the user.
The input / output I / F 13 includes, for example, at least one of the following.
Information input device (keyboard, mouse and touch panel as an example)
・ Voice input device (microphone as an example)
Image input device (camera as an example)
Image output device (display, for example)
・ Audio output device (speaker as an example)
通信I/F14は、有線又は無線の通信を制御するように構成される。
通信I/F14は、例えば、以下の少なくとも1つである。
・ハードウェア(一例として、ネットワークアダプタ)
・各種の通信用ソフトウェア
The communication I / F 14 is configured to control wired or wireless communication.
The communication I / F 14 is, for example, at least one of the following.
Hardware (network adapter as an example)
・ Various communication software
ストレージ15は、様々な情報(例えば、データやプログラム)を記憶するように構成される。例えば、図1に示すように、介護者30が被介護者32を介護する様子の撮影データに関する情報を管理するための撮影データ管理テーブル151(図4)と、撮影データの解析結果から指導情報を設定するために参照される指導情報参照テーブル152(図5)と、撮影データの解析結果に基づいて設定された指導情報を管理するための指導情報管理テーブル153(図6)と、を有する。
ストレージ15は、例えば、以下の少なくとも1つを含む。
・磁気ディスク
・フラッシュメモリ
The
The
・ Magnetic disk ・ Flash memory
(2)実施形態の概要
本実施形態の概要について説明する。図3は、本実施形態の概要の説明図である。
(2) Outline of Embodiment An outline of this embodiment will be described. FIG. 3 is an explanatory diagram of the outline of the present embodiment.
図3に示すように、介護者30が被介護者32を介護する様子は、画像入力装置によって撮影される。これにより、介護の様子の撮影映像が得られる。
As shown in FIG. 3, the image of the
コーチング支援装置10は、撮影映像を解析する。
コーチング支援装置10は、撮影映像の解析結果に基づいて、介護者30に対する指導情報を設定し、ストレージ15に記憶する。指導情報は、介護に関するアドバイスに関する情報を含む。
つまり、ストレージ15には、介護者30が被介護者32を介護する様子の撮影映像の解析結果に基づく指導情報が自動的に記憶される。
The
The
That is, the
本実施形態によれば、実際の介護の様子に基づく介護者30に対するコーチングを容易に実現することができる。
According to the present embodiment, coaching for the
(3)データ構造
本実施形態のデータ構造について説明する。各データテーブルは、ストレージ15に記憶される。
(3) Data Structure The data structure of this embodiment will be described. Each data table is stored in the
(3−1)撮影データ管理テーブル
本実施形態の撮影データ管理テーブル151のデータ構造について説明する。図4は、本実施形態の撮影データ管理テーブルのデータ構造を示す図である。
(3-1) Shooting Data Management Table The data structure of the shooting data management table 151 of this embodiment will be described. FIG. 4 is a diagram showing the data structure of the shooting data management table of this embodiment.
図4の撮影データ管理テーブル151は、「撮影ID」フィールドと、「ウェアラブルカメラ撮影映像ファイル」フィールドと、「固定カメラ撮影映像ファイル」フィールドと、「ピンマイク録音音声ファイル」フィールドと、を含む。各フィールドは、互いに関連付けられる。 The shooting data management table 151 of FIG. 4 includes a “shooting ID” field, a “wearable camera shooting video file” field, a “fixed camera shooting video file” field, and a “pin microphone recording audio file” field. Each field is associated with each other.
「撮影ID」フィールドには、個別の撮影を識別する撮影IDが格納される。 In the “shooting ID” field, a shooting ID for identifying individual shooting is stored.
「ウェアラブルカメラ撮影映像ファイル」フィールドには、ウェアラブルカメラ22によって撮影された第1撮影映像40のファイルが格納される。
The file of the first captured
「固定カメラ撮影映像ファイル」フィールドには、固定カメラ20によって撮影された第2撮影映像50のファイルが格納される。
The file of the second captured
「ピンマイク録音音声ファイル」フィールドには、ピンマイク24によって録音された録音音声のファイルが格納される。
The “pin microphone recorded voice file” field stores a file of recorded voice recorded by the
(3−2)指導情報参照テーブル
本実施形態の指導情報参照テーブル152のデータ構造について説明する。図5は、本実施形態の指導情報参照テーブルのデータ構造を示す図である。
(3-2) Guidance Information Reference Table The data structure of the guidance information reference table 152 of this embodiment will be described. FIG. 5 is a diagram showing a data structure of the guidance information reference table of this embodiment.
図5の撮影データ管理テーブル151は、「解析結果」フィールドと、「指導情報」フィールドと、を含む。各フィールドは、互いに関連付けられる。 The shooting data management table 151 of FIG. 5 includes an “analysis result” field and a “teaching information” field. Each field is associated with each other.
「解析結果」フィールドには、第1撮影映像40及び第2撮影映像50に対する画像解析の結果に関する情報が格納される。
The “analysis result” field stores information about the result of image analysis of the first captured
「指導情報」フィールドには、第1撮影映像40及び第2撮影映像50に対する画像解析の結果に対応する指導情報が格納される。
The “guidance information” field stores guidance information corresponding to the result of image analysis of the first captured
例えば、解析結果「アイコンタクトなし」には、「会話時はアイコンタクトしましょう。」という指導情報が関連付けられている。
解析結果「アイコンタクトあり、且つ、頭部間距離が20cm超え」には、「アイコンタクトは20cm以内で。」という指導情報が関連付けられている。
撮影映像の解析結果「アイコンタクトあり、且つ、頭部間距離20cm以内」には、「素晴らしい!」という指導情報が関連付けられている。
For example, the analysis result “no eye contact” is associated with instruction information “Let's make eye contact during conversation.”
The analysis result “with eye contact and distance between heads exceeding 20 cm” is associated with instruction information “with eye contact within 20 cm”.
The instructional information of "excellent!" Is associated with the analysis result "there is eye contact and the head distance is within 20 cm" of the captured image.
解析結果「アイコンタクトなし」は、介護者発話が検出されたときの第1撮影映像40において、介護者30と被介護者32との間のアイコンタクトが検出されなかった場合に対応する。
解析結果「アイコンタクトあり」は、第1撮影映像40においてアイコンタクトが検出された場合に対応する。
解析結果「20cm以内」は、第2撮影映像50から判定された頭部間距離が20cm以内である場合に対応する。
The analysis result “no eye contact” corresponds to a case where no eye contact between the
The analysis result “with eye contact” corresponds to the case where eye contact is detected in the first captured
The analysis result “within 20 cm” corresponds to the case where the head-to-head distance determined from the second captured
(3−3)指導情報管理テーブル
本実施形態の指導情報管理テーブルのデータ構造について説明する。図6は、本実施形態の指導情報管理テーブルのデータ構造を示す図である。
(3-3) Guidance Information Management Table The data structure of the guidance information management table of this embodiment will be described. FIG. 6 is a diagram showing the data structure of the guidance information management table of this embodiment.
図6の指導情報管理テーブル153は、「撮影ID」フィールドと、「再生タイミング」フィールドと、「指導情報」フィールドと、を含む。各フィールドは、互いに関連付けられる。 The guidance information management table 153 of FIG. 6 includes a “shooting ID” field, a “playback timing” field, and a “teaching information” field. Each field is associated with each other.
「撮影ID」フィールドには、撮影IDが格納される。 A shooting ID is stored in the “shooting ID” field.
「再生タイミング」フィールドには、撮影映像(第1撮影映像40及び第2撮影映像50)を構成する各画像フレームの再生タイミングに関する情報(例えば、再生タイミング(一例として、時間、分、及び、秒)に関する情報、及び、各画像フレームに対して時系列に沿って割り当てられるフレーム番号の少なくとも1つ)が格納される。 In the “playback timing” field, information (eg, playback timing (as an example, hours, minutes, and seconds ), And at least one of the frame numbers assigned in time series to each image frame).
「指導情報」フィールドには、指導情報が格納される。 Guidance information is stored in the “guidance information” field.
(4)コーチング支援装置の処理
本実施形態のコーチング支援装置10の処理について説明する。図7は、図2のコーチング支援装置の処理のフローチャートである。図8は、ウェアラブルカメラによって撮影される第1撮影映像を例示する図である。図9は、天井カメラによって撮影される第2撮影映像を例示する図である。図10は、設定された指導情報を介護者が確認するための指導用画面を例示する図である。
(4) Process of Coaching Support Device The process of the
図7の処理は、介護現場の撮影が完了し、且つ、撮影映像及び録音音声が準備された後、コーチング支援装置10のオペレータ(例えば、管理者)による指示に応じて実行される。
The process of FIG. 7 is executed in response to an instruction from an operator (for example, an administrator) of the
図7に示すように、コーチング支援装置10は、撮影現場の録音音声の解析(ST100)を実行する。
具体的には、プロセッサ11は、ピンマイク24によって取得された録音音声のファイルを、撮影IDと、ピンマイク録音音声ファイルと、に関連付けて撮影データ管理テーブル151(図4)に格納する。
プロセッサ11は、録音音声を解析するための学習済みモデル(以下「音声解析モデル」という)を用いて、ピンマイク24によって取得された録音音声を解析することにより、介護者発話(例えば、例えば、介護における特定の作業を開始するときのセリフを含む発話)を検出する。
学習済みモデルは、多量の介護現場の録音音声を訓練データとして用いた機械学習によって構築される。録音音声解析モデルの入力は、録音音声である。録音音声解析モデルの出力は、介護者発話を検出するための情報である。
As shown in FIG. 7, the
Specifically, the processor 11 stores the recording voice file acquired by the
The processor 11 analyzes a recorded voice acquired by the
The learned model is constructed by machine learning using a large amount of recorded voices at a nursing care site as training data. The input of the recorded voice analysis model is the recorded voice. The output of the recorded voice analysis model is information for detecting a caregiver utterance.
プロセッサ11は、介護者発話が検出されたときの録音音声の再生タイミングを特定する。
録音音声の解析は、介護者30による所定の発話(以下「介護者発話」という)が検出されるまでの間、繰り返し行われる(ST110においてNO)。
The processor 11 specifies the reproduction timing of the recorded voice when the caregiver utterance is detected.
The analysis of the recorded voice is repeated until a predetermined utterance by the caregiver 30 (hereinafter referred to as “caregiver utterance”) is detected (NO in ST110).
介護者発話が検出されると(ST110においてYES)、コーチング支援装置10は、撮影映像の解析(ST120)を実行する。
When the caregiver utterance is detected (YES in ST110),
プロセッサ11は、ウェアラブルカメラ22によって取得された第1撮影映像40のファイルを撮影データ管理テーブル151(図4)に格納する。第1撮影映像40のファイルは、ステップST100において録音音声に関連付けられた撮影IDが関連付けられる。
図8に示すように、第1撮影映像40は、典型的には、被介護者32の顔を含む。
The processor 11 stores the file of the first captured
As shown in FIG. 8, the first captured
プロセッサ11は、第1撮影映像40を解析するための学習済みモデル(以下「第1画像解析モデル」という)を用いて、第1撮影映像40の各画像フレームから、アイコンタクトを検出する。第1画像解析モデルは、多量の介護現場の第1撮影映像40を訓練データとして用いた機械学習によって構築される。第1画像解析モデルの入力は、第1撮影映像40である。第1画像解析モデルの出力は、アイコンタクトの状況を検出するための情報である。
The processor 11 detects an eye contact from each image frame of the first captured
第1画像解析モデルは、例えば、被介護者32の顔の向きを推定するためのアルゴリズム(一例として、ResNet(Residual Network))を含む。
この場合、プロセッサ11は、以下の何れかを検出する。
・介護者30の顔と被介護者32の顔とが向き合っている(つまり、アイコンタクトが成立している)。
・介護者30の顔が被介護者32の顔の方を向いていない。
・被介護者32の顔が介護者30の顔の方を向いていない。
・介護者30顔の及び被介護者32顔が向き合っていない。
The first image analysis model includes, for example, an algorithm (for example, ResNet (Residual Network)) for estimating the face direction of the
In this case, the processor 11 detects any of the following.
The face of the
The
-The face of the cared
-The face of the
プロセッサ11は、アイコンタクトが発生したときの第1撮影映像40の再生タイミングを特定する。
The processor 11 identifies the reproduction timing of the first captured
プロセッサ11は、固定カメラ20によって取得された第2撮影映像50のファイルを撮影データ管理テーブル151(図4)に格納する。第2撮影映像50のファイルは、ステップST100において録音音声に関連付けられた撮影IDが関連付けられる。
The processor 11 stores the file of the second captured
図9に示すように、プロセッサ11は、第2撮影映像50を解析するための学習済みモデル(以下「第2画像解析モデル」という)を用いて、第2撮影映像50を構成する各画像フレームから、介護者30の頭頂部の領域52(例えば、頭頂部の特徴量を示す画素を囲う矩形形状の領域)と、被介護者32の顔の領域54(例えば、顔の特徴量を示す画素を囲う矩形形状の領域)と、を検出する。
プロセッサ11は、頭頂部の領域52と顔の領域54との位置関係に基づいて、介護者30の頭部と被介護者32の頭部との間の距離(以下「頭部間距離」という)を再生タイミング毎に判定する。
As shown in FIG. 9, the processor 11 uses the learned model for analyzing the second captured image 50 (hereinafter referred to as “second image analysis model”) to form each image frame forming the second captured
The processor 11 determines the distance between the head of the
第2画像解析モデルは、多量の介護現場の第2撮影映像50を訓練データとして用いた機械学習により構築される。
第2画像解析モデルは、例えば、以下のアルゴリズムを含む。
・介護者30と被介護者32とを分類するためのアルゴリズム(例えば、最近傍法の)
・頭頂部及び顔を検出するためのアルゴリズム(例えば、SSD(Single Shot MultiboxDetector))
・頭部間距離を判定するためのアルゴリズム(例えば、線形回帰アルゴリズム)
The second image analysis model is constructed by machine learning using a large number of second captured
The second image analysis model includes, for example, the following algorithm.
An algorithm for classifying the
-Algorithm for detecting top of head and face (for example, SSD (Single Shot MultiboxDetector))
-Algorithm for determining head-to-head distance (for example, linear regression algorithm)
ステップST120の後、コーチング支援装置10は、指導情報の設定(ST130)を実行する。
After step ST120, the
プロセッサ11は、指導情報参照テーブル152(図5)を参照して、ステップST100及びST120の解析結果に対応する指導情報を決定する。
プロセッサ11は、指導情報管理テーブル153に新規レコードを追加する。
新規レコードの各フィールドには、以下の情報が格納される。
・「撮影ID」フィールドには、新規撮影IDが格納される。
・「再生タイミング」フィールドには、指導情報を決定するときに参照された画像フレームの再生タイミングが格納される。
・「指導情報」フィールドには、決定された指導情報が格納される。
The processor 11 refers to the guidance information reference table 152 (FIG. 5) to determine the guidance information corresponding to the analysis results of steps ST100 and ST120.
The processor 11 adds a new record to the guidance information management table 153.
The following information is stored in each field of the new record.
A new shooting ID is stored in the "shooting ID" field.
The "playback timing" field stores the playback timing of the image frame referred to when determining the guidance information.
The determined guidance information is stored in the "teaching information" field.
図7に示すように、こうした録音音声における介護者発話の検出に応じて、撮影映像を解析して指導情報を設定する処理(ST100〜ST120)が、録音音声が終了するまでの間、繰り返される(ST130においてNO)。 As shown in FIG. 7, the processing (ST100 to ST120) of analyzing a captured image and setting teaching information in response to the detection of a caregiver utterance in such recorded voice is repeated until the recorded voice ends. (NO in ST130).
図10に示すように、指導用画面60は、第1再生領域62と、第2再生領域64と、指導情報表示領域66と、を含む。
第1再生領域62は、第1撮影映像40を再生するための領域である。
第2再生領域64は、第2撮影映像50を再生するための領域である。
指導情報表示領域66は、指導情報を表示するための領域である。
As shown in FIG. 10, the
The
The
The guidance
第1再生領域62及び第2再生領域64には、撮影データ管理テーブル151(図4)の「ウェアラブルカメラ撮影映像ファイル」フィールドに格納された第1撮影映像40と、「固定カメラ撮影映像ファイル」フィールドに格納された第2撮影映像50と、が再生タイミングを同期して再生される。
「ピンマイク録音音声ファイル」フィールドに格納された録音音声は、第1撮影映像40及び第2撮影映像50と再生タイミングを同期して再生される。
指導情報表示領域66には、指導情報管理テーブル153(図6)に格納された指導情報は、指導情報に関連付けられている再生タイミングに従って表示される。例えば、指導情報表示領域66に表示された指導情報は、関連付けられている再生タイミングから所定時間が経過すると消える。
介護者30は、指導用画面60を介して、自身が被介護者32を介護する様子を見ながら、コーチング支援装置10によって設定された指導情報を確認することができる。
In the
The recorded sound stored in the “pin microphone recorded sound file” field is reproduced in synchronization with the reproduction timing of the first captured
In the guidance
The
以上説明した本実施形態に係るコーチング支援装置10は、介護者が被介護者を介護する様子の撮影映像及び録音音声の解析結果に基づいて介護者に対する指導情報を設定するから、実際の介護の様子に基づく介護者に対するコーチングを容易に実現することができる。
Since the
(5)小括
本実施形態について小括する。
(5) Summary This embodiment will be summarized.
本実施形態の第1態様は、
被介護者32を介護する介護者30に対するコーチングを支援するためのコーチング支援装置10であって、
介護者30が被介護者32を介護する様子の撮影映像(例えば、第1撮影映像40及び第2撮影映像50の少なくとも1つ)を解析する手段(例えば、ステップST120を実行するプロセッサ11)を備え、
撮影映像の解析結果に基づいて、介護者30に対する指導情報を設定する手段(例えば、ステップST130を実行するプロセッサ11)を備える、
コーチング支援装置10である。
The first aspect of the present embodiment is
A
A means (for example, the processor 11 that executes step ST120) that analyzes a captured video (for example, at least one of the first captured
A means for setting guidance information for the
The
第1態様によれば、介護者30が被介護者32を介護する様子の撮影映像の解析結果に基づいて介護者30に対する指導情報を自動的に設定する。これにより、実際の介護の様子に基づく介護者30に対するコーチングを容易に実現することができる。
According to the first aspect, the guidance information for the
本実施形態の第2態様は、
解析する手段は、介護者30の視界に対応する第1撮影映像40に基づいて被介護者32と介護者30との間のアイコンタクトを検出し、介護者30が被介護者32を介護する様子を上方から撮影した第2撮影映像50に基づいて被介護者32の頭部と介護者30の頭部との間の頭部間距離を判定し、
設定する手段は、アイコンタクトを検出したときの頭部間距離に基づいて指導情報を設定する、
コーチング支援装置10である。
The second aspect of this embodiment is
The analyzing unit detects the eye contact between the
The setting means sets the guidance information based on the head-to-head distance when eye contact is detected,
The
第2態様によれば、アイコンタクトを検出したときの頭部間距離に関する指導が可能になる。 According to the second aspect, it becomes possible to provide guidance regarding the head-to-head distance when eye contact is detected.
本実施形態の第3態様は、
解析する手段は、
第2撮影映像50に含まれる顔の領域及び頭頂部の領域を検出し、
顔の領域を被介護者32の頭部と判定し、
頭頂部の領域を介護者30の頭部と判定する、
コーチング支援装置10である。
The third aspect of the present embodiment is
The means of analysis is
Detecting a face area and a head area included in the second captured
The face area is determined to be the head of the care-
The area of the crown is determined to be the head of the
The
第3態様によれば、被介護者32及び介護者30それぞれの頭部を簡易に検出することができる。
According to the third aspect, the heads of the cared
本実施形態の第4態様は、
解析する手段は、撮影映像に加えて、介護者30が被介護者32を介護する様子の録音音声を解析し、
設定する手段は、撮影映像の解析結果に加えて、録音音声の解析結果に基づいて指導情報を設定する、
コーチング支援装置である。
The fourth aspect of the present embodiment is
In addition to the captured video, the analyzing means analyzes the recorded sound of the
The setting means sets the teaching information based on the analysis result of the recorded sound in addition to the analysis result of the captured image.
It is a coaching support device.
第4態様によれば、介護者30の発話に基づく指導が可能になる。
According to the fourth aspect, it is possible to provide guidance based on the utterance of the
本実施形態の第5態様は、
解析する手段は、録音音声に基づいて介護者30の所定の発話を検出すると共に、介護者30の視界に対応する第1撮影映像40に基づいて被介護者32と介護者30との間のアイコンタクトを検出し、
設定する手段は、介護者30の所定の発話を検出したときのアイコンタクトの検出結果に基づいて指導情報を設定する、
コーチング支援装置である。
The fifth aspect of the present embodiment is
The analyzing unit detects a predetermined utterance of the
The setting means sets the instruction information based on the detection result of the eye contact when the predetermined utterance of the
It is a coaching support device.
第5態様によれば、介護者30の所定の発話を検出したときのアイコンタクトに関する指導が可能になる。
According to the fifth aspect, it is possible to provide guidance regarding eye contact when a predetermined utterance of the
本実施形態の第6態様は、
設定する手段は、指導情報を撮影映像における再生タイミングに関連付けて設定する、
コーチング支援装置10である。
The sixth aspect of the present embodiment is
The means for setting is to set the instruction information in association with the reproduction timing in the captured video,
The
第6態様によれば、介護者30は、撮影映像を再生しながら関連するシーンにおいて指導情報を確認することができる。
According to the sixth aspect, the
本実施形態の第7態様は、
コンピュータ(例えば、プロセッサ11)を、上記の各手段として機能させるためのコーチング支援プログラムである。
A seventh aspect of the present embodiment is
A coaching support program for causing a computer (for example, the processor 11) to function as each of the above means.
(6)その他の実施形態
その他の実施形態について説明する。
(6) Other Embodiments Other embodiments will be described.
上述した実施形態では、録音音声において介護者による所定の発話が検出された場合に、アイコンタクトの有無、及び、頭部間距離に基づいて指導情報を設定するように構成したが、本実施形態はこれに限定されない。
こうしたルールベースの仕組みに代えて、指導情報自体の設定を、学習済みモデルを用いて実現することもできる。この場合、学習済みモデルは、例えば、人手によって適切な指導情報が設定された多量の撮影データ(撮影映像及び/又は録音音声)を訓練データとして用いた機械学習によって生成される。
In the above-described embodiment, when a predetermined utterance by the caregiver is detected in the recorded voice, the guidance information is set based on the presence / absence of eye contact and the head-to-head distance. Is not limited to this.
Instead of such a rule-based mechanism, setting of the guidance information itself can be realized by using a learned model. In this case, the learned model is generated by, for example, machine learning using a large amount of shooting data (shooting video and / or recorded voice) in which appropriate guidance information is manually set as training data.
上述した実施形態では、居室(病室等)の天井に設けられた固定カメラ20及び介護者が装着するウェアラブルカメラ22によって撮影される第2撮影映像50が用いられているが、本実施形態におけるカメラの設置態様はこれらに限定されない。
本実施形態は、例えば、固定カメラ20及びウェアラブルカメラ22の何れか一方の撮影映像のみが用いられる場合、又は、他の視野を有するように設置された他のカメラ(つまり、固定カメラ20及びウェアラブルカメラ22以外のカメラ)によって取得された撮影映像を用いる場合にも適用可能である。
In the above-described embodiment, the fixed
In the present embodiment, for example, when only one of the fixed
上述した実施形態では、介護現場の撮影が完了し、撮影データが準備された後、当該撮影データの解析結果に基づいて指導情報を設定するようにしたが、本実施形態はこれに限定されない。
本実施形態は、介護現場の撮影データをリアルタイムで解析し、当該解析結果に基づく指導情報の設定もリアルタイムで行う場合にも適用可能である。
この場合、図1に示すように、コーチング支援装置10を介護現場に配置することが好ましい。これにより、介護者30は、コーチング支援装置10によって設定された指導情報を参照しながら、被介護者32を介護することができる。
In the above-described embodiment, after the imaging of the care site is completed and the imaging data is prepared, the guidance information is set based on the analysis result of the imaging data, but the present embodiment is not limited to this.
The present embodiment is also applicable to a case where imaging data of a nursing care site is analyzed in real time and guidance information is set based on the analysis result in real time.
In this case, as shown in FIG. 1, it is preferable to arrange the
以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。 Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited to the above embodiments. Further, the above-described embodiment can be variously modified and changed without departing from the gist of the present invention. Further, the above-described embodiments and modified examples can be combined.
1 :コーチング支援システム
10 :コーチング支援装置
11 :プロセッサ
12 :メモリ
13 :入出力I/F
14 :通信I/F
15 :ストレージ
20 :固定カメラ
22 :ウェアラブルカメラ
24 :ピンマイク
1: Coaching support system 10: Coaching support device 11: Processor 12: Memory 13: Input / output I / F
14: Communication I / F
15: Storage 20: Fixed camera 22: Wearable camera 24: Pin microphone
Claims (6)
前記介護者が前記被介護者を介護する様子の撮影映像を解析する手段を備え、
前記撮影映像の解析結果に基づいて、前記介護者に対する指導情報を設定する手段を備え、
前記解析する手段は、
前記介護者の視界に対応する第1撮影映像に基づいて前記被介護者と前記介護者との間のアイコンタクトを検出し、
前記介護者が前記被介護者を介護する様子を上方から撮影した第2撮影映像に基づいて前記被介護者の頭部と前記介護者の頭部との間の頭部間距離を判定し、
前記設定する手段は、前記アイコンタクトを検出したときの前記頭部間距離に基づいて前記指導情報を設定する、
コーチング支援装置。 A coaching support device for supporting coaching for a caregiver who cares for a cared person,
A means for analyzing a photographed image of the caregiver caring for the cared person,
A means for setting guidance information for the caregiver based on an analysis result of the photographed image,
The means for analyzing is
Detecting eye contact between the cared person and the caregiver based on a first captured image corresponding to the field of view of the caregiver,
The head-to-head distance between the head of the cared person and the head of the cared person is determined based on a second video image of the cared person taking care of the cared person from above,
The setting means sets the teaching information based on the head-to-head distance when the eye contact is detected,
Coaching support device.
前記第2撮影映像に含まれる顔の領域及び頭頂部の領域を検出し、
前記顔の領域を前記被介護者の頭部と判定し、
前記頭頂部の領域を前記介護者の頭部と判定する、
請求項1のコーチング支援装置。 The means for analyzing is
Detecting a face area and a crown area included in the second captured image,
The area of the face is determined to be the care recipient's head,
The area of the crown is determined to be the caregiver's head,
The coaching support device according to claim 1 .
前記設定する手段は、前記撮影映像の解析結果に加えて、前記録音音声の解析結果に基づいて前記指導情報を設定する、
請求項1又は2のコーチング支援装置。 Wherein the means for analysis, in addition to the captured image, to analyze the recording sound voice of a state in which the caregiver caring for the person cared for,
It said means for setting, in addition to the analysis result of the captured image, to set the guidance information based on the analysis results of the recorded speech,
The coaching support device according to claim 1 .
前記設定する手段は、前記介護者の所定の発話を検出したときの前記アイコンタクトの検出結果に基づいて前記指導情報を設定する、
請求項3のコーチング支援装置。 The analyzing unit detects a predetermined utterance of the caregiver based on the recorded voice, and detects between the cared person and the caregiver based on a first captured image corresponding to the field of view of the caregiver. Eye contact of
The setting means sets the guidance information based on a detection result of the eye contact when a predetermined utterance of the caregiver is detected,
The coaching support device according to claim 3 .
請求項1〜4の何れかのコーチング支援装置。 The setting means sets the instruction information in association with the reproduction timing in the captured video.
Any coaching support device according to claim 1-4.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018078887A JP6683974B2 (en) | 2018-04-17 | 2018-04-17 | Coaching support device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018078887A JP6683974B2 (en) | 2018-04-17 | 2018-04-17 | Coaching support device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019185634A JP2019185634A (en) | 2019-10-24 |
JP6683974B2 true JP6683974B2 (en) | 2020-04-22 |
Family
ID=68341481
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018078887A Active JP6683974B2 (en) | 2018-04-17 | 2018-04-17 | Coaching support device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6683974B2 (en) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002041660A (en) * | 2000-07-25 | 2002-02-08 | Matsushita Electric Works Ltd | Caregiver support system and method for providing information to caregiver in caregiver support system |
JP4949969B2 (en) * | 2007-08-20 | 2012-06-13 | 国立大学法人埼玉大学 | Communication robot and its operation method |
JP2011070275A (en) * | 2009-09-24 | 2011-04-07 | Seiko Epson Corp | Image processor |
JP2014007685A (en) * | 2012-06-27 | 2014-01-16 | Panasonic Corp | Nursing care system |
JP6432434B2 (en) * | 2015-04-23 | 2018-12-05 | 株式会社ナカヨ | Nursing care support device using conversational voice |
JP6534893B2 (en) * | 2015-08-07 | 2019-06-26 | 株式会社エクサウィザーズ | Information processing device |
JP6279159B2 (en) * | 2016-03-04 | 2018-02-14 | 新日鉄住金ソリューションズ株式会社 | Display system, information processing apparatus, information processing method, and program |
-
2018
- 2018-04-17 JP JP2018078887A patent/JP6683974B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019185634A (en) | 2019-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7387185B2 (en) | Systems, methods and computer program products for physiological monitoring | |
JP2011504316A (en) | Method and system for supporting so that composition of face can be determined during self-photographing | |
JPH0476698A (en) | Picture monitoring device | |
US10021505B2 (en) | Control apparatus, measurement system, control method, and storage medium | |
JP2007293818A (en) | Image-recording device, image-recording method, and image-recording program | |
JP7045797B2 (en) | Guidance support system, guidance support method and program | |
US20230396875A1 (en) | Information processing device, information processing method, and information processing program | |
JP2007213282A (en) | Lecturer support device and lecturer support method | |
CN109698021A (en) | For running the method and image capture device of medical image acquisition device | |
JP2007289657A (en) | Image recording apparatus, image recording method, and image recording program | |
JP6683974B2 (en) | Coaching support device and program | |
JP2014143595A (en) | Image recorder | |
JP2017080199A (en) | Information processing device, information processing method and program | |
JP6829348B1 (en) | Shooting control method, information processing device, program, and shooting system | |
JP4707032B2 (en) | Medical video information processing apparatus and medical video information processing program | |
KR20210028200A (en) | How to assess a child's risk of neurodevelopmental disorders | |
JP2017080200A (en) | Information processing device, information processing method and program | |
JP2017080202A (en) | Information processing device, information processing method and program | |
JP2020156076A (en) | Photographing device | |
JP2014182485A (en) | Image processing device and method and program, and imaging device provided with image processing device | |
JP2010183216A (en) | Photographing device, image reproducing device, and photographing result notifying method | |
JP6263912B2 (en) | Image display apparatus and program | |
JP5805804B2 (en) | Recording and recording equipment for articulation training | |
JP2015119352A (en) | Storage and reproduction device | |
US20240223884A1 (en) | Image capturing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20180501 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20180517 |
|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20180517 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20180625 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190507 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190507 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190509 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190814 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190827 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200310 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200312 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6683974 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |