JP2020134971A - 現場学習評価プログラム、現場学習評価方法、および現場学習評価装置 - Google Patents

現場学習評価プログラム、現場学習評価方法、および現場学習評価装置 Download PDF

Info

Publication number
JP2020134971A
JP2020134971A JP2019022870A JP2019022870A JP2020134971A JP 2020134971 A JP2020134971 A JP 2020134971A JP 2019022870 A JP2019022870 A JP 2019022870A JP 2019022870 A JP2019022870 A JP 2019022870A JP 2020134971 A JP2020134971 A JP 2020134971A
Authority
JP
Japan
Prior art keywords
image
partial image
joint point
model
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019022870A
Other languages
English (en)
Inventor
辰也 佐々木
Tatsuya Sasaki
辰也 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2019022870A priority Critical patent/JP2020134971A/ja
Publication of JP2020134971A publication Critical patent/JP2020134971A/ja
Pending legal-status Critical Current

Links

Abstract

【課題】ドメイン適用前後のモデルの相対評価が容易に可能な現場学習評価プログラムを提供する。【解決手段】非現場で撮影された第1画像から、対象を含む第1部分画像と、第1部分画像に設定された関節点GTとを用いて学習されたベースモデルを取得し、現場で撮影された第2画像から検出された、対象を含む第2部分画像を取得し、第1部分画像の第1画像上の位置と、GTにおける所定の基準関節点と、の関係を利用して、第2部分画像の第2画像上の位置に対応する基準関節点を、第2部分画像の仮GTとして決定し、第2部分画像を用いてドメイン適用することで、ベースモデルをニューモデルに更新し、第2部分画像から、ベースモデルおよびニューモデルを用いてそれぞれ推定された基準関節点と、仮GTと、を比較することで、いずれのモデルを現場で採用するか判定する処理をコンピューターに実行させる。【選択図】図13A

Description

本発明は、現場学習評価プログラム、現場学習評価方法、および現場学習評価装置に関する。
我が国は、戦後の高度経済成長に伴う生活水準の向上、衛生環境の改善、および医療水準の向上等により、長寿命化が顕著となっている。このため、出生率の低下と相まって、高齢化率が高い高齢化社会になっている。このような高齢化社会では、病気、怪我、および加齢などにより、介護等の対応を必要とする要介護者等の増加が想定される。
要介護者等は、病院や老人福祉施設などの施設において、歩行中に転倒したり、ベッドから転落して怪我をするおそれがある。そのため、要介護者等がこのような状態になったときに介護士や看護師等のスタッフがすぐに駆けつけられるようにするために、要介護者等の居室の天井等に備えられたカメラによる撮影画像から要介護者等の姿勢や行動を検出するためのシステムの開発が進められている。
機械学習により、撮影画像から対象物体を検出する場合、学習データとテストデータの統計的性質が異なることで検出精度が低下する可能性がある。このような検出精度の低下を抑制するための技術として、上述した統計的性質のずれを補正するドメイン適用という技術が知られている。
ドメイン適用に関連する先行技術として、下記特許文献1には、次の技術が開示されている。学習データに含まれる各要素に付される重みが所定の拘束条件を満たすか判定し、重み、または、学習データもしくはテストデータに含まれる各サンプルを変換する特徴変換パラメーターの少なくとも一方に関して正規化を行って目的関数の値を導出する。そして、重みおよび特徴変換パラメーターを導出して、重みおよび特徴変換パラメーターに関する目的関数に基づいて重みおよび特徴変換パラメーターの最適化を行い、特徴変換パラメーターに基づいて、学習データまたはテストデータの少なくとも一方に含まれる要素を変換する。これにより、ドメイン適用における特徴変換精度を向上できる。
国際公開第2016/125500号
しかし、機械学習による非現場学習の後、ドメイン適用を用いた現場学習を行うことにより、現場の画像から対象物体の関節点を推定する場合等において、現場学習では正解データがないので、現場における推定精度を確認できない。従って、ドメイン適用により推定精度は向上し得るが、低下することもあるため、ドメイン適用後の推定精度を確認できないと、推定結果の信頼性を担保できない。上記先行技術は、このような問題に対応できない。
本発明は、上述の問題を解決するためになされたものである。すなわち、ドメイン適用後のモデルの、ドメイン適用前のモデルに対する推定精度の相対評価が容易に可能な現場学習評価プログラム、現場学習評価方法、および現場学習評価装置を提供することを目的とする。
本発明の上記課題は、以下の手段によって解決される。
(1)ソースドメインにおいて対象を俯瞰する位置から撮影された第1画像から、前記対象を含む部分として検出された第1部分画像と、前記第1部分画像に設定された、関節点のグランドトゥルースとを用いて学習されたベースモデルを取得する手順(a)と、ターゲットドメインにおいて前記対象を俯瞰する位置から撮影された第2画像から、前記対象を含む部分として検出された第2部分画像を取得する手順(b)と、前記第1部分画像の前記第1画像上の位置と、前記グランドトゥルースにおける所定の基準関節点と、の関係を利用して、前記第2部分画像の前記第2画像上の位置に対応する前記基準関節点を、前記第2部分画像の仮グランドトゥルースとして決定する手順(c)と、前記第2部分画像を用いてドメイン適用することで、前記ベースモデルをニューモデルに更新する手順(d)と、前記第2部分画像から、前記ベースモデルおよび前記ニューモデルを用いてそれぞれ推定された前記基準関節点と、前記仮グランドトゥルースと、をそれぞれ比較することにより、前記ベースモデルおよび前記ニューモデルのいずれかを、ターゲットドメインにおいて採用するモデルとして判定する手順(e)と、を有する処理を、コンピューターに実行させるための現場学習評価プログラム。
(2)前記第1画像および前記第2画像には、直上から撮影された前記対象の画像が含まれ、前記基準関節点は、前記対象の頭部、肩、または腰の関節点である、上記(1)に記載の現場学習評価プログラム。
(3)前記手順(e)は、直上から俯瞰された位置から撮影された前記対象が含まれる前記第2部分画像、および所定距離以上離れた位置から撮影された前記対象が含まれる前記第2部分画像を除く、オクルージョンが発生しにくい所定の区間で水平移動をする前記対象が含まれる時間的に連続する複数の前記第2部分画像のうち、前記水平移動の開始および終了の時点の前記対象が含まれる前記第2部分画像が除かれた前記第2部分画像から、前記ベースモデルおよび前記ニューモデルを用いてそれぞれ推定された前記基準関節点と前記仮グランドトゥルースと、をそれぞれ比較することにより、前記ベースモデルおよび前記ニューモデルのいずれかを、ターゲットドメインにおいて採用するモデルとして判定する、上記(1)または(2)に記載の現場学習評価プログラム。
(4)ソースドメインにおいて対象を俯瞰する位置から撮影された第1画像から、前記対象を含む部分として検出された第1部分画像と、前記第1部分画像に設定された、関節点のグランドトゥルースとを用いて学習されたベースモデルを取得する段階(a)と、ターゲットドメインにおいて前記対象を俯瞰する位置から撮影された第2画像から、前記対象を含む部分として検出された第2部分画像を取得する段階(b)と、前記第1部分画像の前記第1画像上の位置と、前記グランドトゥルースにおける所定の基準関節点と、の関係を利用して、前記第2部分画像の前記第2画像上の位置に対応する前記基準関節点を、前記第2部分画像の、前記基準関節点に対応する部分の仮グランドトゥルースとして決定する段階(c)と、前記第2部分画像を用いてドメイン適用することで、前記ベースモデルをニューモデルに更新する段階(d)と、前記第2部分画像から、前記ベースモデルおよび前記ニューモデルを用いてそれぞれ推定された前記基準関節点と、推定された前記基準関節点に対応する、前記仮グランドトゥルースと、をそれぞれ比較することにより、前記ベースモデルおよび前記ニューモデルのいずれかを、ターゲットドメインにおいて採用するモデルとして判定する段階(e)と、を有する現場学習評価方法。
(5)ソースドメインにおいて対象を俯瞰する位置から撮影された第1画像から、前記対象を含む部分として検出された第1部分画像と、前記第1部分画像に設定された、関節点のグランドトゥルースとを用いて学習されたベースモデルを取得する第1取得部と、ターゲットドメインにおいて前記対象を俯瞰する位置から撮影された第2画像から、前記対象を含む部分として検出された第2部分画像を取得する第2取得部と、前記第1部分画像の前記第1画像上の位置と、前記グランドトゥルースにおける所定の基準関節点と、の関係を利用して、前記第2部分画像の前記第2画像上の位置に対応する前記基準関節点を、前記第2部分画像の、前記基準関節点に対応する部分の仮グランドトゥルースとして決定する決定部と、前記第2部分画像を用いてドメイン適用することで、前記ベースモデルをニューモデルに更新する更新部と、前記第2部分画像から、前記ベースモデルおよび前記ニューモデルを用いてそれぞれ推定された前記基準関節点と、推定された前記基準関節点に対応する、前記仮グランドトゥルースと、をそれぞれ比較することにより、前記ベースモデルおよび前記ニューモデルのいずれかを、ターゲットドメインにおいて採用するモデルとして判定する判定部と、を有する現場学習評価装置。
非現場で撮影された第1画像上の、対象を含む第1部分画像の位置と、第1画像に設定された基準関節点のグランドトゥルースと、の関係を利用して、現場で撮影された第2画像上の、対象を含む第2部分画像の位置に対応する基準関節点を決定し、第2部分画像の仮グランドトゥルースとする。そして、第2部分画像から、ドメイン適用前後のモデルでそれぞれ推定された基準関節点と仮グランドトゥルースとをそれぞれ比較することで、現場で採用するモデルを判定する。これにより、ドメイン適用前のモデルとドメイン適用後のモデルの現場における推定精度の相対評価を容易にできる。
画像処理システムの概略構成を示す図である。 検出部のハードウェア構成を示すブロック図である。 カメラと対象者との位置関係を示す説明図である。 撮影画像を示す図である。 制御部の機能ブロック図である。 人矩形を示す模式図である。 関節点を示す模式図である。 人矩形に基づいて検出された関節点を示す模式図である。 推定部の非現場学習について説明するためのブロック図である。 現場撮影画像を用いた、推定部の現場学習について説明するためのブロック図である。 非現場撮影画像を用いた、推定部の現場学習について説明するためのブロック図である。 評価部による、現場で採用する推定部のモデルの判定について説明するためのブロック図である。 検出部の動作を示すフローチャートである。 検出部の動作を示すフローチャートである。
以下、図面を参照して、本発明の実施形態に係る現場学習評価プログラム、現場学習評価方法、および現場学習評価装置について説明する。なお、図面において、同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
図1は、画像処理システム10の概略構成を示す図である。
画像処理システム10は、検出部100、通信ネットワーク200、および携帯端末300を含む。検出部100は、通信ネットワーク200によりアクセスポイント210を介して携帯端末300と相互に通信可能に接続される。検出部100は、1つの一体化された装置でも、分離配置される複数の装置でもあり得る。なお、通信ネットワーク200を介して検出部100および携帯端末300と相互に通信可能なサーバー(図示せず)を設け、検出部100の機能の一部を当該サーバーが実施するようにしてもよい。
検出部100は、対象者500の居室の天井等に配設される。対象者500は、例えば、スタッフ等により介護または看護を必要とする者である。検出部100は、所定の観察領域を撮影することで、画像(以下、単に「撮影画像505」(図4、図6参照)とも称する)を取得し、撮影画像に含まれる対象者500を人物として検出する。後述するように、検出部100は、撮影画像505上で物体(オブジェクト)が存在する領域を検出し、検出した領域に含まれる物体のカテゴリーを推定することで、対象者500を検出する。物体が存在する領域は、撮影画像上で物体が含まれる候補矩形として検出される。検出された候補矩形のうち、物体のカテゴリーが人であると推定された候補矩形を、人矩形510(図6参照)として検出することで、対象者500を検出する。検出部100は、人矩形510に基づいて、対象者500の関節点520を推定するとともに、関節点520に基づいて対象者500の姿勢および/または行動を推定する。また、推定した姿勢および/または行動から、対象者500に関するイベントを検出し得る。イベントとは、対象者500に関する状態や状況の変化であって、例えば、起床、離床、転倒、転落、および微体動異常等のスタッフに発報(報知)を行うべき事象である。検出部100は、イベントを検出した場合は、イベントの内容を通知するイベント通知を携帯端末300へ送信する。
携帯端末300は、対象者500に対して介護および看護を含むケアを行うスタッフ等に携帯される。携帯端末300は、検出部100からイベント通知を受信し、イベント通知の内容を表示することで、イベントの発生およびその内容をスタッフ等に報知する。
図2は、検出部100のハードウェア構成を示すブロック図である。図2の例に示すように、検出部100は、制御部110、通信部120、カメラ130、および体動センサー140を備え、これらはバスによって、相互に接続されている。
制御部110は、CPU(Central Processing Unit)、およびRAM(Random Access Memory)、ROM(Read Only Memory)等のメモリにより構成され、プログラムに従って検出部100の各部の制御および演算処理を行う。制御部110の機能の詳細については後述する。
通信部120は、通信ネットワーク200を介して、携帯端末300等と通信するためのインターフェース回路(例えばLANカード等)である。
カメラ130は、例えば、対象者500の居室の天井、または壁の上部に配置され、所定の観察領域として対象者500の居室のできるだけ広い範囲を、対象者500を俯瞰可能な位置から撮影し、撮影画像505(画像データ)を出力する。撮影画像505には対象者500を含む画像が含まれる。撮影画像505には、静止画および動画が含まれる。カメラ130は、広角カメラであり得る。広角カメラは、比較的広い画角の撮影画像505を撮影できるカメラであり、撮影画像505上の位置に対応して歪みの大きさが変化するカメラである。広角カメラには、例えば、魚眼レンズカメラが含まれる。カメラ130は、比較的広い範囲を撮影範囲とするために、カメラの設置高さ等を調整することで、画角を広くした広域撮影用カメラであってもよい。広域撮影用カメラは、カメラから撮影方向の物体までの距離に対応して、撮影画像505上の物体の大きさと、当該物体の実際の大きさとの比が変化した撮影画像505が撮影されるカメラである。広域撮影用カメラとして、撮影画像505上の位置に対応して歪みの大きさを変化させていない一般的なカメラを広域撮影用カメラとして利用できる。カメラ130は近赤外線カメラであるが、これに換えて可視光カメラを用いてもよく、これらを併用してもよい。
図3は、カメラ130と対象者500との位置関係を示す説明図である。図4は、撮影画像505を示す図である。図4においては、広角カメラによる撮影画像505が示されている。以下の説明においては、説明を簡単にするために、撮影画像505は広角カメラにより撮影された画像であるものとして説明する。
図3において、カメラ130の直下であるAの位置にいる対象者500は、図4の撮影画像505の位置aおいて撮影されている。Aの位置にいる対象者500は、撮影画像505において、カメラ130に近いため、頭部と肩部が比較的大きく映り、腕や足は肩に隠れる。Bの位置にいる対象者500は、カメラ130から遠いため小さく映るが、全身が映る。
図5は、制御部110の機能ブロック図である。制御部110は、取得部111、人検出部112、推定部113、ロス算出部114、評価部115、行動推定部116、およびイベント通知部117として機能する。取得部111は、第1取得部および第2取得部を構成する。推定部113は更新部を構成する。
取得部111は、カメラ130から撮影画像505を取得する。取得部111は、ROM等に記憶された撮影画像505を読み出すことで取得してもよい。
人検出部112は、撮影画像505から、撮影画像505上で物体(オブジェクト)が存在する領域を候補矩形として検出し、検出した候補矩形に含まれる物体のカテゴリーごとの信頼度スコアを算出する。人検出部112は、人物のカテゴリーの信頼度スコアが最も高い候補領域を人矩形510として検出する。
人検出部112は、撮影画像505から人矩形510を検出するための辞書(パラメーター)が反映されたニューラルネットワーク(以下、「NN」と称する)のモデルにより、撮影画像505から人矩形を検出し得る。
人検出部112は、人矩形510を、撮影画像505と、当該人矩形510の対向する2つの頂点の座標との組み合わせとして出力する。
図6は、人矩形510を示す模式図である。
図6の例においては、撮影画像505上で検出された、椅子上で座位の姿勢の対象者500を包含する人矩形510が太線の枠内の領域として示されている。人検出部112からは、撮影画像505と、人矩形510の対向する2つの頂点e1、e2の座標(xy座標)が出力される。
推定部113は、人矩形510に基づいて対象者500の関節点520を推定する。推定部113は、人矩形510から関節点520を検出するための辞書が反映されたNNのモデルにより、人矩形510から対象者500の関節点520を推定し得る。
図7は、関節点520を示す模式図である。
図7の例においては、関節点520には、頭部の関節点520a、肩部の関節点520b、腰部の関節点520c、および体幹を構成する関節点520dが含まれる。頭部の2つの関節点520aの距離は、対象者500の頭部の大きさを反映する。
図8は、人矩形510に基づいて検出された関節点520を示す模式図である。
図8の例においては、椅子上で座位の姿勢の対象者500の関節点520が示されている。
推定部113は、非現場で撮影された撮影画像505(以下、「非現場撮影画像」と称する)と、当該非現場撮影画像から検出された人矩形510(以下、「非現場人矩形」とも称する)に対して関節点520の正解として設定されたグランドトゥルース(以下、「関節点GT」とも称する)との組み合わせを教師データとして、関節点520を推定するための学習をする。被現場撮影画像は第1画像を構成し、非現場人矩形は第1部分画像を構成する。ここで、非現場とは、推定部113の学習のためのみに用いられる撮影画像505が撮影され、ドメイン適用前の学習がされる、現場以外の場所である。非現場はソースドメインを構成する。現場とは、ドメイン適用を用いた学習がされた推定部113により関節点520を推定しようとする対象者500が撮影され、撮影により撮影画像505が取得される場所である。現場はターゲットドメインを構成する。ドメイン適用とは、十分な教師データを持つソースドメイン(例えば、非現場)から得られた知識を、十分な情報がない目標のターゲットドメイン(例えば、現場)に適用することで、ターゲットドメインにおける推定精度を向上させるための学習技術である。以下、非現場における学習を「非現場学習」とも称し、非現場学習により学習された推定部113のNNを「ベースモデル」とも称する。
推定部113は、非現場撮影画像から推定した関節点520と関節点GTとの間のロス(間接点ロス)が小さくなるように、バックプロパゲーションにより学習する。
ロス算出部114は、推定部113による推定された関節点520とGTとの間の関節点ロスを算出する。なお、ロス算出部114は、後述するドメインロスをさらに算出する。
図9は、推定部113の非現場学習について説明するためのブロック図である。図9においては、制御部110の機能のうち、推定部113の非現場学習に関連する、取得部111、人検出部112、推定部113、およびロス算出部114のみが示されている。
非現場学習において、推定部113は、取得部111により取得された非現場撮影画像から人検出部112により検出された非現場人矩形から、関節点520を推定する。ロス算出部114は、推定部113により推定された関節点520と関節点GTとの間の関節点ロスを算出し、推定部113に出力する。推定部113は、関節点ロスが小さくなるように、バックプロパゲーションにより学習する。推定部113は、高精度に関節点520を推定するために、比較的大量の非現場撮影画像を用いて学習される。
推定部113は、ドメイン適用を用いて、次のように現場においてさらに学習する。以下、現場における学習を「現場学習」とも称し、現場学習により学習された推定部113のNNを「ニューモデル」とも称する。推定部113の現場学習は、例えば、公知の文献(Journal of Machine Learning Research 17 (2016) 1-35)に記載された、DANN(Domain−Adversarial training of Neural Networks)を利用したドメイン適用により行い得る。以下、例として、現場学習は、DANNを用いて行われるものとして説明する。
現場で撮影された撮影画像(以下、「現場撮影画像」と称する)と、当該現場撮影画像に対してドメインの正解として設定されたグランドトゥルース(以下、「ドメインGT」とも称する)との組み合わせを用いて現場学習を行う。現場撮影画像は第2画像を構成する。現場のドメインGTは、例えば、数値である「1」とし得る。なお、後述する、非現場のドメインGTは、例えば、数値である「0」とし得る。
図10は、現場撮影画像を用いた、推定部113の現場学習について説明するためのブロック図である。図10においては、制御部110の機能のうち、推定部113の現場学習に関連する、取得部111、人検出部112、推定部113、およびロス算出部114のみが示されている。
ドメイン適用を用いた現場学習は、次のように行われる。
推定部113は、取得部111により取得された現場撮影画像から人検出部112により検出された人矩形510(以下、「現場人矩形」とも称する)から、ドメインを推定する。現場人矩形は第2部分画像を構成する。ロス算出部114は、推定部113により推定されたドメインとドメインGT(すなわち、例えば、数値である「1」)との間のロス(ドメインロス)を算出し、推定部113に出力する。推定部113は、ドメインロスに基づくバックプロパゲーションによる学習において、ドメインロスに逆勾配を与えることでドメインの識別ができないようにして、ドメインに依存しない特徴を学習する。
推定部113は、さらに、非現場撮影画像を用いた現場学習を次のように行う。非現場撮影画像と、当該非現場画像に対してドメインの正解として設定された現場のドメインGT(すなわち、例えば、数値である「0」)との組み合わせを用いて現場学習を行う。併せて、推定部113は、非現場撮影画像と、当該非現場画像に対して関節点の正解として設定された関節点GTとの組み合わせを教師データとして、関節点520を推定するための現場学習を行う。推定部113は、これらの現場学習をマルチタスク学習で行う。
図11は、非現場撮影画像を用いた、推定部113の現場学習について説明するためのブロック図である。図11においては、制御部110の機能のうち、推定部113の現場学習に関連する、取得部111、人検出部112、推定部113、およびロス算出部114のみが示されている。
現場学習において、推定部113は、取得部111により取得された非現場撮影画像から人検出部112により検出された非現場人矩形から、関節点520およびドメインを推定する。ロス算出部114は、推定部113により推定された関節点520と関節点GTとの間の関節点ロスを検出するとともに、推定部113により推定されたドメインとドメインGTとの間のドメインロスを算出し、これらのロスを推定部113に出力する。推定部113は、関節点ロスが小さくなるように、バックプロパゲーションにより学習するとともに、ドメインロスに逆勾配を与えることでドメインの識別ができないようにして、ドメインに依存しない共通の特徴を学習することにより、マルチタスク学習をする。
上述した、図10および図11に示す現場学習により、推定部113は、現場撮影画像および非現場撮影画像を用いて、ドメインに依存しない共通の特徴を学習する。これにより、推定部113は、例えば、非現場撮影画像と現場撮影画像とで背景画像が異なっても影響されずに、比較的共通する対象者500の特徴等を識別できるように学習する。
評価部115は、ベースモデルおよびニューモデルの推定精度をそれぞれ算出することで両者を評価し、いずれのモデルを現場で採用するかを判定する。
図12は、評価部115による、現場で採用する推定部113のモデルの判定について説明するためのブロック図である。
評価部115は、仮GT決定部1151、推定精度算出部1152、および判定部1153を有する。仮GT決定部1151は決定部を構成する。
仮GT決定部1151は、仮グランドトゥルース(以下、「仮GT」とも称する)を決定する。仮GTは、非現場におけるデータを利用して算出される、現場人矩形に対応する所定の基準関節点のグランドトゥルースの近似値である。仮GTを非現場におけるデータを利用して算出するのは、現場人矩形に対応するグランドトゥルースが存在しないためである。基準関節点は、非現場と現場とで特徴が共通する関節点であり、好適には、頭部の関節点520a(図7参照)である。頭部は、撮影画像505において他の物体に隠れることがあまりなく、撮影画像505上は、対象者500の位置に関係なく円形であるため、カメラ130からの距離のみに影響されて、大きさが変化するに過ぎないためである。従って、頭部の関節点520aは、撮影画像505上の人矩形510の座標(カメラ130からの距離に対応)の関数として表現できる。
ここで、評価部115による評価に用いる現場人矩形は、カメラ130により直上から撮影された現場人矩形でなく、かつ所定距離以上離れた位置からカメラ130により撮影された現場人矩形でもない現場人矩形とし得る。当該所定距離は、仮GTの信頼性の観点から実験により設定され得る。評価部115による評価に用いる現場人矩形は、さらに、所定の観察領域においてオクルージョンが発生しにくい所定の区間で撮影された現場人矩形とし得る。当該所定の区間は、カメラ130により撮影される撮影画像505においてオクルージョンが発生しにくい区間として予め設定され得る。評価部115による評価に用いる現場人矩形は、さらに、当該所定の区間で水平移動(例えば、立位姿勢での歩行)する対象者500が含まれる、時間的に連続する複数の現場人矩形のうち、当該水平移動の開始および終了の時点の対象者500が含まれる現場人矩形を除く現場人矩形とし得る。評価部115による評価に用いる現場人矩形をこのように限定することで、仮GTの信頼度を向上できる。
基準関節点は、肩部の関節点520bまたは腰部の関節点520cであってもよい。肩部および腰部は、頭部に次いで撮影画像505において他の物体に隠れることがなく、水平なので、撮影画像505上は、カメラ130からの距離およびカメラ130に対するこれらの向きのみに影響されて、長さが変化するに過ぎないためである。肩部のカメラ130に対する向きは、例えば、次のように検出され得る。評価部115による評価に用いる一の現場人矩形と、時間的に前後で連続する他の複数の現場人矩形とから、対象者500の進行方向を算出する。そして、対象者500の正面が当該進行方向に向いていると仮定し、当該進行方向と、カメラ130から見た当該一の現場人矩形の方向(例えば、現場撮影画像の中心に対する当該一の現場人矩形の方向)と、がなす角度を算出し、当該角度に基づいて、肩部の向きを検出する。
なお、所定の観察領域にいる対象者500が直上から撮影されないようにカメラ130を配置する場合は、基準関節点を、体幹を構成する関節点520dとしてもよい。体幹は、撮影画像505において他の物体に隠れることが比較的少なく、垂直なので、カメラ130からの距離のみに影響されて、長さが変化するに過ぎないためである。
仮GT決定部1151は、非現場人矩形の座標(非現場撮影画像上の非現場人矩形の座標)と関節点GTとの関係を利用して、現場人矩形の座標(現場撮影画像上の現場人矩形の座標)に対応する関節点GTを、当該現場人矩形の仮GTとして決定する。具体的には、仮GT決定部1151は、非現場人矩形の座標(x,y座標)と関節点GTとを座標軸とする三次元グラフにおいて、関節点GTに対する非現場人矩形の座標の近似式(関数)を求め、現場人矩形の座標に対応する当該近似式上の点を仮GTとして決定し得る。
推定精度算出部1152は、推定部113により現場人矩形から推定された基準関節点の、仮GTに対する精度を、推定部113の推定精度として算出する。推定精度は、例えば、推定部113により現場人矩形から推定された基準関節点の、仮GTに対する誤差(%)の二乗平均として算出され得る。
判定部1153は、推定部113をベースモデルとしたときの推定精度と、ニューモデルとしたときの推定精度とを比較し、現場においてずれのモデルを採用するかを、判定結果として出力する。具体的には、判定部1153は、推定部113をニューモデルとしたときの推定精度が、推定部113をベースモデルとしたときの推定精度より低下しなければ、ニューモデルを採用する。これは、現場人矩形からの基準関節点の検出精度が同じであっても、ドメイン適用が成功していることから、現場人矩形からの基準関節点以外の関節点を含むすべての関節点の検出精度はニューモデルを用いた方が高いと考えられるからである。
図5に戻り、説明を継続する。
行動推定部116は、関節点520に基づいて、対象者500の行動を推定する。例えば、行動推定部116は、関節点520から対象者500の立位の姿勢が検出された状態から、短時間に臥位の姿勢が検出された場合、「転倒」の行動を推定し得る。
イベント通知部117は、行動推定部116により推定された行動等が、イベントに該当すると判断した場合は、イベントの発生および内容を報知するためのイベント通知を携帯端末300へ送信する。
図13Aおよび図13Bは、検出部100の動作を示すフローチャートである。本フローチャートは、プログラムに従い、制御部110により実行される。
制御部110は、非現場人矩形と関節点GTとを用いて推定部113を学習することで、推定部113のベースモデルを取得する(S101)。
制御部110は、カメラ130により撮影された現場撮影画像をカメラ130から取得する(S102)。
制御部110は、現場撮影画像から人物を現場人矩形として検出する(S103)。
制御部110は、非現場人矩形の座標と、頭部の関節点520aとの関係を利用して、現場人矩形の座標から頭部の関節点の仮GTを算出する(S104)。
制御部110は、ドメイン適用により、ベースモデルをニューモデルに更新する(S105)。
制御部110は、ベースモデルおよびニューモデルにより現場人矩形からそれぞれ推定された基準関節点の精度を、それぞれ仮GTと比較することで算出する(S106)。
制御部110は、ニューモデルによる基準関節点の推定精度がベースモデルによる基準関節点の推定精度以上かどうか判断する(S107)。
制御部110は、ニューモデルによる基準関節点の推定精度がベースモデルによる基準関節点の推定精度以上と判断した場合は(S107:YES)、ニューモデルを現場で採用するモデルと判定する(S108)。制御部110は、ニューモデルによる基準関節点の推定精度がベースモデルによる基準関節点の推定精度以上でないと判断した場合は(S107:NO)、ベースモデルを現場で採用するモデルと判定する(S109)。
本発明に係る実施形態は、以下の効果を奏する。
非現場で撮影された第1画像上の、対象を含む第1部分画像の位置と、第1画像に設定された基準関節点のグランドトゥルースと、の関係を利用して、現場で撮影された第2画像上の、対象を含む第2部分画像の位置に対応する基準関節点を決定し、第2部分画像の仮グランドトゥルースとする。そして、第2部分画像から、ドメイン適用前後のモデルでそれぞれ推定された基準関節点と仮グランドトゥルースとをそれぞれ比較することで、現場で採用するモデルを判定する。これにより、ドメイン適用前のモデルとドメイン適用後のモデルの現場における推定精度の相対評価を容易にできる。
さらに、第1画像および第2画像には、直上から撮影された対象の画像が含まれ、基準関節点は、対象の頭部、肩、または腰の関節点とする。これにより、ドメイン適用前のモデルとドメイン適用後のモデルの現場における推定精度の相対評価を容易かつ正確にできる。
さらに、現場で採用するモデルの判定に用いる第2部分画像を、直上から俯瞰された位置から撮影された対象の第2部分画像でなく、所定距離以上離れた位置から撮影された対象者の第2部分画像でなく、オクルージョンが発生しにくい所定の区間で水平移動をする対象が含まれる時間的に連続する複数の第2部分画像のうち、水平移動の開始および終了の時点の対象者が含まれる第2部分画像を除く第2画像とする。これにより、仮グランドトゥルースの信頼度を向上できるため、ドメイン適用前のモデルとドメイン適用後のモデルの現場における推定精度の相対評価をより正確にできる。
以上に説明した現場学習評価プログラム、現場学習評価方法、および現場学習評価装置の構成は、上述の実施形態の特徴を説明するにあたって主要構成を説明したのであって、上述の構成に限られず、特許請求の範囲内において、種々改変することができる。また、一般的な画像処理システムが備える構成を排除するものではない。
例えば、上述したフローチャートは、一部のステップを省略してもよく、他のステップが追加されてもよい。また各ステップの一部は同時に実行されてもよく、一つのステップが複数のステップに分割されて実行されてもよい。
また、上述した実施形態においては、人物の関節点を検出するものとして説明したが、動物の関節点を検出してもよい。
また、上述した画像処理システムにおける各種処理を行う手段および方法は、専用のハードウェア回路、またはプログラムされたコンピューターのいずれによっても実現することが可能である。上記プログラムは、例えば、USBメモリやDVD(Digital Versatile Disc)−ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、ハードディスク等の記憶部に転送され記憶される。また、上記プログラムは、単独のアプリケーションソフトとして提供されてもよいし、一機能としてその検出部等の装置のソフトウエアに組み込まれてもよい。
10 画像処理システム、
100 検出部、
110 制御部、
120 通信部、
130 カメラ、
140 体動センサー、
200 通信ネットワーク、
210 アクセスポイント、
300 携帯端末、
500 対象者、
510 人矩形、
520 関節点、
520a 頭部の関節点、
520b 肩部の関節点、
520c 腰部の関節点、
520d 体幹を構成する関節点、
700 ベッド。

Claims (5)

  1. ソースドメインにおいて対象を俯瞰する位置から撮影された第1画像から、前記対象を含む部分として検出された第1部分画像と、前記第1部分画像に設定された、関節点のグランドトゥルースとを用いて学習されたベースモデルを取得する手順(a)と、
    ターゲットドメインにおいて前記対象を俯瞰する位置から撮影された第2画像から、前記対象を含む部分として検出された第2部分画像を取得する手順(b)と、
    前記第1部分画像の前記第1画像上の位置と、前記グランドトゥルースにおける所定の基準関節点と、の関係を利用して、前記第2部分画像の前記第2画像上の位置に対応する前記基準関節点を、前記第2部分画像の仮グランドトゥルースとして決定する手順(c)と、
    前記第2部分画像を用いてドメイン適用することで、前記ベースモデルをニューモデルに更新する手順(d)と、
    前記第2部分画像から、前記ベースモデルおよび前記ニューモデルを用いてそれぞれ推定された前記基準関節点と、前記仮グランドトゥルースと、をそれぞれ比較することにより、前記ベースモデルおよび前記ニューモデルのいずれかを、ターゲットドメインにおいて採用するモデルとして判定する手順(e)と、
    を有する処理を、コンピューターに実行させるための現場学習評価プログラム。
  2. 前記第1画像および前記第2画像には、直上から撮影された前記対象の画像が含まれ、
    前記基準関節点は、前記対象の頭部、肩、または腰の関節点である、請求項1に記載の現場学習評価プログラム。
  3. 前記手順(e)は、直上から俯瞰された位置から撮影された前記対象が含まれる前記第2部分画像、および所定距離以上離れた位置から撮影された前記対象が含まれる前記第2部分画像を除く、オクルージョンが発生しにくい所定の区間で水平移動をする前記対象が含まれる時間的に連続する複数の前記第2部分画像のうち、前記水平移動の開始および終了の時点の前記対象が含まれる前記第2部分画像が除かれた前記第2部分画像から、前記ベースモデルおよび前記ニューモデルを用いてそれぞれ推定された前記基準関節点と前記仮グランドトゥルースと、をそれぞれ比較することにより、前記ベースモデルおよび前記ニューモデルのいずれかを、ターゲットドメインにおいて採用するモデルとして判定する、請求項1または2に記載の現場学習評価プログラム。
  4. ソースドメインにおいて対象を俯瞰する位置から撮影された第1画像から、前記対象を含む部分として検出された第1部分画像と、前記第1部分画像に設定された、関節点のグランドトゥルースとを用いて学習されたベースモデルを取得する段階(a)と、
    ターゲットドメインにおいて前記対象を俯瞰する位置から撮影された第2画像から、前記対象を含む部分として検出された第2部分画像を取得する段階(b)と、
    前記第1部分画像の前記第1画像上の位置と、前記グランドトゥルースにおける所定の基準関節点と、の関係を利用して、前記第2部分画像の前記第2画像上の位置に対応する前記基準関節点を、前記第2部分画像の、前記基準関節点に対応する部分の仮グランドトゥルースとして決定する段階(c)と、
    前記第2部分画像を用いてドメイン適用することで、前記ベースモデルをニューモデルに更新する段階(d)と、
    前記第2部分画像から、前記ベースモデルおよび前記ニューモデルを用いてそれぞれ推定された前記基準関節点と、推定された前記基準関節点に対応する、前記仮グランドトゥルースと、をそれぞれ比較することにより、前記ベースモデルおよび前記ニューモデルのいずれかを、ターゲットドメインにおいて採用するモデルとして判定する段階(e)と、
    を有する現場学習評価方法。
  5. ソースドメインにおいて対象を俯瞰する位置から撮影された第1画像から、前記対象を含む部分として検出された第1部分画像と、前記第1部分画像に設定された、関節点のグランドトゥルースとを用いて学習されたベースモデルを取得する第1取得部と、
    ターゲットドメインにおいて前記対象を俯瞰する位置から撮影された第2画像から、前記対象を含む部分として検出された第2部分画像を取得する第2取得部と、
    前記第1部分画像の前記第1画像上の位置と、前記グランドトゥルースにおける所定の基準関節点と、の関係を利用して、前記第2部分画像の前記第2画像上の位置に対応する前記基準関節点を、前記第2部分画像の、前記基準関節点に対応する部分の仮グランドトゥルースとして決定する決定部と、
    前記第2部分画像を用いてドメイン適用することで、前記ベースモデルをニューモデルに更新する更新部と、
    前記第2部分画像から、前記ベースモデルおよび前記ニューモデルを用いてそれぞれ推定された前記基準関節点と、推定された前記基準関節点に対応する、前記仮グランドトゥルースと、をそれぞれ比較することにより、前記ベースモデルおよび前記ニューモデルのいずれかを、ターゲットドメインにおいて採用するモデルとして判定する判定部と、
    を有する現場学習評価装置。
JP2019022870A 2019-02-12 2019-02-12 現場学習評価プログラム、現場学習評価方法、および現場学習評価装置 Pending JP2020134971A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019022870A JP2020134971A (ja) 2019-02-12 2019-02-12 現場学習評価プログラム、現場学習評価方法、および現場学習評価装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019022870A JP2020134971A (ja) 2019-02-12 2019-02-12 現場学習評価プログラム、現場学習評価方法、および現場学習評価装置

Publications (1)

Publication Number Publication Date
JP2020134971A true JP2020134971A (ja) 2020-08-31

Family

ID=72278568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019022870A Pending JP2020134971A (ja) 2019-02-12 2019-02-12 現場学習評価プログラム、現場学習評価方法、および現場学習評価装置

Country Status (1)

Country Link
JP (1) JP2020134971A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022091166A1 (ja) * 2020-10-26 2022-05-05 日本電気株式会社 追跡装置、追跡システム、追跡方法、および記録媒体
JP7408731B1 (ja) 2022-07-06 2024-01-05 東芝テリー株式会社 行動検知方法、行動検知装置、行動検知システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022091166A1 (ja) * 2020-10-26 2022-05-05 日本電気株式会社 追跡装置、追跡システム、追跡方法、および記録媒体
JP7408731B1 (ja) 2022-07-06 2024-01-05 東芝テリー株式会社 行動検知方法、行動検知装置、行動検知システム

Similar Documents

Publication Publication Date Title
US10080513B2 (en) Activity analysis, fall detection and risk assessment systems and methods
JP7196645B2 (ja) 姿勢推定装置、行動推定装置、姿勢推定プログラム、および姿勢推定方法
JPWO2019239813A1 (ja) 情報処理方法、情報処理プログラム及び情報処理システム
WO2021217848A1 (zh) 人体摔倒检测方法、装置、计算机设备和存储介质
JP2020086819A (ja) 画像処理プログラムおよび画像処理装置
US20210059569A1 (en) Fall risk evaluation method, fall risk evaluation device, and non-transitory computer-readable recording medium in which fall risk evaluation program is recorded
JP2020134971A (ja) 現場学習評価プログラム、現場学習評価方法、および現場学習評価装置
JP7403132B2 (ja) 介護記録装置、介護記録システム、介護記録プログラムおよび介護記録方法
JP7347577B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
EP3819864A1 (en) Target object detection program and target object detection device
US11048924B1 (en) Action-estimating device
WO2020261404A1 (ja) 人物状態検出装置、人物状態検出方法及びプログラムが格納された非一時的なコンピュータ可読媒体
JP6822326B2 (ja) 見守り支援システム及びその制御方法
WO2021033453A1 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7314939B2 (ja) 画像認識プログラム、画像認識装置、学習プログラム、および学習装置
JP6115693B1 (ja) 対象物検出装置および対象物検出方法ならびに被監視者監視装置
JP7388440B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7435609B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
WO2023195305A1 (ja) 情報処理装置、情報処理プログラム、機械学習装置、および機械学習プログラム
JP2023075559A (ja) 画像処理装置、画像処理システム、画像処理方法、および画像処理プログラム
JP2023090360A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2022165483A (ja) 検出装置、検出システム、検出方法、および検出プログラム
JP2021033379A (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP2021065617A (ja) 画像処理装置および画像処理プログラム
JP2021103360A (ja) 情報処理装置、情報処理方法、及びプログラム