JP7314939B2 - 画像認識プログラム、画像認識装置、学習プログラム、および学習装置 - Google Patents

画像認識プログラム、画像認識装置、学習プログラム、および学習装置 Download PDF

Info

Publication number
JP7314939B2
JP7314939B2 JP2020528829A JP2020528829A JP7314939B2 JP 7314939 B2 JP7314939 B2 JP 7314939B2 JP 2020528829 A JP2020528829 A JP 2020528829A JP 2020528829 A JP2020528829 A JP 2020528829A JP 7314939 B2 JP7314939 B2 JP 7314939B2
Authority
JP
Japan
Prior art keywords
image
target object
learning
unit
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020528829A
Other languages
English (en)
Other versions
JPWO2020008995A1 (ja
Inventor
智也 岡▲崎▼
修司 一谷
辰也 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Publication of JPWO2020008995A1 publication Critical patent/JPWO2020008995A1/ja
Application granted granted Critical
Publication of JP7314939B2 publication Critical patent/JP7314939B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像認識プログラム、画像認識装置、学習プログラム、および学習装置に関する。
我が国は、戦後の高度経済成長に伴う生活水準の向上、衛生環境の改善、および医療水準の向上等により、長寿命化が顕著となっている。このため、出生率の低下と相まって、高齢化率が高い高齢化社会になっている。このような高齢化社会では、病気、怪我、および加齢などにより、介護等の対応を必要とする要介護者等の増加が想定される。
要介護者等は、病院や老人福祉施設などの施設において、歩行中に転倒したり、ベッドから転落して怪我をするおそれがある。そのため、要介護者等がこのような状態になったときに介護士や看護師等のスタッフがすぐに駆けつけられるようにするために、撮影画像から要介護者等の状態を検出するためのシステムの開発が進められている。このようなシステムで要介護者等の状態を検出するためには、撮影画像から検知対象である対象物体(対象者等)を高精度で検出する必要がある。
このような、撮影画像から対象物体を検出する技術に関連し、下記特許文献1には、次の技術が開示されている。ディープニューラルネットワークを用いて、撮影画像から特徴マップを生成する。特徴マップに基づいて、物体が存在すると推定される領域である候補矩形を検出する。そして、各候補矩形について物体のカテゴリーごとの信頼度スコアを算出することで、対象物体を検出する。これにより、撮影画像全体から生成した1つの特徴マップを利用して、候補矩形および信頼度スコアの両方の算出を行うことで、高精度かつ高速に対象物体を検出できる。
米国特許出願公開第2017/0206431号明細書
しかし、特許文献1に開示された技術は、予め収集された教師データを用いてディープニューラルネットワークを学習する。このため、教師データとして学習に用いた撮影画像の、対象物体以外の部分になかった画像が、対象物体を検出しようとする撮影画像の対象物体以外の部分に現れた場合、対象物体の誤検出が発生する可能性があるという問題がある。
本発明は、このような問題を解決するためになされたものである。すなわち、教師データとして学習に用いた撮影画像の、対象物体以外の部分になかった画像が、対象物体を検出しようとする撮影画像の対象物体以外の部分に現れた場合でも、対象物体の誤検出の発生を抑制できる画像認識プログラム、画像認識装置、学習プログラム、および学習装置を提供することを目的とする。
本発明の上記課題は、以下の手段によって解決される。
(1)特徴マップ生成部、物体検出部、および対象物体検出部を有する画像認識装置を制御するためのプログラムであって、対象物体を検出するための対象領域を撮影た画像を取得する手順(a)と、取得された前記画像から、前記特徴マップ生成部により特徴マップを生成する手順(b)と、生成された前記特徴マップから、前記物体検出部により物体を検出する手順(c)と、検出された前記物体の、前記対象物体に関する信頼度スコアを、前記対象物体検出部により、前記特徴マップから算出することで、前記対象物体を検出する手順(d)と、前記対象領域を撮影した画像であって、前記対象領域に前記対象物体が映っていない第1画像のみを用いる学習と、前記対象領域以外の領域を撮影した第2画像および前記第2画像に対する前記対象物体の検出結果の正解の組み合わせの教師データを用いる学習と、により前記対象物体検出部のみを学習させる調整学習を行う手順(e)と、を有する処理を、コンピューターに実行させるための画像認識プログラム。
(2)前記第1画像と前記第2画像は、それぞれ背景画像が異なる画像である、上記(1)に記載の画像認識プログラム。
(3)前記手順(e)は、前記特徴マップ生成部、前記物体検出部、および前記対象物体検出部を、前記教師データを用いて学習させる事前学習を行った後、前記対象物体検出部のみを、前記調整学習により、さらに学習させる、上記(1)または(2)に記載の画像認識プログラム。
(4)前記第2画像の前記第1画像に対する適応度の高低を推定する手順(f)をさらに有し、前記手順(e)は、手順(f)において前記適応度が高いと推定された前記第2画像を選択し、前記教師データのうち、選択された前記第2画像および当該選択された前記第2画像に対する前記対象物体の検出結果の正解の組み合わせの前記教師データを用いる学習と、前記第1画像を用いる学習と、による前記調整学習を行う、上記(1)~(3)のいずれか一項に記載の画像認識プログラム。
(5)前記手順(e)による前記調整学習の前後における前記手順(d)による前記対象物体の検出結果に基づいて、前記調整学習前の前記対象物体検出部のパラメーターの、前記調整学習後の前記対象物体検出部のパラメーターへの更新を決定するかどうかを判断する手順(g)をさらに有する、上記(1)~(4)のいずれかに記載の画像認識プログラム。
(6)前記手順(g)は、前記手順(e)による前記調整学習後における、前記手順(d)による前記対象物体の検出結果に基づいて推定された行動の精度が所定の基準を満たした場合、前記対象物体の検出結果として出力された前記対象物体を含む出力矩形の形状が所定の基準を満たした場合、前記対象物体の検出結果に基づいて推定された関節点の位置が所定の基準を満たした場合、および前記出力矩形を前記画像に重畳させて表示部に表示し、表示された前記出力矩形が許容できるというユーザーによる判断を受け付けた場合、の少なくともいずれかの場合に、前記対象物体検出部のパラメーターの、前記調整学習後の前記対象物体検出部のパラメーターへの更新を決定すると判断する、上記(5)に記載の画像認識プログラム。
(7)前記手順(g)は、前記手順(e)による前記調整学習後における、前記教師データに含まれる前記第2画像に基づく、前記手順(d)による前記対象物体の検出結果と、前記教師データに含まれる検出結果の正解との比較による検出精度と、前記調整学習前における、前記教師データに含まれる前記第2画像に基づく、前記手順(d)による前記対象物体の検出結果と、前記教師データに含まれる検出結果の正解との比較による検出精度と、を比較し、比較結果に基づいて、前記対象物体検出部のパラメーターの、前記調整学習後の前記対象物体検出部のパラメーターへの更新を決定するかどうかを判断する、上記(5)に記載の画像認識プログラム。
(8)対象物体を検出するための対象領域を撮影た画像を取得する取得部と、取得された前記画像から、特徴マップを生成する特徴マップ生成部と、生成された前記特徴マップから、物体を検出する物体検出部と、検出された前記物体の、前記対象物体に関する信頼度スコアを、前記特徴マップから算出することで、前記対象物体を検出する対象物体検出部と、前記対象領域を撮影した画像であって、前記対象領域に前記対象物体が映っていない第1画像のみを用いる学習と、前記対象領域以外の領域を撮影した第2画像および前記第2画像に対する前記対象物体の検出結果の正解の組み合わせの教師データを用いる学習と、により前記対象物体検出部のみを学習させる調整学習を行う学習部と、を有する画像認識装置。
(9)前記第1画像と前記第2画像は、それぞれ背景画像が異なる画像である、上記(8)に記載の画像認識装置。
(10)前記学習部は、前記特徴マップ生成部、前記物体検出部、および前記対象物体検出を、前記教師データを用いて学習させる事前学習を行った後、前記対象物体検出部のみを、前記調整学習により、さらに学習させる、上記(8)または(9)に記載の画像認識装置。
(11)前記第2画像の前記第1画像に対する適応度の高低を推定する推定部をさらに有し、前記学習部は、前記推定部により前記適応度が高いと推定された前記第2画像を選択し、前記教師データのうち、選択された前記第2画像および当該選択された前記第2画像に対する前記対象物体の検出結果の正解の組み合わせの前記教師データを用いる学習と、前記第1画像を用いる学習と、による前記調整学習を行う、上記(8)~(10)のいずれかに記載の画像認識装置。
(12)前記学習部による前記調整学習の前後における前記対象物体検出部による前記対象物体の検出結果に基づいて、前記調整学習前の前記対象物体検出部のパラメーターの、前記調整学習後の前記対象物体検出部のパラメーターへの更新を決定するかどうかを判断する判断部をさらに有する、上記(8)~(11)のいずれかに記載の画像認識装置。
(13)前記判断部は、前記学習部による前記調整学習後における、前記対象物体検出部による前記対象物体の検出結果に基づいて推定された行動の精度が所定の基準を満たした場合、前記対象物体の検出結果として出力された前記対象物体を含む出力矩形が所定の基準を満たした場合、前記対象物体の検出結果に基づいて推定された関節点の位置が所定の基準を満たした場合、および前記出力矩形を前記画像に重畳させて表示部に表示し、表示された前記出力矩形が許容できるというユーザーによる判断を受け付けた場合、の少なくともいずれかの場合に、前記対象物体検出部のパラメーターの、前記調整学習後の前記対象物体検出部のパラメーターへの更新を決定すると判断する、上記(12)に記載の画像認識装置。
(14)前記判断部は、前記学習部による前記調整学習後における、前記教師データに含まれる前記第2画像に基づく、前記対象物体検出部による前記対象物体の検出結果と、前記教師データに含まれる検出結果の正解との比較による検出精度と、前記調整学習前における、前記教師データに含まれる前記第2画像に基づく、前記対象物体検出部による前記対象物体の検出結果と、前記教師データに含まれる検出結果の正解との比較による検出精度と、を比較し、比較結果に基づいて、前記対象物体検出部のパラメーターの、前記調整学習後の前記対象物体検出部のパラメーターへの更新を決定するかどうかを判断する、上記(12)に記載の画像認識装置。
(15)対象物体を検出するための対象領域を撮影た画像を取得する取得部と、取得された前記画像から、特徴マップを生成する特徴マップ生成部と、生成された前記特徴マップから、物体を検出する物体検出部と、検出された前記物体の、前記対象物体に関する信頼度スコアを、前記特徴マップから算出することで、前記対象物体を検出する対象物体検出部と、を有する画像認識装置を学習させるためのプログラムであって、前記対象領域を撮影した画像であって、前記対象領域に前記対象物体が映っていない第1画像のみを用いる学習と、前記対象領域以外の領域を撮影した第2画像および前記第2画像に対する前記対象物体の検出結果の正解の組み合わせの教師データを用いる学習と、により前記対象物体検出部のみを学習させる調整学習を行う手順を、コンピューターに実行させるための学習プログラム。
(16)対象物体を検出するための対象領域を撮影た画像を取得する取得部と、取得された前記画像から、特徴マップを生成する特徴マップ生成部と、生成された前記特徴マップから、物体を検出する物体検出部と、検出された前記物体の、前記対象物体に関する信頼度スコアを、前記特徴マップから算出することで、前記対象物体を検出する対象物体検出部と、を有する画像認識装置を学習させるための学習装置であって、前記対象領域を撮影した画像であって、前記対象領域に前記対象物体が映っていない第1画像のみを用いる学習と、前記対象領域以外の領域を撮影した第2画像および前記第2画像に対する前記対象物体の検出結果の正解の組み合わせの教師データを用いる学習と、により前記対象物体検出部のみを学習させる調整学習を行う学習部を有する学習装置。
特徴マップから検出された物体ごとに、対象物体に関する信頼度スコアを特徴マップから算出することで対象物体を検出する対象物体検出部を、対象物体が映っていない第1画像と、第2画像および第2画像に対する対象物体の検出結果の正解の組み合わせの教師画像と、を用いて学習する。これにより、教師データとして学習に用いた撮影画像の、対象物体以外の部分になかった画像が、対象物体を検出しようとする撮影画像の対象物体以外の部分に現れた場合でも、対象物体の誤検出の発生を抑制できる。
画像認識装置を含む画像認識システムの概略構成を示す図である。 画像認識装置のハードウェア構成を示すブロック図である。 画像認識装置の制御部の機能を示すブロック図である。 候補矩形検出部による候補矩形の検出結果を示す図である。 信頼度スコア算出部による信頼度スコアの算出結果を示す図である。 判定部による出力矩形の検出結果を示す図である。 推定された関節点の例を示す説明図である。 対象領域の例を示す図である。 対象領域の他の例を示す図である。 基準画像が互いに異なる撮影画像を説明するための説明図である。 基準画像が互いに異なる撮影画像を説明するための説明図である。 画像認識装置の動作を示すフローチャートである。
以下、図面を参照して、本発明の実施形態に係る画像認識プログラム、画像認識装置、学習プログラム、および学習装置について説明する。なお、図面において、同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
図1は、実施形態に係る画像認識装置を含む画像認識システムの概略構成を示す図である。
画像認識システム10は、画像認識装置100、撮影装置200、通信ネットワーク300、および携帯端末400を有する。画像認識装置100は、通信ネットワーク300により撮影装置200および携帯端末400と相互に通信可能に接続される。本明細書において、対象物体とは、画像認識装置100が検出対象とする物体である。対象物体には複数のカテゴリーが含まれ得る。カテゴリーとは、画像認識装置100が認識可能な物体の種別であり、人、ベッド、机、椅子、歩行器等が含まれる。カテゴリーには、対象物体以外の物体の種別も含まれる。以下、対象物体は対象者50(すなわち、人)であるものとして説明する。
画像認識装置100は、撮影装置200により撮影された画像(以下、単に「撮影画像250」と称する(図4等参照))を、撮影装置200から受信し、撮影画像250に含まれる対象者500を対象物体として検出する。後述するように、画像認識装置100は、撮影画像250上で物体(オブジェクト)が存在する領域を検出し、検出した領域に含まれる物体のカテゴリーを推定することで、対象者500を検出する。物体が存在する領域は、撮影画像250上で物体が含まれる矩形(以下、当該矩形を「候補矩形253」と称する(図4等参照))として検出される。検出された候補矩形253のうち、物体のカテゴリーが人であると推定された候補矩形253(以下、当該候補矩形253を「出力矩形254」と称する(図6等参照))を検出することで、対象者500を検出する。なお、画像認識装置100は、出力矩形254に基づいて、対象者500の姿勢および行動をさらに検出し得る。また、推定した行動から、対象者500に関するイベントを検出し得る。イベントとは、対象者70に関する画像認識装置100等が認識した状態の変化であって、例えば、起床、離床、転倒、転落、および微体動異常等のスタッフ80に発報(報知)を行うべき事象である。画像認識装置100は、イベントを検出した場合は、イベントの内容を通知するイベント通知を携帯端末400へ送信する。画像認識装置100は、ディープニューラルネットワーク(以下、「DNN」と称する)により、対象者500を検出し得る。DNNによる対象物体の検出方法としては、例えば、Fater R-CNN、Fast R-CNN、およびR-CNNといった公知の方法が挙げられる。以下、画像認識装置100は、例として、Faster R-CNNを利用して対象者500を検出するものとして説明する。画像認識装置100は、コンピューターにより構成される。例えば、画像認識装置100は、サーバーとして構成され得る。
撮影装置200は、例えば、近赤外線カメラにより構成され、所定の位置に設置されることで、当該所定の位置を視点として俯瞰される撮影領域を撮影する。撮影装置200は、LED(Light Emitting Device)により近赤外線を撮影領域に向けて照射し、撮影領域内の物体により反射される近赤外線の反射光をCMOS(Complememtary Metal Oxide Semiconductor)センサーにより受光することで撮影領域を撮影し得る。撮影画像250は近赤外線の反射率を各画素とするモノクロ画像であり得る。所定の位置は、たとえば対象者500の居室の天井である。撮影領域は、たとえば居室の床全体を含む3次元の領域である。以下、撮影装置200は対象者500の居室の天井に設置され、画像認識装置100は、当該居室の床全体を含む3次元の撮影領域に存在する対象者500を検出対象とするものとして説明する。画像認識装置100の出荷後等に対象者500を検出する領域である、対象者500の居室等を「新たな施設」と称する。
撮影装置200は、たとえば15fps~30fpsのフレームレートの動画として撮影領域を撮影し得る。撮影画像250には動画と静止画とを含む。撮影装置200は、撮影画像250を画像認識装置100等に送信する。
撮影装置200は、コンピューターを有するセンサーボックスにより構成し得る。センサーボックスとは、近赤外線カメラおよび体動センサー等を備える箱状の装置である。この場合、画像認識装置100の機能の一部または全部をセンサーボックスが有するようにし得る。体動センサーは、ベッドに対してマイクロ波を送受信して対象者500の体動(例えば呼吸動)によって生じたマイクロ波のドップラシフトを検出するドップラシフト方式のセンサーである。
通信ネットワーク300には、イーサネット(登録商標)などの有線通信規格によるネットワークインターフェースを使用し得る。通信ネットワーク300には、Bluetooth(登録商標)、IEEE802.11などの無線通信規格によるネットワークインターフェースを使用してもよい。通信ネットワーク300には、アクセスポイント310が設けられ、携帯端末400と、画像認識装置100および撮影装置200とを無線通信ネットワークにより通信可能に接続する。
携帯端末400は、画像認識装置100からイベント通知を受信し、イベント通知の内容を表示する。また、携帯端末400は、画像認識装置100により検出された対象者500の検出結果を画像認識装置100から受信して表示する。具体的には、例えば、携帯端末400は、撮影画像250上で出力矩形254を表示することで、対象者500の検出結果を表示し得る。携帯端末400は、画像認識装置100から、対象者500の姿勢および行動の検出結果を受信して表示し得る。姿勢の検出結果には、後述するように、対象者500の関節点119(図7参照)の推定結果が含まれる。行動の検出結果には、起床、離床、転倒、転落、および微体動異常等のイベントに該当する行動の検出結果の他、入室、睡眠、および着座等の行動の検出結果が含まれる。行動の検出結果はイベント通知に含まれて受信されてもよい。携帯端末400は、撮影装置200または画像認識装置100から撮影画像250を受信して表示し得る。携帯端末400は、たとえばスマートフォンにより構成される。
図2は、画像認識装置のハードウェア構成を示すブロック図である。画像認識装置100は、制御部110、記憶部120、表示部130、入力部140、および通信部150を有する。これらの構成要素は、バス160を介して相互に接続される。
制御部110は、CPU(Central Processing Unit)により構成され、プログラムにしたがって画像認識装置100の各部の制御および演算処理を行う。制御部110の機能の詳細については後述する。
記憶部120は、RAM(Random Access Memory)、ROM(Read Only Memory)、およびSSD(Solid State Drive)により構成され得る。RAMは、制御部110の作業領域として一時的にプログラムやデータを記憶する。ROMは、あらかじめ各種プログラムや各種データを格納する。SSDは、オペレーションシステムを含む各種プログラムおよび各種データを格納する。
表示部130は、たとえば液晶ディスプレイであり、各種情報を表示する。
入力部140は、たとえばタッチパネルや各種キーにより構成される。入力部140は、各種操作、入力のために使用される。
通信部150は、外部機器と通信するためのインターフェースである。通信には、イーサネット(登録商標)、SATA、PCI Express、USB、IEEE1394などの規格によるネットワークインターフェースが用いられ得る。その他、通信には、Bluetooth(登録商標)、IEEE802.11、4Gなどの無線通信インターフェースが用いられ得る。通信部150は、撮影装置200から撮影画像250を受信する。通信部150は、イベント通知を携帯端末400へ送信する。通信部150は、撮影画像250からの対象者500の検出結果を携帯端末400へ送信する。また、通信部150は、対象者500の姿勢および行動の検出結果を携帯端末400へ送信し得る。
制御部110の機能の詳細について説明する。
図3は、画像認識装置の制御部の機能を示すブロック図である。制御部110は、画像取得部111、特徴マップ生成部112、候補矩形検出部113、出力矩形検出部114、関節点推定部115、行動推定部116、出力部117、および学習部118を有する。画像取得部111は取得部を構成する。候補矩形検出部113は物体検出部を構成する。出力矩形検出部114は対象物体検出部を構成する。学習部118は学習装置を構成する。制御部110は、さらに推定部および判断部を構成する。
画像取得部111は、通信部150を介して撮影装置200から受信した撮影画像250を取得する。
特徴マップ生成部112はDNNにより構成され、撮影画像250の畳み込み演算により、画素の特徴が抽出された特徴マップを生成する。
候補矩形検出部113はDNNにより構成され、特徴マップから撮影画像250上で物体が存在する領域を候補矩形253として検出する。候補矩形検出部113は、Faster R-CNN等のDNNを用いた公知の技術により候補矩形253を検出し得る。なお、候補矩形検出部113は、物体が存在する領域(矩形)のうち、サイズまたはアスペクト比が所定の閾値範囲内となるもののみを候補矩形253として検出してもよい。これにより、候補矩形253として検出される物体を、人の可能性が高い物体に限定することで、後段の出力矩形検出部114において出力矩形254を検出する際の演算量を抑制できる。上記所定の閾値範囲は、例えば、候補矩形253に含まれる物体が人である可能性が高い、候補矩形253のサイズまたはアスペクト比の範囲として、実験により求め得る。
図4は、候補矩形検出部による候補矩形の検出結果を示す図である。
図4の例においては、対象者500(すなわち、「人」)を含む3つの物体が候補矩形253として検出されている。
出力矩形検出部114は、信頼度スコア算出部114aおよび判定部114bを有する。信頼度スコア算出部114aはDNNにより構成され、各候補矩形253について、所定のカテゴリーごとの信頼度スコアを算出する。すなわち、対象物体である人を含む所定のカテゴリーに関する信頼度スコアを算出する。信頼度スコアは、対象物体に関する尤度である。信頼度スコア算出部114aは、Faster R-CNN等のDNNを用いた公知の技術により信頼度スコアを算出し得る。所定のカテゴリーは、例えば、人、椅子、および機具とし得る。
図5は、信頼度スコア算出部による信頼度スコアの算出結果を示す図である。
図5の例においては、例えば、対象者500(すなわち、「人」)を含む候補矩形253について、所定のカテゴリーである、人、椅子、機具に関する信頼度スコアが、それぞれ、0.9、0.1、0.0と算出されている。
判定部114bは、各候補矩形253について、信頼度スコアが最も高いカテゴリーが人であるかどうかを判定する。そして、信頼度スコアが最も高いカテゴリーが人である候補矩形253を出力矩形254として検出する。判定部114bは、人に関する信頼度スコアが0.5を超えた候補矩形253を出力矩形254として検出してもよい。なお、1つの候補矩形253に対し、所定のカテゴリーことにそれぞれ算出された信頼度スコアの和は1となる。
図6は、判定部による出力矩形の検出結果を示す図である。
図6の例においては、信頼度スコアが最も高いカテゴリーが人である候補矩形253が、出力矩形254として検出されている。すなわち、対象者500が、対象者500を含む出力矩形254として検出されている。
関節点推定部115は、出力矩形254に基づいて、対象者500の姿勢として関節点119を推定し、関節点119の検出結果として行動推定部116へ出力する。関節点推定部115は、DNNを用いた公知の方法により、出力矩形254に基づいて関節点119を推定し得る。
図7は、推定された関節点の例を示す説明図である。関節点119は出力矩形254(すなわち、撮影画像250の一部)に重畳されて示されており、関節点119の位置は白抜きの丸により示されている。関節点119には、例えば、頭、首、肩、肘、手、腰、腿、膝、および足の関節点119が含まれる。図9の例においては、各関節点119の相対的な位置関係から、対象者500が座位の姿勢にあることが認識できる。
行動推定部116は、関節点推定部115により推定された関節点119に基づいて、対象者500の行動を推定し、対象者500の行動の検出結果として出力部117へ出力する。行動推定部116は、複数の撮影画像250から推定された関節点119の時間的変化に基づいて対象者500の行動を推定し得る。行動推定部116は、例えば、新たな施設に設置されているベッドに対応する範囲として予め設定された撮影画像上の範囲と、出力矩形254または関節点119との相対的な位置関係に基づいて、対象者500の行動として、「入床」や「離床」等を推定し得る。行動推定部116は、各関節点119の平均速度が急に低下し、かつ平均速度の低下後の各関節点119により認識される姿勢が臥位であるような場合に、対象者500の行動として「転倒」を推定し得る。
出力部117は、出力矩形検出部114により検出された出力矩形254、関節点推定部115により検出された、対象者500の関節点119、および行動推定部116により検出された、対象者500の行動を出力する。
学習部118は、特徴マップ生成部112、候補矩形検出部113、および信頼度スコア算出部114aを学習させる。学習により、特徴マップ生成部112、候補矩形検出部113、および信頼度スコア算出部114aのそれぞれのDNNのパラメーターが更新される。学習は、事前学習および調整学習の2段階で行われる。
事前学習は、例えば、画像認識装置100の出荷前に、特徴マップ生成部112、候補矩形検出部113、および信頼度スコア算出部114aに対して行われる。事前学習は、誤差逆伝搬法により行われる。事前学習は、比較的大量の教師データを用いて行われる。教師データは、撮影画像250および当該撮影画像250に対する対象物体の検出結果の正解の組み合わせからなる。事前学習に用いられる教師データにおいて、対象物体の検出結果の正解と対応付けされた撮影画像を「第2画像」と、以下称する。
調整学習は、例えば、画像認識装置100の出荷後に、画像認識システム10が新たな施設において対象者500を検出するために設置された際に、信頼度スコア算出部114aに対してのみ行われる学習である。すなわち、調整学習は、画像認識システム10で実際に対象者500を検出しようとする、撮影装置200による撮影領域が設定された対象者500の居室で行われる。調整学習は誤差逆伝搬法により行われる。その際、例えば、特徴マップ生成部112および候補矩形検出部113のDNNのパラメーターについては、学習率を0、バッチノーマライゼーションのパラメーターも固定とする。信頼度スコア算出部114aのDNNのパラメーターについては、学習率を0より大きい値に設定する。これにより、信頼度スコア算出部114aのDNNのパラメーターのみが更新されるため、信頼度スコア算出部114aのみを学習させることができる。DNNのパラメーターの更新方法として、Momentum SGD、AdaGrad、RMSprop、AdaDelta、Adam等、様々なものがあり、どの方法を用いてもよい。
調整学習は、事前学習に用いた教師データと、対象者500を検出するための対象領域に対象者500(対象物体)が映っていない撮影画像(以下、「第1画像」と称する)と、を用いて行われる。ここで、対象領域は、例えば、画像認識システム10が対象者500の居室等に設置された状態で、撮影装置200により撮影される領域である。対象領域は、撮影装置200により撮影される領域のうち、対象者500を検出しない領域を除く領域であってもよい。すなわち、調整学習は、事前学習に用いた教師データを用いた学習と、第1画像を用いた学習が行われる。調整学習の、事前学習に用いた教師データを用いた学習では、後述するように、事前学習に用いた教師データの一部が選択されて用いられてもよい。第1画像を用いた学習は、具体的には、第1画像、および、対象物体が検出されないとした検出結果の正解、の組み合わせの教師データを用いて行われる。
図8は、対象領域の例を示す図である。
図8の例においては、新たな施設である居室の床全体を含む3次元の領域が対象領域とされている。
図9は、対象領域の他の例を示す図である。
図9の例においては、新たな施設である居室の撮影画像250上において、床全体が占める領域から、ベッドが占める領域(グレーの矩形で示す領域)が除かれた領域が、対象領域とされている。すなわち、撮影画像250上でベッドが占める領域がマスクされることで、対象者500を検出しない領域とされている。このように、撮影画像250上でベッドが占める領域を対象者500を検出しない領域とすることで、例えば、対象者500がベッドで睡眠している間に撮影した撮影画像250を第1画像として利用できる。
第1画像を取得する方法を例示すると、次のようなものがある。
撮影装置200を新たな施設に設置する際に、行動推定部116により対象者500の行動を推定する等のために、新たな施設に設置されたベッドが撮影画像250上で占める領域が、技術スタッフ等により撮影画像250上でベッドの4隅が指定されることで設定される。また、新たな施設である居室の床に対応する撮影画像250上の範囲が、撮影画像250上で床の4隅が指定されることで設定される。このような、撮影画像250上でベッドが占める範囲等を設定する際に撮影装置200により撮影される撮影画像250を第1画像として利用し得る。撮影装置200をセンサーボックスにより構成する場合は、センサーボックスが備えるドップラシフト方式の体動センサーにより対象者500の睡眠を検出する。そして、対象者500の睡眠を検出している間に撮影した撮影画像250から、上述のように設定された、ベッドが撮影画像250上で占める領域を撮影画像250から除外した撮影画像250を第1画像として取得し得る。椅子に着座センサーを設定することで、対象者500の椅子への着座を検出し、着座を検出している間に撮影した撮影画像250から、予め設定された、椅子が撮影画像250上で占める領域を撮影画像250から除外した撮影画像250を第1画像として取得してもよい。
撮影画像250を記憶部120に記憶しておき、撮影画像250のデータに含まれるタイムスタンプと、記憶部120に蓄積されている介護記録に記録された対象者500の行動履歴とを比較する。そして、対象者500が食事のための外出等で新たな施設が空室となっていた間の撮影画像250を選択し、第1画像として取得してもよい。
出力矩形検出部114、関節点推定部115、および行動推定部116の機能による対象者500の行動の検出アルゴリズムとは異なるアルゴリズムで対象者500の起床または離床を検出してもよい。すなわち、例えば、候補矩形検出部113により検出された候補矩形253のうち、サイズおよびアスペクト比に基づいて対象者500(すなわち、「人」)を含む可能性が高い候補矩形253を抽出してもよい。抽出された候補矩形253と、上述のように設定された、ベッドが撮影画像250上で占める領域との重なり幅に基づいて、対象者500の起床または離床を検出する。そして、撮影画像250のデータに含まれるタイムスタンプに基づいて、対象者500の起床または離床の直前(すなわち、ベッドで対象者500が寝ている可能性が高いタイミング)に撮影された撮影画像250を選択し、第1画像として取得してもよい。
第1画像と、教師データに含まれる第2画像とは、それぞれ基準画像が異なり得る。基準画像は、例えば背景画像である。
図10Aおよび図10Bは、基準画像が互いに異なる撮影画像を説明するための説明図である。
図10Aは、第2画像を示しており、図10Bは、新たな施設で撮影された撮影画像250を示している。図10Bの例に示す新たな施設で撮影された撮影画像250の、対象者500等以外の部分である背景は、第1画像の背景に対応する。図10Aの対象者500等以外の部分である背景と、図10Bの対象者500等以外の部分である背景は、異なっている。
なお、基準画像には、対象物体以外の物体(例えば、猫)が含まれてもよい。以下、説明を簡単にするために、基準画像は背景画像であるものとして説明する。
調整学習を行うのは次の理由による。すなわち、新たな施設で撮影装置200により撮影される撮影画像250の背景画像は、事前学習に用いられる教師データの第2画像の背景画像と異なることが多い。このため、画像認識装置100の第2画像に対する対象物体(すなわち、「人」)の検出精度が高くても、新たな施設で新たに撮影される撮影画像250に対する対象者500の検出精度が、第2画像に対する検出精度に対し比較的大きく低下する可能性があるからである。
調整学習を、事前学習で用いた教師データと第1画像を用いて行うのは次の理由による。すなわち、調整学習を、第1画像と、事前学習に用いる教師データとを用いて行うことにより、当該教師データに含まれる第2画像に対する対象者500の検出精度を維持しつつ、新たな施設における対象者500の検出精度の低下を抑制できるからである。また、新たな施設で、撮影画像250および当該撮影画像250に対する対象物体の検出結果の正解の組み合わせの新たな教師データを準備するのは手間がかかるからである。第1画像は、上述したように、画像認識システム10が新たな施設に設置される際に、技術スタッフ等が、撮影装置200による撮影画像250上で、居室のベッド等の配置物の位置情報の指定等を行うために、撮影される。このため、調整学習のためだけに撮影画像250を取得する必要がなく、調整学習に要する手間を抑制できる。
調整学習において、信頼度スコア算出部114aのみを学習させるのは次の理由による。すなわち、特徴マップ生成部112、および候補矩形検出部113の、事前学習に用いた教師データに含まれる第2画像に対する候補矩形253の検出精度は、比較的大量の教師データを用いた事前学習により、比較的高くなっている。調整学習において、第1画像等を用いて特徴マップ生成部112、および候補矩形検出部113を学習すると、特徴マップ生成部112、および候補矩形検出部113による第2画像に対する候補矩形253の検出精度が事前学習終了時よりも低下する可能性が比較的高いからである。また、新たな施設において撮影した撮影画像250に対する対象者500の検出精度の低下を抑制することは、事前学習で用いた教師データと第1画像を用いて信頼度スコア算出部114aを学習することで実現できるからである。
画像認識装置100の動作について説明する。
図11は、画像認識装置の動作を示すフローチャートである。本フローチャートは、記憶部120に記憶されたプログラムに従い、制御部110により実行される。
制御部110は、第2画像および当該第2画像に対する対象物体の検出結果の正解の組み合わせからなる教師データにより、特徴マップ生成部112、候補矩形検出部113、および信頼度スコア算出部114aを事前学習する(S101)。本ステップは、画像認識装置100の出荷前に行われ得る。
新たな施設において、制御部110は、撮影装置200から、対象者500が映っていない第1画像を受信することで取得する(S102)。
制御部110は、事前学習に用いた教師データを記憶部120から読み出すことで取得し、各教師データについて、第2画像の第1画像に対する適応度の高低を推定する(S103)。第2画像の第1画像に対する適応度とは、第2画像の背景画像の、第1画像の背景画像に対する類似度である。
第2画像の第1画像に対する適応度の高低は、次のように推定される。例えば、第1画像および第2画像について、それぞれ、すべての画素の輝度値に対する頻度のヒストグラムを作成し、生成された第1画像および第2画像のヒストグラムにおいてそれぞれ最頻値を示す輝度値の差を算出する。そして、当該差が所定の閾値以下である場合は適応度が高いと推定され、当該所定の閾値を超える場合は適応度が低いと推定する。所定の閾値は、実験により適当な値に設定し得る。具体的には、閾値と、当該閾値の設定により選択された第2画像を含む教師データを用いて調整学習をした後の対象者500の検出精度と、の関係を実験により求め、検出精度が最も高くなるときの閾値に設定され得る。このように、所定の閾値を設定することで、第1画像の、床の色、壁紙の色、またはカーテンの色等が類似する第2画像を、第1画像に対する第2画像の適応度が高い第2画像と推定し得る。
第2画像の第1画像に対する適応度の高低は、第2画像における居室内の荷物量が第1画像における新たな施設内の荷物量が近いかどうかにより推定してもよい。例えば、制御部110は、表示部130に第1画像と第2画像を表示し、第1画像に映った荷物量に近い荷物量が映った第2画像の、ユーザーによる選択を、入力部140により受付けることで、受け付けた第2画像の第1画像に対する適応度が高いと推定してもよい。
第2画像の第1画像に対する適応度の高低は、新たな施設の入居者の対象者500が車椅子や歩行器を使用する場合は、車椅子や歩行器を使用する対象者500が映った第2画像が第1画像に対する適応度が高いと判断してもよい。また、新たな施設の入居者の対象者500の寝巻きの素材または色と同じ素材または色の寝巻きを着た対象者500が映った第2画像が第1画像に対する適応度が高いと判断してもよい。この場合、例えば、制御部110は、表示部130に第1画像と第2画像を表示し、ユーザーによる選択を、入力部140により受付けることで、受け付けた第2画像の第1画像に対する適応度が高いと推定し得る。
第2画像の第1画像に対する適応度の高低は、第2画像が撮影された居室のカメラが設置されていた天井の高さが、第1画像が撮影された新たな施設の撮影装置200が設置された天井の高さに近いかどうかにより推定してもよい。両者が近いかどうかは、両者の差が所定の閾値以下かどうかにより判定され得る。所定の閾値は、例えば、新たな施設の天井の高さの5%~20%の間のいずれかの値に設定し得る。第2画像が撮影された居室のカメラが設置されていた天井の高さは、当該第2画像に関連付けて予め記憶部120に記憶させておき、新たな施設の天井の高さとともに記憶部120に記憶させておくことで、これらの情報を利用し得る。第2画像の第1画像に対する適応度の高低は、第2画像を撮影したカメラと、第1画像が撮影された新たな施設の撮影装置200を構成するカメラのレンズの種類またはカメラの型番とが同じかどうかにより推定してもよい。これらのレンズの種類またはカメラの型番は予め記憶部120に記憶させておいて利用し得る。
制御部110は、第1画像に対する適応度が高いと推定された第2画像および当該第2画像に対する対象物体の検出結果の正解の組み合わせからなる教師データを選択する(S104)。制御部110は、第1画像と、選択された教師データとを用いて信頼度スコア算出部114aを調整学習する(S105)。第1画像に対する適応度が高い第2画像および当該第2画像に対する対象物体の検出結果の正解の組み合わせからなる教師データを用いて調整学習をするのは、第1画像と背景画像が類似する第2画像を含む教師データとで信頼度スコア算出部114aを学習することで、新たな施設における対象者500の検出精度を効率的に向上できるからである。
施設の各居室に撮影装置200が設置されることで、当該各居室に撮影領域が設定される場合は、居室ごとに調整学習が行われ得る。この場合、居室ごとに、信頼度スコア算出部114aのパラメーターが別々に記憶部120に記憶され、居室ごとに、信頼度スコア算出部114aのパラメーターが別個独立に更新され得る。そして、居室ごとに、当該居室に対応付けされた信頼度スコア算出部114aのパラメーターを用いて、撮影画像から対象者500の検出が行われ得る。
一方、施設の各居室に撮影装置200が設置されることで、当該各居室に撮影領域が設定される場合に、全ての居室に対する共通の調整学習が行われてもよい。すなわち、全ての居室においてそれぞれ撮影された複数の第1画像と、事前学習に用いた教師データとを用いて共通の調整学習が行われてもよい。この場合、全ての居室で共通の信頼度スコア算出部114aのパラメーターが記憶部120に記憶され、更新される。そして、全ての居室で共通の信頼度スコア算出部114aのパラメーターを用いて、居室ごとに撮影画像から対象者500の検出が行われる。
さらに、信頼度スコア算出部114aのパラメーターは、1日の時間帯ごとに別々のパラメーターとしてもよい。例えば、信頼度スコア算出部114aのパラメーターを、朝、昼、夜で別々のパラメーターとし得る。信頼度スコア算出部114aのパラメーターは、消灯期間のみ別のパラメーターとしてもよい。
制御部110は、新たな施設で、撮影画像から対象者500を検出する(S106)。
制御部110は、撮影画像から対象者500を検出した検出結果を評価する。例えば、制御部110は、調整学習後における、事前学習に用いられた教師データに含まれる第2画像に基づく対象者500(すなわち、「人」)の検出精度と、当該教師データに含まれる検出結果の正解との比較による検出精度を算出する。制御部110は、調整学習前における、事前学習に用いられた教師データに含まれる第2画像に基づく対象者500の検出精度と、当該教師データに含まれる検出結果の正解との比較による検出精度を算出する。そして、それらの検出精度を比較し、比較結果に基づいて、調整学習後の信頼度スコア算出部114aのパラメーターへの更新を決定するかどうかを判断する(S108)。具体的には、例えば、調整学習後の第2画像についての検出精度が、所定の基準を満たす場合は、調整学習後の信頼度スコア算出部114aのパラメーターへの更新を決定するとし得る。所定の基準は、例えば、調整学習後の第2画像についての検出精度が、調整学習前の第2画像についての検出精度に対し、5%以下の劣化であることとし得る。なお、調整学習後の、新たな施設における対象者500に対する検出精度は、調整学習前よりも、向上していることは当然に必要である。制御部110は、次のように、調整学習後の信頼度スコア算出部114aのパラメーターへの更新を決定するかどうかを判断してもよい。例えば、調整学習後における、対象者500の出力矩形254の検出結果に基づいて推定された対象者500の行動の精度が所定の基準を満たした場合に、調整学習後の信頼度スコア算出部114aのパラメーターへの更新を決定し得る。所定の基準は、例えば、予め記憶部120に記憶された、転倒および非転倒に対応する動画に対する、調整学習後の行動推定結果において、転倒についての行動推定精度が100%で、かつ非転倒についての行動推定精度が調整学習前より5%以上向上したこととし得る。制御部110は、調整学習後における、対象者500の検出結果として出力された出力矩形254の形状が所定の基準を満たした場合に、調整学習後の信頼度スコア算出部114aのパラメーターへの更新を決定し得る。所定の基準は、例えば、事前学習に用いた教師データに含まれる、第2画像の検出結果の正解である出力矩形254のサイズおよびアスペクト比を統計処理することで得られた、平均値±3σを、すべての第2画像からの対象者500(すなわち、「人」)の検出結果(出力矩形254)において外れないこととし得る。制御部110は、調整学習後における、対象者500の出力矩形254の検出結果に基づいて推定された対象者500の関節点119の位置の精度が所定の基準を満たした場合に、調整学習後の信頼度スコア算出部114aのパラメーターへの更新を決定し得る。所定の基準は、例えば、人の関節点119としてはあり得ない関節点119の位置となっていないこと等とし得る。制御部110は、表示部130に表示させた出力矩形254が許容できるというユーザーによる判断を入力部140を介して受け付けた場合に、調整学習後の信頼度スコア算出部114aのパラメーターへの更新を決定してもよい。制御部110は、上述した所定の基準の少なくともいずれか一つを満たした場合に、調整学習後の信頼度スコア算出部114aのパラメーターへの更新を決定してもよい。
制御部110は、調整学習後の信頼度スコア算出部114aのパラメーターへの更新を決定したときは(S108:YES)、信頼度スコア算出部114aのパラメーターを調整学習後の状態に維持し、以後の対象者500の検出を行う(S109)。
制御部110は、調整学習後の信頼度スコア算出部114aのパラメーターへの更新を決定しないときは(S108:NO)、信頼度スコア算出部114aのパラメーターを調整学習前の状態に戻し、以後の対象者500の検出を行う(S109)。
本発明に係る実施形態は、以下の効果を奏する。
特徴マップから検出された物体ごとに、対象物体に関する信頼度スコアを特徴マップから算出することで対象物体を検出する対象物体検出部を、対象物体が映っていない第1画像と、第2画像および第2画像に対する対象物体の検出結果の正解の組み合わせの教師画像と、を用いて学習する。これにより、教師データとして学習に用いた撮影画像の、対象物体以外の部分になかった画像が、対象物体を検出しようとする撮影画像の対象物体以外の部分に現れた場合でも、対象物体の誤検出の発生を抑制できる。
さらに、第1画像と第2画像は、それぞれ基準画像が異なる画像とする。これにより、第2画像の背景等が第1画像の背景等と異なっていても、効果的に対象物体の誤検出の発生を抑制できる。
さらに、特徴マップ生成部、物体検出部、および対象物体検出部を、上述の教師データを用いて学習させた後、対象物体検出部を、第1画像と教師データとを用いてさらに学習させる。これにより、特徴マップ生成部および物体検出部の物体に対する検出感度を維持しつつ、対象物体検出部による新たな施設における対象物体の検出精度を向上できる。
さらに、第2画像の第1画像に対する適応度の高低を推定し、適応度が高いと推定された第2画像および当該第2画像に対する対象物体の検出結果の正解の組み合わせの教師データと、第1画像と、を用いて対象物体検出部を学習させる。これにより、新たな施設における対象物体の検出精度を効率的に向上できる。
さらに、対象物体検出部を学習させる前後における対象物体の検出結果に基づいて、対象物体検出部の学習前の対象物体検出部のパラメーターの、対象物体検出部の調整学習後の対象物体検出部のパラメーターへの更新を決定するかどうかを判断する。これにより、調整学習による対象物体の検出精度の変化を考慮して、対象物体検出部のパラメーターの更新可否を判断できる。
さらに、対象物体検出部の調整学習後における、対象物体の検出結果に基づいて推定された行動の精度が所定の基準を満たした場合、対象物体の検出結果として出力された対象物体を含む出力矩形の形状が所定の基準を満たした場合、対象物体の検出結果に基づいて推定された関節点の位置が所定の基準を満たした場合、および出力矩形を撮影画像に重畳させて表示部に表示し、表示された出力矩形が許容できるというユーザーによる判断を受け付けた場合、の少なくともいずれかの場合に、対象物体検出部のパラメーターの、調整学習後の対象物体検出部のパラメーターへの更新を決定すると判断する。これにより、比較的簡単に、調整学習による対象物体の検出精度の変化を考慮して、対象物体検出部のパラメーターの更新可否を判断できる。
さらに、調整学習後における、教師データに含まれる第2画像に基づく、対象物体の検出結果と、教師データに含まれる検出結果の正解との比較による検出精度と、調整学習前における、教師データに含まれる第2画像に基づく、対象物体の検出結果と、教師データに含まれる検出結果の正解との比較による検出精度と、を比較する。そして、比較結果に基づいて、対象物体検出部のパラメーターの、調整学習後のパラメーターへの更新を決定するかどうかを判断する。これにより、比較的簡単に、調整学習による対象物体の検出精度の変化を考慮して、対象物体検出部のパラメーターの更新可否を判断できる。
以上に説明した画像認識システム10の構成は、上述の実施形態の特徴を説明するにあたって主要構成を説明したのであって、上述の構成に限られず、特許請求の範囲内において、種々改変することができる。また、一般的な画像認識システムが備える構成を排除するものではない。
例えば、画像認識装置100が有する機能を、センサーボックスにより構成される撮影装置200、または携帯端末400が備えるようにしてもよい。
また、画像認識装置100、撮影装置200、および携帯端末400は、それぞれ複数の装置により構成されてもよく、いずれか複数の装置が単一の装置として構成されてもよい。
また、上述したフローチャートは、一部のステップを省略してもよく、他のステップが追加されてもよい。また各ステップの一部は同時に実行されてもよく、一つのステップが複数のステップに分割されて実行されてもよい。
また、対象物体は、人に限定されず、猫、器具等の複数のカテゴリーが含まれてもよい。
また、上述した画像認識システム10における各種処理を行う手段および方法は、専用のハードウェア回路、またはプログラムされたコンピューターのいずれによっても実現することが可能である。上記プログラムは、例えば、USBメモリやDVD(Digital Versatile Disc)-ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、ハードディスク等の記憶部に転送され記憶される。また、上記プログラムは、単独のアプリケーションソフトとして提供されてもよいし、一機能としてその検出部等の装置のソフトウエアに組み込まれてもよい。
本出願は、2018年7月2日に出願された日本特許出願(特願2018-126306号)に基づいており、その開示内容は、参照され、全体として、組み入れられている。

Claims (16)

  1. 特徴マップ生成部、物体検出部、および対象物体検出部を有する画像認識装置を制御するためのプログラムであって、
    対象物体を検出するための対象領域を撮影た画像を取得する手順(a)と、
    取得された前記画像から、前記特徴マップ生成部により特徴マップを生成する手順(b)と、
    生成された前記特徴マップから、前記物体検出部により物体を検出する手順(c)と、
    検出された前記物体の、前記対象物体に関する信頼度スコアを、前記対象物体検出部により、前記特徴マップから算出することで、前記対象物体を検出する手順(d)と、
    前記対象領域を撮影した画像であって、前記対象領域に前記対象物体が映っていない第1画像のみを用いる学習と、前記対象領域以外の領域を撮影した第2画像および前記第2画像に対する前記対象物体の検出結果の正解の組み合わせの教師データを用いる学習と、により前記対象物体検出部のみを学習させる調整学習を行う手順(e)と、
    を有する処理を、コンピューターに実行させるための画像認識プログラム。
  2. 前記第1画像と前記第2画像は、それぞれ背景画像が異なる画像である、請求項1に記載の画像認識プログラム。
  3. 前記手順(e)は、
    前記特徴マップ生成部、前記物体検出部、および前記対象物体検出部を、前記教師データを用いて学習させる事前学習を行った後、前記対象物体検出部のみを、前記調整学習により、さらに学習させる、請求項1または2に記載の画像認識プログラム。
  4. 前記第2画像の前記第1画像に対する適応度の高低を推定する手順(f)をさらに有し、
    前記手順(e)は、手順(f)において前記適応度が高いと推定された前記第2画像を選択し、前記教師データのうち、選択された前記第2画像および当該選択された前記第2画像に対する前記対象物体の検出結果の正解の組み合わせの前記教師データを用いる学習と、前記第1画像を用いる学習と、による前記調整学習を行う、請求項1~3のいずれか一項に記載の画像認識プログラム。
  5. 前記手順(e)による前記調整学習の前後における前記手順(d)による前記対象物体の検出結果に基づいて、前記調整学習前の前記対象物体検出部のパラメーターの、前記調整学習後の前記対象物体検出部のパラメーターへの更新を決定するかどうかを判断する手順(g)をさらに有する、請求項1~4のいずれか一項に記載の画像認識プログラム。
  6. 前記手順(g)は、前記手順(e)による前記調整学習後における、前記手順(d)による前記対象物体の検出結果に基づいて推定された行動の精度が所定の基準を満たした場合、前記対象物体の検出結果として出力された前記対象物体を含む出力矩形の形状が所定の基準を満たした場合、前記対象物体の検出結果に基づいて推定された関節点の位置が所定の基準を満たした場合、および前記出力矩形を前記画像に重畳させて表示部に表示し、表示された前記出力矩形が許容できるというユーザーによる判断を受け付けた場合、の少なくともいずれかの場合に、前記対象物体検出部のパラメーターの、前記調整学習後の前記対象物体検出部のパラメーターへの更新を決定すると判断する、請求項5に記載の画像認識プログラム。
  7. 前記手順(g)は、前記手順(e)による前記調整学習後における、前記教師データに含まれる前記第2画像に基づく、前記手順(d)による前記対象物体の検出結果と、前記教師データに含まれる検出結果の正解との比較による検出精度と、前記調整学習前における、前記教師データに含まれる前記第2画像に基づく、前記手順(d)による前記対象物体の検出結果と、前記教師データに含まれる検出結果の正解との比較による検出精度と、を比較し、比較結果に基づいて、前記対象物体検出部のパラメーターの、前記調整学習後の前記対象物体検出部のパラメーターへの更新を決定するかどうかを判断する、請求項5に記載の画像認識プログラム。
  8. 対象物体を検出するための対象領域を撮影た画像を取得する取得部と、
    取得された前記画像から、特徴マップを生成する特徴マップ生成部と、
    生成された前記特徴マップから、物体を検出する物体検出部と、
    検出された前記物体の、前記対象物体に関する信頼度スコアを、前記特徴マップから算出することで、前記対象物体を検出する対象物体検出部と、
    前記対象領域を撮影した画像であって、前記対象領域に前記対象物体が映っていない第1画像のみを用いる学習と、前記対象領域以外の領域を撮影した第2画像および前記第2画像に対する前記対象物体の検出結果の正解の組み合わせの教師データを用いる学習と、により前記対象物体検出部のみを学習させる調整学習を行う学習部と、
    を有する画像認識装置。
  9. 前記第1画像と前記第2画像は、それぞれ背景画像が異なる画像である、請求項8に記載の画像認識装置。
  10. 前記学習部は、
    前記特徴マップ生成部、前記物体検出部、および前記対象物体検出を、前記教師データを用いて学習させる事前学習を行った後、前記対象物体検出部のみを、前記調整学習により、さらに学習させる、請求項8または9に記載の画像認識装置。
  11. 前記第2画像の前記第1画像に対する適応度の高低を推定する推定部をさらに有し、
    前記学習部は、前記推定部により前記適応度が高いと推定された前記第2画像を選択し、前記教師データのうち、選択された前記第2画像および当該選択された前記第2画像に対する前記対象物体の検出結果の正解の組み合わせの前記教師データを用いる学習と、前記第1画像を用いる学習と、による前記調整学習を行う、請求項8~10のいずれか一項に記載の画像認識装置。
  12. 前記学習部による前記調整学習の前後における前記対象物体検出部による前記対象物体の検出結果に基づいて、前記調整学習前の前記対象物体検出部のパラメーターの、前記調整学習後の前記対象物体検出部のパラメーターへの更新を決定するかどうかを判断する判断部をさらに有する、請求項8~11のいずれか一項に記載の画像認識装置。
  13. 前記判断部は、前記学習部による前記調整学習後における、前記対象物体検出部による前記対象物体の検出結果に基づいて推定された行動の精度が所定の基準を満たした場合、前記対象物体の検出結果として出力された前記対象物体を含む出力矩形が所定の基準を満たした場合、前記対象物体の検出結果に基づいて推定された関節点の位置が所定の基準を満たした場合、および前記出力矩形を前記画像に重畳させて表示部に表示し、表示された前記出力矩形が許容できるというユーザーによる判断を受け付けた場合、の少なくともいずれかの場合に、前記対象物体検出部のパラメーターの、前記調整学習後の前記対象物体検出部のパラメーターへの更新を決定すると判断する、請求項12に記載の画像認識装置。
  14. 前記判断部は、前記学習部による前記調整学習後における、前記教師データに含まれる前記第2画像に基づく、前記対象物体検出部による前記対象物体の検出結果と、前記教師データに含まれる検出結果の正解との比較による検出精度と、前記調整学習前における、前記教師データに含まれる前記第2画像に基づく、前記対象物体検出部による前記対象物体の検出結果と、前記教師データに含まれる検出結果の正解との比較による検出精度と、を比較し、比較結果に基づいて、前記対象物体検出部のパラメーターの、前記調整学習後の前記対象物体検出部のパラメーターへの更新を決定するかどうかを判断する、請求項12に記載の画像認識装置。
  15. 対象物体を検出するための対象領域を撮影た画像を取得する取得部と、
    取得された前記画像から、特徴マップを生成する特徴マップ生成部と、
    生成された前記特徴マップから、物体を検出する物体検出部と、
    検出された前記物体の、前記対象物体に関する信頼度スコアを、前記特徴マップから算出することで、前記対象物体を検出する対象物体検出部と、を有する画像認識装置を学習させるためのプログラムであって、
    前記対象領域を撮影した画像であって、前記対象領域に前記対象物体が映っていない第1画像のみを用いる学習と、前記対象領域以外の領域を撮影した第2画像および前記第2画像に対する前記対象物体の検出結果の正解の組み合わせの教師データを用いる学習と、により前記対象物体検出部のみを学習させる調整学習を行う手順を、コンピューターに実行させるための学習プログラム。
  16. 対象物体を検出するための対象領域を撮影た画像を取得する取得部と、
    取得された前記画像から、特徴マップを生成する特徴マップ生成部と、
    生成された前記特徴マップから、物体を検出する物体検出部と、
    検出された前記物体の、前記対象物体に関する信頼度スコアを、前記特徴マップから算出することで、前記対象物体を検出する対象物体検出部と、を有する画像認識装置を学習させるための学習装置であって、
    前記対象領域を撮影した画像であって、前記対象領域に前記対象物体が映っていない第1画像のみを用いる学習と、前記対象領域以外の領域を撮影した第2画像および前記第2画像に対する前記対象物体の検出結果の正解の組み合わせの教師データを用いる学習と、により前記対象物体検出部のみを学習させる調整学習を行う学習部を有する学習装置。
JP2020528829A 2018-07-02 2019-06-27 画像認識プログラム、画像認識装置、学習プログラム、および学習装置 Active JP7314939B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018126306 2018-07-02
JP2018126306 2018-07-02
PCT/JP2019/025610 WO2020008995A1 (ja) 2018-07-02 2019-06-27 画像認識プログラム、画像認識装置、学習プログラム、および学習装置

Publications (2)

Publication Number Publication Date
JPWO2020008995A1 JPWO2020008995A1 (ja) 2021-08-02
JP7314939B2 true JP7314939B2 (ja) 2023-07-26

Family

ID=69060868

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020528829A Active JP7314939B2 (ja) 2018-07-02 2019-06-27 画像認識プログラム、画像認識装置、学習プログラム、および学習装置

Country Status (2)

Country Link
JP (1) JP7314939B2 (ja)
WO (1) WO2020008995A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010170202A (ja) 2009-01-20 2010-08-05 Secom Co Ltd 物体検出装置
US9141883B1 (en) 2015-05-11 2015-09-22 StradVision, Inc. Method, hard negative proposer, and classifier for supporting to collect hard negative images using a similarity map

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010170202A (ja) 2009-01-20 2010-08-05 Secom Co Ltd 物体検出装置
US9141883B1 (en) 2015-05-11 2015-09-22 StradVision, Inc. Method, hard negative proposer, and classifier for supporting to collect hard negative images using a similarity map

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Ross Girshick,"Fast R-CNN",Proceedings of the 2015 IEEE International Conference on Computer Vision (ICCV),2015年12月13日,Pages 1440-1448,ISBN: 978-1-4673-8391-2, <DOI: 10.1109/ICCV.2015.169>.
Shaoqing Ren, et al.,"Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks",IEEE Transactions on Pattern Analysis and Machine Intelligence,2016年06月06日,Vol.39, No.6,Pages 1137-1149,ISSN: 0162-8828, <DOI: 10.1109/TPAMI.2016.2577031>.
奈良先端科学技術大学院大学 OpenCVプログラミングブック制作チーム,「OpenCV プログラミングブック 第2版 OpenCV 1.1対応」,第2版,日本,株式会社 毎日コミュニケーションズ,2009年07月21日,第328,329,340~346頁,ISBN: 978-4-8399-3159-9.
田岡 創(外3名),「DNNを用いた(ロボットによる)模倣による支援動作の学習」,第23回日本ロボット学会学術講演会予稿集, [CD-ROM],Sesssion-ID: 1D22,日本,社団法人日本ロボット学会,2005年09月15日,全4頁.

Also Published As

Publication number Publication date
WO2020008995A1 (ja) 2020-01-09
JPWO2020008995A1 (ja) 2021-08-02

Similar Documents

Publication Publication Date Title
US10600204B1 (en) Medical environment bedsore detection and prevention system
JP6823160B2 (ja) ベッド転落を予測及び防止する患者監視のためのデバイス、システム、及び方法
CN112784662A (zh) 基于视频的跌倒风险评价系统
Huang et al. Multimodal sleeping posture classification
US11298050B2 (en) Posture estimation device, behavior estimation device, storage medium storing posture estimation program, and posture estimation method
JP7271915B2 (ja) 画像処理プログラムおよび画像処理装置
JP6915421B2 (ja) 見守り支援システム及びその制御方法
JP6822328B2 (ja) 見守り支援システム及びその制御方法
US10229491B1 (en) Medical environment monitoring system
JP6692987B2 (ja) ベッド転落を予測及び防止する患者監視のためのデバイス、システム、及び方法
US20210219873A1 (en) Machine vision to predict clinical patient parameters
JP2018005413A (ja) 状況特定装置、状況特定プログラム、及び状況特定方法
US10475206B1 (en) Medical environment event parsing system
JP7403132B2 (ja) 介護記録装置、介護記録システム、介護記録プログラムおよび介護記録方法
US10229489B1 (en) Medical environment monitoring system
JP7243725B2 (ja) 対象物体検出プログラム、および対象物体検出装置
JP7347577B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7314939B2 (ja) 画像認識プログラム、画像認識装置、学習プログラム、および学習装置
JP2020134971A (ja) 現場学習評価プログラム、現場学習評価方法、および現場学習評価装置
JP7351339B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP2022010581A (ja) 検知装置、検知方法、画像処理方法、およびプログラム
JP2021033379A (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7388440B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7465773B2 (ja) システム、電子機器、電子機器の制御方法、及びプログラム
JP7467300B2 (ja) システム、電子機器、電子機器の制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230626

R150 Certificate of patent or registration of utility model

Ref document number: 7314939

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150