JP2018206321A - 画像処理装置、画像処理方法、及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法、及び画像処理プログラム Download PDF

Info

Publication number
JP2018206321A
JP2018206321A JP2017114613A JP2017114613A JP2018206321A JP 2018206321 A JP2018206321 A JP 2018206321A JP 2017114613 A JP2017114613 A JP 2017114613A JP 2017114613 A JP2017114613 A JP 2017114613A JP 2018206321 A JP2018206321 A JP 2018206321A
Authority
JP
Japan
Prior art keywords
person
image
type
posture
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017114613A
Other languages
English (en)
Inventor
一谷 修司
Shuji Ichitani
修司 一谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2017114613A priority Critical patent/JP2018206321A/ja
Publication of JP2018206321A publication Critical patent/JP2018206321A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Invalid Beds And Related Equipment (AREA)
  • Image Analysis (AREA)

Abstract

【課題】処理負荷を増大させることなく、高精度な行動認識を可能とする画像処理装置を提供する。【解決手段】撮像装置200が生成した画像を取得する画像取得部10と、前記画像中における、人を含む人領域を検出する人領域検出部20と、学習済みの識別器を用いて前記画像の画像解析を行い、前記人の姿勢種別を前記人領域に映る周辺物体の物体種別と共に推定する姿勢推定部30と、前記人の姿勢種別及び前記周辺物体の物体種別に基づいて、前記人の行動クラスを決定する行動判別部40と、を備える画像処理装置100である。前記識別器は、教師データの画像に対して人の姿勢種別と周辺物体の物体種別の組み合わせが関連付けられる学習処理を施す。【選択図】図3

Description

本開示は、画像処理装置、画像処理方法、及び画像処理プログラムに関する。
従来、取得した画像から人の行動を認識する技術が知られている。人の行動を認識する対象としては、例えば、高齢者介護見守りの現場において、高齢者の生活状況や自己を認識する仕組みを考慮すると、高齢者やその介助者が挙げられる。具体的には、人の行動を認識する対象としては、例えば、高齢者の場合、就寝、起床、離床、座る、しゃがむ、歩行、食事、トイレ、外出、ものを取る、等のような日常生活における基本的な行動や、転倒、転落等の事故時に起こる行動が挙げられる。
これらの行動のうち、多くの行動は人の姿勢の変化を捉えることで認識することが可能である。例えば、就寝の行動としては、人がベッドに歩いて近づき、一旦座ってから横たわることが考えられる。この際においては、立位、座位、臥位の順に人の姿勢が変動する。このような行動を認識するためには、正確な姿勢を認識することが重要である。
行動を認識する技術の一例としては、取得した画像から人の関節位置を推定する技術が考えられる。当該技術においては、推定した関節位置の関係から人の姿勢を推定し、推定した人の姿勢及び位置の変化から人の行動を認識する。
例えば、非特許文献1には、畳み込みニュートラルネットワーク(Convolutional Neural Network:以下、「CNN」と略称する)を用いて、人の姿勢を推定する技術が開示されている。
又、特許文献1には、画像から推定される人の姿勢と物体情報の位置関係に基づいて、ルールベースで行動認識を実施する技術が開示されている。
ところで、画像に映る人の行動を認識する行動認識システムにおいては、カメラと人の位置関係によって、人が同じ行動を行っていても、サイズ、向き、及び距離等の点において、画像に映る人の姿勢特徴に違いが生じるという課題がある。特に、広角カメラを用いて撮影した画像については、人の各部位の奥行き方向の位置関係を認識することが困難である。
この点、人の行動は、物体とのインタラクションとして発生するものが多いことに着目して、当該行動を認識する際には、人の姿勢特徴に加えて、周辺物体の情報を用いる手法が検討されている。
例えば、特許文献1の従来技術のように、事前に、監視対象の物体を特定しておき、当該監視対象の物体と人の位置関係等を使ったルールベースでの行動認識を実施する手法が考えられる。他方、CNN等を用いて、人の姿勢特徴と同様に、周辺物体の特徴を抽出する手法も考えられる。
しかし、いずれの手法も、着目すべき物体の種別、形状、位置又は見え方等が固定された条件下であれば、容易に行動認識が可能であるが、これらが種々に異なる環境下においては、認識すべきパターン数が膨大となってしまい、誤認識や処理負荷の増大につながってしまうという問題がある。
本開示は、上記問題点に鑑みてなされたもので、処理負荷を増大させることなく、高精度な行動認識を可能とする画像処理装置、画像処理方法、及び画像処理プログラムを提供することを目的とする。
前述した課題を解決する主たる本開示は、
撮像装置が生成した画像を取得する画像取得部と、
前記画像中における、人を含む人領域を検出する人領域検出部と、
学習済みの識別器を用いて前記画像の画像解析を行い、前記人の姿勢種別を前記人領域に映る周辺物体の物体種別と共に推定する姿勢推定部と、
前記人の姿勢種別及び前記周辺物体の物体種別に基づいて、前記人の行動クラスを決定する行動判別部と、
を備える画像処理装置であって、
前記識別器は、教師データの前記画像に対して前記人の姿勢種別と前記周辺物体の物体種別の組み合わせが関連付けられて学習処理が施された、
画像処理装置である。
又、他の側面では、
撮像装置が生成した画像を取得する処理と、
前記画像中における、人を含む人領域を検出する処理と、
学習済みの識別器を用いて前記画像の画像解析を行い、前記人の姿勢種別を前記人領域に映る周辺物体の物体種別と共に推定する処理と、
前記人の姿勢種別及び前記周辺物体の物体種別に基づいて、前記人の行動クラスを決定する処理と、
を備える画像処理方法であって、
前記識別器は、教師データの前記画像に対して前記人の姿勢種別と前記周辺物体の物体種別の組み合わせが関連付けられて学習処理が施された、
画像処理方法である。
又、他の側面では、
コンピュータに、
撮像装置が生成した画像を取得させる処理と、
前記画像中における、人を含む人領域を検出させる処理と、
学習済みの識別器を用いて前記画像の画像解析を行い、前記人の姿勢種別を前記人領域に映る周辺物体の物体種別と共に推定させる処理と、
前記人の姿勢種別及び前記周辺物体の物体種別に基づいて、前記人の行動クラスを決定させる処理と、
を実行させる画像処理プログラムであって、
前記識別器は、教師データの前記画像に対して前記人の姿勢種別と前記周辺物体の物体種別の組み合わせが関連付けられて学習処理が施された、
画像処理プログラムである。
本開示に係る画像処理装置によれば、処理負荷を増大させることなく、より高精度な行動認識が可能である。
実施形態に係る行動認識システムの一例を示す図 実施形態に係る画像処理装置のハードウェア構成の一例を示す図 実施形態に係る画像処理装置の機能ブロックの一例を示す図 実施形態に係る人領域検出部が検出する画像内における人領域の一例を示す図 「人の姿勢種別」と「周辺物体の物体種別」の組み合わせの一例を示す図 実施形態に係るCNNの構成の一例を示す図 人の姿勢種別及び周辺物体の物体種別の組み合わせの時系列データの一例を示す図 人と他者とのインタラクションの一例を示す図
以下に添付図面を参照しながら、本開示の好適な実施形態について詳細に説明する。尚、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
[行動認識システムの構成]
以下、図1〜図3を参照して、一実施形態に係る行動認識システムUの構成、及び行動認識システムUに適用した画像処理装置100の構成の概要について説明する。
図1は、本実施形態に係る行動認識システムUの一例を示す図である。
本実施形態に係る行動認識システムUは、画像処理装置100、撮像装置200、通信ネットワーク300を備えている。
撮像装置200は、例えば、一般的なカメラや広角カメラであり、カメラの撮像素子が生成した画像信号をAD変換して、画像データを生成する。本実施形態に係る撮像装置200は、フレーム単位の画像データを連続的に生成して、動画像(以下、「動画像のデータ」とも称する)を撮像可能に構成されている。
撮像装置200は、行動認識する対象の人B1が画像に映るように、部屋内の適宜な位置に設置される。尚、図1に示すように、撮像装置200は、人B1と共に、当該人B1に近接して存在する周辺物体B2を撮像する。
撮像装置200は、通信ネットワーク300を介して、画像処理装置100に対して動画像のデータを送信する。
画像処理装置100は、撮像装置200で生成された動画像のデータに基づいて、当該画像に映る人B1の行動を判別して、その結果を出力する装置である。
図2は、本実施形態に係る画像処理装置100のハードウェア構成の一例を示す図である。
画像処理装置100は、主たるコンポーネントとして、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、外部記憶装置(例えば、フラッシュメモリ)104、及び通信インターフェイス105等を備えたコンピュータである。
画像処理装置100の後述する各機能は、例えば、CPU101がROM102、RAM103、外部記憶装置104等に記憶された制御プログラム(例えば、画像処理プログラム)や各種データ(例えば、画像データ、教師データ、及び識別器Mのモデルデータ等)を参照することによって実現される。尚、RAM102は、例えば、データの作業領域や一時退避領域として機能する。
但し、各機能の一部又は全部は、CPUによる処理に代えて、又は、これと共に、DSP(Digital Signal Processor)による処理によって実現されてもよい。又、同様に、各機能の一部又は全部は、ソフトウェアによる処理に代えて、又は、これと共に、専用のハードウェア回路による処理によって実現されてもよい。
図3は、本実施形態に係る画像処理装置100の機能ブロックの一例を示す図である。
画像処理装置100は、画像取得部10、人領域検出部20、姿勢推定部30、行動判別部40、及び学習部50を備えている。
尚、図3中の矢印は、各機能の処理のフロー、及びデータD1〜D5の流れを表す。本実施形態では、画像処理装置100は、撮像装置200から動画像のデータD1を取得しており、各データD1〜D4は、フレーム毎又は複数のフレーム間隔で、連続的に生成される。
[画像取得部]
画像取得部10は、撮像装置200から、当該撮像装置200が生成した画像データD1を取得する。尚、画像取得部10は、外部記憶装置104に格納された画像データD1や、インターネット回線等を介して提供された画像データD1を取得する構成であってもよいのは勿論である。
[人領域検出部]
人領域検出部20は、画像取得部10から、画像データD1を取得して、当該画像データD1に対して所定の演算処理を施して、画像に映る人B1を含む領域(以下、「人領域」と称する)を検出する。
図4は、人領域検出部20が検出する画像中における人領域の一例を示す図である。尚、図4中において、Rallは画像の全画像領域、Rは画像中における人領域を表している。
人領域検出部20が人領域Rを検出する手法は、任意であり、例えば、動画像から、画像における差分画像を検出し、当該差分画像から人領域Rを検出する。又、人領域検出部20は、その他、学習済みのニューラルネットワーク、テンプレートマッチング、HOG(Histograms of Oriented Gradients)特徴量とSVM(Support Vector Machine)の組み合わせ、又は背景差分法等の手法を用いてもよい。
本実施形態に係る人領域検出部20は、上記手法によって、例えば、画像中に人B1が検出された領域を含む矩形領域を人領域Rと設定する。
尚、人領域Rに映る物体が、後述する姿勢推定部30において周辺物体B2と識別される。
[姿勢推定部]
姿勢推定部30は、人領域検出部20から画像データD1と人領域Rを示すデータD2を取得する。そして、姿勢推定部30は、学習済みの識別器Mを用いて当該画像データD1の画像解析を行って、画像に映る人B1の姿勢種別を、人領域Rに映る周辺物体B2の物体種別と共に推定する。
人の行動は、上記したように、物とのインタラクションと捉えることができる。例えば、「座る」という行動では、「座位」という人の姿勢と、「ベッド」や「床」という周辺物体とのインタラクションと言える。又、「物を取る」という行動では、「手を伸ばす」という人の姿勢と「ペン」等の周辺物体とのインタラクションと言える。
従って、人の行動を判別する際には、「人の姿勢種別」と「周辺物体の物体種別」の組み合わせを識別するのが望ましい。換言すると、周辺物体の物体種別の情報は、人の姿勢特徴だけでは判別することが困難な人の行動を判別する際の補完的情報となる。
しかしながら、従来技術のように、人の姿勢特徴を抽出する画像解析と周辺物体の特徴を抽出する画像解析とを別個に行った後に、これらを統合して行動クラスを推定する手法においては、人体の姿勢特徴と周辺物体の特徴の連関を抽出する処理が必要となる。加えて、人体の姿勢特徴と周辺物体の特徴の連関を抽出するためには、人の姿勢特徴と周辺物体の特徴それぞれを高精度に抽出する必要が生じる。その結果、処理負荷が増大するのみならず、推定精度も悪化するという問題が生じてしまう。
この点、CNN等の識別器Mは、一般に、教師データを用いて学習処理を行っておくことよって、入力される画像から所望の識別結果を出力し得るように、識別機能を保有することができる。
本実施形態に係る画像処理装置100は、かかる観点から、「人の姿勢種別」と「周辺物体の物体種別」を別個に推定するのではなく、「人の姿勢種別」と「周辺物体の物体種別」の組み合わせを推定し得るように学習処理を施した識別器Mを用いて、当該「人の姿勢種別」と「周辺物体の物体種別」の組み合わせを推定する。これによって、姿勢推定部30が識別するカテゴリー数自体は増加するものの、上記従来技術と比較して、より軽負荷で、且つ、より高精度に、人の姿勢種別と周辺物体の物体種別の組み合わせを識別することが可能となる。
図5は、「人の姿勢種別」と「周辺物体の物体種別」の組み合わせの一例を示す図である。
「人の姿勢種別」は、例えば、立位、中腰、座位又は臥位のような人体の姿勢の種別である。「人の姿勢種別」は、例えば、画像中に映る人B1の人体の各部位(例えば、頭部、足部、又は関節位置等)の位置や当該各部位の位置関係等の特徴から推定することができる。尚、図5中には、異なる角度から見た人の姿勢を示す。
「周辺物体の物体種別」は、人領域Rに映る周辺物体B2について、例えば、床、ベッド、車椅子、又は椅子のような物体の種別を推定したものである。「周辺物体の物体種別」は、例えば、画像に映る周辺物体B2の形状の特徴から推定することができる。
図5に示すように、本実施形態に係る姿勢推定部30は、「人の姿勢種別」と「周辺物体の物体種別」の組み合わせ毎に異なる識別符号を設定し、当該「人の姿勢種別」と「周辺物体の物体種別」の組み合わせとして、演算結果を出力する。
尚、図5に示す識別符号は、後述する識別器Mが出力する結果の一例である。例えば、座位の姿勢種別については、座位の姿勢種別と床の組み合わせでは「2,0」、座位の姿勢種別とベッドの組み合わせでは「2,1」、座位の姿勢種別と車椅子の組み合わせでは「2,2」、座位の姿勢種別と椅子の組み合わせでは「2,3」等を出力する。
姿勢推定部30は、例えば、識別器MとしてCNNを用いて、画像から「人の姿勢種別」と共に、「周辺物体の物体種別」を推定する。CNNは、演算処理の負荷が低負荷でありながら、画像中の対象物体を識別する際における、当該対象物体の位置や形状の変化に対するロバスト性が高く、高精度な画像認識が可能である。
尚、学習済みのCNNのモデルデータ(構造データ及び学習済みのパラメータデータ等)は、例えば、画像処理プログラムと共に、外部記憶装置104に格納されている。
図6は、本実施形態に係るCNNの構成の一例を示す図である。
CNNは、特徴抽出部Naと識別部Nbとを有し、特徴抽出部Naが、入力される画像から画像特徴を抽出する処理を施し、識別部Nbが、人B1の姿勢種別及び周辺物体B2の物体種別を識別する処理を施す。
特徴抽出部Naは、複数の特徴量抽出層Na1、Na2・・・が階層的に接続されて構成される。各特徴量抽出層Na1、Na2・・・は、それぞれ、畳み込み層(Convolution layer)、活性化層(Activation layer)及びプーリング層(Pooling layer)を備える。尚、図6中では、2階層の特徴量抽出層のみを示すが、特徴量抽出層の階層数は、任意である。又、又、各特徴量抽出層Na1、Na2・・・において用いるフィルター数等も、任意である。
第1層目の特徴量抽出層Na1は、入力される画像を、ラスタスキャンにより所定サイズ毎に走査する。そして、特徴量抽出層Na1は、走査したデータに対して、畳み込み層、活性化層及びプーリング層によって特徴量抽出処理を施すことにより、入力画像に含まれる特徴量を抽出する。第1層目の特徴量抽出層Na1は、例えば、水平方向に延びる線状の特徴量や斜め方向に延びる線状の特徴量等の比較的シンプルな単独の特徴量を抽出する。
第2層目の特徴量抽出層Na2は、前階層の特徴量抽出層Na1から入力される画像(特徴マップとも称される)を、例えば、ラスタスキャンにより所定サイズ毎に走査する。そして、特徴量抽出層Na2は、走査したデータに対して、同様に、畳み込み層、活性化層及びプーリング層による特徴量抽出処理を施すことにより、入力画像に含まれる特徴量を抽出する。尚、第2層目の特徴量抽出層Na2は、第1層目の特徴量抽出層Na1が抽出した複数の特徴量の位置関係などを考慮しながら統合させることで、より高次元の複合的な特徴量を抽出する。
第2層目以降の特徴量抽出層(図示せず)は、第2層目の特徴量抽出層Na2と同様の処理を実行する。そして、最終層の特徴量抽出層の出力(複数の特徴マップのマップ内の各値)が、識別部Nbに対して入力される。
識別部Nbは、例えば、複数の全結合層(Fully Connected)が階層的に接続された多層パーセプトロンによって構成される。尚、図6中では、3階層の全結合層を示すが、全結合層の階層数は、任意である。
識別部Nbの入力側の全結合層は、特徴抽出部Naから取得した複数の特徴マップのマップ内の各値に全結合し、その各値に対して重み係数を異ならせながら積和演算を行って出力する。
識別部Nbの次階層の全結合層は、前階層の全結合層の各素子が出力する値に全結合し、その各値に対して重み係数を異ならせながら積和演算を行う。そして、識別部Nbの最後段の全結合層には、識別対象とする人体の姿勢種別と周辺物体の物体種別の組み合わせ毎に、出力素子を設けておく。
識別部Nbは、例えば、多層パーセプトロンの出力層の各出力素子からの出力値に対して、ソフトマックス関数等を適用する処理を実行し、複数のカテゴリーのうち、該当するカテゴリーについて、積和演算による演算結果の値が大きくなるように識別結果を出力する。
本実施形態に係るCNNは、例えば、人領域Rの画像を入力とし(図6のInput)、例えば、姿勢種別と周辺物体の物体種別の組み合わせ毎(例えば、姿勢種別:座位、且つ、物体種別:ベッド)に、確率を出力する(図6のOutput)ように構成される。
識別部Nbから出力する姿勢種別と周辺物体の物体種別の組み合わせ毎の確率は、例えば、softmax関数を用いて、次式(1)のように表される。
Figure 2018206321
尚、CNNにおける演算処理のアルゴリズムは、公知の手法(例えば、非特許文献1を参照)と同様であるため、ここでの説明は省略する。
本実施形態に係る姿勢推定部30は、CNNの順伝播処理によって画像解析を行って、人B1の姿勢種別と周辺物体B2の物体種別の組み合わせ毎の確率を算出する。そして、姿勢推定部30は、当該姿勢種別と周辺物体の物体種別の組み合わせのうち、最大の確率の組み合わせを、画像に映る人B1の姿勢種別と周辺物体B2の物体種別と推定する。
尚、姿勢推定部30は、前処理として、画像を所定のサイズ及びアスペクト比に変換する等、画像の正規化を行ってもよい。又、姿勢推定部30は、前処理として、色分割処理、シルエット抽出処理、領域分割処理、輝度勾配抽出処理等を行ったりしてもよい。
[学習部]
学習部50は、識別器Mが人B1の姿勢種別と周辺物体B2の物体種別を識別し得るように、教師データD5を用いた機械学習を実行する。
識別器Mの識別機能は、学習部50が用いる教師データD5に依拠する。本実施形態に係る学習部50は、画像から識別器Mが人B1の姿勢種別と周辺物体B2の物体種別の組み合わせを識別し得るように、学習処理を施す。
より詳細には、学習部50は、図5を参照して説明したように、画像に対して人B1の姿勢種別と周辺物体B2の物体種別の組み合わせが関連付けられた教師データD5を用いて、識別器Mを最適化する(例えば、CNNの重み係数及びバイアス等のネットワークパラメータ)。
この際、学習部50は、例えば、識別器Mの正解クラスに所望の人B1の姿勢種別と周辺物体B2の物体種別の組み合わせを設定して、当該正解クラスに対する出力データの誤差(損失Lossとも称される)が小さくなるように学習を行う。
尚、損失関数は、例えば、softmax cross entropy関数等を用いて、次式(2)のように表される。
Figure 2018206321
この際の教師データD5の画像は、前処理として、正規化処理や所定の色変換処理等がなされたデータであってもよい。
尚、学習部50が学習処理を行う際のアルゴリズムは、公知の手法であってよい。識別器MとしてCNNを用いる場合であれば、学習部50は、例えば、公知の誤差逆伝播法を用いて、識別器Mに対して学習処理を施し、ネットワークパラメータ(重み係数、バイアス等)を調整する。そして、学習部50によって学習処理が施された識別器Mのモデルデータ(例えば、学習済みのネットワークパラメータ)は、例えば、画像処理プログラムと共に、外部記憶装置104に格納される。
かかる学習処理によって、識別器Mは、画像から人B1の姿勢種別と周辺物体B2の物体種別の組み合わせを識別し得るようになる。
[行動判別部]
行動判別部40は、姿勢推定部30から人B1の姿勢種別及び周辺物体B2の物体種別の組み合わせを示すデータD3を取得し、当該データD3に基づいて、画像に映る人B1の行動クラスを判別する。そして、行動判別部40は、当該判別結果に係るデータD4を出力する。
人の行動は、時間的連続性や、行動間での時系列的な深い関連を持っているため、人の行動クラスを判別する際には、画像データをフレーム毎に単一で行うのではなく、人の姿勢と周辺物体の時間的変化を示す時系列データも考慮するのが望ましい。例えば、「椅子から立ち上がる」という行動を判別する際には、過去の行動で「椅子に座る」という行動がされているというデータも大きな手がかりとなるためである。
本実施形態に係る行動判別部40は、かかる観点から、人B1の姿勢種別及び周辺物体の物体種別の組み合わせを示すデータD3の時間的変化に基づいて、人の行動クラスを決定する。尚、行動判別部40は、この際、例えば、予め設定された数十種類のうちのいずれの種類に該当するかを判別する。
図7は、人B1の姿勢種別及び周辺物体B2の物体種別の組み合わせの時系列データの一例について説明する図である。
図7A、図7B、図7Cは、時系列の画像であり、ここでは、図7A、図7B、図7Cの順に、人B1の姿勢が、ベッドB2に対して横になった状態から、起き上がった状態に経時的に変化する状態を示す。
図7A、図7B、図7Cの画像の右欄には、それぞれのタイミングで、姿勢推定部30が推定した人B1の姿勢種別及び周辺物体B2の物体種別の組み合わせを示している。ここでは、姿勢推定部30は、図7A、図7B、図7Cの画像について、以下のように推定しているものとする。
図7A:人B1の姿勢種別「臥位」、周辺物体B2の物体種別「ベッド」
図7B:人B1の姿勢種別「臥位」、周辺物体B2の物体種別「ベッド」
図7C:人B1の姿勢種別「座位」、周辺物体B2の物体種別「ベッド」
行動判別部40は、例えば、図7Aと図7Bの状態のように、人B1が臥位の状態でベッドB2にいる場合、人B1の行動クラスが「睡眠」に該当すると判別する。そして、行動判別部40は、図7Cのように、その後、人B1は、座位の状態でベッドB2にいるように変化した場合、かかる経時的な変化によって、人B1の行動クラスが「起床」に該当すると判別する。
行動判別部40が参照する時間的変化の情報としては、例えば、同一の人B1の姿勢種別と周辺物体B2の物体種別の組み合わせが継続している時間、直前の画像について推定された人B1の姿勢種別と周辺物体B2の物体種別の組み合わせ等が挙げられる。
又、行動判別部40は、人B1の行動クラスを判別する手法は、任意の手法であってよい。例えば、行動判別部40は、ルールベースで、行動クラスを判別してもよい。又、その他の手法としては、ニューラルネットワーク、ベイズ識別器又はSVM識別器等の識別器を用いてもよい。
以上のように、本実施形態に係る画像処理装置100は、画像に映る人B1の姿勢種別と周辺物体B2の物体種別の組み合わせを識別し得る識別器Mを用いて、人の姿勢種別を周辺物体の物体種別と共に推定する。これによって、軽負荷で、且つ、より高精度に、人の行動クラスを判別することが可能となる。
(変形例)
識別器Mが識別対象とする周辺物体B2の物体種別は、人B1とは異なる他者を含むのが望ましい。又、識別器Mは、人B1と当該他者等との位置関係も識別可能構成されるのが望ましい。
図8は、人B1と他者B2とのインタラクションの一例を示す図である。
図8A及び図8Bは、共に、人B1に近接して他者B2が存在する状態を示している。図8Aは、人B1と他者B2とが握手をしようとしている状態を示す。一方、図8Bは、他者B2が、人B1に肩をかけるようにして、当該人B1を介護している状態を示す。
このように、人B1の行動を判別する際、他者B2の存在及び当該他者B2との位置関係は、有用な情報となる。尚、かかる情報によって、例えば、人B1が他者B2に介護されながら行動しているか又は単独で行動しているか等についても、判別することが可能である。
本変形例では、他者B2との位置関係については、人領域Rに映る他者B2の存在割合が20%未満の場合(図8A)と、他者B2の存在割合が20%以上の場合(図8B)とで物体種別を異なる種別と設定している。
但し、「人と周辺物体との位置関係」は、人領域Rにおける存在割合に代えて、人B1と他者B2の距離や方向等であってもよい。
尚、本変形例の識別器Mを構成する際には、識別器Mに対して、上記実施形態と同様の学習処理を施せばよい。
以上のように、本変形例に係る画像処理装置100によれば、近接する他者についても、姿勢種別と共に識別することができる。
(その他の実施形態)
本発明は、上記実施形態に限らず、種々に変形態様が考えられる。
上記実施形態では、姿勢推定部30の一例として、CNNを識別器Mに用いる態様を示した。しかしながら、識別器Mは、CNNに限らず、学習処理を施すことによって識別機能を保有し得るその他の任意の識別器が用いられてよい。識別器Mとしては、例えば、SVM(Support Vector Machine)識別器、又は、ベイズ識別器等が用いられてもよい。
又、上記実施形態では、人B1の姿勢種別と周辺物体B2の物体種別の組み合わせに係る識別符号の設定態様の一例として、人B1の姿勢種別の識別符号と周辺物体B2の物体種別の識別符号を別個に設定する態様を示した(図5を参照)。しかしながら、識別符号の設定手法は、任意であって、「人の姿勢種別」と「周辺物体の物体種別」の組み合わせ毎に、一個の識別符号(例えば、1、2、3…等)を設定してもよい。他方、識別対象とする「周辺物体」の個数は、一個に限らず、複数個であってもよい。又、変形例に示したように、「人と周辺物体との位置関係」についても識別符号が設けられてもよい。
又、上記実施形態では、画像処理装置100の構成の一例として、学習部50を備える構成を示した。但し、予め外部記憶装置104等に、学習処理が施された識別器Mのモデルデータを記憶していれば、画像処理装置100は、必ずしも学習部50を備えている必要はない。
又、上記実施形態では、画像処理装置100の構成の一例として、画像取得部10、人領域検出部20、姿勢推定部30、行動判別部40、及び学習部50の機能が一のコンピュータによって実現されるものとして記載したが、複数のコンピュータによって実現されてもよいのは勿論である。又、当該コンピュータに読み出されるプログラムやデータも、複数のコンピュータに分散して格納されてもよい。
又、上記実施形態では、画像処理装置100の動作の一例として、画像取得部10、人領域検出部20、姿勢推定部30、行動判別部40、及び学習部50の処理を一連のフローの中で実行されるものとして示したが、これらの処理の一部又は全部が並列で実行されるものとしてもよいのは勿論である。
以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。
本開示に係る画像処理装置によれば、処理負荷を増大させることなく、より高精度な行動認識が可能である。
U 行動認識システム
10 画像取得部
20 人領域検出部
30 姿勢推定部
40 行動判別部
50 学習部
100 画像処理装置
200 撮像装置
D1 画像データ
D2 人領域データ
D3 人の姿勢種別及び周辺物体の物体種別のデータ
D4 行動クラスの判別結果のデータ
D5 教師データ

Claims (7)

  1. 撮像装置が生成した画像を取得する画像取得部と、
    前記画像中における、人を含む人領域を検出する人領域検出部と、
    学習済みの識別器を用いて前記画像の画像解析を行い、前記人の姿勢種別を前記人領域に映る周辺物体の物体種別と共に推定する姿勢推定部と、
    前記人の姿勢種別及び前記周辺物体の物体種別に基づいて、前記人の行動クラスを決定する行動判別部と、
    を備える画像処理装置であって、
    前記識別器は、教師データの前記画像に対して前記人の姿勢種別と前記周辺物体の物体種別の組み合わせが関連付けられて学習処理が施された、
    画像処理装置。
  2. 前記行動判別部は、前記撮像装置に連続的に生成された複数の前記画像における、前記人の姿勢種別及び前記周辺物体の物体種別の時間的変化に基づいて、前記人の行動クラスを決定する、
    請求項1に記載の画像処理装置。
  3. 前記識別器が識別対象とする前記周辺物体の物体種別は、前記人とは異なる他者を含む、
    請求項1又は2に記載の画像処理装置。
  4. 前記識別器は、前記人と前記周辺物体の位置関係を識別可能に構成される、
    請求項1乃至3のいずれか一項に記載の画像処理装置。
  5. 前記識別器は、畳み込みニューラルネットワークを含んで構成される、
    請求項1乃至4のいずれか一項に記載の画像処理装置。
  6. 撮像装置が生成した画像を取得する処理と、
    前記画像中における、人を含む人領域を検出する処理と、
    学習済みの識別器を用いて前記画像の画像解析を行い、前記人の姿勢種別を前記人領域に映る周辺物体の物体種別と共に推定する処理と、
    前記人の姿勢種別及び前記周辺物体の物体種別に基づいて、前記人の行動クラスを決定する処理と、
    を備える画像処理方法であって、
    前記識別器は、教師データの前記画像に対して前記人の姿勢種別と前記周辺物体の物体種別の組み合わせが関連付けられて学習処理が施された、
    画像処理方法。
  7. コンピュータに、
    撮像装置が生成した画像を取得させる処理と、
    前記画像中における、人を含む人領域を検出させる処理と、
    学習済みの識別器を用いて前記画像の画像解析を行い、前記人の姿勢種別を前記人領域に映る周辺物体の物体種別と共に推定させる処理と、
    前記人の姿勢種別及び前記周辺物体の物体種別に基づいて、前記人の行動クラスを決定させる処理と、
    を実行させる画像処理プログラムであって、
    前記識別器は、教師データの前記画像に対して前記人の姿勢種別と前記周辺物体の物体種別の組み合わせが関連付けられて学習処理が施された、
    画像処理プログラム。
JP2017114613A 2017-06-09 2017-06-09 画像処理装置、画像処理方法、及び画像処理プログラム Pending JP2018206321A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017114613A JP2018206321A (ja) 2017-06-09 2017-06-09 画像処理装置、画像処理方法、及び画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017114613A JP2018206321A (ja) 2017-06-09 2017-06-09 画像処理装置、画像処理方法、及び画像処理プログラム

Publications (1)

Publication Number Publication Date
JP2018206321A true JP2018206321A (ja) 2018-12-27

Family

ID=64958017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017114613A Pending JP2018206321A (ja) 2017-06-09 2017-06-09 画像処理装置、画像処理方法、及び画像処理プログラム

Country Status (1)

Country Link
JP (1) JP2018206321A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111507125A (zh) * 2019-01-30 2020-08-07 佳能株式会社 检测装置和方法及图像处理装置和系统
JP2020121503A (ja) * 2019-01-31 2020-08-13 セイコーエプソン株式会社 印刷装置、機械学習装置、機械学習方法、印刷制御プログラム
JPWO2020250388A1 (ja) * 2019-06-13 2020-12-17
WO2020252008A1 (en) * 2019-06-11 2020-12-17 Synaptics Incorporated Fingertip tracking for touchless input device
JP2021033343A (ja) * 2019-08-14 2021-03-01 Kddi株式会社 人物検知装置、方法およびプログラム
US11074479B2 (en) 2019-03-28 2021-07-27 International Business Machines Corporation Learning of detection model using loss function
EP3920142A2 (en) 2020-05-12 2021-12-08 Hitachi, Ltd. Video processing apparatus and video processing method
WO2022030439A1 (ja) 2020-08-07 2022-02-10 ハイパーダイン株式会社 情報処理装置、情報処理方法及びプログラム
WO2022034680A1 (ja) * 2020-08-14 2022-02-17 日本電気株式会社 物体認識装置、物体認識方法、及び、記録媒体
WO2023100330A1 (ja) * 2021-12-02 2023-06-08 日本電信電話株式会社 行動認識装置、方法およびプログラム
JP7394004B2 (ja) 2020-03-31 2023-12-07 新明和工業株式会社 特装車

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015186436A1 (ja) * 2014-06-06 2015-12-10 コニカミノルタ株式会社 画像処理装置、画像処理方法、および、画像処理プログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015186436A1 (ja) * 2014-06-06 2015-12-10 コニカミノルタ株式会社 画像処理装置、画像処理方法、および、画像処理プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
工藤 康統: "Convolutional Neural Networksを用いた人物周辺の物体とシーンを考慮した行", 第22回 画像センシングシンポジウム SSII2016 [USB] THE 22ND SYMPOSIUM ON SENSING VI, JPN6021017988, 2016, JP, ISSN: 0004666084 *
鈴木 智之: "行動遷移映像における姿勢特徴を中心とする学習を用いた時系列行動認識", 第23回 画像センシングシンポジウム SSII2017 [USB] THE 23RD SYMPOSIUM ON SENSING VI, JPN6021017987, 2017, JP, ISSN: 0004666083 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020123328A (ja) * 2019-01-30 2020-08-13 キヤノン株式会社 検出装置、及び方法、並びに画像処理装置及びシステム
CN111507125A (zh) * 2019-01-30 2020-08-07 佳能株式会社 检测装置和方法及图像处理装置和系统
JP2020121503A (ja) * 2019-01-31 2020-08-13 セイコーエプソン株式会社 印刷装置、機械学習装置、機械学習方法、印刷制御プログラム
US11074479B2 (en) 2019-03-28 2021-07-27 International Business Machines Corporation Learning of detection model using loss function
US11120305B2 (en) 2019-03-28 2021-09-14 International Business Machines Corporation Learning of detection model using loss function
WO2020252008A1 (en) * 2019-06-11 2020-12-17 Synaptics Incorporated Fingertip tracking for touchless input device
WO2020250388A1 (ja) * 2019-06-13 2020-12-17 日本電気株式会社 処理装置、処理方法及びプログラム
JPWO2020250388A1 (ja) * 2019-06-13 2020-12-17
JP7218804B2 (ja) 2019-06-13 2023-02-07 日本電気株式会社 処理装置、処理方法及びプログラム
JP2021033343A (ja) * 2019-08-14 2021-03-01 Kddi株式会社 人物検知装置、方法およびプログラム
JP7089493B2 (ja) 2019-08-14 2022-06-22 Kddi株式会社 人物検知装置、方法およびプログラム
JP7394004B2 (ja) 2020-03-31 2023-12-07 新明和工業株式会社 特装車
EP3920142A2 (en) 2020-05-12 2021-12-08 Hitachi, Ltd. Video processing apparatus and video processing method
WO2022030439A1 (ja) 2020-08-07 2022-02-10 ハイパーダイン株式会社 情報処理装置、情報処理方法及びプログラム
WO2022034680A1 (ja) * 2020-08-14 2022-02-17 日本電気株式会社 物体認識装置、物体認識方法、及び、記録媒体
JP7416261B2 (ja) 2020-08-14 2024-01-17 日本電気株式会社 物体認識装置、物体認識方法、及び、プログラム
WO2023100330A1 (ja) * 2021-12-02 2023-06-08 日本電信電話株式会社 行動認識装置、方法およびプログラム

Similar Documents

Publication Publication Date Title
JP2018206321A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
WO2018163555A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
Planinc et al. Introducing the use of depth data for fall detection
CN107205731B (zh) 健康管理辅助装置及健康管理辅助方法
Wang et al. Automatic fall detection of human in video using combination of features
JP6666488B2 (ja) 画像抽出装置
Pang et al. Automatic detection and quantification of hand movements toward development of an objective assessment of tremor and bradykinesia in Parkinson's disease
US11298050B2 (en) Posture estimation device, behavior estimation device, storage medium storing posture estimation program, and posture estimation method
WO2021186655A1 (ja) 転倒リスク評価システム
JP6658331B2 (ja) 行動認識装置及び行動認識プログラム
Planinc et al. Robust fall detection by combining 3D data and fuzzy logic
JP6977345B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
Muthukumar et al. A novel hybrid deep learning model for activity detection using wide-angle low-resolution infrared array sensor
Rastogi et al. Human fall detection and activity monitoring: a comparative analysis of vision-based methods for classification and detection techniques
Hafeez et al. Multi-sensor-based Action Monitoring and Recognition via Hybrid Descriptors and Logistic Regression
Martis et al. Reckoning of emotions through recognition of posture features
Raja et al. Design and implementation of facial recognition system for visually impaired using image processing
Baptista-Ríos et al. Human activity monitoring for falling detection. A realistic framework
US11694571B2 (en) Information processing system, information processing apparatus, and non-transitory storage medium
WO2021241293A1 (ja) 行動体特定システム
CN113271848B (zh) 身体健康状态影像分析装置、方法以及系统
Gharghabi et al. Person recognition based on face and body information for domestic service robots
Paul Ijjina Human fall detection in depth-videos using temporal templates and convolutional neural networks
Phillips II Walk detection using pulse-Doppler radar
JP7310206B2 (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190708

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191011

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210518

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211221