JP5840074B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP5840074B2
JP5840074B2 JP2012124514A JP2012124514A JP5840074B2 JP 5840074 B2 JP5840074 B2 JP 5840074B2 JP 2012124514 A JP2012124514 A JP 2012124514A JP 2012124514 A JP2012124514 A JP 2012124514A JP 5840074 B2 JP5840074 B2 JP 5840074B2
Authority
JP
Japan
Prior art keywords
furniture
area
candidate
image data
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012124514A
Other languages
English (en)
Other versions
JP2013250729A (ja
Inventor
三輪 祥太郎
祥太郎 三輪
関 真規人
真規人 関
隆史 平位
隆史 平位
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2012124514A priority Critical patent/JP5840074B2/ja
Publication of JP2013250729A publication Critical patent/JP2013250729A/ja
Application granted granted Critical
Publication of JP5840074B2 publication Critical patent/JP5840074B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は画像処理装置に関し、特に、ビデオカメラ装置などの撮像装置で撮影された動画データに含まれる家具を識別する画像処理装置に関する。
非特許文献1には、単眼式の撮像装置によって撮影された散らかった部屋内の画像データから部屋の形状を復元する従来技術に係る方法が記載されている。具体的には、非特許文献1記載の方法によれば、パラメトリックな3次元の「ボックス」を用いて巨視的な部屋空間をモデル化し、散らかった物を逐次的にローカライズしてボックスを再フィッティングすることにより、散らかった物のロバスト性を取得する。ここで、ボックスをフィッティングするために、巨視的な背景の手がかりに基づいて誤差を最小にするパラメータセットを選択する構造化された学習アルゴリズムを導入する。
特開2011−100229号公報
V. Hedau, et al., "Recovering the Spatial Layout of Cluttered Rooms", Proceedings of the 12th IEEE International Conference on Computer Vision in Kyoto, September 2009, pp. 1849-1856. V. Meas-Yedid, et al., "Color image segmentation based on Markov random field clustering for histological image analysis", Proceedings of the 16th International Conference on Pattern Recognition, August 2002, vol. 1, pp. 796-799. 田村秀行著、「コンピュータ画像処理」、株式会社オーム社、2002年12月、pp.243−244。 金子敏光、他、「小領域のブロックマッチングを複数用いたロバストなオブジェクト追跡法」、電子情報通信学会論文誌、2002年7月、第J85−DII巻、第7号、pp.1188−1200。
従来技術に係る方法によれば、画像データに基づいて部屋の形状を推定できたが、部屋内の家具を自動的に識別することはできなかった。
本発明の目的は以上の問題点を解決し、動画データに含まれる家具を自動的に識別できる画像処理装置を提供することにある。
本発明に係る画像処理装置は、
部屋に固定された撮像装置からの動画データに基づいて、上記部屋内の家具を識別する画像処理装置であって、
家具の種別毎の画像の特徴量のデータを含む家具モデルデータを参照して、上記動画データから、家具を含む家具領域の候補である家具候補領域を抽出する家具候補領域抽出手段と、
上記抽出された家具候補領域を含む動画データを用いて、家具以外の移動物体の動きを表す動きベクトルを算出する動きベクトル算出手段と、
家具の種別毎に特有の人の動作に対応する所定の動きモデルベクトルを参照して、上記算出された動きベクトルと、上記動きモデルベクトルとの間の相関値を算出し、上記算出された相関値が所定のしきい値以上であるとき、上記家具候補領域が上記家具領域であると判断しかつ上記家具候補領域に含まれる家具の種別を特定する家具領域識別手段とを備え
上記動きベクトル算出手段は、
上記家具候補領域を含む家具候補周辺領域を設定する家具候補周辺領域設定手段と、
上記家具候補周辺領域内で上記家具以外の移動物体の動きを表す動きベクトルを抽出して算出する動きベクトル抽出手段とを備えたことを特徴とする。
本発明に係る画像処理装置によれば、家具の種別毎の画像の特徴量のデータを含む家具モデルデータを参照して、上記動画データから、家具を含む家具領域の候補である家具候補領域を抽出する家具候補領域抽出手段と、上記抽出された家具候補領域を含む動画データを用いて、家具以外の移動物体の動きを表す動きベクトルを算出する動きベクトル算出手段と、家具の種別毎に特有の人の動作に対応する所定の動きモデルベクトルを参照して、上記算出された動きベクトルと、上記動きモデルベクトルとの間の相関値を算出し、上記算出された相関値が所定のしきい値以上であるとき、上記家具候補領域が上記家具領域であると判断しかつ上記家具候補領域に含まれる家具の種別を特定する家具領域識別手段とを備えたので、動画データに含まれる家具を自動的に識別できる。
本発明の実施の形態1に係る画像処理装置の構成を示すブロック図である。 図1のCPU100によって実行される家具識別処理を示すフローチャートである。 図1の映像入力部1から領域分割処理部2に出力されるフレーム画像データの一例を示す写真である。 図1の家具候補矩形領域抽出部3によって得られた同一色矩形領域21〜24の一例を示す写真である。 図1の家具候補矩形領域抽出部3によって、図4の同一色矩形領域21〜24に基づいて抽出された家具候補領域31及び32の一例を示す写真である。 図1の家具候補周辺領域設定部4によって、図5の家具候補領域31に基づいて設定される家具候補周辺領域41を示すブロック図である。 図1の動きベクトル抽出部5によって、図6の家具候補周辺領域41において抽出された動きベクトル51を示す写真である。 図1の動きモデルベクトルデータ82に含まれるソファに対応する動きモデルベクトル811及び812を示す写真である。 図1の動きモデルベクトルデータ82に含まれる机に対応する動きモデルベクトル813及び814を示す写真である。 本発明の実施の形態2に係る画像処理装置の構成を示すブロック図である。 図10のCPU100Aによって実行される家具識別処理を示すフローチャートである。 図10の基準背景画像データ83の一例を示す写真である。 図10の映像入力部1から差分画像生成部9に出力されるフレーム画像データの一例を示す写真である。 図10の差分画像生成部9により、図12の基準背景画像データ83及び図13のフレーム画像データに基づいて生成される移動物体領域92の一例を示す写真である。 図10の人候補領域識別部11によって処理される家具候補領域31及び32と、移動物体領域92との一例を示す写真である。 図10の人候補領域識別部11において用いられる方位角θ及び距離Dの定義を示す写真である。 家具の種別がソファであるときの図10の相対位置モデルデータ84の一例を示す表である。
以下、本発明に係る実施の形態について図面を参照して説明する。なお、以下の各実施の形態において、同様の構成要素については同一の符号を付している。
実施の形態1.
図1は、本発明の実施の形態1に係る画像処理装置の構成を示すブロック図であり、図2は、図1のCPU(Central Processing Unit)100によって実行される家具識別処理を示すフローチャートである。図1において、本実施の形態に係る画像処理装置は、映像入力部1と、CPU100と、記憶部8とを備えて構成される。また、CPU100は、家具候補領域抽出部101と、動きベクトル算出部102と、家具領域識別部6と、家具情報出力部7とを備えて構成される。さらに、家具候補領域抽出部101は、領域分割処理部2と、家具候補矩形領域抽出部3とを備えて構成され、動きベクトル算出部102は、家具候補周辺領域設定部4と、動きベクトル抽出部5とを備えて構成される。ここで、映像入力部1はインタフェース回路であって、部屋に固定されたビデオカメラ装置などの撮像装置からの動画データに対して画像処理装置とのインタフェース処理を実行して、部屋内の画像を含むフレーム画像データとして領域分割処理部2に出力する。図3は、図1の映像入力部1から領域分割処理部2に出力されるフレーム画像データの一例を示す写真である。また、図1において、記憶部8は、詳細後述する家具モデルデータ81及び動きモデルベクトルデータ82をあらかじめ記憶する記憶装置である。ここで撮像装置からの動画データは、可視画像以外に、熱画像をサーモグラフィのように可視化した画像を用いてもよい。
詳細後述するように、本実施の形態に係る画像処理装置は、部屋に固定された撮像装置からの動画データに基づいて、部屋内の家具を識別する画像処理装置であって、
家具の種別毎の画像の特徴量のデータを含む家具モデルデータ81を参照して、動画データから、家具を含む家具領域の候補である家具候補領域を抽出する家具候補領域抽出部101と、
抽出された家具候補領域を含む動画データを用いて、家具以外の移動物体の動きを表す動きベクトルを算出する動きベクトル算出部102と、
家具の種別毎に特有の人の動作に対応する所定の動きモデルベクトルを参照して、算出された動きベクトルと、動きモデルベクトルとの間の相関値を算出し、算出された相関値が所定のしきい値以上であるとき、家具候補領域が家具領域であると判断しかつ家具候補領域に含まれる家具の種別を特定する家具領域識別部6とを備えたことを特徴とする。
ここで、動きベクトル算出部102は、家具候補領域を含む家具候補周辺領域を設定する家具候補周辺領域設定部4と、家具候補周辺領域内で家具以外の移動物体の動きを表す動きベクトルを抽出して算出する動きベクトル抽出部5とを備えたことを特徴とする。
図1において、CPU100は、領域分割処理部2と、家具候補矩形領域抽出部3と、家具候補周辺領域設定部4と、動きベクトル抽出部5と、家具領域識別部6と、家具情報出力部7とを制御するほか、図2の家具識別処理のプログラムを含む種々のソフトウェアの機能を実行する。なお、本実施の形態において、領域分割処理部2と、家具候補矩形領域抽出部3と、家具候補周辺領域設定部4と、動きベクトル抽出部5と、家具領域識別部6と、家具情報出力部7との各機能は、各部2〜7の機能に対応するプログラムをCPU100が実行することによって実現されるが、本発明はこれに限られず、各部2〜7の機能に対応するハードウエア回路を構成して実現されてもよい。
次に、図2〜図9を参照して、図1のCPU100によって実行される家具識別処理を説明する。図2のステップS1において、領域分割処理部2が、映像入力部1からのフレーム画像データを複数の同一色領域に分割する。具体的には、領域分割処理部2は、例えば非特許文献2に記載されたマルコフランダムフィールド法を用いたクラスタリングによって、色情報に基づく領域分割処理を行い、フレーム画像データを、実質的に同一の色をそれぞれ有する同一色領域に分割する。
次に、図2のステップS2において、家具候補矩形領域抽出部3が、家具モデルデータ81を参照して、同一色領域を用いて矩形の家具候補領域を抽出する。ここで、家具モデルデータ81は、ソファ、机、及び箪笥などの家具の種別毎に、撮像装置のカメラ座標系での各家具の矩形形状の画像データの重心位置、横幅、高さ、縦横比、エッジ形状及び色の各データを含む。家具候補矩形領域抽出部3は、同一色領域毎に、同一色領域を含む最小の同一色矩形領域を得た後に、各同一色矩形領域の重心位置、横幅、高さ、縦横比、エッジ形状及び色と、家具の種別毎の家具モデルデータ81とを用いて、各矩形領域の家具領域らしさを示す尤度を算出する。そして、算出された尤度が所定のしきい値以上であるときに、同一色矩形領域に対応する家具モデルデータ81の重心位置、横幅及び高さを有する領域を、家具を含む家具領域の候補である家具候補領域として抽出する。
図4は、図1の家具候補矩形領域抽出部3によって得られた同一色矩形領域21〜24の一例を示す写真である。また、図5は、図1の家具候補矩形領域抽出部3によって、図4の同一色矩形領域21〜24に基づいて抽出された家具候補領域31及び32の一例を示す写真である。図4及び図5に示すように、図4の同一色矩形領域21〜24から、同一色矩形領域21に対応する家具候補領域31が抽出され、同一色矩形領域22に対応する家具候補領域32が抽出されている。
次に、図2のステップS3において、家具候補周辺領域設定部4が、家具候補領域を含む家具候補周辺領域を設定する。具体的には、家具候補周辺領域設定部4は、家具候補矩形領域抽出部3によって抽出された各家具候補領域を、当該領域の重心を中心として、例えば120%である所定の割合で拡大することにより、家具候補領域毎に家具候補周辺領域を設定する。図6は、図1の家具候補周辺領域設定部4によって、図5の家具候補領域31に基づいて設定される家具候補周辺領域41を示すブロック図である。図5において、家具候補周辺領域41は、家具候補領域31を、重心31cを中心として所定の割合で拡大した領域である。
次に、図2のステップS4において、動きベクトル抽出部5が、家具候補周辺領域を含む動画データに対応する複数のフレーム画像データを用いて、家具候補周辺領域内で家具以外の移動物体の動きを表す動きベクトルを抽出して算出する。具体的には、動きベクトル抽出部は、各家具候補周辺領域において、非特許文献3記載のモラベックオペレータを用いる方法により動きベクトルを抽出する。なお、動きベクトルを、フレーム画像データのフレーム間差分(特許文献3参照。)などの他のパラメータを用いて抽出してもよい。図7は、図1の動きベクトル抽出部5によって、図6の家具候補周辺領域41において抽出された動きベクトル51を示す写真である。図5に示すように、家具候補周辺領域41の右上部分において、複数の動きベクトル51が抽出されている。
次に、図2のステップS5において、家具領域識別部6が、動きモデルベクトルデータ82に含まれる家具の種別毎の動きモデルベクトルを参照して、算出された動きベクトルと、動きモデルベクトルとの間の相関値を算出し、算出された相関値が所定のしきい値以上であるとき、家具候補領域が家具領域であると判断しかつ家具候補領域に含まれる家具の種別を特定する。より具体的には、図2のステップS5において、家具領域識別部6は、家具候補周辺領域毎に、動きベクトル抽出部5によって抽出された動きベクトルと、動きモデルベクトルデータ82に含まれる家具の種別毎の動きモデルベクトルとの間の相関値を算出して、算出された相関値が所定のしきい値以上であるとき家具候補周辺領域が家具領域であると判断する一方、算出された相関値が所定のしきい値未満であるとき家具候補周辺領域が非家具領域であると判断する。ここで、動きベクトルと動きモデルベクトルとの間の相関値は、動きベクトルと動きモデルベクトルとがなす角の余弦、動きベクトルと動きモデルベクトルとの内積、又は動きベクトルと動きモデルベクトルとのユークリッド距離に基づいて算出される。
ここで、動きモデルベクトルデータ82は、ソファ、机及び箪笥などの家具の種別毎に、家具の周辺での人の特有の動作に対応する動きモデルベクトルのデータを含む。図8は、図1の動きモデルベクトルデータ82に含まれるソファに対応する動きモデルベクトル811及び812を示す写真である。一般に、ソファに対しては、人800は座る動作及び立つ動作を行うので、ソファに対応する動きベクトルは、上向きの動きモデルベクトル811及び下向きの動きモデルベクトル812である。また、図9は、図1の動きモデルベクトルデータ82に含まれる机に対応する動きモデルベクトル813及び814を示す写真である。一般に、机に対しては、人800は机の上の物を取る動作及び机の上に物を置く動作を行うので、机に対応する動きベクトルは、右方向の動きモデルベクトル813及び左方向の動きモデルベクトル814である。
次に、図2のステップS6において、家具情報出力部7が、家具領域であると識別された家具候補周辺領域内の家具候補領域と、当該家具候補領域内の家具の種別とを家具情報として出力して家具識別処理を終了する。
一般に、家具は人の生活の中で特定の役目を果たしており、家具の種別毎に人は特定の動作を行う。本実施の形態によれば、動きベクトル抽出部5は、家具候補周辺領域を含む複数のフレーム画像データを用いて家具候補周辺領域内の動きベクトルを抽出し、家具領域識別部6は、家具候補周辺領域内の動きベクトルと、家具の種別毎の人の動作に対応する動きモデルベクトルとの相関値に基づいて家具候補周辺領域が家具領域であるか否かを識別する。従って、本実施の形態によれば、動画データに基づいて家具を自動的に識別できる。
従来は、1枚のフレーム画像データのみに基づいて家具をすることは難しかったが、本実施の形態によれば、家具候補周辺領域を含む複数のフレーム画像データを用いて家具候補周辺領域内の動きベクトルを抽出して用いるので、家具を識別できる。
実施の形態2.
図10は、本発明の実施の形態2に係る画像処理装置の構成を示すブロック図であり、図11は、図10のCPU100Aによって実行される家具識別処理を示すフローチャートである。図10において、本実施の形態に係る画像処理装置は、映像入力部1と、CPU100Aと、記憶部8Aとを備えて構成される。また、CPU100Aは、家具候補領域抽出部101と、動きベクトル算出部102Aと、家具領域識別部13と、家具情報出力部14と、人領域出力部15とを備えて構成される。さらに、家具候補領域抽出部101は、領域分割処理部2と、家具候補矩形領域抽出部3とを備えて構成され、動きベクトル算出部102Aは、差分画像生成部9と、移動物体領域抽出部10と、人候補領域識別部11と、動きベクトル抽出部12とを備えて構成される。ここで、映像入力部1と、領域分割処理部2と、家具候補矩形領域抽出部3とは、実施の形態1に係る領域分割処理部2と、家具候補矩形領域抽出部3と同様に動作するので説明を省略する。また、記憶部8Aは、実施の形態1に係る家具モデルデータ81及び動きモデルベクトルデータ82と同様の家具モデルデータ81及び動きモデルベクトルデータ82と、詳細後述する基準背景画像データ83及び相対位置モデルデータ84とをあらかじめ記憶する記憶装置である。
詳細後述するように、本実施の形態に係る画像処理装置は、第1の実施の形態に係る画像処理装置に比較して、動きベクトル算出部102に代えて動きベクトル算出部102Aを備えたことを特徴とする。
ここで、動きベクトル算出部102Aは、動画データに含まれるフレーム画像データから、あらかじめ用意された部屋内に移動物体が存在しないときのフレーム画像データである基準背景画像データ83を減算することにより、差分画像データを生成する差分画像生成部9と、差分画像データにおいて所定のしきい値以上の差分値を有する領域を、移動物体を含む移動物体領域として抽出する移動物体領域抽出部10と、家具候補領域に対する移動物体領域の相対位置のデータを算出し、算出された相対位置のデータに基づいて、家具の種別毎に家具に対する人の相対位置のデータを含む所定の相対位置モデルデータを参照して、移動物体領域が、人を含む人領域の候補である人候補領域であるか否かを識別する人候補領域識別部11と、人候補領域であると識別された移動物体領域を含む動画データを用いて、当該人候補領域の動きを表す動きベクトルを抽出して算出する動きベクトル抽出部12とを備えたことを特徴とする。
図10において、CPU100Aは、領域分割処理部2と、家具候補矩形領域抽出部3と、差分画像生成部9と、移動物体領域抽出部10と、人候補領域識別部11と、動きベクトル抽出部12と、家具領域識別部13と、家具情報出力部14と、人領域出力部15とを制御するほか、図11の家具識別処理のプログラムを含む種々のソフトウェアの機能を実行する。なお、本実施の形態において、領域分割処理部2と、家具候補矩形領域抽出部3と、差分画像生成部9と、移動物体領域抽出部10と、人候補領域識別部11と、動きベクトル抽出部12と、家具領域識別部13と、家具情報出力部14と、人領域出力部15との各機能は、各部2,3,9〜15の機能に対応するプログラムをCPU100Aが実行することによって実現されるが、本発明はこれに限られず、各部2,3,9〜15の機能に対応するハードウエア回路を構成して実現されてもよい。
次に、図11〜図17を参照して、図10のCPU100Aによって実行される家具識別処理を説明する。図11の家具識別処理において、CPU100Aは、始めに、図2の家具識別処理のステップS1及びS2の各処理と同一の処理を実行する。ステップS2に続いて、ステップS11において、差分画像生成部9が、映像入力部1からのフレーム画像データと基準背景画像データ83とを用いて差分画像データを生成する。ここで、基準背景画像データ83は、撮像装置が固定されている部屋に人などの移動物体が存在しないときのあらかじめ用意されたフレーム画像データである。差分画像生成部9は、映像入力部1からのフレーム画像データから基準背景画像データ83を減算することにより、差分画像データを生成する。ここで、差分画像データの各画素は差分後の画素値を有する。図12は、図10の基準背景画像データ83の一例を示す写真であり、図13は、図10の映像入力部1から差分画像生成部9に出力されるフレーム画像データの一例を示す写真である。
次に、図11のステップS12において、移動物体領域抽出部10が、差分画像データにおいて所定のしきい値以上の差分値を有する領域を、移動物体領域として抽出する。ここで、移動物体領域は人などの移動物体を含む。図14は、図10の差分画像生成部9により、図12の基準背景画像データ83及び図13のフレーム画像データに基づいて生成される移動物体領域92の一例を示す写真である。
次に、図11のステップS13において、人候補領域識別部11が、相対位置モデルデータ84を用いて、移動物体領域が人を含む人領域の候補である人候補領域であるか否かを判断する。図15は、図10の人候補領域識別部11によって処理される家具候補領域31及び32と、移動物体領域92との一例を示す写真である。
一般に、家具に対する人の相対位置は家具の種別によって異なる。相対位置モデルデータ84は、家具の種別毎に、カメラ座標での家具領域の重心位置に対する人を含む人領域の重心位置の相対的な方位角θと、家具領域の重心位置から人領域の重心位置までの相対的なしきい値距離Dtとの関係を含む。図16は、図10の人候補領域識別部11において用いられる方位角θ及び距離Dの定義を示す写真であり、図17は、家具の種別がソファであるときの図10の相対位置モデルデータ84の一例を示す表である。
図11のステップS13において、人候補領域識別部11は、例えば、図16において、家具候補領域31の重心31cに対する移動物体領域92の重心92cの方位角θ及び家具候補領域31の重心31cと移動物体領域92の重心92cとの間の距離Dを家具候補領域31に対する移動物体領域92の相対位置として算出する。そして、相対位置モデルデータ84を参照し、方位角θにおいて距離Dが図17のしきい値距離Dt以下であるとき、移動物体領域92が人候補領域であると判断する。なお、図17において、方位角θが0,45,…315度のときのしきい値距離Dtしか設定されていないが、人候補領域識別部11は、これらの方位角θ以外の各方位角におけるしきい値距離Dtを、図17の相対位置モデルデータ84を補間することによって得る。
次に、図11のステップS14において、動きベクトル抽出部12が、人候補領域であると識別された移動物体領域を含む複数のフレーム画像データ(動画データである。)を用いて、ステップS13において得られた人候補領域の動きを表す動きベクトルを抽出して算出する。具体的には、動きベクトル抽出部12は、非特許文献4記載のオブジェクト追跡法を用いて、人候補領域を小ブロックに分割したブロックマッチングにより、人候補領域の動きベクトルを抽出する。
次に、図11のステップS15において、家具領域識別部13が、家具領域識別部13が、動きモデルベクトルデータ82に含まれる家具の種別毎の動きモデルベクトルを参照して、算出された動きベクトルと、動きモデルベクトルとの間の相関値を算出し、算出された相関値が所定のしきい値以上であるとき、家具候補領域が家具領域であると判断しかつ家具候補領域に含まれる家具の種別を特定する。ステップS15における処理は、図12のステップS5における処理と同様であるので説明を省略する。なお、ステップS15において、家具領域識別部13は、家具候補領域が家具領域であると判断した場合、人候補領域は人を含む人領域であると判断する一方、家具候補領域が非家具領域であると判断した場合、人候補領域は人を含まないと判断する。ステップS15に続いて、ステップS16において、家具情報出力部14が、家具領域であると識別された家具候補領域と、当該家具候補領域内の家具の種別とを家具情報として出力し、人領域出力部15が、人領域の情報を人領域情報として出力して家具識別処理を終了する。
一般に、家具は人の生活の中で特定の役目を果たしており、家具の種別毎に人は特定の動作を行う。さらに、人は、家具に対して特定の動作を行うために、必然的に家具の近くに存在する。また、部屋内の動画データにおいて、家具を含む部屋の背景は実質的に変化せず定常状態であるが、人は部屋の中で動き続けていることが多いので、差分画像生成部9及び移動物体領域抽出部10により、映像入力部からのフレーム画像データから基準背景画像データ83を減算することにより、人らしい移動物体領域を抽出できる。さらに、本実施の形態によれば、家具候補領域に対する移動物体領域の相対位置が所定の範囲内にあるときに、移動物体領域の動きベクトルと動きモデルベクトルデータ82の動きベクトルとの間の相関値に基づいて、家具候補領域が家具領域であるか否かを識別するので、部屋内の動画データに基づいて、部屋内の家具を識別できる。
なお、上記各実施の形態において、家具モデルデータ81は、ソファ、机、及び箪笥などの家具の種別毎に、撮像装置のカメラ座標系での各家具の矩形形状の画像の重心位置、横幅、高さ、縦横比、エッジ形状及び色の各データを含んだが、本発明はこれに限られず、家具モデルデータ81は家具の種別毎の画像の特徴量のデータを含めばよい。
以上説明したように、本発明に係る画像処理装置によれば、家具の種別毎の画像の特徴量のデータを含む家具モデルデータを参照して、上記動画データから、家具を含む家具領域の候補である家具候補領域を抽出する家具候補領域抽出手段と、上記抽出された家具候補領域を含む動画データを用いて、家具以外の移動物体の動きを表す動きベクトルを算出する動きベクトル算出手段と、家具の種別毎に特有の人の動作に対応する所定の動きモデルベクトルを参照して、上記算出された動きベクトルと、上記動きモデルベクトルとの間の相関値を算出し、上記算出された相関値が所定のしきい値以上であるとき、上記家具候補領域が上記家具領域であると判断しかつ上記家具候補領域に含まれる家具の種別を特定する家具領域識別手段とを備えたので、動画データに含まれる家具を自動的に識別できる。
1 映像入力部、2 領域分割処理部、3 家具候補矩形領域抽出部、4 家具候補周辺領域設定部、5 動きベクトル抽出部、6 家具領域識別部、7 家具情報出力部、8,8A 記憶部、9 差分画像生成部、10 移動物体領域抽出部、11 人候補領域識別部、12 動きベクトル抽出部、13 家具領域識別部、14 家具情報出力部、15 人領域出力部、81 家具モデルデータ、82 動きモデルベクトルデータ、83 基準背景画像データ、84 相対位置モデルデータ、101 家具候補領域抽出部、102,102A 動きベクトル算出部。

Claims (2)

  1. 部屋に固定された撮像装置からの動画データに基づいて、上記部屋内の家具を識別する画像処理装置であって、
    家具の種別毎の画像の特徴量のデータを含む家具モデルデータを参照して、上記動画データから、家具を含む家具領域の候補である家具候補領域を抽出する家具候補領域抽出手段と、
    上記抽出された家具候補領域を含む動画データを用いて、家具以外の移動物体の動きを表す動きベクトルを算出する動きベクトル算出手段と、
    家具の種別毎に特有の人の動作に対応する所定の動きモデルベクトルを参照して、上記算出された動きベクトルと、上記動きモデルベクトルとの間の相関値を算出し、上記算出された相関値が所定のしきい値以上であるとき、上記家具候補領域が上記家具領域であると判断しかつ上記家具候補領域に含まれる家具の種別を特定する家具領域識別手段とを備え
    上記動きベクトル算出手段は、
    上記家具候補領域を含む家具候補周辺領域を設定する家具候補周辺領域設定手段と、
    上記家具候補周辺領域内で上記家具以外の移動物体の動きを表す動きベクトルを抽出して算出する動きベクトル抽出手段とを備えたことを特徴とする画像処理装置。
  2. 部屋に固定された撮像装置からの動画データに基づいて、上記部屋内の家具を識別する画像処理装置であって、
    家具の種別毎の画像の特徴量のデータを含む家具モデルデータを参照して、上記動画データから、家具を含む家具領域の候補である家具候補領域を抽出する家具候補領域抽出手段と、
    上記抽出された家具候補領域を含む動画データを用いて、家具以外の移動物体の動きを表す動きベクトルを算出する動きベクトル算出手段と、
    家具の種別毎に特有の人の動作に対応する所定の動きモデルベクトルを参照して、上記算出された動きベクトルと、上記動きモデルベクトルとの間の相関値を算出し、上記算出された相関値が所定のしきい値以上であるとき、上記家具候補領域が上記家具領域であると判断しかつ上記家具候補領域に含まれる家具の種別を特定する家具領域識別手段とを備え
    上記動画データは複数のフレーム画像データを含み、
    上記動きベクトル算出手段は、
    上記動画データに含まれるフレーム画像データから、あらかじめ用意された上記部屋内に移動物体が存在しないときのフレーム画像データである基準背景画像データを減算することにより、差分画像データを生成する差分画像生成手段と、
    上記差分画像データにおいて所定のしきい値以上の差分値を有する領域を、上記移動物体を含む移動物体領域として抽出する移動物体領域抽出手段と、
    上記家具候補領域に対する上記移動物体領域の相対位置のデータを算出し、上記算出された相対位置のデータに基づいて、家具の種別毎に家具に対する人の相対位置のデータを含む所定の相対位置モデルデータを参照して、上記移動物体領域が、人を含む人領域の候補である人候補領域であるか否かを識別する人候補領域識別手段と、
    上記人候補領域であると識別された移動物体領域を含む動画データを用いて、当該人候補領域の動きを表す動きベクトルを抽出して算出する動きベクトル抽出手段とを備えたことを特徴とする画像処理装置。
JP2012124514A 2012-05-31 2012-05-31 画像処理装置 Expired - Fee Related JP5840074B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012124514A JP5840074B2 (ja) 2012-05-31 2012-05-31 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012124514A JP5840074B2 (ja) 2012-05-31 2012-05-31 画像処理装置

Publications (2)

Publication Number Publication Date
JP2013250729A JP2013250729A (ja) 2013-12-12
JP5840074B2 true JP5840074B2 (ja) 2016-01-06

Family

ID=49849367

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012124514A Expired - Fee Related JP5840074B2 (ja) 2012-05-31 2012-05-31 画像処理装置

Country Status (1)

Country Link
JP (1) JP5840074B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105652679B (zh) * 2016-02-29 2019-08-30 北京小米移动软件有限公司 散热处理方法及装置
CN105757896B (zh) * 2016-03-29 2018-10-19 北京小米移动软件有限公司 控制运行模式的方法及装置
CN112426100B (zh) * 2019-08-26 2022-10-21 美智纵横科技有限责任公司 一种控制方法、装置及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004021495A (ja) * 2002-06-14 2004-01-22 Mitsubishi Electric Corp 監視システムおよび監視方法
JP4755632B2 (ja) * 2007-08-15 2011-08-24 ヤフー株式会社 アイテム認識装置及びアイテム認識方法
JP5478075B2 (ja) * 2009-01-06 2014-04-23 三菱電機株式会社 空気調和装置
JP2011164778A (ja) * 2010-02-05 2011-08-25 Osaka Prefecture Univ 認識装置、認識方法及び認識プログラム

Also Published As

Publication number Publication date
JP2013250729A (ja) 2013-12-12

Similar Documents

Publication Publication Date Title
US10140777B2 (en) Information processing apparatus, method of controlling information processing apparatus, and storage medium
US11398049B2 (en) Object tracking device, object tracking method, and object tracking program
US10957068B2 (en) Information processing apparatus and method of controlling the same
US9213897B2 (en) Image processing device and method
JP2009020761A (ja) 画像処理装置及びその方法
JP6936866B2 (ja) 外観特徴の記述属性を認識する方法及び装置
US20150116355A1 (en) Reference image slicing
US9613404B2 (en) Image processing method, image processing apparatus and electronic device
JP2009140009A (ja) 情報処理装置および情報処理方法、プログラム、並びに記録媒体
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
JP6597914B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US11138743B2 (en) Method and apparatus for a synchronous motion of a human body model
JP2015184054A (ja) 同定装置、方法及びプログラム
JP5840074B2 (ja) 画像処理装置
KR20190078890A (ko) 그리드 기반의 평면 추정 방법 및 장치
CN107610239A (zh) 一种脸谱的虚拟试戴方法及装置
CN106558042B (zh) 一种对图像进行关键点定位的方法和装置
WO2014006786A1 (ja) 特徴量抽出装置および特徴量抽出方法
JP2010231350A (ja) 人物識別装置、そのプログラム、及び、その方法
JP2017033556A (ja) 画像処理方法及び電子機器
JP2021174537A (ja) 画像処理装置、画像処理方法及びマシン可読記憶媒体
CN111445573A (zh) 人手建模方法、系统、芯片、电子设备及介质
JP4670010B2 (ja) 移動体分布推定装置、移動体分布推定方法及び移動体分布推定プログラム
JP5713655B2 (ja) 映像処理装置、映像処理方法及びプログラム
US20230419605A1 (en) Map generation apparatus, map generation method, and non-transitory computer-readable medium storing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151110

R150 Certificate of patent or registration of utility model

Ref document number: 5840074

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees