JP6452324B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP6452324B2
JP6452324B2 JP2014114401A JP2014114401A JP6452324B2 JP 6452324 B2 JP6452324 B2 JP 6452324B2 JP 2014114401 A JP2014114401 A JP 2014114401A JP 2014114401 A JP2014114401 A JP 2014114401A JP 6452324 B2 JP6452324 B2 JP 6452324B2
Authority
JP
Japan
Prior art keywords
comparison
pixel
value
image
reference value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014114401A
Other languages
English (en)
Other versions
JP2015228188A5 (ja
JP2015228188A (ja
Inventor
裕美 塩崎
裕美 塩崎
敦史 野上
敦史 野上
優和 真継
優和 真継
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014114401A priority Critical patent/JP6452324B2/ja
Priority to US14/727,093 priority patent/US9531969B2/en
Publication of JP2015228188A publication Critical patent/JP2015228188A/ja
Publication of JP2015228188A5 publication Critical patent/JP2015228188A5/ja
Application granted granted Critical
Publication of JP6452324B2 publication Critical patent/JP6452324B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/68Noise processing, e.g. detecting, correcting, reducing or removing noise applied to defects
    • H04N25/683Noise processing, e.g. detecting, correcting, reducing or removing noise applied to defects by defect estimation performed on the scene signal, e.g. real time or on the fly detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Description

本発明は、画像の処理を行う画像処理装置及び画像処理方法、並びに、当該画像処理方法をコンピュータに実行させるためのプログラムに関するものである。
従来から、画像からの物体認識、物体検出、姿勢推定等の技術は広く使用されており、様々な提案がなされている。これらの技術は、一般的に画像中からの特徴量を抽出して識別を行うことで実現されている。様々な特徴量算出及び識別方法がある中で、精度と速度の両面を考えた場合の有力な方法の1つとして、下記の特許文献1の技術がある。この特許文献1では、画像から所定の特徴点対の組み合わせを抽出し、その各画素値を取得し、各特徴点対で画素値の比較を行うことで、特徴量を生成する。そして、特許文献1では、この特徴量に対して、カスケード構造やツリー型構造の識別器を使って、物体検出を行う。
特表2011−508325号公報
各特徴点間の比較で識別を行う特許文献1の技術では、特徴点間の変化量のみを使用するため、ノイズの大きい画像においては、各特徴点にノイズが含まれ、画像処理の精度劣化の原因となり得る。
本発明は、このような問題点に鑑みてなされたものであり、ノイズのある画像においても、画像処理の精度劣化を抑制する仕組みを提供することを目的とする。
本発明の画像処理装置は、画像から対象領域を抽出する抽出手段と、前記対象領域に含まれる画素の画素値に基づいて複数の基準値を算出する算出手段と、前記複数の基準値の中からいずれか1つを選択し、当該選択した1つの基準値と前記画像における複数の画素の画素値と比較する比較手段と、前記比較手段の比較結果に基づいて、前記対象領域の画素の中から設定された注目画素の情報を決定する決定手段と、を有する。
また、本発明の画像処理装置における他の態様は、画像から対象領域を抽出する抽出手段と、前記対象領域に含まれる画素の画素値に基づいて複数の基準値を算出する算出手段と、前記画像における複数の画素のそれぞれの画素値と前記複数の基準値のそれぞれとを比較する比較手段と、前記比較手段による比較結果に基づいて、前記複数の基準値から1つの基準値を選択する選択手段と、を有する。
また、本発明は、上述した画像処理装置による画像処理方法、及び、当該画像処理方法をコンピュータに実行させるためのプログラムを含む。
本発明によれば、ノイズのある画像においても、画像処理の精度劣化を抑制することができる。
本発明の第1の実施形態に係る画像処理装置の概略構成の一例を示す図である。 本発明の第1の実施形態に係る画像処理装置による画像処理方法の処理手順の一例を示すフローチャートである。 本発明の第1の実施形態を示し、図1の注目画素設定部、比較対象画素選択部、比較部の処理を説明するための図である。 本発明の第2の実施形態及び第3の実施形態を示し、使用する基準値の算出方法を説明するための図である。 本発明の第1の実施形態を示し、最終部位推定位置の出力形態の一例を示す図である。 本発明の第3の実施形態に係る画像処理装置による画像処理方法の処理手順の一例を示すフローチャートである。 本発明の第4の実施形態に係る画像処理装置による画像処理方法の処理手順の一例を示すフローチャートである。 本発明の第4の実施形態に係る画像処理装置による画像処理方法の処理手順であって学習時の処理手順の一例を示すフローチャートである。
以下に、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。なお、以下に説明する本発明の実施形態では、本発明における画像処理の対象領域として、人体領域を適用した例について説明を行うが、本発明においてはこれに限定されるものではない。
(第1の実施形態)
まず、本発明の第1の実施形態について説明する。
本実施形態では、人物を撮影したデプスカメラから深度画像を得て、当該深度画像を画像処理することにより当該人物の姿勢を推定する例について説明する。この際、深度画像の人体領域の各点(各注目画素)ごとに、事前に学習した配置にある画素(比較対象画素)の画素値と人体領域に含まれる画素値に基づき算出した基準値とを比較することにより、予め学習して作成したテーブルを参照して対応する部位との相対関係を取得して、人体の各部位の位置を推定する。
以後の実施形態の説明において、人物の姿勢を推定するとは、人体の各部位の位置を推定することである。各部位は、人体を構成するパーツであっても、パーツの一部分であっても、関節であってもよい。その際、求める部位の位置は、2次元だけでなく、3次元も含む。
<構成>
図1は、本発明の第1の実施形態に係る画像処理装置の概略構成の一例を示す図である。画像処理装置1000は、図1に示すように、学習部1001、画像入力部1010、対象領域抽出部1020、注目画素設定部1030、比較対象画素選択部1040、基準値算出部1050、比較部1060、変換テーブル1070、変換部1080、及び、出力部1090を有して構成されている。また、学習部1001は、学習画像入力部1011、対象領域抽出部1021、注目画素設定部1031、比較対象画素選択部1041、基準値算出部1051、比較部1061、評価値算出部1062、基準値決定部1063、及び、部位相対位置集計部1064を有して構成されている。なお、画像処理装置1000は、学習部1001を含まない構成であってもよく、この場合、例えば、学習部1001は、他の画像処理装置に構成されることになる。
この図1に示す画像処理装置1000の各構成部における具体的な処理については、図2等に示すフローチャートとともに説明を行う。
本発明の実施形態に係る画像処理装置1000は、ネットワークまたは各種記録媒体を介して取得したソフトウェア(プログラム)を、CPU、メモリ、ストレージデバイス、入出力装置、バス、表示装置等により構成される計算機にて実行することで実現できる。また、不図示の計算機については、汎用の計算機を用いてもよいし、ソフトウェアに最適に設計されたハードウェアを用いてもよい。
<処理の詳細>
図2は、本発明の第1の実施形態に係る画像処理装置による画像処理方法の処理手順の一例を示すフローチャートである。図1及び図2を用いて、本実施形態に係る画像処理装置1000の処理を説明する。ここで、図2には、人物の姿勢を推定する場合の処理が示されている。
図2のステップS201において、図1の画像入力部1010は、深度画像の入力を行う。ここで、深度画像は、画像中の各画素に奥行き方向の距離情報が所定のスケーリングで画素値として記録された画像である。この深度画像は、上述したデプスカメラから取得して入力してもよいし、予め撮影して保存しておいた深度画像ファイル221を読み込んで入力してもよい。具体的に、図1の画像入力部1010は、取得した深度画像を対象領域抽出部1020に入力する。また、図1の学習部1001の学習画像入力部1011は、画像入力部1010と同様の処理を行うが、入力する画像は学習用に予め用意された学習画像を使用する。
続いて、図2のステップS202において、図1の対象領域抽出部1020は、ステップS201で入力された深度画像の中から画像処理の対象領域を抽出する。本実施形態では、対象領域が人体領域の場合について説明する。
人体領域の抽出処理では、まず、図1の対象領域抽出部1020は、深度画像に対して背景差分処理を行うことにより、前景候補画素、即ちここでは人体を抽出する。
このままでも使用できるが、より精度よく抽出する場合、次いで、図1の対象領域抽出部1020は、前景候補画素の深度値をカメラ座標系(3次元座標系)の点群へと変換する。そして、図1の対象領域抽出部1020は、3次元の点群の固まりの重心位置を求め、重心位置周辺の点群のうち、人体サイズに収まる範囲に存在する点を人体領域とする。このとき、人体サイズは、予め学習しておいた人体の平均サイズや最大サイズ等を使用して決めることができる。また、床との接地部分については、平面推定を行う等することにより、床と人体との境界を決定し、人体領域を決定することができる。そして、図1の対象領域抽出部1020は、人体領域とラベル付けされた点群のみを再び画像平面に投影することにより、人体領域が抽出された深度画像を取得することができる。
なお、人体領域の抽出方法は、この態様に限らず公知の方法を用いてもよい。そして、図1の対象領域抽出部1020は、抽出した人体領域部分の深度画像を基準値算出部1050と注目画素設定部1030に送る。図1の学習部1001の対象領域抽出部1021は、処理対象の画像は異なるが、その処理内容は対象領域抽出部1020と同様である。
続いて、図2のステップS203において、図1の基準値算出部1050は、ステップS202で抽出された対象領域である人体領域部分の深度画像に含まれる画素の画素値に基づいて基準値231を算出する。例えば、図1の基準値算出部1050は、基準値231として、人体領域部分の深度画像に含まれる全ての画素の画素値(深度値)から平均値を算出する。ここでは、基準値231として当該平均値を用いた説明を行うが、基準値231は、人体領域部分の深度画像に含まれる画素の画素値から算出した基準となる値であればよく、平均値の他にも、例えば、中央値や代表値等を用いることも可能である。さらには、人体領域部分の深度画像に含まれる画素の画素値(深度値)のヒストグラムを生成して、頻度の高い画素値からランダムに基準値231を決定する等してもよい。
また、基準値231の算出において、必ずしも、ステップS202で抽出された人体領域部分の深度画像に含まれる全ての画素の画素値(深度値)を使用する必要はない。例えば、ステップS202で抽出された人体領域部分の深度画像において、数画素に1画素だけの画素値を用いて基準値231を算出してもよく、また、全体の何割かをサンプリングして当該サンプリングした画素の画素値を用いて基準値231を算出してもよい。なお、基準値231の算出方法は、ここに挙げたものに限定されるものではない。
また、基準値231は、1枚の画像中では共通であるが、画像間では異なり、画像間での補正の役割を果たす。さらに、ノイズを多く含む画像でも、基準値231を人体領域全体から生成することにより、ノイズの影響を低減することができる。そして、図1の基準値算出部1050は、算出した基準値231を比較部1060に送る。図1の学習部1001の基準値算出部1051は、処理対象の画像は異なるが、その処理内容は基準値算出部1050と同様である。
以降の図2のステップS204〜S211は、図2のステップS205で設定される各注目画素ごとに繰り返し処理を行うものである。
図2のステップS205において、図1の注目画素設定部1030は、ステップS202で抽出された対象領域である人体領域部分の深度画像の中から或る画素を注目画素として設定する。この設定処理は、人体領域部分の深度画像の中から或る画素を順次選択し、注目画素として順次設定するものである。ここで、人体領域部分の深度画像の中から或る画素を順次選択すると述べたが、必ずしも人体領域部分の全ての画素を選択する必要はなく、数画素に1画素の間隔で選択してもよいし、ある部分を集中して選択してもよい。また、選択する単位として画素としているが、1画素というだけでなく、数画素のまとまり等であってもよい。図3を用いて説明する。
図3は、本発明の第1の実施形態を示し、図1の注目画素設定部1030、比較対象画素選択部1040、比較部1060の処理を説明するための図である。
図3(a)には、人体領域部分が示されており、また、部分300は、当該人体領域部分の或る部分である。
また、図3(b)の部分310は、図3(a)に示す部分300を拡大表示したものであり、或る画素を注目画素312として設定した様子が示されている。ここで、設定した注目画素312の情報は、比較対象画素選択部1040に送られる。また、図3(b)には、基準値算出部1050で算出された基準値231に相当する基準値311に係る情報が示されている。
また、図1の学習部1001の注目画素設定部1031は、処理対象の画像は異なるが、注目画素を設定する処理内容は注目画素設定部1030と同様である。なお、学習時は、多くのバリエーションのある姿勢や微小な動きの変化を含む姿勢等、大量の画像を使用することが多い。そのため、十分なメモリ容量が確保できないような場合には、必ずしも人体領域部分の全ての画素を注目画素として設定する必要はない。
以降の図2のステップS206〜S209は、図2のステップS207で選択される各比較対象画素ごとに繰り返し処理を行うものである。
図2のステップS207において、図1の比較対象画素選択部1040は、ステップS205で設定された注目画素から学習した配置にある画素を比較対象画素として選択する。具体的に、比較対象画素選択部1040は、ステップS205で設定された注目画素をもとに比較パラメータ222を使用して比較対象画素を選択する。この比較パラメータ222には、学習時に使用した注目画素と比較対象画素との配置関係が保存されている。本実施形態では、この比較パラメータ222を利用して、図3(b)に示すように、現在設定している注目画素312と対応する比較対象画素313を選択して決定する。そして、図1の比較対象画素選択部1040は、選択した比較対象画素313の画素値である比較対象画素値232を取得する。
また、図3(b)では、比較対象画素313の数を1つとして説明した。しかしながら、比較対象画素の数に限定はなく、例えば、図3(c)に示すように、設定された注目画素322と対応する比較対象画素として、比較対象画素323及び324のように複数を選択する形態であってもよい。なお、図3(c)において、部分320は、図3(a)に示す部分300を拡大表示したものであり、或る画素を注目画素322として設定した様子が示されている。また、図3(c)には、基準値算出部1050で算出された基準値231に相当する基準値321に係る情報が示されている。
この処理は、比較繰り返しステップS206〜S209の間で所定回数繰り返し行われ、ある固定の注目画素に対して何度も比較が行われる。ステップS207の処理の結果得られた比較対象画素値232は、比較部1060に送られる。なお、学習部1001の比較対象画素選択部1041における比較パラメータの決め方については、比較部の説明の後に述べる。
続いて、図2のステップS208において、図1の比較部1060は、注目画素から学習した配置にある画素である比較対象画素の画素値(比較対象画素値232)と、基準値算出部1050で算出された基準値(基準値231)とを比較する処理を行う。図3(b)で説明すると、比較対象画素313の画素値と基準値311と比較する。また、比較対象画素を複数とした場合は、図1の比較部1060は、図3(c)のように、比較対象画素323及び324のそれぞれの画素値と基準値321と比較する。
具体的に、例えば、図3(b)のように、比較対象画素が1つの場合、比較対象画素値232をd1とし、基準値231をdu、閾値をth1とすると、比較部1060は、以下の(1)式の真偽判定を行うことにより、比較を行う。
仮に、(1)式において、閾値th1が0ならば、単純に基準値との大小関係を意味する。比較部1060は、例えば、(1)式が真のとき比較値233を1とし、(1)式が偽のとき比較値233を0とする。なお、ここでは、比較値233が2値になるようにしたが、必ずしも2値である必要はない。例えば、以下の(2)式の条件式H21、以下の(3)式の条件式H22、以下の(4)式の条件式H23を使用して、範囲を分けることも可能である。この際、th11、th12は閾値を示す。
例えば、(2)式の条件式H21を満たすとき比較値233を0とし、(3)式の条件式H22を満たすとき比較値233を1とし、(4)式の条件式H23を満たすとき比較値233を2とするようにしてもよい。
また、上述した(1)式等では、単純に引き算をして比較を行っているが、予め人体領域部分の画素値(深度値)の標準偏差σを算出しておき、以下の(5)式に示すように標準偏差で正規化してもよい。
もちろん、本実施形態においては、(5)式に示した標準偏差に限定されるものではない。例えば、最小値と最大値等の値の取り得る範囲の大きさで正規化してもよい。さらに、例えば、人体領域部分の画素値(深度値)でヒストグラムを作成して、全体のx%が存在する範囲で正規化する方法等も考えられる。
次に、図3(c)に示すような比較対象画素が複数ある場合について説明する。
図3(c)において、比較対象画素323の画素値をd1、比較対象画素324の画素値をd2とし、基準値321をdu、閾値をth1、th2とすると、比較部1060は、以下の(6)式の条件式H31と以下の(7)式の条件式H32の真偽判定を行うことにより、比較を行う。
比較部1060は、例えば、(6)式の条件式H31と(7)式の条件式H32とが共に真もしくは共に偽のとき比較値233を1とし、片方が真で他方が偽のとき比較値233を0とする。なお、ここでは、比較値233が2値になるようにしたが、必ずしも2値である必要はない。比較対象画素が複数になり、また条件式も増え、より複雑な比較、即ち情報量をもつ比較ができるようになるため、比較対象画素が1つの場合や条件式が少ない場合と比べて画像処理の精度向上が期待できる。
なお、ここで使用する閾値th1、th2は、学習時と同じものを使用する。また、上述した(6)式及び(7)式では、単純に引き算をして比較を行っているが、予め人体領域部分の画素値(深度値)の標準偏差σを算出しておき、上述した(5)式と同様に、以下の(8)式及び(9)式に示すように標準偏差で正規化してもよい。
もちろん、本実施形態においては、比較対象画素が1つの場合と同様に、(8)式及び(9)式に示した標準偏差に限定されるものではない。
このようにして、比較部1060は、比較対象画素値232と基準値231との比較の結果と、当該比較の結果と学習した対応する閾値との比較の結果を組み合わせることにより、変換部1080において注目画素の情報を決定する際に用いる比較値を算出する。そして、比較部1060は、このようにして算出した比較値233を変換部1080に送る。
ここで、図1の学習部1001の比較対象画素選択部1041の比較パラメータの決め方と、比較部1061の閾値の決め方について説明する。
まず、単純な方法として、どちらもランダムに決める方法が考えられる。例えば、比較パラメータの決め方は、注目画素を基準に方向と距離をランダムに決める。これにより、配置が決定する。比較部1061の閾値についても、ある範囲内でランダムに決定する。もちろん、選択し得る範囲において、選ばれる確率を設定して、その確率に応じて、重点的に選びたい配置や値の範囲から高い確率で選ばれるようにすることもできる。さらに、第4の実施形態で後述する評価指標を用いる方法も考えられる。
次いで、図2のステップS206〜S209の比較繰り返しステップについて、さらに説明する。比較部1060及び1061で離散的な比較値を算出した場合、treeやFernなどの識別方法が使用できる。
ここでは、treeを使用して説明する。
この場合、treeの各ノードの処理がステップS207及びS208に相当する。即ち、この場合、あるノードにおいて学習時に使用した注目画素と比較対象画素との配置関係を比較パラメータ222に記憶しておく。例えば、ある注目画素から方向θ、距離xの位置に比較対象画素がある場合、比較パラメータ222として方向θと距離xを記憶しておく。そして、識別時に設定した注目画素に対して、記憶した比較パラメータ222を使用して比較対象画素の位置を算出してその画素値を取得する。
続いて、比較部は、この画素値と基準値を比較し、比較値を算出する。そして、例えば、比較値が1のとき右の子ノードを辿り、比較値が0のとき左の子ノードを辿る。子ノードに移動したら、同じ処理を行い、treeのリーフに辿りつくまで処理を繰り返す。ここでは、2分岐にて説明したが、分岐数はもっと多くてもよい。
このように、ある注目画素に対して、注目画素周辺の画素(比較対象画素)と基準値との比較を繰り返し行うことにより、注目画素周辺の変化量を間接的に比較することができるため、局所的な形状比較を実現することができる。さらに、人体領域全体で共通の基準値との大小関係を比較することができ、人体領域全体に対しての関係も知ることができる。
図2のステップS206〜S209の比較繰り返しステップの処理が終了すると、図2のステップS210に進む。
図2のステップS210に進むと、図1の変換部1080は、比較部1060において異なる学習した配置にある画素(比較対象画素)に対して比較を繰り返し行った結果に基づいて、変換テーブル1070(223)の予め学習した対応する値を参照してステップS205で設定した注目画素の情報を決定する処理を行う。この注目画素の情報を決定する処理を行う変換部1080は、情報決定手段を構成する。
具体的に、本実施形態では、変換部1080は、まず、変換テーブル1070(223)を参照して、比較値233、即ち辿りついたtreeのリーフ、に対応する相対部位座標値を取得する。本実施形態のように人物の姿勢推定を行う場合、変換部1080では部位座標の推定を行うことになる。そして、変換部1080は、注目画素の画素値(深度値)と取得した相対部位座標値から、当該注目画素の部位推定位置234を決定し、部位の推定を行う。例えば、具体的には、変換部1080は、注目画素の画素値(深度値)とカメラパラメータ(焦点距離等)から座標値を求めて相対部位座標値と合わせることにより、当該注目画素の部位推定位置234を決定する。
次いで、変換テーブル1070(223)について説明する。
変換テーブル1070(223)は、事前に、学習部1001において学習画像である学習深度画像を利用して作成される。学習部1001においても、上述した手順に従い処理を行う。即ち、注目画素設定部1031は、人体領域部分の学習深度画像の中から或る画素を選択して注目画素とする。そして、この注目画素と人体の部位との位置関係を計算しておく。
そして、推定時の説明と同様の識別器、ここではtreeを使用して分類を行う。具体的に、比較対象画素選択部1041は、各ノードにおいて、比較対象画素を選択する。この時に選んだ比較対象画素と注目画素との位置関係を比較パラメータ222として記憶しておく。その後、比較部1061は、比較対象画素選択部1041により得られた比較対象画素値と基準値算出部1051で算出された基準値とを比較して、さらに閾値と比較して比較値を算出する。そして、比較部1061は、この比較値により、各ノードで分岐を行い、子ノードにおいて同じ処理を繰り返す。そして、辿りついたリーフ、即ち比較値に、最初に計算した注目画素と人体部位との位置関係を相対部位座標値として記憶しておく。この処理を学習深度画像中の任意の画像領域の任意の画素で行う。これにより作成されたリーフの情報、即ち、比較値とそのときの人体部位との相対部位座標値を変換テーブル1070(223)とする。
なお、この例では、リーフに辿りついた際に、ノードと同じ個数の比較値の組ができているため、変換テーブル1070(223)には、比較値の組を用いる。また、ここでは、リーフに人体部位との位置関係を記憶した。しかしながら、記憶する情報はこれに限定されるものではなく、例えば、どの部位の近傍の画素かという情報等を記憶してもよい。さらに、変換テーブル1070(223)と表現したが、実際には比較値と必要としている情報、ここでは人体部位と相対部位座標値との関連付けができていればよく、必ずしもテーブルである必要はない。
これまで説明した図2のステップS201〜S211の処理を行うと、注目画素を設定する度に、部位推定位置234が算出されて人体の部位の推定が行われる。そのため、図2のステップS204〜211の各画素繰り返し処理ステップの終了後に、図2のステップS212において、図1の出力部1090(或いは図1の変換部1080)は、注目画素ごとに算出した部位推定位置234を集計して、対象領域である人体領域の全体としての最終部位推定位置235を算出する。これは、例えば、推定された各部位ごとに単純に平均値で算出してもよいし、各推定に重みをつけて、重み付き平均を算出してもよい。さらにmeanshiftなどの手法を用いて算出してもよい。
その後、図1の出力部1090において、最終部位推定位置235を出力する。出力の仕方は、ファイルに部位の座標を出力してもよいし、図5に示すように表示してもよい。
ここで、図5は、本発明の第1の実施形態を示し、最終部位推定位置の出力形態の一例を示す図である。具体的に、図5には、深度画像500に、各最終部位推定位置235に係る各部位位置501が重ねて表示されている。
本実施形態では、深度画像を使用した例を説明したが、例えばRGB画像を用いてもよい。RGBのステレオ画像を使用すれば、入力画像が違うだけで上述した処理と同じ処理が可能である。ここで、RGB画像1枚から人体領域を抽出し、2値画像とした場合を考える。この場合、比較の際に、人体領域内か外かのみを比較することになるため、深度画像の使用時に比べて精度は低下するものの、推定は可能である。
さらに、本実施形態では、人物の姿勢を推定する例について説明したが、物体認識、物体検出等の画像を識別、変換するための方法としても使用することができる。この場合、変換テーブル1070において保持する情報を変えることにより、姿勢推定以外の用途に使用することができる。さらに、変換部1080は、変換テーブル1070で参照した情報に対応して変換することになり、変換部1080で算出して決定した情報を出力部1090で出力することになる。
例えば、物体認識に適用する場合には、変換テーブル1070に、どの物体かの情報、さらにどの物体のどの部位かの情報を保持すればよい。その結果、どの物体か、さらにその物体のどこの部位かを算出して出力することができる。
また、例えば、物体検出に適用する場合には、変換テーブル1070に、物体か否かの情報や、物体の中心位置情報等を保持することが考えられる。その結果、物体が検出されたかどうか、さらに検出された場合にはその位置を算出して出力することができる。
なお、本発明は、ここで述べた用途に限らず、色々な用途に適用することができる。
本実施形態によれば、対象領域に含まれる画素の画素値に基づいて基準値を算出し、注目画素から学習した配置にある画素の画素値と当該基準値とを比較するようにしたので、比較の際にノイズが含まれる要因を減らすことができる。これにより、ノイズのある画像においても、画像処理の精度劣化を抑制することができる。
また、この比較を繰り返し行うことにより、注目画素周辺の変化量を間接的に比較することができるため、例えば局所的な形状比較を実現することができる。
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
本実施形態では、使用する基準値が同画像中で複数ある場合について説明する。即ち、第1の実施形態と同様に人物の姿勢を推定する例において、使用する基準値を人体領域全体で同一のものを使用するのではなく、例えば、人体領域を複数の部分領域(例えば、上部、中央部、下部)に分割して部分領域ごとに異なる基準値を使用する。
第2の実施形態に係る画像処理装置の概略構成は、図1に示す第1の実施形態に係る画像処理装置1000の概略構成と同様である。また、第2の実施形態に係る画像処理装置1000による画像処理方法の処理手順は、図2に示す第1の実施形態に係る画像処理装置1000による画像処理方法の処理手順を示すフローチャートと同様である。以下、図2に示すフローチャートの処理において、第1の実施形態における処理内容と異なる部分についてのみ説明を行う。
<処理の詳細>
図2のステップS203において、図1の基準値算出部1050は、ステップS202で抽出された対象領域である人体領域部分の深度画像に含まれる画素の画素値に基づいて基準値231を算出する。第1の実施形態と異なり、本実施形態では基準値が複数存在する。この例を図4を用いて説明する。
図4は、本発明の第2の実施形態及び第3の実施形態を示し、使用する基準値の算出方法を説明するための図である。
本ステップでは、例えば、ステップS202で抽出された人体領域を図4(a)に示すように上から3等分し、分割したそれぞれの部分領域を、人体領域上部402、人体領域中央部403、人体領域下部404とする。そして、図1の基準値算出部1050は、それぞれの部分領域の基準値231として、各部分領域に含まれる人体領域部分の画素の画素値(深度値)から平均値を算出する。本例の場合、基準値231は、同一画像中では、分割した部分領域の数に係る3種類で固定であるが、画像間では異なり、画像間での補正の役割を果たす。基準値231が1画像で1つだった場合に比べて、複数になることで、部分的な位置補正が実現でき、部分領域における精度向上が期待できる。
ここでは、基準値231として当該平均値を用いる場合を説明したが、基準値231は、各部分領域に含まれる人体領域部分の画素の画素値から算出した基準となる値であればよく、平均値の他にも、例えば、中央値や代表値等を用いることも可能である。さらには、各部分領域に含まれる人体領域部分の画素の画素値(深度値)のヒストグラムを生成して、頻度の高い画素値からランダムに基準値231を決定する等してもよい。また、基準値231の算出において、必ずしも、各部分領域に含まれる人体領域部分の全ての画素の画素値(深度値)を使用する必要はない。例えば、各部分領域に含まれる人体領域部分において、数画素に1画素だけの画素値を用いて基準値231を算出してもよく、また、各部分領域に含まれる人体領域部分の何割かをサンプリングして当該サンプリングした画素の画素値を用いて基準値231を算出してもよい。
また、ここでは、人体領域を上から3等分としたが、分割方法はこれに限定されるものではなく、上から分割する必要もないし、等分である必要もない。また、2分割や4分割でもよい。さらに、きちんと分割するのではなく、図4(b)に示すように部分領域に重なりがでるように部分領域を作成してもよい。領域に重なりをもたせることで、境界部分で推定結果が変わる傾向がでることを抑制でき、精度が低下するのを防ぐ効果が期待できる。図1の学習部1001の基準値算出部1051も、上述した基準値算出部1050と同様の処理を行う。基準値算出部1050及び1051は、それぞれ、算出した基準値を比較部1060及び1061に送る。
図2のステップS208において、図1の比較部1060は、注目画素から学習した配置にある画素である比較対象画素の画素値(比較対象画素値232)と、基準値算出部1050で算出された基準値(基準値231)とを比較する処理を行う。この際、使用する基準値231をどのように決定するかについて、図4を用いて説明する。
図2のステップS205において、図1の注目画素設定部1030は、図4(a)に示す注目画素401を設定したとする。このとき、注目画素401は、人体領域中央部403に属する。よって、この場合、図1の比較部1060は、比較に用いる基準値として、人体領域中央部から算出した基準値231を使用する。この場合の比較部1060による比較方法は、上述した第1の実施形態と同様である。学習部1001の比較部1061も同様に、注目画素の属する部分領域の基準値を使用する。
次いで、学習時に図4(b)に示すように部分領域に重なりをもたせて設定し、人物の姿勢推定時に、どれか1つの部分領域に属する基準値を使用する方法について説明する。
即ち、この場合、学習部1001の注目画素設定部1031は、図4(b)に示す注目画素411を設定したとする。このとき、注目画素411は、人体領域上部412と人体領域中央部413の両方に属する。よって、人体領域上部412から算出した基準値と人体領域中央部413から算出した基準値をそれぞれ使用して比較を行う。即ち、このような注目画素411は、人体領域上部412に属する画素と、人体領域中央部413に属する画素という別の2つのサンプルとして学習する。比較方法については、上述した第1の実施形態と同様である。
人物の姿勢推定時には、注目画素411は、どちらか1つの部分領域に割り振られるようにする。例えば、各部分領域の中心位置との距離を算出して、最も近い部分領域に属するものとして、例えば図4(b)に示す場合には人体領域中央部413が選択される。よって、この場合、図1の比較部1060は、人体領域中央部413の基準値を使用して比較を行う。さらに、学習時だけでなく人物の姿勢推定時も、図4(b)に示すように部分領域に重なりをもたせて設定することもできる。この場合、上述した例と同じく、注目画素411は、人体領域上部412と人体領域中央部413の両方に属することとなる。そこで、図1の比較部1060は、例えば、人体領域上部412から算出した基準値と人体領域中央部413から算出した基準値の平均値を算出し、これを基準値231として使用する。この場合の比較部1060による比較方法は、上述した第1の実施形態と同様である。
なお、部分領域の取り方とその基準値の使用方法は様々な態様が考えられ、ここで説明したものに限定されるものではない。
(第3の実施形態)
次に、本発明の第3の実施形態について説明する。
本実施形態は、上述した第1及び第2の実施形態と異なり、注目画素ごとに基準値が異なる場合について説明する。即ち、第1の実施形態と同様に人物の姿勢を推定する例において、使用する基準値を人体領域全体で同一のものを使用するのではなく、注目画素を設定する度に異なる基準値を算出して使用する。
第3の実施形態に係る画像処理装置の概略構成は、図1に示す第1の実施形態に係る画像処理装置1000の概略構成と同様である。
<処理の詳細>
図6は、本発明の第3の実施形態に係る画像処理装置による画像処理方法の処理手順の一例を示すフローチャートである。ここで、図6には、人物の姿勢を推定する場合の処理が示されている。この図6において、図2に示す第1の実施形態に係る画像処理装置による画像処理方法と同様の処理ステップ及び情報については同じ符号を付しており、その説明は省略し、図2と異なる部分についてのみ説明を行う。
図6のステップS205において、図1の注目画素設定部1030は、第1の実施形態と同様に、人体領域部分の深度画像の中から或る画素を順次選択し、注目画素として順次設定する。そして、図1の注目画素設定部1030は、設定した注目画素の位置を示す注目画素位置631を、ステップS207の処理で用いる比較対象画素選択部1040のみならず、ステップS601の処理で用いる基準値算出部1050に送る。学習部1001の注目画素設定部1031も、上述した注目画素設定部1030と同様の処理を行う。
続いて、図6のステップS601において、図1の基準値算出部1050は、人体領域部分の深度画像から基準値632を算出する。上述した第1及び第2の実施形態と異なり、本実施形態では、図1の基準値算出部1050は、注目画素位置631ごとに異なる基準値632を算出する。そのため、基準値の算出は、上述した第1及び第2の実施形態の場合と違い、注目画素を設定した後に毎回行われる。
例えば、図1の基準値算出部1050は、図4(c)に示すように、注目画素421が設定されると、半径rの円領域422を構築する。そして、図1の基準値算出部1050は、この円領域422内に含まれる人体領域部分の画素値(深度値)から算出した平均値を基準値632として使用する。図4(c)に示す例の場合、基準値632は、人体領域に含まれる領域であって注目画素ごとに構築された部分領域に含まれる全ての画素の画素値または当該部分領域に含まれる複数の画素の画素値に基づいて算出された値を用いることができる。ここで、半径rには任意の値を用いてよい。例えば、或る範囲内でランダムに設定してもよい。ただし、半径rが人体領域全域を含む大きさである場合、上述した第1の実施形態と同様になる。さらに、第4の実施形態で後述する評価指標を用いて半径rを決定する方法も考えられる。
上述した第1及び第2の実施形態と同様に、基準値632は、人体領域部分の画素の画素値から算出した基準となる値であればよく、また、平均値に限定されるものではない。また、図4(c)には、円領域を構築する例を挙げたが、構築する領域の形は円に限定されるものではない。また、基準値632は、画像間で異なり、画像間での補正の役割がある。さらに、本実施形態では、基準値632は、注目画素ごとに異なる。基準値が1画像で数種類だった場合に比べて、注目画素の個数分になることで、各画素での画素値(深度値)の補正が実現でき、これにより、局所での精度向上が期待できる。
そして、図1の基準値算出部1050は、算出した基準値632を比較部1060に送る。図1の学習部1001の基準値算出部1051も、上述した基準値算出部1050と同様の処理を行う。
その後の図6のステップS206以降の処理は、図2に示す処理と同様である。
(第4の実施形態)
次に、本発明の第4の実施形態について説明する。
本実施形態では、上述した第1〜第3の実施形態と異なり、複数の基準値を算出し、当該複数の基準値の中からいずれか1つを選択して使用する場合について説明する。具体的に、第1の実施形態1と同様に人物の姿勢を推定する例において、比較ステップの度に基準値を選択して使用する。
第4の実施形態に係る画像処理装置の概略構成は、図1に示す第1の実施形態に係る画像処理装置1000の概略構成と同様である。
また、人物の姿勢推定時の処理については図7を用いて、学習時の処理については図8を用いて、上述した第1〜第3の実施形態との差異を中心に以下に説明する。
<処理の詳細>
まず、人物の姿勢推定時の処理について説明する。
図7は、本発明の第4の実施形態に係る画像処理装置による画像処理方法の処理手順の一例を示すフローチャートである。ここで、図7には、人物の姿勢を推定する場合の処理が示されている。この図7において、図2及び図6に示す第1及び第3の実施形態に係る画像処理装置による画像処理方法と同様の処理ステップ及び情報については同じ符号を付しており、その説明は省略し、図2及び図6と異なる部分についてのみ説明を行う。
図7のステップS701における共通基準値算出ステップは、第1の実施形態で説明した人体領域全体の平均値や第2の実施形態で説明した人体領域の部分領域の平均値を基準値として算出したステップに相当するものである。
図7のステップS702における個別基準値算出ステップは、第3の実施形態で説明した注目画素ごとに設定した人体領域の部分領域の平均値を基準値として算出したステップに相当するものである。
このように、本実施形態では、図1の基準値算出部1050は、1つ以上の複数の基準値を算出するものである。
図7のステップS208において、図1の比較部1060は、複数の基準値の中からいずれか1つを選択し、当該選択した1つの基準値731を用いて比較対象画素値232との比較を行う。本実施形態の場合、比較繰り返しステップS206〜S209で処理を繰り返す度に、どの基準値を使用するかを再度選択する。この際、複数の基準値の中からどの基準値を選択するのかについては、学習時に決定した基準値を用いる。この学習時に決定した基準値は、基準値パラメータ721を参照することで取得することができる。
その後の図7のステップS210以降の処理は、図2に示す処理と同様である。
次に、学習時の処理について説明する。
図8は、本発明の第4の実施形態に係る画像処理装置による画像処理方法の処理手順であって学習時の処理手順の一例を示すフローチャートである。この図8において、図2、図6及び図7に示すフローチャートと同様の処理ステップ及び情報については同じ符号を付しており、その説明は省略し、図2、図6及び図7と異なる部分についてのみ説明を行う。
図8のステップS801において、学習部1001の学習画像入力部1011は、学習深度画像を学習画像として入力を行う。ここでは、学習画像は、学習深度画像ファイル821を読み込むことで入力される。上述した第1〜第3の実施形態の学習時においては、学習画像入力部1011から比較部1061まで1画像ずつ処理しても、全画像を読み込んでからまとめて処理しても、どちらでも可能であった。これに対して、本実施形態においては、後者のように、学習深度画像ファイル821をまとめて読み込んでおく必要がある。
基準値の決め方については、評価値を用いて評価を行うことで値を決定する方法が考えられる。なお、図1の比較対象画素選択部1041の比較パラメータの決め方や比較部1061の閾値の決め方も同様の方法で決めることができる。
人物の姿勢推定を行うのにあたり、各部位や位置等の違いがよりよく確認できるパラメータ、即ち基準値や配置や閾値があるのであれば、そのようなパラメータを選ぶのが望ましい。例えば、学習時に複数種類の基準値・配置・閾値の組み合わせで比較処理を行う。この処理が、図8の基準値候補繰り返しステップS802〜S806に相当する。
続いて、図8のステップS805において、図1の評価値算出部1062は、各組み合わせに対して、使用した全ての画素の比較結果である比較値233ごとに、当該比較値に含まれる画素(当該比較値となる画素)の分離性がよいかについて評価を行って、基準値候補の評価値831を算出する。即ち、図1の評価値算出部1062は、注目画素設定部1031において注目画素を設定するごとに比較部1061による比較の結果得られた比較値233ごとで、画素の分離性がよいかについての評価の指標となる基準値候補の評価値831を算出する。つまり、各組み合わせに対して、この基準値候補の評価値831が1つずつ算出される。ここで説明した注目画素の繰り返し処理は、注目画素繰り返しステップS803〜S804の処理に相当する。
続いて、図8のステップS807において、図1の基準値決定部1063は、ステップS805により算出された基準値候補の評価値831に基づいて、全ての組み合わせの中で最も分離性のよかった基準値(更には、配置及び閾値)を決定する。そして、図1の基準値決定部1063は、決定した基準値(更には、配置及び閾値)を基準値パラメータ721として保存する。なお、ここで述べた分離性とは、部位ごとのまとまりのよさ、部位間の差異の大きさ等が考えられる。例えば、エントロピーを用いて評価することができる。各部位である確率をp(i)とし、部位の数をnとすると、以下の(10)式で求めることができる。
どこかの部位がp(i)=1で一意に決まるとき、エントロピーは最小で0となる。複数種類の基準値・配置・閾値の組み合わせのうち、(10)式が最も小さくなるようなものを選択することで、分離性のよい組み合わせを選ぶことができる。
また、位置の分離性を評価したい場合には、分散を用いて評価することもできる。複数種類の基準値・配置・閾値の組み合わせの中で、各クラスタ内の分散が小さくなるものを選ぶことにより、クラスタのまとまりがよいものを選ぶことができる。さらに、各クラスタ間の分散を考慮して、各クラスタ内の分散が小さいことに加えて、各クラスタ間の分散が大きいものを選ぶ等してもよい。
なお、分離性の評価は、ここで説明した方法に限定されるものではない。また、パラメータについてもここで説明したものに限定されるものではない。他にも、第2の実施形態で説明した部分領域に種類を設けてパラメータ化してもよいし、第3の実施形態で説明した基準値算出領域の大きさや形をパラメータ化してもよい。
他にも、基準値の単純な選択方法として、第1の実施形態で説明したランダムに選択する方法、順序を固定で決める方法等も採用可能である。選び方については、特に限定しない。ここでは、基準値として平均値を用いた場合の例を挙げたが、上述した第1〜第3の実施形態でも説明したように、特に平均値に限定されるものではない。
また、第1の実施形態でも説明したように、変換テーブル1070の作成については、図8のステップS808において、図1の部位相対位置集計部1064による部位相対位置集計処理で行われる。この際、図1の部位相対位置集計部1064は、ここまでの処理で決定した基準値パラメータ721を使用した際の、比較値233ごとに属する画素の情報を取得して、変換テーブル1070を作成する。
ステップS808の処理が終了すると、図8のフローチャートの処理が終了する。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。
即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記憶媒体は、本発明に含まれる。
なお、上述した本発明の実施形態は、いずれも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
本発明は、画像から特徴量を抽出して識別する際に利用でき、例えば、人物の姿勢推定、物体検出や物体認識等の用途に利用可能である。
1000:画像処理装置、1001:学習部、1010:画像入力部、1011:学習画像入力部、1020,1021:対象領域抽出部、1030,1031:注目画素設定部、1040,1041:比較対象画素選択部、1050,1051:基準値算出部、1060,1061:比較部、1062:評価値算出部、1063:基準値決定部、1064:部位相対位置集計部、1070:変換テーブル、1080:変換部、1090:出力部

Claims (10)

  1. 画像から対象領域を抽出する抽出手段と、
    前記対象領域に含まれる画素の画素値に基づいて複数の基準値を算出する算出手段と、
    前記複数の基準値の中からいずれか1つを選択し、当該選択した1つの基準値と前記画像における複数の画素の画素値と比較する比較手段と、
    前記比較手段の比較結果に基づいて、前記対象領域の画素の中から設定された注目画素の情報を決定する決定手段と、
    を有することを特徴とする画像処理装置。
  2. 前記複数の画素は、前記注目画素に対して予め学習された位置関係にある複数の画素であることを特徴とする請求項1に記載の画像処理装置。
  3. 前記比較手段は、前記複数の画素のそれぞれの画素値と前記選択した1つの基準値との大小関係を比較することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記比較手段は、前記複数の画素のそれぞれの画素値と前記選択した1つの基準値との差と、所定の閾値とを比較することを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
  5. 前記複数の基準値のそれぞれは、前記対象領域を複数の部分領域に分割したうちのいずれか1つの部分領域に含まれる全ての画素の画素値または当該1つの部分領域に含まれる複数の画素の画素値に基づいて算出された値であることを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
  6. 前記部分領域は、前記対象領域の画素の中から設定された注目画素に基づいて設定されることを特徴とする請求項に記載の画像処理装置。
  7. 画像から対象領域を抽出する抽出手段と、
    前記対象領域に含まれる画素の画素値に基づいて複数の基準値を算出する算出手段と、
    前記画像における複数の画素のそれぞれの画素値と前記複数の基準値のそれぞれとを比較する比較手段と、
    前記比較手段による比較結果に基づいて、前記複数の基準値から1つの基準値を選択する選択手段と、
    を有することを特徴とする画像処理装置。
  8. 画像から対象領域を抽出する抽出ステップと、
    前記対象領域に含まれる画素の画素値に基づいて複数の基準値を算出する算出ステップと、
    前記複数の基準値の中からいずれか1つを選択し、当該選択した1つの基準値と前記画像における複数の画素の画素値と比較する比較ステップと、
    前記比較ステップの比較結果に基づいて、前記対象領域の画素の中から設定された注目画素の情報を決定する決定ステップと、
    を有することを特徴とする画像処理方法。
  9. 画像から対象領域を抽出する抽出ステップと、
    前記対象領域に含まれる画素の画素値に基づいて複数の基準値を算出する算出ステップと、
    前記画像における複数の画素のそれぞれの画素値と前記複数の基準値のそれぞれとを比較する比較ステップと、
    前記比較ステップによる比較結果に基づいて、前記複数の基準値から1つの基準値を選択する選択ステップと、
    を有することを特徴とする画像処理方法。
  10. 請求項またはに記載の画像処理方法の各ステップをコンピュータに実行させるためのプログラム。
JP2014114401A 2014-06-02 2014-06-02 画像処理装置、画像処理方法及びプログラム Active JP6452324B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014114401A JP6452324B2 (ja) 2014-06-02 2014-06-02 画像処理装置、画像処理方法及びプログラム
US14/727,093 US9531969B2 (en) 2014-06-02 2015-06-01 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014114401A JP6452324B2 (ja) 2014-06-02 2014-06-02 画像処理装置、画像処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2015228188A JP2015228188A (ja) 2015-12-17
JP2015228188A5 JP2015228188A5 (ja) 2017-06-08
JP6452324B2 true JP6452324B2 (ja) 2019-01-16

Family

ID=54703293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014114401A Active JP6452324B2 (ja) 2014-06-02 2014-06-02 画像処理装置、画像処理方法及びプログラム

Country Status (2)

Country Link
US (1) US9531969B2 (ja)
JP (1) JP6452324B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6815741B2 (ja) * 2016-03-30 2021-01-20 キヤノン株式会社 画像処理装置および画像処理方法
US11653023B2 (en) * 2017-12-01 2023-05-16 Sony Corporation Encoding device, encoding method, decoding device, and decoding method
JP7086630B2 (ja) * 2018-02-09 2022-06-20 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6083469A (ja) * 1983-10-14 1985-05-11 Ricoh Co Ltd 画信号2値化装置
JP4825473B2 (ja) * 2005-09-05 2011-11-30 アイシン精機株式会社 顔向き判別装置
CN101470802B (zh) 2007-12-28 2012-05-09 清华大学 物体检测装置和方法
US8379101B2 (en) * 2009-05-29 2013-02-19 Microsoft Corporation Environment and/or target segmentation
KR101616926B1 (ko) * 2009-09-22 2016-05-02 삼성전자주식회사 영상 처리 장치 및 방법
US8619049B2 (en) * 2011-05-17 2013-12-31 Microsoft Corporation Monitoring interactions between two or more objects within an environment
JP5946294B2 (ja) * 2012-03-02 2016-07-06 ヤマハ発動機株式会社 対象物検出装置、対象物検出方法、対象物検出プログラムおよび自動走行車両
JP5997545B2 (ja) * 2012-08-22 2016-09-28 キヤノン株式会社 信号処理方法及び信号処理装置
KR102106135B1 (ko) * 2013-10-01 2020-05-04 한국전자통신연구원 행동 인식 기반의 응용 서비스 제공 장치 및 그 방법

Also Published As

Publication number Publication date
JP2015228188A (ja) 2015-12-17
US20150350579A1 (en) 2015-12-03
US9531969B2 (en) 2016-12-27

Similar Documents

Publication Publication Date Title
US10234957B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
CN109376681B (zh) 一种多人姿态估计方法及系统
JP6125188B2 (ja) 映像処理方法及び装置
JP4855556B1 (ja) 動体検出装置、動体検出方法、動体検出プログラム、動体追跡装置、動体追跡方法及び動体追跡プログラム
JP6471448B2 (ja) 視差深度画像のノイズ識別方法及びノイズ識別装置
US8712154B2 (en) Image processing system and method
EP3236418B1 (en) Image processing apparatus, image processing method, and storage medium
JP2011134114A (ja) パターン認識方法およびパターン認識装置
US11334759B2 (en) Information processing apparatus, information processing method, and medium
JP2019117547A (ja) 画像処理装置、画像処理方法およびプログラム
JP6054771B2 (ja) 背景モデル構築装置、背景モデル構築方法、およびプログラム
JP6426441B2 (ja) 密度計測装置、密度計測方法、およびプログラム
JP6526527B2 (ja) 識別装置及び認証システム
JP6431404B2 (ja) 姿勢推定モデル生成装置及び姿勢推定装置
JP6452324B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5192437B2 (ja) 物体領域検出装置、物体領域検出方法および物体領域検出プログラム
JP6754717B2 (ja) 物体候補領域推定装置、物体候補領域推定方法、及び物体候補領域推定プログラム
JP6717049B2 (ja) 画像解析装置、画像解析方法およびプログラム
JP5470529B2 (ja) 動き検出装置、動き検出方法及び動き検出プログラム
JP2018049396A (ja) 形状推定方法、形状推定装置および形状推定プログラム
JP3811474B2 (ja) 顔部品位置検出方法及び顔部品位置検出装置
JP6453618B2 (ja) 算出装置、方法及びプログラム
JP2008003798A (ja) 画像処理装置及び画像処理プログラム
JP2016207107A (ja) 画像認識装置
JP2016033717A (ja) 対象検出装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170417

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170417

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181211

R151 Written notification of patent or utility model registration

Ref document number: 6452324

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151