JP2012027572A - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2012027572A
JP2012027572A JP2010163588A JP2010163588A JP2012027572A JP 2012027572 A JP2012027572 A JP 2012027572A JP 2010163588 A JP2010163588 A JP 2010163588A JP 2010163588 A JP2010163588 A JP 2010163588A JP 2012027572 A JP2012027572 A JP 2012027572A
Authority
JP
Japan
Prior art keywords
image
unit
learning
processing
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010163588A
Other languages
English (en)
Inventor
Yasushi Shu
寧 周
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010163588A priority Critical patent/JP2012027572A/ja
Priority to US13/156,765 priority patent/US8873800B2/en
Priority to CN2011102017249A priority patent/CN102346858A/zh
Publication of JP2012027572A publication Critical patent/JP2012027572A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm

Abstract

【課題】オブジェクトの存在する環境によらず、より高精度にオブジェクトを検出する。
【解決手段】認識部35は、所定のオブジェクトについての学習画像に対する学習により得られた学習結果に基づいて、時間的に連続する複数のフレームからなる入力画像の所定フレームにおけるオブジェクトを認識し、パラメータ設定部37は、所定フレームにおいて認識されたオブジェクトの領域の画像であるオブジェクト画像と学習画像の画像情報の差分に応じて、入力画像の所定フレームより時間的に後の後フレームに対して施される処理に用いられるパラメータを設定する。そして、認識部35は、パラメータ設定部37により設定されたパラメータに基づいて処理が施された後フレームにおけるオブジェクトを認識する。本発明は、画像処理装置に適用することができる。
【選択図】図1

Description

本発明は、画像処理装置および方法、並びにプログラムに関し、特に、オブジェクトの存在する環境によらず、より高精度にオブジェクトを検出することができるようにする画像処理装置および方法、並びにプログラムに関する。
従来、所定のオブジェクト(対象物体)についての学習画像を用いて学習した結果得られる認識器に基づいて、入力画像におけるオブジェクトを認識(検出)するシステムがある。
このようなシステムにおいては、より多くの学習画像を用いて学習するほど、オブジェクトの検出精度を向上することができる。
また、学習画像の数が少ない場合であっても、複数の認識器を生成し、生成した複数の認識器からいくつかの認識器を選択し、選択した認識器に基づいて最終的な統合認識器を生成することで、オブジェクトの検出精度を高めるようにする手法が提案されている(例えば、特許文献1参照)。
特開2010−61415号公報
しかしながら、入力画像が得られる環境が、学習画像が得られた環境と異なる場合、オブジェクトの検出精度は、その期待値を大きく下回る恐れがある。
例えば、学習画像が得られたときの照明環境と、入力画像が得られるときの照明環境が異なる場合、それぞれの画像における色や明るさが異なってしまうため、学習により得られた認識器では、入力画像におけるオブジェクトを精度よく検出できない可能性がある。
本発明は、このような状況に鑑みてなされたものであり、オブジェクトの存在する環境によらず、より高精度にオブジェクトを検出することができるようにするものである。
本発明の一側面の画像処理装置は、所定のオブジェクトについての学習画像に対する学習により得られた学習結果に基づいて、時間的に連続する複数のフレームからなる入力画像の所定フレームにおける前記オブジェクトを認識する認識手段と、前記所定フレームにおいて認識された前記オブジェクトの領域の画像であるオブジェクト画像と前記学習画像の画像情報の差分に応じて、前記入力画像の前記所定フレームより時間的に後の後フレームに対して施される処理に用いられるパラメータを設定する設定手段とを備え、前記認識手段は、前記設定手段により設定された前記パラメータに基づいて前記処理が施された前記後フレームにおける前記オブジェクトを認識する。
前記画像処理装置には、前記入力画像に対して所定の画像処理を施す処理手段をさらに設け、前記設定手段には、前記オブジェクト画像と前記学習画像の前記画像情報の差分に応じて、前記処理手段により前記後フレームに対して施される画像処理に用いられる画像処理パラメータを設定させ、前記処理手段には、前記設定手段により設定された前記画像処理パラメータに基づいて、前記後フレームに対して前記画像処理を施させ、前記認識手段には、前記処理手段により前記画像処理が施された前記後フレームにおける前記オブジェクトを認識させることができる。
前記設定手段には、前記オブジェクト画像と前記学習画像の前記画像情報の差分に応じて、前記認識手段により前記後フレームに対して施される認識処理に用いられる認識処理パラメータを設定させ、前記認識手段には、前記設定手段により設定された前記認識処理パラメータに基づいて、前記後フレームにおける前記オブジェクトを認識させることができる。
前記画像処理装置には、被写体を撮像することで前記入力画像を取得する撮像手段をさらに設け、前記設定手段には、前記オブジェクト画像と前記所定フレームにおける前記学習画像の前記画像情報の差分に応じて、前記撮像手段による撮像に関する撮像パラメータを設定させ、前記撮像手段には、前記設定手段により設定された前記撮像パラメータに基づいて、前記入力画像を取得させ、前記認識手段には、前記撮像手段により取得された前記後フレームにおける前記オブジェクトを認識させることができる。
本発明の一側面の画像処理方法は、所定のオブジェクトについての学習画像に対する学習により得られた学習結果に基づいて、入力画像の所定フレームにおける前記オブジェクトを認識する認識手段と、前記所定フレームにおいて認識された前記オブジェクトの領域の画像であるオブジェクト画像と前記学習画像の画像情報の差分に応じて、前記入力画像の前記所定フレームより時間的に後の後フレームに対して施される処理に用いられるパラメータを設定する設定手段とを備える画像処理装置の画像処理方法であって、前記認識手段が、所定のオブジェクトについての学習画像に対する学習により得られた学習結果に基づいて、入力画像の所定フレームにおける前記オブジェクトを認識する認識ステップと、前記設定手段が、前記所定フレームにおいて認識された前記オブジェクトの領域の画像であるオブジェクト画像と前記学習画像の画像情報の差分に応じて、前記入力画像の前記所定フレームより時間的に後の後フレームに対して施される処理に用いられるパラメータを設定する設定ステップとを含み、前記認識ステップは、前記設定ステップにおいて設定された前記パラメータに基づいて前記処理が施された前記後フレームにおける前記オブジェクトを認識する。
本発明の一側面のプログラムは、所定のオブジェクトについての学習画像に対する学習により得られた学習結果に基づいて、入力画像の所定フレームにおける前記オブジェクトを認識する認識ステップと、前記所定フレームにおいて認識された前記オブジェクトの領域の画像であるオブジェクト画像と前記学習画像の画像情報の差分に応じて、前記入力画像の前記所定フレームより時間的に後の後フレームに対して施される処理に用いられるパラメータを設定する設定ステップとを含む処理をコンピュータに実行させ、前記認識ステップは、前記設定ステップにおいて設定された前記パラメータに基づいて前記処理が施された前記後フレームにおける前記オブジェクトを認識する。
本発明の一側面においては、所定のオブジェクトについての学習画像に対する学習により得られた学習結果に基づいて、入力画像の所定フレームにおけるオブジェクトが認識され、所定フレームにおいて認識されたオブジェクトの領域の画像であるオブジェクト画像と学習画像の画像情報の差分に応じて、入力画像の所定フレームより時間的に後の後フレームに対して施される処理に用いられるパラメータが設定され、設定されたパラメータに基づいて処理が施された後フレームにおけるオブジェクトが認識される。
本発明の一側面によれば、オブジェクトの存在する環境によらず、より高精度にオブジェクトを検出することが可能となる。
本発明を適用した画像処理装置の一実施の形態の構成を示すブロック図である。 図1の画像処理装置のオブジェクト検出処理について説明するフローチャートである。 入力画像の例を示す図である。 画像処理装置の他の構成を示すブロック図である。 図4の画像処理装置のオブジェクト検出処理について説明するフローチャートである。 本発明を適用した撮像装置の一実施の形態の構成を示すブロック図である。 図6の撮像装置のオブジェクト検出処理について説明するフローチャートである。 撮像装置の他の構成を示すブロック図である。 図8の撮像装置のオブジェクト検出処理について説明するフローチャートである。 コンピュータのハードウェアの構成例を示すブロック図である。
以下、本発明の実施の形態について図を参照して説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(オブジェクト画像と平均学習画像との差分に応じて、画像処理パラメータを設定する構成)
2.第2の実施の形態(オブジェクト画像と平均学習画像との差分に応じて、認識処理パラメータを設定する構成)
3.第3の実施の形態(オブジェクト画像と平均学習画像との差分に応じて、撮像パラメータを設定する構成)
4.第4の実施の形態(オブジェクト画像と平均学習画像との差分に応じて、画像処理パラメータ、認識処理パラメータ、および撮像パラメータを設定する構成)
<1.第1の実施の形態>
[画像処理装置の構成]
図1は、本発明を適用した画像処理装置の一実施の形態の機能的な構成を示している。
図1の画像処理装置11は、入力された画像から、例えば、人間や、顔や手などの人間の体の一部であるオブジェクト(対象物体)を検出し、その結果を外部の装置に出力する。
画像処理装置11は、学習部31、記憶部32、画像入力部33、画像処理部34、認識部35、出力部36、およびパラメータ設定部37から構成される。
学習部31は、入力された学習画像から、その学習画像の画素のいくつかを、学習画像上における所定のオブジェクトの特徴点として抽出する。学習部31は、入力された学習画像に基づいて、例えばステアラブルフィルタ(Steerable Filter)を用いたフィルタ処理により、抽出した特徴点毎に、所定のオブジェクトを表す特徴量であって、入力画像上におけるオブジェクトの有無を認識する処理を行うときに用いられる認識用特徴量を計算する。そして、学習部31は、入力された学習画像および認識用特徴量に基づいて、例えば、AdaboostやGenetic Algorithm(GA)を用いた統計的学習処理により、認識部35において入力画像上における所定のオブジェクトの有無を認識するための認識器を生成する。
AdaBoostでは、検出しようとするオブジェクトの含まれる学習画像と、オブジェクトの含まれていない学習画像とがサンプルとして用いられて弱認識器(Weak Learnerとも称される)が生成され、多数の弱認識器が組み合わされて強い認識器が構築される。このようにして得られた強い認識器を用いれば、任意の画像からオブジェクトを検出することができるようになる。
また、学習部31は、認識用特徴量に基づいて、その認識用特徴量の平均値から、学習画像上における所定のオブジェクトの平均的な画像である平均学習画像を生成する。学習部31は、生成した認識用特徴量、認識器、および平均学習画像を記憶部32に供給し、記憶させる。
画像入力部33は、図示せぬ編集装置や記録装置から供給される、オブジェクトを認識しようとする画像を、入力画像として画像処理部34に供給する。
画像処理部34は、画像入力部33から供給された入力画像に対して、所定の画像処理を施し、認識部35に供給する。
認識部35は、オブジェクトを認識しようとしている入力画像に対して、学習部31と同様の処理を行うことにより、入力画像上の所定のオブジェクトを表す特徴量を計算する。認識部35は、記憶部32に記憶されている認識用特徴量および認識器を読み出し、計算した特徴量のうちの、認識用特徴量に対応する特徴量および認識器に基づいて、画像処理部34から供給された入力画像上における所定のオブジェクトを認識(検出)する。認識部35は、入力画像上における所定のオブジェクトを認識した認識結果を、出力部36およびパラメータ設定部37に供給する。
出力部36は、認識部35から供給された検出結果を、図示せぬ表示装置等に供給する。
パラメータ設定部37は、認識部35における所定のオブジェクトの認識に応じて、記憶部32から、平均学習画像を読み出し、入力画像上の、認識部35において認識されたオブジェクトの領域と比較する。パラメータ設定部37は、その比較結果に応じて、画像処理部34における画像処理に用いられるパラメータを設定する。
[画像処理装置のオブジェクト検出処理について]
次に、図2のフローチャートを参照して、画像処理装置11のオブジェクト検出処理について説明する。オブジェクト検出処理は、図示せぬ編集装置や記録装置から、時間的に連続する複数のフレームからなる画像、すなわち、動画像が、画像処理装置11に供給されると開始される。なお、画像処理装置11は、予め、人間の手の画像を学習画像として学習しているものとする。すなわち、以下において説明するオブジェクト検出処理によれば、入力画像における人間の手が検出されるものとする。
ステップS11において、画像入力部33は、図示せぬ編集装置や記録装置から供給される、オブジェクトを認識しようとする画像(動画像の1フレーム目)を、入力画像として画像処理部34に供給する。
ステップS12において、画像処理部34は、予め決められた画像処理用のパラメータである画像処理パラメータに基づいて、画像入力部33から供給された入力画像の1フレーム目に対して、所定の画像処理を施し、認識部35に供給する。
ステップS13において、認識部35は、入力画像に基づいて、例えば、ステアラブルフィルタを用いたフィルタ処理により、入力画像上のオブジェクトを表す特徴量を計算する。また、認識部35は、記憶部32に記憶されている認識用特徴量および認識器を読み出す。そして、認識部35は、計算した特徴量のうちの読み出した認識用特徴量に対応する特徴量および認識器に基づいて、画像処理部34から供給された入力画像上におけるオブジェクトを認識する。認識部35は、入力画像上におけるオブジェクトを認識した認識結果を、入力画像とともに、出力部36およびパラメータ設定部37に供給する。
なお、オブジェクトを認識する手法としては、仏INRIAのN.Dalalらによって提案されたHOG(Histograms of Oriented Gradients)特徴量とSVM(Support Vector machine)で認識する手法(”Histograms of Oriented Gradients for Human Detection”, CVPR, 2005参照)等を用いるようにしてもよい。
図3は、入力画像の例を示している。
図3の上側に示される入力画像P(n)は、時間的に連続する複数のフレームからなる入力画像におけるnフレーム目の画像を示しており、ここでは、n=1とする。1フレーム目の入力画像である入力画像P(1)においては、被写体である人間が手を広げている。また、図3の下側に示される入力画像P(n+1)は、nフレーム目の画像より時間的に1フレーム後の、(n+1)フレーム目の画像を示している。
このような入力画像P(1)に対して、認識部35は、人間の手についての認識用特徴量および認識器に基づいて、入力画像P(1)上における手を認識する。認識部35は、入力画像P(1)上における手を認識した認識結果として、図3の入力画像P(1)上に示される、オブジェクトとしての人間の手を囲む枠R(1)の表示用情報を、入力画像P(1)とともに、出力部36およびパラメータ設定部37に供給する。
ステップS14において、出力部36は、認識部35から供給された入力画像P(1)および認識結果(枠R(1)の表示用情報)を、図示せぬ表示装置等に供給する。これにより、図示せぬ表示装置においては、図3の上側に示されるような、認識されたオブジェクトである手が枠で囲まれた画像が表示される。
ステップS15において、パラメータ設定部37は、認識部35から入力画像および認識結果が供給されると、記憶部32から、平均学習画像を読み出し、入力画像上の、認識部35において認識されたオブジェクトの領域(枠R(1)内の領域)部分の画像(以下、オブジェクト画像という)と平均学習画像の画像情報を比較する。具体的には、パラメータ設定部37は、オブジェクト画像と平均学習画像の画素毎の、輝度情報および色情報を比較する。
ステップS16において、パラメータ設定部37は、オブジェクト画像と平均学習画像の画像情報の差分が、所定の閾値より大きいか否かを判定する。具体的には、パラメータ設定部37は、オブジェクト画像と平均学習画像の輝度情報の差分および色情報の差分が、それぞれについて予め定められた閾値より大きいか否かを判定する。
ここで、図3の上側に示された入力画像P(1)におけるオブジェクト画像(手の領域部分)は、平均学習画像と比較して十分暗い画像であるものとする。これにより、ステップS16において、画像情報の差分が所定の閾値より大きいと判定された場合、すなわち、オブジェクト画像と平均学習画像の輝度情報の差分および色情報の差分の両方が、それぞれについての閾値より大きいと判定された場合、処理はステップS17に進む。
ステップS17において、パラメータ設定部37は、画像情報の差分に応じて、画像処理部34における画像処理に用いられる画像処理パラメータを設定(更新)し、画像処理部34に供給する。具体的には、パラメータ設定部37は、画像処理部34において、オブジェクト画像の輝度情報および色情報のそれぞれが、平均学習画像の輝度情報および色情報のそれぞれに近づく画像処理が行われるような画像処理パラメータを設定し、画像処理部34に供給する。
ステップS18において、画像入力部33は、次の入力画像(2フレーム目)が入力されるか否かを判定する。
ステップS18において、次の入力画像が入力されると判定された場合、処理はステップS11に戻り、2フレーム目の入力画像に対して、ステップS11以降の処理が実行される。
2回目のステップS11において、画像入力部33は、図示せぬ編集装置や記録装置から供給される画像(動画像の2フレーム目)を、入力画像として画像処理部34に供給する。
2回目のステップS12において、画像処理部34は、画像処理パラメータに基づいて、画像入力部33から供給された、図3の下側に示される2フレーム目の入力画像P(2)(n=1である入力画像P(n+1))に対して、画像処理を施し、認識部35に供給する。
ここで、1回目のステップS17において、パラメータ設定部37によって画像処理パラメータが設定(更新)されているので、画像処理部34は、その設定された画像処理パラメータに基づいて、2フレーム目の入力画像P(2)に対して画像処理を施す。すなわち、画像処理部34は、新たに設定された画像処理パラメータに基づいて、2フレーム目の入力画像P(2)上におけるオブジェクト画像の輝度情報および色情報のそれぞれが、記憶部32に記憶されている平均学習画像の輝度情報および色情報のそれぞれに近づくように、入力画像に対して画像処理を施す。
具体的には、パラメータ設定部37によって、画像処理パラメータが、オブジェクト画像の輝度ヒストグラムの重心、最大値、および最小値のそれぞれを、平均学習画像の輝度ヒストグラムの重心、最大値、および最小値のそれぞれにマッチングさせるための投影関数として設定され、画像処理部34は、設定された投影関数を用いて、2フレーム目の入力画像に対して画像処理を施す。
さらに、パラメータ設定部37によって、画像処理パラメータが、オブジェクト画像の平均色を、平均学習画像の平均色にマッチングさせるための投影関数として設定され、画像処理部34は、設定された投影関数を用いて、2フレーム目の入力画像に対して画像処理を施す。また、ここでは、パラメータ設定部37によって設定された画像処理パラメータに応じて、入力画像に対してホワイトバランス補正が行われるようにしてもよい。なお、色情報についての処理は、入力画像がグレースケール画像である場合は省略される。
ここで、画像処理部34は、更新された画像処理パラメータに基づいて、入力画像全体に対して画像処理を施すようにもできるが、パラメータ設定部37から、1フレーム前の入力画像P(n)上のオブジェクト画像(枠R(n)内の領域部分)の位置を表す座標情報を取得し、その座標情報に対応する現フレームの入力画像P(n+1)上の領域(図3の入力画像P(n+1)において破線で示される領域)のみに対して画像処理を施すようにもできる。これにより、画像処理における演算量を抑えることができるようになる。
2回目のステップS13において、認識部35は、記憶部32に記憶されている認識用特徴量および認識器を読み出し、読み出した認識用特徴量および認識器に基づいて、画像処理部34から供給された入力画像(2フレーム目)上におけるオブジェクトを認識する。認識部35は、入力画像上におけるオブジェクトを認識した認識結果を、入力画像とともに、出力部36およびパラメータ設定部37に供給する。
具体的には、認識部35は、入力画像P(2)上における手を認識し、その認識結果として、入力画像P(2)において認識された手を囲む枠R(2)(図示せず)の表示用情報を、入力画像P(2)とともに、出力部36およびパラメータ設定部37に供給する。
2回目のステップS14において、出力部36は、認識部35から供給された入力画像P(2)および認識結果(枠R(2)の表示用情報)を、図示せぬ表示装置等に供給する。
2回目のステップS15において、パラメータ設定部37は、認識部35から入力画像および認識結果が供給されると、記憶部32から、平均学習画像を読み出し、入力画像上のオブジェクト画像と平均学習画像の画像情報を比較する。
2回目のステップS16において、パラメータ設定部37は、オブジェクト画像と平均学習画像の画像情報の差分が、所定の閾値より大きいか否かを判定する。具体的には、パラメータ設定部37は、オブジェクト画像と平均学習画像の輝度情報の差分および色情報の差分が、それぞれについての閾値より大きいか否かを判定する。
ここで、入力画像P(2)におけるオブジェクト画像(手の領域部分)が、平均学習画像と比較して、まだ十分暗い画像であるとすると、2回目のステップS16においても、画像情報の差分が所定の閾値より大きいと判定される。すなわち、オブジェクト画像と平均学習画像の輝度情報の差分および色情報の差分の両方が、それぞれについての閾値より大きいとされ、処理は2回目のステップS17に進む。
2回目のステップS17において、パラメータ設定部37は、画像情報の差分に応じて、画像処理部34における画像処理に用いられる画像処理パラメータを設定(更新)し、画像処理部34に供給する。具体的には、パラメータ設定部37は、画像処理部34において、オブジェクト画像の輝度情報および色情報のそれぞれが、平均学習画像の輝度情報および色情報のそれぞれに近づく画像処理が行われるような画像処理パラメータを設定し、画像処理部34に供給する。
このように、ステップS16において画像情報の差分が所定の閾値より大きいと判定されると、ステップS17において、オブジェクト画像の画像情報が、平均学習画像の画像情報に近づく画像処理が行われるような画像処理パラメータが設定される。そして、ステップS18において、次の入力画像(次フレーム)が入力されると判定されている間は、ステップS11乃至S18の処理が繰り返される。
ところで、ステップS16において、オブジェクト画像と平均学習画像の画像情報の差分が、所定の閾値より大きくないと判定された場合、すなわち、オブジェクト画像と平均学習画像の輝度情報の差分および色情報の差分のいずれかが、それぞれについての閾値より大きくないと判定された場合、ステップS17の処理はスキップされ、処理はステップS18に進む。
そして、ステップS18において、次の入力画像が入力されないと判定された場合、すなわち、図示せぬ編集装置や記録装置から画像が供給されなくなった場合、処理は終了する。
以上の処理によれば、入力画像の所定フレームにおけるオブジェクト画像と平均学習画像の画像情報の差分が所定の閾値より大きい間は、入力画像の次フレームにおけるオブジェクト画像と平均学習画像の画像情報の差分を小さくさせる画像処理を行うように、画像処理パラメータが設定される。これにより、入力画像の次フレームに対しては、その次フレーム上のオブジェクト画像の画像情報が、平均学習画像の画像情報に近づくような画像処理が施される。結果として、オブジェクト画像の画像情報と、平均学習画像の画像情報との差分が小さくなるので、オブジェクトの認識精度を高めることができる。また、オブジェクト画像の画像情報が、平均学習画像の画像情報に近づくような画像処理が施されるので、例えば、様々な照明環境に応じた輝度情報や色情報を有する学習画像に対して学習を行う必要はない。このようにして、オブジェクトの存在する環境によらず、より高精度にオブジェクトを検出することが可能となる。
以上においては、入力画像上のオブジェクト画像の画像情報が、平均学習画像の画像情報に近づくような画像処理を施すことで、オブジェクト画像の画像情報と、平均学習画像の画像情報との差分を小さくする構成について説明した。以下においては、入力画像上のオブジェクト画像の画像情報が、平均学習画像の画像情報に近づくような認識処理を施すことで、オブジェクト画像の画像情報と、平均学習画像の画像情報との差分を小さくする構成について説明する。
<2.第2の実施の形態>
[画像処理装置の構成]
図4は、入力画像上のオブジェクト画像の画像情報が、平均学習画像の画像情報に近づくような認識処理を施すようにした画像処理装置の機能構成例を示している。
図4の画像処理装置111は、学習部31、記憶部32、画像入力部33、画像処理部34、認識部35、出力部36、およびパラメータ設定部131から構成される。
なお、図4の画像処理装置111においては、図1の画像処理装置11に設けられたものと同様の機能を備える構成については、同一名称および同一符号を付するものとし、その説明は、適宜省略するものとする。
すなわち、図4の画像処理装置111において、図1の画像処理装置11と異なるのは、パラメータ設定部37に代えてパラメータ設定部131を設けた点である。
パラメータ設定部131は、認識部35における所定のオブジェクトの認識に応じて、記憶部32から、平均学習画像を読み出し、入力画像上の、認識部35において認識されたオブジェクトの領域と比較する。パラメータ設定部131は、その比較結果に応じて、認識部35における認識処理に用いられるパラメータを設定する。
[画像処理装置のオブジェクト検出処理について]
次に、図5のフローチャートを参照して、画像処理装置111のオブジェクト検出処理について説明する。
なお、図5のフローチャートの1回目の(1フレーム目の入力画像に対する)ステップS31乃至S36の処理は、図2のフローチャートの1回目のステップS11乃至S16の処理と基本的に同様であるので、その説明は省略する。
ステップS36において、画像情報の差分が所定の閾値より大きいと判定された場合、すなわち、オブジェクト画像と平均学習画像の輝度情報の差分および色情報の差分の両方が、それぞれについての閾値より大きいと判断された場合、処理はステップS37に進む。
ステップS37において、パラメータ設定部131は、画像情報の差分に応じて、認識部35における認識処理に用いられる認識処理パラメータを設定し、認識部35に供給する。具体的には、例えば、パラメータ設定部37は、認識部35において用いられる、オブジェクト画像の特徴量としての輝度情報および色情報のそれぞれを、認識用特徴量としての輝度情報および色情報のそれぞれに近づけて認識処理が行われるような認識処理パラメータを設定し、認識部35に供給する。
ステップS38において、画像入力部33は、次の入力画像(2フレーム目)が入力されるか否かを判定する。
ステップS38において、次の入力画像が入力されると判定された場合、処理はステップS31に戻り、2フレーム目の入力画像に対して、ステップS31以降の処理が実行される。
2回目のステップS31において、画像入力部33は、図示せぬ編集装置や記録装置から供給される画像(動画像の2フレーム目)を、入力画像として画像処理部34に供給する。
2回目のステップS32において、画像処理部34は、予め設定されている画像処理パラメータに基づいて、画像入力部33から供給された2フレーム目の入力画像に対して、所定の画像処理を施し、認識部35に供給する。
2回目のステップS33において、認識部35は、入力画像に基づいて、画像処理部34から供給された入力画像(2フレーム目)上における所定のオブジェクトを認識する。認識部35は、入力画像上におけるオブジェクト認識した認識結果を、入力画像とともに、出力部36およびパラメータ設定部131に供給する。
ここで、1回目のステップS37において、パラメータ設定部131によって認識処理パラメータが設定されているので、認識部35は、その設定された認識処理パラメータに基づいて、2フレーム目の入力画像に対して認識処理を施す。すなわち、認識部35は、新たに設定された認識処理パラメータに基づいて、2フレーム目の入力画像上におけるオブジェクト画像の特徴量としての輝度情報および色情報のそれぞれを、記憶部32に記憶されている認識用特徴量としての輝度情報および色情報のそれぞれに近づけて、入力画像に対して認識処理を施す。
2回目のステップS34において、出力部36は、認識部35から供給された入力画像および認識結果(認識されたオブジェクトを囲む枠の表示用情報)を、図示せぬ表示装置等に供給する。
2回目のステップS35において、パラメータ設定部131は、認識部35から入力画像および認識結果が供給されると、記憶部32から、平均学習画像を読み出し、入力画像上のオブジェクト画像と平均学習画像の画像情報を比較する。
2回目のステップS36において、パラメータ設定部131は、オブジェクト画像と平均学習画像の画像情報の差分が、所定の閾値より大きいか否かを判定する。具体的には、パラメータ設定部131は、オブジェクト画像と平均学習画像の輝度情報の差分および色情報の差分が、それぞれについての閾値より大きいか否かを判定する。
ここで、オブジェクト画像と平均学習画像の輝度情報の差分および色情報の差分の両方が、それぞれについての閾値より大きいと判定された場合、処理は2回目のステップS37に進む。
2回目のステップS37において、パラメータ設定部131は、画像情報の差分に応じて、認識部35における認識処理に用いられる認識処理パラメータを設定し、認識部35に供給する。
このように、ステップS36において画像情報の差分が所定の閾値より大きいと判定されると、ステップS37において、オブジェクト画像の特徴量としての画像情報を、認識特徴量としての画像情報に近づけて認識処理が行われるような認識処理パラメータが設定される。そして、ステップS38において、次の入力画像(次フレーム)が入力されると判定されている間は、ステップS31乃至S38の処理が繰り返される。
ところで、ステップS36において、オブジェクト画像と平均学習画像の画像情報の差分が、所定の閾値より大きくないと判定された場合、すなわち、オブジェクト画像と平均学習画像の輝度情報の差分および色情報の差分のいずれかが、それぞれについての閾値より大きくないと判定された場合、ステップS37の処理はスキップされ、処理はステップS38に進む。
そして、ステップS38において、次の入力画像が入力されないと判定された場合、すなわち、図示せぬ編集装置や記録装置から画像が供給されなくなった場合、処理は終了する。
以上の処理によれば、入力画像の所定フレームにおけるオブジェクト画像と平均学習画像の画像情報の差分が所定の閾値より大きい間は、入力画像の次フレームにおけるオブジェクト画像と平均学習画像の画像情報の差分を小さくさせて認識処理を行うように、認識処理パラメータが設定される。これにより、入力画像の次フレームに対しては、その次フレーム上のオブジェクト画像の特徴量としての画像情報を、認識用特徴量としての画像情報に近づけて認識処理が施される。結果として、オブジェクト画像の画像情報と、平均学習画像の画像情報との差分が小さくなるので、オブジェクトの認識精度を高めることができる。また、オブジェクト画像の画像情報が、平均学習画像の画像情報に近づくような画像処理が施されるので、例えば、様々な照明環境に応じた輝度情報や色情報を有する学習画像に対して学習を行う必要はない。このようにして、オブジェクトの存在する環境によらず、より高精度にオブジェクトを検出することが可能となる。
なお、以上においては、入力画像上のオブジェクト画像の特徴量としての画像情報を、認識用特徴量としての画像情報に近づけるようにしたが、逆に、認識用特徴量としての画像情報を、入力画像上のオブジェクト画像の特徴量としての画像情報に近づけるようにしてもよい。
また、以上においては、図示せぬ編集装置や記録装置から供給される動画像におけるオブジェクトを検出する画像処理装置において、入力画像(動画像)上のオブジェクト画像と平均学習画像の画像情報の差分に応じて、所定の処理パラメータを設定(更新)する構成について説明してきたが、以下においては、被写体を撮像する撮像手段を備える撮像装置において、撮像手段により取得された画像上のオブジェクト画像と平均学習画像の画像情報の差分に応じて、撮像手段の撮像パラメータを設定する構成について説明する。
<3.第3の実施の形態>
[撮像装置の構成]
図6は、撮像手段により取得された画像上のオブジェクト画像と平均学習画像の画像情報の差分に応じて、撮像手段の撮像パラメータを設定するようにした撮像装置の機能構成例を示している。
図6の撮像装置211は、学習部31、記憶部32、画像処理部34、認識部35、撮像部231、表示部232、およびパラメータ設定部233から構成される。
なお、図6の撮像装置211においては、図1の画像処理装置11に設けられたものと同様の機能を備える構成については、同一名称および同一符号を付するものとし、その説明は、適宜省略するものとする。
すなわち、図6の撮像装置211において、図1の画像処理装置11と異なるのは、画像入力部33、出力部36、およびパラメータ設定部37に代えて、撮像部231、表示部232、パラメータ設定部233を設けた点である。
撮像部231は、例えばレンズ、絞り、およびメカシャッタ等の光学素子よりなる光学部と、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)センサ等の光電素子とを有している。撮像部231は、図示せぬ制御部の制御の下、光学部に対して、焦点位置や露出の調整を行う。また、撮像部231は、光電素子により、光学部を介して供給された入射光を光電変換し、画像データを生成する。撮像部231は、生成した画像データを、入力画像として画像処理部34に供給する。
表示部232は、図示せぬ制御部の制御の下、画像処理部34から、認識部35を介して供給される入力画像を、リアルタイムな画像であるスルー画として表示する。ユーザは、表示部232にリアルタイムに表示されるスルー画を確認しながら、撮像する画像の構図を決定することで、シャッタ操作を行い、撮像した画像を図示せぬ記録媒体等に記録させることができる。
パラメータ設定部233は、認識部35における所定のオブジェクトの認識に応じて、記憶部32から、平均学習画像を読み出し、入力画像上の、認識部35において認識されたオブジェクトの領域と比較する。パラメータ設定部233は、その比較結果に応じて、撮像部231における撮像に関わる撮像パラメータを設定する。
[撮像装置のオブジェクト検出処理について]
次に、図7のフローチャートを参照して、撮像装置211のオブジェクト検出処理について説明する。撮像装置211において、ユーザの操作により撮像モードが選択されると、撮像が可能な撮像モードとなり、オブジェクト検出処理が開始される。なお、上述した画像処理装置11や画像処理装置111と同様に、撮像装置211は、予め、人間の手の画像を学習画像として学習しているものとする。
なお、図7のフローチャートのステップS52乃至S56の処理は、図2のフローチャートのステップS12乃至S16の処理と基本的に同様であるので、その説明は適宜省略する。
ステップS51において、撮像部231は、ユーザの操作や自動露出機能等に応じて設定されている撮像パラメータに応じて生成される画像データを、1フレーム目の入力画像として取得し、画像処理部34に供給する。
なお、ステップS54においては、表示部232は、認識部35から供給された入力画像および認識結果(認識されたオブジェクトを囲む枠の表示用情報)を表示する。これにより、ユーザは、表示部232に表示されるスルー画とともに、認識されているオブジェクトを確認することができる。
さて、ステップS56において、画像情報の差分が所定の閾値より大きいと判定された場合、すなわち、オブジェクト画像と平均学習画像の輝度情報の差分が、予め定められた閾値より大きいと判断された場合、処理はステップS57に進む。
ステップS57において、パラメータ設定部233は、画像情報の差分に応じて、撮像部231の撮像パラメータを設定し、撮像部231に供給する。具体的には、パラメータ設定部233は、撮像部231において、入力画像上におけるオブジェクト画像の輝度情報が、平均学習画像の輝度情報に近づくように露出が調整されるような撮像パラメータを設定し、撮像部231に供給する。
ステップS58において、画像処理部34は、撮像モードが継続されることで、撮像部231により次の入力画像(2フレーム目)が取得されるか否かを判定する。
ステップS58において、撮像モードが継続されると判定された場合、処理はステップS51に戻り、ステップS51以降の処理が実行される。
2回目のステップS51において、撮像部231は、撮像パラメータに応じて生成される2フレーム目の画像データを、入力画像として画像処理部34に供給する。
ここで、1回目のステップS57において、パラメータ設定部233によって撮像パラメータが設定されているので、撮像部231は、設定された撮像パラメータに基づいて、絞りを調整し、生成される画像データを、2フレーム目の入力画像として取得し、画像処理部34に供給する。すなわち、撮像部231は、設定された撮像パラメータに基づいて、2フレーム目の入力画像上におけるオブジェクト画像の輝度情報が、記憶部32に記憶されている平均学習画像の輝度情報に近づくようにして、入力画像を取得する。
そして、2回目のステップS52以降の処理は、1回目のそれぞれの処理と同様にして行われる。
このように、ステップS56において画像情報の差分が所定の閾値より大きいと判定されると、ステップS57において、オブジェクト画像の画像情報が、平均学習画像の画像情報に近づくような入力画像を取得するための撮像パラメータが設定される。そして、ステップS58において、撮像モードが継続されていると判定されている間は、ステップS51乃至S58の処理が繰り返される。
ところで、ステップS56において、オブジェクト画像と平均学習画像の画像情報の差分が、所定の閾値より大きくないと判定された場合、すなわち、オブジェクト画像と平均学習画像の輝度情報の差分が、それについての閾値より大きくないと判定された場合、ステップS57の処理はスキップされ、処理はステップS58に進む。
そして、ステップS58において、撮像モードが継続されないと判定された場合、例えば、ユーザの操作により、撮像モードの終了が指示される等した場合、処理は終了する。
以上の処理によれば、入力画像の所定フレームにおけるオブジェクト画像と平均学習画像の画像情報の差分が所定の閾値より大きい間は、入力画像の次フレームにおけるオブジェクト画像と平均学習画像の画像情報の差分を小さくさせるような撮像を行うように、撮像パラメータが設定される。これにより、入力画像の次フレームに対しては、その次フレーム上のオブジェクト画像の画像情報が、平均学習画像の画像情報に近づくような撮像が行われる。結果として、オブジェクト画像の画像情報と、平均学習画像の画像情報との差分が小さくなるので、オブジェクトの認識精度を高めることができる。また、オブジェクト画像の画像情報が、平均学習画像の画像情報に近づくような画像処理が施されるので、例えば、様々な照明環境に応じた輝度情報を有する学習画像に対して学習を行う必要はない。このようにして、オブジェクトの存在する環境によらず、より高精度にオブジェクトを検出することが可能となる。
以上においては、被写体を撮像する撮像手段を備える撮像装置において、撮像手段により取得された入力画像上のオブジェクト画像と平均学習画像の画像情報の差分に応じて、撮像手段の撮像パラメータを設定する構成について説明してきたが、オブジェクト画像と平均学習画像の画像情報の差分に応じて、撮像パラメータの他に、画像処理パラメータや認識処理パラメータをさらに設定するようにしてもよい。
<4.第4の実施の形態>
[撮像装置の構成]
図8は、撮像手段により取得された入力画像上のオブジェクト画像と平均学習画像の画像情報の差分に応じて、撮像手段の撮像パラメータに加え、画像処理パラメータや認識処理パラメータを設定するようにした撮像装置の機能構成例を示している。
図8の撮像装置311は、学習部31、記憶部32、画像処理部34、認識部35、撮像部231、表示部232、およびパラメータ設定部331から構成される。
なお、図8の撮像装置311においては、図6の撮像装置211に設けられたものと同様の機能を備える構成については、同一名称および同一符号を付するものとし、その説明は、適宜省略するものとする。
すなわち、図8の撮像装置311において、図6の撮像装置211と異なるのは、パラメータ設定部233に代えてパラメータ設定部331を設けた点である。
パラメータ設定部331は、図6のパラメータ設定部233と同様の機能を備える他、
図1のパラメータ設定部37と同様の機能、および図4のパラメータ設定部131と同様の機能をさらに備える。すなわち、パラメータ設定部331は、認識部35における所定のオブジェクトの認識に応じて、記憶部32から、平均学習画像を読み出し、入力画像上の、認識部35において認識されたオブジェクトの領域と比較する。そして、パラメータ設定部331は、その比較結果に応じて、撮像パラメータ、画像処理パラメータ、および認識処理パラメータを設定する。
[撮像装置のオブジェクト検出処理について]
次に、図9のフローチャートを参照して、撮像装置311のオブジェクト検出処理について説明する。
なお、図9のフローチャートのステップS71,S74乃至S76,S78の処理は、図7のフローチャートのステップS51,S54乃至S56,S58の処理と基本的に同様であるので、その説明は省略する。
また、図9のフローチャートのステップS72の処理は、図1のフローチャートのステップS12の処理と、図9のフローチャートのステップS73の処理は、図5のフローチャートのステップS33の処理と、それぞれ基本的に同様であるので、その説明は省略する。
すなわち、ステップS77において、パラメータ設定部331は、画像情報の差分に応じて、撮像部231の撮像パラメータ、画像処理部34における画像処理パラメータ、および、認識部35における認識処理パラメータの各パラメータを設定し、認識部35に供給する。
以上の処理によれば、入力画像の所定フレームにおけるオブジェクト画像と平均学習画像の画像情報の差分が所定の閾値より大きい間は、入力画像の次フレームにおけるオブジェクト画像と平均学習画像の画像情報の差分を小さくさせる撮像、画像処理、および認識処理を行うように、撮像パラメータ、画像処理パラメータ、および認識処理パラメータが設定される。これにより、入力画像の次フレームに対しては、その次フレーム上のオブジェクト画像の画像情報が、平均学習画像の画像情報に近づくような撮像、画像処理、および認識処理が行われる。結果として、オブジェクト画像の画像情報と、平均学習画像の画像情報との差分が小さくなるので、オブジェクトの認識精度を高めることができる。また、オブジェクト画像の画像情報が、平均学習画像の画像情報に近づくような画像処理が施されるので、例えば、様々な照明環境に応じた輝度情報や色情報を有する学習画像に対して学習を行う必要はない。このようにして、オブジェクトの存在する環境によらず、より高精度にオブジェクトを検出することが可能となる。
なお、以上においては、画像情報が、輝度情報や色情報であるものとして説明してきたが、画像情報は、入力画像および平均学習画像のそれぞれに含まれ、比較することが可能な情報であればよい。
また、検出の対象物体となるオブジェクトは、人間の手以外であってもよく、人間自体や人間の顔、犬や馬などの動物、自動車などの無生物であってもよい。
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等に、プログラム記録媒体からインストールされる。
図10は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)901,ROM(Read Only Memory)902,RAM(Random Access Memory)903は、バス904により相互に接続されている。
バス904には、さらに、入出力インタフェース905が接続されている。入出力インタフェース905には、キーボード、マウス、マイクロホン等よりなる入力部906、ディスプレイ、スピーカ等よりなる出力部907、ハードディスクや不揮発性のメモリ等よりなる記憶部908、ネットワークインタフェース等よりなる通信部909、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等のリムーバブルメディア911を駆動するドライブ910が接続されている。
以上のように構成されるコンピュータでは、CPU901が、例えば、記憶部908に記憶されているプログラムを、入出力インタフェース905およびバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU901)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリ等よりなるパッケージメディアであるリムーバブルメディア911に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア911をドライブ910に装着することにより、入出力インタフェース905を介して、記憶部908にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部909で受信し、記憶部908にインストールすることができる。その他、プログラムは、ROM902や記憶部908に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
11 画像処理装置, 34 画像処理部, 35 認識部, 37 パラメータ設定部, 111 画像処理装置, 131 パラメータ設定部, 211 撮像装置, 231 撮像部, 233 パラメータ設定部, 311 撮像装置, 331 パラメータ設定部

Claims (6)

  1. 所定のオブジェクトについての学習画像に対する学習により得られた学習結果に基づいて、時間的に連続する複数のフレームからなる入力画像の所定フレームにおける前記オブジェクトを認識する認識手段と、
    前記所定フレームにおいて認識された前記オブジェクトの領域の画像であるオブジェクト画像と前記学習画像の画像情報の差分に応じて、前記入力画像の前記所定フレームより時間的に後の後フレームに対して施される処理に用いられるパラメータを設定する設定手段と
    を備え、
    前記認識手段は、前記設定手段により設定された前記パラメータに基づいて前記処理が施された前記後フレームにおける前記オブジェクトを認識する
    画像処理装置。
  2. 前記入力画像に対して所定の画像処理を施す処理手段をさらに備え、
    前記設定手段は、前記オブジェクト画像と前記学習画像の前記画像情報の差分に応じて、前記処理手段により前記後フレームに対して施される画像処理に用いられる画像処理パラメータを設定し、
    前記処理手段は、前記設定手段により設定された前記画像処理パラメータに基づいて、前記後フレームに対して前記画像処理を施し、
    前記認識手段は、前記処理手段により前記画像処理が施された前記後フレームにおける前記オブジェクトを認識する
    請求項1に記載の画像処理装置。
  3. 前記設定手段は、前記オブジェクト画像と前記学習画像の前記画像情報の差分に応じて、前記認識手段により前記後フレームに対して施される認識処理に用いられる認識処理パラメータを設定し、
    前記認識手段は、前記設定手段により設定された前記認識処理パラメータに基づいて、前記後フレームにおける前記オブジェクトを認識する
    請求項1に記載の画像処理装置。
  4. 被写体を撮像することで前記入力画像を取得する撮像手段をさらに備え、
    前記設定手段は、前記オブジェクト画像と前記所定フレームにおける前記学習画像の前記画像情報の差分に応じて、前記撮像手段による撮像に関する撮像パラメータを設定し、
    前記撮像手段は、前記設定手段により設定された前記撮像パラメータに基づいて、前記入力画像を取得し、
    前記認識手段は、前記撮像手段により取得された前記後フレームにおける前記オブジェクトを認識する
    請求項1に記載の画像処理装置。
  5. 所定のオブジェクトについての学習画像に対する学習により得られた学習結果に基づいて、入力画像の所定フレームにおける前記オブジェクトを認識する認識手段と、
    前記所定フレームにおいて認識された前記オブジェクトの領域の画像であるオブジェクト画像と前記学習画像の画像情報の差分に応じて、前記入力画像の前記所定フレームより時間的に後の後フレームに対して施される処理に用いられるパラメータを設定する設定手段と
    を備える画像処理装置の画像処理方法において、
    前記認識手段が、所定のオブジェクトについての学習画像に対する学習により得られた学習結果に基づいて、入力画像の所定フレームにおける前記オブジェクトを認識する認識ステップと、
    前記設定手段が、前記所定フレームにおいて認識された前記オブジェクトの領域の画像であるオブジェクト画像と前記学習画像の画像情報の差分に応じて、前記入力画像の前記所定フレームより時間的に後の後フレームに対して施される処理に用いられるパラメータを設定する設定ステップと
    を含み、
    前記認識ステップは、前記設定ステップにおいて設定された前記パラメータに基づいて前記処理が施された前記後フレームにおける前記オブジェクトを認識する
    画像処理方法。
  6. 所定のオブジェクトについての学習画像に対する学習により得られた学習結果に基づいて、入力画像の所定フレームにおける前記オブジェクトを認識する認識ステップと、
    前記所定フレームにおいて認識された前記オブジェクトの領域の画像であるオブジェクト画像と前記学習画像の画像情報の差分に応じて、前記入力画像の前記所定フレームより時間的に後の後フレームに対して施される処理に用いられるパラメータを設定する設定ステップと
    を含む処理をコンピュータに実行させ、
    前記認識ステップは、前記設定ステップにおいて設定された前記パラメータに基づいて前記処理が施された前記後フレームにおける前記オブジェクトを認識する
    プログラム。
JP2010163588A 2010-07-21 2010-07-21 画像処理装置および方法、並びにプログラム Withdrawn JP2012027572A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010163588A JP2012027572A (ja) 2010-07-21 2010-07-21 画像処理装置および方法、並びにプログラム
US13/156,765 US8873800B2 (en) 2010-07-21 2011-06-09 Image processing apparatus and method, and program
CN2011102017249A CN102346858A (zh) 2010-07-21 2011-07-14 图像处理设备和方法以及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010163588A JP2012027572A (ja) 2010-07-21 2010-07-21 画像処理装置および方法、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2012027572A true JP2012027572A (ja) 2012-02-09

Family

ID=45493648

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010163588A Withdrawn JP2012027572A (ja) 2010-07-21 2010-07-21 画像処理装置および方法、並びにプログラム

Country Status (3)

Country Link
US (1) US8873800B2 (ja)
JP (1) JP2012027572A (ja)
CN (1) CN102346858A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024018906A1 (ja) * 2022-07-20 2024-01-25 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、及び、プログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130273969A1 (en) * 2011-12-01 2013-10-17 Finding Rover, Inc. Mobile app that generates a dog sound to capture data for a lost pet identifying system
US9342735B2 (en) * 2011-12-01 2016-05-17 Finding Rover, Inc. Facial recognition lost pet identifying system
US8854481B2 (en) * 2012-05-17 2014-10-07 Honeywell International Inc. Image stabilization devices, methods, and systems
JP6074272B2 (ja) * 2013-01-17 2017-02-01 キヤノン株式会社 画像処理装置および画像処理方法
JP6441283B2 (ja) * 2016-10-12 2018-12-19 矢崎総業株式会社 固定構造、および、電気接続箱
US10735707B2 (en) * 2017-08-15 2020-08-04 International Business Machines Corporation Generating three-dimensional imagery
CN110543276B (zh) * 2019-08-30 2021-04-02 维沃移动通信有限公司 图片的筛选方法及其终端设备

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2183878B (en) * 1985-10-11 1989-09-20 Matsushita Electric Works Ltd Abnormality supervising system
US5048095A (en) * 1990-03-30 1991-09-10 Honeywell Inc. Adaptive image segmentation system
US6055335A (en) * 1994-09-14 2000-04-25 Kabushiki Kaisha Toshiba Method and apparatus for image representation and/or reorientation
US5802361A (en) * 1994-09-30 1998-09-01 Apple Computer, Inc. Method and system for searching graphic images and videos
US5884042A (en) * 1996-10-31 1999-03-16 Sensormatic Electronics Corporation Data identification in an intelligent video information management system
US5822542A (en) * 1996-10-31 1998-10-13 Sensormatic Electronics Corporation Electronic and structural components of an intelligent video information management apparatus
JP3445799B2 (ja) * 1996-12-25 2003-09-08 株式会社日立製作所 パターン認識装置及びパターン認識方法
US6266442B1 (en) * 1998-10-23 2001-07-24 Facet Technology Corp. Method and apparatus for identifying objects depicted in a videostream
US6217520B1 (en) * 1998-12-02 2001-04-17 Acuson Corporation Diagnostic medical ultrasound system and method for object of interest extraction
US6477272B1 (en) * 1999-06-18 2002-11-05 Microsoft Corporation Object recognition with co-occurrence histograms and false alarm probability analysis for choosing optimal object recognition process parameters
DE60019786T2 (de) * 1999-11-09 2006-03-09 The University Of Manchester Identifizierung oder überprüfung von objektklassen, oder erzeugung von objektbildern
AU2003903445A0 (en) * 2003-06-26 2003-07-17 Canon Kabushiki Kaisha Optimising compositing calculations for a run of pixels
AU2003903448A0 (en) * 2003-06-26 2003-07-17 Canon Kabushiki Kaisha A method for tracking depths in a scanline based raster image processor
GB0424030D0 (en) * 2004-10-28 2004-12-01 British Telecomm A method and system for processing video data
JP4273420B2 (ja) * 2004-12-06 2009-06-03 ソニー株式会社 映像信号処理装置及び映像信号の伝送方法
US7739208B2 (en) * 2005-06-06 2010-06-15 Numenta, Inc. Trainable hierarchical memory system and method
JP4628882B2 (ja) * 2005-06-16 2011-02-09 富士フイルム株式会社 判別器の学習方法、顔判別方法および装置並びにプログラム
US7734112B1 (en) * 2005-12-12 2010-06-08 Vy Corporation Method and system for identifying an object in an electronically acquired image
JP4623387B2 (ja) 2008-09-04 2011-02-02 ソニー株式会社 学習装置および方法、認識装置および方法、並びにプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024018906A1 (ja) * 2022-07-20 2024-01-25 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、及び、プログラム

Also Published As

Publication number Publication date
US8873800B2 (en) 2014-10-28
CN102346858A (zh) 2012-02-08
US20120020550A1 (en) 2012-01-26

Similar Documents

Publication Publication Date Title
US10033927B2 (en) Scene motion correction in fused image systems
JP2012027572A (ja) 画像処理装置および方法、並びにプログラム
JP5055166B2 (ja) 眼の開閉度判定装置、方法及びプログラム、撮像装置
KR20210139450A (ko) 이미지 디스플레이 방법 및 디바이스
US20120140994A1 (en) Image processing apparatus and image processing method
KR20130134163A (ko) 표적 추출 장치와 그 방법 및 상기 방법을 구현하는 프로그램이 기록된 기록 매체
US9253406B2 (en) Image capture apparatus that can display review image, image capture method, and storage medium
JP6157165B2 (ja) 視線検出装置及び撮像装置
JP5437414B2 (ja) 画像処理装置、画像処理方法、プログラムおよび記録媒体
US11710343B2 (en) Image processing device, image processing method, and storage medium for correcting brightness
JP2015070426A (ja) 画像処理装置および方法、並びにプログラム
JP2012068948A (ja) 顔属性推定装置およびその方法
JP6098133B2 (ja) 顔構成部抽出装置、顔構成部抽出方法及びプログラム
JP2010050651A (ja) ホワイトバランス制御装置およびそれを用いた撮像装置並びにホワイトバランス制御方法
JP2002269545A (ja) 顔画像処理方法及び顔画像処理装置
JP5539565B2 (ja) 撮像装置及び被写体追跡方法
US20160364604A1 (en) Subject tracking apparatus, control method, image processing apparatus, and image pickup apparatus
JP5278307B2 (ja) 画像処理装置及び方法、並びにプログラム
JP2009258770A (ja) 画像処理方法、画像処理装置、画像処理プログラム、撮像装置
JP4789526B2 (ja) 画像処理装置、画像処理方法
JP6003133B2 (ja) 撮像装置、撮像制御方法及びプログラム
US11921816B2 (en) Information processing apparatus that specifies a subject and method, image capturing apparatus, and image capturing system
JP5247419B2 (ja) 撮像装置および被写体追跡方法
JP6070098B2 (ja) 閾値設定装置、閾値設定方法及びプログラム
WO2023106119A1 (ja) 制御装置、制御方法、情報処理装置、生成方法、およびプログラム

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20131001