JP6467994B2 - 画像処理プログラム、画像処理装置、及び画像処理方法 - Google Patents

画像処理プログラム、画像処理装置、及び画像処理方法 Download PDF

Info

Publication number
JP6467994B2
JP6467994B2 JP2015039132A JP2015039132A JP6467994B2 JP 6467994 B2 JP6467994 B2 JP 6467994B2 JP 2015039132 A JP2015039132 A JP 2015039132A JP 2015039132 A JP2015039132 A JP 2015039132A JP 6467994 B2 JP6467994 B2 JP 6467994B2
Authority
JP
Japan
Prior art keywords
region
color
skin
image
hair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015039132A
Other languages
English (en)
Other versions
JP2016162103A (ja
Inventor
健太郎 辻
健太郎 辻
明洋 皆川
明洋 皆川
上原 祐介
祐介 上原
明燮 鄭
明燮 鄭
松田 裕司
裕司 松田
信浩 宮▲崎▼
信浩 宮▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015039132A priority Critical patent/JP6467994B2/ja
Publication of JP2016162103A publication Critical patent/JP2016162103A/ja
Application granted granted Critical
Publication of JP6467994B2 publication Critical patent/JP6467994B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

開示の技術は、画像処理プログラム、画像処理装置、及び画像処理方法に関する。
近年、オフィスやショッピングセンター、商店街等様々な場所に設置された監視カメラ等で撮像された映像に写る人物を検出することが行われている。
人物を検出する技術として、人物を検出するための照合パターンと画像とを照合することにより、人物を検出する技術が知られている。
また、撮像装置で撮像された映像から得られる画像において、肌の色らしさや髪の色らしさ等から人物を検出する技術が知られている。
特開2005−157906号公報 特開2005−149143号公報
照合パターンと画像とを照合して人物を検出する場合、映像に写っている人物の顔の向きや髪型等に応じた複数種類の照合パターンが必要とされる場合がある。複数種類の照合パターンと画像とを照合する場合、例えば、照合に要する時間が膨大になる等の問題が生じる。
開示の技術は一つの側面として、顔の向きや髪型によらず、少ない照合パターンにより、人物を精度よく検出することを目的とする。
1つの態様では、人物が写っている画像から前記人物の肌領域を特定する。また、特定した前記肌領域と、前記肌領域から前記人物の頭髪部とみなせる頭髪部領域と、が照合処理で同じ領域とみなされるように、前記肌領域及び前記頭髪部領域の少なくとも一方の画素情報の値を変換する。さらに、値を変換した前記領域を含む画像を、頭部か否かを判断するための照合パターンと照合する前記照合処理を行う、ことを含む処理を実行させる。
一つの側面として、顔の向きや髪型によらず、少ない照合パターンにより、人物を精度よく検出することができる、という効果を有する。
本実施形態に係る人物検出システムの一例の概略構成図である。 本実施形態に係る画像処理装置の一例の機能的な概略構成を表す機能ブロック図である。 本実施形態に係る画像処理装置として機能するコンピュータの一例の概略構成を示すブロック図である。 本実施形態に係る画像処理装置で行われる画像処理の一例を示すフローチャートである。 本実施形態の肌色画素検出部が、変換した画像の一例の模式図である。 図5に示した画像において生成した肌領域の一例の模式図である。 肌領域の画素の色を頭髪部領域の色に変換する色変換を説明するための説明図である。 頭髪部領域がない場合に肌領域の色を無彩色へ変換する色変換を説明するための説明図である。 本実施形態の検出用マスクの一例の図である。 図7に示した人物について、頭髪部領域の色を肌領域の色に変換する色変換を説明するための説明図である。
以下、図面を参照して開示の技術の一例を詳細に説明する。
図1は、本実施形態に係る画像処理システム10の一例の概略構成図である。図1に示すように、画像処理システム10は、撮像装置12と、画像処理装置14と、を備える。撮像装置12と、画像処理装置14とは、ネットワーク16を介して接続されている。なお、画像処理システム10が備える撮像装置12の数は、本実施形態に限らず、2以上であってもよい。
図1に示した画像処理システム10は、撮像装置12が撮像した映像に写っている人物を検出する機能を有する。
撮像装置12は、所定のエリアの映像を撮像する機能を有しており、いわゆる監視カメラである。本実施形態の撮像装置12は、常に監視エリアの動画像を撮像しており、撮像した映像(動画像)は、ネットワーク16を介して画像処理装置14に出力される。
画像処理装置14は、撮像装置12が撮像した映像中の人物(具体的には、人物を表す画像)を検出する機能を有する。
図2には、本実施形態の画像処理装置14の一例の機能的な概略構成を表す機能ブロック図を示す。
図2に示すように、画像処理装置14は、映像取得部20、映像DB(Data Base)22、肌色画素検出部24、肌領域生成部26、色変換部28、照合部30、検出用マスクDB32、検出結果DB34、及び表示部36を備える。
映像取得部20は、撮像装置12が撮像した映像を撮像装置12から取得する機能を有する。映像取得部20が取得した映像は、映像DB22に記憶される。
肌色画素検出部24は、開示の技術の特定部の一例であり、撮像装置12が撮像した動画像である映像をフレーム毎の画像(静止画像)に変換し、変換した画像から肌色の画素を検出する機能を有する。
肌領域生成部26は、開示の技術の特定部の一例であり、肌色画素検出部24が検出した肌色画素に基づいて肌領域を形成する機能を有する。なお、本実施形態において、肌領域は、画像に写っている人物の頭部の肌領域(すなわち顔領域)を指す。
色変換部28は、開示の技術の変換部の一例であり、肌領域生成部26が生成した肌領域の色を変換する機能を有する。本実施形態の色変換部28は、肌領域及び画像に写っている人物の頭髪部とみなせる領域(以下、「頭髪部領域」という)を対象領域として、当該対象領域の色を同一の色に変換する。本実施形態では、色変換部28は、具体例として、対象領域の色を、頭髪部領域(頭髪)の色、もしくは、無彩色に変換する機能を有する。なお、本実施形態では、画素の色が開示の技術の画素情報の一例に対応する。
照合部30は、色変換部28が色を変換した対象領域を含む画像を、検出用マスクDBに記憶されている検出用マスクと照合することにより、画像中に含まれる人物(人物の頭部)を検出する機能を有する。照合部30の検出結果は、検出結果DB34に記憶される。
表示部36は、検出した人物に関する情報等を表示する機能を有する。
なお、画像処理装置14は、例えば図3に示すコンピュータ50で実現することができる。コンピュータ50は、CPU(Central Processing Unit)52、入出力インターフェース(I/F)54、ネットワークI/F56、メモリ58、及び不揮発性の記憶部60を備える。CPU52、入出力I/F54、ネットワークI/F56、メモリ58、及び記憶部60は、バス80を介して互いに接続されている。ネットワークI/F56は、ネットワーク16を介して撮像装置12と接続される。
記憶部60はHDD(Hard Disk Drive)やフラッシュメモリ等によって実現できる。記憶媒体としての記憶部60には、コンピュータ50を画像処理装置14として機能させるため画像処理プログラム62が記憶されている。CPU52は、画像処理プログラム62を記憶部60から読み出してメモリ58に展開し、画像処理プログラム62が有する各プロセスを順次実行する。
画像処理プログラム62は、映像取得プロセス64、肌色画素検出プロセス66、肌領域生成プロセス68、色変換プロセス70、及び照合プロセス72を有する。
また、記憶部60の映像DB記憶領域74は、映像DB22が記憶される記憶領域として機能する。また、記憶部60の検出用マスク記憶領域76は、検出用マスクDB32が記憶される記憶領域として機能する。また、記憶部60の検出結果DB記憶領域78は、検出結果DB34が記憶される記憶領域として機能する。
CPU52は、映像取得プロセス64を実行することで、映像取得部20として動作する。また、CPU52は、肌色画素検出プロセス66を実行することで、肌色画素検出部24として動作する。また、CPU52は、肌領域生成プロセス68を実行することで、肌領域生成部26として動作する。また、CPU52は、色変換プロセス70を実行することで、色変換部28として動作する。また、CPU52は、照合プロセス72を実行することで、照合部30として動作する。
これにより、画像処理プログラム62を実行したコンピュータ50が、画像処理装置14として機能する。
なお、コンピュータ50は、いわゆるデスクトップ型のパーソナルコンピュータに限定されない。コンピュータ50は、ラップトップ型のパーソナルコンピュータであってもよいし、タブレット端末やスマートフォンに代表されるPDA(Personal Digital Assistants:携帯情報端末装置)等であってもよい。
なお、画像処理装置14は、例えば半導体集積回路、より詳しくはASIC(Application Specific Integrated Circuit)等で実現することも可能である。
次に、本実施形態に係る画像処理装置14による作用について説明する。
画像処理装置14の映像取得部20は、撮像装置12が撮像した映像をネットワーク16を介して取得し、画像処理を行う前に、予め映像DB22に記憶させておく。映像取得部20が映像を取得して映像DB22に記憶させるタイミングは特に限定されない。このようなタイミングとしては、例えば、10分毎や数時間毎等、所定の時間毎のタイミング等が挙げられる。また例えば、撮像装置12が撮像するタイミングに応じて、撮像した映像をリアルタイムに取得するようにしてもよい。
本実施形態の画像処理装置14では、映像DB22に映像が記憶されている状態で、画像処理が実行される。本実施形態の画像処理装置14で行われる画像処理について説明する。図4には、本実施形態の画像処理装置14で行われる画像処理の一例のフローチャートを示す。
本実施形態の画像処理装置14では、図4に示した画像処理は、予め定められたタイミング、もしくは画像から人物の検出を行うことを所望するユーザが指示したタイミングで実行される。予め定められたタイミングとは、特に限定されないが、例えば、10分毎や数時間毎等、所定の時間毎のタイミング等が挙げられる。また例えば、所定の時間毎等ではなく、映像取得部20が撮像装置12から映像を取得して映像DB22に記憶させるのに連動して行うようにしてもよい。
ステップS100で肌色画素検出部24は、映像(画像)中から肌色の画素を検出する。具体的には、肌色画素検出部24は、映像DB22から映像を読み出してフレーム毎の画像(静止画像)に変換する。図5には、本実施形態の肌色画素検出部24が、変換した画像の一例の模式図を示す。図5は、5人の人物(人物102、104、106、108、110)が写った画像100を示している。人物102、104、106は、画像100中に顔及び頭髪が写っている。人物108は、画像100中に顔が写っているが、頭髪は写っていない。また、人物110は、画像100中に後頭部が写っており、顔は写っていない。以下では、具体例として、図5に示した模式図に写る人物を検出する場合について説明する。
肌色画素検出部24は、該画像に含まれる肌色の画素を検出する。肌色の画素を検出することにより、人物の顔を構成する画素の候補を検出する。
肌色画素検出部24が肌色の画素を検出する方法は特に限定されず、画像中の各画素の色(R(Red)、G(Green)、B(Blue))が予め定義した肌色であるか否かを判定すればよい。また、下記の文献に記載されている方法を用いてもよい。
松橋 聡, 藤本 研司, 中村 納, 南 敏, “顔領域抽出に有効な修正HSV 表色系の提案,”テレビ誌, vol.49, no.6, pp.787−797, June 1995。
Satoshi Matsuhashi, Osamu Nakamura and Toshi Minami,“Human-face extraction using modified HSV color system and personal identification through facial image based on isodensity maps,”。Proc. Canadian Conference on Electrical and Computer Engineering, pp. 909-912, 1995。
次のステップS102で肌領域生成部26は、検出された肌色の画素をグルーピングし、肌領域を生成する。具体的には、近接する肌色の画素をグルーピングしてラベリングすることにより、画像に写る人物の顔の部分にあたる領域の候補を生成する。
肌領域生成部26が、肌領域を生成する方法は、特に限定されず、例えば、下記文献に記載されている方法を用いればよい。
長尾真 デジタル画像処理 pp.360-361。
R. M. Haralick and L. Shapiro, Computer and robot vision, Addison-Wesley, pp. 28−48, 1992。
図6には、図5に示した画像100において生成した肌領域の一例の模式図を示す。図6に点線で示すように、画像100からは、人物102、104、106、108の4人の肌領域が生成される。人物110については、画像100中に顔が写っておらず、肌色の画素が検出されなかったため、肌領域は生成されない。
次のステップS104で色変換部28は、肌領域(n)について、n=1とし、次のステップS106へ進む。
ステップS106で色変換部28は、生成された肌領域に対して所定の位置関係の位置に頭髪部領域が有るか否かを判断する。
色変換部28が、頭髪部領域が有るか否かを判断する方法は、特に限定されない。例えば、肌領域生成部26が生成した肌領域を人物の顔とみなした場合の、肌領域に隣接する頭頂部にあたる位置(図6では、上側)に、無彩色の画素が有る場合には、無彩色の画素が形成する領域を頭髪部領域と判断してもよい。一般的に、頭髪は、無彩色である場合が多いため、無彩色を、頭髪の色とみなすことにより、無彩色の画素が形成する領域を頭髪部領域とみなすことができる。なお、この場合において、頭頂部にあたる位置は、画像100中における肌領域に対する頭頂部の位置を、撮像装置12の向き等により予め得ておけばよい。
なお、「肌領域に隣接する頭頂部にあたる位置」の数は、1つでもよいが、複数であることが好ましい。なお、当該数については、肌領域の大きさ、画像全体の大きさ、及び画像の解像度等に応じて定めてもよい。
なお、頭頂部にあたる位置には、頭髪が写っていないが、顔の横にあたる位置には、頭髪が写っている場合がある。そのため、このように、肌領域に隣接する領域から頭髪部領域を判断する場合は、頭頂部にあたる位置以外についても無彩色の画素の有無を判断し、無彩色の画素が有る場合には、無彩色の画素が形成する領域を頭髪部領域と判断してもよい。
その他の判断方法としては、背景との差分から動きのある領域(前景)を抽出し、抽出した前景(人物の画像)が、肌領域に対して頭頂部にあたる位置に有る場合は、当該前景を頭髪部領域と判断してもよい。なお、背景差分から動きのある領域を抽出する方法は、特に限定されず、下記文献に記載されている方法を用いてもよい。
時間相関型背景判定法による移動物体検出、電子情報通信学会論文誌、D-II, vol.79, no.4, pp.568-576, 1995。
頭髪が有ると判断した場合は、肯定判定となり、ステップS108へ移行する。色変換部28は、図5に示した画像100からは、人物102、104、106の3人について頭髪部領域が有ると判断する。
ステップS108で色変換部28は、肌領域の色と頭髪部領域の色とを同一の色に変換する。本実施形態の色変換部28は、頭髪部領域の画素の色で肌領域の画素の色へ変換することにより、肌領域及び頭部領域(対象領域)の色を同一の色に変換する。
図7には、肌領域の画素の色を頭髪部領域の色に変換する色変換を説明するための説明図を示す。図7は、色変換部28が頭髪が有ると判断した人物102、104、106の3人について、肌領域の色を頭髪部領域の色に変換した状態を示している。
色変換部28が、肌領域の画素の色を変換する方法は特に限定されない。例えば、上述したように、頭頂部にあたる位置の無彩色の領域を頭髪部領域と判断した場合は、各肌領域毎に、当該無彩色の領域の画素の色を、肌領域の画素の色へ変換する。この場合、無彩色の領域に複数の色の画素が含まれている場合は、例えば、最も多くの画素の色(無彩色)へ変換してもよいし、複数の無彩色のうちの予め定められた無彩色(または予め定められた無彩色に近い無彩色)へ変換してもよい。
また例えば、上述したように、背景差分から頭髪部領域を判断した場合は、各肌領域毎に、肌領域の画素の色を、頭髪部領域の色へ変換する。この場合、例えば、上記と同様に、頭髪部領域に複数の色の画素が含まれている場合は、最も多くの画素に対応する色へ変換してもよいし、肌領域との境界にあたる色へ変換してもよい。
次のステップS110で照合部30は、変換した色が無彩色であるか否かを判断する。無彩色の場合は、肯定判定となり、ステップS116へ移行する。一方、無彩色ではない場合は、否定判定となり、ステップS112へ移行する。
ステップS112で照合部30は、変換した色を、無彩色へ変換する。ここで照合部30が、変換する無彩色は特に限定されないが、例えば、予め定められた無彩色が挙げられる。なお、予め定められた無彩色とは、背景の色と離れた色(例えば、色座標上での距離が所定値以上)であることが好ましい。
なお、色変換部28が、頭頂部にあたる位置の無彩色の領域を頭髪部領域と判断した場合は、ステップS108で変換する色は無彩色になるため、上記ステップS110及びS112の処理を省略してもよい。一方、色変換部28が、背景差分から頭髪部領域を判断した場合は、ステップS108で変換する色が無彩色とは限らないため、本画像処理のように、ステップS108及びS112の処理を行う。
一方、ステップS106で色変換部28が、頭髪部領域がないと判断した場合は、否定判定となり、ステップS114へ移行する。色変換部28は、図5に示した画像100からは、人物108の1人について頭髪部領域がないと判断する。
ステップS114で色変換部28は、肌領域の色を無彩色へ変換した後、ステップS116へ移行する。なお、色変換部28が変換する無彩色は特に限定されない。例えば、予め定められた無彩色へ変換してもよい。なお、予め定められた無彩色とは、上記ステップS112と同様に、背景の色と離れた色(例えば、色座標上での距離が所定値以上)であることが好ましい。また本ステップにおける予め定められた無彩色は、ステップS112で変換する予め定められた無彩色と同一であってもよいし、異なっていてもよい。
また例えば、背景部にあたる画素の色から最も離れた無彩色へ変換してもよい。この場合の変換方法について図8を参照して詳細に説明する。図8には、頭髪部領域がない場合に肌領域の色を、無彩色へ変換する色変換を説明するための説明図を示す。
肌領域の重心の位置の画素(gx、gy)から、画像上で上下方向、及び左右方向(図8の矢印方向)に進み、肌領域に接する画素の色(ri、gi、bi)から最も離れた無彩色(c、c、c)に変換する。無彩色の色を規定する「c」は、下記(1)式の「J」が最大値となる場合のcを導出すればよい。なお下記(1)式に示したように、「i」は、無彩色の色(「c」)を導出するために用いる画素の位置の数である。例えば、上下方向、及び左右方向の各々から1画素ずつ用いて、それぞれの画素の色に対して最も離れた無彩色を導出する場合は、i=4になる。
・・・(1)
次のステップS116で照合部30は、nをインクリメントしてn=n+1とし、次のステップS118へ移行する。
ステップS118で照合部30は、nが、検出した肌領域の数よりも大きいか否かを判断する。画像100の場合は、検出した肌領域の数が4であるため、n>4であるか否かを判断する。否定判定となった場合は、ステップS106に戻り、上記ステップS106〜S116の処理を繰り返す。一方、肯定判定となった場合は、ステップS120へ移行する。
ステップS120で照合部30は、対象領域を含む画像と、検出用DB32に記憶されている検出用マスクと、を照合した後、本画像処理を終了する。本実施形態の検出用マスクとは、開示の技術の照合パターンの一例であり、頭部の形状モデルである。具体的には本実施形態の検出用マスクは、人物の後頭部の画像を検出するための検出用マスクである。上述のように、本実施形態では、顔にあたる領域である肌領域の色を、頭髪部領域の色へ変換しているため、後頭部を検出するための検出用マスクにより照合を行うことができる。
図9には、本実施形態の検出用マスクの一例の図を示す。図9に示した検出用マスク120は、頭髪の色を黒と想定した場合の検出用マスクの一例であり、頭部部分の色が一番暗く、上半身部分の色が二番目に暗く、周囲の部分(背景部分)の色が最も明るいことを想定した検出用マスクである。検出用マスク120の頭部部分122は、輝度値を−128、上半身部分の輝度値を1、及び背景部分124の輝度値を127としている。
照合方法は、特に限定されないが、具体例として本実施形態の照合部30は、画像100全体にわたり、検出用マスク120を移動させ、移動させた位置毎に、対応する画像100の領域の画素と検出用マスクとを照合する。まず、映像取得部20は、画像100の画素毎に0〜255で表される輝度値から、128を減算し、各画素の輝度値を、−128〜127へ変換する。そして、検出用マスク120の輝度値と、対応する位置にある画像100の画素の輝度値とを乗算し、乗算値を検出用マスク120の全体に亘って加算して加算値を導出する。対象領域を含む画像と検出用マスク120とを照合した場合、対象領域を含まない画像と検出用マスク120とを照合した場合に比べて、加算値の値が大きくなる。そのため、本実施形態の画像処理装置14では、予め実験等により、照合用の閾値を得ておき、加算値が当該閾値以上の場合は、対象領域の画像であると判断することにより、画像中の人物の画像を検出する。
なお、本実施形態の照合部30は、画像100中に写っている人物の顔の大きさが人物の位置等により異なるため、本実施形態では、検出用マスク120の大きさを異ならせて、複数回、画像100と検出用マスク120との照合を行う。
また、検出用マスク120は、頭髪が黒色の場合の検出用マスクの具体例を示したが、頭髪が白色の場合の検出用マスクを別途用いることにより、頭髪が白色の人物の検出を行うことができる。このように、頭髪の色に応じて検出用マスクを検出用マスクDB32に予め記憶させておくことが好ましい。
本実施形態では、後頭部の画像を検出する検出用マスクを用いて照合を行うため、画像中に顔が写っている人物、及び顔が写っておらず、後頭部が写っている人物の両方を検出することができる。図5に示した画像100では、顔が写っている人物102、104、106、108、及び後頭部が写っている人物110の5人が検出される。
本実施形態の照合部30は、検出結果として、画像中の人物の数を検出結果DB34に記憶させる。なお、検出結果をどのように記憶させるかは特に限定されず、検出元の画像や映像を特定する情報に対応付けて、画像中の人物の数を記憶させればよい。また、人物の数とともに、検出した人物の画像の位置を表す情報を記憶させてもよい。また、照合部30は、ユーザ等の所望に応じて検出結果を表示部36に表示してもよい。
このように検出用マスク120と画像100とを照合することにより、肌領域生成部26が生成した肌領域のうち、人物の顔及び後頭部の画像が検出され、顔ではない領域の画像は、検出されない。
以上説明したように、本実施形態の画像処理装置14は、肌色画素検出部24が、撮像装置12から取得した映像に応じた画像から肌色の画素を検出する。肌領域生成部26は、検出した肌色の画素に基づいて、肌領域を生成する。これにより、肌色画素検出部24及び肌領域生成部26は、人物が写っている画像から人物の肌領域を特定する。そして、色変換部28は、特定した肌領域と、肌領域から当該人物の頭髪部領域と、が照合処理で同じ領域とみなされるように、肌領域の色を頭髪部領域の色(髪の毛の色)へ変換する。さらに、照合部30は、色を変換した対象領域の画像と、検出用マスクとを照合する照合処理を行い、輝度値に基づいて、人物の顔(顔画像)を検出する。
一般的に、検出用マスクを用いて人物画像の検出を行う場合、顔の向きや髪型等に応じて、多数のパターンの検出用マスクを準備したり、多数のパターンを学習したりしなくてはならない。
また、人物を検出する元となる画像が低解像度(具体例として人物の頭部が10ピクセル以下)の場合、顔と頭髪部領域との境界を構成する画素自体が少ないため、大部分の画素が当該境界を構成する可能性がある。そのため、人物の顔の向きや髪型等を学習することにより検出用マスクを得る場合は、学習の効果が低く、また多数のパターンの検出用マスクを用意する必要が生じてしまう。
これに対して本実施形態の画像処理装置14によれば、対象領域の色を同一の色とするため、人物の顔の向きや髪型等によらず、最も特徴が少ないパターンである後頭部用の検出用マスクを用いて画像中から人物を検出することができる。また、低解像度の画像からも、精度良く人物(人物の画像)を検出することができる。
従って、本実施形態の画像処理装置14によれば、顔の向きや髪型によらず、少ない照合パターンにより、人物を精度よく検出することができる。また、人物の顔を検出するための検出用マスクを得るために、人物の顔の向きや髪型等を学習する必要がなくなる。
また、本実施形態の画像処理装置14によれば、画像と照合する照合パターンの数が少なくなることにより、照合に要する時間を短縮することができる。
また、本実施形態の画像処理装置14によれば、肌領域と、頭髪部領域とを、対象領域として用いて人物の検出を行うので、肌領域のみを用いる場合に比べて、領域の大きさ(面積)が大きくなるため、検出精度が向上する。
なお、本実施形態では、画像処理のステップS108において、肌領域の色を、頭髪部領域の色へ変換することにより、対象領域の色を同一の色へ変換していたが、変換する色、及び方法は、これに限定されない。例えば、頭髪部領域の色を、肌領域の色へ変換してもよい。図10には、図7に示した 人物102、104、106の人物について、頭髪部領域の色を、肌領域の色へ変換する色変換を説明するための説明図を示す。図10に示すように、人物102、104、106の対象領域103、105、107の色は、それぞれ肌領域の色へ変換される。一般的に、人の肌の色は、髪の毛の色に比べて、個人差が少ないため、検出用マスクの数をより少なくすることができるので、照合にかかる処理をより高速に行うことができる。
なお、このように頭髪部領域の色を、肌領域の色へ変換する場合、人物108のように、頭髪部領域が検出されない場合は、そのまま色を変換をせずに、検出用マスクを用いて検出を行うことができる。一方、人物110のように後頭部が写っており、頭髪部領域のみであり、肌領域が検出されない場合は、別途、後頭部用の検出用マスクを用いて検出を行ってもよい。また、頭髪部領域の色を、肌領域の色へ変換する場合、上記画像処理のステップS100で肌色画素を検出し、ステップS102で肌領域を生成したのに代えて、頭髪とみなせる色の画素を検出し、頭髪部領域を生成してもよい。この場合、生成した頭髪部領域と、頭髪部領域に隣接する肌領域とを対象領域として同一の色へ変換すればよい。
なお、肌領域の色と頭髪部領域の色とを各々、変換してもよく、例えば、同一の無彩色に変換してもよい。
なお、本実施形態では、画素の輝度を用いて対象画像を含む画像と検出用マスクとを照合していたが、輝度に代わり彩度を用いてもよいし、輝度及び彩度を用いてもよい。
なお、本実施形態では、画像処理プログラム62が記憶部60に予め記憶(インストール)されている態様を説明したが、画像処理プログラム62を記憶媒体に記録された形態で提供することも可能である。記憶媒体としては、例えば、CD−ROM(Compact Disc Read Only Memory)、DVD−ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等が挙げられる。
以上の上記実施形態に関し、更に以下の付記を開示する。
(付記1)
コンピュータに、
人物が写っている画像から前記人物の肌領域を特定し、
特定した前記肌領域と、前記肌領域から前記人物の頭髪部とみなせる頭髪部領域と、が照合処理で同じ領域とみなされるように、前記肌領域及び前記頭髪部領域の少なくとも一方の画素情報の値を変換し、
値を変換した前記領域を含む画像を、頭部か否かを判断するための照合パターンと照合する前記照合処理を行う、
ことを含む処理を実行させる画像処理プログラム。
(付記2)
前記頭髪部領域の画素情報のうちの色情報を、前記肌領域の色情報を表す値へ変換する、
付記1に記載の画像処理プログラム。
(付記3)
前記肌領域の画素情報のうちの色情報を、前記頭髪部領域の色情報を表す値へ変換する、
付記1に記載の画像処理プログラム。
(付記4)
前記頭髪部領域が存在しない場合は、
前記肌領域の画素情報を変換せずにそのまま用いるか、前記肌領域の画素情報を予め定められた値に変換する、
付記1から付記3のいずれか1つに記載の画像処理プログラム。
(付記5)
前記照合処理は、画素の輝度及び彩度の少なくとも一方を用いて照合を行う、
付記1から付記4のいずれか1つに記載の画像処理プログラム。
(付記6)
人物が写っている画像から前記人物の肌領域を特定する特定部と、
特定した前記肌領域と、前記肌領域から前記人物の頭髪部とみなせる頭髪部領域と、が照合処理で同じ領域とみなされるように、前記肌領域及び前記頭髪部領域の少なくとも一方の画素情報の値を変換する変換部と、
値を変換した前記領域を含む画像を、頭部か否かを判断するための照合パターンと照合する前記照合処理を行う照合部と、
を備えた画像処理装置。
(付記7)
前記変換部は、前記頭髪部領域の画素情報のうちの色情報を、前記肌領域の色情報を表す値へ変換する、
付記6に記載の放射線画像撮影装置。
(付記8)
前記変換部は、前記肌領域の画素情報のうちの色情報を、前記頭髪部領域の色情報を表す値へ変換する、
付記6に記載の放射線画像撮影装置。
(付記9)
前記頭髪部領域が存在しない場合は、
前記変換部は、前記肌領域の画素情報を変換せずにそのまま用いるか、前記肌領域の画素情報を予め定められた値に変換する、
付記6から付記8のいずれか1つに記載の放射線画像撮影装置。
(付記10)
前記照合部が行う前記照合処理は、画素の輝度及び彩度の少なくとも一方を用いて照合を行う、
付記6から付記9のいずれか1つに記載の放射線画像撮影装置。
(付記11)
コンピュータにより、
人物が写っている画像から前記人物の肌領域を特定し、
特定した前記肌領域と、前記肌領域から前記人物の頭髪部とみなせる頭髪部領域と、が照合処理で同じ領域とみなされるように、前記肌領域及び前記頭髪部領域の少なくとも一方の画素情報の値を変換し、
値を変換した前記領域を含む画像を、頭部か否かを判断するための照合パターンと照合する前記照合処理を行う、
ことを含む画像処理方法。
(付記12)
前記頭髪部領域の画素情報のうちの色情報を、前記肌領域の色情報を表す値へ変換する、
付記11に記載の画像処理方法。
(付記13)
前記肌領域の画素情報のうちの色情報を、前記頭髪部領域の色情報を表す値へ変換する、
付記11に記載の画像処理方法。
(付記14)
前記頭髪部領域が存在しない場合は、
前記肌領域の画素情報を変換せずにそのまま用いるか、前記肌領域の画素情報を予め定められた値に変換する、
付記11から付記13のいずれか1つに記載の画像処理方法。
(付記15)
前記照合処理は、画素の輝度及び彩度の少なくとも一方を用いて照合を行う、
付記11から付記14のいずれか1つに記載の画像処理方法。
10 人物検出システム
14 画像処理装置
24 肌色画素検出部
26 肌領域生成部
28 色変換部
30 照合部
50 コンピュータ
52 CPU
60 記憶部
62 画像処理プログラム

Claims (7)

  1. コンピュータに、
    人物が写っている画像から前記人物の肌領域を特定し、
    特定した前記肌領域と、前記肌領域から前記人物の頭髪部とみなせる頭髪部領域と、が照合処理で同じ領域とみなされるように、前記肌領域及び前記頭髪部領域の少なくとも一方の画素情報の値を変換し、
    値を変換した前記領域を含む画像を、頭部か否かを判断するための照合パターンと照合する前記照合処理を行う、
    ことを含む処理を実行させる画像処理プログラム。
  2. 前記頭髪部領域の画素情報のうちの色情報を、前記肌領域の色情報を表す値へ変換する、
    請求項1に記載の画像処理プログラム。
  3. 前記肌領域の画素情報のうちの色情報を、前記頭髪部領域の色情報を表す値へ変換する、
    請求項1に記載の画像処理プログラム。
  4. 前記頭髪部領域が存在しない場合は、
    前記肌領域の画素情報を変換せずにそのまま用いるか、前記肌領域の画素情報を予め定められた値に変換する、
    請求項1から請求項3のいずれか1項に記載の画像処理プログラム。
  5. 前記照合処理は、画素の輝度及び彩度の少なくとも一方を用いて照合を行う、
    請求項1から請求項4のいずれか1項に記載の画像処理プログラム。
  6. 人物が写っている画像から前記人物の肌領域を特定する特定部と、
    特定した前記肌領域と、前記肌領域から前記人物の頭髪部とみなせる頭髪部領域と、が照合処理で同じ領域とみなされるように、前記肌領域及び前記頭髪部領域の少なくとも一方の画素情報の値を変換する変換部と、
    値を変換した前記領域を含む画像を、頭部か否かを判断するための照合パターンと照合する前記照合処理を行う照合部と、
    を備えた画像処理装置。
  7. コンピュータにより、
    人物が写っている画像から前記人物の肌領域を特定し、
    特定した前記肌領域と、前記肌領域から前記人物の頭髪部とみなせる頭髪部領域と、が照合処理で同じ領域とみなされるように、前記肌領域及び前記頭髪部領域の少なくとも一方の画素情報の値を変換し、
    値を変換した前記領域を含む画像を、頭部か否かを判断するための照合パターンと照合する前記照合処理を行う、
    ことを含む画像処理方法。
JP2015039132A 2015-02-27 2015-02-27 画像処理プログラム、画像処理装置、及び画像処理方法 Active JP6467994B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015039132A JP6467994B2 (ja) 2015-02-27 2015-02-27 画像処理プログラム、画像処理装置、及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015039132A JP6467994B2 (ja) 2015-02-27 2015-02-27 画像処理プログラム、画像処理装置、及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2016162103A JP2016162103A (ja) 2016-09-05
JP6467994B2 true JP6467994B2 (ja) 2019-02-13

Family

ID=56847023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015039132A Active JP6467994B2 (ja) 2015-02-27 2015-02-27 画像処理プログラム、画像処理装置、及び画像処理方法

Country Status (1)

Country Link
JP (1) JP6467994B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7079742B2 (ja) * 2019-02-08 2022-06-02 株式会社日立製作所 計算機システム
US20230089155A1 (en) * 2020-03-19 2023-03-23 Nec Corporation Information processing device, monitoring system, information processing method, andnon-transitory computer-readable storage medium

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3577154B2 (ja) * 1995-02-02 2004-10-13 松下電器産業株式会社 画像処理装置
JP4699056B2 (ja) * 2005-03-15 2011-06-08 パナソニック株式会社 自動追尾装置及び自動追尾方法
JP2009169692A (ja) * 2008-01-16 2009-07-30 Tokai Rika Co Ltd 画像処理装置及び画像処理方法
JP5127531B2 (ja) * 2008-03-27 2013-01-23 セコム株式会社 画像監視装置
JP5538909B2 (ja) * 2010-01-05 2014-07-02 キヤノン株式会社 検出装置およびその方法
JP2011221812A (ja) * 2010-04-09 2011-11-04 Sony Corp 情報処理装置及び方法、並びにプログラム

Also Published As

Publication number Publication date
JP2016162103A (ja) 2016-09-05

Similar Documents

Publication Publication Date Title
JP6636154B2 (ja) 顔画像処理方法および装置、ならびに記憶媒体
CN106446873B (zh) 人脸检测方法及装置
Ahmed et al. Vision based hand gesture recognition using dynamic time warping for Indian sign language
Shreve et al. Macro-and micro-expression spotting in long videos using spatio-temporal strain
TWI394093B (zh) 一種影像合成方法
TWI505200B (zh) 用於判定視訊中之一物件之部位及屬性的方法、系統、電腦程式產品及程序
KR20220150868A (ko) 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치
CN105740780B (zh) 人脸活体检测的方法和装置
CN109448007B (zh) 图像处理方法、图像处理装置及存储介质
WO2019033571A1 (zh) 面部特征点检测方法、装置及存储介质
WO2019033569A1 (zh) 眼球动作分析方法、装置及存储介质
JP6071002B2 (ja) 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
JP6157165B2 (ja) 視線検出装置及び撮像装置
JP2007233871A (ja) 画像処理装置、コンピュータの制御方法及びプログラム
KR20150127381A (ko) 얼굴 특징점 추출 방법 및 이를 수행하는 장치
WO2019033567A1 (zh) 眼球动作捕捉方法、装置及存储介质
JP6225460B2 (ja) 画像処理装置、画像処理方法、制御プログラムおよび記録媒体
JP2015153120A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2007052609A (ja) 手領域検出装置及び手領域検出方法、並びにプログラム
WO2023165616A1 (zh) 图像模型隐蔽后门的检测方法及系统、存储介质、终端
CN109063598A (zh) 人脸毛孔检测方法、装置、计算机设备和存储介质
US20160110909A1 (en) Method and apparatus for creating texture map and method of creating database
JP6467994B2 (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
JPWO2020213166A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
KR20130111021A (ko) 영상처리장치 및 영상처리방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181231

R150 Certificate of patent or registration of utility model

Ref document number: 6467994

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150