JP2014120066A - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JP2014120066A
JP2014120066A JP2012276106A JP2012276106A JP2014120066A JP 2014120066 A JP2014120066 A JP 2014120066A JP 2012276106 A JP2012276106 A JP 2012276106A JP 2012276106 A JP2012276106 A JP 2012276106A JP 2014120066 A JP2014120066 A JP 2014120066A
Authority
JP
Japan
Prior art keywords
image
area
region
overlap
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012276106A
Other languages
English (en)
Other versions
JP5971108B2 (ja
Inventor
Taichi Murase
太一 村瀬
Takahiro Matsuda
高弘 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012276106A priority Critical patent/JP5971108B2/ja
Priority to US14/061,030 priority patent/US9286513B2/en
Publication of JP2014120066A publication Critical patent/JP2014120066A/ja
Application granted granted Critical
Publication of JP5971108B2 publication Critical patent/JP5971108B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 対象物と対象物に類似する色を有する物体とを含む画像から、対象物の領域を抽出する
【解決手段】 対象物を含まない第一の画像から色に関する条件に基づき抽出された参照領域の情報を記憶する記憶部と、前記第一の画像とは異なる時点で撮像された第二の画像における対象領域の情報を、前記条件に基づき生成する生成部と、前記対象領域と前記参照領域とに基づき、前記参照領域と前記対象物との重なりの有無を判定する判定部と、前記重なりがない場合は、前記参照領域と前記対象領域との差分領域に基づき、前記第二の画像から前記対象物を抽出し、前記重なりがある場合は、該第二の画像における前記参照領域相当の画素の色情報に基づき、前記重なりの領域を特定するとともに、前記差分領域と前記重なりの領域とに基づき、該第二の画像から前記対象物を抽出する抽出部とを有することを特徴とする画像処理装置。
【選択図】図6

Description

本実施例に開示する技術は、画像から対象物を抽出する技術に関する。
近年、コンピュータ等に対して、データを入力する入力デバイスとして、マウスや、ペンタブレット、およびタッチパッドの他、ユーザの動作や姿勢を用いてデータを入力するデータ入力技術が研究されている。
例えば、画像からユーザの手の形状を抽出し、形状に対応したコマンドを入力するヒューマンインターフェース技術が知られている。例えば、5本の指のうちどの指が立っているかを認識して、コンピュータ等に各種指示を入力する入力システムがある(例えば、特許文献1)。
当該入力システムは、入力画像をHSV表色系に変換し、肌色成分を抽出する。そして、肌色成分とその他の成分とに2値化し、2値画像において面積が最大である領域を抽出する。さらに、平滑化処理等が行われることで、画像における手領域が決定される。そして、入力システムは、手領域の形状を認識し、各種指示を入力する。
特開2003−346162号公報
入力システムは、画像から肌色成分を抽出することが可能であるが、画像に、手の肌色と手以外の肌色が存在する場合に、画像から手領域を特定することはできない。例えば、背景に肌色が含まれる場合や、顔などが画像中に存在する場合である。
つまり、画像内に、抽出したい対象物とそれ以外の物体とが撮影されている場合であって、それ以外の物体の全部または一部の色が、対象物の色と類似する場合、当該入力システムの技術では、画像から対象物の領域だけを抽出することができない。
そこで、本実施例に開示の技術は、対象物と対象物に類似する色を有する物体とを含む画像から、対象物の領域を抽出することを目的とする。
上記課題を解決する為に、本実施例に開示の画像処理装置は、対象物を含まない第一の画像から色に関する条件に基づき抽出された参照領域の情報を記憶する記憶部と、前記第一の画像とは異なる時点で撮像された第二の画像における対象領域の情報を、前記条件に基づき生成する生成部と、前記対象領域と前記参照領域とに基づき、前記参照領域と前記対象物との重なりの有無を判定する判定部と、前記重なりがない場合は、前記参照領域と前記対象領域との差分領域に基づき、前記第二の画像から前記対象物を抽出し、前記重なりがある場合は、該第二の画像における前記参照領域相当の画素の色情報に基づき、前記重なりの領域を特定するとともに、前記差分領域と前記重なりの領域とに基づき、該第二の画像から前記対象物を抽出する抽出部とを有する。
本発明の一観点によれば、対象物と対象物に類似する色を有する物体とを含む画像から、対象物の領域を抽出することが可能になる。
図1は、本実施例にかかる画像処理装置を備える情報処理装置の利用形態の一例を示す図である。 図2A乃至図2Dは、手領域を抽出する際の問題を説明するための図である。 図3は、画像処理装置の機能ブロック図である。 図4は、参照領域の情報を生成する処理のフローチャートである。 図5Aおよび図5Bは、参照画像および参照領域を説明するための図である。 図6は、画像処理方法のフローチャートである。 図7A乃至図7Cは、差分画像および差分領域を説明するための図である。 図8Aおよび図8Bは、エッジを連結する処理を説明するための図である。 図9は、マスク画像を説明するための図である。 図10は、処理領域を説明するための図である。 図11は、第三の実施例における画像処理装置の機能ブロック図である。 図12は、手領域を抽出するための条件を説明するための図である。 図13は、第三の実施例における画像処理方法のフローチャートである。 図14は画像処理装置1または画像処理装置100のハードウェア構成の一例を示す図である。
以下詳細な本発明の実施例に関して説明する。なお、以下の各実施例は、処理の内容を矛盾させない範囲で適宜組み合わせることが可能である。以下、図面に基づいて各実施例について説明する。
まず、実施例における情報処理装置の利用形態について説明する。図1は、本実施例にかかる画像処理装置を備える情報処理装置の利用形態の一例を示す図である。また、本実施例においては、画像処理装置は、対象物として手指を抽出する。
情報処理装置10は、例えば、デスクトップPC、スレートPC、タブレット型PC、スマートフォン、スキャナ、ゲーム機器、家電機器などである。なお、図1では、情報処理装置10は、カメラ20を備えるタブレット型コンピュータである。
カメラ20は、所定のフレーム間隔で、複数の画像を撮影する。なお、ユーザは、カメラ20が撮影できる範囲内に手30を置き、動作を行う。本実施例においては、複数の画像には、同じ背景が撮影されるとする。さらに、複数の画像のうちの一部には、背景とともにユーザの手が撮像される。
情報処理装置10は、入力装置を有する。さらに、入力装置は、画像処理装置を有する。画像処理装置は、カメラ20が撮影した画像からユーザの手指の領域を抽出する。なお、以下、画像におけるユーザの手指の領域を、手領域と称する。
入力装置は、画像処理装置が抽出した手領域に基づき、情報処理装置10に対して情報を入力する。例えば、特定のコマンドや文字情報が入力される。本実施例においては、入力装置は、抽出された手領域に基づき、ユーザの手指の形状を認識するとともに、形状に応じた特定のコマンドを、情報処理装置10に対して入力する。情報処理装置10は、入力されたコマンド等に応じた処理を実行する。例えば、ユーザは、入力したいコマンドに対応した手指の形状を示す為の動作を行うことで、情報処理装置10は、所定のコマンドを実行する。
なお、ソフトウェアキーボードのように、入力装置が、抽出された手領域を利用して、指による押下操作がなされたときの指の位置に基づき、情報処理装置10に特定のデータが入力されるとしてもよい。
図1の例では、画像処理装置が処理対象とする画像は、情報処理装置10が備えるカメラ20により撮像される。これに限らず、画像処理装置は、ネットワークを経由して画像を取得したり、情報処理装置10に接続されたカメラから画像を取得してもよい。また、カメラ20は、図1に示された位置に限らず、他の位置に設置されていても良い。
ここで、図1の例では、カメラ20の撮像範囲内に、ユーザの手30とともに紙40が存在する。そして、紙40には、第一の色を示す領域50と、第二の色を示す領域60とが印刷されているとする。
図2A乃至図2Dを用いて、手領域を抽出する際の問題を説明する。図2A乃至図2Dは、手領域を抽出する際の問題を説明するための図である。
従来の入力システムのように、色に関する条件を利用して、画像から肌色成分を抽出する方法は、手領域を抽出するために有効である。例えば、画像における肌色成分を有する画素に「1(黒)」を、その他の成分を示す画素に「0(白)」を付与した二値画像には、肌色成分を有する領域が示される。
ここで、肌色成分を抽出する際には、例えば、画像内の各画素の色情報が用いられる。例えば、色情報としてHSV表色系で表される値が採用される場合には、肌色成分として、次の式1および式2で表される条件に当てはまる画素が抽出される。
0.11<H<0.22 (式1)
0.2<S<0.5 (式2)
手領域を抽出する方法には、予め手指のパターンを用意し、用意されたパターンを用いて画像における手指を探索する手法も存在する。肌色成分を抽出することで手領域を抽出する手法は、パターンを利用する手法と比べて、手の大きさや形状が異なる膨大なパターンを準備する必要がないという点で有効である。しかし、従来の入力システムの場合には、次のような問題がある。
図2Aは、ある時点でのカメラ20の撮像画像を表す図である。図2Aの画像中には、手領域31、紙領域41、第一の色を示す領域51、第二の色を示す領域61が存在する。ここで、第一の色は、肌色であって、第一の色を示す領域51を構成する各画素の色情報は、手領域31と同様に上記条件に合致するとする。
図2Bは、図2Aを二値化した二値画像を示す図である。この二値化には、例えば上記式1および式2で表される条件が利用される。図2Bの二値画像では、手領域31に相当する領域32と第一の色を示す領域51に相当する領域52との画素が、画素値「1(黒)」を示す。つまり、この二値画像を利用すると、肌色成分である領域32と領域52とを抽出することは可能であるが、手領域31に対応する領域32だけを画像から抽出することはできない。
また、図2Cは、図2Aの時点と異なる時点でのカメラ20の撮像画像を表す図である。図2Cの画像では、手領域33が、画像上、第一の色を示す領域53に重なっている。なお、図2Aと同様、第一の色は、肌色である。
図2Dは、図2Cを二値化した二値画像を示す図である。この二値化には、図2Bでの二値化と同様に、例えば上記条件が利用される。図2Dの二値画像では、手領域33に相当する領域と第一の色を示す領域53に相当する領域とを含む領域34の画素が、画素値「1(黒)」を示す。つまり、図2Aおよび図2Bと同様、従来の入力システムは、手領域33に対応する領域のみを、画像から抽出することができない。
つまり、対象物の色成分に基づき設定された条件を利用して、条件に合致する色成分を有する領域を、対象物の領域として画像から抽出する場合には、対象物と類似する色の領域も抽出されてしまう。本実施例に開示の技術は、色成分に基づく対象物の抽出方法において、対象物に類似する色の領域と対象物の領域とが混在する画像からでも、対象物を抽出するものである。
(第一の実施例)まず、第一の実施例について説明する。
図3は、画像処理装置の機能ブロック図である。本実施例においては、画像処理装置1は、入力装置2に含まれる。入力装置2は、画像処理装置1のほかに、撮像装置3、および認識装置4を有する。また、入力装置2は、図1の情報処理装置10に含まれる。
画像処理装置1は、画像から対象物の領域を抽出するコンピュータである。撮像装置3は、所定のフレーム間隔で複数の画像を撮影する装置である。例えば、撮像装置3は、カメラ20である。認識装置4は、画像処理装置1からの出力に基づき、対象物の形状を認識する装置である。例えば、認識装置4は、手の形状を認識するとともに、形状に応じたコマンドを情報処理装置10に命令する。
画像処理装置1は、取得部11、生成部12、判定部13、抽出部14、出力部15、記憶部16を有する。取得部11は、撮像装置3から画像を取得する。なお、実際には、取得部11は画像の画像情報を取得する。画像情報は、各画素の色情報を含む。なお、色情報は、例えば、HSV表色系以外のRGB表色系で表される情報であっても良い。
生成部12は、色情報および色に関する条件に基づき、対象領域の情報を生成する。対象領域は、色情報が色に関する条件に合致する画素を含む領域である。例えば、対象領域は、画像における肌色を示す画素を含む領域である。また、肌色を示す画素とは、条件に合致する画素である。
例えば、生成部12は、色情報の色空間を、HSV表色系に変換する。なお、HSV表色系以外であっても、対象物の色を認識可能な色空間であれば良い。変換された色情報および式1および式2に示される色に関する条件を用いて、生成部12は、肌色を示す画素に「1」を、肌色以外の色を示す画素に「0」を付与した二値画像を生成する。なお、式1および式2で表される色に関する条件の値範囲は、適宜変更してもよい。また、以下、式1および式2で表される色に関する条件を、単に条件を称する場合もある。本実施例においては、対象領域は、二値画像において画素値「1」を示す領域である。対象画像の情報は、処理対象の画像の二値画像の情報である。
また、生成部12は、取得した画像が対象物を含まない参照画像である場合には、参照画像から参照領域の情報を生成する。参照領域は、参照画像において、色に関する条件に合致する色情報を有する画素により構成される領域である。例えば、参照領域は、参照画像における肌色を示す画素を含む領域である。また、参照領域は、参照画像の二値画像において、画素値「1」を示す画素の領域である。
参照領域の情報は、参照画像の二値画像の情報を含む。さらに、参照領域の情報は、参照画像における参照領域に対応する各画素の色情報を含む。なお、1つの参照画像内に参照領域が複数存在する場合には、各々の参照領域に、各参照領域を互いに識別する識別情報が付与されるとしてもよい。
取得した画像を参照画像とするかの判定は、ユーザによる指示に基づき行われる。例えば、ユーザは、対象物(手)をカメラ前に挿入する前に、情報処理装置10に対して参照画像の登録指示を行う。そして、撮像装置3は、登録指示に基づき、画像を撮影する。生成部12は、登録指示に基づき撮影された画像を、参照画像であると判定する。登録指示に基づき撮影された参照画像には、対象物は含まれない。言い換えると、参照画像に存在する物体は背景として参照領域の情報を生成するために用いられる。
また、取得した画像を参照画像とするかの判定は登録指示を利用する形態だけに限られない。例えば、生成部12は、撮像装置3が撮影した複数の画像を解析する。そして、複数の画像間で変化がみられない場合に、生成部12は、取得した画像を参照画像であると判定しても良い。
判定部13は、対象領域の情報と参照領域の情報とに基づき、参照領域と対象物とが重なっているかを判定する。つまり、判定部13は、背景の肌色領域と手領域との重なりの有無を判定する。
例えば、判定部13は、対象領域を示す二値画像と参照領域を示す二値画像との差分画像を生成する。差分画像においては、対象領域から参照領域が除かれた差分領域の画素が、画素値「1」を有する。
判定部13は、差分領域の画素のうち、参照領域に接する画素が所定個数以上存在する場合に、参照領域と対象物との重なりがあると判定する。また、差分領域と参照領域とが実際に接していない場合でも、判定部13は、参照領域が差分領域から所定の範囲内に存在する場合を、差分領域と参照領域とが接していると判断しても良い。
抽出部14は、判定部13の判定結果に応じて、画像から対象物を抽出する。抽出部14は、判定部13が参照領域と対象物とが重なっていないと判定した場合は、処理対象の画像から、差分領域に対応する領域を対象物の領域として抽出する。
一方、判定部13が参照領域と対象物とが重なっていると判定した場合は、抽出部14は、参照領域と対象物の重なり領域を特定する。そして、抽出部14は、処理対象の画像から、差分領域および重なり領域に対応する領域を対象物の領域として抽出する。
例えば、判定部13が参照領域と対象物とが重なっていると判定した場合は、抽出部14は、エッジ検出を実行する。そして、抽出部14は、検出されたエッジに基づき、重なり領域の輪郭を決定する。抽出部14は、画像における当該輪郭の内側部分を、重なり領域として特定する。
エッジは、参照画像における参照領域の各画素の色情報と、処理対象の画像における参照領域相当の各画素の色情報との差分に基づき検出される。例えば、抽出部14は、H、S、V各々の差分を各画素について求める。そして、抽出部14は、各画素の差分の値の変化に基づき、エッジを検出する。なお、エッジ検出については、Cannyのエッジ検出なども用いることができる。
出力部15は、抽出結果を認識装置4へ出力する。例えば、出力部15は、処理対象の画像における対象物の領域以外の領域がマスクされたマスク画像を、認識装置4へ出力する。本実施例においては、マスク画像は、抽出部14により生成されるが、出力部15が生成しても良い。
記憶部16は、各種情報を記憶する。例えば、参照領域の情報を記憶する。さらに、記憶部16は、一時的に、処理対象の画像や、対象領域の情報を記憶してもよい。
図4は、参照領域の情報を生成する処理のフローチャートである。生成部12は、取得部11を経由して、参照画像を取得する(Op.10)。なお、生成部12は、取得した画像が参照画像であるかを先に述べた方法で判断する。
生成部12は、参照画像の色情報の色空間をHSV表色系へ変換する(Op.11)。生成部12は、変換された色情報に基づき、二値画像を生成する(Op.12)。例えば、二値画像は、参照領域の情報である。また、例えば、二値画像は、上述のように画素値が0または1である。そして生成部12は、生成した二値画像とともに、参照領域の色情報を記憶部16へ記憶する(Op.13)。なお、参照領域の色情報以外にも、参照画像全体の色情報を含んでもよい。
図5Aおよび図5Bは、参照画像および参照領域を説明するための図である。図5Aは、参照画像を示す図である。図5Aの参照画像には、図1における紙40に対応する領域45、第一の色を示す領域50に対応する領域55と、第二の色を示す領域60に対応する領域65が含まれる。
図5Bは、参照画像の二値画像を示す図である。参照画像における色情報に基づき、色に関する条件に合致する参照領域56が二値画像に含まれる。つまり、参照画像における領域45、領域65は、二値画像には含まれない。
なお、対象物を左右いずれかの手とした場合、他方の手を、対象物と類似する色の領域として取り扱うこともできる。一方の手のみで入力のための動作を行う場合であって、他方の手は動かない場合に、画像処理装置1は、対象物である一方の手を抽出する。この場合、ユーザが他方の手を撮像装置3の撮像領域に配置した時点の画像を参照画像とする。そして、他方の手を含む参照画像に基づき、図4の処理フローが実行される。
次に、本実施例にかかる画像処理方法について説明する。図6は、画像処理方法のフローチャートである。
取得部12は、画像を取得する(Op.20)。なお、参照画像以外の画像を処理対象の画像として、以下の画像処理方法が実行される。次に、生成部12は、画像の色情報の色空間を、HSV表色系へ変換する(Op.21)。生成部12は、色に関する条件を用いて、二値画像を生成する。なお、二値画像は、対象領域を示す。
判定部13は、記憶部16から取得した参照領域を示す二値画像と、生成された二値画像とを用いて、差分画像を生成する(Op.23)。差分画像には、差分領域が表される。
図7A乃至図7Cは、差分画像および差分領域を説明するための図である。図7Aは、参照領域71を示す二値画像である。図7Bは、対象領域72を示す二値画像である。図7Cは、差分領域73を示す二値画像である。差分領域を示す二値画像は、差分画像である。
参照領域を示す二値画像の各画素の画素値を、対象領域を示す二値画像の各画素の値から減算することで、差分領域を形成する画素に画素値「1」が付与された差分画像が生成される。つまり、図7Cのように、対象領域から参照領域が除かれた部分が差分領域として、描かれる。なお、図7Cにおける破線74は参照領域を示すものであるが、実際の差分画像においては、破線は現れない。
なお、図7A乃至図7Cは、処理対象の画像において、手領域と背景の肌色領域とが重なった場合を例に説明したが、図2Aのように手領域31と背景の第一の色(肌色)を示す領域51とが重ならない場合は、図2Bにおける領域32のみが、差分領域として残る。
次に、判定部13は、参照領域と対象物の領域との重なりの有無を判定する(Op.24)。判定部13は、差分画像における差分領域と参照領域との位置関係から、参照領域と対象物との重なりの有無を判定する。例えば、差分領域の画素のうち、参照領域に接する画素が所定個数以上存在する場合に、参照領域と対象物の領域との重なりがあると判定する。
重なりがない場合は(Op.24No)、抽出部14は、差分領域に基づき、処理対象の画像から対象物を抽出する(Op.30)。つまり、抽出部14は、処理対象の画像から、差分画像における差分領域に対応する領域を抽出する。例えば、差分領域に相当する領域以外の領域をマスクしたマスク画像を生成する。
一方、重なりがある場合は(Op.24Yes)、抽出部14は、差分領域内の画素であって参照領域に接する画素のうち、2つの画素の位置、P1およびP2を決定する(Op.25)。P1およびP2は、例えば、差分領域内の画素であって参照領域に接する画素のうち、差分領域の輪郭を形成する画素の位置である。
次に、抽出部14は、記憶部16から取得した参照領域の各画素の色情報と、処理対象の画像における参照領域相当の各画素の色情報との差分に基づき、処理対象の画像における参照領域相当の領域部分についてエッジを検出する(Op.26)。次に、抽出部14は、P1およびP2を用いて、検出したエッジを連結する(Op.27)。
図8Aおよび図8Bは、エッジを連結する処理を説明するための図である。図8Aは、差分領域81と、参照領域82との境界に設定された位置P1および位置P2を示す画像である。図8Bは、参照領域相当の領域内に検出されたエッジと、エッジ画像における位置P1および位置P2を示す図である。
エッジを連結する処理においては、抽出部14は、エッジ画像における位置P1からもっとも近くに存在するエッジ83を特定する。なお、位置P1の画素がエッジの一部である場合は、参照領域82の内部に向かう方向にエッジをたどり、そのエッジの端部の画素からもっとも近くに存在する他のエッジを特定すればよい。そして、抽出部14は、エッジ83をたどり、エッジ83が終了した画素からもっとも近くに存在するエッジ85を、エッジ83に連結する。この際、エッジ85は、エッジ83に近い端部の画素がエッジ83と連結される。なお、位置P2からもエッジ連結処理を実行する。つまり、位置P2からもっとも近くに存在するエッジ84を特定し、その後、エッジ84についても他のエッジを連結する。抽出部14は、このようなエッジ間の連結処理を繰り返す。
このように、位置P1およびP2各々から処理対象の画像において参照領域82相当の領域内に存在するエッジを連結することで、参照領域82と対象物との重なり部分の輪郭を表すエッジが特定される。本処理によって、エッジ検出において、対象物の輪郭がひとつのエッジとして検出できない場合であっても、複数のエッジを連結することで、対象物の輪郭を検出することができる。つまり、重なり部分の輪郭が検出される。
次に、抽出部14は、エッジの連結結果である重なり部分の輪郭に基づき、重なり領域を特定する(Op.28)。抽出部14は、輪郭の内側部分を、重なり領域として特定する。なお、内側部分は、エッジの曲率などに基づき判断される。
そして、抽出部14は、重なり領域と差分領域とに基づき、処理対象の画像から対象物を抽出する(Op.29)。つまり、処理対象の画像において、重なり領域および差分領域に相当する領域を対象物の領域として抽出する。
例えば、抽出部14は、重なり領域と差分領域とに基づき、対象物の領域の範囲および位置を特定する。そして、抽出部14は、処理対象の画像から、対象物の領域の範囲および位置以外の領域の情報を削除することで、対象物の領域を抽出する。本実施例においては、抽出結果は、対象物の領域以外がマスクされたマスク画像となる。
出力部15は、認識装置4へ抽出結果を出力する(Op.31)。なお、新たな画像を取得するたびに、画像処理装置1は、図6のフローに示される画像処理方法を実行する。また、所定の時間間隔で、画像処理方法が実行されるとしてもよい。画像処理装置1の出力部15から抽出結果を受け付けた認識装置4は、従来の手法に基づき、手領域の形状を認識する。そして、認識装置4は、形状に応じたコマンド等を、情報処理装置10に入力する。
図9は、マスク画像を説明するための図である。マスク画像9は、処理対象の画像において、手領域90以外の領域をマスクした画像である。なお、図9における領域91は、差分領域に対応する手領域部分である。領域92は、重なり領域に対応する手領域部分である。領域91と領域92とが、手領域90を形成する。なお、マスク画像においては、領域91と領域92とは区別されない。
以上のように、本発明の一観点によれば、対象物と対象物に類似する色を有する領域とを含む画像から、対象物の領域を抽出することが可能になる。さらに、本実施例においては、対象物と、対象物に類似する色を有する領域とが、画像において重なる場合であっても、対象物の領域を抽出することができる。
つまり、背景の肌色領域と、対象物である手とが重なるような場合でも、手領域を検出することができる。画像処理装置1は、重なりを検知した場合に重なり領域を特定するとともに、特定した重なり領域を利用して手領域を抽出することができる。
さらに、重なり領域を特定する際には、参照領域相当の領域内に限って、エッジ検出が実行される。よって、画像処理装置1は、画像全体に対してエッジ検出を実行する場合と比較して、エッジ検出のための処理量を低減することができる。また、検出されるエッジが参照領域相当の領域内に限定され、それによって不要な領域に存在するエッジとの連結処理を行わないため、画像処理装置1は、エッジ連結処理をより精度よく行うことができる。つまり、画像処理装置1は、重なり領域をより精度よく特定することができる。
また、本実施例においては、画像処理装置1は、重なりを検出しない場合には、差分領域に基づき手領域を検出する。つまり、画像処理装置1は、重なりを検出しない限り、エッジ検出などを行わない。よって、画像処理装置1は、重なりの有無に応じて、2つの処理を適切に切り替えて実行することができる。
(第二の実施例)次に、エッジを検出する範囲を、さらに限定することで、よりいっそう処理量を低減する第二の実施例について、説明する。
画像処理装置1の機能的構成は、第一の実施例と同様である。ただし、入力装置2は、撮像装置3として2つの撮像装置を備える。2つの撮像装置を備えることによって、画像処理装置1は、撮像装置3と対象物との距離zを測定可能となる。距離zは、2つの撮像装置の設置位置間の中間地点と、対象物の1点との距離である。
まず、事前準備として、取得部11は、対象物である手のみの画像を取得する。そして、生成部12は、画像から手全体の高さH、幅Wを取得する。そして、記憶部16は、手全体の高さH、幅Wの情報を記憶する。
つぎに、処理対象の画像から手領域を抽出する画像処理方法において、判定部13が重なりがあると判定した場合に、抽出部14は、以下の式3を利用して、距離zを求める。fは、撮像装置の焦点距離である。Tは、撮像装置間の距離である。x1およびx2は、各撮像装置が撮像した画像における対象物の位置である。
z=f・T/(x1−x2) (式3)
例えば、抽出部14が、距離zを算出する際には、例えば、差分領域を対象物と仮定する。例えば、各撮像装置で撮像された2つの画像各々において、差分領域の重心を求める。そして、2つの重心の位置をx1およびx2とする。なお、過去に取得した画像に基づき抽出された対象領域の情報を利用しても良い。
次に、抽出部14は、式4を利用して、候補領域を決定する。そして、抽出部14は、候補領域と参照領域とが重なっている範囲を処理領域として、エッジ検出を行う。
Rは、候補領域の半径である。さらに、f(z)は、距離zに応じた係数である。f(z)は、撮像装置のパラメータに依存してあらかじめ設定される。式4は、あらかじめ登録された手の大きさに応じて、処理対象の画像において、手が存在しうる最大の範囲を演算するための式である。
図10は、処理領域を説明するための図である。抽出部14は、Rを半径とし、P1(またはP2)を中心とする候補領域101を、処理対象の画像に対して設定する。そして、抽出部14は、候補領域101と参照領域102とが重なっている範囲を、処理領域103とする。その後、抽出部14は、実施例1と同様に、エッジ検出処理を実行する。
実施例2によれば、画像処理装置1は、実施例1と比較して、エッジ検出の処理量を低減することができる。さらに、画像処理装置1は、処理領域内のエッジのみを検出する。よって、後段のエッジ連結処理において、誤ったエッジが連結される可能性を低減することができる。つまり、実施例2における画像処理装置1は、実施例1と比較して、より精度よく手領域を検出することができる。
(第三の実施例)次に、肌色成分を抽出するための条件を、ユーザに応じて適切に調節することで、手領域を抽出する第三の実施例について説明する。
図11は、第三の実施例における画像処理装置の機能ブロック図である。入力装置200は、実施例1と同様の処理を行う撮像装置3と認識装置4とを有する。また、入力装置200は、画像処理装置100を有する。画像処理装置100は、取得部11、出力部15、記憶部16を有する。また、画像処理装置100は、演算部17と抽出部18とを有する。
取得部11および出力部15は、実施例1における取得部11および出力部15と同様の処理を行う。演算部17は、対象物を含まない画像における特定の色成分を示す領域を抽出するとともに、抽出した領域のヒストグラムを生成する。また、演算部17は、対象物を含み、かつ対象物の色に類似する色の領域を含まない画像における、特定の色成分を示す領域を抽出するとともに、抽出した領域のヒストグラムを生成する。
例えば、演算部17は、背景画像から肌色成分を有する領域を抽出し、背景画像における肌色成分を有する領域のヒストグラムを生成する。また、演算部17は、ユーザの手の画像から、手の画像における肌色成分を有する領域を抽出し、手の画像における肌色成分を有する領域のヒストグラムを生成する。
ヒストグラムは、表色系に合わせ、複数種類のヒストグラムが生成される。例えば、HSV表色系の色情報を利用して、手領域を抽出する場合には、HとSとVの各々について、ヒストグラムが生成される。
演算部17は、対象物を含まない画像におけるヒストグラムと、対象物を含みかつ対象物の色に類似する色の領域を含まない画像のヒストグラムとに基づき、処理対象の画像から手領域を抽出するための条件を演算する。なお、演算された条件は、記憶部16に記憶される。
図12は、手領域を抽出するための条件を説明するための図である。なお、図12に示すヒストグラムは、H成分の各値ごとの頻度を示す。破線121は、ユーザの手を含まない画像における肌色成分を示す領域のヒストグラムである。また、実線122は、ユーザの手の画像における肌色成分を示す領域のヒストグラムである。なお、各画像から肌色成分を有する領域を抽出するためには、例えば、仮条件として数1および数2が利用される。
図11に戻り、演算部17は、2つのヒストグラムに基づき、ヒストグラム122の頻度が、ヒストグラム121の頻度よりも大きくなるときの、Hの値を求める。図12においては、範囲123が、ヒストグラム122の頻度がヒストグラム121の頻度よりも高いHの値の範囲である。演算部17は、範囲123を示す情報を、後の手領域抽出処理に利用する条件として記憶部16へ記憶する。演算部17が算出した条件は、後述の手領域抽出処理により抽出される手領域を最大にし、かつ手領域以外の誤検出領域を最小にする条件となる。
抽出部18は、演算部が算出した条件に基づき、処理対象の画像から手領域を抽出する。例えば、抽出部18は、処理対象の画像の色情報をHSV表色系へ変換する。そして、変換された色情報と条件とを比較することで、二値画像を生成する。二値画像に基づき、手領域が特定される。そして抽出部18は、処理対象の画像に対して手領域以外の領域をマスクすることで、マスク画像を生成する。
さらに、抽出部18は、条件に基づき抽出された領域を仮手領域として、平準化処理等を行うことで、仮手領域内の手領域を特定してもよい。抽出部18は、平準化処理によって、条件に合致するが手以外の領域である領域や、本来手領域であるが条件に合致しなかった領域を補正する。
平準化処理は、例えば、「長谷川純一他、画像処理の基本技術−技術入門編−、技術評論社、1986年」に記載された拡散・収縮処理が適用される。平準化処理が実行されることで、条件に合致するが手領域以外の領域を形成する雑音部分が除去される。
図13は、第三の実施例における画像処理方法のフローチャートである。なお、本処理に先駆けて、演算部17は、対象物と、仮条件の下では対象物に類似する色を有する領域とを、区別するための条件を、先の方法で演算する。
取得部11は、画像を取得する(Op.40)。なお、ここで取得された画像を処理対象として、以下の処理が実行される。抽出部18は、画像の色情報の色空間を、HSV表色系へ変換する(Op.41)。画像の取得がHSV表色系でなされるものであれば、この変換は不要である。
次に、条件を記憶部16から読み出し、当該条件および変換された色情報に基づき、二値画像を生成する。二値画像においては、条件に合致する画素に「1」、条件に合致しない画素に「0」が付与される。なお、二値画像における画素値「1」を有する画素の領域は、仮手領域を示す。
次に、抽出部18は、二値画像を平準化する(Op.43)。先に述べたとおり、平準化により、二値画像における仮手領域から、手領域が特定される。次に、抽出部18は、処理対象の画像から、二値画像における手領域に相当する部分を抽出する(Op.44)。つまり、対象物の画像から、対象物が抽出される。例えば、抽出部18は、処理対処の画像において、手領域以外の領域をマスクすることで、対象物が抽出されたマスク画像を生成する。最後に、出力部15は、抽出結果を認識装置4へ出力する(Op.45)。
以上のように、対象物と、あらかじめ設定された仮条件においては対象物と類似する色領域とを、区別するための条件を用いて、対象物を抽出することができる。つまり、本実施例の画像処理装置は、色ヒストグラムに基づき、対象物を抽出するために適切な条件を生成することができる。条件は、手領域抽出処理により抽出される手領域を最大にし、かつ手領域以外の誤検出領域を最小にする条件である。
仮条件を適用した場合に、対象物と類似する色の領域とを区別することはできないが、ユーザの手の色ヒストグラムを加味した新たな条件を利用することで、本実施例の画像処理装置100は、対象物を抽出する。
上記各実施例は、次の様に変形することも可能である。
図14は画像処理装置1または画像処理装置100のハードウェア構成の一例を示す図である。コンピュータ1000は、上述した各実施例の画像処理方法を実行し、画像処理装置1または画像処理装置100として機能する。なお、コンピュータ1000は、情報処理装置10や、入力装置2として機能する場合もある。
コンピュータ1000はCPU(Central Processing Unit)1001、ROM(Read Only Memory)1002,RAM(Random Access Memory)1003,HDD(Hard Disk Drive)1005、表示装置1007、媒体読取装置1009を有している。さらに、コンピュータ1000は、通信装置1004、キーボード1006、撮像装置1010を有しても良い。各部はバス1008を介して相互に接続されている。そして、各部は、CPU1001による管理下で相互にデータの送受を行うことができる。
図6および図13のフローチャートに示した画像処理方法が記述された画像処理プログラムは、コンピュータが読み取り可能な記録媒体に記録される。コンピュータが読み取り可能な記録媒体には、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記録装置には、HDD、フレキシブルディスク(FD)、磁気テープ(MT)などがある。
光ディスクには、DVD(Digital Versatile Disc)、DVD−RAM、CD−ROM(Compact Disc − Read Only Memory)、CD−R(Recordable)/RW(ReWritable)などがある。光磁気記録媒体には、MO(Magneto − OPtical disk)などがある。このプログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売されることが考えられる。
そして、画像処理プログラムを実行するコンピュータ1000は、例えば媒体読取装置1009が、画像処理プログラムを記録した記録媒体から、該プログラムを読み出す。なお、図6に示す処理が記述されたプログラムを読み出すとともに、実行することで、コンピュータ1000は、画像処理装置1として機能する。一方、図13に示す処理が記述されたプログラムを読み出すとともに、実行することで、コンピュータ1000は、画像処理装置100として機能する。
CPU1001は、読み出されたプログラムをHDD1005若しくはROM1002、RAM1003に格納する。CPU1001は、画像処理装置全体の動作制御を司る中央処理装置である。HDD1005は、CPU1001により格納された図6または図13の処理が記述されたプログラムを記憶する。
そして、CPU1001が、図6の処理が記述された画像処理プログラムをHDD1005から読み出して実行することで、図3に示す取得部11、生成部12、判定部13、抽出部14、出力部15として機能するようになる。なお、画像処理プログラムには、さらに、図4の処理が記述されていても良い。また、画像処理プログラムはCPU1001とアクセス可能なROM1002またはRAM1003に格納されていても良い。
一方、CPU1001が、図13の処理および条件演算処理が記述されたプログラムをHDD1005から読み出して実行することで、図11に示す取得部11、出力部15、演算部17、抽出部18として機能する。
HDD1005は、CPU1001の管理下で図2または図11に示す記憶部として機能する。各実施例における画像処理に必要な情報は、プログラム同様、CPU1001とアクセス可能なROM1002またはRAM1003に格納されても良い。つまり、記憶部のデータは、HDD1005や、ROM1002またはRAM1003などの記憶装置に格納される。また、RAM1003は、処理の過程で一時的に生成された情報も記憶する。
表示装置1007は、画面を表示する。また、通信装置1004はネットワークを介して他の装置からの信号を受信し、その信号の内容をCPU1001に渡す。さらに通信装置1004はCPU1001からの指示に応じてネットワークを介して他の装置に信号を送信する。
キーボード1006は、ユーザからの情報の入力を受け付ける。なお、コンピュータ1000は、キーボードの代わりに、タッチパネルやタッチペンなどを入力のためのデバイスとして備えても良い。撮像装置1010は、所定のフレーム間隔で画像を撮影する。撮像装置1010は、撮像した画像をディジタル化してCPU1001に対して出力する。撮像装置1010は、例えばCCD(Charge Coupled Device)センサ又はCMOS(Complementary Metal Oxide Semiconductor)センサを有し、例えば、対象物であるユーザの手を含む画像を撮像し、アナログの画像情報をディジタル画像情報に変換して出力する。
1、100 画像処理装置
2、200 入力装置
3 撮像装置
4 認識装置
10 情報処理装置
11 取得部
12 生成部
13 判定部
14、18 抽出部
15 出力部
16 記憶部
17 演算部
1000 コンピュータ
1001 CPU
1002 ROM
1003 RAM
1004 通信装置
1005 HDD
1006 キーボード
1007 表示装置
1008 バス
1009 媒体読取装置
1010 撮像装置

Claims (7)

  1. 対象物を含まない第一の画像から色に関する条件に基づき抽出された参照領域の情報を記憶する記憶部と、
    前記第一の画像とは異なる時点で撮像された第二の画像における対象領域の情報を、前記条件に基づき生成する生成部と、
    前記対象領域と前記参照領域とに基づき、前記参照領域と前記対象物との重なりの有無を判定する判定部と、
    前記重なりがない場合は、前記参照領域と前記対象領域との差分領域に基づき、前記第二の画像から前記対象物を抽出し、前記重なりがある場合は、該第二の画像における前記参照領域相当の画素の色情報に基づき、前記重なりの領域を特定するとともに、前記差分領域と前記重なりの領域とに基づき、該第二の画像から前記対象物を抽出する抽出部とを有することを特徴とする画像処理装置。
  2. 前記抽出部は、前記重なりがある場合に、前記色情報と、前記第一の画像における前記参照領域の画素の他の色情報との差分に基づき、前記重なりの領域を特定することを特徴とする請求項1記載の画像処理装置。
  3. 前記抽出部は、前記差分に基づき、エッジを検出するとともに、該エッジに基づき、前記重なりの輪郭を特定し、該輪郭に基づき、前記重なりの領域を特定することを特徴とする請求項2記載の画像処理装置。
  4. 前記抽出部は、前記差分領域と前記参照領域との境界を形成する画素のうち、第一の画素および第二の画素を設定し、複数検出された前記エッジを該第一の画素または該第二の画素から近いものから連結するとともに、該第一の画素からの連結結果と該第二の画素からの連結結果とに基づき、前記輪郭を特定することを特徴とする請求項3記載の画像処理装置。
  5. 前記判定部は、前記差分領域を生成し、前記差分領域と前記参照領域が接する場合に、前記重なりがあると判定することを特徴とする請求項1乃至請求項4のいずれか一項に記載の画像処理装置。
  6. コンピュータが、
    第一の画像における対象領域の情報を、色に関する条件に基づき生成し、
    前記第一の画像とは異なる時点で撮像された対象物を含まない第二の画像から、前記条件に基づき抽出された参照領域の情報を参照し、前記対象領域と該参照領域とに基づき、該参照領域と前記対象物との重なりの有無を判定し、
    前記重なりがない場合は、前記参照領域と前記対象領域との差分領域に基づき、前記第一の画像から前記対象物を抽出し、
    前記重なりがある場合は、該第一の画像における前記参照領域相当の画素の色情報に基づき、前記重なりの領域を特定するとともに、前記差分領域と前記重なりの領域とに基づき、該第一の画像から前記対象物を抽出する処理を実行することを特徴とする画像処理方法。
  7. コンピュータに、
    第一の画像における対象領域の情報を、色に関する条件に基づき生成し、
    前記第一の画像とは異なる時点で撮像された対象物を含まない第二の画像から、前記条件に基づき抽出された参照領域の情報を参照し、前記対象領域と該参照領域とに基づき、該参照領域と前記対象物との重なりの有無を判定し、
    前記重なりがない場合は、前記参照領域と前記対象領域との差分領域に基づき、前記第一の画像から前記対象物を抽出し、
    前記重なりがある場合は、該第一の画像における前記参照領域相当の画素の色情報に基づき、前記重なりの領域を特定するとともに、前記差分領域と前記重なりの領域とに基づき、該第一の画像から前記対象物を抽出する処理を実行させることを特徴とする画像処理プログラム。
JP2012276106A 2012-12-18 2012-12-18 画像処理装置、画像処理方法および画像処理プログラム Expired - Fee Related JP5971108B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012276106A JP5971108B2 (ja) 2012-12-18 2012-12-18 画像処理装置、画像処理方法および画像処理プログラム
US14/061,030 US9286513B2 (en) 2012-12-18 2013-10-23 Image processing apparatus, method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012276106A JP5971108B2 (ja) 2012-12-18 2012-12-18 画像処理装置、画像処理方法および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2014120066A true JP2014120066A (ja) 2014-06-30
JP5971108B2 JP5971108B2 (ja) 2016-08-17

Family

ID=50930925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012276106A Expired - Fee Related JP5971108B2 (ja) 2012-12-18 2012-12-18 画像処理装置、画像処理方法および画像処理プログラム

Country Status (2)

Country Link
US (1) US9286513B2 (ja)
JP (1) JP5971108B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018158818A1 (ja) * 2017-02-28 2019-12-12 日本電気株式会社 点検支援装置、点検支援方法およびプログラム
JP2020042798A (ja) * 2018-09-06 2020-03-19 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited ハンドセグメンテーションを実行するためのシステムおよび方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150139487A1 (en) * 2013-11-21 2015-05-21 Lsi Corporation Image processor with static pose recognition module utilizing segmented region of interest
JP7242309B2 (ja) * 2019-01-16 2023-03-20 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
CN112328913A (zh) * 2020-11-05 2021-02-05 浙江网商银行股份有限公司 任务处理方法以及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256834A (ja) * 2002-03-06 2003-09-12 Mitsubishi Electric Corp 顔領域抽出及び顔構成要素位置判定装置
WO2011142313A1 (ja) * 2010-05-11 2011-11-17 日本システムウエア株式会社 物体認識装置、方法、プログラム、および該ソフトウェアを格納したコンピュータ可読媒体
US20120069168A1 (en) * 2010-09-17 2012-03-22 Sony Corporation Gesture recognition system for tv control

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3863809B2 (ja) 2002-05-28 2006-12-27 独立行政法人科学技術振興機構 手の画像認識による入力システム
US8331685B2 (en) * 2008-05-28 2012-12-11 Apple Inc. Defining a border for an image
JP4548542B1 (ja) 2009-06-30 2010-09-22 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP5482080B2 (ja) 2009-10-14 2014-04-23 富士通株式会社 手認識装置
US8620024B2 (en) * 2010-09-17 2013-12-31 Sony Corporation System and method for dynamic gesture recognition using geometric classification

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256834A (ja) * 2002-03-06 2003-09-12 Mitsubishi Electric Corp 顔領域抽出及び顔構成要素位置判定装置
WO2011142313A1 (ja) * 2010-05-11 2011-11-17 日本システムウエア株式会社 物体認識装置、方法、プログラム、および該ソフトウェアを格納したコンピュータ可読媒体
US20120069168A1 (en) * 2010-09-17 2012-03-22 Sony Corporation Gesture recognition system for tv control

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016022012; 浜田 康志、外2名: '"遷移ネットワークに基づく複雑背景下での手指ジェスチャの認識"' 情報処理学会研究報告 Vol.2005, No.88, 20050906, pp.9-16, 社団法人情報処理学会 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018158818A1 (ja) * 2017-02-28 2019-12-12 日本電気株式会社 点検支援装置、点検支援方法およびプログラム
US11232530B2 (en) 2017-02-28 2022-01-25 Nec Corporation Inspection assistance device, inspection assistance method, and recording medium
JP7111694B2 (ja) 2017-02-28 2022-08-02 日本電気株式会社 点検支援装置、点検支援方法およびプログラム
JP2020042798A (ja) * 2018-09-06 2020-03-19 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited ハンドセグメンテーションを実行するためのシステムおよび方法
JP7277312B2 (ja) 2018-09-06 2023-05-18 タタ コンサルタンシー サービシズ リミテッド ハンドセグメンテーションを実行するためのシステムおよび方法

Also Published As

Publication number Publication date
US20140169625A1 (en) 2014-06-19
US9286513B2 (en) 2016-03-15
JP5971108B2 (ja) 2016-08-17

Similar Documents

Publication Publication Date Title
JP6125188B2 (ja) 映像処理方法及び装置
JP5971108B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US20140037159A1 (en) Apparatus and method for analyzing lesions in medical image
JP6099457B2 (ja) 画像処理装置、領域決定方法及びコンピュータプログラム
JP2000105829A (ja) 顔パーツ検出方法及びその装置
TW201437925A (zh) 物體識別裝置、方法及電腦程式產品
JP2011141622A (ja) 検出装置およびその方法
JP2002342756A (ja) デジタル画像において目と口の位置を検出する方法
US9870059B2 (en) Hand detection device and hand detection method
JP6028589B2 (ja) 入力プログラム、入力装置および入力方法
US20070206862A1 (en) Information processing apparatus, method of computer control, computer readable medium, and computer data signal
WO2009114967A1 (zh) 基于移动扫描的图像处理方法及装置
JP4904330B2 (ja) 画像からテキストを抽出する方法及び装置
JP2016162420A (ja) 注目領域検出装置、注目領域検出方法及びプログラム
JP6758263B2 (ja) 物体検出装置、物体検出方法及び物体検出プログラム
JP2008011484A (ja) 文字図形列抽出装置,文字図形列抽出方法,その方法を実行するプログラム,そのプログラムを記録した記録媒体
JP2009288917A (ja) 情報処理装置、情報処理方法、およびプログラム
CN112507767A (zh) 脸部辨识方法及其相关电脑系统
JP2018109824A (ja) 電子制御装置、電子制御システムおよび電子制御方法
JP6127958B2 (ja) 情報処理装置、情報処理方法、並びにプログラム
JP5217917B2 (ja) 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム
JP5935118B2 (ja) 物体検出装置および物体検出方法
JP5708305B2 (ja) 画像認識装置、画像認識方法及び画像認識用コンピュータプログラム
JP2001222680A (ja) ナンバー読取り装置
JP5051671B2 (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150804

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160627

R150 Certificate of patent or registration of utility model

Ref document number: 5971108

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees