JP2015153120A - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JP2015153120A
JP2015153120A JP2014026020A JP2014026020A JP2015153120A JP 2015153120 A JP2015153120 A JP 2015153120A JP 2014026020 A JP2014026020 A JP 2014026020A JP 2014026020 A JP2014026020 A JP 2014026020A JP 2015153120 A JP2015153120 A JP 2015153120A
Authority
JP
Japan
Prior art keywords
candidate
image
image processing
processing apparatus
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014026020A
Other languages
English (en)
Other versions
JP6326847B2 (ja
Inventor
厚一郎 新沼
Atsuichiro Niinuma
厚一郎 新沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014026020A priority Critical patent/JP6326847B2/ja
Priority to US14/559,014 priority patent/US9870059B2/en
Priority to EP14196764.6A priority patent/EP2908267B1/en
Publication of JP2015153120A publication Critical patent/JP2015153120A/ja
Application granted granted Critical
Publication of JP6326847B2 publication Critical patent/JP6326847B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs

Abstract

【課題】背景色に依存せずにユーザの手指の位置を正確に特定することが可能となる画像処理装置を提供する。【解決手段】画像処理装置は、ユーザの第1部位と第2部位を含む画像を取得する取得部と、第1部位の生体的特徴に基づいて、画像に含まれる第1部位と第2部位の候補となる候補群から第1部位に相当する候補を検出する検出部を備える。更に、当該画像処理装置は、第1部位に相当する候補の外縁に基づいて第1部位と第2部位の接続方向を規定する規定部を備える。更に、当該画像処理装置は、接続方向に基づいて候補群から第2部位に相当する候補を選定する選定部を備える。【選択図】図1

Description

本発明は、例えば、ユーザの手指の検知に用いる画像処理装置、画像処理方法および画像処理プログラムに関する。
近年において、例えば、紙面文書とプロジェクタを用いて紙面文書に投影された投影画像に対してインタラクション操作を行うことで、ユーザの作業支援を実現させる為の技術が開発されている。例えば、ユーザが紙面文書の単語を手指で示した場合、当該単語に関連付けられた投影画像が投影され、更に当該投影画像の一部を手指を示すことで、当該単語に関連付けられた注釈などを提示する拡張現実感(Augmented Reality:AR)技術が開示されている。
上述のインタフェースでは、任意の場所に固定されたカメラ、または自由に移動が可能なカメラを用いて、ユーザの手指の位置を正確に特定することが必要となる。手指の位置を特定する方法として、例えば、撮像画像から、肌色の色成分(色特徴量と称しても良い)を抽出することで手の輪郭を抽出し、当該輪郭から手指の位置を特定する技術が開示されている。
Survey on Skin Tone Detection using Color Spaces, C. Prema et al., International Journal of Applied Information Systems 2(2):18-26, May 2012. Published by Foundation of Computer Science, New York, USA. Skin Detection - a Short Tutorial, Ahmed et al., Encyclopedia of Biometrics by Springer-Verlag Berlin Heidelberg 2009. A survey of skin-color modeling and detection methods, Kakumanu et al., Pattern Recognition, Volume 40, Issue 3, March 2007, Pages 1106-1122 A Survey on Pixel-Based Skin Color Detection Techniques, Vladimir et al., IN PROC. GRAPHICON-2003.
しかしながら、色特徴量を用いたユーザの手指の位置を検出する技術においては、投影画像が投影される紙面等の背景が肌色の場合は、手指の肌色成分と背景の肌色成分を分離することが出来なくなる為に、手指の位置の特定が困難となる。本発明は、背景色に依存せずにユーザの手指の位置を正確に特定することが出来る画像処理装置を提供することを目的とする。
本発明が開示する画像処理装置は、ユーザの第1部位と第2部位を含む画像を取得する取得部と、第1部位の生体的特徴に基づいて、画像に含まれる第1部位と第2部位の候補となる候補群から第1部位に相当する候補を検出する検出部を備える。更に、当該画像処理装置は、第1部位に相当する候補の外縁に基づいて第1部位と第2部位の接続方向を規定する規定部を備える。更に、当該画像処理装置は、接続方向に基づいて候補群から第2部位に相当する候補を選定する選定部を備える。
なお、本発明の目的及び利点は、例えば、請求項におけるエレメント及び組み合わせにより実現され、かつ達成されるものである。また、上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を制限するものではないことを理解されたい。
本明細書に開示される画像処理装置では、背景色に依存せずにユーザの手指の位置を正確に特定することが可能となる。
一つの実施形態による画像処理装置1の機能ブロック図である。 図2(a)は、取得部2が取得する画像の一例である。図2(b)は、抽出部3が画像から抽出する肌色領域の一例である。図2(c)は、抽出部3が肌色領域の隣接画素の画素値の差分に基づいて抽出する第1部位と第2部位の候補となる候補群の一例である。 検出部4が検出する第1部位に相当する候補の一例である。 規定部5が規定する接続方向の一例である。 (a)は、第1部位に相当する候補と接続方向、ならびに第2部位の候補となる候補群を示す図である。(b)は、検出部4が検出した第1部位に相当する候補と、選定部6が選定した第2部位に相当する候補を示す図である。 画像処理装置1による画像処理のフローチャートである。 一つの実施形態による画像処理装置1のハードウェア構成図である。
以下に、一つの実施形態による画像処理装置、画像処理方法及び画像処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例は、開示の技術を限定するものではない。
(実施例1)
図1は、一つの実施形態による画像処理装置1の機能ブロック図である。画像処理装置1は、取得部2、抽出部3、検出部4、規定部5、選定部6を有する。なお、画像処理装置1は、図示しない通信部を有しており、通信回線を介して様々な外部装置と双方向にデータの送受信を行うことによりネットワークリソースを用いることが可能である。
取得部2は、例えば、ワイヤードロジックによるハードウェア回路である。また、取得部2は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。取得部2は、外部装置が撮像する画像を受け取る。画像を撮像する外部装置は、例えば撮像素子である。撮像素子は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)カメラなどの撮像デバイスである。取得部2は、撮像素子から受け取る画像がアナログ画像の場合は、離散的な位置におけるアナログ信号と信号を摘出する処理となる標本化を行った後に、有限分解能の数値に返還する処理となる量子化を行うことでディジタル画像に変換しても良い。また、取得部2は、例えば、30fpsの間隔で、撮像素子に画像撮像の指示を行うことで画像を取得しても良い。また、撮像素子をHMC(Head Mounted Camera)として利用することも可能である。撮像素子は、例えば、ユーザの第1部位と第2部位を含む画像を撮像する。また、撮像素子は、必要に応じて画像処理装置1に含めることも可能である。なお、実施例1においては、説明の便宜上、第1部位は手背(手の甲と称しても良い)と手指の第2関節から第3関節を含む部位を示し、第2部位は第2関節から手指の指先までの方向に属する部位を示すものとして説明する。なお、第2部位について換言すると、第2関節から手指の指先までの方向に属する部位は、例えば、指先から第2関節までの部位、第1関節から第2関節までの部位、ならびに、指先から第1関節まで部位等を示す。また、実施例1においては、説明の便宜上、手背と手指が撮像素子の方向を向いた状態(換言すると撮像素子と対向する状態)であり、かつ、インタラクション操作の為に一本の手指(例えば、人差し指)が伸びた状態であるものとして説明する。取得部2は、取得した画像を抽出部3に出力する。
抽出部3は、例えば、ワイヤードロジックによるハードウェア回路である。また、抽出部3は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。抽出部3は、取得部2から画像を受け取る。抽出部3は、処理負荷の軽減の観点から、画像の肌色領域と肌色領域以外を区別し、肌色領域以外を一連の画像処理対象から除外しても良い。実施例1においては、説明の便宜上、抽出部3は、画像の肌色領域と肌色領域以外を区別し、肌色領域以外を一連の画像処理対象から除外するものとして説明する。なお、肌色領域は、RGB、HSV、YCbCrなどの任意の色空間上において規定することが出来る。例えば、RGB色空間を使用する場合は、RGBの色成分(色特徴量と称しても良い)のそれぞれの画素値が任意範囲内(例えば、100<R<255、0<G<70、0<B<70)に収まっているか否かによって肌色領域を規定する方法や、画素値ごとに肌色領域を規定する方法(例えば、画素値が(R1、G1、B1)の場合は肌色領域であり、画素値が(R2、G2、B2)の場合は肌色領域以外と規定する方法)などがある。また、RGB、HSV、YCbCr色空間は、それぞれ相互変換が可能であり、他の色空間でも上述したRBG色空間と同様に肌色領域の規定が可能となる。
抽出部3は、取得部2から画像を受け取り、当該画像に含まれるユーザの第1部位と第2部位の候補となる候補群を、画像の画素値に基づいて抽出する。換言すると、抽出部3は、例えば、画像の隣接画素の画素値の差分に基づいて規定され、かつ、第1部位と第2部位が分離して抽出される所定の第1画素値に基づいて候補群を抽出する。具体的には、抽出部3は、肌色領域に含まれる画素を複数の領域(第1部位と第2部位の候補となる候補群)に分離する。抽出部3は、例えば、肌色領域内の隣接画素間の画素値の差分を用いて候補群を抽出することが出来る。ここで、互いに隣接する画素Aと画素Bの画素値をそれぞれ(Ra、Ga、Ba)、(Rb、Gb、Bb)とした場合、画素値の差分(距離と称しても良い)D_abは、次式で表現出来る。
(数1)
D_ab = sqrt((Ra - Rb)2 + (Ga - Gb)2 + (Ba - Bb)2)
抽出部3は、上述の(数1)において、画素値の差分D_abが、所定の第1画素値(例えば、第1画素値=5)未満であれば、同一のグループの候補として抽出し、画素値の差分D_abが閾値以上であれば異なるグループの候補として抽出する。
図2(a)は、取得部2が取得する画像の一例である。図2(b)は、抽出部3が画像から抽出する肌色領域の一例である。図2(c)は、抽出部3が肌色領域の隣接画素の画素値の差分に基づいて抽出する第1部位と第2部位の候補となる候補群の一例である。図2(a)において、取得部2が取得する画像は、写真等の情報を含む背景が肌色の紙面上に、ユーザの第1部位と第2部位が重畳している。図2(a)に示される通り、ユーザの手背と手指は撮像素子の方向を向いた状態であり、かつ、インタラクション操作の為に一本の手指(人差し指)が真直ぐに伸びた状態である。図2(b)に示される通り、抽出部3は、上述に開示した方法を用いて、画像に含まれる肌色領域を抽出することが出来る。図2(b)においては、ユーザの第1部位と第2部位、ならびに紙面の背景領域が肌色領域として抽出される。抽出部3は、上述に開示した方法を用いて肌色領域から隣接画素の画素値の差分に基づいて第1部位と第2部位の候補となる候補群を抽出する。図2(c)においては、第1部位が1つのグループで候補として抽出され、第2部位は、複数のグループに分離された状態で複数の候補として抽出されている。また、紙面の背景領域も複数のグループに分離された状態で候補群として抽出されている。これは、例えば、光の表面反射の影響で紙面の画素値が変化することに起因するものである。
ここで、隣接画素の画素値の差分に基づいて規定される第1画素値を規定する条件について説明する。第1画素値は、第1部位、第2部位、ならびに背景領域が分離されて抽出される値であれば良い。なお、当該第1画素値の概念は、本発明者らの鋭意検証によって新たに見出された概念であり、従来においては開示されていない概念である。手背と手指が含まれる画像においては、手指の第1関節と第2関節上に存在する皮膚の皺や爪の部位は形状が複雑な為、隣接画素の画素値の差分は、当該部位特有の画素値を有する。
一方、手背とインタラクション操作を行っている手指の第2関節から第3関節を含む部位は、顕著な特有の形状は存在しない為、隣接画素の画素値の差分は殆ど無い。この為、抽出部3は、第1部位と第2部位を分離出来る所定の第2画素値(例えば、第2画素値=7)を予め規定することが出来る。また、第1部位・第2部位と背景領域の境界部分は、背景領域が肌色領域である場合においても光の陰影の影響により、境界部位においては、当該境界部位特有の隣接画素の画素値の差分値を有する。この為、抽出部3は、第1部位・第2部位と背景領域を分離出来る所定の第3画素値(例えば、第3画素値=5)を予め規定することが出来る。ここで、第1画素値は、第2画素値と第3画素値を比較し、小さい方の値(第1部位と第2部位を分離可能であり、かつ、第1部位・第2部位と背景領域を分離出来る値)を第1画素値として規定することが出来る。当該第1画素値を用いることより、抽出部3は、第1部位、第2部位、ならびに第1部位・第2部位以外(背景領域)から、第1部位と第2部位の候補となる候補群を抽出することが出来る。
なお、抽出部3は、例えば、「N. Senthilkumaran et al., Edge Detection Techniques for Image Segmentation, A Survey of Soft Computing Approaches, International Journal of Recent Trends in Engineering, Vol. 1, No. 2, May 2009」に開示されるエッジ抽出に基づいて第1部位と第2部位の候補となる候補群を抽出しても良い。抽出部3は、抽出した候補群を検出部4と選定部6に出力する。
図1における検出部4は、例えば、ワイヤードロジックによるハードウェア回路である。また、検出部4は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。検出部4は、候補群を抽出部3から受け取る。検出部4は、第1部位の生体的特徴に基づいて候補群から第1部位に相当する候補を検出する。なお、生体的特徴は、例えば、第1部位の面積、第1部位の形状、または、第1部位の画素値の統計量の少なくとも一つを含んでいれば良い。検出部4は、検出した第1部位の候補を規定部5に出力する。以下に検出部4における第1部位の各生体的特徴に応じた検出処理の詳細を記載するが、検出部4は、堅牢性を向上させる為に各生体的特徴を組み合わせて第1部位に相当する候補を検出しても良い。
(第1部位の面積に基づく第1部位に相当する候補の検出方法)
検出部4は、生体的特徴の一例となる第1部位の面積に基づいて、第1部位に相当する候補を検出する。検出部4は、抽出部3から受け取った候補群の各面積(単位は例えば画素数であれば良い)をSnとした場合、第1部位に相当する候補を次式に基づいて検出することが出来る。
(数2)
TH01 < Sn < TH02
但し、上述の(数2)において、TH01とTH02は、画像処理装置1を使用する単数または複数のユーザの平均的な第1部位を予め計測することによって定めることが出来る任意の閾値である。例えば、取得部2が取得する画像サイズを76800画素(320画素×240画素)と仮定し、撮像素子と第1部位の距離を50cmと仮定した場合、TH01=2000画素となり、TH02=10000画素と規定することが出来る。なお、検出部4は、上述の(数2)の条件を満たす複数の第1部位に相当する候補を検出した場合、例えば、TH01とTH02の平均値に最も近い候補を第1部位に相当する候補として検出すれば良い。
(第1部位の形状に基づく第1部位に相当する候補を検出方法)
検出部4は、生体的特徴の一例となる第1部位の形状に基づいて、第1部位に相当する候補を検出する。検出部4は、候補群の各候補の外縁と、例えば、予め計測した単数または複数のユーザの第1部位の外縁を、任意のテンプレートマッチングを行うことで第1部位に相当する候補を検出することが出来る。また、検出部4は候補群の各候補の外縁の平行線分(手指の幅は略一定であるため、手指の外縁と左端と右端は平行線分となる)を検出し、検出した平行線分が所定の閾値(第2関節から第3関節の長さに基づいて適宜規定することが可能)以内である候補を、第1候補に相当する候補を検出することも出来る。なお、検出部4は、平行線分の検出方法として、例えば、「Zheng et. al., A Parallel-Line Detection Algorithm Based on HMM Decoding, IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL. 27, NO. 5, MAY 2005」または、「Song et. al., A Hough transform based line recognition method utilizing both parameter space and image space, Pattern Recognition, 38, 2005, p.539 - p.552」に開示される方法を用いることが出来る。なお、検出部4は、上記の条件を満たす複数の第1部位に相当する候補を検出した場合、例えば、テンプレートに対して最も類似度が高い候補、または、所定の閾値に最も近い候補を第1部位に相当する候補として検出すれば良い。
(第1部位の画素値の統計量に基づく第1部位に相当する候補の検出方法)
検出部4は、生体的特徴の一例となる第1部位の画素値の統計量に基づいて、第1部位に相当する候補を検出する。検出部4は、抽出部3から受け取った候補群の各候補の(例えば、RGB色空間における)平均画素値(Ar、Ag、Ab)、標準偏差(σr、σb、σg)を用いて、次式の条件に基づいて第1部位に相当する候補を検出することが出来る。
(数3)
TH03 < Ar < TH04
TH05 < Ag < TH06
TH07 < Ab < TH08
TH09 <σr < TH10
TH11 <σg < TH12
TH13 <σb < TH14
但し、上述の(数3)において、TH03ないしTH14は、画像処理装置1を使用する単数または複数のユーザの平均的な第1部位を予め計測することによって規定することが出来る任意の閾値である。例えば、TH03=170、TH04=200、TH05=60、TH06=120、TH07=110、TH08=160、TH09=5、TH10=15、TH11=10、TH12=30、TH=13、TH14=30であれば良い。
ここで、生体的特徴の一例となる第1部位の画素値の統計量に基づいて、検出部4が第1部位に相当する候補を検出することが出来る技術的な理由について説明する。手背と第2関節から第3関節までの領域の色彩(色特徴量と称しても良い)は、若干赤い部分や若干白い部分、または、若干黒い部分(血管の上など)など、微小な領域毎に若干色彩が異なる。その為、背景の一例となる肌色単色の紙面等と比較した場合、画素値の標準偏差が大きくなる為である。なお、検出部4は、標準偏差の代わりに分散を用いることも可能である。また、検出部4は、上述の(数3)の条件を満たす複数の第1部位に相当する候補を検出した場合、例えば、TH03とTH04、または、TH09とTH10の平均値に最も近い候補を第1部位に相当する候補として検出すれば良い。
図3は、検出部4が検出する第1部位に相当する候補の一例である。図3に示す通り、検出部4は、第1部位の生体的特徴に基づいて、図2(c)に示す候補群から第1部位に相当する候補を検出する。検出部4は検出した第1部位に相当する候補を規定部5に出力する。
図1における規定部5は、例えば、ワイヤードロジックによるハードウェア回路である。また、規定部5は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。規定部5は、検出部4が検出した第1部位に相当する候補を検出部4から受け取る。規定部5は、第1部位の候補の外縁に基づいて第1部位と第2部位の接続方向を規定する。
先ず、規定部5は、第1部位に相当する候補から外縁を検出する。規定部5は、外縁の検出方法として、様々な公知の方法を用いることが出来る。規定部5は、外縁の検出方法として、例えば、「Song et. al., A Hough transform based line recognition method utilizing both parameter space and image space, Pattern Recognition, 38, ,2005, p.539 - p.552」に開示される方法を用いることが出来る。次に、規定部5は、検出した外縁から平行線分を検出する。なお、当該平行線分は、例えば、手指の第2関節から第3関節の外縁に対応する(手指の幅は略一定であるため、手指の外縁の左端と右端は平行線分となる)。規定部5は、平行線分の検出方法として、例えば、「Zheng et. al., A Parallel-Line Detection Algorithm Based on HMM Decoding, IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL. 27, NO. 5, MAY 2005」または「新沼ら、濃度等高線表現に基づく陰影領域の抽出、情報処理学会研究報告、2001、36、p39−46」に開示される方法を用いることが出来る。なお、手指の幅は略一定であるが、厳密には平行ではない。この為、規定部5は、平行線分の検出において任意の閾値判定を用いても良い。当該閾値は、画像処理装置1を使用する単数または複数のユーザの平均的な手指の外縁の左端と右端のなす角を計測することによって規定されれば良い。例えば、規定部5は、2つの線分がなす角が5°未満であれば、平行線分と判定することが出来る。なお、この場合、規定部5は、平行と判定した2つの線分の角度を、例えば、なす角を2で除算した値に基づいてそれぞれ補正することで、完全な平行線分を規定することが出来る。また、規定部5は、複数の平行線分を検出した場合(換言すると、親指と人差し指の第2関節から第3関節の部位の平行線分を検出した場合)は、例えば、一番長い平行線分を、ユーザがインタラクティブ操作を実施している手指とみなしても良い。
図4は、規定部5が規定する接続方向の一例である。図4に示す通り、規定部5は外縁から平行線分を規定し、当該平行線分から接続方向を規定する。なお、接続方向は、例えば、平行線分と平行であれば良い。また、規定部5は、例えば、取得部2が取得する画像の左上端を原点、横方向をx、縦方向をyとした場合、接続方向としてy=ax+b(aとbは任意の係数)で表現される情報を規定することが出来る。なお、当該情報を平均線分の中線の延長線と称しても良い。規定部5は、規定した第1部位と第2部位の接続方向を選定部6に出力する。
図1における選定部6は、例えば、ワイヤードロジックによるハードウェア回路である。また、選定部6は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。選定部6は、接続方向を規定部5から受け取り、候補群を抽出部3から受け取る。選定部6は、接続方向に基づいて第1部位に相当する候補を除いた候補群から第2部位に相当する候補を選定する。選定部6は、例えば、平行線分の中線の延長線と候補群の外縁の距離、または、平行線分の延長線間の領域に基づいて第2部位に相当する候補を選定する。更に、選定部6は、例えば、選定部6は、候補群の面積、または、第1部位と候補群の画素値に更に基づいて第2部位に相当する候補を選定する。以下に選定部6における選定処理の詳細を記載するが、選定部6は、堅牢性を向上させる為に各選定処理を組み合わせて第2部位に相当する候補を検出しても良い。
図5(a)は、第1部位に相当する候補と接続方向、ならびに第2部位の候補となる候補群を示す図である。図5(b)は、検出部4が検出した第1部位に相当する候補と、選定部6が選定した第2部位に相当する候補を示す図である。図5(a)においては、第1部位と第2部位の接続方向(平行線分の中線の延長線と称しても良い)、平行線分、ならびに、平行線分の延長線が図示されている。選定部6は、例えば、接続方向上に存在する候補を第2部位に相当する候補として選定する。また、選定部6は、例えば、平行線分の延長線間の領域に基づいて第2部位に相当する候補を選定しても良い。これは、指先から第1関節、第2関節、第3関節までの部位の外縁(手指の外縁)は、略直線である生体的特徴を利用するものである。
図1における選定部6は、例えば、平行線分の延長線と候補群の外縁(例えば、平行線分の中線の延長線と外縁が最遠となる外縁上の点との距離)までの距離B_distance(単位は例えば画素数であれば良い)に基づいて第2部位に相当する候補を選定しても良い。選定部6は、例えば、次式の条件を満たす候補を第2部位に相当する候補として選定することが出来る。
(数4)
B_distance < TH15
但し、上述の(数4)において、TH15は、画像処理装置1を使用する単数または複数のユーザの平均的な第2部位を予め計測することによって規定される任意の閾値である。例えば、TH15=10であれば良い。上述の(数4)を適用することで、平行線分の中線の延長線上に存在する候補において、手指の形状に対応しない横長の形状の候補を、第2部位に相当する候補として選定しないことが可能となる。
選定部6は、例えば、候補群の候補の面積B_area(単位は例えば画素数であれば良い)に基づいて、第2部位に相当する候補を選定しても良い。選定部6は、例えば、次式の条件を満たす候補を第2部位に相当する候補として選定することが出来る。
(数5)
TH16 < B_area < TH17
但し、上述の(数5)において、TH16、17は、画像処理装置1を使用する単数または複数のユーザの平均的な第2部位を予め計測することによって規定される任意の閾値である。例えば、TH16=2、TH17=300であれば良い。上述の(数5)を適用することで、平行線分の中線の延長線上に存在する候補において、手指の形状には対応することが無い大きな面積を有する候補や小さい面積を有する候補を、第2部位に相当する候補として選定しないことが可能となる。なお、TH16は、光の陰影により発生する極小領域の面積に基づいて規定しても良い。
選定部6は、例えば、候補群の各候補の画素値の平均値B_aveと標準偏差Bσならびに、第1部位に相当する候補の画素値の平均値A_aveと標準偏差Aσに基づいて第2部位に相当する候補を選定しても良い。選定部6は、例えば、次式の条件を満たす候補を第2部位に相当する候補として選定することが出来る。
(数6)
|B_ave - A_ave| < TH18
|B_σ - A_σ| < TH19
但し、上述の(数6)において、TH18、19は、画像処理装置1を使用する単数または複数のユーザの平均的な第1部位と第2部位を予め計測することによって規定される任意の閾値である。例えば、TH18=20、TH19=5であれば良い。なお、TH18、TH19は、近接する皮膚の色素は類似している生体的特徴に基づいて規定することが出来る。
図5(b)に示す通り、画像処理装置1(例えば、選定部6)は、検出部4が検出した第1部位に相当する候補と、選定部6が選定した第2部位に相当する候補を結合させたものをユーザの手指として、当該手指の外縁(輪郭)から任意の方法で手指先位置を検出することが出来る。画像処理装置1は、手指先位置の検出方法として、例えば、「Survey on Skin Tone Detection using Color Spaces, C. Prema et al., International Journal of Applied Information Systems 2(2):18-26, May 2012. Published by Foundation of Computer Science, New York, USA.」に開示される方法を用いることが出来る。画像処理装置1は検出した手指先位置を外部装置(例えば、情報処理端末装置など)に出力する。
なお、画像処理装置1は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路で構成しても良い。
図6は、画像処理装置1による画像処理のフローチャートである。取得部2は、例えば、撮像素子が撮像する少なくともユーザの第1部位と第2部位が含まれる画像を撮像素子から受け取る(ステップS601)。なお、ステップS601においては、取得部2は、撮像素子から受け取る画像がアナログ画像の場合は、離散的な位置におけるアナログ信号と信号を摘出する処理となる標本化を行った後に、有限分解能の数値に返還する処理となる量子化を行うことでディジタル画像に変換しても良い。また、取得部2は、例えば、30fpsの間隔で、撮像素子に画像撮像の指示を行うことで画像を取得しても良い。なお、第1部位は手背(手の甲と称しても良い)と手指の第2関節から第3関節を含む部位を示し、第2部位は第2関節から手指の指先までの方向に属する部位を示すものとして説明する。また、説明の便宜上、手背と手指が撮像素子の方向を向いた状態(換言すると撮像素子と対向する状態)であり、かつ、インタラクション操作の為に一本の手指(例えば、人差し指)が伸びた状態であるものとして説明する。取得部2は、取得した画像を抽出部3に出力する。
抽出部3は、取得部2から画像を受け取り、当該画像に含まれるユーザの第1部位と第2部位の候補となる候補群を、画像の画素値に基づいて抽出する(ステップS602)。換言すると、抽出部3は、例えば、画像の隣接画素の画素値の差分に基づいて規定され、かつ、第1部位と第2部位が分離して抽出される所定の第1画素値に基づいて候補群を抽出する。具体的には、抽出部3は、肌色領域に含まれる画素を複数の領域(第1部位と第2部位の候補となる候補群)に分離する。抽出部3は、例えば、肌色領域内の隣接画素間の画素値の差分を用いて候補群を上述した抽出部3の処理方法を用いて抽出する。ここで、図示はしないが、ステップS602において、候補群が抽出されない場合は、異なる時間(例えば、次フレーム)に取得部2が画像を取得し(ステップS601)、抽出部3はステップS602の処理を再度実行しても良い。
更に、ステップS602において、抽出部3は、処理負荷の軽減の観点から、上述した抽出部3の処理方法を用いて画像の肌色領域と肌色領域以外を区別し、肌色領域以外を一連の画像処理対象から除外しても良い。図6に示すフローチャートにおいては、説明の便宜上、抽出部3は、画像の肌色領域と肌色領域以外を区別し、肌色領域以外を一連の画像処理対象から除外するものとして説明する。抽出部3は、抽出した候補群を検出部4と選定部6に出力する。
検出部4は、候補群を抽出部3から受け取る。検出部4は、上述した検出部4の処理方法を用いて第1部位の生体的特徴に基づいて候補群から第1部位に相当する候補を検出する(ステップS603)。なお、生体的特徴は、例えば、第1部位の面積、第1部位の形状、または、第1部位の画素値の統計量の少なくとも一つを含んでいれば良い。検出部4は、検出した第1部位の候補を規定部5に出力する。
規定部5は、検出部4が検出した第1部位に相当する候補を検出部4から受け取る。規定部5は、第1部位の候補の外縁に基づいて第1部位と第2部位の接続方向を、上述した規定部5の処理方法を用いて規定する(S604)。なお、ステップS602において、なお、規定部5は、複数の平行線分を検出した場合(換言すると、親指と人差し指の第2関節から第3関節の部位の平行線分を検出した場合)は、例えば、一番長い平行線分を、ユーザがインタラクティブ操作を実施している手指とみなしても良い。規定部5は、規定した第1部位と第2部位の接続方向を選定部6に出力する。
選定部6は、接続方向を規定部5から受け取り、候補群を抽出部3から受け取る。選定部6は、接続方向に基づいて第1部位に相当する候補を除いた候補群から第2部位に相当する候補を、上述した選定部6の処理方法を用いて選定する(ステップS605)。選定部6は、例えば、平行線分の中線の延長線と候補群の外縁の距離、または、平行線分の延長線間の領域に基づいて第2部位に相当する候補を選定する。更に、選定部6は、例えば、選定部6は、候補群の面積、または、第1部位と候補群の画素値に更に基づいて第2部位に相当する候補を選定する。なお、ステップS605において、選定部6は、堅牢性を向上させる為に、上述した各選定処理を組み合わせて第2部位に相当する候補を検出しても良い。
画像処理装置1(例えば、選定部6)は、検出部4が検出した第1部位に相当する候補と、選定部6が選定した第2部位に相当する候補を結合させたものをユーザの手指として、当該手指の外縁(輪郭)から任意の方法で手指先の位置を検出する(ステップS606)ことで、画像処理装置1は図6のフローチャートに示す画像処理を終了する。
実施例1の画像処理装置においては、背景色に依存せずにユーザの手指の位置を正確に特定することが可能となる。なお、実施例1では、手が肌色であり、かつ背景も肌色であり方法が類似している場合を例として説明したが、実施の形態はこれに限定されない。例えば、手指が手袋などで覆われていて、手袋の色に類似した背景を使用する場合などにも、実施例1の形態が適用できることは言うまでもない。
(実施例2)
図7は、一つの実施形態による画像処理装置1として機能するコンピュータのハードウェア構成図である。図7に示す通り、画像処理装置1は、コンピュータ100、およびコンピュータ100に接続する入出力装置(周辺機器)を含んで構成される。
コンピュータ100は、プロセッサ101によって装置全体が制御されている。プロセッサ101には、バス109を介してRAM(Random Access Memory)102と複数の周辺機器が接続されている。なお、プロセッサ101は、マルチプロセッサであってもよい。また、プロセッサ101は、例えば、CPU、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、またはPLD(Programmable Logic Device)である。更に、プロセッサ101は、CPU、MPU、DSP、ASIC、PLDのうちの2以上の要素の組み合わせであってもよい。なお、例えば、プロセッサ101は、図1の取得部2、抽出部3、検定部4、規定部5、選定部6等の機能ブロックの処理を実行することが出来る。
RAM102は、コンピュータ100の主記憶装置として使用される。RAM102には、プロセッサ101に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、RAM102には、プロセッサ101による処理に必要な各種データが格納される。
バス109に接続されている周辺機器としては、HDD(Hard Disk Drive)103、グラフィック処理装置104、入力インタフェース105、光学ドライブ装置106、機器接続インタフェース107およびネットワークインタフェース108がある。
HDD103は、内蔵したディスクに対して、磁気的にデータの書き込みおよび読み出しを行う。HDD103は、例えば、コンピュータ100の補助記憶装置として使用される。HDD103には、OSのプログラム、アプリケーションプログラム、および各種データが格納される。なお、補助記憶装置としては、フラッシュメモリなどの半導体記憶装置を使用することも出来る。
グラフィック処理装置104には、モニタ110が接続されている。グラフィック処理装置104は、プロセッサ101からの命令にしたがって、各種画像をモニタ110の画面に表示させる。モニタ110としては、CRT(Cathode Ray Tube)を用いた表示装置や液晶表示装置などがある。
入力インタフェース105には、キーボード111とマウス112とが接続されている。入力インタフェース105は、キーボード111やマウス112から送られてくる信号をプロセッサ101に送信する。なお、マウス112は、ポインティングデバイスの一例であり、他のポインティングデバイスを使用することもできる。他のポインティングデバイスとしては、タッチパネル、タブレット、タッチパッド、トラックボールなどがある。
光学ドライブ装置106は、レーザ光などを利用して、光ディスク113に記録されたデータの読み取りを行う。光ディスク113は、光の反射によって読み取り可能なようにデータが記録された可搬型の記録媒体である。光ディスク113には、DVD(Digital Versatile Disc)、DVD−RAM、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)などがある。可搬型の記録媒体となる光ディスク113に格納されたプログラムは光学ドライブ装置106を介して画像処理装置1にインストールされる。インストールされた所定のプログラムは、画像処理装置1より実行可能となる。
機器接続インタフェース107は、コンピュータ100に周辺機器を接続するための通信インタフェースである。例えば、機器接続インタフェース107には、メモリ装置114、メモリリーダライタ115、ならびに撮像素子118を接続することが出来る。メモリ装置114は、機器接続インタフェース107との通信機能を搭載した記録媒体である。メモリリーダライタ115は、メモリカード116へのデータの書き込み、またはメモリカード116からのデータの読み出しを行う装置である。メモリカード116は、カード型の記録媒体である。撮像素子118は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)カメラなどの撮像デバイスである。また、撮像素子118は、例えば、ユーザの第1部位と第2部位を含む画像を撮像する。
ネットワークインタフェース108は、ネットワーク117に接続されている。ネットワークインタフェース108は、ネットワーク117を介して、他のコンピュータまたは通信機器との間でデータの送受信を行う。
コンピュータ100は、たとえば、コンピュータ読み取り可能な記録媒体に記録されたプログラムを実行することにより、上述した画像処理機能を実現する。コンピュータ100に実行させる処理内容を記述したプログラムは、様々な記録媒体に記録しておくことが出来る。上記プログラムは、1つのまたは複数の機能モジュールから構成することが出来る。例えば、図1に記載の取得部2、抽出部3、検出部4、規定部5、選定部6の処理を実現させた機能モジュールからプログラムを構成することが出来る。なお、コンピュータ100に実行させるプログラムをHDD103に格納しておくことができる。プロセッサ101は、HDD103内のプログラムの少なくとも一部をRAM102にロードし、プログラムを実行する。また、コンピュータ100に実行させるプログラムを、光ディスク113、メモリ装置114、メモリカード116などの可搬型記録媒体に記録しておくことも出来る。可搬型記録媒体に格納されたプログラムは、例えば、プロセッサ101からの制御により、HDD103にインストールされた後、実行可能となる。またプロセッサ101が、可搬型記録媒体から直接プログラムを読み出して実行することも出来る。
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが出来る。また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することが出来る。
以上、説明した実施形態に関し、更に以下の付記を開示する。
(付記1)
ユーザの第1部位と第2部位を含む画像を取得する取得部と、
前記第1部位の生体的特徴に基づいて、前記画像に含まれる前記第1部位と前記第2部位の候補となる候補群から前記第1部位に相当する前記候補を検出する検出部と、
前記第1部位に相当する前記候補の外縁に基づいて前記第1部位と前記第2部位の接続方向を規定する規定部と、
前記接続方向に基づいて前記候補群から第2部位に相当する前記候補を選定する選定部
を備えることを特徴とする画像処理装置。
(付記2)
前記画像に含まれる前記候補群を前記画像の画素値に基づいて抽出する抽出部を更に備えることを特徴とする付記1記載の画像処理装置。
(付記3)
前記第1部位は手背と手指の第2関節から第3関節を含む部位であり、前記第2部位は前記第2関節から前記手指の指先までの方向に属する部位であることを特徴とする付記1または付記2記載の画像処理装置。
(付記4)
前記抽出部は、前記画像の隣接画素の前記画素値の差分に基づいて規定され、かつ、前記第1部位と前記第2部位が分離して抽出される所定の第1画素値に基づいて前記候補群を抽出することを特徴とする付記2または付記3記載の画像処理装置。
(付記5)
前記規定部は、前記外縁から規定される前記外縁の平行線分に基づいて前記接続方向を規定することを特徴とする付記1ないし付記4の何れか一つに記載の画像処理装置。
(付記6)
前記生体的特徴は、前記第1部位の面積、前記第1部位の形状、または、前記第1部位の前記画素値の統計量の少なくとも一つを含むことを特徴とする付記1ないし付記5の何れか一つに記載の画像処理装置。
(付記7)
前記選定部は、前記平行線分の中線の延長線と前記候補群の外縁の距離、または、前記平行線分の延長線間の領域に基づいて前記第2部位に相当する前記候補を選定することを特徴とする付記5または付記6記載の画像処理装置。
(付記8)
前記選定部は、前記候補群の面積、または、前記第1部位と前記候補群の画素値に更に基づいて前記第2部位に相当する前記候補を選定することを特徴とする付記5ないし付記7の何れか一つに記載の画像処理装置。
(付記9)
ユーザの第1部位と第2部位を含む画像を取得し、
前記第1部位の生体的特徴に基づいて、前記画像に含まれる前記第1部位と前記第2部位の候補となる候補群から前記第1部位に相当する前記候補を検出し、
前記第1部位に相当する前記候補の外縁に基づいて前記第1部位と前記第2部位の接続方向を規定し、
前記接続方向に基づいて前記候補群から第2部位に相当する前記候補を選定すること
を含むことを特徴とする画像処理方法。
(付記10)
前記画像に含まれる前記第1部位と前記第2部位の候補となる候補群を、前記画像の画素値に基づいて抽出することを更に含む付記9記載の画像処理方法。
(付記11)
前記第1部位は手背と手指の第2関節から第3関節を含む部位であり、前記第2部位は前記第2関節から前記手指の指先までの方向に属する部位であることを特徴とする付記9または付記10記載の画像処理方法。
(付記12)
前記抽出することは、前記画像の隣接画素の前記画素値の差分に基づいて規定され、かつ、前記第1部位と前記第2部位が分離して抽出される所定の第1画素値に基づいて前記候補群を抽出することを特徴とする付記10または付記11記載の画像処理方法。
(付記13)
前記規定することは、前記外縁から規定される前記外縁の平行線分に基づいて前記接続方向を規定することを特徴とする付記9ないし付記12の何れか一つに記載の画像処理方法。
(付記14)
前記生体的特徴は、前記第1部位の面積、前記第1部位の形状、または、前記第1部位の前記画素値の統計量の少なくとも一つを含むことを特徴とする付記9ないし付記13の何れか一つに記載の画像処理方法。
(付記15)
前記選定することは、前記平行線分の中線の延長線と前記候補群の外縁の距離、または、前記平行線分の延長線間の領域に基づいて前記第2部位に相当する前記候補を選定することを特徴とする付記13または付記14記載の画像処理方法。
(付記16)
前記選定することは、前記候補群の面積、または、前記第1部位と前記候補群の画素値に更に基づいて前記第2部位に相当する前記候補を選定することを特徴とする付記13ないし付記15の何れか一つに記載の画像処理方法。
(付記17)
コンピュータに、
ユーザの第1部位と第2部位を含む画像を取得し、
前記第1部位の生体的特徴に基づいて、前記画像に含まれる前記第1部位と前記第2部位の候補となる候補群から前記第1部位に相当する前記候補を検出し、
前記第1部位に相当する前記候補の外縁に基づいて前記第1部位と前記第2部位の接続方向を規定し、
前記接続方向に基づいて前記候補群から第2部位に相当する前記候補を選定すること
を実行させることを特徴とする画像処理プログラム。
1 画像処理装置
2 取得部
3 抽出部
4 検出部
5 規定部
6 選定部

Claims (10)

  1. ユーザの第1部位と第2部位を含む画像を取得する取得部と、
    前記第1部位の生体的特徴に基づいて、前記画像に含まれる前記第1部位と前記第2部位の候補となる候補群から前記第1部位に相当する前記候補を検出する検出部と、
    前記第1部位に相当する前記候補の外縁に基づいて前記第1部位と前記第2部位の接続方向を規定する規定部と、
    前記接続方向に基づいて前記候補群から第2部位に相当する前記候補を選定する選定部
    を備えることを特徴とする画像処理装置。
  2. 前記画像に含まれる前記候補群を前記画像の画素値に基づいて抽出する抽出部を更に備えることを特徴とする請求項1記載の画像処理装置。
  3. 前記第1部位は手背と手指の第2関節から第3関節を含む部位であり、前記第2部位は前記第2関節から前記手指の指先までの方向に属する部位であることを特徴とする請求項1または請求項2記載の画像処理装置。
  4. 前記抽出部は、前記画像の隣接画素の前記画素値の差分に基づいて規定され、かつ、前記第1部位と前記第2部位が分離して抽出される所定の第1画素値に基づいて前記候補群を抽出することを特徴とする請求項2または請求項3記載の画像処理装置。
  5. 前記規定部は、前記外縁から規定される前記外縁の平行線分に基づいて前記接続方向を規定することを特徴とする請求項1ないし請求項4の何れか一項に記載の画像処理装置。
  6. 前記生体的特徴は、前記第1部位の面積、前記第1部位の形状、または、前記第1部位の前記画素値の統計量の少なくとも一つを含むことを特徴とする請求項1ないし請求項5の何れか一項に記載の画像処理装置。
  7. 前記選定部は、前記平行線分の中線の延長線と前記候補群の外縁の距離、または、前記平行線分の延長線間の領域に基づいて前記第2部位に相当する前記候補を選定することを特徴とする請求項5または請求項6記載の画像処理装置。
  8. 前記選定部は、前記候補群の面積、または、前記第1部位と前記候補群の画素値に更に基づいて前記第2部位に相当する前記候補を選定することを特徴とする請求項5ないし請求項7の何れか一項に記載の画像処理装置。
  9. ユーザの第1部位と第2部位を含む画像を取得し、
    前記第1部位の生体的特徴に基づいて、前記画像に含まれる前記第1部位と前記第2部位の候補となる候補群から前記第1部位に相当する前記候補を検出し、
    前記第1部位に相当する前記候補の外縁に基づいて前記第1部位と前記第2部位の接続方向を規定し、
    前記接続方向に基づいて前記候補群から第2部位に相当する前記候補を選定すること
    を含むことを特徴とする画像処理方法。
  10. コンピュータに、
    ユーザの第1部位と第2部位を含む画像を取得し、
    前記第1部位の生体的特徴に基づいて、前記画像に含まれる前記第1部位と前記第2部位の候補となる候補群から前記第1部位に相当する前記候補を検出し、
    前記第1部位に相当する前記候補の外縁に基づいて前記第1部位と前記第2部位の接続方向を規定し、
    前記接続方向に基づいて前記候補群から第2部位に相当する前記候補を選定すること
    を実行させることを特徴とする画像処理プログラム。
JP2014026020A 2014-02-14 2014-02-14 画像処理装置、画像処理方法および画像処理プログラム Expired - Fee Related JP6326847B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014026020A JP6326847B2 (ja) 2014-02-14 2014-02-14 画像処理装置、画像処理方法および画像処理プログラム
US14/559,014 US9870059B2 (en) 2014-02-14 2014-12-03 Hand detection device and hand detection method
EP14196764.6A EP2908267B1 (en) 2014-02-14 2014-12-08 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014026020A JP6326847B2 (ja) 2014-02-14 2014-02-14 画像処理装置、画像処理方法および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2015153120A true JP2015153120A (ja) 2015-08-24
JP6326847B2 JP6326847B2 (ja) 2018-05-23

Family

ID=52015946

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014026020A Expired - Fee Related JP6326847B2 (ja) 2014-02-14 2014-02-14 画像処理装置、画像処理方法および画像処理プログラム

Country Status (3)

Country Link
US (1) US9870059B2 (ja)
EP (1) EP2908267B1 (ja)
JP (1) JP6326847B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10185399B2 (en) 2015-03-31 2019-01-22 Fujitsu Limited Image processing apparatus, non-transitory computer-readable recording medium, and image processing method

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6335695B2 (ja) * 2014-07-09 2018-05-30 キヤノン株式会社 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP6478713B2 (ja) * 2015-03-04 2019-03-06 キヤノン株式会社 計測装置および計測方法
JP6708218B2 (ja) 2015-12-16 2020-06-10 日本電気株式会社 情報処理装置、侵入検知方法及びコンピュータプログラム
JP2017118229A (ja) 2015-12-22 2017-06-29 ソニー株式会社 情報処理装置、情報処理方法、プログラム
EP3846004A1 (en) 2019-12-30 2021-07-07 Dassault Systèmes Selection of an edge with an immersive gesture in 3d modeling
EP3846064A1 (en) * 2019-12-30 2021-07-07 Dassault Systèmes Selection of a vertex with an immersive gesture in 3d modeling
EP3846003A1 (en) 2019-12-30 2021-07-07 Dassault Systèmes Selection of a face with an immersive gesture in 3d modeling
CN114419074B (zh) * 2022-03-25 2022-07-12 青岛大学附属医院 4k医疗影像处理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0935066A (ja) * 1995-07-25 1997-02-07 Hitachi Ltd 手形状認識機能付き情報処理装置
JP2004348522A (ja) * 2003-05-23 2004-12-09 Nippon Telegr & Teleph Corp <Ntt> 掌形認証用基準点検出方法、掌形認証用基準点検出装置、プログラムおよび記録媒体
JP2014206930A (ja) * 2013-04-15 2014-10-30 オムロン株式会社 ジェスチャ認識装置、ジェスチャ認識方法、電子機器、制御プログラムおよび記録媒体

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09102046A (ja) 1995-08-01 1997-04-15 Matsushita Electric Ind Co Ltd 手形状認識方法および手形状認識装置
JP3863809B2 (ja) 2002-05-28 2006-12-27 独立行政法人科学技術振興機構 手の画像認識による入力システム
JP2006163662A (ja) 2004-12-06 2006-06-22 Nissan Motor Co Ltd 指本数認識装置および方法
US7720281B2 (en) * 2006-07-31 2010-05-18 Mavs Lab, Inc. Visual characteristics-based news anchorperson segment detection method
WO2012020410A2 (en) * 2010-08-10 2012-02-16 Pointgrab Ltd. System and method for user interaction with projected content
US9135503B2 (en) 2010-11-09 2015-09-15 Qualcomm Incorporated Fingertip tracking for touchless user interface
WO2012139242A1 (en) * 2011-04-11 2012-10-18 Intel Corporation Personalized program selection system and method
JP5935308B2 (ja) 2011-12-13 2016-06-15 富士通株式会社 利用者検知装置、方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0935066A (ja) * 1995-07-25 1997-02-07 Hitachi Ltd 手形状認識機能付き情報処理装置
JP2004348522A (ja) * 2003-05-23 2004-12-09 Nippon Telegr & Teleph Corp <Ntt> 掌形認証用基準点検出方法、掌形認証用基準点検出装置、プログラムおよび記録媒体
JP2014206930A (ja) * 2013-04-15 2014-10-30 オムロン株式会社 ジェスチャ認識装置、ジェスチャ認識方法、電子機器、制御プログラムおよび記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10185399B2 (en) 2015-03-31 2019-01-22 Fujitsu Limited Image processing apparatus, non-transitory computer-readable recording medium, and image processing method

Also Published As

Publication number Publication date
JP6326847B2 (ja) 2018-05-23
EP2908267A1 (en) 2015-08-19
EP2908267B1 (en) 2018-12-12
US9870059B2 (en) 2018-01-16
US20150234471A1 (en) 2015-08-20

Similar Documents

Publication Publication Date Title
JP6326847B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US10991094B2 (en) Method of analyzing dental image for correction diagnosis and apparatus using the same
US10127199B2 (en) Automatic measure of visual similarity between fonts
JP6417702B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US9747493B2 (en) Face pose rectification method and apparatus
EP2980755B1 (en) Method for partitioning area, and inspection device
KR101612605B1 (ko) 얼굴 특징점 추출 방법 및 이를 수행하는 장치
US8948493B2 (en) Method and electronic device for object recognition, and method for acquiring depth information of an object
JP2016207147A (ja) テンプレート作成装置及びテンプレート作成方法
KR102052449B1 (ko) 가상 마우스 시스템 및 그 제어 방법
JP7176616B2 (ja) 画像処理システム、画像処理装置、画像処理方法、及び画像処理プログラム
US9286513B2 (en) Image processing apparatus, method, and storage medium
JP2016099643A (ja) 画像処理装置、画像処理方法および画像処理プログラム
KR101281461B1 (ko) 영상분석을 이용한 멀티 터치 입력 방법 및 시스템
US10019619B2 (en) Biometrics authentication device and biometrics authentication method
KR20150103520A (ko) 손 동작 인식 방법 및 장치
Ramesh et al. Eye ball movement to control computer screen
KR101484003B1 (ko) 얼굴 분석 평가 시스템
US20220108445A1 (en) Systems and methods for acne counting, localization and visualization
KR101200009B1 (ko) 사용자의 손 동작을 이용하여 제어 기능을 제공하기 위한 프리젠테이션 시스템 및 그 방법
US20180116582A1 (en) Elasticity evaluation apparatus, elasticity evaluation method, and elasticity evaluation program
JP6467994B2 (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
JP6273686B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
Suresh et al. Virtual Mouse Implementation using Color Pointer Detection
US20160350608A1 (en) Biometrics authentication device and biometrics authentication method

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160401

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180402

R150 Certificate of patent or registration of utility model

Ref document number: 6326847

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees