JP5742583B2 - 画像処理装置、画像処理方法及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法及び画像処理プログラム Download PDF

Info

Publication number
JP5742583B2
JP5742583B2 JP2011179969A JP2011179969A JP5742583B2 JP 5742583 B2 JP5742583 B2 JP 5742583B2 JP 2011179969 A JP2011179969 A JP 2011179969A JP 2011179969 A JP2011179969 A JP 2011179969A JP 5742583 B2 JP5742583 B2 JP 5742583B2
Authority
JP
Japan
Prior art keywords
image
threshold
unit
frame
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011179969A
Other languages
English (en)
Other versions
JP2013041553A (ja
Inventor
勝山 裕
裕 勝山
明洋 皆川
明洋 皆川
堀田 悦伸
悦伸 堀田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2011179969A priority Critical patent/JP5742583B2/ja
Priority to US13/541,228 priority patent/US8913117B2/en
Publication of JP2013041553A publication Critical patent/JP2013041553A/ja
Application granted granted Critical
Publication of JP5742583B2 publication Critical patent/JP5742583B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/435Computation of moments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、画像処理方法及び画像処理プログラムに関する。
人の身振りや手振り、いわゆるジェスチャをマンマシンインタフェースに利用する試みがなされている。かかるジェスチャを認識する技術の一例としては、対象物の移動軌跡を用いてジェスチャを認識するジェスチャ認識装置が挙げられる。
このジェスチャ認識装置は、異なる時刻に得られる複数の画像フレームからそれぞれ抽出されたユーザの手に対応する対象領域の中から着目点を抽出する。そして、ジェスチャ認識装置は、先に抽出した着目点の移動方向に基づいて対象領域の移動方向を判定した上で、移動方向の判定結果を時系列に並べることにより得られる遷移データを用いて、ユーザの手の移動軌跡を検出する。
特開2011−76255号公報
しかしながら、上記の従来技術には、以下に説明するように、ユーザが意図しない動作をジェスチャと誤認識してしまうという問題がある。
すなわち、上記のジェスチャ認識装置では、ユーザがジェスチャを繰り返して行う場合に、ジェスチャを繰り返すための予備動作がジェスチャと誤認識されてしまうおそれがある。例えば、ユーザが手を右から左へ移動させるジェスチャを繰り返して行う場合には、ユーザが手を右から左へ移動させる意図通りの動作だけがジェスチャと認識される訳ではない。すなわち、次のジェスチャを行うために左に移動させていた手を右へ戻す予備動作もジェスチャと認識されてしまうおそれがある。
開示の技術は、上記に鑑みてなされたものであって、ユーザの意図しない動作がジェスチャと誤認識されるのを防止できる画像処理装置、画像処理方法及び画像処理プログラムを提供することを目的とする。
本願の開示する画像処理装置は、画像を取得する画像取得部を有する。さらに、前記画像処理装置は、前記画像取得部によって取得された画像からジェスチャを認識する対象を特徴付ける領域を抽出する領域抽出部を有する。さらに、画像処理装置は、前記画像のフレーム間で前記領域抽出部によって抽出された領域同士を対応付ける対応付け部を有する。さらに、前記画像のフレーム前後で前記対応付け部によって対応付けられた領域が移動した移動方向を抽出する方向抽出部を有する。さらに、画像処理装置は、前記画像のフレーム前後で前記対応付け部によって対応付けられた領域が移動した移動距離が所定の閾値よりも大きい場合に、前記方向抽出部によって抽出された移動方向を出力する方向出力部を有する。さらに、画像処理装置は、前記閾値を超えた移動距離を用いて前記閾値を更新する閾値更新部を有する。
本願の開示する画像処理装置の一つの態様によれば、ユーザの意図しない動作がジェスチャと誤認識されるのを防止できるという効果を奏する。
図1は、実施例1に係る画像処理装置の機能的構成を示すブロック図である。 図2は、フレームt−1、フレームt、差分画像及び重複画像の一例を示す図である。 図3は、閾値の変動および移動距離の相関関係を示す図である。 図4は、実施例1に係る手振り方向出力処理の手順を示すフローチャートである。 図5は、実施例1に係る第1の対応付け処理の手順を示すフローチャートである。 図6は、実施例1及び実施例2に係る画像処理プログラムを実行するコンピュータの一例について説明するための図である。
以下に、本願の開示する画像処理装置、画像処理方法及び画像処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例は開示の技術を限定するものではない。そして、各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
[画像処理装置の構成]
まず、本実施例に係る画像処理装置の機能的構成について説明する。図1は、実施例1に係る画像処理装置の機能的構成を示すブロック図である。図1に示す画像処理装置10は、カメラ20によって撮像された画像から人の身振りや手振り、いわゆるジェスチャを認識するものである。
図1に示すカメラ20は、図示しない表示部の表裏のうち画面が表示される表側と同じ方向を撮像可能に設置される。このカメラ20によって経時的に撮像された画像には、表示部の表側に相対するユーザが映る場合がある。そして、ユーザが映る画像の中には、ユーザがカメラ20に向けてジェスチャを行った様子が含まれる場合がある。このカメラ20によって撮像された画像は、画像処理装置10に入力される。
図1に示すように、画像処理装置10は、画像取得部11と、画像記憶部12と、領域抽出部13と、対応付け部14と、方向抽出部15と、方向出力部16と、閾値更新部17とを有する。なお、画像処理装置10は、図1に示した機能部以外にも既知のコンピュータが有する各種の機能部、例えば各種の入力デバイスや音声出力デバイスなどを始め、他の装置との通信を制御する通信インターフェースなどの機能部を有することとしてもかまわない。
画像取得部11は、画像を取得する処理部である。一態様としては、画像取得部11は、カメラ20によって撮像される画像を順次取得する。他の一様としては、画像取得部11は、インターネットやLAN(Local Area Network)などのネットワークを介して画像を取得することもできる。更なる一態様としては、画像取得部11は、メモリカードやUSB(Universal Serial Bus)メモリなどの記録媒体から画像を取得することもできる。なお、以下では、カメラ20を始めとする各種の入手経路を介して取得される画像であって後段の処理部によって加工される前の画像のことを「原画像」と記載する場合がある。
画像記憶部12は、画像を記憶する記憶部である。例えば、画像記憶部12には、画像取得部11によって取得された原画像が蓄積して登録される。また、画像記憶部12には、画像取得部11によって取得された原画像の他、後述の領域抽出部13によって閾値処理やラベリング処理されたラベルの情報も併せて登録される。
領域抽出部13は、画像取得部11によって取得された画像からジェスチャを認識する対象を特徴付ける領域を抽出する処理部である。一態様としては、領域抽出部13は、画像取得部11によって取得されたフレームtの原画像に対し、閾値処理やラベリング処理を実行する。これによって、領域抽出部13は、ジェスチャを行うユーザの手を特徴付ける肌色の画素が連結された領域を「ラベル」として抽出する。
これを説明すると、領域抽出部13は、原画像の濃度値が低い方から順に、輪郭及びエッジの一致度を評価尺度として算出した閾値で原画像を2値化する。2回目以降は、領域抽出部13は、以前の閾値で求まるエッジ部分を除外して同じ尺度で閾値を決定して、原画像を2値化する。これを再帰的に繰り返すことによって、異なる閾値によって2値化された複数の2値画像を生成する。その後、領域抽出部13は、各2値画像においてその2値画像をマスクとして使用し、マスク内の肌画像の部分領域の濃淡値の一致度、面積、縦横長さ、形状を評価することによって、最も手らしい2値画像があるものを選択する。
このように、輪郭とエッジの一致度に基づく複数の閾値によって2値化された2値画像を用いて手の領域を抽出することにより、肌色に近い背景とともにユーザの手が映った原画像であっても手の領域を抽出することができる。
対応付け部14は、画像のフレーム間で領域抽出部13によって抽出されたラベル同士を対応付ける処理部である。一態様としては、対応付け部14は、領域抽出部13によって今回抽出されたフレームtのラベルと、画像記憶部12に記憶された前フレームt−1のラベルとが画像上で重複するか否かを判定する。このとき、対応付け部14は、フレームtのラベルとフレームt−1のラベルとが重複する場合には、ラベル間の重複を利用した第1の対応付け処理を実行する。
これを説明すると、対応付け部14は、フレームtの画像からフレームt−1の画像を差し引くことによって「差分画像」を生成する。さらに、対応付け部14は、フレームtの画像及びフレームt−1の画像の積をとることによって「重複画像」を生成する。これら差分画像及び重複画像についてもラベリング処理を実行することによって差分画像のラベル及び重複画像のラベルを抽出する。このようにして、対応付け部14は、フレームtのラベル集合、フレームt−1のラベル集合、差分画像のラベル集合及び重複画像のラベル集合を揃える。なお、以下では、差分画像のラベルのことを「差分ラベル」と記載し、重複画像のラベルことを「重複ラベル」と記載する場合がある。
このような準備を行った上で、対応付け部14は、フレームt、フレームt−1のそれぞれのラベルに対して重複ラベルおよび差分ラベルを対応付ける。図2は、フレームt−1、フレームt、差分画像及び重複画像の一例を示す図である。図2に示す符号40は、フレームt−1の2値画像を指す。図2に示す符号50は、フレームtの2値画像を指す。図2に示す符号60は、差分画像を指す。また、図2に示す符号70は、重複画像を指す。
図2に示す例で言えば、重複ラベル71には、フレームt−1のラベル41、フレームtのラベル51がそれぞれ対応する。また、重複ラベル72には、フレームt−1のラベル42、フレームtのラベル53が対応する。
続いて、対応付け部14は、フレームtの画像AのラベルLaとフレームt−1の画像BのラベルLbとを対応付ける方法として、次のような方法を用いる。まず、対応付け部14は、フレームtのラベルLaの中の各画素に対して、フレームt−1の各ラベルと重複する画素数を算出する。そして、対応付け部14は、フレームt−1の中のラベルで、Laと重複する画素数が最も大きなものLbをLaと対応づける。図2の例で言えば、フレームtのラベル51とフレームt−1のラベル41が、フレームtのラベル53とフレームt−1のラベル42が対応付けられる。
この対応関係を用いることにより、差分画像のラベルに対応するフレームtのラベルを算出した上で、それに対応する重複ラベルを導くことができる。図2の例で言えば、差分ラベル62と、フレームtのラベル53と、重複ラベル72とが対応付けられる。このため、フレームt上のラベル53は、これに対する差分画像のラベル差分ラベル62があるので、動きを持つものとし、それに対応するフレームt−1上のラベル42と対応しているとみなし対応を選定する。
一方、差分画像のラベルに対応する重複画像のラベルがない場合には、出現、消失または大きな動きの物体とみなすことができる。この場合には、対応付け部14は、モーメント特徴(0次:面積、2次:慣性主軸)を用いた第2の対応付け処理を実行することによって大きな動きがあった物体であるのか、あるいは出現や消失が行ったのかを判別する。図2に示す例で言えば、フレームt−1のラベル43とフレームtのラベル52とが該当する。これらは重複ラベルを同一に持たないため、出現、消失、または大きな動きによるものと推定できる。
これを説明すると、対応付け部14は、下記の式(1)を用いて、各フレームのラベルのうち、重複ラベルにない、あるいは対応がつかないラベルの0次のモーメント特徴、すなわち面積を算出する。なお、下記の式(1)における「δab」は、クロネッカーのデルタを表す。そして、対応付け部14は、フレームt−1のラベル43の面積をフレームtのラベル52の面積で除算した除算値が下限値及び上限値の範囲内に存在するか否かを判定する。すなわち、対応付け部14は、「下限値U1<フレームt−1のラベル43の面積/フレームtのラベル52の面積<上限値L1」であるか否かを判定する。かかる除算値は、その値が「1」に近づくほどラベル43及びラベル52の大きさが類似することを示す。なお、除算値が下限値及び上限値の範囲内にない場合には、ラベル間の大きさ自体が異なると推定できるので、ラベル43及びラベル52は出現または消失とみなすことができる。
Figure 0005742583
そして、対応付け部14は、先の除算値が下限値及び上限値の範囲内にある場合には、2次のモーメント特徴、すなわち慣性主軸方向のモーメント量と慣性主軸に直交する方向のモーメント量を算出する。
すなわち、対応付け部14は、下記の式(2)を用いてM10を計算するとともに、式(3)を用いてM01を計算する。その上で、対応付け部14は、M10をM00で除算するとともにM01をM00で除算することによって1次のモーメント特徴、すなわち重心位置(μ,μ)を算出する。そして、対応付け部14は、先に算出した重心位置を下記の式(4)〜式(6)に代入することによってM20、M02及びM11を算出する。その後、対応付け部14は、下記の式(7)を下記の式(8)へ変形した上で式(4)〜式(6)を用いて算出しておいたM20、M02及びM11を代入することによって慣性主軸θを算出する。そして、対応付け部14は、慣性主軸θ、M02、M11及びM20を下記の式(9)に代入することによって慣性主軸方向の重心周りの2次モーメントを導出する。なお、下記の数式における「a∧b」は、aのb乗を意味することとする。
Figure 0005742583
Figure 0005742583
Figure 0005742583
Figure 0005742583
Figure 0005742583
Figure 0005742583
Figure 0005742583
Figure 0005742583
その上で、対応付け部14は、フレームtのラベル52の慣性主軸方向のモーメント量をフレームt−1のラベル43の慣性主軸方向のモーメント量で除した除算値が下限値L2及び上限値U2の範囲内であるかを判定する。すなわち、対応付け部14は、「下限値L2<フレームtのラベル52の慣性主軸方向のモーメント量/フレームt−1のラベル43の慣性主軸方向のモーメント量<上限値U2」であるか否かを判定する。
このとき、対応付け部14は、除算値が下限値L2及び上限値U2の範囲内である場合には、次のような判定をさらに実行する。すなわち、対応付け部14は、フレームtのラベル52の慣性主軸直交方向のモーメント量をフレームt−1のラベル43の慣性主軸直交方向のモーメント量で除した除算値が下限値L3及び上限値U3の範囲内であるかを判定する。つまり、「下限値L3<フレームtのラベル52の慣性主軸直交方向のモーメント量/フレームt−1のラベル43の慣性主軸直交方向のモーメント量<上限値U3」であるか否かを判定する。
ここで、対応付け部14は、除算値が下限値L3及び上限値U3の範囲内である場合には、フレームtのラベル52及びフレームt−1のラベル43は大きさのみならず、形まで類似していることになる。この場合には、フレームt−1のラベル43がフレームtのラベル52に移動したと判断し、これらフレームt−1のラベル43及びフレームtのラベル52を対応付ける。一方、上記の3つの条件を1つでも満たさない場合には、ノイズと推定し、対応付けは行わない。なお、モーメント特徴は、回転に対して不変となるので、正しく回転すれば、上記の値は「1」となる。
このように、0次のモーメント特徴及び2次のモーメント特徴を用いて面積及び形状特徴に関する判定を重複ラベルに対応付けのない差分ラベルに対して実行することで、フレームt、フレームt−1の中で離れた位置のラベルの対応付けを高精度に実行する。
方向抽出部15は、画像のフレーム前後で対応付け部14によって対応付けられたラベルが移動した移動方向を抽出する処理部である。一態様としては、方向抽出部15は、対応付け部14によってフレームt及びフレームt−1の間で対応付けられたラベルの重心位置を算出する。その上で、方向抽出部15は、フレームt−1のラベルの重心位置からフレームtのラベルの重心位置に向かう方向を手振り方向として抽出する。さらに、方向抽出部15は、フレームt−1のラベルの重心位置及びフレームtのラベルの重心位置の距離を移動距離として算出する。なお、フレームt及びフレームt−1の間で複数の組のラベルが対応付けられている場合には、両者の移動距離の統計値、例えば相加平均値や加重平均値などを算出するようにしてもよい。
方向出力部16は、方向抽出部15によって抽出された移動方向を出力する処理部である。一態様としては、方向出力部16は、方向抽出部15によって算出された移動距離が後述の閾値更新部17によって更新される閾値よりも大きいか否かを判定する。このとき、方向出力部16は、移動距離が閾値よりも大きい場合に、方向抽出部15によって抽出された手振り方向を後段の認識部30へ出力する。一方、方向出力部16は、移動距離が閾値以下である場合には、方向抽出部15によって抽出された移動方向を後段の認識部30へ出力しない。
閾値更新部17は、閾値を超えた移動距離を用いて閾値を更新する処理部である。一態様としては、閾値更新部17は、方向出力部16によって移動距離が閾値よりも大きいと判定された場合に、方向出力部16が判定に使用する閾値を移動距離に設定する。このように、閾値を固定とせずに閾値を超えた移動距離を新たな閾値とするのは、ユーザがジェスチャを意図して動作している場合と意図せずに動作を行う場合とでは手を動かす速度が異なるからである。すなわち、ジェスチャを意図して手を動かしている方が予備動作等で意図せずに手を動かす場合よりも手を動かす速度が速いことを鑑み、意図していない場合の手振りの速度から閾値を遠ざけるためである。一方、閾値更新部17は、方向出力部16によって移動距離が閾値以下であると判定された場合に、所定の係数、例えば「1」よりも小さい0.8などを閾値に乗算することによって閾値を減少させる。これは、ジェスチャを意図して手を動かしている速度まで閾値が超えてしまうのを防止するためである。なお、閾値の初期値には、ユーザがジェスチャの意思をもって動かされると推定できる速度から換算される値が設定される。
図3は、閾値の変動および移動距離の相関関係を示す図である。図3に示す符号80、符号81、符号82及び符号83は、ユーザがジェスチャを繰り返して行う場合における意図しない手振りの動きを指す。また、図3に示す符号90、符号91及び符号92は、ユーザがジェスチャを繰り返して行う場合における意図した手振りの動きを指す。
図3に示すように、最初に意図しない予備動作から開始されたときには、手振り方向が出力されるので、ジェスチャと誤認識されるおそれがあるが、以降は閾値が変動して意図しない手振りの動きで動かされる移動距離から閾値が遠ざかっている。また、閾値を超えた移動距離が閾値に設定されるので、ユーザの特性に合わせて閾値が変わり、手振りが速い人の閾値は高く、手振りが遅い人の閾値は低くでき、多様なパターンの人に対応できる。
[処理の流れ]
次に、本実施例に係る画像処理装置の処理の流れについて説明する。なお、ここでは、画像処理装置10によって実行される(1)手振り方向出力処理を説明した後に、サブフローとして実行される(2)第1の対応付け処理を説明する。
(1)手振り方向出力処理
図4は、実施例1に係る手振り方向出力処理の手順を示すフローチャートである。この手振り方向出力処理は、電源がON状態である限り、繰り返し実行される処理であり、カメラ20から画像が取得された場合に処理が起動する。
図4に示すように、画像取得部11は、カメラ20から画像を順次取得する(ステップS101)。すると、領域抽出部12は、画像取得部11によって取得された画像にラベリング処理を実行する(ステップS102)。
このとき、対応付け部14は、領域抽出部12によってラベリング処理されたラベルが前フレームでラベリングされたラベルとの間で重複するか否かを判定する(ステップS103)。そして、フレーム間で重複する場合(ステップS103肯定)には、対応付け部14は、フレーム間でラベルが重複するラベルを対象に、後述する第1の対応付け処理を実行する(ステップS104)。なお、ラベルがフレーム間で重複しない場合(ステップS103否定)には、そのままステップS105へ移行する。
その後、第1の対応付け処理で対応付けが行われなかったラベルが存在する場合(ステップS105肯定)には、対応付け部14は、0次および2次のモーメント特徴を用いた第2の対応付け処理を実行する(ステップS106)。なお、第1の対応付け処理で対応付けが行われなかったラベルが残っていない場合(ステップS105否定)には、そのままステップS107へ移行する。
そして、方向抽出部15は、フレーム間で対応付け部14によって対応付けられたラベルが移動した移動方向を抽出する(ステップS107)。その後、方向出力部16は、移動距離が閾値よりも大きいか否かを判定する(ステップS108)。
このとき、移動距離が閾値よりも大きい場合(ステップS108肯定)には、方向出力部16は、方向抽出部15によって抽出された手振り方向を出力する(ステップS109)。その後、閾値更新部17は、方向出力部16が判定に使用する閾値を移動距離に設定し(ステップS110)、処理を終了する。
一方、移動距離が閾値以下である場合(ステップS108否定)には、閾値更新部17は、方向出力部16が判定に使用する閾値に所定の係数を乗算することによって閾値を減少させ(ステップS111)、処理を終了する。
[第1の対応付け処理]
図5は、実施例1に係る第1の対応付け処理の手順を示すフローチャートである。この第1の対応付け処理は、図4に示したステップS104に対応する処理であり、フレーム間で重複があるラベルを対象に実行される。
図5に示すように、対応付け部14は、差分画像及び重複画像を生成し(ステップS301)、差分画像及び重複画像をラベリング処理する(ステップS302)。そして、対応付け部14は、重複ラベルをキーにしてフレームt及びフレームt−1のラベルを対応付ける(ステップS303)。最後に、対応付け部14は、差分ラベルと対応付けられた移動ラベルを選択し(ステップS304)、処理を終了する。
[実施例1の効果]
上述してきたように、本実施例に係る画像処理装置10は、画像からジェスチャを認識する対象を特徴付ける領域を抽出する。さらに、本実施例に係る画像処理装置10は、画像のフレーム間で領域同士を対応付ける。さらに、本実施例に係る画像処理装置10は、画像のフレーム前後で領域が移動した移動方向を抽出する。さらに、本実施例に係る画像処理装置10は、画像のフレーム前後で領域が移動した移動距離が所定の閾値よりも大きい場合に、移動方向を出力する。さらに、本実施例に係る画像処理装置10は、閾値を超えた移動距離を用いて閾値を更新する。
このように、本実施例に係る画像処理装置10は、閾値を超えた移動距離を用いて閾値を更新するので、意図していない場合の手振りの速度から閾値を遠ざけることができる結果、ユーザの意図しない動作がジェスチャと誤認識されるのを防止できる。
さて、これまで開示の装置に関する実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、本発明に含まれる他の実施例を説明する。
[閾値更新の応用例]
例えば、上記の実施例1では、閾値を超えた移動距離そのものを閾値に設定する場合を例示したが、閾値を超えた移動距離を加工して閾値とすることもできる。例えば、開示の装置は、閾値を超えた移動距離の最小値および最大値の中間値を閾値に設定したり、あるいは、閾値を超えた移動距離の平均値を閾値に設定したりすることもできる。これによって、閾値をより適切な値に収束させることができる。
[画像処理プログラム]
また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図6を用いて、上記の実施例と同様の機能を有する画像処理プログラムを実行するコンピュータの一例について説明する。
図6は、実施例1及び実施例2に係る画像処理プログラムを実行するコンピュータの一例について説明するための図である。図6に示すように、コンピュータ100は、操作部110aと、スピーカ110bと、カメラ110cと、ディスプレイ120と、通信部130とを有する。さらに、このコンピュータ100は、CPU150と、ROM160と、HDD170と、RAM180と有する。これら110〜180の各部はバス140を介して接続される。
HDD170には、図6に示すように、上記の実施例1で示した画像取得部11と、領域抽出部13と、対応付け部14と、方向抽出部15と、方向出力部16と、閾値更新部17と同様の機能を発揮する画像処理プログラム170aが予め記憶される。この画像処理プログラム170aについては、図1に示した各々の画像取得部11、領域抽出部13、対応付け部14、方向抽出部15、方向出力部16及び閾値更新部17の各構成要素と同様、適宜統合又は分離しても良い。すなわち、HDD170に格納される各データは、常に全てのデータがHDD170に格納される必要はなく、処理に必要なデータのみがHDD170に格納されれば良い。
そして、CPU150が、画像処理プログラム170aをHDD170から読み出してRAM180に展開する。これによって、図XXに示すように、画像処理プログラム170aは、画像処理プロセス180aとして機能する。この画像処理プロセス180aは、HDD170から読み出した各種データを適宜RAM180上の自身に割り当てられた領域に展開し、この展開した各種データに基づいて各種処理を実行する。なお、画像処理プロセス180aは、図1に示した画像取得部11、領域抽出部13、対応付け部14、方向抽出部15、方向出力部16及び閾値更新部17にて実行される処理、例えば図4及び図5に示す処理を含む。また、CPU150上で仮想的に実現される各処理部は、常に全ての処理部がCPU150上で動作する必要はなく、処理に必要な処理部のみが仮想的に実現されれば良い。
なお、上記の画像処理プログラム170aについては、必ずしも最初からHDD170やROM160に記憶させておく必要はない。例えば、コンピュータ100に挿入されるフレキシブルディスク、いわゆるFD、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させる。そして、コンピュータ100がこれらの可搬用の物理媒体から各プログラムを取得して実行するようにしてもよい。また、公衆回線、インターネット、LAN、WANなどを介してコンピュータ100に接続される他のコンピュータまたはサーバ装置などに各プログラムを記憶させておき、コンピュータ100がこれらから各プログラムを取得して実行するようにしてもよい。
10 画像処理装置
11 画像取得部
12 画像記憶部
13 領域抽出部
14 対応付け部
15 方向抽出部
16 方向出力部
17 閾値更新部

Claims (3)

  1. 画像を取得する画像取得部と、
    前記画像取得部によって取得された画像からジェスチャを認識する対象を特徴付ける領域を抽出する領域抽出部と、
    前記画像のフレーム間で前記領域抽出部によって抽出された領域同士を対応付ける対応付け部と、
    前記画像のフレーム前後で前記対応付け部によって対応付けられた領域が移動した移動方向を抽出する方向抽出部と、
    前記画像のフレーム前後で前記対応付け部によって対応付けられた領域が移動した移動距離が所定の閾値よりも大きい場合に、前記方向抽出部によって抽出された移動方向を出力する方向出力部と、
    前記閾値を超えた移動距離を前記閾値に設定した上で、前記移動距離が閾値を超えるまで閾値を時間経過にしたがって減少させる閾値更新部と
    を有することを特徴とする画像処理装置。
  2. コンピュータが、
    画像を取得し、
    取得された画像からジェスチャを認識する対象を特徴付ける領域を抽出し、
    前記画像のフレーム間で領域同士を対応付け、
    前記画像のフレーム前後で領域が移動した移動方向を抽出し、
    前記画像のフレーム前後で領域が移動した移動距離が所定の閾値よりも大きい場合に、抽出された移動方向を出力し、
    前記閾値を超えた移動距離を前記閾値に設定した上で、前記移動距離が閾値を超えるまで閾値を時間経過にしたがって減少させる
    各処理を実行することを特徴とする画像処理方法。
  3. コンピュータに、
    画像を取得し、
    取得された画像からジェスチャを認識する対象を特徴付ける領域を抽出し、
    前記画像のフレーム間で領域同士を対応付け、
    前記画像のフレーム前後で領域が移動した移動方向を抽出し、
    前記画像のフレーム前後で領域が移動した移動距離が所定の閾値よりも大きい場合に、抽出された移動方向を出力し、
    前記閾値を超えた移動距離を前記閾値に設定した上で、前記移動距離が閾値を超えるまで閾値を時間経過にしたがって減少させる
    各処理を実行させることを特徴とする画像処理プログラム。
JP2011179969A 2011-08-19 2011-08-19 画像処理装置、画像処理方法及び画像処理プログラム Active JP5742583B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011179969A JP5742583B2 (ja) 2011-08-19 2011-08-19 画像処理装置、画像処理方法及び画像処理プログラム
US13/541,228 US8913117B2 (en) 2011-08-19 2012-07-03 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011179969A JP5742583B2 (ja) 2011-08-19 2011-08-19 画像処理装置、画像処理方法及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2013041553A JP2013041553A (ja) 2013-02-28
JP5742583B2 true JP5742583B2 (ja) 2015-07-01

Family

ID=47712377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011179969A Active JP5742583B2 (ja) 2011-08-19 2011-08-19 画像処理装置、画像処理方法及び画像処理プログラム

Country Status (2)

Country Link
US (1) US8913117B2 (ja)
JP (1) JP5742583B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104656883A (zh) * 2013-11-20 2015-05-27 江南大学 一种基于多加速度传感器和ZigBee网络的手势采集系统
JP6229554B2 (ja) * 2014-03-07 2017-11-15 富士通株式会社 検出装置および検出方法
CN104298354A (zh) * 2014-10-11 2015-01-21 河海大学 一种人机交互的手势识别方法
CN106155326A (zh) * 2016-07-26 2016-11-23 北京小米移动软件有限公司 虚拟现实通讯中的对象识别方法和装置、虚拟现实设备

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3440644B2 (ja) * 1995-01-31 2003-08-25 松下電器産業株式会社 手動作認識装置
JP3704045B2 (ja) * 2001-01-15 2005-10-05 株式会社ニコン 目標物体追尾装置
JP2007241418A (ja) * 2006-03-06 2007-09-20 Nikon Corp テンプレートマッチング装置
JP5381569B2 (ja) 2009-09-29 2014-01-08 富士通株式会社 ジェスチャ認識装置、ジェスチャ認識方法、およびジェスチャ認識プログラム
IL204436A (en) * 2010-03-11 2016-03-31 Deutsche Telekom Ag A system and method for remote control of online TV by waving hands

Also Published As

Publication number Publication date
US20130044197A1 (en) 2013-02-21
US8913117B2 (en) 2014-12-16
JP2013041553A (ja) 2013-02-28

Similar Documents

Publication Publication Date Title
KR100809431B1 (ko) 가림 현상에 강인한 눈 검출 방법 및 장치
JP5381569B2 (ja) ジェスチャ認識装置、ジェスチャ認識方法、およびジェスチャ認識プログラム
EP3086206A1 (en) Method, apparatus and computer program product for providing gesture analysis
JP5166102B2 (ja) 画像処理装置及びその方法
KR20130043394A (ko) 목표물을 검출하기 위한 영상 처리 방법, 장치, 사용자 인터페이스를 위한 방법 및 장치
US8417026B2 (en) Gesture recognition methods and systems
US20120163661A1 (en) Apparatus and method for recognizing multi-user interactions
JP5742583B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
KR20120035604A (ko) 영상 기반의 손 검출 장치 및 그 방법
JP6007523B2 (ja) 生成装置、生成プログラムおよび生成方法
Huong et al. Static hand gesture recognition for vietnamese sign language (VSL) using principle components analysis
JP2008146329A (ja) 顔特徴点検出装置及びその方法
Ahn et al. Dynamic vision sensor camera based bare hand gesture recognition
JP5061563B2 (ja) 検出装置、生体判定方法、およびプログラム
Weerasekera et al. Robust asl fingerspelling recognition using local binary patterns and geometric features
Elakkiya et al. Intelligent system for human computer interface using hand gesture recognition
Dhruva et al. Novel algorithm for image processing based hand gesture recognition and its application in security
Pathak et al. A framework for dynamic hand gesture recognition using key frames extraction
CN105224957B (zh) 一种基于单样本的图像识别的方法及系统
JP6098498B2 (ja) 情報処理装置、情報処理方法、並びにプログラム
JP6393495B2 (ja) 画像処理装置および物体認識方法
JP6312991B2 (ja) 画像出力装置
Kumar et al. Performance analysis of KNN, SVM and ANN techniques for gesture recognition system
JP2013020311A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP6467817B2 (ja) 画像処理装置、画像処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140508

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150420

R150 Certificate of patent or registration of utility model

Ref document number: 5742583

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150