JPH11174948A - 手動作認識装置 - Google Patents

手動作認識装置

Info

Publication number
JPH11174948A
JPH11174948A JP26783298A JP26783298A JPH11174948A JP H11174948 A JPH11174948 A JP H11174948A JP 26783298 A JP26783298 A JP 26783298A JP 26783298 A JP26783298 A JP 26783298A JP H11174948 A JPH11174948 A JP H11174948A
Authority
JP
Japan
Prior art keywords
hand
user
hand movement
point
category
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP26783298A
Other languages
English (en)
Inventor
Hideaki Matsuo
英明 松尾
Yuji Takada
雄二 高田
Mitsutaka Tejima
光隆 手嶋
Kazuyuki Imagawa
和幸 今川
San Ro
山 呂
Seiji Inoki
誠二 猪木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Communications Research Laboratory
Panasonic Holdings Corp
Original Assignee
Communications Research Laboratory
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Communications Research Laboratory, Matsushita Electric Industrial Co Ltd filed Critical Communications Research Laboratory
Priority to JP26783298A priority Critical patent/JPH11174948A/ja
Publication of JPH11174948A publication Critical patent/JPH11174948A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Input (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

(57)【要約】 【課題】 利用者に何らの用具を装着させることなく、
高速かつ正確に手動作を認識することのできる手動作認
識装置を提供することである。 【解決手段】 利用者の動作は、撮影装置1によって立
体的に撮影された後、画像記憶装置2に記憶される。特
徴画像抽出装置3は、画像記憶装置2から読み出した立
体画像データの色を、色変換テーブル作成装置13が作
成した色変換テーブルによって変換することにより、利
用者の特徴画像を、各チャネルに分解して出力する。空
間位置計算装置4は、特徴画像抽出装置4から出力され
る特徴画像の視差を利用して、利用者の各特徴部分の空
間位置を計算する。領域分割装置5は、利用者の周辺空
間を空間領域コードによって規定する。手動作検出装置
6は、利用者の手が空間領域コードに関連してどのよう
に動くかを検出する。検出された手動作に基づき、まず
カテゴリが検出され、次に、カテゴリ内の手話単語が特
定される。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、手動作認識装置に
関し、より特定的には、手動作を自動的に認識すること
のできる手動作認識装置に関する。
【0002】
【従来の技術】従来、例えば手話のための手動作を認識
する方法として、いくつかの方法が知られている。第1
の方法は、体に付けたセンサの動きを感知することによ
って、体の動きを測定する方法である(例えば、「手振
り認識方法と応用」電子情報通信学会論文誌D−2Vo
l.J73−D−2No.121990高橋友一他、特
開平8−115408号公報参照)。また、第2の方法
は、複数の色を彩色した手袋をはめた手をカメラで撮影
し、色情報によって手の輪郭情報を抽出することによ
り、指の動きを測定する方法である(例えば、「色情報
による手形状認識に関する考察」電子情報通信学会技術
研究報告PRU94−52、39−43ページ吉野和芳
他参照)。さらに、第3の方法は、体に装着した光ファ
イバから発せられる光の量の変化を感知することによ
り、指形状の変化を測定する方法である(特開平8−1
15408号公報参照)。
【0003】
【発明が解決しようとする課題】しかしながら、上記第
1〜第3の方法は、いずれも体にセンサ、手袋、光ファ
イバ等の用具を装着する必要があるため、利用者に不快
感を与えると共に、利用者の動きを制約してしまう。ま
た、従来は、予め特定の人間から得た体の各部の絶対座
標値を使用して認識を行っているため、実際に利用する
者の体の大きさの違いや、動作中の体の揺れ等によっ
て、認識結果に誤りが生じる。なお、複数の利用者につ
いて、体の各部の座標値を登録しておくことも考えられ
るが、このような方法では、利用者の数に比例して登録
データの量が膨大になってしまうという問題点がある。
また、従来は、測定した手の動きと辞書に登録された手
動作単語に対応する手の動きとを、1単語毎に逐一照合
して認識を行うようにしているため、認識すべき単語数
が多くなるにつれて、認識時間が指数関数的に増加する
という問題点もあった。
【0004】それ故に、本発明の目的は、利用者が何ら
の用具を装着することなく、手動作を認識し翻訳するこ
とのできる手動作認識装置を提供することである。ま
た、本発明の他の目的は、利用者の体の大きさの違い
や、動作中の体の揺れなどがあっても手動作を誤りなく
正確に認識し翻訳することのできる手動作認識装置を提
供することである。また、本発明のさらに他の目的は、
認識すべき単語数が増加しても、短時間で認識・翻訳処
理が行える手動作認識装置を提供することである。
【0005】
【課題を解決するための手段および発明の効果】第1の
発明は、利用者が行う手動作を認識するための手動作認
識装置であって、少なくとも2台のカメラを有し、利用
者を立体的に撮影する撮影手段と、撮影手段から出力さ
れる利用者の立体画像データを任意のサンプリング間隔
で記憶する画像記憶手段と、画像記憶手段から立体画像
データを順番に取り出し、各立体画像データから利用者
の人体的特徴を示す特徴画像を抽出して複数のチャネル
に分解して出力する特徴画像抽出手段と、特徴画像抽出
手段から出力される特徴画像が有する視差に基づき、利
用者の人体各部の3次元空間位置を検出する空間位置計
算手段と、特徴画像抽出手段から出力される特徴画像が
有する視差に基づき、利用者の周囲を取り巻く空間を利
用者の体に対応付けられた複数の領域に分割する領域分
割手段と、空間位置計算手段で計算された人体各部の3
次元空間位置の内、利用者の手に相当する3次元空間位
置が領域分割手段で分割された領域に関連してどのよう
に動くかを検出する手動作検出手段と、手動作検出手段
で検出された手の動きに基づき、対応する手動作単語を
判定する手動作単語判定手段と、手動作単語判定手段の
判定結果を、オペレータが認識可能な態様で出力する出
力手段とを備えている。
【0006】上記のように、第1の発明によれば、利用
者を撮影して得た立体画像データから人体各部の特徴を
抽出すると共に、立体画像データが有する視差を利用し
て手動作の3次元的な動きを検出し、この検出結果に基
づいて手動作単語を認識するようにしているので、利用
者に対して何らの用具を装着することなく、非接触で手
動作の認識が行える。また、利用者の周囲を取り巻く空
間を利用者の体に対応付けられた複数の領域に分割し、
利用者の手の3次元空間位置が分割された領域に関連し
てどのように動くかを検出するようにしているので、利
用者の体の大きさにかかわらず、また利用者の体の揺れ
にかかわらず、常に利用者の体に即した認識が行え、認
識精度を大幅に向上できる。
【0007】第2の発明は、第1の発明において、特徴
画像抽出手段は、立体画像データを構成する各画素の色
情報に基づいて、特徴画像を各チャネル別に出力するこ
とを特徴とする。
【0008】第3の発明は、第2の発明において、特徴
画像抽出手段は、オペレータによって指定された抽出し
たい色と出力させたくない色とに基づいて、チャネル別
に色変換テーブルを設定し、立体画像データを構成する
各画素の色情報を色変換テーブルによって変換し、色変
換テーブルによって変換された値を予め定める閾値で弁
別することにより、各チャネル別に特徴画像を出力する
ことを特徴とする。
【0009】第4の発明は、第1の発明において、領域
分割手段は、空間位置計算手段で計算された人体各部の
3次元空間位置に基づいて、特徴画像に現れない人体部
分の位置を推定し、当該推定した位置に基づいて、利用
者の周囲を取り巻く空間をさらに細かい領域に分割する
ことを特徴とする。
【0010】上記のように、第4の発明によれば、特徴
画像に現れない人体部分の位置を推定し、推定した位置
に基づいて、利用者の周囲を取り巻く空間をさらに細か
い領域に分割するようにしているので、より精度の高い
認識が行える。
【0011】第5の発明は、第1の発明において、領域
分割手段は、時間的に隣接する特徴画像の差分値を計算
し、当該差分値が予め定めた閾値以上になった場合にの
み、領域分割を行うことを特徴とする。
【0012】上記のように、第5の発明によれば、時間
的に隣接する特徴画像の差分値が予め定めた閾値以上に
なった場合にのみ領域分割を行うようにしているので、
領域分割のための計算負荷を軽減できる。
【0013】第6の発明は、第1の発明において、領域
分割手段は、利用者の体を中心として前後に広がる空間
を複数の層に分割し、さらに各層を複数の領域に分割す
ることを特徴とする。
【0014】第7の発明は、第6の発明において、領域
分割手段は、層間で領域分割数を異ならせることを特徴
とする。
【0015】第8の発明は、第7の発明において、領域
分割手段は、利用者の体から見て後方の層から前方の層
に行くに従って、領域分割数を少なくすることを特徴と
する。
【0016】第9の発明は、第1の発明において、認識
の対象となる複数の手動作単語は、予め複数のカテゴリ
に分類されており、手動作単語判定手段は、各カテゴリ
について、それぞれのカテゴリに属する手動作単語に共
通する動作的特徴が予め登録されているカテゴリ辞書
と、各手動作単語のさらに詳しい動作的特徴が各カテゴ
リ別に格納されている単語辞書と、手動作検出手段で検
出された手の動きがどのカテゴリに属するかを、カテゴ
リ辞書の中から検出するカテゴリ検出手段と、手動作検
出手段で検出された手の動きがカテゴリ検出手段によっ
て検出されたカテゴリに属する手動作単語のどれに対応
するかを認識する単語認識手段とを含んでいる。
【0017】上記のように、第9の発明によれば、手動
作単語の判定を階層的に行っているので、従来のように
全単語に対する類似度をしらみつぶしに計算する場合に
比べて、短時間で認識が行える。
【0018】第10の発明は、第9の発明において、単
語認識手段は、カテゴリ検出手段によって検出されたカ
テゴリに属する手動作単語の内、手動作検出手段で検出
された手の動きと最も類似度の高い1つの手動作単語を
認識結果として出力することを特徴とする。
【0019】第11の発明は、第9の発明において、単
語認識手段は、カテゴリ検出手段によって検出されたカ
テゴリに属する手動作単語の内、手動作検出手段で検出
された手の動きと一定の閾値以上の類似度を持つ1また
は複数の手動作単語を認識結果として出力することを特
徴とする。
【0020】第12の発明は、第1の発明において、利
用者に対し、手動作を開始するタイミングを通知するた
めの動作開始通知手段をさらに備えている。
【0021】上記のように、第12の発明によれば、利
用者に対して手動作を開始するタイミングを通知するこ
とができるので、利用者がとまどうことがない。
【0022】第13の発明は、第1の発明において、手
動作検出手段は、動きの開始点と終了点との間で検出し
た3次元空間位置を示すサンプリング点の内、動きの方
向が大きく変化するサンプリング点を制御点として抽出
し、これら開始点、終了点および制御点を用いて、利用
者の手の動きを表現することを特徴とする。
【0023】上記のように、第13の発明によれば、動
きの開始点と終了点との間に存在する複数のサンプリン
グ点の内、動きの方向が大きく変化するサンプリング点
を制御点として抽出し、これら開始点、終了点および制
御点を用いて、利用者の手の動きを表現するようにして
いるので、全サンプリング点を用いて利用者の手の動き
を表現する場合に比べて、利用者の手の動きを簡単に表
現でき、結果として手動作単語の判定も迅速に行える。
【0024】第14の発明は、第13の発明において、
手動作検出手段は、開始点と終了点との間に存在するサ
ンプリング点であって、これら開始点および終了点を結
んだ直線に対して最大距離を有し、かつ予め定めた閾値
以上の距離を有するサンプリング点と、開始点と隣接す
る制御点との間に存在するサンプリング点であって、こ
れら開始点および隣接する制御点を結んだ直線に対して
最大距離を有し、かつ予め定めた閾値以上の距離を有す
るサンプリング点と、終了点と隣接する制御点との間に
存在するサンプリング点であって、これら終了点および
を隣接する制御点を結んだ直線に対して最大距離を有
し、かつ予め定めた閾値以上の距離を有するサンプリン
グ点と、隣接する2つの制御点の間に存在するサンプリ
ング点であって、これら2つの制御点を結んだ直線に対
して最大距離を有し、かつ予め定めた閾値以上の距離を
有するサンプリング点とを検出し、これら検出したサン
プリング点を制御点とすることを特徴とする。
【0025】上記のように、第14の発明によれば、予
め定めた閾値を用いて制御点を抽出するようにしている
ので、当該閾値を変えることにより、動きの表現精度を
自由に変更することができる。
【0026】第15の発明は、第14の発明において、
手動作検出手段は、複数の閾値を用いて、階層的に制御
点を検出することにより、利用者の手の動きを階層的に
表現し、手動作単語判定手段は、手動作検出手段によっ
て階層的に表現された利用者の手の動きに基づいて、階
層的に対応する手動作単語を特定することを特徴とす
る。
【0027】上記のように、第15の発明によれば、手
動作単語の判定を階層的に行っているので、従来のよう
に全単語に対する類似度をしらみつぶしに計算する場合
に比べて、短時間で認識が行える。
【0028】
【発明の実施の形態】(第1の実施形態)図1は、本発
明の第1の実施形態に係る手話認識装置の構成を示すブ
ロック図である。図1において、本実施形態の手話認識
装置は、撮影装置1と、画像記憶装置2と、特徴画像抽
出装置3と、空間位置計算装置4と、領域分割装置5
と、手動作検出装置6と、カテゴリ検出装置8と、単語
認識装置9と、カテゴリ辞書10と、単語辞書11と、
出力装置12と、色変換テーブル作成装置13と備えて
いる。
【0029】撮影装置1は、複数台のテレビカメラを含
み、利用者の動作を立体的に撮影する。画像記憶装置2
は、撮影装置1から出力される立体画像データを複数フ
レーム分記憶する。色変換テーブル作成装置13は、画
像記憶装置2に格納された複数フレーム分の立体画像デ
ータの内、オペレータによって選択された代表画像上で
指定される画素の色に基づき、第1〜第3チャネルそれ
ぞれに対応する3つの色変換テーブルを作成する。特徴
画像抽出装置3は、画像記憶装置2から順番に立体画像
データを読み出すと共に、読み出した立体画像データを
構成する各画素の色データを、色変換テーブル作成装置
13によって作成された色変換テーブルによって変換す
ることにより、利用者の人体的特徴を示す立体的な特徴
画像を抽出し、第1〜第3チャネルに分解して出力す
る。
【0030】空間位置計算装置4は、特徴画像抽出装置
4からチャネル毎に出力される立体画像の視差を利用し
て、各チャネルに含まれるブロブ(1つの塊として把握
される画像)の3次元空間位置を計算する。領域分割装
置5は、特徴画像抽出装置3から出力される立体的な特
徴画像と、空間位置計算装置4で計算された各ブロブの
3次元空間位置とに基づいて、人体の周辺を取り巻く3
次元空間を分割すると共に、分割したそれぞれの領域を
規定するための空間領域コードを作成する。手動作検出
装置6は、特徴画像抽出装置4から出力される立体画像
と、空間位置計算装置4で計算されたブロブの3次元空
間位置と、領域分割装置5で作成された空間領域コード
とに基づき、手に対応するブロブが、領域分割装置5で
作成された空間領域コードに関連して空間上でどのよう
に動くかを検出する。
【0031】カテゴリ辞書10には、手話動作のカテゴ
リ(相互に類似する手話動作を集めたグループ)別に、
各カテゴリの特徴が登録されている。カテゴリ検出装置
8は、手動作検出装置6によって検出された手話動作の
特徴が、カテゴリ辞書10に含まれているカテゴリの内
のいずれのカテゴリに属するかを検出する。単語辞書1
1には、各カテゴリに属する手話単語の動作の特徴が登
録されている。単語認識装置9は、手動作検出装置6に
よって検出された手話動作の特徴が、カテゴリ検出装置
8によって検出されたカテゴリに属する手話単語の内、
いずれの手話単語に該当するかを検出する。出力装置1
2は、単語認識装置9の検出結果を、画像、文字、音声
等の形態で出力する。
【0032】図2および図3は、図1に示す実施形態の
動作を示すフローチャートである。以下、これら図2お
よび図3を参照して、上記実施形態の動作について説明
する。
【0033】まず、撮影装置1による撮影が開始される
(ステップS1)。これによって、撮影装置1に含まれ
る左右2台のテレビカメラが、利用者の上半身を、異な
る角度から立体的に撮影する。撮影装置1から出力され
る立体画像データは、画像記憶装置2内に適当なサンプ
リング周期で格納される。画像記憶装置2は、標準では
NTSCの規格である1/30秒のサンプリング間隔で
立体画像データを記憶するが、サンプリング周期を変更
することにより、他のサンプリング間隔(例えば、1/
10秒もしくは1/5秒間隔)で立体画像データを記憶
することも可能である。図4に示すように、画像記憶装
置2に記憶された立体画像データの各フレームには、時
系列的に連続番号(IMG1,IMG2,…)が付され
る。
【0034】次に、色変換テーブル作成装置13は、そ
の内部に設けられたテーブル設定フラグ(図示せず)が
セットされているか否かを判断する(ステップS2)。
後述するように、このテーブル設定フラグは、色変換テ
ーブルが設定されたときにセットされる(ステップS1
1参照)。当初、色変換テーブルは設定されていないの
で、テーブル設定フラグはリセット状態であり、ステッ
プS3に進む。ステップS3において、オペレータは、
画像記憶装置2に格納された複数フレーム分の立体画像
データの中から、図5に示すように、任意の1フレーム
の画像データを、特徴抽出のための代表画像として選定
する。ここで、撮影装置1から出力された画像データ
は、画像記憶装置2に記憶される一方で、図示しない表
示装置に表示される。オペレータは、当該表示装置の表
示内容を見ながら適当なタイミングで選定指示を色変換
テーブル作成装置13に与えることにより、代表画像が
特定されることになる。そして、色変換テーブル作成装
置13は、オペレータによって選定された代表画像の画
像データを、画像記憶装置2から読み取る。その後、色
変換テーブル作成装置13は、色変換テーブルの設定処
理を行う(ステップS4〜S11)。以下、このステッ
プS4〜S11の処理について詳細に説明する。
【0035】色変換テーブル作成装置13は、図6に示
すような色変換テーブル131を3チャネル分内蔵して
いる。この色変換テーブル131には、RGB色空間内
の全ての色位置に対応して変換値が設定される。ここ
で、本実施形態は、RGBそれぞれを8ビット(0〜2
55)で表現しているため、色変換テーブル131は、
16777216(=256×256×256)色のそ
れぞれに対応する変換値を有していれば良いことにな
る。しかしながら、このような構成ではデータ量が膨大
になるため、実際は、RGB色空間を粗く区切ったいく
つかのメッシュに分割し、メッシュ単位で変換値を持つ
ことになる。変換値は、0〜255のいずれかである。
すなわち、色変換テーブル131は、入力信号としてど
のようなRGB値が与えられたとしても、当該RGB値
を0〜255のいずれかの値に変換する。すなわち、色
変換テーブル131は、オペレータによって指定される
特定の色のみを、第1〜第3チャネルに出力させるため
に用いられる。
【0036】以下には、目や頭髪などの黒色に近い色を
第1チャネルに出力し、顔や手などの肌色を第2チャネ
ルに出力し、服装などのように体全体を占める色を第3
チャネルに出力することとして説明を行う。通常のテレ
ビカメラではRGB信号を出力するが、ここでは第1チ
ャネルをR信号に第2チャネルをG信号に第3チャネル
をB信号に対応させることとして説明を行う。実際に
は、第1チャネルをG,B信号に対応させることも可能
である。
【0037】まず、オペレータは、出力チャネルとして
第1チャネルを指定する。その後、オペレータは、第1
チャネルに取り出したい色を指定する(ステップS
4)。この場合、オペレータは、図示しない表示装置に
表示されている代表画像(図5)の中の頭髪の部分a、
目の部分bを、マウス等のポインティングデバイスを用
いて指定する。このように、オペレータが指定する箇所
は、1箇所とは限らず、複数箇所であっても良い。応じ
て、色変換テーブル作成装置13は、指定された部分
a,bの色を表すRGB値を、第1チャネルに取り出し
たい色と判断し、第1チャネル用の色変換テーブル13
1(図6参照)の対応の色空間領域に最大値“255”
を設定する。なお、このとき取得する色情報に関して
は、HSI系,YUV,YIQのいずれであっても良
い。次に、オペレータは、第1チャネルに出力させたく
ない色を指定する(ステップS5)。この場合、オペレ
ータは、代表画像(図5)の中の服の部分c,e、顔の
部分dを、マウス等を用いて指定する。このときもオペ
レータは、複数箇所を指定可能である。応じて、色変換
テーブル作成装置13は、指定された部分c,d,eの
色を表すRGB値を、第1チャネルに出力させたくない
色と判断し、第1チャネル用の色変換テーブル131内
の対応する色空間領域に最小値“0”を設定する。次
に、色変換テーブル作成装置13は、そのとき指定され
ている出力チャネルが第1チャネルであることを判断し
(ステップS6)、ステップS4で指定された色とステ
ップS5で指定された色との間で所定の補間演算を行う
ことにより、ステップS4およびS5で指定されていな
い色についての変換値を計算し、計算で求めたそれぞれ
の変換値を第1チャネル用の色変換テーブル131内の
対応する色空間領域に設定する(ステップS7)。
【0038】ここで、上記ステップS7で行われる所定
の補間演算としては、例えば、1995年テレビジョン
学会年次大会「色空間の変形を用いた色彩調整方式」池
田淳他に記載された、色空間の変形演算を用いることが
できる。以下、この変形演算について説明する。
【0039】今、i=1,2,…nとし、RGB座標系
における色彩調整前の指定色を、 Si=(ri,gi,bi) とし、第1チャネルの抽出したい色に関しては調整後の
色を、 Si0 ’=(255,0,0) とし、第1チャネルの抽出したくない色に関しては調整
後の色を、 Si1 ’=(0,0,0) とし、調整量をMiとすると、次式(1)が成り立つ。 Mi=Si’−Si =S’(Si)−Si =M(Si) …(1)
【0040】上式(1)を境界条件として、指定点Si
からの距離を用いた以下の関数式(2)を解くことで、
任意の色S=(r,g,b)に対する調整後の色S’=
(a,0,0)[a=0〜255]を決定する。 M(S)=f(|S−Si|,…|S−Sn|) …(2)
【0041】上式(2)を解く方法については、様々な
方法が考えられる。例えば、任意の色と抽出したい色と
の最小距離を、 Si0 =min(|Si0 ’−S|) とし、任意の色と抽出したくない色との最小距離を、 Si1 =min(|Si1 ’−S|) としたときに、調整後の色S’=(A,0,0)は、次
式(3)のように求めることができる。ただし、A=0
〜255である。 A=(255×Si1 )/(Si0 −Si1 ) …(3) なお、上式(3)は、線形補間によって式(2)を解く
方法であるが、非線形補間によって式(2)を解くこと
も可能である。
【0042】次に、オペレータは、出力チャネルとして
第2チャネルを指定し、第2チャネルに取り出したい色
と出力させたくない色とを指定する(ステップS4およ
びS5)。この場合、オペレータは、第2チャネルに取
り出したい色として、選択された代表画像(図5)の中
の顔の部分dをマウス等を用いて指定する。また、オペ
レータは、第2チャネルに出力させたくない色として、
顔以外の部分をマウス等を用いて指定する。応じて、色
変換テーブル作成装置13は、第2チャネル用の色変換
テーブル131(図6参照)の対応の色空間領域に、最
大値“255”および最小値“0”を設定する。次に、
色変換テーブル作成装置13は、そのとき指定されてい
る出力チャネルが第2チャネルであることを判断し(ス
テップS8)、ステップS4で指定された色とステップ
S5で指定された色との間で所定の補間演算を行うこと
により、ステップS4およびS5で指定されていない色
についての変換値を計算し、計算で求めたそれぞれの変
換値を第2チャネル用の色変換テーブル131の対応す
る色空間領域に設定する(ステップS9)。
【0043】次に、オペレータは、出力チャネルとして
第3チャネルを指定し、第3チャネルに取り出したい色
と出力させたくない色とを指定する(ステップS4およ
びS5)。この場合、オペレータは、第3チャネルに取
り出したい色として、代表画像(図5)の中の服の部分
c,eをマウス等を用いて指定する。また、オペレータ
は、第3チャネルに出力させたくない色として、服以外
の部分(例えば、背景の部分)をマウス等を用いて指定
する。応じて、色変換テーブル作成装置13は、第3チ
ャネル用の色変換テーブル131(図6参照)の対応の
色空間領域に、最大値“255”および最小値“0”を
設定する。次に、色変換テーブル作成装置13は、その
とき指定されている出力チャネルが第3チャネルである
ことを判断し(ステップS8)、ステップS4で指定さ
れた色とステップS5で指定された色との間で所定の補
間演算を行うことにより、ステップS4およびS5で指
定されていない色についての変換値を計算し、計算で求
めたそれぞれの値を第3チャネル用の色変換テーブル1
31の対応する色空間領域に設定する(ステップS1
0)。最後に、色変換テーブル作成装置13は、テーブ
ル設定フラグをセットし(ステップS11)、色変換テ
ーブル131の設定処理を終了する。
【0044】次に、特徴画像抽出装置3は、画像記憶装
置2から読み出した立体画像データに含まれる各画素
を、色変換テーブル作成装置13によって作成された3
つの色変換テーブル131を用いて変換する。さらに、
特徴画像抽出装置3は、変換値が予め定めた閾値以上に
達するもののみを出力する。これによって、そのときの
利用者の人体的特徴を示す立体的な特徴画像(図7参
照)が、第1〜第3チャネルに分解して出力される(ス
テップS12)。図7(a)は、第1チャネルに出力さ
れる特徴画像を示しており、ブロブ(1つの塊として把
握される画像)として、頭髪に対応するブロブ71と、
眉毛に対応するブロブ72および73と、目に対応する
ブロブ74および75とを含んでいる。図7(b)は、
第2チャネルに出力される特徴画像を示しており、顔に
対応するブロブ76と、手に対応するブロブ77および
78とを含んでいる。図7(c)は、第3チャネルに出
力される特徴画像であり、体全体の輪郭に対応するブロ
ブ79を含んでいる。
【0045】次に、空間位置計算装置4は、図7
(a)、(b)、(c)に示した第1〜第3チャネルの
各特徴画像に含まれるブロブの画像上での重心位置を求
める(ステップS13)。ここで、図8を参照して、右
手に相当するブロブの重心位置の求め方について説明す
る。まず、対象となるブロブの外接矩形を求め、この外
接矩形において対角する頂点α,βの座標を、それぞ
れ、(Xst,Yst),(Xend,Yend )とする。な
お、座標原点は、図7に示すように、画像の左上にある
ものとする。今、図8のブロブの画像上での重心Gの座
標を(Xg ,Yg )とすると、Xg およびYg は、それ
ぞれ次式(4)および(5)によって求められる。 Xg =(Xst+Yend )/2 …(4) Yg =(Yst+Yend )/2 …(5) なお、他のブロブについても上記と同様の方法で重心位
置が求められる。
【0046】次に、空間位置計算装置4は、第1〜第3
チャネルにおける各ブロブの3次元空間位置を計算する
(ステップS14)。今、左右で対応するブロブであっ
て、撮影装置1内の右カメラで撮影されたブロブの重心
位置をGR =(XgR,YgR)とし、左カメラで撮影され
たブロブの重心位置をGL =(XgL,YgL)とすると、
空間位置計算装置4は、次式(6)〜(8)を用いて当
該ブロブの3次元空間位置(Xw,Yw,Zw)を計算
する。 Xw={(XgL+XgR)/2}×{d/(XgL−XgR)} …(6) Yw={d/(XgL−XgR)}×YgL …(7) Zw=f×{d/(XgL−XgR)} …(8) ただし、上式(6)〜(8)において、dは左右のカメ
ラ間の距離を示し、fは焦点距離を示す。上式(6)〜
(8)から分かるように、空間位置計算装置4は、特徴
画像抽出装置3から出力される特徴画像が有する視差を
利用して、各ブロブの3次元空間位置を計算している。
空間位置計算装置4は、上記ステップS14で計算した
ブロブの3次元空間位置を、図9に示すような3次元空
間位置テーブルに登録する。
【0047】なお、上記では、左右のカメラが水平に置
かれた状態で撮影を行った場合の計算方法について示し
たが、左右のカメラの設置位置は任意で良く、左右のカ
メラの設置位置関係に応じて、上式(6)〜(8)は変
更される。
【0048】次に、領域分割装置5は、図7(c)に示
す第3チャネルの特徴画像から、図10に示すような体
の外形線を抽出する(ステップS15)。次に、領域分
割装置5は、抽出した外形線から人体的特徴を表す代表
線(図11参照)を検出する(ステップS16)。図1
1において、線HULは、X軸に平行でかつ人物の外形
線の最上端と接する線であって、体の頭頂部を表してい
る。また、線FRLおよびFLLは、それぞれ、Y軸に
平行でかつ人物の外形線の上部(上1/3の部分)にお
ける右端および左端と接する線であって、顔の右側およ
び左側を表している。ここで、線FRLを垂直に延ば
し、外形線と交わった点をfrlp(Xf,Yf)とす
る。また、画像の左側から探索を行い、最初に外形線と
交わる点をtempp(Xt,Yt)とする。そして、
点frlpから点tempp迄、外形線を探索し、曲率
が最大の点を右肩を表す点shpとする。線SULは、
X軸に平行でかつ点shpを通る線である。また、線S
HRLは、Y軸に平行でかつ点shpを通る線である。
また、線MCLは、Y軸に平行で、かつ線FRLと線F
LLとの間の1/2の位置にある線であり、体の中心軸
を表している。また、線SHLLは、線MCLを中心と
して線SHRLに対称な線である。また、線ERLは、
線SHRLを中心として線MCLと対称な線である。ま
た、線ELLは、線MCLを中心として線ERLと対称
な線である。また、線NELは、X軸に平行で、かつ線
SULと線HULとの間の3/4の位置にある線であ
る。また、線BMLは、X軸に平行でありかつ線SUL
と画像の下端部と間の1/2の位置にある線である。
【0049】次に、領域分割装置5は、代表線同士の交
点0〜21を求める(図12参照)。次に、領域分割装
置5は、右カメラからの画像と左カメラからの画像との
間で同じ交点番号を有する点を左右の対応点とし、空間
位置計算装置4の場合と同様に視差を利用して、各交点
0〜21についての3次元空間位置を計算する(ステッ
プS17)。例えば、交点番号0について考えてみる
と、右カメラからの画像上での座標値を(XR0
R0)、左カメラからの画像上での座標値を(XL0,Y
L0)とすると、領域分割装置5は、当該座標値を前述の
式(6)〜(8)に代入することにより、その3次元空
間位置を計算する。他の交点についても上記と同様にそ
の3次元空間位置が計算される。次に、領域分割装置5
は、上記ステップS17の計算結果に基づいて、図13
に示すような第1ワールドの空間領域コード(0〜2
4)を定義する。また、領域分割装置5は、第1ワール
ドから線MCLと線SHRLとの間の距離だけ人物より
も前方までの領域を、第2ワールドの空間領域コード
(25〜49)と定義し、さらに前方にある領域を第3
ワールドの空間領域コード(50〜74)と定義する。
図14は、領域分割装置5によって定義される第1〜第
3ワールドの位置関係を視覚的に示している。次に、領
域分割装置5は、定義したそれぞれの空間領域コードお
よびそれらを規定するための各交点の3次元座標値を、
空間領域コードテーブル(図示せず)に格納する(ステ
ップS18)。このことにより、利用者自身の各部位
(顔、首、胸、腹、顔の横等)に応じた領域の分割が可
能となり、空間領域コードが利用者自身の各部位との対
応付けを示すことになる。
【0050】ここで、領域分割装置5は、より好ましく
は、空間位置計算装置4から頭髪および目に相当するブ
ロブの3次元空間位置を入力し、これら頭髪および目の
位置関係から顔を構成する他の要素(鼻、口、耳など)
の位置を推定し、推定した他の要素の位置に基づいて、
空間領域(すなわち、図13の空間領域コード(11)
に相当する空間領域)をより細かく分割するようにして
も良い。この場合、領域分割装置5は、頭髪および目に
対する鼻、口、耳などの一般的な位置関係を予め登録し
ており、頭髪および目に相当するブロブの3次元空間位
置が入力されたとき、予め登録された鼻、口、耳などの
位置関係に基づいて、鼻、口、耳などがそのとき3次元
空間上で占めるおおよそ位置を推定する。そして、領域
分割装置5は、推定した鼻、口、耳などの3次元空間上
での位置に基づいて、より細かく空間を分割すると共
に、それらを規定するための空間領域コードを定義す
る。
【0051】また、領域分割装置5は、あるチャネル
(例えば、第3チャネル)において、時間的に隣接する
画像の差分値を計算し、当該差分値が予め定めた閾値以
上になった場合にのみ、ステップS18に示す空間領域
コードを作成するようにしても良い。この場合、利用者
が大きく動いたときにのみ空間領域コードが作成される
ことになるので、領域分割装置5の計算負荷が軽減され
る。また、領域分割装置5は、図15に示すように、第
1ワールド、第2ワールド、第3ワールドと行くに従っ
て、すなわち利用者よりも前方のワールドに行くに従っ
て、空間領域コードを荒く定義するようにしても良い。
【0052】次に、手動作検出装置6は、第2チャネル
で求めたブロブの中で手の大きさに該当するブロブを手
であると特定し、図9の3次元空間位置テーブルに登録
されている対応するブロブの3次元空間位置が、ステッ
プS18で作成した空間領域コード(図13参照)の
内、どの空間領域コードに属しているかを判定する(ス
テップS19)。このときの判定結果は、図16に示す
ような領域遷移テーブルに登録される。なお、図16の
領域遷移テーブルは、一例として、「葉書」を意味する
手話動作を行なった場合の登録データを格納している。
ここで、第2チャネルにおけるあるブロブの面積をL
a、面積の最小閾値をTHSM、最大閾値をTHBGとする
と、手動作検出装置6は、次式(9)の条件を満たすブ
ロブを手であると判定し、次式(10)の条件を満たす
ブロブを手以外のブロブであると判定する。 La>THSM でかつ La<THBG …(9) La<THSM でかつ La>THBG …(10) 上式(9)および(10)によって、図7(b)に示す
ブロブ77および78が手に対応するブロブであると判
定され、さらに右手、左手が特定される。
【0053】次に、手動作検出装置6は、手に相当する
ブロブの動きが予め定める一定時間以上停止したか否か
を判断する(ステップS20)。当該ブロブの動きが継
続している場合、ステップS12〜S19の動作が繰り
返される。これによって、図16に示す領域遷移テーブ
ルに、当該ブロブが属する空間領域コードが時系列的に
登録されていく。従って、領域遷移テーブルを見れば、
手が利用者の体に対してどのように動いていくかが分か
る。
【0054】一方、手に相当するブロブの動きが予め定
める一定時間以上停止した場合、すなわち一単語に相当
する手話動作が終了した場合、手動作検出装置6は、領
域遷移テーブル(図16参照)に登録された空間領域コ
ードを解析し、そのときの手の動きを構成要素に分解す
ると共に、その特徴を検出する(ステップS21)。図
16の領域遷移テーブルに格納された空間領域コードか
らは、以下のような特徴が検出される。 右手の特徴 「動きコード」 右→下→左 「動作開始位置コード」 36 「動作終了位置コード」 38 「両手の位置関係」 体に対して線対称 「指示特定部位」 × 「手形状」 No.4 左手の特徴 「動きコード」 左→右下→右 「動作開始位置コード」 36 「動作終了位置コード」 13 「両手の位置関係」 体に対して線対称 「指示特定部位」 × 「手形状」 No.4 ここで、「指示特定部位」とは、一連の動きの中で手が
指示した体の特定の部位を示すものである。なお、×は
いずれの部位も指示していないことを表している。ま
た、「手形状」とは、予め定められた複数の手形状のパ
ターンの内、いずれの形状に類似しているかを示すもの
である。図17は、予め定められた手形状の一例を示し
ている。図17(a)は、「ひ」に対応する手形状であ
り、その形状番号はNo.4である。また、図17
(b)は、「て」に対応する手形状であり、その形状番
号はNo.2である。
【0055】ここで、図18に示すフローチャートおよ
び図19に示す手の移動軌跡を参照して、上記ステップ
S21で実行される動きコードの検出動作についてより
詳細に説明する。
【0056】今、図19(a)に示すように、動作の開
始点をST(xs,ys,zs)、動作の終了点をEN
D(xe,ye,ze)とする。手動作検出装置6は、
まず、開始点STと終了点ENDとを結んだ直線L1を
求める(ステップS101)。次に、手動作検出装置6
は、各サンプリング点n1〜n9から直線L1に降ろし
た垂線を求め、各垂線の長さd1〜d9をそれぞれ求め
る(ステップS102)。図20に示す一般化されたモ
デルを参照すると、任意のサンプリング点nから直線L
に降ろした垂線dの長さは、次式(11)で求められ
る。ただし、次式(11)において、変数tは、次式
(12)で与えられる。
【数1】 従って、上記ステップS102では、上式(11)を用
いて各サンプリング点n1〜n9から直線L1に降ろし
た垂線の長さを求めることになる。
【0057】次に、手動作検出装置6は、垂線の長さが
最大となるサンプリング点を制御候補点とする(ステッ
プS103)。ここでは、サンプリング点n3が直線L
1に対して最大距離d3を持ち、制御候補点となる。次
に、手動作検出装置6は、最大距離d3が予め定める閾
値THC以上であるか否かを判断する(ステップS10
4)。最大距離d3が予め定める閾値THC以上の値で
あるとき、手動作検出装置6は、この点n3を制御点と
定義する(ステップS105)。ここでは、最大距離d
3が閾値THC以上のため、サンプリング点n3を制御
点c1と定義する。
【0058】次に、手動作検出装置6は、開始点STと
終了点ENDとの間で新たな制御点を検出する(ステッ
プS106)。この新たな制御点の検出動作は、開始点
STと終了点ENDとの間に新たな制御点が検出されな
くなるまで(ステップS107)、繰り返し続けられ
る。
【0059】すなわち、手動作検出装置は、図19
(b)に示すように、開始点STと制御点c1とを結ん
だ直線L2、および制御点c1と終了点ENDとを結ん
だ直線L3を求め、開始点STと制御点c1との間に存
在する各サンプリング点n1〜n2と直線L2との距
離、制御点c1と終了点ENDとの間に存在するサンプ
リング点n4〜n9と直線L3との距離を、それぞれ前
述の式(11)を用いて計算する。開始点STと制御点
c1と間では、サンプリング点n2が直線L2に対して
最大距離d2を持ち制御候補点となる。しかし、この距
離d2が閾値THCより小さいため、サンプリング点n
2は制御点として定義されない。ゆえに、開始点STと
制御点c1との間には、制御点は存在しない。一方、制
御点c1と終了点ENDとの間では、サンプリング点n
8が直線L3に対して最大距離d8を持ち制御候補点と
なる。そして、この距離d8が閾値THC以上の値であ
るため、サンプリング点n8が制御点c2と定義され
る。
【0060】次に、手動作検出装置6は、図19(c)
に示すように、制御点c1と制御点c2とを結んだ直線
L4を求め、その間に存在する各サンプリング点n4〜
n7と直線L4との距離を、前述の式(11)を用い計
算する。ここでは、サンプリング点n7が最大距離d7
を持ち制御候補点となる。しかし、距離d7が閾値TH
Cより短いため、サンプリング点n7は制御点として定
義されない。ゆえに、制御点c1と制御点c2との間に
は、制御点は存在しない。また、手動作検出装置6は、
図19(c)に示すように、制御点c2と終了点END
とを結んだ直線をL5を求め、その間に存在するサンプ
リング点n9と直線L5との距離d9を、前述の式(1
1)を用いて計算する。このとき、サンプリング点n9
は制御候補点となるが、当該距離d9が閾値THCより
短いため、制御点としては定義されない。ゆえに、制御
点c2と終了点ENDとの間には制御点が存在しない。
つまり、開始点STから終了点ENDに至る手の動きの
中で、制御点は制御点c1,c2の2つである。
【0061】次に、手動作検出装置6は、開始点、制御
点、終了点を用いて動きコードを作成する(ステップS
108)。すなわち、図19に示される手の軌跡の場合
は、ST→c1,c1→c2,c2→ENDの動きに分
解することができ、図21に示された動きコードの一覧
テーブル(手動作検出装置6内に格納されている)を参
照すると、ST→c1は[1.右]に、c1→c2は
[4.下]に、c2→ENDは[2.左]に、それぞれ
対応することになる。従って、このときの動きコード
は、「右→下→左」となる。
【0062】次に、カテゴリ検出装置8は、上記ステッ
プS19において手動作検出装置6が検出した手話動作
の特徴が、カテゴリ辞書10内に登録されているカテゴ
リの内、どのカテゴリに属するかを判定する(ステップ
S22)。ここで、カテゴリとは、動作が類似する複数
の手話動作を集めたグループであり、本装置で認識の対
象となる複数の手話動作は、予め複数のカテゴリに分類
されている。カテゴリ辞書10には、各カテゴリにおけ
る手動作の特徴が予め登録されている。本実施形態で
は、カテゴリ辞書10には、一例として、カテゴリ1〜
7の特徴が登録されているものとする。カテゴリ1は、
最初は両手が接近し、それぞれが左右対称な動きをする
手動作である。カテゴリ2は、両手が一定以上の間隔を
保ちつつそれぞれが独自の動きをする手動作である。カ
テゴリ3は、両手が接触もしくは連結し、それぞれが同
じ動きをする手動作である。カテゴリ4は、一方の手が
静止し、他方の手が一方の手の一定領域内で動く手動作
である。カテゴリ5は、一方の手が停止し、他方の手が
一定領域以上の間隔の場所から、停止している手に接近
して接触する手動作である。カテゴリ6は、両手で行う
上記以外の手動作である。カテゴリ7は、片手のみを使
用する手動作である。
【0063】ここで、図16の領域遷移テーブルに登録
された空間領域コードの変化および3次元座標位置を解
析すると、最初は両手が接触し、その後は両手が体に垂
直な中心線を中心としてほぼ左右対称に動き、最終的に
は両手が再び接近していることが分かる。このような動
作は、カテゴリ辞書10内に登録されたカテゴリ1の特
徴に合致する。
【0064】単語辞書11には、各カテゴリに属する手
話単語のさらに詳しい動作的特徴が、各カテゴリ別に格
納されている。図22は、カテゴリ1に属する手話単語
の一例を示している。なお、上記の条件を満たす手話単
語は、図22に示した以外にもあるが、ここでは説明の
簡素化のため、同様な条件を満たす3つの手話単語、す
なわち「葉書」「全部」「ほとんど」がカテゴリ1に属
しているものとする。図23に示すように、単語辞書1
1には、カテゴリ1に属する3つの手話単語についての
動作的特徴を示す情報が登録されている。すなわち、単
語辞書11には、「動きコード」「動作開始位置コー
ド」「動作終了位置コード」「指示特定部位」「両手の
位置関係」「手形状」などの情報が登録されている。
【0065】単語認識装置9は、カテゴリ検出装置8が
検出したカテゴリに属する手話単語の動作的特徴情報
を、単語辞書11から読み出す(ステップS23)。次
に、単語認識装置9は、ステップS21で検出された手
話動作の特徴と、ステップS23で読み出した手話単語
の特徴情報とを比較し、各手話単語について一致度を計
算する(ステップS24)。
【0066】このとき、「動作開始位置コード」および
「動作終了位置コード」については、図24に示すよう
に、ステップS19で検出された空間位置コードと単語
辞書11に登録されている空間領域コードとが完全に一
致する場合は類似度が100%となり、3次元的に近接
する場合は、その近接度に応じた類似度が与えられる。
例えば、図16に示すように、ステップS19で検出さ
れた左手の動作終了位置コードは“13”であるが、図
23に示す「葉書」についての左手の動作終了位置コー
ドは“38”である。この場合、図24に示すように、
空間位置コード“38”に対する空間位置コード“1
3”の類似度は、89%となる。なお、図24に示した
類似度は、一例に過ぎず、任意に変更が可能なことを指
摘しておく。また、図24に示されていない空間位置コ
ード、すなわち空間位置コード“38”に対して空間的
に離れている空間位置コードについては、より低い類似
度(例えば、20%の類似度)が与えられる。
【0067】また、「動きコード」については、単語辞
書11に登録されている動きコードを基準動きコードと
した場合、当該基準動きコードを中心軸とした四角錐の
稜線(四角錐の側面において、平面が交差して生じる
線)に相当する4つの動きコードが、当該基準動きコー
ドの近傍コードとみなされる。そして、これら4つの近
傍コードに対して所定の類似度(例えば、90%の類似
度)が与えられている。その他の動きコードについて
は、より低い類似度(例えば、20%の類似度)が与え
られる。図25は、基準動きコードに対する近傍コード
のリストを格納した動き近傍コードテーブルの一部を示
している。また、図26に、下方向への基準動きコード
(実線で示している)に対する4つの近傍コード(点線
で示している)を視覚的に示しておく。単語認識装置9
は、図25の近傍コードテーブルを参照することによ
り、実際に検出された動きコードが単語辞書11に登録
されている基準動きコードの近傍コードであるか否かを
判断する。
【0068】空間領域コードが図16に示すような状態
で遷移した場合であって、前述のステップS18で手動
作検出装置6が行った解析結果を、単語辞書11に登録
されている手話単語「葉書」の特徴と比較すると、左手
の「動作終了位置コード」が「13」である点および左
手の2番目の「動きコード」が「右下」である点以外
は、全て手話単語「葉書」の特徴と一致している。その
ため、この場合の類似度は、80.1%(=89%×9
0%)となる。この類似度は、カテゴリ1に属する他の
手話単語「全部」「ほとんど」についての類似度よりも
高い。そのため、単語認識装置9は、検出した手話動作
が「葉書」であると特定する(ステップ25)。なお、
他の手話単語に対する類似度のほうが高い場合は、最も
類似度の高い手話単語を認識結果とする。
【0069】次に、出力装置12は、単語認識装置9で
特定された手話単語「葉書」を、音声、文字、画像のい
ずれかもしくは任意の組み合わせで出力する(ステップ
S26)。これによって、オペレータは、認識結果を知
ることができる。
【0070】次に、特徴画像抽出装置3は、オペレータ
から認識動作を終了する旨の指示があったか否かを判断
し(ステップS27)、指示がない場合は、再びステッ
プS12の動作を行う。以後、ステップS13〜S26
の動作が繰り返される。一方、オペレータからの終了指
示があった場合、色変換テーブル作成装置13は、テー
ブル設定フラグをリセットする(ステップS28)。そ
の後、図1に示す手話認識装置は、動作を終了する。
【0071】なお、上記第1の実施形態において、単語
認識装置9は、最も一致度の高い手話単語を認識結果と
して出力するが、これに代えて予め定めた閾値以上の類
似度を有する1または複数の手話単語を認識結果として
出力するようにしても良い。
【0072】(第2の実施形態)上記第1の実施形態で
は、手動作の動きコードを一義的に検出するようにして
いるが、この動きコードを階層的に検出し、この階層的
に検出された動きコードに基づいて、手話単語の認識を
階層的に行うような他の実施形態を、第2の実施形態と
して以下に説明する。
【0073】図27は、本発明の第2の実施形態に係る
手話認識装置の構成を示すブロック図である。なお、本
実施形態の構成および動作は、以下の点を除いて図1に
示す第1の実施形態と同様であり、相当する部分には同
一の参照番号を付し、その説明を省略する。
【0074】図28は、第2の実施形態において、手動
作検出装置60で実行される動きコード検出動作を示し
たフローチャートである。ここでは、一例として、図2
9および図30に示す手の軌跡に基づいて、手動作検出
装置60による動きコード検出動作を説明する。
【0075】最初に、手動作検出装置60は、低分解能
閾値THC1に基づいて、動きコードを検出する(ステ
ップS201)。このとき、手動作検出装置60は、図
18に示したアルゴリズムを用いて動きコードを検出す
る。すなわち、手動作検出装置60は、図29(a)に
示すように、開始点STと終了点ENDとを結ぶ直線L
1を求め、この直線L1と各サンプリング点n1〜n4
との間の距離d1〜d4を、前述の式(11)を用いて
計算する。ここでは、直線L1に対して最大距離d3を
有するサンプリング点n3を制御候補点とする。次に、
手動作検出装置60は、最大距離d3と低分解能閾値T
HC1とを比較する。ここでは、最大距離d3よりも低
分解能閾値THC1の方が大きいため、サンプリング点
n3は制御点とならない。従って、図29(b)に示す
ように、低分解能閾値THC1を用いたときに制御点は
存在しないことになる。
【0076】次に、手動作検出装置60は、低分解能閾
値THC1を用いて検出した図29(b)で示される手
の軌跡を、ST→ENDとして表し、図21の動きコー
ドの一覧テーブルから、動きコードを「下」と定義す
る。
【0077】次に、手動作検出装置60は、高分解能閾
値THC2に基づいて、動きコードを検出する(ステッ
プS202)。このとき、手動作検出装置60は、図1
8に示したアルゴリズムを用いて動きコードを検出す
る。なお、高分解能閾値THC2の値は、低分解能閾値
THC1の値よりも小さく選ばれている。すなわち、手
動作検出装置60は、図30(a)に示すように、開始
点STと終了点ENDとを結ぶ直線L1を求め、この直
線L1と各サンプリング点n1〜n4との間の距離d1
〜d4を、前述の式(11)を用いて計算する。このと
き、最大距離d3は距離閾値THC2よりも大きいた
め、サンプリング点n3は制御点c1として検出され
る。同様に、手動作検出装置60は、図30(b)に示
すように、開始点STと制御点c1との間で、さらに制
御点c1と終了点ENDとの間で新たな制御点を検出す
る。ここでは、図30(c)に示すように、開始点ST
と制御点c1との間で新たな制御点c2が検出されてい
る。従って、高解像度閾値THC2を用いた場合、制御
点は、c1,c2の2つになる。
【0078】次に、手動作検出装置60は、高解像度閾
値THC2を用いて検出した図30(c)で示される手
の軌跡を、ST→c2,c2→c1,c1→ENDとし
て表し、図21の動きコードの一覧テーブルから、動き
コードを「右下→左下→右下」と定義する。
【0079】次に、カテゴリ検出装置80は、低解像度
閾値THC1を用いて検出した動きコード「下」を用い
て、対応するカテゴリを選択する。ここでは、図31の
「書く」、「さわやか」の両方が認識対象候補として選
択される。
【0080】次に、単語認識装置90は、高解像度閾値
THC2を用いて検出した動きコード「右下→左下→右
下」を用いて、対応する単語を選択する。ここでは、図
31の手動作「書く」という単語が選択される。
【0081】このように、動き検出の解像度が異なる複
数の閾値を持つことにより、最初に大きな動きについて
絞り込みをおこない、後に詳細な動きによって動作を特
定することができる。
【0082】なお、THC1>THC2の関係が成り立
てば、低解像度閾値THC1と高解像度閾値THC2
は、任意の値に選ぶことが可能であり、さらには閾値を
3つ以上持つことも可能である。
【0083】(第3の実施形態)図32は、本発明の第
3の実施形態に係る手話認識装置の構成を示すブロック
図である。図32において、本実施形態の手話認識装置
は、撮影装置1と画像記憶装置2との間に動作開始通知
装置14が追加されている。その他の構成は、図1に示
す第1の実施形態と同様であり、相当する部分には同一
の参照番号を付し、その説明を省略する。この動作開始
通知装置14は、通常は撮影装置1から出力される画像
フレームをゲートしており、画像記憶装置2に対する画
像フレームの供給を禁止している。オペレータによって
認識動作の開始指示が与えられると、動作開始通知装置
14は、光,音声または映像等によって、認識動作を開
始するタイミングを利用者に知らしめる。これによっ
て、利用者は、適切なタイミングで手話動作を開始する
ことができる。また、動作開始通知装置14は、オペレ
ータからの上記開始指示に応答して、撮影装置1から出
力される画像フレームを画像記憶装置2に供給する。こ
れによって、画像記憶装置2に画像フレームが蓄積さ
れ、手話動作の認識処理が開始する。
【0084】以上説明した各実施形態は、機能ブロック
図の形態で説明されているが、図33に示すように、上
記各実施形態をコンピュータ装置を用いたソフト制御に
よって実現することもできる。図33において、本コン
ピュータ装置は、撮影装置1と、画像記憶装置2と、C
PU21と、RAM22と、プログラム記憶装置23
と、入力装置24と、表示装置25とを備えている。プ
ログラム記憶装置23には、図2および図3のフローチ
ャートに示されるような処理を実現するためのプログラ
ムデータが格納されている。CPU21は、このプログ
ラムデータに従って、図2および図3に示す動作を実行
する。RAM22は、CPU21の処理中に発生する作
業データを記憶する。入力装置24は、キーボードやマ
ウス等を含み、オペレータの操作に応じて、種々の指示
ないしデータをCPU21に入力する。なお、撮影装置
1および画像記憶装置2は、図1に示す撮影装置1およ
び画像記憶装置2と同様の構成である。
【0085】ここで、プログラム記憶装置23へプログ
ラムデータを格納する方法としては、種々の方法があ
る。第1は、プログラムデータを格納した記録媒体(フ
ロッピーディスク、CD−ROM、DVD等)から当該
プログラムデータを読み取ってプログラム記憶装置23
に格納する方法である。第2は、オンライン通信で伝送
されてくるプログラムデータを受信してプログラム記憶
装置23に格納する方法である。第3は、本装置の出荷
時にプログラムデータを予めプログラム記憶装置23に
格納しておく方法である。
【0086】以上説明した実施例は、いずれも手話を認
識する装置として構成されているが、本発明は、手話の
認識のみならず、何らかの意味を持つ手動作の認識に広
く適用が可能である。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係る手話認識装置の
構成を示すブロック図である。
【図2】図1の手話認識装置の動作の前半部分を示すフ
ローチャートである。
【図3】図1の手話認識装置の動作の後半部分を示すフ
ローチャートである。
【図4】図1の画像記憶装置2に記憶される画像フレー
ムの一例を示す図である。
【図5】図1の色変換テーブル作成装置13に格納され
る代表画像の一例を示す図である。
【図6】図1の色変換テーブル作成装置13が内蔵する
色変換テーブルを示す図である。
【図7】図1の特徴画像抽出装置3からチャネル別に出
力される特徴画像の一例を示す図である。
【図8】ブロブの重心位置を計算する方法を説明するた
めの図である。
【図9】図1の空間位置計算装置4によって計算された
ブロブの3次元空間位置が登録される3次元空間位置テ
ーブルの構成を示す図である。
【図10】第3チャネルに出力される特徴画像から抽出
された体の輪郭形状を示す図である。
【図11】図10の輪郭形状に対して規定された人体的
特徴を示す代表線を示した図である。
【図12】図11で示す代表線によって分割された空間
領域を示す図である。
【図13】図1の領域分割装置5によって規定される空
間領域コードを示した図である。
【図14】3次元空間における第1〜第3ワールドの位
置関係を視覚的に示した図である。
【図15】第1〜第3ワールドにおける空間領域コード
の他の規定例を示した図である。
【図16】利用者が「葉書」に相当する手話動作を行っ
たとき、手対応するブロブが属する空間領域コードの時
間的変化状態を登録する領域遷移テーブルを示す図であ
る。
【図17】手形状の一例を示す図である。
【図18】本発明の第1の実施形態における動きコード
の検出動作を示すフローチャートである。
【図19】本発明の第1の実施形態における制御点検出
動作を説明するための手の移動軌跡の一例を示した図で
ある。
【図20】直線に対するサンプリング点の距離を一般的
に表した模式図である。
【図21】動きコードを特定する際に参照される動きコ
ードの一覧テーブルを示した図である。
【図22】第1カテゴリに属する手話動作の一例を示す
図である。
【図23】図1の単語辞書11に登録される、第1カテ
ゴリに属する手話単語の特徴情報の一例を示す図であ
る。
【図24】単語辞書11に登録された「動作開始位置コ
ード」および「動作終了位置コード」について、それと
3次元的に近接する空間領域コードに対して与えられた
類似度を示す図である。
【図25】単語辞書11に登録された基準動きコードに
対する近傍コードのリストを格納した動き近傍コードテ
ーブルの一部を示す図である。
【図26】下方向への基準動きコード(実線で示してい
る)に対する4つの近傍コード(点線で示している)を
視覚的に示した図である。
【図27】本発明の第2の実施形態に係る手話認識装置
の構成を示すブロック図である。
【図28】本発明の第2の実施形態において、手動作検
出装置で実行される動きコード検出動作を示したフロー
チャートである。
【図29】本発明の第2の実施形態において、低解像度
閾値THC1を用いて制御点を検出する際の動作を説明
するための手の移動軌跡の一例を示した図である。
【図30】本発明の第2の実施形態において、高解像度
閾値THC2を用いて制御点を検出する際の動作を説明
するための手の移動軌跡の一例を示した図である。
【図31】本発明の第2の実施形態において、階層的に
検出された動きコードを用いて実行される階層的な単語
認識動作を説明するための図である。
【図32】本発明の第3の実施形態に係る手話認識装置
の構成を示すブロック図である。
【図33】コンピュータ装置を用いたソフト制御によっ
て実現される、本発明の第3の実施形態に係る手話認識
装置の構成を示すブロック図である。
【符号の説明】
1…撮影装置 2…画像記憶装置 3…特徴画像抽出装置 4…空間位置計算装置 5…領域分割装置 6,60…手動作検出装置 8,80…カテゴリ検出装置 9,90…単語認識装置 10…カテゴリ辞書 11…単語辞書 12…出力装置 13…色変換テーブル作成装置 14…動作開始通知装置 21…CPU 22…RAM 23…プログラム記憶装置 24…入力装置 25…表示装置
───────────────────────────────────────────────────── フロントページの続き (72)発明者 手嶋 光隆 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 今川 和幸 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 呂 山 東京都小金井市貫井北町4丁目2番1号 郵政省通信総合研究所内 (72)発明者 猪木 誠二 東京都小金井市貫井北町4丁目2番1号 郵政省通信総合研究所内

Claims (15)

    【特許請求の範囲】
  1. 【請求項1】 利用者が行う手動作を認識するための手
    動作認識装置であって、 少なくとも2台のカメラを有し、利用者を立体的に撮影
    する撮影手段と、 前記撮影手段から出力される利用者の立体画像データを
    任意のサンプリング間隔で記憶する画像記憶手段と、 前記画像記憶手段から立体画像データを順番に取り出
    し、各立体画像データから利用者の人体的特徴を示す特
    徴画像を抽出して複数のチャネルに分解して出力する特
    徴画像抽出手段と、 前記特徴画像抽出手段から出力される特徴画像が有する
    視差に基づき、利用者の人体各部の3次元空間位置を検
    出する空間位置計算手段と、 前記特徴画像抽出手段から出力される特徴画像が有する
    視差に基づき、利用者の周囲を取り巻く空間を利用者の
    体に対応付けられた複数の領域に分割する領域分割手段
    と、 前記空間位置計算手段で計算された人体各部の3次元空
    間位置の内、利用者の手に相当する3次元空間位置が前
    記領域分割手段で分割された領域に関連してどのように
    動くかを検出する手動作検出手段と、 前記手動作検出手段で検出された手の動きに基づき、対
    応する手動作単語を判定する手動作単語判定手段と、 前記手動作単語判定手段の判定結果を、オペレータが認
    識可能な態様で出力する出力手段とを備える、手動作認
    識装置。
  2. 【請求項2】 前記特徴画像抽出手段は、前記立体画像
    データを構成する各画素の色情報に基づいて、前記特徴
    画像を各チャネル別に出力することを特徴とする、請求
    項1に記載の手動作認識装置。
  3. 【請求項3】 前記特徴画像抽出手段は、 オペレータによって指定された抽出したい色と出力させ
    たくない色とに基づいて、前記チャネル別に色変換テー
    ブルを設定し、 前記立体画像データを構成する各画素の色情報を前記色
    変換テーブルによって変換し、 前記色変換テーブルによって変換された値を予め定める
    閾値で弁別することにより、各チャネル別に前記特徴画
    像を出力することを特徴とする、請求項2に記載の手動
    作認識装置。
  4. 【請求項4】 前記領域分割手段は、前記空間位置計算
    手段で計算された人体各部の3次元空間位置に基づい
    て、前記特徴画像に現れない人体部分の位置を推定し、
    当該推定した位置に基づいて、利用者の周囲を取り巻く
    空間をさらに細かい領域に分割することを特徴とする、
    請求項1に記載の手動作認識装置。
  5. 【請求項5】 前記領域分割手段は、時間的に隣接する
    前記特徴画像の差分値を計算し、当該差分値が予め定め
    た閾値以上になった場合にのみ、領域分割を行うことを
    特徴とする、請求項1に記載の手動作認識装置。
  6. 【請求項6】 前記領域分割手段は、利用者の体を中心
    として前後に広がる空間を複数の層に分割し、さらに各
    層を複数の領域に分割することを特徴とする、請求項1
    に記載の手動作認識装置。
  7. 【請求項7】 前記領域分割手段は、前記層間で領域分
    割数を異ならせることを特徴とする、請求項6に記載の
    手動作認識装置。
  8. 【請求項8】 前記領域分割手段は、利用者の体から見
    て後方の層から前方の層に行くに従って、領域分割数を
    少なくすることを特徴とする、請求項7に記載の手動作
    認識装置。
  9. 【請求項9】 認識の対象となる複数の手動作単語は、
    予め複数のカテゴリに分類されており、 前記手動作単語判定手段は、 各前記カテゴリについて、それぞれのカテゴリに属する
    手動作単語に共通する動作的特徴が予め登録されている
    カテゴリ辞書と、 各手動作単語のさらに詳しい動作的特徴が各前記カテゴ
    リ別に格納されている単語辞書と、 前記手動作検出手段で検出された手の動きがどのカテゴ
    リに属するかを、前記カテゴリ辞書の中から検出するカ
    テゴリ検出手段と、 前記手動作検出手段で検出された手の動きが前記カテゴ
    リ検出手段によって検出されたカテゴリに属する手動作
    単語のどれに対応するかを認識する単語認識手段とを含
    む、請求項1に記載の手動作認識装置。
  10. 【請求項10】 前記単語認識手段は、前記カテゴリ検
    出手段によって検出されたカテゴリに属する手動作単語
    の内、前記手動作検出手段で検出された手の動きと最も
    類似度の高い1つの手動作単語を認識結果として出力す
    る、請求項9に記載の手動作認識装置。
  11. 【請求項11】 前記単語認識手段は、前記カテゴリ検
    出手段によって検出されたカテゴリに属する手動作単語
    の内、前記手動作検出手段で検出された手の動きと一定
    の閾値以上の類似度を持つ1または複数の手動作単語を
    認識結果として出力する、請求項9に記載の手動作認識
    装置。
  12. 【請求項12】 利用者に対し、手動作を開始するタイ
    ミングを通知するための動作開始通知手段をさらに備え
    る、請求項1に記載の手動作認識装置。
  13. 【請求項13】 前記手動作検出手段は、動きの開始点
    と終了点との間で検出した3次元空間位置を示すサンプ
    リング点の内、動きの方向が大きく変化するサンプリン
    グ点を制御点として抽出し、これら開始点、終了点およ
    び制御点を用いて、利用者の手の動きを表現することを
    特徴とする、請求項1に記載の手動作認識装置。
  14. 【請求項14】 前記手動作検出手段は、 前記開始点と前記終了点との間に存在するサンプリング
    点であって、これら開始点および終了点を結んだ直線に
    対して最大距離を有し、かつ予め定めた閾値以上の距離
    を有するサンプリング点と、 前記開始点と隣接する制御点との間に存在するサンプリ
    ング点であって、これら開始点および隣接する制御点を
    結んだ直線に対して最大距離を有し、かつ予め定めた閾
    値以上の距離を有するサンプリング点と、 前記終了点と隣接する制御点との間に存在するサンプリ
    ング点であって、これら終了点およびを隣接する制御点
    を結んだ直線に対して最大距離を有し、かつ予め定めた
    閾値以上の距離を有するサンプリング点と、 隣接する2つの制御点の間に存在するサンプリング点で
    あって、これら2つの制御点を結んだ直線に対して最大
    距離を有し、かつ予め定めた閾値以上の距離を有するサ
    ンプリング点とを検出し、 これら検出したサンプリング点を前記制御点とすること
    を特徴とする、請求項13に記載の手動作認識装置。
  15. 【請求項15】 前記手動作検出手段は、複数の閾値を
    用いて、階層的に前記制御点を検出することにより、利
    用者の手の動きを階層的に表現し、 前記手動作単語判定手段は、前記手動作検出手段によっ
    て階層的に表現された利用者の手の動きに基づいて、階
    層的に対応する手動作単語を特定することを特徴とす
    る、請求項14に記載の手動作認識装置。
JP26783298A 1997-09-26 1998-09-22 手動作認識装置 Withdrawn JPH11174948A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26783298A JPH11174948A (ja) 1997-09-26 1998-09-22 手動作認識装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP26148397 1997-09-26
JP9-261483 1997-09-26
JP26783298A JPH11174948A (ja) 1997-09-26 1998-09-22 手動作認識装置

Publications (1)

Publication Number Publication Date
JPH11174948A true JPH11174948A (ja) 1999-07-02

Family

ID=26545100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26783298A Withdrawn JPH11174948A (ja) 1997-09-26 1998-09-22 手動作認識装置

Country Status (1)

Country Link
JP (1) JPH11174948A (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003295754A (ja) * 2002-04-05 2003-10-15 Hitachi Ltd 手話教育用システム及び該システムを実現するためのプログラム
JP2006026223A (ja) * 2004-07-20 2006-02-02 Hitachi Medical Corp 生体光計測装置
JP2006155563A (ja) * 2004-11-05 2006-06-15 Fuji Xerox Co Ltd 動作分析装置
KR100679645B1 (ko) * 2005-03-09 2007-02-06 전남대학교산학협력단 가상의 격자형 평면을 이용한 동작 인식 방법
JP2007533043A (ja) * 2004-04-15 2007-11-15 ジェスチャー テック,インコーポレイテッド 両手動作の追跡
KR100791362B1 (ko) 2006-06-09 2008-01-03 한국과학기술원 베이비사인 인식 방법, 이를 이용한 양방향 멀티미디어 동화 구현 시스템 및 방법
US7340100B2 (en) 2002-08-09 2008-03-04 Honda Giken Kogyo Kabushiki Kaisha Posture recognition apparatus and autonomous robot
JP2010009558A (ja) * 2008-05-28 2010-01-14 Oki Semiconductor Co Ltd 画像認識装置、電装機器動作制御ユニット、電化製品、画像認識プログラム、半導体装置
CN102103752A (zh) * 2010-11-26 2011-06-22 浙江工业大学 一种人机交互中多色标块检测方法
CN102521579A (zh) * 2011-12-21 2012-06-27 Tcl集团股份有限公司 一种基于二维平面摄像头推的动作识别方法及系统
JP2013037467A (ja) * 2011-08-05 2013-02-21 Toshiba Corp コマンド発行装置、コマンド発行方法およびプログラム
US8654187B2 (en) 2009-06-08 2014-02-18 Panasonic Corporation Work recognition system, work recognition device, and work recognition method
JP2015069396A (ja) * 2013-09-30 2015-04-13 富士通株式会社 プログラム、情報処理装置、および方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003295754A (ja) * 2002-04-05 2003-10-15 Hitachi Ltd 手話教育用システム及び該システムを実現するためのプログラム
US7340100B2 (en) 2002-08-09 2008-03-04 Honda Giken Kogyo Kabushiki Kaisha Posture recognition apparatus and autonomous robot
JP2007533043A (ja) * 2004-04-15 2007-11-15 ジェスチャー テック,インコーポレイテッド 両手動作の追跡
JP2006026223A (ja) * 2004-07-20 2006-02-02 Hitachi Medical Corp 生体光計測装置
JP4651323B2 (ja) * 2004-07-20 2011-03-16 株式会社日立メディコ 生体光計測装置
JP2006155563A (ja) * 2004-11-05 2006-06-15 Fuji Xerox Co Ltd 動作分析装置
KR100679645B1 (ko) * 2005-03-09 2007-02-06 전남대학교산학협력단 가상의 격자형 평면을 이용한 동작 인식 방법
KR100791362B1 (ko) 2006-06-09 2008-01-03 한국과학기술원 베이비사인 인식 방법, 이를 이용한 양방향 멀티미디어 동화 구현 시스템 및 방법
JP2010009558A (ja) * 2008-05-28 2010-01-14 Oki Semiconductor Co Ltd 画像認識装置、電装機器動作制御ユニット、電化製品、画像認識プログラム、半導体装置
US8654187B2 (en) 2009-06-08 2014-02-18 Panasonic Corporation Work recognition system, work recognition device, and work recognition method
CN102103752A (zh) * 2010-11-26 2011-06-22 浙江工业大学 一种人机交互中多色标块检测方法
JP2013037467A (ja) * 2011-08-05 2013-02-21 Toshiba Corp コマンド発行装置、コマンド発行方法およびプログラム
CN102521579A (zh) * 2011-12-21 2012-06-27 Tcl集团股份有限公司 一种基于二维平面摄像头推的动作识别方法及系统
JP2015069396A (ja) * 2013-09-30 2015-04-13 富士通株式会社 プログラム、情報処理装置、および方法

Similar Documents

Publication Publication Date Title
EP0905644A2 (en) Hand gesture recognizing device
US9984281B2 (en) Image processing apparatus, stylus, and image processing method
CN111710036B (zh) 三维人脸模型的构建方法、装置、设备及存储介质
CN110287790B (zh) 一种面向静态多人场景的学习状态混合分析方法
KR102441171B1 (ko) 다시점 얼굴 영상 기반 사용자 모니터링 장치 및 방법
CN106547356B (zh) 智能交互方法和装置
KR20180053416A (ko) 단일 카메라 기반의 3차원 영상 해석에 기초한 가상현실 인터페이스 구현 방법, 단일 카메라 기반의 3차원 영상 해석에 기초한 가상현실 인터페이스 구현 장치
CN108804989B (zh) 书画装置、书画设备及书画辅助方法
JP6207210B2 (ja) 情報処理装置およびその方法
CN106648078B (zh) 应用于智能机器人的多模态交互方法及系统
JPH11174948A (ja) 手動作認識装置
JP6066093B2 (ja) 手指形状推定装置、手指形状推定方法、及び手指形状推定プログラム
US20140085330A1 (en) Image processing device, image processing method, computer readable medium
CN109905593A (zh) 一种图像处理方法和装置
JP6331761B2 (ja) 判定装置、判定方法及び判定プログラム
CN105929947B (zh) 一种基于场景态势感知的人机交互方法
CN105912126A (zh) 一种手势运动映射到界面的增益自适应调整方法
CN114072839A (zh) 单目静止相机视频中的分层运动表示与提取
JP3144400B2 (ja) ジェスチャ認識装置及び方法
CN111291746A (zh) 影像处理系统及影像处理方法
CN108521594B (zh) 一种基于体感相机手势识别的自由视点视频播放方法
JP2000172163A (ja) 手動作分節方法および装置
JPS61199178A (ja) 情報入力装置
JP5930808B2 (ja) 画像処理装置、画像処理装置の制御方法、およびプログラム
KR101447958B1 (ko) 신체 부분 검출 방법 및 장치

Legal Events

Date Code Title Description
A521 Written amendment

Effective date: 20050920

Free format text: JAPANESE INTERMEDIATE CODE: A523

A621 Written request for application examination

Effective date: 20050920

Free format text: JAPANESE INTERMEDIATE CODE: A621

A521 Written amendment

Effective date: 20050920

Free format text: JAPANESE INTERMEDIATE CODE: A821

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20070306

A521 Written amendment

Effective date: 20070418

Free format text: JAPANESE INTERMEDIATE CODE: A523