JPH10154238A - 動作生成装置 - Google Patents

動作生成装置

Info

Publication number
JPH10154238A
JPH10154238A JP9989797A JP9989797A JPH10154238A JP H10154238 A JPH10154238 A JP H10154238A JP 9989797 A JP9989797 A JP 9989797A JP 9989797 A JP9989797 A JP 9989797A JP H10154238 A JPH10154238 A JP H10154238A
Authority
JP
Japan
Prior art keywords
motion
information
data
action
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP9989797A
Other languages
English (en)
Inventor
Ryota Hata
亮太 畑
Yuji Takada
雄二 高田
Hideaki Matsuo
英明 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP9989797A priority Critical patent/JPH10154238A/ja
Publication of JPH10154238A publication Critical patent/JPH10154238A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

(57)【要約】 【課題】 人間の動作をアニメーションで生成する際
に、複数の動作の基準となる動作を選択し、その基準と
なる動作の計測データを登録し、登録された計測データ
から登録されていない動作を新しく生成する。 【解決手段】 動作コードを入力する動作入力手段10
1と動作コードを解析する動作解析手段102と動作の
詳細情報を保持している動作辞書103と動作の軌跡情
報を生成する動作軌跡生成手段104と基準となる動作
を保持している動素データベース105と動作の開始位
置座標のを保持している位置データベース106とキャ
ラクタの各部位を保持している部品データベース108
とキャラクタの動作を生成する動作生成手段107と生
成した動作をアニメーションで生成する表示手段109
を備えた動作生成装置。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、人間の動作を、C
Gを用いてアニメーションに変換して表示する方法及び
その装置に関するものである。
【0002】例えば、手話を用いる聴覚障害者と自然言
語を用いる健聴者との対話において、健聴者から聴覚障
害者への通訳を行うものであり、特に、健聴者が入力し
た、音声情報や文章を、CGを用いてアニメーション手
話に変換して表示する方法及びその装置に関する。
【0003】
【従来の技術】従来のアニメーション動作を生成する方
法としては、動作する部位(腕、足、指等)の動作デー
タをサイバーグローブなどのセンサや複数台のカメラな
どで取得して、データベース等の保持手段を用いて登録
していた。また、例えば、手話アニメーション表示の場
合には、手話単語毎にデータを登録しているため、各手
話単語のデータを繋併せて、手話アニメーションを生成
していた。
【0004】例えば、特開平6−251123号公報記
載の発明では、使用する手話単語全ての実際の手の動き
に関するデータを手袋型センサで収集し、そのデータを
用いて、肘等の関節の計算を行って、アニメーションを
生成している。
【0005】又、手話単語間の動作生成では、前の手話
単語の終了点と次の手話単語の開始点間を線形補間など
の手法を用いて生成している。
【0006】
【発明が解決しようとする課題】従来の方法では、手話
に限らず必要な動作データを全てカメラ撮影又はセンサ
等で取得して保存しておく必要があり、膨大なデータを
必要とした。例えば、手話の語彙は2万語あり、2万語
全てのデータを収集して保存するには、作業時間やデー
タ量の負荷がとても多い。また、一つ一つの動作を一連
の動作に繋併せる場合に、繋併せる方法や動作データの
保存方法等が問題となる。
【0007】そこで我々は、動作データをカメラ又はセ
ンサ等で収集する場合に、基準となる動作(動素)を選
択し、この動素データを加工及び変更して新しい動作を
生成することにより、撮影またはセンサ等で収集するデ
ータを必要最小限にすることを可能とした。
【0008】また、動素を組み合わせることにより、新
しい動作や手話を生成することが可能になる。
【0009】また、手話と手話の間の動作も上記方法と
同様に、基準となる動素から生成することが可能にな
る。
【0010】また、動作辞書に登録されている各形態素
の動作データを「方向」、「大きさ」、「位置」、「手
形状」、「強/弱手」等に分割して登録することによ
り、一部の情報を変更することで、他の異なる動作や手
話の生成、動作の大きさによる表現の変更等を改めてカ
メラやセンサ等でのデータ収集を行わずに登録すること
が可能になる。
【0011】すなわち、新しい動作の生成に改めてカメ
ラやセンサ等を用いてデータを収集すること無しに、動
素の加工/組合せ、動作辞書の変更/修正を行うことに
より、新しい動作や手話、意味の異なる動作や手話等の
アニメーション生成を可能とする。
【0012】
【課題を解決するための手段】本発明では、見やすい動
作を生成するために、3次元CGの骨格モデルを使用
し、この骨格モデルを動かして、動作や手話等のアニメ
ーションを生成する。
【0013】骨格モデルを動かすための動作データは、
あらかじめ、カメラでの撮影又はセンサを用いて収集
し、動作単位で登録する。
【0014】又、登録する動作データは、カメラ撮影又
はセンサ等でデータを収集する前に、各動作や手話の基
準となる動作を選択し、基準となる動作のみを、カメラ
撮影又はセンサ等で動素データを収集し登録する。
【0015】動素データとして登録されている動作は、
動素データをそのまま用いて、動作の軌跡情報とし、登
録されていないデータは、収集した基準となる動素デー
タを用いて、開始点座標の変更、平行移動、線形補間等
による加工を行い、新しい動作の軌跡情報を生成する。
【0016】又、基準となる動作データを複数(2動作
以上)用いて、組み合わせて加工することにより、新し
い複雑な動作の軌跡情報を生成する。
【0017】カメラ撮影又はセンサ等で収集した動作デ
ータや基準となる動作データから生成される軌跡情報
は、動作の先端部位のみ(例えば手話の場合、手の動作
情報のみ)なので、肘、肩等の関節の座標や回転角等
は、動作先端部位の軌跡情報から、計算によって求め
る。ここでは、ロボット工学等で用いられている、
(逆)運動学、(逆)動力学を用いて、肘や肩等の座標
や回転角等を計算する。
【0018】(逆)運動学、(逆)動力学は、「広瀬茂
男」著、「裳華房」発行の「ロボット工学 -機械シス
テムのベクトル解析-」を参考。
【0019】
【発明の実施の形態】以下、本発明の実施形態を図と手
話及び指揮者の動作を参照して説明する。
【0020】(実施の形態1)ここでは、本発明の第1
の実施形態を、「大丈夫」と言う手話を入力した場合に
ついて、図1、2、6、7、8、9、10、16を参照
して説明する。
【0021】はじめに、「大丈夫」と言う手話動作を右
手で行った場合について説明する。「大丈夫」と言う手
話動作は、片手動作で、手形状は「平手」で、左肩から
開始して、水平に移動し右肩で終了する。この時、開始
点の「左肩」、終了点の「右肩」に指先が接触する。
【0022】次に図1の各手段について説明する。動作
入力手段101は、入力された動作単語を動作コードに
変換する。
【0023】動作解析手段102は、動作コードに対応
した動作データを動作辞書103から取り出す。
【0024】動作辞書103は、動作コードに対応する
動作データを保持している。動作軌跡生成手段104
は、動作データの各情報に従って、動素データベース1
05と位置データベース106から動素データと開始位
置座標を取り出し、動素データと開始位置座標から動作
の軌跡を生成する。
【0025】動素データベース105は、動作の基準と
なる動素データを保持している。位置データベース10
6は、各動作の開始位置座標を保持している。
【0026】動作生成手段107は、動作データの部品
情報に従って、動作生成に必要な部品データを部品デー
タベース108から取り出し、部品データと動作軌跡生
成手段104で生成された動作軌跡情報からアニメーシ
ョンの動作を生成する。
【0027】部品データベース108は、骨格モデルの
上腕や胴等の各部品を保持している。表示手段109
は、動作生成手段107で生成されたアニメーションを
表示する。
【0028】図6は、動作辞書103の内部構造を表
し、左端の数字は、動作入力手段101、動作解析手段
102で取り扱われる動作コードで、形態素は、各手話
動作の単語を表す。右側の「方向(大きさコード)、開
始位置、手形状、動作部品、強/弱手」をまとめて動作
データと呼び、各手話単語の動作方向、動作する大きさ
コード、動作開始位置、動作時の手形状、動作部品、動
作する手形状を表す。
【0029】図7は、動素データベース101の内部構
造を表し、左側の動素コードが動素データの見出しにな
っており、「右」方向に大きさ「3」動作する動素デー
タは動素3で、動素3には、「右」方向に大きさ「3」
動作する基準動作の計測値を保持している。
【0030】図8は、位置データベースの内部構造を表
し、それぞれ、骨格モデル(以後、キャラクタと呼ぶ)
の各部位(肩、胸、腹等)の絶対座標を保持しており、
キャラクタを変更する場合は、座標値を変更する。
【0031】図9は、部品データベースの内部構造を表
し、キャラクタの各部位に部品コードを割り当ててい
る。
【0032】図10は、動作の大きさコードと実際の大
きさの関係を表し、各部位に動作の大きさコードを割り
当てており、キャラクタを変更した場合は、実際の大き
さを変更する。
【0033】図16は、キャラクタモデルの各部位の名
称と図10の動作量との関係を示す。
【0034】次に、動素データベース105に、「大丈
夫」と言う手話動作の計測データが登録されている場合
と、登録されている「大丈夫」の動素データを用いて、
他の新しい登録されていない手話を生成する場合につい
て説明する。
【0035】図1の動作入力手段101は、入力情報の
「大丈夫」という文字列を動作コード(3)に変換し
て、動作解析手段102に渡す。動作解析手段102で
は、動作入力手段101から受け取った、動作コード
(3)を動作辞書103に渡して、「大丈夫」の動作コ
ード(3)に対応した動作データ(以後、動作データ3
と呼ぶ)を図6の動作辞書103から検索し、その動作
データ3を動作解析手段102に返す。
【0036】動作データ3の各情報は、動作の先端部位
(ここでは、手の重心)の動作方向が「右」、動作の大
きさコードが「3」、動作を開始する先端部位の位置が
「左肩」、動作時の手形状が「平手」、動作する部位が
「上腕、下腕、手」、動作を行う手が「強手」であるこ
とを表している。
【0037】動作の大きさは、図10に示す様に、キャ
ラクタの各部位に対してコードを割り当て、キャラクタ
が異なる場合は、肩幅や胴等の大きさの値を置き換え
る。各部位のコードは、そのままで、大きさの値を置き
換えることによって、キャラクタを変更するたびに、動
作辞書103や動素データベース105等、他のデータ
の変更を必要としない。
【0038】また、強手/弱手について、強手は「右
手」でも「左手」でも良く、強手でない方の手が弱手と
なる。ここでは、強手を「右手」として説明する。
【0039】(i)動素データベースに「大丈夫」と言う
手話動作が登録されている場合。動作データ3は、動作
解析手段102から動作軌跡生成手段104に渡され、
動作データ3の「方向」と「大きさ」を、動素データベ
ース105に渡す。
【0040】動素データベース105は、「大丈夫」の
計測データが図7に示す様に動素(3)として保持して
いるので、動素データベース105の動素(3)のデー
タ(以後、動素データ3と呼ぶ)を取り出し、動作軌跡
生成手段104に渡す。
【0041】次に、動作データ3の「左肩」が位置デー
タベース106に渡され、「大丈夫」の動作データ3の
「左肩」に対応した位置コード(1)のデータ(以後、
開始位置コード1と呼ぶ)を図8から検索して、動作軌
跡生成手段104に渡す。
【0042】次に動作軌跡生成手段104では、動素デ
ータベース105から取り出した動素データ3と、位置
データベースから取り出した開始位置データ1から、動
素データ3の開始位置座標を開始位置データ1の座標に
一致させ、「大丈夫」と言う手話動作の動作先端部位の
動作軌跡情報(1)を生成する。
【0043】尚、動素データの開始位置座標を開始位置
データの座標に一致させる場合、ある被験者をモデル
に、カメラ撮影又はセンサ等で収集したデータを動素デ
ータとして動素データベースに登録しているので、アニ
メーション表示するキャラクタとの体格差がある。従っ
て、動素データの開始位置座標と開始位置データの座標
が一致/不一致に関係無く一致させる構成とした。一致
する場合は、移動量「0」として処理する。
【0044】(ii)動素データベースに登録されている
「大丈夫」と言う動素データから、登録されていない
「福岡」と言う動作軌跡を生成する場合。
【0045】「福岡」と言う手話は、お腹(下腹部)の
前で平手を左から右に動かす動作で、動作方向「右」、
動作の大きさコード「3」、動作の開始位置「左脇
腹」、手形状「平手」、動作部品「手、上腕、下腕」、
強/弱手「強手(右)」で表せる。
【0046】「福岡」と言う手話が入力された場合、動
作入力手段101、動作解析手段102、動作辞書10
3では、「大丈夫」と言う手話の場合と同様で、動作軌
跡生成手段104では、「福岡」の動作データの動作方
向「右」、動作の大きさコード「3」を動素データベー
ス105に渡す。動素データベース105では、方向
「右」、大きさコード「3」に対応した、「大丈夫」の
計測データである動素(3)を検索し、動素(3)のデ
ータ(以後、動素データ3と呼ぶ)を動作軌跡生成手段
104に渡す。
【0047】次に動作軌跡生成手段104では、「福
岡」の動作データの開始位置「左脇腹」を、位置データ
ベース106に渡す。位置データベース106では、
「左脇腹」に対応する座標を検索し、検索した位置コー
ド(5)のデータ(以後、開始位置データ5と呼ぶ)を
動作軌跡生成手段104に渡す。
【0048】動作軌跡生成手段104では、動素データ
ベース105から取り出した動素データ3と、位置デー
タベース106から取り出した開始位置データ5から、
動素データの開始位置座標を開始位置データ5の座標に
一致させ、「福岡」と言う手話動作の動作先端部位の動
作軌跡情報(2)を生成する。
【0049】尚、「大丈夫」から新しく生成した「福
岡」と言う動作軌跡情報(2)に違和感があったり、自
然な動作に変更する場合、例えば、入力又は動作辞書1
03等に「お腹(下腹部)に沿った動作」等の動作の詳
細情報又は詳細情報コードを付加することで、動作軌跡
生成手段104において、お腹の曲線に応じた動作方向
に「大丈夫」の計測データを変更/加工することによ
り、自然で違和感の無い動作軌跡を生成できる。
【0050】「お腹」の曲線のデータは、後で説明する
部品データベース108の胴体部品から、「お腹」の曲
線のデータを取り出して、「大丈夫」の計測データの各
点の座標を「お腹」の曲線データに変更する方法でも良
い。
【0051】又、CG等で用いられている、直線を曲線
に変更する手法を用いても良い。又、計測データの方向
を変更/加工する方法は、特に限定せず、より自然で違
和感の無い動作軌跡情報が生成できる手法であれば、ど
のような手法でも良い。
【0052】尚、上記(ii)では、動素データの変更/加
工及び方向を変更する場合について説明したが、動作の
大きさを線形補間等の手法を用いて変更/加工すること
で、新しい動作軌跡情報を生成することができる。
【0053】例えば、「大丈夫」の動素データ3の大き
さを大きさコード2の大きさに線形補間し、動作する手
の先端の開始位置を「唇の左端」に一致させて、右方向
に動作の大きさコード2だけ動作させると「赤」と言う
手話の動作軌跡情報が生成できる。
【0054】尚、動素データの大きさを加工する方法
は、線形補間に限らず、動素データの大きさを変更でき
る手法であればどの様な手法でも良い。
【0055】尚、位置データベース106の各座標デー
タは、キャラクタの変更により、座標値のみを変更し、
キャラクタの各部位のコードはそのままにすることによ
り、動作辞書103や動素データベース105の内容を
変更すること無しに、キャラクタを変更することが可能
になる。
【0056】次に、動作データの手形状「平手」と動作
部位「上腕、下腕、手」及び動作軌跡生成手段104で
生成された「大丈夫」の動作軌跡情報1を、動作生成手
段107に渡し、「大丈夫」の手話動作アニメーション
に必要な骨格モデル(手形状や上半身等)を部品データ
ベース108から取り出す。動作生成手段107では、
動作軌跡情報1と動作部位「上腕、下腕、手」と骨格モ
デル(手形状、上半身等)情報から、動作情報を生成す
る。ここでは、動作部位の各関節の計算は、ロボット工
学等で用いられている、(逆)運動学と(逆)動力学で
計算する。
【0057】尚、上記説明では動作部位を、「上腕、下
腕、手」としたが、動作の先端部位を任意に設定して
「胴体」や「頭」の計算を行っても良い。
【0058】最後に、動作生成手段107で生成された
動作情報を用いてアニメーションデータを生成し、表示
手段109に渡して、「大丈夫」と言う手話を再生させ
る。
【0059】尚、ここでは、動作データの各情報を
「右」や「左肩」等の文字を用いて説明したが、文字に
限定する必要はなく、コードや記号などでも良い。
【0060】次に図2の文解析手段210について説明
する。図2は、図1に文解析手段210を付加した図
で、文解析手段210は、音声や文章等の入力情報を形
態素解析し、動作単語に対応する文字列に変換して、動
作入力手段201に動作単語を入力する手段。
【0061】文解析手段210は、マイクやキーボード
などの入力装置から入力された動作や手話情報を形態素
解析し、形態素単位で動作入力手段201に渡す。
【0062】例えば、「私は、わかります」と言う文章
を手話動作で表現する場合、「私」、「わかる」、「ま
す」の3つの形態素に分解され、それぞれを動作入力手
段に渡す。動作入力手段以降では、上記説明の場合と同
様に各形態素を解析して、アニメーションを生成して、
動作や手話のアニメーションを表示する。
【0063】(実施の形態2)本発明の第2の実施形態
を、「司会」と言う手話文解析手段に入力した場合につ
いて、図2、6、7、8、9、10と「大丈夫」、「わ
かる」の2つの手話動作を参照して説明する。
【0064】はじめに、「司会」、「大丈夫」、「わか
る」の手話動作について説明する。「司会」は、開始点
が「左肩」で、「左肩」から「右肩」へ「右」方向に動
作し、その後「右肩」から「右脇腹」へ「下」方向に動
作する。動作する時の手形状は、「書き手」で、ペンを
持った時の手の形である。
【0065】「大丈夫」は、実施形態1で説明した通り
である。「わかる」は、開始点が「胸中央」で、「胸中
央」から「お腹中央」へ、「下」方向に動作する。動作
する時の手形状は、「平手」で手の平は内側である。
【0066】図2、6、7、8、9、10は、実施形態
1で説明した通りである。次に図2の各手段について説
明する。
【0067】文解析手段210は、マイク又はキーボー
ド等の入力手段から入力された入力情報「〜司会〜」を
形態素解析し、形態素に分割された「司会」と言う手話
単語を出力する。
【0068】文解析手段210から出力された「司会」
と言う手話単語は、動作入力手段201に入力する。
【0069】動作入力手段201では、入力情報「司
会」に対応するコード「1」(以後、動作コード1と呼
ぶ)に変換して動作解析手段202に渡す。
【0070】動作解析手段202では、動作コード1を
動作辞書203に渡し、動作コード1に対応するデータ
(以後、動作データ1と呼ぶ)を取り出し、動作解析手
段202に渡す。
【0071】動作解析手段202に渡された動作データ
1は、動作軌跡生成手段204に渡され、動作軌跡生成
手段204は、動作データ1の「右(3)」と「下
(2)」を動素データベース205に渡す。動素データ
ベース205には、動作の基準となる動素データとし
て、手話動作の「大丈夫」と「わかる」の計測データ
が、動素(3)、(5)として登録されていて、「司
会」の各動素データに対応するため、動作(3)(5)
に対応する動素データ3、5を動作軌跡生成手段204
に渡す。
【0072】又、動作軌跡生成手段204では、開始位
置の「左肩」を位置データベース206に渡し、位置デ
ータベース206は、「左肩」の位置コード(1)に対
応する開始位置データ1を動作軌跡生成手段204に返
す。動作軌跡生成手段204では、まず、動素データ3
と開始位置データ1から開始位置データ1を始点として
右方向に動作する軌跡を生成し、その終点を動素データ
5の開始位置とし、動作軌跡を生成することによって、
手話動作「司会」の、「右」方向に大きさ「3」の動
作、「下」方向に大きさ「2」の動作をする動作軌跡を
生成する。
【0073】尚、組み立てて生成された動作軌跡データ
は、そのまま「司会」動作として再生しても良いが、線
形補間による加工や変曲点(動作「右」と「下」の繋ぎ
目)の変更等を行うことにより、動作軌跡データの調整
を行っても良い。
【0074】動作軌跡生成手段204で生成された動作
軌跡情報(3)と動作データの各部品データは、動作生
成手段207に渡され、以降、実施形態1の場合と同様
に、アニメーションの動作生成に必要な、骨格モデルの
部品を部品データベース208から取り出し、各部品の
動作情報を(逆)運動学や(逆)動力学等の手法を用い
て計算し、アニメーションを生成する。
【0075】動作生成手段207で生成されたアニメー
ションは、表示手段209で「司会」と言う手話動作を
再生する。
【0076】尚、上記では、「司会」と言う手話動作を
入力情報として説明したが、例えば、オーケストラの指
揮者が行う動作(3拍子や4拍子等)等、手話以外の動
作についても、基準データを加工等の処理を施すことに
より、アニメーションを生成できる。
【0077】(実施の形態3)本発明の第3の実施形態
を、「大丈夫」と言う手話動作と、「安心1」と言う感
情と、「うなづく」と言う非手指動作を入力した場合に
ついて、図5と図6、7、8、9、10、11、12、
13、14、15を参照して説明する。
【0078】尚、「安心1」の数字は、安心の度合を表
すパラメータ。はじめに、各図を説明する。
【0079】図6、7、8、9、10は、実施形態1で
説明した通り。図11は、キャラクタの表情を表現する
ためのパラメータを保存している、表情データベース
A。
【0080】図12は、キャラクタの表情を表現するた
めの実写画像を保持している、表情データベースB。
【0081】図13は、表情の強度をコード化して保持
している、表情パラメータで、各コードは、図11、1
2のコードに対応している。
【0082】図14は、動素データベース505に登録
されている各動素データの「大きさ」、「早さ」を基準
として「1」に設定し、「大きさ」や「早さ」の割合を
設定する。
【0083】図15は、非手指動作の「部品名」と部品
が動作する場合の「動作軌跡情報」を保持している。非
手指動作データベース。
【0084】次に、図5を用いて各手段の説明をする。
「大丈夫」と言う手話動作を、文解析手段510に入力
し、実施形態1の場合と同様に、動作解析手段502で
「大丈夫」の動作コードに対応した動作データ3を動作
辞書503から取り出し、動作軌跡生成手段504に渡
す。
【0085】次に「安心1」と言う感情を、感情入力手
段511に入力し、そして、「安心1」と言う感情を感
情入力手段511から動作/表情変換手段512に入力
する。動作/表情変換手段512では、図11、12の
表情変換テーブルより、「安心1」に対応する表情コー
ドa301を選択する。
【0086】そして、表情コードa301に対応する手
指動作パラメータ「大きさ:1」、「速さ:2」を図1
4の手指動作パラメータテーブルから取り出す。
【0087】図14の手指動作パラメータテーブルの各
パラメータは、動素データベース505に登録されてい
る計測データを「1」として、感情の度合に対応した
「大きさ」、「速さ」の倍率をパラメータとして準備し
ている。
【0088】次に「うなずく」と言う非手指動作を、非
手指動作入力手段518に入力する。
【0089】そして、「うなずく」と言う非手指動作を
非手指動作入力手段518から、動作/表情変換手段5
12に入力する。動作/表情変換手段512では、図1
5の非手指動作データベースから「うなずく」に対応す
る、部品名「頭」とその軌跡情報を取り出す。
【0090】上記選択された、各コード及びパラメータ
はそれぞれ、表情コードa301は、表情生成手段51
5に、「大きさ:1」、「速さ:2」は、動作軌跡生成
手段504に入力する。「部品名:頭」と「頭の動作軌
跡情報」は、動作生成手段507に入力される。
【0091】動作軌跡生成手段504では、「大丈夫」
の動作データ3の「右(3)」に対応する動素データ3
を動素データベース505から取り出す。
【0092】次に、動作データ3の開始位置「左肩」に
対応する開始位置データ1を位置データベース506か
ら取り出す。そして、動素データ3と前記位置データ1
と動作/表情変換手段512から入力された、「大き
さ:1」、「速さ:2」とから動作の軌跡を生成する。
そして、生成された動作軌跡情報と動作データの動作部
品と手形状と強手が、動作生成手段507に渡される。
【0093】動作生成手段507では、動作生成に必要
な部品データを部品データベース508から取り出し、
動作軌跡生成手段504から入力された動作軌跡情報と
動作部品と動作/表情変換手段512から入力された、
「うなずく」に対応する「頭」と「頭の動作軌跡情報」
から、腕と頭の動作を(逆)運動学や(逆)動力学を用
いて計算する。
【0094】次に、動作/表情変換手段512で変換さ
れた表情コードを表情生成手段515に渡し、表情生成
手段515は、表情コードを表情データベース516に
渡し、表情データベース516は、表情コードa301
に保存してある表情を生成するためのパラメータを表情
生成手段515に渡す。表情生成手段515では、パラ
メータに応じた表情の生成を既存のアニメーション生成
ツールを用いて生成する。
【0095】尚、ここでは、表情を図11のa301の
データを用いて生成する場合について説明したが、図1
2の実写画像を用いて生成しても良い。又、図11、1
2のデータを用いて、実写とCGの合成を行って生成し
ても良い。
【0096】又、実写の画像をベースにして、実写の表
情を加工して表情を生成しても良い。
【0097】又、表情を合成する場合、表情の変化の度
合に応じて、実写とCGの切替を行うことにより、画像
生成に必要な処理を減らすことが可能となる。
【0098】次に、前記動作生成手段507からの手指
動作の情報と非手指動作の情報と表情生成手段からの表
情の情報を同期手段520に入力し、「大丈夫」と言う
手話動作と「うなずく」と言う非手指動作と表情の開始
時間を一致させて同期をとり、「大丈夫」と言う手話の
手指動作だけでなく、表情や非手指動作も含んだ手話動
作を生成する。
【0099】尚、表情は、うなずいている間は、表情が
見えないため、表情を準備する必要がないので、「うな
ずく」の動作の終了時間と表情の開始時間を一致させる
制御手段を同期手段520内に設け、手指動作と非手指
動作と表情の同期をとる構成にしても良い。
【0100】前記動作生成手段507で生成した動作情
報と、前記同期手段520での同期情報とから、「大丈
夫」、「うなずく」、表情を合成してアニメーションを
生成する。
【0101】前記画像合成517で生成された、「大丈
夫」の手話と、「うなずく」の非手指動作と表情のアニ
メーションを表示手段509で再生する。
【0102】尚、上記説明では、非手指動作についても
説明したが、非手指動作が必要ない場合には、図3に示
す様な構成で、手指動作と表情のアニメーションを生成
してもよい。
【0103】又、手指動作、非手指動作、表情が同時に
始まる場合、同期手段520は、削除して、図4に示す
様な構成で、手指動作、非手指動作、表情のアニメーシ
ョンを生成しても良い。
【0104】(実施の形態4)以下、本発明の第4の実
施形態を図8、図10及び図16を参照して説明する。
【0105】はじめに、各図を説明する。図8は、キャ
ラクタの各部位の座標値を格納した位置データベース。
【0106】図10は、キャラクタの各部位の大きさを
格納した動作量データ格納手段。次に、キャラクタデー
タ(3次元座標)をロードした時の各手段の動作につい
て説明する。
【0107】位置データベースは、ロードされたキャラ
クタの自然な状態(正面を向いて、両手を自然に下ろし
て、直立した状態)の頭頂、両耳の重心、顎の先端、両
眉の両端、両目の両端、鼻先端、口の両端、両肩嶺、鳩
尾、腰の両端、腰の重心、両肘の重心、両手首の重心、
各指の付け根の重心、各指の先端、両足の付け根の重
心、両膝の重心、両足首の重心、両足のかかと、両足の
先端の3次元座標を抽出し、位置データベースの各部品
インデックス毎に格納する。
【0108】次に動作量(部品の大きさ)データは、位
置データベースを参照し、顔の長さ、顔の幅、目の長
さ、眉の長さ、鼻の高さ、口の幅、肩幅、胴の長さ、胸
部の長さ、腹部の長さ、両上腕のの長さ、両下腕の長
さ、両手の手の平の長さ、両手の各指の長さ、両大腿の
長さ、両下腿の長さ、足の長さを抽出する、抽出された
データは、位置データベースの場合と同様、各部品イン
デックス毎に格納する。
【0109】上記のように、位置データ、動作量データ
を各部品インデックス毎に格納し、キャラクタ毎に各部
品インデックス内の値を変更することによって、動作に
対応したインデックスを参照するだけで、異なるキャラ
クタでも、同じインデックスで、同じ動作を表示でき
る。
【0110】尚、位置データ、動作量データは、キャラ
クタデータをロードする時に、キャラクタデータから算
出(抽出)しても良い。又、キャラクターデータの付加
データとして事前に保持しても良い。
【0111】尚、位置データ、動作量データの算出方法
は、例えば、上腕のキャラクタデータ(3次元座標デー
タ)からy方向(高さ)の最大値を肩の座標、最小値を
肘の座標として、その最大座標と最小座標から上腕の長
さを算出する。同様に、各部品のx方向、y方向、z方
向の座標の最大、最小値から位置データを抽出し、その
位置データから動作量データを算出する。
【0112】尚、位置データ、動作量データの算出方法
は、上記方法に限定されず、各部品の座標、各部品の動
作量(大きさ)が算出(抽出)可能であればどのような
方法でも良い。
【0113】尚、位置データベースは、上記部位に限定
されず、必要であればより詳細な各部位の座標を抽出し
ても良い。また、逆に不必要な部位のデータは、削除し
て、位置データベースを構成して良い。
【0114】尚、動作量データベースは、上記部位に限
定されず、必要であればより詳細な各部位の大きさデー
タを抽出して良い。また、逆に不必要な部位のデータ
は、削除して動作量データを構成してよい。
【0115】尚、上記位置データ、動作量データを参照
し、キャラクタが動作する空間領域を、縦方向(y座標
軸)、横方向(x座標軸)、奥行き方向(z座標軸)
に、キャラクタの大きさに合わせて分割する。
【0116】例えば、両手を上(正のy方向)に伸ばし
た状態の手の先端をy方向の最大値、爪先又はかかとの
座標をy方向の最小値、両手を左右水平に伸ばした状態
の左右の手の先端をx方向の最大、最小値、両手を前に
水平に伸ばした状態の手の先端をz方向の最大値、両手
を後ろに水平に伸ばした時の手の先端をz方向の最小値
として、3次元空間領域を等間隔に分割する。
【0117】又、x、y、z方向の最大、最小値を、手
ではなく足を用いて、手の場合と同様の方法で設定し
て、空間領域を分割しても良い。
【0118】尚、空間領域を分割する方法は、x、y、
z方向の最大、最小値から等間隔に分割する方法に限ら
ず、位置データ、動作量データ参照して、y方向は、そ
れぞれの状態の時の肘、頭頂、顎の先端、鳩尾、腰、膝
等、x方向は、肘、肩、鳩尾、耳の重心等、z方向は、
肘、肩、鼻先等を基準にして分割しても良い。
【0119】尚、空間領域を分割する方法は、上記方法
に限らず、例えば、肩を基準点に設定し、右肩を基準に
右腕を上下左右前後に回転して、その時の手の先端の座
標の集合(腕の長さを半径とした球の表面)を右手の最
大値とする曲座標系を用いて、手首、肘等も同様に曲座
標持たせ空間を分割しても良い。
【0120】又、左手に関しても、右手の場合と同様。
又、腰を基準にした場合、腰の曲座標上の各状態の肩の
座標を腕の曲座標の原点として、腕の曲座標を設定す
る。又、足、頭等に関しても腕の場合と同様。
【0121】尚、空間領域の分割は、必要に応じて、詳
細に分割しても、大まかに分割しても良い。
【0122】
【発明の効果】本発明によれば、動素データベースに登
録されていない動作も、登録されている動素データを用
いて、加工や組み立てを行うことにより、新しい動作を
生成することが可能になる。又、全ての動作を保持する
必要がないので、データを登録する作業の削減、保持す
るデータ量の削減が可能となる。
【0123】又、手話動作を生成する場合、手話と手話
の間の動作を、動素データベースに登録されているデー
タを用いて、加工/変更することによって、手話動作を
つくる場合と同様の手法で生成できるので、手話間の動
作を生成するための手法を用意する必要がない。
【0124】又、キャラクタを変更する場合、動作量の
大きさ(値)や位置データベースの座標(値)を変更す
るだけで、いろいろな体格のキャラクタで動作を生成で
きる。
【図面の簡単な説明】
【図1】実施の形態1における動作生成装置の構成を表
す図
【図2】図1の構成に文解析手段を付加した構成を示す
【図3】非手指動作が必要ない場合の動作生成装置の構
成を表す図
【図4】手指動作、非手指動作、表情が同時に始まる場
合の構成を表す図
【図5】実施の形態3における動作生成装置の構成を表
す図
【図6】動作辞書103の内部構造を表す図
【図7】動素データベース101の内部構造を表す図
【図8】位置データベースの内部構造を表す図
【図9】部品データベースの内部構造を表す図
【図10】動作の大きさコードと実際の大きさの関係を
表す図
【図11】キャラクタの表情をCGで表現するためのパ
ラメータを保存している、表情データベースを示す図
【図12】キャラクタの表情を実写で表現するための実
写画像を保持している、表情データベースを示す図
【図13】表情の強度をコード化して保持している、表
情パラメータテーブルを示す図
【図14】動作の「大きさ」や「早さ」の割合を設定し
ている手指動作パラメータテーブルを示す図
【図15】非手指動作の「部品名」と部品が動作する場
合の「動作軌跡情報」を保持している、非手指動作デー
タベースを示す図
【図16】図16は、位置データベース、動作量データ
の値を決定するポイントを示す、キャラクタモデルを示
す図
【符号の説明】
101 動作入力手段 102 動作解析手段 103 動作辞書 104 動作軌跡生成手段 105 動素データベース 106 位置データベース 107 動作生成手段 108 部品データベース 109 表示手段

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】 動作情報を入力する動作入力手段と、前
    記動作入力手段から動作情報を受け取り動作情報を解析
    する動作解析手段と、 動作情報を分解して保持している動作辞書と、種々の動
    作の素となる動素データを保持している動素データベー
    スと、動作の対象となる部品を保持している部品データ
    ベースと、 動作の開始位置の空間情報を保持している位置データベ
    ースと、前記動作解析手段からの入力情報によって、前
    記動素データベースと前記位置データベースの情報を取
    り出し、動作の軌跡情報を生成する動作軌跡生成手段
    と、 前記動作軌跡生成手段からの入力によって、前記部品デ
    ータベースの情報を取り出し、動作を生成する動作生成
    手段と、 動作アニメーションを表示する表示手段を備えた動作生
    成装置。
  2. 【請求項2】 音声又は文字列を解析し、前記動作入力
    手段に動作情報を入力する、文解析手段を設けた請求項
    1記載の動作生成装置。
  3. 【請求項3】 感情を入力する感情入力手段と、感情入
    力情報に対応する表情のパラメータを保持する表情パラ
    メータテーブルと、 感情入力情報に対応する手指動作のパラメータを保持す
    る手指動作パラメータテーブルと、 前記感情入力手段の入力情報を解析して、表情パラメー
    タテーブル及び、手指動作パラメータテーブルからの情
    報に応じてパタメータに変換する動作/表情変換手段
    と、 表情を生成するための表情の実写画像データと表情アニ
    メーションデータを保持する表情データベースと、 前記動作/表情変換手段からの入力に応じて、前記表情
    データベースから必要な情報を取り出して、表情を生成
    する、表情生成手段を設け、前記動作/表情変換成手段
    からの入力情報と、 動作解析手段からの入力情報から、動作軌跡を生成する
    動作軌跡生成手段を備え、前記動作生成手段の動作アニ
    メーション情報と前記表情生成手段の表情アニメーショ
    ン情報を合成するアニメーション合成手段を設けた請求
    項1または請求項2記載の動作生成装置。
  4. 【請求項4】 前記表情生成手段において、前記動作/
    表情変換手段の入力情報に応じた、実写画像情報とアニ
    メーション画像情報を合成して、表情を生成する表情合
    成手段を設けた請求項3記載の動作生成装置。
  5. 【請求項5】 非手指動作を入力する非手指動作入力手
    段を設け、前記非手指動作の入力情報と前記感情入力手
    段の入力情報に応じて、非手指動作を保持している非手
    指動作データベースと、 表情のパラメータを保持している表情パラメータテーブ
    ルと、手指動作に対応するデータを保持している手指動
    作パラメータテーブルとからの情報に応じて、非手指動
    作、感情の入力情報を非手指動作と手指動作と表情のパ
    ラメータに変換する、動作/表情変換手段を備えた請求
    項3または請求項4に記載の動作生成装置。
  6. 【請求項6】 前記動作生成手段の動作アニメーション
    情報と前記表情生成手段の表情情報の同期をとる同期手
    段を設けた請求項3乃至請求項5の何れかに記載の動作
    生成装置。
  7. 【請求項7】 動作の対象となる動作人形モデル(以
    後、キャラクタと呼ぶ)の各部位の大きさを少くとも一
    つ格納している、動作量データ格納手段を設けた請求項
    1乃至請求項6の何れかに記載の動作生成装置。
JP9989797A 1996-09-25 1997-04-17 動作生成装置 Withdrawn JPH10154238A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9989797A JPH10154238A (ja) 1996-09-25 1997-04-17 動作生成装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP8-252598 1996-09-25
JP25259896 1996-09-25
JP9989797A JPH10154238A (ja) 1996-09-25 1997-04-17 動作生成装置

Publications (1)

Publication Number Publication Date
JPH10154238A true JPH10154238A (ja) 1998-06-09

Family

ID=26440993

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9989797A Withdrawn JPH10154238A (ja) 1996-09-25 1997-04-17 動作生成装置

Country Status (1)

Country Link
JP (1) JPH10154238A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272161A (ja) * 1998-03-24 1999-10-08 Hitachi Ltd 手話単語辞書作成方法および辞書学習装置
KR20020017576A (ko) * 2000-08-31 2002-03-07 이준서 화상을 이용한 모션 캡처 시스템과 모션 캡처 방법
JP2007034788A (ja) * 2005-07-28 2007-02-08 Advanced Telecommunication Research Institute International 頭部動作自動生成のための頭部動作学習装置及び頭部動作合成装置並びにコンピュータプログラム
KR100682987B1 (ko) * 2005-12-08 2007-02-15 한국전자통신연구원 선형판별 분석기법을 이용한 3차원 동작인식 장치 및 그방법
JP2007122265A (ja) * 2005-10-26 2007-05-17 Kazuhisa Shimodaira アニメーション編集システム
WO2007066953A1 (en) * 2005-12-08 2007-06-14 Electronics And Telecommunications Research Institute Apparatus for recognizing three-dimensional motion using linear discriminant analysis
JP2010014712A (ja) * 2008-06-30 2010-01-21 Samsung Electronics Co Ltd モーションキャプチャー装置及びモーションキャプチャー方法
KR101006191B1 (ko) * 2002-08-06 2011-01-07 윤재민 가상인격체의 감정표현과 동작구현방법
US8257176B2 (en) 2001-06-29 2012-09-04 Konami Digital Entertainment Co., Ltd. Game device and method for processing images responsive to captured player images
JP2018125000A (ja) * 2017-02-03 2018-08-09 ソニー株式会社 視点変換のためのリアルなリグ付き3次元(3d)モデルアニメーションを生成するための装置及び方法
WO2023000891A1 (zh) * 2021-07-20 2023-01-26 北京搜狗科技发展有限公司 一种数据处理方法、装置、计算机设备和存储介质

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272161A (ja) * 1998-03-24 1999-10-08 Hitachi Ltd 手話単語辞書作成方法および辞書学習装置
KR20020017576A (ko) * 2000-08-31 2002-03-07 이준서 화상을 이용한 모션 캡처 시스템과 모션 캡처 방법
US8257176B2 (en) 2001-06-29 2012-09-04 Konami Digital Entertainment Co., Ltd. Game device and method for processing images responsive to captured player images
KR101006191B1 (ko) * 2002-08-06 2011-01-07 윤재민 가상인격체의 감정표현과 동작구현방법
JP4599606B2 (ja) * 2005-07-28 2010-12-15 株式会社国際電気通信基礎技術研究所 頭部動作自動生成のための頭部動作学習装置及び頭部動作合成装置並びにコンピュータプログラム
JP2007034788A (ja) * 2005-07-28 2007-02-08 Advanced Telecommunication Research Institute International 頭部動作自動生成のための頭部動作学習装置及び頭部動作合成装置並びにコンピュータプログラム
JP2007122265A (ja) * 2005-10-26 2007-05-17 Kazuhisa Shimodaira アニメーション編集システム
KR100682987B1 (ko) * 2005-12-08 2007-02-15 한국전자통신연구원 선형판별 분석기법을 이용한 3차원 동작인식 장치 및 그방법
WO2007066953A1 (en) * 2005-12-08 2007-06-14 Electronics And Telecommunications Research Institute Apparatus for recognizing three-dimensional motion using linear discriminant analysis
JP2010014712A (ja) * 2008-06-30 2010-01-21 Samsung Electronics Co Ltd モーションキャプチャー装置及びモーションキャプチャー方法
US8988438B2 (en) 2008-06-30 2015-03-24 Samsung Electronics Co., Ltd. Motion capture apparatus and method
JP2018125000A (ja) * 2017-02-03 2018-08-09 ソニー株式会社 視点変換のためのリアルなリグ付き3次元(3d)モデルアニメーションを生成するための装置及び方法
WO2023000891A1 (zh) * 2021-07-20 2023-01-26 北京搜狗科技发展有限公司 一种数据处理方法、装置、计算机设备和存储介质

Similar Documents

Publication Publication Date Title
US5953693A (en) Sign language generation apparatus and sign language translation apparatus
Kennaway Synthetic animation of deaf signing gestures
WO2019094618A1 (en) Computer vision based sign language interpreter
US6163322A (en) Method and apparatus for providing real-time animation utilizing a database of postures
Jörg et al. Data-driven finger motion synthesis for gesturing characters
JP7126812B2 (ja) 検出装置、検出システム、画像処理装置、検出方法、画像処理プログラム、画像表示方法、及び画像表示システム
CN110599573A (zh) 一种基于单目相机的人脸实时交互动画的实现方法
KR102195401B1 (ko) Rgb 키포인트 매트릭스 이미지를 이용한 딥러닝 기반 실시간 수어 영상 스트림 인식 방법
Naert et al. A survey on the animation of signing avatars: From sign representation to utterance synthesis
JPH10154238A (ja) 動作生成装置
Sousa et al. Humanized robot dancing: humanoid motion retargeting based in a metrical representation of human dance styles
Nunnari et al. Animating azee descriptions using off-the-shelf ik solvers
Börstell Extracting sign language articulation from videos with MediaPipe
Pausch et al. Tailor: creating custom user interfaces based on gesture
JP3169727B2 (ja) 手話生成装置
Francik et al. Animating sign language in the real time
Kennaway Avatar-independent scripting for real-time gesture animation
Zhao et al. Realizing speech to gesture conversion by keyword spotting
Sutopo et al. Dance gesture recognition using laban movement analysis with j48 classification
Vidalón et al. Continuous sign recognition of brazilian sign language in a healthcare setting
JPH11184370A (ja) 手話情報提示装置
Papadogiorgaki et al. Gesture synthesis from sign language notation using MPEG-4 humanoid animation parameters and inverse kinematics
JP7201984B2 (ja) アンドロイドのジェスチャ生成装置及びコンピュータプログラム
Heloir et al. A qualitative and quantitative characterisation of style in sign language gestures
Van Wyk Virtual human modelling and animation for real-time sign language visualisation

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040318

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040318

RD01 Notification of change of attorney

Effective date: 20040413

Free format text: JAPANESE INTERMEDIATE CODE: A7421

RD01 Notification of change of attorney

Effective date: 20050623

Free format text: JAPANESE INTERMEDIATE CODE: A7421

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20060314