JP2001084375A - 動作検証システムおよび非接触マニピュレーションシステム - Google Patents

動作検証システムおよび非接触マニピュレーションシステム

Info

Publication number
JP2001084375A
JP2001084375A JP25882999A JP25882999A JP2001084375A JP 2001084375 A JP2001084375 A JP 2001084375A JP 25882999 A JP25882999 A JP 25882999A JP 25882999 A JP25882999 A JP 25882999A JP 2001084375 A JP2001084375 A JP 2001084375A
Authority
JP
Japan
Prior art keywords
motion
verification system
person
difference
operation verification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP25882999A
Other languages
English (en)
Inventor
Tatsumi Sakaguchi
竜己 坂口
Atsushi Otani
淳 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Media Integration and Communication Research Laboratories
Original Assignee
ATR Media Integration and Communication Research Laboratories
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Media Integration and Communication Research Laboratories filed Critical ATR Media Integration and Communication Research Laboratories
Priority to JP25882999A priority Critical patent/JP2001084375A/ja
Publication of JP2001084375A publication Critical patent/JP2001084375A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

(57)【要約】 【構成】 動作検証システム10は、カメラ12〜22
を含む。たとえば、オペレータがバットのスイングのト
レーニングを受ける場合には、カメラ12〜16で撮影
されるトレーニのスイングとカメラ18〜22で撮影さ
れるトレーナのスイングとの差異が、カラー画像から得
られる身体の特徴点の3次元座標データに基づいて3次
元的差異検出装置28で検出される。また、それぞれの
スイングは、モニタ30に2画面で(または重ねて)表
示される。さらに、スイングの差異が大きい場合には、
警告ランプ32が点灯する。したがって、トレーニはト
レーナのスイングとの差異を簡単に知ることができる。 【効果】 トレーニングシステムなどに用いられる新規
な動作検証システムを提供することができる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は動作検証システムおよ
び非接触マニピュレーションシステムに関し、特にたと
えば複数の視点から撮影した複数の画像に基づいて身体
の特徴点を検出し、その特徴点から人物の3次元姿勢を
推定する装置を用いた、動作検証システムおよび非接触
マニピュレーションシステムに関する。
【0002】
【従来の技術】この種の従来の動作検証システムおよび
非接触マニピュレーションシステムは存在しなかった。
【0003】
【発明が解決しようとする課題】従来では、非接触で人
物の動きを正確に認識し、基準動作との差異を検証する
ような動作検証システムはなかった。また、非接触で人
物の全部または一部の動きを認識し、その動きをスレー
ブマニピュレーションで再現するようなマニピュレーシ
ョンシステムもなかった。
【0004】それゆえに、この発明の主たる目的は、ト
レーニングシステム,監視システム等に用いられる新規
な動作検証システムおよび非接触マニピュレーションシ
ステムを提供することである。
【0005】
【課題を解決するための手段】第1の発明は、複数の視
点から撮影した複数の画像に基づいて人物の3次元姿勢
を推定する装置を用いた動作検証システムであって、推
定した3次元姿勢に基づいて人物の実時間での動作を検
出する動作検出手段、およびその動作と基準動作とを比
較する比較手段を備える、動作検証システムである。
【0006】第2の発明は、複数の視点から撮影した複
数の画像に基づいて人物の3次元姿勢を推定する装置を
用いた非接触マニピュレーションシステムであって、推
定した3次元姿勢に基づいて人物の実時間での動作を検
出する動作検出手段、およびその動作の全部または一部
をスレーブマニピュレータを用いて再現する再現手段を
備える、非接触マニピュレーションシステムである。
【0007】
【作用】第1の発明の動作検証システムでは、たとえば
複数のカメラを用いて複数の視点で人物を撮影する。そ
して、撮影した画像に基づいて身体の特徴点、すなわち
頭頂点、手先などの特徴的な身体的部位を検出し、その
特徴点から人物の3次元姿勢を推定する。この推定した
3次元姿勢に基づいて、動作検出手段が人物の動作を検
出する。比較手段が、人物の動作と基準動作とを比較す
る。たとえば、野球のバットスイングにおいて、トレー
ナのスイングを基準動作とし、トレーニのスイングを実
時間の人物の動作として互いを比較することができる。
【0008】たとえば、第1表示手段がたとえばCRT
モニタを用いて可視表示する。したがって、トレーナと
トレーニとのスイングを2画面で(または重ねて)表示
することができる。
【0009】また、第2表示手段が、比較手段の比較結
果を表示するので、どの程度の割合でトレーナのスイン
グに近づけているかを具体的に知ることができる。
【0010】さらに、基準動作を他の人物の実時間の動
作から取得するようにしてもよい。つまり、トレーナと
トレーニとが遠隔地にいる場合であっても、トレーニは
実時間でトレーニングを受けることができる。
【0011】さらにまた、基準動作は予め他の人物の動
作を記憶したものを供給してもよい。したがって、この
場合にはトレーナとトレーニとが同時にスイングする必
要がない。また、トレーナのスイングをCRTモニタに
スロー再生すれば、トレーニはスローなスイングでトレ
ーニングすることもできる。
【0012】また、警告手段を設ければ、トレーナのス
イングとトレーニのスイングとの差異が所定量以上であ
る場合に、警告手段を用いて差異が大きいことをトレー
ニに報知することができる。
【0013】たとえば、記憶手段に少なくとも2以上の
基準動作を記録しておき、動作と基準動作とを所定時間
毎に比較する。このような比較動作を、すべての基準動
作について実行し、一番近似している基準動作を人物の
動作に同定することができる。たとえば、握手、抱擁、
挨拶などの基準動作を記憶しておき、検出した動作と比
較し、一番近い基準動作から特定の動作に同定する。
【0014】また、第3表示手段によって、同定した特
定の動作を可視表示すれば、たとえばCRTモニタに表
示されたCGキャラクタを用いて人物の動作を再現させ
ることができる。
【0015】第2の発明の非接触マニピュレーションシ
ステムでは、推定した3次元姿勢に基づいて動作検出手
段が人物の動作を実時間で検出する。この動作をスレー
ブマニピュレータが再現する。このため、危険な作業を
人間の代わりにロボット(スレーブマニピュレータ)に
させることができる。
【0016】たとえば、ロボットを遠隔地で可視表示す
るためのCRTモニタなどの表示装置を設れば、爆発物
などの危険物を安全に取り扱うことができる。
【0017】また、ロボットの動作に関連するおよび周
辺の音声を検出するようにすれば、映像と音声とに基づ
いて作業場の状況を把握することができる。
【0018】
【発明の効果】この発明によれば、非接触で得られた人
物の動作と基準動作と比較するので、新規なトレーニン
グシステムや監視システムを提供することができる。
【0019】他の発明によれば、非接触で得られた人物
の動作をスレーブマニピュレータを用いて再現すること
ができるので、非接触マニピュレーションシステムを実
現することができる。
【0020】この発明の上述の目的,その他の目的,特
徴および利点は、図面を参照して行う以下の実施例の詳
細な説明から一層明らかとなろう。
【0021】
【実施例】図1を参照して、この実施例の動作検証シス
テム10は、カラーカメラ(以下、単に「カメラ」とい
う。)12〜22を含む。カメラ12〜16は第1モー
ションキャプチャシステム24に接続され、カメラ18
〜22は第2モーションキャプチャシステム26に接続
される。第1モーションキャプチャシステム24は、第
1身体動作合成装置27に接続されるとともに、3次元
的差異検出装置28に接続される。また、第2モーショ
ンキャプチャシステム26は、3次元的差異検出装置2
8と第2身体動作合成装置29とに接続される。第1身
体動作合成装置27と第2身体動作合成装置とはモニタ
30に接続され、3次元的差異検出装置28はモニタ3
0および警告ランプ32に接続される。
【0022】また、カメラ12〜22は、人物を正面、
側面および上面(立面)から撮影するために設けられ
る。なお、カメラ12および18が正面用であり、カメ
ラ14および20が側面用であり、カメラ16および2
2が立面用である。したがって、カメラ12〜16でオ
ペレータ(被験者)を撮影し、カメラ18〜22で基準
動作をするオペレータ以外の人物を撮影することができ
る。このため、カメラ12〜16とカメラ18〜22と
は、同じ建物の他の部屋や遠隔地に設置されてもよい。
したがって、カメラ18〜22の遠隔地設置に伴って、
第2モーションキャプチャシステム26も遠隔地等に設
置され、電話回線等のネットワークによって3次元的差
異検出装置28に接続される。このカメラ12〜16で
撮影された映像に対応するカラー画像が第1モーション
キャプチャシステム24に出力され、カメラ18〜22
で撮影された映像に対応するカラー画像が第2モーショ
ンキャプチャシステム26に出力される。
【0023】この第1モーションキャプチャシステム2
4(または第2モーションキャプチャシステム26)
は、図2に示すように、カメラ12〜16(またはカメ
ラ18〜22)のそれぞれに対応して設けられた画像処
理装置40〜44を含む。画像処理装置40〜44は、
3次元座標算出装置46に接続される。3次元座標算出
装置46が、先の3次元的差異検出装置28に対して3
次元座標データを出力する。また、第1モーションキャ
プチャシステム24の3次元座標算出装置46は、第1
身体動作合成装置27にも接続される。さらに、第2モ
ーションキャプチャシステム26の3次元座標算出装置
46は、第2身体動作合成装置29にも接続される。
【0024】画像処理装置40〜44は、それぞれパソ
コン程度の処理能力を有するコンピュータであり、カメ
ラ12〜16(またはカメラ18〜22)から出力され
たカラー画像を処理して各画像上における身体の特徴
点、すなわち頭頂点、手先等の特徴的な身体的部位の2
次元座標を検出する。なお、画像処理装置40〜44
は、時分割的に処理することによって1つないし複数の
より高性能のコンピュータを共有することによって個別
のコンピュータを代替えすることができる。
【0025】画像処理装置40〜44で得られた特徴点
の2次元座標の情報が、3次元座標算出装置46に与え
られる。この3次元座標算出装置46もまた、パソコン
程度の処理能力を有する1台のコンピュータであり、本
件出願人により先に出願された特願平11−11164
5号において開示されているように、特徴点の2次元座
標を三角測量の原理で3次元に復元するとともに、復元
したデータ(3次元座標データ)が妥当であるかどうか
を、たとえば初期的に設定されている人物の身体データ
に基づいて検証する。言い換えると、複数の視点から得
られるカラー画像、つまり正面,立面および側面に対応
するカラー画像に基づいて、オペレータまたはオペレー
タ以外の人物の3次元的な姿勢(3次元姿勢)が推定さ
れる。
【0026】オペレータ側の第1モーションキャプチャ
システム24の3次元座標算出装置46で得られた3次
元座標データが、3次元的差異検出装置28に与えられ
る。また、第1モーションキャプチャシステム24で得
られた3次元座標データは、第1身体動作合成装置27
にも与えられる。第1身体動作合成装置27は、第1モ
ーションキャプチャシステム24から得られる3次元座
標データに基づいて、コンピュータグラフィックスの手
法により、CGキャラクタを用いてアバタと呼ばれるオ
ペレータの分身を仮想3次元環境内に再現または再生す
る。このオペレータに対応するCGキャラクタのデータ
(モーションデータ)がモニタ30に与えられる。
【0027】また、オペレータ以外の人物側の第2モー
ションキャプチャシステム26の3次元座標算出装置4
6で得られた3次元座標データも、3次元的差異検出装
置28に与えられる。また、第2モーションキャプチャ
システム26で得られた3次元座標データは、第2身体
動作合成装置29にも与えられる。第2身体動作合成装
置29は、第2モーションキャプチャシステム26から
得られる3次元座標データに基づいて、第1身体動作合
成装置27と同様に、オペレータ以外の人物の分身を仮
想3次元環境内に再現または再生する。このオペレータ
以外の人物に対応するCGキャラクタのモーションデー
タもまた、モニタ30に与えられる。
【0028】3次元的差異検出装置28は、第1モーシ
ョンキャプチャシステム24および第2モーションキャ
プチャシステム26のそれぞれから出力される3次元座
標データを所定時間(たとえば、10ms)毎に比較
し、オペレータの動作とオペレータ以外の人物の基準動
作との差異を検出する。つまり、所定時間毎に比較され
る3次元座標データは1画面分の静止画像データであ
り、その瞬間の姿勢が比較される。続いて、それぞれの
姿勢の比較結果(誤差量)に基づいて互いの動作の差異
を検出する。たとえば、動作の開始から終了までの時間
が10秒であれば、100個の誤差量が得られ、これら
の平均値を算出することにより、互いの動作の差異が検
出される。
【0029】そして、差異(誤差量の平均値)が所定量
より大きい場合には、3次元的差異検出装置28は警告
ランプ32を点灯させる。一方、差異が所定量より小さ
い場合には、警告ランプ32は消灯されたままである。
ここで、所定量はオペレータの動作が他の人物の基準動
作にどの程度近似しているかを示す割合であり、その値
はオペレータが自由に設定できる。なお、上述のような
カラー画像による人物の3次元姿勢の推定方法および装
置は、本件出願人により先に出願された平成11年特許
願第111645号に詳細に示されている。
【0030】この発明は、図3に示すような、具体的な
トレーニングシステムに適用することができる。つま
り、オペレータ(トレーニ)がカメラ12〜16で撮影
され、トレーニのアバタとしてのCGキャラクタがモニ
タ30の下側に表示される。一方、オペレータ以外の人
物(トレーナ)がカメラ18〜22で撮影され、トレー
ナのアバタとしてのCGキャラクタがモニタ30の上側
に表示される。したがって、トレーニがモニタ30を見
ることによって、トレーナの動作(スイング)との差異
を簡単に知ることができる。なお、図3では分かり易く
説明するために、トレーナとトレーニとを2画面に表示
するようにしたが、重ねて表示するようにすれば差異を
より簡単かつ明確に知ることができる。
【0031】ここで、3次元的差異検出装置28が差異
の量を検出し、所定量(たとえば、40%)以上の差異
がある場合に警告ランプ32を点灯させる。このよう
に、警告ランプ32を用いてトレーナのスイングとの差
異の大小を知ることができるが、具体的な数値を表示す
るようにしてもよい。つまり、何パーセントの割合でト
レーナと同じスイングができているかが表示される。ま
た、点数で表示するようにしてもよい。このように、数
値で表示する場合には、警告ランプ32の代わりに他の
表示装置を設けてもよく、また点数等の数値をモニタ3
0の画面で表示するようにしてもよい。さらに、モニタ
30を用いて、たとえば“右肩が下がっています。”な
どのように、具体的に身体のどの部分の動作に差異があ
るかを表示させるようにしてもよい。このように、数値
等で差異を表示する場合には、特にトレーナのスイング
とトレーニのスイングとを表示しなくもよい。
【0032】また、図1の実施例では、同時にトレーナ
とトレーニとがスイングして、その差異を検出するよう
にしたが、図4に示す変形例を用いることもできる。つ
まり、モーションキャプチャ26と3次元的差異検出装
置28との間に第2の3次元座標データ記憶装置34が
さらに設けられる。なお、図4では、第2の3次元座標
データ記憶装置34が設けられた以外は図1と同じであ
るため、重複した説明は省略する。
【0033】図4に示す変形例では、第2モーションキ
ャプチャシステム26からの出力、つまり基本動作を示
すトレーナのスイングの3次元座標データが第2の3次
元座標データ記憶装置34に記憶される。したがって、
3次元的差異検出装置28が第2の3次元座標データ記
憶装置34から予め記憶しておいたトレーナのスイング
に対応する3次元座標データを読み出し、第2身体動作
合成装置29に供給する。したがって、記憶されていた
トレーナのスイングが第2身体動作合成装置29を用い
て再生され、これを見ながらトレーニはトレーニングす
ることができる。また、図1実施例と同様にその差異を
3次元的差異検出装置28が検出し、差異が所定量より
大きい場合には、警告することもできる。このように、
リアルタイムでなく、非同期にトレーナとトレーニとが
スイングするようなトレーニングシステムにも適用する
ことができる。また、トレーナのスイングをスロー再生
すれば、トレーニはスローなスイングでトレーニングす
ることもできる。
【0034】なお、図1および図4実施例では、野球の
スイングのトレーニングシステムについて示したが、ピ
ッチャーの投球フォーム、各種スポーツのフォーム(ゴ
ルフのスイングやボーリングの投球フォームなど)、拳
法,太極拳および空手などの型および各種ダンスの振り
付けなどのあらゆるトレーニングシステムに適用するこ
とができる。
【0035】さらに、他の変形例として図5に示す動作
検証システム10を用いて、オペレータの動作を2以上
の基準動作と比較し、2以上の基準動作から同じ動作を
同定することができる。たとえば、基準動作は「握
手」、「抱擁」、「挨拶」、「殴る」、「蹴る」などで
ある。なお、この動作検証システム10は、第1の3次
元座標データ記憶装置36を設け、警告ランプ32を削
除した以外は、図4実施例と同じであるため、重複した
説明は省略する。
【0036】この動作検証システム10では、オペレー
タの動作を撮影し、カラー画像から得られた3次元座標
データが第1の3次元座標データ記憶装置36に記憶さ
れる。一方、上述のような2以上の基準動作が予め撮影
され、それぞれの基準動作に対応する3次元座標データ
が第2の3次元座標データ記憶装置34に記憶されてい
る。したがって、3次元的差異検出装置28は、第1の
3次元座標データ36および第2の3次元座標データ記
憶装置34を制御して、オペレータの動作に対応する3
次元座標データを出力させるとともに、基準動作に対応
する3次元座標データを出力させる。3次元的差異検出
手段28は、所定時間(たとえば、10ms)毎に互い
の3次元座標データを比較し、その差異を検出する。
【0037】このような動作を、3次元的差異検出手段
28は、すべての基準動作について実行し、差異が最も
少ない、つまり最も近似している(この実施例では、8
0%以上の割合で近似している)基準動作をオペレータ
の動作と同じ動作に同定する。オペレータの動作が同定
されると、3次元的差異検出装置28は第2の3次元座
標データ記憶装置34から同定した基準動作に対応する
3次元座標データを読み出す。すると、第2身体動作合
成装置29からモーションデータが出力され、モニタ3
0に表示されたCGキャラクタに同定した基準動作を再
現させることができる。なお、差異が最も少なくても、
80%に満たない場合には、3次元的差異検出装置28
は該当する基準動作がないと判断し、モニタ30のCG
キャラクタには、何の動作もさせず、該当なしの旨を表
示する。
【0038】たとえば、このような図5に示す動作検証
システム10を用いることにより、ゲームや映画などの
登場人物にオペレータの動作を再現させることができ
る。つまり、3次元的差異検出装置28によって複数の
基準動作との差異を検出して最も近い基準動作を選択
し、その動作によってゲームや映画などのストーリの展
開を違わせるなどすれば、オペレータが登場人物とな
り、ストーリなどの展開を操るようなこともできる。
【0039】図6に示す、他の実施例の動作検証システ
ム10では、先の実施例の3次元的差異検出装置28を
同様の3次元的差異検出装置を含む監視装置50に置き
換え、さらに顔の表情を検出するためのカメラ52およ
び顔表情検出装置54を設け、第2身体動作合成装置2
9を削除した以外は、図4に示す実施例と同じであるた
め、重複した説明は省略する。
【0040】この図6に示す動作検証システム10は、
特定の動作を監視する監視システムとして適用すること
ができる。つまり、モデルの所定の動作(基準動作)を
カメラ18〜22で撮影し、その動作に対応する3次元
座標データを第2の3次元座標データ記憶装置34に予
め記憶しておく。そして、監視する対象の人物(対象人
物)が所定の動作を実行すると、対象人物の動作がカメ
ラ12〜16で撮影される。また、カメラ52で対象人
物の顔が撮影される。監視装置50は、対象人物の所定
の動作に応じて記憶しておいた基準動作に対応する3次
元座標データを第2の3次元座標データ記憶装置34を
制御して逐次読み出し(再生し)、対象人物の動作との
差異を検出する。また、顔表情検出装置54は、カメラ
52から出力される顔画像に基づいて対象人物の目の動
きなどを検出し、監視装置50に出力する。つまり、対
象人物の動作と顔の表情が検出され、たとえば顔があち
らこちらに向いたり、目が泳いだりするなどの挙動不
審、または危険な作業の手順の間違えなどを検出する
と、監視装置50は警告ランプ32を用いて警告を発す
る。
【0041】したがって、警告ランプ32が設置されて
いる場所の付近にいる人物がモニタ30に表示されたC
Gキャラクタ(アバタ)を通して挙動不審の対象人物を
実時間で監視することができ、また危険な作業をしてい
る対象人物に対しては、手順が間違えていることを知ら
せることができる。さらに、危険な作業をしている対象
人物が直接警告ランプ32を見ることができる位置に警
告ランプ32を配置するようにしてもよい。なお、図6
において、第2身体動作合成装置29を削除したが、動
作検証システム10を危険な作業の監視システムとして
適用する場合には、図4と同様に第2身体動作合成装置
29を設け、基準動作をモニタ30に表示すれば、一目
でその動作(作業)の差異を知ることができる。
【0042】具体的には、図7に示すような、銀行など
のATMの監視システムに適用することができる。対象
人物(被験者)が、たとえばお金を引き出す場合には、
各種サービスを案内するためのタッチパネルの“お引き
出し”を指で押さえる。これに応じて、監視装置50は
第2の3次元座標データ記憶装置34にお金を引き出す
場合の基準動作の3次元座標データの再生を指示する。
つまり、対象人物の動作と予め記憶されたお金の引き出
しに関連した基準動作との差異が検出される。また、た
とえばお金の引き出しでは行わない動作を対象人物が行
った場合には、監視装置50が挙動不審と判断して警告
ランプ32を動作させる。さらに、このときカメラ52
で顔が撮影され、顔画像に基づいて顔表情が検出され
る。したがって、監視装置50が挙動不審を検出する
と、警告ランプ32を用いてたとえば警備員に知らせる
ことができる。したがって、警備員はモニタ30を見
て、実時間で監視でき、また不審な行動が続くようであ
れば、ATMが設置されている場所に向かえばよい。
【0043】なお、複数の人物の所定の動作を検出する
ためのカメラ18〜22および第2第2モーションキャ
プチャシステム26を設けているが、ATMに適用する
場合には、カメラ12〜16および第1モーションキャ
プチャシステム24を用いて予めデータを記憶しておい
てもよい。つまり、カメラ18〜22および第2モーシ
ョンキャプチャシステム26を省略することができる。
また、このようにATMに適用する場合には、カメラ1
2〜16および52は各ATMにそれぞれ対応して設置
する必要があるが、他の装置は遠隔地に設けてもよい。
つまり、モニタ30および警告ランプ32を監視する人
物の近傍に設置さえすればよい。
【0044】その他の実施例の非接触マニピュレーショ
ンシステム(以下、単に「システム」という。)60を
図8に示す。このシステム60は、スレーブマニピュレ
ータ(以下、単に「マニピュレータ」という。)62を
含む。なお、カメラ12〜16,第1モーションキャプ
チャシステム24およびモニタ30は、上述の図1実施
例等と同じであるため、同じ参照番号を付してある。マ
ニピュレータ62の関節角度を計算するための関節角度
計算装置64が、第1モーションキャプチャシステム2
4に接続される。関節角度計算装置64は、パソコン程
度の処理能力を有するコンピュータであり、第1モーシ
ョンキャプチャシステム24から出力される3次元座標
データに基づいてマニピュレータ62の関節角度を計算
する。その計算結果が駆動装置66に与えられ、駆動装
置66の指示に従ってマニピュレータ62が駆動され
る。つまり、オペレータの動きをマニピュレータ62で
再現することができる。駆動装置66もまた、パソコン
程度の処理能力を有するコンピュータである。
【0045】また、関節角度計算装置64の計算結果
が、仮想環境生成装置68に出力される。仮想環境生成
装置68もまた、パソコン程度の処理能力を有するコン
ピュータであり、この計算結果に基づいてマニピュレー
タ62の動きを推定して、仮想環境においてCGキャラ
クタで表現するためのモーションデータを生成する。ま
た、仮想環境生成装置68は、そのCGキャラクタの動
きに関連するおよび周辺の音声を推定した音声データ、
つまり仮想環境の音声データを生成する。生成されたモ
ーションデータは、画像出力装置70を介してモニタ3
0から出力される。また、生成された音声データは、音
声出力装置72を介してスピーカ74から出力される。
【0046】さらに、マニピュレータ62の近傍には、
カメラ76およびマイク78が設けられる。カメラ76
は、マニピュレータ62を撮影し、つまり実際のマニピ
ュレータ62および周辺の映像に対応する画像データが
画像出力装置70に与えられる。また、マイク78に
は、マニピュレータ62に関連するおよび周辺の音声、
つまりマニピュレータ62が設置された場所(空間)の
音声が入力され、その音声に対応する音声データが音声
出力装置72に与えられる。つまり、マニピュレータ6
2の実際の動きおよびマニピュレータ62が設置された
空間の実際の音声が与えられる。
【0047】つまり、画像出力装置70では、仮想環境
生成装置68から出力されたモーションデータとカメラ
76から出力された画像データとが切り換えられる。ま
た、音声出力装置72では、仮想環境生成装置68から
出力された音声データとマイク78から出力された音声
データとが切り換えられる。さらに、画像出力装置70
は、モーションデータおよび画像データの両方を出力す
るようにしてもよい。したがって、モニタ30には、生
成したマニピュレータ62および周辺の映像または実際
のマニピュレータ62および周辺の映像を切り換えて表
示することができる。この場合には、モニタ30に表示
されている映像に対応する音声データが音声出力装置7
2から出力される。また、生成したマニピュレータ62
および周辺の映像と実際のマニピュレータ62および周
辺の映像とを2画面に分割して表示したり、重ねて表示
するようにしてもよい。この場合には、生成された音声
データとマイク78から出力された音声データとが切り
換えられ、いずれか一方の音声データが音声出力装置7
2から出力される。
【0048】なお、その他の実施例では、マニピュレー
タ62および駆動装置66が遠隔地に設けられ、関節角
度計算装置64と駆動装置66とが電話回線等で接続さ
れる。また、マニピュレータ62のみを遠隔地に設ける
ようにしてもよく、この場合には駆動装置66とマニピ
ュレータとが電話回線等で接続される。
【0049】したがって、オペレータは、モニタ30に
表示されたCGキャラクタおよびスピーカ74から出力
される音声によって、マニピュレータ62が設置された
空間(作業場)の状況を把握でき、遠隔地においてマニ
ピュレータ62を用いて作業することができる。このた
め、作業の対象物がたとえば爆発物、薬品および放射性
物質のような危険物であっても、安全に取り扱うことが
できる。
【0050】具体的には、図9と図10とによって示さ
れるマニピュレーションシステムに適用することができ
る。図9に示すように、オペレータ側では、カメラ12
〜16でオペレータが撮影される。このマニピュレーシ
ョンシステムでは、図10に示すように、人物の肩から
指先まで(身体の一部)と同様の動きを再現できるマニ
ピュレータ62を用いているため、オペレータの肩から
指先までを撮影できるように、カメラ12〜16を配置
すればよい。つまり、オペレータの肩,肘,手首,指の
関節および腕の動きをマニピュレータ62で再現するこ
とができる。したがって、オペレータは、モニタ30に
表示される作業場の映像とスピーカ74から出力される
作業場の音声とによって、作業場の状況を把握し、腕等
を動かして作業場の対象物を取り扱うことができる。一
方、図10に示す作業場では、マニピュレータ62が人
物の腕等の動きを再現し、対象物が取り扱われるととも
に、マニピュレータ62がカメラ76で撮影され、作業
場の音声がマイク78に入力される。上述したように、
作業の対象物が危険物である場合には、オペレータの存
在する空間と作業場とを遠隔地に設けるようにすれば、
安全に作業をすることができる。
【0051】なお、この実施例では、マニピュレータを
用いて身体の一部の動作を再現させるようにしたが、身
体の全部の動作を再現させるようなマニピュレータにも
適用できることは言うまでもない。
【0052】これらの実施例によれば、カラー画像を用
いて人物の動きを検出し、検出した動作と基準動作との
差異を可視表示するので、新規なトレーニングシステム
や監視システムを提供することができる。また、検出し
た動作をマニピュレータを用いて再現するので、非接触
マニピュレーションシステムを実現することができる。
【0053】なお、これらの実施例では、オペレータ等
の動作の撮影には3台のカメラで正面,側面および立面
を撮影するようにしたが、3台のカメラでは身体領域の
1/4が死角となるため、さらにカメラを設けて光学的
な死角をなくすようにすれば、より正確に人物の動きを
検出できる。
【0054】また、これらの実施例では、カラーカメラ
を用いてオペレータ等の動作を検出するようにしたが、
モノクロ用のカメラであってもよい。しかし、モノクロ
では、身体の一部、たとえば手先が他の部位、たとえば
胴体と重なる場合には、その部位を検出することができ
ない。つまり、カラーカメラを用いて、カラー画像によ
り人物の動作を検出する方が、動作検出の精度を高くす
ることができる。
【0055】さらに、これらの実施例では、警告ランプ
を用いるようにしたが、警告ブザーや具体的に音声で警
告を報知するようなスピーカを用いてもよい。
【図面の簡単な説明】
【図1】この発明の一実施例を示す図解図である。
【図2】図1実施例に示すモーションキャプチャを示す
図解図である。
【図3】図1実施例の具体例を示す図解図である。
【図4】図1実施例の変形例を示す図解図である。
【図5】図1実施例の他の変形例を示す図解図である。
【図6】この発明の他の実施例を示す図解図である。
【図7】図6実施例の具体例を示す図解図である。
【図8】他の発明の一実施例を示す図解図である。
【図9】図8実施例の具体例の一部を示す図解図であ
る。
【図10】図8実施例の具体例の他の一部を示す図解図
である。
【符号の説明】
10 …動作検証システム 12,14,16,18,20,22 …カメラ 24 …第1モーションキャプチャシステム 26 …第2モーションキャプチャシステム 27 …第1身体動作合成装置 28 …3次元的差異検出装置 29 …第2身体動作合成装置 30 …モニタ 32 …警告ランプ 34 …第2の3次元座標データ記憶装置 36 …第1の3次元座標データ記憶装置 40,42,44 …画像処理装置 46 …3次元座標算出装置 50 …監視装置 60 …非接触マニピュレーションシステム 62 …マニピュレータ 64 …関節角度計算装置 68 …仮想環境生成装置
───────────────────────────────────────────────────── フロントページの続き (72)発明者 大谷 淳 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール知能映 像通信研究所内 Fターム(参考) 2F065 AA04 AA09 AA32 AA37 BB15 CC16 DD00 FF04 FF05 FF09 FF61 JJ03 JJ05 JJ19 JJ26 QQ25 QQ31 QQ42 RR07 RR09 SS09 SS13 SS15 TT03 4C038 VA04 VB35 VC05 5B057 AA05 AA19 BA11 CA13 CB13 CE08 CH11 DA15 DA16 DB03 DC05 DC32

Claims (11)

    【特許請求の範囲】
  1. 【請求項1】複数の視点から撮影した複数の画像に基づ
    いて人物の3次元姿勢を推定する装置を用いた動作検証
    システムであって、 推定した3次元姿勢に基づいて前記人物の実時間での動
    作を検出する動作検出手段、および前記動作と基準動作
    とを比較する比較手段を備える、動作検証システム。
  2. 【請求項2】前記人物の実時間での動作および基準動作
    を可視表示する第1表示手段をさらに備える、請求項1
    記載の動作検証システム。
  3. 【請求項3】前記比較手段の比較結果を可視表示する第
    2表示手段をさらに備える、請求項1または2記載の動
    作検証システム。
  4. 【請求項4】前記比較手段は、他の人物の実時間での動
    作から前記基準動作を取得する取得手段を含む、請求項
    1ないし3のいずれかに記載の動作検証システム。
  5. 【請求項5】他の人物の動作を予め記憶する第1記憶手
    段、および予め記憶した前記他の人物の動作を前記比較
    手段に前記基準動作として供給する供給手段をさらに備
    える、請求項1ないし3のいずれかに記載の動作検証シ
    ステム。
  6. 【請求項6】前記動作と前記基準動作との差異が所定量
    以上であれば警告する警告手段をさらに備える、請求項
    1ないし5のいずれかに記載の動作検証システム。
  7. 【請求項7】前記動作を記憶する第2記憶手段、少なく
    とも2以上の基準動作を記憶する第3記憶手段、および
    同定手段をさらに備え、前記比較手段は前記動作と前記
    2以上の基準動作のそれぞれとを比較し、 前記同定手段は前記比較手段の比較結果に基づいて前記
    動作を前記基準動作に同定する、請求項1記載の動作検
    証システム。
  8. 【請求項8】前記同定した前記基準動作を可視表示する
    第3表示手段をさらに備える、請求項7記載の動作検証
    システム。
  9. 【請求項9】複数の視点から撮影した複数の画像に基づ
    いて人物の3次元姿勢を推定する装置を用いた非接触マ
    ニピュレーションシステムであって、 推定した3次元姿勢に基づいて前記人物の実時間での動
    作を検出する動作検出手段、および前記動作の全部また
    は一部をスレーブマニピュレータを用いて再現する再現
    手段を備える、非接触マニピュレーションシステム。
  10. 【請求項10】前記スレーブマニピュレータを遠隔地で
    可視表示するための表示手段をさらに備える、請求項9
    記載の非接触マニピュレーションシステム。
  11. 【請求項11】前記スレーブマニピュレータの動作に関
    連するおよび周辺の音声を検出する音声検出手段をさら
    に備える、請求項10記載の非接触マニピュレーション
    システム。
JP25882999A 1999-09-13 1999-09-13 動作検証システムおよび非接触マニピュレーションシステム Pending JP2001084375A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25882999A JP2001084375A (ja) 1999-09-13 1999-09-13 動作検証システムおよび非接触マニピュレーションシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25882999A JP2001084375A (ja) 1999-09-13 1999-09-13 動作検証システムおよび非接触マニピュレーションシステム

Publications (1)

Publication Number Publication Date
JP2001084375A true JP2001084375A (ja) 2001-03-30

Family

ID=17325616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25882999A Pending JP2001084375A (ja) 1999-09-13 1999-09-13 動作検証システムおよび非接触マニピュレーションシステム

Country Status (1)

Country Link
JP (1) JP2001084375A (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006520476A (ja) * 2003-03-13 2006-09-07 ソニー ピクチャーズ エンターテインメント モーションキャプチャシステム及び方法
JP2007151647A (ja) * 2005-12-01 2007-06-21 Sony Computer Entertainment Inc 画像処理装置、画像処理方法及びプログラム
JP2008522324A (ja) * 2004-12-03 2008-06-26 ソニー株式会社 顔動作および身体動作を取り込むシステムおよび方法
JP2010517731A (ja) * 2007-02-14 2010-05-27 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 身体運動を指導及び監督するフィードバック装置
CN101833791A (zh) * 2010-05-11 2010-09-15 成都索贝数码科技股份有限公司 一种单摄像机下的场景建模方法及系统
JP2011240047A (ja) * 2010-05-20 2011-12-01 Rie:Kk 生体情報検出装置並びに被検者監視システム及び方法
JP2012066026A (ja) * 2010-09-27 2012-04-05 Sony Corp 情報処理装置及び方法、並びにプログラム
JP2013192804A (ja) * 2012-03-21 2013-09-30 Casio Computer Co Ltd 画像処理装置、画像処理方法及びプログラム
CN103778639A (zh) * 2014-02-19 2014-05-07 重庆科技学院 用于智能视频监控的快速标定方法
JP2015102665A (ja) * 2013-11-25 2015-06-04 三洋電機株式会社 情報通信端末装置
JP2018085574A (ja) * 2016-11-21 2018-05-31 カシオ計算機株式会社 画像処理装置、解析システム、画像処理方法及びプログラム
JPWO2017033362A1 (ja) * 2015-08-25 2018-06-14 川崎重工業株式会社 遠隔操縦マニピュレータシステム及びその運転方法
WO2020144835A1 (ja) * 2019-01-11 2020-07-16 ソニー株式会社 情報処理装置および情報処理方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006520476A (ja) * 2003-03-13 2006-09-07 ソニー ピクチャーズ エンターテインメント モーションキャプチャシステム及び方法
US7573480B2 (en) 2003-05-01 2009-08-11 Sony Corporation System and method for capturing facial and body motion
JP2008522324A (ja) * 2004-12-03 2008-06-26 ソニー株式会社 顔動作および身体動作を取り込むシステムおよび方法
JP2007151647A (ja) * 2005-12-01 2007-06-21 Sony Computer Entertainment Inc 画像処理装置、画像処理方法及びプログラム
JP2010517731A (ja) * 2007-02-14 2010-05-27 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 身体運動を指導及び監督するフィードバック装置
CN101833791A (zh) * 2010-05-11 2010-09-15 成都索贝数码科技股份有限公司 一种单摄像机下的场景建模方法及系统
JP2011240047A (ja) * 2010-05-20 2011-12-01 Rie:Kk 生体情報検出装置並びに被検者監視システム及び方法
JP2012066026A (ja) * 2010-09-27 2012-04-05 Sony Corp 情報処理装置及び方法、並びにプログラム
JP2013192804A (ja) * 2012-03-21 2013-09-30 Casio Computer Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2015102665A (ja) * 2013-11-25 2015-06-04 三洋電機株式会社 情報通信端末装置
CN103778639A (zh) * 2014-02-19 2014-05-07 重庆科技学院 用于智能视频监控的快速标定方法
JPWO2017033362A1 (ja) * 2015-08-25 2018-06-14 川崎重工業株式会社 遠隔操縦マニピュレータシステム及びその運転方法
JP2018085574A (ja) * 2016-11-21 2018-05-31 カシオ計算機株式会社 画像処理装置、解析システム、画像処理方法及びプログラム
WO2020144835A1 (ja) * 2019-01-11 2020-07-16 ソニー株式会社 情報処理装置および情報処理方法

Similar Documents

Publication Publication Date Title
JP5547968B2 (ja) 身体運動を指導及び監督するフィードバック装置及びその作動方法
JP2022535325A (ja) 人工現実システムのための腕注視駆動のユーザインターフェース要素ゲーティング
US20070021199A1 (en) Interactive games with prediction method
US20120293506A1 (en) Avatar-Based Virtual Collaborative Assistance
JP2001084375A (ja) 動作検証システムおよび非接触マニピュレーションシステム
JP2003242527A (ja) 情報処理装置および方法
US11331805B2 (en) Motion restriction system and method
JP2022535182A (ja) ユーザインターフェース要素をゲーティングするパーソナルアシスタント要素を備えた人工現実システム
JP2022535322A (ja) 人工現実システムのための角を識別するジェスチャー駆動のユーザインターフェース要素ゲーティング
US11442685B2 (en) Remote interaction via bi-directional mixed-reality telepresence
JPWO2019187862A1 (ja) 情報処理装置、情報処理方法、および記録媒体
EP3528024B1 (en) Information processing device, information processing method, and program
US11714281B2 (en) Image generation device, image display system, and information presentation method
JP2001273503A (ja) モーション認識システム
JP3948202B2 (ja) 避難仮想体験システム
KR20210148765A (ko) 실감형 소방훈련 시뮬레이터
US20190355281A1 (en) Learning support system and recording medium
LIU et al. A preliminary study of kinect-based real-time hand gesture interaction systems for touchless visualizations of hepatic structures in surgery
JP2000338858A (ja) 仮想空間体感装置
WO2012026681A9 (ko) 네트워크를 이용한 가상현실 무도 시스템 및 그 제어 방법
JP2009153583A (ja) 人体動作を感知可能な電子ゲームコントローラ
JP6781324B2 (ja) シミュレーション制御装置及びシミュレーション制御プログラム
KR20150044243A (ko) 손 아바타를 이용한 콘텐츠 제어가능 전자학습 장치 및 방법
WO2012026680A2 (ko) 가상현실 무도 장치 및 그 제어 방법
JP3614278B2 (ja) 眼球訓練装置及び方法並びに記録媒体

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20030506