JP2000163178A - 仮想キャラクタとのインタラクション装置、及び仮想キャラクタの映像を生成するプログラムを記憶した記憶媒体 - Google Patents

仮想キャラクタとのインタラクション装置、及び仮想キャラクタの映像を生成するプログラムを記憶した記憶媒体

Info

Publication number
JP2000163178A
JP2000163178A JP33528398A JP33528398A JP2000163178A JP 2000163178 A JP2000163178 A JP 2000163178A JP 33528398 A JP33528398 A JP 33528398A JP 33528398 A JP33528398 A JP 33528398A JP 2000163178 A JP2000163178 A JP 2000163178A
Authority
JP
Japan
Prior art keywords
virtual character
sensitivity
user
action
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP33528398A
Other languages
English (en)
Inventor
Yoshiaki Usami
芳明 宇佐美
Norito Watanabe
範人 渡辺
Masanori Miyoshi
雅則 三好
Yoshifumi Fukuda
善文 福田
Toshiyuki Kuwana
利幸 桑名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP33528398A priority Critical patent/JP2000163178A/ja
Publication of JP2000163178A publication Critical patent/JP2000163178A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

(57)【要約】 【課題】仮想キャラクタを見ている利用者の状態に応じ
て仮想キャラクタの行動を決定することにより、より現
実感のあるインタラクション装置を提供する。 【解決手段】仮想キャラクタ6の姿勢データと利用者の
行動に応じた仮想キャラクタの動作を規定した動作生成
ルールを設定するモデル設定部14と、利用者の行動を
取得するカメラ2と、利用者の発する音声を取得するマ
イク3と、映像取得装置により取得した映像を認識する
画像認識部9と、音声取得装置により取得した音声を認
識する音声認識部10と、仮想キャラクタの姿勢データ
と、映像取得装置または音声取得装置の向きに応じて仮
想キャラクタの感度を算出する感度算出部12と、画像
認識部及び音声認識部により認識した認識結果と、感度
算出部により算出した感度に応じて、ディスプレイに表
示する仮想キャラクタの映像を生成する映像生成部11
により構成される。

Description

【発明の詳細な説明】
【0001】
【発明の属する利用分野】本発明は仮想空間に存在する
CGキャラクタとのインタラクションを図るための装置
に係わり、特にアミューズメント施設などでの利用者用
のユーザーインタフェース手段として好適な、仮想キャ
ラクタとのインタラクション装置に関する。
【0002】
【従来の技術】旧来のアミューズメント施設では予め作
成されている映像を見るだけで、いわゆる受動的なコン
テンツが多かった。しかしながら、最近ではCG技術の
発達により必要な映像を即座に生成できるようになった
ことから、能動的に利用者がインタラクティブ操作でき
るコンテンツが求められている。
【0003】また近年では、各種センサを用いて人間の
状態を認識する技術も開発されつつあり、マイクからの
音声認識や、カメラからのジェスチャ認識も可能となっ
ている。利用者が音声やジェスチャによりインタラクシ
ョンすることは、利用者側では特別な装置を操作する必
要がないので、アミューズメント用途には適している。
【0004】たとえば文献“KidsRoom:A Perceptually
-Based Interactive and ImmersiveStory Environmen
t,”Technical Report 398,M. I. T. Media Lab Perce
ptualComputing Section,November, 1996.に記載され
ている技術においては、音声認識とジェスチャ認識技術
を用いたインタラクション技術について述べられてい
る。ここでの音声認識とはディスプレイのそばに設置さ
れたマイクから、利用者が発した声の大きさの大小を判
断するものである。またジェスチャ認識では、所定の位
置に設置されたカメラで利用者らを撮影して、画像認識
処理により人間や物体の移動を追跡したり、動作の示す
内容をシステムが理解する。さらに認識された結果によ
りストーリ展開が変わるシステムとなっており、登場す
る仮想のキャラクタの反応がCG映像として表示され
る。
【0005】
【発明が解決しようとする課題】前述したような施設の
利用者は多様であるので、インタラクションのための操
作はできる限り容易にする必要がある。
【0006】また、従来技術では音声認識やジェスチャ
認識はシステム全体への入力手段として位置づけられて
おり、登場する個々の仮想キャラクタとの関連はない。
利用者にとっては仮想キャラクタがインタラクションの
対象であり、今後はより高度なインタラクションを実現
するためにも、音声認識は仮想キャラクタの聴覚、また
ジェスチャ認識は仮想キャラクタの視覚として機能させ
ることが必要と考えられる。このためには実空間にある
マイクやカメラなどのセンサを、仮想空間のキャラクタ
の聴覚や視覚などの感覚に対応付けるということが考え
られる。ところが、実空間ではセンサの位置や方向およ
び数などに物理的制約が存在するので、全てが自由に設
定できる仮想空間と、単純に対応付けすることはできな
いものである。
【0007】本発明の目的は、仮想キャラクタを見てい
る利用者の状態に応じて仮想キャラクタの行動を決定す
ることにより、より現実感のあるインタラクション装置
を提供することにある。
【0008】本発明の他の目的は、実空間のセンサの物
理的制約を考慮しつつ、これを仮想空間のキャラクタの
感覚機能として利用できるようなインタラクション装置
を提供することにある。
【0009】
【課題を解決するための手段】上記目的は、以下の様な
構成によるインタラクション装置により達成できる。即
ち、ディスプレイを見ている利用者が映像を取得し、取
得した映像の利用者の行動に応じてディスプレイ中に表
示される仮想キャラクタの動作を示す映像を生成する仮
想キャラクタとのインタラクション装置において、以下
の構成を有する。即ち、仮想キャラクタの少なくとも向
いている方向を示すデータを持つ姿勢データと利用者の
行動に応じた仮想キャラクタの動作を規定した動作生成
ルールを設定するモデル設定部と、利用者の行動を取得
する映像取得装置と、利用者の発する音声を取得する音
声取得装置と、映像取得装置により取得した映像を認識
する画像認識部と、音声取得装置により取得した音声を
認識する音声認識部と、仮想キャラクタの姿勢データ
と、映像取得装置または音声取得装置の向きに応じて仮
想キャラクタの感度を算出する感度算出部と、画像認識
部及び音声認識部により認識した認識結果と、感度算出
部により算出した感度に応じて、ディスプレイに表示す
る仮想キャラクタの映像を生成する映像生成部である。
【0010】
【発明の実施の形態】以下、本発明の一実施の形態につ
いて、図面により詳細に説明する。
【0011】図1は、仮想キャラクタとのインタラクシ
ョン装置の説明図である。
【0012】このようなインタラクション装置は、例え
ばアミューズメントパーク等の娯楽施設に設置されるも
ので、図1中の利用者1は例えばこのような娯楽施設を
訪れるお客さんである。
【0013】このような状況で、本インタラクション装
置は、利用者1の行動を認識し、この利用者の行動によ
って仮想キャラクタの行動を決定する。
【0014】利用者1の行動を取得するための利用者行
動取得装置として、カメラ2とマイク3が設定されてい
る。また、利用者に仮想キャラクタの行動を見せるため
の出力装置として仮想キャラクタ6が表示されるディス
プレイ4が設置されている。また、このカメラ2,マイ
ク3,ディスプレイ4は、計算機5により制御されると
いう構成である。計算機5は本実施例では各処理部をハ
ードウエア的に記述して説明しているが、この計算機内
部の処理(例えば図4のフローチャートの処理)を実現
させるために、計算機内に後述する計算機内の各処理機
能が実現できるようなプログラムを記憶したCD−RO
MやDVD等の記憶媒体に記憶していたものを、計算機
にインストールすることにより実現するといったことも
考えられる。
【0015】以下、まずこの計算機5の内部処理につい
て簡単に説明する。
【0016】利用者1が与えたジェスチャはカメラ2等
の利用者行動取得装置により取得され計算機5に送信さ
れる。計算機5の画像認識部9等の行動認識部は、この
取得した映像により利用者1の行動を認識する。別の利
用者行動取得装置であるマイク3によって集音された音
声も、同様にして計算機5に送信され、計算機5の行動
認識部の1つである音声認識部10により、この送信さ
れた音声を認識する。本発明による仮想キャラクタは画
像認識部9や音声認識部10等の行動認識部の認識結果
に基づいて自律行動する機能を持っている。本発明で
は、この認識結果を直接使って仮想キャラクタの動作を
生成しているのではなく、後述する感度算出部12によ
って算出された感度を使って仮想キャラクタの認識結果
の精度を高めている。この感度を定めるために、少なく
とも仮想キャラクタ自身の向いている方向を示す情報を
持つ姿勢データを利用する。モデル設定部14は、仮想
キャラクタの動作を表現するモデルデータを設定し、最
終的には利用者の行動の認識結果を反映して映像生成部
11がCG映像としてその動作をディスプレイ上に表示
しインタラクションが達成される。
【0017】ここで、本発明の特徴を明確にするために
従来技術によるインタラクション装置について説明す
る。
【0018】従来技術によるインタラクション装置で
は、画像認識部9と音声認識部10の認識結果は、仮想
キャラクタの動作を表現するモデルデータに直接に入力
され、この認識結果のみに基づいて仮想キャラクタの行
動を生成していた。よって、このような従来型のインタ
ラクション装置では、仮想キャラクタの行動を生成する
際に、仮想キャラクタの状態は考慮されていないことに
なる。つまり、例えば仮想キャラクタが利用者側を向い
ていないにもかかわらず、利用者の行動が認識できてし
まうことになり、利用者の起した行動と、仮想キャラク
タの行う動作とは矛盾を生じたものとなってしまう。
【0019】図3は、前述した従来技術を説明した図2
に対応して記述した本発明のインタラクション装置のシ
ステム構成図を示す図である。
【0020】以下、本発明のインタラクション装置の計
算機5の内部処理について、図4の計算機5の内部処理
を示すフロー図を使って説明する。
【0021】計算機5の処理の概要としては、利用者1
の行動を認識し、リアルタイムで仮想キャラクタの行動
を決定するので、画像認識部9や音声認識部10の認識
結果や仮想キャラクタ6のCG映像生成の処理などを、
ビデオ信号の1フレーム表示時間などの所定の時間内で
繰り返す。
【0022】図4を使って計算機5の内部処理について
詳述する。
【0023】ステップ101は行動認識処理の1つであ
る画像認識処理のステップである。利用者行動取得装置
の1つであるカメラ2が撮影した利用者1の映像によ
り、行動認識部の1つである画像認識部9が利用者1の
行っている行動を認識する。このような認識の具体的方
法としては、例えば認識対象の映像中から動く肌色の領
域を抽出し、その中で色の彩度の低い小領域が横に二つ
並んでいればその小領域は目と判断し、さらにその領域
は顔であると判断できる。それから、その顔であると判
断した領域の動きを追跡して、うなずきや首振りなどの
利用者の行動を認識するというものである。
【0024】ステップ102は行動認識処理の他の1つ
である音声認識処理のステップである。
【0025】マイク3が集音した利用者1の音声から音
声認識部10が利用者1の行っている行動を認識する。
この音声認識方法としては、例えば、音声を周波数解析
して音の特徴量を抽出し、予め用意した辞書データの特
徴量とマッチングさせて、最も近い特徴を持つ音声を選
択することにより利用者1の起している行動を認識する
というものである。
【0026】ステップ103は感度算出処理のステップ
である。
【0027】感度の算出の仕方にはさまざまなやり方が
考えられるが、例えば、感度算出部が仮想キャラクタの
姿勢データに基づいて感度を算出したり、また仮想キャ
ラクタの姿勢データと、利用者行動取得装置の向きとに
基づいて感度を算出したり、さらに前述した2つの方法
に仮想キャラクタの仮想空間上での位置データをさらに
使って感度を算出するといったやり方が考えられる。
【0028】この感度算出処理を具体的に説明すると、
仮想キャラクタの状況の判断には、モデル設定部14に
よって設定され、管理されている仮想キャラクタのモデ
ルの姿勢データ13を用いる。この姿勢データ13と
は、仮想キャラクタ6を構成する骨格の関節角度などで
あり、少なくとも仮想キャラクタの向いている方向を示
すデータが含まれており、この姿勢データにより仮想キ
ャラクタ6の顔の向きなどを知ることができる。
【0029】さらに詳しく、仮想キャラクタ6の状態に
応じて感度を決定する処理について説明する。
【0030】図5は、仮想キャラクタ6の方向に基づく
感度変換について説明するための説明図である。
【0031】いま、実空間で利用者1を撮影しているカ
メラ2の撮影方向のベクトルをVcとする。この実空間
のカメラ2に対応付けて、モデル設定部14が管理する
モデルの仮想空間で、カメラのアバタ(分身)を定義
し、その撮影方向ベクトルをVc′とする。この定義
は、仮想空間において、撮影カメラはVc′の方向を向
いていること意味する。仮想キャラクタ6は、自身の仮
想キャラクタの向きを表すベクトルVhを少なくとも有
する姿勢データが設定されており、この向きを表すベク
トルVhと撮影方向ベクトルをVc′のなす角度をθと
して、ここから認識結果に対する感度Sを、例えばS=
cosθ として計算する。このSの値は、仮想キャラ
クタの向きとカメラの向きが近いほど1.0 に近い値を
取り、反対の方向を向いているほど−1.0 に近い値と
なる。この感度Sを用いて、仮想キャラクタ6に対し
て、画像認識部9の認識結果の強度を補正するというも
のである。以上はカメラ2の撮影方向とカメラ2が撮影
した画像情報の場合の感度算出及び強度変換について説
明したが、マイク3からの音声情報の場合にも同様の処
理を行うことができる。例えば、マイクに指向性のある
マイクを用いると、マイクを向けた方向からの音声を強
く検出することができるので、仮想キャラクタ6の姿勢
データにより仮想キャラクタの向いている方向と音声の
方向とにより感度を算出し強度を補正することができ
る。
【0032】ステップ104は、モデル設定処理のステ
ップである。
【0033】モデル設定部14において、仮想キャラク
タ6の行動や映像生成に必要なデータなどを決定する。
【0034】モデル設定部14では、仮想キャラクタ6
やその姿勢データ以外にも、仮想カメラ7や仮想マイク
8も管理している。ここで仮想カメラとはCG映像を作
成するために定義する仮想的なカメラで、このカメラを
通して仮想空間を見た絵がCGにより作成され、ディス
プレイ上に表示される。仮想マイクも同様に仮想空間か
らの音を検出するための仮想の装置である。
【0035】仮想キャラクタの動作の生成については、
例えば「もし利用者がうなずいているならば、仮想キャ
ラクタは手をたたく」のような動作生成ルールを事前に
決めておき、動作ライブラリから“手をたたく”の動作
を検索して、これを仮想キャラクタの動作とする。この
とき、感度算出部で算出した感度Sは、ルールを適用す
るときの確信度として利用する。例えば“手をたたく”
の動作ライブラリとして、“激しく手をたたく”と“穏
やかに手をたたく”の2種類を用意しておき、感度が大
きければ前者を、小さければ後者を仮想キャラクタの動
作として選択する。また感度が負の値のときにはルール
自体を適用しないようにして動作を決定する。
【0036】ステップ105は映像生成処理である。
【0037】映像生成部11は、仮想キャラクタ6のC
G映像を生成する。映像生成にはモデル設定部14が作
成した仮想キャラクタ6のデータを利用し、その動きと
音を仮想空間内で仮想カメラと仮想マイクで検出したも
のとして、CGの映像とする。生成した映像はディスプ
レイに表示される。
【0038】以上のようなステップおよびシステム構成
により、利用者のジェスチャと音声による指示を認識
し、認識結果に応じて仮想キャラクタの動作を作成して
表示することにより、利用者と仮想キャラクタとのイン
タラクションを実現することができる。
【0039】以上の実施例においては、感度算出は仮想
キャラクタとカメラの方向,音声の発信方向のみに基づ
いていたが、図6に示すように、距離に基づいて感度変
換を行うことも可能である。いまカメラのアバタから仮
想キャラクタまでの距離をDhとして、この値の大小に
応じて感度Sの値を算出する。Dhが大きくなるほど、
仮想キャラクタ6はカメラとは離れた位置から見ている
ことになるので、Sの小さな値が割り当てられるように
すればよい。すなわち、距離の大きさに応じて感度が減
衰するように設定する。音声についても同様で、距離に
より減衰するような感度とする。本実施例によれば、仮
想キャラクタとカメラとの距離を考慮して、感度算出処
理を行うので、例えば遠く離れた仮想キャラクタ6は、
気づかないといったより複雑な設定が可能である。
【0040】この距離に基づく感度算出をカメラの方向
や音声の発信方向と組み合わせればより一層リアリティ
のある仮想キャラクタの動作を表現することができる。
【0041】このような組み合せの具体的実現方法は、
例えば仮想キャラクタの向きとカメラの方向や音声の発
信方向とにより算出した感度に、さらに距離値(画面に
近い仮想キャラクタほど1.0 に近い値で、画面から離
れている仮想キャラクタほど0.0に近い値としてお
く)を乗じたものを感度とする方法が考えられる。
【0042】以上の実施例においては、仮想キャラクタ
6は単数の場合を想定していたが、次に、図7に示すよ
うに仮想キャラクタが複数存在する場合について説明す
る。このような場合には個々の仮想キャラクタ毎に感度
変換部を設け、各々の姿勢データからそれぞれの感度の
計算を行う。
【0043】この例では、仮想キャラクタa,仮想キャ
ラクタb及び仮想キャラクタcという3つの仮想キャラ
クタが存在する場合について説明する。勿論仮想キャラ
クタの数は3つに限定するものではなく、さらに多くな
っても同様の方法で可能である。
【0044】姿勢データ13としては、各仮想キャラク
タの頭部の方向を示すベクトルが各々Vha,Vhbお
よびVhc,頭部の配置座標が各々(Xa,Ya,Z
a)、(Xb,Yb,Zb)および(Xc,Yc,Z
c)として図1では図示していない計算機5内若しくは
計算機5に接続された記憶装置に格納されているものと
する。この頭部方向のベクトルを用いれば、図5で説明
した感度変換処理と同様にして方向に基づく感度変換を
行うことが可能であり、また、配置座標を用いれば図6
と同様に距離に基づく感度変換が可能である。これらの
姿勢データを感度変換部に対して、姿勢データa,姿勢
データb及び姿勢データcのように、仮想キャラクタ単
位に入力する。すると感度変換部は、各姿勢データに応
じて、認識結果に対する感度として、感度a,感度b及
び感度cのような値をそれぞれ出力する。本実施例によ
れば、複数の仮想キャラクタ毎に独立して感度を定める
ことができ、複数キャラクタとのインタラクションが可
能となる。例えばカメラ方向を向いているキャラクタの
みが反応し、その他は反応しないといった、リアルなイ
ンタラクションができる。
【0045】以上の実施例では、各キャラクタ毎に感度
変換部を設けるとして説明したが、1つ若しくは複数
(キャラクタの数によらない)の感度変換部を設け、こ
の感度変換部が各仮想キャラクタの姿勢データによりま
とめて各仮想キャラクタの感度を算出することも可能で
ある。
【0046】次に、以上の実施例とは異なって、可視判
定に基づいて感度算出を行う処理について図8を用いて
説明する。
【0047】この処理を行うためには、仮想空間内に仮
想ディスプレイを配置し、仮想キャラクタはこの仮想デ
ィスプレイに映し出された映像を見て判断するものとす
る。ここで、この映像とは実空間でカメラが撮影した映
像である。仮想キャラクタが視認できる範囲を有効視野
Rfとし、仮想ディスプレイの仮想表示面が可視である
部分を可視領域Rvとする。仮想キャラクタと仮想ディ
スプレイの間に障害物が存在する場合には可視領域は小
さくなる。この可視領域を求めるには、仮想キャラクタ
の視点からCG画像を作成し、その画像内で仮想ディス
プレイが占める割合を計算すれば良い。この場合の感度
Sは、例えばS=Rv/Rfのようにして求めることが
できる。本実施例によれば、仮想空間の中に存在する障
害物なども考慮することができるので、より正確に感度
を求めることができる。
【0048】以上の実施例では、実空間のカメラなどの
センサは単一で位置が固定のものであったが、図9に示
すように複数または可動のセンサを用いることも考えら
れる。
【0049】この図9では、カメラとマイクを一体化し
たものをセンサとしたものである。また、この各センサ
は駆動装置により位置または向きが可変であるものとす
る。この場合には、画像認識部9または音声認識部10
に入力する前に、センサ選択部を設け、ここで各仮想キ
ャラクタについてセンサを選択する。具体的な選択方法
については、例えば各仮想キャラクタの姿勢データから
判断して、仮想キャラクタの視覚または聴覚状態に最も
近い姿勢のセンサを選択する方法が考えられる。この方
法によれば、複数センサの中から最適のものを選択でき
るので、より正確な感度を求めることができる。
【0050】また、図9の実施例では、単一のセンサを
選択するのではなく、複数のセンサの出力値を用いるこ
とも可能である。このためには仮想キャラクタとセンサ
の姿勢の相違に応じて、センサ出力値を重み付けをする
ようにする。すなわち仮想キャラクタの姿勢に近いセン
サの出力には大きな重み値を与え、これらを加算して仮
想キャラクタの感度を計算する。この方法によれば、複
数センサの情報を総合的に利用できるので、より安定し
た判断が可能である。
【0051】さらに図9の実施例では、センサの位置や
向きを変えられることを利用して、仮想キャラクタの姿
勢とカメラやマイクの姿勢を合致させることも可能であ
る。このためには、センサ選択部が仮想キャラクタの姿
勢データを読み取り、視野に近いセンサを選択して、そ
のセンサの位置や向きを変えるためのアクチュエータを
制御することにより、仮想キャラクタとセンサの姿勢を
一致させる。本実施例によれば、仮想キャラクタとセン
サが同期して動くので、利用者に仮想キャラクタの視線
方向を明示的に示すことができ、より高度なインタラク
ションが可能である。
【0052】また図9の実施例では、複数のセンサを用
いることを利用して、実空間での利用者の位置を特定す
ることも可能である。例えば複数のカメラで利用者の同
一部分を撮影していれば、三角測量の原理により、利用
者の位置が求められる。そしてディスプレイから利用者
までの距離に基づいて、仮想キャラクタの感度を定める
こともできる。例えば利用者がディスプレイから離れて
いる時には、感度を低く設定しておき、仮想キャラクタ
はあまり反応しないようにする。本実施例によれば、利
用者側の状況に応じて、仮想キャラクタの感度を変更で
き、より多彩なインタラクションが可能となる。
【0053】以上の実施例では、実空間のカメラと仮想
空間の仮想カメラは関連がなかったが、図10に示すよ
うに、カメラと仮想カメラの向きを同一化することも可
能である。この場合には仮想カメラの反対方向に、常に
カメラのアバタが存在するとして設定する。即ち仮想キ
ャラクタにとっては、仮想カメラの方向に常に利用者が
存在することになる。仮想カメラはCG映像生成用に定
義するので、一般に利用者が任意の方向に設定すること
ができる。この方法によれば、仮想キャラクタが利用者
に近づくあるいは遠ざかるという行動は、常にカメラの
撮影軸方向の移動となるので、仮想キャラクタの行動が
画面からはずれることなく、わかりやすく表示すること
が可能である。
【0054】
【発明の効果】以上に述べたように本発明によれば、仮
想キャラクタの姿勢に応じて、カメラやマイクなどのセ
ンサからの入力情報の感度が変化する。したがって姿勢
を考慮したジェスチャ認識や音声認識が可能となるの
で、仮想キャラクタの応答の精度を向上させることがで
きる。これにより利用者と仮想キャラクタとのインタラ
クションを高度化させる効果がある。
【図面の簡単な説明】
【図1】仮想キャラクタとのインタラクション装置の説
明図である。
【図2】従来のインタラクション装置の説明図である。
【図3】本発明のインタラクション装置のシステム構成
図である。
【図4】フローチャートである。
【図5】方向に基づく感度変換の説明図である。
【図6】距離に基づく感度変換の説明図である。
【図7】仮想キャラクタが複数のときの構成の説明図で
ある。
【図8】可視判定に基づく感度変換の説明図である。
【図9】複数または可動のセンサの場合の説明図であ
る。
【図10】カメラと仮想カメラの向きの同一化の説明
図。
【符号の説明】
1…利用者、2…カメラ、3…マイク、4…ディスプレ
イ、5…計算機、6…仮想キャラクタ、7…仮想カメ
ラ、8…仮想マイク、9…画像認識部、10…音声認識
部、11…映像生成部、12…感度算出部、13…姿勢
データ、14…モデル設定部。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 三好 雅則 茨城県日立市大みか町七丁目1番1号 株 式会社日立製作所日立研究所内 (72)発明者 福田 善文 茨城県日立市大みか町七丁目1番1号 株 式会社日立製作所日立研究所内 (72)発明者 桑名 利幸 茨城県日立市大みか町五丁目2番1号 株 式会社日立製作所大みか工場内 Fターム(参考) 2C001 AA00 AA17 BA00 BA02 BA05 BC00 BC05 BC10 CA00 CA07 CA08 CB01 CC02 5B050 AA10 BA08 CA07 EA07 EA19 EA24 FA02 FA10 FA14 5E501 AA01 AA17 AC16 BA03 CA03 CB15 EA34 FA15

Claims (17)

    【特許請求の範囲】
  1. 【請求項1】ディスプレイを見ている利用者の映像を取
    得し、取得した映像の利用者の行動に応じてディスプレ
    イ中に表示される仮想キャラクタの動作を示す映像を生
    成する仮想キャラクタとのインタラクション装置におい
    て、 前記仮想キャラクタの少なくとも向いている方向を示す
    データを持つ姿勢データと、利用者の行動に応じた仮想
    キャラクタの動作を規定した動作生成ルールを設定する
    モデル設定部と、 前記利用者の行動を取得する映像取得装置と、 前記利用者の発する音声を取得する音声取得装置と、 前記映像取得装置により取得した映像を認識する画像認
    識部と、 前記音声取得装置により取得した音声を認識する音声認
    識部と、 前記モデル設定部の前記仮想キャラクタの姿勢データ
    と、前記映像取得装置または前記音声取得装置の向きに
    応じて前記仮想キャラクタの感度を算出する感度算出部
    と、 該感度算出部により算出された感度と、前記画像認識部
    及び前記音声認識部により認識した認識結果と、前記モ
    デル設定部により設定された動作生成ルールとにより前
    記ディスプレイに表示する前記仮想キャラクタの映像を
    生成する映像生成部とを有する仮想キャラクタとのイン
    タラクション装置。
  2. 【請求項2】前記感度算出部は、前記仮想キャラクタの
    仮想空間内での位置と前記姿勢データに応じて感度を算
    出する請求項1記載の仮想キャラクタとのインタラクシ
    ョン装置。
  3. 【請求項3】前記仮想キャラクタは複数個存在し、 前記感度算出部は、各仮想キャラクタの姿勢データに応
    じて各仮想キャラクタ毎に個別に感度を算出する請求項
    1記載の仮想キャラクタとのインタラクション装置。
  4. 【請求項4】前記感度算出部は、感度を変換する際に仮
    想空間内での前記仮想キャラクタの視野を模擬すること
    により可視となる領域を求め、当該領域に基づいて前記
    感度を算出する請求項1記載の仮想キャラクタとのイン
    タラクション装置。
  5. 【請求項5】前記映像取得装置または音声取得装置を複
    数配置し、 前記仮想キャラクタの姿勢データと、前記複数個の映像
    取得装置または音声取得装置の向きに応じて各仮想キャ
    ラクタに対応する映像取得装置または音声取得装置を選
    択する選択部と、該選択部が選択した映像または音声を
    各仮想キャラクタの映像または音声として前記画像認識
    部または前記音声認識部が認識する請求項1記載の仮想
    キャラクタとのインタラクション装置。
  6. 【請求項6】前記映像取得装置または音声取得装置を複
    数配置し、 前記感度算出部は、前記映像取得装置または前記音声取
    得装置の向きと、前記仮想キャラクタの姿勢データに応
    じて、各仮想キャラクタについて前記複数の映像取得装
    置または前記複数の音声取得装置の認識結果に対する重
    み値を算出し、該重み値に基づいて感度を算出する請求
    項1記載の仮想キャラクタとのインタラクション装置。
  7. 【請求項7】前記映像取得装置または前記音声取得装置
    の位置または方向を変更するアクチュエータを有し、 前記仮想キャラクタの前記姿勢データに応じて、該アク
    チュエータを制御して前記映像取得装置または音声取得
    装置の位置または方向を設定する請求項1記載の仮想キ
    ャラクタとのインタラクション装置。
  8. 【請求項8】前記映像取得装置または前記音声取得装置
    を複数配置し、 前記感度算出部は、該複数の映像取得装置または音声取
    得装置により複数の位置で取得した前記利用者の映像ま
    たは音声から三角測量により利用者の位置を測定し、利
    用者と前記映像取得装置または前記音声取得装置との距
    離に基づいて感度を算出する請求項1記載の仮想キャラ
    クタとのインタラクション装置。
  9. 【請求項9】前記映像生成部は、前記仮想キャラクタを
    CGで表示するために定める仮想的なカメラを仮想カメ
    ラとし、前記映像取得装置と前記仮想カメラとが特定の
    位置関係にあるものとして該仮想カメラを設定し、CG
    により映像を生成することを特徴とする請求項1記載の
    仮想キャラクタとのインタラクション装置。
  10. 【請求項10】ディスプレイを見ている利用者の映像を
    取得し、取得した映像の利用者の行動に応じて該ディス
    プレイ中に表示される仮想キャラクタの動作を示す映像
    を生成する仮想キャラクタとのインタラクション装置に
    おいて、 前記仮想キャラクタの少なくとも向いている方向を示す
    データを持つ姿勢データと、利用者の行動に応じた仮想
    キャラクタの動作を設定した動作生成ルールを設定する
    モデル設定部と、 前記利用者の行動を取得する映像取得装置と、 該映像取得装置により取得した映像を認識する画像認識
    部と、 前記仮想キャラクタの姿勢データに応じて前記仮想キャ
    ラクタの感度を算出する感度算出部と、 該感度算出部により算出した感度と、前記画像認識部に
    より認識した認識結果と、前記モデル設定部に設定され
    た動作生成ルールにより前記ディスプレイに表示する前
    記仮想キャラクタの映像を生成する映像生成部とを有す
    る仮想キャラクタとのインタラクション装置。
  11. 【請求項11】前記映像取得装置の撮影方向を変更する
    駆動装置を有し、前記感度算出部は、前記仮想キャラク
    タの姿勢データと前記駆動装置により変更された前記映
    像取得装置の向きに応じて前記仮想キャラクタの感度を
    算出する請求項10記載の仮想キャラクタとのインタラ
    クション装置。
  12. 【請求項12】前記駆動装置は前記映像取得装置の位置
    も変更し、 前記感度算出部は、前記仮想キャラクタの姿勢データと
    前記駆動装置により変更された前記映像取得装置の位置
    及び向きに応じて前記仮想キャラクタの感度を算出する
    請求項11記載の仮想キャラクタとのインタラクション
    装置。
  13. 【請求項13】ディスプレイを見ている利用者の行動を
    取得し、取得した利用者の行動に応じて該ディスプレイ
    中に表示される仮想キャラクタの動作を示す映像を生成
    する仮想キャラクタとのインタラクション装置におい
    て、 仮想キャラクタの少なくとも向いている方向を示すデー
    タを示す姿勢データと、利用者の行動に応じた仮想キャ
    ラクタの動作を規定した動作生成ルールを設定するモデ
    ル設定部と、 前記利用者の行動を取得する利用者行動取得装置と、 該利用者行動取得装置により取得した利用者の行動を認
    識する利用者行動認識部と、 前記仮想キャラクタの姿勢データに応じて前記仮想キャ
    ラクタの感度を算出する感度算出部と、 該感度算出部により算出された感度と、前記利用者行動
    認識部により認識した認識結果と、前記モデル設定部の
    動作生成ルールに応じて、前記ディスプレイに表示する
    前記仮想キャラクタの映像を生成する映像生成部とを有
    する仮想キャラクタとのインタラクション装置。
  14. 【請求項14】前記利用者行動取得装置の取得方向を変
    更する駆動装置を有し、前記感度算出部は、前記仮想キ
    ャラクタの姿勢データと前記駆動装置により変更された
    前記利用者行動取得装置の向きに応じて前記仮想キャラ
    クタの感度を算出する請求項14記載の仮想キャラクタ
    とのインタラクション装置。
  15. 【請求項15】前記駆動装置は前記利用者行動取得装置
    の位置も変更し、前記感度算出部は、前記仮想キャラク
    タの姿勢データと前記駆動装置により変更された前記利
    用者行動取得装置の位置及び向きに応じて前記仮想キャ
    ラクタの感度を算出する請求項15記載の仮想キャラク
    タとのインタラクション装置。
  16. 【請求項16】ディスプレイを見ている利用者の行動を
    取得し、取得した利用者の行動に応じて該ディスプレイ
    中に表示される仮想キャラクタの動作を示す映像を生成
    する仮想キャラクタとのインタラクション装置におい
    て、 前記利用者の行動を取得する利用者行動取得装置と、 該利用者行動取得装置により取得した利用者の行動を認
    識する利用者行動認識部と、 前記仮想キャラクタの向きと、前記利用者行動認識部に
    より認識した認識結果に応じて、前記ディスプレイに表
    示する前記仮想キャラクタの映像を生成する映像生成部
    とを有する仮想キャラクタとのインタラクション装置。
  17. 【請求項17】ディスプレイを見ている利用者の行動を
    取得し、取得した利用者の行動に応じて該ディスプレイ
    中に表示される仮想キャラクタの動作を示す映像を生成
    するプログラムを記憶したコンピュータ読み取り可能な
    記憶媒体であって、 前記仮想キャラクタの少なくとも向いている方向を示す
    データを示す姿勢データと、利用者の行動に応じた仮想
    キャラクタの動作を規定した動作生成ルールを設定し、 前記利用者の行動を取得し、 該取得した利用者の行動を認識し、 前記仮想キャラクタの姿勢データに応じて前記仮想キャ
    ラクタの感度を算出し、 該算出した感度と、前記認識した認識結果と、前記設定
    した動作生成ルールにより前記仮想キャラクタの動作を
    示す映像を生成するプログラムを記憶したコンピュータ
    読み取り可能な記憶媒体。
JP33528398A 1998-11-26 1998-11-26 仮想キャラクタとのインタラクション装置、及び仮想キャラクタの映像を生成するプログラムを記憶した記憶媒体 Pending JP2000163178A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33528398A JP2000163178A (ja) 1998-11-26 1998-11-26 仮想キャラクタとのインタラクション装置、及び仮想キャラクタの映像を生成するプログラムを記憶した記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33528398A JP2000163178A (ja) 1998-11-26 1998-11-26 仮想キャラクタとのインタラクション装置、及び仮想キャラクタの映像を生成するプログラムを記憶した記憶媒体

Publications (1)

Publication Number Publication Date
JP2000163178A true JP2000163178A (ja) 2000-06-16

Family

ID=18286796

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33528398A Pending JP2000163178A (ja) 1998-11-26 1998-11-26 仮想キャラクタとのインタラクション装置、及び仮想キャラクタの映像を生成するプログラムを記憶した記憶媒体

Country Status (1)

Country Link
JP (1) JP2000163178A (ja)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010079324A (ko) * 2001-07-06 2001-08-22 신호철 유,무선 네트웍게임상의 음성인식 시스템
JP2002085831A (ja) * 2000-09-20 2002-03-26 Namco Ltd ゲーム装置及び情報記憶媒体
KR100370369B1 (ko) * 2000-08-21 2003-01-30 한국과학기술원 가상 캐릭터의 실시간 동작변환방법
ES2233127A1 (es) * 2002-06-07 2005-06-01 Universidad De Las Palmas De Gran Canaria Sistema de informacion interactivo inteligente (kiosko inteligente).
US7101284B2 (en) 2001-12-18 2006-09-05 Sony Computer Entertainment Inc. Object display system in a virtual world
JP2007307412A (ja) * 2007-08-20 2007-11-29 Sony Corp 電子機器及び電子機器の画像生成方法
JP2007307413A (ja) * 2007-08-20 2007-11-29 Sony Corp 画像処理装置及び方法
JP2008539874A (ja) * 2005-05-05 2008-11-20 株式会社ソニー・コンピュータエンタテインメント コンピューターインタラクティブ処理による選択的音源聴取
CN101332362A (zh) * 2008-08-05 2008-12-31 北京中星微电子有限公司 基于人体姿态识别的互动娱乐系统及其实现方法
CN100456212C (zh) * 2004-03-18 2009-01-28 钟煜曦 一种基于图像的互动输入控制方法及系统
US20100199221A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Navigation of a virtual plane using depth
JP2010253277A (ja) * 2009-04-26 2010-11-11 Ailive Inc ビデオゲームにおいてオブジェクトの動きを制御する方法およびシステム
WO2010138428A2 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Systems and methods for applying animations or motions to a character
WO2010138953A2 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Gestures beyond skeletal
CN101961553A (zh) * 2010-08-23 2011-02-02 福建捷联电子有限公司 一种用于发泄情绪的装置
WO2011005784A3 (en) * 2009-07-09 2011-05-05 Microsoft Corporation Visual representation expression based on player expression
WO2011014467A3 (en) * 2009-07-29 2011-07-07 Microsoft Corporation Auto-generating a visual representation
JP2011189066A (ja) * 2010-03-16 2011-09-29 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム装置の制御方法、及びプログラム
US20120239196A1 (en) * 2011-03-15 2012-09-20 Microsoft Corporation Natural Human to Robot Remote Control
JP2014010605A (ja) * 2012-06-29 2014-01-20 Toshiba Corp 情報処理装置、情報表示装置、情報処理方法およびプログラム
CN107972028A (zh) * 2017-07-28 2018-05-01 北京物灵智能科技有限公司 人机交互方法、装置及电子设备
CN111596761A (zh) * 2020-05-03 2020-08-28 清华大学 一种基于换脸技术及虚拟现实技术模拟演讲的方法和装置
CN112221139A (zh) * 2020-10-22 2021-01-15 腾讯科技(深圳)有限公司 一种游戏的信息交互方法、装置和计算机可读存储介质
US11189071B2 (en) 2019-02-07 2021-11-30 Samsung Electronics Co., Ltd. Electronic device for providing avatar animation and method thereof

Cited By (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100370369B1 (ko) * 2000-08-21 2003-01-30 한국과학기술원 가상 캐릭터의 실시간 동작변환방법
JP2002085831A (ja) * 2000-09-20 2002-03-26 Namco Ltd ゲーム装置及び情報記憶媒体
JP4688267B2 (ja) * 2000-09-20 2011-05-25 株式会社バンダイナムコゲームス ゲーム装置及び情報記憶媒体
KR20010079324A (ko) * 2001-07-06 2001-08-22 신호철 유,무선 네트웍게임상의 음성인식 시스템
US7101284B2 (en) 2001-12-18 2006-09-05 Sony Computer Entertainment Inc. Object display system in a virtual world
ES2233127A1 (es) * 2002-06-07 2005-06-01 Universidad De Las Palmas De Gran Canaria Sistema de informacion interactivo inteligente (kiosko inteligente).
CN100456212C (zh) * 2004-03-18 2009-01-28 钟煜曦 一种基于图像的互动输入控制方法及系统
JP2008539874A (ja) * 2005-05-05 2008-11-20 株式会社ソニー・コンピュータエンタテインメント コンピューターインタラクティブ処理による選択的音源聴取
JP2007307412A (ja) * 2007-08-20 2007-11-29 Sony Corp 電子機器及び電子機器の画像生成方法
JP2007307413A (ja) * 2007-08-20 2007-11-29 Sony Corp 画像処理装置及び方法
CN101332362A (zh) * 2008-08-05 2008-12-31 北京中星微电子有限公司 基于人体姿态识别的互动娱乐系统及其实现方法
CN101332362B (zh) * 2008-08-05 2012-09-19 北京中星微电子有限公司 基于人体姿态识别的互动娱乐系统及其实现方法
US10599212B2 (en) 2009-01-30 2020-03-24 Microsoft Technology Licensing, Llc Navigation of a virtual plane using a zone of restriction for canceling noise
US9652030B2 (en) * 2009-01-30 2017-05-16 Microsoft Technology Licensing, Llc Navigation of a virtual plane using a zone of restriction for canceling noise
US20100199221A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Navigation of a virtual plane using depth
JP2010253277A (ja) * 2009-04-26 2010-11-11 Ailive Inc ビデオゲームにおいてオブジェクトの動きを制御する方法およびシステム
US8803889B2 (en) 2009-05-29 2014-08-12 Microsoft Corporation Systems and methods for applying animations or motions to a character
US10691216B2 (en) 2009-05-29 2020-06-23 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
WO2010138953A3 (en) * 2009-05-29 2011-03-03 Microsoft Corporation Gestures beyond skeletal
WO2010138953A2 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Gestures beyond skeletal
US9383823B2 (en) 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US9861886B2 (en) 2009-05-29 2018-01-09 Microsoft Technology Licensing, Llc Systems and methods for applying animations or motions to a character
WO2010138428A3 (en) * 2009-05-29 2011-02-24 Microsoft Corporation Systems and methods for applying animations or motions to a character
WO2010138428A2 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Systems and methods for applying animations or motions to a character
JP2012528390A (ja) * 2009-05-29 2012-11-12 マイクロソフト コーポレーション キャラクターにアニメーションまたはモーションを加えるシステムおよび方法
CN102470273A (zh) * 2009-07-09 2012-05-23 微软公司 基于玩家表情的视觉表示表情
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
CN102470273B (zh) * 2009-07-09 2013-07-24 微软公司 基于玩家表情的视觉表示表情
JP2012533120A (ja) * 2009-07-09 2012-12-20 マイクロソフト コーポレーション プレーヤーの表現に基づく視覚表示の表現方法及びシステム
WO2011005784A3 (en) * 2009-07-09 2011-05-05 Microsoft Corporation Visual representation expression based on player expression
US9519989B2 (en) 2009-07-09 2016-12-13 Microsoft Technology Licensing, Llc Visual representation expression based on player expression
WO2011014467A3 (en) * 2009-07-29 2011-07-07 Microsoft Corporation Auto-generating a visual representation
JP2011189066A (ja) * 2010-03-16 2011-09-29 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム装置の制御方法、及びプログラム
CN101961553B (zh) * 2010-08-23 2013-06-05 福建捷联电子有限公司 一种用于发泄情绪的装置
CN101961553A (zh) * 2010-08-23 2011-02-02 福建捷联电子有限公司 一种用于发泄情绪的装置
US20120239196A1 (en) * 2011-03-15 2012-09-20 Microsoft Corporation Natural Human to Robot Remote Control
US9079313B2 (en) * 2011-03-15 2015-07-14 Microsoft Technology Licensing, Llc Natural human to robot remote control
JP2014010605A (ja) * 2012-06-29 2014-01-20 Toshiba Corp 情報処理装置、情報表示装置、情報処理方法およびプログラム
CN107972028A (zh) * 2017-07-28 2018-05-01 北京物灵智能科技有限公司 人机交互方法、装置及电子设备
US11189071B2 (en) 2019-02-07 2021-11-30 Samsung Electronics Co., Ltd. Electronic device for providing avatar animation and method thereof
CN111596761A (zh) * 2020-05-03 2020-08-28 清华大学 一种基于换脸技术及虚拟现实技术模拟演讲的方法和装置
CN112221139A (zh) * 2020-10-22 2021-01-15 腾讯科技(深圳)有限公司 一种游戏的信息交互方法、装置和计算机可读存储介质
CN112221139B (zh) * 2020-10-22 2023-02-24 腾讯科技(深圳)有限公司 一种游戏的信息交互方法、装置和计算机可读存储介质

Similar Documents

Publication Publication Date Title
JP2000163178A (ja) 仮想キャラクタとのインタラクション装置、及び仮想キャラクタの映像を生成するプログラムを記憶した記憶媒体
JP7283506B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
KR101966040B1 (ko) 댄스 게임 장치 및 이를 이용한 댄스 게임 방법
KR20190094381A (ko) 혼합 현실 환경의 가상 사용자 입력 콘트롤들
KR20190051028A (ko) 감각 안경류
US20190134812A1 (en) Electronic device capable of moving and operating method thereof
JPH09115004A (ja) 画像生成/表示装置
CN107918482B (zh) 沉浸式vr系统中避免过度刺激的方法与系统
WO2012119371A1 (zh) 一种用户交互系统和方法
US12014645B2 (en) Virtual tutorials for musical instruments with finger tracking in augmented reality
US20240338072A1 (en) Determining angular acceleration
JP2002366271A (ja) 画像表示システムおよび画像表示方法
KR101414362B1 (ko) 영상인지 기반 공간 베젤 인터페이스 방법 및 장치
JP6732078B2 (ja) 触覚オーバーレイを拡張現実に統合するシステム、方法及び非一時的コンピュータ可読媒体
JP6564484B1 (ja) 同室感コミュニケーションシステム
Adjeisah et al. Joint Filtering: Enhancing gesture and mouse movement in Microsoft Kinect application
CN112558759B (zh) 基于教育的vr交互方法、交互开发平台和存储介质
KR100479365B1 (ko) 시뮬레이터 프로그램 제작 방법 및 이를 이용한시뮬레이터 시스템
KR20190109714A (ko) 증강 현실 기반의 학습 서비스 제공 방법, 단말, 및 컴퓨터 판독 가능한 기록 매체에 저장된 소프트웨어
KR101050107B1 (ko) 영상 제어 장치
CN112717409B (zh) 虚拟车辆控制方法、装置、计算机设备及存储介质
KR20240009974A (ko) 증강 현실 경험들을 위한 가상 가이드 피트니스 루틴들
JP7559758B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
KR20150044243A (ko) 손 아바타를 이용한 콘텐츠 제어가능 전자학습 장치 및 방법
KR20140078083A (ko) 증강 현실이 구현된 만화책