JP2007527556A - オブジェクトのための行動トランスレータ - Google Patents

オブジェクトのための行動トランスレータ Download PDF

Info

Publication number
JP2007527556A
JP2007527556A JP2006506015A JP2006506015A JP2007527556A JP 2007527556 A JP2007527556 A JP 2007527556A JP 2006506015 A JP2006506015 A JP 2006506015A JP 2006506015 A JP2006506015 A JP 2006506015A JP 2007527556 A JP2007527556 A JP 2007527556A
Authority
JP
Japan
Prior art keywords
behavior
action
translator
input
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006506015A
Other languages
English (en)
Inventor
バーリン、ダニエル
ギリーズ、マルコ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
British Telecommunications PLC
Original Assignee
British Telecommunications PLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by British Telecommunications PLC filed Critical British Telecommunications PLC
Publication of JP2007527556A publication Critical patent/JP2007527556A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Feedback Control In General (AREA)

Abstract

仮想オブジェクトの行動コントローラによる使用のために構成される行動トランスレータであって、第1の人口統計上のグループに適合する行動を表す情報を第2の人口統計上のグループに適合する行動にマップするように構成される前記トランスレータ。前記行動トランスレータは入力を受信するための手段と、前記受信した入力を第1の行動グループに適合するオブジェクトによる行動に関連付けるために前記入力を処理するための手段と、前記受信した入力から引き出される前記行動を前記第2の人口統計グループに適合する行動を生じさせる出力にマップするための手段とを備える。

Description

本発明はオブジェクトのための行動トランスレータに関する。特に、仮想オブジェクトの行動を第1の人口統計上のグループに関連付けられる行動から別の人口統計上のグループと関連付けられる同等な行動に変換できるようにする行動トランスレータに関するが、それに限らない。
行動トランスレータは、オブジェクトのために自動的に生成される行動を、ある人口統計上のグループに関連付けられる行動から別の人口統計上のグループに関連付けられる行動に変換するように構成される。行動トランスレータは、このようにして、仮想環境に参加している仮想オブジェクトの1人の観察者が、同じ仮想環境に参加している別の観察者によって知覚される行動とは異なる可能性のある、人口統計学上のグループに従って行動する仮想オブジェクトを知覚できるようにする。人口統計学上のグループとは、独特の文化、例えば独特の宗教的特徴、政治的特徴、社会的特徴、言語特徴、人種的特徴、民族的特徴、及び/又は他の特徴を有する人の任意のグループである。
行動トランスレータがここに説明されるように実現することができるオブジェクト内での行動を生成するための方法及び装置の例が、「オブジェクト内で行動を生成するための装置及び方法(APPARATUS AND METHOD FOR GENERATING BEHAVIOUR IN AN OBJECT)」と題される発明者の同時係属PCT特許出願の主題を形成する。本発明はそれに限られないが、特に重要な1つの応用例は、例えば、異なる文化的な背景の複数の人間のユーザが参加する仮想環境で変換されてよいアバターなどの仮想エージェントつまりオブジェクトにおける自律行動伝達身体言語の生成である。
身体言語は、特に文化により異なる可能性がある。身体言語に関するさらに多くの情報は、その内容が参照することにより本書に含まれる「ピープルウォッチング:デズモンドモリス身体言語手引き書(Peoplewatching: The Desmond Morris Guide to Body Language)」ISBN:0099429780から得ることができる。
動画オブジェクトは(アバターなど)仮想であるか、あるいは(例えば、ペット「玩具」など)ロボット利用であるのかに関係なく、その行動においてますます精密になってきている。特にアバター及び動画エージェントなどの仮想オブジェクトによるさらに現実的な行動に対する消費者の要求がある。本発明において、アバターは、任意の適切な形を取る仮想環境におけるユーザの視覚的な表現であると定義される。動画エージェントは、仮想環境におけるユーザとの対話に、あるいは対話型娯楽に使用されるインテリジェントソフトウェアベースのエージェントである。同様に、動画エージェントは任意の適切な形を取ってよい。
オブジェクトが動画行動を有することができるとき、プログラミングに相対的に熟練していないユーザが前記オブジェクトの行動を個人化する能力を有することが望ましい。これは、特に、ユーザが例えば、グループセッティングで個人的特徴の感覚を生じさせること、オブジェクトが果たしている役割を強化すること、又はユーザ自身の個性を反映することを求めているときに当てはまる。オブジェクトをその人間のユーザにとってさらに興味深くするために、それは、個性がオブジェクトに提供できる場合、つまり行動が、ユーザが望ましいと感じる特定の特色を有するようにユーザによって修正できる場合に望ましい。
これらの要求を満たすために、動画オブジェクトにおいて行動を生成するために使用される行動モデルはますます複雑になってきている。これは、プログラミングにおいて相対的に未熟なユーザがオブジェクトの行動を修正することを希望するときに、彼らには行動モデルを表す複雑なプログラムとインタフェースを取り、行動の基礎を成すコードを修正するために必要な専門的知識が欠けているため、矛盾を生じさせる。
当技術分野ですでに周知であるオブジェクトにおいて自律的な行動を生成し、オブジェクトに個性を与える技法はその実用性で制限されている。一般的には、オブジェクトの行動を修正するための適切な手段を未熟な個人に与え、オブジェクトによる複雑な行動をサポートするときには不出来な妥協に至る。これは特に、ユーザがリアルタイムでオブジェクトの行動を修正することを望むときにそうなる。
本発明はオブジェクトのために自律的に生成される行動を、ある基準のセットに準拠する行動から、前述された当技術分野で周知の不利な点を未然に防ぐ、及び/又は軽減する別の基準のセットに変換する行動トランスレータを提供することを努める。さまざまな基準のセットは異文化及び/又は人口統計上のグループを表す基準を含んでよい。
本発明の態様は好ましい特徴が従属請求項として表れ、以下に述べられるようである添付の独立請求項により提供される。
本発明の第1の態様は仮想オブジェクトの行動コントローラによる使用のために構成される行動トランスレータを提供しようと努め、前記トランスレータは第1の人口統計上のグループに適合する行動を表す情報を第2の人口統計上のグループに適合する行動にマップするように構成され、前記行動トランスレータは入力を受け取るための手段と、前記受け取った入力を前記第1の人口統計上のグループに適合するオブジェクトによる行動と関連付けるために前記入力を処理するための手段と、前記受信した入力から引き出される行動を前記第2の行動グループに適合する行動を生じさせる出力にマップするための手段とを備える。
好ましくは、変換された行動は、行動コントローラの制御下でオブジェクトのための行動を生成する方法を使用して生成され、前記方法は、1つ又は複数の行動アクションと関連付けられる入力を受け取るステップと、オブジェクトによる行動を生成するように構成される行動フレームワークに従って前記入力から複数の行動パラメータ値を推論するステップと、前記推論した複数の行動パラメータ値から出力を引き出すステップと、前記パラメータ値から引き出された出力を使用してオブジェクトによる同等な行動を生成するステップとを含む。
好ましくは、行動フレームワークは内部柔軟構造を有する。
好ましくは、フレームワークは行動ノードの階層を備える。
好ましくは、フレームワークは動的に柔軟である。
好ましくは、受け取られた入力は複数の行動アクションと関連付けられ、推論される各パラメータ値は前記複数の行動アクション入力の組み合わせにより決定される。
好ましくは、入力は、行動アクションを生じさせる出力と直接的に関連付けられる少なくとも1つの行動パラメータ値の集合を含み、前記推論するステップでは、少なくとも1つ又は複数の他の行動パラメータ値が推論され、それから追加の出力が行動アクションに同等な行動を生じさせるために引き出される。
好ましくは、フレームワークは、それぞれのノードが、オブジェクトの行動の特徴を修正する出力を提供するために1つ又は複数のパラメータ値に作用する関数と関連付けられる複数のノードを備える。
好ましくは、1つ又は複数の行動パラメータ値に作用する関数により生じる出力は、行動を生じさせるために動画システムに入力を提供する。
好ましくは、関数はノードに一意に指定される少なくとも1つの行動パラメータ値に作用する。
好ましくは、関数は、フレームワークの任意のノードによる使用のために入手可能なグローバルパラメータ値である少なくとも1つの行動パラメータ値に作用する。
好ましくは、前記グローバルパラメータ値は、オブジェクトのムード状態に関連付けられ、そこではフレームワークのノードの出力により提供されるオブジェクトの行動の特徴は、オブジェクトがいるムードを示すために修正される。
好ましくは、オブジェクトの行動の特徴に影響を及ぼす個性特色と関連付けられる内部パラメータ値に作用する関数を使用して入力から出力を生成するノード。
好ましくは、入力はフレームワークの出力ノードで受け取られ、受け取られた入力は行動アクションを生成する出力と直接的に関連付けられる1つ又は複数のパラメータ値の集合を含み、追加のパラメータ値を推論するステップでは、フレームワークの内部ノードについて追加の複数の行動パラメータ値を推論するために、逆マッピングがすでに決定されたパラメータ値の集合から実行される。
好ましくは、入力を受け取るステップでは、入力はフレームワークのグローバルパラメータノードで受け取られ、ネットワークのノードは、フレームワークの1つ又は複数の他のノードに複数の行動パラメータ値を推論するために受信した入力を1つ又は複数の他のノードにマップする。
好ましくは、オブジェクトで同等な行動を生成するステップでは、同等な行動が関節のあるオブジェクトで生成される。
好ましくは、オブジェクトで同等な行動を生成するステップでは、同等な行動は顔面で表情豊かな行動を含む。
好ましくは、オブジェクトによる同等な行動は所定のシーケンスで実行される複数の行動アクションを含む。
好ましくは、オブジェクトによる同等な行動は無作為な順序で実行される複数の行動アクションを含む。
好ましくは、行動アクションはある期間に渡って実行される。
好ましくは、前記複数の行動アクションの1つ又は複数は同時に実行される。
好ましくは、行動は、視線方向、四肢運動、発話、スタンス、姿勢、声の調子、うなずき、オブジェクト間距離、行動エチケットを含むグループから取られる行動アクションを含む。
好ましくは、受け取った入力は、人間のユーザによるオブジェクトの直接的な操作により誘発されたオブジェクトによる行動アクションから引き出される。
代わりに、受け取った入力はオブジェクトと対話する別のオブジェクトによる行動アクションから引き出される。
好ましくは、オブジェクトは仮想環境で行動する仮想オブジェクトであり、受け取った入力は前記仮想環境の前記オブジェクトと対話する別の仮想オブジェクトによる行動アクションから引き出される。
好ましくは、受け取った入力は行動コントローラのユーザにより実行される行動アクションと関連付けられた入力を含む。
好ましくは、方法は、入力として受け取った行動アクションを文化的に同等な行動アクションに変換し、前記文化的に同等な行動アクションに同等な行動を生成するステップをさらに含む。
好ましくは、変換した行動はオブジェクトについて行動コントローラのための複数の内部パラメータ値を推論する方法を使用して生成され、前記方法は行動アクションを表す入力を受け取るステップと、前記受け取った入力からオブジェクトによる同等な行動アクションに対応する少なくとも1つの出力値の集合を推論するステップと、少なくとも1つの出力値の前記集号から前記複数の内部パラメータごとに値を推論するステップとを含み、前記複数の内部パラメータごとに推論される値が同等な行動アクションに同等な行動を生じさせる行動コントローラによる出力を生じさせる。
好ましくは、変換された行動はオブジェクトで行動を生成する方法を使用して生成され、前記方法は前記態様に従ってオブジェクトについて行動コントローラのための複数のパラメータ値を推論することを含み、前記推論された複数のパラメータ値を使用して前記同等な行動と関連付けられる出力値の前記集号を生成すること、前記関節のあるオブジェクトに前記行動から実行させることをさらに含む。
好ましくは、変換された行動は関節のあるオブジェクトの行動を制御する方法を使用して生成され、前記方法が行動コントローラに対する入力をオブジェクトに与えるように構成される行動設計インタフェースを使用してオブジェクトの行動特徴と関連付けられる行動パラメータ集合に値を指定し、各前記行動パラメータ集合が行動特徴に影響を及ぼす少なくとも1つのパラメータを備えるステップと、パラメータ集合の中の各パラメータを行動プロファイルにより画定されるデフォルト値とともに指定された値に関数を実行することにより得られるパラメータ値と関連付けるにステップと、オブジェクトについて行動コントローラにパラメータ値を入力するステップと、行動コントローラによって生成される出力を前記入力から推論するステップと、出力をオブジェクトによる行動アクションと関連付けるステップと、オブジェクトに行動アクションを実行させるステップとを含む。
好ましくは、関数はアイデンティティ関数である。
好ましくは、変換された行動はその行動を制御するためのオブジェクトを直接操作する方法を使用して生成された行動から生成され、この方法は、行動アクションを実行するためにオブジェクトを操作するステップと、行動フレームワークの出力ノードに行動アクションを表す入力を提供し、前記出力ノードはオブジェクトによって同等な行動を生成するために使用される出力を提供するようにも構成されるステップと、フレームワークの他の行動ノードについて少なくとも1つのパラメータ値の集合を引き出すためにフレームワーク内の行動フレームワークの出力ノードによって受け取られた入力をマップするステップと、オブジェクトによって他の同等な行動を生成する出力値のセットを引き出された少なくとも1つのパラメータ値の集合から推論するステップとを備える。
好ましくは、オブジェクトの行動は、行動アクションに関連付けられる入力を受け取ることに応えてリアルタイムで生成される。
好ましくは、オブジェクトは仮想環境で提供される仮想オブジェクトである。
代わりに、オブジェクトはロボット利用のオブジェクトである。オブジェクトは玩具であってよい。
好ましくは、変換された行動は、オブジェクトで行動を生成するように構成され、行動アクションと関連付けられる入力を受信するための手段と、オブジェクトによって行動を生成するように構成される行動フレームワークに応じて前記入力から複数の行動パラメータ値を推論するための手段と、前記推論された複数の行動パラメータ値から出力を引き出すための手段と、パラメータ値から引き出される出力を使用するオブジェクトによって同等な行動を生成するための手段とを備える行動コントローラを備える装置を使用して生成される。
好ましくは、同等な行動を生成するための手段は、パラメータ値から引き出される出力を、適切な行動をオブジェクトにより動画化させるために出力を操作するように構成される動画システムに送るための手段を備える。
好ましくは、受け取る手段はオブジェクトの行動フレームワークの外部のソースから少なくとも1つのパラメータ値を入力として受け取るための手段を含む。
好ましくは、複数の行動パラメータ値を推論するための手段はノードのフレームワークを備え、各行動ノードは少なくとも1つの出力パラメータ値に少なくとも1つの入力パラメータ値をマップするように構成される。
好ましくは、少なくとも1つのノードは、行動フレームワーク内のノードごとに定められるパラメータと、行動フレームワークの各ノード内に定められるパラメータと、行動フレームワークの外部に定められるパラメータとを含むグループから取られる少なくとも1つのパラメータ値をマップするように構成される。
好ましくは、入力を受け取るための手段は行動設計インタフェースから入力を受け取るように構成され、前記行動設計インタフェースは、オブジェクトの行動フレームワークに従って定められる少なくとも1つの行動パラメータを含む行動パラメータ集合への値の指定を可能にするように構成される手段と、内部パラメータの値を決定するために所定の関数によって設定される行動パラメータに指定される値に作用するように構成される手段とを備える。
好ましくは、オブジェクトは仮想環境内で行動するように構成される仮想オブジェクトである。
好ましくは、行動コントローラからの出力は別のオブジェクトの行動コントローラにより入力として受け取られるのに適切な形で提供される。
好ましくは、行動コントローラは、第2の文化と一貫した入力に、第1の文化と一貫した行動から引き出される受け取った入力をマップするための変換要素をさらに備える。
好ましくは、行動コントローラは、さらに第2の所定の文化と一貫した行動出力に第1の所定の文化と一貫した行動出力をマップするための変換要素をさらに備える。
好ましくは、オブジェクトは仮想環境内で行動するように構成される仮想オブジェクトであり、仮想コンピュータゲーム、仮想オンライン会議、オンラインゲーム、オンラインチャットルーム、アバターによってホストされる会議、アバターカウンセリング会議、アバターをベースにした仲介環境、アバターをベースにした販売環境、オンライン協同環境、オンライカスタマ関係管理環境から構成される仮想環境のグループの内の任意の1つから取り出される。
好ましくは、変換された行動は、行動設計インタフェースを備える装置を使用して生成され、前記インタフェースは行動パラメータ集合への値の指定を可能にするように構成される手段とを備え、前記パラメータ集合は前記オブジェクトの行動特性と関連付けられる少なくとも1つのパラメータ値を備え、前記インタフェースを使用して指定される値が前記態様の任意の1つに請求される装置に入力として提供される。
好ましくは、入力手段は行動アクションを生成する出力と直接的に関連付けられる少なくとも1つの行動パラメータの集合を含む入力を受け取るように構成され、推論するための手段は行動アクションに同等な行動を生成するために追加出力が引き出される少なくとも1つ又は複数の他の行動パラメータを推論するように構成される。
好ましくは、入力手段はオブジェクトの直接的な操作に対応する出力と直接的に関連付けられる少なくとも1つの行動パラメータ値の集合を含む入力を受け取る。
好ましくは、ユーザは装置に入力を提供する。代わりに、ソフトウェアエージェントが装置に入力を提供する。
好ましくは、変換された行動は一連の少なくとも1つのコンピュータプログラムをその上に記憶されるように構成される装置を使用して生成され、前記一連の少なくとも1つのコンピュータプログラムは、装置を前記態様のどれかに定められる装置として機能させるように装置で実行可能である。
好ましくは、変換された行動は、互いと通信できるように構成される複数の前記装置を備えるネットワークを使用して生成され、前記それぞれの装置は前記他のデバイスの環境の中で行動するオブジェクトを一連の少なくとも1つのコンピュータプログラムによって制御できるようにするために、一連の少なくとも1つのコンピュータプログラムの少なくとも一部に遠隔でアクセスするように構成される。
好ましくは、変換された行動はノードのフレームワークを備える行動コントローラの制御下でオブジェクト内で行動を生成する方法を使用して生成され、前記方法は、少なくとも1つのノードが行動アクションと関連付けられる入力を受け取るステップと、それぞれの前記少なくとも1つのノードが受け取った入力を出力にマップするステップと、前記出力を使用してフレームワーク内の他のノードの複数の行動パラメータ値を推論するステップと、オブジェクトによって同等な行動を生成する行動コントローラによって出力を提供するために前記推論した行動パラメータ値を使用して受け取った入力をマップするステップとを含む。
好ましくは、変換した行動は行動コントローラの制御下でオブジェクト内で行動を生成する方法を使用して生成され、前記方法は行動アクションと関連付けられる入力を受け取るステップと、オブジェクトによって同等な行動に対応する少なくとも1つの出力値の集合に前記受け取った入力をマップするステップと、オブジェクトによって行動を生成するように構成される行動フレームワークに応じて少なくとも1つの出力値の前記集合から複数の行動パラメータ値を推論するステップと、行動コントローラにこれらをロードすることによって前記パラメータ値を使用してオブジェクト内で同等な行動を生成するステップとを備える。
好ましくは、推論されたパラメータは時間依存性である。
本発明の別の態様は、本発明の前記方法態様でステップを実行するために命令の集合を実行するように構成される一連の1つ又は複数のコンピュータプログラムを備えるコンピュータプログラム製品に関する。
有利なことに、より複雑な行動は、オブジェクトによる同等な行動は所定のシーケンスで実行される複数の行動アクションを備えてよいため、前記複雑な行動が相対的に未熟なユーザにより提供される場合にも変換されてよい。なおさらに有利なことには、時間依存性の行動パラメータは、さらに現実的な自律的に動画化される行動を提供するために行動コントローラに組み込まれてよい。
有利なことに、次にオブジェクトによる同等なアクションを生成するために使用できる内部パラメータ値を入力から推論する能力を有することによって、本発明による行動トランスレータは、オブジェクトで複雑な行動を生成するためにユーザによって又は別のアプリケーションによって提供される相対的に簡略なデータ入力を活用するために行動を生成する方法を使用できる。
有利なことに、2つ又は3つ以上が同時に実行されてよい複数の行動アクションを備えてよい複雑な行動が生成されてよい。例えば、アバターなどの関節のあるオブジェクトの行動は、アバターの姿勢行動と視線方向行動の両方ともが同時に実行されるように制御されてよい。例えば、アバターはオブジェクトを取り上げるときにオブジェクトを自動的に見る、あるいは代わりに別の例としてはアバターが攻撃的である別のアバターに反応して臆病である場合に、臆病なアバターが背を丸くすぼめ、視線を落としたままとするために姿勢と視線方向の両方とも変えてよい。
有利なことに、本発明は、チャットルームという仮想媒体でユーザが伝達できる表現の量を増加し、異なる人口統計上のグループに適合する基準の集合間で表現を変換する方法を提供することによりユーザのチャットルーム経験を強化するための手段を提供する。特に姿勢と視線方向などの2つ又は3つ以上の行動アクションの同時実行により伝達されるとき、身体言語の存在はアバターをより生きているように、人間らしく表現し、彼らのコミュニケーションの質を改善する。しかしながら、より複雑な行動が生成されるにつれ、生成される自動化された行動を強化する微妙な人口統計上のグループ及び/又は行動の文化的な相違点が他の人口統計上のグループ/文化と同じ背景を有さない場合がある。有利なことに、ここに説明される行動を生成する方法は、オブジェクトの観察者の文化的及び/又は人口統計学上のグループに従って行動アクションを生成できるようにし、オブジェクトが異なる人口統計学上のグループ/文化の観察者によって見られる場合、行動は異なる文化的/人口統計学的なグループのための基準と一致する同等な行動に自動的に変換される。この結果、別のグループの観察者によって知覚される行動アクションからある人口統計学上の/文化的なグループに属する観察者によって知覚されるときにオブジェクトにより異なる/より少ない又はより付加的な行動アクションが実行される。
したがって、有利なことに本発明により、アバターのグループは、各アバターが適切な方法で他のアバターの身体言語に反応するようにそれらの行動を調整できるようになる。
従属請求項に述べられるような好ましい特徴は、当業者にとって明らかな任意の適切な方法で前記態様のどれかと適切に結合されてよい。
本発明の好ましい実施形態は、添付図面を参照して一例としてのみここで説明される。
発明者により現在意図されている本発明の最良の形態は、ここで添付図面を参照して説明される。しかしながら、本発明の説明が例に過ぎず、本発明が説明される実施形態にのみ限られることを意図していないことは当業者に明らかになるであろう。
本発明のある実施形態による行動トランスレータは、ここに添付図面に関して後述される行動を生成するための方法及び装置を使用して実現される。
添付図面の図1Aをここで参照すると、アバター及び仮想キャラクタのための身体言語を生成し、推論し、設計するためのツールを備える本発明の第1の実施形態が示されている。本発明のこの実施形態はインターネットのチャットルーム及びコンピュータゲーム型の環境等における仮想オブジェクトの行動特徴を制御するために特に役立つ。
図1Aでは、コンピュータデバイス1が示されている。前記コンピュータデバイス1は高水準のコンピュータプログラミング技能を有さない場合がある人間のユーザ(図示せず)による使用で動かされると仮定される。コンピュータデバイスという用語は、例えば携帯電話等の移動体通信装置だけではなく、ゲームコンソール、パーソナルデジタルアシスタントなどの視覚表示装置にも取り付けることのできるデータ処理能力を有する任意のデバイスを含むために使用される。
コンピュータデバイス1には、例えばディスプレイ3を有する、モニタなどの視覚表示手段2が備えられる。ディスプレイ3をナビゲーションするためには、例えばマウス又はキーボード(図示せず)などの任意の適切なナビゲーション手段がユーザによって利用されてよい。他の実施形態は同等な方法で使用されてよいスタイラス、トラックパッド、及びジョイスティックなどのナビゲーションツールを含んでよい。
ディスプレイ3は、仮想環境アプリケーションがその中で実行中であるウィンドウ4を含む。仮想環境は仮想オブジェクトを含むウィンドウ4に表示される。明確にするために、本発明の好ましい実施形態においては2つの仮想オブジェクトだけが説明される。図1Aに図示されるように、2つの仮想オブジェクトは動画化できる2つのアバター5、6を備える多関節(articulated)オブジェクトである。アバター5はここではボブ(Bob)とも呼ばれ、アバター6はビル(Bill)とも呼ばれる。ビルとボブは図1Aに図示される実施形態では多関節形式を有しているが、例えば、ゆがめて感情等を表示する顔を構成するために仮想オブジェクトが無関節となる可能性がある。したがって、対象となる行動は顔で表現される行動、及びオブジェクトの形式に関係なくオブジェクトによる任意の行動の形式を含む。
仮想オブジェクト5、6は半自律的に動画化できるように構成される(その場合、それらはユーザからの少なくとも何らかの入力を必要とする)が、仮想オブジェクト5、6の少なくとも1つは、本発明の他の実施形態に従って行動コントローラを自律的に使用して機能するためにオフラインでプログラミングすることが可能である。本発明において、オフラインとは、仮想オブジェクトがその仮想環境において動画化された行動を実行していないときに、あるいはこのような行動が再開される前にオフラインプログラミングが発生する間に休止又は中断されるときに、行動コントローラをプログラミングすることを指す。
ここで図1Aに戻ると、仮想環境の仮想オブジェクト5、6は2つの人間アバターを備える。しかしながら、仮想オブジェクトが取ってよい形式がコンテキストに応じて大幅に変化する場合があることが当業者により理解されるであろう。例えば、その役割に応じて、仮想オブジェクトは動物又は動画化できる任意の他の関節のあるオブジェクトであってよい。関節のあるという用語は、例えば四肢及び/又は関節など、互いを基準にして移動できる部分から構成されていることとしてここに定義される。
ディスプレイ3は行動設計ユーザインタフェース7も示す。行動設計ユーザインタフェース7は仮想環境ウィンドウ4に別個のウィンドウを備える。行動設計ユーザインタフェース7は、ユーザが仮想オブジェクト5、6の1つ又は複数による行動を生成するために行動コントローラに入力を提供できるようにする。行動設計ユーザインタフェースアプリケーションは、行動コントローラを含むアプリケーションの部分を備えてよい、あるいはそれは行動コントローラを含むアプリケーションとインタフェースをとるように構成される別個のソフトウェアアプリケーションの一部として提供されてよい。行動コントローラは所定の行動フレームワークに従って構成される接続されたノードの集合を備え、フレームワークの各ノードは多くのパラメータに基づいて入力を出力にマップする。行動コントローラはここに以下にさらに詳細に説明される。
図1Aでは、ユーザは行動設計ユーザインタフェースのトラッカバー9でスライダ8を使用して行動パラメータ値を適切に選択することにより両方の仮想オブジェクト5、6を管理する。明確にするために図1Aには男っぽさの行動パラメータ集合のためのトラッカバーとスライダだけに番号が付けられている。しかしながら、ここで図1Bを参照すると、図1Aの行動設計ユーザインタフェースの拡大図が示されている。
(行動設計インタフェース)
図1Bは図1Aの行動設計ユーザインタフェース7をさらに詳細に示す。図1Bが示すように、行動設計ユーザインタフェース7は、図1Aの仮想環境ウィンドウ4で対話している仮想オブジェクトボブとビルのそれぞれのための一連のメニュー選択肢をユーザに与える。本発明の代替実施形態では、ユーザはこの環境において他の仮想オブジェクトの行動をより直接的に管理しない可能性があるが、簡単にするためにここではユーザがボブとビルの両方ともに直接的な影響を及ぼすことを希望すると仮定される。しかしながら、別の仮想オブジェクトを直接的に管理しない場合でも、さらに詳細に説明されるようにユーザは間接的に他の仮想オブジェクトの行動に依然として影響を及ぼす場合がある。
図1Bでは、明確にするために、トラッカレーン9a、11aで軽薄さと呼ばれる行動パラメータ集合の値を選択するためのスライドバー8、10だけに番号が付けられている。
図1Bに図示されるような行動設計ユーザインタフェース7は2つの行動プロファイル9aから9h及び11aから11hを備える。図示されている各行動プロファイルは、「形容詞」の集合、つまり仮想オブジェクトのある特定の行動特徴と関連付けられる同等に行動パラメータ集合を備える。図1Bに図示されるように、行動パラメータ集合は軽薄さ9a、11a、親しみやすさ9b、11b、男っぽさ(9c、11C)他の好み(otherLiking)(9d、11d)、悲しい(9e、11e)、自惚れ(9f、11f)、はにかみ(9g、11g)及び優位点(superioritytoOther)(9h、11h)を含む。
ユーザは、行動パラメータ集合の別の選択を含む他の行動プロファイルを構築できる。行動パラメータ集合を構成する複数の個々の行動パラメータの特性を修正することも可能である。行動パラメータ集合の設計は所定の行動特徴を集合的に修正するために行動コントローラの行動フレームワークによって定義される。したがって、パラメータ集合設計は、どの行動パラメータ集合が行動プロファイルを形成するのかに関する簡略な選択よりさらに多くの技能を必要とするタスクである。パラメータ集合は単一のパラメータを構成できるにすぎない。例えば、その値が行動フレームワークの中のすべての行動ノードの出力に影響を及ぼすことがあるグローバルパラメータ、あるいはその値がフレームワークの単一の行動ノードだけの出力に影響を及ぼす内部パラメータ。
図1Bに戻ると、トラッカレーン9aから9h及び11aから11hのトラック長は、ユーザがスライドバー8又は9を位置決めすることによって選択できる一連の考えられる値を表す。明確にするために、第1の軽薄さ行動パラメータ集合のスライドバーだけが図1Bで名付けられていることが理解されるであろう。他の実施形態では、例えばラジオボタン、ドロップダウンウィンドウ等、あるいは制御データを直接的に入力する他の値選択手段が使用されてよい。しかしながら、これによりユーザをメインスクリーンディスプレイ仮想環境ウィンドウ4から不当に逸らすことなく連続範囲の値をパラメータに容易に指定できるため、スライド式バーとトラッカの使用は特に好ましい。
図1Bに図示される値は、仮想オブジェクト5、6に、ユーザにより値ゼロが指定されたそれぞれの表示されている行動パラメータ集合に対応する中立的なスタンスを与える。これは、図1Aに示される2つの仮想オブジェクトの中立的な姿勢及び図1Aと図1Bに示される対応する行動パラメータ集合値を示す図2Aにさらに明確に示される。
図2Bは、ユーザが仮想オブジェクト6(ビル)の男っぽさトラッカバーでスライダを移動することによりビルの行動にどのように直接的に影響を及ぼしたのか、及びボブの行動にどのように間接的に影響を及ぼしたのかを示している。図2Bでは、ユーザは男っぽさ行動パラメータ集合トラッカレーンのスライダを使用して14という値を指定し、ビルはビルの行動コントローラによって生成される行動を表示する。ビルの行動コントローラは、この入力を取り、フレームワークの行動出力ノードに適切な値を指定するためにそれを行動フレームワークを通して伝搬することによってユーザ入力からどのような同等な男っぽさ行動が必要とされるのかを推論した。
ビルの行動コントローラは、14という指定された男っぽさの値から、図2Bに図示される実施形態では男っぽい姿勢を維持しているビルを含む同等な行動アクションを推論した。多岐に渡る男っぽさ姿勢が結果として生じ、男っぽいしぐさ、視線方向、スタンス、顔の表情等の他の男っぽい行動も生じる。ビルの行動コントローラは、ビルの男っぽい行動アクション(複数の場合がある)を反映するボブの行動コントローラに1つ又は複数の値も出力する。この出力は、ビルの男っぽい行動に対するボブの反応を示す、ボブにより実行される行動アクションを含む。
ボブの行動コントローラは、ボブの行動コントローラがビルの行動により伝達される身体言語を効果的に解釈できるようにするビルの行動アクションから引き出される入力を受け取る。この入力は、ビルの男っぽい行動に対する反応を含む行動アクション、例えば、ボブの行動フレームワークによって生成される行動を修正する1つ又は複数のパラメータ値を表現できる。代わりに、ボブはビルの行動を示すパラメータ値の表示だけを受け取り、ボブの行動コントローラはビルにより提供されるパラメータ値から、どの出力値がこの反応に対応するであろうかを推論できるであろう。その結果、ボブの行動コントローラはこれらの出力値から、ボブの行動フレームワーク内で反応に対する同等な行動を生成するであろう他の行動パラメータ値を推論することができ、これらの行動パラメータ値を使用して出力を生成し、次にこの行動を実行する。図2Aに図示されるように、これはボブがビルの前で服従する姿勢を採ることを含む。
前述されたような方法で、ユーザは仮想オブジェクト6のための行動パラメータ集合値を変更することによって仮想オブジェクト5の行動を間接的に修正できる。ボブは、ユーザが服従する位置にボブのトラッカバーを直接的に移動する必要なく、より服従するスタンスを採った。一方の仮想オブジェクト(ボブ)の行動コントローラは、他方の仮想オブジェクト(ビル)の行動によって伝達される身体言語を解釈した。これは身体言語を示す情報を伝達する他のオブジェクトの行動コントローラによって受け取られる出力を生成する第1のオブジェクトの行動コントローラによって達成された。適切な内部行動パラメータ値は、次に、他の仮想オブジェクトの行動を修正する他の仮想オブジェクトのための行動コントローラによって推論される。各仮想オブジェクトが入力を受け取るように構成される適切な行動コントローラを有するのであれば、身体言語情報が複数の仮想オブジェクトに伝達できることが当業者には明らかとなるであろう。
図2Aに図示される本発明の実施形態では、キャラクタのボブ(仮想オブジェクト6)に対応する行動フレームワークのパラメータ値はビルに指定される値によって直接的に影響を及ぼされず、ボブのために表示されたスライダ値はその値を変更しない。しかしながら、本発明の他の実施形態では、スライダ値はその新しい値を反映するために自動的に更新できる。
図2Cは、本発明の一実施形態では、仮想オブジェクトの内の1つの身体言語が適切な行動応答をセットアップするために他の仮想オブジェクトにどのように伝達できるのかを示す。図2Bに図示される行動に続いて起こる図2Cでは、ビルのユーザは1という値を男っぽさに指定し、10という値を軽薄さに指定した。ビルの行動コントローラは、図2Cに図示されるように手を伸ばしてボブの腕に触れるビルを動画化するなど、自動行動を生成する。ボブの行動コントローラはビルの身体言語を、彼がより男っぽくなく、より親しみやすいことを示しており、したがって手を伸ばしてボブに触れるというアクションが敵意を抱いているのではなく、親しみやすいと解釈する。これは、例えば、ビルが親しみやすいことを示すとしてビルのコントローラによって提供されるパラメータ値を解釈するためにボブの行動コントローラが受け取った入力を使用することによって達成できる。その結果、ビルが敵意をもってボブに触れた場合に起こる可能性のある(例えば)防御的な行動を表示する代わりに、ボブは代わりにより防御的ではない姿勢を採り、服従的な姿勢を維持するよりむしろわずかに前方に傾く。ボブがより防御的ではないことを見ると、ユーザは、図2Dに図示されるようにビルの軽薄さと男っぽさのレベルをより低い値に設定することができ、両方のアバターによるより親しみやすい行動を生じさせる。
図2Aから図2Dに図示されるように、どの点においても、ユーザは特定のからだの移動を示したり、行動アクションを示すためにテキストを入力する必要はなく、行動コントローラはリアルタイムで指定された行動パラメータ設定値集合に反応して自律的に適切な行動を生成する。
有利なことに、ウィンドウ型ソフトウェアアプリケーションとして行動設計ユーザインタフェース7を提供することによって、インタフェースが見える範囲はユーザ要件に応じて変えることができる。図2Eでは、ボブの行動プロファイルは行動設計ユーザインタフェースウィンドウ7で可視であり、図2Aから図2Dの行動プロファイルに示されるものとは異なる行動パラメータ集合を含む別の行動プロファイルがボブのために示されている。
図2Eでは、ボブはユーザによって傾聴行動パラメータセットの高い値、つまりputUpon行動パラメータ集合の等しく高い値を指定されている。図2Eに示される他の行動パラメータ集合はtouchyFeely、domSub等を含む。ボブは、domSubの相対的に低い値を指定されている。これらの値はこれらの値に適切である行動を生じさせるためにボブの行動コントローラによって使用され、その結果ビルは直立した姿勢を有し、ボブはより服従する姿勢を有する。
添付図面の図3は、本発明の行動コントローラが行動モデル30に従ってオブジェクトの行動をどのようにして生成するのかを概略して示す。行動モデル30は、例えば姿勢32、しぐさ33、顔の動き34、視線方向35などの特定の行動を生成するためにフレームワークによって受け取られる入力がどのように使用されるのかを支配するオブジェクトの特殊な行動フレームワーク31を定義する。行動フレームワーク31は多くのノードを備え、以下にさらに詳細に説明される(行動フレームワークの例については、図5と図7を参照すること)。
フレームワーク31に対する入力は、多岐に渡る外部ソースと内部ソースから引き出すことができる。例えば、外部コンテキスト/イベント36から、他の文字37から、他のムード合図38から、所定のプロファイル39からである。フレームワーク31自体も特定のプロファイル40を設計するために使用することができ、結果として生じるプロファイル39は次に1つ又は複数のフレームワークノードの行動パラメータに指定される値を修正するためにフレームワーク31に入力を提供する。
ユーザがアバターを直接的に操作する、あるいは行動設計ユーザインタフェース41を使用して値を直接的に入力する場合、入力は、姿勢32、しぐさ33、顔34、及び視線方向34のフレームワークの行動出力ノードに対する移動によって指定される値によってフレームワーク31に直接的に提供できる。フレームワークは、次に行動アクションのための適切な値を推論し、ユーザインタフェース/追跡調査システム40は次に動画システムを使用して適切なアクションを生じさせる。
集合的に、姿勢、しぐさ、顔、及び目の行動ノードにより出力される値は動画サブシステム41を使用して適切に動画化された行動を生じさせるために使用される。使用される動画サブシステムは、Quakeエンジンなどのコンピュータゲームエンジン、又はSGIのオープンインベンタ(Open Inventor)ライブラリなどのシーングラフに基づいたコンピュータグラフィックシステムなどの任意の適切な動画アプリケーションによって提供できる。
(行動モデルアーキテクチャ)
ここで添付図面の図4を参照すると、本発明による層化された階層行動モデルの階層構造が概略で示されている。
図4は行動モデルの機能性が、5つの層、つまり行動モデル51を定義するフレームワーク内の行動ノードの設計に機能上関係する第1の層と、行動アーキテクチャ自体52aの設計に、及び(技能のある技術者による、出力行動に対応する実際の動画等の作成に関係する)「コンテンツ作成」52bに機能上関係する第2の層と、行動形容詞(同等に、行動パラメータ集合)53の設計に機能上関係する第3の層と、例えば図4に示されるようにスライダ機能54aなどのパラメータ値選択機構に、行動プロファイル54bの設計に、及び仮想オブジェクト54cの直接的な操作によるモデルの中への入力の直接的な提供に機能上関係する第4の層と、最終的にはリアルタイム制御55に関係する第5の層を備える本発明の好ましい実施形態を示す。
本発明の他の実施形態では、複雑なより多くの層が行動設計制御アーキテクチャで提供できるが、リアルタイム制御がサポートされなければならない場合には、5つの層は本発明の好ましい実施形態によって必要とされる最小である。
行動モデルの層とインタフェースをとるために必要とされる特殊化された知識及び/又は情報量のレベルは、概して、ユーザが修正しようと努めるフレームワークの特殊な特徴又は関数に依存する。例えば、モデルの上位層(例えば層4と層5)へのインタフェースはユーザの側で相対的にほとんど専門知識を必要としない。つまり誰もが本発明のこの態様に従って仮想オブジェクトのリアルタイム制御を実行できる。しかしながら、ノードタイプを設計する(つまり、行動階層のレベル1とのインタフェースをとる)ことを希望するユーザは専門家プログラマとである可能性が高い。
図4に図示される行動モデルは、(複雑度を増す)層の数と、モデルにおけるリアルタイム制御の包含の両方においてScerri及びYdren(下記参照)の既知の多層行動構造行動設計制御アーキテクチャとは異なる(例えば、多層構造アーキテクチャについての詳細は、Scerri及びYdren[RoboCupチーム、RoboCup−99、ロボットサッカーワールドカップIIIのエンドユーザ仕様、シュプリンガー出版コンピュータサイエンスにおける講義ノート(2000)(End User Specification of RoboCup Teams, RoboCup-99,Robot Soccer World CupIII, Springer-Verlag Lecture Notes in Computer Science(2000))]を参照すること)。より複雑な階層構造を有することと、リアルタイム制御機能性を実現する能力に加えて、他の際立った特徴は、行動フレームワークの行動パラメータ値を入力されたパラメータ値から内部的に推論できるようにする行動パラメータ推論方式の提供を含む。このようにして、ユーザが行動特徴と関連付けられる1つ又は複数の行動パラメータ値の集合を入力するとき、あるいはある特殊な行動アクションを生じさせるためにオブジェクトを操作するとき、受け取られた入力は1つ又は複数の行動アクションを備える他の同等な行動を生成するために使用できる。行動パラメータ推論システムは以下にさらに詳細に説明される。
図4では、設計ノード型層51は動画制御システムとのインタフェースをとる出力ノードの設計に関する。通常、出力ノードの出力は仮想オブジェクトを動画化するためにノードの他のセクションにより使用される。動画システムは、それが生じさせる行動を制御する多くのパラメータを含む。出力ノードは動画システムのパラメータごとに1つの出力を有し、そのパラメータは出力の値に直接的に設定される。例えば、姿勢ノードのケースでは、新しい姿勢は基準姿勢ごとの加重に基づいて基準姿勢の集合の組み合わせとして生成される。姿勢はその重量に比例して運動結合システムとともに混合される。姿勢ノードはその重量に対応する姿勢ごとに出力を有する。他の出力行動はパラメータと行動の間でさらに複雑なマッピングを有する。例えば、出力ノードは、ノード型のサブタイプを作成するプログラマ(概してきわめて技術で技能のある)プログラマによって、及び実行時にアーキテクチャのフレームワークに新しい型を追加することによって作成でき、ノードはファイルからの定義を行動コントローラに読み込むために使用できる。本発明の他の実施形態では、出力ノードは使用されている動画システムと合うようにその出力を適合させる。
ユーザは、一般的には、行動設計モデルの層2のアーキテクチャ設計52a又はコンテンツ作成52b特徴を修正する前に行動フレームワークに精通するように訓練を受ける必要がある。層2はある特定のアプリケーションのために仮想オブジェクトを作成するためのフレームワークを備える。それは、行動コントローラの設計及び出力ノードのためのコンテンツの設計を含む。例えば、出力ノードは事前に存在する運動又は他のコンテンツに基づいた行動を生じさせるように設計できる。多くの出力行動はいくつかの既存の動画及び類似するコンテンツに基づくであろう。例えば、姿勢モデルは既存の姿勢の集合に基づき、顔の表情モジュールは既存の顔の表情の集合に基づくであろう。これらは市販されている3Dモデリングツールを使用して技能のある設計者によって作成できる。
行動コントローラの設計は、通常、手で編集できる、設計仕様ファイル、例えばXMLファイル、又は他の適切なファイルタイプ(おそらく特別に設計されるファイルタイプ)によって指定される。行動コントローラはグラフ構造を有するので、単純なグラフィック編集ツールが代替実施形態の設計仕様ファイルを編集するために提供されてよい。いったん設計仕様ファイルが編集されると、それは前述された行動フレームワークを使用してコントローラにコンパイルできる。
図4の層3、4及び5の形容詞設計層53とスライダ54a、プロファイル設計52b、直接操作52c及びリアルタイム制御機能は、概して未熟なユーザがオブジェクトの行動をカスタマイズできるようにするために構成される。特に、ユーザは添付図面の図8を参照して以下にさらに詳しく説明されるように行動プロファイルを設計する手段によって層3と4とインタフェースをとることができる。
(行動コントローラ)
ここで添付図面の図5を参照すると、本発明の第1の実施形態による仮想オブジェクトのための行動コントローラのフレームワーク60が示されている。図5では、行動コントローラのフレームワーク60は、1つ又は複数のソースから1つ又は複数の出力に入力をマップするいくつかの計算ノードを備える。フレームワーク60内のノードは、例えば他の仮想オブジェクトの行動から引き出されてよい入力を提供するノードなどの外部入力61、グローバルフレームワークパラメータと、(直接的又は間接的のどちらかで)フレームワーク内のすべてのノードによってアクセス可能であるその関連入力値を提供するグローバルパラメータノード62、名前によって特定され、特殊なノードにとって内部の1つ又は複数の値と関連付けられる行動ノード63a、63b、63c、63d、及び(例えば他の仮想オブジェクトの行動コントローラによる使用のために)外部で使用できるパラメータ値を出力する外部出力ノード64を備えてよい出力ノード64、65、又は適切な行動を提供する仮想オブジェクトの実際の所望される動画を生じさせるために行動動画機構によって使用されるパラメータ値を提供する行動出力ノード65を含む。プログラミングの観点から、各パラメータは、例えば指定された数値付きのテキスト名などの名前−値組から構成される。使用される行動モデルの正確なアーキテクチャは、行動コントローラのフレームワーク60の形式を決定する。
図5では、フレームワーク60は、その機能がいくつかのパラメータに基づいて多くの出力にいくつかの入力をマップすることであるいくつかの行動ノード63a、b、c、dを備える。図5は、外部入力61とグローバルパラメータ入力62がどのようにして集合的に行動ノード63a、b、c、dに入力を提供するのかを概略的に示す。ノード63a、dは、ノード63b、cから入力を追加で受け取る。
外部入力61は、例えば、他のキャラクタが親しみやすい、又は服従的である程度などの、環境と他のオブジェクトについての高水準情報を含む。
グローバルパラメータ入力62は、その行動に影響を及ぼし、各行動ノードによって決定される特殊な行動を修正する仮想オブジェクトの高水準属性を備える。例えば、グローバルパラメータ値は、例えば幸福な又は親しみやすいなどのオブジェクトのムード又は態度などの特徴を備えてよい。簡略に図1Bを参照し直すと、複数の動作パラメータ集合が、キャラクタがどれほど親しみやすいのか、あるいはどれほど内気なのかなどの多様なグローバルパラメータを示すために名付けられている。
行動コントローラフレームワークの中の行動ノード63a、63b、63c、63dに入力される各グローバルパラメータ名−値組は1つ又は複数の数値出力を生成する。これらの数値出力は、次に、外部出力ノード64による外部出力として渡されるか、あるいは出力ノード65によって行動出力と関連付けられるのどちらかである。
外部出力64は、例えば仮想オブジェクトがどれほど親しみやすいか、あるいは服従的であるのかなど、外部入力に同等な情報を備える。外部出力として提供されるパラメータ名−値の組は身体言語情報を伝達する。この外部出力が他の仮想オブジェクト(複数の場合がある)によって受け取られると、それにより他の仮想オブジェクト(複数の場合がある)の行動を修正する他の仮想オブジェクト(複数の場合がある)の内部行動パラメータを推論できる。あるコントローラによる外部出力は、同じ名称を有する名称−値組を一致させることにより他の仮想オブジェクト(複数の場合がある)の行動コントローラ(複数の場合がある)に提供される外部入力と相互に関連付けられる。
各行動出力ノード65は、行動アクションに対応する出力を生じさせる。プログラミングの観点から、行動出力ノード65は行動ノード63a、63b、63c、63dの(オブジェクト指向の意味での)サブタイプを備え、パラメータから行動にマップするために出力への入力の同様なマップを実行する。行動出力ノード65は出力ノードの他の部分によってキャラクタを動画化するために使用できる出力を生じさせる。例えば、姿勢出力ノードでは、新しい姿勢が生成される基準姿勢の集合、及び基準姿勢ごとのパラメータがある。姿勢の実際の表現はオブジェクトの関節角度に関して(オイラー角度として)記憶される。新しい姿勢は、重量として姿勢のパラメータを使用して基準姿勢に対応する角度に対して加重総計を実行することにより生成される。これらの生成された角度は基礎を成す幾何学的な表現における対応する変形に直接的に至る。
(フレームワーク内の行動ノードの構造及び機能)
ここで図6を参照すると、図5の行動ノード63dの拡大図が示されている。図6は複数の異なるソースからの入力が行動ノードによってどのようにして使用されて良いのかを概略して示している。図6に図示されるように、行動ノード63dはその内部パラメータ集合に基づいて1つ又は複数の出力に行動ノードによって前方方向でマップされる最高3つの異なる種類の入力を受け取ることができる。図6では、行動ノード63dへの入力は例えばノード63b、63cなどの別の行動ノードから、1つ又は複数のグローバルパラメータ名値組によって提供される入力62から、及び/又はフレームワークの外のソースからの外部入力61からの出力から生じることがある。外部入力61は、対話規則の所定の組に従ってオブジェクトが対話している別のオブジェクトによって生成されてよい。行動ノードに対する外部入力はノードによって修正されてよい。例えば、入力は、入力が許容範囲を超えて拡張する場合には、無視される、あるいは最大値又は最小値に制限されてよい。代わりに、外部入力がユーザの文化に異なる文化に従って実行されるアクションを表す場合、外部入力は、ユーザ自身の文化における適切な行動に対応する外部入力が、事実上ユーザの仮想オブジェクトによる反応を修正するためにフレームワークによって使用されることを確実にするために、最初に適切に修正されてよい。
図6は、行動ノードがどのようにしてその機能性を逆転し、逆転マップを実行するのかも示している。逆転マップは、入力が行動ノードの出力に対応するレベルにあるフレームワークによって受け取られると必ず実行される。これは、例えば、ユーザが、これが行動ノード65への出力に同等なレベルでのフレームワークに入力を提供するためにオブジェクトを直接的に操作するときに発生する可能性がある。その結果、この受け取られた「出力」はフレームワークを通る逆転マップの開始点となり、各内部行動ノードはそのパラメータ値を、最終的に受け取られた「出力」を生じさせるフレームワークのためのグローバルパラメータ値が決定されるまで、ここに以下に詳しく説明される方法で推論される。
前方方向又は後方方向のどちらかで、フレームワーク内の各行動ノードは、ノードの機能に従っていくつかのパラメータに基づいて1つ又は複数の出力に1つ又は複数の入力をマップすることができる。
(前方マップ)
前方マップのケースでは、出力は、各項Tijがいくつかの因数
Figure 2007527556
の積であり、各因数が内部パラメータ又はノードの入力のどちらかであるいくつかの項
Figure 2007527556
の総計として示されたオブジェクトのための行動コントローラによって提供される。前記に示されたように、ノードへの入力は別のノードからの出力として生じ、アーキテクチャ全体に大局的に指定されるパラメータであるか、あるいは外部入力であり、別のアーキテクチャから(つまり他のオブジェクトの行動コントローラから)生じてよい。
例えば、キャラクタは(キャラクタが生まれつき親しみやすいことを示す)値1.2のグローバルパラメータ「親しみやすさ」で設定でき、それは(他のキャラクタが愉快であることを示す)1.5という値の別のキャラクタから外部入力「気持ちのいい態度」も受け取るであろう。これらは(キャラクタが他のキャラクタに対して親しい姿勢をとるべきであることを示す)値1.8の出力「親しい」を生じさせるためにノード内でともに乗算されるであろう。この出力は次に、キャラクタが、前方に傾く、及び他のキャラクタに向かうという2つの基準姿勢を結合することによってこれを達成すべきであると判断する可能性のある他のノードに渡されるであろう。これらの2つの姿勢の重さ付けは、「親しい」出力から計算され、新しい姿勢を生成するであろう動画システムに渡されるであろう。
ここで図7を参照すると、本発明の第2の実施形態による行動コントローラのためのフレームワークの概略図がより詳しく示されている。図7では、行動ノードは緊急性の平衡、優勢性要因、緊急性の差異、反応性、優勢性差異、親近感、ステータス、気持ちのいい態度、近接さ、空間の関係(space fling)及びくつろぎを含む。行動出力ノード65は顔の表情、高水準の姿勢ノード、視線方向、しぐさ及び姿勢を含む。他の実施形態はさらに発話の調子、速度、強勢等の行動出力ノードを含んでよい。
図7に概略して示されるフレームワークの複雑さは図5に示される単純なフレームワークより高いが、より複雑なフレームワークは本発明の特殊な応用例及び実施形態に合うように構築されてよい。ユーザがその行動フレームワークに従って生成されるオブジェクトの行動を修正できるようにするために、1つ又は複数の行動パラメータの集合を備える行動形容詞が、これが、ユーザが供給することを必要とされる入力のレベルを大幅に簡略するため構築される。
行動形容詞の例は、各仮想オブジェクト5、6の行動プロファイルが、軽薄さ、親しみやすさ、男っぽさ、他の好み(otherLiking)、悲しい、自惚れ、はにかみ及び優位性(superioritytoOther)という形容詞を含む図1Bに示される例を含む。これらの行動形容詞のそれぞれは行動パラメータ集合を備え、概して単純なテキスト名又は句によって行動設計ユーザインタフェースで表現される。通常、「形容詞」名称は、ユーザによる認識を容易にするために、直感的に前記「形容詞」が修飾する行動のその態様を説明する。行動パラメータ集合の中の各パラメータは、関数によって作用できる初期値又はデフォルト値を指定され、任意の外部入力された値と併せて作用されてよい。例えば、関数は単純な一次代数関数であってよい、あるいは所定量分、行動パラメータ集合にユーザによって指定される任意の値を単にスケーリングする(scale)ことであってよい。代わりに、関数はちょうど入力された値を戻す「恒等」関数であってよい。
図7に概略で示されるフレームワークは、非言語的な個人内(intra−personal)動作の多様な態様を実行するための本発明の態様を表す。行動コントローラは例えばオンライン会議又はコンピュータゲーム/チャットルームシナリオのキャラクタなど、仮想オブジェクト間の対話を強化し、それらをより信用できるように見えるようにすることができる。特にフレームワークは半自律的な(つまり、ユーザがアバターの各行動アクションを具体的に決定しない)アバターにとって有効である。
アバターの使用の多くは個人内の(intra−personal)動作を含むので、適切な非言語的な行動はそれらの使用を大幅に強化する。図7では、行動コントローラはいくつかの個人内(intra−personal)態度を符号化し、姿勢及び視線方向行動などの動画を生じさせるいくつかの出力を潜在的に制御する。制御システムはArgyle(Michael Argyle(1988)身体伝達第2版(Bodily Communication 2nd edition、Routledge)によって、及びMehrabian(Albert Mehrabian(1972)非言語的伝達(Nonverbal Communication、Aldine−Atherton)によって提案される理論に基づいている。Argyleは、非言語的な行動、親密さと優勢性−服従に対して最大の影響を及ぼす個人間の関係の2つの態様を提案している。これらは後述されるように恒常的動機としてモデル化できる。これらに関係して、Mehrabianは、微笑むこと、物理的な接近と接触、権威/ステータスなどの事柄で表示され、くつろぎ又は緊張と反応性で表示され、一般的な物理的な活性化で表示される非言語的活動親近感(好み)の3つの次元を提案した。反応性の次元はオプションであり、それ以外の場合これらの量に基づく図7に示される行動コントローラでは実現されていない。
図7では、緊急性及び優勢性のArgyleの次元はMehrabianの親近感とステータスの次元に密接に関連付けられているため、それらはアーキテクチャで関連付けられる。Mehrabianの次元は緊急性エージェントと優勢性エージェントにより直接的に決定される行動ノードとしてモデル化される。緊急性及び優勢性は恒常的動機としてモデル化される。
変数の所望される値は、仮想オブジェクトのグローバルパラメータ及び任意の他の仮想オブジェクトからの外部入力に基づいて緊急性平衡及び優勢性因数ノードによって計算される。所望される親密さを強める因数は、キャラクタがどれほど親しみやすいか、それが他のキャラクタをどれほど好きか(グローバルパラメータ)及び他のキャラクタがどれのど快適であるのか(外部入力)を含む。それを減ずる因数はキャラクタがどれほど内気か、及び他のキャラクタがどれほど優勢であるのかである。これらの因数のすべてはそれらのプロファイルに基づいてキャラクタごとに異なる可能性のある重み付けを有する。所望される優勢性の因数はやはり多くの他の因数に依存する2つのキャラクタ間のステータスの所望される差異である。緊急性差異は所望される緊急性と実際の緊急性の間の差異となり、実際の緊急性がIaであり、所望される緊急性がIdである場合に他のキャラクタがどの程度親密であるのか(外部入力)によって決定され、前記緊急性差異は以下のとおりである。
優勢性の方程式は、差異は言うまでもなく異なっているが類似している。行動反応性の第3の次元は本発明の他の実施形態で実現される。
本発明のこの実施形態では、キャラクタの行動は高水準タイプの行動、つまり気持ちのいい態度、近接さ、空間の充填、くつろぎに関して定義される。これらは階層の動機レベルとアクションを形成するレベルの間の中間物として動作する。反対はしかめっ面のしぐさ又は攻撃的なしぐさである可能性があるが、気持ちのいい態度は微笑んでいる顔などの一般的な愉快な態度である。それは親近感(好きか、嫌いか)の表現である。気持ちのいい態度は姿勢で多くの表現を有さないが、一例は、他のキャラクタではこれが通常親しみやすい姿勢として解釈されるとき、キャラクタがその頭を側面に傾ける「頭をかしげること」である。近接差は、物理的な距離を含む社会的な距離(親密さ)であるが、体の向きや相互の視線などのことも含む。低い社会的な距離は高い親近感の結果である。それは、前方に傾く又は他のキャラクタにふれるなどのいくつかの方法で姿勢で表現される。高い社会的な距離は反対であり、体を逸らすとして表現できるが、体全体の向きをかえることとしても表現できる。空間の充填は、例えば姿勢又はさらに多くの又はさらに少ない拡大しぐさによって自分自身をさらに大きく又はさらに小さくする傾向である。姿勢の例は完全な高さに体を起こすこと、又は足を離して立っている又は座っていることを含む。高い空間充填は優勢性と関連付けられ、低い空間充填は服従と関連付けられる。くつろぎは主に姿勢であるが、他の種類の行動とも関連付けられる低い体の緊張である。高いくつろぎは優勢なステータスのしるしであり、姿勢の非対称性によって表すことができる。
本発明のこの実施形態では、高レベルの行動因数を実際の姿勢に変換するいくつかの高水準姿勢ノードがある。姿勢ごとに1つの高水準姿勢がある。それぞれが高水準行動タイプの1つ又は複数に依存している。高水準行動タイプの値は、姿勢のための値を生成するために重み付けにより乗算される。これは、キャラクタが姿勢を実行している程度を決定する。重み付けはキャラクタプロファイルに依存し、その結果異なるキャラクタが同じ高水準行動のためにさまざまな姿勢を生じさせるであろう。姿勢の値は次に姿勢出力ノードに渡される。これは姿勢の実際の表現を記憶している。これは関節角度という点での表現である。各姿勢に対応する関節角度は重みとして姿勢の値を使用して総計され、結果は根本的な幾何学的な表現に直接的に渡されるキャラクタの実際の姿勢である。
図8は、仮想オブジェクトの動作の生成における特定の段階を示している。含まれている前記段階は、最初に、1つ又は複数の行動形容詞の1つ又は複数の設計であり、第2に複数の行動形容詞を備える行動プロファイルの設計であり、第3にユーザによるプロファイル内での行動形容詞の値の指定であり、最後に行動コントローラによる行動の以後の生成である。行動コントローラによる行動のユーザ入力及び生成はユーザが仮想環境でオンラインである間にリアルタイムで動的に発生することがあるのに対し、形容詞及びプロファイル設計段階は概してオフラインで発生する。
本発明の関連では、形容詞は1つ又は複数の行動パラメータの集合を含む。行動コントローラのフレームワークの中のどの行動パラメータが行動特徴に影響を及ぼすのかの選択は相対的に技能のあるタスクである。しかしながら形容詞を提供することによって、行動設計インタフェースのユーザに必要とされるデータと理解の量は削減される。形容詞設計70及び行動パラメータを指定するためのデフォルト値71の選択は、図7に関してすでに前述されている。
(プロファイル設計)
形容詞設計をセットアップするために必要とされる知識のレベルと対照的に、オブジェクト72の行動プロファイルにどの形容詞が含まれなければならないのかの選択は形容詞を構築するために必要とされる知識のレベルに比較してより複雑ではないタスクである。行動プロファイルの設計段階により、ユーザは、前記ユーザが行動設計インタフェースを使用して制御しようと努めるオブジェクト(複数の場合がある)の行動にどの行動特徴が関連しているのかを選択できるようにする。
したがって、行動プロファイルは1つ又は複数の形容詞から構成される。形容詞は単一のグローバルパラメータ値、又は一意に指定された行動ノードパラメータ値、あるいは複数のパラメータ名−値タイプの各タイプの1つ又は複数(a plurality of one or more of each type of parameter name−value types)を含んでよい。このようにして、ユーザは行動コントローラのための内部パラメータ及び/又はグローバルパラメータを設定できる。本発明の一実施形態では、行動プロファイルは2つのセクションを備え、その両方ともパラメータ名−値組を使用して説明される。第1のセクションはオブジェクトの全体的な個性を説明する(個性という用語はここではオブジェクトの一般的な気質を表すために使用される)。第2のセクションは属性名値の集合を備える。本発明の一実施形態では、「態度」セクションの各形容詞は一意の行動ノードパラメータ(複数の場合がある)を備えるのに対して、「個性」セクションの各形容詞はグローバルパラメータ(複数の場合がある)を備える。
態度は、仮想オブジェクトによって他の仮想オブジェクトがどれと対話しているのかに基づいて変化する仮想オブジェクトの行動の態様を備える。例えば、仮想オブジェクトは別のキャラクタよりあるキャラクタとより親しい可能性がある。態度はキャラクタの名称(又はキャラクタの集合)及びそのキャラクタと対話するときにだけロードされるパラメータ値の集合から構成される。この場合、態度は、それが少なくとも1つの行動パラメータ名−値組から構成される集合を備えるという点で「形容詞」の形式である。
行動プロファイルの態度パラメータセクションは、対話に存在するそれぞれの指名されるオブジェクトごとの少なくとも1つのパラメータ値の集合を含む。これらの値は適切な行動を生成するために行動フレームワークのパラメータにロードされる。例えばクラス「見知らぬ人」のオブジェクトのパラメータ値など、オブジェクトのクラス、又は個々のオブジェクトのためのパラメータ値の集合も、オブジェクトが、アバターが以前遭遇したことがない他のアバターを好まないという事実を反映するために指定することもできる。
パラメータは任意の適切な方法でその値が設定される可能性がある。2つの方法はきわめて適切と考えられる。第1に、値はノード名、パラメータ名、及びパラメータを設定する値を使用してフレームワークパラメータを指定することによって直接的に指定できる。第2に、複数のフレームワークパラメータはここに、すでに行動フレームワークの1つ又は複数の行動パラメータを備える集合を指すためにここに定義される「形容詞」と呼ばれるすでに説明されたデータ構造で関連付けられてよい。ユーザが形容詞に選択してよい一連の考えられる値は、プロファイル設計段階73に含まれてよい(又は代わりにそれは形容詞設計段階の一部を形成してよい)。
最後に、いったんユーザによって「形容詞」に値が指定されると(ステップ74)、集合の中の各パラメータの実際の値はステップ75で決定され、形容詞設計段階の間に定義されるデフォルト値(ステップ73)とユーザによって形容詞に指定される値(ステップ74)の関数として与えられる(given by)。
例えば、ユーザは「幸せ」と示される行動パラメータ集合「形容詞」に「10」という値を指定してよい。行動プロファイルが行動コントローラの中に読み込まれると、「幸せ」についてユーザによって指定される値「10」は、次に、パラメータ集合「幸せ」を構成するために形容詞設計によって決定された(ステップ70、71)すべてのパラメータ(複数の場合がある)のための実際のパラメータ値に変換され、実際の値は形容詞と関連付けられる入力値に作用する関数により決定される。
どのパラメータが集合的に行動パラメータ集合を構成するのかは、プロファイル変換ファイルによって決定される。プロファイル変換ファイルは各行動パラメータ集合を定義し、それぞれを「形容詞」名(又は行動パラメータ集合のための何らかの同等な名称又は句、つまりパラメータ集合が修正する行動特性と直感的に関連付けられる名称)と関連付ける。プロファイル変換ファイルは、行動パラメータ集合に属するとして少なくとも1つのパラメータも定義する。要約すれば、行動モデルによって使用される各パラメータの最終的な値は、プロファイルで指定される値、及び/又は行動パラメータ集合に指定される値の関数である。
ユーザがプロファイルを修正できる複数の方法がある。例えば、符号をテキスト編集すること、スライダを使用して、あるいはさらに詳しく後述される、仮想オブジェクトの直接的な操作によって値を指定することである。
ここで図8に戻ると、オブジェクトのための行動形容詞にユーザによって指定される値はオブジェクトの行動コントローラに対する入力として提供される。行動コントローラは、次に入力を取り、適切な行動出力を生じさせるために、それからどのパラメータに、どの値が指定されるのかを推論する(ステップ75、76、77、78)。オブジェクトによる行動を生成するために受け取られる入力が使用される機構が図9Aにさらに詳しく概略で示されている。
図9Aは、フレームワークが動作する2つの方法を示している。第1に、フレームワークは、外部入力又はグローバルパラメータ又は形容詞などの高水準入力が設定されると発生する、前方マッピングだけを使用して動作できる。このケースでは、フレームワークは前方に実行され、出力ノードの値が決定されるまで、ノードで入力から出力を生成し、(図6も参照すること)前方マッピングを実行するにすぎない。
第2に、フレームワークは、入力よりむしろ出力が変更されると逆転マッピングを実行するように動作できる(やはり図6も参照すること)。例えば、オブジェクトの直接的な操作が発生するときである。しかしながら、複数の入力が両方のマッピングを実行するために受け取られることもあるが、逆転マッピングは直接的なマッピングによる出力に影響を及ぼすことがあり、したがって本発明のいくつかの実施形態ではこれは最初に実行される。
ここで図9Aを参照すると、行動コントローラは入力を受け取る(ステップ81)。入力が例えば外部入力パラメータ又はグローバルパラメータに対応するフレームワーク内の高水準ノードでなど、入力ノードで受け取られる場合(ステップ81)、入力は次に所望される行動を生成するために動画システムに値を提供するために使用される(ステップ85)特定の出力を生じさせるために(ステップ83)接続されたノード(ステップ83)の行動コントローラのフレームワーク内で前方にマップされる。所望される行動は入力で示される行動に同等な行動を含む。しかしながら、同等な行動はさらに複雑であってよい、及び/又はさらに多くのアクションを備えてよく、その内のいくつかは同時に及び/又はシーケンスで実行されてよい。
(逆転マップ)
代わりに、入力がオブジェクトの直接的な操作などのソースから受け取られる場合には、受け取られる入力は、フレームワークの出力ノードの1つ又は複数が(動画システムと併せて)生じさせるであろう出力の行動と同等である。この場合、入力は出力ノードの1つ又は複数で受け取られ(ステップ81)、最初に、どの入力値がこのような出力を生じさせる(ステップ82b)のかを決定するために行動フレームワークを通して逆転マップされる。
この逆転マップは、このような行動を生じさせるであろうグローバルパラメータが推論されるまで、フレームワークのすべての関連するノードに、それらのパラメータ値を推論させることを必要とする(ステップ84、85)。これらの誘導されたパラメータ値は推論されたグローバルパラメータ値から開始する前方マッププロセスのために保持され、他の行動を生成するために使用される。結果として、ただ1つのアクションが直接的な入力を提供するために使用されたが、コントローラにより生じる行動はオリジナルの直接的に操作された入力よりはるかに豊富且つ複雑な場合があり、1つ又は複数の行動アクション、又は行動アクションのシーケンスを備えることがある。これは再びさらに詳細に後述される。
(前方マップ)
例えば、行動設計インタフェースが1つ又は複数のグローバルパラメータ、例えば、別の仮想オブジェクトに対するアバターの態度を表すおそらく特定のノードに特殊なパラメータ値だけではなく、例えばアバターなどの仮想オブジェクトの特定のムードを表すグローバルパラメータなどの1つ又は複数のグローバルパラメータにも値を指定する発明の実施形態を考える。ここで図7と図9Aの両方を参照すると、入力62は行動フレームワークの適切なノードによって受け取られ(ステップ82a)、次に内部行動ノード63を通して行動フレームワークによってマップされる(ステップ83)(例えば、図7に戻って参照すると、パラメータ値は緊急性平衡ノードと優勢性因数ノードを通して最初にマップされ、次に、出力ノード65に達するまで親近感ノードとステータスノード、及び気持ちのよい態度、近接、空間充填及びくつろぎのノードに前方にマップできる緊急性差異ノード、反応性ノード及び優勢性差異ノードにマップされてよい。図7に示される本発明の実施形態では、出力ノードは顔の表情、高水準姿勢ノード(及びこれはさらに姿勢ノードにマップする)、視線方向、及びしぐさノードを備え、そのそれぞれはアバターを動画化させ、適切な行動を生成させるために適切な動画システムに提供できる出力を生成する。入力がフレームワークを通して前方にマップされるとき、グローバルパラメータは、二次的な行動変化を誘導できるようにするフレームワークの中の他のノードに対する入力として提供される。これらのグローバルパラメータ値は、このようにして、さらに複雑な行為をアバターによって実行できるようにする。
(直接的な操作)
図7に図示される本発明の実施形態では、出力ノードは顔の表情、高水準姿勢ノード(及びこれはさらに姿勢ノードにマップする)、視線方向、及びしぐさノードを備え、そのそれぞれはアバターを動画化させ、適切な行動を生成させるために適切な動画システムに提供できる出力を生成する。ここで再び9を参照すると、ユーザは例えば別のアバターの腕に触れるために(例えばアバターのアームをクリックすることによって、ステップ90)アバターの姿勢を直接的に操作する例を考える(ステップ91)。これはフレームワークの姿勢ノードで特定の入力を生じさせる(ステップ92)。アバターによってこのような動作を生じさせるであろうグローバルパラメータ値は、他のアバターに対する親しみやすさが意図されるときにだけこのようにするためにセットアップされてよい。行動コントローラは、フレームワークのグローバルパラメータ入力ノードに達するまで姿勢ノードによって生じる値(ステップ93)からフレームワークの関連するノードを通って戻る姿勢ノードにより生じる値から逆転マップを実行し、グローバル行動パラメータ「軽薄さ」のための適切な入力値を推論できる(ステップ93を参照すること)。これらのグローバルパラメータ値は次にフレームワークを通る前方向マップを開始するために使用される。
逆転マップは、例えば気持ちのいい態度とくつろぎになど、フレームワーク内の他の行動パラメータ値にも値を指定するであろう(図7参照)。推論されたグローバルパラメータ値から前方向マップ(ステップ94)を実行すると、指定される値は他の行動を生成する(ステップ96)複数の出力(ステップ95)を生成するために使用される。例えば、気持ちのいい態度とくつろぎに指定される値は、アバターが微笑む結果となる、顔の表情のための出力ノードで追加行動を生じさせることができる。他方のアバターの顔を見るために視線方向を変更するなどの他の行動も生成されてよく、握手などのしぐさが腕に触れることに続くように生成されてよい。このようにして、ユーザは別のアバターの腕に触れるためにアバターの姿勢を直接的に操作したにすぎないが、行動コントローラは、ユーザが、アバターが他のアバターに対して親しみやすく、アバターに挨拶することを希望し、相応して適切な行動を生成することを推論するために、ユーザがアバターに与えた身体言語を解釈した。
要約すると、入力として受け取られる情報からさらに多くの情報を推論することによって、逆転マップを使用して生成される行動は、シーケンスとして又は無作為に実行できる1つ又は複数の行動アクションを形成する場合があり、視線方向、スタンス、運動等の1つ又は複数のアクションは同時に実行できる。これは、ユーザに非常に簡略な制御機構も提供する一方、オブジェクトにより示される行動の複雑さを大幅に高める。推論機構はさらに詳細に後述される。
直接的な操作は、ユーザが仮想オブジェクトの体の部分をクリックし、次に体の部分を新しい位置にドラッグするためにマウスを使用して仮想オブジェクトを直接的に操作することによって達成できる。他のコンピュータナビゲーションツール、又はカーソルとキーボード、ジョイスティック、トラックボール、ポインタ等のツールの組み合わせは仮想オブジェクト操作するために、当業者に明らかであるように任意の適切な方法で使用できる。
実際のオブジェクトが行動コントローラによって制御される本発明の実施形態では、ユーザは手でオブジェクトの姿勢を直接的に変更することを望むことがある。運動中の他のオブジェクトに対するその近接さだけではなく変位及び又は移動の速度を含んでよいこの運動の特徴も、どの入力が行動コントローラに供給されるのかを決定するであろう。
このようにして、ユーザは仮想オブジェクトによって特殊な所望されるアクションを示すことができ、行動フレームワークは、次に、ユーザが示した行動と一貫している所望される複数の行動アクションを外挿することができる。新しい出力パラメータ値は、ユーザによって示されるアクションだけではなく、さまざまな環境に適切である類似した運動も複製するために使用できる。さらにパラメータ設定値は、行動プロファイルに、又は行動プロファイルを構築するために次にユーザが使用できる形容詞として保存することができる。より複雑な行動の生成をトリガするためのオブジェクトの直接的な操作は、子供が複雑な行動を実行するために玩具を容易にプログラミングできるため、オブジェクトが玩具である場合に特に有効である。
仮想オブジェクトの行動コントローラのための行動フレームワークが内部パラメータとグローバルパラメータを推論する方法がここでさらに詳細に説明される。
(行動推論方式)
行動コントローラの動作を定義する行動フレームワークの構造により、例えばユーザが仮想オブジェクトを直接的に操作するときに、内部パラメータ値は逆転マップを使用してフレームワーク内に入力から推論できるようにする。再び図9Aを参照し直すと、行動コントローラがフレームワークの外部のソースから引き出される入力を受け取るケースを考える。入力が直接的に出力と関連付けられる場合、例えば、直接的な操作によって引き出される場合、逆転マップは前方マップのためにグローバルパラメータ値をシードする(seed)ために実行される必要がある。この逆転マップは、下記に概略される行動推論方式を使用して実行される。
入力の外部ソースはオブジェクトの環境により決定できるであろう。例えば、入力は、別のオブジェクトがオブジェクトに対して投じられた情報を備えてよい。代わりに、それは別のオブジェクトの行動コントローラからの出力を備えてよい。代わりに、それは例えばユーザに取り付けられる運動センサによって提供されるデータなどの、ユーザからの入力を備えてよい。代わりに、それはユーザからの直接的に入力される値、又は行動設計ユーザインタフェースを介した入力を備えてよい。入力は別のオブジェクトの身体言語の表示を提供でき、そのケースでは情報は適切な応答を推論するために使用できる。
いったん入力が行動コントローラによって受け取られる(ステップ80)と、受け取られた入力値は次にオブジェクトの出力値と関連付けられる(ステップ81)。これは行動出力ノードのそれぞれ異なるタイプごとに特殊目的マップを使用して実行される。いったんこの初期のマッピングが出力ノードで実行されると、逆転マップはノードの内部パラメータ及びグローバルパラメータを推論するためにフレームワーク全体を通して実行される。これは行動フレームワーク内の各ノードの影響を受けた出力ごとにセットアップされる方程式を使用して達成され、
Figure 2007527556
ここでは各因数は内部パラメータ又はノードの入力のどちらかである。
このようにして、出力の各項Tijは、それを出力の他の項Tijから区別する解決できる因数を有する。項Tijは内部パラメータ値又はグローバルパラメータ値などの内部値であってよい解決できる因数を含む。このような環境では、解決できる因数には単に新しい値が指定し直されるだけである。解決できる因数が別のノードから入力される場合、処理はソースノードからの入力を表すための方程式の新しい集合を形成して繰り返される。出力での変更は、このようにして解決可能な因数を内部パラメータ又はグローバルパラメータによって表現できるまでノードの階層を上方へ伝搬される。
各項Tijは、2つの解決可能なパラメータを有する。つまり一方はリアルタイムの制御のために内部状態を推論するときに解決のために使用され、他方はプロファイル編集のために使用される。
解決可能な因数という点での各ノードの出力は以下のとおりであり、
Figure 2007527556
ここではfijは解決不可の因数の総計であり、Sijは解決可能な因数である。この一次方程式は、適切な線形代数方法を使用して解かれる。例えばユーザがいくつかの編集機能を実行した場合、一次方程式のシーケンスが行列形式で存在し、
o=Fx
そこではoは編集のそれぞれの出力のベクタであり、Fは例えば外部入力又は時間変化するパラメータのさまざまな設定値などの(文脈に依存する可能性がある解決不可の因数の行列であり、sは解決できる因数のベクトルである。Fが二乗ではないすべてのケースにおいて複数の正確な解決策があるであろうため、擬似反転方法が最小二乗解を見つけるために使用できる。
s=F*0
この方法は単一ノードのパラメータを推論できるようにする。出力に直接的に接続されない階層のさらに上にノードのためのパラメータを推論するために、解決可能な因数のいくつかは内部パラメータよりむしろノードの中へ入力として提供される。前記入力は外部入力、グローバルパラメータ又は他のノードの出力のどれかである場合がある。外部入力は解決可能なパラメータであることはできない。グローバルパラメータはそれらの値を解決プロセスの間に直接的に設定させる。
入力が別のノードの出力である場合には、解は他のノードのための解決を必要とし、それは、そのノード及びそのノードに入力を提供するあらゆるノードを含む、方程式のシステムをセットアップすることにより達成できる。このケースでは、追加ノードは他のノードに対する出力を提供し、したがって解決される方程式は
Figure 2007527556
の形で最もよく表現され、各行動ノードは既定の出力ノードの出力から決定される。
(リアルタイム制御)
行動階層の中の最終層によりユーザがリアルタイムで複雑な行動をオブジェクトに提供できるようになる本発明の実施形態では、ユーザは種々のソースから行動コントローラに入力を提供する、あるいは任意の個別オブジェクトのために複数の行動設計インタフェースを使用することを希望することがある。例えば、又は入力を提供する他のデバイスは、例えばユーザの頭部及び/又は体の上で運動トラッカを使用することを含んでよい。2つ又は3つ以上の制御装置は操作上の負担を削減するためにユーザによって同時に操作されてよい。使用される制御装置は、ユーザが仮想オブジェクトの体のすべての部分をつねに制御することを必要するのではなく、ときどき限られた数の部分を操作する必要があるにすぎないことを確実にするために行動モデルで特定のパラメータを設定するために形容詞の使用を利用する。
直接的な操作によって引き出されるのか、あるいはユーザを追跡調査するセンサによって引き出されるのかに関係なく、オブジェクトの行動は適切なインタフェース機構を使用して行動コントローラに渡すことができる情報を生成する。情報が特定の行動出力ノードのパラメータ値に同等であるパラメータ値を表現するとき、行動コントローラは仮想オブジェクトによるその特定の行動を生じさせるために必要とされる関連のあるパラメータに値を内部で指定するためにフレームワークを通して逆転マップを実行する。これによりオブジェクトはこれらのパラメータと関連付けられる他の行動を生成できる。例えば、ユーザは図2Cに示されるような別のキャラクタの腕に触るためにオブジェクトの腕を動画する可能性がある。フレームワークは、このしぐさが軽薄さの高い値に対応すると推論する。したがって、これは例えば前に傾く又は微笑むなどの他の軽薄な行動を生じさせるであろう。
パラメータ値は、トラッカが使用される場合にユーザの行動に対応する可能性のある、「親しみやすさ」などの幅広い行動パターンを表すことができる。推論機構はどのような種類の行動が表現されているのかを決定するために仮想オブジェクトの操作に関連する代数方程式を解くだけなので、本発明のこの実施形態におけるユーザの行動を推論するために確率論的な機構は使用されない。いったん「親しみやすい」行動として認識されると、フレームワークはさらに幅広い範囲の親しみやすい行動を複製する。このより幅広い範囲の行動は、ユーザがリアルタイムで直接的に制御することを期待される内容を超えている。例えば、仮想オブジェクトは、ユーザが握手をするためにアバターを操作することによってアバターが親しみやすいことを示したに過ぎないという事実にも関わらず、フレームワークにより微笑むように誘導されてよい。入力が提供されない場合、フレームワークにより仮想オブジェクトは自律的に行動し続けることができる。これにより、行動設計ユーザインタフェースに不案内なユーザは仮想環境にさらに慣れ、仮想オブジェクトをもともとの始めから操作しようと試みる必要なくその環境について学習できるようにする。これは、非常に低い年齢の子供にも適した、きわめて使いやすいインタフェースを提供する。
添付図面に示されるような行動制御システムは非言語的な行動をサポートする発明の実施形態に基づいている。しかしながら本発明全体として、行動は、それぞれが特定のパラメータによって修正される物理的なアクション及び/又は音声アクションによって表現される。例えば、身体言語などの物理的なアクションは、例えばオブジェクトが恐れているかどうかなど、オブジェクトの現在の内部の状態により修正されてよい。音声アクションは例えば音の高さなどのパラメータによって修正できる。これに関連して、用語「行動」は特定の刺激に対する制御された、又は制御されない(反射性)反応として生成される1つ又は複数のアクションとして定義できる。行動はより一時的な感情の特色(例えば、幸せ又は悲しい)だけではなく長期の特徴特色(例えば臆病又は攻撃的)も含む。
本発明の非言語的行動の実施形態の一例は、親密さ及び優勢性−服従の概念を使用して個人間の関係性をモデル化する。本実施形態では、行動制御システムは、関係者の間の親密さと優勢性/服従のレベルを反映する親近感、権威/ステータスなどの特定の属性の多様な程度を示すために非言語的な活動を生じさせる。親近感は、例えば微笑む、物理的な接近及び/又は触ることなどの活動によって適切な行動のディスプレイにより表現される。権威/ステータスは、例えば姿勢における表示されたくつろぎ又は緊張によって表現できる。表現できる他の非言語的活動は一般的な物理的な活性化によって表示される応答性を含む。これに関連して、図1Bに図示されるパラメータ値は、本発明のこの実施形態では、親近感又は「男っぽさ」に対応する「親しみやすさ」と「他の好み(otherLiking)」、又は優勢性に対応する「自惚れ」などの所定の感情の/個人内(intra−personal)パラメータである。
(発明の他の実施形態)
ここに前述された実施形態は主に制御されている仮想オブジェクトの行動を説明している。しかしながら、ここに説明される行動制御の概念は、たとえ前記説明で明示的に説明されていなくても容易に非仮想、つまり現実のつまり実体のあるオブジェクトの制御に及び、本発明は当業者により理解されるように、相応して実在のオブジェクトと仮想オブジェクトの両方の行動に及ぶ。
本発明の前記実施形態は本質的に静的である行動フレームワークを有していた。静的なフレームワークでは、パラメータ値は、ユーザによっていったん設定されると、それはリセットされるまでその値に設定されたままである。より自律的な動画は経時的にパラメータを変えることにより製作できる。本物の動画を作成するには、フレームワークは時間依存性のパラメータを含むように修正される。
さまざまな種類の時間依存性パラメータは行動フレームワークによりサポートできる。例えば、無作為に変化するパラメータは、異なる種類がより予測可能な動画を生じさせることができる一方、ときおりの姿勢のシフトを提供できるであろう。このようなパラメータは逆転マップを実行するためのより精密な技法が必要であり、従って、本発明の最良の形態として考えられない。しかしながらパラメータ変更のあらゆるタイミングの改変を制御することによって、より現実的な姿勢シフトが得られてよい。
本発明の別の動画化された実施形態は、いくつかのプロファイルの提供を必要とし、経時的にプロファイル間で変更または補間される。これは1回の進行で(one’s go)パラメータの集合を改変するであろう。本発明のこのような実施形態を実現する1つの方法は、動画の感覚で重要なフレームとしてプロファイルを提供し、それらの間で補間することである。より多くの動画を実現する別の方法は、それぞれの状態がプロファイルを付着される有限状態機械システムを使用してキャラクタを制御することである。この状態は、世の中の出来事、キャラクタの内部因数のために変化し、新しい状態が入力されると、そのプロファイルがロードされる。
本発明の他の実施形態は他の種類の出力ノードを有する。例えば、本発明の一実施形態では、出力ノードとして姿勢ノードだけを提供できる。この出力ノードはパラメータから行動に簡単なマッピングを提供し、パラメータは姿勢ごとに存在し、これらのパラメータの値は姿勢の間で補間を提供する。このモデルは、例えば運動の部分が同じように補間できるであろう他の種類の行動に適用できるであろう。しかしながら、より複雑な行動は、内部パラメータを推論するために行動から過去に遡ってマッピングするという複雑さを増すさらに複雑なマッピングを必要とする。
この問題には多様な手法がある。第1は、それを無視し、将来的にであるが、解かれていない行動を生じさせることができるいくつかの出力ノードを有することである。これは制御できる他の種類の行動がある限り実行可能なオプションである。いくつかの態様は、例えば視線方向など、ユーザが制御するには困難すぎるため無視できる。別の手法は、出力モードのタイプごとに手作りのマッピングを提供することである。これは多大な時間を要する。最後の方法は、例えばベイジアンネットワーク又はニューラルネットワークなど、マッピングを学習するために何らかの種類の学習方式を使用することであろう。
本発明の一実施形態は、有限状態機械拡張と確率論的ベイジアンネットワーク拡張を組み合わせる。ネットワーク内の各ノードはこの実施形態でいくつかの状態を有し、それぞれの状態は異なる内部パラメータ設定値、及び入力と出力の間でこのように異なるマッピングを有する。この実施形態では、ノードが既定の状態にある確率は他のノードの状態と、グローバルパラメータ又は他のノードの出力に依存するであろう。次に、フレームワークはノード間に2つの異なったタイプの相互関連を有する。一方はノード間を移動する連続評価パラメータで現在のシステムのように連続的である。他方はノードが離散状態の集合の内の1つである個別的である。他方の行動はそうではないが、いくつかの行動特徴は当然個別的であるため両方のタイプの情報には等しい重要性が与えられる。例えば、人は腕を組む、又は腕を組まないのどちらかであり、一方は会話中であるか、又は会話中ではなく、どちらのケースも50%はあまり意味がない。しかしながら、他の行動特徴は当然連続的であり、例えばオブジェクトは、経時的に幸せであると怒っているの間で連続的に変化することができ、個別的なステップのシーケンスとして変化できるはずはない。
異なる方法は本発明のこのような実施形態で各種の情報を推論するために適している。ベイジアンネットワークが個別的な状態の集合の確率を推論できるのに対し、ここに提示されるフレームワークは不確実性のない連続的なデータに有効である。本発明のいくつかの実施形態では、行動フレームワークに対する拡張により情報を推論するための両方の方法を結合できる。
添付図面を参照して前述された方法は非確率論的であり、各ノードの状態が既知であるときに連続的な状態を推論するために使用できる。両方の推論方法が結合される本発明の他の実施形態では、ベイジアンネットワークは事前に使用でき、ノード状態及びそれらの間のその確率関係はベイジアンネットワークとして処理し、出力から各ノードの状態を推論するために使用できる。ネットワークのトポロジは、それがベイジアンネットワークとして処理されるのか、連続的なネットワークとして処理されるのかに関係なく同じままとなるであろう。いったんこれらの要素が所定の位置にあると、システムの内部パラメータは人々の行動に関するデータから自動的に学習できる。
本発明の他の実施形態では、プロファイルを設計するための前述された方法は、現実のデータに基づいている内部パラメータの集合を学習するために多数の例に拡張できる。ベイジアン学習技法は、確率関係性を学習するために使用できる。これを用いると、システムのパラメータは現実の人からのデータに基づくことができるため、理論的に捕捉するのが非常に困難である人々の行動をさらに正確に反映できる。
ユーザがオンラインチャットルームを介して対話する本発明の実施形態がここで説明される。この実施形態では、ユーザは行動コントローラに入力を提供するテキストだけではなく身体言語を用いて自らを表現できる。これは、オンライン仲介、オンライン会議(つまり情報が仮想オブジェクトのグループによって交換されなければならない)、オンライン共同制作(つまりタスクが仮想オブジェクトのグループによって交換されなければならない)、及びオンライン商環境(例えばアバター販売室)などの他の仮想環境だけではなく、アバターが人間のカウンセラーを表すオンラインカウンセリングなどの本発明の実施形態にも適している。
身体言語は、行動を生成するためにプロファイルから所定の感情/個人内パラメータの集合を使用することによって、説明されるフレームワーク内の設計されるアーキテクチャによって自律的に生成される行動を備える。ユーザは標準的なデスクトップPCを使用してシステムにアクセスする。行動コントローラに入力を提供するためにユーザによって使用されるコンピュータナビゲーション装置は、例えばマウスとキーボードなどのこのような環境で一般的に使用可能なものに限られている。キーボードはテキストを入力するために使用され、マウスはキャラクタの運動を制御するために使用できる。ユーザは大抵の場合テキストを入力することに集中したいため、キャラクタ移動の制御はときおりとなるであろう。(例えば、行動設計ユーザインタフェースを介した)1つの入力は、単一の運動よりむしろキャラクタの全体的な行動への補正を生じさせ、このようにして少量のユーザ入力を活用する。これは、その入力から感情/個人内部(intra−personal)パラメータを推論することによって容易に達成される。アバターの感情のより直接的な入力は現在のグラフィックチャットシステムで使用される「感情」を通して行われる。これらは直接的にグローバルパラメータを設定できる。
本発明の別の実施形態は、ユーザの運動によって提供される入力をさらに含むことによって前記実施形態を拡張する。例えば、家庭用コンピュータは多くの場合、行動コントローラに、ユーザの状態を推論するために使用される入力を提供する特殊化された出力ノードを通して顔の追跡調査を実行するように装置できる安価なビデオカメラを有している。
前述された本発明の実施形態により、ユーザは、彼らがそのアバターのプロファイルを編集できるようにすることによりそのアバターの行動をカスタマイズできる。エンドユーザの場合、これは可能な限りユーザフレンドリな方法で行われなければならず、図1Aから図2Eに図示される実施形態は、行動設計ユーザインタフェースにより提供されるスライダの集合を使用して形容詞を編集することに特に適している。
本発明には、チャットルームのための方法に類似した方法で実現できる国際アバター会議を含む多くの応用例がある。このケースでは、特に商談のために参加者の実際の身体言語を捕捉することはさらに重要である。これは、ユーザの高品質顔追跡調査を含むより精密な身体追跡調査システムを有することによって実行できるであろう。声のトーンなどの他の合図もユーザの状態を推論するために使用できるであろう。行動コントローラのフレームワークは、各ユーザの行動が正しく推論されることを確実にするために、さらに複雑化できる。
コンピュータゲーム環境における使用のために構成される本発明の実施形態では、過剰な身体言語が生成でき、そのキャラクタのためのユーザのコマンドから、そのキャラクタの内部状態がどうであるのかも推論される。ユーザ入力は、例えば前述されたようにいくつかの方法で行うことができ、ユーザはキャラクタの姿勢を直接的に操作することができるであろう。代わりに大規模行動は、誰かに話しかけるのか、あるいは選ばれた言葉に関係なく、例えばアクションの選択などの推論のために使用できる。行動フレームワーク用のグローバルパラメータがいったん推論されると、ゲームの中のキャラクタはこれらを反映することが可能になる。有利なことに、本発明はゲーム設計者が強力であるが直感的なツールを使用してキャラクタの行動の設計に細かい管理を行うことができるようにする行動設計ツールを提供する。
オブジェクトが役割を果たすことを必要とする本発明の実施形態では、ユーザが設計インタフェースを使用して作成できるプロファイルは、行動が役割に適切であること、及び内部状態の任意の推論がその行動が推論されるオブジェクトの役割を反映することを確実にするために使用できる。
(ロボット利用応用例)
前述された実施形態は特に仮想環境に関連しているが、複雑な継続している行動を生成できる行動コントローラとのインタフェースを採るためにユーザに単純な入力装置を提供するという概念は現実世界、特にロボット利用玩具に応用例を有する。したがって、本発明の他の実施形態は、ユーザが、ロボットオブジェクトの複雑な動作、特におもちゃの人形などの特に関節のあるロボット的なオブジェクトで複雑な行動を生成するための単純な機構を提供する。
このような実施形態は、行動プロファイルに指定された直感的なラベルの操作だけを必要とする一方、例えば子供が精密なキャラクタをロボット利用のペット又は玩具に提供できるようにする。このような応用例では、行動設計ユーザインタフェースはリモコン制御型装置として提供されてよい。行動制御情報は次にロボット装置による適切な処置を指示するために無線で提供できる。行動コントローラは、動画指示がロボット装置にだけ伝送されるインタフェースデバイスの一部、又はロボット装置自体の一部又は次に行動指示をロボット装置に中継するプロキシ装置の一部のどちらかとして提供されてよい。
本発明の他の実施形態において、製造又は生産ラインの状況で使用されるロボット装置は、ここに説明されているような階層行動モデルフレームワークを使用して同様にその行動を制御することを必要とし、行動設計ユーザインタフェースは、ロボット利用装置が実行しなければならないタスクに応じてさらに特殊な役割をする行動オプションを提示してよい。このようなロボット装置はその状況に応じて、結線接続又は無線接続のどちらかで遠隔制御されてよい。水中用の環境では海中ロボットが無線通信リンク及び/又は有線通信リンクを必要としてよいのに対し、例えば、生産ラインでは、ロボット利用装置は有線通信リンクを介して制御されてよい。
有利なことに、複雑なロボット行動に対して使用が簡単な行動設計インタフェースが提供される。これは、ロボットオブジェクトがユーザによるリアルタイム制御を必要とするなんらかのレベルの自律/半自律行動の、スピードが重視されるタスクを実行しなければならない応用例で特に重要である。階層行動フレームワークは、関節のあるオブジェクトで自律的及び半自律的な動作を生成し、制御するために使用される。階層コントローラは、フレームワークを使用して複数の行動パラメータ値を推論するため、及び同等な行動に対応する出力を生成するために行動コントローラでロードされるときにパラメータ値を使用して関節のあるオブジェクトで同等な行動を生成するために、行動アクションと関連付けられる入力を受け取るように構成される。同等な行動は、同時に又はアクションのシーケンスの一部として実行されてよい、入力された行動アクションを複製する、及び/又は1つ又は複数の他の行動アクションを備えてよい。
(行動変換)
ここに前述された推論方式により、異なる文化的な行動の間で変換する能力を含むように行動コントローラの応用例を拡大する仮想エージェントつまりアバターの内部状態のモデルを決定できる。例えば、アバターがウェブミーティングなどのオンライン環境における異なる文化背景のユーザと対話するユーザのための個人的な仮想エージェントとして機能しているケースでは、ユーザの実際の移動及び感情を直接的に表現する能力は望ましくない可能性がある。
本発明のこのような実施形態は、入力段階又は出力段階どちらかで行動コントローラによって行動を変換することを含むように修正されてよい。これは、一方の文化に対応する行動フレームワークを使用して外部出力を生成し、他方の文化に対応する別のフレームワークを使用してこの外部出力から行動を作成し直すことによって達成できるであろう。それ以外の場合、2つのフレームワークは同じとなるであろうが、さまざまな文化に対応するさまざまなプロファイルを使用できるであろう。
これは、また、第1の文化に対応する行動アクションに関連付けられる行動コントローラによって受け取られる入力を、第2の異なる文化における同等な行動アクションに関連付けられる入力に最初に変換できるようにする変換要素を含むことによっても達成できる。同様に、第2の文化に従った動作に対応する行動コントローラの出力行動ノードから出力を受け取り、これを第1の文化に変換して戻す変換要素を実現することが可能である。
変換要素は、ある文化から別の文化に身体言語の変換を実現するためにコントローラ内で設けることができる。これを達成できる1つの機構は、異なる文化事情で異なる身体言語を生成するために異なるプロファイルとともに使用される1つの身体言語の意味を表す高水準パラメータによってである。これは、他の観察者が参加者のアバターの身体言語を独自の文化で知覚することを確実にするであろう。したがって特定の行動は文化Aの観察者によってシステムに入力され、文化Aに対応するプロファイルによって親しみやすい行動として解釈されるであろう。親しみやすさパラメータは、次に文化Bに対応するプロファイルを含む機械で機械集合に渡されるであろう。この機械は異なる行動であるが、文化Bにおける親しみやすさの意味を有するものを生成するであろう。
オブジェクト内で行動を生成するための方法及び装置の前記実施形態は、同等な自律手段が、基準の別の組に適合する行動ディスプレイに基準の前記組に一致するオブジェクトによって行動ディスプレイをマップするために提供される場合には、行動トランスレータのすべての実施形態で実現される必要はない。マッピングは、行動を生成するシステム及び/又は行動を観察者に示すシステムのどちらかによって実現される。
マッピングがアバター動作を生成するシステムの一部として提供される行動トランスレータによって実現される実施形態では、行動システムが、示されている人口統計上のグループと一貫した行動上のアクションを生成することが必要である。これは、システムが生成する行動を修正する1つ又は複数の制約によって、及び/又は他の人口統計上のグループのために生成される行動をその人口統計上のグループにマップする1つ又は複数の規則によって人口統計上のグループを表すことによって実現できる。
行動トランスレータが観察者のシステム上に設けられる実施形態では、トランスレータは行動を生成している行動システムの出力を備える入力を受け取る。行動トランスレータは、オブジェクトによる1つ又は複数の行動アクションを表す入力を、観察者のシステムで表示されるときにオブジェクトにより実行される観察者のシステムで設計される人口統計グループに適切な(あらゆるアクションの省略又は他の人口統計グループのための1つ又は複数の同等な行動アクションの生成を含んでよい)行動に変換するための1組の規則を含んでよい。
行動トランスレータは、例えばアバターのような仮想動画化多関節オブジェクトなど、ある人口統計上の集団のグループに適合する仮想オブジェクトの行動アクション及び/又は表示されている特徴を、別の人口統計上のグループに適合する同等な行動アクション及び/又は表示されている特徴にマップすることができる任意の仮想環境で実現できる。
仮想環境では、行動トランスレータは、前述されたような行動フレームワークの各パラメータと関連付けられる個別入力よりむしろ、例えば行動の高水準意味についての情報を送信することによってアバター間で行動(特に表情の豊かな行動)を変換する。「高水準」の意味は、この行動を表示し、行動フレームワークについてパラメータ値を生成するために使用される仮想オブジェクトの前に生成される行動から推論できるか、あるいはパラメータ値はユーザインタフェースを介して提供される入力から直接的に又は間接的に決定できる。両方のケースで、行動を作成するために使用される2つの行動プロファイルが異なるであろうため、1つの人口統計上のグループに一致して局所的に、及び別の人口統計上のグループに遠隔で一致して、行動を生成することが可能である。代わりに高水準行動だけを推論することができ、これはそれが適切な変換を経る遠隔場所に送信されてよい。
前述された行動を生成する方法は高水準行動情報に対処できるため、さまざまな様式間で変換すること、つまりさまざまな種類の行動アクション間で変換することが可能である。したがって、英語のしぐさは日本語の声の調子に変換することが可能であり、逆の場合も同じである。別の例は、指先をいっしょにするようなしぐさが「あなたはしぐさについて何を話しているのか」を示すために使用される場合であり、この行動は代わりに1つの人口統計上のグループで有声化でき、別で違うふうにジェスチャで表現され、別の人口統計上のグループによって完全に無視されるであろう。
高レベルの行動の意味を何らかの有声化された説明で変換することも可能である。例えば、特定の人口統計上のグループでは、2つのアバターがオンライン会議に出席し、一方が他方に対し極めて他と異なる行動を示した場合、これは、後者のアバターが最初のアバターのボス/直属の上司であるために発生するのであろう。このような他と異なる行動は他の人口統計上のグループでは実行されない可能性がある。2つのアバターのステータスを後者の人口統計上のグループから観察者に説明するために、第1のアバターが他方のアバターに対するそれらの関係性を有声化すると役立つ場合がある。自身の人口統計上のグループでその同じ行動アクションを共用する観察者にとってこの追加の情報を提供する必要はないであろう。
本発明の行動トランスレータの実施形態は、分散コンピューティング環境を使用して実現される仮想環境で実現できる。分散コンピューティング環境により、複数のユーザが仮想世界に参加できる。各ユーザは、ユーザが、ユーザによって割り当てられる指定された人口統計上のグループに準拠するように、仮想世界で動画化されたオブジェクト(例えばアバター)の行動を知覚できるために彼らが仮想世界に参加できるようにするアプリケーションを構成できる。行動変換は本発明のある実施形態では局所的に(つまりユーザのアプリケーションをサポートするプラットホームで)発生する。代わりに行動変換は、遠隔で(例えばそのアバターの行動が変換されているユーザのアプリケーションをサポートするプラット上で)実現できる。
本発明の一実施形態は、複数のアバターが会話している仮想環境の各観察者が異なる人口統計上のグループによってさまざまな行動を知覚できるようにするために適した行動トランスレータを提供する。知覚された行動が生成される人口統計上のグループは、ユーザによって指定される人口統計上のグループに従ってアバターの行動コントローラによって決定されてよく、アバター又は仮想環境におけるアバターの観察者により指定される人口統計上のグループによって表現される。
したがって、複数の人が仮想環境に参加しており、各人が1つ又は複数のアバターと関連付けられている場合、各人は特定の人口統計上のグループと自分達を関連付けることが可能である。これは、アバターのための行動コントローラのプロファイルに追加できる。代わりに、各観察者は、観察者が仮想世界で観察する、及び/又は参加することができるようにするアプリケーションをサポートするプラットホームで彼らが観察できるアバターの表現が特定の行動アクションを、人口統計上のグループがアバターの行動を生成する行動システム内で指定されているかどうかに関係なく、観察者の人口統計上のグループに適合する同等な行動アクションに変換することを確実にできる。
図10A、図10B、図10Cは本発明の実施形態に関してここに説明される。仮想会議環境に参加しているユーザA(図示せず)によって制御されるアバターが友好的な挨拶のような行動を示すことを意図しているように変換が実現されると考える。図10Aでは、ユーザはイングランドの人口統計上のグループに従って行動が表示されなければならないと指定した。行動コントローラの高水準「挨拶−行動」出力は、次にその帽子を持ち上げるアバターを備える行動アクションを生成するために修正される。これらの行動アクションは、第1の人口統計グループと関連付けられたアバターの行動を生成する行動システムに含まれる規則集合/プロファイルに一致する。仮想世界の別の参加者は、「アメリカ人」などの別の人口統計上のグループを指定してよいため、彼らは「挨拶−行動」を手を振ることを備えるように知覚されるであろう(図10Bを参照すること)。別のユーザは、友好的な感情を伝えるためにより形式的な挨拶が必要とされる可能性がある別の人口統計上のグループ(例えば日本人)を示してよい。このユーザはアバターが友好的な挨拶としてお辞儀するのを観察する(図10Cに概略で示される)。これらの異なるユーザはすべて同じミーティングにオンラインで参加するであろうが、それぞれは自分達の異なる文化には関係なく友好な挨拶が発生したのを単に知覚するであろう。
前記実施形態では、アバターについて生成される行動は単に挨拶アクションが実行されなければならないことを示すにすぎず、行動ジェネレータの出力は、ユーザが、それがユーザの好みに従って局所的に変換される仮想環境に参加できるようにする各アプリケーションに伝達される。ユーザが仮想環境に参加できるようにする各システムには、行動コントローラによって提供される受け取られた行動出力を穏やかにし、ユーザによって指定される人口統計上のグループを反映する画像を局所的に表示する行動トランスレータを備えられる。代わりに、ユーザのシステムは、ユーザが指定した人口統計上のグループに関して(遠隔システム上に位置するであろう)アバターの行動を実際に生成する行動コントローラと情報を交換できるであろう。この情報は、ユーザのシステムで生成される行動を修正するために使用できるであろう。この例では、ユーザのローカルシステムによって受け取られる入力はローカルシステム上での変換を必要とせず、ユーザが指定した人口統計上のグループに、適切とユーザが知覚するであろう行動を直接的に表示できるようにするであろう。
適切な挨拶行動等が複数のアバターがアバター会議の目的で提供されるときに提供されることは特に有効である。アバター会議は、その内容が参照することにより本書に組み込まれる国際公開第9954822号と国際公開第9930494号でさらに詳しく説明される。
複数のアバターが仮想世界環境に参加する仮想会議を備える本発明の実施形態では、会議の状況が行動を修正するために使用できるのが有効である。例えば、オンライン学習環境に参加する場合、生徒を表すアバターが話をする前に/質問を尋ねることを要求するときに手を挙げる、及び教える役割を実行するアバターが、自分の手を挙げたアバターを指すことによってアバターが話をできることを示す場合に有効である。仮想授業環境のための適切な行動は、例えば、ステータスに関連する動作が適切ではない可能性がある正式な営業会議仮想環境などの他の仮想環境のための行動と対比することができる。本発明の別の実施形態では、変換は、例えば仮想教室内での先生/生徒、及び他の仮想環境における先生/生徒の会話などの役割状況で影響を及ぼされることもある。変換される可能性がある、他の状況に依存した文化的/人口統計上の行動の例は、子供のアバターが仮想環境(例えば部屋)の一部に入るときの成人アバターの反応を含み、その場合異なる人口統計上のグループが異なる反応を表示してよい。
異なる文化の間の動作変換を必要とする場合があるアクションの例は、OKの手のサイン(「O」しぐさ人差し指、及び親指、又は類似する意味)を含む。これはイギリス人にはOKを意味するが、人が微笑んでいない場合、フランス人に対してはそれは「ゼロ」又は「価値がない」ことを意味する。日本人にとっては、それは「金」を意味することがある。別のしぐさは人差し指で鼻の脇を軽くたたくことである。イタリアでは、それは世話をする又は危険を意味することがあるのに対し、英国ではこれは陰謀又は秘密を示すことがある。アバターのある文化における行動を強化するが、別の文化では理解されないであろう別のアクションは顎を軽く触ることである(手がアバターの顎の下に置かれ、次に前方に突き出される)。これはフランスでは侮蔑として解釈されることがあるが、北イタリアでは「姿を消せ」又は「あなたは私をイライラさせる」などの感情を意味することがある。対照的に、南イタリアの特定の部分では、それは現在ではもはや無礼ではなくなり、単に「いいえ」又は「ほしくありません」という感情を伝えるだけである。
このようにして、本発明は表示される行動がさまざまな人口統計上のグループに異なる意味を伝達してよいときは必ず(その用語が行動ディスプレイを含む)行動アクションを変換するための手段を提供する。特に意味が変化する場合、行動アクションによって伝達される感情もかなり変化する。例えば、多くの人口統計上のグループでは頭をうなずかせることはイエスを意味する。しかし、他ではそれはノーを意味する。さらに、行動アクションは、頭を高く又は低く始まるであろううなずきの場合のような人口統計上のグループに従って修正されてよい。変換はある行動から複数の行動アクションへ、あるいはその逆であってよい。
多様な行動アクションを反映するために、前述される行動フレームワークに提出されるフレームワークは適切な人口統計上の行動規則を反映するために修正されてよい。人口統計上のグループの例は、例えば政治的な特徴、人種的な特徴、民族的な特徴、宗教的な特徴、及び社会的な階級、役割/職業、背景の特徴を含む多様な特徴によって識別可能な文化を備える(そして本発明の適切な実施形態では行動プロファイルで表現できるであろう)。人口統計上のグループは、キャラクタの役割を反映するために仮想環境で修正されてよい。例えばキャラクタが仮想世界の「名門」の一員である場合には、これは社会的な階級が高いことを示すであろう。聖職者の場合、これもいくつかの人口統計上のグループでは高い社会的な階級を示すが、他ではこれは非常に低い社会的な階級であるであろう。したがって、人口統計上のグループに応じて、聖職者が「名門」の一員と対話する場合は、対話に参加する聖職者キャラクタについて生成される自律的/半自律的な行動が非常に異なるであろう。
変換されてよい行動アクションは、特定の行動アクション、スタンス、行動エチケット(例えば挨拶)を反映するアクション、仮想世界における社会的なステータスを反映するアクション、仮想世界で実行される役割を反映するアクションを実行する際の姿勢、音声のトーン、話し方、しぐさ、視線方向、うなずき、仮想環境における2つのアバターの互いに対する近接などのアクションを含む。挨拶型行動の例は自分の帽子を持ち上げるなどの衣類を取り除くこと、お辞儀をする、着席している、座っている又は(仮想世界でのアバターの社会的なステータスも反映するであろう)横たわっている姿勢で別のアバターに挨拶するを含む。社会的なステータスに関連する行動アクションの例は仮想世界環境に他の誰が存在しているのかに依存する行動を含み、例えば、アバターのボスが存在する場合には、アバターはさらにこびへつらっている可能性があり、あるいは観察者はより正式な挨拶であり(observer more formal saltations)、及び特定の人口統計上のグループでは仕事上の対話においてより正式な挨拶が普通であるが、他の人口統計上のグループではこのような正式な行動は通常実行されない。
行動ディスプレイは、これが文化的なグループ又は人口統計上のグループを表すボディーアートによって示されてよいような部族の忠誠を含むようにアバターの出現を修正することを含んでよく、例えば1つの形式のドレスを着用した女性アバターなど、衣料の出現は、異なる文化からの仲間とオンライン会議に参加するときに異なる衣装で知覚されることを希望してよい。行動トランスレータは、アバターが果たすことになる役割(例えば、教師、親、子供、ボス、子分等)に従ってだけではなく、アバターの表現された性別(男/女)等に従って行動を変換してもよい。
行動トランスレータが本物のオブジェクト行動を変換するための手段として提供される場合、本物のオブジェクトの例は、例えばロボットウェイター及び/又はロボット利用ガイドなどのロボットである。例えば、ロボット利用のガイドが美術館又は他の関心のある現場の訪問者の経験を改善するために実現される場合、ロボット利用ガイドの行動を、ロボット利用ガイドが対話している1人又は複数の人の人口統計上のグループに従って変更できると有利である。
本発明がハードウェア及び/又はソフトウェアの適切な組み合わせによって実現でき、ハードウェアとソフトウェアの前記組み合わせが前述された特定の区分によって限定されることを目的としないことが当業者に明らかになるであろう。さらに、本発明が1つ又は複数の装置で実行中の1つ又は複数のコンピュータプログラムのセットで実現されることが可能である。装置は通信網全体で分散されてよい。
以下に繰り返される要約の本文はこれにより説明に組み込まれる。
仮想オブジェクトの行動コントローラによって使用するために構成される行動トランスレータであって、前記トランスレータは第1の人口統計上のグループに適合する行動を表現する情報を第2の人口統計上のグループに適合する行動にマップするように構成される。前記行動トランスレータは入力を受け取るための手段と、前記受け取った入力を前記第1の人口統計グループに適合する前記オブジェクトによる行動と関連付けるために前記入力を処理するための手段と、前記第2の人口統計グループに適合する行動を生成する出力に前記受け取られた入力から引き出される行動をマップするための手段とを備える。
本発明の第1の実施形態を概略して示す図である。 図1Aに図示される行動設計ユーザインタフェースの拡大図を概略して示す図である。 図1Aに図示されるように両方のアバターの中立的な姿勢をさらに詳細に示す図である。 ビル(Bill)アバターが高い男っぽさを有するときの2つのアバターの姿勢を示す図である。 ビルアバターが高い軽薄さを有するときの2つのアバターの姿勢を示す図である。 ビルアバターが低い軽薄さを有するときの2つのアバターの姿勢を示す図である。 ボブ(BOB)アバターが高いレベルのputUpon及び傾聴、及び低いレベルのdomSubを有するときの2つのアバターの姿勢を示す図である。 本発明による行動アーキテクチャの概略概要を示す図である。 本発明の実施形態による行動モデルの階層を示す図である。 本発明の実施形態によるオブジェクトの行動コントローラのための簡略的なフレームワークの概略図である。 図5及び図7に示されるようなアーキテクチャのフレームワーク内の行動ノードの概略図である。 本発明の別の実施態様によるオブジェクトのための図5に図示されるフレームワークより、行動コントローラのためのより精密なフレームワークの概略図である。 本発明に従ってオブジェクト内に行動を生成する方法でのリアルタイムステップ、及びオフラインプロファイル及び手続き上の設計を概略して示す流れ図である。 行動フレームワークがどのようにして本発明に従って同等な行動を生成するのかを示す流れ図である。 行動コントローラの特定の行動パラメータに指定される値を指定し直すためにアバターの体の動きをユーザがどのように操作できるのかを示す流れ図である。 挨拶の行動アクションを実行したアバターを概略して示す図である。 図10Aに示される挨拶の行動アクションに同等な挨拶の行動アクションを実行したアバターを概略して示す図である。 図10Aと図10Bに図示されるものに同等なさらに別の挨拶の行動アクションを実行したアバターを概略して示す図である。

Claims (42)

  1. オブジェクトの行動コントローラによって使用するために構成される行動トランスレータであって、前記トランスレータは、第1の人口統計上のグループに適合する行動を表す情報を第2の人口統計上のグループに適合する行動にマップするように構成され、
    入力を受け取るための手段と、
    前記第1の人口統計上のグループに適合する前記オブジェクトによって行動を前記受け取った入力と関連付けるために前記入力を処理する手段と、
    前記受け取った入力から引き出される前記行動を前記第2の人口統計上のグループに適合する行動を生成する出力にマップするための手段と、
    を備える、行動トランスレータ。
  2. 人口統計上のグループが、国籍、宗教、社会的な階級、職業又は社会的な背景を含む、請求項1に記載の行動トランスレータ。
  3. 前記オブジェクトは仮想環境に参加する仮想オブジェクトである、請求項1又は2に記載の行動トランスレータ。
  4. 前記仮想オブジェクトは、
    仮想コンピュータゲームと、仮想オンライン会議と、オンラインゲームと、オンラインチャットルームと、アバターが主催する会議と、アバターカウンセリング会議と、アバターベースの調停環境と、アバターをベースにした販売環境と、オンライン協力環境と、オンラインカスタマ関係管理環境から構成される仮想環境のグループとのどれか1つを備える仮想環境内で動作するように構成される、請求項3に記載の行動トランスレータ。
  5. 仮想オブジェクトがアバターを備え、前記第1の人口統計上のグループが前記仮想環境における別の参加者から遠隔に位置する前記仮想環境における参加者によって指定される人口統計上のグループを備え、前記第2の人口統計上のグループが前記他の参加者によって指定される、請求項3又は4に記載の行動トランスレータ。
  6. 両方の参加者がそれぞれ、アバターがそれぞれの指定された人口統計上のグループに従って同時に行動するのを観察する、請求項5に記載の行動トランスレータ。
  7. 前記情報は前記行動コントローラによって入力として受け取られる、請求項1から6のいずれか1項に記載の行動トランスレータ。
  8. 前記情報は前記行動コントローラによる出力として提供されなければならない、請求項1から7のいずれか1項に記載の行動トランスレータ。
  9. 以下の行動アクション、つまり
    姿勢、
    声のトーン、
    しぐさ、
    視線方向、
    オブジェクト間の対話の間のオブジェクト近接及び、
    エチケット、
    社会的なステータスを表すアクション、
    の内の少なくとも1つを変換するように構成される、請求項1から8のいずれか1項に記載の行動トランスレータ。
  10. 前記オブジェクトは仮想環境における仮想キャラクタを備え、前記トランスレータは指定された人口統計上の集団に従って前記仮想キャラクタの外観を変換するように構成される、請求項1から9のいずれか1項に記載の行動トランスレータ。
  11. 変換される外観が1つ又は複数の衣料品及び/又は衣料品が仮想キャラクタによって着用される方法を備える、請求項10に記載の行動トランスレータ。
  12. 前記行動は行動コントローラを使用して生成される、請求項1から11のいずれか1項に記載の行動トランスレータ。
  13. 入力を受け取るための前記手段は、前記第1の人口統計上のグループと関連付けられる1つ又は複数の行動アクションと関連付けられる入力を受信するように構成される、請求項1から12のいずれか1項に記載の行動トランスレータ。
  14. 処理するための前記手段は、
    前記オブジェクトによって同等な行動を生成するように構成される行動フレームワークに対応して前記入力から複数の行動パラメータ値を推論するための手段と、
    前記推論した行動パラメータ値から出力を引き出すための手段と、
    を備える、請求項13に記載の行動トランスレータ。
  15. 前記マッピング手段は、前記1つ又は複数の行動アクションを前記第2の人口統計上のグループと関連付けられる同等な行動に変換する出力に前記推論した複数の行動パラメータ値から引き出される前記出力をマップすることによりオブジェクトによって前記同等な行動を生成するための手段を備える、請求項14に記載の行動トランスレータ。
  16. 前記同等な行動は、前記第1の人口統計上のグループと関連付けられる前記行動アクションと同じ感情を伝達する、請求項1から15のいずれか1項に記載の行動トランスレータ。
  17. 前記同等な行動が行動アクションを実行しないことを含む、請求項1から16のいずれか1項に記載の行動トランスレータ。
  18. 前記同等な行動は一連の行動アクション(人口統計上のグループ)を備える、請求項1から17のいずれか1項に記載の行動トランスレータ。
  19. 前記フレームワークは内部に柔軟な構造を有する、請求項14から18のいずれか1項に記載の行動トランスレータ。
  20. 前記フレームワークは行動ノードの階層を備える、請求項14から19のいずれか1項に記載の行動トランスレータ。
  21. 前記フレームワークは動的に柔軟である、請求項14から20のいずれか1項に記載の行動トランスレータ。
  22. 受け取られた入力が複数の行動アクションに関連付けられ、推論される各パラメータ値が前記複数の行動アクション入力の組み合わせにより決定される、請求項1から21のいずれか1項に記載の行動トランスレータ。
  23. 前記オブジェクトの前記行動が行動アクションと関連付けられる入力を受信することに応えてリアルタイムで生成される、請求項1から22のいずれか1項に記載の行動トランスレータ。
  24. オブジェクトで行動を生成するように構成される行動コントローラをさらに備え、入力を受け取るための前記手段が行動アクションと関連付けられる入力を受け取るための手段を備え、受け取った入力を処理するための前記手段がオブジェクトにより行動を生成するように構成される行動フレームワークに従って前記入力から複数の行動パラメータ値を推論するための手段を備え、出力を生成するための前記手段が、前記推論した複数の行動パラメータ値から出力を引き出すための手段を備え、前記トランスレータが前記パラメータ値から引き出される前記出力を使用して前記オブジェクトによって同等な行動を生成するための手段をさらに備える、請求項1から23のいずれか1項に記載の行動トランスレータ。
  25. 同等な行動を生成するための前記手段は、パラメータ値から引き出される出力を、適切な行動をオブジェクトによって動画化させるために出力で動作するように構成される動画システムに転送するための手段を備える、請求項24に記載の行動トランスレータ。
  26. 前記受け取る手段は、前記オブジェクトの前記行動フレームワークの外部のソースから少なくとも1つのパラメータ値を入力として受け取るための手段を含む、請求項25に記載の行動トランスレータ。
  27. 複数の行動パラメータ値を推論するための手段はノードのフレームワークを備え、各行動ノードは少なくとも1つの出力パラメータ値に少なくとも1つの入力パラメータ値をマップするように構成される、請求項24から26に記載の行動トランスレータ。
  28. 少なくとも1つのノードが、前記行動フレームワーク内のノードごとに定められるパラメータと、前記行動フレームワークの各ノード内で定められるパラメータと、前記行動フレームワークの外部で定められるパラメータとを含む前記グループから取られる少なくとも1つのパラメータ値をマップするように構成される、請求項27に記載の行動トランスレータ。
  29. 入力を受け取るための前記手段が行動設計インタフェースから入力を受け取るように構成され、前記行動設計インタフェースは、
    前記オブジェクトの前記行動フレームワークに従って定められる少なくとも1つの行動パラメータを含む行動パラメータ集合に対する値の前記指定を可能にするように構成される手段と、
    前記内部パラメータの前記値を決定するために所定の関数により設定される前記行動パラメータに指定される前記値に作用するように構成される手段と、
    を備える、請求項14から28のいずれか1項に記載の行動トランスレータ。
  30. 前記行動トランスレータは前記行動コントローラ内の構成要素であり、第1の文化と一貫する行動から引き出される受け取った入力を、第2の文化に一貫する入力にマップするための変換要素を備える、請求項24から29のいずれか1項に記載の行動トランスレータ。
  31. 前記行動トランスレータは第1の所定の文化と一貫する行動出力を第2の所定の文化と一貫する行動出力にマップするための変換要素を備える、請求項24から30のいずれか1項に記載の行動トランスレータ。
  32. ユーザが前記トランスレータに前記入力を提供する、請求項1から31のいずれか1項に記載の行動トランスレータ。
  33. ソフトウェアエージェントが前記トランスレータに前記入力を提供する、請求項1から32のいずれか1項に記載の行動トランスレータ。
  34. 一連の少なくとも1つのコンピュータプログラムがその上に記憶されるように構成される装置であって、前記一連の少なくとも1つのコンピュータプログラムが請求項1から33のいずれか1項に記載のトランスレータとして前記装置を機能させるように前記装置で実行可能である装置。
  35. ある人口統計上のグループに適合する行動から別の人口統計上のグループに適合する行動に仮想環境における行動を変換する方法であって、前記仮想環境で知覚される行動が行動コントローラの制御下でオブジェクトのために生成される行動であり、
    1つ又は複数の行動アクションと関連付けられる入力を受け取るステップと、
    前記オブジェクトにより行動を生成するように構成される行動フレームワークに従って前記入力から複数の行動パラメータ値を推論するステップと、
    前記推論した複数の行動パラメータ値から出力を引き出すステップと、
    前記パラメータ値から引き出される前記出力を使用して前記オブジェクトによって同等な行動を生成するステップと、
    第1の人口統計上のグループに従って行動アクションを生成する入力を前記他の人口統計上のグループと関連付けられる同等な行動に変換するステップと、
    を含む、方法。
  36. ノードのフレームワークを備え、請求項1から33のいずれか1項に記載の行動トランスレータによる使用のために構成される行動コントローラの制御下でオブジェクト内で行動を生成する方法であって、
    少なくとも1つのノードが行動アクションと関連付けられる入力を受け取るステップと、
    それぞれ前記少なくとも1つのノードが受け取られた入力を出力にマップするステップと、
    前記出力を使用してフレームワーク内で他のノードのための複数の行動パラメータ値を推論するステップと、
    前記推論した行動パラメータ値を使用して受け取った入力を、前記オブジェクトにより同等な行動を生成する前記行動コントローラによって出力を提供するためにマップするステップと、
    を備える、方法。
  37. 請求項1から33のいずれか1項に記載の行動トランスレータによる使用のために構成される行動コントローラの制御下でオブジェクトに行動を生成する方法であって、
    行動アクションと関連付けられる入力を受け取るステップと、
    前記オブジェクトによる同等な行動に対応する少なくとも1つの出力値の集合に前記受け取った入力をマップするステップと、
    前記オブジェクトによる行動を生成するように構成される行動フレームワークに従って少なくとも1つの出力値の前記集合から複数の行動パラメータ値を推論するステップと、
    これらを前記行動コントローラにロードすることによって、前記パラメータ値を使用して前記オブジェクトに同等な行動を生成するステップと、
    を備える、方法。
  38. 推論した前記パラメータは時間依存性である、請求項35から37のいずれか1項に記載の方法。
  39. 実行時に、1つ又は複数のコンピュータシステムに請求項35から37のいずれか1項に記載の方法のどれか1つを実行させるように構成される、指示の集合を形成する一式の1つ又は複数のコンピュータプログラム。
  40. オブジェクトの行動コントローラのための行動変換装置であって、前記装置は第1の文化に適合する行動を表す情報を、第2の文化に適合する行動にマップするための手段を備える、行動変換装置。
  41. 前記情報は前記行動コントローラによって入力として受け取られる、請求項40に記載の行動変換装置。
  42. 前記情報は前記行動コントローラによる出力として提供されなければならない、請求項40又は41に記載の行動変換装置。
JP2006506015A 2003-03-25 2004-03-24 オブジェクトのための行動トランスレータ Pending JP2007527556A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GBGB0306875.6A GB0306875D0 (en) 2003-03-25 2003-03-25 Apparatus and method for generating behavior in an object
PCT/GB2004/001276 WO2004086207A1 (en) 2003-03-25 2004-03-24 A behavioural translator for an object

Publications (1)

Publication Number Publication Date
JP2007527556A true JP2007527556A (ja) 2007-09-27

Family

ID=9955506

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2006506015A Pending JP2007527556A (ja) 2003-03-25 2004-03-24 オブジェクトのための行動トランスレータ
JP2006506025A Expired - Fee Related JP4579904B2 (ja) 2003-03-25 2004-03-24 オブジェクトで行動を生成するための装置及び方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2006506025A Expired - Fee Related JP4579904B2 (ja) 2003-03-25 2004-03-24 オブジェクトで行動を生成するための装置及び方法

Country Status (8)

Country Link
US (2) US7574332B2 (ja)
EP (2) EP1606697A1 (ja)
JP (2) JP2007527556A (ja)
KR (2) KR20050107629A (ja)
CN (2) CN100392562C (ja)
CA (2) CA2519762A1 (ja)
GB (1) GB0306875D0 (ja)
WO (2) WO2004086208A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016532953A (ja) * 2013-08-02 2016-10-20 オークランド ユニサービシーズ リミティド 神経行動学的アニメーションのためのシステム

Families Citing this family (125)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0306875D0 (en) * 2003-03-25 2003-04-30 British Telecomm Apparatus and method for generating behavior in an object
US7346478B2 (en) * 2004-09-21 2008-03-18 Ford Motor Company Method of embedding tooling control data within mechanical fixture design to enable programmable logic control verification simulation
JP2006146435A (ja) * 2004-11-17 2006-06-08 Univ Waseda 動作伝達システムおよび動作伝達方法
KR100711194B1 (ko) * 2005-02-04 2007-04-24 바이어스아이티 주식회사 다중 레이어 기반의 이미지 및 오디오 아바타 파일 생성및 재생 방법
US8136038B2 (en) * 2005-03-04 2012-03-13 Nokia Corporation Offering menu items to a user
US7512537B2 (en) * 2005-03-22 2009-03-31 Microsoft Corporation NLP tool to dynamically create movies/animated scenes
US20070015121A1 (en) * 2005-06-02 2007-01-18 University Of Southern California Interactive Foreign Language Teaching
DE102005035903A1 (de) 2005-07-28 2007-02-08 X-Aitment Gmbh Generische KI-Architektur für ein Multiagenten-System
WO2007076513A2 (en) * 2005-12-27 2007-07-05 Bonnie Johnson Virtual counseling practice
CA2657176C (en) * 2006-07-12 2015-09-08 Medical Cyberworlds, Inc. Computerized medical training system
US8010474B1 (en) 2006-09-05 2011-08-30 Aol Inc. Translating paralinguisitic indicators
US8726195B2 (en) 2006-09-05 2014-05-13 Aol Inc. Enabling an IM user to navigate a virtual world
US20080120558A1 (en) * 2006-11-16 2008-05-22 Paco Xander Nathan Systems and methods for managing a persistent virtual avatar with migrational ability
JP2010533006A (ja) * 2007-03-01 2010-10-21 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー 仮想世界とコミュニケーションを取るためのシステムおよび方法
US20080215974A1 (en) * 2007-03-01 2008-09-04 Phil Harrison Interactive user controlled avatar animations
GB0703974D0 (en) * 2007-03-01 2007-04-11 Sony Comp Entertainment Europe Entertainment device
WO2008151419A1 (en) * 2007-06-11 2008-12-18 Darwin Dimensions Inc. Sex selection in inheritance based avatar generation
WO2008151420A1 (en) * 2007-06-11 2008-12-18 Darwin Dimensions Inc. Automatic feature mapping in inheritance based avatar generation
WO2008151422A1 (en) * 2007-06-11 2008-12-18 Darwin Dimensions Inc. Dynamic user interface for inheritance based avatar generation
US8130219B2 (en) * 2007-06-11 2012-03-06 Autodesk, Inc. Metadata for avatar generation in virtual environments
US8930463B2 (en) * 2007-07-09 2015-01-06 Yahoo! Inc. Super-emoticons
KR101399199B1 (ko) * 2007-07-16 2014-05-27 삼성전자주식회사 소프트웨어 로봇의 유전자 코드 구성 방법
US20090058862A1 (en) * 2007-08-27 2009-03-05 Finn Peter G Automatic avatar transformation for a virtual universe
US20090069084A1 (en) * 2007-09-12 2009-03-12 Reece Alex D System and Methods for Monitoring and Controlling the Actions of an Avatar in a Virtual Environment
US20090128567A1 (en) * 2007-11-15 2009-05-21 Brian Mark Shuster Multi-instance, multi-user animation with coordinated chat
US20090157481A1 (en) * 2007-12-13 2009-06-18 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for specifying a cohort-linked avatar attribute
US9211077B2 (en) * 2007-12-13 2015-12-15 The Invention Science Fund I, Llc Methods and systems for specifying an avatar
US20090156955A1 (en) * 2007-12-13 2009-06-18 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for comparing media content
US8356004B2 (en) * 2007-12-13 2013-01-15 Searete Llc Methods and systems for comparing media content
US20090157660A1 (en) * 2007-12-13 2009-06-18 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems employing a cohort-linked avatar
US20090164458A1 (en) * 2007-12-20 2009-06-25 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems employing a cohort-linked avatar
US20090157625A1 (en) * 2007-12-13 2009-06-18 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for identifying an avatar-linked population cohort
US20090157751A1 (en) * 2007-12-13 2009-06-18 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for specifying an avatar
US20090164302A1 (en) * 2007-12-20 2009-06-25 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for specifying a cohort-linked avatar attribute
US8069125B2 (en) * 2007-12-13 2011-11-29 The Invention Science Fund I Methods and systems for comparing media content
US20090157813A1 (en) * 2007-12-17 2009-06-18 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for identifying an avatar-linked population cohort
US8615479B2 (en) 2007-12-13 2013-12-24 The Invention Science Fund I, Llc Methods and systems for indicating behavior in a population cohort
US8195593B2 (en) * 2007-12-20 2012-06-05 The Invention Science Fund I Methods and systems for indicating behavior in a population cohort
US20090171164A1 (en) * 2007-12-17 2009-07-02 Jung Edward K Y Methods and systems for identifying an avatar-linked population cohort
US8390629B2 (en) * 2007-12-17 2013-03-05 Pixar Methods and apparatus for designing animatronics units from articulated computer generated characters
EP2227802A4 (en) * 2007-12-17 2012-04-25 Pixar METHOD AND DEVICE FOR DESIGNING ANIMATRONIC UNITS FROM COMPUTER-GENERATED JOINTFIGURES
US8150796B2 (en) * 2007-12-20 2012-04-03 The Invention Science Fund I Methods and systems for inducing behavior in a population cohort
US9418368B2 (en) * 2007-12-20 2016-08-16 Invention Science Fund I, Llc Methods and systems for determining interest in a cohort-linked avatar
US20090164503A1 (en) * 2007-12-20 2009-06-25 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for specifying a media content-linked population cohort
US20090164131A1 (en) * 2007-12-20 2009-06-25 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for specifying a media content-linked population cohort
US9775554B2 (en) * 2007-12-31 2017-10-03 Invention Science Fund I, Llc Population cohort-linked avatar
US20090192785A1 (en) * 2008-01-29 2009-07-30 Anna Carpenter Cavender System and method for optimizing natural language descriptions of objects in a virtual environment
US9110890B2 (en) * 2008-02-15 2015-08-18 International Business Machines Corporation Selecting a language encoding of a static communication in a virtual universe
US20090210803A1 (en) * 2008-02-15 2009-08-20 International Business Machines Corporation Automatically modifying communications in a virtual universe
US7447996B1 (en) * 2008-02-28 2008-11-04 International Business Machines Corporation System for using gender analysis of names to assign avatars in instant messaging applications
WO2009149076A1 (en) * 2008-06-02 2009-12-10 Nike International, Ltd. System and method for creating an avatar
US20090319397A1 (en) * 2008-06-19 2009-12-24 D-Link Systems, Inc. Virtual experience
IL192478A0 (en) * 2008-06-26 2009-02-11 Shimon Elnatan System and method for simplifying the creation and storage of complex animation objects and movies
US8200578B2 (en) * 2008-07-09 2012-06-12 Hill Matthew D Methods and systems for account management and virtual agent design and implementation
US8446414B2 (en) * 2008-07-14 2013-05-21 Microsoft Corporation Programming APIS for an extensible avatar system
US20120246585A9 (en) * 2008-07-14 2012-09-27 Microsoft Corporation System for editing an avatar
US8384719B2 (en) * 2008-08-01 2013-02-26 Microsoft Corporation Avatar items and animations
US9223469B2 (en) * 2008-08-22 2015-12-29 Intellectual Ventures Fund 83 Llc Configuring a virtual world user-interface
US8296246B2 (en) * 2008-09-02 2012-10-23 International Business Machines Corporation Allocating virtual universe customer service
US20100083112A1 (en) * 2008-09-23 2010-04-01 International Business Machines Corporation Managing virtual universe avatar behavior ratings
US20100088084A1 (en) * 2008-10-03 2010-04-08 International Business Machines Corporation Method for translating a non-verbal communication within a virtual world environment
US8266536B2 (en) * 2008-11-20 2012-09-11 Palo Alto Research Center Incorporated Physical-virtual environment interface
US20100131876A1 (en) * 2008-11-21 2010-05-27 Nortel Networks Limited Ability to create a preferred profile for the agent in a customer interaction experience
US9741147B2 (en) * 2008-12-12 2017-08-22 International Business Machines Corporation System and method to modify avatar characteristics based on inferred conditions
KR101381594B1 (ko) * 2008-12-22 2014-04-10 한국전자통신연구원 가상현실을 이용한 교육 장치 및 방법
WO2010093995A1 (en) * 2009-02-13 2010-08-19 Social Gaming Network Apparatuses, methods and systems for an interworld feedback platform bridge
EP2400462A1 (en) * 2009-02-18 2011-12-28 Nec Corporation Device for control of moving subject, system for control of moving subject, method for control of moving subject, and program
US8262474B2 (en) 2009-04-21 2012-09-11 Mcmain Michael Parker Method and device for controlling player character dialog in a video game located on a computer-readable storage medium
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US8380649B2 (en) 2009-07-10 2013-02-19 International Business Machines Corporation Application of normative rules in a virtual universe
US8347217B2 (en) 2009-12-02 2013-01-01 International Business Machines Corporation Customized rule application as function of avatar data
US20110225039A1 (en) * 2010-03-10 2011-09-15 Oddmobb, Inc. Virtual social venue feeding multiple video streams
US20110225515A1 (en) * 2010-03-10 2011-09-15 Oddmobb, Inc. Sharing emotional reactions to social media
US20110239136A1 (en) * 2010-03-10 2011-09-29 Oddmobb, Inc. Instantiating widgets into a virtual social venue
US20110225518A1 (en) * 2010-03-10 2011-09-15 Oddmobb, Inc. Friends toolbar for a virtual social venue
US20110225519A1 (en) * 2010-03-10 2011-09-15 Oddmobb, Inc. Social media platform for simulating a live experience
US8667402B2 (en) * 2010-03-10 2014-03-04 Onset Vi, L.P. Visualizing communications within a social setting
US8572177B2 (en) 2010-03-10 2013-10-29 Xmobb, Inc. 3D social platform for sharing videos and webpages
US8875019B2 (en) * 2010-03-16 2014-10-28 International Business Machines Corporation Virtual cultural attache
KR20110107428A (ko) * 2010-03-25 2011-10-04 삼성전자주식회사 컨텐츠 제작을 위한 그래픽 유저 인터페이스를 제공하는 디지털 기기 및 그의 그래픽 유저 인터페이스 제공 방법 및 그 방법을 수행하기 위한 프로그램이 기록된 기록 매체
US20110250575A1 (en) * 2010-04-13 2011-10-13 enVie Interactive LLC System And Method For Providing A Visual Representation Of A User Personality Within A Virtual Environment
US8323068B2 (en) * 2010-04-23 2012-12-04 Ganz Villagers in a virtual world with upgrading via codes
US9634855B2 (en) 2010-05-13 2017-04-25 Alexander Poltorak Electronic personal interactive device that determines topics of interest using a conversational agent
CN106943742B (zh) * 2011-02-11 2024-04-26 漳州市阿思星谷电子科技有限公司 一种动作放大系统
US20130038756A1 (en) * 2011-08-08 2013-02-14 Samsung Electronics Co., Ltd. Life-logging and memory sharing
KR101885295B1 (ko) * 2011-12-26 2018-09-11 엘지전자 주식회사 전자기기 및 그 제어방법
KR101190660B1 (ko) 2012-07-23 2012-10-15 (주) 퓨처로봇 로봇 제어 시나리오 생성 방법 및 장치
TWI569156B (zh) 2012-10-09 2017-02-01 萬國商業機器公司 提供電子裝置之使用者介面的方法及其電子裝置
US9852381B2 (en) * 2012-12-20 2017-12-26 Nokia Technologies Oy Method and apparatus for providing behavioral pattern generation for mixed reality objects
US10304114B2 (en) 2014-03-25 2019-05-28 Ebay Inc. Data mesh based environmental augmentation
US20160148529A1 (en) 2014-11-20 2016-05-26 Dharma Systems Inc. System and method for improving personality traits
KR101659849B1 (ko) 2015-01-09 2016-09-29 한국과학기술원 아바타를 이용한 텔레프레즌스 제공 방법, 상기 방법을 수행하는 시스템 및 컴퓨터 판독 가능한 기록 매체
IN2015CH03967A (ja) 2015-07-31 2015-08-14 Wipro Ltd
US20170124901A1 (en) * 2015-11-04 2017-05-04 Dharma Life Sciences Llc System and method for enabling a user to overcome introversion
US20170186334A1 (en) * 2015-11-04 2017-06-29 Dharma Life Sciences Llc System and method for enabling a user to improve on behavioral traits that are required for achieving success
US20170124906A1 (en) * 2015-11-04 2017-05-04 Dharma Life Sciences Llc System and method for enabling a user to overcome perfectionism
US20160293044A1 (en) * 2015-11-04 2016-10-06 Dharma Life Sciences Llc System and method for enabling a user to overcome impatience laziness and low trust issues
US20170124910A1 (en) * 2015-11-04 2017-05-04 Dharma Life Sciences Llc System and method for enabling a user to overcome submissiveness
US20170124896A1 (en) * 2015-11-04 2017-05-04 Dharma Life Sciences Llc System and method for enabling a user to overcome sensitivity
US20170124903A1 (en) * 2015-11-04 2017-05-04 Dharma Life Sciences Llc System and method for enabling a user to overcome anxiety
US20170124897A1 (en) * 2015-11-04 2017-05-04 Dharma Life Sciences Llc System and method for enabling a user to overcome high empathy
US20170124904A1 (en) * 2015-11-04 2017-05-04 Dharma Life Sciences Llc System and method for enabling a user to overcome low empathy
US20160328992A1 (en) * 2015-11-04 2016-11-10 Dharma Life Sciences Llc System and method for enabling a user to overcome low self esteem and narcissism
US20170124905A1 (en) * 2015-11-04 2017-05-04 Dharma Life Sciences Llc System and method for enabling a user to overcome social anxiety
US20170124902A1 (en) * 2015-11-04 2017-05-04 Dharma Life Sciences Llc System and method for enabling a user to overcome low self-esteem
US20170124909A1 (en) * 2015-11-04 2017-05-04 Dharma Life Sciences Llc System and method for enabling a user to overcome anger
US20170124907A1 (en) * 2015-11-04 2017-05-04 Dharma Life Sciences Llc System and method for enabling a user to overcome lack of self control
US20170124908A1 (en) * 2015-11-04 2017-05-04 Dharma Life Sciences Llc System and method for enabling a user to overcome pessimism
US20170124900A1 (en) * 2015-11-04 2017-05-04 Dharma Life Sciences Llc System and method for enabling a user to overcome weak behavioral traits
EP3371778A4 (en) * 2015-11-06 2019-06-26 Mursion, Inc. CONTROL SYSTEM FOR VIRTUAL FIGURES
CN105511930A (zh) * 2015-12-30 2016-04-20 北京像素软件科技股份有限公司 一种游戏技能的实现方法及装置
US10239205B2 (en) * 2016-06-29 2019-03-26 International Business Machines Corporation System, method, and recording medium for corpus curation for action manifestation for cognitive robots
JP7140984B2 (ja) * 2018-02-16 2022-09-22 日本電信電話株式会社 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム
JP7280512B2 (ja) 2018-02-16 2023-05-24 日本電信電話株式会社 非言語情報生成装置及びプログラム
WO2019160105A1 (ja) 2018-02-16 2019-08-22 日本電信電話株式会社 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム
KR102543656B1 (ko) 2018-03-16 2023-06-15 삼성전자주식회사 화면 제어 방법 및 이를 지원하는 전자 장치
CN109063595B (zh) * 2018-07-13 2020-11-03 苏州浪潮智能软件有限公司 一种将肢体动作转换为计算机语言的方法及装置
KR102530264B1 (ko) * 2018-08-08 2023-05-09 삼성전자 주식회사 아바타에 대응하는 속성에 따른 아이템을 제공하는 방법 및 장치
US10896534B1 (en) 2018-09-19 2021-01-19 Snap Inc. Avatar style transformation using neural networks
US11544594B2 (en) * 2019-04-11 2023-01-03 Sunghee Woo Electronic device comprising user interface for providing user-participating-type AI training service, and server and method for providing user-participating-type AI training service using the electronic device
US20210035047A1 (en) * 2019-08-02 2021-02-04 Capital One Services, Llc Utilizing a machine learning model to determine anonymized avatars for employment interviews
US11991419B2 (en) 2020-01-30 2024-05-21 Snap Inc. Selecting avatars to be included in the video being generated on demand
CN111870917B (zh) * 2020-07-24 2021-07-23 合肥安达创展科技股份有限公司 滑雪装置的模拟运行方法、系统及计算机可读储存介质
US11738943B2 (en) * 2021-09-07 2023-08-29 Lasso Loop Recycling LLC. Processed used-material collection and transfer system and method
US11861778B1 (en) * 2022-07-25 2024-01-02 Gravystack, Inc. Apparatus and method for generating a virtual avatar

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981632A (ja) * 1995-09-13 1997-03-28 Toshiba Corp 情報公開装置
JPH10333542A (ja) * 1997-05-27 1998-12-18 Sony Corp クライアント装置、表示制御方法、共有仮想空間提供装置および方法、並びに提供媒体
JPH11143849A (ja) * 1997-11-11 1999-05-28 Omron Corp 行動生成装置、行動生成方法及び行動生成プログラム記録媒体
JPH11161626A (ja) * 1997-08-29 1999-06-18 Sony Corp 人工知能装置
JP2000155750A (ja) * 1998-11-24 2000-06-06 Omron Corp 行動生成装置、行動生成方法及び行動生成プログラム記録媒体
WO2000066239A1 (fr) * 1999-04-30 2000-11-09 Sony Corporation Systeme d'animal de compagnie electronique, systeme de reseau, robot et support de donnees
JP2000353037A (ja) * 1999-04-07 2000-12-19 Fuji Xerox Co Ltd パーソナリティ設計システム、パーソナリティレンダリング方法、及び行動選択方法
JP2001034378A (ja) * 1999-07-23 2001-02-09 Kansai Tlo Kk オブジェクト出力システム、オブジェクト管理装置、オブジェクト出力装置、及び記録媒体
US6212502B1 (en) * 1998-03-23 2001-04-03 Microsoft Corporation Modeling and projecting emotion and personality from a computer user interface
WO2001027879A1 (en) * 1999-10-08 2001-04-19 Electronic Arts Inc. Remote communication through visual representations
JP2001191274A (ja) * 1999-12-30 2001-07-17 Sony Corp データ保持装置、ロボット装置、変更装置及び変更方法
JP2002312295A (ja) * 2001-04-09 2002-10-25 Nec Interchannel Ltd 仮想3次元空間会話システム
JP2003066984A (ja) * 2001-04-30 2003-03-05 Sony Computer Entertainment America Inc ユーザが指定する特性に基づいてネットワーク上を伝送したコンテンツデータを改変する方法
JP2003337956A (ja) * 2002-03-13 2003-11-28 Matsushita Electric Ind Co Ltd コンピュータグラフィックス・アニメーション装置及びコンピュータグラフィックス・アニメーション方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5395042A (en) * 1994-02-17 1995-03-07 Smart Systems International Apparatus and method for automatic climate control
US5982853A (en) 1995-03-01 1999-11-09 Liebermann; Raanan Telephone for the deaf and method of using same
US5880731A (en) * 1995-12-14 1999-03-09 Microsoft Corporation Use of avatars with automatic gesturing and bounded interaction in on-line chat session
US6463446B1 (en) * 1998-02-26 2002-10-08 Sun Microsystems, Inc. Method and apparatus for transporting behavior in an event-based distributed system
US5884029A (en) 1996-11-14 1999-03-16 International Business Machines Corporation User interaction with intelligent virtual objects, avatars, which interact with other avatars controlled by different users
JPH11213179A (ja) * 1998-01-23 1999-08-06 Sony Corp 共有仮想空間提供装置および方法、並びに提供媒体
US6230111B1 (en) * 1998-08-06 2001-05-08 Yamaha Hatsudoki Kabushiki Kaisha Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object
JP2000107442A (ja) * 1998-10-06 2000-04-18 Konami Co Ltd ビデオゲームにおけるキャラクタ挙動制御方法、ビデオゲーム装置及びビデオゲームプログラムが記録された可読記録媒体
US7079712B1 (en) 1999-05-25 2006-07-18 Silverbrook Research Pty Ltd Method and system for providing information in a document
JP2001277163A (ja) * 2000-04-03 2001-10-09 Sony Corp ロボットの制御装置及び制御方法
JP2002018146A (ja) * 2000-07-04 2002-01-22 Tomy Co Ltd 対話型玩具、反応行動パターン生成装置および反応行動パターン生成方法
US7663628B2 (en) * 2002-01-22 2010-02-16 Gizmoz Israel 2002 Ltd. Apparatus and method for efficient animation of believable speaking 3D characters in real time
GB0306875D0 (en) * 2003-03-25 2003-04-30 British Telecomm Apparatus and method for generating behavior in an object

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981632A (ja) * 1995-09-13 1997-03-28 Toshiba Corp 情報公開装置
JPH10333542A (ja) * 1997-05-27 1998-12-18 Sony Corp クライアント装置、表示制御方法、共有仮想空間提供装置および方法、並びに提供媒体
JPH11161626A (ja) * 1997-08-29 1999-06-18 Sony Corp 人工知能装置
JPH11143849A (ja) * 1997-11-11 1999-05-28 Omron Corp 行動生成装置、行動生成方法及び行動生成プログラム記録媒体
US6212502B1 (en) * 1998-03-23 2001-04-03 Microsoft Corporation Modeling and projecting emotion and personality from a computer user interface
JP2000155750A (ja) * 1998-11-24 2000-06-06 Omron Corp 行動生成装置、行動生成方法及び行動生成プログラム記録媒体
JP2000353037A (ja) * 1999-04-07 2000-12-19 Fuji Xerox Co Ltd パーソナリティ設計システム、パーソナリティレンダリング方法、及び行動選択方法
WO2000066239A1 (fr) * 1999-04-30 2000-11-09 Sony Corporation Systeme d'animal de compagnie electronique, systeme de reseau, robot et support de donnees
JP2001034378A (ja) * 1999-07-23 2001-02-09 Kansai Tlo Kk オブジェクト出力システム、オブジェクト管理装置、オブジェクト出力装置、及び記録媒体
WO2001027879A1 (en) * 1999-10-08 2001-04-19 Electronic Arts Inc. Remote communication through visual representations
JP2001191274A (ja) * 1999-12-30 2001-07-17 Sony Corp データ保持装置、ロボット装置、変更装置及び変更方法
JP2002312295A (ja) * 2001-04-09 2002-10-25 Nec Interchannel Ltd 仮想3次元空間会話システム
JP2003066984A (ja) * 2001-04-30 2003-03-05 Sony Computer Entertainment America Inc ユーザが指定する特性に基づいてネットワーク上を伝送したコンテンツデータを改変する方法
JP2003337956A (ja) * 2002-03-13 2003-11-28 Matsushita Electric Ind Co Ltd コンピュータグラフィックス・アニメーション装置及びコンピュータグラフィックス・アニメーション方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016532953A (ja) * 2013-08-02 2016-10-20 オークランド ユニサービシーズ リミティド 神経行動学的アニメーションのためのシステム

Also Published As

Publication number Publication date
KR20050116156A (ko) 2005-12-09
KR101106002B1 (ko) 2012-01-18
EP1606697A1 (en) 2005-12-21
KR20050107629A (ko) 2005-11-14
US20060224546A1 (en) 2006-10-05
JP2006525570A (ja) 2006-11-09
CN1764889A (zh) 2006-04-26
GB0306875D0 (en) 2003-04-30
CA2520036A1 (en) 2004-10-07
WO2004086207A1 (en) 2004-10-07
WO2004086208A2 (en) 2004-10-07
US20060184355A1 (en) 2006-08-17
JP4579904B2 (ja) 2010-11-10
CN100392562C (zh) 2008-06-04
CN100407111C (zh) 2008-07-30
CN1764890A (zh) 2006-04-26
WO2004086208A3 (en) 2004-11-25
CA2519762A1 (en) 2004-10-07
EP1606698A2 (en) 2005-12-21
US7574332B2 (en) 2009-08-11

Similar Documents

Publication Publication Date Title
JP4579904B2 (ja) オブジェクトで行動を生成するための装置及び方法
US11615598B2 (en) Mission driven virtual character for user interaction
US11763510B2 (en) Avatar animation using markov decision process policies
US20210097875A1 (en) Individual viewing in a shared space
US20110144804A1 (en) Device and method for expressing robot autonomous emotions
US9805493B2 (en) Social identity models for automated entity interactions
US11836840B2 (en) Systems and methods for cross-application authoring, transfer, and evaluation of rigging control systems for virtual characters
Gillies et al. Customisation and context for expressive behaviour in the broadband world
Gillies et al. Individuality and Contextual Variation of Character Behaviour for Interactive Narrative.
Na et al. Interface Application of a Virtual Assistant Agent in an Immersive Virtual Environment
Aguirre et al. Synthetic Perception and Decision-making for Autonomous Virtual Humans in Virtual Reality Applications
Checo " Non-verbal communication in Social VR": Exploring new ways to handshake
Gillies et al. Affective interactions between expressive characters
Lee Affordable avatar control system for personal robots
Gillies et al. Direct manipulation like tools for designing intelligent virtual agents
Ortiz et al. Avatar behaviours due to the user interaction
Gillies GOLDSMITHS Research Online
Nijholt The role of embodiment in a virtual community
Afzal The Role of Avatars in AR/VR Systems

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090224

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090525

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090818

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100202