JP4579904B2 - オブジェクトで行動を生成するための装置及び方法 - Google Patents
オブジェクトで行動を生成するための装置及び方法 Download PDFInfo
- Publication number
- JP4579904B2 JP4579904B2 JP2006506025A JP2006506025A JP4579904B2 JP 4579904 B2 JP4579904 B2 JP 4579904B2 JP 2006506025 A JP2006506025 A JP 2006506025A JP 2006506025 A JP2006506025 A JP 2006506025A JP 4579904 B2 JP4579904 B2 JP 4579904B2
- Authority
- JP
- Japan
- Prior art keywords
- behavior
- framework
- action
- node
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000009471 action Effects 0.000 title claims description 181
- 238000000034 method Methods 0.000 title claims description 66
- 230000003542 behavioural effect Effects 0.000 claims description 91
- 238000013461 design Methods 0.000 claims description 70
- 230000006870 function Effects 0.000 claims description 26
- 238000013507 mapping Methods 0.000 claims description 20
- 230000002441 reversible effect Effects 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 230000036651 mood Effects 0.000 claims description 4
- 238000009223 counseling Methods 0.000 claims description 2
- 230000006399 behavior Effects 0.000 description 400
- 230000036544 posture Effects 0.000 description 59
- 230000007246 mechanism Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000004044 response Effects 0.000 description 8
- 230000001755 vocal effect Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000008451 emotion Effects 0.000 description 7
- 239000003795 chemical substances by application Substances 0.000 description 6
- 230000008921 facial expression Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000004043 responsiveness Effects 0.000 description 4
- 230000002996 emotional effect Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000007935 neutral effect Effects 0.000 description 3
- 230000036962 time dependent Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000000704 physical effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 206010020400 Hostility Diseases 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 208000004350 Strabismus Diseases 0.000 description 1
- 230000009118 appropriate response Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 235000019658 bitter taste Nutrition 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008918 emotional behaviour Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000002618 waking effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Feedback Control In General (AREA)
Description
図1Bは図1Aの行動設計ユーザインタフェース7をさらに詳細に示す。図1Bが示すように、行動設計ユーザインタフェース7は、図1Aの仮想環境ウィンドウ4で対話している仮想オブジェクトボブとビルのそれぞれのための一連のメニュー選択肢をユーザに与える。本発明の代替実施形態では、ユーザは環境における他の仮想オブジェクトの行動をより直接的に管理しない可能性があるが、簡単にするためにここではユーザがボブとビルの両方ともに直接的な影響を及ぼすことを希望すると仮定される。しかしながら、別の仮想オブジェクトを直接的に管理しない場合でも、さらに詳細に説明されるようにユーザは間接的に他の仮想オブジェクトの行動に依然として影響を及ぼす場合がある。
ここで添付図面の図4を参照すると、本発明による層化された階層行動モデルの階層構造が概略で示されている。
ここで添付図面の図5を参照すると、本発明の第1の実施形態による仮想オブジェクトのための行動コントローラのフレームワーク60が示されている。図5では、行動コントローラのフレームワーク60は、1つ又は複数のソースから1つ又は複数の出力に入力をマップするいくつかの計算ノードを備える。フレームワーク60内のノードは、例えば他の仮想オブジェクトの行動から引き出されてよい入力である外部入力を提供するノード61、グローバルフレームワークパラメータと、(直接的又は間接的のどちらかで)フレームワーク内のすべてのノードによってアクセス可能であるその関連入力値とを提供するグローバルパラメータノード62、名前によって特定され、特殊なノードにとって内部の1つ又は複数の値と関連付けられる行動ノード63a、63b、63c、63d、及び(例えば他の仮想オブジェクトの行動コントローラによる使用のために)外部で使用できるパラメータ値を出力する外部出力ノード64、又は適切な行動を提供する仮想オブジェクトの実際の所望される動画を生じさせるために行動動画機構によって使用されるパラメータ値を提供する行動出力ノード65を含む、出力ノード64、65を含む。プログラミングの観点から、各パラメータは、例えば指定された数値付きのテキスト名などの名前−値組から構成される。使用される行動モデルの正確なアーキテクチャは、行動コントローラのフレームワーク60の形式を決定する。
ここで図6を参照すると、図5の行動ノード63dの拡大図が示されている。図6は複数の異なるソースからの入力が行動ノードによってどのようにして使用されてよいのかを概略して示している。図6に図示されるように、行動ノード63dはその内部パラメータ集合に基づいて1つ又は複数の出力に行動ノードによって前方方向でマップされる最高3つの異なる種類の入力を受け取ることができる。図6では、行動ノード63dへの入力は例えばノード63b、63cなどの別の行動ノードから、1つ又は複数のグローバルパラメータ名値組によって提供される入力62から、及び/又はフレームワークの外のソースからの外部入力61からの出力から生じることがある。外部入力61は、対話規則の所定の組に従ってオブジェクトが対話している別のオブジェクトによって生成されてよい。行動ノードに対する外部入力はノードによって修正されてよい。例えば、入力は、入力が許容範囲を超えて拡張する場合には、無視される、あるいは最大値又は最小値に制限されてよい。代わりに、外部入力がユーザの文化に異なる文化に従って実行されるアクションを表す場合、外部入力は、ユーザ自身の文化における適切な行動に対応する外部入力が、事実上ユーザの仮想オブジェクトによる反応を修正するためにフレームワークによって使用されることを確実にするために、最初に適切に修正されてよい。
優勢性の方程式は、因数は言うまでもなく異なっているが類似している。行動反応性の第3の次元は本発明の他の実施形態で実現される。
形容詞設計をセットアップするために必要とされる知識のレベルと対照的に、オブジェクト72の行動プロファイルにどの形容詞が含まれなければならないのかの選択は形容詞を構築するために必要とされる知識のレベルに比較してより複雑ではないタスクである。行動プロファイルの設計段階により、ユーザは、前記ユーザが行動設計インタフェースを使用して制御しようと努めるオブジェクト(複数の場合がある)の行動にどの行動特徴が関連しているのかを選択できるようにする。
代わりに、入力がオブジェクトの直接的な操作などのソースから受け取られる場合には、受け取られる入力は、フレームワークの出力ノードの1つ又は複数が(動画システムと併せて)生じるであろう出力の行動と同等である。この場合、入力は出力ノードの1つ又は複数で受け取られ(ステップ81)、最初に、どの入力値がこのような出力を生じさせる(ステップ82b)のかを決定するために行動フレームワークを通して逆転マップされる。
例えば、行動設計インタフェースが1つ又は複数のグローバルパラメータ、例えば、別の仮想オブジェクトに対するアバターの態度を表すおそらく特定のノードに特殊なパラメータ値だけではなく、例えばアバターなどの仮想オブジェクトの特定のムードを表すグローバルパラメータなどの1つ又は複数のグローバルパラメータにも値を指定する発明の実施形態を考える。ここで図7と図9Aの両方を参照すると、入力62は行動フレームワークの適切なノードによって受け取られ(ステップ82a)、次に内部行動ノード63を通して行動フレームワークによってマップされる(ステップ83)(例えば、図7に戻って参照すると、パラメータ値は緊急性平衡ノードと優勢性因数ノードを通して最初にマップされ、次に、出力ノード65に達するまで親近感ノードとステータスノード、及び気持ちのよい態度、近接、空間充填及びくつろぎのノードに前方にマップできる緊急性差異ノード、反応性ノード及び優勢性差異ノードにマップされてよい。図7に示される本発明の実施形態では、出力ノードは顔の表情、高水準姿勢ノード(及びこれはさらに姿勢ノードにマップする)、視線方向、及びしぐさノードを備え、そのそれぞれはアバターを動画化させ、適適切な行動を生成させるために適切な動画システムに提供できる出力を生成する。入力がフレームワークを通して前方にマップされるとき、グローバルパラメータは、二次的な行動変化を誘導できるようにするフレームワークの中の他のノードに対する入力として提供される。これらのグローバルパラメータ値は、次にさらに複雑な行為をアバターによって実行できるようにする。
図7に図示される本発明の実施形態では、出力ノードは顔の表情、高水準姿勢ノード(及びこれはさらに姿勢ノードにマップする)、視線方向、及びしぐさノードを備え、そのそれぞれはアバターを動画化させ、適切な行動を生成させるために適切な動画システムに提供できる出力を生成する。ここで再び9を参照すると、ユーザが例えば別のアバターの腕に触れるために(例えばアバターのアームをクリックすることによって、ステップ90)アバターの姿勢を直接的に操作する例を考える(ステップ91)。これはフレームワークの姿勢ノードで特定の入力を生じさせる(ステップ92)。アバターによってこのような動作を生じさせるであろうグローバルパラメータ値は、他のアバターに対する親しみやすさが意図されるときにだけこのようにするためにセットアップされてよい。行動コントローラは、フレームワークのグローバルパラメータ入力ノードに達するまで姿勢ノードによって生じる値(ステップ93)からフレームワークの関連するノードを通って戻る姿勢ノードにより生じる値から逆転マップを実行し、グローバル行動パラメータ「軽薄さ」のための適切な入力値を推論できる(ステップ93を参照すること)。これらのグローバルパラメータ値は次にフレームワークを通る前方向マップを開始するために使用される。
行動コントローラの動作を定義する行動フレームワークの構造により、例えばユーザが仮想オブジェクトを直接的に操作するときに、内部パラメータ値は逆転マップを使用してフレームワーク内に入力から推論できるようにする。再び図9Aを参照し直すと、行動コントローラがフレームワークに外部のソースから引き出される入力を受け取るケースを考える。入力が直接的に出力と関連付けられる場合、例えば、直接的な操作によって引き出される場合、逆転マップは前方マップのためにグローバルパラメータ値をシードする(seed)ために実行される必要がある。この逆転マップは、下記に概略される行動推論方式を使用して実行される。
o=Fx
そこではoは編集のそれぞれの出力のベクタであり、Fは(例えば外部入力又は時間変化するパラメータのさまざまな設定値など、文脈に依存する可能性がある)解決不可の因数の行列であり、sは解決できる因数のベクトルである。Fが二乗ではないすべてのケースにおいて複数の正確な解があるであろうため、擬似反転方法が最小二乗解を見つけるために使用できる。
この方法は単一ノードのパラメータを推論できるようにする。出力に直接的に接続されない階層のさらに上にノードのためのパラメータを推論するために、解決可能な因数のいくつかは内部パラメータよりむしろノードの中へ入力として提供される。前記入力は外部入力、グローバルパラメータ又は他のノードの出力のいずれかである場合がある。外部入力が解決可能なパラメータであることはできない。グローバルパラメータはそれらの値を解決プロセスの間に直接的に設定させる。
行動階層の中の最終層によりユーザがリアルタイムで複雑な行動をオブジェクトに提供できるようになる本発明の実施形態では、ユーザは種々のソースから行動コントローラに入力を提供する、あるいは任意の個別オブジェクトのために複数の行動設計インタフェースを使用することを希望することがある。例えば、又は入力を提供する他のデバイスは、例えばユーザの頭部及び/又は体の上で運動トラッカを使用することを含んでよい。2つ又は3つ以上の制御装置は操作上の負担を削減するためにユーザによって同時に操作されてよい。使用される制御装置は、ユーザが仮想オブジェクトの体のすべての部分をつねに制御することを必要するのではなく、ときどき限られた数の部分を操作する必要があるにすぎないことを確実にするために行動モデルで特定のパラメータを設定するために形容詞の使用を利用する。
ここに前述された実施形態はおもに制御されている仮想オブジェクトの行動を説明している。しかしながら、ここに説明される行動制御の概念は、たとえ前記説明で明示的に説明されていなくても容易に非仮想、つまり現実のつまり実体のあるオブジェクトの制御に及び、本発明は当業者により理解されるように、相応して実在のオブジェクトと仮想オブジェクトの両方の行動に及ぶ。
ここに前述された推論方式により、異なる文化的な行動の間で変換する能力を含むように行動コントローラの応用例を拡大する仮想エージェントつまりアバターの内部状態のモデルを決定できる。例えば、アバターがウェブミーティングなどのオンライン環境における異なる文化背景のユーザと対話するユーザのための個人的な仮想エージェントとして機能しているケースでは、ユーザの実際の移動及び感情を直接的に表現する能力は望ましくない可能性がある。
前述された実施形態は特に仮想環境に関連しているが、複雑な継続している行動を生成できる行動コントローラとのインタフェースをとるためにユーザに単純な入力装置を提供するという概念は現実世界、特にロボット利用玩具に応用例を有する。したがって、本発明の他の実施形態は、ユーザが、ロボットオブジェクトの複雑な動作、特におもちゃの人形などの特に関節のあるロボット的なオブジェクトで複雑な行動を生成するための単純な機構を提供する。
Claims (26)
- ノード(62,63,64,65)の行動フレームワーク(31,60)を備える行動コントローラの制御下でオブジェクトのために行動を生成する方法であって、少なくとも1つのノード(63)は、前記ノード(62,63,64,65)の行動フレームワーク(31,60)を通して前方方向および逆転方向の両者で他のノード(62,63,64,65)に出力を提供するために入力をマップするように構成されており、少なくとも1つのノード(62)は、グローバルフレームワークパラメータ値を指定するように構成されており、
1つ又は複数の行動アクションと関連付けられる入力を受け取るステップと、
前記行動フレームワーク(31,60)内の複数の行動ノード(63)について、前記行動フレームワーク(31,60)に従い前記入力から各行動ノード(63)の行動パラメータ値を推論するステップと、
前記行動フレームワーク(31,60)内の1つ又は複数のグローバルパラメータノード(62)の1つ又は複数のグローバルフレームワークパラメータ値を前記行動パラメータ値の各々から推論するステップと、
前記行動フレームワーク(31,60)の各ノード(62,63,64,65)を通して前方方向に前記グローバルフレームワークパラメータ値をマップするステップと、
行動フレームワーク(31,60)の行動出力ノード(65)のために、前記推論した複数の行動パラメータ値から出力を引き出すステップと、
引き出された前記出力を使用して前記オブジェクトによる同意義の行動を生成するステップと、
を備える、方法。 - 前記行動フレームワーク(31,60)は内部的にフレキシブルに対応できる構造を有する、請求項1に記載の方法。
- 前記行動フレームワーク(31,60)は行動ノード(63)の階層を備えており、少なくとも1つの行動ノード(63)は、
別の行動フレームワークの1つ又は複数の出力ノード(64)から提供される入力ノード(61)と、
別の行動ノード(63)からのパラメータ値を含む入力と、
グローバルパラメータノード(62)によって直接的又は間接的に提供される行動フレームワーク(31,60)のグローバルフレームワークパラメータ値を含む入力と
のグループから得られる複数の異なるソースから入力を受信するように構成されている、請求項1又は2に記載の方法。 - 前記行動フレームワーク(31,60)は行動ノード(63)の階層を備えており、各行動ノード(63)は、別のオブジェクトの行動フレームワーク(31,60)内の入力ノード(61)に外部出力ノード(64)を通して出力を提供し、前記オブジェクトの前記行動の動画化を可能にする行動出力ノード(65)を通して行動の出力を提供するように構成されている、請求項1から3のいずれか1項に記載の方法。
- 前記行動フレームワーク(31,60)はダイナミックにフレキシブルに対応できる、請求項1から4のいずれか1項に記載の方法。
- 受け取った入力が複数の行動アクションと関連付けられ、推論した各パラメータ値が前記複数の行動アクション入力の組み合わせにより決定される、請求項1から5のいずれか1項に記載の方法。
- 前記入力は行動アクションを生成する出力と直接的に関連付けられる少なくとも1つの行動パラメータ値の集合を含み、推論するステップでは、前記行動フレームワーク(31,60)を通して逆転マップを行うことによって少なくとも1つ又は複数の他の行動パラメータ値が推論され、行動アクションに対する追加の行動を生成するために別の出力が引き出される、請求項1から6のいずれか1項に記載の方法。
- 前記行動フレームワークは、前記オブジェクトの前記行動の特徴を修正する出力を提供するために1つ又は複数のパラメータ値を演算する関数と関連付けられた複数の行動ノード(63)を備えており、前記関数は、前記オブジェクトのムード状態と関連付けられた少なくとも1つのグローバル行動パラメータ値を演算し、前記行動フレームワーク(31,60)の出力ノード(65)からの出力により提供される前記オブジェクトの前記行動が、前記オブジェクトの前記ムードを示すために修正される、請求項1から7のいずれか1項に記載の方法。
- 前記行動フレームワーク(31,60)は、前記オブジェクトの前記行動の特徴を修正する出力を提供するために1つ又は複数のパラメータ値を演算する関数に関連付けられた複数の行動ノード(63)を備えており、前記関数は、前記行動フレームワーク(31,60)の行動ノード(63)に対して一意に指定される少なくとも1つの行動パラメータ値を演算し、前記入力から前記行動フレームワークの行動ノード(63)によって生成される前記出力は、前記オブジェクトの前記行動の特徴に影響を及ぼす個性特色に関連付けられる内部パラメータ値を演算するために前記関数を使用する、請求項1から8のいずれか1項に記載の方法。
- 前記オブジェクトによる前記同意義の行動は所定のシーケンスで実行される複数の行動アクションを含む、請求項1から9のいずれか1項に記載の方法。
- 前記複数の行動アクションはある期間に渡って実行される、請求項10に記載の方法。
- 前記複数の行動アクションの1つ又は複数が同時に実行される、請求項10又は11に記載の方法。
- 前記行動は、視線方向、四肢の動き、発話、スタンスを含むグループから取られる行動アクションを含む、請求項1から12のいずれか1項に記載の方法。
- 前記受け取った入力は、人間ユーザによる前記オブジェクトの直接的な操作により誘発された前記オブジェクトの行動アクションから引き出される、請求項1から13のいずれか1項に記載の方法。
- 前記入力は、入力ノード(61)によって受け取られ、
前記オブジェクトと対話する1つ又は複数の他のオブジェクトによる行動アクションから引き出される、請求項1から15のいずれか1項に記載の方法。 - 前記入力は、入力ノード(61)によって受け取られ、
前記行動コントローラのユーザによって操作される行動アクションと関連付けられる入力を含む、請求項1から15のいずれか1項に記載の方法。 - 前記1つ又は複数の行動アクションと関連付けられる入力を受け取るステップは、
前記オブジェクトの前記行動コントローラに入力を提供するように構成される行動設計インタフェースを使用して前記オブジェクトの行動特徴と関連付けられる行動パラメータ集合に値を指定し、それぞれの前記行動パラメータ集合が前記行動特徴に影響を及ぼす少なくとも1つのパラメータ値を含むステップと、
行動プロファイルにより定められるデフォルト値を用いて前記指定値に対して関数を実行することにより得られるパラメータ値と、前記パラメータ集合の中の各パラメータ値を関連付けるステップと、
前記オブジェクトのための前記行動コントローラに前記パラメータ値を入力するステップとを含み、
前記引き出された前記出力を使用して前記オブジェクトによる同意義の行動を生成するステップは、
前記出力を前記オブジェクトによる行動アクションと関連付けるステップと、
前記オブジェクトに前記行動アクションを実行させるステップと、
を含む、請求項1に記載の方法。 - オブジェクトの行動を生成するように構成される行動コントローラであって、
少なくとも1つのノード(63)はノード(62,63,64,65)の行動フレームワーク(31,60)を通して前方方向および逆転方向の両者で入力を出力にマップするように構成されており、少なくとも1つのノード(62)はグローバルフレームワークパラメータ値を指定するように構成されている、ノード(62,63,64,65)の行動フレームワーク(31,60)と、
1つ又は複数の行動アクションと関連付けられる入力を受信するインタフェース手段と、
前記行動フレームワーク(31,60)内の複数の行動ノード(63)について、前記行動フレームワーク(31,60)に従って前記入力から各ノード(63)の行動パラメータ値を推論する手段と、
前記行動フレームワーク(31,60)内の1つ又は複数のグローバルパラメータノード(62)の1つ又は複数のグローバルフレームワークパラメータ値を前記行動パラメータ値の各々から推論する手段と、
前記行動フレームワーク(31,60)の各行動ノード(63)を通して前方方向に前記グローバルフレームワークパラメータ値をマップする手段と、
行動フレームワーク(31,60)の行動出力ノード(65)のために、前記推論した複数の行動パラメータ値から出力を引き出す手段と、
引き出される前記出力を使用して前記オブジェクトによる同意義の行動を生成する手段と、
を備える、行動コントローラ。 - 前記同意義の行動を生成する手段は、適切な行動を前記オブジェクトにより動画化させるように前記出力に作用するように構成される動画化システムに、前記推論した行動パラメータ値から引き出される前記出力を送る手段を備える、請求項18に記載の行動コントローラ。
- 前記行動コントローラからの出力は、別のオブジェクトの行動コントローラによる入力として受け取られるために適した形式で提供される、請求項18又は19のいずれか1項に記載の行動コントローラ。
- 前記行動コントローラは、身体言語行動を生成し、第1の文化の身体言語に一致する行動から引き出される受け取った入力を、第2の文化の身体言語と一致する入力にマップする身体言語変換要素をさらに備える、請求項18から20のいずれか1項に記載の行動コントローラ。
- 前記オブジェクトは、仮想環境内で動作するように構成される仮想オブジェクトである、請求項18から21のいずれか1項に記載の行動コントローラ。
- 前記オブジェクトは、
仮想コンピュータゲーム、仮想オンライン会議、オンラインゲーム、オンラインチャットルーム、アバターが主催する会議、アバターカウンセリング会議、アバターをベースにした仲介環境、アバターをベースにした販売環境、オンライン協力環境、オンライカスタマ関係管理環境、
から構成される、仮想環境のグループの内の任意の1つから取られる仮想環境内で動作するように構成される仮想オブジェクトである、
請求項22に記載の行動コントローラ。 - ソフトウェアエージェントが前記行動コントローラに前記入力を提供する、請求項18から23のいずれか1項に記載の行動コントローラ。
- 行動パラメータ集合への値の指定を可能にするように構成された手段を備える行動設計インタフェースであって、
前記行動パラメータ集合は前記オブジェクトの行動特徴と関連付けられる少なくとも1つのパラメータ値を含み、前記行動設計インタフェースを使用して指定される前記値は、請求項18から24のいずれか1項に記載の前記行動コントローラに入力として提供される、行動設計インタフェース。 - 少なくとも1つのコンピュータプログラムがその上に記憶されるように構成される装置であって、少なくとも1つのコンピュータプログラムは、前記装置を請求項19から23のいずれか1項に記載の行動コントローラとして機能させるように前記装置で実行可能である、装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GBGB0306875.6A GB0306875D0 (en) | 2003-03-25 | 2003-03-25 | Apparatus and method for generating behavior in an object |
PCT/GB2004/001301 WO2004086208A2 (en) | 2003-03-25 | 2004-03-24 | Apparatus and method for generating behaviour in an object |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006525570A JP2006525570A (ja) | 2006-11-09 |
JP4579904B2 true JP4579904B2 (ja) | 2010-11-10 |
Family
ID=9955506
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006506025A Expired - Fee Related JP4579904B2 (ja) | 2003-03-25 | 2004-03-24 | オブジェクトで行動を生成するための装置及び方法 |
JP2006506015A Pending JP2007527556A (ja) | 2003-03-25 | 2004-03-24 | オブジェクトのための行動トランスレータ |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006506015A Pending JP2007527556A (ja) | 2003-03-25 | 2004-03-24 | オブジェクトのための行動トランスレータ |
Country Status (8)
Country | Link |
---|---|
US (2) | US20060184355A1 (ja) |
EP (2) | EP1606697A1 (ja) |
JP (2) | JP4579904B2 (ja) |
KR (2) | KR20050107629A (ja) |
CN (2) | CN100392562C (ja) |
CA (2) | CA2519762A1 (ja) |
GB (1) | GB0306875D0 (ja) |
WO (2) | WO2004086208A2 (ja) |
Families Citing this family (128)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0306875D0 (en) * | 2003-03-25 | 2003-04-30 | British Telecomm | Apparatus and method for generating behavior in an object |
US7346478B2 (en) * | 2004-09-21 | 2008-03-18 | Ford Motor Company | Method of embedding tooling control data within mechanical fixture design to enable programmable logic control verification simulation |
JP2006146435A (ja) * | 2004-11-17 | 2006-06-08 | Univ Waseda | 動作伝達システムおよび動作伝達方法 |
KR100711194B1 (ko) * | 2005-02-04 | 2007-04-24 | 바이어스아이티 주식회사 | 다중 레이어 기반의 이미지 및 오디오 아바타 파일 생성및 재생 방법 |
EP1853987A1 (en) * | 2005-03-04 | 2007-11-14 | Nokia Corporation | Offering menu items to a user |
US7512537B2 (en) * | 2005-03-22 | 2009-03-31 | Microsoft Corporation | NLP tool to dynamically create movies/animated scenes |
US20070015121A1 (en) * | 2005-06-02 | 2007-01-18 | University Of Southern California | Interactive Foreign Language Teaching |
DE102005035903A1 (de) | 2005-07-28 | 2007-02-08 | X-Aitment Gmbh | Generische KI-Architektur für ein Multiagenten-System |
US20070166690A1 (en) * | 2005-12-27 | 2007-07-19 | Bonnie Johnson | Virtual counseling practice |
US8469713B2 (en) * | 2006-07-12 | 2013-06-25 | Medical Cyberworlds, Inc. | Computerized medical training system |
US8726195B2 (en) | 2006-09-05 | 2014-05-13 | Aol Inc. | Enabling an IM user to navigate a virtual world |
US8010474B1 (en) | 2006-09-05 | 2011-08-30 | Aol Inc. | Translating paralinguisitic indicators |
US20080120558A1 (en) * | 2006-11-16 | 2008-05-22 | Paco Xander Nathan | Systems and methods for managing a persistent virtual avatar with migrational ability |
US20080215974A1 (en) * | 2007-03-01 | 2008-09-04 | Phil Harrison | Interactive user controlled avatar animations |
EP2132650A4 (en) * | 2007-03-01 | 2010-10-27 | Sony Comp Entertainment Us | SYSTEM AND METHOD FOR COMMUNICATING WITH A VIRTUAL WORLD |
GB0703974D0 (en) * | 2007-03-01 | 2007-04-11 | Sony Comp Entertainment Europe | Entertainment device |
WO2008151420A1 (en) * | 2007-06-11 | 2008-12-18 | Darwin Dimensions Inc. | Automatic feature mapping in inheritance based avatar generation |
WO2008151419A1 (en) * | 2007-06-11 | 2008-12-18 | Darwin Dimensions Inc. | Sex selection in inheritance based avatar generation |
WO2008151422A1 (en) * | 2007-06-11 | 2008-12-18 | Darwin Dimensions Inc. | Dynamic user interface for inheritance based avatar generation |
WO2008151424A1 (en) * | 2007-06-11 | 2008-12-18 | Darwin Dimensions Inc. | Metadata for avatar generation in virtual environments |
US8930463B2 (en) * | 2007-07-09 | 2015-01-06 | Yahoo! Inc. | Super-emoticons |
KR101399199B1 (ko) * | 2007-07-16 | 2014-05-27 | 삼성전자주식회사 | 소프트웨어 로봇의 유전자 코드 구성 방법 |
US20090058862A1 (en) * | 2007-08-27 | 2009-03-05 | Finn Peter G | Automatic avatar transformation for a virtual universe |
US20090069084A1 (en) * | 2007-09-12 | 2009-03-12 | Reece Alex D | System and Methods for Monitoring and Controlling the Actions of an Avatar in a Virtual Environment |
US20090128567A1 (en) * | 2007-11-15 | 2009-05-21 | Brian Mark Shuster | Multi-instance, multi-user animation with coordinated chat |
US20090164458A1 (en) * | 2007-12-20 | 2009-06-25 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems employing a cohort-linked avatar |
US8195593B2 (en) * | 2007-12-20 | 2012-06-05 | The Invention Science Fund I | Methods and systems for indicating behavior in a population cohort |
US20090156955A1 (en) * | 2007-12-13 | 2009-06-18 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for comparing media content |
US8356004B2 (en) * | 2007-12-13 | 2013-01-15 | Searete Llc | Methods and systems for comparing media content |
US20090157625A1 (en) * | 2007-12-13 | 2009-06-18 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for identifying an avatar-linked population cohort |
US20090171164A1 (en) * | 2007-12-17 | 2009-07-02 | Jung Edward K Y | Methods and systems for identifying an avatar-linked population cohort |
US20090157481A1 (en) * | 2007-12-13 | 2009-06-18 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for specifying a cohort-linked avatar attribute |
US20090157660A1 (en) * | 2007-12-13 | 2009-06-18 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems employing a cohort-linked avatar |
US8069125B2 (en) * | 2007-12-13 | 2011-11-29 | The Invention Science Fund I | Methods and systems for comparing media content |
US8615479B2 (en) | 2007-12-13 | 2013-12-24 | The Invention Science Fund I, Llc | Methods and systems for indicating behavior in a population cohort |
US9211077B2 (en) * | 2007-12-13 | 2015-12-15 | The Invention Science Fund I, Llc | Methods and systems for specifying an avatar |
US20090157813A1 (en) * | 2007-12-17 | 2009-06-18 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for identifying an avatar-linked population cohort |
US20090164302A1 (en) * | 2007-12-20 | 2009-06-25 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for specifying a cohort-linked avatar attribute |
US20090157751A1 (en) * | 2007-12-13 | 2009-06-18 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for specifying an avatar |
WO2009079514A1 (en) * | 2007-12-17 | 2009-06-25 | Pixar | Methods and apparatus for designing animatronics units from articulated computer generated characters |
US8390629B2 (en) * | 2007-12-17 | 2013-03-05 | Pixar | Methods and apparatus for designing animatronics units from articulated computer generated characters |
US20090164131A1 (en) * | 2007-12-20 | 2009-06-25 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for specifying a media content-linked population cohort |
US20090164503A1 (en) * | 2007-12-20 | 2009-06-25 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for specifying a media content-linked population cohort |
US8150796B2 (en) * | 2007-12-20 | 2012-04-03 | The Invention Science Fund I | Methods and systems for inducing behavior in a population cohort |
US9418368B2 (en) * | 2007-12-20 | 2016-08-16 | Invention Science Fund I, Llc | Methods and systems for determining interest in a cohort-linked avatar |
US9775554B2 (en) * | 2007-12-31 | 2017-10-03 | Invention Science Fund I, Llc | Population cohort-linked avatar |
US20090192785A1 (en) * | 2008-01-29 | 2009-07-30 | Anna Carpenter Cavender | System and method for optimizing natural language descriptions of objects in a virtual environment |
US9110890B2 (en) * | 2008-02-15 | 2015-08-18 | International Business Machines Corporation | Selecting a language encoding of a static communication in a virtual universe |
US20090210803A1 (en) * | 2008-02-15 | 2009-08-20 | International Business Machines Corporation | Automatically modifying communications in a virtual universe |
US7447996B1 (en) * | 2008-02-28 | 2008-11-04 | International Business Machines Corporation | System for using gender analysis of names to assign avatars in instant messaging applications |
EP2293855A1 (en) * | 2008-06-02 | 2011-03-16 | Nike International Ltd. | System and method for creating an avatar |
US20090319397A1 (en) * | 2008-06-19 | 2009-12-24 | D-Link Systems, Inc. | Virtual experience |
IL192478A0 (en) * | 2008-06-26 | 2009-02-11 | Shimon Elnatan | System and method for simplifying the creation and storage of complex animation objects and movies |
US8200578B2 (en) * | 2008-07-09 | 2012-06-12 | Hill Matthew D | Methods and systems for account management and virtual agent design and implementation |
US8446414B2 (en) * | 2008-07-14 | 2013-05-21 | Microsoft Corporation | Programming APIS for an extensible avatar system |
US20120246585A9 (en) * | 2008-07-14 | 2012-09-27 | Microsoft Corporation | System for editing an avatar |
US8384719B2 (en) * | 2008-08-01 | 2013-02-26 | Microsoft Corporation | Avatar items and animations |
US9223469B2 (en) * | 2008-08-22 | 2015-12-29 | Intellectual Ventures Fund 83 Llc | Configuring a virtual world user-interface |
US8296246B2 (en) * | 2008-09-02 | 2012-10-23 | International Business Machines Corporation | Allocating virtual universe customer service |
US20100083112A1 (en) * | 2008-09-23 | 2010-04-01 | International Business Machines Corporation | Managing virtual universe avatar behavior ratings |
US20100088084A1 (en) * | 2008-10-03 | 2010-04-08 | International Business Machines Corporation | Method for translating a non-verbal communication within a virtual world environment |
US8266536B2 (en) * | 2008-11-20 | 2012-09-11 | Palo Alto Research Center Incorporated | Physical-virtual environment interface |
US20100131876A1 (en) * | 2008-11-21 | 2010-05-27 | Nortel Networks Limited | Ability to create a preferred profile for the agent in a customer interaction experience |
US9741147B2 (en) * | 2008-12-12 | 2017-08-22 | International Business Machines Corporation | System and method to modify avatar characteristics based on inferred conditions |
KR101381594B1 (ko) * | 2008-12-22 | 2014-04-10 | 한국전자통신연구원 | 가상현실을 이용한 교육 장치 및 방법 |
WO2010093995A1 (en) * | 2009-02-13 | 2010-08-19 | Social Gaming Network | Apparatuses, methods and systems for an interworld feedback platform bridge |
WO2010095388A1 (ja) * | 2009-02-18 | 2010-08-26 | 日本電気株式会社 | 動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラム |
US8262474B2 (en) * | 2009-04-21 | 2012-09-11 | Mcmain Michael Parker | Method and device for controlling player character dialog in a video game located on a computer-readable storage medium |
US8390680B2 (en) * | 2009-07-09 | 2013-03-05 | Microsoft Corporation | Visual representation expression based on player expression |
US8380649B2 (en) | 2009-07-10 | 2013-02-19 | International Business Machines Corporation | Application of normative rules in a virtual universe |
US8347217B2 (en) * | 2009-12-02 | 2013-01-01 | International Business Machines Corporation | Customized rule application as function of avatar data |
US20110225518A1 (en) * | 2010-03-10 | 2011-09-15 | Oddmobb, Inc. | Friends toolbar for a virtual social venue |
US20110225515A1 (en) * | 2010-03-10 | 2011-09-15 | Oddmobb, Inc. | Sharing emotional reactions to social media |
US20110225519A1 (en) * | 2010-03-10 | 2011-09-15 | Oddmobb, Inc. | Social media platform for simulating a live experience |
US20110225039A1 (en) * | 2010-03-10 | 2011-09-15 | Oddmobb, Inc. | Virtual social venue feeding multiple video streams |
US8572177B2 (en) | 2010-03-10 | 2013-10-29 | Xmobb, Inc. | 3D social platform for sharing videos and webpages |
US20110239136A1 (en) * | 2010-03-10 | 2011-09-29 | Oddmobb, Inc. | Instantiating widgets into a virtual social venue |
US8667402B2 (en) * | 2010-03-10 | 2014-03-04 | Onset Vi, L.P. | Visualizing communications within a social setting |
US8875019B2 (en) | 2010-03-16 | 2014-10-28 | International Business Machines Corporation | Virtual cultural attache |
KR20110107428A (ko) * | 2010-03-25 | 2011-10-04 | 삼성전자주식회사 | 컨텐츠 제작을 위한 그래픽 유저 인터페이스를 제공하는 디지털 기기 및 그의 그래픽 유저 인터페이스 제공 방법 및 그 방법을 수행하기 위한 프로그램이 기록된 기록 매체 |
US20110250575A1 (en) * | 2010-04-13 | 2011-10-13 | enVie Interactive LLC | System And Method For Providing A Visual Representation Of A User Personality Within A Virtual Environment |
US8323068B2 (en) * | 2010-04-23 | 2012-12-04 | Ganz | Villagers in a virtual world with upgrading via codes |
US9634855B2 (en) | 2010-05-13 | 2017-04-25 | Alexander Poltorak | Electronic personal interactive device that determines topics of interest using a conversational agent |
CN106964150B (zh) * | 2011-02-11 | 2021-03-02 | 漳州市爵晟电子科技有限公司 | 一种动作定位点控制系统及其穿套式定点控制设备 |
US20130038756A1 (en) * | 2011-08-08 | 2013-02-14 | Samsung Electronics Co., Ltd. | Life-logging and memory sharing |
KR101885295B1 (ko) * | 2011-12-26 | 2018-09-11 | 엘지전자 주식회사 | 전자기기 및 그 제어방법 |
KR101190660B1 (ko) * | 2012-07-23 | 2012-10-15 | (주) 퓨처로봇 | 로봇 제어 시나리오 생성 방법 및 장치 |
TWI569156B (zh) | 2012-10-09 | 2017-02-01 | 萬國商業機器公司 | 提供電子裝置之使用者介面的方法及其電子裝置 |
US9852381B2 (en) * | 2012-12-20 | 2017-12-26 | Nokia Technologies Oy | Method and apparatus for providing behavioral pattern generation for mixed reality objects |
CN110634175B (zh) * | 2013-08-02 | 2023-05-16 | 索美智能有限公司 | 神经行为动画系统 |
US9886710B2 (en) | 2014-03-25 | 2018-02-06 | Ebay Inc. | Data mesh visualization |
US20160148529A1 (en) | 2014-11-20 | 2016-05-26 | Dharma Systems Inc. | System and method for improving personality traits |
KR101659849B1 (ko) | 2015-01-09 | 2016-09-29 | 한국과학기술원 | 아바타를 이용한 텔레프레즌스 제공 방법, 상기 방법을 수행하는 시스템 및 컴퓨터 판독 가능한 기록 매체 |
IN2015CH03967A (ja) | 2015-07-31 | 2015-08-14 | Wipro Ltd | |
US20170124897A1 (en) * | 2015-11-04 | 2017-05-04 | Dharma Life Sciences Llc | System and method for enabling a user to overcome high empathy |
US20170124900A1 (en) * | 2015-11-04 | 2017-05-04 | Dharma Life Sciences Llc | System and method for enabling a user to overcome weak behavioral traits |
US20170124905A1 (en) * | 2015-11-04 | 2017-05-04 | Dharma Life Sciences Llc | System and method for enabling a user to overcome social anxiety |
US20170124903A1 (en) * | 2015-11-04 | 2017-05-04 | Dharma Life Sciences Llc | System and method for enabling a user to overcome anxiety |
US20170124904A1 (en) * | 2015-11-04 | 2017-05-04 | Dharma Life Sciences Llc | System and method for enabling a user to overcome low empathy |
US20160328992A1 (en) * | 2015-11-04 | 2016-11-10 | Dharma Life Sciences Llc | System and method for enabling a user to overcome low self esteem and narcissism |
US20170124909A1 (en) * | 2015-11-04 | 2017-05-04 | Dharma Life Sciences Llc | System and method for enabling a user to overcome anger |
US20170124908A1 (en) * | 2015-11-04 | 2017-05-04 | Dharma Life Sciences Llc | System and method for enabling a user to overcome pessimism |
US20170124896A1 (en) * | 2015-11-04 | 2017-05-04 | Dharma Life Sciences Llc | System and method for enabling a user to overcome sensitivity |
US20170124906A1 (en) * | 2015-11-04 | 2017-05-04 | Dharma Life Sciences Llc | System and method for enabling a user to overcome perfectionism |
US20170124902A1 (en) * | 2015-11-04 | 2017-05-04 | Dharma Life Sciences Llc | System and method for enabling a user to overcome low self-esteem |
US20160293044A1 (en) * | 2015-11-04 | 2016-10-06 | Dharma Life Sciences Llc | System and method for enabling a user to overcome impatience laziness and low trust issues |
US20170186334A1 (en) * | 2015-11-04 | 2017-06-29 | Dharma Life Sciences Llc | System and method for enabling a user to improve on behavioral traits that are required for achieving success |
US20170124901A1 (en) * | 2015-11-04 | 2017-05-04 | Dharma Life Sciences Llc | System and method for enabling a user to overcome introversion |
US20170124907A1 (en) * | 2015-11-04 | 2017-05-04 | Dharma Life Sciences Llc | System and method for enabling a user to overcome lack of self control |
US20170124910A1 (en) * | 2015-11-04 | 2017-05-04 | Dharma Life Sciences Llc | System and method for enabling a user to overcome submissiveness |
US10489957B2 (en) * | 2015-11-06 | 2019-11-26 | Mursion, Inc. | Control system for virtual characters |
CN105511930A (zh) * | 2015-12-30 | 2016-04-20 | 北京像素软件科技股份有限公司 | 一种游戏技能的实现方法及装置 |
US10239205B2 (en) * | 2016-06-29 | 2019-03-26 | International Business Machines Corporation | System, method, and recording medium for corpus curation for action manifestation for cognitive robots |
JP2018032384A (ja) * | 2017-07-18 | 2018-03-01 | 株式会社コロプラ | 仮想空間におけるコミュニケーションを支援するための方法および装置ならびに当該方法をコンピュータに実行させるためのプログラム |
JP7157340B2 (ja) | 2018-02-16 | 2022-10-20 | 日本電信電話株式会社 | 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム |
WO2019160104A1 (ja) * | 2018-02-16 | 2019-08-22 | 日本電信電話株式会社 | 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム |
US11989976B2 (en) | 2018-02-16 | 2024-05-21 | Nippon Telegraph And Telephone Corporation | Nonverbal information generation apparatus, nonverbal information generation model learning apparatus, methods, and programs |
KR102543656B1 (ko) | 2018-03-16 | 2023-06-15 | 삼성전자주식회사 | 화면 제어 방법 및 이를 지원하는 전자 장치 |
CN109063595B (zh) * | 2018-07-13 | 2020-11-03 | 苏州浪潮智能软件有限公司 | 一种将肢体动作转换为计算机语言的方法及装置 |
KR102530264B1 (ko) * | 2018-08-08 | 2023-05-09 | 삼성전자 주식회사 | 아바타에 대응하는 속성에 따른 아이템을 제공하는 방법 및 장치 |
US10896534B1 (en) * | 2018-09-19 | 2021-01-19 | Snap Inc. | Avatar style transformation using neural networks |
US11544594B2 (en) * | 2019-04-11 | 2023-01-03 | Sunghee Woo | Electronic device comprising user interface for providing user-participating-type AI training service, and server and method for providing user-participating-type AI training service using the electronic device |
US20210035047A1 (en) * | 2019-08-02 | 2021-02-04 | Capital One Services, Llc | Utilizing a machine learning model to determine anonymized avatars for employment interviews |
US11036781B1 (en) | 2020-01-30 | 2021-06-15 | Snap Inc. | Video generation system to render frames on demand using a fleet of servers |
US11991419B2 (en) | 2020-01-30 | 2024-05-21 | Snap Inc. | Selecting avatars to be included in the video being generated on demand |
CN111870917B (zh) * | 2020-07-24 | 2021-07-23 | 合肥安达创展科技股份有限公司 | 滑雪装置的模拟运行方法、系统及计算机可读储存介质 |
US11738943B2 (en) * | 2021-09-07 | 2023-08-29 | Lasso Loop Recycling LLC. | Processed used-material collection and transfer system and method |
US11861778B1 (en) * | 2022-07-25 | 2024-01-02 | Gravystack, Inc. | Apparatus and method for generating a virtual avatar |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5395042A (en) * | 1994-02-17 | 1995-03-07 | Smart Systems International | Apparatus and method for automatic climate control |
US5982853A (en) | 1995-03-01 | 1999-11-09 | Liebermann; Raanan | Telephone for the deaf and method of using same |
JPH0981632A (ja) * | 1995-09-13 | 1997-03-28 | Toshiba Corp | 情報公開装置 |
US5880731A (en) * | 1995-12-14 | 1999-03-09 | Microsoft Corporation | Use of avatars with automatic gesturing and bounded interaction in on-line chat session |
US6463446B1 (en) * | 1998-02-26 | 2002-10-08 | Sun Microsystems, Inc. | Method and apparatus for transporting behavior in an event-based distributed system |
US5884029A (en) | 1996-11-14 | 1999-03-16 | International Business Machines Corporation | User interaction with intelligent virtual objects, avatars, which interact with other avatars controlled by different users |
JP3932462B2 (ja) * | 1997-05-27 | 2007-06-20 | ソニー株式会社 | クライアント装置、画像表示制御方法、共有仮想空間提供装置および方法、並びに記録媒体 |
DE69739216D1 (de) * | 1997-08-29 | 2009-03-05 | Sony France Sa | Der Entwicklung von konditionierten Reflexen angepasstes System |
JP3178393B2 (ja) | 1997-11-11 | 2001-06-18 | オムロン株式会社 | 行動生成装置、行動生成方法及び行動生成プログラム記録媒体 |
JPH11213179A (ja) * | 1998-01-23 | 1999-08-06 | Sony Corp | 共有仮想空間提供装置および方法、並びに提供媒体 |
US6185534B1 (en) * | 1998-03-23 | 2001-02-06 | Microsoft Corporation | Modeling emotion and personality in a computer user interface |
US6230111B1 (en) * | 1998-08-06 | 2001-05-08 | Yamaha Hatsudoki Kabushiki Kaisha | Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object |
JP2000107442A (ja) * | 1998-10-06 | 2000-04-18 | Konami Co Ltd | ビデオゲームにおけるキャラクタ挙動制御方法、ビデオゲーム装置及びビデオゲームプログラムが記録された可読記録媒体 |
JP2000155750A (ja) * | 1998-11-24 | 2000-06-06 | Omron Corp | 行動生成装置、行動生成方法及び行動生成プログラム記録媒体 |
US7061493B1 (en) * | 1999-04-07 | 2006-06-13 | Fuji Xerox Co., Ltd. | System for designing and rendering personalities for autonomous synthetic characters |
KR20010053322A (ko) * | 1999-04-30 | 2001-06-25 | 이데이 노부유끼 | 전자 페트 시스템, 네트워크 시스템, 로봇, 및 기억 매체 |
US6760119B1 (en) | 1999-05-25 | 2004-07-06 | Silverbrook Research Pty Ltd | Relay device |
JP2001034378A (ja) * | 1999-07-23 | 2001-02-09 | Kansai Tlo Kk | オブジェクト出力システム、オブジェクト管理装置、オブジェクト出力装置、及び記録媒体 |
US6522333B1 (en) * | 1999-10-08 | 2003-02-18 | Electronic Arts Inc. | Remote communication through visual representations |
JP2001191274A (ja) * | 1999-12-30 | 2001-07-17 | Sony Corp | データ保持装置、ロボット装置、変更装置及び変更方法 |
JP2001277163A (ja) * | 2000-04-03 | 2001-10-09 | Sony Corp | ロボットの制御装置及び制御方法 |
JP2002018146A (ja) * | 2000-07-04 | 2002-01-22 | Tomy Co Ltd | 対話型玩具、反応行動パターン生成装置および反応行動パターン生成方法 |
JP2002312295A (ja) * | 2001-04-09 | 2002-10-25 | Nec Interchannel Ltd | 仮想3次元空間会話システム |
US8108509B2 (en) * | 2001-04-30 | 2012-01-31 | Sony Computer Entertainment America Llc | Altering network transmitted content data based upon user specified characteristics |
US7663628B2 (en) * | 2002-01-22 | 2010-02-16 | Gizmoz Israel 2002 Ltd. | Apparatus and method for efficient animation of believable speaking 3D characters in real time |
JP2003337956A (ja) * | 2002-03-13 | 2003-11-28 | Matsushita Electric Ind Co Ltd | コンピュータグラフィックス・アニメーション装置及びコンピュータグラフィックス・アニメーション方法 |
GB0306875D0 (en) | 2003-03-25 | 2003-04-30 | British Telecomm | Apparatus and method for generating behavior in an object |
-
2003
- 2003-03-25 GB GBGB0306875.6A patent/GB0306875D0/en not_active Ceased
-
2004
- 2004-03-24 WO PCT/GB2004/001301 patent/WO2004086208A2/en active Application Filing
- 2004-03-24 EP EP04722892A patent/EP1606697A1/en not_active Withdrawn
- 2004-03-24 CN CNB2004800079408A patent/CN100392562C/zh not_active Expired - Fee Related
- 2004-03-24 CN CN2004800079338A patent/CN100407111C/zh not_active Expired - Fee Related
- 2004-03-24 US US10/549,750 patent/US20060184355A1/en not_active Abandoned
- 2004-03-24 KR KR1020057017990A patent/KR20050107629A/ko not_active Application Discontinuation
- 2004-03-24 US US10/550,205 patent/US7574332B2/en not_active Expired - Fee Related
- 2004-03-24 WO PCT/GB2004/001276 patent/WO2004086207A1/en active Application Filing
- 2004-03-24 JP JP2006506025A patent/JP4579904B2/ja not_active Expired - Fee Related
- 2004-03-24 KR KR1020057017989A patent/KR101106002B1/ko not_active IP Right Cessation
- 2004-03-24 CA CA002519762A patent/CA2519762A1/en not_active Abandoned
- 2004-03-24 CA CA002520036A patent/CA2520036A1/en not_active Abandoned
- 2004-03-24 JP JP2006506015A patent/JP2007527556A/ja active Pending
- 2004-03-25 EP EP04723252A patent/EP1606698A2/en not_active Ceased
Also Published As
Publication number | Publication date |
---|---|
CN1764890A (zh) | 2006-04-26 |
US20060224546A1 (en) | 2006-10-05 |
CN100407111C (zh) | 2008-07-30 |
GB0306875D0 (en) | 2003-04-30 |
JP2007527556A (ja) | 2007-09-27 |
CN100392562C (zh) | 2008-06-04 |
KR101106002B1 (ko) | 2012-01-18 |
WO2004086208A3 (en) | 2004-11-25 |
JP2006525570A (ja) | 2006-11-09 |
EP1606698A2 (en) | 2005-12-21 |
US20060184355A1 (en) | 2006-08-17 |
CN1764889A (zh) | 2006-04-26 |
WO2004086208A2 (en) | 2004-10-07 |
CA2519762A1 (en) | 2004-10-07 |
US7574332B2 (en) | 2009-08-11 |
CA2520036A1 (en) | 2004-10-07 |
EP1606697A1 (en) | 2005-12-21 |
WO2004086207A1 (en) | 2004-10-07 |
KR20050116156A (ko) | 2005-12-09 |
KR20050107629A (ko) | 2005-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4579904B2 (ja) | オブジェクトで行動を生成するための装置及び方法 | |
US11615598B2 (en) | Mission driven virtual character for user interaction | |
Shoulson et al. | Adapt: the agent development and prototyping testbed | |
Maes et al. | The ALIVE system: Wireless, full-body interaction with autonomous agents | |
Badler et al. | Towards personalities for animated agents with reactive and planning behaviors | |
TWI447660B (zh) | Robot autonomous emotion expression device and the method of expressing the robot's own emotion | |
KR20210142200A (ko) | 애니메이팅된 캐릭터의 수정 | |
Kuijk et al. | Autonomous agents and avatars in REVERIE's virtual environment | |
Liu et al. | Natural user interface for physics-based character animation | |
Gillies et al. | Piavca: a framework for heterogeneous interactions with virtual characters | |
Gillies et al. | Customisation and context for expressive behaviour in the broadband world | |
Gillies et al. | Individuality and Contextual Variation of Character Behaviour for Interactive Narrative. | |
Li et al. | A robot motion control mechanism using robot drama markup language | |
Thalmann | Control and autonomy for intelligent virtual agent behaviour | |
Barnes | Visual programming agents for virtual environments | |
Gillies et al. | Behaviourally rich actions for user-controlled characters | |
Na et al. | Interface Application of a Virtual Assistant Agent in an Immersive Virtual Environment | |
Gillies | Applying direct manipulation interfaces to customizing player character behaviour | |
GB2606173A (en) | Computer-implemented method for controlling a virtual avatar | |
Gillies et al. | Direct manipulation like tools for designing intelligent virtual agents | |
Kiss | 3D Character Centred Online Editing Modalities for VRML-based Virtual Environments | |
Gillies | GOLDSMITHS Research Online | |
Bukvic et al. | Cinema craft Virtual Minecraft Presence Using OPERAcraft | |
CN1205790A (zh) | 动物动画及模拟技术 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090407 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090707 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090901 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20091201 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20091208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100301 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100727 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100826 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130903 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |