JP2007527556A - オブジェクトのための行動トランスレータ - Google Patents
オブジェクトのための行動トランスレータ Download PDFInfo
- Publication number
- JP2007527556A JP2007527556A JP2006506015A JP2006506015A JP2007527556A JP 2007527556 A JP2007527556 A JP 2007527556A JP 2006506015 A JP2006506015 A JP 2006506015A JP 2006506015 A JP2006506015 A JP 2006506015A JP 2007527556 A JP2007527556 A JP 2007527556A
- Authority
- JP
- Japan
- Prior art keywords
- behavior
- action
- translator
- input
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Feedback Control In General (AREA)
Abstract
Description
図1Bは図1Aの行動設計ユーザインタフェース7をさらに詳細に示す。図1Bが示すように、行動設計ユーザインタフェース7は、図1Aの仮想環境ウィンドウ4で対話している仮想オブジェクトボブとビルのそれぞれのための一連のメニュー選択肢をユーザに与える。本発明の代替実施形態では、ユーザはこの環境において他の仮想オブジェクトの行動をより直接的に管理しない可能性があるが、簡単にするためにここではユーザがボブとビルの両方ともに直接的な影響を及ぼすことを希望すると仮定される。しかしながら、別の仮想オブジェクトを直接的に管理しない場合でも、さらに詳細に説明されるようにユーザは間接的に他の仮想オブジェクトの行動に依然として影響を及ぼす場合がある。
ここで添付図面の図4を参照すると、本発明による層化された階層行動モデルの階層構造が概略で示されている。
ここで添付図面の図5を参照すると、本発明の第1の実施形態による仮想オブジェクトのための行動コントローラのフレームワーク60が示されている。図5では、行動コントローラのフレームワーク60は、1つ又は複数のソースから1つ又は複数の出力に入力をマップするいくつかの計算ノードを備える。フレームワーク60内のノードは、例えば他の仮想オブジェクトの行動から引き出されてよい入力を提供するノードなどの外部入力61、グローバルフレームワークパラメータと、(直接的又は間接的のどちらかで)フレームワーク内のすべてのノードによってアクセス可能であるその関連入力値を提供するグローバルパラメータノード62、名前によって特定され、特殊なノードにとって内部の1つ又は複数の値と関連付けられる行動ノード63a、63b、63c、63d、及び(例えば他の仮想オブジェクトの行動コントローラによる使用のために)外部で使用できるパラメータ値を出力する外部出力ノード64を備えてよい出力ノード64、65、又は適切な行動を提供する仮想オブジェクトの実際の所望される動画を生じさせるために行動動画機構によって使用されるパラメータ値を提供する行動出力ノード65を含む。プログラミングの観点から、各パラメータは、例えば指定された数値付きのテキスト名などの名前−値組から構成される。使用される行動モデルの正確なアーキテクチャは、行動コントローラのフレームワーク60の形式を決定する。
ここで図6を参照すると、図5の行動ノード63dの拡大図が示されている。図6は複数の異なるソースからの入力が行動ノードによってどのようにして使用されて良いのかを概略して示している。図6に図示されるように、行動ノード63dはその内部パラメータ集合に基づいて1つ又は複数の出力に行動ノードによって前方方向でマップされる最高3つの異なる種類の入力を受け取ることができる。図6では、行動ノード63dへの入力は例えばノード63b、63cなどの別の行動ノードから、1つ又は複数のグローバルパラメータ名値組によって提供される入力62から、及び/又はフレームワークの外のソースからの外部入力61からの出力から生じることがある。外部入力61は、対話規則の所定の組に従ってオブジェクトが対話している別のオブジェクトによって生成されてよい。行動ノードに対する外部入力はノードによって修正されてよい。例えば、入力は、入力が許容範囲を超えて拡張する場合には、無視される、あるいは最大値又は最小値に制限されてよい。代わりに、外部入力がユーザの文化に異なる文化に従って実行されるアクションを表す場合、外部入力は、ユーザ自身の文化における適切な行動に対応する外部入力が、事実上ユーザの仮想オブジェクトによる反応を修正するためにフレームワークによって使用されることを確実にするために、最初に適切に修正されてよい。
形容詞設計をセットアップするために必要とされる知識のレベルと対照的に、オブジェクト72の行動プロファイルにどの形容詞が含まれなければならないのかの選択は形容詞を構築するために必要とされる知識のレベルに比較してより複雑ではないタスクである。行動プロファイルの設計段階により、ユーザは、前記ユーザが行動設計インタフェースを使用して制御しようと努めるオブジェクト(複数の場合がある)の行動にどの行動特徴が関連しているのかを選択できるようにする。
代わりに、入力がオブジェクトの直接的な操作などのソースから受け取られる場合には、受け取られる入力は、フレームワークの出力ノードの1つ又は複数が(動画システムと併せて)生じさせるであろう出力の行動と同等である。この場合、入力は出力ノードの1つ又は複数で受け取られ(ステップ81)、最初に、どの入力値がこのような出力を生じさせる(ステップ82b)のかを決定するために行動フレームワークを通して逆転マップされる。
例えば、行動設計インタフェースが1つ又は複数のグローバルパラメータ、例えば、別の仮想オブジェクトに対するアバターの態度を表すおそらく特定のノードに特殊なパラメータ値だけではなく、例えばアバターなどの仮想オブジェクトの特定のムードを表すグローバルパラメータなどの1つ又は複数のグローバルパラメータにも値を指定する発明の実施形態を考える。ここで図7と図9Aの両方を参照すると、入力62は行動フレームワークの適切なノードによって受け取られ(ステップ82a)、次に内部行動ノード63を通して行動フレームワークによってマップされる(ステップ83)(例えば、図7に戻って参照すると、パラメータ値は緊急性平衡ノードと優勢性因数ノードを通して最初にマップされ、次に、出力ノード65に達するまで親近感ノードとステータスノード、及び気持ちのよい態度、近接、空間充填及びくつろぎのノードに前方にマップできる緊急性差異ノード、反応性ノード及び優勢性差異ノードにマップされてよい。図7に示される本発明の実施形態では、出力ノードは顔の表情、高水準姿勢ノード(及びこれはさらに姿勢ノードにマップする)、視線方向、及びしぐさノードを備え、そのそれぞれはアバターを動画化させ、適切な行動を生成させるために適切な動画システムに提供できる出力を生成する。入力がフレームワークを通して前方にマップされるとき、グローバルパラメータは、二次的な行動変化を誘導できるようにするフレームワークの中の他のノードに対する入力として提供される。これらのグローバルパラメータ値は、このようにして、さらに複雑な行為をアバターによって実行できるようにする。
図7に図示される本発明の実施形態では、出力ノードは顔の表情、高水準姿勢ノード(及びこれはさらに姿勢ノードにマップする)、視線方向、及びしぐさノードを備え、そのそれぞれはアバターを動画化させ、適切な行動を生成させるために適切な動画システムに提供できる出力を生成する。ここで再び9を参照すると、ユーザは例えば別のアバターの腕に触れるために(例えばアバターのアームをクリックすることによって、ステップ90)アバターの姿勢を直接的に操作する例を考える(ステップ91)。これはフレームワークの姿勢ノードで特定の入力を生じさせる(ステップ92)。アバターによってこのような動作を生じさせるであろうグローバルパラメータ値は、他のアバターに対する親しみやすさが意図されるときにだけこのようにするためにセットアップされてよい。行動コントローラは、フレームワークのグローバルパラメータ入力ノードに達するまで姿勢ノードによって生じる値(ステップ93)からフレームワークの関連するノードを通って戻る姿勢ノードにより生じる値から逆転マップを実行し、グローバル行動パラメータ「軽薄さ」のための適切な入力値を推論できる(ステップ93を参照すること)。これらのグローバルパラメータ値は次にフレームワークを通る前方向マップを開始するために使用される。
行動コントローラの動作を定義する行動フレームワークの構造により、例えばユーザが仮想オブジェクトを直接的に操作するときに、内部パラメータ値は逆転マップを使用してフレームワーク内に入力から推論できるようにする。再び図9Aを参照し直すと、行動コントローラがフレームワークの外部のソースから引き出される入力を受け取るケースを考える。入力が直接的に出力と関連付けられる場合、例えば、直接的な操作によって引き出される場合、逆転マップは前方マップのためにグローバルパラメータ値をシードする(seed)ために実行される必要がある。この逆転マップは、下記に概略される行動推論方式を使用して実行される。
o=Fx
そこではoは編集のそれぞれの出力のベクタであり、Fは例えば外部入力又は時間変化するパラメータのさまざまな設定値などの(文脈に依存する可能性がある解決不可の因数の行列であり、sは解決できる因数のベクトルである。Fが二乗ではないすべてのケースにおいて複数の正確な解決策があるであろうため、擬似反転方法が最小二乗解を見つけるために使用できる。
この方法は単一ノードのパラメータを推論できるようにする。出力に直接的に接続されない階層のさらに上にノードのためのパラメータを推論するために、解決可能な因数のいくつかは内部パラメータよりむしろノードの中へ入力として提供される。前記入力は外部入力、グローバルパラメータ又は他のノードの出力のどれかである場合がある。外部入力は解決可能なパラメータであることはできない。グローバルパラメータはそれらの値を解決プロセスの間に直接的に設定させる。
行動階層の中の最終層によりユーザがリアルタイムで複雑な行動をオブジェクトに提供できるようになる本発明の実施形態では、ユーザは種々のソースから行動コントローラに入力を提供する、あるいは任意の個別オブジェクトのために複数の行動設計インタフェースを使用することを希望することがある。例えば、又は入力を提供する他のデバイスは、例えばユーザの頭部及び/又は体の上で運動トラッカを使用することを含んでよい。2つ又は3つ以上の制御装置は操作上の負担を削減するためにユーザによって同時に操作されてよい。使用される制御装置は、ユーザが仮想オブジェクトの体のすべての部分をつねに制御することを必要するのではなく、ときどき限られた数の部分を操作する必要があるにすぎないことを確実にするために行動モデルで特定のパラメータを設定するために形容詞の使用を利用する。
ここに前述された実施形態は主に制御されている仮想オブジェクトの行動を説明している。しかしながら、ここに説明される行動制御の概念は、たとえ前記説明で明示的に説明されていなくても容易に非仮想、つまり現実のつまり実体のあるオブジェクトの制御に及び、本発明は当業者により理解されるように、相応して実在のオブジェクトと仮想オブジェクトの両方の行動に及ぶ。
前述された実施形態は特に仮想環境に関連しているが、複雑な継続している行動を生成できる行動コントローラとのインタフェースを採るためにユーザに単純な入力装置を提供するという概念は現実世界、特にロボット利用玩具に応用例を有する。したがって、本発明の他の実施形態は、ユーザが、ロボットオブジェクトの複雑な動作、特におもちゃの人形などの特に関節のあるロボット的なオブジェクトで複雑な行動を生成するための単純な機構を提供する。
ここに前述された推論方式により、異なる文化的な行動の間で変換する能力を含むように行動コントローラの応用例を拡大する仮想エージェントつまりアバターの内部状態のモデルを決定できる。例えば、アバターがウェブミーティングなどのオンライン環境における異なる文化背景のユーザと対話するユーザのための個人的な仮想エージェントとして機能しているケースでは、ユーザの実際の移動及び感情を直接的に表現する能力は望ましくない可能性がある。
Claims (42)
- オブジェクトの行動コントローラによって使用するために構成される行動トランスレータであって、前記トランスレータは、第1の人口統計上のグループに適合する行動を表す情報を第2の人口統計上のグループに適合する行動にマップするように構成され、
入力を受け取るための手段と、
前記第1の人口統計上のグループに適合する前記オブジェクトによって行動を前記受け取った入力と関連付けるために前記入力を処理する手段と、
前記受け取った入力から引き出される前記行動を前記第2の人口統計上のグループに適合する行動を生成する出力にマップするための手段と、
を備える、行動トランスレータ。 - 人口統計上のグループが、国籍、宗教、社会的な階級、職業又は社会的な背景を含む、請求項1に記載の行動トランスレータ。
- 前記オブジェクトは仮想環境に参加する仮想オブジェクトである、請求項1又は2に記載の行動トランスレータ。
- 前記仮想オブジェクトは、
仮想コンピュータゲームと、仮想オンライン会議と、オンラインゲームと、オンラインチャットルームと、アバターが主催する会議と、アバターカウンセリング会議と、アバターベースの調停環境と、アバターをベースにした販売環境と、オンライン協力環境と、オンラインカスタマ関係管理環境から構成される仮想環境のグループとのどれか1つを備える仮想環境内で動作するように構成される、請求項3に記載の行動トランスレータ。 - 仮想オブジェクトがアバターを備え、前記第1の人口統計上のグループが前記仮想環境における別の参加者から遠隔に位置する前記仮想環境における参加者によって指定される人口統計上のグループを備え、前記第2の人口統計上のグループが前記他の参加者によって指定される、請求項3又は4に記載の行動トランスレータ。
- 両方の参加者がそれぞれ、アバターがそれぞれの指定された人口統計上のグループに従って同時に行動するのを観察する、請求項5に記載の行動トランスレータ。
- 前記情報は前記行動コントローラによって入力として受け取られる、請求項1から6のいずれか1項に記載の行動トランスレータ。
- 前記情報は前記行動コントローラによる出力として提供されなければならない、請求項1から7のいずれか1項に記載の行動トランスレータ。
- 以下の行動アクション、つまり
姿勢、
声のトーン、
しぐさ、
視線方向、
オブジェクト間の対話の間のオブジェクト近接及び、
エチケット、
社会的なステータスを表すアクション、
の内の少なくとも1つを変換するように構成される、請求項1から8のいずれか1項に記載の行動トランスレータ。 - 前記オブジェクトは仮想環境における仮想キャラクタを備え、前記トランスレータは指定された人口統計上の集団に従って前記仮想キャラクタの外観を変換するように構成される、請求項1から9のいずれか1項に記載の行動トランスレータ。
- 変換される外観が1つ又は複数の衣料品及び/又は衣料品が仮想キャラクタによって着用される方法を備える、請求項10に記載の行動トランスレータ。
- 前記行動は行動コントローラを使用して生成される、請求項1から11のいずれか1項に記載の行動トランスレータ。
- 入力を受け取るための前記手段は、前記第1の人口統計上のグループと関連付けられる1つ又は複数の行動アクションと関連付けられる入力を受信するように構成される、請求項1から12のいずれか1項に記載の行動トランスレータ。
- 処理するための前記手段は、
前記オブジェクトによって同等な行動を生成するように構成される行動フレームワークに対応して前記入力から複数の行動パラメータ値を推論するための手段と、
前記推論した行動パラメータ値から出力を引き出すための手段と、
を備える、請求項13に記載の行動トランスレータ。 - 前記マッピング手段は、前記1つ又は複数の行動アクションを前記第2の人口統計上のグループと関連付けられる同等な行動に変換する出力に前記推論した複数の行動パラメータ値から引き出される前記出力をマップすることによりオブジェクトによって前記同等な行動を生成するための手段を備える、請求項14に記載の行動トランスレータ。
- 前記同等な行動は、前記第1の人口統計上のグループと関連付けられる前記行動アクションと同じ感情を伝達する、請求項1から15のいずれか1項に記載の行動トランスレータ。
- 前記同等な行動が行動アクションを実行しないことを含む、請求項1から16のいずれか1項に記載の行動トランスレータ。
- 前記同等な行動は一連の行動アクション(人口統計上のグループ)を備える、請求項1から17のいずれか1項に記載の行動トランスレータ。
- 前記フレームワークは内部に柔軟な構造を有する、請求項14から18のいずれか1項に記載の行動トランスレータ。
- 前記フレームワークは行動ノードの階層を備える、請求項14から19のいずれか1項に記載の行動トランスレータ。
- 前記フレームワークは動的に柔軟である、請求項14から20のいずれか1項に記載の行動トランスレータ。
- 受け取られた入力が複数の行動アクションに関連付けられ、推論される各パラメータ値が前記複数の行動アクション入力の組み合わせにより決定される、請求項1から21のいずれか1項に記載の行動トランスレータ。
- 前記オブジェクトの前記行動が行動アクションと関連付けられる入力を受信することに応えてリアルタイムで生成される、請求項1から22のいずれか1項に記載の行動トランスレータ。
- オブジェクトで行動を生成するように構成される行動コントローラをさらに備え、入力を受け取るための前記手段が行動アクションと関連付けられる入力を受け取るための手段を備え、受け取った入力を処理するための前記手段がオブジェクトにより行動を生成するように構成される行動フレームワークに従って前記入力から複数の行動パラメータ値を推論するための手段を備え、出力を生成するための前記手段が、前記推論した複数の行動パラメータ値から出力を引き出すための手段を備え、前記トランスレータが前記パラメータ値から引き出される前記出力を使用して前記オブジェクトによって同等な行動を生成するための手段をさらに備える、請求項1から23のいずれか1項に記載の行動トランスレータ。
- 同等な行動を生成するための前記手段は、パラメータ値から引き出される出力を、適切な行動をオブジェクトによって動画化させるために出力で動作するように構成される動画システムに転送するための手段を備える、請求項24に記載の行動トランスレータ。
- 前記受け取る手段は、前記オブジェクトの前記行動フレームワークの外部のソースから少なくとも1つのパラメータ値を入力として受け取るための手段を含む、請求項25に記載の行動トランスレータ。
- 複数の行動パラメータ値を推論するための手段はノードのフレームワークを備え、各行動ノードは少なくとも1つの出力パラメータ値に少なくとも1つの入力パラメータ値をマップするように構成される、請求項24から26に記載の行動トランスレータ。
- 少なくとも1つのノードが、前記行動フレームワーク内のノードごとに定められるパラメータと、前記行動フレームワークの各ノード内で定められるパラメータと、前記行動フレームワークの外部で定められるパラメータとを含む前記グループから取られる少なくとも1つのパラメータ値をマップするように構成される、請求項27に記載の行動トランスレータ。
- 入力を受け取るための前記手段が行動設計インタフェースから入力を受け取るように構成され、前記行動設計インタフェースは、
前記オブジェクトの前記行動フレームワークに従って定められる少なくとも1つの行動パラメータを含む行動パラメータ集合に対する値の前記指定を可能にするように構成される手段と、
前記内部パラメータの前記値を決定するために所定の関数により設定される前記行動パラメータに指定される前記値に作用するように構成される手段と、
を備える、請求項14から28のいずれか1項に記載の行動トランスレータ。 - 前記行動トランスレータは前記行動コントローラ内の構成要素であり、第1の文化と一貫する行動から引き出される受け取った入力を、第2の文化に一貫する入力にマップするための変換要素を備える、請求項24から29のいずれか1項に記載の行動トランスレータ。
- 前記行動トランスレータは第1の所定の文化と一貫する行動出力を第2の所定の文化と一貫する行動出力にマップするための変換要素を備える、請求項24から30のいずれか1項に記載の行動トランスレータ。
- ユーザが前記トランスレータに前記入力を提供する、請求項1から31のいずれか1項に記載の行動トランスレータ。
- ソフトウェアエージェントが前記トランスレータに前記入力を提供する、請求項1から32のいずれか1項に記載の行動トランスレータ。
- 一連の少なくとも1つのコンピュータプログラムがその上に記憶されるように構成される装置であって、前記一連の少なくとも1つのコンピュータプログラムが請求項1から33のいずれか1項に記載のトランスレータとして前記装置を機能させるように前記装置で実行可能である装置。
- ある人口統計上のグループに適合する行動から別の人口統計上のグループに適合する行動に仮想環境における行動を変換する方法であって、前記仮想環境で知覚される行動が行動コントローラの制御下でオブジェクトのために生成される行動であり、
1つ又は複数の行動アクションと関連付けられる入力を受け取るステップと、
前記オブジェクトにより行動を生成するように構成される行動フレームワークに従って前記入力から複数の行動パラメータ値を推論するステップと、
前記推論した複数の行動パラメータ値から出力を引き出すステップと、
前記パラメータ値から引き出される前記出力を使用して前記オブジェクトによって同等な行動を生成するステップと、
第1の人口統計上のグループに従って行動アクションを生成する入力を前記他の人口統計上のグループと関連付けられる同等な行動に変換するステップと、
を含む、方法。 - ノードのフレームワークを備え、請求項1から33のいずれか1項に記載の行動トランスレータによる使用のために構成される行動コントローラの制御下でオブジェクト内で行動を生成する方法であって、
少なくとも1つのノードが行動アクションと関連付けられる入力を受け取るステップと、
それぞれ前記少なくとも1つのノードが受け取られた入力を出力にマップするステップと、
前記出力を使用してフレームワーク内で他のノードのための複数の行動パラメータ値を推論するステップと、
前記推論した行動パラメータ値を使用して受け取った入力を、前記オブジェクトにより同等な行動を生成する前記行動コントローラによって出力を提供するためにマップするステップと、
を備える、方法。 - 請求項1から33のいずれか1項に記載の行動トランスレータによる使用のために構成される行動コントローラの制御下でオブジェクトに行動を生成する方法であって、
行動アクションと関連付けられる入力を受け取るステップと、
前記オブジェクトによる同等な行動に対応する少なくとも1つの出力値の集合に前記受け取った入力をマップするステップと、
前記オブジェクトによる行動を生成するように構成される行動フレームワークに従って少なくとも1つの出力値の前記集合から複数の行動パラメータ値を推論するステップと、
これらを前記行動コントローラにロードすることによって、前記パラメータ値を使用して前記オブジェクトに同等な行動を生成するステップと、
を備える、方法。 - 推論した前記パラメータは時間依存性である、請求項35から37のいずれか1項に記載の方法。
- 実行時に、1つ又は複数のコンピュータシステムに請求項35から37のいずれか1項に記載の方法のどれか1つを実行させるように構成される、指示の集合を形成する一式の1つ又は複数のコンピュータプログラム。
- オブジェクトの行動コントローラのための行動変換装置であって、前記装置は第1の文化に適合する行動を表す情報を、第2の文化に適合する行動にマップするための手段を備える、行動変換装置。
- 前記情報は前記行動コントローラによって入力として受け取られる、請求項40に記載の行動変換装置。
- 前記情報は前記行動コントローラによる出力として提供されなければならない、請求項40又は41に記載の行動変換装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GBGB0306875.6A GB0306875D0 (en) | 2003-03-25 | 2003-03-25 | Apparatus and method for generating behavior in an object |
PCT/GB2004/001276 WO2004086207A1 (en) | 2003-03-25 | 2004-03-24 | A behavioural translator for an object |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007527556A true JP2007527556A (ja) | 2007-09-27 |
Family
ID=9955506
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006506015A Pending JP2007527556A (ja) | 2003-03-25 | 2004-03-24 | オブジェクトのための行動トランスレータ |
JP2006506025A Expired - Fee Related JP4579904B2 (ja) | 2003-03-25 | 2004-03-24 | オブジェクトで行動を生成するための装置及び方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006506025A Expired - Fee Related JP4579904B2 (ja) | 2003-03-25 | 2004-03-24 | オブジェクトで行動を生成するための装置及び方法 |
Country Status (8)
Country | Link |
---|---|
US (2) | US7574332B2 (ja) |
EP (2) | EP1606697A1 (ja) |
JP (2) | JP2007527556A (ja) |
KR (2) | KR20050107629A (ja) |
CN (2) | CN100392562C (ja) |
CA (2) | CA2519762A1 (ja) |
GB (1) | GB0306875D0 (ja) |
WO (2) | WO2004086208A2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016532953A (ja) * | 2013-08-02 | 2016-10-20 | オークランド ユニサービシーズ リミティド | 神経行動学的アニメーションのためのシステム |
Families Citing this family (125)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0306875D0 (en) * | 2003-03-25 | 2003-04-30 | British Telecomm | Apparatus and method for generating behavior in an object |
US7346478B2 (en) * | 2004-09-21 | 2008-03-18 | Ford Motor Company | Method of embedding tooling control data within mechanical fixture design to enable programmable logic control verification simulation |
JP2006146435A (ja) * | 2004-11-17 | 2006-06-08 | Univ Waseda | 動作伝達システムおよび動作伝達方法 |
KR100711194B1 (ko) * | 2005-02-04 | 2007-04-24 | 바이어스아이티 주식회사 | 다중 레이어 기반의 이미지 및 오디오 아바타 파일 생성및 재생 방법 |
US8136038B2 (en) * | 2005-03-04 | 2012-03-13 | Nokia Corporation | Offering menu items to a user |
US7512537B2 (en) * | 2005-03-22 | 2009-03-31 | Microsoft Corporation | NLP tool to dynamically create movies/animated scenes |
US20070015121A1 (en) * | 2005-06-02 | 2007-01-18 | University Of Southern California | Interactive Foreign Language Teaching |
DE102005035903A1 (de) | 2005-07-28 | 2007-02-08 | X-Aitment Gmbh | Generische KI-Architektur für ein Multiagenten-System |
WO2007076513A2 (en) * | 2005-12-27 | 2007-07-05 | Bonnie Johnson | Virtual counseling practice |
CA2657176C (en) * | 2006-07-12 | 2015-09-08 | Medical Cyberworlds, Inc. | Computerized medical training system |
US8010474B1 (en) | 2006-09-05 | 2011-08-30 | Aol Inc. | Translating paralinguisitic indicators |
US8726195B2 (en) | 2006-09-05 | 2014-05-13 | Aol Inc. | Enabling an IM user to navigate a virtual world |
US20080120558A1 (en) * | 2006-11-16 | 2008-05-22 | Paco Xander Nathan | Systems and methods for managing a persistent virtual avatar with migrational ability |
JP2010533006A (ja) * | 2007-03-01 | 2010-10-21 | ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー | 仮想世界とコミュニケーションを取るためのシステムおよび方法 |
US20080215974A1 (en) * | 2007-03-01 | 2008-09-04 | Phil Harrison | Interactive user controlled avatar animations |
GB0703974D0 (en) * | 2007-03-01 | 2007-04-11 | Sony Comp Entertainment Europe | Entertainment device |
WO2008151419A1 (en) * | 2007-06-11 | 2008-12-18 | Darwin Dimensions Inc. | Sex selection in inheritance based avatar generation |
WO2008151420A1 (en) * | 2007-06-11 | 2008-12-18 | Darwin Dimensions Inc. | Automatic feature mapping in inheritance based avatar generation |
WO2008151422A1 (en) * | 2007-06-11 | 2008-12-18 | Darwin Dimensions Inc. | Dynamic user interface for inheritance based avatar generation |
US8130219B2 (en) * | 2007-06-11 | 2012-03-06 | Autodesk, Inc. | Metadata for avatar generation in virtual environments |
US8930463B2 (en) * | 2007-07-09 | 2015-01-06 | Yahoo! Inc. | Super-emoticons |
KR101399199B1 (ko) * | 2007-07-16 | 2014-05-27 | 삼성전자주식회사 | 소프트웨어 로봇의 유전자 코드 구성 방법 |
US20090058862A1 (en) * | 2007-08-27 | 2009-03-05 | Finn Peter G | Automatic avatar transformation for a virtual universe |
US20090069084A1 (en) * | 2007-09-12 | 2009-03-12 | Reece Alex D | System and Methods for Monitoring and Controlling the Actions of an Avatar in a Virtual Environment |
US20090128567A1 (en) * | 2007-11-15 | 2009-05-21 | Brian Mark Shuster | Multi-instance, multi-user animation with coordinated chat |
US20090157481A1 (en) * | 2007-12-13 | 2009-06-18 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for specifying a cohort-linked avatar attribute |
US9211077B2 (en) * | 2007-12-13 | 2015-12-15 | The Invention Science Fund I, Llc | Methods and systems for specifying an avatar |
US20090156955A1 (en) * | 2007-12-13 | 2009-06-18 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for comparing media content |
US8356004B2 (en) * | 2007-12-13 | 2013-01-15 | Searete Llc | Methods and systems for comparing media content |
US20090157660A1 (en) * | 2007-12-13 | 2009-06-18 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems employing a cohort-linked avatar |
US20090164458A1 (en) * | 2007-12-20 | 2009-06-25 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems employing a cohort-linked avatar |
US20090157625A1 (en) * | 2007-12-13 | 2009-06-18 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for identifying an avatar-linked population cohort |
US20090157751A1 (en) * | 2007-12-13 | 2009-06-18 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for specifying an avatar |
US20090164302A1 (en) * | 2007-12-20 | 2009-06-25 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for specifying a cohort-linked avatar attribute |
US8069125B2 (en) * | 2007-12-13 | 2011-11-29 | The Invention Science Fund I | Methods and systems for comparing media content |
US20090157813A1 (en) * | 2007-12-17 | 2009-06-18 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for identifying an avatar-linked population cohort |
US8615479B2 (en) | 2007-12-13 | 2013-12-24 | The Invention Science Fund I, Llc | Methods and systems for indicating behavior in a population cohort |
US8195593B2 (en) * | 2007-12-20 | 2012-06-05 | The Invention Science Fund I | Methods and systems for indicating behavior in a population cohort |
US20090171164A1 (en) * | 2007-12-17 | 2009-07-02 | Jung Edward K Y | Methods and systems for identifying an avatar-linked population cohort |
US8390629B2 (en) * | 2007-12-17 | 2013-03-05 | Pixar | Methods and apparatus for designing animatronics units from articulated computer generated characters |
EP2227802A4 (en) * | 2007-12-17 | 2012-04-25 | Pixar | METHOD AND DEVICE FOR DESIGNING ANIMATRONIC UNITS FROM COMPUTER-GENERATED JOINTFIGURES |
US8150796B2 (en) * | 2007-12-20 | 2012-04-03 | The Invention Science Fund I | Methods and systems for inducing behavior in a population cohort |
US9418368B2 (en) * | 2007-12-20 | 2016-08-16 | Invention Science Fund I, Llc | Methods and systems for determining interest in a cohort-linked avatar |
US20090164503A1 (en) * | 2007-12-20 | 2009-06-25 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for specifying a media content-linked population cohort |
US20090164131A1 (en) * | 2007-12-20 | 2009-06-25 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for specifying a media content-linked population cohort |
US9775554B2 (en) * | 2007-12-31 | 2017-10-03 | Invention Science Fund I, Llc | Population cohort-linked avatar |
US20090192785A1 (en) * | 2008-01-29 | 2009-07-30 | Anna Carpenter Cavender | System and method for optimizing natural language descriptions of objects in a virtual environment |
US9110890B2 (en) * | 2008-02-15 | 2015-08-18 | International Business Machines Corporation | Selecting a language encoding of a static communication in a virtual universe |
US20090210803A1 (en) * | 2008-02-15 | 2009-08-20 | International Business Machines Corporation | Automatically modifying communications in a virtual universe |
US7447996B1 (en) * | 2008-02-28 | 2008-11-04 | International Business Machines Corporation | System for using gender analysis of names to assign avatars in instant messaging applications |
WO2009149076A1 (en) * | 2008-06-02 | 2009-12-10 | Nike International, Ltd. | System and method for creating an avatar |
US20090319397A1 (en) * | 2008-06-19 | 2009-12-24 | D-Link Systems, Inc. | Virtual experience |
IL192478A0 (en) * | 2008-06-26 | 2009-02-11 | Shimon Elnatan | System and method for simplifying the creation and storage of complex animation objects and movies |
US8200578B2 (en) * | 2008-07-09 | 2012-06-12 | Hill Matthew D | Methods and systems for account management and virtual agent design and implementation |
US8446414B2 (en) * | 2008-07-14 | 2013-05-21 | Microsoft Corporation | Programming APIS for an extensible avatar system |
US20120246585A9 (en) * | 2008-07-14 | 2012-09-27 | Microsoft Corporation | System for editing an avatar |
US8384719B2 (en) * | 2008-08-01 | 2013-02-26 | Microsoft Corporation | Avatar items and animations |
US9223469B2 (en) * | 2008-08-22 | 2015-12-29 | Intellectual Ventures Fund 83 Llc | Configuring a virtual world user-interface |
US8296246B2 (en) * | 2008-09-02 | 2012-10-23 | International Business Machines Corporation | Allocating virtual universe customer service |
US20100083112A1 (en) * | 2008-09-23 | 2010-04-01 | International Business Machines Corporation | Managing virtual universe avatar behavior ratings |
US20100088084A1 (en) * | 2008-10-03 | 2010-04-08 | International Business Machines Corporation | Method for translating a non-verbal communication within a virtual world environment |
US8266536B2 (en) * | 2008-11-20 | 2012-09-11 | Palo Alto Research Center Incorporated | Physical-virtual environment interface |
US20100131876A1 (en) * | 2008-11-21 | 2010-05-27 | Nortel Networks Limited | Ability to create a preferred profile for the agent in a customer interaction experience |
US9741147B2 (en) * | 2008-12-12 | 2017-08-22 | International Business Machines Corporation | System and method to modify avatar characteristics based on inferred conditions |
KR101381594B1 (ko) * | 2008-12-22 | 2014-04-10 | 한국전자통신연구원 | 가상현실을 이용한 교육 장치 및 방법 |
WO2010093995A1 (en) * | 2009-02-13 | 2010-08-19 | Social Gaming Network | Apparatuses, methods and systems for an interworld feedback platform bridge |
EP2400462A1 (en) * | 2009-02-18 | 2011-12-28 | Nec Corporation | Device for control of moving subject, system for control of moving subject, method for control of moving subject, and program |
US8262474B2 (en) | 2009-04-21 | 2012-09-11 | Mcmain Michael Parker | Method and device for controlling player character dialog in a video game located on a computer-readable storage medium |
US8390680B2 (en) | 2009-07-09 | 2013-03-05 | Microsoft Corporation | Visual representation expression based on player expression |
US8380649B2 (en) | 2009-07-10 | 2013-02-19 | International Business Machines Corporation | Application of normative rules in a virtual universe |
US8347217B2 (en) | 2009-12-02 | 2013-01-01 | International Business Machines Corporation | Customized rule application as function of avatar data |
US20110225039A1 (en) * | 2010-03-10 | 2011-09-15 | Oddmobb, Inc. | Virtual social venue feeding multiple video streams |
US20110225515A1 (en) * | 2010-03-10 | 2011-09-15 | Oddmobb, Inc. | Sharing emotional reactions to social media |
US20110239136A1 (en) * | 2010-03-10 | 2011-09-29 | Oddmobb, Inc. | Instantiating widgets into a virtual social venue |
US20110225518A1 (en) * | 2010-03-10 | 2011-09-15 | Oddmobb, Inc. | Friends toolbar for a virtual social venue |
US20110225519A1 (en) * | 2010-03-10 | 2011-09-15 | Oddmobb, Inc. | Social media platform for simulating a live experience |
US8667402B2 (en) * | 2010-03-10 | 2014-03-04 | Onset Vi, L.P. | Visualizing communications within a social setting |
US8572177B2 (en) | 2010-03-10 | 2013-10-29 | Xmobb, Inc. | 3D social platform for sharing videos and webpages |
US8875019B2 (en) * | 2010-03-16 | 2014-10-28 | International Business Machines Corporation | Virtual cultural attache |
KR20110107428A (ko) * | 2010-03-25 | 2011-10-04 | 삼성전자주식회사 | 컨텐츠 제작을 위한 그래픽 유저 인터페이스를 제공하는 디지털 기기 및 그의 그래픽 유저 인터페이스 제공 방법 및 그 방법을 수행하기 위한 프로그램이 기록된 기록 매체 |
US20110250575A1 (en) * | 2010-04-13 | 2011-10-13 | enVie Interactive LLC | System And Method For Providing A Visual Representation Of A User Personality Within A Virtual Environment |
US8323068B2 (en) * | 2010-04-23 | 2012-12-04 | Ganz | Villagers in a virtual world with upgrading via codes |
US9634855B2 (en) | 2010-05-13 | 2017-04-25 | Alexander Poltorak | Electronic personal interactive device that determines topics of interest using a conversational agent |
CN106943742B (zh) * | 2011-02-11 | 2024-04-26 | 漳州市阿思星谷电子科技有限公司 | 一种动作放大系统 |
US20130038756A1 (en) * | 2011-08-08 | 2013-02-14 | Samsung Electronics Co., Ltd. | Life-logging and memory sharing |
KR101885295B1 (ko) * | 2011-12-26 | 2018-09-11 | 엘지전자 주식회사 | 전자기기 및 그 제어방법 |
KR101190660B1 (ko) | 2012-07-23 | 2012-10-15 | (주) 퓨처로봇 | 로봇 제어 시나리오 생성 방법 및 장치 |
TWI569156B (zh) | 2012-10-09 | 2017-02-01 | 萬國商業機器公司 | 提供電子裝置之使用者介面的方法及其電子裝置 |
US9852381B2 (en) * | 2012-12-20 | 2017-12-26 | Nokia Technologies Oy | Method and apparatus for providing behavioral pattern generation for mixed reality objects |
US10304114B2 (en) | 2014-03-25 | 2019-05-28 | Ebay Inc. | Data mesh based environmental augmentation |
US20160148529A1 (en) | 2014-11-20 | 2016-05-26 | Dharma Systems Inc. | System and method for improving personality traits |
KR101659849B1 (ko) | 2015-01-09 | 2016-09-29 | 한국과학기술원 | 아바타를 이용한 텔레프레즌스 제공 방법, 상기 방법을 수행하는 시스템 및 컴퓨터 판독 가능한 기록 매체 |
IN2015CH03967A (ja) | 2015-07-31 | 2015-08-14 | Wipro Ltd | |
US20170124901A1 (en) * | 2015-11-04 | 2017-05-04 | Dharma Life Sciences Llc | System and method for enabling a user to overcome introversion |
US20170186334A1 (en) * | 2015-11-04 | 2017-06-29 | Dharma Life Sciences Llc | System and method for enabling a user to improve on behavioral traits that are required for achieving success |
US20170124906A1 (en) * | 2015-11-04 | 2017-05-04 | Dharma Life Sciences Llc | System and method for enabling a user to overcome perfectionism |
US20160293044A1 (en) * | 2015-11-04 | 2016-10-06 | Dharma Life Sciences Llc | System and method for enabling a user to overcome impatience laziness and low trust issues |
US20170124910A1 (en) * | 2015-11-04 | 2017-05-04 | Dharma Life Sciences Llc | System and method for enabling a user to overcome submissiveness |
US20170124896A1 (en) * | 2015-11-04 | 2017-05-04 | Dharma Life Sciences Llc | System and method for enabling a user to overcome sensitivity |
US20170124903A1 (en) * | 2015-11-04 | 2017-05-04 | Dharma Life Sciences Llc | System and method for enabling a user to overcome anxiety |
US20170124897A1 (en) * | 2015-11-04 | 2017-05-04 | Dharma Life Sciences Llc | System and method for enabling a user to overcome high empathy |
US20170124904A1 (en) * | 2015-11-04 | 2017-05-04 | Dharma Life Sciences Llc | System and method for enabling a user to overcome low empathy |
US20160328992A1 (en) * | 2015-11-04 | 2016-11-10 | Dharma Life Sciences Llc | System and method for enabling a user to overcome low self esteem and narcissism |
US20170124905A1 (en) * | 2015-11-04 | 2017-05-04 | Dharma Life Sciences Llc | System and method for enabling a user to overcome social anxiety |
US20170124902A1 (en) * | 2015-11-04 | 2017-05-04 | Dharma Life Sciences Llc | System and method for enabling a user to overcome low self-esteem |
US20170124909A1 (en) * | 2015-11-04 | 2017-05-04 | Dharma Life Sciences Llc | System and method for enabling a user to overcome anger |
US20170124907A1 (en) * | 2015-11-04 | 2017-05-04 | Dharma Life Sciences Llc | System and method for enabling a user to overcome lack of self control |
US20170124908A1 (en) * | 2015-11-04 | 2017-05-04 | Dharma Life Sciences Llc | System and method for enabling a user to overcome pessimism |
US20170124900A1 (en) * | 2015-11-04 | 2017-05-04 | Dharma Life Sciences Llc | System and method for enabling a user to overcome weak behavioral traits |
EP3371778A4 (en) * | 2015-11-06 | 2019-06-26 | Mursion, Inc. | CONTROL SYSTEM FOR VIRTUAL FIGURES |
CN105511930A (zh) * | 2015-12-30 | 2016-04-20 | 北京像素软件科技股份有限公司 | 一种游戏技能的实现方法及装置 |
US10239205B2 (en) * | 2016-06-29 | 2019-03-26 | International Business Machines Corporation | System, method, and recording medium for corpus curation for action manifestation for cognitive robots |
JP7140984B2 (ja) * | 2018-02-16 | 2022-09-22 | 日本電信電話株式会社 | 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム |
JP7280512B2 (ja) | 2018-02-16 | 2023-05-24 | 日本電信電話株式会社 | 非言語情報生成装置及びプログラム |
WO2019160105A1 (ja) | 2018-02-16 | 2019-08-22 | 日本電信電話株式会社 | 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム |
KR102543656B1 (ko) | 2018-03-16 | 2023-06-15 | 삼성전자주식회사 | 화면 제어 방법 및 이를 지원하는 전자 장치 |
CN109063595B (zh) * | 2018-07-13 | 2020-11-03 | 苏州浪潮智能软件有限公司 | 一种将肢体动作转换为计算机语言的方法及装置 |
KR102530264B1 (ko) * | 2018-08-08 | 2023-05-09 | 삼성전자 주식회사 | 아바타에 대응하는 속성에 따른 아이템을 제공하는 방법 및 장치 |
US10896534B1 (en) | 2018-09-19 | 2021-01-19 | Snap Inc. | Avatar style transformation using neural networks |
US11544594B2 (en) * | 2019-04-11 | 2023-01-03 | Sunghee Woo | Electronic device comprising user interface for providing user-participating-type AI training service, and server and method for providing user-participating-type AI training service using the electronic device |
US20210035047A1 (en) * | 2019-08-02 | 2021-02-04 | Capital One Services, Llc | Utilizing a machine learning model to determine anonymized avatars for employment interviews |
US11991419B2 (en) | 2020-01-30 | 2024-05-21 | Snap Inc. | Selecting avatars to be included in the video being generated on demand |
CN111870917B (zh) * | 2020-07-24 | 2021-07-23 | 合肥安达创展科技股份有限公司 | 滑雪装置的模拟运行方法、系统及计算机可读储存介质 |
US11738943B2 (en) * | 2021-09-07 | 2023-08-29 | Lasso Loop Recycling LLC. | Processed used-material collection and transfer system and method |
US11861778B1 (en) * | 2022-07-25 | 2024-01-02 | Gravystack, Inc. | Apparatus and method for generating a virtual avatar |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0981632A (ja) * | 1995-09-13 | 1997-03-28 | Toshiba Corp | 情報公開装置 |
JPH10333542A (ja) * | 1997-05-27 | 1998-12-18 | Sony Corp | クライアント装置、表示制御方法、共有仮想空間提供装置および方法、並びに提供媒体 |
JPH11143849A (ja) * | 1997-11-11 | 1999-05-28 | Omron Corp | 行動生成装置、行動生成方法及び行動生成プログラム記録媒体 |
JPH11161626A (ja) * | 1997-08-29 | 1999-06-18 | Sony Corp | 人工知能装置 |
JP2000155750A (ja) * | 1998-11-24 | 2000-06-06 | Omron Corp | 行動生成装置、行動生成方法及び行動生成プログラム記録媒体 |
WO2000066239A1 (fr) * | 1999-04-30 | 2000-11-09 | Sony Corporation | Systeme d'animal de compagnie electronique, systeme de reseau, robot et support de donnees |
JP2000353037A (ja) * | 1999-04-07 | 2000-12-19 | Fuji Xerox Co Ltd | パーソナリティ設計システム、パーソナリティレンダリング方法、及び行動選択方法 |
JP2001034378A (ja) * | 1999-07-23 | 2001-02-09 | Kansai Tlo Kk | オブジェクト出力システム、オブジェクト管理装置、オブジェクト出力装置、及び記録媒体 |
US6212502B1 (en) * | 1998-03-23 | 2001-04-03 | Microsoft Corporation | Modeling and projecting emotion and personality from a computer user interface |
WO2001027879A1 (en) * | 1999-10-08 | 2001-04-19 | Electronic Arts Inc. | Remote communication through visual representations |
JP2001191274A (ja) * | 1999-12-30 | 2001-07-17 | Sony Corp | データ保持装置、ロボット装置、変更装置及び変更方法 |
JP2002312295A (ja) * | 2001-04-09 | 2002-10-25 | Nec Interchannel Ltd | 仮想3次元空間会話システム |
JP2003066984A (ja) * | 2001-04-30 | 2003-03-05 | Sony Computer Entertainment America Inc | ユーザが指定する特性に基づいてネットワーク上を伝送したコンテンツデータを改変する方法 |
JP2003337956A (ja) * | 2002-03-13 | 2003-11-28 | Matsushita Electric Ind Co Ltd | コンピュータグラフィックス・アニメーション装置及びコンピュータグラフィックス・アニメーション方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5395042A (en) * | 1994-02-17 | 1995-03-07 | Smart Systems International | Apparatus and method for automatic climate control |
US5982853A (en) | 1995-03-01 | 1999-11-09 | Liebermann; Raanan | Telephone for the deaf and method of using same |
US5880731A (en) * | 1995-12-14 | 1999-03-09 | Microsoft Corporation | Use of avatars with automatic gesturing and bounded interaction in on-line chat session |
US6463446B1 (en) * | 1998-02-26 | 2002-10-08 | Sun Microsystems, Inc. | Method and apparatus for transporting behavior in an event-based distributed system |
US5884029A (en) | 1996-11-14 | 1999-03-16 | International Business Machines Corporation | User interaction with intelligent virtual objects, avatars, which interact with other avatars controlled by different users |
JPH11213179A (ja) * | 1998-01-23 | 1999-08-06 | Sony Corp | 共有仮想空間提供装置および方法、並びに提供媒体 |
US6230111B1 (en) * | 1998-08-06 | 2001-05-08 | Yamaha Hatsudoki Kabushiki Kaisha | Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object |
JP2000107442A (ja) * | 1998-10-06 | 2000-04-18 | Konami Co Ltd | ビデオゲームにおけるキャラクタ挙動制御方法、ビデオゲーム装置及びビデオゲームプログラムが記録された可読記録媒体 |
US7079712B1 (en) | 1999-05-25 | 2006-07-18 | Silverbrook Research Pty Ltd | Method and system for providing information in a document |
JP2001277163A (ja) * | 2000-04-03 | 2001-10-09 | Sony Corp | ロボットの制御装置及び制御方法 |
JP2002018146A (ja) * | 2000-07-04 | 2002-01-22 | Tomy Co Ltd | 対話型玩具、反応行動パターン生成装置および反応行動パターン生成方法 |
US7663628B2 (en) * | 2002-01-22 | 2010-02-16 | Gizmoz Israel 2002 Ltd. | Apparatus and method for efficient animation of believable speaking 3D characters in real time |
GB0306875D0 (en) * | 2003-03-25 | 2003-04-30 | British Telecomm | Apparatus and method for generating behavior in an object |
-
2003
- 2003-03-25 GB GBGB0306875.6A patent/GB0306875D0/en not_active Ceased
-
2004
- 2004-03-24 KR KR1020057017990A patent/KR20050107629A/ko not_active Application Discontinuation
- 2004-03-24 CN CNB2004800079408A patent/CN100392562C/zh not_active Expired - Fee Related
- 2004-03-24 CN CN2004800079338A patent/CN100407111C/zh not_active Expired - Fee Related
- 2004-03-24 WO PCT/GB2004/001301 patent/WO2004086208A2/en active Application Filing
- 2004-03-24 JP JP2006506015A patent/JP2007527556A/ja active Pending
- 2004-03-24 JP JP2006506025A patent/JP4579904B2/ja not_active Expired - Fee Related
- 2004-03-24 WO PCT/GB2004/001276 patent/WO2004086207A1/en active Application Filing
- 2004-03-24 CA CA002519762A patent/CA2519762A1/en not_active Abandoned
- 2004-03-24 US US10/550,205 patent/US7574332B2/en not_active Expired - Fee Related
- 2004-03-24 KR KR1020057017989A patent/KR101106002B1/ko not_active IP Right Cessation
- 2004-03-24 EP EP04722892A patent/EP1606697A1/en not_active Withdrawn
- 2004-03-24 CA CA002520036A patent/CA2520036A1/en not_active Abandoned
- 2004-03-24 US US10/549,750 patent/US20060184355A1/en not_active Abandoned
- 2004-03-25 EP EP04723252A patent/EP1606698A2/en not_active Ceased
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0981632A (ja) * | 1995-09-13 | 1997-03-28 | Toshiba Corp | 情報公開装置 |
JPH10333542A (ja) * | 1997-05-27 | 1998-12-18 | Sony Corp | クライアント装置、表示制御方法、共有仮想空間提供装置および方法、並びに提供媒体 |
JPH11161626A (ja) * | 1997-08-29 | 1999-06-18 | Sony Corp | 人工知能装置 |
JPH11143849A (ja) * | 1997-11-11 | 1999-05-28 | Omron Corp | 行動生成装置、行動生成方法及び行動生成プログラム記録媒体 |
US6212502B1 (en) * | 1998-03-23 | 2001-04-03 | Microsoft Corporation | Modeling and projecting emotion and personality from a computer user interface |
JP2000155750A (ja) * | 1998-11-24 | 2000-06-06 | Omron Corp | 行動生成装置、行動生成方法及び行動生成プログラム記録媒体 |
JP2000353037A (ja) * | 1999-04-07 | 2000-12-19 | Fuji Xerox Co Ltd | パーソナリティ設計システム、パーソナリティレンダリング方法、及び行動選択方法 |
WO2000066239A1 (fr) * | 1999-04-30 | 2000-11-09 | Sony Corporation | Systeme d'animal de compagnie electronique, systeme de reseau, robot et support de donnees |
JP2001034378A (ja) * | 1999-07-23 | 2001-02-09 | Kansai Tlo Kk | オブジェクト出力システム、オブジェクト管理装置、オブジェクト出力装置、及び記録媒体 |
WO2001027879A1 (en) * | 1999-10-08 | 2001-04-19 | Electronic Arts Inc. | Remote communication through visual representations |
JP2001191274A (ja) * | 1999-12-30 | 2001-07-17 | Sony Corp | データ保持装置、ロボット装置、変更装置及び変更方法 |
JP2002312295A (ja) * | 2001-04-09 | 2002-10-25 | Nec Interchannel Ltd | 仮想3次元空間会話システム |
JP2003066984A (ja) * | 2001-04-30 | 2003-03-05 | Sony Computer Entertainment America Inc | ユーザが指定する特性に基づいてネットワーク上を伝送したコンテンツデータを改変する方法 |
JP2003337956A (ja) * | 2002-03-13 | 2003-11-28 | Matsushita Electric Ind Co Ltd | コンピュータグラフィックス・アニメーション装置及びコンピュータグラフィックス・アニメーション方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016532953A (ja) * | 2013-08-02 | 2016-10-20 | オークランド ユニサービシーズ リミティド | 神経行動学的アニメーションのためのシステム |
Also Published As
Publication number | Publication date |
---|---|
KR20050116156A (ko) | 2005-12-09 |
KR101106002B1 (ko) | 2012-01-18 |
EP1606697A1 (en) | 2005-12-21 |
KR20050107629A (ko) | 2005-11-14 |
US20060224546A1 (en) | 2006-10-05 |
JP2006525570A (ja) | 2006-11-09 |
CN1764889A (zh) | 2006-04-26 |
GB0306875D0 (en) | 2003-04-30 |
CA2520036A1 (en) | 2004-10-07 |
WO2004086207A1 (en) | 2004-10-07 |
WO2004086208A2 (en) | 2004-10-07 |
US20060184355A1 (en) | 2006-08-17 |
JP4579904B2 (ja) | 2010-11-10 |
CN100392562C (zh) | 2008-06-04 |
CN100407111C (zh) | 2008-07-30 |
CN1764890A (zh) | 2006-04-26 |
WO2004086208A3 (en) | 2004-11-25 |
CA2519762A1 (en) | 2004-10-07 |
EP1606698A2 (en) | 2005-12-21 |
US7574332B2 (en) | 2009-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4579904B2 (ja) | オブジェクトで行動を生成するための装置及び方法 | |
US11615598B2 (en) | Mission driven virtual character for user interaction | |
US11763510B2 (en) | Avatar animation using markov decision process policies | |
US20210097875A1 (en) | Individual viewing in a shared space | |
US20110144804A1 (en) | Device and method for expressing robot autonomous emotions | |
US9805493B2 (en) | Social identity models for automated entity interactions | |
US11836840B2 (en) | Systems and methods for cross-application authoring, transfer, and evaluation of rigging control systems for virtual characters | |
Gillies et al. | Customisation and context for expressive behaviour in the broadband world | |
Gillies et al. | Individuality and Contextual Variation of Character Behaviour for Interactive Narrative. | |
Na et al. | Interface Application of a Virtual Assistant Agent in an Immersive Virtual Environment | |
Aguirre et al. | Synthetic Perception and Decision-making for Autonomous Virtual Humans in Virtual Reality Applications | |
Checo | " Non-verbal communication in Social VR": Exploring new ways to handshake | |
Gillies et al. | Affective interactions between expressive characters | |
Lee | Affordable avatar control system for personal robots | |
Gillies et al. | Direct manipulation like tools for designing intelligent virtual agents | |
Ortiz et al. | Avatar behaviours due to the user interaction | |
Gillies | GOLDSMITHS Research Online | |
Nijholt | The role of embodiment in a virtual community | |
Afzal | The Role of Avatars in AR/VR Systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090224 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20090525 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20090601 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090622 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090818 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100202 |