JP6662773B2 - 神経行動学的アニメーションのためのシステム - Google Patents
神経行動学的アニメーションのためのシステム Download PDFInfo
- Publication number
- JP6662773B2 JP6662773B2 JP2016531577A JP2016531577A JP6662773B2 JP 6662773 B2 JP6662773 B2 JP 6662773B2 JP 2016531577 A JP2016531577 A JP 2016531577A JP 2016531577 A JP2016531577 A JP 2016531577A JP 6662773 B2 JP6662773 B2 JP 6662773B2
- Authority
- JP
- Japan
- Prior art keywords
- module
- modules
- model
- behavior
- graphic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003188 neurobehavioral effect Effects 0.000 title claims description 38
- 230000006399 behavior Effects 0.000 claims description 60
- 238000000034 method Methods 0.000 claims description 53
- 230000004044 response Effects 0.000 claims description 52
- 230000000007 visual effect Effects 0.000 claims description 41
- 230000008921 facial expression Effects 0.000 claims description 39
- 230000013016 learning Effects 0.000 claims description 38
- 230000008859 change Effects 0.000 claims description 36
- 230000008878 coupling Effects 0.000 claims description 36
- 238000010168 coupling process Methods 0.000 claims description 36
- 238000005859 coupling reaction Methods 0.000 claims description 36
- 210000002569 neuron Anatomy 0.000 claims description 36
- 230000001537 neural effect Effects 0.000 claims description 26
- 230000006870 function Effects 0.000 claims description 20
- 238000012545 processing Methods 0.000 claims description 20
- 230000002452 interceptive effect Effects 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 13
- 238000004891 communication Methods 0.000 claims description 10
- 210000005036 nerve Anatomy 0.000 claims description 8
- 210000004227 basal ganglia Anatomy 0.000 claims description 7
- 230000004071 biological effect Effects 0.000 claims description 6
- 210000001103 thalamus Anatomy 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims 2
- 210000003205 muscle Anatomy 0.000 description 42
- VYFYYTLLBUKUHU-UHFFFAOYSA-N dopamine Chemical compound NCCC1=CC=C(O)C(O)=C1 VYFYYTLLBUKUHU-UHFFFAOYSA-N 0.000 description 40
- 210000001508 eye Anatomy 0.000 description 36
- 230000001815 facial effect Effects 0.000 description 35
- 230000000694 effects Effects 0.000 description 33
- 230000004913 activation Effects 0.000 description 31
- 230000033001 locomotion Effects 0.000 description 25
- 230000003993 interaction Effects 0.000 description 24
- 238000013528 artificial neural network Methods 0.000 description 22
- 210000004556 brain Anatomy 0.000 description 20
- 229960003638 dopamine Drugs 0.000 description 20
- 239000002858 neurotransmitter agent Substances 0.000 description 19
- 238000004364 calculation method Methods 0.000 description 16
- 230000004424 eye movement Effects 0.000 description 15
- 230000014509 gene expression Effects 0.000 description 15
- 102400000050 Oxytocin Human genes 0.000 description 13
- XNOPRXBHLZRZKH-UHFFFAOYSA-N Oxytocin Natural products N1C(=O)C(N)CSSCC(C(=O)N2C(CCC2)C(=O)NC(CC(C)C)C(=O)NCC(N)=O)NC(=O)C(CC(N)=O)NC(=O)C(CCC(N)=O)NC(=O)C(C(C)CC)NC(=O)C1CC1=CC=C(O)C=C1 XNOPRXBHLZRZKH-UHFFFAOYSA-N 0.000 description 13
- 101800000989 Oxytocin Proteins 0.000 description 13
- XNOPRXBHLZRZKH-DSZYJQQASA-N oxytocin Chemical compound C([C@H]1C(=O)N[C@H](C(N[C@@H](CCC(N)=O)C(=O)N[C@@H](CC(N)=O)C(=O)N[C@@H](CSSC[C@H](N)C(=O)N1)C(=O)N1[C@@H](CCC1)C(=O)N[C@@H](CC(C)C)C(=O)NCC(N)=O)=O)[C@@H](C)CC)C1=CC=C(O)C=C1 XNOPRXBHLZRZKH-DSZYJQQASA-N 0.000 description 13
- 229960001723 oxytocin Drugs 0.000 description 13
- 230000009471 action Effects 0.000 description 12
- 210000000653 nervous system Anatomy 0.000 description 12
- 230000009466 transformation Effects 0.000 description 10
- 238000012800 visualization Methods 0.000 description 10
- 230000003542 behavioural effect Effects 0.000 description 9
- 210000000887 face Anatomy 0.000 description 9
- 102000012289 Corticotropin-Releasing Hormone Human genes 0.000 description 8
- 108010022152 Corticotropin-Releasing Hormone Proteins 0.000 description 8
- 239000000055 Corticotropin-Releasing Hormone Substances 0.000 description 8
- 210000003128 head Anatomy 0.000 description 8
- 238000004088 simulation Methods 0.000 description 8
- 210000003863 superior colliculi Anatomy 0.000 description 8
- 210000000133 brain stem Anatomy 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 7
- 229940041967 corticotropin-releasing hormone Drugs 0.000 description 7
- KLVRDXBAMSPYKH-RKYZNNDCSA-N corticotropin-releasing hormone (human) Chemical compound C([C@@H](C(=O)N[C@@H](CO)C(=O)N[C@@H](CC(N)=O)C(=O)N[C@@H](CCCNC(N)=N)C(=O)N[C@@H](CCCCN)C(=O)N[C@@H](CC(C)C)C(=O)N[C@@H](CCSC)C(=O)N[C@@H](CCC(O)=O)C(=O)N[C@H](C(=O)N[C@@H]([C@@H](C)CC)C(N)=O)[C@@H](C)CC)NC(=O)[C@H](C)NC(=O)[C@H](CCC(N)=O)NC(=O)[C@H](CCC(N)=O)NC(=O)[C@H](C)NC(=O)[C@H](CC(C)C)NC(=O)[C@H](CCC(N)=O)NC(=O)[C@H](CCC(O)=O)NC(=O)[C@H](C)NC(=O)[C@H](CCCNC(N)=N)NC(=O)[C@H](C)NC(=O)[C@H](CCSC)NC(=O)[C@H](CCC(O)=O)NC(=O)[C@H](CC(C)C)NC(=O)[C@@H](NC(=O)[C@H](CCC(O)=O)NC(=O)[C@H](CCCNC(N)=N)NC(=O)[C@H](CC(C)C)NC(=O)[C@H](CC(C)C)NC(=O)[C@H](CC=1N=CNC=1)NC(=O)[C@H](CC=1C=CC=CC=1)NC(=O)[C@@H](NC(=O)[C@H](CC(C)C)NC(=O)[C@H](CC(O)=O)NC(=O)[C@H](CC(C)C)NC(=O)[C@H](CO)NC(=O)[C@@H](NC(=O)[C@H]1N(CCC1)C(=O)[C@H]1N(CCC1)C(=O)[C@H](CCC(O)=O)NC(=O)[C@H](CCC(O)=O)NC(=O)[C@@H](N)CO)[C@@H](C)CC)C(C)C)C(C)C)C1=CNC=N1 KLVRDXBAMSPYKH-RKYZNNDCSA-N 0.000 description 7
- 238000001514 detection method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 238000005094 computer simulation Methods 0.000 description 6
- 238000013461 design Methods 0.000 description 6
- 230000000193 eyeblink Effects 0.000 description 6
- 238000009877 rendering Methods 0.000 description 6
- 210000004727 amygdala Anatomy 0.000 description 5
- 230000008901 benefit Effects 0.000 description 5
- 230000001276 controlling effect Effects 0.000 description 5
- 210000004087 cornea Anatomy 0.000 description 5
- 230000002996 emotional effect Effects 0.000 description 5
- 230000000946 synaptic effect Effects 0.000 description 5
- 238000010276 construction Methods 0.000 description 4
- 230000001054 cortical effect Effects 0.000 description 4
- 210000001097 facial muscle Anatomy 0.000 description 4
- 210000002161 motor neuron Anatomy 0.000 description 4
- 230000004434 saccadic eye movement Effects 0.000 description 4
- 230000001953 sensory effect Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000007792 addition Methods 0.000 description 3
- 230000003750 conditioning effect Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 238000010348 incorporation Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 230000003278 mimic effect Effects 0.000 description 3
- 230000008520 organization Effects 0.000 description 3
- 230000037361 pathway Effects 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 230000001105 regulatory effect Effects 0.000 description 3
- 210000004515 ventral tegmental area Anatomy 0.000 description 3
- 102400000748 Beta-endorphin Human genes 0.000 description 2
- 101800005049 Beta-endorphin Proteins 0.000 description 2
- 241001492222 Epicoccum Species 0.000 description 2
- 241000282412 Homo Species 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 241000223503 Platysma Species 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 2
- 210000003484 anatomy Anatomy 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- WOPZMFQRCBYPJU-NTXHZHDSSA-N beta-endorphin Chemical compound C([C@@H](C(=O)N[C@@H](CCCCN)C(=O)N[C@@H](CC(N)=O)C(=O)N[C@@H](C)C(=O)N[C@@H]([C@@H](C)CC)C(=O)N[C@@H]([C@@H](C)CC)C(=O)N[C@@H](CCCCN)C(=O)N[C@@H](CC(N)=O)C(=O)N[C@@H](C)C(=O)N[C@@H](CC=1C=CC(O)=CC=1)C(=O)N[C@@H](CCCCN)C(=O)N[C@@H](CCCCN)C(=O)NCC(=O)N[C@@H](CCC(N)=O)C(O)=O)NC(=O)[C@H](CC(C)C)NC(=O)[C@@H](NC(=O)[C@@H](NC(=O)[C@H](CC(C)C)NC(=O)[C@H]1N(CCC1)C(=O)[C@@H](NC(=O)[C@H](CCC(N)=O)NC(=O)[C@H](CO)NC(=O)[C@H](CCCCN)NC(=O)[C@H](CCC(N)=O)NC(=O)[C@H](CO)NC(=O)[C@@H](NC(=O)[C@H](CCSC)NC(=O)[C@H](CC=1C=CC=CC=1)NC(=O)CNC(=O)CNC(=O)[C@@H](N)CC=1C=CC(O)=CC=1)[C@@H](C)O)[C@@H](C)O)C(C)C)[C@@H](C)O)C1=CC=CC=C1 WOPZMFQRCBYPJU-NTXHZHDSSA-N 0.000 description 2
- 230000004791 biological behavior Effects 0.000 description 2
- 230000004397 blinking Effects 0.000 description 2
- 230000005587 bubbling Effects 0.000 description 2
- 230000000739 chaotic effect Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000004069 differentiation Effects 0.000 description 2
- 229940079593 drug Drugs 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 230000006397 emotional response Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000000744 eyelid Anatomy 0.000 description 2
- 239000012530 fluid Substances 0.000 description 2
- 229940088597 hormone Drugs 0.000 description 2
- 239000005556 hormone Substances 0.000 description 2
- 210000003016 hypothalamus Anatomy 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000003767 neural control Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000009326 social learning Effects 0.000 description 2
- 230000035882 stress Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 206010011469 Crying Diseases 0.000 description 1
- TWXHOCQWENATIA-UHFFFAOYSA-N SNNS Chemical compound SNNS TWXHOCQWENATIA-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000035045 associative learning Effects 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 210000003403 autonomic nervous system Anatomy 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 230000006931 brain damage Effects 0.000 description 1
- 231100000874 brain damage Toxicity 0.000 description 1
- 208000029028 brain injury Diseases 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 210000002808 connective tissue Anatomy 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013481 data capture Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000009429 distress Effects 0.000 description 1
- 230000010249 dopaminergic function Effects 0.000 description 1
- 230000003291 dopaminomimetic effect Effects 0.000 description 1
- 230000008918 emotional behaviour Effects 0.000 description 1
- 210000000750 endocrine system Anatomy 0.000 description 1
- 230000002964 excitative effect Effects 0.000 description 1
- 230000004418 eye rotation Effects 0.000 description 1
- 210000003195 fascia Anatomy 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000003284 homeostatic effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 210000003715 limbic system Anatomy 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000006996 mental state Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000037023 motor activity Effects 0.000 description 1
- 210000004237 neck muscle Anatomy 0.000 description 1
- 210000001577 neostriatum Anatomy 0.000 description 1
- 210000000118 neural pathway Anatomy 0.000 description 1
- 230000010004 neural pathway Effects 0.000 description 1
- 230000004007 neuromodulation Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000008521 reorganization Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000001020 rhythmical effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000021317 sensory perception Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 210000003491 skin Anatomy 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 210000000225 synapse Anatomy 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 210000000857 visual cortex Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2213/00—Indexing scheme for animation
- G06T2213/12—Rule based animation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Description
制御システムおよびシグナル処理の分野は、Simulink(商標)およびVisSim(商標)などの視覚的プログラミング言語を生み出してきた。これらの視覚的システムの使用は他の分野にまで広がっているが、これは、システムを作成してプログラミングコードを自動生成させるのに有効な方法をこれらのシステムが提供するためである。典型的な例では、入力と出力を所望に応じてリンクさせるために一連のブロックユニット(例えば電気的コンポーネントあるいは電気的コンポーネントのグループを表すブロックユニット)を結合させることによりSimulinkシステムを構築できる。このシステムは、次に、ブロック構造およびシステム属性を評価すること、モデルを平坦化構造に再構築すること、およびブロックの稼働を順序付けることによってコンパイルされる。この意味において、モデルの理解可能な表示を作成するためにビジュアルデザインが使用されている。しかし、モデルは、順序付けられた一元的な様式で稼働している。また、同様の視覚型プログラムがコーディングまたは回路の配置をより単純にすることも公知である。
SNNSおよびEmergentなどのプログラムを含む、ニューラルネットワークに基づくモデルは、様々なニューラルネットワーク環境を提供する。種々のプログラムにおいて、モデルは、生物学的タイプのニューロンを提供するか、人工のニューラルネットワークを構築する可能性がある。有効なニューラルネットワークは、単純なモデルをシミュレートするためにさえ、数百または数千のニューロンを含む可能性がある。大規模なニューラルネットワークの使用における複雑性は、人工知能(AI)に基づく装置を構築する試みにつながった。MIT Leonardoによって開発されたものなど、ソーシャルロボットまたはパーソナルロボットは、人間様の特性を備えているように見える。しかし、それらは、厳密で柔軟性のない様式でプログラムされなければならず、通常は、可能な動作の固有的な実装を必要とし、特定のハードウェアに依存するか、あるいは柔軟性がない。
ニューロロボット装置および/または脳に基づく装置は、所望のインタラクションを生じさせるために脳に基づく機能をコピーすることによって人間様のシステムを作成しようとする。これらのモデルは通常、非常に大規模であり、低レベルのニューロンから完全な脳のシステムを再現し、システムと生物様のインターフェースシステムとをリンクさせる。脳に基づく装置は、神経系が生じさせる挙動を模倣するために構築されたロボットである。これらは通常、人間様の動作およびセンサの列を有するようになっているが、人間とのインタラクションを通じてインタラクティブな体験を提供することはない。脳に基づく装置は、特定のロボットまたは用途向けに設計され、通常は、一定範囲の種々の稼働のための広範なサポートを欠く。
・種々のレベルのシミュレーションディティールを有する複数のモデルに対応すること。
・高レベルおよび低レベルのシミュレーションを実施すること。
・シミュレーションの一部としてアニメーションおよびグラフィックスを統合および順位付けすること。
・シミュレートされたシステムを共同して含む可能性のある複数のモデルの視覚的出力またはアニメーション化された出力を提供すること。
・モデルのコンポーネントを調整、排除または複製するために必要な柔軟性を有する環境を提供すること。
・モデル製作者または開発者が容易に理解できる環境を提供すること。
・生物学的神経系に基づいたアニメーションシステムを提供すること。
・学習能力を提供すること。
本発明の目的は、上記の問題のうちの1つ以上を克服できるか、少なくとも改善できる可能性のある、あるいは、少なくとも有用な代替手段を提供することになる、仮想オブジェクトをシミュレートするための、コンピュータで実施されるシステムまたは方法を提供することである。
モジュールは、必要な構造で配置され、
各モジュールは、少なくとも1つの変数を有し、少なくとも1つのコネクタと関連付けられており、
コネクタは構造全体にわたってモジュール間で変数をリンクさせ、モジュールは共同して神経行動学的モデルを提供する。
各計算要素は、モジュールタイプおよび少なくとも1つの変数を有し、少なくとも1つのコネクタと関連付けられており、
コネクタはモジュール間で変数をリンクさせ、リンクされたモジュールは共同して、アニメーション化される仮想オブジェクトのグラフィック的かつ計算的なモデルを表現する。
各モジュールは、インターフェースタイプ、アニメーションタイプおよびニューロンタイプから選択されるタイプを有し、
各モジュールは、変数を有し、コネクタと関連付けられており、
コネクタはモジュール間で変数をリンクさせ、リンクされたモジュールは共同して、アニメーション化されるオブジェクトのグラフィック的かつ計算的なモデルを表現する。
必要なモジュール構造を生成するステップであって、各モジュールがアニメーションの一部と関連付けられ、各モジュールが計算要素、グラフィック要素、変換要素、ならびに入力および/または出力のセットを含むことができ、計算要素およびグラフィック要素がアニメーションの一部と関連付けられる、ステップと、
複数のモジュール間の複数の結合を生成するステップであって、各モジュールの入力と出力との間で結合が生じる、ステップと、
を含み、モジュールの階層および複数の結合が、アニメーション化されるシステムを定義し、モデルが、アニメーション化されるシステムを制御する。
共同して神経行動学的モデルをシミュレートする複数のモジュールを提供するステップであって、複数のモジュールがそれぞれグラフィック要素を有する、ステップと、
オブジェクトまたはエンティティの解剖学的特徴の変換の結果、その解剖学的特徴の1つ以上の副部分の対応する変換が生じるようにモジュールを処理するステップと、
を含む。
共同して神経行動学的モデルを提供する複数のモジュールを提供するステップであって、複数のモジュールがそれぞれグラフィック要素を有する、ステップと、
タイムステップ毎にモジュール毎のグラフィック情報を提供するためにタイムステップ方式でモジュールを処理するステップと、
リアルタイムの制約を評価するステップと、
リアルタイムの制約が解消される場合にグラフィック情報をレンダリングするステップと、
を含む。
複数のモジュールのうちの少なくとも1つは、グラフィック出力機能を生成し、
複数のモジュールのうちの少なくとも1つは、グラフィック出力機能の外観を変化させるように適合され、
複数のモジュールのうちの少なくとも1つは、入力変数と出力変数とをリンクさせるために重みを含む関連付けモジュールである。
モジュールは、必要な構造で配置され、
各モジュールは、少なくとも1つの変数を有し、少なくとも1つのコネクタと関連付けられており、
コネクタは構造全体にわたってモジュール間で変数をリンクさせ、モジュールは共同して行動学的モデルまたは神経行動学的モデルを提供する。
複数のモジュールのうちの少なくとも1つが外部刺激を受信し、
複数のモジュールのうちの少なくとも1つが外部出力を提供し、
複数のモジュールのうちの少なくとも1つが外部刺激と外部出力との間の関連付けを生成し、
外部出力が外部刺激の変化に応答するように、関連付けが将来的なシステム挙動に影響する。
一実施形態において、複数のモジュールのうちの少なくとも1つは、複数のモジュールのうちの1つの機能を調節するために調節手段を有する。
複数のモジュールテンプレートから複数のモジュールをインスタンス化するステップと、
複数のモジュールについて、機能、入力および出力を定義するステップと、
複数のモジュールの入力と出力との間の結合を定義するステップと、
を含み、複数のモジュールおよび結合は、行動学的モデルまたは神経行動学的モデルを形成する。
計算要素およびグラフィック要素を有することが可能な複数のモジュールテンプレートと、
1つ以上の選択されたモジュールの機能および変数を指定する第1の記述手段であって、選択されたモジュールがそれぞれ、複数のモジュールテンプレートのうちの1つに基づいている、第1の記述手段と、
1つ以上の選択されたモジュールの変数間の複数の結合を指定する第2の記述手段と、
を含み、1つ以上の選択されたモジュールは、行動学的モデルまたは神経行動学的モデルを生成するために結合される。
機能モジュール毎の1つ以上の変数であって、ネットワーク用に標準化された時系列式のデータフォーマット用に構成されており、且つ、モジュールの送信変数と受信変数との間で時変データを伝送する少なくとも1つのコネクタに関連付けられている、変数と、
モジュールの位置を1つ以上の他のモジュールに対して定義することを可能にするための、モジュール毎に定義される位置参照データと、
送信変数と受信変数との間で伝送される時変データのタイミングを調整するように動作可能なタイムアジャスターであって、受信変数を受信するモジュールに対する送信変数のモジュールの位置に時変データが依存する、タイムアジャスターと、
複数の機能モジュールのそれぞれについて定義される1つ以上の機能的稼動であって、機能モジュール用に定義された変数で受信される時変シグナルで伝送される時変データに対して動作可能である、1つ以上の機能的動作と、
を定義するコードを含み、
それにより、2つの異なる機能モジュールから伝送されたデータを受信する2つの受信変数で受信される時変データに対する稼動は、機能モジュールの調整された相対位置によって調整可能である効果を有し、
それにより、アバターの応答が調整可能である。
顔のアニメーション筋肉のセットの作動の程度を定義する筋肉の作動/位置データを受信し、グラフィックス画像データを生成する、グラフィックスをレンダリングするレイヤと、
アニメーション神経の所与のセットのための神経の活性化の程度を定義する神経作動データを受信する筋肉の作動/統合レイヤであって、筋肉の作動レイヤのために定義される活性化筋肉のセットのための筋肉作動データを生成する筋肉の作動/統合レイヤと、
表情を定義する表情データを受信する神経活性化レイヤであって、活性化されるべきアニメーション神経の組み合わせを定義し、且つ、神経毎に活性化の程度を定義する神経活性化データを生成する神経活性化レイヤと、
を含むシステムを提供する。
機能モジュール毎の1つ以上の変数と、
モジュールの位置を1つ以上の他のモジュールに対して定義することを可能にする構造と、
1つ以上のコネクタであって、モジュールの変数間でデータを伝送する少なくとも1つのコネクタに1つ以上の変数が関連付けられている、1つ以上のコネクタと、
を含み、
コネクタは、種々のモジュールを結合させて、それにより、外部刺激に応答してデジタルエンティティの挙動を変更または調整するように、選択的に調整可能である。
刺激を特徴付けるデータを受信することと、
共同して神経行動学的モデルを表現する複数の相互に結合されたモジュールにおいてデータを処理し、外部刺激に対するデジタルエンティティの応答を定義する出力を提供することと、
出力に応答して、1つ以上のモジュール間の結合を変更するか、1つ以上のモジュールにおいて変数を変更することと、
を含む。
本明細書において説明される発明は、コンピュータを用いて実施される。図1bを参照すると、コンピュータは、情報を入力するための入力手段201と、プロセッサ手段202と、出力手段203と、を有する。情報を処理するためのプロセッサ手段は、情報の保存または検索のために記憶手段204と通信してよい。入力または刺激は、例えば、1つ以上のカメラ、電磁変換器、オーディオ変換器、キーボードまたはその他の公知のシステムからの入力を含む現実世界の刺激から生じてよい。他の刺激としては、グラフィカルユーザインターフェース、ハードウェアコンソール、ストリームデータ、ならびに、クラウドコンピュータ、コンピュータのインデックス、ワールドワイドウェブまたは様々なセンサからのデータが包含される。出力手段は、シグナルをディスプレイユニットまたは別の機械(例えば、ロボット)に送信する。記憶手段は、プロセッサ上で実行可能なコードを保存するのに好適なコンピュータ可読媒体であってよい。あるいは、モデルまたはその一部は、回路であってよい。本発明の実施形態には、以下のゲーム、コンソール、自動販売機と広告、モバイル機器およびクラウド計算装置のうちのいずれか1つ以上の形態での用途を有するモデルが包含される。
シェーダーおよびテクスチャは、計算のために汎用GPU(GPGPU)センスにおいて使用され得る。グラフィック要素の典型的な実施は、仮想の顔用であってよい。顔のジオメトリ、テクスチャおよびシェーダーは、「顔」と称されるディレクトリに保持されてよい。また、顔ディレクトリは、顔に関連付けられた計算要素を含んでもよい。このように、グラフィック要素および計算要素は、必要な構造内の単一のモジュール内に含まれるが、管理および更新またはリンクを可能にするために分離されてもいる。特に、例えばニューラルネットの稼働または顔の動きを示すために、種々のグラフィック要素が稼働してよい。例えば、計算要素が、顔面神経核モジュールからシェーダー変形モジュールまたはアニメーション変形モジュールへと筋肉活性化変数を供給してよく、シェーダー変形モジュールまたはアニメーション変形モジュールは、
・顔のジオメトリの頂点を変形させてよく、
・(例えば、血流に起因する表情に基づいて皮膚の外観を変更するために)読み込まれているテクスチャデータのマッピングを変更してよく、
・外部で計算された歪み情報をシェーダーに結合させることに基づいてシェーディング計算を変更してよい。
図2は、人間様の顔を有するアニメーションを示す。現実的な顔および顔の表情の生成およびアニメーションは、モデルの使用によって達成されてよい。顔のアニメーションの生成モデルとしては、神経制御システムが好ましい。これは、それが表情の構築ブロック(building block)から顔の動きを構築するためである。これは、デジタルエンティティまたは仮想オブジェクトにおいて、より一貫性のある全体的な表情を生成するのを補助する可能性がある。顔の動きの神経制御は、顔面神経核に至るまで、解剖学的および機能的に異なる自主的システムおよび感情的システムを含む複数の並列システムの使用を必要とする。神経系への結合に基づいて顔のアニメーションまたは表情を制御できることにより、現実的なアニメーションを作成して、それをより人間らしくするためにそのアニメーションを設定および最適化する手段が提供される。モデルの顔のアニメーションは、顔面運動システムのアーキテクチャに基づいた神経解剖学的モデルを使用してよい。これは、モデルに関連付けられた他のモジュールから入力を受け取ってよい(ただし、公知の科学的モデルに基づいていることが好ましいであろう)。システムの実施形態において、顔あるいはその他のグラフィック対象は、現実的な顔のグラフィック要件に焦点を置くために、構造の分離した部分または分離した構造を形成してよい。次に、この顔の構造は、制御のために神経行動学的モデルに結合またはリンクされるであろう。
モデルはまた、学習要素および/またはエピソード記憶要素も許容する。これらの要素は、データの値または重みのセットを保存するモジュールの形態で実装されてよい。重みは、ニューラルネットワークに関連してよい。一実施形態において、重みの少なくとも一部は、シナプス様重みである。重みは、変化するか、モデルの環境または入力の変化に適合してよい。例えば、それらは、ドーパミンレベルに反応し得、ここで、より高いレベルは、より可塑的な状態を示す可能性がある。このように、モデルのニューラルネットワークは自動的に順応し、結果は時間とともに変化する可能性がある。乳児とインタラクトする当事者またはユーザが、正または負の強化フィードバックの供給があると乳児が自身の応答を変化させると予期するため、社会的学習のダイナミクスは、現実的なインタラクションを開発する上で鍵となる。学習モジュールは、モジュールの計算部分の一部を形成してよく、また、必要に応じて、上述のようにグラフィックの形態で表示されてもよい。
ここで図6を参照すると、目の瞬きの実施によって、モデルの柔軟性が示されている。図5で説明および示される顔61、目62および角膜63といった顔の構造の一部としてこの機能が組み込まれ得る。瞬きがサッケード中に起こりがちになるように、眼球運動系によって目の瞬きが調整される。一実施形態において、システムは、適切なニューラルネットワークを有するモジュールによってモデル化されてよい。アニメーション化されたモデルにおいて、目の瞬きシステムはまた、眼瞼および目の周りの筋肉にリンクされたグラフィック要素を有する必要がある。これらの結合は、目のシステムの構造化され、組み合わされた性質および追加される計算データのおかげで単純に作られている。しかし、目はまた、脳の他の領域と複雑に関係する。例えば、目の瞬きの割合は、ドーパミン作用によって影響されてよい。モデルの構造は、この完全に異なった複雑なシステムが目のシステムを変化させることなく目の瞬きシステムに入力を提供することを可能にする。神経系に対して、ある形態のフィードバックがあるのであれば、これはまた、単純に結合され得るであろう。2つのシステムを相互に結合させる能力は、モデルの階層構造ならびに核モジュールの個別の性質に依存してよい。
説明されたシステムおよび方法の可能な使用例を提供するために、ゲーム環境および広告環境を伴うアプリケーションを簡単に説明する。しかし、本発明は、これらの実施形態に限定されるものではない。ゲーム環境において、ユーザは、他のゲーム内キャラクターとインタラクトするアニメーション化されたキャラクターまたは仮想オブジェクトをコントロールできる。多くのゲームにおいて、これらのキャラクターの動作は、非常に単純であるか、ゾンビのようである。本発明の実施形態を用いて、これらのゲーム内キャラクターを実装でき、これは、多くのゲーム内キャラクターのコンピュータ的またはロボット的性質または特性を克服する助けとなる。コンピュータ的性質には、インタラクションが不変であること、あるいはインタラクションが変化しないことが含まれ得る。
システムは汎用コンピュータ上で稼動してよい。システムのアーキテクチャは、複数のレベルまたはデータ構造を含んでよい。一実施形態において、モデルのアーキテクチャには複数のレベルが存在する。このレベルは、
・各モジュールのタイプおよび機能を定義するプログラミング、
・複数のモジュールを組み合わせて並び替える構造、および
・モジュール間のリンクおよび通信を提供する構造、
を含んでよい。
種々のレベルのディティールでモジュールを含む階層にモデルを分けることで、モデル内のモジュール間の幅広い相互の結合が可能となる。これは、モジュール間は明確に分離されているが、全体の構造が、それらを結合させる手段を提供するためである。例えば、結合が目に形成される場合、目は顔または鼻から分離していてよく、残りのモデルに影響を与えることなく新規の結合を目に形成することが可能となる。モデルの組織構造はまた、目を容易に見つけ出しこと、およびリンクを生成することを可能にする。一部の実施形態において、結合は、モデル内の変数のうちの実質的にいずれかの間に形成されてよい。これによって、グラフィックスを神経モデルとインターフェースさせること、ならびに複雑なアニメーション化されたシステムを形成することが可能となる。一部の実施形態において、説明された構造は、デザインのレベルおよびスキルを分離および区別するため、単純な様式で複雑なアニメーションを生成する能力を提供する。
ここで図9を参照すると、皮質20ならびに関連するモジュールへの結合および関連するモジュール間の結合の選択の概略図が示されている。これは、皮質−視床−基底核−ループと称されることがある。皮質モジュールは、インカミングモジュール(incoming module)の活性を統合するニューロンモジュール(複数可)23および/またはシナプス重みモジュール24あるいは、経時的に効果を可塑性にするか変化させることができる関連付けモジュールを有してよい。皮質20への入力は、感覚マップ21に由来する。感覚マップは、カメラ17などの外部刺激から受信したデータを処理するために使用されてよい。感覚マップ21は、皮質に入力されてよい、刺激のピクセルからニューロンへの変換として機能する。
図10は、スクリーンに表示されたアバターの目の動きを制御するシステムであって、アバターに対する刺激をカメラで受信するシステムを示す。カメラは、顔検出ユニットと通信するコンピュータ視覚ライブラリと通信する。ネットワークは以下のモジュールを有する:SC:上丘;Tr:トリガーニューロン;EBN:興奮性バーストニューロン;LLBN:ロングリード(Long Lead)バーストニューロン;OPN:オムニポーズニューロン;MN:眼球運動ニューロン;物理;物理学に基づいた動的抑制。モジュールは、それらの間の結合に基づいて生物学的タイプのシステムを形成するためにインタラクトする。
図15は、視覚的/聴覚的入力を受け取って出力アニメーションを生成するモデルの概略図を示す。図15の実施形態は、高レベルのモデルの洗練化と、必要に応じて、または必要な場合に、さらに機能性を増大させる能力と、を伴う生物学に基づいた複雑なアーキテクチャを構築できることを示す。モジュール群が形成される必要な構造の一部が示されており、これらのモジュール群は、一部の実施形態においてはモジュールになってよい。完全なモデルにおいては、必要な構造は、より大規模であってよく、各モジュール群を階層またはその他の構造に適合させる。モデルの構造は、モジュールの構築後にモジュール間の相互結合を組み込むことを可能にし、モデルが発達するにつれて、さらなる複雑性をもたらす。この例は顔認識システムを説明するが、モデルはこれに限定されず、顔認識システムは、完全なモデルの一部に過ぎないことがある。
再度、図5を参照すると、その他のモジュール内に含まれることが多いモジュールを有する階層構造を有するシステムが示されている。システムの一実施形態では、頂上のモジュールから基部のモジュールへとツリーを下へと参照することにより、個々のモジュールが参照されてよい。例えば、FFAシェーダーは、頭部/脳/FFA/シェーダーとして参照され得る。あるいは、階層においてより高位のモジュールに入力および出力を結合させることが一部の実施形態においては好ましいことがある。例えば、顔56などの一般的に使用される出力は、顔の参照をより容易にするために、利用可能な出力として視覚系モジュールに割り当てられてよい。
システム構造は、第1および第2のモデルサブ構造(データ構造)を含んでよく、ここで、第1のサブ構造(レベル)は、複数の計算モジュールの配置によって定義され、第2のサブ構造(レベル)は、モジュールの変数をリンクさせるコネクタによって定義される。第1のサブ構造は、有向且つグラフィカルであるシーングラフであってよい。これは、モジュールの慎重な配置を可能にする可能性がある。第2のサブ構造は、結合がエッジを形成し且つモジュールが頂点またはノードを形成する有向のグラフであってよい。データが制御コードから分離されているために、これら2つのレベルのサブ構造はモデルの稼動の有効性を増大させる。従って、モデリング処理は、完全にリンクしたシステムの構築または処理フローの設計ではなく、第2のサブ構造を使用して第1のサブ構造から複数のモジュールをリンクさせる方法(これは、モジュールの変数の使用によるものであってよい)となる。また、構造は、モデルが稼動している間に変数または定数を更新することも可能にする。これは、関係または結合がデータから分離していると、モデルが再コンパイルされる必要がないためである。
第1のレベルは、複数のモジュールの組織化された構造を含んでよい。一部の実施形態において、これは、複数のモジュールが実質的に階層的に組織化されているツリー型構造であってよい。複数のモジュールは、ディレクトリ様のフォルダ構造で配置されてよい。これは、コンテナモジュールが存在する場合に、特に有用である。図3は、コンテナモジュール「顔」を含むいくつかのモジュールをコンテナモジュール「シーン」が保持する、可能な構造を示す。モジュール「顔」は、2つのさらなるモジュール「目」および「口」を保持する。これは、「シーン」が最上位フォルダであり、「顔」および「頭部」が第1のレベルのサブフォルダであり、「目」および「口」がサブフォルダであり、以下同じ様に続く、ファイル様構造に保存され得る。このように、モデル構造は、明確であり、容易に閲覧可能である。モジュール要素は、必要なフォルダのレベルおよび全て含まれているフォルダをコピーすることによってコピーまたは複製されてよい。これは、例えば目がそれぞれ独立している必要がある場合に、有用である可能性がある。同じモデル構造が複製されるが、目がそれぞれ、異なる制御シグナルを有することができるか、小規模な変更がなされ得る。
サブ構造は、モジュールに関連する一連の命令を含む。命令は、モデル全体またはアニメーション全体に関連する単一のファイルに含まれてよい。好ましい実施形態では、第2のサブ構造は、一連の別個のリンクされたファイルを含む。一実施形態において、命令ファイルは、モジュールと同じ構造内に含まれる。それらは、必要な構造においてそれらに従属する全てのモデルより1つ(以上)上の階層レベルに含まれる。例えば、「目」モジュールをリンクさせる命令は、好ましくは、「顔」モジュールを含むフォルダ内にあってよい。しかし、命令はまた、「シーン」モジュールを含むフォルダ内に、あるいは「顔」モジュールより上の任意のレベルに、配置され得る。
・「方向」用の命令は、「目」フォルダ内にあり、
・「目」用の命令は、「顔」フォルダ内にあり、
・「顔」用の命令は、「シーン」フォルダ内にある。
モデルが稼動する際、モデルは、そのモジュール、コネクタ、ジオメトリ等を生成するために構成ファイルを含む第1および第2のサブ構造(好ましくは上述のようなディレクトリツリーに配置されている)をコンパイルする。必要な構造は、構造内で変更されてよいが複数のモジュールならびにそれらの間のリンクを構築できるディレクトリツリーの形態であってよい。各タイムステップにおいて、構造がトラバースおよび更新される必要がある。これは、上述のようなモデルの特定の設計に応じてボトムアップの手法あるいはトップダウンの手法のいずれかで進行してよいが、好ましくは、頭部を最上位とする階層構造においてはトップダウンである。各モジュールは、提供中の入力に基づいて評価される。これは、全てのコンテナモジュールおよびそれらの子モジュールを含む。コンテナモジュールなど、モジュールがコードを有さないのであれば、変化は起こらないであろう。しかし、コードまたは計算データが存在する場合、これらが実行されることとなり、および、これらは通常、システムの任意の他の部分とは独立している。タイムステップの結果は次に、出力フィールドに伝送される。構造を通じた第2のパスにおいて、出力は次に、結合をまたいで複製されてよい。これは、次のタイムステップのためにモジュールの入力のそれぞれを更新する。一部の例では、結合上で行われる処理(例えば、ホールド)あるいはステージの一方または両方において更新されてよい閾値が存在してよい。実質的な変化が現れるか、設定された時間が過ぎると、モデルは、連続性を保証するために、実質的に全ての要素を含めて、完全に再構築できる。
新規のモジュールが必要な場合、これを、モデリングシステムとは別個に作成できる。モジュールは、実施形態ならびに特定のモデルに応じて異なってよいが、以下を含んでよい:
・アニメーション
・既知のタイムステップを提供する
・アニメーションファイルを含む
・フォルダモジュール
・コンテナモジュールとしても知られている
・他のモジュールを保持する
・ニューロンモジュール
・例えば、リーキー・インテグレート・アンド・ファイア・モジュール(leaky integrate and fire module)
・複数のリーキー・インテグレート・ニューロン
・シナプス重みモジュール
・ニューロンモジュールと組み合わされて自己完結型の人工ニューラルネットワークを形成する可能性がある
・視覚インターフェースモジュール
・出力を示すためのスクロール表示モジュール
・インターフェースモジュール
・視覚モジュール
・外部世界(例えばカメラまたはマイクロホン)とのインタラクションを制御する可能性がある
・定数値
・タイムステップに依存しない
・ブラックボックス
・タスクを実行するか、後で更新される、代用的モジュール
・何も無し
・空のモジュールは無視してよい。
さらなるモジュールまたはモジュールのタイプが、必要に応じて作成されてよい。
変数およびコネクタは、第1のサブ構造の複数のモジュール間にリンクをもたらす。変数は、モジュールのパラメータがコネクタによってアクセスされるための手段を提供する。一部の変数は、複数の値を参照してよいが、一部は、1つの値のみを参照してよい。変数は、必要に応じて内部または外部で利用可能および編集可能なように定義されてよい。モジュールは、いくつかの変数を有してよく、これらは入力または出力のいずれか(時には両方)であってよい。出力変数は、それらを所有するモジュールの計算処理によって決定され、コネクタによって読み込まれてよいが、変更はされない。入力変数は、モジュールの計算に対する入力パラメータであり、コネクタによって読み込みおよび書き込みの両方がなされてよい。変数(あるいはそれについての任意のモジュールまたはコネクタ)を参照すると、その構文は、階層的なディレクトリに基づいたデータ構造を反映している。
・texture.data−テクスチャの色彩データ列の参照
・texture.width−テクスチャの幅(テクセル)の参照
・texture.height−テクスチャの高さ(テクセル)の参照
第2のサブ構造は、モジュールをまとめてリンクまたは結合させる。コネクタは、モジュールの変数を互いにリンクさせる。コネクタを定義するファイルは、好ましくは1行目に、作成すべきコネクタのタイプを示す識別子を含んでよい。コネクタのファイルはまた、タイプに固有の情報を含む。ただし、一般的には、入力変数が1つまたは複数の他の変数に伝送されるという少なくとも1行が存在するであろう。
・アイデンティティコネクタ
・厳密な同等性
・単純かつ一般的
・伝送時に変数を変換
・閾値に基づいた関係
・変数の組み合わせ
・変数の比較
・減衰和コネクタ(Damped sum connector)
・線形変換コネクタとリーキー・インテグレート・アンド・ファイア(LIF)などのニューロンとのシステム。入力の線形結合を出力変数に結合するが、これらの入力の合計を、まずLIFニューロンを通過させることによって「減衰」する。
Claims (23)
- 仮想キャラクターまたはデジタルエンティティをアニメーション化するための、コンピュータで実施されるシステムであって、前記システムは、連結された計算要素およびグラフィック要素を有する複数のモジュールを含み、各モジュールは前記仮想キャラクターまたはデジタルエンティティの部分の挙動を表現し、前記計算要素は前記挙動をシミュレートし、前記グラフィック要素はシミュレートされた前記挙動を可視化し、
前記モジュールは所定の構造で配置されており、
各モジュールは、前記モジュールのプロセスの特性を表現する少なくとも1つの変数を有し、
前記所定の構造は、前記複数のモジュールが、あるモジュールからの変数が少なくとも1つのコネクタによって1以上のモジュールにリンクされ、前記コネクタが前記構造全体にわたってモジュール間で変数をリンクさせる構造であり、
複数のニューロンを表現する前記複数のモジュールおよび神経を表現する前記コネクタは、共同して神経行動学的モデルを提供し、該神経行動学的モデルを用いて前記仮想キャラクターまたはデジタルエンティティをアニメーション化する、
システム。 - 前記モジュールが、階層構造で配置されている、請求項1に記載のシステム。
- 前記階層構造が、ツリー構造を含む、請求項2に記載のシステム。
- 前記構造が、前記仮想キャラクターまたはデジタルエンティティの生物学的特性または生物学的構造に由来する、請求項1〜3のいずれか1項に記載のシステム。
- 前記構造が、進化性の神経構造に由来する、請求項1〜4のいずれか1項に記載のシステム。
- 少なくとも1つの前記モジュールが、聴覚的入力またはグラフィック的入力または視覚的入力を含み、前記少なくとも1つのモジュールが、聴覚的またはグラフィック的または視覚的出力を含む、請求項1〜5のいずれか1項に記載のシステム。
- 前記少なくとも1つのモジュールのグラフィック要素が、計算要素の表現を含む、請求項6に記載のシステム。
- 前記モジュールが、1つ以上のニューロンを表現する、請求項1〜7のいずれか1項に記載のシステム。
- 前記モジュールからの変数が、前記コネクタによって複数の前記モジュールのうちのいずれかにリンクされてよい、請求項1〜8のいずれか1項に記載のシステム。
- 前記モジュールのうちの少なくとも1つが、変数の重みによって前記モジュールの入力と出力とをリンクさせる関連付けモジュールである、請求項1〜9のいずれか1項に記載のシステム。
- 前記モジュールが、顔の表情、および視覚から成るグループから選択された1以上の通信システムを表現する、請求項1〜10のいずれか一項に記載のシステム。
- 前記モジュールが、皮質、視床、および基底核から成るグループから選択された1以上のニューロンのコレクションを表現する、請求項1〜11のいずれか一項に記載のシステム。
- 仮想キャラクターまたはデジタルエンティティのインタラクティブな挙動を生成するための、コンピュータで実施されるシステムであって、前記システムは、連結された計算要素およびグラフィック要素を有する複数のモジュールを含み、各モジュールは前記仮想キャラクターまたはデジタルエンティティの部分の挙動を表現し、前記計算要素は前記挙動をシミュレートし、前記グラフィック要素はシミュレートされた前記挙動を可視化し、
前記複数のモジュールのうちの少なくとも1つは、外部刺激を受信し、
前記複数のモジュールのうちの少なくとも1つは、外部出力を提供し、
前記複数のモジュールのうちの少なくとも1つは、前記外部刺激と前記外部出力との間の関連付けを生成し、
前記外部出力が前記外部刺激の変化に応答するように、前記関連付けが前記仮想キャラクターまたはデジタルエンティティの将来のシステムの挙動に影響を与える、
システム。 - 前記関連付けが、前記システムに学習行動をもたらす、請求項13に記載のシステム。
- 前記モジュールのうちの少なくとも1つが、第1の内部刺激と第2の内部刺激または前記外部出力との間に関連付けを生成する、請求項13または14に記載のシステム。
- 外部刺激に応答して仮想キャラクターまたはデジタルエンティティを制御するように動作可能なコンピュータシステムであって、前記システムは、コードの機能モジュールのネットワークを含み、前記モジュールは連結された計算要素およびグラフィック要素を有し、各モジュールは前記仮想キャラクターまたはデジタルエンティティの部分の挙動を表現し、前記計算要素は前記挙動をシミュレートし、前記グラフィック要素はシミュレートされた前記挙動を可視化し、前記ネットワークは、前記刺激を特徴付けるデータを受信するように動作可能であり、且つ、前記仮想キャラクターまたはデジタルエンティティ用の応答を定義するデータを生成するように動作可能であり、前記ネットワークは、
機能モジュール毎の、前記モジュールのプロセスの特性を表現する1つ以上の変数と、
前記モジュールの位置をトポロジーにおいて1つ以上の他のモジュールに対して定義することを可能にする構造と、
1つ以上のコネクタと、を含み、前記1つ以上の変数が、モジュールの変数間でデータを伝送する少なくとも1つのコネクタと関連付けられており、前記モジュールは、ニューロンのコレクションおよび通信システムを表現し、前記コネクタは、神経を表現し、共同して神経行動学的モデルを提供し、
前記コネクタは、異なるモジュールに結合するために変更可能であり、それにより、前記外部刺激に応答して前記仮想キャラクターまたはデジタルエンティティの挙動を変更または調整する、
システム。 - 請求項1〜16のいずれか1項に記載のシステムを実施するようにプログラムされているか動作可能であるコンピュータ。
- 計算装置によって使用されると、請求項1〜16のいずれか1項に記載のシステムを前記計算装置に実施させる、コンピュータが使用可能な命令を保存している1つ以上のコンピュータ可読媒体。
- 外部刺激に応答して仮想キャラクターまたはデジタルエンティティを制御する方法であって、
前記刺激を特徴付けるデータを受信することと、
共同して神経行動学的モデルを表現する複数の相互に結合されたモジュールにおいて前記データを処理し、前記外部刺激に対する前記仮想キャラクターまたはデジタルエンティティの応答を定義する出力を提供することであって、前記モジュールは、連結された計算要素およびグラフィック要素を有し、各モジュールは前記仮想キャラクターまたはデジタルエンティティの部分の挙動を表現し、前記計算要素は前記挙動をシミュレートし、前記グラフィック要素はシミュレートされた前記挙動を可視化し、前記モジュールは、ニューロンのコネクションおよび通信システムを表現し、前記相互結合は神経を表現し、
前記出力に応答して、1つ以上のモジュール間の結合を変更するか、1つ以上のモジュールにおいて変数を変更することと、
を含む、方法。 - 請求項19に記載の方法を実施するように動作可能な計算装置。
- 計算装置によって使用されると、請求項19に記載の方法を前記計算装置に実施させる、コンピュータが使用可能な命令を保存している1つ以上のコンピュータ可読媒体。
- 計算装置によって使用されると、請求項1〜16のいずれか一項に記載のシステムを前記計算装置に実施させる、コンピュータが使用可能な命令を含むコンピュータプログラム。
- 計算装置によって使用されると、請求項19に記載の方法を前記計算装置に実施させる、コンピュータが使用可能な命令を含むコンピュータプログラム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
NZ613938 | 2013-08-02 | ||
NZ61393813 | 2013-08-02 | ||
US201462005195P | 2014-05-30 | 2014-05-30 | |
US62/005,195 | 2014-05-30 | ||
PCT/NZ2014/000156 WO2015016723A1 (en) | 2013-08-02 | 2014-08-04 | System for neurobehavioural animation |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019164044A Division JP2020009468A (ja) | 2013-08-02 | 2019-09-09 | 神経行動学的アニメーションのためのシステム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016532953A JP2016532953A (ja) | 2016-10-20 |
JP2016532953A5 JP2016532953A5 (ja) | 2017-09-14 |
JP6662773B2 true JP6662773B2 (ja) | 2020-03-11 |
Family
ID=52432139
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016531577A Active JP6662773B2 (ja) | 2013-08-02 | 2014-08-04 | 神経行動学的アニメーションのためのシステム |
JP2019164044A Pending JP2020009468A (ja) | 2013-08-02 | 2019-09-09 | 神経行動学的アニメーションのためのシステム |
JP2022100368A Pending JP2022125087A (ja) | 2013-08-02 | 2022-06-22 | 神経行動学的アニメーションのためのシステム |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019164044A Pending JP2020009468A (ja) | 2013-08-02 | 2019-09-09 | 神経行動学的アニメーションのためのシステム |
JP2022100368A Pending JP2022125087A (ja) | 2013-08-02 | 2022-06-22 | 神経行動学的アニメーションのためのシステム |
Country Status (6)
Country | Link |
---|---|
US (4) | US10181213B2 (ja) |
EP (1) | EP3028201A4 (ja) |
JP (3) | JP6662773B2 (ja) |
CN (3) | CN110634175B (ja) |
CA (2) | CA2920007A1 (ja) |
WO (1) | WO2015016723A1 (ja) |
Families Citing this family (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104170318B (zh) | 2012-04-09 | 2018-06-01 | 英特尔公司 | 使用交互化身的通信 |
WO2014143776A2 (en) | 2013-03-15 | 2014-09-18 | Bodhi Technology Ventures Llc | Providing remote interactions with host device using a wireless device |
EP3028201A4 (en) | 2013-08-02 | 2017-03-22 | Auckland Uniservices Limited | System for neurobehavioural animation |
EP2933064A1 (en) * | 2014-04-17 | 2015-10-21 | Aldebaran Robotics | System, method and computer program product for handling humanoid robot interaction with human |
US10313506B2 (en) | 2014-05-30 | 2019-06-04 | Apple Inc. | Wellness aggregator |
EP3195096B1 (en) | 2014-08-02 | 2020-08-12 | Apple Inc. | Context-specific user interfaces |
US10452253B2 (en) | 2014-08-15 | 2019-10-22 | Apple Inc. | Weather user interface |
WO2016101131A1 (en) | 2014-12-23 | 2016-06-30 | Intel Corporation | Augmented facial animation |
EP3484134B1 (en) | 2015-02-02 | 2022-03-23 | Apple Inc. | Device, method, and graphical user interface for establishing a relationship and connection between two devices |
WO2016144385A1 (en) | 2015-03-08 | 2016-09-15 | Apple Inc. | Sharing user-configurable graphical constructs |
US10275116B2 (en) | 2015-06-07 | 2019-04-30 | Apple Inc. | Browser with docked tabs |
EP4327731A3 (en) | 2015-08-20 | 2024-05-15 | Apple Inc. | Exercise-based watch face |
US10475225B2 (en) | 2015-12-18 | 2019-11-12 | Intel Corporation | Avatar animation system |
DK201770423A1 (en) | 2016-06-11 | 2018-01-15 | Apple Inc | Activity and workout updates |
US10873786B2 (en) | 2016-06-12 | 2020-12-22 | Apple Inc. | Recording and broadcasting application visual output |
CN106372721B (zh) * | 2016-08-29 | 2018-08-21 | 中国传媒大学 | 大规模神经网络的3d可视化方法 |
CN106971414B (zh) * | 2017-03-10 | 2021-02-23 | 华东交通大学 | 一种基于深度循环神经网络算法的三维动画生成方法 |
US11054272B2 (en) * | 2017-05-11 | 2021-07-06 | Disney Enterprises, Inc. | Physical navigation guided via story-based augmented and/or mixed reality experiences |
DK179412B1 (en) | 2017-05-12 | 2018-06-06 | Apple Inc | Context-Specific User Interfaces |
US11869150B1 (en) | 2017-06-01 | 2024-01-09 | Apple Inc. | Avatar modeling and generation |
US11327650B2 (en) | 2018-05-07 | 2022-05-10 | Apple Inc. | User interfaces having a collection of complications |
DK180171B1 (en) | 2018-05-07 | 2020-07-14 | Apple Inc | USER INTERFACES FOR SHARING CONTEXTUALLY RELEVANT MEDIA CONTENT |
USD885453S1 (en) * | 2018-07-06 | 2020-05-26 | Furhat Robotics Ab | Industrial robot |
CN112424736A (zh) | 2018-07-19 | 2021-02-26 | 索美智能有限公司 | 机器交互 |
US11727724B1 (en) | 2018-09-27 | 2023-08-15 | Apple Inc. | Emotion detection |
EP3871194A4 (en) | 2018-10-26 | 2022-08-24 | Soul Machines Limited | SYSTEM AND METHOD FOR GENERATING AND BLENDING DIGITAL CHARACTERS |
CN110033092B (zh) * | 2019-01-31 | 2020-06-02 | 阿里巴巴集团控股有限公司 | 数据标签生成、模型训练、事件识别方法和装置 |
US11204743B2 (en) | 2019-04-03 | 2021-12-21 | Hia Technologies, Inc. | Computer system and method for content authoring of a digital conversational character |
US11960701B2 (en) | 2019-05-06 | 2024-04-16 | Apple Inc. | Using an illustration to show the passing of time |
US11131967B2 (en) | 2019-05-06 | 2021-09-28 | Apple Inc. | Clock faces for an electronic device |
JP6921338B2 (ja) | 2019-05-06 | 2021-08-18 | アップル インコーポレイテッドApple Inc. | 電子デバイスの制限された動作 |
CN110119844B (zh) * | 2019-05-08 | 2021-02-12 | 中国科学院自动化研究所 | 引入情绪调控机制的机器人运动决策方法、系统、装置 |
JP2022541883A (ja) | 2019-07-08 | 2022-09-28 | ソウル マシーンズ リミティド | 具現化されたエージェントの記憶 |
KR20220028103A (ko) | 2019-07-08 | 2022-03-08 | 소울 머신스 리미티드 | 임바디드 에이전트들에서의 인지 모드 설정 |
US11830182B1 (en) * | 2019-08-20 | 2023-11-28 | Apple Inc. | Machine learning-based blood flow tracking |
DK180684B1 (en) | 2019-09-09 | 2021-11-25 | Apple Inc | Techniques for managing display usage |
CN110640731B (zh) * | 2019-09-25 | 2022-08-19 | 天津大学 | 基于多巴胺神经元仿生cpg系统的机械臂控制器 |
CN110751067B (zh) * | 2019-10-08 | 2022-07-26 | 艾特城信息科技有限公司 | 一种结合生物形态神经元模型的动态表情识别方法 |
US11967018B2 (en) | 2019-12-20 | 2024-04-23 | Apple Inc. | Inferred shading |
CN110874649B (zh) * | 2020-01-16 | 2020-04-28 | 支付宝(杭州)信息技术有限公司 | 联邦学习的执行方法、系统、客户端及电子设备 |
JP7011276B2 (ja) | 2020-01-23 | 2022-01-26 | 学校法人東京理科大学 | 登録装置、検証装置、識別装置、及び個体識別システム |
TWI735168B (zh) * | 2020-02-27 | 2021-08-01 | 東元電機股份有限公司 | 語音控制機器人 |
CN113359538A (zh) * | 2020-03-05 | 2021-09-07 | 东元电机股份有限公司 | 语音控制机器人 |
US11348314B2 (en) * | 2020-05-08 | 2022-05-31 | Dreamworks Animation Llc | Fast and deep facial deformations |
DK181103B1 (en) | 2020-05-11 | 2022-12-15 | Apple Inc | User interfaces related to time |
US11372659B2 (en) | 2020-05-11 | 2022-06-28 | Apple Inc. | User interfaces for managing user interface sharing |
CN115904596B (zh) | 2020-05-11 | 2024-02-02 | 苹果公司 | 用于管理用户界面共享的用户界面 |
US11715247B1 (en) * | 2020-07-02 | 2023-08-01 | Unity Technologies Sf | Generating a facial rig for use in animating a computer-generated character based on facial scans and muscle models of multiple live actors |
CN111968204B (zh) * | 2020-07-28 | 2024-03-22 | 完美世界(北京)软件科技发展有限公司 | 一种骨骼模型的运动展示方法和装置 |
US11410366B2 (en) | 2020-09-18 | 2022-08-09 | Unity Technologies Sf | Systems and methods for generating a skull surface for computer animation |
EP4256488A1 (en) * | 2020-12-02 | 2023-10-11 | Deep Forest Sciences, Inc. | Differentiable machines for physical systems |
US11694590B2 (en) | 2020-12-21 | 2023-07-04 | Apple Inc. | Dynamic user interface with time indicator |
US11720239B2 (en) | 2021-01-07 | 2023-08-08 | Apple Inc. | Techniques for user interfaces related to an event |
US11921992B2 (en) | 2021-05-14 | 2024-03-05 | Apple Inc. | User interfaces related to time |
US11938376B2 (en) | 2021-05-15 | 2024-03-26 | Apple Inc. | User interfaces for group workouts |
US12093655B1 (en) | 2021-08-10 | 2024-09-17 | Wells Fargo Bank, N.A. | Systems and methods for communication prosthetic |
US20230236547A1 (en) | 2022-01-24 | 2023-07-27 | Apple Inc. | User interfaces for indicating time |
WO2023199256A2 (en) * | 2022-04-13 | 2023-10-19 | Soul Machines Limited | Affective response modulation in embodied agents |
US11954794B2 (en) | 2022-04-28 | 2024-04-09 | Theai, Inc. | Retrieval of augmented parameters for artificial intelligence-based characters |
US12118652B2 (en) * | 2022-12-30 | 2024-10-15 | Theai, Inc. | Text-description based generation of avatars for artificial intelligence characters |
CN118454232A (zh) * | 2023-02-07 | 2024-08-09 | 腾讯科技(深圳)有限公司 | Ai虚拟对象的控制方法、装置、设备及存储介质 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU7662396A (en) * | 1995-10-13 | 1997-04-30 | Na Software, Inc. | Creature animation and simulation technique |
JP3159242B2 (ja) * | 1997-03-13 | 2001-04-23 | 日本電気株式会社 | 感情生成装置およびその方法 |
PL338507A1 (en) * | 1997-06-11 | 2000-11-06 | Univ Southern California | Dynamic synapsis for processing signals in the network of nerve cells |
JP3792882B2 (ja) * | 1998-03-17 | 2006-07-05 | 株式会社東芝 | 感情生成装置及び感情生成方法 |
US8555164B2 (en) * | 2001-11-27 | 2013-10-08 | Ding Huang | Method for customizing avatars and heightening online safety |
CN1139896C (zh) * | 2001-12-04 | 2004-02-25 | 上海交通大学 | 基于结构的神经网络建模与优化方法 |
EP1584004A4 (en) * | 2003-01-17 | 2007-10-24 | Francisco J Ayala | SYSTEM AND METHOD FOR DEVELOPING ARTIFICIAL INTELLIGENCE |
GB0306875D0 (en) * | 2003-03-25 | 2003-04-30 | British Telecomm | Apparatus and method for generating behavior in an object |
MY138544A (en) * | 2003-06-26 | 2009-06-30 | Neuramatix Sdn Bhd | Neural networks with learning and expression capability |
US20050054381A1 (en) * | 2003-09-05 | 2005-03-10 | Samsung Electronics Co., Ltd. | Proactive user interface |
US8990688B2 (en) | 2003-09-05 | 2015-03-24 | Samsung Electronics Co., Ltd. | Proactive user interface including evolving agent |
US20050278158A1 (en) * | 2003-10-29 | 2005-12-15 | Ellison William T | Method for modeling the effect of a stimulus on an environment |
US7519452B2 (en) * | 2004-04-15 | 2009-04-14 | Neurosciences Research Foundation, Inc. | Mobile brain-based device for use in a real world environment |
US20060184462A1 (en) * | 2004-12-10 | 2006-08-17 | Hawkins Jeffrey C | Methods, architecture, and apparatus for implementing machine intelligence and hierarchical memory systems |
JP2007220076A (ja) * | 2006-01-18 | 2007-08-30 | Univ Of California San Diego | 相互作用装置 |
US7668797B2 (en) * | 2006-04-07 | 2010-02-23 | Gary Kuvich | Active semiotic system for image and video understanding by robots and unmanned vehicles, methods and apparatus |
JP2009116770A (ja) * | 2007-11-09 | 2009-05-28 | Sony Corp | データ処理装置および方法、プログラム、並びに記録媒体 |
KR20120005587A (ko) * | 2010-07-09 | 2012-01-17 | 삼성전자주식회사 | 컴퓨터 시스템에서 얼굴 애니메이션 생성 방법 및 장치 |
US20120130717A1 (en) * | 2010-11-19 | 2012-05-24 | Microsoft Corporation | Real-time Animation for an Expressive Avatar |
EP3028201A4 (en) * | 2013-08-02 | 2017-03-22 | Auckland Uniservices Limited | System for neurobehavioural animation |
-
2014
- 2014-08-04 EP EP14832511.1A patent/EP3028201A4/en active Pending
- 2014-08-04 CN CN201910881270.0A patent/CN110634175B/zh active Active
- 2014-08-04 WO PCT/NZ2014/000156 patent/WO2015016723A1/en active Application Filing
- 2014-08-04 CN CN202310521853.9A patent/CN116543081A/zh active Pending
- 2014-08-04 CN CN201480001057.1A patent/CN104541306B/zh active Active
- 2014-08-04 US US14/909,570 patent/US10181213B2/en active Active
- 2014-08-04 CA CA2920007A patent/CA2920007A1/en active Pending
- 2014-08-04 JP JP2016531577A patent/JP6662773B2/ja active Active
- 2014-08-04 CA CA3231419A patent/CA3231419A1/en active Pending
-
2018
- 2018-11-29 US US16/204,645 patent/US10755465B2/en active Active
-
2019
- 2019-09-09 JP JP2019164044A patent/JP2020009468A/ja active Pending
-
2020
- 2020-07-17 US US16/931,775 patent/US11527030B2/en active Active
-
2022
- 2022-06-22 JP JP2022100368A patent/JP2022125087A/ja active Pending
- 2022-12-12 US US18/064,825 patent/US11908060B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US10755465B2 (en) | 2020-08-25 |
CN110634175A (zh) | 2019-12-31 |
CN104541306B (zh) | 2019-10-25 |
CA3231419A1 (en) | 2015-02-05 |
US20230105458A1 (en) | 2023-04-06 |
CA2920007A1 (en) | 2015-02-05 |
JP2022125087A (ja) | 2022-08-26 |
US20190172242A1 (en) | 2019-06-06 |
US20160180568A1 (en) | 2016-06-23 |
JP2016532953A (ja) | 2016-10-20 |
JP2020009468A (ja) | 2020-01-16 |
CN104541306A (zh) | 2015-04-22 |
CN110634175B (zh) | 2023-05-16 |
US20200349752A1 (en) | 2020-11-05 |
US11908060B2 (en) | 2024-02-20 |
WO2015016723A1 (en) | 2015-02-05 |
US11527030B2 (en) | 2022-12-13 |
CN116543081A (zh) | 2023-08-04 |
US10181213B2 (en) | 2019-01-15 |
EP3028201A1 (en) | 2016-06-08 |
EP3028201A4 (en) | 2017-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6662773B2 (ja) | 神経行動学的アニメーションのためのシステム | |
Sagar et al. | Creating connection with autonomous facial animation | |
Magnenat-Thalmann et al. | Virtual humans: thirty years of research, what next? | |
Gillies et al. | Comparing and evaluating real time character engines for virtual environments | |
Sagar et al. | A neurobehavioural framework for autonomous animation of virtual human faces | |
CN114630738B (zh) | 用于模拟感测数据和创建感知的系统和方法 | |
Gaggioli et al. | Avatars in clinical psychology: A framework for the clinical use of virtual humans | |
Oliva et al. | QuickVR: A standard library for virtual embodiment in unity | |
Dasgupta et al. | A mixed reality based social interactions testbed: A game theory approach | |
Wakita et al. | Intuino: an authoring tool for supporting the prototyping of organic interfaces | |
Harichandana et al. | Introduction of Virtual Environment with Learning Personalized Content Recommendation for Realistic Avatar Creation in Online Platform using Machine Learning | |
Lam et al. | A study on experimental teaching of 3D animation | |
CN108198234A (zh) | 可实时互动的虚拟角色生成系统及方法 | |
Rajendran | Understanding the Desired Approach for Animating Procedurally | |
Kumar | BEAPS: Incorporating Shape Dynamics in Virtual Agents Focusing on Customizing the Mesh for Pose Space Actions | |
Turner et al. | SL-Bots: Automated and Autonomous Performance Art in Second Life | |
Huang | Development of Human-Computer Interaction for Holographic AIs | |
Knob et al. | Surveying the evolution of virtual humans expressiveness toward real humans | |
CN118664618A (zh) | 机器人仿真眼球控制方法、装置、设备及存储介质 | |
Marnik et al. | Using computer graphics, vision and gesture recognition tools for building interactive systems supporting therapy of children | |
Cacciatore | Ragdoll Matching: a non-learned physics-based approach to Humanoid Animation applied to VR Avatars. | |
Gutiérrez A et al. | Virtual Characters | |
Ramanayake et al. | Synthesising Emotional Expressions Based on Dynamic Environmental Transitions | |
e Abreu | IViHumans Platform The Graphical Processing Layer | |
McDonnell | Realistic crowd animation: A perceptual approach |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170802 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170802 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180709 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180828 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181127 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190909 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20190909 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20191121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200213 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6662773 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |