JP2013235548A - Control method for brain type emotion expressing robot - Google Patents
Control method for brain type emotion expressing robot Download PDFInfo
- Publication number
- JP2013235548A JP2013235548A JP2012120224A JP2012120224A JP2013235548A JP 2013235548 A JP2013235548 A JP 2013235548A JP 2012120224 A JP2012120224 A JP 2012120224A JP 2012120224 A JP2012120224 A JP 2012120224A JP 2013235548 A JP2013235548 A JP 2013235548A
- Authority
- JP
- Japan
- Prior art keywords
- brain
- robot
- emotions
- data
- control method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 78
- 238000000034 method Methods 0.000 title claims abstract description 25
- 210000004556 brain Anatomy 0.000 title claims abstract description 19
- 230000014509 gene expression Effects 0.000 claims abstract description 31
- 230000007246 mechanism Effects 0.000 claims abstract description 13
- 210000004727 amygdala Anatomy 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 18
- 230000009471 action Effects 0.000 claims description 14
- 230000002996 emotional effect Effects 0.000 claims description 14
- 238000011156 evaluation Methods 0.000 claims description 13
- 230000015654 memory Effects 0.000 claims description 13
- 230000004044 response Effects 0.000 claims description 11
- 230000001537 neural effect Effects 0.000 claims description 10
- 230000008921 facial expression Effects 0.000 claims description 8
- 230000006399 behavior Effects 0.000 claims description 6
- 210000004709 eyebrow Anatomy 0.000 claims description 5
- 230000037007 arousal Effects 0.000 claims description 4
- 230000007774 longterm Effects 0.000 claims description 3
- 238000005728 strengthening Methods 0.000 claims description 2
- 230000008859 change Effects 0.000 claims 2
- 238000009825 accumulation Methods 0.000 claims 1
- 230000004424 eye movement Effects 0.000 claims 1
- 230000008571 general function Effects 0.000 claims 1
- 230000009484 prefrontal function Effects 0.000 claims 1
- 230000004043 responsiveness Effects 0.000 claims 1
- 230000009956 central mechanism Effects 0.000 abstract description 2
- 230000002360 prefrontal effect Effects 0.000 abstract 1
- 238000006243 chemical reaction Methods 0.000 description 13
- 244000205754 Colocasia esculenta Species 0.000 description 6
- 235000006481 Colocasia esculenta Nutrition 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 241000220317 Rosa Species 0.000 description 5
- 241000406668 Loxodonta cyclotis Species 0.000 description 2
- 241000036848 Porzana carolina Species 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000003925 brain function Effects 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 210000000214 mouth Anatomy 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 210000002442 prefrontal cortex Anatomy 0.000 description 2
- 241000972773 Aulopiformes Species 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000739 chaotic effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 210000001508 eye Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000008672 reprogramming Effects 0.000 description 1
- 235000019515 salmon Nutrition 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
脳的構成を持たせ脳の機能を実現することにより、人的に振る舞い応答し感情表現をすることを目的とした顔を持ったロボットを実現する制御方法である。ロボットは顔のみを持ったロボットとはかぎらず、二足歩行の接待ロボットでも顔を持っていれば本機能の適応対象になる。
すなわち、(1)ロボットが構成上脳の骨組み的構成を持っていて、感情(emotions)を生じる扁桃体に対する機能と、前頭前野の総合判断等をする機能、各種記憶とその利用を行う機能を中心として持ち、さらに他の脳的機能要素を各種持っている。特に感情が主要な役割をする。(2)ロボットは人的にできるだけ振る舞う。(3)顔による各時点での感情の多様な表現を、主要な目的の一つにしている。
本制御方法を電子計算機で作成し、グラフィック機能により、グラフィック上のロボットのソフトウェアとして実現できる。このとき各時点でロボットが持つ顔の中の眼球、まゆ、口等の動きを、別途ソフトウェアーを介しモータにつなぎ、ロボットの表現することばを表示することにより、感情表現し、応答するハードウェアーとしての脳型ロボットになる。
他の特徴としては、神経回路様の構成を持っていて、プログラミングのし直しなしに、データの蓄積整理と共に、賢さが増し改良された応答をする等の変化をする。本制御方法は、キーインや文字表示等による言葉の入出力により情報のやりとりをするが、画像のデジタル情報や、音声のデジタル情報等の情報を神経回路的構成上取り込みやすい。It is a control method that realizes a robot with a face that aims to express human emotions and express emotions by providing a brain structure and realizing brain functions. The robot is not limited to a robot with only a face, and even a bipedal entertainment robot can be an object for this function if it has a face.
That is, (1) The robot has a skeletal structure in terms of its structure, focusing on functions for the amygdala that generate emotions, functions for comprehensive judgment of the prefrontal cortex, etc., and functions for various memories and their use As well as various other brain functional elements. In particular, emotion plays a major role. (2) The robot behaves as humanly as possible. (3) Making various expressions of emotions at each time point by face one of the main purposes.
This control method is created by an electronic computer, and can be realized as graphic robot software by a graphic function. Hardware that expresses emotions and responds by connecting the movement of the eyeball, eyebrows, mouth, etc. in the face of the robot at each time point to a motor via separate software and displaying the words expressed by the robot Become a brain-type robot.
Another feature is that it has a neural network-like structure, and changes such as increased cleverness and improved response as well as data storage and organization without reprogramming. In this control method, information is exchanged by inputting / outputting words by key-in, character display, or the like. However, information such as digital image information and digital audio information can be easily captured due to a neural circuit configuration.
感情表現を目的とした顔ロボットは、広く開発されてきている。 Face robots aimed at expressing emotions have been widely developed.
特開2010−160669号公報JP 2010-160669 A
(1)脳の扁桃体、前頭前野に相当する機能、記憶と記憶情報の取り出しを、中心とした脳の骨組み的仕組みを、どのように具体的かつ簡潔に組み込み、主に言葉による入力を通し、応答、記憶する仕組みをどのように実用化できるように作るか。
とくに、扁桃体に対する感情は、多様に複数の機能に利用されえる。これを、中心的しくみとして実現すること。
(2)ロボットに対するデータの入力その他、すべての場面で、ロボットに対し人的に感じるようにし、人的な感じを失わないようにすること。
(3)脳の機能を実現するとき、最終的に脳が持つ知識は膨大になることが予想される。
そのため、
(3.1)予めロボットに所持させる知識が少なくても、十分人的に振る舞うこと。
(3.2)外部から知識を与えるとき、めんどうになったり、ロボットの持つ人的感じを失わないようにする。
(4)脳の機能的挙動的仕組みのみでなく、表現上で、顔に心の中のときどきの多様な感情の状態を表現することで、より人間的表現をし、より人間的に感じるロボットとなるようにする。同時に、顔の表情で、ある程度ロボットとの情報のやりとりを行えるようにする。(1) How the brain's amygdala, functions equivalent to the prefrontal cortex, memory and retrieval of memory information, how to incorporate the framework of the brain, specifically and concisely, mainly through verbal input, How to make a mechanism to respond and remember so that it can be put into practical use.
In particular, emotions for the amygdala can be used for multiple functions. Realize this as a central mechanism.
(2) Make sure that the robot feels human and that it does not lose its human feeling in all other situations, such as inputting data to the robot.
(3) When realizing the function of the brain, it is expected that the knowledge of the brain will eventually become enormous.
for that reason,
(3.1) Even if there is little knowledge to be possessed by the robot in advance, behave sufficiently humane.
(3.2) When giving knowledge from the outside, do not become troubled or lose the human feeling of the robot.
(4) A robot that expresses more human expressions and feels more human by expressing various emotional states in the mind on the face as well as the functional behavioral mechanism of the brain. To be. At the same time, it is possible to exchange information with the robot to some extent using facial expressions.
(1)脳的機能の実現
以下(1.1)〜(1.6)に主に構成上からの仕組みを示す。
(1.7)以降に主に構成上以外の仕組みを示す。
「構成上からの仕組み」
脳の実現しようごした基本的仕組みを図1に示す。
今回、実現した制御方法での仕組みを、図2に示す。
(1.1)名詞=>形容詞変換データファイルの所持(請求項1、請求項2、請求項3関係)
名詞=>形容詞変換データファイルにより、名詞は形容詞による属性を持つ。
○この情報は、(1.5)の一般知識データファイルの中に含まれる。
(1.2)形容詞=>感情データファイルの所持(請求項1、請求項2、請求項3関係)
形容詞=>感情データファイルにより、各形容詞を各感情または複数の感情とその強さで表される。
○なお、このファイルで、形容詞が、感情の各“うれしい”、“かなしい”等の項目を実数値(0.3,1.0,1.2等々の値)に変換される。
(1.2.1)形容詞の入力例
“けいようし うつくしい ひじょうに うれしい”
このように入力することで、人が人に説明するようにロボットに教えることができる。
“うれしい”は感情の一つで、ここは、形容詞“うつくしい”から、感情“うれしい”に変換される。
“ひじょうに”感情の程度(ここでは“うれしい”の程度)を与える。
・程度の表現として、例として次がある。
“ひじょうに”
“ふつうに”
“すこし”
(1.2.2)感情の例
▲1▼ うれしい
▲2▼ かなしい
▲3▼ いかり
▲4▼ こわい
▲5▼ あんしん
等
(1.3)動詞の簡略化データファイルの所持(請求項1、請求項2、請求項3関係)
動詞の簡略化ファイルにより、動詞はエピソードの中の事象の主語が“ある”、“ない”等に変換される。
(1.3.1)動詞の入力例
“さくら が さいた”の入力に対し、ロボットが、“さいた”を理解できないとき、ロボットは、“さいた なに?”等と聞いてくる。
“どうし さいた ある”と入力することで、“さくら が ある”と解釈する。
この“さいた”=“ある”の記憶は、広く、その後、使用される。
(1.4)感情=>アクション変換データファイルの所持(請求項1、請求項2関係)
感情=>アクション変換データにより、各感情に対し、総合評価し、“求める”、“避ける”“警告する”等の行動を行う。感情は複数の感情であることがあり、この場合総合評価する。“うれしい”等が強ければ、“ほしい!”等となり、“こわい”が強ければ、“にげろ!”等となる。
アクションの選択は、乱数の発生を利用し、乱数が、あるアクションの割り当てられた値の範囲のとき、そのアクションを選び実施または表示する。
(1.5)一般知識データファイルの所持(請求項8、請求項3関係)
一般知識入力情報の解釈と記憶
一般知識ファイルを持つ。次の情報を持つ。
(1.5.1)“さくら は きれい”等の名詞の形容詞による表現
(1.1)(1.2)により、例えば“さくら は きれい”等の一般知識をロボットは入力されると、理解し、評価し、感情表現をし、記憶する。
○ここで“ぞう の はな は ながい”の入力を可能かしていて、ここで“ぞう のはな”を一つの名詞として扱っていて、表現自由度が、増加している。
(1.5.2)“さくら は はな”等の名詞の階層や包含をつくる表現も、入力されると記憶、保存される。(請求項8関係)
(1.5.3)“とげ は ばら の いちぶ”等、の所属を示す表現も、入力されると記憶、保存される。
(1.6)エピソードデータファイルの所持(請求項7関係)
事象の認識と複数事象としてのエピソードを認識し記憶される。各事象とエピソード全体の評価を感情に基づいて行う。
エピソードデータファイルを持ち、エピソードの認識と記憶を行う。
○エピソードの例
次の連続する3つの事象は、一つのエピソードとして、記憶され、各事象はそのエピソードの中の事象として記憶される。
“さくら が さいた”
“あらし が きた”
“さくら が ちった”
○エピソ−ドの感情による評価方法の例
・各エピソードは、多くは複数の事象を含むため、評価は次の方法等による。
(ステップ1)各事象ごとに、通常、主語の名詞について、順に、名詞=>形容詞変換データファイルによる変換、形容詞=>感情データファイルによる変換で、“うれしい”、“かなしい”等の感情の評価に変換され、各感情ごとに実数値で表される。
(ステップ2)“うれしい”、“かなしい”等の感情ごとに、あるエピソードの全事象の結果から、そのエピソードの平均値と絶対値の最大値を求める。
(ステップ3)あるエピソードの感情ごとに、エピソードの評価結果を例えば、次のように求める。
“うれしい”の評価結果=“うれしい”の平均値+“うれしい”の絶対値の最高値
(1.6.1)ルール化
次のように、エピソードデータファイルの中で、同じエピソードが繰り返される、または、同じ複数の事象(順序も同じ)を含むエピソードが複数ある等のとき、ルールとして別途記憶され利用される。
「ルールを生じる例」
複数のエピソードで“そら が くらい”、“あめ が ふった”
があると、「“そら が くらい”と“あめ が ふる”」がルールとして記憶される。
エピドードの数も記憶され、ルールの信頼性として利用される。
(1.6.2)詳細化(episode_noun)
ここでは、以下に示すように、あるエピソードを一つの名詞に対応させ、その名詞の詳細な内容を表す情報を名詞に持たすこの機能を、episode_nounと読んでいる。
次の3事象によるエピソードに対し、これを“はなみ”として登録することができる。
“さくら が さいた”
“ごちそう が あった”
“おさけ が あった”
例えば、このエピソードの番号を5とする。
この時、入力のとき、つぎのように指定すると、“はなみ”として詳細化された情報として記憶される。
(1.6.3)警告
次のエピソードが記憶されているとき
「“ばら が さいた”
“とげ が あった”」
“ばら”の入力に対して
=>“とげ に きおつけて”
また、“あらし が きた”、に対し、=>“にげろ!”等とロボットは言う。
(1.6.4)多様な感情表現
次の3つの事象からなるエピソード(例えばエピソード 5とする)のとき、このエピソード(エピソード 5)の入力あるいは、連想時
“さくら が さいた” “さくら”があることから=>“うれしい”
“すり が いた” “すり”がいたことによる=>“いかり”
“あらし が きた” “あらし”がきたことによる=>“こわい”
=>“うれしい”“いかり”“こわい”のまざった感情表現となる。
(1.6.5)“現在”の状態に対する応答
“現在”の状況は、直接、“うれしさ”こと、“こわい”ことが実現される特別な状態であることから、入力されたばかりの事象やエピソードは、現在の状態として、ロボットは強く気にすることで、人的応答をする。
“さくら が さいた” =>“さくら どうなった”と、“うれしい”顔で ときどき聞く。
“さくら が ちった”の事象がくると =>“ざんねん!”といい、その後言わなく なる。
“あらし が きた” =>“あらし どうなった”と “こわいの顔をし言う。”
(1.6.6)経験として、楽しいエピソード増えると、それらの連想を通し、楽しい顔をすることが多くなり、楽しい性格に見える。
(1.6.7)現在の事象としての認識と過去の事象との区別および対応
(1.1)(1.2)(1.3)により、例えば“さくら が さいた”との事象を認識し、評価し、感情表現をする。入力時、ロボットは、現在の状態の一つとして認識し、“さくら は きれい”で、現在“ある”ことから、“うれしい”感情を常に持ち、うれしい顔をし続ける。(1.4)の感情=>アクション変換データで、“さくら ほしい!”等とアクションを起こす。
また、“さくら どうなった?”等と定期的に聞き続ける。“さくら は ちった”等で、もとの状態にもどる。
ここで
”さくら が さいた“
“さくら が ちった”
が一つのエピソードとして記憶される。また、各事象はそのエピソードの中の事象として記憶される。また、“あらし が さった”で、すべての事象はなくなり、同一エピソードは終了する。
・また、関連エピソードの連想、警告、等を行う。
「構成以外の仕組み」
以下(1.7)以降に構成上以外の仕組みを示す。
(1.7)連想と記憶の整理(請求項9関係)
一般知識ファイル、エピソードファイルのデータ項目より、一般知識、エピソードの連想を行う。連想は、感情による評価結果の高いものを中心に行われる。よく連想されるものほど、その記憶は残る。ずっと連想されない記憶は棄却される。これにより記憶の整理が行われる。
(1.7.1)連想は、感情による評価結果の高いものを中心に行われる。
ここでは、乱数により一般知識ファイル、エピソ−ドデータファイルから、それぞれ連想する名詞とエピソードを選ぶ。
「感情による評価結果を考慮した連想方法例」
以下に例を示す。これらの組み合わせ等により取り込む。
例1.エピソードごとに予め価値を評価しておき、それにより一様乱数で検索したときの、各エピソードに対応する範囲を価値に比例し広げておき、これにより、一様乱数の全範囲の中でエピソード番号順、エピソードごとの割り当て範囲を自動計算しておく。これにより、一様乱数でエピソードを検索し連想する。
一般知識についても同様。
例2.エピソードごとに連想された回数を保存しておき、例1で求めたエピソードごとの巾を、連想回数を重みとして、巾の調節をする。これにより、連想による記憶の強化の効果の考慮が可能と考えられる。但し、この場合、強化の上限を決めておく必要がある。
一般知識についても同様。
例3.連想されたエピソードの価値が、予め指定した値より低いときに、連想を中断する。一般知識についても同様。
例4.複数のエピソード(例えば、3エピソード等)を候補として、検索、評価し、その中で、価値絶対値の最大のエピソードを連想する。
また、連想は感情を伴い、各連想時、感情が表示される。
“どうしたの”の質問に対し連想中の内容をいう。
(1.7.2)よく連想されるものほど、その記憶は残る。
(1.7.1)例2で示したように、エピソードごとに連想回数を保存しておき、それを連想時等に利用し考慮される。また、連想をほとんど行われないような、エピソードは、消去等により処理される。
(1.8)ベイズ的決定等により感情の情報を知能化に利用する。(請求項10関係)
ベイズ的決定は次のように言い表される。
「価値(一般に複数)の合計を確率的に最大にする手段を選ぶ」
このため次のようなロジックでこのような機能を取り込む。
次のエピソードを仮定する。
例.エピソード5 “こうえん へ いった”
“さくら が さいていた”
エピソード37“こうえん へ いった”
“ゆうえんち が あった”
エピソード55“こうえん へ いった”
“ごちそう が あった”
このような場合、“こうえん”でエピソードデータファイルを検索すると、
“こうえん”または“こうえん へ いった”に伴い、対応するエピソードの感情による評価価値が高いため、これらエピソードの価値の合計はかなり高くなる。
これらのデータ処理により、“こうえん へ ゆきたい!”と判断され、希望を言う等を行う。
この方法により、感情すなわち評価結果を、手段の発見など知的行為に利用できる。
次のように利用できる。
(1.8.1)短期的
現在も問題解決のために最も効果的な手段を発見できる。
(1.8.2)長期的
長期的に“何をすることが多くの価値あることが得られるか”を検索し、“何をしたい”等の希望をいう。
(1.8.3)希望を言う。
(1.9)警告
次のエピソードの記憶があると、
“ばら が さいた”
“とげ が あった””
再度“ばら が さいた”、または“ばら”の入力に対し、
ロボットは、“とげ に きおつけて!”等と応答する。
(1.10)性格の反映(請求項11関係)
“うれしい”、“かなしい“等の感情に相当するパラメータを、ロボットは持つため、この変数に、それぞれ、重み変数をかけることで、ロボットは、これらの感情を強め、”うれしさ“を強調した顔をしたり、”うれしい“エピソードを多く連想するようになり、楽天的性格が容易に反映される。悲観的性格も同様に構成上容易に考慮することができる。
(1.11)覚醒レベルの表現(請求項12関係)
覚醒レベルのパラメータをもうけ、夜遅くなったりすると、時間にしたがい、覚醒状態をさげる。このパラメータの値を受け、顔の眼の大きさを細めにし動きを遅くする。
眉の動き、口の動きも遅くする、等により、覚醒レベルは考慮される。
(1.12)“したしい”の利用による、人的挙動の改良
“したしい”は形容詞だが、次のように利用する。
「“したしい”の利用例」
ロボットに何かを、キーインする。
=>ロボットは、“だれ?”と聞く。
=>“たろう”と入力し答える。
=>ロボットは、“たろう”を記憶する。
=>ロボットを何回か起動し、“だれ?”(ロボット質問)、“たろう”
を繰り返すにつれ、“たろう”の属性として、形容詞“したしい”
が、しだいに強くなる。“たろう は ひじょうに したしい”
と記憶され、“たろう”の入力により、“うれしい”顔の表情をする。
「“したしい”考慮の効果」ロボットをとりまく、複数人の関係ができる。同情等の気持ちを生じさせれる。
(2)神経回路的構成(請求項5関係)
(2.1)名詞=>形容詞=>感情 による神経回路構造
名詞=>形容詞変換データファイル、形容詞=>感情データファイルの所持により、図3のようなネットワーク構造を持ち、
・多様な関係を構築できる。
・また、言葉による情報のみでなく、図3に示すように、画像のベクトル化されたデジタル情報、音声のデジタル情報等を神経回路を通し組み込むことが構成上容易である。
(注)なお、図3での神経回路網でのの矢印で示す各結合の強さは、(1.2)(1.3)節での指定で、“さくら は ひじょうに きれい”、“けいようし きれい ひじょうに うれしい”等、“ひじょうに”、“すこし”等の情報により、強弱が決められる。
(2.2)名詞自体の階層構造
名詞=>形容詞変換データファイルは、例えば、
“さくら は はな”、“はな は しょくぶつ”等の階層的構造を持っていて、
“はな は きれい”が入力されていると、“さくら”についてしらなくても、
“さくら は きれい?”と聞いてくる。
(2.4)カオス的挙動の取り得れ(請求項6関係)
・連想時
・アクションの選択。(1.4)節に対応する。
・“現在”の事象として複数の事象あるとき、どれを聞くかを決めるとき。
(1.6)節に対応する。
等
(3)各時点での感情の表現(請求項3関係)
(3.1)“うれしい”、“かなしい”等の各感情に対し、顔の表情を決めておく(眉の形、口の形、眼の大きさ等による)。各感情の強さを重みで反映させ、複数感情を含む場合、それらの代数和等により表情を決定する。(1) Realization of brain function The following (1.1) to (1.6) mainly show the mechanism from the viewpoint of configuration.
(1.7) After that, the mechanism other than the configuration is mainly shown.
"Structure from the top"
Fig. 1 shows the basic mechanism of the brain.
The mechanism of the control method realized this time is shown in FIG.
(1.1) Noun => possession of adjective conversion data file (related to claims 1, 2 and 3)
Noun => By the adjective conversion data file, nouns have attributes based on adjectives.
This information is included in the general knowledge data file of (1.5).
(1.2) Adjective => possession of emotion data file (related to claims 1, 2 and 3)
Adjectives => Each adjective is represented by each emotion or a plurality of emotions and their strengths by the emotion data file.
○ In this file, adjectives are converted into real values (values of 0.3, 1.0, 1.2, etc.) for items such as “happy” and “bad” of emotion.
(1.2.1) Example of adjective input: “I am very happy”
By inputting in this way, the robot can be taught to explain to the person.
“I am glad” is one of emotions, and this is converted from the adjective “I am glad” to the emotion “I am glad”.
Gives a “very” emotional level (here, “joyful”).
・ As an example of the degree expression, there are the following.
“Very much”
"normally"
“Slightly”
(1.2.2) Examples of emotions (1) Happy (2) Very difficult (3) Ikari (4) Scared (5) Reliable
(1.3) possession of simplified data files of verbs (relevant to claims 1, 2 and 3)
With the verb simplification file, the verb is converted to “Yes”, “No”, etc. as the subject of the event in the episode.
(1.3.1) Example of verb input When the robot cannot understand “Saita” in response to the input “Sakura Saitama”, the robot asks “What is Saitama?”.
Entering “What are you doing?” Interprets it as “Sakura is”.
This “sita” = “some” memory is widely used afterwards.
(1.4) Emotion => possession of action conversion data file (related to claims 1 and 2)
Emotion => Based on action conversion data, comprehensive evaluation is performed on each emotion, and actions such as “sought”, “avoid”, and “warn” are performed. Emotions may be multiple emotions, in which case they are comprehensively evaluated. If “I am happy” or the like is strong, it becomes “I want!”, Etc. If “I am scared”, it is “Negoro!”
Selection of an action uses generation of a random number, and when the random number is in a range of an assigned value of an action, the action is selected and executed or displayed.
(1.5) Possession of general knowledge data file (related to claims 8 and 3)
General knowledge input information interpretation and storage General knowledge file. Has the following information:
(1.5.1) Expression by noun adjectives such as “Sakura is beautiful” (1.1) According to (1.2), for example, when the robot inputs general knowledge such as “Sakura is beautiful”, it understands , Evaluate, express emotions and remember.
○ It is possible to input “Elephant Hana Nagai” here, and “Elephant Hana” is treated as one noun here, and the degree of freedom of expression is increasing.
(1.5.2) Expressions that create the hierarchy and inclusion of nouns such as “Sakura Hana” are also stored and stored when they are entered. (Related to Claim 8)
(1.5.3) Expressions indicating the affiliation, such as “Thorn is the Rose of Ichibu”, are also stored and saved when input.
(1.6) Possession of episode data file (related to claim 7)
Recognize events and recognize and store episodes as multiple events. Evaluate each event and the entire episode based on emotion.
It has an episode data file and recognizes and stores episodes.
O Episode Example The next three consecutive events are stored as one episode, and each event is stored as an event within that episode.
“Sakura is Saitama”
“The storm has come”
“Sakura has fallen”
○ Example of evaluation method by emotion of episode ・ Each episode includes a plurality of events, so the evaluation is based on the following method.
(Step 1) For each event, the evaluation of emotions such as “joyful” and “faint” is usually performed for the nouns of the subject in the order of noun => conversion by adjective conversion data file, conversion by adjective => emotion data file. And is expressed as a real value for each emotion.
(Step 2) For each emotion such as “joyful”, “bad”, etc., the average value and the maximum absolute value of the episode are obtained from the results of all the events of a certain episode.
(Step 3) For each emotion of a certain episode, for example, the evaluation result of the episode is obtained as follows.
Evaluation result of “joyful” = average value of “joyful” + maximum value of absolute value of “happy” (1.6.1) rule formation The same episode is repeated in the episode data file as follows. Alternatively, when there are a plurality of episodes including the same plurality of events (the same order), they are separately stored and used as rules.
"Examples of rules"
“Sora is about” and “Ame is covered” in multiple episodes
If there is, ““ Sora is about ”and“ Ame is full ”are stored as rules.
The number of epidods is also stored and used as rule reliability.
(1.6.2) Refinement (episode_noun)
Here, as shown below, this function of associating a certain episode with one noun and having information indicating the detailed contents of the noun in the noun is read as epinode_noun.
This can be registered as “Hanami” for the next three episodes.
“Sakura is Saitama”
“There was a feast”
“There was a salmon”
For example, the episode number is 5.
At this time, when inputting, if specified as follows, it is stored as detailed information as “Hananami”.
(1.6.3) Warning When the next episode is memorized ""
“There was a thorn”
For “Rose” input => “Keep it thorny”
The robot says, “In response to the storm”, => “Nigero!”.
(1.6.4) Various emotional expressions When the episode consists of the following three events (for example, episode 5), when this episode (episode 5) is input or associated, "Sakura is Saisai""Sakura" Because there is =>"I'mglad"
“Suri was there” “Suri” was there => “Ikari”
“A storm has come” “A storm has come” => “Scare”
=> Emotional expressions of “joyful”, “Ikari” and “Scared”.
(1.6.5) Response to the “current” state The “current” situation is a special state where “joy” and “fear” are directly realized, so the event just entered As for the episode and the current state, the robot responds to the human being with great concern.
“Sakura is Saitama” => Sometimes I hear “What happened to Sakura” with a “happy” face.
When the event “Sakura is lost” comes, it says “> Zanen!” And then stops.
“The storm has come” => “What happened to the storm” and “I ’m scared.”
(1.6.6) As an experience, as fun episodes increase, I often have fun faces through these associations, and it looks like a fun personality.
(1.6.7) Recognition and recognition of current events and past events (1.1) (1.2) (1.3) Recognize, evaluate and express emotions. At the time of input, the robot recognizes it as one of the current states, “Sakura is beautiful”, and now “is”, so it always has a “happy” emotion and keeps a happy face. Emotion of (1.4) => Action conversion data causes an action such as “I want Sakura!”
Also, keep listening to “What happened to Sakura?” Regularly. Return to the original state with “Sakura hachi”.
"Sakura is Sai" here
“Sakura has fallen”
Is memorized as one episode. Each event is stored as an event in the episode. Also, with “storming,” all events disappear and the same episode ends.
・ Associating related episodes, warnings, etc.
"Mechanism other than configuration"
In the following (1.7) and after, mechanisms other than the configuration are shown.
(1.7) Organization of association and memory (related to claim 9)
Associating general knowledge and episodes from data items of general knowledge files and episode files. Associations are mainly focused on those with high evaluation results based on emotions. The more frequently associated, the more memorable it is. Memories that have not been associated for a long time are rejected. This organizes the memory.
(1.7.1) Associations are performed mainly for those with high evaluation results based on emotions.
Here, a noun and an episode associated with each are selected from a general knowledge file and an episode data file by random numbers.
"Example of association method considering evaluation result by emotion"
An example is shown below. Capture by a combination of these.
Example 1. Evaluate the value for each episode in advance, and when searching with uniform random numbers, the range corresponding to each episode is expanded in proportion to the value, so that episodes within the entire range of uniform random numbers The assigned range for each episode is automatically calculated in numerical order. As a result, episodes are searched with uniform random numbers and associated.
The same applies to general knowledge.
Example 2. The number of times associated with each episode is stored, and the width of each episode obtained in Example 1 is adjusted with the number of associations as a weight. Thereby, it is considered possible to consider the effect of strengthening memory by association. However, in this case, it is necessary to determine the upper limit of reinforcement.
The same applies to general knowledge.
Example 3 When the value of the associated episode is lower than a predetermined value, the association is interrupted. The same applies to general knowledge.
Example 4 A plurality of episodes (for example, 3 episodes) are searched and evaluated as candidates, and the episode having the maximum absolute value is associated with them.
In addition, the association is accompanied by emotion, and the emotion is displayed at the time of each association.
The content that is associated with the question "What's wrong".
(1.7.2) The more frequently associated, the more memorized it is.
(1.7.1) As shown in Example 2, the number of associations is stored for each episode, and is used for association and the like. In addition, episodes that are hardly associated are processed by erasure or the like.
(1.8) Use emotion information for intelligence by Bayesian decision. (Claim 10)
Bayesian decisions are expressed as follows:
“Choose a way to probabilistically maximize the sum of values (generally multiple)”
For this reason, such a function is incorporated by the following logic.
Assume the next episode.
Example. Episode 5 “I went to Koen”
“Sakura was here”
Episode 37 “I went to Koen”
“There was Yuenchi”
Episode 55 “I went to Koen”
“There was a feast”
In such a case, searching for the episode data file with “Kouen”
The total value of these episodes is considerably higher because of the higher emotional value of the corresponding episode with “Kouen” or “Kouen Goto”.
Through these data processing, it is determined that “I want to go to this place!”
By this method, emotions, that is, evaluation results can be used for intellectual acts such as discovery of means.
It can be used as follows.
(1.8.1) Short-term It is still possible to find the most effective means for solving problems.
(1.8.2) Long-term Search for “what you can get a lot of value” in the long-term and say what you want to do.
(1.8.3) Say hope.
(1.9) Warning If there is a memory of the next episode,
“Rose Saitama”
“There was a thorn”
Again, in response to the input of “rose rose” or “rose”
The robot responds with “Take care to thorn!”.
(1.10) Reflecting personality (related to claim 11)
Since the robot has parameters corresponding to emotions such as “joyful” and “happy”, by applying a weight variable to each of these variables, the robot strengthened these emotions and emphasized “joyfulness”. A lot of “joyful” episodes are associated with the face, and the optimistic personality is easily reflected. Pessimistic personality can be easily considered in the structure as well.
(1.11) Expression of arousal level (related to claim 12)
When the awakening level parameter is set and late at night, the awakening state is reduced according to time. In response to the value of this parameter, the face size of the face is narrowed and the movement is slowed down.
The arousal level is taken into account by slowing the movement of the eyebrows and the mouth.
(1.12) Improvement of human behavior by using “Shiishi” “Shitai” is an adjective, but it is used as follows.
“Usage examples of“ Shitai ””
Key in something to the robot.
=> The robot asks "Who?"
=> Enter "Taro" and answer.
=> The robot stores “Taro”.
=> Start the robot several times, and “Who?” (Robot question), “Taro”
As we repeat, the adjective “Shitai” is the attribute of “Taro”
However, it becomes stronger gradually. “Taro is really good”
And the expression of “happy” face is made by inputting “Taro”.
“Effects of“ Shi ”” Consideration Robots can have multiple relationships. Feeling sympathy.
(2) Neural circuit configuration (related to claim 5)
(2.1) Noun => Adjective => Neural circuit structure by emotion Noun => Adjective conversion data file, Adjective => By possessing emotion data file, it has a network structure as shown in FIG.
・ Can build diverse relationships.
In addition to the information by words, as shown in FIG. 3, it is easy in terms of construction to incorporate digital information obtained by vectorizing an image, digital information of sound, and the like through a neural circuit.
(Note) Note that the strength of each connection indicated by the arrow in the neural network in Fig. 3 is as specified in (1.2) and (1.3), "Sakura is very beautiful", "Kei The strength is determined by information such as “very nice” and “very”.
(2.2) Hierarchical structure of noun itself Noun => Adjective conversion data file is, for example,
It has a hierarchical structure such as “Sakura Hana”, “Hana Hakushokubu”
If “Hana is beautiful” is entered, even if “Sakura” is not necessary,
Asked, “Sakura is beautiful?”
(2.4) Possible chaotic behavior (related to claim 6)
・ Association ・ Select action. Corresponds to section (1.4).
・ When there are multiple events as “current” events, decide which one to listen to.
Corresponds to section (1.6).
Etc. (3) Emotional expression at each time point (claim 3)
(3.1) Determine facial expressions for emotions such as “joyful” and “faint” (depending on eyebrow shape, mouth shape, eye size, etc.). When the strength of each emotion is reflected by weight and multiple emotions are included, the facial expression is determined by the algebraic sum of them.
「課題を解決する手段」の各節に対する効果を、以下に列記する。
・(1.1)〜(1.6)に対する効果。
(1.1)〜(1.6)等で名詞、事象、エピソード等が、感情に結びつけられる。
・入力や連想された情報に対し感情により評価し、連想、記憶の整理、警告((16.3)節)、アクション((1.4)節)、希望((18.2)節)等に結びつけられる。
・連想が、連想対象の感情による評価価値(絶対値)等に依存し、連想される。
・(1.6)エピソードデータファイルの所持に対する効果
(1.3.1)のファイルと(1.1)のファイルとともに、エピソードは認識され、ロボットは応答するが、同時に記憶、保持される。
(1.6.1)ルール化
(1.6.2)名詞の詳細化
(1.6.3)警告
(1.6.4)多様な感情表現
(1.6.5)“現在”の状態に対する応答
(1.6.6)経験として、楽しいエピソード増えると、それらの連想を通し、楽しい顔をすることが多くなり、楽しい性格に見える。
・(1.7)連想の効果
(1.7.1)知識の整理
(1.7.2)人的感じを増やす。
表情から“どうしたの”の質問に対し、連想していること、現在のこと等いう。
・(1.8)ベイズ的決定等による感情の情報を知能化に利用する。
・(1.9)警告
・(1.10)ロボットに楽天的、悲観的等の性格を持たすことが容易にできる。
・(1.11)覚醒レベルの表現
・(1.12)“したしさ”のとりこみによる人間関係、顔等への感情表現、人への同情心等を生じさせることができる。
・(2)神経回路的構成に関する効果
(2.1)名詞=>形容詞=>感情 による神経回路構造
(2.2)名詞自体の階層構造
(2.3)カオスの利用
これらにより、次の効果が得られる。
(2.1)プログラミングを変えることなく、ロボットを賢くできる。
(2.2)人の持つような、複雑な感情を効率的に作れる。
(2.3)ベクトル情報で表される画像イメージ情報、音声情報等の情報を、複数形容詞に繋げることにより、これらの情報を容易に取り込める。
=>この場合複数画像情報の、中間的画像の判断等もできる。
これによりさらに、
(2.3)学習ができる。例えば、フィードフォワード学習、バックプロパげーション学習等がある。
(2.4)カオスの利用による人的挙動
(3)各種入力に対する応答
既に説明した手段により、どのような入力があったとき、どのように各機能がはたらき応答するかの概略を示す。
(3.1)名詞に入力に対して
名詞は一般知識ファイル、エピソードファイル、形容詞=>感情変換ファイルで、感情に変換される。
さらに、感情=>アクション変換データファイルでアクションが選ばれ、“ほしい!”等とロボットは言う。
(3,2)“さくら は きれい”等の一般情報として入力されたとき
“さくら”、“きれい”等をロボットが解釈できるとき、上記(3.1)節と同様に行われる。
(3.3)“あらし が きた”等の事象あるいはエピソードが入力されたとき
“あらし が ある”と解釈され、(3.1)節と同様に、感情で“こわい”等と 評価され、感情=>アクション変換データファイルで、“にげろ!”等と警告する。The effects on each section of “Means for solving problems” are listed below.
-Effects on (1.1) to (1.6).
In (1.1) to (1.6) etc., nouns, events, episodes, etc. are linked to emotions.
・ Evaluate input and associated information by feelings, associating, organizing memories, warning (section (16.3)), action (section (1.4)), hope (section (18.2)), etc. Tied to
・ Association depends on the evaluation value (absolute value) or the like of the emotion of the object of association.
(1.6) Effect on possession of episode data file The episode is recognized and the robot responds together with the file of (1.3.1) and the file of (1.1), but is stored and held at the same time.
(1.6.1) Rule making (1.6.2) Noun refinement (1.6.3) Warning (1.6.4) Various emotional expressions (1.6.5) “Current” Response to the condition (1.6.6) As an experience, as fun episodes increase, through the associations, people often have fun faces and look like a fun personality.
・ (1.7) Effect of association (1.7.1) Arrangement of knowledge (1.7.2) Increase human feeling.
This is what you are associating to the question “What's wrong” from your facial expression.
・ (1.8) Use emotional information from Bayesian decision etc. for intelligence.
(1.9) Warning (1.10) It is easy to give the robot a personality such as optimism and pessimism.
(1.11) Expression of arousal level (1.12) It is possible to generate human relations, emotional expression to the face, sympathy for the person, etc. by incorporating “Sashisa”.
・ (2) Effects on neural circuit structure (2.1) Noun => Adjective => Neural circuit structure by emotion (2.2) Hierarchical structure of noun itself (2.3) Use of chaos Is obtained.
(2.1) The robot can be wise without changing programming.
(2.2) Efficiently create complex emotions that people have.
(2.3) By connecting information such as image image information and audio information represented by vector information to plural adjectives, it is possible to easily capture such information.
=> In this case, it is possible to determine an intermediate image of the multiple image information.
This further
(2.3) Learning is possible. For example, there are feed-forward learning, back-property learning, and the like.
(2.4) Human behavior due to the use of chaos (3) Response to various inputs The outline of how each function works and responds when there is an input by the means already described.
(3.1) For input to nouns Nouns are general knowledge files, episode files, adjectives => emotion conversion files, and are converted into emotions.
Furthermore, the action is selected in the emotion => action conversion data file, and the robot says "I want it!"
(3, 2) When entered as general information such as “Sakura is beautiful” When the robot can interpret “Sakura”, “Pretty”, etc., it is performed in the same way as in section (3.1) above.
(3.3) When an event or episode such as “Raise is coming” is input, it is interpreted as “There is a storm” and, as in Section (3.1), the emotion is evaluated as “Scared”. => The action conversion data file warns "Negero!"
本制御方法を電子計算機で作成し、グラフィック機能により、グラフィック上のロボットのソフトウェアとして実現できる。このとき各時点でロボットが持つ顔の中の眼球、まゆ、口等の動きを、別途ソフトウェアーを介しモータにつなぎ、ロボットの表現することばを表示することにより、感情表現し、応答するハードウェアーとしての脳型ロボットになる。
実施例 本制御を実現する例をして、フローチャートを、図5−1、図5−2、図5−3に示す。また、ロボットを電子計算機上で実現した場合の例を、図4に示す。This control method is created by an electronic computer, and can be realized as graphic robot software by a graphic function. Hardware that expresses emotions and responds by connecting the movement of the eyeball, eyebrows, mouth, etc. in the face of the robot at each time point to a motor via separate software and displaying the words expressed by the robot Become a brain-type robot.
Example The example which implement | achieves this control is shown to FIGS. 5-1, FIG. 5-2, and FIG. 5-3. FIG. 4 shows an example in which the robot is realized on an electronic computer.
利用可能例
例1.本制御方法を、電子計算機とその画面により、顔を画像表示し、脳の構成を持っ た人的に挙動するロボットを作成することができる。
例2.本制御方法により、人的に挙動する例えばペットロボット等を作成することがで きる。
例3.従来、広く開発され、あるいは実用されているロボット、例えば案内等を行う二 足歩行ロボット等にも、本制御方法を適用し、人的に振る舞う要素を加えることがで きる。
等Example of use Example 1. With this control method, it is possible to create a human-behaving robot with a brain structure that displays an image of the face using an electronic computer and its screen.
Example 2. With this control method, it is possible to create a pet robot or the like that behaves humanly.
Example 3 Conventionally, this control method can be applied to robots that have been widely developed or put to practical use, such as bipedal walking robots that provide guidance, etc., and elements that behave humanly can be added.
etc
Claims (13)
プログラミングを新たに追加修正をせず、データの蓄積や自動的データの整理により賢くなる等、ロボットの挙動、応答が改良される等変化し、
また、ドット情報等の画像のベクトル情報、デジタル音声のベクトル情報等の言語以外の信号情報を容易に組み込め、神経回路の持つ学習機能その他の一般的機能を容易に取り込める仕組みを持った脳型感情表現ロボットの制御方法。By having the structure and function of the neural circuit,
Changes such as improved robot behavior and response, such as becoming smarter by accumulating data and automatically organizing data, without newly adding and modifying programming,
In addition, brain-type emotions that can easily incorporate non-language signal information such as image vector information such as dot information and digital audio vector information, and can easily incorporate learning functions and other general functions of neural circuits. Expression robot control method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012120224A JP6792831B2 (en) | 2012-05-08 | 2012-05-08 | How to control a brain-type emotional expression robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012120224A JP6792831B2 (en) | 2012-05-08 | 2012-05-08 | How to control a brain-type emotional expression robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013235548A true JP2013235548A (en) | 2013-11-21 |
JP6792831B2 JP6792831B2 (en) | 2020-12-02 |
Family
ID=49761596
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012120224A Active JP6792831B2 (en) | 2012-05-08 | 2012-05-08 | How to control a brain-type emotional expression robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6792831B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106354034A (en) * | 2016-07-30 | 2017-01-25 | 杨超坤 | Emotion-controlled control switch |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09251553A (en) * | 1996-03-14 | 1997-09-22 | Toshiba Corp | Body action generating device and body action control method |
JPH10340268A (en) * | 1997-06-05 | 1998-12-22 | Masahiro Ogawa | Computer-readable recording medium where program allowing computer to converse with human is recorded |
JP2000259601A (en) * | 1999-03-05 | 2000-09-22 | Masami Kato | Conversation device and its method |
JP2001175841A (en) * | 1999-09-10 | 2001-06-29 | Yamaha Motor Co Ltd | Behavior adjustment system and method |
JP2002215183A (en) * | 2001-01-16 | 2002-07-31 | Agi:Kk | Method and apparatus for creating sensibility, and software |
JP2002236681A (en) * | 2001-02-09 | 2002-08-23 | Inst Of Physical & Chemical Res | Daily language computing system and method |
JP2003099756A (en) * | 2001-09-25 | 2003-04-04 | Inst Of Physical & Chemical Res | Method of forming artificial neural network structure obtained by modeling mental functions of brain |
US20030115165A1 (en) * | 2001-09-25 | 2003-06-19 | Tetsuya Hoya | Memory system for use of modeling psychological functions of the brain |
JP2003256421A (en) * | 2002-02-28 | 2003-09-12 | Jackpot:Kk | Character-type conversation system |
WO2004036497A1 (en) * | 2002-10-18 | 2004-04-29 | Japan Science And Technology Agency | Learning/thinking machine and learning/thinking method based on structured knowledge, computer system, and information generation method |
JP2005222294A (en) * | 2004-02-05 | 2005-08-18 | Seiko Epson Corp | Device and method for recognizing feeling of sentence and its program |
JP2009123015A (en) * | 2007-11-15 | 2009-06-04 | Bbmedia Inc | Brand ranking system and method |
JP2010160669A (en) * | 2009-01-08 | 2010-07-22 | Linfops Kk | Control method for robot |
-
2012
- 2012-05-08 JP JP2012120224A patent/JP6792831B2/en active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09251553A (en) * | 1996-03-14 | 1997-09-22 | Toshiba Corp | Body action generating device and body action control method |
JPH10340268A (en) * | 1997-06-05 | 1998-12-22 | Masahiro Ogawa | Computer-readable recording medium where program allowing computer to converse with human is recorded |
JP2000259601A (en) * | 1999-03-05 | 2000-09-22 | Masami Kato | Conversation device and its method |
JP2001175841A (en) * | 1999-09-10 | 2001-06-29 | Yamaha Motor Co Ltd | Behavior adjustment system and method |
JP2002215183A (en) * | 2001-01-16 | 2002-07-31 | Agi:Kk | Method and apparatus for creating sensibility, and software |
JP2002236681A (en) * | 2001-02-09 | 2002-08-23 | Inst Of Physical & Chemical Res | Daily language computing system and method |
JP2003099756A (en) * | 2001-09-25 | 2003-04-04 | Inst Of Physical & Chemical Res | Method of forming artificial neural network structure obtained by modeling mental functions of brain |
US20030115165A1 (en) * | 2001-09-25 | 2003-06-19 | Tetsuya Hoya | Memory system for use of modeling psychological functions of the brain |
JP2003256421A (en) * | 2002-02-28 | 2003-09-12 | Jackpot:Kk | Character-type conversation system |
WO2004036497A1 (en) * | 2002-10-18 | 2004-04-29 | Japan Science And Technology Agency | Learning/thinking machine and learning/thinking method based on structured knowledge, computer system, and information generation method |
JP2005222294A (en) * | 2004-02-05 | 2005-08-18 | Seiko Epson Corp | Device and method for recognizing feeling of sentence and its program |
JP2009123015A (en) * | 2007-11-15 | 2009-06-04 | Bbmedia Inc | Brand ranking system and method |
JP2010160669A (en) * | 2009-01-08 | 2010-07-22 | Linfops Kk | Control method for robot |
Non-Patent Citations (2)
Title |
---|
松本 元: "脳研究から情報処理へ 脳型コンピュータの開発にむけて", 情報処理 第38巻 第5号, vol. 38, no. 5, JPN6016008881, 15 May 1997 (1997-05-15), JP, pages 369 - 375, ISSN: 0003272037 * |
辻野 広司: "脳のこころ", 神経研究の進歩 NO.266, vol. Vol.50 No.1 Feb. 2006, JPN6016008878, 10 February 2006 (2006-02-10), JP, pages 161 - 171, ISSN: 0003616250 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106354034A (en) * | 2016-07-30 | 2017-01-25 | 杨超坤 | Emotion-controlled control switch |
Also Published As
Publication number | Publication date |
---|---|
JP6792831B2 (en) | 2020-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Xi et al. | The rise and potential of large language model based agents: A survey | |
Taves et al. | Experience as event: event cognition and the study of (religious) experiences | |
Sardar et al. | The three tomorrows of postnormal times | |
Thagard et al. | Inference to the best plan: A coherence theory of decision | |
Der Derian et al. | ‘Quantizing international relations’: The case for quantum approaches to international theory and security practice | |
Khoury | Intellectual property rights for hubots: On the legal implications of human-like robots as innovators and creators | |
Berenskoetter | Reclaiming the vision thing: Constructivists as students of the future | |
Spackman et al. | Embodied cognition, representationalism, and mechanism: a review and analysis | |
RU2670781C9 (en) | System and method for data storage and processing | |
Hasselberger | Ethics beyond computation: Why we can't (and shouldn't) replace human moral judgment with algorithms | |
Pudane et al. | Human emotional behavior simulation in intelligent agents: processes and architecture | |
Dignum et al. | What Is Artificial Intelligence? | |
Carsetti | Causality, meaningful complexity and embodied cognition | |
Sánchez-Cañizares | Entropy, quantum mechanics, and information in complex systems a plea for ontological pluralism | |
Martin | Comment on geodesic cycle length distributions in delusional and other social networks | |
JP2013235548A (en) | Control method for brain type emotion expressing robot | |
Franklin et al. | Modeling cognition with software agents | |
Singh | Habit Formation And The ACT-R: A Model Based on Perceptual Dynamics and Attentional Control | |
Lawhead | Self-organization, emergence, and constraint in complex natural systems | |
Erkan | Psychopower and Ordinary Madness: Reticulated Dividuals in Cognitive Capitalism | |
De Florio | On environments as systemic exoskeletons: crosscutting optimizers and antifragility enablers | |
Manu | The Philosophy of Disruption | |
Berman et al. | Explaining predictions with enthymematic counterfactuals | |
Garcia | Literary narrative as a cognitive structure in the brain | |
Der Derian et al. | Quantum International Relations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20120604 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120805 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150506 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151028 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160308 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20160428 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160711 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160927 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161129 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20170124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170327 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170606 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170815 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171115 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20171115 |
|
C11 | Written invitation by the commissioner to file amendments |
Free format text: JAPANESE INTERMEDIATE CODE: C11 Effective date: 20180123 |
|
C12 | Written invitation by the commissioner to file intermediate amendments |
Free format text: JAPANESE INTERMEDIATE CODE: C12 Effective date: 20180123 |
|
C27A | Decision to dismiss |
Free format text: JAPANESE INTERMEDIATE CODE: C2711 Effective date: 20180312 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20180502 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20180509 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20180511 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20180517 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20180731 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20190416 |
|
C302 | Record of communication |
Free format text: JAPANESE INTERMEDIATE CODE: C302 Effective date: 20190617 |
|
C302 | Record of communication |
Free format text: JAPANESE INTERMEDIATE CODE: C302 Effective date: 20190919 |
|
C302 | Record of communication |
Free format text: JAPANESE INTERMEDIATE CODE: C302 Effective date: 20191216 |
|
C30 | Protocol of an oral hearing |
Free format text: JAPANESE INTERMEDIATE CODE: C30 Effective date: 20200325 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20200407 |
|
C302 | Record of communication |
Free format text: JAPANESE INTERMEDIATE CODE: C302 Effective date: 20200529 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20200624 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200629 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20200825 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20201002 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20201007 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201023 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6792831 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |