JP2013235548A - Control method for brain type emotion expressing robot - Google Patents

Control method for brain type emotion expressing robot Download PDF

Info

Publication number
JP2013235548A
JP2013235548A JP2012120224A JP2012120224A JP2013235548A JP 2013235548 A JP2013235548 A JP 2013235548A JP 2012120224 A JP2012120224 A JP 2012120224A JP 2012120224 A JP2012120224 A JP 2012120224A JP 2013235548 A JP2013235548 A JP 2013235548A
Authority
JP
Japan
Prior art keywords
brain
robot
emotions
data
control method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012120224A
Other languages
Japanese (ja)
Other versions
JP6792831B2 (en
Inventor
Mitsuo Takase
光雄 高瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Linfops
LINFOPS KK
Original Assignee
Linfops
LINFOPS KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Linfops, LINFOPS KK filed Critical Linfops
Priority to JP2012120224A priority Critical patent/JP6792831B2/en
Publication of JP2013235548A publication Critical patent/JP2013235548A/en
Application granted granted Critical
Publication of JP6792831B2 publication Critical patent/JP6792831B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a control method for a brain type emotion expressing robot.SOLUTION: A mechanism for controlling a robot behaving like a human is created by providing the mechanism with a structure and a function of the brain. As for the brain configuration, a configuration incorporating central mechanisms of the brain is created and functioned, the configuration primarily consisting of a function focusing on emotion that corresponds to the amygdala, a function of performing a comprehensive determination that corresponds to the prefrontal area, and a function of storing general knowledge data set used for understanding and associating various types of input data, and episode data set stored by external inputs of episodes, and used for ruling, associations, various expressions in the association, detailing of words, and the like. The various emotions are expressed mainly on the face.

Description

脳的構成を持たせ脳の機能を実現することにより、人的に振る舞い応答し感情表現をすることを目的とした顔を持ったロボットを実現する制御方法である。ロボットは顔のみを持ったロボットとはかぎらず、二足歩行の接待ロボットでも顔を持っていれば本機能の適応対象になる。
すなわち、(1)ロボットが構成上脳の骨組み的構成を持っていて、感情(emotions)を生じる扁桃体に対する機能と、前頭前野の総合判断等をする機能、各種記憶とその利用を行う機能を中心として持ち、さらに他の脳的機能要素を各種持っている。特に感情が主要な役割をする。(2)ロボットは人的にできるだけ振る舞う。(3)顔による各時点での感情の多様な表現を、主要な目的の一つにしている。
本制御方法を電子計算機で作成し、グラフィック機能により、グラフィック上のロボットのソフトウェアとして実現できる。このとき各時点でロボットが持つ顔の中の眼球、まゆ、口等の動きを、別途ソフトウェアーを介しモータにつなぎ、ロボットの表現することばを表示することにより、感情表現し、応答するハードウェアーとしての脳型ロボットになる。
他の特徴としては、神経回路様の構成を持っていて、プログラミングのし直しなしに、データの蓄積整理と共に、賢さが増し改良された応答をする等の変化をする。本制御方法は、キーインや文字表示等による言葉の入出力により情報のやりとりをするが、画像のデジタル情報や、音声のデジタル情報等の情報を神経回路的構成上取り込みやすい。
It is a control method that realizes a robot with a face that aims to express human emotions and express emotions by providing a brain structure and realizing brain functions. The robot is not limited to a robot with only a face, and even a bipedal entertainment robot can be an object for this function if it has a face.
That is, (1) The robot has a skeletal structure in terms of its structure, focusing on functions for the amygdala that generate emotions, functions for comprehensive judgment of the prefrontal cortex, etc., and functions for various memories and their use As well as various other brain functional elements. In particular, emotion plays a major role. (2) The robot behaves as humanly as possible. (3) Making various expressions of emotions at each time point by face one of the main purposes.
This control method is created by an electronic computer, and can be realized as graphic robot software by a graphic function. Hardware that expresses emotions and responds by connecting the movement of the eyeball, eyebrows, mouth, etc. in the face of the robot at each time point to a motor via separate software and displaying the words expressed by the robot Become a brain-type robot.
Another feature is that it has a neural network-like structure, and changes such as increased cleverness and improved response as well as data storage and organization without reprogramming. In this control method, information is exchanged by inputting / outputting words by key-in, character display, or the like. However, information such as digital image information and digital audio information can be easily captured due to a neural circuit configuration.

感情表現を目的とした顔ロボットは、広く開発されてきている。  Face robots aimed at expressing emotions have been widely developed.

特開2010−160669号公報JP 2010-160669 A

(1)脳の扁桃体、前頭前野に相当する機能、記憶と記憶情報の取り出しを、中心とした脳の骨組み的仕組みを、どのように具体的かつ簡潔に組み込み、主に言葉による入力を通し、応答、記憶する仕組みをどのように実用化できるように作るか。
とくに、扁桃体に対する感情は、多様に複数の機能に利用されえる。これを、中心的しくみとして実現すること。
(2)ロボットに対するデータの入力その他、すべての場面で、ロボットに対し人的に感じるようにし、人的な感じを失わないようにすること。
(3)脳の機能を実現するとき、最終的に脳が持つ知識は膨大になることが予想される。
そのため、
(3.1)予めロボットに所持させる知識が少なくても、十分人的に振る舞うこと。
(3.2)外部から知識を与えるとき、めんどうになったり、ロボットの持つ人的感じを失わないようにする。
(4)脳の機能的挙動的仕組みのみでなく、表現上で、顔に心の中のときどきの多様な感情の状態を表現することで、より人間的表現をし、より人間的に感じるロボットとなるようにする。同時に、顔の表情で、ある程度ロボットとの情報のやりとりを行えるようにする。
(1) How the brain's amygdala, functions equivalent to the prefrontal cortex, memory and retrieval of memory information, how to incorporate the framework of the brain, specifically and concisely, mainly through verbal input, How to make a mechanism to respond and remember so that it can be put into practical use.
In particular, emotions for the amygdala can be used for multiple functions. Realize this as a central mechanism.
(2) Make sure that the robot feels human and that it does not lose its human feeling in all other situations, such as inputting data to the robot.
(3) When realizing the function of the brain, it is expected that the knowledge of the brain will eventually become enormous.
for that reason,
(3.1) Even if there is little knowledge to be possessed by the robot in advance, behave sufficiently humane.
(3.2) When giving knowledge from the outside, do not become troubled or lose the human feeling of the robot.
(4) A robot that expresses more human expressions and feels more human by expressing various emotional states in the mind on the face as well as the functional behavioral mechanism of the brain. To be. At the same time, it is possible to exchange information with the robot to some extent using facial expressions.

(1)脳的機能の実現
以下(1.1)〜(1.6)に主に構成上からの仕組みを示す。
(1.7)以降に主に構成上以外の仕組みを示す。
「構成上からの仕組み」
脳の実現しようごした基本的仕組みを図1に示す。
今回、実現した制御方法での仕組みを、図2に示す。
(1.1)名詞=>形容詞変換データファイルの所持(請求項1、請求項2、請求項3関係)
名詞=>形容詞変換データファイルにより、名詞は形容詞による属性を持つ。
○この情報は、(1.5)の一般知識データファイルの中に含まれる。
(1.2)形容詞=>感情データファイルの所持(請求項1、請求項2、請求項3関係)
形容詞=>感情データファイルにより、各形容詞を各感情または複数の感情とその強さで表される。
○なお、このファイルで、形容詞が、感情の各“うれしい”、“かなしい”等の項目を実数値(0.3,1.0,1.2等々の値)に変換される。
(1.2.1)形容詞の入力例
“けいようし うつくしい ひじょうに うれしい”
このように入力することで、人が人に説明するようにロボットに教えることができる。
“うれしい”は感情の一つで、ここは、形容詞“うつくしい”から、感情“うれしい”に変換される。
“ひじょうに”感情の程度(ここでは“うれしい”の程度)を与える。
・程度の表現として、例として次がある。
“ひじょうに”
“ふつうに”
“すこし”
(1.2.2)感情の例
▲1▼ うれしい
▲2▼ かなしい
▲3▼ いかり
▲4▼ こわい
▲5▼ あんしん

(1.3)動詞の簡略化データファイルの所持(請求項1、請求項2、請求項3関係)
動詞の簡略化ファイルにより、動詞はエピソードの中の事象の主語が“ある”、“ない”等に変換される。
(1.3.1)動詞の入力例
“さくら が さいた”の入力に対し、ロボットが、“さいた”を理解できないとき、ロボットは、“さいた なに?”等と聞いてくる。
“どうし さいた ある”と入力することで、“さくら が ある”と解釈する。
この“さいた”=“ある”の記憶は、広く、その後、使用される。
(1.4)感情=>アクション変換データファイルの所持(請求項1、請求項2関係)
感情=>アクション変換データにより、各感情に対し、総合評価し、“求める”、“避ける”“警告する”等の行動を行う。感情は複数の感情であることがあり、この場合総合評価する。“うれしい”等が強ければ、“ほしい!”等となり、“こわい”が強ければ、“にげろ!”等となる。
アクションの選択は、乱数の発生を利用し、乱数が、あるアクションの割り当てられた値の範囲のとき、そのアクションを選び実施または表示する。
(1.5)一般知識データファイルの所持(請求項8、請求項3関係)
一般知識入力情報の解釈と記憶
一般知識ファイルを持つ。次の情報を持つ。
(1.5.1)“さくら は きれい”等の名詞の形容詞による表現
(1.1)(1.2)により、例えば“さくら は きれい”等の一般知識をロボットは入力されると、理解し、評価し、感情表現をし、記憶する。
○ここで“ぞう の はな は ながい”の入力を可能かしていて、ここで“ぞう のはな”を一つの名詞として扱っていて、表現自由度が、増加している。
(1.5.2)“さくら は はな”等の名詞の階層や包含をつくる表現も、入力されると記憶、保存される。(請求項8関係)
(1.5.3)“とげ は ばら の いちぶ”等、の所属を示す表現も、入力されると記憶、保存される。
(1.6)エピソードデータファイルの所持(請求項7関係)
事象の認識と複数事象としてのエピソードを認識し記憶される。各事象とエピソード全体の評価を感情に基づいて行う。
エピソードデータファイルを持ち、エピソードの認識と記憶を行う。
○エピソードの例
次の連続する3つの事象は、一つのエピソードとして、記憶され、各事象はそのエピソードの中の事象として記憶される。
“さくら が さいた”
“あらし が きた”
“さくら が ちった”
○エピソ−ドの感情による評価方法の例
・各エピソードは、多くは複数の事象を含むため、評価は次の方法等による。
(ステップ1)各事象ごとに、通常、主語の名詞について、順に、名詞=>形容詞変換データファイルによる変換、形容詞=>感情データファイルによる変換で、“うれしい”、“かなしい”等の感情の評価に変換され、各感情ごとに実数値で表される。
(ステップ2)“うれしい”、“かなしい”等の感情ごとに、あるエピソードの全事象の結果から、そのエピソードの平均値と絶対値の最大値を求める。
(ステップ3)あるエピソードの感情ごとに、エピソードの評価結果を例えば、次のように求める。
“うれしい”の評価結果=“うれしい”の平均値+“うれしい”の絶対値の最高値
(1.6.1)ルール化
次のように、エピソードデータファイルの中で、同じエピソードが繰り返される、または、同じ複数の事象(順序も同じ)を含むエピソードが複数ある等のとき、ルールとして別途記憶され利用される。
「ルールを生じる例」
複数のエピソードで“そら が くらい”、“あめ が ふった”
があると、「“そら が くらい”と“あめ が ふる”」がルールとして記憶される。
エピドードの数も記憶され、ルールの信頼性として利用される。
(1.6.2)詳細化(episode_noun)
ここでは、以下に示すように、あるエピソードを一つの名詞に対応させ、その名詞の詳細な内容を表す情報を名詞に持たすこの機能を、episode_nounと読んでいる。
次の3事象によるエピソードに対し、これを“はなみ”として登録することができる。
“さくら が さいた”
“ごちそう が あった”
“おさけ が あった”
例えば、このエピソードの番号を5とする。
この時、入力のとき、つぎのように指定すると、“はなみ”として詳細化された情報として記憶される。
(1.6.3)警告
次のエピソードが記憶されているとき
「“ばら が さいた”
“とげ が あった”」
“ばら”の入力に対して
=>“とげ に きおつけて”
また、“あらし が きた”、に対し、=>“にげろ!”等とロボットは言う。
(1.6.4)多様な感情表現
次の3つの事象からなるエピソード(例えばエピソード 5とする)のとき、このエピソード(エピソード 5)の入力あるいは、連想時
“さくら が さいた” “さくら”があることから=>“うれしい”
“すり が いた” “すり”がいたことによる=>“いかり”
“あらし が きた” “あらし”がきたことによる=>“こわい”
=>“うれしい”“いかり”“こわい”のまざった感情表現となる。
(1.6.5)“現在”の状態に対する応答
“現在”の状況は、直接、“うれしさ”こと、“こわい”ことが実現される特別な状態であることから、入力されたばかりの事象やエピソードは、現在の状態として、ロボットは強く気にすることで、人的応答をする。
“さくら が さいた” =>“さくら どうなった”と、“うれしい”顔で ときどき聞く。
“さくら が ちった”の事象がくると =>“ざんねん!”といい、その後言わなく なる。
“あらし が きた” =>“あらし どうなった”と “こわいの顔をし言う。”
(1.6.6)経験として、楽しいエピソード増えると、それらの連想を通し、楽しい顔をすることが多くなり、楽しい性格に見える。
(1.6.7)現在の事象としての認識と過去の事象との区別および対応
(1.1)(1.2)(1.3)により、例えば“さくら が さいた”との事象を認識し、評価し、感情表現をする。入力時、ロボットは、現在の状態の一つとして認識し、“さくら は きれい”で、現在“ある”ことから、“うれしい”感情を常に持ち、うれしい顔をし続ける。(1.4)の感情=>アクション変換データで、“さくら ほしい!”等とアクションを起こす。
また、“さくら どうなった?”等と定期的に聞き続ける。“さくら は ちった”等で、もとの状態にもどる。
ここで
”さくら が さいた“
“さくら が ちった”
が一つのエピソードとして記憶される。また、各事象はそのエピソードの中の事象として記憶される。また、“あらし が さった”で、すべての事象はなくなり、同一エピソードは終了する。
・また、関連エピソードの連想、警告、等を行う。
「構成以外の仕組み」
以下(1.7)以降に構成上以外の仕組みを示す。
(1.7)連想と記憶の整理(請求項9関係)
一般知識ファイル、エピソードファイルのデータ項目より、一般知識、エピソードの連想を行う。連想は、感情による評価結果の高いものを中心に行われる。よく連想されるものほど、その記憶は残る。ずっと連想されない記憶は棄却される。これにより記憶の整理が行われる。
(1.7.1)連想は、感情による評価結果の高いものを中心に行われる。
ここでは、乱数により一般知識ファイル、エピソ−ドデータファイルから、それぞれ連想する名詞とエピソードを選ぶ。
「感情による評価結果を考慮した連想方法例」
以下に例を示す。これらの組み合わせ等により取り込む。
例1.エピソードごとに予め価値を評価しておき、それにより一様乱数で検索したときの、各エピソードに対応する範囲を価値に比例し広げておき、これにより、一様乱数の全範囲の中でエピソード番号順、エピソードごとの割り当て範囲を自動計算しておく。これにより、一様乱数でエピソードを検索し連想する。
一般知識についても同様。
例2.エピソードごとに連想された回数を保存しておき、例1で求めたエピソードごとの巾を、連想回数を重みとして、巾の調節をする。これにより、連想による記憶の強化の効果の考慮が可能と考えられる。但し、この場合、強化の上限を決めておく必要がある。
一般知識についても同様。
例3.連想されたエピソードの価値が、予め指定した値より低いときに、連想を中断する。一般知識についても同様。
例4.複数のエピソード(例えば、3エピソード等)を候補として、検索、評価し、その中で、価値絶対値の最大のエピソードを連想する。
また、連想は感情を伴い、各連想時、感情が表示される。
“どうしたの”の質問に対し連想中の内容をいう。
(1.7.2)よく連想されるものほど、その記憶は残る。
(1.7.1)例2で示したように、エピソードごとに連想回数を保存しておき、それを連想時等に利用し考慮される。また、連想をほとんど行われないような、エピソードは、消去等により処理される。
(1.8)ベイズ的決定等により感情の情報を知能化に利用する。(請求項10関係)
ベイズ的決定は次のように言い表される。
「価値(一般に複数)の合計を確率的に最大にする手段を選ぶ」
このため次のようなロジックでこのような機能を取り込む。
次のエピソードを仮定する。
例.エピソード5 “こうえん へ いった”
“さくら が さいていた”
エピソード37“こうえん へ いった”
“ゆうえんち が あった”
エピソード55“こうえん へ いった”
“ごちそう が あった”
このような場合、“こうえん”でエピソードデータファイルを検索すると、
“こうえん”または“こうえん へ いった”に伴い、対応するエピソードの感情による評価価値が高いため、これらエピソードの価値の合計はかなり高くなる。
これらのデータ処理により、“こうえん へ ゆきたい!”と判断され、希望を言う等を行う。
この方法により、感情すなわち評価結果を、手段の発見など知的行為に利用できる。
次のように利用できる。
(1.8.1)短期的
現在も問題解決のために最も効果的な手段を発見できる。
(1.8.2)長期的
長期的に“何をすることが多くの価値あることが得られるか”を検索し、“何をしたい”等の希望をいう。
(1.8.3)希望を言う。
(1.9)警告
次のエピソードの記憶があると、
“ばら が さいた”
“とげ が あった””
再度“ばら が さいた”、または“ばら”の入力に対し、
ロボットは、“とげ に きおつけて!”等と応答する。
(1.10)性格の反映(請求項11関係)
“うれしい”、“かなしい“等の感情に相当するパラメータを、ロボットは持つため、この変数に、それぞれ、重み変数をかけることで、ロボットは、これらの感情を強め、”うれしさ“を強調した顔をしたり、”うれしい“エピソードを多く連想するようになり、楽天的性格が容易に反映される。悲観的性格も同様に構成上容易に考慮することができる。
(1.11)覚醒レベルの表現(請求項12関係)
覚醒レベルのパラメータをもうけ、夜遅くなったりすると、時間にしたがい、覚醒状態をさげる。このパラメータの値を受け、顔の眼の大きさを細めにし動きを遅くする。
眉の動き、口の動きも遅くする、等により、覚醒レベルは考慮される。
(1.12)“したしい”の利用による、人的挙動の改良
“したしい”は形容詞だが、次のように利用する。
「“したしい”の利用例」
ロボットに何かを、キーインする。
=>ロボットは、“だれ?”と聞く。
=>“たろう”と入力し答える。
=>ロボットは、“たろう”を記憶する。
=>ロボットを何回か起動し、“だれ?”(ロボット質問)、“たろう”
を繰り返すにつれ、“たろう”の属性として、形容詞“したしい”
が、しだいに強くなる。“たろう は ひじょうに したしい”
と記憶され、“たろう”の入力により、“うれしい”顔の表情をする。
「“したしい”考慮の効果」ロボットをとりまく、複数人の関係ができる。同情等の気持ちを生じさせれる。
(2)神経回路的構成(請求項5関係)
(2.1)名詞=>形容詞=>感情 による神経回路構造
名詞=>形容詞変換データファイル、形容詞=>感情データファイルの所持により、図3のようなネットワーク構造を持ち、
・多様な関係を構築できる。
・また、言葉による情報のみでなく、図3に示すように、画像のベクトル化されたデジタル情報、音声のデジタル情報等を神経回路を通し組み込むことが構成上容易である。
(注)なお、図3での神経回路網でのの矢印で示す各結合の強さは、(1.2)(1.3)節での指定で、“さくら は ひじょうに きれい”、“けいようし きれい ひじょうに うれしい”等、“ひじょうに”、“すこし”等の情報により、強弱が決められる。
(2.2)名詞自体の階層構造
名詞=>形容詞変換データファイルは、例えば、
“さくら は はな”、“はな は しょくぶつ”等の階層的構造を持っていて、
“はな は きれい”が入力されていると、“さくら”についてしらなくても、
“さくら は きれい?”と聞いてくる。
(2.4)カオス的挙動の取り得れ(請求項6関係)
・連想時
・アクションの選択。(1.4)節に対応する。
・“現在”の事象として複数の事象あるとき、どれを聞くかを決めるとき。
(1.6)節に対応する。

(3)各時点での感情の表現(請求項3関係)
(3.1)“うれしい”、“かなしい”等の各感情に対し、顔の表情を決めておく(眉の形、口の形、眼の大きさ等による)。各感情の強さを重みで反映させ、複数感情を含む場合、それらの代数和等により表情を決定する。
(1) Realization of brain function The following (1.1) to (1.6) mainly show the mechanism from the viewpoint of configuration.
(1.7) After that, the mechanism other than the configuration is mainly shown.
"Structure from the top"
Fig. 1 shows the basic mechanism of the brain.
The mechanism of the control method realized this time is shown in FIG.
(1.1) Noun => possession of adjective conversion data file (related to claims 1, 2 and 3)
Noun => By the adjective conversion data file, nouns have attributes based on adjectives.
This information is included in the general knowledge data file of (1.5).
(1.2) Adjective => possession of emotion data file (related to claims 1, 2 and 3)
Adjectives => Each adjective is represented by each emotion or a plurality of emotions and their strengths by the emotion data file.
○ In this file, adjectives are converted into real values (values of 0.3, 1.0, 1.2, etc.) for items such as “happy” and “bad” of emotion.
(1.2.1) Example of adjective input: “I am very happy”
By inputting in this way, the robot can be taught to explain to the person.
“I am glad” is one of emotions, and this is converted from the adjective “I am glad” to the emotion “I am glad”.
Gives a “very” emotional level (here, “joyful”).
・ As an example of the degree expression, there are the following.
“Very much”
"normally"
“Slightly”
(1.2.2) Examples of emotions (1) Happy (2) Very difficult (3) Ikari (4) Scared (5) Reliable
(1.3) possession of simplified data files of verbs (relevant to claims 1, 2 and 3)
With the verb simplification file, the verb is converted to “Yes”, “No”, etc. as the subject of the event in the episode.
(1.3.1) Example of verb input When the robot cannot understand “Saita” in response to the input “Sakura Saitama”, the robot asks “What is Saitama?”.
Entering “What are you doing?” Interprets it as “Sakura is”.
This “sita” = “some” memory is widely used afterwards.
(1.4) Emotion => possession of action conversion data file (related to claims 1 and 2)
Emotion => Based on action conversion data, comprehensive evaluation is performed on each emotion, and actions such as “sought”, “avoid”, and “warn” are performed. Emotions may be multiple emotions, in which case they are comprehensively evaluated. If “I am happy” or the like is strong, it becomes “I want!”, Etc. If “I am scared”, it is “Negoro!”
Selection of an action uses generation of a random number, and when the random number is in a range of an assigned value of an action, the action is selected and executed or displayed.
(1.5) Possession of general knowledge data file (related to claims 8 and 3)
General knowledge input information interpretation and storage General knowledge file. Has the following information:
(1.5.1) Expression by noun adjectives such as “Sakura is beautiful” (1.1) According to (1.2), for example, when the robot inputs general knowledge such as “Sakura is beautiful”, it understands , Evaluate, express emotions and remember.
○ It is possible to input “Elephant Hana Nagai” here, and “Elephant Hana” is treated as one noun here, and the degree of freedom of expression is increasing.
(1.5.2) Expressions that create the hierarchy and inclusion of nouns such as “Sakura Hana” are also stored and stored when they are entered. (Related to Claim 8)
(1.5.3) Expressions indicating the affiliation, such as “Thorn is the Rose of Ichibu”, are also stored and saved when input.
(1.6) Possession of episode data file (related to claim 7)
Recognize events and recognize and store episodes as multiple events. Evaluate each event and the entire episode based on emotion.
It has an episode data file and recognizes and stores episodes.
O Episode Example The next three consecutive events are stored as one episode, and each event is stored as an event within that episode.
“Sakura is Saitama”
“The storm has come”
“Sakura has fallen”
○ Example of evaluation method by emotion of episode ・ Each episode includes a plurality of events, so the evaluation is based on the following method.
(Step 1) For each event, the evaluation of emotions such as “joyful” and “faint” is usually performed for the nouns of the subject in the order of noun => conversion by adjective conversion data file, conversion by adjective => emotion data file. And is expressed as a real value for each emotion.
(Step 2) For each emotion such as “joyful”, “bad”, etc., the average value and the maximum absolute value of the episode are obtained from the results of all the events of a certain episode.
(Step 3) For each emotion of a certain episode, for example, the evaluation result of the episode is obtained as follows.
Evaluation result of “joyful” = average value of “joyful” + maximum value of absolute value of “happy” (1.6.1) rule formation The same episode is repeated in the episode data file as follows. Alternatively, when there are a plurality of episodes including the same plurality of events (the same order), they are separately stored and used as rules.
"Examples of rules"
“Sora is about” and “Ame is covered” in multiple episodes
If there is, ““ Sora is about ”and“ Ame is full ”are stored as rules.
The number of epidods is also stored and used as rule reliability.
(1.6.2) Refinement (episode_noun)
Here, as shown below, this function of associating a certain episode with one noun and having information indicating the detailed contents of the noun in the noun is read as epinode_noun.
This can be registered as “Hanami” for the next three episodes.
“Sakura is Saitama”
“There was a feast”
“There was a salmon”
For example, the episode number is 5.
At this time, when inputting, if specified as follows, it is stored as detailed information as “Hananami”.
(1.6.3) Warning When the next episode is memorized ""
“There was a thorn”
For “Rose” input => “Keep it thorny”
The robot says, “In response to the storm”, => “Nigero!”.
(1.6.4) Various emotional expressions When the episode consists of the following three events (for example, episode 5), when this episode (episode 5) is input or associated, "Sakura is Saisai""Sakura" Because there is =>"I'mglad"
“Suri was there” “Suri” was there => “Ikari”
“A storm has come” “A storm has come” => “Scare”
=> Emotional expressions of “joyful”, “Ikari” and “Scared”.
(1.6.5) Response to the “current” state The “current” situation is a special state where “joy” and “fear” are directly realized, so the event just entered As for the episode and the current state, the robot responds to the human being with great concern.
“Sakura is Saitama” => Sometimes I hear “What happened to Sakura” with a “happy” face.
When the event “Sakura is lost” comes, it says “> Zanen!” And then stops.
“The storm has come” => “What happened to the storm” and “I ’m scared.”
(1.6.6) As an experience, as fun episodes increase, I often have fun faces through these associations, and it looks like a fun personality.
(1.6.7) Recognition and recognition of current events and past events (1.1) (1.2) (1.3) Recognize, evaluate and express emotions. At the time of input, the robot recognizes it as one of the current states, “Sakura is beautiful”, and now “is”, so it always has a “happy” emotion and keeps a happy face. Emotion of (1.4) => Action conversion data causes an action such as “I want Sakura!”
Also, keep listening to “What happened to Sakura?” Regularly. Return to the original state with “Sakura hachi”.
"Sakura is Sai" here
“Sakura has fallen”
Is memorized as one episode. Each event is stored as an event in the episode. Also, with “storming,” all events disappear and the same episode ends.
・ Associating related episodes, warnings, etc.
"Mechanism other than configuration"
In the following (1.7) and after, mechanisms other than the configuration are shown.
(1.7) Organization of association and memory (related to claim 9)
Associating general knowledge and episodes from data items of general knowledge files and episode files. Associations are mainly focused on those with high evaluation results based on emotions. The more frequently associated, the more memorable it is. Memories that have not been associated for a long time are rejected. This organizes the memory.
(1.7.1) Associations are performed mainly for those with high evaluation results based on emotions.
Here, a noun and an episode associated with each are selected from a general knowledge file and an episode data file by random numbers.
"Example of association method considering evaluation result by emotion"
An example is shown below. Capture by a combination of these.
Example 1. Evaluate the value for each episode in advance, and when searching with uniform random numbers, the range corresponding to each episode is expanded in proportion to the value, so that episodes within the entire range of uniform random numbers The assigned range for each episode is automatically calculated in numerical order. As a result, episodes are searched with uniform random numbers and associated.
The same applies to general knowledge.
Example 2. The number of times associated with each episode is stored, and the width of each episode obtained in Example 1 is adjusted with the number of associations as a weight. Thereby, it is considered possible to consider the effect of strengthening memory by association. However, in this case, it is necessary to determine the upper limit of reinforcement.
The same applies to general knowledge.
Example 3 When the value of the associated episode is lower than a predetermined value, the association is interrupted. The same applies to general knowledge.
Example 4 A plurality of episodes (for example, 3 episodes) are searched and evaluated as candidates, and the episode having the maximum absolute value is associated with them.
In addition, the association is accompanied by emotion, and the emotion is displayed at the time of each association.
The content that is associated with the question "What's wrong".
(1.7.2) The more frequently associated, the more memorized it is.
(1.7.1) As shown in Example 2, the number of associations is stored for each episode, and is used for association and the like. In addition, episodes that are hardly associated are processed by erasure or the like.
(1.8) Use emotion information for intelligence by Bayesian decision. (Claim 10)
Bayesian decisions are expressed as follows:
“Choose a way to probabilistically maximize the sum of values (generally multiple)”
For this reason, such a function is incorporated by the following logic.
Assume the next episode.
Example. Episode 5 “I went to Koen”
“Sakura was here”
Episode 37 “I went to Koen”
“There was Yuenchi”
Episode 55 “I went to Koen”
“There was a feast”
In such a case, searching for the episode data file with “Kouen”
The total value of these episodes is considerably higher because of the higher emotional value of the corresponding episode with “Kouen” or “Kouen Goto”.
Through these data processing, it is determined that “I want to go to this place!”
By this method, emotions, that is, evaluation results can be used for intellectual acts such as discovery of means.
It can be used as follows.
(1.8.1) Short-term It is still possible to find the most effective means for solving problems.
(1.8.2) Long-term Search for “what you can get a lot of value” in the long-term and say what you want to do.
(1.8.3) Say hope.
(1.9) Warning If there is a memory of the next episode,
“Rose Saitama”
“There was a thorn”
Again, in response to the input of “rose rose” or “rose”
The robot responds with “Take care to thorn!”.
(1.10) Reflecting personality (related to claim 11)
Since the robot has parameters corresponding to emotions such as “joyful” and “happy”, by applying a weight variable to each of these variables, the robot strengthened these emotions and emphasized “joyfulness”. A lot of “joyful” episodes are associated with the face, and the optimistic personality is easily reflected. Pessimistic personality can be easily considered in the structure as well.
(1.11) Expression of arousal level (related to claim 12)
When the awakening level parameter is set and late at night, the awakening state is reduced according to time. In response to the value of this parameter, the face size of the face is narrowed and the movement is slowed down.
The arousal level is taken into account by slowing the movement of the eyebrows and the mouth.
(1.12) Improvement of human behavior by using “Shiishi” “Shitai” is an adjective, but it is used as follows.
“Usage examples of“ Shitai ””
Key in something to the robot.
=> The robot asks "Who?"
=> Enter "Taro" and answer.
=> The robot stores “Taro”.
=> Start the robot several times, and “Who?” (Robot question), “Taro”
As we repeat, the adjective “Shitai” is the attribute of “Taro”
However, it becomes stronger gradually. “Taro is really good”
And the expression of “happy” face is made by inputting “Taro”.
“Effects of“ Shi ”” Consideration Robots can have multiple relationships. Feeling sympathy.
(2) Neural circuit configuration (related to claim 5)
(2.1) Noun => Adjective => Neural circuit structure by emotion Noun => Adjective conversion data file, Adjective => By possessing emotion data file, it has a network structure as shown in FIG.
・ Can build diverse relationships.
In addition to the information by words, as shown in FIG. 3, it is easy in terms of construction to incorporate digital information obtained by vectorizing an image, digital information of sound, and the like through a neural circuit.
(Note) Note that the strength of each connection indicated by the arrow in the neural network in Fig. 3 is as specified in (1.2) and (1.3), "Sakura is very beautiful", "Kei The strength is determined by information such as “very nice” and “very”.
(2.2) Hierarchical structure of noun itself Noun => Adjective conversion data file is, for example,
It has a hierarchical structure such as “Sakura Hana”, “Hana Hakushokubu”
If “Hana is beautiful” is entered, even if “Sakura” is not necessary,
Asked, “Sakura is beautiful?”
(2.4) Possible chaotic behavior (related to claim 6)
・ Association ・ Select action. Corresponds to section (1.4).
・ When there are multiple events as “current” events, decide which one to listen to.
Corresponds to section (1.6).
Etc. (3) Emotional expression at each time point (claim 3)
(3.1) Determine facial expressions for emotions such as “joyful” and “faint” (depending on eyebrow shape, mouth shape, eye size, etc.). When the strength of each emotion is reflected by weight and multiple emotions are included, the facial expression is determined by the algebraic sum of them.

「課題を解決する手段」の各節に対する効果を、以下に列記する。
・(1.1)〜(1.6)に対する効果。
(1.1)〜(1.6)等で名詞、事象、エピソード等が、感情に結びつけられる。
・入力や連想された情報に対し感情により評価し、連想、記憶の整理、警告((16.3)節)、アクション((1.4)節)、希望((18.2)節)等に結びつけられる。
・連想が、連想対象の感情による評価価値(絶対値)等に依存し、連想される。
・(1.6)エピソードデータファイルの所持に対する効果
(1.3.1)のファイルと(1.1)のファイルとともに、エピソードは認識され、ロボットは応答するが、同時に記憶、保持される。
(1.6.1)ルール化
(1.6.2)名詞の詳細化
(1.6.3)警告
(1.6.4)多様な感情表現
(1.6.5)“現在”の状態に対する応答
(1.6.6)経験として、楽しいエピソード増えると、それらの連想を通し、楽しい顔をすることが多くなり、楽しい性格に見える。
・(1.7)連想の効果
(1.7.1)知識の整理
(1.7.2)人的感じを増やす。
表情から“どうしたの”の質問に対し、連想していること、現在のこと等いう。
・(1.8)ベイズ的決定等による感情の情報を知能化に利用する。
・(1.9)警告
・(1.10)ロボットに楽天的、悲観的等の性格を持たすことが容易にできる。
・(1.11)覚醒レベルの表現
・(1.12)“したしさ”のとりこみによる人間関係、顔等への感情表現、人への同情心等を生じさせることができる。
・(2)神経回路的構成に関する効果
(2.1)名詞=>形容詞=>感情 による神経回路構造
(2.2)名詞自体の階層構造
(2.3)カオスの利用
これらにより、次の効果が得られる。
(2.1)プログラミングを変えることなく、ロボットを賢くできる。
(2.2)人の持つような、複雑な感情を効率的に作れる。
(2.3)ベクトル情報で表される画像イメージ情報、音声情報等の情報を、複数形容詞に繋げることにより、これらの情報を容易に取り込める。
=>この場合複数画像情報の、中間的画像の判断等もできる。
これによりさらに、
(2.3)学習ができる。例えば、フィードフォワード学習、バックプロパげーション学習等がある。
(2.4)カオスの利用による人的挙動
(3)各種入力に対する応答
既に説明した手段により、どのような入力があったとき、どのように各機能がはたらき応答するかの概略を示す。
(3.1)名詞に入力に対して
名詞は一般知識ファイル、エピソードファイル、形容詞=>感情変換ファイルで、感情に変換される。
さらに、感情=>アクション変換データファイルでアクションが選ばれ、“ほしい!”等とロボットは言う。
(3,2)“さくら は きれい”等の一般情報として入力されたとき
“さくら”、“きれい”等をロボットが解釈できるとき、上記(3.1)節と同様に行われる。
(3.3)“あらし が きた”等の事象あるいはエピソードが入力されたとき
“あらし が ある”と解釈され、(3.1)節と同様に、感情で“こわい”等と 評価され、感情=>アクション変換データファイルで、“にげろ!”等と警告する。
The effects on each section of “Means for solving problems” are listed below.
-Effects on (1.1) to (1.6).
In (1.1) to (1.6) etc., nouns, events, episodes, etc. are linked to emotions.
・ Evaluate input and associated information by feelings, associating, organizing memories, warning (section (16.3)), action (section (1.4)), hope (section (18.2)), etc. Tied to
・ Association depends on the evaluation value (absolute value) or the like of the emotion of the object of association.
(1.6) Effect on possession of episode data file The episode is recognized and the robot responds together with the file of (1.3.1) and the file of (1.1), but is stored and held at the same time.
(1.6.1) Rule making (1.6.2) Noun refinement (1.6.3) Warning (1.6.4) Various emotional expressions (1.6.5) “Current” Response to the condition (1.6.6) As an experience, as fun episodes increase, through the associations, people often have fun faces and look like a fun personality.
・ (1.7) Effect of association (1.7.1) Arrangement of knowledge (1.7.2) Increase human feeling.
This is what you are associating to the question “What's wrong” from your facial expression.
・ (1.8) Use emotional information from Bayesian decision etc. for intelligence.
(1.9) Warning (1.10) It is easy to give the robot a personality such as optimism and pessimism.
(1.11) Expression of arousal level (1.12) It is possible to generate human relations, emotional expression to the face, sympathy for the person, etc. by incorporating “Sashisa”.
・ (2) Effects on neural circuit structure (2.1) Noun => Adjective => Neural circuit structure by emotion (2.2) Hierarchical structure of noun itself (2.3) Use of chaos Is obtained.
(2.1) The robot can be wise without changing programming.
(2.2) Efficiently create complex emotions that people have.
(2.3) By connecting information such as image image information and audio information represented by vector information to plural adjectives, it is possible to easily capture such information.
=> In this case, it is possible to determine an intermediate image of the multiple image information.
This further
(2.3) Learning is possible. For example, there are feed-forward learning, back-property learning, and the like.
(2.4) Human behavior due to the use of chaos (3) Response to various inputs The outline of how each function works and responds when there is an input by the means already described.
(3.1) For input to nouns Nouns are general knowledge files, episode files, adjectives => emotion conversion files, and are converted into emotions.
Furthermore, the action is selected in the emotion => action conversion data file, and the robot says "I want it!"
(3, 2) When entered as general information such as “Sakura is beautiful” When the robot can interpret “Sakura”, “Pretty”, etc., it is performed in the same way as in section (3.1) above.
(3.3) When an event or episode such as “Raise is coming” is input, it is interpreted as “There is a storm” and, as in Section (3.1), the emotion is evaluated as “Scared”. => The action conversion data file warns "Negero!"

「脳の基本機能」"Basic functions of the brain" 「ロボットで実現した仕組み」"Mechanism realized by robot" 「神経回路網的構成と、機能追加の仕組み」`` Neural network configuration and function addition mechanism '' 「計算機画面上で表示した場合の顔の表示例」"Example of face display when displayed on a computer screen" 「ソフトウェアー化のフローチャート例」"Example of software flow chart" 「ソフトウェアー化のフローチャート例」"Example of software flow chart" 「ソフトウェアー化のフローチャート例」"Example of software flow chart"

本制御方法を電子計算機で作成し、グラフィック機能により、グラフィック上のロボットのソフトウェアとして実現できる。このとき各時点でロボットが持つ顔の中の眼球、まゆ、口等の動きを、別途ソフトウェアーを介しモータにつなぎ、ロボットの表現することばを表示することにより、感情表現し、応答するハードウェアーとしての脳型ロボットになる。
実施例 本制御を実現する例をして、フローチャートを、図5−1、図5−2、図5−3に示す。また、ロボットを電子計算機上で実現した場合の例を、図4に示す。
This control method is created by an electronic computer, and can be realized as graphic robot software by a graphic function. Hardware that expresses emotions and responds by connecting the movement of the eyeball, eyebrows, mouth, etc. in the face of the robot at each time point to a motor via separate software and displaying the words expressed by the robot Become a brain-type robot.
Example The example which implement | achieves this control is shown to FIGS. 5-1, FIG. 5-2, and FIG. 5-3. FIG. 4 shows an example in which the robot is realized on an electronic computer.

産業上の利用可能性発明を実施するための形態Industrial Applicability Modes for carrying out the invention

利用可能例
例1.本制御方法を、電子計算機とその画面により、顔を画像表示し、脳の構成を持っ た人的に挙動するロボットを作成することができる。
例2.本制御方法により、人的に挙動する例えばペットロボット等を作成することがで きる。
例3.従来、広く開発され、あるいは実用されているロボット、例えば案内等を行う二 足歩行ロボット等にも、本制御方法を適用し、人的に振る舞う要素を加えることがで きる。
Example of use Example 1. With this control method, it is possible to create a human-behaving robot with a brain structure that displays an image of the face using an electronic computer and its screen.
Example 2. With this control method, it is possible to create a pet robot or the like that behaves humanly.
Example 3 Conventionally, this control method can be applied to robots that have been widely developed or put to practical use, such as bipedal walking robots that provide guidance, etc., and elements that behave humanly can be added.
etc

Claims (13)

感情を表す扁桃体的、総合的知的判断を行う前頭前野的機能、各種データの保存(記憶)と利用(データ取り出し)等、脳の骨組み的構造を持たせ機能させることで、人的すなわち人のように振る舞わせ、プログラミングを変えず、この脳的仕組みにより、データの蓄積とともに賢くなる等挙動、応答が改良され変わる脳型感情表現ロボットの制御方法。  Human, that is, human by having the brain's skeletal structure and functioning, such as prefrontal functions that make amygdala and comprehensive intellectual judgments expressing emotions, storage (memory) and use (data retrieval) of various data This is a control method for a brain-type emotional expression robot that does not change the programming and does not change programming, and changes its behavior and response, such as becoming smarter with the accumulation of data. 感情を情報の中心に置き、そのために感情が、評価、記憶、連想、判断、警告、アクション、希望表現、感情表現等多様に利用される脳型感情表現ロボットの制御方法。  A control method for a brain-type emotion expression robot in which emotions are placed at the center of information, and emotions are used in various ways such as evaluation, memory, association, judgment, warning, action, expression of hope, expression of emotion. 請求項1および請求項2で、脳的でかつ感情が中心に働くが、その刻々の感情状態、特に複数の感情からなる複雑な感情等も、顔の表情を中心に、表現させる機能を持った脳型感情表現ロボットの制御方法。  In claim 1 and claim 2, the brain is emotional and it works mainly, but it has the function to express the emotional state of every moment, especially complex emotions composed of multiple emotions, mainly with facial expressions. To control a brain-type emotional expression robot. 予め持たせるデータは少なくても人的ロボットとして挙動し、ロボットが知らないとき教えることにより解決される制御方法で、かつ外部からのデータ入力により、ロボットの示す人的感じを失わない脳型感情表現ロボットの制御方法。  Brain-like emotions that can act as a human robot even if the data to be held in advance is small, and that can be solved by teaching when the robot does not know, and that does not lose the human feeling of the robot by external data input Expression robot control method. 神経回路の構造と機能を持つことにより、
プログラミングを新たに追加修正をせず、データの蓄積や自動的データの整理により賢くなる等、ロボットの挙動、応答が改良される等変化し、
また、ドット情報等の画像のベクトル情報、デジタル音声のベクトル情報等の言語以外の信号情報を容易に組み込め、神経回路の持つ学習機能その他の一般的機能を容易に取り込める仕組みを持った脳型感情表現ロボットの制御方法。
By having the structure and function of the neural circuit,
Changes such as improved robot behavior and response, such as becoming smarter by accumulating data and automatically organizing data, without newly adding and modifying programming,
In addition, brain-type emotions that can easily incorporate non-language signal information such as image vector information such as dot information and digital audio vector information, and can easily incorporate learning functions and other general functions of neural circuits. Expression robot control method.
人的感じを与える応答性を高めることや、その他の目的で、カオス変動を、各種に利用している脳型感情表現ロボットの制御方法。  A control method for a brain-type emotional expression robot that uses chaos fluctuations in various ways to enhance the responsiveness of giving a human feeling and for other purposes. エピソードデータファイルを構造として持ち、各種に有効に利用され、各エピソードは、通常、複数の事象を持つが、このデータにより、賢さを含む各種の人的応答を高めることができ、ルール化されたときは、ルールのデータも蓄積され、各種に利用される脳型感情表現ロボットの制御方法。  It has an episode data file as a structure and is used effectively in various ways.Each episode usually has multiple events, but this data can enhance various human responses including wisdom and be ruled out. When this happens, rule data is also stored and used to control the brain-type emotion expression robot. 名詞(オブジェクトに対応)のデータセットとして、階層構造を持った構造を持ち、上位オブジェクトからの属性の下部オブジェクトへの継承を含む機能を持たせ、より人的に振る舞わせれる脳型感情表現ロボットの制御方法  As a data set of nouns (corresponding to objects), it has a hierarchical structure, has a function including inheritance of attributes from the upper object to the lower object, and makes the brain-type emotion expression robot behave more humanly Control method 一般知識、エピソードデータ等に蓄積されたデータに対し連想を行い、それにより、より人的挙動が増えるとともに、正の価値でも負の価値でも、価値の絶対値の高い知識やエピソードが優先的に連想され、必要なデータは記憶が強められ、不要なデータは、捨てられ整理される等、多様に連想が利用される脳型感情表現ロボットの制御方法  Associating data accumulated in general knowledge, episode data, etc., thereby increasing human behavior and giving priority to knowledge and episodes with high absolute values, both positive and negative A method for controlling a brain-type emotion expression robot that uses associations in various ways, such as associating and strengthening the memory of necessary data and discarding and organizing unnecessary data 神経回路的構造における感情(名詞に対応したオブジェクトや、エピソードの評価等)を、短期的問題解決や、進歩するための長期的方法の選択等の、知能化に利用する仕組みを持った脳型感情表現ロボットの制御方法。  A brain type with a mechanism that uses emotions in neural circuit structures (objects corresponding to nouns, evaluation of episodes, etc.) for short-term problem solving and long-term method selection for progress, etc. Emotion expression robot control method. 感情を情報の中心にして、“うれしい”、“かなしい”等、典型的感情を含んでいることから、それらに重み変数を加え、重みの値を変えること等により、楽天的、悲観的等性格を容易に組み込むことができ、楽天的性格の場合、楽天的な顔の表情、判断等々をするロボットの脳型感情表現ロボットの制御方法。  Since emotions are the center of information, typical emotions such as “joyful” and “faint” are included. By adding weight variables to them and changing the weight values, etc., the personality is optimistic and pessimistic. Can be easily incorporated, and in the case of an optimistic personality, a robotic emotion expression robot control method that makes an optimistic facial expression, judgment, etc. 顔の表情を、刻々の眼の動き、眼の大きさ、眉の動き、口の動き等を計算し表示しているため、覚醒レベルを、顔の表情等で容易に組み込める脳型感情表現ロボットの制御方法。  A brain-type emotion expression robot that can easily incorporate the arousal level with facial expressions, etc., as facial expressions are calculated and displayed by momentary eye movement, eye size, eyebrow movement, mouth movement, etc. Control method. すべての請求項で、電子計算機画面上で機能する顔を持った脳的に機能するロボットのソフトウェアーとして実現できる脳型感情表現ロボットの制御方法  A method for controlling a brain-type emotion expression robot that can be realized as software for a brain functioning robot with a functioning face on an electronic computer screen in all claims
JP2012120224A 2012-05-08 2012-05-08 How to control a brain-type emotional expression robot Active JP6792831B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012120224A JP6792831B2 (en) 2012-05-08 2012-05-08 How to control a brain-type emotional expression robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012120224A JP6792831B2 (en) 2012-05-08 2012-05-08 How to control a brain-type emotional expression robot

Publications (2)

Publication Number Publication Date
JP2013235548A true JP2013235548A (en) 2013-11-21
JP6792831B2 JP6792831B2 (en) 2020-12-02

Family

ID=49761596

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012120224A Active JP6792831B2 (en) 2012-05-08 2012-05-08 How to control a brain-type emotional expression robot

Country Status (1)

Country Link
JP (1) JP6792831B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106354034A (en) * 2016-07-30 2017-01-25 杨超坤 Emotion-controlled control switch

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09251553A (en) * 1996-03-14 1997-09-22 Toshiba Corp Body action generating device and body action control method
JPH10340268A (en) * 1997-06-05 1998-12-22 Masahiro Ogawa Computer-readable recording medium where program allowing computer to converse with human is recorded
JP2000259601A (en) * 1999-03-05 2000-09-22 Masami Kato Conversation device and its method
JP2001175841A (en) * 1999-09-10 2001-06-29 Yamaha Motor Co Ltd Behavior adjustment system and method
JP2002215183A (en) * 2001-01-16 2002-07-31 Agi:Kk Method and apparatus for creating sensibility, and software
JP2002236681A (en) * 2001-02-09 2002-08-23 Inst Of Physical & Chemical Res Daily language computing system and method
JP2003099756A (en) * 2001-09-25 2003-04-04 Inst Of Physical & Chemical Res Method of forming artificial neural network structure obtained by modeling mental functions of brain
US20030115165A1 (en) * 2001-09-25 2003-06-19 Tetsuya Hoya Memory system for use of modeling psychological functions of the brain
JP2003256421A (en) * 2002-02-28 2003-09-12 Jackpot:Kk Character-type conversation system
WO2004036497A1 (en) * 2002-10-18 2004-04-29 Japan Science And Technology Agency Learning/thinking machine and learning/thinking method based on structured knowledge, computer system, and information generation method
JP2005222294A (en) * 2004-02-05 2005-08-18 Seiko Epson Corp Device and method for recognizing feeling of sentence and its program
JP2009123015A (en) * 2007-11-15 2009-06-04 Bbmedia Inc Brand ranking system and method
JP2010160669A (en) * 2009-01-08 2010-07-22 Linfops Kk Control method for robot

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09251553A (en) * 1996-03-14 1997-09-22 Toshiba Corp Body action generating device and body action control method
JPH10340268A (en) * 1997-06-05 1998-12-22 Masahiro Ogawa Computer-readable recording medium where program allowing computer to converse with human is recorded
JP2000259601A (en) * 1999-03-05 2000-09-22 Masami Kato Conversation device and its method
JP2001175841A (en) * 1999-09-10 2001-06-29 Yamaha Motor Co Ltd Behavior adjustment system and method
JP2002215183A (en) * 2001-01-16 2002-07-31 Agi:Kk Method and apparatus for creating sensibility, and software
JP2002236681A (en) * 2001-02-09 2002-08-23 Inst Of Physical & Chemical Res Daily language computing system and method
JP2003099756A (en) * 2001-09-25 2003-04-04 Inst Of Physical & Chemical Res Method of forming artificial neural network structure obtained by modeling mental functions of brain
US20030115165A1 (en) * 2001-09-25 2003-06-19 Tetsuya Hoya Memory system for use of modeling psychological functions of the brain
JP2003256421A (en) * 2002-02-28 2003-09-12 Jackpot:Kk Character-type conversation system
WO2004036497A1 (en) * 2002-10-18 2004-04-29 Japan Science And Technology Agency Learning/thinking machine and learning/thinking method based on structured knowledge, computer system, and information generation method
JP2005222294A (en) * 2004-02-05 2005-08-18 Seiko Epson Corp Device and method for recognizing feeling of sentence and its program
JP2009123015A (en) * 2007-11-15 2009-06-04 Bbmedia Inc Brand ranking system and method
JP2010160669A (en) * 2009-01-08 2010-07-22 Linfops Kk Control method for robot

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
松本 元: "脳研究から情報処理へ 脳型コンピュータの開発にむけて", 情報処理 第38巻 第5号, vol. 38, no. 5, JPN6016008881, 15 May 1997 (1997-05-15), JP, pages 369 - 375, ISSN: 0003272037 *
辻野 広司: "脳のこころ", 神経研究の進歩 NO.266, vol. Vol.50 No.1 Feb. 2006, JPN6016008878, 10 February 2006 (2006-02-10), JP, pages 161 - 171, ISSN: 0003616250 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106354034A (en) * 2016-07-30 2017-01-25 杨超坤 Emotion-controlled control switch

Also Published As

Publication number Publication date
JP6792831B2 (en) 2020-12-02

Similar Documents

Publication Publication Date Title
Xi et al. The rise and potential of large language model based agents: A survey
Taves et al. Experience as event: event cognition and the study of (religious) experiences
Sardar et al. The three tomorrows of postnormal times
Thagard et al. Inference to the best plan: A coherence theory of decision
Der Derian et al. ‘Quantizing international relations’: The case for quantum approaches to international theory and security practice
Khoury Intellectual property rights for hubots: On the legal implications of human-like robots as innovators and creators
Berenskoetter Reclaiming the vision thing: Constructivists as students of the future
Spackman et al. Embodied cognition, representationalism, and mechanism: a review and analysis
RU2670781C9 (en) System and method for data storage and processing
Hasselberger Ethics beyond computation: Why we can't (and shouldn't) replace human moral judgment with algorithms
Pudane et al. Human emotional behavior simulation in intelligent agents: processes and architecture
Dignum et al. What Is Artificial Intelligence?
Carsetti Causality, meaningful complexity and embodied cognition
Sánchez-Cañizares Entropy, quantum mechanics, and information in complex systems a plea for ontological pluralism
Martin Comment on geodesic cycle length distributions in delusional and other social networks
JP2013235548A (en) Control method for brain type emotion expressing robot
Franklin et al. Modeling cognition with software agents
Singh Habit Formation And The ACT-R: A Model Based on Perceptual Dynamics and Attentional Control
Lawhead Self-organization, emergence, and constraint in complex natural systems
Erkan Psychopower and Ordinary Madness: Reticulated Dividuals in Cognitive Capitalism
De Florio On environments as systemic exoskeletons: crosscutting optimizers and antifragility enablers
Manu The Philosophy of Disruption
Berman et al. Explaining predictions with enthymematic counterfactuals
Garcia Literary narrative as a cognitive structure in the brain
Der Derian et al. Quantum International Relations

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20120604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120805

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150506

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151028

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160308

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161129

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170606

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170815

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171115

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20171115

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20180123

C12 Written invitation by the commissioner to file intermediate amendments

Free format text: JAPANESE INTERMEDIATE CODE: C12

Effective date: 20180123

C27A Decision to dismiss

Free format text: JAPANESE INTERMEDIATE CODE: C2711

Effective date: 20180312

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180502

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20180509

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20180511

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20180517

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20180731

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20190416

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20190617

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20190919

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20191216

C30 Protocol of an oral hearing

Free format text: JAPANESE INTERMEDIATE CODE: C30

Effective date: 20200325

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20200407

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20200529

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200624

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200629

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20200825

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20201002

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20201007

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201023

R150 Certificate of patent or registration of utility model

Ref document number: 6792831

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250