JP2010160669A - ロボットの制御方法 - Google Patents
ロボットの制御方法 Download PDFInfo
- Publication number
- JP2010160669A JP2010160669A JP2009002235A JP2009002235A JP2010160669A JP 2010160669 A JP2010160669 A JP 2010160669A JP 2009002235 A JP2009002235 A JP 2009002235A JP 2009002235 A JP2009002235 A JP 2009002235A JP 2010160669 A JP2010160669 A JP 2010160669A
- Authority
- JP
- Japan
- Prior art keywords
- function
- fluctuation
- chaos
- robot
- control method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【解決手段】画面上で人および動物の動作を行わす画像ソフト、あるいはそれをハードウェア上で実現したロボットにおいて、動き(顔を向ける、歩く等々)、判断する、感情表現を行う等々の本来の機能が働いているとき、あるいは働いていないときに、本来の機能が働いているときには本来の機能を阻害することなく、カオス変動を変動の大きさを調整しつつほぼ常時与える機能を持たせる。カオス変動は、乱数またはカオス発生関数によることによる。
【選択図】なし
Description
なぜカオス変動が、ロボット等で生きた感じを与えるかについては、下記学会発表による。
平成20年日本神経科学会大会
日本語演題名:
ロボットになく生命体の持つ生きた感覚を与えるカオス的動きの持つ能力について
英語演題名:
About chaotic movement ability to express feelings of living creatures
different from robots
発表者:高瀬 光雄
例2〜6に関しては、例1と同様にカオス変動を組み込むことができる。
本来の注意を向ける動作を含むすべての状態に、カオス変動を入れるための本フローはパソコン等の画像ソフト上でも可能だが、ロボットにそのまま組み込むことも可能である。
本例では、パソコン上の画面で動画として行っている。顔の形を図1に、本来の物体に注意を向ける動作を含むすべての状態に、カオス変動を組み込む方法の作業手順をフローで、図2−1、図2−2、図2−3に示す。このフロー図により、パソコン等での動画の作成、ロボットの作成は可能だが、仕組みの骨組みは次による。
ステップ1「自由度の選択と各自由度の動き等の最大範囲、動作の最大間隔の指定」
ステップ2「タイマーの開始」
ステップ3「経過時間測定」
ステップ4「現在の経過時間tのときに、本来の物体に注意向ける動作を行っている場合、意志および注意の強さ、あるいは学習の程度の強さ、の評価」
ステップ5「t=0か、またはX≠Xoldの判定」(Xoldにはステップ9で値を入れる。t=0のときXold=0)
動作の始まり、またはステップ4で評価する“意志および注意の強さ、あるいは学習の程度の強さ”値Xの変化を判定する。
ステップ6「カオス変動を与える時、カオス変動巾の計算」
ステップ7「カオス変動動作を起こすかを判定する」
ステップ8「カオス変動動作の実施および次の変動動作の指定」
ステップ9「ステップ4で評価し入力したXのこの時点での値を、変数Xold に入れる。」
ステップ10「経過時間tの再設定」
例えば、カオスは次の関数により発生させることが知られている。
ここで、X0 = 0.25 Xn+1 = 2・Xn 0≦Xn≦1/2 のとき
Xn+1 = −2・Xn + 2 1/2<Xn≦1 のとき
n = 1, 2, …
本グラフの形を図3に示す。
ここでXn のわずかな変動Xn’ があると、
ΔXn = |Xn − Xn’|はΔXn+1 = |Xn+1 − Xn+1’|で2倍に拡大される。
Aの状態のときBを行う(運動、および判断等)ように学習(経験の繰り返し、および練習等)されているとき。
A−>Bと書ける。
変動ΔAが与えられると
A+ΔA―>B+ΔBとなる。
学習または意志が強いとΔB ≒ 0となる。つまり多少の変動ΔAがあっても、Bには変動はなくなるかほとんどなくなる。
学習が弱いとΔB大となり、誤差の拡大は大きくなる。
逆に、学習が全くないとA−>Bは全くなくなり、Bは任意な内容になる。
一般に誤差ΔAは感知できないことが多く、そのため学習の程度によりランダム値(乱数)を加えることでカオス変動を表している。
従って、ここでのカオス変動を表す例としてランダム変化を含めている。したがって乱数を用いた例を示している。
例2 音のする方向に注意を向ける時の動画またはロボット
組み込み方は例1と同様である。
例3 歩く動作をする動画あるいはロボット
歩く方向のとき方向、速さにカオス変動を与える。歩くこと自体は、図2−1のステップ4で述べたように、学習が強く働いているため、あるいは生まれつき備わった変動の少ない機能と考え、変動はほとんど与えないとする。い
何もしてないとき”を含み、表情、手足の動きにカオス変動を与える。
これらにより、本来の歩く等のロボットに生きた感じを与える。
例4(例1,2、3以外の)動作、運動をする動画またはロボット
例1,2,3とカオス変動の組み込み方は同様である。
例5「判断」を行う計算機上の機能またはロボットの場合
例1と同様に注意、意志の強さ、各状況での学習の強さに応じ、カオス変動を与えことで、本来の機能を阻害することなく生きた感じを強める。
例6「感情表現」をする動画、あるいはロボットの場合。
顔の表現が中心だが、身体による感情表現の場合もある。
例1の場合と同様に、この場合本来の機能が感情表現であり、感情の強さに反比例したカオス変動巾を大きくし、変動を起こす時間間隔を狭くすることで、生きた感じを強める。
これらの例に共通し例1での説明のように、本来の作用が「動き」「判断」「感情表現」であり、その各本来の動きに反比例しカオス変動を強め、変動の起こる間隔を狭くする。これらにより本来の機能を阻害することなく、かつ生きた感じを高める。
Claims (5)
- ロボットの本来の機能が働いているとき、あるいは働いていないときがあるが、これらのときを含むほぼ常時、カオス変動を生じさせるステップと、
本来の機能を阻害することなく変動の大きさを調整しつつカオス変動を与えるステップと
を持たせることを、特徴とするロボットの制御方法。 - カオス変動は、乱数またはカオス発生関数によることを特徴とする請求項1に記載のロボットの制御方法。
- 現在、本来の機能が働いているとき、注意、意志の程度、学習の強さを常時評価する機能を持ち、本来の機能が働いていないときは評価値はほぼ零とすることを特徴とする請求項2に記載のロボットの制御方法。
- 画像ソフトあるいはロボットが、本来の機能を行っているときを含む常時、前記変動の大きさを調節しつつ与えるステップで評価結果を反映させることを含み、評価結果を反映させる場合、評価結果が小さいときはカオス変動を大きくし変動を発生する時間間隔を短くする。評価結果が大きいときはカオス変動を小さくし発生する時間間隔を長くすることを特徴とする請求項2または3に記載のロボットの制御方法。
- 前記本来の機能は、動きを伴ったもの、動きを計算機上で画像表示するソフトウェアー、認識し判断し警告する機能を含む知能的機能を持ったもの、感情表現を含むことを特徴とする請求項4に記載のロボットの制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009002235A JP2010160669A (ja) | 2009-01-08 | 2009-01-08 | ロボットの制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009002235A JP2010160669A (ja) | 2009-01-08 | 2009-01-08 | ロボットの制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010160669A true JP2010160669A (ja) | 2010-07-22 |
Family
ID=42577781
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009002235A Pending JP2010160669A (ja) | 2009-01-08 | 2009-01-08 | ロボットの制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010160669A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013235548A (ja) * | 2012-05-08 | 2013-11-21 | Linfops Kk | 脳型感情表現ロボットの制御方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000148056A (ja) * | 1998-11-10 | 2000-05-26 | Toyobo Engineering Kk | ランダム制御式マネキン類 |
JP2006123127A (ja) * | 2004-10-29 | 2006-05-18 | Sony Corp | ロボット装置及びその動作制御方法 |
JP2007069302A (ja) * | 2005-09-07 | 2007-03-22 | Hitachi Ltd | 動作表出装置 |
JP2007125631A (ja) * | 2005-11-01 | 2007-05-24 | Sony Corp | ロボット装置及びその行動制御方法 |
-
2009
- 2009-01-08 JP JP2009002235A patent/JP2010160669A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000148056A (ja) * | 1998-11-10 | 2000-05-26 | Toyobo Engineering Kk | ランダム制御式マネキン類 |
JP2006123127A (ja) * | 2004-10-29 | 2006-05-18 | Sony Corp | ロボット装置及びその動作制御方法 |
JP2007069302A (ja) * | 2005-09-07 | 2007-03-22 | Hitachi Ltd | 動作表出装置 |
JP2007125631A (ja) * | 2005-11-01 | 2007-05-24 | Sony Corp | ロボット装置及びその行動制御方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013235548A (ja) * | 2012-05-08 | 2013-11-21 | Linfops Kk | 脳型感情表現ロボットの制御方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | Random curiosity-driven exploration in deep reinforcement learning | |
US20170011604A1 (en) | Virtual sensor in a virtual environment | |
Nagendran et al. | A unified framework for individualized avatar-based interactions | |
Tencé et al. | The challenge of believability in video games: Definitions, agents models and imitation learning | |
Louis et al. | Is it real? measuring the effect of resolution, latency, frame rate and jitter on the presence of virtual entities | |
Bown et al. | The machine as autonomous performer | |
Park et al. | Generation of realistic robot facial expressions for human robot interaction | |
Meng et al. | Robots learn to dance through interaction with humans | |
Hansen | The dramaturgy of performance generating systems | |
Schwartz et al. | The immersive VR self: performance, embodiment and presence in immersive virtual reality environments | |
TW202117498A (zh) | 化身臉部表情產生系統及化身臉部表情產生方法 | |
Saberi et al. | Expressing personality through non-verbal behaviour in real-time interaction | |
Zhang et al. | Robotic sonification for promoting emotional and social interactions of children with ASD | |
Bevacqua et al. | INGREDIBLE: A platform for full body interaction between human and virtual agent that improves co-presence | |
Slater et al. | Is consciousness first in virtual reality? | |
JP2010160669A (ja) | ロボットの制御方法 | |
Martinho et al. | Emotions for a motion: Rapid development of believable pathematic agents in intelligent virtual environments | |
Gamez et al. | Two simulation tools for biologically inspired virtual robotics | |
Meyer et al. | A model for sensorimotor affordances in virtual reality environments | |
Harris et al. | Exploring emotive actuation and its role in human-robot interaction | |
US20210263582A1 (en) | Systems and methods for automated control of human inhabited characters | |
Selvarajah et al. | The use of emotions to create believable agents in a virtual environment | |
Antunes et al. | Real-time behavioral animation of humanoid non-player characters with a computational ecosystem | |
Larsen et al. | “Well, That was Quick”–towards storyworld adaptivity that reacts to players as people | |
Paplu et al. | Real-time emotion appraisal with circumplex model for human-robot interaction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120106 |
|
A977 | Report on retrieval |
Effective date: 20120926 Free format text: JAPANESE INTERMEDIATE CODE: A971007 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121002 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121126 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130116 |
|
RD02 | Notification of acceptance of power of attorney |
Effective date: 20130116 Free format text: JAPANESE INTERMEDIATE CODE: A7422 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130116 |
|
A521 | Written amendment |
Effective date: 20130325 Free format text: JAPANESE INTERMEDIATE CODE: A523 |
|
A02 | Decision of refusal |
Effective date: 20130528 Free format text: JAPANESE INTERMEDIATE CODE: A02 |
|
A521 | Written amendment |
Effective date: 20130829 Free format text: JAPANESE INTERMEDIATE CODE: A523 |