JP2010160669A - ロボットの制御方法 - Google Patents

ロボットの制御方法 Download PDF

Info

Publication number
JP2010160669A
JP2010160669A JP2009002235A JP2009002235A JP2010160669A JP 2010160669 A JP2010160669 A JP 2010160669A JP 2009002235 A JP2009002235 A JP 2009002235A JP 2009002235 A JP2009002235 A JP 2009002235A JP 2010160669 A JP2010160669 A JP 2010160669A
Authority
JP
Japan
Prior art keywords
function
fluctuation
chaos
robot
control method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009002235A
Other languages
English (en)
Inventor
Mitsuo Takase
光雄 高瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Linfops
LINFOPS KK
Original Assignee
Linfops
LINFOPS KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Linfops, LINFOPS KK filed Critical Linfops
Priority to JP2009002235A priority Critical patent/JP2010160669A/ja
Publication of JP2010160669A publication Critical patent/JP2010160669A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】ロボット等の表現を工夫し、それらの本来の機能としての動作、判断等を阻害することなく、その表現に生命感を与えること。
【解決手段】画面上で人および動物の動作を行わす画像ソフト、あるいはそれをハードウェア上で実現したロボットにおいて、動き(顔を向ける、歩く等々)、判断する、感情表現を行う等々の本来の機能が働いているとき、あるいは働いていないときに、本来の機能が働いているときには本来の機能を阻害することなく、カオス変動を変動の大きさを調整しつつほぼ常時与える機能を持たせる。カオス変動は、乱数またはカオス発生関数によることによる。
【選択図】なし

Description

ロボットの本来の機能として、動き(顔を向ける、歩く等々)や判断、感情表現等の機能の一つづつあるいは複数を持つロボット、あるいは、それらの機能を計算機上等で実現した画像ソフトで、特にペット型ロボットを含むロボットやソフトでは、より生命を持ったように見える生きた表現を表すロボットやソフトが求められる。これらのロボットやソフトで本来の機能を阻害することなく生命体的生きた表現を高めることを目的とした方法を示す。
ロボットの本来の機能として、動き(顔を向ける、歩く等々)をする、状況から判断をし警告をする、感情表現をする等の機能があるが、それらの一つあるいは複数をもつロボットが作られている。あるいは、それらの機能を計算機上等で実現した画像ソフトもある。しかし、特にそれらのロボットを見るとき、本来の生物は、動作や、判断等の機能の仕方により生命体独特の生きた感じを表しているにもかかわらず、ロボットは生命体とは全く違う一見してわかる違いがある。このことは画像ソフトについても同様にあてはまる。また、感情(嬉しい、悲しい、寂しい等々)を顔の表現等で表すロボットについてさえも言える。
特にロボットでは、動作をするロボットのみでなく感情表現をするロボットでも、生命を持った生命体の表現とははっきり違う、生命のない機械としての表現を持ち。生命体とはすぐに区別がつく。他方本当の生命体も、物体の動作、判断等機能の仕方により生命体独特の生きた感じを表していることは確かである。そのため、ロボット等の表現に工夫をし、それらの本来の機能としての動作、判断等を阻害することなく、その表現を生命体の感じに近づけることを目的としている。
画面上で人および動物の動作を行わす画像ソフト、あるいはそれをハードウェア上で実現したロボットにおいて、動き(顔を向ける、歩く等々)、判断する、感情表現を行う等々の本来の機能が働いているとき、あるいは働いていないときに、本来の機能が働いているときには本来の機能を阻害することなく、カオス変動を変動の大きさを調整しつつほぼ常時与える機能を持たせることを特徴とする。
なぜカオス変動が、ロボット等で生きた感じを与えるかについては、下記学会発表による。
平成20年日本神経科学会大会
日本語演題名:
ロボットになく生命体の持つ生きた感覚を与えるカオス的動きの持つ能力について
英語演題名:
About chaotic movement ability to express feelings of living creatures
different from robots
発表者:高瀬 光雄
カオス変動は、乱数またはカオス発生関数によることを特徴とする。
現在、上記の本来の機能が働いているとき、注意、意志の程度、学習の強さ等を評価する機能を持つことを特徴とする。本来の機能が働いていないときは評価値はほぼ零とする。これらは十分短い時間間隔で常時現在の状態をチェックし、評価を行い下記で反映させる。
画像ソフトあるいはロボットが、上記の本来の機能を行っているときを含む常時、上記の評価結果を反映させ、評価結果が小さいときはカオス変動を大きくし変動を発生する時間間隔を短くする。評価結果が大きいときはカオス変動を小さくし発生する時間間隔を長くすることを特徴とする。
従来のロボットよりも、生命体の持つ生きた表現を、本来の機能を害することなく与えられ、より生きているような表現を高め、より親しみを感じる動きをさせることができる。
「動く物質を目を追う顔の動作」にカオス変動を入れることで、生きた感じを生じさせる方法を示すための顔の動作の例 「動く物体を目で追う顔の動作フローチャート」 「動く物体を目で追う顔の動作フローチャート」 「動く物体を目で追う顔の動作フローチャート」 カオスを発生する関数のグラフの例
具体例を例1〜6に示す。特に、例1に具体例を詳細に示した。
例2〜6に関しては、例1と同様にカオス変動を組み込むことができる。
例1「動く物体を目で追う顔の動作」にカオス変動を入れることで、生きた感じを生じさせる方法の組み込み方法
本来の注意を向ける動作を含むすべての状態に、カオス変動を入れるための本フローはパソコン等の画像ソフト上でも可能だが、ロボットにそのまま組み込むことも可能である。
本例では、パソコン上の画面で動画として行っている。顔の形を図1に、本来の物体に注意を向ける動作を含むすべての状態に、カオス変動を組み込む方法の作業手順をフローで、図2−1、図2−2、図2−3に示す。このフロー図により、パソコン等での動画の作成、ロボットの作成は可能だが、仕組みの骨組みは次による。
ステップ1「自由度の選択と各自由度の動き等の最大範囲、動作の最大間隔の指定」
ステップ2「タイマーの開始」
ステップ3「経過時間測定」
ステップ4「現在の経過時間tのときに、本来の物体に注意向ける動作を行っている場合、意志および注意の強さ、あるいは学習の程度の強さ、の評価」
ステップ5「t=0か、またはX≠Xoldの判定」(Xoldにはステップ9で値を入れる。t=0のときXold=0)
動作の始まり、またはステップ4で評価する“意志および注意の強さ、あるいは学習の程度の強さ”値Xの変化を判定する。
ステップ6「カオス変動を与える時、カオス変動巾の計算」
ステップ7「カオス変動動作を起こすかを判定する」
ステップ8「カオス変動動作の実施および次の変動動作の指定」
ステップ9「ステップ4で評価し入力したXのこの時点での値を、変数Xold に入れる。」
ステップ10「経過時間tの再設定」
「カオスとランダムの違いの明確化、およびここでは乱数も用いている理由」
例えば、カオスは次の関数により発生させることが知られている。
ここで、X0 = 0.25 Xn+1 = 2・Xn 0≦Xn≦1/2 のとき
Xn+1 = −2・Xn + 2 1/2<Xn≦1 のとき
n = 1, 2, …
本グラフの形を図3に示す。
ここでXn のわずかな変動Xn’ があると、
ΔXn = |Xn − Xn’|はΔXn+1 = |Xn+1 − Xn+1’|で2倍に拡大される。
Aの状態のときBを行う(運動、および判断等)ように学習(経験の繰り返し、および練習等)されているとき。
A−>Bと書ける。
変動ΔAが与えられると
A+ΔA―>B+ΔBとなる。
学習または意志が強いとΔB ≒ 0となる。つまり多少の変動ΔAがあっても、Bには変動はなくなるかほとんどなくなる。
学習が弱いとΔB大となり、誤差の拡大は大きくなる。
逆に、学習が全くないとA−>Bは全くなくなり、Bは任意な内容になる。
一般に誤差ΔAは感知できないことが多く、そのため学習の程度によりランダム値(乱数)を加えることでカオス変動を表している。
従って、ここでのカオス変動を表す例としてランダム変化を含めている。したがって乱数を用いた例を示している。
例1以外の「動作」に関係した動画またはロボットに関して例2、例3、例4がある。
例2 音のする方向に注意を向ける時の動画またはロボット
組み込み方は例1と同様である。
例3 歩く動作をする動画あるいはロボット
歩く方向のとき方向、速さにカオス変動を与える。歩くこと自体は、図2−1のステップ4で述べたように、学習が強く働いているため、あるいは生まれつき備わった変動の少ない機能と考え、変動はほとんど与えないとする。い
何もしてないとき”を含み、表情、手足の動きにカオス変動を与える。
これらにより、本来の歩く等のロボットに生きた感じを与える。
例4(例1,2、3以外の)動作、運動をする動画またはロボット
例1,2,3とカオス変動の組み込み方は同様である。
例5「判断」を行う計算機上の機能またはロボットの場合
例1と同様に注意、意志の強さ、各状況での学習の強さに応じ、カオス変動を与えことで、本来の機能を阻害することなく生きた感じを強める。
例6「感情表現」をする動画、あるいはロボットの場合。
顔の表現が中心だが、身体による感情表現の場合もある。
例1の場合と同様に、この場合本来の機能が感情表現であり、感情の強さに反比例したカオス変動巾を大きくし、変動を起こす時間間隔を狭くすることで、生きた感じを強める。
これらの例に共通し例1での説明のように、本来の作用が「動き」「判断」「感情表現」であり、その各本来の動きに反比例しカオス変動を強め、変動の起こる間隔を狭くする。これらにより本来の機能を阻害することなく、かつ生きた感じを高める。

Claims (5)

  1. ロボットの本来の機能が働いているとき、あるいは働いていないときがあるが、これらのときを含むほぼ常時、カオス変動を生じさせるステップと、
    本来の機能を阻害することなく変動の大きさを調整しつつカオス変動を与えるステップと
    を持たせることを、特徴とするロボットの制御方法。
  2. カオス変動は、乱数またはカオス発生関数によることを特徴とする請求項1に記載のロボットの制御方法。
  3. 現在、本来の機能が働いているとき、注意、意志の程度、学習の強さを常時評価する機能を持ち、本来の機能が働いていないときは評価値はほぼ零とすることを特徴とする請求項2に記載のロボットの制御方法。
  4. 画像ソフトあるいはロボットが、本来の機能を行っているときを含む常時、前記変動の大きさを調節しつつ与えるステップで評価結果を反映させることを含み、評価結果を反映させる場合、評価結果が小さいときはカオス変動を大きくし変動を発生する時間間隔を短くする。評価結果が大きいときはカオス変動を小さくし発生する時間間隔を長くすることを特徴とする請求項2または3に記載のロボットの制御方法。
  5. 前記本来の機能は、動きを伴ったもの、動きを計算機上で画像表示するソフトウェアー、認識し判断し警告する機能を含む知能的機能を持ったもの、感情表現を含むことを特徴とする請求項4に記載のロボットの制御方法。
JP2009002235A 2009-01-08 2009-01-08 ロボットの制御方法 Pending JP2010160669A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009002235A JP2010160669A (ja) 2009-01-08 2009-01-08 ロボットの制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009002235A JP2010160669A (ja) 2009-01-08 2009-01-08 ロボットの制御方法

Publications (1)

Publication Number Publication Date
JP2010160669A true JP2010160669A (ja) 2010-07-22

Family

ID=42577781

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009002235A Pending JP2010160669A (ja) 2009-01-08 2009-01-08 ロボットの制御方法

Country Status (1)

Country Link
JP (1) JP2010160669A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013235548A (ja) * 2012-05-08 2013-11-21 Linfops Kk 脳型感情表現ロボットの制御方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000148056A (ja) * 1998-11-10 2000-05-26 Toyobo Engineering Kk ランダム制御式マネキン類
JP2006123127A (ja) * 2004-10-29 2006-05-18 Sony Corp ロボット装置及びその動作制御方法
JP2007069302A (ja) * 2005-09-07 2007-03-22 Hitachi Ltd 動作表出装置
JP2007125631A (ja) * 2005-11-01 2007-05-24 Sony Corp ロボット装置及びその行動制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000148056A (ja) * 1998-11-10 2000-05-26 Toyobo Engineering Kk ランダム制御式マネキン類
JP2006123127A (ja) * 2004-10-29 2006-05-18 Sony Corp ロボット装置及びその動作制御方法
JP2007069302A (ja) * 2005-09-07 2007-03-22 Hitachi Ltd 動作表出装置
JP2007125631A (ja) * 2005-11-01 2007-05-24 Sony Corp ロボット装置及びその行動制御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013235548A (ja) * 2012-05-08 2013-11-21 Linfops Kk 脳型感情表現ロボットの制御方法

Similar Documents

Publication Publication Date Title
Li et al. Random curiosity-driven exploration in deep reinforcement learning
US20170011604A1 (en) Virtual sensor in a virtual environment
Nagendran et al. A unified framework for individualized avatar-based interactions
Tencé et al. The challenge of believability in video games: Definitions, agents models and imitation learning
Louis et al. Is it real? measuring the effect of resolution, latency, frame rate and jitter on the presence of virtual entities
Bown et al. The machine as autonomous performer
Park et al. Generation of realistic robot facial expressions for human robot interaction
Meng et al. Robots learn to dance through interaction with humans
Hansen The dramaturgy of performance generating systems
Schwartz et al. The immersive VR self: performance, embodiment and presence in immersive virtual reality environments
TW202117498A (zh) 化身臉部表情產生系統及化身臉部表情產生方法
Saberi et al. Expressing personality through non-verbal behaviour in real-time interaction
Zhang et al. Robotic sonification for promoting emotional and social interactions of children with ASD
Bevacqua et al. INGREDIBLE: A platform for full body interaction between human and virtual agent that improves co-presence
Slater et al. Is consciousness first in virtual reality?
JP2010160669A (ja) ロボットの制御方法
Martinho et al. Emotions for a motion: Rapid development of believable pathematic agents in intelligent virtual environments
Gamez et al. Two simulation tools for biologically inspired virtual robotics
Meyer et al. A model for sensorimotor affordances in virtual reality environments
Harris et al. Exploring emotive actuation and its role in human-robot interaction
US20210263582A1 (en) Systems and methods for automated control of human inhabited characters
Selvarajah et al. The use of emotions to create believable agents in a virtual environment
Antunes et al. Real-time behavioral animation of humanoid non-player characters with a computational ecosystem
Larsen et al. “Well, That was Quick”–towards storyworld adaptivity that reacts to players as people
Paplu et al. Real-time emotion appraisal with circumplex model for human-robot interaction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120106

A977 Report on retrieval

Effective date: 20120926

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121002

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130116

RD02 Notification of acceptance of power of attorney

Effective date: 20130116

Free format text: JAPANESE INTERMEDIATE CODE: A7422

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130116

A521 Written amendment

Effective date: 20130325

Free format text: JAPANESE INTERMEDIATE CODE: A523

A02 Decision of refusal

Effective date: 20130528

Free format text: JAPANESE INTERMEDIATE CODE: A02

A521 Written amendment

Effective date: 20130829

Free format text: JAPANESE INTERMEDIATE CODE: A523