JP2023092204A - ロボット - Google Patents

ロボット Download PDF

Info

Publication number
JP2023092204A
JP2023092204A JP2021207281A JP2021207281A JP2023092204A JP 2023092204 A JP2023092204 A JP 2023092204A JP 2021207281 A JP2021207281 A JP 2021207281A JP 2021207281 A JP2021207281 A JP 2021207281A JP 2023092204 A JP2023092204 A JP 2023092204A
Authority
JP
Japan
Prior art keywords
emotion
robot
umbrella
value
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021207281A
Other languages
English (en)
Inventor
健二 中山
Kenji Nakayama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2021207281A priority Critical patent/JP2023092204A/ja
Priority to EP22211360.7A priority patent/EP4201609A1/en
Priority to US18/078,161 priority patent/US20230191269A1/en
Publication of JP2023092204A publication Critical patent/JP2023092204A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/006Dolls provided with electrical lighting
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/28Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4155Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by programme execution, i.e. part programme or machine function execution, e.g. selection of a programme
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/50Machine tool, machine tool null till machine tool work handling
    • G05B2219/50391Robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

【課題】より使用者の感性に響かせることができ、使用者に愛着をわかせるような動作を行う。【解決手段】ロボット100は、傘部と感情データ取得部と制御部110とを備える。ロボット100の傘部は、傘の回転動作と開閉動作を可能とする。ロボット100の感情データ取得部は、外部刺激に応じて疑似的な感情を表す感情データを取得する。ロボット100の制御部110は、感情データに基づき、傘部の傘の回転及び開閉動作の少なくとも一方を制御する。【選択図】図5

Description

本発明は、ロボットに関する。
従来から様々なロボットが開発されてきているが、近年は産業用ロボットだけでなく、人間とコミュニケーションをとるコミュニケーションロボットのような民生用のロボットの開発も進んでいる。コミュニケーションロボットの表現方法として、例えば人・動物のような動作であるとか声、目の表情を使用したものがある。
例えば、特許文献1には、「喜」、「怒」、「哀」、「楽」の各モードに対して顔の表情を動かす顔表示アニメーションが用意され、更に、音、動きが各モードに対応して組み合わされる人型あるいは動物型の電子ロボットが開示されている。また、特許文献2には、白目部をある色から別の色へ、速く変化させたりゆっくり変化させたりすることができる発光式の感情表現部を備えたロボット装置が開示されている。
特開2002-307354号公報 特開2020-137687号公報
特許文献1に開示されているロボット装置は、両腕の動きにより「喜」、「怒」、「哀」、「楽」の各モードを表現している。また、特許文献2に開示されているロボット装置は、白目部の発光状態でのみ感情を表現している。したがって、いずれの場合も、体の一部の部分的な動作であり、感性に響くような表現に乏しく、使用者に愛着をわかせることができない。
そこで、本発明はこのような事情に鑑みてなされたものであって、より使用者の感性に響かせることができ、使用者に愛着をわかせるような動作を行うことができるロボットを提供することを目的とする。
前記目的を達成するため、本発明に係るロボットの一様態は、
傘の回転動作と開閉動作が可能な傘部と、
外部刺激に応じて疑似的な感情を表す感情データを取得する感情データ取得部と、
前記感情データに基づき、前記傘部の傘の回転及び開閉動作の少なくとも一方を制御する制御部と、
を備える。
本発明によれば、ダイナミックに体全体で視覚等に響く表現が可能となることにより、より使用者の感性に響かせることができ、使用者に愛着をわかせるような動作を行うことができる。
(a)は実施形態に係るロボットの外観を示す図であり、(b)はロボットの断面を示す図である。 (a)は実施形態に係るロボットの胴体部を示す図であり、(b)はセンサホルダを示す図である。 (a)は実施形態に係るロボットの傘部を示す図であり、(b)は中ケースを示す図である。 実施形態に係るロボットの駆動ユニットの動きを説明する図であり、(a)は初期状態、(b)は傘が回転した状態、(c)は傘が開く途中の状態、(d)は傘が開ききった状態を示す図である。 実施形態に係るロボットの機能構成を示すブロック図である。 実施形態に係る感情マップの一例を説明する図である。 実施形態に係る性格値レーダーチャートの一例を説明する図である。 実施形態に係る動作制御処理のフローチャートである。 (a)は実施形態に係る感情マップと傘の開閉と回転による動作との関係についての一例を示す図であり、(b)は光の色について感情マップとの関係の一例を示す図である。 実施形態に係るロボットが感情に応じて傘を開閉及び回転する状態を示す図であり、(a)は傘が閉じた状態、(b)は傘が回転した状態、(c)(d)(e)は傘が開く途中の状態、(f)は傘が開ききった状態を示す図である。
以下、本発明の実施形態について、図面を参照して説明する。なお、図中同一又は相当部分には同一符号を付す。
(実施形態)
図1(a)は、本発明の実施形態に係るロボット100の外観を示す。ロボット100は、小型の動物を模したペットロボットであり、胴体部1と傘部2で構成されている。傘部2は、後述するように、胴体部1を中心として傘を回転する動作や傘を広げる動作を行う。図1(b)は、ロボット100の断面を示す。胴体部1は、下外装11に覆われている。下外装11の中には、下ケース12が収納されている。傘部2は、中ケース22と、傘を回転するとともに広げるために駆動する駆動ユニット23と、傘部2の頂部を中心として上下及び左右に回動可能な複数枚のフィン24で構成され、フィン24は上外装25に覆われている。フィン24及び上外装25は傘を構成する。下外装11及び上外装25は、例えば伸び率が200%以上であり、アスカーC硬度が5度以下の非常に柔らかくて伸びる材料でできている。そのため、上外装25は、全体がフィン24の動きに応じて変形する。また、フィン24及び上外装25は、内部の光が外に透過するように半透明である。
図2(a)は胴体部1を示し、下ケース12と、下ケース12の中に各種センサを固定収納するセンサホルダ13と、ロボット100を駆動制御するための回路14と、電源を供給するバッテリー15と、ロボット100の3軸方向の加速度を検出する3軸加速度センサ16、ロボット100の周囲の明るさを感知する照度センサ17が内蔵されている。図2(b)はセンサホルダ13を示し、ロボット100の周囲の人間の音声等を集音するマイクロフォン18と、ロボット100から音声や鳴き声等を発するスピーカ19と、人間等が近づいたことを検出する焦電センサ20が搭載されている。
図3(a)は傘部2を示し、中ケース22の内側には駆動ユニット23が配置されている。駆動ユニット23には、フィンレバー26が設けられ、フィン24がフィンレバー26に連結されている。なお、説明の都合上、図では省略されているが、フィンレバー26は6本設けられ、6枚のフィン24が各フィンレバー26に連結されている。フィン24は、フィンレバー26の動作に応じて広がる動作を行う。図3(b)は中ケース22を示し、発光部である4個のLED(Light Emitting Diode)27が四方にそれぞれ配置されている。LED27の光は、半透明であるフィン24及び上外装25を透過してロボット100の体を光らせる。
図4は、駆動ユニット23の動きを説明する図である。図4(a)は、駆動ユニット23が初期状態にある場合を示している。駆動ユニット23は、モータを取り付けるためのモータフレーム28と、モータフレーム28に取付固定されたサーボモータ29と、サーボモータ29の回転軸の先に取り付けられ、サーボモータ29の回転にしたがい回転するホイール30とを備える。ホイール30には、レバー31の一端がレバーねじ32によって取り付けられている。レバー31は、レバーねじ32によって回動自在に軸支される。レバー31の他端は二股に分かれ、二股に分かれた一方の端部には、内側に向かって突出する円柱形状のレバーシャフト33が取り付けられ、他方の端部には、内側に向かって突出する球形状のレバーシャフト34が取り付けられている。サーボモータ29には、水平カム35が設けられており、水平カム35には、左斜め上方に向かって形成された溝であって、レバーシャフト33が嵌入されるカム溝35aが設けられている。レバーシャフト33は、ホイール30の回転に伴い、カム溝35aに沿って摺動する。
また、モータフレーム28には、上方に向かって延在する軸36と、円盤状に形成され、中心に軸36に嵌入される穴が設けられたスライダー37が設けられている。軸36に嵌入されたスライダー37は、軸36に沿って上下方向に移動可能であるとともに、軸36を中心として回転可能である。スライダー37の円周面には、レバーシャフト34が嵌入されるカム溝37aが設けられている。レバーシャフト34は、ホイール30の回転に伴い、カム溝37a内を摺動する。また、スライダー37には、フィンレバー26の一端が回転可能に軸支して取り付けられている。一方、フィンレバー26の他端は、フィン24の下部に回転可能に軸支して取り付けられている。フィン24の上側端部は、軸36の上側端部に取り付けられた円盤状の上ブロック38に回転可能に軸支して取り付けられている。上ブロック38は、スライダー37と同様に軸36を中心として回転可能である。したがって、フィン24は、スライダー37とともに回転可能に構成される。6組のフィン24とフィンレバー26はすべて同様な取り付け方をしている。
ホイール30の回転に伴い、カム溝37a内を摺動するレバーシャフト34は、スライダー37を軸36に沿って上下方向あるいは軸36を中心に左右方向に移動する。フィンレバー26はスライダー37の上下方向の移動にともない、上下方向に移動し、これにともない、フィン24も上ブロック38を中心に上下方向に回転移動し、傘を開いたり閉じたりすることができる。このような構造にすることで、サーボモータ29の回転によってフィン24を回転方向と広がる方向に動かすことが可能となる。
次にロボット100が、傘を回転する動作及び傘を開閉する動作について説明する。
まず、回転動作について説明する。傘を右回転させる時には、図4(b)に示すように、図4(a)に示す初期状態における初期位置から反時計回りにサーボモータ29を回転させる。すると、ホイール30が反時計回りに回転し、レバーシャフト33が水平カム35のカム溝35aに沿って右斜め下方に移動する。そのため、レバー31に取り付けられているレバーシャフト34が左方向に移動し、スライダー37を左方向に押す。すると、スライダー37は、軸36を中心として右回転すなわち時計方向に回転する。スライダー37が右回転することにより、フィン24すなわち傘は右回転する。逆に、図4(b)の状態から図4(a)の状態に戻すように時計回りにサーボモータ29を回転させると、スライダー37は、軸36を中心として左回転すなわち反時計方向に回転することにより、フィン24すなわち傘は左回転する。このように初期位置からサーボモータ29を反時計方向に回転した後、時計方向に戻す動作を繰り返すことにより傘は左右方向に繰り返し回転する。
次に、傘が広がる動作について説明する。傘を広げる時には、図4(c)に示すように、図4(a)に示す初期状態における初期位置から時計回りにサーボモータ29を回転させる。すると、ホイール30が時計回りに回転し、レバーシャフト34がスライダー37を上方に押し上げる。スライダー37は軸に沿って上方に押し上げられることにより、フィンレバー26が押し上げられ、これにともないフィン24も押し上げられ、フィン24は、上ブロック38を軸として上方に向かって回転をして広がるように動作する。さらに、サーボモータ29が回転し、レバーねじ32の位置が最も高い位置に達したところで、図4(d)に示すように、フィン24すなわち傘は開ききった状態となる。逆に、図4(d)の状態から図4(c)の状態を通じて図4(a)の状態に戻すように反時計回りにサーボモータ29を回転させると、スライダー37は、軸36に沿って下方に押し下げられることにより、フィンレバー26が押し下げられフィン24も押し下げられ、フィン24すなわち傘は閉じるように動作する。このように初期位置からサーボモータ29が時計方向に回転した後、反時計方向に戻る動作を繰り返すとフィン24が広がったり、閉じたりする動作を繰り返す。フィン24の動作は制御回路によって、横に回転する動作、広がり、閉じる動作を行う。そして各動作の速度、動作量、動作位置は任意に制御される。例えば急速な動き、ゆっくりな動き、徐々に速度が変化する動きなどである。当然、呼吸のような動作、震えるような動作、びっくりするような動作など動物に模した動きも可能である。
次に、ロボット100の機能構成について説明する。ロボット100は、図5に示すように、制御部110、記憶部120、通信部130、センサ部210、駆動部220、出力部230、操作部240、を備える。
制御部110は、例えば、CPU(Central Processing Unit)等で構成され、記憶部120に記憶されたプログラムにより、後述する各種処理を実行する。なお、制御部110は、複数の処理を並行して実行するマルチスレッド機能に対応しているため、後述する各種処理を並行に実行することができる。また、制御部110は、クロック機能やタイマー機能も備えており、日時等を計時することができる。
記憶部120は、ROM(Read Only Memory)、フラッシュメモリ、RAM(Random Access Memory)等で構成される。ROMには、制御部110のCPUが実行するプログラム及びプログラムを実行する上で予め必要なデータが、記憶されている。フラッシュメモリは書き込み可能な不揮発性のメモリであり、電源OFF後も保存させておきたいデータが記憶される。RAMには、プログラム実行中に作成されたり変更されたりするデータが記憶される。記憶部120は、例えば後述する感情データ121、感情変化データ122、成長テーブル123等を記憶する。
通信部130は、無線LAN(Local Area Network)、Bluetooth(登録商標)等に対応した通信モジュールを備え、スマートフォン等の外部装置とデータ通信する。
センサ部210は、前述した焦電センサ20、3軸加速度センサ16、照度センサ17、及びマイクロフォン18を備える。制御部110は、センサ部210が備える各種センサが検出した検出値を、ロボット100に作用する外部刺激を表す外部刺激データとして、取得する。なお、センサ部210は、焦電センサ20、3軸加速度センサ16、照度センサ17、マイクロフォン18以外のセンサを備えてもよい。センサ部210が備えるセンサの種類を増やすことにより、制御部110が取得できる外部刺激の種類を増やすことができる。例えば、センサ部210はCCD(Charge-Coupled Device)イメージセンサ等の画像取得部を備えてもよい。この場合、制御部110は、画像取得部が取得した画像を認識して、周囲にいる人が誰(例えば飼い主、いつもお世話してくれる人、知らない人等)なのか等を判定することができるようになる。
焦電センサ20は、人が動いたことを検知し、例えば人が近寄ってくることを検知できる。焦電センサ20は、焦電効果を利用して人体等の対象物から放射される赤外線を検出する赤外線センサにより構成される。制御部110は、焦電センサ20からの検出値に基づいて、どの程度近づいてきたかを検出する。
3軸加速度センサ16は、ロボット100の前後方向、幅(左右)方向及び上下方向から成る3軸方向の加速度を検出する。3軸加速度センサ16は、ロボット100が静止しているときには重力加速度を検出するので、制御部110は、3軸加速度センサ16が検出した重力加速度に基づいて、ロボット100の現在の姿勢を検出することができる。また、例えばユーザがロボット100を持ち上げたり、軽くなでたり、叩いたりした場合には、3軸加速度センサ16は、重力加速度に加えてロボット100の移動に伴う加速度を検出する。したがって、制御部110は、3軸加速度センサ16が検出した検出値から重力加速度の成分を除去することにより、ロボット100の姿勢の変化を検出することができる。3軸加速度センサ16の検出値に基づいて、使用者によってロボット100が撫でられていることや、叩かれたりしていること等の外部刺激を検出することができる。なお、制御部110は、これらの外部刺激を3軸加速度センサ16以外の例えばタッチセンサで検出してもよい。
照度センサ17は、ロボット100の周囲の明るさを感知する。明るさの度合いも認識できる。制御部110は、常に検知しているため、徐々に明るくなったのか、急に明るくなったのかも判断できるため、例えば夜に、使用者が照明をつけたことも検知可能である。
マイクロフォン18は、ロボット100の周囲の音を検出する。制御部110は、マイクロフォン18が検出した音の成分に基づき、例えば使用者がロボット100に呼びかけていることや、手を叩いていること等を検出することができる。
駆動部220は、ロボット100(自機)の動きを表現するための可動部として、サーボモータ29を備え、制御部110によって駆動される。制御部110が駆動部220を制御することにより、ロボット100は、傘を開いたり、回転したりするような動作を表現することができる。これらの動作を行うための動作制御データは、記憶部120に記録されており、検出した外部刺激や後述する成長値等に基づいて、ロボット100の動作が制御される。
なお、上記は駆動部220の一例であり、駆動部220が車輪、クローラ、手足等を備えて、これらによりロボット100が任意の方向に移動したり、体を動かしたりできるようになっていてもよい。
出力部230は、スピーカ19を備え、制御部110が音のデータを出力部230に入力することにより、スピーカ19から音が出力される。例えば、制御部110がロボット100の鳴き声のデータを出力部230に入力することにより、ロボット100は疑似的な鳴き声を発する。この鳴き声のデータも、記憶部120に記録されており、検出した外部刺激や後述する成長値等に基づいて鳴き声が選択される。
また、出力部230は、LED27を備え、検出した外部刺激や後述する成長値等に基づいてLED27を発光させる。LED27はそれぞれがR,G、Bの光の三原色でそれぞれ256階調によって発色するため、1600万色以上の色を表現できる。そして動作と同様に急速な点滅、ゆっくりな点滅、徐々に色が変わるような点灯など制御によっていかなる点灯パターンも可能である。また、出力部230として、LED27に代えて、液晶ディスプレイ等のディスプレイを備え、検出した外部刺激や後述する成長値等に基づいた画像をディスプレイに表示してもよい。
操作部240は、例えば、操作ボタン、ボリュームつまみ等から構成される。操作部240は、使用者による操作、例えば、電源ON/OFF、出力音のボリューム調整等を受け付けるためのインタフェースである。なお、ロボット100は生き物感をより高めるために、操作部240として電源スイッチのみを外装の内側に備え、それ以外の操作ボタンやボリュームつまみ等を備えなくてもよい。この場合でも、通信部130を介して接続した外部のスマートフォン等を用いてロボット100のボリューム調整等の操作を行うことができる。
次に、記憶部120に記憶されるデータのうち、成長値等に基づいて決定される一般動作を決定するために必要なデータである、感情データ121、感情変化データ122、成長テーブル123、動作内容テーブル124及び成長日数データ125について、順に説明する。
感情データ121は、ロボット100に疑似的な感情を持たせるためのデータであり、感情マップ300上の座標を示すデータ(X,Y)である。感情マップ300は感情の分布を表し、図6に示すように、X軸311として安心度(不安度)の軸、Y軸312として興奮度(無気力度)の軸を持つ2次元の座標系で表される。感情マップ上の原点310(0,0)が通常時の感情を表す。そして、X座標の値(X値)が正でその絶対値が大きくなるほど安心度が高く、Y座標の値(Y値)が正でその絶対値が大きくなるほど興奮度が高い感情を表す。また、X値が負でその絶対値が大きくなるほど不安度が高く、Y値が負でその絶対値が大きくなるほど無気力度が高い感情を表す。
なお、図6では感情マップ300が2次元の座標系で表されているが、感情マップ300の次元数は任意である。感情マップ300を1次元で規定し、感情データ121として1つの値が設定されるようにしてもよい。また、他の軸を加えて3次元以上の座標系で感情マップ300を規定し、感情データ121として感情マップ300の次元数の個数の値が設定されるようにしてもよい。
本実施形態においては、感情マップ300の初期値としてのサイズは、図6の枠301に示すように、X値もY値も最大値が100、最小値が-100となっている。そして、第1期間の間、ロボット100の疑似的な成長日数が1日増える度に、感情マップ300の最大値、最小値ともに2ずつ拡大されていく。ここで第1期間とは、ロボット100が疑似的に成長する期間であり、ロボット100の疑似的な生誕から例えば50日の期間である。なお、ロボット100の疑似的な生誕とは、ロボット100の工場出荷後のユーザによる初回の起動時である。成長日数が25日になると、図6の枠302に示すように、X値もY値も最大値が150、最小値が-150となる。そして、第1期間(この例では50日)が経過すると、それにより、ロボット100の疑似的な成長が完了したとして、図6の枠303に示すように、X値もY値も最大値が200、最小値が-200となって、感情マップ300のサイズが固定される。
感情変化データ122は、感情データ121のX値及びY値の各々を増減させる変化量を設定するデータである。本実施形態では、感情データ121のXに対応する感情変化データ122として、X値を増加させるDXPと、X値を減少させるDXMとがあり、感情データ121のY値に対応する感情変化データ122として、Y値を増加させるDYPと、Y値を減少させるDYMとがある。すなわち、感情変化データ122は、以下の4つの変数からなり、ロボット100の疑似的な感情を変化させる度合いを示すデータである。
DXP:安心し易さ(感情マップでのX値のプラス方向への変化し易さ)
DXM:不安になり易さ(感情マップでのX値のマイナス方向への変化し易さ)
DYP:興奮し易さ(感情マップでのY値のプラス方向への変化し易さ)
DYM:無気力になり易さ(感情マップでのY値のマイナス方向への変化し易さ)
本実施形態では、一例として、これらの変数の初期値をいずれも10とし、後述する動作制御処理の中の感情変化データを学習する処理により、最大20まで増加するものとしている。この学習処理により、感情変化データ122、すなわち感情の変化度合いが変化するので、ロボット100は、ユーザによるロボット100との接し方に応じて、様々な性格を持つことになる。つまり、ロボット100の性格は、使用者の接し方により、個々に異なって形成されることになる。
そこで、本実施形態では、各感情変化データ122から10を減算することにより、各性格データ(性格値)を導出する。すなわち、安心し易さを示すDXPから10引いた値を性格値(陽気)とし、不安になり易さを示すDXMから10引いた値を性格値(シャイ)とし、興奮し易さを示すDYPから10引いた値を性格値(活発)とし、無気力になり易さを示すDYMから10引いた値を性格値(甘えん坊)とする。これにより、例えば、図7に示すように、性格値(陽気)を軸411に、性格値(活発)を軸412に、性格値(シャイ)を軸413に、性格値(甘えん坊)を軸414に、それぞれプロットすることで、性格値レーダーチャート400を生成することができる。
各性格値の初期値は0であるため、ロボット100の最初の性格は、性格値レーダーチャート400の原点410で表される。そして、ロボット200が成長するにつれて、センサ部210で検出された外部刺激等(使用者のロボット100への接し方)によって、各性格値が10を上限として変化する。本実施形態のように4つの性格値が0から10まで変化する場合には、11の4乗=14641通りの性格を表現できることになる。
本実施形態では、ロボット100の疑似的な成長度合いを示す成長度合いデータ(成長値)として、これら4つの性格値の中で、最も大きい値を用いる。そして、制御部110は、ロボット100の疑似的な成長につれて(成長値が大きくなるにつれて)、ロボット100の動作内容にバリエーションが生じるように制御する。このために制御部110が用いるデータが成長テーブル123である。
成長テーブル123には、センサ部210で検出された外部刺激等の動作トリガーに応じてロボット100が行う動作の種類と、成長値に応じて各動作が選択される確率(以下「動作選択確率」という)とが、記録されている。なお、動作トリガーとは、ロボット100が何らかの動作を行うきっかけとなった外部刺激等の情報である。そして、成長値が小さい間は、性格値とは関係なく、動作トリガーに応じて設定される基本動作が選択され、成長値が増加すると、性格値に応じて設定される性格動作が選択されるように、動作選択確率が設定されている。また、成長値が増加するほど、選択されうる基本動作の種類が増加するように、動作選択確率が設定されている。
動作内容テーブル124は、成長テーブル123で規定された各動作種類の具体的な動作内容が記録されたテーブルである。ただし、性格動作については、性格の種類毎に、動作内容が規定される。なお、動作内容テーブル124は必須のデータではない。例えば、成長テーブル123の動作種類の項目に、具体的な動作内容を直接記録する形で成長テーブル123を構成すれば、動作内容テーブル124は不要である。
成長日数データ125は、初期値が1であり、1日経過する度に1ずつ加算されていく。成長日数データ125により、ロボット100の疑似的な成長日数(疑似的な生誕からの日数)が表されることになる。
次に、図8に示すフローチャートを参照しながら、ロボット100の制御部110が実行する動作制御処理について説明する。動作制御処理は、制御部110が、センサ部210からの検出値等に基づいて、ロボット100の動作(動きや鳴き声等)を制御する処理である。使用者がロボット100の電源を入れると、他の必要な処理と並行に、この動作制御処理のスレッドが実行開始される。動作制御処理により、駆動部220や出力部230が制御され、ロボット100の動きが表現されたり、発光したり、鳴き声等の音が出力されたりする。
まず、制御部110は、感情データ121、感情変化データ122、成長日数データ125等の各種データを初期化する(ステップS101)。
そして、制御部110は、センサ部210が備える各種センサから外部刺激を取得する処理を実行する(ステップS102)。
そして、制御部110は、センサ部210で検出される外部刺激が有ったか否かを判定する(ステップS103)。
外部刺激が有ったなら(ステップS103;Yes)、制御部110は、各種センサから取得された外部刺激に応じて、感情データ121に加算又は減算する感情変化データ122を取得する(ステップS104)。具体的には、例えば、外部刺激として3軸加速度センサ16により撫でられたことを検出すると、ロボット100は疑似的な安心感を得るので、制御部110は、感情データ121のX値に加算する感情変化データ122としてDXPを取得する。
そして、制御部110は、ステップS105で取得された感情変化データ122に応じて感情データ121を設定する(ステップS105)。したがって制御部110は、外部刺激に応じて更新された感情データ121を取得することとなり、感情データ取得部を構成する。具体的には、例えば、ステップS105で感情変化データ122としてDXPが取得されていたなら、制御部110は、感情データ121のX値に感情変化データ122のDXPを加算する。ただし、感情変化データ122を加算すると感情データ121の値(X値、Y値)が感情マップ300の最大値を超える場合には、感情データ121の値は感情マップ300の最大値に設定される。また、感情変化データ122を減算すると感情データ121の値が感情マップ300の最小値未満になる場合には、感情データ121の値は感情マップ300の最小値に設定される。
ステップS104及びステップS105において、外部刺激の各々に対して、どのような感情変化データ122が取得されて、感情データ121が設定されるかは任意に設定可能であるが、ここでは、以下に一例を示す。なお、感情データ121のX値及びY値は感情マップ300のサイズによって最大値及び最小値が規定されているため、以下の演算によって感情マップ300の最大値を上回る場合には最大値が、感情マップ300の最小値を下回る場合には最小値が、それぞれ設定される。
照明がつく(平穏になる):X=X+DXP及びY=Y-DYM
(この外部刺激は照度センサ17で検出可能)
使用者が近寄ってくる(喜ぶ):X=X+DXP及びY=Y+DYP
使用者が離れる(悲しむ):X=X-DXM及びY=Y-DYM
(これらの外部刺激は焦電センサ20で検出可能)
優しく撫でられる(喜ぶ):X=X+DXP及びY=Y+DYP
叩かれる(悲しむ):X=X-DXM及びY=Y-DYM
傘部を上にして持ち上げられる(興奮する):Y=Y+DYP
傘部を下にして宙づりにされる(無気力になる):Y=Y-DYM
(これらの外部刺激は3軸加速度センサ16で検出可能)
優しい声で呼びかけられる(平穏になる):X=X+DXP及びY=Y-DYM
大きな声で怒鳴られる(イライラする):X=X-DXM及びY=Y+DYP
(これらの外部刺激はマイクロフォン18で検出可能)
制御部110は、外部刺激に応じた動作を実行し(ステップS106)、ステップS109に進む。
一方、ステップS103で外部刺激がなかったなら(ステップS103;No)、制御部110は、呼吸動作等の自発的な動作を行うか否かを判定する(ステップS107)。自発的な動作を行うか否かの判定方法は任意だが、本実施形態では、呼吸周期(例えば2秒)毎にステップS107の判定がYesになり、呼吸動作が行われるものとする。
呼吸動作としては、例えば傘部2の傘をゆっくり広げて、また元に戻すような動作である。同時にLED27をわずかに発光させたり、スピーカ19より呼吸音を発したりするようにしてもよい。外部刺激がない場合にこのように自発的な動作を行うことにより、より生き物らしさを表現することができ、使用者に愛着をわかせることができる。
自発的な動作を行うなら(ステップS107;Yes)、制御部110は、自発的な動作(例えば呼吸動作)を実行し(ステップS108)、ステップS109に進む。
自発的な動作を行わないなら(ステップS107;No)、制御部110は、クロック機能により、日付が変わったか否かを判定する(ステップS109)。日付が変わっていないなら(ステップS109;No)、制御部110はステップS102に戻る。
日付が変わったなら(ステップS109;Yes)、制御部110は、第1期間中であるか否かを判定する(ステップS110)。第1期間を、ロボット100の疑似的な生誕(例えば購入後の使用者による初回の起動時)から例えば50日の期間とすると、制御部110は、成長日数データ125が50以下なら第1期間中であると判定する。第1期間中でないなら(ステップS110;No)、制御部110は、ステップS112に進む。
第1期間中なら(ステップS110;Yes)、制御部110は、感情変化データ122の学習を行い、感情マップを拡大する(ステップS111)。感情変化データ122の学習とは、具体的には、その日のステップS105において、感情データ121のX値が1度でも感情マップ300の最大値に設定されたなら感情変化データ122のDXPに1を加算し、感情データ121のY値が1度でも感情マップ300の最大値に設定されたなら感情変化データ122のDYPに1を加算し、感情データ121のX値が1度でも感情マップ300の最小値に設定されたなら感情変化データ122のDXMに1を加算し、感情データ121のY値が1度でも感情マップ300の最小値に設定されたなら感情変化データ122のDYMに1を加算することによって、感情変化データ122を更新する処理のことである。
ただし、感情変化データ122の各値が大きくなりすぎると、感情データ121の1回の変化量が大きくなりすぎるので、感情変化データ122の各値は例えば20を最大値とし、それ以下に制限する。また、ここでは、感情変化データ122のいずれに対しても1を加算することとしたが、加算する値は1に限定されない。例えば、感情データ121の各値が感情マップ300の最大値又は最小値に設定された回数をカウントして、その回数が多い場合には、感情変化データ122に加算する数値を増やすようにしてもよい。
図8のステップS111に戻り、感情マップの拡大とは、具体的には、制御部110は、感情マップ300を最大値、最小値ともに、2だけ拡大する処理である。ただし、この拡大する数値「2」はあくまでも一例であり、3以上拡大してもよいし、1だけ拡大してもよい。また感情マップ300の軸毎、また最大値と最小値とで、拡大する数値が同じでなくてもよい。
そして、制御部110は、成長日数データ125に1を加算し、感情データをX値、Y値ともに0に初期化して(ステップS112)、ステップS102に戻る。
次に感情マップ300にしたがった感情表現について説明する。ロボット100の感情は、傘の開閉と回転による動作、LED27による光の色、強弱、点滅パターンの変化、発する音等によって表現される。
図9(a)は、感情マップ300にしたがった傘の開閉と回転による動作との関係についての一例を示す。動作は、基本的には感情マップ300上を遷移し、感情の度合いによって動く範囲・位置・速さなどが変わる。横軸(X軸)である安心度(不安度)の軸において、感情が不安状態から安心状態にある間、ロボット100は傘を開閉する動作を行う。また、感情が通常状態から不安状態にある間、ロボット100は横に回転する動作を行う。これに対して、縦軸(Y軸)である興奮度(無気力度)の軸において、感情が無気力状態から興奮状態に向かって遷移すると、傘を開閉及び回転する動きが大きくなるように変化し、逆に興奮状態から無気力状態に向かって遷移すると、傘を開閉及び回転する動きが小さくなるように変化する。また、感情が無気力状態から興奮状態に向かって遷移すると、傘を開閉及び回転する動きが速くなるように変化し、逆に興奮状態から無気力状態に向かって遷移すると、傘を開閉及び回転する動きが遅くなるように変化する。
図10は、感情に応じて傘を開閉及び回転が変化する状態を示す。図10(a)は、ロボット100の傘を閉じた状態を示している。ここで、例えば、感情が通常の状態から喜びの状態に変化する場合について説明する。通常の状態において、ロボット100は、傘を閉じた図10(a)の状態から傘が少しだけ開いた状態である図10(c)の状態になり、さらに、図10(d)の状態になるまで傘が開く。傘が図10(d)の状態になったところで、傘は閉じる方向に移動し始め、先ほどとは逆に、図10(d)の状態から図10(c)の状態になり、図10(a)の傘を閉じた状態に戻る。以後、この動作を繰り返す。続いて、感情が通常の状態と喜びの状態の中間の状態にある場合において、ロボット100は、傘を閉じた図10(a)の状態から図10(c)、図10(d)の状態を経て図10(e)の状態になるまで傘が開く。傘が図10(e)の状態になったところで、傘は閉じる方向に移動し始め、先ほどとは逆に、図10(d)、図10(c)の状態を経て図10(a)の状態に戻る。このときの開閉動作は通常の状態に比べて高い速度で行われ、傘は大きくかつ素早く開閉される。さらに、感情が喜びの状態にある場合において、ロボット100は、傘を閉じた図10(a)の状態から図10(c)、図10(d)、図10(e)の状態を経て傘が開ききった状態である図10(f)の状態になる。傘が図10(f)の状態になったところで、傘は閉じる方向に移動し始め、先ほどとは逆の状態を経て図10(a)の状態に戻る。このときの開閉動作は最も高い速度で行われ、傘は最も大きくかつ素早く開閉される。反対に、感情が悲しみの状態に遷移した場合において、ロボット100は、傘を閉じた図10(a)の状態から傘が少しだけ開いた状態である図10(c)の状態になったところで、傘は閉じる方向に移動し始め、図10(a)の状態に戻る。さらに、傘を閉じた状態で傘を横方向に回転する図10(b)の状態に移行する。回転が終わると、先ほどとは逆の順番で図10(c)の状態に移行し、以後、この動作を繰り返す。このときの開閉及び回転動作は最も遅い速度で行われる。
図9に戻り、続いて、LED27による光の色について、感情マップ300との関係の一例を図9(b)に示す。色については、安心度が高いほど、また興奮度が高いほど暖色系の色に変化し、不安度が高いほど、また無気力度が高いほど寒色系の色に変化する。図9(b)に示すように、喜んでいる時は橙色、安心している時は黄色、平穏な時は緑色、興奮している時は赤色、イライラしている時は赤紫色、不安な時は紫色、無気力な時は青色、悲しい時は青紫色をメインとした色調となる。また、感情の度合いによって色だけでなく各色の明るさであるとか点灯の速度、パターンを変える。例えば、興奮度が高くなるほど明るくしたり、点灯の速度を速くする。また、音に関しても色や動作と同様に、感情に応じて変化させる。例えば感情にあった動物の鳴き声に模した発声をする。また、楽しい時は明るい発音、悲しい時は小さくて消え入りそうな発音とするようにしてもよい。このように、ロボット100の体の全体を使用した動作、発色、音の組み合わせによって多彩でダイナミックな感情の表現を行う。
次に、外部刺激に応じた感情表現の具体例を以下に列挙する。例えば、室内が暗い時、明かりがついていないことを照度センサ17が検知して、ロボット100の動きや発光が停止したお休みモードとなる。この状態で照明が点灯すると、照度センサ17は常にセンシングしているため急激な明るさの変化を検知してロボット100は、照明がついたと判断する。すると、ロボット100は、1分ほど自分の存在をアピールするようにLED27を緑に点灯し、小さめにゆっくりと広がる動作と閉じる動作を繰り返す。また使用者が近寄ってくると、焦電センサ20は人を検知し、これに応じてロボット100は、LED27を橙色にゆっくりと発光させ、傘の開閉動作を大きめにかつゆっくりと繰り返しながら、甘える発音をし、かまってもらいたい表現をする。また、使用者がロボット100の傘を優しく触ると、3軸加速度センサ16は触ったことを検知し、これに応じてロボット100は、橙色に発色しながら、甘えるような発音をし、傘の開閉動作をゆっくり小さめに繰り返し、横方向の繰り返し回転動作も交えながら喜ぶ表現を行う。この時、使用者は、手に伝わる柔らかい感触も含め、視覚・聴覚・触覚でロボット100への愛着を感じることができる。また、ロボット100は時間経過とともに成長するため、例えば使用者が多く接するといつでも明るい表現をするようになり、あまりかまわないと寂しい表現をするようになり、形成された性格によって異なる感情表現をするようになる。
なお、本発明は、上述の実施形態に限定されず、種々の変形及び応用が可能であり、感情の内容、表現方法は一例に過ぎない。また、動作も広がる動作、閉じる動作、横に回転する動作としているが他の動作でも構わない。
また、上述の実施形態での感情マップ300の構成、感情データ121、感情変化データ122、性格データ、成長値等の設定方法は一例に過ぎない。例えばより単純に、成長日数データ125をある数で割った数値(10を超えたら常に10とする)を成長値とするようにしてもよい。
また、上述の実施形態では、ロボット100にロボット100を制御する制御部110が内蔵されている構成としたが、ロボット100を制御する制御部110は、必ずしもロボット100に内蔵されている必要はない。例えば、制御部、記憶部、通信部を備えた制御装置(図示せず)が、ロボット100とは別個の装置(例えばサーバ)として構成されてもよい。この変形例では、ロボット100の通信部130と制御装置の通信部とがお互いにデータを送受信できるように構成されている。そして、制御装置の制御部は、制御装置の通信部及びロボット100の通信部130を介して、センサ部210が検出した外部刺激を取得したり、駆動部220や出力部230を制御したりする。
なお、このように制御装置とロボット100とが別個の装置で構成されている場合、必要に応じて、ロボット100は制御部110により制御されるようになっていてもよい。例えば、単純な動作は制御部110で制御され、複雑な動作は通信部130を介して制御装置の制御部で制御される等である。
上述の実施形態において、制御部110のCPUが実行する動作プログラムは、あらかじめ記憶部120のROM等に記憶されていた。しかしながら、本発明は、これに限定されず、上述の各種処理を実行させるための動作プログラムを、既存の汎用コンピュータ等に実装することにより、上述の実施形態に係るロボット100の制御部110及び記憶部120に相当する装置として機能させてもよい。
また、記憶部120に記憶された感情変化データ122、成長テーブル123、動作内容テーブル124、成長日数データ125等の疑似感情に関するデータは外部機器から取得および外部機器で編集できるようにしてもよい。具体的にはスマートフォン等の情報通信機器に搭載されたアプリケーションプログラムによって、ロボット100から疑似感情に関するデータを取得し、アプリケーションの表示画面に表示する。さらに表示されたデータを使用者が編集した後、ロボット100に送信するようにしてよい。
ロボット100を自分の好みの性格に育てたいと望む使用者にとっては、このようにすることで、ロボット100の性格を画面上で確認することができ、ロボット100を自分の好みの性格に設定したり、好みの動作をさせたりすることができる。さらにすでにロボット100の疑似成長が止まって性格が固定された場合に、ロボット100の成長値をリセットして、また育て直すことも可能となる。
このようなプログラムの提供方法は任意であり、例えば、コンピュータが読取可能な記録媒体(フレキシブルディスク、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROM、MO(Magneto-Optical Disc)、メモリカード、USBメモリ等)に格納して配布してもよいし、インターネット等のネットワーク上のストレージにプログラムを格納しておき、これをダウンロードさせることにより提供してもよい。
また、上述の処理をOS(Operating System)とアプリケーションプログラムとの分担、又は、OSとアプリケーションプログラムとの協働によって実行する場合には、アプリケーションプログラムのみを記録媒体やストレージに格納してもよい。また、搬送波にプログラムを重畳し、ネットワークを介して配信することも可能である。例えば、ネットワーク上の掲示板(Bulletin Board System:BBS)に上記プログラムを掲示し、ネットワークを介してプログラムを配信してもよい。そして、このプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、上記の処理を実行できるように構成してもよい。
また、制御部110は、シングルプロセッサ、マルチプロセッサ、マルチコアプロセッサ等の任意のプロセッサ単体で構成されるものの他、これら任意のプロセッサと、ASIC(Application Specific Integrated Circuit)やFPGA(Field‐Programmable Gate Array)等の処理回路とが組み合わせられて構成されてもよい。
本発明は、本発明の広義の精神と範囲とを逸脱することなく、様々な実施形態及び変形が可能とされるものである。また、前述した実施形態は、この発明を説明するためのものであり、本発明の範囲を限定するものではない。すなわち、本発明の範囲は、実施形態ではなく、特許請求の範囲によって示される。そして、特許請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、この発明の範囲内とみなされる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
(付記1)
傘の回転動作と開閉動作が可能な傘部と、
外部刺激に応じて疑似的な感情を表す感情データを取得する感情データ取得部と、
前記感情データに基づき、前記傘部の傘の回転及び開閉動作の少なくとも一方を制御する制御部と、
を備えるロボット。
(付記2)
前記制御部は、前記傘部の傘の回転及び開閉の動きの大きさと速さを制御して前記感情を表現する、
付記1に記載のロボット。
(付記3)
発光部と、
スピーカと、を備え、
前記制御部は、前記発光部が発する光と前記スピーカが発する音を制御して前記感情を表現する、
付記1又は2に記載のロボット。
(付記4)
前記感情データ取得部は、前記感情データを感情の分布を表した感情マップ上の座標値に基づき取得する、
付記1から3のいずれか1つに記載のロボット。
(付記5)
前記感情データ取得部は、前記感情データを形成するデータを、外部の情報通信端末から取得する、
付記1から4のいずれか1つに記載のロボット。
(付記6)
前記制御部は、前記外部刺激がない場合に、前記傘部を制御して自発的な動作をさせる、
付記1から5のいずれか1つに記載のロボット。
(付記7)
前記制御部は、前記外部刺激がない場合に、前記発光部が発する光と前記スピーカが発する音の少なくともいずれか一方を制御して自発的な動作をさせる、
付記3に記載のロボット。
(付記8)
胴体部を備え、
前記傘部は、前記胴体部の上部に配設される、
付記1から7のいずれか1つに記載のロボット。
1…胴体部、2…傘部、11…下外装、12…下ケース、13…センサホルダ、14…回路、15…バッテリー、16…3軸加速度センサ、17…照度センサ、18…マイクロフォン、19…スピーカ、20…焦電センサ、22…中ケース、23…駆動ユニット、24…フィン、25…上外装、26…フィンレバー、27…LED、28…モータフレーム、29…サーボモータ、30…ホイール、31…レバー、32…レバーねじ、33,34…レバーシャフト、35…水平カム、35a,37a…カム溝、36…軸、37…スライダー、38…上ブロック、100…ロボット、110…制御部、120…記憶部、121…感情データ、122…感情変化データ、123…成長テーブル、124…動作内容テーブル、125…成長日数データ、130…通信部、210…センサ部、220…駆動部、230…出力部、240…操作部、300…感情マップ、301,302,303…枠、310,410…原点、311,312,411,412,413,414…軸、400…性格値レーダーチャート

Claims (8)

  1. 傘の回転動作と開閉動作が可能な傘部と、
    外部刺激に応じて疑似的な感情を表す感情データを取得する感情データ取得部と、
    前記感情データに基づき、前記傘部の傘の回転及び開閉動作の少なくとも一方を制御する制御部と、
    を備えるロボット。
  2. 前記制御部は、前記傘部の傘の回転及び開閉の動きの大きさと速さを制御して前記感情を表現する、
    請求項1に記載のロボット。
  3. 発光部と、
    スピーカと、を備え、
    前記制御部は、前記発光部が発する光と前記スピーカが発する音を制御して前記感情を表現する、
    請求項1又は2に記載のロボット。
  4. 前記感情データ取得部は、前記感情データを、感情の分布を表した感情マップ上の座標値に基づき取得する、
    請求項1から3のいずれか1項に記載のロボット。
  5. 前記感情データ取得部は、前記感情データを形成するデータを、外部の情報通信端末から取得する、
    請求項1から4のいずれか1項に記載のロボット。
  6. 前記制御部は、前記外部刺激がない場合に、前記傘部を制御して自発的な動作をさせる、
    請求項1から5のいずれか1項に記載のロボット。
  7. 前記制御部は、前記外部刺激がない場合に、前記発光部が発する光と前記スピーカが発する音の少なくともいずれか一方を制御して自発的な動作をさせる、
    請求項3に記載のロボット。
  8. 胴体部を備え、
    前記傘部は、前記胴体部の上部に配設される、
    請求項1から7のいずれか1項に記載のロボット。
JP2021207281A 2021-12-21 2021-12-21 ロボット Pending JP2023092204A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021207281A JP2023092204A (ja) 2021-12-21 2021-12-21 ロボット
EP22211360.7A EP4201609A1 (en) 2021-12-21 2022-12-05 Robot
US18/078,161 US20230191269A1 (en) 2021-12-21 2022-12-09 Robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021207281A JP2023092204A (ja) 2021-12-21 2021-12-21 ロボット

Publications (1)

Publication Number Publication Date
JP2023092204A true JP2023092204A (ja) 2023-07-03

Family

ID=84389264

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021207281A Pending JP2023092204A (ja) 2021-12-21 2021-12-21 ロボット

Country Status (3)

Country Link
US (1) US20230191269A1 (ja)
EP (1) EP4201609A1 (ja)
JP (1) JP2023092204A (ja)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002307354A (ja) 2000-11-07 2002-10-23 Sega Toys:Kk 電子玩具
CN204686881U (zh) * 2015-04-20 2015-10-07 慈溪市光明灯具有限公司 一种户外遮阳机器人
US10549207B2 (en) * 2016-01-06 2020-02-04 Evollve, Inc. Robot having a changeable character
US11633863B2 (en) * 2018-04-06 2023-04-25 Digital Dream Labs, Llc Condition-based robot audio techniques
WO2020158642A1 (ja) * 2019-01-31 2020-08-06 ソニー株式会社 ロボットの制御装置、ロボットの制御方法、及びプログラム
JP7222537B2 (ja) 2019-02-27 2023-02-15 学校法人 関西大学 ロボット装置
JP7070529B2 (ja) * 2019-10-31 2022-05-18 カシオ計算機株式会社 機器の制御装置、機器の制御方法及びプログラム
CN112873224B (zh) * 2021-01-12 2022-08-30 上海东古智能科技有限公司 舰载动态复杂环境的特种机器人系统

Also Published As

Publication number Publication date
US20230191269A1 (en) 2023-06-22
EP4201609A1 (en) 2023-06-28

Similar Documents

Publication Publication Date Title
US20230249355A1 (en) Autonomously acting robot that changes pupil image of the autonomously acting robot
JP6572943B2 (ja) ロボット、ロボットの制御方法及びプログラム
AU2016250773A1 (en) Context-aware digital play
JP7452568B2 (ja) 機器の制御装置、機器の制御方法及びプログラム
JP2011115944A (ja) ロボット装置、ロボット装置の行動制御方法及びプログラム
JP7081619B2 (ja) 機器の制御装置、機器、機器の制御方法及びプログラム
JP2023155303A (ja) ロボット、表現方法及びプログラム
JP2023092204A (ja) ロボット
JP7364016B2 (ja) ロボット、制御方法及びプログラム
CN110382174A (zh) 一种用于执行情绪姿势以与用户交互作用的装置
Abbas et al. Thinking machines: discourses of artificial intelligence
CN113313836B (zh) 一种控制虚拟宠物的方法及智能投影设备
JP7163987B2 (ja) 機器の制御装置、機器の制御方法及びプログラム
WO2023037608A1 (ja) 自律移動体、情報処理方法、及び、プログラム
JP7314967B2 (ja) 電子機器、ロボット、制御方法及びプログラム
WO2023037609A1 (ja) 自律移動体、情報処理方法、及び、プログラム
Franke et al. Monitoring daily routine anomalies in assisted living environments
WO2020009098A1 (ja) ロボット
JP2024047372A (ja) ロボット、ロボット制御方法及びプログラム
JP2023049116A (ja) ロボット、ロボット制御方法及びプログラム
JP2023160829A (ja) 機器の電源制御装置、機器の制御方法及びプログラム
Yiannoudes Formal criteria for the design of perceptually animate intelligent kinetic structures