JP7468367B2 - 移動体、移動方法 - Google Patents

移動体、移動方法 Download PDF

Info

Publication number
JP7468367B2
JP7468367B2 JP2020572165A JP2020572165A JP7468367B2 JP 7468367 B2 JP7468367 B2 JP 7468367B2 JP 2020572165 A JP2020572165 A JP 2020572165A JP 2020572165 A JP2020572165 A JP 2020572165A JP 7468367 B2 JP7468367 B2 JP 7468367B2
Authority
JP
Japan
Prior art keywords
moving
moving body
mobile robot
movement
personality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020572165A
Other languages
English (en)
Other versions
JPWO2020166371A1 (ja
Inventor
誠司 鈴木
嘉人 大木
笑佳 金子
文彦 飯田
佑理 日下部
拓也 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020166371A1 publication Critical patent/JPWO2020166371A1/ja
Application granted granted Critical
Publication of JP7468367B2 publication Critical patent/JP7468367B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0291Fleet control
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H13/00Toy figures with self-moving parts, with or without movement of the toy as a whole
    • A63H13/02Toy figures with self-moving parts, with or without movement of the toy as a whole imitating natural actions, e.g. catching a mouse by a cat, the kicking of an animal
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H33/00Other toys
    • A63H33/005Motorised rolling toys
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0084Programme-controlled manipulators comprising a plurality of manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Toys (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本技術は、移動体、移動方法に関し、特に、相互作用性を発揮しながら移動体を移動させることができるようにした移動体、移動方法に関する。
従来、周囲の人物と環境をセンシングすることによって周囲の状況を表す環境マップなどを作成し、自律的に移動する移動体がある。移動体には、自動車、ロボット、飛行機などがある。
特開2013-31897号公報 特開2013-22705号公報 特開2012-236244号公報
従来の移動体は、人が移動する手段としての移動体、掃除などの人の活動を支援する移動体など、人の移動や活動を支援することに着目した移動体にとどまっている。
さらに、従来の移動体は、ペット型のロボットのように、感情や性格などの情報をロボット自体に持たせて、頭を撫でるなどのユーザの行動に連動して、親近感を持たせるように行動する移動体にとどまっている。
本技術はこのような状況に鑑みてなされたものであり、相互作用性を発揮しながら移動体を移動させることができるようにするものである。
本技術の一側面の移動体は、移動体の状態及び前記移動体の周囲に位置する人の性格又は感情と、前記移動体の性格又は感情を示すパラメータとの組み合わせに応じて、移動のスピードと移動の方向とを制御しながら移動し、前記移動体の状態と他の移動体の状態との組み合わせに応じて、前記パラメータの類似度が閾値より高い前記他の移動体とグループを形成した状態で移動する移動部を備える。
本技術の一側面においては、移動体の状態及び前記移動体の周囲に位置する人の性格又は感情と、前記移動体の性格又は感情を示すパラメータとの組み合わせに応じて、移動のスピードと移動の方向とが制御される。また、前記移動体の状態と他の移動体の状態との組み合わせに応じて、前記パラメータの類似度が閾値より高い前記他の移動体とグループを形成した状態で移動するように制御される。
本技術の一実施形態に係るロボットシステムの使用状態を示す図である。 移動ロボットの移動の仕組みの例を示す図である。 室内のエリアの設定例を示す平面図である。 移動ロボットの動作モードの例を示す図である。 各動作モード時の行動の例を示す図である。 移動ロボットの性格を規定するパラメータの例を示す図である。 「見守る」の例を示す図である。 「なつく」の例を示す図である。 「警戒する」の例を示す図である。 「目印に反応する」の例を示す図である。 「目印に反応する」の他の例を示す図である。 「気を取られる」の例を示す図である。 「ロボット同士で集合する」の例を示す図である。 ロボットシステムの構成例を示すブロック図である。 制御装置の制御部の機能構成例を示すブロック図である。 移動ロボットの位置の認識の例を示す図である。 本体部の内部の構成例を示す図である。
<本技術の概要>
本技術は、移動体自体の性格と感情の変動に着目し、対象物(人間、ロボットなど)と移動体との関係に加えて、移動体を取り巻く様々な関係性を考慮して、対象物の行動に連動するなどして、相互作用性を発揮させながら移動体を移動させるものである。
移動体を取り巻く関係には、移動体同士の関係、複数の移動体から構成されるグループ内の移動体の関係、複数の移動体から構成されるグループ同士の関係などが含まれる。
<ロボットシステムの用途>
図1は、本技術の一実施形態に係るロボットシステムの使用状態を示す図である。
図1のロボットシステムは、暗い室内などの空間において用いられる。ロボットシステムが設置された空間内には人が存在する。
図1に示すように、室内の床面には、球体状の移動ロボット1が複数用意される。図1の例においては、3種類の大きさの移動ロボット1が用意されている。それぞれの移動ロボット1は、図示せぬ制御装置による制御に従って床面上を移動する移動体である。
それぞれの移動ロボット1の位置、人の位置を認識し、それぞれの移動ロボット1の移動を制御する制御装置が、ロボットシステムには設けられる。
図2は、移動ロボット1の移動の仕組みの例を示す図である。
図2のAに示すように、それぞれの移動ロボット1は、球体状の本体部11に対して、同じく球体状であり、中空のカバー12を被せることによって構成される。
本体部11の内部には、制御装置と通信を行い、制御装置から送信されてきた制御コマンドに従って移動ロボット1の行動を制御するコンピュータが設けられる。また、本体部11の内部には、オムニホイールの回転量や向きを変更することによって本体部11全体を回転させる駆動部も設けられる。
カバー12が被せられた状態で本体部11が転がることによって、図2のBに示すように、任意の方向に対する移動ロボット1の移動が実現される。
図1に示すそれぞれの移動ロボット1が、図2に示すような構成を有している。
それぞれの移動ロボット1は、人の動きに連動して移動する。例えば、人に近寄ったり、人が近くにいる場合には人から離れたりするような移動ロボット1の行動が実現される。
また、それぞれの移動ロボット1は、他の移動ロボット1の動きに連動して移動する。例えば、近くにいる他の移動ロボット1に近寄ったり、同じ動きをしてダンスを踊ったりするような移動ロボット1の行動が実現される。
このように、それぞれの移動ロボット1は、単独で移動したり、他の移動ロボット1とグループを形成して移動したりする。
図1のロボットシステムは、人が移動ロボット1とコミュニケーションをとることができるとともに、移動ロボット1同士のコミュニティを表現することができるシステムとなる。
図3は、室内のエリアの設定例を示す平面図である。
図3に示すように、ロボットシステムが用意された室内には、移動ロボット1の移動可能なエリアである移動可能エリアA1が設定される。薄い色を付して示す円は移動ロボット1を表す。制御装置においては、室内に設けられたカメラやセンサなどを用いて、移動可能エリアA1内にいるそれぞれの移動ロボット1の位置が認識される。
移動可能エリアA1には、エリアA11とエリアA12の2つのエリアが設定される。例えば、移動ロボット1全体は、エリアA11内を移動する移動ロボット1と、エリアA12内を移動する移動ロボット1に分けられる。
それぞれの移動ロボット1が移動するエリアは、例えば、時間に応じて、または、後述する移動ロボット1の性格に応じて設定される。
これにより、移動ロボット1が移動可能エリアA1内の一部に偏って存在するような状況になってしまうことを防ぐことが可能となる。
図4は、移動ロボット1の動作モードの例を示す図である。
図4に示すように、移動ロボット1の動作モードには、単独で動作するSOLOモード、2台で連携して動作するDUOモード、3台で連携して動作するTRIOモード、および、4台で連携して動作するQUARTETモードがある。
移動ロボット1の動作モードは、双方向の矢印で示すように、ある動作モードから他の動作モードに適宜切り替えられる。いずれの動作モードで動作するのかが、例えば、移動ロボット1の性格、室内にいる人の状況、他の移動ロボット1の状況、時間などの条件に応じて設定される。
図5は、各動作モード時の行動の例を示す図である。
図5に示すように、SOLOモードの設定時、移動ロボット1は、八の字に移動したり、位置を移動せずにその場で揺れたり、他の移動ロボット1の周りを回ったりするような行動をとる。
また、DUOモード設定時、移動ロボット1は、グループを組む他の移動ロボット1の近くで共に揺れたり、他の移動ロボット1を追いかけたり、他の移動ロボット1と押し合ったりするような行動をとる。
TRIOモード設定時、移動ロボット1は、緩やかにカーブしながら、グループを組む他の移動ロボット1に追従して移動したり(ウェーブ)、他の移動ロボット1とともに円を描くように移動したり(ダンス)するような行動をとる。
QUARTETモード設定時、移動ロボット1は、グループを組む他の移動ロボット1と競走したり(走る)、連結した状態で他の移動ロボット1とともに円を描くように移動したり(数珠つなぎ)するような行動をとる。
図6は、移動ロボット1の性格を規定するパラメータの例を示す図である。
パラメータには、例えば、人に対する社交性を表すパラメータ、他の移動ロボット1に対する社交性を表すパラメータ、飽きっぽさを表すパラメータ、すばやさを表すパラメータが用意される。
各パラメータの値の組み合わせによって、好奇心旺盛、活発、甘えん坊、怖がりの性格が規定される。
好奇心旺盛(CUTE)の性格は、人に対する社交性を表すパラメータが5、他の移動ロボット1に対する社交性を表すパラメータが1、飽きっぽさを表すパラメータが1、すばやさを表すパラメータが3の組み合わせによって規定される。
好奇心旺盛の性格を有する移動ロボット1は、例えば、人に寄ってくる、人についていく、人の近くで所定の動きをとるといったような行動をとる。
活発(WILD)の性格は、人に対する社交性を表すパラメータが3、他の移動ロボット1に対する社交性を表すパラメータが3、飽きっぽさを表すパラメータが5、すばやさを表すパラメータが5の組み合わせによって規定される。
活発の性格を有する移動ロボット1は、例えば、他の移動ロボット1に寄り、その後離れるといったような行動を繰り返し行う。
甘えん坊(DEPENDENT)の性格は、人に対する社交性を表すパラメータが3、他の移動ロボット1に対する社交性を表すパラメータが5、飽きっぽさを表すパラメータが3、すばやさを表すパラメータが1の組み合わせによって規定される。
甘えん坊の性格を有する移動ロボット1は、例えば、他の移動ロボット1の周りを回る、他の移動ロボット1の近くで所定の動きをとるといったような行動をとる。
怖がり(SHY)の性格は、人に対する社交性を表すパラメータが1、他の移動ロボット1に対する社交性を表すパラメータが3、飽きっぽさを表すパラメータが5、すばやさを表すパラメータが3の組み合わせによって規定される。
怖がりの性格を有する移動ロボット1は、例えば、人から逃げる、人に少しずつ近寄るといったような行動をとる。
このような性格がそれぞれの移動ロボット1に設定される。なお、性格を規定するパラメータの種類は、図6に示す4種類に限られるものではない。また、性格も、4種類に限られるものではない。
パラメータは、性格だけでなく、感情をも表す情報であるといえる。すなわち、パラメータは、性格または感情を表す情報となる。
<移動ロボット1の行動の例>
それぞれの移動ロボット1は、以上のようなパラメータにより規定される移動ロボット1自身の性格や感情だけでなく、移動ロボット1と周囲の状況との関係性に基づいて、様々な行動をとる。周囲の状況には、人の行動、人の性格や感情、他の移動ロボット1の行動、他の移動ロボット1の性格や感情が含まれる。
それぞれの移動ロボット1がとる行動には以下のようなものがある。
(1)見守る
(2)なつく
(3)警戒する
(4)目印に反応する
(5)気を取られる
(6)ロボット同士で集合する
(1)見守る
図7は、「見守る」の例を示す図である。
図7に示すように、人が室内に入ってきた場合、近くにいる移動ロボット1が寄ってくる。人に寄ってきた移動ロボット1は、人と一定の距離をとったまま、その場で停止する。所定の時間が経過した場合、それぞれの移動ロボット1は任意の方向に散らばる。
このようにして「見守る」行動が実現される。
(2)なつく
図8は、「なつく」の例を示す図である。
図8に示すように、人がしゃがんで移動ロボット1を撫でた場合、移動ロボット1は、その人にまとわりつくように移動する。周囲にいる移動ロボット1も、先にまとわりついている移動ロボット1に追従して移動する。
このようにして「なつく」行動が実現される。
(3)警戒する
図9は、「警戒する」の例を示す図である。
図9に示すように、人が所定の速度以上の速度で近寄ってきた場合、移動ロボット1は、その人と一定の距離をとりながら、離れる方向に移動する。周囲にいるロボットもその人から一定の距離をとるように移動することにより、人を中心とした一定の範囲内に、移動ロボット1がいない領域が形成される。
このようにして「警戒する」行動が実現される。
(4)目印に反応する
図10は、「目印に反応する」の例を示す図である。
図10に示すように、人がスマートフォンのディスプレイをオンにした場合、周囲にいる移動ロボット1は、その人に群がるように移動する。ディスプレイの明かりを検出するためのセンサも、ロボットシステムには用意されている。
図11は、「目印に反応する」の他の例を示す図である。
図11に示すように、人が手を叩くなどして大きな音をたてた場合、周囲にいる移動ロボット1は、壁際まで移動する。室内の音を検出するためのマイクロフォンも、ロボットシステムには用意されている。
このようにして「目印に反応する」行動が実現される。
(5)気を取られる
図12は、「気を取られる」の例を示す図である。
図12に示すように、移動中に人にぶつかった場合、移動ロボット1は、その人の周りを移動したり、まとわりつくように移動したりする。
このようにして「気を取られる」行動が実現される。
(6)ロボット同士で集合する
図13は、「ロボット同士で集合する」の例を示す図である。
図13に示すように、あるタイミングになった場合、全ての移動ロボット1は、3,4台などの所定の数ずつまとまり、グループを形成するように移動する。
このようにして「ロボット同士で集合する」行動が実現される。移動ロボット1が一斉に人を無視するような「ロボット同士で集合する」行動は、例えば所定の時間間隔で行われる。
以上のように、それぞれの移動ロボット1は、人とコミュニケーションを取るように、または、他の移動ロボット1とコミュニケーションを取るように各種の行動をとる。ロボットシステムは、人や他の移動ロボット1との間で相互作用性を発揮させながら、それぞれの移動ロボット1を移動させることができる。
<ロボットシステムの構成例>
図14は、ロボットシステムの構成例を示すブロック図である。
図14に示すように、ロボットシステムは、移動ロボット1の他に、制御装置31、カメラ群32、センサ群33が設けられることによって構成される。カメラ群32を構成する各カメラと、センサ群33を構成する各センサは、有線、または無線の通信を介して制御装置31に対して接続される。移動ロボット1と制御装置31の間は、無線の通信を介して接続される。
移動ロボット1は、移動部21、制御部22、および通信部23により構成される。移動部21、制御部22、および通信部23の各構成が、本体部11内に設けられる。
移動部21は、オムニホイールを駆動させることによって、移動ロボット1の移動を実現する。移動部21は、制御部22による制御に従って、移動のスピードと移動の方向とを制御しながら移動ロボット1の移動を実現する移動部として機能する。移動部21の制御は、移動ロボット1の状態および周囲の人の状態と、移動ロボット1のパラメータとに応じて制御装置31において生成された制御コマンドに従って行われる。
また、移動部21は、モーターを駆動させるなどして、揺れるなどの移動ロボット1の行動をも実現する。移動部21の構成の詳細については後述する。
制御部22は、コンピュータにより構成される。制御部22は、CPUにより所定のプログラムを実行し、移動ロボット1の全体の動作を制御する。制御部22は、通信部23から供給された制御コマンドに従って移動部21を駆動させる。
通信部23は、制御装置31から送信されてきた制御コマンドを受信し、制御部22に出力する。制御部22を構成するコンピュータの内部に通信部23も設けられる。
制御装置31は、PCなどのデータ処理装置により構成される。制御装置31は、制御部41、通信部42を有する。
制御部41は、カメラ群32による撮影結果、センサ群33による検出結果等に基づいて制御コマンドを生成し、通信部42に出力する。制御部41においては、それぞれの移動ロボット1に対する制御コマンドが生成される。
通信部42は、制御部41から供給された制御コマンドを移動ロボット1に対して送信する。
カメラ群32は、ロボットシステムが設置された空間の各位置に配置された複数のカメラにより構成される。カメラ群32がRGBカメラによって構成されるようにしてもよいし、IRカメラによって構成されるようにしてもよい。カメラ群32を構成するそれぞれのカメラは、所定の範囲を対象とした画像を生成し、制御装置31に送信する。
センサ群33は、ロボットシステムが設置された空間の各位置に配置された複数のセンサにより構成される。センサ群33を構成するセンサとして、例えば、距離センサ、人感センサ、照度センサ、マイクロフォンが設けられる。センサ群33を構成するそれぞれのセンサは、所定の範囲を対象としたセンシング結果を表す情報を制御装置31に送信する。
図15は、制御装置31の制御部41の機能構成例を示すブロック図である。
図15に示す機能部のうちの少なくとも一部は、制御装置31を構成するPCのCPUにより所定のプログラムが実行されることによって実現される。
制御装置31においては、パラメータ管理部51、グループ管理部52、ロボット位置認識部53、移動制御部54、人位置認識部55、および人状態認識部56が実現される。
パラメータ管理部51は、それぞれの移動ロボット1のパラメータを管理し、適宜、グループ管理部52に出力する。
グループ管理部52は、パラメータ管理部51が管理するパラメータに基づいて、それぞれの移動ロボット1の動作モードを設定する。
また、グループ管理部52は、SOLOモード以外の動作モードが設定された移動ロボット1からなるグループを、それぞれの移動ロボット1のパラメータなどに基づいて形成し、管理する。例えば、グループ管理部52は、パラメータの類似度が閾値より大きい移動ロボット1からなるグループを形成する。
グループ管理部52は、それぞれの移動ロボット1の動作モードに関する情報と、SOLOモード以外の動作モードが設定された移動ロボット1が属するグループに関する情報とを移動制御部54に出力する。
ロボット位置認識部53は、カメラ群32を構成するそれぞれのカメラから送信されてきた画像に基づいて、または、センサ群33を構成するそれぞれのセンサによるセンシング結果に基づいて、それぞれの移動ロボット1の位置を認識する。ロボット位置認識部53は、それぞれの移動ロボット1の位置を表す情報を移動制御部54に出力する。
移動制御部54は、グループ管理部52から供給された情報と、ロボット位置認識部53により認識された移動ロボット1の位置に基づいて、それぞれの移動ロボット1の移動を制御する。移動ロボット1の移動は、適宜、人位置認識部55により認識された人の位置、人状態認識部56により認識された人の感情にも基づいて制御される。
例えば、移動制御部54は、好奇心旺盛の性格を有する移動ロボット1がSOLOモードで行動しており、移動ロボット1の現在位置を中心として所定の距離の範囲内に人がいる場合、人の近くの位置を目的地として設定する。移動制御部54は、現在地から目的地まで移動することを指示する制御コマンドを生成する。
また、移動制御部54は、活発の性格を有する移動ロボット1がDUOモードで行動しており、一方の移動ロボット1と他方の移動ロボット1によりグループが形成されている場合、それぞれの移動ロボット1の目的地を設定する。移動制御部54は、現在地から目的地まで移動して競走することを指示する、それぞれの移動ロボット1用の制御コマンドを生成する。
移動制御部54は、それぞれの移動ロボット1に対する制御コマンドを生成し、通信部42から送信させる。また、移動制御部54は、図7乃至図13を参照して説明したようなそれぞれの行動をとるための制御コマンドを生成し、通信部42から送信させる。
人位置認識部55は、カメラ群32を構成するそれぞれのカメラから送信されてきた画像に基づいて、または、センサ群33を構成するそれぞれのセンサによるセンシング結果に基づいて、人の位置を認識する。人位置認識部55は、人の位置を表す情報を移動制御部54に出力する。
人状態認識部56は、カメラ群32を構成するそれぞれのカメラから送信されてきた画像に基づいて、または、センサ群33を構成するそれぞれのセンサによるセンシング結果に基づいて、人の状態を認識する。
例えば、人が同じ位置に所定の時間以上立ち続けている、人がしゃがんでいるといったような、人の行動が人の状態として認識される。移動ロボット1が人に近づくことは、例えば、人が同じ位置に所定の時間以上立ち続けている、人がしゃがんでいるなどの所定の行動をトリガーとして開始される。
また、人の動きのパターンなどに基づいて、人の性格や感情が人の状態として認識される。例えば、好奇心旺盛で多くの移動ロボット1に触れている子どもが、好奇心旺盛な性格を有する移動ロボット1の近くにいる場合、子どもに移動ロボット1を近付けるような制御が行われる。
この場合、性格または感情の類似度が高い人に近づくような行動を、移動ロボット1がとることになる。
このように、行動、感情を含む人の状態に基づいて移動ロボット1の行動が制御されるようにしてもよい。人状態認識部56は、人の状態の認識結果を表す情報を移動制御部54に出力する。
図16は、移動ロボット1の位置の認識の例を示す図である。
図16に示すように、移動ロボット1の本体部11の内部にはIR光を発光する発光部101が設けられる。カバー12は、IR光を透過する素材により形成される。
制御装置31のロボット位置認識部53は、カメラ群32を構成するIRカメラにより撮影された画像を解析することによって、それぞれの移動ロボット1のIR光の点滅パターンを検出する。ロボット位置認識部53は、検出したIR光の点滅パターンに基づいて、それぞれの移動ロボット1の位置を識別する。
図17は、本体部11の内部の構成例を示す図である。
図17に示すように、本体部11の内部にはコンピュータ111が設けられる。コンピュータ111の基板112には、バッテリ113が接続されるとともに、ドライバを介して、モーター114が設けられる。
モーター114にはオムニホイール115が取り付けられる。図17の例においてはモーター114とオムニホイール115が2つずつ設けられている。
オムニホイール115は、本体部11を構成する球体状のカバーの内面に接した状態で回転する。オムニホイール115の回転量を調整することにより、本体部11全体が転がり、移動ロボット1の移動のスピードと移動の方向が制御される。
基板112の所定の位置には、支持部材を介して、ガイドローラ116が設けられる。ガイドローラ116は、例えば、支柱となるバネ材によって、本体部11のカバーの内面に押圧される。オムニホイール115が回転することに応じて、ガイドローラ116も、カバーの内面に接した状態で回転することになる。
図17に示すような構成を有する本体部11に対してカバー12を被せるのではなく、図17に示す構成が、カバー12の内部に直接設けられるようにしてもよい。
<移動制御部54による制御の例>
移動制御部54による制御は、移動ロボット1の状態、および、移動ロボット1の周囲にいる人の状態と、移動ロボット1の性格や感情を示すパラメータとに応じて行われる。
人の状態には、上述したように、人の行動などに基づいて人状態認識部56により認識された人の性格や感情も含まれる。この場合、移動制御部54による制御は、パラメータにより表される移動ロボット1の性格や感情と、人の性格や感情との組み合わせに応じて行われることになる。
パラメータにより表される移動ロボット1の性格や感情と、人の性格や感情との類似度が閾値以上である場合、移動ロボット1を人に近付けるような制御が行われるようにしてもよい。この場合、自分と性格や感情が似ている人に対して移動ロボット1が移動することになる。
パラメータにより表される移動ロボット1の性格や感情と、人の性格や感情との類似度が閾値より小さい場合、移動ロボット1を人から遠ざける制御が行われるようにしてもよい。この場合、自分と性格や感情が似ていない人から離れるように移動ロボット1が移動することになる。
また、移動制御部54による制御は、移動ロボット1の状態と他の移動ロボット1の状態との組み合わせに応じて、移動ロボット1同士がグループを形成するようにして行われる。
例えば近くにいる移動ロボット1によりグループが形成される。また、パラメータの類似度が閾値より高く、性格や感情が似ている移動ロボット1によりグループが形成される。
所定のグループに属する移動ロボット1は、他の移動ロボット1とともにグループを形成した状態のまま移動する。
グループを形成した状態のまま、人に近づいたり、人から離れたりするような行動が、グループ単位で行われる。この場合、ある移動ロボット1の行動は、人の状態、移動ロボット1自身の状態、および、同じグループに属する他の移動ロボット1の状態との3つのパラメータに基づいて制御されることになる。
あるグループに属する移動ロボット1のうちの1台の移動ロボット1が、マスターロボットとして設定されるようにしてもよい。この場合、同じグループに属する他の移動ロボット1はマスターロボットとして設定されることになる。
マスターロボットが設定されたグループに対しては、マスターロボットのパラメータが、グループ全体の性格や感情を表す代表パラメータとして設定される。グループに属するそれぞれの移動ロボット1の行動は、代表パラメータに従って制御される。
<変形例>
移動ロボット1の行動が制御装置31により制御されるものとしたが、移動ロボット1が自己位置を推定し、周囲の状況を判断しながら自律的に移動するようにしてもよい。
人の行動に連動して、または他の移動ロボット1の行動に連動して移動ロボット1が行動をとるものとしたが、ペット型ロボットなどの他の種別のロボットの行動に連動して、移動ロボット1が上述したような行動をとるようにしてもよい。
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
1 移動ロボット, 31 制御装置, 32 カメラ群, 33 センサ群

Claims (12)

  1. 移動体の状態及び前記移動体の周囲に位置する人の性格又は感情と、前記移動体の性格又は感情を示すパラメータとの組み合わせに応じて、移動のスピードと移動の方向とを制御しながら移動し、
    前記移動体の状態と他の移動体の状態との組み合わせに応じて、前記パラメータの類似度が閾値より高い前記他の移動体とグループを形成した状態で移動する
    移動部を備える
    移動体。
  2. 前記移動部は、前記人の性格又は感情と前記パラメータとの類似度が閾値以上の場合に前記人に近づくように、移動のスピードと移動の方向とを制御しながら移動する
    請求項1に記載の移動体。
  3. 前記移動部は、前記人の性格又は感情と前記パラメータとの類似度が閾値より小さい場合に前記人から遠ざかるように、移動のスピードと移動の方向とを制御しながら移動する
    請求項1に記載の移動体。
  4. 前記移動部は、前記グループの移動を主導するマスター移動体の前記パラメータを前記グループの性格又は感情を示す代表パラメータとして用いて、移動のスピードと移動の方向とを制御しながら移動する
    請求項に記載の移動体。
  5. 前記移動部は、移動体毎に設定された移動範囲内で、移動のスピードと移動の方向とを制御しながら移動する
    請求項1に記載の移動体。
  6. 前記他の移動体は、ロボットであり、
    前記移動部は、前記移動体自身の前記パラメータと前記ロボットの性格又は感情を示すパラメータとの組み合わせに応じて、移動のスピードと移動の方向とを制御しながら移動する
    請求項に記載の移動体。
  7. 前記移動部は、前記移動体自身のパラメータと前記ロボットのパラメータとの類似度が閾値以上の場合に前記ロボットに追従するように、移動のスピードと移動の方向とを制御しながら移動する
    請求項に記載の移動体。
  8. 前記移動体は、球状のカバーで覆われており、
    前記移動部は、車輪を回転させて移動させることにより前記カバーを回転させる
    請求項1に記載の移動体。
  9. 前記移動部は、車輪の向きを変更させて移動させることより前記カバーの回転方向を変更させる
    請求項に記載の移動体。
  10. 前記移動部は、バネ材を支柱として回転することにより前記カバーに接しながら回転するガイドローラをさらに備える
    請求項に記載の移動体。
  11. 赤外線を発する発光体をさらに備え、
    前記移動体は、前記発光体から発せられる赤外線の点滅パターンを検出することにより識別される
    請求項10に記載の移動体。
  12. 移動体が、
    前記移動体の状態及び前記移動体の周囲に位置する人の性格又は感情と、前記移動体の性格又は感情を示すパラメータとの組み合わせに応じて、移動のスピードと移動の方向とを制御しながら移動し、
    前記移動体の状態と他の移動体の状態との組み合わせに応じて、前記パラメータの類似度が閾値より高い前記他の移動体とグループを形成した状態で移動する
    移動方法。
JP2020572165A 2019-02-15 2020-01-31 移動体、移動方法 Active JP7468367B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019025717 2019-02-15
JP2019025717 2019-02-15
PCT/JP2020/003601 WO2020166371A1 (ja) 2019-02-15 2020-01-31 移動体、移動方法

Publications (2)

Publication Number Publication Date
JPWO2020166371A1 JPWO2020166371A1 (ja) 2021-12-16
JP7468367B2 true JP7468367B2 (ja) 2024-04-16

Family

ID=72045653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020572165A Active JP7468367B2 (ja) 2019-02-15 2020-01-31 移動体、移動方法

Country Status (4)

Country Link
US (1) US20220088788A1 (ja)
JP (1) JP7468367B2 (ja)
CN (1) CN113474065B (ja)
WO (1) WO2020166371A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022149496A1 (ja) * 2021-01-05 2022-07-14 ソニーグループ株式会社 エンタテインメントシステムおよびロボット

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000218578A (ja) 1999-02-03 2000-08-08 Sony Corp 球形ロボット
JP2001212783A (ja) 2000-02-01 2001-08-07 Sony Corp ロボット装置及びその制御方法
JP2001306145A (ja) 2000-04-25 2001-11-02 Casio Comput Co Ltd 移動ロボット装置およびそのプログラム記録媒体
JP2002163631A (ja) 2000-11-29 2002-06-07 Toshiba Corp 疑似生物装置及び擬似生物装置における疑似生物の行動形成方法、及び疑似生物装置に行動形成を行わせるプログラムを記載したコンピュータ読み取り可能な記憶媒体
US20090192649A1 (en) 2008-01-24 2009-07-30 Hon Hai Precision Industry Co., Ltd. Robot with personality characters and robot behavior control method
JP2015152868A (ja) 2014-02-18 2015-08-24 シャープ株式会社 情報処理装置
JP2017149416A (ja) 2016-02-24 2017-08-31 ザ・グッドイヤー・タイヤ・アンド・ラバー・カンパニー 自走式車両用の磁気的に結合される球形タイヤ
JP2019005591A (ja) 2016-04-08 2019-01-17 Groove X株式会社 人見知りする自律行動型ロボット

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259129A (ja) * 1998-03-09 1999-09-24 Yamaha Motor Co Ltd 自律移動体の制御方法
EP2994804B1 (en) * 2013-05-06 2020-09-02 Sphero, Inc. Multi-purposed self-propelled device
GB2566881B (en) * 2016-07-11 2022-04-13 Groove X Inc Autonomously acting robot whose activity amount is controlled
CN108393882B (zh) * 2017-02-06 2021-01-08 腾讯科技(深圳)有限公司 机器人姿态控制方法及机器人
CN106625720B (zh) * 2017-02-09 2019-02-19 西南科技大学 一种球形机器人的三轮转体内驱动方法
JP2019018277A (ja) * 2017-07-14 2019-02-07 パナソニックIpマネジメント株式会社 ロボット
CN208035875U (zh) * 2018-01-26 2018-11-02 深圳市智能机器人研究院 一种具有多视觉传感功能的水陆两栖球形机器人
CN111251274A (zh) * 2018-11-30 2020-06-09 北京梦之墨科技有限公司 一种球形机器人及包括其的机器人组合

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000218578A (ja) 1999-02-03 2000-08-08 Sony Corp 球形ロボット
JP2001212783A (ja) 2000-02-01 2001-08-07 Sony Corp ロボット装置及びその制御方法
JP2001306145A (ja) 2000-04-25 2001-11-02 Casio Comput Co Ltd 移動ロボット装置およびそのプログラム記録媒体
JP2002163631A (ja) 2000-11-29 2002-06-07 Toshiba Corp 疑似生物装置及び擬似生物装置における疑似生物の行動形成方法、及び疑似生物装置に行動形成を行わせるプログラムを記載したコンピュータ読み取り可能な記憶媒体
US20090192649A1 (en) 2008-01-24 2009-07-30 Hon Hai Precision Industry Co., Ltd. Robot with personality characters and robot behavior control method
JP2015152868A (ja) 2014-02-18 2015-08-24 シャープ株式会社 情報処理装置
JP2017149416A (ja) 2016-02-24 2017-08-31 ザ・グッドイヤー・タイヤ・アンド・ラバー・カンパニー 自走式車両用の磁気的に結合される球形タイヤ
JP2019005591A (ja) 2016-04-08 2019-01-17 Groove X株式会社 人見知りする自律行動型ロボット

Also Published As

Publication number Publication date
JPWO2020166371A1 (ja) 2021-12-16
WO2020166371A1 (ja) 2020-08-20
CN113474065A (zh) 2021-10-01
CN113474065B (zh) 2023-06-23
US20220088788A1 (en) 2022-03-24

Similar Documents

Publication Publication Date Title
US10120386B2 (en) Robotic creature and method of operation
US11148294B2 (en) Autonomously acting robot that maintains a natural distance
JP6924782B2 (ja) 移動体周りのロボットの行動のためのシステムおよび方法
US20230305530A1 (en) Information processing apparatus, information processing method and program
US11931906B2 (en) Mobile robot device and method for providing service to user
US20190389058A1 (en) Autonomously acting robot that imagines virtual character
JP7417356B2 (ja) ロボット制御システム
US11519456B2 (en) Joint structure appropriate for robot joint
JP2021157203A (ja) 移動体制御装置および移動体制御方法、並びにプログラム
JP7468367B2 (ja) 移動体、移動方法
US20210137438A1 (en) Control system for mobile robots
US20230195401A1 (en) Information processing apparatus and information processing method
WO2021005878A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
US11986959B2 (en) Information processing device, action decision method and program
WO2020153299A1 (ja) ロボット制御システム
JP2019217605A (ja) ロボット、ロボットの制御方法及びプログラム
US11446813B2 (en) Information processing apparatus, information processing method, and program
WO2020166370A1 (ja) 振り子装置
WO2020153298A1 (ja) 画像解析システム
JP7374581B2 (ja) ロボット、画像処理方法及びプログラム
WO2021131959A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
US10901397B2 (en) Multifunctional component and system therefor
JP2002120178A (ja) ロボット装置及びロボット装置の動作制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240318

R150 Certificate of patent or registration of utility model

Ref document number: 7468367

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150