JP6695061B2 - ロボット - Google Patents

ロボット Download PDF

Info

Publication number
JP6695061B2
JP6695061B2 JP2016147537A JP2016147537A JP6695061B2 JP 6695061 B2 JP6695061 B2 JP 6695061B2 JP 2016147537 A JP2016147537 A JP 2016147537A JP 2016147537 A JP2016147537 A JP 2016147537A JP 6695061 B2 JP6695061 B2 JP 6695061B2
Authority
JP
Japan
Prior art keywords
acceleration
housing
user
axis direction
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016147537A
Other languages
English (en)
Other versions
JP2018015211A (ja
Inventor
路子 笹川
路子 笹川
聖弥 樋口
聖弥 樋口
亮太 宮崎
亮太 宮崎
兼人 小川
兼人 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2016147537A priority Critical patent/JP6695061B2/ja
Priority to EP17833899.2A priority patent/EP3492155A4/en
Priority to CN201780001621.3A priority patent/CN108055868B/zh
Priority to PCT/JP2017/022040 priority patent/WO2018020889A1/ja
Priority to CA2998307A priority patent/CA2998307A1/en
Publication of JP2018015211A publication Critical patent/JP2018015211A/ja
Priority to US15/905,883 priority patent/US10799806B2/en
Application granted granted Critical
Publication of JP6695061B2 publication Critical patent/JP6695061B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H33/00Other toys
    • A63H33/005Motorised rolling toys
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H17/00Toy vehicles, e.g. with self-drive; ; Cranes, winches or the like; Accessories therefor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H29/00Drive mechanisms for toys in general
    • A63H29/08Driving mechanisms actuated by balls or weights
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H29/00Drive mechanisms for toys in general
    • A63H29/22Electric drives
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/006Dolls provided with electrical lighting
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/28Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H30/00Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
    • A63H30/02Electrical arrangements
    • A63H30/04Electrical arrangements using wireless transmission
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H33/00Other toys
    • A63H33/26Magnetic or electric toys
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • G01P15/18Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration in two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Description

本開示は、自己の状態を判断するロボットに関する。
従来から種々のロボットが提案されている。
特許文献1は、4本の足を有する多足走行ロボットを開示する(例えば、第8頁第15−17行など)。特許文献1において、多足走行ロボットは、3軸(X軸、Y軸、Z軸)方向の加速度を検出する加速度センサー、及び、3角(R角、P角、Y角)方向の回転角速度を検出する角度センサーを備えている(例えば、第8頁第26行−第9頁第8行など)。前記加速度センサー及び前記角速度センサーに検出結果に基づき(例えば、第9頁第5−14行など)、ユーザが前記ロボットを抱き上げたことを検出すると、前記ロボットは各足の動きを停止する(例えば、第10頁第13−20行など)。これにより、ユーザの怪我の発生を未然に防止する(例えば、第6頁第11−12行など)。
国際公開第00/032360号
上記の従来技術では、更なる改善が必要とされていた。
上記課題を解決するために、本開示の一態様のロボットは、
球体状の筐体と、
前記筐体の内側部に配置されたフレームと、
前記フレームに備え付けられた、少なくともロボットの顔の一部を表示する表示部と、
前記フレームに備え付けられ、前記筐体の内周面に接して前記筐体を回転させる一組の駆動輪と、
前記フレームに備え付けられ、所定方向に重りを往復移動させる重り駆動機構と、
上下軸方向、前後軸方向、及び左右軸方向の3軸方向の加速度を検知する加速度センサーと、
前記加速度センサーから出力された前記上下軸方向の加速度を示す第1値が所定の閾値を越えた後、前記上下軸方向の加速度を示す第1値、前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値のいずれかが一定期間、所定幅を超えて変動していると判断した場合、前記筐体がユーザに抱えられていると判断する制御回路と、を備えたものである。
上記態様により、更なる改善を実現できた。
ロボットを抱っこした時の加速度センサーの出力波形の一例を示す図である。 ロボットを抱っこした時の加速度センサーの出力波形の一例を示す図である。 ロボットを抱っこした時の加速度センサーの出力波形の一例を示す図である。 本開示の第1の実施の形態に係るロボットの外観斜視図である。 本開示の第1の実施の形態に係るロボットの内部斜視図である。 図2BのA視における、本開示の第1の実施の形態に係るロボットの内部側面図である。 図2BのA視における、本開示の第1の実施の形態に係るロボットの直進動作を表す側面図である。 図2BのB視における、本開示の第1の実施の形態に係るロボットの回転動作を表す平面図である。 本開示の第1の実施の形態に係るロボットの回転動作を表す斜視図である。 図3の側面図においてカウンターウェイトの駆動機構を示した図である。 カウンターウェイトを所定の直線方向に駆動する際のカウンターウェイトの駆動機構の動作を示す斜視図である。 カウンターウェイトを所定の直線方向に駆動する際のカウンターウェイトの駆動機構の動作を示す側面図である。 図3の側面図においてカウンターウェイトが所定の直線方向に往復移動する状態を示す側面図である。 スイングアームを回転させる際のカウンターウェイトの駆動機構の動作を示す斜視図である。 スイングアームを回転させる際のカウンターウェイトの駆動機構の動作を示す側面図である。 図2BのB視における、本開示の第1の実施の形態に係るロボットのスイングアームが回転する状態を示す平面図である。 図2BのA視における、カウンターウェイトが前方寄りに位置しているときのロボットの姿勢を示す側面図である。 図2BのA視における、カウンターウェイトが後方寄りに位置しているときのロボットの姿勢を示す側面図である。 図2BのC視における、カウンターウェイトが右方寄りに位置しているときのロボットの姿勢を示す正面図である。 図2BのC視における、カウンターウェイトが左方寄りに位置しているときのロボットの姿勢を示す正面図である。 本開示の第1の実施の形態に係るロボットが適用されたロボットシステムの全体構成の一例を示す図である。 本開示の第1の実施の形態に係るロボットを示すブロック図である。 本開示の第1の実施の形態に係るロボットにおける感情表現処理においてロボットに好意の感情を表現させるときの概要を示す図である。 本開示の第1の実施の形態に係るロボットにおける感情表現処理においてロボットにユーザを嫌がっている感情を表現させるときの概要を示す図である。 本開示の第1の実施の形態に係るロボットにおける感情表現処理を示すフローチャートである。 本開示の第1の実施の形態における図17のS200に示す抱っこ検知処理の詳細を示すフローチャートである。 本開示の第1の実施の形態における図17のS300に示す方向算出処理の詳細を示すフローチャートである。 図19のS302における筐体の移動方向の算出処理の一例を示す図である。 本開示の第1の実施の形態における図17のS400に示す駆動処理の詳細を示すフローチャートである。 図21のS401におけるガイドシャフトの向きを筐体の移動方向に合わせる処理の一例を示す図である。 図21のS402におけるカウンターウェイトの移動処理の一例を示す図である。 図21のS402におけるカウンターウェイトの移動処理の一例を示す図である。 本開示の第2の実施の形態における図17のS400に示す駆動処理の詳細を示すフローチャートである。 図24のS412における駆動輪による筐体の前進方向を移動方向と平行にする処理の一例を示す図である。 図24のS413及びS414による駆動輪の回転処理の一例を示す図である。 図24のS413及びS414による駆動輪の回転処理の一例を示す図である。 図24のS413及びS414による駆動輪の回転処理の一例を示す図である。 本開示の第3の実施の形態における図17のS300に示す方向算出処理の詳細を示すフローチャートである。 ロボットを背面から抱っこした時の加速度センサーの出力波形の一例を示す図である。 ロボットを背面から抱っこした時の加速度センサーの出力波形の一例を示す図である。 ロボットを背面から抱っこした時の加速度センサーの出力波形の一例を示す図である。 本開示の第4の実施の形態に係るロボットにおける感情表現処理の概要を示す図である。 本開示の第4の実施の形態における図17のS300に示す方向算出処理の詳細を示すフローチャートである。 図30のS323における筐体の移動方向の判断処理の一例を示す図である。 本開示の第4の実施の形態において、図24のS412を行った場合における表示部の位置の一例を示す図である。 本開示の第4の実施の形態における図17のS300に示す方向算出処理の詳細の変形例を示すフローチャートである。 図21のS402及び図24のS413及びS414において表示部211に表示させる表情を変更する一例を示す図である。 図21のS402及び図24のS413及びS414において表示部211に表示させる表情を変更する一例を示す図である。 第1回転板及び第2回転板の回転駆動機構の一例を示す図である。
(本開示に係る一態様を発明するに至った経緯)
上記のように、特許文献1は、加速度センサー及び角速度センサーを備えた4本の足を有する多足走行ロボットを開示する。特許文献1では、2つの閾値(δ1、δ2)を設けて、加速度センサー及び角速度センサーの検出出力の分散値を3分類し、ロボットが地面上を行動している状態か、持ち上げられた状態か、又は持ち下ろされた状態かを判断している(例えば、第9頁第5−14行など)。
これに対し、本発明者は、球体状の筐体を備え、前記筐体の内周面に一組の駆動輪を接して前記筐体を回転させるロボットを検討している。このロボットは、手足を備えると回転の妨げとなるため、手足を有さない。このロボットの内部には、フレームが設けられ、前記フレームに少なくとも前記ロボットの顔の一部を表示する表示部を備え付けている。
この種のロボットを検討している中で、以下の知見を発見した。
即ち、本発明者は、前記ロボットに加速度センサーを取り付けた場合、前記加速度センサーの出力波形がどう変化するかを、人が球体を抱えている状態を観察して、以下のように推測した。
本発明者は、例えば、ユーザが前記ロボットを床から持ち上げて前記ロボットを抱っこした場合と、ユーザが前記ロボットを床から持ち上げて前記ロボットを、例えば、椅子の上に置いた場合とで、前記加速度センサーの出力波形が異なると推測している。
図1A〜図1Cは、ロボットを抱っこした時の加速度センサーの出力波形の一例を示す図である。ユーザが前記ロボットを床から持ち上げて前記ロボットを抱っこした(抱えた)とする。この場合、前記加速度センサーが出力する左右軸(X軸)方向、前後軸(Y軸)方向及び上下軸(Z軸)方向それぞれの加速度を示す値は、図1Aの出力波形Wx、図1Bの出力波形Wy、図1Cの出力波形Wzに示すように変化すると推測される。以降、前記左右軸方向をX軸方向と示し、前記前後軸方向をY軸方向と示し、前記上下軸方向をZ軸方向と示す。
図1A〜図1Cに示すように、時刻t1にユーザが据置状態の前記ロボットを床から持ち上げると、前記加速度センサーの出力のうち、特に、少なくとも前記Z軸方向の加速度を示す値(第1値の一例)は、出力波形Wzに示すように所定の閾値THを越えるまで変化すると推測される。
そして、ユーザが前記ロボットを引き寄せて前記ロボットを抱っこすると、前記ロボットは、ユーザの位置まで移動した後、ユーザの動きに応じて揺れると推測される。このため、時刻t1から時刻t2までの期間の出力波形Wx、Wy、Wzが示すように、前記ロボットがユーザの位置まで移動することに応じて、前記Z軸方向の加速度を示す値、前記Y軸方向の加速度を示す値(第2値の一例)及び前記X軸方向の加速度を示す値(第3値の一例)のいずれかが、一定期間、所定幅TWを超えて変動すると推測される。
その後、前記ロボットがユーザに抱っこされると、図1A〜図1Cにおいて時刻t2から時刻t3までの期間の出力波形Wx、Wy、Wzが示すように、前記Z軸方向、前記Y軸方向及び前記X軸方向の加速度を示す値は、それぞれ、ユーザの動きに応じて所定幅TW内で変動すると推測される。
一方、前記ロボットを床から持ち上げて、例えば、椅子の上に置いたとする。この場合も、前記ロボットを抱っこした場合と同様、ユーザが前記ロボットを床から持ち上げることで、前記Z軸方向の加速度を示す値は所定の閾値THを越えるまで変化すると推測される。しかし、前記ロボットを、例えば、椅子の上に置くと、前記ロボットの位置は前記椅子の上で固定される。このため、前記Z軸方向、前記Y軸方向及び前記X軸方向の加速度を示す値は、前記ロボットが据置状態である時刻t0から時刻t1までの期間と同様、何れも略一定の値を示すと推測される。よって、時刻t1から時刻t2までの期間と同様に、前記Z軸方向、前記Y軸方向及び前記X軸方向の加速度を示す値のいずれかが一定期間、所定幅TWを超えて変動することは、ほとんどないと推測される。
このように、ユーザが前記ロボットを床から持ち上げて前記ロボットを抱っこした場合に、前記加速度センサーの出力波形の特性から前記加速度センサーの出力波形がどのように変化するかについての知見は、上記特許文献1にも開示がなく、従来知られていなかったと認識している。
一方、本発明者が検討しているロボットは、上記のように、球体状の筐体であって、前記筐体の内周面に一組の駆動輪を接して前記筐体を回転させるロボットである。そのため、回転の妨げとなる手足などを、前記筐体の外周に設けることはできない。そのため、手足などを有さない分、表現に制約があるという課題があった。
本発明者は、上記知見を利用して、子供などのユーザが前記ロボットを抱っこしているか(抱えているか)否かを判断し、ユーザが前記ロボットを抱っこしている場合には、前記ユーザへの種々の反応を前記ロボットにさせることを検討し、本開示にかかる各態様を想到するに至った。
本開示の一態様に係るロボットは、
球体状の筐体と、
前記筐体の内側部に配置されたフレームと、
前記フレームに備え付けられた、少なくともロボットの顔の一部を表示する表示部と、
前記フレームに備え付けられ、前記筐体の内周面に接して前記筐体を回転させる一組の駆動輪と、
前記フレームに備え付けられ、所定方向に重りを往復移動させる重り駆動機構と、
上下軸方向、前後軸方向、及び左右軸方向の3軸方向の加速度を検知する加速度センサーと、
前記加速度センサーから出力された前記上下軸方向の加速度を示す第1値が所定の閾値を越えた後、前記上下軸方向の加速度を示す第1値、前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値のいずれかが一定期間、所定幅を超えて変動していると判断した場合、前記筐体がユーザに抱えられていると判断する制御回路と、を備えたものである。
本態様は、加速度センサーを備え、前記加速度センサーから出力された前記上下軸方向の加速度を示す第1値が所定の閾値を越えた後、前記上下軸方向の加速度を示す第1値、前記前後軸成分の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値のいずれかが一定期間、所定幅を超えて変動していると判断した場合、前記筐体がユーザに抱えられている(抱っこされている)と判断するものである。
これにより、ユーザが前記ロボットを床から持ち上げて前記ロボットを抱っこした場合と、ユーザが前記ロボットを床から持ち上げて前記ロボットを、例えば、椅子の上に置いた場合とを、簡易に区別できる。その結果、ユーザが前記ロボットを抱っこしたと判断した場合には、前記ユーザへの種々の反応を適切に前記ロボットにさせることができる。
(実施の形態)
以下、本発明の各実施の形態について、図面を参照しながら説明する。尚、各図面において、同じ構成要素については同じ符号が用いられている。
(第1の実施の形態)
(全体構成)
図2Aは、本開示の第1の実施の形態に係るロボット1の外観斜視図である。図2Bは、本開示の第1の実施の形態に係るロボット1の内部斜視図である。ロボット1は、図2Aに示すように、球体状の筐体101を備える。筐体101は例えば、透明な部材或いは半透明の部材で構成される。
図2Bにおいて、フレーム102が筐体101の内側部に配置されている。フレーム102は、第1回転板103(回転板の一例)及び第2回転板104を備える。第1回転板103は、第2回転板104に対して上方に位置している。第1回転板103と第2回転板104とは、連結シャフト131、132と、連結シャフト131、132のそれぞれに対向する図略の二つの連結シャフトと、によって連結されている。
図2Bに示すように、第1表示部105及び第2表示部106は、第1回転板103の上面に備え付けられている。また、第3表示部107は第2回転板104の上面に備え付けられている。第1表示部105、第2表示部106及び第3表示部107は、例えば、複数の発光ダイオードにより構成される。第1表示部105、第2表示部106及び第3表示部107は、ロボットの表情の表示情報を表示する。具体的には、第1表示部105、第2表示部106及び第3表示部107は、前記複数の発光ダイオードの点灯を個別に制御することにより、図2Aに示すように、ロボット1の顔の一部、例えば、目や口を表示する。図2Aの例では、第1表示部105が左目の画像を表示し、第2表示部106が右目の画像を表示し、第3表示部107が口の画像を表示している。そして、左目、右目、口の画像は、透明又は半透明の部材からなる筐体101を透過し、外部に放射されている。
カメラ108は、図2Bに示すように、第1回転板103の上面に備え付けられている。カメラ108は、図2Aに示すように、ロボット1の顔の一部、例えば、鼻を構成する。カメラ108の撮像方向は、図2Bに示すように、ロボット1の前方に向かっている。これにより、カメラ108はロボット1の前方の映像を撮像できる。
以降、図2BのC視における左方を、左方又はX方向と記載し、図2BのC視における右方を、右方又は−X方向と記載する。また、図2BのA視における左方を、前方又はY方向と記載し、図2BのA視における右方を、後方又は−Y方向と示す。また、図2BのA視及びC視における上方を、上方又はZ方向と示し、図2BのA視及びC視における下方を、下方又は−Z方向と記載する。
制御回路109は、図2Bに示すように、第1回転板103の上面に備え付けられている。制御回路109は、ロボット1の各種動作を制御する。制御回路109の詳細は、図15を参照しながら後述する。
第1駆動輪110及び第2駆動輪111は、それぞれ、第2回転板104の下面に備え付けられており、筐体101の内周面に接している。また、第1駆動輪110は、第1駆動輪110を駆動させる第1モータ112を有する。同様に、第2駆動輪111は、第2駆動輪111を駆動させる第2モータ113を有する。即ち、第1駆動輪110及び第2駆動輪111は、それぞれ独立した個別のモータによって駆動される。第1駆動輪110及び第2駆動輪111の駆動によるロボット1の動作の詳細は後述する。第1駆動輪110及び第2駆動輪111は、一組の駆動輪を構成する。
図3は、図2BのA視における、本開示の第1の実施の形態に係るロボット1の内部側面図である。図3において、カウンターウェイト114(重りの一例)は、第1回転板103と第2回転板104との間に設けられている。カウンターウェイト114は、筐体101の中心からやや下方に位置する。このため、ロボット1の重心は、筐体101の中心から下方に位置する。これにより、ロボット1の動作を安定させることができる。
図3に示すように、ロボット1は、カウンターウェイト114を駆動する機構として、カウンターウェイト114の移動方向を規定するガイドシャフト115、カウンターウェイト114の回転方向の位置を規定するスイングアーム116、スイングアーム116を回転させる回転用モータ117、スイングアーム116及び回転用モータ117の間を接続する回転シャフト118、カウンターウェイト114の駆動に用いられるベルト119(図8A及び図8B)、ベルト119に接するモータプーリ120(図8A及び図8B)、及び、モータプーリ120を回転させる、図示しない重り駆動用モータを備える。尚、本態様においては、前記駆動用モータはカウンターウェイト114に内蔵されている。カウンターウェイト114の駆動によるロボット1の動作の詳細は後述する。
回転シャフト118は、第1駆動輪110と第2駆動輪111との駆動軸に対して垂直方向に延びる。第1駆動輪110及び第2駆動輪111は正面視において、地面に向けて距離が離れるように取り付けられている。この場合、第1駆動輪110と第2駆動輪111との駆動軸は、例えば、第1駆動輪110と第2駆動輪111との中心同士を結ぶ仮想的な軸線である。なお、第1駆動輪110と第2駆動輪111とが正面視において平行に取り付けられていれば、実際の駆動軸が第1駆動輪110と第2駆動輪111との駆動軸となる。
ロボット1は、図略の電源をさらに備える。ロボット1は、図略の充電器により充電される。
次に、第1駆動輪110及び第2駆動輪111を用いたロボット1の動作を図4から図6を参照して説明する。
図4は、図2BのA視における、本開示の第1の実施の形態に係るロボット1の直進動作を表す側面図である。図5は、図2BのB視における、本開示の第1の実施の形態に係るロボット1の回転動作を表す平面図である。図6は、本開示の第1の実施の形態に係るロボット1の回転動作を表す斜視図である。
図4に示すように、第1駆動輪110及び第2駆動輪111を同じ速度で前方方向に回転させると、その動力によって筐体101は前方方向に回転する。これにより、ロボット1は、図5に示す仮想線L1と平行なY方向に前進する。仮想線L1は、回転シャフト118(図3)或いは回転シャフト118(図3)の長手方向に延びる延長線と第3表示部107の中心とを繋ぐ直線である。逆に、第1駆動輪110及び第2駆動輪111を同じ速度で後方方向に回転させると、前記仮想線L1(図5)と平行な−Y方向にロボット1は後進する。以降、第1駆動輪110及び第2駆動輪111を同じ速度で前方方向に回転させたときの筐体101の前進方向(Y方向)を、第1駆動輪110及び第2駆動輪111による前進方向と示す。第1駆動輪110及び第2駆動輪111を同じ速度で後方方向に回転させたときの筐体101の後進方向(−Y方向)を、第1駆動輪110及び第2駆動輪111による後進方向と示す。また、前方方向を前進方向と示し、後方方向を後進方向と示すことがある。
また、図5及び図6に示すように、第1駆動輪110及び第2駆動輪111を互いに逆方向に回転させると、その動力によって筐体101は、その中心を通過する鉛直軸回りの回転動作を行う。即ち、ロボット1は、その場で左回り又は右回りに回転する。例えば、図5及び図6に示すように、第1駆動輪110を前進方向に回転させ、且つ、第2駆動輪111を後進方向に回転させる第1制御を行うと、ロボット1は、左回りに回転する。これとは反対に、第1駆動輪110を後進方向に回転させ、且つ、第2駆動輪111を前進方向に回転させる第2制御を行うと、ロボット1は、右回りに回転する。ロボット1は、このような前進、後進又は回転動作によって移動する。また、前記第1制御と前記第2制御とを交互に切り替えると、ロボット1は左回りと右回りとに交互に回転する。これにより、例えば、ロボット1が落ち着かない様子であることを表現できる。
次に、カウンターウェイト114を用いたロボット1の基本動作を図7から図9Cを参照して説明する。
図7は、図3の側面図において重り駆動機構を示した図である。図8Aは、カウンターウェイト114を所定の直線方向に駆動する際のカウンターウェイト114の駆動機構の動作を示す斜視図である。図8Bは、カウンターウェイト114を所定の直線方向に駆動する際のカウンターウェイト114の駆動機構の動作を示す側面図である。図8Cは、図3の側面図においてカウンターウェイト114が所定の直線方向に往復移動する状態を示す側面図である。図9Aは、スイングアーム116を回転させる際のカウンターウェイト114の駆動機構の動作を示す斜視図である。図9Bは、スイングアーム116を回転させる際の重り駆動機構の動作を示す側面図である。図9Cは、図2BのB視における、本開示の第1の実施の形態に係るロボット1のスイングアーム116が回転する状態を示す平面図である。
図7に示すように、スイングアーム116の中央位置がカウンターウェイト114のデフォルト位置になっている。ここでは、一例として、スイングアーム116はロボット1の正面に対して垂直な方向を向いている。なお、スイングアーム116はロボット1の左右方向に対して垂直な方向を向いていてもよい。以下、便宜上、ロボット1の正面に対して垂直な方向をデフォルト方向と称する。このように、カウンターウェイト114がスイングアーム116の中央に位置しているとき、第1回転板103及び第2回転板104は走行面とほぼ平行になり、ロボット1の顔を構成する、例えば、目、鼻、口がデフォルト方向に向いた状態になる。
図8A及び図8Bに示すように、カウンターウェイト114に内蔵された、図示しない重り駆動用モータは、前記重り駆動用モータに連結されたモータプーリ120を回転させる。回転されたモータプーリ120がベルト119上を転がることにより、カウンターウェイト114はスイングアーム116内を移動する。モータプーリ120の回転方向、即ち、前記重り駆動用モータの駆動方向を変化させることにより、スイングアーム116内において、カウンターウェイト114は直線方向に往復移動する。
図8Cに示すように、カウンターウェイト114は、ガイドシャフト115に沿って、スイングアーム116内を直線方向に往復移動する。
図9A及び図9Bに示すように、回転用モータ117は、回転シャフト118を回転させることにより、回転シャフト118(図3)に接続されたスイングアーム116を回転させる。これにより、ガイドシャフト115もスイングアーム116と同じ方向に回転する。
図9Cに示すように、スイングアーム116及びガイドシャフト115(図9A、図9B)は右回り(時計回り)、左回り(反時計回り)のいずれの方向にも回転させることができる。
さらに、カウンターウェイト114を用いたロボット1の動作の詳細を図10から図13を参照して説明する。図10は、図2BのA視における、カウンターウェイト114が前方寄りに位置しているときのロボット1の姿勢を示す側面図である。図11は、図2BのA視における、カウンターウェイト114が後方寄りに位置しているときのロボット1の姿勢を示す側面図である。図12は、図2BのC視における、カウンターウェイト114が右方寄りに位置しているときのロボット1の姿勢を示す正面図である。図13は、図2BのC視における、カウンターウェイト114が左方寄りに位置しているときのロボット1の姿勢を示す正面図である。
図10に示すように、スイングアーム116がロボット1の正面に対して垂直な状態で、カウンターウェイト114を、デフォルト位置からスイングアーム116の一端(図10では左端)、即ち、前方寄りに移動させると、ロボット1は、矢印121が示すように前方に傾く。また、図11に示すように、スイングアーム116がロボット1の正面に対して垂直なデフォルト方向を向いた状態で、カウンターウェイト114を、デフォルト位置からスイングアーム116の他端(図11では右端)、即ち、後方寄りに移動させると、ロボット1は、矢印122が示すように後方に傾く。従って、スイングアーム116がデフォルト方向を向いた状態で、カウンターウェイト114をスイングアーム116内の前記一端から前記他端まで往復動作させると、ロボット1は、矢印121が示す前方または矢印122が示す後方に傾く往復動作を行う。即ち、ロボット1は所定の角度において上下方向に回転する。
上述のように、第1表示部105、第2表示部106及び第3表示部107は、ロボット1の顔の一部、例えば、目や口を表す。従って、カウンターウェイト114を用いてロボット1に前方または後方に傾く往復動作をさせることにより、例えば、ロボット1が息切れしている状態又は眠い状態を表現することができる。
図12に示すように、スイングアーム116がロボット1の正面に対して平行な状態で、カウンターウェイト114を、デフォルト位置からスイングアーム116の一端(図12の右端)、即ち、右方寄りに移動させると、ロボット1は、矢印123が示す右側に傾く。また、図13に示すように、スイングアーム116がロボット1の正面に対して平行な状態で、カウンターウェイト114を、デフォルト位置からスイングアーム116の他端(図13の左端)、即ち、左方寄りに移動させると、ロボット1は、矢印124が示す左側に傾く。従って、スイングアーム116をロボット1の正面に対して平行な状態で、カウンターウェイト114をスイングアーム116内の前記一端から前記他端まで往復動作させると、ロボット1は、矢印123が示す右側または矢印124が示す左側に傾く往復動作を行う。即ち、ロボット1は所定の角度において左右方向に回転する。
上述のように、第1表示部105、第2表示部106、及び第3表示部107は、ロボット1の顔の一部、例えば、目や口を表す。従って、カウンターウェイト114を用いてロボット1に右方または左方に傾く往復運動をさせることにより、例えば、ロボット1の機嫌がよい状態を表現し又はロボット1が考え中であることを表現できる。
図14は、本開示の第1の実施の形態に係るロボット1が適用されたロボットシステム1500の全体構成の一例を示す図である。ロボットシステム1500は、クラウドサーバ3、携帯端末4、及びロボット1を備える。ロボット1は例えばWifi(登録商標)の通信を介してインターネットと接続し、クラウドサーバ3と接続する。また、ロボット1は例えばWifi(登録商標)の通信を介して携帯端末4と接続する。ユーザ1501は例えば、子供であり、ユーザ1502,1503は、例えば、その子供の両親である。
携帯端末4は、例えば、ロボット1と連携するアプリケーションがインストールされている。携帯端末4は、アプリケーションを通じて、ユーザ1501〜1503からロボット1に対する種々の指示を受け付け、当該受け付けた指示をロボット1に行うことができる。
ロボット1は、例えば、携帯端末4からある絵本を子供に読み聞かせる指示があったとすると、その絵本の朗読を開始し、子供に読み聞かせる。ロボット1は、例えば、絵本の読み聞かせ中に子供から何らかの質問を受け付けると、その質問をクラウドサーバ3に送り、その質問に対する回答をクラウドサーバ3から受信し、回答を示す音声を発話する。
このように、ユーザ1501〜1503は、ロボット1をペットのように取り扱い、ロボット1との触れ合いを通じて、言語学習をすることができる。
また、ロボット1がユーザ1501による指示に従って動作している最中に、同じユーザ1501から別の指示があったとする。このような場合に、ロボット1は、カウンターウェイト114を用いてロボット1に右方または左方に傾く往復運動をしたり、第1駆動輪110及び第2駆動輪111を用いてユーザ1501に向かう方向に前進する等して、機嫌がよい状態を表現することもできる。これとは反対に、ロボット1がユーザ1501による指示に従って動作している最中に、ユーザ1502やユーザ1503等の他のユーザから別の指示があったとする。このような場合に、ロボット1は、第1駆動輪110及び第2駆動輪111を用いて当該他のユーザから離れるように後進したり、前記第1制御と前記第2制御とを交互に切り替えたりして、機嫌が悪い状態を表現し又は落ち着かない様子であることを表現することもできる。以降、ユーザ1501〜1503を総称する場合、ユーザ1501と記載する。
このように、ロボット1はユーザ1501に対する感情を表現することができるので、ユーザ1501は、ロボット1をペットのように取り扱い、ロボット1と触れ合うことができる。
次に、図15を参照しつつ、本開示の第1の実施の形態に係るロボット1の内部回路の詳細について説明する。図15は、本開示の第1の実施の形態に係るロボット1を示すブロック図である。
図15に示すように、ロボット1は、制御回路109、表示部211、シャフト制御部213、回転シャフト118、筐体駆動輪制御部214、筐体駆動輪212、重り駆動機構制御部215、重り駆動機構218、加速度センサー219、マイク217、スピーカ216、カメラ108、及び通信部210を備える。
制御回路109は、メモリ206と、CPU等のプロセッサで構成された主制御部200と、表示情報出力制御部205と、時刻を計時する図略のタイマー等を含むコンピュータで構成されている。
メモリ206は、例えば、不揮発性の書き換え可能な記憶装置で構成され、ロボット1の制御プログラムなどを記憶する。
主制御部200は、メモリ206に記憶されているロボット1の制御プログラムを実行する。これにより、主制御部200は、加速度情報管理部201、保持状態判断部202、ユーザ方向算出部203、及びカメラ映像処理部204として動作する。加速度情報管理部201、保持状態判断部202、ユーザ方向算出部203、及びカメラ映像処理部204の詳細については後述する。
加速度センサー219は、例えば、制御回路109(図2B)と同様、第1回転板103の上面に取り付けられ、主制御部200から送信されるコマンドに応じて、ロボット1の上下軸(Z軸)方向(図2Bにおける矢印B方向)、前後軸(Y軸)方向(図2Bにおける矢印C方向)、及び左右軸(X軸)方向(図2Bにおける矢印A方向)の3軸方向の加速度を検知する。加速度センサー219は、検知した3方向の加速度を示す値を主制御部200へ出力する。前記コマンドの詳細は後述する。加速度センサー219は、第1回転板103(図2B)の上面に限らず、第1回転板103(図2B)の下面や、第2回転板104(図2B)の上面又は下面等に取り付けられてもよい。
マイク217は、フレーム102に備え付けられ、音を電気信号に変換し、主制御部200に出力する。マイク217は、例えば、第1回転板103の上面に取り付けられても良いし、第2回転板104の上面に取り付けられても良い。主制御部200は、マイク217での取得音声からユーザ1501の音声の有無を認識し、音声認識結果をメモリ206に蓄積することで、音声認識結果を管理する。主制御部200は、メモリ206に格納された音声認識用データと、取得音声とを照合し、発話内容及び発話したユーザ1501を認識する。
スピーカ216は、出力面が正面を向くようにフレーム102に備え付けられ、音声の電気信号を物理振動に変換する。主制御部200は、所定の音声をスピーカ216から出力することで、ロボット1に発話させる。
カメラ108は、図2Bにおいて説明したように、ロボット1の前方(Y方向)の映像を撮像し、撮像した画像(以下、撮像画像)を主制御部200に出力する。主制御部200は、カメラ108から取得した撮像画像からユーザの顔の有無、位置、及び大きさを認識し、顔認識結果をメモリ206に蓄積することで、顔認識結果を管理する。
主制御部200は、音声認識結果や顔認識結果に基づきコマンドを生成し、表示情報出力制御部205、シャフト制御部213、筐体駆動輪制御部214、重り駆動機構制御部215、及び通信部210等に出力する。前記コマンドの詳細は後述する。
表示情報出力制御部205は、主制御部200から送信されるコマンドに応じたロボット1の表情の表示情報を表示部211に表示する。表示部211は、図2Bにおいて説明した第1表示部105、第2表示部106、及び第3表示部107により構成される。
シャフト制御部213は、主制御部200から送信されるコマンドに応じて、図9A及び図9Bで説明した回転シャフト118を回転させる。シャフト制御部213は、図9A及び図9Bで説明した回転用モータ117により構成される。
筐体駆動輪制御部214は、主制御部200から送信されるコマンドに応じて、ロボット1の筐体駆動輪212を動作させる。筐体駆動輪制御部214は、図2Bにおいて説明した、第1モータ112及び第2モータ113で構成される。筐体駆動輪212は、図2Bにおいて説明した第1駆動輪110及び第2駆動輪111により構成される。筐体駆動輪212は、一組の駆動輪の一例に相当する。
重り駆動機構制御部215は、主制御部200から送信されるコマンドに応じて、ロボット1の重り駆動機構218を動作させる。重り駆動機構制御部215は、カウンターウェイト114に内蔵された、図示しない重り駆動用モータで構成される。重り駆動機構218は、図3、図8A及び図8Bにおいて説明したガイドシャフト115、スイングアーム116、回転用モータ117、ベルト119、モータプーリ120、及び、図示しない重り駆動用モータにより構成される。
通信部210は、ロボット1をクラウドサーバ3(図14)に接続させるための通信装置で構成される。通信部210としては、例えば、Wifi(登録商標)等の無線LANの通信装置が採用できるがこれは一例である。通信部210は、主制御部200から送信されるコマンドに応じてクラウドサーバ3と通信を行う。
(感情表現処理)
次に、本開示の第1の実施の形態に係るロボット1における感情表現処理の概要について図16A及び図16Bを用いて説明する。図16Aは、本開示の第1の実施の形態に係るロボット1における感情表現処理においてロボット1に好意の感情を表現させるときの概要を示す図である。図16Bは、本開示の第1の実施の形態に係るロボットにおける感情表現処理においてロボット1にユーザ1501を嫌がっている感情を表現させるときの概要を示す図である。感情表現処理とは、ロボット1がユーザ1501に抱っこされている(抱えられている)と判断した場合に、ロボット1に感情を表現させる処理である。図16A及び図16Bに示すように、本開示の第1の実施の形態に係るロボット1における感情表現処理では、1)抱っこ検知処理と、2)方向算出処理と、3)駆動処理とを行う。
抱っこ検知処理では、ロボット1が持ち上げられた場合のZ軸方向の移動を検知し、これをトリガーにして、ロボット1が抱っこされていることを検知する。
方向算出処理では、ユーザ1501がロボット1を抱っこしたときにロボット1がユーザ1501に引き寄せられた方向である、X軸及びY軸を含む平面(以下XY軸平面)における筐体101(図2A)の移動方向Dを算出する。
駆動処理では、方向算出処理で算出した移動方向Dへガイドシャフト115(図9A、図9B)の向きを合わせた後、ガイドシャフト115に沿ってロボット1に表現させる感情に応じた方向へカウンターウェイト114を移動させる(図8C、図10、図11)。例えば、ユーザ1501に対する好意を示す感情をロボット1に表現させる場合、図16Aに示すように、カウンターウェイト114をガイドシャフト115に沿ってユーザ1501側に移動させる。一方、ユーザ1501を嫌がっていること(イヤイヤ)を示す感情をロボット1に表現させる場合、図16Bに示すように、カウンターウェイト114をガイドシャフト115に沿ってユーザ1501側とは反対側に移動させる。
このように、本開示の第1の実施の形態に係るロボット1における感情表現処理は、ロボット1がユーザ1501に引き寄せられた方向又はその逆方向にカウンターウェイト114を移動させることで、ロボット1に感情を表現させることを特徴とする。
以下、本開示の第1の実施の形態に係るロボット1における感情表現処理の処理フローについて図17を用いて説明する。図17は、本開示の第1の実施の形態に係るロボット1における感情表現処理を示すフローチャートである。
ロボット1に電源が投入されると、主制御部200は感情表現処理を開始する。図17に示すように、感情表現処理が開始されると、加速度情報管理部201は、加速度センサー219が出力するX軸方向の加速度を示す値Ax、Y軸方向の加速度を示す値Ay及びZ軸方向の加速度を示す値Azを時刻と対応付けてメモリ206に記憶する処理(以下、加速度記憶処理)を開始する(S100)。
S100以降、加速度情報管理部201は、ロボット1への電源が遮断されるまで前記加速度記憶処理を継続する。尚、加速度情報管理部201は、電源遮断時や定期的に等の所定のタイミングで、メモリ206に記憶されている過去の所定期間に対応する3方向の加速度を示す値Ax、Ay、Azを削除してもよい。また、加速度センサー219が3方向の加速度を出力する周期(サンプリング周期)が短い場合は、適切なサンプリング周期になるよう、複数のサンプリング周期における加速度センサー219の出力値をそれぞれの軸で平均した値を、3方向の加速度を示す値Ax、Ay,Azとして時刻と対応付けてメモリ206に記憶してもよい。以降、X軸方向の加速度を示す値Axを加速度Axと略記し、Y軸方向の加速度を示す値Ayを加速度Ayと略記し、Z軸方向の加速度を示す値Azを加速度Azと略記する。
次に、保持状態判断部202は、抱っこ検知処理(図16A、図16B)を行う(S200)。抱っこ検知処理の詳細については後述する。次に、ユーザ方向算出部203は、方向算出処理(図16A、図16B)を行う(S300)。方向算出処理の詳細については後述する。次に、主制御部200は、駆動処理(図16A、図16B)を行い(S400)、感情表現処理を終了する。駆動処理の詳細については後述する。
以下、図17のS200に示す抱っこ検知処理の詳細について説明する。図18は、本開示の第1の実施の形態における図17のS200に示す抱っこ検知処理の詳細を示すフローチャートである。
図18に示すように、保持状態判断部202は、抱っこ検知処理を開始すると、メモリ206に記憶されている直近の時刻に対応する加速度Ax、Ay、Azを参照する(S201)。次に、保持状態判断部202は、参照した加速度Azが所定の閾値TH(図1A)を超えているか否かを判断する(S202)。これにより、保持状態判断部202は、ロボット1がZ軸方向に移動したか否かを検知する。
保持状態判断部202は、参照した加速度Azが閾値TH(図1A)を超えていると判断した場合(S202でYES)、ロボット1がZ軸方向に移動したことを検知し、S203を行う。一方、保持状態判断部202は、参照した加速度Azが所定の閾値TH(図1A)を超えていないと判断した場合(S202でNO)、ロボット1がZ軸方向に移動していないことを検知する。この場合、保持状態判断部202は、処理をS201に戻し、S201以降の処理を行う。
S203では、保持状態判断部202が、ロボット1が自ら駆動しているか否かを判断する(S203)。例えば、保持状態判断部202は、主制御部200が筐体駆動輪制御部214(図15)へ筐体駆動輪212(図15)を動作させるためのコマンド(駆動指示の一例)を出力している場合、ロボット1が自ら駆動していると判断する。一方、保持状態判断部202は、筐体駆動輪制御部214(図15)へ前記コマンドを出力していない場合、ロボット1が自ら駆動している状態ではないと判断する。これにより、保持状態判断部202は、ロボット1が筐体駆動輪212を動作させて自ら斜面を登り始めたことによってZ軸方向に移動したのか、ロボット1がユーザ1501によって持ち上げられたことによってZ軸方向に移動したのかを判別する。
保持状態判断部202は、S203で、ロボット1が自ら駆動していると判断した場合(S203でYES)、ロボット1がユーザ1501によって持ち上げられていないことを検知する。この場合、ロボット1がユーザ1501によって抱っこされていないと考えられるので、保持状態判断部202は、処理をS201に戻し、S201以降の処理を行う。一方、保持状態判断部202は、S203でロボット1が自ら駆動している状態ではないと判断した場合(S203でNO)、ロボット1がユーザ1501によって持ち上げられたことを検知する。この場合、ロボット1がユーザ1501によって抱っこされている可能性があるので、保持状態判断部202は、S204以降の処理を行う。
S204以降の処理において、保持状態判断部202は、加速度Azが閾値TH(図1A)を超えた後、メモリ206に記憶された加速度Ax、Ay、Azの何れかが、一定期間(以下、一定期間Td)、所定幅TW(図1A〜図1C)を超えて変動しているか否かを判断する。そして、保持状態判断部202は、当該判断結果に基づきロボット1がユーザ1501に抱っこされているか(抱えられているか)否かを検知する。
具体的には、S204において、保持状態判断部202は、参照時刻tを初期時刻T0に設定する(S204)。ここで、参照時刻tは、メモリ206に記憶されている加速度Ax、Ay、Azのうち、保持状態判断部202が参照する対象の加速度Ax、Ay、Azに対応する時刻を示すパラメータである。初期時刻T0は、S202において、加速度Azが閾値TH(図1A)を超えていると判断された時刻である。
そして、保持状態判断部202は、参照時刻tが所定時刻Tを超えているか否かを判断する(S205)。ここで、所定時刻Tは、初期時刻T0から前記一定期間Tdが経過した時刻(=T0+Td)である。
保持状態判断部202は、参照時刻tが所定時刻Tを超えていないと判断すると(S205でYES)、メモリ206に記憶されている、初期時刻T0から参照時刻tまでの時刻に対応する加速度Ax、Ay、Azのばらつき(変動)の何れかが、所定幅TWを超えているか否かを判断する(S206)。ここで、初期時刻T0から参照時刻tまでの時刻に対応する加速度Ax、Ay、Azのばらつきは、例えば、初期時刻T0から参照時刻tまでの時刻に対応する加速度Ax、Ay、Azの標準偏差である。尚、前記ばらつきは、前記標準偏差に限らず、初期時刻T0から参照時刻tまでの時刻に対応する加速度Ax、Ay、Azの分散又はピーク値(最大値及び最小値)であってもよい。
保持状態判断部202は、S206において初期時刻T0から参照時刻tまでの時刻に対応する加速度Ax、Ay、Azのばらつきの何れかが所定幅TWを超えていると判断したとする(S206でYES)。この場合、保持状態判断部202は、参照時刻tを、加速度センサー219が加速度Ax、Ay、Azを出力する周期(サンプリング間隔)Δt分経過した時刻(=t+Δt)に設定して(S207)、処理をS205に戻し、S205以降の処理を行う。
一方、保持状態判断部202は、S206において、初期時刻T0から参照時刻tまでの時刻に対応する加速度Ax、Ay、Azの何れのばらつきも所定幅TWを超えていないと判断したとする(S206でNO)。この場合、保持状態判断部202は、加速度Ax、Ay、Azの何れのばらつきも、加速度Azが閾値TH(図1A)を超えた初期時刻T0から所定時刻Tが経過するまでの一定期間Td内に、所定幅TW内に収束したと判断する。この場合、保持状態判断部202は、ロボット1が床から持ち上げられた後、例えば椅子の上等の所定の場所に配置されたと判断し、ロボット1がユーザ1501に抱っこされていないことを検知する。そして、保持状態判断部202は、処理をS201に戻し、S201以降の処理を行う。
その後、保持状態判断部202は、参照時刻tが所定時刻Tを超えたと判断すると(S205でNO)、S206と同様に、メモリ206に記憶されている、初期時刻T0から参照時刻tまでの時刻に対応する加速度Ax、Ay、Azのばらつきの何れかが、所定幅TWを超えているか否かを判断する(S208)。
保持状態判断部202は、S208において、加速度Ax、Ay、Azのばらつきの何れかが所定幅TWを超えていると判断したとする(S208でYES)。この場合、保持状態判断部202は、加速度Azが閾値TH(図1A)を超えた初期時刻T0から所定時刻Tが経過するまでの一定期間Td、加速度Ax、Ay、Azのばらつきの何れかが所定幅TWを超えていたと判断する。この場合、保持状態判断部202は、ロボット1がユーザ1501に抱っこされている(抱えられている)と判断し、ロボット1がユーザ1501に抱っこされていることを検知する。そして、保持状態判断部202は、抱っこ検知処理を終了する。
一方、保持状態判断部202は、S208において、加速度Ax、Ay、Azの何れのばらつきも所定幅TWを超えていないと判断したとする(S208でNO)。この場合、保持状態判断部202は、加速度Azが所定の閾値TH(図1A)を超えた初期時刻T0から所定時刻Tが経過するまでの一定期間Td内に、加速度Ax、Ay、Azの何れのばらつきも所定幅TW内に収束したと判断する。この場合、保持状態判断部202は、ロボット1が床から持ち上げられた後、例えば椅子の上等の所定の場所に配置されたと判断し、ロボット1がユーザ1501に抱っこされていないことを検知する。そして、保持状態判断部202は、処理をS201に戻し、S201の処理を行う。
尚、S204以降の処理において、保持状態判断部202は、加速度Azが閾値TH(図1A)を超える前に、メモリ206に記憶されていた加速度Ax,Ay,Azの何れかのばらつきが既に所定幅TWを超えている場合、当該ばらつきが所定幅TWを超えていた時刻に遡って、その時刻から一定期間Td、所定幅TWを超えていたか否かを確認してもよい。つまり、前記初期時刻T0は、S202において加速度Azが閾値THを超えたと判断された時刻よりも所定時間前の時刻であってもよい。この場合、S204以降の処理において、保持状態判断部202は、加速度Azが閾値THを超えた時刻よりも所定時間前の初期時刻T0から、加速度Ax、Ay、Azのばらつきの何れかが一定期間Td、所定幅TWを超えていた場合に、ロボット1が抱っこされていることを検知することになる。このようにして、保持状態判断部202が、ユーザ1501がロボット1を引き寄せた後に持ち上げることによってロボット1を抱っこした場合にも、ロボット1が抱っこされていることを検知するようにしてもよい。
次に、図17のS300に示す方向算出処理の詳細について説明する。図19は、本開示の第1の実施の形態における図17のS300に示す方向算出処理の詳細を示すフローチャートである。
図19に示すように、ユーザ方向算出部203は、方向算出処理を開始すると、S202(図18)において加速度Azが閾値THを超えていると判断された時刻(以下、持上判断時刻)を含む所定のサンプリング期間TSに対応する加速度Ax、Ayをメモリ206から取得する(S301)。そして、ユーザ方向算出部203は、S301で取得した加速度Ax、Ayに基づき、XY軸平面における筐体101の移動方向Dを算出し(S302)、方向算出処理を終了する。
ここで、サンプリング期間TSは、例えば前記持上判断時刻よりも所定期間前の時刻から、前記一定期間Tdが経過した時刻までの期間に定められている。この場合、ユーザ方向算出部203は、S302において、S301で取得した前記持上判断時刻の前後の所定のサンプリング期間TSに対応する加速度Ax、Ayに基づき、前記持上判断時刻の前後の所定のサンプリング期間TSにおいて、筐体101がXY軸平面において移動した方向を算出することになる。これにより、ユーザ1501がロボット1を持ち上げてから引き寄せて抱っこした場合及びユーザ1501がロボット1を引き寄せてから持ち上げて抱っこした場合の何れであっても、ロボット1がユーザ1501によって引き寄せられたことで、筐体101がXY軸平面において移動した方向を算出することができる。
尚、サンプリング期間TSは、これに限らず、前記持上判断時刻から前記一定期間Tdが経過した時刻までの期間に定めてもよい。また、サンプリング期間TSを、前記持上判断時刻よりも所定期間前の時刻から又は前記持上判断時刻から、前記一定期間Tdとは異なる一定期間が経過した時刻までの期間に定めてもよい。
図20は、図19のS302における筐体101の移動方向Dの算出処理の一例を示す図である。図20の左図及び中央図に示すように、ユーザ方向算出部203は、S302において、筐体101がサンプリング期間TS開始時の位置P0からサンプリング期間TS終了時の位置P1まで移動したことによって、筐体101がXY軸平面において移動した距離及び方向を表すベクトルDxyを算出する。
具体的には、ユーザ方向算出部203は、S301で取得した加速度Axを2回積分した結果の絶対値を、筐体101が位置P0から位置P1までX軸方向に移動した移動距離として算出する。また、ユーザ方向算出部203は、前記2回積分した結果がプラス(+、正)の値の場合、筐体101がX軸方向に移動した方向はX方向(左方)であり、前記2回積分した結果がマイナス(−、負)の値の場合、筐体101がX軸方向に移動した方向は−X方向(右方)であると判断する。これにより、ユーザ方向算出部203は、図20の右図に示すように、筐体101が位置P0から位置P1までX軸方向において移動した移動距離及び方向を表すベクトルDxを算出する。
同様にして、ユーザ方向算出部203は、S301で取得した加速度Ayを2回積分した結果の絶対値を、筐体101が位置P0から位置P1までY軸方向に移動した移動距離として算出する。また、ユーザ方向算出部203は、前記2回積分した結果がプラス(+、正)の値の場合、筐体101がY軸方向に移動した方向はY方向(前方)であり、前記2回積分した結果がマイナス(−、負)の値の場合、筐体101がY軸方向に移動した方向は−Y方向(後方)であると判断する。これにより、ユーザ方向算出部203は、図20の右図に示すように、筐体101が位置P0から位置P1までY軸方向において移動した移動距離及び方向を表すベクトルDyを算出する。
次に、ユーザ方向算出部203は、算出したベクトルDxとベクトルDyとを合成したベクトルを、XY軸平面において筐体101が移動した距離及び方向を表すベクトルDxyとして算出する。そして、ユーザ方向算出部203は、X方向とベクトルDxyとが、X方向を基準にして左回りになす角度「θ」を算出する。これにより、ユーザ方向算出部203は、X方向から左回りに上記算出した角度「θ」回転した方向を、XY軸平面における筐体101の移動方向Dとして算出する。以降、上記算出した角度「θ」を、移動方向Dを表す角度θと記載する。
次に、図17のS400に示す駆動処理の詳細について説明する。図21は、本開示の第1の実施の形態における図17のS400に示す駆動処理の詳細を示すフローチャートである。
図21に示すように、主制御部200は、駆動処理を開始すると、ガイドシャフト115(図9A、図9B)の向きを、S302(図19)で算出した移動方向Dに合わせる(S401)。
図22は、図21のS401におけるガイドシャフト115の向きを筐体101の移動方向Dに合わせる処理の一例を示す図である。S401において、主制御部200は、例えば、図22に示すように、X方向から移動方向Dを表す角度θ分左回りに回転した方向が筐体101の移動方向Dであると判断する。また、主制御部200は、図22の破線部に示すガイドシャフト115のデフォルト方向であるY方向は、X方向から90度左回りに回転した方向であると判断する。そして、主制御部200は、Y方向と移動方向Dとのずれを示す角度である、90度から移動方向Dを表す角度θを減算した結果(=90°−θ)がプラスの値の場合は、当該結果の絶対値が示す角度分、回転シャフト118(図9B)を右回りに回転させるコマンドをシャフト制御部213(図15)に出力する。尚、シャフト制御部213(図15)は、内部に備えた図略のエンコーダから回転用モータ117(図9A、図9B)の回転数を取得し、取得した回転数が、コマンドが示す角度に対応する回転数になるまで、コマンドが示す方向に回転用モータ117(図9A、図9B)を回転させる。これにより、デフォルト方向であるY方向を向いていた破線で示すガイドシャフト115の向きが、移動方向Dに合うようになる。一方、主制御部200は、前記ずれを示す角度(=90°−θ)がマイナスの値の場合は、当該ずれを示す角度の絶対値が示す角度(=|90°−θ|)分、回転シャフト118(図9B)を更に左回りに回転させるコマンドをシャフト制御部213(図15)に出力する。尚、S401において、主制御部200が、ガイドシャフト115(図9A、図9B)の向きを、S302(図19)で算出した移動方向Dに合わせる方法は上記に限らない。
次に、主制御部200は、カウンターウェイト114をガイドシャフト115に沿ってロボット1に表現させる感情に応じた方向に移動させる(図8A〜図8C、図10、図11)(S402)。
例えば、ロボット1がユーザ1501による指示に従って動作している最中に、当該動作を指示したユーザ1501と同じユーザ1501がロボット1を抱っこしたとする。このような場合、主制御部200は、ロボット1にユーザ1501に対する好意を示す感情を表現させる。尚、主制御部200は、前記音声認識結果や前記顔認識結果に基づき、ロボット1を抱っこしたユーザ1501が動作を指示したユーザ1501と同じであるか否かを判断すればよい。これとは反対に、ロボット1がユーザ1501による指示に従って動作している最中に、当該動作を指示したユーザとは他のユーザ1501がロボット1を抱っこしたとする。このような場合、主制御部200は、ロボット1にユーザ1501を嫌がっていることを示す感情を表現させる。尚、主制御部200が、ロボット1に表現させる感情を決定する方法は、これに限らず、別の方法でロボット1に表現させる感情を決定してもよい。
図23A及び図23Bは、図21のS402におけるカウンターウェイト114の移動処理の一例を示す図である。例えば、主制御部200は、ロボット1にユーザ1501に対する好意を示す感情を表現させる場合、図23Aに示すように、カウンターウェイト114をガイドシャフト115に沿って矢印D1が示すY方向(前方)に移動させるコマンドを重り駆動機構制御部215(図15)に出力する。重り駆動機構制御部215は、前記コマンドに応じてモータプーリ120(図8A、図8B)を回転させ、カウンターウェイト114をガイドシャフト115に沿ってY方向(前方、図8Cにおける左方)に移動させる。これにより、カウンターウェイト114は、移動方向Dと同じ向きのガイドシャフト115に沿って、ロボット1がユーザ1501によって引き寄せられた方向に移動する。つまり、カウンターウェイト114は、ユーザ1501に向かう方向に移動する。その結果、ロボット1の重心がユーザ1501側に寄せられる。これにより、ロボット1がユーザ1501の腕の中でユーザ1501に近づいていることをユーザ1501に感じさせることができる。このようにして、主制御部200は、ユーザ1501に好意を持っていることをロボット1に表現させることができる。
これとは反対に、S401において、主制御部200は、ロボット1にユーザ1501を嫌がっている感情(「イヤイヤ」)を表現させるとする。この場合、主制御部200は、図23Bに示すように、カウンターウェイト114をガイドシャフト115に沿って、矢印D1とは逆方向の矢印D2が示す−Y方向(後方、図8Cにおける右方)に移動させるコマンドを重り駆動機構制御部215(図15)に出力する。重り駆動機構制御部215は、前記コマンドに応じてモータプーリ120(図8A、図8B)を回転させ、カウンターウェイト114をガイドシャフト115に沿って−Y方向(後方、図8Cにおける右方)に移動させる。これにより、カウンターウェイト114は、移動方向Dと同じ向きのガイドシャフト115に沿って、ロボット1がユーザ1501によって引き寄せられた方向とは逆方向に移動する。つまり、カウンターウェイト114は、ユーザ1501から離れる方向に移動する。その結果、ロボット1の重心がユーザ1501とは反対側に寄せられる。これにより、ロボット1がユーザ1501の腕の中でユーザ1501から離れようとしていることをユーザ1501に感じさせることができる。このようにして、主制御部200は、ユーザ1501を嫌がっていることをロボット1に表現させることができる。
尚、ユーザ1501として子供を想定した場合、カウンターウェイト114の重さをあまり重くできない場合もある。そこで、S401において、主制御部200は、ロボット1にユーザ1501に対する好意を示す感情を表現させる場合に、カウンターウェイト114をガイドシャフト115に沿って矢印D2が示す方向に一旦移動させた後、矢印D1が示す方向に移動させてもよい。この場合、カウンターウェイト114の重さをあまり重くできない場合であっても、ロボット1の重心をユーザ1501側に勢いよく寄せて、ロボット1がユーザ1501の腕の中でよりユーザ1501に近づいていることをユーザ1501に感じさせることができる。
これと同様にして、主制御部200は、ロボット1にユーザ1501を嫌がっている感情(「イヤイヤ」)を表現させる場合に、カウンターウェイト114をガイドシャフト115に沿って矢印D1が示す方向に移動させた後、矢印D2が示す方向に移動させてもよい。この場合、カウンターウェイト114の重さをあまり重くできない場合であっても、ロボット1の重心をユーザ1501とは反対側に勢いよく寄せて、ロボット1がユーザ1501の腕の中でよりユーザ1501から離れようとしていることをユーザ1501に感じさせることができる。
また、S401において、主制御部200は、モータプーリ120(図8A、図8B)の回転速度を、通常時よりも速い速度に設定するコマンドを重り駆動機構制御部215(図15)に出力することで、カウンターウェイト114を通常時よりも速い速度で移動させるようにしてもよい。この場合、カウンターウェイト114の重さをあまり重くできない場合であっても、ロボット1の重心の移動の勢いを強めて、ロボット1のユーザ1501に対する感情をより強くユーザ1501に感じさせることができる。
(第2の実施の形態)
第2の実施の形態は、第1駆動輪110及び第2駆動輪111を駆動させることで、ロボット1に感情を表現させることを特徴とする。第2の実施の形態における感情表現処理は、全体的な処理は第1の実施の形態における感情表現処理と同じであるが、図17のS400に示す駆動処理の詳細が相違する。なお、第2の実施の形態において第1の実施の形態と同一構成のものは同一の符号を付し、説明を省く。
図24は、本開示の第2の実施の形態における図17のS400に示す駆動処理の詳細を示すフローチャートである。図24に示すように、主制御部200は、駆動処理を開始すると、S411及びS412を行うことにより、S302(図19)で算出した移動方向Dに、第1駆動輪110及び第2駆動輪111による筐体101の前進方向を合わせる。次に、主制御部200は、S413及びS414を行うことにより、ロボット1に表現させる感情に応じて、筐体101を移動方向D又はその反対側に移動させる。
詳述すると、主制御部200は、S411において、S302(図19)で算出した移動方向Dと、第1駆動輪110及び第2駆動輪111による筐体101の前進方向と、が平行であるか否かを判断する(S411)。具体的には、上述のように、第1駆動輪110及び第2駆動輪111による筐体101の前進方向はY方向である。したがって、S411において、主制御部200は、S401(図21)と同様、Y方向と移動方向Dとのずれを示す角度(=90°−θ)(図22)を算出し、当該ずれを示す角度(=90°−θ)(図22)が0度あるいは−180度である場合は、移動方向Dと筐体101の前進方向(Y方向)とが平行であると判断すればよい。
なお、S411において、主制御部200は、誤差を考慮して、移動方向Dと筐体101の前進方向(Y方向)とが平行であるか否かを判断してもよい。つまり、Y方向と移動方向Dとのずれを示す角度(=90°−θ)が、0度あるいは−180度を基準として所定の誤差を示す角度α(たとえばα=10°)の範囲内に入っていれば(0°−α≦90°−θ≦0°+α、あるいは、−180°−α≦90°−θ≦−180°+αであれば)、平行であると判断してもよい。
主制御部200は、S411において、S302(図19)で算出した移動方向Dと、第1駆動輪110及び第2駆動輪111による筐体101の前進方向と、が平行であると判断した場合(S411でYES)、S413を行う。
一方、主制御部200は、S302(図19)で算出した移動方向Dと、第1駆動輪110及び第2駆動輪111による筐体101の前進方向と、が平行ではないと判断した場合(S411でNO)、S302(図19)で算出した移動方向Dと、第1駆動輪110及び第2駆動輪111による筐体101の前進方向と、を平行にした後(S412)、S413を行う。
S412は、例えば、以下のように実現すればよい。先ず、筐体101を所定方向に所定角度回転させるために必要な、第1駆動輪110の回転数及び回転方向と第2駆動輪111の回転数及び回転方向とを実験値等に基づき予め定めておき、メモリ206に記憶すればよい。
図25は、図24のS412における第1駆動輪110及び第2駆動輪111による筐体101の前進方向を移動方向Dと平行にする処理の一例を示す図である。そして、主制御部200は、例えば、図25に示すように、S411で算出した、Y方向(破線部)と移動方向Dとのずれを示す角度(=90°−θ)がプラスの値の場合は、当該ずれを示す角度(=90°−θ)分、筐体101を右回りに回転させるのに必要な第1駆動輪110及び第2駆動輪111それぞれの回転数及び回転方向をメモリ206から取得すればよい。そして、主制御部200は、当該取得した第1駆動輪110の回転数及び回転方向と第2駆動輪111の回転数及び回転方向とを指定するコマンドを、筐体駆動輪制御部214(図15)に出力すればよい。筐体駆動輪制御部214(図15)は、前記コマンドに応じて、第1駆動輪110が、指定された回転数、指定された回転方向に回転するまで第1モータ112(図2B)を回転させ、第2駆動輪111が、指定された回転数、指定された回転方向に回転するまで第2モータ113(図2B)を回転させればよい。これにより、Y方向を向いていた破線で示す筐体101の前進方向が、移動方向Dに合うようになる。一方、主制御部200は、前記ずれを示す角度(=90°−θ)がマイナスの値の場合は、前記ずれを示す角度の絶対値が示す角度(=|90°−θ|)分、筐体101を更に左回りに回転させるのに必要な第1駆動輪110及び第2駆動輪111それぞれの回転数及び回転方向をメモリ206から取得すればよい。そして、主制御部200は、当該取得した第1駆動輪110及び第2駆動輪111それぞれの回転数及び回転方向を指定するコマンドを筐体駆動輪制御部214(図15)に出力すればよい。尚、S412の実現方法は上述の方法に限らない。例えば、筐体101がZ軸を中心に回転したときの角速度を検知する角速度センサーをロボット1に備えるようにしてもよい。そして、主制御部200が、前記角速度センサーが検知した角速度に基づき、筐体101が前記ずれを示す角度(=90°−θ)分回転したか否かを判断するようにしてもよい。
S413において、主制御部200は、ロボット1に表現させる感情に応じて、第1駆動輪110及び第2駆動輪111の回転方向及び回転速度を決定する(S413)。そして、S414において、主制御部200は、S413で決定した回転方向及び回転速度で、第1駆動輪110及び第2駆動輪111を回転させる(S414)。
図26A〜図26Cは、図24のS413及びS414による第1駆動輪110及び第2駆動輪111の回転処理の一例を示す図である。例えば、主制御部200は、ロボット1にユーザ1501に対する好意を示す感情を表現させるとする。この場合、主制御部200は、S413において、図26Aに示すように、第1駆動輪110及び第2駆動輪111の回転方向を矢印D4が示すY方向と平行な方向(前方)に決定する。また、主制御部200は、ロボット1に表現させるユーザ1501に対する好意の感情の度合いが強い程、回転速度を速い速度に設定する。そして、S414において、主制御部200は、S413で決定した回転速度で第1駆動輪110及び第2駆動輪111をS413で決定した回転方向に回転させるためのコマンドを筐体駆動輪制御部214(図15)に出力する。これにより、筐体駆動輪制御部214(図15)は、前記コマンドに応じて、第1モータ112(図2B)及び第2モータ113(図2B)を指定された回転速度で、矢印D4が示すY方向と平行な方向に回転させ、筐体101をY方向(前方)に直進させる。この場合、ユーザ1501がロボット1を抱っこしている状態でロボット1はユーザ1501側に進もうとする。これにより、ロボット1がユーザ1501の腕の中でユーザ1501に近づいていることをユーザ1501に感じさせることができる。このようにして、主制御部200は、ユーザ1501に好意を持っていることをロボット1に表現させることができる。
これとは反対に、主制御部200は、ロボット1にユーザ1501を嫌がっている感情(「イヤイヤ」)を表現させるとする。この場合、主制御部200は、S413において、図26Bに示すように、第1駆動輪110及び第2駆動輪111の回転方向を矢印D5が示す−Y方向と平行な方向(後方)に決定する。また、主制御部200は、ロボット1に表現させるユーザ1501を嫌がっている感情の度合いが強い程、回転速度を速い速度に設定する。そして、S414において、主制御部200は、S413で決定した回転速度で第1駆動輪110及び第2駆動輪111をS413で決定した回転方向に回転させるためのコマンドを筐体駆動輪制御部214(図15)に出力する。筐体駆動輪制御部214(図15)は、前記コマンドに応じて、第1モータ112(図2B)及び第2モータ113(図2B)を指定された回転速度で矢印D5が示す−Y方向と平行な方向に回転させ、筐体101を−Y方向(後方)に直進させる。この場合、ユーザ1501がロボット1を抱っこしている状態でロボット1はユーザ1501から離れる方向に進もうとする。これにより、ロボット1がユーザ1501の腕の中でユーザ1501から離れようとしていることをユーザ1501に感じさせることができる。このようにして、主制御部200は、ユーザ1501を嫌がっていることをロボット1に表現させることができる。
尚、ユーザ1501として子供を想定した場合、第1駆動輪110及び第2駆動輪111を回転させ続けると、ユーザ1501への負荷が大きくなる。このため、主制御部200は、S414において、S413で決定した回転速度で第1駆動輪110及び第2駆動輪111をS413で決定した回転方向に間欠的に回転させるためのコマンドを筐体駆動輪制御部214(図15)に出力してもよい。これにより、筐体駆動輪制御部214(図15)が、前記コマンドに応じて、第1モータ112(図2B)及び第2モータ113(図2B)を指定された回転速度で前方又は後方に平行な方向に間欠的に回転させ、筐体101をY方向(前方)又は−Y方向(後方)に間欠的に直進させるようにしてもよい。この場合、ユーザ1501への前記負荷を軽減することができる。
また、主制御部200は、ロボット1にユーザ1501を嫌がっている感情(「イヤイヤ」)を表現させる場合に、更に、ロボット1に抱っこを嫌がっている感情を表現させるため、前記第1制御と前記第2制御とを交互に行ってもよい。つまり、前記第1制御では、図26Cに示すように、S413において、第1駆動輪110の回転方向を矢印D4が示すY方向と平行な方向(前方)に決定し、第2駆動輪111の回転方向を矢印D5が示す−Y方向と平行な方向(後方)に決定後、S414を行うことで筐体101を右回りに回転させる。前記第2制御では、前記第1制御とは反対に、S413において、第1駆動輪110の回転方向を矢印D5が示す−Y方向と平行な方向(後方)に決定し、第2駆動輪111の回転方向を矢印D4が示すY方向と平行な方向(前方)に決定後、S414を行うことで筐体101を左回りに回転させる。この場合、ロボット1はユーザ1501の腕の中で左右に動き回ろうとする。これにより、ロボット1がユーザ1501の腕の中で落ち着かない様子であることをユーザ1501に感じさせることができる。このようにして、主制御部200は、抱っこを嫌がっていることをロボット1に表現させることができる。
(第3の実施の形態)
第3の実施の形態は、S200(図17)の抱っこ検知処理においてロボット1がユーザ1501に抱っこされていることが正確に検知されたか否かを、カメラ108によって撮像された画像に基づいて判断することを特徴とする。第3の実施の形態における感情表現処理は、全体的な処理は第2の実施の形態における感情表現処理と同じであるが、図17のS300に示す方向算出処理の詳細が相違する。尚、第3の実施の形態において第2の実施の形態と同一構成のものは同一の符号を付し、説明を省く。
図27は、本開示の第3の実施の形態における図17のS300に示す方向算出処理の詳細を示すフローチャートである。図27に示すように、ユーザ方向算出部203は、方向算出処理を開始すると、S301(図19)と同じ内容のS311を行った後(S311)、S302(図19)と同じ内容のS312を行うことで(S312)、筐体101の移動方向Dを算出する。
次に、ユーザ方向算出部203は、カメラ108の撮像方向を、S312で算出した移動方向Dに合わせる(S313)。図2Bにおいて説明したように、カメラ108の撮像方向は、第1駆動輪110及び第2駆動輪111による筐体101の前進方向であるY方向を向いている。このため、S313において、ユーザ方向算出部203は、S411及びS412(図24)と同じ処理を行って、第1駆動輪110及び第2駆動輪111による筐体101の前進方向を移動方向Dに合わせる。これにより、ユーザ方向算出部203は、カメラ108の撮像方向を移動方向Dに合わせる。
次に、カメラ映像処理部204(図15)は、カメラ108に撮像を行わせ、撮像された画像(以下、撮像画像)が、真っ黒に近い画像(以下、全黒画像)であるか否かを判断する(S314)。例えば、カメラ映像処理部204は、S314において、撮像画像をモノクロの画像に加工する。そして、カメラ映像処理部204は、当該加工後の撮像画像に含まれる黒色を表す画素の数が、撮像画像の全画素数に近い所定の画素数以上である場合は、撮像画像が全黒画像であると判断し(S314でYES)、前記所定の画素数未満である場合は、撮像画像が全黒画像ではないと判断する(S314でNO)。尚、カメラ映像処理部204が、S314において、撮像画像が全黒画像であるか否かを判断する方法はこれに限らない。
S312で算出した移動方向Dがユーザ1501によってロボット1が引き寄せられた方向を示している場合、カメラ108によって移動方向Dを撮像した画像は、ユーザ1501を至近距離から撮像したときに得られる全黒画像になっていると考えられる。このため、S314において撮像画像が全黒画像であると判断された場合(S314でYES)、ユーザ方向算出部203は、S312で算出した移動方向Dにユーザ1501が存在すると判断する(S315)。この場合、ユーザ方向算出部203は、S200(図17)の抱っこ検知処理において、ロボット1がユーザ1501に抱っこされていることが正確に検知されたと判断し、また、S312において移動方向Dが適切に算出されたと判断し、方向算出処理を終了する。
一方、S314において撮像画像が全黒画像ではないと判断された場合(S314でNO)、ユーザ方向算出部203は、算出した移動方向Dにユーザ1501が存在しないと判断する(S316)。この場合、ユーザ方向算出部203は、S200(図17)の抱っこ検知処理において、ロボット1がユーザ1501に抱っこされていることが誤って検知されたと判断し、また、当該誤検知の結果、S312において移動方向Dは適切に算出されなかったと判断し、S400(図17)の駆動処理を行わずに、感情表現処理を終了する。
本態様によれば、カメラ108の撮像画像をも考慮して、ロボット1がユーザ1501に抱えられているか否かを判断するので、より正確にロボット1がユーザ1501に抱っこされていることを判断できる。
(第4の実施の形態)
第4の実施の形態は、表示部211(図15)が図17のS300に示す方向算出処理において算出した筐体101の移動方向Dとは反対側を向いていると判断した場合、表示部211(図15)の向きを移動方向Dに合わせることを特徴とする。
図28A〜図28Cは、ロボット1を背面から抱っこした時の加速度センサー219の出力波形の一例を示す図である。図29は、本開示の第4の実施の形態に係るロボット1における感情表現処理の概要を示す図である。表示部211がユーザ1501とは反対側を向いている状態で、ユーザ1501がロボット1を背面から抱っこしたとする。この場合、加速度Ax、Ay、Azは、それぞれ、図28Aの出力波形Wx、図28Bの出力波形Wy、図28Cの出力波形Wzに示すように変化すると推測される。
図28A〜図28Cに示すように、時刻t1にユーザ1501が据置状態のロボット1を床から持ち上げると、図1A〜図1Cと同様に、少なくとも加速度Azは、出力波形Wzに示すように所定の閾値THを越えるまで変化すると推測される。そして、表示部211がユーザ1501に向かう方向とは反対側を向いている状態で、ユーザ1501がロボット1を引き寄せて抱っこしたとする。この場合、ロボット1がユーザ1501の位置まで後方に移動することに応じて、加速度Ayは、図28Bの楕円部の出力波形Wyに示すように、一定期間、所定幅TWを超えて後方である−Y方向に変動すると推測される。
そこで、本開示の第4の実施の形態に係るロボット1における感情表現処理では、図29の左図に示すように、表示部211がユーザ1501に向かう方向とは反対側を向いている状態で、ユーザ1501によってロボット1が背面(後方)から抱っこされた場合、図29の中央図に示すように、第2の実施の形態と同様、1)抱っこ検知処理を行った後、2)方向算出処理を行うことにより、XY軸平面における筐体101の移動方向Dを算出する。更に、本開示の第4の実施の形態における感情表現処理では、図28Bにおいて説明したように、3)当該算出した移動方向Dが−Y方向であると判断した場合には、表示部211がユーザ1501に向かう方向である移動方向Dとは反対側を向いていると判断する。そして、この判断を行った場合、図29の右図に示すように、4)表示部211を算出した移動方向Dに向けた状態で駆動処理を行う。
第4の実施の形態における感情表現処理は、全体的な処理は第2の実施の形態における感情表現処理と同じであるが、図17のS300に示す方向算出処理の詳細が相違する。尚、第4の実施の形態において第2の実施の形態と同一構成のものは同一の符号を付し、説明を省く。図30は、本開示の第4の実施の形態における図17のS300に示す方向算出処理の詳細を示すフローチャートである。
図30に示すように、ユーザ方向算出部203は、方向算出処理を開始すると、S301(図19)と同じ内容のS321を行った後(S321)、S302(図19、図20)と同じ内容のS322を行うことで(S322)、筐体101の移動方向Dを算出する。
次に、ユーザ方向算出部203は、S322で算出した筐体101の移動方向Dが、ロボット1の背面方向である−Y方向を向いているか否かを判断する(S323)。そして、ユーザ方向算出部203は、S323において、移動方向Dがロボット1の背面方向(−Y方向)を向いていると判断した場合(S323でYES)、表示部211がユーザ1501に向かう方向である移動方向Dとは反対側を向いていると判断した後(S324)、方向算出処理を終了する。
具体的には、図19及び図20を用いてS302について説明したように、ユーザ方向算出部203は、S302と同じS322において、S321で取得した加速度Ax、Ayをそれぞれ2回積分した結果から、筐体101がX軸方向、Y軸方向に移動した距離及び方向をそれぞれ表すベクトルDx、Dyを算出し、これらを合成したベクトルDxyを算出する。
ここで、S322で算出したベクトルDxyが、図20の右図に示したようにX方向及びY方向を向いていたとする。この場合、S323において、ユーザ方向算出部203は、S322で算出したベクトルDxyのY軸方向の成分を示すベクトルDyがY方向を向いているので、筐体101の移動方向Dが−Y方向を向いていないと判断する(S323でNO)。この場合、ユーザ方向算出部203は、表示部211が移動方向Dを向いていると判断し、方向算出処理を終了する。
図31は、図30のS323における筐体101の移動方向Dの判断処理の一例を示す図である。一方、図31に示すように、S322で算出したベクトルDxyが−X方向及び−Y方向を向いているとする。この場合、S323において、ユーザ方向算出部203は、S322で算出したベクトルDxyのY軸方向の成分を示すベクトルDyが−Y方向を向いているので、筐体101の移動方向Dが−Y方向を向いていると判断する(S323でYES)。この場合、ユーザ方向算出部203は、表示部211がユーザ1501に向かう方向である移動方向Dとは反対側を向いていると判断した後(S324)、方向算出処理を終了する。
言い換えれば、S323において、ユーザ方向算出部203は、加速度Azが所定の閾値TH(図1A)を越えた前後のサンプリング期間TSにおける加速度Ayの変化を示すベクトルDy(図20、図31)が、表示部211の表示方向をY方向とした場合の−Y方向を向いているか否かを判断する。
方向算出処理が終了すると、主制御部200は、第2の実施の形態と同様、図24に示す処理フローに従ってS400(図17)に示す駆動処理を行う。方向算出処理においてS324が行われた場合、つまり、表示部211が移動方向Dとは反対側を向いていると判断された場合、主制御部200は、S411及びS412(図24)において、第1駆動輪110及び第2駆動輪111による筐体101の前進方向であるY方向を、S322で算出された移動方向Dに合わせることになる。
図32は、本開示の第4の実施の形態において、図24のS412を行った場合における表示部211の位置の一例を示す図である。S324が行われた場合、図31に示すように、移動方向Dを表す角度θは180度よりも大きくなる。この場合も、主制御部200は、上述のS412において、例えば図32に示すように、X方向から移動方向Dを表す角度θ分左回りに回転した方向が移動方向Dであると判断する。また、主制御部200は、第1駆動輪110及び第2駆動輪111による筐体101の前進方向であるY方向は、X方向から90度左回りに回転した方向であると判断する。そして、主制御部200は、Y方向と移動方向Dとのずれを示す角度である、90度から移動方向Dを表す角度θ(図31)を減算した結果(90°−θ)がマイナスの値となるので、当該結果の絶対値が示す角度(=|90°−θ|)分、筐体101を更に左回りに回転させるためのコマンドを、筐体駆動輪制御部214(図15)に出力する。これにより、第1駆動輪110及び第2駆動輪111による筐体101の前進方向であるY方向が移動方向Dに合うようになる。図2Bにおいて説明したように、表示部211は筐体101の前進方向であるY方向を向いている。このため、筐体101の前進方向であるY方向が移動方向Dに合うようになると、Y方向を向いていた表示部211の向きも移動方向Dに合うようになる。
以上の通り、本態様によれば、表示部211が筐体101の移動方向Dとは反対側を向いていると判断した場合、主制御部200は、第1駆動輪110及び第2駆動輪111を回転させることで表示部211の向きを筐体101の移動方向に合わせる。これにより、ロボット1がユーザ1501とは反対側を向いて床の上を動いていた場合にユーザ1501がロボット1を抱っこしたとしても、第1駆動輪110及び第2駆動輪111の回転によってロボット1の顔をユーザ1501に向けることができる。
(変形例1)
第4の実施の形態における図17のS300に示す方向算出処理は、図30に示す処理フローに代えて、図33に示す処理フローで実現してもよい。以下、図33に示す方向算出処理の処理フローについて詳述する。図33は、本開示の第4の実施の形態における図17のS300に示す方向算出処理の詳細の変形例を示すフローチャートである。
図33に示す方向算出処理は、S200(図17)の抱っこ検知処理においてロボット1がユーザ1501に抱っこされていることが正確に検知されたか否かをカメラ108の撮像画像に基づいて判断するとともに、図30に示す方向算出処理で算出した筐体101の移動方向Dを、カメラ108の撮像画像からユーザ1501の顔を認識した結果に基づいて補正することを特徴とする。図33において、S331、S332、S333、S334は、図30のS321、S322、S323、S324と同じであるので、説明を省く。
図33に示すように、ユーザ方向算出部203は、S332において筐体101の移動方向Dを算出した後、カメラ108(図2B)の撮像方向を、当該算出した筐体101の移動方向Dに合わせる(S335)。図2Bにおいて説明したように、カメラ108の撮像方向は第1駆動輪110及び第2駆動輪111による筐体101の前進方向であるY方向に向いている。このため、S335において、ユーザ方向算出部203は、S411及びS412(図24)と同じ処理を行って、第1駆動輪110及び第2駆動輪111による筐体101の前進方向を移動方向Dに合わせる。これにより、ユーザ方向算出部203は、カメラ108の撮像方向を筐体101の移動方向Dに合わせる。
次に、カメラ映像処理部204(図15)は、カメラ108に撮像を行わせ、カメラ108の撮像画像からユーザ1501の顔の有無を認識する。カメラ映像処理部204によってユーザ1501の顔が認識されなかった場合(S336でNO)、ユーザ方向算出部203は、S332において算出した筐体101の移動方向Dにはユーザ1501が存在しないと判断する(S340)。この場合、ユーザ方向算出部203は、S200(図17)の抱っこ検知処理において、ロボット1がユーザ1501に抱っこされていることが誤って検知されたと判断し、また、当該誤検知の結果、筐体101の移動方向Dが適切に算出されなかったと判断し、S400(図17)の駆動処理を行わずに、感情表現処理を終了する。
一方、カメラ映像処理部204は、カメラ108の撮像画像からユーザ1501の顔を認識できた場合(S336でYES)、更に顔の大きさを認識し、当該認識した顔の大きさと撮像画像の大きさとの比較結果に基づき、カメラ108から顔までの距離が所定距離以下であるか否かを判断する(S337)。尚、所定距離は、ロボット1がユーザ1501に抱っこされている場合におけるカメラ108からユーザ1501の顔の位置までの距離と考えられる距離に予め定められている。
S337においてカメラ108から顔までの距離が所定距離以下ではないと判断された場合(S337でNO)、ユーザ方向算出部203は、S332において算出した筐体101の移動方向Dにはユーザ1501が存在しないと判断し(S340)、S400(図17)の駆動処理を行わずに、感情表現処理を終了する。
例えば、ユーザ1501がロボット1を床から持ち上げた後、椅子の上等に勢いよく置いて立ち去る場合がある。この場合、ロボット1がZ軸方向に移動した後、椅子の上でX軸方向又はY軸方向に転がることで、S200(図17)の抱っこ検知処理において、ロボット1がユーザ1501に抱っこされていると誤って検知する虞がある。この場合、カメラ108の撮像画像に椅子から立ち去るユーザ1501の顔が含まれる虞があるが、カメラ108からユーザ1501の顔までの距離が前記所定距離よりも長いので、S337では、カメラ108から顔までの距離が所定距離以下ではない(S337でNO)と判断される。つまり、ユーザ方向算出部203は、ユーザ1501がロボット1を床から持ち上げた後、椅子の上等に勢いよく置いて立ち去った場合に、S200(図17)の抱っこ検知処理において、ロボット1がユーザ1501に抱っこされていることが誤って検知されたことを判断し、その結果、筐体101の移動方向Dが適切に算出されなかったことを判断して、S400(図17)の駆動処理を行わずに、感情表現処理を終了することができる。
一方、S337においてカメラ108から顔までの距離が所定距離以下であると判断されたとする(S337でYES)。この場合、ユーザ方向算出部203は、S332において算出した筐体101の移動方向Dが、カメラ108の位置から当該認識された顔の位置に向かう方向(以下、認識した顔の方向)となるように補正する(S338)。この場合、ユーザ方向算出部203は、筐体101の移動方向が適切に補正されたものとして、補正後の移動方向にユーザ1501が存在すると判断し(S339)、方向算出処理を終了する。
尚、S338は以下のようにして実現すればよい。ユーザ方向算出部203は、カメラ映像処理部204にユーザ1501の顔の位置を認識させればよい。また、ユーザ方向算出部203は、カメラ映像処理部204に、カメラ108の撮像画像におけるユーザ1501の顔の位置と所定位置(例えば、中心)との距離等に基づいて、カメラ108の撮像方向と認識した顔の方向とのずれを示す方向及び角度を算出させればよい。そして、ユーザ方向算出部203は、移動方向Dを、前記ずれを示す方向に前記ずれを示す角度分補正すればよい。
本態様によれば、カメラ108の撮像画像をも考慮して、ロボット1がユーザ1501に抱えられているか否かを判断するので、より正確にロボット1がユーザに抱えられていることを判断できる。また、ロボット1がユーザ1501に抱えられていると判断した場合には、カメラ108の撮像画像に基づいてロボット1がユーザ1501に引き寄せられた方向を精度良く算出することができる。
(変形例2)
第1の実施の形態における図17のS400に示す駆動処理では、S402(図21)において、主制御部200は、カウンターウェイト114をガイドシャフト115に沿って、ロボット1に表現させる感情に応じた方向に移動させていた。また、第2乃至第4の実施の形態における図17のS400に示す駆動処理では、S413及びS414(図24)において、主制御部200は、第1駆動輪110及び第2駆動輪111をロボット1に表現させる感情に応じた方向に回転させていた。そこで、S402(図21)やS413及びS414(図24)において、主制御部200が、更に、ロボット1に表現させる感情に応じて、表示部211に表示させるロボット1の表情を変更するようにしてもよい。
図34A及び図34Bは、図21のS402及び図24のS413及びS414において表示部211に表示させる表情を変更する一例を示す図である。例えば、主制御部200が、S402(図21)やS413及びS414(図24)において、ロボット1にユーザ1501に好意を抱いている感情を表現させる場合に、図34Aに示すような笑顔の表情を表示部211に表示させてもよい。一方、主制御部200が、ロボット1にユーザ1501を嫌がっている感情を表現させる場合に、図34Bに示すような機嫌が悪そうな顔の表情を表示部211に表示させてもよい。
本態様によれば、表示部211に表示させる表情を変化させることで、ロボット1の感情をより明確に表現することができる。
(変形例3)
上述の各実施の形態では、図2Bに示すように、カメラ108と、表示部211を構成する第1表示部105、第2表示部106及び第3表示部107と、が、第1回転板103に取り付けられていた。また、ロボット1は、図9A〜図9Cに示すようにスイングアーム116を個別に回転させる機構を備えているものの、第1回転板103を個別に回転させる機構を備えていなかった。
このため、第3の実施の形態における図27のS313や第5の実施の形態における図33のS335では、S411及びS412(図24)と同じ処理を行い、第1駆動輪110及び第2駆動輪111の駆動によって筐体101の前進方向を変更することで、カメラ108の撮像方向を筐体101の移動方向Dに合わせていた。また、第4の実施の形態では、S411及びS412(図24)において、第1駆動輪110及び第2駆動輪111の駆動によって筐体101の前進方向及び表示部211の向きを筐体101の移動方向Dに合わせていた。
しかし、ロボット1に、第1回転板103を個別に回転させる回転駆動機構を備えるようにし、第3の実施の形態における図27のS313や第5の実施の形態における図33のS335において、前記回転駆動機構により第1回転板103を回転させることで、カメラ108の撮像方向を筐体101の移動方向Dに合わせるようにしてもよい。また、第4の実施の形態におけるS411及びS412(図24)において、第1駆動輪110及び第2駆動輪111の駆動によって筐体101の前進方向を、筐体101の移動方向Dに合わせるとともに、前記回転駆動機構により第1回転板103を回転させることで、表示部211の向きを筐体101の移動方向Dに合わせるようにしてもよい。
前記回転駆動機構は、例えば、以下のように構成すればよい。図35は、第1回転板103及び第2回転板104の回転駆動機構の一例を示す図である。図35に示すように、第2回転板104に回転シャフト118の直径よりも大きい中空部150を設け、同様の中空部を有する第5ギア143を第2回転板104の下方に取り付ければよい。そして、第5ギア143に係合するモータプーリ142を有する回転用モータ141を設け、回転用モータ141によって、回転用モータ117による回転シャフト118の回転とは独立して、モータプーリ142を回転させればよい。これにより、回転シャフト118の回転とは独立して第5ギア143を回転させ、第2回転板104を回転させることで、第2回転板104に連結された第1回転板103(図2B)を回転させればよい。尚、前記回転駆動機構の構成は、図35に示す構成に限らず、他の構成であってもよい。
(変形例4)
上述の各実施の形態及びその変形例では、前記前後軸方向をY軸方向とし、前記左右軸方向をX軸方向としたが、これに代えて、前記前後軸方向をX軸方向とし、前記左右軸方向をY軸方向としてもよい。つまり、図2BのA視における左方を前方又はX方向とし、図2BのA視における右方を後方又は−X方向とし、図2BのC視における左方を左方又はY方向とし、図2BのC視における右方を右方又は−Y方向としてもよい。
この場合、ガイドシャフト115(図9A、図9B)のデフォルト方向はX方向となる。このため、主制御部200は、S401(図21)において、X方向と移動方向Dとのずれを示す、移動方向Dを表す角度θ分、回転シャフト118(図9B)を左回りに回転させるコマンドをシャフト制御部213(図15)に出力すればよい。また、第1駆動輪110及び第2駆動輪111による前進方向はX方向となる。このため、主制御部200は、S412(図24)において、X方向と移動方向Dとのずれを示す、移動方向Dを表す角度θ分、筐体101を左回りに回転させるのに必要な第1駆動輪110及び第2駆動輪111それぞれの回転数及び回転方向を指定するコマンドを、筐体駆動輪制御部214(図15)に出力すればよい。
(本開示の実施の形態の概要)
本開示の一態様に係るロボットは、
球体状の筐体と、
前記筐体の内側部に配置されたフレームと、
前記フレームに備え付けられた、少なくともロボットの顔の一部を表示する表示部と、
前記フレームに備え付けられ、前記筐体の内周面に接して前記筐体を回転させる一組の駆動輪と、
前記フレームに備え付けられ、所定方向に重りを往復移動させる重り駆動機構と、
上下軸方向、前後軸方向、及び左右軸方向の3軸方向の加速度を検知する加速度センサーと、
前記加速度センサーから出力された前記上下軸方向の加速度を示す第1値が所定の閾値を越えた後、前記上下軸方向の加速度を示す第1値、前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値のいずれかが一定期間、所定幅を超えて変動していると判断した場合、前記筐体がユーザに抱えられていると判断する制御回路と、を備えたものである。
本態様は、加速度センサーを備え、前記加速度センサーから出力された前記上下軸方向の加速度を示す第1値が所定の閾値を越えた後、前記上下軸方向の加速度を示す第1値、前記前後軸成分の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値のいずれかが一定期間、所定幅を超えて変動していると判断した場合、前記筐体がユーザに抱えられていると判断するものである。
これにより、ユーザが前記ロボットを床から持ち上げて前記ロボットを抱っこした場合と、ユーザが前記ロボットを床から持ち上げて前記ロボットを、例えば、椅子の上に置いた場合とを、簡易に区別できる。その結果、ユーザが前記ロボットを抱っこしたと判断した場合には、前記ユーザへの種々の反応を適切に前記ロボットにさせることができる。
また、上記態様において、例えば、
前記制御回路は、
前記上下軸方向の加速度を示す第1値が前記所定の閾値を越えた後、前記上下軸方向の加速度を示す第1値、前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値のいずれの変動も前記一定期間内に、前記所定幅内に収束したと判断した場合、前記筐体が上下方向に移動した後に所定の場所に配置されたと判断してもよい。
本態様によると、前記上下軸方向の加速度を示す第1値が所定の閾値を越えた後、前記上下軸方向の加速度を示す第1値、前記前後軸成分の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値のいずれの変動も前記一定期間内に、前記所定幅内に収束したと判断した場合、前記筐体が上下方向に移動した後に所定の場所に配置されたと判断する。
これにより、ユーザが前記ロボットを床から持ち上げて前記ロボットを抱っこした場合と、ユーザが前記ロボットを床から持ち上げて前記ロボットを、例えば、椅子の上に置いた場合とを、より正確に区別できる。
また、上記態様において、例えば、
前記制御回路は、
前記加速度センサーから出力された前記上下軸方向の加速度を示す第1値が所定の閾値を越えた後、前記上下軸方向の加速度を示す第1値、前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値のいずれかが前記一定期間、前記所定幅を超えて変動していると判断した場合であっても、前記一組の駆動輪に駆動指示を出力している場合は、前記筐体はユーザに抱えられていないと判断してもよい。
前記加速度センターの出力値は変動しやすい値である。そのため、前記加速度センターの出力値のみで判断した場合に、誤判断の恐れはあり得る。例えば、より長い期間、前記加速度センターの出力値をサンプルして判断の精度を上げることもできる。しかし、これでは判断に時間を要する。
一方で、前記ロボットが自ら稼動した結果として前記加速度センターの出力波形が変化している場合は、そもそも、前記ロボットがユーザに抱えられている可能性は低い。そのため、予め前記ロボットが自ら稼動している場合を排除することで、前記筐体がユーザに抱えられているとの誤判断を回避し得る。
そこで、本態様では、前記一組の駆動輪に駆動指示を出力している場合は、前記ロボットが自ら稼動しているので、前記筐体はユーザに抱えられていないと判断する。これにより、前記ロボットがユーザに抱えられていると誤判断する可能性を低減させることができる。
また、上記態様において、例えば、
前記制御回路は、
前記筐体がユーザに抱えられていると判断した場合、
前記重り駆動機構を制御して前記重りを前記ユーザに向かう方向に移動させてもよい。
本態様によると、所定方向に重りを往復移動させる重り駆動機構を設け、前記筐体が前記ユーザに抱えられていると判断した場合に、前記重りを前記ユーザに向けて移動させることで、前記ロボットの重心を前記ユーザ側に寄せる。これにより、前記ロボットが前記ユーザの腕の中で前記ユーザに近づいていることを前記ユーザに感じさせることができる。このようにして、本態様によれば、前記ユーザに好意を持っていることを前記ロボットに表現させることができる。
また、上記態様において、例えば、
前記制御回路は、
前記筐体がユーザに抱えられていると判断した場合、
前記上下軸方向の加速度を示す第1値が前記所定の閾値を越えた時点の前後のサンプリング期間において前記加速度センサーから出力された前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値に基づいて、前記筐体の移動方向を判断し、
前記判断された筐体の移動方向に、前記重りが往復移動する前記所定方向を合わせ、
前記重り駆動機構を制御して前記重りを前記ユーザに向かう方向に移動させてもよい。
前記ユーザが前記ロボットを、例えば、抱っこする場合、真上に持ち上げた後ユーザ側に引き寄せる場合もあれば、前記ユーザ側に引き寄せてから持ち上げる場合もある。
本態様によると、前記加速度センサーの前記上下軸方向の加速度を示す第1値が前記所定の閾値を越えた時点の前後のサンプリング期間において、前記加速度センサーの前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値に基づいて前記筐体の移動方向、即ち、前記ロボットを持ち上げる前後で前記ロボットを引き寄せる方向を判断する。
そして、本態様は、所定方向に重りを往復移動させる重り駆動機構を設けている。
これらによって、前記判断された筐体の移動方向に、前記重りが往復移動する前記所定方向を合わせている。その上で、前記重りを前記ユーザに近づける方向に移動させている。
これにより、前記ユーザが前記ロボットを抱っこした状態で、前記ロボットの重心を前記ユーザ側に寄せることができる。その結果、前記ロボットが前記ユーザの腕の中でより前記ユーザへ近づいていることを前記ユーザに感じさせることができる。このようにして、本態様によれば、前記ユーザに好意を持っていることを前記ロボットに表現させることができる。
また、上記態様において、例えば、
前記制御回路は、
前記重り駆動機構を制御して、前記重りを前記ユーザに向かう方向とは逆方向に移動させた後に、前記重りを前記ユーザに向かう方向に移動させてもよい。
ユーザとして子供を想定した場合、前記重りの重さをあまり重くできない場合もある。例えば、このような場合、前記重りを前記ユーザに向かう方向とは逆方向に移動させた後に、前記重りを前記ユーザに向かう方向に移動させる。これにより、前記重りの重さをあまり重くできない場合であっても、前記ロボットの重心を前記ユーザ側に寄せて、前記ロボットが前記ユーザの腕の中でより前記ユーザに近づいていることを前記ユーザに感じさせることができる。
また、上記態様において、例えば、
前記制御回路は、
前記筐体がユーザに抱えられていると判断した場合、
前記重り駆動機構を制御して前記重りを前記ユーザから離れる方向に移動させてもよい。
本態様によると、前記筐体が前記ユーザに抱えられていると判断した場合に、前記重りを前記ユーザから離れる方向に移動させることで、前記ロボットの重心を前記ユーザとは反対側に寄せる。これにより、前記ロボットが前記ユーザの腕の中で前記ユーザから離れようとしていることを前記ユーザに感じさせることができる。このようにして、本態様によれば、抱っこを嫌がっていることを前記ロボットに表現させることができる。
また、上記態様において、例えば、
前記制御回路は、
前記筐体がユーザに抱えられていると判断した場合、
前記上下軸方向の加速度を示す第1値が前記所定の閾値を越えた時点の前後のサンプリング期間において前記加速度センサーから出力された前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値に基づいて、前記筐体の移動方向を判断し、
前記判断された筐体の移動方向に、前記重りが往復移動する前記所定方向を合わせ、
前記重り駆動機構を制御して前記重りを前記ユーザから離れる方向に移動させてもよい。
本態様によると、前記加速度センサーの前記上下軸方向の加速度を示す第1値が前記所定の閾値を越えた時点の前後のサンプリング期間において、前記加速度センサーの前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値に基づいて前記筐体の移動方向、即ち、前記ロボットを持ち上げる前後で前記ロボットを引き寄せる方向を判断する。
そして、前記判断された筐体の移動方向に、前記重りが往復移動する前記所定方向を合わせている。その上で、前記重りを前記ユーザから離れる方向に移動させている。
これにより、前記ユーザが前記ロボットを抱っこした状態で、前記ロボットの重心を前記ユーザとは反対側に寄せることができる。その結果、前記ロボットが前記ユーザの腕の中でより前記ユーザから離れようとしていることを前記ユーザに感じさせることができる。このようにして、本態様によれば、抱っこを嫌がっていることを前記ロボットに表現させることができる。
また、上記態様において、例えば、
前記制御回路は、
前記筐体がユーザに抱えられていると判断した場合、
前記一組の駆動輪を回転させて前記筐体を前記ユーザに向かう方向に移動させてもよい。
本態様によると、前記筐体の内周面に接して前記筐体を回転させる一組の駆動輪を設け、前記一組の駆動輪を回転させることで、前記ユーザが前記ロボットを抱っこしている状態で前記ロボットを前記ユーザ側に向かわせている。これにより、前記ロボットが前記ユーザの腕の中で前記ユーザに近づいていることを前記ユーザに感じさせることができる。このようにして、本態様によれば、前記ユーザに好意を持っていることを前記ロボットに表現させることができる。
また、上記態様において、例えば、
前記制御回路は、
前記筐体がユーザに抱えられていると判断した場合、
前記上下軸方向の加速度を示す第1値が前記所定の閾値を越えた時点の前後のサンプリング期間において前記加速度センサーから出力された前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値に基づいて、前記筐体の移動方向を判断し、
前記判断された筐体の移動方向に、前記一組の駆動輪の回転により前記筐体が前進する方向を合わせ、
前記一組の駆動輪を回転させて前記筐体を前記ユーザに向かう方向に移動させてもよい。
本態様によると、前記加速度センサーの前記上下軸方向の加速度を示す第1値が前記所定の閾値を越えた時点の前後のサンプリング期間において、前記加速度センサーの前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値に基づいて前記筐体の移動方向、即ち、前記ロボットを持ち上げる前後で前記ロボットを引き寄せる方向を判断する。
そして、本態様は、前記筐体の内周面に接して前記筐体を回転させる一組の駆動輪を設けている。
これらによって、前記判断された筐体の移動方向に、前記一組の駆動輪の回転により前記筐体が前進する方向を合わせている。その上で、前記一組の駆動輪を回転させている。
これにより、前記ユーザが前記ロボットを抱っこした状態で、前記ロボットを前記ユーザに向かわせることができる。その結果、前記ロボットが前記ユーザの腕の中でより前記ユーザへ近づいていることを前記ユーザに感じさせることができる。このようにして、本態様によれば、前記ユーザに好意を持っていることを前記ロボットに表現させることができる。
また、上記態様において、例えば、
前記制御回路は、
前記一組の駆動輪を間欠的に回転させてもよい。
ユーザとして子供を想定した場合、前記一組の駆動輪を回転させ続けると、前記ユーザへの負荷が大きくなる。本態様によると、このような場合に、前記一組の駆動輪を連続回転させるのではなく、前記一組の駆動輪を間欠的に回転させることができる。これにより、前記ユーザへの負荷を軽減することができる。
また、上記態様において、例えば、
前記制御回路は、
前記筐体がユーザに抱えられていると判断した場合、
前記一組の駆動輪の中の第1駆動輪を前進方向に回転させ且つ第2駆動輪を後進方向に回転させる第1制御と、前記一組の駆動輪の前記第1駆動輪を後進方向に回転させ且つ前記第2駆動輪を前進方向に回転させる第2制御と、を交互に切り替えてもよい。
本態様によると、前記筐体が前記ユーザに抱えられていると判断した場合に、前記ロボットは前記ユーザの腕の中で左右に動き回る。これにより、前記ロボットが前記ユーザの腕の中で落ち着かない様子であることを前記ユーザに感じさせることができる。このようにして、本態様によれば、抱っこを嫌がっていることを前記ロボットに表現させることができる。
また、上記態様において、例えば、
前記制御回路は、
前記筐体がユーザに抱えられていると判断した場合、
前記上下軸方向の加速度を示す第1値が前記所定の閾値を越えた時点の前後のサンプリング期間において前記加速度センサーから出力された前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値に基づいて、前記筐体の移動方向を判断し、
前記判断された筐体の移動方向に、前記一組の駆動輪の回転により前記筐体が前進する方向を合わせ、
前記一組の駆動輪の中の第1駆動輪を前進方向に回転させ且つ第2駆動輪を後進方向に回転させる第1制御と、前記一組の駆動輪の前記第1駆動輪を後進方向に回転させ且つ前記第2駆動輪を前進方向に回転させる第2制御と、を交互に切り替えてもよい。
本態様によると、前記加速度センサーの前記上下軸方向の加速度を示す第1値が前記所定の閾値を越えた時点の前後のサンプリング期間において、前記加速度センサーの前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値に基づいて前記筐体の移動方向、即ち、前記ロボットを持ち上げる前後で前記ロボットを引き寄せる方向を判断する。
そして、前記判断された筐体の移動方向に、前記一組の駆動輪の回転により前記筐体が前進する方向を合わせている。その上で、前記一組の駆動輪を回転させている。
これにより、前記ユーザが前記ロボットを抱っこした際、前記ロボットは前進方向を前記ユーザに向けた状態で、左右に動き回ることができる。その結果、前記ロボットがより前記ユーザの腕の中で落ち着かない様子であることを前記ユーザに感じさせることができる。このようにして、本態様によれば、抱っこを嫌がっていることを前記ロボットに表現させることができる。
また、上記態様において、例えば、
前記制御回路は、
前記筐体がユーザに抱えられていると判断した場合、
前記一組の駆動輪を回転させて前記筐体を前記ユーザから離れる方向に移動させてもよい。
本態様によると、前記筐体の内周面に接して前記筐体を回転させる一組の駆動輪を設け、前記筐体が前記ユーザに抱えられていると判断した場合に、前記一組の駆動輪を回転させることで、前記ユーザが前記ロボットを抱っこしている状態で前記ロボットを前記ユーザから離れる方向に移動させる。これにより、前記ロボットが前記ユーザの腕の中で前記ユーザから離れようとしていることを前記ユーザに感じさせることができる。このようにして、本態様によれば、前記ユーザを嫌がっていることを前記ロボットに表現させることができる。
また、上記態様において、例えば、
前記制御回路は、
前記筐体がユーザに抱えられていると判断した場合、
前記上下軸方向の加速度を示す第1値が前記所定の閾値を越えた時点の前後のサンプリング期間において前記加速度センサーから出力された前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値に基づいて、前記筐体の移動方向を判断し、
前記判断された筐体の移動方向に、前記一組の駆動輪の回転により前記筐体が前進する方向を合わせ、
前記一組の駆動輪を逆回転させて前記筐体を前記ユーザから離れる方向に移動させてもよい。
本態様によると、前記加速度センサーの前記上下軸方向の加速度を示す第1値が前記所定の閾値を越えた時点の前後のサンプリング期間において、前記加速度センサーの前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値に基づいて前記筐体の移動方向、即ち、前記ロボットを持ち上げる前後で前記ロボットを引き寄せる方向を判断する。
そして、本態様は、前記筐体の内周面に接して前記筐体を回転させる一組の駆動輪を設けている。
これらによって、前記判断された筐体の移動方向に、前記一組の駆動輪の回転により前記筐体が前進する方向を合わせている。その上で、前記一組の駆動輪を逆回転させている。
これにより、前記ユーザが前記ロボットを抱っこした状態で、前記ロボットを前記ユーザから離れる方向に向かわせることができる。その結果、前記ロボットが前記ユーザの腕の中でより前記ユーザから離れようとしていることを前記ユーザに感じさせることができる。このようにして、本態様によれば、前記ユーザを嫌がっていることを前記ロボットに表現させることができる。
また、上記態様において、例えば、
前記制御回路は、
前記上下軸方向の加速度を示す第1値が前記所定の閾値を越えた時点の前後のサンプリング期間において前記加速度センサーから出力された前記前後軸方向の加速度を示す第2値が、前記表示部の表示方向を前記前後軸方向の前方向とした場合の後方向に変化していた場合、
前記表示部が前記筐体の移動方向とは反対側を向いていると判断してもよい。
本態様によると、前記上下軸方向の加速度を示す第1値が前記所定の閾値を越えた時点の前後のサンプリング期間において前記加速度センサーから出力された前記前後軸方向の加速度を示す第2値が、前記表示部の表示方向を前記前後軸方向の前方向とした場合の後方向に変化していた場合、前記表示部が前記筐体の移動方向とは反対側を向いていると判断する。
これにより、前記ロボットが前記ユーザとは反対側を向いて床の上を動いていた場合に前記ユーザが前記ロボットを抱っこしたときに、前記ロボットの顔が前記ユーザとは反対側を向いていると判断することができる。
また、上記態様において、例えば、
前記制御回路は、
前記表示部が前記筐体の移動方向とは反対側を向いていると判断した場合、
前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値に基づいて前記筐体の移動方向を判断し、
前記一組の駆動輪の中の第1駆動輪を前進方向に回転させ且つ第2駆動輪を後進方向に回転させて、前記表示部の向きを前記筐体の移動方向に合わせてもよい。
本態様によると、前記表示部が前記筐体の移動方向とは反対側を向いていると判断した場合、前記一組の駆動輪の回転により前記表示部の向きを前記筐体の移動方向に合わせる。これにより、前記ロボットが前記ユーザとは反対側を向いて床の上を動いていた場合に前記ユーザが前記ロボットを抱っこしたとしても、前記一組の駆動輪の回転によって前記ロボットの顔を前記ユーザに向けることができる。
また、上記態様において、例えば、
前記表示部は、前記フレームの一部である回転板に備え付けられ、
前記回転板の回転駆動機構を備え、
前記制御回路は、
前記表示部が前記筐体の移動方向とは反対側を向いていると判断した場合、
前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値に基づいて前記筐体の移動方向を判断し、
前記回転駆動機構を制御して、前記表示部の向きを前記筐体の移動方向に合わせてもよい。
本態様によると、前記表示部が前記筐体の移動方向とは反対側を向いていると判断した場合、前記回転板の回転により前記表示部の向きを前記筐体の移動方向に合わせる。これにより、前記ロボットが前記ユーザとは反対側を向いて床の上を動いていた場合に前記ユーザが前記ロボットを抱っこしたとしても、前記表示部を取り付けた回転板を移動させることによって前記ロボットの顔を前記ユーザに向けることができる。
また、上記態様において、例えば、
前記フレームは回転板を含み、
前記回転板に備え付けられたカメラを設け、
前記回転板の回転駆動機構を備え、
前記制御回路は、
前記上下軸方向の加速度を示す第1値が前記所定の閾値を越えた時点の前後のサンプリング期間において前記加速度センサーから出力された前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値に基づいて、前記筐体の移動方向を判断し、
前記判断された筐体の移動方向に、前記カメラの撮像方向を合わせ、
前記筐体の移動に応じて前記カメラによって撮像された画像が全黒画像になった場合、前記筐体がユーザに抱えられていると判断してもよい。
本態様によると、前記回転板の回転によって前記筐体の移動方向に撮像方向を合わせた前記カメラの撮像画像をも考慮して、前記ロボットがユーザに抱えられているか否かを判断するので、より正確に前記ロボットがユーザに抱えられていることを判断できる。
また、上記態様において、例えば、
前記フレームに備え付けられたカメラを設け、
前記制御回路は、
前記上下軸方向の加速度を示す第1値が前記所定の閾値を越えた時点の前後のサンプリング期間において前記加速度センサーから出力された前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値に基づいて、前記筐体の移動方向を判断し、
前記一組の駆動輪の中の第1駆動輪を前進方向に回転させ且つ第2駆動輪を後進方向に回転させて、前記カメラの撮像方向を前記筐体の移動方向に合わせ、
前記筐体の移動に応じて前記カメラによって撮像された画像が全黒画像になった場合、前記筐体がユーザに抱えられていると判断してもよい。
本態様によると、前記一組の駆動輪の回転によって前記筐体の移動方向に撮像方向を合わせた前記カメラの撮像画像をも考慮して、前記ロボットがユーザに抱えられているか否かを判断するので、より正確に前記ロボットがユーザに抱えられていることを判断できる。
本開示の一態様に係るロボットは、
球体状の筐体と、
前記筐体の内側部に配置されたフレームと、
前記フレームに備え付けられた、少なくともロボットの顔の一部を表示する表示部と、
前記フレームに備え付けられ、所定方向に重りを往復移動させる重り駆動機構と、
上下軸方向、前後軸方向、及び左右軸方向の3軸方向の加速度を検知する加速度センサーと、
前記加速度センサーから出力された前記上下軸成分の加速度を示す第1値が所定の閾値を越えた後、前記上下軸方向の加速度を示す第1値、前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値のいずれかが一定期間、所定幅を超えて変動していると判断した場合、前記上下軸方向の加速度を示す第1値が前記所定の閾値を越えた時点の前後のサンプリング期間において前記加速度センサーから出力された前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値に基づいて判断された前記筐体の移動方向に前記重りを移動させる制御回路と、を備えたものである。
本態様は、前記加速度センサーから出力された前記第1値が所定の閾値を越えた後、前記第1値、前記第2値及び前記第3値のいずれかが一定期間、所定幅を超えて変動していると判断した場合、前記第1値が前記所定の閾値を越えた時点の前後のサンプリング期間における前記第2値及び前記第3値に基づいて筐体の移動方向を判断する。そして、本態様は、所定方向に重りを往復移動させる重り駆動機構を設け、前記判断された筐体の移動方向に前記重りを移動させる。
このため、ユーザが前記ロボットを抱っこしたことで、前記第1値が所定の閾値を越えた後、前記第1値、前記第2値及び前記第3値のいずれかが一定期間、所定幅を超えて変動した場合に、前記ユーザが前記ロボットを持ち上げる前後の前記サンプリング期間において前記ユーザが前記ロボットを引き寄せた方向と考えられる前記筐体の移動方向に、前記ロボットの重心を寄せることができる。
これにより、前記ユーザが前記ロボットを抱っこした状態で前記ロボットの重心を前記ユーザ側に寄せることができる。その結果、前記ロボットが前記ユーザの腕の中でより前記ユーザへ近づいていることを前記ユーザに感じさせることができる。このようにして、本態様によれば、前記ユーザが前記ロボットを抱っこした場合に、前記ユーザに好意を持っていることを前記ロボットに表現させることができる。
本開示の一態様に係るロボットは、
球体状の筐体と、
前記筐体の内側部に配置されたフレームと、
前記フレームに備え付けられた、少なくとも顔の一部を表示する表示部と、
前記フレームに備え付けられ、前記筐体の内周面に接して前記筐体を回転させる一組の駆動輪と、
上下軸方向、前後軸方向、及び左右軸方向の3軸方向の加速度を検知する加速度センサーと、
前記加速度センサーから出力された前記上下軸方向の加速度を示す第1値が所定の閾値を越えた後、前記上下軸方向の加速度を示す第1値、前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値のいずれかが一定期間、所定幅を超えて変動していると判断した場合、前記上下軸方向の加速度を示す第1値が前記所定の閾値を越えた時点の前後のサンプリング期間において前記加速度センサーから出力された前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値に基づいて判断された前記筐体の移動方向に前記一組の駆動輪を回転させて前記筐体を移動させる制御回路と、を備えたものである。
本態様は、前記加速度センサーから出力された前記第1値が所定の閾値を越えた後、前記第1値、前記第2値及び前記第3値のいずれかが一定期間、所定幅を超えて変動していると判断した場合、前記第1値が前記所定の閾値を越えた時点の前後のサンプリング期間における前記第2値及び前記第3値に基づいて筐体の移動方向を判断する。そして、本態様は、前記筐体の内周面に接して前記筐体を回転させる一組の駆動輪を設け、前記判断された筐体の移動方向に前記一組の駆動輪を回転させて前記筐体を移動させる。
このため、ユーザが前記ロボットを抱っこしたことで、前記第1値が所定の閾値を越えた後、前記第1値、前記第2値及び前記第3値のいずれかが一定期間、所定幅を超えて変動した場合に、前記ユーザが前記ロボットを持ち上げる前後の前記サンプリング期間において前記ユーザが前記ロボットを引き寄せた方向と考えられる前記筐体の移動方向に、前記筐体を向かわせることができる。
これにより、前記ユーザが前記ロボットを抱っこした状態で前記ロボットを前記ユーザに向かわせることができる。その結果、前記ロボットが前記ユーザの腕の中でより前記ユーザへ近づいていることを前記ユーザに感じさせることができる。このようにして、本態様によれば、前記ユーザが前記ロボットを抱っこした場合に、前記ユーザに好意を持っていることを前記ロボットに表現させることができる。
本開示の例示的な実施の形態にかかるロボットは、ユーザに抱えられていることを判断するロボットに有用である。
1 ロボット
101 筐体
102 フレーム
103 第1回転板(回転板)
104 第2回転板
105 第1表示部(表示部)
106 第2表示部(表示部)
107 第3表示部(表示部)
108 カメラ
109 制御回路
110 第1駆動輪(一組の駆動輪)
111 第2駆動輪(一組の駆動輪)
112 第1モータ
113 第2モータ
114 カウンターウェイト(重り)
115 ガイドシャフト
116 スイングアーム
117 回転用モータ
118 回転シャフト
119 ベルト
120 モータプーリ
131 連結シャフト
132 連結シャフト
200 主制御部
201 加速度情報管理部
202 保持状態判断部
203 ユーザ方向算出部
204 カメラ映像処理部
205 表示情報出力制御部
206 メモリ
210 通信部
211 表示部
212 筐体駆動輪
213 シャフト制御部
214 筐体駆動輪制御部
215 駆動機構制御部
216 スピーカ
217 マイク
218 重り駆動機構
219 加速度センサー
1500 ロボットシステム
1501 ユーザ
1502 ユーザ
1503 ユーザ
Ax 加速度(第3値)
Ay 加速度(第2値)
Az 加速度(第1値)
Td 一定期間
TH 閾値
TS サンプリング期間
TW 所定幅
D 移動方向

Claims (22)

  1. 球体状の筐体と、
    前記筐体の内側部に配置されたフレームと、
    前記フレームに備え付けられた、少なくともロボットの顔の一部を表示する表示部と、
    前記フレームに備え付けられ、前記筐体の内周面に接して前記筐体を回転させる一組の駆動輪と、
    前記フレームに備え付けられ、所定方向に重りを往復移動させる重り駆動機構と、
    上下軸方向、前後軸方向、及び左右軸方向の3軸方向の加速度を検知する加速度センサーと、
    前記加速度センサーから出力された前記上下軸方向の加速度を示す第1値が所定の閾値を越えた後、前記上下軸方向の加速度を示す第1値、前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値のいずれかが一定期間、所定幅を超えて変動していると判断した場合、前記筐体がユーザに抱えられていると判断する制御回路と、を備えたロボット。
  2. 前記制御回路は、
    前記上下軸方向の加速度を示す第1値が前記所定の閾値を越えた後、前記上下軸方向の加速度を示す第1値、前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値のいずれの変動も前記一定期間内に、前記所定幅内に収束したと判断した場合、前記筐体が上下方向に移動した後に所定の場所に配置されたと判断する、
    請求項1記載のロボット。
  3. 前記制御回路は、
    前記加速度センサーから出力された前記上下軸方向の加速度を示す第1値が所定の閾値を越えた後、前記上下軸方向の加速度を示す第1値、前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値のいずれかが前記一定期間、前記所定幅を超えて変動していると判断した場合であっても、前記一組の駆動輪に駆動指示を出力している場合は、前記筐体はユーザに抱えられていないと判断する、
    請求項1記載のロボット。
  4. 前記制御回路は、
    前記筐体がユーザに抱えられていると判断した場合、
    前記重り駆動機構を制御して前記重りを前記ユーザに向かう方向に移動させる、
    請求項1記載のロボット。
  5. 前記制御回路は、
    前記筐体がユーザに抱えられていると判断した場合、
    前記上下軸方向の加速度を示す第1値が前記所定の閾値を越えた時点の前後のサンプリング期間において前記加速度センサーから出力された前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値に基づいて、前記筐体の移動方向を判断し、
    前記判断された筐体の移動方向に、前記重りが往復移動する前記所定方向を合わせ、
    前記重り駆動機構を制御して前記重りを前記ユーザに向かう方向に移動させる、
    請求項1記載のロボット。
  6. 前記制御回路は、
    前記重り駆動機構を制御して、前記重りを前記ユーザに向かう方向とは逆方向に移動させた後に、前記重りを前記ユーザに向かう方向に移動させる、
    請求項4又は請求項5のいずれか一方に記載のロボット。
  7. 前記制御回路は、
    前記筐体がユーザに抱えられていると判断した場合、
    前記重り駆動機構を制御して前記重りを前記ユーザから離れる方向に移動させる、
    請求項1記載のロボット。
  8. 前記制御回路は、
    前記筐体がユーザに抱えられていると判断した場合、
    前記上下軸方向の加速度を示す第1値が前記所定の閾値を越えた時点の前後のサンプリング期間において前記加速度センサーから出力された前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値に基づいて、前記筐体の移動方向を判断し、
    前記判断された筐体の移動方向に、前記重りが往復移動する前記所定方向を合わせ、
    前記重り駆動機構を制御して前記重りを前記ユーザから離れる方向に移動させる、
    請求項1記載のロボット。
  9. 前記制御回路は、
    前記筐体がユーザに抱えられていると判断した場合、
    前記一組の駆動輪を回転させて前記筐体を前記ユーザに向かう方向に移動させる、
    請求項1記載のロボット。
  10. 前記制御回路は、
    前記筐体がユーザに抱えられていると判断した場合、
    前記上下軸方向の加速度を示す第1値が前記所定の閾値を越えた時点の前後のサンプリング期間において前記加速度センサーから出力された前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値に基づいて、前記筐体の移動方向を判断し、
    前記判断された筐体の移動方向に、前記一組の駆動輪の回転により前記筐体が前進する方向を合わせ、
    前記一組の駆動輪を回転させて前記筐体を前記ユーザに向かう方向に移動させる、
    請求項1記載のロボット。
  11. 前記制御回路は、
    前記一組の駆動輪を間欠的に回転させる、
    請求項9又は請求項10のいずれか一方に記載のロボット。
  12. 前記制御回路は、
    前記筐体がユーザに抱えられていると判断した場合、
    前記一組の駆動輪の中の第1駆動輪を前進方向に回転させ且つ第2駆動輪を後進方向に回転させる第1制御と、前記一組の駆動輪の前記第1駆動輪を後進方向に回転させ且つ前記第2駆動輪を前進方向に回転させる第2制御と、を交互に切り替える、
    請求項1記載のロボット。
  13. 前記制御回路は、
    前記筐体がユーザに抱えられていると判断した場合、
    前記上下軸方向の加速度を示す第1値が前記所定の閾値を越えた時点の前後のサンプリング期間において前記加速度センサーから出力された前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値に基づいて、前記筐体の移動方向を判断し、
    前記判断された筐体の移動方向に、前記一組の駆動輪の回転により前記筐体が前進する方向を合わせ、
    前記一組の駆動輪の中の第1駆動輪を前進方向に回転させ且つ第2駆動輪を後進方向に回転させる第1制御と、前記一組の駆動輪の前記第1駆動輪を後進方向に回転させ且つ前記第2駆動輪を前進方向に回転させる第2制御と、を交互に切り替える、
    請求項1記載のロボット。
  14. 前記制御回路は、
    前記筐体がユーザに抱えられていると判断した場合、
    前記一組の駆動輪を回転させて前記筐体を前記ユーザから離れる方向に移動させる、
    請求項1記載のロボット。
  15. 前記制御回路は、
    前記筐体がユーザに抱えられていると判断した場合、
    前記上下軸方向の加速度を示す第1値が前記所定の閾値を越えた時点の前後のサンプリング期間において前記加速度センサーから出力された前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値に基づいて、前記筐体の移動方向を判断し、
    前記判断された筐体の移動方向に、前記一組の駆動輪の回転により前記筐体が前進する方向を合わせ、
    前記一組の駆動輪を逆回転させて前記筐体を前記ユーザから離れる方向に移動させる、
    請求項1記載のロボット。
  16. 前記制御回路は、
    前記上下軸方向の加速度を示す第1値が前記所定の閾値を越えた時点の前後のサンプリング期間において前記加速度センサーから出力された前記前後軸方向の加速度を示す第2値が、前記表示部の表示方向を前記前後軸方向の前方向とした場合の後方向に変化していた場合、
    前記表示部が前記筐体の移動方向とは反対側を向いていると判断する、
    請求項1記載のロボット。
  17. 前記制御回路は、
    前記表示部が前記筐体の移動方向とは反対側を向いていると判断した場合、
    前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値に基づいて前記筐体の移動方向を判断し、
    前記一組の駆動輪の中の第1駆動輪を前進方向に回転させ且つ第2駆動輪を後進方向に回転させて、前記表示部の向きを前記筐体の移動方向に合わせる、
    請求項16記載のロボット。
  18. 前記表示部は、前記フレームの一部である回転板に備え付けられ、
    前記回転板の回転駆動機構を備え、
    前記制御回路は、
    前記表示部が前記筐体の移動方向とは反対側を向いていると判断した場合、
    前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値に基づいて前記筐体の移動方向を判断し、
    前記回転駆動機構を制御して、前記表示部の向きを前記筐体の移動方向に合わせる、
    請求項16記載のロボット。
  19. 前記フレームは回転板を含み、
    前記回転板に備え付けられたカメラを設け、
    前記回転板の回転駆動機構を備え、
    前記制御回路は、
    前記上下軸方向の加速度を示す第1値が前記所定の閾値を越えた時点の前後のサンプリング期間において前記加速度センサーから出力された前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値に基づいて、前記筐体の移動方向を判断し、
    前記判断された筐体の移動方向に、前記カメラの撮像方向を合わせ、
    前記筐体の移動に応じて前記カメラによって撮像された画像が全黒画像になった場合、前記筐体がユーザに抱えられていると判断する、
    請求項1記載のロボット。
  20. 前記フレームに備え付けられたカメラを設け、
    前記制御回路は、
    前記上下軸方向の加速度を示す第1値が前記所定の閾値を越えた時点の前後のサンプリング期間において前記加速度センサーから出力された前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値に基づいて、前記筐体の移動方向を判断し、
    前記一組の駆動輪の中の第1駆動輪を前進方向に回転させ且つ第2駆動輪を後進方向に回転させて、前記カメラの撮像方向を前記筐体の移動方向に合わせ、
    前記筐体の移動に応じて前記カメラによって撮像された画像が全黒画像になった場合、前記筐体がユーザに抱えられていると判断する、
    請求項1記載のロボット。
  21. 球体状の筐体と、
    前記筐体の内側部に配置されたフレームと、
    前記フレームに備え付けられた、少なくともロボットの顔の一部を表示する表示部と、
    前記フレームに備え付けられ、所定方向に重りを往復移動させる重り駆動機構と、
    上下軸方向、前後軸方向、及び左右軸方向の3軸方向の加速度を検知する加速度センサーと、
    前記加速度センサーから出力された前記上下軸成分の加速度を示す第1値が所定の閾値を越えた後、前記上下軸方向の加速度を示す第1値、前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値のいずれかが一定期間所定幅を超えて変動していると判断した場合、前記上下軸方向の加速度を示す第1値が前記所定の閾値を越えた時点の前後のサンプリング期間において前記加速度センサーから出力された前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値に基づいて判断された前記筐体の移動方向に前記重りを移動させる制御回路と、を備えたロボット。
  22. 球体状の筐体と、
    前記筐体の内側部に配置されたフレームと、
    前記フレームに備え付けられた、少なくとも顔の一部を表示する表示部と、
    前記フレームに備え付けられ、前記筐体の内周面に接して前記筐体を回転させる一組の駆動輪と、
    上下軸方向、前後軸方向、及び左右軸方向の3軸方向の加速度を検知する加速度センサーと、
    前記加速度センサーから出力された前記上下軸方向の加速度を示す第1値が所定の閾値を越えた後、前記上下軸方向の加速度を示す第1値、前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値のいずれかが一定期間、所定幅を超えて変動していると判断した場合、前記上下軸方向の加速度を示す第1値が前記所定の閾値を越えた時点の前後のサンプリング期間において前記加速度センサーから出力された前記前後軸方向の加速度を示す第2値及び前記左右軸方向の加速度を示す第3値に基づいて判断された前記筐体の移動方向に前記一組の駆動輪を回転させて前記筐体を移動させる制御回路と、を備えたロボット。
JP2016147537A 2016-07-27 2016-07-27 ロボット Active JP6695061B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2016147537A JP6695061B2 (ja) 2016-07-27 2016-07-27 ロボット
EP17833899.2A EP3492155A4 (en) 2016-07-27 2017-06-15 ROBOT
CN201780001621.3A CN108055868B (zh) 2016-07-27 2017-06-15 机器人
PCT/JP2017/022040 WO2018020889A1 (ja) 2016-07-27 2017-06-15 ロボット
CA2998307A CA2998307A1 (en) 2016-07-27 2017-06-15 Robot
US15/905,883 US10799806B2 (en) 2016-07-27 2018-02-27 Robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016147537A JP6695061B2 (ja) 2016-07-27 2016-07-27 ロボット

Publications (2)

Publication Number Publication Date
JP2018015211A JP2018015211A (ja) 2018-02-01
JP6695061B2 true JP6695061B2 (ja) 2020-05-20

Family

ID=61016432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016147537A Active JP6695061B2 (ja) 2016-07-27 2016-07-27 ロボット

Country Status (6)

Country Link
US (1) US10799806B2 (ja)
EP (1) EP3492155A4 (ja)
JP (1) JP6695061B2 (ja)
CN (1) CN108055868B (ja)
CA (1) CA2998307A1 (ja)
WO (1) WO2018020889A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7199071B2 (ja) * 2017-07-06 2023-01-05 国立研究開発法人宇宙航空研究開発機構 移動型撮像装置
CN109241073A (zh) * 2018-09-02 2019-01-18 重庆市南岸区瑜目网络科技有限责任公司 一种让人工智能机器人具有人类情感的方法
CN111067354B (zh) * 2018-10-19 2022-06-07 佛山市顺德区美的饮水机制造有限公司 饮水机及其移动方法与装置
KR102687669B1 (ko) * 2019-01-24 2024-07-24 삼성전자주식회사 구형 구조체를 포함하는 전자 장치
CN113696989B (zh) * 2021-08-30 2022-07-26 西安交通大学 一种可越障抗冲击的全向移动球形机器人驱动机构

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3696557A (en) * 1969-11-17 1972-10-10 Reinhold Ruppel Self-propelled toy
US3722134A (en) * 1971-10-12 1973-03-27 C Merrill Self-propelled continuously moving toy
FI960103A0 (fi) * 1996-01-09 1996-01-09 Torsten Schoenberg Roerlig robot
US5692946A (en) * 1996-01-11 1997-12-02 Ku; Wang-Mine Spherical steering toy
US5720644A (en) * 1996-11-04 1998-02-24 Ku; Wane Ming Voice-actuated spherical tumbler
WO2000032360A1 (fr) * 1998-11-30 2000-06-08 Sony Corporation Robot et son procede de commande
JP2000218578A (ja) * 1999-02-03 2000-08-08 Sony Corp 球形ロボット
US7258591B2 (en) * 2003-01-06 2007-08-21 The Chinese University Of Hong Kong Mobile roly-poly-type apparatus and method
JP4623375B2 (ja) * 2005-08-31 2011-02-02 ソニー株式会社 入力装置及び入力方法
JP4867823B2 (ja) * 2007-07-09 2012-02-01 トヨタ自動車株式会社 倒立車輪型移動体、及びその制御方法
CN102160008B (zh) * 2008-09-17 2014-04-30 株式会社村田制作所 防摔倒控制装置及防摔倒控制方法
SK50532009A3 (sk) * 2009-08-28 2011-03-04 Daniel Furka Robotický systém určený na pohyb v ľubovoľnom prostredí
US8137152B2 (en) * 2010-05-25 2012-03-20 Fun Tram Corporation Remote control ball assembly
US9429940B2 (en) * 2011-01-05 2016-08-30 Sphero, Inc. Self propelled device with magnetic coupling
US8751063B2 (en) * 2011-01-05 2014-06-10 Orbotix, Inc. Orienting a user interface of a controller for operating a self-propelled device
JP2013066954A (ja) * 2011-09-21 2013-04-18 Seiko Epson Corp ロボット及びロボットの制御方法
US20140179197A1 (en) * 2012-12-21 2014-06-26 Dyana Bradley Toy apparatus with simulated lcd screen face
WO2014182730A1 (en) * 2013-05-06 2014-11-13 Orbotix, Inc. Multi-purposed self-propelled device
JP6314426B2 (ja) * 2013-10-31 2018-04-25 セイコーエプソン株式会社 ロボット制御装置およびロボット制御方法
KR102072387B1 (ko) * 2014-03-20 2020-02-03 삼성전자주식회사 로봇 청소기 및 로봇 청소기의 제어방법
US10366689B2 (en) * 2014-10-29 2019-07-30 Kyocera Corporation Communication robot
WO2016143581A1 (ja) * 2015-03-12 2016-09-15 株式会社村田製作所 球乗りロボット
US20160296851A1 (en) * 2015-04-10 2016-10-13 Kamini Udairaj Children's Toy Assembly
WO2016172248A1 (en) * 2015-04-20 2016-10-27 The Board Of Regents For Oklahoma State University System and method for inducing motion in a rolling robot using a dual telescoping linear actuator
US10397527B2 (en) * 2015-07-08 2019-08-27 Omar Barlas Remotely controlled robotic sensor ball
US9968864B2 (en) * 2016-03-21 2018-05-15 Sphero, Inc. Multi-body self propelled device with magnetic yaw control

Also Published As

Publication number Publication date
CN108055868A (zh) 2018-05-18
CN108055868B (zh) 2022-05-27
US20180178136A1 (en) 2018-06-28
CA2998307A1 (en) 2018-02-01
WO2018020889A1 (ja) 2018-02-01
EP3492155A1 (en) 2019-06-05
US10799806B2 (en) 2020-10-13
JP2018015211A (ja) 2018-02-01
EP3492155A4 (en) 2019-07-24

Similar Documents

Publication Publication Date Title
JP6695061B2 (ja) ロボット
CN109531585B (zh) 机器人
US10307911B2 (en) Robot
JP6854722B2 (ja) ロボット
JP6735013B2 (ja) ロボット
JP5186723B2 (ja) コミュニケーションロボットシステムおよびコミュニケーションロボットの視線制御方法
JP6572943B2 (ja) ロボット、ロボットの制御方法及びプログラム
WO2017199782A1 (ja) ロボット
US12023811B2 (en) Robot control device and robot control method
WO2017199783A1 (ja) ロボット
JP7502520B2 (ja) ロボット、ロボットの制御方法及びプログラム
JP2006272471A (ja) コミュニケーションロボット
US20180185764A1 (en) Robot
CN116061210A (zh) 信息处理装置、信息处理方法和计算机存储介质
JP2006088276A (ja) 動作生成システム
JP2018000845A (ja) ロボット
JP2020179005A (ja) ロボット及び方法
CN114867540A (zh) 信息处理装置、信息处理方法和信息处理程序
JP2022051980A (ja) 振り子装置
JP2003071753A (ja) ロボット装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200324

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200403

R151 Written notification of patent or utility model registration

Ref document number: 6695061

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z03

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350