JP6735013B2 - ロボット - Google Patents

ロボット Download PDF

Info

Publication number
JP6735013B2
JP6735013B2 JP2016108054A JP2016108054A JP6735013B2 JP 6735013 B2 JP6735013 B2 JP 6735013B2 JP 2016108054 A JP2016108054 A JP 2016108054A JP 2016108054 A JP2016108054 A JP 2016108054A JP 6735013 B2 JP6735013 B2 JP 6735013B2
Authority
JP
Japan
Prior art keywords
robot
weight
shaft
ball cap
drive mechanism
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016108054A
Other languages
English (en)
Other versions
JP2017213112A (ja
Inventor
志奇 黄
志奇 黄
亮太 宮崎
亮太 宮崎
雅博 石井
雅博 石井
兼人 小川
兼人 小川
勇次 國武
勇次 國武
聖弥 樋口
聖弥 樋口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2016108054A priority Critical patent/JP6735013B2/ja
Priority to CN201780001155.9A priority patent/CN107847806B/zh
Priority to EP17806505.8A priority patent/EP3466505A1/en
Priority to PCT/JP2017/019458 priority patent/WO2017208948A1/ja
Priority to CA2995556A priority patent/CA2995556A1/en
Publication of JP2017213112A publication Critical patent/JP2017213112A/ja
Priority to US15/897,646 priority patent/US10589426B2/en
Application granted granted Critical
Publication of JP6735013B2 publication Critical patent/JP6735013B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H33/00Other toys
    • A63H33/005Motorised rolling toys
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/028Casings; Cabinets ; Supports therefor; Mountings therein associated with devices performing functions other than acoustics, e.g. electric candles
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Manipulator (AREA)
  • Toys (AREA)
  • Acoustics & Sound (AREA)

Description

本開示は、ユーザと対話するロボットに関する。
従来から種々のロボットが提案されている。
特許文献1は、コミュニケーションロボットを開示する。特許文献1では、前記ロボットは、入力音声について音声認識部が算出した信頼度に基づいて前記入力音声に対して回答できないことを示す回答不能行動を行うか否かを判定し、前記回答不能行動を行うと判定した場合、前記コミュニケーションロボットが可能な所定の応答行動から、例えば、首をかしげるなど前記回答不能行動を選択する。これにより、独り言、未知語または音声以外の残音を音声と認識して誤って発話することを防止する(例えば、段落[0004]から[0007]、[0113])。
特許文献2は、ロボット制御装置に関する。特許文献2では、ロボットは、マイクから入力された音声を音声認識部で認識し、その音声認識が失敗したり、その信頼性が低い場合、例えば、ロボットに首をかしげたり、耳に手を当てるなどの所定の行動を行う(例えば、段落[0003]から[0005])。
特開2011−227237号公報 特開2002−116792号公報
上記の従来技術では、更なる改善が必要とされていた。
上記課題を解決するために、本開示の一態様のロボットは、
球体の第1側部と前記第1側部に対向する第2側部とをカットした球帯状のメイン筐体と、
前記球体形状の第1側部に対応する第1球冠部と、
前記球体形状の第2側部に対応する第2球冠部と、
前記メイン筐体、前記第1球冠部及び前記第2球冠部のいずれかに設けられた入力装置と、
前記メイン筐体、前記第1球冠部及び前記第2球冠部のいずれかに設けられた出力装置と、
前記メイン筐体の内部に設けられ前記第1球冠部と前記第2球冠部とを連結するシャフトと、
前記メイン筐体の内部に設けられ前記シャフトと直交する軸を中心に回転する重りと、
前記重りの軸を回転させる第1駆動機構と、
前記シャフトを中心に前記メイン筐体を回転させる第2駆動機構と、
前記入力装置を介して入力したユーザの入力指示に対して所定時間以上を要する所定の処理に基づいて前記出力装置を介して応答する場合、前記所定の処理中は前記第1駆動機構を制御して前記重りの軸を回動させて、前記重りを往復移動させる制御回路と、を備えたものである。
上記態様により、更なる改善を実現できた。
本開示の第1の実施の形態に係るロボットの外観斜視図である。 本開示の第1の実施の形態に係るロボットの外観正面図である。 本開示の第1の実施の形態に係るロボットの内部斜視図である。 本開示の第1の実施の形態に係るロボットのアームを示す内部平面図である。 本開示の第1の実施の形態に係るロボットの第1球冠部及び第2球冠部を回転させる第3駆動機構、及びメイン筐体を回転させる第2駆動機構を示す図である。 本開示の第1の実施の形態に係るロボットの第1球冠部及び第2球冠部の連結状態を示す内部斜視図である。 本開示の第1の実施の形態に係るロボットの第1球冠部及び第2球冠部の連結状態を示す内部正面図である。 本開示の第1の実施の形態に係るロボットの第1駆動機構を示す図である。 図6における、本開示の第1の実施の形態に係るロボットのAA断面図である。 図6のC視における、本開示の第1の実施の形態に係るロボットの第3駆動機構を示す側面図である。 図6のC視における、本開示の第1の実施の形態に係るロボットの第1表示部、第2表示部及び第3表示部が前方に傾いた状態を示す側面図である。 図6のC視における、本開示の第1の実施の形態に係るロボットの第1表示部、第2表示部及び第3表示部が後方に傾いた状態を示す側面図である。 図6のB視における、本開示の第1の実施の形態に係るロボットの第2駆動機構を示す側面図である。 図6のB視における、本開示の第1の実施の形態に係るロボットの直進動作を表す側面図である。 図2のA視における、本開示の第1の実施の形態に係るロボットの重りが中央に位置しているときの前記ロボットの姿勢を示す正面図である。 図2のA視における、本開示の第1の実施の形態に係るロボットの重りが左方寄りに位置しているときの前記ロボットの姿勢を示す正面図である。 図2のA視における、本開示の第1の実施の形態に係るロボットの重りが右方寄りに位置しているときの前記ロボットの姿勢を示す正面図である。 本開示の第1の実施の形態に係るロボットのユースケースの一例を示す図である。 本開示の第1の実施の形態に係るロボットが適用されたロボットシステムの全体構成の一例を示す図である。 本開示の第1の実施の形態に係るロボット及びロボットに接続されるクラウドサーバを示すブロック図である。 本開示の第1の実施の形態に係るロボットにおける画像認識処理を示すフローチャートである。 本開示の第1の実施の形態において、図17のS1709に示す画像認識処理の詳細を示すフローチャートである。 本開示の第1の実施の形態において、図17のS1707に示す進捗表現処理の詳細を示すフローチャートである。 本開示の第2の実施の形態において、図17のS1709に示す画像認識処理の詳細を示すフローチャートである。 重りの位置と画像認識処理のステージ番号が示すステージとの関係を示す図である。 本開示の第2の実施の形態において、図17のS1707に示す進捗表現処理の詳細を示すフローチャートである。 本開示の第1の実施の形態における、図17のS1707に示す進捗表現処理の詳細の変形例を示すフローチャートである。 重りの位置の模式図である。 本開示の第2の実施の形態における、図17のS1707に示す進捗表現処理の詳細の変形例を示すフローチャートである。
(本開示に係る一態様を発明するに至った経緯)
まず、本開示に係る一態様をするに至った着眼点について説明する。
特許文献1は、2足歩行の人型ロボットを開示するものである。そして、このロボットは、頭部、腕部、脚部、胴部などを備えている。そのため、前記ロボットは、入力した音声の認識結果に基づいて、頭部、腕部、脚部、胴部を動作させて、ユーザの音声に対して応答させることができる。
特許文献2は、犬型のペットロボットに関するものである。そして、前記ペットロボットは、胴体部分に、頭部、4つの脚部、尻尾などを備えている。そのため、前記ペットロボットは、入力した音声の認識結果に基づいて、頭部、4つの脚部、尻尾を動作させて、ユーザの音声に対して応答させることができる。
このように、各種のロボットは、ユーザからの問いに対して応答する機能を備えている。上記特許文献1又は2のように、音声認識を用いてユーザからの問いに対して応答する場合、ユーザの発話からロボットの応答までの時間間隔を、前記ユーザと前記ロボットとの間の会話が途切れたと前記ユーザに思わせない程度に短く設定する必要がある。そのため、音声の認識結果の信頼度が高い又は低いに関わらず、前記ユーザの発話から比較的短時間で前記ロボットは応答するように設計されていると考えられる。
これに対して、ユーザの発話からロボットの応答までの時間間隔が比較的長くなる場合がある。一例として、ユーザが持っている対象物が何であるのかをロボットに問い合わせ、前記ロボットが画像認識機能を用いて応答する場合が考えられる。
ユーザの問いに対して前記ロボットが画像認識機能を用いて応答する場合、前記対象物を撮像し、その後、例えば、前記撮像された画像を、画像認識用の機能を有する外部サーバに送信し、前記外部サーバにおいて前記画像を認識し、前記認識された認識結果を前記外部サーバから受信し、前記受信した認識結果に基づいて前記対象物が何であるかを回答させることが考えられる。この場合、前記ユーザが前記ロボットに問い合わせをしてから、前記ロボットが前記ユーザに回答するまでの時間が、例えば15秒程度要すると、前記ロボットは回答するのに前記ユーザを待たせることになる。
このように、前記ロボットが前記ユーザの問いに応答できない時間が所定秒以上続くと、前記ユーザは、前記ロボットの外観だけからは、前記ロボットが処理中なのか又は故障により動かないのか判断できないという課題がある。
また、上記特許文献1又は2とは異なり、手、足、首などを有しない球体状のロボットを想定した場合、手足を動かしたり、首をかしげたりして前記ロボットが処理中であることを前記ユーザに対して伝えることはできない。また、処理中であることを示す表示を前記球体状のロボットの表面にすることが考えられるが、手、足、首などを有しない球体状のロボットの表面にその旨の表示をすると、前記球体状のロボットの顔に、顔と要素とは異なる表示がされることになって、前記ロボットの顔としては不自然になる。
このように、手、足、首などを有しない球体状のロボットの場合、内部処理の進行状況を前記ユーザに伝えるのに制約があるという課題がある。
以上の考察により、本発明者は、以下の本開示に係る各態様を想到するに至った。
本開示の一態様に係るロボットは、
球体の第1側部と前記第1側部に対向する第2側部とをカットした球帯状のメイン筐体と、
前記球体形状の第1側部に対応する第1球冠部と、
前記球体形状の第2側部に対応する第2球冠部と、
前記メイン筐体、前記第1球冠部及び前記第2球冠部のいずれかに設けられた入力装置と、
前記メイン筐体、前記第1球冠部及び前記第2球冠部のいずれかに設けられた出力装置と、
前記メイン筐体の内部に設けられ前記第1球冠部と前記第2球冠部とを連結するシャフトと、
前記メイン筐体の内部に設けられ前記シャフトと直交する軸を中心に回転する重りと、
前記重りの軸を回転させる第1駆動機構と、
前記シャフトを中心に前記メイン筐体を回転させる第2駆動機構と、
前記入力装置を介して入力したユーザの入力指示に対して所定時間以上を要する所定の処理に基づいて前記出力装置を介して応答する場合、前記所定の処理中は前記第1駆動機構を制御して前記重りの軸を回動させて、前記重りを往復移動させる制御回路と、を備えたものである。
本態様によると、前記入力装置を介して入力したユーザの入力指示に対して所定時間以上を要する所定の処理に基づいて前記出力装置を介して応答する場合、前記所定の処理中は前記第1駆動機構を制御して前記重りの軸を回動させて、前記重りを往復移動させる。
これにより、前記ロボットが前記ユーザの問いに応答するために所定時間以上を要する場合、前記ロボットは、前記前進方向を正面として左右に揺れる動作をする。この動作は、前記ロボットが悩んで身体を左右に揺すっている動作を表す。
そのため、手足を有しない球体状のロボットであって、内部処理の進行状況を前記ユーザに伝えるのに制約がある場合であっても、処理中であることを前記球体状のロボットの表面に表示することなく、前記重りの移動動作を利用して、前記ユーザとの対話中に前記ロボットが処理中であることを前記ユーザに伝えることができる。その結果、前記ユーザは、前記ロボットの外観だけを見て、前記ロボットが処理中なのか又は故障により動かないのか判断できる。
(実施の形態)
以下、本開示の各実施の形態について、図面を参照しながら説明する。尚、各図面において、同じ構成要素については同じ符号が用いられている。
(第1の実施の形態)
(全体構成)
図1Aは、本開示の第1の実施の形態に係るロボット1の外観斜視図である。図1Bは、本開示の第1の実施の形態に係るロボットの外観正面図である。ロボット1は、図1A及び図1Bに示すように、球帯状のメイン筐体101と、第1球冠部102及び第2球冠部103と、を備える。メイン筐体101、第1球冠部102、及び第2球冠部103は全体として球体を構成する。即ち、ロボット1は、球体形状を有する。メイン筐体101は、前記球体の右側部(第1側部の一例)と前記左側部に対向する左側部(第2側部の一例)とをカットした球帯状になっている。第1球冠部102は、前記球体形状の右側部に対応し、第2球冠部103は前記球体形状の左側部に対応する。
また、ロボット1は、図1Aに示すように、メイン筐体101にスピーカ218を備え、第1球冠部102にカメラ104とマイク215とを備える。スピーカ218(出力装置の一例)は、ロボット1の音声情報を出力する。カメラ104は、ロボット1の周辺環境の映像を取得する。マイク215(入力装置の一例)は、ロボット1の周辺環境の音声を取得する。尚、本態様では、ロボット1は、メイン筐体101にスピーカ218を備えるが、これに限らず、メイン筐体101、第1球冠部102及び第2球冠部103のいずれかにスピーカ218を備えればよい。本態様では、ロボット1は、第1球冠部102にカメラ104を備えるが、これに限らず、第1球冠部102及び第2球冠部103の少なくともいずれか一方にカメラ104を備えればよい。本態様では、ロボット1は、第1球冠部102にマイク215を備えるが、これに限らず、メイン筐体101、第1球冠部102及び第2球冠部103のいずれかにマイク215を備えればよい。
図2は、本開示の第1の実施の形態に係るロボット1の内部斜視図である。図3は、本開示の第1の実施の形態に係るロボット1の第1アーム109及び第2アーム110を示す内部平面図である。
図2に示すように、ロボット1は、メイン筐体101の内部に、第1表示部105、第2表示部106及び第3表示部107を備える。第1表示部105、第2表示部106及び第3表示部107は、固定板金108に備え付けられている。図3に示すように、固定板金108は、第1アーム109及び第2アーム110を介してシャフト112に取り付けられている。第1アーム109及び第2アーム110は、シャフト112と直交する方向にシャフト112から延びるようにしてシャフト112に取り付けられている。第1表示部105、第2表示部106及び第3表示部107は、例えば、複数の発光ダイオードにより構成される。第1表示部105、第2表示部106及び第3表示部107は、ロボット1の表情の表示情報を表示する。具体的には、第1表示部105、第2表示部106及び第3表示部107は、前記複数の発光ダイオードの点灯を個別に制御することにより、図1A及び図1Bに示すように、ロボット1の顔の一部、例えば、目や口を表示する。図1の例では、第1表示部105が左目の画像を表示し、第2表示部106が右目の画像を表示し、第3表示部107が口の画像を表示している。そして、左目、右目、口の画像は、透明又は半透明の部材からなるメイン筐体101を透過し、外部に放射されている。
図2に示すように、ロボット1は、メイン筐体101の内部の下方に重り111を備える。このため、ロボット1の重心は、メイン筐体101の中心から下方に位置する。これにより、ロボット1の動作を安定させることができる。重り111を駆動する第1駆動機構211(図16)、及び第1駆動機構211(図16)の動作の詳細は後述する。
次に、第1球冠部102及び第2球冠部103を回転させる第2駆動機構209(図16)と独立した第3駆動機構207(図16)について図4、図5A及び図5Bを参照して説明する。図4は、本開示の第1の実施の形態に係るロボット1の第1球冠部102及び第2球冠部103を回転させる第3駆動機構207(図16)、及びメイン筐体を回転させる第2駆動機構209(図16)を示す図である。図5Aは、本開示の第1の実施の形態に係るロボット1の第1球冠部102及び第2球冠部103の連結状態を示す内部斜視図である。図5Bは、本開示の第1の実施の形態に係るロボット1の第1球冠部102及び第2球冠部103の連結状態を示す内部正面図である。図4において、第3駆動機構207(図16)は、メイン筐体101の内部に設けられ第1球冠部102及び第2球冠部103を連結するシャフト112、シャフト112に取り付けられた第1ギア122(図8)、第1ギア122(図8)に取り付けられた駆動ベルト113(図8)、駆動ベルト113に動力を伝達する第2ギア123(図8)、第2ギア123(図8)に連結された第1モータ114、及び、第1モータ114を固定するフレーム115を備える。
図5A及び図5Bにおいて、第1球冠部102及び第2球冠部103はシャフト112によって連結されている。一方、図5Bにおいて、シャフト112とメイン筐体101とは固定されていない。従って、シャフト112を回転させると、シャフト112に連結された第1球冠部102及び第2球冠部103は、シャフト112に同期して回転するが、メイン筐体101は回転しない。また、上述のように、固定板金108(図3)は、第1アーム109及び第2アーム110を介してシャフト112に取り付けられている。このため、シャフト112の回転、即ち、第1球冠部102及び第2球冠部103の回転により、固定板金108に備え付けられた第1表示部105、第2表示部106及び第3表示部107も第1球冠部102及び第2球冠部103に連動して回転する。第3駆動機構207(図16)の動作の詳細は、図8から図10を参照して後述する。
次にメイン筐体101を回転させる第2駆動機構209(図16)について図4を参照して説明する。図4において、第2駆動機構209(図16)は、メイン筐体101に固定された第3ギア116、第3ギア116と噛み合う第4ギア117、第4ギア117に連結された第2モータ118、及び第2モータ118を固定するフレーム115を備える。尚、本態様においては、第3ギア116の中心とシャフト112の中心とは一致している。第2駆動機構209(図16)の動作の詳細は、図11から図12を参照して後述する。
次に、第1駆動機構211(図16)について図6及び図7を参照して説明する。図6は、本開示の第1の実施の形態に係るロボット1の第1駆動機構211(図16)を示す図である。図7は、図6における、本開示の第1の実施の形態に係るロボット1のAA断面図である。図6及び図7に示すように、第1駆動機構211(図16)は、重り111の一端を支持する第3アーム119、重り111の他端を支持する第4アーム120、第3モータ121、及び従動シャフト139を備える。従動シャフト139及び第3モータ121の回転軸140は、シャフト112と直交するようにして、フレーム115に対して回転自由な状態で取り付けられている。従動シャフト139は、第3アーム119の重り111を支持しない側の一端と連結されている。第3モータ121の回転軸140は、第4アーム120の重り111を支持しない側の一端と連結されている。なお、本態様においては、第3モータ121の回転軸140は、フレーム115に対して回転自由な状態で取り付けられている。従って、第3モータ121の回転軸140が回転しても、それに連動してフレーム115は回転しない。第1駆動機構211(図16)の動作の詳細は、図13から図15を参照して後述する。
ロボット1は、制御回路201(図16)と図略の電源及び充電器とをさらに備える。制御回路201は、ロボット1の各種動作を制御する。制御回路201の詳細は、図16を参照しながら後述する。
ロボット1は、前記充電器により充電される。前記電源は、ロボット1の図略の電源制御部及び前記充電器の充電制御部の制御によって蓄えられる電力を管理する。
次に、第3駆動機構207(図16)の動作の詳細について図8から図10を参照して説明する。
図8は、図6のC視における、本開示の第1の実施の形態に係るロボット1の第3駆動機構207(図16)を示す側面図である。図9は、図6のC視における、本開示の第1の実施の形態に係るロボット1の第1表示部105、第2表示部106及び第3表示部107が前方に傾いた状態を示す側面図である。図10は、図6のC視における、本開示の第1の実施の形態に係るロボットの第1表示部105、第2表示部106及び第3表示部107が後方に傾いた状態を示す側面図である。
図8において、第1表示部105、第2表示部106及び第3表示部107は、デフォルト位置において、ロボット1の正面を向いている。第1モータ114(図4)を駆動すると、第1モータ114に連結された第2ギア123が回転する。その動力が駆動ベルト113を介して第1ギア122に伝達され、第1ギア122が固定されたシャフト112は第1モータ114の駆動に同期して回転する。ここで、図3に示すように、固定板金108は、第1アーム109及び第2アーム110を介してシャフト112に取り付けられている。また、第1球冠部102及び第2球冠部103はシャフト112により連結されている(図5A及び図5B)。このため、シャフト112の回転、即ち、第1球冠部102(図5B)及び第2球冠部103(図5B)の回転により、固定板金108(図3)に備え付けられた第1表示部105、第2表示部106及び第3表示部107もシャフト112に連動して回転する。
図9に示すように、前記デフォルト位置から、矢印124及び矢印125に示す方向にシャフト112を回転させると、第1表示部105、第2表示部106(図2)及び第3表示部107は、矢印126が示すように前方に傾く。
一方、図10に示すように、前記デフォルト位置から、矢印127及び矢印128に示す方向にシャフト112を回転させると、第1表示部105、第2表示部106(図2)及び第3表示部107は、矢印129が示すように後方に傾く。
以上のように、ロボット1は、第3駆動機構207においてシャフト112の回転方向、即ち、第1球冠部102及び第2球冠部103の回転方向を切り替えることにより、第1表示部105、第2表示部106及び第3表示部107を前方及び後方のいずれの方向にも傾けることができる。従って、第1球冠部102及び第2球冠部103の回転方向を切り替えると、第1表示部105、第2表示部106及び第3表示部107は、矢印126が示す前方または矢印129が示す後方に傾く往復移動を行う。即ち、第1表示部105、第2表示部106及び第3表示部107は、上下方向に往復移動する。
上述のように、第1表示部105、第2表示部106及び第3表示部107は、ロボット1の顔の一部、例えば、目や口を表す。従って、第1球冠部102及び第2球冠部103の回転方向を切り替えて、第1表示部105、第2表示部106及び第3表示部107を上下方向に往復移動させることにより、例えば、ロボット1が息切れしている状態又は眠い状態を表現することができる。この制御を、例えば、前記電源の電力残量が所定値以下になった場合に行えば、ロボット1は、第1表示部105、第2表示部106及び第3表示部107に前記顔とは無関係な電力残量に関する情報を表示することなく、前記電源の電力残量が少なくなっていることをユーザに違和感なく伝えることができる。
次に第2駆動機構209(図16)の動作の詳細について図11から図12を参照して説明する。
図11は、図6のB視における、本開示の第1の実施の形態に係るロボット1の第2駆動機構209(図16)を示す側面図である。図12は、図6のB視における、本開示の第1の実施の形態に係るロボットの直進動作を表す側面図である。
図11において、第2モータ118(図4)を駆動すると、第2モータ118に連結された第4ギア117が回転する。そして、その動力が第4ギア117に噛み合う第3ギア116に伝達される。これにより、第3ギア116が固定されたメイン筐体101は第2モータ118の駆動に同期して回転する。
図12に示すように、第2モータ118(図4)を矢印130の方向に回転させると、第4ギア117に噛み合う第3ギア116は矢印131の方向に回転する。そして、第3ギア116が固定されたメイン筐体101は矢印132の方向に回転する。これにより、ロボット1は、矢印137方向に前進する。矢印137方向は、第2駆動機構による前進方向の一例に相当する。また、矢印130とは逆方向に第2モータ118を回転させると、ロボット1は矢印137方向とは逆方向に後進する。このように、ロボット1は、第2駆動機構209(図16)において第2モータ118の回転方向を切り替えることにより、前後のいずれの方向にも移動できる。
次に第1駆動機構211(図16)の動作の詳細について図13Aから図13Cを参照して説明する。
図13Aは、図2のA視における、本開示の第1の実施の形態に係るロボット1の重り111が中央に位置しているときのロボット1の姿勢を示す正面図である。図13Bは、図2のA視における、本開示の第1の実施の形態に係るロボット1の重り111が左方寄りに位置しているときのロボット1の姿勢を示す正面図である。図13Cは、図2のA視における、本開示の第1の実施の形態に係るロボット1の重り111が右方寄りに位置しているときのロボット1の姿勢を示す正面図である。
上述のように、第1表示部105、第2表示部106及び第3表示部107は、デフォルト位置において、ロボット1の正面を向いている(図8参照)。即ち、第1表示部105、第2表示部106及び第3表示部107(図2)は傾いていない。この場合、図13Aに示すように、図2のA視において、第3アーム119とシャフト112とが直交した状態にあり、重り111は、左右方向の中央に位置している。当該左右方向の中央の位置は、重りのデフォルト位置の一例に相当する。
図13Bに示すように、第3モータ121(図7)を駆動することにより、重り111を中央位置からから矢印133が示す左方に移動させると、第1表示部105、第2表示部106及び第3表示部107(図2)は矢印134が示す左方に傾く。これとは逆方向に第3モータ121を駆動することにより、図13Cに示すように、重り111を中央位置からから矢印135が示す右方に移動させると、第1表示部105、第2表示部106及び第3表示部107(図2)は矢印136が示す右方に傾く。
以上のように、第1駆動機構211において第3モータ121の回転方向を切り替えることにより、第1表示部105、第2表示部106及び第3表示部107を左方及び右方のいずれの方向にも傾けることができる。従って、第3モータ121の回転方向を切り替えると、ロボット1は、矢印134が示す左方または矢印136が示す右方に傾く往復動作を行う。即ち、ロボット1は所定の角度において左右方向に回転する。
上述のように、第1表示部105、第2表示部106及び第3表示部107は、ロボット1の顔の一部、例えば、目や口を表す。従って、重り111を用いてロボット1に右方または左方に傾く往復運動をさせることにより、例えば、ロボット1の機嫌がよい状態を表現し又はロボット1が考え中であることを表現できる。
ここで、重り111を用いてロボット1が走行方向を転換する方法について説明する。本態様において、メイン筐体101を回転させる第2駆動機構209は、単独では、前記メイン筐体101を走行方向に前進または後進させる役割しか果たさない。そのため、前記メイン筐体101の走行方向を右方に切り替え又は左方に切り替えることは、第2駆動機構209のみでは実現できない。そこで、ロボット1は、前記メイン筐体101の走行方向を右方に切り替えまたは左方に切り替えるために、重り111を用いている。即ち、ロボット1は、第2駆動機構209による前進動作又は後進動作、及び、第1駆動機構211によるロボット1を左方又は右方に傾ける動作を組み合わせることにより、方向転換を行う。具体的には、第1駆動機構211により、重り111を中央位置(図13A)から左方(図13B)又は右方(図13C)に移動させると、ロボット1の重心位置は中央位置からずれる。この状態で上述の第2駆動機構209による前進動作を行えば、ロボット1は、直進しつつ徐々に重り111を移動させた方向に弧を描きつつ前進する。即ち、ロボット1は、左方又は右方に曲がりながら前進することにより、方向転換できる。このように、重りの駆動機構211はロボット1の方向転換にも用いられる。
次に、図14を参照しつつ、本開示の第1の実施の形態に係るロボット1のユースケースの一例について説明する。図14は、本開示の第1の実施の形態に係るロボット1のユースケースの一例を示す図である。図14に示すように、ロボット1はクラウドサーバ3に接続されている。ユーザである女の子1401は、熊のぬいぐるみ1402をロボット1の正面に差し出し、「これ何?」と発話する。すると、ロボット1は、ユーザ1401の発話内容から、ユーザ1401が認識対象物の認識要求を行ったと判断し、認識対象物の画像を撮影する(ステップST1)。
次に、ロボット1は、撮影した認識対象物の画像をクラウドサーバ3に送信する(ステップST2)。次に、クラウドサーバ3は、画像認識処理を行い、送信された画像に含まれている認識対象物がぬいぐるみ1402であると認識する(ステップST3)。次に、クラウドサーバ3は、画像認識結果をロボット1に送信し、ロボット1は、画像認識結果を受信する(ステップST4)。次に、ロボット1は、画像認識結果が「ぬいぐるみ」であるので、「ぬいぐるみ」と発話する(ステップST5)。
このような画像認識処理は、画像が送信されてから認識結果が受信されるまでに15秒〜30秒程度かかるため、その間、ロボット1が何も動作を行わなければ、ユーザ1401は、ロボット1が本当に画像認識処理の要求を受け付けてくれたのか、或いは、ロボット1が故障しているのではないかと不安を感じてしまう。そこで、本開示は以下の態様を採用する。
次に、図15を参照しつつ、本開示の第1の実施の形態に係るロボット1が適用されたロボットシステム1500の全体構成の一例について説明する。図15は、本開示の第1の実施の形態に係るロボット1が適用されたロボットシステム1500の全体構成の一例を示す図である。ロボットシステム1500は、クラウドサーバ3、携帯端末4、及びロボット1を備える。ロボット1は例えばWifi(登録商標)の通信を介してインターネットと接続し、クラウドサーバ3と接続する。また、ロボット1は例えばWifi(登録商標)の通信を介して携帯端末4と接続する。ユーザ1501は例えば、子供であり、ユーザ1502,1503は、例えば、その子供の両親である。
携帯端末4は、例えば、ロボット1と連携するアプリケーションがインストールされている。携帯端末4は、アプリケーションを通じてロボット1に種々の指示を行ったり、図14で説明した画像認識結果を表示したりすることができる。
ロボット1は、例えば、携帯端末4からある絵本を子供に読み聞かせる要求があったとすると、その絵本の朗読を開始し、子供に読み聞かせる。ロボット1は、例えば、絵本の読み聞かせ中に子供から何らかの質問を受け付けると、その質問をクラウドサーバ3に送り、その質問に対する回答をクラウドサーバ3から受信し、回答を示す音声を発話する。
このように、ユーザ1501は、ロボット1をペットのように取り扱い、ロボット1との触れ合いを通じて、言語学習をすることができる。
次に、図16を参照しつつ、本開示の第1の実施の形態に係るロボット1の内部回路の詳細について説明する。図16は、本開示の第1の実施の形態に係るロボット1及びロボット1に接続されるクラウドサーバ3(外部サーバの一例)を示すブロック図である。
図16に示すように、ロボット1は、制御回路201、通信部220、表示部206、第3駆動機構207、第3駆動機構制御部208、第2駆動機構209、第2駆動機構制御部210、第1駆動機構211、第1駆動機構制御部212、スピーカ218、カメラ104、及び、マイク215を備える。
制御回路201は、主制御部202、音声認識処理部203、顔認識処理部204、表示情報出力制御部205、音声情報出力制御部217、及びメモリ213を備える。制御回路201は、CPU等のプロセッサを含むコンピュータで構成されている。
主制御部202は、ユーザの音声の認識結果を音声認識処理部203から取得する。主制御部202は、ユーザの顔の認識結果を顔認識処理部204から取得する。
主制御部202は、音声認識処理部203及び顔認識処理部204から取得した情報を基にコマンドを生成し、音声情報出力制御部217、表示情報出力制御部205、第3駆動機構制御部208、第2駆動機構制御部210、及び第1駆動機構制御部212等に送信する。前記コマンドの詳細は後述する。
音声認識処理部203は、マイク215での取得音声からユーザの音声の有無を認識し、音声認識結果をメモリ213に蓄積することで、音声認識結果を管理する。音声認識処理部203は、メモリ213に格納された音声認識用データと、取得音声とを照合し、発話内容を認識する。マイク215は、音を電気信号に変換し、音声認識処理部203に出力する。
顔認識処理部204は、カメラ104での取得映像からユーザの顔の有無、位置、及び大きさを認識し、顔認識結果をメモリ213に蓄積することで、顔認識結果を管理する。尚、上述のように、カメラ104は、メイン筐体101とは独立して駆動する第1球冠部102及び第2球冠部103の少なくともいずれか一方に設けられている。このため、カメラ104の撮像方向は、第3駆動機構207によって第1球冠部102及び第2球冠部103を回転させることで、第2駆動機構209によるメイン筐体101の回転駆動によってロボット1の前進方向である正面に向けることができる。これにより、カメラ104は、ロボット1の正面に差し出された認識対象物を撮影できる。
表示情報出力制御部205は、主制御部202から送信されるコマンドに応じたロボット1の表情の表示情報を表示部206に表示する。表示部206は、図2において説明した第1表示部105、第2表示部106、及び、第3表示部107により構成される。
音声情報出力制御部217は、主制御部202から送信されるコマンドに応じた音声をスピーカ218から出力することで、ロボット1に発話させる。スピーカ218は、音声の電気信号を物理振動に変換する。
メモリ213は、例えば、不揮発性の書き換え可能な記憶装置で構成され、ロボット1の制御プログラムなどを記憶する。
第3駆動機構制御部208は、主制御部202から送信されるコマンドに応じて、ロボット1の第3駆動機構207を動作させる。第3駆動機構207は、図4において説明したシャフト112、第1ギア122(図8)、駆動ベルト113、第2ギア123(図8)、第1モータ114、及び、フレーム115により構成される。第3駆動機構制御部208及び第3駆動機構207は、第3駆動機構の一例に相当する。
第2駆動機構制御部210は、主制御部202から送信されるコマンドに応じて、ロボット1の第2駆動機構209を動作させる。第2駆動機構209は、図4において説明した、第3ギア116、第4ギア117、第2モータ118、及びフレーム115により構成される。第2駆動機構制御部210及び第2駆動機構209は、第2駆動機構の一例に相当する。
第1駆動機構制御部212は、主制御部202から送信されるコマンドに応じて、ロボット1の第1駆動機構211を動作させる。第1駆動機構211は、図6及び図7において説明した、第3アーム119、第4アーム120、第3モータ121、及び従動シャフト139により構成される。第1駆動機構制御部212及び第2駆動機構211は、第1駆動機構の一例に相当する。
通信部220は、ロボット1をクラウドサーバ3に接続させるための通信装置で構成される。通信部220としては、例えば、Wifi(登録商標)等の無線LANの通信装置が採用できるがこれは一例である。通信部220は、通信回路の一例に相当する。
クラウドサーバ3は、インターネット(外部ネットワークの一例)を介してロボット1と接続されている。クラウドサーバ3は、通信部301及び処理部302を備える。通信部301は、クラウドサーバ3をインターネットに接続するための通信装置で構成される。処理部302は、ロボット1からの要求に従って、種々の処理を実行し、処理結果を通信部301を介してロボット1に送信する。
次に、図17を参照しつつ、本開示の第1の実施の形態に係るロボット1における画像認識処理について説明する。図17は、本開示の第1の実施の形態に係るロボット1における画像認識処理を示すフローチャートである。ここでは、ロボット1がクラウドサーバ3に画像認識処理を依頼してから、画像認識結果を受信するまでの期間、ロボット1が左右方向に揺動し、ロボット1が考え中であることを表現する処理をする。
まず、ユーザはロボット1に発話する(S1701)。例えば、ユーザは、図14で説明したようにぬいぐるみ1402をロボット1に差し出し、「これ何?」といった発話を行う。
次に、ロボット1の音声認識処理部203は、発話への回答に画像認識処理が必要か否かを判断する(S1703)。ここで、メモリ213には、回答に画像認識処理が必要な発話の特徴量を示す1以上の発話参照データが事前に記憶されている。したがって、音声認識処理部203は、ユーザが発話した音声の特徴量とメモリ213に記憶されたいずれかの発話参照データとの類似度が閾値以上であれば、画像認識処理が必要と判断すればよい。
例えば、画像認識処理が必要な発話としては、上述した「これ何?」といった認識対象物を問い合わせる発話や「画像認識処理を実行」といったコマンド形式の発話が採用できる。また、ユーザが人差し指と中指との2本の指を立てて、「これいくつ?」というような数の問い合わせに応えるために、「これいくつ?」が画像認識処理が必要な発話として採用されてもよい。
S1703において、回答に画像認識処理の必要があると判定された場合(S1703でYES)、処理はS1704に進められ、回答に画像認識処理の必要がないと判定された場合(S1703でNO)、処理はS1708に進められる。
次に、カメラ104は、認識対象物を含む1枚の画像を撮影する(S1702,S1704)。ここで、音声認識処理部203は、主制御部202に画像認識処理が必要である旨の通知を行い、この通知を受けた主制御部202は、カメラ104の撮像方向がロボット1の前進方向を向くように、第3駆動機構制御部208(図16)にシャフト112を回転させるコマンドを送信する。
ここで、主制御部202は、第2駆動機構制御部210(図16)が内部に備える図略のエンコーダから第2モータ118(図4)の回転数を取得し、第3駆動機構制御部208が内部に備える図略のエンコーダから第1モータ114の回転数を取得し、当該取得した2つの回転数に基づいて、カメラ104の撮像方向をロボット1の前進方向に一致させるために必要なシャフト112の回転数を算出すればよい。そして、主制御部202は、当該算出した回転数、シャフト112を回転させるコマンドを第3駆動機構制御部208に送信すればよい。
これにより、主制御部202は、カメラ104の撮像方向をロボット1の前進方向に向かせた後、顔認識処理部204に撮影コマンドを送信することで、カメラ104に認識対象物を撮影させればよい。
なお、主制御部202は、音声認識処理部203により画像認識処理が必要であると判断された場合、音声情報出力制御部217に「知りたい物をロボットの正面に向けて下さい。」といったメッセージを通知し、スピーカ218からそのメッセージを出力させてもよい。これにより、ロボット1は、ユーザに対して認識対象物をロボット1の正面に差し出させることができ、カメラ104の撮影範囲に認識対象物が含まれない事態を回避できる。
次に、主制御部202は、S1704で撮影した画像がクラウドサーバ3に対して画像認識処理を要求する必要があるか否かを判定する(S1705)。画像認識処理の要求をする必要があると主制御部202が判定した場合(S1705でYES)、通信部220は、S1704で撮影した画像をクラウドサーバ3に送信する(S1706)。一方、画像認識処理を要求する必要がないと主制御部202が判定した場合(S1705でNO)、処理はS1708に進められる。
ここで、メモリ213には、画像認識処理の要求が不必要な参照画像の特徴量である認識不要参照データが事前に記憶されている。したがって、主制御部202は、S1704で撮影した画像の特徴量と認識不要参照データとの類似度が閾値以上であれば、画像認識処理の要求が不必要であると判定し、S1704で撮影した画像の特徴量と認識不要参照データとの類似度が閾値未満であれば、画像認識処理の要求が必要と判定すればよい。
参照画像としては、例えば、ユーザの顔画像が含まれる。ユーザの顔画像としては、例えば、ロボット1を主に取り扱う子供の顔画像や、その子供の家族の顔画像が含まれていてもよい。これは、ユーザの顔を認識するというような頻度の高い処理に、いちいちクラウドサーバ3に画像認識処理の要求をしてしまうと、ユーザの待ち時間が大きくなり、ユーザのストレスが過大になる点を考慮したものである。また、参照画像としては、ユーザが1本、2本というように1本以上の指を立てた画像が採用されてもよい。
次に、ロボット1は、画像認識結果が得られるまで、進捗表現処理を行う(S1707)。進捗表現処理の詳細については後ほど説明する。
クラウドサーバ3に画像認識処理の要求が必要である場合、画像認識結果が得られるまでに所定時間以上かかってしまう。この場合、ロボット1が何も動作を行わなければ、ユーザはロボット1が故障したのではないかと判断する虞がある。そこで、本態様では、クラウドサーバ3に画像認識処理の要求が必要である場合、後述する進捗表現処理(S1707)を行う。
次に、クラウドサーバ3は、画像認識処理を行う(S1709)。画像認識処理の詳細については後ほど説明する。
画像認識結果が得られると、ロボット1は進捗表現処理を終了する。
次に、音声情報出力制御部217は、画像認識結果をスピーカ218から出力し、発話により画像認識結果の回答を行う(S1708)。この場合、音声情報出力制御部217は、例えば認識対象物の名称を示す音声をスピーカ218から出力する。例えば、図14に示すようにぬいぐるみ1402が認識されたとすると、スピーカ218から「ぬいぐるみ」の音声が出力される。
尚、S1703でNO、S1705でNOと判定された場合のS1708の処理は例えば下記のようになる。発話への回答に画像認識処理が必要でないと判定された場合として(S1703でNO)、例えば、ロボット1とユーザとが対話をするようなケースが該当したとする。この場合、S1708では、音声情報出力制御部217は、ユーザとの対話に応答する音声をスピーカ218から出力すればよい。
また、S1704で撮影した画像がクラウドサーバ3に対して画像認識処理を要求する必要がない場合として(S1705でNO)、ユーザの名前をロボット1に問い合わせたり、ユーザが指を立てて「これいくつ?」というような問い合わせを行うケースが該当したとする。この場合、S1708では、音声情報出力制御部217は、ユーザの名前や「2本です。」というような音声をスピーカ218から出力すればよい。
図18は、本開示の第1の実施の形態において、図17のS1709に示す画像認識処理の詳細を示すフローチャートである。まず、通信部301は、ロボット1から送信された画像を受信する(S1801)。
次に、処理部302は、画像認識処理を実行する(S1802)。例えば、図14に示すユースケースでは、ぬいぐるみ1402を含む画像が画像認識処理の対象となる。処理部302は、例えば、機械学習により得られた、物体の画像の特徴量と物体の名称とが対応付けて登録された物体モデルデータベースを備えている。処理部302は、ロボット1から送信された画像から特徴量を抽出し、抽出した特徴量と物体モデルデータベースに登録された各物体の特徴量とを照合し、類似度が最も高い物体を認識対象物と判定すればよい。図14の例では、「ぬいぐるみ」が画像認識結果となる。
次に、通信部301は、処理部302による画像認識結果をロボット1に送信する(S1803)。
次に、本開示の第1の実施の形態における、図17のS1707に示す進捗表現処理の詳細について説明する。第1の実施の形態における進捗表現処理は、画像認識結果が受信されるまで、重り111を一定速度で一定時間ずつ左方又は右方へ移動させることで、重り111を往復移動させることに特徴がある。図19は、本開示の第1の実施の形態において、図17のS1707に示す進捗表現処理の詳細を示すフローチャートである。
まず、主制御部202は、重りの初期往復移動スピードV1を指定するコマンドを第1駆動機構制御部212へ送信する(S1901)。重りの初期往復移動スピードV1は、重り111を左方(図13Bの矢印133)及び右方(図13Cの矢印135)へ移動させる速度の初期値であり、メモリ213に予め記憶されている。
次に、第1駆動機構制御部212は、重りの初期往復移動スピードV1を指定するコマンドを主制御部202から受け付け、重り111を重りの初期往復移動スピードV1で一定時間ずつ左方又は右方へ移動させることで、重り111を往復移動させる(S1902)。
具体的には、S1902の処理において、第1駆動機構制御部212は、まず、図13Aに示すように、重り111を左右方向の中央の位置に移動させる。そして、第3モータ121(図7)を重りの初期往復移動スピードV1に対応する回転速度で駆動させる。第3モータ121(図7)の駆動開始から所定時間(以下、所定時間T0と記載)が経過すると、第1駆動機構制御部212は、第3モータ121(図7)の回転方向を反転させる。その後、第1駆動機構制御部212は、所定時間T0の2倍の時間2T0(以下、一定時間2T0と記載)が経過する度に、第3モータ121(図7)の回転方向を反転させることを繰り返す。
次に、主制御部202は、通信部220が画像認識結果を受信していなければ(S1903でNO)、処理をS1902に戻し、S1902の処理を行う。以上により、画像認識結果が受信されるまで、制御回路201は、重り111を往復移動させる。これにより、画像認識結果が受信されるまで、ロボット1は左右に揺動する動作を繰り返し、ユーザに画像認識処理中であることを伝えることができる。
一方、通信部220が画像認識結果を受信すると(S1903でYES)、第1駆動機構制御部212は、重り111を左右方向の中央の位置に移動させるコマンドを主制御部202から受け付け、図13Aに示すように、重り111を左右方向の中央の位置に移動させる(S1904)。これにより、ロボット1は、左右の揺動を停止してデフォルトの姿勢に戻る。その結果、重り111がデフォルトの状態に戻り、ロボット1は、次の動作に対して迅速に対応することができる。
このように本態様によれば、ユーザの問いに応答するために所定時間以上を要する場合、ロボット1は、口、又は鼻の位置を正面にして左右に揺れる動作をする。この動作は、ロボット1が悩んで身体を左右に揺すっている動作を表す。
そのため、手足を有しない球体状のロボット1であって、ユーザに対して内部処理の進行状況をユーザに伝えるのに制約がある場合であっても、処理中であることを球体状のロボット1の表面に表示することなく、重り111の移動動作を利用して、ユーザとの対話中にロボット1が処理中であることをユーザに伝えることができる。その結果、ユーザは、ロボット1の外観だけを見て、ロボット1が処理中なのか又は故障により動かないのか判断できる。
また、本態様では、画像認識結果を受信した場合、重り111をデフォルトの左右方向の中央の位置に戻す(S1904)。そのため、本態様では、画像認識処理の処理中にロボット1を左右に揺らしたために、ロボット1が左右に揺れた途中の姿で応答をする不自然さを防止できる。
(第2の実施の形態)
第2の実施の形態は、画像認識処理の進捗状況が進むにつれて、重り111が往復移動する速度を減少させることを特徴とする。なお、第2の実施の形態において第1の実施の形態と同一構成のものは同一の符号を付し、説明を省く。
第2の実施の形態では、全体的な処理は、図17と同じであるが、S1709とS1707とが相違する。
図20は、本開示の第2の実施の形態において、図17のS1709に示す画像認識処理の詳細を示すフローチャートである。S2001、S2008は図18のS1801、S1803と同じであるため、説明を省く。
S2002では、処理部302は、画像認識処理に要するステージ数Mを規定するパラメータを準備する。ここで、ステージ数Mはクラウドサーバ3が採用する画像認識処理の内容に応じて事前に定められた値が採用される。例えば、クラウドサーバ3が3つのステージ数からなる画像認識処理を採用するのであれば、M=3が設定される。
S2003では、処理部302は、ステージ番号Nを初期値「0」に設定する。ここで、ステージ番号Nは処理中のステージを特定するための番号である。
S2004では、処理部302は、ステージ番号Nを1インクリメントする。
S2005では、処理部302は、ステージ番号Nの画像認識処理を実行する。
S2006では、処理部302は、ステージ番号Nがステージ数Mに到達したか否かを判定する。ステージ番号Nがステージ数Mに到達していれば(S2006でYES)、処理部302は、画像認識結果が得られたので、処理をS2008に進める。
ステージ番号Nがステージ数Mに到達していなければ(S2006でNO)、処理部302は、通信部220を用いて、画像認識結果の一部が完了した旨の通知をロボット1に行う(S2007)。このとき、処理部302は、処理が終了したステージ番号Nとステージ数Mとをロボット1に送信する。
S2007の処理が終了すると、処理はS2004に戻される。これにより、次のステージ番号Nの画像認識処理が実行される。
次に、画像認識処理のステージについて説明する。図21は、画像認識処理のステージ番号Nが示すステージの一例を示す図である。図21の例では、画像認識処理はステージ番号N=1,2,3で示される3つのステージ「1」,「2」,「3」で構成される。
ステージ「1」は認識対象物の色を認識するステージであり、ステージ「2」は認識対象物のブランドを認識するステージであり、ステージ「3」は認識対象物が最終的に何であるかを認識するステージである。
例えば、認識対象物が市販の清涼飲料水であるとすると、ステージ「1」では、清涼飲料水を構成する色が認識される。例えば、水の清涼飲料水であれば、認識結果は「透明」となる。処理部302は、例えば、ロボット1から送信された画像から認識対象物を抽出し、抽出した認識対象物の色を解析する処理を行うことで、認識対象物の色を認識すればよい。認識対象物が複数の色で構成される場合もある。この場合、処理部302は、一定の割合以上を占める上位数色の色を認識結果としてもよい。
ステージ「2」では、処理部302は、例えば、清涼飲料水のボトルのラベルに記載された文字を認識することで、ブランド名を認識する。清涼飲料水のボトルのラベルに商品名「XXX」と記載されていれば、認識結果は、例えば、「XXX」となる。
ステージ「3」では、処理部302は、例えば、上述の物体モデルデータベースを用いて、認識対象物が最終的に何であるかを認識する。例えば、清涼飲料水が認識されたのであれば、認識結果は「清涼飲料水」となる。ここで、清涼飲料水の種類まで認識できたのであれば、認識結果は、例えば、「清涼飲料水:水」となる。
図22は、本開示の第2の実施の形態において、図17のS1707に示す進捗表現処理の詳細を示すフローチャートである。
図22において、S2104、S2107は、図19のS1903、S1904と同じであるので、説明を省く。
まず、主制御部202は、重りの初期往復移動スピードV1と、現在の往復移動スピードVを規定するパラメータと、を準備する(S2101)。上述のように、重りの初期往復移動スピードV1は、重り111を左方及び右方へ移動させる速度の初期値であり、メモリ213に予め記憶されている。S2101の処理では、主制御部202は、メモリ213から重りの初期往復移動スピードV1を読み出す。現在の往復移動スピードVは、実際に重り111を左方及び右方へ移動させる速度を示すパラメータであり、初期値は「0」の値を取る。
次に、主制御部202は、現在の往復移動スピードVを重りの初期往復移動スピードV1に設定し(V=V1)、当該設定後の現在の往復移動スピードVを指定するコマンドを第1駆動機構制御部212へ送信する(S2102)。
次に、第1駆動機構制御部212は、現在の往復移動スピードVを指定するコマンドを主制御部202から受け付け、S1902(図19)の処理と同様にして、重り111を現在の往復移動スピードVで、一定時間2T0ずつ右方又は左方へ移動させることで、重り111を往復移動させる(S2103)。
S2105は、図20のS2007において、クラウドサーバ3が送信した画像認識処理の一部が完了した旨の通知をロボット1が受信する処理である。S2105では、主制御部202は、画像認識処理の一部が完了した旨の通知を通信部220がクラウドサーバ3から受信していなければ(S2104でNO)、処理をS2103に戻す。一方、主制御部202は、画像認識処理の一部が完了した旨の通知を通信部220がクラウドサーバ3から受信していれば(S2104でYES)、処理をS2106に進める。S2104では、ロボット1は、処理が終了したステージ番号Nとステージ数Mとを受信する。
S2106では、主制御部202は、S2104で受信した処理が終了したステージ番号Nとステージ数Mとを用いて、現在の往復移動スピードVをV=V1×(1−N/M)に設定する。例えば、ステージ「1」が終了すると、S2104にて、ロボット1はN=1を受信するので、ステージ「2」の処理中では、現在の往復移動スピードVは、V=V1×(1−1/M)に設定される。
これにより、主制御部202は、画像認識処理のステージが1段階進む毎に現在の往復移動スピードVを1段階減少させる。
図21の例では、ステージ「1」の処理中においては、主制御部202は、現在の往復移動スピードVを重りの初期往復移動スピードV1に設定する。この場合、重り111が重りの初期往復移動スピードV1で一定時間2T0の間左方へ移動することにより、「V1×2T0」に相当する、図21の破線の位置「R」から実線の位置「−R」までの振幅「2R」分移動したとする。これにより、ロボット1は、一定時間2T0の間に、右方に約90度傾いた状態から、振幅「2R」分に相当する振れ幅で左方へ傾き、左方へ約90度傾いた状態になったとする。
この場合、ステージ「1」の処理が終了すると、主制御部202は、現在の往復移動スピードVをV=V1×2/3(=1−1/3)に設定する。これにより、ステージ「2」の処理中においては、重り111は、「V1×2/3」の速度で、一定時間2T0の間に、「V1×2/3×2T0」に相当する振幅「R×4/3(=2R×2/3)」分移動する。その結果、ロボット1は、一定時間2T0の間に、右方に約60度傾いた状態から、振幅「4R/3」分に相当する振れ幅で左方へ傾き、左方へ約60度傾いた状態になる。
ステージ「2」の処理が終了すると、主制御部202は、現在の往復移動スピードVをV=V1×1/3(=1−2/3)に設定する。これにより、ステージ「3」の処理中においては、重り111は、「V1×1/3」の速度で、一定時間2T0の間に、「V1×1/3×2T0」に相当する振幅「R×2/3(=2R×1/3)」分移動する。その結果、ロボット1は、一定時間2T0の間に、右方に約30度傾いた状態から、振幅「2R/3」分に相当する振れ幅で左方へ傾き、左方へ約30度傾いた状態になる。
このように、本態様によれば、画像認識処理のステージが進むにつれて、重り111の移動速度が減少されるので、ロボット1の動作を通じて、画像認識処理の進捗状況をユーザに通知できる。
(変形例1)
第1の実施の形態における図17のS1707に示す進捗表現処理は、図19に示す処理フローに代えて、図23に示す処理フローで実現してもよい。以下、図23に示す進捗表現処理の処理フローについて詳述する。図23は、本開示の第1の実施の形態における、図17のS1707に示す進捗表現処理の詳細の変形例を示すフローチャートである。図24は、重り111の位置の模式図である。
第1の実施の形態における図19に示す進捗表現処理は、画像認識結果が受信されるまで、重り111を、一定速度(重りの初期往復スピードV1)で一定時間2T0ずつ左方又は右方へ移動させることにより重り111を往復移動させることを特徴としていた。しかし、図23に示す進捗表現処理は、重り111を中央の位置から一定速度で移動させ、重り111が所定位置に到達したときに移動方向を反転させ、その後、重り111が中央の位置に戻ったときに、画像認識結果の受信有無に応じて重り111の往復移動を終了又は継続させることに特徴がある。
図23に示すように、まず、主制御部202は、移動方向Fを指定するコマンドを第1駆動機構制御部212へ送信する(S2201)。図24を参照し、移動方向Fは、重り111の移動範囲2Rの中心である左右方向の中央の位置に対して、右方向に重り111を移動させるか、左方向に移動させるかを規定するためのパラメータである。移動方向Fは、移動範囲2Rの中心が0に設定され、移動範囲2Rの中心に対して右方向に重り111を移動させる場合、「1」の値を取り、左方向に重り111を移動させる場合、「−1」の値を取る。移動方向Fの初期値は、「1」に設定されるものとするが、これは一例であり、「−1」に設定されてもよい。
次に、第1駆動機構制御部212は、移動方向Fを指定するコマンドを主制御部202から受け付け、移動方向Fが示す方向の端まで重り111を所定速度(以下、所定速度V0と記載する)で移動させる(S2202)。具体的には、第1駆動機構制御部212は、S2202の処理において、内部に備える図略のエンコーダから第3モータ121(図7)の回転数を取得する。第1駆動機構制御部212は、取得した回転数が、移動方向Fが示す方向の端「R」又は「−R」(図24)に重り111が位置するときに対応する回転数になるまで、第3モータ121(図7)を所定速度V0に対応する回転速度で移動方向Fが示す方向に回転させる。尚、所定速度V0は、例えば上述の初期往復移動スピードV1等に適宜定めてよい。
S2202の処理が終了すると、主制御部202は、移動方向Fを「−F」に設定し、当該設定後の移動方向Fを指定するコマンドを第1駆動機構制御部212へ送信する(S2203)。これにより、主制御部202は、重り111の移動方向Fを反転させる。なお、主制御部202は、S2202の処理中に、第1駆動機構制御部212が内部に備える上記のエンコーダから第3モータ121(図7)の回転数を取得する。そして、主制御部202は、取得した回転数が、移動方向Fが示す方向の端「R」又は「−R」(図24)に重り111が位置するときに対応する回転数になったときに、S2202の処理が終了したと判定し、S2203の処理を行う。
その後、重り111が左右方向の中央の位置に戻ると(S2404でYES)、主制御部202は、通信部220がクラウドサーバ3から画像認識結果を受信していれば(S2205でYES)、進捗表現処理を終了する。以上のように、制御回路201は、重り111が左右方向の中央の位置に戻ったときに、通信部220が画像認識結果を受信していれば、進捗表現処理を終了させる。このため、ロボット1が左右に揺れた途中の姿で応答をする不自然さを防止できる。尚、S2404において、主制御部202は、内部に備える図略のエンコーダから取得した回転数が、重り111が左右方向の中央に位置するときに対応する回転数であることにより、重り111が左右方向の中央の位置に戻ったと判定すればよい。
一方、主制御部202は、通信部220が画像認識結果を受信していなければ(S2205でNO)、処理をS2202に戻し、S2202以降の処理を行う。これにより、主制御部202は、重り111が左右方向の中央の位置に戻ったときに、通信部220が画像認識結果を受信していなければ、左右方向の中央の位置から重り111の往復移動を継続させる。その結果、画像認識結果が受信されるまで、ロボット1は左右に揺動する動作を繰り返し、ユーザに画像認識処理中であることを伝えることができる。
(変形例2)
第2の実施の形態における図17のS1707に示す進捗表現処理は、図22に示す処理フローに代えて、図25に示す処理フローで実現してもよい。以下、図25に示す進捗表現処理の処理フローについて詳述する。図25は、本開示の第2の実施の形態における、図17のS1707に示す進捗表現処理の詳細の変形例を示すフローチャートである。
第2の実施の形態における図22に示す進捗表現処理は、画像認識処理の進捗状況が進むにつれて、重り111が往復移動する速度を減少させることで、重り111の振幅を減少させることを特徴としていた。しかし、図25に示す進捗表現処理は、重り111が往復移動する速度を一定にしたまま、画像認識処理の進捗状況が進むにつれて、重り111を中央の位置から右方又は左方へ移動させる時間を短縮することで、重り111の振幅を減少させることに特徴がある。
図25に示すように、まず、主制御部202は、重り111が中心から端まで移動するまでの所要時間T1と、設定時間T、経過時間t、及び移動方向Fの3つのパラメータと、を準備する(S2401)。
図24を参照し、所要時間T1は、S2202(図23)と同様に、重り111を所定速度V0で移動させた場合に、重り111が、重り111の移動範囲2Rの中心(左右方向の中央の位置)「0」から移動範囲2Rの端「R」又は「−R」まで移動するのに要する所要時間であり、メモリ213に予め記憶されている。S2401の処理では、主制御部202は、メモリ213から所要時間T1を読み出す。設定時間Tは、重り111を移動範囲2Rの中心「0」から右方又は左方へ移動させる時間を示すパラメータである。主制御部202は、設定時間Tの初期値として所要時間T1を設定する。経過時間tは、移動範囲2Rの中心「0」において重り111の移動を開始した時点からの経過時間を示すパラメータである。移動方向Fは、上述の変形例1で説明した通りであるので、説明を省く。
次に、主制御部202は、経過時間tを「0」に設定することで、経過時間tを初期化後、設定時間T、経過時間t及び移動方向Fを指定するコマンドを第1駆動機構制御部212へ送信する(S2402)。
次に、第1駆動機構制御部212は、設定時間T、経過時間t及び移動方向Fを指定するコマンドを主制御部202から受け付け、重り111を左右方向の中央の位置(移動範囲2Rの中心「0」)に戻した後、移動方向Fが示す方向に重り111を所定速度V0で移動させる(S2403)。
具体的には、第1駆動機構制御部212は、ステップS2403において、経過時間tが設定時間T未満である場合(S2404でNO)、処理をS2403に戻し、S2403以降の処理を行う。これにより、第1駆動機構制御部212は、重り111の移動を開始した時点から設定時間Tが経過するまでの間、重り111を左右方向の中央の位置から移動方向Fが示す方向へ移動させる。
経過時間tが設定時間Tになると(S2404でYES)、主制御部202は、移動方向Fを「F=−F」に設定し、当該設定後の移動方向Fを指定するコマンドを第1駆動機構制御部212へ送信する(S2405)。例えば、S2405の処理において、主制御部202は、重り111の移動方向Fが「1」であった場合は、移動方向Fを「−1」に設定し、重り111の移動方向Fが「−1」であった場合は、移動方向Fを「1」に設定する。これにより、主制御部202は、重り111の移動方向を反転させる。
その後、重り111が左右方向の中央の位置に戻ると(S2406でYES)、主制御部202は、通信部220がクラウドサーバ3から画像認識結果を受信していれば(S2407でYES)、進捗表現処理を終了する。尚、S2406において、主制御部202は、内部に備える図略のエンコーダから取得した回転数が、重り111が左右方向の中央に位置するときに対応する回転数であることにより、重り111が左右方向の中央の位置に戻ったと判定すればよい。以上のように、制御回路201は、重り111が左右方向の中央の位置に戻ったときに、通信部220が画像認識結果を受信していれば、進捗表現処理を終了させる。このため、ロボット1が左右に揺れた途中の姿で応答をする不自然さを防止できる。
一方、重り111が左右方向の中央の位置に戻ると(S2406でYES)、主制御部202は、通信部220がクラウドサーバ3から画像認識結果を受信していず(S2407でNO)、画像認識処理の一部が完了した旨の通知も受信していなければ(S2408でNO)、処理をS2402に戻す。これにより、主制御部202は、重り111が左右方向の中央の位置に戻ったときに、通信部220が画像認識結果を受信していなければ、左右方向の中央の位置から重り111の往復移動を継続させる。その結果、画像認識結果が受信されるまで、ロボット1は左右に揺動する動作を繰り返し、ユーザに画像認識処理中であることを伝えることができる。
また、重り111が左右方向の中央の位置に戻ると(S2406でYES)、主制御部202は、通信部220がクラウドサーバ3から画像認識結果を受信していないが(S2207でNO)、画像認識処理の一部が完了した旨の通知を受信していれば(S2408でYES)、処理をS2409に進める。S2408では、ロボット1は、処理が終了したステージ番号Nとステージ数Mとを受信する。
S2409では、主制御部202は、S2408で受信した、処理が終了したステージ番号Nとステージ数Mとを用いて、設定時間Tを「T=T1×(1−N/M)」に設定し、設定時間Tを短縮させる。例えば、ステージ「1」が終了すると、S2408にて、ロボット1はN=1を受信するので、ステージ「2」の処理中では、設定時間Tは、T=T1×(1−1/M)に設定される。
このように、主制御部202は、画像認識処理のステージが1段階進む毎に設定時間Tを1段階短縮させる。これにより、主制御部202は、設定時間Tと所定速度V0との積TV0によって示される、重り111が中央から往復移動する距離である重り111の振幅を短縮させる。
図21の例では、ステージ「1」の処理中においては、主制御部202は、設定時間Tを所要時間T1に設定する。所要時間T1は、重り111が移動範囲2Rの中心「0」から移動範囲2Rの端「R」又は「−R」まで移動するのに要する時間に定められているとする。この場合、重り111は、「T1×V0」に相当する振幅「R」で左右に往復するので、ロボット1も振幅「R」に相当する振れ幅で左右に揺動する。
ステージ「1」の処理が終了すると、主制御部202は、設定時間Tを「T=T1×2/3(=1−1/3)」に設定する。これにより、ステージ「2」の処理中においては、重り111は、「T1×2/3×V0」に相当する振幅「R×2/3」で左右に往復するので、ロボット1は振幅「R×2/3」に相当する振れ幅で左右に揺動する。
ステージ「2」の処理が終了すると、主制御部202は、設定時間Tを「T=T1×1/3(=1−2/3)」に設定する。これにより、ステージ「3」の処理中においては、重り111は、「T1×1/3×V0」に相当する振幅「R×1/3」で左右に往復するので、ロボット1は振幅「R×1/3」に相当する振れ幅で左右に揺動する。
このように、本態様によれば、画像認識処理のステージが進むにつれて、重り111が左右方向の中央の位置から移動した距離である重り111の振幅が減少される。このため、ロボット1の動作を通じて、画像認識処理の進捗状況をユーザに通知できる。
(変形例3)
第1及び第2の実施の形態では、画像認識処理をクラウドサーバ3に要求する場合に、ロボット1を左右に揺動させる動作を行わせた。本開示はこれに限定されず、画像認識処理以外の処理(例えば、音声認識処理)をクラウドサーバ3に要求する場合に、ロボット1を左右に揺動させる動作を行わせてもよい。画像認識処理以外の処理であっても、クラウドサーバ3に処理を要求した場合、処理結果が得られるまでに所定時間以上要することもある。この場合、処理結果が得られるまでにロボット1を左右に揺動させる動作を行わせることで、ロボット1が故障したとユーザが判断することを防止できる。
(変形例4)
第1及び第2の実施の形態では、表示部206を備えていたが、これは一例であり、表示部206は省かれても良い。表示部206はロボットの顔の一部を表示するので、表示部206が有る方が、ロボット1が考え中であることをうまく表現できる。しかし、表示部206が無くても、処理結果が得られるまでロボット1を左右に揺動させれば、ロボット1が考え中であることを十分にユーザに伝えることができる。
(変形例5)
第2の実施の形態では、画像認識処理のステージが進むにつれて、「N/M」ずつ現在の往復移動スピードVが減少されたが、これは一例であり、ステージが進むにつれて現在の往復移動スピードVの減少量が大きくなる或いは小さくなるように現在の往復移動スピードVは減少されてもよい。これと同様に、第2の実施の形態の変形例において、ステージが進むにつれて設定時間Tの短縮量が大きくなる或いは小さくなるように設定時間Tは短縮されてもよい。
(本開示の実施の形態の概要)
本開示の一態様に係るロボットは、
球体の第1側部と前記第1側部に対向する第2側部とをカットした球帯状のメイン筐体と、
前記球体形状の第1側部に対応する第1球冠部と、
前記球体形状の第2側部に対応する第2球冠部と、
前記メイン筐体、前記第1球冠部及び前記第2球冠部のいずれかに設けられた入力装置と、
前記メイン筐体、前記第1球冠部及び前記第2球冠部のいずれかに設けられた出力装置と、
前記メイン筐体の内部に設けられ前記第1球冠部と前記第2球冠部とを連結するシャフトと、
前記メイン筐体の内部に設けられ前記シャフトと直交する軸を中心に回転する重りと、
前記重りの軸を回転させる第1駆動機構と、
前記シャフトを中心に前記メイン筐体を回転させる第2駆動機構と、
前記入力装置を介して入力したユーザの入力指示に対して所定時間以上を要する所定の処理に基づいて前記出力装置を介して応答する場合、前記所定の処理中は前記第1駆動機構を制御して前記重りの軸を回動させて、前記重りを往復移動させる制御回路と、を備えたものである。
本態様によると、前記入力装置を介して入力したユーザの入力指示に対して所定時間以上を要する所定の処理に基づいて前記出力装置を介して応答する場合、前記所定の処理中は前記第1駆動機構を制御して前記重りの軸を回動させて、前記重りを往復移動させる。
これにより、前記ロボットが前記ユーザの問いに応答するために所定時間以上を要する場合、前記ロボットは、前記重りの軸に沿う方向を正面として左右に揺れる動作をする。この動作は、例えば、前記ロボットが悩んで身体を左右に揺すっている動作を表す。
そのため、手足を有しない球体状のロボットであって、内部処理の進行状況を前記ユーザに伝えるのに制約がある場合であっても、処理中であることを前記球体状のロボットの表面に表示することなく、前記重りの移動動作を利用して、前記ユーザとの対話中に前記ロボットが処理中であることを前記ユーザに伝えることができる。その結果、前記ユーザは、前記ロボットの外観だけを見て、前記ロボットが処理中なのか又は故障により動かないのか判断できる。
また、上記態様において、例えば、
前記球帯状のメイン筐体、前記第1球冠部及び前記第2球冠部は、前記球体を構成してもよい。
本態様によると、前記球帯状のメイン筐体、前記第1球冠部及び前記第2球冠部は、前記球体を構成するので、第2駆動機構により前記メイン筐体を回転させることで、球体が転がるようにロボットを前進及び後進させることができる。
また、上記態様において、例えば、
前記制御回路は、
前記出力装置を介して前記応答の内容を出力させるとき、前記重りのデフォルト位置において前記重りの往復移動を停止させてもよい。
本態様によると、前記出力装置を介して前記応答の内容を出力させるとき、前記重りのデフォルト位置において前記重りの往復移動を停止させる。これによると、前記所定の処理中に前記ロボットを左右に揺らして前記ロボットが悩む姿を表現する場合でも、前記出力装置を介して前記応答の内容を出力させるとき、前記ロボットは正規の姿勢に戻って前記ユーザの問いに対して応答することになる。そのため、前記所定の処理中に前記ロボットを左右に揺らしたために、前記ロボットが左右に揺れた途中の姿で前記応答をする不自然さを防止できる。
また、上記態様において、例えば、
前記所定の処理は、2以上の工程からなり、
前記制御回路は、
前記2以上の工程の各々が終わる毎に、前記重りが往復移動する速度を減少させてもよい。
本態様によれば、前記所定の処理の工程が進むにつれて、重りが往復移動する速度が減少されるので、ロボットの動作を通じて、所定の処理の進捗状況をユーザに通知できる。
また、上記態様において、例えば、
前記所定の処理は、2以上の工程からなり、
前記制御回路は、
前記2以上の工程の各々が終わる毎に、前記重りがデフォルト位置から往復移動する距離を短縮させてもよい。
本態様によれば、前記所定の処理の工程が進むにつれて、重りがデフォルト位置から往復移動する距離が短縮されるので、ロボットの動作を通じて、所定の処理の進捗状況をユーザに通知できる。
また、上記態様において、例えば、
前記シャフトと直交する方向に前記シャフトから延びるアームと、
前記アームに設けられ、少なくとも前記ロボットの顔の一部を表示する表示部と、を更に備えてもよい。
この場合、前記表示部に表示される前記ロボットの顔の一部は、例えば、口、又は鼻を構成する。これにより、前記ロボットが前記ユーザの問いに応答するために所定時間以上を要する場合、前記ロボットは、例えば、口、又は鼻の位置を正面にして左右に揺れる動作をする。この動作は、前記ロボットが悩んで身体を左右に揺すっている動作を表す。
そのため、前記ユーザとの対話中に前記ロボットが処理中であることを前記重りの移動動作を利用して前記ユーザに伝えることができる。その結果、前記ユーザは、前記ロボットの外観だけを見て、前記ロボットが処理中なのか又は故障により動かないのか判断できる。
また、上記態様において、例えば、
前記第2駆動機構による前進方向に撮像方向が向くように前記第1球冠部及び前記第2球冠部の少なくともいずれか一方に設けられたカメラと、
前記メイン筐体の内部に設けられ、外部ネットワークに接続される通信回路と、を更に備え、
前記所定の処理は、前記外部ネットワークを介して接続された外部サーバにおける画像認識処理であってもよい。
画像認識処理は処理負荷が過大なので、外部サーバで実行されることが多い。この場合、処理結果が得られるまで、所定時間以上かかってしまう。本態様では、所定の処理が外部サーバで実行される場合であっても、処理結果が得られるまで、ロボットは、左右に揺れる動作を行う。そのため、ユーザに対して内部処理が実行中であることを伝えることができる。
また、上記態様において、例えば、
前記制御回路は、前記画像認識処理に基づいて応答する場合、
前記カメラを用いて認識対象物を撮像させ、
前記通信回路を用いて前記外部ネットワークを経由して前記撮像された認識対象物の画像を前記外部サーバに送信させ、
前記通信回路を用いて前記外部サーバから前記認識対象物の画像の認識結果を受信させ、
前記出力装置を介して前記受信した認識結果を出力させる、ものであってもよい。
本態様によれば、処理負荷が過大な画像認識処理が外部サーバで実行されるので、ロボットは認識対象物の撮像と、認識結果を外部サーバからの受信とを行えばよく、ロボットの処理負荷を軽減できる。
また、上記態様において、例えば、
前記入力装置は、マイクであり、
前記入力装置を介して入力したユーザの入力指示は音声の指示であってもよい。
本態様によれば、ユーザは、手入力で入力指示を入力しなくとも、入力指示の音声を発話するだけで、ロボットに所定の処理を指示できる。そのため、入力指示を入力する際のユーザの負担が軽減される。特に、幼児のように、手入力が困難なユーザにとってこの態様は有用となる。
また、上記態様において、例えば、
前記出力装置は、スピーカであってもよい。
本態様では、スピーカを通じて処理結果が出力されるので、ユーザはロボットに注視しなくても処理結果を知ることができる。
本開示の一態様に係るロボットは、
球体の第1側部と前記第1側部に対向する第2側部とをカットした球帯状のメイン筐体と、
前記球体形状の第1側部に対応する第1球冠部と、
前記球体形状の第2側部に対応する第2球冠部と、
前記メイン筐体、前記第1球冠部及び前記第2球冠部のいずれかに設けられた入力装置と、
前記メイン筐体、前記第1球冠部及び前記第2球冠部のいずれかに設けられた出力装置と、
前記メイン筐体の内部に設けられ前記第1球冠部と前記第2球冠部とを連結するシャフトと、
前記シャフトと直交する方向に前記シャフトから延びるアームに設けられた、少なくともロボットの顔の一部を表示する表示部と、
前記メイン筐体の内部に設けられ前記シャフトと直交する軸を中心に回転する重りと、
前記重りの軸を回転させる第1駆動機構と、
前記シャフトを中心に前記メイン筐体を回転させる第2駆動機構と、
前記入力装置を介して入力したユーザの入力指示に対して、所定時間以上を要する所定の処理に基づいて前記出力装置を介して応答する場合、前記所定の処理中は前記第1駆動機構を制御して前記重りの軸を回動させて、前記重りを往復移動させる制御回路と、を備えたものである。
本態様によると、前記入力装置を介して入力したユーザの入力指示に対して所定時間以上を要する所定の処理に基づいて応答する場合、前記所定の処理中は前記第1駆動機構を制御して前記重りの軸を回動させて、前記重りを往復移動させる。この場合、前記表示部に表示される前記ロボットの顔の一部は、例えば、口、又は鼻を構成する。
これにより、前記ロボットが前記ユーザの問いに応答するために所定時間以上を要する場合、前記ロボットは、例えば、口、又は鼻の位置を正面にして左右に揺れる動作をする。この動作は、前記ロボットが悩んで身体を左右に揺すっている動作を表す。
そのため、手足を有しない球体状のロボットであって、前記ユーザに対して内部処理の進行状況を前記ユーザに伝えるのに制約がある場合であっても、処理中であることを前記球体状のロボットの表面に表示することなく、前記重りの移動動作を利用して、前記ユーザとの対話中に前記ロボットが処理中であることを前記ユーザに伝えることができる。その結果、前記ユーザは、前記ロボットの外観だけを見て、前記ロボットが処理中なのか又は故障により動かないのか判断できる。
また、上記態様において、例えば、
前記制御回路は、
前記出力装置を介して前記応答の内容を出力させるとき、前記重りのデフォルト位置において前記重りの往復移動を停止させてもよい。
本態様によると、前記出力装置を介して前記応答の内容を出力させるとき、前記重りのデフォルト位置において前記重りの往復移動を停止させる。これによると、前記所定の処理中に前記ロボットを左右に揺らして前記ロボットが悩む姿を表現する場合でも、前記出力装置を介して前記応答の内容を出力させるとき、前記ロボットは正規の姿勢に戻って前記ユーザの問いに対して応答することになる。そのため、前記所定の処理中に前記ロボットを左右に揺らしたために、前記ロボットが左右に揺れた途中の姿で前記応答をする不自然さを防止できる。
また、上記態様において、例えば、
前記所定の処理は、2以上の工程からなり、
前記制御回路は、
前記2以上の工程の各々が終わる毎に、前記重りが往復移動する速度を減少させてもよい。
本態様によれば、前記所定の処理の工程が進むにつれて、重りが往復移動する速度が減少されるので、ロボットの動作を通じて、所定の処理の進捗状況をユーザに通知できる。
また、上記態様において、例えば、
前記所定の処理は、2以上の工程からなり、
前記制御回路は、
前記2以上の工程の各々が終わる毎に、前記重りがデフォルト位置から往復移動する距離を短縮させてもよい。
本態様によれば、前記所定の処理の工程が進むにつれて、重りがデフォルト位置から往復移動する距離が短縮されるので、ロボットの動作を通じて、所定の処理の進捗状況をユーザに通知できる。
また、上記態様において、例えば、
前記第1球冠部及び前記第2球冠部の少なくともいずれか一方に設けられたカメラと、前記メイン筐体の内部に設けられ外部ネットワークに接続される通信回路とを備え、
前記所定の処理は、前記外部ネットワークを介して接続された外部サーバにおける画像認識処理であってもよい。
画像認識処理は処理負荷が過大なので、外部サーバで実行されることが多い。この場合、処理結果が得られるまで、所定時間以上かかってしまう。本態様では、所定の処理が外部サーバで実行される場合であっても、処理結果が得られるまで、ロボットは、左右に揺れる動作を行う。そのため、ユーザに対して内部処理が実行中であることを伝えることができる。
また、上記態様において、例えば、
前記制御回路は、前記画像認識処理に基づいて応答する場合、
前記カメラを用いて認識対象物を撮像させ、
前記通信回路を用いて前記外部ネットワークを経由して前記撮像された認識対象物の画像を前記外部サーバに送信させ、
前記通信回路を用いて前記外部サーバから前記認識対象物の画像の認識結果を受信させ、
前記出力装置を介して前記受信した認識結果を出力させる、ものであってもよい。
本態様によれば、処理負荷が過大な画像認識処理が外部サーバで実行されるので、ロボットは認識対象物の撮像と、認識結果を外部サーバからの受信とを行えばよく、ロボットの処理負荷を軽減できる。
本開示の一態様に係るロボットは、
球体の第1側部と前記第1側部に対向する第2側部とをカットした球帯状のメイン筐体と、
前記球体形状の第1側部に対応する第1球冠部と、
前記球体形状の第2側部に対応する第2球冠部と、
前記メイン筐体、前記第1球冠部及び前記第2球冠部のいずれかに設けられた入力装置と、
前記メイン筐体、前記第1球冠部及び前記第2球冠部のいずれかに設けられた出力装置と、
前記第1球冠部及び前記第2球冠部の少なくともいずれか一方に設けられたカメラと、
前記メイン筐体の内部に設けられ外部ネットワークに接続される通信回路と、
前記メイン筐体の内部に設けられ前記第1球冠部と前記第2球冠部とを連結するシャフトと、
前記シャフトと直交する方向に前記シャフトから延びるアームに設けられた、少なくともロボットの顔の一部を表示する表示部と、
前記メイン筐体の内部に設けられ前記シャフトと直交する軸を中心に回転する重りと、
前記重りの軸を回転させる第1駆動機構と、
前記シャフトを中心に前記メイン筐体を回転させる第2駆動機構と、
前記シャフトの回転により前記第1球冠部及び前記第2球冠部を回転させる前記第2駆動機構と独立した第3駆動機構と、
前記入力装置を介して入力したユーザの音声指示に対して応答するために画像認識が必要な場合に前記カメラを用いて認識対象物を撮像させ、前記外部ネットワークを経由して前記撮像された認識対象物の画像を前記外部ネットワークを介して接続された外部サーバに送信させ、前記前記外部ネットワークを介して接続された外部サーバから前記認識対象物の画像の認識結果を受信させ、前記出力装置を介して前記受信した認識結果を出力させる制御回路と、を備え、
前記制御回路は、
前記前記外部ネットワークを介して接続された外部サーバによる前記認識対象物の画像の認識結果が必要な場合、前記第1駆動機構を制御して前記重りの軸を回動させて、前記重りを往復移動させるものである。
本態様によると、前記外部ネットワークを介して接続された外部サーバによる前記認識対象物の画像の認識結果が必要な場合、前記第1駆動機構を制御して前記重りの軸を回動させて、前記重りを往復移動させる。この場合、前記表示部に表示される前記ロボットの顔の一部は、例えば、口、又は鼻を構成する。
これにより、前記ロボットが前記ユーザの問いに応答するために画像認識処理が必要な場合、前記ロボットは、例えば、口、又は鼻の位置を正面にして左右に揺れる動作をする。この動作は、前記ロボットが悩んで身体を左右に揺すっている動作を表す。
そのため、手足を有しない球体状のロボットであって、前記ユーザに対して内部処理の進行状況を前記ユーザに伝えるのに制約がある場合であっても、処理中であることを前記球体状のロボットの表面に表示することなく、前記重りの移動動作を利用して、前記ユーザとの対話中に前記ロボットが処理中であることを前記ユーザに伝えることができる。その結果、前記ユーザは、前記ロボットの外観だけを見て、前記ロボットが処理中なのか又は故障により動かないのか判断できる。
また、上記態様において、例えば、
前記制御回路は、
前記認識対象物の画像の認識結果を受信した後、前記重りのデフォルト位置において前記重りの往復移動を停止させ、前記出力装置を介して前記受信した認識結果を出力させる、ものであってもよい。
本態様によると、前記認識対象物の画像の認識結果を受信した後に前記重りの往復移動を停止させる際に、前記重りのデフォルト位置において前記重りの往復移動を停止させる。これによると、前記画像認識の処理中に前記ロボットを左右に揺らして前記ロボットが悩む姿を表現する場合でも、前記画像認識の結果を受信すると、前記ロボットは正規の姿勢に戻って前記ユーザの問いに対して応答することになる。そのため、前記画像認識の処理中に前記ロボットを左右に揺らしたために、前記ロボットが左右に揺れた途中の姿で前記応答をする不自然さを防止できる。
また、本態様では、出力装置を通じて前記認識対象物の画像の認識結果が出力されるので、ユーザはロボットに注視しなくても前記認識対象物の画像の認識結果を知ることができる。
また、上記態様において、例えば、
画像認識用の参照データを格納するメモリを設け、
前記制御回路は、
前記ユーザの音声指示に対して応答するために前記外部サーバによる前記認識対象物の画像の認識結果は必要でなく、前記メモリに格納された前記画像認識用の参照データに基づく前記認識対象物の画像認識で前記応答が可能であると判断した場合、前記仮想線に直交する方向に前記重りを往復移動させる制御を行うことなく、前記出力装置を介して前記参照データに基づく認識結果を出力させる、ものであってもよい。
例えば、ユーザの顔認識などは、前記ロボットの内部にメモリを設けて、前記メモリに格納された画像認識用の参照データを用いて行うことが可能である。
ユーザが前記ロボットに対して、例えば、「私は誰?」と問う場合、前記外部サーバによる前記認識対象物の画像の認識結果は必要でなく、前記ロボットの内部にメモリに格納された画像認識用の参照データを参照すれば足りる。また、ユーザが人差し指と中指との2本の指を立てて「これいくつ?」と、前記ユーザが前記ロボットに対して問う場合も、前記外部サーバによる前記認識対象物の画像の認識結果は必要でなく、前記ロボットの内部にメモリに格納された画像認識用の参照データを参照すれば足りる。このような場合、前記ユーザを待たせることはほとんどない。
そのため、このような場合には、前記重りを往復移動させる制御を行うことなく、前記出力装置を介して前記参照データに基づく認識結果を出力させることができる。
また、上記態様において、例えば、
前記画像認識は、2以上の工程からなり、
前記制御回路は、
前記2以上の工程の各々が終わる毎に、前記重りが往復移動する速度を減少させてもよい。
本態様によれば、前記所定の処理の工程が進むにつれて、重りが往復移動する速度が減少されるので、ロボットの動作を通じて、所定の処理の進捗状況をユーザに通知できる。
また、上記態様において、例えば、
前記所定の処理は、2以上の工程からなり、
前記制御回路は、
前記2以上の工程の各々が終わる毎に、前記重りがデフォルト位置から往復移動する距離を短縮させてもよい。
本態様によれば、前記所定の処理の工程が進むにつれて、重りがデフォルト位置から往復移動する距離が短縮されるので、ロボットの動作を通じて、所定の処理の進捗状況をユーザに通知できる。
本開示の例示的な実施の形態にかかるロボットによれば、内部処理の進行状況をユーザに伝えるために有用である。
F 移動方向
M ステージ数
N ステージ番号
R 最大振幅
t 経過時間
T 設定時間
T1 所要時間
V 現在の往復移動スピード
V1 初期往復移動スピード
1 ロボット
2R 移動範囲
3 クラウドサーバ
4 携帯端末
101 メイン筐体
102 第1球冠部
103 第2球冠部
104 カメラ
105 第1表示部
106 第2表示部
107 第3表示部
108 固定板金
109 第1アーム
110 第2アーム
111 重り
112 シャフト
113 駆動ベルト
114 第1モータ
115 フレーム
116 第3ギア
117 第4ギア
118 第2モータ
119 第3アーム
120 第4アーム
121 第3モータ
122 第1ギア
123 第2ギア
139 従動シャフト
140 回転軸
201 制御回路
202 主制御部
203 音声認識処理部
204 顔認識処理部
205 表示情報出力制御部
206 表示部
207 第3駆動機構
208 第3駆動機構制御部
209 第2駆動機構
210 第2駆動機構制御部
211 第1駆動機構
212 第1駆動機構制御部
213 メモリ
215 マイク
217 音声情報出力制御部
218 スピーカ
220 通信部
301 通信部
302 処理部
1500 ロボットシステム

Claims (13)

  1. 球体の第1側部と前記第1側部に対向する第2側部とをカットした球帯状のメイン筐体と、
    前記球体形状の第1側部に対応する第1球冠部と、
    前記球体形状の第2側部に対応する第2球冠部と、
    前記メイン筐体、前記第1球冠部及び前記第2球冠部のいずれかに設けられた入力装置と、
    前記メイン筐体、前記第1球冠部及び前記第2球冠部のいずれかに設けられた出力装置と、
    前記メイン筐体の内部に設けられ前記第1球冠部と前記第2球冠部とを連結するシャフトと、
    前記メイン筐体の内部に設けられ前記シャフトと直交する軸を中心に回転する重りと、
    前記重りの軸を回転させる第1駆動機構と、
    前記シャフトを中心に前記メイン筐体を回転させる第2駆動機構と、
    前記入力装置を介して入力したユーザの入力指示に対して所定時間以上を要する所定の処理に基づいて前記出力装置を介して応答する場合、前記所定の処理中は前記第1駆動機構を制御して前記重りの軸を回動させて、前記重りを往復移動させる制御回路と、を備え
    前記所定の処理は、2以上の工程からなり、
    前記制御回路は、
    前記2以上の工程の各々が終わる毎に、前記重りが往復移動する速度を減少させる、
    ロボット。
  2. 球体の第1側部と前記第1側部に対向する第2側部とをカットした球帯状のメイン筐体と、
    前記球体形状の第1側部に対応する第1球冠部と、
    前記球体形状の第2側部に対応する第2球冠部と、
    前記メイン筐体、前記第1球冠部及び前記第2球冠部のいずれかに設けられた入力装置と、
    前記メイン筐体、前記第1球冠部及び前記第2球冠部のいずれかに設けられた出力装置と、
    前記メイン筐体の内部に設けられ前記第1球冠部と前記第2球冠部とを連結するシャフトと、
    前記メイン筐体の内部に設けられ前記シャフトと直交する軸を中心に回転する重りと、
    前記重りの軸を回転させる第1駆動機構と、
    前記シャフトを中心に前記メイン筐体を回転させる第2駆動機構と、
    前記入力装置を介して入力したユーザの入力指示に対して所定時間以上を要する所定の処理に基づいて前記出力装置を介して応答する場合、前記所定の処理中は前記第1駆動機構を制御して前記重りの軸を回動させて、前記重りを往復移動させる制御回路と、を備え、
    前記所定の処理は、2以上の工程からなり、
    前記制御回路は、
    前記2以上の工程の各々が終わる毎に、前記重りがデフォルト位置から往復移動する距離を短縮させる、
    ロボット。
  3. 球体の第1側部と前記第1側部に対向する第2側部とをカットした球帯状のメイン筐体と、
    前記球体形状の第1側部に対応する第1球冠部と、
    前記球体形状の第2側部に対応する第2球冠部と、
    前記メイン筐体、前記第1球冠部及び前記第2球冠部のいずれかに設けられた入力装置と、
    前記メイン筐体、前記第1球冠部及び前記第2球冠部のいずれかに設けられた出力装置と、
    前記メイン筐体の内部に設けられ前記第1球冠部と前記第2球冠部とを連結するシャフトと、
    前記シャフトと直交する方向に前記シャフトから延びるアームに設けられた、少なくともロボットの顔の一部を表示する表示部と、
    前記メイン筐体の内部に設けられ前記シャフトと直交する軸を中心に回転する重りと、
    前記重りの軸を回転させる第1駆動機構と、
    前記シャフトを中心に前記メイン筐体を回転させる第2駆動機構と、
    前記入力装置を介して入力したユーザの入力指示に対して、所定時間以上を要する所定の処理に基づいて前記出力装置を介して応答する場合、前記所定の処理中は前記第1駆動機構を制御して前記重りの軸を回動させて、前記重りを往復移動させる制御回路と、を備えた
    ロボット。
  4. 前記制御回路は、
    前記出力装置を介して前記応答の内容を出力させるとき、前記重りのデフォルト位置において前記重りの往復移動を停止させる、
    請求項記載のロボット。
  5. 前記所定の処理は、2以上の工程からなり、
    前記制御回路は、
    前記2以上の工程の各々が終わる毎に、前記重りが往復移動する速度を減少させる、
    請求項記載のロボット。
  6. 前記所定の処理は、2以上の工程からなり、
    前記制御回路は、
    前記2以上の工程の各々が終わる毎に、前記重りがデフォルト位置から往復移動する距離を短縮させる、
    請求項記載のロボット。
  7. 前記第1球冠部及び前記第2球冠部の少なくともいずれか一方に設けられたカメラと、前記メイン筐体の内部に設けられ外部ネットワークに接続される通信回路とを備え、
    前記所定の処理は、前記外部ネットワークを介して接続された外部サーバにおける画像認識処理である、
    請求項記載のロボット。
  8. 前記制御回路は、前記画像認識処理に基づいて応答する場合、
    前記カメラを用いて認識対象物を撮像させ、
    前記通信回路を用いて前記外部ネットワークを経由して前記撮像された認識対象物の画像を前記外部サーバに送信させ、
    前記通信回路を用いて前記外部サーバから前記認識対象物の画像の認識結果を受信させ、
    前記出力装置を介して前記受信した認識結果を出力させる、
    請求項記載のロボット。
  9. 球体の第1側部と前記第1側部に対向する第2側部とをカットした球帯状のメイン筐体と、
    前記球体形状の第1側部に対応する第1球冠部と、
    前記球体形状の第2側部に対応する第2球冠部と、
    前記メイン筐体、前記第1球冠部及び前記第2球冠部のいずれかに設けられた入力装置と、
    前記メイン筐体、前記第1球冠部及び前記第2球冠部のいずれかに設けられた出力装置と、
    前記第1球冠部及び前記第2球冠部の少なくともいずれか一方に設けられたカメラと、
    前記メイン筐体の内部に設けられ外部ネットワークに接続される通信回路と、
    前記メイン筐体の内部に設けられ前記第1球冠部と前記第2球冠部とを連結するシャフトと、
    前記シャフトと直交する方向に前記シャフトから延びるアームに設けられた、少なくともロボットの顔の一部を表示する表示部と、
    前記メイン筐体の内部に設けられ前記シャフトと直交する軸を中心に回転する重りと、
    前記重りの軸を回転させる第1駆動機構と、
    前記シャフトを中心に前記メイン筐体を回転させる第2駆動機構と、
    前記シャフトの回転により前記第1球冠部及び前記第2球冠部を回転させる前記第2駆動機構と独立した第3駆動機構と、
    前記入力装置を介して入力したユーザの音声指示に対して応答するために画像認識が必要な場合に前記カメラを用いて認識対象物を撮像させ、前記外部ネットワークを経由して前記撮像された認識対象物の画像を前記外部ネットワークを介して接続された外部サーバに送信させ、前記前記外部ネットワークを介して接続された外部サーバから前記認識対象物の画像の認識結果を受信させ、前記出力装置を介して前記受信した認識結果を出力させる制御回路と、を備え、
    前記制御回路は、
    前記前記外部ネットワークを介して接続された外部サーバによる前記認識対象物の画像の認識結果が必要な場合、前記第1駆動機構を制御して前記重りの軸を回動させて、前記重りを往復移動させる、
    ロボット。
  10. 前記制御回路は、
    前記認識対象物の画像の認識結果を受信した後、前記重りのデフォルト位置において前記重りの往復移動を停止させ、前記出力装置を介して前記受信した認識結果を出力させる、
    請求項記載のロボット。
  11. 画像認識用の参照データを格納するメモリを設け、
    前記制御回路は、
    前記ユーザの音声指示に対して応答するために前記外部サーバによる前記認識対象物の画像の認識結果は必要でなく、前記メモリに格納された前記画像認識用の参照データに基づく前記認識対象物の画像認識で前記応答が可能であると判断した場合、前記仮想線に直交する方向に前記重りを往復移動させる制御を行うことなく、前記出力装置を介して前記参照データに基づく認識結果を出力させる、
    請求項記載のロボット。
  12. 前記画像認識は、2以上の工程からなり、
    前記制御回路は、
    前記2以上の工程の各々が終わる毎に、前記重りが往復移動する速度を減少させる、
    請求項から11のいずれか1項に記載のロボット。
  13. 前記所定の処理は、2以上の工程からなり、
    前記制御回路は、
    前記2以上の工程の各々が終わる毎に、前記重りがデフォルト位置から往復移動する距離を短縮させる、
    請求項から11のいずれか1項に記載のロボット。
JP2016108054A 2016-05-31 2016-05-31 ロボット Active JP6735013B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2016108054A JP6735013B2 (ja) 2016-05-31 2016-05-31 ロボット
CN201780001155.9A CN107847806B (zh) 2016-05-31 2017-05-25 机器人
EP17806505.8A EP3466505A1 (en) 2016-05-31 2017-05-25 Robot
PCT/JP2017/019458 WO2017208948A1 (ja) 2016-05-31 2017-05-25 ロボット
CA2995556A CA2995556A1 (en) 2016-05-31 2017-05-25 Robot
US15/897,646 US10589426B2 (en) 2016-05-31 2018-02-15 Robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016108054A JP6735013B2 (ja) 2016-05-31 2016-05-31 ロボット

Publications (2)

Publication Number Publication Date
JP2017213112A JP2017213112A (ja) 2017-12-07
JP6735013B2 true JP6735013B2 (ja) 2020-08-05

Family

ID=60478529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016108054A Active JP6735013B2 (ja) 2016-05-31 2016-05-31 ロボット

Country Status (6)

Country Link
US (1) US10589426B2 (ja)
EP (1) EP3466505A1 (ja)
JP (1) JP6735013B2 (ja)
CN (1) CN107847806B (ja)
CA (1) CA2995556A1 (ja)
WO (1) WO2017208948A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017205313A (ja) * 2016-05-19 2017-11-24 パナソニックIpマネジメント株式会社 ロボット
USD903559S1 (en) 2017-03-16 2020-12-01 Nio Nextev Limited Voice assistant
US10810371B2 (en) 2017-04-06 2020-10-20 AIBrain Corporation Adaptive, interactive, and cognitive reasoner of an autonomous robotic system
US11151992B2 (en) 2017-04-06 2021-10-19 AIBrain Corporation Context aware interactive robot
US10929759B2 (en) 2017-04-06 2021-02-23 AIBrain Corporation Intelligent robot software platform
US10839017B2 (en) 2017-04-06 2020-11-17 AIBrain Corporation Adaptive, interactive, and cognitive reasoner of an autonomous robotic system utilizing an advanced memory graph structure
US10963493B1 (en) * 2017-04-06 2021-03-30 AIBrain Corporation Interactive game with robot system
USD922502S1 (en) * 2017-07-05 2021-06-15 Skip Hop, Inc. Children's toy
JP7022547B2 (ja) * 2017-09-22 2022-02-18 パナソニック株式会社 ロボット
CA3086594A1 (en) * 2017-12-22 2019-06-27 Pure Technologies Ltd. Surround for pipeline inspection equipment
JP6989395B2 (ja) * 2018-01-10 2022-01-05 パナソニック株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
JP7102169B2 (ja) * 2018-02-28 2022-07-19 パナソニックホールディングス株式会社 装置、ロボット、方法、及びプログラム
EP3795225A4 (en) * 2018-05-15 2022-03-30 Sony Group Corporation CONTROL DEVICE, CONTROL METHOD AND PROGRAM
JP7226928B2 (ja) * 2018-05-31 2023-02-21 株式会社トプコン 測量装置
CN110653815B (zh) * 2018-06-29 2021-12-07 深圳市优必选科技有限公司 一种机器人控制方法、机器人及计算机存储介质
CN109359177B (zh) * 2018-09-11 2021-08-20 北京光年无限科技有限公司 用于讲故事机器人的多模态交互方法及系统
KR20200077936A (ko) * 2018-12-21 2020-07-01 삼성전자주식회사 사용자 상태에 기초하여 반응을 제공하는 전자 장치 및 그의 동작 방법
CN109710748B (zh) * 2019-01-17 2021-04-27 北京光年无限科技有限公司 一种面向智能机器人的绘本阅读交互方法和系统
KR20200117552A (ko) * 2019-04-04 2020-10-14 삼성전자주식회사 링 부재를 포함하는 구형 로봇
EP4099266A4 (en) * 2020-01-28 2023-07-05 Sony Group Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
US20220147059A1 (en) * 2020-11-12 2022-05-12 Accenture Global Solutions Limited Fault tolerant systems for distributed supervision of robots
KR20220067627A (ko) * 2020-11-17 2022-05-25 삼성전자주식회사 이동 로봇 장치 및 이의 제어 방법
CN113352288B (zh) * 2021-06-03 2022-11-15 扎赉诺尔煤业有限责任公司 一种用于在恶劣环境作业环境监控的试验用数据遥控机器人
CN114589710A (zh) * 2022-03-04 2022-06-07 珠海市一微机器人技术有限公司 一种宠物机器人及其系统的逗宠控制方法及芯片

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002116792A (ja) 2000-10-11 2002-04-19 Sony Corp ロボット制御装置およびロボット制御方法、並びに記録媒体
SE0402672D0 (sv) * 2004-11-02 2004-11-02 Viktor Kaznov Ball robot
JP5411789B2 (ja) 2010-04-19 2014-02-12 本田技研工業株式会社 コミュニケーションロボット
CN201670289U (zh) * 2010-05-10 2010-12-15 姜亮 球体机器人
CN102368246A (zh) * 2011-09-15 2012-03-07 张德长 一种自动应答机器人系统
CN103171638A (zh) * 2013-03-04 2013-06-26 北京邮电大学 具有双目立体视觉的球形机器人
JP2015138147A (ja) 2014-01-22 2015-07-30 シャープ株式会社 サーバ、対話装置、対話システム、対話方法および対話プログラム
US10366689B2 (en) * 2014-10-29 2019-07-30 Kyocera Corporation Communication robot
CN104598579B (zh) * 2015-01-14 2018-07-03 北京京东尚科信息技术有限公司 一种自动问答方法及系统
CN104959987B (zh) * 2015-07-14 2017-03-08 百度在线网络技术(北京)有限公司 基于人工智能的伴侣机器人
US10399616B2 (en) * 2016-08-12 2019-09-03 Spin Master Ltd. Spherical mobile robot with pivoting head
JP6936081B2 (ja) * 2017-08-30 2021-09-15 パナソニック株式会社 ロボット
JP7022547B2 (ja) * 2017-09-22 2022-02-18 パナソニック株式会社 ロボット

Also Published As

Publication number Publication date
US20180169865A1 (en) 2018-06-21
JP2017213112A (ja) 2017-12-07
CN107847806B (zh) 2021-01-26
CN107847806A (zh) 2018-03-27
CA2995556A1 (en) 2017-12-07
WO2017208948A1 (ja) 2017-12-07
US10589426B2 (en) 2020-03-17
EP3466505A4 (en) 2019-04-10
EP3466505A1 (en) 2019-04-10

Similar Documents

Publication Publication Date Title
JP6735013B2 (ja) ロボット
WO2017199783A1 (ja) ロボット
WO2017199782A1 (ja) ロボット
US10478971B2 (en) Spherical robot having a driving mechanism for indicating amount of stored electric power
US7689319B2 (en) Communication robot control system
US11000952B2 (en) More endearing robot, method of controlling the same, and non-transitory recording medium
US20180376069A1 (en) Erroneous operation-preventable robot, robot control method, and recording medium
WO2017187965A1 (ja) ロボット
WO2018020889A1 (ja) ロボット
JP2006212717A (ja) ロボット装置
JP2024023193A (ja) 情報処理装置及び情報処理方法
JP2023095918A (ja) ロボット、ロボットの制御方法及びプログラム
JP7428141B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2020179005A (ja) ロボット及び方法
JP2018161702A (ja) ロボット制御システムおよびロボット制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20200605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200605

R151 Written notification of patent or utility model registration

Ref document number: 6735013

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151