WO2020152838A1 - ロボット - Google Patents

ロボット Download PDF

Info

Publication number
WO2020152838A1
WO2020152838A1 PCT/JP2019/002418 JP2019002418W WO2020152838A1 WO 2020152838 A1 WO2020152838 A1 WO 2020152838A1 JP 2019002418 W JP2019002418 W JP 2019002418W WO 2020152838 A1 WO2020152838 A1 WO 2020152838A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
parts
processing unit
information
drive
Prior art date
Application number
PCT/JP2019/002418
Other languages
English (en)
French (fr)
Inventor
良雄 宮崎
Original Assignee
株式会社ソニー・インタラクティブエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・インタラクティブエンタテインメント filed Critical 株式会社ソニー・インタラクティブエンタテインメント
Priority to US17/424,033 priority Critical patent/US11833441B2/en
Priority to JP2020567326A priority patent/JP7171767B2/ja
Priority to PCT/JP2019/002418 priority patent/WO2020152838A1/ja
Publication of WO2020152838A1 publication Critical patent/WO2020152838A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/16Dolls made of parts that can be put together
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • A63H11/18Figure toys which perform a realistic walking motion
    • A63H11/20Figure toys which perform a realistic walking motion with pairs of legs, e.g. horses
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H30/00Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
    • A63H30/02Electrical arrangements
    • A63H30/04Electrical arrangements using wireless transmission
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/08Programme-controlled manipulators characterised by modular constructions

Definitions

  • the present invention relates to a robot, and more particularly to a robot formed by combining a plurality of parts.
  • Patent Document 1 is a leg that selects an appropriate foot from the road surface condition, walking state, etc., autonomously performs a foot replacement work, and determines an appropriate walking motion pattern under the condition determined by the replaced foot.
  • a mobile robot is disclosed.
  • Robot functions are evolving every day.
  • the quadruped type pet robot is the mainstream commercial model, but in recent years, humanoid robots that can perform various actions such as dancing have been distributed.
  • AI artificial intelligence
  • robots Since deep learning has been put into practical use by improving the processing capacity of computers and improving learning models, AI (artificial intelligence) is installed in robots to improve existing functions and new functions. It is hoped that learning can realize acquisition.
  • the present disclosure has devised a mechanism for improving the entertainment property of the robot so that the user can enjoy the interaction with the robot.
  • the present invention has been made in view of these problems, and an object thereof is to provide a technique for improving the entertainment property of a robot.
  • a robot includes a basic part and a plurality of site parts, and the site part is configured to be attachable to and detachable from the basic part.
  • An information processing unit that acquires part identification information that identifies a part part, and a drive processing unit that controls the movement of at least one part part in a control mode associated with the part identification information acquired by the information processing unit.
  • any combination of the above-described components and the expression of the present invention converted between a method, a device, a system, a computer program, a recording medium having a computer program readable recorded thereon, a data structure, etc. are also included in the present invention. Is effective as a mode of.
  • FIG. 1 shows an example of an external configuration of the robot 1 of the embodiment.
  • the robot 1 is a pet robot and has an autonomous action function.
  • the robot 1 is formed by combining a plurality of parts, and has an appearance simulating a puppy in the example shown in FIG.
  • the robot 1 of the embodiment includes a basic part and a plurality of part parts, and the part part is configured to be attachable to and detachable from the basic part.
  • the user attaches the site parts to the basic parts to form one robot 1.
  • Circuit boards, actuators, sensors, etc. that include electronic parts are mounted on each of the basic parts and the part parts, but when attaching and detaching the part parts to the basic parts, they can be attached/detached in a live state without turning off the power. Is preferred.
  • the basic part is the body part 2, and a processor for controlling the operation of the robot 1 with the part parts attached is mounted.
  • the part parts are parts that make up each part of the robot 1, and include a leg part 3 that realizes the moving function of the robot 1 and a head part 4 that forms the head of the robot 1.
  • the robot 1 has four leg parts 3 which are a right front leg 3a, a left front leg 3b, a right rear leg 3c, and a left rear leg 3d, each of which is rotatably connected to a body part 2.
  • Each of the leg parts 3 may have four or more degrees of freedom in order to achieve movement similar to a dog.
  • the head part 4 is rotatably connected to the body part 2 at the neck portion.
  • the body part 2, the leg parts 3, and the head part 4 are provided with actuators and sensors for the robot 1 to realize a motion function such as walking.
  • the actuator includes at least a motor arranged in the joint portion and a link mechanism connecting the motors.
  • the user can build the desired robot 1 by connecting the body parts to the body parts 2.
  • the user may own a plurality of types of head parts 4 and a plurality of types of leg parts 3 and freely replace them with the body part 2.
  • a user first purchases the dog robot shown in FIG. 1 and then purchases a site part that is sold as an option.
  • the part parts that are sold as options include, for example, a head part that imitates the head and neck of a cat, a head part that mimics the head and neck of a giraffe, and a shape that imitates the legs of a horse.
  • the user can attach various part parts to the body part 2 which is a basic part, and can form the robot 1 unique to the user.
  • Robot 1 can acquire basic motor functions by learning. For example, the robot 1 learns and remembers the motor function of “walking” by actually moving the actuator. The learning result when the user can walk successfully is stored as a drive parameter indicating the control mode of each actuator.
  • the drive parameter temporally defines the state change of all actuators that are in charge of the motor function, and after the drive parameter is acquired, learning under the same condition does not have to be performed.
  • the robot 1 drives each actuator by adjusting the amount of electric power supplied to each actuator based on the drive parameter, and can perform a stable walking motion.
  • the robot 1 can perform not only walking but also motor functions such as jumping and standing on rear legs by learning.
  • FIG. 2 shows the robot 1 in which the dog head part 4 is replaced with a giraffe head part 4a.
  • the user replaces only the head part and not the leg part. Since the giraffe head part 4a is higher than the dog head part 4, the position of the center of gravity of the stable posture of the robot 1 changes. Therefore, the robot 1 cannot use the drive parameters learned as the dog robot shown in FIG. 1, and it is necessary to control each actuator by another drive parameter. At this time, if there is no result of learning with the giraffe head part 4a attached, the robot 1 learns the motor function with the head part 4a and leg parts 3 attached, and sets new driving parameters. Need to get
  • FIG. 3 shows functional blocks of the robot 1.
  • the body part 2, which is a basic part, and the leg part 3 and the head part 4, which are part parts, are connected so as to send and receive signals by wire communication or wireless communication. It is preferable that the body part 2, the leg part 3 and the head part 4 are connected so as to be hot-swappable.
  • the body part 2 includes a main controller 10 and a drive controller 20.
  • the main control unit 10 includes an information processing unit 11, an NFC block 12, an attribute information holding unit 13, and a speaker 14, and a drive control unit 20 includes a drive processing unit 21, a machine learning unit 22, a drive parameter holding unit 23, and an actuator. 24, a sensor 25, and a specification information holding unit 26.
  • the attribute information holding unit 13 includes information for identifying the body part 2, specifically, a maker ID, a body part ID, a model number, and a serial number of the body part 2.
  • the part ID is information for identifying the body part.
  • the sensor 25 is a sensor for detecting the movement of the body part 2, and includes a rotation angle sensor and a motion sensor.
  • the right front leg 3a which is the leg part 3, includes a control unit 31, an actuator 32, a sensor 33, and an attribute information holding unit 34.
  • the other left front leg 3b, the right rear leg 3c, and the left rear leg 3d similarly include the control unit 31, the actuator 32, the sensor 33, and the attribute information holding unit 34.
  • the attribute information holding unit 34 includes information for identifying the leg parts 3, specifically, a maker ID, a part ID, a model number, and a serial number of the leg parts 3.
  • the part ID is information for identifying which leg, that is, the right front leg, the left front leg, the right rear leg, or the left rear leg.
  • the sensor 33 is a sensor for detecting the movement of the leg parts 3, and includes a rotation angle sensor and a motion sensor.
  • the sensor 33 may include a sensor that detects attachment/detachment to/from the body part 2.
  • the head part 4 includes a control unit 41, an actuator 42, a sensor 43, and an attribute information holding unit 44.
  • the attribute information holding unit 44 includes information for identifying the head part 4, specifically, a maker ID, a part ID, a model number, and a serial number of the head part 4.
  • the part ID is information identifying a head part.
  • the sensor 43 is a sensor for detecting the movement of the head part 4, and includes a rotation angle sensor and a motion sensor.
  • the sensor 43 may include a sensor that detects attachment/detachment to/from the body part 2.
  • the main control unit 10 and the drive control unit 20 in the body part 2, the control unit 31 in the leg part 3, and the control unit 41 in the head part 4 are configured by an integrated circuit block, a memory, and other LSIs in terms of hardware. And can be realized in terms of software by a program loaded in the memory. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by only hardware, only software, or a combination thereof, and the present invention is not limited to them.
  • the main control unit 10 and the drive control unit 20 are configured by CPUs provided on different circuit boards, but in another example, they may be configured on the same circuit board.
  • the information processing unit 11 acquires the part identification information from each attached part.
  • the control unit 31 reads out the part identification information from the attribute information holding unit 34, respectively. It is transmitted to the information processing unit 11.
  • the control unit 41 reads out the part identification information from the attribute information holding unit 44 and sends it to the information processing unit 11.
  • the information processing unit 11 supplies the acquired part identification information to the drive control unit 20.
  • the information processing unit 11 immediately obtains the part identification information from the attached part parts when the part parts are attached to the body part 2. For example, when detecting that the sensors 33 and 43 in each part part are attached to the body part 2, the control units 31 and 41 may transmit the part identification information to the information processing unit 11. The sensors 33 and 43 may detect attachment to the body part 2 when communication with the body part 2 becomes possible. Further, the information processing unit 11 may periodically inquire each part part of the part identification information, and the part part control units 31 and 41 may return the part identification information to the information processing unit 11. In this way, the information processing unit 11 acquires the part identification information of the plurality of site parts connected to the body part 2 and notifies the drive control unit 20 of the part identification information. Thereby, the drive control unit 20 grasps each part part connected to the body part 2.
  • the drive processing unit 21 drives the actuator 24, the actuator 32 in the leg part 3 and the actuator 42 in the head part 4 to control the movements of the body part 2, leg part 3 and head part 4.
  • the drive parameter holding unit 23 confirms whether the drive parameter is held for the combination of the notified plurality of part part identification information. ..
  • the drive parameter holding unit 23 holds a drive parameter for controlling the movement of each part part for a combination of a plurality of parts identification information.
  • the drive parameter temporally defines the state change of all actuators involved in the motor function.
  • the drive parameter may be a parameter that defines the amount of state change in each actuator (motor) according to the passage of time, or a parameter that can calculate an appropriate amount of state change in each actuator in real time.
  • the drive parameter may be acquired by the machine learning unit 22 learning a motor function for a combination of a plurality of body parts.
  • the specification information holding unit 26 holds the specification information regarding the drive mechanism for each part identification information.
  • the specification information is acquired from an external server, a USB memory, or the like and stored in the specification information holding unit 26.
  • the specification information includes the structure, type, and arrangement of actuators provided in the parts, and the movable range of each joint.
  • the machine learning unit 22 adjusts the drive current of the motor by the drive processing unit 21, the control unit 31, and the control unit 41 based on the specification information to learn the motor function.
  • the machine learning unit 22 may learn the motor function using any type of learning algorithm.
  • the machine learning unit 22 may start learning a basic motor function such as walking when the user selects “learning mode” as the operation mode of the robot 1.
  • An end condition may be set for the learning, and for example, learning of the “walking” motion may be ended if the user can walk a predetermined distance within a predetermined time.
  • the machine learning unit 22 carries out learning of the motor function
  • the drive parameter as the learned result is stored in the drive parameter holding unit 23 for the combination of the part identification information of the leg part 3 and the head part 4. Accordingly, the drive parameter holding unit 23 holds the drive parameter when the robot 1 has the shape of a puppy in association with the combination of the identification information of the leg part 3 and the identification information of the head part 4.
  • the part identification information of the body part 2 may be added as one of the combinations.
  • the machine learning unit 22 carries out learning of the motor function when the motor function is unlearned,
  • the drive parameter as the learned result is stored in the drive parameter holding unit 23 for the combination of the part identification information of the leg part 3 and the head part 4a.
  • the part identification information of the body part 2 may be added as one of the combinations.
  • the drive parameter holding unit 23 holds the drive parameters of the robot 1 having the giraffe head and the puppy leg.
  • the drive parameter holding unit 23 holds the drive parameter for the combination of the notified part part identification information.
  • the drive processing unit 21 reads the corresponding drive parameter from the drive parameter holding unit 23 and drives at least one of the actuators 24, 32, and 42.
  • the drive processing unit 21 controls the movement of at least one body part in a control mode associated with the part identification information of the body part, and thus is suitable even when the body part is changed.
  • the robot 1 can be moved.
  • the machine learning unit 22 automatically starts the learning of the motor function.
  • the user may start learning the motor function by selecting the “learning mode”.
  • the information processing unit 11 may acquire the drive parameter associated with the notified combination of the plurality of pieces of part identification information from the external server.
  • the information processing unit 11 reads the part identification information from the attribute information holding unit 13, notifies the external server of the combination of the part identification information of the body part 2 and the part part identification information, and the external server notifies the part identification information.
  • the drive parameter associated with the combination of is acquired from the external server.
  • each part transmits sensor detection information (sensor information) to the information processing unit 11.
  • the control unit 31 transmits the sensor information to the information processing unit 11, and in the head part 4, the control unit 41 transmits the sensor information to the information processing unit 11.
  • the sensor information may be a rotation angle of a motor in the actuators 32 and 42 or a motion sensor value.
  • the information processing unit 11 transfers the received sensor information to the drive processing unit 21.
  • the drive processing unit 21 also performs feedback control so that the behavior of the robot 1 follows the behavior defined by the drive parameter, by taking the sensor information of the sensor 25 into consideration.
  • FIG. 4 shows a data format of sensor information transmitted from the part parts.
  • the data format includes a header, sensor information, and part ID (part identification information).
  • the part ID includes at least a maker ID, a part ID, a model number, and a serial number.
  • the information processing unit 11 transfers the received sensor information to the drive processing unit 21.
  • the drive processing unit 21 can identify the transmission source of the sensor information from the part ID by acquiring the sensor information in the data format shown in FIG. Thereby, the drive processing unit 21 can perform appropriate feedback control.
  • the robot 1 provides a mechanism capable of hot plugging and unplugging the part parts without turning off the power
  • the part ID is transmitted together with the sensor information, and the drive processing unit 21 changes the part parts. It can be recognized from the part ID attached to the sensor information, and the control mode can be promptly changed.
  • the drive processing unit 21 controls the movement of the part parts in a control mode according to the attached part parts. That is, in the embodiment, the drive processing unit 21 determines the drive parameter of the motor function according to the part parts, and realizes the proper movement of the robot 1. In the modification, the information processing unit 11 changes the state parameter value that defines the character and the like of the robot 1 with the replacement of the part parts.
  • the information processing unit 11 may change state parameter values such as the character of the robot 1 depending on whether the puppy head part 4 is attached or the giraffe head part 4a is attached.
  • the information processing unit 11 has a function of detecting a surrounding condition from information input from a camera, a microphone (not shown), or the like, and notifying the drive processing unit 21 of the surrounding condition.
  • the changed parameter value may be notified to the drive processing unit 21.
  • the drive processing unit 21 has a function of determining and operating the autonomous action of the robot 1 according to the notified surrounding situation. In a modification, the drive processing unit 21 may determine the autonomous action of the robot 1 according to the notified state parameter value.
  • the information processing unit 11 sets a parameter value indicating an obedient personality, while when the giraffe head part 4a is attached, a parameter value indicating an aggressive personality is set. To do.
  • the drive processing unit 21 is notified of the parameter value indicating the obedient personality, the drive processing unit 21 causes the robot 1 to take an autonomous action to snuggle up to the user, and is notified of the parameter value indicating the aggressive personality to the user. You may let them take offensive autonomous actions that make you hit yourself. Further, when the robot 1 can speak a human word from the speaker 14, the information processing unit 11 may change the tone according to the parameter value indicating the character.
  • the leg parts 3 and the head parts 4 are of two types, but further subdivided leg parts may be prepared.
  • the basic part is the body part 2, but in a modified example, the basic part may be the leg part 3 or the head part 4.
  • the user may change the appearance of the robot 1 by changing the exterior of the robot 1 or putting on clothes.
  • an NFC (Near Field Communication) tag is provided on the exterior member and clothes, and the NFC block 12, which is a reader module for short-range wireless communication, acquires the part identification information from the NFC tag, and the information processing unit. Supply to 11.
  • the information processing unit 11 may read the specification information from the specification information holding unit 26 to specify the specification of the part part and update the state parameter value, for example.
  • the present invention can be used in the field of robots.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

ロボット1は、基礎パーツと複数の部位パーツとを備え、部位パーツは、基礎パーツに着脱可能に構成される。基礎パーツは、複数の部位パーツを識別するパーツ識別情報を取得する情報処理部11と、情報処理部11が取得したパーツ識別情報に対応付けられた制御態様で、少なくとも1つの部位パーツの動きを制御する駆動処理部21とを有する。

Description

ロボット
 本発明はロボットに関し、特に複数のパーツを組み合わせることで形成されるロボットに関する。
 特許文献1は、路面状況や歩行状態などから適切な足部を選択して、自律的に足部の交換作業を行い、交換した足部で定まる条件下で適当な歩行動作パターンを決定する脚式移動ロボットを開示する。
特開2001-347476号公報
 ロボットの機能は日々進化している。四足歩行タイプのペット型ロボットが市販モデルとしては主流であるが、近年ではダンスなど様々な動作を行うことのできる人型ロボットも流通している。計算機の処理能力の向上および学習モデルの改良によって、ディープラーニングが実用化されていることから、ロボットにAI(artificial intelligence:人工知能)を搭載して、ロボットが既存機能の向上や新たな機能の獲得を学習により実現できるようになることが期待されている。
 家庭用ロボットの販売価格は下がってはいるものの、1人のユーザが何台も購入するレベルまで安価ではないため、通常、ユーザが所持するロボットは1台である。そのため時間がたつと、ユーザは、ロボットの自律行動パターンを大体把握できるようになり、新鮮さを欠く。本開示者は、ユーザがロボットとの触れ合いを楽しめるように、ロボットのエンタテイメント性を向上する仕組みを考案した。
 本発明はこうした課題に鑑みてなされたものであり、その目的は、ロボットのエンタテイメント性を向上する技術を提供することにある。
 上記課題を解決するために、本発明のある態様のロボットは、基礎パーツと、複数の部位パーツとを備え、部位パーツは、基礎パーツに着脱可能に構成されており、基礎パーツは、複数の部位パーツを識別するパーツ識別情報を取得する情報処理部と、情報処理部が取得したパーツ識別情報に対応付けられた制御態様で、少なくとも1つの部位パーツの動きを制御する駆動処理部と、を有する。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを読み取り可能に記録した記録媒体、データ構造などの間で変換したものもまた、本発明の態様として有効である。
実施例のロボットの外観構成を示す図である。 頭パーツを交換したロボットの外観構成を示す図である。 ロボットの機能ブロックを示す図である。 センサ情報のデータフォーマットを示す図である。
 図1は、実施例のロボット1の外観構成の一例を示す。ロボット1はペット型ロボットであり、自律行動機能をもつ。ロボット1は複数のパーツを組み合わせて形成され、図1に示す例では子犬を模した外観を有している。
 実施例のロボット1は、基礎パーツと、複数の部位パーツとを備え、部位パーツは基礎パーツに着脱可能に構成される。ユーザが基礎パーツに部位パーツを取り付けることで、1体のロボット1が形成される。基礎パーツ、部位パーツのそれぞれに電子部品を含む回路基板やアクチュエータ、センサ等が搭載されているが、部位パーツを基礎パーツに着脱する際、電源を切らずに活線状態で着脱可能であることが好ましい。実施例において基礎パーツは胴体パーツ2であり、部位パーツを取り付けられた状態のロボット1の動作を制御するためのプロセッサを搭載される。部位パーツは、ロボット1の各部位を構成するパーツであり、ロボット1の移動機能を実現する脚パーツ3、ロボット1の頭部を構成する頭パーツ4を含む。
 ロボット1は、右前脚3a、左前脚3b、右後脚3c、左後脚3dの4つの脚パーツ3を有し、それぞれが胴体パーツ2に回動可能に連結される。脚パーツ3のそれぞれは、犬と同様の動きを実現するために、4軸以上の自由度をもってよい。頭パーツ4は、首部分で胴体パーツ2に回動可能に連結される。胴体パーツ2、脚パーツ3および頭パーツ4には、ロボット1が歩行などの運動機能を実現するためのアクチュエータおよびセンサが設けられる。アクチュエータは、関節部分に配置されるモータと、モータ間を連結するリンク機構とを少なくとも含む。
 ユーザは、胴体パーツ2に対して部位パーツを連結することで、所望のロボット1を作り上げることができる。ユーザは、複数種類の頭パーツ4、複数種類の脚パーツ3を所有して、胴体パーツ2に自由に付け替えてよい。たとえばユーザは、図1に示す犬型ロボットを最初に購入し、その後、オプションとして販売されている部位パーツを購入する。オプション販売されている部位パーツには、たとえば猫の頭部分および首部分を模した形状を有する頭パーツ、キリンの頭部分および首部分を模した形状を有する頭パーツ、馬の脚部を模した形状を有する脚パーツ、などがあってよい。実在の動物だけでなく、空想の動物の部位パーツが販売されていてもよい。ユーザは、基礎パーツである胴体パーツ2に、様々な部位パーツを取り付けることができ、ユーザ独自のロボット1を形成できる。
 ロボット1は学習により、基本的な運動機能を取得できる。たとえばロボット1は「歩く」という運動機能を、実際にアクチュエータを動かすことで学習して覚える。うまく歩行できるようになったときの学習結果は、各種アクチュエータの制御態様を示す駆動パラメータとして記憶される。駆動パラメータは、運動機能を担当する全てのアクチュエータの状態変化を時間的に規定したものであり、駆動パラメータが取得された後は、同じ条件下における学習は行わなくてよい。学習後のロボット1は、駆動パラメータから、各アクチュエータに供給する電力量を調整して各アクチュエータを駆動し、安定した歩行動作を行える。なおロボット1は、歩行に限らず、ジャンプ、後脚立ちなどの運動機能も学習により実行できるようになる。
 図2は、犬の頭パーツ4を、キリンの頭パーツ4aに交換したロボット1を示す。図2に示す例でユーザは頭パーツのみを交換し、脚パーツは交換していない。キリンの頭パーツ4aは、犬の頭パーツ4と比べて高さがあるため、ロボット1における安定姿勢の重心位置は変化する。そのためロボット1は、図1に示す犬ロボットとして学習したときの駆動パラメータを使うことはできず、別の駆動パラメータにより各アクチュエータを制御する必要がある。このときキリンの頭パーツ4aを取り付けた状態で学習した結果が存在していなければ、ロボット1は、頭パーツ4aおよび脚パーツ3が取り付けられた状態で、運動機能を学習して、新しい駆動パラメータを取得する必要がある。
 図3は、ロボット1の機能ブロックを示す。基礎パーツである胴体パーツ2と、部位パーツである脚パーツ3および頭パーツ4との間は、有線通信または無線通信で信号送受するように接続される。なお胴体パーツ2と、脚パーツ3および頭パーツ4の間は、活線抜挿可能に接続されていることが好ましい。
 胴体パーツ2は、メイン制御部10および駆動制御部20を備える。メイン制御部10は、情報処理部11、NFCブロック12、属性情報保持部13およびスピーカ14を有し、駆動制御部20は、駆動処理部21、機械学習部22、駆動パラメータ保持部23、アクチュエータ24、センサ25および仕様情報保持部26を有する。属性情報保持部13は、胴体パーツ2を識別するための情報、具体的には胴体パーツ2のメーカID、部位ID、型番、シリアル番号を含む。ここで部位IDは、胴体パーツであることを識別する情報である。センサ25は、胴体パーツ2の動きを検出するためのセンサであって、回転角センサ、モーションセンサを含む。
 脚パーツ3である右前脚3aは、制御部31、アクチュエータ32、センサ33および属性情報保持部34を備える。他の左前脚3b、右後脚3c、左後脚3dも、同様に、制御部31、アクチュエータ32、センサ33および属性情報保持部34を備える。属性情報保持部34は、脚パーツ3を識別するための情報、具体的には脚パーツ3のメーカID、部位ID、型番、シリアル番号を含む。部位IDは、どの脚部であるか、つまり右前脚、左前脚、右後脚、左後脚のいずれであるかを識別する情報である。センサ33は、脚パーツ3の動きを検出するためのセンサであって、回転角センサ、モーションセンサを含む。センサ33は、胴体パーツ2への脱着を検出するセンサを含んでもよい。
 頭パーツ4は、制御部41、アクチュエータ42、センサ43および属性情報保持部44を備える。属性情報保持部44は、頭パーツ4を識別するための情報、具体的には頭パーツ4のメーカID、部位ID、型番、シリアル番号を含む。部位IDは、頭パーツであることを識別する情報である。センサ43は、頭パーツ4の動きを検出するためのセンサであって、回転角センサ、モーションセンサを含む。センサ43は、胴体パーツ2への脱着を検出するセンサを含んでもよい。
 胴体パーツ2におけるメイン制御部10および駆動制御部20、脚パーツ3における制御部31、頭パーツ4における制御部41は、ハードウェア的には、集積回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。実施例において、メイン制御部10と駆動制御部20とは、別の回路基板上に設けられたCPUにより構成されるが、別の例では、同じ回路基板上に構成されてもよい。
 メイン制御部10において、情報処理部11は、取り付けられた各パーツから、パーツ識別情報を取得する。脚パーツ3である右前脚3a、左前脚3b、右後脚3c、左後脚3dが、胴体パーツ2に取り付けられると、それぞれ制御部31が属性情報保持部34からパーツ識別情報を読み出して、情報処理部11に送信する。同じく、頭パーツ4が胴体パーツ2に取り付けられると、制御部41が属性情報保持部44からパーツ識別情報を読み出して、情報処理部11に送信する。情報処理部11は、取得したパーツ識別情報を、駆動制御部20に供給する。
 部位パーツが胴体パーツ2に取り付けられると、すぐに情報処理部11が、取り付けられた部位パーツからパーツ識別情報を取得することが好ましい。たとえば、各部位パーツにおけるセンサ33、43が胴体パーツ2に取り付けられたことを検出すると、制御部31、41が、パーツ識別情報を情報処理部11に送信してよい。センサ33、43は、胴体パーツ2との間で通信可能となったときに、胴体パーツ2に取り付けられたことを検出してよい。また情報処理部11は、定期的に各部位パーツにパーツ識別情報を問い合わせ、部位パーツの制御部31、41がパーツ識別情報を情報処理部11に返信してもよい。このように情報処理部11は、胴体パーツ2に接続されている複数の部位パーツのパーツ識別情報を取得し、駆動制御部20に通知する。これにより駆動制御部20は、胴体パーツ2に接続している各部位パーツを把握する。
 駆動処理部21は、アクチュエータ24、脚パーツ3におけるアクチュエータ32および頭パーツ4におけるアクチュエータ42を駆動して、胴体パーツ2、脚パーツ3、頭パーツ4の動きを制御する。駆動処理部21は、各部位パーツのパーツ識別情報を通知されると、駆動パラメータ保持部23に、通知された複数の部位パーツ識別情報の組合せに対して、駆動パラメータが保持されているか確認する。
 駆動パラメータ保持部23は、複数のパーツ識別情報の組合せに対して、各部位パーツの動きを制御するための駆動パラメータを保持する。駆動パラメータは、運動機能に関与する全てのアクチュエータの状態変化を時間的に規定する。具体的に駆動パラメータは、時間の経過に応じた各アクチュエータ(モータ)における状態変化量を規定するパラメータであってよく、または各アクチュエータにおける適切な状態変化量をリアルタイムで算出可能なパラメータであってよい。駆動パラメータは、複数の部位パーツの組合せに対して、機械学習部22が運動機能を学習することで取得されてよい。
 仕様情報保持部26は、パーツ識別情報ごとに、駆動機構に関する仕様情報を保持する。仕様情報は、外部サーバや、USBメモリなどから取得されて、仕様情報保持部26に記憶される。仕様情報は、パーツに設けられているアクチュエータの構造、種類、配置や、各関節の可動範囲を含む。機械学習部22は仕様情報をもとに、駆動処理部21、制御部31、制御部41によるモータの駆動電流を調節して、運動機能を学習する。機械学習部22は、任意の種類の学習アルゴリズムで運動機能を学習してよい。
 機械学習部22は、たとえばユーザがロボット1の動作モードとして「学習モード」を選択したときに、歩行などの基本的な運動機能の学習を開始してよい。学習には終了条件が定められていてよく、たとえば「歩行」動作の学習は、所定距離を所定時間内に歩行できるようになれば、終了してよい。
 図1に示す部位パーツ、つまり子犬の脚パーツ3、子犬の頭パーツ4が胴体パーツ2に取り付けられると、運動機能が未学習の場合に、機械学習部22は運動機能の学習を実施し、学習した結果である駆動パラメータを、脚パーツ3、頭パーツ4のパーツ識別情報の組合せに対して、駆動パラメータ保持部23に記憶する。これにより駆動パラメータ保持部23は、脚パーツ3の識別情報、頭パーツ4の識別情報の組合せに対応付けて、ロボット1が子犬の形状をしたときの駆動パラメータを保持する。このとき胴体パーツ2のパーツ識別情報も、組合せの1つとして追加してよい。
 図2に示す部位パーツ、つまり子犬の脚パーツ3、キリンの頭パーツ4aが胴体パーツ2に取り付けられると、運動機能が未学習の場合に、機械学習部22は運動機能の学習を実施し、学習した結果である駆動パラメータを、脚パーツ3、頭パーツ4aのパーツ識別情報の組合せに対して、駆動パラメータ保持部23に記憶する。このとき胴体パーツ2のパーツ識別情報も、組合せの1つとして追加してよい。これにより駆動パラメータ保持部23は、キリンの頭と子犬の脚をもつロボット1の駆動パラメータを保持する。
 駆動処理部21は、接続された各部位パーツのパーツ識別情報を通知されると、駆動パラメータ保持部23に、通知された複数の部位パーツ識別情報の組合せに対して、駆動パラメータが保持されているか確認する。駆動パラメータが保持されている場合、駆動処理部21は、駆動パラメータ保持部23から該当する駆動パラメータを読み出して、アクチュエータ24、32、42の少なくとも1つを駆動する。このように駆動処理部21は、部位パーツのパーツ識別情報に対応付けられた制御態様で、少なくとも1つの部位パーツの動きを制御することで、部位パーツが変更された場合であっても、好適にロボット1を動かすことができる。
 情報処理部11から通知された複数のパーツ識別情報の組合せに対して駆動パラメータ保持部23に駆動パラメータが保持されていなければ、機械学習部22が、自動的に運動機能の学習を開始してもよく、上記したようにユーザが「学習モード」を選択することで、運動機能の学習を開始してもよい。なお駆動制御部20が機械学習機能を有しない場合、情報処理部11は、通知された複数のパーツ識別情報の組合せに対応付けられた駆動パラメータを、外部サーバから取得してもよい。このとき情報処理部11は、属性情報保持部13からパーツ識別情報を読み出して、胴体パーツ2のパーツ識別情報と、部位パーツ識別情報の組合せを外部サーバに通知し、外部サーバから、パーツ識別情報の組合せに対応付けられている駆動パラメータを、外部サーバから取得する。
 駆動処理部21による制御中、各パーツは、情報処理部11にセンサの検出情報(センサ情報)を送信する。脚パーツ3において、制御部31がセンサ情報を情報処理部11に送信し、頭パーツ4において、制御部41がセンサ情報を情報処理部11に送信する。センサ情報は、アクチュエータ32、42におけるモータの回転角や、モーションセンサ値であってよい。情報処理部11は、受信したセンサ情報を、駆動処理部21に転送する。駆動処理部21は、センサ25のセンサ情報も加味して、ロボット1の挙動が駆動パラメータにより規定される挙動に追従するようにフィードバック制御を実施する。
 図4は、部位パーツから送信されるセンサ情報のデータフォーマットを示す。データフォーマットには、ヘッダ、センサ情報、パーツID(パーツ識別情報)が含まれる。パーツIDは、メーカID、部位ID、型番、シリアル番号を少なくとも含む。情報処理部11は、受信したセンサ情報を、駆動処理部21に転送する。
 駆動処理部21は、図4に示すデータフォーマットでセンサ情報を取得することで、センサ情報の送信元をパーツIDから特定できる。これにより駆動処理部21は、適切なフィードバック制御を実施できる。特にロボット1が、電源を切らずに部位パーツを活線抜挿可能な仕組みを提供している場合、センサ情報とともにパーツIDが送信されることで、駆動処理部21は、部位パーツに変更があったことをセンサ情報に付随するパーツIDから認識でき、対応する制御態様に速やかに変更できる。
 以上、本発明を実施例をもとに説明した。実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。実施例では、ロボット1がペット型ロボットである場合について説明したが、人型ロボットであってもよい。
 実施例では、駆動処理部21が、取り付けられている部位パーツに応じた制御態様で、部位パーツの動きを制御することを説明した。つまり実施例では、駆動処理部21が部位パーツに応じて運動機能の駆動パラメータを決定し、ロボット1の適切な動きを実現可能とした。変形例では部位パーツの交換にともない、情報処理部11が、ロボット1の性格等を規定する状態パラメータ値を変更する。
 たとえば子犬の頭パーツ4が取り付けられたときと、キリンの頭パーツ4aが取り付けられたときとで、情報処理部11は、ロボット1の性格などの状態パラメータ値を異ならせてよい。情報処理部11は、カメラやマイク(図示せず)などから入力される情報から、周囲の状況を検知して、駆動処理部21に通知する機能をもつが、変形例では、検知した状況に加えて、変更したパラメータ値を駆動処理部21に通知してよい。
 駆動処理部21は、通知された周囲の状況に応じてロボット1の自律行動を決定し、動作させる機能をもつ。変形例で駆動処理部21は、さらに通知された状態パラメータ値に応じて、ロボット1の自律行動を決定してよい。情報処理部11は、子犬の頭パーツ4が取り付けられると、従順な性格を示すパラメータ値を設定し、一方で、キリンの頭パーツ4aが取り付けられると、攻撃的な性格を示すパラメータ値を設定する。駆動処理部21は、従順な性格を示すパラメータ値を通知されると、ロボット1にユーザに寄り添うような自律行動をとらせ、攻撃的な性格を示すパラメータ値を通知されると、ユーザに対してぶつかりにいくような攻撃的な自律行動をとらせてよい。またロボット1がスピーカ14から人間の言葉を話せる場合には、情報処理部11が、性格を示すパラメータ値に応じて口調を異ならせてもよい。
 このようにユーザは、部位パーツを交換することで、新しいロボット1に出会うことができ、ロボット1のエンターテイメント性を向上できる。また実施例では、部位パーツが脚パーツ3、頭パーツ4の2種類としたが、さらに細分化された部位パーツが用意されてもよい。また実施例では、基礎パーツが胴体パーツ2であるとしたが、変形例では、基礎パーツが脚パーツ3または頭パーツ4であってもよい。
 なおロボット1の外装を変更したり、服を着させて、ユーザがロボット1の外観を変更できてもよい。このとき外装部材や服には、NFC(Near Field Communication)タグが設けられ、近距離無線通信用のリーダモジュールであるNFCブロック12は、NFCタグから、パーツ識別情報を取得して、情報処理部11に供給する。情報処理部11は、パーツ識別情報を取得すると、仕様情報保持部26から仕様情報を読み出して、部位パーツの仕様を特定し、たとえば状態パラメータ値を更新してもよい。
1・・・ロボット、2・・・胴体パーツ、3・・・脚パーツ、4,4a・・・頭パーツ、10・・・メイン制御部、11・・・情報処理部、12・・・NFCブロック、13・・・属性情報保持部、14・・・スピーカ、20・・・駆動制御部、21・・・駆動処理部、22・・・機械学習部、23・・・駆動パラメータ保持部、24・・・アクチュエータ、25・・・センサ、26・・・仕様情報保持部、31・・・制御部、32・・・アクチュエータ、33・・・センサ、34・・・属性情報保持部、41・・・制御部、42・・・アクチュエータ、43・・・センサ、44・・・属性情報保持部。
 本発明は、ロボット分野に利用できる。

Claims (6)

  1.  基礎パーツと、複数の部位パーツとを備えたロボットであって、前記部位パーツは、前記基礎パーツに着脱可能に構成されており、
     前記基礎パーツは、
     複数の前記部位パーツを識別するパーツ識別情報を取得する情報処理部と、
     前記情報処理部が取得したパーツ識別情報に対応付けられた制御態様で、少なくとも1つの前記部位パーツの動きを制御する駆動処理部と、を有する、
     ことを特徴とするロボット。
  2.  前記部位パーツは、当該ロボットの移動機能を実現する脚パーツを含む、
     ことを特徴とする請求項1に記載のロボット。
  3.  前記部位パーツは、当該ロボットの頭部を構成する頭パーツを含む、
     ことを特徴とする請求項1または2に記載のロボット。
  4.  前記基礎パーツは、当該ロボットの銅体部として構成される、
     ことを特徴とする請求項1から3のいずれかに記載のロボット。
  5.  複数のパーツ識別情報の組合せに対して、前記部位パーツの動きを制御するための駆動パラメータを保持する保持部をさらに備え、
     前記情報処理部が、複数の前記部位パーツを識別するパーツ識別情報を取得すると、前記駆動処理部が、複数のパーツ識別情報に組合せに対して保持されている駆動パラメータを前記保持部から読み出して、前記部位パーツの動きを制御する、
     ことを特徴とする請求項1から4のいずれかに記載のロボット。
  6.  前記部位パーツは、センサの検出情報を、パーツ識別情報とともに送信する、
     ことを特徴とする請求項1から5のいずれかに記載のロボット。
PCT/JP2019/002418 2019-01-25 2019-01-25 ロボット WO2020152838A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/424,033 US11833441B2 (en) 2019-01-25 2019-01-25 Robot
JP2020567326A JP7171767B2 (ja) 2019-01-25 2019-01-25 ロボット
PCT/JP2019/002418 WO2020152838A1 (ja) 2019-01-25 2019-01-25 ロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/002418 WO2020152838A1 (ja) 2019-01-25 2019-01-25 ロボット

Publications (1)

Publication Number Publication Date
WO2020152838A1 true WO2020152838A1 (ja) 2020-07-30

Family

ID=71736741

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/002418 WO2020152838A1 (ja) 2019-01-25 2019-01-25 ロボット

Country Status (3)

Country Link
US (1) US11833441B2 (ja)
JP (1) JP7171767B2 (ja)
WO (1) WO2020152838A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD970650S1 (en) * 2022-01-23 2022-11-22 Zhaofeng Chen Toy dog

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11156765A (ja) * 1997-11-30 1999-06-15 Sony Corp ロボツト装置
JP2003233502A (ja) * 1999-01-13 2003-08-22 Sony Corp 演算処理装置及びオブジェクト間通信の管理方法
US20150258435A1 (en) * 2014-03-11 2015-09-17 Microsoft Corporation Modular construction for interacting with software
US20160151909A1 (en) * 2014-12-01 2016-06-02 Spin Master Inc. Reconfigurable robotic system

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6290565B1 (en) * 1999-07-21 2001-09-18 Nearlife, Inc. Interactive game apparatus with game play controlled by user-modifiable toy
JP2001347476A (ja) 2000-06-05 2001-12-18 Sony Corp 脚式移動ロボット
MXPA05001622A (es) * 2002-08-15 2005-12-12 Mattel Inc Juguete que altera caracteristicas.
RU2475290C1 (ru) * 2010-11-17 2013-02-20 Общество С Ограниченной Ответственностью "Айтэм Мультимедиа" Устройство для игр
US9320980B2 (en) * 2011-10-31 2016-04-26 Modular Robotics Incorporated Modular kinematic construction kit
EP2862604B1 (en) * 2012-06-05 2018-05-02 Sony Corporation Information processing device, information processing method, program and toy system
US11369864B2 (en) * 2012-12-20 2022-06-28 Activision Publishing, Inc. Interactive video game with toys having in interchangeable parts
US9555326B2 (en) * 2014-03-11 2017-01-31 Microsoft Technology Licensing, Llc Gaming system for modular toys
US9526979B2 (en) * 2014-03-11 2016-12-27 Microsoft Technology Licensing, Llc Storing state for physical modular toys
US9901827B2 (en) * 2015-01-06 2018-02-27 Spin Master Ltd. Methods and system relating to physical constructions and virtual representations
JP2018534953A (ja) * 2015-09-09 2018-11-29 リーチ ロボティックス リミテッドReach Robotics Limited ゲームロボット
JP2018528002A (ja) * 2015-09-09 2018-09-27 リーチ ロボティックス リミテッドReach Robotics Limited モジュラーロボットの接続システム
EP3400081B1 (en) * 2016-01-06 2019-12-18 Evollve, Inc. Robot having a changeable character
CN109328096B (zh) * 2016-06-30 2021-01-15 索尼公司 信息处理设备、信息处理方法和程序

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11156765A (ja) * 1997-11-30 1999-06-15 Sony Corp ロボツト装置
JP2003233502A (ja) * 1999-01-13 2003-08-22 Sony Corp 演算処理装置及びオブジェクト間通信の管理方法
US20150258435A1 (en) * 2014-03-11 2015-09-17 Microsoft Corporation Modular construction for interacting with software
US20160151909A1 (en) * 2014-12-01 2016-06-02 Spin Master Inc. Reconfigurable robotic system

Also Published As

Publication number Publication date
US20220096944A1 (en) 2022-03-31
JPWO2020152838A1 (ja) 2021-12-02
US11833441B2 (en) 2023-12-05
JP7171767B2 (ja) 2022-11-15

Similar Documents

Publication Publication Date Title
US6816753B2 (en) Robot control system and robot control method
US6764373B1 (en) Charging system for mobile robot, method for searching charging station, mobile robot, connector, and electrical connection structure
US6760648B2 (en) Robot control system and method for introducing robot control software
US6505098B1 (en) Robot system, robot device, and its cover
US6381515B1 (en) Robot apparatus
JP2001121455A (ja) 移動ロボットのための充電システム及び充電制御方法、充電ステーション、移動ロボット及びその制御方法
JP2003225875A (ja) ペット型ロボットおよびペット型ロボットの育成支援システム
US20170064926A1 (en) Interactive pet robot and related methods and devices
CN105652738A (zh) 可重新配置的机器人系统
JP2001038663A (ja) マシンの制御システム
JP2001191275A (ja) ロボット・システム、外装及びロボット装置
CN110297488A (zh) 自主移动装置、自主移动装置的控制方法以及存储介质
WO2020152838A1 (ja) ロボット
JP2003071773A (ja) ロボット装置
JP2001236585A (ja) 移動ロボット及び移動ロボットのための盗難防止方法
JP2002059384A (ja) ロボットのための学習システム及び学習方法
JP2004130427A (ja) ロボット装置及びロボット装置の動作制御方法
JP4649806B2 (ja) ロボット装置及びロボット装置の衝撃吸収方法
JP2004255529A (ja) ロボット装置およびロボット装置の制御方法、並びにロボット装置移動制御システム
JP2003136439A (ja) ロボット装置及びロボット装置の歩行制御方法並びにロボット装置の歩行制御プログラム
JP2003071765A (ja) ロボット装置及びロボット装置の入力方法
JP2003071756A (ja) ロボット装置
JP2004130426A (ja) ロボット装置及びその動作制御方法
JP2002116100A (ja) 接触検出センサ及び玩具
JP2004255528A (ja) ロボット装置及びロボット装置の制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19911551

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020567326

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19911551

Country of ref document: EP

Kind code of ref document: A1