WO2006013829A1 - 物品運搬用ロボット、物品運搬システム、及び物品運搬方法 - Google Patents

物品運搬用ロボット、物品運搬システム、及び物品運搬方法 Download PDF

Info

Publication number
WO2006013829A1
WO2006013829A1 PCT/JP2005/014052 JP2005014052W WO2006013829A1 WO 2006013829 A1 WO2006013829 A1 WO 2006013829A1 JP 2005014052 W JP2005014052 W JP 2005014052W WO 2006013829 A1 WO2006013829 A1 WO 2006013829A1
Authority
WO
WIPO (PCT)
Prior art keywords
article
transport
situation
robot
information
Prior art date
Application number
PCT/JP2005/014052
Other languages
English (en)
French (fr)
Inventor
Shusaku Okamoto
Osamu Yamada
Yoshihiko Matsukawa
Tomonobu Naruoka
Toru Tanigawa
Satoshi Sato
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to JP2006531465A priority Critical patent/JP3920317B2/ja
Publication of WO2006013829A1 publication Critical patent/WO2006013829A1/ja
Priority to US11/699,342 priority patent/US7269479B2/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels

Definitions

  • the present invention relates to an article carrying robot for carrying an article, an article carrying system, and an article carrying method.
  • Robots are effectively used in many fields by virtue of the function of gripping and transporting articles. For example, there are no examples of robots that grip and transport parts in an automated product assembly line in a factory, or robots that transport inventory in an automated warehouse.
  • tableware for example, a plate
  • the robot cleans up the dishes after eating.
  • Tableware after a meal can be in a variety of situations, such as “dirty” or “leftover”.
  • tableware without leftovers is transported to the dishwasher Dw, while tableware with leftovers is first dumped into the garbage, transported to the Gb, thrown away leftovers, and then the dishwasher. It is a work like transporting to Dw.
  • the present invention has been made in view of such circumstances, and an object of the present invention is to optimally transport an article in response to a change in the situation of the article.
  • An object is to provide an article carrying robot, an article carrying system, and an article carrying method that can be carried by the method.
  • the present invention is configured as follows.
  • an article carrying robot for carrying the article such that the article ID in the living space is the same and the carrying method is different depending on the condition of the article.
  • a situation recognition means for recognizing the situation of the article to be transported;
  • a transport device for transporting the transport target article is provided.
  • an instruction for transporting the article is output to a robot that carries the article such that the ID of the article in the living space is the same and the transportation method differs depending on the condition of the article.
  • a transport information database that stores transport information that correlates the status, transport method, and Z or transport location for each status of each article to be transported;
  • an article transport system that outputs a transport instruction to the robot based on the transport method specified by the transport method specifying means with reference to the transport information database.
  • an article carrying method for carrying the article by a robot such that the article ID in the living space is the same and the carrying method is different depending on the condition of the article. Recognize the status of goods being transported,
  • An article carrying method comprising: specifying a method for carrying the article according to the situation of the article for which the situation of the article is recognized, and carrying the article to be carried by the robot according to the specified carrying method.
  • the state of the article to be carried is recognized, and the article is specified after specifying the carrying method according to the recognition result.
  • the article For transportation, when the condition of an article changes, the article can be transported by an optimum transportation method according to the situation.
  • FIG. 1A is a block diagram showing an article carrying robot or an article carrying system according to one embodiment of the present invention
  • FIG. 1B is a block diagram showing the article carrying robot according to the embodiment of the present invention.
  • FIG. 1C is a block diagram showing an article transport system according to the embodiment of the present invention.
  • FIG. 1D is a block diagram showing another article transport system according to the embodiment of the present invention.
  • FIG. 2A is an explanatory view showing a configuration example of still another article transport system according to the above embodiment of the present invention.
  • FIG. 2B is a floor plan of a room as an example of a living environment in which an article is transported by the robot of the article transport system or the article transport robot according to the embodiment of the present invention
  • FIG. 2C is a block diagram of the article transport system of FIG. 2A.
  • FIG. 2D shows a room (book shelf, table Tb, and chair Ch as another example of a living environment in which goods are transported by the robot of the goods transport system or the goods transport robot according to the embodiment of the present invention. Is a perspective view of the room)
  • FIG. 2E is a floor plan of a room as still another example of a living environment in which an article is transported by the robot of the article transport system or the article transport robot according to the embodiment of the present invention
  • FIG. 2F is a block diagram of the article transport robot or the article transport system showing the situation recognition means in detail.
  • FIG. 2G shows a schematic diagram of the holding device for controlling the posture of the robot holding device
  • FIG. 2H is a block diagram showing a drive control system of an arbitrary drive unit such as a motor control type actuator of a moving device or a holding device
  • FIG. 21 is an explanatory diagram of a coordinate system set when controlling the posture.
  • Figure 2J is an explanatory diagram of an example of the actual environment of the environment map in the environment map database.
  • Figure 2K is a three-dimensional model of the actual environment in Figure 2J of the environment map in the environment map database. It is an explanatory diagram of a simplified environment map,
  • Fig. 2L is an explanatory diagram of the environment map that further simplifies the real environment of Fig. 2J in the environment map of the environment map database with a planar model.
  • FIG. 2M is a diagram showing an example of a table stored in the equipment database attached to the environment map.
  • FIG. 3A is a diagram showing an example of data (transportation data set for a dish) stored in the transport information database of the article transport system or the article transport mouth bot according to the embodiment of the present invention.
  • FIG. 3B is a diagram showing an example of data (transport data set for a cup) stored in the transport information database of the article transport system or the article transport mouth bot according to the embodiment of the present invention.
  • FIG. 3C shows data stored in the transportation information database of the article transportation system or article transportation mouth bot according to the above embodiment of the present invention (book transportation data set !, transportation data). It is a figure which shows an example,
  • FIG. 4A is a diagram showing another example of data (transport data set for a cup) stored in the transport information database of the article transport system or the article transport mouth bot according to the embodiment of the present invention.
  • Fig. 4B is a diagram showing another example of data accumulated in the transport information database of Fig. 4A (data including the transport speed of speed regulation 1).
  • Fig. 4C is a diagram showing another example of data accumulated in the transport information database of Fig. 4A (data including the transport speed of speed regulation 2).
  • Fig. 4D is a diagram showing another example of data accumulated in the transport information database of Fig. 4A (data including the transport speed of speed regulation 3).
  • FIG. 4E is a diagram for explaining a method for identifying a floor surface with respect to data stored in the transport information database of FIG. 4D.
  • FIG. 5 is a diagram showing still another example of data stored in the transportation information database of the article transportation system or the article transportation robot according to the embodiment of the present invention.
  • 6A is an explanatory diagram showing an example of the situation recognition means using the laser beam of the article carrying system or article carrying mouth bot according to the embodiment of the present invention,
  • FIG. 6B is an explanatory diagram showing an example of the situation recognition means using the laser beam of the article carrying system or the article carrying mouth bot according to the embodiment of the present invention
  • FIG. 7A is an explanatory diagram showing an example of a situation recognition means using a weight sensor and a tag reader in the article carrying system or the article carrying mouth bot according to the embodiment of the present invention
  • FIG. 7B is an explanatory view showing an example of a situation recognition means using a weight sensor and a tag reader in the article carrying system or the article carrying mouth bot according to the embodiment of the present invention
  • FIG. 7C is an explanatory view showing an example of a situation recognition means using a weight sensor and a tag reader in the article carrying system or the article carrying mouth bot according to the embodiment of the present invention
  • FIG. 7D is an explanatory view showing an example of a situation recognition means using a weight sensor and a tag reader in the article carrying system or the article carrying mouth bot according to the embodiment of the present invention
  • FIG. 7E is an explanatory view showing an example of a situation recognition means using a weight sensor and a tag reader in the article carrying system or the article carrying mouth bot according to the embodiment of the present invention
  • FIG. 7F is an explanatory view showing an example of a situation recognition means using a tag reader over the article carrying system or the article carrying port bot according to the embodiment of the present invention.
  • FIG. 8 is a schematic view illustrating the article transport system robot or article transport robot according to the embodiment of the present invention.
  • FIG. 9 is a flowchart showing an article carrying process of the article carrying system or the article carrying robot according to the embodiment of the present invention.
  • FIG. 10A is an article transportation system or article transportation according to the embodiment of the present invention. It is explanatory drawing explaining changing a conveyance method by the holding method of the cup which put water in the robot for water,
  • FIG. 10B is an explanatory diagram for explaining that the carrying method is changed by the method for holding the cup filled with water in the article carrying system or the article carrying robot according to the embodiment of the present invention.
  • FIG. 10C is a diagram showing an article information database when the carrying method is changed by the holding method of the cup filled with water in the article carrying system or the article carrying robot according to the embodiment of the present invention. Yes,
  • FIG. 10D is a diagram showing an article information database when the carrying method is changed depending on the temperature of water in the tea bowl in the article carrying system or the article carrying robot according to the embodiment of the present invention.
  • an article carrying robot for carrying the article such that the article ID in the living space is the same and the carrying method differs depending on the condition of the article.
  • a situation recognition means for recognizing the situation of goods to be transported;
  • a transport device for transporting the transport target article is provided.
  • the transport method further includes a transport information database for storing transport information in which each state of each article is associated with the state, the transport operation, and the Z or transport location.
  • the specifying means provides the article transport robot according to the first aspect, wherein the transport information corresponding to the condition of the article is specified by referring to the transport information database.
  • the transport information further includes information on the next status of the article that changes as a result of the transport of the article to the transport location by the transport device.
  • the transportation method specifying means responds to the next situation based on the information on the next situation included in the selected transportation information after selecting the transportation information corresponding to the situation of the recognized article. Select another transport information,
  • the transport device provides the article transport robot according to the second aspect, which further executes transport of the article according to the other transport information when the other transport information is selected.
  • the article to be transported has a function of placing or accommodating an object
  • the situation recognition means provides the article transport robot according to the first aspect, which recognizes the situation of force whether the article to be transported is placed or accommodated with an object.
  • the situation recognition means recognizes whether or not another article is loaded on the article to be transported.
  • a mouth bot for transportation is provided.
  • an instruction for transporting the article is output to a robot that transports the article such that the ID of the article in the living space is the same and the transportation method differs depending on the condition of the article.
  • a transport information database that stores transport information that correlates the status, transport method, and Z or transport location for each status of each article to be transported;
  • an article transport system that outputs a transport instruction to the robot based on the transport method specified by the transport method specifying means with reference to the transport information database.
  • an article transporting method in which the article is transported by a robot such that the ID of the article in the living space is the same and the transporting method differs depending on the condition of the article. Recognize the status of the goods to be transported,
  • An article carrying method comprising: specifying a method for carrying the article according to the situation of the article for which the situation of the article is recognized, and carrying the article to be carried by the robot according to the specified carrying method.
  • the article transport robot according to the first aspect, wherein the method for transporting the article differs depending on the condition of the article, and further the transport location is different. .
  • the apparatus further comprises a holding device for holding the article
  • the article transport robot according to the first aspect, which transports the article while holding the article by the holding device.
  • the article to be transported is tableware
  • the article transporting robot functions as a robot for cleaning dishes after eating, and the tableware is dirty.
  • the above tableware is dirty! / Cunning!
  • the article transport robot according to the first aspect in which the transport location and the transport method differ depending on the dredging situation.
  • FIG. 1A shows a configuration diagram of an article carrying robot 10 or an article carrying system 10 in the first embodiment of the present invention.
  • This article carrying robot or article carrying system 10 includes a status recognition means 101, a carrying method specifying means 102, a carrying device 103, and a carrying information database 104.
  • the recognition means 101, the transport device 103, and the transport information database 104 are connected to each other.
  • Such an article transport robot or an article transport system 10 can transport articles to a person in a space where a person lives (hereinafter referred to as a living space) such as a general home, office, hotel, store, or hospital.
  • a living space such as a general home, office, hotel, store, or hospital.
  • 2B is a floor plan of a room as an example of a living space where articles are transported by the article transport robot or the article transport system 10.
  • Dw is a dishwasher
  • Ks is a sink
  • Gb is a garbage bin
  • Rg is a refrigerator
  • Cb is a cupboard
  • Tb is a table.
  • the article carrying robot of the article carrying robot or article carrying system 10 includes, as shown in FIG. 1B, a situation recognition unit 101, a carrying method specifying unit 102, a carrying device 103, and a carrying information database 104. It can be composed of one robot 50 as shown in FIG. A situation recognition means 101, a transport device 103, and a transport information database 104 are connected to the transport method specifying means 102.
  • article transport robot 10
  • some of these components are transferred to the transport device. If it is arranged outside the robot 50 having 103, it will be referred to as an “article transportation system”.
  • the transport information database 104 stores in advance knowledge (information) for identifying an optimal transport method from a plurality of transport methods according to the condition of the product when transporting the product in the living space. Database.
  • the situation recognition means 101 recognizes an article to be transported and recognizes the situation of the article.
  • the situation recognition means 101 includes a camera (eg, camera 502), a temperature sensor, a weight sensor (eg, weight sensors 101b, 101b—l to 101b-9), a tag reader (eg, tag readers 101c, TR, TRw). , TR1 to TR9, TR11 to TR17, TR91, TR92, etc.), or a processing unit that processes data detected by the various sensors 101a and the various sensors 101a, such as a recognition processing unit 101p.
  • it is composed of an inference processing unit 1 Olg and a database 101d in which data necessary for processing detected data (recognition processing or inference processing) is stored (see FIG. 2F).
  • the transportation method specifying means 102 includes the article recognized by the situation recognition means 101, and the article stored in advance in the transportation information database 104 according to the situation. From among a plurality of transport methods, an optimal transport method is specified when transporting the article. That is, the transportation method specifying means 102 refers to the transportation information database 104, and the IDs of the articles in the living space are the same. However, the transportation method differs depending on the situation of the article, and there are a plurality of transportation methods. When it exists, one of the multiple transport methods is specified according to the condition of the article. Further, the transport method specifying means 102 transmits information on the specified transport method to the transport device 103.
  • the carrying device 103 carries the article to be carried according to the information on the carrying method specified by the carrying method specifying means 102.
  • the situation recognition means 101 is a robot other than the robot 50 shown in FIG. 50 is installed in the living space where the carrying work is performed (for example, the camera 502 as an example of the situation recognition means 101 is installed on the ceiling as shown in FIG. 2A), and the carrying method specifying means 102, the carrying device 103, and Configure the transport information database 104 on the robot 50.
  • a transportation information database 104 is constructed in a computer (for example, a home information server), and the situation recognition means 101 is installed. 8 is installed in a living space where the robot 50 performs a transport operation other than the robot 50 shown in FIG. 8 (for example, a camera 502 as an example of the situation recognition means 101 is shown in FIG.
  • the robot 50 is equipped with a transport device 103 and a transport method specifying means 102, and the transport method specifying means 102 is connected via a wireless and / or wired network as necessary. You can also access the transport information database 104 built on the above computer.
  • the situation recognition means 101, the transport method specifying means 102, the transport device 103, and the transport information database 104 are independently provided. It is also possible to configure them by connecting them to each other via a wired or wireless network. More specifically, as shown in FIG. 2C, the transportation information database 104 and the transportation method specifying means 102 are constructed in a computer (for example, the transportation information management server 401), and only the transportation device 103 is installed in the robot 50. Tower If necessary, the transportation method specifying means 102 accesses the transportation information database 104 built in the above computer and transmits the transportation information to the transportation device 103 of the mouth bot 50 via a wireless, Z or wired network.
  • the robot 50 itself is the transport device 103 itself.
  • the transport method specifying means 102 specifies a transport method in response to the recognition result from the situation recognition means 101, and outputs a transport instruction to the transport device 103 (for example, the robot 50) based on the specified method. It can also be called an indicating device.
  • FIG. 2C which is a block diagram of the article transport system shown in FIG. 2A
  • the article transport system is roughly divided into the robot 50 functioning as the transport device 103, and the situation in the living space (environment).
  • the environment management server 401 as a server including the situation recognition unit 101 and the operation terminal 403 as an operation device are configured by three subsystems.
  • Each of the subsystems 401 to 403 includes transmission / reception means 409.
  • the transmission / reception means 409 information, data, and signals are transmitted via a wireless or wired network under the control of each control means. Etc. can be performed independently of each other. Note that the transmission / reception means 409 performs the same processing, and thus is given the same reference numeral 409 in FIG. 2C.
  • environment is, for example, the power to make a room in a house.
  • the present invention is not limited to this and means a space in which articles are arranged. .
  • the environment management server 401 transports the articles in the environment, the transport method specifying means 102 for specifying the transport method of the robot 50, and the articles in the living space among the situations grasped by the situation recognition means 101.
  • the above-mentioned transport information database 104 that stores in advance knowledge (information) for identifying the optimal transport method from the multiple transport methods according to the condition of the article, and the living space (environment) where the transport operation is performed ), That is, environmental map management means 407 for managing the overall environment, such as goods, moving objects including people and robots 50, and facilities other than moving objects, and an environmental pine that stores data on the entire environment. Database 408.
  • the output signal from the situation recognition means 101 The law specifying means 102 and the environment map management means 407 are connected so as to be inputted respectively.
  • the transportation method specifying means 102 is connected to the transportation information database 104 and the control means 410.
  • the environment map management means 407 is connected to the environment map database 408 and the control means 410.
  • the transmission / reception means 409 is connected to the control means 410.
  • the transmission / reception means 409 receives from the outside an inquiry (signal) and a transportation operation request (signal) of the data of the transportation information database 104 and the data of the environment map 408. And a response signal to the outside, and a control command such as a transport operation to the robot 50 is transmitted.
  • the control unit 410 independently controls the operations of the transport method specifying unit 102, the environment map management unit 407, and the transmission / reception unit 409.
  • the situation recognition means 101 recognizes the article to be transported and the situation of the article, as well as equipment and articles such as furniture existing in the environment, and the environment.
  • the position (position coordinates) and state (sitting, going out, standing, sleeping, walking holding, sucking, grasping, releasing, etc.) of a person or robot 50 existing in the room can be constantly monitored.
  • the situation recognition unit 101 can detect whether an article has been brought into the environment or taken out of the environment by a person or the robot 50. Specifically, the situation recognition means 101 will be described later in detail with respect to the force of a camera (image sensor) 502 installed in the environment, a tag reader TR, and the like.
  • the situation recognition unit 101 transmits the detection information to the transport method specifying unit 102 and the environment map management unit 407. Examples of information transmitted from the situation recognition unit 101 to the transport method specifying unit 102 and the environment map management unit 407 include the detection time of the article, the position (positional coordinates) of the article, and the direction.
  • the transportation method specifying unit 102 accumulates and manages information such as articles detected by the situation recognition unit 101 in the transportation information database 104.
  • the information managed in the transport information database 104 includes at least HD information of the article and information on the current position (position coordinates). Details of the transportation information database 104 will be described later.
  • the transportation method specifying means 102 specifies one transportation method by referring to the transportation information database 104 based on the information from the situation recognition means 101.
  • the transport means specifying means 102 receives a request from the control means 410 to the transport method specifying means 102 as a result of reception by the transmission / reception means 409, etc.
  • the transport method specifying means 102 requests the transport operation of the article.
  • the necessary information is taken out from the transport information database 104 according to the contents and sent to the control means 410. Details of the transportation method specifying means 102 will be described later.
  • the environment map management means 407 creates an environment map based on the information from the situation recognition means 101 and stores it in the environment map database 408, and manages the created environment map. Perform at 408.
  • the environmental map stored in the environmental map database 4 08 is used when the robot 50 moves within the living space (environment) and carries goods, and the robot 50 uses this environmental map as the Sano 01. Can be used to plan the movement path of the robot 50 when carrying goods.
  • the environment map management means 407 receives an inquiry about the environment map database 408, a request for an article transportation operation, etc. from the control means 410 to the environment map management means 407. At that time, necessary information is extracted from the environment map database 408 according to the contents of the inquiry and the request for the transportation operation of the article, and sent to the control means 410.
  • the control means 410 is an element that controls the entire environment management Sano 01.
  • the main control contents are as follows.
  • the transmission / reception means 409 When the transmission / reception means 409 receives an inquiry about various data in the environmental management server 401 or a request for goods transportation operation, etc., it controls the contents of the request such as the inquiry or goods transportation operation. Based on the determination result, the control unit 410 issues a data reference request to the transport method specifying unit 102 and the environment map management unit 407 in accordance with the determination result.
  • the robot 5 transmitted from the operation terminal 403 to the control means 410 via the transmission / reception means 409.
  • the control means 410 generates a robot control command sequence for interpreting a work content message that requires a request for an article transportation operation of 0, etc., and causes the robot 50 to execute an action. Send to robot 50 via 409.
  • the robot control command sequence will be described later.
  • control means 410 broadcasts to the robot 50 and the user (operation terminal 403) via the transmission / reception means 409.
  • FIG. Fig. 2J is an example of an actual environment
  • Fig. 2K is an environment map that simplifies the real environment of Fig. 2J with a solid model
  • Fig. 2L is an environment map that is further simplified with a planar model.
  • a solid object existing in the environment can be modeled with the smallest rectangular solid covering it, as shown in Fig. 2K.
  • the table Tb and the bookshelf Bs are each modeled as a rectangular parallelepiped, and the trash can Ts is modeled as an approximately cylinder.
  • the environment map that also has a planar model force.
  • the table Tb and the bookshelf Bs are each modeled by a rectangular area (hatched area) orthogonal to the plane, and the trash can Ts is a circular area (hatched area). Area).
  • These two rectangular areas and circular areas are set to areas where the robot 50 cannot move.
  • an environment map that is a 3D model of the actual environment as shown in Fig. 2J may be used.
  • FIG. 2M is a diagram showing an example of the equipment database 408e attached to the environment map, and corresponds to the above environment.
  • This equipment database 408e is composed of two sub-databases 408e-1 and 408e 2 that store equipment data and equipment attribute data, respectively.
  • the equipment data stored in the equipment data sub-database 408e-1 is the environment itself. Information for identifying the body and the individual equipment in this environment (unlike an article, which is fixed or installed in the environment and is not subject to the robot 50's transport operation work)
  • room-0001 as an ID in FIG. 2M
  • a pointer to equipment attribute data for example, “room01” as attribute data in FIG. 2M.
  • room_0001 is added to the environment (room) as HD information, and the table Tb, the bookshelf Bs, and the trash can Ts that exist in the environment are each set to “tab le”. — 0001 ”, rbookshelf 0001J,“ trash—0001 ”!
  • the equipment attribute data stored in the equipment attribute data sub-database 408e-2 includes the equipment attribute data related to the environment itself and the floor data in the environment. For example, when there are multiple floor surfaces with different heights in the environment, the floor surface data (for example, “floor surface 1, Floor 2 ”etc.) is accumulated. For example, the floor data is expressed as follows.
  • the first four sets of coordinate values represent the real world coordinates of each vertex constituting the floor, and the next value (2200) represents the floor force and the distance to the ceiling (mm).
  • the last value (0) means the floor material.
  • “0” may be a flooring
  • “1” may be a tatami mat
  • “2” may be a carpet or the like.
  • the equipment attribute data related to equipment such as furniture includes the data of each surface constituting the equipment (surface 1, surface 2), the type of equipment, and when the equipment has a surface on which an article can be placed. This includes the shape and posture of the main items placed on the surface. Specifically, for example, the data of the surfaces that make up the equipment are expressed as follows.
  • the first three sets of coordinate values represent the real world coordinates of each vertex constituting the face.
  • the next value (1) is a flag indicating whether or not the article can be placed on the surface after transportation. “1” indicates that the article can be placed after transportation. “0” indicates that the article cannot be placed after transportation.
  • the last value (400) indicates the upper limit height (mm) of an article that can be placed when the article can be placed on the surface after transportation. For example, if the surface is a table top plate, the top plate force increases the distance to the ceiling. When the height is the limit and the surface is a shelf surface in the bookshelf, the upper limit height is the distance from the shelf surface to the shelf immediately above.
  • the "main article shape" in the equipment attribute data is the shape of the article accommodated in the equipment. If the type of equipment is a bookshelf, it will be “book shape”. In other words, a rectangular parallelepiped whose depth and height are extremely long compared to its width is the shape of the main article on the bookshelf.
  • the “posture of the main article” is the posture of the article when stored in the facility. If the type of equipment is a bookshelf, it is the posture in which the book is placed on the shelf surface of the bookshelf after it is transported. Normally, after transporting the book on its side, Place it on the shelf of the bookshelf as it is lying down, but if necessary, you can change the posture to place the books on the shelf of the bookshelf!
  • the robot 50 By accumulating data of “main article shape and posture” in the equipment attribute data, for example, when the robot 50 is designated to carry a book to a bookshelf, the robot 50 Based on the “posture” data, it can be transported and placed on the shelves of the bookshelf in a posture in which the designated book is set up.
  • this “main article shape and attitude” data may not be provided.
  • a table and a trash can have no limitation on the shape or posture of the article.
  • the equipment attribute data for tables and trash cans does not have data on the shape and orientation of main articles.
  • the robot 50 shall carry out the work of transporting the article in the environment according to the user's instruction.
  • this robot 50 includes at least a holding device 501 for gripping an article, a camera 502 for recognizing an article to be transported, a recognition processing unit ⁇ , and a light source 503.
  • An obstacle sensor an apparatus that can also function as another example of the situation recognition means 101 of the article transport system 10) 411 for detecting obstacles and the like around the robot 50, and a transmission / reception means for the robot 50 409 And the control means 415 and the transmission / reception means 409 of the environmental management server 401, the control means 410, the transport method specifying means 102, the environmental map management means 407, etc., refer to the environmental map in the environmental map database 408 of the environmental management Sano 01 Then, a movement plan creation means 413 for making a movement plan associated with the carrying operation of the robot 50 And a moving device 414 for moving the robot 50 itself.
  • the transmission / reception means 409 transmits / receives various data to / from the environmental management Sano 01 and the operation terminal 403 based on the control of the control means 415.
  • the control means 415 is connected to the obstacle sensor 411, the transmission / reception means 409, the goods transport system 10, the movement plan creation means 413, and the movement device 414, and controls each operation independently. To do.
  • FIG. 8 is a conceptual diagram showing a configuration example of a robot 50 having an article carrying function.
  • the robot 50 is a schematic box that houses the movement plan creation means 413, the control means 415, and the like.
  • a mold body 53 is provided.
  • the right side of the page in FIG. 8 is referred to as the front side
  • the left side of the page is referred to as the rear side
  • the front side of the page is referred to as the left side
  • the back side of the page is referred to as the right side.
  • the holding device 501 of the robot 50 includes the articulated arm 51, the node 52 disposed at the tip of the arm 51, and the arm 51 and the node 52 independently of each other.
  • Each of the drive devices is driven and attached to the upper part of both side portions of the main body 53.
  • Each arm 51 and the driving device of the hand 52 is constituted by an actuator controlled by a motor (for example, at least one motor is disposed in each joint portion, and the arm 51 and the hand 52 are driven by driving the motor).
  • the node 52 may be configured to move), or it may be configured by other actuators such as hydraulic or artificial muscles.
  • the holding device 501 may be configured by a suction device that controls the suction operation and suction release operation of the suction hand. Absent.
  • a tag reader TR as an example of the situation recognition means 101 of the environmental management Sano 01 is provided on the hand 52 of the holding device 501. It may be attached (see Figure 8).
  • the information written in the electronic tag Tg of the held article is read by the tag reader TR of the node 52, and the information of the holding device 501 is read by the read information.
  • the goods held by the hand 52 can be specified by referring to the transport information database 104 or the environment map database 408 in the transport method specifying means 102 of the environment management server 401.
  • the tag reader TR attached to the hand 52 of the holding device 501 is omitted. For brevity, using the tag reader TR installed in the environment does not matter.
  • the moving device 414 includes four wheels 506, a motor 304 that drives the four wheels 506 to rotate forward and backward, a motor driver 303 that controls driving of the motor 304, and the like (see FIG. 2H).
  • Two wheels 506 are attached to each of the left and right sides of the main body 53 (the right two wheels 506 are not shown in the example of FIG. 8).
  • the configuration of the moving device 414 may be selected in accordance with the environment in which the robot 50 is used. For example, when the moving floor is very uneven, it is preferable to configure the moving device 414 in a crawler type or a multi-legged type.
  • the obstacle sensor 411 includes an ultrasonic sensor 504, a pair of cameras 502 as a visual sensor, and a collision sensor 505.
  • Each ultrasonic sensor 504 calculates the approximate distance to the obstacle by measuring the time from when the ultrasonic wave is emitted until the reflected wave is received. Detect before collision.
  • three ultrasonic sensors 504 are attached to each side surface (front surface, rear surface, left and right side surfaces) of the main body 53.
  • each camera 502 inputs a situation around the robot 50 as an image. By performing recognition processing, etc. on this image, it is possible to determine the presence or absence of obstacles and to obtain more accurate information about the goods to be transported.
  • the camera 502 is also used when recognizing an article to be transported as described above.
  • the camera 502 is attached to the indirect part 51a of the intermediate part of the arm 51 attached to the main body part 53 so that the position thereof can be changed.
  • the collision sensor 505 detects that a predetermined impact force has been applied to the robot 50.
  • the collision sensor 505 detects that an obstacle has collided with the robot 50 or that the robot 50 has collided with the obstacle while moving.
  • the collision sensor 505 is attached to the lower part of the front surface and the rear surface of the main body 53, respectively.
  • FIG. 2G shows a schematic diagram of the holding device 501 for performing posture control when holding an article.
  • the multi-indirect arm 51 of the holding device 501 has a base arm with a length L1, a front arm with a length L2, and a base end of the base arm with an indirect P0. 2 is pivotally connected to the side of the main body 53, and the distal end of the proximal arm and the proximal end of the distal arm can be bent by indirect P1 (indirect portion 51a).
  • the hand 52 is connected to the tip of the tip side arm via indirect P2.
  • FIG. 2H shows a drive control system of an arbitrary drive unit such as a motor control type actuator of the moving device 414 or the holding device 501.
  • a similar drive control system is configured for all drive units.
  • the rotating shaft of the motor 304 is driven forward and backward by the current supplied from the motor driver 303 to rotate, for example, four wheels 506 forward and backward.
  • the motor 304 is provided with an angle sensor for detecting the rotation angle of the driven rotating shaft.
  • the output signal from the angle sensor 307 is supplied to the CPU 301 through the encoder 306 and the encoder board 305.
  • the CPU 301 controls the driving of the motor 304.
  • the CPU 301 is connected with a memory 310 for storing information necessary for control.
  • a pressure sensor 309 for detecting whether or not the article to be transported is properly held is installed in the grip 52, for example, on the grip surface.
  • the sensor output signal from is input to the CPU 301 through the AZD converter 308.
  • the output signal from the angle sensor 307 and the sensor output signal from the pressure sensor 309 are received as input signals, and in response to the received input signal, the CPU 301 generates a control signal for the motor 304, and the control signal is And sent to the motor driver 3 03 through the DZA converter 302. In response to this control signal, the motor 304 is driven forward / reversely to realize posture control of the arms 51 and 52.
  • the length of the arm 51 is L1, L2, and the angle sensor 307 is acquired by the angle sensor (here, encoder) in the indirect PO and PI, and the angles are respectively ⁇ , ⁇ , and To do.
  • the position of the tip position P2 of the arm 51 is obtained by the following relational expression.
  • the attitude control in the three-dimensional space is to control the attitude so that the liquid does not spill.
  • the coordinate system is set as shown in Fig. 21.
  • the horizontal floor composed of the Xw axis and Yw axis orthogonal to each other is set to the Xw-Yw plane, and the Zw axis is set vertically upward from this plane.
  • the X-y plane composed of the X axis and the y axis that intersect the bottom surface of the glass GL mutually, the vertical direction from this plane toward the mouth of the glass GL, and the vertical direction in the z direction And set the directions of ⁇ , ⁇ , and ⁇ in the clockwise direction when viewed from the origin with respect to the x, y, and z axes, respectively.
  • the movement plan creation means 413 when an article transport operation is requested, shows the movement path from the position coordinates of the current position of the robot 50 to the position coordinates of the target position in the environment map database 408 environment map. Create by referring to. In the environment map, as shown in Fig. 2L, a non-movable area (hatched area) is set. For this reason, if a movement route is created in an area other than the non-movable area, a movement path avoiding an obstacle can be created. For example, in FIG. 2L, when moving from point A to point B, a route that avoids the non-movable area as shown by the arrow line is created in consideration of the size of the robot 50.
  • the most common Dijkstra method may be used to create a movement route, and if the environment is complex, a route search algorithm improved from the Dijkstra method may be used.
  • a route search algorithm improved from the Dijkstra method may be used as a countermeasure when the travel route cannot be calculated because the environment is too complex or it takes a long time to calculate.
  • the user moves the travel route of the robot 50 using the operation terminal 403.
  • a mode for designating to the plan creation means 413 may be provided.
  • the control means 415 of the robot 50 mainly includes a robot control command sequence sent from the environmental management server 01 via the environmental management server side and the robot side transmission / reception means 409, 409. Interpret and execute the control commands in sequence.
  • the robot control command is a command for controlling the movement of the robot 50 itself for holding and transporting articles, and is roughly divided into “movement”, “hold”, and “release”. There are three types. These three types of commands are briefly explained.
  • the position coordinates are specified in the world coordinate system, and the movement plan creation means 413 plans the movement path from the position coordinates of the current position to the position coordinates of the target position.
  • a route that approaches the equipment to a predetermined distance is created. In this case, the equipment attribute data in the environment map is used. Use.
  • Article This is a command for holding the article specified by the HD information by the hand 52 as an example of the holding device 501.
  • the position (position coordinates) of the article is obtained by referring to the transportation information database 104 or the environment map database 408, and the transportation operation is selected by the transportation method specifying means 102 of the article transportation system 10 with reference to the transportation information database 104. .
  • This command releases the hand 52 after the transportation is completed.
  • the command sequence is arranged by the number of articles with the above four commands as one set, and the control means 415 of the robot 50 executes the control commands in order according to the order.
  • the robot control commands are not limited to these three types, but can be increased as necessary. /.
  • the operation terminal 403 is a user interface in the article transportation system using the robot, and is a terminal that a user operates to request the robot 50 to perform an article transportation operation.
  • the operation terminal 403 displays an operation screen, for example, a display device 417 that also has a CRT or a liquid crystal display power, and an article carrying operation with respect to the robot 50 on the operation screen of the display device 417.
  • An input device 416 such as a pointing device, for example, and a display control unit 418 for performing display control such as creation of an operation screen displayed on the display device 417.
  • the transmission / reception means 409 Based on the control of the control means 419, the transmission / reception means 409 sends the contents of the robot 50 article transportation operation request and the inquiry contents input to the input device 416 to the server 401. An answer to the inquiry is received from the environment management server 401.
  • the control means 419 is connected to the transmission / reception means 409, the input device 416, the display device 417, and the display control means 418, and controls each operation independently.
  • the operation terminal 403 for example, a general-purpose PC (personal computer) can be used.
  • the control program for executing each process can be used as the operation terminal 403 by loading the general-purpose PC.
  • the display control unit 418 stores information transmitted from the environment management server 401, specifically, image data captured by the camera 502 as an example of the state recognition unit 101, and the transport information database 104.
  • An operation screen is created based on the accumulated data and the environment map accumulated in the environment map database 408. The created operation screen is displayed on display device 417.
  • the operation terminal 403 displays an image representing a predetermined living space.
  • the image is displayed on the display device 417, and the user instructs the transportation operation to the article included in the image from the operation terminal 403, and the user instruction transmitted from the operation terminal 403 is transmitted to the environment management server 401.
  • the transportation method specifying means 102 refers to the transportation information database 104 and converts it into a control command executable by the robot 50 and transmits it to the robot 50.
  • the holding device 501 of the robot 50 causes the position (position coordinates) of the article to be transported, the object information such as HD information and shape, and the position of the person (position coordinates). It is possible to hold and carry goods using personal information such as, I blueprints.
  • the configurations of the article transport robot 10 and the article transport system are not limited to these, and any configuration may be adopted as long as the transport process described later can be realized.
  • the transport information database 104 is a database that accumulates transport information that associates each article in the living space with a situation that the article can take, a transport operation (in other words, a transport method), and Z or a transport location. is there.
  • FIG. 3A, FIG. 3B, and FIG. 3C each show an example of the transportation information stored in the transportation information database 104 for each article.
  • This transport information is transport information for transporting the article for the purpose of clearing the article.
  • this transportation information database 104 at least two pieces of information are included as transportation information.
  • One is information related to the transport operation by the transport device 103, and the information of the transport operation includes at least two items of information on the posture of the article during transport and information on the transport speed.
  • the other transport information is information about the transport location where the goods are transported.
  • FIG. 3A shows an example of transportation data set for a dish that is an example of an article.
  • the dish is used in a general household, “no dirt”, “dirty”, “food”
  • the ability to take various situations other than this as a dish situation Here, for the sake of easy understanding, explanation will be limited to these four situations.
  • “Refrigerator” Rg is set here as the transportation location.
  • “low speed” means moving at a speed at which the leftover food on the dish can be transported so that it does not fall while the dish is being transported, for example, at a speed of 2 kmZh or less. .
  • FIG. 3B shows an example of conveyance data set for a cup which is an example of an article.
  • a cup When a cup is used in a general household, it can be in at least three situations: “no dirt”, “no leftover”, and “no leftover”. It should be noted that the ability to take various situations other than this as a cup situation is described here for the sake of easy understanding.
  • cupboard Cb is set as the transport location for the “no dirt” situation because the “no dirt” cup can be stored as it is.
  • FIG. 3C shows an example of transportation data set for a book which is an example of an article.
  • a book When a book is used in a general household, it can have at least two situations: “no load” with only one book and “with load” with a book or other object loaded on the book. It should be noted that this book has various other situations. For the sake of easy understanding, the explanation is limited to these two situations.
  • the above is the basic configuration of the transport information stored in the transport information database 104.
  • the transport information As shown below, the transport of articles can be further optimized, It is possible to further improve user convenience.
  • modified examples of the transportation information will be described.
  • 4A to 4D show examples of conveyance information according to the first modification.
  • This transport information sets the speed change of the transport speed when transporting the goods, and from this, further optimization of transport is aimed at.
  • the transport information shown in FIG. 4A is transport information set for a cup.
  • the transportation information shown in Figure 4A has a different transportation speed setting.
  • the transport speed is only set to “free” or “low speed”, and how to control such a low speed transport speed is not set.
  • the transportation information shown in Fig. 4A by changing the transportation speed to "Speed regulation 1", “Speed regulation 2", “Speed regulation 3", etc., the speed change control during the transportation of goods is controlled. Also set it.
  • speed regulation is a numerical definition of how the speed is changed from the start to the end of transportation as a relation of speed to time.
  • speed regulation 2 is different from speed regulation 1 as shown in Fig. 4C and has a curve characteristic. By changing the acceleration in such a curve, it is possible to relieve the burden on the goods being transported.
  • speed regulation 3 is a control content for switching the speed change according to the living space where the article is transported, as shown in FIG. 4D.
  • different speed restrictions are set for each of the floor surface of the living space to be transported and the carpet floor. This is because when the floor is flooring, the unevenness is small and transported This is because the device 103 (for example, the robot 50) can stably travel even at a relatively high speed, whereas the transportation device 103 (for example, the robot 50) becomes unstable at high speed when the floor is a carpet or a tatami mat. .
  • the speed regulation 3 when the floor changes to a flooring force carpet or vice versa, the force that will switch control according to the floor after the change. Smooth switching from one control to the other, rather than abrupt switching of control, is desirable in order to reduce the impact on the goods being transported.
  • FIG. 4E is a block diagram showing components that perform predetermined processing in the order of processing flow for specifying the floor surface.
  • the imaging unit 801 performs imaging of the floor surface using an imaging element such as the camera 502.
  • the frequency analysis unit 802 performs fast Fourier transform on the frame image thus captured, analyzes the level of the frequency component included in the frame image and its distribution, and then the frequency direction filter unit 803 performs the most distribution.
  • a Gabor 'filtering process is performed in a plurality of directions for each of a plurality of types of frequencies including a high frequency, and feature quantities having selectivity in each direction for each frequency are extracted as a vector group.
  • the nonlinear mapping unit 804 performs nonlinear mapping on a plurality of types of vector groups based on the frame image to further emphasize the white portion and the black portion, and then the local energy calculation unit 805 performs the Gaussian filter. For each frame image corresponding to a plurality of Gabor filtering directions, local energy representing the texture characteristics of each pixel is obtained for all the pixels forming the frame image, and the entire frame image is obtained. Make it blurry.
  • the floor surface identification unit 806 calculates the average value of the local energy of the pixel group corresponding to the window image FW in the lower center portion of each frame image, and calculates the average value as the vector amount and the corresponding direction. Connect all 1D vectors with vector direction as Generate 4D vector of image FW.
  • the floor surface identification unit 806 determines the local energy of the planned floor surface pixel PF at the uppermost end of the current frame image as the vector amount and the corresponding direction as the vector direction. Connect all the 1D vectors to generate a 4D vector of the floor plan pixel PF.
  • the four-dimensional vector of the predicted floor surface pixel PF thus obtained and the 4 of the window image FW are compared. Calculate the Euclidean distance from the dimension vector. If this value is lower than the predetermined threshold value, it is determined that the floor surface displayed in the current frame image is the same type of floor surface. On the other hand, if this value is higher than a predetermined threshold value, it is determined that the floor surface displayed in the current frame image is a plurality of types of floor surfaces. In this way, the traveling floor can be classified.
  • FIG. 5 shows an example of transportation information according to the second modification.
  • This transport information further includes information about the “next situation” compared to the transport information of FIG. 3B.
  • the transportation information according to the modified example 2 is configured as shown in FIG. 5, and in addition to the above-mentioned information of "transportation operation" and "transportation location", this transportation information is included. Includes information about “next situation”.
  • This “next situation” information is information on the situation that the goods will be taken as a result of the goods being transported to the transport location by the transport device.
  • the “transportation place” for the situation of “no leftover” (dirty) is set by the dishwasher Dw, so the “no leftover” cup is washed by the dishwasher Dw and “dirty”
  • the “next status” is set as shown by the arrow in FIG. 5 (or “next status” is related as information).
  • the state of the cup after being transported to the cupboard Cb and transported to the refrigerator Rg. Since there is no change, there is no information for the “next situation”, so “1” is set.
  • a cup has been described here as an example, a plurality of transport operations can be performed continuously and automatically. Various examples other than the cup can be considered.
  • the transport information database 104 is configured by associating operations, places, and the like for each item for each situation.
  • the transport device 103 there are a wide variety of articles to be transported by the transport device 103 in general households, and the articles to be transported are different in each household (each living space).
  • the article transport robot 10 and the article transport system may automatically create the transport information database 104 as follows. In other words, it learns how people are transporting goods that can be transported, and creates a transport information database based on the learning results.
  • each article has an ID tag Tg that can detect its three-dimensional position and has ID (identification) information of the article. Assume that it is installed.
  • a tag Tg capable of detecting a three-dimensional position a tag Tg using an ultrasonic wave is known (for example, “a robust measurement of a person's daily activities using an ultrasonic three-dimensional tag to redundant sensor information”). Robust location estimation based on "Yoshifumi Nishida, Hiroshi Aizawa, Toshio Hori, Masayoshi Sasakura, Proc. 20th Annual Conference of the Robotics Society of Japan, 3C18, 2002).
  • An article to which such a tag Tg is attached can detect the movement trajectory of the article by detecting the position of the article in time series, and thereby, how the person handled the article. , Can be detected.
  • the article carrying operation performed by such a person is recognized using, for example, the situation recognition means 101,
  • the recognition result (recognition information) is stored as transportation information. That is, when the ID tag Tg attached to the article moves using the situation recognition means 101, the recognition result (recognition information) is stored in the conveyance information database 104 as the conveyance information. To do. For example, in the above example, when a person takes in clothes that have been dried, the clothes are thrown into the room, so the ID tag Tg attached to the clothes is thrown into the room.
  • Detected (recognized) by the tag reader installed on the ceiling or the camera 502 installed on the ceiling, and also detected (recognized) the moving speed, and the transport information detected (recognized) as such is transported information database as temporary transport information Accumulate in 104.
  • a person carries a tableware into the kitchen it is carefully transported so as not to drop the tableware, so that the movement speed of the ID tag Tg attached to the tableware is detected (recognized) and the tableware is When leftovers are placed, carry information with the tableware facing up is detected (recognized) by the camera 502 installed on the ceiling, for example, and transport information detected (recognized) as such.
  • the transportation information database 104 can be used as usable transportation information. Register with 04. Registration in the database 104 may be performed by the transport method specifying means 102 or may further include a learning means and the learning means. In addition, it is preferable that a person is given an ID tag Tg to recognize that it is a person's action.
  • the reliability of the recognition information may be set according to the frequency and the number of times of the recognized information. This is most often the case, for example, when the reliability of the number of times an object recognized by the ID tag Tg is powered, or when the article is powered for an object recognized by the ID tag Tg. High reliability of the frequency of transportation methods.
  • the transport information database 104 is used as knowledge for adopting the optimal transport method according to the situation when transporting the article, and the condition, transport operation, and transport of the article. It is a database that stores information that associates locations.
  • the situation recognizing means 101 is means for recognizing an article to be transported and recognizing the situation of the article.
  • the situation recognizing means 101 is a single sensor or various sensors such as a camera (for example, the camera 502 which is an example of the situation recognizing means 101), a laser, a temperature sensor, a weight sensor, an RFID tag and a tag reader (or a reader / writer).
  • a processing unit that processes information detected by various sensors, and a database that stores data necessary for processing by the processing unit, are provided. Detection and recognition of the status of the article.
  • a method for recognizing the status of an article will be described with a specific example.
  • recognition of an article to be transported will be described. It is preferable to use a camera to detect the article. That is, the article is imaged by the camera, and the article is specified based on the captured image (video).
  • one or more cameras 502 may be installed on the ceiling 90 in the living space as shown in FIG. 2A, or one or more cameras 502 may be installed in the robot 50 as shown in FIG. A camera 502 may be attached.
  • Various methods have been developed for the image recognition method performed by the recognition processing unit 101p using the image captured by the camera 502.
  • Another method for detecting an article to be transported includes a method using an ID code. That is, an ID code for identifying the article is attached to each article, and the article to be transported is detected by detecting the code with the camera 502.
  • codes the most popular optical codes (for example, bar codes, two-dimensional codes, etc.) may be used. In this case, it is preferable to use a camera as a means for detecting the code.
  • RFID tags Tg may be used as a new code that has been in the spotlight!
  • the R FID tag Tg is a device that includes an IC that stores data and an antenna that can transmit the data wirelessly, and the tag reader (reader / writer) TR writes data to the tag Tg, and the tag Tg force It is a device that can read data.
  • the RFID tag Tg When the RFID tag Tg is used, data relating to the article (for example, data such as article type, date of manufacture, shape, weight, article image, etc.) is embedded in the RFID tag Tg. If the RFID tag Tg does not have a sufficient storage capacity, link information (for example, an Internet address or the like) of a location for storing data about the article may be embedded in the RFID tag Tg. In this case, the link information is acquired by the tag reader TR, and the data related to the article is acquired by accessing the acquired link information.
  • link information for example, an Internet address or the like
  • a number of tag readers TR are installed in a living space (for example, a general household) in order to detect the item to be transported. This can be done by reading data from the RFID tag Tg by the tag reader TR.
  • the RFID tag Tg has a communication distance of at most, because very weak radio waves that do not affect the human body must be used to transmit and receive data between the RFID tag Tg and the tag reader TR. There is a problem that it is as short as several tens of centimeters. Therefore, in order to detect articles, a very large number of tag readers TR must be installed in the living space. On the other hand, since the tag reader TR is more expensive than the camera, it is not realistic to install a large number of tag readers TR in the living space.
  • the article may be detected by performing processing in which the tag reader TR and the camera are combined.
  • a tag reader TR is installed at a place where an article enters and exits, such as a door of a room, and entry / exit of the article is detected by the tag reader TR.
  • a tag reader TR91 is installed near the window 91 and a tag reader TR92 is installed near the door 92.
  • Each tag reader TR91, TR92 is an example of the situation recognition means 101, and each situation recognition means 101 and the transport information management server 401 are connected as described above.
  • the tag reader TR is installed inside the room at a predetermined installation density.
  • tag the floor of the room as shown in Figure 7F The readers TR1 to TR9 are arranged at predetermined intervals, and a plurality of receiving areas for the tag readers TR1 to TR9 are installed.
  • the position of the article in the room can be roughly narrowed down according to the installation density of the tag reader TR.
  • the article is imaged and detected using the camera 502.
  • the detection accuracy can be improved.
  • the tag reader TR may be installed in the transport device 103 that is movable not only in the living space but also in the living space. That is, by installing the tag reader TR on the arm 51 or the hand 52 of the robot 50, the robot 50 moves, and the information on the RFID tag Tg attached to the article is obtained by bringing the arm 51 and Z or the hand 52 closer to the article. May be read by the tag reader TR.
  • This configuration is effective when the position of the article to be transported can be specified to some extent.
  • FIG. 6A and FIG. 6B are diagrams showing a configuration as an example of the situation recognition means 101 that recognizes the contents of the cup 201 using light refraction.
  • the situation recognition means 101 includes a light source 503 that irradiates a glass 201 with a laser beam 503g, a camera 502 that is an example of an imaging device that captures the state of light projected on the cup 201, and information captured by the camera 502. It includes a recognition processing unit lOlp that performs recognition processing.
  • Light source 503 emits 503g of highly directional light
  • a laser irradiation apparatus can be used.
  • the camera 502 only needs to be capable of detecting the locus of the laser beam 503g emitted from the laser irradiation device 503.
  • each of the laser irradiation device 503 and the camera 502 is preferably attached to the arm 51 of the robot 50 so that its position (positional coordinates) can be changed. If the robot 50 is a humanoid robot, configure it so that the camera 502 is embedded in its face.
  • the situation recognizing means 101 irradiates the cup 201 with a laser beam 503g by the laser irradiation device 503.
  • the refractive index of air is different from the refractive index of liquid (for example, the refractive index of air is 1.0 and the refractive index of water is about 1.33).
  • the locus of the laser beam 503g changes depending on whether or not. That is, as shown in FIG. 6A, when the cup 201 is empty, the inside of the cup 201 and the outside of the cup 201 are filled with air, so that the laser beam 503g irradiated to the cup 201 from obliquely above is Go straight as shown in the figure.
  • FIG. 6B when water 201a is put in the cup 201, the refractive index of air and the refractive index of water are different, so that the irradiated laser beam 503g is refracted.
  • the camera 201 takes an image of the cup 201. As a result, the locus of the laser beam 503g is detected. Based on the detection result, the recognition processing unit 10 lp of the situation recognizing means 101 recognizes whether or not the liquid is contained in the cup 201.
  • the refractive index of light differs depending on the object (material)
  • the material of the object placed in the cup 201 may be considered as one of the conditions of the article, and the conveyance of the article may be optimized according to the material of the object. For example, when the liquid contained in the cup 201 is water, the operation of transporting the cup 201 to the cupboard Cb after transporting the cup 201 to the sink Ks of the table and discarding the water in the cup 201 is performed.
  • the recognition using the refraction of the powerful light that recognizes the presence or absence of the contents of the cup 201 based on the locus of the laser beam 503g is not limited to this.
  • an object whose position relative to the camera 502 is known is imaged by the camera 502 through the cup 201, and the presence of the contents of the cup 20 1 is detected by detecting the force at which the object appears on the cup 201.
  • the photographed article is present in the living space (a room in a general home) and can use an object.
  • the state of whether or not a drink is in the cup 201! /, Whether or not a drink is in the cup 201 is used to capture an image of a person handling the article using the camera 502, and It is also possible to recognize by detecting the transport method.
  • Methods for detecting this transportation method are known (for example, “recognition of grip shape by visual volume intersection method using infrared images”, Kentaro Hashimoto, Koichi Ogawara, Satoshi Takamatsu, Katsushi Ikeuchi. Computer vision and image media A) 135-10, pp.55-62, 2002), detailed description thereof is omitted here.
  • the power camera 502 may use a camera used for recognizing an article, or may use another camera.
  • the type of tableware can be specified, but the situation of whether or not the tableware has power is changed with time.
  • the RFID tag Tg cannot be stored in advance as information. Even if the weight of the tableware is detected by a weight sensor to detect the presence of food waste, if the amount of food waste is small and difficult to detect by the weight sensor, the presence or absence of food loss cannot be detected.
  • a reflection parameter can be used as the material information.
  • This reflection meter is a parameter that depends on the material of the article, and can be detected using a light source that irradiates light on the object and an imaging device such as a camera that images the object.
  • a camera 502 and a light source 503 are attached to the arm 51 of the robot 50, and the camera 502, the light source 503, and the recognition processing unit ⁇
  • the reflection parameter may be detected as follows. Since the method for detecting the reflection parameter is known, its description is omitted here.
  • Recognition of the presence or absence of a meal using the reflection parameter may be performed as follows.
  • the RFID tag Tg of each tableware stores the reflection parameter information of the tableware.
  • the reflection parameter of the tableware is actually detected by the light source 503, the camera 502, and the recognition processing unit 101p, and the reflection parameter stored in the RFID tag Tg and the reflection parameter detected by the recognition processing unit 101p are obtained.
  • Compare When both parameters are the same, it can be determined that there is nothing on the tableware, that is, there is no food residue.
  • the two parameters are sufficiently different, it can be determined that something is present on the tableware, that is, there is a meal. It is also possible to obtain the reflection parameter of the meal and to compare the actually detected reflection parameter with the reflection parameter of the meal.
  • the reflection parameter of the dish is detected at a plurality of points on the dish, and the reflection parameter coincidence degree indicating how much the detected parameter matches the reflection parameter stored in the RFID tag Tg.
  • the reflection parameter coincidence degree indicating how much the detected parameter matches the reflection parameter stored in the RFID tag Tg.
  • the reflection parameters of “Yes”, “Eating meal”, and “Without eating” are greater than 99%, 90-99%, 80-90%, 80% or less).
  • the reflection parameter coincidence Ep is expressed by the following equation.
  • Num_points indicates the number of points at which the reflection parameter is detected
  • Num_match indicates the number of detected reflection parameters that match the reflection parameter stored.
  • this dish is judged to be “dirty”.
  • the situation recognition unit 101 recognizes the situation of an article using a camera, a tag reader, or the like.
  • the situation recognizing means 101 can also detect the situation of the article using a sensor other than these, for example, a weight sensor, according to the kind of the situation of the article. In other words, since there are various situations to be detected, an optimal recognition method may be employed according to the situation to be detected.
  • the situation recognition means 101 includes the various sensors 101a and the detection data of the various sensors 101a. Even by recognizing the situation of an article, it is composed of an inference processing unit 101g that performs inference based on a database and a database that accumulates movement history of articles detected by various sensors 10 la, for example, an article movement history database 101d. Good.
  • an example will be described in which the inference by the inference processing unit 10 lg recognizes whether or not the clothes are dirty. For example, when cleaning clothes placed in a room, if the clothes are dirty, transport them to the washing machine, and if the clothes are not dirty, transport them to a chiffon.
  • the optimal transport method transport location
  • the optimal transport method varies.
  • the RFID tag Tg is attached to the garment CL, and the entrance / exit in the house including the room where the garment CL is placed (for example, the entrance, the entrance / exit of each room, veranda). It is assumed that a tag reader (for example, a tag reader TR 91 near the window 91 and a tag reader TR92 near the door 92) is disposed at the doorway (see FIG. 2D).
  • the tag reader TR By arranging the tag reader TR at the entrance / exit in the house in this way, a person can wear the clothes CL. If it passes through the doorway while wearing, or if a person passes through the doorway while holding the clothes CL, this is detected by the tag reader TR.
  • the movement history of the clothes CL can be obtained by sequentially storing the detection results in the article movement history database lOld.
  • FIG. 2E illustrates this.
  • Tag readers TR11 to TR17 are arranged at the entrances 1 to 7 in FIG. 2E, and it is possible to detect entry and exit of articles and people.
  • a similar tag reader TRw is also provided at the outlet of the washing machine Wm in FIG. 2E.
  • the clothing CL is currently placed in the room 95a.
  • the garment CL has passed through the entrance 95b at the time immediately before the current time (passed through the tag reader TR12 at the entrance 2), and the garment CL has passed through the entrance 95b at the previous time. (Passes through the tag reader TR11 at the entrance 1).
  • the inference processing unit 101g can infer that the clothes CL placed in the room 95a are dirty.
  • the clothes CL are currently placed in the room 95a.
  • the garment CL passed through the entrance of the Veranda 95c (passing through the tag reader TR14 of the entrance / exit 4) at a time before the present time, and at the previous time, the garment CL entered the washing machine Wm, (Pass through tag reader TRw at outlet of washing machine Wm).
  • the clothes CL are placed in the room 95a.
  • the clothes CL placed in the room 95a are not dirty, it can be inferred by the inference processing unit 101g.
  • FIG. 7A and FIG. 7B are diagrams for explaining recognition using the weight sensor 101b and the tag reader 101c.
  • the situation recognition means 101 further includes a weight sensor 101b and a tag reader 101c, and the weight sensor 101b and the tag reader 101c are installed on the table Tb. It is assumed that the weight sensor 101b can detect the weight of an article placed on the table Tb and the approximate center of gravity of the article. Further, it is assumed that the tag reader 101c can read the information of the RFID tag Tg of the article placed on the table Tb.
  • a plurality of (here, nine) weight sensors 101b-1 to 101b-9 and one tag reader 101c are disposed on the table Tb.
  • Each weight sensor 101b-1 to 101b-9 measures the weight placed only on a part of the table Tb as shown in FIG. 7C.
  • the tag reader 101c can detect the RFID tag Tg placed anywhere on the table Tb. It is assumed that the RFID tag Tg has an anti-collision function, and even when a plurality of items are stacked, information on each item can be read in a distinguishable manner.
  • FIG. 7D shows the first situation in FIG. 7A.
  • the two books (book Bk-1 and Bk-2) are both detected by the tag reader 101c.
  • the book Bk-1 is only for the weight sensor 1 01b-4, and the book Bk-2 is the weight sensor 101b.
  • the weight sensor 101b detects that an object having two centers of gravity is placed on the table Tb.
  • FIG. 7E shows the second situation of FIG. 7B.
  • three books books Bk-1, Bk-2, Bk-3 are stacked, they are detected only by the weight sensor 101b-9. However, it is not detected by the other weight sensor 101b. Therefore, the weight sensor 101b detects that only one center of gravity is placed on the table Tb.
  • Tag reader 101c detects the presence of three books Bk-1, Bk-2 and Bk-3.
  • Tag reader 101c There are two books Bk and the weight of each book Bk.
  • Weight sensor 101b There are two weight and center of gravity positions!
  • Tag reader 101c 3 books Bk and the weight of each book Bk.
  • Weight sensor 101b The weight and center of gravity must be at one location.
  • the tag readers TR1 to TR9 are arranged on the table Tb at a predetermined interval, and a plurality of reception areas of the tag readers TR1 to TR9 are prepared to perform the same processing. I do not care. At this time, the weight of the article is acquired by the tag information force detected by the tag readers TR1 to TR9.
  • the weight (total value) of each book Bk read by the tag reader 101c and the weight of each book Bk detected by the weight sensor 101b are compared by, for example, the inference processing unit lOlg. As a result, when there is almost no difference between the two, it is found that the article placed on the table Tb is only the book Bk and the number of the book Bk.
  • the position of the center of gravity detected by the weight sensor 101b is compared with the number of found Bk.
  • the number of Bk is two, while the number of Bk is two.
  • the number of Bk is three, while the number of center of gravity is one.
  • First condition The weight based on the information of the RFID tag Tg and the weight detected by the weight sensor 101b are substantially the same.
  • Second condition The number of articles detected by the tag reader TR and the number of center-of-gravity positions detected by the weight sensor 101b match.
  • the inference processing unit lOlg determines that both the first condition and the second condition are satisfied, the article exists alone and satisfies the first condition, while the second condition is satisfied.
  • the inference processing unit 10 lg can recognize that the articles are stacked.
  • the method of recognizing the state of an article by the situation recognizing means 101 described above is an example, and the situation that the article can take can take various situations other than the situation described here. In that case, the recognition method described above may not be able to recognize the status of the article.However, for example, the recognition method described above may be combined with other methods. It is possible to recognize various situations of various articles by appropriately adopting the optimal recognition method according to the type.
  • the conveyance speed may be changed according to the number of articles stacked, for example, the number of books Bk.
  • the transport device 103 for example, the robot 50
  • the transport device 103 can move at a low speed so that the stacked articles do not fall.
  • a robot 50 can safely carry a large number of articles.
  • the transportation method specifying means 102 specifies the transportation method according to the situation based on the article recognized by the situation recognition means 101 and its situation, and the above-described transportation information database 104. This is performed from among a plurality of methods for transporting the article.
  • the transport method specifying means 102 receives the data on the status of the article recognized by the status recognition means 101, and uses the transport data of the article stored in the transport information database 104. refer. Thus, data including basic transportation data corresponding to the recognized situation (i.e., each situation of the article and the corresponding transportation operation and location (and information on the next situation)) ) Is selected. If the transport basic data is selected, the transport method specifying means 102 transmits the selected transport basic data to the transport device 103. [0205] If the transport basic data stored in the transport information database 104 includes information on the "next situation" as shown in Fig. 5, the goods are obtained by executing one transport operation. If the situation is changed, the transport method specifying means 102 newly selects transport basic data corresponding to the changed situation, and transmits the newly selected transport basic data to the transport device 103. In this way, the selection and transmission of basic transport data is repeated.
  • the next transportation work be performed after the previous transportation work is completed.
  • the time when the cup has been transported to the cupboard Cb may be set as the completion point of the transport work.
  • the cup transported to the dishwasher Dw is then washed and “stainless”.
  • the point at which the washing is completed by the dishwasher Dw may be the completion point of the transport operation.
  • the dishwasher Dw is also connected to the transport method specifying means 102 via a wired and Z or wireless network.
  • V (see Figure 2C).
  • the transporting device 103 transports goods according to the transporting method specified by the transporting method specifying means 102. Therefore, the transport device 103 is at least
  • the transportation data shown in Fig. 3A and the like is a force described based on natural language.
  • the data provided to the transportation device 103 is related to the posture 'speed. It is a numeric parameter.
  • the carrying device 103 is mounted with a program for carrying an article, and carries the article by executing the program in accordance with the read parameter value relating to the posture 'speed'. Since such a technique is generally performed in a conventionally known industrial robot, detailed description thereof is omitted here.
  • an existing robot as the transport device 103.
  • the numerical parameter related to the transport basic data cannot be read by the program installed in the existing robot.
  • an information translation program or the like may be additionally mounted on the existing robot so that the numerical parameters related to the transport basic data can be used by the program mounted on the existing robot.
  • the attitude and speed information related to the transport basic data should be described using XML, which is one of the standard description formats.
  • step S601 the situation recognition means 101 recognizes the article to be transported and the situation of the article, and sends the recognition result to the transportation method specifying means 102.
  • step S602 the transportation method specifying means 102 searches the transportation information database 104 for transportation data related to the article based on the received recognition result. Then, it is determined whether or not the conveyance data matching the recognized article is powerful (determining whether or not the data exists (step S603), and if found, the process proceeds to step S604, where Sometimes the process ends.
  • step S604 the transportation method specifying means 102 acquires transportation information database force transportation data, and the transportation data corresponding to the state of the article is obtained from the transportation data. Search transport basic data. Then, it is determined whether or not basic transportation data has been found (whether or not the data exists) (step S605). If found, the process proceeds to step S606, and when it is found, the process is terminated. To do.
  • step S606 the transport method specifying means 102 acquires the transport method and transport location from the searched transport basic data, and transmits the acquired information to the transport device 103.
  • step S607 upon receiving the information sent from the transport method specifying means 102, the transport device 103 executes transport of the article according to the transport method and the transport location.
  • step S608 the transportation method specifying means 102 determines whether or not the transportation basic data acquired in step S606 includes information about the following situation. When it is described, the process returns to the above step S604, and thereafter, steps S604 to S608 are repeated.
  • the transport method specifying means 102 may return from step S608 to step S604 upon completion of the transport work by the transport device 103 in step S607, and before the transport work is completed. Returning from step S608 to step S604, the transmission of information in step S606 may be executed in response to the completion of the transportation work.
  • the user directly inputs the cup transport work to the article transport robot 10 or the article transport system into the robot 50 and instructs the robot 50, or using the operation terminal 403. Command the goods transport system.
  • the situation recognition means 101 recognizes the cup placed in the living space, recognizes the situation of the cup, and the recognition result. Is sent to the transport method specifying means 102 (step S601).
  • the recognition of the cup may be performed using the camera 502 or the like as described above.
  • the user inputs the cup to be transported to the user by inputting directly to the robot 50 or entering the article transport system using the operation terminal 403.
  • An approximate location may be specified. Once the approximate location of the cup is identified, it is easy to recognize the cup.
  • the recognition of the state of the cup may be performed using the reflection parameter as described above. In this example, the status of the cup is recognized as “no leftover” (dirty).
  • the transport method specifying means 102 refers to the transport information database 104 and searches for transport data related to the cup (steps S602, S603). Then, if the transport data shown in FIG. 5 is retrieved, the transport basic data corresponding to the situation of “no leftover” (dirty) is retrieved from the transport data (steps S604 and S605).
  • the transport method specifying means 102 will transfer the transport method (posture: upward, speed: Free) and the transport location (dishwasher Dw) are acquired, and the information is transmitted to the transport device 103 (step S606).
  • the transport device 103 Upon receiving the information on the method and location of transportation, the transport device 103 is in an optimal position with the cup in the state of "no left over" (dirty) in an upward position according to the method and location of transport. Transport to dishwasher Dw at a high speed (step S607).
  • the transportation method specifying means 102 determines whether or not information on the next situation is described in the transportation basic data acquired in step S606 (step S608).
  • the transportation method specifying means 102 searches for and obtains basic transportation data corresponding to the “no dirt” situation (steps S604, S605).
  • the transport method specifying means 102 acquires the transport method (posture: free, speed: free) corresponding to the newly acquired "no dirt" and the transport location (cupboard Cb). The information is transmitted to the transport device 103 (step S606). At this time, the transport method specifying means 102 transmits information after waiting for the cup to be washed by the dishwasher Dw. The fact that the dishwasher Dw finishes washing the cup may be notified from the dishwasher Dw to the transport method specifying means 102.
  • the transport device 103 Upon receipt of the information on the method and location of transportation, the transport device 103, in accordance with the method and location of transport, will place the cup in the "no dirt" state in an optimal posture and optimally. Transport the dishwasher Dw to the cupboard Cb at a reasonable speed (step S607).
  • the transportation method specifying means 102 further determines whether information about the following situation is described in the transportation basic data. Here, since the information about the following situation is not described, the transportation process is terminated.
  • the situation recognizing means 101 recognizes the condition of the article changing every moment, and the carrying method specifying means 102 is determined according to the recognition result.
  • the article can be optimally transported by the transport device 103 by specifying the optimal transport method for the condition of the article.
  • the transport method specifying means 102 can It is possible to accurately specify the transportation method corresponding to the condition of the goods.
  • the basic transportation data stored in the transportation information database 104 includes information on the next state of the article that changes as a result of the transportation of the article to the transportation place by the transportation device 103.
  • the transportation device 103 By further including, it becomes possible to carry out a plurality of transportation operations on the article continuously and automatically. As a result, the user can easily carry out instructions for carrying goods, and the convenience of the user can be improved.
  • the transport information database 104 is a database that accumulates transport basic data in which the situation, the transport operation, and the Z or the transport location are associated with each item.
  • the transportation information database 104 may be a knowledge base in which knowledge for identifying an optimum transportation method according to the situation is not limited to this.
  • the transportation method specifying means 102 may be configured as an inference engine that uses the knowledge base to identify an optimal transportation method according to the situation.
  • the transport method may be changed depending on the gripping method of the article to be transported. This is effective when delivering goods to be transported with people. This will be explained in detail with reference to Fig. 10A and Fig. 10B using a glass filled with water as an example.
  • the robot 50 uses a different gripping method. It may be gripped.
  • a method of holding the cup 201 with the hand 52 is usually considered.
  • a cup 201 may be placed on the hand 52 (see FIG. 10B) rather than being gripped by the hand 52.
  • the article information database 104 stores article transportation information as shown in FIG. 10C.
  • “transport location” is omitted.
  • the article information database 104 stores “article holding method” as “situation”. In other words, there are at least two methods for gripping a cup containing water or the like, “grasping with hand 52” and “putting on hand 52”. Various methods other than this can be used as the gripping method, but for the sake of easy understanding, only these two methods will be described here.
  • the posture is set to “upward” and the speed is set to “medium speed” as motion information for the situation.
  • the robot 50 holds the cup 201 by “putting on the hand 52” when the human hand also receives the cup 201, the cup 201 is placed in an unstable state. Conceivable. Therefore, as the motion information for the situation, the posture is set to “upward”, the speed is set to “low speed”, and a slow carrying operation is performed so that the cup 201 is not dropped.
  • the article carrying robot and the article carrying system of the present embodiment can optimally carry an article that can take various situations.
  • the transportation method may be changed depending on the temperature of the article to be transported. This will be described in detail with reference to FIG. 10D using a tea bowl filled with water as an example.
  • the article information database 104 stores article transportation information as shown in Fig. 10D.
  • a bowl filled with water is not dangerous, so it doesn't have to be slow. Therefore, if the temperature of the water in the teacup is too high, if there is no concern about burns even if the teapot power is spilled (specifically, less than 40 ° C), the attitude as motion information “Upward” and the speed are set to “medium speed”.
  • the robot 50 whose water temperature in the teacup is sufficiently high, is handed over to the teacup.
  • the teacup is held at the node 52 by ⁇ putting on the node '' when it is done, if there is a concern such as burns if water (hot water) is spilled from the teacup (specifically, 40 ° C or higher)
  • the posture is set to “upward” and the speed is set to “low”, and the transport operation is slow so as not to spill hot water.
  • the temperature of the content may be detected using a known sensing device such as an infrared sensor.
  • low speed means moving at 2 kmZh or less
  • medium speed means moving at 4 kmZh or less
  • the robot 50 may switch the gripping method.
  • a cup containing water was transported by a gripping method of “put on the node 52”, but if another transport command was received by the user, the robot would “grip at the node 52”. Change the method and increase the transport speed.
  • Such a command from the user should be executed by attaching a microphone to the living space where the robot 50 carries and performing voice recognition of the voice information collected by the microphone.
  • the present invention recognizes the state of an article and then transports the article using a transportation method according to the situation, the article can be transported optimally in various situations.
  • the force that can be used is useful for an article carrying mouth bot including various robots or an article carrying system used in a living space.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

 物品運搬用ロボット又は物品運搬システム(10)は、物品の状況を認識する状況認識手段(101)と、状況認識手段(101)によって認識された状況に応じて運搬方法を特定する運搬方法特定手段(102)と、運搬方法特定手段(102)によって特定された運搬方法に従って、物品の運搬を行う運搬装置(103)と、を備える。

Description

明 細 書
物品運搬用ロボット、物品運搬システム、及び物品運搬方法
技術分野
[0001] 本発明は、物品を運搬する物品運搬用ロボット、物品運搬システム、及び物品運搬 方法に関する。
背景技術
[0002] ロボットは、物品を把持 ·運搬する機能を生力して多くの分野で有効に利用されて いる。例えば、工場における自動製品組み立てラインにおいて部品の把持及び運搬 を行うロボット、また自動化された倉庫において在庫品の運搬を行うロボット等、その 例を挙げるときりがない。
[0003] そして今日では、産業用として成熟してきたロボット技術を生かし、産業用途以外の 用途、特に家庭で人間と共存しながら人間の生活を支援するという目標に向けて一 般家庭向けのロボットの研究開発がさかんに行われるようになつてきた。例えば、ぺッ トの飼えな 、環境にぉ 、てペットのような振る舞 、をすることによって人の心を癒すェ ンタティメント系ロボットや、多数のセンサを備え、部屋の中の障害物をセンサで検知 してそれを回避しながら部屋の中を掃除するロボットをはじめとする、いわゆる家事支 援系ロボットが実際に開発され、製品化されている。
[0004] また、家庭内のおいて様々な家事支援を行うために必要不可欠な要素技術も、さ かんに開発されている。例えば各種物品を自由に把持しかつ運搬するハンドリング 技術や、ロボットが移動する空間内の様子を認識するセンシング技術等である。こうし た技術開発が進むことによって、将来は人に代わって様々な家事を実行するロボット が実現するであろう。
[0005] ところで、ロボットが家事支援を行うために最も基本となる機能の 1つとして、物品の 把持機能及び運搬機能が挙げられる。こうした機能は、上述したように、工場におけ る自動製品組み立てラインで使用されるロボット等によって、産業用途では既に実現 されている。こうした、産業用途のロボットは、多くの場合、特定の環境で使用される。 また特に少品種大量生産の場合は、そのロボットの動作プログラムをー且設定すれ ば、その後はプログラムの修正はほとんど必要な 、。
[0006] し力しながら、近年のユーザニーズの多様ィ匕に伴い製品が多様ィ匕しており、従来の 大量生産型から多品種少量生産型に変わりつつある。そのため、工場においても口 ボットが取り扱う部品の変更が頻繁に行われることになり、扱う部品を変更する際に、 その変更に対してロボットの対応を簡単にしたいという要求が生まれる。
[0007] そうした要求を満たす従来技術の 1つとして、例えば特開昭 64— 2882号公報に開 示されたシステムが挙げられる。このシステムは、ロボットが取り扱う対象 (部品)の種 類と、その部品の取り扱い方法を表すロボットの動作情報 (例えばアームゃノ、ンドの 動作制御プログラム)とを対応付けたデータを蓄積したデータベースを備える。そして 、このシステムは、ラインを流れる部品の種類を認識すると共に、その認識した部品の 種類に対応する動作情報を上記データベース力 取得して、上記ロボットがその動 作情報に従って動作する。
[0008] このシステムは、ロボットが行う全ての動作をプログラムに埋め込むという従来のロボ ットシステムの構成方法を採用するのではなぐ単にロボットを外部から制御可能な機 械として位置づけ、ロボットを動作させる動作情報を外部に所有しておいて、ロボット が扱う物品に応じて動作情報を切り替える、点に特徴がある。つまり、上記特開昭 64 2882号公報には、ロボット本体とロボット動作プログラムを切り分けたシステムの概 念が示唆されており、こうしたシステムは、産業分野では非常に利用価値が高い。 発明の開示
発明が解決しょうとする課題
[0009] ところで、上記のシステムをそのまま家庭用ロボットに適用しょうとすると、以下のよう な大きな問題が生じる。
[0010] つまり、上記特開昭 64— 2882号公報に開示されたシステムは産業用途であるた め、ロボットが取り扱う(運搬する)物品の種類が多くても、各物品に対して 1つの運搬 方法のみが設定されている。これに対し、一般家庭等においては物品の状況が変化 するため、 1つの運搬方法では対応することができない場合がある。
[0011] このことについて、具体例を挙げて説明する。例えば運搬対象がコップである場合 を考える。一般家庭等においてコップは、「その内部に飲み物が入っていない」及び「 その内部に飲み物が入っている」、という 2つの状況を取り得る。これに対し、コップの 運搬方法として、「飲み物が入って!/ヽな!ヽ」状況に対応した運搬方法しか設定されて いないと仮定すると、「飲み物が入っている」コップを運搬しょうとしたときに、設定され ている運搬方法では、重量が重いためコップを保持することができない、またコップの 保持姿勢や運搬速度等の設定により、運搬中にコップの中の飲み物をこぼしてしまう 、さらに飲み物が入っていない場合は食器棚 Cbに、飲み物が入っている場合は冷 蔵庫 Rgに、それぞれコップを運搬させたいのに対し、飲み物の有無に拘らず常に同 じ場所に運搬されてしまう、といった不具合が生じる。
[0012] また、別の例として運搬対象が食器 (例えば皿等)である場合を考える。つまりロボ ットが食後の食器の片付け作業を行うとする。食後の食器は、「汚れている」、「食べ 残しが存在する」等の様々な状況を取り得る。そのため、その食器の状況に応じた片 付け作業をして欲しいという要求が生まれる。つまり、食べ残しが存在しない食器は、 食洗機 Dwに運搬する一方、食べ残しが存在する食器は、その食器をまず生ごみ入 れ Gbに運搬して食べ残しを捨てた後に、食洗機 Dwに運搬する、といったような作業 である。ところが、食器に対して 1つの運搬方法しか設定されていないと仮定すると、 食器の状況に応じて運搬場所を切り替えることはできない。
[0013] すなわち、上記特開昭 64— 2882号公報に開示されたシステムをそのまま一般家 庭等に適用しょうとしたとき生じる問題は、一般家庭等にお 、ては物品の状況が刻々 と変化するのに対し、物品の運搬方法をその状況の変化に対応して変えることができ ない点にある。
[0014] 本発明は、このような事情に鑑みてなされたものであり、その目的とするところは、物 品の状況が変化する場合に、その状況の変化に対応して物品を最適な運搬方法で 運搬可能な、物品運搬用ロボット、物品運搬システム及び物品運搬方法を提供する ことにある。
課題を解決するための手段
[0015] 本発明は、上記目的を達成するため、以下のように構成している。
[0016] 本発明の第 1態様によれば、生活空間内の物品の IDが同じで上記物品の状況に より運搬方法が異なるような上記物品の運搬を行う物品運搬用ロボットであって、 上記運搬対象の物品の状況を認識する状況認識手段と、
上記状況認識手段によって認識された上記物品の状況に応じて、当該物品の運 搬方法を特定する運搬方法特定手段と、
上記運搬方法特定手段によって特定された運搬方法に従って、上記運搬対象の 物品の運搬を行う運搬装置と、を備えた物品運搬用ロボットを提供する。
[0017] 本発明の第 6態様によれば、生活空間内の物品の IDが同じで上記物品の状況に より運搬方法が異なるような上記物品の運搬を行うロボットに上記物品の運搬指示を 出力する物品運搬システムであって、
運搬対象の各物品の状況毎に、当該状況と運搬方法及び Z又は運搬場所とを対 応付けた運搬情報を蓄積する運搬情報データベースと、
上記運搬対象の物品の状況を認識する状況認識手段からの認識結果を受けて、 当該状況に応じて上記運搬情報データベースを参照して当該物品の運搬方法を特 定する運搬方法特定手段とを備えて、
上記運搬方法特定手段により上記運搬情報データベースを参照して特定した運搬 方法に基づいて上記ロボットに運搬指示を出力する物品運搬システムを提供する。
[0018] 本発明の第 7態様によれば、生活空間内の物品の IDが同じで上記物品の状況に より運搬方法が異なるような上記物品の運搬をロボットで行う物品運搬方法であって 上記運搬対象の物品の状況を認識し、
上記物品の状況を認識した物品の状況に応じて、当該物品の運搬方法を特定し、 上記特定した運搬方法に従って、上記ロボットが上記運搬対象の物品の運搬を行 う、ことを含む物品運搬方法を提供する。
発明の効果
[0019] 本発明の物品運搬用ロボット、物品運搬システム、及び物品運搬方法によれば、運 搬対象の物品の状況を認識しかつ、その認識結果に応じて運搬方法を特定した上 で物品を運搬するため、物品の状況が変化する場合に、その状況に応じた最適な運 搬方法で物品を運搬することができる。
図面の簡単な説明 本発明のこれらと他の目的と特徴は、添付された図面についての好ましい実施形 態に関連した次の記述から明らかになる。この図面においては、
[図 1A]図 1Aは、本発明の 1つの実施形態に係る物品運搬用ロボット又は物品運搬 システムを示すブロック図であり、
[図 1B]図 1Bは、本発明の上記実施形態に係る物品運搬用ロボットを示すブロック図 であり、
[図 1C]図 1Cは、本発明の上記実施形態に係る物品運搬システムを示すブロック図 であり、
[図 1D]図 1Dは、本発明の上記実施形態に係る、別の物品運搬システムを示すプロ ック図であり、
[図 2A]図 2Aは、本発明の上記実施形態に係る、さらに別の物品運搬システムの構 成例を示す説明図であり、
[図 2B]図 2Bは、本発明の上記実施形態に係る物品運搬システムのロボット又は物品 運搬用ロボットにより物品が運搬される生活環境の一例としての部屋の間取り図であ り、
[図 2C]図 2Cは、図 2Aの物品運搬システムのブロック図であり、
[図 2D]図 2Dは、本発明の上記実施形態に係る物品運搬システムのロボット又は物 品運搬用ロボットにより物品が運搬される生活環境の別の例としての部屋 (本棚 と テーブル Tbと椅子 Chがある部屋)の斜視図であり、
[図 2E]図 2Eは、本発明の上記実施形態に係る物品運搬システムのロボット又は物品 運搬用ロボットにより物品が運搬される生活環境のさらに別の例としての部屋の間取 り図であり、
[図 2F]図 2Fは、状況認識手段を詳細に示す物品運搬用ロボット又は物品運搬シス テムのブロック図であり、
[図 2G]図 2Gは、ロボットの保持装置の姿勢制御を行うための上記保持装置の模式 図を示したものであり、
[図 2H]図 2Hは、移動装置や保持装置のモータ制御形式のァクチユエータなどの任 意の駆動部の駆動制御系を示すブロック図であり、 圆 21]図 21は、姿勢を制御するときに設定する座標系の説明図であり、
[図 2J]図 2Jは、環境マップデータベースの環境マップの実環境の例の説明図であり、 [図 2K]図 2Kは、環境マップデータベースの環境マップの図 2Jの実環境を立体モデ ルで簡略ィヒした環境マップの説明図であり、
[図 2L]図 2Lは、環境マップデータベースの環境マップの図 2Jの実環境をさらに平面 モデルで簡略ィ匕した環境マップの説明図であり、
[図 2M]図 2Mは、環境マップに付随する設備データベース内に記憶されるテーブル の一例を示す図であり、
圆 3A]図 3Aは、本発明の上記実施形態に係る物品運搬システム又は物品運搬用口 ボットの運搬情報データベースに蓄積されるデータ (皿について設定されている運搬 データ)の一例を示す図であり、
圆 3B]図 3Bは、本発明の上記実施形態に係る物品運搬システム又は物品運搬用口 ボットの運搬情報データベースに蓄積されるデータ (コップについて設定されている 運搬データ)の一例を示す図であり、
圆 3C]図 3Cは、本発明の上記実施形態に係る物品運搬システム又は物品運搬用口 ボットの運搬情報データベースに蓄積されるデータ (本につ!、て設定されて!、る運搬 データ)の一例を示す図であり、
圆 4A]図 4Aは、本発明の上記実施形態に係る物品運搬システム又は物品運搬用口 ボットの運搬情報データベースに蓄積されるデータ (コップについて設定されている 運搬データ)の他の例を示す図であり、
圆 4B]図 4Bは、図 4Aの運搬情報データベースに蓄積されるデータ (速度規制 1の 運搬速度を含むデータ)の他の例を示す図であり、
圆 4C]図 4Cは、図 4Aの運搬情報データベースに蓄積されるデータ (速度規制 2の 運搬速度を含むデータ)の他の例を示す図であり、
[図 4D]図 4Dは、図 4Aの運搬情報データベースに蓄積されるデータ (速度規制 3の 運搬速度を含むデータ)の他の例を示す図であり、
[図 4E]図 4Eは、図 4Dの運搬情報データベースに蓄積されるデータに関して、床面 を特定する手法を説明するための図であり、 [図 5]図 5は、本発明の上記実施形態に係る物品運搬システム又は物品運搬用ロボ ットの運搬情報データベースに蓄積されるデータのさらに他の例を示す図であり、 圆 6A]図 6Aは、本発明の上記実施形態に係る物品運搬システム又は物品運搬用口 ボットのレーザ光線を使用した状況認識手段の例を示す説明図であり、
圆 6B]図 6Bは、本発明の上記実施形態に係る物品運搬システム又は物品運搬用口 ボットのレーザ光線を使用した状況認識手段の例を示す説明図であり、
圆 7A]図 7Aは、本発明の上記実施形態に係る物品運搬システム又は物品運搬用口 ボットにぉ 、て、重量センサとタグリーダを使用した状況認識手段の例を示した説明 図であり、
圆 7B]図 7Bは、本発明の上記実施形態に係る物品運搬システム又は物品運搬用口 ボットにぉ 、て、重量センサとタグリーダを使用した状況認識手段の例を示した説明 図であり、
圆 7C]図 7Cは、本発明の上記実施形態に係る物品運搬システム又は物品運搬用口 ボットにぉ 、て、重量センサとタグリーダを使用した状況認識手段の例を示した説明 図であり、
[図 7D]図 7Dは、本発明の上記実施形態に係る物品運搬システム又は物品運搬用口 ボットにぉ 、て、重量センサとタグリーダを使用した状況認識手段の例を示した説明 図であり、
[図 7E]図 7Eは、本発明の上記実施形態に係る物品運搬システム又は物品運搬用口 ボットにぉ 、て、重量センサとタグリーダを使用した状況認識手段の例を示した説明 図であり、
[図 7F]図 7Fは、本発明の上記実施形態に係る物品運搬システム又は物品運搬用口 ボットにぉ ヽて、タグリーダを使用した状況認識手段の例を示した説明図であり、 [図 8]図 8は、本発明の上記実施形態に係る物品運搬システムのロボット又は物品運 搬用ロボットを例示する模式図であり、
[図 9]図 9は、本発明の上記実施形態に係る物品運搬システム又は物品運搬用ロボ ットの物品運搬処理を示すフローチャートであり、
圆 10A]図 10Aは、本発明の上記実施形態に係る物品運搬システム又は物品運搬 用ロボットにおいて、水を入れたコップの把持方法によって運搬方法を変化させるこ とを説明する説明図であり、
[図 10B]図 10Bは、本発明の上記実施形態に係る物品運搬システム又は物品運搬 用ロボットにおいて、水を入れたコップの把持方法によって運搬方法を変化させるこ とを説明する説明図であり、
[図 10C]図 10Cは、本発明の上記実施形態に係る物品運搬システム又は物品運搬 用ロボットにおいて、水を入れたコップの把持方法によって運搬方法を変化させると きの物品情報データベースを示す図であり、
[図 10D]図 10Dは、本発明の上記実施形態に係る物品運搬システム又は物品運搬 用ロボットにおいて、茶碗の中の水の温度によって運搬方法を変化させるときの物品 情報データベースを示す図である。
発明を実施するための最良の形態
[0021] 本発明の記述を続ける前に、添付図面において同じ部品については同じ参照符号 を付している。
[0022] 以下、本発明の実施形態について説明する前に、本発明の種々の態様について 説明する。
[0023] 本発明の第 1態様によれば、生活空間内の物品の IDが同じで上記物品の状況に より運搬方法が異なるような上記物品の運搬を行う物品運搬用ロボットであって、 上記運搬対象の物品の状況を認識する状況認識手段と、
上記状況認識手段によって認識された上記物品の状況に応じて、当該物品の運 搬方法を特定する運搬方法特定手段と、
上記運搬方法特定手段によって特定された運搬方法に従って、上記運搬対象の 物品の運搬を行う運搬装置と、を備えた物品運搬用ロボットを提供する。
[0024] 本発明の第 2態様によれば、各物品の状況毎に、当該状況と運搬動作及び Z又は 運搬場所とを対応付けた運搬情報を蓄積する運搬情報データベースをさらに備え、 上記運搬方法特定手段は、上記運搬情報データベースを参照することによって、 上記物品の状況に対応する運搬情報を特定する、第 1の態様に記載の物品運搬用 ロボットを提供する。 [0025] 本発明の第 3態様によれば、上記運搬情報は、上記運搬装置によって物品が運搬 場所に運搬された結果、変化する当該物品の次の状況にっ 、ての情報をさらに含 み、
上記運搬方法特定手段は、上記認識された物品の状況に対応する運搬情報を選 択した後に、上記選択した運搬情報に含まれる次の状況についての情報に基づい て、当該次の状況に対応する別の運搬情報をさらに選択し、
上記運搬装置は、上記別の運搬情報が選択されたときには、その別の運搬情報に 従って上記物品の運搬をさらに実行する、第 2の態様に記載の物品運搬用ロボットを 提供する。
[0026] 本発明の第 4態様によれば、上記運搬対象の物品は、物体を載置又は収容する機 能を有し、
上記状況認識手段は、上記運搬対象の物品が物体を載置又は収容して ヽるか否 力の状況を認識する、第 1の態様に記載の物品運搬用ロボットを提供する。
[0027] 本発明の第 5態様によれば、上記状況認識手段は、上記運搬対象の物品に、他の 物品が積載されているか否かの状況を認識する、第 1の態様に記載の物品運搬用口 ボットを提供する。
[0028] 本発明の第 6態様によれば、生活空間内の物品の IDが同じで上記物品の状況に より運搬方法が異なるような上記物品の運搬を行うロボットに上記物品の運搬指示を 出力する物品運搬システムであって、
運搬対象の各物品の状況毎に、当該状況と運搬方法及び Z又は運搬場所とを対 応付けた運搬情報を蓄積する運搬情報データベースと、
上記運搬対象の物品の状況を認識する状況認識手段からの認識結果を受けて、 当該状況に応じて上記運搬情報データベースを参照して当該物品の運搬方法を特 定する運搬方法特定手段とを備えて、
上記運搬方法特定手段により上記運搬情報データベースを参照して特定した運搬 方法に基づいて上記ロボットに運搬指示を出力する物品運搬システムを提供する。
[0029] 本発明の第 7態様によれば、生活空間内の物品の IDが同じで上記物品の状況に より運搬方法が異なるような上記物品の運搬をロボットで行う物品運搬方法であって 上記運搬対象の物品の状況を認識し、
上記物品の状況を認識した物品の状況に応じて、当該物品の運搬方法を特定し、 上記特定した運搬方法に従って、上記ロボットが上記運搬対象の物品の運搬を行 う、ことを含む物品運搬方法を提供する。
[0030] 本発明の第 8態様によれば、上記物品の状況により、上記物品の上記運搬方法が 異なるとともに、さらに、運搬場所も異なる、第 1の態様に記載の物品運搬用ロボット を提供する。
[0031] 本発明の第 9態様によれば、上記物品を保持する保持装置をさらに備え、
上記保持装置で上記物品を保持しながら上記物品を運搬する、第 1の態様に記載 の物品運搬用ロボットを提供する。
[0032] 本発明の第 10態様によれば、上記運搬対象の物品が食器であり、上記物品運搬 用ロボットは食後の食器の片付け作業を行うロボットとして機能し、上記食器が汚れ て ヽる状況と上記食器が汚れて!/ヽな!ヽ状況とでは運搬場所と運搬方法が異なる、第 1の態様に記載の物品運搬用ロボットを提供する。
[0033] 以下、本発明の実施形態について、図面を参照しながら説明する。
[0034] (物品運搬用ロボットの全体構成)
図 1Aは、本発明の第 1実施形態における、物品運搬用ロボット 10又は物品運搬シ ステム 10の構成図を示す。この物品運搬用ロボット又は物品運搬システム 10は、状 況認識手段 101、運搬方法特定手段 102、運搬装置 103、及び運搬情報データべ ース 104とを備えて、運搬方法特定手段 102には、状況認識手段 101と運搬装置 10 3と運搬情報データベース 104とが接続されて構成されている。このような物品運搬 用ロボット又は物品運搬システム 10は、一般家庭、オフィス、ホテル、店舗又は病院 等の、人間が生活を営む空間(以下、生活空間と呼ぶ)において、物品の運搬を、人 に代わって行う物品運搬用ロボット又は物品運搬システム 10であり、ユーザによる作 業命令を受けたときに物品の運搬を行う場合と、物品運搬用ロボット又は物品運搬シ ステム 10が生活空間内の状況を判断して自動的に物品の運搬を行う場合とが存在 する。自動的に物品の運搬を行う例としては、例えば物品が生活空間内に長時間置 かれているときに、その物品を自動的に片付ける場合を挙げることができる。以下に おいては、一般家庭を対象とした物品運搬用ロボット又は物品運搬システム 10の構 成について説明する。なお、図 2Bは、物品運搬用ロボット又は物品運搬システム 10 により物品が運搬される生活空間の一例としての部屋の間取り図であり、 Dwは食洗 機、 Ksはシンク、 Gbは生ゴミ入れ、 Rgは冷蔵庫、 Cbは食器棚、 Tbはテーブルであ る。
[0035] 本物品運搬用ロボット又は物品運搬システム 10のうちの物品運搬用ロボットは、図 1Bに示すように、状況認識手段 101、運搬方法特定手段 102、運搬装置 103、及び 運搬情報データベース 104の全てを搭載した、図 8に示すような 1つのロボット 50より 構成することができる。運搬方法特定手段 102には、状況認識手段 101と運搬装置 103と運搬情報データベース 104とが接続されている。
[0036] なお、これらの構成要素を 1つの装置 (例えばロボット)に搭載した場合には、「物品 運搬用ロボット」 10と呼び、これらの構成要素のうちの一部の構成要素を、運搬装置 103を備えるロボット 50外に配置した場合には、「物品運搬システム」と呼ぶことにす る。
[0037] 上記運搬情報データベース 104は、生活空間内の物品を運搬する際にその物品 の状況に応じた複数の運搬方法の中から最適な運搬方法を特定するための知識( 情報)を予め蓄積したデータベースである。
[0038] 上記状況認識手段 101は、運搬対象の物品の認識と、その物品の状況の認識とを 行う。この状況認識手段 101は、後述するように、カメラ (例えばカメラ 502)、温度セ ンサ、重量センサ(例えば重量センサ 101b, 101b— l〜101b— 9)、タグリーダ(例 えばタグリーダ 101c, TR, TRw, TR1〜TR9, TR11〜TR17, TR91, TR92など )等の各種センサ 101aより構成する力、又は、各種センサ 101aと、各種センサ 101a で検出されたデータを処理する処理部、例えば認識処理部 101p又は推論処理部 1 Olgと、検出されたデータを処理 (認識処理又は推論処理)する際に必要なデータが 蓄積されたデータベース 101dとより構成する(図 2F参照)。
[0039] 上記運搬方法特定手段 102は、上記状況認識手段 101によって認識された物品、 及びその状況に応じて、運搬情報データベース 104に予め蓄積された当該物品の 複数の運搬方法の中から、当該物品を運搬する際に最適な運搬方法を特定する。 すなわち、上記運搬方法特定手段 102は、上記運搬情報データベース 104を参照 することによって、生活空間内の物品の IDが同じであるが、上記物品の状況により運 搬方法が異なり、複数の運搬方法が存在するとき、上記物品の状況に応じて、複数 の運搬方法のうちから 1つの運搬方法の特定を行う。また、上記運搬方法特定手段 1 02は、特定した運搬方法の情報を上記運搬装置 103に送信する。
[0040] 上記運搬装置 103は、上記運搬方法特定手段 102によって特定された運搬方法 の情報に従って上記運搬対象の物品の運搬を実行する。
[0041] また、上記物品運搬用ロボット又は物品運搬システム 10のうちの物品運搬システム の一例としては、図 1Cに示すように、上記状況認識手段 101を、図 8のロボット 50以 外の、ロボット 50が運搬作業を行う生活空間内に設置 (例えば、状況認識手段 101 の一例であるカメラ 502を図 2Aに示すように天井に設置)し、上記運搬方法特定手 段 102、運搬装置 103、及び運搬情報データベース 104を、ロボット 50に搭載して構 成するようにしてちょい。
[0042] また、上記物品運搬システムの別の例としては、図 1Dに示すように、運搬情報デー タベース 104をコンピュータ(例えば家庭内情報サーバー等)内に構築するとともに、 上記状況認識手段 101を、図 8のロボット 50に設置する力、又は、図 8のロボット 50 以外の、ロボット 50が運搬作業を行う生活空間内に設置 (例えば、状況認識手段 10 1の一例であるカメラ 502を図 2Aに示すように天井に設置)し、ロボット 50に運搬装 置 103と運搬方法特定手段 102とが搭載され、その運搬方法特定手段 102が、必要 に応じて無線及び/又は有線のネットワークを介して上記コンピュータに構築された 運搬情報データベース 104にアクセスしてもよ 、。
[0043] さらに、上記物品運搬システムのさらに別の例としては、例えば図 2Aに示すように、 状況認識手段 101、運搬方法特定手段 102、運搬装置 103、及び運搬情報データ ベース 104をそれぞれ独立して設け、これらを有線又は無線のネットワークを介して 互いに接続することによって構成することも可能である。より具体的には、図 2Cに示 すように、運搬情報データベース 104と運搬方法特定手段 102とをコンピュータ (例 えば運搬情報管理サーバ 401)内に構築し、ロボット 50には運搬装置 103のみを搭 載し、必要に応じて上記コンピュータに構築された運搬情報データベース 104に運 搬方法特定手段 102がアクセスし、無線及び Z又は有線のネットワークを介して、口 ボット 50の運搬装置 103に運搬情報を出力するようにしてもよい。この図 2Aに示す 物品運搬システムでは、ロボット 50自体は、運搬装置 103そのものとなる。また、運搬 方法特定手段 102は、状況認識手段 101からの認識結果を受けて運搬方法を特定 すると共に、その特定した方法に基づいて上記運搬装置 103 (例えばロボット 50)に 運搬指示を出力する運搬指示装置とも言うことができる。
[0044] 図 2Aに示す物品運搬システムのブロック図である図 2Cにおいて、物品運搬システ ムは、大きく分けて、運搬装置 103として機能するロボット 50と、生活空間 (環境)内 の状況を把握する状況認識手段 101を含むサーバとしての環境管理サーバ 401と、 及び操作装置としての操作端末 403との 3個のサブシステムカゝら構成されている。
[0045] サブシステム 401〜403はそれぞれ送受信手段 409を備えており、これらの送受信 手段 409によって、それぞれの制御手段の制御の基に、無線又は有線のネットヮー クを介して、情報やデータ、信号などのやり取りを互いに独立して行うことができる。な お、各送受信手段 409は、共通の処理を行うため、図 2Cでは同一の符号 409を付し ている。
[0046] なお、ここでの説明では、「環境」は、一例として、家の部屋とする力 本発明はこれ に限られるものではなぐ生活空間であって物品が配置されている空間を意味する。
[0047] 各サブシステムの構成と動作について、以下に説明する。
[0048] <環境管理サーバの構成 >
環境管理サーバ 401は、上記状況認識手段 101によって把握した状況のうち、環 境内に存在する物品と、ロボット 50の運搬方法を特定する上記運搬方法特定手段 1 02と、生活空間内の物品を運搬する際にその物品の状況に応じた複数の運搬方法 の中から最適な運搬方法を特定するための知識 (情報)を予め蓄積した上記運搬情 報データベース 104と、運搬動作を行う生活空間(環境)の状況、すなわち、物品及 び人やロボット 50を含む移動体及び移動体以外の設備など環境全体の状況を管理 する環境マップ管理手段 407と、その環境全体の状況のデータを蓄積する環境マツ プデータベース 408とを備えている。状況認識手段 101からの出力信号は、運搬方 法特定手段 102と環境マップ管理手段 407とにそれぞれ入力されるように接続され ている。運搬方法特定手段 102は、運搬情報データベース 104と制御手段 410と〖こ 接続されている。環境マップ管理手段 407は、環境マップデータベース 408と制御手 段 410とに接続されている。送受信手段 409は、制御手段 410に接続されている。
[0049] 送受信手段 409は、制御手段 410の制御の基に、運搬情報データベース 104のデ ータ及び環境マップ 408のデータの問 、合わせ (信号)や運搬動作要求 (信号)を外 部から受信したり、その応答信号を外部に発信したり、また、ロボット 50に対する運搬 動作などの制御コマンドを送信したりする。制御手段 410は、運搬方法特定手段 10 2、環境マップ管理手段 407、及び送受信手段 409のそれぞれの動作を独立してコ ントロールする。
[0050] 状況認識手段 101は、詳細は後述するように、運搬対象の物品の認識と、その物 品の状況の認識とを行う他、環境内に存在する家具などの設備や物品、及び環境内 に存在する人やロボット 50について、その位置 (位置座標)と状態 (座る、外出、立つ 、寝る、歩ぐ保持、吸着、把持、解放など)を常時監視することもできる。
[0051] また、状況認識手段 101は、人やロボット 50によって、環境内に物品が持ち込まれ たことや、環境外へ物品が持ち出されたことも検出可能である。状況認識手段 101は 、具体的には、環境内に設置されたカメラ (画像センサ) 502や、タグリーダ TR等があ る力 詳細については後述する。そして、物品などを検出したとき、状況認識手段 10 1は、その検出情報を運搬方法特定手段 102及び環境マップ管理手段 407に送信 する。状況認識手段 101から運搬方法特定手段 102及び環境マップ管理手段 407 に送信する情報としては、例えば、物品の検出時刻、物品の位置 (位置座標)及び向 き等がある。
[0052] 運搬方法特定手段 102は、状況認識手段 101によって検出された物品などの情報 を、運搬情報データベース 104に蓄積して管理する。運搬情報データベース 104に 管理する情報は、少なくとも物品の HD情報と現在位置 (位置座標)の情報を含む。運 搬情報データベース 104の詳細については後述する。
[0053] また、運搬方法特定手段 102は、状況認識手段 101からの情報に基づいて、上記 運搬情報データベース 104を参照することによって 1つの運搬方法の特定を行う。さ らに、運搬方法特定手段 102は、送受信手段 409で受信するなどの結果として制御 手段 410から運搬方法特定手段 102に物品の運搬動作の要求があつたとき、その物 品の運搬動作の要求の内容に応じて必要な情報を運搬情報データベース 104から 取り出し、制御手段 410に送る。運搬方法特定手段 102の詳細については後述する
[0054] また、環境マップ管理手段 407は、状況認識手段 101からの情報に基づいて、環 境マップを作成して環境マップデータベース 408に蓄積するとともに、その作成した 環境マップの管理を環境マップデータベース 408で行う。環境マップデータベース 4 08に蓄積された環境マップは、ロボット 50が生活空間(環境)内を移動して物品の運 搬動作を行うときに利用するものであり、ロボット 50はこの環境マップをサーノ 01か ら取得して、物品の運搬動作の際のロボット 50の移動経路計画を立てることができる
[0055] さらに、環境マップ管理手段 407は、送受信手段 409で受信するなどの結果として 制御手段 410から環境マップ管理手段 407に、環境マップデータベース 408に関す る問い合わせや物品の運搬動作の要求などがあつたとき、その問い合わせや物品の 運搬動作の要求などの内容に応じて必要な情報を環境マップデータベース 408から 取り出し、制御手段 410に送る。
[0056] また、制御手段 410は、環境管理サーノ 01の全体を制御する要素であり、主な 制御内容としては以下のものがある。
[0057] 1)送受信手段 409が、環境管理サーバ 401内にある各種データに関する問い合 わせや物品の運搬動作などの要求を受信したとき、その問い合わせや物品の運搬 動作などの要求の内容を制御手段 410で判断し、その判断結果に応じて、制御手段 410から運搬方法特定手段 102や環境マップ管理手段 407にデータの参照要求を 出す。
[0058] 2)上記要求に対して物品及び移動体検索管理手段 405又は環境マップ管理手段 407から制御手段 410に送られてきた結果を、制御手段 410の制御の基に、送受信 手段 409を介して、問い合わせ元や物品の運搬動作の要求元などに送る。
[0059] 3)操作端末 403から送受信手段 409を介して制御手段 410に送信されたロボット 5 0の物品の運搬動作などの要求に力かる作業内容メッセージを解釈し、そのロボット 5 0に動作を実行させるためのロボット制御コマンド列を制御手段 410で生成して、制 御手段 410から送受信手段 409を介してロボット 50に送信する。なお、ロボット制御 コマンド列については、後述する。
[0060] 4)必要に応じて、一定時間毎に、運搬情報データベース 104で管理している物品 の一部又は全部の状況や、環境マップデータベース 408で管理して 、る環境マップ の状況を、送受信手段 409を介して制御手段 410により、ロボット 50やユーザ (操作 端末 403)にブロードキャストする。
[0061] (環境マップと設備データベース)
図 2J〜図 2Lは環境マップデータベース 408の環境マップの例である。図 2Jは実環 境の例、図 2Kは図 2Jの実環境を立体モデルで簡略ィ匕した環境マップ、図 2Lはさら に平面モデルで簡略ィ匕した環境マップである。
[0062] 環境マップは、その用途や、作成にかかる時間(手間)に応じて作成すればよ!、。
例えば、立体モデル力 なる環境マップを極めて短時間で作成する必要があるとき は、図 2Kのように、環境内に存在する立体物を、それを覆う最小の直方体でモデル 化すればよい。図 2Kでは、テーブル Tbと本棚 Bsはそれぞれ直方体でモデル化され 、ゴミ箱 Tsは略円柱でモデルィ匕されている。平面モデル力もなる環境マップも同様で あり、図 2Lでは、テーブル Tbと本棚 Bsは平面に正射影した矩形領域 (斜線を付した 領域)でそれぞれモデル化され、ゴミ箱 Tsは円領域 (斜線を付した領域)でモデルィ匕 されている。これら 2つの矩形領域及び円領域は、ロボット 50が移動不可能な領域に 設定される。さらに、図 2Jに示すような実環境をそのまま立体モデルィ匕したものを、環 境マップとしてもよい。
[0063] 図 2Mは環境マップに付随する設備データベース 408eの一例を示す図であり、上 記環境に対応したものである。この設備データベース 408eは、設備データと、設備 属性データとをそれぞれ蓄積する 2つのサブデータベース 408e— 1 , 408e 2から なる。
[0064] 1)設備データ
設備データのサブデータベース 408e— 1に蓄積される設備データは、環境それ自 体、及びこの環境内の個々の設備 (物品とは異なり、環境に固定又は設置されたもの であって、ロボット 50の運搬動作作業の対象外となるもの)を特定するための 情報
(例えば、図 2Mにおいて、 IDとして「room— 0001」など)と、設備属性データへのポ インタ(例えば、図 2Mにおいて、属性データとして「room01」など)とを含む。より具 体的には、図 2Mでは、環境 (部屋)には HD情報として「room_0001」が付され、環境 内に存在するテーブル Tb、本棚 Bs及びゴミ箱 Tsには、それぞれ、 情報として「tab le— 0001」、 rbookshelf 0001J、「trash— 0001」が付されて!、る。
[0065] 2)設備属性データ
設備属性データのサブデータベース 408e— 2に蓄積される設備属性データは、環 境自体に係る設備属性データは、その環境内の床面データを含む。例えばその環 境内に互いに高さの異なる複数の床面が存在するときは、その床面の数だけ床面デ ータ(例えば、図 2Mにおいて、 room— 01の構成面として「床面 1,床面 2」など)が 蓄積される。床面データは、例えば次のように表される。
( (XI, Yl, Z1) , (X2, Y2, Z2) , (X3, Y3, Ζ3) , (Χ4, Υ4, Ζ4) ,2200,0)
ここで、最初の 4組の座標値は、床面を構成する各頂点の実世界座標を表し、次の 値(2200)は、その床面力も天井までの距離 (mm)を表す。また、最後の値 (0)は床 面の材質を意味する。例えば、「0」はフローリング、「1」は畳、「2」は絨毯等とすれば よい。
[0066] 家具等の設備に係る設備属性データは、その設備を構成する各面のデータ (面 1, 面 2)、設備の種類、その設備が物品を載置可能な面を有する場合、その面に載置さ れる主な物品の形状とその姿勢を含む。具体的には例えば、設備を構成する面のデ ータは次のように表される。
( (XI, Yl, Z1) , (X2, Y2, Z2) , (X3, Y3, Ζ3) , 1,400)
ここで、最初の 3組の座標値は、その面を構成する各頂点の実世界座標を表す。次 の値(1)はその面に物品が運搬後に載置可能な否かのフラグであり、「1」は物品が 運搬後に載置可能、「0」は運搬後に載置不可能を示す。最後の値 (400)は、その 面に物品が運搬後に載置可能であるとき、その載置可能な物品の上限高さ (mm)を 示す。例えばその面がテーブルの天板であるときは、天板力 天井までの距離が上 限高さであり、その面が本棚におけるある一つの棚面であるときには、その棚面から 直上の棚までの距離が上限高さとなる。
[0067] 設備属性データにおける「主な物品の形状」とは、その設備に収容される物品の形 状である。設備の種類が本棚であれば、「本の形状」となる。つまり、その幅に比べて 奥行きと高さが極端に長い直方体が本棚の主な物品の形状である。また、「主な物品 の姿勢」とは、その設備に収容されるときの物品の姿勢である。設備の種類が本棚で あれば、本を運搬した後に、その本をどのような姿勢で本棚の棚面に載置するかであ り、通常は、本を横にした状態で運搬したのち、そのまま横にした状態で本棚の棚面 に載置するが、必要に応じて、本を立てた姿勢に変えて本棚の棚面に載置できるよう にしてもよ!、。設備属性データに「主な物品の形状と姿勢」のデータを蓄積することに よって、例えば、ロボット 50に本を本棚に運搬させる作業を指定したとき、そのロボット 50は「主な物品の形状と姿勢」データを基にして、指定された本を立てた姿勢で本棚 の棚に運搬して載置することができる。
[0068] ただし、設備の種類によっては、この「主な物品の形状と姿勢」データを有しない場 合がある。例えばテーブルやゴミ箱は、物品の形状や姿勢には限定がない。このた め、テーブルゃゴミ箱の設備属性データは、「主な物品の形状と姿勢」のデータを有 しない。
[0069] <ロボットの構成 >
ロボット 50は、ユーザの指示に従って、環境内で物品を運搬させる作業を行うもの とする。
[0070] 図 2C及び図 8に示すように、このロボット 50は、少なくとも、物品を把持する保持装 置 501、運搬対象の物品を認識するためのカメラ 502及び認識処理部 ΙΟΙρ及び光 源 503、ロボット 50の周囲の障害物等を検知する障害物センサ(物品運搬システム 1 0の上記状況認識手段 101の別の例として機能することもできる装置。)411と、ロボ ット 50の送受信手段 409及び制御手段 415並びに環境管理サーバ 401の送受信手 段 409及び制御手段 410及び運搬方法特定手段 102及び環境マップ管理手段 40 7などを介して環境管理サーノ 01の環境マップデータベース 408内の環境マップ を参照してロボット 50の運搬動作に伴う移動計画を立てる移動計画作成手段 413と 、ロボット 50自体を移動させる移動装置 414とを備えている。送受信手段 409は、制 御手段 415の制御の基に、環境管理サーノ 01や操作端末 403との間で種々のデ ータの送受信を行う。制御手段 415は、障害物センサ 411と、送受信手段 409と、物 品運搬システム 10と、移動計画作成手段 413と、移動装置 414とに接続されて、そ れぞれの動作を独立してコントロールする。
[0071] 図 8は物品運搬機能を有するロボット 50の構成例を示した概念図であり、このロボッ ト 50は、上記したように、移動計画作成手段 413や制御手段 415等を収容する略箱 型の本体部 53を備えている。以下、図 8における紙面の右側を前側、紙面の左側を 後側、紙面手前側を左側、紙面奥側を右側と呼ぶ。
[0072] ロボット 50の保持装置 501は、前述のように、多関節アーム 51と、そのアーム 51の 先端に配設されたノヽンド 52と、それぞれのアーム 51及びノヽンド 52を独立してそれぞ れ駆動させる駆動装置とから構成され、本体部 53の両側部の上部に取り付けられて いる。それぞれのアーム 51及びハンド 52の駆動装置は、モータ制御によるァクチュ エータにより構成する(例えば、各関節部分に少なくとも 1つのモータが配設されてお り、そのモータを駆動することによって、アーム 51及びノヽンド 52を動かすように構成 する)ようにしてもよいし、その他のァクチユエータ、例えば油圧や人工筋肉などによ るァクチユエータにより構成するようにしても力まわない。また、保持装置 501として、 さらに、空気の吸引により物品を保持する吸着ハンドを備える場合には、吸着ハンド と吸着ハンドの吸引動作及び吸引解除動作を制御する吸引装置により構成するよう にしても構わない。
[0073] また、環境内に存在する各物品に電子タグ Tgが付されているとして、保持装置 501 のハンド 52には、環境管理サーノ 01の状況認識手段 101の一例としてのタグリー ダ TRなどを取り付けるようにしてもよい(図 8参照)。これにより、保持装置 501のハン ド 52が物品を保持したときに、保持した物品の電子タグ Tgに書き込まれた情報をノヽ ンド 52のタグリーダ TRが読み取り、読み取られた情報によって、保持装置 501のハ ンド 52により保持した物品が何であるかを、環境管理サーバ 401の運搬方法特定手 段 102で運搬情報データベース 104又は環境マップデータベース 408を参照して特 定することができる。なお、保持装置 501のハンド 52に取り付けるタグリーダ TRは省 略し、環境に設置されたタグリーダ TRを利用するようにしても力まわない。
[0074] 移動装置 414は、 4つの車輪 506と、 4つの車輪 506を正逆回転駆動するモータ 3 04と、モータ 304を駆動制御するモータドライバと 303などによって構成されており( 図 2H参照)、これらの車輪 506は、本体部 53の左右両側にそれぞれ 2つずつ取り付 けられている(図 8の例では、右側の 2つの車輪 506の図示を省略する)。なお、移動 装置 414の構成は、そのロボット 50が使用される環境に応じて最適な構成を選択す ればよい。例えば、移動する床面の凹凸が激しい場合は、移動装置 414をクローラ 型や多足歩行型に構成することが好ましい。
[0075] 障害物センサ 411は、ここでは、超音波センサ 504、視覚センサとしての一対のカメ ラ 502、及び衝突センサ 505とから構成されている。
[0076] それぞれの超音波センサ 504は、超音波を発してその反射波を受信するまでの時 間を測定することによって障害物までのおおよその距離を計算し、近距離の障害物 をロボット 50との衝突前に検知する。超音波センサ 504は、一例として、本体部 53の 各側面 (前面、後面、左右側面)に 3個ずつ取り付けられている。
[0077] また、それぞれのカメラ 502は、ロボット 50の周囲の状況を画像として入力する。こ の画像に対して認識処理等を行うことによって、障害物の有無を判断したり、運搬対 象物品についてより正確な情報を得たりする。また、このカメラ 502は、上述したように 運搬対象の物品を認識する際にも利用される。カメラ 502は、本体部 53に取り付けら れたアーム 51の中間部の間接部 51aに位置変更可能に取り付けられている。
[0078] さらに、衝突センサ 505は、ロボット 50に所定の衝撃力が加わったことを検知する。
例えば障害物がロボット 50に衝突してきたり、ロボット 50自体が移動中に障害物に衝 突したことを、衝突センサ 505によって検知する。衝突センサ 505は、本体部 53の前 面と後面の下部にそれぞれ取り付けられている。
[0079] 図 2Gは、物品保持時に姿勢制御を行うための上記保持装置 501の模式図を示し たものである。この図 2Gにおいて、保持装置 501の多間接アーム 51は、長さ L1の基 端側のアームと、長さ L2の先端側のアームと、基端側のアームの基端部が間接 P0 によりロボット 2の本体部 53の側部に回動可能に接続されているとともに、基端側の アームの先端部と先端側のアームの基端部とが間接 P1 (間接部 51a)により屈曲可 能に接続され、さらに、先端側のアームの先端部に間接 P2を介してハンド 52が接続 されている。ここで、説明を簡単にするために、 2次元平面上において、ノ、ンド 52とァ ーム 51の接点間接 P2を姿勢制御することを考える。
[0080] 図 2Hは、移動装置 414や保持装置 501のモータ制御形式のァクチユエータなどの 任意の駆動部の駆動制御系を表している。なお、すべての駆動部について、同様の 駆動制御系が構成されている。
[0081] モータ 304は、その回転軸が、モータドライバ 303から供給される電流によって正逆 駆動されて、たとえば 4個の車輪 506を正逆回転させる。上記モータ 304には、駆動 された回転軸の回転角度を検出するための角度センサが設置されている。角度セン サ 307からの出力信号は、エンコーダ 306及びエンコーダボード 305を通して、 CP U301〖こ人力される。
[0082] CPU301は、上記モータ 304の駆動を制御する。 CPU301には、制御をするため に必要な情報を格納するメモリ 310が接続されて 、る。
[0083] また、ノ、ンド 52には、運搬対象物である物品をきちんと保持しているかどうかの検 出を行う圧力センサ 309が、たとえば、把持面に設置されており、その圧力センサ 30 9からのセンサ出力信号は、 AZDコンバータ 308を通して CPU301に入力される。
[0084] 角度センサ 307からの出力信号と圧力センサ 309からのセンサ出力信号を入力信 号として受け取り、受け取られた入力信号に応じて、 CPU301はモータ 304に対する 制御信号を作成し、その制御信号は、 DZAコンバータ 302を通してモータドライバ 3 03へ送られる。この制御信号に応じてモータ 304は正逆駆動されることで、アーム 51 ゃノ、ンド 52の姿勢制御を実現する。
[0085] ここで、アーム 51の長さはそれぞれ Ll、 L2、角度センサ 307が間接 PO, PIにおい て、角度センサ(ここでは、エンコーダ)によって取得されており、その角度をそれぞれ θ、 φとする。このとき、アーム 51の先端位置 P2の位置は、以下の関係式で求まる。
[0086] [数 1]
P2 = (llcos<9 + £2€03(6! '-
Figure imgf000023_0001
- φ)) (式丄) [0087] この関係式から、運搬対象物の位置を推定し、任意の位置へ移動させることができ るため、姿勢制御を実現することができる。姿勢制御とは、以上のような角度センサな どの情報を元に微調整を行い、位置や向きを正確に制御することである。また、ここ では簡略ィ匕のために 2次元平面における位置制御のみについて説明した力 3次元 空間における位置 ·姿勢制御につ 、ても同様の処理が可能である。
[0088] たとえば、内部に液体の入ったグラス GLをノヽンド 52で保持する場合、 3次元空間 における姿勢制御とは、液体がこぼれないように姿勢を制御することである。ここで、 座標系を図 21のように設定する。すなわち、対象物の位置に関しては、互いに直交 する Xw軸と Yw軸とで構成される水平な床面を Xw— Yw平面、この平面から垂直上 向きに Zw軸を設定する。また、姿勢(回転)に関しては、グラス GLの底面を互いに直 交する X軸と y軸とで構成される X— y平面、この平面からグラス GLの口方向へ向かつ て垂直方向を z方向を設定し、 x、 y、 zの各軸に対して原点側から見て右回りの方向 にそれぞれ、 α、 β、 γの方向とする。内部に液体 LDの入ったグラス GLを姿勢制御 する場合、この 6軸に対して、 αと j8の方向のみが変化しないようにすればよい。
[0089] 移動計画作成手段 413は、物品の運搬動作が要求されたとき、ロボット 50の現在 位置の位置座標から目的位置の位置座標までの移動経路を、環境マップデータべ ース 408の環境マップを参照して作成する。環境マップには、図 2Lに示すように、移 動不可領域 (斜線を付した領域)が設定されている。このため、この移動不可領域以 外の領域で移動経路を作成すれば、障害物を回避した移動経路が作成できる。例 えば図 2Lにおいて、 A地点から B地点までの移動の際には、ロボット 50の大きさを考 慮して、矢線で示すような移動不可領域を回避するルートが作成される。移動経路の 作成には、最も一般的なダイクストラ法を用いればよいし、環境が複雑な場合は、ダ イクストラ法を改良した経路探索アルゴリズムを用いてもよい。なお、環境が複雑すぎ るため、移動経路の算出ができない、あるいは、その算出に多大な時間を要するよう な場合の対策として、ユーザが操作端末 403を使用してロボット 50の移動経路を移 動計画作成手段 413に指定するモードを設けてもよい。
[0090] (ロボットの制御コマンド)
ロボット 50の制御手段 415は、主に環境管理サーノ 01から環境管理サーバ側及 びロボット側の送受信手段 409, 409を介して送られてきたロボット制御コマンド列を 解釈し、その制御コマンドを順に実行する。
[0091] ロボット制御コマンドとは、物品の保持や運搬動作のためのロボット 50自体の移動 の制御を行うためのコマンドであり、大きくわけると、主として「移動」、「保持」、「解放」 の 3種類がある。この 3種類のコマンドについて簡単に説明する。
[0092] 1)移動:(move,座標)又は (move,設備 ID)
ロボット 50の現在位置の位置座標カゝら位置座標で指定された位置、又は設備 情 報で指定された設備の位置の位置座標までロボット 50が物品運搬動作のために移 動するコマンドである。位置座標は世界座標系で指定し、現在位置の位置座標から 目的位置の位置座標までの移動経路は移動計画作成手段 413が計画する。また、 設備 情報で指定された設備の位置の位置座標に移動するときは、その設備に対 して所定の距離まで近づくような経路を作成するが、この場合、環境マップ内の設備 属性データを利用する。
[0093] 2)保持:(grab,物品 ID)
物品 HD情報で指定された物品を、保持装置 501の一例としてのハンド 52によって 保持するコマンドである。物品の位置 (位置座標)は、運搬情報データベース 104又 は環境マップデータベース 408を参照して求め、運搬動作は運搬情報データベース 104を参照して物品運搬システム 10の上記運搬方法特定手段 102が選定する。
[0094] 3)解放:(release)
運搬終了後にハンド 52を解放するコマンドである。
[0095] 例えば、ある物品をある場所に移動させる作業がユーザ力も指示されたときは、そ の作業は、「(物品の位置 B1への)移動」と、「(物品の)保持」と、「(移動先 B2への) 移動」と、「(物品の保持)解放」という 4つの作業単位に分解される。この場合のロボッ ト制御コマンド列は、
move, B1 (物品が置かれている位置 B1にロボット 50を移動する)
grab,物品 ID (位置 B1にある物品を保持装置 501で保持する)
move, B2 ( (物品を保持装置 501で保持した状態で)移動先である位置 B2にロボ ット 50が移動する)
release (保持装置 501で保持している物品を解放する) となる。複数の物品の移動を指示されたときは、コマンド列は、上記 4つのコマンドを 一組として物品の数だけ並べられ、ロボット 50の制御手段 415は、その順番に従って 制御コマンドを順に実行する。
[0096] もちろん、ロボット制御コマンドはこの 3種類に限られるものではなぐ必要に応じて 増やしてもよ 、ことは 、うまでもな!/、。
[0097] <操作端末の構成 >
操作端末 403は、上記ロボットによる物品運搬システムにおけるユーザインタフエ一 スであり、ユーザが、ロボット 50に対して物品の運搬動作の要求などするために操作 する端末である。
[0098] 図 2Cに示すように、操作端末 403は、操作画面を表示する、例えば CRTや液晶デ イスプレイ力もなる表示装置 417と、表示装置 417の操作画面上でロボット 50に対し て物品運搬動作を指示するための例えばポインティングデバイスカゝらなる入力装置 4 16と、表示装置 417に表示される操作画面の作成等の表示制御を行う表示制御手 段 418とを備えている。送受信手段 409は、制御手段 419の制御の基に、入力装置 416に入力されたロボット 50の物品の運搬動作の要求などの内容や問合せ内容を サーバ 401に送るとともに、物品の運搬動作の要求や問合せに対する回答を環境管 理サーバ 401から受信する。制御手段 419は、送受信手段 409と、入力装置 416と、 表示装置 417と、表示制御手段 418とに接続されて、それぞれの動作を独立してコ ントロールする。
[0099] この操作端末 403としては、例えば汎用 PC (パーソナルコンピュータ)を用いること も可能である。この場合、各処理を実行させる制御プログラムを汎用 PCに読み込ま せることによって、操作端末 403として用いることが可能になる。
[0100] 表示制御手段 418は、環境管理サーバ 401から送信された情報、具体的には、状 況認識手段 101の一例としてのカメラ 502が環境内を撮像した画像のデータ、運搬 情報データベース 104に蓄積されたデータ、環境マップデータベース 408に蓄積さ れた環境マップに基づいて、操作画面を作成する。作成された操作画面は、表示装 置 417に表示される。
[0101] すなわち、以上のようなシステムでは、操作端末 403が、所定の生活空間を表す画 像を表示装置 417に表示し、ユーザが操作端末 403から、画像に含まれた物品に対 する運搬動作の指示を行い、操作端末 403から送信されたユーザの指示を、環境管 理サーバ 401の運搬方法特定手段 102が、運搬情報データベース 104を参照して、 ロボット 50が実行可能な制御コマンドに変換し、ロボット 50に送信する。このような物 品操作方法によって、ユーザは、生活空間の複雑な状況において、ロボット、言い換 えれば、生活支援ロボット 50に的確な物品運搬動作を、容易に実行させることができ る。
[0102] また、上記物品運搬システム 10によって、ロボット 50の保持装置 501は、運搬対象 物である物品の位置 (位置座標)、 HD情報、形状といった対象物情報、及び人物の 位置 (位置座標)、 Iひ f青報といった人物の情報を利用して、物品の保持及び運搬動 作を行うことが可能である。
[0103] 尚、物品運搬用ロボット 10や物品運搬システムの構成はこれらに限るものではなく 、後述する運搬処理が実現できる構成であれば、どのような構成を採用してもよい。
[0104] 以下、運搬情報データベース 104、状況認識手段 101、運搬方法特定手段 102、 及び運搬装置 103のそれぞれについて、その詳細を説明する。
[0105] (運搬情報データベース)
上記運搬情報データベース 104は、生活空間内の物品毎に、その物品が取り得る 状況と運搬動作 (言!ヽ換えれば運搬方法)及び Z又は運搬場所とを対応付けた運搬 情報を蓄積するデータベースである。
[0106] 図 3A、図 3B、図 3Cは、それぞれ、物品毎に上記運搬情報データベース 104に蓄 積されている運搬情報の一例を示している。この運搬情報は、物品を片付けることを 目的としてその物品を運搬するときの運搬情報である。この運搬情報データベース 1 04では、運搬情報として少なくとも 2つの情報が含まれる。 1つは運搬装置 103によ る運搬動作に関する情報であり、この運搬動作の情報には、運搬する際の物品の姿 勢情報、及び運搬速度の情報の少なくとも 2つが含まれる。もう 1つの運搬情報は、そ の物品の運搬先である運搬場所に関する情報である。
[0107] 図 3Aは、物品の一例である皿について設定されている運搬データの一例を示して いる。皿は一般家庭において使用されている場合に、「汚れ無し」、「汚れ有り」、「食 ベかす有り」、「食べ残し有り」の、少なくとも 4つの状況を取り得る。尚、皿の状況とし てはこれ以外に様々な状況を取り得る力 ここでは理解容易のために、これらの 4つ の状況に限定して説明する。
[0108] また、皿の状況は状況認識手段 101によって認識される力 この処理については後 述する。
[0109] 先ず、皿が「汚れ無し」の状況にあるときは、その皿を運搬する際に特に留意すべき 点がないと考えられる。そこで、その状況に対する動作情報として、姿勢及び速度が 共に「自由」に設定される。ここで、「自由」とは、運搬装置 103にとつて最適な姿勢、 速度で物品を運搬すればよい、ことを意味する。また、「汚れ無し」の皿はそのまま保 管すればよ!、ため、「汚れ無し」の状況に対する運搬場所として「食器棚」 Cbが設定 される。
[0110] これに対し、皿が「汚れ有り」の状況にあるときは、「汚れ無し」の状況にあるときとは 動作及び場所が異なる。つまり、その汚れが例えばソース等の液体状のものである場 合には、皿を運搬している最中にそのソース等が皿力 落下することを防止する必要 がある。そのため、皿力 ^汚れ有り」の状況に対応する動作情報として、姿勢は「上向 き」、速度は「低速」が設定される。また、汚れている皿は洗う必要があるため、運搬場 所としては、「シンク」 Ksが設定される。尚、「シンク」 Ksに代えて「食洗機」 Dwと設定 してもよい。ここで、「低速」とは、皿を運搬している最中にそのソース等が皿から落下 しな 、ように運搬できる速度、例えば時速 2kmZh以下の速度で移動することを意味 する。
[0111] また、皿が「食べかす有り」の状況にあるときには、「汚れ有り」の状況にあるときと同 様に、皿を運搬している最中に皿の上の食べかすが落下することを防止する必要が あるため、動作情報として、姿勢は「上向き」、速度は「低速」が設定される。また、食 ベかすが存在している場合は、皿を洗う前にその食べかすを捨てる必要があるため、 運搬場所としては、「生ゴミいれ」 Gbが設定される。ここで、「低速」とは、皿を運搬して V、る最中に皿の上の食べかすが落下しな 、ように運搬することができる速度、例えば 時速 2kmZh以下の速度で移動することを意味する。
[0112] さらに、皿が「食べ残し有り」の状況にあるときには、皿を運搬している最中に皿の 上の食べ残しが落下することを防止する必要があるため、動作情報として、姿勢は「 上向き」、速度は「低速」が設定される。また、当該食べ残しが存在している場合は、 その食べ残しの物品の保管に適切な場所に運搬することが望ましい。そこで、ここで は運搬場所として「冷蔵庫」 Rgが設定される。尚、食べ残しの状況をさらに細分化し て、その細分化した状況毎に運搬場所を設定してもよい。例えば、食べ残しの状況を 、食べかす部分と食べ残し部分とに区分し、食べかす部分は、それを捨てる必要が あるため、運搬場所としては「生ゴミいれ」 Gbが設定され、食べ残し部分は、それを保 管する必要があるため、運搬場所としては「冷蔵庫」 Rgが設定されるようにしてもよい 。ここで、「低速」とは、皿を運搬している最中に皿の上の食べ残しが落下しないように 運搬することができる速度、例えば時速 2kmZh以下の速度で移動することを意味す る。
[0113] 図 3Bは、物品の一例であるコップについて設定されている運搬データの一例を示 している。コップは一般家庭において使用されている場合に、「汚れ無し」、「飲み残 し無し」、「飲み残し有り」の、少なくとも 3つの状況を取り得る。尚、コップの状況として はこれ以外に様々な状況を取り得る力 ここでは理解容易のために、これらの 3つの 状況に限定して説明する。
[0114] 先ず、コップが「汚れ無し」の状況にあるときは、そのコップを運搬する際に特に留 意すべき点がないと考えられるため、その状況に対する動作情報として、姿勢及び速 度が共に「自由」に設定される。また、「汚れ無し」のコップはそのまま保管すればよい ため、「汚れ無し」の状況に対する運搬場所として「食器棚」 Cbが設定される。
[0115] これに対し、コップが「飲み残し無し」の状況 (飲み残しは無 、が汚れは有る状況) にあるときは、コップに飲み残しが無くても、コップに付着している飲み物がコップを 運搬している最中に垂れることを防止する必要がある。そのため、コップが「飲み残し 無し」の状況に対応する動作情報として、姿勢は「上向き」が設定されるが、コップの 姿勢を上向きにしておけば飲み物がこぼれることはないため、速度は「自由」が設定 される。また、飲み残し無しであるがコップは汚れており、コップを洗う必要があるため 、運搬場所として「食洗機」 Dwが設定される。尚、「食洗機」 Dwに代えて「シンク」 Ks と設定してちょい。 [0116] また、コップ力 ^飲み残し有り」の状況にあるときには、コップを運搬している最中に 飲み物がこぼれることを防止する必要があるため、動作情報として、姿勢は「上向き」 、速度は「低速」がそれぞれ設定される。また、当該飲み残しが存在している場合は、 その飲み残しの飲み物を廃棄するために、運搬場所として「シンク」 Ksが設定される 。尚、飲み残しの状況に応じて運搬場所を適宜変更してももちろんよぐ例えば、そ の飲み残しの飲み物の保管に適切な運搬場所として「冷蔵庫」 Rgが設定されるよう にしても構わない。ここで、「低速」とは、コップを運搬している最中に飲み物がこぼれ な 、ように運搬することができる速度、例えば時速 2kmZh以下の速度で移動するこ とを意味する。
[0117] 図 3Cは、物品の一例である本について設定されている運搬データの一例を示して いる。本は一般家庭において使用されている場合に、本が一冊だけの「積載無し」、 本又は他の物体が本の上に積載された「積載有り」の、少なくとも 2つの状況を取り得 る。尚、本の状況としてはこれ以外に様々な状況を取り得る力 ここでは理解容易の ために、これらの 2つの状況に限定して説明する。
[0118] 先ず、本力 ^積載無し」の状況にあるときは、その本を運搬する際に特に留意すべき 点がないと考えられるため、その状況に対する動作情報として、姿勢及び速度が共 に「自由」に設定される。また、「積載無し」の本は、本が通常片付けられる場所に片 付ければよ!、と考えられるため、「積載無し」の状況に対する運搬場所として「本棚」 B sが設定される。
[0119] これに対し、本が「積載有り」の状況にあるときは、その本の上に他の物体 (例えば 他の本)が載せられている状態であるため、その他の物体である積載物が運搬中に 落下することを防止する必要がある。そのため、本が「積載有り」の状況に対応する動 作情報として、姿勢は「上向き」、速度は「低速」がそれぞれ設定される。また、他の物 体が積載された状況にある本を運搬する場合、その本を「本棚」に片付けるのではな い場合が考えられるため、ここでは、「積載有り」の状況に対応する運搬場所として「 ユーザー指定先」が設定される。これは、運搬場所を予め設定するのではなぐユー ザが運搬場所を指定することを意味する。ここで、「低速」とは、積載物が運搬中に落 下しな 、ように運搬することができる速度、例えば時速 2kmZh以下の速度で移動す ることを意味する。
[0120] 以上は、運搬情報データベース 104に蓄積されている運搬情報の基本的な構成で あるが、その運搬情報を以下に示すように構成することによって、物品の運搬をより最 適化したり、ユーザの利便性のより一層の向上を図ったりすることが可能である。以下 、運搬情報の変形例について説明する。
[0121] (運搬情報の変形例 1)
図 4A〜図 4Dは、変形例 1に係る運搬情報の例を示す。この運搬情報は、物品を 運搬する際の運搬速度の速度変化を設定しており、このこと〖こより、運搬のさらなる最 適化を図る。
[0122] 図 4Aに示す運搬情報は、コップについて設定されている運搬情報である。図 3Bに 示す運搬情報と比較して、図 4Aに示す運搬情報は、運搬速度の設定が変更されて いる。つまり、図 3Bに示す運搬情報では、運搬速度が「自由」や「低速」と設定されて いるだけであり、そうした低速の運搬速度をどのようにして制御するかについては設 定されていない。これに対し、図 4Aに示す運搬情報では、運搬速度を、「速度規制 1 」、「速度規制 2」、「速度規制 3」等と設定することにより、物品の運搬時における速度 の変更制御をも設定して ヽる。
[0123] ここで、「速度規制」は、運搬開始から終了までの間で、速度をどのように変化させ るかを、時間に対する速度の関係として数値的に定義したものである。
[0124] 「速度規制 1」は、図 4Bに示すように、運搬開始から所定速度までは一定の加速度 で加速し、その後、一定の速度を保って移動を継続し、運搬終了の所定時間前 (運 搬場所に近づいたら)一定の加速度で減速する、制御内容である。
[0125] また、「速度規制 2」は、図 4Cに示すように、速度規制 1とは異なり、曲線の特性を有 するものである。このような曲線的に加速度を変化させることによって、運搬している 物品に作用する負担を和らげることができる。
[0126] さらに、「速度規制 3」は、図 4Dに示すように、物品を運搬する生活空間に応じて速 度変化を切り換える制御内容である。ここでは、運搬する生活空間の床面がフローリ ングであるときと、絨毯 '畳であるときとのそれぞれについて、互いに異なる速度規制 が設定されている。これは、床がフローリングであるときには、凹凸が小さいため運搬 装置 103 (例えばロボット 50)が比較的高速でも安定走行が可能であるのに対し、床 が絨毯や畳であるときには高速では運搬装置 103 (例えばロボット 50)の走行が不安 定になるためである。この速度規制 3に従って運搬中の速度変化を実行する場合、 床がフローリング力 絨毯に変わったり、またはその逆に変わったりしたときには、そ の変化後の床に応じて制御を切り替えることになる力 その制御の切り替えを急激に 行うのではなぐ一方の制御から他方の制御へと滑らかに切り替えることが、運搬して V、る物品に与える影響を低減する上で望ま 、。
[0127] 尚、床がフローリングである力 絨毯であるか、畳であるか、を判断する方法は、例 えば特開 2003— 346150号公報等によって公知である。これは、ガボァ'フィルタリ ング (Gabor Filtering)処理結果を特徴量とし、その一致度合力 床面を特定するも のである。この手法を図 4Eを用いて詳述する。
[0128] 図 4Eは、この床面を特定する処理の流れ順にそれぞれ所定の処理を行う構成要 素を示すブロック図である。まず、撮像部 801は、カメラ 502などの撮像素子を利用し て、床面の撮像を行なう。次いで、周波数解析部 802により、こうして撮像したフレー ム画像に高速フーリエ変換を行い、当該フレーム画像に含まれている周波数成分の 高低及びその分布を解析した後、周波数方向フィルタ部 803により、最も分布の多い 周波数を含む複数種類の周波数ごとに、それぞれ複数の方向にガボア'フィルタリン グ処理を行って各周波数ごとの各方向に選択性のある特徴量をベクトル群として抽 出する。
[0129] 次に、非線形写像部 804により、フレーム画像に基づく複数種類のベクトル群に非 線形な写像を行って白色部分及び黒色部分をより強調した後、局所エネルギー計算 部 805により、ガウシアン 'フィルタ処理を行って、複数のガボア 'フィルタリング方向 にそれぞれ対応するフレーム画像について、当該フレーム画像を形成する全画素に 対して、当該各画素のテクスチャ特徴を表す局所エネルギーを求め、当該フレーム 画像の全体をぼやけた状態にする。
[0130] この後、床面識別部 806により、各フレーム画像の下側中央部分のウィンドウ画像 F Wに相当する画素群の局所エネルギーの平均値を算出し、その平均値をベクトル量 及び該当する方向をベクトル方向とする 1次元ベクトルを全てつな 、で、ウィンドウ画 像 FWの 4次元ベクトルを生成する。
[0131] これと共に、床面識別部 806により、これから進んでいく領域である、現在のフレー ム画像の最上端の床面予定画素 PFの局所エネルギーをベクトル量及び該当する方 向をベクトル方向とする 1次元ベクトルを全てつないで、床面予定画素 PFの 4次元べ タトルを生成する。
[0132] さらに、床面識別部 806により、ウィンドウ画像 FW及び床面予定画素 PFのテクスチ ャ特徴を比較するために、こうして求めた床面予定画素 PFの 4次元ベクトルとウィンド ゥ画像 FWの 4次元ベクトルとのユークリッド距離を演算する。もし、この値が所定の閾 値よりも低ければ、現在のフレーム画像に表示されている床面が同一種類の床面で あると判断する。一方、この値が所定の閾値以上に高ければ、現在のフレーム画像 に表示されて 、る床面は複数種類の床面であると判断する。このようにすることにより 、走行する床を分類することができる。
[0133] 上記したように、図 4Aに示す運搬情報データベース 104では、コップが「汚れ無し」 の状況にあるときは、そのコップを運搬する際に特に留意すべき点がないと考えられ るため、「速度規制 1」が設定され、コップが「飲み残し無し」の状況にあるときには、コ ップに付着して 、る飲み物がコップを運搬して 、る最中に垂れることを防止する必要 があることから、「速度規制 2」が設定され、コップが「飲み残し有り」の状況にあるとき には、コップを運搬している最中に飲み物がこぼれることを防止する必要があるため 、「速度規制 3」が設定される。
[0134] こうして、物品の状況に応じて速度変化の態様を変更することによって、物品の状 況に応じて最適な運搬が実現する。
[0135] (運搬情報の変形例 2)
図 5は、変形例 2に係る運搬情報の例を示す。この運搬情報は、図 3Bの運搬情報 と比較して、「次の状況」についての情報をさらに含んでいる。このことにより、物品に 対して複数の運搬作業を連続的にかつ自動的に行うようにし、その結果、ユーザがよ り簡便に物品の運搬作業の命令を行い得るようにする。
[0136] 例えば使用したコップ (汚れ有りの状況にあるコップ)を片付ける場合を考える。この 場合、汚れ有りのコップは、食洗機 Dwで洗った後に、食器棚 Cbに保管することにな る。つまり、使用したコップを片付けることには、コップを食洗機 Dwに運んで洗うことと 、洗ったコップを食器棚 Cbに保管することと、の 2つの作業が含まれる。従って、ユー ザがロボット (運搬装置 103)に対してコップを片付ける作業を命令するときには、コッ プを洗うために食洗機 Dwに運ぶことと、食洗機 Dwによって洗い終えたコップを食器 棚 Cbに運ぶことと、の 2つの作業を命令しなければならない。しかし、これは煩雑であ る。
[0137] これに対し、変形例 2に係る運搬情報は、図 5に示すように構成されており、この運 搬情報には、上述した「運搬動作」、「運搬場所」の情報に加えて「次の状況」につい ての情報が含まれる。この「次の状況」についての情報は、運搬装置によって物品が 運搬場所に運搬された結果として当該物品が取ることになる状況にっ 、ての情報で ある。つまり、「飲み残し無し」(汚れ有り)の状況についての「運搬場所」は食洗機 Dw が設定されて ヽるため、「飲み残し無し」のコップは食洗機 Dwで洗浄されて「汚れ無 し」の状況に変化する。従って、「飲み残し無し」の状況についての「次の状況」として 「汚れ無し」が設定される。つまり、運搬場所が、物品の状況を変化させる場合は、図 5に矢印で示すように「次の状況」が設定される(又は、「次の状況」が情報として関連 付けられる)。これに対して、図 5に示す例では、「汚れ無し」及び「飲み残し有り」の 2 つの状況については、食器棚 Cbへの運搬、及び冷蔵庫 Rgへの運搬された後にコッ プの状況が変化することがないため、「次の状況」としては何も情報が無いため、「一」 が設定される。
[0138] 運搬情報をこのように構成することによって、詳しくは後述するが、次のような運搬 作業が行われる。先ず、飲み残し無し (汚れ有り)のコップが食洗機 Dwに運搬される 、そして、そのコップが食洗機 Dwによって洗浄され、上記コップが汚れ無しの状況に 変化すれば、汚れ無しのコップについて設定された運搬場所である「食器棚」 Cbに、 上記洗浄されたコップが自動的に運搬装置 103により運搬される。このように、変形 例 2に係る運搬情報の構成によると、物品に対して複数の運搬作業を連続的にかつ 自動的に行うことが求められる場合に、その複数の運搬作業を順序だててかつ効率 的に記述することができる、という効果が得られる。
[0139] 尚、ここではコップを例に説明したが、複数の運搬作業を連続的にかつ自動的に 行うことが求められる例は、コップ以外にも様々な例が考えられる。
[0140] (運搬情報データベースの作成)
上述したように、上記運搬情報データベース 104は、各物品について、その状況毎 に動作、場所等を対応付けて構成される。ところが、一般家庭において運搬装置 10 3の運搬対象となる物品は多種多様である上に、運搬対象となる物品は各家庭 (各 生活空間)で相違する。
[0141] そうすると、大量のデータを蓄積する運搬情報データベース 104を、例えばユーザ が手作業で作成することは極めて困難であり、そうした運搬情報データベース 104を 自動的に作成可能とすることが望まれる。
[0142] そこで、上記物品運搬用ロボット 10及び物品運搬システムは、以下のようにして、 運搬情報データベース 104を自動的に作成してもよい。つまり、運搬対象となり得る 物品を、人がどのようにして運搬している力を学習し、その学習結果に基づいて運搬 情報データベースを作成するのである。
[0143] この運搬情報データベース 104の自動作成をするための前提として、各物品には、 その 3次元的な位置を検出することが可能でかつ物品の ID (識別)情報を有する ID タグ Tgが取り付けられているとする。 3次元位置が検出可能なタグ Tgとしては超音波 を用いるタグ Tgが知られている(例えば、「超音波式 3次元タグを用いた人の日常活 動の頑健な計測〜冗長なセンサ情報に基づくロバスト位置推定〜」、西田佳史、相 澤洋志、堀俊夫、柿倉正義、第 20回日本ロボット学会学術講演会講演論文集、 3C1 8、 2002)。こうしたタグ Tgが取り付けられている物品は、その物品の位置を時系列 的に検出することによって物品の移動軌跡を検出することができ、それによつて、人 がその物品をどのように取り扱った力、を検出することができる。
[0144] 例えば、人が干してある衣服を取り込むときにはその衣服を部屋の中に投げ込むた め、その移動速度は高くなると共に、その衣服の移動中の向きには規制がない。これ に対し、人が食器を台所に運ぶときにはその食器を落としたりしな 、ように慎重に運 ぶため、物品の移動速度は低くなると共に、その食器に食べ残し等が載置されてい るときには、食器の向きを上向きにしたまま運ぶことになる。
[0145] こうした人が行う物品の運搬動作を、例えば状況認識手段 101を利用して認識し、 その認識結果 (認識情報)を運搬情報として蓄積する。すなわち、物品の運搬動作を 、物品に付された IDタグ Tgが移動するのを状況認識手段 101を利用して認識し、そ の認識結果 (認識情報)を運搬情報として運搬情報データベース 104に蓄積する。 例えば、上記の例では、人が干してある衣服を取り込むときにはその衣服を部屋の 中に投げ込むため、衣服に付された IDタグ Tgが部屋の中に投げ込まれるのを、例え ば、窓と部屋にそれぞれ設置されたタグリーダ又は天井に設置したカメラ 502で検知 (認識)し、その移動速度も検知 (認識)して、そのように検知 (認識)した運搬情報を 仮の運搬情報として運搬情報データベース 104に蓄積する。また、人が食器を台所 に運ぶときには、その食器を落としたりしないように慎重に運ぶため、食器に付された IDタグ Tgの移動速度は低くなることを検知 (認識)すると共に、その食器に食べ残し 等が載置されているときには、食器の向きを上向きにしたまま運ぶことを、例えば、天 井に設置したカメラ 502で検知 (認識)して、そのように検知 (認識)した運搬情報を仮 の運搬情報として運搬情報データベース 104に蓄積する。そして、そのような認識し た仮の運搬情報の信頼性が所定以上に高まれば (例えば、同様な仮の運搬情報が 所定回数以上蓄積されれば)、使用可能な運搬情報として運搬情報データベース 1 04に登録する。データベース 104への登録は、上記運搬方法特定手段 102が行つ てもよいし、学習手段をさらに備え、その学習手段が行ってもよい。なお、好ましくは、 人にも IDタグ Tgを付して、人の動作であることを認識させることが望ま 、。
[0146] ここで、認識情報の信頼性とは、認識された情報の頻度や回数によって設定すれ ばよい。これは、例えば、 IDタグ Tgによって認識されたある物体が動力された回数を 信頼性としたり、または、 IDタグ Tgによって認識されたある物体について、その物品 が動力ゝされる場合に、最も頻度の高 、運搬方法の頻度を信頼性としたりすればょ 、。
[0147] このように、学習によって運搬情報を作成することにより、運搬情報を予め設定しな くてもよくなる一方で、人が行っている運搬動作に基づいて運搬情報を学習するため 、適切な運搬情報を作成することができる。
[0148] 以上説明したように、上記運搬情報データベース 104は、物品を運搬する際に、そ の状況に応じた最適な運搬方法を採用するための知識として、物品の状況と運搬動 作及び運搬場所とを対応付けた情報を蓄積したデータベースである。以下、物品の 各状況と、それに対応する運搬動作及び運搬場所 (及び次の状況につ!ヽての情報) と、を含むデータを「運搬基本データ」と呼び、物品と上記運搬基本データとを含む 情報単位を「運搬データ」と呼ぶ。
[0149] (状況認識手段)
上記状況認識手段 101は、運搬対象の物品の認識と、その物品の状況を認識する 手段である。この状況認識手段 101は、カメラ (例えば、状況認識手段 101の一例で あるカメラ 502)、レーザ、温度センサ、重量センサ、 RFIDタグ及びタグリーダ(又はリ 一ダライタ)、等の各種センサを、単独又は組み合わせるとともに、必要に応じて、各 種センサで検出された情報を処理する処理部や、処理部で処理するときに必要なデ ータが蓄積されたデータベースを備えることによって、運搬対象の物品の検出と、そ の物品の状況の認識と、を行う。以下、物品の状況の認識方法について具体例を挙 げて説明する。
[0150] 先ず、運搬対象の物品の認識 (検出)について説明する。物品の検出にはカメラを 用いることが好ましい。つまり、カメラによって物品を撮像し、その撮像した画像(映像 )に基づいてその物品を特定する。一例として、カメラ 502は、図 2Aに示すように、生 活空間内の天井 90に 1つ又は複数個設置してもよいし、図 8に示すように、ロボット 5 0に 1つ又は複数個のカメラ 502を取り付けてもよい。カメラ 502により撮像された画像 を使って認識処理部 101pで行う画像認識方法は、様々な方法が開発されており、 例えば「固有空間法による画像認識」村瀬洋、 "コンピュータビジョン 技術評論と将 来展望"、新技術コミュニケーションズ、 pp. 206〜218、等に記載されている方法を 利用することが可能である。尚、物品の認識精度を高めるために、ステレオカメラを用 V、、物品の形状をも利用して運搬対象の物品の検出を行ってもよ!、。
[0151] また、運搬対象の物品を検出する他の方法として、 IDコードを利用した方法が挙げ られる。つまり、各物品に、その物品を特定する IDコードを貼り付けておき、そのコー ドをカメラ 502で検出することによって、運搬対象の物品の検出を行うのである。コー ドとしては、最も普及している光学的なコード (例えばバーコード、 2次元コード等)を 利用してもよい。この場合、コードを検出する手段としてはカメラを用いるのが好まし い。 [0152] また、近年脚光を浴びて!/ヽる新し!/ヽコードとして、 RFIDタグ Tgを利用してもよ ヽ。 R FIDタグ Tgは、データを蓄積する ICと、そのデータを無線によって送信可能なアンテ ナとを含むデバイスであって、タグリーダ (リーダライタ) TRによって、タグ Tgにデータ を書き込んだり、タグ Tg力もデータを読み取ったりすることができるデバイスである。
[0153] RFIDタグ Tgを利用する場合、その RFIDタグ Tgに、物品に関するデータ(例えば 物品の種類、製造年月日、形状、重さ、物品画像等のデータ)を埋め込んでおく。尚 、 RFIDタグ Tgに十分な記憶容量がない場合には、その RFIDタグ Tgに、物品に関 するデータを格納する場所のリンク情報 (例えばインターネットアドレス等)を埋め込ん でおいてもよい。その場合、タグリーダ TRによってそのリンク情報を取得し、その取得 したリンク情報にアクセスすることによって物品に関するデータを取得すればよい。
[0154] 各物品に RFIDタグ Tgを取り付けた場合、運搬対象の物品の検出は、多数のタグリ ーダ TRを生活空間内(例えば一般家庭の家屋内)に設置し、その内のいずれかのタ グリーダ TRが RFIDタグ Tgのデータを読みとることによって、行えばよい。
[0155] ここで、 RFIDタグ Tgとタグリーダ TRとの間のデータの送受信には、人体に影響の ない非常に弱い無線電波を使わざるを得ないため、 RFIDタグ Tgは、その通信距離 がせいぜい数 10cmと非常に短いという問題がある。従って、物品を検出するには、 生活空間内に極めて多数のタグリーダ TRを設置しなければならない。一方で、タグリ ーダ TRはカメラに比べてコストが高いため、生活空間内に多数のタグリーダ TRを設 置することは現実的ではな 、。
[0156] そこで、タグリーダ TRとカメラを組み合わせた処理を行うことによって、物品の検出 を行うようにしてもよい。つまり、例えば部屋のドア等の、物品が出入する場所にタグリ ーダ TRを設置し、そのタグリーダ TRによって物品の出入を検出する。例えば、図 2D に示すよう〖こ、窓 91の付近にはタグリーダ TR91、ドア 92の付近にはタグリーダ TR9 2を設置する。それぞれのタグリーダ TR91, TR92は、状況認識手段 101の一例で あり、それぞれの状況認識手段 101と運搬情報管理サーバ 401とは、先に説明した ように接続されて 、る。このようにタグリーダを設置して物品の出入を検出することによ つて、部屋の内部に物品が存在することは判明する。一方、部屋の内部には、所定 の設置密度でタグリーダ TRを設置する。例えば、部屋の床に図 7Fに示すようにタグ リーダ TR1〜TR9を所定間隔で配置して、タグリーダ TR1〜TR9の受信領域を複数 個設置する。これによつて、部屋の内部のどの位置に物品が存在しているかは、タグ リーダ TRの設置密度に応じて大まかに絞り込むことができる。そうして、物品のおお よその位置を特定した後に、カメラ 502を利用して物品を撮像して検出する。このよう に、タグリーダ TRとカメラ 502を組み合わせて物品の検出を行うことによって、その検 出精度の向上が図られる。
[0157] 尚、タグリーダ TRは生活空間内に設置するだけではなぐその生活空間内を移動 可能な運搬装置 103に設置してもよい。つまり、ロボット 50のアーム 51やハンド 52に タグリーダ TRを設置し、ロボット 50が移動すると共に、アーム 51及び Z又はハンド 5 2を物品に近づけることによって、その物品に付された RFIDタグ Tgの情報をタグリー ダ TRで読み取るようにしてもよい。この構成は、運搬対象の物品の位置を、ある程度 特定することができる場合に有効である。
[0158] 尚、ここでは、運搬対象の物品を検出する方法として、カメラで撮像された画像を利 用した方法、カメラで撮像されたコードを利用した方法、及びカメラで撮像された画像 とコードとを利用した方法について説明した力 これに限るものではない。
[0159] 次に、上記状況認識手段 101による物品の状況認識について、図を参照しながら 具体的に説明する。
[0160] (状況認識手段 101による、コップに飲み物が入っている力否かの状況の認識) 先ず、物品の状況として、コップに飲み物が入っているか否かの状況を認識する方 法について説明する。上述したように、コップに飲み物が入っているか否かの状況に 応じて、最適な運搬方法は異なるのである(図 3B,図 4A,図 5参照)。
[0161] コップに飲み物が入っているか否かを認識する方法として、光の屈折を利用した方 法を挙げることができる。尚、上記コップは光透過性を有しているとする。
[0162] 図 6A及び図 6Bは、光の屈折を利用してコップ 201の内容物の認識を行う状況認 識手段 101の一例としての構成を示す図である。この状況認識手段 101は、コップ 2 01にレーザ光線 503gを照射する光源 503と、コップ 201に投光された状態を撮像 する撮像装置の一例としてのカメラ 502と、カメラ 502で撮像された情報を認識処理 する認識処理部 lOlpとを含む。光源 503は、指向性の強い光 503gを照射するもの が好ましぐ例えばレーザ照射装置とすることが可能である。カメラ 502は、レーザ照 射装置 503から照射されたレーザ光線 503gの軌跡を検出可能なものであればよい 。レーザ照射装置 503及びカメラ 502はそれぞれ、図 8に示すように、ロボット 50のァ ーム 51に取り付けて、その位置 (位置座標)を変更可能にすることが好ましい。また、 ロボット 50が人型ロボットの場合には、その顔にカメラ 502を埋め込むように構成して ちょい。
[0163] 上記状況認識手段 101は、上記コップ 201の内容物を認識するに際し、上記レー ザ照射装置 503によって、上記コップ 201にレーザ光線 503gを照射する。
[0164] 通常、空気の屈折率と液体の屈折率とは異なる(例えば空気の屈折率は 1. 0、水 の屈折率は約 1. 33)ため、コップ 201の内部に液体が入っているか否かによって、 レーザ光線 503gの軌跡が変わる。つまり、図 6Aに示すように、コップ 201が空のとき には、コップ 201の内もコップ 201の外も空気で満たされているため、そのコップ 201 に対し斜め上方から照射したレーザ光線 503gは、同図に示すように直進する。これ に対し、図 6Bに示すように、コップ 201に水 201aが入れられているときには、空気の 屈折率と水の屈折率とが異なるため、照射したレーザ光線 503gは屈折する。
[0165] レーザ照射装置 503がレーザ光線 503gを照射している最中に、カメラ 502によつ てそのコップ 201を撮像する。このことにより、レーザ光線 503gの軌跡を検出する。 状況認識手段 101の認識処理部 10 lpは、その検出結果に基づ 、てコップ 201の内 部に液体が入っている力否かを認識する。
[0166] 尚、光の屈折率は、物体 (材質)によって異なるため、レーザ光線 503gの屈折角度 を検出することによって、コップ 201の内部に入れられている物体の材質を検出する ことも可能になる。このことを利用して、そのコップ 201内に入れられている物体の材 質を物品の状況の 1つと考え、その物体の材質に応じて物品の運搬を最適化させて もよい。例えばコップ 201に入っている液体が水であるときには、そのコップ 201を台 所のシンク Ksに運搬してコップ 201の中の水を捨てた後に、そのコップ 201を食器棚 Cbに運搬する作業を行う一方、液体が水以外であるときには、そのコップ 201を台所 のシンク Ksに運搬してその液体を捨てた後に、そのコップ 201を食洗機 Dwに運搬 する作業を行う、といったことを行ってもよい。 [0167] 尚、ここでは、レーザ光線 503gの軌跡に基づいてコップ 201の内容物の有無を認 識している力 光の屈折を利用した認識はこれに限るものではない。例えばカメラ 50 2に対する相対的な位置が判明している物体をコップ 201を通してカメラ 502で撮像 し、その物体がコップ 201上のどの位置に見える力 を検出することによってコップ 20 1の内容物の有無を認識することができる。この場合、撮影物品は、その生活空間( 一般家庭であれば部屋)に存在して 、る物体を利用することができる。
[0168] また、コップ 201に飲み物が入って!/、るか否かの状況は、カメラ 502を使って人が 物品を取り扱つている様子を撮像し、その撮像した映像カゝら物品の運搬方法を検出 すること〖こよって、認識することも可能である。この運搬方法を検出する方法は、公知 であるため(例えば、「赤外線画像を用いた視体積交差法による把持形状の認識」、 橋本健太郎、小川原光一、高松淳、池内克史。コンピュータビジョンとイメージメディ ァ 135— 10、 pp.55— 62、 2002)、ここではその詳細な説明を省略する。尚、上記力 メラ 502は物品の認識に用いるカメラを利用してもよいし、別のカメラを利用してもよ い。
[0169] (状況認識手段 101による、食器に食べかすが存在して!/ヽるカゝ否かの状況の認識) 次に、物品の状況として、食器に食べかすが存在しているか否かの状況を認識す る方法について説明する。上述したように、食器に食べかすが存在しているか否かの 状況に応じて、最適な運搬方法は異なるのである(図 3A参照)。
[0170] ここでは、食器表面の材質を認識することにより、その食器に食べかすが存在して V、るか否かの状況を認識する。
[0171] つまり、例えば RFIDタグ Tgの情報に基づけば、食器の種類を特定することができ るものの、その食器に食べかすが存在している力否かの状況は、時間に対して変化 するため、 RFIDタグ Tgに情報として予め記憶させることはできない。また、食器の重 量を重量センサによって検出し、食べかすの有無を検出しょうとしても、食べかすの 量が少なく重量センサによって検出することが困難な場合には、食べかすの有無を 検出することができない。
[0172] これに対し、食器のようにその表面の材質がその全体に亘つて略一様であるときに は、材質の情報を利用することによって、食べかすの有無を精度よく検出することが 可能である。材質の情報としては、反射パラメータを利用することができる。この反射 ノ メータは、物品の材質に依存するパラメータであり、対象物に光を照射する光源 と、対象物を撮像するカメラなどの撮像装置とを利用して検出することができる。図 8 に示すようにロボット 50のアーム 51にカメラ 502と光源 503 (この光源は、この例では 、レーザ照射装置とする必要はない)とを取り付け、そのカメラ 502と光源 503と認識 処理部 ΙΟΙρとによって反射パラメータを検出してもよい。尚、反射パラメータの検出 方法は公知であるため、ここではその説明は省略する。
[0173] 反射パラメータを利用した食べかすの有無の認識は次のようにして行えばよい。つ まり、各食器の RFIDタグ Tgには、その食器の反射パラメータの情報を記憶させてお く。そうして、食器の反射パラメータを実際に光源 503とカメラ 502と認識処理部 101 pで検出し、 RFIDタグ Tgに記憶されている反射パラメータと、認識処理部 101pで検 出した反射パラメータとを比較する。両パラメータが同じであるときには、食器の上に は何も存在しない、つまり食べかすが存在しないと判断することができる。一方、両パ ラメータが十分に異なるときには、食器の上に何かが存在している、つまり食べかす が存在していると判断することができる。尚、食べかすの反射パラメータを予め求めて ぉ 、て、実際に検出した反射パラメータと食べかすの反射パラメータとを比較してもよ い。
[0174] このとき、皿の反射パラメータを皿上の複数点において検出し、検出したパラメータ と、 RFIDタグ Tgに記憶されて 、る反射パラメータがどの程度一致するかを表した反 射パラメータ一致度を利用することで、「汚れなし」、「汚れ有り」、「食べかす有り」、「 食べ残し有り」を判断する(図 3Aの「反射パラメータ一致度」参照。すなわち、「汚れ なし」、「汚れ有り」、「食べかす有り」、「食べ残し有り」のそれぞれの反射パラメーター 致度は、 99%以上、 90〜99%、 80〜90%、 80%以下)。反射パラメータ一致度 Ep は以下の式で表現される。
[0175] (数 2)
Ep=Num— match I Num— points
ここで、 Num_pointsは反射パラメータを検出した点の数、また Num_matchは検出した 反射パラメータのうち、記憶されて 、る反射パラメータと一致した数を示して 、る。 [0176] 例えば、皿上の 200点の反射パラメータを検出したとする。このうち、 185点におい ては RFIDタグに記憶されていた反射パラメータと等し力つたとする。このとき、反射パ ラメータの一致度は
(数 3)
185 I 200 = 0.925
となり、 92. 5%である。また、図 3Aの「反射パラメータ一致度」より、この皿は「汚れ有 り」であると判断される。
[0177] 以上のように、上記状況認識手段 101は、カメラやタグリーダ等を利用して物品の 状況を認識する。尚、状況認識手段 101は、物品の状況の種類に応じてこれら以外 のセンサ、例えば重量センサ等を利用して、物品の状況を検出することもできる。つ まり、検出すべき状況は様々であるため、その検出すべき状況に応じて最適な認識 方法を採用すればよい。
[0178] (状況認識手段 101による、推論を利用した物品の状況の認識)
上記の認識方法では、各種センサ 101aの検出データに基づいて物品の状況を認 識していた力 上記状況認識手段 101は、図 2Fに示すように、各種センサ 101aと、 各種センサ 101aの検出データを基に推論を行う推論処理部 101gと、各種センサ 10 laで検出された物品の移動履歴を蓄積するデータベース、例えば物品移動履歴デ ータベース 101dとより構成することによって物品の状況を認識してもよい。この推論 処理部 10 lgによる推論にっ 、て、衣服が汚れて 、るか否かを認識する場合を例に 説明する。例えば部屋に置かれている衣服を片付ける場合に、その衣服が汚れてい るときには洗濯機に運搬し、その衣服が汚れていないときにはタンスに運搬する、と いったように、衣服が汚れているか否かの状況に応じて、最適な運搬方法 (運搬場所 )は異なるのである。
[0179] この認識の前提として、上記衣服 CLには RFIDタグ Tgが取り付けられているとし、 その衣服 CLが置かれている部屋を含む家屋内の出入口(例えば玄関、各部屋の出 入口、ベランダへの出入口)にはタグリーダ (例えば、窓 91の付近にはタグリーダ TR 91、ドア 92の付近にはタグリーダ TR92)が配設されているものとする(図 2D参照)。
[0180] このように家屋内の出入口にタグリーダ TRを配設することによって、人が衣服 CLを 着た状態で出入口を通過したり、人が衣服 CLを保持した状態で出入口を通過したり すれば、そのことがタグリーダ TRによって検出される。その検出結果を物品移動履 歴データベース lOldに逐次記憶することによって、衣服 CLの移動履歴が得られる。
[0181] 図 2Eはこの様子を示したものである。図 2E中の出入口 1〜7にはタグリーダ TR11 〜TR17が配設されており、物品や人の出入を検出することができる。また、図 2E中 の洗濯機 Wmの取り出し口にも同様のタグリーダ TRwが配設されて 、る。
[0182] このような状態で、上記物品移動履歴データベース 101dに蓄積された移動履歴を 推論処理部 101gで参照することによって、 1つの例として、現時点は、上記衣服 CL は部屋 95aに置かれて 、る力 その現時点よりも 1つ前の時点では上記衣服 CLは玄 関 95bを通過しており(出入口 2のタグリーダ TR12を通過)、さらに前の時点でも上 記衣服 CLは玄関 95bを通過していた(出入口 1のタグリーダ TR11を通過)とする。こ の場合、その衣服 CLを着た人が家力も外出して戻った後に、その衣服 CLを部屋 95 aに置いた、と考えられる。そうすると、その部屋 95aに置かれている衣服 CLは汚れ ていると、推論処理部 101gで推論することができる。
[0183] また、別の例として、上記物品移動履歴データベース 101dに蓄積された移動履歴 を推論処理部 101gで参照することによって、例えば現時点は、上記衣服 CLは部屋 95aに置かれているが、その現時点よりも 1つ前の時点では上記衣服 CLはべランダ 95cの出入口を通過しており(出入口 4のタグリーダ TR14を通過)、さらに前の時点 では上記衣服 CLは洗濯機 Wmに入って 、た (洗濯機 Wmの取り出し口のタグリーダ TRwを通過)とする。この場合、洗濯機 Wmによって洗濯された衣服 CLがべランダ 9 5cで干された後に、その衣服 CLが部屋 95aに置かれている、と考えられる。そうする と、その部屋 95aに置かれている衣服 CLは汚れていないと、推論処理部 101gで推 餘することができる。
[0184] このように推論を利用して物品の状況を認識することによって、各種センサ 101aの みでは検出することが困難な物品の状況を、各種センサ 101aの検出データを適宜 処理する、認識処理部 101pを使用したり、又は、推論処理部 101gと物品移動履歴 データベース 101dとを使用して、比較的容易に認識することが可能になる。
[0185] (状況認識手段 101による、物品が積み重なつている力否かの状況の認識) 次に、運搬対象の物品に、他の物品が積み重ねられているか否力 (物品が単独で 存在している力、又は物品が積み重なっているか)、を認識する方法について説明す る。上述したように、運搬対象の物品に、他の物品が積み重ねられている力否かに応 じて、最適な運搬動作は異なるのである(図 3C参照)。この認識は、センサ 101aの別 の例として、重量センサ 101bとタグリーダ 101cを用いた推論により可能である。
[0186] 図 7A及び図 7Bは、重量センサ 101bとタグリーダ 101cとを用いた認識を説明する ための図である。つまり、状況認識手段 101は、重量センサ 101bとタグリーダ 101cと をさらに含み、この重量センサ 101bとタグリーダ 101cはテーブル Tbに設置されてい るとする。重量センサ 101bは、テーブル Tb上に置かれた物品の重量と、その物品の おおよその重心位置とを検出することができるとする。また、上記タグリーダ 101cは、 テーブル Tb上に置かれた物品の RFIDタグ Tgの情報を読み込むことができるとする
[0187] テーブル Tbには、図 7Cに示したように複数個(ここでは 9個)の重量センサ 101b— l〜101b— 9と一つのタグリーダ 101cが配設されている。各重量センサ 101b— 1〜 101b— 9は、この図 7Cのようにテーブル Tbの一部のみに置かれた重量を測定する 。一方、タグリーダ 101cはテーブル Tb上であればどこに置かれた RFIDタグ Tgも検 出が可能である。尚、 RFIDタグ Tgには、アンチコリジョン機能があるとし、複数の物 品が重ねられていても、各物品の情報を区別して読み込むことができるとする。
[0188] ここで、図 7Aに示すように、 2冊の本 Bkがテーブル Tbの上の互いに異なる位置に それぞれ置かれている第 1の状況と、図 7Bに示すように、 3冊の本 Bkが積み重なつ た状態でテーブル Tbの上の 1つの位置に置かれている第 2の状況とを考える。
[0189] 図 7Dは図 7Aの上記第 1の状況を示したものである。このとき、 2冊の本(本 Bk— 1 , Bk— 2)はどちらもタグリーダ 101cによって検出される力 本 Bk— 1は重量センサ 1 01b— 4のみに、また本 Bk— 2は重量センサ 101b— 6のみに検出される。そのため、 重量センサ 101bはテーブル Tb上に重心が 2つあるものが置かれていることを検出 する。
[0190] 一方、図 7Eは図 7Bの第 2の状況を示したものである。このとき、 3冊の本(本 Bk— 1 , Bk- 2, Bk— 3)は積み重ねられているため、重量センサ 101b— 9のみに検出さ れ、それ以外の重量センサ 101bでは検出されない。そのため、重量センサ 101bは テーブル Tb上に重心がただ 1つのものが置かれていることを検出する。また、タグリ ーダ 101cによって 3つの本 Bk—1, Bk- 2, Bk— 3が存在していることが検出される
[0191] 以上のことから、この 2つの状況を、上記重量センサ 101b及びタグリーダ 101cによ つて検出した場合、各センサ 101b, 101cによって次のことが検出される。
[0192] <第 1の状況 >
タグリーダ 101c: 2冊の本 Bkがあること、及び各本 Bkの重量。
重量センサ 101b:重量、及び重心位置が 2箇所存在して!/ヽること。
[0193] <第 2の状況 >
タグリーダ 101c: 3冊の本 Bkがあること、及び各本 Bkの重量。
重量センサ 101b :重量、及び重心位置が 1箇所存在していること。
[0194] もちろん、図 7Fのように、タグリーダ TR1〜TR9を所定間隔でテーブル Tbに配置 して、タグリーダ TR1〜TR9の受信領域を複数個用意することにより、同様の処理を 行うようにしても構わない。このとき、物品の重量は、タグリーダ TR1〜TR9で検出さ れるタグ情報力 取得される。
[0195] 次に、タグリーダ 101cによって読み取った各本 Bkの重量 (合計値)と、重量センサ 101bで検出した各本 Bkの重量とを例えば推論処理部 lOlgで比較する。その結果 、両者の差がほとんどないときには、テーブル Tbの上に置かれている物品は本 Bkの みであること、及びその本 Bkの数、が判明する。
[0196] 次に、上記重量センサ 101bによって検出された重心位置と、判明した本 Bkの数と を比較する。第 1の状況においては、本 Bkの数が 2冊であるのに対し、重心位置の 数が 2箇所である。一方、第 2の状況においては、本 Bkの数が 3冊であるのに対し、 重心位置の数が 1箇所である。
[0197] 従って、物品が単独で存在していることは、以下の 2条件を満たすか否かを例えば 推論処理部 lOlgで判断することによって認識可能である。
[0198] 第 1の条件: RFIDタグ Tgの情報に基づく重量と、重量センサ 101bで検出した重 量とが略同じであること。 [0199] 第 2の条件:タグリーダ TRで検出した物品の個数と、重量センサ 101bで検出した 重心位置の数とがー致すること。
[0200] つまり、第 1の条件と第 2の条件とを共に満たすと推論処理部 lOlgで判断するとき には、物品が単独で存在しており、第 1の条件を満たす一方で、第 2の条件を満たさ ないと推論処理部 lOlgで判断するときには、物品が積み重ねられていると、推論処 理部 10 lgで認識することができる。
[0201] 以上説明した状況認識手段 101による物品の状況を認識方法は一例であり、物品 が取り得る状況としては、ここで説明した状況以外にも様々な状況を取り得る。その場 合、上記で説明した認識方法では、物品の状況を認識することができない場合も存 在するが、例えば上記で説明した認識方法と、他の方法とを組み合わせたりすること 等、状況の種類に応じて最適な認識方法を適宜採用することによって、各種物品の 様々な状況を認識することは可能である。
[0202] また、同様に、積み重ねられている物品の数、例えば、本 Bkの冊数によって運搬 速度を変更するようにしても構わない。これにより、積み重ねられている多数の物品を 運搬しているときには運搬装置 103 (例えばロボット 50)は、積み重ねられている物品 が落下しないような低速で移動を行うようにすれば、運搬装置 103 (例えばロボット 50 )により安全に多数の物品の運搬作業を行うことができる。
[0203] (運搬方法特定手段)
運搬方法特定手段 102は、上記で説明したように、状況認識手段 101によって認 識された物品、及びその状況と、上記の運搬情報データベース 104とに基づいて、 状況に応じた運搬方法の特定を当該物品の複数の運搬方法の中から行う。
[0204] 具体的に上記運搬方法特定手段 102は、上記状況認識手段 101によって認識さ れた物品の状況に関するデータを受けて、上記運搬情報データベース 104に蓄積さ れている当該物品の運搬データを参照する。そうして、その認識された状況に対応 する運搬基本データ (すなわち、物品の各状況と、それに対応する運搬動作及び運 搬場所 (及び次の状況につ!ヽての情報)とを含むデータ)を選定する。運搬基本デー タを選定すれば、上記運搬方法特定手段 102は、上記運搬装置 103に対して選定 した運搬基本データを送信する。 [0205] 尚、上記運搬情報データベース 104に蓄積されている運搬基本データが、図 5に 示すように「次の状況」についての情報を含む場合には、 1つの運搬作業の実行によ つて物品の状況が変更されれば、上記運搬方法特定手段 102は、その変更された 状況に対応する運搬基本データを新たに選定すると共に、新たに選定した運搬基本 データを上記運搬装置 103に送信する。こうして、運搬基本データの選定'送信を繰 り返す。
[0206] このときに、次の運搬作業は、先の運搬作業が完了したことを待って行うことが望ま しい。運搬作業の完了時点は、運搬場所に応じて変更すればよぐ例えば、図 5に示 すコップの例においては、「汚れ無し」の状況でコップを「食器棚」 Cbに運搬する作業 においては、食器棚 Cbに運搬したコップはその後に状況が変化することがないため 、コップを食器棚 Cbに運搬し終わった時点を、運搬作業の完了時点とすればよい。 これに対し、「飲み残し無し」の状況でコップを「食洗機」 Dwに運搬する作業にぉ ヽ ては、食洗機 Dwに運搬したコップはその後、洗浄されて「汚れ無し」に状況が変化 するため、コップを食洗機 Dwに運搬し終わった時点ではなぐ食洗機 Dwによって洗 浄が終わった時点を、運搬作業の完了時点とすればよい。この場合、食洗機 Dwから 運搬方法特定手段 102に対して洗浄完了の情報を提供するために、食洗機 Dwも有 線及び Z又は無線のネットワークを介して上記運搬方法特定手段 102に接続されて V、ることが好まし 、(図 2C参照)。
[0207] (運搬装置)
運搬装置 103は、上記運搬方法特定手段 102で特定された運搬方法に従って物 品の運搬を行う。そのために、運搬装置 103は、少なくとも、
1)運搬基本データに記載される運搬方法及び運搬場所を理解し、それに従って プログラムを実行する機能、
2)物品を運搬する物理的構造、及び物品を把持解放する物理的構造、 を備えている。
[0208] 先ず、上記 1)について説明すると、図 3A等に示す運搬データは、自然言語をべ ースにして記述している力 上記運搬装置 103に提供するデータは、姿勢'速度に関 する数値パラメータとする。 [0209] 上記運搬装置 103は、物品運搬用のプログラムを実装しており、読み込んだ上記 姿勢'速度に関するパラメータ値に従って、プログラムを実行することにより、物品の 運搬を行う。尚、こうした技術は従来公知の産業用ロボットにおいて一般的に行われ て 、るため、ここでは詳細な説明は省略する。
[0210] また、上記運搬装置 103として、既存のロボットを利用することも可能である力 その 場合に上記既存のロボットに実装されたプログラムによって、上記運搬基本データに 係る数値パラメータを読み込むことができない場合も予想される。その場合は、情報 翻訳プログラム等を、上記既存のロボットに追加実装することによって、上記運搬基 本データに係る数値パラメータを上記既存のロボットに実装されたプログラムで使用 可能にすればよい。またこの場合、運搬基本データに係る姿勢や速度の情報を、標 準的な記述フォーマットの 1つである XML等を用いて記述しておくとよい。
[0211] 次に、上記 2)について説明すると、物品を運搬する物理的構造、及び物品を把持 解放する物理的構造は、産業分野におけるロボットにおいて既に実用化されている ため、ここではその詳細な技術内容の説明は省略する。なお、簡単な構成の一例に ついては、先に図 8を用いて説明している。
[0212] (物品運搬用ロボット又は物品運搬システムにおける運搬処理)
次に、図 9に示すフローチャートを参照しながら、上記物品運搬用ロボット又は物品 運搬システム 10における運搬処理について説明する。尚、運搬情報データベース 1 04は、図 5に示す構成であるとする。
[0213] 先ず、ステップ S601において、状況認識手段 101は、運搬対象の物品と、その物 品の状況とを認識し、その認識結果を運搬方法特定手段 102に送る。
[0214] 続くステップ S602で、上記運搬方法特定手段 102は、受け取った認識結果に基 づいて、当該物品に関連する運搬データを運搬情報データベース 104から検索する 。そして、認識物品に一致する運搬データが見つ力つた力否力 (データが存在してい るか否力 を判定し (ステップ S603)、見つかったときにはステップ S604に移行し、見 つからな力つたときにはそのまま処理を終了する。
[0215] 上記ステップ S604において、上記運搬方法特定手段 102は、運搬情報データべ ース力 運搬データを取得し、その運搬データから、当該物品の状況に対応する運 搬基本データを検索する。そして、運搬基本データが見つかつたか否か (データが存 在しているか否力)を判定し (ステップ S605)、見つかったときにはステップ S606に 移行し、見つ力 な力つたときそのまま処理を終了する。
[0216] 上記ステップ S606においては、上記運搬方法特定手段 102は、検索した運搬基 本データから運搬方法と運搬場所とを取得し、その取得した情報を上記運搬装置 10 3に送信する。
[0217] ステップ S607では、上記運搬方法特定手段 102から送られた情報を受けて、上記 運搬装置 103は、その運搬方法と運搬場所に従って物品の運搬を実行する。
[0218] ステップ S608において、上記運搬方法特定手段 102は、ステップ S606で取得し た運搬基本データに、次の状況についての情報が記述されている力否かを判断し、 記述されて ヽな 、ときにはそのまま終了する一方、記述されて 、るときには上記ステ ップ S604に戻り、以下、ステップ S604〜S608の各ステップを繰り返す。
[0219] 尚、上記運搬方法特定手段 102は、上記ステップ S607において運搬装置 103に よる運搬作業が完了したことを受けて、ステップ S608からステップ S604に戻ってもよ いし、運搬作業の完了前にステップ S608からステップ S604に戻っておいて、運搬 作業が完了したことを受けてステップ S606における情報の送信を実行してもよい。
[0220] 以上が物品運搬用ロボット及び物品運搬システム 10における物品運搬処理の流れ であるが、次に、具体例に沿って物品運搬処理について説明する。ここでは、食事の 後にコップ (飲み残し無し (汚れ有り)のコップ)を片付ける場合を例とする。
[0221] 先ず、ユーザが、物品運搬用ロボット 10又は物品運搬システムに対してコップの運 搬作業を、ロボット 50に直接入力してロボット 50に命令するカゝ、又は操作端末 403を 使用して物品運搬システムに命令する。物品運搬用ロボット 10又は物品運搬システ ム 10がその作業命令を受けると、上記状況認識手段 101は、生活空間内に置かれ たコップを認識すると共に、そのコップの状況を認識し、その認識結果を上記運搬方 法特定手段 102に送る (ステップ S601)。
[0222] コップの認識は、上述したように、カメラ 502等を用いて行えばよい。尚、上記コップ を見つけることが困難な場合には、ロボット 50に直接入力するカゝ、又は、操作端末 40 3を使用して物品運搬システムに入力することにより、ユーザに運搬対象のコップの おおよその場所を指定してもらうようにしてもよい。コップのおおよその位置が特定さ れれば、コップの認識は容易である。また、コップの状況の認識は、上述したように、 反射パラメータを利用して行えばよい。この例では、コップの状況は「飲み残し無し」 ( 汚れ有り)と認識される。
[0223] 認識結果を受けた運搬方法特定手段 102は、運搬情報データベース 104を参照し て、コップに係る運搬データを検索する (ステップ S602, S603)。そうして、図 5に示 す運搬データが検索されれば、その運搬データから、「飲み残し無し」(汚れ有り)の 状況に対応する運搬基本データを検索する (ステップ S604、 S605)。
[0224] 「飲み残し無し」(汚れ有り)の状況に対応する運搬基本データが検索されれば、上 記運搬方法特定手段 102は、そこに記述されている運搬方法 (姿勢:上向き、速度: 自由)と、運搬場所 (食洗機 Dw)とを取得して、その情報を上記運搬装置 103に送信 する(ステップ S 606)。
[0225] 上記運搬方法及び運搬場所の情報を受けた運搬装置 103は、その運搬方法及び 運搬場所に従って、上記「飲み残し無し」(汚れ有り)の状況にあるコップを、上向きの 姿勢でかつ最適な速度で食洗機 Dwに運搬する (ステップ S607)。
[0226] 一方、上記運搬方法特定手段 102は、ステップ S606で取得した運搬基本データ に、次の状況についての情報が記述されているかを判断する (ステップ S608)。ここ では、「汚れ無し」と記述されているため、上記運搬方法特定手段 102は、その「汚れ 無し」の状況に対応する運搬基本データを検索して取得する (ステップ S604、 S605
) o
[0227] そして、上記運搬方法特定手段 102は、新たに取得した「汚れ無し」に対応する運 搬方法 (姿勢:自由、速度:自由)と、運搬場所 (食器棚 Cb)とを取得して、その情報 を上記運搬装置 103に送信する (ステップ S606)。このとき、上記運搬方法特定手段 102は、上記コップが食洗機 Dwによって洗い終わるのを待って情報を送信する。食 洗機 Dwがコップを洗い終わることは、上記食洗機 Dwから運搬方法特定手段 102に 対して通知すればよい。
[0228] 上記運搬方法及び運搬場所の情報を受けた運搬装置 103は、その運搬方法及び 運搬場所に従って、上記「汚れ無し」の状況にあるコップを、最適な姿勢でかつ最適 な速度で、食洗機 Dwから食器棚 Cbに運搬する (ステップ S607)。
[0229] 上記運搬方法特定手段 102はさらに、運搬基本データに、次の状況についての情 報が記述されているかを判断する。ここでは、次の状況についての情報が記述されて いないため、運搬処理を終了する。
[0230] このように、上記物品運搬用ロボット又は物品運搬システム 10によると、状況認識 手段 101によって、刻々と変化する物品の状況を認識し、その認識結果に応じて運 搬方法特定手段 102が、上記物品の状況に最適な運搬方法を特定することによって 、上記物品を運搬装置 103によって、最適に運搬することができる。
[0231] また、各物品の状況毎に、当該状況と運搬動作及び Z又は運搬場所を対応付け た運搬基本データを蓄積する運搬情報データベース 104を備えることによって、上 記運搬方法特定手段 102は、物品の状況に対応した運搬方法を的確に特定するこ とがでさる。
[0232] さらに、図 5に示すように、運搬情報データベース 104に蓄積する運搬基本データ に、上記運搬装置 103によって物品が運搬場所に運搬された結果、変化する当該 物品の次の状況についての情報をさらに含めることによって、物品に対して複数の運 搬作業を連続的にかつ自動的に行うことが可能になる。その結果、ユーザが行う物 品の運搬作業の命令が簡便になり、ユーザの利便性の向上が図られる。
[0233] 尚、上記実施形態では、運搬情報データベース 104は、各物品の状況毎に、当該 状況と運搬動作及び Z又は運搬場所を対応付けた運搬基本データを蓄積するデー タベースとした。しかし、運搬情報データベース 104は、これに限るものではなぐ状 況に応じた最適な運搬方法を特定するための知識を蓄積した知識ベースとしてもよ い。この場合、上記運搬方法特定手段 102は、知識ベースを用いて状況に応じた最 適な運搬方法を特定する推論エンジンとして構成すればよい。
[0234] また、運搬対象の物品の把持方法によって、運搬方法を変化させても構わない。こ れは、運搬対象の物品の受け渡しを人と行なうときに効果的である。水を入れられた コップを例に図 10A及び図 10Bなどを用いて詳述する。
[0235] テーブル Tbなどに置かれているコップを把持して運搬する場合と異なり、人がロボ ット 50に物品を手渡し、運搬を依頼する場合、ロボット 50は通常と異なる把持方法で 把持することがある。図 8に示したロボット 50がコップ 201を運搬する場合、その把持 方法は通常、ハンド 52でコップ 201を挟む方法(図 10A参照)が考えられる。しかし、 人がロボット 50に物品を渡す場合、ハンド 52で掴むのではなぐ例えば、ハンド 52の 上にコップ 201を載せる(図 10B参照)こともある。
[0236] そのため、物品情報データベース 104には、図 10Cのような物品の運搬情報が蓄 積されている。この図 10Cにおいて、「運搬場所」は省略した。この物品情報データ ベース 104は「状況」として「物品の保持方法」を蓄積している。すなわち、水など内 容物が有るコップの把持方法は、「ハンド 52で掴む」、「ハンド 52に載せる」の、少なく とも 2つの方法を取り得る。尚、把持方法としてはこれ以外に様々な方法を取り得るが 、ここでは理解容易のために、これらの 2つの方法に限定して説明する。
[0237] まず、ロボット 50が「ノヽンド 52で掴む」ことによりコップ 201を保持した場合、コップ 2 01は安定して保持されていると考えられる。そこで、その状況に対する動作情報とし て、姿勢が「上向き」、速度が「中速」に設定される。これに対し、ロボット 50が人力もコ ップ 201の受け渡しをされた際に、「ハンド 52に載せる」ことによりコップ 201を保持し た場合、コップ 201は不安定な状態で置かれていると考えられる。そこで、その状況 に対する動作情報として、姿勢が「上向き」、速度が「低速」に設定され、コップ 201を 落とすことがないよう、ゆっくりとした運搬動作を行なう。
[0238] 以上より、物品の把持方法が変化した場合においても、本実施形態の物品運搬用 ロボット及び物品運搬システムは、多種多様な状況を取り得る物品を最適に運搬する ことができる。
[0239] また、運搬対象の物品の温度によって、運搬方法を変化させても構わない。これを 、水を入れられた茶碗を例に図 10Dを用 ヽて詳述する。
[0240] このときの物品情報データベース 104には、図 10Dのような物品の運搬情報が蓄 積されている。通常、水を入れられた茶碗は危険なものではないため、それほどゆつ くりと動作を行なう必要はない。そこで、茶碗に入れられた水の水温があまり高くなぐ 万が一、茶碗力も水をこぼした場合にも、やけどなどの心配がない場合 (具体的には 、 40°C未満)、動作情報として姿勢が「上向き」、速度が「中速」に設定される。これに 対し、茶碗に入れられた水の水温が十分に高ぐロボット 50が人力も茶碗の受け渡し をされた際に、「ノヽンドに載せる」ことにより茶碗をノヽンド 52で保持した場合、万が一、 茶碗から水(お湯)をこぼした場合にやけどなどの心配がある場合 (具体的には、 40 °C以上)、動作情報として、姿勢が「上向き」、速度が「低速」に設定され、内容物であ るお湯をこぼすことがないよう、ゆっくりとした運搬動作を行なう。
[0241] このような、内容物の温度検出は、例えば赤外線センサなど、公知のセンシング手 段を利用すればよい。
[0242] 本実施形態によれば、もともとお湯であったもの力 冷めたという場合においても、 最適に運搬することができる。
[0243] ここで、一例として、「低速」とは時速 2kmZh以下で移動することを、また、「中速」 とは時速 4kmZh以下で移動することを意味する。
[0244] また、もちろん、ロボット 50が把持方法を切り替えるようにしても構わな 、。すなわち 、水が入ったコップを「ノヽンド 52に載せる」という把持方法で運搬を行っていたが、別 の運搬命令をユーザ力も受けた場合、ロボットは「ノヽンド 52で掴む」と 、う把持方法に 変更し、運搬速度を上げるようにすればよい。このようなユーザからの命令は、ロボッ ト 50が運搬作業を行う生活空間内にマイクを取り付け、そのマイクが集音した音声情 報を音声認識することで実行するようにすればょ 、。
[0245] なお、上記様々な実施形態のうちの任意の実施形態を適宜組み合わせることにより 、それぞれの有する効果を奏するようにすることができる。
産業上の利用可能性
[0246] 以上説明したように、本発明は、物品の状況を認識した上でその状況に応じた運搬 方法でもって物品の運搬を行うため、多種多様な状況を取り得る物品を最適に運搬 することができる力 、生活空間内で利用される、各種のロボットを含む物品運搬用口 ボット又は物品運搬システム等に有用である。
[0247] 本発明は、添付図面を参照しながら好ましい実施形態に関連して充分に記載され ているが、この技術の熟練した人々にとつては種々の変形や修正は明白である。そ のような変形や修正は、添付した請求の範囲による本発明の範囲から外れない限り において、その中に含まれると理解されるべきである。

Claims

請求の範囲
[1] 生活空間内の物品の IDが同じで上記物品の状況により運搬方法が異なるような上 記物品の運搬を行う物品運搬用ロボットであって、
上記運搬対象の物品の状況を認識する状況認識手段と、
上記状況認識手段によって認識された上記物品の状況に応じて、当該物品の運 搬方法を特定する運搬方法特定手段と、
上記運搬方法特定手段によって特定された運搬方法に従って、上記運搬対象の 物品の運搬を行う運搬装置と、を備えた物品運搬用ロボット。
[2] 各物品の状況毎に、当該状況と運搬動作及び Z又は運搬場所とを対応付けた運 搬情報を蓄積する運搬情報データベースをさらに備え、
上記運搬方法特定手段は、上記運搬情報データベースを参照することによって、 上記物品の状況に対応する運搬情報を特定する、請求項 1に記載の物品運搬用口 ホット。
[3] 上記運搬情報は、上記運搬装置によって物品が運搬場所に運搬された結果、変 化する当該物品の次の状況についての情報をさらに含み、
上記運搬方法特定手段は、上記認識された物品の状況に対応する運搬情報を選 択した後に、上記選択した運搬情報に含まれる次の状況についての情報に基づい て、当該次の状況に対応する別の運搬情報をさらに選択し、
上記運搬装置は、上記別の運搬情報が選択されたときには、その別の運搬情報に 従って上記物品の運搬をさらに実行する、請求項 2に記載の物品運搬用ロボット。
[4] 上記運搬対象の物品は、物体を載置又は収容する機能を有し、
上記状況認識手段は、上記運搬対象の物品が物体を載置又は収容して ヽるか否 かの状況を認識する、請求項 1に記載の物品運搬用ロボット。
[5] 上記状況認識手段は、上記運搬対象の物品に、他の物品が積載されているカゝ否 かの状況を認識する、請求項 1に記載の物品運搬用ロボット。
[6] 生活空間内の物品の IDが同じで上記物品の状況により運搬方法が異なるような上 記物品の運搬を行うロボットに上記物品の運搬指示を出力する物品運搬システムで あって、 運搬対象の各物品の状況毎に、当該状況と運搬方法及び Z又は運搬場所とを対 応付けた運搬情報を蓄積する運搬情報データベースと、
上記運搬対象の物品の状況を認識する状況認識手段からの認識結果を受けて、 当該状況に応じて上記運搬情報データベースを参照して当該物品の運搬方法を特 定する運搬方法特定手段とを備えて、
上記運搬方法特定手段により上記運搬情報データベースを参照して特定した運搬 方法に基づいて上記ロボットに運搬指示を出力する物品運搬システム。
[7] 生活空間内の物品の IDが同じで上記物品の状況により運搬方法が異なるような上 記物品の運搬をロボットで行う物品運搬方法であって、
上記運搬対象の物品の状況を認識し、
上記物品の状況を認識した物品の状況に応じて、当該物品の運搬方法を特定し、 上記特定した運搬方法に従って、上記ロボットが上記運搬対象の物品の運搬を行 う、ことを含む物品運搬方法。
[8] 上記物品の状況により、上記物品の上記運搬方法が異なるとともに、さらに、運搬 場所も異なる、請求項 1に記載の物品運搬用ロボット。
[9] 上記物品を保持する保持装置をさらに備え、
上記保持装置で上記物品を保持しながら上記物品を運搬する、請求項 1に記載の 物品運搬用ロボット。
[10] 上記運搬対象の物品が食器であり、上記物品運搬用ロボットは食後の食器の片付 け作業を行うロボットとして機能し、上記食器が汚れて ヽる状況と上記食器が汚れて V、な 、状況とでは運搬場所と運搬方法が異なる、請求項 1に記載の物品運搬用ロボ ッ卜。
PCT/JP2005/014052 2004-08-02 2005-08-01 物品運搬用ロボット、物品運搬システム、及び物品運搬方法 WO2006013829A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006531465A JP3920317B2 (ja) 2004-08-02 2005-08-01 物品運搬用ロボット
US11/699,342 US7269479B2 (en) 2004-08-02 2007-01-30 Article transporting robot

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004225221 2004-08-02
JP2004-225221 2004-08-02

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/699,342 Continuation US7269479B2 (en) 2004-08-02 2007-01-30 Article transporting robot

Publications (1)

Publication Number Publication Date
WO2006013829A1 true WO2006013829A1 (ja) 2006-02-09

Family

ID=35787114

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/014052 WO2006013829A1 (ja) 2004-08-02 2005-08-01 物品運搬用ロボット、物品運搬システム、及び物品運搬方法

Country Status (3)

Country Link
US (1) US7269479B2 (ja)
JP (1) JP3920317B2 (ja)
WO (1) WO2006013829A1 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007260838A (ja) * 2006-03-28 2007-10-11 Brother Ind Ltd 搬送ロボット及び搬送プログラム
KR20180065005A (ko) * 2016-12-06 2018-06-15 버슘머트리얼즈한양기공 주식회사 실린더 이동용 카트
JP2019017611A (ja) * 2017-07-14 2019-02-07 パナソニックIpマネジメント株式会社 食器処理機
CN109531585A (zh) * 2017-09-22 2019-03-29 松下知识产权经营株式会社 机器人
JP2020508888A (ja) * 2017-02-25 2020-03-26 ディリジェント ロボティクス,インコーポレイテッド ロボットが技能を学習し実行するシステム、装置及び方法
JP2020062691A (ja) * 2018-10-15 2020-04-23 株式会社Preferred Networks 検査装置、検査方法、ロボット装置、ロボット装置における検査方法及びプログラム
WO2020115985A1 (ja) * 2018-12-05 2020-06-11 国立大学法人 東京大学 ロボットシステム
JP2021086196A (ja) * 2019-11-25 2021-06-03 トヨタ自動車株式会社 搬送システム、搬送方法およびプログラム
JP2021086197A (ja) * 2019-11-25 2021-06-03 トヨタ自動車株式会社 搬送システム、学習済みモデル生成方法、学習済みモデル、制御方法およびプログラム
JP6906724B1 (ja) * 2021-03-25 2021-07-21 Dmg森精機株式会社 工作機械
JP6957781B1 (ja) * 2021-06-14 2021-11-02 Dmg森精機株式会社 自走装置
US11298825B2 (en) 2017-02-25 2022-04-12 Diligent Robotics, Inc. Systems, apparatus, and methods for robotic learning and execution of skills
US11833684B2 (en) 2017-02-25 2023-12-05 Diligent Robotics, Inc. Systems, apparatus, and methods for robotic learning and execution of skills
US11904470B2 (en) 2021-02-08 2024-02-20 Diligent Robotics, Inc. Systems, apparatuses, and methods for robotic learning and execution of skills including navigation and manipulation functions

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4456561B2 (ja) * 2005-12-12 2010-04-28 本田技研工業株式会社 自律移動ロボット
US20090322493A1 (en) * 2007-03-20 2009-12-31 Kumagai Monto H Method to personalize, promote, and distribute multimedia content using radio frequency identification
US8577498B2 (en) * 2007-05-21 2013-11-05 Panasonic Corporation Automatic transfer method, transfer robot, and automatic transfer system
JP5037248B2 (ja) * 2007-07-17 2012-09-26 株式会社日立製作所 情報収集システムおよび情報収集ロボット
WO2009038399A2 (en) * 2007-09-20 2009-03-26 Posco Appartus for controlling the position of crane tong according to slab bending and the method thereof
US20110024051A1 (en) * 2009-03-20 2011-02-03 Sanford Kyle L Automated lamination stacking system for a transformer core former
TWI388956B (zh) * 2009-05-20 2013-03-11 Univ Nat Taiwan Science Tech 行動機器人與其目標物處理路徑的規劃方法
KR20110015765A (ko) * 2009-08-10 2011-02-17 삼성전자주식회사 로봇의 경로계획장치 및 그 방법
EP2309357B1 (en) * 2009-10-02 2012-08-29 Poly-clip System GmbH & Co. KG Robotic device for inserting or removing rod-like elements
US8280544B2 (en) * 2009-11-02 2012-10-02 Mold Masters (2007) Limited System for use in performance of injection molding operations
WO2011151915A1 (ja) * 2010-06-03 2011-12-08 株式会社日立製作所 人操作型作業機械システム
CN103582851B (zh) * 2011-04-06 2016-05-11 皇家飞利浦有限公司 针对动态3d健康护理环境中的安全性的系统和方法
US8639644B1 (en) 2011-05-06 2014-01-28 Google Inc. Shared robot knowledge base for use with cloud computing system
US8452451B1 (en) 2011-05-06 2013-05-28 Google Inc. Methods and systems for robotic command language
JP5895420B2 (ja) 2011-09-21 2016-03-30 セイコーエプソン株式会社 ロボット制御装置、及びロボットシステム
US8688275B1 (en) * 2012-01-25 2014-04-01 Adept Technology, Inc. Positive and negative obstacle avoidance system and method for a mobile robot
JP2013184273A (ja) * 2012-03-09 2013-09-19 Sony Corp ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム
US10022873B2 (en) * 2013-03-15 2018-07-17 Ori Inc. Apparatuses, systems, and methods for transformable living spaces
US9586320B2 (en) * 2013-10-04 2017-03-07 GM Global Technology Operations LLC System and method for controlling a vision guided robot assembly
US9886036B2 (en) * 2014-02-10 2018-02-06 John Bean Technologies Corporation Routing of automated guided vehicles
US9846806B2 (en) * 2014-06-26 2017-12-19 Amazon Technologies, Inc. Performing automated tasks based on visual cues
WO2016018908A1 (en) * 2014-07-29 2016-02-04 Robotic Arts, Inc. Robotically controlled architectural elements
US9840007B1 (en) * 2014-08-25 2017-12-12 X Development Llc Robotic operation libraries
GB2529848B (en) * 2014-09-03 2018-12-19 Dyson Technology Ltd A mobile robot
CN107429996B (zh) * 2015-03-17 2020-08-25 株式会社村田制作所 传感器定位装置
DK3111768T3 (da) * 2015-07-01 2019-06-24 Buehler Gmbh Anlæg til fremstilling af næringsmidler
US9815198B2 (en) * 2015-07-23 2017-11-14 X Development Llc System and method for determining a work offset
US9789610B1 (en) * 2015-09-02 2017-10-17 X Development Llc Safe path planning for collaborative robots
CN105522583B (zh) * 2016-01-25 2017-10-31 南京大学 一种基于rfid技术的自动式图书智能盘点上架机器人
US10500726B2 (en) * 2016-04-25 2019-12-10 Kindred Systems Inc. Facilitating device control
US10471598B1 (en) 2016-06-10 2019-11-12 Eric Fragola Robotic platform
US10427305B2 (en) * 2016-07-21 2019-10-01 Autodesk, Inc. Robotic camera control via motion capture
US20180036889A1 (en) * 2016-08-08 2018-02-08 Dishcraft Robotics, Inc. Dish Manipulation Systems And Methods
JP6586968B2 (ja) * 2017-02-01 2019-10-09 トヨタ自動車株式会社 移動ロボット、移動ロボットの制御方法および制御プログラム
US10467768B2 (en) * 2017-04-07 2019-11-05 Intel Corporation Optical flow estimation using 4-dimensional cost volume processing
JP6828572B2 (ja) * 2017-04-18 2021-02-10 富士通株式会社 ロボット移動時間推定プログラム及びロボット移動時間推定方法
JP7000704B2 (ja) * 2017-05-16 2022-01-19 富士フイルムビジネスイノベーション株式会社 移動式サービス提供装置及びプログラム
US10295364B2 (en) * 2017-05-26 2019-05-21 Alpine Electronics, Inc. Obstacle data providing system, data processing apparatus and method of providing obstacle data
JP6895609B2 (ja) * 2017-07-14 2021-06-30 パナソニックIpマネジメント株式会社 食器処理機
JP6931457B2 (ja) * 2017-07-14 2021-09-08 オムロン株式会社 モーション生成方法、モーション生成装置、システム及びコンピュータプログラム
JP2019059004A (ja) * 2017-09-28 2019-04-18 セイコーエプソン株式会社 ロボットシステム
US11173605B2 (en) * 2018-02-26 2021-11-16 dogugonggan Co., Ltd. Method of controlling mobile robot, apparatus for supporting the method, and delivery system using mobile robot
JP6879238B2 (ja) * 2018-03-13 2021-06-02 オムロン株式会社 ワークピッキング装置及びワークピッキング方法
JP2019155542A (ja) * 2018-03-14 2019-09-19 株式会社東芝 搬送装置、搬送システム、コントローラ、および搬送方法
JP7057214B2 (ja) * 2018-05-18 2022-04-19 トヨタ自動車株式会社 把持装置、タグが付された容器、対象物把持プログラムおよび対象物把持方法
US10471591B1 (en) 2018-06-01 2019-11-12 X Development Llc Object hand-over between robot and actor
EP3870118A4 (en) * 2018-10-22 2022-07-27 Abilitech Medical, Inc. HAND ASSISTANT ORTHOSIS
KR102181815B1 (ko) * 2018-11-23 2020-11-24 한국전자기술연구원 개인 맞춤형 정리로봇 및 그것을 이용한 물건정리방법
CA3123453A1 (en) * 2018-12-20 2020-06-25 Avery Dennison Retail Information Services, Llc Smart prep table and method of food traceability
KR20200134141A (ko) 2019-05-21 2020-12-01 삼성전자주식회사 이동 중 액체가 쏟아지지 않도록 하는 전자 장치
WO2021010502A1 (ko) * 2019-07-12 2021-01-21 엘지전자 주식회사 로봇 및 그를 이용한 물품 관리 방법
CN110340912A (zh) * 2019-07-25 2019-10-18 南通大学 一种智能物流搬运机器人控制系统
KR20190104488A (ko) 2019-08-21 2019-09-10 엘지전자 주식회사 인공 지능을 이용하여, 오브젝트의 이동을 관리하는 인공 지능 로봇 및 그의 동작 방법
US11958183B2 (en) 2019-09-19 2024-04-16 The Research Foundation For The State University Of New York Negotiation-based human-robot collaboration via augmented reality
JP7226268B2 (ja) * 2019-11-25 2023-02-21 トヨタ自動車株式会社 搬送システム、搬送方法およびプログラム
US11945123B2 (en) 2020-04-28 2024-04-02 Altec Industries, Inc. Head mounted display for remote operation of machinery
JP7347349B2 (ja) * 2020-07-07 2023-09-20 トヨタ自動車株式会社 情報処理装置、情報処理システム、及び情報処理方法
CN112045686A (zh) * 2020-09-07 2020-12-08 上海明略人工智能(集团)有限公司 餐品配送方法和装置
US11684232B2 (en) 2021-01-07 2023-06-27 Dishcare Inc. Real-time single dish cleaner
US11731282B2 (en) 2021-03-03 2023-08-22 Dishcare Inc. Dish handling robot
US11938640B2 (en) * 2021-03-15 2024-03-26 Dishcare Inc. Dish perception, planning and control for robots
US11969897B2 (en) * 2021-07-14 2024-04-30 Bear Robotics, Inc. Method, system, and non-transitory computer-readable recording medium for controlling a serving robot
US11937757B2 (en) 2022-03-04 2024-03-26 Dishcare Inc. Autonomous dishwasher
US11794359B1 (en) * 2022-07-28 2023-10-24 Altec Industries, Inc. Manual operation of a remote robot assembly
US11997429B2 (en) 2022-07-28 2024-05-28 Altec Industries, nc. Reducing latency in head-mounted display for the remote operation of machinery

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04167105A (ja) * 1990-10-31 1992-06-15 Sanyo Electric Co Ltd ロボットの作業計画装置
JP2003524531A (ja) * 2000-02-21 2003-08-19 ヴィッテンシュタイン アーゲー 少なくとも1個の物体および/または空間を認識、規定、位置検出するための方法
JP2004249389A (ja) * 2003-02-19 2004-09-09 Matsushita Electric Ind Co Ltd 物品管理システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS642882A (en) 1987-06-25 1989-01-06 Omron Tateisi Electron Co Robot control method
US5325468A (en) * 1990-10-31 1994-06-28 Sanyo Electric Co., Ltd. Operation planning system for robot
US5202832A (en) * 1991-01-29 1993-04-13 R. R. Donnelley & Sons Co. Material handling automation system using portable transfer module
US6898484B2 (en) * 2002-05-01 2005-05-24 Dorothy Lemelson Robotic manufacturing and assembly with relative radio positioning using radio based location determination
JP2003346150A (ja) 2002-05-24 2003-12-05 Sony Corp 床面認識装置及び床面認識方法並びにロボット装置
JPWO2004106009A1 (ja) * 2003-06-02 2006-07-20 松下電器産業株式会社 物品取扱いシステムおよび物品取扱いサーバ

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04167105A (ja) * 1990-10-31 1992-06-15 Sanyo Electric Co Ltd ロボットの作業計画装置
JP2003524531A (ja) * 2000-02-21 2003-08-19 ヴィッテンシュタイン アーゲー 少なくとも1個の物体および/または空間を認識、規定、位置検出するための方法
JP2004249389A (ja) * 2003-02-19 2004-09-09 Matsushita Electric Ind Co Ltd 物品管理システム

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007260838A (ja) * 2006-03-28 2007-10-11 Brother Ind Ltd 搬送ロボット及び搬送プログラム
KR20180065005A (ko) * 2016-12-06 2018-06-15 버슘머트리얼즈한양기공 주식회사 실린더 이동용 카트
KR102045388B1 (ko) * 2016-12-06 2019-11-15 버슘머트리얼즈한양기공 주식회사 실린더 이동용 카트
US11298825B2 (en) 2017-02-25 2022-04-12 Diligent Robotics, Inc. Systems, apparatus, and methods for robotic learning and execution of skills
JP2020508888A (ja) * 2017-02-25 2020-03-26 ディリジェント ロボティクス,インコーポレイテッド ロボットが技能を学習し実行するシステム、装置及び方法
US11833684B2 (en) 2017-02-25 2023-12-05 Diligent Robotics, Inc. Systems, apparatus, and methods for robotic learning and execution of skills
JP2019017611A (ja) * 2017-07-14 2019-02-07 パナソニックIpマネジメント株式会社 食器処理機
CN109531585A (zh) * 2017-09-22 2019-03-29 松下知识产权经营株式会社 机器人
JP2020062691A (ja) * 2018-10-15 2020-04-23 株式会社Preferred Networks 検査装置、検査方法、ロボット装置、ロボット装置における検査方法及びプログラム
WO2020080023A1 (ja) * 2018-10-15 2020-04-23 株式会社Preferred Networks 検査装置、検査方法、ロボット装置、ロボット装置における検査方法及びプログラム
WO2020115985A1 (ja) * 2018-12-05 2020-06-11 国立大学法人 東京大学 ロボットシステム
JP2020089944A (ja) * 2018-12-05 2020-06-11 国立大学法人 東京大学 ロボットシステム
JP2021086196A (ja) * 2019-11-25 2021-06-03 トヨタ自動車株式会社 搬送システム、搬送方法およびプログラム
JP7188363B2 (ja) 2019-11-25 2022-12-13 トヨタ自動車株式会社 搬送システム、搬送方法およびプログラム
JP7192748B2 (ja) 2019-11-25 2022-12-20 トヨタ自動車株式会社 搬送システム、学習済みモデル生成方法、学習済みモデル、制御方法およびプログラム
US11584017B2 (en) 2019-11-25 2023-02-21 Toyota Jidosha Kabushiki Kaisha Conveyance system, trained model generation method, trained model, control method, and program
JP2021086197A (ja) * 2019-11-25 2021-06-03 トヨタ自動車株式会社 搬送システム、学習済みモデル生成方法、学習済みモデル、制御方法およびプログラム
US11904470B2 (en) 2021-02-08 2024-02-20 Diligent Robotics, Inc. Systems, apparatuses, and methods for robotic learning and execution of skills including navigation and manipulation functions
JP6906724B1 (ja) * 2021-03-25 2021-07-21 Dmg森精機株式会社 工作機械
WO2022201850A1 (ja) * 2021-03-25 2022-09-29 Dmg森精機株式会社 工作機械
JP2022149418A (ja) * 2021-03-25 2022-10-06 Dmg森精機株式会社 工作機械
JP6957781B1 (ja) * 2021-06-14 2021-11-02 Dmg森精機株式会社 自走装置
JP2022190478A (ja) * 2021-06-14 2022-12-26 Dmg森精機株式会社 自走装置

Also Published As

Publication number Publication date
JP3920317B2 (ja) 2007-05-30
US7269479B2 (en) 2007-09-11
US20070124024A1 (en) 2007-05-31
JPWO2006013829A1 (ja) 2008-05-01

Similar Documents

Publication Publication Date Title
JP3920317B2 (ja) 物品運搬用ロボット
JP4041837B2 (ja) 物品保持システム、ロボット及びロボット制御方法
JP4646943B2 (ja) ロボット
JP6738112B2 (ja) ロボットシステムの制御装置及び制御方法
US10967507B2 (en) Positioning a robot sensor for object classification
CN111730603B (zh) 机器人系统的控制装置以及控制方法
US7191035B2 (en) Article handling system and method and article management system and method
KR20190106910A (ko) 이동 로봇과 그의 제어 방법
JP4473849B2 (ja) 物品取扱いシステムおよび物品取扱いサーバ
US20220168893A1 (en) Clutter-clearing robotic system
US11642780B2 (en) Monitoring of surface touch points for precision cleaning
JP3738256B2 (ja) 生活空間用の物品移動システム、及びロボット操作装置
Fukuzawa et al. A robotic system capable of recognition, grasping, and suction for dishwashing automation
JP3713021B2 (ja) 生活空間用の物品取扱いシステム及びロボット操作装置
Shah et al. Solving service robot tasks: UT Austin Villa@ Home 2019 team report
AU2022360549A1 (en) Large object robotic front loading algorithm
JP2004323135A (ja) 物品管理システム
CN116709962A (zh) 杂物清理机器人系统
Horswill The find-the-remote event

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2006531465

Country of ref document: JP

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 11699342

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 11699342

Country of ref document: US

122 Ep: pct application non-entry in european phase