WO2020166377A1 - 移動体、制御方法 - Google Patents

移動体、制御方法 Download PDF

Info

Publication number
WO2020166377A1
WO2020166377A1 PCT/JP2020/003608 JP2020003608W WO2020166377A1 WO 2020166377 A1 WO2020166377 A1 WO 2020166377A1 JP 2020003608 W JP2020003608 W JP 2020003608W WO 2020166377 A1 WO2020166377 A1 WO 2020166377A1
Authority
WO
WIPO (PCT)
Prior art keywords
state
person
moving body
control unit
movement
Prior art date
Application number
PCT/JP2020/003608
Other languages
English (en)
French (fr)
Inventor
康平 小島
中井 幹夫
邦在 鳥居
太一 幸
山本 和典
隆盛 山口
超 王
雅貴 豊浦
嘉人 大木
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US17/310,502 priority Critical patent/US20220095786A1/en
Publication of WO2020166377A1 publication Critical patent/WO2020166377A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B15/00Systems controlled by a computer
    • G05B15/02Systems controlled by a computer electric
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47BTABLES; DESKS; OFFICE FURNITURE; CABINETS; DRAWERS; GENERAL DETAILS OF FURNITURE
    • A47B21/00Tables or desks for office equipment, e.g. typewriters, keyboards
    • A47B21/02Tables or desks for office equipment, e.g. typewriters, keyboards with vertical adjustable parts
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40411Robot assists human in non-industrial environment like home or office

Definitions

  • the present technology relates to a moving body and a control method, and particularly to a moving body and a control method capable of improving the affinity of the moving body for people and space.
  • Mobile units include automobiles, robots, and airplanes.
  • Conventional moving bodies are limited to those that focus on supporting movement and activities of people, such as moving bodies as means for moving people and moving bodies that support human activities such as cleaning.
  • a mobile body includes a top plate that serves as a desk when a person works, an extendable support arm that supports the top plate, and a support arm that holds the support arm so that the work can be performed.
  • a control unit that controls a posture state including a state and a movement state by the movement unit is provided.
  • the state of the support arm is included according to the relationship between the environmental state, which is the state of the surrounding environment, and the state of the person, which is the state of the person located in the periphery, sensed by a sensor.
  • the state of the posture and the state of movement by the moving unit are controlled.
  • the present technology is capable of adaptively changing the movement (speed, direction, etc.) of the moving body and the position (height, etc.) of the top plate provided on the moving body. ..
  • FIG. 1 is a diagram showing a usage state of a customer service system according to an embodiment of the present technology.
  • the customer service system shown in FIG. 1 is used, for example, indoors. There are people in the space where the customer service system is installed.
  • a plurality of cube-shaped customer service robots are prepared in the room.
  • three service robots, service robots 1-1 to 1-3, are shown.
  • customer service robot 1 When it is not necessary to distinguish each customer service robot, they are collectively referred to as a customer service robot 1.
  • the customer service robot 1 is a moving body that moves on the floor. On the bottom surface of the customer service robot 1, a structure such as a tire used for moving the customer service robot 1 is provided.
  • the customer service robot 1 has a function of searching for a person in the room based on an image captured by a camera and the like, and approaching the person detected by the search to serve the customer. For example, a customer service robot 1 performs customer service to answer a questionnaire.
  • a customer service system using the customer service robot 1 is used, for example, in an exhibition hall, a concert hall, a movie theater, an amusement facility, or the like.
  • FIG. 2 is a diagram showing an example of the posture of the customer service robot 1.
  • the state of the customer service robot 1 shown in FIG. 2A is the state during movement. While moving to the destination, the service robot 1 moves in a substantially cubic state. Even when waiting at a predetermined place without performing customer service, the service robot 1 is in a substantially cubical state as shown in A of FIG.
  • the state of the customer service robot 1 shown in FIG. 2B is a state at the time of interaction, that is, when serving a target user.
  • the customer service robot 1 controls its own posture in a state where the tabletop is raised in order to facilitate work on the tabletop.
  • the customer service robot 1 is provided with an arm portion for raising and lowering the top plate.
  • FIG. 3 is an enlarged view of the customer service robot 1 at the time of interaction.
  • the top plate 12 has a built-in data processing terminal 13 such as a tablet terminal having a display equipped with a touch panel.
  • a built-in data processing terminal 13 such as a tablet terminal having a display equipped with a touch panel.
  • characters and images to be used as a questionnaire are displayed on the display provided in the range indicated by the broken line.
  • the user inputs data such as answers to the questionnaire by operating the buttons displayed on the display of the data processing terminal 13 with a finger.
  • the top plate 12 is used as a desk when the user performs work such as answering a questionnaire.
  • the customer service robot 1 closes the top surface of the housing 11 with the top plate 12 by lowering the top plate 12, and becomes a state like a simple box shown in A of FIG. 2 and returns to the home position. ..
  • the customer service system shown in Fig. 1 becomes a system in which the customer service robot 1 that melts into the space like a simple box approaches the user and changes the posture as if asking the user to take a questionnaire.
  • FIG. 4 is an exploded view of the housing 11.
  • panels 22-1 to 22-4 are attached to the side surface of the box-shaped main body 21.
  • the panels 22-1 to 22-4 are, for example, resin panels serving as half mirrors.
  • a depth camera 23 is provided above the front of the main body 21.
  • the image capturing by the depth camera 23 is performed through the panel 22-1 attached to the front surface.
  • a LiDAR 24 is provided below the front of the main body 21.
  • a cylindrical support arm 25 is provided on the upper surface of the main body 21. By elongating/contracting the support arm 25 or moving the support arm 25 in the vertical direction, the elevation of the top plate 12 fixed to the upper end of the support arm 25 is controlled. Inside the main body portion 21, a drive portion such as a motor or a gear for expanding and contracting the support arm 25 or moving the support arm 25 in the vertical direction is provided.
  • a computer for performing various processes Inside the main body 21, a computer for performing various processes, a moving mechanism such as tires, and a power source are also provided.
  • Each of the customer service robots 1 shown in FIG. 1 has the above configuration.
  • FIG. 5 is a block diagram showing a configuration example of a customer service system.
  • the customer service system includes a customer service robot 1 and a control device 71.
  • the service robot 1 and the control device 71 are connected via wireless communication.
  • the customer service robot 1 includes a control unit 51, a moving unit 52, a lift control unit 53, a camera 54, a sensor 55, a communication unit 56, and a power supply unit 57.
  • the data processing terminal 13 is built in the top plate 12 of the customer service robot 1 as described above.
  • the control unit 51 is composed of a computer.
  • the control unit 51 executes a predetermined program by the CPU and controls the entire operation of the customer service robot 1.
  • the moving unit 52 rotates a tire by driving a motor or a gear to realize the movement of the customer service robot 1. Under the control of the control unit 51, the moving unit 52 functions as a moving unit that realizes the movement of the customer service robot 1 while controlling the moving speed and the moving direction.
  • the lift control unit 53 controls the expansion and contraction of the support arm 25 by driving a motor and gears.
  • the camera 54 is composed of the depth camera 23 of FIG. 4 for taking a distance image, an RGB camera for taking an RGB image, an IR camera for taking an IR image, and the like.
  • the image captured by the camera 54 is output to the control unit 51.
  • the sensor 55 is composed of various sensors such as an acceleration sensor, a gyro sensor, a motion sensor, an encoder provided on the moving unit 52 for detecting the amount of rotation of a tire, and a LiDAR 24. Information indicating the sensing result of the sensor 55 is output to the control unit 51.
  • At least one of the camera 54 and the sensor 55 may be provided outside the customer service robot 1.
  • the image captured by the camera 54 provided outside the service robot 1 and the information indicating the sensing result of the sensor 55 are transmitted to the service robot 1 via wireless communication.
  • the communication unit 56 performs wireless communication with the control device 71.
  • the communication unit 56 transmits information regarding an application for approval as described later to the control device 71, receives the information transmitted from the control device 71, and outputs the information to the control unit 51.
  • the power supply unit 57 has a battery.
  • the power supply unit 57 supplies power to each unit of the customer service robot 1.
  • the control device 71 is composed of a data processing device such as a PC.
  • the control device 71 functions as a host system that controls the behavior of each customer service robot 1.
  • FIG. 6 is a block diagram showing a functional configuration example of the control unit 51.
  • At least a part of the functional units shown in FIG. 6 is realized by executing a predetermined program by the CPU of the computer forming the control unit 51.
  • a person movement recognition unit 101 a person state recognition unit 102, a surrounding state recognition unit 103, a position recognition unit 104, a movement control unit 105, and a customer service control unit 106 are realized.
  • the person movement recognition unit 101 recognizes the movement state of the user based on the image captured by the camera 54 and the sensing result of the sensor 55.
  • the moving state of the user for example, the distance from the current position of the service robot 1 to the position of the user is recognized.
  • Information indicating the recognition result by the person movement recognition unit 101 is supplied to the movement control unit 105 and the customer service control unit 106.
  • the person state recognition unit 102 recognizes the state of the user based on the image captured by the camera 54 and the sensing result of the sensor 55.
  • Information indicating the recognition result by the person state recognition unit 102 is supplied to the movement control unit 105 and the customer service control unit 106.
  • the ambient state recognition unit 103 recognizes the state of the surrounding environment based on the image captured by the camera 54 and the sensing result of the sensor 55.
  • the state of other customer service robots 1 in the vicinity is recognized as the state of the surrounding environment.
  • the state of the other customer service robot 1 recognized by the surrounding state recognition unit 103 includes the distance to the other customer service robot 1 and the height of the top plate 12 of the other customer service robot 1.
  • the status of the surrounding users is recognized as the status of the surrounding environment.
  • the user's state recognized by the surrounding state recognition unit 103 includes the state of the luggage when the user carries the luggage.
  • Information indicating the recognition result by the ambient state recognition unit 103 is supplied to the movement control unit 105 and the customer service control unit 106.
  • the position recognition unit 104 recognizes its own position in the space where the customer service system is installed, and outputs information indicating the recognition result to the movement control unit 105. As will be described later, recognition of the self-position by the position recognition unit 104 is performed by different methods depending on the area in which the service robot 1 is located.
  • the movement control unit 105 drives the movement unit 52 based on the recognition results of the person movement recognition unit 101, the person state recognition unit 102, and the surrounding state recognition unit 103, and the self position recognized by the position recognition unit 104. Then, the movement of the customer service robot 1 is controlled.
  • the movement control unit 105 when the movement control unit 105 identifies that there is a user who is the target of customer service based on the recognition result by the person movement recognition unit 101, the movement control unit 105 moves the customer service robot 1 to a position near the user.
  • the customer service control unit 106 drives the elevation control unit 53 based on the recognition results of the person movement recognition unit 101, the person state recognition unit 102, and the surrounding state recognition unit 103, and controls the elevation of the top 12. Further, the customer service control unit 106, after raising the top 12, controls the data processing terminal 13 to display the screen used for the questionnaire and so on.
  • the customer service control unit 106 recognizes the position of the user who is the target for customer service, based on the recognition result by the person movement recognition unit 101.
  • the customer service control unit 106 extends the support arm 25 and raises the height of the top plate 12 in response to the movement to the vicinity of the user serving as the target for customer service.
  • the customer service control unit 106 adjusts the height of the tabletop 12 based on the recognition result by the person state recognition unit 102 and the like so that the height is optimum for the user to perform work.
  • the customer service control unit 106 identifies whether the target for customer service is a child or an adult based on the recognition result by the person state recognition unit 102. When the target user is a child, the customer service control unit 106 adjusts the height of the top plate 12 so as to be lower than when the target user is an adult.
  • the customer service control unit 106 identifies the height of the top plate 12 of another nearby customer service robot 1 based on the recognition result by the surrounding state recognition unit 103.
  • the customer service control unit 106 adjusts the height of its own top board 12 so as to approach the height of the top board 12 of the other customer service robot 1.
  • the customer service control unit 106 specifies the height of the luggage carried by the target user based on the recognition result by the surrounding state recognition unit 103.
  • the customer service control unit 106 adjusts the height of its own top plate 12 so as to approach the height of the luggage carried by the target user. The user can put his/her luggage on the top plate 12 whose height is adjusted by natural movement.
  • the movement control unit 105 and the customer service control unit 106 function as a control unit that controls the movement of the customer service robot 1 and the elevation of the tabletop 12.
  • the customer service robot 1 is a robot that serves a customer user in an open space where a plurality of users (persons) are present.
  • the customer service robot 1 has the following functions.
  • the service robot 1 uses dead reckoning in a crowded environment as a self-position estimation method, and uses star reckoning to correct the self-position before the error exceeds the allowable range. To do.
  • the space where the customer service robot 1 is placed is divided into two areas: a backyard area, which is an area that serves as a backyard, and a service area, which is an area that actually serves customers.
  • the service robot 1 moves back and forth between two areas.
  • the customer service robot 1 can perform star reckoning and correct its own position in a place that is not visible to the user without giving the user a feeling of strangeness.
  • FIG. 7 is a diagram schematically showing a space in which the customer service robot 1 is arranged.
  • a service area A1 and a backyard area A2 are set in the space where the customer service robot 1 is arranged.
  • the service area A1 and the backyard area A2 are divided by the wall surface W.
  • an opening is formed in a part of the wall surface W, and the opening is used as an entrance/exit G of the backyard area A2.
  • Service area A1 is the area where self-location is estimated by dead reckoning.
  • the backyard area A2 is an area where the self position is estimated by star reckoning.
  • Dead reckoning is a method of estimating the self-position using the output of sensors inside the robot, such as an axle encoder and IMU (Inertial Measurement Unit). It is suitable for use in the service area A1 because the self-position can be estimated even in a congested environment, but an error accumulates depending on the traveling distance and the elapsed time.
  • sensors inside the robot such as an axle encoder and IMU (Inertial Measurement Unit).
  • star reckoning is a method that estimates the self-position based on the external situation, such as marker recognition using the camera 54 and recognition using LiDAR SLAM.
  • a marker is provided at the home position P1.
  • the self-position is corrected, that is, the error accumulated by the use in the service area A1 is initialized.
  • a charging position is set at the position P2 of the backyard area A2. For example, when the remaining amount of the battery of the service robot 1 is below a preset threshold value, the state of the service robot 1 is in the standby state and the battery is charged at the position P2.
  • the process of FIG. 8 is started, for example, when charging of the battery of the customer service robot 1 is completed.
  • step S1 the movement control unit 105 of the customer service robot 1 moves from the charging position (position P2) to the home position (position P1).
  • step S2 the movement control unit 105 moves to the user search position set in its own area of the service area A1.
  • the position P11 which is the user search position is set.
  • the person movement recognition unit 101 After moving to the user search position, the person movement recognition unit 101 performs user search in step S3.
  • the movement control unit 105 approaches the user in step S4.
  • the position P12 which is the position in front of the target user, is set as the target position.
  • the customer service control unit 106 handles the customer in step S5.
  • the customer service control unit 106 raises the tabletop 12 by controlling the elevation control unit 53, and causes the data processing terminal 13 to perform a questionnaire.
  • the customer service control unit 106 changes its posture from the posture at the time of interaction to the posture at the time of traveling.
  • step S6 the movement control unit 105 moves to the home position intrusion position.
  • a position P13 that is a home position intrusion position is set in the vicinity of the doorway G.
  • control device 71 which is the host system
  • an application for approval to enter the backyard area A2 is made to the host system.
  • the application for approval to the upper system will be described later.
  • the movement control unit 105 moves to the home position in the backyard area A2 in step S7.
  • step S8 the position recognition unit 104 initializes its own position and performs a health check.
  • the health check includes, for example, checking the remaining battery level.
  • step S1 the movement control unit 105 moves to the charging position and performs charging in step S9. After the charging is completed, the processing after step S1 is repeated.
  • step S4 the process returns to step S2, the user search is performed again after moving to the user search position.
  • step S5 if the accuracy of the self position is sufficiently secured, the process similarly returns to step S2, the user search position is moved, and then the user search is performed again.
  • the distance traveled since the last initialization of the self-position did not exceed the threshold value, or if the elapsed time since the last initialization of the self-position exceeded the threshold time. If not, it is judged that the accuracy of the self-position is sufficiently secured.
  • step S8 if the result of the health check in step S8 is that the remaining battery amount is equal to or more than the threshold value, the process similarly returns to step S2, the user search position is moved, and then the user search is performed again.
  • Coordination service area A1 of a plurality of robots is divided into a plurality of areas, and an area in charge of customer service (area in charge) is assigned to each customer service robot 1.
  • FIG. 9 is a diagram showing an example of the area in charge.
  • the service area of the service robot 1-1, the service area of the service robot 1-2, and the service area of the service robot 1-3 are set.
  • Each of the customer service robots 1 moves from the home position in the backyard area A2 to the user search position set in each area in charge, and then performs the user search and the like as described above.
  • each of the customer service robots 1 moves to the home position intrusion position, then requests the host system to invade the backyard area A2, and after the permission is obtained, the backyard area A2 is obtained. Break into. For example, at a certain timing, only one customer service robot 1 is allowed to pass through the entrance/exit G.
  • the customer service robot 1 recognizes the user based on the image captured by the depth camera 23 (RGB-D sensor), and then approaches the customer to serve the customer. Since the range in which the user can be recognized is limited, the customer service robot 1 needs to search for the user while moving in the area in charge. A plurality of user search positions are set in the area in charge.
  • the area in charge is divided into trusses.
  • the service robot 1 searches for the user while moving the apex of each truss.
  • FIG. 10 is a diagram showing an example of division of the area in charge.
  • each truss indicated by circles correspond to user search positions.
  • the user search is performed in a state of facing the adjacent node (a state of facing the front of the housing 11 provided with the depth camera 23).
  • FIG. 11 is a diagram showing an example of user search.
  • the service robot 1 moves to the position P22 with the user #1 as a target, as indicated by an arrow A11.
  • the position P22 corresponds to the target position.
  • the customer service robot 1 handles the customer.
  • the customer service robot 1 moves from the current position P22 to the nearest adjacent node P23 as shown by an arrow A12, and Perform the search again.
  • the service robot 1 detects the user #2 as shown by an arrow A13. Move to the position P24 which is the adjacent node in the direction. After moving to the position P24, the customer service robot 1 searches for a user, and if the position of the user #2 is also recognized, the service robot 1 moves to the vicinity of the user #2 and handles the customer.
  • the moving state of the customer service robot 1 is such that the housing 11 and the top plate 12 overlap each other and the top surface of the housing 11 is covered by the top plate 12. It may be housed inside.
  • the series of processes described above can be executed by hardware or software.
  • the program forming the software is installed from a program recording medium to a computer incorporated in dedicated hardware or a general-purpose personal computer.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or may be processed in parallel or at a necessary timing such as when a call is made.
  • the program may be performed.
  • the system means a set of a plurality of constituent elements (devices, modules (parts), etc.), and it does not matter whether or not all constituent elements are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and one device housing a plurality of modules in one housing are all systems. ..
  • the present technology can have a configuration of cloud computing in which one function is shared by a plurality of devices via a network and jointly processes.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本技術は、人と空間に対する移動体の親和性を向上させることができるようにする移動体、制御方法に関する。 本技術の一側面の移動体は、人物が作業を行う際の机となる天板と、天板を支持する伸縮可能な支持アームと、支持アームを保持し、作業が行われるようにするための移動を行う移動部とを備える。また、移動体は、センサによりセンシングされた、周囲の環境の状態である環境状態と周囲に位置する人物の状態である人物状態との関係に応じて、支持アームの状態を含む姿勢の状態と、移動部による移動の状態とを制御する。本技術は、移動可能なロボットに適用することができる。

Description

移動体、制御方法
 本技術は、移動体、制御方法に関し、特に、人と空間に対する移動体の親和性を向上させることができるようにした移動体、制御方法に関する。
 従来、周囲の人物と環境をセンシングすることによって周囲の状況を表す環境マップなどを作成し、自律的に移動する移動体がある。移動体には、自動車、ロボット、飛行機などがある。
特開2013-31897号公報 特開2013-22705号公報 特開2012-236244号公報
 従来の移動体は、人が移動する手段としての移動体、掃除などの人の活動を支援する移動体など、人の移動や活動を支援することに着目した移動体にとどまっている。
 特に人との相互作用性を有する移動体については、ユーザにとって使いやすく、ユーザがいる空間に溶け込んだ形で存在するような移動体が求められている。
 本技術はこのような状況に鑑みてなされたものであり、人と空間に対する移動体の親和性を向上させることができるようにするものである。
 本技術の一側面の移動体は、人物が作業を行う際の机となる天板と、前記天板を支持する伸縮可能な支持アームと、前記支持アームを保持し、前記作業が行われるようにするための移動を行う移動部と、センサによりセンシングされた、周囲の環境の状態である環境状態と周囲に位置する前記人物の状態である人物状態との関係に応じて、前記支持アームの状態を含む姿勢の状態と、前記移動部による移動の状態とを制御する制御部とを備える。
 本技術の一側面においては、センサによりセンシングされた、周囲の環境の状態である環境状態と周囲に位置する前記人物の状態である人物状態との関係に応じて、前記支持アームの状態を含む姿勢の状態と、前記移動部による移動の状態とが制御される。
本技術の一実施形態に係る接客システムの使用状態を示す図である。 接客ロボットの姿勢の例を示す図である。 インタラクション時の接客ロボットを拡大して示す図である。 筐体を分解して示す図である。 接客システムの構成例を示すブロック図である。 制御部の機能構成例を示すブロック図である。 接客ロボットが配置される空間を模式的に示す図である。 接客ロボットの処理について説明するフローチャートである。 担当エリアの例を示す図である。 担当エリアの分割の例を示す図である。 ユーザ探索の例を示す図である。
<本技術の概要>
 本技術は、ユーザとの相互作用性を発揮することによって、ユーザが作業を直感的に行うことができるようにするだけでなく、人に寄り添いながら、移動体自体が空間に溶け込むような、人と空間に対する親和性を向上させることができるようにしたものである。
 また、本技術は、移動体の運動(速さ・方向など)と、移動体に設けられた天板の位置(高さなど)とを適応的に変更することができるようにしたものである。
<接客システムの用途>
 図1は、本技術の一実施形態に係る接客システムの使用状態を示す図である。
 図1の接客システムは、例えば室内において用いられる。接客システムが設置された空間内には人が存在する。
 図1に示すように、室内には、立方体状の接客ロボットが複数用意される。図1の例においては、接客ロボット1-1乃至1-3の3台の接客ロボットが示されている。それぞれの接客ロボットを区別する必要がない場合、適宜、まとめて接客ロボット1という。
 接客ロボット1は、床面上を移動する移動体である。接客ロボット1の底面には、接客ロボット1の移動に用いられるタイヤなどの構成が設けられている。
 接客ロボット1は、カメラにより撮影された画像などに基づいて、室内にいる人の探索を行い、探索によって検出した人に近づいて接客を行う機能を有する。例えば、アンケートに回答してもらうための接客が接客ロボット1により行われる。接客ロボット1を用いた接客システムは、例えば、展示会の会場、コンサート会場、映画館、アミューズメント施設などにおいて用いられる。
 図2は、接客ロボット1の姿勢の例を示す図である。
 図2のAに示す接客ロボット1の状態は、移動時の状態である。目的地まで移動する間、接客ロボット1は、略立方体の状態で移動する。接客を行わずに所定の場所で待機している場合も、接客ロボット1の状態は、図2のAに示すような略立方体の状態となる。
 図2のBに示す接客ロボット1の状態は、インタラクション時、すなわち、ターゲットとなるユーザに対して接客を行っているときの状態である。接客を行う場合、接客ロボット1は、天板上で作業を行いやすくするために、天板を上げた状態に自身の姿勢を制御する。接客ロボット1には、天板を昇降させるためのアーム部が設けられている。
 図3は、インタラクション時の接客ロボット1を拡大して示す図である。
 破線で示すように、天板12には、タッチパネルを搭載したディスプレイを有するタブレット端末などのデータ処理端末13が内蔵されている。インタラクション時、破線で示す範囲に設けられたディスプレイには、アンケートとなる文字や画像が表示される。ユーザは、データ処理端末13のディスプレイに表示されたボタンを指で操作するなどして、アンケートに対する回答などのデータを入力する。
 このように、天板12は、ユーザがアンケートに回答するなどの作業を行う際の机として用いられる。
 アンケートが終了した場合、接客ロボット1は、天板12を下げることによって筐体11の上面を天板12で塞ぎ、図2のAに示す単なる箱のような状態になって、ホームポジションに戻る。
 このように、図1の接客システムは、単なる箱のように空間に溶け込んでいる接客ロボット1がユーザに近づき、ユーザにお願いするかのように姿勢を変形させてアンケートをとるシステムとなる。
 自分の近くに移動してきた接客ロボット1の天板12が上がるのを見たユーザは、アンケートに回答すればいいことを直感的に確認することができる。また、ユーザは、接客ロボット1との間でコミュニケーションをとるような形で、アンケートに答えることができる。
 図4は、筐体11を分解して示す図である。
 図4に示すように、箱状の本体部21の側面には、パネル22-1乃至22-4が貼り付けられる。パネル22-1乃至22-4は例えばハーフミラーとなる樹脂製のパネルである。
 本体部21の正面上方には、デプスカメラ23が設けられる。デプスカメラ23による撮影は、正面に貼り付けられたパネル22-1越しに行われる。本体部21の正面下方にはLiDAR24が設けられる。
 本体部21の上面には、円柱状の支持アーム25が設けられる。支持アーム25を伸縮させたり上下方向に移動させたりすることによって、支持アーム25の上端に固定された天板12の昇降が制御される。本体部21の内部には、支持アーム25を伸縮させたり上下方向に移動させたりするためのモーターやギアなどの駆動部が設けられる。
 本体部21の内部には、各種の処理を行うコンピュータ、タイヤなどの移動機構、電源などの構成も設けられる。
 図1に示すそれぞれの接客ロボット1が、以上のような構成を有している。
<接客システムの構成例>
 図5は、接客システムの構成例を示すブロック図である。
 図5に示すように、接客システムは、接客ロボット1と制御装置71により構成される。接客ロボット1と制御装置71の間は、無線の通信を介して接続される。
 接客ロボット1は、制御部51、移動部52、昇降制御部53、カメラ54、センサ55、通信部56、および電源部57により構成される。接客ロボット1の天板12には、上述したようにデータ処理端末13が内蔵される。
 制御部51は、コンピュータにより構成される。制御部51は、CPUにより所定のプログラムを実行し、接客ロボット1の全体の動作を制御する。
 移動部52は、モーターやギアを駆動させることによってタイヤを回転させ、接客ロボット1の移動を実現する。移動部52は、制御部51による制御に従って、移動のスピードと移動の方向とを制御しながら接客ロボット1の移動を実現する移動部として機能する。
 昇降制御部53は、モーターやギアを駆動させることによって支持アーム25の伸縮を制御する。
 カメラ54は、距離画像を撮影する図4のデプスカメラ23、RGB画像を撮影するRGBカメラ、IR画像を撮影するIRカメラなどにより構成される。カメラ54により撮影された画像は制御部51に出力される。
 センサ55は、加速度センサ、ジャイロセンサ、人感センサ、移動部52に設けられるタイヤの回転量を検出するエンコーダ、LiDAR24などの各種のセンサにより構成される。センサ55によるセンシング結果を表す情報は制御部51に出力される。
 カメラ54とセンサ55のうちの少なくともいずれかが接客ロボット1の外部に設けられるようにしてもよい。この場合、接客ロボット1の外部に設けられたカメラ54により撮影された画像、センサ55によるセンシング結果を表す情報は、無線通信を介して接客ロボット1に対して送信される。
 通信部56は、制御装置71との間で無線通信を行う。通信部56は、後述するような承認の申請に関する情報を制御装置71に送信するとともに、制御装置71から送信されてきた情報を受信し、制御部51に出力する。
 電源部57は、バッテリを有している。電源部57は、接客ロボット1の各部に対して電源を供給する。
 制御装置71は、PCなどのデータ処理装置により構成される。制御装置71は、それぞれの接客ロボット1の行動を制御する上位システムとして機能する。
 図6は、制御部51の機能構成例を示すブロック図である。
 図6に示す機能部のうちの少なくとも一部は、制御部51を構成するコンピュータのCPUにより所定のプログラムが実行されることによって実現される。
 制御部51においては、人物移動認識部101、人物状態認識部102、周囲状態認識部103、位置認識部104、移動制御部105、および接客制御部106が実現される。
 人物移動認識部101は、カメラ54により撮影された画像と、センサ55によるセンシング結果に基づいてユーザの移動の状態を認識する。
 ユーザの移動の状態として、例えば、接客ロボット1の現在位置からユーザの位置までの距離が認識される。人物移動認識部101による認識結果を表す情報は、移動制御部105と接客制御部106に供給される。
 人物状態認識部102は、カメラ54により撮影された画像と、センサ55によるセンシング結果に基づいてユーザの状態を認識する。
 ユーザの状態として、例えば、ユーザがだれであるのか、ユーザの属性(子どもであるのか、大人であるのかなど)が識別される。人物状態認識部102による認識結果を表す情報は、移動制御部105と接客制御部106に供給される。
 周囲状態認識部103は、カメラ54により撮影された画像と、センサ55によるセンシング結果に基づいて周囲の環境の状態を認識する。
 周囲の環境の状態として、周囲にいる他の接客ロボット1の状態が認識される。周囲状態認識部103が認識する他の接客ロボット1の状態には、他の接客ロボット1との距離、他の接客ロボット1の天板12の高さが含まれる。
 また、周囲の環境の状態として、周囲にいるユーザの状態が認識される。周囲状態認識部103が認識するユーザの状態には、ユーザが荷物を所持している場合には、その荷物の状態が含まれる。
 周囲状態認識部103による認識結果を表す情報は、移動制御部105と接客制御部106に供給される。
 位置認識部104は、接客システムが設置されている空間における自己位置を認識し、認識結果を表す情報を移動制御部105に出力する。後述するように、位置認識部104による自己位置の認識は、接客ロボット1がいるエリアに応じて異なる方式で行われる。
 移動制御部105は、人物移動認識部101、人物状態認識部102、および周囲状態認識部103のそれぞれの認識結果と、位置認識部104により認識された自己位置とに基づいて移動部52を駆動させ、接客ロボット1の移動を制御する。
 例えば、移動制御部105は、接客のターゲットとなるユーザがいることを人物移動認識部101による認識結果に基づいて特定した場合、ユーザの近くの位置まで接客ロボット1を移動させる。
 接客制御部106は、人物移動認識部101、人物状態認識部102、および周囲状態認識部103のそれぞれの認識結果に基づいて昇降制御部53を駆動させ、天板12の昇降を制御する。また、接客制御部106は、天板12を上げた後、データ処理端末13を制御し、アンケートに用いられる画面を表示させるなどして接客を行う。
 例えば、接客制御部106は、人物移動認識部101による認識結果に基づいて、接客を行うターゲットとなるユーザの位置を認識する。接客制御部106は、接客を行うターゲットとなるユーザの近くに移動したことに応じて、支持アーム25を伸張させ、天板12の高さを高くする。
 また、接客制御部106は、人物状態認識部102による認識結果などに基づいて、ユーザが作業を行うのに最適な高さになるように、天板12の高さを調整する。
 接客制御部106は、人物状態認識部102による認識結果に基づいて、接客を行うターゲットが子どもであるのか大人であるのかを識別する。接客制御部106は、ターゲットとなるユーザが子どもである場合、大人である場合より低くなるように、天板12の高さを調整する。
 接客制御部106は、周囲状態認識部103による認識結果に基づいて、近くにいる他の接客ロボット1の天板12の高さを特定する。接客制御部106は、他の接客ロボット1の天板12の高さに近づけるように、自身の天板12の高さを調整する。
 また、接客制御部106は、周囲状態認識部103による認識結果に基づいて、ターゲットとなるユーザが所持している荷物の高さを特定する。接客制御部106は、ターゲットとなるユーザが所持している荷物の高さに近づけるように、自身の天板12の高さを調整する。ユーザは、高さが調整された天板12の上に、自然な動きで自分の荷物を置くことができる。
 このように、移動制御部105と接客制御部106は、接客ロボット1の移動を制御するとともに、天板12の昇降を制御する制御部として機能する。
<接客ロボット1の機能>
 上述したように、接客ロボット1は、複数のユーザ(人物)がいるオープンな空間において、顧客となるユーザに対して接客を行うロボットである。接客ロボット1は、以下の機能を有する。
(1)デッドレコニングとスターレコニングの併用
(2)複数ロボットの連携
(3)担当エリア内でのロボットの動き
 それぞれの機能について説明する。
(1)デッドレコニングとスターレコニングの併用
 接客ロボット1は、自己位置の推定方式として、混雑環境ではデッドレコニングを使用し、誤差が許容範囲を超える前に、スターレコニングを使用して自己位置を補正する。
 接客ロボット1が配置される空間は、バックヤードとなるエリアであるバックヤードエリアと、実際に接客を行うエリアであるサービスエリアとの2つのエリアに分けられる。接客ロボット1は、2つのエリアを行き来する。
 バックヤードエリアが用意されていることにより、接客ロボット1は、ユーザの目に付かないところで、ユーザに違和感を与えることなくスターレコニングを行い、自己位置を補正することが可能となる。
 図7は、接客ロボット1が配置される空間を模式的に示す図である。
 図7に示すように、接客ロボット1が配置される空間には、サービスエリアA1とバックヤードエリアA2が設定される。サービスエリアA1とバックヤードエリアA2は壁面Wによって分けられる。破線で示すように、壁面Wの一部には開口が形成され、その開口が、バックヤードエリアA2の出入口Gとして用いられる。
 サービスエリアA1が、デッドレコニングによって自己位置の推定が行われるエリアとなる。一方、バックヤードエリアA2が、スターレコニングによって自己位置の推定が行われるエリアとなる。
 デッドレコニングは、車軸エンコーダやIMU(Inertial Measurement Unit)といった、ロボット内部のセンサの出力を使用して自己位置を推定する方式である。周囲が混雑している状況においても自己位置を推定できるため、サービスエリアA1での使用に適しているが、走行距離や経過時間に応じて誤差が蓄積する。
 一方、スターレコニングは、カメラ54を用いたマーカ認識やLiDAR SLAMを用いた認識といった、外界の状況に基づいて自己位置を推定する方式である。
 バックヤードエリアA2には、ホームポジションとなる位置P1にマーカが設けられる。マーカを認識して位置P1に移動することにより、自己位置の補正、すなわち、サービスエリアA1での使用によって蓄積した誤差の初期化が行われる。
 バックヤードエリアA2の位置P2には、充電ポジションが設定される。例えば、接客ロボット1のバッテリの残量が予め設定された閾値となる量を下回った場合、接客ロボット1の状態はスタンバイ状態となり、バッテリの充電が位置P2において行われる。
 図8のフローチャートを参照して、接客ロボット1の処理について説明する。適宜、図7を参照する。
 図8の処理は、例えば、接客ロボット1のバッテリの充電が完了したときに開始される。
 ステップS1において、接客ロボット1の移動制御部105は、充電ポジション(位置P2)からホームポジション(位置P1)に移動する。
 ホームポジションに移動した後、ステップS2において、移動制御部105は、サービスエリアA1の自己の担当エリア内に設定されたユーザ探索位置に移動する。図7の例においては、ユーザ探索位置となる位置P11が設定されている。
 ユーザ探索位置に移動した後、ステップS3において、人物移動認識部101は、ユーザ探索を行う。
 ユーザ探索によってターゲットとなるユーザを認識した場合、ステップS4において、移動制御部105は、ユーザに接近する。図7の例においては、ターゲットとなるユーザの前方の位置である位置P12がターゲット位置として設定されている。
 ターゲット位置に移動した後、ステップS5において、接客制御部106は、顧客対応を行う。
 すなわち、接客制御部106は、昇降制御部53を制御することによって天板12を上昇させ、データ処理端末13を用いてアンケートを行わせる。アンケートが終わった場合、接客制御部106は、自己の姿勢をインタラクション時の姿勢から走行時の姿勢に遷移させる。
 ステップS6において、移動制御部105は、ホームポジション侵入位置に移動する。図7の例においては、出入口Gの近傍にホームポジション侵入位置となる位置P13が設定されている。
 例えば、ホームポジション侵入位置に移動した後、上位システムとなる制御装置71との間で通信が行われ、バックヤードエリアA2に侵入することの承認の申請が上位システムに対して行われる。上位システムに対する承認の申請については後述する。
 バックヤードエリアA2に侵入することが許可された場合、ステップS7において、移動制御部105は、バックヤードエリアA2内のホームポジションに移動する。
 ホームポジションに移動した後、ステップS8において、位置認識部104は、自己位置の初期化とヘルスチェックを行う。ヘルスチェックには、例えば、バッテリ残量のチェックが含まれる。
 バッテリ残量が閾値となる量を下回っている場合、ステップS9において、移動制御部105は、充電ポジションに移動し、充電を行う。充電が完了した後、ステップS1以降の処理が繰り返される。
 なお、ステップS4においてターゲット位置を目的地として移動を開始したものの、ターゲットとなるユーザへの接近が失敗した場合、ステップS2に戻り、ユーザ探索位置に移動した後に、ユーザ探索が再度行われる。
 ステップS5において顧客対応を行った後、自己位置の精度が十分に確保できている場合も同様に、ステップS2に戻り、ユーザ探索位置に移動した後に、ユーザ探索が再度行われる。
 例えば、自己位置の初期化を最後に行ってからの走行距離が閾値となる距離を超えていない場合、または、自己位置の初期化を最後に行ってからの経過時間が閾値となる時間を超えていない場合、自己位置の精度が十分に確保できているものとして判断される。
 ステップS8におけるヘルスチェックの結果、バッテリ残量が閾値となる量以上ある場合も同様に、ステップS2に戻り、ユーザ探索位置に移動した後に、ユーザ探索が再度行われる。
(2)複数ロボットの連携
 サービスエリアA1が複数のエリアに分割され、接客を担当するエリア(担当エリア)がそれぞれの接客ロボット1に割り当てられる。
 図9は、担当エリアの例を示す図である。
 図9の例においては、接客ロボット1-1の担当エリア、接客ロボット1-2の担当エリア、接客ロボット1-3の担当エリアのそれぞれの担当エリアが設定されている。
 それぞれの接客ロボット1は、バックヤードエリアA2内のホームポジションから、それぞれの担当エリア内に設定されたユーザ探索位置に移動した後、上述したようにしてユーザ探索などを行う。
 バックヤードエリアA2に戻る際、それぞれの接客ロボット1は、ホームポジション侵入位置に移動した後、上位システムに対してバックヤードエリアA2への侵入を申請し、許可が得られてからバックヤードエリアA2に侵入する。例えばあるタイミングでは、1台の接客ロボット1だけに対して、出入口Gの通行が許可される。
 これにより、出入口Gで複数台の接客ロボット1が競合・干渉してしまうことを防ぐことが可能となる。
(3)担当エリア内でのロボットの動き
 接客ロボット1は、デプスカメラ23(RGB-Dセンサ)により撮影された画像に基づいてユーザを認識した後に接近し、接客を行う。ユーザを認識可能な範囲には制限があるため、接客ロボット1は、担当エリア内を移動しながら、ユーザ探索を行う必要がある。担当エリアには、複数のユーザ探索位置が設定されている。
 例えば、担当エリアはトラス状に分割される。接客ロボット1は、各トラスの頂点を移動しながら、ユーザの探索を行う。
 図10は、担当エリアの分割の例を示す図である。
 図10の例においては、担当エリア内に9個のトラスが形成されている。丸印で示す各トラスの頂点が、ユーザ探索位置に相当する。白抜き矢印で示すように、ユーザ探索位置においては、隣接ノードの方を向いた状態(デプスカメラ23が設けられた筐体11の正面を向けた状態)でユーザ探索が行われる。
 図11は、ユーザ探索の例を示す図である。
 例えば、位置P21において行ったユーザ探索によってユーザ#1を認識した場合、接客ロボット1は、矢印A11に示すように、ユーザ#1をターゲットとして位置P22に移動する。位置P22がターゲット位置に相当する。位置P22に移動した後、接客ロボット1は顧客対応を行う。
 顧客対応が終わり、自己位置の精度が十分に確保できている場合、接客ロボット1は、矢印A12に示すように、現在位置である位置P22から最も近い隣接ノードである位置P23に移動し、ユーザ探索を再度行う。
 例えば、位置P23において行ったユーザ探索によって、ユーザ#2の方向については認識できたものの、具体的な位置を認識できていない場合、接客ロボット1は、矢印A13に示すように、ユーザ#2の方向にある隣接ノードである位置P24に移動する。接客ロボット1は、位置P24に移動した後、ユーザ探索を行い、ユーザ#2の位置についても認識できた場合には、ユーザ#2の近傍に移動し、顧客対応を行う。
 このような処理により、活動する領域を限定しつつ、接客ロボット1を、担当エリア内のユーザに柔軟に接近させることが可能となる。
<変形例>
 ユーザに対して求められる作業がアンケートに対する回答であるものとしたが、チケットの注文、グッズの注文、料理の注文、展示内容の確認などの各種の作業が接客ロボット1を用いて行われるようにしてもよい。
 接客ロボット1の移動時の状態が、筐体11と天板12が重なり、天板12によって筐体11の上面が塞がれた状態であるものとしたが、天板12が、筐体11の内部に収納されるようにしてもよい。
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
 コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 1 接客ロボット, 51 制御部, 52 移動部, 53 昇降制御部, 54 カメラ, 55 センサ, 56 通信部, 57 電源部, 71 制御装置

Claims (17)

  1.  人物が作業を行う際の机となる天板と、
     前記天板を支持する伸縮可能な支持アームと、
     前記支持アームを保持し、前記作業が行われるようにするための移動を行う移動部と、
     センサによりセンシングされた、周囲の環境の状態である環境状態と周囲に位置する前記人物の状態である人物状態との関係に応じて、前記支持アームの状態を含む姿勢の状態と、前記移動部による移動の状態とを制御する制御部と
     を備える移動体。
  2.  前記人物の移動の状態を認識する人物移動認識部をさらに備え、
     前記制御部は、前記人物移動認識部により認識された前記人物の移動の状態に応じて、前記姿勢の状態と前記移動の状態とを制御する
     請求項1に記載の移動体。
  3.  前記人物の移動の状態は、前記移動体と前記人物との間の距離であり、
     前記制御部は、前記距離が近づくことに応じて、前記支持アームを伸張させて前記天板の高さを高くする
     請求項2に記載の移動体。
  4.  前記制御部は、前記天板の高さが、前記人物が行う作業に応じた高さになるように、前記支持アームの伸縮を調整する
     請求項3に記載の移動体。
  5.  前記人物状態を認識する人物状態認識部をさらに備え、
     前記制御部は、前記人物状態認識部により認識された前記人物状態に応じて、前記姿勢の状態と前記移動の状態とを制御する
     請求項1に記載の移動体。
  6.  前記人物状態認識部は、作業を行う前記人物を識別し、
     前記制御部は、前記人物状態認識部により識別された前記人物に応じて、前記姿勢の状態と前記移動の状態とを制御する
     請求項5に記載の移動体。
  7.  前記環境状態を認識する周囲状態認識部をさらに備え、
     前記制御部は、さらに、前記周囲状態認識部により認識された前記環境状態に応じて、前記姿勢の状態と前記移動の状態とを制御する
     請求項1に記載の移動体。
  8.  前記周囲状態認識部は、他の移動体の状態を認識し、
     前記制御部は、前記周囲状態認識部により認識された前記他の移動体の状態に応じて、前記姿勢の状態と前記移動の状態とを制御する
     請求項7に記載の移動体。
  9.  前記周囲状態認識部は、前記他の移動体の天板の高さを認識し、
     前記制御部は、前記天板の高さを前記他の移動体の天板の高さに近づけるように、前記姿勢の状態を制御する
     請求項8に記載の移動体。
  10.  前記周囲状態認識部は、前記人物が所持する荷物の状態を認識し、
     前記制御部は、前記周囲状態認識部により認識された前記荷物の状態に応じて、前記姿勢の状態を制御する
     請求項9に記載の移動体。
  11.  前記荷物の状態は、前記荷物が位置する高さであり、
     前記制御部は、前記天板の高さを前記荷物が位置する高さに近付けるように、前記姿勢の状態を制御する
     請求項10に記載の移動体。
  12.  前記制御部は、前記人物により前記作業が行われない場合、前記天板と前記移動部が重なった状態になるように、または、前記天板が前記移動部に収納された状態になるように、前記姿勢の状態を制御する
     請求項1に記載の移動体。
  13.  前記天板は、前記人物が行う前記作業に用いられるデータ処理端末を内蔵する
     請求項1に記載の移動体。
  14.  前記作業は、前記人物によるデータ入力である
     請求項13に記載の移動体。
  15.  前記移動部は、移動のための駆動部分を動作させる電源を備え、
     前記制御部は、前記電源のバッテリ残量に応じて、前記移動体の位置を変更する
     請求項1に記載の移動体。
  16.  前記制御部は、前記電源のバッテリ残量が予め設定された閾値を下回った場合にスタンバイ状態になるように、前記姿勢の状態と前記移動の状態とを制御する
     請求項15に記載の移動体。
  17.  人物が作業を行う際の机となる天板と、
     前記天板を支持する伸縮可能な支持アームと、
     前記支持アームを保持し、前記作業が行われるようにするための移動を行う移動部と
     を備える移動体が、
     センサによりセンシングされた、周囲の環境の状態である環境状態と周囲に位置する前記人物の状態である人物状態との関係に応じて、前記支持アームの状態を含む姿勢の状態と、前記移動部による移動の状態とを制御する
     制御方法。
PCT/JP2020/003608 2019-02-15 2020-01-31 移動体、制御方法 WO2020166377A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/310,502 US20220095786A1 (en) 2019-02-15 2020-01-31 Moving body and control method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-025715 2019-02-15
JP2019025715A JP2022051979A (ja) 2019-02-15 2019-02-15 移動体、制御方法

Publications (1)

Publication Number Publication Date
WO2020166377A1 true WO2020166377A1 (ja) 2020-08-20

Family

ID=72045503

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/003608 WO2020166377A1 (ja) 2019-02-15 2020-01-31 移動体、制御方法

Country Status (3)

Country Link
US (1) US20220095786A1 (ja)
JP (1) JP2022051979A (ja)
WO (1) WO2020166377A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05224750A (ja) * 1992-02-12 1993-09-03 Toyota Autom Loom Works Ltd 無人搬送車におけるリフタの昇降位置制御方法
WO2008149942A1 (ja) * 2007-06-05 2008-12-11 Asa Co., Ltd. 配膳装置
JP2010211583A (ja) * 2009-03-11 2010-09-24 Panasonic Electric Works Co Ltd 移動型の搬送物受渡し装置
JP2011004917A (ja) * 2009-06-25 2011-01-13 Itoki Corp ワゴンデスク
JP2012223869A (ja) * 2011-04-21 2012-11-15 Panasonic Corp 作業台システム
JP2016087031A (ja) * 2014-10-31 2016-05-23 株式会社岡村製作所 机システム
US20180110326A1 (en) * 2016-10-21 2018-04-26 Robotis, Inc. Movable table
CN108209171A (zh) * 2017-12-29 2018-06-29 东莞市奇趣机器人科技有限公司 一种餐厅服务机器人
CN108851563A (zh) * 2018-06-27 2018-11-23 安徽慕凡电子科技有限公司 一种智能茶几

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100816505B1 (ko) * 2005-09-09 2008-03-24 배석희 랩탑테이블
US10085562B1 (en) * 2016-10-17 2018-10-02 Steelcase Inc. Ergonomic seating system, tilt-lock control and remote powering method and appartus
US10048697B1 (en) * 2015-10-29 2018-08-14 Vecna Technologies, Inc. Mobile robot with conveyor system
KR20170141001A (ko) * 2016-06-14 2017-12-22 이주연 기능성 테이블 및 테이블 제어 시스템
US10052764B2 (en) * 2016-06-16 2018-08-21 Toyota Motor Engineering & Manufacutring North America, Inc. Automated and adjustable platform surface
US20180370028A1 (en) * 2017-06-24 2018-12-27 Elizabeth Marie De Zulueta Autonomous Robotic Aide
DE102018103067A1 (de) * 2018-02-12 2019-08-14 Logicdata Electronic & Software Entwicklungs Gmbh Möbelsystem

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05224750A (ja) * 1992-02-12 1993-09-03 Toyota Autom Loom Works Ltd 無人搬送車におけるリフタの昇降位置制御方法
WO2008149942A1 (ja) * 2007-06-05 2008-12-11 Asa Co., Ltd. 配膳装置
JP2010211583A (ja) * 2009-03-11 2010-09-24 Panasonic Electric Works Co Ltd 移動型の搬送物受渡し装置
JP2011004917A (ja) * 2009-06-25 2011-01-13 Itoki Corp ワゴンデスク
JP2012223869A (ja) * 2011-04-21 2012-11-15 Panasonic Corp 作業台システム
JP2016087031A (ja) * 2014-10-31 2016-05-23 株式会社岡村製作所 机システム
US20180110326A1 (en) * 2016-10-21 2018-04-26 Robotis, Inc. Movable table
CN108209171A (zh) * 2017-12-29 2018-06-29 东莞市奇趣机器人科技有限公司 一种餐厅服务机器人
CN108851563A (zh) * 2018-06-27 2018-11-23 安徽慕凡电子科技有限公司 一种智能茶几

Also Published As

Publication number Publication date
JP2022051979A (ja) 2022-04-04
US20220095786A1 (en) 2022-03-31

Similar Documents

Publication Publication Date Title
US10661433B2 (en) Companion robot for personal interaction
US9552056B1 (en) Gesture enabled telepresence robot and system
Zalama et al. Sacarino, a service robot in a hotel environment
Graf et al. Robotic home assistant Care-O-bot® 3-product vision and innovation platform
US20210346557A1 (en) Robotic social interaction
JP2004261941A (ja) コミュニケーションロボットおよびコミュニケーションシステム
EP3209468A1 (en) Customer service robot and related systems and methods
Müller et al. Openbot: Turning smartphones into robots
JP2020187483A (ja) 自律移動体、自律移動体の制御プログラム、自律移動体の制御方法および自律移動体を遠隔地から制御するシステムサーバ
Ahn et al. PDA-based mobile robot system with remote monitoring for home environment
Tsui et al. Iterative design of a semi-autonomous social telepresence robot research platform: a chronology
WO2020166377A1 (ja) 移動体、制御方法
KR20180074404A (ko) 공항용 로봇 및 그의 동작 방법
WO2020203342A1 (ja) 制御装置、制御方法、およびプログラム
WO2020203341A1 (ja) 制御装置、制御方法、およびプログラム
CN112238458A (zh) 机器人管理装置、机器人管理方法以及机器人管理系统
US20230092395A1 (en) Physical object integration with extended reality environments
Hans et al. Robotic home assistant Care-O-bot II
US20220244730A1 (en) Autonomous movement system, autonomous movement method, and autonomous movement program
US20240160210A1 (en) Place enrollment in a robotic cart coordination system
US20240160212A1 (en) Object enrollment in a robotic cart coordination system
JP2022101279A (ja) 自走式ロボット及びその制御方法
Foresti et al. Emotive Robotics with I-Zak
CN112238454A (zh) 机器人管理装置、机器人管理方法以及机器人管理系统
RU2627555C2 (ru) Устройство для управляемого передвижения смартфона по горизонтальной поверхности

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20756444

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20756444

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP