WO2000032360A1 - Robot et son procede de commande - Google Patents

Robot et son procede de commande Download PDF

Info

Publication number
WO2000032360A1
WO2000032360A1 PCT/JP1999/006588 JP9906588W WO0032360A1 WO 2000032360 A1 WO2000032360 A1 WO 2000032360A1 JP 9906588 W JP9906588 W JP 9906588W WO 0032360 A1 WO0032360 A1 WO 0032360A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot device
state
recognized
self
time
Prior art date
Application number
PCT/JP1999/006588
Other languages
English (en)
French (fr)
Inventor
Seiichi Takamura
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US09/700,984 priority Critical patent/US6374157B1/en
Priority to JP2000585036A priority patent/JP4517509B2/ja
Priority to EP99972961.9A priority patent/EP1155787B1/en
Publication of WO2000032360A1 publication Critical patent/WO2000032360A1/ja

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic

Definitions

  • the present invention relates to a robot device and a control method thereof, and is suitably applied to, for example, a robot device that operates naturally and a control method thereof.
  • Japanese Utility Model Laid-Open Publication No. 5-72630 it is determined whether a voltage obtained by subjecting a signal measured from an acceleration sensor attached to a moving body to a high-pass fill process is larger than a predetermined threshold value.
  • a movement stop sensor for the moving body that determines whether the moving body is running or stopped by determining the movement.
  • Japanese Patent Application Laid-Open No. H10-113334 proposes a method, apparatus and system for recognizing actions and actions. Such a system recognizes an action or behavior by frequency-converting a signal obtained from a measuring instrument attached to a subject to calculate a feature, and correlating the calculated feature with a database. It is.
  • recognition methods, devices and systems if the database is inadequate or inappropriate, correct recognition cannot be performed, and sufficient There were problems that required a lot of time, expertise, and experience to create a new database.
  • the present invention has been made in view of the above-described conventional situation, and has a robot device and a robot device capable of easily recognizing one's own situation such as movement of a slope or rotating motion, and acting on one's own. It provides the control method.
  • the robot device includes: a detection unit that detects acceleration and / or a rotational angular velocity by an acceleration sensor and / or a gyro sensor; and a storage unit that stores a signal detected by the detection unit in time series as a time series signal.
  • a calculating means for calculating specific information from the time-series signal stored in the storage means; a recognizing means for recognizing the self state from the specific information calculated by the calculating means; and a self-state recognized based on the recognizing means.
  • Output means for outputting the action.
  • the robot device calculates specific information using the detected acceleration and rotational angular velocity, and automatically recognizes its own state based on the calculated specific information and takes action.
  • the robot device stops the operation of the predetermined movable portion acting externally when the self-state recognized by the recognition means is in a lifted state.
  • the movable part acting externally operates. It is possible to prevent the user from being injured due to the event.
  • control method of the robot device includes a first step of detecting acceleration and / or rotational angular velocity by an acceleration sensor and / or a ji mouth sensor, and converting a signal obtained by the detection into a time-series signal.
  • control method of the robot device automatically recognizes its own state and controls the behavior of the robot device, thereby controlling the behavior of the robot device according to the change of its own state.
  • control method of the robot device can prevent the occurrence of user injury due to the operation of the movable part acting outside.
  • FIG. 1 is a block diagram showing a configuration of a robot device to which the present invention is applied.
  • FIG. 2 is an external perspective view of the robot device.
  • FIG. 3 is a schematic diagram for explaining a state when the robot device is walking.
  • FIG. 4 is a flowchart showing the state recognition processing procedure.
  • FIG. 5 is a characteristic curve diagram for explaining a dispersion value in each pole state of the robot device.
  • FIG. 6 is a characteristic curve diagram for explaining state recognition by noise.
  • FIG. 7 is a schematic diagram for explaining a state when the robot device is lifted.
  • FIG. 8 is a schematic diagram for explaining a state when the robot device is lowered.
  • FIG. 9 is a schematic diagram for explaining a state when the robot device resumes walking.
  • FIG. 10 is a flowchart illustrating the operation suppression processing procedure.
  • FIGS. 11 (A) and 11 (B) are schematic diagrams showing joint mechanisms of limbs.
  • FIG. 12 is a flowchart showing the action return processing procedure.
  • FIG. 13 is a characteristic curve diagram for explaining the state detection by the acceleration sensor. BEST MODE FOR CARRYING OUT THE INVENTION
  • a robot device 1 As shown in FIG. 1, a robot device 1 according to the present embodiment is entirely configured, and a central processing unit (hereinafter, referred to as a “CPU”) 11 that controls the entire system.
  • CPU central processing unit
  • a video camera having a CCD (Charge Coupled Device) image sensor 12, a storage unit 13 for storing video data from the video camera 12, and a serial bus host controller and the like.
  • LSI serial bus host controller
  • the LSI 14 has a communication unit 14A including an interface such as serial communication, parallel communication, and USB communication, and is connected to an external personal computer 100 via the communication unit 14A.
  • the personal computer 100 can change, for example, a program for operating the CPU 11 and perform the operation via the LSI 14.
  • the LSI 14 has a PC card interface 15 and various devices conforming to the PC card standard, such as a storage device 200 such as an ATA (Advanced Technology Attachment) flash memory card and a wireless communication card. Is connected to the communication device 300.
  • a storage device 200 such as an ATA (Advanced Technology Attachment) flash memory card and a wireless communication card.
  • the LSI 14 includes a battery manager (not shown) for obtaining real-time time information, and a battery manager (not shown) for controlling the remaining amount of the battery and controlling the power to be turned on at a certain time in cooperation with the camera. -Have a ja.
  • the robot apparatus 1 includes first to fourth Configurable Physical Component (CPC) devices 20, 30, 40, and 50 that constitute limbs, ears, mouth, and the like.
  • CPC Configurable Physical Component
  • SBH serial bus hub
  • the first CPC device 20 responds to a control instruction from the LSI 14 21 that controls each circuit in the device, a memory 22 that temporarily stores control signals and detection signals, an acceleration sensor 23 that detects acceleration, and a potentiometer 24. And the actor who plays the role of a joint.
  • the acceleration sensor 23 detects acceleration in three axes (X-axis, Y-axis, and Z-axis) in units of tens of milliseconds, and outputs the detection results via the hub 21 and the serial bus hub 14B. And supply it to CPU 11.
  • the second CPC device 30 includes a hub 31, a memory 32, a rotational angular velocity sensor 33 composed of a gyro sensor for detecting a rotational angular velocity, a potentiometer 34, and an actuator 35. .
  • the rotational angular velocity sensor 33 detects rotational angular velocities in three directions (R, P, and Y angles) in tens of milliseconds, and outputs the detection results to the hub 31 and serial bus hub 14 B Is supplied to LSI 14 through.
  • the third CPC device 40 includes a hub 41, a memory 42, and a light emitting diode (LED) 43, for example, which emits light to indicate that an external stimulus has been received. And a sensor 44 for detecting the pressure.
  • LED light emitting diode
  • the fourth CPC device 50 functions as a hub 51, a memory 52, a speaker 53 serving as a "mouth” for outputting voice to the outside, and a "ear” for detecting an external voice.
  • Mice 54 is provided.
  • the external appearance of the robot device 1 is, for example, as shown in FIG. That is, the robot device 1 is a multi-joint robot with multiple legs, and has the shape of an animal having four legs 2. Then, as shown in FIG. 3, when such a robot apparatus 1 is walking, the CPU 11 concretely executes the state recognition processing shown in FIG. Monitor the status of robot unit 1 in accordance with control procedure RT1.
  • step SP 1 the CPU 11 starts this state recognition processing procedure RT 1 at step SP 0, and in step SP 1, the CPU 11 reads the acceleration information and the rotational angular velocity information detected by the acceleration sensor 23 and the rotational angular velocity sensor 33. Then, the process proceeds to step SP2, where the acceleration information and the rotational angular velocity information are stored in the storage unit 13 in time series.
  • the CPU 11 proceeds to step SP3 and calculates specific information from the time-series signal stored in the storage unit 13. For example, the CPU 11 calculates the sum of three axes (X-axis, Y-axis, Z-axis) from the time-series signal of the acceleration sensor 23 stored in the storage unit 13 as the acceleration sensor 23. Calculate the representative variance value in Similarly, the CPU 11 calculates a representative variance value obtained by summing the three angles (R angle, P angle, and Y angle) from the time-series signal of the rotational angular velocity sensor 33, if necessary.
  • the CPU 11 calculates the sum of three axes (X-axis, Y-axis, Z-axis) from the time-series signal of the acceleration sensor 23 stored in the storage unit 13 as the acceleration sensor 23. Calculate the representative variance value in Similarly, the CPU 11 calculates a representative variance value obtained by summing the three angles (R angle, P angle, and Y angle) from the time-series signal of the rotational angular velocity
  • CPU 11 proceeds to step SP4, and determines specific information such as the calculated variance.
  • FIG. 5 shows an example of the variance value of the detection output of the acceleration sensor 23 and the rotational angular velocity sensor 33.
  • the variance value has the characteristic that it is largest when the robot device 1 is moving on the ground, and becomes smaller when the robot device 1 is lifted and lowered. Therefore, by appropriately setting the threshold value of the state change, it is possible to determine whether the robot device 1 is walking, has been lifted, or has been lowered based on the variance value.
  • CPU 11 moves on the ground when the variance is (5 2 or more, raises when the variance is ⁇ 1 or more and less than 52, and lifts it when the variance is (5 1 or less. It is possible to judge that it is doing.
  • the disconnection is performed after step SP5 described later.
  • CPU 11 may erroneously recognize a change in state due to a sudden change in variance due to noise.
  • the CPU 11 determines the relationship between the variance value and the threshold value 53 as shown in FIG. 6, and continuously determines the variance value and the threshold value (5 3 If the relationship is constant, it is considered that a state change has actually occurred.For example, the CPU 11 sets a predetermined time T in advance and disperses only during the time T 1 ( ⁇ T). If the value exceeds the threshold value 53, it is determined to be erroneous recognition due to noise, and when the time variance value exceeds the threshold value (53), it can be correctly recognized that the state has changed. This makes it possible to realize an erroneous recognition function that is simple against noise, where the threshold value (53 corresponds to 53 or ⁇ ⁇ 2 described above).
  • the CPU 11 always calculates the variance of the acceleration sensor 23, but also calculates the variance of the rotational angular velocity sensor 33 as needed. As a result, the recognition robustness can be improved without significantly increasing the processing load of the CPU 11.
  • a posture change or motion is detected by the rotation angular velocity sensor 33 as well as the acceleration sensor 23. It is preferable to use the output together.
  • the information from the acceleration sensor 23 is important mainly during stationary / low-speed motion or when there are many translational motion components.
  • the information from 3 is important. Therefore, when the action to be detected is a high-speed motion or when there are many rotational motion components, the number of times when the information from the rotational angular velocity sensor 33 is also used may be increased.
  • step SP5 determines whether or not the specific information is a characteristic of “during ground operation”, and if an affirmative result is obtained, proceeds to step SP6, where the robot device 1 recognizes that the user is moving on the ground, controls each CPC device such as the first CPC device 20 so as to continue walking, and returns to step SP1.
  • step SP5 determines whether or not the specific information has the characteristic of “when held up and when lifted”. If a result is obtained, it proceeds to step SP8. At this time, the robot device 1 is in a state of being held by the user as shown in FIG. Then, the CPU 11 recognizes that the robot device 1 has been lifted in this step SP8, and controls each CPC device such as the first CPC device 20 so as to stop the walking motion and stop. Return to step SP 1.
  • step SP7 determines whether or not the specific information has the characteristic of “when taken down”, and obtains a positive result. And proceeds to step SP10, and if a negative result is obtained, returns to step SP1.
  • step SP10 the CPU 11 recognizes that the robot device 1 has been lowered, and thereafter, as shown in FIG. 8, the detection output of the evening sensor 44, etc.
  • the process returns to step SP1.
  • the evening sensor 4 detects, for example, contact with the outside. It is a contact sensor or a pressure-sensitive sensor that detects pressure, and detects the state of contact with the ground (floor surface).
  • the robot device such as being lifted up based on the acceleration by the acceleration sensor or the rotational angular velocity from the gyro sensor, also referring to the detection result of the detection means for detecting the contact state with the ground.
  • the toe when being lifted, the toe is separated from the ground, so the contact switch at the toe is always 0FF, so this information is monitored in the same way as changes in acceleration and rotational speed. In this way, the ability to detect a held object or to detect that the object is lifted can be improved.
  • the CPU 11 suppresses the operation of the robot device 1 according to the operation suppression processing procedure RT2 shown in FIG.
  • step SP8 of the state recognition processing procedure RT1 that the robot device 1 has been lifted, it starts this operation suppression processing procedure RT2 in step SP20, and then proceeds to step SP2.
  • 1 stops the movement of each leg 2 of the robot unit 1 by controlling the corresponding servo system circuit and the corresponding CPC device inside the LSI 14 (control of the corresponding joint mechanism to the actuators 25)
  • the gain is set to “0”) and the mechanical restraint of each foot 2 is released, and these feet 2 are weakened.
  • Each joint mechanism 60 of the foot 2 embeds the gear fixed on the output shaft of the actuator 25 to the deceleration gear train 6 3 by the elastic force of the compression coil spring 62. It is configured.
  • the actuator 25 can be moved in the direction of the arrow a by driving the electromagnetic plunger 64 as shown in FIG. 11 (B), whereby the gear 61 and the reduction gear train 63 It has been made possible to release the combination with.
  • step SP 21 the CPU 11 stops the application of the drive voltage to the actuators 25 of all the joint mechanisms of each leg 2, while driving the corresponding electromagnetic plunger 64, thereby making the actuators active.
  • the mechanical restraint of each foot 2 caused by the static torque of 25 overnight is released, thereby releasing all the feet 2 of the robot device 1 and allowing the user to hold the robot device 1 easily. To change.
  • step SP22 controls the corresponding servo-based circuit inside the LSI 14 to slow down the movement of the neck 3 (FIG. 2) and the tail 4 (FIG. 2).
  • step SP 23 controls the corresponding circuit inside the LSI 14 so that the LED 5 (FIG. 2) serving as an “eye” is turned off and the speaker 54 (FIG. 1) is turned off. Turn down the volume of the audio output (screaming).
  • step SP 24 the CPU 11 proceeds to step SP 24, and stores the stored state and various parameters relating to learning at the time to the storage device 200 via the PC card interface 15. Write.
  • step SP 25 the CPU 11 prohibits the reading and writing of data to and from the storage device S 200 thereafter, and then proceeds to step SP 26 to terminate the operation suppression processing procedure RT 2. , Status Return to step S ⁇ 1 of the recognition processing procedure RT1.
  • the CPU 11 returns the action of the robot device 1 according to the action return processing procedure RT3 shown in FIG.
  • step S # 31 a data read / write permission for the storage device 200 is issued. Also, the CPU 11 mechanically restrains each foot 2 (stops driving the electromagnetic plunger 64 in FIG. 11) by controlling the corresponding CP device together with the CPU.
  • step S 32 the CPU 11 proceeds to step S 32 to control a corresponding circuit inside the LSI 14 to output a predetermined pattern of sound from the speaker 53 (FIG. 1), which corresponds to an “eye”.
  • the LED 5 is turned on and / or the tail 4 is operated to notify the user that the operation has been restored.
  • the CPU 11 reads out necessary data from the storage device 200 in the following step S ⁇ 34, and controls the corresponding servo system circuit inside the LSI 14 based on the data.
  • the operation of each foot 2 is resumed, and thereafter, the process proceeds to step S # 35 to end the action return process R # 3, and then returns to step S # 1 of the state recognition process procedure R # 1.
  • the acceleration information and / or the acceleration information detected by the acceleration sensor 23 and / or the rotational angular velocity sensor 33 are provided.
  • / or rotational angular velocity information is stored in the storage unit 13 in a time series, and specific information such as a variance value is calculated based on the acceleration information and / or the rotational angular velocity information. Recognize the state of the person and act on the recognition result.
  • the robot device 1 there is no need to explicitly give the robot device 1 information as to whether the user has lifted the robot device 1 or lowered it. In this way, by allowing the robot device 1 to automatically recognize itself, a more natural mouth robot and human interaction can be realized.
  • a change in specific information can be recognized, and a response to the external force (action, voice, output of a musical scale, or the like) is performed. ), And a robot device 1 with high intellectual efficiency can be constructed. Further, since it is possible to determine whether or not the target posture and the action have been actually performed by referring to the specific information, it is possible to detect whether the action of the robot apparatus 1 is correct by using the information. In addition, the robot device 1 suppresses the operation of the robot device 1 such as stopping the movement of each leg 2 when being lifted, and resumes the movement of each leg 2 when the robot device is later lowered. Return action.
  • the robot device 1 when the user lifts the robot device 1, he or she can pinch a finger between the joints of the feet 2 of the robot device 1 or between the feet 2 and the torso, or The user holding the robot device 1 while preventing the user from being injured by dropping the robot device 1 on his or her feet when surprised at the operation of the robot device 1 This gives the user an impression of affinity and a comfortable feeling of use.
  • the robot device 1 since the reading and writing of data from and to the storage device 200 is prohibited when the robot device is lifted up, for example, when the user writes the data to the storage device 200, the robot device 1 can read the data. It is possible to prevent the destruction of the data in the storage device 200 due to the drop of the storage device 1 and the writing of illegal data to the storage device 200 beforehand.
  • the acceleration information and / or the rotational angular velocity information detected by the acceleration sensor 23 and / or the rotational angular velocity sensor 33 are stored in the storage unit 13 in a time-series manner. / Or calculating specific information such as variance value based on rotation angular velocity information, recognizing own state based on detection result, and acting based on recognition result, responding to change in own state It is possible to control the behavior, and thus to realize a robot device that can easily recognize its own situation such as the movement of the inclined surface or the rotational movement and take an action on its own.
  • the operation of the robot device 1 is suppressed when the robot device is lifted, it is possible to prevent a user from being injured due to the operation of the robot device 1 when the user lifts the robot device.
  • a robot device capable of improving safety and amusement can be realized.
  • three states of walking, lifting, and lowering of the robot device 1 itself are recognized based on the variance value of the detection output of each sensor of the robot device 1.
  • the present invention is not limited to this.
  • the other pattern is similarly recognized. Is also good.
  • the characteristic of the other method may be used.
  • step SP3 of the state recognition processing procedure RT1 has been described.
  • the present invention is not limited to this.
  • the acceleration sensor 23 and the rotational angular velocity sensor 3 3 The digital output may be used for the detection output of.
  • the digital filter can extract only a specific frequency component of the time-series signal, and by setting an appropriate frequency, the frequency component during operation of the robot device 1 can be increased.
  • the frequency component at the time and the frequency component at the time of lifting can be separated.
  • the qualitative relationship between the frequencies is that the frequency during the action is the highest, the frequency when lifted, and the frequency when the frequency is lowered ⁇ .
  • the state of the robot device 1 itself can be recognized.
  • the posture may be changed to a posture that is easy for the user to hold, such as by bending 2, so that the sense of comfort can be further improved.
  • the present invention is not limited to this.
  • the behavior pattern may be changed depending on the personality when the user is held up. Useability can be improved.
  • the present invention is not limited to this.
  • a situation was detected that could cause the data in the storage device 200 to be destroyed if data was read from or written to the storage device 200, such as a fall.
  • reading and writing of data in the storage device 200 overnight may be prohibited.
  • the detection of the state of the robot device by the acceleration sensor 23 is not limited to that described in the above embodiment.
  • the state of the robot device can be detected from the output of the angular velocity sensor 23 as follows.
  • the time-series signals from the acceleration sensor 23 in the three directions of the X-axis, the Y-axis, and the Z-axis are respectively sampled and stored as acceleration information.
  • time-series information time-series acceleration information for a certain time period
  • low-pass filtering is performed for each time-series information of each axis to extract low frequency components.
  • G (/) VG ( 2 + G> (/) 2 + Gz ( 2 ... T ⁇ ⁇ )
  • This G (t) is a characteristic as shown in FIG. 13 when the robot device 1 is lifted. That is, once G (t) decreases from the value of normal G. Then, it suddenly exceeds the normal value Go, and finally settles to the normal value G 0 . By detecting the change, it is possible to detect that the robot device 1 is held up.Specifically, the lifting up is detected as follows.
  • ⁇ G, G. — G (t) ⁇ ⁇ ⁇ (2) and time T. Then, within a predetermined time T, a value is calculated by equation (3).
  • ⁇ G 2 G (t)-G. (3) ⁇
  • second threshold a certain threshold
  • the acceleration sensor and / or the gyro sensor detects the acceleration and / or the rotational angular velocity, stores the detected signals in time series as a time series signal, and stores the stored time series. Almost move the slope by calculating specific information from the signal, recognizing its own state from the calculated specific information, and controlling the behavior of the robot device based on the recognized own state.
  • a robot device capable of recognizing its own state of rotation or rotation and acting on its own, and a control method thereof can be realized.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Description

明細書 ロボッ ト装置及びその制御方法 技術分野
本発明は、 ロボッ ト装置及びその制御方法に関し、 例えば自然な 動作をするロボッ ト装置及びその制御方法に適用して好適なもので ある。 背景技術
従来より、 ロボッ ト装置に自然な動作を行わせるための様々な提 案がなされている。
例えば、 実開平 5— 7 2 6 3 0号公報において、 運動体に取り付 けられた加速度センサから計測される信号にハイパスフィル夕処理 を施して得られる電圧が、 所定の閾値よりも大きいかを判定するこ とによって運動体が走行中であるか停止中であるかを判定する運動 体の運動停止センサがある。
ところがかかる運動体の運動停止センサでは、 加速度センサが運 動体の進行方向の一ヶ所にしか取り付けていないため、 傾斜面の移 動や回転運動について判定することができない問题があった。 また、 特開平 1 0— 1 1 3 3 4 3号公報において、 動作及び行動 の認識方法、 装置及びシステムが提案されている。 かかるシステム は、 被検者に取り付けられた測定器から得られる信号を周波数変換 して特徴量を算出し、 算出された特徴量とデータベースとの相関を とることによって、 動作や行動を認識するものである。 しかしながらこのような認識方法、 装置及びシステムによると、 デ—夕ベースが不十分だったり不適切だった場合には正しい認識を することができず、 また、 このようなことを回避するために十分な データベースを作ろうとしても、 多大な時間、 専門知識、 経験が必 要となる問題があった。
発明の開示
本発明は、 上述したような従来の実情に鑑みてなされたものであ り、 容易に傾斜面の移動や回転運動等の自らの状況について認識し て、 自ら行動することができるロボッ ト装置及びその制御方法を提 供するものである。
すなわち、 ロボッ ト装置は、 加速度センサ及び/又はジャイ ロセ ンサによって加速度及び/又は回転角速度を検出する検出手段と、 検出手段で検出された信号を時系列的に時系列信号として記憶する 記憶手段と、 記憶手段に記憶された時系列信号から特定情報を算出 する算出手段と、 算出手段で算出された特定情報から自己の状態を 認識する認識手段と、 認識手段と認識された自己の状態に基づいて 行動を出力する出力手段とを備える。
これにより、 ロボッ ト装置では、 検出された加速度や回転角速度 を用いて特定情報を算出し、 算出された特定情報に基づいて自己の 状態を自動的に認識して行動を起こす。
さらに、 ロボッ ト装置は、 認識手段が認識した自己の状態が持ち 上げられた状態であった場合には、 外部に作用する所定の可動部の 動作を停止させるようにする。
これにより、 ロボッ ト装置では、 外部に作用する可動部が動作す ることに起因するユーザの怪我の発生を未然に防止することができ る。
また、 ロボッ ト装置の制御方法は、 加速度センサ及び/又はジャ ィ口センサによって加速度及び/又は回転角速度を検出する第 1の ステップと、 検出により得られた信号を時系列的に時系列信号とし て記憶する第 2のステップと、 記憶した時系列信号から特定情報を 算出する第 3のステップと、 算出した特定情報から自己の状態を認 識する第 4のステヅプと、 認識した自己の状態に基づいてロボッ ト 装置の行動を制御する第 5のステップとを有する。
これにより、 ロボッ ト装置の制御方法は、 自己の状態を自動的に 認識してロボッ ト装置の行動を制御することによって、 自己の状態 変化に応じてロボッ ト装置の行動を制御する。
さらに、 ロボッ ト装置の制御方法は、 認識手段が認識した自己の 状態が持ち上げられた状態であった場合には、 外部に作用する所定 の可動部の動作を停止させるようにする。
これにより、 ロボッ ト装^の制御方法は、 外部に作用する可動部 が動作することに起因するユーザの怪我の発生を未然に防止するこ とができる。 図面の簡単な説明
図 1は、 本発明を適用したロボッ ト装置の構成を示すブロック図 である。
図 2は、 ロボッ ト装置の外観斜視図である。
図 3は、 ロボッ ト装置が歩行しているときの状態説明に供する略 線図である。 図 4は、 状態認識処理手順を示すフローチヤ一トである。
図 5は、 ロボッ ト装置の各極状態における分散値の説明に供する 特性曲線図である。
図 6は、 ノィズによる状態の 認識の説明に供する特性曲線図で ある。
図 7は、 ロボッ ト装置が持ち上げられたときの状態説明に供する 略線図である。
図 8は、 ロボッ ト装置が下ろされたときの状態説明に供する略線 図である。
図 9は、 ロボッ ト装置が歩行を再開したときの状態説明に供する 略線図である。
図 1 0は、 動作抑制処理手順を示すフローチャートである。
図 1 1 ( A ) 及び図 1 1 ( B ) は、 手足の関節機構を示す略線図 である。
図 1 2は、 行動復帰処理手順を示すフローチヤ一トである。
図 1 3は、 加速度センサによる状態の検出の説明に供する特性曲 線図である。 発明を実施するための最良の形態
以下、 本発明の一実施の形態を、 図面を用いて詳述する。
( 1 ) 本実施の形態によるロボッ ト装置の構成
図 1に示すように、 本実施の形態であるロボッ ト装置 1は全体が 構成され、 システム全体を制御する中央処理演算部 (Central Proc ess ing Unit : 以下、 「C P U」 という。 ) 1 1 と、 例えば C C D ( Charge Coupled Device ) イメージセンサを有するビデオカメラ 12と、 ビデオカメラ 12からのビデオデータ等を記憶する記憶部 13と、 シリアルバスのホス トコン トロ一ラ等を 1つにまとめた大 規校染嵇回路 (Large- Scale Integrated Circuit : 以下、 「L S I」 という。 ) 14とを備える。
L S I 14は、 例えばシリアル通信、 パラレル通信、 U S B通信 等のィン夕一フェースからなる通信部 14 Aを有し、 この通信部 1 4 Aを介して外部のパーソナルコンピュータ 100と接続される。 このとき、 パーソナルコンピュータ 100は、 L S I 14を介して、 例えば CPU 1 1を動作させるプログラムを変更したり、 その操作 を行うことができる。
L S I 14は、 P Cカードインターフェース 1 5を有し、 PC力 ード規格等の様々なデバイス、 例えば AT A (Advanced Technolog y Attachment) フラッシュメモリ力一ド等の記憶装置 200や無線 通信力一ド等の通信装置 300と接続される。
L S I 14は、 リアルタイムの時間情報を得るための図示しない 夕イマと、 バッテリ一の残量の管理や夕イマと連係してある時間に パワーオンとする等の制御を行うための図示しないバッテリーマネ —ジャを備える。
また、 ロボッ ト装置 1は、 手足、 耳、 口等を構成する第 1から第 4の CP C (Configurable Physical Component ) デバイス 20、 30、 40、 50を備える。 各 C P Cデバイスは、 L S I 14内の シリアルバスハブ ( S B H) 14 Bに接続されている。 ここでは、 C P Cデバイスを 4つ示しているが、 その数は特に限定されるもの ではないのは勿論である。
第 1の C P Cデバイス 20は、 L S I 14からの制御命令に応じ て当該デバイス内の各回路を制御するハブ 2 1 と、 制御信号や検出 信号等を一時記憶しておくメモリ 2 2と、 加速度を検出する加速度 センサ 2 3と、 ポテンショメ一夕 (Potentiometer ) 24と、 関節 ^の役割を果たすァクチユエ一夕 2 5とを備える。 加速度センサ 2 3は、 数十ミ リ秒単位で 3軸 (X軸、 Y軸、 Z軸) 方向の加速度を それぞれ検出し、 この検出結果を、 ハブ 2 1、 シリアルバスハブ 1 4 Bを介して、 CPU 1 1に供給する。
第 2の C P Cデバイス 30は、 ハブ 3 1と、 メモリ 3 2と、 回転 角速度を検出するジャィ口センサでなる回転角速度センサ 3 3と、 ポテンショメ一夕 34と、 ァクチユエ一夕 3 5とを備える。 回転角 速度センサ 3 3は、 数十ミ リ秒単位で 3角 (R角、 P角、 Y角) 方 向の回転角速度を検出し、 この検出結果を、 ハブ 3 1、 シリアルバ スハブ 1 4 Bを介して L S I 1 4に供給する。
第 3の C P Cデバイス 40は、 ハブ 4 1と、 メモリ 4 2と、 例え ば発光することによって外部から刺激を受けたことを示す発光ダイ オード (L ED) 43と、 外部を接触したか否かを検出する夕ヅチ センサ 44とを備える。
第 4の C P Cデバイス 50は、 ハブ 5 1と、 メモリ 5 2と、 外部 に音声を出力する 「口」 の役割を果たすスピーカ 5 3と、 外部の音 声を検出する 「耳」 の役割を果たすマイス 54とを備える。
ロボッ ト装置 1の外観は、 例えば図 2に示すように、 多足歩行口 ボッ トからなる。 すなわち、 ロボッ ト装置 1は、 多足方向の多関節 型ロボッ 卜であって、 4本の足 2を有する動物の形をしている。 そして、 図 3に示すように、 このようなロボッ ト装置 1が歩行し ているときは、 CPU 1 1は、 具体的には、 図 4に示す状態認識処 理手順 R T 1に従ってロボッ ト装置 1の状態を監視する。
すなわち C P U 1 1は、 この状態認識処理手順 R T 1をステップ S P 0において II始すると、 続くステップ S P 1において加速度セ ンサ 2 3や回転角速度センサ 3 3が検出した加速度情報、 回転角速 度情報を受け取り、 この後ステップ S P 2に進んでこれら加速度情 報、 回転角速度情報を時系列的に記憶部 1 3に記憶させる。
次いで C P U 1 1は、 ステップ S P 3に進んで記憶部 1 3に記憶 させた時系列信号から特定情報を算出する。 例えば C P U 1 1は、 記憶部 1 3に記憶された'加速度センサ 2 3の時系列信号から、 3軸 分 (X軸、 Y軸、 Z軸) の総和をとつたものを加速度センサ 2 3に おける代表分散値を算出する。 C P U 1 1は、 同様に、 必要に応じ て、 回転角速度センサ 3 3の時系列信号からも、 3角分 (R角、 P 角、 Y角) の総和をとつた代表分散値を算出する。
次いで C P U 1 1は、 ステップ S P 4に進み、 この算出した分散 値等の特定情報を判定する。
ここで、 加速度センサ 2 3や回転角速度センサ 3 3の検出出力の 分散値の一例を図 5に示す。 分散値は、 ロボッ ト装置 1が地面上を 行動しているときが最も大きく、 それが持ち上げられたとき、 持ち 下ろされたときの順に小さくなる特性を有する。 したがって、 状態 変化の閾値を適切に設定することによって、 分散値に基づいてロボ ッ ト装置 1が歩いているか、 それが持ち上げられたか、 それが持ち 下げられたかを判断することが可能になる。 図 5によると、 C P U 1 1は分散値が (5 2以上のときは地面を行動中、 分散値が ά 1以上 5 2未満のときは持ち上げ、 分散値が (5 1未満のときは持ち下ろし をしていると判断することができる。 なお、 このような具体的な判 断については、 後述するステツプ S P 5以降で行われる。
また C P U 1 1は、 ノイズによる分散値の急激な変化によって状 態の変化を誤認識してしまうこともある。 C P U 1 1は、 このよう な誤認識を防止するために、 図 6に示すように、 分散値と閾値 5 3 との関係を判定し、 連続して所定時間以上、 分散値と閾値 (5 3 との 関係が一定の場合には、 実際に状態変化が生じたとみなしている。 例えば、 C P U 1 1は、 予め所定時問 Tを設定しておき、 時間 T 1 ( < T ) の間だけ分散値が閾値 5 3を越えたときはノイズによる誤 認識と判断し、 時間 T 2 ( > T ) の問に分散値が閾値 (5 3を越えた ときは状態が変化したと正しく認識することができる。 これにより、 ノイズに対して口バス 卜な誤認識機能を実現することができる。 な お、 閾値 (5 3は、 上述した 5 3又は ά 2に相当する。
さらに C P U 1 1は、 常時、 加速度センサ 2 3の分散値を算出し ているが、 必要に応じて回転角速度センサ 3 3の分散値も併せて算 出している。 これにより、 C P U 1 1の処理負担をあまり増大させ ることなく、 認識の口バス ト性を向上させることができる。
具体的には、 加速度代表分散値の変化よりジャィ口代表分散値の 変化の方が顕著な姿勢変化又は動作を検出する場合には、 加速度セ ンサ 2 3だけではなく回転角速度センサ 3 3の検出出力を併用する のが好ましい。 すなわち、 静止/低速運動時や並進運動成分が多い 場合には主に加速度センサ 2 3からの情報が重要であり、 逆に、 高 速運動時や回転運動成分が多い場合には回転角速度センサ 3 3から の情報が重要となる。 したがって、 検出すべき行為が高速運動の場 合や回転運動成分が多い場合には、 回転角速度センサ 3 3からの情 報を併用する時問を多くすればよい。 続いて C P U 1 1は、 ステップ S P 5に進んで、 特定情報が 「地 面行動中」 の特性であるか否かを判定し、 肯定結果を得るとステツ プ S P 6に進み、 当該ロボッ ト装置 1は地面を行動中であると認識 して、 そのまま歩行動作を続けるように第 1の C P Cデバイス 2 0 等の各 C P Cデバイスを制御した後、 ステップ S P 1に戻る。
これに対して C P U 1 1は、 ステップ S P 5において否定結果を 得ると、 ステップ S P 7に進んで特定情報が 「抱き上げられたとき 持ち上げられたとき」 の特性であるか否かを判定し、 肯定結果を得 るとステップ S P 8に進む。 なおこのときロボッ ト装置 1は、 図 7 に示すように、 ユーザに抱きかかえられている状態になっている。 そして C P U 1 1は、 このステップ S P 8において当該ロボッ ト 装置 1が抱き上げられたと認識し、 歩行動作を中止しておとなしく なるように第 1の C P Cデバイス 2 0等の各 C P Cデバイスを制御 した後、 ステップ S P 1に戻る。
これに対して C P U 1 1は、 ステップ S P 7において否定結果を 得ると、 ステップ S P 9に進んで特定情報が 「持ち下ろされたと き」 の特性であるか否かを判定し、 肯定結果を得るとステップ S P 1 0に進み、 否定結果を得るとステップ S P 1に戻る。
そして C P U 1 1は、 ステップ S P 1 0に進んだ場合、 当該ロボ ッ ト装置 1が持ち下ろされたと認識し、 この後、 図 8に示すように、 夕ツチセンサ 4 4等の検出出力から地面に置かれたことも認識する と、 図 9に示すように歩行動作を再開するように第 1の C P Cデバ イス 2 0等の各 C P Cデバイスを制御した後、 ステップ S P 1に戻 る。
ここで、 夕ツチセンサ 4 4は、 例えば、 外部との接触を検出する 接触センサ或いは圧力を感知する感圧センサであり、 地面 (床面) との接触状態を検出している。 このように、 地面との接触状態を検 出する検出手段の検出結果をも参照し、 上述した加速度センサによ る加速度やジャイロセンサからの回転角速度に基づいて抱き上げら れた等のロボッ ト装置の状態を認識する手段に取り得れることで、 より信頼性の高い認識結果を得ることができる。
すなわち、 例えば、 抱き上げられた場合は、 足先が地面から離れ るため、 足先の接触スィ ッチは必ず 0 F Fになっているので、 この 情報を加速度や回転速度の変化と同様に監視することで、 抱き上げ られたことの検出や持ち下ろされたことの検出の能力を向上させる ことができる。
( 2 ) 抱き上げ認識時及び持ち下げ認識時における C P U 1 1の 具体的な処理
ここで C P U 1 1は、 ロボッ ト装置 1が抱き上げられると図 1 0 に示す動作抑制処理手順 R T 2に従ってロボッ ト装置 1の動作を抑 制する。
すなわち C P U 1 1は、 状態認識処理手順 R T 1のステップ S P 8においてロボッ ト装置 1が抱き上げられたと認識すると、 この動 作抑制処理手順 R T 2をステップ S P 2 0において開始し、 続くス テツプ S P 2 1において L S I 1 4内部の対応するサーボ系の回路 や対応する C P Cデバイスを制御することにより、 ロボッ ト装置 1 の各足 2の動きを停止させる (対応する関節機構のァクチユエ一夕 2 5に対する制御ゲインを 「 0」 にする) と共に各足 2の機械的な 拘束を開放させて、 これら足 2を脱力させる。
実際上このロボッ ト装置 1では、 図 1 1 ( A ) に示すように、 各 足 2の各関節機構 6 0がそれぞれァクチユエ一夕 (モ一夕) 2 5の 出力軸に固着されたギアを圧縮コィルばね 6 2の弾性力によって減 速ギア列 6 3に喃み合わせることにより構成されている。 この場合 ァクチユエ一夕 2 5は電磁プランジャ 6 4を駆動することにより図 1 1 ( B ) のように矢印 a方向に移動させることができ、 これによ りギア 6 1 と、 減速ギア列 6 3との嚙み合わせを閲放できるように なされている。
そこで C P U 1 1はステップ S P 2 1において、 各足 2の全関節 機構のァクチユエ一夕 2 5について、 駆動電圧の印加を停止させる 一方、 対応する電磁プランジャ 6 4を駆動させることにより、 ァク チユエ一夕 2 5の静止トルクに起因する各足 2の機械的な拘束を開 放し、 これによりロボッ ト装置 1の全ての足 2を脱力させて、 当該 ロボッ ト装置 1をユーザが抱きかかえ易い状態に変化させる。
続いて C P U 1 1は、 ステップ S P 2 2に進んで L S I 1 4内部 の対応するサ一ボ系の回路を制御することにより首 3 (図 2 ) や尻 尾 4 (図 2 ) の動きを遅く し、 この後ステップ S P 2 3に進んで L S I 1 4内部の対応する回路を制御することにより、 「目」 の役割 を果たす L E D 5 (図 2 ) を消灯させると共にスピーカ 5 4 (図 1 ) からの音声出力 (鳴き声) の音量を絞る。
次いで C P U 1 1は、 ステップ S P 2 4に進んでそのとき保持し ている状態や学習に関する各種パラメ一夕等のデ一夕を P Cカード イン夕一フェース 1 5を介して記憶装置 2 0 0に書き込む。
さらに C P U 1 1は、 続くステップ S P 2 5においてこれ以降の 記憶装 S 2 0 0に対するデータの読書きを禁止し、 この後ステップ S P 2 6に進んでこの動作抑制処理手順 R T 2を終了した後、 状態 認識処理手顺 R T 1のステツプ S Ρ 1に戻る。
一方 C P U 1 1は、 この後口ボッ ト装置 1が持ち下げられると図 1 2に示す行動復帰処理手順 R T 3に従ってロボッ ト装置 1の行動 を復帰する。
すなわち C P U 1 1は、 状態認識処理手順 R Τ 1のステップ S Ρ 1 0においてロボッ ト装置 1が持ち下げられたと認識すると、 この 行動復帰処理手顺 R Τ 3をステップ S Ρ 3 0において開始し、 続く ステツプ S Ρ 3 1において記憶装置 2 0 0に対するデータの読書き の許可を発行する。 また C P U 1 1は、 これと共に対応する C P C デバイスを制御することにより、 各足 2を機械的に拘束 (図 1 1の 電磁ブランジャ 6 4の駆動を停止) する。
次いで C P U 1 1は、 ステップ S Ρ 3 2に進んで L S I 1 4内部 の対応する回路を制御することにより、 スピーカ 5 3 (図 1 ) から 所定パターンの音声を出力し、 「目」 に相当する L E D 5を点灯し 及び/又は尻尾 4を動作させるようにして、 動作が復帰したことを ユーザに知らせる。
そして C P U 1 1は、 続くステップ S Ρ 3 4において必要なデ一 夕を記憶装置 2 0 0から読み出し、 当該デ一夕に基づいて L S I 1 4内部の対応するサーボ系の回路を制御することにより各足 2の動 作を再開させ、 この後ステップ S Ρ 3 5に進んでこの行動復帰処理 R Τ 3を終了した後、 状態認識処理手順 R Τ 1のステツプ S Ρ 1に 戻る。
( 3 ) 本実施の形態の動作及び効果
以上の構成において、 このロボッ ト装置 1では、 加速度センサ 2 3及び/又は回転角速度センサ 3 3により検出された加速度情報及 び/又は回転角速度情報を時系列的に記憶部 1 3に記憶させると共 に、 この加速度情報及び/又は回転角速度情報に基づいて分散値等 の特定情報を算出し、 検出結果に基づいて 己の状態を認識し、 認 識結果に基づいて行動する。
従ってこのロボッ ト装置 1では、 ユーザが当該ロボッ ト装置 1を 抱き上げたり、 それを持ち下ろしたことを当該ロボッ ト装置 1に明 示的に情報として与える必要がない。 そしてこのようにロボッ ト装 置 1 自らが自動認識し得るようにすることによって、 より自然な口 ボッ トと人間のィン夕ラクションを実現することができる。
また周囲の環境や第三者から当該ロボッ ト装置 1に外力が働いた 場合には、 特定情報の変動を認識することができるので、 外力に応 じた反応 (行動、 音声、 音階等の出力) を行うことができ、 知的ェ ン夕一ティメン ト性の高いロボッ ト装置 1を構築することができる。 さらに目標の姿勢や行動を実際に遂行できたか否かについて特定 情報を関することによって判断することができるので、 これを利用 して当該ロボッ ト装置 1の行動の正否を検出することもできる。 またこのロボッ ト装置 1では、 抱き上げられたときには、 各足 2 の動きを停止させるなど当該ロボッ ト装置 1の動作を抑制する一方、 この後持ち下げられたときには各足 2の動きを再開させて行動を復 帰する。
従ってこのロボッ ト装置 1では、 ユーザが当該ロボッ 卜装置 1を 抱き上げたときに当該ロボッ ト装置 1の足 2の関節や足 2と胴体と の間などに指を挟めたり、 又はロボッ ト装置 1の動作に驚いてロボ ッ ト装置 1を自分の足の上に落としたりすることによるユーザの怪 我の発生を防止しながら、 当該ロボッ ト装置 1を抱き上げたユーザ に対して恭順感ゃ親和感な印象を与えて使用感を快適にすることが できる。
さらにこのロボッ ト装歡 1では、 抱き上げられたときには記憶装 置 2 0 0に対するデータの読書きを禁止するため、 例えば記憶装置 2 0 0に対するデータの ϋ%み書き処理時にユーザが当該ロボッ ト装 置 1 を落としたことに起因する記憶装置 2 0 0内のデ一夕の破壊や 記憶装置 2 0 0に対する不正データの書き込み等を未然に防止する ことができる。
以上の構成によれば、 加速度センサ 2 3及び/又は回転角速度セ ンサ 3 3により検出された加速度情報及び/又は回転角速度情報を 時系列的に記憶部 1 3に記憶させると共に、 この加速度情報及び/ 又は回転角速度情報に基づいて分散値等の特定情報を算出し、 検出 結果に基づいて自己の状態を認識し、 認識結果に基づいて行動する ようにしたことにより、 自己の状態変化に応じて行動を制御するよ うにすることができ、 かく して容易に傾斜面の移動や回転運動等の 自らの状況について認識して、 自ら行動することができるロボッ ト 装置を実現できる。
また抱き上げられたときにロボッ ト装置 1の動作を抑制するよう にしたことにより、 抱き上げ時のロボッ ト装置 1の動作に起因する ユーザの怪我の発生を未然に防止することができ、 かく して安全性 及びアミューズメン ト性を向上させ得るロボッ ト装置を実現できる。
( 4 ) 他の実施の形態
なお本発明の上述の実施の形態においては、 ロボッ ト装置 1の各 センサの検出出力の分散値に基づいてロボッ ト装置 1 自身の歩行、 持ち上げ、 持ち下げの 3つの状態を認識するようにした場合につい て述べたが、 本発明はこれに限らず、 例えばその他の行動パターン に対応する分散値やディジタルフィル夕の周波数に特性がある場合 には、 該その他のパターンも同様にして認識するようにしても良 い。
また上述の実施の形態においては、 特定情報の算出として、 分散 値やディジタルフィル夕から出力される周波数特性を用いるように した場合について述べたが、 本発明はこれに限らず、 ロボッ ト装置
1の行動パターンに対応する特性を算出する手法が他に存在すれば、 当該他の手法の特性を用いても良い。
さらに上述の実施の形態においては、 状態認識処理手順 R T 1の ステップ S P 3において分散値を用いる場合について述べたが、 本 発明はこれに限らず、 例えば加速度センサ 2 3及び回転角速度セン サ 3 3の検出出力に対してディジ夕ルフィル夕を用いるようにして も良い。
実際上、 ディジタルフィル夕は、 時系列信号の特定周波数成分の みを取り出すことが可能であり、 適切な周波数を設定することによ つて、 ロボッ ト装置 1の行動中の周波数成分、 持ち上げられたとき の周波数成分、 持ち下ろされた時の周波数成分をそれぞれ分離する ことができる。 周波数の定性的な関係として、 行動中の周波数が最 も高く、 持ち上げられたときの周波数、 持ち下げられたときの周波 数の顺に周波数が低くなる。
そこでディジタルフィル夕を用いたときのこれらの性質を利用し、 分散値を用いた場合と同様に適切な閾値を設定することによって、 ロボッ ト装置 1 自身の状態を認識することができる。
さらに上述の実施の形態においては、 抱き上げられたときには各 足 2の動きを停止させるようにした場合について述べたが、 本発明 はこれに限らず、 抱き上げられたときには例えば伏せの姿勢に各足
2を折り曲げるなど、 その姿勢をユーザが抱き易い姿勢に遷移させ るようにしても良く、 このようにすることによって快適感をより向 上させることができる。
さらに上述の実施の形態においては、 抱き上げられたときには各 足 2の動きを停止させるようにした場合について述べたが、 本発明 はこれに限らず、 例えば本発明をユーザの使用状況に応じて学習し ながら性格を変化させるようなアミュ一ズメン トロボッ 卜に適用す る場合には、 抱き上げられたときにその性格によって行動パ夕一ン を変化させるようにしても良く、 このようにすることによってアミ ユーズメン ト性を向上させることができる。
さらに上述の実施の形態においては、 持ち上げられたときに各足 2の動きを停止するようにした場合について述べたが、 本発明はこ れに限らず、 要は、 本発明を適用するロボッ ト装置の形状及び形態 に応じてユーザに対して怪我を負わせるおそれのある外部に作用す る可動部の動きを停止させるようにすれば良い。
さらに上述の実施の形態においては、 持ち上げられたときに記憶 装置 2 0 0に対するデ一夕の読書きを禁止するようにした場合につ いて述べたが、 本発明はこれに限らず、 例えばビデオカメラ 1 2か らのビデオデ一夕に基づいて、 落下などの記憶装置 2 0 0にデータ の読書きしていると記憶装置 2 0 0内のデ一夕を破壊するおそれが ある状況を検出した場合 (例えば自己の移動方向に崖と思われるェ ッジを検出したなど) にも記憶装置 2 0 0に対するデ一夕の読書き を禁止するようにしても良い。 さらに、 加速度センサ 23によるロボッ ト装置の状態の検出につ いては、 上述の実施の形態において説明したものに限らない。 例え ば、 次のように角速度センサ 23の出力によりロボッ ト装置の状態 を検出することもできる。
加速度センサ 23からの X軸、 Y軸、 Z軸の 3方向についての時 系列信号をそれぞれサンプリングして、 加速度情報として記憶する。 一定時問分の時系列の加速度情報 (以下、 時系列情報という。 ) が記憶されたら、 各軸の時系列情報毎にローパスフィル夕を施し、 低周波数成分を抜き出す。 そして、 時刻 tにおける各軸の低周波数 成分 G i ( i =x, y , ζ) から全体のノルム G (t) を ( 1 ) 式 により算出する。
G(/)= V G ( 2+G>(/)2+Gz( 2 . . . t丄) この G ( t ) は、 ロボッ ト装置 1を抱き上げた際に、 図 13に示 すような特性を示す。 すなわち、 一旦、 G (t ) が通常時 G。の値よ り減少し、 その後、 急激に通常値 Goを上回り、 最後に通常値 G0に 落ち着く。 このような G ( t ) の変化を検出することによりロボッ ト装置 1が抱き上げられたことを検出することができる。 具体的に は、 以下のようにして抱き上げを検出する。
(2) 式で算出される値が、 ある閾値 (第 1の閾値) 以上になる 時刻 T。と、 その時刻 Toの時の G ( t ) (以下、 G !という。 ) とを 先ず記憶する。 ここで、 Goは通常値であり、 通常、 9. 8 (重力加 速度) である。
△ G, = G。— G (t) · · · ( 2 ) そして、 時刻 T。から所定の時問△ T内に、 (3) 式により値を算 出する。 Δ G 2 = G ( t ) - G . · · · ( 3 ) この ( 3 ) 式で与えられる△ G 2がある閾値 (第 2の閾値) 以上に なったとき、 抱き上げられたとして検出することができる。
なお、 このようなにして自己の状態を検出する場合においても、 地面との接触状態を検出する検出手段の検出結 ¾を参照できること はいうまでもない。 産業上の利用可能性
本発叨によれば、 加速度センサ及び/又はジャィ口センサによつ て加速度及び/又は回転角速度を検出し、 検出された信号を時系列 的に時系列信号として記憶し、 記憶された時系列信号から特定情報 を算出し、 算出された特定情報から自己の状態を認識し、 認識され た自己の状態に基づいてロボッ ト装置の行動を制御することによつ て、 容易に傾斜面の移動や回転運動の自らの状況について認識して 自ら行動することができるロボッ ト装置及びその制御方法を実現で ぎる。
またこれに加えて、 認識した自己の状態が持ち上げられた状態で あった場合には、 外部に作用する所定の可動部の動作を停止するよ うにしたことにより、 外部に作用する可動部が動作することに起因 するユーザの怪我の発生を未然に防止することができ、 かく して安 全性を向上させ得るロボッ ト装置及びその制御方法を実現できる。

Claims

詰求の範囲
1 . 加速度センサ及び/又はジャィ口センサによって加速度及び/ 又は回転角速度を検出する検出手段と、
上記検出手段で検出された信号を時系列的に時系列信号として記 憶する記惊手段と、
上記記惊手段に記憶された時系列信 から特定情報を算出する算 出手段と、
上記算出手段で算出された特定情報から自己の状態を認識する認 識手段と、
上記認識手段に認識された上記自己の状態に基づいて行動を出力 する出力手段と
を備えたことを特徴とするロボッ ト装置。
2 . 上記算出手段は、 上記時系列信号から分散値を算出し、 上記認識手段は、 上記算出手段で算出された分散値に基づいて自 己の状態を認識することを特徴とする請求の範囲第 1項記載のロボ ッ ト装置。
3 . 上記算出手段は、 上記時系列信号にディジタルフィル夕をかけ て特定の周波数成分を算出し、
上記認識手段は、 上記算出手段で算出された周波数成分に基づい て 1己の状態を認識することを特徴とする請求の範囲第 1 ¾記載の ロボッ ト装置。
4 . 上記出力手段は、 上記認識手段が認識した上記自己の状態が持 ち上げられた状態であつた場合には、 外部に作用する所定の可動部 の動作を停止させることを特徴とする請求の範囲第 1項記載のロボ ッ ト装置。
5 . 上記出力手段は、 上記認識手段が認識した上記自己の状態が持 ち上げられた状態であつた場合には、 外部記憶手段に対する各種情 報の読み書きを停止することを特徴とする請求の範囲第 1項記載の ロボッ ト装置。
6 . 上記出力手段は、 上記認識手段が認識した上記 己の状態が持 ち上げられた状態であった場合には、 姿勢をユーザが抱きかかえ易 い所定の姿勢に遷移させることを特徴とする請求の範囲第 1頃記載 のロボッ ト装置。
7 . 地面との接触状態を検出する接触状態検出手段を備え、 上記認識手段は、 上記接触状態検出手段の検出結果に基づいて自 己の状態を認識することを特徴とする請求の範囲第 1記載のロボッ ト装置。
8 . 加速度センサ及び/又はジャィ口センサによって加速度及び/ 又は回転角速度を検出する第 1のステツプと、
上記検出により得られた信号を時系列的に時系列信号として記憶 する第 2のステップと、
上記記憶した時系列信号から特定情報を算出する第 3のステップ と、
上記算出した特定情報から自己の状態を認識する第 4のステップ と、
上記認識した自己の状態に基づいてロボッ ト装置の行動を制御す る第 5のステップと
を有することを特徴とするロボッ ト装置の制御方法。
9 . 上記第 3のステップでは、 上記記憶した時系列信号から上記特 定情報として分散値を算出し、
上記第 4のステツプでは、 上記算出した分散値に基づいて上記自 己の状態を認識することを特徴とする詰求の範囲第 8项記載のロボ ッ ト装置の制御方法。
1 0 . 上記第 3のステップでは、 上記記憶した時系列信号にデイジ タルフィル夕をかけることによって上記特定情報として特定の周波 数成分を算出し、
上記第 4のステップでは、 上記算出した周波数成分に基づいて上 記自己の状態を認識することを特徴とする請求の範囲第 8項記載の ロボッ ト装置の制御方法。
1 1 . 上記第 5のステップでは、 上記認識した自己の状態が持ち上 げられた状態であった場合には、 上記ロボッ ト装置の外部に作用す る所定の可動部の動作を停止することを特徴とする請求の範囲第 8 項記載のロボッ ト装置の制御方法。
1 2 . 上記第 5のステップでは、 上記認識した自己の状態が持ち上 げられた状態であつた場合には、 外部記憶手段に対する各種情報の 読み書きを停止することを特徴とする請求の範囲第 8項記載のロボ ッ ト装置の制御方法。
1 3 . 上記第 5のステップでは、 上記認識した自己の状態が持ち上 げられた状態であった場合には、 上記ロボッ ト装置の姿勢をユーザ が抱きかかえ易い所定の姿勢に遷移させることを特徴とする請求の 範囲第 8 ¾記載のロボッ ト装置の制御方法。
1 4 . 上記第 4のステップでは、 地面との接触状態を検出して、 そ の検出結果に基づいて自己の状態を認識することを特徴とする請求 の範囲第 8記載のロボッ ト装置の制御方法。
PCT/JP1999/006588 1998-11-30 1999-11-25 Robot et son procede de commande WO2000032360A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US09/700,984 US6374157B1 (en) 1998-11-30 1999-11-25 Robot device and control method thereof
JP2000585036A JP4517509B2 (ja) 1998-11-30 1999-11-25 ロボット装置及びその制御方法
EP99972961.9A EP1155787B1 (en) 1998-11-30 1999-11-25 Robot device and control method thereof

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP10/340715 1998-11-30
JP34071598 1998-11-30
JP12927799 1999-05-10
JP11/129277 1999-05-10

Publications (1)

Publication Number Publication Date
WO2000032360A1 true WO2000032360A1 (fr) 2000-06-08

Family

ID=26464721

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1999/006588 WO2000032360A1 (fr) 1998-11-30 1999-11-25 Robot et son procede de commande

Country Status (6)

Country Link
US (1) US6374157B1 (ja)
EP (1) EP1155787B1 (ja)
JP (1) JP4517509B2 (ja)
KR (1) KR100610235B1 (ja)
CN (1) CN1127402C (ja)
WO (1) WO2000032360A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002120181A (ja) * 2000-10-11 2002-04-23 Sony Corp ロボット装置及びその制御方法
JP2002166378A (ja) * 2000-11-30 2002-06-11 Sony Corp ロボット装置
JP2007044781A (ja) * 2005-08-08 2007-02-22 Sony Corp ロボット装置及び動作制御方法
CN102591347A (zh) * 2012-01-19 2012-07-18 河海大学常州校区 多足移动平台及其姿态与高度的控制方法
KR101297388B1 (ko) * 2006-06-16 2013-08-19 삼성전자주식회사 위치 보정 기능을 제공하는 이동 장치 및 위치 보정 방법
JP2017102538A (ja) * 2015-11-30 2017-06-08 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム
WO2017199502A1 (ja) * 2016-05-20 2017-11-23 シャープ株式会社 ロボットおよびその制御方法、ならびに制御プログラム
WO2018020889A1 (ja) * 2016-07-27 2018-02-01 パナソニックIpマネジメント株式会社 ロボット
JP2018163614A (ja) * 2017-03-27 2018-10-18 カシオ計算機株式会社 自律移動装置、自律移動方法およびプログラム

Families Citing this family (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6940248B2 (en) * 1996-07-05 2005-09-06 Bose Corporation Motion controlling
US8412377B2 (en) * 2000-01-24 2013-04-02 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US8788092B2 (en) * 2000-01-24 2014-07-22 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US6956348B2 (en) 2004-01-28 2005-10-18 Irobot Corporation Debris sensor for cleaning apparatus
US6690134B1 (en) 2001-01-24 2004-02-10 Irobot Corporation Method and system for robot localization and confinement
US7571511B2 (en) 2002-01-03 2009-08-11 Irobot Corporation Autonomous floor-cleaning robot
US8396592B2 (en) 2001-06-12 2013-03-12 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US7663333B2 (en) 2001-06-12 2010-02-16 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US6507773B2 (en) 2001-06-14 2003-01-14 Sharper Image Corporation Multi-functional robot with remote and video system
JP4689107B2 (ja) * 2001-08-22 2011-05-25 本田技研工業株式会社 自律行動ロボット
US9128486B2 (en) 2002-01-24 2015-09-08 Irobot Corporation Navigational control system for a robotic device
DE60336992D1 (de) * 2002-03-18 2011-06-16 Sony Corp Robotereinrichtung mit steuerverfahren
US8386081B2 (en) 2002-09-13 2013-02-26 Irobot Corporation Navigational control system for a robotic device
US8428778B2 (en) 2002-09-13 2013-04-23 Irobot Corporation Navigational control system for a robotic device
EP1607191A1 (en) * 2003-03-23 2005-12-21 Sony Corporation Robot device and method of controlling the same
US6995536B2 (en) * 2003-04-07 2006-02-07 The Boeing Company Low cost robot manipulator
US7332890B2 (en) 2004-01-21 2008-02-19 Irobot Corporation Autonomous robot auto-docking and energy management systems and methods
US20060020369A1 (en) * 2004-03-11 2006-01-26 Taylor Charles E Robot vacuum cleaner
KR101142564B1 (ko) 2004-06-24 2012-05-24 아이로보트 코퍼레이션 자동 로봇 장치용의 원격 제어 스케줄러 및 방법
US7706917B1 (en) 2004-07-07 2010-04-27 Irobot Corporation Celestial navigation system for an autonomous robot
US8972052B2 (en) 2004-07-07 2015-03-03 Irobot Corporation Celestial navigation system for an autonomous vehicle
US7620476B2 (en) 2005-02-18 2009-11-17 Irobot Corporation Autonomous surface cleaning robot for dry cleaning
US8392021B2 (en) 2005-02-18 2013-03-05 Irobot Corporation Autonomous surface cleaning robot for wet cleaning
DE602006014364D1 (de) 2005-02-18 2010-07-01 Irobot Corp Autonomer oberflächenreinigungsroboter für nass- und trockenreinigung
US8930023B2 (en) 2009-11-06 2015-01-06 Irobot Corporation Localization by learning of wave-signal distributions
KR100657530B1 (ko) * 2005-03-31 2006-12-14 엘지전자 주식회사 자동주행 로봇의 들림감지장치
EP2466411B1 (en) 2005-12-02 2018-10-17 iRobot Corporation Robot system
KR101074937B1 (ko) 2005-12-02 2011-10-19 아이로보트 코퍼레이션 모듈형 로봇
ES2378138T3 (es) 2005-12-02 2012-04-09 Irobot Corporation Movilidad de robot de cubrimiento
ES2706729T3 (es) 2005-12-02 2019-04-01 Irobot Corp Sistema de robot
EP2816434A3 (en) 2005-12-02 2015-01-28 iRobot Corporation Autonomous coverage robot
JP2007233753A (ja) * 2006-03-01 2007-09-13 Fujitsu Ltd 加速度センサを備えた情報処理装置
JP5076057B2 (ja) * 2006-03-23 2012-11-21 新世代株式会社 機能計測装置
EP3031377B1 (en) 2006-05-19 2018-08-01 iRobot Corporation Removing debris from cleaning robots
US8417383B2 (en) 2006-05-31 2013-04-09 Irobot Corporation Detecting robot stasis
JP2008129862A (ja) * 2006-11-21 2008-06-05 Omron Healthcare Co Ltd 体動検出装置
KR100862190B1 (ko) * 2006-11-30 2008-10-09 한국전자통신연구원 로봇의 자세 검출 장치 및 그 방법
KR100843096B1 (ko) * 2006-12-21 2008-07-02 삼성전자주식회사 이동 로봇의 주행 상태 판별 장치 및 방법
EP2574265B1 (en) 2007-05-09 2015-10-14 iRobot Corporation Compact autonomous coverage robot
CN101685308A (zh) * 2008-09-22 2010-03-31 鸿富锦精密工业(深圳)有限公司 机器人状态感知系统
JP4957753B2 (ja) * 2009-06-15 2012-06-20 セイコーエプソン株式会社 ロボット、搬送装置、及び慣性センサーを用いた制御方法
CN104127156B (zh) 2010-02-16 2017-01-11 艾罗伯特公司 真空吸尘器毛刷
CN101913147B (zh) * 2010-07-12 2011-08-17 中国科学院长春光学精密机械与物理研究所 高精度全自动大型转载系统
JP5685842B2 (ja) * 2010-07-12 2015-03-18 セイコーエプソン株式会社 ロボット装置およびロボット装置の制御方法
WO2012099694A1 (en) 2010-12-30 2012-07-26 Irobot Corporation Coverage robot navigation
FR2972132B1 (fr) * 2011-03-02 2014-05-09 Gen Electric Dispositif d'assistance a la manipulation d'un instrument ou outil
DE102011005985B4 (de) * 2011-03-23 2019-01-24 Kuka Roboter Gmbh Roboter, Steuervorrictung für einen Roboter und Verfahren zum Betreiben eines Roboters
CN102508986B (zh) * 2011-08-31 2015-09-30 微迈森惯性技术开发(北京)有限公司 一种级联刚体运动追踪、步行过程追踪方法与系统
JP6305673B2 (ja) * 2011-11-07 2018-04-04 セイコーエプソン株式会社 ロボット制御システム、ロボットシステム及びロボット
JP6111562B2 (ja) * 2012-08-31 2017-04-12 セイコーエプソン株式会社 ロボット
JP5815664B2 (ja) * 2013-12-26 2015-11-17 ファナック株式会社 無線加速度センサを有するロボットシステム
DE102014110083A1 (de) * 2014-07-17 2016-01-21 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines elektromotorisch angetriebenen Gerätes
US9618937B1 (en) 2014-08-25 2017-04-11 Google Inc. Slip detection using robotic limbs
US10081098B1 (en) 2014-08-25 2018-09-25 Boston Dynamics, Inc. Generalized coordinate surrogates for integrated estimation and control
US9387588B1 (en) 2014-08-25 2016-07-12 Google Inc. Handling gait disturbances with asynchronous timing
US9446518B1 (en) * 2014-11-11 2016-09-20 Google Inc. Leg collision avoidance in a robotic device
WO2016091291A1 (en) 2014-12-10 2016-06-16 Aktiebolaget Electrolux Using laser sensor for floor type detection
US9499218B1 (en) 2014-12-30 2016-11-22 Google Inc. Mechanically-timed footsteps for a robotic device
JP6623522B2 (ja) * 2015-01-26 2019-12-25 セイコーエプソン株式会社 ロボット、ロボットシステムおよびサーバー
US11099554B2 (en) * 2015-04-17 2021-08-24 Aktiebolaget Electrolux Robotic cleaning device and a method of controlling the robotic cleaning device
US9594377B1 (en) * 2015-05-12 2017-03-14 Google Inc. Auto-height swing adjustment
US9586316B1 (en) 2015-09-15 2017-03-07 Google Inc. Determination of robotic step path
KR102588486B1 (ko) 2016-03-15 2023-10-11 에이비 엘렉트로룩스 로봇 청소 장치 및 로봇 청소 장치에서의 절벽 검출 실시 방법
US9789919B1 (en) 2016-03-22 2017-10-17 Google Inc. Mitigating sensor noise in legged robots
DE112017003480B4 (de) * 2016-07-11 2021-01-21 Groove X, Inc. Autonom handelnder Roboter
US11474533B2 (en) 2017-06-02 2022-10-18 Aktiebolaget Electrolux Method of detecting a difference in level of a surface in front of a robotic cleaning device
CN109202891B (zh) * 2017-07-05 2020-12-15 广东宝乐机器人股份有限公司 移动机器人、工作表面识别方法及控制方法
EP3687357A1 (en) 2017-09-26 2020-08-05 Aktiebolaget Electrolux Controlling movement of a robotic cleaning device
CN108638095A (zh) * 2018-04-02 2018-10-12 深圳小趴智能科技有限公司 一种机器人运动控制装置及其操作方法
TWI704471B (zh) * 2018-09-27 2020-09-11 仁寶電腦工業股份有限公司 互動式電子裝置及其互動方法
EP3919146A4 (en) 2019-01-31 2022-04-06 Sony Group Corporation ROBOT CONTROL DEVICE, ROBOT CONTROL METHOD AND PROGRAM
CN112603202B (zh) * 2020-12-07 2022-01-11 深圳市银星智能科技股份有限公司 离地检测方法、装置、移动机器人及存储介质
WO2024025244A1 (ko) * 2022-07-27 2024-02-01 삼성전자주식회사 로봇 장치의 위치에 대응되는 모드로 동작하는 로봇 장치 및 그 제어 방법

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05169378A (ja) * 1991-12-20 1993-07-09 Hitachi Ltd 多脚歩行機構の制御装置
JPH05318348A (ja) * 1992-05-19 1993-12-03 Kobe Steel Ltd 可搬式産業用ロボット
JPH07311082A (ja) * 1994-05-20 1995-11-28 Omron Corp 回転機器の異常診断装置
EP0816986A2 (en) * 1996-07-03 1998-01-07 Hitachi, Ltd. Method, apparatus and system for recognizing motions
JPH10113343A (ja) 1996-07-03 1998-05-06 Hitachi Ltd 動作及び行動の認識方法及び装置及びシステム
JPH10149445A (ja) * 1996-11-19 1998-06-02 Image Joho Kagaku Kenkyusho 身体動作解析可視化装置
JPH10217174A (ja) * 1996-07-08 1998-08-18 Sony Corp ロボツト装置
WO1999064208A1 (fr) 1998-06-09 1999-12-16 Sony Corporation Robot et procede de commande de son attitude

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4119900A (en) * 1973-12-21 1978-10-10 Ito Patent-Ag Method and system for the automatic orientation and control of a robot
DE2364002C2 (de) * 1973-12-21 1983-02-24 Frey, Helmut, Dr.jur., 8000 München Orientierungsvorrichtung für ein Gerätesystem, das sich zur Bearbeitung einer Fläche auf dieser bewegt
DE3135117A1 (de) * 1980-09-05 1982-04-01 Mitsubishi Denki K.K., Tokyo Roboterfahrzeug
JPS5748110A (en) * 1980-09-05 1982-03-19 Mitsubishi Electric Corp Unattended running car
JPS5914711A (ja) * 1982-07-13 1984-01-25 株式会社クボタ 無人走行作業車
EP0142594B1 (en) * 1983-10-26 1989-06-28 Automax Kabushiki Kaisha Control system for mobile robot
JPH0650559B2 (ja) * 1985-04-03 1994-06-29 日産自動車株式会社 車両用経路誘導装置
US4817000A (en) * 1986-03-10 1989-03-28 Si Handling Systems, Inc. Automatic guided vehicle system
JPH01180010A (ja) * 1988-01-08 1989-07-18 Sanyo Electric Co Ltd 移動車
JPH042488A (ja) * 1990-04-18 1992-01-07 Kemikaraijingu Kenkyusho:Kk ロボットの異常空間動作検知方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05169378A (ja) * 1991-12-20 1993-07-09 Hitachi Ltd 多脚歩行機構の制御装置
JPH05318348A (ja) * 1992-05-19 1993-12-03 Kobe Steel Ltd 可搬式産業用ロボット
JPH07311082A (ja) * 1994-05-20 1995-11-28 Omron Corp 回転機器の異常診断装置
EP0816986A2 (en) * 1996-07-03 1998-01-07 Hitachi, Ltd. Method, apparatus and system for recognizing motions
JPH10113343A (ja) 1996-07-03 1998-05-06 Hitachi Ltd 動作及び行動の認識方法及び装置及びシステム
JPH10217174A (ja) * 1996-07-08 1998-08-18 Sony Corp ロボツト装置
JPH10149445A (ja) * 1996-11-19 1998-06-02 Image Joho Kagaku Kenkyusho 身体動作解析可視化装置
WO1999064208A1 (fr) 1998-06-09 1999-12-16 Sony Corporation Robot et procede de commande de son attitude

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1155787A4 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4524524B2 (ja) * 2000-10-11 2010-08-18 ソニー株式会社 ロボット装置及びその制御方法
JP2002120181A (ja) * 2000-10-11 2002-04-23 Sony Corp ロボット装置及びその制御方法
JP2002166378A (ja) * 2000-11-30 2002-06-11 Sony Corp ロボット装置
JP2007044781A (ja) * 2005-08-08 2007-02-22 Sony Corp ロボット装置及び動作制御方法
KR101297388B1 (ko) * 2006-06-16 2013-08-19 삼성전자주식회사 위치 보정 기능을 제공하는 이동 장치 및 위치 보정 방법
CN102591347B (zh) * 2012-01-19 2014-07-30 河海大学常州校区 多足移动平台及其姿态与高度的控制方法
CN102591347A (zh) * 2012-01-19 2012-07-18 河海大学常州校区 多足移动平台及其姿态与高度的控制方法
JP2017102538A (ja) * 2015-11-30 2017-06-08 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム
WO2017199502A1 (ja) * 2016-05-20 2017-11-23 シャープ株式会社 ロボットおよびその制御方法、ならびに制御プログラム
JPWO2017199502A1 (ja) * 2016-05-20 2019-01-31 シャープ株式会社 ロボットおよびその制御方法、ならびに制御プログラム
WO2018020889A1 (ja) * 2016-07-27 2018-02-01 パナソニックIpマネジメント株式会社 ロボット
JP2018015211A (ja) * 2016-07-27 2018-02-01 パナソニックIpマネジメント株式会社 ロボット
US10799806B2 (en) 2016-07-27 2020-10-13 Panasonic Intellectual Property Management Co., Ltd. Robot
JP2018163614A (ja) * 2017-03-27 2018-10-18 カシオ計算機株式会社 自律移動装置、自律移動方法およびプログラム
US11054837B2 (en) 2017-03-27 2021-07-06 Casio Computer Co., Ltd. Autonomous mobile apparatus adaptable to change in height, autonomous movement method and non-transitory computer-readable recording medium

Also Published As

Publication number Publication date
EP1155787A1 (en) 2001-11-21
EP1155787B1 (en) 2016-10-05
CN1309597A (zh) 2001-08-22
EP1155787A4 (en) 2010-01-13
KR100610235B1 (ko) 2006-08-09
US6374157B1 (en) 2002-04-16
CN1127402C (zh) 2003-11-12
KR20010025103A (ko) 2001-03-26
JP4517509B2 (ja) 2010-08-04

Similar Documents

Publication Publication Date Title
WO2000032360A1 (fr) Robot et son procede de commande
US6580417B2 (en) Tactile feedback device providing tactile sensations from host commands
JP4281208B2 (ja) ロボット遠隔制御システム
JP2023017880A (ja) 情報処理装置および情報処理方法
Lu A motion control method of intelligent wheelchair based on hand gesture recognition
WO2020158642A1 (ja) ロボットの制御装置、ロボットの制御方法、及びプログラム
KR19990063940A (ko) 가상 환경 조종 장치의 모델링 및 제어
WO2009071919A1 (en) Controller
JP2008192004A (ja) 入力情報処理装置、入力情報処理方法、入力情報処理プログラムおよびこれを記録したコンピュータ読み取り可能な記録媒体
EP1483732A2 (en) System for providing an input signal, device for use in such a system and computer input device
WO2024008217A1 (zh) 仿人钢琴演奏机器人
JP2024023193A (ja) 情報処理装置及び情報処理方法
Nakagawa-Silva et al. A bio-inspired slip detection and reflex-like suppression method for robotic manipulators
CN105945972B (zh) 调整智能交互机器人姿态的方法及智能交互机器人
JP4433273B2 (ja) ロボット装置及びロボット装置の制御方法
KR20180082777A (ko) 노년층을 위한 교감 로봇시스템
Sudheer et al. Voice and Gesture Based Electric-Powered Wheelchair Using ARM
JP2005144612A (ja) ロボットシステム、遠隔操作装置、ロボット装置及びその制御方法
JP2002323900A (ja) ロボット装置、プログラム及び記録媒体
Trivedi et al. Design and implementation of a smart wheelchair
JP2004249393A (ja) ロボット装置及びその制御方法
Balaji et al. Smart phone accelerometer sensor based wireless robot for physically disabled people
US11237639B2 (en) Method and system for electronic communication by persons with disabilities
JP7156300B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2001051970A (ja) ユーザ認識度成長システム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 99808775.0

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

121 Ep: the epo has been informed by wipo that ep was designated in this application
DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
WWE Wipo information: entry into national phase

Ref document number: 09700984

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020007013200

Country of ref document: KR

REEP Request for entry into the european phase

Ref document number: 1999972961

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1999972961

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020007013200

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 1999972961

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 1020007013200

Country of ref document: KR