JP2009174898A - Moving body and environmental information generation method - Google Patents

Moving body and environmental information generation method Download PDF

Info

Publication number
JP2009174898A
JP2009174898A JP2008011386A JP2008011386A JP2009174898A JP 2009174898 A JP2009174898 A JP 2009174898A JP 2008011386 A JP2008011386 A JP 2008011386A JP 2008011386 A JP2008011386 A JP 2008011386A JP 2009174898 A JP2009174898 A JP 2009174898A
Authority
JP
Japan
Prior art keywords
moving
moving body
acceleration
sensor
environmental information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008011386A
Other languages
Japanese (ja)
Inventor
Kazuhiro Shintani
和宏 新谷
Yutaka Takaoka
豊 高岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008011386A priority Critical patent/JP2009174898A/en
Publication of JP2009174898A publication Critical patent/JP2009174898A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To generate accurately peripheral environmental information, without being influenced by vibration or the like generated during movement, concerning a moving body for generating the environmental information, while it is moving. <P>SOLUTION: This moving body is equipped with the moving body, a sensor for acquiring a measured value, showing the relative position of an object existing in the periphery, as a view from the moving body, and an acceleration detection part for detecting the acceleration acting on the moving body. When forming the environmental information, showing the shape or the position of an object existing in a moving domain, based on the measured value acquired by the sensor, the difference of each magnitude between the target acceleration of the moving body, when the sensor performs measurement and the acceleration detected by the acceleration detection part is calculated; the reliability of the measured value acquired by the sensor is determined, based on the calculated difference; and the measured value is corrected based on the determined reliability, and the environmental information is generated, based on the corrected measured value. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、平面などの移動領域内を移動する移動体、および移動体の移動制御に利用可能な環境情報作成方法に関するものである。   The present invention relates to a moving body that moves in a moving region such as a plane, and an environment information creation method that can be used for movement control of the moving body.

近年、建物内部や屋外の広場などといった移動領域内において、人間の操作を要することなく、車輪や脚式歩行などの手段によって自律的に移動を行うような移動体が開発されつつある。   2. Description of the Related Art In recent years, mobile bodies have been developed that move autonomously by means of wheels, legged walking, etc., without requiring human operation in a moving area such as a building interior or an open space.

このような移動体は、移動する領域上の周囲の環境に関するマップを自律的に作成して記憶し、作成したマップ上に移動経路を自律的に作成し、作成した移動経路に沿った移動を行うものである。そして、このような移動体は、マップ情報を作成するためのカメラやセンサなどを備えており、これらのカメラやセンサを用いて移動体自体の周囲の環境情報を用いて連続的に取得する。このように、環境情報を連続的に更新することで、マップ情報上で作成した移動経路上に障害物が存在した場合や、人間が移動経路上を横切った場合においても、これらの障害物や人間を避けるように移動経路を修正することができる。(例えば特許文献1)   Such a moving body autonomously creates and stores a map of the surrounding environment on the moving area, autonomously creates a movement route on the created map, and moves along the created movement route. Is what you do. Such a moving body includes a camera, a sensor, and the like for creating map information, and is continuously acquired using environmental information around the moving body using these cameras and sensors. In this way, by continuously updating the environment information, even if there are obstacles on the travel route created on the map information or when a human crosses the travel route, these obstacles and The travel route can be modified to avoid humans. (For example, Patent Document 1)

このような周囲の環境情報を取得しつつマップ情報を作成する移動体の一例として、例えば特許文献1において開示されているような、超音波センサを用いて環境情報を取得する移動体が知られている。このような移動体は、超音波センサにより得られる障害物の位置などの環境情報をマップ情報上に登録しつつ、エンコーダ積算によるオドメトリや移動領域上に設けられたランドマーク(特徴認識点)に基づく自己位置認識を行うことによって、自己位置と目標地点の間の移動経路を探索する。   As an example of a moving body that creates map information while acquiring surrounding environmental information, a moving body that acquires environmental information using an ultrasonic sensor as disclosed in Patent Document 1, for example, is known. ing. Such a moving body registers environmental information such as the position of an obstacle obtained by an ultrasonic sensor on map information, and uses odometry by encoder integration and landmarks (feature recognition points) provided on a moving area. By performing self-position recognition based on this, a movement route between the self-position and the target point is searched.

しかしながら、このような移動体においては、超音波センサにより得られる移動領域のマップの精度が十分でないため、実環境に近い高精度なマップ情報を作成することが困難である。そのため、例えば特許文献2に記載のように、レーザ光を照射し、そのレーザ光が対象物で反射するまでの時間を計測することで、対象物までの距離を算出する、いわゆるtime of flightの原理を用いたレーザレンジファインダ(LRF)のような高精度のセンサを用いるような技術が知られている。このようなレーザレンジファインダは、レーザ光の反射により距離を計測するセンサであり、移動体本体の周囲に存在する物体と、移動体本体との距離を測定することで、移動体本体の周囲に存在する物体の形状や移動体本体に対する相対的な位置関係を認識することが可能となる。   However, in such a moving body, since the accuracy of the map of the moving region obtained by the ultrasonic sensor is not sufficient, it is difficult to create highly accurate map information close to the actual environment. Therefore, for example, as described in Patent Document 2, the distance to the target is calculated by irradiating the laser beam and measuring the time until the laser beam is reflected by the target, so-called time of flight A technique using a high-precision sensor such as a laser range finder (LRF) using the principle is known. Such a laser range finder is a sensor that measures the distance by reflection of laser light. By measuring the distance between an object existing around the moving body and the moving body, the surroundings of the moving body can be measured. It is possible to recognize the shape of an existing object and the relative positional relationship with respect to the moving body.

特開2005−211442号公報JP 2005-211142 A 特開2005−221012号公報JP 2005-221012 A

しかしながら、このような移動体は、移動中に比較的大きな振動が生じる場合が多く、その際に移動体本体に取り付けられたセンサも併せて振動してしまうため、周囲の物体の形状や移動体本体との相対的な位置関係が精度よく認識できない場合がある。特に、移動領域の平面検出に大きな誤差が含まれてしまうと、脚式移動型や車輪移動型の移動体においては、正確な環境情報を取得することができず、適切な移動動作が行えなくなる可能性が生じる。   However, such a moving body often generates relatively large vibration during movement, and the sensor attached to the moving body main body also vibrates at that time, so the shape of the surrounding object and the moving body In some cases, the relative positional relationship with the main body cannot be accurately recognized. In particular, if a large error is included in the plane detection of the moving area, accurate environmental information cannot be obtained in a legged moving type or wheel moving type moving body, and an appropriate moving operation cannot be performed. A possibility arises.

本発明は、このような問題を解決するためになされたものであり、移動中に生じる振動等の影響を受けずに周囲の環境情報を正確に作成可能な移動体、および移動体の制御等に利用可能な環境情報作成方法を提供することを目的とする。   The present invention has been made to solve such a problem, and a movable body capable of accurately creating surrounding environmental information without being affected by vibrations or the like generated during movement, and control of the movable body, etc. The purpose is to provide a method for creating environmental information that can be used in the future.

本発明にかかる移動体は、移動体本体と、周囲に存在する物体の前記移動体本体からみた相対位置を示す計測値を取得するセンサと、前記移動体本体に作用する加速度を検出する加速度検出部とを備え、前記センサの取得した計測値に基づいて、移動領域に存在する物体の形状や位置を示す環境情報を作成する移動体であって、前記センサが計測を行ったときの移動体本体の目標加速度と、前記加速度検出部により検出された加速度との大きさとの差を算出し、算出した差に基づいてセンサにより得られた計測値の信頼性を決定するとともに、その決定された信頼性に基づいて前記計測値を修正し、修正後の計測値に基づいて環境情報を作成することを特徴とするものである。   A moving body according to the present invention includes a moving body, a sensor that acquires a measurement value indicating a relative position of an object existing around the moving body, and acceleration detection that detects acceleration acting on the moving body. A moving body that creates environmental information indicating the shape and position of an object existing in a moving area based on the measurement value acquired by the sensor, and the moving body when the sensor performs measurement The difference between the target acceleration of the main body and the magnitude of the acceleration detected by the acceleration detection unit is calculated, and the reliability of the measurement value obtained by the sensor is determined based on the calculated difference, and the determined The measurement value is corrected based on the reliability, and the environment information is created based on the corrected measurement value.

上述のような移動体によれば、移動体本体に強い衝撃等が加えられ、振動などが生じた場合に、前記センサにより得た計測値の信頼性を考慮し、環境情報を作成することにより、振動などが生じていない場合の計測値を主として環境情報を作成することができる。したがって、移動中に生じた振動が、移動中に取得する環境情報に対して与える影響が小さくなる。   According to the mobile body as described above, when a strong impact or the like is applied to the mobile body and vibrations or the like occur, the environmental information is created in consideration of the reliability of the measurement value obtained by the sensor. Environmental information can be created mainly from the measured values when no vibration or the like occurs. Accordingly, the influence of vibration generated during movement on the environmental information acquired during movement is reduced.

また、このような移動体においては、前記センサが計測を行った際の移動体本体の目標加速度と、加速度検出部により検出された加速度との差が所定の閾値を超える場合に、そのセンサにより得られた計測値を用いずに環境情報を作成するようにしてもよい。この場合、一定以上の大きさ(加速度)による振動などの影響を受けることなく、移動体本体の周囲に存在する環境情報を作成することができる。   Further, in such a moving body, when the difference between the target acceleration of the moving body when the sensor performs measurement and the acceleration detected by the acceleration detecting unit exceeds a predetermined threshold, the sensor The environmental information may be created without using the obtained measurement value. In this case, it is possible to create environment information existing around the mobile body without being affected by vibrations caused by a certain size (acceleration) or more.

また、このような環境情報としては、移動体本体の移動する領域上に存在する物体の形状および位置を3次元的に表すマップ情報を含むことが好ましい。すなわち、移動体本体の周囲に存在する物体の、前記移動体本体からみた相対位置を表す情報として、それらの物体の形状や位置を3次元的に表すことによって、障害物の認識や自己位置の認識等を容易に行うことが可能となる。   Moreover, it is preferable that such environmental information includes map information that three-dimensionally represents the shape and position of an object present on the area where the mobile body moves. That is, as information representing the relative positions of the objects present around the mobile body viewed from the mobile body, the shape and position of the objects are three-dimensionally represented, so that obstacle recognition and self-location Recognition and the like can be easily performed.

また、前記センサとしては、周囲に存在する物体が、移動体本体からどれだけ離れた位置に存在するかを計測する距離計測部であることが好ましい。すなわち、前述のような、レーザ光を照射し、そのレーザ光が対象物で反射するまでの時間を計測することで、対象物までの距離を算出するレーザレンジファインダ(LRF)のような高精度のセンサを用いると、より正確な環境情報を作成することが可能となる。このようなレーザレンジファインダを用いて、移動体本体の周囲に存在する物体と、移動体本体との距離を測定することで、前述のような、移動体本体の移動する領域上に存在する物体の形状および位置を3次元的に表すマップ情報を容易に作成することが可能となる。また、距離計測部としては、このようなレーザレンジファインダなどのセンサだけではなく、超音波を照射し、照射した超音波の反射に基づいて環境情報を取得する超音波センサであってもよい。このような超音波センサは、比較的広域な領域を同時にセンシングできるとともに、ある程度の精度が得られるため、移動体の移動領域のマップ情報を得るセンサとして、好適に用いられる。   Moreover, it is preferable that the sensor is a distance measuring unit that measures how far away an object existing in the vicinity is from the moving body. That is, as described above, high accuracy such as a laser range finder (LRF) that calculates the distance to an object by measuring the time until the laser beam is irradiated and reflected by the object. If this sensor is used, more accurate environmental information can be created. By using such a laser range finder, by measuring the distance between the object existing around the moving body and the moving body, the object existing on the moving area of the moving body as described above It is possible to easily create map information that three-dimensionally represents the shape and position of each. The distance measurement unit may be not only a sensor such as a laser range finder, but also an ultrasonic sensor that irradiates ultrasonic waves and acquires environmental information based on reflection of the irradiated ultrasonic waves. Such an ultrasonic sensor is preferably used as a sensor for obtaining map information of a moving area of a moving body because it can sense a relatively wide area at the same time and obtain a certain degree of accuracy.

また、このような移動体は、操作者が搭乗することにより移動する搭乗型の移動体であってもよいが、作成された環境情報に基づいて自律的に移動経路を作成し、作成した移動経路に基づいて自律的に移動動作を行うような自律移動型の移動体であってもよい。このような自律移動型の移動体の場合、作成する環境情報の精度が向上しているため、段差などの移動上の障害物を適切に回避した移動経路を確実に作成することができる。   In addition, such a moving body may be a boarding-type moving body that moves when the operator is boarded, but it automatically creates a movement route based on the created environment information and creates the created movement. It may be an autonomously moving type mobile body that autonomously moves based on a route. In the case of such an autonomous moving type moving body, since the accuracy of the environmental information to be created is improved, it is possible to reliably create a moving route that appropriately avoids obstacles such as steps.

なお、移動体本体の移動する領域としては、特に限定されるものではないが、このような移動領域として、床面などの平面である場合に本発明は好適に用いることが可能となる。この場合、移動領域としての平面の形状を環境情報として取得する。このようにすると、移動体本体が移動を行う際に、移動する領域の表面形状を考慮した移動を行うことが可能となる。   In addition, although it does not specifically limit as an area | region to which a mobile body main body moves, When this movement area | region is planes, such as a floor surface, this invention can be used suitably. In this case, the shape of the plane as the movement area is acquired as environment information. If it does in this way, when a movable body main body will move, it will become possible to perform the movement which considered the surface shape of the field to move.

また、前述のような平面上を移動する移動体本体の例としては、作成された環境情報から歩容データを取得し、取得した歩容データに従って移動動作を行う、例えば2足歩行型の移動体などが上げられる。このような移動体本体の場合、移動領域としての平面上に存在する凹凸を正確に認識することで、脚部を移動させる位置を適切に選択することができるため、安定した歩行動作を行うことが可能となる。   In addition, as an example of the moving body that moves on the plane as described above, gait data is acquired from the created environment information, and a moving operation is performed according to the acquired gait data, for example, biped walking type movement The body is raised. In the case of such a moving body, it is possible to appropriately select the position to move the leg by accurately recognizing the unevenness present on the plane as the moving area, so that a stable walking motion is performed. Is possible.

また、前記移動体本体が、前記平面上に接触する車輪を駆動して移動する車輪駆動型の移動体である場合においても、移動領域としての平面上に存在する凹凸や障害物などを避けるように移動経路を作成することができるため、同じく安定した移動動作を行うことが可能となる。   Further, even when the mobile body is a wheel drive type mobile body that moves by driving a wheel that is in contact with the plane, so as to avoid irregularities or obstacles existing on the plane as a moving area. Therefore, it is possible to perform a stable movement operation.

また、このような移動体は、移動する領域内において自己位置を認識する機能を備えていることが好ましい。例えば、移動領域における周囲の環境を視覚的に認識するカメラをさらに備え、移動領域内において特定の場所に設けられたランドマークを前記カメラにより視覚的に認識することで自己位置を算出する機能を備えていると、より好ましい。この場合、ランドマークにより移動領域内における自己位置の認識に、作成した周囲の環境情報を加えることで、周囲の情報をより正確に認識することが可能となる。例えば、予め移動領域内における障害物(壁や家具など)が設置されている場合、その移動領域内においてこれらの障害物を認識した際に、これらの障害物との相対的な位置関係から自己位置を正確に求めることができる。また、これらの障害物以外の物体を認識した場合は、この物体が新たに設置された障害物もしくは人間などの一時的に存在する移動対象であるといった判別を行うことも可能となる。   Moreover, it is preferable that such a moving body has a function of recognizing its own position in the moving area. For example, the camera further includes a camera that visually recognizes the surrounding environment in the moving area, and has a function of calculating a self-position by visually recognizing a landmark provided at a specific place in the moving area. It is more preferable if it is provided. In this case, it is possible to recognize the surrounding information more accurately by adding the created surrounding environment information to the recognition of the self-position within the moving region by the landmark. For example, when obstacles (walls, furniture, etc.) are installed in advance in the moving area, when these obstacles are recognized in the moving area, the self is determined from the relative positional relationship with these obstacles. The position can be determined accurately. Further, when an object other than these obstacles is recognized, it is possible to determine that the object is a newly installed obstacle or a temporarily existing moving target such as a human.

なお、移動体の自己位置を認識する手段としては、これに限られるものではなく、移動体の外部に設けられたGPS等の設備から送信される位置情報を受信することで、移動体の自己位置を取得するものや、移動領域内において移動した方向および距離から自己位置を算出するものであってもよい。このような自己位置を認識する手段としては、例えば移動体が車輪の回転駆動により移動するものである場合は、移動する際に得られる車輪の回転数や回転方向、車輪の向き等に基づいて、移動した地点の位置を算出する、いわゆるエンコーダ積算によるオドメトリ法などが用いられる。   Note that the means for recognizing the self position of the mobile body is not limited to this, and by receiving position information transmitted from equipment such as GPS provided outside the mobile body, the mobile body's self position can be obtained. The position may be acquired, or the self position may be calculated from the direction and distance moved in the moving area. As a means for recognizing such a self-position, for example, when the moving body is moved by rotational driving of the wheel, it is based on the rotational speed and rotational direction of the wheel obtained when moving, the direction of the wheel, etc. The so-called encoder integration based odometry method for calculating the position of the moved point is used.

また本発明は、移動体の制御等に利用可能な環境情報作成方法をも提供するものであり、この環境情報作成方法は、周囲に存在する物体の、移動体からみた相対位置を示す計測値を取得し、取得した計測値に基づいて移動体の周囲における環境情報を作成するものであって、前記相対位置の計測時における加速度を検出し、検出された加速度の大きさと、目標加速度との差を算出し、算出した差の大きさに基づいて計測された相対位置の信頼性を決定するとともに、決定した信頼性に基づいて取得した計測値を修正し、修正後の計測値に基づいて環境情報を作成することを特徴としている。   The present invention also provides a method for creating environmental information that can be used for control of a moving body. This environmental information creating method is a measurement value that indicates a relative position of an object existing in the vicinity as viewed from a moving body. And creating environmental information around the moving object based on the acquired measurement value, detecting acceleration at the time of measuring the relative position, and detecting the magnitude of the detected acceleration and the target acceleration. Calculate the difference, determine the reliability of the measured relative position based on the calculated magnitude of the difference, modify the measured value acquired based on the determined reliability, and based on the corrected measurement value It is characterized by creating environmental information.

上述のような環境情報作成方法によれば、移動体に強い衝撃等が加えられ、振動などが生じた場合に、前記センサにより得た計測値の信頼性を考慮し、環境情報を作成することにより、振動などが生じていない場合の計測値を主として環境情報を作成することができる。したがって、移動体の移動中に生じた振動が、移動中に取得する環境情報に対して与える影響が小さくなる。   According to the environmental information creation method as described above, when a strong impact or the like is applied to the moving body and vibration occurs, the environmental information is created in consideration of the reliability of the measurement value obtained by the sensor. Thus, it is possible to create environment information mainly using measurement values when no vibration is generated. Therefore, the influence that the vibration generated during the movement of the moving body has on the environmental information acquired during the movement is reduced.

なお、このような環境情報作成方法を利用する移動体としては、必ずしも自律的に移動するものに限定されず、人が搭乗し、移動する方向や速度を操作により制御するものについてもよい。すなわち、このような環境情報作成方法を利用することによって、移動体の周囲の環境情報が正確に作成できるため、操作者による操作または自律的な動作により適切な移動を行うことが可能となる。   In addition, as a moving body using such an environment information creation method, it is not necessarily limited to the thing which moves autonomously, The thing which a person boarded and controls the direction and speed to move by operation may be used. In other words, by using such an environment information creation method, environment information around the moving body can be created accurately, so that appropriate movement can be performed by an operation by an operator or an autonomous operation.

以上、説明したように、本発明によると、移動中に生じる振動等の影響を受けずに周囲の環境情報を正確に作成可能な移動体、および移動体の制御等に利用可能な環境情報作成方法を提供することができる。   As described above, according to the present invention, a mobile body that can accurately create surrounding environmental information without being affected by vibrations and the like generated during movement, and environmental information creation that can be used for control of the mobile body, etc. A method can be provided.

発明の実施の形態1.
以下に、図1から図8を参照しつつ本発明の実施の形態1にかかる移動体(以下、単に移動体という)について説明する。この実施の形態においては、脚式歩行型の移動体を操縦する操縦者が移動体に搭乗し、操縦者自身の移動手段として用いる例を示すものとする。
Embodiment 1 of the Invention
Hereinafter, a moving body according to a first embodiment of the present invention (hereinafter simply referred to as a moving body) will be described with reference to FIGS. 1 to 8. In this embodiment, an example is shown in which a driver who controls a legged walking type moving body gets on the moving body and uses it as a moving means of the driver himself.

図1は、移動体10を側方(移動体の移動する方向を向いて右方向)から見た様子を概略的に表す概略図であり、移動体10に操縦者75が搭乗している様子を表している。そして図2は、図1に示す移動体10を後方から見た様子を表している。なお、図1および図2においては、説明の便宜上、移動体10が進行する向き(前後方向)をx軸、移動体10が進行する方向について水平方向に直交する向き(左右方向)をy軸、移動体の鉛直方向に延びる向き(上下方向)をz軸とし、これらの3軸からなる座標系を用いて説明する。   FIG. 1 is a schematic view schematically showing a state in which the mobile body 10 is viewed from the side (rightward when facing the direction in which the mobile body moves). A state in which the pilot 75 is boarding the mobile body 10. Represents. FIG. 2 shows a state in which the moving body 10 shown in FIG. 1 is viewed from the rear. In FIG. 1 and FIG. 2, for convenience of explanation, the direction in which the moving body 10 travels (front-rear direction) is the x-axis, and the direction in which the moving body 10 travels is perpendicular to the horizontal direction (left-right direction). The direction (vertical direction) extending in the vertical direction of the moving body is defined as the z-axis, and a description will be given using a coordinate system including these three axes.

図1に示すように、移動体10は、操縦者75が搭乗する移動体本体としての搭乗部100と、この搭乗部100に結合された腰部64と、腰部64に対して回動自在に固定される脚部12と、を備えた2足歩行型のロボットであり、操縦者75の操作によってその移動が制御されるものである。以下、詳細に説明する。   As shown in FIG. 1, the moving body 10 is fixed to the riding section 100 as a moving body on which the pilot 75 rides, the waist section 64 coupled to the riding section 100, and the waist section 64 so as to be rotatable. The leg 12 is a biped walking robot, and the movement of the robot is controlled by the operation of the operator 75. This will be described in detail below.

2足歩行を行うための脚部12は、右脚14と左脚15から構成されている。詳細には、右脚14は右股関節16、右上腿18、右膝関節20、右下腿22、右足首関節24、右足先26を備え、同様に、左脚15は左股関節13、左上腿17、左膝関節25、左下腿19、左足首関節21、左足先23を備えている。右脚14と左脚15とはほぼ同様の構成を備えたものであるため、右脚14についてのみの説明を行い、左脚15についての説明は省略する。   The leg 12 for bipedal walking is composed of a right leg 14 and a left leg 15. Specifically, the right leg 14 includes a right hip joint 16, an upper right thigh 18, a right knee joint 20, a right lower thigh 22, a right ankle joint 24, and a right foot tip 26. Similarly, the left leg 15 includes a left hip joint 13 and a left upper thigh 17. A left knee joint 25, a left lower leg 19, a left ankle joint 21, and a left foot tip 23. Since the right leg 14 and the left leg 15 have substantially the same configuration, only the right leg 14 will be described, and the description of the left leg 15 will be omitted.

図1および図2に示すように、右脚14は、右股関節16、股ヨーク28、股クロスシャフト30、股x軸回り駆動機構32、股y軸回り駆動機構33、股z軸回り駆動機構34等を備えている。股ヨーク28は、下方に向かって開いた略コ字状に形成されている。図3に示すように、股クロスシャフト30は、十字状に形成され、股ヨーク28と右上腿18は、股クロスシャフト30を介して接続されている。また、股クロスシャフト30は、股ヨーク28と右上腿18に対して回転可能に構成されており、その結果、右上腿18は、股ヨーク28に対して、x軸回りとy軸回りの角度が可変となるように構成されている。   As shown in FIGS. 1 and 2, the right leg 14 includes a right hip joint 16, a crotch yoke 28, a crotch cross shaft 30, a crotch x-axis rotation drive mechanism 32, a crotch y-axis rotation drive mechanism 33, and a crotch z-axis rotation drive mechanism. 34 etc. are provided. The crotch yoke 28 is formed in a substantially U shape that opens downward. As shown in FIG. 3, the crotch cross shaft 30 is formed in a cross shape, and the crotch yoke 28 and the upper right thigh 18 are connected via the crotch cross shaft 30. Further, the crotch cross shaft 30 is configured to be rotatable with respect to the crotch yoke 28 and the upper right thigh 18, and as a result, the upper right thigh 18 has an angle about the x axis and the y axis with respect to the crotch yoke 28. Is configured to be variable.

股x軸回り駆動機構32は、股x軸モータ40、股x軸モータ側プーリ38、股関節側x軸プーリ43、ベルト39を備えている。股x軸モータ40は、ヨーク28に固定されている。股x軸モータ側プーリ38は、股x軸モータ40の駆動軸40aに取付けられている。股関節側x軸プーリ43は、股クロスシャフト30に固定されている。ベルト39は、股x軸モータ側プーリ38と股関節側x軸プーリ43に巻付けられている。股x軸モータ40が回転して股x軸モータ側プーリ38が回転すると、ベルト39を介して股関節側x軸プーリ43も回転する。股関節側x軸プーリ43が回転すると、それに固定されている股クロスシャフト30のx軸回りの角度が変化する。このため、右股関節16のx軸回りの関節角が変化する。股x軸モータ40を正転したり逆転したりすることにより、右上腿18が右側に持ち上げられたり、左側に持ち上げられたりする。   The crotch x-axis rotation drive mechanism 32 includes a crotch x-axis motor 40, a crotch x-axis motor side pulley 38, a hip joint side x-axis pulley 43, and a belt 39. The crotch x-axis motor 40 is fixed to the yoke 28. The crotch x-axis motor side pulley 38 is attached to the drive shaft 40 a of the crotch x-axis motor 40. The hip joint side x-axis pulley 43 is fixed to the crotch cross shaft 30. The belt 39 is wound around the crotch x-axis motor side pulley 38 and the hip joint side x-axis pulley 43. When the crotch x-axis motor 40 rotates and the crotch x-axis motor side pulley 38 rotates, the hip joint side x-axis pulley 43 also rotates via the belt 39. When the hip joint side x-axis pulley 43 rotates, the angle around the x axis of the hip cross shaft 30 fixed thereto changes. For this reason, the joint angle around the x-axis of the right hip joint 16 changes. By rotating the crotch x-axis motor 40 forward or backward, the upper right thigh 18 is lifted to the right or lifted to the left.

股y軸回り駆動機構33は、股y軸モータ46、股y軸モータ側プーリ49、股関節側y軸プーリ50、ベルト52を備えている。股y軸モータ46は右上腿18に固定されるとともに、股y軸モータ側プーリ49は股y軸モータ46の駆動軸に取付けられている。また、股関節側y軸プーリ50は、股クロスシャフト30に固定されており、ベルト52は、股y軸モータ側プーリ49と股関節側y軸プーリ50に巻付けられている。このような構成によって、股y軸モータ46が回転すると、股y軸モータ側プーリ49が回転し、股y軸モータ側プーリ49が回転すると、ベルト52を介して股関節側y軸プーリ50が回転する。さらに、股関節側y軸プーリ50の回転にともなって、股クロスシャフト30のy軸回りの角度、すなわち、右股関節16のy軸回りの関節角を変化させることができる。このように、股y軸モータ46を正転したり逆転したりすることにより、右上腿18を右股関節16回りに前方側に持ち上げたり、後方側に持ち上げたりすることができる。   The crotch y-axis rotation drive mechanism 33 includes a crotch y-axis motor 46, a crotch y-axis motor side pulley 49, a hip joint side y-axis pulley 50, and a belt 52. The crotch y-axis motor 46 is fixed to the upper right thigh 18, and the crotch y-axis motor side pulley 49 is attached to the drive shaft of the crotch y-axis motor 46. The hip joint side y-axis pulley 50 is fixed to the hip cross shaft 30, and the belt 52 is wound around the hip y axis motor side pulley 49 and the hip joint side y axis pulley 50. With such a configuration, when the crotch y-axis motor 46 rotates, the crotch y-axis motor side pulley 49 rotates, and when the crotch y-axis motor side pulley 49 rotates, the hip joint-side y-axis pulley 50 rotates via the belt 52. To do. Further, as the hip joint side y-axis pulley 50 rotates, the angle of the hip cross shaft 30 around the y axis, that is, the joint angle of the right hip joint 16 around the y axis can be changed. Thus, by rotating the crotch y-axis motor 46 forward or backward, the right upper thigh 18 can be lifted forward or backward about the right hip joint 16.

また、図3に詳細に示すように、股z軸回り駆動機構34は、股z軸モータ54、股z軸モータ側プーリ56、股関節側z軸プーリ58、ベルト60等を備えている。股z軸モータ54はブラケット62を介して腰部64に固定されている。詳しくは省略するが、腰部64は、座席部100と結合されている。股z軸モータ側プーリ56は、股z軸モータ54の駆動軸に取付けられている。股関節側z軸プーリ58は、シャフト66によって股ヨーク28と連結されている。このため、股ヨーク28は、股関節側z軸プーリ58とともにz軸回りに回転する。シャフト66は、腰部64内に設けられているベアリング(図示省略)によって、回転可能に支持されている。ベルト60は、股z軸モータ側プーリ56と股関節側z軸プーリ58に巻付けられている。股z軸モータ54が回転すると、股z軸モータ側プーリ56が回転する。股z軸モータ側プーリ56が回転すると、ベルト52を介して股関節側z軸プーリ58が回転する。股関節側z軸プーリ58の回転にともなって股ヨーク28は回転し、それとともに右股関節16のz軸回りの関節角が変化する。股z軸モータ54が正転したり逆転したりすると、右股関節16のz軸回りの関節角が一方向に変化したり、他方向に変化したりする。右股関節16のz軸回りの関節角が一方向に変化したり、他方向に変化したりすると、右脚14が内股になったり、外股になったりする。   Further, as shown in detail in FIG. 3, the crotch z-axis rotation drive mechanism 34 includes a crotch z-axis motor 54, a crotch z-axis motor side pulley 56, a hip joint side z-axis pulley 58, a belt 60, and the like. The crotch z-axis motor 54 is fixed to the waist portion 64 via a bracket 62. Although not described in detail, the waist portion 64 is coupled to the seat portion 100. The crotch z-axis motor side pulley 56 is attached to the drive shaft of the crotch z-axis motor 54. The hip joint side z-axis pulley 58 is connected to the crotch yoke 28 by a shaft 66. For this reason, the crotch yoke 28 rotates around the z axis together with the hip joint side z axis pulley 58. The shaft 66 is rotatably supported by a bearing (not shown) provided in the waist portion 64. The belt 60 is wound around the crotch z-axis motor side pulley 56 and the hip joint side z-axis pulley 58. When the crotch z-axis motor 54 rotates, the crotch z-axis motor side pulley 56 rotates. When the hip z-axis motor side pulley 56 rotates, the hip joint side z-axis pulley 58 rotates via the belt 52. The hip yoke 28 rotates with the rotation of the hip joint side z-axis pulley 58, and the joint angle of the right hip joint 16 about the z axis changes. When the crotch z-axis motor 54 rotates forward or backward, the joint angle around the z-axis of the right hip joint 16 changes in one direction or changes in the other direction. If the joint angle around the z-axis of the right hip joint 16 changes in one direction or changes in the other direction, the right leg 14 becomes an inner thigh or an outer thigh.

右膝関節20は、シャフト70と膝関節駆動機構72を備えている。シャフト70は、右上腿18と右下腿22をy軸回りに回転可能に接続している。膝関節駆動機構72は、膝モータ74、膝モータ側プーリ78、膝関節側プーリ76、ベルト79を有している。膝モータ74は、右上腿18に固定されている。膝モータ側プーリ78は、膝モータ74の駆動軸に取付けられている。膝関節側プーリ76は、右下腿22に固定されている。ベルト79は、膝モータ側プーリ78と膝関節側プーリ76に巻付けられている。膝モータ74が回転すると、膝モータ側プーリ78が回転する。膝モータ側プーリ78が回転すると、ベルト79を介して膝関節側プーリ76が回転する。膝関節側プーリ76が回転すると、右膝関節20のy軸回りの関節角が変化する。このように、膝モータ74を正転したり逆転したりすることにより、右下腿22を右膝関節20回りに前方側に持ち上げたり、後方側に持ち上げたりすることができる。   The right knee joint 20 includes a shaft 70 and a knee joint drive mechanism 72. The shaft 70 connects the upper right thigh 18 and the right lower thigh 22 so as to be rotatable about the y axis. The knee joint drive mechanism 72 includes a knee motor 74, a knee motor side pulley 78, a knee joint side pulley 76, and a belt 79. The knee motor 74 is fixed to the upper right thigh 18. The knee motor side pulley 78 is attached to the drive shaft of the knee motor 74. The knee joint side pulley 76 is fixed to the right lower leg 22. The belt 79 is wound around the knee motor side pulley 78 and the knee joint side pulley 76. When the knee motor 74 rotates, the knee motor side pulley 78 rotates. When the knee motor side pulley 78 rotates, the knee joint side pulley 76 rotates via the belt 79. When the knee joint side pulley 76 rotates, the joint angle around the y axis of the right knee joint 20 changes. Thus, by rotating the knee motor 74 forward or backward, the right lower leg 22 can be lifted forward or backward about the right knee joint 20.

なお、右下腿22を右膝関節20回りに前方側に持ち上げると、右上腿18と右下腿22は前方側に向かって開いた状態(右上腿18の延長線よりも前方側に、右下腿22が右膝関節20回りに回転した状態)、いわゆる「鳥足状態」をとることができる。なお、本実施の形態では、移動体10としてこのような「鳥足状態」を取り得るものを例示しているが、本発明はこれに限られたものではなく、人間のように、右上腿18と右下腿22が後方側に向かって開いた状態(右上腿18の延長線よりも後方側に、右下腿22が右膝関節20回りに回転した状態)を取り得るものであってもよい。   When the right lower leg 22 is lifted forward around the right knee joint 20, the upper right thigh 18 and the right lower leg 22 are opened toward the front side (the front side of the extension line of the upper right thigh 18 and the right lower leg 22 In the state of rotating around the right knee joint 20), the so-called "bird leg state". In the present embodiment, the moving body 10 is illustrated as one that can take such a “bird's foot state”, but the present invention is not limited to this, and the upper right thigh, like a human being, is not limited thereto. 18 and a state where the right lower leg 22 is open toward the rear side (a state where the right lower leg 22 is rotated around the right knee joint 20 on the rear side with respect to the extension line of the upper right thigh 18). .

右足首関節24は、足首ヨーク80、足首クロスシャフト82、足首x軸回り駆動機構83、足首y軸回り駆動機構84を備えている。足首ヨーク80は、上方に向かって開いた略コ字状に形成されている。足首クロスシャフト82は、股クロスシャフト30と同様に十字状に形成されている。足首ヨーク80と右下腿22は、足首クロスシャフト82を介して接続されている。足首ヨーク80には、右足先26が固定されている。このように右下腿22と右足先26が右足首関節24を介して接続されているので、右足先26は右下腿22に対して、x軸回りとy軸回りの角度が可変となる。   The right ankle joint 24 includes an ankle yoke 80, an ankle cross shaft 82, an ankle x-axis rotation drive mechanism 83, and an ankle y-axis rotation drive mechanism 84. The ankle yoke 80 is formed in a substantially U-shape that opens upward. The ankle cross shaft 82 is formed in a cross shape like the crotch cross shaft 30. The ankle yoke 80 and the right lower leg 22 are connected via an ankle cross shaft 82. The right foot tip 26 is fixed to the ankle yoke 80. Since the right lower leg 22 and the right foot 26 are thus connected via the right ankle joint 24, the angle of the right foot 26 around the x-axis and the y-axis with respect to the right lower leg 22 is variable.

足首x軸回り駆動機構83は、足首x軸モータ88、足首x軸モータ側プーリ85、足首関節側x軸プーリ87、ベルト86を備えている。足首x軸モータ88は、右下腿22に固定されている。足首x軸モータ側プーリ85は、足首x軸モータ88の駆動軸に取付けられている。足首関節側x軸プーリ87は、足首クロスシャフト82に固定され、ベルト86は、足首x軸モータ側プーリ85と足首関節側x軸プーリ87に巻付けられている。このような構成により、足首x軸モータ88が回転すると、足首x軸モータ側プーリ85が回転し、足首x軸モータ側プーリ86が回転すると、ベルト86を介して足首関節側x軸プーリ87が回転する。そして、足首関節側x軸プーリ87が回転することによって、足首クロスシャフト82とともに足首ヨーク80のx軸回りの角度が変化する。すなわち、足首x軸モータ88を正転させたり逆転させたりすることで、右足先26のつま先の向きを上下に制御することができる。   The ankle x-axis rotation drive mechanism 83 includes an ankle x-axis motor 88, an ankle x-axis motor side pulley 85, an ankle joint side x-axis pulley 87, and a belt 86. The ankle x-axis motor 88 is fixed to the right lower leg 22. The ankle x-axis motor side pulley 85 is attached to the drive shaft of the ankle x-axis motor 88. The ankle joint side x-axis pulley 87 is fixed to the ankle cross shaft 82, and the belt 86 is wound around the ankle x-axis motor side pulley 85 and the ankle joint side x-axis pulley 87. With such a configuration, when the ankle x-axis motor 88 rotates, the ankle x-axis motor side pulley 85 rotates, and when the ankle x-axis motor side pulley 86 rotates, the ankle joint side x-axis pulley 87 passes through the belt 86. Rotate. As the ankle joint side x-axis pulley 87 rotates, the angle of the ankle yoke 80 and the ankle yoke 80 around the x-axis changes. That is, by rotating the ankle x-axis motor 88 forward or backward, the direction of the toe of the right foot tip 26 can be controlled up and down.

足首y軸回り駆動機構84は、足首y軸モータ89、足首y軸モータ側プーリ90、足首関節側y軸プーリ91、ベルト92を備えている。足首y軸モータ89は右下腿22に固定されている。足首y軸モータ側プーリ90は、足首y軸モータ89の駆動軸に取付けられている。足首関節側y軸プーリ91は、足首クロスシャフト82に対して固定され、ベルト92は、足首y軸モータ側プーリ90と足首関節側y軸プーリ91に巻付けられている。したがって、足首y軸モータ89が回転すると、足首y軸モータ側プーリ90が回転し、足首y軸モータ側プーリ90が回転すると、ベルト92を介して足首関節側y軸プーリ91が回転する。そして、足首関節側y軸プーリ91が回転すると、足首クロスシャフト82とともに右足首ヨーク80のy軸回りの角度が変化する。足首y軸モータ89を正転させたり逆転させたりすることで、右足先26のつま先の向きを左右に制御することができる。   The ankle y-axis rotation drive mechanism 84 includes an ankle y-axis motor 89, an ankle y-axis motor side pulley 90, an ankle joint side y-axis pulley 91, and a belt 92. The ankle y-axis motor 89 is fixed to the right lower leg 22. The ankle y-axis motor side pulley 90 is attached to the drive shaft of the ankle y-axis motor 89. The ankle joint side y-axis pulley 91 is fixed to the ankle cross shaft 82, and the belt 92 is wound around the ankle y-axis motor side pulley 90 and the ankle joint side y-axis pulley 91. Therefore, when the ankle y-axis motor 89 rotates, the ankle y-axis motor side pulley 90 rotates, and when the ankle y-axis motor side pulley 90 rotates, the ankle joint side y-axis pulley 91 rotates via the belt 92. When the ankle joint side y-axis pulley 91 rotates, the angle around the y-axis of the right ankle yoke 80 together with the ankle cross shaft 82 changes. By rotating the ankle y-axis motor 89 forward or backward, the direction of the toe of the right foot tip 26 can be controlled to the left or right.

また、図1および図2に示すように、左脚15は、左股関節13、左上腿17、左膝関節25、左下腿19、左足首関節21、左足先23を備えるものであり、この左脚15の構成は前述した右脚14の構成とほぼ同様であるため、詳細な説明は省略する。   As shown in FIGS. 1 and 2, the left leg 15 includes a left hip joint 13, a left upper thigh 17, a left knee joint 25, a left lower leg 19, a left ankle joint 21, and a left foot tip 23. Since the configuration of the leg 15 is substantially the same as the configuration of the right leg 14 described above, detailed description thereof is omitted.

次に、脚部12に載置された搭乗部100について図1および図2および図4を参照しつつ説明する。搭乗部100は、操縦者75が着座するための座席106と、操縦者により操作される操作部108(右操作部108a、左操作部108b)と、脚部12の近傍領域を撮像するレーザレンジセンサ150と、レーザレンジセンサ150により得られる前記脚部近傍の領域を表示する表示部160と、撮像部170とを備えている。また、図1、図2に示されるように、搭乗部100は第1フレーム102および第2フレーム104を備え、第1フレーム102は座席106の座面の下面と、背当ての後面に沿う形状に形成されており、第2フレーム104は、第1フレーム102と結合され、座席106の左右と前方下部に配置される。また、図2に示されるように、第1フレーム102は、座席106の下方で、ブラケット112を介して腰部64と結合されている。座席106は、結合部材114を介してブラケット112と結合されている。   Next, the riding section 100 placed on the leg 12 will be described with reference to FIGS. 1, 2, and 4. The boarding unit 100 includes a seat 106 on which the pilot 75 is seated, an operating unit 108 (right operating unit 108a and left operating unit 108b) operated by the pilot, and a laser range that captures an area near the leg 12. The sensor 150, the display part 160 which displays the area | region of the said leg part vicinity obtained by the laser range sensor 150, and the imaging part 170 are provided. As shown in FIGS. 1 and 2, the riding section 100 includes a first frame 102 and a second frame 104, and the first frame 102 has a shape along the lower surface of the seating surface of the seat 106 and the rear surface of the backrest. The second frame 104 is coupled to the first frame 102 and is disposed on the left and right sides of the seat 106 and the lower front portion. Further, as shown in FIG. 2, the first frame 102 is coupled to the waist 64 via a bracket 112 below the seat 106. The seat 106 is coupled to the bracket 112 via a coupling member 114.

また、座席106の背当て後方には、第1フレーム102に固定されて、箱状の収容部120a、120bが設けられており、収容部120aには、ロボット10の動作を制御する制御部130が、収容部120bには図示しないバッテリー等が収容されている。   Further, box-shaped storage portions 120 a and 120 b are provided on the back of the seat 106 and fixed to the first frame 102, and the control portion 130 that controls the operation of the robot 10 is provided in the storage portion 120 a. However, a battery or the like (not shown) is accommodated in the accommodating portion 120b.

レーザレンジセンサ150は、座席106の底面近傍において移動体10の進行方向および左右方向について各々回動自在に固定され、移動体10の前方に位置する外部環境の環境情報を取得するために用いられる。なお、レーザレンジセンサ150は、図示は省略するが、レーザ光を照射するレーザ光源と、反射したレーザ光を受光する受光部とを備えており、x軸、y軸方向の2軸について、アクチュエータを介して回動可能に構成されている。そして、レーザレンジセンサ150を回動しつつ移動し、脚部12の足先付近前方領域に存在する物体と、このレーザレンジセンサの取り付け位置までの距離を計測することにより、これらの物体と移動体1との相対的な位置関係を取得することができる。なお、このレーザレンジセンサ150により得られた計測値は、前述の制御部130に送信され、制御部130において、距離を測定した物体の形状および位置を3次元的に表すマップ情報を含む環境情報の作成に用いられる。このマップ情報を作成する手順の詳細については後述する。   The laser range sensor 150 is fixed in the vicinity of the bottom surface of the seat 106 so as to be rotatable in the traveling direction and the left-right direction of the moving body 10, and is used for acquiring environmental information of the external environment located in front of the moving body 10. . Although not shown, the laser range sensor 150 includes a laser light source that emits laser light and a light receiving unit that receives the reflected laser light, and an actuator is provided for two axes in the x-axis and y-axis directions. It is comprised so that rotation is possible. Then, by moving the laser range sensor 150 while rotating, by measuring the distance between the object existing in the front region near the toes of the leg portion 12 and the position where the laser range sensor is attached, the object moves. The relative positional relationship with the body 1 can be acquired. The measured value obtained by the laser range sensor 150 is transmitted to the control unit 130 described above, and the control unit 130 includes environmental information including map information that three-dimensionally represents the shape and position of the object whose distance has been measured. Used to create Details of the procedure for creating the map information will be described later.

表示部160は、座席106近くの、操縦者75が視認可能な位置に固定的または可動的に取り付けられたディスプレイであり、レーザレンジセンサ150により測定された物体を3次元的に表されたマップ情報を表示する。また、操作部108は、一般的なジョイスティックなどの操作子を備えた操縦手段であり、前後左右を含む任意の方向について、操作子を角度を無段階的に傾斜可能に構成されるものである。そして、操作部108は、右操作部108aおよび左操作部108bとから構成されており、操縦者75の操作により傾斜した各操作部の操作子の傾斜角度に応じて、脚部12の駆動量や駆動パターンを変更し、移動体10の動きを制御するものである。   The display unit 160 is a display that is fixedly or movably attached at a position near the seat 106 and visible to the operator 75, and is a map that three-dimensionally represents an object measured by the laser range sensor 150. Display information. In addition, the operation unit 108 is a steering means including an operation element such as a general joystick, and is configured so that the angle of the operation element can be tilted steplessly in any direction including front and rear, left and right. . The operation unit 108 includes a right operation unit 108a and a left operation unit 108b. The driving amount of the leg unit 12 is determined according to the inclination angle of the operation element of each operation unit inclined by the operation of the operator 75. The driving pattern is changed to control the movement of the moving body 10.

また、撮像部170は、座席106の底面に取り付けられ、平面上における脚部12の足先(右足先26、左足先23)付近を撮像する。この撮像部170により撮像された映像は、前述の表示部160において、前述のマップ情報と併せて表示される。   The imaging unit 170 is attached to the bottom surface of the seat 106 and images the vicinity of the feet 12 (the right toe 26 and the left toe 23) of the leg 12 on the plane. The video imaged by the imaging unit 170 is displayed on the display unit 160 together with the map information.

なお、撮像部170によって撮像される位置は、操縦者75から死角となっている領域(死角領域)に設定されることが好ましい。この死角領域としては、操縦者75の姿勢や視線の高さ等によっても異なるが、概ね平面上の脚部12付近で、座席106の鉛直下方に位置する領域付近が該当する。   In addition, it is preferable that the position imaged by the imaging unit 170 is set in an area that is a blind spot from the operator 75 (a blind spot area). This blind spot area varies depending on the attitude of the pilot 75, the height of the line of sight, and the like, but generally corresponds to the vicinity of the area located in the vicinity of the leg portion 12 on the plane and vertically below the seat 106.

また、搭乗部100を構成する座席の背当て付近に設けられた収容部120aの内部には、操縦者75が操作部108を操作した結果に基づいて脚部12を駆動させるための制御部130と、加速度検出部としての加速度センサ140が組み込まれている。図4に示すように、制御部130は、脚部12を駆動し、移動体10を動かすための歩容データを記憶する記憶領域131と、この記憶領域131に記憶された歩容データを読み出す演算処理部132と、脚部12に含まれるモータを駆動するモータ駆動部132と、を備えている。これらの各構成要素は、収容部120bの内部に設けられたバッテリー(図示せず)から電力を供給されることで動作する。   In addition, a control unit 130 for driving the leg 12 based on the result of the operator 75 operating the operation unit 108 inside the accommodating unit 120 a provided near the backrest of the seat constituting the riding unit 100. In addition, an acceleration sensor 140 as an acceleration detection unit is incorporated. As shown in FIG. 4, the control unit 130 drives the leg 12 and reads a gait data for storing gait data for moving the moving body 10, and reads the gait data stored in the storage area 131. An arithmetic processing unit 132 and a motor driving unit 132 that drives a motor included in the leg unit 12 are provided. Each of these components operates by being supplied with electric power from a battery (not shown) provided inside the accommodating portion 120b.

記憶領域131に記憶された歩容データは、操作部108から送られる信号で特定される脚部12の移動量に対応づけて、脚部12の足先(右足先26、左足先23)の位置と移動体本体(本実施の形態においては搭乗部100)の位置とを、移動体の移動する空間を定める座標系(例えばxyz座標系)において経時的に指示するものである。   The gait data stored in the storage area 131 is associated with the amount of movement of the leg 12 specified by the signal sent from the operation unit 108, and the foot of the leg 12 (the right toe 26 and the left toe 23). The position and the position of the moving body main body (the riding section 100 in the present embodiment) are indicated over time in a coordinate system (for example, an xyz coordinate system) that defines a space in which the moving body moves.

演算処理部132は、操作部108からの信号に基づいて変化する歩容データを読み出すとともに、読み出した歩容データによって特定される移動体10の姿勢を実現するために必要な脚部12の関節角を算出し、算出した関節角に基づく信号をモータ駆動部133に送信する。モータ駆動部133は、演算処理部132より送信された信号に基づいて、各モータ(股x軸モータ40、股y軸モータ46、股z軸モータ54、膝モータ74、足首x軸モータ88、足首y軸モータ89など)の駆動量を特定し、これらの駆動量でモータを駆動させるためのモータ駆動信号を各モータに送信する。これによって脚部12の駆動量が変更され、移動体10の動きが制御される。   The arithmetic processing unit 132 reads out gait data that changes based on a signal from the operation unit 108, and joints of the legs 12 necessary to realize the posture of the moving body 10 specified by the read out gait data. The angle is calculated, and a signal based on the calculated joint angle is transmitted to the motor driving unit 133. Based on the signal transmitted from the arithmetic processing unit 132, the motor driving unit 133 is configured to output each motor (the crotch x-axis motor 40, the crotch y-axis motor 46, the crotch z-axis motor 54, the knee motor 74, the ankle x-axis motor 88, The drive amount of an ankle y-axis motor 89 etc. is specified, and the motor drive signal for driving a motor with these drive amounts is transmitted to each motor. Thereby, the driving amount of the leg portion 12 is changed, and the movement of the moving body 10 is controlled.

また、演算処理部132は、読み出した歩容データに基づいてモータの駆動を行うように指令するほか、レーザレンジセンサ150により計測された計測値に基づいて、移動体10の足先付近前方領域に存在する物体の形状および位置を3次元的に表すマップ情報を作成する。さらに、演算処理部132は、加速度センサ140からの信号を受け、レーザレンジセンサ150で計測した際の移動体10に作用する加速度の大きさを得る。詳細には、レーザレンジセンサ150の計測周期と、加速度センサ140で検出した加速度値の取得遅れ時間を考慮し、レーザレンジセンサ150で計測を行った瞬間の加速度値を算出する。そして、各計測値にそれぞれ加速度の大きさに関する情報を付与し、計測値の信頼性を判断する基準とする。すなわち、計測時の加速度を所定の閾値と比較し、閾値を上回る加速度が検出された際の計測値については、信頼性が低いと判断する。   Further, the arithmetic processing unit 132 instructs to drive the motor based on the read gait data, and based on the measured value measured by the laser range sensor 150, the front region near the toe of the moving body 10. Map information representing the shape and position of an object existing three-dimensionally is created. Further, the arithmetic processing unit 132 receives a signal from the acceleration sensor 140 and obtains the magnitude of the acceleration acting on the moving body 10 when measured by the laser range sensor 150. More specifically, the instantaneous acceleration value measured by the laser range sensor 150 is calculated in consideration of the measurement cycle of the laser range sensor 150 and the acquisition delay time of the acceleration value detected by the acceleration sensor 140. Then, information regarding the magnitude of acceleration is given to each measurement value, and this is used as a reference for determining the reliability of the measurement value. That is, the acceleration at the time of measurement is compared with a predetermined threshold, and the measured value when the acceleration exceeding the threshold is detected is determined to have low reliability.

また、演算処理部132は、加速度センサ140からの信号を受けて、モータの駆動量を調整する。すなわち、加速度センサ140により検出した加速度に基づいて移動体10に作用する外力の大きさを判定し、外力を受けた際の移動体10の姿勢などに応じて脚部12の関節角を調整する。このような制御を、操縦者75の操作とは無関係に自律的に行うことで、移動体10は安定した状態を維持することができる。   In addition, the arithmetic processing unit 132 receives a signal from the acceleration sensor 140 and adjusts the driving amount of the motor. That is, the magnitude of the external force acting on the moving body 10 is determined based on the acceleration detected by the acceleration sensor 140, and the joint angle of the leg 12 is adjusted according to the posture of the moving body 10 when receiving the external force. . By performing such control autonomously regardless of the operation of the pilot 75, the moving body 10 can maintain a stable state.

次に、演算処理部132において、レーザレンジセンサ150によって計測された、移動領域としての平面(床面)上における移動体10の前方領域の物体等の形状や位置を表す計測値を用いて3次元的なマップ情報を作成する手順について説明する。このマップ情報を作成する過程においては、レーザレンジセンサ150により得られた計測値から、平面と推定される部分を検出する処理が行われる。この平面検出を行う手順について、図5に示すフローチャートおよび図6、7、8に示す図を用いて詳細に説明する。   Next, the calculation processing unit 132 uses the measurement value representing the shape and position of the object in the front area of the moving body 10 on the plane (floor surface) as the movement area, which is measured by the laser range sensor 150. A procedure for creating dimensional map information will be described. In the process of creating this map information, a process of detecting a portion estimated as a plane from the measurement value obtained by the laser range sensor 150 is performed. The procedure for performing this plane detection will be described in detail with reference to the flowchart shown in FIG. 5 and the diagrams shown in FIGS.

まず、レーザレンジセンサ150により計測を行い、移動体10の前方領域に存在する物体等の形状や位置を表す計測値を取得する(STEP101)。このとき、各計測値は、演算処理部132の記憶領域131に記憶される際に、計測時の加速度の大きさに関する情報が付与されて記憶される。図6は、レーザレンジセンサ150によって計測された、移動領域としての平面上における移動体10の前方領域の物体等の形状や位置を表す計測値を示しており、これらの計測値は、3次元座標上の座標として表されている。   First, measurement is performed by the laser range sensor 150, and measurement values representing the shape and position of an object or the like existing in the front area of the moving body 10 are acquired (STEP 101). At this time, when each measured value is stored in the storage area 131 of the arithmetic processing unit 132, information regarding the magnitude of acceleration at the time of measurement is added and stored. FIG. 6 shows measured values representing the shape and position of an object or the like in the area in front of the moving body 10 on the plane as the moving area, measured by the laser range sensor 150. These measured values are three-dimensional. Expressed as coordinates on the coordinates.

次に、これらの計測値について、計測時の加速度と目標加速度との差が所定の閾値を上回るものを信頼性が低いデータとして除去する(STEP102)。これにより、移動体10に外力や衝撃等が加わった際に計測されたデータを用いずに平面検出を行うことができる。   Next, for these measured values, data whose difference between the acceleration at the time of measurement and the target acceleration exceeds a predetermined threshold is removed as data with low reliability (STEP 102). Thereby, plane detection can be performed without using data measured when an external force or an impact is applied to the moving body 10.

そして、信頼性の低いデータが除去された後の計測値を示す座標のうち、2点からなる一対の座標の組み合わせをランダムに複数抽出し、それらの2点により特定される形状を示すベクトルを各々生成する(STEP103)。そして、生成されたベクトルのうち、法線として特定される基準ベクトル(例えば鉛直方向)に直交するベクトル群を選択し、これらのベクトル群により特定される平面を算出する(STEP104)。詳細には、選択されたベクトルのうち、同じ法線を持つ平面を切り出し、切り出された平面の、基準となる平面(床面)からの距離を各々算出することで、これらの平面を表す平面式を求める。   Then, a plurality of combinations of a pair of coordinates consisting of two points are randomly extracted from the coordinates indicating the measurement values after the data with low reliability is removed, and a vector indicating the shape specified by these two points is obtained. Each is generated (STEP 103). Then, a vector group orthogonal to a reference vector (for example, the vertical direction) specified as a normal line is selected from the generated vectors, and a plane specified by these vector groups is calculated (STEP 104). Specifically, from the selected vectors, planes having the same normal are cut out, and the planes representing these planes are calculated by calculating the distances of the cut out planes from the reference plane (floor surface). Find the expression.

そして、求められた平面式により特定される平面上に、計測した計測値により表される各座標の関連付け(ラベリング)を行う(STEP105)。このラベリングにより、計測値としての座標群が特定の平面式により表される平面付近にそれぞれ関連付けられる。このように、特定の平面上に関連付けられた座標群の様子を、図7および図8に示す。図7および図8は、図6に示した計測値群から、床面上に存在する段差と推定される部分を拡大して表示したものであり、図7はレーザレンジセンサ150から見た相対的な位置関係を斜視的に示した様子、図8は段差を示す座標点群を床面に水平から見た様子を表している。   Then, the coordinates (labeling) of the coordinates represented by the measured values are performed on the plane specified by the obtained plane formula (STEP 105). By this labeling, coordinate groups as measurement values are associated with the vicinity of a plane represented by a specific plane expression. Thus, the state of the coordinate group linked | related on the specific plane is shown in FIG. 7 and FIG. FIGS. 7 and 8 are enlarged views of a portion estimated to be a step existing on the floor surface from the measurement value group shown in FIG. 6. FIG. 7 shows relative values viewed from the laser range sensor 150. FIG. 8 shows a state where a coordinate point group indicating a step is viewed from the horizontal on a floor surface.

最後に、これらの関連付けされた座標点群について、各々最小二乗フィッティングを行うことで平面を算出する(STEP106)。そして、算出された平面を含む環境情報をマップ情報として表示部160に表示する(STEP107)。操縦者75は、これらの環境情報を参照しつつ、移動体10の移動する方向などを決定するとともに、演算処理部132においては、環境情報により得られた床面情報に基づいて、足裏を接地させるための歩容データを適宜修正する。   Finally, a plane is calculated by performing least square fitting for each of these associated coordinate point groups (STEP 106). Then, the environment information including the calculated plane is displayed on the display unit 160 as map information (STEP 107). The pilot 75 determines the moving direction of the moving body 10 while referring to the environmental information, and the arithmetic processing unit 132 applies the sole of the foot based on the floor surface information obtained from the environmental information. Correct gait data for grounding as appropriate.

本実施形態においては、計測したデータにより表される座標の中から一対の組み合わせをランダムに抽出し、平面検知を行うため、計測したデータにより示される座標の信頼性が平面検知の精度に大きく影響を与える。したがって、前述のように、移動体前方に存在する物体の形状および位置を示す計測値群の中から、信頼性の低いデータが除去することによって、作成された平面検知を含む環境情報の精度が向上し、この環境情報を参照しつつ移動を行うことによって安定した移動を行うことができる。特に、本実施形態のような歩行動作により移動を行う移動体においては、足裏を接地させる床面上の場所を正確に求めることができるため、確実に安定した歩行を行うことができる。   In the present embodiment, a pair of combinations are randomly extracted from the coordinates represented by the measured data, and plane detection is performed. Therefore, the reliability of the coordinates indicated by the measured data greatly affects the accuracy of the plane detection. give. Therefore, as described above, the accuracy of the environmental information including the plane detection created by removing low-reliability data from the measurement value group indicating the shape and position of the object existing in front of the moving body is improved. It is possible to improve and to move stably while referring to this environmental information. In particular, in a moving body that moves by a walking motion as in this embodiment, the location on the floor where the soles are grounded can be accurately determined, and therefore, stable walking can be performed reliably.

なお、この実施の形態においては、レーザレンジセンサで計測する領域として、移動体前方に限定された例を挙げて説明しているが、本発明はこれに限られるものではない。すなわち、移動体の後方や側方など、移動体の移動領域(床面)について、移動体近傍を中心とした移動する範囲について、広く計測を行うようにしてもよい。   In this embodiment, the area measured by the laser range sensor is described as an example limited to the front of the moving body, but the present invention is not limited to this. In other words, the moving range (floor surface) of the moving body, such as the rear or side of the moving body, may be widely measured in the range of movement around the moving body.

なお、本発明における移動体は、前述の実施形態のような、操縦者の操作により移動動作が決定されるものに限られるものではなく、自律的に移動するものであってもよい。以下に、自律的に移動を行う自律型移動体に本発明を適用した例を挙げて説明する。   Note that the moving body in the present invention is not limited to the moving body determined by the operator's operation as in the above-described embodiment, and may be autonomously moving. Hereinafter, an example in which the present invention is applied to an autonomous mobile body that moves autonomously will be described.

発明の実施形態2.
図9は、略水平状の床部上の限られた移動領域P(破線に囲まれた領域)内を、車両型の移動体200が移動する一実施形態を概略的に示すものである。図9においては、移動領域P内には特に物体が載置されていない状態を示すものとし、移動体200が移動領域P内を任意に移動することができるものとする。なお、本実施形態における移動体の各構成のうち、前述の実施形態と同様の構成については、同一または同様の符号を付してその説明を省略するものとする。
Embodiment 2 of the Invention
FIG. 9 schematically shows an embodiment in which a vehicle-type moving body 200 moves in a limited moving region P (region surrounded by a broken line) on a substantially horizontal floor. In FIG. 9, it is assumed that no object is particularly placed in the movement area P, and the moving body 200 can arbitrarily move in the movement area P. In addition, about each structure of the moving body in this embodiment, about the structure similar to the above-mentioned embodiment, the same code | symbol is attached | subjected and the description shall be abbreviate | omitted.

図10に示すように、移動体200は、箱型の移動体本体200aと、1対の対向する車輪211、211と、キャスタ212を備える対向2輪型の移動体であり、これらの車輪211、211、キャスタ212とで移動体本体200aを水平に支持するものである。さらに、移動体本体200aの内部には、車輪211、211をそれぞれ駆動する駆動部(モータ)213、213と、車輪の回転数を検出するためのカウンタ214と、車輪を駆動するための制御信号を作成し、駆動部213、213にその制御信号を送信する演算処理部215、およびこれらの構成要素に電力を供給するためのバッテリー216が備えられている。そして、演算処理部215内部に備えられた記憶部としてのメモリなどの記憶領域215aには、制御信号に基づいて移動体200の移動速度や移動方向、移動距離などを制御するためのプログラムとともに、移動領域Pの形状および大きさ、および移動領域P内(床面上)に予め配置された物体の大きさや配置などの基本マップ情報が記憶されている。   As shown in FIG. 10, the moving body 200 is an opposed two-wheeled moving body including a box-shaped moving body main body 200 a, a pair of opposed wheels 211 and 211, and a caster 212. , 211 and the caster 212 horizontally support the moving body 200a. Furthermore, inside the mobile body 200a, there are driving units (motors) 213 and 213 for driving the wheels 211 and 211, a counter 214 for detecting the rotational speed of the wheels, and a control signal for driving the wheels. And a processing unit 215 for transmitting the control signal to the drive units 213 and 213, and a battery 216 for supplying power to these components. A storage area 215a such as a memory provided as a storage unit provided inside the arithmetic processing unit 215 has a program for controlling the moving speed, moving direction, moving distance, and the like of the moving body 200 based on the control signal. Basic map information such as the shape and size of the moving area P, and the size and arrangement of objects placed in advance in the moving area P (on the floor surface) is stored.

さらに、移動体本体200の前面には、移動する方向(前方)にレーザ光を照射し、そのレーザ光が対象物で反射するまでの時間を計測するセンサとしてのレーザレンジファインダ217を備えている。このレーザレンジファインダ217は、前述の実施形態において用いたものと同様であるため、その詳細な説明については省略する。なお、図10においてはレーザレンジファインダ217が移動体本体200aの前面に2つ設けられた例が示されているが、本発明はこれに限られるものではなく、単一または3つ以上のレーザレンジファインダを用いた計測を行ってもよい。   Furthermore, a laser range finder 217 is provided on the front surface of the moving body 200 as a sensor that irradiates laser light in the moving direction (forward) and measures the time until the laser light is reflected by the object. . Since the laser range finder 217 is the same as that used in the above-described embodiment, a detailed description thereof will be omitted. FIG. 10 shows an example in which two laser range finders 217 are provided on the front surface of the moving body 200a. However, the present invention is not limited to this, and single or three or more lasers are provided. You may perform the measurement using a range finder.

また、移動体200は、その移動した方向および距離から、自己位置を取得することができる。すなわち、前述したカウンタ214で検知された車輪211、211の回転数を演算処理部215において積算することで、移動体200の移動した距離や方向などの情報を求め、これらの情報から、移動領域内における移動体200の自己位置(オドメトリ位置)を算出する。   Moreover, the mobile body 200 can acquire its own position from the moving direction and distance. That is, information such as the distance and direction of movement of the moving body 200 is obtained by accumulating the rotation speeds of the wheels 211 and 211 detected by the counter 214 in the arithmetic processing unit 215, and the moving region is obtained from these information. The self-position (odometry position) of the moving body 200 is calculated.

そして、これらの自己位置取得部より得られた位置情報は、前述したレーザレンジファンダ217により得られる環境情報に基づいて適宜修正される。この位置情報を修正する手法については、詳細な説明は省略するが、レーザレンジファインダにより得られた移動領域内に存在する物体の位置情報と、記憶領域215aにおいて予め記憶された基本マップ情報とをマッチングし、マッチングの結果、移動領域内において認識した移動体の自己位置を修正する。   Then, the position information obtained from these self-position acquisition units is appropriately corrected based on the environmental information obtained by the laser range funder 217 described above. Although detailed description of the technique for correcting the position information is omitted, the position information of the object existing in the moving area obtained by the laser range finder and the basic map information stored in advance in the storage area 215a are used. Matching is performed, and as a result of matching, the self-position of the moving body recognized in the moving region is corrected.

また、移動体本体200aの内部には、加速度センサ218が内蔵されており、移動体本体200aが移動する際に生じた加速度や、移動体本体200aに加えられた衝撃により生じる加速度の大きさを検出する。すなわち、移動体本体200aが段差等を乗り越えた場合や障害物に接触した際に生じる加速度の大きさを検出することができる。この加速度センサ218で検出された加速度は、演算処理部215に送信され、演算処理部215においては、レーザレンジファインダ217の計測する周期と、加速度センサ218の加速度を取得する時間差遅れとを考慮して、レーザレンジファインダ217が計測した瞬間の加速度を検出する。   In addition, an acceleration sensor 218 is built in the moving body main body 200a, and the magnitude of the acceleration generated when the moving body main body 200a moves or the magnitude of the acceleration caused by the impact applied to the moving body main body 200a is measured. To detect. That is, it is possible to detect the magnitude of the acceleration that occurs when the mobile body 200a gets over a step or the like or comes into contact with an obstacle. The acceleration detected by the acceleration sensor 218 is transmitted to the arithmetic processing unit 215. The arithmetic processing unit 215 considers the period measured by the laser range finder 217 and the time difference delay for acquiring the acceleration of the acceleration sensor 218. Then, the instantaneous acceleration measured by the laser range finder 217 is detected.

このように構成された移動体200は、1対の車輪211、211の駆動量をそれぞれ独立に制御することで、直進や曲線移動(旋回)、後退、その場回転(両車輪の中点を中心とした旋回)などの移動動作を行うことができる。そして、移動体200は、移動領域P内の指定された目標地点までの移動経路を自律的に作成し、その移動経路に追従するように移動することで、目標地点に到達する。なお、このような目標地点は、人間からの指示や外部に設けられたサーバ等(図示せず)からの指令にしたがって定められる。   The mobile body 200 configured in this way independently controls the drive amount of the pair of wheels 211 and 211, thereby moving straight, curving (turning), moving backward, and rotating in place (the middle point of both wheels). It is possible to perform moving operations such as turning around the center. The moving body 200 autonomously creates a movement route to the designated target point in the movement region P, and moves to follow the movement route, thereby reaching the target point. Such a target point is determined according to an instruction from a human or a command from a server (not shown) provided outside.

さらに、移動体200は、その車輪の駆動量を制御することで、移動時の目標加速度を算出しつつ移動する。すなわち、加速時や減速時における目標速度および目標加速度を算出しつつ、車輪の駆動量を制御することで、目標地点までの経路に沿って適切な速度や加速度で移動を行う。   Furthermore, the moving body 200 moves while calculating the target acceleration at the time of movement by controlling the driving amount of the wheel. That is, by moving the driving amount of the wheel while calculating the target speed and target acceleration at the time of acceleration and deceleration, the vehicle moves at an appropriate speed and acceleration along the route to the target point.

次に、記憶領域215aの内部に記憶された、移動領域Pの形状や、その内部に含まれる物体(壁などの障害物)に基づいて作成されるグリッドマップについて説明する。   Next, a grid map created based on the shape of the moving area P stored in the storage area 215a and an object (an obstacle such as a wall) included in the moving area P will be described.

演算処理部215内部に備えられた記憶領域215aに記憶された基本マップ情報には、床部1上の移動領域P全体の形状を外枠として、その内部に略一定間隔m(例えば10cm)に配置された格子点を結ぶグリッド線を仮想的に描写することで得られるグリッドマップが含まれている。このグリッドマップは、移動領域Pの形状を模した外枠の内部を、略一定間隔mに配置された格子点を結ぶグリッド線を描写したものであり、このグリッド線で囲まれたグリッド単位を用いて、移動体200の自己位置に相当する場所や目標地点である移動終了点を特定するとともに、移動領域内に予め配置された物体の位置などが登録されている。なお、間隔mは、移動体200の移動可能な曲率や絶対位置を認識する精度などの条件に応じて適宜変更可能である。   In the basic map information stored in the storage area 215a provided in the arithmetic processing unit 215, the shape of the entire moving area P on the floor portion 1 is used as an outer frame, and the inside thereof is at a substantially constant interval m (for example, 10 cm). A grid map obtained by virtually depicting grid lines connecting the arranged grid points is included. This grid map depicts a grid line connecting lattice points arranged at a substantially constant interval m inside the outer frame simulating the shape of the moving region P, and the grid unit surrounded by the grid line is represented. The location corresponding to the self position of the moving body 200 and the movement end point, which is the target point, are specified, and the position of an object placed in advance in the movement area is registered. Note that the interval m can be appropriately changed according to conditions such as the curvature with which the moving body 200 can move and the accuracy of recognizing the absolute position.

また、演算処理部15は、グリッドマップ上において特定された自己位置を移動始点とし、この移動始点から目標地点である移動終点までの移動経路を作成することができる。さらに移動体200は、前述のように自己位置をリアルタイムに求めつつ(例えば10[msec]毎にマップ情報上における自己の位置情報を取得)、作成された移動経路に沿って移動を行う。詳細には、移動体10は移動始点を認識し、この移動始点から目的とする移動終点までの移動経路を、所定の間隔で単一または複数の中間点をグリッドマップ上に定め、これらの中間点をつなぎ合わせることでグリッドマップ上に移動経路を作成する。また、演算処理部215は、後述するように、マップ情報上に存在する障害物を検知すると、この障害物を避けるように移動経路を修正し、修正した移動経路を新しい移動経路として特定する。この移動経路の特定手法の詳細については説明を省略するが、マップ情報上に追加された障害物の位置等を考慮した上で、現在位置から目標地点点までの新たな移動経路を作成する等の手法が好適に用いられる。   In addition, the arithmetic processing unit 15 can use the self-position specified on the grid map as a movement start point and create a movement route from the movement start point to the movement end point that is the target point. Furthermore, the moving body 200 moves along the created movement route while obtaining its own position in real time as described above (for example, acquiring its own position information on the map information every 10 [msec]). More specifically, the moving body 10 recognizes the movement start point, determines a movement path from the movement start point to the target movement end point at a predetermined interval on a grid map, and sets the intermediate points between these points. Create a movement path on the grid map by connecting points. Further, as will be described later, when the arithmetic processing unit 215 detects an obstacle existing on the map information, the arithmetic processing unit 215 corrects the movement route so as to avoid the obstacle, and specifies the corrected movement route as a new movement route. The details of the method of specifying this movement route will be omitted, but a new movement route from the current position to the target point point will be created in consideration of the position of the obstacle added on the map information, etc. This method is preferably used.

このように構成された移動体200は、移動領域P内に移動を行いつつ、前述したレーザレンジファインダ217を用いて移動体10の前面の環境情報を作成する。この環境情報を作成する手法については、前述の実施形態において説明した手順と同様であるため、ここでは説明を省略する。   The moving body 200 configured as described above creates environment information on the front surface of the moving body 10 using the laser range finder 217 described above while moving within the moving area P. Since the method for creating this environmental information is the same as the procedure described in the above-described embodiment, the description thereof is omitted here.

このように構成された移動体200が、自律移動を行うための経路を作成する手順について、図11に示すフローチャートを用いて説明する。   A procedure in which the mobile body 200 configured as described above creates a route for performing autonomous movement will be described with reference to the flowchart shown in FIG.

まず、移動体200は移動開始地点である自己位置をグリッドマップ上に認識し、記憶領域215a上に記憶する(STEP201)。そして、外部からの情報などにしたがって目標地点を定め(STEP202)、現在の自己位置から目標地点までの移動経路を作成する(STEP203)。   First, the moving body 200 recognizes its own position, which is a movement start point, on the grid map and stores it on the storage area 215a (STEP 201). Then, a target point is determined according to information from the outside (STEP 202), and a movement route from the current self position to the target point is created (STEP 203).

次に、周囲の環境情報を作成するためにレーザレンジファインダ217により周囲に存在する物体の形状や位置を認識するための計測を行い(STEP204)、その計測値に基づいて、計測した領域に存在する物体の形状の平面検知などを行うことによって3次元的に示すマップ情報を作成する(STEP205)。このマップ情報を作成するための詳細な手順は、前述の実施形態において説明したものと同様であるため詳細な説明は省略するが、加速度センサ218により得られた加速度と、目標加速度との差が所定の閾値よりも大きい時に得られた計測値を採用しないことで、精度のよいマップ情報が得られる。   Next, in order to create the surrounding environment information, the laser range finder 217 performs measurement for recognizing the shape and position of an object existing in the surroundings (STEP 204), and based on the measured value, exists in the measured region. The map information shown three-dimensionally is created by performing plane detection of the shape of the object to be performed (STEP 205). The detailed procedure for creating the map information is the same as that described in the previous embodiment, and thus detailed description thereof is omitted. However, the difference between the acceleration obtained by the acceleration sensor 218 and the target acceleration is different. By not adopting the measurement value obtained when it is larger than the predetermined threshold value, accurate map information can be obtained.

そして、作成された周囲の環境情報、例えば新たに生じた障害物や人間などの移動対象などの情報に基づいて、移動経路の修正が必要か否かを判断する(STEP206)。移動経路の修正が必要であれば作成された環境情報により新たな移動経路を作成し(STEP207)、新たに作成された移動経路に沿って移動を行う(STEP208)。なお、STEP206において移動経路の修正が不要と判断されれば、STEP208に進んで元の移動経路に沿って移動動作を継続する。   Then, it is determined whether or not the movement route needs to be corrected based on the created surrounding environment information, for example, information on a newly generated obstacle such as an obstacle or a person (STEP 206). If it is necessary to modify the movement route, a new movement route is created based on the created environment information (STEP 207), and movement is performed along the newly created movement route (STEP 208). If it is determined in STEP 206 that the travel route is not required to be corrected, the process proceeds to STEP 208 and the travel operation is continued along the original travel route.

そして、移動後の自己位置が目標地点か否かを判断し(STEP209)、目標地点でなければSTEP204に戻って再度環境情報の更新を行い、移動動作を継続する。なお、現在の自己位置が目標地点であると判断されれば、所定の移動動作を終了させる処理を行い(STEP210)、移動を停止する(STEP211)。このように、周囲の環境を認識する動作を所定の微小な周期で繰り返し行うことで、周囲の障害物や移動対象を確実に避けながら移動を行うことができる。   Then, it is determined whether or not the self-position after the movement is the target point (STEP 209). If it is not the target point, the process returns to STEP 204, the environment information is updated again, and the movement operation is continued. If it is determined that the current position is the target point, a process for terminating the predetermined movement operation is performed (STEP 210), and the movement is stopped (STEP 211). In this manner, by repeatedly performing the operation of recognizing the surrounding environment at a predetermined minute cycle, it is possible to move while reliably avoiding surrounding obstacles and moving objects.

なお、前述の実施形態においては、レーザレンジファインダにより取得した環境情報と、予め記憶された基本マップ情報とをマッチングし、車輪の回転数などを用いたオドメトリ法により求めた自己位置を修正すると、より好適である。   In the above-described embodiment, by matching the environmental information acquired by the laser range finder and the basic map information stored in advance, and correcting the self-position obtained by the odometry method using the rotational speed of the wheel, More preferred.

また、このような実施形態の場合、オドメトリ法による自己位置認識に代えて、移動体にディジタルカメラなどの撮像手段を設け、移動領域内に設けられたランドマークを撮像し、視覚的に認識することによって、自己位置を求めるようにしてもよい。すなわち、撮像手段により撮像したランドマークの位置と、予め記憶された基本マップ情報に含まれるランドマークの位置とを比較することによって、相対的な自己位置を正確に求めることができる。   In the case of such an embodiment, instead of self-position recognition by the odometry method, the moving body is provided with imaging means such as a digital camera, and the landmarks provided in the moving area are imaged and visually recognized. Thus, the self-position may be obtained. That is, by comparing the position of the landmark imaged by the imaging unit with the position of the landmark included in the basic map information stored in advance, the relative self-position can be obtained accurately.

さらに、自己位置を求める手段としては、これらに限定されるものではなく、移動体の絶対位置を取得する外部の手段を設けてもよい。例えば、移動体を外部から認識し、認識した結果を移動体に送信することで自己位置を相対的に求めるようにすることもできる。このような自己位置を認識する手段としては、GPSなどの既知の手段や、移動体を外部から視覚的に撮像する手段などを用いることが可能である。   Furthermore, the means for obtaining the self position is not limited to these, and an external means for obtaining the absolute position of the moving body may be provided. For example, the mobile unit can be recognized from the outside, and the recognition result can be transmitted to the mobile unit to relatively determine the self position. As means for recognizing such a self-position, it is possible to use known means such as GPS, means for visually capturing a moving body from the outside, and the like.

また、前述の実施形態においては、レーザレンジセンサにより計測した計測値を用いて環境情報を作成する例のみを示しているが、本発明はこれに限られるものではなく、例えば、超音波センサなどの計測値を用いて環境情報を作成するものについても利用可能である。すなわち、計測値が移動体に作用する加速度に影響を受けるセンサを用いるものであれば、本発明を適用することが可能である。   Further, in the above-described embodiment, only an example in which environment information is created using a measurement value measured by a laser range sensor is shown, but the present invention is not limited to this, for example, an ultrasonic sensor or the like It is also possible to use those that create environmental information using measured values. That is, the present invention can be applied to any sensor that uses a sensor whose measurement value is affected by acceleration acting on the moving body.

なお、以上に説明した本発明に係る移動体、移動体におけるマップ情報作成方法および移動体における移動経路特定方法の実施の形態については、あくまでも一例であり、本発明はこれに限られるものではない。 例えば、前述した実施形態においては、移動体が記憶するマップ情報として、グリッドマップを例に挙げて説明したが、本発明はこれに限られるものではなく、例えばマップ上の物体を特徴点(ノード)で表したトポロジーマップを用いることもできる。このようなマップを用いた場合、各特徴点(ノード)を結ぶリンクによって移動経路を作成すると好適である。   The above-described embodiments of the moving body, the map information creating method in the moving body, and the moving path specifying method in the moving body according to the present invention described above are merely examples, and the present invention is not limited thereto. . For example, in the above-described embodiment, the map information stored in the moving body has been described by taking a grid map as an example. However, the present invention is not limited to this, and for example, an object on the map is represented by a feature point (node). It is also possible to use a topology map represented by When such a map is used, it is preferable to create a movement route by a link connecting each feature point (node).

第1の実施の形態に係る移動体を側方から見た様子を概略的に表す図である。It is a figure which represents roughly a mode that the mobile body which concerns on 1st Embodiment was seen from the side. 図1に示す移動体を後方から見た様子を示す概略図である。It is the schematic which shows a mode that the mobile body shown in FIG. 1 was seen from back. 図1に示す移動体における上腿部の接続部分を拡大して示す図である。It is a figure which expands and shows the connection part of the upper leg part in the mobile body shown in FIG. 図1に示す移動体に含まれる制御部と、制御される他の構成部との関連を示すブロック図である。It is a block diagram which shows the relationship between the control part contained in the moving body shown in FIG. 1, and the other component to be controlled. 図1に示す移動体が環境情報の一部である平面検出を行う際の手順を示すフローチャートである。It is a flowchart which shows the procedure at the time of performing the plane detection which the mobile body shown in FIG. 1 is a part of environmental information. 図1に示す移動体のレーザレンジセンサによって計測された、平面上のある領域における物体等の形状や位置を表す計測値を示す一例である。It is an example which shows the measured value showing the shape and position of an object etc. in a certain area | region on a plane measured by the laser range sensor of the moving body shown in FIG. 図6に示す計測値により作成された、レーザレンジセンサの位置から斜視的に計測領域上の物体等を見たマップ情報の一例を示す図である。It is a figure which shows an example of the map information which looked at the object etc. on a measurement area | region perspectively from the position of the laser range sensor produced by the measured value shown in FIG. 図6に示す計測値により作成された、段差を示す座標点群を床面に対して水平な方向から見たマップ情報の一例を示す図である。It is a figure which shows an example of the map information which looked at the coordinate point group which created with the measured value shown in FIG. 6 and which shows a level | step difference from the horizontal direction with respect to a floor surface. 第2の実施形態に係る移動体を上方から見た様子を概略的に表す図である。It is a figure which represents roughly a mode that the mobile body which concerns on 2nd Embodiment was seen from upper direction. 図9に示す第2の実施形態に係る移動体の内部構成を概略的に示す概略図である。It is the schematic which shows roughly the internal structure of the moving body which concerns on 2nd Embodiment shown in FIG. 図9に示す移動体が、自律移動を行うための経路を作成する手順を示すフローチャートである。It is a flowchart which shows the procedure in which the mobile body shown in FIG. 9 produces the path | route for performing autonomous movement.

符号の説明Explanation of symbols

10,200・・・移動体
12・・・脚部
100・・・搭乗部(移動体本体)
130・・・制御部
140、218・・・加速度検出部(加速度センサ)
150、217・・・センサ(レーザレンジセンサ)
200a・・・移動体本体
211・・・車輪
P・・・移動領域
DESCRIPTION OF SYMBOLS 10,200 ... Moving body 12 ... Leg part 100 ... Boarding part (moving body main body)
130: Control unit 140, 218 ... Acceleration detection unit (acceleration sensor)
150, 217 ... Sensor (Laser range sensor)
200a ... moving body 211 ... wheel P ... moving area

Claims (9)

移動体本体と、周囲に存在する物体の前記移動体本体からみた相対位置を示す計測値を取得するセンサと、前記移動体本体に作用する加速度を検出する加速度検出部とを備え、前記センサの取得した計測値に基づいて、移動領域に存在する物体の形状や位置を示す環境情報を作成する移動体であって、
前記センサが計測を行ったときの移動体本体の目標加速度と、前記加速度検出部により検出された加速度との大きさとの差を算出し、算出した差に基づいてセンサにより得られた計測値の信頼性を決定するとともに、その決定された信頼性に基づいて前記計測値を修正し、修正後の計測値に基づいて環境情報を作成することを特徴とする移動体。
A movable body main body, a sensor that acquires a measurement value indicating a relative position of an object existing around the mobile body, and an acceleration detection unit that detects an acceleration acting on the movable body main body. Based on the acquired measurement value, it is a moving object that creates environmental information indicating the shape and position of an object existing in the moving region,
The difference between the target acceleration of the movable body when the sensor performs measurement and the magnitude of the acceleration detected by the acceleration detection unit is calculated, and the measurement value obtained by the sensor based on the calculated difference is calculated. A moving object characterized by determining reliability, correcting the measurement value based on the determined reliability, and creating environment information based on the corrected measurement value.
前記センサが計測を行った際の移動体本体の目標加速度と、加速度検出部により検出された加速度との差が所定の閾値を超える場合に、そのセンサにより得られた計測値を用いずに環境情報を作成することを特徴とする請求項1に記載の移動体。   If the difference between the target acceleration of the moving body when the sensor performs measurement and the acceleration detected by the acceleration detection unit exceeds a predetermined threshold, the measured value obtained by the sensor is not used. The moving body according to claim 1, wherein information is created. 前記環境情報が、移動する領域上に存在する物体の形状および位置を3次元的に表すマップ情報を含むことを特徴とする請求項1または2に記載の移動体。   The moving body according to claim 1, wherein the environment information includes map information that three-dimensionally represents the shape and position of an object existing on a moving region. 前記センサが、周囲に存在する物体が、移動体本体からどれだけ離れた位置に存在するかを計測する距離計測部であることを特徴とする請求項1から3のいずれかに記載の移動体。   The moving body according to any one of claims 1 to 3, wherein the sensor is a distance measuring unit that measures how far away an object existing in the vicinity is from the moving body main body. . 作成された環境情報に基づいて移動経路を作成し、作成した移動経路に基づいて自律的に移動動作を行うことを特徴とする請求項1から4のいずれかに記載の移動体。   The moving body according to any one of claims 1 to 4, wherein a moving path is created based on the created environment information, and a moving operation is autonomously performed based on the created moving path. 前記移動体本体が、作成された環境情報から歩容データを取得し、取得した歩容データに従って移動動作を行う歩行型等の移動体であることを特徴とする請求項1から5のいずれかに記載の移動体。   6. The mobile body according to claim 1, wherein the mobile body is a walking body or the like that acquires gait data from the created environment information and performs a moving operation according to the acquired gait data. The moving body described in 1. 前記移動体本体が、前記平面上に接触する車輪を駆動することにより移動する車輪駆動型の移動体であることを特徴とする請求項1から5のいずれかに記載の移動体。   The mobile body according to claim 1, wherein the mobile body is a wheel-driven mobile body that moves by driving a wheel that contacts the plane. 移動領域における周囲の環境を視覚的に認識するカメラをさらに備え、移動領域内において特定の場所に設けられたランドマークを前記カメラにより視覚的に認識することで自己位置を算出することを特徴とする請求項1から7のいずれかに記載の移動体。   It further comprises a camera that visually recognizes the surrounding environment in the moving area, and the self-position is calculated by visually recognizing a landmark provided at a specific place in the moving area by the camera. The moving body according to any one of claims 1 to 7. 周囲に存在する物体の、移動体からみた相対位置を示す計測値を取得し、取得した計測値に基づいて移動体の周囲における環境情報を作成する環境情報作成方法であって、
前記相対位置の計測時における加速度を検出し、検出された加速度の大きさと、目標加速度との差を算出し、算出した差の大きさに基づいて計測された相対位置の信頼性を決定するとともに、決定した信頼性に基づいて取得した計測値を修正し、修正後の計測値に基づいて環境情報を作成することを特徴とする環境情報作成方法。
An environment information creation method for obtaining a measurement value indicating a relative position of an object existing around the mobile object, and creating environment information around the mobile object based on the acquired measurement value,
The acceleration at the time of measuring the relative position is detected, the difference between the detected acceleration magnitude and the target acceleration is calculated, and the reliability of the measured relative position is determined based on the calculated difference magnitude. A method for creating environmental information, comprising correcting a measured value acquired based on the determined reliability and creating environmental information based on the corrected measured value.
JP2008011386A 2008-01-22 2008-01-22 Moving body and environmental information generation method Pending JP2009174898A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008011386A JP2009174898A (en) 2008-01-22 2008-01-22 Moving body and environmental information generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008011386A JP2009174898A (en) 2008-01-22 2008-01-22 Moving body and environmental information generation method

Publications (1)

Publication Number Publication Date
JP2009174898A true JP2009174898A (en) 2009-08-06

Family

ID=41030157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008011386A Pending JP2009174898A (en) 2008-01-22 2008-01-22 Moving body and environmental information generation method

Country Status (1)

Country Link
JP (1) JP2009174898A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012185534A (en) * 2011-03-03 2012-09-27 Univ Of Tokyo Three-dimensional environment restoration device, processing method therefor, and program
JP2013088259A (en) * 2011-10-17 2013-05-13 Nsk Ltd Movement environment recognition device and method
JP2013537651A (en) * 2010-05-20 2013-10-03 アイロボット コーポレイション Mobile human interface robot
JP2013537487A (en) * 2010-05-20 2013-10-03 アイロボット コーポレイション Mobile human interface robot
JP2017223587A (en) * 2016-06-16 2017-12-21 株式会社エヌ・ティ・ティ・データ Tracking object discovery device, tracking object discovery method and program
KR101846228B1 (en) * 2016-12-09 2018-04-06 국방과학연구소 Driving guiding method for unmanned robot in inclined road
JP2018116359A (en) * 2017-01-16 2018-07-26 本田技研工業株式会社 Travel management system for autonomous mobile type robot
WO2022239600A1 (en) * 2021-05-11 2022-11-17 富士フイルム株式会社 Information processing device, information processing method, and program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013537651A (en) * 2010-05-20 2013-10-03 アイロボット コーポレイション Mobile human interface robot
JP2013537487A (en) * 2010-05-20 2013-10-03 アイロボット コーポレイション Mobile human interface robot
JP2014176966A (en) * 2010-05-20 2014-09-25 Irobot Corp Mobile human interface robot
JP2014195868A (en) * 2010-05-20 2014-10-16 アイロボット コーポレイション Method of operating mobile robot to follow person
JP2012185534A (en) * 2011-03-03 2012-09-27 Univ Of Tokyo Three-dimensional environment restoration device, processing method therefor, and program
JP2013088259A (en) * 2011-10-17 2013-05-13 Nsk Ltd Movement environment recognition device and method
JP2017223587A (en) * 2016-06-16 2017-12-21 株式会社エヌ・ティ・ティ・データ Tracking object discovery device, tracking object discovery method and program
KR101846228B1 (en) * 2016-12-09 2018-04-06 국방과학연구소 Driving guiding method for unmanned robot in inclined road
JP2018116359A (en) * 2017-01-16 2018-07-26 本田技研工業株式会社 Travel management system for autonomous mobile type robot
US10649467B2 (en) 2017-01-16 2020-05-12 Honda Motor Co., Ltd. Operation management system for autonomous mobile robots
WO2022239600A1 (en) * 2021-05-11 2022-11-17 富士フイルム株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
JP2009174898A (en) Moving body and environmental information generation method
JP5510081B2 (en) Obstacle avoidance support device, obstacle avoidance support method, and moving object
US8873831B2 (en) Walking robot and simultaneous localization and mapping method thereof
JP5310285B2 (en) Self-position estimation apparatus and self-position estimation method
JP6052045B2 (en) Autonomous mobile
WO2014178272A1 (en) Autonomous moving body
JP2009031884A (en) Autonomous mobile body, map information creation method in autonomous mobile body and moving route specification method in autonomous mobile body
JP5278283B2 (en) Autonomous mobile device and control method thereof
JP4738472B2 (en) Mobility control device having obstacle avoidance function
Chestnutt et al. Biped navigation in rough environments using on-board sensing
JP2011209845A (en) Autonomous mobile body, self-position estimation method and map information creation system
KR20130049610A (en) Mobile object and walking robot
JP5067215B2 (en) Mobile robot and environmental map generation method
JP5065206B2 (en) Mobile body, inverted mobile body, and control method thereof
WO2015137169A1 (en) Terrain determination device, legged mobile robot, robot system, control method for legged mobile robot, and control method for robot system
JP2009136987A (en) Mobile robot and method of correcting floor surface shape data
JP2009136995A (en) Target route setting support system
Hildebrandt et al. Real-time pattern generation among obstacles for biped robots
JP2009258779A (en) Mobile robot and footprint planning method
KR20170138977A (en) Walking robot and simultaneous localization and mapping method thereof
JP4678007B2 (en) Environmental map generation method and mobile robot
JP2007190654A (en) Leg-wheel robot
JP2010061483A (en) Self-traveling moving object and method for setting target position of the same
US20230166728A1 (en) Traveling body and non-transitory recording medium
JP5895682B2 (en) Obstacle detection device and moving body equipped with the same