JP2010117847A - Moving object, moving object control system, and control method for moving object - Google Patents

Moving object, moving object control system, and control method for moving object Download PDF

Info

Publication number
JP2010117847A
JP2010117847A JP2008290037A JP2008290037A JP2010117847A JP 2010117847 A JP2010117847 A JP 2010117847A JP 2008290037 A JP2008290037 A JP 2008290037A JP 2008290037 A JP2008290037 A JP 2008290037A JP 2010117847 A JP2010117847 A JP 2010117847A
Authority
JP
Japan
Prior art keywords
moving body
information
control
calculation unit
mobile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008290037A
Other languages
Japanese (ja)
Inventor
Tetsuya Taira
哲也 平
Kiyoshi Matsumoto
松本  潔
Akihito Nakai
亮仁 中井
Yoshiyuki Omura
吉幸 大村
Nobuyasu Tomokuni
伸保 友國
Kohei Okabe
康平 岡部
Ott Christian
クリスティアン オット
智之 ▲高▼畑
Tomoyuki Takahata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Toyota Motor Corp
Original Assignee
University of Tokyo NUC
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC, Toyota Motor Corp filed Critical University of Tokyo NUC
Priority to JP2008290037A priority Critical patent/JP2010117847A/en
Publication of JP2010117847A publication Critical patent/JP2010117847A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a moving object, a moving object control system and a control method for the moving object which are excellent in cost performance. <P>SOLUTION: The moving object 1 is provided with: cameras 71 and 72 for picking up a pattern including location information; an image processing part 54 for acquiring location information from an image signal photographed by cameras 71 and 72; and a control calculation part 51 for estimating a self-location based on location information acquired by the image processing part 54, and for acquiring traveling face information preliminarily associated with the location based on the estimated self-location, and for controlling the operation of the moving object based on the traveling surface information. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、移動体、移動体制御システム及び移動体の制御方法に関する。   The present invention relates to a mobile object, a mobile object control system, and a control method for the mobile object.

近年、搭乗者を搭乗させた状態で移動する移動体が開発されている(特許文献1〜4)。特許文献1〜3に開示された移動体では、搭乗者が搭乗する搭乗面に力センサを設け、力センサからの出力に応じて車輪を駆動している。より具体的には、特許文献1に開示された移動体は、搭乗者が進みたい方向に体重をかけることにより移動する。特許文献2には、車椅子型の移動体が開示されている。また、特許文献3には、利用者の動作を能動的に検知して、それに応じて自律的に動作する移動体が開示されている。さらに、特許文献4には、2足歩行型の移動体を動作させるためのインタフェイス装置が開示されている。   In recent years, mobile bodies have been developed that move while a passenger is on board (Patent Documents 1 to 4). In the mobile body disclosed in Patent Documents 1 to 3, a force sensor is provided on a boarding surface on which a passenger rides, and wheels are driven according to an output from the force sensor. More specifically, the moving body disclosed in Patent Document 1 moves by applying weight in the direction that the passenger wants to travel. Patent Document 2 discloses a wheelchair-type moving body. Further, Patent Document 3 discloses a moving body that actively detects a user's operation and operates autonomously in response thereto. Furthermore, Patent Document 4 discloses an interface device for operating a bipedal walking type moving body.

特開2006−282160号公報JP 2006-282160 A 特開平10−23613号公報Japanese Patent Laid-Open No. 10-23613 特開平11−198075号公報JP-A-11-198075 特開平7−136957号公報JP-A-7-136957

しかしながら、特許文献1〜4に開示された移動体では、コスト面の考慮が欠けている。即ち、これらの移動体では、比較的高価な姿勢角センサや距離計測センサを用いており、非常に高価にならざるをえなかった。   However, the moving bodies disclosed in Patent Documents 1 to 4 lack consideration of cost. That is, these moving bodies use relatively expensive attitude angle sensors and distance measurement sensors, and have to be very expensive.

本発明は、コスト面において優れた移動体、移動体制御システム及び移動体の制御方法を提供することを目的とする。   An object of the present invention is to provide a moving body, a moving body control system, and a moving body control method that are excellent in terms of cost.

本発明にかかる移動体は、位置情報を含む模様を撮像するカメラと、前記カメラによって撮影された画像信号から位置情報を取得する画像処理部と、移動体を移動させる移動機構と、前記画像処理部によって取得された位置情報に基づいて自己位置を推定し、推定された自己位置に基づいて、予め位置と関連づけられた走行面情報を取得し、当該走行面情報に基づいて、前記移動体の動作制御を行う制御計算部を備えたものである。   The moving body according to the present invention includes a camera that captures a pattern including position information, an image processing unit that acquires position information from an image signal captured by the camera, a moving mechanism that moves the moving body, and the image processing. Based on the position information acquired by the unit, based on the estimated self-position, acquiring travel surface information associated with the position in advance, and based on the travel surface information, A control calculation unit that performs operation control is provided.

ここで、前記移動体は、さらに搭乗者を乗せる座面の角度を駆動制御する駆動部を備え、前記制御計算部は、走行面情報に含まれる走行面の傾斜情報に基づいて、前記駆動部を制御して、座面制御を実行することが好ましい。
また、前記制御計算部は、走行面情報に含まれる障害物情報に基づいて、前記移動機構を駆動するための指令値を算出するときのゲインを制御することが望ましい。
Here, the moving body further includes a drive unit that drives and controls an angle of a seating surface on which a passenger is placed, and the control calculation unit is configured to perform the driving unit based on inclination information of a running surface included in running surface information. It is preferable to control the seating surface to control.
In addition, it is preferable that the control calculation unit controls a gain when calculating a command value for driving the moving mechanism based on obstacle information included in the traveling surface information.

このとき、前記制御計算部は、前記障害物情報が当該移動体の周囲に障害物があることを示す場合に、当該ゲインを、通常よりも小さく切り替えることが望ましい。
また、前記制御計算部は、前記画像処理部によって位置情報が取得できない場合に、オドメトリによって自己位置を推定することが望ましい。
ここで、前記模様は、移動体が走行する床面に付されていることが望ましい。
At this time, when the obstacle information indicates that there is an obstacle around the moving body, the control calculation unit preferably switches the gain to be smaller than usual.
In addition, it is preferable that the control calculation unit estimates a self-position by odometry when position information cannot be acquired by the image processing unit.
Here, it is desirable that the pattern is attached to the floor surface on which the moving body travels.

本発明にかかる移動体制御システムは、移動体の周囲環境に付され、位置情報を含む模様を撮影して、移動体を制御する制御する移動体制御システムであって、前記模様を撮像するカメラと、前記カメラによって撮影された模様より位置情報を取得する画像処理部と、前記画像処理部によって取得された位置情報に基づいて自己位置を推定し、推定された自己位置に基づいて、予め位置と関連づけられた走行面情報を取得し、当該走行面情報に基づいて、前記移動体の動作制御を行う制御計算部を備えたものである。   A moving body control system according to the present invention is a moving body control system for controlling a moving body by photographing a pattern including position information attached to an environment around the moving body, and imaging the pattern And an image processing unit that acquires position information from a pattern photographed by the camera, a self-position is estimated based on the position information acquired by the image processing unit, and a position is previously determined based on the estimated self-position. Is provided with a control calculation unit that obtains the travel surface information associated with and controls the operation of the moving body based on the travel surface information.

ここで、前記移動体は、さらに搭乗者を乗せる座面の角度を駆動制御する駆動部を備え、前記制御計算部は、走行面情報に含まれる走行面の傾斜情報に基づいて、前記駆動部を制御して、座面制御を実行することが望ましい。   Here, the moving body further includes a drive unit that drives and controls an angle of a seating surface on which a passenger is placed, and the control calculation unit is configured to perform the driving unit based on inclination information of a running surface included in running surface information. It is desirable to control the seating surface to control.

また、前記制御計算部は、走行面情報に含まれる障害物情報に基づいて、前記移動機構を駆動するための指令値を算出するときのゲインを制御することが望ましい。   In addition, it is preferable that the control calculation unit controls a gain when calculating a command value for driving the moving mechanism based on obstacle information included in the traveling surface information.

さらに、前記制御計算部は、前記障害物情報が当該移動体の周囲に障害物があることを示す場合に、当該ゲインを、通常よりも小さく切り替えることが好ましい。
また、前記制御計算部は、前記画像処理部によって位置情報が取得できない場合に、オドメトリによって自己位置を推定することが望ましい。
Furthermore, it is preferable that the control calculation unit switches the gain to be smaller than usual when the obstacle information indicates that there is an obstacle around the moving body.
In addition, it is preferable that the control calculation unit estimates a self-position by odometry when position information cannot be acquired by the image processing unit.

前記移動体制御システムは、通信装置と、移動体を備え、当該通信装置は、前記カメラと、前記画像処理部と、当該画像処理部により取得された位置情報を前記移動体に対して送信する送信手段とを有し、前記移動体は、前記送信手段より送信された位置情報を受信する受信手段と、前記制御計算部とを有し、当該移動体の制御計算部は、受信した位置情報に基づいて、前記移動体の動作制御を行うようにしてもよい。   The mobile body control system includes a communication device and a mobile body, and the communication device transmits position information acquired by the camera, the image processing unit, and the image processing unit to the mobile body. The mobile unit includes a reception unit that receives the positional information transmitted from the transmission unit, and the control calculation unit. The control calculation unit of the mobile unit receives the positional information received from the mobile unit. Based on the above, the operation control of the moving body may be performed.

このとき、前記制御計算部は、受信した位置情報に基づいて、当該位置情報により特定される位置に当該移動体が移動するように、前記移動機構の駆動制御を実行することが好ましい。   At this time, it is preferable that the control calculation unit performs drive control of the moving mechanism based on the received position information so that the moving body moves to a position specified by the position information.

本発明にかかる移動体の制御方法は、位置情報を含む模様を撮像するステップと、 撮像された画像信号から位置情報を取得するステップと、取得された位置情報に基づいて自己位置を推定するステップと、推定された自己位置に基づいて、予め位置と関連づけられた走行面情報を取得するステップと、当該走行面情報に基づいて、前記移動体の動作制御を行うステップを備えたものである。   The method for controlling a moving body according to the present invention includes a step of imaging a pattern including position information, a step of acquiring position information from the captured image signal, and a step of estimating a self-position based on the acquired position information. And a step of acquiring traveling surface information associated with the position in advance based on the estimated self-position, and a step of performing operation control of the moving body based on the traveling surface information.

ここで、前記移動体の動作制御を行うステップは、走行面情報に含まれる走行面の傾斜情報に基づいて、座面制御を実行することを特徴とするものである。   Here, the step of performing the operation control of the moving body is characterized in that the seating surface control is executed based on the inclination information of the traveling surface included in the traveling surface information.

また、前記移動体の動作制御を行うステップは、走行面情報に含まれる障害物情報に基づいて、移動体の移動機構を駆動するための指令値を算出するときのゲインを制御することが好ましい。   The step of controlling the operation of the moving body preferably controls a gain when calculating a command value for driving the moving mechanism of the moving body based on obstacle information included in the traveling surface information. .

また、前記障害物情報が当該移動体の周囲に障害物があることを示す場合に、当該ゲインを、通常よりも小さく切り替えることが望ましい。
また、位置情報が取得できない場合に、オドメトリによって自己位置を推定することが望ましい。
ここで、前記模様は、移動体が走行する床面に付されていることが望ましい。
In addition, when the obstacle information indicates that there is an obstacle around the moving body, it is desirable to switch the gain to be smaller than usual.
In addition, when the position information cannot be acquired, it is desirable to estimate the self position by odometry.
Here, it is desirable that the pattern is attached to the floor surface on which the moving body travels.

本発明によれば、コスト面において優れた移動体、移動体制御システム及び移動体の制御方法を提供することができる。   According to the present invention, it is possible to provide a movable body, a movable body control system, and a movable body control method that are excellent in terms of cost.

以下、本発明にかかる移動体の実施形態を、図面に基づいて詳細に説明する。但し、本発明が以下の実施形態に限定される訳ではない。また、説明を明確にするため、以下の記載及び図面は、適宜、簡略化されている。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments of a moving body according to the present invention will be described in detail based on the drawings. However, the present invention is not limited to the following embodiments. In addition, for clarity of explanation, the following description and drawings are simplified as appropriate.

発明の実施の形態1.
まず、図1を用いて、本実施の形態1にかかる移動体制御システムの概略構成について説明する。図1は、上面から当該移動体制御システムを見た図である。かかる移動体制御システムは、移動体1と、位置情報を埋め込んだ模様を有する床面2を備えている。
Embodiment 1 of the Invention
First, the schematic configuration of the mobile control system according to the first embodiment will be described with reference to FIG. FIG. 1 is a view of the moving body control system as viewed from above. Such a moving body control system includes a moving body 1 and a floor 2 having a pattern in which position information is embedded.

移動体1は、床面上を搭乗者を乗せた状態で移動する自律移動型の移動ロボットである。移動体1は、搭載されたカメラによって床面2上の模様を撮影し、当該模様に埋め込まれた位置情報を認識して、自己位置を推定し、推定された自己位置に基づいて走行制御を実行する。   The mobile body 1 is an autonomous mobile robot that moves with a passenger on the floor. The moving body 1 captures a pattern on the floor surface 2 with a mounted camera, recognizes position information embedded in the pattern, estimates its own position, and performs traveling control based on the estimated own position. Execute.

本実施の形態1にかかる移動体1は、特に、推定した自己位置に基づいてマップに含まれる段差や坂道等の傾斜情報に基づいて、座面制御を実行する。例えば、当該移動体1は、走行面の傾斜情報によって走行面が傾斜することを検出した場合にも、座面が常に平坦面に対して水平に近づくように、座面制御を実行する。   The moving body 1 according to the first embodiment performs seating surface control based on inclination information such as steps and slopes included in the map based on the estimated self-position. For example, even when the moving body 1 detects that the traveling surface is inclined based on the inclination information of the traveling surface, the moving body 1 performs the seating surface control so that the seating surface always approaches the horizontal with respect to the flat surface.

また、本実施の形態1にかかる移動体1は、推定した自己位置に基づいて予め作成されたマップに含まれる障害物情報に基づいて、ゲイン制御を実行する。例えば、当該移動体1は、移動方向に障害物があると判定した場合には、ゲインが低くなるように変更し、障害物に衝突しないように制御する。   In addition, the moving body 1 according to the first embodiment executes gain control based on obstacle information included in a map created in advance based on the estimated self-position. For example, when it is determined that there is an obstacle in the moving direction, the moving body 1 is changed so that the gain becomes low, and is controlled so as not to collide with the obstacle.

床面2には、位置情報がコード化された模様がプリントとしたシートが貼り付けられている。かかる模様を用いた位置認識システムは、特開2008−52403号公報に開示されている。図1に示される模様は、見た目ではランダムに数種類の図形が並んでいるように見える。しかし実際には、4つの図形を用いて、それぞれの図形の配置場所と回転角度に規則性を与えることによって、位置情報をコード化している(図2、図3)。模様中には、図3のように模様平面上での位置と1対1に対応しているIDが敷き詰められている。   A sheet printed with a pattern in which position information is encoded is attached to the floor 2. A position recognition system using such a pattern is disclosed in Japanese Patent Application Laid-Open No. 2008-52403. The pattern shown in FIG. 1 appears to have several types of figures arranged at random. However, in actuality, position information is coded by using four figures and giving regularity to the arrangement positions and rotation angles of the figures (FIGS. 2 and 3). In the pattern, as shown in FIG. 3, IDs corresponding to the positions on the pattern plane are arranged.

IDの表現方法を図4に例示する。各IDは4種類の図形の回転角によって表現する。図4に記したようにそれぞれの図形をタイプ1、タイプ2、タイプ3、タイプ4と名付ける。タイプ1からタイプ4までの図形の中心(重心)を結ぶと内角が60度と120度の平行四辺形になっており、タイプ1からタイプ4は順に時計回りに並んでいる。   FIG. 4 illustrates an ID expression method. Each ID is expressed by rotation angles of four types of figures. As shown in FIG. 4, the respective figures are named Type 1, Type 2, Type 3, and Type 4. Connecting the centers (center of gravity) of figures from type 1 to type 4 forms parallelograms with internal angles of 60 degrees and 120 degrees, and types 1 to 4 are arranged in order clockwise.

タイプ1とタイプ2の中心を結んだ線分、またはタイプ3とタイプ4の中心を結んだ線分を基準線(base line)とし、各図形の点線で表した線分とのなす角によってIDを決定する。これらの図形は、それぞれ基準線に対して5、15、25、・・・、175度と10度ごとに傾いており、1つの図形につき18種類のIDを表現することができる。   A line segment connecting the centers of Type 1 and Type 2 or a line segment connecting the centers of Type 3 and Type 4 is used as a base line, and the ID is determined by the angle formed by the dotted line of each figure. To decide. These figures are inclined at 5, 15, 25,... 175 degrees and 10 degrees with respect to the reference line, respectively, and 18 kinds of IDs can be expressed for each figure.

この模様ではタイプ1、タイプ3、タイプ4が点対象の図形なので各図形18種類しかIDを表現できないが、点対象ではない図形を使用することで1つの図形に対して36種類のIDを表現できることになる。本模様ではタイプ4をIDの誤認識を防ぐための誤り検出図形として利用しており、タイプ4の傾きはタイプ1からタイプ3の傾きによって決定される。そのため、3種類の図形でID表現を行っており、合計18(=5832)種類のIDを表わすことができる。床に1つのIDを20[cm]×20[cm]のスペースで表示したとすると、233.28[m]の広さに対応することができる。IDは図4に示されるように、各図形の角度を並べることにより表現されており、(タイプ1の傾き(α)、タイプ2の傾き(β)、タイプ3の傾き(γ)、タイプ4の傾き(δ)というように表示する。 In this pattern, Type 1, Type 3, and Type 4 are point target figures, so only 18 types of IDs can be expressed. However, by using non-point target figures, 36 types of IDs can be expressed for one figure. It will be possible. In this pattern, type 4 is used as an error detection figure for preventing erroneous ID recognition, and the inclination of type 4 is determined by the inclination of type 1 to type 3. For this reason, ID expression is performed with three types of graphics, and a total of 18 3 (= 5832) types of IDs can be expressed. If one ID is displayed on the floor with a space of 20 [cm] × 20 [cm], it can correspond to an area of 233.28 [m 2 ]. As shown in FIG. 4, the ID is expressed by arranging the angles of each figure (type 1 inclination (α), type 2 inclination (β), type 3 inclination (γ), type 4). The slope is expressed as (δ).

このようにコード化されたIDを並べることによって模様を表現していく。模様を表現する際に、本手法では図形の種類を増やすことで、表現できるIDの数を容易に増やすことができる。各図形を10度ずつ回転させるものでは、1つの図形を追加することにより18倍、2つ追加することにより18倍というように指数関数的にIDの数を増加させることができ、部屋の広さに応じてIDの数を調整することができる。また、IDの大きさや密度、各図形の配置位置を変えることにより用途に応じた様々な模様を作ることもできる。 A pattern is expressed by arranging the IDs thus coded. When expressing a pattern, the present method can easily increase the number of IDs that can be expressed by increasing the types of figures. The is intended to rotate by 10 degrees each figure, it is possible to increase the number of exponentially ID as that 18 double 18-fold by adding one figure, by adding two to, room The number of IDs can be adjusted according to the size. Various patterns can be created according to the application by changing the size and density of the ID and the arrangement position of each figure.

本実施の形態1にかかる移動体1の構成について、図5、図6を用いて説明する。図5は、移動体1の構成を模式的に示す正面図であり、図6は、移動体1の構成を模式的に示す側面図である。なお、図5、図6には、XYZの直交座標系が示されている。Y軸が移動体1の左右方向を示し、X軸が移動体1の前後方向を示し、Z軸が鉛直方向を示している。従って、X軸がロール軸に対応し、Y軸がピッチ軸、Z軸がヨー軸となる。図5、6において、+X方向が移動体1の前方向であるとして説明する。   A configuration of the moving body 1 according to the first embodiment will be described with reference to FIGS. 5 and 6. FIG. 5 is a front view schematically illustrating the configuration of the moving body 1, and FIG. 6 is a side view schematically illustrating the configuration of the moving body 1. 5 and 6 show an XYZ orthogonal coordinate system. The Y axis indicates the left-right direction of the moving body 1, the X axis indicates the front-rear direction of the moving body 1, and the Z axis indicates the vertical direction. Therefore, the X axis corresponds to the roll axis, the Y axis becomes the pitch axis, and the Z axis becomes the yaw axis. 5 and 6, the + X direction is assumed to be the front direction of the moving body 1.

図5に示されるように移動体1は、搭乗部3と、車台13を備えている。車台13は、移動体1の本体部であり、搭乗部3を支持している。車台13は、車輪6、カメラ7、フットレスト10、筐体11、制御計算部51、バッテリ52、センサ処理部53、画像処理部54を備えている。車輪6は、前輪601と後輪602から構成されている。ここでは、1つの前輪601と2つの後輪602からなる3輪型の移動体1を説明する。   As shown in FIG. 5, the moving body 1 includes a riding section 3 and a chassis 13. The chassis 13 is a main body of the moving body 1 and supports the riding section 3. The chassis 13 includes wheels 6, a camera 7, a footrest 10, a housing 11, a control calculation unit 51, a battery 52, a sensor processing unit 53, and an image processing unit 54. The wheel 6 includes a front wheel 601 and a rear wheel 602. Here, a three-wheeled moving body 1 composed of one front wheel 601 and two rear wheels 602 will be described.

搭乗部3は、搭乗席8と、力センサ9を備えている。そして、搭乗席8の上面が座面8aとなる。すなわち、座面8aの上に、搭乗者が乗った状態で移動体1が移動する。座面8aは平面でもよいし、臀部の形に合わせた形状となっていてもよい。さらに、搭乗席8に背もたれを設けてもよい。すなわち、搭乗席8を車椅子形状としてもよい。乗り心地を向上させるために、搭乗席8にクッション性を持たせてもよい。移動体1が水平面上にある場合、座面8aが水平になっている。力センサ9は、搭乗者の体重移動を検知する。すなわち、力センサ9は、搭乗席8の座面8aに加わる力を検出する。そして、力センサ9は、座面8aに加わる力に応じた計測信号を出力する。力センサ9は、搭乗席8の下側に配置される。すなわち、車台13と搭乗席8の間に、力センサ9が配設されている。   The boarding unit 3 includes a boarding seat 8 and a force sensor 9. And the upper surface of the boarding seat 8 becomes the seat surface 8a. That is, the moving body 1 moves on the seat surface 8a in a state where the passenger is on the seat surface 8a. The seating surface 8a may be a flat surface or may have a shape that matches the shape of the collar. Further, a backrest may be provided on the boarding seat 8. That is, the boarding seat 8 may have a wheelchair shape. In order to improve riding comfort, the passenger seat 8 may be cushioned. When the moving body 1 is on a horizontal plane, the seating surface 8a is horizontal. The force sensor 9 detects the weight shift of the passenger. That is, the force sensor 9 detects the force applied to the seat surface 8 a of the passenger seat 8. The force sensor 9 outputs a measurement signal corresponding to the force applied to the seating surface 8a. The force sensor 9 is disposed below the passenger seat 8. That is, the force sensor 9 is disposed between the chassis 13 and the passenger seat 8.

力センサ9としては、例えば、6軸力センサを用いることができる。この場合、図7に示されるように、3軸方向の並進力(SFx、SFy、SFz)と各軸周りのモーメント(SMx、SMy、SMz)を計測する。これらの並進力とモーメントは、力センサ9の中心を原点に取った値である。移動体1のセンサ処理部53に出力する計測信号をモーメント(Mx、My、Mz)とし、それらのモーメントの制御座標原点を図6に示す(a、b、c)とすると、Mx、My、Mzは、それぞれ以下のように表すことができる。
Mx=SMx+c・SFy−b・SFz
My=SMy+a・SFz−c・SFx
Mz=SMz+b・SFx−a・SFy
As the force sensor 9, for example, a 6-axis force sensor can be used. In this case, as shown in FIG. 7, the translational forces (SFx, SFy, SFz) in the triaxial direction and the moments (SMx, SMy, SMz) around each axis are measured. These translational forces and moments are values with the center of the force sensor 9 as the origin. If the measurement signals output to the sensor processing unit 53 of the moving body 1 are moments (Mx, My, Mz) and the control coordinate origins of these moments are (a, b, c) shown in FIG. 6, Mx, My, Mz can be expressed as follows.
Mx = SMx + c · SFy−b · SFz
My = SMy + a · SFz−c · SFx
Mz = SMz + b.SFx-a.SFy

なお、図7は、各軸を説明するための図である。力センサ9として、モーメント(Mx、My、Mz)を計測できるものであればよい。各軸周りのモーメント(SMx、SMy、SMz)を計測できる3軸力センサを制御座標原点に配置して、Mx,My、Mzを直接計測してもよい。また、1軸の力センサを3つ設けてもよい。さらには、歪みゲージや、ポテンショを用いたアナログジョイスティックなどでもよい。すなわち、直接的又は間接的に3軸周りのモーメントを計測できるものであればよい。そして、力センサ9は、3つのモーメント(Mx、My、Mz)を計測信号として出力する。   In addition, FIG. 7 is a figure for demonstrating each axis | shaft. Any force sensor 9 that can measure moments (Mx, My, Mz) may be used. A triaxial force sensor capable of measuring moments (SMx, SMy, SMz) around each axis may be arranged at the control coordinate origin to directly measure Mx, My, Mz. Three uniaxial force sensors may be provided. Furthermore, an analog joystick using a strain gauge or a potentiometer may be used. That is, it is only necessary to be able to measure moments around three axes directly or indirectly. The force sensor 9 outputs three moments (Mx, My, Mz) as measurement signals.

筐体11は、箱形状を有しており、前方下側が突出している。そして、この突出した部分の上にフットレスト10が配設されている。フットレスト10は、搭乗席8の前方側に設けられている。従って、搭乗者が搭乗席8に搭乗した状態では、搭乗者の両足がフットレスト10上に乗せられている。   The housing 11 has a box shape, and the front lower side protrudes. And the footrest 10 is arrange | positioned on this protruding part. The footrest 10 is provided on the front side of the passenger seat 8. Therefore, in the state where the passenger has boarded the boarding seat 8, both feet of the passenger are placed on the footrest 10.

筐体11には、駆動モータ603、制御計算部51、バッテリ52、センサ処理部53、画像処理部54が内蔵されている。バッテリ52は、駆動モータ603、制御計算部51、センサ処理部53、画像処理部54、カメラ7、力センサ9などの各電気機器に電源を供給する。   The housing 11 includes a drive motor 603, a control calculation unit 51, a battery 52, a sensor processing unit 53, and an image processing unit 54. The battery 52 supplies power to each electrical device such as the drive motor 603, the control calculation unit 51, the sensor processing unit 53, the image processing unit 54, the camera 7, and the force sensor 9.

筐体11には、車輪6が回転可能に取り付けられている。ここでは、円盤上の車輪6が3つ設けられている。車輪6の一部は、筐体11の下面よりも下側に突出している。従って、車輪6が床面と接触している。2つの後輪602は、筐体11の後部に設けられている。後輪602は、駆動輪であり、駆動モータ603によって回転する。すなわち、駆動モータ603が駆動することによって、後輪602がその車軸周りに回転する。後輪602は、左右両側に設けられている。なお、後輪602には、その回転速度を読み取るためのエンコーダが内蔵されている。2つの後輪602は、同軸上に配置されている。左の後輪602の車軸と、右の後輪602の車軸は、同一直線上に配置されている。   Wheels 6 are rotatably attached to the housing 11. Here, three wheels 6 on the disk are provided. A part of the wheel 6 protrudes below the lower surface of the housing 11. Therefore, the wheel 6 is in contact with the floor surface. The two rear wheels 602 are provided at the rear part of the housing 11. The rear wheel 602 is a drive wheel and is rotated by a drive motor 603. That is, when the drive motor 603 is driven, the rear wheel 602 rotates around the axle. The rear wheels 602 are provided on both the left and right sides. The rear wheel 602 has a built-in encoder for reading its rotational speed. The two rear wheels 602 are arranged on the same axis. The axle of the left rear wheel 602 and the axle of the right rear wheel 602 are arranged on the same straight line.

また、車輪6には前輪601が含まれている。そして、1つの前輪601が筐体11の前部中央に設けられている。従って、Y方向において、2つの後輪602の間に、前輪601が配設されている。X方向において、前輪601の車軸と後輪602の車軸との間に、搭乗席8が設けられている。前輪601は、従動輪(補助輪)であり、移動体1の移動に応じて回転する。すなわち、後輪602の回転によって移動する方向、及び速度に応じて、前輪601が回転する。このように、後輪602の前に補助輪である前輪601を設けることで、転倒を防ぐことができる。前輪601は、フットレスト10の下方に設けられている。   Further, the wheel 6 includes a front wheel 601. One front wheel 601 is provided at the center of the front portion of the housing 11. Accordingly, the front wheel 601 is disposed between the two rear wheels 602 in the Y direction. A passenger seat 8 is provided between the axle of the front wheel 601 and the axle of the rear wheel 602 in the X direction. The front wheel 601 is a driven wheel (auxiliary wheel), and rotates according to the movement of the moving body 1. That is, the front wheel 601 rotates according to the moving direction and speed by the rotation of the rear wheel 602. Thus, by providing the front wheel 601 that is an auxiliary wheel in front of the rear wheel 602, it is possible to prevent the vehicle from falling. The front wheel 601 is provided below the footrest 10.

制御計算部51はCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、通信用のインタフェイスなどを有する演算処理装置である。また、制御計算部51は、着脱可能なHDD、光ディスク、光磁気ディスク等を有し、各種プログラム、制御パラメータやマップなどを記憶し、それらのプログラム、データやマップを必要に応じてメモリ(不図示)等に供給する。もちろん、制御計算部51は、物理的に一つの構成に限られるものではない。制御計算部51は、力センサ9からの出力に応じて駆動モータ603の動作を制御するための処理を行う。また、制御計算部51は、カメラ7によって撮影され、画像処理部54によって得られた位置情報タから自己位置を推定する。さらに、制御計算部51は、推定した自己位置に基づいて、予め作成されたマップから、その推定自己位置及びその近傍の傾斜、障害物等の走行面の状態を示す走行面情報を取得する。そして、制御計算部51は、当該走行面情報に基づいて、走行制御や座面制御を実行する。   The control calculation unit 51 is an arithmetic processing unit having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a communication interface, and the like. The control calculation unit 51 includes a removable HDD, an optical disk, a magneto-optical disk, and the like, stores various programs, control parameters, maps, and the like, and stores these programs, data, and maps as necessary. Supplied). Of course, the control calculation unit 51 is not physically limited to one configuration. The control calculation unit 51 performs processing for controlling the operation of the drive motor 603 in accordance with the output from the force sensor 9. Further, the control calculation unit 51 estimates its own position from the position information obtained by the camera 7 and obtained by the image processing unit 54. Further, based on the estimated self-position, the control calculation unit 51 acquires travel surface information indicating the state of the travel surface such as the presumed self-position, the inclination near the estimated self-position, and an obstacle. And the control calculation part 51 performs driving | running | working control and seat surface control based on the said driving | running | working surface information.

このような制御を行う際に用いられるマップは、模様が設けられた床面2上の位置と、走行面情報が関連付けられて、制御計算部51上の所定のメモリに格納されて構成される。例えば、当該マップは、位置を示す座標情報と、走行面情報が対応づけられたテーブル情報としてメモリに格納される。   The map used when performing such control is configured by associating the position on the floor surface 2 with the pattern and the traveling surface information and storing them in a predetermined memory on the control calculation unit 51. . For example, the map is stored in the memory as table information in which coordinate information indicating a position and traveling surface information are associated with each other.

センサ処理部53は、力センサ9からの計測信号に対応する計測データに対して、演算処理を行う。これにより、制御計算部51に入力される入力モーメント値が算出される。なお、センサ処理部53は、力センサ9に内蔵されていてもよく、制御計算部51に内蔵されていてもよい。   The sensor processing unit 53 performs arithmetic processing on the measurement data corresponding to the measurement signal from the force sensor 9. Thereby, the input moment value input to the control calculation unit 51 is calculated. The sensor processing unit 53 may be built in the force sensor 9 or may be built in the control calculation unit 51.

画像処理部54は、カメラ7から画像信号を入力し、画像処理を行い、位置情報を取得して、これを制御計算部51に出力する。   The image processing unit 54 receives an image signal from the camera 7, performs image processing, acquires position information, and outputs this to the control calculation unit 51.

カメラ7は、床面2に設けられた模様を撮影する。カメラ7は、複数のカメラ71〜74より構成される。それぞれのカメラ71〜74は、図示しない配線により画像処理部54に接続されている。カメラ7としては、例えば、比較的安価なUSB(Universal Serial Bus)カメラが用いられる。カメラ71、72は、筐体11の左右両側面の下方部に設置されている。カメラ73、74は、筐体11の前後両側面の下方部に設置されている。カメラ71〜74は、床面2に設けられた模様を撮影するために、下方及びその近傍領域を撮影する。   The camera 7 photographs a pattern provided on the floor 2. The camera 7 is composed of a plurality of cameras 71 to 74. Each of the cameras 71 to 74 is connected to the image processing unit 54 by wiring (not shown). As the camera 7, for example, a relatively inexpensive USB (Universal Serial Bus) camera is used. The cameras 71 and 72 are installed in the lower part of the left and right side surfaces of the housing 11. The cameras 73 and 74 are installed in the lower part of the front and rear side surfaces of the housing 11. The cameras 71 to 74 photograph the lower part and the vicinity thereof in order to photograph the pattern provided on the floor surface 2.

なお、本例におけるカメラ7は、4個のカメラより構成されているが、4個に限られず、1個であってもよい。また、カメラ7から得られた画像データは、移動体1の位置情報を取得するために用いられるが、さらに、移動体1の周辺の障害物を検出するために用いてもよい。特に、移動体1の前方を撮影可能なカメラ73は前方の障害物を、移動体1の後方を撮影可能なカメラ74は後方の障害物をそれぞれ検出することができる。   The camera 7 in this example is composed of four cameras, but is not limited to four, and may be one. Further, the image data obtained from the camera 7 is used for acquiring position information of the moving body 1, but may be used for detecting an obstacle around the moving body 1. In particular, the camera 73 capable of photographing the front of the moving body 1 can detect a front obstacle, and the camera 74 capable of photographing the rear of the moving body 1 can detect a rear obstacle.

ここで、床面2の模様に基づいて位置情報を取得する処理について説明する。移動体1は、カメラ7によって模様の画像信号を取得する。そして、画像処理部54は、撮影された模様の画像信号を画像処理して位置情報(ID)を識別する。制御計算部51は、位置情報に基づいて移動体1の3次元位置を同定する。このように、カメラ7、画像処理部54、制御計算部51は、デコード手段として機能する。   Here, the process which acquires position information based on the pattern of the floor surface 2 is demonstrated. The moving body 1 acquires a pattern image signal by the camera 7. Then, the image processing unit 54 performs image processing on the image signal of the captured pattern to identify position information (ID). The control calculation unit 51 identifies the three-dimensional position of the moving body 1 based on the position information. Thus, the camera 7, the image processing unit 54, and the control calculation unit 51 function as a decoding unit.

画像処理部4の具体的に処理について、図2〜図4の例を用いて説明する。画像処理部4は、まず初めにRGBの合計値に閾値を設け、キャプチャされた画像の全ピクセルに対して2値化処理を行う。そして、2値化処理されたそれぞれの領域に対してラベリング処理を行う。ラベリングされた図形は、頂点の数と辺の長さの情報によりタイプ1からタイプ4の図形に分類される。この時どれにも属さないものはタイプ分けされず、以降のステップには使用されない。タイプ分けされたそれぞれの図形は、その後IDを示す図形群の1つとしてグループ化され、グループ化された図形群の基準線と各図形のひとつの辺の角度からIDが計算される。各IDには1対1に対応した2次元の座標値が割り振られているため、求めたIDからカメラの模様平面上の2次元座標を求めることができる。   Specific processing of the image processing unit 4 will be described with reference to examples of FIGS. First, the image processing unit 4 sets a threshold value for the total value of RGB, and performs binarization processing on all pixels of the captured image. Then, a labeling process is performed on each binarized area. Labeled figures are classified into type 1 to type 4 figures based on the number of vertices and the side length information. At this time, those that do not belong to any are not typed and are not used in subsequent steps. Each typed graphic is then grouped as one of the graphic groups indicating the ID, and the ID is calculated from the reference line of the grouped graphic group and the angle of one side of each graphic. Since each ID is assigned a two-dimensional coordinate value corresponding to one-to-one, the two-dimensional coordinate on the pattern plane of the camera can be obtained from the obtained ID.

ID計算が終わった後はカメラ7に映っている図形の大きさから、あらかじめ計測して求めた計算式を使ってカメラ7が模様からどれだけ離れているかを計算する。例えば、タイプ1の図形のピクセル数を使用して、模様からカメラ7の距離を算出する。最後に、IDから求めた模様平面上の2次元座標値と模様からの距離の値により3次元位置を同定する、という流れになっている。   After the ID calculation is completed, how far the camera 7 is from the pattern is calculated from the size of the figure shown on the camera 7 using a calculation formula obtained by measurement in advance. For example, the distance of the camera 7 is calculated from the pattern using the number of pixels of the type 1 figure. Finally, the three-dimensional position is identified based on the two-dimensional coordinate value on the pattern plane obtained from the ID and the distance value from the pattern.

IDを示す図形群のグループ化の際には、タイプ1からタイプ4を1つずつ選びグループとしてまとめるのであるが、その手順は次の通りである。まず、キャプチャされた映像からタイプ1を見つける。そして、そのタイプ1と隣の図形までの距離の中にあるタイプ2を見つける。同様に、タイプ2から上記の一定距離内にあるタイプ3、タイプ3から一定距離内にあるタイプ4というように探していく。タイプ4が見つかった後、タイプ4から一定距離内にあるタイプ1を探し、それが初めのタイプ1と同じかどうかを確認する。タイプ4から探したタイプ1と最初のタイプ1が同じであれば、タイプ1からタイプ4までが時計周りに並んでいるかどうかをチェックした後、グループとして認識する。グループとして認識されない場合には、タイプ4で他の候補を選び確認する。タイプ4の候補が他になかったら、また、最初と違うタイプ4でもグループとして認識できなかったら、タイプ3の他の候補を選ぶというようにタイプ1を上位、タイプ4を下位として深さ優先探索を行っていく。IDを示す図形群が多数あれば、全ての図形に対してこのアルゴリズムを適用し、全てのIDから得られた値の平均値をカメラの3次元位置とする。   When grouping graphic groups indicating IDs, type 1 to type 4 are selected and grouped together as a group. The procedure is as follows. First, type 1 is found from the captured video. Then, type 2 within the distance from the type 1 to the adjacent figure is found. Similarly, a search is made such that type 3 is within a certain distance from type 2 and type 4 is within a certain distance from type 3. After type 4 is found, look for type 1 that is within a certain distance from type 4 and check if it is the same as the first type 1. If Type 1 searched from Type 4 and the first Type 1 are the same, after checking whether Type 1 to Type 4 are arranged in a clockwise direction, they are recognized as a group. If it is not recognized as a group, another candidate is selected and confirmed in type 4. If there is no other type 4 candidate, or if another type 4 that is different from the first is not recognized as a group, another type 3 candidate is selected. I will go. If there are a large number of graphic groups indicating IDs, this algorithm is applied to all graphic elements, and the average value obtained from all IDs is set as the three-dimensional position of the camera.

次に、移動体1を移動させるための制御系について、図8を用いて説明する。図8は、移動体1を移動させるための制御系の構成を示すブロック図である。まず、力センサ9によって、座面8aにかかる力を検出する。センサ処理部53は、力センサ9からの計測信号に対して処理を行う。すなわち、力センサ9から出力される計測信号に対応する計測データに対して、演算処理を行う。これにより、制御計算部51に入力される入力モーメント値が算出される。   Next, a control system for moving the moving body 1 will be described with reference to FIG. FIG. 8 is a block diagram showing a configuration of a control system for moving the moving body 1. First, the force applied to the seating surface 8a is detected by the force sensor 9. The sensor processing unit 53 processes the measurement signal from the force sensor 9. That is, arithmetic processing is performed on measurement data corresponding to the measurement signal output from the force sensor 9. Thereby, the input moment value input to the control calculation unit 51 is calculated.

このように、力センサ9で計測されたモーメント(Mx、My、Mz)が各軸周りの入力モーメント値(Mx'、My'、Mz')に変換される。そして、入力モーメント値が各後輪602を動作させるために入力される入力値となる。このように、センサ処理部53は、各軸毎に入力値を算出する。入力モーメント値の大きさは、モーメントの大きさに応じて決まる。入力モーメント値の符号は、計測されたモーメントの符号によって決まる。すなわち、モーメントが正の場合、入力モーメント値も正となり、モーメントが負の場合、入力モーメント値も負となる。例えば、モーメントMxが正の場合、入力モーメント値Mx'も正となる。従って、この入力モーメント値が搭乗者の意図する操作に対応する入力値となる。   In this manner, the moments (Mx, My, Mz) measured by the force sensor 9 are converted into input moment values (Mx ′, My ′, Mz ′) around each axis. The input moment value becomes an input value that is input to operate each rear wheel 602. Thus, the sensor processing unit 53 calculates an input value for each axis. The magnitude of the input moment value is determined according to the magnitude of the moment. The sign of the input moment value is determined by the sign of the measured moment. That is, when the moment is positive, the input moment value is also positive, and when the moment is negative, the input moment value is also negative. For example, when the moment Mx is positive, the input moment value Mx ′ is also positive. Therefore, this input moment value becomes an input value corresponding to the operation intended by the passenger.

制御計算部51は、入力モーメント値(Mx'、My'、Mz')に基づいて、入力トルクτiを求める。例えば、入力トルクτi=(Mx'、My'、Mz')となる。そして、このトルクτiに基づいて制御計算を行う。これにより、駆動モータ603を駆動するための指令値が算出される。通常、トルクτiが大きいほど、指令値が大きくなる。この指令値は、駆動モータ603に出力される。なお、本実施形態では、左右の後輪602が駆動輪であるため、2つの駆動モータ603が図示されている。そして、一方の駆動モータ603が右の後輪602を回転させ、他方の駆動モータ603が左の後輪602を回転させる。駆動モータ603は、指令値に基づいて後輪602を回転させる。すなわち、駆動モータ603は、駆動輪である後輪602を回転させるための指令トルクを与える。もちろん、駆動モータ603は、減速機などを介して、後輪602に回転トルクを与えてもよい。例えば、制御計算部51から、指令値として指令トルクが入力された場合、その指令トルクで、駆動モータ603が回転する。これにより、後輪602が回転して、移動体1が所望の方向に、所望の速度で移動する。もちろん、指令値は、駆動モータ603のトルクに限らず、回転速度、回転数であってもよい。   The control calculation unit 51 obtains the input torque τi based on the input moment values (Mx ′, My ′, Mz ′). For example, the input torque τi = (Mx ′, My ′, Mz ′). And control calculation is performed based on this torque (tau) i. Thereby, a command value for driving the drive motor 603 is calculated. Normally, the command value increases as the torque τi increases. This command value is output to the drive motor 603. In the present embodiment, since the left and right rear wheels 602 are drive wheels, two drive motors 603 are illustrated. Then, one drive motor 603 rotates the right rear wheel 602, and the other drive motor 603 rotates the left rear wheel 602. The drive motor 603 rotates the rear wheel 602 based on the command value. That is, the drive motor 603 gives a command torque for rotating the rear wheel 602 that is a drive wheel. Of course, the drive motor 603 may give a rotational torque to the rear wheel 602 via a reduction gear or the like. For example, when a command torque is input as a command value from the control calculation unit 51, the drive motor 603 rotates with the command torque. Thereby, the rear wheel 602 rotates and the moving body 1 moves in a desired direction at a desired speed. Of course, the command value is not limited to the torque of the drive motor 603 but may be a rotation speed or a rotation speed.

さらに、駆動モータ603にはそれぞれ、エンコーダ603aが内蔵されている。このエンコーダ603aは、駆動モータ603の回転速度等を検出する。そして、検出された回転速度は、制御計算部51に入力される。制御計算部51は、現在の回転速度と、目標となる回転速度とに基づいてフィードバック制御を行う。例えば、目標回転速度と現在回転速度との差分に、適当なゲインを乗じて、指令値を算出する。もちろん、左右の駆動モータ603に出力される指令値は、異なる値であってもよい。すなわち、前方、又は後方に直進する場合は、左右の後輪602の回転速度が同じになるように制御し、左右に旋回する場合は、左右の後輪602が、同じ方向で異なる回転速度になるよう制御する。また、その場旋回する場合は、左右の後輪602が反対方向に回転するように制御する。   Furthermore, each of the drive motors 603 includes an encoder 603a. The encoder 603a detects the rotational speed of the drive motor 603 and the like. Then, the detected rotation speed is input to the control calculation unit 51. The control calculation unit 51 performs feedback control based on the current rotation speed and the target rotation speed. For example, the command value is calculated by multiplying the difference between the target rotation speed and the current rotation speed by an appropriate gain. Of course, the command values output to the left and right drive motors 603 may be different values. That is, when going straight forward or backward, the left and right rear wheels 602 are controlled to have the same rotational speed, and when turning left and right, the left and right rear wheels 602 have different rotational speeds in the same direction. Control to be. Further, when turning on the spot, the left and right rear wheels 602 are controlled to rotate in opposite directions.

例えば、搭乗者が前傾姿勢になると、搭乗席8にピッチ軸周りの力が加わる。すると、力センサ9が+Myのモーメントを検出する(図7参照)。この+Myのモーメントによって、センサ処理部53は、移動体1を並進させるための入力モーメント値My'を算出する。同様に、センサ処理部53は、Mxに基づいて入力モーメント値Mx'を算出し、Mzに基づいて、入力モーメント値Mz'を算出する。これにより、トルクτiが求められる。   For example, when the occupant assumes a forward leaning posture, a force around the pitch axis is applied to the passenger seat 8. Then, the force sensor 9 detects a moment of + My (see FIG. 7). Based on this + My moment, the sensor processing unit 53 calculates an input moment value My ′ for translating the moving body 1. Similarly, the sensor processing unit 53 calculates an input moment value Mx ′ based on Mx, and calculates an input moment value Mz ′ based on Mz. Thereby, the torque τi is obtained.

制御計算部51が、入力モーメント値とエンコーダの読み値に基づいて、指令値を算出する。これにより、左右の後輪602が所望の回転速度で回転する。同様に、右方向に曲がる場合は、搭乗者が右側に体重移動する。これにより、搭乗席にロール軸周りの力が加わり、力センサ9が+Mxのモーメントを検出する。この+Mxのモーメントによって、センサ処理部53は、移動体1を右方向に旋回させるための入力モーメント値Mx'を算出する。すなわち、移動体1が移動する方向に対応する舵角が求められる。そして、入力モーメント値に応じて、制御計算部51が指令値を算出する。この指令値に応じて、左右の後輪602が異なる回転速度で回転する。すなわち、左側の後輪602が右側の後輪602よりも速い回転速度で回転する。   The control calculation unit 51 calculates a command value based on the input moment value and the encoder reading. As a result, the left and right rear wheels 602 rotate at a desired rotational speed. Similarly, when turning rightward, the passenger moves weight to the right. Thereby, a force around the roll axis is applied to the passenger seat, and the force sensor 9 detects a moment of + Mx. Based on this + Mx moment, the sensor processing unit 53 calculates an input moment value Mx ′ for turning the moving body 1 in the right direction. That is, the steering angle corresponding to the direction in which the moving body 1 moves is obtained. Then, the control calculation unit 51 calculates a command value according to the input moment value. Depending on this command value, the left and right rear wheels 602 rotate at different rotational speeds. That is, the left rear wheel 602 rotates at a higher rotational speed than the right rear wheel 602.

My'に基づいて、前後方向の並進移動に対する成分が求められる。すなわち、左右の後輪602を同じ方向に同じ回転速度で駆動するための駆動トルクなどが決定する。従って、My'、すなわち、Myが大きいほど、移動体1の移動速度が速くなる。Mx'に基づいて、移動方向、すなわち、舵角に対する成分が求められる。すなわち、左右の後輪602の回転トルク差が決定される。従って、Mx'、すなわち、Mxが大きいほど、左右の後輪602の回転速度の違いが大きくなる。   Based on My ′, a component for translational movement in the front-rear direction is obtained. That is, the driving torque for driving the left and right rear wheels 602 in the same direction at the same rotational speed is determined. Therefore, the larger My ′, that is, My, the faster the moving speed of the moving body 1. Based on Mx ′, a component with respect to the moving direction, that is, the steering angle is obtained. That is, the rotational torque difference between the left and right rear wheels 602 is determined. Therefore, the difference in rotational speed between the left and right rear wheels 602 increases as Mx ′, that is, Mx increases.

Mz'に基づいて、その場旋回に対する成分が求められる。すなわち、左右の後輪602を反対方向に回転させて、その場旋回するための成分が求められる。従って、Mz'、すなわち、Mzが大きいほど、左右の後輪602における反対方向の回転速度が大きくなる。例えば、Mz'が正の場合、上側から見て、左周りにその場旋回する駆動トルクなどが算出される。すなわち、右側の後輪602が前方に回転し、左側の後輪602が同じ回転速度で後方に回転することとなる。   Based on Mz ′, a component for in-situ turning is determined. That is, a component for turning on the spot by rotating the left and right rear wheels 602 in the opposite direction is obtained. Accordingly, the larger Mz ′, that is, Mz, the greater the rotational speed in the opposite direction of the left and right rear wheels 602. For example, when Mz ′ is positive, a driving torque for turning in the counterclockwise direction as viewed from above is calculated. That is, the right rear wheel 602 rotates forward and the left rear wheel 602 rotates rearward at the same rotational speed.

そして、それぞれの入力モーメント値Mx'、My'、Mz'に基づいて算出された3つの成分を合成して、2つの後輪602を駆動するための指令値を算出する。これにより、左右の後輪602に対する指令値がそれぞれ算出される。駆動トルクや回転速度などが指令値として算出される。すなわち、入力モーメント値Mx'、My'、Mz'に対応する成分毎に算出された値を合成することで左右の後輪602に対する指令値が算出される。このように、計測されたモーメントMx、My、Mzに基づいて算出された入力モーメント値Mx'、My'、Mz'によって、移動体1が移動する。すなわち、搭乗者の体重移動によるモーメントMx、My、Mzによって、移動体1の移動方向、及び移動速度が決定する。   Then, the three components calculated based on the respective input moment values Mx ′, My ′, and Mz ′ are combined to calculate a command value for driving the two rear wheels 602. Thereby, the command values for the left and right rear wheels 602 are respectively calculated. Driving torque, rotation speed, etc. are calculated as command values. That is, the command value for the left and right rear wheels 602 is calculated by combining the values calculated for each component corresponding to the input moment values Mx ′, My ′, and Mz ′. Thus, the moving body 1 moves by the input moment values Mx ′, My ′, Mz ′ calculated based on the measured moments Mx, My, Mz. That is, the moving direction and moving speed of the moving body 1 are determined by the moments Mx, My, Mz due to the weight movement of the passenger.

このように、搭乗者の動作によって、移動体1を移動させるための入力が行われる。すなわち、搭乗者の姿勢変化によって、各軸周りのモーメントが検出される。そして、これらのモーメントの計測値に基づいて、移動体1が移動する。これにより、搭乗者が、移動体1を簡便に操作することができる。すなわち、ジョイスティックやハンドルなどの操作が不要となり、体重移動のみでの操作が可能となる。例えば、右斜め前方に移動したい場合は、体重を右前方にかける。また、左斜め後方に移動したい場合は、体重を左後方にかける。これにより、搭乗者の重心位置が変化して、その変化量に応じた入力が行われる。すなわち、搭乗者の重心移動に応じたモーメントを検出することで、直感的に操作することができる。   Thus, the input for moving the mobile body 1 is performed by the operation of the passenger. That is, a moment around each axis is detected by a change in the posture of the passenger. Based on the measured values of these moments, the moving body 1 moves. Thereby, the passenger can operate the moving body 1 simply. That is, operations such as a joystick and a handle are not necessary, and an operation can be performed only by weight shift. For example, if you want to move forward diagonally to the right, put your weight on the right front. Also, if you want to move diagonally to the left, put your weight on the left rear. As a result, the position of the center of gravity of the occupant changes, and input corresponding to the amount of change is performed. That is, an intuitive operation can be performed by detecting a moment corresponding to the movement of the center of gravity of the passenger.

なお、センサ処理部53及び画像処理部54などの各処理部は、制御計算部51と同様に、CPUやRAMなどから構成されている。そして、所定のプログラムにしたがって、演算処理を行う。もちろん、各処理部や制御計算部51は、物理的に同じ構成であってもよい。すなわち、1つの演算処理回路において、処理や演算を行ってもよい。   In addition, each processing unit such as the sensor processing unit 53 and the image processing unit 54 is configured by a CPU, a RAM, and the like, like the control calculation unit 51. Then, arithmetic processing is performed according to a predetermined program. Of course, each processing unit and the control calculation unit 51 may have the physically same configuration. In other words, processing and calculation may be performed in one arithmetic processing circuit.

移動体1には、搭乗席8を駆動するための駆動部5が設けられている。この駆動部5に対する制御について説明する。駆動部5は、ヨー軸機構501とピッチ軸機構502とロール軸機構503を有している。ヨー軸機構501とピッチ軸機構502とロール軸機構503は、回転関節であり、これらが動作することで、搭乗席8の姿勢が変化する。ヨー軸機構501は、搭乗席8をヨー軸周りに回転させる。ピッチ軸機構502は搭乗席8をピッチ軸周りに回転させる。ロール軸機構503は、搭乗席8をロール軸周りに回転させる。これにより、車台13に対する座面8aの角度が変化する。すなわち、車台13に対して座面8aが傾くようになる。したがって、駆動部5が搭乗席8を駆動する駆動部として、ヨー軸機構501とピッチ軸機構502とロール軸機構503はそれぞれ、関節駆動用のモータや減速器を有している。そして、その関節モータの回転角を検出するためのエンコーダ501a、502a、503aがそれぞれ設けられている。   The moving body 1 is provided with a drive unit 5 for driving the boarding seat 8. The control with respect to this drive part 5 is demonstrated. The drive unit 5 includes a yaw axis mechanism 501, a pitch axis mechanism 502, and a roll axis mechanism 503. The yaw axis mechanism 501, the pitch axis mechanism 502, and the roll axis mechanism 503 are rotary joints, and the posture of the passenger seat 8 changes as these operate. The yaw axis mechanism 501 rotates the passenger seat 8 around the yaw axis. The pitch axis mechanism 502 rotates the passenger seat 8 around the pitch axis. The roll shaft mechanism 503 rotates the boarding seat 8 around the roll axis. Thereby, the angle of the seat surface 8a with respect to the chassis 13 changes. That is, the seating surface 8 a is inclined with respect to the chassis 13. Therefore, the yaw axis mechanism 501, the pitch axis mechanism 502, and the roll axis mechanism 503 each have a motor for driving a joint and a speed reducer as driving sections for driving the passenger seat 8 by the driving section 5. Encoders 501a, 502a, and 503a for detecting the rotation angle of the joint motor are provided.

制御計算部51は、上記のように、センサ処理部53からのトルクに応じて、制御計算を行う。また、制御計算部51は、カメラ7の画像信号に基づいて画像処理部54によって取得された位置情報に基づいてマップより走行面情報を取得する。そして、制御計算部51は、センサ処理部53からのトルク及び走行面情報に基づいて、座面制御を行う。具体的に、制御計算部51は、ヨー軸機構501、ピッチ軸機構502、及びロール軸機構503の関節を駆動するための指令値を生成する。すなわち、制御計算部51は、トルクや走行面情報に基づいて、各軸機構の目標関節角度を算出する。例えば、走行面における段差や坂道等の傾斜に関する情報に基づいて、段差や坂道等の傾斜があっても、座面が基本的に平坦な面と水平になるよう、各軸機構の目標関節角度を算出する。そして、制御計算部51は、目標関節角度に応じた指令値を算出して、各モータに出力する。これにより、ヨー軸機構501、ピッチ軸機構502、及びロール軸機構503の各関節が目標関節角度になる。すなわち、目標関節角度に追従するように、各軸機構が駆動する。よって、移動体1の姿勢が変化して、搭乗席8の座面8aを所望の角度にすることができる。   As described above, the control calculation unit 51 performs control calculation according to the torque from the sensor processing unit 53. Further, the control calculation unit 51 acquires travel surface information from the map based on the position information acquired by the image processing unit 54 based on the image signal of the camera 7. Then, the control calculation unit 51 performs seating surface control based on the torque and running surface information from the sensor processing unit 53. Specifically, the control calculation unit 51 generates a command value for driving the joints of the yaw axis mechanism 501, the pitch axis mechanism 502, and the roll axis mechanism 503. That is, the control calculation unit 51 calculates the target joint angle of each axis mechanism based on the torque and the running surface information. For example, based on information on the slope of a step or slope on the running surface, even if there is a slope of a step or slope, the target joint angle of each axis mechanism so that the seating surface is basically level with the flat surface Is calculated. And the control calculation part 51 calculates the command value according to the target joint angle, and outputs it to each motor. Thereby, each joint of the yaw axis mechanism 501, the pitch axis mechanism 502, and the roll axis mechanism 503 becomes a target joint angle. That is, each axis mechanism is driven so as to follow the target joint angle. Therefore, the posture of the moving body 1 changes and the seating surface 8a of the passenger seat 8 can be set to a desired angle.

このように、力センサ9に対する入力に応じて座面8aの傾斜角度が変化する。これにより、搭乗者が入力値を直感的に把握することができる。よって、操作性を向上することができる。さらに、本実施の形態1では、走行面情報に応じて、座面8aの傾斜角度が変化する。これにより、走行面の状態に応じた座面制御を行うことが可能となる。   Thus, the inclination angle of the seating surface 8a changes according to the input to the force sensor 9. Thereby, a passenger can grasp | ascertain an input value intuitively. Therefore, operability can be improved. Further, in the first embodiment, the inclination angle of the seating surface 8a changes according to the traveling surface information. This makes it possible to perform seating surface control according to the state of the traveling surface.

次に、移動体1の姿勢を変化させるための構成について、図9を用いて説明する。図9は、姿勢を変化させるための機構の構成を示す図であり、車台13の内部構成を示している。図9に示すように、車台13には、姿勢を制御するためのフレーム部2が設けられている。フレーム部2は、筐体11内に配設される。フレーム部2は、第1の平行リンク機構201と第2の平行リンク機構202とが、交差部分で相互の回転を拘束しないように、平面視T字状に連結されている。   Next, the structure for changing the attitude | position of the mobile body 1 is demonstrated using FIG. FIG. 9 is a diagram showing a configuration of a mechanism for changing the posture, and shows an internal configuration of the chassis 13. As shown in FIG. 9, the chassis 13 is provided with a frame portion 2 for controlling the posture. The frame unit 2 is disposed in the housing 11. In the frame portion 2, the first parallel link mechanism 201 and the second parallel link mechanism 202 are coupled in a T-shape in plan view so as not to restrict mutual rotation at the intersection.

第1の平行リンク機構201は、前後方向に配置されている。この第1の平行リンク機構201は、四本の横リンク201a、前後の縦リンク201bを備えている。横リンク201aは、全て等しい長さとされている。横リンク201aの両端には、図示を省略したが、縦リンク201bとの連結軸を嵌め込む嵌合穴が形成されている。二本の横リンク201aは上下に配置されており、当該二本の横リンク201aを一組として、縦リンク201bを挟み込むように、当該縦リンク201bの左右両側に配置されている。   The first parallel link mechanism 201 is arranged in the front-rear direction. The first parallel link mechanism 201 includes four horizontal links 201a and front and rear vertical links 201b. The horizontal links 201a are all equal in length. Although not shown in the figure, both ends of the horizontal link 201a are formed with fitting holes for fitting the connecting shaft with the vertical link 201b. The two horizontal links 201a are arranged up and down, and the two horizontal links 201a are arranged on the left and right sides of the vertical link 201b so as to sandwich the vertical link 201b.

縦リンク201bの左右両側部からは、図示を省略したが、それぞれ上下方向に等しい間隔を開けて相対峙する配置で、横リンク201aとの連結軸が左右方向に突出している。この連結軸は、横リンク201aと縦リンク201bとの回転軸として、横リンク201aの嵌合穴に軸受け等を介して嵌め込まれている。   Although not shown from the left and right side portions of the vertical link 201b, the connecting shaft with the horizontal link 201a protrudes in the left-right direction in an arrangement in which the vertical links 201b face each other with an equal interval in the vertical direction. The connecting shaft is fitted as a rotating shaft between the horizontal link 201a and the vertical link 201b in a fitting hole of the horizontal link 201a via a bearing or the like.

本実施形態の前側の縦リンク201bはL字形状に形成されている。縦リンク201bの垂直片の上下端部に、横リンク201aが連結軸を介して回転可能に連結されている。縦リンク201bの水平片の先端に、車輪6として自在式のキャスターが設けられている。移動体1の移動方向が変化すると、その変化に応じてキャスターの方向が回転する。後側の縦リンク201bは、下側の横リンク201aより下方に突出する突出部を備えている。この突出部の前後両側部からは、図示を省略したが、それぞれ相対峙する配置で第2の平行リンク機構202との連結軸が前後方向に突出している。さらに後側の縦リンク201bの前後両側部における上下の横リンク201aの間の部分からも、図示を省略したが、それぞれ相対峙する配置で第2の平行リンク機構202との連結軸が前後方向に突出している。   The vertical link 201b on the front side of the present embodiment is formed in an L shape. The horizontal link 201a is rotatably connected to the upper and lower ends of the vertical piece of the vertical link 201b via a connecting shaft. A free caster is provided as the wheel 6 at the tip of the horizontal piece of the vertical link 201b. When the moving direction of the moving body 1 changes, the direction of the caster rotates according to the change. The rear vertical link 201b includes a protruding portion that protrudes downward from the lower horizontal link 201a. Although not shown in the drawings, the connecting shaft with the second parallel link mechanism 202 protrudes in the front-rear direction from both the front and rear side portions of the protrusion. Further, although not shown from the portion between the upper and lower horizontal links 201a on both the front and rear side portions of the rear vertical link 201b, the connecting shaft with the second parallel link mechanism 202 is arranged in the front-rear direction in a mutually opposed arrangement. Protruding.

第2の平行リンク機構202は、左右方向に配置されている。この第2の平行リンク機構202は、四本の横リンク202a、左右の縦リンク202bを備えている。横リンク202aは、全て等しい長さとされている。横リンク202aの両端には、図示を省略したが、縦リンク202bとの連結軸を嵌め込む嵌合穴が形成されている。さらに横リンク202aの長手方向の略中央位置には、図示を省略したが、第1の平行リンク機構201との連結軸を嵌め込む嵌合穴が形成されている。二本の横リンク202aは上下に配置されており、当該二本の横リンク202aを一組として、縦リンク202b及び第1の平行リンク機構201の後側の縦リンク201bを挟み込むように、当該縦リンク202b及び第1の平行リンク機構201の後側の縦リンク201bの前後両側に配置されている。第1の平行リンク機構201の後側の縦リンク201bから突出する連結軸は、第1の平行リンク機構201と第2の平行リンク機構202との回転軸として、横リンク202aの略中央位置の嵌合穴に軸受け等を介して嵌め込まれている。   The second parallel link mechanism 202 is disposed in the left-right direction. The second parallel link mechanism 202 includes four horizontal links 202a and left and right vertical links 202b. The horizontal links 202a are all equal in length. Although not shown in the drawings, both ends of the horizontal link 202a are formed with fitting holes for fitting the connecting shaft with the vertical link 202b. Further, although not shown, a fitting hole for fitting a connecting shaft with the first parallel link mechanism 201 is formed at a substantially central position in the longitudinal direction of the horizontal link 202a. The two horizontal links 202a are arranged vertically, and the two horizontal links 202a are taken as a set, and the vertical link 202b and the vertical link 201b on the rear side of the first parallel link mechanism 201 are sandwiched therebetween. The longitudinal link 202b and the longitudinal link 201b on the rear side of the first parallel link mechanism 201 are disposed on both front and rear sides. The connecting shaft protruding from the longitudinal link 201b on the rear side of the first parallel link mechanism 201 is a rotational axis between the first parallel link mechanism 201 and the second parallel link mechanism 202, and is located at a substantially central position of the lateral link 202a. The fitting hole is fitted through a bearing or the like.

縦リンク202bの前後両側部からは、図示を省略したが、それぞれ上下方向に等しい間隔を開けて相対峙する配置で、横リンク202aとの連結軸が前後方向に突出している。この連結軸は、横リンク202aと縦リンク202bとの回転軸として、横リンク202aの端部の嵌合穴に軸受け等を介して嵌め込まれている。   Although not shown from the front and rear side portions of the vertical link 202b, the connecting shaft with the horizontal link 202a protrudes in the front-rear direction in an arrangement in which the vertical links 202b face each other at equal intervals in the vertical direction. The connecting shaft is fitted as a rotating shaft between the horizontal link 202a and the vertical link 202b in a fitting hole at an end of the horizontal link 202a via a bearing or the like.

その結果、第1の平行リンク機構201は、第2の平行リンク機構202に拘束されることなく、前後方向に回転可能な構成となる。一方、第2の平行リンク機構202は、第1の平行リンク機構201に拘束されることなく、左右方向に回転可能な構成となる。   As a result, the first parallel link mechanism 201 can be rotated in the front-rear direction without being constrained by the second parallel link mechanism 202. On the other hand, the second parallel link mechanism 202 is configured to be rotatable in the left-right direction without being constrained by the first parallel link mechanism 201.

搭乗部3は、フレーム部2の回転に連動する。具体的にいうと、搭乗部3は、第1の平行リンク機構201の上下の横リンク201aに支持軸301を介して連結されている。この支持軸301の上部及び下部の左右両側部からは、図示を省略したが、第1の平行リンク機構201の上下の横リンク201aとの連結軸が左右方向に突出している。第1の平行リンク機構201の横リンク201aにおける長手方向の略中央位置には、図示を省略したが、支持軸301から突出する連結軸を嵌め込む嵌合穴が形成されている。支持軸301は、縦リンク201bを挟み込むように、当該縦リンク201bの左右に配置された横リンク201aの間に挿入されている。支持軸301から突出する連結軸は、第1の平行リンク機構201の嵌合穴に軸受け等を介して嵌め込まれている。その結果、第1の平行リンク機構201が前後方向に回転すると、支持軸301と縦リンク201bとは平行状態を維持した状態で連動する。   The boarding unit 3 is interlocked with the rotation of the frame unit 2. Specifically, the riding section 3 is connected to the upper and lower horizontal links 201 a of the first parallel link mechanism 201 via the support shaft 301. Although not shown from the left and right sides of the upper and lower portions of the support shaft 301, a connecting shaft with the upper and lower horizontal links 201 a of the first parallel link mechanism 201 protrudes in the left-right direction. Although not shown, a fitting hole for fitting the connecting shaft protruding from the support shaft 301 is formed at a substantially central position in the longitudinal direction of the horizontal link 201a of the first parallel link mechanism 201. The support shaft 301 is inserted between the horizontal links 201a arranged on the left and right of the vertical link 201b so as to sandwich the vertical link 201b. The connecting shaft protruding from the support shaft 301 is fitted into the fitting hole of the first parallel link mechanism 201 via a bearing or the like. As a result, when the first parallel link mechanism 201 rotates in the front-rear direction, the support shaft 301 and the vertical link 201b are interlocked while maintaining a parallel state.

駆動部5が駆動することで、フレーム部2が動作する。これにより、移動体1の姿勢が変化する。車台13が傾くことで、搭乗部3の角度が変化する。なお、駆動部5には、ヨー軸周りに回転するヨー軸機構501と、ピッチ軸周りに回転するピッチ軸機構502と、ロール軸周りに回転するロール軸機構503が設けられている。ヨー軸機構501が3つの機構の中で、最も搭乗部3側に設けられている。なお、ヨー軸機構501は、搭乗部3をヨー軸周りに旋回させる旋回関節であり、ピッチ軸機構502及びロール軸機構503は搭乗部3を軸周りに回転させる回転関節である。   When the driving unit 5 is driven, the frame unit 2 operates. Thereby, the attitude | position of the mobile body 1 changes. The angle of the riding section 3 changes as the chassis 13 tilts. The drive unit 5 is provided with a yaw axis mechanism 501 that rotates around the yaw axis, a pitch axis mechanism 502 that rotates around the pitch axis, and a roll axis mechanism 503 that rotates around the roll axis. The yaw axis mechanism 501 is provided closest to the riding section 3 among the three mechanisms. The yaw axis mechanism 501 is a turning joint that turns the riding part 3 around the yaw axis, and the pitch axis mechanism 502 and the roll axis mechanism 503 are rotary joints that rotate the riding part 3 around the axis.

次に、移動体1の制御方法について図10を用いて説明する。図10は、移動体1の制御方法を示すフローチャートである。図10は、移動体1の制御における1サイクルを示している。このフローチャートにしたがって、移動体1の移動制御と、姿勢制御(座面制御)が行われる。すなわち、図10には、後輪602の駆動と、駆動部5の駆動の制御方法が示されている。   Next, a method for controlling the moving body 1 will be described with reference to FIG. FIG. 10 is a flowchart showing a method for controlling the moving body 1. FIG. 10 shows one cycle in the control of the moving body 1. According to this flowchart, movement control of the moving body 1 and posture control (seat surface control) are performed. That is, FIG. 10 shows a control method for driving the rear wheels 602 and driving the drive unit 5.

まず、ヨー軸機構501、ピッチ軸機構502、ロール軸機構503の関節角を検出する(ステップS101)。すなわち、各軸機構に設けられているエンコーダ501a、502a、503aによって、それぞれの関節の角度を検出する。移動体1は、この関節角度に応じた姿勢となっている。次に、力センサ9によって、モーメントの値を検出する(ステップS102)。すなわち、モーメント(Mx,My、Mz)を測定する。そして、力センサ9のオフセット修正を行う(ステップS103)。すなわち、搭乗者が座っている位置がずれている場合に、その位置に対してオフセットを与える。入力されるモーメントに対して、搭乗位置の位置ずれを補正するように、制御目標原点にオフセットを与える。これにより、位置ずれを補正したモーメント(Mx',My'、Mz')を算出することができる。なお、ステップS101とステップS102の順番は反対でもよく、ステップS101とステップS102を並行して行ってもよい。   First, the joint angles of the yaw axis mechanism 501, the pitch axis mechanism 502, and the roll axis mechanism 503 are detected (step S101). That is, the angle of each joint is detected by encoders 501a, 502a, and 503a provided in each shaft mechanism. The moving body 1 has a posture corresponding to the joint angle. Next, the value of moment is detected by the force sensor 9 (step S102). That is, moments (Mx, My, Mz) are measured. Then, offset correction of the force sensor 9 is performed (step S103). That is, when the position where the passenger is sitting is shifted, an offset is given to the position. An offset is given to the control target origin so as to correct the displacement of the boarding position with respect to the input moment. Thereby, moments (Mx ′, My ′, Mz ′) in which the positional deviation is corrected can be calculated. Note that the order of step S101 and step S102 may be reversed, and step S101 and step S102 may be performed in parallel.

座面の平衡位置姿勢φIDを入力する(ステップS104)。上述のように、移動体1が平坦な床を移動している時に、座面8aが水平になる位置が平衡位置姿勢となっている。本実施の形態1では、特に、走行面情報に含まれる段差や坂道等の傾斜情報に基づいて、平衡位置姿勢が決定される。この時のヨー軸機構501、ピッチ軸機構502、ロール軸機構503の関節角度が平衡位置姿勢に対応する。したがって、本実施の形態では、平衡位置姿勢が一定になっている。すなわち、移動状況によらず、各軸の関節角度が一定になるような平衡位置姿勢が選ばれている。   The equilibrium position and orientation φID of the seating surface is input (step S104). As described above, when the moving body 1 is moving on a flat floor, the position where the seat surface 8a is horizontal is the equilibrium position posture. In the first embodiment, in particular, the equilibrium position / posture is determined based on inclination information such as a step or a slope included in the traveling surface information. The joint angles of the yaw axis mechanism 501, the pitch axis mechanism 502, and the roll axis mechanism 503 at this time correspond to the equilibrium position / posture. Therefore, in this embodiment, the equilibrium position / posture is constant. That is, an equilibrium position / posture is selected so that the joint angle of each axis is constant regardless of the movement state.

次に、コンプライアンス補償を行う(ステップS105)。ここでのコンプライアンス制御によって、ヨー軸機構501、ピッチ軸機構502、ロール軸機構503の目標関節角度が決定する。コンプライアンス制御とは、バネ特性、ダンピング特性を擬似的に備えている振る舞いをする制御である。ヨー軸機構501、ピッチ軸機構502、ロール軸機構503の動作によってバネ特性、ダンピング特性が示される。このコンプライアンス制御を導入することで、搭乗者の力に応じて、座面8aを傾けることが可能になる。ここでは、ヨー軸機構501、ピッチ軸機構502、ロール軸機構503の関節角度、力センサ9のモーメント、座面8aの平衡位置姿勢を用いて、コンプライアンス制御が行われる。これにより、ヨー軸機構501、ピッチ軸機構502、ロール軸機構503の目標関節角度が算出される。このステップの詳細については、後述する。   Next, compliance compensation is performed (step S105). The target joint angles of the yaw axis mechanism 501, the pitch axis mechanism 502, and the roll axis mechanism 503 are determined by the compliance control here. Compliance control is control that behaves in a pseudo manner with spring characteristics and damping characteristics. The spring characteristics and damping characteristics are shown by the operations of the yaw axis mechanism 501, the pitch axis mechanism 502, and the roll axis mechanism 503. By introducing this compliance control, the seat surface 8a can be tilted according to the force of the passenger. Here, compliance control is performed using the joint angle of the yaw axis mechanism 501, the pitch axis mechanism 502, the roll axis mechanism 503, the moment of the force sensor 9, and the equilibrium position and orientation of the seating surface 8a. Thereby, target joint angles of the yaw axis mechanism 501, the pitch axis mechanism 502, and the roll axis mechanism 503 are calculated. Details of this step will be described later.

そして、座面8aを制御する(ステップS106)。すなわち、ヨー軸機構501、ピッチ軸機構502、ロール軸機構503がそれぞれ目標関節角度になるように、各軸に設けられているモータを駆動する。これにより、座面8aの傾きが変化して、現在目標位置姿勢となる。ここでは、力センサ9の出力に応じて、座面8aの傾きが変化している。すなわち、座面8aに対する力に応じて、搭乗者が座面8aから力を受ける。よって、搭乗者19が力センサ9への入力を直感的に把握することができる。これにより、操作性が向上し、搭乗者19の意図通りに移動することができる。   Then, the seating surface 8a is controlled (step S106). That is, the motor provided on each axis is driven so that the yaw axis mechanism 501, the pitch axis mechanism 502, and the roll axis mechanism 503 have the target joint angles. As a result, the inclination of the seating surface 8a is changed to the current target position / posture. Here, the inclination of the seating surface 8a changes according to the output of the force sensor 9. That is, the passenger receives a force from the seating surface 8a according to the force on the seating surface 8a. Therefore, the passenger 19 can intuitively grasp the input to the force sensor 9. Thereby, operativity improves and it can move as the passenger's 19 intent.

次に動作モードの切替判断を行う(ステップS107)。すなわち、走行面情報に基づいて障害物があるかどうかを判定し、さらに、この判定結果に応じて、移動体1の動作モードを切替えるか否かを判定する。まず、画像処理部54は、カメラ7によって撮影された画像信号より位置情報を取得する。さらに制御計算部51は、位置情報に基づいて自己位置を推定する。そして、制御計算部51は、マップに基づいて推定自己位置の近傍に障害物があるかどうかを判定する。その後、制御計算部51は、障害物があると判定した場合には、障害物がある場合の動作モードである障害物モードに切り替える。障害物がないと判定した場合には、障害物がない場合の通常モードにする。障害物モードの場合、後述するステップS111において制御計算部51が駆動モータ603を駆動するための指令値を算出するときのゲインを変更する。ここでは、ゲインを移動体モードの場合よりも、小さくする。そして、変更したゲインを適用して、駆動モータ603を駆動する。通常モードの場合には、ゲインを変更せずに、駆動モータ603を駆動する。   Next, the operation mode switching determination is performed (step S107). That is, it is determined whether there is an obstacle based on the traveling surface information, and further, it is determined whether or not the operation mode of the moving body 1 is switched according to the determination result. First, the image processing unit 54 acquires position information from an image signal photographed by the camera 7. Furthermore, the control calculation unit 51 estimates the self position based on the position information. Then, the control calculation unit 51 determines whether there is an obstacle in the vicinity of the estimated self-position based on the map. Thereafter, when the control calculation unit 51 determines that there is an obstacle, the control calculation unit 51 switches to an obstacle mode that is an operation mode when there is an obstacle. When it is determined that there is no obstacle, the normal mode when there is no obstacle is set. In the case of the obstacle mode, the gain when the control calculation unit 51 calculates a command value for driving the drive motor 603 in step S111 described later is changed. Here, the gain is made smaller than that in the moving body mode. Then, the drive motor 603 is driven by applying the changed gain. In the normal mode, the drive motor 603 is driven without changing the gain.

次に、車輪回転角、速度、トルクを検出する(ステップS108)。すなわち、エンコーダ603aの出力に基づいて、左右の後輪602の動作状態を検知する。そして、ピッチ軸周りの目標関節角度から、移動体1の前後進速度を算出する(ステップS109)。このとき、ステップS105で求めた現在目標位置姿勢φiに基づいて、前後進速度を算出している。すなわち、制御計算部51は、ピッチ軸機構502の目標関節角度に基づいて前後進速度を算出している。よって、目標となる前後進速度は、力センサ9のモーメントと、座面の平衡位置姿勢と、各関節角度によって、決まる。   Next, the wheel rotation angle, speed, and torque are detected (step S108). That is, the operating state of the left and right rear wheels 602 is detected based on the output of the encoder 603a. Then, the forward / reverse speed of the moving body 1 is calculated from the target joint angle around the pitch axis (step S109). At this time, the forward / reverse speed is calculated based on the current target position / posture φi obtained in step S105. That is, the control calculation unit 51 calculates the forward / reverse speed based on the target joint angle of the pitch axis mechanism 502. Therefore, the target forward / reverse speed is determined by the moment of the force sensor 9, the equilibrium position / posture of the seat surface, and the joint angles.

さらに、ロール軸、ヨー軸の関節角度から移動体1の旋回速度を算出する(ステップS110)。制御計算部51は、ステップS105で求めた現在目標位置姿勢φiに基づいて旋回速度を算出している。すなわち、制御計算部51は、ヨー軸機構501、ロール軸機構503の目標関節角度に基づいて前後進速度を算出している。よって、目標となる前後進速度は、力センサ9のモーメントと、座面の平衡位置と、各関節角度によって、決まる。   Further, the turning speed of the moving body 1 is calculated from the joint angles of the roll axis and the yaw axis (step S110). The control calculation unit 51 calculates the turning speed based on the current target position and orientation φi obtained in step S105. That is, the control calculation unit 51 calculates the forward / reverse speed based on the target joint angles of the yaw axis mechanism 501 and the roll axis mechanism 503. Therefore, the target forward / reverse speed is determined by the moment of the force sensor 9, the equilibrium position of the seat surface, and each joint angle.

そして、前後進速度と、旋回速度とを合成して、左右の後輪602の回転トルクを算出する(ステップS111)。すなわち、後輪602を回転させるための回転トルクを、計算する。左右の後輪602のトルクが指令値となって、駆動モータ603に出力される。ここでは、ステップS108で検出された後輪602の回転角と目標速度とを用いてフィードバック制御を行う。制御計算部51が駆動モータ603を駆動するための指令値を出力する。これにより、ステップS109で算出された前後進速度、かつステップS110で算出された旋回速度に近い速度で移動体1が移動する。したがって、力センサ9による入力に応じて、移動体1が搭乗者の意図通りに移動する   Then, the forward / reverse speed and the turning speed are combined to calculate the rotational torque of the left and right rear wheels 602 (step S111). That is, the rotational torque for rotating the rear wheel 602 is calculated. The torque of the left and right rear wheels 602 becomes a command value and is output to the drive motor 603. Here, feedback control is performed using the rotation angle of the rear wheel 602 detected in step S108 and the target speed. The control calculation unit 51 outputs a command value for driving the drive motor 603. Thereby, the moving body 1 moves at a speed close to the forward / backward speed calculated in step S109 and the turning speed calculated in step S110. Therefore, the moving body 1 moves as intended by the passenger in response to the input from the force sensor 9.

ステップS111において、制御計算部51は、搭乗者の体重移動に応じて指令値を算出する。ここで、ステップS107で障害物モードに切替えられた場合には、指令値を算出する際のゲインが変更されている。すなわち、ゲインを移動体モードの場合よりも、小さな値に変更されている。これにより、搭乗者の体重移動に対して、駆動モータ603への指令値を抑えることができ、移動体1の位置をゆっくりと移動させることができる。これにより、搭乗者にとっては、障害物の回避動作を行う時間的な余裕ができる。さらに、ゲインを0に変更した場合には、駆動モータ603の制御を行わないことになり、移動体1の位置を移動させないようにすることもできる。すなわち、移動体1の位置をその場に固定し、搭乗者の体重移動に応じて座面のみを動作させることもできる。   In step S111, the control calculation unit 51 calculates a command value according to the weight shift of the passenger. Here, when the mode is switched to the obstacle mode in step S107, the gain for calculating the command value is changed. That is, the gain is changed to a smaller value than in the mobile mode. Thereby, the command value to the drive motor 603 can be suppressed with respect to the weight movement of the passenger, and the position of the moving body 1 can be moved slowly. As a result, the passenger can have time to perform the obstacle avoidance operation. Further, when the gain is changed to 0, the drive motor 603 is not controlled, and the position of the moving body 1 can be prevented from moving. That is, it is possible to fix the position of the moving body 1 on the spot and operate only the seating surface according to the weight shift of the passenger.

次に、ステップS105のコンプライアンス補償について、図11を用いて説明する。図11は、コンプライアンス制御の詳細を示すフローチャートである。まず、搭乗者が体重移動する(ステップS201)。すなわち、移動体1を移動させるため、体重移動によって入力を行う。これにより、力センサ9にかかる力が変化する。座面8aにかかる3軸周りのトルクτiを力センサ9で感知する(ステップS201)。このトルクτiは、入力モーメントから算出することができる。ヨー軸周りのトルクτθz(=Mz')、ピッチ軸周りのトルクτθy(=My')、ロール軸周りのトルクτθx(=Mx')がそれぞれ算出される。このように、τiは、トルクであり、ロール、ピッチ、ヨーに対する成分を含んでいる。すなわち、τiは、τθx、τθy、τθzの3成分を含んでいる。   Next, the compliance compensation in step S105 will be described with reference to FIG. FIG. 11 is a flowchart showing details of the compliance control. First, the passenger moves weight (step S201). That is, in order to move the mobile body 1, input is performed by weight movement. Thereby, the force applied to the force sensor 9 changes. Torque τi around the three axes applied to the seating surface 8a is detected by the force sensor 9 (step S201). This torque τi can be calculated from the input moment. Torque τθz (= Mz ′) around the yaw axis, torque τθy (= My ′) around the pitch axis, and torque τθx (= Mx ′) around the roll axis are calculated. As described above, τi is torque and includes components for roll, pitch, and yaw. That is, τi includes three components τθx, τθy, and τθz.

また、ステップS201、S202と並行して、座面の平衡位置姿勢φIDを入力する(ステップS203)。この平衡位置姿勢φIDはヨー軸機構501、ピッチ軸機構502、ロール軸機構503の基準となる基準位置を示すものとなる。すなわち、各軸機構の基準となる関節角度が制御計算部51に入力される。本実施の形態では、座面の平衡位置姿勢φIDの値は、カメラ7による撮影等により取得された位置情報に応じてマップより取得された走行面情報に基づき決定される。制御計算部51のメモリ等に、平衡位置姿勢φIDに対して関節角度が記憶されている。そして、この関節角度を読み出すことによって、平衡位置姿勢φIDが入力される。移動体1が平坦な床を移動している時に、座面8aが水平になる位置が平衡位置となっている。したがって、各軸機構における一定の関節角度が平衡位置姿勢φIDを示すことになる。平衡位置姿勢φIDは各軸周りに対して決められている。平衡位置姿勢φIDは、ロール軸周り平衡位置姿勢φθxd、ピッチ軸周りの平衡位置姿勢φθyd、ヨー軸周りの平衡位置姿勢φθzdの3成分から構成されている。これらは、各軸機構の基準となる関節角度に対応している。   In parallel with steps S201 and S202, an equilibrium position and orientation φID of the seating surface is input (step S203). This equilibrium position / orientation φID indicates a reference position serving as a reference for the yaw axis mechanism 501, the pitch axis mechanism 502, and the roll axis mechanism 503. That is, a joint angle that is a reference for each axis mechanism is input to the control calculation unit 51. In the present embodiment, the value of the equilibrium position and orientation φID of the seating surface is determined based on the traveling surface information acquired from the map according to the positional information acquired by photographing with the camera 7 or the like. The joint angle is stored in the memory or the like of the control calculation unit 51 with respect to the equilibrium position / posture φID. Then, by reading out the joint angle, the equilibrium position / posture φID is input. When the moving body 1 is moving on a flat floor, the position where the seating surface 8a is horizontal is the equilibrium position. Therefore, a fixed joint angle in each axis mechanism indicates the equilibrium position posture φID. The equilibrium position / posture φID is determined for each axis. The equilibrium position / posture φID is composed of three components: an equilibrium position / posture φθxd around the roll axis, an equilibrium position / posture φθyd around the pitch axis, and an equilibrium position / posture φθzd around the yaw axis. These correspond to the joint angle which is the reference of each axis mechanism.

次に、トルクτiと平衡位置姿勢φIDから座面の現在目標位置姿勢φiを求める(ステップS204)。ここでは、図11のフローチャート上のステップS204に記載されている数式に基づいて、制御計算部51が搭乗部3の現在目標位置姿勢φiを算出している。すなわち、ステップS204に記載されている方程式を解くことで、現在目標位置姿勢φiを算出することができる。現在目標位置姿勢φiは、例えば、ヨー軸機構501の目標関節角度、ピッチ軸機構502の目標関節角度、ロール軸機構503における目標関節角度から構成されている。したがって、現在目標位置姿勢φiはφθx、φθy、φθzの3成分から構成されている。各軸機構における目標関節角度が、トルクτiと平衡位置姿勢φIDに基づいて算出される。   Next, the current target position / posture φi of the seating surface is obtained from the torque τi and the equilibrium position / posture φID (step S204). Here, the control calculation unit 51 calculates the current target position and orientation φi of the riding unit 3 based on the mathematical formula described in step S204 on the flowchart of FIG. That is, the current target position and orientation φi can be calculated by solving the equation described in step S204. The current target position / posture φi includes, for example, a target joint angle of the yaw axis mechanism 501, a target joint angle of the pitch axis mechanism 502, and a target joint angle of the roll axis mechanism 503. Therefore, the current target position / posture φi is composed of three components of φθx, φθy, and φθz. The target joint angle in each axis mechanism is calculated based on the torque τi and the equilibrium position / posture φID.

ステップS204の方程式において、Miは慣性行列、Diは粘性係数行列、Kiは剛性行列であり、これらは、3×3の行列である。慣性行列、粘性係数行列、剛性行列は、移動体1の構成、動作に応じて設定することができる。また、φi、φIDの上に付されている・(ドット)は、時間微分を示している。ドットが1個付されている場合は、1回微分を、2個付されている場合は、2回微分を示している。例えば、φiの上に1個のドットが付されていると、目標姿勢速度となり、2個のドットが付されていると、目標姿勢加速度となる。同様に、φIDの上に1個のドットが付されていると、平衡位置姿勢速度となり、2個のドットが付されていると、平衡位置姿勢加速度となる。本実施形態では、平衡位置姿勢φIDが固定されているため、平衡位置姿勢速度、平衡位置姿勢加速度は、基本的に0となる。   In the equation of step S204, Mi is an inertia matrix, Di is a viscosity coefficient matrix, Ki is a stiffness matrix, and these are 3 × 3 matrices. The inertia matrix, the viscosity coefficient matrix, and the stiffness matrix can be set according to the configuration and operation of the moving body 1. Further, (dot) attached on φi and φID indicates time differentiation. When one dot is attached, one-time differentiation is indicated, and when two dots are attached, two-time differentiation is indicated. For example, if one dot is attached on φi, the target posture speed is obtained, and if two dots are attached, the target posture acceleration is obtained. Similarly, when one dot is attached on φID, the equilibrium position / posture speed is obtained, and when two dots are attached, the equilibrium position / posture acceleration is obtained. In this embodiment, since the equilibrium position / posture φID is fixed, the equilibrium position / posture speed and the equilibrium position / posture acceleration are basically zero.

次に、モードに応じてゲインを変更する(ステップS205)。障害物モードである場合には、ゲインをより小さなものに変更する。通常モードである場合には、ゲインを変更しない。   Next, the gain is changed according to the mode (step S205). In the case of the obstacle mode, the gain is changed to a smaller one. In the normal mode, the gain is not changed.

そして、現在目標位置姿勢φiに基づいて移動制御を行う(ステップS206)。さらに、移動制御と並行して、座面の傾き制御を行う(ステップS207)。移動制御では、ステップS109、及びステップS110に示したように、現在目標位置姿勢φiに基づいて前後進速度、及び旋回速度を算出する。すなわち、現在目標位置姿勢φθyに応じて、移動体1の前後進速度が決まる。φθyの値が大きいほど、前後進速度が大きくなる。また、現在目標位置姿勢φθx、φθzに応じて移動体1の旋回速度が決まる。φθx、φθzの値が大きいほど、旋回速度が大きくなる。そして、前後進速度、及び旋回速度から、左右の後輪602の回転トルクを算出する。ここでは、前後進速度と旋回速度を合成して、左右の後輪602に対する目標回転速度を算出する。そして、現在の回転速度と目標回転速度との差分から、回転トルクを算出するためのフィードバック制御を行っている。制御計算部51は、この回転トルクを指令値として、駆動モータ603に出力する。このようにして、移動制御が行われる。   Then, movement control is performed based on the current target position and orientation φi (step S206). Further, in parallel with the movement control, tilt control of the seating surface is performed (step S207). In the movement control, as shown in step S109 and step S110, the forward / reverse speed and the turning speed are calculated based on the current target position / posture φi. That is, the forward / reverse speed of the moving body 1 is determined according to the current target position / posture φθy. The greater the value of φθy, the greater the forward / reverse speed. Further, the turning speed of the moving body 1 is determined according to the current target position / posture φθx, φθz. The turning speed increases as the values of φθx and φθz increase. Then, the rotational torque of the left and right rear wheels 602 is calculated from the forward / reverse speed and the turning speed. Here, the target rotational speed for the left and right rear wheels 602 is calculated by combining the forward / reverse speed and the turning speed. Then, feedback control for calculating the rotational torque is performed from the difference between the current rotational speed and the target rotational speed. The control calculation unit 51 outputs this rotational torque as a command value to the drive motor 603. In this way, movement control is performed.

座面8aの傾き制御も現在目標位置姿勢φiに基づいて行われる。すなわち、現在目標位置姿勢φiを入力として、各軸機構に対する指令値を算出する。現在目標位置姿勢φiに基づいて、各軸機構の指令値が算出される。そして、この指令値に応じて、ヨー軸機構501、ピッチ軸機構502、ロール軸機構503が駆動する。よって、ヨー軸機構501の目標関節角度、ピッチ軸機構502の目標関節角度、ロール軸機構503における目標関節角度になるように座面8aの傾きが変化する。このように、各軸機構が目標関節角度に追従するように駆動する。これにより、搭乗部3の姿勢が変化して、座面8aの傾きが変化する。よって、搭乗者が座面8aから力を受ける。そして、座面8aが現在目標位置姿勢φiになる。   The inclination control of the seating surface 8a is also performed based on the current target position / posture φi. That is, the command value for each axis mechanism is calculated using the current target position / posture φi as an input. Based on the current target position and orientation φi, the command value of each axis mechanism is calculated. And according to this command value, the yaw axis mechanism 501, the pitch axis mechanism 502, and the roll axis mechanism 503 are driven. Therefore, the inclination of the seating surface 8 a changes so as to be the target joint angle of the yaw axis mechanism 501, the target joint angle of the pitch axis mechanism 502, and the target joint angle of the roll axis mechanism 503. In this way, each axis mechanism is driven so as to follow the target joint angle. Thereby, the attitude | position of the riding part 3 changes and the inclination of the seat surface 8a changes. Therefore, the passenger receives force from the seating surface 8a. Then, the seat surface 8a becomes the current target position / posture φi.

このように、現在目標位置姿勢φiを利用して、移動制御と、座面8aの傾き制御が行われている。すなわち、各モータに対する指令値が現在目標位置姿勢φiに基づいて算出されている。制御計算部51は、搭乗席を駆動する駆動部5の駆動量と、座面8aの平衡位置姿勢と、力センサ9からの計測信号とに基づいて、後輪602、及び駆動部5を駆動するための指令値を算出する。   Thus, the movement control and the tilt control of the seating surface 8a are performed using the current target position / posture φi. That is, the command value for each motor is calculated based on the current target position and orientation φi. The control calculation unit 51 drives the rear wheels 602 and the drive unit 5 based on the drive amount of the drive unit 5 that drives the passenger seat, the equilibrium position and orientation of the seating surface 8a, and the measurement signal from the force sensor 9. A command value for calculating is calculated.

このように、車台13に搭乗席8を固定する方法が、剛体結合ではなく、入力に対してある程度変形、変位する構造となっている。よって、バネのような柔らかい動きをさせる制御をすることができる。すなわち、自動車で表すならサスペンションとして、駆動部5が機能する。そして、力センサ9での検出結果に基づいて、駆動部5を制御する。   Thus, the method of fixing the passenger seat 8 to the chassis 13 is not rigidly coupled but has a structure that is deformed and displaced to some extent with respect to the input. Therefore, it is possible to control to make a soft movement like a spring. That is, if it represents with a motor vehicle, the drive part 5 functions as a suspension. And based on the detection result in the force sensor 9, the drive part 5 is controlled.

これにより、操作性を向上することができる。すなわち、各軸周りの機構が駆動することで、どのくらいの操作量で操作しているかを直感的に把握することができる。実際の操作量と意図する操作量の違いを認識することができる。よって、意図する操作量に対する実際の操作量のずれを抑制することができる。また、搭乗者が遠心力を受けている場合でも、意図する移動を行うための操作が可能となる。すなわち、必要以上にスピードが出たり、必要以上にスピードが低下したりするのを防ぐことができる。これにより、操作性の高い移動体1を実現することができる。   Thereby, operability can be improved. That is, by driving the mechanism around each axis, it is possible to intuitively understand how much operation is being performed. The difference between the actual operation amount and the intended operation amount can be recognized. Therefore, the shift of the actual operation amount with respect to the intended operation amount can be suppressed. Further, even when the occupant is receiving centrifugal force, an operation for performing the intended movement is possible. That is, it is possible to prevent the speed from being increased more than necessary or the speed from being decreased more than necessary. Thereby, the mobile body 1 with high operability can be realized.

ここで、カメラ7からの画像信号の基づく、座面制御やゲイン制御について、図12に示すフローチャートを用いて説明する。   Here, the seating surface control and gain control based on the image signal from the camera 7 will be described with reference to the flowchart shown in FIG.

まず、移動体1は、走行中にカメラ7によって床面検出を実行する(ステップS301)。具体的には、移動体1は、カメラ7により、模様が描かれた床面2を撮影する。撮影により得られた撮像信号は、画像処理部54に入力される。画像処理部64は、入力された画像信号に対して所定の処理を実行し、位置情報を取得し、制御計算部51に出力する。制御計算部51は、位置情報に基づいて自己位置を推定する。さらに制御計算部51は、マップから、推定自己位置の走行面情報を取得する。   First, the moving body 1 performs floor surface detection by the camera 7 during traveling (step S301). Specifically, the moving body 1 photographs the floor surface 2 on which the pattern is drawn by the camera 7. An imaging signal obtained by shooting is input to the image processing unit 54. The image processing unit 64 performs predetermined processing on the input image signal, acquires position information, and outputs the position information to the control calculation unit 51. The control calculation unit 51 estimates the self position based on the position information. Furthermore, the control calculation unit 51 acquires travel surface information of the estimated self-position from the map.

制御計算部51は、走行面情報から走行面に段差や坂道等の傾斜があるかどうかを判定する(ステップS302)。制御計算部51は、傾斜があると判定した場合には、上述の座面制御を実行する(ステップS304)。かかる座面制御により、傾斜に応じて、動的に座面の水平を保つことができる。   The control calculation unit 51 determines whether or not the traveling surface has a slope such as a step or a slope from the traveling surface information (step S302). When it is determined that there is an inclination, the control calculation unit 51 executes the above-described seating surface control (step S304). Such seating surface control can dynamically keep the seating surface horizontal according to the inclination.

制御計算部51は、段差や傾斜がないと判定した場合には、さらに走行面情報から移動体1の近傍に壁等の障害物があるかどうかを判定する(ステップS303)。制御計算部51は、障害物があると判定した場合には、上述の障害物モードに切り替えてゲイン調整を実行する(S305)。   When it is determined that there is no step or inclination, the control calculation unit 51 further determines whether there is an obstacle such as a wall in the vicinity of the moving body 1 from the traveling surface information (step S303). If it is determined that there is an obstacle, the control calculation unit 51 switches to the above-described obstacle mode and performs gain adjustment (S305).

制御計算部51は、ステップS303において障害物がないと判定した場合や、座面制御(ステップS304)・ゲイン調整(ステップS305)を実行した場合には、走行制御を行う(ステップS306)。   When it is determined in step S303 that there is no obstacle or when the seat control (step S304) / gain adjustment (step S305) is executed, the control calculation unit 51 performs traveling control (step S306).

以上、説明したように、本実施の形態1にかかる移動体1は、床面2に設けられた模様を画像認識して位置情報を抽出し、そして自己位置を推定して、これに応じた走行面情報をマップより取得することによって、走行面の状態、特に移動体1が移動する先の走行面の状態に対応した走行制御や座面制御を実行することができる。従って、約50万円のレーザセンサーや約80万円の姿勢角センサーを用いることなく、数千円のUSBカメラ及び数万円の床模様加工によって床面検出することができるので、極めて安価に、走行面の状態に対応した走行制御や座面制御を実行することができる。特に、人間が運転する移動体においては、このようなシステムを搭載することにより、運転の補助も行うことができる。   As described above, the moving body 1 according to the first embodiment recognizes the pattern provided on the floor 2 and extracts position information, estimates the self position, and responds accordingly. By acquiring the traveling surface information from the map, traveling control and seating surface control corresponding to the state of the traveling surface, in particular, the state of the traveling surface to which the moving body 1 moves can be executed. Therefore, without using a laser sensor of about 500,000 yen or a posture angle sensor of about 800,000 yen, the floor surface can be detected by a USB camera of several thousand yen and floor pattern processing of several tens of thousands of yen, so it is extremely inexpensive. Thus, traveling control and seating surface control corresponding to the state of the traveling surface can be executed. In particular, in a moving body driven by a human, driving assistance can be performed by installing such a system.

発明の実施の形態2.
発明の実施の形態1では、床面に描かれた模様を検出できることを前提としている。しかしながら、床面に模様がない領域に移動体が進んでしまった場合や、床面が汚れている場合等のように、床面検出ができない場合がある。本実施の形態2にかかる移動体は、このように床面検出ができない場合には、オドメトリを利用して自己位置の推定を行う。オドメトリは、左右の車輪の回転速度から、移動体の併進速度と、移動体の角速度を求めて、これを積分して移動体の位置と姿勢を求める手法である。
Embodiment 2 of the Invention
In the first embodiment of the invention, it is assumed that a pattern drawn on the floor surface can be detected. However, there are cases where the floor surface cannot be detected, such as when the moving body has advanced to an area where there is no pattern on the floor surface, or when the floor surface is dirty. When the mobile object according to the second embodiment cannot detect the floor as described above, it estimates its own position using odometry. Odometry is a technique for obtaining the translation speed of the moving body and the angular speed of the moving body from the rotational speeds of the left and right wheels, and integrating these to obtain the position and orientation of the moving body.

本実施の形態2にかかる移動体の制御方法について、図13のフローチャートを用いて説明する。まず、カメラ位置の座標変換処理を実行する(ステップS401)。これは、ロール軸、ピッチ軸、ヨー軸の変動に伴って、カメラの取り付け座標が変動してしまうため、制御上、カメラが同じ位置にあるようにするため、座標変換を行うことにしている。具体的には、制御計算部51において当該座標変換処理を行う。なお、このような座標変換を行わないですむように、カメラ7が動的に鉛直方向を向くように駆動制御してもよく、また、カメラを筐体11に設けられた軸に回動自在に吊り下げることにより鉛直方向に向くようにしてもよい。   A moving body control method according to the second embodiment will be described with reference to the flowchart of FIG. First, camera position coordinate conversion processing is executed (step S401). This is because the camera mounting coordinates change as the roll axis, pitch axis, and yaw axis change, so that coordinate conversion is performed in order to keep the camera in the same position for control purposes. . Specifically, the control calculation unit 51 performs the coordinate conversion process. In order to avoid such coordinate conversion, the camera 7 may be driven and controlled so that the camera 7 is dynamically oriented in the vertical direction, and the camera is suspended from a shaft provided in the housing 11 so as to be rotatable. You may make it face in a perpendicular direction by lowering.

次に、制御計算部51は、床面検出ができたかどうかを判定する(ステップS402)。制御計算部51は、床面検出できたと判定した場合には、発明の実施の形態1にかかる移動体と同様に、自己位置推定を行う(S404)。   Next, the control calculation unit 51 determines whether or not the floor surface has been detected (step S402). If it is determined that the floor surface has been detected, the control calculation unit 51 performs self-position estimation in the same manner as the moving body according to the first embodiment of the invention (S404).

他方、制御計算部51は、床面検出できなかったと判定した場合には、オドメトリによる自己位置推定を行う(ステップS403)。自己位置推定(ステップS403、ステップS404)の後、走行制御を実行する(ステップS405)。   On the other hand, when it is determined that the floor surface cannot be detected, the control calculation unit 51 performs self-position estimation by odometry (step S403). After self-position estimation (step S403, step S404), traveling control is executed (step S405).

このように、本実施の形態によれば、床面検出ができない場合にもオドメトリにより自己位置推定を行うので、床面に模様がない領域に移動体が進んだ場合や、床面が汚れている場合にも、安定した移動制御を行うことができる。   As described above, according to the present embodiment, even when the floor surface cannot be detected, self-position estimation is performed by odometry. Therefore, when the moving body moves to an area where there is no pattern on the floor surface, or when the floor surface is dirty. Even in such a case, stable movement control can be performed.

発明の実施の形態3.
発明の実施の形態1、2では、カメラを移動体1に設けていたが、発明の実施の形態3にかかる移動体制御システムでは、さらに、カメラを移動体1以外のユーザに持たせている。
Embodiment 3 of the Invention
In the first and second embodiments of the invention, the camera is provided on the moving body 1. However, in the moving body control system according to the third embodiment of the invention, the camera is provided to a user other than the moving body 1. .

図14は、当該移動体制御システムを説明するための説明図である。図に示されるように、カメラ付きの通信装置70をユーザ60が保持し、操作している。図15は、当該移動体制御システムの構成を示す構成図である。   FIG. 14 is an explanatory diagram for explaining the moving body control system. As shown in the figure, a user 60 holds and operates a communication device 70 with a camera. FIG. 15 is a configuration diagram showing the configuration of the mobile control system.

図15に示されるように、通信装置70は、カメラ701、バッテリ702、画像処理部703、通信処理部704、アンテナ705を備えている。カメラ701は、床面2の模様を撮影する、例えば、USBカメラである。バッテリ702は、、カメラ701、バッテリ702、画像処理部703、通信処理部704等に対して電力を供給する。画像処理部703は、カメラ701によって撮影され、取得された画像信号を入力し、所定の処理を行い、位置情報を取得する。通信処理部704は、画像処理部703によって取得された位置情報を含む通信信号を、アンテナ705を介して移動体1に対して送信するための通信処理を行う。通信装置70は、本システムの専用機でなくとも、カメラ付き携帯電話によっても実現できる。   As illustrated in FIG. 15, the communication device 70 includes a camera 701, a battery 702, an image processing unit 703, a communication processing unit 704, and an antenna 705. The camera 701 is, for example, a USB camera that captures a pattern on the floor surface 2. The battery 702 supplies power to the camera 701, the battery 702, the image processing unit 703, the communication processing unit 704, and the like. The image processing unit 703 receives an image signal captured and acquired by the camera 701, performs predetermined processing, and acquires position information. The communication processing unit 704 performs communication processing for transmitting a communication signal including the position information acquired by the image processing unit 703 to the mobile body 1 via the antenna 705. The communication device 70 can be realized not only by a dedicated machine of this system but also by a camera-equipped mobile phone.

移動体1は、発明の実施の形態1の移動体の構成に加えて、さらに、通信処理部55と、アンテナ56を備えている。通信処理部55は、アンテナ56を介して通信装置70から送信された通信信号を受信し、この通信信号に含まれる位置情報を制御計算部51に出力する。制御計算部51は、この位置情報を取得して、通信装置70の位置を認識して、通信装置70の位置に移動するように、移動体1を走行制御する。なお、複数の通信装置70によって移動体1の移動を制御する場合や、複数の移動体1が存在する中で、任意の移動体1の移動を制御する場合には、通信装置70から送信する通信信号中に、送信元の通信装置70を識別する識別情報や制御先の移動体1を識別する識別情報を含めるとよい。このとき、移動体1は、識別情報に基づいて識別した通信装置70に対して移動を行う。また、移動体1は、自身を識別する識別情報を含む通信信号を受信した場合には、このような移動制御を実行するが、自身を識別する識別情報を含まない通信信号を受信した場合には、このような移動制御は実行しない。   The mobile body 1 further includes a communication processing unit 55 and an antenna 56 in addition to the configuration of the mobile body according to the first embodiment of the invention. The communication processing unit 55 receives a communication signal transmitted from the communication device 70 via the antenna 56 and outputs position information included in the communication signal to the control calculation unit 51. The control calculation unit 51 acquires the position information, recognizes the position of the communication device 70, and controls the moving body 1 to move to the position of the communication device 70. When the movement of the moving body 1 is controlled by a plurality of communication devices 70, or when the movement of an arbitrary moving body 1 is controlled in the presence of a plurality of moving bodies 1, transmission is performed from the communication device 70. The communication signal may include identification information for identifying the transmission source communication device 70 and identification information for identifying the control target mobile unit 1. At this time, the moving body 1 moves with respect to the communication device 70 identified based on the identification information. In addition, when the mobile unit 1 receives a communication signal including identification information for identifying itself, the mobile unit 1 performs such movement control, but receives a communication signal that does not include identification information for identifying itself. Does not execute such movement control.

以上説明したように、本実施の形態3にかかる移動体制御システムにおいては、移動体とは離れた位置を、当該移動体に対して認識させることができ、例えば、このような認識位置に移動させるといった移動体制御を行うことができる。   As described above, in the mobile body control system according to the third embodiment, a position away from the mobile body can be recognized by the mobile body. For example, the mobile body control system moves to such a recognition position. It is possible to control the moving body.

その他の実施の形態.
上述した実施の形態では、床面に模様が設けられていたが、これに限らず、壁面や天井面に模様が設けられていてもよく、これらの場合には、壁面や天井面を撮影可能な位置や方向にカメラが設置される。
Other embodiments.
In the above-described embodiment, the pattern is provided on the floor surface. However, the present invention is not limited to this, and the pattern may be provided on the wall surface or ceiling surface. In these cases, the wall surface or ceiling surface can be photographed. Cameras are installed in various positions and directions.

上述した実施の形態では、障害物モードの場合に、ゲインを変更するものとして説明したが、ゲインの変更方法としてはさまざま変更方法が考えられる。例えば、移動体1にゲインの大きさを調整する調整器を更に設けて、搭乗者1による調整器の操作量に応じて、ゲインの大きさを変更するようにしてもよい。これにより、搭乗者の体重移動に対して、駆動モータ603の応答性を変化させることで、例えば、障害物モードの場合には、移動体1の位置をゆっくりと移動させることができる。また、調整器の操作量に応じて、障害物モードと通常モードとの間を切替えるようにしてもよい。これにより、搭乗者の利用状況に応じて、より柔軟に移動体の制御モードを切替えることができ、高い操作性を実現することができる。   In the above-described embodiment, it has been described that the gain is changed in the obstacle mode, but various changing methods are conceivable as a method of changing the gain. For example, an adjuster that adjusts the magnitude of the gain may be further provided in the moving body 1, and the magnitude of the gain may be changed according to the operation amount of the adjuster by the passenger 1. Thereby, the position of the mobile body 1 can be moved slowly in the obstacle mode, for example, by changing the responsiveness of the drive motor 603 with respect to the weight movement of the passenger. Moreover, you may make it switch between an obstruction mode and a normal mode according to the operation amount of a regulator. Thereby, according to a passenger's utilization condition, the control mode of a mobile body can be switched more flexibly and high operativity can be implement | achieved.

また、本発明は、車輪型の移動体1に限らず、歩行型の移動体においても適用可能である。すなわち、車台13などの本体部を床面に対して移動させる移動機構が設けられているものであればよい。   The present invention is not limited to the wheel-type moving body 1 but can be applied to a walking-type moving body. That is, it is only necessary that a moving mechanism for moving the main body such as the chassis 13 with respect to the floor surface is provided.

発明の実施の形態1にかかる移動体制御システムを説明するための説明図である。It is explanatory drawing for demonstrating the mobile body control system concerning Embodiment 1 of invention. 発明の実施の形態1にかかる移動体制御システムにおいて用いられる床面の模様について説明するための説明図である。It is explanatory drawing for demonstrating the pattern of the floor surface used in the mobile body control system concerning Embodiment 1 of invention. 発明の実施の形態1にかかる移動体制御システムにおいて用いられる床面の模様について説明するための説明図である。It is explanatory drawing for demonstrating the pattern of the floor surface used in the mobile body control system concerning Embodiment 1 of invention. 発明の実施の形態1にかかる移動体制御システムにおいて用いられる床面の模様について説明するための説明図である。It is explanatory drawing for demonstrating the pattern of the floor surface used in the mobile body control system concerning Embodiment 1 of invention. 発明の実施の形態1にかかる移動体を模式的に示す正面図である。It is a front view which shows typically the mobile body concerning Embodiment 1 of invention. 発明の実施の形態1にかかる移動体を模式的に示す側面図である。It is a side view which shows typically the mobile body concerning Embodiment 1 of invention. 各軸周りの動作を説明するための図である。It is a figure for demonstrating the operation | movement around each axis | shaft. 発明の実施の形態1にかかる移動体を移動させるための制御系を示すブロック図である。It is a block diagram which shows the control system for moving the mobile body concerning Embodiment 1 of invention. 移動体の姿勢を変化させるための構成を示す斜視図である。It is a perspective view which shows the structure for changing the attitude | position of a moving body. 発明の実施の形態1にかかる移動体の制御を示すフローチャートである。It is a flowchart which shows control of the moving body concerning Embodiment 1 of invention. 発明の実施の形態1にかかる移動体におけるコンプライアンス制御を示すフローチャートである。It is a flowchart which shows the compliance control in the moving body concerning Embodiment 1 of invention. 発明の実施の形態1にかかる移動体の制御を示すフローチャートである。It is a flowchart which shows control of the moving body concerning Embodiment 1 of invention. 発明の実施の形態2にかかる移動体の制御を示すフローチャートである。It is a flowchart which shows control of the moving body concerning Embodiment 2 of invention. 発明の実施の形態3にかかる移動体制御システムを説明するための説明図である。It is explanatory drawing for demonstrating the mobile body control system concerning Embodiment 3 of invention. 発明の実施の形態3にかかる移動体制御システムを構成を示すブロック図である。It is a block diagram which shows a structure of the mobile body control system concerning Embodiment 3 of invention.

符号の説明Explanation of symbols

1 移動体、 2 フレーム部、 3 搭乗部、 5 駆動部、
501 ヨー軸機構、 501a エンコーダ、
502 ピッチ軸機構、 502a エンコーダ、
503 ロール軸機構、 503a エンコーダ、
603 駆動モータ、 603a エンコーダ、
6 車輪、 601 前輪、 602 後輪、
603 駆動モータ、 603a エンコーダ、
7、71〜74 カメラ
8 搭乗席、 8a 座面、 9 力センサ、 10 フットレスト、
11 筐体、 12 判別部、 13 車台、
20 肘掛部、 21 背もたれ部、 22 スイッチ、
51 制御計算部、 52 バッテリ、 53 センサ処理部、 54 画像処理部、
55 通信処理部、 56 アンテナ、 70 通信装置、
201 第1の平行リンク機構、 201a 横リンク、 201b 縦リンク、
202 第2の平行リンク機構、 202a 横リンク、 202b 縦リンク、
301 支持軸、
701 カメラ、 702 バッテリ、 703 画像処理部、
704 制御計算部、 705 通信処理部705、 706 アンテナ
1 mobile body, 2 frame part, 3 boarding part, 5 drive part,
501 yaw axis mechanism, 501a encoder,
502 pitch axis mechanism, 502a encoder,
503 roll shaft mechanism, 503a encoder,
603 drive motor, 603a encoder,
6 wheels, 601 front wheels, 602 rear wheels,
603 drive motor, 603a encoder,
7, 71-74 Camera 8 Passenger seat, 8a Seat surface, 9 Force sensor, 10 Footrest,
11 housing, 12 discriminating part, 13 chassis,
20 armrests, 21 backrests, 22 switches,
51 control calculation unit, 52 battery, 53 sensor processing unit, 54 image processing unit,
55 communication processing unit, 56 antenna, 70 communication device,
201 first parallel link mechanism, 201a horizontal link, 201b vertical link,
202 second parallel link mechanism, 202a horizontal link, 202b vertical link,
301 support shaft,
701 Camera, 702 Battery, 703 Image processing unit,
704 Control calculation unit, 705 Communication processing unit 705, 706 Antenna

Claims (19)

位置情報を含む模様を撮像するカメラと、
前記カメラによって撮影された画像信号から位置情報を取得する画像処理部と、
移動体を移動させる移動機構と、
前記画像処理部によって取得された位置情報に基づいて自己位置を推定し、推定された自己位置に基づいて、予め位置と関連づけられた走行面情報を取得し、当該走行面情報に基づいて、前記移動体の動作制御を行う制御計算部を備えた移動体。
A camera that captures a pattern including position information;
An image processing unit for acquiring position information from an image signal photographed by the camera;
A moving mechanism for moving the moving body;
Based on the position information acquired by the image processing unit, the self-position is estimated, on the basis of the estimated self-position, the traveling surface information previously associated with the position is acquired, and on the basis of the traveling surface information, the A moving body provided with a control calculation unit for controlling the operation of the moving body.
前記移動体は、さらに搭乗者を乗せる座面の角度を駆動制御する駆動部を備え、
前記制御計算部は、走行面情報に含まれる走行面の傾斜情報に基づいて、前記駆動部を制御して、座面制御を実行することを特徴とする請求項1記載の移動体。
The mobile body further includes a drive unit that drives and controls the angle of the seat surface on which the passenger is placed,
The mobile body according to claim 1, wherein the control calculation unit controls the driving unit based on inclination information of the traveling surface included in the traveling surface information, and executes seating surface control.
前記制御計算部は、走行面情報に含まれる障害物情報に基づいて、前記移動機構を駆動するための指令値を算出するときのゲインを制御することを特徴とする請求項1又は2記載の移動体。   The said control calculation part controls the gain at the time of calculating the command value for driving the said moving mechanism based on the obstruction information contained in driving | running | working surface information, The Claim 1 or 2 characterized by the above-mentioned. Moving body. 前記制御計算部は、前記障害物情報が当該移動体の周囲に障害物があることを示す場合に、当該ゲインを、通常よりも小さく切り替えることを特徴とする請求項3記載の移動体。   The mobile object according to claim 3, wherein the control calculation unit switches the gain to be smaller than normal when the obstacle information indicates that there is an obstacle around the mobile object. 前記制御計算部は、前記画像処理部によって位置情報が取得できない場合に、オドメトリによって自己位置を推定することを特徴とする請求項1〜4いずれかに記載の移動体。   The mobile object according to claim 1, wherein the control calculation unit estimates a self-position by odometry when position information cannot be acquired by the image processing unit. 前記模様は、移動体が走行する床面に付されていることを特徴とする請求項1〜5いずれかに記載の移動体。   The mobile body according to claim 1, wherein the pattern is attached to a floor surface on which the mobile body travels. 移動体の周囲環境に付され、位置情報を含む模様を撮影して、移動体を制御する制御する移動体制御システムであって、
前記模様を撮像するカメラと、
前記カメラによって撮影された模様より位置情報を取得する画像処理部と、
前記画像処理部によって取得された位置情報に基づいて自己位置を推定し、推定された自己位置に基づいて、予め位置と関連づけられた走行面情報を取得し、当該走行面情報に基づいて、前記移動体の動作制御を行う制御計算部を備えた移動体制御システム。
A moving body control system for controlling a moving body by photographing a pattern including position information attached to the surrounding environment of the moving body,
A camera for imaging the pattern;
An image processing unit for acquiring position information from a pattern photographed by the camera;
Based on the position information acquired by the image processing unit, the self-position is estimated, on the basis of the estimated self-position, the traveling surface information previously associated with the position is acquired, and on the basis of the traveling surface information, the A moving body control system including a control calculation unit that performs operation control of a moving body.
前記移動体は、さらに搭乗者を乗せる座面の角度を駆動制御する駆動部を備え、
前記制御計算部は、走行面情報に含まれる走行面の傾斜情報に基づいて、前記駆動部を制御して、座面制御を実行する請求項7記載の移動体制御システム。
The mobile body further includes a drive unit that drives and controls the angle of the seat surface on which the passenger is placed,
The mobile control system according to claim 7, wherein the control calculation unit performs seating surface control by controlling the driving unit based on inclination information of the traveling surface included in the traveling surface information.
前記制御計算部は、走行面情報に含まれる障害物情報に基づいて、前記移動機構を駆動するための指令値を算出するときのゲインを制御する請求項7又は8記載の移動体制御システム。   The mobile control system according to claim 7 or 8, wherein the control calculation unit controls a gain when calculating a command value for driving the moving mechanism, based on obstacle information included in traveling surface information. 前記制御計算部は、前記障害物情報が当該移動体の周囲に障害物があることを示す場合に、当該ゲインを、通常よりも小さく切り替えることを特徴とする請求項9記載の移動体制御システム。   The mobile control system according to claim 9, wherein the control calculation unit switches the gain to be smaller than normal when the obstacle information indicates that there is an obstacle around the mobile body. . 前記制御計算部は、前記画像処理部によって位置情報が取得できない場合に、オドメトリによって自己位置を推定することを特徴とする請求項7〜10いずれかに記載の移動体制御システム。   The mobile control system according to claim 7, wherein the control calculation unit estimates a self-position by odometry when position information cannot be acquired by the image processing unit. 前記移動体制御システムは、通信装置と、移動体を備え、
当該通信装置は、前記カメラと、前記画像処理部と、当該画像処理部により取得された位置情報を前記移動体に対して送信する送信手段とを有し、
前記移動体は、前記送信手段より送信された位置情報を受信する受信手段と、前記制御計算部とを有し、
当該移動体の制御計算部は、受信した位置情報に基づいて、前記移動体の動作制御を行うことを特徴とする請求項7〜11いずれかに記載の移動体制御システム。
The mobile body control system includes a communication device and a mobile body,
The communication apparatus includes the camera, the image processing unit, and a transmission unit that transmits position information acquired by the image processing unit to the moving body.
The mobile body includes a receiving unit that receives the position information transmitted from the transmitting unit, and the control calculation unit.
The mobile body control system according to any one of claims 7 to 11, wherein the mobile body control calculation unit performs operation control of the mobile body based on the received position information.
前記制御計算部は、受信した位置情報に基づいて、当該位置情報により特定される位置に当該移動体が移動するように、前記移動機構の駆動制御を実行することを特徴とする請求項12に記載の移動体制御システム。   The control calculation unit, based on the received position information, executes drive control of the moving mechanism so that the moving body moves to a position specified by the position information. The moving body control system described. 位置情報を含む模様を撮像するステップと、
撮像された画像信号から位置情報を取得するステップと、
取得された位置情報に基づいて自己位置を推定するステップと、
推定された自己位置に基づいて、予め位置と関連づけられた走行面情報を取得するステップと、
当該走行面情報に基づいて、前記移動体の動作制御を行うステップを備えた移動体の制御方法。
Imaging a pattern including position information;
Obtaining position information from the imaged image signal;
Estimating the self-position based on the obtained position information;
Obtaining travel surface information previously associated with the position based on the estimated self-position;
A moving body control method comprising a step of performing operation control of the moving body based on the traveling surface information.
前記移動体の動作制御を行うステップは、走行面情報に含まれる走行面の傾斜情報に基づいて、座面制御を実行することを特徴とする請求項14記載の移動体の制御方法。   15. The method of controlling a moving body according to claim 14, wherein the step of controlling the operation of the moving body executes seating surface control based on inclination information of the traveling surface included in the traveling surface information. 前記移動体の動作制御を行うステップは、走行面情報に含まれる障害物情報に基づいて、移動体の移動機構を駆動するための指令値を算出するときのゲインを制御することを特徴とする請求項14又は15記載の移動体の制御方法。   The step of controlling the operation of the moving body is characterized by controlling a gain when calculating a command value for driving the moving mechanism of the moving body based on obstacle information included in the traveling surface information. The method for controlling a moving body according to claim 14 or 15. 前記障害物情報が当該移動体の周囲に障害物があることを示す場合に、当該ゲインを、通常よりも小さく切り替えることを特徴とする請求項16記載の移動体の制御方法。   The method according to claim 16, wherein when the obstacle information indicates that there is an obstacle around the moving body, the gain is switched to be smaller than normal. 位置情報が取得できない場合に、オドメトリによって自己位置を推定することを特徴とする請求項14〜17いずれかに記載の移動体の制御方法。   The method for controlling a mobile object according to any one of claims 14 to 17, wherein when the position information cannot be acquired, the self-position is estimated by odometry. 前記模様は、移動体が走行する床面に付されていることを特徴とする請求項14〜18いずれかに記載の移動体の制御方法。   The method for controlling a moving body according to any one of claims 14 to 18, wherein the pattern is attached to a floor surface on which the moving body travels.
JP2008290037A 2008-11-12 2008-11-12 Moving object, moving object control system, and control method for moving object Pending JP2010117847A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008290037A JP2010117847A (en) 2008-11-12 2008-11-12 Moving object, moving object control system, and control method for moving object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008290037A JP2010117847A (en) 2008-11-12 2008-11-12 Moving object, moving object control system, and control method for moving object

Publications (1)

Publication Number Publication Date
JP2010117847A true JP2010117847A (en) 2010-05-27

Family

ID=42305497

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008290037A Pending JP2010117847A (en) 2008-11-12 2008-11-12 Moving object, moving object control system, and control method for moving object

Country Status (1)

Country Link
JP (1) JP2010117847A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101272604B1 (en) 2012-04-25 2013-06-07 주식회사 유진로봇 Riding robot and operating system comprising the same
JP2014226266A (en) * 2013-05-21 2014-12-08 株式会社東芝 Vacuum cleaner
JP2015060336A (en) * 2013-09-18 2015-03-30 清水建設株式会社 Automatic guided vehicle and automatic guided vehicle system using floor position detection method
KR101525311B1 (en) * 2013-09-30 2015-06-02 현대오토에버 주식회사 Camera Based Auto Transportation Apparatus and Auto Pilot Method therof
WO2018179960A1 (en) * 2017-03-27 2018-10-04 日本電産株式会社 Mobile body and local position estimation device
JPWO2019054438A1 (en) * 2017-09-15 2019-11-14 ヤマハ発動機株式会社 Default route trace vehicle
JP2021509215A (en) * 2018-10-19 2021-03-18 北京極智嘉科技有限公司 Navigation methods, devices, devices, and storage media based on ground texture images
WO2024034025A1 (en) * 2022-08-09 2024-02-15 日本電信電話株式会社 Autonomous movement control device, autonomous movement system, autonomous movement method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0670615A (en) * 1992-08-25 1994-03-15 Kubota Corp Paddy field working machine
JP2004016308A (en) * 2002-06-13 2004-01-22 Japan Science & Technology Corp Seat surface stabilizing and supporting motor-driven wheelchair
JP2004098233A (en) * 2002-09-10 2004-04-02 Matsushita Electric Ind Co Ltd Autonomous mobile robot
JP2006107475A (en) * 2004-09-13 2006-04-20 Matsushita Electric Ind Co Ltd Mobile robot
JP2007257226A (en) * 2006-03-23 2007-10-04 Honda Motor Co Ltd Self-location detection device and system for traveling object

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0670615A (en) * 1992-08-25 1994-03-15 Kubota Corp Paddy field working machine
JP2004016308A (en) * 2002-06-13 2004-01-22 Japan Science & Technology Corp Seat surface stabilizing and supporting motor-driven wheelchair
JP2004098233A (en) * 2002-09-10 2004-04-02 Matsushita Electric Ind Co Ltd Autonomous mobile robot
JP2006107475A (en) * 2004-09-13 2006-04-20 Matsushita Electric Ind Co Ltd Mobile robot
JP2007257226A (en) * 2006-03-23 2007-10-04 Honda Motor Co Ltd Self-location detection device and system for traveling object

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101272604B1 (en) 2012-04-25 2013-06-07 주식회사 유진로봇 Riding robot and operating system comprising the same
JP2014226266A (en) * 2013-05-21 2014-12-08 株式会社東芝 Vacuum cleaner
JP2015060336A (en) * 2013-09-18 2015-03-30 清水建設株式会社 Automatic guided vehicle and automatic guided vehicle system using floor position detection method
KR101525311B1 (en) * 2013-09-30 2015-06-02 현대오토에버 주식회사 Camera Based Auto Transportation Apparatus and Auto Pilot Method therof
WO2018179960A1 (en) * 2017-03-27 2018-10-04 日本電産株式会社 Mobile body and local position estimation device
JPWO2019054438A1 (en) * 2017-09-15 2019-11-14 ヤマハ発動機株式会社 Default route trace vehicle
JP2021509215A (en) * 2018-10-19 2021-03-18 北京極智嘉科技有限公司 Navigation methods, devices, devices, and storage media based on ground texture images
US11644338B2 (en) 2018-10-19 2023-05-09 Beijing Geekplus Technology Co., Ltd. Ground texture image-based navigation method and device, and storage medium
WO2024034025A1 (en) * 2022-08-09 2024-02-15 日本電信電話株式会社 Autonomous movement control device, autonomous movement system, autonomous movement method, and program

Similar Documents

Publication Publication Date Title
JP2010117847A (en) Moving object, moving object control system, and control method for moving object
WO2010029669A1 (en) Moving body and control method thereof
US8453340B2 (en) System, method and apparatus for orientation control
US10130304B2 (en) System, method and apparatus for orientation control
KR100807449B1 (en) Control device for legged robot
KR100912688B1 (en) Mobile robot controller
CN111615443B (en) Information processing apparatus, information processing method, and information processing system
JP2020118586A (en) Moving vehicle
JP5123123B2 (en) Mobile body and control method thereof
JP4825856B2 (en) Mobile body and control method thereof
JP2007152472A (en) Charging system, charging station and robot guidance system
JP5270307B2 (en) Moving body
US20200132466A1 (en) Self-stabilizing autonomous devices and use thereof in autonomous vehicles
JP5167077B2 (en) Mobile body and control method thereof
JP5044515B2 (en) Mobile body and control method thereof
JP5328272B2 (en) Mobile body and control method thereof
JP2004306249A (en) Diagnostic instrument of stereo camera carried on robot and diagnostic method of stereo camera carried on robot device
JP7295654B2 (en) self-propelled robot
US20200307378A1 (en) Non-contact operating apparatus for vehicle and vehicle
JP7358108B2 (en) Information processing device, information processing method and program
JP2008229788A (en) Inverted moving body
JP5261091B2 (en) Mobile body and control method thereof
CN107804388B (en) Transport system
JP2023177286A (en) Information processing device, information processing system, information processing method, and program
JP2010068655A (en) Moving body and control method thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100722

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120523

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120828