JP2010117847A - Moving object, moving object control system, and control method for moving object - Google Patents
Moving object, moving object control system, and control method for moving object Download PDFInfo
- Publication number
- JP2010117847A JP2010117847A JP2008290037A JP2008290037A JP2010117847A JP 2010117847 A JP2010117847 A JP 2010117847A JP 2008290037 A JP2008290037 A JP 2008290037A JP 2008290037 A JP2008290037 A JP 2008290037A JP 2010117847 A JP2010117847 A JP 2010117847A
- Authority
- JP
- Japan
- Prior art keywords
- moving body
- information
- control
- calculation unit
- mobile
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000004364 calculation method Methods 0.000 claims abstract description 94
- 238000012545 processing Methods 0.000 claims abstract description 80
- 230000007246 mechanism Effects 0.000 claims description 114
- 238000004891 communication Methods 0.000 claims description 30
- 238000003384 imaging method Methods 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims description 4
- 238000005259 measurement Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000004069 differentiation Effects 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 238000013016 damping Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 239000003638 chemical reducing agent Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000011065 in-situ storage Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本発明は、移動体、移動体制御システム及び移動体の制御方法に関する。 The present invention relates to a mobile object, a mobile object control system, and a control method for the mobile object.
近年、搭乗者を搭乗させた状態で移動する移動体が開発されている(特許文献1〜4)。特許文献1〜3に開示された移動体では、搭乗者が搭乗する搭乗面に力センサを設け、力センサからの出力に応じて車輪を駆動している。より具体的には、特許文献1に開示された移動体は、搭乗者が進みたい方向に体重をかけることにより移動する。特許文献2には、車椅子型の移動体が開示されている。また、特許文献3には、利用者の動作を能動的に検知して、それに応じて自律的に動作する移動体が開示されている。さらに、特許文献4には、2足歩行型の移動体を動作させるためのインタフェイス装置が開示されている。
In recent years, mobile bodies have been developed that move while a passenger is on board (
しかしながら、特許文献1〜4に開示された移動体では、コスト面の考慮が欠けている。即ち、これらの移動体では、比較的高価な姿勢角センサや距離計測センサを用いており、非常に高価にならざるをえなかった。
However, the moving bodies disclosed in
本発明は、コスト面において優れた移動体、移動体制御システム及び移動体の制御方法を提供することを目的とする。 An object of the present invention is to provide a moving body, a moving body control system, and a moving body control method that are excellent in terms of cost.
本発明にかかる移動体は、位置情報を含む模様を撮像するカメラと、前記カメラによって撮影された画像信号から位置情報を取得する画像処理部と、移動体を移動させる移動機構と、前記画像処理部によって取得された位置情報に基づいて自己位置を推定し、推定された自己位置に基づいて、予め位置と関連づけられた走行面情報を取得し、当該走行面情報に基づいて、前記移動体の動作制御を行う制御計算部を備えたものである。 The moving body according to the present invention includes a camera that captures a pattern including position information, an image processing unit that acquires position information from an image signal captured by the camera, a moving mechanism that moves the moving body, and the image processing. Based on the position information acquired by the unit, based on the estimated self-position, acquiring travel surface information associated with the position in advance, and based on the travel surface information, A control calculation unit that performs operation control is provided.
ここで、前記移動体は、さらに搭乗者を乗せる座面の角度を駆動制御する駆動部を備え、前記制御計算部は、走行面情報に含まれる走行面の傾斜情報に基づいて、前記駆動部を制御して、座面制御を実行することが好ましい。
また、前記制御計算部は、走行面情報に含まれる障害物情報に基づいて、前記移動機構を駆動するための指令値を算出するときのゲインを制御することが望ましい。
Here, the moving body further includes a drive unit that drives and controls an angle of a seating surface on which a passenger is placed, and the control calculation unit is configured to perform the driving unit based on inclination information of a running surface included in running surface information. It is preferable to control the seating surface to control.
In addition, it is preferable that the control calculation unit controls a gain when calculating a command value for driving the moving mechanism based on obstacle information included in the traveling surface information.
このとき、前記制御計算部は、前記障害物情報が当該移動体の周囲に障害物があることを示す場合に、当該ゲインを、通常よりも小さく切り替えることが望ましい。
また、前記制御計算部は、前記画像処理部によって位置情報が取得できない場合に、オドメトリによって自己位置を推定することが望ましい。
ここで、前記模様は、移動体が走行する床面に付されていることが望ましい。
At this time, when the obstacle information indicates that there is an obstacle around the moving body, the control calculation unit preferably switches the gain to be smaller than usual.
In addition, it is preferable that the control calculation unit estimates a self-position by odometry when position information cannot be acquired by the image processing unit.
Here, it is desirable that the pattern is attached to the floor surface on which the moving body travels.
本発明にかかる移動体制御システムは、移動体の周囲環境に付され、位置情報を含む模様を撮影して、移動体を制御する制御する移動体制御システムであって、前記模様を撮像するカメラと、前記カメラによって撮影された模様より位置情報を取得する画像処理部と、前記画像処理部によって取得された位置情報に基づいて自己位置を推定し、推定された自己位置に基づいて、予め位置と関連づけられた走行面情報を取得し、当該走行面情報に基づいて、前記移動体の動作制御を行う制御計算部を備えたものである。 A moving body control system according to the present invention is a moving body control system for controlling a moving body by photographing a pattern including position information attached to an environment around the moving body, and imaging the pattern And an image processing unit that acquires position information from a pattern photographed by the camera, a self-position is estimated based on the position information acquired by the image processing unit, and a position is previously determined based on the estimated self-position. Is provided with a control calculation unit that obtains the travel surface information associated with and controls the operation of the moving body based on the travel surface information.
ここで、前記移動体は、さらに搭乗者を乗せる座面の角度を駆動制御する駆動部を備え、前記制御計算部は、走行面情報に含まれる走行面の傾斜情報に基づいて、前記駆動部を制御して、座面制御を実行することが望ましい。 Here, the moving body further includes a drive unit that drives and controls an angle of a seating surface on which a passenger is placed, and the control calculation unit is configured to perform the driving unit based on inclination information of a running surface included in running surface information. It is desirable to control the seating surface to control.
また、前記制御計算部は、走行面情報に含まれる障害物情報に基づいて、前記移動機構を駆動するための指令値を算出するときのゲインを制御することが望ましい。 In addition, it is preferable that the control calculation unit controls a gain when calculating a command value for driving the moving mechanism based on obstacle information included in the traveling surface information.
さらに、前記制御計算部は、前記障害物情報が当該移動体の周囲に障害物があることを示す場合に、当該ゲインを、通常よりも小さく切り替えることが好ましい。
また、前記制御計算部は、前記画像処理部によって位置情報が取得できない場合に、オドメトリによって自己位置を推定することが望ましい。
Furthermore, it is preferable that the control calculation unit switches the gain to be smaller than usual when the obstacle information indicates that there is an obstacle around the moving body.
In addition, it is preferable that the control calculation unit estimates a self-position by odometry when position information cannot be acquired by the image processing unit.
前記移動体制御システムは、通信装置と、移動体を備え、当該通信装置は、前記カメラと、前記画像処理部と、当該画像処理部により取得された位置情報を前記移動体に対して送信する送信手段とを有し、前記移動体は、前記送信手段より送信された位置情報を受信する受信手段と、前記制御計算部とを有し、当該移動体の制御計算部は、受信した位置情報に基づいて、前記移動体の動作制御を行うようにしてもよい。 The mobile body control system includes a communication device and a mobile body, and the communication device transmits position information acquired by the camera, the image processing unit, and the image processing unit to the mobile body. The mobile unit includes a reception unit that receives the positional information transmitted from the transmission unit, and the control calculation unit. The control calculation unit of the mobile unit receives the positional information received from the mobile unit. Based on the above, the operation control of the moving body may be performed.
このとき、前記制御計算部は、受信した位置情報に基づいて、当該位置情報により特定される位置に当該移動体が移動するように、前記移動機構の駆動制御を実行することが好ましい。 At this time, it is preferable that the control calculation unit performs drive control of the moving mechanism based on the received position information so that the moving body moves to a position specified by the position information.
本発明にかかる移動体の制御方法は、位置情報を含む模様を撮像するステップと、 撮像された画像信号から位置情報を取得するステップと、取得された位置情報に基づいて自己位置を推定するステップと、推定された自己位置に基づいて、予め位置と関連づけられた走行面情報を取得するステップと、当該走行面情報に基づいて、前記移動体の動作制御を行うステップを備えたものである。 The method for controlling a moving body according to the present invention includes a step of imaging a pattern including position information, a step of acquiring position information from the captured image signal, and a step of estimating a self-position based on the acquired position information. And a step of acquiring traveling surface information associated with the position in advance based on the estimated self-position, and a step of performing operation control of the moving body based on the traveling surface information.
ここで、前記移動体の動作制御を行うステップは、走行面情報に含まれる走行面の傾斜情報に基づいて、座面制御を実行することを特徴とするものである。 Here, the step of performing the operation control of the moving body is characterized in that the seating surface control is executed based on the inclination information of the traveling surface included in the traveling surface information.
また、前記移動体の動作制御を行うステップは、走行面情報に含まれる障害物情報に基づいて、移動体の移動機構を駆動するための指令値を算出するときのゲインを制御することが好ましい。 The step of controlling the operation of the moving body preferably controls a gain when calculating a command value for driving the moving mechanism of the moving body based on obstacle information included in the traveling surface information. .
また、前記障害物情報が当該移動体の周囲に障害物があることを示す場合に、当該ゲインを、通常よりも小さく切り替えることが望ましい。
また、位置情報が取得できない場合に、オドメトリによって自己位置を推定することが望ましい。
ここで、前記模様は、移動体が走行する床面に付されていることが望ましい。
In addition, when the obstacle information indicates that there is an obstacle around the moving body, it is desirable to switch the gain to be smaller than usual.
In addition, when the position information cannot be acquired, it is desirable to estimate the self position by odometry.
Here, it is desirable that the pattern is attached to the floor surface on which the moving body travels.
本発明によれば、コスト面において優れた移動体、移動体制御システム及び移動体の制御方法を提供することができる。 According to the present invention, it is possible to provide a movable body, a movable body control system, and a movable body control method that are excellent in terms of cost.
以下、本発明にかかる移動体の実施形態を、図面に基づいて詳細に説明する。但し、本発明が以下の実施形態に限定される訳ではない。また、説明を明確にするため、以下の記載及び図面は、適宜、簡略化されている。 DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments of a moving body according to the present invention will be described in detail based on the drawings. However, the present invention is not limited to the following embodiments. In addition, for clarity of explanation, the following description and drawings are simplified as appropriate.
発明の実施の形態1.
まず、図1を用いて、本実施の形態1にかかる移動体制御システムの概略構成について説明する。図1は、上面から当該移動体制御システムを見た図である。かかる移動体制御システムは、移動体1と、位置情報を埋め込んだ模様を有する床面2を備えている。
First, the schematic configuration of the mobile control system according to the first embodiment will be described with reference to FIG. FIG. 1 is a view of the moving body control system as viewed from above. Such a moving body control system includes a moving
移動体1は、床面上を搭乗者を乗せた状態で移動する自律移動型の移動ロボットである。移動体1は、搭載されたカメラによって床面2上の模様を撮影し、当該模様に埋め込まれた位置情報を認識して、自己位置を推定し、推定された自己位置に基づいて走行制御を実行する。
The
本実施の形態1にかかる移動体1は、特に、推定した自己位置に基づいてマップに含まれる段差や坂道等の傾斜情報に基づいて、座面制御を実行する。例えば、当該移動体1は、走行面の傾斜情報によって走行面が傾斜することを検出した場合にも、座面が常に平坦面に対して水平に近づくように、座面制御を実行する。
The moving
また、本実施の形態1にかかる移動体1は、推定した自己位置に基づいて予め作成されたマップに含まれる障害物情報に基づいて、ゲイン制御を実行する。例えば、当該移動体1は、移動方向に障害物があると判定した場合には、ゲインが低くなるように変更し、障害物に衝突しないように制御する。
In addition, the moving
床面2には、位置情報がコード化された模様がプリントとしたシートが貼り付けられている。かかる模様を用いた位置認識システムは、特開2008−52403号公報に開示されている。図1に示される模様は、見た目ではランダムに数種類の図形が並んでいるように見える。しかし実際には、4つの図形を用いて、それぞれの図形の配置場所と回転角度に規則性を与えることによって、位置情報をコード化している(図2、図3)。模様中には、図3のように模様平面上での位置と1対1に対応しているIDが敷き詰められている。
A sheet printed with a pattern in which position information is encoded is attached to the
IDの表現方法を図4に例示する。各IDは4種類の図形の回転角によって表現する。図4に記したようにそれぞれの図形をタイプ1、タイプ2、タイプ3、タイプ4と名付ける。タイプ1からタイプ4までの図形の中心(重心)を結ぶと内角が60度と120度の平行四辺形になっており、タイプ1からタイプ4は順に時計回りに並んでいる。
FIG. 4 illustrates an ID expression method. Each ID is expressed by rotation angles of four types of figures. As shown in FIG. 4, the respective figures are named
タイプ1とタイプ2の中心を結んだ線分、またはタイプ3とタイプ4の中心を結んだ線分を基準線(base line)とし、各図形の点線で表した線分とのなす角によってIDを決定する。これらの図形は、それぞれ基準線に対して5、15、25、・・・、175度と10度ごとに傾いており、1つの図形につき18種類のIDを表現することができる。
A line segment connecting the centers of
この模様ではタイプ1、タイプ3、タイプ4が点対象の図形なので各図形18種類しかIDを表現できないが、点対象ではない図形を使用することで1つの図形に対して36種類のIDを表現できることになる。本模様ではタイプ4をIDの誤認識を防ぐための誤り検出図形として利用しており、タイプ4の傾きはタイプ1からタイプ3の傾きによって決定される。そのため、3種類の図形でID表現を行っており、合計183(=5832)種類のIDを表わすことができる。床に1つのIDを20[cm]×20[cm]のスペースで表示したとすると、233.28[m2]の広さに対応することができる。IDは図4に示されるように、各図形の角度を並べることにより表現されており、(タイプ1の傾き(α)、タイプ2の傾き(β)、タイプ3の傾き(γ)、タイプ4の傾き(δ)というように表示する。
In this pattern,
このようにコード化されたIDを並べることによって模様を表現していく。模様を表現する際に、本手法では図形の種類を増やすことで、表現できるIDの数を容易に増やすことができる。各図形を10度ずつ回転させるものでは、1つの図形を追加することにより18倍、2つ追加することにより182倍というように指数関数的にIDの数を増加させることができ、部屋の広さに応じてIDの数を調整することができる。また、IDの大きさや密度、各図形の配置位置を変えることにより用途に応じた様々な模様を作ることもできる。 A pattern is expressed by arranging the IDs thus coded. When expressing a pattern, the present method can easily increase the number of IDs that can be expressed by increasing the types of figures. The is intended to rotate by 10 degrees each figure, it is possible to increase the number of exponentially ID as that 18 double 18-fold by adding one figure, by adding two to, room The number of IDs can be adjusted according to the size. Various patterns can be created according to the application by changing the size and density of the ID and the arrangement position of each figure.
本実施の形態1にかかる移動体1の構成について、図5、図6を用いて説明する。図5は、移動体1の構成を模式的に示す正面図であり、図6は、移動体1の構成を模式的に示す側面図である。なお、図5、図6には、XYZの直交座標系が示されている。Y軸が移動体1の左右方向を示し、X軸が移動体1の前後方向を示し、Z軸が鉛直方向を示している。従って、X軸がロール軸に対応し、Y軸がピッチ軸、Z軸がヨー軸となる。図5、6において、+X方向が移動体1の前方向であるとして説明する。
A configuration of the moving
図5に示されるように移動体1は、搭乗部3と、車台13を備えている。車台13は、移動体1の本体部であり、搭乗部3を支持している。車台13は、車輪6、カメラ7、フットレスト10、筐体11、制御計算部51、バッテリ52、センサ処理部53、画像処理部54を備えている。車輪6は、前輪601と後輪602から構成されている。ここでは、1つの前輪601と2つの後輪602からなる3輪型の移動体1を説明する。
As shown in FIG. 5, the moving
搭乗部3は、搭乗席8と、力センサ9を備えている。そして、搭乗席8の上面が座面8aとなる。すなわち、座面8aの上に、搭乗者が乗った状態で移動体1が移動する。座面8aは平面でもよいし、臀部の形に合わせた形状となっていてもよい。さらに、搭乗席8に背もたれを設けてもよい。すなわち、搭乗席8を車椅子形状としてもよい。乗り心地を向上させるために、搭乗席8にクッション性を持たせてもよい。移動体1が水平面上にある場合、座面8aが水平になっている。力センサ9は、搭乗者の体重移動を検知する。すなわち、力センサ9は、搭乗席8の座面8aに加わる力を検出する。そして、力センサ9は、座面8aに加わる力に応じた計測信号を出力する。力センサ9は、搭乗席8の下側に配置される。すなわち、車台13と搭乗席8の間に、力センサ9が配設されている。
The
力センサ9としては、例えば、6軸力センサを用いることができる。この場合、図7に示されるように、3軸方向の並進力(SFx、SFy、SFz)と各軸周りのモーメント(SMx、SMy、SMz)を計測する。これらの並進力とモーメントは、力センサ9の中心を原点に取った値である。移動体1のセンサ処理部53に出力する計測信号をモーメント(Mx、My、Mz)とし、それらのモーメントの制御座標原点を図6に示す(a、b、c)とすると、Mx、My、Mzは、それぞれ以下のように表すことができる。
Mx=SMx+c・SFy−b・SFz
My=SMy+a・SFz−c・SFx
Mz=SMz+b・SFx−a・SFy
As the
Mx = SMx + c · SFy−b · SFz
My = SMy + a · SFz−c · SFx
Mz = SMz + b.SFx-a.SFy
なお、図7は、各軸を説明するための図である。力センサ9として、モーメント(Mx、My、Mz)を計測できるものであればよい。各軸周りのモーメント(SMx、SMy、SMz)を計測できる3軸力センサを制御座標原点に配置して、Mx,My、Mzを直接計測してもよい。また、1軸の力センサを3つ設けてもよい。さらには、歪みゲージや、ポテンショを用いたアナログジョイスティックなどでもよい。すなわち、直接的又は間接的に3軸周りのモーメントを計測できるものであればよい。そして、力センサ9は、3つのモーメント(Mx、My、Mz)を計測信号として出力する。
In addition, FIG. 7 is a figure for demonstrating each axis | shaft. Any
筐体11は、箱形状を有しており、前方下側が突出している。そして、この突出した部分の上にフットレスト10が配設されている。フットレスト10は、搭乗席8の前方側に設けられている。従って、搭乗者が搭乗席8に搭乗した状態では、搭乗者の両足がフットレスト10上に乗せられている。
The
筐体11には、駆動モータ603、制御計算部51、バッテリ52、センサ処理部53、画像処理部54が内蔵されている。バッテリ52は、駆動モータ603、制御計算部51、センサ処理部53、画像処理部54、カメラ7、力センサ9などの各電気機器に電源を供給する。
The
筐体11には、車輪6が回転可能に取り付けられている。ここでは、円盤上の車輪6が3つ設けられている。車輪6の一部は、筐体11の下面よりも下側に突出している。従って、車輪6が床面と接触している。2つの後輪602は、筐体11の後部に設けられている。後輪602は、駆動輪であり、駆動モータ603によって回転する。すなわち、駆動モータ603が駆動することによって、後輪602がその車軸周りに回転する。後輪602は、左右両側に設けられている。なお、後輪602には、その回転速度を読み取るためのエンコーダが内蔵されている。2つの後輪602は、同軸上に配置されている。左の後輪602の車軸と、右の後輪602の車軸は、同一直線上に配置されている。
また、車輪6には前輪601が含まれている。そして、1つの前輪601が筐体11の前部中央に設けられている。従って、Y方向において、2つの後輪602の間に、前輪601が配設されている。X方向において、前輪601の車軸と後輪602の車軸との間に、搭乗席8が設けられている。前輪601は、従動輪(補助輪)であり、移動体1の移動に応じて回転する。すなわち、後輪602の回転によって移動する方向、及び速度に応じて、前輪601が回転する。このように、後輪602の前に補助輪である前輪601を設けることで、転倒を防ぐことができる。前輪601は、フットレスト10の下方に設けられている。
Further, the
制御計算部51はCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、通信用のインタフェイスなどを有する演算処理装置である。また、制御計算部51は、着脱可能なHDD、光ディスク、光磁気ディスク等を有し、各種プログラム、制御パラメータやマップなどを記憶し、それらのプログラム、データやマップを必要に応じてメモリ(不図示)等に供給する。もちろん、制御計算部51は、物理的に一つの構成に限られるものではない。制御計算部51は、力センサ9からの出力に応じて駆動モータ603の動作を制御するための処理を行う。また、制御計算部51は、カメラ7によって撮影され、画像処理部54によって得られた位置情報タから自己位置を推定する。さらに、制御計算部51は、推定した自己位置に基づいて、予め作成されたマップから、その推定自己位置及びその近傍の傾斜、障害物等の走行面の状態を示す走行面情報を取得する。そして、制御計算部51は、当該走行面情報に基づいて、走行制御や座面制御を実行する。
The
このような制御を行う際に用いられるマップは、模様が設けられた床面2上の位置と、走行面情報が関連付けられて、制御計算部51上の所定のメモリに格納されて構成される。例えば、当該マップは、位置を示す座標情報と、走行面情報が対応づけられたテーブル情報としてメモリに格納される。
The map used when performing such control is configured by associating the position on the
センサ処理部53は、力センサ9からの計測信号に対応する計測データに対して、演算処理を行う。これにより、制御計算部51に入力される入力モーメント値が算出される。なお、センサ処理部53は、力センサ9に内蔵されていてもよく、制御計算部51に内蔵されていてもよい。
The
画像処理部54は、カメラ7から画像信号を入力し、画像処理を行い、位置情報を取得して、これを制御計算部51に出力する。
The
カメラ7は、床面2に設けられた模様を撮影する。カメラ7は、複数のカメラ71〜74より構成される。それぞれのカメラ71〜74は、図示しない配線により画像処理部54に接続されている。カメラ7としては、例えば、比較的安価なUSB(Universal Serial Bus)カメラが用いられる。カメラ71、72は、筐体11の左右両側面の下方部に設置されている。カメラ73、74は、筐体11の前後両側面の下方部に設置されている。カメラ71〜74は、床面2に設けられた模様を撮影するために、下方及びその近傍領域を撮影する。
The
なお、本例におけるカメラ7は、4個のカメラより構成されているが、4個に限られず、1個であってもよい。また、カメラ7から得られた画像データは、移動体1の位置情報を取得するために用いられるが、さらに、移動体1の周辺の障害物を検出するために用いてもよい。特に、移動体1の前方を撮影可能なカメラ73は前方の障害物を、移動体1の後方を撮影可能なカメラ74は後方の障害物をそれぞれ検出することができる。
The
ここで、床面2の模様に基づいて位置情報を取得する処理について説明する。移動体1は、カメラ7によって模様の画像信号を取得する。そして、画像処理部54は、撮影された模様の画像信号を画像処理して位置情報(ID)を識別する。制御計算部51は、位置情報に基づいて移動体1の3次元位置を同定する。このように、カメラ7、画像処理部54、制御計算部51は、デコード手段として機能する。
Here, the process which acquires position information based on the pattern of the
画像処理部4の具体的に処理について、図2〜図4の例を用いて説明する。画像処理部4は、まず初めにRGBの合計値に閾値を設け、キャプチャされた画像の全ピクセルに対して2値化処理を行う。そして、2値化処理されたそれぞれの領域に対してラベリング処理を行う。ラベリングされた図形は、頂点の数と辺の長さの情報によりタイプ1からタイプ4の図形に分類される。この時どれにも属さないものはタイプ分けされず、以降のステップには使用されない。タイプ分けされたそれぞれの図形は、その後IDを示す図形群の1つとしてグループ化され、グループ化された図形群の基準線と各図形のひとつの辺の角度からIDが計算される。各IDには1対1に対応した2次元の座標値が割り振られているため、求めたIDからカメラの模様平面上の2次元座標を求めることができる。
Specific processing of the
ID計算が終わった後はカメラ7に映っている図形の大きさから、あらかじめ計測して求めた計算式を使ってカメラ7が模様からどれだけ離れているかを計算する。例えば、タイプ1の図形のピクセル数を使用して、模様からカメラ7の距離を算出する。最後に、IDから求めた模様平面上の2次元座標値と模様からの距離の値により3次元位置を同定する、という流れになっている。
After the ID calculation is completed, how far the
IDを示す図形群のグループ化の際には、タイプ1からタイプ4を1つずつ選びグループとしてまとめるのであるが、その手順は次の通りである。まず、キャプチャされた映像からタイプ1を見つける。そして、そのタイプ1と隣の図形までの距離の中にあるタイプ2を見つける。同様に、タイプ2から上記の一定距離内にあるタイプ3、タイプ3から一定距離内にあるタイプ4というように探していく。タイプ4が見つかった後、タイプ4から一定距離内にあるタイプ1を探し、それが初めのタイプ1と同じかどうかを確認する。タイプ4から探したタイプ1と最初のタイプ1が同じであれば、タイプ1からタイプ4までが時計周りに並んでいるかどうかをチェックした後、グループとして認識する。グループとして認識されない場合には、タイプ4で他の候補を選び確認する。タイプ4の候補が他になかったら、また、最初と違うタイプ4でもグループとして認識できなかったら、タイプ3の他の候補を選ぶというようにタイプ1を上位、タイプ4を下位として深さ優先探索を行っていく。IDを示す図形群が多数あれば、全ての図形に対してこのアルゴリズムを適用し、全てのIDから得られた値の平均値をカメラの3次元位置とする。
When grouping graphic groups indicating IDs,
次に、移動体1を移動させるための制御系について、図8を用いて説明する。図8は、移動体1を移動させるための制御系の構成を示すブロック図である。まず、力センサ9によって、座面8aにかかる力を検出する。センサ処理部53は、力センサ9からの計測信号に対して処理を行う。すなわち、力センサ9から出力される計測信号に対応する計測データに対して、演算処理を行う。これにより、制御計算部51に入力される入力モーメント値が算出される。
Next, a control system for moving the moving
このように、力センサ9で計測されたモーメント(Mx、My、Mz)が各軸周りの入力モーメント値(Mx'、My'、Mz')に変換される。そして、入力モーメント値が各後輪602を動作させるために入力される入力値となる。このように、センサ処理部53は、各軸毎に入力値を算出する。入力モーメント値の大きさは、モーメントの大きさに応じて決まる。入力モーメント値の符号は、計測されたモーメントの符号によって決まる。すなわち、モーメントが正の場合、入力モーメント値も正となり、モーメントが負の場合、入力モーメント値も負となる。例えば、モーメントMxが正の場合、入力モーメント値Mx'も正となる。従って、この入力モーメント値が搭乗者の意図する操作に対応する入力値となる。
In this manner, the moments (Mx, My, Mz) measured by the
制御計算部51は、入力モーメント値(Mx'、My'、Mz')に基づいて、入力トルクτiを求める。例えば、入力トルクτi=(Mx'、My'、Mz')となる。そして、このトルクτiに基づいて制御計算を行う。これにより、駆動モータ603を駆動するための指令値が算出される。通常、トルクτiが大きいほど、指令値が大きくなる。この指令値は、駆動モータ603に出力される。なお、本実施形態では、左右の後輪602が駆動輪であるため、2つの駆動モータ603が図示されている。そして、一方の駆動モータ603が右の後輪602を回転させ、他方の駆動モータ603が左の後輪602を回転させる。駆動モータ603は、指令値に基づいて後輪602を回転させる。すなわち、駆動モータ603は、駆動輪である後輪602を回転させるための指令トルクを与える。もちろん、駆動モータ603は、減速機などを介して、後輪602に回転トルクを与えてもよい。例えば、制御計算部51から、指令値として指令トルクが入力された場合、その指令トルクで、駆動モータ603が回転する。これにより、後輪602が回転して、移動体1が所望の方向に、所望の速度で移動する。もちろん、指令値は、駆動モータ603のトルクに限らず、回転速度、回転数であってもよい。
The
さらに、駆動モータ603にはそれぞれ、エンコーダ603aが内蔵されている。このエンコーダ603aは、駆動モータ603の回転速度等を検出する。そして、検出された回転速度は、制御計算部51に入力される。制御計算部51は、現在の回転速度と、目標となる回転速度とに基づいてフィードバック制御を行う。例えば、目標回転速度と現在回転速度との差分に、適当なゲインを乗じて、指令値を算出する。もちろん、左右の駆動モータ603に出力される指令値は、異なる値であってもよい。すなわち、前方、又は後方に直進する場合は、左右の後輪602の回転速度が同じになるように制御し、左右に旋回する場合は、左右の後輪602が、同じ方向で異なる回転速度になるよう制御する。また、その場旋回する場合は、左右の後輪602が反対方向に回転するように制御する。
Furthermore, each of the
例えば、搭乗者が前傾姿勢になると、搭乗席8にピッチ軸周りの力が加わる。すると、力センサ9が+Myのモーメントを検出する(図7参照)。この+Myのモーメントによって、センサ処理部53は、移動体1を並進させるための入力モーメント値My'を算出する。同様に、センサ処理部53は、Mxに基づいて入力モーメント値Mx'を算出し、Mzに基づいて、入力モーメント値Mz'を算出する。これにより、トルクτiが求められる。
For example, when the occupant assumes a forward leaning posture, a force around the pitch axis is applied to the
制御計算部51が、入力モーメント値とエンコーダの読み値に基づいて、指令値を算出する。これにより、左右の後輪602が所望の回転速度で回転する。同様に、右方向に曲がる場合は、搭乗者が右側に体重移動する。これにより、搭乗席にロール軸周りの力が加わり、力センサ9が+Mxのモーメントを検出する。この+Mxのモーメントによって、センサ処理部53は、移動体1を右方向に旋回させるための入力モーメント値Mx'を算出する。すなわち、移動体1が移動する方向に対応する舵角が求められる。そして、入力モーメント値に応じて、制御計算部51が指令値を算出する。この指令値に応じて、左右の後輪602が異なる回転速度で回転する。すなわち、左側の後輪602が右側の後輪602よりも速い回転速度で回転する。
The
My'に基づいて、前後方向の並進移動に対する成分が求められる。すなわち、左右の後輪602を同じ方向に同じ回転速度で駆動するための駆動トルクなどが決定する。従って、My'、すなわち、Myが大きいほど、移動体1の移動速度が速くなる。Mx'に基づいて、移動方向、すなわち、舵角に対する成分が求められる。すなわち、左右の後輪602の回転トルク差が決定される。従って、Mx'、すなわち、Mxが大きいほど、左右の後輪602の回転速度の違いが大きくなる。
Based on My ′, a component for translational movement in the front-rear direction is obtained. That is, the driving torque for driving the left and right
Mz'に基づいて、その場旋回に対する成分が求められる。すなわち、左右の後輪602を反対方向に回転させて、その場旋回するための成分が求められる。従って、Mz'、すなわち、Mzが大きいほど、左右の後輪602における反対方向の回転速度が大きくなる。例えば、Mz'が正の場合、上側から見て、左周りにその場旋回する駆動トルクなどが算出される。すなわち、右側の後輪602が前方に回転し、左側の後輪602が同じ回転速度で後方に回転することとなる。
Based on Mz ′, a component for in-situ turning is determined. That is, a component for turning on the spot by rotating the left and right
そして、それぞれの入力モーメント値Mx'、My'、Mz'に基づいて算出された3つの成分を合成して、2つの後輪602を駆動するための指令値を算出する。これにより、左右の後輪602に対する指令値がそれぞれ算出される。駆動トルクや回転速度などが指令値として算出される。すなわち、入力モーメント値Mx'、My'、Mz'に対応する成分毎に算出された値を合成することで左右の後輪602に対する指令値が算出される。このように、計測されたモーメントMx、My、Mzに基づいて算出された入力モーメント値Mx'、My'、Mz'によって、移動体1が移動する。すなわち、搭乗者の体重移動によるモーメントMx、My、Mzによって、移動体1の移動方向、及び移動速度が決定する。
Then, the three components calculated based on the respective input moment values Mx ′, My ′, and Mz ′ are combined to calculate a command value for driving the two
このように、搭乗者の動作によって、移動体1を移動させるための入力が行われる。すなわち、搭乗者の姿勢変化によって、各軸周りのモーメントが検出される。そして、これらのモーメントの計測値に基づいて、移動体1が移動する。これにより、搭乗者が、移動体1を簡便に操作することができる。すなわち、ジョイスティックやハンドルなどの操作が不要となり、体重移動のみでの操作が可能となる。例えば、右斜め前方に移動したい場合は、体重を右前方にかける。また、左斜め後方に移動したい場合は、体重を左後方にかける。これにより、搭乗者の重心位置が変化して、その変化量に応じた入力が行われる。すなわち、搭乗者の重心移動に応じたモーメントを検出することで、直感的に操作することができる。
Thus, the input for moving the
なお、センサ処理部53及び画像処理部54などの各処理部は、制御計算部51と同様に、CPUやRAMなどから構成されている。そして、所定のプログラムにしたがって、演算処理を行う。もちろん、各処理部や制御計算部51は、物理的に同じ構成であってもよい。すなわち、1つの演算処理回路において、処理や演算を行ってもよい。
In addition, each processing unit such as the
移動体1には、搭乗席8を駆動するための駆動部5が設けられている。この駆動部5に対する制御について説明する。駆動部5は、ヨー軸機構501とピッチ軸機構502とロール軸機構503を有している。ヨー軸機構501とピッチ軸機構502とロール軸機構503は、回転関節であり、これらが動作することで、搭乗席8の姿勢が変化する。ヨー軸機構501は、搭乗席8をヨー軸周りに回転させる。ピッチ軸機構502は搭乗席8をピッチ軸周りに回転させる。ロール軸機構503は、搭乗席8をロール軸周りに回転させる。これにより、車台13に対する座面8aの角度が変化する。すなわち、車台13に対して座面8aが傾くようになる。したがって、駆動部5が搭乗席8を駆動する駆動部として、ヨー軸機構501とピッチ軸機構502とロール軸機構503はそれぞれ、関節駆動用のモータや減速器を有している。そして、その関節モータの回転角を検出するためのエンコーダ501a、502a、503aがそれぞれ設けられている。
The moving
制御計算部51は、上記のように、センサ処理部53からのトルクに応じて、制御計算を行う。また、制御計算部51は、カメラ7の画像信号に基づいて画像処理部54によって取得された位置情報に基づいてマップより走行面情報を取得する。そして、制御計算部51は、センサ処理部53からのトルク及び走行面情報に基づいて、座面制御を行う。具体的に、制御計算部51は、ヨー軸機構501、ピッチ軸機構502、及びロール軸機構503の関節を駆動するための指令値を生成する。すなわち、制御計算部51は、トルクや走行面情報に基づいて、各軸機構の目標関節角度を算出する。例えば、走行面における段差や坂道等の傾斜に関する情報に基づいて、段差や坂道等の傾斜があっても、座面が基本的に平坦な面と水平になるよう、各軸機構の目標関節角度を算出する。そして、制御計算部51は、目標関節角度に応じた指令値を算出して、各モータに出力する。これにより、ヨー軸機構501、ピッチ軸機構502、及びロール軸機構503の各関節が目標関節角度になる。すなわち、目標関節角度に追従するように、各軸機構が駆動する。よって、移動体1の姿勢が変化して、搭乗席8の座面8aを所望の角度にすることができる。
As described above, the
このように、力センサ9に対する入力に応じて座面8aの傾斜角度が変化する。これにより、搭乗者が入力値を直感的に把握することができる。よって、操作性を向上することができる。さらに、本実施の形態1では、走行面情報に応じて、座面8aの傾斜角度が変化する。これにより、走行面の状態に応じた座面制御を行うことが可能となる。
Thus, the inclination angle of the
次に、移動体1の姿勢を変化させるための構成について、図9を用いて説明する。図9は、姿勢を変化させるための機構の構成を示す図であり、車台13の内部構成を示している。図9に示すように、車台13には、姿勢を制御するためのフレーム部2が設けられている。フレーム部2は、筐体11内に配設される。フレーム部2は、第1の平行リンク機構201と第2の平行リンク機構202とが、交差部分で相互の回転を拘束しないように、平面視T字状に連結されている。
Next, the structure for changing the attitude | position of the
第1の平行リンク機構201は、前後方向に配置されている。この第1の平行リンク機構201は、四本の横リンク201a、前後の縦リンク201bを備えている。横リンク201aは、全て等しい長さとされている。横リンク201aの両端には、図示を省略したが、縦リンク201bとの連結軸を嵌め込む嵌合穴が形成されている。二本の横リンク201aは上下に配置されており、当該二本の横リンク201aを一組として、縦リンク201bを挟み込むように、当該縦リンク201bの左右両側に配置されている。
The first
縦リンク201bの左右両側部からは、図示を省略したが、それぞれ上下方向に等しい間隔を開けて相対峙する配置で、横リンク201aとの連結軸が左右方向に突出している。この連結軸は、横リンク201aと縦リンク201bとの回転軸として、横リンク201aの嵌合穴に軸受け等を介して嵌め込まれている。
Although not shown from the left and right side portions of the
本実施形態の前側の縦リンク201bはL字形状に形成されている。縦リンク201bの垂直片の上下端部に、横リンク201aが連結軸を介して回転可能に連結されている。縦リンク201bの水平片の先端に、車輪6として自在式のキャスターが設けられている。移動体1の移動方向が変化すると、その変化に応じてキャスターの方向が回転する。後側の縦リンク201bは、下側の横リンク201aより下方に突出する突出部を備えている。この突出部の前後両側部からは、図示を省略したが、それぞれ相対峙する配置で第2の平行リンク機構202との連結軸が前後方向に突出している。さらに後側の縦リンク201bの前後両側部における上下の横リンク201aの間の部分からも、図示を省略したが、それぞれ相対峙する配置で第2の平行リンク機構202との連結軸が前後方向に突出している。
The
第2の平行リンク機構202は、左右方向に配置されている。この第2の平行リンク機構202は、四本の横リンク202a、左右の縦リンク202bを備えている。横リンク202aは、全て等しい長さとされている。横リンク202aの両端には、図示を省略したが、縦リンク202bとの連結軸を嵌め込む嵌合穴が形成されている。さらに横リンク202aの長手方向の略中央位置には、図示を省略したが、第1の平行リンク機構201との連結軸を嵌め込む嵌合穴が形成されている。二本の横リンク202aは上下に配置されており、当該二本の横リンク202aを一組として、縦リンク202b及び第1の平行リンク機構201の後側の縦リンク201bを挟み込むように、当該縦リンク202b及び第1の平行リンク機構201の後側の縦リンク201bの前後両側に配置されている。第1の平行リンク機構201の後側の縦リンク201bから突出する連結軸は、第1の平行リンク機構201と第2の平行リンク機構202との回転軸として、横リンク202aの略中央位置の嵌合穴に軸受け等を介して嵌め込まれている。
The second
縦リンク202bの前後両側部からは、図示を省略したが、それぞれ上下方向に等しい間隔を開けて相対峙する配置で、横リンク202aとの連結軸が前後方向に突出している。この連結軸は、横リンク202aと縦リンク202bとの回転軸として、横リンク202aの端部の嵌合穴に軸受け等を介して嵌め込まれている。
Although not shown from the front and rear side portions of the
その結果、第1の平行リンク機構201は、第2の平行リンク機構202に拘束されることなく、前後方向に回転可能な構成となる。一方、第2の平行リンク機構202は、第1の平行リンク機構201に拘束されることなく、左右方向に回転可能な構成となる。
As a result, the first
搭乗部3は、フレーム部2の回転に連動する。具体的にいうと、搭乗部3は、第1の平行リンク機構201の上下の横リンク201aに支持軸301を介して連結されている。この支持軸301の上部及び下部の左右両側部からは、図示を省略したが、第1の平行リンク機構201の上下の横リンク201aとの連結軸が左右方向に突出している。第1の平行リンク機構201の横リンク201aにおける長手方向の略中央位置には、図示を省略したが、支持軸301から突出する連結軸を嵌め込む嵌合穴が形成されている。支持軸301は、縦リンク201bを挟み込むように、当該縦リンク201bの左右に配置された横リンク201aの間に挿入されている。支持軸301から突出する連結軸は、第1の平行リンク機構201の嵌合穴に軸受け等を介して嵌め込まれている。その結果、第1の平行リンク機構201が前後方向に回転すると、支持軸301と縦リンク201bとは平行状態を維持した状態で連動する。
The
駆動部5が駆動することで、フレーム部2が動作する。これにより、移動体1の姿勢が変化する。車台13が傾くことで、搭乗部3の角度が変化する。なお、駆動部5には、ヨー軸周りに回転するヨー軸機構501と、ピッチ軸周りに回転するピッチ軸機構502と、ロール軸周りに回転するロール軸機構503が設けられている。ヨー軸機構501が3つの機構の中で、最も搭乗部3側に設けられている。なお、ヨー軸機構501は、搭乗部3をヨー軸周りに旋回させる旋回関節であり、ピッチ軸機構502及びロール軸機構503は搭乗部3を軸周りに回転させる回転関節である。
When the driving
次に、移動体1の制御方法について図10を用いて説明する。図10は、移動体1の制御方法を示すフローチャートである。図10は、移動体1の制御における1サイクルを示している。このフローチャートにしたがって、移動体1の移動制御と、姿勢制御(座面制御)が行われる。すなわち、図10には、後輪602の駆動と、駆動部5の駆動の制御方法が示されている。
Next, a method for controlling the moving
まず、ヨー軸機構501、ピッチ軸機構502、ロール軸機構503の関節角を検出する(ステップS101)。すなわち、各軸機構に設けられているエンコーダ501a、502a、503aによって、それぞれの関節の角度を検出する。移動体1は、この関節角度に応じた姿勢となっている。次に、力センサ9によって、モーメントの値を検出する(ステップS102)。すなわち、モーメント(Mx,My、Mz)を測定する。そして、力センサ9のオフセット修正を行う(ステップS103)。すなわち、搭乗者が座っている位置がずれている場合に、その位置に対してオフセットを与える。入力されるモーメントに対して、搭乗位置の位置ずれを補正するように、制御目標原点にオフセットを与える。これにより、位置ずれを補正したモーメント(Mx',My'、Mz')を算出することができる。なお、ステップS101とステップS102の順番は反対でもよく、ステップS101とステップS102を並行して行ってもよい。
First, the joint angles of the
座面の平衡位置姿勢φIDを入力する(ステップS104)。上述のように、移動体1が平坦な床を移動している時に、座面8aが水平になる位置が平衡位置姿勢となっている。本実施の形態1では、特に、走行面情報に含まれる段差や坂道等の傾斜情報に基づいて、平衡位置姿勢が決定される。この時のヨー軸機構501、ピッチ軸機構502、ロール軸機構503の関節角度が平衡位置姿勢に対応する。したがって、本実施の形態では、平衡位置姿勢が一定になっている。すなわち、移動状況によらず、各軸の関節角度が一定になるような平衡位置姿勢が選ばれている。
The equilibrium position and orientation φID of the seating surface is input (step S104). As described above, when the moving
次に、コンプライアンス補償を行う(ステップS105)。ここでのコンプライアンス制御によって、ヨー軸機構501、ピッチ軸機構502、ロール軸機構503の目標関節角度が決定する。コンプライアンス制御とは、バネ特性、ダンピング特性を擬似的に備えている振る舞いをする制御である。ヨー軸機構501、ピッチ軸機構502、ロール軸機構503の動作によってバネ特性、ダンピング特性が示される。このコンプライアンス制御を導入することで、搭乗者の力に応じて、座面8aを傾けることが可能になる。ここでは、ヨー軸機構501、ピッチ軸機構502、ロール軸機構503の関節角度、力センサ9のモーメント、座面8aの平衡位置姿勢を用いて、コンプライアンス制御が行われる。これにより、ヨー軸機構501、ピッチ軸機構502、ロール軸機構503の目標関節角度が算出される。このステップの詳細については、後述する。
Next, compliance compensation is performed (step S105). The target joint angles of the
そして、座面8aを制御する(ステップS106)。すなわち、ヨー軸機構501、ピッチ軸機構502、ロール軸機構503がそれぞれ目標関節角度になるように、各軸に設けられているモータを駆動する。これにより、座面8aの傾きが変化して、現在目標位置姿勢となる。ここでは、力センサ9の出力に応じて、座面8aの傾きが変化している。すなわち、座面8aに対する力に応じて、搭乗者が座面8aから力を受ける。よって、搭乗者19が力センサ9への入力を直感的に把握することができる。これにより、操作性が向上し、搭乗者19の意図通りに移動することができる。
Then, the
次に動作モードの切替判断を行う(ステップS107)。すなわち、走行面情報に基づいて障害物があるかどうかを判定し、さらに、この判定結果に応じて、移動体1の動作モードを切替えるか否かを判定する。まず、画像処理部54は、カメラ7によって撮影された画像信号より位置情報を取得する。さらに制御計算部51は、位置情報に基づいて自己位置を推定する。そして、制御計算部51は、マップに基づいて推定自己位置の近傍に障害物があるかどうかを判定する。その後、制御計算部51は、障害物があると判定した場合には、障害物がある場合の動作モードである障害物モードに切り替える。障害物がないと判定した場合には、障害物がない場合の通常モードにする。障害物モードの場合、後述するステップS111において制御計算部51が駆動モータ603を駆動するための指令値を算出するときのゲインを変更する。ここでは、ゲインを移動体モードの場合よりも、小さくする。そして、変更したゲインを適用して、駆動モータ603を駆動する。通常モードの場合には、ゲインを変更せずに、駆動モータ603を駆動する。
Next, the operation mode switching determination is performed (step S107). That is, it is determined whether there is an obstacle based on the traveling surface information, and further, it is determined whether or not the operation mode of the moving
次に、車輪回転角、速度、トルクを検出する(ステップS108)。すなわち、エンコーダ603aの出力に基づいて、左右の後輪602の動作状態を検知する。そして、ピッチ軸周りの目標関節角度から、移動体1の前後進速度を算出する(ステップS109)。このとき、ステップS105で求めた現在目標位置姿勢φiに基づいて、前後進速度を算出している。すなわち、制御計算部51は、ピッチ軸機構502の目標関節角度に基づいて前後進速度を算出している。よって、目標となる前後進速度は、力センサ9のモーメントと、座面の平衡位置姿勢と、各関節角度によって、決まる。
Next, the wheel rotation angle, speed, and torque are detected (step S108). That is, the operating state of the left and right
さらに、ロール軸、ヨー軸の関節角度から移動体1の旋回速度を算出する(ステップS110)。制御計算部51は、ステップS105で求めた現在目標位置姿勢φiに基づいて旋回速度を算出している。すなわち、制御計算部51は、ヨー軸機構501、ロール軸機構503の目標関節角度に基づいて前後進速度を算出している。よって、目標となる前後進速度は、力センサ9のモーメントと、座面の平衡位置と、各関節角度によって、決まる。
Further, the turning speed of the moving
そして、前後進速度と、旋回速度とを合成して、左右の後輪602の回転トルクを算出する(ステップS111)。すなわち、後輪602を回転させるための回転トルクを、計算する。左右の後輪602のトルクが指令値となって、駆動モータ603に出力される。ここでは、ステップS108で検出された後輪602の回転角と目標速度とを用いてフィードバック制御を行う。制御計算部51が駆動モータ603を駆動するための指令値を出力する。これにより、ステップS109で算出された前後進速度、かつステップS110で算出された旋回速度に近い速度で移動体1が移動する。したがって、力センサ9による入力に応じて、移動体1が搭乗者の意図通りに移動する
Then, the forward / reverse speed and the turning speed are combined to calculate the rotational torque of the left and right rear wheels 602 (step S111). That is, the rotational torque for rotating the
ステップS111において、制御計算部51は、搭乗者の体重移動に応じて指令値を算出する。ここで、ステップS107で障害物モードに切替えられた場合には、指令値を算出する際のゲインが変更されている。すなわち、ゲインを移動体モードの場合よりも、小さな値に変更されている。これにより、搭乗者の体重移動に対して、駆動モータ603への指令値を抑えることができ、移動体1の位置をゆっくりと移動させることができる。これにより、搭乗者にとっては、障害物の回避動作を行う時間的な余裕ができる。さらに、ゲインを0に変更した場合には、駆動モータ603の制御を行わないことになり、移動体1の位置を移動させないようにすることもできる。すなわち、移動体1の位置をその場に固定し、搭乗者の体重移動に応じて座面のみを動作させることもできる。
In step S111, the
次に、ステップS105のコンプライアンス補償について、図11を用いて説明する。図11は、コンプライアンス制御の詳細を示すフローチャートである。まず、搭乗者が体重移動する(ステップS201)。すなわち、移動体1を移動させるため、体重移動によって入力を行う。これにより、力センサ9にかかる力が変化する。座面8aにかかる3軸周りのトルクτiを力センサ9で感知する(ステップS201)。このトルクτiは、入力モーメントから算出することができる。ヨー軸周りのトルクτθz(=Mz')、ピッチ軸周りのトルクτθy(=My')、ロール軸周りのトルクτθx(=Mx')がそれぞれ算出される。このように、τiは、トルクであり、ロール、ピッチ、ヨーに対する成分を含んでいる。すなわち、τiは、τθx、τθy、τθzの3成分を含んでいる。
Next, the compliance compensation in step S105 will be described with reference to FIG. FIG. 11 is a flowchart showing details of the compliance control. First, the passenger moves weight (step S201). That is, in order to move the
また、ステップS201、S202と並行して、座面の平衡位置姿勢φIDを入力する(ステップS203)。この平衡位置姿勢φIDはヨー軸機構501、ピッチ軸機構502、ロール軸機構503の基準となる基準位置を示すものとなる。すなわち、各軸機構の基準となる関節角度が制御計算部51に入力される。本実施の形態では、座面の平衡位置姿勢φIDの値は、カメラ7による撮影等により取得された位置情報に応じてマップより取得された走行面情報に基づき決定される。制御計算部51のメモリ等に、平衡位置姿勢φIDに対して関節角度が記憶されている。そして、この関節角度を読み出すことによって、平衡位置姿勢φIDが入力される。移動体1が平坦な床を移動している時に、座面8aが水平になる位置が平衡位置となっている。したがって、各軸機構における一定の関節角度が平衡位置姿勢φIDを示すことになる。平衡位置姿勢φIDは各軸周りに対して決められている。平衡位置姿勢φIDは、ロール軸周り平衡位置姿勢φθxd、ピッチ軸周りの平衡位置姿勢φθyd、ヨー軸周りの平衡位置姿勢φθzdの3成分から構成されている。これらは、各軸機構の基準となる関節角度に対応している。
In parallel with steps S201 and S202, an equilibrium position and orientation φID of the seating surface is input (step S203). This equilibrium position / orientation φID indicates a reference position serving as a reference for the
次に、トルクτiと平衡位置姿勢φIDから座面の現在目標位置姿勢φiを求める(ステップS204)。ここでは、図11のフローチャート上のステップS204に記載されている数式に基づいて、制御計算部51が搭乗部3の現在目標位置姿勢φiを算出している。すなわち、ステップS204に記載されている方程式を解くことで、現在目標位置姿勢φiを算出することができる。現在目標位置姿勢φiは、例えば、ヨー軸機構501の目標関節角度、ピッチ軸機構502の目標関節角度、ロール軸機構503における目標関節角度から構成されている。したがって、現在目標位置姿勢φiはφθx、φθy、φθzの3成分から構成されている。各軸機構における目標関節角度が、トルクτiと平衡位置姿勢φIDに基づいて算出される。
Next, the current target position / posture φi of the seating surface is obtained from the torque τi and the equilibrium position / posture φID (step S204). Here, the
ステップS204の方程式において、Miは慣性行列、Diは粘性係数行列、Kiは剛性行列であり、これらは、3×3の行列である。慣性行列、粘性係数行列、剛性行列は、移動体1の構成、動作に応じて設定することができる。また、φi、φIDの上に付されている・(ドット)は、時間微分を示している。ドットが1個付されている場合は、1回微分を、2個付されている場合は、2回微分を示している。例えば、φiの上に1個のドットが付されていると、目標姿勢速度となり、2個のドットが付されていると、目標姿勢加速度となる。同様に、φIDの上に1個のドットが付されていると、平衡位置姿勢速度となり、2個のドットが付されていると、平衡位置姿勢加速度となる。本実施形態では、平衡位置姿勢φIDが固定されているため、平衡位置姿勢速度、平衡位置姿勢加速度は、基本的に0となる。
In the equation of step S204, Mi is an inertia matrix, Di is a viscosity coefficient matrix, Ki is a stiffness matrix, and these are 3 × 3 matrices. The inertia matrix, the viscosity coefficient matrix, and the stiffness matrix can be set according to the configuration and operation of the moving
次に、モードに応じてゲインを変更する(ステップS205)。障害物モードである場合には、ゲインをより小さなものに変更する。通常モードである場合には、ゲインを変更しない。 Next, the gain is changed according to the mode (step S205). In the case of the obstacle mode, the gain is changed to a smaller one. In the normal mode, the gain is not changed.
そして、現在目標位置姿勢φiに基づいて移動制御を行う(ステップS206)。さらに、移動制御と並行して、座面の傾き制御を行う(ステップS207)。移動制御では、ステップS109、及びステップS110に示したように、現在目標位置姿勢φiに基づいて前後進速度、及び旋回速度を算出する。すなわち、現在目標位置姿勢φθyに応じて、移動体1の前後進速度が決まる。φθyの値が大きいほど、前後進速度が大きくなる。また、現在目標位置姿勢φθx、φθzに応じて移動体1の旋回速度が決まる。φθx、φθzの値が大きいほど、旋回速度が大きくなる。そして、前後進速度、及び旋回速度から、左右の後輪602の回転トルクを算出する。ここでは、前後進速度と旋回速度を合成して、左右の後輪602に対する目標回転速度を算出する。そして、現在の回転速度と目標回転速度との差分から、回転トルクを算出するためのフィードバック制御を行っている。制御計算部51は、この回転トルクを指令値として、駆動モータ603に出力する。このようにして、移動制御が行われる。
Then, movement control is performed based on the current target position and orientation φi (step S206). Further, in parallel with the movement control, tilt control of the seating surface is performed (step S207). In the movement control, as shown in step S109 and step S110, the forward / reverse speed and the turning speed are calculated based on the current target position / posture φi. That is, the forward / reverse speed of the moving
座面8aの傾き制御も現在目標位置姿勢φiに基づいて行われる。すなわち、現在目標位置姿勢φiを入力として、各軸機構に対する指令値を算出する。現在目標位置姿勢φiに基づいて、各軸機構の指令値が算出される。そして、この指令値に応じて、ヨー軸機構501、ピッチ軸機構502、ロール軸機構503が駆動する。よって、ヨー軸機構501の目標関節角度、ピッチ軸機構502の目標関節角度、ロール軸機構503における目標関節角度になるように座面8aの傾きが変化する。このように、各軸機構が目標関節角度に追従するように駆動する。これにより、搭乗部3の姿勢が変化して、座面8aの傾きが変化する。よって、搭乗者が座面8aから力を受ける。そして、座面8aが現在目標位置姿勢φiになる。
The inclination control of the
このように、現在目標位置姿勢φiを利用して、移動制御と、座面8aの傾き制御が行われている。すなわち、各モータに対する指令値が現在目標位置姿勢φiに基づいて算出されている。制御計算部51は、搭乗席を駆動する駆動部5の駆動量と、座面8aの平衡位置姿勢と、力センサ9からの計測信号とに基づいて、後輪602、及び駆動部5を駆動するための指令値を算出する。
Thus, the movement control and the tilt control of the
このように、車台13に搭乗席8を固定する方法が、剛体結合ではなく、入力に対してある程度変形、変位する構造となっている。よって、バネのような柔らかい動きをさせる制御をすることができる。すなわち、自動車で表すならサスペンションとして、駆動部5が機能する。そして、力センサ9での検出結果に基づいて、駆動部5を制御する。
Thus, the method of fixing the
これにより、操作性を向上することができる。すなわち、各軸周りの機構が駆動することで、どのくらいの操作量で操作しているかを直感的に把握することができる。実際の操作量と意図する操作量の違いを認識することができる。よって、意図する操作量に対する実際の操作量のずれを抑制することができる。また、搭乗者が遠心力を受けている場合でも、意図する移動を行うための操作が可能となる。すなわち、必要以上にスピードが出たり、必要以上にスピードが低下したりするのを防ぐことができる。これにより、操作性の高い移動体1を実現することができる。
Thereby, operability can be improved. That is, by driving the mechanism around each axis, it is possible to intuitively understand how much operation is being performed. The difference between the actual operation amount and the intended operation amount can be recognized. Therefore, the shift of the actual operation amount with respect to the intended operation amount can be suppressed. Further, even when the occupant is receiving centrifugal force, an operation for performing the intended movement is possible. That is, it is possible to prevent the speed from being increased more than necessary or the speed from being decreased more than necessary. Thereby, the
ここで、カメラ7からの画像信号の基づく、座面制御やゲイン制御について、図12に示すフローチャートを用いて説明する。
Here, the seating surface control and gain control based on the image signal from the
まず、移動体1は、走行中にカメラ7によって床面検出を実行する(ステップS301)。具体的には、移動体1は、カメラ7により、模様が描かれた床面2を撮影する。撮影により得られた撮像信号は、画像処理部54に入力される。画像処理部64は、入力された画像信号に対して所定の処理を実行し、位置情報を取得し、制御計算部51に出力する。制御計算部51は、位置情報に基づいて自己位置を推定する。さらに制御計算部51は、マップから、推定自己位置の走行面情報を取得する。
First, the moving
制御計算部51は、走行面情報から走行面に段差や坂道等の傾斜があるかどうかを判定する(ステップS302)。制御計算部51は、傾斜があると判定した場合には、上述の座面制御を実行する(ステップS304)。かかる座面制御により、傾斜に応じて、動的に座面の水平を保つことができる。
The
制御計算部51は、段差や傾斜がないと判定した場合には、さらに走行面情報から移動体1の近傍に壁等の障害物があるかどうかを判定する(ステップS303)。制御計算部51は、障害物があると判定した場合には、上述の障害物モードに切り替えてゲイン調整を実行する(S305)。
When it is determined that there is no step or inclination, the
制御計算部51は、ステップS303において障害物がないと判定した場合や、座面制御(ステップS304)・ゲイン調整(ステップS305)を実行した場合には、走行制御を行う(ステップS306)。
When it is determined in step S303 that there is no obstacle or when the seat control (step S304) / gain adjustment (step S305) is executed, the
以上、説明したように、本実施の形態1にかかる移動体1は、床面2に設けられた模様を画像認識して位置情報を抽出し、そして自己位置を推定して、これに応じた走行面情報をマップより取得することによって、走行面の状態、特に移動体1が移動する先の走行面の状態に対応した走行制御や座面制御を実行することができる。従って、約50万円のレーザセンサーや約80万円の姿勢角センサーを用いることなく、数千円のUSBカメラ及び数万円の床模様加工によって床面検出することができるので、極めて安価に、走行面の状態に対応した走行制御や座面制御を実行することができる。特に、人間が運転する移動体においては、このようなシステムを搭載することにより、運転の補助も行うことができる。
As described above, the moving
発明の実施の形態2.
発明の実施の形態1では、床面に描かれた模様を検出できることを前提としている。しかしながら、床面に模様がない領域に移動体が進んでしまった場合や、床面が汚れている場合等のように、床面検出ができない場合がある。本実施の形態2にかかる移動体は、このように床面検出ができない場合には、オドメトリを利用して自己位置の推定を行う。オドメトリは、左右の車輪の回転速度から、移動体の併進速度と、移動体の角速度を求めて、これを積分して移動体の位置と姿勢を求める手法である。
In the first embodiment of the invention, it is assumed that a pattern drawn on the floor surface can be detected. However, there are cases where the floor surface cannot be detected, such as when the moving body has advanced to an area where there is no pattern on the floor surface, or when the floor surface is dirty. When the mobile object according to the second embodiment cannot detect the floor as described above, it estimates its own position using odometry. Odometry is a technique for obtaining the translation speed of the moving body and the angular speed of the moving body from the rotational speeds of the left and right wheels, and integrating these to obtain the position and orientation of the moving body.
本実施の形態2にかかる移動体の制御方法について、図13のフローチャートを用いて説明する。まず、カメラ位置の座標変換処理を実行する(ステップS401)。これは、ロール軸、ピッチ軸、ヨー軸の変動に伴って、カメラの取り付け座標が変動してしまうため、制御上、カメラが同じ位置にあるようにするため、座標変換を行うことにしている。具体的には、制御計算部51において当該座標変換処理を行う。なお、このような座標変換を行わないですむように、カメラ7が動的に鉛直方向を向くように駆動制御してもよく、また、カメラを筐体11に設けられた軸に回動自在に吊り下げることにより鉛直方向に向くようにしてもよい。
A moving body control method according to the second embodiment will be described with reference to the flowchart of FIG. First, camera position coordinate conversion processing is executed (step S401). This is because the camera mounting coordinates change as the roll axis, pitch axis, and yaw axis change, so that coordinate conversion is performed in order to keep the camera in the same position for control purposes. . Specifically, the
次に、制御計算部51は、床面検出ができたかどうかを判定する(ステップS402)。制御計算部51は、床面検出できたと判定した場合には、発明の実施の形態1にかかる移動体と同様に、自己位置推定を行う(S404)。
Next, the
他方、制御計算部51は、床面検出できなかったと判定した場合には、オドメトリによる自己位置推定を行う(ステップS403)。自己位置推定(ステップS403、ステップS404)の後、走行制御を実行する(ステップS405)。
On the other hand, when it is determined that the floor surface cannot be detected, the
このように、本実施の形態によれば、床面検出ができない場合にもオドメトリにより自己位置推定を行うので、床面に模様がない領域に移動体が進んだ場合や、床面が汚れている場合にも、安定した移動制御を行うことができる。 As described above, according to the present embodiment, even when the floor surface cannot be detected, self-position estimation is performed by odometry. Therefore, when the moving body moves to an area where there is no pattern on the floor surface, or when the floor surface is dirty. Even in such a case, stable movement control can be performed.
発明の実施の形態3.
発明の実施の形態1、2では、カメラを移動体1に設けていたが、発明の実施の形態3にかかる移動体制御システムでは、さらに、カメラを移動体1以外のユーザに持たせている。
In the first and second embodiments of the invention, the camera is provided on the moving
図14は、当該移動体制御システムを説明するための説明図である。図に示されるように、カメラ付きの通信装置70をユーザ60が保持し、操作している。図15は、当該移動体制御システムの構成を示す構成図である。
FIG. 14 is an explanatory diagram for explaining the moving body control system. As shown in the figure, a
図15に示されるように、通信装置70は、カメラ701、バッテリ702、画像処理部703、通信処理部704、アンテナ705を備えている。カメラ701は、床面2の模様を撮影する、例えば、USBカメラである。バッテリ702は、、カメラ701、バッテリ702、画像処理部703、通信処理部704等に対して電力を供給する。画像処理部703は、カメラ701によって撮影され、取得された画像信号を入力し、所定の処理を行い、位置情報を取得する。通信処理部704は、画像処理部703によって取得された位置情報を含む通信信号を、アンテナ705を介して移動体1に対して送信するための通信処理を行う。通信装置70は、本システムの専用機でなくとも、カメラ付き携帯電話によっても実現できる。
As illustrated in FIG. 15, the
移動体1は、発明の実施の形態1の移動体の構成に加えて、さらに、通信処理部55と、アンテナ56を備えている。通信処理部55は、アンテナ56を介して通信装置70から送信された通信信号を受信し、この通信信号に含まれる位置情報を制御計算部51に出力する。制御計算部51は、この位置情報を取得して、通信装置70の位置を認識して、通信装置70の位置に移動するように、移動体1を走行制御する。なお、複数の通信装置70によって移動体1の移動を制御する場合や、複数の移動体1が存在する中で、任意の移動体1の移動を制御する場合には、通信装置70から送信する通信信号中に、送信元の通信装置70を識別する識別情報や制御先の移動体1を識別する識別情報を含めるとよい。このとき、移動体1は、識別情報に基づいて識別した通信装置70に対して移動を行う。また、移動体1は、自身を識別する識別情報を含む通信信号を受信した場合には、このような移動制御を実行するが、自身を識別する識別情報を含まない通信信号を受信した場合には、このような移動制御は実行しない。
The
以上説明したように、本実施の形態3にかかる移動体制御システムにおいては、移動体とは離れた位置を、当該移動体に対して認識させることができ、例えば、このような認識位置に移動させるといった移動体制御を行うことができる。 As described above, in the mobile body control system according to the third embodiment, a position away from the mobile body can be recognized by the mobile body. For example, the mobile body control system moves to such a recognition position. It is possible to control the moving body.
その他の実施の形態.
上述した実施の形態では、床面に模様が設けられていたが、これに限らず、壁面や天井面に模様が設けられていてもよく、これらの場合には、壁面や天井面を撮影可能な位置や方向にカメラが設置される。
Other embodiments.
In the above-described embodiment, the pattern is provided on the floor surface. However, the present invention is not limited to this, and the pattern may be provided on the wall surface or ceiling surface. In these cases, the wall surface or ceiling surface can be photographed. Cameras are installed in various positions and directions.
上述した実施の形態では、障害物モードの場合に、ゲインを変更するものとして説明したが、ゲインの変更方法としてはさまざま変更方法が考えられる。例えば、移動体1にゲインの大きさを調整する調整器を更に設けて、搭乗者1による調整器の操作量に応じて、ゲインの大きさを変更するようにしてもよい。これにより、搭乗者の体重移動に対して、駆動モータ603の応答性を変化させることで、例えば、障害物モードの場合には、移動体1の位置をゆっくりと移動させることができる。また、調整器の操作量に応じて、障害物モードと通常モードとの間を切替えるようにしてもよい。これにより、搭乗者の利用状況に応じて、より柔軟に移動体の制御モードを切替えることができ、高い操作性を実現することができる。
In the above-described embodiment, it has been described that the gain is changed in the obstacle mode, but various changing methods are conceivable as a method of changing the gain. For example, an adjuster that adjusts the magnitude of the gain may be further provided in the moving
また、本発明は、車輪型の移動体1に限らず、歩行型の移動体においても適用可能である。すなわち、車台13などの本体部を床面に対して移動させる移動機構が設けられているものであればよい。
The present invention is not limited to the wheel-
1 移動体、 2 フレーム部、 3 搭乗部、 5 駆動部、
501 ヨー軸機構、 501a エンコーダ、
502 ピッチ軸機構、 502a エンコーダ、
503 ロール軸機構、 503a エンコーダ、
603 駆動モータ、 603a エンコーダ、
6 車輪、 601 前輪、 602 後輪、
603 駆動モータ、 603a エンコーダ、
7、71〜74 カメラ
8 搭乗席、 8a 座面、 9 力センサ、 10 フットレスト、
11 筐体、 12 判別部、 13 車台、
20 肘掛部、 21 背もたれ部、 22 スイッチ、
51 制御計算部、 52 バッテリ、 53 センサ処理部、 54 画像処理部、
55 通信処理部、 56 アンテナ、 70 通信装置、
201 第1の平行リンク機構、 201a 横リンク、 201b 縦リンク、
202 第2の平行リンク機構、 202a 横リンク、 202b 縦リンク、
301 支持軸、
701 カメラ、 702 バッテリ、 703 画像処理部、
704 制御計算部、 705 通信処理部705、 706 アンテナ
1 mobile body, 2 frame part, 3 boarding part, 5 drive part,
501 yaw axis mechanism, 501a encoder,
502 pitch axis mechanism, 502a encoder,
503 roll shaft mechanism, 503a encoder,
603 drive motor, 603a encoder,
6 wheels, 601 front wheels, 602 rear wheels,
603 drive motor, 603a encoder,
7, 71-74
11 housing, 12 discriminating part, 13 chassis,
20 armrests, 21 backrests, 22 switches,
51 control calculation unit, 52 battery, 53 sensor processing unit, 54 image processing unit,
55 communication processing unit, 56 antenna, 70 communication device,
201 first parallel link mechanism, 201a horizontal link, 201b vertical link,
202 second parallel link mechanism, 202a horizontal link, 202b vertical link,
301 support shaft,
701 Camera, 702 Battery, 703 Image processing unit,
704 Control calculation unit, 705
Claims (19)
前記カメラによって撮影された画像信号から位置情報を取得する画像処理部と、
移動体を移動させる移動機構と、
前記画像処理部によって取得された位置情報に基づいて自己位置を推定し、推定された自己位置に基づいて、予め位置と関連づけられた走行面情報を取得し、当該走行面情報に基づいて、前記移動体の動作制御を行う制御計算部を備えた移動体。 A camera that captures a pattern including position information;
An image processing unit for acquiring position information from an image signal photographed by the camera;
A moving mechanism for moving the moving body;
Based on the position information acquired by the image processing unit, the self-position is estimated, on the basis of the estimated self-position, the traveling surface information previously associated with the position is acquired, and on the basis of the traveling surface information, the A moving body provided with a control calculation unit for controlling the operation of the moving body.
前記制御計算部は、走行面情報に含まれる走行面の傾斜情報に基づいて、前記駆動部を制御して、座面制御を実行することを特徴とする請求項1記載の移動体。 The mobile body further includes a drive unit that drives and controls the angle of the seat surface on which the passenger is placed,
The mobile body according to claim 1, wherein the control calculation unit controls the driving unit based on inclination information of the traveling surface included in the traveling surface information, and executes seating surface control.
前記模様を撮像するカメラと、
前記カメラによって撮影された模様より位置情報を取得する画像処理部と、
前記画像処理部によって取得された位置情報に基づいて自己位置を推定し、推定された自己位置に基づいて、予め位置と関連づけられた走行面情報を取得し、当該走行面情報に基づいて、前記移動体の動作制御を行う制御計算部を備えた移動体制御システム。 A moving body control system for controlling a moving body by photographing a pattern including position information attached to the surrounding environment of the moving body,
A camera for imaging the pattern;
An image processing unit for acquiring position information from a pattern photographed by the camera;
Based on the position information acquired by the image processing unit, the self-position is estimated, on the basis of the estimated self-position, the traveling surface information previously associated with the position is acquired, and on the basis of the traveling surface information, the A moving body control system including a control calculation unit that performs operation control of a moving body.
前記制御計算部は、走行面情報に含まれる走行面の傾斜情報に基づいて、前記駆動部を制御して、座面制御を実行する請求項7記載の移動体制御システム。 The mobile body further includes a drive unit that drives and controls the angle of the seat surface on which the passenger is placed,
The mobile control system according to claim 7, wherein the control calculation unit performs seating surface control by controlling the driving unit based on inclination information of the traveling surface included in the traveling surface information.
当該通信装置は、前記カメラと、前記画像処理部と、当該画像処理部により取得された位置情報を前記移動体に対して送信する送信手段とを有し、
前記移動体は、前記送信手段より送信された位置情報を受信する受信手段と、前記制御計算部とを有し、
当該移動体の制御計算部は、受信した位置情報に基づいて、前記移動体の動作制御を行うことを特徴とする請求項7〜11いずれかに記載の移動体制御システム。 The mobile body control system includes a communication device and a mobile body,
The communication apparatus includes the camera, the image processing unit, and a transmission unit that transmits position information acquired by the image processing unit to the moving body.
The mobile body includes a receiving unit that receives the position information transmitted from the transmitting unit, and the control calculation unit.
The mobile body control system according to any one of claims 7 to 11, wherein the mobile body control calculation unit performs operation control of the mobile body based on the received position information.
撮像された画像信号から位置情報を取得するステップと、
取得された位置情報に基づいて自己位置を推定するステップと、
推定された自己位置に基づいて、予め位置と関連づけられた走行面情報を取得するステップと、
当該走行面情報に基づいて、前記移動体の動作制御を行うステップを備えた移動体の制御方法。 Imaging a pattern including position information;
Obtaining position information from the imaged image signal;
Estimating the self-position based on the obtained position information;
Obtaining travel surface information previously associated with the position based on the estimated self-position;
A moving body control method comprising a step of performing operation control of the moving body based on the traveling surface information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008290037A JP2010117847A (en) | 2008-11-12 | 2008-11-12 | Moving object, moving object control system, and control method for moving object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008290037A JP2010117847A (en) | 2008-11-12 | 2008-11-12 | Moving object, moving object control system, and control method for moving object |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010117847A true JP2010117847A (en) | 2010-05-27 |
Family
ID=42305497
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008290037A Pending JP2010117847A (en) | 2008-11-12 | 2008-11-12 | Moving object, moving object control system, and control method for moving object |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010117847A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101272604B1 (en) | 2012-04-25 | 2013-06-07 | 주식회사 유진로봇 | Riding robot and operating system comprising the same |
JP2014226266A (en) * | 2013-05-21 | 2014-12-08 | 株式会社東芝 | Vacuum cleaner |
JP2015060336A (en) * | 2013-09-18 | 2015-03-30 | 清水建設株式会社 | Automatic guided vehicle and automatic guided vehicle system using floor position detection method |
KR101525311B1 (en) * | 2013-09-30 | 2015-06-02 | 현대오토에버 주식회사 | Camera Based Auto Transportation Apparatus and Auto Pilot Method therof |
WO2018179960A1 (en) * | 2017-03-27 | 2018-10-04 | 日本電産株式会社 | Mobile body and local position estimation device |
JPWO2019054438A1 (en) * | 2017-09-15 | 2019-11-14 | ヤマハ発動機株式会社 | Default route trace vehicle |
JP2021509215A (en) * | 2018-10-19 | 2021-03-18 | 北京極智嘉科技有限公司 | Navigation methods, devices, devices, and storage media based on ground texture images |
WO2024034025A1 (en) * | 2022-08-09 | 2024-02-15 | 日本電信電話株式会社 | Autonomous movement control device, autonomous movement system, autonomous movement method, and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0670615A (en) * | 1992-08-25 | 1994-03-15 | Kubota Corp | Paddy field working machine |
JP2004016308A (en) * | 2002-06-13 | 2004-01-22 | Japan Science & Technology Corp | Seat surface stabilizing and supporting motor-driven wheelchair |
JP2004098233A (en) * | 2002-09-10 | 2004-04-02 | Matsushita Electric Ind Co Ltd | Autonomous mobile robot |
JP2006107475A (en) * | 2004-09-13 | 2006-04-20 | Matsushita Electric Ind Co Ltd | Mobile robot |
JP2007257226A (en) * | 2006-03-23 | 2007-10-04 | Honda Motor Co Ltd | Self-location detection device and system for traveling object |
-
2008
- 2008-11-12 JP JP2008290037A patent/JP2010117847A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0670615A (en) * | 1992-08-25 | 1994-03-15 | Kubota Corp | Paddy field working machine |
JP2004016308A (en) * | 2002-06-13 | 2004-01-22 | Japan Science & Technology Corp | Seat surface stabilizing and supporting motor-driven wheelchair |
JP2004098233A (en) * | 2002-09-10 | 2004-04-02 | Matsushita Electric Ind Co Ltd | Autonomous mobile robot |
JP2006107475A (en) * | 2004-09-13 | 2006-04-20 | Matsushita Electric Ind Co Ltd | Mobile robot |
JP2007257226A (en) * | 2006-03-23 | 2007-10-04 | Honda Motor Co Ltd | Self-location detection device and system for traveling object |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101272604B1 (en) | 2012-04-25 | 2013-06-07 | 주식회사 유진로봇 | Riding robot and operating system comprising the same |
JP2014226266A (en) * | 2013-05-21 | 2014-12-08 | 株式会社東芝 | Vacuum cleaner |
JP2015060336A (en) * | 2013-09-18 | 2015-03-30 | 清水建設株式会社 | Automatic guided vehicle and automatic guided vehicle system using floor position detection method |
KR101525311B1 (en) * | 2013-09-30 | 2015-06-02 | 현대오토에버 주식회사 | Camera Based Auto Transportation Apparatus and Auto Pilot Method therof |
WO2018179960A1 (en) * | 2017-03-27 | 2018-10-04 | 日本電産株式会社 | Mobile body and local position estimation device |
JPWO2019054438A1 (en) * | 2017-09-15 | 2019-11-14 | ヤマハ発動機株式会社 | Default route trace vehicle |
JP2021509215A (en) * | 2018-10-19 | 2021-03-18 | 北京極智嘉科技有限公司 | Navigation methods, devices, devices, and storage media based on ground texture images |
US11644338B2 (en) | 2018-10-19 | 2023-05-09 | Beijing Geekplus Technology Co., Ltd. | Ground texture image-based navigation method and device, and storage medium |
WO2024034025A1 (en) * | 2022-08-09 | 2024-02-15 | 日本電信電話株式会社 | Autonomous movement control device, autonomous movement system, autonomous movement method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010117847A (en) | Moving object, moving object control system, and control method for moving object | |
WO2010029669A1 (en) | Moving body and control method thereof | |
US8453340B2 (en) | System, method and apparatus for orientation control | |
US10130304B2 (en) | System, method and apparatus for orientation control | |
KR100807449B1 (en) | Control device for legged robot | |
KR100912688B1 (en) | Mobile robot controller | |
CN111615443B (en) | Information processing apparatus, information processing method, and information processing system | |
JP2020118586A (en) | Moving vehicle | |
JP5123123B2 (en) | Mobile body and control method thereof | |
JP4825856B2 (en) | Mobile body and control method thereof | |
JP2007152472A (en) | Charging system, charging station and robot guidance system | |
JP5270307B2 (en) | Moving body | |
US20200132466A1 (en) | Self-stabilizing autonomous devices and use thereof in autonomous vehicles | |
JP5167077B2 (en) | Mobile body and control method thereof | |
JP5044515B2 (en) | Mobile body and control method thereof | |
JP5328272B2 (en) | Mobile body and control method thereof | |
JP2004306249A (en) | Diagnostic instrument of stereo camera carried on robot and diagnostic method of stereo camera carried on robot device | |
JP7295654B2 (en) | self-propelled robot | |
US20200307378A1 (en) | Non-contact operating apparatus for vehicle and vehicle | |
JP7358108B2 (en) | Information processing device, information processing method and program | |
JP2008229788A (en) | Inverted moving body | |
JP5261091B2 (en) | Mobile body and control method thereof | |
CN107804388B (en) | Transport system | |
JP2023177286A (en) | Information processing device, information processing system, information processing method, and program | |
JP2010068655A (en) | Moving body and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100722 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110404 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120404 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120410 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120523 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120828 |