JP2020112952A - Movement support device - Google Patents
Movement support device Download PDFInfo
- Publication number
- JP2020112952A JP2020112952A JP2019002154A JP2019002154A JP2020112952A JP 2020112952 A JP2020112952 A JP 2020112952A JP 2019002154 A JP2019002154 A JP 2019002154A JP 2019002154 A JP2019002154 A JP 2019002154A JP 2020112952 A JP2020112952 A JP 2020112952A
- Authority
- JP
- Japan
- Prior art keywords
- image
- index
- unit
- guided vehicle
- generation unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 claims abstract description 34
- 239000000284 extract Substances 0.000 claims description 10
- 230000003287 optical effect Effects 0.000 description 79
- 239000003550 marker Substances 0.000 description 45
- 238000010586 diagram Methods 0.000 description 24
- 230000007246 mechanism Effects 0.000 description 13
- 230000036544 posture Effects 0.000 description 12
- 238000007781 pre-processing Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 5
- 230000005856 abnormality Effects 0.000 description 3
- 238000000034 method Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本開示は、移動支援装置に関する。 The present disclosure relates to a movement support device.
無人で車両を移動させるため、自車両の移動経路を自動的に認識する装置がある。例えば、特許文献1では、反射板の方向、距離および反射板の位置データから無人搬送車の位置を導出している。 There is a device that automatically recognizes the movement route of the own vehicle in order to move the vehicle unmanned. For example, in Patent Document 1, the position of the automatic guided vehicle is derived from the direction and distance of the reflector and the position data of the reflector.
無人搬送車として、例えば、光学式無人搬送車(AGV:Automated Guided Vehicle)がある。かかる光学式無人搬送車は、移動経路に貼付されたラインマーカを光学的に読み取り、そのラインマーカをトレースしながら移動する。 As an automated guided vehicle, for example, there is an optical automated guided vehicle (AGV). Such an optical automated guided vehicle optically reads a line marker attached to the movement route and moves while tracing the line marker.
しかし、様々な環境下における耐性を考慮しつつ、移動経路にラインマーカを適切に配置するのは容易ではない。例えば、屋外に移動経路が及ぶ場合、ラインマーカに砂などの堆積物が溜まる、あるいは、汚れが蓄積することで、移動経路を適切に認識できず、無人搬送車の移動に支障をきたすおそれがある。 However, it is not easy to properly place the line marker on the movement route while considering the resistance under various environments. For example, if the travel route extends to the outdoors, the line marker may accumulate deposits such as sand, or dirt may not be recognized, which may hinder the movement of the automated guided vehicle. is there.
そこで本開示は、指標画像を適切に出現させることが可能な移動支援装置を提供することを目的としている。 Then, this indication aims at providing the movement support device which can make an index image appear appropriately.
上記課題を解決するために、本開示の一態様に係る移動支援装置は、外部を撮像した外部画像を取得する画像取得部と、駆動制御に用いられる指標画像を生成する指標生成部と、外部画像に指標画像を重畳して重畳画像を生成し、搬送車にデータとして出力する画像重畳部と、を備える。 In order to solve the above problems, a movement support device according to an aspect of the present disclosure includes an image acquisition unit that acquires an external image of the outside, an index generation unit that generates an index image used for drive control, and an external device. An image superimposing unit that superimposes the index image on the image to generate a superimposed image and outputs the superimposed image as data to the transport vehicle.
移動支援装置は、重畳画像から指標画像を抽出して車両の駆動制御を行う駆動制御部を備えてもよい。 The movement support device may include a drive control unit that extracts the index image from the superimposed image and controls the drive of the vehicle.
移動支援装置は、画像取得部で取得した外部画像に基づいて搬送車の位置情報を生成する位置情報生成部を備え、指標生成部は、位置情報に基づいて指標画像を生成してもよい。 The movement support device may include a position information generation unit that generates position information of the guided vehicle based on the external image acquired by the image acquisition unit, and the index generation unit may generate the index image based on the position information.
画像取得部は、第1の撮像範囲の外部画像および第2の撮像範囲の外部画像をそれぞれ取得し、位置情報生成部は、第1の撮像範囲の外部画像に基づいて搬送車の位置情報を生成し、画像重畳部は、第2の撮像範囲の外部画像に指標画像を重畳してもよい。 The image acquisition unit acquires the external image of the first imaging range and the external image of the second imaging range, respectively, and the position information generation unit acquires the position information of the transport vehicle based on the external image of the first imaging range. The generated image superimposing unit may superimpose the index image on the external image in the second imaging range.
指標生成部は、所定時間以内に駆動制御部が必要とする指標画像を抽出してもよい。 The index generation unit may extract the index image required by the drive control unit within a predetermined time.
指標生成部は、外部画像の撮像状態に拘わらず、形状、大きさ、幅、色彩、模様の少なくともいずれかが特定された指標画像を生成してもよい。 The index generation unit may generate the index image in which at least one of the shape, size, width, color, and pattern is specified regardless of the imaging state of the external image.
本開示によれば、指標画像を適切に出現させることが可能となる。 According to the present disclosure, it is possible to appropriately cause the index image to appear.
以下に添付図面を参照しながら、本開示の一実施形態について説明する。かかる実施形態に示す寸法、材料、その他具体的な数値等は、本開示の理解を容易とするための例示にすぎず、特に断る場合を除き、限定されるものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本開示に直接関係のない要素は図示を省略する。 An embodiment of the present disclosure will be described below with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiments are merely examples for facilitating the understanding of the present disclosure, and are not limited unless otherwise specified. In this specification and the drawings, elements having substantially the same function and configuration are denoted by the same reference numerals to omit redundant description, and elements not directly related to the present disclosure are omitted. To do.
<光学式無人搬送車10>
図1〜図3は、本実施形態の光学式無人搬送車10の概要を説明するための説明図である。ここでは、まず、光学式無人搬送車10の基本動作を説明する。図1に示すように、光学式無人搬送車10は、撮像部12と、駆動機構14と、駆動制御部16とを備える。撮像部12は、撮像素子を含んで構成され、光学式無人搬送車10の前方の外部環境を撮像して外部画像を生成する。駆動機構14は、図1中、光学式無人搬送車10を移動可能に支持する駆動輪を含む。駆動機構14は、光学式無人搬送車10を、白抜き矢印で示した前方向に移動させるとともに、進行方向の左右方向に操舵を行う。
<Optical automated guided
1 to 3 are explanatory views for explaining the outline of the optical automated guided
光学式無人搬送車10の駆動制御部16は、まず、撮像部12が生成した外部画像に、移動支援装置100による所定の処理を施した図2の重畳画像28から、指標画像(指標を表す画像)としてのラインマーカ22を特定する。続いて、駆動制御部16は、そのラインマーカ22が重畳画像28の水平方向の中央に位置する基準線24に重なるように、白抜き矢印で示す駆動機構14の操作量を導出する。次に、駆動制御部16は、導出した操作量で駆動機構14を駆動制御する。こうして、光学式無人搬送車10は、ラインマーカ22上をトレースしながら移動することができる。
The
なお、かかる光学式無人搬送車10は、既存の光学式無人搬送車を改修することで構成することができる。例えば、既存の光学式無人搬送車は、鉛直方向に対し、撮像部の光軸が下向きに設定され、左右上下の画角が狭い。かかる既存の光学式無人搬送車の撮像部に代え、または、撮像部に加えて、光軸が水平方向に設定され、左右上下の画角が広い撮像部12を設けることで、本実施形態の光学式無人搬送車10を構成することが可能となる。なお、撮像部12の光軸原点を通る水平面の両側に画角が広がるような姿勢で撮像部12を配置してもよい。また、本開示の光学式無人搬送車10は、既存の光学式無人搬送車を改修したものとしているが、既存の光学式無人搬送車をそのまま流用しても本開示の効果を得ることは可能である。
The optical automated guided
また、図3のように、重畳画像28に、ラインマーカ22のみならず、制限速度等を示した標識26が含まれる場合がある。この場合、光学式無人搬送車10は、その標識26を特定し、標識26が示す内容、例えば、速度指示「20」km/hに従って駆動機構14を駆動制御する。
Further, as shown in FIG. 3, the
なお、ここでは、ラインマーカ22および標識26を例示したが、かかる場合に限らず、光学式無人搬送車10の駆動制御に用いられる予め定められている指標(指標画像)であればよい。光学式無人搬送車10は、様々な指標画像を特定し、その指標画像が示す内容に従って駆動機構14を駆動制御することができる。
Although the
また、ラインマーカ22および標識26は、実在するラインマーカ22および標識26を撮像部12で撮像したものでもよいが、本実施形態では、後述するように、移動支援装置100が仮想的に生成し、恰も実在しているかのように表現したものを用いる。
The
<移動支援装置100>
図4は、移動支援装置100の概略的な構成を説明する図である。移動支援装置100は、光学式無人搬送車10の画像認識を補助し、移動を支援する。移動支援装置100は、中央処理装置(CPU)、プログラムを保持するROM、ワークエリアとして利用されるRAMを有し、画像取得部108と、位置情報生成部110と、指標生成部112と、画像重畳部114として機能する。
<
FIG. 4 is a diagram illustrating a schematic configuration of the
画像取得部108は、撮像部12で撮像された外部画像20を取得する。位置情報生成部110は、画像取得部108で取得した外部画像20に基づいて光学式無人搬送車10の位置情報(位置、姿勢、方位の少なくともいずれかを含む)を生成する。指標生成部112は、位置情報に基づいて光学式無人搬送車10の駆動制御に用いられる指標画像を生成する。画像重畳部114は、外部画像20に指標画像を重畳して重畳画像28を生成し、光学式無人搬送車10にデータとして出力する。そして、光学式無人搬送車10の駆動制御部16は、データとして取得した重畳画像28から指標画像を特定して自車両の駆動制御を行う。なお、光学式無人搬送車10が実在するラインマーカ22をトレースする場合、重畳画像28を生成せず、駆動制御部16は、外部画像20を直接読み込んでもよい。
The
本開示では、光学式無人搬送車10と移動支援装置100とが一体的に形成されている例を挙げており、以下の説明における光学式無人搬送車10の位置は、移動支援装置100の位置に置換することができる。
In the present disclosure, an example in which the optical guided
なお、位置情報生成部110および指標生成部112は、予め準備された3次元マップを用いて位置情報および指標画像を生成している。ここでは、3次元マップの生成等、事前処理を説明する。
The position
図5〜図7は、事前処理を説明するための図である。事前処理として、移動支援装置100は、撮像部12で撮像された外部画像20を用いて3次元マップ30を生成または更新する。具体的に、移動支援装置100は、図5に示すように、光学式無人搬送車10が3次元マップ30上の任意の位置32にあり、任意の姿勢34で、任意の方位36を示しているときに、撮像部12が外部画像20を生成する。なお、図5では、説明の便宜上、3次元マップ30を二次元で表しているが、実際には高さ方向も含む3次元位置情報が保持されている。また、ここでは、撮像素子が1つの場合を述べるが、奥行き方向の距離(深度)を特定するため撮像素子を複数用いてもよいし、別途、測距レーザを用いてもよい。
5 to 7 are diagrams for explaining the preprocessing. As a preliminary process, the
次に、移動支援装置100は、図6のように、その外部画像20から特徴点38を複数抽出する。移動支援装置100は、光学式無人搬送車10の位置情報(位置32、姿勢34、方位36)に基づいて複数の特徴点38の3次元位置を特定し、3次元マップ30における特定された3次元位置に特徴点38をマッピングする。
Next, the
このような処理を、位置32、姿勢34、方位36を変化させて、連続的に所定回数繰り返す。そうすると、互いに異なる複数の位置32、姿勢34、方位36(サンプル)に対応して特徴点38が特定される。こうして、特徴点38が適切に3次元マップ30にマッピングされることとなる。
Such processing is continuously repeated a predetermined number of times while changing the position 32, the posture 34, and the
また、事前処理として、移動支援装置100は、図7のように、光学式無人搬送車10の移動経路40に基づき、移動経路40の3次元位置を3次元マップ30にマッピングする。このように、特徴点38が適切に3次元マップ30にマッピングされた後、移動経路40の3次元位置をマッピングすることで、移動経路40を容易に構築および修正することが可能となる。かかる3次元マップ30は、光学式無人搬送車10の移動時に位置情報生成部110および指標生成部112に用いられる。以下、事前準備完了後に、光学式無人搬送車10を移動するための画像取得部108、位置情報生成部110、指標生成部112、画像重畳部114の具体的な動作を詳述する。
Further, as a pre-processing, the
図8は、光学式無人搬送車10の移動支援に関する処理を示したフローチャートである。ここでは、所定の割込時間が経過する毎に、当該フローチャートの処理が実行される例を示している。
FIG. 8 is a flowchart showing a process relating to movement support of the optical guided
まず、撮像部12は、光学式無人搬送車10の前方の外部環境を撮像して外部画像20を生成する(S200)。画像取得部108は、撮像部12が撮像した外部画像20を取得する(S202)。
First, the
位置情報生成部110は、画像取得部108で取得した外部画像20に基づいて光学式無人搬送車10の位置情報を生成する(S204)。指標生成部112は、位置情報生成部110が生成した位置情報に基づき、事前処理で生成された3次元マップ30を用いて、光学式無人搬送車10で駆動制御に用いられる指標画像を生成する(S206)。
The position
図9、図10は、位置情報生成部110の動作を説明するための図であり、図11は、指標生成部112の動作を説明するための図である。具体的に、位置情報生成部110は、図9のように、画像取得部108が取得した外部画像20から複数の特徴点38を抽出する。そして、位置情報生成部110は、抽出した複数の特徴点38と、3次元マップ30に含まれる複数の特徴点38とのパターンマッチングを行う。
9 and 10 are diagrams for explaining the operation of the position
なお、特徴点30のパターンマッチングを適切に行うため、環境に応じて撮像態様を変更してもよい。例えば、撮像部12に遠近両用レンズを採用し、その焦点を環境に応じて切り替える。仮に、移動経路40に霧が発生したとき、遠方に焦点が合っている場合、霧の映り込みで特徴点38を適切に抽出できない場合がある。この場合、位置情報生成部110は、レンズの焦点を近辺に切り替え(もしくは焦点が近辺の画像の比重を高め)、霧の影響を少なくして特徴点38を抽出してもよい。また、ここでは、遠近両用レンズを採用する例を挙げて説明したが、遠方用撮像部と近辺用撮像部とを含む複数の焦点の撮像部を採用し、両者を環境に応じて切り替えるとしてもよい。
In addition, in order to appropriately perform the pattern matching of the feature points 30, the imaging mode may be changed according to the environment. For example, a bifocal lens is adopted as the
位置情報生成部110は、図10のように、パターンマッチングの一致度が高い特徴点38の組合せに対応する位置32、姿勢34、方位36を抽出する。こうして、外部画像20の生成時点における光学式無人搬送車10の位置32、姿勢34、方位36が特定される。
As illustrated in FIG. 10, the position
次に、指標生成部112は、3次元マップ30に基づいて移動経路40の3次元位置を抽出する。続いて、指標生成部112は、位置情報生成部110が生成した光学式無人搬送車10の位置32、姿勢34、方位36に基づいて、図11のように、移動経路40を摸した仮想ラインマーカ42を生成する。
Next, the
ここで、指標生成部112は、外部画像20の撮像状態、例えば、光量、反射、遮蔽等による環境の変化に拘わらず、形状、大きさ、幅、色彩、模様の少なくともいずれかが特定された仮想ラインマーカ42を生成している。したがって、外部環境に拘わらず、光学式無人搬送車10が適切に認識できる指標画像(仮想ラインマーカ42)を出現させることが可能となる。
Here, the
また、ここでは、指標画像の形状、大きさ、幅、色彩、模様を、実物として形成せず、画像として形成している。したがって、設計の自由度が高く、かつ、指標画像の表示精度が高い。そのため、例えば、移動経路上の段差に合わせて、空中に指標画像を配設することも可能である。 Further, here, the shape, size, width, color, and pattern of the index image are not formed as actual objects but are formed as images. Therefore, the degree of freedom in design is high and the display accuracy of the index image is high. Therefore, for example, it is possible to arrange the index image in the air according to the step on the moving route.
また、ここでは、指標(仮想ラインマーカ42)を画像として生成しているので、指標画像が物理的に汚されたり、欠落や継時的に変形するおそれもない。 Further, since the index (virtual line marker 42) is generated as an image here, there is no possibility that the index image is physically soiled, missing, or deformed over time.
図12は、画像重畳部114の動作を説明するための図である。画像重畳部114は、指標生成部112が生成した指標画像である仮想ラインマーカ42を、画像取得部108が取得した外部画像20に重畳して重畳画像28を生成する(図8のS208)。こうして、恰も、仮想ラインマーカ42が物理的に存在するような重畳画像28を生成することが可能となる。このように生成された重畳画像28は、データ(電気信号)として駆動制御部16に送信される。
FIG. 12 is a diagram for explaining the operation of the
そして、光学式無人搬送車10の駆動制御部16は、指標生成部112からデータとして送信された重畳画像28から指標画像(仮想ラインマーカ42)を特定し、駆動機構14を駆動制御する(図8のS210)。こうして、駆動制御部16は、光学式無人搬送車10を、仮想ラインマーカ42をトレースしながら移動させることができる。
Then, the
ここでは、移動支援装置100で、一旦、仮想ラインマーカ42を重畳した重畳画像28を生成し、その重畳画像28を光学式無人搬送車10に読み取らせるようにしている。そのため、既存の光学式無人搬送車10をそのまま利用して、光学式無人搬送車10を適切に移動させることができる。
Here, the
また、ここでは、画像認識により、光学式無人搬送車10の位置32、姿勢34、方位36を導出している。したがって、指標が建物等の影となり、GPS(Global Positioning System)の電波が届かない状況であっても、光学式無人搬送車10を適切に移動させることができる。
Further, here, the position 32, the posture 34, and the
また、仮に、光学式無人搬送車10の駆動制御部16の画像認識に異常が生じた場合においても、その異常(例えば、三原色それぞれを受光するセンサの一部欠如等)を特定できれば、指標生成部112が、その異常を補う(相殺する)ように、指標の形状、大きさ、幅、色彩、模様を調整することで、光学式無人搬送車10の駆動制御部16を正常に動作させることができる。
Further, even if an abnormality occurs in the image recognition of the
なお、ここでは、指標生成部112が、単に移動経路40に基づいて指標画像を生成する例を挙げたが、かかる場合に限らず、指標生成部112が、所定時間以内に駆動制御部16が必要とする指標画像を生成してもよい。具体的に、指標生成部112は、位置情報に基づいて、移動経路40のうち、現在、どの位置32にいるかを特定し、その位置32から所定距離分、または、所定時間分の移動経路40のみを抽出する(切り出す)。そして、指標生成部112は、抽出された移動経路40に基づいて指標画像(仮想ラインマーカ42)を生成する。
In addition, here, the example in which the
図13、図14は、指標生成部112の動作を説明するための説明図である。例えば、図13の上図のように、任意の光学式無人搬送車10aが、同一の地点Aを、時間を異にして通過する場合がある。また、任意の光学式無人搬送車10aの仮想ラインマーカ42aと他の光学式無人搬送車10bの仮想ラインマーカ42bとが任意の地点Bで交差または重複する場合がある。
13 and 14 are explanatory diagrams for explaining the operation of the
ここでは、指標生成部112が、所定時間以内に駆動制御部16が必要とする仮想ラインマーカ42のみを生成している。したがって、図13の下図のように、光学式無人搬送車10aは、直近の仮想ラインマーカ42aのみを参照でき、光学式無人搬送車10bは、直近の仮想ラインマーカ42bのみを参照できる。このように移動経路40が重なる場合であっても、光学式無人搬送車10を適切に移動させることができる。
Here, the
また、移動経路40が重なる場合であって、ラインマーカの重複から逃れられない場合がある。例えば、図14のように、光学式無人搬送車10bの物理的なラインマーカ22が存在するところに、光学式無人搬送車10aが仮想ラインマーカ42を表示する場合である。この場合、地点Cでは、物理的なラインマーカ22と仮想ラインマーカ42との重複から逃れられない。このとき、指標生成部112は、仮想ラインマーカ42の形状、大きさ、幅、色彩、模様のいずれかを物理的なラインマーカ22と異なるように変更し、その旨、駆動制御部16に伝達する。駆動制御部16は、変更した仮想ラインマーカ42に基づいて駆動機構14を駆動制御する。
In addition, when the
また、画像取得部108が、取得した外部画像20に、仮想ラインマーカ42と誤認識するおそれがある物体が映り込んでいるか否か判定し、映り込んでいたら、その物体を外部画像20から削除するため、パッチを当てる等の前処理を実行してもよい。
Further, the
例えば、駆動制御部16を模擬したシミュレーションプログラム(あるいは、駆動制御部16そのもの)に画像取得部108から取得した外部画像20を入力し、本来の駆動制御信号が得られるか否かを検知することで、誤認識するおそれがある物体が映り込んでいるか否かを判定することが可能である。なお、当該駆動制御信号は実際の駆動機構14には入力せず、あくまで検知のために用いる。
For example, inputting the
また、処理時間の遅延を緩和するため、画像取得部108は、誤認識するおそれがある物体が映り込んでいると判定した外部画像20より、時系列で後の時間に取得される外部画像20から、その物体を削除する前処理を実行するようにしてもよい。
Further, in order to reduce the processing time delay, the
また、移動経路の途中で、仮想ラインマーカ42と物理的なラインマーカ22とを切り替える場合、その切り替え地点を示す指標画像を付すことで、仮想ラインマーカ42と物理的なラインマーカ22とのスムーズな切り替えを実現することが可能となる。
Further, when the
こうして、重複する複数のラインマーカが区別され、光学式無人搬送車10は、自車両が移動する移動経路40のみを参照可能となる。したがって、移動経路40が重なる場合であっても、光学式無人搬送車10を適切に移動させることが可能となる。
In this way, the plurality of overlapping line markers are distinguished, and the optical guided
図15、図16は、移動支援装置100の他の構成を説明するための説明図である。上述した実施形態では、撮像部12と、駆動機構14と、駆動制御部16とを有する光学式無人搬送車10に、画像取得部108と、位置情報生成部110と、指標生成部112と、画像重畳部114とを有する移動支援装置100を加える構成を挙げて説明した。しかし、かかる場合に限らず、図15のように、撮像部12と、駆動機構14と、駆動制御部16と、画像取得部108と、位置情報生成部110と、指標生成部112と、画像重畳部114とが一体的に形成された移動支援装置100も提供される。
15 and 16 are explanatory diagrams for explaining another configuration of the
また、上述した実施形態では、光学式無人搬送車10の撮像部12の後段に、移動支援装置100の画像取得部108と、位置情報生成部110と、指標生成部112と、画像重畳部114とを接続する例を挙げて説明した。しかし、かかる場合に限らず、図16のように、移動支援装置100が、画像取得部108、位置情報生成部110、指標生成部112、画像重畳部114に加え、撮像部116と、重畳画像を表示する画像表示部118とを有するとしてもよい。この場合、既存の光学式無人搬送車10の撮像部12の前に画像表示部118が位置するように移動支援装置100を載置すればよい。
Further, in the above-described embodiment, the
以上、添付図面を参照しながら一実施形態について説明したが、本開示は上記実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変形例または修正例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。 Although one embodiment has been described with reference to the accompanying drawings, it goes without saying that the present disclosure is not limited to the above embodiment. It is obvious to those skilled in the art that various variations or modifications can be conceived within the scope of the claims, and it should be understood that they also belong to the technical scope of the present disclosure. To be done.
例えば、上述した実施形態においては、位置情報生成部110が、3次元マップ30を用いて光学式無人搬送車10の位置32、姿勢34、方位36を特定する例を挙げて説明した。しかし、かかる場合に限らず、GPSにより光学式無人搬送車10の位置および方位を特定し、INS(Inertial Navigation System)等を用いることにより自車両の姿勢を特定してもよい。
For example, in the above-described embodiment, the position
また、上述した実施形態においては、位置情報生成部110が、画像取得部108が取得した1の外部画像20に基づいて光学式無人搬送車10の位置情報を生成し、画像重畳部114は、その1の外部画像20に指標画像を重畳して重畳画像28を生成する例を挙げて説明した。しかし、位置情報生成部110が位置情報を生成するために必要な撮像範囲(画角)と、重畳画像28の撮像範囲(画角)が異なる場合もある。そこで、撮像部12を2つ設けるか、もしくは、1の撮像部12において相異なる2つの撮像範囲で異なる外部画像20を生成する。具体的に、撮像部12は、位置情報生成部110が位置情報を生成するために必要な第1の撮像範囲の外部画像20、および、第1の撮像範囲とは異なる第2の撮像範囲の外部画像20をそれぞれ生成する。
Further, in the above-described embodiment, the position
この場合、画像取得部108は、第1の撮像範囲の外部画像20、および、第2の撮像範囲の外部画像20をそれぞれ取得する。位置情報生成部110は、第1の撮像範囲の外部画像20に基づいて光学式無人搬送車10の位置情報を生成する。画像重畳部114は、第2の撮像範囲の外部画像20に指標画像を重畳して重畳画像28を生成する。
In this case, the
また、上述した実施形態においては、指標生成部112が、光学式無人搬送車10の位置32、姿勢34、方位36に基づいて、移動経路40を摸した仮想ラインマーカ42を生成する例を挙げて説明した。しかし、かかる場合に限らず、3次元マップ30を用いさえすれば、様々な位置から重畳画像28を参照することができる。例えば、VR(Virtual Reality)ヘッドマウントは、それを着用しているユーザの位置32、姿勢34、方位36に基づき、移動経路40を摸した仮想ラインマーカ42を表示する。
Moreover, in the above-described embodiment, an example in which the
したがって、ユーザは、実際には存在しない仮想ラインマーカ42等の指標画像を、VRヘッドマウントを通じて仮想空間的に確認することができる。また、複数の光学式無人搬送車10が一度に移動する場合であっても、目的とする光学式無人搬送車10を選択することで、その光学式無人搬送車10の指標画像のみを参照することが可能となる。
Therefore, the user can confirm the index image such as the
本開示は、移動支援装置に利用することができる。 The present disclosure can be used for a movement support device.
10 光学式無人搬送車
12 撮像部
14 駆動機構
16 駆動制御部
20 外部画像
22 ラインマーカ
24 基準線
28 重畳画像
30 3次元マップ
38 特徴点
40 移動経路
42 仮想ラインマーカ
100 移動支援装置
108 画像取得部
110 位置情報生成部
112 指標生成部
114 画像重畳部
10 optical unmanned guided
Claims (6)
駆動制御に用いられる指標画像を生成する指標生成部と、
前記外部画像に前記指標画像を重畳して重畳画像を生成し、搬送車にデータとして出力する画像重畳部と、
を備える移動支援装置。 An image acquisition unit that acquires an external image of the outside,
An index generation unit that generates an index image used for drive control,
An image superimposing unit that superimposes the index image on the external image to generate a superposed image, and outputs the superposed image as data to the transport vehicle.
A movement support device.
前記指標生成部は、前記位置情報に基づいて前記指標画像を生成する請求項1または2に記載の移動支援装置。 A position information generation unit that generates position information of the transport vehicle based on an external image acquired by the image acquisition unit;
The movement support device according to claim 1, wherein the index generation unit generates the index image based on the position information.
前記位置情報生成部は、前記第1の撮像範囲の外部画像に基づいて前記搬送車の位置情報を生成し、
前記画像重畳部は、前記第2の撮像範囲の外部画像に前記指標画像を重畳する請求項3に記載の移動支援装置。 The image acquisition unit acquires an external image of the first imaging range and an external image of the second imaging range, respectively.
The position information generation unit generates position information of the transport vehicle based on an external image of the first imaging range,
The movement assistance device according to claim 3, wherein the image superimposing unit superimposes the index image on an external image in the second imaging range.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019002154A JP2020112952A (en) | 2019-01-09 | 2019-01-09 | Movement support device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019002154A JP2020112952A (en) | 2019-01-09 | 2019-01-09 | Movement support device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020112952A true JP2020112952A (en) | 2020-07-27 |
Family
ID=71667033
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019002154A Pending JP2020112952A (en) | 2019-01-09 | 2019-01-09 | Movement support device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020112952A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024004317A1 (en) * | 2022-06-28 | 2024-01-04 | ソニーグループ株式会社 | Mobile body control device, mobile body control method, and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01188910A (en) * | 1988-01-22 | 1989-07-28 | Toyota Autom Loom Works Ltd | Image processing method for traveling mark of image type unmanned vehicle |
JP2010152833A (en) * | 2008-12-26 | 2010-07-08 | Ihi Aerospace Co Ltd | Unmanned mobile body system |
JP2018197964A (en) * | 2017-05-24 | 2018-12-13 | 日産自動車株式会社 | Control method of vehicle, and device thereof |
-
2019
- 2019-01-09 JP JP2019002154A patent/JP2020112952A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01188910A (en) * | 1988-01-22 | 1989-07-28 | Toyota Autom Loom Works Ltd | Image processing method for traveling mark of image type unmanned vehicle |
JP2010152833A (en) * | 2008-12-26 | 2010-07-08 | Ihi Aerospace Co Ltd | Unmanned mobile body system |
JP2018197964A (en) * | 2017-05-24 | 2018-12-13 | 日産自動車株式会社 | Control method of vehicle, and device thereof |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024004317A1 (en) * | 2022-06-28 | 2024-01-04 | ソニーグループ株式会社 | Mobile body control device, mobile body control method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6926917B2 (en) | Offline verification system | |
KR100948161B1 (en) | Camera corrector | |
US8571265B2 (en) | Measurement apparatus, measurement method, and feature identification apparatus | |
JP5911934B2 (en) | Contour measurement device and robot system | |
KR101973917B1 (en) | Three-dimensional measuring device and its supporting method of measurement | |
JP6491574B2 (en) | AR information display device | |
KR20180088149A (en) | Method and apparatus for guiding vehicle route | |
CN108896994A (en) | A kind of automatic driving vehicle localization method and equipment | |
JP2016149132A (en) | System and method for prediction in driver assist system of vehicle | |
US11148299B2 (en) | Teaching apparatus and teaching method for robots | |
JP2016057108A (en) | Arithmetic device, arithmetic system, arithmetic method and program | |
JP2002172575A (en) | Teaching device | |
KR20180132917A (en) | A map data update device, a map data update method, and a map data update program | |
JP7151073B2 (en) | Display device and computer program | |
WO2009084126A1 (en) | Navigation device | |
CN109444916A (en) | The unmanned travelable area determining device of one kind and method | |
JP2903964B2 (en) | Three-dimensional position and posture recognition method based on vision and three-dimensional position and posture recognition device based on vision | |
JP5557472B2 (en) | Road lane data generation device, road lane data generation method, and road lane data generation program | |
JP2022012241A (en) | Lane change plan apparatus and lane change planning computer program | |
JP2019185599A (en) | Route simulation device | |
RU2562368C1 (en) | Three-dimensional (3d) mapping method | |
JP2020112952A (en) | Movement support device | |
WO2021115236A1 (en) | Method and device for positioning by means of scene marking | |
US20230070281A1 (en) | Methods and systems of generating camera models for camera calibration | |
JP2019066292A (en) | Video display system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221026 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230314 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230420 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230711 |