JP2020112952A - Movement support device - Google Patents

Movement support device Download PDF

Info

Publication number
JP2020112952A
JP2020112952A JP2019002154A JP2019002154A JP2020112952A JP 2020112952 A JP2020112952 A JP 2020112952A JP 2019002154 A JP2019002154 A JP 2019002154A JP 2019002154 A JP2019002154 A JP 2019002154A JP 2020112952 A JP2020112952 A JP 2020112952A
Authority
JP
Japan
Prior art keywords
image
index
unit
guided vehicle
generation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019002154A
Other languages
Japanese (ja)
Inventor
眞 関谷
Makoto Sekiya
眞 関谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2019002154A priority Critical patent/JP2020112952A/en
Publication of JP2020112952A publication Critical patent/JP2020112952A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To provide a movement support device capable of causing an index image to appropriately appear.SOLUTION: A movement support device 100 includes an image acquisition unit 108 for acquiring an external image 20 obtained by imaging the outside, an index generation unit 112 for generating an index image to be used for drive control, and an image superposition unit 114 for superposing an index on the external image to generate a superposed image 28, and outputting the superposed image as data to a conveyance vehicle. Also, the movement support device may include a drive control unit 16 for extracting the index image from the superposed image to perform drive control of the vehicle.SELECTED DRAWING: Figure 4

Description

本開示は、移動支援装置に関する。 The present disclosure relates to a movement support device.

無人で車両を移動させるため、自車両の移動経路を自動的に認識する装置がある。例えば、特許文献1では、反射板の方向、距離および反射板の位置データから無人搬送車の位置を導出している。 There is a device that automatically recognizes the movement route of the own vehicle in order to move the vehicle unmanned. For example, in Patent Document 1, the position of the automatic guided vehicle is derived from the direction and distance of the reflector and the position data of the reflector.

無人搬送車として、例えば、光学式無人搬送車(AGV:Automated Guided Vehicle)がある。かかる光学式無人搬送車は、移動経路に貼付されたラインマーカを光学的に読み取り、そのラインマーカをトレースしながら移動する。 As an automated guided vehicle, for example, there is an optical automated guided vehicle (AGV). Such an optical automated guided vehicle optically reads a line marker attached to the movement route and moves while tracing the line marker.

特開2000−099145号公報JP, 2000-099145, A

しかし、様々な環境下における耐性を考慮しつつ、移動経路にラインマーカを適切に配置するのは容易ではない。例えば、屋外に移動経路が及ぶ場合、ラインマーカに砂などの堆積物が溜まる、あるいは、汚れが蓄積することで、移動経路を適切に認識できず、無人搬送車の移動に支障をきたすおそれがある。 However, it is not easy to properly place the line marker on the movement route while considering the resistance under various environments. For example, if the travel route extends to the outdoors, the line marker may accumulate deposits such as sand, or dirt may not be recognized, which may hinder the movement of the automated guided vehicle. is there.

そこで本開示は、指標画像を適切に出現させることが可能な移動支援装置を提供することを目的としている。 Then, this indication aims at providing the movement support device which can make an index image appear appropriately.

上記課題を解決するために、本開示の一態様に係る移動支援装置は、外部を撮像した外部画像を取得する画像取得部と、駆動制御に用いられる指標画像を生成する指標生成部と、外部画像に指標画像を重畳して重畳画像を生成し、搬送車にデータとして出力する画像重畳部と、を備える。 In order to solve the above problems, a movement support device according to an aspect of the present disclosure includes an image acquisition unit that acquires an external image of the outside, an index generation unit that generates an index image used for drive control, and an external device. An image superimposing unit that superimposes the index image on the image to generate a superimposed image and outputs the superimposed image as data to the transport vehicle.

移動支援装置は、重畳画像から指標画像を抽出して車両の駆動制御を行う駆動制御部を備えてもよい。 The movement support device may include a drive control unit that extracts the index image from the superimposed image and controls the drive of the vehicle.

移動支援装置は、画像取得部で取得した外部画像に基づいて搬送車の位置情報を生成する位置情報生成部を備え、指標生成部は、位置情報に基づいて指標画像を生成してもよい。 The movement support device may include a position information generation unit that generates position information of the guided vehicle based on the external image acquired by the image acquisition unit, and the index generation unit may generate the index image based on the position information.

画像取得部は、第1の撮像範囲の外部画像および第2の撮像範囲の外部画像をそれぞれ取得し、位置情報生成部は、第1の撮像範囲の外部画像に基づいて搬送車の位置情報を生成し、画像重畳部は、第2の撮像範囲の外部画像に指標画像を重畳してもよい。 The image acquisition unit acquires the external image of the first imaging range and the external image of the second imaging range, respectively, and the position information generation unit acquires the position information of the transport vehicle based on the external image of the first imaging range. The generated image superimposing unit may superimpose the index image on the external image in the second imaging range.

指標生成部は、所定時間以内に駆動制御部が必要とする指標画像を抽出してもよい。 The index generation unit may extract the index image required by the drive control unit within a predetermined time.

指標生成部は、外部画像の撮像状態に拘わらず、形状、大きさ、幅、色彩、模様の少なくともいずれかが特定された指標画像を生成してもよい。 The index generation unit may generate the index image in which at least one of the shape, size, width, color, and pattern is specified regardless of the imaging state of the external image.

本開示によれば、指標画像を適切に出現させることが可能となる。 According to the present disclosure, it is possible to appropriately cause the index image to appear.

図1は、本実施形態の光学式無人搬送車の概要を説明するための説明図である。FIG. 1 is an explanatory diagram for explaining an outline of the optical automatic guided vehicle according to the present embodiment. 図2は、本実施形態の光学式無人搬送車の概要を説明するための説明図である。FIG. 2 is an explanatory diagram for explaining the outline of the optical automated guided vehicle of the present embodiment. 図3は、本実施形態の光学式無人搬送車の概要を説明するための説明図である。FIG. 3 is an explanatory diagram for explaining the outline of the optical automated guided vehicle of the present embodiment. 図4は、移動支援装置の概略的な構成を説明する図である。FIG. 4 is a diagram illustrating a schematic configuration of the movement support device. 図5は、事前処理を説明するための図である。FIG. 5 is a diagram for explaining the preprocessing. 図6は、事前処理を説明するための図である。FIG. 6 is a diagram for explaining the preprocessing. 図7は、事前処理を説明するための図である。FIG. 7 is a diagram for explaining the preprocessing. 図8は、光学式無人搬送車の移動支援に関する処理を示したフローチャートである。FIG. 8 is a flowchart showing a process relating to movement support of an optical automatic guided vehicle. 図9は、位置情報生成部の動作を説明するための図である。FIG. 9 is a diagram for explaining the operation of the position information generation unit. 図10は、位置情報生成部の動作を説明するための図である。FIG. 10 is a diagram for explaining the operation of the position information generation unit. 図11は、指標生成部の動作を説明するための図である。FIG. 11 is a diagram for explaining the operation of the index generation unit. 図12は、画像重畳部の動作を説明するための図である。FIG. 12 is a diagram for explaining the operation of the image superimposing unit. 図13は、指標生成部の動作を説明するための説明図である。FIG. 13 is an explanatory diagram for explaining the operation of the index generation unit. 図14は、指標生成部の動作を説明するための説明図である。FIG. 14 is an explanatory diagram for explaining the operation of the index generation unit. 図15は、移動支援装置の他の構成を説明するための説明図である。FIG. 15 is an explanatory diagram for explaining another configuration of the movement support device. 図16は、移動支援装置の他の構成を説明するための説明図である。FIG. 16 is an explanatory diagram for explaining another configuration of the movement support device.

以下に添付図面を参照しながら、本開示の一実施形態について説明する。かかる実施形態に示す寸法、材料、その他具体的な数値等は、本開示の理解を容易とするための例示にすぎず、特に断る場合を除き、限定されるものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本開示に直接関係のない要素は図示を省略する。 An embodiment of the present disclosure will be described below with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiments are merely examples for facilitating the understanding of the present disclosure, and are not limited unless otherwise specified. In this specification and the drawings, elements having substantially the same function and configuration are denoted by the same reference numerals to omit redundant description, and elements not directly related to the present disclosure are omitted. To do.

<光学式無人搬送車10>
図1〜図3は、本実施形態の光学式無人搬送車10の概要を説明するための説明図である。ここでは、まず、光学式無人搬送車10の基本動作を説明する。図1に示すように、光学式無人搬送車10は、撮像部12と、駆動機構14と、駆動制御部16とを備える。撮像部12は、撮像素子を含んで構成され、光学式無人搬送車10の前方の外部環境を撮像して外部画像を生成する。駆動機構14は、図1中、光学式無人搬送車10を移動可能に支持する駆動輪を含む。駆動機構14は、光学式無人搬送車10を、白抜き矢印で示した前方向に移動させるとともに、進行方向の左右方向に操舵を行う。
<Optical automated guided vehicle 10>
1 to 3 are explanatory views for explaining the outline of the optical automated guided vehicle 10 of the present embodiment. Here, first, the basic operation of the optical automatic guided vehicle 10 will be described. As shown in FIG. 1, the optical automated guided vehicle 10 includes an imaging unit 12, a drive mechanism 14, and a drive control unit 16. The imaging unit 12 is configured to include an imaging device, and images the external environment in front of the optical guided vehicle 10 to generate an external image. The drive mechanism 14 includes drive wheels that movably support the optical automated guided vehicle 10 in FIG. 1. The drive mechanism 14 moves the optical automatic guided vehicle 10 in the forward direction indicated by the white arrow, and steers the vehicle in the left-right direction of the traveling direction.

光学式無人搬送車10の駆動制御部16は、まず、撮像部12が生成した外部画像に、移動支援装置100による所定の処理を施した図2の重畳画像28から、指標画像(指標を表す画像)としてのラインマーカ22を特定する。続いて、駆動制御部16は、そのラインマーカ22が重畳画像28の水平方向の中央に位置する基準線24に重なるように、白抜き矢印で示す駆動機構14の操作量を導出する。次に、駆動制御部16は、導出した操作量で駆動機構14を駆動制御する。こうして、光学式無人搬送車10は、ラインマーカ22上をトレースしながら移動することができる。 The drive control unit 16 of the optical automated guided vehicle 10 first performs an index image (representing an index from the superimposed image 28 in FIG. 2 in which the external image generated by the imaging unit 12 has been subjected to predetermined processing by the movement support device 100). The line marker 22 as an image is specified. Then, the drive control unit 16 derives the operation amount of the drive mechanism 14 indicated by the white arrow so that the line marker 22 overlaps with the reference line 24 located at the horizontal center of the superimposed image 28. Next, the drive control unit 16 drives and controls the drive mechanism 14 with the derived operation amount. In this way, the optical guided vehicle 10 can move while tracing on the line marker 22.

なお、かかる光学式無人搬送車10は、既存の光学式無人搬送車を改修することで構成することができる。例えば、既存の光学式無人搬送車は、鉛直方向に対し、撮像部の光軸が下向きに設定され、左右上下の画角が狭い。かかる既存の光学式無人搬送車の撮像部に代え、または、撮像部に加えて、光軸が水平方向に設定され、左右上下の画角が広い撮像部12を設けることで、本実施形態の光学式無人搬送車10を構成することが可能となる。なお、撮像部12の光軸原点を通る水平面の両側に画角が広がるような姿勢で撮像部12を配置してもよい。また、本開示の光学式無人搬送車10は、既存の光学式無人搬送車を改修したものとしているが、既存の光学式無人搬送車をそのまま流用しても本開示の効果を得ることは可能である。 The optical automated guided vehicle 10 can be configured by modifying an existing optical automated guided vehicle. For example, in an existing optical guided vehicle, the optical axis of the imaging unit is set downward with respect to the vertical direction, and the horizontal and vertical angle of view is narrow. In place of or in addition to the image pickup unit of the existing optical automatic guided vehicle, by providing the image pickup unit 12 in which the optical axis is set in the horizontal direction and the left, right, up, and down angles of view are wide, the present embodiment is provided. The optical automated guided vehicle 10 can be configured. Note that the image pickup unit 12 may be arranged in such a posture that the angle of view spreads on both sides of a horizontal plane passing through the optical axis origin of the image pickup unit 12. Further, although the optical automated guided vehicle 10 of the present disclosure is a modification of the existing optical automated guided vehicle, the effect of the present disclosure can be obtained even if the existing optical automated guided vehicle is used as it is. Is.

また、図3のように、重畳画像28に、ラインマーカ22のみならず、制限速度等を示した標識26が含まれる場合がある。この場合、光学式無人搬送車10は、その標識26を特定し、標識26が示す内容、例えば、速度指示「20」km/hに従って駆動機構14を駆動制御する。 Further, as shown in FIG. 3, the superimposed image 28 may include not only the line marker 22 but also the marker 26 indicating the speed limit or the like. In this case, the optical guided vehicle 10 identifies the sign 26 and drives and controls the drive mechanism 14 according to the content indicated by the sign 26, for example, the speed instruction “20” km/h.

なお、ここでは、ラインマーカ22および標識26を例示したが、かかる場合に限らず、光学式無人搬送車10の駆動制御に用いられる予め定められている指標(指標画像)であればよい。光学式無人搬送車10は、様々な指標画像を特定し、その指標画像が示す内容に従って駆動機構14を駆動制御することができる。 Although the line marker 22 and the sign 26 are illustrated here, the present invention is not limited to such a case, and may be a predetermined index (index image) used for drive control of the optical guided vehicle 10. The optical automatic guided vehicle 10 can specify various index images and drive-control the drive mechanism 14 according to the content indicated by the index images.

また、ラインマーカ22および標識26は、実在するラインマーカ22および標識26を撮像部12で撮像したものでもよいが、本実施形態では、後述するように、移動支援装置100が仮想的に生成し、恰も実在しているかのように表現したものを用いる。 The line marker 22 and the sign 26 may be images of the existing line marker 22 and the sign 26 captured by the image capturing unit 12. However, in the present embodiment, as described later, the movement support device 100 virtually generates them. , Use the one that is expressed as if it were real.

<移動支援装置100>
図4は、移動支援装置100の概略的な構成を説明する図である。移動支援装置100は、光学式無人搬送車10の画像認識を補助し、移動を支援する。移動支援装置100は、中央処理装置(CPU)、プログラムを保持するROM、ワークエリアとして利用されるRAMを有し、画像取得部108と、位置情報生成部110と、指標生成部112と、画像重畳部114として機能する。
<Movement support device 100>
FIG. 4 is a diagram illustrating a schematic configuration of the movement support device 100. The movement support device 100 assists image recognition of the optical automatic guided vehicle 10 and supports movement. The movement support apparatus 100 has a central processing unit (CPU), a ROM that holds a program, and a RAM that is used as a work area, and has an image acquisition unit 108, a position information generation unit 110, an index generation unit 112, and an image. It functions as the superposition unit 114.

画像取得部108は、撮像部12で撮像された外部画像20を取得する。位置情報生成部110は、画像取得部108で取得した外部画像20に基づいて光学式無人搬送車10の位置情報(位置、姿勢、方位の少なくともいずれかを含む)を生成する。指標生成部112は、位置情報に基づいて光学式無人搬送車10の駆動制御に用いられる指標画像を生成する。画像重畳部114は、外部画像20に指標画像を重畳して重畳画像28を生成し、光学式無人搬送車10にデータとして出力する。そして、光学式無人搬送車10の駆動制御部16は、データとして取得した重畳画像28から指標画像を特定して自車両の駆動制御を行う。なお、光学式無人搬送車10が実在するラインマーカ22をトレースする場合、重畳画像28を生成せず、駆動制御部16は、外部画像20を直接読み込んでもよい。 The image acquisition unit 108 acquires the external image 20 captured by the image capturing unit 12. The position information generation unit 110 generates position information (including at least one of position, orientation, and azimuth) of the optical guided vehicle 10 based on the external image 20 acquired by the image acquisition unit 108. The index generation unit 112 generates an index image used for drive control of the optical guided vehicle 10 based on the position information. The image superimposing unit 114 superimposes the index image on the external image 20 to generate a superimposed image 28, and outputs the superimposed image 28 to the optical automated guided vehicle 10 as data. Then, the drive control unit 16 of the optical guided vehicle 10 specifies the index image from the superimposed image 28 acquired as data and controls the drive of the own vehicle. When tracing the line marker 22 where the optical automatic guided vehicle 10 actually exists, the drive control unit 16 may directly read the external image 20 without generating the superimposed image 28.

本開示では、光学式無人搬送車10と移動支援装置100とが一体的に形成されている例を挙げており、以下の説明における光学式無人搬送車10の位置は、移動支援装置100の位置に置換することができる。 In the present disclosure, an example in which the optical guided vehicle 10 and the movement support device 100 are integrally formed is given, and the position of the optical guided vehicle 10 in the following description is the position of the movement support device 100. Can be replaced with

なお、位置情報生成部110および指標生成部112は、予め準備された3次元マップを用いて位置情報および指標画像を生成している。ここでは、3次元マップの生成等、事前処理を説明する。 The position information generation unit 110 and the index generation unit 112 generate the position information and the index image using a three-dimensional map prepared in advance. Here, preprocessing such as generation of a three-dimensional map will be described.

図5〜図7は、事前処理を説明するための図である。事前処理として、移動支援装置100は、撮像部12で撮像された外部画像20を用いて3次元マップ30を生成または更新する。具体的に、移動支援装置100は、図5に示すように、光学式無人搬送車10が3次元マップ30上の任意の位置32にあり、任意の姿勢34で、任意の方位36を示しているときに、撮像部12が外部画像20を生成する。なお、図5では、説明の便宜上、3次元マップ30を二次元で表しているが、実際には高さ方向も含む3次元位置情報が保持されている。また、ここでは、撮像素子が1つの場合を述べるが、奥行き方向の距離(深度)を特定するため撮像素子を複数用いてもよいし、別途、測距レーザを用いてもよい。 5 to 7 are diagrams for explaining the preprocessing. As a preliminary process, the movement support device 100 generates or updates the three-dimensional map 30 using the external image 20 captured by the image capturing unit 12. Specifically, in the movement support device 100, as shown in FIG. 5, the optical automated guided vehicle 10 is at an arbitrary position 32 on the three-dimensional map 30, and has an arbitrary posture 34 and an arbitrary azimuth 36. The imaging unit 12 generates the external image 20 when the image is present. Note that, in FIG. 5, the three-dimensional map 30 is represented in two dimensions for convenience of description, but in reality, three-dimensional position information including the height direction is held. Further, here, a case where there is one image pickup element will be described, but a plurality of image pickup elements may be used to specify the distance (depth) in the depth direction, or a distance measuring laser may be used separately.

次に、移動支援装置100は、図6のように、その外部画像20から特徴点38を複数抽出する。移動支援装置100は、光学式無人搬送車10の位置情報(位置32、姿勢34、方位36)に基づいて複数の特徴点38の3次元位置を特定し、3次元マップ30における特定された3次元位置に特徴点38をマッピングする。 Next, the movement support device 100 extracts a plurality of feature points 38 from the external image 20 as shown in FIG. The movement support apparatus 100 specifies the three-dimensional positions of the plurality of feature points 38 based on the position information (position 32, posture 34, azimuth 36) of the optical guided vehicle 10, and specifies the three specified positions in the three-dimensional map 30. The feature point 38 is mapped to the dimensional position.

このような処理を、位置32、姿勢34、方位36を変化させて、連続的に所定回数繰り返す。そうすると、互いに異なる複数の位置32、姿勢34、方位36(サンプル)に対応して特徴点38が特定される。こうして、特徴点38が適切に3次元マップ30にマッピングされることとなる。 Such processing is continuously repeated a predetermined number of times while changing the position 32, the posture 34, and the azimuth 36. Then, the feature point 38 is specified in correspondence with the plurality of different positions 32, postures 34, and directions 36 (samples). In this way, the feature points 38 are properly mapped on the three-dimensional map 30.

また、事前処理として、移動支援装置100は、図7のように、光学式無人搬送車10の移動経路40に基づき、移動経路40の3次元位置を3次元マップ30にマッピングする。このように、特徴点38が適切に3次元マップ30にマッピングされた後、移動経路40の3次元位置をマッピングすることで、移動経路40を容易に構築および修正することが可能となる。かかる3次元マップ30は、光学式無人搬送車10の移動時に位置情報生成部110および指標生成部112に用いられる。以下、事前準備完了後に、光学式無人搬送車10を移動するための画像取得部108、位置情報生成部110、指標生成部112、画像重畳部114の具体的な動作を詳述する。 Further, as a pre-processing, the movement support device 100 maps the three-dimensional position of the movement route 40 on the three-dimensional map 30 based on the movement route 40 of the optical guided vehicle 10, as shown in FIG. 7. As described above, after the feature points 38 are appropriately mapped on the three-dimensional map 30, by mapping the three-dimensional position of the movement route 40, the movement route 40 can be easily constructed and modified. The three-dimensional map 30 is used by the position information generation unit 110 and the index generation unit 112 when the optical automated guided vehicle 10 moves. Hereinafter, specific operations of the image acquisition unit 108, the position information generation unit 110, the index generation unit 112, and the image superposition unit 114 for moving the optical automated guided vehicle 10 after the preparation is completed will be described in detail.

図8は、光学式無人搬送車10の移動支援に関する処理を示したフローチャートである。ここでは、所定の割込時間が経過する毎に、当該フローチャートの処理が実行される例を示している。 FIG. 8 is a flowchart showing a process relating to movement support of the optical guided vehicle 10. Here, an example is shown in which the processing of the flowchart is executed each time a predetermined interrupt time elapses.

まず、撮像部12は、光学式無人搬送車10の前方の外部環境を撮像して外部画像20を生成する(S200)。画像取得部108は、撮像部12が撮像した外部画像20を取得する(S202)。 First, the imaging unit 12 captures an external environment in front of the optical guided vehicle 10 and generates an external image 20 (S200). The image acquisition unit 108 acquires the external image 20 imaged by the imaging unit 12 (S202).

位置情報生成部110は、画像取得部108で取得した外部画像20に基づいて光学式無人搬送車10の位置情報を生成する(S204)。指標生成部112は、位置情報生成部110が生成した位置情報に基づき、事前処理で生成された3次元マップ30を用いて、光学式無人搬送車10で駆動制御に用いられる指標画像を生成する(S206)。 The position information generation unit 110 generates the position information of the optical guided vehicle 10 based on the external image 20 acquired by the image acquisition unit 108 (S204). Based on the position information generated by the position information generation unit 110, the index generation unit 112 uses the three-dimensional map 30 generated in the preprocessing to generate an index image used for drive control in the optical guided vehicle 10. (S206).

図9、図10は、位置情報生成部110の動作を説明するための図であり、図11は、指標生成部112の動作を説明するための図である。具体的に、位置情報生成部110は、図9のように、画像取得部108が取得した外部画像20から複数の特徴点38を抽出する。そして、位置情報生成部110は、抽出した複数の特徴点38と、3次元マップ30に含まれる複数の特徴点38とのパターンマッチングを行う。 9 and 10 are diagrams for explaining the operation of the position information generating unit 110, and FIG. 11 is a diagram for explaining the operation of the index generating unit 112. Specifically, the position information generation unit 110 extracts a plurality of feature points 38 from the external image 20 acquired by the image acquisition unit 108, as illustrated in FIG. 9. Then, the position information generation unit 110 performs pattern matching between the extracted feature points 38 and the feature points 38 included in the three-dimensional map 30.

なお、特徴点30のパターンマッチングを適切に行うため、環境に応じて撮像態様を変更してもよい。例えば、撮像部12に遠近両用レンズを採用し、その焦点を環境に応じて切り替える。仮に、移動経路40に霧が発生したとき、遠方に焦点が合っている場合、霧の映り込みで特徴点38を適切に抽出できない場合がある。この場合、位置情報生成部110は、レンズの焦点を近辺に切り替え(もしくは焦点が近辺の画像の比重を高め)、霧の影響を少なくして特徴点38を抽出してもよい。また、ここでは、遠近両用レンズを採用する例を挙げて説明したが、遠方用撮像部と近辺用撮像部とを含む複数の焦点の撮像部を採用し、両者を環境に応じて切り替えるとしてもよい。 In addition, in order to appropriately perform the pattern matching of the feature points 30, the imaging mode may be changed according to the environment. For example, a bifocal lens is adopted as the image pickup unit 12, and its focus is switched according to the environment. If fog occurs on the moving path 40 and the focus is in the distance, the feature point 38 may not be properly extracted due to the reflection of the fog. In this case, the position information generation unit 110 may switch the focus of the lens to the vicinity (or increase the specific gravity of the image in the vicinity of the focus) to reduce the influence of fog and extract the feature point 38. Further, here, the example in which the bifocal lens is adopted has been described, but an imaging unit having a plurality of focal points including a far imaging unit and a near imaging unit may be adopted, and both may be switched according to the environment. Good.

位置情報生成部110は、図10のように、パターンマッチングの一致度が高い特徴点38の組合せに対応する位置32、姿勢34、方位36を抽出する。こうして、外部画像20の生成時点における光学式無人搬送車10の位置32、姿勢34、方位36が特定される。 As illustrated in FIG. 10, the position information generation unit 110 extracts the position 32, the posture 34, and the azimuth 36 corresponding to the combination of the feature points 38 having a high degree of coincidence in pattern matching. In this way, the position 32, posture 34, and azimuth 36 of the optical guided vehicle 10 at the time of generation of the external image 20 are specified.

次に、指標生成部112は、3次元マップ30に基づいて移動経路40の3次元位置を抽出する。続いて、指標生成部112は、位置情報生成部110が生成した光学式無人搬送車10の位置32、姿勢34、方位36に基づいて、図11のように、移動経路40を摸した仮想ラインマーカ42を生成する。 Next, the index generation unit 112 extracts the three-dimensional position of the movement route 40 based on the three-dimensional map 30. Subsequently, the index generation unit 112, based on the position 32, the posture 34, and the azimuth 36 of the optical guided vehicle 10 generated by the position information generation unit 110, as shown in FIG. 11, a virtual line that traces the movement route 40. The marker 42 is generated.

ここで、指標生成部112は、外部画像20の撮像状態、例えば、光量、反射、遮蔽等による環境の変化に拘わらず、形状、大きさ、幅、色彩、模様の少なくともいずれかが特定された仮想ラインマーカ42を生成している。したがって、外部環境に拘わらず、光学式無人搬送車10が適切に認識できる指標画像(仮想ラインマーカ42)を出現させることが可能となる。 Here, the index generation unit 112 specifies at least one of the shape, size, width, color, and pattern regardless of the imaging state of the external image 20, for example, the change in environment due to the amount of light, reflection, shielding, or the like. The virtual line marker 42 is generated. Therefore, the index image (virtual line marker 42) that can be properly recognized by the optical guided vehicle 10 can be made to appear regardless of the external environment.

また、ここでは、指標画像の形状、大きさ、幅、色彩、模様を、実物として形成せず、画像として形成している。したがって、設計の自由度が高く、かつ、指標画像の表示精度が高い。そのため、例えば、移動経路上の段差に合わせて、空中に指標画像を配設することも可能である。 Further, here, the shape, size, width, color, and pattern of the index image are not formed as actual objects but are formed as images. Therefore, the degree of freedom in design is high and the display accuracy of the index image is high. Therefore, for example, it is possible to arrange the index image in the air according to the step on the moving route.

また、ここでは、指標(仮想ラインマーカ42)を画像として生成しているので、指標画像が物理的に汚されたり、欠落や継時的に変形するおそれもない。 Further, since the index (virtual line marker 42) is generated as an image here, there is no possibility that the index image is physically soiled, missing, or deformed over time.

図12は、画像重畳部114の動作を説明するための図である。画像重畳部114は、指標生成部112が生成した指標画像である仮想ラインマーカ42を、画像取得部108が取得した外部画像20に重畳して重畳画像28を生成する(図8のS208)。こうして、恰も、仮想ラインマーカ42が物理的に存在するような重畳画像28を生成することが可能となる。このように生成された重畳画像28は、データ(電気信号)として駆動制御部16に送信される。 FIG. 12 is a diagram for explaining the operation of the image superimposing unit 114. The image superimposing unit 114 superimposes the virtual line marker 42, which is the index image generated by the index generating unit 112, on the external image 20 acquired by the image acquiring unit 108 to generate the superimposed image 28 (S208 in FIG. 8). In this way, it becomes possible to generate the superimposed image 28 in which the virtual line marker 42 physically exists. The superimposed image 28 thus generated is transmitted to the drive control unit 16 as data (electrical signal).

そして、光学式無人搬送車10の駆動制御部16は、指標生成部112からデータとして送信された重畳画像28から指標画像(仮想ラインマーカ42)を特定し、駆動機構14を駆動制御する(図8のS210)。こうして、駆動制御部16は、光学式無人搬送車10を、仮想ラインマーカ42をトレースしながら移動させることができる。 Then, the drive control unit 16 of the optical automated guided vehicle 10 identifies the index image (virtual line marker 42) from the superimposed image 28 transmitted as data from the index generation unit 112, and drives and controls the drive mechanism 14 (FIG. 8 S210). In this way, the drive control unit 16 can move the optical guided vehicle 10 while tracing the virtual line marker 42.

ここでは、移動支援装置100で、一旦、仮想ラインマーカ42を重畳した重畳画像28を生成し、その重畳画像28を光学式無人搬送車10に読み取らせるようにしている。そのため、既存の光学式無人搬送車10をそのまま利用して、光学式無人搬送車10を適切に移動させることができる。 Here, the movement assisting device 100 temporarily generates the superimposed image 28 on which the virtual line marker 42 is superimposed, and causes the optical automated guided vehicle 10 to read the superimposed image 28. Therefore, the existing optical automated guided vehicle 10 can be used as it is, and the optical automated guided vehicle 10 can be moved appropriately.

また、ここでは、画像認識により、光学式無人搬送車10の位置32、姿勢34、方位36を導出している。したがって、指標が建物等の影となり、GPS(Global Positioning System)の電波が届かない状況であっても、光学式無人搬送車10を適切に移動させることができる。 Further, here, the position 32, the posture 34, and the azimuth 36 of the optical guided vehicle 10 are derived by image recognition. Therefore, the optical unmanned guided vehicle 10 can be appropriately moved even in a situation where the index is in the shadow of a building or the like and the GPS (Global Positioning System) radio wave does not reach.

また、仮に、光学式無人搬送車10の駆動制御部16の画像認識に異常が生じた場合においても、その異常(例えば、三原色それぞれを受光するセンサの一部欠如等)を特定できれば、指標生成部112が、その異常を補う(相殺する)ように、指標の形状、大きさ、幅、色彩、模様を調整することで、光学式無人搬送車10の駆動制御部16を正常に動作させることができる。 Further, even if an abnormality occurs in the image recognition of the drive control unit 16 of the optical automated guided vehicle 10, if the abnormality (for example, a partial lack of a sensor that receives each of the three primary colors) can be specified, the index generation can be performed. The section 112 adjusts the shape, size, width, color, and pattern of the index so as to compensate (cancel) the abnormality so that the drive control section 16 of the optical automated guided vehicle 10 operates normally. You can

なお、ここでは、指標生成部112が、単に移動経路40に基づいて指標画像を生成する例を挙げたが、かかる場合に限らず、指標生成部112が、所定時間以内に駆動制御部16が必要とする指標画像を生成してもよい。具体的に、指標生成部112は、位置情報に基づいて、移動経路40のうち、現在、どの位置32にいるかを特定し、その位置32から所定距離分、または、所定時間分の移動経路40のみを抽出する(切り出す)。そして、指標生成部112は、抽出された移動経路40に基づいて指標画像(仮想ラインマーカ42)を生成する。 In addition, here, the example in which the index generation unit 112 simply generates the index image based on the movement route 40 has been described, but the invention is not limited to such a case, and the index generation unit 112 causes the drive control unit 16 within The required index image may be generated. Specifically, the index generation unit 112 identifies which position 32 is currently on the movement route 40 based on the position information, and the movement route 40 for a predetermined distance or a predetermined time from the position 32. Extract (cut out) only. Then, the index generation unit 112 generates an index image (virtual line marker 42) based on the extracted movement route 40.

図13、図14は、指標生成部112の動作を説明するための説明図である。例えば、図13の上図のように、任意の光学式無人搬送車10aが、同一の地点Aを、時間を異にして通過する場合がある。また、任意の光学式無人搬送車10aの仮想ラインマーカ42aと他の光学式無人搬送車10bの仮想ラインマーカ42bとが任意の地点Bで交差または重複する場合がある。 13 and 14 are explanatory diagrams for explaining the operation of the index generation unit 112. For example, as shown in the upper diagram of FIG. 13, there is a case where an arbitrary automatic guided vehicle 10a passes through the same point A at different times. In addition, the virtual line marker 42a of the arbitrary optical automated guided vehicle 10a and the virtual line marker 42b of the other optical automated guided vehicle 10b may intersect or overlap at an arbitrary point B.

ここでは、指標生成部112が、所定時間以内に駆動制御部16が必要とする仮想ラインマーカ42のみを生成している。したがって、図13の下図のように、光学式無人搬送車10aは、直近の仮想ラインマーカ42aのみを参照でき、光学式無人搬送車10bは、直近の仮想ラインマーカ42bのみを参照できる。このように移動経路40が重なる場合であっても、光学式無人搬送車10を適切に移動させることができる。 Here, the index generator 112 generates only the virtual line marker 42 required by the drive controller 16 within a predetermined time. Therefore, as shown in the lower diagram of FIG. 13, the optical automatic guided vehicle 10a can refer only to the latest virtual line marker 42a, and the optical automatic guided vehicle 10b can refer only to the latest virtual line marker 42b. Even if the movement paths 40 overlap each other as described above, the optical automatic guided vehicle 10 can be appropriately moved.

また、移動経路40が重なる場合であって、ラインマーカの重複から逃れられない場合がある。例えば、図14のように、光学式無人搬送車10bの物理的なラインマーカ22が存在するところに、光学式無人搬送車10aが仮想ラインマーカ42を表示する場合である。この場合、地点Cでは、物理的なラインマーカ22と仮想ラインマーカ42との重複から逃れられない。このとき、指標生成部112は、仮想ラインマーカ42の形状、大きさ、幅、色彩、模様のいずれかを物理的なラインマーカ22と異なるように変更し、その旨、駆動制御部16に伝達する。駆動制御部16は、変更した仮想ラインマーカ42に基づいて駆動機構14を駆動制御する。 In addition, when the movement routes 40 overlap each other, there are cases where the line markers cannot be escaped. For example, as shown in FIG. 14, the optical unmanned guided vehicle 10a displays the virtual line marker 42 where the physical line marker 22 of the optical unmanned guided vehicle 10b exists. In this case, at the point C, the physical line marker 22 and the virtual line marker 42 cannot escape from overlapping. At this time, the index generation unit 112 changes one of the shape, size, width, color, and pattern of the virtual line marker 42 so as to be different from the physical line marker 22, and the fact is transmitted to the drive control unit 16. To do. The drive control unit 16 drives and controls the drive mechanism 14 based on the changed virtual line marker 42.

また、画像取得部108が、取得した外部画像20に、仮想ラインマーカ42と誤認識するおそれがある物体が映り込んでいるか否か判定し、映り込んでいたら、その物体を外部画像20から削除するため、パッチを当てる等の前処理を実行してもよい。 Further, the image acquisition unit 108 determines whether or not an object that may be erroneously recognized as the virtual line marker 42 is reflected in the acquired external image 20, and if it is reflected, the object is deleted from the external image 20. Therefore, preprocessing such as applying a patch may be executed.

例えば、駆動制御部16を模擬したシミュレーションプログラム(あるいは、駆動制御部16そのもの)に画像取得部108から取得した外部画像20を入力し、本来の駆動制御信号が得られるか否かを検知することで、誤認識するおそれがある物体が映り込んでいるか否かを判定することが可能である。なお、当該駆動制御信号は実際の駆動機構14には入力せず、あくまで検知のために用いる。 For example, inputting the external image 20 acquired from the image acquisition unit 108 to a simulation program simulating the drive control unit 16 (or the drive control unit 16 itself) and detecting whether or not the original drive control signal can be obtained. Thus, it is possible to determine whether or not an object that may be erroneously recognized is reflected. The drive control signal is not input to the actual drive mechanism 14 and is used only for detection.

また、処理時間の遅延を緩和するため、画像取得部108は、誤認識するおそれがある物体が映り込んでいると判定した外部画像20より、時系列で後の時間に取得される外部画像20から、その物体を削除する前処理を実行するようにしてもよい。 Further, in order to reduce the processing time delay, the image acquisition unit 108 acquires the external image 20 acquired at a later time in time series from the external image 20 that is determined to include an object that may be erroneously recognized. Therefore, pre-processing for deleting the object may be executed.

また、移動経路の途中で、仮想ラインマーカ42と物理的なラインマーカ22とを切り替える場合、その切り替え地点を示す指標画像を付すことで、仮想ラインマーカ42と物理的なラインマーカ22とのスムーズな切り替えを実現することが可能となる。 Further, when the virtual line marker 42 and the physical line marker 22 are switched in the middle of the movement route, by adding an index image showing the switching point, the virtual line marker 42 and the physical line marker 22 are smoothly moved. It is possible to realize various switching.

こうして、重複する複数のラインマーカが区別され、光学式無人搬送車10は、自車両が移動する移動経路40のみを参照可能となる。したがって、移動経路40が重なる場合であっても、光学式無人搬送車10を適切に移動させることが可能となる。 In this way, the plurality of overlapping line markers are distinguished, and the optical guided vehicle 10 can refer only to the movement route 40 along which the own vehicle moves. Therefore, even if the movement routes 40 overlap, the optical guided vehicle 10 can be appropriately moved.

図15、図16は、移動支援装置100の他の構成を説明するための説明図である。上述した実施形態では、撮像部12と、駆動機構14と、駆動制御部16とを有する光学式無人搬送車10に、画像取得部108と、位置情報生成部110と、指標生成部112と、画像重畳部114とを有する移動支援装置100を加える構成を挙げて説明した。しかし、かかる場合に限らず、図15のように、撮像部12と、駆動機構14と、駆動制御部16と、画像取得部108と、位置情報生成部110と、指標生成部112と、画像重畳部114とが一体的に形成された移動支援装置100も提供される。 15 and 16 are explanatory diagrams for explaining another configuration of the movement support device 100. In the above-described embodiment, the image acquisition unit 108, the position information generation unit 110, the index generation unit 112, the optical unmanned guided vehicle 10 having the imaging unit 12, the drive mechanism 14, and the drive control unit 16. The configuration in which the movement support device 100 including the image superimposing unit 114 is added has been described. However, not limited to this case, as illustrated in FIG. 15, the imaging unit 12, the drive mechanism 14, the drive control unit 16, the image acquisition unit 108, the position information generation unit 110, the index generation unit 112, and the image. There is also provided a movement support device 100 integrally formed with the superposition unit 114.

また、上述した実施形態では、光学式無人搬送車10の撮像部12の後段に、移動支援装置100の画像取得部108と、位置情報生成部110と、指標生成部112と、画像重畳部114とを接続する例を挙げて説明した。しかし、かかる場合に限らず、図16のように、移動支援装置100が、画像取得部108、位置情報生成部110、指標生成部112、画像重畳部114に加え、撮像部116と、重畳画像を表示する画像表示部118とを有するとしてもよい。この場合、既存の光学式無人搬送車10の撮像部12の前に画像表示部118が位置するように移動支援装置100を載置すればよい。 Further, in the above-described embodiment, the image acquisition unit 108 of the movement support apparatus 100, the position information generation unit 110, the index generation unit 112, and the image superposition unit 114 are provided after the imaging unit 12 of the optical guided vehicle 10. An example of connecting and has been described. However, not limited to such a case, as illustrated in FIG. 16, the movement support device 100 includes the image capturing unit 116, the superimposed image in addition to the image acquisition unit 108, the position information generation unit 110, the index generation unit 112, and the image superimposition unit 114. May be included in the image display unit 118. In this case, the movement support apparatus 100 may be placed so that the image display unit 118 is located in front of the image pickup unit 12 of the existing optical guided vehicle 10.

以上、添付図面を参照しながら一実施形態について説明したが、本開示は上記実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変形例または修正例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。 Although one embodiment has been described with reference to the accompanying drawings, it goes without saying that the present disclosure is not limited to the above embodiment. It is obvious to those skilled in the art that various variations or modifications can be conceived within the scope of the claims, and it should be understood that they also belong to the technical scope of the present disclosure. To be done.

例えば、上述した実施形態においては、位置情報生成部110が、3次元マップ30を用いて光学式無人搬送車10の位置32、姿勢34、方位36を特定する例を挙げて説明した。しかし、かかる場合に限らず、GPSにより光学式無人搬送車10の位置および方位を特定し、INS(Inertial Navigation System)等を用いることにより自車両の姿勢を特定してもよい。 For example, in the above-described embodiment, the position information generation unit 110 has been described as an example in which the position 32, the posture 34, and the azimuth 36 of the optical guided vehicle 10 are specified using the three-dimensional map 30. However, not limited to such a case, the position and orientation of the optical guided vehicle 10 may be specified by GPS, and the attitude of the host vehicle may be specified by using INS (Inertial Navigation System) or the like.

また、上述した実施形態においては、位置情報生成部110が、画像取得部108が取得した1の外部画像20に基づいて光学式無人搬送車10の位置情報を生成し、画像重畳部114は、その1の外部画像20に指標画像を重畳して重畳画像28を生成する例を挙げて説明した。しかし、位置情報生成部110が位置情報を生成するために必要な撮像範囲(画角)と、重畳画像28の撮像範囲(画角)が異なる場合もある。そこで、撮像部12を2つ設けるか、もしくは、1の撮像部12において相異なる2つの撮像範囲で異なる外部画像20を生成する。具体的に、撮像部12は、位置情報生成部110が位置情報を生成するために必要な第1の撮像範囲の外部画像20、および、第1の撮像範囲とは異なる第2の撮像範囲の外部画像20をそれぞれ生成する。 Further, in the above-described embodiment, the position information generation unit 110 generates the position information of the optical guided vehicle 10 based on the one external image 20 acquired by the image acquisition unit 108, and the image superposition unit 114 The example in which the index image is superimposed on the first external image 20 to generate the superimposed image 28 has been described. However, the imaging range (angle of view) required for the position information generation unit 110 to generate the position information may be different from the imaging range (angle of view) of the superimposed image 28. Therefore, two image pickup units 12 are provided, or one image pickup unit 12 generates different external images 20 in two different image pickup ranges. Specifically, the image capturing unit 12 includes an external image 20 of the first image capturing range necessary for the position information generating unit 110 to generate the position information, and a second image capturing range different from the first image capturing range. Each external image 20 is generated.

この場合、画像取得部108は、第1の撮像範囲の外部画像20、および、第2の撮像範囲の外部画像20をそれぞれ取得する。位置情報生成部110は、第1の撮像範囲の外部画像20に基づいて光学式無人搬送車10の位置情報を生成する。画像重畳部114は、第2の撮像範囲の外部画像20に指標画像を重畳して重畳画像28を生成する。 In this case, the image acquisition unit 108 respectively acquires the external image 20 in the first imaging range and the external image 20 in the second imaging range. The position information generation unit 110 generates the position information of the optical guided vehicle 10 based on the external image 20 in the first imaging range. The image superimposing unit 114 superimposes the index image on the external image 20 in the second imaging range to generate the superimposed image 28.

また、上述した実施形態においては、指標生成部112が、光学式無人搬送車10の位置32、姿勢34、方位36に基づいて、移動経路40を摸した仮想ラインマーカ42を生成する例を挙げて説明した。しかし、かかる場合に限らず、3次元マップ30を用いさえすれば、様々な位置から重畳画像28を参照することができる。例えば、VR(Virtual Reality)ヘッドマウントは、それを着用しているユーザの位置32、姿勢34、方位36に基づき、移動経路40を摸した仮想ラインマーカ42を表示する。 Moreover, in the above-described embodiment, an example in which the index generating unit 112 generates the virtual line marker 42 that traces the movement route 40 based on the position 32, the posture 34, and the azimuth 36 of the optical guided vehicle 10 is given. Explained. However, not limited to such a case, the superimposed image 28 can be referred to from various positions as long as the three-dimensional map 30 is used. For example, a VR (Virtual Reality) head mount displays a virtual line marker 42 that traces a movement path 40 based on the position 32, posture 34, and azimuth 36 of the user wearing the VR head mount.

したがって、ユーザは、実際には存在しない仮想ラインマーカ42等の指標画像を、VRヘッドマウントを通じて仮想空間的に確認することができる。また、複数の光学式無人搬送車10が一度に移動する場合であっても、目的とする光学式無人搬送車10を選択することで、その光学式無人搬送車10の指標画像のみを参照することが可能となる。 Therefore, the user can confirm the index image such as the virtual line marker 42 that does not actually exist in the virtual space through the VR head mount. Further, even when a plurality of optical automatic guided vehicles 10 move at once, by selecting the target optical automatic guided vehicle 10, only the index image of the optical automatic guided vehicle 10 is referred to. It becomes possible.

本開示は、移動支援装置に利用することができる。 The present disclosure can be used for a movement support device.

10 光学式無人搬送車
12 撮像部
14 駆動機構
16 駆動制御部
20 外部画像
22 ラインマーカ
24 基準線
28 重畳画像
30 3次元マップ
38 特徴点
40 移動経路
42 仮想ラインマーカ
100 移動支援装置
108 画像取得部
110 位置情報生成部
112 指標生成部
114 画像重畳部
10 optical unmanned guided vehicle 12 imaging unit 14 drive mechanism 16 drive control unit 20 external image 22 line marker 24 reference line 28 superimposed image 30 three-dimensional map 38 feature point 40 movement route 42 virtual line marker 100 movement support device 108 image acquisition unit 110 Position Information Generation Unit 112 Index Generation Unit 114 Image Superposition Unit

Claims (6)

外部を撮像した外部画像を取得する画像取得部と、
駆動制御に用いられる指標画像を生成する指標生成部と、
前記外部画像に前記指標画像を重畳して重畳画像を生成し、搬送車にデータとして出力する画像重畳部と、
を備える移動支援装置。
An image acquisition unit that acquires an external image of the outside,
An index generation unit that generates an index image used for drive control,
An image superimposing unit that superimposes the index image on the external image to generate a superposed image, and outputs the superposed image as data to the transport vehicle.
A movement support device.
前記重畳画像から前記指標画像を抽出して車両の駆動制御を行う駆動制御部を備える請求項1に記載の移動支援装置。 The movement support device according to claim 1, further comprising a drive control unit that extracts the index image from the superimposed image and controls the drive of the vehicle. 前記画像取得部で取得した外部画像に基づいて前記搬送車の位置情報を生成する位置情報生成部を備え、
前記指標生成部は、前記位置情報に基づいて前記指標画像を生成する請求項1または2に記載の移動支援装置。
A position information generation unit that generates position information of the transport vehicle based on an external image acquired by the image acquisition unit;
The movement support device according to claim 1, wherein the index generation unit generates the index image based on the position information.
前記画像取得部は、第1の撮像範囲の外部画像および第2の撮像範囲の外部画像をそれぞれ取得し、
前記位置情報生成部は、前記第1の撮像範囲の外部画像に基づいて前記搬送車の位置情報を生成し、
前記画像重畳部は、前記第2の撮像範囲の外部画像に前記指標画像を重畳する請求項3に記載の移動支援装置。
The image acquisition unit acquires an external image of the first imaging range and an external image of the second imaging range, respectively.
The position information generation unit generates position information of the transport vehicle based on an external image of the first imaging range,
The movement assistance device according to claim 3, wherein the image superimposing unit superimposes the index image on an external image in the second imaging range.
前記指標生成部は、所定時間以内に前記駆動制御部が必要とする前記指標画像を抽出する請求項1から4のいずれか1項に記載の移動支援装置。 The movement support device according to claim 1, wherein the index generation unit extracts the index image required by the drive control unit within a predetermined time. 前記指標生成部は、前記外部画像の撮像状態に拘わらず、形状、大きさ、幅、色彩、模様の少なくともいずれかが特定された前記指標画像を生成する請求項1から5のいずれか1項に記載の移動支援装置。 6. The index generation unit generates the index image in which at least one of shape, size, width, color, and pattern is specified regardless of the imaging state of the external image. The movement support device described in 1.
JP2019002154A 2019-01-09 2019-01-09 Movement support device Pending JP2020112952A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019002154A JP2020112952A (en) 2019-01-09 2019-01-09 Movement support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019002154A JP2020112952A (en) 2019-01-09 2019-01-09 Movement support device

Publications (1)

Publication Number Publication Date
JP2020112952A true JP2020112952A (en) 2020-07-27

Family

ID=71667033

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019002154A Pending JP2020112952A (en) 2019-01-09 2019-01-09 Movement support device

Country Status (1)

Country Link
JP (1) JP2020112952A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024004317A1 (en) * 2022-06-28 2024-01-04 ソニーグループ株式会社 Mobile body control device, mobile body control method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01188910A (en) * 1988-01-22 1989-07-28 Toyota Autom Loom Works Ltd Image processing method for traveling mark of image type unmanned vehicle
JP2010152833A (en) * 2008-12-26 2010-07-08 Ihi Aerospace Co Ltd Unmanned mobile body system
JP2018197964A (en) * 2017-05-24 2018-12-13 日産自動車株式会社 Control method of vehicle, and device thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01188910A (en) * 1988-01-22 1989-07-28 Toyota Autom Loom Works Ltd Image processing method for traveling mark of image type unmanned vehicle
JP2010152833A (en) * 2008-12-26 2010-07-08 Ihi Aerospace Co Ltd Unmanned mobile body system
JP2018197964A (en) * 2017-05-24 2018-12-13 日産自動車株式会社 Control method of vehicle, and device thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024004317A1 (en) * 2022-06-28 2024-01-04 ソニーグループ株式会社 Mobile body control device, mobile body control method, and program

Similar Documents

Publication Publication Date Title
JP6926917B2 (en) Offline verification system
KR100948161B1 (en) Camera corrector
US8571265B2 (en) Measurement apparatus, measurement method, and feature identification apparatus
JP5911934B2 (en) Contour measurement device and robot system
KR101973917B1 (en) Three-dimensional measuring device and its supporting method of measurement
JP6491574B2 (en) AR information display device
KR20180088149A (en) Method and apparatus for guiding vehicle route
CN108896994A (en) A kind of automatic driving vehicle localization method and equipment
JP2016149132A (en) System and method for prediction in driver assist system of vehicle
US11148299B2 (en) Teaching apparatus and teaching method for robots
JP2016057108A (en) Arithmetic device, arithmetic system, arithmetic method and program
JP2002172575A (en) Teaching device
KR20180132917A (en) A map data update device, a map data update method, and a map data update program
JP7151073B2 (en) Display device and computer program
WO2009084126A1 (en) Navigation device
CN109444916A (en) The unmanned travelable area determining device of one kind and method
JP2903964B2 (en) Three-dimensional position and posture recognition method based on vision and three-dimensional position and posture recognition device based on vision
JP5557472B2 (en) Road lane data generation device, road lane data generation method, and road lane data generation program
JP2022012241A (en) Lane change plan apparatus and lane change planning computer program
JP2019185599A (en) Route simulation device
RU2562368C1 (en) Three-dimensional (3d) mapping method
JP2020112952A (en) Movement support device
WO2021115236A1 (en) Method and device for positioning by means of scene marking
US20230070281A1 (en) Methods and systems of generating camera models for camera calibration
JP2019066292A (en) Video display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230420

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230711