JP3242392U - autonomous vehicle - Google Patents

autonomous vehicle Download PDF

Info

Publication number
JP3242392U
JP3242392U JP2023001267U JP2023001267U JP3242392U JP 3242392 U JP3242392 U JP 3242392U JP 2023001267 U JP2023001267 U JP 2023001267U JP 2023001267 U JP2023001267 U JP 2023001267U JP 3242392 U JP3242392 U JP 3242392U
Authority
JP
Japan
Prior art keywords
markers
recognition device
recognition
autonomous vehicle
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023001267U
Other languages
Japanese (ja)
Inventor
貴博 山野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Murata Manufacturing Co Ltd
Original Assignee
Murata Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Murata Manufacturing Co Ltd filed Critical Murata Manufacturing Co Ltd
Priority to JP2023001267U priority Critical patent/JP3242392U/en
Application granted granted Critical
Publication of JP3242392U publication Critical patent/JP3242392U/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

Figure 0003242392000001

【課題】棚の構造を容易に特定できる自律走行車両を提供する。
【解決手段】自律走行車両10は、自律走行車両より左の領域、又は、自律走行車両より右の領域を撮影する撮像装置12と、レーザ光を発するレーザ光源を含むレーザ光照射装置13と、撮像装置より左又は右において前後方向及び上下方向に行列状に配置された複数のマーカを認識する認識装置14であって、撮像装置から複数のマーカ及びレーザ光を含む画像データを取得する認識装置と、を備える。
【選択図】図1

Figure 0003242392000001

An autonomous vehicle capable of easily identifying the structure of a shelf is provided.
An autonomously traveling vehicle (10) includes an imaging device (12) that captures an area to the left of the autonomously traveling vehicle or an area to the right of the autonomously traveling vehicle, a laser light irradiation device (13) that includes a laser light source that emits laser light, A recognition device 14 that recognizes a plurality of markers arranged in a matrix in the front-rear direction and the vertical direction on the left or right of an imaging device, and acquires image data including a plurality of markers and laser light from the imaging device. And prepare.
[Selection drawing] Fig. 1

Description

本考案は、マーカを認識する自律走行車両に関する。 The present invention relates to autonomous vehicles that recognize markers.

従来のマーカを認識する自律走行車両に関する考案又は発明としては、例えば、特許文献1に記載の計測システムが知られている。この計測システムでは、倉庫内に配置された棚のCADデータを用いて、棚の中の荷物領域の形状データを抽出する。 As a device or invention related to an autonomous vehicle that recognizes a conventional marker, for example, a measurement system described in Patent Literature 1 is known. In this measurement system, CAD data of a shelf arranged in a warehouse is used to extract shape data of a luggage area in the shelf.

国際公開第2017/175312号WO2017/175312

ところで、特許文献1に記載の計測システムにおいて、CADデータのような複雑なデータを使用することなく、棚の構造を容易に特定したいという要望がある。 By the way, in the measurement system described in Patent Literature 1, there is a demand to easily identify the structure of the shelf without using complicated data such as CAD data.

そこで、本考案の目的は、棚の構造を容易に特定できる自律走行車両を提供することである。 SUMMARY OF THE INVENTION It is therefore an object of the present invention to provide an autonomous vehicle that can easily identify the structure of a shelf.

本考案の一形態に係る自律走行車両は、
自律走行車両であって、
前記自律走行車両より左の領域、又は、前記自律走行車両より右の領域を撮影する撮像装置と、
レーザ光を発するレーザ光源を含むレーザ光照射装置と、
前記撮像装置より左又は右において前後方向及び上下方向に行列状に配置された複数のマーカを認識する認識装置であって、前記撮像装置から前記複数のマーカ及び前記レーザ光を含む画像データを取得する認識装置と、
を備える。
An autonomous vehicle according to one aspect of the present invention includes:
an autonomous vehicle,
an imaging device that captures an area to the left of the autonomous vehicle or an area to the right of the autonomous vehicle;
a laser light irradiation device including a laser light source that emits laser light;
A recognition device that recognizes a plurality of markers arranged in a matrix in the front-rear direction and the vertical direction on the left or right from the imaging device, and acquires image data including the plurality of markers and the laser beam from the imaging device. a recognition device that
Prepare.

本考案に係る自律走行車両によれば、棚の構造を容易に特定できる。 According to the autonomous vehicle according to the present invention, it is possible to easily identify the structure of the shelf.

図1は、倉庫内の上面図である。FIG. 1 is a top view of the inside of a warehouse. 図2は、倉庫内の上面図である。FIG. 2 is a top view of the interior of the warehouse. 図3は、撮像装置12が生成した画像データである。FIG. 3 shows image data generated by the imaging device 12 . 図4は、認識装置14が実行するフローチャートである。FIG. 4 is a flow chart executed by the recognition device 14 . 図5は、撮像装置12が生成した画像データである。FIG. 5 shows image data generated by the imaging device 12 . 図6は、撮像装置12が生成した画像データである。FIG. 6 shows image data generated by the imaging device 12 . 図7は、撮像装置12が生成した画像データである。FIG. 7 shows image data generated by the imaging device 12 . 図8は、撮像装置12が生成した画像データである。FIG. 8 shows image data generated by the imaging device 12 . 図9は、認識装置14aが実行するフローチャートである。FIG. 9 is a flowchart executed by the recognition device 14a. 図10は、撮像装置12が生成した画像データである。FIG. 10 shows image data generated by the imaging device 12 . 図11は、撮像装置12が生成した画像データである。FIG. 11 shows image data generated by the imaging device 12 . 図12は、撮像装置12が生成した画像データである。FIG. 12 shows image data generated by the imaging device 12 .

[第1の実施形態]
[認識装置の構造]
以下に、本考案の実施形態に係る自律走行車両10の構造について図面を参照しながら説明する。図1は、倉庫内の上面図である。図2は、倉庫内の上面図である。図3は、撮像装置12が生成した画像データである。
[First embodiment]
[Structure of recognition device]
A structure of an autonomous vehicle 10 according to an embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a top view of the inside of a warehouse. FIG. 2 is a top view of the interior of the warehouse. FIG. 3 shows image data generated by the imaging device 12 .

本明細書において、自律走行車両10の前後方向を単に前後方向と呼ぶ。自律走行車両10の左右方向を単に左右方向と呼ぶ。自律走行車両10の上下方向を単に上下方向と呼ぶ。 In this specification, the longitudinal direction of the autonomous vehicle 10 is simply referred to as the longitudinal direction. The left-right direction of the autonomous vehicle 10 is simply referred to as the left-right direction. The vertical direction of the autonomous vehicle 10 is simply referred to as the vertical direction.

図1に示すように、倉庫には、3列の棚T1~T3が前後方向に延びている。棚T1~T3は、左から右へとこの順に並んでいる。棚T1~T3は、同じ構造を有するので、棚T1を例に挙げて説明する。棚T1は、図3に示すように、前後方向及び上下方向に延びる複数本のフレームFが組み合わされることにより、格子構造を有している。これにより、棚T1は、長方形状の空間が上下方向及び前後方向に行列状に配列された構造を有している。そして、マーカM11,M21,M31,M41,M12,M22,M32,M42は、格子構造の格子点のそれぞれに位置している。これにより、マーカM11,M21,M31,M41,M12,M22,M32,M42は、撮像装置12より左において前後方向及び上下方向に行列状に配列されている。複数のマーカM11,M21,M31,M41,M12,M22,M32,M42は、m行n列に配列されている。m及びnは、2以上の整数である。本実施形態では、複数のマーカM11,M21,M31,M41,M12,M22,M32,M42は、4行2列に配列されている。 As shown in FIG. 1, three rows of shelves T1 to T3 extend in the front-rear direction in the warehouse. The shelves T1 to T3 are arranged in this order from left to right. Since the shelves T1 to T3 have the same structure, the shelf T1 will be described as an example. As shown in FIG. 3, the shelf T1 has a lattice structure by combining a plurality of frames F extending in the front-back direction and the up-down direction. Thus, the shelf T1 has a structure in which rectangular spaces are arranged in a matrix in the vertical direction and the front-rear direction. Markers M11, M21, M31, M41, M12, M22, M32, and M42 are positioned at respective lattice points of the lattice structure. As a result, the markers M11, M21, M31, M41, M12, M22, M32, and M42 are arranged in a matrix on the left of the imaging device 12 in the front-back direction and the up-down direction. A plurality of markers M11, M21, M31, M41, M12, M22, M32, and M42 are arranged in m rows and n columns. m and n are integers of 2 or more. In this embodiment, the plurality of markers M11, M21, M31, M41, M12, M22, M32, M42 are arranged in 4 rows and 2 columns.

ここで、マーカMijと表記した場合に、iは、行を示す。jは、列を示す。iは、1以上m以下の整数である。jは、1以上n以下の整数である。なお、格子構造の交点には、マーカM11,M21,M31,M41,M12,M22,M32,M42以外の複数のマーカが配列されている。ただし、これらの複数のマーカについては説明を省略する。マーカM11,M21,M31,M41,M12,M22,M32,M42は、例えば、ARマーカやQRコード(登録商標)等である。従って、マーカM11,M21,M31,M41,M12,M22,M32,M42は、情報を含んでいる。 Here, when a marker Mij is written, i indicates a row. j indicates a column. i is an integer of 1 or more and m or less. j is an integer of 1 or more and n or less. A plurality of markers other than the markers M11, M21, M31, M41, M12, M22, M32, and M42 are arranged at the intersections of the lattice structure. However, description of these markers will be omitted. The markers M11, M21, M31, M41, M12, M22, M32, and M42 are, for example, AR markers, QR codes (registered trademark), or the like. Markers M11, M21, M31, M41, M12, M22, M32, M42 therefore contain information.

なお、複数のマーカは、棚T2にも配列されている。すなわち、複数のマーカは、撮像装置12より右においても前後方向及び上下方向に行列状に配列されている。ただし、棚T2の複数のマーカは、棚T1の複数のマーカと同じであるので説明を省略する。なお、複数のマーカは、棚T3にも配列されている。 A plurality of markers are also arranged on the shelf T2. That is, the plurality of markers are arranged in a matrix in the front-rear direction and the up-down direction even on the right side of the imaging device 12 . However, since the plurality of markers on shelf T2 are the same as the plurality of markers on shelf T1, description thereof will be omitted. A plurality of markers are also arranged on the shelf T3.

自律走行車両10は、例えば、フォークリフトやAGV(Automatic Guided Vehicle)、掃除ロボット等である。自律走行車両10は、棚T1~T3に荷物を搬入する。また、自律走行車両10は、棚T1~T3から荷物を搬出する。自律走行車両10は、棚T1と棚T2との間を走行した後に、棚T2と棚T3との間を走行する。自律走行車両10は、撮像装置12、レーザ光照射装置13及び認識装置14を備えている。 The autonomous traveling vehicle 10 is, for example, a forklift, an AGV (Automatic Guided Vehicle), a cleaning robot, or the like. The autonomous vehicle 10 carries cargo into the shelves T1 to T3. Also, the autonomous vehicle 10 unloads packages from the shelves T1 to T3. After traveling between the shelves T1 and T2, the autonomous vehicle 10 travels between the shelves T2 and T3. The autonomous vehicle 10 includes an imaging device 12 , a laser beam irradiation device 13 and a recognition device 14 .

撮像装置12は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像装置である。撮像装置12は、図1に示すように、自律走行車両10より左の領域、及び、自律走行車両10より右の領域を撮影している。 The imaging device 12 is a solid-state imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The imaging device 12 captures an area to the left of the autonomous vehicle 10 and an area to the right of the autonomous vehicle 10, as shown in FIG.

レーザ光照射装置13は、レーザ光Lを発するレーザ光源(図示せず)を含んでいる。レーザ光Lは、直進する。レーザ光照射装置13の上下方向についての位置は、撮像装置12の上下方向についての位置と異なる。本実施形態では、レーザ光照射装置13は、撮像装置12の下に位置している。レーザ光照射装置13は、図2に示すように、自律走行車両10より左の領域、及び、自律走行車両10より右の領域にレーザ光Lを照射している。本実施形態では、レーザ光Lは、上下方向に直交する水平面上を直進する。 The laser light irradiation device 13 includes a laser light source (not shown) that emits laser light L. As shown in FIG. The laser light L travels straight. The position of the laser beam irradiation device 13 in the vertical direction is different from the position of the imaging device 12 in the vertical direction. In this embodiment, the laser beam irradiation device 13 is positioned below the imaging device 12 . The laser beam irradiation device 13 irradiates the area on the left of the autonomous vehicle 10 and the area on the right of the autonomous vehicle 10 with the laser beam L, as shown in FIG. 2 . In this embodiment, the laser light L travels straight on a horizontal plane perpendicular to the vertical direction.

認識装置14は、CPU(Central Processing Unit)やMPU(Micro Processor Unit)等の演算装置である。認識装置14は、撮像装置12より左及び右において前後方向及び上下方向に行列状に配列されたマーカM11,M21,M31,M41,M12,M22,M32,M42を認識する。以下に、認識装置14が行う動作について図面を参照しながら説明する。図4は、認識装置14が実行するフローチャートである。図5乃至図7は、撮像装置12が生成した画像データである。認識装置14は、図示しない記憶装置が記憶しているプログラムを実行することにより、図4のフローチャートを実行する。 The recognition device 14 is an arithmetic device such as a CPU (Central Processing Unit) or an MPU (Micro Processor Unit). The recognition device 14 recognizes markers M11, M21, M31, M41, M12, M22, M32, and M42 arranged in a matrix on the left and right sides of the imaging device 12 in the front-rear direction and the vertical direction. The operations performed by the recognition device 14 will be described below with reference to the drawings. FIG. 4 is a flow chart executed by the recognition device 14 . 5 to 7 are image data generated by the imaging device 12. FIG. The recognition device 14 executes the flowchart of FIG. 4 by executing a program stored in a storage device (not shown).

まず、認識装置14は、撮像装置12からマーカM11,M21,M31,M41,M12,M22,M32,M42及びレーザ光Lを含む画像データを取得する(取得ステップ:ステップS1)。以下では、自律走行車両10より左の領域を撮像した画像データを例に挙げて説明する。 First, the recognition device 14 acquires image data including the markers M11, M21, M31, M41, M12, M22, M32, and M42 and the laser light L from the imaging device 12 (acquisition step: step S1). In the following, image data obtained by capturing an area on the left side of the autonomous vehicle 10 will be described as an example.

次に、認識装置14は、図3に示すように、画像データに基づいて、マーカM11,M21,M31,M41,M12,M22,M32,M42の内の2つ以上のマーカM11,M31,M41,M22,M32を2つ以上の認識マーカm11,m31,m41,m22として認識する(第1認識ステップ:ステップS2)。換言すれば、認識装置14は、マーカM21,M12,M32,M42を認識していない。認識装置14がマーカM21,M12,M32,M42を認識していない理由は、例えば、マーカM21,M12,M32,M42付近の照度が不足していることである。 Next, as shown in FIG. 3, the recognition device 14 detects two or more markers M11, M31, M41 among the markers M11, M21, M31, M41, M12, M22, M32, M42 based on the image data. , M22 and M32 are recognized as two or more recognition markers m11, m31, m41 and m22 (first recognition step: step S2). In other words, the recognition device 14 does not recognize the markers M21, M12, M32, M42. The reason why the recognition device 14 does not recognize the markers M21, M12, M32 and M42 is, for example, that the illuminance around the markers M21, M12, M32 and M42 is insufficient.

次に、認識装置14は、図5に示すように、レーザ光Lの軌跡の延長線であるレーザ光線LBを特定する(レーザ光線特定ステップ:ステップS3)。なお、認識装置14は、画像データにおけるレーザ光Lの位置を予め記憶していることによりレーザ光線LBを特定してもよいし、ステップS1(取得ステップ)において取得した画像データを解析することによりレーザ光線LBを特定してもよい。 Next, the recognition device 14 identifies a laser beam LB that is an extension of the trajectory of the laser beam L, as shown in FIG. 5 (laser beam identification step: step S3). Note that the recognition device 14 may specify the laser beam LB by storing in advance the position of the laser beam L in the image data, or by analyzing the image data acquired in step S1 (acquisition step). A laser beam LB may be specified.

次に、認識装置14は、図5に示すように、撮像装置12のアイレベルELを特定する(アイレベル特定ステップ:ステップS4)。なお、認識装置14は、画像データにおけるアイレベルELの位置を予め記憶していることにより撮像装置12のアイレベルELを特定してもよいし、ステップS1(取得ステップ)において取得した画像データを解析することによりアイレベルELを特定してもよい。 Next, the recognition device 14 identifies the eye level EL of the imaging device 12 as shown in FIG. 5 (eye level identification step: step S4). Note that the recognition device 14 may specify the eye level EL of the imaging device 12 by storing in advance the position of the eye level EL in the image data, or the image data acquired in step S1 (acquisition step). The analysis may identify the eye level EL.

次に、認識装置14は、図5に示すように、アイレベルELとレーザ光線LBとの交点である消失点Oを特定する(消失点特定ステップ:ステップS5)。 Next, as shown in FIG. 5, the recognition device 14 identifies a vanishing point O that is the intersection of the eye level EL and the laser beam LB (vanishing point identifying step: step S5).

次に、認識装置14は、図6に示すように、ステップS2(第1認識ステップ)において認識した2つ以上の認識マーカm11,m31,m41,m22の内の1つの認識マーカm11と消失点Oとを通過する第1パース線PL11を特定する(第1パース線特定ステップ:ステップS6)。更に、認識装置14は、同じ動作を繰り返すことにより、第1パース線PL12,PL13,PL14も特定する。 Next, as shown in FIG. 6, the recognition device 14 recognizes one recognition marker m11 among the two or more recognition markers m11, m31, m41, and m22 recognized in step S2 (first recognition step) and a vanishing point. A first perspective line PL11 passing through O is specified (first perspective line specifying step: step S6). Further, the recognition device 14 also identifies the first perspective lines PL12, PL13, PL14 by repeating the same operation.

次に、第1パース線PL11上に位置し、かつ、ステップS2(第1認識ステップ)において認識されていない1以上の未認識マーカm21の位置を認識する(第2認識ステップ)。第2認識ステップは、以下の列線特定ステップ及び位置認識ステップを含んでいる。 Next, the position of one or more unrecognized markers m21 located on the first perspective line PL11 and not recognized in step S2 (first recognition step) is recognized (second recognition step). The second recognition step includes the following column line identification step and position recognition step.

まず、認識装置14は、図7に示すように、第1列(第j列)に認識マーカm11,m31,m41が位置する場合には、第1列(第j列)を通過する第1列線L1(第j列線)を特定する(列線特定ステップ:S7)。第1列線L1は、上下方向に延びている。そして、認識装置14は、第1列線L1(第j列線)と第1パース線PL12との交点に未認識マーカm21が位置していると認識する(位置認識ステップ:ステップS8)。このように、第1列線L1がアイレベルELと直交しているので、認識装置14は、第1列線L1上の1つのマーカを認識できれば、第1列線L1上の他のマーカも認識できる。これにより、認識装置14は、マーカM21を認識する。 First, as shown in FIG. 7, when the recognition markers m11, m31, and m41 are positioned in the first column (j-th column), the recognition device 14 detects the first line passing through the first column (j-th column). Column line L1 (jth column line) is specified (column line specifying step: S7). The first column line L1 extends vertically. Then, the recognition device 14 recognizes that the unrecognized marker m21 is positioned at the intersection of the first column line L1 (jth column line) and the first perspective line PL12 (position recognition step: step S8). Thus, since the first column line L1 is orthogonal to the eye level EL, if the recognition device 14 can recognize one marker on the first column line L1, the other markers on the first column line L1 can also be recognized. recognizable. Thereby, the recognition device 14 recognizes the marker M21.

なお、ステップS7,S8を繰り返すことにより、認識装置14は、第2列線L2(第j列線)と第1パース線PL11との交点に未認識マーカm12が位置していると認識する。また、認識装置14は、第2列線L2(第j列線)と第1パース線PL13との交点に未認識マーカm32が位置していると認識する。また、認識装置14は、第2列線L2(第j列線)と第1パース線PL14との交点に未認識マーカm42が位置していると認識する。以上のステップS1~S8により、認識装置14は、マーカM11,M21,M31,M41,M12,M22,M32,M42を認識する。 By repeating steps S7 and S8, the recognition device 14 recognizes that the unrecognized marker m12 is positioned at the intersection of the second column line L2 (jth column line) and the first perspective line PL11. The recognition device 14 also recognizes that the unrecognized marker m32 is positioned at the intersection of the second column line L2 (jth column line) and the first perspective line PL13. The recognition device 14 also recognizes that the unrecognized marker m42 is positioned at the intersection of the second column line L2 (jth column line) and the first perspective line PL14. Through the above steps S1 to S8, the recognition device 14 recognizes the markers M11, M21, M31, M41, M12, M22, M32 and M42.

この後、認識装置14は、マーカM11,M21,M31,M41,M12,M22,M32,M42に含まれる情報に基づいて、棚T1の構造を特定する。なお、認識装置14は、自律走行車両10より右の領域を撮像した画像データに基づいて、棚T2の構造を特定する。ただし、棚T2の構造の特定の詳細は、棚T1の構造の特定の詳細と同じであるので説明を省略する。 After that, the recognition device 14 identifies the structure of the shelf T1 based on the information contained in the markers M11, M21, M31, M41, M12, M22, M32 and M42. Note that the recognition device 14 identifies the structure of the shelf T2 based on the image data obtained by imaging the area to the right of the autonomous vehicle 10 . However, the specific details of the structure of shelf T2 are the same as the specific details of the structure of shelf T1 and will not be described.

[効果]
認識装置14によれば、棚T1の構造を容易に特定できる。より詳細には、比較例に係る認識装置が未認識マーカm21,m12,m32,m42の位置を認識するためには、消失点Oを特定すればよい。これにより、比較例に係る認識装置は、認識マーカm11,m31,m41,m22の内の1つの認識マーカm11と消失点Oとを通過する第1パース線PL11を特定できる。そして、比較例に係る認識装置は、第1パース線PL11を用いて、未認識マーカm21の位置を認識することができる。比較例に係る認識装置は、このような消失点Oを特定するために、通常であれば、2本のパース線を特定し、2本のパース線の交点を消失点Oと特定する必要がある。この場合、比較例に係る認識装置は、2本のパース線を特定するために、4つの認識マーカを認識している必要がある。
[effect]
The recognition device 14 can easily identify the structure of the shelf T1. More specifically, the vanishing point O should be specified in order for the recognition device according to the comparative example to recognize the positions of the unrecognized markers m21, m12, m32, and m42. Thereby, the recognition device according to the comparative example can specify the first perspective line PL11 passing through the vanishing point O and one of the recognition markers m11, m31, m41, and m22. Then, the recognition device according to the comparative example can recognize the position of the unrecognized marker m21 using the first perspective line PL11. In order to specify such a vanishing point O, the recognition device according to the comparative example normally needs to specify two perspective lines and specify the intersection of the two perspective lines as the vanishing point O. be. In this case, the recognition device according to the comparative example needs to recognize four recognition markers in order to specify two perspective lines.

一方、認識装置14は、撮像装置12のアイレベルELを特定している。また、認識装置14は、レーザ光Lの軌跡の延長線であるレーザ光線LBを特定している。これにより、認識装置14は、アイレベルELとレーザ光線LBとの交点を消失点Oと特定できる。従って、認識装置14によれば、少ない認識マーカを認識することにより、未認識マーカの位置を認識できる。その結果、認識装置14は、棚T1の構造を容易に特定できる。 On the other hand, the recognition device 14 identifies the eye level EL of the imaging device 12 . The recognition device 14 also identifies a laser beam LB, which is an extension of the trajectory of the laser beam L. As shown in FIG. As a result, the recognition device 14 can specify the vanishing point O as the intersection of the eye level EL and the laser beam LB. Therefore, the recognition device 14 can recognize the positions of unrecognized markers by recognizing a small number of recognition markers. As a result, the recognition device 14 can easily identify the structure of the shelf T1.

認識装置14が画像データを解析することによりレーザ光線LBを特定する場合には、予め定められた取り付け位置及び角度にレーザ光照射装置13を取り付ける必要がない。そのため、レーザ光照射装置13の取り付け位置及び角度の自由度が高くなる。 When the recognition device 14 identifies the laser beam LB by analyzing the image data, it is not necessary to mount the laser beam irradiation device 13 at a predetermined mounting position and angle. Therefore, the degree of freedom of the mounting position and angle of the laser beam irradiation device 13 is increased.

認識装置14が画像データを解析することによりアイレベルELを特定する場合には、予め定められた取り付け位置及び角度に撮像装置12を取り付ける必要がない。そのため、撮像装置12の取り付け位置及び角度の自由度が高くなる。 When the recognition device 14 identifies the eye level EL by analyzing the image data, it is not necessary to mount the imaging device 12 at a predetermined mounting position and angle. Therefore, the mounting position and angle of the imaging device 12 are more flexible.

[第1の変形例]
以下に、本考案の第1の変形例に係る自律走行車両10aの構造について、図面を参照しながら説明する。図8は、撮像装置12が生成した画像データである。図9は、認識装置14aが実行するフローチャートである。なお、第1の変形例に係る自律走行車両10a及び認識装置14aについては、第1の実施形態に係る自律走行車両10及び認識装置14と異なる部分のみ説明し、後は省略する。
[First modification]
The structure of an autonomous vehicle 10a according to a first modified example of the present invention will be described below with reference to the drawings. FIG. 8 shows image data generated by the imaging device 12 . FIG. 9 is a flowchart executed by the recognition device 14a. As for the autonomous vehicle 10a and the recognition device 14a according to the first modification, only the portions different from the autonomous vehicle 10 and the recognition device 14 according to the first embodiment will be explained, and the rest will be omitted.

自律走行車両10aは、認識装置14の代わりに、認識装置14aを備える。認識装置14aは、最も上に位置する第1パース線PL11より上に位置する仮想マーカM01,M02を特定する。仮想マーカM01,M02の位置には、実際にはマーカが存在しない。すなわち、認識装置14aは、仮想マーカM01,M02の位置にマーカが存在すると仮定している。認識装置14aがステップS1~S8に行う動作は、認識装置14がステップS1~S8に行う動作と同じであるので説明を省略する。 The autonomous vehicle 10a includes a recognition device 14a instead of the recognition device 14. FIG. The recognition device 14a identifies the virtual markers M01 and M02 located above the first perspective line PL11 located at the top. There are actually no markers at the positions of the virtual markers M01 and M02. That is, the recognition device 14a assumes that markers are present at the positions of the virtual markers M01 and M02. The operations performed by the recognition device 14a in steps S1 to S8 are the same as the operations performed by the recognition device 14 in steps S1 to S8, so description thereof will be omitted.

認識装置14aは、第1行を通過する第1パース線PL11(第2パース線)を特定する(第2パース線特定ステップ:ステップS9)。次に、認識装置14aは、第1行より上を通過する第3パース線PL3を特定する(第3パース線特定ステップ:ステップS10)。 The recognition device 14a identifies the first perspective line PL11 (second perspective line) passing through the first row (second perspective line identification step: step S9). Next, the recognition device 14a identifies a third perspective line PL3 passing above the first row (third perspective line identifying step: step S10).

最後に、認識装置14aは、第3パース線PL3上に位置する仮想マーカM01,M02を認識する(第3認識ステップ:ステップS11)。具体的には、認識装置14aは、第1列線L1と第3パース線PL3との交点に仮想マーカM01が位置していると認識する。認識装置14aは、第2列線L2と第3パース線PL3との交点に仮想マーカM02が位置していると認識する。これにより、認識装置14aは、仮想マーカM01,M02及びマーカM11,M12を四隅とする空間が存在すると認識できる。 Finally, the recognition device 14a recognizes the virtual markers M01 and M02 positioned on the third perspective line PL3 (third recognition step: step S11). Specifically, the recognition device 14a recognizes that the virtual marker M01 is positioned at the intersection of the first column line L1 and the third perspective line PL3. The recognition device 14a recognizes that the virtual marker M02 is positioned at the intersection of the second column line L2 and the third perspective line PL3. Thereby, the recognition device 14a can recognize that there is a space having the virtual markers M01 and M02 and the markers M11 and M12 as four corners.

[第2の変形例]
以下に、本考案の第2の変形例に係る自律走行車両10bの構造について、図面を参照しながら説明する。図10は、撮像装置12が生成した画像データである。なお、第2の変形例に係る自律走行車両10b及び認識装置14bについては、第1の実施形態に係る自律走行車両10及び認識装置14と異なる部分のみ説明し、後は省略する。
[Second modification]
The structure of an autonomous vehicle 10b according to a second modified example of the present invention will be described below with reference to the drawings. FIG. 10 shows image data generated by the imaging device 12 . As for the autonomous vehicle 10b and the recognition device 14b according to the second modification, only the portions different from the autonomous vehicle 10 and the recognition device 14 according to the first embodiment will be explained, and the rest will be omitted.

自律走行車両10bは、認識装置14の代わりに、認識装置14bを備える。棚T1に荷物が置かれていない場合、レーザ光Lは、図10に示すように、フレームFにのみ照射される。このような場合においても、認識装置14bは、ステップS3(レーザ光線特定ステップ)において、レーザ光Lの軌跡の延長線であるレーザ光線LBを特定すればよい。 The autonomous vehicle 10b includes a recognition device 14b instead of the recognition device 14. FIG. When no baggage is placed on the shelf T1, the laser light L is irradiated only on the frame F as shown in FIG. Even in such a case, the recognition device 14b may specify the laser beam LB, which is an extension of the trajectory of the laser beam L, in step S3 (laser beam specifying step).

なお、棚T1に荷物が置かれている場合であっても、認識装置14bは、ステップS3(レーザ光線特定ステップ)において、フレームFに照射されるレーザ光Lの軌跡の延長線であるレーザ光線LBを特定してもよい。 Note that even when a package is placed on the shelf T1, the recognition device 14b detects the laser beam, which is an extension of the trajectory of the laser beam L applied to the frame F, in step S3 (laser beam identification step). LB may be specified.

[第3の変形例]
以下に、本考案の第3の変形例に係る自律走行車両10cの構造について、図面を参照しながら説明する。図11及び図12は、撮像装置12が生成した画像データである。なお、第3の変形例に係る自律走行車両10c及び認識装置14cについては、第1の実施形態に係る自律走行車両10及び認識装置14と異なる部分のみ説明し、後は省略する。
[Third Modification]
The structure of an autonomous vehicle 10c according to a third modified example of the invention will be described below with reference to the drawings. 11 and 12 are image data generated by the imaging device 12. FIG. As for the autonomous vehicle 10c and the recognition device 14c according to the third modification, only the portions different from the autonomous vehicle 10 and the recognition device 14 according to the first embodiment will be explained, and the rest will be omitted.

自律走行車両10cは、認識装置14の代わりに、認識装置14cを備える。また、レーザ光照射装置13は、レーザ光Lを発するレーザ光源(図示せず)を複数含んでいる。この場合、認識装置14cは、図11及び図12に示すように、複数のレーザ光Lのそれぞれの軌跡の延長線である複数のレーザ光線LBのそれぞれを特定する(レーザ光線特定ステップ:ステップS3)。これにより、消失点Oの特定精度が向上し、棚T1の構造の特定精度が向上する。 The autonomous vehicle 10 c includes a recognition device 14 c instead of the recognition device 14 . In addition, the laser light irradiation device 13 includes a plurality of laser light sources (not shown) that emit laser light L. As shown in FIG. In this case, as shown in FIGS. 11 and 12, the recognition device 14c identifies each of the plurality of laser beams LB, which are extension lines of the trajectories of the plurality of laser beams L (laser beam identification step: step S3 ). This improves the accuracy of identifying the vanishing point O, and improves the accuracy of identifying the structure of the shelf T1.

[その他の実施形態]
本考案に係る認識装置は、自律走行車両10,10a~10cに限らず、その要旨の範囲において変更可能である。また、自律走行車両10,10a~10cの構造を任意に組み合わせてもよい。
[Other embodiments]
The recognition device according to the present invention is not limited to the autonomous vehicles 10, 10a to 10c, and can be modified within the scope of the gist thereof. Also, the structures of the autonomous vehicles 10, 10a to 10c may be combined arbitrarily.

なお、認識装置14,14a~14cでは、画像データは、1点透視図法による映像を示している。しかしながら、画像データは、2点透視図法及び3点透視図法による映像を示していてもよい。2点透視図法の場合には、認識装置14,14a~14cは、2つの消失点のそれぞれを図4のフローチャートに従って特定する。3点透視図法の場合には、認識装置14,14a~14cは、3つの消失点のそれぞれを図4のフローチャートに従って特定する。 In the recognition devices 14, 14a to 14c, the image data represents an image based on the one-point perspective method. However, the image data may represent images in two-point perspective and three-point perspective. In the case of two-point perspective, the recognition devices 14, 14a-14c identify each of the two vanishing points according to the flow chart of FIG. In the case of three-point perspective, the recognition devices 14, 14a-14c identify each of the three vanishing points according to the flow chart of FIG.

なお、認識装置14,14a~14cは、撮像装置12より左及び右において前後方向及び上下方向に行列状に配列された複数のマーカを認識している。しかしながら、認識装置14,14a~14cは、撮像装置12より左又は右において前後方向及び上下方向に行列状に配列された複数のマーカを認識してもよい。この場合、認識装置14,14a~14cは、例えば、撮像装置12より左において前後方向及び上下方向に行列状に配列された複数のマーカを認識した後に、認識した複数のマーカに基づいて、撮像装置12より右において前後方向及び上下方向に行列状に配列されたマーカの配置を推定してもよい。 Note that the recognition devices 14, 14a to 14c recognize a plurality of markers arranged in a matrix on the left and right sides of the imaging device 12 in the front-rear direction and the vertical direction. However, the recognition devices 14, 14a to 14c may recognize a plurality of markers arranged in a matrix in the front-rear direction and the vertical direction on the left or right of the imaging device 12. FIG. In this case, the recognition devices 14, 14a to 14c, for example, after recognizing a plurality of markers arranged in a matrix in the front-rear direction and the up-down direction on the left side of the imaging device 12, capture an image based on the recognized markers. The arrangement of markers arranged in a matrix in the front-back direction and the up-down direction on the right side of the device 12 may be estimated.

なお、取得ステップ、第1認識ステップ、レーザ光線特定ステップ、アイレベル特定ステップ、消失点特定ステップ、第1パース線特定ステップ及び第2認識ステップの順序は、例示した順序に限らない。これらのステップの順序は、矛盾のない範囲で入れ替えてもよい。例えば、アイレベル特定ステップは、第1認識ステップの前に実行されてもよい。 The order of the acquisition step, the first recognition step, the laser beam identification step, the eye level identification step, the vanishing point identification step, the first perspective line identification step, and the second recognition step is not limited to the illustrated order. The order of these steps may be interchanged without conflict. For example, the eye level identification step may be performed before the first recognition step.

なお、レーザ光Lは、上下方向に直交する水平面上を直進しなくてもよい。例えば、認識装置14,14a~14cは、アイレベルELを基準にして、レーザ光線LBを補正してもよい。 Note that the laser light L does not have to travel straight on a horizontal plane perpendicular to the vertical direction. For example, the recognition devices 14, 14a-14c may correct the laser beam LB with reference to the eye level EL.

なお、レーザ光Lは、マーカM11,M21,M31,M41,M12,M22,M32,M42の少なくともいずれかを通過してもよい。 Note that the laser beam L may pass through at least one of the markers M11, M21, M31, M41, M12, M22, M32, and M42.

なお、レーザ光Lの色は、特定の色に限られない。 Note that the color of the laser light L is not limited to a specific color.

なお、レーザ光Lのビーム径は、特定の大きさに限られない。 Note that the beam diameter of the laser light L is not limited to a specific size.

なお、マーカM11,M21,M31,M41,M12,M22,M32,M42は、棚T1~T3に設けられることに限らない。例えば、プロジェクションマッピングにより、棚T1~T3にマーカM11,M21,M31,M41,M12,M22,M32,M42を投影してもよい。 Note that the markers M11, M21, M31, M41, M12, M22, M32, and M42 are not limited to being provided on the shelves T1 to T3. For example, by projection mapping, markers M11, M21, M31, M41, M12, M22, M32 and M42 may be projected onto the shelves T1 to T3.

10,10a~10c:自律走行車両
12:撮像装置
13:レーザ光照射装置
14,14a~14c:認識装置
EL:アイレベル
F:フレーム
L:レーザ光
L1:第1列線
L2:第2列線
LB:レーザ光線
M01,M02:仮想マーカ
M11,M21,M31,M41,M12,M22,M32,M42,Mij:マーカ
O:消失点
PL11~PL14:第1パース線
PL3:第3パース線
T1~T3:棚
m11,m22,m31,m41:認識マーカ
m12,m21,m32,m42:未認識マーカ
10, 10a-10c: Autonomous vehicle 12: Imaging device 13: Laser light irradiation device 14, 14a-14c: Recognition device EL: Eye level F: Frame L: Laser light L1: First row line L2: Second row line LB: Laser beams M01, M02: Virtual markers M11, M21, M31, M41, M12, M22, M32, M42, Mij: Markers O: Vanishing points PL11 to PL14: First perspective line PL3: Third perspective lines T1 to T3 : shelves m11, m22, m31, m41: recognized markers m12, m21, m32, m42: unrecognized markers

Claims (1)

自律走行車両であって、
前記自律走行車両より左の領域、又は、前記自律走行車両より右の領域を撮影する撮像装置と、
レーザ光を発するレーザ光源を含むレーザ光照射装置と、
前記撮像装置より左又は右において前後方向及び上下方向に行列状に配置された複数のマーカを認識する認識装置であって、前記撮像装置から前記複数のマーカ及び前記レーザ光を含む画像データを取得する認識装置と、
を備える、
自律走行車両。
an autonomous vehicle,
an imaging device that captures an area to the left of the autonomous vehicle or an area to the right of the autonomous vehicle;
a laser light irradiation device including a laser light source that emits laser light;
A recognition device that recognizes a plurality of markers arranged in a matrix in the front-rear direction and the up-down direction on the left or right from the imaging device, and acquires image data including the plurality of markers and the laser beam from the imaging device. a recognition device that
comprising
autonomous vehicle.
JP2023001267U 2023-04-14 2023-04-14 autonomous vehicle Active JP3242392U (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023001267U JP3242392U (en) 2023-04-14 2023-04-14 autonomous vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023001267U JP3242392U (en) 2023-04-14 2023-04-14 autonomous vehicle

Publications (1)

Publication Number Publication Date
JP3242392U true JP3242392U (en) 2023-06-12

Family

ID=86720868

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023001267U Active JP3242392U (en) 2023-04-14 2023-04-14 autonomous vehicle

Country Status (1)

Country Link
JP (1) JP3242392U (en)

Similar Documents

Publication Publication Date Title
CN110096059B (en) Automatic driving method, device, equipment and storage medium
US10650681B2 (en) Parking position identification method, parking position learning method, parking position identification system, parking position learning device, and non-transitory recording medium for recording program
CN108177162B (en) The interference region setting device of mobile robot
JP7299330B2 (en) Multi-camera image processing
CN107687855A (en) Robot localization method, apparatus and robot
US20110194755A1 (en) Apparatus and method with traveling path planning
JP6187671B2 (en) Self-position calculation device and self-position calculation method
WO2010100791A1 (en) Parking assist apparatus
DE102012021375A1 (en) Apparatus and method for detecting a three-dimensional position and orientation of an article
US11335030B2 (en) Camera-calibration system and method thereof
EP3716145A1 (en) Object detection device and method
US11977392B2 (en) Identifying elements in an environment
JPH06227711A (en) Method and device for arranging article
Cao et al. Hierarchical coverage path planning in complex 3d environments
JP2023004964A (en) Sensor calibration method and apparatus
US20160110840A1 (en) Image processing method, image processing device, and robot system
CN110703807A (en) Landmark design method for large and small two-dimensional code mixed image and landmark identification method for unmanned aerial vehicle
JP3242392U (en) autonomous vehicle
JP2014157051A (en) Position detection device
CN114756020A (en) Method, system and computer readable recording medium for generating robot map
JP2019211981A (en) Information processor, information processor controlling method and program
WO2019209169A1 (en) Precise positioning system
US10491882B2 (en) Calibration method and calibration tool of camera
JP2023179263A (en) Recognition device, recognition method and recognition program
JP6512852B2 (en) Information processing apparatus, information processing method

Legal Events

Date Code Title Description
R150 Certificate of patent or registration of utility model

Ref document number: 3242392

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150