CN115494836A - 检测系统、处理装置、移动体、检测方法以及存储介质 - Google Patents
检测系统、处理装置、移动体、检测方法以及存储介质 Download PDFInfo
- Publication number
- CN115494836A CN115494836A CN202210676801.4A CN202210676801A CN115494836A CN 115494836 A CN115494836 A CN 115494836A CN 202210676801 A CN202210676801 A CN 202210676801A CN 115494836 A CN115494836 A CN 115494836A
- Authority
- CN
- China
- Prior art keywords
- detection
- point group
- outline
- orientation
- carriage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 137
- 238000012545 processing Methods 0.000 title claims abstract description 66
- 238000011156 evaluation Methods 0.000 claims abstract description 38
- 238000000605 extraction Methods 0.000 claims description 59
- 230000007246 mechanism Effects 0.000 claims description 33
- 239000000284 extract Substances 0.000 claims description 6
- 230000036544 posture Effects 0.000 claims 10
- 238000004364 calculation method Methods 0.000 description 26
- 238000010586 diagram Methods 0.000 description 26
- 238000000034 method Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 16
- 239000013598 vector Substances 0.000 description 10
- 238000013500 data storage Methods 0.000 description 9
- 230000004048 modification Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 230000001681 protective effect Effects 0.000 description 6
- 239000011347 resin Substances 0.000 description 5
- 229920005989 resin Polymers 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 4
- 238000005859 coupling reaction Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000013102 re-test Methods 0.000 description 2
- 230000032258 transport Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000003028 elevating effect Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4817—Constructional features, e.g. arrangements of optical elements relating to scanning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/06—Recognition of objects for industrial automation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明提供一种识别搬运对象物的位置及姿态的检测系统、处理装置、移动体、检测方法以及存储介质。所述取得部取得点群信息,该点群信息是扫描光后检测对象物的多个位置所对应的点群信息。所述推定部在评价指标中使用与和所述检测对象物有关的外形模型之间的匹配性,基于所述点群信息来推定检测对象物的位置及姿态。所述输出部基于所述推定结果来输出与移动目标位置有关的信息。所述推定部将对所述检测对象物的外形进行表示的外形模型与所述点群信息的点群进行拟合,并使用在所述外形模型的外侧存在的点群信息来推定所述检测对象物的位置及姿态。
Description
相关申请
本申请以日本专利申请2021-101967(申请日:2021年6月18日)为基础申请,从该申请享受优先的利益。本申请通过参考该基础申请而包括基础申请的全部内容。
技术领域
本发明的实施方式涉及检测系统、处理装置、移动体、检测方法以及存储介质。
背景技术
在物流及流通现场,有时向如笼车那样的搬运对象物搭载装载物并进行搬运。无人搬运车有检测搬运对象物并搬运该搬运对象物的要求、在该搬运对象物的附近配置其他搬运对象物的要求等。但是,有时识别所配置的搬运对象物的位置及姿态并不容易。
[现有技术文献]
[专利文献]
[专利文献1]日本特开2020-077295号公报
发明内容
本发明要解决的技术问题在于,提供一种识别搬运对象物的位置及姿态的检测系统、处理装置、移动体、检测方法以及存储介质。
实施方式的检测系统具有取得部、推定部以及输出部。所述取得部取得点群信息,该点群信息是扫描光后检测对象物的多个位置所对应的点群信息。所述推定部在评价指标中使用与和所述检测对象物有关的外形模型之间的匹配性,基于所述点群信息来推定检测对象物的位置及姿态。所述输出部基于所述推定结果来输出与移动目标位置有关的信息。所述推定部将对所述检测对象物的外形进行表示的外形模型与所述点群信息的点群进行拟合,并使用在所述外形模型的外侧存在的点群信息来推定所述检测对象物的位置及姿态。
根据实施方式的检测系统,能够更简单地识别搬运对象物等检测对象物的位置及姿态。
附图说明
图1A是表示第一实施方式的检测系统的应用场所的一例的示意图。
图1B是图1A所示的应用场所的俯视图。
图2是第一实施方式的无人搬运车的俯视图。
图3是第一实施方式的无人搬运车的侧视图。
图4是第一实施方式的无人搬运车的结构图。
图5是用于说明规定第一实施方式的提取对象区域的提取对象区域参照表的图。
图6A及图6B是用于说明第一实施方式的提取对象区域的图。
图7是用于说明第一实施方式的点群的提取处理的图。
图8是表示第一实施方式的检测处理的流程的流程图。
图9是用于说明第一实施方式的拟合算法的图。
图10是用于说明第一实施方式的台车的保管状况的管理的图。
图11是用于说明变形例的向弯曲的外形线的应用的图。
图12是表示第二实施方式的检测处理的流程的流程图。
图13是第三实施方式的无人搬运车的结构图。
图14是用于说明第三实施方式的提取对象区域的图。
图15是表示第四实施方式的检测系统的应用场所的一例的示意图。
图16是第四实施方式的检测系统的结构图。
图17是表示实施方式的处理装置的硬件结构例的图。
具体实施方式
以下,参照附图对实施方式的检测系统、处理装置、移动体、检测方法以及存储介质进行说明。另外,在以下的说明中,对具有相同或类似的功能的结构标注相同的附图标记。而且,有时省略这些结构的重复说明。另外,本申请中所说的“基于XX”是指“至少基于XX”,包括除了XX以外还基于其他要素的情况。另外,“基于XX”并不限定于直接使用XX的情况,也包括基于对XX进行了运算、加工的情况。“XX”是任意的要素(例如,任意的信息)。
另外,先定义+X方向、-X方向、+Y方向、-Y方向、+Z方向及-Z方向。+X方向、-X方向、+Y方向以及-Y方向是沿着无人搬运车移动的地面的方向。+X方向例如是无人搬运车100的1个移动方向,有时被称为“前方”。-X方向是与+X方向相反的方向,有时被称为“后方”。在不区分+X方向和-X方向的情况下,简称为“X方向”。+Y方向和-Y方向是与X方向交叉(例如大致正交)的方向,有时被称为车辆主体10的车宽方向或“侧方”。+Y方向和-Y方向是彼此相反的方向。在不区分+Y方向和-Y方向的情况下,简称为“Y方向”。+Z方向及-Z方向是与X方向及Y方向交叉(例如大致正交)的方向,例如是铅垂方向。+Z方向是向上方前进的方向。-Z方向是与+Z方向相反的方向。在不区分+Z方向和-Z方向的情况下,简称为“Z方向”。另外,本说明书中所说的“前方”、“后方”、“侧方”、“车宽方向”等用语,为了便于说明,以无人搬运车100的1个移动方向为基准的视点来表现。但是,无人搬运车100的移动方向不限于+X方向。无人搬运车100也可以在-X方向、+Y方向、-Y方向上移动。
(第一实施方式)
图1A是表示第一实施方式的检测系统1的应用场所的一例的示意图。图1B是图1A所示的应用场所的俯视图。图2是第一实施方式的无人搬运车100的俯视图。图3是第一实施方式的无人搬运车100的侧视图。
实施方式的检测系统1具备无人搬运车100的一部分或者全部。无人搬运车100可以是检测系统1的一例。检测系统1也可以形成为无人搬运车100的一部分。在该图1A和图1B中示出了检测系统1所涉及的无人搬运车100以及作为搬运对象物的台车90A、90B。
台车90A、90B是无人搬运车100的搬运对象物,例如是带轮箱式托盘(RBP:rollboxpallet)那样的笼车。台车90A在装载有货物的状态下配置于区域ZA。与区域ZA相邻的区域ZB是没有配置台车的状态。台车90B是预定配置于区域ZB的台车。该图1A所示的状态表示台车90B被无人搬运车100搬运至区域ZB的中途的阶段。另外,在以下的说明中,在不区分台车90A、90B的情况下进行说明时,有时简称为台车90。
例如,图1A和图1B所示的应用场所是物流仓库内的卸货场所的一例。在这样的场所,台车90收集并装载于台车90被输送的货物(装载物)按照规定的顺序集货。因此,在先被配置的台车90上,为装载有货物的状态,等待从台车90搬出货物。
本实施方式中的台车90是输送对象(检测对象物)的一例。台车90也可以构成为通过投射光的扫描来检测。例如,在台车90具备笼的情况下,台车90也可以是具备仅能够看到笼的内部空间一部分的外壳的移动体,也可以是具备其内部空间全部被覆盖而从外部看不到里面的外壳的移动体。在上述任意情况下,能够提取基于通过扫描检测出的外壳的位置的点群,并通过使用了该点群信息的拟合来识别其外形。这样,能够应用于能够识别台车90的外形的全部情况。与此相对,即使台车90是不具备笼的平板(托盘)台车,只要是能够载置货物并输送时的载货姿态(大致)固定的情况,则能够提取基于通过扫描检测出的载货姿态的点群,并通过使用了该点群信息的拟合来识别该载货姿态的外形。这样,即使台车90不具备笼,也能够应用于能够识别载货姿态的外形的全部情况。这是能够视为与上述的具备从外部看不到里面的外壳的笼的台车90的情况相同的一个例子。
以下,在上述事例中,对检测外角比较困难的事例进行说明。台车90构成为,相当于其侧面的外壳包括管框架、树脂网。台车90能够从其侧面的外部观测其内部的空间。另外,有时在台车90的内部装载的货物的有无、装载量、载货姿态等的装载状况不唯一地确定。
在这样的集货场所中收集并配置多个台车90的情况下,通过排列台车90并比较紧密地配置,由此能够提高该集货场所的空间的利用效率。在本实施方式中,对满足这样的要求并且通过作为移动型机器人的一例的无人搬运车100的导入而使台车90的搬运作业自动化的事例进行说明。
为了应对这样的要求,需要以检测设置完毕的台车90A的位置及姿态并能够在其相邻的位置排列并设置搬运中的台车90B的方式设定无人搬运车100的移动目标,并使用适合于此的移动路径进行移动。
无人搬运车100例如是不需要由操作员进行操纵的自主移动台车,形成为能够单独地移动。无人搬运车100例如是低底板型的AGV(Automatic Guided Vehicle:自动导引车)。但是,无人搬运车100也可以是连在地面上描绘的线等也不需要的无线类型的。另外,图1B中的附图标记DZF表示无人搬运车100检测台车90、障碍物等对象物的区域的一例。关于此,在后面叙述。
无人搬运车100钻入到台车90B的下方并与台车90B结合。台车90A的情况也与台车90B的情况相同。通过无人搬运车100和与无人搬运车100结合的台车90来形成结合体100P。无人搬运车100并不限定于上述例子,也可以是其他类型的无人搬运车。例如,无人搬运车100也可以是形成为还能够由操作员操纵的无人搬运车。
例如,无人搬运车100在与各台车90结合的状态下,在作业场内,将装载货物的状态的台车90A、或者未装载货物的状态的台车90B逐一搬运。
台车90例如具备装载部91和脚轮(车轮)92。装载部91是供货物装载的部分。装载部91具备装载板91a和保护栅91b。装载板91a例如是平面形状的板材。在装载板91a上装载货物。保护栅91b例如沿着装载板91a的外缘的3边竖立设置,一个侧面(朝向+Y方向的面)开口。
例如,沿着台车90的外缘的3边竖立设置的保护栅91b由包含分别呈格子状配置的部件的管框架形成。装载板91a的形态没有限制,该保护栅91b也可以由与铅垂方向平行地配置的管框架形成。进而,也可以在保护栅91b的一部分设置树脂网。另外,也可以将与保护栅91b分离的树脂网覆盖在货物上。在上述情况下,形成于管框架的格子的大小、管框架的间隔、树脂网的孔的宽度,基于装载于台车90的货物的形状和大小,而被决定为该货物不会落下那样的值。上述的管框架是对光进行反射或散射的部件的一例。
脚轮92分别配置在装载板91a的背面的四角。脚轮92从下方支承装载部91。脚轮92是行驶部。脚轮92均能够绕Z方向旋转,能够变更行进方向。另外,搬运对象物并不限定于图所示的方式的台车90。例如,4个脚轮92中的2个也可以是不绕Z方向旋转的2轴固定式。即使在由2轴固定式的2个脚轮92产生移动的制约的情况下也能够搬运。装载部91是检测对象物的一例。
图2所示的无人搬运车100例如具有车辆主体10、提升机构20、传感器装置30、移动体控制部110、数据处理部300以及数据保管部400。车辆主体10具有作为车身的车身壳体11以及移动机构12。车辆主体10的厚度是潜入到台车90的装载部91的下方的厚度。车身壳体11形成车辆主体10的外轮廓。移动机构12是具备分别在车辆主体10的4个角配置的4个车轮12a~12d和驱动各车轮12a~12d的马达13a~13d的行驶机构。马达13a~13d分别经由车轴而与车轮12a~12d连接。
移动机构12的车轮12a~12d例如由麦克纳姆轮构成。移动机构12使车身壳体11移动。移动机构12例如是通过利用马达13a~13d分别单独地旋转驱动各车轮12a~12d而在全部方向上移动的全向移动机构。移动机构12形成为使无人搬运车100在实际空间内移动。无人搬运车100能够通过调整移动机构12中的各车轮的旋转方向、旋转速度而向全部方向移动。
移动机构12也可以是具有麦克纳姆轮以外的车轮的全向移动机构,例如全向轮。或者,移动机构12也可以形成为基于差动两轮方式的移动机构。另外,移动机构12也可以具备转向操纵机构,除了车轮的旋转速度、旋转方向以外,还能够对各车轮的一部分或者全部进行转向操纵。在分别连接车轮12a~12d和马达13a~13d的车轴上安装有编码器,能够连续地测量各车轮12a~12d的转速。
如图3所示,提升机构20具备2块升降板21a、21b和升降机构22a、22b。升降机构22a、22b具备连杆机构以及致动器,使各升降板21a、21b升降。升降板21a、21b能够通过升降机构22a、22b中的连杆机构伸缩而升降。例如升降板21a、21b向上方(+Z方向)移动的状态下支承台车90的底面,无人搬运车100相对于台车90的相对位置关系被固定。由此,无人搬运车100与台车90结合而成为结合体100P(参照图1A)。提升机构20使升降板21a、21b从负载承受高位置下降,升降板21a、21b从支承装载部91的状态被释放,由此,结合体100P中的无人搬运车100与台车90的结合被解除。
本申请中所说的“结合”是指,“将2个对象在物理上建立关联的”程度的广义概念,除了支承台车90(例如从下方抬起)之外,例如也相当于与台车90卡合(例如钩挂)、与台车90接合(例如直接或间接地连结)等。例如,也可以设置朝向台车90突出并与台车90卡合的卡合部、与台车90接合的连结部等。无人搬运车100只要通过利用上述任意的方法与台车90结合而能够搬运搬运对象物即可。
如图3所示,传感器装置30具备传感器31和支承部32。支承部32设置于车辆主体10并支承传感器31。传感器31例如是能够朝向台车90照射激光的激光测距仪(LRF)等3维距离传感器。传感器31沿着虚拟平面照射激光,生成对该虚拟平面内进行扫描的结果作为点群信息。虚拟平面例如是指将激光的扫描光束相对于地面水平地摆动的情况下的平面。关于虚拟平面的其他事例,在后面叙述。
传感器31在无人搬运车100靠近台车90的过程中,生成与在前方(+X方向)上的与台车90的距离有关的信息即检测距离信息。检测距离信息是指对台车90照射激光的情况下的激光的反射光或散射光的测定结果等,但并不限定于这些。传感器31将所生成的检测距离信息输出到移动体控制部110。另外,无人搬运车100具备用于未图示的SLAM(Simultaneous Localization and Mapping:即时定位与地图构建)的各种传感器、编码器测距仪等各种传感器。
图4是第一实施方式的无人搬运车100的结构图。如图4所示,无人搬运车100具备移动体控制部110、数据处理部300以及数据保管部400。无人搬运车100的各功能部(例如,移动体控制部110和数据处理部300)例如至少一部分通过CPU(Central Processing Unit:中央处理单元)或GPU(Graphics Processing Unit:图像处理单元)等硬件处理器执行存储于存储部的程序(软件)来实现。另外,无人搬运车100的各功能部的一部分或全部可以通过LSI(Large Scale Integration:大规模集成电路)、ASIC(Application SpecificIntegrated Circuit:专用集成电路)、FPGA(Field-Programmable GateArray:现场可编程逻辑门阵列)等硬件(电路部:circuitry)来实现,也可以通过软件与硬件的协同配合来实现。无人搬运车100是计算机的一例。
移动体控制部110例如具备移动控制部112、装卸控制部120、传感器控制部130。
移动控制部112从数据处理部300取得包含移动目标等的控制信息,将移动机构12驱动到由移动目标表示的位置。由此,移动控制部112能够使无人搬运车100移动。例如移动控制部112取得无人搬运车100的位置,向装卸控制部120供给表示无人搬运车100到达了规定的位置这一情况的位置到达信息。例如,移动控制部112可以基于与检测对象物的位置及姿态有关的信息来控制移动机构12,以使无人搬运车100在实际空间内移动。移动机构12和移动控制部112是使传感器31(距离传感器)的位置移动的可动机构的一例。
装卸控制部120从移动控制部112接收位置到达信息,控制提升机构。由此,装卸控制部120切换无人搬运车100与台车90的结合状态,控制台车90的装卸。
传感器控制部130取得由传感器31生成的检测距离信息,并输出到数据处理部300。
数据处理部300具备点群信息提取部301、台车位置及姿态推定部302以及移动目标计算部303。
点群信息提取部301从传感器控制部130取得表示到台车90为止的距离的检测距离信息,从所取得的检测距离信息中提取表示规定的范围内的检测地点的点群信息。检测距离信息是指,到扫描光后检测对象物的多个位置所对应的多个点为止的距离的指标。例如,扫描光后检测对象物的多个位置可以是将在实际空间中的虚拟平面内扫描的光反射的位置。点群信息提取部301参照提取对象区域参照表401,得到表示提取对象区域的信息。点群信息提取部301可以提取点群信息,该点群信息表示基于对从提取对象区域参照表401取得的提取对象区域进行表示的信息的规定范围内的检测地点。上述的检测距离信息是点群信息的一例。点群信息提取部301将提取出的点群信息向台车位置及姿态推定部302供给。点群信息提取部301是取得部的一例。
台车位置及姿态推定部302基于由点群信息提取部301提取出的点群信息来推定检测对象物的位置及姿态(location-attitude)。台车位置及姿态推定部302例如可以根据在评价指标中使用与和所述检测对象物有关的外形模型之间的匹配性的规定的推定规则来推定检测对象物的位置及姿态。台车位置及姿态推定部302是推定部的一例。例如,台车位置及姿态推定部302通过将表示检测对象物的外形的外形模型与点群信息的点群拟合,来推定外形模型的位置及姿态。台车位置及姿态推定部302可以使用在该外形模型的外侧存在的点群信息来推定检测对象物的位置及姿态。
移动目标计算部303基于检测对象物的位置及姿态的推定的结果来决定移动目标位置,并输出与移动目标位置有关的信息。移动目标计算部303是输出部的一例。
数据保管部400具备提取对象区域参照表401、台车形状模型数据402以及相对移动位置参照表403。
提取对象区域参照表401保持对提取处理的对象区域进行表示的提取对象区域所涉及的数据,并对点群信息提取部301进行提示。台车形状模型数据402将作为检测对象物的台车90的外形模型所涉及的数据保持为台车形状模型数据。例如,作为外形模型,规定俯视观察台车90时的外形。也可以将台车90的装载板91a的外形规定为外形模型。相对移动位置参照表403保持相对移动位置信息,该相对移动位置信息用于对移动目标计算部303提示用于配置下一个台车90的目标移动目的地等的。通过按照相对移动位置信息排列台车90,能够与设置完毕的台车90匹配地排列。
接着,参照图5和图6A及图6B,对实施方式的提取对象区域的设定处理进行说明。
图5是用于说明规定实施方式的提取对象区域的提取对象区域参照表401的图。图6A及图6B是用于说明实施方式的提取对象区域的图。
使用该提取对象区域参照表401,规定1个以上的提取对象区域。例如,在图5所示的提取对象区域参照表401中规定有2个提取对象区域。提取对象区域参照表401包含应用情形(图5中的记载为“case”)和与该应用情形对应的提取对象区域(图5中的记载为“zone”)的项目。提取对象区域由以无人搬运车100为基准的坐标系来规定。
在此规定的第一应用情形应用于如上述的图1A所示那样从无人搬运车100到台车90的距离比较远的情况。如图6A所示,提取对象区域DZF被规定为以(+ΔX,+Y0)、(+X0,+Y0)、(+X0,-Y0)、(+ΔX,-Y0)这4个点为顶点的长方形。在上述情况下,规定以行进方向(+X方向)作为基准的方向并在Y方向上具有2Y0的宽度的范围。+Y0和-Y0的值被规定为在其范围内包含在Y方向上能够配置多个台车90的区域。+Y0和-Y0的大小(绝对值)可以相同,也可以彼此不同。关于+X方向,将到+X0为止的范围设为提取对象区域DZF。+X0的值可以任意确定。例如,X0的值可以被规定为在其范围内包含在X方向上能够配置多个台车90的区域。另外,+ΔX可以基于测定极限等来规定。
与此相对,第二应用情形应用于从无人搬运车100到台车90的距离比较近的情况。如图6B所示,提取对象区域DZN被规定为以(+ΔX,+Y1)、(+X1,+Y1)、(+X1,-Y1)、(+ΔX,-Y1)这4个点为顶点的长方形。在上述情况下,规定以行进方向(+X方向)作为基准的方向并在Y方向上具有2Y1的宽度的范围。+Y1和-Y1的值被规定为在其范围内包含在Y方向上能够配置1个台车90的区域。+Y1和-Y1的大小(绝对值)可以相同,也可以彼此不同。关于+X方向,将到+X1为止的范围设为提取对象区域DZN。+X1的值被规定为包含在X方向上能够配置达2台的台车90的区域。例如,通过以包含能够配置到2台为止的台车90的区域的方式进行设定,从而能够依次检测接近于在该区域配置的台车90时的状况的变化。
提取对象区域DZF、DZN是检测作为检测对象物的台车90的提取对象区域的一例。该提取对象区域DZF、DZN被指定为相对于无人搬运车100的相对位置。
接着,参照图7A及图7B,对实施方式的点群的提取处理进行说明。
图7A及图7B是用于说明实施方式的点群的提取处理的图。图7A表示从传感器31照射激光而扫描的高度的虚拟平面中的台车90的剖视图。图7B表示将扫描的结果而得到的点群的分布模型化后的俯视图。如上所述,在台车90的侧面设置有包含对光进行反射的部件在内的保护栅91b。图7A所示的剖视图的双点划线表示台车90的外形,在该矩形的内侧散布的圆形标记表示保护栅91b所包含的部件的截面。该虚拟平面中的截面在沿着台车90的侧面的方向上离散地配置。基于被扫描的高度的保护栅91b的外形的台车90的侧面的外形的轮廓被分断。台车90能够在其保护栅91b的内侧装载货物(对象物)。无人搬运车100通过传感器装置30以能够观测的状态装载货物。
图7B所示的俯视图的双点划线表示台车90的外形,虚线表示装载部91的外形。外形模型的外形与上述台车90的外形和装载部91的外形中的任一个建立对应。另外,在该矩形的内侧散布的白圈标记表示保护栅91b所包含的部件的位置,黑圈标记表示与对通过扫描检测出的部件的位置进行表示的点对应的点群。该虚拟平面中的截面在沿着台车90的侧面的方向上离散地配置。上述点群在沿着外形模型的外形的方向上离散地配置。如上所述,如果在台车90上没有装载货物,则检测出图7B所示的俯视图所示那样的黑圈标记的点群。
图8是表示实施方式的检测处理的流程的流程图。
图8所示的处理首先从无人搬运车100已移动到卸货作业的开始位置的状态开始。
传感器控制部130开始基于传感器装置30的扫描。传感器控制部130从传感器装置30取得基于传感器装置30的检测结果的点群信息(步骤S10),并供给至点群信息提取部301。点群信息提取部301从提取对象区域参照表401取得提取对象区域DZN的信息,提取存在于提取对象区域DZN内的点群(步骤S12)。
由点群信息提取部301提取出的点群被输入到台车位置及姿态推定部302。台车位置及姿态推定部302参照台车形状模型数据402,进行提取出的点群和模型数据的拟合(步骤S20),计算为外形候选。
如上所述,能够使单调的图形与以传感器装置30的观测平面(前述的虚拟平面)的高度切出了台车90的截面上的点群的分布拟合,并近似于该单调的图形。矩形是单调的图形的一例。
在与该拟合有关的处理中,例如,从提取出的点群中随机地选择3点或4点,计算出连结这些点的2条线段。可以将该2个线段所成的角度在容许范围内与基于外形模型的角度一致的2个线段识别为外形候选。另外,也可以将在从各线段隔开规定的距离的范围内存在的点群的数量作为识别的条件来使用。由此,能够将存在于上述范围内的点群的数量不满足预先确定的基准的线段的组合从外形候选中排除。进而,通过对提取出的点群进行加权,也能够将不满足一定的权重的点群从线段计算的选择对象中排除。
台车位置及姿态推定部302评价基于上述处理的拟合结果的妥当性。台车位置及姿态推定部302例如判定所提取的点群存在于所拟合的外形模型所表示的外形的内外中的哪一个(步骤S22)。台车位置及姿态推定部302仅使用将因台车90的货物的装载状态而观测结果发生变化的内侧的点群排除后的外侧的点群进行评价(步骤S24)。
台车位置及姿态推定部302反复进行步骤S20的拟合和与该评价有关的处理,直到评价次数成为规定的次数(N次)以上为止(步骤S26)。当评价次数为N次以上时,台车位置及姿态推定部302基于根据上述评价结果得到的外形的候选群,选出最佳的评价值的外形作为台车90的位置及姿态(步骤S30)。作为该评价的指标,可以决定为外侧的点群的个数少但取更好的评价值。
台车位置及姿态推定部302将通过上述的评价得到的台车90的位置及姿态推定结果向移动目标计算部303供给。移动目标计算部303根据相对移动位置参照表403确定将台车90排列设置的位置,取得用于向其移动的相对位置,计算无人搬运车100的从当前位置起的移动目标(步骤S34)。移动目标计算部303将计算出的移动目标供给至移动体控制部110。移动体控制部110使无人搬运车100自主移动到目标位置(步骤S36)。
通过上述的处理,无人搬运车100能够移动到目标的位置。
在此,参照图9,对实施方式的拟合算法的更具体的一例进行说明。图9是用于说明实施方式的拟合算法的图。
图9的(a)表示在规定的范围内提取出的点群。图9的(a)所示的框表示规定的范围。在图9的(b)、(c1)、(c2)中,作为对图9的(a)所示的点群拟合外形模型的处理的结果,示出了不适合的拟合的例子。在图9中的(d1)、(d2)中,作为对图9的(a)所示的点群拟合外形模型的处理的结果,示出了适合的拟合的例子。
也可以通过由台车位置及姿态推定部302将使外形模型拟合的处理分为2个阶段来实施,来减轻该运算处理的负荷。
例如,对将台车90的外形近似为矩形的情况进行说明。在该情况下,可以将与形成外形线的4条边中的、相邻的2条边对应的线段用于该拟合处理。另外,在近似的矩形为长方形的情况下,具有2个线段正交的特征。
因此,首先,如图9的(b)所示,台车位置及姿态推定部302提取针对点群使进行拟合的2个线段的组。
例如,台车位置及姿态推定部302通过利用了多个点的位置信息的解析方法,生成代表该多个点的线段。作为该解析方法,也可以应用最小二乘法等,但也可以应用即使在存在偏离线段的点的情况下也能够应用的RANSAC(Random Sample Consensus:随机抽样一致算法)等鲁棒性推定方法。例如,根据RANSAC,能够提取如下线段,即,以将随机提取出的2点连结的线段为基准而确定的规定的宽度中存在的点的个数比规定值多的线段。
台车位置及姿态推定部302将其中的、2个线段所成的角在规定的范围内的组识别为适合的组,将规定的范围外的组识别为不适合的组。另外,也可以将2个线段所成的角所涉及的规定的范围决定为能够提取大致正交的线段的组。图9的(b)所示的结果是2个线段所成的角在规定的范围外的一例。通过该处理,台车位置及姿态推定部302能够提取2个线段所成的角在规定的范围内的组。通过上述处理,例如提取图9中的(c1)和(d1)所示的拟合结果。图9中的(c1)和(d1)所示的矩形是基于拟合结果的外形模型的外形线的一例。
接着,台车位置及姿态推定部302在将上述的拟合结果表示的4个线段视为外形模型的外形线时,使用与成为其外侧的点对应的点群信息,判定2个线段的组的妥当性。
例如,也可以如以下那样定义外形模型的外形线的外侧的点群。在以进行内外判定的对象点为起点,而生成从该起点将评价对象的任意点连结的半直线时,能够将构成外形模型的外形线的线段群与上述各半直线的交叉次数成为奇数次的点定义为外形模型所示的外形的内侧的点,将成为偶数次的点定义为外侧的点。另外,构成外形模型的线段群上以及考虑传感器装置30的测距误差而位于其一定附近的点可以视为内侧的点。
例如,从图9中的(c2)的Rca、Rcb的范围内的任意的点引出的双点划线的半直线与构成外形模型的线段群交叉的次数为2次,因此根据上述的定义,识别为图9中的(c2)的外形模型的外侧的点群。从Rcc、Rcd的范围内的任意的点引出的单点划线的半直线与构成外形模型的线段群交叉的次数为1次,因此识别为图9中的(c2)的外形模型的内侧的点群。更具体而言,点Pa、Pb被识别为比外形模型的外形靠外侧的点,点Pc、Pd被识别为比外形模型的外形靠内侧的点。
与此相对,如果如图9中的(d2)那样识别出外形模型,则点Pa、Pb、Pd被识别为比外形模型的外形靠内侧的点,点Pc被识别为比外形模型的外形靠外侧的点。这样,根据外形模型的识别状况,各点群的识别结果不同。
在此,在比外形模型的外形靠外侧或靠内侧存在各点或点群可以说,是如图9中的(c2)、(d2)所示那样,存在由4条边(2条实线和2个条线)形成的外形模型,并在由这4条边包围的区域的外侧或内侧存在各点或点群。也可以将比外形模型的外形靠外侧或靠内侧称为外形模型的外侧或内侧。
台车位置及姿态推定部302基于图9的(a)所示的点的点群信息,以使得被判定为位于被推定为表示台车90的位置及姿态的外形模型的外侧的点变少的方式推定外形模型的位置及姿态,由此推定作为检测对象物的台车90的位置及姿态。此时,台车位置及姿态推定部302可以使用与被推定出位置及姿态的外形模型的外形相比存在于外侧的点群的点群信息,对该外形模型的位置及姿态的推定结果进行评价,来调整外形模型的位置及姿态。
在该评价中,也可以利用被判定为外侧的点的个数的信息。例如,可以将被判定为外侧的点的个数在规定的范围内的情况判定为拟合结果妥当。进而,可以选择被判定为外侧的点的个数最小的组作为最适合的组。根据该评价基准,即使存在从线段大幅偏离的点,也能够减轻其影响。
也可以代替上述评价的基准,利用下述基准进行评价。
例如,在上述的评价中,也可以利用被判定为外侧的点和与外形对应的线段之间的距离。可以将被判定为外侧的点和与外形对应的线段之间的距离的合计在规定的范围内的情况判定为拟合结果妥当。进而,也可以选择被判定为外侧的点和与外形对应的线段之间的距离的合计最小的组作为最适合的组。根据该评价基准,能够对拟合结果的偏差的大小进行定量评价。
通过根据上述任一项的评价基准进行评价,能够识别拟合结果的妥当性。例如,图9中的(c1)、(c2)的拟合的评价值表示差的值,图9中的(d1)、(d2)的拟合的评价值表示良好的值。
进而,台车位置及姿态推定部302基于使用了该点群信息的评价结果,以使得被判定为位于被推定出位置及姿态的外形模型的外侧的点变少的方式调整作为检测对象物的台车90的外形模型的配置,由此,调整与推定检测对象物的位置及姿态的、该结果相应地调整上述移动目标位置即可。
接着,参照图10,对使用无人搬运车100的几个利用方式进行说明。图10是用于说明实施方式的台车90的保管状况的管理的图。在该图10中示出了实施方式的相对移动位置参照表403的一例。相对移动位置参照表403中包含识别编号(No)、位置、姿态、台车类别等项目。识别编号包含用于识别能够配置台车90的各保管场所的信息。位置表示能够配置台车90的各保管场所。姿态表示在保管场所内配置台车90的朝向。例如,在该姿态中,台车90的朝向相对于基准的方向向绕铅垂方向旋转的状态下被配置时的角度的指标被保存。该角度的指标能够用将0度作为基准的方向时的角度(例如+5度)来表示。台车类别表示台车90的类别。
首先,对应用于将台车90B配置于搬运目的地的用途的情况进行说明。
移动目标计算部303参照相对移动位置参照表403,确定能够配置从上位装置指定的台车90B的位置,并与该位置建立对应地决定无人搬运车100的移动目标。移动目标计算部303将表示该位置的信息(指定位置信息)供给至移动体控制部110。移动控制部112基于从移动目标计算部303取得的指定位置信息,通过无人搬运车100将台车90B搬运到与指定位置信息对应的规定的位置进行配置。
例如,在相对移动位置参照表403中,在由No.(K)指定的位置的保管场所ZB未配置台车90。在根据指定位置信息指定了“No.(K)”的情况下,移动控制部112在通过无人搬运车100使台车90B移动至保管场所ZB的位置之后,通过装卸控制部120解除无人搬运车100与台车90B的结合。
接着,对应用于被保管的台车90的搬运的情况进行说明。
移动目标计算部303参照相对移动位置参照表403,确定从上位装置指定的台车90的位置,并与该位置建立对应地决定无人搬运车100的移动目标。移动目标计算部303将表示该位置的信息(指定位置信息)供给至移动体控制部110。移动控制部112基于从移动目标计算部303取得的指定位置信息,使无人搬运车100接近被保管在与指定位置信息对应的规定位置的台车90。
例如,在相对移动位置参照表403中,在由No.(K-1)指定的位置的保管场所ZA配置有台车90A。在根据指定位置信息指定了“No.(K-1)”的情况下,移动控制部112使无人搬运车100接近被保管在保管场所ZA的台车90A。
之后,移动控制部112在使无人搬运车100移动至规定的位置之后,通过装卸控制部120使无人搬运车100与台车90A结合。结合体100P被搬运到从上位装置指定的位置。
接着,对应用于对台车90的保管状态进行重新检测的用途的情况进行说明。
当从上位装置指定了保管状态的重新检测的执行时,移动目标计算部303参照相对移动位置参照表403,决定能够检测台车90的保管状态的位置,将表示该位置的信息(指定位置信息)供给至移动体控制部110,指示保管状态的重新检测。移动控制部112基于从移动目标计算部303取得的指定位置信息,使无人搬运车100移动到与指定位置信息对应的规定的位置。此时,设为在无人搬运车100的+X方向存在供台车90配置的区域。
之后,移动控制部112按照保管状态的重新检测的指示,使无人搬运车100在Y方向上移动。移动体控制部110和数据处理部300协作,取得各保管场所中的与台车90的当前时刻的位置及姿态有关的状态,并将该检测结果写入到相对移动位置参照表403中来更新数据。通过这样的保管状态的重新检测的处理,在因某些原因而导致各保管场所中的台车90的位置及姿态与相对移动位置参照表403的数据无法取得匹配的情况下,能够消除该不匹配的状态。
根据上述实施方式,无人搬运车100的数据处理部300具备点群信息提取部301、台车位置及姿态推定部302以及移动目标计算部303。点群信息提取部301取得传感器装置30对光进行扫描而与台车90(检测对象物)的多个位置对应的点群信息。台车位置及姿态推定部302使用和与台车90有关的外形模型之间的匹配性作为评价指标,基于上述点群信息来推定检测对象物的位置及姿态。移动目标计算单元303基于该推定结果来输出与移动目标位置有关的信息。台车位置及姿态推定部302对点群信息的点群拟合出表示台车90的外形的外形模型,使用在外形模型的外侧存在的点群信息来推定台车90的位置及姿态。由此,检测系统1能够识别搬运对象物的位置及姿态。数据处理部300也可以构成检测系统1。
另外,台车90的大部分,其外形由管框架、树脂网构成。因此,在使用激光测距仪(LRF)等光学传感器的观测中,会检测到台车90的内侧的装载物等。在该情况下,观测结果根据装载物的有无以及装载量而变化,但在本实施方式中,能够识别这样的台车90的位置及姿态。
(第一实施方式的第一变形例)
对第一实施方式的第一变形例进行说明。
在第一实施方式中,对提取对象区域DZF、DZN(图6A及图6B)被指定为相对于无人搬运车100的相对位置的事例进行了说明。在本变形例中,代替于此,对提取对象区域DZF被指定为相对于无人搬运车100的周边环境的相对位置的事例进行说明。
提取对象区域DZF、DZN相对于无人搬运车100的周边的环境而设置台车90的位置/范围可以被预先指定。无人搬运车100的周边的环境与使无人搬运车100行驶来搬运台车90的移动范围的状况有关。更具体而言,在其移动范围内或其附近,配置有能够相对地确定无人搬运车100的位置的部件、或者能够相对地确定能够使无人搬运车100行驶的范围的部件。由此,无人搬运车100能够通过解析地确定相对于其周边的环境的相对位置,或者通过识别设置于环境的标记来计算相对于其周边的环境的相对位置。通过将该计算结果与提取对象区域参照表401的指定值组合,能够得到相对于无人搬运车100的提取对象区域。另外,作为相对地确定无人搬运车100的位置的自身位置推定的方法,已知有例如SLAM(Simultaneous Localization and Mapping)等。
根据上述的本变形例,即使在提取对象区域DZF被指定为相对于无人搬运车100的周边环境而言的相对位置的情况下,也起到与实施方式同样的效果。
(第一实施方式的第二变形例)
参照图11,对第一实施方式的第二变形例进行说明。
在第一实施方式中,对矩形的外形模型的事例进行了说明。在本变形例中,对难以近似于单调的外形的形状的外形模型的事例进行说明。
图11是用于说明变形例的向弯曲的外形线的应用的图。
如图11所示,外形模型的轮廓中有时从点PA到点PB的外形线OL弯曲而形成凸形状。在这样的情况下,可以对外形线OL进行折线近似,将外形线OL的近似结果的构成线段群视为绕逆时针方向的矢量Va、Vb、Vc、Vd的组合。并且,通过下述方法,可以识别评价对象的点PS的位置相对于外形线OL为内还是外。将评价对象的点PS和上述的矢量Vc选定为第一矢量,规定从矢量Vc的起点估计评价对象的点PS的第二矢量。计算第一矢量和第二矢量的外积。如果作为第一矢量依次选定矢量Va、Vb、Vc、Vd的第一矢量和第二矢量的外积始终为正值,则能够将评价对象的点PS视为外形线OL的内侧的点。
另外,在评价值的计算中,例如能够将存在于外侧的点群的数量设为评价值,或者将从外侧的各点到外形的距离的合计值设为评价值。具有如下特征:前者能够降低较大的偏离值的影响,另一方面,后者更容易对拟合的偏差的大小进行定量评价。另外,也可以在评价值的计算中使用将上述权重相乘而得到的值。
(第二实施方式)
参照图12对第二实施方式进行说明。在第二实施方式中,对在通过第一实施方式中的拟合处理未得到妥当的推定结果等情况下采取了消除该问题的对策的事例进行说明。图12是表示第二实施方式的检测处理的流程的流程图。
主要地,传感器控制部130和数据处理部300按照与前述的图8所示的步骤S10到步骤S30的顺序相同的顺序进行拟合处理。
台车位置及姿态推定部302针对通过步骤S30的处理选出为最佳候选的外形,判定步骤S24的评价结果的值是否为预先决定的阈值以上(步骤S32)。台车位置及姿态推定部302在与最佳候选有关的评价结果满足预先指定的阈值的情况下,实施步骤S34的处理。
与此相对,在上述的判定的结果是与最佳候选有关的评价结果不满足预先指定的阈值的情况下,台车位置及姿态推定部302判断为未得到妥当的推定结果,并将判断结果通知给移动目标计算部303。移动目标计算部303参照相对于无人搬运车100定义了相对的位置及姿态的相对移动位置参照表403,以使无人搬运车100的位置或者姿态成为与台车90的上次的观测不同的位置或者姿态的方式控制移动控制部112来使无人搬运车100的位置移动。传感器控制部130和数据处理部300从移动目的地的位置再次观测台车90的位置及姿态(步骤S40),计算无人搬运车100的移动目标。数据处理部300将无人搬运车100的移动目标通知给移动控制部112。移动控制部112使无人搬运车100自主移动到根据再次观测的结果计算出的移动目标(步骤S42)。与此相应地,无人搬运车100反复进行从步骤S10起的处理,以从与上次的观测不同的位置和方向重新观测设为搬运对象物的台车90并重新执行推定和评价。
根据本实施方式,无人搬运车100通过自身移动来变更传感器31的位置,由此能够提高台车90的检测精度。
(第三实施方式)
参照图13和图14,对与第三实施方式的检测系统1A对应的无人搬运车100A进行说明。图13是第三实施方式的无人搬运车100A的结构图。图14是用于说明第三实施方式的提取对象区域的图。如图13所示,无人搬运车100A具备传感器装置30A和移动体控制部110A来代替传感器装置30和移动体控制部110。
传感器装置30A具备传感器31A和传感器31B来代替传感器31。传感器31A和传感器31B分别具备相当于传感器31的结构。传感器31A和传感器31B在无人搬运车100A中沿Y方向隔开规定的距离而配置。
移动体控制部110A具备传感器控制部130A来代替传感器控制部130。传感器控制部130A取得由传感器31A、31B分别生成的检测距离信息,并供给至数据处理部300。另外,从传感器31A、31B取得的点群信息表示的位置信息成为在Y方向上偏移了与传感器31A、31B的安装间隔对应的规定的距离的信息。传感器控制部130A可以向数据处理部300供给以消除该偏移的方式进行了校正的点群信息。
如上所述,通过将传感器31A、31B在Y方向上隔离地设置,例如,即使在台车90的保护栅91b中的1个与传感器31A的扫描的光轴上重叠的情况下,也不会重叠于传感器31B的扫描的光轴上。因此,传感器控制部130A即使不使无人搬运车100移动,仅仅切换利用的传感器,就能够检测上述的保护栅栏91b中的1个的位置。
(第四实施方式)
参照图15和图16,对第四实施方式的检测系统1B进行说明。图15是表示第四实施方式的检测系统1B的应用场所的一例的示意图。图16是第四实施方式的检测系统1B的结构图。
检测系统1B具备处理装置200。处理装置200可以是检测系统1B的一例。例如,在该图15所示的检测系统1B中,除了处理装置200以外,还包括无人搬运车100B以及作为搬运对象物的台车90A、90B。
无人搬运车100B具备移动体控制部110B来代替移动体控制部110。无人搬运车100B与前述的无人搬运车100不同,也可以不具备数据处理部300和数据保管部400。
代替于此,处理装置200具备数据处理部300和数据保管部400。处理装置200中的数据处理部300和数据保管部400相当于前述的无人搬运车100的数据处理部300和数据保管部400。
另外,无人搬运车100B的移动体控制部110B具备移动控制部112B和传感器控制部130B来代替移动控制部112和传感器控制部130。移动控制部112B和传感器控制部130B经由网络NW而与处理装置200的数据处理部300进行通信。
前述的无人搬运车100具备数据处理部300和数据保管部400,由此在其内部处理基于传感器装置30的检测结果的处理。本实施方式中的无人搬运车100B能够通过经由网络NW与处理装置200进行通信来与处理装置200协作。在该状态下,无人搬运车100B实现与无人搬运车100同样的控制。
图17是表示实施方式的处理装置200的硬件结构例的图。处理装置200例如具备CPU200A、RAM(RandomAccess Memory:随机存储存储器)200B、非易失性存储装置200C、可移动型存储介质驱动装置200D、输入输出装置200E、以及通信接口200F。处理装置200也可以代替CPU200A而具备GPU等任意的处理器。另外,图17所示的各构成要素中的一部分也可以省略。
CPU200A将存储在非易失性存储装置200C中的程序、或者安装在便携式存储介质驱动装置200D上的便携式存储介质中存储的程序在RAM200B中展开并执行,由此进行以下说明的各种处理。RAM200B被CPU200A用作工作区。非易失性存储装置200C例如是HDD、闪存、ROM等。在便携式存储介质驱动装置200D中安装有DVD、CD(Compact Disc)、SD(注册商标)卡等便携式存储介质。输入输出装置200E例如包括键盘、鼠标、触摸面板、显示设备等。通信接口200F作为处理装置200与无人搬运车100B等其他装置进行通信时的接口而发挥功能。
处理装置200的各功能部(例如,数据处理部300)例如至少一部分通过CPU200A或GPU等硬件处理器执行在非易失性存储装置200C等中存储的程序(软件)来实现。另外,处理装置200的各功能部的一部分或全部可以通过LSI、ASIC、FPGA等硬件(电路部:circuitry)来实现,也可以通过软件与硬件的协同配合来实现。处理装置200是计算机的一例。
根据上述实施方式,处理装置200具备点群信息提取部301、台车位置及姿态推定部302以及移动目标计算部303。处理装置200通过经由通信接口200F与无人搬运车100B进行通信,起到与第一实施方式相同的效果。
根据以上说明的至少一个实施方式,检测系统具有取得部、推定部以及输出部。所述取得部取得点群信息,该点群信息是扫描光后检测对象物的多个位置所对应的点群信息。所述推定部在评价指标中使用与和所述检测对象物有关的外形模型之间的匹配性,基于所述点群信息来推定检测对象物的位置及姿态。所述输出部基于所述推定结果而输出与移动目标位置有关的信息。所述推定部能够通过将对所述检测对象物的外形进行表示的外形模型与所述点群信息的点群进行拟合、并使用在所述外形模型的外侧存在的点群信息来推定所述检测对象物的位置及姿态这一更简单的处理,来识别搬运对象物的位置及姿态。
对本发明的几个实施方式进行了说明,但这些实施方式是作为例子而提示的,并不意图限定发明的范围。这些实施方式能够以其他各种方式实施,在不脱离发明的主旨的范围内,能够进行各种省略、置换、变更。这些实施方式及其变形包含在发明的范围或主旨中,同样包含在权利要求书所记载的发明及其等同的范围内。
例如,无人搬运车100与台车90移动的面优选为水平,使得台车90不会因面的倾斜而移动。传感器装置30扫描的虚拟平面优选在确保检测范围更宽的基础上,平行于无人搬运车100和台车90移动的面。另外,传感器装置30扫描的虚拟平面优选与无人搬运车100和台车90移动的面同样为水平。例如,在上述的虚拟平面以及无人搬运车100和台车90移动的面都是水平、且台车90的形状近似于长方体的情况下,其外形模型的虚拟平面中的截面成为长方形。与此相对,在虚拟平面以及无人搬运车100和台车90移动的面并不平行的情况下,其外形模型的虚拟平面中的截面产生从长方形的变形。从这样的观点出发,虚拟平面可以与无人搬运车100和台车90移动的面并行。另外,并不对以使传感器装置30扫描的虚拟平面相对于无人搬运车100和台车90移动的面倾斜的方式设置角度这一情况进行限制。
对将上述实施方式的检测对象确定为台车90的装载部91、并将传感器装置30扫描的虚拟平面的高度选择为保护栅91b的高度的事例进行了说明,但并不对选择装载板91a的高度这一情况进行限制。也能够适当地选择。
[附图标记说明]
1、1A、1B…检测系统、100、100A、100B…无人搬运车(移动体)、200…处理装置、300…数据处理部(处理部)、301…点群信息提取部(取得部)、302…台车位置及姿态推定部(推定部)、303…移动目标计算部(输出部)、400…数据保管部。
Claims (20)
1.一种检测系统,具备:
取得部,取得点群信息,该点群信息是扫描光后检测对象物的多个位置所对应的点群信息;
推定部,在评价指标中使用与和所述检测对象物有关的外形模型之间的匹配性,基于所述点群信息来推定检测对象物的位置及姿态;以及
输出部,基于所述推定的结果来输出与移动目标位置有关的信息,
所述推定部,将对所述检测对象物的外形进行表示的外形模型与所述点群信息的点群进行拟合,并使用在所述外形模型的外侧存在的点群信息来推定所述检测对象物的位置及姿态。
2.根据权利要求1所述的检测系统,其中,
所述推定部,基于所述点群信息,以被判定为位于被推定出所述位置及姿态的所述外形模型的外侧的点变少的方式推定所述外形模型的位置及姿态。
3.根据权利要求1所述的检测系统,其中,
所述推定部,基于所述点群信息,以被判定为位于被推定出所述位置及姿态的所述外形模型的外侧的点变少的方式调整所述外形模型的配置,由此推定所述检测对象物的位置及姿态。
4.根据权利要求1所述的检测系统,其中,
所述推定部,使用与被推定出所述位置及姿态的所述外形模型的外形相比存在于外侧的位置的点群,对所述外形模型的所述位置及姿态的推定结果进行评价。
5.根据权利要求1所述的检测系统,其中,
所述检测对象物的侧面包含对光进行反射的部件,
接受所述扫描的光的所述部件的截面在沿着所述检测对象物的侧面的方向上离散地配置。
6.根据权利要求5所述的检测系统,其中,
与反射了所述光的所述部件的位置对应的点群,在沿着所述外形模型的外形的方向上离散地配置。
7.根据权利要求1所述的检测系统,其中,
基于半直线与形成所述外形模型的外形线的线段群交叉的次数,来识别所述外形模型的外侧,所述半直线将进行所述检测对象物的内外判定的对象的点与所述检测对象物的任意的点连结而成。
8.一种处理装置,具备:
取得部,取得点群信息,该点群信息是扫描光后检测对象物的多个位置所对应的点群信息;
推定部,在评价指标中使用与和所述检测对象物有关的外形模型之间的匹配性,基于所述点群信息来推定检测对象物的位置及姿态;以及
输出部,基于所述推定的结果来输出与移动目标位置有关的信息,
所述推定部,将对所述检测对象物的外形进行表示的外形模型与所述点群信息的点群进行拟合,并使用在所述外形模型的外侧存在的点群信息来推定所述检测对象物的位置及姿态。
9.一种移动体,通过移动机构而移动,具备:
权利要求1至6中任一项所述的检测系统;以及
移动机构,基于所述检测对象物的位置及姿态的推定结果来进行驱动。
10.根据权利要求9所述的移动体,其中,
还设置有生成所述点群信息的距离传感器,
推定出所述检测对象物的位置及姿态的推定结果是基于所述距离传感器的检测结果而得到的。
11.根据权利要求10所述的移动体,其中,具备:
点群信息提取部,参照定义了所述检测对象物的提取对象区域的表格,提取所述提取对象区域内的点群信息;以及
控制部,基于与所述检测对象物的位置及姿态有关的信息来控制所述移动机构,
所述推定部,使用作为所述点群信息而被提取出的所述点群信息来推定所述检测对象物的位置及姿态。
12.权利要求9至11中任一项所述的移动体,其中,
所述检测对象物的提取对象区域被指定为相对于本移动体的相对位置,或者被指定为相对于本移动体的周边环境的相对位置。
13.根据权利要求11所述的移动体,其中,
所述检测对象物是与本移动体结合地输送的输送对象,
所述控制部,基于所述检测对象物的位置及姿态的推定结果,决定使本移动体与所述搬运对象结合的位置来作为本移动体的移动目标,并进行控制以使本移动体移动到本移动体的移动目标。
14.根据权利要求13所述的移动体,其中,
所述输出部,在将所述输送对象与本移动体结合的情况下,参照定义了所述输送对象的位置及姿态的表,决定本移动体的移动目标。
15.根据权利要求9至13中任一项所述的移动体,其中
所述输出部,在对相同形状的搬运对象进行排列设置的情况下,参照定义了所述搬运对象的位置及姿态的表,决定本移动体的移动目标。
16.根据权利要求11所述的移动体,其中,
具备可动机构,该可动机构使所述距离传感器的位置移动,
所述控制部,参照所述外形模型,使所述距离传感器移动到适合于检测所述检测对象物的位置。
17.根据权利要求9至16中任一项所述的移动体,其中,
所述推定部,使用与被推定出所述位置及姿态的所述外形模型的外形相比存在于外侧的点群,对所述外形模型的所述位置及姿态的推定结果进行评价,
所述输出部,在未得到比预先定义的阈值好的评价作为所述推定的结果的情况下,参照定义了相对于本移动体的相对的位置及姿态的表,基于在所述表中定义的所述相对的位置及姿态的信息来驱动所述移动机构,
所述推定部,基于从与所述检测对象物的上次的观测不同的位置及姿态对与所述上次的观测相同的所述检测对象物进行再次观测的结果,重新推定所述检测对象物的位置及姿态,并评价所述位置及姿态的推定结果。
18.根据权利要求9至17中任一项所述的移动体,其中,
所述检测对象物为,在投射所述光而被扫描的高度下的所述检测对象物的外形的轮廓被分断,在比所述检测对象物的侧面靠内侧的位置形成为能够装载装载物,在通过在比所述检测对象物的侧面靠外侧的位置的距离传感器能够观测所述装载物的状态下装载所述装载物。
19.一种检测方法,包括由检测系统的计算机执行的如下步骤:
取得点群信息,该点群信息是扫描光后检测对象物的多个位置所对应的点群信息;
在评价指标中使用与和所述检测对象物有关的外形模型之间的匹配性,基于所述点群信息来推定检测对象物的位置及姿态;
基于所述推定的结果来输出与移动目标位置有关的信息;以及
将对所述检测对象物的外形进行表示的外形模型与所述点群信息的点群进行拟合,并使用在所述外形模型的外侧存在的点群信息来推定所述检测对象物的位置及姿态。
20.一种存储介质,非易失性地存储有检测系统的计算机可读取的程序,该程序使所述检测系统的计算机执行如下步骤:
取得点群信息,该点群信息是扫描光后检测对象物的多个位置所对应的点群信息;
在评价指标中使用与和所述检测对象物有关的外形模型之间的匹配性,基于所述点群信息来推定检测对象物的位置及姿态;
基于所述推定的结果来输出与移动目标位置有关的信息;以及
将对所述检测对象物的外形进行表示的外形模型与所述点群信息的点群进行拟合,并使用在所述外形模型的外侧存在的点群信息来推定所述检测对象物的位置及姿态。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021101967A JP2023000901A (ja) | 2021-06-18 | 2021-06-18 | 検出システム、処理装置、移動体、検出方法及びプログラム |
JP2021-101967 | 2021-06-18 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115494836A true CN115494836A (zh) | 2022-12-20 |
Family
ID=82115512
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210676801.4A Pending CN115494836A (zh) | 2021-06-18 | 2022-06-15 | 检测系统、处理装置、移动体、检测方法以及存储介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220404495A1 (zh) |
EP (1) | EP4116941A3 (zh) |
JP (1) | JP2023000901A (zh) |
CN (1) | CN115494836A (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117132598B (zh) * | 2023-10-26 | 2024-03-22 | 国创移动能源创新中心(江苏)有限公司 | 电动汽车充电接口的异物检测方法、异物检测装置 |
-
2021
- 2021-06-18 JP JP2021101967A patent/JP2023000901A/ja active Pending
-
2022
- 2022-06-15 CN CN202210676801.4A patent/CN115494836A/zh active Pending
- 2022-06-16 US US17/807,258 patent/US20220404495A1/en active Pending
- 2022-06-17 EP EP22179597.4A patent/EP4116941A3/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4116941A3 (en) | 2023-03-22 |
EP4116941A2 (en) | 2023-01-11 |
JP2023000901A (ja) | 2023-01-04 |
US20220404495A1 (en) | 2022-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10265856B2 (en) | Reorienting a distance sensor using an adjustable leveler | |
US10007266B2 (en) | Using planar sensors for pallet detection | |
US10611613B2 (en) | Systems and methods for pose development using retrieved position of a pallet or product load to be picked up | |
US8548671B2 (en) | Method and apparatus for automatically calibrating vehicle parameters | |
US10108194B1 (en) | Object placement verification | |
JP2019529277A (ja) | 協調的在庫監視 | |
US20180215539A1 (en) | Shelf transport system, shelf transport vehicle, and shelf transport method | |
KR20180127534A (ko) | 재고 관리 | |
US10025886B1 (en) | Methods and systems for using projected patterns to facilitate mapping of an environment | |
CN107450554A (zh) | 一种潜伏式agv以及运行系统 | |
JP2020077295A (ja) | 無人搬送車、無人搬送車の制御方法、及びプログラム | |
US11797011B2 (en) | Traveling control system for transport vehicle and traveling control method for transport vehicle | |
TW202020797A (zh) | 搬運裝置、搬運系統及貨架搬運方法 | |
Behrje et al. | An autonomous forklift with 3d time-of-flight camera-based localization and navigation | |
CN115494836A (zh) | 检测系统、处理装置、移动体、检测方法以及存储介质 | |
JP7500484B2 (ja) | 無人搬送車、無人搬送システム及び搬送プログラム | |
JP7318244B2 (ja) | 自律移動装置、プログラムおよび自律移動装置による搬送対象物の選択方法 | |
KR102564663B1 (ko) | 무인 반송 차량의 위치 인식 장치 및 방법 | |
US20220100195A1 (en) | Vehicle object-engagement scanning system and method | |
JP7300413B2 (ja) | 制御装置、移動体、移動制御システム、制御方法及びプログラム | |
JP7338048B2 (ja) | 移動体システム | |
WO2022168377A1 (ja) | 荷物搬送システム、並びに荷物搬送システムにおいて用いられる方法およびコンピュータプログラム | |
JP7198614B2 (ja) | 搬送装置、搬送装置の制御方法およびプログラム | |
JP2023126668A (ja) | 自律移動装置および自律移動装置の移動制御方法 | |
WO2023192333A1 (en) | Automated identification of potential obstructions in a targeted drop zone |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |