CN107203207A - 无人行驶作业车 - Google Patents

无人行驶作业车 Download PDF

Info

Publication number
CN107203207A
CN107203207A CN201710156408.1A CN201710156408A CN107203207A CN 107203207 A CN107203207 A CN 107203207A CN 201710156408 A CN201710156408 A CN 201710156408A CN 107203207 A CN107203207 A CN 107203207A
Authority
CN
China
Prior art keywords
mark
operation van
place
angle
unmanned traveling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710156408.1A
Other languages
English (en)
Other versions
CN107203207B (zh
Inventor
白水康之
御菩萨池勉
山中真
广瀬好寿
木上南
山下健政
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of CN107203207A publication Critical patent/CN107203207A/zh
Application granted granted Critical
Publication of CN107203207B publication Critical patent/CN107203207B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D34/00Mowers; Mowing apparatus of harvesters
    • A01D34/006Control or measuring arrangements
    • A01D34/008Control or measuring arrangements for automated or remotely controlled operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D2101/00Lawn-mowers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Environmental Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Medical Informatics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Guiding Agricultural Machines (AREA)
  • Traffic Control Systems (AREA)
  • Harvester Elements (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

提供无人行驶作业车,其在作业区域内自动进行作业,具有:举动取得部,其取得包含所述无人行驶作业车的移动距离和移动方向的举动信息;图像解析部,其提取设置在所述无人行驶作业车上的摄像头拍摄的图像中包含的标识;以及测量部,其通过三角测量法取得所述图像解析部提取出的所述标识的位置信息,所述测量部使用下述数据取得所述标识的所述位置信息,上述数据包括:第1角度,其是从所述无人行驶作业车在向一定的移动方向移动的期间内通过的第1地点指向所述标识的方向与所述移动方向之间的角度差;第2角度,其是从所述无人行驶作业车在向所述移动方向移动的期间内通过的与所述第1地点不同的第2地点指向所述标识的方向与所述移动方向之间的角度差;以及所述第1地点与所述第2地点之间的距离,所述测量部在所述无人行驶作业车向所述移动方向移动的期间内,以所述第1角度与所述第2角度之间的角度差接近90度的方式决定所述第1地点和/或所述第2地点。

Description

无人行驶作业车
技术领域
本发明涉及无人行驶作业车。本发明特别涉及能够减轻与无人行驶作业车进行作业的作业区域的设定有关的用户的劳力的无人行驶作业车。
背景技术
以往,例如提出了如下的无人行驶作业车:搭载割草作业用刀片等作业装置,在所设定的作业区域内进行无人行驶的期间内使作业装置进行工作。例如用户设置缆线等物理障壁,由此设定无人行驶作业车进行无人行驶的作业区域。因此,无人行驶作业车在与物理障壁接触时,例如转弯而进行方向转换,由此不会在作业区域外进行行驶。
但是,为了通过物理障壁来设定作业区域,用户需要在作业区域的内外边界的整体范围内将例如缆线等物理障壁设置成与无人行驶作业车接触的高度。这里,在美国专利申请公开第2015/0271991号中公开了能够存储作业区域的内外边界的位置信息的不需要物理障壁的机器人割草机(无人行驶作业车)。
在该无人行驶作业车上设置有用户能够把持的手柄,用户能够把持该手柄来引导无人行驶作业车的行驶。该无人行驶作业车在用户沿着作业区域的内外边界引导无人行驶作业车的行驶的期间内,取得自身的当前位置并进行存储,由此能够存储该边界的位置。
该无人行驶作业车在存储了作业区域的内外边界的位置后,通过对作业区域的内外边界的位置与自身的当前位置进行比较,能够实现仅在作业区域内的行驶。因此,在该无人行驶作业车中,用户不需要在作业区域的内外边界的整体范围内设置缆线等物理障壁。
但是,在该无人行驶作业车中,为了进行作业区域的设定,用户需要沿着作业区域的内外边界引导无人行驶作业车的行驶。因此,本发明人认识到,在现有的无人行驶作业车中,为了减轻与作业区域的设定有关的用户的劳力,存在改良的余地。
发明内容
本发明的一个侧面提供能够减轻与无人行驶作业车进行作业的作业区域的设定有关的用户的劳力的无人行驶作业车。通过参照以下例示的实施方式和附图,本领域技术人员可知本发明的其他侧面。
根据本发明的一部分实施方式,提供一种无人行驶作业车,该无人行驶作业车在作业区域内自动进行作业,其具有:举动取得部,其取得包含所述无人行驶作业车移动的距离和移动的方向的举动信息;图像解析部,其提取设置在所述无人行驶作业车上的摄像头拍摄的图像中包含的标识;以及测量部,其通过三角测量法取得所述图像解析部提取出的所述标识的位置信息,所述测量部使用下述数据取得所述标识的所述位置信息,上述数据包括:第1角度,其是从所述无人行驶作业车在向一定的移动方向移动的期间内通过的第1地点指向所述标识的方向与所述移动方向之间的角度差;第2角度,其是从所述无人行驶作业车在向所述移动方向移动的期间内通过的与所述第1地点不同的第2地点指向所述标识的方向与所述移动方向之间的角度差;以及所述第1地点与所述第2地点之间的距离,所述测量部在所述无人行驶作业车向所述移动方向移动的期间内,以所述第1角度与所述第2角度之间的角度差接近90度的方式决定所述第1地点和/或所述第2地点。
根据本发明的其他实施方式,提供一种控制在作业区域内自动进行作业的无人行驶作业车的方法,该方法具有以下步骤:取得包含所述无人行驶作业车的移动距离和移动方向在内的举动信息;提取设置在所述无人行驶作业车上的摄像头拍摄的图像中包含的标识;以及通过三角测量法取得所述提取出的所述标识的位置信息,在取得所述位置信息的步骤中包括以下步骤:使用下述数据取得所述标识的所述位置信息,上述数据包括:第1角度,其是从所述无人行驶作业车在向一定的移动方向移动的期间内通过的第1地点指向所述标识的方向与所述移动方向之间的角度差;第2角度,其是从所述无人行驶作业车在向所述移动方向移动的期间内通过的与所述第1地点不同的第2地点指向所述标识的方向与所述移动方向之间的角度差;以及所述第1地点与所述第2地点之间的距离,在所述无人行驶作业车向所述移动方向移动的期间内,以所述第1角度与所述第2角度之间的角度差接近90度的方式决定所述第1地点和/或所述第2地点。
本发明的进一步的特征将通过以下示例性说明的实施方式(参照附图)而变得清楚。
附图说明
图1是示出本发明的一部分实施方式的无人行驶作业车的整体结构的例子的侧视图。
图2是图1所示的无人行驶作业车的平面图。
图3是示出图1所示的基板和与基板连接的装置等的结构的例子的框图。
图4是示出图3所示的电子控制装置的结构的例子的框图。
图5是示出图1所示的无人行驶作业车的作业区域的例子的图。
图6是说明图4所示的测量部的三角测量法的原理的图。
图7是示出图1所示的无人行驶作业车取得多个标识的位置信息时的移动的例子的图。
图8是示出图1所示的无人行驶作业车取得标识的位置信息时的动作的例子的流程图。
图9是说明摄像头对标识进行拍摄时产生的误差的图。
图10A、图10B是说明考虑了摄像头对标识进行拍摄时产生的误差的图4所示的测量部的测量的精度的图。
图11A、图11B是说明考虑了摄像头对标识进行拍摄时产生的误差的图4所示的测量部的测量的精度的图。
图12是示出图8所示的流程图的取得标识的位置信息的步骤的详细处理的例子的流程图。
图13是在图1所示的无人行驶作业车与标识之间存在障碍物时、无人行驶作业车向一定的方向移动的例子。
图14A-图14D是示出图13所示的状况下的图4所示的图像解析部的图像解析的例子的图。
具体实施方式
为了容易理解本发明而使用以下说明的实施方式。因此,本领域技术人员应该留意到,本发明并不受以下说明的实施方式不妥当地限定。
《1.无人行驶作业车的结构例》
参照图1和图2对无人行驶作业车10的整体结构的例子进行说明。下面,将无人行驶作业车10称为作业车10。在图1中,作为作业车10的一例,示出为了割草而能够自主行驶的机器人式割草机。作业车10包括壳体11、设置在壳体11的前部的左右的前轮12、设置在壳体11的后部的左右的后轮13、设置在壳体11的中央的下部的作业部14。在图1所示的例子中,作为作业车10是机器人式割草机的情况下的作业部14的一例,示出割草刀片。
作业车10在壳体11内具有单独驱动左右的后轮13的左右的行驶用马达15、驱动作业部14的驱动用马达16、电池17、车轮速度传感器18、基板30,该基板30搭载电子控制装置(ECU;Electronic Control Unit)31、角速度传感器32和加速度传感器33。并且,作业车10在壳体11上具有能够对作业车10的外部进行拍摄的摄像头21。摄像头21例如具有CCD、CMOS等摄像传感器以及在摄像传感器的摄像面上形成被摄体的像的摄像镜头,能够生成数字形式的图像。
从电池17对行驶用马达15、驱动用马达16、车轮速度传感器18、ECU 31、角速度传感器32、加速度传感器33和摄像头21供给电力。例如,可以经由ECU 31从电池17对行驶用马达15、驱动用马达16、车轮速度传感器18、角速度传感器32、加速度传感器33和摄像头21供给电力。
ECU 31从车轮速度传感器18、角速度传感器32、加速度传感器33和摄像头21接收信号(或数据),对行驶用马达15和驱动用马达16的动作进行控制。并且,ECU 31通过单独控制左右的行驶用马达15,能够对作业车10的移动进行控制。
即,如图2所示,左侧的行驶用马达15单独驱动左侧的后轮13,右侧的行驶用马达15单独驱动右侧的后轮13。例如,左右的行驶用马达15双方以等速正转,由此,作业车10向前方直线行驶(前进)。同样,左右的行驶用马达15双方以等速反转,由此,作业车10向后方直线行驶(后退)。
并且,左侧的行驶用马达15和右侧的行驶用马达15以不同速度正转,由此,作业车10向左右的行驶用马达15的旋转速度较慢的一侧的方向转弯。进而,左右的行驶用马达15的一方正转、并且另一方以相同旋转速度反转,由此,作业车10能够向左右的行驶用马达15的反转的一侧的方向转弯,而作业车10的位置不变。
参照图3对基板30和与基板30连接的装置等的结构的例子进行说明。如图3所示,基板30具有ECU 31、角速度传感器32、加速度传感器33、单独控制左右的行驶用马达15的旋转的驱动器36、控制驱动用马达16的旋转的驱动器37。并且,基板30与摄像头21、电池17和车轮速度传感器18电连接。
角速度传感器32对ECU 31输出表示作业车10的未图示的重心位置的绕铅直轴的旋转角速度即横摆角速度的信号。即,ECU 31从角速度传感器32接收表示横摆角速度的信号,由此,能够通过运算等取得作业车10的正面方向(行进方向)。
加速度传感器33对ECU 31输出表示在作业车10的例如前后方向、左右方向和上下方向这3个方向上作用的加速度的信号。加速度传感器33不是必须输出表示在3个方向上作用的加速度的信号,例如也可以输出表示在上述3个方向中的一个方向或2个方向上作用的加速度的信号。
驱动器36根据从ECU 31接收的信号,单独控制左右的行驶用马达15的旋转。驱动器37根据从ECU 31接收的信号,对驱动用马达16的旋转进行控制。这里,在图3所示的例子中,角速度传感器32、加速度传感器33、驱动器36和驱动器37作为与ECU 31分开的结构要素设置在基板30上,但是,例如,ECU 31也可以具有它们中的至少一个以上。
车轮速度传感器18以能够检测后轮13的旋转速度的方式设置在作业车10上,对基板30、具体而言为对ECU 31输出表示后轮13的旋转速度的信号。即,ECU 31从车轮速度传感器18接收表示后轮13的旋转速度的信号,由此,能够通过运算等取得作业车10移动了的距离。
摄像头21以能够对作业车10的外部进行拍摄的方式设置在作业车10上,对基板30、具体而言为对ECU 31输出拍摄到的图像的数据。这里,在图3所示的例子中,一个摄像头21与基板30电连接,但是,也可以是2个以上的摄像头21与基板30连接。
并且,也可以以能够在周围整体范围内对作业车10的外部进行拍摄的方式在作业车10的适当位置设置适当个数的摄像头21。例如,可以在作业车10的壳体11的前侧、后侧、左侧、右侧各设置一个、即合计4个摄像头21。取而代之,例如,也可以在作业车10的壳体11的上位部设置具有能够在周围整体范围内对作业车10的外部进行拍摄的视场角的一个摄像头21。
参照图4对ECU 31的结构的例子进行说明。ECU 31例如由包括CPU(CentralProcessing Unit:中央处理单元)等处理部40和RAM(Random Access Memory:随机存取存储器)、ROM(Read Only Memory:只读存储器)等存储部50的微型计算机构成。在存储部50中存储有与作业车10进行作业的范围即作业区域有关的地图数据(地图)51。
处理部40例如通过执行存储部50中存储的未图示的程序而作为移动方向决定部41、图像解析部43、举动取得部44和测量部45发挥功能。取而代之,移动方向决定部41、图像解析部43、举动取得部44和测量部45中的至少一方例如也可以由模拟电路等硬件来实现。
移动方向决定部41决定作业车10移动的方向(移动方向)。图像解析部43接收摄像头21拍摄作业车10的外部而得的图像,例如使用公知的图像处理、图案匹配手法等对图像进行解析。在作业车10具有多个摄像头21时,图像解析部43例如也可以对将从多个摄像头21接收的拍摄作业车10的外部而得的图像结合起来而得到的、作业车10的周围整体范围的图像进行解析。在接收到的图像中包含后述标识时,图像解析部43提取标识。然后,图像解析部43通过运算等取得作业车10的正面方向(行进方向)与从作业车10的当前位置指向提取出的标识的方向之间的角度差。
举动取得部44取得包含作业车10移动的距离和方向的举动信息。举动取得部44根据从车轮速度传感器18接收的信号,通过运算等取得作业车10移动的距离。并且,举动取得部44根据从角速度传感器32接收的信号,通过运算等取得作业车10移动的方向。举动取得部44例如也可以将根据从加速度传感器33接收的信号通过运算等取得的信息进一步包含在举动信息中。
测量部45使用图像解析部43的解析结果和举动取得部44的举动信息,通过后述的三角测量法取得图像解析部43提取出的标识的位置信息。测量部45例如将取得的标识的位置信息反映在地图51中。
作为作业车10的动作模式,作业车10例如具有作业模式和测量模式。作业车10在以作业模式进行动作时,在作业区域内自主行驶,例如进行割草等作业。并且,作业车10在以测量模式进行动作时,在自主行驶的期间内取得标识的位置信息并对地图51进行更新。
《2.无人行驶作业车的动作的例子》
《2-1.作业区域与无人行驶作业车的动作之间的关系》
参照图5对作业区域70与作业车10的动作之间的关系进行说明。在图5中示出从上方观察作业区域70的例子。在图5所示的例子中,作业区域70表示为用虚线包围的范围。并且,在图5所示的例子中,示出能够收容作业车10的充电站60。作业车10通过收容在充电站60内,能够进行电池17的充电。并且,作业车10也可以在结束了作业模式或测量模式中的动作时,移动到充电站60并收容在此。另外,在图5所示的例子中,充电站60以跨越作业区域70的内侧和外侧的状态进行配置,但是,充电站60也可以配置在作业区域70的内侧,还可以配置在作业区域70的外侧。
作业车10能够在ECU 31的存储部50存储的地图51上设定(或存储)作业区域70。地图51例如是表示与地面同一平面的二维地图,地图51上的位置信息(二维坐标)和实际空间上的位置信息(二维坐标)成为对应关系。实际空间上的位置信息(二维坐标)例如用与地面同一平面上的坐标平面来表示,该坐标平面将配置有充电站60的位置或预先设定的位置作为原点,利用X轴和与X轴垂直交叉的Y轴这2个坐标轴构成。另外,在图5所示的例子中,省略原点、X轴和Y轴的图示,示出X轴正方向和Y轴正方向的例子。
在图5所示的例子中,示出长方形的作业区域70,在该长方形的4个顶点存在标识71(71-1、71-2、71-3、71-4)。即,在图5所示的例子中,在地图51上,设定由实际空间上与4个标识71(71-1、71-2、71-3、71-4)的位置对应的4个坐标点规定的长方形的内侧的范围作为作业区域70。
如上所述,作业车10能够通过ECU 31的举动取得部44,取得包含作业车10移动了的距离和作业车10移动的方向的举动信息。因此,作业车10能够在地图51上掌握作业车10的当前位置。
这样,作业车10在地图51上设定了作业区域70后,能够仅在作业区域70的内侧行驶。其结果是,作业车10例如在以作业模式进行动作时,仅在作业区域70的内侧自主行驶,能够进行割草等作业。
为了在地图51上设定作业区域70,需要掌握与实际空间上的作业区域70的内侧和外侧之间的边界有关的位置信息(二维坐标)。在作业车10中,测量部45通过三角测量法取得实际空间上的标识71的位置信息(二维坐标),作为与实际空间上的作业区域70的内侧和外侧之间的边界有关的位置信息。另外,用户能够编辑地图51,例如,可以根据地图51上反映的标识71的位置信息,将分开任意距离的位置设定为作业区域70的内侧和外侧之间的边界。
并且,标识71是能够从由图像解析部43从摄像头21接收到的图像中提取出的物体,例如可以是能够竖立在地面上的棒状物。并且,只要能够从由图像解析部43从摄像头21接收到的图像中提取即可,可以使用树、石头等作为标识71。进而,标识71例如也可以构成为,能够发出作为摄像头21的摄像对象的特定频率区域的光。
《2-2.由三角测量法实现的标识的位置信息的取得》
参照图6,对测量部45使用三角测量法取得标识71的位置信息(二维坐标)的方法的一例进行说明。在图6中示出从上方观察向一定方向移动的作业车10和标识71的例子。
设作业车10向一定方向移动时通过的位置10-A与位置10-B的距离为L。设连接位置10-A与标识71的位置的直线的距离为HA。设连接位置10-A与标识71的位置的直线和作业车10移动的方向所成的角为θA。设连接位置10-B与标识71的位置的直线和作业车10移动的方向所成的角为θB。设通过位置10-A和标识71的位置的直线与通过位置10-B和标识71的位置的直线所成的角为θα。此时,根据正弦定理,得到下面的式(1)。
HA/sin(π-θB)=L/sinθα
HA/sinθB=L/sin(θB-θA) (1)
(∵sin(π-θB)=sinθB、θα=θB-θA)
并且,通过对式(1)进行变形,得到下面的式(2)。
HA=L·sinθB/sin(θB-θA) (2)
这样,通过得到L、θA、θB,能够运算式(2)来决定HA。这里,作业车10向一定方向从位置10-A移动到位置10-B,由此,测量部45能够得到L、θA、θB。即,举动取得部44取得L,图像解析部43取得θA和θB。因此,测量部45能够取得在位置10-A处与作业车10的正面方向(行进方向)之间的角度差为θA的方向上、在从位置10-A间隔开HA的位置配置标识71。如上所述,测量部45使用三角测量法取得标识71的位置信息(二维坐标)。
下面,在测量部45使用三角测量法取得标识71的位置信息时,将作业车10向一定的移动方向移动的期间内通过的2个位置(在图6中相当于位置10-A和位置10-B)中的一方称为第1地点(在图6中相当于位置10-A),将另一方称为第2地点(在图6中相当于位置10-B)。并且,将从第1地点指向标识71的方向与移动方向之间的角度差称为第1角度(在图6中相当于角度θA),将从第2地点指向标识71的方向与移动方向之间的角度差称为第2角度(在图6中相当于角度θB)。
《2-3.测量模式中的无人行驶作业车的动作的例子》
参照图7和图8,对测量模式中的作业车10的动作的例子进行说明。在图7中示出从上方观察作业车10和4个标识71(71-1、71-2、71-3、71-4)的例子。在图7所示的例子中,设作业车10在位置10-1处开始执行测量模式。
开始执行测量模式的作业车10在位置10-1处通过摄像头21对作业车10的外部进行拍摄。图像解析部43接收摄像头21拍摄到的图像并进行解析。图像解析部43在解析出的图像中包含标识71-1时,提取标识71-1。测量部45开始取得图像解析部43提取出的标识71-1的位置信息。
移动方向决定部41针对测量部45开始取得位置信息的标识71-1,为了取得位置信息,决定作业车10移动的移动方向。即,移动方向决定部41决定作业车10不与标识71(标识71-1)接触且与从作业车10的当前位置(位置10-1)指向标识71(标识71-1)的方向之间的角度差θg(θg1)小于90度的方向,作为作业车10的移动方向。
通过移动方向决定部41决定作业车10的移动方向后,作业车10进行转弯,直到正面方向(行进方向)与移动方向决定部41决定的移动方向一致为止。在正面方向(行进方向)与移动方向决定部41决定的移动方向一致后,作业车10向正面方向(行进方向)移动(前进)。在作业车10移动的期间内,测量部45通过上述三角测量法取得标识71(标识71-1)的位置信息。
如上所述,在测量部45开始取得标识71的位置信息时,移动方向决定部41决定作业车10的移动方向,由此,能够取得标识71的位置信息,而不用用户自己取得标识71的位置信息,也不用引导作业车10的移动方向。并且,移动方向决定部41决定的移动方向是作业车10不与标识71接触的方向,并且是与从作业车10的当前位置指向标识71的方向之间的角度差θg小于90度的方向,由此,在作业车10向所决定的移动方向移动的期间内,产生作业车10与标识71之间的距离缩近的时机。即,与作业车10向不会产生作业车10与标识71之间的距离缩近的时机、与从作业车10的当前位置指向标识71的方向之间的角度差θg为90度以上的方向移动的情况相比,能够根据与标识71之间的距离较近时拍摄到的图像取得标识71的位置信息。
移动方向决定部41决定的移动方向也可以是作业车10不与标识71接触的方向、并且是与从作业车10的当前位置指向标识71的方向之间的角度差θg小于45度的方向。该情况下,在作业车10向所决定的移动方向移动的期间内,充分产生作业车10与标识71的距离缩近的时机。
并且,测量部45也可以判定图像解析部43提取出的标识71(71-1)的位置信息的取得是否完成。然后,在判定为标识71(71-1)的位置信息的取得未完成时,测量部45也可以开始取得标识71(71-1)的位置信息。例如,测量部45可以参照地图51,将存储了位置信息的标识71判定为位置信息的取得已完成的标识71。取而代之,测量部45也可以将执行了规定次数的位置信息的取得的标识71判定为位置信息的取得已完成的标识71。
通过测量部45开始取得位置信息的取得未完成的标识71的位置信息,能够防止如下情况:针对位置信息的取得已经完成的标识71,再次执行位置信息的取得。其结果是,例如,能够减少与测量模式中的动作有关的电池17的电力消耗。
并且,图像解析部43在接收到的图像中包含多个标识71时,提取这些标识71的全部。测量部45判定图像解析部43提取出的多个标识71中是否包含位置信息的取得未完成的标识71。在包含位置信息的取得未完成的标识71时,测量部45开始取得位置信息的取得未完成的标识71中、从作业车10的当前位置最易看清的标识71的位置信息。从作业车10的当前位置最易看清的标识71例如可以是接收到的图像上的大小最大的标识71。例如,反复进行同样的步骤,直到摄像头21在标识71的位置信息的取得已完成的位置处拍摄到的图像中不包含位置信息的取得未完成的标识71为止。
具体而言,在图7所示的例子中,设在摄像头21在作业车10位于位置10-1时拍摄的图像中包含位置信息的取得未完成的4个标识71(71-1、71-2、71-3、71-4)。此时,图像解析部43提取接收到的图像中包含的4个标识71(71-1、71-2、71-3、71-4),测量部45判定为4个标识71(71-1、71-2、71-3、71-4)的位置信息的取得未完成。测量部45开始取得位置信息的取得未完成的4个标识71(71-1、71-2、71-3、71-4)中、从作业车10的当前位置(位置10-1)最易看清的标识71-1的位置信息。然后,通过移动方向决定部41决定作业车10的移动方向,在作业车10向所决定的移动方向移动的期间内,测量部45取得标识71-1的位置信息。
然后,设在摄像头21在标识71-1的位置信息的取得已完成的位置(例如位置10-2)处拍摄的图像中包含4个标识71(71-1、71-2、71-3、71-4)。此时,图像解析部43提取接收到的图像中包含的4个标识71(71-1、71-2、71-3、71-4),测量部45判定为3个标识71(71-2、71-3、71-4)的位置信息的取得未完成。测量部45开始取得位置信息的取得未完成的3个标识71(71-2、71-3、71-4)中、从作业车10的当前位置(位置10-2)最易看清的标识71-2的位置信息。
在标识71-2的位置信息的取得已完成的位置(例如位置10-3)处,通过同样的步骤开始取得标识71-3的位置信息,进而,在标识71-3的位置信息的取得已完成的位置(例如位置10-4)处,通过同样的步骤开始取得标识71-4的位置信息。这里,在开始取得任意的标识71的位置信息时,移动方向决定部41决定的移动方向都是作业车10不与标识71接触的方向、并且是与从作业车10的当前位置指向标识71的方向之间的角度差θg(θg1、θg2、θg3、θg4)小于90度的方向。
在测量部45判定为在摄像头21在标识71-4的位置信息的取得已完成的位置(未图示)处拍摄的图像中不包含位置信息的取得未完成的标识71(全部标识71的位置信息的取得已完成)时,作业车10也可以结束测量模式中的动作。但是,取而代之,例如,也可以在全部标识71的位置信息的取得已完成了3次时,作业车10结束测量模式中的动作。
这样,在摄像头21拍摄到的图像中包含多个标识71时,测量部45决定取得位置信息的标识71,由此,用户不需要决定取得位置信息的标识71。并且,测量部45开始取得位置信息的取得未完成的标识71中、从作业车10的当前位置最易看清的标识71的位置信息,由此,例如与开始取得从当前位置起的距离最远的标识71的位置信息的情况相比,到完成全部标识71的位置信息的取得为止所需要的移动距离变短。其结果是,能够减少与测量模式中的动作有关的电池17的电力消耗。
参照图8所示的流程图,对测量模式中的作业车10的动作的一连串流程的例子进行说明。在步骤S101中,作业车10的摄像头21对作业车10的外部进行拍摄。在步骤S102中,图像解析部43对摄像头21拍摄到的图像进行分析,提取图像中包含的标识71。在步骤S103中,测量部45判定图像解析部43提取出的标识71中是否包含位置信息的取得未完成的标识71。
在步骤S103的判定为“是”时,流程进入步骤S104,在步骤S103的判定为“否”时,流程结束。在步骤S104中,测量部45决定取得位置信息的标识71,移动方向决定部41决定作业车10的移动方向。在步骤S105中,作业车10开始向移动方向决定部41决定了的移动方向移动,在作业车10向该移动方向移动的期间内,测量部45通过上述三角测量法取得标识71的位置信息。
在步骤S106中,测量部45将所取得的标识71的位置信息反映在地图51中,对地图51进行更新。当地图51的更新结束后,流程再次进入步骤S101。即,反复进行步骤S101~步骤S106的处理,直到在步骤S103的步骤中判定为图像解析部43提取出的标识71中不包含位置信息的取得未完成的标识71为止。
《2-4.位置信息的取得的精度》
参照图9~图11B对由测量部45实现的取得标识71的位置信息的精度进行说明。在图9中示出从上方观察作业车10和标识71的例子。并且,在图9所示的例子中,作业车10和标识71间隔开距离H。
这里,一般而言,在能够生成数字形式的图像的摄像头中,在摄像传感器的摄像面上形成被摄体的像时,产生由于摄像传感器的分辨率、摄像镜头的焦距等而引起的误差。受到该误差影响,在摄像头21进行拍摄时,产生规定的角度的摄像误差±θp(摄像误差的范围为2θp)。由于产生摄像误差±θp,在包含实际空间上的2Htanθp的范围的误差的状态下对从作业车10间隔开距离H的标识71进行拍摄。即,随着摄像头21与标识71之间的距离变远,摄像误差的影响增大。
参照图10A~图11B对采用三角测量法取得标识71的位置信息时的摄像误差的影响进行说明。图10A、图10B所示的区域76表示使用三角测量法取得标识71的位置信息的误差的范围。区域76是重叠形成在第1地点的例子即位置A处对标识71进行拍摄时的摄像误差和在第2地点的例子即位置B处对标识71进行拍摄时的摄像误差的区域。
在图10A的例子与图10B的例子之间,位置A(第1地点)与标识71之间的距离和位置B(第2地点)与标识71之间的距离大致相同。但是,与图10A所示的例子相比,在由位置A(第1地点)、标识71、位置B(第2地点)构成的角度更接近90度的图10B中,区域76减小。另外,由位置A(第1地点)、标识71、位置B(第2地点)构成的角度和第1角度与第2角度之间的角度差相同。
这样,考虑摄像误差时,三角测量法中使用的第1角度与第2角度之间的角度差越接近90度,则标识71的位置信息的取得的精度越高。即,测量部45在作业车10向移动方向移动的期间内,决定第1地点和/或第2地点,以使得第1角度与第2角度之间的角度差接近90度,由此,能够减小摄像误差。其结果是,用户不需要决定第1地点和第2地点来确保标识71的位置信息的取得的精度。
并且,在图11A、图11B中,作为表示第1角度与第2角度之间的角度差为大致90度时的使用三角测量法的标识71的位置信息的取得的精度的2个例子,示出图11A、图11B。在图11A的区域76和图11B的区域76中,图11A的区域76较大。这是因为,图11A中的位置A(第1地点)与标识71之间的距离比图11B中的位置A(第1地点)与标识71之间的距离长,由此,受到的摄像误差的影响较大。
在第1角度与第2角度之间的角度差为大致90度时,如图11B所示,第1地点与标识71之间的距离和第2地点与标识71之间的距离双方最短的条件是第1角度θA为大致45度和第2角度θB为大致135度成立时。即,测量部45在作业车10向移动方向移动的期间内,决定第1地点,以使得第1角度接近45度,并且决定第2地点,以使得第2角度接近135度,由此,取得标识71的位置信息的精度提高。
这里,从取得标识71的位置信息的精度的观点来看,在测量部45开始取得标识71的位置信息时,移动方向决定部41决定的移动方向也可以是作业车10不与标识71接触的方向、并且是与从作业车10的当前位置指向标识71的方向之间的角度差θg小于45度的方向。即,在作业车10的移动方向是与从作业车10的当前位置指向标识71的方向之间的角度差θg小于45度的方向时,在作业车10移动的期间内,必定通过第1角度为45度的第1地点。
《2-5.与标识的位置信息的取得相关的处理》
参照图12所示的流程图,对测量部45取得标识71的位置信息时的详细处理的例子进行说明。图12所示的流程图是图8所示的流程图中的步骤S105的详细处理的例子。
在步骤S201中,测量部45判定标识检测标志是否有效(ON)。在步骤S201的判定为“是”时,流程进入步骤S205,在步骤S201的判定为“否”时,流程进入步骤S202。另外,在刚刚从图8所示的流程图中的步骤S104进入步骤S105之后,标识检测标志无效(OFF)。
在步骤S202中,测量部45判定在摄像头21在当前位置处拍摄的图像中是否包含标识71。在步骤S202的判定为“是”时,流程进入步骤S203,在步骤S202的判定为“否”时,流程返回开始。
在步骤S203中,测量部45存储拍摄到步骤S202中判定的图像的位置处的作业车10的移动方向与从作业车10指向标识71的方向的角度差,作为第1角度。下面,将对拍摄到图像的位置处的作业车10的移动方向与从作业车10指向标识71的方向的角度差称为标识检测角度。测量部45例如从图像解析部43接收标识检测角度。并且,在步骤S203中,测量部45存储拍摄到步骤S202中判定的图像的位置作为第1地点。下面,将拍摄到图像的位置称为标识检测位置。测量部45例如从举动取得部44接收标识检测位置。
在步骤S204中,测量部45使标识检测标志有效。步骤S204的处理结束后,流程返回开始。在步骤S205中,测量部45判定是否确定了第1角度。在步骤S205的判定为“是”时,流程进入步骤S211,在步骤S205的判定为“否”时,流程进入步骤S206。
在步骤S206中,判定在摄像头21在当前位置处拍摄的图像中是否包含标识71。在步骤S206的判定为“是”时,流程进入步骤S207,在步骤S206的判定为“否”时,流程结束。另外,在步骤S206的判定为“否”、流程结束时,产生能够检测的标识71由于某种原因而无法检测(图像解析部43无法提取标识71)的状况,所以,例如返回图8的流程图的步骤S101。
在步骤S207中,判定拍摄到步骤S206中判定的图像的位置处的标识检测角度是否比第1角度更接近45度。在步骤S207的判定为“是”时,流程进入步骤S208,在步骤S207的判定为“否”时,流程进入步骤S209。
在步骤S208中,测量部45代替当前存储的第1角度,新存储(覆盖)拍摄到步骤S206中判定的图像的位置处的标识检测角度作为第1角度。并且,在步骤S208中,测量部45代替当前存储的第1地点而新存储(覆盖)拍摄到步骤S206中判定的图像的位置作为第1地点。
在步骤S209中,测量部45将当前存储的第1角度和当前存储的第1地点确定为三角测量法中使用的第1角度和第1地点。在步骤S210中,测量部45存储拍摄到步骤S206中判定的图像的位置处的标识检测角度作为第2角度,存储拍摄到图像的位置作为第2地点。步骤S208或步骤S210的处理结束后,流程返回开始。
测量部45具有步骤S207、步骤S208、步骤S209的处理,由此,在作业车10向移动方向移动的期间内,能够决定第1地点,以使得第1角度接近45度。其结果是,取得标识71的位置信息的精度提高。
在步骤S211中,判定在摄像头21在当前位置处拍摄的图像中是否包含标识71。在步骤S211的判定为“是”时,流程进入步骤S212,在步骤S211的判定为“否”时,流程进入步骤S214。
在步骤S212中,判定拍摄到步骤S211中判定的图像的位置处的标识检测角度与所确定的第1角度之间的角度差是否比当前存储的第2角度与所确定的第1角度之间的角度差更接近90度。在步骤S212的判定为“是”时,流程进入步骤S213,在步骤S212的判定为“否”时,流程进入步骤S214。
在步骤S213中,测量部45代替当前存储的第2角度而新存储拍摄到步骤S211中判定的图像的位置处的标识检测角度作为第2角度。并且,在步骤S213中,测量部45代替当前存储的第2地点而新存储拍摄到步骤S211中判定的图像的位置作为第2地点。步骤S213的处理结束后,流程返回开始。
在步骤S214中,测量部45将当前存储的第2角度和当前存储的第2地点确定为三角测量法中使用的第2角度和第2地点。在步骤S215中,测量部45使用所确定的第1角度、所确定的第2角度、所确定的第1地点与所确定的第2地点之间的距离,通过三角测量法运算并取得标识71的位置信息。步骤S215的处理结束后,流程结束。即,步骤S215的处理结束后,进入图8所示的流程图的步骤S106。
测量部45具有步骤S212、步骤S213、步骤S214的处理,由此,在作业车10向移动方向移动的期间内,能够决定第2地点,以使得第2角度接近135度。其结果是,取得标识71的位置信息的精度提高。
图12所示的流程图是一例,测量部45不需要执行全部步骤的处理。测量部45例如也可以执行用于确定第1地点的处理、即相当于图12所示的流程图的步骤S201~步骤S209的处理。并且,测量部45例如也可以执行用于确定第2地点的处理、即相当于图12所示的流程图的步骤S211~步骤S215的处理。
《2-6.特殊情况下的动作》
参照图13~图14D,作为特殊情况的例子,对在作业车10移动的期间内,产生了图像解析部43无法从摄像头21拍摄的图像中提取原本能够从摄像头21拍摄的图像中提取出的标识71的状况时的动作的例子进行说明。下面,将该“图像解析部43无法从摄像头21拍摄的图像中提取原本能够从摄像头21拍摄的图像中提取出的标识71的状况”称为丢失。例如,在位置固定的树、岩石等或位置不固定的人、动物等成为障碍物78而对摄像头21与标识71之间进行遮挡时,可能产生丢失。并且,例如,也可能由于逆光等而产生丢失。
在图13中示出从上方观察向一定的移动方向移动的作业车10和标识71的例子。并且,在图13中示出障碍物78。如图13所示,从位置10-A、位置10-B、位置10-E和位置10-F,能够利用直线连接作业车10和标识71而不与障碍物78发生干涉。另一方面,如图13所示,从位置10-C和10-D,无法利用直线连接作业车10和标识71而不与障碍物78发生干涉。
即,例如,在作业车10一边利用摄像头21对外部进行拍摄一边向图13所示的移动方向移动的期间内,产生图像解析部43无法从在位置10-C处拍摄的图像中提取图像解析部43从在位置10-A和位置10-B处拍摄的图像中提取出的标识71的状况(丢失)。然后,在作业车10移动到位置10-E时,图像解析部43能够再次从拍摄的图像中提取标识71,丢失被消除。
例如,在不进行任何对策时,想定图像解析部43将产生丢失前提取出的标识71和丢失消除后提取的标识71识别为不同的标识71。例如,当在作业车10移动以使测量部45取得标识71的位置信息的期间内产生这种丢失时,想定测量部45无法高精度地取得标识71的位置信息或无法取得标识71的位置信息。即,想定用于供测量部45取得标识71的位置信息的信息限于如下信息中的任意一方:作业车10到达位置10-C之前(产生丢失前)得到的信息(标识检测角度和标识检测位置);或作业车10到达位置10-E后(丢失消除后)得到的信息(标识检测角度和标识检测位置)。
例如,根据图12所示的流程图,步骤S211的判定为“否”或步骤S206的判定为“否”。例如在步骤S211的判定为“否”时,作业车10移动到位置10-C的期间内存储的第2角度和第2地点被确定为三角测量法中使用的第2角度和第2地点(步骤S214),与已经确定的第1角度和第1地点一起,通过三角测量法取得标识71的位置信息(步骤S215)。该情况下,可能无法高精度地取得标识71的位置信息。并且,例如在步骤S206的判定为“否”时,流程结束而不会取得标识71的位置信息。
这里,在图13所示的例子中,在作业车10移动到位置10-E时,图像解析部43能够再次从拍摄的图像中提取标识71,所以,图像解析部43也可以判定产生丢失前提取出的标识71和丢失消除后提取的标识71是否是同一标识71。图像解析部43在产生丢失前提取出的标识71和丢失消除后提取的标识71是同一标识71时,测量部45也可以使用产生丢失前得到的信息(标识检测角度和标识检测位置)和丢失消除后得到的信息(标识检测角度和标识检测位置)双方,取得标识71的位置信息。
于是,与测量部45例如仅使用产生丢失前得到的信息或丢失消除后得到的信息中的一方取得标识71的位置信息的情况相比,能够高精度地取得标识71的位置信息。并且,例如,用户不需要在作业车10移动的期间内将作业车10引导至不受障碍物78影响的位置。
参照图14A~图14D,对丢失产生后又消除时、图像解析部43判定丢失消除后提取的标识71和产生丢失前提取的标识71是否是同一标识71的方法的例子进行说明。
在图14A中,作为摄像头21在产生丢失前拍摄的图像的例子,示出在图13的例子的位置10-B处拍摄的图像80B。在图14B中,作为摄像头21在丢失消除后拍摄的图像的例子,示出在图13的例子的位置10-E处拍摄的图像80E。在图14C中,作为图像解析部43实施了从图像80B中去除标识71以外的部分的图像处理的图像的例子,示出加工图像80Bi。在图14D中,作为图像解析部43实施了从图像80E中去除标识71以外的部分的图像处理的图像的例子,示出加工图像80Ei。另外,在图14A~图14D中,省略障碍物78的图示。
作为一个方法的例子,图像解析部43可以对图像80B上的标识71附近的风景的形状特征和图像80E上的标识71附近的风景的形状特征进行比较。图像解析部43可以根据该比较结果,判定图像80B中包含的标识71和图像80E中包含的标识71是否是同一标识71。根据该方法的例子,能够在判定中使用标识71附近的风景的形状特征。例如,在标识71附近的风景中包含特征性风景(例如树等)的情况下等有效。并且,例如,在丢失消除后拍摄的图像中包含多个同一形状的标识71的情况下等、很难仅利用标识71的形状特征来判定同一性的情况下,还具有确保判定精度的效果。
作为另一个方法的例子,图像解析部43可以使用图13的例子的位置10-B与图13的例子的位置10-E之间的距离,预测图像80B中包含的标识71在图像80E中的位置,对预测出的图像80E上的标识71的位置和实际的图像80E上的标识71的位置进行比较。图像解析部43可以根据该比较结果,判定图像80B中包含的标识71和图像80E中包含的标识71是否是同一标识71。根据该方法的例子,能够在判定中使用作业车10移动了的距离。例如,在丢失消除后拍摄的图像中包含多个同一形状的标识71的情况下等、很难仅利用标识71的形状特征来判定同一性的情况下,还具有确保判定精度的效果。
并且,作为另一个方法的例子,可以对加工图像80Bi上的标识71的形状特征和加工图像80Ei上的标识71的形状特征进行比较。图像解析部43可以根据该比较结果,判定图像80B中包含的标识71和图像80E中包含的标识71是否是同一标识71。根据该方法的例子,能够在判定中使用标识71的形状特征。例如,在标识71的形状具有特征性形状的情况下等特别有效。
并且,作为又一个方法的例子,图像解析部43可以使用图13的例子的位置10-B与图13的例子的位置10-E之间的距离,预测加工图像80Bi中包含的标识71在加工图像80Ei中的位置,对预测出的加工图像80Ei上的标识71的位置和实际的加工图像80Ei上的标识71的位置进行比较。图像解析部43可以根据该比较结果,判定图像80B中包含的标识71和图像80E中包含的标识71是否是同一标识71。根据该方法的例子,能够在判定中使用作业车10移动了的距离。例如,在丢失消除后拍摄的图像中包含多个同一形状的标识71的情况下等、难以仅利用标识71的形状特征来判定同一性的情况下,还具有确保判定精度的效果。
举出了几个丢失产生后又消除时、图像解析部43判定丢失消除后提取的标识71和产生丢失前提取的标识71是否是同一标识71的方法的例子。图像解析部43可以使用单独执行这些方法中的一个方法而得到结果进行判定,也可以使用执行这些方法中的2个以上的方法而得到的结果综合进行判定。并且,图像解析部43还可以一并执行这里未举出的其他方法,考虑其结果综合进行判定。
此前说明的作业车10的动作不需要全部实施。即,作业车10也可以实施此前说明的动作的例子中的一部分。
本发明不限于上述例示的实施方式,并且,本领域技术人员能够容易地在权利要求书所包含的范围内变更上述例示的实施方式。
本发明的第1方式涉及一种无人行驶作业车,该无人行驶作业车在作业区域内自动进行作业,其具有:举动取得部,其取得包含有所述无人行驶作业车移动了的距离和移动的方向的举动信息;图像解析部,其提取设置在所述无人行驶作业车上的摄像头拍摄的图像中包含的标识;以及测量部,其通过三角测量法取得所述图像解析部提取出的所述标识的位置信息,所述测量部使用下述数据取得所述标识的所述位置信息,上述数据包括:第1角度,其是从所述无人行驶作业车在向一定的移动方向移动的期间内通过的第1地点指向所述标识的方向与所述移动方向之间的角度差;第2角度,其是从所述无人行驶作业车在向所述移动方向移动的期间内通过的与所述第1地点不同的第2地点指向所述标识的方向与所述移动方向之间的角度差;以及所述第1地点与所述第2地点之间的距离,所述测量部在所述无人行驶作业车向所述移动方向移动的期间内,以所述第1角度与所述第2角度之间的角度差接近90度的方式决定所述第1地点和/或所述第2地点。
一般而言,在能够生成数字形式的图像的摄像头中,在摄像传感器的摄像面上形成被摄体的像时,产生由于摄像传感器的分辨率、摄像镜头的焦距等而引起的误差。测量部在无人行驶作业车向一定的移动方向移动的期间内,以第1角度与第2角度之间的角度差接近90度的方式决定第1地点和/或第2地点,由此,能够减小上述误差的影响。其结果是,用户不需要决定第1地点和第2地点来确保取得标识的位置信息的精度。
在本发明的第2方式中,可以是,在第1方式中,所述测量部在所述无人行驶作业车向所述移动方向移动的期间内,以所述第1角度接近45度的方式决定所述第1地点,并且以所述第2角度接近135度的方式决定所述第2地点。
随着摄像头与标识之间的距离变长,上述误差的影响增大。在第2方式中,测量部能够缩短第1地点与标识之间的距离和第2地点与标识之间的距离双方。
在本发明的第3方式中,可以是,在第1或第2方式中,所述测量部在所述无人行驶作业车向所述移动方向移动的期间内,在从所述无人行驶作业车的当前位置指向所述标识的方向与所述移动方向之间的角度差比已经决定的所述第1地点处的第1角度更接近45度时,代替所述已经决定的所述第1地点而将所述当前位置决定为所述第1地点,另一方面,在从所述无人行驶作业车的当前位置指向所述标识的方向与所述移动方向之间的角度差不比已经决定的所述第1地点处的第1角度更接近45度时,在所述标识的所述位置信息的取得中使用已经决定的所述第1地点处的所述第1角度。
在第3方式中,在无人行驶作业车向移动方向移动的期间内,能够以第1角度接近45度的方式决定第1地点。
在本发明的第4方式中,可以是,在第1~3方式中,所述测量部在所述无人行驶作业车向所述移动方向移动的期间内,在从所述无人行驶作业车的当前位置指向所述标识的方向与所述移动方向之间的角度差比已经决定的所述第2地点处的第2角度更接近135度时,代替已经决定的所述第2地点而将所述当前位置决定为所述第2地点,另一方面,在从所述无人行驶作业车的当前位置指向所述标识的方向与所述移动方向之间的角度差不比已经决定的所述第2地点处的第2角度更接近135度时,在所述标识的所述位置信息的取得中使用已经决定的所述第2地点处的所述第2角度。
在第4方式中,在无人行驶作业车向移动方向移动的期间内,能够以第2角度接近135度的方式决定第2地点。
参照示例性实施方式对本发明进行了说明,但是,应该理解到本发明不限于公开的示例性实施方式。下面的权利要求书应给予最广泛的解释,以便包括所有这些修改和等价的结构和功能。

Claims (5)

1.一种无人行驶作业车,该无人行驶作业车在作业区域内自动进行作业,其具有:
举动取得部,其取得包含所述无人行驶作业车的移动距离和移动方向在内的举动信息;
图像解析部,其提取设置在所述无人行驶作业车上的摄像头拍摄的图像中包含的标识;以及
测量部,其通过三角测量法取得所述图像解析部提取出的所述标识的位置信息,
所述测量部使用下述数据取得所述标识的所述位置信息,上述数据包括:第1角度,其是从所述无人行驶作业车在向一定的移动方向移动的期间内通过的第1地点指向所述标识的方向与所述移动方向之间的角度差;第2角度,其是从所述无人行驶作业车在向所述移动方向移动的期间内通过的与所述第1地点不同的第2地点指向所述标识的方向与所述移动方向之间的角度差;以及所述第1地点与所述第2地点之间的距离,
所述测量部在所述无人行驶作业车向所述移动方向移动的期间内,以所述第1角度与所述第2角度之间的角度差接近90度的方式决定所述第1地点和/或所述第2地点。
2.根据权利要求1所述的无人行驶作业车,其中,
所述测量部在所述无人行驶作业车向所述移动方向移动的期间内,以所述第1角度接近45度的方式决定所述第1地点,并且以所述第2角度接近135度的方式决定所述第2地点。
3.根据权利要求1所述的无人行驶作业车,其中,
所述测量部在所述无人行驶作业车向所述移动方向移动的期间内,在从所述无人行驶作业车的当前位置指向所述标识的方向与所述移动方向之间的角度差比已经决定的所述第1地点处的第1角度更接近45度时,将所述当前位置决定为所述第1地点以代替所述已经决定的所述第1地点,另一方面,在从所述无人行驶作业车的当前位置指向所述标识的方向与所述移动方向之间的角度差不比已经决定的所述第1地点处的第1角度更接近45度时,在所述标识的所述位置信息的取得中使用已经决定的所述第1地点处的所述第1角度。
4.根据权利要求1所述的无人行驶作业车,其中,
所述测量部在所述无人行驶作业车向所述移动方向移动的期间内,在从所述无人行驶作业车的当前位置指向所述标识的方向与所述移动方向之间的角度差比已经决定的所述第2地点处的第2角度更接近135度时,将所述当前位置决定为所述第2地点以代替已经决定的所述第2地点,另一方面,在从所述无人行驶作业车的当前位置指向所述标识的方向与所述移动方向之间的角度差不比已经决定的所述第2地点处的第2角度更接近135度时,在所述标识的所述位置信息的取得中使用已经决定的所述第2地点处的所述第2角度。
5.一种控制在作业区域内自动进行作业的无人行驶作业车的方法,该方法具有以下步骤:
取得包含所述无人行驶作业车的移动距离和移动方向在内的举动信息;
提取设置在所述无人行驶作业车上的摄像头拍摄的图像中包含的标识;以及
通过三角测量法取得提取出的所述标识的位置信息,
在取得所述位置信息的步骤中包括以下步骤:
使用下述数据取得所述标识的所述位置信息,上述数据包括:第1角度,其是从所述无人行驶作业车在向一定的移动方向移动的期间内通过的第1地点指向所述标识的方向与所述移动方向之间的角度差;第2角度,其是从所述无人行驶作业车在向所述移动方向移动的期间内通过的与所述第1地点不同的第2地点指向所述标识的方向与所述移动方向之间的角度差;以及所述第1地点与所述第2地点之间的距离,
在所述无人行驶作业车向所述移动方向移动的期间内,以所述第1角度与所述第2角度之间的角度差接近90度的方式决定所述第1地点和/或所述第2地点。
CN201710156408.1A 2016-03-18 2017-03-16 无人行驶作业车 Active CN107203207B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-055478 2016-03-18
JP2016055478A JP6243944B2 (ja) 2016-03-18 2016-03-18 無人走行作業車

Publications (2)

Publication Number Publication Date
CN107203207A true CN107203207A (zh) 2017-09-26
CN107203207B CN107203207B (zh) 2020-07-28

Family

ID=58398017

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710156408.1A Active CN107203207B (zh) 2016-03-18 2017-03-16 无人行驶作业车

Country Status (4)

Country Link
US (1) US10067511B2 (zh)
EP (1) EP3223101B1 (zh)
JP (1) JP6243944B2 (zh)
CN (1) CN107203207B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6639979B2 (ja) * 2016-03-23 2020-02-05 オリンパス株式会社 撮影機器及び撮影用移動体
CN108427409A (zh) * 2017-02-15 2018-08-21 苏州宝时得电动工具有限公司 自动工作系统,自移动设备及其控制方法
JP6982105B2 (ja) * 2018-02-15 2021-12-17 本田技研工業株式会社 作業機
US10831211B1 (en) * 2018-06-11 2020-11-10 United Services Automobile Association (Usaa) Marker based navigation system for robotic vehicle
WO2020262737A1 (ko) * 2019-06-28 2020-12-30 엘지전자 주식회사 지능형 로봇 청소기
KR20190108530A (ko) * 2019-09-04 2019-09-24 엘지전자 주식회사 이동 로봇 및 그의 구동 방법
CN110825083B (zh) * 2019-11-12 2023-02-28 深圳创维数字技术有限公司 车辆的控制方法、设备及计算机可读存储介质

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4905151A (en) * 1988-03-07 1990-02-27 Transitions Research Corporation One dimensional image visual system for a moving vehicle
EP0366350A2 (en) * 1988-10-25 1990-05-02 Tennant Company Guiding an unmanned vehicle by reference to overhead features
US5426584A (en) * 1992-02-24 1995-06-20 Honda Giken Kogyo Kabushiki Kaisha Steering control system for moving vehicle
US20040167688A1 (en) * 2002-12-17 2004-08-26 Karlsson L. Niklas Systems and methods for correction of drift via global localization with a visual landmark
JP2007249735A (ja) * 2006-03-17 2007-09-27 Fujitsu Ltd ロボット位置制御装置およびロボット自己位置回復方法
CN101497329A (zh) * 2008-01-29 2009-08-05 欧姆龙株式会社 图像处理装置、图像处理方法、以及程序
US20100292839A1 (en) * 2009-05-15 2010-11-18 Samsung Electronics Co., Ltd. Mobile robot system and method of controlling the same
CN102039595A (zh) * 2009-10-09 2011-05-04 泰怡凯电器(苏州)有限公司 自移动地面处理机器人及其贴边地面处理的控制方法
CN102768532A (zh) * 2011-04-28 2012-11-07 苏州宝时得电动工具有限公司 自动工作系统、自动行走设备及其转向方法
CN103076802A (zh) * 2012-10-09 2013-05-01 江苏大学 机器人虚拟边界建立与识别方法及系统
CN103324192A (zh) * 2012-03-23 2013-09-25 苏州宝时得电动工具有限公司 边界设置方法及边界设置系统
KR20140032113A (ko) * 2012-09-06 2014-03-14 (주)하기소닉 자연랜드마크 및 인공랜드마크와 엔코더를 이용한 지능형 이동로봇의 위치인식 방법
US20150271991A1 (en) * 2014-03-31 2015-10-01 Irobot Corporation Autonomous Mobile Robot
CN105094125A (zh) * 2014-05-09 2015-11-25 金宝电子工业股份有限公司 室内机器人及其定位方法
CN105334848A (zh) * 2014-07-02 2016-02-17 苏州宝时得电动工具有限公司 自动行走设备控制方法及自动工作系统
CN105403859A (zh) * 2015-11-09 2016-03-16 深圳市中科鸥鹏智能科技有限公司 机器人定位方法和装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5610870B2 (ja) * 2010-06-21 2014-10-22 三菱重工業株式会社 無人走行車両の誘導装置及び無人走行車両の誘導方法
JP2014183841A (ja) * 2013-02-19 2014-10-02 Muroran Institute Of Technology 植物自動収穫機、植物自動収穫プログラムおよび植物自動収穫方法

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4905151A (en) * 1988-03-07 1990-02-27 Transitions Research Corporation One dimensional image visual system for a moving vehicle
EP0366350A2 (en) * 1988-10-25 1990-05-02 Tennant Company Guiding an unmanned vehicle by reference to overhead features
US5426584A (en) * 1992-02-24 1995-06-20 Honda Giken Kogyo Kabushiki Kaisha Steering control system for moving vehicle
US20040167688A1 (en) * 2002-12-17 2004-08-26 Karlsson L. Niklas Systems and methods for correction of drift via global localization with a visual landmark
JP2007249735A (ja) * 2006-03-17 2007-09-27 Fujitsu Ltd ロボット位置制御装置およびロボット自己位置回復方法
CN101497329A (zh) * 2008-01-29 2009-08-05 欧姆龙株式会社 图像处理装置、图像处理方法、以及程序
US20100292839A1 (en) * 2009-05-15 2010-11-18 Samsung Electronics Co., Ltd. Mobile robot system and method of controlling the same
CN102039595A (zh) * 2009-10-09 2011-05-04 泰怡凯电器(苏州)有限公司 自移动地面处理机器人及其贴边地面处理的控制方法
CN102768532A (zh) * 2011-04-28 2012-11-07 苏州宝时得电动工具有限公司 自动工作系统、自动行走设备及其转向方法
CN102768533A (zh) * 2011-04-28 2012-11-07 苏州宝时得电动工具有限公司 自动工作系统、自动行走设备及其转向方法
CN103324192A (zh) * 2012-03-23 2013-09-25 苏州宝时得电动工具有限公司 边界设置方法及边界设置系统
KR20140032113A (ko) * 2012-09-06 2014-03-14 (주)하기소닉 자연랜드마크 및 인공랜드마크와 엔코더를 이용한 지능형 이동로봇의 위치인식 방법
CN103076802A (zh) * 2012-10-09 2013-05-01 江苏大学 机器人虚拟边界建立与识别方法及系统
US20150271991A1 (en) * 2014-03-31 2015-10-01 Irobot Corporation Autonomous Mobile Robot
CN105094125A (zh) * 2014-05-09 2015-11-25 金宝电子工业股份有限公司 室内机器人及其定位方法
CN105334848A (zh) * 2014-07-02 2016-02-17 苏州宝时得电动工具有限公司 自动行走设备控制方法及自动工作系统
CN105403859A (zh) * 2015-11-09 2016-03-16 深圳市中科鸥鹏智能科技有限公司 机器人定位方法和装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
AI COSTA等: "Bearing-only landmark initialization with unknown data association", 《PROCEEDINGS OF THE 2004 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS & AUTOMATION》 *
KLIPPENSTEIN ET AL.: "Feature Initialization for Bearing-Only Visual SLAM Using Triangulation and the Unscented Transform", 《PROCEEDINGS OF THE 2007 IEEE INTERNATIONAL CONFERENCE ON MECHATRONICS AND AUTOMATION》 *

Also Published As

Publication number Publication date
JP6243944B2 (ja) 2017-12-06
US20170269604A1 (en) 2017-09-21
EP3223101A1 (en) 2017-09-27
CN107203207B (zh) 2020-07-28
US10067511B2 (en) 2018-09-04
JP2017168058A (ja) 2017-09-21
EP3223101B1 (en) 2021-07-21

Similar Documents

Publication Publication Date Title
CN107203208A (zh) 无人行驶作业车
CN107203207A (zh) 无人行驶作业车
CN107203206A (zh) 无人行驶作业车
CN110096059A (zh) 自动驾驶方法、装置、设备及存储介质
CN110477825B (zh) 清洁机器人、自主充电方法、系统及可读存储介质
ES2976466T3 (es) Sistema de detección de defectos usando un UAV equipado con cámara para fachadas de edificios en geometría de inmuebles complejos con una trayectoria de vuelo óptima y desprovista automáticamente de conflictos con obstáculos
CN110930323B (zh) 图像去反光的方法、装置
CN109460029A (zh) 畜禽养殖场所巡检移动平台及其控制方法
CN108089572A (zh) 用于稳健且有效的车辆定位的算法和基础设施
CN110780305A (zh) 一种基于多线激光雷达的赛道锥桶检测及目标点追踪方法
CN108303103A (zh) 目标车道的确定方法和装置
CN107205111A (zh) 摄像装置、移动装置、摄像系统、摄像方法和记录介质
CN115599119A (zh) 一种无人机的避障系统
CN114341930A (zh) 图像处理装置、拍摄装置、机器人以及机器人系统
JP5375249B2 (ja) 移動経路計画装置、移動体制御装置及び移動体
JP2008012636A (ja) 人物識別システム
CN114078246A (zh) 确定检测对象的三维信息的方法及装置
CN115790568A (zh) 基于语义信息的地图生成方法及相关设备
CN111897337B (zh) 一种机器人沿边行走时的避障控制方法及其控制系统
CN115140032A (zh) 数据收集装置、系统、方法、车辆控制装置及存储介质
CN114549610A (zh) 一种点云数据的处理方法及相关装置
CN112034863B (zh) 地面性质信息的检测方法及装置、计算机设备
CN116563812B (zh) 目标检测方法、装置、存储介质及车辆
KR101476790B1 (ko) 주행 정보 수집 시스템 및 주행 정보 수집 방법
CN116503482A (zh) 车辆位置的获取方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant