CN108027616B - 移动体 - Google Patents
移动体 Download PDFInfo
- Publication number
- CN108027616B CN108027616B CN201680054021.9A CN201680054021A CN108027616B CN 108027616 B CN108027616 B CN 108027616B CN 201680054021 A CN201680054021 A CN 201680054021A CN 108027616 B CN108027616 B CN 108027616B
- Authority
- CN
- China
- Prior art keywords
- user
- leg
- moving
- mobile body
- memory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 84
- 230000002452 interceptive effect Effects 0.000 abstract description 2
- 210000002414 leg Anatomy 0.000 description 115
- 238000000034 method Methods 0.000 description 24
- 230000000694 effects Effects 0.000 description 23
- 238000010586 diagram Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 16
- 239000003550 marker Substances 0.000 description 11
- 210000000988 bone and bone Anatomy 0.000 description 9
- 230000007704 transition Effects 0.000 description 7
- 210000003423 ankle Anatomy 0.000 description 3
- 210000000689 upper leg Anatomy 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 230000004043 responsiveness Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- A—HUMAN NECESSITIES
- A45—HAND OR TRAVELLING ARTICLES
- A45C—PURSES; LUGGAGE; HAND CARRIED BAGS
- A45C11/00—Receptacles for purposes not provided for in groups A45C1/00-A45C9/00
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
-
- A—HUMAN NECESSITIES
- A45—HAND OR TRAVELLING ARTICLES
- A45C—PURSES; LUGGAGE; HAND CARRIED BAGS
- A45C15/00—Purses, bags, luggage or other receptacles covered by groups A45C1/00 - A45C11/00, combined with other objects or articles
-
- A—HUMAN NECESSITIES
- A45—HAND OR TRAVELLING ARTICLES
- A45C—PURSES; LUGGAGE; HAND CARRIED BAGS
- A45C5/00—Rigid or semi-rigid luggage
- A45C5/14—Rigid or semi-rigid luggage with built-in rolling means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Rehabilitation Tools (AREA)
Abstract
本发明提供能够在用户的前方,相对于用户移动到适当的位置来追随用户的移动体。根据移动体(10),在用户(20)的前方追随用户(20)的移动控制中,用户(20)的位置的X坐标使用从用户(20)的躯体获取到的坐标,Y坐标使用用户(20)的躯体的位置和腿的位置中的任意一个接近移动体(10)的一方。由此,移动体(10)能够相对于用户(20)移动到适当的左右方向(X坐标)和前后方向(Y坐标)的目标位置。因此,能够适当地保持移动体(10)与用户(20)的距离,并能够在用户(20)的前方,进行不妨碍用户(20)的移动控制。
Description
技术领域
本发明涉及移动体,特别涉及能够在用户的前方相对于用户移动到适当的位置来追随用户的移动体。
背景技术
在专利文献1中,公开了一种基于周围环境来决定与用户的位置关系,并基于该决定出的位置关系自主地移动到用户的旁边的自主移动装置。根据该自主移动装置,由于除了尾随用户以外,还能够采取尾随以外的移动方式,所以能够在用户的前方追随用户进行移动。
专利文献1:日本特开2007-316924号公报
然而,在专利文献1的自主移动装置中,虽然进行用户的检测,但未考虑检测用户的哪个部分。一般当人行走时,为腿先移动,之后躯体赶上的移动。因此,例如在以用户的胸部位置为基准进行用户检测的情况下,该装置的响应性变差。即,当使该装置在用户的前方追随用户进行移动的情况下,会成为用户与该装置的距离缩短或远离这样的不自然的移动。另一方面,在人行走时,也有胸部先于腿的情况,在这样的情况下,在仅进行腿的用户检测时,该装置的响应性还是较差。
发明内容
本发明是为了解决上述的问题点而完成的,其目的在于,提供一种能够在用户的前方相对于用户移动到适当的位置来追随用户的移动体。
为了实现该目的,本发明的移动体是在用户的前方追随用户的移动体,具备:移动单元,使该移动体移动;用户检测单元,对用户的躯体和腿区分进行检测;以及移动控制单元,基于由上述用户检测单元检测出的躯体和腿的信息,控制上述移动单元,使该移动体移动。
根据技术方案1的移动体,通过用户检测单元对用户的躯体和腿区分进行检测,通过移动控制单元,基于该检测出的躯体和腿的信息来控制移动单元,该移动体移动。因此,该移动体具有能够在用户的前方,相对于用户移动到适当的位置来追随用户的效果。
根据技术方案2的移动体,除了技术方案1起到的效果以外,还起到以下的效果。移动控制单元基于由用户检测单元检测出的躯体的信息来控制该移动体相对于用户的左右方向的目标位置,并基于由用户检测单元检测出的躯体或者腿中的接近该移动体的一方的信息来控制该移动体的相对于用户的前后方向的目标位置。因此,该移动体具有能够相对于用户移动到适当的左右方向和前后方向的目标位置的效果。
根据技术方案3的移动体,除了技术方案2起到的效果以外,还起到以下的效果。移动控制单元基于由用户检测单元检测出的躯体的朝向的信息,来控制该移动体相对于用户的左右方向的目标位置。因此,该移动体具有能够相对于用户移动到适当的左右方向的目标位置的效果。
根据技术方案4的移动体,除了技术方案1起到的效果以外,还起到以下的效果。移动控制单元基于由用户检测单元检测出的躯体的信息来控制该移动体的移动方向,并基于由用户检测单元检测出的躯体或者腿中的接近该移动体的一方的信息来控制该移动体的移动距离。因此,该移动体具有能够相对于用户向适当的移动方向移动并且移动到适当的移动距离的效果。
根据技术方案5的移动体,除了技术方案4起到的效果以外,还起到以下的效果。移动控制单元基于由用户检测单元检测出的躯体的朝向的信息,来控制该移动体相对于用户的移动方向。因此,该移动体具有能够相对于用户向适当的移动方向移动的效果。
根据技术方案6的移动体,除了技术方案1~5中任一项起到的效果以外,还起到以下的效果。用户检测单元区分用户的手臂来进行检测,移动控制单元不使用由用户检测单元检测出的手臂的信息,来进行该移动体的移动控制。因此,在用户使手臂与自己的移动无关地动作的情况下,也不会困惑于该手臂的移动,该移动体具有能够在用户的前方,相对于用户移动到适当的位置来追随用户的效果。
根据技术方案7的移动体,除了技术方案1~6中任一项起到的效果以外,还起到以下的效果。在用户迈步时,与行走中不同,处于用户与该移动体的距离缩短的趋势。因此,在迈步时,需要使该移动体比通常时迅速地移动。根据技术方案6,用户检测单元检测上述用户的迈步,移动控制单元在通过用户检测单元检测出用户的迈步的情况下,将该移动体的移动速度设定得比根据该移动体的位置和由用户检测单元检测出的躯体以及腿的信息计算出的移动速度大。因此,该移动体由于在用户迈步时比通常时迅速地移动,所以具有能够顺畅地进行用户迈步时的移动的效果。
根据技术方案8的移动体,除了技术方案7起到的效果以外,还起到以下的效果。用户检测单元在用户的躯体与腿的位置偏差的微分值超过了规定的第一阈值的情况下,对用户的迈步进行检测。因此,具有准确地检测用户迈步,并顺畅地进行迈步时的该移动体的移动的效果。
根据技术方案9的移动体,除了技术方案1~8中任一项起到的效果以外,还起到以下的效果。用户检测单元对上述用户为行走中进行检测,移动控制单元在通过用户检测单元检测出用户为行走中的情况下、且该移动体的位置超过了根据由用户检测单元检测出的躯体以及腿的信息计算出的目标位置的情况下,使该移动体的移动速度在正的范围减速。因此,在用户行走中该移动体过度前进而超过了目标位置的情况下,该移动体不会朝向行走中的用户方向逆行,能够缓缓消除该移动体的过度前进。因此,具有即使在用户行走中也能够顺畅地进行该移动体的移动的效果。
根据技术方案10的移动体,除了技术方案9起到的效果以外,还起到以下的效果。用户检测单元在用户的躯体与腿的位置偏差的微分值超过规定的第二阈值规定期间的情况下,检测为用户为行走中。因此,具有能够准确地检测用户为行走中,并顺畅地进行行走中的该移动体的移动的效果。此外,“规定的第二阈值”无需是必须与上述的“规定的第一阈值”相同的值,也可以是不同的值。
附图说明
图1(a)是本发明的一个实施方式中的移动体和用户的外观图,(b)是从(a)的箭头Ib方向观察到的用户的主视图。
图2是表示第一实施方式中的移动体的电气结构的框图。
图3是第一实施方式中的主处理的流程图。
图4是用于对在S2、S3中决定的用户的位置进行说明的图。
图5是表示用户的行走状态下的用户的部位(躯体、腿)与移动体的距离的关系的图。
图6(a)是表示用户行走中的躯体的位置的移动量与腿的位置的移动量的图,(b)是表示用户的躯体和腿的位置偏差的微分值的推移与行走中标志的状态的推移的关系的图。
图7是示出了用户从停止的状态到开始行走为止的移动体与用户的位置关系、和移动体的移动速度的大小的图。
图8是表示第二实施方式中的移动体的电气结构的框图。
图9是第二实施方式中的主处理的流程图。
图10是用于对在S20中决定的用户的位置进行说明的图。
具体实施方式
以下,参照附图对本发明的优选的实施方式进行说明。首先,参照图1,对关于本实施方式中的移动体的结构进行说明。图1(a)是移动体10和用户20的外观图,图1(b)是从箭头Ib方向观察到的用户20的主视图。移动体10作为能够在用户20的前方相对于用户20移动到适当的位置,来追随用户的装置发挥功能。
其中,作为移动体10的移动范围的“用户20的前方”例如是用户20的前方,且以用户20为中心的180度的范围。或者,也可以为用户20的视野的范围内。另外,移动体10与用户20之间的距离在被设定为不超过当移动体10与用户20一起移动时自然且应该确保的距离L(例如,120cm左右)的距离以下的范围内。该应该确保的距离L等于用户20与移动体10在移动控制中的目标位置的距离。
如图1(a)所示,移动体10具有主体部11、躯体检测传感器13、腿位置检测传感器14、周边识别传感器15、车轮16、显示部17以及控制部12。主体部11形成为大致直六面体状,在主体部11内储存有控制部12。躯体检测传感器13由获取用户20的躯体的图像的相机构成,被设置于主体部11与显示部17之间,且被设置为与用户20的躯体的中央部大致相同的高度。
躯体检测传感器13将包含设置于用户20的躯体部分的AR标记21的图像发送至控制部12。控制部12对由躯体检测传感器13获取到的图像进行解析,根据图像内的AR标记21的大小、倾斜,来计算从移动体10的中心C到躯体的距离db,计算用户20的躯体的位置。该躯体的位置是用将移动体10的中心C作为原点(0,0)的坐标系来表示的值(以下称为“移动体坐标系”)。图1(a)的上侧的用双点划线描绘的三角形的区域是躯体检测传感器13的检测范围。
其中,由于躯体检测传感器13的水平方向的位置远离移动体10的中心C,所以控制部12在对其距离差进行了修正之后计算距离db以及躯体的坐标。另外,也可以构成为使躯体检测传感器13的上下位置能够在显示部17与主体部11之间变更,不管用户20的身高如何,都能够适当地获取躯体部分。
腿位置检测传感器14由用于获取用户20的腿的图像的相机构成,被设置在躯体检测传感器13与车轮16之间,且是与用户20的迎面骨大致相同的高度。这里“腿”一般是指从“脚踝”到“股”(大腿)的部分。在本实施方式中,腿位置检测传感器14通过检测“迎面骨”来进行“腿”的检测。但是,并不限定于此,也可以通过代替“迎面骨”、或者与“迎面骨”一起检测“膝”、“股”等,来进行“腿”的检测。另外,也可以检测比“脚踝”靠前的部分,比“脚踝”靠前的部分也包含于本申请中所说的“腿”。
腿位置检测传感器14将包含用户20的迎面骨的腿的图像发送至控制部12。控制部12对由腿位置检测传感器14获取到的图像进行解析,并计算从移动体10的中心C到用户20的右腿、左腿各自的迎面骨的距离df,计算右腿以及左腿中的距离df较小一方的腿的位置的坐标。该坐标系是与用户20的躯体的位置相同的移动体坐标系。下侧的用双点划线描绘的三角形的区域表示腿位置检测传感器14的检测范围。
此外,由于腿位置检测传感器14的水平方向的位置远离移动体10的中心C,所以控制部12在对其距离差进行了修正之后计算距离df以及躯体的坐标。另外,也可以构成为能够变更腿位置检测传感器14的上下位置,不管用户20的身高如何,都能够适当地获取腿部分的图像(特别是,迎面骨部分的图像)。
周边识别传感器15由获取移动体10以及用户20的周围状况的图像的相机构成,设置于腿位置检测传感器14的相反侧。由于通过周边识别传感器15能够识别移动体10的周围的障碍物、接近移动体10的人,所以控制部12能够使移动体10朝向避开它们且用户20容易移动的方向移动。
车轮16由能够朝向全方位移动的全方位车轮构成,设置于移动体10的下部。由此,移动体10能够顺畅地进行朝向全方位的移动。车轮16通过驱动部35的马达(未图示)进行旋转,使移动体10移动。在本实施方式中,设置3个车轮16,但车轮16的数量并不限于3个,能够采用适当的数量。
显示部17具有LCD等显示器,是通过朝向显示器的显示将信息传递至用户20的装置,设置于移动体10的上部。如图1所示,显示部17的显示器设置于与用户20对置的面。即,显示部17的显示器朝向与躯体检测传感器13以及腿位置检测传感器14相同的方向配设。显示部17的显示器构成为触摸面板。显示部17经由HMI部36,将来自用户20的指示输入至移动体10,另外将移动体10的状态、移动路径等显示于显示器。
控制部12是用于控制移动体10的各部的装置,基于从躯体检测传感器13、腿位置检测传感器14以及周边识别传感器15获取到的信息来决定移动体10的移动速度以及移动方向,并经由驱动部35对各车轮16进行基于上述移动速度以及移动方向的移动指示。
AR标记21是用于在控制部12对从躯体检测传感器13获取到的图像进行图像处理的情况下,识别用户20的位置的标记。在本实施方式中,通过增强现实(AugmentedReality)技术根据图像内的AR标记21的大小来获取到该标记的距离。
如图1(b)所示,AR标记21设置于用户20前面的躯体部分。躯体检测传感器13对包含AR标记21的躯体部分进行图像数据化。控制部12根据获取到的图像数据内的AR标记21的大小来计算移动体10与用户20的距离,并计算上述的移动体坐标系中的用户20的坐标。由此,不使用户20持有测距器等,就能够获取用户20的躯体的位置。
参照图2,对移动体10的电气结构进行说明。图2是表示第一实施方式中的移动体10的电气结构的框图。控制部12是用于控制移动体10的各部的装置,如图2所示,具备CPU30、ROM31以及RAM32,它们经由总线33分别与输入输出端口34连接。另外,在输入输出端口34分别连接有躯体检测传感器13、腿位置检测传感器14、周边识别传感器15、驱动部35、HMI部36。
CPU30是控制通过总线33而连接的各部的运算装置。ROM31是储存有由CPU30执行的控制程序(例如,图3的主处理)、固定值数据等的不能改写的非易失性存储器。
RAM32是用于在CPU30执行控制程序时以能够改写的方式存储各种工作数据、标志等的存储器,分别设置有用户位置信息存储器32a、用户躯体位置存储器32b、用户腿位置存储器32c、目标位置存储器32d、移动速度存储器32e、移动方向存储器32f、行走中标志32g以及迈步标志32h。
用户位置信息存储器32a是存储在移动体10的移动控制中使用的用户20的位置的存储器,具有X坐标存储器32a1和Y坐标存储器32a2。X坐标存储器32a1、Y坐标存储器32a2的坐标系均是上述的移动体坐标系。在控制部12的电源接通时,X坐标存储器32a1、Y坐标存储器32a2的值分别被清为“0”。在躯体检测传感器13获取了躯体的位置、腿位置检测传感器14获取了腿的位置之后,将用户20的躯体的位置的X坐标储存至X坐标存储器32a1,将用户20的躯体的位置和腿的位置中的与移动体10的距离较小一方(即,对距离db和距离df进行比较而较小的一方)的Y坐标储存至Y坐标存储器32a2。
用户躯体位置存储器32b是存储用户20的躯体的位置的存储器,具有X坐标存储器32b1和Y坐标存储器32b2。X坐标存储器32b1、Y坐标存储器32b2的坐标系均是上述的移动体坐标系。在控制部12的电源接通时,X坐标存储器32b1、Y坐标存储器32b2的值分别被清为“0”。利用控制部12对从躯体检测传感器13获取到的图像进行解析而计算出的用户20的躯体的位置的X坐标被储存至X坐标存储器32b1,Y坐标被储存至Y坐标存储器32b2。
用户腿位置存储器32c是存储用户20的腿的位置的存储器,具有X坐标存储器32c1和Y坐标存储器32c2。X坐标存储器32c1、Y坐标存储器32c2的坐标系均是上述的移动体坐标系。在控制部12的电源接通时,X坐标存储器32c1、Y坐标存储器32c2的值分别被清为“0”。在用户腿位置存储器32c中,利用控制部12对从腿位置检测传感器14获取到的图像进行解析而计算出的用户20的腿的位置的X坐标被储存至X坐标存储器32c1,Y坐标被储存至Y坐标存储器32c2。
目标位置存储器32d是存储移动体10在移动控制中的目标位置的存储器,具有X坐标存储器32d1和Y坐标存储器32d2。X坐标存储器32d1、Y坐标存储器32d2的坐标系均是上述的移动体坐标系。在控制部12的电源接通时,X坐标存储器32d1、Y坐标存储器32d2的值分别被清为“0”。在进行了用户20的位置的获取之后,通过控制部12根据用户位置信息存储器32a的值计算出的移动体10在移动控制中的目标位置的X坐标被储存至X坐标存储器32d1,Y坐标被储存至Y坐标存储器32d2。
移动速度存储器32e是存储用于使移动体10朝向目标位置移动的移动速度的存储器。在控制部12的电源接通时,移动速度存储器32e的值被清为“0”。详细内容将后述,但在移动速度存储器32e中储存通过控制部12根据目标位置存储器32d计算出的移动速度。
移动方向存储器32f是存储用于使移动体10朝向目标位置移动的移动方向的存储器。移动方向存储器32f的坐标系是上述的移动体坐标系,单位为弧度(radian)。在控制部12的电源接通时,移动方向存储器32f的值被清为“0”。详细内容将后述,但在移动方向存储器32f中储存通过控制部12根据目标位置存储器32d计算出的移动方向。
行走中标志32g是表示用户20为行走中的标志。在控制部12的电源接通时,被设定为“关”(OFF)。在用户20的躯体的位置和腿的位置的微分值超过阈值A或者低于阈值B的状态持续时间Δt的情况下,判断为用户20为行走中,行走中标志32g被设定为“开”(ON)(参照图6(b))。
迈步标志32h是表示用户20从停止状态变为行走中的标志,在控制部12的电源接通时被设定为“关”。在用户20从停止中变为行走状态的时机、即在行走中标志32g的值从“关”变为“开”时,迈步标志32h被设定为“开”,在移动体10与用户20的距离超过了应该确保的规定的距离L的情况下,迈步标志32h被设为“关”。
驱动部35是用于使移动体10移动工作的装置,由车轮16以及作为车轮16的驱动源的马达(未图示)等构成。若从控制部12将移动信号输入至驱动部35,则马达基于所输入的信号进行旋转,该马达的旋转成为动力而驱动车轮16,使移动体10工作。
HMI部36是用于向用户20输出信息,供用户20输入指示的接口,由上述的显示部17的显示器和触摸面板构成。HMI部36根据从控制部12输入的控制信号将信息输出至显示部17的显示器。另一方面,在从用户20经由显示部17的触摸面板向HMI部36输入了指示的情况下,HMI部36将与该输入相应的控制信号输出至控制部12。此外,也可以将输出声音的扬声器、输入声音的话筒设置于HMI部36。
接下来,参照图3至图7,对由控制部12的CPU30执行的处理进行说明。图3是第一实施方式中的主处理的流程图。通过主处理,来决定移动体10的移动方向、移动速度,并基于这些信息等对驱动部35给予移动指示。主处理通过每隔100ms的间隔中断处理反复执行。
在主处理中,首先,从躯体检测传感器13、腿位置检测传感器14分别获取用户20的躯体的位置以及腿的位置(S1)。
对用户20的躯体的位置的获取方法进行具体说明。从躯体检测传感器13获取用户20的躯体部分的图像,并发送至控制部12。控制部12对获取到的图像进行解析,检测设置于用户20的躯体的AR标记21。根据检测出的AR标记21在图像内的尺寸,来计算AR标记21的X、Y轴方向的坐标。将计算出的X轴方向的坐标存储至用户躯体位置存储器32b的X坐标存储器32b1,将Y轴方向的坐标存储至Y坐标存储器32b2。
对用户20的腿的位置的获取方法进行具体说明。从腿位置检测传感器14获取用户20的腿的部分的图像,并发送至控制部12。控制部12对获取到的图像进行解析,计算从移动体10的中心C到用户20的右腿、左腿各自的迎面骨的距离df,并将右腿以及左腿中的距离df较小一方的腿的位置的坐标作为腿的位置的坐标。将该腿的位置的X轴方向的坐标存储至用户腿位置存储器32c的X坐标存储器32c1,将Y轴方向的坐标存储至Y坐标存储器32c2。此外,检测迎面骨的图像解析的方法可以是边缘检测,也可以是使用了模式匹配的方法。
接下来,对用户位置信息存储器32a的X坐标存储器32a1设定用户躯体位置存储器32b的X坐标存储器32b1的值(S2)。将用户躯体位置存储器32b和用户腿位置存储器32c中的、与移动体10的距离较小一方的Y坐标存储器(即,Y坐标存储器32b2或者Y坐标存储器32c2)的值设定为用户位置信息存储器32a的Y坐标32a2(S3)。
这里,参照图4,对该用户20的位置的设定处理(S2、S3)进行说明。图4是用于对在S2、S3中决定的用户20的位置进行说明的图。将某一时刻的移动体10和用户20表示在移动体坐标系上。将移动体10的位置的中心点表示为Pm(0,0),将用户20的躯体的位置表示为Pb(Xbody,Ybody)。另一方面,将用户20的腿的位置中的右腿的位置表示为PfR(XfootR,YfootR),将左腿的位置表示为PfL(XfootL,YfootL)。将用户20的位置表示为Pu(Xuser,Yuser),将目标位置表示为Pd(Xdes,Ydes)。
首先,通过S2的处理,对用户位置信息存储器32a的X坐标存储器32a1设定用户躯体位置存储器32b的X坐标存储器32b1的值。在本实施方式中,对用户位置信息存储器32a的X坐标存储器32a1始终设定用户躯体位置存储器32b的X坐标存储器32b1的值的理由是为了抑制移动体10的X轴方向的摇动。假设若将用户20的躯体的位置、右腿、左腿这3个坐标与移动体10的距离为最小的坐标的X坐标设为Xuser,则用户20的X坐标根据用户20的行走状态,以XfootR→Xbody→XfootL→Xbody→XfootR…这样变化。由于移动体10的移动方向根据用户20的位置来计算,所以若Xuser的值从右向左、从左向右变化,则移动体10的移动方向也从右向左、从左向右变化,可以说成为“蛇行运转”。因此,通过将X轴方向的移动量比左右交替地更换的腿的位置更稳定的躯体的位置用于用户20的位置的X坐标,能够使移动体10的移动控制更加稳定。
接下来,在图4的时刻,该用户20的躯体的位置、右腿、左腿这3个坐标中的、与移动体10的距离最小的坐标为右腿的坐标(XfootR,YfootR)。因此,在S3的处理中,对用户位置信息存储器32a的Y坐标存储器32a2设定右腿的Y坐标、即用户腿位置存储器32c的Y坐标存储器32c2的值。由于与移动体10的距离最小的用户20的部位(躯体、右腿、左腿)根据用户20的行走状态而不同,所以Yuser根据行走状态而变化。关于这一点将在图5中进行说明。
图5是表示用户20的行走状态下的用户20的躯体的位置以及腿的位置与移动体10的距离的关系的图。图5(a)~(h)图示出了用户20的各行走状态下的用户20的躯体的位置与移动体10的距离db和用户20的腿的位置与移动体10的距离df的关系。用户20的腿附近的实线Hf表示通过腿位置检测传感器14获取到的腿的位置(迎面骨的大致高度位置)。用户的躯体的位置用Pb来表示,腿的位置用Pf来表示。此外,Pf是图4中的PfR和PfL中的与移动体10的距离较小的一方。距离db是移动体10的中心C与Pb的距离,距离df是移动体10的中心C与Pf的距离。将距离db和距离df的大小关系示于图的下部。用户20抬腿、踩踏、到踩踏结束(图5(b)~(d)、(g)、(h)),距离df小于距离db(距离db>距离df)。另一方面,在用户20停止的情况下(图5(a))、右腿和左腿更换的情况下(图5(f)),距离db小于距离df(距离db<距离df)。
这样,与移动体10的距离最小的用户20的部位(躯体、腿)根据行走状态而时刻在变化。因此,在本实施方式中,将用户20的躯体的位置和腿的位置中的、与移动体10的距离最小的一方设定于用户位置信息存储器32a的Y坐标存储器32a2。由此,由于能够适当地确保用户20与移动体10的Y轴方向的距离,所以能够在用户20的前方,将移动体10移动控制到对于用户20来说不会成为妨碍的适当的位置。
返回到图3。在S3的处理之后,根据用户位置信息存储器32a的值来计算目标位置,并存储至目标位置存储器32d(S4)。目标位置为与用户位置分离了规定的距离L的地点。图4的由双点划线形成的矩形中的、与用户20的位置Pu的对角对应的坐标(Xdes,Ydes)为目标位置Pd。根据用户位置信息存储器32a的值来计算该位置,并储存至目标位置存储器32d。在图4中,在用户20的右前方设置了目标位置,但并不限于此,也可以将目标位置设置于用户20的左前方等其他场所。
在图3的S4的处理之后,确认用户躯体位置存储器32b的值与用户腿位置存储器32c的值的偏差的微分值超过阈值A或者低于阈值B的状态是否持续了时间Δt(S5)。使用图6对于该判断处理进行说明。
图6(a)是表示用户20的行走中的躯体的位置的移动量与腿的位置的移动量的图,图6(b)是表示用户20的躯体与腿的位置偏差的微分值的推移和行走中标志32g的状态的推移的关系的图。在图6(a)中,Vb表示用户20的躯体的位置的移动量,Vf表示腿的位置的移动量。在用户20为停止中的图6(a1)中,用户20的躯体的位置、腿的位置都未移动。与此相对,在表示行走状态的图6(a2)以后,用户20的躯体的位置、腿的位置的至少任意一方在移动。
由于用户20在行走中躯体的位置和腿的位置不会移动相同的量,所以求出躯体的位置与腿的位置的位置偏差的微分值(与前一次值的差分),在该微分值超过阈值A、或者低于阈值B的状态持续了时间Δt的情况下,判断为用户20为行走状态。使用位置偏差的微分值的理由是因为:若使用位置偏差则在停止中倾斜躯体或者甚至抬腿位置偏差都会增加,所以不适合判断行走状态。通过使用位置偏差的微分值,能够求出与前一次值的偏差之差、即从前一次值起的移动量。
图6(b)表示用户20的躯体的位置与腿的位置的位置偏差的微分值的推移(上段的图表)和行走中标志32g的状态的推移(下段的图表)的关系。上段的图表中的2根双点划线表示阈值A和阈值B。在时刻ta,用户20的躯体的位置与腿的位置的位置偏差的微分值超过阈值A。而且,该微分值超过阈值A的状态在时刻tb以后还在持续。该时刻tb与ta的差为时间Δt。由此,控制部12判断为用户20为行走状态,如图6(b)的下段图表所示,行走中标志32g从“关”变更为“开”。
综上所述,在用户20的躯体的位置与腿的位置的位置偏差的微分值超过阈值A、或者低于阈值B的状态持续时间Δt的情况下,控制部12判断为用户20是行走状态。由此,能够准确地检测用户20的行走状态,并顺畅地进行行走状态下的移动体10的移动。另外,不用对移动体10追加运动传感器、或让用户20带着加速度计等检测移动的设备,就能够检测行走状态。
返回到图3。在S5的结果是判断为行走状态的情况下(S5:是),确认行走中标志32g是否为“关”(S6)。在行走中标志32g为“关”的情况下(S6:是),将迈步标志32h设为“开”(S7)。由此,能够准确地检测用户20的迈步,并顺畅地进行迈步时的移动体10的移动。另一方面,在行走中标志32g为“开”的情况下(S6:否),跳过S7的处理。在S6以及S7的处理之后,将行走中标志32g设为“开”(S8)。
在S5的结果判断为不是行走状态的情况下(S5:否),将迈步标志32h设为“关”(S9),之后,将行走中标志32g设为“关”(S10)。
在S8以及S10的处理之后,确认是否是行走中标志32g为“开”、且移动体10与用户20的位置(即,用户位置信息存储器32a的值)的距离超过了“应该确保的距离L”(S11)。即,根据移动体10的中心C(0,0)和用户位置信息存储器32a的值,来计算移动体10与用户20的距离,并对该距离和应该确保的距离L进行比较。“应该确保的距离L”是在移动体10与用户20一起移动时自然的用户20与移动体10的距离,且是用户20与目标位置的距离。
在行走中标志32g为“开”、且移动体10与用户20的位置的距离超过“应该确保的距离L”的情况下(S11:是),从移动速度存储器32e的值中减去第一规定值(S12)。若相减后的结果是移动速度存储器32e的值为0以下(S13:是),则将第二规定值设定为移动速度存储器32e的值(S14)。另一方面,若移动速度存储器32e的值比0大(S13:否),则跳过S14的处理。在S13以及S14的处理之后,将迈步标志32h设为“关”(S15)。关于从移动速度存储器32e的值减去第一规定值的理由、以及将迈步标志32h设为“关”的理由将后述。
另一方面,在移动体10与用户20的位置的距离未超过“应该确保的距离L”的情况下(S11:否),根据移动体10的当前位置和目标位置存储器32d的值,来计算移动体10的移动速度、移动方向,并分别存储至移动速度存储器32e、移动方向存储器32f(S16)。具体而言,分别计算移动体10的当前位置与目标位置(Xdes,Ydes)的距离以及角度的偏差,并运算为了消除该距离以及角度的偏差所需要的移动速度以及移动方向。作为运算方法的一个例子,可举出将距离以及角度的偏差作为参数,通过其比例要素(P)、积分要素(I)以及微分要素(D)的组合亦即PID控制来求移动速度、移动方向。
在S16的处理之后,在迈步标志32h为“开”的情况下(S17:是),对移动速度存储器32e的值加上第三规定值(S18)。关于对该移动速度存储器32e的值加上第三规定值的理由将后述。
在S15或者S18的处理之后,根据在S12、S14、S16、S18中计算出的移动速度存储器32e的值和移动方向存储器32f的值,将移动指示输出至驱动部35(S19)。由此,移动体10朝向目标位置进行移动。
这里,参照图7,对S12、S18中的针对移动速度存储器32e的减去第一规定值以及加上第二规定值进行说明。图7是示有用户20从停止的状态到开始迈步的移动体10与用户20的推移的图。Pd表示移动体10的目标位置,Pu表示用户20的位置。另外,Vm表示移动体10的移动速度。图7(a)表示用户20停止的状态,表示随着从图7(a)朝向图7(g),用户20开始行走动作的情况。在移动体10和用户20停止的情况下(图7(a)),移动体10和用户20存在于距离L内。
在图7(b)~(d)中的用户20迈步期间,移动体10的Vm比用户20的速度小。这是因为:检测用户20的行走状态,并运算移动速度,直到使驱动部35动作需要一些时间,另外,从使驱动部35驱动到达到用户20的行走速度需要时间。鉴于此,在本实施方式中,在是用户20的迈步期间的情况下,对通过S16计算出的移动速度加上第三规定值(S18),使移动体10的移动速度比通常时增加。由此,由于在用户20迈步时,移动体10能够比通常时迅速地移动,所以能够顺畅地进行用户20迈步时的移动。这里,作为第三规定值,例如能够例示移动体10的移动速度的1/2的值。
另一方面,在迈步期间,若对移动速度加上第三规定值的状态持续,则移动体10与用户20的距离会超过应该确保的距离L(图7(f))。即,移动体10与用户20过度分离。鉴于此,在用户20为行走状态,并且用户20与移动体10的距离超过应该确保的距离L的情况下(S11:是),使移动体10的移动速度减去第一规定值(S12)。由于用户20的行走速度不变,所以由此移动体10与用户20的距离逐渐变小。因此,能够使移动体10相对于用户20接近应该确保的距离L的位置,并能够在大致保持该应该确保的距离L的状态下,使移动体10在用户20的前方顺畅地追随。这里,作为第一规定值,例如能够例示根据移动体10在0.5秒后停止的减速度而反向运算出的值。
此外,在将移动体10的移动速度减去第一规定值后的结果(S12)是移动速度为0以下的情况下,将移动体10的移动速度设定为第二规定值(正值)。由此,能够防止移动体10朝向用户20逆行,并且缓缓消除移动体10的过度前进。这里,作为第二规定值,例如能够例示如在0.5秒后成为应该确保的距离L那样的值。
另外,在用户20为行走状态、用户20与移动体10的距离超过了应该确保的距离L的情况下(S11:是),由于迈步期间(即加上第三规定值的期间)已经结束了,所以在这样的情况下,通过S15的处理,使迈步标志32h成为“关”。
如以上说明那样,根据移动体10,在用户20的前方追随用户20的移动控制中,用户20的位置的X坐标使用从用户20的躯体获取到的坐标,Y坐标使用用户20的躯体的位置和腿的位置中的任意一个接近移动体10的一方。由此,移动体10相对于用户20能够移动到适当的左右方向(X坐标)和前后方向(Y坐标)的目标位置。因此,能够适当地确保移动体10与用户20的距离,并能够在用户20的前方,进行不妨碍用户20的移动控制。
接下来,参照图8至图10,对第二实施方式的移动体10的移动控制进行说明。在上述的第一实施方式中,用户位置信息存储器32a的X坐标存储器32a1的值使用了用户20的躯体的位置,Y坐标存储器32a2的值使用了用户20的躯体的位置和腿的位置中的任意一个接近移动体10的一方。与此相对,在第二实施方式中,用户位置信息存储器32a的X坐标存储器32a1、Y坐标存储器32a2的值均使用使用户20的躯体的位置和腿的位置中的任意一个接近移动体10的坐标旋转移动到用户20所朝向的方向后的坐标。此外,对于与上述的第一实施方式相同的部分标注相同的附图标记并省略其说明,仅对不同的部分进行说明。
图8是表示第二实施方式中的移动体10的电气结构的框图。相对于上述的第一实施方式,控制部12的RAM32的结构不同。
第二实施方式的控制部12对用户躯体位置存储器32b追加了方向存储器32b3。方向存储器32b3中储存从躯体检测传感器13获取到的用户20的躯体的位置处的方向(单位:弧度)。坐标系是上述的移动体坐标系(以移动体10的中心C为原点(0,0)的坐标系)。在控制部12的电源接通时,方向存储器32b3的值被清为“0”。在方向存储器32b3中,对于包含从躯体检测传感器13获取到的AR标记21的图像,储存由控制部12根据AR标记21的倾斜计算出的移动体10与用户20的躯体的位置的相对角度。
接下来,参照图9以及图10,对由控制部12的CPU30执行的处理进行说明。由于S4至S19的处理与上述的第一实施方式的图3的处理相同,所以省略其说明。
图9是第二实施方式中的主处理的流程图。在S1的处理中,获取用户20的躯体的位置以及腿的位置,并分别存储至用户躯体位置存储器32b、用户腿位置存储器32c。在用户躯体位置存储器32b中,除了X、Y坐标以外,还获取移动体10与用户20的躯体的位置的相对角度,并将其存储至方向存储器32b3。根据用户躯体位置存储器32b和用户腿位置存储器32c中的接近移动体10的一方的坐标、以及方向存储器32b3的值来计算用户20的位置,并储存至用户位置信息存储器32a。
这里,使用图10对用户20的位置的计算方法进行说明。对于与第一实施方式的图4相同的部分省略其说明。
图10是用于对在S20中决定的用户20的位置进行说明的图。θbody是移动体10与用户20的躯体的位置的相对角度,该值被存储于方向存储器32b3。在图10的时刻,在用户20的躯体的位置、右腿的坐标、左腿的坐标中的最接近移动体10的坐标为右腿的坐标(XfootR,YfootR)。首先,求出连结PfR和Pb的线段。将该线段的长度设为d。使该线段d旋转移动到该线段d与移动体10的相对角度成为θbody的位置、即使该线段d以Pb为中心旋转移动角度α。将该旋转移动后的位置Pf作为用户20的位置Pu,并将其坐标(Xfoot,Yfoot)分别存储至用户位置信息存储器32a的X坐标存储器32a1、Y坐标存储器32a2(S20)。
这样,由于通过躯体检测传感器13检测用户20的躯体的朝向,并考虑用户20的朝向,决定移动体10的左右方向的目标位置、移动体10的移动方向来进行移动控制,所以从用户20来看,移动体10始终位于一定方向。由此,即使在用户20转换了方向的情况下,移动体10也能够向用户20所朝向的方向并且不造成妨碍的位置移动。
如以上说明那样,根据第二实施方式的移动体10,对于移动体10的移动控制所使用的用户20的位置的坐标,使用用户20的躯体的位置和腿的位置中的任意一个接近移动体10的一方,使该坐标旋转移动到用户20的躯体的位置所朝向的方向。由此,能够适当地保持移动体10与用户20的距离,并且使移动体10在用户20的前方追随用户20移动。
以上,基于实施方式对本发明进行了说明,但本发明完全不限制于上述的实施方式,能够很容易地推测为可在不脱离本发明的主旨的范围内进行各种改进变更。
在本实施方式中,在用户20为行走中且移动体10与用户20的距离超过了应该确保的距离L的情况下(S11:是),从移动体10的移动速度减去第一规定值(S12),使移动体10的移动速度减速。但是,也可以代替该方法,而使移动体10的移动速度成为1/2或2/3来减速。另外,减去的第一规定值无需是固定值,也可以构成为相对于移动体10的移动速度的规定的相对速度。并且,也可以在用户20为行走中且移动体10与用户20的距离超过了应该确保的距离L的情况下(S11:是),将移动体10的目标位置设定为比本来的目标位置近的位置,由此,将移动体10的移动速度设定为比通常时慢的速度。
同样,S14的处理中所使用的第二规定值无需是固定值,也可以构成为相对于移动体10的移动速度的规定的相对速度。
另外,在用户20迈步的情况下(S17:是),对移动体10的移动速度加上第三规定值(S18),来使移动体10的移动速度加速。但是,也可以代替于此,而使移动体10的移动速度加速到1.5倍或2倍、3倍。另外,相加的第三规定值无需是固定值,也可以构成为相对于移动体10的移动速度的规定的相对速度。并且,也可以在用户20迈步的情况下(S17:是),将移动体10的目标位置设定为比本来的目标位置远的位置,由此,将移动体10的移动速度设定为比通常时快的速度。
本实施方式中的用户20的躯体的检测通过对设置于用户20的躯体部分的AR标记21进行检测来进行。但是,并不限于此,例如也可以对来自躯体检测传感器13的获取图像进行解析,检测躯体的位置/方向。由此,无需对用户20设置AR标记21。另外,也可以根据三维距离图像创建骨架模型,获取用户20的肩、腰的位置、方向。在该情况下,若将用户20的全身作为图像的获取范围,则能够从骨架模型中获取膝的位置,无需腿位置检测传感器14。
另外,也可以通过躯体检测传感器13,获取包含用户20的上半身整体的图像,并将通过图像处理除去了用户20的手臂部分的图像识别为用户20的躯体,由此,检测用户20的躯体的位置。由此,在用户20使手臂与自己的移动无关地动作的情况下,不会困惑于该手臂的移动,移动体10能够在用户20的前方,相对于用户20移动到适当的位置来追随用户20。
另外,作为用户检测单元,也可以获取用户20全身的图像,并通过图像处理,对用户20的躯体和腿区分进行识别,由此,检测用户20的躯体的朝向和位置、以及用户20的腿的位置。
根据躯体的位置与腿的位置的偏差的微分值,判定了行走状态。但是,并不限于此,例如也可以在躯体的位置、腿的位置的与前一次值的差分为规定值以上的情况下判断为行走中。
附图标记说明
10…移动体;13…躯体检测传感器(用户检测单元);14…腿位置检测传感器(用户检测单元);20…用户;30…CPU(移动控制单元);35…驱动部(移动单元)。
Claims (7)
1.一种移动体,其特征在于,
该移动体在用户的前方追随用户,具备:
移动单元,使该移动体移动;
用户检测单元,对用户的躯体和腿区分进行检测;以及
移动控制单元,设定基于由上述用户检测单元检测出的用户的躯体或者腿中的接近上述移动体的一方的信息的基准位置,并将在前方与该基准位置相距规定距离的位置设定为目标位置,基于由上述用户检测单元检测出的躯体的信息来计算该移动体相对于上述用户的左右方向的上述目标位置,并基于由上述用户检测单元检测出的躯体或者腿中的接近该移动体的一方的信息来计算该移动体相对于上述用户的前后方向的上述目标位置,基于计算出的左右方向以及前后方向的上述目标位置来控制上述移动单元,使该移动体移动。
2.根据权利要求1所述的移动体,其特征在于,
上述用户检测单元检测上述用户的躯体的朝向,
上述移动控制单元基于由上述用户检测单元检测出的躯体的朝向的信息来控制该移动体相对于上述用户的左右方向的目标位置。
3.根据权利要求1或2所述的移动体,其特征在于,
上述用户检测单元区分上述用户的手臂来进行检测,
上述移动控制单元不使用由上述用户检测单元检测出的手臂的信息,来进行该移动体的移动控制。
4.根据权利要求1~3中任一项所述的移动体,其特征在于,
上述用户检测单元对上述用户的迈步进行检测,
上述移动控制单元在通过上述用户检测单元检测出上述用户迈步的情况下,将该移动体的移动速度设定得比根据该移动体的位置和由上述用户检测单元检测出的躯体以及腿的信息计算出的移动速度大。
5.根据权利要求4所述的移动体,其特征在于,
上述用户检测单元在上述用户的躯体与腿的位置偏差的微分值超过了规定的第一阈值的情况下,对上述用户的迈步进行检测。
6.根据权利要求1或2所述的移动体,其特征在于,
上述用户检测单元对上述用户为行走中进行检测,
上述移动控制单元在通过上述用户检测单元检测出上述用户为行走中的情况下、且该移动体的位置超过了根据由上述用户检测单元检测出的躯体以及腿的信息计算出的目标位置的情况下,使该移动体的移动速度在正的范围减速。
7.根据权利要求6所述的移动体,其特征在于,
上述用户检测单元在上述用户的躯体与腿的位置偏差的微分值超过规定的第二阈值规定期间的情况下,检测为上述用户为行走中。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015256309A JP6528280B2 (ja) | 2015-12-28 | 2015-12-28 | 移動体 |
JP2015-256309 | 2015-12-28 | ||
PCT/JP2016/081828 WO2017115548A1 (ja) | 2015-12-28 | 2016-10-27 | 移動体 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108027616A CN108027616A (zh) | 2018-05-11 |
CN108027616B true CN108027616B (zh) | 2021-10-01 |
Family
ID=59225396
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680054021.9A Active CN108027616B (zh) | 2015-12-28 | 2016-10-27 | 移动体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11199851B2 (zh) |
EP (1) | EP3399378B1 (zh) |
JP (1) | JP6528280B2 (zh) |
CN (1) | CN108027616B (zh) |
WO (1) | WO2017115548A1 (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6616441B2 (ja) * | 2018-02-26 | 2019-12-04 | 株式会社日本総合研究所 | 移動制御システム、制御システム、作業機械、及びプログラム |
JP6894595B2 (ja) * | 2018-03-28 | 2021-06-30 | 株式会社エクォス・リサーチ | 移動体 |
JP6894596B2 (ja) * | 2018-03-29 | 2021-06-30 | 株式会社エクォス・リサーチ | 移動体 |
JP7135387B2 (ja) * | 2018-03-30 | 2022-09-13 | 株式会社アイシン | 移動体 |
JP2019179285A (ja) * | 2018-03-30 | 2019-10-17 | 株式会社エクォス・リサーチ | 移動体 |
JP7379814B2 (ja) * | 2018-11-21 | 2023-11-15 | 富士フイルムビジネスイノベーション株式会社 | 自律移動装置およびプログラム |
US11077559B2 (en) * | 2018-12-05 | 2021-08-03 | Honda Motor Co., Ltd. | Support robot and methods of use thereof |
KR102345800B1 (ko) * | 2019-10-02 | 2022-01-04 | (주)팔로우테크닉스 | 카고 로봇의 주행 제어 시스템 |
CN111015734B (zh) * | 2019-11-20 | 2021-05-07 | 国网天津市电力公司 | 带电作业机器人的导引系统和方法 |
JP2023132997A (ja) * | 2022-03-11 | 2023-09-22 | オムロン株式会社 | 作業認識装置、作業認識方法、及び作業認識プログラム |
KR102701968B1 (ko) * | 2022-08-03 | 2024-09-02 | 국립부경대학교 산학협력단 | 움직임 인식 기반의 자율 주행 로봇 제어 시스템 및 이를 이용한 자율 주행 로봇 제어 방법 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002255037A (ja) * | 2001-02-28 | 2002-09-11 | Nippon Soken Inc | 可動型ケース |
CN1914009A (zh) * | 2004-01-28 | 2007-02-14 | 丰田自动车株式会社 | 腿式机器人以及腿式机器人的行走控制方法 |
CN101646532A (zh) * | 2007-04-20 | 2010-02-10 | 丰田自动车株式会社 | 腿式移动机器人的控制方法以及腿式移动机器人 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08166822A (ja) * | 1994-12-13 | 1996-06-25 | Nippon Telegr & Teleph Corp <Ntt> | ユーザ追尾型移動ロボット装置及びセンシング方法 |
JP3879848B2 (ja) * | 2003-03-14 | 2007-02-14 | 松下電工株式会社 | 自律移動装置 |
JP4440174B2 (ja) * | 2004-07-07 | 2010-03-24 | パナソニック株式会社 | 移動体の対象者同行方法及び移動体用対象者同行装置 |
JP4811128B2 (ja) | 2006-05-25 | 2011-11-09 | トヨタ自動車株式会社 | 自律移動装置 |
JP2011059905A (ja) * | 2009-09-08 | 2011-03-24 | Hiroshima Univ | ロボット、制御プログラム、及び記録媒体 |
US8918213B2 (en) * | 2010-05-20 | 2014-12-23 | Irobot Corporation | Mobile human interface robot |
EP2674914B1 (en) * | 2012-06-11 | 2018-08-08 | Volvo Car Corporation | Method for determining a body parameter of a person |
JP6100635B2 (ja) * | 2012-12-13 | 2017-03-22 | 株式会社デンソー | 移動体検出装置 |
JP6192958B2 (ja) * | 2013-03-19 | 2017-09-06 | 株式会社Ihiエアロスペース | 移動体の環境地図生成制御装置、移動体、及び移動体の環境地図生成方法 |
-
2015
- 2015-12-28 JP JP2015256309A patent/JP6528280B2/ja active Active
-
2016
- 2016-10-27 EP EP16881528.0A patent/EP3399378B1/en active Active
- 2016-10-27 US US15/761,782 patent/US11199851B2/en active Active
- 2016-10-27 CN CN201680054021.9A patent/CN108027616B/zh active Active
- 2016-10-27 WO PCT/JP2016/081828 patent/WO2017115548A1/ja unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002255037A (ja) * | 2001-02-28 | 2002-09-11 | Nippon Soken Inc | 可動型ケース |
CN1914009A (zh) * | 2004-01-28 | 2007-02-14 | 丰田自动车株式会社 | 腿式机器人以及腿式机器人的行走控制方法 |
CN101646532A (zh) * | 2007-04-20 | 2010-02-10 | 丰田自动车株式会社 | 腿式移动机器人的控制方法以及腿式移动机器人 |
Non-Patent Citations (2)
Title |
---|
Fusion of Double Layered Multiple Laser Range Finders for People Detection from a Mobile Robot;Alexander Carballo等;《Proceedings of IEEE International Conference on Multisensor Fusion and Integration for Intelligent Systems》;20080822;全文 * |
Sensor Integration for Person Tracking and Following with Mobile Robot;Xudong Ma等;《2008 IEEE/RSJ International Conference on Intelligent Robots and Systems》;20080926;全文 * |
Also Published As
Publication number | Publication date |
---|---|
EP3399378B1 (en) | 2022-10-26 |
EP3399378A4 (en) | 2019-08-07 |
US20190064838A1 (en) | 2019-02-28 |
CN108027616A (zh) | 2018-05-11 |
JP2017120495A (ja) | 2017-07-06 |
JP6528280B2 (ja) | 2019-06-12 |
EP3399378A1 (en) | 2018-11-07 |
WO2017115548A1 (ja) | 2017-07-06 |
US11199851B2 (en) | 2021-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108027616B (zh) | 移动体 | |
EP1586423B1 (en) | Robot control device, robot control method, and robot control program | |
CN110381910B (zh) | 步行支援系统、步行支援方法及存储有步行支援程序的存储介质 | |
US20120166048A1 (en) | Inverted pendulum type moving body | |
JP4735676B2 (ja) | 走行支援装置 | |
JP4440174B2 (ja) | 移動体の対象者同行方法及び移動体用対象者同行装置 | |
JP2012041020A (ja) | 運転支援装置 | |
US11526172B2 (en) | Mobile object control apparatus and mobile object control method | |
US11156844B2 (en) | Information processing apparatus, information processing method, and program | |
CN110554692A (zh) | 地图信息更新系统 | |
JP2007229814A (ja) | 自律移動型ロボット | |
JP2009174898A (ja) | 移動体および環境情報作成方法 | |
JP6604546B2 (ja) | 移動体 | |
JP5024896B2 (ja) | 移動ロボットの操縦システム | |
JP2010172548A (ja) | 自律移動車椅子 | |
JP4782816B2 (ja) | センサユニット | |
CN115088028A (zh) | 绘制系统、显示系统、移动体、绘制方法以及程序 | |
JP5321214B2 (ja) | 移動体及びその制御方法 | |
JP2023067969A (ja) | 移動体制御装置、移動体及び移動体制御方法 | |
JP4697164B2 (ja) | 移動ロボット及びロボット移動制御方法 | |
KR20170055577A (ko) | 헤드업 디스플레이를 이용한 건물정보 표시 장치 및 방법 | |
WO2020179112A1 (ja) | リスク取得システム、リスク表示システムおよびリスク取得プログラム | |
JP5214539B2 (ja) | 自律走行ロボット、自律走行ロボットを用いた追走システム、及び追走方法 | |
JP4425383B2 (ja) | センサユニット | |
WO2023127337A1 (ja) | 情報処理装置、情報処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |