KR20240007968A - 모바일 매니퓰레이터 로봇 및 이를 이용한 모바일 매니퓰레이터 로봇 교시 방법 - Google Patents

모바일 매니퓰레이터 로봇 및 이를 이용한 모바일 매니퓰레이터 로봇 교시 방법 Download PDF

Info

Publication number
KR20240007968A
KR20240007968A KR1020220083869A KR20220083869A KR20240007968A KR 20240007968 A KR20240007968 A KR 20240007968A KR 1020220083869 A KR1020220083869 A KR 1020220083869A KR 20220083869 A KR20220083869 A KR 20220083869A KR 20240007968 A KR20240007968 A KR 20240007968A
Authority
KR
South Korea
Prior art keywords
robot
amr
mobile manipulator
force required
articulated robot
Prior art date
Application number
KR1020220083869A
Other languages
English (en)
Inventor
엄일용
정영기
김현국
이주몽
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020220083869A priority Critical patent/KR20240007968A/ko
Priority to US18/347,226 priority patent/US20240009834A1/en
Publication of KR20240007968A publication Critical patent/KR20240007968A/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/086Proximity sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/022Optical sensing devices using lasers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/027Electromagnetic sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/06Programme-controlled manipulators characterised by multi-articulated arms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1615Programme controls characterised by special kind of manipulator, e.g. planar, scara, gantry, cantilever, space, closed chain, passive/active joints and tendon driven manipulators
    • B25J9/162Mobile manipulator, movable base with manipulator arm mounted on it
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Manipulator (AREA)

Abstract

본 발명의 일 실시예에 의한 모바일 매니퓰레이터 로봇 교시 방법에 있어서, 상기 AMR를 통해 접근하는 작업자를 인식하여 작업자 접근 여부를 판단하고, 상기 다관절 로봇을 통해 상기 작업자의 간섭 여부를 판단하고, 상기 작업자의 간섭에 대응하여 교시 모드로 진입하고, 상기 교시에 따라 로봇 동작에 필요한 힘을 분석하여 상기 AMR, 상기 다관절 로봇 중 적어도 하나가 동작하는 것을 포함한다.

Description

모바일 매니퓰레이터 로봇 및 이를 이용한 모바일 매니퓰레이터 로봇 교시 방법{Mobile manipulator robot and method for teaching mobile manipulator robot using same}
본 명세서는 모바일 매니퓰레이터 로봇(Mobile Manipulator Robot)에 대한 것으로서, 구체적으로 자율이동로봇(Autonomous Mobile Robot: AMR)과 다관절 로봇(Manipulator Robot)을 이용한 교시 방법에 대한 것이다.
최근 스마트팩토리 형태의 공장이 증가하면서 기존 공장이나 물류창고에서 사용하던 가이드(Guide)를 따라 이동하던 AGV(Automatic Guided Vehicle) 형태의 이동 로봇이 제안되어 사용되고 있다.
AGV는 스마트팩토리 내에 기 정해진 경로에 가이드를 따라 이동하는 것에 제한되기 때문에, 최근에는 가이드가 필요 없고 현장 상황에 유연하게 적용할 수 있는 AMR(Autonomous Mobile Robot) 형태의 이동 로봇에 대한 연구가 증가하고 있다.
또한, 조립 및 팔레타이징 등을 위해서 사용하던 고정형 다관절 로봇(Manipulator Robot)은 AMR(자율이동형로봇) 위에 탑재되어 이동하면서 다양한 형태의 작업이 시도되고 있는 추세이다.
따라서, AMR과 다관절 로봇을 결합한 형태인 모바일 매니퓰레이터를 운영함에 있어서 작업자의 로봇을 쉽게 교시할 수 있는 방법이 요구되고 있다.
상술한 바와 같은 문제점 등을 해결하기 위해 본 발명의 일 실시예는, 자율이동로봇(AMR)과 다관절 로봇의 통합 시스템인 모바일 매니퓰레이터의 작업을 위한 효율적인 교시 방법을 제공하고자 한다.
본 발명에서 해결하고자 하는 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상술한 바와 같은 과제를 해결하기 위한 본 발명의 일 실시예들 중 어느 하나에 의한 모바일 매니퓰레이터 로봇 교시 방법은, 상기 AMR를 통해 접근하는 작업자를 인식하여 작업자 접근 여부를 판단하고, 상기 다관절 로봇을 통해 상기 작업자의 간섭 여부를 판단하고, 상기 작업자의 간섭에 대응하여 교시 모드로 진입하고, 상기 교시에 따라 로봇 동작에 필요한 힘을 분석하여 상기 AMR, 다관절 로봇 중 적어도 하나가 동작하는 것을 포함한다.
실시예에 따라, 상기 다관절 로봇을 통해 상기 작업자의 간섭 여부를 판단하는 것은 상기 작업자가 다관절 로봇을 파지하는 경우, 상기 다관절 로봇으로부터 수신한 센서 정보를 통해 상기 작업자의 접촉을 인식하고, 상기 다관절 로봇으로부터 수신한 센서 정보가 기설정된 값을 넘는 경우, 상기 작업자와 간섭이 발생한 것으로 판단하는 것을 포함한다.
실시예에 따라, 상기 교시에 따라 로봇 동작에 필요한 힘을 분석하여 상기 AMR, 상기 다관절 로봇 중 적어도 하나가 동작하는 것은 상기 다관절 로봇과 작업자의 접촉 위치를 판단하고, 상기 로봇 동작에 필요한 힘의 세기를 판단하고, 상기 로봇 동작에 필요한 힘의 방향을 판단하고, 상기 로봇 동작에 필요한 힘의 발생 시간을 판단하는 것을 포함한다.
실시예에 따라, 상기 다관절 로봇과 작업자의 접촉 위치를 판단하는 것은 상기 접촉 위치에 기초하여 상기 다관절 로봇의 전축 제어 또는 일부 축 제어 여부를 판단하고, 상기 전축을 제어해야 하는 경우, 상기 AMR 및 상기 다관절 로봇을 동시에 동작하도록 제어하는 것을 포함한다.
실시예에 따라, 상기 다관절 로봇과 작업자의 접촉 위치를 판단하는 것은 상기 일부 축을 제어해야 하는 경우, 상기 AMR 또는 상기 다관절 로봇이 동작하도록 제어하는 것을 포함한다.
실시예에 따라, 상기 로봇 동작에 필요한 힘의 세기를 판단하는 것은 상기 로봇 동작에 필요한 힘의 세기가 제1 범위 미만인 경우, 상기 다관절 로봇만 동작하도록 제어하는 것을 포함한다.
실시예에 따라, 상기 로봇 동작에 필요한 힘의 세기를 판단하는 것은 상기 로봇 동작에 필요한 힘의 세기가 제1 범위 이상이고 제2 범위 이내인 경우, 상기 다관절 로봇과 상기 AMR이 동시에 동작하도록 제어하는 것을 포함한다.
실시예에 따라, 상기 로봇 동작에 필요한 힘의 방향을 판단하는 것은 상기 로봇 동작에 필요한 힘의 방향을 xz 평면으로 투영하여 상기 AMR이 동작하도록 제어하고, 상기 로봇 동작에 필요한 힘의 방향을 xy 평면으로 투영하여 상기 다관절 로봇이 동작하도록 제어하는 것을 포함한다.
실시예에 따라, 상기 로봇 동작에 필요한 힘의 방향을 판단하는 것은 상기 로봇 동작에 필요한 힘이 발생하고 일정시간이 이상 유지하는 경우, 교시에 의해 동작하도록 제어하는 것을 포함한다.
본 발명의 실시예들 중 어느 하나에 의하면, 작업자는 새로운 형태의 로봇인 모바일 매니퓰레이터 로봇의 교시를 직관적으로 하는 효과가 있다.
본 발명의 실시예들 중 어느 하나에 의하면, 자율이동로봇의 위치를 고려하지 않고도 교시가 가능한 효과가 있다.
본 발명의 실시예들 중 어느 하나에 의하면, 모바일 매니퓰레이터는 작업자의 의도에 따라 동작하기 때문에 큰 힘을 들이지 않고 이동이 가능한 효과가 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1 는 본 발명의 일 실시예에 따른 AMR과 다관절 로봇을 포함하는 모바일 매니퓰레이터 로봇을 설명하기 위한 도면이다.
도 2 는 본 발명의 일 실시예에 따른 모바일 매니퓰레이터 로봇의 블록도를 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 모바일 매니퓰레이터 로봇의 교시 상황을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 모바일 매니퓰레이터 로봇의 교시 모드 진입을 판단하기 위한 접촉 정보를 설명하기 위한 도면이다.
도 5 및 도 8은 본 발명의 일 실시예에 따른 모바일 매니퓰레이터 로봇에 가해지는 힘을 분석하는 상황을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 모바일 매니퓰레이터 로봇의 교시 방법을 설명하기 위한 플로우 차트를 설명하기 위한 도면이다.
이하에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
도 1 는 본 발명의 일 실시예에 따른 AMR과 다관절 로봇을 포함하는 모바일 매니퓰레이터 로봇을 설명하기 위한 도면이다.
도 1을 참조하면, 본 실시예에 따른 모바일 매니퓰레이터 로봇(1000)은 AMR(Autonomous Mobile Robot)(100) 및 다관절 로봇(Manipulator Robot)(200)으로 구성될 수 있다.
본 실시예에 따른 AMR(100)은, AMR(100)에 접근하는 사물, 사람 등을 포함하는 오브젝트 대한 인식을 위한 라이다 센서(110) 및 카메라 센서(120)를 포함하고, AMR이 이동하기 위한 이동수단(320)을 포함할 수 있다.
라이다 센서(110)는 AMR(100)의 주변으로 레이저 신호를 송신하고 해당 객체에 반사되어 되돌아오는 신호를 수신함으로써, AMR(100)의 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각(Vertical Field Of View) 및 설정 수평 화각 범위(Vertical Field Of View) 이내에 위치한 주변 객체를 검출할 수 있다. 라이다 센서(110)는 AMR(100)의 전면, 상부 및 후면에 각각 설치되는 전방 라이다 센서, 및 후방 라이다 센서를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 해당 객체에 반사되어 되돌아오는 레이저 신호의 유효성을 판단하기 위한 임계값은 로봇의 메모리(미도시)에 미리 저장되어 있을 수 있으며, AMR(100)은 라이다 센서(110)를 통해 송신된 레이저 신호가 해당 객체에 반사되어 되돌아오는 시간을 측정하는 방식을 통해 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향을 판단할 수 있다.
카메라 센서(120)는 AMR(100)의 주변을 촬상하여 AMR(100) 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각 및 설정 수평 화각 범위 이내에 위치한 주변 객체를 검출할 수 있다. 카메라 센서(120)는 AMR(100)의 전면, 좌측면, 우측면 및 후면에 각각 설치되는 전방 카메라 센서, 좌측 카메라 센서, 우측 카메라 센서 및 후방 카메라 센서를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. AMR(100)은 카메라 센서(120)를 통해 촬상된 이미지에 대하여 미리 정의된 영상 처리 프로세싱을 적용함으로써 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향 등을 판단할 수가 있다.
이동수단(130)는 AMR(100)의 하중을 지지하기 위한 수단으로써 바퀴, 캐스터, 고정 다리 등의 형태를 통칭하는 것을 가정한다. 다만, 설명의 편의를 위해 이하에서는 이러한 이동수단(130)이 '바퀴'인 경우를 중심으로 설명한다.
한편, 다관절 로봇(Manipulator Robot)(200)은 오브젝트와의 접촉을 판단하기 위한 힘(Force) 또는 토크(Torque) 센서, 다관절 로봇(200)의 움직임이나 부하 정도를 판단하기 위한 전류(Current) 센서, 다관절 로봇(200)의 끝단에는 FT(Force-Torque) 센서를 포함하는 접촉센서부(210)를 포함할 수 있다.
또한, 다관절 로봇(200)은 외부를 촬상하기 위한 영상 센서(220)가 다관절 로봇(200)의 소정 위치(예: 그리퍼)(230)에 장착되어 있을 수 있으며, 다관절 로봇(200)은 영상 센서(220)를 통해 획득된 이미지를 기반으로 작업자의 거동 및 상태를 모니터링할 수도 있다.
이를 통해, 모바일 매니퓰레이터 로봇(1000)은 작업을 위해서 각각 따로 로봇을 움직이지 않고 작업자가 다관절 로봇(200)을 잡고 원하는 위치에 교시를 수행할 수 있다.
모바일 매니퓰레이터 로봇(1000)은 작업자가 다관절 로봇(200)을 잡고 교시하는 경우, AMR(100) 및 다관절 로봇(200)이 동작하도록 제어할 수 있다.
한편, 모바일 매니퓰레이터 로봇(1000)은 안전을 위해 주변 상황 모니터링을 수행할 수 있다. AMR(100)은 주변 센서(라이다, 카메라) 정보를 활용하여 작업자 또는 주변 물체와의 충돌을 계속해서 모니터링할 수 있다. 다관절 로봇(200)은 동작 또는 교시에 필요한 토크 이상의 힘이 발생하는지 계속해서 모니터링할 수 있다.
이에 따라, 모바일 매니퓰레이터 로봇(1000)은 일정 레벨 이상의 신호가 모니터링되는 경우 로봇은 작업자의 안전을 위해서 긴급 정지 실시할 수 있다.
도 2 는 본 발명의 일 실시예에 따른 모바일 매니퓰레이터 로봇의 블록도를 설명하기 위한 도면이다.
도 2에 도시된 바와 같이, 모바일 매니퓰레이터 로봇(1000)은 AMR(100)과 다관절 로봇(200)으로부터 수신한 센서 정보를 이용하여 작업자가 모바일 매니퓰레이터 로봇(1000)의 교시를 위해서 파지하는 순간을 감지하여 구분하고 동작하도록 제어하는 프로세서(300)를 포함할 수 있다.
프로세서(300)는 AMR(100)를 통해 접근하는 작업자를 인식하여 작업자 접근 여부를 판단할 수 있다.
프로세서(300)는 다관절 로봇(200)을 통해 작업자의 간섭 여부를 판단할 수 있다. 예를 들어, 프로세서(300)는 동작 중 작업자의 간섭을 센서(전류, 토크, 힘)의 정보로부터 판단할 수 있다.
프로세서(300)는 작업자의 간섭 여부가 있는 경우, 교시 모드로 진입할 수 있다. 이때, 예를 들어, 프로세서(300)는 센서 정보에 기초하여 작업자의 간섭에 의해 인가된 토크 또는 힘이 모바일 매니퓰레이터 로봇(1000)의 동작에 필요한 토크 또는 힘의 범위를 넘어서는 경우 외부의 간섭으로 판단하는 경우, 교시 모드로 전환할 수 있다.
프로세서(300)는 교시에 따라 로봇 동작에 필요한 힘을 분석하여 AMR(100), 다관절 로봇(200) 중 적어도 하나가 동작하도록 제어할 수 있다.
프로세서(300)는 다관절 로봇(200)과 작업자의 접촉 위치를 판단하고, 접촉 위치에 기초하여 다관절 로봇(200)의 전축 제어 또는 일부 축 제어 여부를 판단할 수 있다. 프로세서(300)는 전축 제어 또는 일 부 축 제어에 따라 모바일 매니퓰레이터 로봇(1000)의 동작을 제어할 수 있다.
예를 들어, 프로세서(300)는 다관절 로봇(200)의 전축을 제어해야 하는 경우, AMR(100) 및 다관절 로봇(200)을 동시에 동작하도록 제어할 수 있다. 프로세서(300)는 일부 축을 제어해야 하는 경우, AMR(100) 또는 다관절 로봇(200)이 동작하도록 제어할 수 있다.
프로세서(300)는 로봇 동작에 필요한 힘의 세기를 판단할 수 있다. 프로세서(300)는 힘의 세기에 대응하여 모바일 매니퓰레이터 로봇(1000)의 동작을 제어할 수 있다.
예를 들어, 프로세서(300)는 프로세서(300)는 로봇 동작에 필요한 힘의 세기가 제1 범위 미만인 경우, 다관절 로봇(200)만 동작하도록 제어할 수 있다. 프로세서(300)는 로봇 동작에 필요한 힘의 세기가 제1 범위 이상이고 제2 범위 이내인 경우, 다관절 로봇(200)과 AMR(100)이 동시에 동작하도록 제어할 수 있다.
프로세서(300)는 로봇 동작에 필요한 힘의 방향을 판단할 수 있다. 프로세서(300)는 힘의 방향에 대응하여 모바일 매니퓰레이터 로봇(1000)의 동작을 제어할 수 있다.
예를 들어, 프로세서(300)는 로봇 동작에 필요한 힘의 방향을 xz 평면으로 투영하여, AMR(100)이 동작하도록 제어할 수 있다. 프로세서(300)는 로봇 동작에 필요한 힘의 방향을 xy 평면으로 투영하여 다관절 로봇(200)이 동작하도록 제어할 수 있다.
프로세서(300)는 로봇 동작에 필요한 힘의 발생 시간을 판단할 수 있다. 프로세서(300)는 힘의 발생 시간에 대응하여 모바일 매니퓰레이터 로봇(1000)의 동작을 제어할 수 있다.
예를 들어, 프로세서(300)는 로봇 동작에 필요한 힘이 발생하고 일정시간이 이상 유지하는 경우, 교시에 의해 모바일 매니퓰레이터 로봇(1000)이 동작하도록 제어할 수 있다.
도 3은 본 발명의 일 실시예에 따른 모바일 매니퓰레이터 로봇의 교시 상황을 설명하기 위한 도면이다.
먼저, 도 3의 (A)에 도시된 바와 같이, 모바일 매니퓰레이터 로봇(1000)은 동작 또는 대기상태일때, AMR(100)의 라이다 센서(110) 및 카메라 센서(120) 등을 이용하여 상기 작업자가 기설정된 거리 이내에 위치하는 경우 작업자(2000)가 접근한 것으로 판단할 수 있다.
모바일 매니퓰레이터 로봇(1000)은, 도 3의 (B)에 도시된 바와 같이 작업자(2000)에 대한 인식이 수행된 이후 작업자가 다관절 로봇(200)을 파지하는 경우, 작업자(2000)와의 접촉을 인식할 수 있다. 도 3의 (C)에 도시된 바와 같이, 모바일 매니퓰레이터 로봇(1000)은 작업자(2000)와의 접촉에 대한 인식이 수행된 이후 교시 모드로 진입하고, 교시모드에서는 작업자(2000)가 움직이려는 방향을 예측하여 그 방향으로 모바일 매니퓰레이터 로봇(1000)을 동작시킬 수 있다.
이때, 모바일 매니퓰레이터 로봇(1000)은 작업자(2000)의 방향 예측은 다관절 로봇(200)에 장착되어 있는 토크, 전류, 힘, 영상 센서 등으로 예측할 수 있다. 따라서, 모바일 매니퓰레이터 로봇(1000)은 작업자(2000)가 의도하는 방향으로 로봇을 동작시키기 때문에 작업자(2000)는 작은 힘으로도 모바일 매니퓰레이터 로봇(1000)을 조작 가능한 장점이 있다.
도 4는 본 발명의 일 실시예에 따른 모바일 매니퓰레이터 로봇의 교시 모드 진입을 판단하기 위한 접촉 정보를 설명하기 위한 도면이다.
먼저 도 4를 참조하면, 모바일 매니퓰레이터 로봇(1000)은 다관절 로봇(200)에 작업자(2000)의 간섭이 발생하여 접촉이 발생하는 경우, 접촉 센서부(전류, 토크, 힘 센서)를 통해 인식할 수 있다.
모바일 매니퓰레이터 로봇(1000)은 다관절 로봇(200)과 작업자(2000)의 접촉이 없는 경우, 다관절 로봇(200)이 인식하는 일반적인 토크 범위 내의 센서 정보가 수신되고, 작업자(2000)의 간섭이 없으면 일반적인 산업용 로봇과 같이 작업에 필요한 토크를 이용하여 동작할 수 있다.
한편, 모바일 매니퓰레이터 로봇(1000)은 작업자(2000)의 간섭이 발생하면, 일반적인 토크 범위 외의 토크가 발생하게 되고, 모바일 매니퓰레이터 로봇(1000)은 다관절 로봇(200)으로부터 토크 신호를 수신하여 교시 모드에 진입할 수 있다.
도 5 내지 도 8은 본 발명의 일 실시예에 따른 모바일 매니퓰레이터 로봇에 가해지는 힘을 분석하는 상황을 설명하기 위한 도면이다.
먼저 도 5의 (A) 도시된 바와 같이 모바일 매니퓰레이터 로봇(1000)은 교시모드에서 모바일 매니퓰레이터 로봇(2000)의 동작에 필요한 힘(f)의 세기가 다관절 로봇(200)만 움직이는 영역(f<fa)인 경우 다관절 로봇(200)만이 동작할 수 있다.
한편, 도 5의 (B)에 도시된 바와 같이, 모바일 매니퓰레이터 로봇(2000)의 동작에 필요한 힘(f)의 세기가 AMR(100)과 다관절 로봇(200)이 움직이는 영역(fa<f<fb)인 경우, AMR(100) 및 다관절 로봇(200)이 동시에 동작할 수 있다.
그리고, 도 6을 참조하면, 모바일 매니퓰레이터 로봇(1000)은 사람의 교시에 의해 다관절 로봇(200)의 끝단의 위치 이동에 대응하여 사람과 로봇 사이의 힘(f)의 세기를 판단할 수 있다.
이때, 사람과 로봇 사이의 힘(f)의 세기는 하기 수학식 1에 의해 계산될 수 있다.
[수학식 1]
여기서 P1는 교시 이전 다관절 로봇의 끝단 위치, PX는 교시 이후의 다관절 로봇의 끝단 위치일 수 있다.
따라서, 모바일 매니퓰레이터 로봇(1000)은 다관절 로봇의 끝단(P1)이 현재 위치로부터 제1 이동 위치(P2)로 이동한 경우, 사람과 로봇 사이의 힘(f)의 세기를 계산할 수 있다.
모바일 매니퓰레이터 로봇(1000)은 사람과 로봇 사이의 힘(f)의 세기가 다관절 로봇(200)만 움직이는 영역(fa) 미만인 경우, 다관절 로봇(200)만 로봇만 동작하도록 제어할 수 있다.
그리고, 모바일 매니퓰레이터 로봇(1000)은 다관절 로봇(200)의 끝단이 현재 위치(P1)로부터 제2 이동 위치(P3)로 이동한 경우, 사람과 로봇 사이의 힘(f)의 세기를 계산할 수 있다.
모바일 매니퓰레이터 로봇(1000)은 사람과 로봇 사이의 힘(f)의 세기가 다관절 로봇(200)만 움직이는 영역(fa) 초과이고, AMR(100) 및 다관절 로봇(200)이 움직이는 영역 미만인 경우, AMR(100) 및 다관절 로봇(200)이 동시에 동작하도록 제어할 수 있다.
또한, 모바일 매니퓰레이터 로봇(1000)은 힘이 발생하고 일정시간이 지나야 작업자가 교시의 의도를 가지고 동작 시킨다고 판단할 수 있다. 모바일 매니퓰레이터 로봇(1000)은 사람과 로봇 사이의 힘(f)이 발생하면 바로 동작하지 않고, 일정 시간(Ts) 이상 그 힘을 유지하고 있는 시간(ft)를 초과해야 교시에 의한 동작을 시작할 수 있다.
도 7에 도시된 바와 같이, 모바일 매니퓰레이터 로봇(1000)은 작업자(2000)와 다관절 로봇(200)의 접촉이 발생하는 지점 위치에 따라서 모바일 매니퓰레이터 로봇(1000)의 동작이 변경될 수 있다.
즉, 모바일 매니퓰레이터 로봇(1000)은 교시 모드에서 다관절 로봇(200)의 접촉이 발생하는 지점 위치를 구분하여 AMR(100) 및 다관절 로봇(200)의 동작을 제어할 수 있다.
도 7의 (A)에 도시된 바와 같이, 작업자(2000)와 다관절 로봇(200)의 접촉이 발생하는 지점 위치가 끝단(S1) 및 연결부(S2)일 경우를 중심으로 설명한다.
도 7의 (B)에 도시된 바와 같이, 작업자(2000)와 다관절 로봇(200)의 접촉이 발생하는 지점 위치가 끝단(S1)인 경우, 모바일 매니퓰레이터 로봇(1000)은 다관절 로봇(200)이 전축 이동 가능하다고 판단할 수 있다.
모바일 매니퓰레이터 로봇(1000)은 전축 이동 가능한 경우, 작업자(2000)와 로봇 사이의 힘(f)의 세기 및 시간에 기초하여 AMR(100) 및 다관절 로봇(200)의 이동을 제어할 수 있다.
한편, 작업자(2000)와 다관절 로봇(200)의 접촉이 발생하는 지점 위치가 연결부(S2)인 경우, 도 7의 (C)에 도시된 바와 같이 모바일 매니퓰레이터 로봇(1000)은 AMR(100)만이 동작하도록 제어하거나, 도 7의 (D)에 도시된 바와 같이 다관절 로봇(200)만이 동작하도록 제어할 수 있다.
이때, 모바일 매니퓰레이터 로봇(1000)은 다관절 로봇(200)의 일부의 축만 이동시키는 모드인 경우, 사람과의 접촉이 발생하는 지점을 경계로 구분하여 동작을 제어할 수 있다.
도 8의 (A)에 도시된 바와 같이, 모바일 매니퓰레이터 로봇(1000)은 교시모드에서 작업자(2000)와 로봇 사이의 힘(f)의 방향을 분석하여 이동을 제어할 수 있다.
이때, 모바일 매니퓰레이터 로봇(1000)은 3차원 공간상에 발생하므로 힘(f)의 방향을 XY 평면과 XY 평면으로 각각 분석할 수 있다.
모바일 매니퓰레이터 로봇(1000)은 도 8의 (B)에 도시된 바와 같이, 3차원 공간상에 발생하므로 힘(f)을 xz 평면으로 투영하여 방향을 분석할 수 있다. 모바일 매니퓰레이터 로봇(1000)은 분석된 xz 평면의 방향에 대응하여 AMR(100)이 이동하도록 제어할 수 있다.
그리고, 모바일 매니퓰레이터 로봇은(1000) 도 8의 (C)에 도시된 바와 같이, 차원 공간상에 발생하므로 힘(f)을 2차원 xy 평면으로 투영하여 방향을 분석할 수 있다.
모바일 매니퓰레이터 로봇(1000)은 분석된 xz 평면의 방향 및 xy 평면의 방향에 기초하여 다관절 로봇(200)이 힘의 방향으로 3차원 공간으로 이동하도록 제어할 수 있다.
도 9는 본 발명의 일 실시예에 따른 모바일 매니퓰레이터 로봇의 교시 방법을 설명하기 위한 플로우 차트를 설명하기 위한 도면이다.
먼저, 본 실시예에 따른 모바일 매니퓰레이터 로봇(1000)은 AMR(100)의 센서 정보를 통해 작업자가 근접하는 것을 판단하고(S910), 다관절 로봇(200)으로부터 수신한 센서 정보를 통해 작업자와의 접촉을 판단하여(S920), 교시 모드로 진입할 수 있다 (S930). 교시 모드는 작업자가 움직이려는 방향을 예측하여 그 방향으로 모바일 매니퓰레이터 로봇을 이동하기 위한 제어 모드 일 수 있다.
모바일 매니퓰레이터 로봇(1000)은 교시 모드에 진입하면, 다관절 로봇(200)과 작업자(2000)간의 접촉 위치를 판단할 수 있다(S940). 모바일 매니퓰레이터 로봇(1000)은 접촉 위치에 기초하여 다관절 로봇(200)의 전축 제어 여부를 판단하여(S941), 전축을 제어해야 하는 경우, AMR(100) 및 다관절 로봇(200)이 동시에 동작하도록 제어할 수 있다(S42). 만일, 전축 제어가 아닌 경우, 모바일 매니퓰레이터 로봇(1000)은 AMR(100) 또는 다관절 로봇(200)이 동작하도록 제어할 수 있다(S943).
그리고, 모바일 매니퓰레이터 로봇(1000)은 접촉 위치를 판단한 이후, 교시에 의한 힘의 세기를 판단 할 수 있다(S950).
모바일 매니퓰레이터 로봇(1000)은 힘의 세기가 제1 범위 미만인 경우(S951), 다관절 로봇(200)만 동작하도록 제어할 수 있다(S952). 만일, 힘의 세기가 제1 범위 미만이 아닌 경우, AMR(100) 및 다관절 로봇(200)이 동시에 동작하도록 제어할 수 있다(S953)
또한, 모바일 매니퓰레이터 로봇(1000)은 교시에 의한 힘의 세기를 판단 한 이후, 교시 방향을 판단할 수 있다(S960).
모바일 매니퓰레이터 로봇(1000)은 교시에 의해 3차원 공간상에서 힘이 발생하면, 발생한 힘의 방향을 XZ평면으로 투영하고(S961), 투영된 힘의 방향에 기초하여 AMR(100)이 동작하도록 제어할 수 있다(S962). 그리고, 모바일 매니퓰레이터 로봇(1000)은 발생한 힘의 방향을 XY평면으로 투영하고(S963), 투영된 힘의 방향에 기초하여 다관절 로봇(200)이 동작하도록 제어할 수 있다(S964).
그 후, 모바일 매니퓰레이터 로봇(1000)은 교시에 의한 힘의 발생 시간을 판단할 수 있다(S970).
모바일 매니퓰레이터 로봇(1000)은 교시에 의한 힘의 발생 시간이 일정 시간(Ts) 이상 힘을 유지하고 있는 경우(S971), 교시 동작이 동작하도록 제어할 수 있다(S972).
본 발명의 또 다른 양태(aspect)로서, 앞서 설명한 제안 또는 발명의 동작이 "컴퓨터"(시스템 온 칩(system on chip; SoC) 또는 마이크로 프로세서 등을 포함하는 포괄적인 개념)에 의해 구현, 실시 또는 실행될 수 있는 코드 또는 상기 코드를 저장 또는 포함한 어플리케이션, 컴퓨터-판독 가능한 저장 매체 또는 컴퓨터 프로그램 제품(product) 등으로도 제공될 수 있으며, 이 또한 본 발명의 권리범위에 속한다.
상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다.
따라서, 본 발명은 여기에 나타난 실시예들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.
1000: 모바일 매니퓰레이터 로봇
100: AMR
110: 라이다 센서
120: 카메라 센서
130: 이동수단
200: 다관절 로봇
210: 접촉센서부
220: 영상 센서
230: 그리퍼
300:프로세서

Claims (19)

  1. AMR(Autonomous Mobile Robot)과 다관절 로봇(Manipulator Robot)을 포함하는 모바일 매니퓰레이터 로봇 교시 방법에 있어서,
    상기 AMR를 통해 접근하는 작업자를 인식하여 작업자 접근 여부를 판단하고,
    상기 다관절 로봇을 통해 상기 작업자의 간섭 여부를 판단하고,
    상기 작업자의 간섭에 대응하여 교시 모드로 진입하고,
    상기 교시에 따라 로봇 동작에 필요한 힘을 분석하여 상기 AMR, 다관절 로봇 중 적어도 하나가 동작하는 것을 포함하는
    모바일 매니퓰레이터 로봇 교시 방법.
  2. 제1항에 있어서,
    상기 다관절 로봇을 통해 상기 작업자의 간섭 여부를 판단하는 것은
    상기 작업자가 다관절 로봇을 파지하는 경우, 상기 다관절 로봇으로부터 수신한 센서 정보를 통해 상기 작업자의 접촉을 인식하고,
    상기 다관절 로봇으로부터 수신한 센서 정보가 기설정된 값을 넘는 경우, 상기 작업자와 간섭이 발생한 것으로 판단하는 것을 포함하는
    모바일 매니퓰레이터 로봇 교시 방법.
  3. 제1항에 있어서,
    상기 교시에 따라 로봇 동작에 필요한 힘을 분석하여 상기 AMR, 상기 다관절 로봇 중 적어도 하나가 동작하는 것은
    상기 다관절 로봇과 작업자의 접촉 위치를 판단하고,
    상기 로봇 동작에 필요한 힘의 세기를 판단하고,
    상기 로봇 동작에 필요한 힘의 방향을 판단하고,
    상기 로봇 동작에 필요한 힘의 발생 시간을 판단하는 것을 포함하는
    모바일 매니퓰레이터 로봇 교시 방법.
  4. 제3항에 있어서,
    상기 다관절 로봇과 작업자의 접촉 위치를 판단하는 것은
    상기 접촉 위치에 기초하여 상기 다관절 로봇의 전축 제어 또는 일부 축 제어 여부를 판단하고,
    상기 전축을 제어해야 하는 경우, 상기 AMR 및 상기 다관절 로봇을 동시에 동작하도록 제어하는 것을 포함하는
    모바일 매니퓰레이터 로봇 교시 방법.
  5. 제4항에 있어서,
    상기 다관절 로봇과 작업자의 접촉 위치를 판단하는 것은
    상기 일부 축을 제어해야 하는 경우, 상기 AMR 또는 상기 다관절 로봇이 동작하도록 제어하는 것을 포함하는
    모바일 매니퓰레이터 로봇 교시 방법.
  6. 제3항에 있어서,
    상기 로봇 동작에 필요한 힘의 세기를 판단하는 것은
    상기 로봇 동작에 필요한 힘의 세기가 제1 범위 미만인 경우, 상기 다관절 로봇만 동작하도록 제어하는 것을 포함하는
    모바일 매니퓰레이터 로봇 교시 방법.
  7. 제3항에 있어서,
    상기 로봇 동작에 필요한 힘의 세기를 판단하는 것은
    상기 로봇 동작에 필요한 힘의 세기가 제1 범위 이상이고 제2 범위 이내인 경우, 상기 다관절 로봇과 상기 AMR이 동시에 동작하도록 제어하는 것을 포함하는
    모바일 매니퓰레이터 로봇 교시 방법.
  8. 제3항에 있어서,
    상기 로봇 동작에 필요한 힘의 방향을 판단하는 것은
    상기 로봇 동작에 필요한 힘의 방향을 xz 평면으로 투영하여 상기 AMR이 동작하도록 제어하고,
    상기 로봇 동작에 필요한 힘의 방향을 xy 평면으로 투영하여 상기 다관절 로봇이 동작하도록 제어하는 것을 포함하는
    모바일 매니퓰레이터 로봇 교시 방법.
  9. 제3항에 있어서,
    상기 로봇 동작에 필요한 힘의 방향을 판단하는 것은
    상기 로봇 동작에 필요한 힘이 발생하고 일정시간이 이상 유지하는 경우, 교시에 의해 동작하도록 제어하는 것을 포함하는
    모바일 매니퓰레이터 로봇 교시 방법.
  10. 컴퓨터 판독 가능한 저장 매체에 있어서,
    상기 저장 매체는 실행될 때 적어도 하나의 프로세서로 하여금 동작들을 수행하도록 하는 지시들을 포함하는 적어도 하나의 프로그램 코드를 저장하고,
    상기 동작들은:
    AMR를 통해 접근하는 작업자를 인식하여 작업자 접근 여부를 판단하고,
    다관절 로봇을 통해 상기 작업자의 간섭 여부를 판단하고,
    상기 작업자의 간섭에 대응하여 교시 모드로 진입하고,
    상기 교시에 따라 로봇 동작에 필요한 힘을 분석하여 상기 AMR, 다관절 로봇 중 적어도 하나가 동작하는 것을 포함하는 것을 포함하는
    저장 매체.
  11. AMR(Autonomous Mobile Robot)과 다관절 로봇(Manipulator Robot)을 포함하는 모바일 매니퓰레이터 로봇에 있어서,
    라이다 센서 및 카메라 센서 및 이동수단을 포함하는 AMR;
    토크 센서, 전류 센서 및 이미지 센서를 포함하는 다관절 로봇; 및
    상기 AMR 및 다관절 로봇의 동작을 제어하는 프로세서를 포함하되,
    상기 프로세서는,
    상기 AMR를 통해 접근하는 작업자를 인식하여 작업자 접근 여부를 판단하고,
    상기 다관절 로봇을 통해 상기 작업자의 간섭 여부를 판단하고,
    상기 작업자의 간섭에 대응하여 교시 모드로 진입하고,
    상기 교시에 따라 로봇 동작에 필요한 힘을 분석하여 상기 AMR, 다관절 로봇 중 적어도 하나가 동작하도록 구성되는,
    모바일 매니퓰레이터 로봇.
  12. 제11항에 있어서,
    상기 프로세서는,
    상기 작업자가 다관절 로봇을 파지하는 경우, 상기 다관절 로봇으로부터 수신한 센서 정보를 통해 상기 작업자의 접촉을 인식하고,
    상기 다관절 로봇으로부터 수신한 센서 정보가 기설정된 값을 넘는 경우, 상기 작업자와 간섭이 발생한 것으로 판단하도록 구성되는
    모바일 매니퓰레이터 로봇.
  13. 제11항에 있어서,
    상기 프로세서는,
    상기 다관절 로봇과 작업자의 접촉 위치를 판단하고,
    상기 로봇 동작에 필요한 힘의 세기를 판단하고,
    상기 로봇 동작에 필요한 힘의 방향을 판단하고,
    상기 로봇 동작에 필요한 힘의 발생 시간을 판단하도록 구성되는
    모바일 매니퓰레이터 로봇.
  14. 제13항에 있어서,
    상기 프로세서는,
    상기 접촉 위치에 기초하여 상기 다관절 로봇의 전축 제어 또는 일부 축 제어 여부를 판단하고,
    상기 전축을 제어해야 하는 경우, 상기 AMR 및 상기 다관절 로봇을 동시에 동작하도록 제어하는
    모바일 매니퓰레이터 로봇.
  15. 제14항에 있어서,
    상기 프로세서는,
    상기 일부 축을 제어해야 하는 경우, 상기 AMR 또는 상기 다관절 로봇이 동작하도록 제어하는
    모바일 매니퓰레이터 로봇.
  16. 제13항에 있어서,
    상기 프로세서는,
    상기 로봇 동작에 필요한 힘의 세기가 제1 범위 미만인 경우, 상기 다관절 로봇만 동작하도록 제어하는
    모바일 매니퓰레이터 로봇.
  17. 제13항에 있어서,
    상기 프로세서는,
    상기 로봇 동작에 필요한 힘의 세기가 제1 범위 이상이고 제2 범위 이내인 경우, 상기 다관절 로봇과 상기 AMR이 동시에 동작하도록 제어하는
    모바일 매니퓰레이터 로봇.
  18. 제13항에 있어서,
    상기 프로세서는,
    상기 로봇 동작에 필요한 힘의 방향을 xz 평면으로 투영하여 상기 AMR이 동작하도록 제어하고,
    상기 로봇 동작에 필요한 힘의 방향을 xy 평면으로 투영하여 상기 다관절 로봇이 동작하도록 제어하는
    모바일 매니퓰레이터 로봇.
  19. 제13항에 있어서,
    상기 프로세서는,
    상기 로봇 동작에 필요한 힘이 발생하고 일정시간이 이상 유지하는 경우, 교시에 의해 동작하도록 제어하는
    모바일 매니퓰레이터 로봇.
KR1020220083869A 2022-07-07 2022-07-07 모바일 매니퓰레이터 로봇 및 이를 이용한 모바일 매니퓰레이터 로봇 교시 방법 KR20240007968A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220083869A KR20240007968A (ko) 2022-07-07 2022-07-07 모바일 매니퓰레이터 로봇 및 이를 이용한 모바일 매니퓰레이터 로봇 교시 방법
US18/347,226 US20240009834A1 (en) 2022-07-07 2023-07-05 Mobile manipulator robot and method for using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220083869A KR20240007968A (ko) 2022-07-07 2022-07-07 모바일 매니퓰레이터 로봇 및 이를 이용한 모바일 매니퓰레이터 로봇 교시 방법

Publications (1)

Publication Number Publication Date
KR20240007968A true KR20240007968A (ko) 2024-01-18

Family

ID=89716330

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220083869A KR20240007968A (ko) 2022-07-07 2022-07-07 모바일 매니퓰레이터 로봇 및 이를 이용한 모바일 매니퓰레이터 로봇 교시 방법

Country Status (1)

Country Link
KR (1) KR20240007968A (ko)

Similar Documents

Publication Publication Date Title
US10994419B2 (en) Controlling a robot in the presence of a moving object
US9122266B2 (en) Camera-based monitoring of machines with mobile machine elements for collision prevention
US10379513B2 (en) Monitoring system, monitoring device, and monitoring method
US11091155B2 (en) Parking control method and parking control device
KR101812088B1 (ko) 스마트 팩토리 구현을 위한 원격제어방식의 무인반송시스템
WO2014156502A1 (ja) 位置同定装置、及びそれを備えた移動ロボット
US10854084B2 (en) Parking control method and parking control device
US20190354246A1 (en) Airport robot and movement method therefor
KR20240007968A (ko) 모바일 매니퓰레이터 로봇 및 이를 이용한 모바일 매니퓰레이터 로봇 교시 방법
WO2014016307A1 (en) Arrangement and method for operating a system, a corresponding computer program and a corresponding computer-readable storage medium
US11964402B2 (en) Robot control system, robot control method, and control program
KR102171934B1 (ko) 양방향 선도 추미 대차
Bostelman et al. Development of standard test methods for unmanned and manned industrial vehicles used near humans
KR101689779B1 (ko) 무인 운반차 제어 시스템 및 그 제어방법
KR20190130772A (ko) 사람 감지 시스템
KR20240007969A (ko) 모바일 매니퓰레이터 로봇 및 이를 이용한 모바일 매니퓰레이터 로봇의 안전 제어 방법
JP6412207B2 (ja) 位置同定装置
US20190026566A1 (en) Method and system for detecting a free area inside a parking lot
US20240009834A1 (en) Mobile manipulator robot and method for using the same
US20220379471A1 (en) Robot control system, information processor, information processing method, and non-transitory computer readable medium storing program
WO2023157103A1 (ja) 自律走行型ロボット
KR102633893B1 (ko) 건설현장 충돌 방지 장치 및 방법
JP2022096933A (ja) ロボットシステムの報知方法およびロボットシステム
JP2023125162A (ja) 作業車両制御プログラム、作業車両制御装置、及び作業車両制御方法
KR20230101505A (ko) 영상 기반의 주변 모니터링 장치