KR20230109714A - 로봇 및 위치 결정 방법 - Google Patents

로봇 및 위치 결정 방법 Download PDF

Info

Publication number
KR20230109714A
KR20230109714A KR1020237020603A KR20237020603A KR20230109714A KR 20230109714 A KR20230109714 A KR 20230109714A KR 1020237020603 A KR1020237020603 A KR 1020237020603A KR 20237020603 A KR20237020603 A KR 20237020603A KR 20230109714 A KR20230109714 A KR 20230109714A
Authority
KR
South Korea
Prior art keywords
information
positioning
robot
distance
distance information
Prior art date
Application number
KR1020237020603A
Other languages
English (en)
Inventor
후아페이 왕
Original Assignee
베이징 긱플러스 테크놀러지 씨오., 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 긱플러스 테크놀러지 씨오., 엘티디. filed Critical 베이징 긱플러스 테크놀러지 씨오., 엘티디.
Publication of KR20230109714A publication Critical patent/KR20230109714A/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G1/00Storing articles, individually or in orderly arrangement, in warehouses or magazines
    • B65G1/02Storage devices
    • B65G1/04Storage devices mechanical
    • B65G1/137Storage devices mechanical with arrangements or automatic control means for selecting which articles are to be removed
    • B65G1/1373Storage devices mechanical with arrangements or automatic control means for selecting which articles are to be removed for fulfilling orders in warehouses
    • B65G1/1375Storage devices mechanical with arrangements or automatic control means for selecting which articles are to be removed for fulfilling orders in warehouses the orders being assembled on a commissioning stacker-crane or truck
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4189Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the transport system
    • G05B19/41895Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the transport system using automatic guided vehicles [AGV]
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/244Arrangements for determining position or orientation using passive navigation aids external to the vehicle, e.g. markers, reflectors or magnetic means
    • G05D1/2446Arrangements for determining position or orientation using passive navigation aids external to the vehicle, e.g. markers, reflectors or magnetic means the passive navigation aids having encoded information, e.g. QR codes or ground control points
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/646Following a predefined trajectory, e.g. a line marked on the floor or a flight path
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2105/00Specific applications of the controlled vehicles
    • G05D2105/20Specific applications of the controlled vehicles for transportation
    • G05D2105/28Specific applications of the controlled vehicles for transportation of freight
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2107/00Specific environments of the controlled vehicles
    • G05D2107/70Industrial sites, e.g. warehouses or factories
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2109/00Types of controlled vehicles
    • G05D2109/10Land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2111/00Details of signals used for control of position, course, altitude or attitude of land, water, air or space vehicles
    • G05D2111/10Optical signals
    • G05D2111/17Coherent light, e.g. laser signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Quality & Reliability (AREA)
  • Manufacturing & Machinery (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)

Abstract

본 발명은 로봇 및 위치 결정 방법을 제공하되, 당해 로봇은 로봇 프로세서, 식별 컴포넌트 및 위치 결정 컴포넌트를 포함한다. 식별 컴포넌트는 위치 결정 참조물을 검출한 경우, 거리 정보를 획득하여 로봇 프로세서로 송신하고; 위치 결정 컴포넌트는 제1 위치 정보를 획득하여 로봇 프로세서로 송신하고; 로봇 프로세서는 거리 정보 및 제1 위치 정보에 따라 양측의 위치 결정 참조물의 중심 위치 정보를 결정하고, 또한 이동 제어 파라미터를 결정하고; 이동 제어 파라미터를 기반으로 로봇을 제어하여 중심 위치 정보에 따라 이동하도록 한다.

Description

로봇 및 위치 결정 방법
본 발명은 2020년 12월 16일자로 중국특허국에 제출된 특허 출원 번호가 "2020114879132"이고, 발명의 명칭이 "로봇 및 위치 결정 방법"인 우선권을 주장하고, 인용을 통해 그의 모든 내용이 본 발명에 포함된다.
본 발명은 로봇 분야에 관한 것으로, 특히 로봇 및 위치 결정 방법에 관한 것이다.
지능형 창고 시스템의 급속한 발전으로 인해, 화물의 유통 효율을 향상시키기 위해 로봇이 다양한 지능형 창고 시스템에 널리 사용되고 있다. 다양한 화물 운송 요구에 따라 로봇의 유형도 다양화되기 시작했으며, 상이한 유형의 로봇은 상이한 화물 운송 장면에 적용되므로, 로봇의 화물 운송 과정에서, 운송 과정의 안전성과 배송 결과의 정확도를 보장하기 위해, 로봇에 대해 위치 결정을 해야 하고, 위치 결정 정보를 통해 운송 과정의 완전성을 확보한다.
현재, 지능형 창고 시스템의 로봇은 일반적으로 창고 공간의 지면에 배치된 QR 코드를 기반으로 위치 결정하며, 로봇에 식별 카메라가 장착되어, 로봇의 운동 과정에서 식별 카메라에 의해 도착한 위치에서 창고 공간의 지면에 배치된 QR 코드를 스캔하여 QR 코드 정보를 획득하고, QR 코드 정보에 따라 위치 결정 정보를 획득한다.
그러나, 시각적 정보를 기반으로 위치 결정하는 로봇은 각 컨테이너 위치의 지면에 QR 코드가 배치되어야 하므로, QR 코드의 배치 및 유지 관리 비용이 증가된다. 또한, 컨테이너가 상대적으로 밀집하게 배치된 경우, QR 코드의 간격이 작아, 식별 카메라가 위치 결정 정보를 획득하기 위해 QR 코드를 스캔하는 어려움이 증가되고, 위치 결정의 신뢰도가 낮다.
본 발명의 실시예는 적어도 로봇 및 위치 결정 방법을 제공한다.
제1 측면에 따르면, 본 발명의 실시예는 로봇을 제공하되, 로봇 프로세서, 식별 컴포넌트 및 위치 결정 컴포넌트를 포함하는 바,
상기 식별 컴포넌트는 로봇의 이동 과정에서 양측의 위치 결정 참조물을 검출한 경우, 상기 식별 컴포넌트와 각 측의 위치 결정 참조물의 거리 정보를 각각 획득하여 상기 로봇 프로세서로 송신하도록 구성되고;
상기 위치 결정 컴포넌트는 상기 식별 컴포넌트가 상기 위치 결정 참조물을 식별한 경우, 제1 위치 정보를 획득하여 상기 로봇 프로세서로 송신하도록 구성되고;
상기 로봇 프로세서는 수신된 각 측의 위치 결정 참조물과의 거리 정보 및 상기 제1 위치 정보에 따라 양측의 위치 결정 참조물의 중심 위치 정보를 결정하고; 상기 중심 위치 정보 및 상기 제1 위치 정보에 따라 이동 제어 파라미터를 결정하고; 상기 이동 제어 파라미터를 기반으로 상기 로봇을 제어하여 상기 중심 위치 정보에 따라 이동하도록 구성된다.
일 가능한 실시 형태에서, 상기 식별 컴포넌트는 레이저 컴포넌트를 포함하고, 상기 레이저 컴포넌트는 미리 설정된 각도 정보에 따라 양측으로 탐측 레이저를 발사하며;
상기 로봇 프로세서는, 구체적으로 상기 거리 정보, 상기 미리 설정된 각도 정보 및 상기 제1 위치 정보에 따라 각 측의 위치 결정 참조물에 대응되는 참조 위치 정보를 결정하고; 각 측의 위치 결정 참조물에 대응되는 참조 위치 정보에 따라, 양측의 위치 결정 참조물의 중심 위치 정보를 결정하도록 구성된다.
일 가능한 실시 형태에서, 상기 거리 정보는 상기 레이저 컴포넌트와 제1 위치 결정 참조물 사이의 제1 거리 정보 및 상기 레이저 컴포넌트와 제2 위치 결정 참조물 사이의 제2 거리 정보를 포함하고, 상기 미리 설정된 각도 정보는 제1 위치 결정 참조물을 식별하는 제1 각도 정보 및 제2 위치 결정 참조물을 식별하는 제2 각도 정보를 포함하고, 상기 참조 위치 정보는 제1 위치 결정 참조물의 제2 위치 정보 및 제2 위치 결정 참조물의 제3 위치 정보를 포함하며;
상기 로봇 프로세서는, 구체적으로 상기 제1 거리 정보, 상기 제1 각도 정보 및 상기 레이저 컴포넌트와 로봇 중심 사이의 거리 정보에 따라 상기 제1 위치 결정 참조물의 제2 위치 정보를 결정하고; 상기 제2 거리 정보, 상기 제2 각도 정보 및 상기 레이저 컴포넌트와 로봇 중심 사이의 거리 정보에 따라 상기 제2 위치 결정 참조물의 제3 위치 정보를 결정하고; 상기 제2 위치 정보 및 상기 제3 위치 정보에 따라, 상기 제1 위치 결정 참조물 및 상기 제2 위치 결정 참조물의 중심 위치 정보를 결정하도록 구성된다.
일 가능한 실시 형태에서, 상기 식별 컴포넌트는 양안 촬영 컴포넌트를 포함하고, 상기 양안 촬영 컴포넌트는 제1 촬영 컴포넌트 및 제2 촬영 컴포넌트를 포함하고, 상기 거리 정보는 제1 촬영 컴포넌트와 제1 위치 결정 참조물의 제3 거리 정보, 제2 촬영 컴포넌트와 제1 위치 결정 참조물의 제4 거리 정보, 제1 촬영 컴포넌트와 제2 위치 결정 참조물의 제5 거리 정보, 제2 촬영 컴포넌트와 제2 위치 결정 참조물의 제6 거리 정보를 포함하며;
상기 로봇 프로세서는, 구체적으로 제3 거리 정보, 제4 거리 정보, 제1 촬영 컴포넌트와 제2 촬영 컴포넌트 사이의 제7 거리 정보, 제1 촬영 컴포넌트 및 제2 촬영 컴포넌트와 상기 로봇 중심 사이의 제8 거리 정보 및 제9 거리 정보에 따라, 제10 거리 정보 및 제3 각도 정보를 결정하고; 상기 제10 거리 정보 및 상기 제3 각도 정보에 따라 상기 제1 위치 결정 참조물에 대응되는 제4 위치 정보를 결정하고; 제5 거리 정보, 제6 거리 정보, 제7 거리 정보, 제8 거리 정보 및 제9 거리 정보에 따라 제11 거리 정보 및 제4 각도 정보를 결정하고, 상기 제11 거리 정보 및 상기 제4 각도 정보에 따라 상기 제2 위치 결정 참조물에 대응되는 제5 위치 정보를 결정하고; 상기 제4 위치 정보 및 상기 제5 위치 정보에 따라 양측의 위치 결정 참조물의 중심 위치 정보를 결정하도록 구성된다.
일 가능한 실시 형태에서, 상기 이동 제어 파라미터는 이동 방향 및 이동 거리를 포함하며;
상기 로봇 프로세서는, 구체적으로 상기 제1 위치 정보의 가로 좌표와 상기 중심 위치 정보의 가로 좌표 사이의 차이에 따라, 가로 좌표에서의 상기 로봇의 이동 거리 및 이동 방향을 결정하고; 상기 제1 위치 정보의 세로 좌표와 상기 중심 위치 정보의 세로 좌표 사이의 차이에 따라, 세로 좌표에서의 상기 로봇의 이동 거리 및 이동 방향을 결정하도록 구성된다.
제2 측면에 따르면, 본 발명의 실시예는 또한 위치 결정 방법을 제공하되,
이동 과정에서 식별 컴포넌트를 통해 양측의 위치 결정 참조물을 식별하여, 각 측의 위치 결정 참조물과의 거리 정보를 각각 획득하는 단계;
상기 위치 결정 참조물을 식별한 경우, 제1 위치 정보를 획득하는 단계;
상기 각 측의 위치 결정 참조물과의 거리 정보 및 상기 제1 위치 정보에 따라 양측의 위치 결정 참조물의 중심 위치 정보를 결정하는 단계;
상기 중심 위치 정보 및 상기 제1 위치 정보에 따라 이동 제어 파라미터를 결정하는 단계; 및
상기 이동 제어 파라미터를 기반으로, 로봇을 제어하여 상기 중심 위치 정보에 따라 이동하는 단계;를 포함한다.
일 가능한 실시 형태에서, 상기 식별 컴포넌트는 레이저 컴포넌트를 포함하고, 상기 레이저 컴포넌트는 미리 설정된 각도 정보에 따라 양측으로 탐측 레이저를 발사하며;
상기 각 측의 위치 결정 참조물과의 거리 정보 및 상기 제1 위치 정보에 따라 양측의 위치 결정 참조물의 중심 위치 정보를 결정하는 단계는, 구체적으로
상기 거리 정보, 상기 미리 설정된 각도 정보 및 상기 제1 위치 정보에 따라 각 측의 위치 결정 참조물의 참조 위치 정보를 결정하는 단계; 및
각 측의 위치 결정 참조물에 대응되는 참조 위치 정보에 따라, 양측의 위치 결정 참조물의 중심 위치 정보를 결정하는 단계;를 포함한다.
일 가능한 실시 형태에서, 상기 거리 정보는 상기 레이저 컴포넌트와 제1 위치 결정 참조물 사이의 제1 거리 정보 및 상기 레이저 컴포넌트와 제2 위치 결정 참조물 사이의 제2 거리 정보를 포함하고, 상기 미리 설정된 각도 정보는 제1 위치 결정 참조물을 식별하는 제1 각도 정보 및 제2 위치 결정 참조물을 식별하는 제2 각도 정보를 포함하고, 상기 참조 위치 정보는 제1 위치 결정 참조물의 제2 위치 정보 및 제2 위치 결정 참조물의 제3 위치 정보를 포함하며;
상기 각 측의 위치 결정 참조물과의 거리 정보 및 상기 제1 위치 정보에 따라 양측의 위치 결정 참조물의 중심 위치 정보를 결정하는 단계는,
상기 제1 거리 정보, 상기 제1 각도 정보 및 상기 레이저 컴포넌트와 로봇 중심 사이의 거리 정보에 따라 상기 제1 위치 결정 참조물의 제2 위치 정보를 결정하는 단계;
상기 제2 거리 정보, 상기 제2 각도 정보 및 상기 레이저 컴포넌트와 로봇 중심 사이의 거리 정보에 따라 상기 제2 위치 결정 참조물의 제3 위치 정보를 결정하는 단계; 및
상기 제2 위치 정보 및 상기 제3 위치 정보에 따라, 상기 제1 위치 결정 참조물 및 상기 제2 위치 결정 참조물의 중심 위치 정보를 결정하는 단계;를 포함한다.
일 가능한 실시 형태에서, 상기 식별 컴포넌트는 양안 촬영 컴포넌트를 포함하고, 상기 양안 촬영 컴포넌트는 제1 촬영 컴포넌트 및 제2 촬영 컴포넌트를 포함하고, 및 상기 거리 정보는 제1 촬영 컴포넌트와 제1 위치 결정 참조물의 제3 거리 정보, 제2 촬영 컴포넌트와 제1 위치 결정 참조물의 제4 거리 정보, 제1 촬영 컴포넌트와 제2 위치 결정 참조물의 제5 거리 정보, 제2 촬영 컴포넌트와 제2 위치 결정 참조물의 제6 거리 정보를 포함하며;
상기 각 측의 위치 결정 참조물과의 거리 정보 및 상기 제1 위치 정보에 따라 양측의 위치 결정 참조물의 중심 위치 정보를 결정하는 단계는, 구체적으로
제3 거리 정보, 제4 거리 정보, 제1 촬영 컴포넌트와 제2 촬영 컴포넌트 사이의 제7 거리 정보, 제1 촬영 컴포넌트 및 제2 촬영 컴포넌트와 상기 로봇 중심 사이의 제8 거리 정보 및 제9 거리 정보에 따라, 제10 거리 정보 및 제3 각도 정보를 결정하는 단계;
상기 제10 거리 정보 및 상기 제3 각도 정보에 따라 상기 제1 위치 결정 참조물에 대응되는 제4 위치 정보를 결정하는 단계;
제5 거리 정보, 제6 거리 정보, 제7 거리 정보, 제8 거리 정보 및 제9 거리 정보에 따라 제11 거리 정보 및 제4 각도 정보를 결정하는 단계;
상기 제11 거리 정보 및 상기 제4 각도 정보에 따라 상기 제2 위치 결정 참조물에 대응되는 제5 위치 정보를 결정하는 단계; 및
상기 제4 위치 정보 및 상기 제5 위치 정보에 따라 상기 제1 위치 결정 참조물 및 상기 제2 위치 결정 참조물의 중심 위치 정보를 결정하는 단계;를 포함한다.
일 가능한 실시 형태에서, 상기 이동 제어 파라미터는 이동 방향 및 이동 거리를 포함하며; 또한,
상기 중심 위치 정보 및 상기 제1 위치 정보에 따라 이동 제어 파라미터를 결정하는 단계는, 구체적으로
상기 제1 위치 정보의 가로 좌표와 상기 중심 위치 정보의 가로 좌표 사이의 차이에 따라, 가로 좌표에서의 상기 로봇의 이동 거리 및 이동 방향을 결정하는 단계; 및
상기 제1 위치 정보의 세로 좌표와 상기 중심 위치 정보의 세로 좌표 사이의 차이에 따라, 세로 좌표에서의 상기 로봇의 이동 거리 및 이동 방향을 결정하는 단계;를 포함한다.
제3 측면에 따르면, 본 발명의 실시예는 또한 창고 시스템을 제공하되, 상기 로봇, 제어 서버 및 창고 공간 내에 설치된 위치 결정 참조물을 포함하는 바,
상기 제어 서버는 수신된 화물 운반 요청에 응답하여, 화물 운반 요청에 포함된 선반 위치 및 컨테이너 위치 정보에 따라 컨테이너 운반 조작을 수행하는 타겟 로봇을 결정하고, 타겟 로봇으로 제어 명령을 송신하도록 구성되고;
상기 타겟 로봇은 상기 제어 명령을 수신하고, 상기 제어 명령에 응답하여, 결정된 위치 결정 참조물의 중심 위치 정보를 기반으로 창고 시스템의 선반 사이에서 이동하도록 구성된다.
상기 위치 결정 방법의 효과에 관한 설명은 상기 로봇의 설명을 참조하고, 여기서 반복하지 않는다.
본 발명의 실시예에서 제공되는 로봇 및 위치 결정 방법은, 식별 컴포넌트를 통해 로봇의 운동 과정에서 양측의 위치 결정 참조물을 식별하고, 대응되는 거리 정보를 획득하며, 획득된 제1 위치 정보 및 대응되는 거리 정보에 따라 양측의 위치 결정 참조물의 중심 위치 정보를 결정함으로써, 결정된 중심 위치를 기반으로 이동 제어 파라미터를 결정하고, 로봇이 중심 위치 정보에 따라 이동하도록 제어하는 방법이다. 기존 기술에서는 각 컨테이너에 대응되는 지면에 배치된 QR 코드를 식별하여 위치 결정 정보를 획득하고, 획득된 위치 결정 정보에 따라 컨테이너 픽업을 수행하거나 선반 사이에서 이동한다. 그러나, 컨테이너가 밀집하게 배치된 경우, 대량의 QR 코드를 배치해야 하므로, QR 코드의 배치 및 유지 관리 비용 그리고 로봇이 QR 코드 정보를 식별하는 어려움을 증가시켜, 위치 결정의 신뢰도가 낮다. 상기 기존 기술에 비교하여, 본 발명은 식별 컴포넌트를 통해 양측의 위치 결정 참조물에 대응되는 거리 정보를 획득하고, 나아가 위치 결정된 제1 위치 정보에 따라 중심 위치 정보를 결정하고, 결정된 중심 위치 정보를 기반으로 이동 제어 파라미터를 결정함으로써 중심 위치에서 이동하도록 로봇을 제어하는 위치 결정 방법을 구현하고, QR 코드의 배치 및 유지 관리 비용을 절약한다.
나아가, 본 발명의 실시예에서 제공되는 위치 결정 방법은 또한 레이저 컴포넌트 또는 양안 촬영 컴포넌트를 통해 양측의 위치 결정 참조물에 대한 식별과 거리 정보 및 각도 정보의 획득을 구현할 수 있으므로, 획득된 거리 정보 및 각도 정보 그리고 위치 결정된 제1 위치 정보에 따라 중심 위치 및 이동 제어 파라미터를 결정함으로써, 식별 정확도 및 제어 유연성을 향상시킨다.
본 발명의 전술한 목적, 특징 및 장점을 보다 명확하고 쉽게 이해할 수 있도록, 이하에서 바람직한 실시예를 열거하고, 첨부된 도면과 관련하여 다음과 같이 상세히 설명한다.
본 발명의 실시예에 따른 기술적 수단을 보다 명확하게 설명하기 위해, 이하에서는 실시예에서 요구되는 도면을 간략하게 설명하며, 첨부된 도면은 본 명세서에 통합되고 본 명세서의 일부를 구성한다. 이들 도면은 본 발명에 부합하는 실시예를 나타내고, 명세서와 함께 본 발명의 기술적 수단을 설명하는데 사용된다. 이하의 도면들은 단지 본 발명의 특정 실시예를 예시한 것이므로, 범위의 제한으로 간주되어서는 안되며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게는 창조적인 노력이 필요 없이, 이들 도면에 따른 다른 관련 도면들이 얻어질 수 있음을 이해해야 한다.
도 1은 본 발명의 실시예에서 제공되는 창고 시스템의 개략도를 나타낸다.
도 2a는 본 발명의 실시예에서 제공되는 로봇의 개략적인 구조도를 나타낸다.
도 2b는 본 발명의 실시예에서 제공되는 식별 컴포넌트가 레이저 컴포넌트인 식별 개략도를 나타낸다.
도 2c는 본 발명의 실시예에서 제공되는 식별 컴포넌트가 양안 촬영 컴포넌트인 식별 개략도를 나타낸다.
도 3a는 본 발명의 실시예에서 제공되는 위치 결정 방법의 흐름도를 나타낸다.
도 3b는 본 발명의 실시예에서 제공되는 레이저 컴포넌트를 통해 양측의 위치 결정 참조물의 중심 위치 정보를 결정하는 흐름도를 나타낸다.
도 3c는 본 발명의 실시예에서 제공되는 양안 촬영 컴포넌트를 통해 양측의 위치 결정 참조물의 중심 위치 정보를 결정하는 흐름도를 나타낸다.
본 발명의 실시예의 목적, 기술적 수단 및 장점을 보다 명확하게 하기 위하여, 이하에서는 본 발명의 실시예의 도면과 관련하여 본 발명의 실시예의 기술적 수단을 명확하고 완전하게 설명하며, 명확한 것은, 설명된 실시예는 본 발명의 실시예의 일부일 뿐, 모든 실시예를 나타내는 것은 아니다. 일반적으로 본 명세서에서 설명되고 예시되는 본 발명의 실시예의 구성요소는 다양한 구성으로 배열되고 설계될 수 있다. 따라서, 본 발명의 실시예에 대한 다음의 상세한 설명은 본 발명의 청구범위를 제한하려는 것이 아니라, 단지 본 발명의 선택적인 실시예를 나타낸다. 본 발명의 실시예에 기초하여, 창조적인 노동을 수행하지 않고 당업자에 의해 얻어진 모든 다른 실시예들도 본 발명의 청구범위에 속한다.
또한, 본 발명의 명세서, 특허청구범위 및 첨부된 도면에서 사용되는 "제1", "제2" 등과 같은 용어는 유사한 객체를 구별하기 위한 것으로, 특정한 순서 또는 선착순을 설명하지 않아도 된다. 여기서 설명되는 본 발명의 실시예가 여기에 도시되거나 기술된 것 이외의 순서에 따라 실시될 수 있도록, 이러한 방식으로 사용되는 데이터는 적절한 상황에서 상호 교환될 수 있음을 이해해야 한다.
본 명세서에서 언급된 "복수 또는 여러 개"는 2개 또는 2개 이상을 의미한다. "및/또는"은 연관된 대상의 연관 관계를 설명하며, 세 가지 관계가 있을 수 있음을 나타내며, 예를 들어, A 및/또는 B는 A 단독 존재, A 및 B가 동시에 존재, B 단독 존재 이 세가지 상황을 나타낼 수 있다. 문자 부호 "/"는 일반적으로 전후의 연관된 대상이 "또는" 관계인 것을 나타낸다.
연구 결과에 따르면, 지능형 창고 시스템에서, 각 선반 사이에서 이동하는 로봇의 안전성과 컨테이너 픽업의 정확성을 보장하기 위해, 각 컨테이너에 대응되는 지면 위치에서 QR 코드를 배치해야 하고, 로봇은 지면의 QR코드 정보를 식별하여 위치 정보를 획득하고, 나아가 획득된 위치 정보에 따라 각 선반 사이에서 자유로운 이동을 구현한다. 그러나, 컨테이너가 밀집하게 배치된 경우, 배치해야 하는 QR 코드의 수량이 증가되고, QR 코드 사이의 간격이 작아져, 로봇 식별의 어려움이 증가되고, 식별 오류의 가능성과 QR 코드의 배치 및 유지 관리 비용이 증가되고, 복수의 로봇이 선반 사이에서 이동하는 경우, QR 코드 정보를 식별하기 위해 대기열이 형성할 수 있으므로, 화물 운송의 효율과 적시성이 낮다.
상기 연구에 기초하여, 본 발명은 로봇 및 위치 결정 방법을 제공하되, 식별 컴포넌트를 통해 양측의 위치 결정 참조물에 대응되는 거리 정보를 획득하고, 나아가 위치 결정된 제1 위치 정보에 따라 중심 위치 정보를 결정하고, 결정된 중심 위치 정보를 기반으로 이동 제어 파라미터를 결정함으로써 중심 위치에서 이동하도록 로봇을 제어하는 위치 결정 방법을 구현하고, QR 코드의 배치 및 유지 관리 비용을 절약하고, 또한 복수의 로봇이 선반 사이에서 이동하는 경우, 각 로봇은 이동 정보를 획득할 때 서로 방해하지 않고, 화물 운송의 효율 및 적시성을 향상시킨다.
상기 기존 기술에 존재하는 결함에 있어서, 모두 발명자가 실천과 신중한 연구를 통해 얻은 결과이므로, 상기의 문제점을 발견하는 과정과 이하에서 상기의 문제점을 해결하기 위해 제출된 기술적 수단은 모두 발명자가 본 발명에 대한 기여로 간주해야 한다.
주목해야 할 점은, 유사한 번호와 자모는 아래 도면에서 유사한 항목을 나타내므로, 한 도면에서 특정 항목이 정의되면 후속 도면에서 더 이상 정의하고 설명할 필요가 없다.
본 발명의 실시예를 용이하게 이해하기 위해, 먼저 본 발명의 실시예에서 제공되는 로봇의 응용 장명에 대해 설명한다. 본 발명의 실시예에서 제공되는 로봇은 도 1에 도시된 창고 시스템에 적용될 수 있다. 당해 창고 시스템은 제어 서버(120), 로봇(100) 및 창고 공간(130)을 포함한다. 여기서, 로봇은 하나로 설치될 수 있고, 복수로 설치될 수도 있으며, 구체적인 설치 수량은 전달할 화물의 수량에 따라 결정되고, 창고 공간에서 전달할 화물을 운반하는데 사용되고, 창고 영역(130)의 선반을 운반하는 선반 로봇일 수 있고, 또한, 선반에서 화물을 꺼내고 저장하는 저장 용기(예를 들어 화물함 등)를 운반하는 화물함 로봇일 수도 있다. 일부 실시예에서, 창고 영역(130)에 복수의 선반(1301)(당해 선반(1301)은 재고 물품을 보관하고, 선반(1301)은 일반 선반일 수 있고, 팔레트 선반일 수도 있음)이 설치되어 있고, 선반(1301)에 재고 물품이 배치되어 있고, 주문 작업에 응답하여, 당해 물품은 주문 용기로 피킹될 수 있고, 하나의 주문 용기는 적어도 하나의 주문과 연관될 수 있다. 보통, 창고 영역(130)의 일측에 복수의 워크스테이션이 설치된다. 화물 피킹 장면에서 워크스테이션은 피킹 스테이션이라고도 할 수 있고; 화물 보충 장면에서 워크스테이션은 보충 스테이션이라고도 할 수 있다. 일 가능한 구현 형태에서, 피킹 스테이션과 보충 스테이션은 재활용될 수 있다.
제어 서버(120)는 데이터 저장, 정보 처리 능력을 갖춘 서버에서 실행되는 소프트웨어 시스템으로서, 다양한 로봇, 하드웨어 입력 시스템 및 기타 소프트웨어 시스템에 무선 또는 유선으로 연결될 수 있다. 제어 서버(120)는 하나 이상의 서버를 포함할 수 있으며, 집중 제어 아키텍처 또는 분산 컴퓨팅 아키텍처일 수 있다. 제어 서버(120)는 제어 프로세서(121) 및 메모리(122)를 구비하며, 메모리(122)에는 주문 풀(123)이 구비될 수 있다.
설명해야 하는 바로는, 제어 서버(120)가 로봇(100)과 무선 통신하므로, 스태프는 조작콘솔(160)을 통해 제어 서버(120)를 작동시킬 수 있고, 로봇(100)은 제어 서버(120)의 제어에 따라 선반으로 구성된 선반 어레이의 빈 공간을 따라 주행하고, 해당 작업을 수행할 수 있다.
전술한 창고 시스템에 따르면, 본 발명의 실시예는 또한 상기 창고 시스템에 적용되는 로봇을 제공하되, 도 2a에 도시된 바와 같이, 도 2는 본 발명의 실시예에서 제공되는 로봇의 개략적인 구조도이며, 로봇 프로세서(21), 식별 컴포넌트(22) 및 위치 결정 컴포넌트(23)를 포함한다.
식별 컴포넌트(22)는 로봇의 이동 과정에서 양측의 위치 결정 참조물을 검출한 경우, 식별 컴포넌트와 각 측의 위치 결정 참조물의 거리 정보를 각각 획득하고, 상기 로봇 프로세서(21)에 송신한다.
구체적으로 실시할 때, 제어 서버가 업스트림 시스템의 화물 운반 요청을 수신한 경우, 제어 서버는 화물 운반 요청에 포함된 선반 위치 및 컨테이너 위치 정보에 따라 컨테이너 운반 조작을 수행하는 로봇을 결정하고, 로봇에 제어 명령을 송신한다. 나아가, 로봇 프로세서(21)는 수신된 제어 명령에 따라 로봇이 창고 시스템의 선반 사이에서 이동하도록 제어하고, 로봇이 선반 사이에서 이동하는 과정에서, 로봇에 장착된 식별 컴포넌트(22)에 의해 양측의 위치 결정 참조물을 검출하고, 식별 컴포넌트(22)에 의해 양측의 위치 결정 참조물을 검출한 경우, 식별된 각 측의 위치 결정 참조물과의 거리 정보를 획득하고, 로봇 프로세서(21)에 송신할 수 있다.
위치 결정 컴포넌트(23)는 식별 컴포넌트(22)에 의해 위치 결정 참조물을 검출한 경우, 제1 위치 정보를 획득하고 로봇 프로세서(21)에 송신한다.
일 실시 형태에서, 로봇에 장착된 식별 컴포넌트(22)에 의해 양측의 위치 결정 참조물을 검출한 경우, 로봇에 장착된 위치 결정 컴포넌트(23)는 현재 위치하는 제1 위치를 결정하고, 위치 결정을 통해 획득한 제1 위치를 포함한 제1 위치 정보를 로봇 프로세서(21)에 송신한다. 설명해야 하는 바로는, 제1 위치 정보는 로봇 중심의 위치 정보일 수 있다. 다른 실시 형태에서, 로봇에 장착된 위치 결정 컴포넌트(23)는 로봇의 이동 과정에서 항상 자신의 위치를 결정하고, 획득된 위치 정보를 로봇 프로세서(21)에 송신한다. 식별 컴포넌트(22)에 의해 양측의 위치 결정 참조물을 검출한 경우, 로봇 프로세서(21)는 가장 최근에 수신된 위치 정보를 제1 위치 정보로 업데이트한다.
로봇 프로세서(21)는 수신된 각 측의 위치 결정 참조물과의 거리 정보 및 제1 위치 정보에 따라 양측의 위치 결정 참조물의 중심 위치 정보를 결정하고; 중심 위치 정보 및 제1 위치 정보에 따라 이동 제어 파라미터를 결정하며; 이동 제어 파라미터를 기반으로 로봇을 제어하여 중심 위치 정보에 따라 이동하도록 한다.
구체적으로 실시할 때, 로봇 프로세서(21)는 수신된 식별 컴포넌트(22)로부터 송신된 각 측의 위치 결정 참조물과의 거리 정보 및 위치 결정 컴포넌트(23)로부터 송신된 제1 위치 정보에 따라 양측의 위치 결정 참조물의 중심 위치 정보를 결정할 수 있다. 설명해야 하는 바로는, 식별 컴포넌트(22)의 상이한 설정 유형에 따라, 중심 위치 정보를 결정하는 과정도 다르다.
일 실시 형태에서, 식별 컴포넌트(22)는 레이저 컴포넌트를 포함하고, 레이저 컴포넌트는 미리 설정된 각도 정보에 따라 양측으로 탐측 레이저를 발사한다.
로봇 프로세서(21)는 구체적으로 거리 정보, 미리 설정된 각도 정보 및 제1 위치 정보에 따라 각 측의 위치 결정 참조물에 대응되는 참조 위치 정보를 결정하고; 각 측의 위치 결정 참조물에 대응되는 참조 위치 정보에 따라, 양측의 위치 결정 참조물의 중심 위치 정보를 결정한다.
도 2b에 도시된 바와 같이, 도 2b는 본 발명의 실시예에서 제공되는 식별 컴포넌트가 레이저 컴포넌트인 식별 개략도이다. 예를 들어, 레이저 컴포넌트는 로봇의 선단에 고정되고, 로봇의 중심 위치와 고정 거리를 구비할 수 있다. 또한, 레이저 컴포넌트가 미리 설정된 각도 정보에 따라 양측으로 탐측 레이저를 발사할 수 있도록 확보하기 위해, 장착 과정에서 일정한 각도를 설정한다. 여기서, 미리 설정된 각도 정보는 제1 각도 정보 및 제2 각도 정보를 포함할 수 있으며, 구체적으로 실시할 때, 점 A는 레이저 컴포넌트의 위치이고, 점 B 및 점 E는 양측의 위치 결정 참조물의 위치이고, 점 D는 로봇의 중심 위치이다.
레이저 컴포넌트가 탐측 레이저를 발사하는 각도 정보 및 레이저 컴포넌트와 로봇 중심 사이의 거리 정보는 로봇의 장착 파라미터로서 메모리에 저장될 수 있다. 이리하여, 로봇 프로세서(21)는 필요할 때 메모리로부터 탐측 레이저의 각도 정보 및 레이저 컴포넌트와 로봇 중심 사이의 거리 정보를 판독할 수 있다.
로봇의 이동 과정에서, 레이저 컴포넌트는 미리 설정된 각도 정보에 따라 양측으로 탐측 레이저를 발사함으로써, 양측의 위치 결정 참조물을 식별하고, 양측의 위치 결정 참조물을 식별한 경우, 로봇 프로세서는 메모리에 저장된 레이저 컴포넌트와 로봇 중심의 거리 정보 및 레이저 컴포넌트가 발사한 탐측 레이저의 각도 정보를 포함하는 장착 파라미터를 획득한다. 여기서, 당해 각도 정보는 제1 각도 정보 및 제2 각도 정보를 포함하고, 레이저 컴포넌트가 발사한 탐측 레이저에서 제1 위치 결정 참조물(B 점)까지의 제1 거리 정보(AB)를 획득한다. 로봇 프로세서가 위치 결정 컴포넌트로부터 수신된 제1 위치 정보 즉 로봇의 중심 위치 정보를 원점으로 하고, 로봇의 헤드가 주행하는 방향을 Y축의 정방향으로 하여, 평면 좌표계를 구축한다. 평면 좌표계에서, 레이저 컴포넌트와 로봇의 중심 위치의 거리 정보 및 로봇 중심의 위치에 따라, 레이저 컴포넌트의 좌표 위치를 결정할 수 있으며, 즉 레이저 컴포넌트의 위치 정보를 결정한다. 나아가, 제1 거리 정보(AB) 및 제1 각도 정보(∠BAC)를 기반으로 제1 위치 결정 참조물(B 점)의 제2 위치 정보를 결정할 수 있다. 또한, 레이저 컴포넌트가 제2 각도 정보에 따라 발사한 탐측 레이저가 제2 위치 결정 참조물을 식별한 경우, 제2 각도 정보 및 제2 위치 결정 참조물(E 점)까지의 제2 거리 정보(AE)를 기록하고, 구축된 평면 좌표계에서, 제2 거리 정보(AE) 및 제2 각도 정보(∠EAF)를 기반으로 제2 위치 결정 참조물(E 점)의 제3 위치 정보를 결정할 수 있다.
나아가, 로봇 프로세서는 X축에서의 제2 위치 정보 및 제3 위치 정보의 좌표에 따라, 제1 위치 결정 참조물과 제2 위치 결정 참조물의 중심 위치 정보를 결정할 수 있다. 이를 기반으로, 로봇 프로세서는 결정된 중심 위치 정보의 좌표 및 수신된 제1 위치 정보의 좌표에 따라 2개의 위치 사이의 편차 거리 및 편차 각도를 결정하고, 결정된 편차 거리 및 편차 각도에 따라 로봇의 이동 제어 파라미터를 결정한다. 예를 들어, 이동 제어 파라미터는 이동 방향 및 이동 거리를 포함한다.
구체적으로 실시할 때, 로봇 프로세서는 제1 위치 정보의 가로 좌표와 결정된 중심 위치 정보의 가로 좌표 사이의 차이에 따라, 가로 좌표에서의 로봇의 이동 방향을 결정하고; 제1 위치 정보의 가로 좌표와 결정된 중심 위치 정보의 가로 좌표 사이의 차이의 절대값에 따라 X축에서의 로봇의 이동 거리를 결정한다.
X축에서의 로봇의 이동 방향을 결정함에 대해, 일 실시 형태에서, 로봇의 Y축 정방향이 시계 방향을 따라 90도 회전하는 방향을 X축의 정방향으로 하며, 로봇 프로세서가 제1 위치 정보의 가로 좌표에서 결정된 중심 위치 정보의 가로 좌표를 뺀 후 결정된 차이가 음수 값일 경우, X축에서의 로봇의 이동 방향은 우측으로 이동함으로 결정되고, 반대로, 결정된 차이가 양수 값일 경우, X축에서의 로봇의 이동 방향은 좌측으로 이동함으로 결정된다. 로봇 프로세서가 결정된 중심 위치 정보의 가로 좌표에서 제1 위치 정보의 가로 좌표를 뺀 후 결정된 차이가 양수 값일 경우, X축에서의 로봇의 이동 방향은 우측으로 이동함으로 결정되고, 반대로, 결정된 차이가 음수 값일 경우, X축에서의 로봇의 이동 방향은 좌측으로 이동함으로 결정된다.
다른 실시 형태에서, 로봇의 Y축 정방향이 시계 반대 방향을 따라 90도 회전하는 방향을 X축의 정방향으로 하며, 로봇 프로세서가 제1 위치 정보의 가로 좌표에서 결정된 중심 위치 정보의 가로 좌표를 뺀 후 결정된 차이가 음수 값일 경우, X축에서의 로봇의 이동 방향은 좌측으로 이동함으로 결정되고, 반대로, 결정된 차이가 양수 값일 경우, X축에서의 로봇의 이동 방향은 우측으로 이동함으로 결정된다. 로봇 프로세서가 결정된 중심 위치 정보의 가로 좌표에서 제1 위치 정보의 가로 좌표를 뺀 후 결정된 차이가 양수 값일 경우, X축에서의 로봇의 이동 방향은 좌측으로 이동함으로 결정되고, 반대로, 결정된 차이가 음수 값일 경우, X축에서의 로봇의 이동 방향은 우측으로 이동함으로 결정된다. 전술한 X축의 정방향에 관한 설정 방식은 본 발명의 실시예에서 한정하지 않는다.
나아가, 로봇 프로세서는 제1 위치 정보의 세로 좌표와 중심 위치 정보의 세로 좌표 사이의 차이에 따라, 세로 좌표에서의 로봇의 이동 거리 및 이동 방향을 결정한다. 설명해야 하는 바로는, 제1 위치 정보의 세로 좌표와 결정된 중심 위치 정보의 세로 좌표 사이의 차이의 절대값에 따라, Y축에서의 로봇의 이동 거리를 결정한다. Y축에서의 로봇의 이동 방향을 결정함에 대해, 레이저 컴포넌트가 로봇의 선단에 장착되어 있기 때문에, 세로 좌표에서의 로봇의 이동 방향은 Y축의 정방향을 따라 이동하는 것이다.
로봇 프로세서는 상기 결정된 X축 및 Y축에서의 로봇의 이동 거리와 이동 방향에 따라 로봇을 제어하여 중심 위치 정보에 따라 이동하도록 한다. 구체적으로 실시할 때, 로봇 프로세서는 결정된 X축에서의 이동 방향에 따라 로봇이 X축에서 회전하도록 제어하고, X축에서 회전을 완료한 후, 결정된 X축에서의 이동 거리에 따라 X축에서 이동하고, 이동 거리에 도달한 후, 로봇은 Y축의 정방향으로 회전하고, 결정된 Y축에서의 이동 거리에 따라 이동하고, 결정된 중심 위치까지 이동한다. 또한, 결정된 Y축에서의 이동 거리에 따라 로봇이 Y축에서 정방향으로 이동하도록 제어하고, 이동 거리에 도달한 후, 결정된 X축에서의 이동 방향에 따라 로봇이 X축에서 회전하도록 제어하고, X축에서 회전을 완료한 후, 결정된 X축에서의 이동 거리에 따라 X축에서 이동하고, 결정된 중심 위치까지 이동한다. 다른 실시 형태에서, 로봇 프로세서는 또한 결정된 X축에서의 이동 방향과 이동 거리 및 Y축에서의 이동 거리와 이동 방향에 따라 이동 과정에서 로봇의 회전 각도 및 이동 거리를 결정할 수 있고, 로봇의 이동 속도를 제어하여, 결정된 중심 위치로 이동하는 것을 구현한다. 설명해야 하는 바로는, 로봇은 하나의 중심 위치를 결정한 후, 같은 방법에 따라 양측의 위치 결정 참조물의 복수의 중심 위치를 결정할 수 있고, 나아가 양측의 위치 결정 참조물의 중심선을 형성할 수 있다. 로봇 프로세서는 로봇이 중심선을 따라 이동하도록 제어함으로써, 로봇이 양측의 위치 결정 참조물의 중심에서 이동할 수 있도록 확보한다.
일 실시 형태에서, 식별 컴포넌트는 또한 양안 촬영 컴포넌트를 포함하고, 상기 양안 촬영 컴포넌트는 제1 촬영 컴포넌트 및 제2 촬영 컴포넌트를 포함하고, 또한 획득된 거리 정보는 제1 촬영 컴포넌트와 제1 위치 결정 참조물의 제3 거리 정보, 제2 촬영 컴포넌트와 제1 위치 결정 참조물의 제4 거리 정보, 제1 촬영 컴포넌트와 제2 위치 결정 참조물의 제5 거리 정보, 및 제2 촬영 컴포넌트와 제2 위치 결정 참조물의 제6 거리 정보를 포함한다.
도 2c에 도시된 바와 같이, 도 2c는 본 발명의 실시예에서 제공되는 식별 컴포넌트가 양안 촬영 컴포넌트인 식별 개략도이다. 구체적으로 실시할 때, 양안 촬영 컴포넌트는 로봇 선단의 동일한 수평선에 고정되어 있고, 고정된 제7 거리 정보(BC)를 구비한다. 여기서, 양안 촬영 컴포넌트의 제1 촬영 컴포넌트는 점 C에 위치하고, 양안 촬영 컴포넌트의 제2 촬영 컴포넌트는 점 B에 위치하며, 양안 촬영 컴포넌트의 제1 촬영 컴포넌트 및 제2 촬영 컴포넌트는 각각 로봇의 중심 위치와 일정한 각도 즉 ∠CAD 및 ∠BAG를 이룬다. 또한, 제1 촬영 컴포넌트와 로봇의 중심 위치는 고정된 제8 거리 정보(AC)를 구비하고, 제2 촬영 컴포넌트와 로봇의 중심 위치는 고정된 제9 거리 정보(AB)를 구비하며, 여기서, 제7 거리 정보, 제8 거리 정보 및 제9 거리 정보는 메모리로부터 획득된 장착 파라미터를 기반으로 결정될 수 있다. 점 A를 로봇의 중심 위치로 하고, 점 C의 위치를 제1 촬영 컴포넌트의 위치로 하고, 점 B의 위치를 제2 촬영 컴포넌트의 위치로 하고, 점 E를 식별된 제1 위치 결정 참조물의 위치로 하고, 점 F를 식별된 제2 위치 결정 참조물의 위치로 한다. 로봇의 이동 과정에서, 양안 촬영 컴포넌트는 양측으로 각각 촬영하여 양측의 위치 결정 참조물을 식별하고, 양측의 위치 결정 참조물을 식별한 경우, 로봇 프로세서는 제1 촬영 컴포넌트와 제1 위치 결정 참조물의 제3 거리 정보(EC), 제2 촬영 컴포넌트와 제1 위치 결정 참조물의 제4 거리 정보(EB), 제1 촬영 컴포넌트와 제2 위치 결정 참조물의 제5 거리 정보(FC), 제2 촬영 컴포넌트와 제2 위치 결정 참조물의 제6 거리 정보(FB)를 기록한다. 나아가, 제3 거리 정보(EC), 제4 거리 정보(EB), 제1 촬영 컴포넌트와 제2 촬영 컴포넌트 사이의 제7 거리 정보(BC)에 따라 코사인 정리를 통해 ∠ECB의 값을 결정하고, ∠ECB의 값에 따라 ∠ECH의 값을 결정할 수 있다. 제1 촬영 컴포넌트와 제2 촬영 컴포넌트 사이의 제7 거리 정보(BC), 제1 촬영 컴포넌트와 로봇 중심 사이의 제8 거리 정보(AC) 및 제2 카메라와 로봇 중심 사이의 제9 거리 정보(AB)에 따라 ∠ACB의 값을 결정할 수 있고, ∠ACB의 값에 따라 ∠ACH의 값을 결정하고, ∠ACH의 값 및 ∠ECH의 값에 따라 ∠ACE의 값을 결정할 수 있으며, ∠ACE의 값, 거리 정보(AC)의 값 및 제3 거리 정보(EC)를 기반으로 제10 거리 정보(AE)의 값을 결정할 수 있다. 나아가, ∠CAE의 값을 결정할 수 있고, ∠CAD의 값에 따라 제3 각도 정보 ∠EAD의 값을 결정할 수 있으며, 다음 구축된 평면 좌표계에 따라 제1 위치 결정 참조물의 제4 위치 정보를 결정할 수 있다. 구체적으로 실시할 때, 로봇의 중심 점 A를 원점으로 하고, 로봇 헤드의 주행 방향을 Y축의 정방향으로 하여 평면 좌표계를 구축하고, 상기 단계를 통해 제1 위치 결정 참조물의 제4 좌표 위치를 결정할 수 있고, 또한, 로봇 프로세서는 제5 거리 정보(FC), 제6 거리 정보(FB), 제1 촬영 컴포넌트와 제2 촬영 컴포넌트 사이의 제7 거리 정보(BC)에 따라, 코사인 정리를 통해 ∠FBC의 값을 결정할 수 있고, ∠FBC의 값에 따라 ∠FBI의 값을 결정할 수 있고, 나아가, 제1 촬영 컴포넌트와 제2 촬영 컴포넌트 사이의 제7 거리 정보(BC), 제1 촬영 컴포넌트와 로봇 중심 사이의 제8 거리 정보(AC) 및 제2 촬영 컴포넌트와 로봇 중심 사이의 제9 거리 정보(AB)에 따라, ∠ABC의 값을 결정하고, ∠ABC의 값에 따라 ∠ABI의 값을 결정할 수 있고, 나아가 ∠ABI 및 ∠FBI의 값에 따라 ∠ABF의 값을 결정하고, ∠ABF의 값, 거리 정보(AB) 및 제6 거리 정보(FB)에 따라 제11 거리 정보 AF의 값을 결정할 수 있고, 나아가 ∠BAI의 값을 결정할 수 있고, ∠BAG 및 ∠BAI의 값에 따라 제4 각도 정보 ∠FAG의 값을 결정할 수 있다. 나아가, 구축된 평면 좌표계에 따라 제2 위치 결정 참조물의 제5 위치 정보 및 그에 대응되는 제5 좌표 위치를 결정할 수 있고, 결정된 제4 위치 정보 및 제5 위치 정보에 따라 제1 위치 결정 참조물과 제2 위치 결정 참조물의 중심 위치 정보를 결정한다.
상기 방법에 따라 제1 위치 결정 참조물과 제2 위치 결정 참조물의 중심 위치를 결정한 후, 로봇의 수행 단계는 상기 식별 컴포넌트가 레이저 컴포넌트인 경우의 수행 단계와 같으므로, 본 발명의 실시예에서 더는 설명하지 않는다.
본 발명의 실시예는 미리 설정된 식별 컴포넌트를 통해 운동 경로에서 양측의 위치 결정 참조물의 위치를 식별하고, 식별된 위치 결정 참조물의 위치 및 획득된 현재 위치하는 제1 위치 정보에 따라 식별된 양측의 위치 결정 참조물의 좌표 위치를 결정하고, 획득된 좌표 위치에 따라 양측의 위치 결정 참조물의 중심 위치를 결정하고, 결정된 현재 위치와 중심 위치의 편차 정보를 결정하며, 편차 정보에 따라 이동 제어 파라미터를 결정하고, 이동 제어 파라미터를 기반으로 로봇의 이동을 제어하는 방법을 제공하였다. 로봇이 양측의 위치 결정 참조물의 중심 위치를 따라 이동하는 것을 구현할 수 있고, QR 코드의 배치 및 유지 관리 비용을 절약하고, 로봇의 유연성 및 적응성을 향상시킨다.
이하, 수행 주체가 로봇인 예를 들어, 본 발명의 실시예에서 제공되는 위치 결정 방법에 대해 설명한다.
도 3a에 도시된 바와 같이, 도 3a는 본 발명의 실시예에서 제공되는 위치 결정 방법의 흐름도이며, 단계 S301 내지 단계 S305를 포함할 수 있다.
S301, 이동 과정에서 식별 컴포넌트를 통해 양측의 위치 결정 참조물을 식별하여, 각 측의 위치 결정 참조물과의 거리 정보를 각각 획득한다.
본 단계에서, 제어 서버는 업스트림 시스템으로부터 화물 운반 요청을 수신하고, 화물 운반 요청에 따라 제어 명령을 생성하여 로봇으로 송신하고, 로봇은 수신된 제어 명령에 응답하여 창고 시스템에서 이동을 시작하고, 이동 과정에서 로봇에 장착된 식별 컴포넌트가 양측의 위치 결정 참조물에 대한 식별을 시작하고, 양측의 위치 결정 참조물을 식별한 경우, 식별 컴포넌트와 각 측의 위치 결정 참조물의 거리 정보를 기록한다.
S302, 위치 결정 참조물을 식별한 경우, 제1 위치 정보를 획득한다.
본 단계에서, 로봇이 식별 컴포넌트가 위치 결정 참조물을 식별한 것을 검출한 경우, 현재 위치하는 제1 위치 정보를 획득한다.
S303, 각 측의 위치 결정 참조물과의 거리 정보 및 제1 위치 정보에 따라 양측의 위치 결정 참조물의 중심 위치 정보를 결정한다.
본 단계에서, 로봇은 획득된 각 측의 위치 결정 참조물과의 거리 정보 및 제1 위치 정보에 따라 각 측의 위치 결정 참조물에 대응되는 참조 위치 정보를 결정하고, 나아가 결정된 양측의 위치 결정 참조물에 대응되는 참조 위치 정보에 따라 그에 대응되는 중심 위치 정보를 결정한다.
일 실시 형태에서, 식별 컴포넌트는 레이저 컴포넌트를 포함하고, 레이저 컴포넌트는 미리 설정된 각도 정보에 따라 양측으로 탐측 레이저를 발사하고, 발사한 탐측 레이저에 의해 양측의 위치 결정 참조물을 식별한다. 구체적으로 실시할 때, 거리 정보는 레이저 컴포넌트와 제1 위치 결정 참조물 사이의 제1 거리 정보 및 레이저 컴포넌트와 제2 위치 결정 참조물 사이의 제2 거리 정보를 포함하고, 미리 설정된 각도 정보는 제1 위치 결정 참조물을 식별하는 제1 각도 정보 및 제2 위치 결정 참조물을 식별하는 제2 각도 정보를 포함하고, 참조 위치 정보는 제1 위치 결정 참조물의 제2 위치 정보 및 제2 위치 결정 참조물의 제3 위치 정보를 포함한다.
레이저 컴포넌트가 탐측 레이저를 발사하는 각도 정보 및 레이저 컴포넌트와 로봇 중심 사이의 거리 정보는 로봇의 장착 파라미터로서 메모리에 저장될 수 있다. 이리하여, 로봇 프로세서(21)는 필요할 때 메모리로부터 탐측 레이저의 각도 정보 및 레이저 컴포넌트와 로봇 중심 사이의 거리 정보를 판독할 수 있다.
구체적으로 실시할 때, 레이저 컴포넌트는 제1 각도 정보에 따라 제1 위치 결정 참조물 쪽으로 탐측 레이저를 발사하고, 또한 제2 각도 정보에 따라 제2 위치 결정 참조물 쪽으로 탐측 레이저를 발사한다. 레이저 컴포넌트가 양측의 위치 결정 참조물을 식별한 후, 로봇 프로세서는 메모리에 저장된 레이저 컴포넌트와 로봇 중심의 거리 정보 및 레이저 컴포넌트가 발사한 탐측 레이저의 각도 정보를 포함하는 장착 파라미터를 획득하며, 여기서, 당해 각도 정보는 제1 각도 정보 및 제2 각도 정보를 포함하고, 제1 각도 정보 및 제1 위치 결정 참조물을 식별하였을 때의 제1 거리 정보, 그리고 제2 각도 정보 및 제2 위치 결정 참조물을 식별하였을 때의 제2 거리 정보를 기반으로, 다음과 같은 단계를 통해 양측의 위치 결정 참조물의 중심 위치 정보를 결정할 수 있다. 도 3b에 도시된 바와 같이, 도 3b는 본 발명의 실시예에서 제공되는 레이저 컴포넌트를 통해 양측의 위치 결정 참조물의 중심 위치 정보를 결정하는 흐름도이며, 단계 S311 내지 단계 S313을 포함할 수 있다.
S311, 제1 거리 정보, 제1 각도 정보 및 레이저 컴포넌트와 로봇 중심 사이의 거리 정보에 따라 제1 위치 결정 참조물의 제2 위치 정보를 결정한다.
구체적으로 실시할 때, 레이저 컴포넌트에 의해 식별된 제1 위치 결정 참조물과의 제1 거리 정보 및 제1 각도 정보, 그리고 메모리로부터 획득된 레이저 컴포넌트와 로봇 중심의 거리 정보를 포함하는 장착 파라미터에 따라, 제1 위치 결정 참조물의 제2 위치 정보를 결정할 수 있다.
S312, 제2 거리 정보, 제2 각도 정보 및 레이저 컴포넌트와 로봇 중심 사이의 거리 정보에 따라 제2 위치 결정 참조물의 제3 위치 정보를 결정한다.
구체적으로 실시할 때, 레이저 컴포넌트에 의해 식별된 제2 위치 결정 참조물과의 제2 거리 정보 및 미리 설정된 제2 각도 정보, 그리고 메모리로부터 획득된 레이저 컴포넌트와 로봇 중심의 거리 정보를 포함하는 장착 파라미터에 따라, 제2 위치 결정 참조물의 제3 위치 정보를 결정할 수 있다.
S313, 제2 위치 정보 및 제3 위치 정보에 따라, 제1 위치 결정 참조물과 제2 위치 결정 참조물의 중심 위치 정보를 결정한다.
다른 실시 형태에서, 식별 컴포넌트는 양안 촬영 컴포넌트를 포함하고, 상기 양안 촬영 컴포넌트는 제1 촬영 컴포넌트 및 제2 촬영 컴포넌트를 포함하고, 또한 거리 정보는 제1 촬영 컴포넌트와 제1 위치 결정 참조물의 제3 거리 정보, 제2 촬영 컴포넌트와 제1 위치 결정 참조물의 제4 거리 정보, 제1 촬영 컴포넌트와 제2 위치 결정 참조물의 제5 거리 정보, 제2 촬영 컴포넌트와 제2 위치 결정 참조물의 제6 거리 정보, 제1 촬영 컴포넌트와 제2 촬영 컴포넌트 사이의 제7 거리 정보, 제1 촬영 컴포넌트와 로봇 중심 사이의 제8 거리 정보 및 제2 촬영 컴포넌트와 로봇 중심 사이의 제9 거리 정보를 포함한다. 여기서, 제1 위치 정보에 대응되는 제1 위치가 로봇의 중심 위치이다. 나아가, 다음과 같은 단계를 통해 양측의 위치 결정 참조물의 중심 위치 정보를 결정할 수 있다. 도 3c에 도시된 바와 같이, 도 3c는 본 발명의 실시예에서 제공되는 양안 촬영 컴포넌트를 통해 양측의 위치 결정 참조물의 중심 위치 정보를 결정하는 흐름도이며, 단계 S321 내지 단계 S325를 포함할 수 있다.
S321, 제3 거리 정보, 제4 거리 정보, 제7 거리 정보, 제8 거리 정보 및 제9 거리 정보에 따라 제10 거리 정보 및 제3 각도 정보를 결정한다.
여기서, 제7 거리 정보, 제8 거리 정보 및 제9 거리 정보는 메모리로부터 획득된 장착 파라미터를 기반으로 결정될 수 있고, 제10 거리 정보는 도 2c에 도시된 AE의 값이고, 제3 각도 정보는 도 2c에 도시된 ∠EAD의 값이다.
S322, 제10 거리 정보 및 제3 각도 정보에 따라 제1 위치 결정 참조물에 대응되는 제4 위치 정보를 결정한다.
S323, 제5 거리 정보, 제6 거리 정보, 제7 거리 정보, 제8 거리 정보 및 제9 거리 정보에 따라 제11 거리 정보 및 제4 각도 정보를 결정한다.
본 단계에서, 제11 거리 정보는 도 2c에 도시된 AF의 값이고, 제4 각도 정보는 도 2c에 도시된 ∠FAG의 값이다.
S324, 제11 거리 정보 및 제4 각도 정보에 따라 제2 위치 결정 참조물에 대응되는 제5 위치 정보를 결정한다.
S325, 제4 위치 정보 및 제5 위치 정보에 따라 제1 위치 결정 참조물과 제2 위치 결정 참조물의 중심 위치 정보를 결정한다.
상기 단계를 통해, 식별 컴포넌트가 양안 촬영 컴포넌트인 경우, 제1 위치 결정 참조물과 제2 위치 결정 참조물의 중심 위치 정보를 결정할 수 있다.
S304, 중심 위치 정보 및 제1 위치 정보에 따라 이동 제어 파라미터를 결정한다.
본 단계에서, 로봇은 결정된 중심 위치 정보 및 제1 위치 정보에 따라 2개의 위치의 편차 정보를 결정하고, 편차 정보에 따라 로봇의 이동 제어 파라미터를 결정한다.
구체적으로 실시할 때, 위치 결정 파라미터는 이동 방향 및 이동 거리를 포함할 수 있고, 로봇은 제1 위치 정보의 가로 좌표와 중심 위치 정보의 가로 좌표 사이의 차이에 따라, 가로 좌표에서의 로봇의 이동 거리 및 이동 방향을 결정하고; 제1 위치 정보의 세로 좌표와 중심 위치 정보의 세로 좌표 사이의 차이에 따라, 세로 좌표에서의 로봇의 이동 거리 및 이동 방향을 결정한다.
S305, 이동 제어 파라미터를 기반으로, 로봇을 제어하여 중심 위치 정보에 따라 이동하도록 한다.
본 단계에서, 로봇은 결정된 이동 제어 파라미터를 기반으로 중심 위치로 이동하도록 제어하여, 최종적으로 양측의 위치 결정 참조물의 중심선을 따라 이동하는 것을 구현한다.
본 분야의 기술자라면, 상기 구체적인 실시 형태에 따른 위치 결정 방법에서, 각 단계의 순서는 엄격한 수행 순서를 의미하는 것이 아니고, 실시 과정에 대해 그 어떠한 한정도 구성되지 않으며, 각 단계의 구체적인 수행 순서는 그 기능 및 가능한 내부 로직에 의해 결정되는 것을 이해할 수 있다.
마지막으로 설명해야 하는 점은, 상기 실시예들은 본 발명의 구체적인 실시 형태일 뿐, 본 발명의 기술적 수단을 설명하는데 사용되고, 본 발명에 대한 한정이 구성되지 않고, 본 발명의 보호 범위는 이에 한정되지 않는다. 전술한 실시예들을 참조하여 본 발명에 대해 상세히 설명하였지만, 본 분야의 보통의 기술자라면, 본 기술 분야의 능숙한 기술자는 본 발명에서 개시된 기술 범위 내에서, 전술한 실시예에 기재된 기술적 수단에 대해 여전히 수정하거나 쉽게 변경하고, 또는 등가물로 일부 기술적 특징을 대체할 수 있고; 이러한 수정, 변경 또는 대체로 인해 해당 기술적 수단의 본질이 본 발명의 실시예의 기술적 수단의 사상 및 범위에서 벗어나지 않고, 본 발명의 보호범위 내에 포함되는 것을 이해해야 한다. 따라서, 본 발명의 보호범위는 첨부된 청구범위에 따라 한정된다.

Claims (11)

  1. 로봇에 있어서,
    로봇 프로세서, 식별 컴포넌트 및 위치 결정 컴포넌트를 포함하고,
    상기 식별 컴포넌트는 로봇의 이동 과정에서 양측의 위치 결정 참조물을 검출한 경우, 상기 식별 컴포넌트와 각 측의 위치 결정 참조물의 거리 정보를 각각 획득하여 상기 로봇 프로세서로 송신하도록 구성되고;
    상기 위치 결정 컴포넌트는 상기 식별 컴포넌트가 상기 위치 결정 참조물을 식별한 경우, 상기 로봇의 현재 위치에 대응되는 제1 위치 정보를 획득하여 상기 로봇 프로세서로 송신하도록 구성되고;
    상기 로봇 프로세서는 수신된 각 측의 위치 결정 참조물과의 거리 정보 및 상기 제1 위치 정보에 따라 양측의 위치 결정 참조물 사이의 중심 위치 정보를 결정하고; 상기 중심 위치 정보 및 상기 제1 위치 정보에 따라 이동 제어 파라미터를 결정하고; 상기 이동 제어 파라미터를 기반으로 상기 로봇을 제어하여 양측의 위치 결정 참조물 사이의 중심 위치를 따라 이동하도록 구성되는,
    것을 특징으로 하는 로봇.
  2. 제1항에 있어서,
    상기 식별 컴포넌트는 레이저 컴포넌트를 포함하고, 상기 레이저 컴포넌트는 미리 설정된 각도 정보에 따라 양측으로 탐측 레이저를 발사하며;
    상기 로봇 프로세서는, 상기 거리 정보, 상기 미리 설정된 각도 정보 및 상기 제1 위치 정보에 따라 각 측의 위치 결정 참조물에 대응되는 참조 위치 정보를 결정하고; 각 측의 위치 결정 참조물에 대응되는 참조 위치 정보에 따라, 양측의 위치 결정 참조물 사이의 중심 위치 정보를 결정하도록 구성되는,
    것을 특징으로 하는 로봇.
  3. 제2항에 있어서,
    상기 거리 정보는 상기 레이저 컴포넌트와 제1 위치 결정 참조물 사이의 제1 거리 정보, 및 상기 레이저 컴포넌트와 제2 위치 결정 참조물 사이의 제2 거리 정보를 포함하고, 상기 미리 설정된 각도 정보는 제1 위치 결정 참조물을 식별하는 제1 각도 정보 및 제2 위치 결정 참조물을 식별하는 제2 각도 정보를 포함하고, 상기 참조 위치 정보는 제1 위치 결정 참조물의 제2 위치 정보 및 제2 위치 결정 참조물의 제3 위치 정보를 포함하며;
    상기 로봇 프로세서는, 상기 제1 거리 정보, 상기 제1 각도 정보 및 상기 레이저 컴포넌트와 로봇 중심 사이의 거리 정보에 따라, 상기 제1 위치 결정 참조물의 제2 위치 정보를 결정하고; 상기 제2 거리 정보, 상기 제2 각도 정보 및 상기 레이저 컴포넌트와 로봇 중심 사이의 거리 정보에 따라, 상기 제2 위치 결정 참조물의 제3 위치 정보를 결정하고; 상기 제2 위치 정보 및 상기 제3 위치 정보에 따라, 상기 제1 위치 결정 참조물 및 상기 제2 위치 결정 참조물의 중심 위치 정보를 결정하도록 구성되는,
    것을 특징으로 하는 로봇.
  4. 제1항에 있어서,
    상기 식별 컴포넌트는 양안 촬영 컴포넌트를 포함하고, 상기 양안 촬영 컴포넌트는 제1 촬영 컴포넌트 및 제2 촬영 컴포넌트를 포함하고; 상기 거리 정보는 제1 촬영 컴포넌트와 제1 위치 결정 참조물의 제3 거리 정보, 제2 촬영 컴포넌트와 제1 위치 결정 참조물의 제4 거리 정보, 제1 촬영 컴포넌트와 제2 위치 결정 참조물의 제5 거리 정보, 및 제2 촬영 컴포넌트와 제2 위치 결정 참조물의 제6 거리 정보를 포함하며;
    상기 로봇 프로세서는, 제3 거리 정보, 제4 거리 정보, 제1 촬영 컴포넌트와 제2 촬영 컴포넌트 사이의 제7 거리 정보, 제1 촬영 컴포넌트와 상기 로봇 중심 사이의 제8 거리 정보, 및 제2 촬영 컴포넌트와 상기 로봇 중심 사이의 제9 거리 정보에 따라, 제10 거리 정보 및 제3 각도 정보를 결정하고; 상기 제10 거리 정보 및 상기 제3 각도 정보에 따라 상기 제1 위치 결정 참조물에 대응되는 제4 위치 정보를 결정하고; 제5 거리 정보, 제6 거리 정보, 제7 거리 정보, 제8 거리 정보 및 제9 거리 정보에 따라 제11 거리 정보 및 제4 각도 정보를 결정하고, 상기 제11 거리 정보 및 상기 제4 각도 정보에 따라 상기 제2 위치 결정 참조물에 대응되는 제5 위치 정보를 결정하고; 상기 제4 위치 정보 및 상기 제5 위치 정보에 따라 양측의 위치 결정 참조물 사이의 중심 위치 정보를 결정하도록 구성되는,
    것을 특징으로 하는 로봇.
  5. 제1항에 있어서,
    상기 이동 제어 파라미터는 이동 방향 및 이동 거리를 포함하며;
    상기 로봇 프로세서는, 상기 제1 위치 정보의 가로 좌표와 상기 중심 위치 정보의 가로 좌표 사이의 차이에 따라, 가로 좌표에서의 상기 로봇의 이동 거리 및 이동 방향을 결정하고; 상기 제1 위치 정보의 세로 좌표와 상기 중심 위치 정보의 세로 좌표 사이의 차이에 따라, 세로 좌표에서의 상기 로봇의 이동 거리 및 이동 방향을 결정하도록 구성되는,
    것을 특징으로 하는 로봇.
  6. 창고 시스템에 있어서,
    제1항 내지 제5항 중 어느 한 항에 따른 로봇, 제어 서버 및 창고 공간 내에 설치된 위치 결정 참조물을 포함하고,
    상기 제어 서버는 수신된 화물 운반 요청에 응답하여, 화물 운반 요청에 포함된 선반 위치 정보 및 컨테이너 위치 정보에 따라 컨테이너 운반 조작을 수행하는 타겟 로봇을 결정하고, 타겟 로봇으로 제어 명령을 송신하도록 구성되고;
    상기 타겟 로봇은 상기 제어 명령을 수신하고, 상기 제어 명령에 응답하여, 양측의 위치 결정 참조물 사이의 중심 위치를 따라 이동하도록 구성되는,
    것을 특징으로 하는 창고 시스템.
  7. 위치 결정 방법에 있어서,
    이동 과정에서 식별 컴포넌트를 통해 양측의 위치 결정 참조물을 식별하여, 각 측의 위치 결정 참조물과의 거리 정보를 각각 획득하는 단계;
    상기 위치 결정 참조물을 식별한 경우, 제1 위치 정보를 획득하는 단계;
    상기 각 측의 위치 결정 참조물과의 거리 정보 및 상기 제1 위치 정보에 따라 양측의 위치 결정 참조물 사이의 중심 위치 정보를 결정하는 단계;
    상기 중심 위치 정보 및 상기 제1 위치 정보에 따라 이동 제어 파라미터를 결정하는 단계; 및
    상기 이동 제어 파라미터를 기반으로, 로봇을 제어하여 양측의 위치 결정 참조물 사이의 중심 위치를 따라 이동하는 단계;를 포함하는,
    것을 특징으로 하는 위치 결정 방법.
  8. 제7항에 있어서,
    상기 식별 컴포넌트는 레이저 컴포넌트를 포함하고, 상기 레이저 컴포넌트는 미리 설정된 각도 정보에 따라 양측으로 탐측 레이저를 발사하며;
    상기 각 측의 위치 결정 참조물과의 거리 정보 및 상기 제1 위치 정보에 따라 양측의 위치 결정 참조물의 중심 위치 정보를 결정하는 단계는,
    상기 거리 정보, 상기 미리 설정된 각도 정보 및 상기 제1 위치 정보에 따라 각 측의 위치 결정 참조물의 참조 위치 정보를 결정하는 단계; 및
    각 측의 위치 결정 참조물에 대응되는 참조 위치 정보에 따라, 양측의 위치 결정 참조물 사이의 중심 위치 정보를 결정하는 단계;를 포함하는,
    것을 특징으로 하는 위치 결정 방법.
  9. 제8항에 있어서,
    상기 거리 정보는 상기 레이저 컴포넌트와 제1 위치 결정 참조물 사이의 제1 거리 정보 및 상기 레이저 컴포넌트와 제2 위치 결정 참조물 사이의 제2 거리 정보를 포함하고, 상기 미리 설정된 각도 정보는 제1 위치 결정 참조물을 식별하는 제1 각도 정보 및 제2 위치 결정 참조물을 식별하는 제2 각도 정보를 포함하고, 상기 참조 위치 정보는 제1 위치 결정 참조물의 제2 위치 정보 및 제2 위치 결정 참조물의 제3 위치 정보를 포함하며;
    상기 각 측의 위치 결정 참조물과의 거리 정보 및 상기 제1 위치 정보에 따라 양측의 위치 결정 참조물의 중심 위치 정보를 결정하는 단계는,
    상기 제1 거리 정보, 상기 제1 각도 정보 및 상기 레이저 컴포넌트와 로봇 중심 사이의 거리 정보에 따라 상기 제1 위치 결정 참조물의 제2 위치 정보를 결정하는 단계;
    상기 제2 거리 정보, 상기 제2 각도 정보 및 상기 레이저 컴포넌트와 로봇 중심 사이의 거리 정보에 따라 상기 제2 위치 결정 참조물의 제3 위치 정보를 결정하는 단계; 및
    상기 제2 위치 정보 및 상기 제3 위치 정보에 따라, 상기 제1 위치 결정 참조물 및 상기 제2 위치 결정 참조물의 중심 위치 정보를 결정하는 단계;를 포함하는,
    것을 특징으로 하는 위치 결정 방법.
  10. 제7항에 있어서,
    상기 식별 컴포넌트는 양안 촬영 컴포넌트를 포함하고, 상기 양안 촬영 컴포넌트는 제1 촬영 컴포넌트 및 제2 촬영 컴포넌트를 포함하고; 상기 거리 정보는 제1 촬영 컴포넌트와 제1 위치 결정 참조물의 제3 거리 정보, 제2 촬영 컴포넌트와 제1 위치 결정 참조물의 제4 거리 정보, 제1 촬영 컴포넌트와 제2 위치 결정 참조물의 제5 거리 정보, 및 제2 촬영 컴포넌트와 제2 위치 결정 참조물의 제6 거리 정보를 포함하며;
    상기 각 측의 위치 결정 참조물과의 거리 정보 및 상기 제1 위치 정보에 따라 양측의 위치 결정 참조물의 중심 위치 정보를 결정하는 단계는,
    제3 거리 정보, 제4 거리 정보, 제1 촬영 컴포넌트와 제2 촬영 컴포넌트 사이의 제7 거리 정보, 제1 촬영 컴포넌트와 상기 로봇 중심 사이의 제8 거리 정보 및 제2 촬영 컴포넌트와 상기 로봇 중심 사이의 제9 거리 정보에 따라, 제10 거리 정보 및 제3 각도 정보를 결정하는 단계;
    상기 제10 거리 정보 및 상기 제3 각도 정보에 따라 상기 제1 위치 결정 참조물에 대응되는 제4 위치 정보를 결정하는 단계;
    제5 거리 정보, 제6 거리 정보, 제7 거리 정보, 제8 거리 정보 및 제9 거리 정보에 따라 제11 거리 정보 및 제4 각도 정보를 결정하는 단계;
    상기 제11 거리 정보 및 상기 제4 각도 정보에 따라 상기 제2 위치 결정 참조물에 대응되는 제5 위치 정보를 결정하는 단계; 및
    상기 제4 위치 정보 및 상기 제5 위치 정보에 따라 상기 제1 위치 결정 참조물 및 상기 제2 위치 결정 참조물 사이의 중심 위치 정보를 결정하는 단계;를 포함하는,
    것을 특징으로 하는 위치 결정 방법.
  11. 제7항에 있어서,
    상기 이동 제어 파라미터는 이동 방향 및 이동 거리를 포함하며;
    상기 중심 위치 정보 및 상기 제1 위치 정보에 따라 이동 제어 파라미터를 결정하는 단계는,
    상기 제1 위치 정보의 가로 좌표와 상기 중심 위치 정보의 가로 좌표 사이의 차이에 따라, 가로 좌표에서의 상기 로봇의 이동 거리 및 이동 방향을 결정하는 단계; 및
    상기 제1 위치 정보의 세로 좌표와 상기 중심 위치 정보의 세로 좌표 사이의 차이에 따라, 세로 좌표에서의 상기 로봇의 이동 거리 및 이동 방향을 결정하는 단계;를 포함하는,
    것을 특징으로 하는 위치 결정 방법.
KR1020237020603A 2020-12-16 2021-11-24 로봇 및 위치 결정 방법 KR20230109714A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202011487913.2A CN114633248B (zh) 2020-12-16 2020-12-16 一种机器人及定位方法
CN202011487913.2 2020-12-16
PCT/CN2021/132787 WO2022127541A1 (zh) 2020-12-16 2021-11-24 一种机器人及定位方法

Publications (1)

Publication Number Publication Date
KR20230109714A true KR20230109714A (ko) 2023-07-20

Family

ID=81945493

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020237020603A KR20230109714A (ko) 2020-12-16 2021-11-24 로봇 및 위치 결정 방법

Country Status (6)

Country Link
US (1) US20240017924A1 (ko)
EP (1) EP4266142A1 (ko)
JP (1) JP2023553112A (ko)
KR (1) KR20230109714A (ko)
CN (1) CN114633248B (ko)
WO (1) WO2022127541A1 (ko)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05257530A (ja) * 1992-03-12 1993-10-08 Tokimec Inc 移動ロボットの方位及び位置の較正方法並びに装置
JP2002296010A (ja) * 2001-03-29 2002-10-09 Fujitsu Ltd 画像を用いた自己位置同定方法
JP5221939B2 (ja) * 2007-11-21 2013-06-26 三菱重工業株式会社 位置特定装置および動作指示装置並びに自走式ロボット
CN102902271A (zh) * 2012-10-23 2013-01-30 上海大学 基于双目视觉的机器人目标识别与抓取系统及方法
CN107861509A (zh) * 2017-10-26 2018-03-30 广州科语机器人有限公司 一种锚点坐标校正方法及用于提高机器人定位精度的方法
CN107992054A (zh) * 2017-12-17 2018-05-04 上海物景智能科技有限公司 一种机器人的定位的方法及系统
CN110231816A (zh) * 2018-03-05 2019-09-13 中南大学 控制机器人行走的方法、装置、机器人和存储介质
CN110455272B (zh) * 2018-05-07 2023-05-12 苏州睿牛机器人技术有限公司 轨迹跟踪系统中的传感系统
CN109765901A (zh) * 2019-02-18 2019-05-17 华南理工大学 基于线激光与双目视觉的动态代价地图导航方法
CN114521836B (zh) * 2020-08-26 2023-11-28 北京石头创新科技有限公司 一种自动清洁设备

Also Published As

Publication number Publication date
JP2023553112A (ja) 2023-12-20
US20240017924A1 (en) 2024-01-18
CN114633248B (zh) 2024-04-12
WO2022127541A1 (zh) 2022-06-23
EP4266142A1 (en) 2023-10-25
CN114633248A (zh) 2022-06-17

Similar Documents

Publication Publication Date Title
US10466707B2 (en) Planning robot stopping points to avoid collisions
US20210395008A1 (en) Goods transport system and method
US10512941B2 (en) Projection instruction device, parcel sorting system, and projection instruction method
CN107671863B (zh) 基于二维码的机器人控制方法、装置及机器人
WO2021249568A1 (zh) 仓储机器人的控制方法、装置、设备及可读存储介质
US11377299B2 (en) Warehousing access system and method
US7966094B2 (en) Workpiece picking apparatus
US20230286751A1 (en) Method and device for taking out and placing goods, warehousing robot and warehousing system
US10012992B2 (en) Integrated obstacle detection and payload centering sensor system
US10860855B2 (en) Instruction projecting device, package sorting system and instruction projecting method
US10675659B2 (en) Instruction projecting device, package sorting system and instruction projecting method
JP2021003800A (ja) ロボットシステムの制御方法、非一過性のコンピュータ読取可能な記録媒体及びロボットシステムの制御装置
US10471474B2 (en) Projection indicator, cargo assortment system, and projection indicating method
CN113657565A (zh) 机器人跨楼层移动方法、装置、机器人及云端服务器
JP2023528920A (ja) 倉庫ロボットの制御方法、装置、ロボットおよび倉庫システム
CN112214012A (zh) 一种导航方法、移动载体及导航系统
WO2022268113A1 (zh) 障碍物躲避方法、装置、电子设备和存储介质
KR20230109714A (ko) 로봇 및 위치 결정 방법
JP2013532451A (ja) 倉庫内の物体の位置を特定するための方法及び装置
US11900652B2 (en) Method and computing system for generating a safety volume list for object detection
JP7300413B2 (ja) 制御装置、移動体、移動制御システム、制御方法及びプログラム
US10589319B2 (en) Projection instruction device, parcel sorting system, and projection instruction method
WO2023073780A1 (ja) 学習データの生成装置および学習データの生成方法、並びに学習データを使用する機械学習装置および機械学習方法
US20240150159A1 (en) System and method for definition of a zone of dynamic behavior with a continuum of possible actions and locations within the same
US10635869B2 (en) Projection instruction device, parcel sorting system, and projection instruction method