KR20240046119A - Autonomous transport vehicle with vision system - Google Patents

Autonomous transport vehicle with vision system Download PDF

Info

Publication number
KR20240046119A
KR20240046119A KR1020237044782A KR20237044782A KR20240046119A KR 20240046119 A KR20240046119 A KR 20240046119A KR 1020237044782 A KR1020237044782 A KR 1020237044782A KR 20237044782 A KR20237044782 A KR 20237044782A KR 20240046119 A KR20240046119 A KR 20240046119A
Authority
KR
South Korea
Prior art keywords
vehicle
controller
payload
autonomous
guided vehicle
Prior art date
Application number
KR1020237044782A
Other languages
Korean (ko)
Inventor
아크람 자흐데
폴 베슬
데이빗 그라티아노
알란 필립스
스티븐 드바리쉬
Original Assignee
심보틱 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US17/804,039 external-priority patent/US20230107709A1/en
Priority claimed from US17/804,026 external-priority patent/US20230050980A1/en
Application filed by 심보틱 엘엘씨 filed Critical 심보틱 엘엘씨
Publication of KR20240046119A publication Critical patent/KR20240046119A/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F9/00Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes
    • B66F9/06Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes movable, with their loads, on wheels or the like, e.g. fork-lift trucks
    • B66F9/063Automatically guided
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G1/00Storing articles, individually or in orderly arrangement, in warehouses or magazines
    • B65G1/02Storage devices
    • B65G1/04Storage devices mechanical
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G1/00Storing articles, individually or in orderly arrangement, in warehouses or magazines
    • B65G1/02Storage devices
    • B65G1/04Storage devices mechanical
    • B65G1/0492Storage devices mechanical with cars adapted to travel in storage aisles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G1/00Storing articles, individually or in orderly arrangement, in warehouses or magazines
    • B65G1/02Storage devices
    • B65G1/04Storage devices mechanical
    • B65G1/06Storage devices mechanical with means for presenting articles for removal at predetermined position or level
    • B65G1/065Storage devices mechanical with means for presenting articles for removal at predetermined position or level with self propelled cars
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G1/00Storing articles, individually or in orderly arrangement, in warehouses or magazines
    • B65G1/02Storage devices
    • B65G1/04Storage devices mechanical
    • B65G1/137Storage devices mechanical with arrangements or automatic control means for selecting which articles are to be removed
    • B65G1/1373Storage devices mechanical with arrangements or automatic control means for selecting which articles are to be removed for fulfilling orders in warehouses
    • B65G1/1375Storage devices mechanical with arrangements or automatic control means for selecting which articles are to be removed for fulfilling orders in warehouses the orders being assembled on a commissioning stacker-crane or truck
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F9/00Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes
    • B66F9/06Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes movable, with their loads, on wheels or the like, e.g. fork-lift trucks
    • B66F9/075Constructional features or details
    • B66F9/0755Position control; Position detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F9/00Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes
    • B66F9/06Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes movable, with their loads, on wheels or the like, e.g. fork-lift trucks
    • B66F9/075Constructional features or details
    • B66F9/07568Steering arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F9/00Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes
    • B66F9/06Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes movable, with their loads, on wheels or the like, e.g. fork-lift trucks
    • B66F9/075Constructional features or details
    • B66F9/20Means for actuating or controlling masts, platforms, or forks
    • B66F9/24Electrical devices or systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0259Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means
    • G05D1/0261Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means using magnetic plots
    • G05D1/243

Abstract

자율 가이드 차량은 프레임, 구동 섹션, 페이로드 핸들러, 센서 시스템, 보조 센서 시스템으로 구성된다. 센서 시스템은 물리적 특성을 갖는 방출되거나 생성된 전자기 빔 또는 전자기장의 상호 작용 또는 인터페이스에 각각 반응하는 전자기 센서를 가지며, 전자기 빔 또는 전자기장은 물리적 특성과의 상호 작용 또는 인터페이스에 의해 교란되며, 상기 교란은 물리적 특성 감지에 의해 감지되고 실행된다. 상기 센서 시스템은 차량 내비게이션 자세 또는 위치 정보와 페이로드 자세 또는 위치 정보 중 적어도 하나를 구현하는 센서 데이터를 생성한다. 보조 센서 시스템은 센서 시스템을 보완하며, 적어도 부분적으로 차량 내비게이션 자세 또는 위치와 페이로드 자세 또는 해당 정보에 보충되는 위치 중 적어도 하나를 알려주는 이미지 데이터를 캡처하도록 배치된 카메라를 갖춘 비전 시스템이다. The autonomous guided vehicle consists of a frame, drive section, payload handler, sensor system, and auxiliary sensor system. The sensor system has electromagnetic sensors each responsive to the interaction or interface of an emitted or generated electromagnetic beam or electromagnetic field with physical properties, wherein the electromagnetic beam or electromagnetic field is disturbed by the interaction or interface with physical properties, wherein the disturbance is Detected and executed by physical property detection. The sensor system generates sensor data implementing at least one of vehicle navigation attitude or location information and payload attitude or location information. The auxiliary sensor system is a vision system that complements the sensor system and has cameras positioned to capture image data that is indicative, at least in part, of the vehicle navigation attitude or position and the payload attitude or position to supplement that information.

Description

비전 시스템을 갖는 자율 운송 차량Autonomous transport vehicle with vision system

본 출원은 2021년 8월 12일에 출원된 미국 임시 특허 출원 번호 63/232,546, 2021년 8월 12일에 출원된 미국 임시 특허 출원 번호 63/232,531 및 2021년 10월 1일에 출원된 미국 임시 특허 출원 번호 63/232,531의 정규 출원이며 그 이익을 주장하고, 그 개시 내용은 그 전체가 참조로 본 명세서에 포함된다.This application is related to U.S. Provisional Patent Application No. 63/232,546, filed on Aug. 12, 2021, U.S. Provisional Patent Application No. 63/232,531, filed on Aug. 12, 2021, and U.S. Provisional Patent Application No. 63/232,531, filed on Aug. 12, 2021. Claims the benefit of the non-provisional application of Patent Application Serial No. 63/232,531, the disclosure of which is incorporated herein by reference in its entirety.

개시된 실시예는 일반적으로 자재 취급 시스템에 관한 것이며, 특히 자동 보관 및 회수 시스템을 위한 운송 수단에 관한 것이다.The disclosed embodiments relate generally to material handling systems, and in particular to transportation vehicles for automated storage and retrieval systems.

일반적으로 자동 보관 및 회수 시스템은 자동 보관 및 회수 시스템 내에서 물품을 운송하는 자율 차량을 채용한다. 이러한 자율 차량은 위치 비콘(beacon), 용량성 또는 유도성 근접 센서, 라인 추적 센서, 반사 빔 센서 및 기타 좁게 집속된 빔 유형 센서를 통해 자동 보관 및 회수 시스템 전반에 걸쳐 안내된다. 이러한 센서는 보관 및 회수 시스템을 통해 자율 차량의 탐색에 영향을 미치는 제한된 정보를 제공하거나 자동 보관 및 회수 시스템 전체에 존재할 수 있는 위험의 식별 및 식별과 관련하여 제한된 정보를 제공할 수 있다.Typically, automated storage and retrieval systems employ autonomous vehicles to transport items within the automated storage and retrieval system. These autonomous vehicles are guided throughout the automated storage and retrieval system through location beacons, capacitive or inductive proximity sensors, line tracking sensors, reflected beam sensors, and other narrowly focused beam type sensors. These sensors may provide limited information that impacts the navigation of autonomous vehicles through the storage and retrieval system or may provide limited information related to the identification and identification of hazards that may be present throughout the automated storage and retrieval system.

또한, 물류/창고 설비의 자율 운송 차량은 일반적으로 주어진 환경에서 할당된 작업에 대해 미리 결정된 형태 인자를 갖도록 제조된다. 이러한 자율 운송 차량은 맞춤형 주조 또는 가공된 새시/프레임으로 구성된다. 일부가 맞춤형 조립품/구성요소일 수도 있는 다른 구성요소(예를 들어, 휠, 이송 암 등)는 프레임에 장착되고 자율 운송 차량이 횡단 표면을 따라 횡단할 때 프레임과 함께 운반된다. 이들 자율 운송 차량의 이송 암 및 페이로드 베이는 자율 운송 차량으로 또는 그로부터 페이로드를 이송하고 페이로드 베이 내의 페이로드를 정렬하기(justifying) 위한 수많은 구성요소(센서, 인코더 등) 및 모터 조립체를 포함할 수 있다. 모터 및 센서는 전기 버스 바 등을 통해 자율 운송 차량의 전원 공급 장치에 실질적으로 직접적으로 연속적으로 연결될 수 있다.Additionally, autonomous transport vehicles in logistics/warehousing facilities are typically manufactured to have a predetermined form factor for assigned tasks in a given environment. These autonomous transport vehicles are constructed from custom cast or machined chassis/frames. Other components, some of which may be custom assemblies/components (e.g., wheels, transfer arms, etc.), are mounted on the frame and are carried with the frame as the autonomous transport vehicle traverses along the crossing surface. The transfer arms and payload bays of these autonomous transport vehicles contain numerous components (sensors, encoders, etc.) and motor assemblies for transferring payloads to and from autonomous transport vehicles and justifying the payload within the payload bay. can do. The motors and sensors may be connected substantially directly and continuously to the power supply of the autonomous transport vehicle, such as via an electric bus bar.

본 발명은 종래 기술의 문제점을 해결한 비전 시스템을 갖는 자율 운송 차량을 제공하는 것을 목적을 한다.The purpose of the present invention is to provide an autonomous transportation vehicle with a vision system that solves the problems of the prior art.

본 발명의 실시예의 하나 이상의 측면에 따르면, 자율 가이드 차량은:According to one or more aspects of an embodiment of the present invention, an autonomous guided vehicle:

페이로드 홀드(Payload hold)를 갖는 프레임;Frame with payload hold;

횡단 표면에서 차량을 지지하는 주행 휠을 갖는 프레임에 결합되고, 상기 주행 휠은 시설 내 횡단 표면 위로 자동 안내 차량을 이동시키는 횡단 표면에서 차량 횡단에 영향을 미치는 구동 섹션;a drive section coupled to a frame having running wheels that support a vehicle on the crossing surface, the driving wheels effecting vehicle crossing on the crossing surface to move an automatically guided vehicle over the crossing surface within the facility;

저장 어레이(Storage array)에서, 페이로드 홀드에 안착된 평평한 비결정적 안착 표면 및 페이로드의 저장 위치를 갖는, 페이로드를 전송하도록 구성된 프레임에 결합된 페이로드 핸들러; In a storage array, a payload handler coupled to a frame configured to transmit a payload, the payload handler having a flat non-deterministic seating surface seated on the payload hold and a storage location for the payload;

전자기 센서들을 갖는 프레임에 연결된 물리적 특성 센서 시스템으로서, 각각 물리적 특성을 갖는 전자기 빔 또는 필드를 방출 또는 생성하는 센서의 상호작용 또는 인터페이스에 반응하고, 물리적 특성과의 상호작용 또는 인터페이스에 의해 전자기 빔 또는 필드가 교란되고, 물리적 특성의 전자기 센서에 의해 감지되고 감지되는 교란은 물리적 특성의 전자기 센서에 의해 감지되고 영향을 미치며, 물리적 특성 센서 시스템은 차량의 네비게이션 자세(Vehicle navigation pose) 또는 위치 정보 및 페이로드 자세 또는 위치 정보 중 적어도 하나를 포함하는 센서 데이터를 생성하도록 구성되는, 물리적 특성 센서 시스템; 및 A physical property sensor system connected to a frame having electromagnetic sensors, each responsive to the interaction or interface of the sensor to emit or generate an electromagnetic beam or field having a physical property, and to cause the electromagnetic beam or field to be emitted or generated by the interaction or interface with the physical property. The field is disturbed, and the disturbance is sensed and affected by electromagnetic sensors of a physical nature, and the physical sensor system detects and affects the vehicle's navigation pose or location information and a physical characteristic sensor system configured to generate sensor data including at least one of load posture or position information; and

프레임에 연결되고, 물리적 특성 센서 시스템을 보완하고, 적어도 부분적으로, 차량의 네비게이션 자세, 위치 및 페이로드 자세 또는 물리적 특성 센서 시스템의 정보를 보완하는 위치 중 적어도 하나를 알려주는 이미지 데이터를 캡처하도록 배치된 카메라를 구비한 비전 시스템인 보조 센서 시스템을 포함한다.Coupled to the frame, complementary to the physical characteristic sensor system, and arranged to capture image data that is indicative, at least in part, of the vehicle's navigation attitude, position, and payload attitude or position complementary to information from the physical characteristic sensor system. It includes an auxiliary sensor system, which is a vision system equipped with a camera.

개시된 실시예의 하나 이상의 측면에 따르면, 자율 가이드 차량은 프레임에 연결되고, 구동 섹션 또는 페이로드 핸들러에 작동 가능하게 연결되고, 물리적 특성 센서 시스템에 통신 가능하게 연결되는 컨트롤러를 더 포함하며, 컨트롤러는 물리적 특성 센서 시스템의 정보로부터 시설을 횡단하는 자율 가이드 차량의 독립적인 안내에 영향을 미치는 차량 자세 및 위치를 결정하도록 구성된다.According to one or more aspects of the disclosed embodiments, the autonomous guided vehicle further includes a controller coupled to the frame, operably coupled to the drive section or payload handler, and communicatively coupled to the physical characteristic sensor system, wherein the controller It is configured to determine, from information from the characteristic sensor system, a vehicle attitude and position that affects independent guidance of an autonomous guided vehicle traversing the facility.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 물리적 특성 센서 시스템 페이로드 자세의 정보로부터 그리고 저장 위치에 대한 페이로드의 독립적인 언더픽 및 장소 및 페이로드 홀드 내의 페이로드의 독립적인 언더픽 및 장소에 영향을 미치는 위치를 결정하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, a controller may be configured to determine independent underpick and place of a payload relative to a storage location and an independent underpick and place of a payload within a payload hold from information of a physical characteristic sensor system payload pose. It is structured to determine the location of influence.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 자율 가이드 차량에 의해 횡단되는 시설의 적어도 일부를 정의하는 미리 결정된 특징의 참조 표현으로 프로그래밍된다.According to one or more aspects of the disclosed embodiments, the controller is programmed with a reference representation of predetermined features that define at least a portion of the facility to be traversed by the autonomous guided vehicle.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 캡처된 이미지 데이터를 등록하고, 그로부터 미리 결정된 특징들의 하나 이상의 특징들의 적어도 하나의 이미지를 생성하도록 구성되고, 상기 적어도 하나의 이미지는 상기 참조 표현의 미리 결정된 특징들의 하나 이상의 대응하는 참조와 비교를 제공하도록 상기 하나 이상의 미리 결정된 특징들의 가상 표현으로서 포맷(Format)된다.In accordance with one or more aspects of the disclosed embodiment, a controller is configured to register captured image data and generate therefrom at least one image of one or more predetermined features, wherein the at least one image is a predetermined image of the reference representation. Formatted as a virtual representation of the one or more predetermined features to provide comparison with one or more corresponding references to the features.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 캡처된 이미지 데이터를 등록하고, 그로부터 미리 결정된 특징들의 하나 이상의 특징들의 적어도 하나의 이미지를 생성하도록 구성되고, 상기 적어도 하나의 이미지는 상기 참조 표현의 미리 결정된 특징들의 하나 이상의 대응하는 참조와 비교를 제공하도록 상기 하나 이상의 미리 결정된 특징들의 가상 표현으로서 포맷된다.In accordance with one or more aspects of the disclosed embodiment, a controller is configured to register captured image data and generate therefrom at least one image of one or more predetermined features, wherein the at least one image is a predetermined image of the reference representation. Formatted as a virtual representation of the one or more predetermined features to provide comparison with one or more corresponding references to the features.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 가상 표현과 참조 표현 사이의 비교에 기초하여 물리적 특성 센서 시스템으로부터 컨트롤러에 의해 등록된 자율 가이드 차량 자세 및 위치 정보를 확인하도록 구성된다. According to one or more aspects of the disclosed embodiments, the controller is configured to verify autonomous guided vehicle attitude and position information registered by the controller from a physical characteristic sensor system based on a comparison between the virtual representation and the reference representation.

개시된 실시예의 하나 이상의 측면에 따라, 제어기는 가상 표현과 참조 표현 사이의 비교에 기초하여 자율 유도 차량 자세 및 위치의 분산을 식별하고, 그 분산에 기초하여 물리적 특성 센서 시스템으로부터 자율 유도 차량 자세 또는 위치 정보를 업데이트 또는 완료하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller identifies a variance of the autonomous guided vehicle attitude and position based on a comparison between the virtual representation and the reference representation, and determines the autonomous guided vehicle attitude or position from the physical characteristic sensor system based on the variance. It is configured to update or complete information.

개시된 실시예의 하나 이상의 측면에 따라, 제어기는 식별된 적어도 하나의 이미지의 분산 및 분석 중 적어도 하나에 기초하여 물리적 특성 센서 시스템으로부터의 정보 및 자율 유도 차량 자세의 충실도 및 물리적 특성 센서 시스템으로부터의 위치 정보의 자세 오류를 결정하고, 자세 오류 및 충실도 중 적어도 하나에 따라 신뢰도 값을 할당하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller may be configured to provide information from the physical property sensor system and fidelity of the autonomously guided vehicle attitude and position information from the physical property sensor system based on at least one of the distribution and analysis of the identified at least one image. and determine a posture error of and assign a reliability value based on at least one of posture error and fidelity.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 미리 결정된 임계치 미만의 신뢰 값으로, 컨트롤러는 자세를 대신하여 가상 표현으로부터 생성된 자세 및 위치 정보 및 물리적 특성 센서 시스템으로부터의 위치 정보에 기초하여 자율 유도 차량 네비게이션을 전환하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller determines that, with a confidence value below a predetermined threshold, the controller determines the position of an autonomous guided vehicle based on posture and position information generated from a virtual representation on behalf of the posture and position information from a physical property sensor system. It is configured to switch navigation.

전환 후 개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 다음과 같이 구성된다:In accordance with one or more aspects of the disclosed embodiment after conversion, the controller is configured as follows:

목적지까지 자율 가이드 차량 네비게이션을 계속하거나, 또는 Continue self-guided vehicle navigation to your destination, or

자율 가이드 차량의 안전 경로 및 자율 가이드 차량을 스위칭시 위치에서 정지를 위한 안전한 위치로 가져오는 궤적을 선택하거나, 또는 Select a safe path for the autonomous guided vehicle and a trajectory to bring the autonomous guided vehicle from its switching position to a safe position for stopping, or

사용자 인터페이스 장치를 통해 자동 작동에서 준자동 작동 또는 수동 작동까지 자율 가이드 차량 제어의 운영자 선택을 위한 자율 가이드 차량 운동학적 데이터 및 목적지를 식별하는 운영자와의 통신을 시작한다.Initiates communication with the operator, through a user interface device, identifying the destination and autonomous guided vehicle kinematic data for operator selection of autonomous guided vehicle control from automatic operation to semi-autonomous operation or manual operation.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 가상 표현과 참조 표현 사이의 비교에 기초하여 물리적 특성 센서 시스템으로부터 컨트롤러에 의해 등록된 페이로드 자세 및 위치 정보를 확인하도록 구성된다. According to one or more aspects of the disclosed embodiments, the controller is configured to verify payload attitude and position information registered by the controller from a physical characteristic sensor system based on a comparison between the virtual representation and the reference representation.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 가상 표현과 참조 표현 사이의 비교에 기초하여 페이로드 자세 및 위치의 분산을 식별하고, 분산에 기초하여 물리적 특성 센서 시스템으로부터 페이로드 자세 또는 위치 정보를 업데이트 또는 완료하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, a controller identifies a variance in payload pose and position based on a comparison between a virtual representation and a reference representation and updates payload pose or position information from a physical characteristic sensor system based on the variance. or configured to complete.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 적어도 하나의 이미지의 식별된 분산 및 분석 중 적어도 하나에 기초하여 물리적 특성 센서 시스템으로부터의 정보 및 페이로드 자세의 충실도 및 물리적 특성 센서 시스템으로부터의 위치 정보의 자세 에러를 결정하고, 자세 에러 및 충실도 중 적어도 하나에 따라 신뢰도 값을 할당하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller may determine the fidelity of the payload pose and position information from the physical property sensor system based on at least one of the identified distribution and analysis of the at least one image. It is configured to determine a posture error and assign a reliability value based on at least one of posture error and fidelity.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 미리 결정된 임계치 미만의 신뢰도 값으로, 컨트롤러는 자세를 대신하여 가상 표현으로부터 생성된 위치 정보 및 물리적 특성 센서 시스템으로부터의 위치 정보에 기초하여 자율 유도 차량 페이로드 핸들링을 전환하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, with a confidence value below a predetermined threshold, the controller determines the autonomous guided vehicle payload based on location information generated from a virtual representation on behalf of the posture and location information from a physical property sensor system. It is configured to switch handling.

전환 후 개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 다음과 같이 구성된다:In accordance with one or more aspects of the disclosed embodiment after conversion, the controller is configured as follows:

목적지까지 자동 가이드 차량 핸들링을 계속하거나, Continue handling the automated guided vehicle to your destination, or

사용자 인터페이스 장치를 통해 자동 페이로드 처리 작업에서 준자동 페이로드 처리 작업 또는 수동 페이로드 처리 작업까지 자율 가이드 차량 제어의 운영자 선택과 함께 페이로드 데이터를 식별하는 운영자와의 통신을 시작한다.The user interface device initiates communication with the operator identifying payload data along with operator selection of autonomous guided vehicle control from automatic payload processing operations to semi-autonomous payload processing operations or manual payload processing operations.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 컨트롤러 및 오퍼레이터 인터페이스를 통신 가능하게 결합하는 무선 통신 시스템을 통해, 오퍼레이터에게 증강 현실 이미지를 실시간으로 제시하는 참조 프레젠테이션의 하나 이상의 대응하는 참조 프레젠테이션의 가상 표현 및 하나 이상의 대응하는 참조 사전 결정 특징을 결합하는 시뮬레이션 이미지를 전송하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, a controller may include a virtual representation of one or more corresponding reference presentations of the reference presentation to present augmented reality images in real time to the operator via a wireless communication system communicatively coupling the controller and the operator interface; and transmit a simulated image combining one or more corresponding reference predetermined features.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 실시간 오퍼레이터 명령들을 상기 실시간 증강 현실 이미지에 응답하는 상기 자율 유도 차량으로 수신하도록 구성되고, 상기 명령들은 상기 오퍼레이터에게 전송되는 상기 실시간 증강 현실 이미지의 변화이다.In accordance with one or more aspects of the disclosed embodiments, a controller is configured to receive real-time operator commands to the autonomous guided vehicle responsive to the real-time augmented reality image, the commands being changes to the real-time augmented reality image transmitted to the operator.

개시된 실시예의 하나 이상의 측면에 따르면, 보조 센서 시스템은 자율 가이드 차량에 탑재된 케이스 장치의 즉각적 정렬(Justification) 및/또는 분류(Sortation)에 적어도 부분적으로 영향을 미친다.According to one or more aspects of the disclosed embodiments, the auxiliary sensor system at least partially affects immediate justification and/or sorting of case devices mounted on an autonomous guided vehicle.

개시된 실시예의 하나 이상의 측면에 따라, 보조 센서 시스템으로부터, 보조 차량 네비게이션 자세 또는 위치, 및 보조 페이로드 자세 또는 위치 중 하나 이상의 보조 정보를 통해, 보조 차량 네비게이션 자세 또는 위치, 및 차량 네비게이션 자세 또는 위치 중 하나 이상의 보조 페이로드 자세 또는 위치 정보 및 페이로드 자세 또는 위치 정보 중 하나 이상의 보조 페이로드 자세 또는 위치 해상도를 향상시키도록, 주변 설비 특징 및 인터페이스 설비 특징 중 하나 이상의 참조 모델에 코팅된다.In accordance with one or more aspects of the disclosed embodiments, one or more of the assistive vehicle navigation attitude or position, and the vehicle navigation attitude or position may be provided via assistive information from an assistive sensor system, one or more of an assistive vehicle navigation attitude or position, and an assistive payload attitude or position. One or more auxiliary payload attitude or position information and one or more of the payload attitude or position information are coated on the reference model to improve the resolution of one or more of the auxiliary payload attitude or position, peripheral facility features and interface facility features.

개시된 실시예의 하나 이상의 측면에 따르면, 자율 가이드 차량은:According to one or more aspects of the disclosed embodiments, an autonomous guided vehicle:

페이로드 홀드를 갖는 프레임;Frame with payload hold;

횡단 표면에서 차량을 지지하는 주행 휠을 갖는 프레임에 결합되고, 상기 주행 휠은 시설 내 횡단 표면 위로 자동 안내 차량을 이동시키는 횡단 표면에서 차량 횡단에 영향을 미치는 구동 섹션;a drive section coupled to a frame having running wheels that support a vehicle on the crossing surface, the driving wheels effecting vehicle crossing on the crossing surface to move an automatically guided vehicle over the crossing surface within the facility;

저장 어레이에서, 페이로드 홀드에 안착된 평평한 비결정적 안착 표면 및 페이로드의 저장 위치를 갖는, 페이로드를 전송하도록 구성된 프레임에 결합된 페이로드 핸들러; In a storage array, a payload handler coupled to a frame configured to transmit a payload, the payload handler having a flat, non-deterministic seating surface seated on the payload hold and a storage location for the payload;

전자기 센서들을 갖는 프레임에 연결된 물리적 특성 센서 시스템으로서, 각각 물리적 특성을 갖는 전자기 빔 또는 필드를 방출 또는 생성하는 센서의 상호작용 또는 인터페이스에 반응하고, 물리적 특성과의 상호작용 또는 인터페이스에 의해 전자기 빔 또는 필드가 교란되고, 물리적 특성의 전자기 센서에 의해 감지되고 감지되는 교란은 물리적 특성의 전자기 센서에 의해 감지되고 영향을 미치며, 물리적 특성 센서 시스템은 차량의 네비게이션 자세(Vehicle navigation pose) 또는 위치 정보 및 페이로드 자세 또는 위치 정보 중 적어도 하나를 포함하는 센서 데이터를 생성하도록 구성되는, 물리적 특성 센서 시스템; 및 A physical property sensor system connected to a frame having electromagnetic sensors, each responsive to the interaction or interface of the sensor to emit or generate an electromagnetic beam or field having a physical property, and to cause the electromagnetic beam or field to be emitted or generated by the interaction or interface with the physical property. The field is disturbed, and the disturbance is sensed and affected by electromagnetic sensors of a physical nature, and the physical sensor system detects and affects the vehicle's navigation pose or location information and a physical characteristic sensor system configured to generate sensor data including at least one of load posture or position information; and

프레임에 연결되고, 물리적 특성 센서 시스템을 보완하고, 적어도 부분적으로, 차량의 네비게이션 자세, 위치 및 페이로드 자세 또는 물리적 특성 센서 시스템의 정보를 보완하는 위치 중 적어도 하나를 알려주는 이미지 데이터를 캡처하도록 배치된 카메라를 구비한 비전 시스템인 보조 센서 시스템을 포함한다.Coupled to the frame, complementary to the physical characteristic sensor system, and arranged to capture image data that is indicative, at least in part, of the vehicle's navigation attitude, position, and payload attitude or position complementary to information from the physical characteristic sensor system. It includes an auxiliary sensor system, which is a vision system equipped with a camera.

개시된 실시예의 하나 이상의 측면에 따르면, 자율 가이드 차량은 프레임에 연결되고, 구동 섹션 또는 페이로드 핸들러에 작동 가능하게 연결되고, 물리적 특성 센서 시스템에 통신 가능하게 연결되는 컨트롤러를 더 포함하며, 컨트롤러는 물리적 특성 센서 시스템의 정보로부터 시설을 횡단하는 자율 가이드 차량의 독립적인 안내에 영향을 미치는 차량 자세 및 위치를 결정하도록 구성된다.According to one or more aspects of the disclosed embodiments, the autonomous guided vehicle further includes a controller coupled to the frame, operably coupled to the drive section or payload handler, and communicatively coupled to the physical characteristic sensor system, wherein the controller It is configured to determine, from information from the characteristic sensor system, a vehicle attitude and position that affects independent guidance of an autonomous guided vehicle traversing the facility.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 물리적 특성 센서 시스템 페이로드 자세의 정보로부터 그리고 저장 위치에 대한 페이로드의 독립적인 언더픽 및 장소 및 페이로드 홀드 내의 페이로드의 독립적인 언더픽 및 장소에 영향을 미치는 위치를 결정하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, a controller may be configured to determine independent underpick and place of a payload relative to a storage location and an independent underpick and place of a payload within a payload hold from information of a physical characteristic sensor system payload pose. It is structured to determine the location of influence.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 자율 가이드 차량에 의해 횡단되는 시설의 적어도 일부를 정의하는 미리 결정된 특징의 참조 표현으로 프로그래밍된다.According to one or more aspects of the disclosed embodiments, the controller is programmed with a reference representation of predetermined features that define at least a portion of the facility to be traversed by the autonomous guided vehicle.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 캡처된 이미지 데이터를 등록하고, 그로부터 미리 결정된 특징들의 하나 이상의 특징들의 적어도 하나의 이미지를 생성하도록 구성되고, 상기 적어도 하나의 이미지는 상기 참조 표현의 미리 결정된 특징들의 하나 이상의 대응하는 참조와 비교를 제공하도록 상기 하나 이상의 미리 결정된 특징들의 가상 표현으로서 포맷된다.In accordance with one or more aspects of the disclosed embodiment, a controller is configured to register captured image data and generate therefrom at least one image of one or more predetermined features, wherein the at least one image is a predetermined image of the reference representation. Formatted as a virtual representation of the one or more predetermined features to provide comparison with one or more corresponding references to the features.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 이미지화된 하나 이상의 특징부들의 가상 표현이 자율 유도 차량 상에서 상주하도록 구성되고, 하나 이상의 이미지화된 소정 특징부들의 가상 표현과 하나 이상의 대응하는 기준 소정 특징부들 사이의 비교가 자율 유도 차량 상에서 상주하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller is configured to cause a virtual representation of one or more imaged features to reside on the autonomous guided vehicle, and between the virtual representations of the one or more imaged certain features and one or more corresponding reference certain features. The comparison of is configured to reside on the autonomous guided vehicle.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 가상 표현과 기준 표현 사이의 비교에 기초하여 물리적 특성 센서 시스템으로부터 컨트롤러에 의해 등록된 자동 안내 차량 자세 및 위치 정보를 확인하도록 구성된다. According to one or more aspects of the disclosed embodiments, the controller is configured to verify automated guided vehicle attitude and position information registered by the controller from a physical characteristic sensor system based on a comparison between the virtual representation and the reference representation.

개시된 실시예의 하나 이상의 측면에 따라, 제어기는 가상 표현과 참조 표현 사이의 비교에 기초하여 자율 유도 차량 자세 및 위치의 분산을 식별하고, 그 분산에 기초하여 물리적 특성 센서 시스템으로부터 자율 유도 차량 자세 또는 위치 정보를 업데이트 또는 완료하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller identifies a variance of the autonomous guided vehicle attitude and position based on a comparison between the virtual representation and the reference representation, and determines the autonomous guided vehicle attitude or position from the physical characteristic sensor system based on the variance. It is configured to update or complete information.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 식별된 적어도 하나의 이미지의 분산 및 분석 중 적어도 하나에 기초하여 물리적 특성 센서 시스템으로부터의 정보 및 자율 가이드 차량 자세의 충실도 및 물리적 특성 센서 시스템으로부터의 위치 정보의 자세 오류를 결정하고, 자세 오류 및 충실도 중 적어도 하나에 따라 신뢰도 값을 할당하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller may determine the fidelity of the autonomous guided vehicle attitude and the position information from the physical property sensor system and the information from the physical property sensor system based on at least one of the distribution and analysis of the identified at least one image. and determine a posture error of and assign a reliability value based on at least one of posture error and fidelity.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 미리 결정된 임계치 미만의 신뢰 값으로, 제어기는 자세를 대신하여 가상 표현으로부터 생성된 자세 및 위치 정보 및 물리적 특성 센서 시스템으로부터의 위치 정보에 기초하여 자율 유도 차량 네비게이션을 전환하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller determines that, with a confidence value below a predetermined threshold, the controller determines the position of an autonomous guided vehicle based on posture and position information generated from a virtual representation on behalf of the posture and position information from a physical property sensor system. It is configured to switch navigation.

전환 후 개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 다음과 같이 구성된다:In accordance with one or more aspects of the disclosed embodiment after conversion, the controller is configured as follows:

목적지까지 자동 안내 차량 탐색을 계속하거나 자동 안내 차량의 안전 경로 및 자율 가이드 차량을 전환 위치에서 정지를 위한 안전한 위치로 가져오는 궤적을 선택하거나, 또는 Continue navigation of the autonomously guided vehicle to the destination, or select a safe path for the autonomously guided vehicle and a trajectory that will bring the autonomously guided vehicle from the transition position to a safe position for stopping, or

사용자 인터페이스 장치를 통해 자동 작동에서 준자동 작동 또는 수동 작동까지 자율 가이드 차량 제어의 운영자 선택을 위한 목적지 및 자동 가이드 차량 운동학적 데이터를 식별하는 운영자와의 통신을 시작한다.Initiates communication with the operator through a user interface device identifying a destination and autonomous guided vehicle kinematic data for operator selection of autonomous guided vehicle control from automatic operation to semi-autonomous operation or manual operation.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 가상 표현과 참조 표현 사이의 비교에 기초하여 물리적 특성 센서 시스템으로부터 컨트롤러에 의해 등록된 페이로드 자세 및 위치 정보를 확인하도록 구성된다. According to one or more aspects of the disclosed embodiments, the controller is configured to verify payload attitude and position information registered by the controller from a physical characteristic sensor system based on a comparison between the virtual representation and the reference representation.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 가상 표현과 참조 표현 사이의 비교에 기초하여 페이로드 자세 및 위치의 분산을 식별하고, 분산에 기초하여 물리적 특성 센서 시스템으로부터 페이로드 자세 또는 위치 정보를 업데이트 또는 완료하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, a controller identifies a variance in payload pose and position based on a comparison between a virtual representation and a reference representation and updates payload pose or position information from a physical characteristic sensor system based on the variance. or configured to complete.

개시된 실시예의 하나 이상의 측에 따라, 제어기는 적어도 하나의 이미지의 식별된 분산 및 분석 중 적어도 하나에 기초하여 물리적 특성 센서 시스템으로부터의 정보 및 페이로드 자세의 충실도 및 물리적 특성 센서 시스템으로부터의 위치 정보의 자세 에러를 결정하고, 자세 에러 및 충실도 중 적어도 하나에 따라 신뢰도 값을 할당하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller may be configured to determine the fidelity of the payload pose and location information from the physical property sensor system based on at least one of the identified distribution and analysis of the at least one image. It is configured to determine a posture error and assign a reliability value based on at least one of posture error and fidelity.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 미리 결정된 임계치 미만의 신뢰도 값으로, 컨트롤러는 자세를 대신하여 가상 표현으로부터 생성된 위치 정보 및 물리적 특성 센서 시스템으로부터의 위치 정보에 기초하여 자율 가이드 차량 페이로드 핸들링을 전환하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, with a confidence value below a predetermined threshold, the controller determines the autonomous guided vehicle payload based on location information generated from a virtual representation on behalf of the posture and location information from a physical property sensor system. It is configured to switch handling.

전환 후 개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 다음과 같이 구성된다:In accordance with one or more aspects of the disclosed embodiment after conversion, the controller is configured as follows:

목적지까지 자동 안내 차량 핸들링을 계속하거나, Continue handling the self-guided vehicle to your destination, or

사용자 인터페이스 장치를 통해 자동 페이로드 처리 작업에서 준자동 페이로드 처리 작업 또는 수동 페이로드 처리 작업까지 자율 가이드 차량 제어의 운영자 선택과 함께 페이로드 데이터를 식별하는 운영자와의 통신을 시작한다.The user interface device initiates communication with the operator identifying payload data along with operator selection of autonomous guided vehicle control from automatic payload processing operations to semi-autonomous payload processing operations or manual payload processing operations.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 컨트롤러 및 오퍼레이터 인터페이스를 통신 가능하게 결합하는 무선 통신 시스템을 통해, 오퍼레이터에게 증강 현실 이미지를 실시간으로 제시하는 참조 프레젠테이션의 하나 이상의 대응하는 참조 프레젠테이션의 가상 표현 및 하나 이상의 대응하는 참조 사전 결정 특징을 결합하는 시뮬레이션 이미지를 전송하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, a controller may include a virtual representation of one or more corresponding reference presentations of the reference presentation to present augmented reality images in real time to the operator via a wireless communication system communicatively coupling the controller and the operator interface; and transmit a simulated image combining one or more corresponding reference predetermined features.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 실시간 오퍼레이터 명령들을 상기 실시간 증강 현실 이미지에 응답하는 상기 자율 가이드 차량으로 수신하도록 구성되고, 상기 명령들은 상기 오퍼레이터에게 전송되는 상기 실시간 증강 현실 이미지의 변화를 가져온다.In accordance with one or more aspects of the disclosed embodiments, a controller is configured to receive real-time operator commands to the autonomous guided vehicle responsive to the real-time augmented reality image, the commands resulting in changes to the real-time augmented reality image transmitted to the operator. .

개시된 실시예의 하나 이상의 측면에 따르면, 보조 센서 시스템은 자율 가이드 차량에 탑재된 케이스 장치의 즉각적 정렬(justification) 및/또는 분류에 적어도 부분적으로 영향을 미친다.According to one or more aspects of the disclosed embodiments, the auxiliary sensor system at least partially effects immediate justification and/or classification of case devices mounted on an autonomous guided vehicle.

개시된 실시예의 하나 이상의 측면에 따라, 보조 센서 시스템으로부터, 보조 차량 네비게이션 자세 또는 위치, 보조 차량 네비게이션 자세 또는 위치, 및 보조 차량 네비게이션 자세 또는 위치 중 하나 이상을 통해, 보조 차량 네비게이션 자세 또는 위치, 및 보조 차량 네비게이션 자세 또는 위치 중 하나 이상의 차량 네비게이션 자세 또는 위치, 및 보조 차량 네비게이션 자세 또는 위치 정보 중 하나 이상의 보조 차량의 페이로드 자세 또는 위치 해상도를 향상시키도록, 주변 설비 특징 및 인터페이스 설비 특징 중 하나 이상의 기준 모델에 적용되는 것을 특징으로 한다.According to one or more aspects of the disclosed embodiments, an auxiliary vehicle navigation attitude or position, and assist, from an auxiliary sensor system, via one or more of an auxiliary vehicle navigation attitude or position, an auxiliary vehicle navigation attitude or position, and an auxiliary vehicle navigation attitude or position. One or more of the vehicle navigation attitude or position, and one or more of the auxiliary vehicle navigation attitude or position information, to improve the resolution of the payload attitude or position of the auxiliary vehicle, one or more criteria of peripheral facility features and interface facility features It is characterized by being applied to the model.

개시된 실시예의 하나 이상의 측면에 따르면, 방법은 다음을 포함한다:According to one or more aspects of the disclosed embodiments, the method includes:

다음을 갖춘 자율 가이드 차량을 제공한다:We provide self-guided vehicles equipped with:

페이로드 홀드를 갖는 프레임,A frame with a payload hold,

횡단 표면에서 차량을 지지하는 주행 휠을 갖는 프레임에 결합되고, 상기 주행 휠은 시설 내 횡단 표면 위로 자동 안내 차량을 이동시키는 횡단 표면에서 차량 횡단에 영향을 미치는 구동 섹션;a drive section coupled to a frame having running wheels that support a vehicle on the crossing surface, the driving wheels effecting vehicle crossing on the crossing surface to move an automatically guided vehicle over the crossing surface within the facility;

저장 어레이에서, 페이로드 홀드에 안착된 평평한 비결정적 안착 표면 및 페이로드의 저장 위치를 갖는, 페이로드를 전송하도록 구성된 프레임에 결합된 페이로드 핸들러; In a storage array, a payload handler coupled to a frame configured to transmit a payload, the payload handler having a flat, non-deterministic seating surface seated on the payload hold and a storage location for the payload;

전자기 센서들을 갖는 프레임에 연결된 물리적 특성 센서 시스템으로서, 각각 물리적 특성을 갖는 전자기 빔 또는 필드를 방출 또는 생성하는 센서의 상호작용 또는 인터페이스에 반응하고, 물리적 특성과의 상호작용 또는 인터페이스에 의해 전자기 빔 또는 필드가 교란되고, 물리적 특성의 전자기 센서에 의해 감지되고 감지되는 교란은 물리적 특성의 전자기 센서에 의해 감지되고 영향을 미치며, 물리적 특성 센서 시스템은 차량의 네비게이션 자세(Vehicle navigation pose) 또는 위치 정보 및 페이로드 자세 또는 위치 정보 중 적어도 하나를 포함하는 센서 데이터를 생성하도록 구성되는, 물리적 특성 센서 시스템; 및 A physical property sensor system connected to a frame having electromagnetic sensors, each responsive to the interaction or interface of the sensor to emit or generate an electromagnetic beam or field having a physical property, and to cause the electromagnetic beam or field to be emitted or generated by the interaction or interface with the physical property. The field is disturbed, and the disturbance is sensed and affected by electromagnetic sensors of a physical nature, and the physical sensor system detects and affects the vehicle's navigation pose or location information and a physical characteristic sensor system configured to generate sensor data including at least one of load posture or position information; and

프레임에 연결되고, 물리적 특성 센서 시스템을 보완하고, 적어도 부분적으로, 차량의 네비게이션 자세, 위치 및 페이로드 자세 또는 물리적 특성 센서 시스템의 정보를 보완하는 위치 중 적어도 하나를 알려주는 이미지 데이터를 캡처하도록 배치된 카메라를 구비한 비전 시스템인 보조 센서 시스템을 포함한다.Coupled to the frame, complementary to the physical characteristic sensor system, and arranged to capture image data that is indicative, at least in part, of the vehicle's navigation attitude, position, and payload attitude or position complementary to information from the physical characteristic sensor system. It includes an auxiliary sensor system, which is a vision system equipped with a camera.

개시된 실시예의 하나 이상의 측면에 따른 방법은 물리적 특성 센서 시스템의 차량 자세 및 설비를 횡단하는 자율 유도 차량의 독립적인 안내에 영향을 미치는 위치의 정보로부터 제어기를 결정하는 단계를 더 포함하고, 제어기는 프레임에 연결되고 구동 구간 또는 페이로드 핸들러에 작동 가능하게 연결되며, 물리적 특성 센서 시스템에 통신 가능하게 연결되는 것을 특징으로 한다.A method according to one or more aspects of the disclosed embodiments further comprises the step of determining a controller from information of the physical characteristic sensor system's vehicle attitude and position affecting independent guidance of the autonomous guided vehicle traversing the facility, wherein the controller determines a frame and operably connected to a drive section or payload handler and communicatively connected to a physical property sensor system.

개시된 실시예의 하나 이상의 측면에 따른 방법은 물리적 특성 센서 시스템 페이로드 자세의 정보로부터 결정하고, 저장 위치에 대한 페이로드의 독립적인 언더픽 및 위치 및 저장 위치 및 페이로드 홀드 내의 페이로드의 독립적인 언더픽 및 위치에 영향을 미치는 위치를 더 포함한다.A method according to one or more aspects of the disclosed embodiments includes determining from information of a physical characteristic sensor system payload pose, independent underpick and location of the payload relative to a storage location and independent underpick and location of the payload within the storage location and payload hold. It further includes positions that influence picks and positions.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 자율 가이드 차량에 의해 횡단되는 시설의 적어도 일부를 정의하는 미리 결정된 특징의 참조 표현으로 프로그래밍된다.According to one or more aspects of the disclosed embodiments, the controller is programmed with a reference representation of predetermined features that define at least a portion of the facility to be traversed by the autonomous guided vehicle.

개시된 실시예의 하나 이상의 측면에 따라, 상기 방법은 상기 컨트롤러에, 상기 캡처된 이미지 데이터를 등록하고 상기 미리 결정된 특징들의 하나 이상의 특징들의 적어도 하나의 이미지로부터 생성하는 단계를 더 포함하고, 상기 적어도 하나의 이미지는 상기 참조 표현의 미리 결정된 특징들의 하나 이상의 대응하는 참조와 비교를 제공하도록 상기 하나 이상의 미리 결정된 특징들의 가상 표현으로서 포맷팅된다.According to one or more aspects of the disclosed embodiment, the method further comprises registering the captured image data with the controller and generating from at least one image of one or more of the predetermined features, the at least one The image is formatted as a virtual representation of the one or more predetermined features to provide comparison with one or more corresponding references of the predetermined features of the reference representation.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 이미지화된 하나 이상의 특징부들의 가상 표현이 자율 가이드 차량 상에서 상주하도록 구성되고, 하나 이상의 이미지화된 소정 특징부들의 가상 표현과 하나 이상의 대응하는 기준 소정 특징부들 사이의 비교가 자율 가이드 차량 상에서 상주하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller is configured to cause a virtual representation of one or more imaged features to reside on the autonomous guided vehicle, wherein the virtual representation of the one or more imaged features and the one or more corresponding reference features are configured to reside on the autonomous guided vehicle. The comparison of is configured to reside on the autonomous guided vehicle.

개시된 실시예의 하나 이상의 측면에 따른 방법은 가상 표현과 참조 표현 사이의 비교에 기초하여 물리적 특성 센서 시스템으로부터 컨트롤러에 의해 등록된 자율 유도 차량 자세 및 위치 정보를 컨트롤러와 확인하는 단계를 더 포함한다. A method according to one or more aspects of the disclosed embodiments further includes confirming with the controller autonomous guided vehicle attitude and position information registered by the controller from the physical characteristic sensor system based on a comparison between the virtual representation and the reference representation.

개시된 실시예의 하나 이상의 측면에 따른 방법은 컨트롤러와 함께, 가상 표현과 참조 표현 사이의 비교에 기초하여 자율 유도 차량 자세 및 위치의 분산을 식별하고, 분산에 기초하여 물리적 특성 센서 시스템으로부터 자율 유도 차량 자세 또는 위치 정보를 업데이트 또는 완료하는 단계를 더 포함한다.A method according to one or more aspects of the disclosed embodiments includes, with a controller, identifying a variance of an autonomous guided vehicle attitude and position based on a comparison between a virtual representation and a reference representation, and determining the autonomous guided vehicle posture from a physical property sensor system based on the variance. Or, it further includes updating or completing location information.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 식별된 적어도 하나의 이미지의 분산 및 분석 중 적어도 하나에 기초하여 물리적 특성 센서 시스템으로부터의 정보 및 자율 가이드 차량 자세 및 위치 정보의 충실도를 결정하고, 자세 오류 및 충실도 중 적어도 하나에 따라 신뢰도 값을 할당하는 것을 특징으로 한다.In accordance with one or more aspects of the disclosed embodiments, the controller determines the fidelity of the autonomous guided vehicle attitude and position information and information from the physical property sensor system based on at least one of the distribution and analysis of the identified at least one image, and determines the attitude error. and assigning a reliability value according to at least one of fidelity.

개시된 실시예의 하나 이상의 측면에 따라, 미리 결정된 임계치 미만의 신뢰도 값에 기초하여, 컨트롤러는 자세를 대신하여 가상 표현으로부터 생성된 자세 및 위치 정보 및 물리적 특성 센서 시스템으로부터의 위치 정보에 기초하여 자율 유도 차량 네비게이션을 전환하는 것을 특징으로 한다.According to one or more aspects of the disclosed embodiments, based on a confidence value below a predetermined threshold, the controller determines the autonomous guided vehicle It is characterized by switching navigation.

전환 후 개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 다음과 같이 구성된다:In accordance with one or more aspects of the disclosed embodiment after conversion, the controller is configured as follows:

목적지까지 자율 가이드 차량 탐색을 계속하거나 자동 안내 차량의 안전 경로 및 자동 안내 차량을 전환 위치에서 종료를 위한 안전한 위치로 가져오는 궤적을 선택하거나, 또는 Continue navigation of the autonomous guided vehicle to the destination, or select a safe path for the autonomous guided vehicle and a trajectory that will bring the autonomous guided vehicle from the transition location to a safe location for termination, or

사용자 인터페이스 장치를 통해 자동 작동에서 준자동 작동 또는 수동 작동까지 자율 가이드 차량 제어의 운영자 선택을 위한 자율 가이드 차량 운동학적 데이터 및 목적지를 식별하는 운영자와의 통신을 시작한다.Initiates communication with the operator, through a user interface device, identifying the destination and autonomous guided vehicle kinematic data for operator selection of autonomous guided vehicle control from automatic operation to semi-autonomous operation or manual operation.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 가상 표현과 기준 표현 간의 비교에 기초하여 물리적 특성 센서 시스템으로부터 컨트롤러에 의해 등록된 페이로드 자세 및 위치 정보를 확인한다. According to one or more aspects of the disclosed embodiments, the controller verifies payload attitude and position information registered by the controller from a physical characteristic sensor system based on a comparison between the virtual representation and the reference representation.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 가상 표현과 참조 표현 사이의 비교에 기초하여 페이로드 자세 및 위치의 분산을 식별하고, 분산에 기초하여 물리적 특성 센서 시스템으로부터 페이로드 자세 또는 위치 정보를 업데이트 또는 완료하는 것을 특징으로 한다.In accordance with one or more aspects of the disclosed embodiments, a controller identifies a variance in payload pose and position based on a comparison between a virtual representation and a reference representation and updates payload pose or position information from a physical characteristic sensor system based on the variance. or is characterized by completion.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 식별된 적어도 하나의 이미지의 분산 및 분석 중 적어도 하나에 기초하여 물리적 특성 센서 시스템으로부터의 정보 및 페이로드 자세의 충실도 및 물리적 특성 센서 시스템으로부터의 위치 정보의 자세 에러를 결정하고, 자세 에러 및 충실도 중 적어도 하나에 따라 신뢰도 값을 할당하는 것을 특징으로 한다.In accordance with one or more aspects of the disclosed embodiments, the controller may determine the fidelity of the information and payload attitude from the physical property sensor system and the position information from the physical property sensor system based on at least one of the distribution and analysis of the at least one image identified. Determining the posture error and assigning a reliability value based on at least one of the posture error and fidelity.

개시된 실시예의 하나 이상의 측면에 따라, 미리 결정된 임계치 미만의 신뢰도 값에 기초하여, 컨트롤러는 자세를 대신하여 가상 표현으로부터 생성된 자세 및 위치 정보 및 물리적 특성 센서 시스템으로부터의 위치 정보에 기초하여 자율 유도 차량 페이로드 핸들링을 전환한다.According to one or more aspects of the disclosed embodiments, based on a confidence value below a predetermined threshold, the controller determines the autonomous guided vehicle Switch payload handling.

전환 후 개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 다음과 같이 구성된다:In accordance with one or more aspects of the disclosed embodiment after conversion, the controller is configured as follows:

목적지까지 자동 안내 차량 핸들링을 계속하거나, Continue handling the self-guided vehicle to your destination, or

사용자 인터페이스 장치를 통해 자동 페이로드 처리 작업에서 준자동 페이로드 처리 작업 또는 수동 페이로드 처리 작업까지 자율 가이드 차량 제어의 운영자 선택과 함께 페이로드 데이터를 식별하는 운영자와의 통신을 시작한다.The user interface device initiates communication with the operator identifying payload data along with operator selection of autonomous guided vehicle control from automatic payload processing operations to semi-autonomous payload processing operations or manual payload processing operations.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 컨트롤러와 오퍼레이터 인터페이스를 통신 가능하게 결합하는 무선 통신 시스템을 통해, 하나 이상의 이미지화된 소정 특징부의 가상 표현과 오퍼레이터를 실시간으로 증강 현실 이미지와 함께 제시하는 참조 프레젠테이션의 하나 이상의 대응하는 참조 소정 특징부를 결합하는 시뮬레이션 이미지를 송신한다.In accordance with one or more aspects of the disclosed embodiments, a controller provides a virtual representation of one or more imaged features and a reference presentation together with the augmented reality image to the operator in real time via a wireless communication system communicatively coupling the controller and the operator interface. Transmit a simulated image combining certain features with one or more corresponding references.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 실시간 오퍼레이터 명령들을 상기 실시간 증강 현실 이미지에 응답하는 상기 자율 가이드 차량으로 수신하고, 상기 명령들은 상기 오퍼레이터에게 전송되는 상기 실시간 증강 현실 이미지의 변화들을 상기 컨트롤러에 의해 수신한다.In accordance with one or more aspects of the disclosed embodiments, a controller receives real-time operator commands to the autonomous guided vehicle responsive to the real-time augmented reality image, and the commands cause changes in the real-time augmented reality image transmitted to the operator to the controller. Received by.

개시된 실시예의 하나 이상의 측면에 따르면, 적어도 보조 센서 시스템을 갖춘 컨트롤러 효과는 자율 가이드 차량에 탑재된 케이스 장치의 정렬 및/또는 분류를 제공한다.According to one or more aspects of the disclosed embodiments, a controller effect with at least an auxiliary sensor system provides alignment and/or sorting of case devices mounted on an autonomous guided vehicle.

개시된 실시예의 하나 이상의 측면에 따라, 보조 센서 시스템으로부터, 보조 차량 네비게이션 자세 또는 위치, 및 보조 페이로드 자세 또는 위치 중 하나 이상의 보조 정보를 통해, 보조 차량 네비게이션 자세 또는 위치, 및 차량 네비게이션 자세 또는 위치 중 하나 이상의 보조 페이로드 자세 또는 위치 정보 및 페이로드 자세 또는 위치 정보 중 하나 이상의 보조 페이로드 자세 또는 위치 해상도를 향상시키도록, 주변 설비 특징 및 인터페이스 설비 특징 중 하나 이상의 참조 모델에 코팅된다.In accordance with one or more aspects of the disclosed embodiments, one or more of the assistive vehicle navigation attitude or position, and the vehicle navigation attitude or position may be provided via assistive information from an assistive sensor system, one or more of an assistive vehicle navigation attitude or position, and an assistive payload attitude or position. One or more auxiliary payload attitude or position information and one or more of the payload attitude or position information are coated on the reference model to improve the resolution of one or more of the auxiliary payload attitude or position, peripheral facility features and interface facility features.

개시된 실시예의 하나 이상의 측면에 따르면, 자율 가이드 차량은:According to one or more aspects of the disclosed embodiments, an autonomous guided vehicle:

페이로드 홀드를 갖는 프레임;Frame with payload hold;

횡단 표면에서 차량을 지지하는 주행 휠을 갖는 프레임에 결합되고, 상기 주행 휠은 시설 내 횡단 표면 위로 자동 안내 차량을 이동시키는 횡단 표면에서 차량 횡단에 영향을 미치는 구동 섹션;a drive section coupled to a frame having running wheels that support a vehicle on the crossing surface, the driving wheels effecting vehicle crossing on the crossing surface to move an automatically guided vehicle over the crossing surface within the facility;

저장 어레이 내의 차량의 페이로드 홀드 및 페이로드의 저장 위치로 페이로드를 전송하도록 구성된 프레임에 결합된 페이로드 핸들러; a payload handler coupled to the frame configured to hold the payload of the vehicle within the storage array and transfer the payload to a storage location of the payload;

차량과 운영자의 협업을 위해 프레임에 연결된 보조 센서 시스템은, 적어도 차량 자세를 구현하는 감각 데이터와 설비의 차량에 의한 자동 네비게이션을 위한 위치 정보를 수집하도록 구성된 차량 자율 네비게이션/조작 센서 시스템을 보조하고,An auxiliary sensor system connected to the frame for collaboration between vehicle and operator assists a vehicle autonomous navigation/manipulation sensor system configured to collect at least sensory data embodying vehicle attitude and location information for automatic navigation by vehicles of the installation,

상기 보조 센서 시스템은, 적어도 부분적으로, 상기 적어도 하나의 카메라가 상기 설비의 다른 위치에 있는 차량과 함께 상기 설비의 적어도 일부 내에서 물체 및/또는 공간 특징을 알려주는 이미지 데이터를 캡처하도록 배치된 적어도 하나의 카메라를 구비하는 비전 시스템이고, The auxiliary sensor system may, at least in part, be configured such that the at least one camera is arranged to capture image data indicative of objects and/or spatial features within at least a portion of the facility along with vehicles at other locations of the facility. It is a vision system equipped with one camera,

상기 프레임에 연결되고, 상기 보조 센서 시스템에 통신 가능하게 결합되어 상기 적어도 하나의 카메라의 영상 데이터로부터 상기 정보를 등록하고, 상기 컨트롤러는 상기 정보로부터 상기 적어도 하나의 물체 또는 공간 특징의 미리 결정된 물리적 특성의 존재를 결정하고, 이에 응답하여 상기 차량에 대한 운영자 명령을 수신하도록 배치된 협업 차량 상태로 차량을 선택적으로 재구성하여 차량 작동을 지속하도록 하는 것을 특징으로 한다.coupled to the frame and communicatively coupled to the auxiliary sensor system to register the information from image data of the at least one camera, wherein the controller determines a predetermined physical characteristic of the at least one object or spatial feature from the information. determining the presence of and, in response, selectively reconfiguring the vehicle into a cooperative vehicle state arranged to receive operator commands for the vehicle to continue vehicle operation.

개시된 실시예의 하나 이상의 측면에 따라, 미리 결정된 물리적 특성은 적어도 하나의 물체 또는 공간 특징이 횡방향 표면, 횡방향 표면을 가로질러 또는 차량의 공간을 통해 차량 횡단 경로 또는 횡단 표면을 횡단하는 다른 차량의 적어도 일부에 걸쳐 연장된다.In accordance with one or more aspects of the disclosed embodiments, the predetermined physical characteristics are such that at least one object or spatial feature is characterized by a lateral surface, a vehicle crossing path across the lateral surface, or through the space of the vehicle, or that of another vehicle crossing the traversing surface. extends over at least part of it.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 차량이 통과하는 시설을 적어도 부분적으로 정의하는 미리 결정된 특징의 참조 표현으로 프로그래밍된다.According to one or more aspects of the disclosed embodiments, a controller is programmed with a reference representation of predetermined characteristics that at least partially define a facility through which a vehicle passes.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 캡처된 이미지 데이터를 등록하고 그로부터 미리 결정된 물리적 특성을 나타내는 적어도 하나의 물체 또는 공간 특징의 적어도 하나의 이미지를 생성하도록 구성된다.According to one or more aspects of the disclosed embodiments, the controller is configured to register captured image data and generate therefrom at least one image of at least one object or spatial feature representing predetermined physical characteristics.

개시된 실시예의 하나 이상의 측면에 따라, 적어도 하나의 이미지는 참조 표현의 미리 결정된 특징들의 하나 이상의 참조 특징들과 비교를 제공하도록 적어도 하나의 물체 또는 공간 특징의 가상 표현으로서 포맷된다.In accordance with one or more aspects of the disclosed embodiments, the at least one image is formatted as a virtual representation of at least one object or spatial feature to provide comparison with one or more reference features of predetermined features of the reference representation.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 가상 표현과 참조 표현 사이의 비교에 기초하여 물체 또는 공간 특징의 사전 결정된 물리적 특성의 존재를 식별하고, 미리 설정된 물리적 특성을 기반으로 하고, 비교를 통해 결정된 물체의 위치나 공간적 특징을 기반으로 미리 설정된 궤적에서 차량이 정지하도록 명령한다.According to one or more aspects of the disclosed embodiments, the controller may identify the presence of a predetermined physical characteristic of an object or spatial feature based on a comparison between the virtual representation and the reference representation, and based on the preset physical characteristic, determine the presence of a predetermined physical characteristic of the object or spatial feature based on the comparison between the virtual representation and the reference representation. The vehicle is commanded to stop on a preset trajectory based on the location or spatial characteristics of the object.

개시된 실시예의 하나 이상의 측면에 따라, 미리 결정된 궤적에서의 정지 위치는 적어도 하나의 카메라의 시야 내에서 물체 또는 공간 참조를 유지하고 미리 결정된 물리적 특성의 지속적인 이미징을 수행하고, 교통 장애물, 회피할 영역, 또는 우회 영역 중 하나 이상의 다른 차량에 신호를 개시한다.According to one or more aspects of the disclosed embodiments, the stopping position on the predetermined trajectory maintains an object or spatial reference within the field of view of the at least one camera and performs continuous imaging of the predetermined physical characteristics, such as traffic obstacles, areas to avoid, etc. or initiate a signal to one or more other vehicles in the detour area.

개시된 실시예의 하나 이상의 측면에 따라, 미리 결정된 물리적 특성은 보정되고 차량에 대해 미리 결정된 관계를 갖는 적어도 하나의 카메라의 기준 프레임 내 및 적어도 하나의 카메라의 기준 프레임 내의 물체 자세로부터 물체의 위치를 결정함으로써, 컨트롤러에 의해 결정되는, 미리 결정된 물리적 특성의 존재를 결정한다.According to one or more aspects of the disclosed embodiments, the predetermined physical characteristics are calibrated and by determining a position of the object within a frame of reference of at least one camera having a predetermined relationship to the vehicle and from an object pose within the frame of reference of the at least one camera. , which determines the presence of predetermined physical properties, which are determined by the controller.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는, 존재의 식별 및 자율 상태로부터 협업 차량 상태로의 전환이, 컨트롤러가 차량의 오퍼레이터 협업 동작을 위한 오퍼레이터 인터페이스로의 전송 통신 이미지, 미리 결정된 물리적 특성의 존재의 식별을 개시하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller may be configured to: identify the presence and transition from an autonomous state to a collaborative vehicle state, where the controller transmits communication images to an operator interface for operator collaborative operation of the vehicle, the presence of predetermined physical characteristics; It is configured to initiate identification.

개시된 실시예의 하나 이상의 측면에 따라, 제어기는 궤적을 따른 자율 유도 차량의 움직임이 물체들 및/또는 공간 특징부들의 위치와 조정되는 미리 결정된 시간 기간 내에 자율 유도 차량을 제로 속도로 가져오는 궤적을 자율 유도 차량에 적용하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller can autonomously create a trajectory that brings the autonomous guided vehicle to zero speed within a predetermined time period in which the movement of the autonomous guided vehicle along the trajectory is coordinated with the positions of objects and/or spatial features. It is configured to be applied to guided vehicles.

개시된 실시예의 하나 이상의 측면에 따르면, 물체 및/또는 공간적 특징을 알려주는 이미지 데이터의 캡처는 차량의 페이로드 홀드 또는 저장 어레이의 저장 위치로/로부터 페이로드를 전송하는 동안 기회를 가진다.According to one or more aspects of the disclosed embodiments, the capture of image data indicative of object and/or spatial characteristics is an opportunity during payload hold in a vehicle or while transferring the payload to/from a storage location in a storage array.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 하나 이상의 미리 결정된 페이로드 자동 전송 작업을 수행하는 차량과 관련된 시설의 다른 위치로 차량에 명령을 내리도록 프로그램되어 있으며, 여기서 하나 이상의 미리 결정된 페이로드 자율 전송 작업은 적어도 하나의 카메라가 서로 다른 위치에서 본 캡처 이미지 데이터와는 별개의 별개 작업이다.According to one or more aspects of the disclosed embodiments, a controller is programmed to command a vehicle to another location in a facility associated with the vehicle to perform an autonomous transfer of one or more predetermined payloads, wherein the controller performs an autonomous transfer of one or more predetermined payloads. A task is a separate task that captures image data viewed from different locations by at least one camera.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 적어도 하나의 물체 또는 공간 특징의 미리 결정된 물리적 특성의 존재의 결정이 적어도 부분적으로 일치하지만, 하나 이상의 미리 결정된 페이로드 자동 전송 태스크들 각각에 영향을 미치는 차량 액션들에 대한 보충적이고 주변적인 것이 되도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller determines the presence of a predetermined physical characteristic of at least one object or spatial feature, at least partially consistent with the vehicle, affecting each of one or more predetermined payload automatic transfer tasks. It is structured to be complementary and peripheral to the actions.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 적어도 하나의 물체 또는 공간 특징의 미리 결정된 물리적 특성의 존재의 결정이, 하나 이상의 미리 결정된 페이로드 자동 전송 태스크들 각각에 영향을 미치는 차량 액션들에 기회주의적이 되도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller may determine that the presence of a predetermined physical characteristic of at least one object or spatial feature opportunistically determines vehicle actions that affect each of the one or more predetermined payload automatic transfer tasks. It is configured to do this.

개시된 실시예의 하나 이상의 측면에 따르면, 하나 이상의 미리 결정된 페이로드 자동 전송 작업 중 적어도 하나는 서로 다른 위치 중 적어도 하나에서 수행된다.According to one or more aspects of the disclosed embodiments, at least one of the one or more predetermined automatic payload transfer operations is performed at at least one of the different locations.

개시된 실시예의 하나 이상의 측면에 따르면, 협력 차량 상태는 하나 이상의 미리 결정된 페이로드 자동 전송 작업 각각에 영향을 미치는 차량의 자율 상태를 보조한다.According to one or more aspects of the disclosed embodiments, the cooperative vehicle state assists the autonomous state of the vehicle in influencing each of one or more predetermined autonomous payload transfer tasks.

개시된 실시예의 하나 이상의 측면에 따르면, 방법은 다음을 포함한다:According to one or more aspects of the disclosed embodiments, the method includes:

다음을 갖춘 자율 가이드 차량을 제공한다:We provide self-guided vehicles equipped with:

페이로드 홀드를 갖는 프레임;Frame with payload hold;

횡단 표면에서 차량을 지지하는 주행 휠을 갖는 프레임에 결합되고, 상기 주행 휠은 시설 내 횡단 표면 위로 차량을 이동시키는 횡단 표면에서 차량 횡단에 영향을 미치는 구동 섹션;a drive section coupled to a frame having running wheels that support a vehicle on the crossing surface, the driving wheels effecting vehicle crossing on the crossing surface to move the vehicle over the crossing surface within the facility;

저장 어레이에서 차량의 페이로드 홀드와 페이로드의 저장 위치 사이로 페이로드를 전송하도록 구성된 프레임에 연결된 페이로드 핸들러; a payload handler coupled to the frame configured to transfer the payload between the vehicle's payload hold and a storage location for the payload in the storage array;

차량 및 운영자의 협업을 위해 프레임에 연결된 보조 센서 시스템을 이용하여, 적어도 하나의 카메라가 시설 내의 서로 다른 위치에 있는 차량과 함께 보는 시설의 적어도 일부 내의 물체 및/또는 공간 특징을 알리는 이미지 데이터를 생성하는 단계; 및 상기 보조 센서 시스템은 적어도 부분적으로, 이미지 데이터를 캡처하도록 배치된 적어도 하나의 카메라를 포함하는 비전 시스템이고, 상기 보조 센서 시스템은 적어도 부분적으로, 상기 시설의 차량에 의한 자동 네비게이션을 위한 차량 자세 및 위치 정보를 구현하는 검출 데이터를 수집하도록 구성된 차량 자율 네비게이션/작동 센서 시스템;을 포함하고, Using an auxiliary sensor system coupled to the frame for vehicle and operator collaboration, at least one camera generates image data informing objects and/or spatial features within at least a portion of the facility as viewed with vehicles at different locations within the facility. steps; and the auxiliary sensor system is, at least in part, a vision system comprising at least one camera arranged to capture image data, and the auxiliary sensor system is at least in part a vehicle attitude and A vehicle autonomous navigation/actuation sensor system configured to collect detection data embodying location information;

프레임에 연결되고 보조 센서 시스템에 통신 가능하게 결합된 컨트롤러에 등록하고, 적어도 하나의 카메라의 이미지 데이터로부터의 정보를 등록하는 단계; 및registering with a controller coupled to the frame and communicatively coupled to the auxiliary sensor system, and registering information from image data of the at least one camera; and

컨트롤러를 이용하여, 상기 정보로부터, 적어도 하나의 물체 또는 공간 특징의 미리 결정된 물리적 특성의 존재를 판단하고, 이에 응답하여, 차량을 자율 상태로부터 차량에 대한 운영자 명령을 수신하도록 배치된 협업 차량 상태로 선택적으로 재구성하여 차량 작동을 계속 효과적으로 유지하는 단계를 포함한다.Using the controller, determine from the information the presence of a predetermined physical characteristic of at least one object or spatial feature, and in response thereto, move the vehicle from an autonomous state to a collaborative vehicle state arranged to receive operator commands for the vehicle. and selectively reconfiguring the vehicle to continue to operate effectively.

개시된 실시예의 하나 이상의 측면에 따라, 미리 결정된 물리적 특성은 적어도 하나의 물체 또는 공간 특징이 횡단 표면, 횡단 표면을 가로질러 또는 차량의 공간을 통해 차량 횡단 경로 또는 횡단 표면을 횡단하는 다른 차량의 적어도 일부에 걸쳐 연장된다.In accordance with one or more aspects of the disclosed embodiments, the predetermined physical characteristic is at least one object or spatial feature that determines whether at least one object or spatial feature is present in a vehicle crossing path across the crossing surface, across the crossing surface, or through the space of the vehicle, or at least a portion of another vehicle crossing the crossing surface. extends across.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 차량이 통과하는 시설을 적어도 부분적으로 정의하는 미리 결정된 특징의 참조 표현으로 프로그래밍된다.According to one or more aspects of the disclosed embodiments, a controller is programmed with a reference representation of predetermined characteristics that at least partially define a facility through which a vehicle passes.

개시된 실시예의 하나 이상의 측면에 따르면, 방법은 등록된 캡처 이미지 데이터로부터 미리 결정된 물리적 특성을 보여주는 적어도 하나의 물체 또는 공간 특징의 적어도 하나의 이미지를 생성하는 단계를 더 포함한다.According to one or more aspects of the disclosed embodiments, the method further includes generating at least one image of at least one object or spatial feature showing predetermined physical characteristics from registered captured image data.

개시된 실시예의 하나 이상의 측면에 따라, 상기 적어도 하나의 이미지는 상기 적어도 하나의 물체 또는 공간 특징부의 가상 표현으로서 포맷되어, 상기 가상 표현을 상기 참조 표현의 미리 결정된 특징부의 하나 이상의 참조 특징부와 비교하는 단계를 더 포함한다.In accordance with one or more aspects of the disclosed embodiments, the at least one image is formatted as a virtual representation of the at least one object or spatial feature, comparing the virtual representation to one or more reference features of the predetermined feature of the reference representation. Includes more steps.

개시된 실시예의 하나 이상의 측면에 따른 방법은 가상 표현과 참조 표현 사이의 비교에 기초하여, 물체 또는 공간 특징의 미리 결정된 물리적 특징의 존재를 제어기로 식별하고, 미리 결정된 물리적 특징의 치수를 결정하고, 비교로부터 결정된 물체 또는 공간 특징의 위치에 기초하여 미리 결정된 궤적에서 차량이 정지하도록 명령하는 단계를 더 포함한다.A method according to one or more aspects of the disclosed embodiments includes, based on a comparison between a virtual representation and a reference representation, identifying with a controller the presence of a predetermined physical feature of an object or spatial feature, determining dimensions of the predetermined physical feature, and making the comparison. and commanding the vehicle to stop on a predetermined trajectory based on the location of the object or spatial feature determined from.

개시된 실시예의 하나 이상의 측면에 따른 방법은 차량이 미리 결정된 궤적 내의 정지 위치에 있는 상태에서, 적어도 하나의 카메라의 시야 내에 물체 또는 공간 참조를 유지하고 미리 결정된 물리적 특성의 계속된 이미징을 수행하여, 교통 장애물, 회피할 영역, 또는 우회 영역 중 적어도 하나 이상의 다른 차량에 신호를 개시하는 단계를 더 포함한다.A method according to one or more aspects of the disclosed embodiments includes maintaining an object or spatial reference within the field of view of at least one camera and performing continued imaging of predetermined physical characteristics, with the vehicle at a resting position within a predetermined trajectory, It further includes initiating a signal to another vehicle in at least one of an obstacle, an area to be avoided, or a detour area.

개시된 실시예의 하나 이상의 측면에 따라, 미리 결정된 물리적 특성은 캘리브레이션되고 차량에 대해 미리 결정된 관계를 갖는 적어도 하나의 카메라의 기준 프레임 내의 물체의 위치를 결정하고, 적어도 하나의 카메라의 기준 프레임 내의 물체 자세로부터 물체의 미리 결정된 물리적 특성의 존재를 결정함으로써 컨트롤러에 의해 결정된다.According to one or more aspects of the disclosed embodiments, the predetermined physical characteristics are calibrated and determine a position of the object within a frame of reference of at least one camera having a predetermined relationship to the vehicle, and determine a position of the object within the frame of reference of the at least one camera. The decision is made by the controller by determining the presence of predetermined physical characteristics of the object.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는, 적어도 하나의 물체 또는 공간 특징의 미리 결정된 물리적 특성의 존재의 식별 및 자율 상태로부터 협업 차량 상태로 전환되도록, 차량의 운영자 협업 동작을 위한 운영자 인터페이스로의 전송 통신 이미지, 미리 결정된 물리적 특성의 존재의 식별을 개시하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, a controller may be configured to: identify the presence of a predetermined physical characteristic of at least one object or spatial feature and transfer information from an autonomous state to a collaborative vehicle state to an operator interface for operator collaborative operation of the vehicle; The transmitted communication image is configured to initiate identification of the presence of predetermined physical characteristics.

개시된 실시예의 하나 이상의 측면에 따른 방법은, 컨트롤러와 함께, 미리 결정된 시간 기간 내에 자율 유도 차량을 제로 속도로 가져오는 자율 유도 차량에 궤적을 적용하는 단계를 더 포함하고, 여기서 궤적을 따른 자율 유도 차량의 움직임은 물체들 및/또는 공간 특징부들의 위치와 조정된다.A method according to one or more aspects of the disclosed embodiments further includes applying, with a controller, a trajectory to the autonomous guided vehicle to bring the autonomous guided vehicle to zero speed within a predetermined time period, wherein the autonomous guided vehicle follows the trajectory. The movement of is coordinated with the positions of objects and/or spatial features.

개시된 실시예의 하나 이상의 측면에 따르면, 물체 및/또는 공간적 특징을 알려주는 이미지 데이터의 캡처는 차량의 페이로드 홀드 또는 저장 어레이의 저장 위치로/저장 위치로부터 페이로드를 전송하는 동안 기회를 가진다.According to one or more aspects of the disclosed embodiments, the capture of image data indicative of object and/or spatial features is an opportunity during payload hold of the vehicle or transfer of the payload to/from a storage location in a storage array.

개시된 실시예의 하나 이상의 측면에 따르면, 자율 가이드 차량은:According to one or more aspects of the disclosed embodiments, an autonomous guided vehicle:

전원 공급 장치가 장착된 차량 섀시와 섀시에 연결되고 전원 공급 장치에 의해 각각 전원이 공급되는 전원 섹션은 다음을 포함한다.The vehicle chassis on which the power supply is mounted and the power section connected to the chassis and each powered by the power supply include:

차량 섀시를 지지하고 자율 안내를 받는 시설의 횡방향 표면에서 자율 가이드 차량을 횡단하도록 배치된 모터 주행 휠을 갖춘 구동 섹션;a drive section supporting the vehicle chassis and having motorized running wheels arranged to traverse the autonomously guided vehicle on the transverse surface of the autonomously guided facility;

적어도 하나의 페이로드 핸들링 액츄에이터의 작동이 페이로드 베드, 차량 섀시 및 시설 내 저장소로의 페이로드 전달에 영향을 미치도록 구성된 적어도 하나의 페이로드 핸들링 액츄에이터를 갖는 페이로드 핸들링 섹션;a payload handling section having at least one payload handling actuator configured such that operation of the at least one payload handling actuator affects payload delivery to the payload bed, vehicle chassis, and storage within the facility;

자율 자세 및 네비게이션 센서, 페이로드 핸들링 센서 및 적어도 하나의 주변 모터 중 적어도 하나를 포함하고, 상기 적어도 하나의 주변 모터는 상기 구동 섹션의 모터들 각각 및 상기 페이로드 핸들링부의 각 액츄에이터와 별개이고 구별되는, 주변 전자 부품; 및At least one of an autonomous attitude and navigation sensor, a payload handling sensor, and at least one peripheral motor, wherein the at least one peripheral motor is separate and distinct from each of the motors of the drive section and each actuator of the payload handling section. , peripheral electronic components; and

자율 가이드 차량의 각 자율 동작을 효과적으로 수행하기 위해 구동 섹션, 페이로드 핸들링부 및 주변 섹션에 각각 통신 가능하게 결합되는 컨트롤러; 및 상기 컨트롤러는 상기 전원의 충전 레벨을 모니터링하기 위해 상기 전원에 통신 가능하게 연결되는 포괄적인 전원 관리 섹션;를 포함하고, a controller communicatively coupled to the drive section, payload handling section, and peripheral section, respectively, to effectively perform each autonomous operation of the autonomous guided vehicle; and a comprehensive power management section, wherein the controller is communicatively coupled to the power source to monitor the charge level of the power source,

상기 종합 전원 관리 섹션은, 상기 전원으로부터 상기 구동 섹션, 상기 페이로드 핸들링 섹션 및 상기 주변 전자 장치 섹션의 각 분기 회로에 연결되어, 상기 전원으로부터 상기 구동 섹션, 상기 페이로드 핸들링 섹션 및 상기 주변 전자 장치 섹션의 각 분기 회로에 전원을 공급받는 것을 특징으로 한다.The comprehensive power management section is connected to each branch circuit of the driving section, the payload handling section, and the peripheral electronic device section from the power supply, and is connected to the power supply to the driving section, the payload handling section, and the peripheral electronic device section. It is characterized in that power is supplied to each branch circuit of the section.

개시된 실시예의 하나 이상의 측면에 따른 종합적인 전원 관리 섹션은 다른 분기 회로에 대한 각 분기 회로의 수요 충전 레벨 및 전원 공급 장치로부터 이용 가능한 충전 레벨에 기초하여 각 분기 회로를 온 또는 오프로 전환하는 각 분기 회로의 수요 충전 레벨을 미리 결정된 패턴으로 관리하도록 구성된다.A comprehensive power management section according to one or more aspects of the disclosed embodiments includes each branch switching each branch circuit on or off based on the demand charge level of each branch circuit with respect to the other branch circuits and the charge level available from the power supply. It is configured to manage the demand charge level of the circuit in a predetermined pattern.

개시된 실시예의 하나 이상의 측면에 따라, 소정의 패턴은 전원 공급기로부터 이용가능한 전하 레벨의 감소를 가지는 분기 회로들을 스위치 오프하도록 배열되어, 컨트롤러로 향하는 전원 공급 장치로부터 이용가능한 전하 레벨을 최대화한다.In accordance with one or more aspects of the disclosed embodiments, a pattern is arranged to switch off branch circuits with a reduction in the level of charge available from the power supply, thereby maximizing the level of charge available from the power supply to the controller.

개시된 실시형태의 하나 이상의 측면에 따라, 소정의 패턴은 컨트롤러에 지시되는 가용 전하 레벨이 전원 공급기의 가용 전하 레벨에 기초하여 최대 시간 동안 컨트롤러의 요구 전하 레벨과 동일하거나 초과하도록 전원 공급 장치로부터 가용 전하 레벨의 감소를 갖는 분기 회로들을 스위치 오프하도록 배열된다.In accordance with one or more aspects of the disclosed embodiments, the predetermined pattern is to change the available charge from the power supply such that the available charge level indicated to the controller equals or exceeds the controller's desired charge level for a maximum period of time based on the available charge level of the power supply. It is arranged to switch off the branch circuits with a decrease in level.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 다음 중 적어도 하나를 갖는다: According to one or more aspects of the disclosed embodiments, the controller has at least one of the following:

자율 가이드 차량의 현재 및 예측 상태, 자세 및 위치를 결정하고 설명하는 과거 및 현재의 자율 가이드 차량 상태와 자세 네비게이션 정보를 휘발성 메모리에 등록하고 유지하도록 구성된 자율 네비게이션 제어 섹션; 및 an autonomous navigation control section configured to register and maintain past and present autonomous guided vehicle state and attitude navigation information in volatile memory to determine and describe the current and predicted state, attitude and position of the autonomous guided vehicle; and

휘발성 메모리에 현재 페이로드 아이덴티티, 상태 및 자세 정보(이력 및 현재)를 등록하고 유지하도록 구성된 자동 페이로드 처리 제어 섹션; an automatic payload processing control section configured to register and maintain current payload identity, state, and attitude information (historical and current) in volatile memory;

상기 컨트롤러는, 상기 컨트롤러에 대한 전원 공급으로부터 지시되는 가용 전하 레벨의 임박한 감소의 종합 전원 관리 구간으로부터의 지시에 따라, 상기 컨트롤러의 요구 레벨 미만으로, 상기 컨트롤러는, 상기 자율 가이드 차량의 상태 및 자세 탐색 정보 및 상기 대응하는 컨트롤러 구간의 각각의 레지스트리 및 메모리에 보유된 페이로드 아이덴티티, 상태 및 자세 정보 중 적어도 하나를, 상기 컨트롤러의 재부팅 시 이용 가능한 초기화 파일로 구성한다.The controller, in accordance with an indication from a comprehensive power management section of an impending decrease in the available charge level indicated by the power supply to the controller, below the required level of the controller, the controller determines the state and attitude of the autonomous guided vehicle. At least one of navigation information and payload identity, status, and attitude information held in each registry and memory of the corresponding controller section is configured as an initialization file that can be used when rebooting the controller.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는, 컨트롤러에 대한 전원 공급으로부터 지시되는, 가용 전하 레벨의 임박한 감소의 포괄적인 전원 관리 섹션으로부터의 지시에 따라, 컨트롤러가 동작 정지 및 하이버네이션에 진입하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller is configured to cause the controller to cease operation and enter hibernation upon instructions from the comprehensive power management section of an impending decrease in available charge level, as indicated by a power supply to the controller. .

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 전원 공급 장치에서 드라이브 섹션의 분기 회로로 향하는 사용 가능한 충전 레벨의 임박한 감소를 포괄적인 전원 관리 섹션으로부터 표시할 때, 상기 컨트롤러는 미리 정해진 보조 경로 및 보조 궤적을 따라 (시설 내 미리 정해진 자율 운반차 보조 정지 위치까지) 자율 가이드 차량을 주행하도록 구동 섹션에 명령하도록 구성된다.According to one or more aspects of the disclosed embodiments, when the controller indicates from the comprehensive power management section an impending decrease in the available charge level from the power supply to the branch circuit of the drive section, the controller determines the predetermined secondary path and secondary trajectory. It is configured to command the drive section to drive the autonomous guided vehicle along (to a predetermined autonomous guided vehicle assistance stopping location within the facility).

개시된 실시예의 하나 이상의 측면에 따라, 제어기는, 전원 공급으로부터 페이로드 핸들링 섹션의 분기 회로로 지시되는, 가용 전하 레벨의 임박한 감소의 포괄적인 전원 관리 섹션으로부터의 지시 시에, 컨트롤러는 페이로드 핸들링 액츄에이터, 및 그 위의 임의의 페이로드를 페이로드 베드 내의 미리 결정된 안전한 페이로드 위치로 이동시키도록 페이로드 핸들링 섹션을 명령하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller is configured to: upon an indication from the comprehensive power management section of an impending decrease in the available charge level directed from a power supply to a branch circuit of the payload handling section, the controller configures the payload handling actuator to: , and instruct the payload handling section to move any payload thereon to a predetermined safe payload location within the payload bed.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 다음 중 적어도 하나를 포함한다: According to one or more aspects of the disclosed embodiments, the controller includes at least one of the following:

차량 상태 모니터, vehicle health monitor,

드라이브 섹션 상태 모니터, drive section health monitor,

페이로드 처리 섹션 상태 모니터, 및 payload processing section status monitor, and

주변 전자 장치 섹션 상태 모니터; 그리고 Peripheral electronics section health monitor; and

상태 등록 섹션; 그리고 State registration section; and

상기 컨트롤러는, 상기 컨트롤러에 대한 전원 공급으로부터 상기 컨트롤러의 수요 이하로 지시되는 가용 충전 레벨의 임박한 감소의 종합 전원 관리 구간으로부터의 지시에 따라, 상기 컨트롤러의 재부팅 시에 상기 차량 상태 모니터, 상기 주행 구간 상태 모니터, 상기 페이로드 핸들링 구간 상태 모니터 및 상기 주변 전자 구간 상태 모니터 중 적어도 하나로부터 상기 저장된 상태 정보를 상기 컨트롤러의 초기화 파일로 구성한다.The controller, upon reboot of the controller, monitors the vehicle status, the driving section, upon indication from the comprehensive power management section of an impending decrease in the available charge level indicated by the power supply to the controller below the demand of the controller. The stored status information from at least one of a status monitor, the payload handling section status monitor, and the peripheral electronic section status monitor is configured as an initialization file of the controller.

개시된 실시예의 하나 이상의 측면에 따르면, 전원 공급 장치는 울트라-커패시터이거나, 충전 레벨은 전압 레벨이다.According to one or more aspects of the disclosed embodiments, the power supply is an ultra-capacitor or the charge level is a voltage level.

개시된 실시예의 하나 이상의 측면에 따르면 자율 가이드 차량 전원 관리를 위한 방법이 제공된다. 이 방법은 다음을 포함한다:According to one or more aspects of the disclosed embodiments, a method for autonomous guided vehicle power management is provided. This method includes:

전원 공급 장치가 장착된 차량 섀시와 섀시에 연결되고 각각 전원 공급 장치에 의해 전원이 공급되는 동력 섹션을 갖춘 자율 가이드 차량을 제공하며, 동력 섹션은 다음을 포함한다.It provides an autonomous guided vehicle having a vehicle chassis equipped with a power supply and a power section connected to the chassis and each powered by a power supply, the power section comprising:

차량 섀시를 지지하고 자율 안내를 받는 시설의 횡방향 표면에서 자율 가이드 차량을 횡단하도록 배치된 모터 주행 휠을 갖춘 구동 섹션;a drive section supporting the vehicle chassis and having motorized running wheels arranged to traverse the autonomously guided vehicle on the transverse surface of the autonomously guided facility;

적어도 하나의 페이로드 처리 액츄에이터의 작동이 페이로드 베드, 차량 섀시 및 시설 내 저장소로의 페이로드 전달에 영향을 미치도록 구성된 적어도 하나의 페이로드 처리 액츄에이터를 갖는 페이로드 처리 섹션;a payload handling section having at least one payload handling actuator configured such that operation of the at least one payload handling actuator affects payload delivery to the payload bed, vehicle chassis, and storage within the facility;

자율 자세 및 네비게이션 센서, 페이로드 핸들링 센서 및 적어도 하나의 주변 모터 중 적어도 하나를 포함하고, 상기 적어도 하나의 주변 모터는 상기 구동 섹션의 모터들 각각 및 상기 페이로드 핸들링부의 각 액츄에이터와 별개이고 구별되는, 주변 전자 부품; 및At least one of an autonomous attitude and navigation sensor, a payload handling sensor, and at least one peripheral motor, wherein the at least one peripheral motor is separate and distinct from each of the motors of the drive section and each actuator of the payload handling section. , peripheral electronic components; and

구동 섹션, 페이로드 핸들링 섹션 및 주변 섹션에 각각 통신 가능하게 결합된 컨트롤러를 사용하여 자율 가이드 차량의 각각의 자율 작동을 수행하는 단계; 및performing respective autonomous operations of the autonomous guided vehicle using a controller communicatively coupled to each of the drive section, payload handling section, and peripheral section; and

컨트롤러의 포괄적인 전원 관리 섹션을 통해 전원 공급 장치의 충전 수준을 모니터링하고, 상기 포괄적인 전원 관리 섹션은 구동 섹션, 페이로드 핸들링 섹션, 주변 전자 섹션의 각각의 분기 회로에 연결되어 있고, 각각은 전원 공급 장치로부터 구동 섹션, 페이로드 핸들링 섹션, 그리고 주변 전자 섹션에 전원을 공급하고 상기 포괄적인 전력 관리 섹션은 각 분기 회로의 수요 수준에 따른 전원 공급 장치에서 사용 가능한 충전 수준을 기반으로 가지 회로의 전원 소비를 관리하는 단계를 포함한다.The charge level of the power supply is monitored through a comprehensive power management section of the controller, said comprehensive power management section being connected to each branch circuit of the drive section, payload handling section and peripheral electronics section, each of which is connected to a power supply section. Provides power to the drive section, payload handling section, and peripheral electronics section from the supply unit, and the comprehensive power management section provides power to the branch circuits based on the level of charge available from the power supply depending on the demand level of each branch circuit. It includes steps to manage consumption.

개시된 실시예의 하나 이상의 측면에 따른 종합적인 전원 관리 섹션은 다른 분기 회로에 대한 각 분기 회로의 수요 충전 레벨 및 전원 공급 장치로부터 이용 가능한 충전 레벨에 기초하여 각 분기 회로를 온 또는 오프로 전환하는 각 분기 회로의 수요 충전 레벨을 미리 결정된 패턴으로 관리한다.A comprehensive power management section according to one or more aspects of the disclosed embodiments includes each branch switching each branch circuit on or off based on the demand charge level of each branch circuit with respect to the other branch circuits and the charge level available from the power supply. The demand charge level of the circuit is managed in a predetermined pattern.

개시된 실시예의 하나 이상의 측면에 따라, 소정의 패턴은 전원 공급 장치로부터 이용가능한 전하 레벨의 감소를 가지는 분기 회로들을 스위치 오프하도록 배열되어, 컨트롤러로 향하는 전원 공급 장치로부터 이용가능한 전하 레벨을 최대화한다.In accordance with one or more aspects of the disclosed embodiments, a pattern is arranged to switch off branch circuits with a reduction in the level of charge available from the power supply, thereby maximizing the level of charge available from the power supply to the controller.

개시된 실시예의 하나 이상의 측면에 따르면, 미리 결정된 패턴은 전원 공급 장치로부터의 사용 가능한 충전 레벨이 감소하여 분기 회로를 끄도록 배열되어 컨트롤러로 향하는 사용 가능한 충전 레벨은 다음과 같거나 전원 공급 장치의 사용 가능한 충전 수준을 기준으로 최대 시간 동안 컨트롤러의 수요 충전 수준을 초과한다.According to one or more aspects of the disclosed embodiments, the predetermined pattern is arranged to turn off the branch circuit as the available charge level from the power supply decreases such that the available charge level to the controller is equal to or greater than the available charge level from the power supply. Based on the charge level, the demand charge level of the controller is exceeded for a maximum period of time.

개시된 실시예의 하나 이상의 측면에 따르면, 방법은 다음 중 적어도 하나를 더 포함한다: According to one or more aspects of the disclosed embodiments, the method further includes at least one of the following:

컨트롤러의 자율 네비게이션 제어부를 이용하여, 휘발성 메모리 자율 유도 차량 상태 및 자세 네비게이션 정보(역사 및 현재)를 등록 및 유지하고, 자율 유도 차량의 현재 및 예측 상태, 자세 및 위치를 결정적으로 기술하는 단계; 및 Using the autonomous navigation control portion of the controller, registering and maintaining volatile memory autonomous guided vehicle state and attitude navigation information (historical and current) and conclusively describing the current and predicted state, attitude, and position of the autonomous guided vehicle; and

컨트롤러의 자동 페이로드 처리 제어 섹션을 사용하여 휘발성 메모리에 현재 페이로드 아이덴티티, 상태 및 자세 정보(이력 및 현재)를 등록하고 유지하는 단계;를 포함하고 registering and maintaining current payload identity, state and attitude information (historical and current) in volatile memory using the automatic payload processing control section of the controller;

상기 컨트롤러는, 상기 컨트롤러에 대한 전원 공급으로부터 상기 컨트롤러의 수요 수준 미만으로 지시되는 가용 충전 수준의 임박한 감소를 종합적인 전원 관리 구간으로부터 지시받으면, 상기 컨트롤러는, 상기 자율 가이드 차량 상태 및 자세 네비게이션 정보 및 상기 대응하는 컨트롤러 섹션의 각각의 레지스트리 및 메모리에 보유된 페이로드 아이덴티티, 상태 및 자세 정보 중 적어도 하나를 상기 컨트롤러의 재부팅 시 이용 가능한 초기화 파일로 구성한다.When the controller receives an indication from the comprehensive power management section of an impending decrease in the available charge level indicated by the power supply to the controller below the demand level of the controller, the controller receives the autonomous guided vehicle status and attitude navigation information and At least one of the payload identity, status, and posture information held in each registry and memory of the corresponding controller section is configured as an initialization file that can be used when the controller is rebooted.

개시된 실시예의 하나 이상의 측면에 따르면, 전원 공급 장치에서 컨트롤러로 향하는 사용 가능한 충전 레벨의 임박한 감소를 포괄적인 전원 관리 섹션으로부터 표시할 때 컨트롤러의 요구 레벨보다 낮은 수준으로 컨트롤러는 작동 정지 및 최대 절전 모드로 들어간다.According to one or more aspects of the disclosed embodiments, when the comprehensive power management section indicates an impending decrease in the level of available charge from the power supply to the controller, to a level lower than the controller's required level, the controller suspends operation and hibernates. Go in.

가용 전하 레벨의 임박한 감소의 포괄적인 전원 관리 섹션으로부터, 전원 공급으로부터 구동 섹션의 분기 회로로의 지시시에 개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는, 자율 가이드 차량을 소정의 보조 경로 및 보조 궤적을 따라 설비 내의 소정의 자율 가이드 차량 보조 정지 위치로 네비게이션하도록 구동 섹션에 명령한다.In accordance with one or more aspects of the disclosed embodiments, upon indication from the power supply to the branch circuit of the drive section, from the comprehensive power management section of the impending decrease in the available charge level, the controller, in accordance with one or more aspects of the disclosed embodiment, directs the autonomous guided vehicle to predetermined auxiliary paths and auxiliary trajectories. Commands the drive section to navigate to a predetermined autonomous guided vehicle secondary stop location within the facility.

가용 전하 레벨의 임박한 감소의 포괄적인 전원 관리 섹션으로부터의 지시에 따라, 전원 공급으로부터 페이로드 핸들링 섹션의 분기 회로로의 지시에 따라 개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 페이로드 핸들링 액츄에이터 및 그 위의 임의의 페이로드를 페이로드 베드 내의 미리 결정된 안전한 페이로드 위치로 이동시키도록 페이로드 핸들링 섹션에 명령한다.In accordance with one or more aspects of the disclosed embodiments, the controller, in accordance with instructions from the comprehensive power management section of the impending decrease in available charge level, from the power supply to the branch circuit of the payload handling section, controls the payload handling actuator and the same. Commands the payload handling section to move any of the above payloads to a predetermined safe payload location within the payload bed.

청구항 11의 개시된 실시예 방법의 하나 이상의 측면에 따르면, According to one or more aspects of the disclosed embodiment method of claim 11,

다음 중 적어도 하나를 컨트롤러에 제공한다. Provide at least one of the following to the controller:

차량 상태 모니터, vehicle health monitor,

드라이브 섹션 상태 모니터, drive section health monitor,

페이로드 처리 섹션 상태 모니터, 및 payload processing section status monitor, and

주변 전자 장치 섹션 상태 모니터; 그리고 Peripheral electronics section health monitor; and

상태 등록 섹션; 그리고 State registration section; and

상기 컨트롤러는, 상기 컨트롤러에 대한 전원 공급으로부터 상기 컨트롤러에 대한 전원 공급으로 지시되는 가용 충전 레벨의 임박한 감소의 종합 전원 관리 섹션으로부터 상기 컨트롤러의 요구 레벨 미만으로 지시되면, 상기 컨트롤러는, 상기 차량 상태 모니터, 상기 주행 구간 상태 모니터, 상기 페이로드 핸들링 구간 상태 모니터 및 상기 주변 전자제품 구간 상태 모니터 중 적어도 하나로부터 상기 저장된 상태 정보를 상기 컨트롤러의 재부팅 시 이용 가능한 초기화 파일로 구성한다.When the controller receives an indication from the comprehensive power management section of an imminent decrease in the available charge level indicated by the power supply to the controller below the controller's required level, the controller monitors the vehicle health. , the stored status information from at least one of the driving section status monitor, the payload handling section status monitor, and the peripheral electronic product section status monitor is configured into an initialization file that can be used when the controller is rebooted.

개시된 실시예의 하나 이상의 측면에 따르면, 전원 공급 장치는 울트라-커패시터이거나, 충전 레벨은 전압 레벨이다.According to one or more aspects of the disclosed embodiments, the power supply is an ultra-capacitor or the charge level is a voltage level.

개시된 실시예의 전술한 양태 및 다른 특징은 첨부 도면과 관련하여 다음의 설명에서 설명된다.
도 1a는 개시된 실시예의 양태를 포함하는 예시적인 보관 및 회수 시스템 시설의 개략적인 블록도이다.
도 1b는 개시된 실시예의 양태를 포함하는 도 1a의 예시적인 보관 및 회수 시스템 시설의 평면도이다.
도 2는 개시된 실시예의 양태에 따른 도 1a의 예시적인 보관 및 회수 시스템 설비의 자율 안내 차량의 예시적인 사시도이다.
도 3a 및 도 3b는 개시된 실시예의 양태에 따른 도 2의 자율 안내 차량의 부분들의 예시적인 사시도이다.
도 4a는 개시된 실시예의 양태에 따른 도 2의 자율 안내 차량의 예시적인 평면도이다.
도 4b는 개시된 실시예의 양태에 따른 도 2의 자율 안내 차량의 일부의 예시적인 사시도이다.
도 4c는 개시된 실시예의 양태에 따른 도 2의 자율 안내 차량의 일부의 예시적인 사시도이다.
도 4d는 개시된 실시예의 양태에 따른 도 2의 자율 안내 차량의 예시적인 평면도이다.
도 5a, 도 5a 및 도 5c는 개시된 실시예의 양태에 따른 자세 및 위치 추정의 예시적인 예시이다.
도 6은 개시된 실시예의 양태에 따른 도 2의 자율 안내 차량의 일부에 대한 예시적인 평면도이다.
도 7a 및 도 7b는 각각 개시된 실시예의 양태에 따른 선반 불변(invariant) 전면 검출을 예시하는 케이스 유닛의 평면도 및 사시도이다.
도 8은 개시된 실시예의 양태에 따라 도 2의 자율 안내 차량의 보조 센서 시스템에 의해 캡처된 데이터의 예시적인 예시이다.
도 9a는 개시된 실시예의 양태에 따라 도 2의 자율 안내 차량의 보조 센서 시스템에 의해 캡처된 예시적인 스테레오 비전 이미지이다.
도 9b는 개시된 실시예의 양태에 따라 도 2의 자율 안내 차량의 보조 센서 시스템에 의해 캡처된 예시적인 증강 스테레오 비전 이미지이다.
도 10a는 개시된 실시예의 양태에 따라 도 2의 자율 안내 차량의 보조 센서 시스템에 의해 캡처된 예시적인 증강 이미지이다.
도 10b는 개시된 실시예의 양태에 따라 도 2의 자율 안내 차량의 보조 센서 시스템에 의해 캡처된 예시적인 증강 스테레오 비전 이미지이다.
도 11은 개시된 실시예의 양태에 따라 도 2의 자율 안내 차량의 작동 모드에 따른 센서 선택을 도시하는 예시적인 블록도이다.
도 12는 개시된 실시예의 양태에 따른 예시적인 흐름도이다.
도 13은 개시된 실시예의 양태에 따라 도 2의 자율 안내 차량에 의해 수행되는 비전 분석의 예시적인 흐름도이다.
도 14는 개시된 실시예의 양태에 따른 예시적인 흐름도이다.
도 15는 개시된 실시예의 양태에 따라 도 2의 자율 안내 차량의 보조 센서 시스템에 의해 캡처된 예시적인 이미지이다.
도 16은 개시된 실시예의 양태에 따라 도 2의 자율 안내 차량에 의해 수행되는 이미지 분석의 예시적인 흐름도이다.
도 17은 개시된 실시예의 양태에 따라 도 2의 자율 안내 차량의 보조 센서 시스템 및 운영자와 공동으로 수행되는 이미지 분석의 예시적인 흐름도이다.
도 18은 개시된 실시예의 양태에 따라 도 2의 자율 안내 차량의 보조 센서 시스템 및 운영자와 공동으로 수행되는 이미지 분석의 예시적인 흐름도이다.
도 19는 개시된 실시예의 양태에 따른 도 2의 자율 운송 차량의 일부의 예시적인 개략 블록도이다.
도 20은 개시된 실시예의 양태에 따른 도 2의 자율 안내 차량의 일부의 예시적인 개략 블록도이다.
도 21은 개시된 실시예의 양태에 따른 도 2의 자율 운송 차량에 대한 예시적인 개략적인 충전 로직 블록도이다.
도 22는 개시된 실시예의 양태에 따른 도 2의 자율 운송 차량의 예시적인 보호 회로이다.
도 23은 개시된 실시예의 양태에 따른 예시적인 흐름도이다.
도 24는 개시된 실시예의 양태에 따른 예시적인 흐름도이다.
도 25a, 도 25b 및 도 25c는 개시된 실시예의 양태에 따른 도 2의 자율 운송 차량의 제어 시스템의 예시적인 개략도를 집합적으로 도시한 도면이다.
도 26은 개시된 실시예의 양태에 따른 도 25a, 도 25b 및 도 25c의 제어 시스템의 일부에 대한 예시적인 개략도이다.
도 27은 개시된 실시예의 양태에 따른 예시적인 흐름도이다.
도 28은 개시된 실시예의 양태에 따른 예시적인 흐름도이다.
The foregoing aspects and other features of the disclosed embodiments are described in the following description in conjunction with the accompanying drawings.
1A is a schematic block diagram of an exemplary storage and retrieval system facility incorporating aspects of the disclosed embodiments.
FIG. 1B is a top view of the exemplary storage and retrieval system facility of FIG. 1A incorporating aspects of the disclosed embodiments.
FIG. 2 is an exemplary perspective view of an autonomous guided vehicle of the exemplary storage and retrieval system facility of FIG. 1A in accordance with aspects of the disclosed embodiments.
3A and 3B are exemplary perspective views of portions of the autonomous guided vehicle of FIG. 2 in accordance with aspects of the disclosed embodiments.
FIG. 4A is an example plan view of the autonomous guided vehicle of FIG. 2 in accordance with aspects of the disclosed embodiments.
FIG. 4B is an example perspective view of a portion of the autonomous guided vehicle of FIG. 2 in accordance with aspects of the disclosed embodiments.
FIG. 4C is an example perspective view of a portion of the autonomous guided vehicle of FIG. 2 in accordance with aspects of the disclosed embodiments.
FIG. 4D is an example plan view of the autonomous guided vehicle of FIG. 2 in accordance with aspects of the disclosed embodiments.
5A, 5A, and 5C are illustrative examples of attitude and position estimation according to aspects of the disclosed embodiments.
FIG. 6 is an example plan view of a portion of the autonomous guided vehicle of FIG. 2 in accordance with aspects of the disclosed embodiments.
7A and 7B are top and perspective views, respectively, of a case unit illustrating shelf invariant front detection according to aspects of the disclosed embodiments.
FIG. 8 is an illustrative illustration of data captured by the auxiliary sensor system of the autonomous guided vehicle of FIG. 2 in accordance with aspects of the disclosed embodiments.
FIG. 9A is an example stereo vision image captured by the assistive sensor system of the autonomous guided vehicle of FIG. 2 in accordance with aspects of the disclosed embodiments.
FIG. 9B is an example augmented stereo vision image captured by the assistive sensor system of the autonomous guided vehicle of FIG. 2 in accordance with aspects of the disclosed embodiments.
FIG. 10A is an example augmented image captured by the assistive sensor system of the autonomous guided vehicle of FIG. 2 in accordance with aspects of the disclosed embodiments.
FIG. 10B is an example augmented stereo vision image captured by the assistive sensor system of the autonomous guided vehicle of FIG. 2 in accordance with aspects of the disclosed embodiments.
FIG. 11 is an example block diagram illustrating sensor selection according to operating mode of the autonomous guided vehicle of FIG. 2 in accordance with aspects of the disclosed embodiments.
12 is an example flow diagram according to aspects of the disclosed embodiments.
FIG. 13 is an example flow diagram of vision analysis performed by the autonomous guided vehicle of FIG. 2 in accordance with aspects of the disclosed embodiments.
14 is an example flow diagram according to aspects of the disclosed embodiments.
FIG. 15 is an example image captured by the assistive sensor system of the autonomous guided vehicle of FIG. 2 in accordance with aspects of the disclosed embodiments.
FIG. 16 is an example flow diagram of image analysis performed by the autonomous guided vehicle of FIG. 2 in accordance with aspects of the disclosed embodiments.
FIG. 17 is an example flow diagram of image analysis performed jointly with an operator and an auxiliary sensor system of the autonomous guided vehicle of FIG. 2 in accordance with aspects of the disclosed embodiments.
FIG. 18 is an example flow diagram of image analysis performed jointly with an operator and an auxiliary sensor system of the autonomous guided vehicle of FIG. 2 in accordance with aspects of the disclosed embodiments.
FIG. 19 is an example schematic block diagram of a portion of the autonomous transportation vehicle of FIG. 2 in accordance with aspects of the disclosed embodiments.
FIG. 20 is an example schematic block diagram of a portion of the autonomous guided vehicle of FIG. 2 in accordance with aspects of the disclosed embodiments.
FIG. 21 is an example schematic charging logic block diagram for the autonomous transportation vehicle of FIG. 2 in accordance with aspects of the disclosed embodiments.
FIG. 22 is an example protection circuit for the autonomous transportation vehicle of FIG. 2 in accordance with aspects of the disclosed embodiments.
23 is an example flow diagram according to aspects of the disclosed embodiments.
Figure 24 is an example flow diagram according to aspects of the disclosed embodiments.
25A, 25B, and 25C collectively illustrate example schematics of the control system of the autonomous transportation vehicle of FIG. 2 in accordance with aspects of the disclosed embodiments.
Figure 26 is an example schematic diagram of a portion of the control system of Figures 25A, 25B, and 25C in accordance with aspects of the disclosed embodiments.
Figure 27 is an example flow diagram according to aspects of the disclosed embodiments.
Figure 28 is an example flow diagram according to aspects of the disclosed embodiments.

도 1a 및 도 1b는 개시된 실시예의 양태에 따른 예시적인 자동 보관 및 회수 시스템(100)을 예시한다. 개시된 실시예의 양태가 도면을 참조하여 설명될 것이지만, 개시된 실시예의 양태는 다양한 형태로 구현될 수 있다는 것이 이해되어야 한다. 또한, 임의의 적절한 크기, 모양 또는 유형의 요소나 재료가 사용될 수 있다.1A and 1B illustrate an example automated storage and retrieval system 100 in accordance with aspects of the disclosed embodiments. Although aspects of the disclosed embodiments will be described with reference to the drawings, it should be understood that aspects of the disclosed embodiments may be implemented in various forms. Additionally, any suitable size, shape or type of element or material may be used.

개시된 실시예의 양태는 차량 네비게이션 자세(pose) 또는 위치 및 페이로드 자세 또는 위치 중 적어도 하나의 결정에 적어도 부분적으로 영향을 미치는 물리적 특성 센서 시스템(276)을 갖는 자율 운송 차량(110)(본 명세서에서는 자율 안내 차량이라고도 함)을 제공한다. 자율 운송 차량(110)은 물리적 특성 센서 시스템(276)으로부터의 정보를 보조하여 차량 네비게이션 자세 또는 위치와 페이로드 자세 또는 위치의 정확성을 검증하고 증가시키는 것 중 적어도 하나를 보완하는 보조(supplement) 또는 예비(auxiliary) 네비게이션 센서 시스템(288)을 포함한다.Aspects of the disclosed embodiments include an autonomous transport vehicle 110 (herein referred to as: (also known as autonomous guided vehicles). The autonomous transport vehicle 110 may receive supplementary information from the physical characteristic sensor system 276 to verify and increase the accuracy of the vehicle navigation attitude or position and the payload attitude or position. Includes an auxiliary navigation sensor system 288.

개시된 실시예의 양태에 따르면, 보조 네비게이션 센서 시스템(288)은 케이스 유닛 운송 오류의 감소(예를 들어, 본 명세서에 기술된 보조 센서 시스템이 결여된 종래의 차량으로 케이스 유닛을 자동으로 운송하는 것과 비교하여) 및 보관 및 회수 시스템(100) 작동 효율의 증가에 영향을 미치는 비전 시스템(400)을 포함한다. In accordance with aspects of the disclosed embodiments, the secondary navigation sensor system 288 provides for a reduction in case unit transport errors (e.g., compared to automatically transporting a case unit in a conventional vehicle lacking the secondary sensor system described herein). ) and a vision system 400 that effects an increase in operational efficiency of the storage and retrieval system 100.

개시된 실시예의 양태는 또한 차량 네비게이션 자세 또는 위치와 페이로드 자세 또는 위치 중 적어도 하나의 결정에 적어도 부분적으로 영향을 미치는 자동 네비게이션/작동 센서 시스템(270)을 갖는 자율 운송 차량(110)을 제공한다. 자율 운송 차량(110)은 자율 운송 차량(110)이 운행하고 있는 설비(100)의 적어도 일부 내에서 적어도 하나의 물체 또는 공간적 특징(299)(예를 들어, 도 4d 및 도 15 참조)의 미리 결정된 물리적 특징의 존재를 기회적으로(opportunistically) 결정하거나 식별하기 위해 자동 네비게이션/동작 센서 시스템(270)으로부터의 정보를 보완하는 보조 또는 예비 위험 센서 시스템(290)을 더 포함한다(즉, 컨트롤러(122)는 하나 이상의 미리 결정된 페이로드 자율 전달 작업을 실행시키는 것과 연관된 설비 내의 상이한 위치들로 자동 전달 차량을 명령하도록 프로그램됨). 차량은 네비게이션 시스템을 사용하여 다른 위치로 이동하고, 다른 위치에서 보조 위험 센서 시스템(290)에 의해 캡처된 이미지 데이터와 별개이고 구별되는 다른 위치에서 미리 결정된 전송 작업을 수행하도록 작동한다. 운행 및 이송을 실행하는 차량(110)에 부수적이거나 주변적인 물체 또는 공간적 특징(299)의 사전 결정된 물리적 특성의 존재에 대한 기회적 결정/식별은 컨트롤러(122)가 자율 운송 차량(110)을 자율 상태에서 협동 차량 상태로 선택적으로 재구성하여, 위험으로서 물체 또는 공간적 특징(299)의 식별을 최종화하고 위험에 대한 차량의 경감(mitigation) 동작을 식별하게 한다(즉, 협동 상태는 차량의 자율 상태의 보조(예비)이며, 자율 상태에서 차량은 하나 이상의 미리 결정된 페이로드 자율 이송 작업 각각을 자동으로 실행하고 예비/협동 상태에서 차량은 본 명세서에 설명된대로 위험을 식별하고 경감하기 위해 운영자와 협력한다).Aspects of the disclosed embodiments also provide an autonomous transport vehicle 110 having an autonomous navigation/actuation sensor system 270 that influences at least in part the determination of at least one of a vehicle navigation attitude or position and a payload attitude or position. Autonomous transport vehicle 110 may detect a preview of at least one object or spatial feature 299 (e.g., see FIGS. 4D and 15 ) within at least a portion of facility 100 on which autonomous transport vehicle 110 is operating. Further comprising an auxiliary or redundant hazard sensor system 290 that supplements information from the automatic navigation/motion sensor system 270 to opportunistically determine or identify the presence of the determined physical feature (i.e., a controller ( 122) is programmed to command the autonomous delivery vehicle to different locations within the facility associated with executing one or more predetermined payload autonomous delivery operations). The vehicle operates using the navigation system to move to another location and perform a predetermined transmission task at another location that is separate and distinct from the image data captured by the auxiliary hazard sensor system 290 at the other location. Opportunistic determination/identification of the presence of predetermined physical characteristics of objects or spatial features 299 that are incidental or peripheral to the vehicle 110 performing the operation and transfer allows the controller 122 to autonomously control the autonomous transportation vehicle 110. selective reconfiguration from the state to the cooperative vehicle state, finalizing the identification of the object or spatial feature 299 as a hazard and identifying the vehicle's mitigation actions for the hazard (i.e., the cooperative state is one of the vehicle's autonomous states). Assisted (reserve), in the autonomous state the vehicle automatically executes each of one or more predetermined autonomous payload transfer tasks and in the reserve/cooperative state the vehicle cooperates with the operator to identify and mitigate hazards as described herein. ).

보조 네비게이션 센서 시스템(288) 및 보조 위험 센서 시스템(290)은 서로 함께 또는 별도로 사용될 수 있고 공통 비전 시스템(400) 또는 별도의 비전 시스템을 형성할 수 있다는 점에 유의한다. 또 다른 양태에서, 보조 위험 센서 시스템(290)은 보조 네비게이션 센서 시스템(288)으로부터의 센서를 포함할 수 있거나 그 반대일 수 있다(즉, 보조 네비게이션 센서 시스템(288) 및 보조 위험 센서 시스템(290)은 2개의 센서 시스템 사이에서 공통 센서를 공유한다). Note that secondary navigation sensor system 288 and secondary hazard sensor system 290 may be used together or separately from each other and may form a common vision system 400 or separate vision systems. In another aspect, secondary hazard sensor system 290 may include sensors from secondary navigation sensor system 288 or vice versa (i.e., secondary navigation sensor system 288 and secondary hazard sensor system 290 ) shares a common sensor between the two sensor systems).

개시된 실시예의 양태에 따르면, 자율 운송 차량(110)은 자율 운송 차량(110)의 적어도 페이로드 베드(또는 베이 또는 영역)(210B)에 초점을 맞추는 적어도 스테레오 비전을 포함하여 컨트롤러(보관 및 회수 시스템(100)의 제어 서버(120), 자율 운송 차량(110)의 컨트롤러(122), 또는 임의의 다른 적절한 컨트롤러 중 하나 이상과 같은) 또는 보관 및 회수 시스템(100)의 인간 운영자는 페이로드 베드(210B)로 또는 그로부터 케이스 유닛(CU)의 움직임을 모니터링한다. 자율 운송 차량(110)은 보관 레벨 구조물(130L)의 보관 선반 상의 보관 공간(130S)에 배치된 케이스 유닛(CU)의 전면의 크기 및 중심점을 독립적으로 측정하는 하나 이상의 영상 레이더 시스템을 포함한다. 본 명세서에 설명되는 바와 같이, 자율 운송 차량은 페이로드 베드(210B)로의 케이스 유닛 전달 및 각각의 보관 구조물 레벨(130L) 전체에 걸쳐 자율 운송 차량(110)의 네비게이션을 수행하기 위해 하나 이상의 다른 네비게이션 및/또는 비전 센서를 포함할 수 있다. 후술하는 바와 같이, 보조 센서 시스템으로부터, 보조 정보, 보조 차량 네비게이션 자세 또는 위치, 및 보조 페이로드 자세 또는 위치 중 하나 이상에 의해 기술된 이미지화 되거나 표시된 물체는, 보조 정보, 보조 차량 네비게이션 자세 또는 위치 중 하나 이상을 통해, 주변 설비 특징 및 인터페이스 설비 특징 중 하나 이상의 기준 모델(또는 지도 - 예를 들어, 모델(400VM)에 적용(적합/결합)되어, 보조 차량 네비게이션 자세 또는 위치 정보, 및 페이로드 자세 또는 위치 정보 중 하나 이상의 보조 페이로드 자세 또는 위치 해상도를 향상시킨다.According to aspects of the disclosed embodiments, autonomous delivery vehicle 110 may include at least stereo vision to focus on at least a payload bed (or bay or area) 210B of autonomous delivery vehicle 110 and a controller (storage and retrieval system). A human operator of storage and retrieval system 100 (such as one or more of the control server 120 of 100, the controller 122 of autonomous transport vehicle 110, or any other suitable controller) may control the payload bed ( Monitor the movement of the case unit (CU) to or from 210B). Autonomous transport vehicle 110 includes one or more imaging radar systems that independently measure the size and center point of the front surface of a case unit (CU) disposed in storage space 130S on a storage shelf of storage level structure 130L. As described herein, the autonomous transport vehicle may use one or more other navigation tools to perform case unit delivery to payload bed 210B and navigation of autonomous transport vehicle 110 throughout each storage structure level 130L. and/or may include a vision sensor. As described below, from an auxiliary sensor system, an imaged or displayed object described by one or more of the auxiliary information, auxiliary vehicle navigation attitude or position, and auxiliary payload attitude or position is one of the auxiliary information, auxiliary vehicle navigation attitude or position. Through one or more of the peripheral facility features and interface facility features, one or more of the reference models (or maps) are applied (fitted/combined) to the model (400VM), such as an auxiliary vehicle navigation attitude or location information, and a payload attitude. or one or more auxiliary payloads of location information to improve attitude or location resolution.

예를 들어, 도 4a를 참조하면, 자율 운송 차량(110)은 보관 레벨 플로어 맵 및 보관 구조물 정보(예를 들어, 보관 구조물 레벨의 위치의 가상 모델(400VM), 보관 구조물 레벨(예를 들어, 보관 구조물 레벨의 가상 모델(400VM), 보관 선반, 보관 버퍼, 보관 구조물 레벨의 위치의 가상 모델(400VM), 보관 구조물 레벨의 위치들의 예를 들어, 보관 구조물 레벨의 가상 모델(400VM))을 검출함으로써 보관 구조물 레벨(130L) 내에서 자율 운송 차량(110)의 로컬라이제이션에 영향을 미치도록 구성된 전방 주시 스테레오(예를 들어, 자율 운송 차량(110)에 대해) 및 후방 주시(예를 들어, 이동 방향에 대해) 비전 시스템을 포함할 수 있다. 여기서, 보관 레벨 맵(또는 모델) 및 보관 구조물 정보는 네비게이션 마커의 위치(들)를 구현하므로 비전 시스템(400)에 의한 마커 인식 시 자율 운송 차량(110)은 보관 및 회수 시스템(100) 내에서 국지화된 위치를 결정한다. 자율 운송 차량(110)은 보관 구조물 레벨(130L)의 천장에 위치하는 임의의 적절한 네비게이션 마커 또는 기점을 감지하고 보관 레벨 플로어 맵 및 보관 구조물 정보를 사용하여 자율 운송 차량(110)의 위치를 결정하기 위해 위쪽을 향하는 하나 이상의 카메라를 포함할 수 있다. 자율 운송 차량(110)은 자율 운송 차량(110)이 환승 데크(130B)로 진입하고, 자율 운송 차량(110)이 이미 환승 데크(들)(130B)를 따라 이동하는 다른 자율 운송 차량(110)과 합류하는 것을 용이하게 하기 위해 보관 및 회수 시스템(100)의 환승 데크(130B)를 따라 자율 운송 차량 트래픽 모니터링하도록 구성된 적어도 하나의 측방 주시 트래픽 모니터링 카메라를 포함할 수 있다.For example, referring to FIG. 4A, the autonomous transport vehicle 110 may store a storage level floor map and storage structure information (e.g., a virtual model 400VM of the location of the storage structure level, a storage structure level (e.g., Detection of storage structure level virtual model (400VM), storage shelves, storage buffers, virtual model of storage structure level locations (400VM), storage structure level locations (e.g. virtual model of storage structure level (400VM)) a forward-looking stereo (e.g., relative to the autonomous transport vehicle 110) and a rear-looking stereo (e.g., direction of movement) configured to affect the localization of the autonomous transport vehicle 110 within the storage structure level 130L. For) may include a vision system. Here, the storage level map (or model) and storage structure information implement the location(s) of the navigation marker, so that upon recognition of the marker by the vision system 400, the autonomous transportation vehicle 110 ) determines a localized location within storage and retrieval system 100. Autonomous transport vehicle 110 detects any suitable navigation marker or fiducial located on the ceiling of storage structure level 130L and creates a storage level floor map. and one or more cameras facing upward to use the storage structure information to determine the location of autonomous transport vehicle 110. Autonomous transport vehicle 110 may be positioned at transfer deck 130B. and transfer deck ( It may include at least one side-facing traffic monitoring camera configured to monitor autonomous transport vehicle traffic along 130B).

도 4d를 참조하면, 자율 운송 차량(110)은 또한, 예를 들어, 보관 구조물 레벨(130L) 내에서 자율 운송 차량(110)의 자율 경로를 따르는 영역 또는 공간의 모니터링(자율 센서 시스템(270)에 대한 보조) 및 봇(bot) 이동 경로를 침범할 수 있는 임의의 물체/위험을 감지하기 위해 이미징(연속적 또는 주기적으로 이용 가능)하도록 구성된 전방 주시(예를 들어, 자율 운송 차량(110)의 이동 방향에 대해) 또는 전방위(x, y, z, θ) 비전 시스템 및/또는 후방 주시(예를 들어, 이동 방향에 대해) 비전 시스템을 포함할 수 있다. 일 양태에서, 후술되는 바와 같이, 비전 시스템(400)은 자율 운송 차량(110) 상(예를 들어, 온보드)에 상주하여 모니터링 및 검출이 수행되도록, 컨트롤러(122)에 의한 (물체/위험의) 보조 모니터링 및 검출을 위한 이미징을 효과적으로 수행할 수 있고, 이는 예를 들어, 기준 보관 레벨 플로어 맵 및 보관 구조물 정보(예를 들어, 기둥, 보관 선반, 보관 버퍼, 플로어 조인트 등)의 위치의 가상 모델(400VM); 및 그러한 검출의 컨트롤러(122)에 의한 표시로부터 그리고 협동 상태에 있는 차량(110)과의 협동 모니터링/검출/확인/식별/경감을 효과적으로 하는 비전 시스템(299)에 원격으로 액세스하는 원격 운영자의 협동에 의해 수행될 수 있다(도 15 참조). 자율 운송 차량(110)의 비전 시스템(400)이 기준 보관 레벨 맵 및 보관 구조물 정보에 존재하지 않는 물체/위험물의 존재를 감지하거나 감지하는 경우, 물체(들)/위험(들) 유형(들)의 결정은 자율 운송 차량(110)으로부터/에 의해 사용자 인터페이스 UI로 전송된 물체/위험의 이미지/비디오를 수신하는 원격 운영자에 의한 컨트롤러의 표시에 따라 실행된다.Referring to FIG. 4D , autonomous delivery vehicle 110 may also monitor areas or spaces along the autonomous path of autonomous delivery vehicle 110 (autonomous sensor system 270), for example, within storage structure level 130L. assistance) and forward gaze (e.g., of an autonomous transport vehicle 110) configured for imaging (available continuously or periodically) to detect any objects/hazards that may encroach on the bot's path of movement. may include an omnidirectional (x, y, z, θ) vision system (e.g., with respect to the direction of movement) and/or a backward-looking (e.g., with respect to the direction of movement) vision system. In one aspect, as described below, vision system 400 resides on (e.g., onboard) autonomous transport vehicle 110 to enable monitoring and detection (of objects/hazards) by controller 122. ) can effectively perform imaging for auxiliary monitoring and detection, which can be achieved, for example, by virtualizing the location of reference storage level floor maps and storage structure information (e.g. columns, storage shelves, storage buffers, floor joints, etc.) Model (400VM); and the cooperation of a remote operator remotely accessing the vision system 299 to effect cooperative monitoring/detection/verification/identification/mitigation from indication by the controller 122 of such detections and with the vehicle 110 in a cooperative state. It can be performed by (see FIG. 15). If the vision system 400 of the autonomous transport vehicle 110 detects or detects the presence of an object/hazard that is not present in the reference storage level map and storage structure information, the object(s)/hazard(s) type(s) The decision is executed according to the indication of the controller by the remote operator who receives the image/video of the object/hazard transmitted to the user interface UI from/by the autonomous transport vehicle 110.

본 명세서에 설명되는 바와 같이, 자율 운송 차량(110)은 자율 운송 차량에 탑재되고 자율 운송 차량(110)의 비전 시스템(400)에 통신 가능하게 결합되는 비전 시스템 컨트롤러(122VC)를 포함한다. 비전 시스템 컨트롤러(122VC)는 비전 시스템 컨트롤러(122VC)가 보관 및 회수 시스템(100)을 시뮬레이션/모델링하는 것(예를 들어, 보관 및 회수 시스템 구조물의 컴퓨터 보조 제도(CAD) 데이터 또는 보관 및 회수 시스템(100)의 모델링/시뮬레이션에 영향을 미치는 비전 시스템 컨트롤러(122VC)에 의해 메모리에 저장되거나 액세스 가능한 다른 적절한 데이터와 같은 임의의 적절한 정보에 기초하여) 및 비전 시스템(400)과 함께 획득된 데이터를 보관 및 회수 시스템 구조물의 모델/시뮬레이션과 비교하여 물체/위험의 하나 이상의 봇 로컬라이제이션 및 이미징을 실시하는 것을 특징으로 하는 모델 기반 비전으로 구성된다. 여기서 자율 운송 차량(110)은 비전 시스템(400)으로 "보는" 것과 (기준) 보관 및 회수 시스템 구조물의 시뮬레이션에 기초하여 자율 운송 차량(110)이 "볼" 것으로 예상하는 것과 실질적으로 직접 비교하도록 구성된다.As described herein, autonomous transport vehicle 110 includes a vision system controller 122VC mounted on the autonomous transport vehicle and communicatively coupled to a vision system 400 of autonomous transport vehicle 110. Vision system controller 122VC may simulate/model storage and retrieval system 100 (e.g., computer-aided drafting (CAD) data of storage and retrieval system structures or storage and retrieval system 100). data acquired with the vision system 400 (based on any suitable information, such as other suitable data stored in memory or accessible by the vision system controller 122VC) to effect modeling/simulation of the vision system 100. It consists of model-based vision, characterized by performing one or more bot localization and imaging of objects/hazards compared to a model/simulation of the storage and retrieval system structure. wherein the autonomous transport vehicle 110 provides a substantially direct comparison between what the autonomous transport vehicle 110 “sees” with the vision system 400 and what the autonomous transport vehicle 110 expects to “see” based on a simulation of the (reference) storage and retrieval system structure. It is composed.

보조 센서 시스템은 또한 본 명세서에 설명되는 자율 운송 차량(110)의 원격 제어뿐만 아니라 보관 및 회수 시스템 환경의 증강 현실 운영자 검사도 실시한다.The auxiliary sensor system also provides remote control of the autonomous delivery vehicle 110 described herein as well as augmented reality operator inspection of the storage and retrieval system environment.

개시된 실시예의 양태에 따르면, 보조 네비게이션 센서 시스템(288) 및/또는 보조 위험 센서 시스템(290)은 자율 운송 차량(110)에 의해 "알 수 없는"(즉, 식별 불가능한) 설비(100) 내에 존재하는 물체/위험(예를 들어, 봇 이동 경로를 가로질러 연장되는 물체, 봇을 차단, 미리 정해진 거리 내에 봇을 근접시킴)의 식별을 위해 원격 운영자에게 이미지/비디오의 전송(예를 들어, 라이브 비디오 스트리밍, 타임 스탬핑된 이미지 또는 임의의 다른 적절한 전송 방식)을 효과적으로 수행하는 비전 시스템(400)을 포함한다. 개시된 실시예의 양태에 따르면, 컨트롤러(예를 들어 보관 및 회수 시스템(100)의 제어 서버(120), 자율 운송 차량(110)의 컨트롤러(122), 비전 시스템 컨트롤러(122VC), 또는 다른 적절한 컨트롤러) 또는 보관 및 회수 시스템(100)의 인간 운영자는 비전 시스템(400)을 통해 자율 운송 차량(110)이 컨트롤러(122) 명령에 따라 자동 보관 및 회수 작업을 수행하기 위해 시설을 탐색할 때 봇 이동 경로를 모니터링한다. 또한, 자율 작업에 영향을 미치는 것에 부수적으로, 차량(110)은 (컨트롤러(122)에서 프로그래밍 된 미리 결정된 초기 식별된 기준에 기초하여) 설비(100) 내에서 봇 작업 및/또는 다른 봇의 트래픽을 방해할 수 있는 물체/위험을 기회적으로 발견한다(즉, 컨트롤러는 물체/위험의 존재를 결정하는 것이 적어도 부분적으로 하나 이상의 미리 결정된 페이로드 자율 운송 작업 각각에 영향을 미치는 봇 작업(요구된)과 일치하지만 보조 및 주변 동작과 일치하도록 구성된다).According to aspects of the disclosed embodiments, the secondary navigation sensor system 288 and/or the secondary hazard sensor system 290 are present within the facility 100 as being “unknown” (i.e., unidentifiable) by the autonomous transport vehicle 110. Transmission of images/videos (e.g. live) to remote operators for identification of objects/hazards (e.g. objects extending across the bot's path of movement, blocking the bot, closing the bot within a predetermined distance) and a vision system 400 that effectively performs video streaming, time-stamped images, or any other suitable transmission method. According to aspects of the disclosed embodiments, a controller (e.g., control server 120 of storage and retrieval system 100, controller 122 of autonomous transport vehicle 110, vision system controller 122VC, or other suitable controller) Alternatively, the human operator of the storage and retrieval system 100 may use the vision system 400 to determine the bot's movement path as the autonomous transport vehicle 110 navigates the facility to perform automated storage and retrieval operations in accordance with controller 122 commands. monitor. Additionally, incidental to influencing autonomous operations, vehicle 110 may also detect bot operations and/or traffic from other bots within facility 100 (based on predetermined initially identified criteria programmed in controller 122). opportunistically discovers objects/hazards that could interfere with the ), but is configured to match secondary and peripheral actions).

도 1a, 도 1b 및 도 19에 도시된 바와 같이, 개시된 실시예의 측면은 자율 운송 차량(110)을 갖는 자동 보관 및 회수 시스템(100)을 제공한다. 각각의 자율 운송 차량(110)은 포괄적인 전력 관리 섹션(444)(본 명세서에서는 전력 분배 유닛으로도 지칭됨 - 도 19 참조)으로 구성된다. 전력 분배 유닛(444)은 자율 운송 차량(110)의 더 높은 레벨의 기능/작동을 보존하기 위해 자율 운송 차량(110)의 전력 요구를 관리하도록 구성되며, 더 높은 레벨의 기능은 자율 운송 차량(110)의 전원 공급 레벨에 따라 보존된다. 예를 들어, 자율 운송 차량(110)이 충전소 또는 유지 보수 장소로 이동하도록 제어 및 운전 작동이 보존될 수 있는 반면, 자율 운송 차량의 다른 하위 레벨 기능(예를 들어, 충전소로의 이동 또는 유지 보수 위치에는 필요하지 않는)은 멈춘다. 자율 운송 차량(110)의 낮은 레벨 시스템을 관리하는 것은 탑재된 차량 전원의 충전을 보존하여 충전 동작 사이의 자율 운송 차량(110)의 작동 시간을 개선하고 자율 운송 차량 컨트롤러 기능을 보존한다.1A, 1B, and 19, aspects of the disclosed embodiment provide an automated storage and retrieval system 100 with an autonomous transport vehicle 110. Each autonomous transport vehicle 110 is comprised of a comprehensive power management section 444 (also referred to herein as a power distribution unit - see FIG. 19). Power distribution unit 444 is configured to manage the power demands of autonomous transport vehicle 110 to preserve higher level functions/operations of autonomous transport vehicle 110, where higher level functions are maintained by autonomous transport vehicle (110). 110) is preserved depending on the power supply level. For example, control and driving operations may be preserved to allow autonomous transport vehicle 110 to travel to a charging station or maintenance location, while other lower-level functions of the autonomous transport vehicle (e.g., transport to a charging station or maintenance site) may be preserved. (not required for location) stops. Managing the low level systems of the autonomous transport vehicle 110 preserves the charge of the onboard vehicle power source, improving the operating time of the autonomous transport vehicle 110 between charging operations and preserving autonomous transport vehicle controller functionality.

전력 분배 유닛(444)은 또한 전원 공급 장치(481)의 충전 사이클 수를 최대화하기 위해 자율 운송 차량의 전원 공급 장치(481)의 충전 모드를 제어하도록 구성될 수 있다. 전력 분배 유닛(444)은 자율 운송 차량(110)의 구성요소(예를 들어, "분기 회로"에서 전원(481)에 통신 가능하게 결합되는 모터, 센서, 컨트롤러 등)에 대한 전류 소모를 모니터링하고 관리(예를 들어, 온 및 오프 전환) 전원 공급 장치(481)의 요금(예를 들어, 에너지 사용량)를 절약하기 위해 각 구성요소에 전원 공급 장치를 켜거나 끈다. The power distribution unit 444 may also be configured to control the charging mode of the autonomous transport vehicle's power supply 481 to maximize the number of charging cycles of the power supply 481. Power distribution unit 444 monitors current draw for components of autonomous transport vehicle 110 (e.g., motors, sensors, controllers, etc. communicatively coupled to power source 481 in a “branch circuit”) and Manages (e.g., switches on and off) the power supply 481 by turning the power supply 481 on or off to each component to save on costs (e.g., energy usage).

전력 분배 유닛(444)은 루프 장치 또는 루프 전력 장치로서 전원 공급 장치(481)에 통신 가능하게 연결된 자율 운송 차량(110)의 구성요소에 대한 전기 회로 결함 보호(예를 들어, 단락 보호, 과전압 보호, 과전류 보호 등)를 제공하도록 구성될 수 있다. 여기서, 루프 전력 장치는 전류 루프와 같은 송신기 루프에 연결되어 별도의 또는 독립된 전원을 가질 필요 없이 작동을 위해 루프에 흐르는 전류로부터 전력을 이용하는 전자 장치를 말한다.Power distribution unit 444 is a loop device or loop power device that provides electrical circuit fault protection (e.g., short circuit protection, overvoltage protection) for components of autonomous transport vehicle 110 that are communicatively connected to power supply 481. , overcurrent protection, etc.). Here, a loop power device refers to an electronic device that is connected to a transmitter loop, such as a current loop, and uses power from the current flowing in the loop for operation without the need for a separate or independent power source.

개시된 실시예의 양태에 따르면, 도 1a 및 도 1b의 자동 보관 및 회수 시스템(100)은 예를 들어 케이스, 패키지 및/또는 소포로 배송되는 보충 상품에 대해 소매점으로부터 받은 주문을 이행하기 위해 소매 유통 센터 또는 창고에 배치될 수 있다. 케이스, 패키지 및 소포라는 용어는 본 명세서에서 상호 호환적으로 사용되며 앞서 언급한 바와 같이 배송에 사용될 수 있는 임의의 컨테이너일 수 있으며 생산자에 의해 케이스 또는 그 이상의 제품 단위로 채워질 수 있다. 본 명세서에 사용된 케이스는 트레이, 토트(tote) 등에 보관되지 않은(예를 들어 포함되어 있지 않은) 케이스, 패키지 또는 소포 단위를 의미한다. 케이스 유닛(CU)(본 명세서에서는 혼합 케이스, 케이스 및 배송 유닛이라고도 함)은 품목/단위의 케이스(예를 들어 수프 캔, 시리얼 상자 등) 또는 팰릿(pallet)에서 떼어내거나 팰릿에 놓을 수 있도록 개별 품목/단위의 케이스를 포함할 수 있다는 점에 유의한다. 예시적인 실시예에 따르면, 배송 케이스 또는 케이스 유닛(예를 들어, 상자(carton), 배럴(barrel), 박스(box), 크레이트(crate), 저그(jug), 수축 포장된 트레이들 또는 그룹들 또는 케이스 유닛들을 보유하기 위한 임의의 다른 적합한 기구)은 가변적인 크기들을 가질 수 있고, 배송 중에 케이스 유닛들을 보유하기 위해 사용될 수 있고, 이들이 운송을 위해 팰릿화될 수 있도록 구성될 수 있다. 케이스 유닛은 토트, 박스 및/또는 원래 포장에서 포장을 풀거나 폐기(일반적으로 브레이크팩 상품이라고 함)되어 주문 이행 스테이션에서 혼합 또는 공통 유형의 하나 이상의 다른 개별 상품과 함게 토트, 박스 및/또는 용기로 담겨진 하나 이상의 개별 물품의 용기를 포함할 수 있다. 예를 들어, 인커밍 번들 또는 팰릿(예를 들어, 케이스 유닛의 제조자 또는 공급자로부터)이 자동 보관 및 회수 시스템(100)의 보충을 위해 보관 및 회수 시스템에 도착할 때, 각 팰릿의 내용물은 균일할 수 있다(예를 들어, 각 팰릿은 미리 결정된 개수의 동일한 물품을 보유하고 있다 - 하나의 팰릿은 수프를 보유하고 다른 팰릿은 시리얼을 보유한다). 실현될 수 있는 바와 같이, 이러한 팰릿 로드(load)의 케이스는 실질적으로 유사하거나 다른 말로, 균일한 케이스(예를 들어, 유사한 치수)일 수 있고, 동일한 SKU를 가질 수 있다(그렇지 않으면, 앞에 언급된 바와 같이, 팰릿은 균일한 케이스로 형성된 층을 갖는 "레인보우(rainbow)" 팰릿일 수 있다). 케이스 또는 토트가 보충 주문을 채우는 팰릿과 함께 보관 및 회수 시스템을 떠날 때, 팰릿은 임의의 적절한 개수 및 상이한 케이스 유닛의 조합을 포함할 수 있다(예를 들어, 각각의 팰릿은 상이한 유형의 케이스 유닛을 수용할 수 있다 - 팰릿은 통조림 수프, 시리얼, 음료 팩, 화장품 및 가정용 청소기의 조합을 수용한다). 단일 팰릿에 결합된 케이스는 크기 및/또는 SKU가 다를 수 있다. According to aspects of the disclosed embodiments, the automated storage and retrieval system 100 of FIGS. 1A and 1B may be used to store, for example, a retail distribution center to fulfill orders received from retailers for replenishment merchandise shipped in cases, packages, and/or parcels. Or it can be placed in a warehouse. The terms case, package and parcel are used interchangeably herein and, as previously mentioned, can be any container that can be used for shipping and can be filled by the producer with a case or more units of product. As used herein, case refers to a case, package or parcel unit that is not stored (e.g., contained) in a tray, tote, etc. Case units (CUs) (also referred to herein as mixed cases, cases, and shipping units) are individual units of items/units that can be removed from or placed on a case (e.g., soup cans, cereal boxes, etc.) or pallet. Note that it may include cases of items/units. According to an exemplary embodiment, a shipping case or case unit (e.g., carton, barrel, box, crate, jug, shrink-wrapped trays or groups or any other suitable mechanism for retaining case units) can have variable sizes and can be used to retain case units during shipping and can be configured so that they can be palletized for shipping. Case units are unpacked from their totes, boxes and/or original packaging or disposed of (commonly referred to as breakpack items) and mixed or placed in totes, boxes and/or containers with one or more other individual items of a common type at an order fulfillment station. It may include a container of one or more individual items contained in a. For example, when an incoming bundle or pallet (e.g., from a manufacturer or supplier of case units) arrives at the storage and retrieval system for replenishment of the automated storage and retrieval system 100, the contents of each pallet may be uniform. (e.g., each pallet holds a predetermined number of identical items - one pallet holds soup and another pallet holds cereal). As may be realized, cases of such pallet loads may be substantially similar or, in other words, may be uniform cases (e.g., similar dimensions) and may have the same SKU (otherwise, as previously noted). As noted, the pallets may be “rainbow” pallets with layers formed into uniform cases). When a case or tote leaves the storage and retrieval system with a pallet filling a replenishment order, the pallet may contain any suitable number and combination of different case units (e.g., each pallet may contain a different type of case unit). (The pallet can accommodate a combination of canned soup, cereal, beverage packs, cosmetics and household cleaners). Cases combined on a single pallet may have different sizes and/or SKUs.

자동 보관 및 회수 시스템(100)은 일반적으로 팰리타이저(palletizer, 162)에 연결된 보관 및 회수 엔진(190)으로 설명될 수 있다. 계속 도 1a 및 도 1b를 참조해 보다 상세히 설명하면, 보관 및 회수 시스템(100)은 예를 들어 기존 창고 구조물에 설치되도록 구성되거나 새로운 창고 구조물에 적용될 수 있다. 앞서 언급한 바와 같이, 도 1a 및 도 1b에 도시된 자동 보관 및 회수 시스템(100)이 대표적이며, 예를 들어, 각각의 이송 스테이션(170, 160) 상에서 종단하는(terminating) 인-피드 및 아웃-피드 컨베이어, 리프트 모듈(들)(150A, 150B), 보관 구조물(130), 및 다수의 자율 운송 차량(110)(본 명세서에서 "봇"이라고도 함)을 포함할 수 있다. 보관 및 회수 엔진(190)은 적어도 보관 구조물(130)과 자율 운송 차량(110)에 의해 형성됨에 유의해야 한다(그리고 일부 양태에서는 리프트 모듈(150A, 150B); 다른 양태에서는 그 전체가 본 명세서에 참조로 포함된 2020년 11월 6월에 출원되고 발명의 명칭이 "플렉서블 시퀀싱을 구비하는 팰릿 빌딩 시스템"인 미국 특허 출원 번호 17/091,265에 개시된 보관 및 회수 엔진(190)에 더하여 리프트 모듈(150A, 150B)이 수직 시퀀서를 형성할 수 있다). 대안적인 양태에서, 보관 및 회수 시스템(100)은 자율 운송 차량(110)과 리프트 모듈(들)(150A, 150B) 사이의 인터페이스를 제공할 수 있는 로봇 또는 봇 이송 스테이션(도시되지 않음)을 또한 포함할 수 있다. 보관 구조물(130)은 보관 구조물(130)의 각각의 보관 구조물 레벨(130L)이 각각의 피킹 통로(130A)를 포함하는 복수 개의 레벨의 보관 랙 모듈들, 및 보관 구조물(130)의 보관 영역 중 임의의 것과 리프트 모듈(들)(150A, 150B)의 선반 사이에 케이스 유닛을 이송하기 위한 이송 데크들(130B)을 포함할 수 있다. 피킹 통로(130A)는 일 양태에서 자율 운송 차량(110)의 안내 이동(예를 들어, 레일(130AR)을 따라)을 제공하도록 구성되는 반면, 다른 양태에서 피킹 통로는 자율 운송 차량(110)의 제한되지 않은 이동(예를 들어, 피킹 통로는 자율 운송 차량(110)의 가이드/이동과 관련하여 개방되고 비결정적임)을 제공하도록 구성된다. 이송 데크(130B)는 자율 운송 차량(110)이 봇 스티어링(본 명세서에 설명됨)에 의해 제공되는 안내 및 제어 하에 이동하는 개방적이고 비결정적인(undeterministic) 봇 지지 이동 표면을 갖는다. 하나 이상의 양태에서, 이송 데크는 자율 운송 차량(110)이 픽업 통로(130A) 및/또는 리프트 모듈(150A, 150B)에 접근하기 위해 자유롭게 전환하는 다중 차선을 갖는다. 본 명세서에 사용된 바와 같이, "개방되고 비결정적"은 피킹 통로의 이동 표면 및/또는 이동 데크가 주행 표면을 따라 임의의 주어진 경로로 자율 운송 차량(110)의 이동을 제한하는 기계적 구속(가이드 레일 등)을 갖지 않음을 의미한다. 개시된 실시예의 양태는 다중 레벨 보관 어레이에 관해 설명되었지만, 개시된 실시예의 양태는 설비 플로어에 배치되거나 설비 플로어 위로 상승된 단일 레벨 보관 어레이에 동일하게 적용될 수 있음에 유의한다.The automated storage and retrieval system 100 can generally be described as a storage and retrieval engine 190 connected to a palletizer 162. 1A and 1B, storage and retrieval system 100 may be configured to be installed in, for example, an existing warehouse structure or may be applied to a new warehouse structure. As previously mentioned, the automated storage and retrieval system 100 shown in FIGS. 1A and 1B is representative, e.g., in-feed and out terminating on respective transfer stations 170 and 160. -May include a feed conveyor, lift module(s) 150A, 150B, a storage structure 130, and a number of autonomous transportation vehicles 110 (also referred to herein as “bots”). It should be noted that the storage and retrieval engine 190 is formed by at least a storage structure 130 and an autonomous transport vehicle 110 (and in some embodiments lift modules 150A, 150B; in other embodiments the entirety of which is described herein). Lift module 150A in addition to storage and retrieval engine 190 disclosed in U.S. Patent Application Serial No. 17/091,265, filed June 2020 and entitled “Pallet Building System with Flexible Sequencing,” incorporated by reference. , 150B) can form a vertical sequencer). In an alternative aspect, storage and retrieval system 100 also includes a robot or bot transfer station (not shown) that can provide an interface between autonomous transport vehicle 110 and lift module(s) 150A, 150B. It can be included. The storage structure 130 includes a plurality of levels of storage rack modules, each storage structure level 130L of the storage structure 130 including a respective picking passage 130A, and a storage area of the storage structure 130. It may include transfer decks 130B for transferring the case unit between any of the shelves of the lift module(s) 150A, 150B. In one aspect, picking aisle 130A is configured to provide guided movement (e.g., along rails 130AR) of autonomous transport vehicle 110, while in another aspect, picking aisle 130A is configured to provide guided movement of autonomous transport vehicle 110. It is configured to provide unrestricted movement (e.g., the picking aisle is open and non-deterministic with respect to the guidance/movement of the autonomous transport vehicle 110). Transport deck 130B has an open, indeterministic bot-supported moving surface over which autonomous transport vehicle 110 moves under guidance and control provided by bot steering (described herein). In one or more aspects, the transfer deck has multiple lanes through which autonomous transport vehicles 110 freely switch to access pickup aisle 130A and/or lift modules 150A, 150B. As used herein, “open and non-deterministic” means that the moving surface of the picking aisle and/or the moving deck are mechanical restraints (guides) that limit the movement of autonomous transport vehicle 110 to any given path along the running surface. This means that it does not have rails, etc.). Note that although aspects of the disclosed embodiments have been described with respect to multi-level storage arrays, aspects of the disclosed embodiments are equally applicable to single level storage arrays positioned on or raised above the facility floor.

피킹 통로(130A) 및 이송 데크(130B)는 또한 자율 운송 차량(110)이 케이스 유닛(CU)을 피킹 재고에 위치시키고 주문된 케이스 유닛(CU)을 회수하도록 할 수 있다(그리고 하나 이상의 다른 위치일 수 있는 보관 구조물 내 임의의 수의 위치이지만, 봇이 자율 작업을 수행하는 다른 위치를 정의한다). 대안적인 양태에서, 각각의 레벨은 또한 각각의 봇 이송 스테이션(140)을 포함할 수 있다. 자율 운송 차량(110)은 전술한 소매 상품과 같은 케이스 유닛을 저장 구조(130)의 하나 이상의 보관 구조물 레벨(130L) 내의 피킹 재고에 배치한 다음, 주문된 케이스 유닛을 예를 들어 상점 또는 다른 적절한 위치로 배송하기 위해 선택적으로 회수하도록 구성될 수 있다. 인-피드 이송 스테이션(170) 및 아웃-피드 이송 스테이션(160)은 케이스 유닛(CU)을 보관 구조물(130)의 하나 이상의 보관 구조물 레벨(130L)로 양방향으로 전달하기 위해 각각의 리프트 모듈(들)(150A, 150B)과 함께 작동할 수 있다. 리프트 모듈(150A, 150B)이 전용 인바운드 리프트 모듈(150A) 및 아웃바운드 리프트 모듈(150B)인 것으로 기술될 수 있는 반면, 대안적인 양태에서, 리프트 모듈(150A, 150B) 각각은 보관 및 회수 시스템(100)으로부터의 케이스 유닛의 인바운드 및 아웃바운드 전송 모두에 사용될 수 있다는 것에 유의한다. Pick aisle 130A and transfer deck 130B may also allow autonomous transport vehicle 110 to place case units (CUs) in picking inventory and retrieve ordered case units (CUs) (and one or more other locations). can be any number of locations within the storage structure, but defines other locations where the bot performs autonomous tasks). In an alternative aspect, each level may also include a respective bot transfer station 140. Autonomous transport vehicle 110 may place case units, such as retail merchandise described above, into picking inventory within one or more storage structure levels 130L of storage structure 130 and then place the ordered case units, e.g., in a store or other appropriate location. It may be configured for selective retrieval for delivery to a location. In-feed transfer station 170 and out-feed transfer station 160 are used to transfer case units (CU) to one or more storage structure levels 130L of storage structure 130 in each direction. )(150A, 150B). While lift modules 150A, 150B may be described as being dedicated inbound lift module 150A and outbound lift module 150B, in alternative embodiments, lift modules 150A, 150B each have a storage and retrieval system ( Note that it can be used for both inbound and outbound transfer of case units from 100).

실현될 수 있는 바와 같이, 보관 및 회수 시스템(100)은 예를 들어, 보관 및 회수 시스템(100)의 자율 운송 차량(110)에 의해 액세스 가능한 다수의 인-피드 및 아웃-피드 리프트 모듈(150A, 150B)을 포함하여, 하나 이상의 케이스 유닛(예를 들어, 케이스 유닛(들)이 트레이에 보유되지 않음) 또는 수용된(트레이 또는 토트 내) 것이 리프트 모듈(150A, 150B)로부터 각각의 레벨의 각각의 보관 공간으로 그리고 각각의 보관 공간으로부터 각각의 레벨의 어느 하나의 리프트 모듈(150A, 150B)로 전달될 수 있다. 자율 운송 차량(110)은 보관 공간(130S)(예를 들어, 픽업 통로(130A) 또는 이송 데크(130B)를 따라 배치된 다른 적절한 보관 공간/케이스 유닛 버퍼에 위치함)와 리프트 모듈(150A, 150B) 사이에서 케이스 유닛을 이송하도록 구성될 수 있다. 일반적으로, 리프트 모듈(150A, 150B)은 인-피드 및 아웃-피드 이송 스테이션(160, 170)과 케이스 유닛이 보관 및 회수되는 보관 공간의 각 레벨 사이에서 케이스 유닛(들)을 이동할 수 있는 적어도 하나의 이동 가능한 페이로드 지지대를 포함한다. 리프트 모듈(들)은 예를 들어 왕복 리프트 또는 임의의 다른 적합한 구성과 같은 임의의 적합한 구성을 가질 수 있다. 리프트 모듈(들)(150A, 150B)은 임의의 적합한 컨트롤러(제어 서버(120) 또는 제어 서버(120), 창고 관리 시스템(2500) 및/또는 팰리타이저 컨트롤러(164, 164')에 연결된 다른 적합한 컨트롤러)를 포함하고, 2019년 6월 18일에 출원되고 발명의 명칭 "제품 주문 이행을 위한 수직 시퀀서"인 미국 특허 출원 번호 16/444,592에 설명된 것과 유사한 방식으로 시퀀서 또는 분류기를 형성할 수 있다.As may be realized, storage and retrieval system 100 may include, for example, a plurality of in-feed and out-feed lift modules 150A accessible by autonomous transport vehicle 110 of storage and retrieval system 100. , 150B), including one or more case units (e.g., case unit(s) not held in a tray) or received (in a tray or tote) at each level from lift modules 150A, 150B. It can be delivered to the storage space of and from each storage space to any one of the lift modules 150A and 150B at each level. Autonomous transport vehicle 110 is positioned in a storage space 130S (e.g., in a pickup aisle 130A or another suitable storage space/case unit buffer disposed along the transfer deck 130B) and a lift module 150A. 150B) can be configured to transfer the case unit. Generally, the lift modules 150A, 150B have at least one device capable of moving the case unit(s) between the in-feed and out-feed transfer stations 160, 170 and each level of the storage space where the case units are stored and retrieved. Contains one movable payload support. The lift module(s) may have any suitable configuration, such as a reciprocating lift or any other suitable configuration. Lift module(s) 150A, 150B may be connected to any suitable controller (control server 120 or other connected to control server 120, warehouse management system 2500, and/or palletizer controllers 164, 164'). and a suitable controller) and capable of forming a sequencer or sorter in a manner similar to that described in U.S. Patent Application Serial No. 16/444,592, filed June 18, 2019, entitled “Vertical Sequencer for Product Order Fulfillment.” there is.

자동 보관 및 회수 시스템은 예를 들어 인-피드 및 아웃-피드 컨베이어와 이송 스테이션(170, 160), 리프트 모듈(150A)에 적절한 통신 및 제어 네트워크(180)를 통해 통신 가능하게 연결된 하나 이상의 제어 서버(120)를 포함하는 제어 시스템을 포함할 수 있다. 통신 및 제어 네트워크(180)는 예를 들어 인-피드 및 아웃-피드 컨베이어와 이송 스테이션(170, 160), 리프트 모듈(150A, 150B) 및 다른 적절한 시스템 자동화의 작동을 명령하는 것과 같은 다양한 프로그래밍 가능한 논리 컨트롤러(PLC)를 통합할 수 있는 임의의 적합한 아키텍처를 가질 수 있다. 제어 서버(120)는 케이스 플로우 시스템을 관리하는 케이스 관리 시스템(CMS)에 영향을 미치는 고급 프로그래밍을 포함할 수 있다. 네트워크(180)는 자율 운송 차량(110)과의 양방향 인터페이스를 실행하기 위한 적절한 통신을 더 포함할 수 있다. 예를 들어, 자율 운송 차량(110)은 온보드 프로세서/컨트롤러(122)를 포함할 수 있다(적어도 자율 운송 차량(110)의 제어 및 안전 기능을 수행하도록 구성됨 - 도 10a-도 10c도 참조). 네트워크(180)는 자율 운송 차량 컨트롤러(122)가 케이스 유닛의 원하는 운송(예를 들어 저장 위치에 놓거나 저장 위치로부터 검색)을 수행하기 위해 제어 서버(120)로부터 명령을 요청하거나 수신할 수 있고, 자율 운송 차량(110)의 일지(ephemeirs), 상태 및 기타 원하는 데이터를 포함하는 원하는 자율 운송 차량(110) 정보 및 데이터를 제어 서버(120)에 전송할 수 있게 하는 적합한 양방향 통신 스위트(suite)를 포함할 수 있다. 도 1a 및 도 1b에 도시된 바와 같이, 제어 서버(120)는 예를 들어, 재고 관리 및 고객 주문 이행 정보를 제어 서버(120)의 CMS 레벨 프로그램에 제공하기 위한 창고 관리 시스템(2500)에 더 연결될 수 있다. 앞에서 언급한 바와 같이, 제어 서버(120) 및/또는 창고 관리 시스템(2500)은 아래에 추가로 설명되는 바와 같이 사용자 인터페이스 UI를 통해 적어도 봇(110)의 어느 정도 협동 제어를 허용한다. 케이스 유닛을 보유하고 보관하기 위해 배열된 자동 보관 및 회수 시스템의 적절한 예는 2015년 8월 4일에 발행된 미국 특허 번호 9,096,375에 설명되어 있으며, 그 개시 내용은 그 전체가 본 명세서에 참조로 포함된다.The automated storage and retrieval system may include, for example, one or more control servers communicatively connected via a suitable communication and control network 180 to the in-feed and out-feed conveyors and transfer stations 170, 160, and lift module 150A. It may include a control system including (120). Communication and control network 180 may provide various programmable functions, such as commanding the operation of in-feed and out-feed conveyors and transfer stations 170, 160, lift modules 150A, 150B, and other suitable system automation. It can have any suitable architecture capable of incorporating a logic controller (PLC). Control server 120 may include advanced programming that impacts a case management system (CMS) that manages the case flow system. Network 180 may further include suitable communications to implement a two-way interface with autonomous transport vehicle 110 . For example, autonomous delivery vehicle 110 may include an onboard processor/controller 122 (configured to perform at least the control and safety functions of autonomous delivery vehicle 110 - see also FIGS. 10A-10C). Network 180 may enable autonomous transport vehicle controller 122 to request or receive commands from control server 120 to perform desired transport (e.g., placing into or retrieving from a storage location) a case unit; Contains a suitable two-way communications suite enabling transmission of desired autonomous transport vehicle 110 information and data, including autonomous transport vehicle 110 ephemeirs, status, and other desired data, to the control server 120. can do. 1A and 1B, control server 120 further supports warehouse management system 2500, for example, to provide inventory management and customer order fulfillment information to CMS level programs in control server 120. can be connected As previously mentioned, control server 120 and/or warehouse management system 2500 allows at least some degree of cooperative control of bots 110 via a user interface UI, as further described below. A suitable example of an automated storage and retrieval system arranged to retain and store case units is described in U.S. Patent No. 9,096,375, issued August 4, 2015, the disclosure of which is incorporated herein by reference in its entirety. do.

도 1a, 도 1b 및 도 2를 참조하면, 자율 운송 차량(110)(본 명세서에서는 자율 안내 차량 또는 봇이라고도 함)은 전원 공급 장치(481)가 장착된 차량 프레임 또는 섀시(200) 및 일체형 페이로드 지지대 또는 베드(210B)(본 명세서에서는 프레임이라고 함)를 포함한다. 프레임(200)은 자율 운송 차량(110)의 종축(LAX)을 정의하는 전방 단부(200E1) 및 후방 단부(200E2)를 갖는다. 프레임(200)은 임의의 적합한 재료(예를 들어, 강철, 알루미늄, 복합재 등)로 구성될 수 있다. 본 명세서에 설명된 바와 같이, 전력 공급 섹션은 프레임(200)에 연결되며, 여기서 각 전력 공급 섹션은 전원 공급 장치(481)에 의해 전력을 공급받는다. 전력 공급 섹션은 구동 섹션(261D), 페이로드 처리 섹션(210)(본 명세서에서는 케이스 처리 어셈블리(210)라고도 함) 및 주변 전자 장치 섹션(778)을 포함한다. 1A, 1B, and 2, an autonomous transport vehicle 110 (also referred to herein as an autonomous guided vehicle or bot) includes a vehicle frame or chassis 200 equipped with a power supply 481 and an integrated payload. It includes a rod support or bed 210B (referred to herein as a frame). Frame 200 has a front end 200E1 and a rear end 200E2 that define the longitudinal axis LAX of autonomous transport vehicle 110 . Frame 200 may be constructed of any suitable material (eg, steel, aluminum, composite, etc.). As described herein, the power supply sections are coupled to frame 200, where each power supply section is powered by a power supply 481. The power supply section includes a drive section 261D, a payload handling section 210 (also referred to herein as case handling assembly 210), and a peripheral electronics section 778.

페이로드 핸들링 섹션 또는 케이스 핸들링 어셈블리(210)는 자율 운송 차량(110)에 의해 운송되는 케이스/페이로드를 핸들링하도록 구성된다. 케이스 핸들링 어셈블리(210)는 적어도 하나의 페이로드 핸들링 액츄에이터(예를 들어, 이송 암(210A))를 구비하여, 페이로드 핸들링 액츄에이터의 작동이 프레임의 페이로드 베드(210B)로 그리고 페이로드 베드(210B)로부터의 페이로드, 그리고 설비 내의 보관소(예를 들어, 보관 선반의 보관 공간(130S))로의 이송에 영향을 미치도록 구성된다. 일부 양태에서, 케이스 핸들링 어셈블리(210)는 페이로드 베드(210B)(여기서 페이로드 베이 또는 페이로드 홀드라고도 함)를 포함하고, 페이로드 베드를 방향 VER로 이동시키도록 구성된다; 페이로드 베드(210B)가 프레임(200)에 의해 형성되는 다른 양태에서, 페이로드 베드는 방향 VER로 고정/정지될 수 있다. 실현되는 것처럼, 페이로드는 페이로드 베드(210B)에 배치된다. Payload handling section or case handling assembly 210 is configured to handle cases/payloads transported by autonomous transport vehicle 110 . Case handling assembly 210 includes at least one payload handling actuator (e.g., transfer arm 210A) such that actuation of the payload handling actuator is directed to and from the payload bed 210B of the frame. Payload from 210B), and is configured to effect transfer to storage within the facility (e.g., storage space 130S of a storage shelf). In some aspects, case handling assembly 210 includes a payload bed 210B (also referred to herein as a payload bay or payload hold) and is configured to move the payload bed in direction VER; In another aspect where the payload bed 210B is formed by the frame 200, the payload bed may be fixed/stationary in the direction VER. As realized, the payload is placed in payload bed 210B.

상기 이송 암(201A)은, 평평한 비결정 안착 표면이 페이로드 베드(210B)에 안착된 경우, 저장 어레이(SA)에서 페이로드(CU)의 저장 위치(예를 들어, 도 5a에도시된 저장 선반 상의 저장 공간(130S), 리프트 모듈(150A, 150B)의 선반, 버퍼, 이송 스테이션 및/또는 다른 적절한 저장 위치) 및 자율 가이드 차량(110)의 페이로드 베드(210B) 간에 페이로드(예를 들어 케이스 유닛(CU))을 자율적으로 이송하도록 되며, 저장 어레이(SA)에서 저장 위치(130S)는 이송 암(210A) 및 페이로드 베드(210B)로부터 분리되고 구별된다. 이송 암(210A)은 페이로드 베드(210B)로 및 페이로드 베드(210B)로부터 페이로드를 이송하기 위해 방향 LAT로 횡으로 그리고/또는 방향 VER로 수직으로 연장하도록 이송 암(210A)을 구성하는 연장 모터(667A-667C) 및 리프트 모터(들)(669)로 구성된다. 페이로드 베드(210B)는 페이로드 베드(210B) 내의 임의의 위치에서 종축(LAX)을 따라 그리고 방향 LAT로 횡으로 케이스 유닛을 정렬(justification)하도록 구성된 전면 및 후면 정렬 모듈(210ARJ, 210AFJ)을 포함한다. 예를 들어, 페이로드 베드는 종축(LAX)를 따라 케이스 유닛(들)(CU)를 정렬하기 위해 각각의 정렬 모터(668B, 668E)에 의해 종축을 따라 구동되는 정렬 암(JAR)(도 10A 및 도 10C)을 포함한다. 푸셔(JPS) 및 풀러(JPP)(도 10A 및 10C)는 케이스 유닛(들)(CU)를 방향 LAT로 정렬하기 위해 각각의 모터(668A, 668C, 668D, 668F)에 의해 구동되도록 정렬 암에 이동 가능하게 장착될 수 있다. 모터(668A-668F) 중 하나 이상은 또한 차량(110)에 의한 케이스 유닛 운송 동안 페이로드 베드(210B)에 고정된 케이스 유닛(들)(CU)를 클램핑하거나 그립하도록 작동될 수도 있다.The transfer arm 201A, when a flat amorphous seating surface is seated on the payload bed 210B, is positioned to store the payload CU in the storage array SA (e.g., the storage shelf shown in Figure 5A). Payload (e.g., storage space 130S on top, shelves, buffers, transfer stations and/or other suitable storage locations on lift modules 150A, 150B) and payload bed 210B on autonomous guided vehicle 110 case unit (CU)), and the storage location 130S in the storage array SA is separate and distinct from the transfer arm 210A and the payload bed 210B. Transfer arm 210A is configured to extend laterally in direction LAT and/or vertically in direction VER to transfer payload to and from payload bed 210B. It consists of extension motors 667A-667C and lift motor(s) 669. The payload bed 210B includes front and rear alignment modules 210ARJ, 210AFJ configured to align case units along the longitudinal axis LAX and laterally in the direction LAT at any location within the payload bed 210B. Includes. For example, the payload bed has an alignment arm (JAR) driven along a longitudinal axis by respective alignment motors 668B and 668E to align case unit(s) (CU) along the longitudinal axis (LAX) (FIG. 10A and Figure 10C). A pusher (JPS) and a puller (JPP) (FIGS. 10A and 10C) are attached to the alignment arm to be driven by respective motors 668A, 668C, 668D, and 668F to align the case unit(s) (CU) in the direction LAT. Can be movably mounted. One or more of the motors 668A-668F may also be operated to clamp or grip the case unit(s) CU secured to the payload bed 210B during transport of the case unit by vehicle 110.

개시된 실시예의 양태가 적용될 수 있는 적절한 페이로드 베드(210B) 및 이송 암(210A) 및/또는 자율 운송 차량의 예는, 그 전체가 참조로 본 명세서에 포함되는, 변호사 문서 번호 1127P015753-US (-#3)을 갖고 2021년 8월 24일에 출원된 발명의 명칭 "자율 운송 차량"인 미국 임시 특허 출원 번호 63/236,591 및 2012년 7월 26일 발행된 발명의 명칭 "이송 암을 구비하는 자율 봇"인 미국 공개 공보 번호 2012/0189416 (2011년 12월 15일 출원된 미국 특허 출원 번호 13/326,952); 2009년 9월 22일에 발행된 발명의 명칭 "자율 이송 및 운송 차량을 이용하는 자재 처리 시스템"인 미국 특허 번호 7591630; 2011년 8월 2일에 발행된 발명의 명칭 "자율 이송 및 운송 차량을 이용하는 자재 처리 시스템"인 미국 특허 번호 7991505; 2017년 2월 7일에 발행된 발명의 명칭 "자율 이송 차량"인 미국 특허 번호 9561905; 2015년 7월 14일에 발행된 발명의 명칭 "자율 이송 차량"인 미국 특허 번호 9082112; 2017년 12월 26일에 발행된 발명의 명칭 "자율 이송 차량 충전 시스템"인 미국 특허 번호 9850079; 2015년 11월 17일에 발행된 발명의 명칭 "봇 페이로드 정렬 및 감지"인 미국 특허 번호 9187244; 2016년 11월 22일에 발행된 발명의 명칭 "자동 봇 이송 암 구동 시스템"인 미국 특허 번호 9499338; 2015년 2월 24일에 발행된 발명의 명칭 "고속 안정성을 갖는 봇"인 미국 특허 번호 8965619; 2015년 4월 14일에 발행된 발명의 명칭 "봇 위치 감지"인 미국 특허 번호 9008884; 2013년 4월 23일에 발행된 발명의 명칭 "보관 및 회수 시스템을 위한 자율 운송"인 미국 특허 번호 8425173; 2014년 4월 15일에 발행된 발명의 명칭 "자율 이송을 위한 서스펜션 시스템"인 미국 특허 번호 8696010;에서 찾을 수 있다. Examples of suitable payload bed 210B and transfer arm 210A and/or autonomous delivery vehicles to which aspects of the disclosed embodiments may be applied are those described in Attorney Docket No. 1127P015753-US (-), which is incorporated herein by reference in its entirety. #3) and U.S. Provisional Patent Application No. 63/236,591, filed August 24, 2021, titled “Autonomous Transport Vehicle,” and issued July 26, 2012, titled “Autonomous Transport Vehicle with Transfer Arm.” U.S. Publication No. 2012/0189416 (U.S. Patent Application No. 13/326,952, filed Dec. 15, 2011); U.S. Patent No. 7591630, titled “Material Handling System Utilizing Autonomous Transfer and Transport Vehicle,” issued September 22, 2009; U.S. Patent No. 7991505, titled “Material Handling System Utilizing Autonomous Transfer and Transport Vehicle,” issued August 2, 2011; U.S. Patent No. 9561905, entitled “Autonomous Transport Vehicle,” issued February 7, 2017; U.S. Patent No. 9082112, entitled “Autonomous Transport Vehicle,” issued July 14, 2015; U.S. Patent No. 9850079, entitled “Autonomous Transport Vehicle Charging System,” issued December 26, 2017; U.S. Patent No. 9187244, entitled “Bot Payload Alignment and Detection,” issued November 17, 2015; U.S. Patent No. 9499338, entitled “Automated Bot Transfer Arm Activation System,” issued November 22, 2016; U.S. Patent No. 8965619, entitled “Bot with High-Speed Stability,” issued February 24, 2015; U.S. Patent No. 9008884, entitled “Bot Location Detection,” issued April 14, 2015; U.S. Patent No. 8425173, entitled “Autonomous Transport for Storage and Retrieval System,” issued April 23, 2013; The invention can be found in U.S. Patent No. 8696010, entitled “Suspension System for Autonomous Transport,” issued April 15, 2014.

프레임(200)은 전방 단부(200E1)에 인접하게 배치된 하나 이상의 아이들러 휠 또는 캐스터(250)를 포함한다. 프레임(200)은 또한 후단(200E2)에 인접하게 배치된 하나 이상의 구동 휠(260)을 포함한다. 다른 양태에서, 캐스터(250)와 구동 휠(260)의 위치는 바뀔 수 있다(예를 들어, 구동 휠(260)은 전단(200E1)에 배치되고 캐스터(250)는 후단(200E2)에 배치된다). 일부 양태에서, 자율 운송 차량(110)은 전방 단부(200E1)가 이동 방향을 선도하거나 후방 단부(200E2)가 이동 방향을 선도하면서 이동하도록 구성된다는 점에 유의한다. 일 양태에서, 자율 운송 차량(110)이 보관 구조물(130)의 이송 데크(130B) 및 피킹 통로(130A)를 안정적으로 횡단할 수 있도록, 전방 단부(200E1)에 프레임(200)의 전방 코너들 각각에 캐스터(250A, 250B)(본 명세서에서 설명된 캐스터(250)와 실질적으로 유사)가 위치하고, 후방 단부(200E2)에 프레임(200)의 후방 코너들 각각에 구동 휠(260A, 260B)(본 명세서에서 설명된 구동 바퀴(260)와 실질적으로 유사)이 위치한다(예를 들어, 지지 휠이 프레임(200)의 4개의 코너들 각각에 위치됨).Frame 200 includes one or more idler wheels or casters 250 disposed adjacent front end 200E1. Frame 200 also includes one or more drive wheels 260 disposed adjacent to rear end 200E2. In other aspects, the positions of the casters 250 and drive wheels 260 may be reversed (e.g., drive wheels 260 are disposed at the front end 200E1 and casters 250 are disposed at the rear end 200E2 ). Note that in some aspects, autonomous transport vehicle 110 is configured to move with front end 200E1 leading the direction of movement or rear end 200E2 leading the direction of movement. In one aspect, the front corners of frame 200 at front end 200E1 allow autonomous transport vehicle 110 to stably traverse transfer deck 130B and picking aisle 130A of storage structure 130. Casters 250A, 250B (substantially similar to casters 250 described herein) are located on each, and drive wheels 260A, 260B are located at each of the rear corners of frame 200 at rear end 200E2 ( (substantially similar to drive wheels 260 described herein) are positioned (eg, support wheels are positioned at each of the four corners of frame 200).

자율 운송 차량(110)은 프레임(200)에 연결되고 구동 휠(260)(횡단/롤링 표면(284)에서 자율 운송 차량(110)을 지지함)에 전력을 공급(또는 구동)하는 모터(261M)를 갖는 구동 섹션(261D)을 포함하며, 여기서 구동 휠(260)은 자율 안내에 따라 설비(예를 들어, 창고, 상점 등과 같은)의 횡단 표면(284) 위로 자율 운송 차량(110)을 이동시키는 횡단 표면(284) 상에서 차량 횡단을 수행한다. 구동 섹션(261D)은 구동 섹션(261D)에 걸쳐 있는 적어도 한 쌍의 견인 구동 휠(260)(구동 휠(260)이라고도 함 - 구동 휠(260A, 260B 참조))을 갖는다. 구동 휠(260)은 적어도 한 쌍의 구동 휠(260)의 각각의 구동 휠(260A, 260B)을 프레임(200)에 결합시키는 완전히 독립적인 서스펜션(280)을 구비하고, 적어도 하나의 구동 휠(260A, 260B)과 프레임(200) 사이에 개재되는 적어도 하나의 피봇 링크(본 명세서에서 기술됨)가 적어도 하나의 구동 휠(260A, 260B)과 롤링/이동 표면(284-예를 들어, 도 4d, 도 9a, 도 9b 및 도 15 참조) 사이에 실질적으로 정상 상태의 견인 접촉 패치를 유지하도록 구성된다. 완전히 독립적인 서스펜션(280)의 적절한 예들은 2021년 6월 22일에 출원된 발명의 명칭 "공동 작용성(synergistic) 차량 동적 응답을 갖는 자율 운송 차량"인 미국 임시 특허 출원 번호 63/213,589(변호사 문서 번호 1127P015753-US(-#2)를 가짐)에서 찾을 수 있으며, 그 개시 내용은 그 전체가 본 명세서에 참고로 포함된다.Autonomous transport vehicle 110 is connected to frame 200 and has a motor 261M that powers (or drives) drive wheels 260 (supporting autonomous transport vehicle 110 on traversing/rolling surface 284). ), wherein the drive wheels 260 move the autonomous transport vehicle 110 over the transversal surface 284 of the facility (e.g., warehouse, store, etc.) according to autonomous guidance. The command performs a vehicle crossing on the crossing surface 284. Drive section 261D has at least one pair of traction drive wheels 260 (also referred to as drive wheels 260 - see drive wheels 260A, 260B) spanning drive section 261D. The drive wheel 260 has a fully independent suspension 280 that couples each drive wheel 260A, 260B of the at least one pair of drive wheels 260 to the frame 200, and has at least one drive wheel ( At least one pivot link (described herein) interposed between 260A, 260B and frame 200 is connected to at least one drive wheel 260A, 260B and a rolling/moving surface 284 - e.g., Figure 4D. , see FIGS. 9A, 9B and 15) and is configured to maintain the traction contact patch in a substantially steady state. Suitable examples of fully independent suspension 280 include U.S. Provisional Patent Application No. 63/213,589, entitled “Autonomous Transportation Vehicle with Synergistic Vehicle Dynamic Response,” filed June 22, 2021 (attorney general). Document No. 1127P015753-US (having -#2), the disclosure of which is hereby incorporated by reference in its entirety.

전술한 바와 같이, 도 3a 및 도 3b를 참조하면, 프레임(200)은 전방 단부(200E1)에 인접하게 배치된 하나 이상의 캐스터(250)를 포함한다. 일 양태에서, 캐스터(250)는 프레임(200)의 각 전방 코너에 인접하게 위치되어 프레임(200)의 각 후방 코너에 배치된 구동 휠(260)과 결합하여 프레임(200)이 보관 구조물(130)의 이송 데크(130B) 및 픽킹 통로(130A)를 안정적으로 횡단한다. 도 2, 도 3A 및 도 3B를 참조하면, 일 양태에서, 각각의 캐스터(250)는 전동식(예를 들어, 능동/전동식 조향) 캐스터(600M)를 포함한다; 다른 측면에서 캐스터(250)는 수동형(예를 들어, 무동력) 캐스터일 수 있다. 일 양태에서, 전동식 캐스터(600M)는 고정된 형상의 휠 포크(640)(도 3A)에 결합된 캐스터 휠(610)을 포함한다; 다른 측면에서 캐스터 휠(610)은 가변 형상 또는 관절식(예를 들어 서스펜션) 포크(740)에 결합된다. 각각의 전동식 캐스터(600M)는 캐스터 피봇 축(691)에 대한 방향(690)으로 각각의 캐스터 휠(610)을 능동적으로 피봇하여(다른 전동식 캐스터들의 다른 휠들의 피봇과는 무관하게) 적어도 자율 운송 차량(110)의 이동 방향의 변화를 보조하도록 구성된다. 캐스터의 적합한 예는 2021년 6월 22일에 출원된 미국 임시 특허 출원 번호 63/213,589(이전에 전체 내용이 참고로 여기에 포함됨) 및 변호사 문서 번호 1127P015753-US(-#5)를 가지며 2021년 5월 26일에 출원된 발명의 명칭 "스티어링을 갖는 자율 운송 차량"인 미국 임시 특허 출원 번호 63/193,188에서 찾을 수 있으며, 그 개시 내용은 전체가 본 명세서에 참조로 포함된다. As described above, and with reference to FIGS. 3A and 3B, frame 200 includes one or more casters 250 disposed adjacent front end 200E1. In one aspect, the casters 250 are positioned adjacent each front corner of the frame 200 and engage a drive wheel 260 disposed at each rear corner of the frame 200 to allow the frame 200 to move to the storage structure 130. ) stably traverses the transfer deck (130B) and the picking passage (130A). 2, 3A and 3B, in one aspect, each caster 250 includes a powered (e.g., active/electric steer) caster 600M; In another aspect, the caster 250 may be a passive (eg, non-powered) caster. In one aspect, powered caster 600M includes a caster wheel 610 coupled to a fixed configuration wheel fork 640 (Figure 3A); In another aspect the caster wheel 610 is coupled to a variable geometry or articulated (e.g. suspension) fork 740. Each powered caster 600M actively pivots its respective caster wheel 610 in a direction 690 about the caster pivot axis 691 (independent of the pivot of the other wheels of the other powered casters) for at least autonomous transport. It is configured to assist in changing the direction of movement of the vehicle 110. Suitable examples of casters have U.S. Provisional Patent Application No. 63/213,589 (previously incorporated herein by reference in its entirety), filed June 22, 2021, and Attorney Docket No. 1127P015753-US (-#5), filed June 22, 2021. The invention can be found in U.S. Provisional Patent Application No. 63/193,188, entitled “Autonomous Transportation Vehicle with Steering,” filed May 26, the disclosure of which is incorporated herein by reference in its entirety.

자율 운송 차량(110)은 프레임(200)에 연결된 물리적 특성 센서 시스템(270)(자율 작동 센서 시스템이라고도 함)을 포함한다. 물리적 특성 센서 시스템(270)은 전자기 센서를 갖는다. 응답하는 전자기 센서 각각은 방출되거나 생성된 전자기 빔 또는 필드가 물리적 특성(예를 들어, 보관 구조물 또는 케이스 유닛(CU), 잔해 등과 같은 일시적인 물체의)을 갖는 센서의 상호작용 또는 인터페이스에 대한 것이며, 여기서 전자기 빔 또는 필드는 물리적 특성과의 상호작용 또는 인터페이스에 의해 교란된다. 전자기 빔에서의 교란은 물리적 특성의 전기 센서에 의해 감지되고 감지에 영향을 미치며, 물리적 특성 센서 시스템(270)은 (자율 운송 차량(110)이 동작하는 저장 및 검색 시스템 또는 설비에 대한) 정보 및 (보관 위치(130S) 또는 페이로드 베드(210B)에 대한) 정보 중 적어도 하나를 구현하는 센서 데이터를 생성하도록 구성된다.Autonomous transport vehicle 110 includes a physical characteristic sensor system 270 (also referred to as an autonomous sensor system) coupled to frame 200. Physical property sensor system 270 has electromagnetic sensors. Each of the electromagnetic sensors responds to the interaction or interface of the sensor, wherein the emitted or generated electromagnetic beam or field has physical properties (e.g., of a transient object such as a storage structure or case unit (CU), debris, etc.); Here the electromagnetic beam or field is disturbed by interaction or interface with physical properties. Disturbances in the electromagnetic beam are detected by electrical sensors of a physical nature and affect the detection, and the physical characteristic sensor system 270 provides information (about the storage and retrieval system or facility on which the autonomous transport vehicle 110 operates) and and generate sensor data embodying at least one of information (about storage location 130S or payload bed 210B).

물리적 특성 센서 시스템(270)은, 예시적인 목적만을 위해, 레이저 센서(들)(271), 초음파 센서(들)(272), 바코드 스캐너(들)(273), 위치 센서(274), 라인 센서(275), 차량 근접 센서(278), 또는 차량(110)의 위치를 감지하기 위한 임의의 다른 적합한 센서를 포함하는 자율 자세 및 네비게이션 센서를 포함한다. 예시적인 목적을 위해, 적어도 하나의 페이로드 핸들링 센서는 케이스 센서(278)(예를 들어, 차량(110)에 탑재된 페이로드 베드(210B) 내의 케이스 유닛 또는 차량(110)에 오프-보드된 저장 선반 상에서의 케이스 유닛을 감지하기 위한), 암 근접 센서(들)(277), 또는 페이로드(CU)의 자율 운송 차량 핸들링 동안 페이로드(예를 들어, 케이스 유닛 CU) 및 그 위치/포지션을 감지하기 위한 임의의 다른 적절한 센서를 포함한다. 일부 양태에서, 보조 네비게이션 센서 시스템(288)은 물리적 특성 센서 시스템(270)의 일부를 형성할 수 있다. 물리적 특성 센서 시스템(270)에 포함될 수 있는 센서의 적합한 예는 변호사 문서 번호 1127P015753-US(-#3)를 갖고 8월 24일에 출원된 발명의 명칭 "자율 운송 차량"인 미국 임시 특허 출원 번호 63/236,591 및2013년 4월 23일에 발행된 발명의 명칭 "보관 및 회수 시스템을 위한 자동 운송"인 미국 특허 번호 8,425,173, 2015년 4월 14일에 발행된 발명의 명칭 "봇 위치 감지"인 9,008,884 및 2018년 4월 17일에 발행된 발명의 명칭 "고속 안정성을 갖는 봇"인 9,946,265에 개시되어 있으며, 그 개시 내용은 전체가 참조로 본 명세서에 포함된다.Physical property sensor system 270 includes, for illustrative purposes only, laser sensor(s) 271, ultrasonic sensor(s) 272, barcode scanner(s) 273, position sensor 274, and line sensor. 275 , autonomous attitude and navigation sensors including vehicle proximity sensor 278 , or any other suitable sensor for detecting the position of vehicle 110 . For illustrative purposes, at least one payload handling sensor may be a case sensor 278 (e.g., a case unit within payload bed 210B mounted on vehicle 110 or off-board on vehicle 110). for detecting the case unit on a storage shelf, arm proximity sensor(s) 277, or a payload (e.g., case unit CU) and its position/position during autonomous transport vehicle handling of the payload (CU). and any other suitable sensor for detecting. In some aspects, secondary navigation sensor system 288 may form part of physical characteristic sensor system 270. Suitable examples of sensors that may be included in physical property sensor system 270 include U.S. Provisional Patent Application No. 63/236,591 and U.S. Patent No. 8,425,173, entitled “Automated Transport for Storage and Retrieval System,” issued April 23, 2013, entitled “Bot Location Detection,” issued April 14, 2015 Nos. 9,008,884 and 9,946,265, entitled “Bot with High-Speed Stability,” issued April 17, 2018, the disclosures of which are incorporated herein by reference in their entirety.

도 25a, 도 25b 및 도 25c를 참조하면, 물리적 특성 센서 시스템(270)의 센서는, 예를 들어 그 환경(최대 6개의 자유도 X, Y, Z, Rx, Ry, Rz - 도 2 참조) 및 외부 물체에 대한 인식과 내부 서브 시스템의 모니터 및 제어를 갖는 자율 운송 차량(110)을 제공하도록 구성될 수 있다. 예를 들어, 센서는 본 명세서에 설명되고/되거나 그 개시 내용이 본 명세서에 참조로 전체가 포함되는, 변호사 문서 번호 1127P015753-US(-#3)를 가지며 발명의 명칭이 "자율 운송 차량"이며 2021년 8월 24일에 출원된 미국 임시 특허 출원 번호 63/236,591에 개시된 것과 같은 안내 정보, 페이로드 정보 또는 자율 운송 차량(110)의 작동에 사용될 수 있는 다른 적절한 정보를 제공할 수 있다. 25A, 25B, and 25C, the sensors of physical property sensor system 270 may, for example, sense their environment (up to six degrees of freedom X, Y, Z, Rx, Ry, Rz - see FIG. 2). and an autonomous transport vehicle 110 having recognition of external objects and monitoring and control of internal subsystems. For example, the sensor has Attorney Docket No. 1127P015753-US(-#3), entitled “Autonomous Transport Vehicle,” and is described herein and/or the disclosure of which is hereby incorporated by reference in its entirety; It may provide guidance information, payload information, or other suitable information that can be used in the operation of autonomous transport vehicle 110, such as that disclosed in U.S. Provisional Patent Application No. 63/236,591, filed August 24, 2021.

도 2를 계속 참조하면, 바코드 스캐너(들)(273)는 자율 운송 차량(110)의 임의의 적절한 위치에 장착될 수 있다. 바코드 스캐너(들)(273)는 보관 구조물(130) 내 자율 운송 차량(110)의 절대 위치를 제공하도록 구성될 수 있다. 바코드 스캐너(들)(273)는 예를 들어, 전송 데크 상에 위치된 바코드를 판독하고, 자율 운송 차량(110)의 위치를 확인하기 위해 통로 및 전송 스테이션 플로어를 선택함으로써 통로 기준 및 전송 데크 상의 위치를 확인하도록 구성될 수 있다. 바코드 스캐너(들)(273)은 또한 선반(555)에 보관된 물품에 위치한 바코드를 판독하도록 구성될 수도 있다. With continued reference to FIG. 2 , barcode scanner(s) 273 may be mounted at any suitable location on autonomous transport vehicle 110 . Barcode scanner(s) 273 may be configured to provide an absolute location of autonomous transport vehicle 110 within storage structure 130. Barcode scanner(s) 273 may, for example, read barcodes located on the transfer deck and select aisle and transfer station floors to determine the location of the autonomous transport vehicle 110, thereby determining the location of the autonomous transport vehicle 110. It may be configured to determine location. Barcode scanner(s) 273 may also be configured to read barcodes located on items stored on shelf 555.

위치 센서(274)는 자율 운송 차량(110)의 임의의 적절한 위치에 장착될 수 있다. 위치 센서(274)는 예를 들어, 피킹 통로(130A)(또는 이송 데크(130B 또는 리프트(150)에 인접하여 위치된 버퍼/이송 스테이션)의 쉘빙(shelving)과 관련하여 차량(110)의 위치를 결정하기 위한 기준 데이터 특성(또는 저장 선반(555)의 슬랫(slat, 520L)을 검출하도록 구성될 수 있다(예를 들어, 도 5a 참조). 기준 데이터 정보는 예를 들어, 제어부(122)에 의해 차량의 거리계(odomerty)를 보정하고, 슬랫(520L) 사이의 공간에 삽입을 위해 위치된 이송 암(210A)의 지지 타인(tine)(210AT)을 정지시키기 위해 사용될 수 있다(예를 들어, 도 5a 참조). 일 예시적인 실시예에서, 차량(110)은 자율 운송 차량(110)의 구동(후방) 단부(200E2) 및 피동(전방) 단부(200E1) 상의 위치 센서(274)를 포함하여, 자율 운송 차량(110)의 어느 단부가 차량이 이동하고 있는 방향을 향하는지에 관계없이 참조 데이터 검출을 허용할 수 있다. Position sensor 274 may be mounted at any suitable location on autonomous transport vehicle 110. Position sensor 274 may, for example, determine the position of vehicle 110 in relation to the shelving of picking aisle 130A (or transfer deck 130B or buffer/transfer station located adjacent to lift 150). may be configured to detect reference data characteristics (or slats, 520L of the storage shelf 555) for determining (e.g., see FIG. 5A). The reference data information is, for example, the control unit 122 It can be used to calibrate the vehicle's odomerty and to stop the support tines 210AT of the transfer arm 210A positioned for insertion into the space between the slats 520L (e.g. , see Figure 5A). In one exemplary embodiment, vehicle 110 includes position sensors 274 on driven (rear) end 200E2 and driven (front) end 200E1 of autonomous transport vehicle 110. This may allow reference data detection regardless of which end of the autonomous transport vehicle 110 is facing the direction in which the vehicle is moving.

라인 센서(275)는 자율 운송 차량(110)의 구동(후방) 및 피동(전방) 단부들(200E2, 200E1)에 인접하게 배치된 프레임(200) 상에, 예시적인 목적만을 위한 것과 같은 임의의 적절한 위치에 자율 운송 차량(110)에 장착된 임의의 적합한 센서들일 수 있다. 단지 예시적인 목적으로, 라인 센서(275)는 확산형 적외선 센서일 수 있다. 라인 센서(275)는 예를 들어 이송 데크(130B)의 플로어 제공된 안내 라인(900)(도 9a 및 도 15 참조)을 감지하도록 구성될 수 있다. 자율 운송 차량(110)은 이송 데크(130B) 상에서 이동할 때 안내선을 따르고 차량이 이송 데크(130B)에서 온 또는 오프로 전환할 때 회전의 끝을 정의하도록 구성될 수 있다. 라인 센서(275)는 또한 차량(110)이 절대 위치를 결정하기 위해 인덱스 기준이 교차된 안내선에 의해 생성되는 인덱스 기준을 검출하도록 허용할 수 있다(도 9a 및 도 15 참조). Line sensor 275 may be positioned on frame 200 adjacent drive (rear) and driven (front) ends 200E2, 200E1 of autonomous transport vehicle 110, and may be positioned at any location, such as for illustrative purposes only. There may be any suitable sensors mounted on autonomous transport vehicle 110 at appropriate locations. For illustrative purposes only, line sensor 275 may be a diffuse infrared sensor. Line sensor 275 may be configured to sense, for example, a guide line 900 (see FIGS. 9A and 15 ) provided on the floor of transfer deck 130B. Autonomous transport vehicle 110 may be configured to follow guide lines when moving on transfer deck 130B and define the end of a turn when the vehicle transitions on or off transfer deck 130B. Line sensor 275 may also allow vehicle 110 to detect index references created by guide lines intersected by index references to determine absolute position (see FIGS. 9A and 15).

케이스 센서(276)는 페이로드 베드(210B) 내의 케이스 유닛(CU)의 위치/자세를 검출하도록 구성된 케이스 오버행 센서 및/또는 다른 적절한 센서를 포함할 수 있다. 케이스 센서(276)는 센서(들)의 시야(들)가 지지 타인(210AT)의 상부 표면에 인접한 페이로드 베드(210B)에 걸쳐 있도록 차량에 위치되는 임의의 적합한 센서일 수 있다(도 4a 및 도 4b 참조). 케이스 센서(276)는 페이로드 베드(210B)의 외부로 적어도 부분적으로 연장되는 임의의 케이스 유닛(CU)을 검출하기 위해 페이로드 베드(210B)의 에지(edge)(예를 들어, 페이로드 베드(210B)의 이송 개구(1199)에 인접하게)에 배치될 수 있다. Case sensors 276 may include case overhang sensors and/or other suitable sensors configured to detect the position/orientation of case units (CUs) within payload bed 210B. Case sensor 276 may be any suitable sensor positioned on the vehicle such that the sensor(s) field of view(s) spans payload bed 210B adjacent the upper surface of support tines 210AT (FIGS. 4A and see Figure 4b). Case sensor 276 is positioned at an edge of payload bed 210B (e.g., payload bed 210B) to detect any case unit (CU) that extends at least partially outside of payload bed 210B. (adjacent to the transfer opening 1199 of 210B).

암 근접 센서(277)는 예를 들어 이송 암(210A)과 같은 임의의 적절한 위치에서 자율 운송 차량(110)에 장착될 수 있다. 암 근접 센서(277)는 이송 암(210A)이 상승/하강될 때 및/또는 지지 타인(210AT)이 연장/수축됨에 따라 이송 암(210A) 및/또는 이송 암(210A)의 지지 타인(210AT) 주위의 물체를 감지하도록 구성될 수 있다. Arm proximity sensor 277 may be mounted on autonomous transport vehicle 110 at any suitable location, such as transfer arm 210A. Arm proximity sensor 277 detects transfer arm 210A and/or support tines 210AT of transfer arm 210A as transfer arm 210A is raised/lowered and/or support tines 210AT extend/retract. ) can be configured to detect surrounding objects.

레이저 센서(271) 및 초음파 센서(272)는 케이스 유닛이 예를 들어 보관 선반(555) 및/또는 리프트(150)(또는 페이로드를 검색하기에 적합한 임의의 다른 위치)로부터 선택되기 전에 자율 운송 차량(110)이 운반하는 로드(load)를 형성하는 각각의 케이스 유닛에 대해 자신을 위치시키도록 자율 운송 차량(110)이 자신을 위치시키도록 구성될 수 있다. 레이저 센서(271) 및 초음파 센서(272)는 또한 차량이 비어있는 보관 위치(130S)에 케이스 유닛을 배치하기 위해 비어있는 보관 위치(130S)에 대해 그 자체의 위치를 찾는 것을 허용할 수 있다. 레이저 센서(271) 및 초음파 센서(272)는 또한 자율 운송 차량(110)이 운반하는 페이로드가 예를 들어, 보관 공간(130S)에 놓이기 전에 보관 공간(또는 다른 로드 적재 위치)이 비어 있음을 자율 운송 차량(110)이 확인하게 할 수 있다. 일 예에서, 레이저 센서(271)는 자율 운송 차량(110)으로(또는 그로부터) 전달될 물품의 에지를 검출하기 위한 적절한 위치에서 자율 운송 차량(110)에 장착될 수 있다. 레이저 센서(271)는 센서가 저장 선반(555)의 후방까지 "보는" 것을 가능하게 하기 위해, 예를 들어 선반(555)의 후방에 위치하는 역반사(retro-reflective) 테이프(또는 다른 적절한 반사 표면, 코팅 또는 재료)와 함께 작동할 수 있다. 보관 선반의 뒤쪽에 위치한 반사 테이프는 레이저 센서(1715)가 선반(555)에 위치한 품목의 색상, 반사도, 원형도 또는 기타 적절한 특성에 의해 실질적으로 영향을 받지 않도록 허용한다. 초음파 센서(272)는 자율 운송 차량(110)이 피킹 깊이(예를 들어, 선반(555)으로부터 아이템(들)을 피킹하기 위해 선반(555) 내로 이동하는 거리)를 결정할 수 있도록 자율 운송 차량(110)으로부터 제1아이템까지의 거리를 측정하도록 구성될 수 있다. 레이저 센서(271) 및 초음파 센서(272) 중 하나 이상은 예를 들어, 자율 운송 차량(110)과 자율 운송 차량(110)이 피킹될 케이스 유닛에 인접한 정지부에 도달함에 따라 피킹될 케이스 유닛의 전면 사이의 거리를 측정함으로써 케이스 배향(예를 들어, 저장 선반들(555) 내의 케이스들의 스큐잉(skewing))의 검출을 허용할 수 있다. 케이스 센서는 예를 들어, 케이스 유닛이 선반 위에 배치된 후 케이스 유닛을 스캔함으로써 예를 들어 보관 선반(555) 위에 케이스 유닛의 배치를 확인할 수 있게 해줄 수 있다. The laser sensor 271 and the ultrasonic sensor 272 may be configured to autonomously transport the case unit before it is selected from, for example, a storage shelf 555 and/or a lift 150 (or any other location suitable for retrieving the payload). Autonomous transport vehicle 110 may be configured to position itself relative to each case unit that forms the load that vehicle 110 carries. The laser sensor 271 and ultrasonic sensor 272 may also allow the vehicle to locate itself relative to the empty storage location 130S to place the case unit in the empty storage location 130S. Laser sensor 271 and ultrasonic sensor 272 may also indicate that the storage space (or other load loading location) is empty before the payload carried by autonomous transport vehicle 110 is placed in storage space 130S, for example. The autonomous transport vehicle 110 can confirm. In one example, laser sensor 271 may be mounted on autonomous transport vehicle 110 at an appropriate location to detect the edges of items to be transferred to (or from) autonomous transport vehicle 110. The laser sensor 271 may be connected to, for example, a retro-reflective tape (or other suitable reflective tape) positioned to the rear of the storage shelf 555 to enable the sensor to "see" all the way to the rear of the storage shelf 555. surface, coating or material). Reflective tape located on the back of the storage shelf allows the laser sensor 1715 to be substantially unaffected by the color, reflectivity, circularity or other suitable characteristics of the items located on the shelf 555. Ultrasonic sensor 272 allows autonomous transport vehicle 110 to determine picking depth (e.g., the distance to travel within shelf 555 to pick item(s) from shelf 555). It may be configured to measure the distance from 110) to the first item. One or more of the laser sensor 271 and the ultrasonic sensor 272 may detect, for example, the autonomous transport vehicle 110 and the case unit to be picked as the autonomous transport vehicle 110 reaches a stop adjacent to the case unit to be picked. Measuring the distance between the front surfaces may allow detection of case orientation (e.g., skewing of cases within storage shelves 555). A case sensor may enable confirmation of the placement of a case unit on a storage shelf 555, for example, by scanning the case unit after it has been placed on the shelf.

차량 근접 센서(278)는 또한 픽업 통로(130A) 및/또는 리프트(150)에 대한 자율 운송 차량(110)의 위치를 결정하기 위해 프레임(200)에 배치될 수 있다. 차량 근접 센서(278)는 차량(110)이 피킹 통로(130A)를 통해(및/또는 이송 영역(195) 및/또는 리프트(150) 액세스 위치의 벽 상에) 이동하는 레일(130AR) 상에 배치된 타겟들 또는 위치 결정 특성을 감지하도록 자율 운송 차량(110) 상에 위치된다. 레일(130AR) 상의 타겟의 위치는 레일(130AR)을 따라 증분형 또는 절대형 인코더를 형성하도록 알려진 위치에 있다. 차량 근접 센서(278)는 타겟을 감지하고 컨트롤러(122)에 센서 데이터를 제공하여 컨트롤러(122)가 감지된 타겟에 기초하여 픽업 통로(130A)를 따라 자율 운송 차량(110)의 위치를 결정하도록 한다.Vehicle proximity sensor 278 may also be disposed on frame 200 to determine the position of autonomous transport vehicle 110 relative to pickup aisle 130A and/or lift 150. Vehicle proximity sensor 278 is positioned on rail 130AR along which vehicle 110 moves through picking aisle 130A (and/or on the walls of transfer area 195 and/or lift 150 access locations). positioned on the autonomous transport vehicle 110 to sense positioned targets or positioning characteristics. The positions of the targets on rail 130AR are known to form an incremental or absolute encoder along rail 130AR. Vehicle proximity sensor 278 detects targets and provides sensor data to controller 122 so that controller 122 determines the position of autonomous transport vehicle 110 along pickup aisle 130A based on the detected targets. do.

물리적 특성 감지 시스템(270)의 센서는 자율 운송 차량(110)의 컨트롤러(122)에 통신 가능하게 결합된다. 본 명세서에 설명된 바와 같이, 컨트롤러(122)는 구동 섹션(261D) 및/또는 이송 암(210A)에 작동 가능하게 연결된다. 컨트롤러(122)는 보관 및 회수 설비/시스템(100)을 횡단하는 자율 운송 차량(110)의 독립적인 안내에 영향을 미치는 물리적 특성 센서 시스템(270)의 차량 자세 및 위치(예를 들어, 최대 6개의 자유도, X, Y, Z, Rx, Ry, Rz)의 정보로부터 결정하도록 구성된다. 컨트롤러(122)는 또한 물리적 특성 센서 시스템(270)의 페이로드(예를 들어, 케이스 유닛(CU))의 자세 및 위치(자율 운송 차량(110)에 탑승 또는 오프-보드)의 정보로부터 결정되도록 구성되어, 보관 위치(예를 들어, 케이스 유닛(CU)의 하부로부터 케이스 유닛(CU)의 승강) 및 페이로드 침대(210B) 내의 보관 위치(130S)로의 위치 및 페이로드(CU)의 위치로부터 독립적인 언더픽 및 위치를 결정한다.Sensors of physical characteristic detection system 270 are communicatively coupled to controller 122 of autonomous transportation vehicle 110 . As described herein, controller 122 is operably coupled to drive section 261D and/or transfer arm 210A. Controller 122 may monitor vehicle attitude and position of physical property sensor systems 270 (e.g., up to 6 It is configured to determine from the information of the degrees of freedom (X, Y, Z, Rx, Ry, Rz). Controller 122 may also determine from information about the attitude and position (on or off-board autonomous transport vehicle 110) of the payload (e.g., case unit (CU)) of physical characteristic sensor system 270. Configured, from the location of the payload CU to and from the storage location (e.g., lifting the case unit CU from the bottom of the case unit CU) and the storage location 130S within the payload bed 210B. Determines independent underpicks and positions.

전술한 바와 같이, 도 1a, 도 1b, 도 2, 도 4a 및 도 4b를 참조하면, 자율 운송 차량(110)은 프레임(200)에 연결된 보조 또는 예비 네비게이션 센서 시스템(288)을 포함한다. 보조 네비게이션 센서 시스템(288)은 물리적 특성 센서 시스템(270)을 보조한다. 보조 네비게이션 센서 시스템(288)은 적어도 부분적으로, 물리적 특성 센서 시스템(270)의 정보를 보조하는 (차량(110)이 동작하는 보관 및 회수 시스템 구조물 또는 설비에 대하여) 및 페이로드 자세 또는 위치(보관 위치 또는 페이로드 베드(210B)에 대하여) 중 적어도 하나를 알리는 이미지 데이터를 캡처하도록 배치된 카메라를 갖는 비전 시스템(400)이다. 본 명세서에 기재된 "카메라"는 2차원 카메라, RGB(적색, 녹색, 청색) 픽셀을 갖는 2차원 카메라, XYZ+A 정의를 갖는 3차원 카메라(여기서 XYZ는 카메라의 3차원 참조 프레임이고 A는 레이더 복귀 강도, 비행 시간 스탬프 또는 기타 거리 결정 스탬프/표시기 중 하나) 및 RGB 및 3차원 좌표계 정보를 모두 포함하는 RGB/XYZ 카메라 중 하나 이상을 포함하는 정지 이미징 또는 비디오 이미징 장치를 포함하며, 이에 대한 비제한적인 예가 여기에 제공됨에 유의한다. 비전 시스템(400)이 다른 양태에서 자율 운송 차량(110)에 관하여 본 명세서에 기술되며, 다른 양태에서 비전 시스템(400)은 수직 리프트(150)의 부하 핸들링 장치(150LHD)(도 1 - 자율 운송 차량(110)의 페이로드 베드(210B)와 실질적으로 유사할 수 있음) 또는 인피드 이송 스테이션들(170)의 팰릿 빌더(pallet builder)에 적용될 수 있음을 이해해야 한다. 비전 시스템(400)이 통합될 수 있는 리프트의 화물 처리 장치의 적합한 예는 2021년 3월 16일에 발행된 발명의 명칭 "제품 주문 이행을 위한 수직 시퀀서"인 미국 특허 번호 10,947,060에 설명되어 있으며 그 개시 내용은 본 명세서에 전체가 참조로 포함된다.As previously discussed and with reference to FIGS. 1A, 1B, 2, 4A and 4B, autonomous transport vehicle 110 includes an auxiliary or redundant navigation sensor system 288 coupled to frame 200. Auxiliary navigation sensor system 288 assists physical characteristic sensor system 270. The auxiliary navigation sensor system 288 may, at least in part, assist with information from the physical characteristics sensor system 270 (relative to the storage and retrieval system structure or facility on which the vehicle 110 operates) and payload attitude or position (storage A vision system 400 having a camera positioned to capture image data indicative of at least one of a position or (relative to) a payload bed 210B. As used herein, a “camera” refers to a two-dimensional camera, a two-dimensional camera with RGB (red, green, blue) pixels, a three-dimensional camera with the definition XYZ+A, where XYZ is the three-dimensional reference frame of the camera and A is the radar. a still imaging or video imaging device, including one or more of a return strength, time-of-flight stamp, or other range determination stamp/indicator) and an RGB/XYZ camera containing both RGB and three-dimensional coordinate system information, Note that limited examples are provided here. In another aspect, the vision system 400 is described herein with respect to an autonomous transportation vehicle 110, and in another aspect the vision system 400 includes a load handling device 150LHD of a vertical lift 150 (FIG. 1 - autonomous transportation vehicle 110). It should be understood that it may be applied to a payload bed 210B of a vehicle 110) or a pallet builder of infeed transfer stations 170. A suitable example of a load handling device for a lift in which the vision system 400 may be integrated is described in U.S. Patent No. 10,947,060, entitled “Vertical Sequencer for Product Order Fulfillment,” issued March 16, 2021, The disclosure is hereby incorporated by reference in its entirety.

도 2, 도 4A, 도 4B, 도 25A, 도 25B 및 도 25C를 참조하면, 비전 시스템(400)은 다음 중 하나 이상을 포함한다: 케이스 유닛 모니터링 카메라(410A, 410B)(통칭하여 모니터링 카메라(410)라고 함), 전방 네비게이션 카메라(420A, 420B) 및 후방 네비게이션 카메라(430A, 430B)(본 명세서에서 네비게이션 카메라(430)로 통칭함), 하나 이상의 3차원 이미징 시스템(440A, 440B), 하나 이상의 케이스 에지 감지 센서(450A, 450B), 하나 이상의 트래픽 모니터링 카메라(460A, 460B)(본 명세서에서 통칭하여 트래픽 모니터링 카메라(460)로 지칭함) 및 하나 이상의 평면 외부(예를 들어 위쪽을 향하는 또는 아래쪽을 향하는) 위치 확인 카메라(477A, 477B)(본 명세서에서 위치 확인 카메라(477)로 통칭함)(아래쪽을 향하는 카메라는 물리적 특성 센서 시스템(270)의 센서(275)를 추종하는 라인을 보조하고, 차량 경로가 라인 추종 센서(275) 시야에서 안내 라인(900)을 제거하도록 안내 라인(900)에서 차량 경로가 벗어난 경우, 차량(110)의 안내/횡단을 라인 추종 센서(275)의 시야 내로 다시 배치하도록 라인 추종 센서(275)보다 더 넓은 시야를 제공함). 평면 외부 위치 확인 카메라(477)는 라인 추종 센서(275)와 함께 채용될 수 있고 라인 추종 센서(275)보다 더 넓은 시야를 제공하여 자율 운송 차량(110)이 라인 추종 센서(275)의 검출 영역의 외부에 있는 지점으로 벗어나는 경우, 자율 운송 차량(110)을 추종 라인에 다시 배치할 수 있다. 다른 비전 시스템(400) 카메라로부터의 이미지(정적 이미지 및/또는 동적 비디오 이미지)는 임의의 주어진 자율 운송 차량(110) 작업에 대해 원하는 대로 컨트롤러(122)에 의해 비전 시스템 컨트롤러(122VC)로부터 요청된다. 예를 들어, 전송 데크(130B) 및 픽업 통로(130A)를 따라 자율 운송 차량의 네비게이션을 수행하기 위해 전방 및 후방 네비게이션 카메라(420A, 420B, 430A, 430B) 중 적어도 하나 이상으로부터 컨트롤러(122)에 의해 이미지가 획득된다. 2, 4A, 4B, 25A, 25B, and 25C, vision system 400 includes one or more of the following: case unit monitoring cameras 410A, 410B (collectively, monitoring cameras ( 410), front navigation cameras 420A, 420B and rear navigation cameras 430A, 430B (collectively referred to herein as navigation cameras 430), one or more three-dimensional imaging systems 440A, 440B, one One or more case edge detection sensors 450A, 450B, one or more traffic monitoring cameras 460A, 460B (collectively referred to herein as traffic monitoring cameras 460), and one or more out-of-plane (e.g., upward-facing or downward-facing) Positioning cameras 477A, 477B (collectively referred to herein as positioning cameras 477) (the downward facing cameras assist line tracking sensors 275 of physical property sensor system 270); , if the vehicle path deviates from the guidance line 900 so as to remove the guidance line 900 from the field of view of the line following sensor 275, guiding/traversing the vehicle 110 into the field of view of the line following sensor 275. Provides a wider field of view than the line following sensor 275 for repositioning). The out-of-plane positioning camera 477 may be employed in conjunction with the line-following sensor 275 and provides a wider field of view than the line-following sensor 275 so that the autonomous transport vehicle 110 can be positioned within the detection area of the line-following sensor 275. If it deviates to a point outside of , the autonomous transport vehicle 110 can be placed back in the follow line. Images (static images and/or dynamic video images) from other vision system 400 cameras are requested from vision system controller 122VC by controller 122 as desired for any given autonomous transport vehicle 110 task. . For example, to perform navigation of the autonomous transport vehicle along the transfer deck 130B and pickup aisle 130A, the controller 122 is configured to receive signals from at least one of the front and rear navigation cameras 420A, 420B, 430A, 430B. The image is acquired by

다른 예로서, 컨트롤러(122)는 케이스 에지 검출 센서(450A, 450B) 및 케이스 유닛 모니터링 카메라(410A, 410B) 중 하나 이상으로부터 이미지를 획득할 수 있고, 여기서 케이스 에지 검출 센서(450A, 450B) 및 케이스 유닛 모니터링 카메라(410A, 410B)는 차량(110)에 의한 케이스 핸들링을 효과적으로 수행하도록 채용된다. 케이스 핸들링은 케이스 유닛 유지 위치(예를 들어 케이스 유닛 로컬라이제이션, 케이스 유닛의 검증, 페이로드 베드(210B) 및/또는 보관 선반 또는 버퍼 위치와 같은 케이스 유닛 유지 위치에서 케이스 유닛의 위치의 검증)로부터 케이스 유닛을 피킹 및 플레이싱을 포함한다. As another example, controller 122 may acquire images from one or more of case edge detection sensors 450A, 450B and case unit monitoring cameras 410A, 410B, wherein case edge detection sensors 450A, 450B and Case unit monitoring cameras 410A and 410B are employed to effectively perform case handling by vehicle 110. Case handling may be performed from a case unit holding location (e.g., case unit localization, verification of the case unit, verification of the position of the case unit at a case unit holding location, such as payload bed 210B and/or a storage shelf or buffer location). Includes picking and placing units.

평면 외부 로컬라이제이션 카메라(477A, 477B)로부터의 이미지는 자율 운송 차량의 네비게이션에 영향을 미치고/미치거나 전방 및 후방 네비게이션 카메라(420A, 420B, 430A, 430B) 중 하나 이상으로부터의 로컬라이제이션/네비게이션 데이터에 보조하는 데이터(예를 들어, 이미지 데이터)를 제공하기 위해 컨트롤러(122)에 의해 획득될 수 있다. 하나 이상의 트래픽 모니터링 카메라(460A, 460B)로부터의 이미지는 컨트롤러(122)에 의해 획득될 수 있으며, 여기서 트래픽 모니터링 카메라(460)는 픽업 통로(130A)에서 이송 데크(130B)까지 자율 운송 차량(110)의 이동 전환(예를 들어, 이송 데크(130B)로의 진입 및 자율 운송 차량(110)과 이송 데크(130B)를 따라 이동하는 다른 자율 운송 차량의 합류)을 수행하기 위해 채용된다.Images from the out-of-plane localization cameras 477A, 477B may influence navigation of the autonomous transport vehicle and/or supplement localization/navigation data from one or more of the front and rear navigation cameras 420A, 420B, 430A, 430B. may be obtained by the controller 122 to provide data (e.g., image data). Images from one or more traffic monitoring cameras 460A, 460B may be acquired by controller 122, where traffic monitoring cameras 460 are positioned on autonomous transport vehicle 110 from pickup aisle 130A to transfer deck 130B. ) is employed to perform movement transitions (e.g., entry into transfer deck 130B and joining of autonomous transport vehicle 110 with another autonomous transport vehicle moving along transfer deck 130B).

케이스 유닛 모니터링 카메라(410A, 410B)는 임의의 적합한 고해상도 또는 저해상도 비디오 카메라(약 480개 이상의 수직 주사선을 포함하고 약 50프레임/초 이상으로 캡처된 비디오 이미지는 고해상도로 간주됨)이다. 케이스 유닛 모니터링 카메라(410A, 410B)는 페이로드 베드(210B)로의 케이스 유닛(CU) 진입 및 퇴출을 모니터링하도록 구성된 스테레오 비전 카메라 시스템을 형성하도록 서로에 대해 배열된다. 케이스 유닛 모니터링 카메라(410A, 410B)는 임의의 적절한 방식으로 프레임(200)에 결합되고 적어도 페이로드 베드(210B)에 초점이 맞춰진다. 하나 이상의 양태에서, 케이스 유닛 모니터링 카메라(410A, 410B)는 전송 암(210A)과 함께 방향 LAT로 이동하도록(예를 들어 케이스 유닛(CU)를 집어 배치할 때) 이송 암(210A)에 결합되고, 페이로드 베드(210B)와 이송 암(210A)의 지지 타인(210AT)에 초점이 맞춰졌다. Case unit monitoring cameras 410A, 410B are any suitable high resolution or low resolution video cameras (video images containing more than about 480 vertical scan lines and captured at more than about 50 frames/second are considered high resolution). Case unit monitoring cameras 410A, 410B are arranged relative to each other to form a stereo vision camera system configured to monitor case unit (CU) entry and exit into payload bed 210B. Case unit monitoring cameras 410A, 410B are coupled to frame 200 in any suitable manner and are focused on at least payload bed 210B. In one or more aspects, the case unit monitoring cameras 410A, 410B are coupled to the transfer arm 210A to move in a direction LAT with the transfer arm 210A (e.g., when picking and placing the case unit CU). , the focus was on the payload bed 210B and the support tines 210AT of the transfer arm 210A.

도 5a를 참조하면, 케이스 유닛 모니터링 카메라(410A, 410B)는 케이스 유닛 결정, 케이스 유닛 로컬라이제이션, 케이스 유닛 위치 검증 및 케이스 유닛 정렬 특성(예를 들어, 정렬 블레이드(471) 및 푸셔(470)) 및 케이스 이송 특성(예를 들어, 타인(210AT), 풀러(472) 및 페이로드 베드 플로어(473) 중 적어도 부분적으로 하나 이상에 영향을 미친다. 예를 들어, 케이스 유닛 모니터링 카메라(410A, 410B)는 케이스 유닛 길이(CL, CL1, CL2, CL3), 케이스 유닛 높이(CH1, CH2, CH3) 및 케이스 유닛 요(yaw)(YW) 중 하나 이상을 검출한다(예를 들어, 이송 암(210A)의 신축 방향 LAT에 대하여). 케이스 핸들링 센서로부터의 데이터(예를 들어, 위에서 언급됨)는 또한 페이로드 베드(210B)가 비어 있는 곳(예를 들어, 케이스 유닛을 보유하지 않음)과 같은 푸셔(470), 풀러(472) 및 정렬 블레이드(471)의 위치/위치들을 제공할 수 있다.5A, case unit monitoring cameras 410A, 410B perform case unit determination, case unit localization, case unit location verification, and case unit alignment characteristics (e.g., alignment blade 471 and pusher 470), and Affects case transport characteristics (e.g., at least partially one or more of tines 210AT, puller 472, and payload bed floor 473. For example, case unit monitoring cameras 410A, 410B) Detect one or more of case unit length (CL, CL1, CL2, CL3), case unit height (CH1, CH2, CH3), and case unit yaw (YW) (e.g., of the transfer arm 210A). (relative to stretch direction LAT). Data from case handling sensors (e.g., mentioned above) may also indicate where payload bed 210B is empty (e.g., not holding a case unit) such as a pusher (e.g., not holding a case unit). 470), the position/positions of the puller 472 and the alignment blade 471 may be provided.

케이스 유닛 모니터링 카메라(410A, 410B)는 또한 자율 운송 차량(110)의 기준 위치에 대해 전면 케이스 중심점(FFCP)(예를 들어, X, Y, Z 방향으로 케이스 유닛이 선반 상에 배치된 상태 또는 차량(110) 밖의 다른 유지 영역)의 결정인 비전 시스템 컨트롤러(122VC)와 함께 효과적으로 구성된다. 자율 운송 차량(110)의 기준 위치는 페이로드 베드(210B)의 하나 이상의 정렬 표면 또는 페이로드 베드(210B)의 중심선(CLPB)에 의해 정의될 수 있다. 예를 들어, 전면 케이스 중심점(FFCP)는 페이로드 베드(210B)(도 4a)의 중심선(CLPB)에 대해 종축(LAX)을 따라(예를 들어 Y 방향) 결정될 수 있다. 전면 케이스 중심점(FFCP)은 페이로드 베드(210B)의 케이스 유닛 지지면(PSP)에 대하여 수직축(VER)(예를 들어 Z 방향)을 따라 결정될 수 있다(도 4b - 이송 암(210A)의 타인(210AT) 및 페이로드 베드 플로어(473) 중 하나 이상에 의해 형성됨). 전면 케이스 중심점(FFCP)은 푸셔(470)(도 4a)의 정렬 평면(JPP)에 대해 측방향 축(LAT)(예를 들어 X 방향)을 따라 결정될 수 있다. 보관 선반(555) 상에 위치한 케이스 유닛(CU)의 전면 케이스 중심점(FFCP) 또는 다른 케이스 유닛 유지 위치의 결정은, 선택될 케이스 유닛(CU)에 대한 자율 운송 차량(110)의 로컬라이제이션을 위한 비제한적인 예로서, 보관 구조물 내의 케이스 유닛의 위치를 매핑하는 것을 제공한다(예를 들어, 2016년 1월 26일 발행된 발명의 명칭 "보관 및 회수 시스템 케이스 유닛 검출"인 미국 특허 번호 9,242,800호에 기재된 것과 유사한 방식으로, 그 개시 내용은 전체적으로 본 명세서에 참조로 포함됨) 및/또는 저장 선반(555) 상의 다른 케이스 유닛에 대한 선택 및 배치 정확도를 제공한다(예를 들어, 케이스 유닛 사이의 미리 결정된 갭 크기를 유지하기 위해). 전면 케이스 중심점(FFCP)의 결정은 자율 운송 차량(110)이 가상 모델(400VM)과 동작하고 있는 "실제 세계" 환경의 비교에도 영향을 미쳐 자율 운송 차량(110)의 제어기(122)가 보관 및 회수 시스템 구조의 시뮬레이션에 기초하여 비전 시스템(400)과 "보는 것"과 자율 운송 차량(110)이 "보는 것"을 실질적으로 직접 비교하도록 한다. 더욱이, 일 양태에서, 도 5a에 예시된 바와 같이, 비전 시스템 컨트롤러(122VC)에 의해 결정된 물체(케이스 단위) 및 특성은 설비 기준 프레임에 대해 최대 6 자유도의 물체 자세의 가상 모델(400VM) 강화 해상도에 접합(결합, 오버레이)된다. 실현될 수 있는 바와 같이, 설비 기준 프레임을 갖는 비전 시스템(400)의 카메라의 등록은 글로벌 기준(가상 모델(400VM)에서 렌더링 된 설비 특징들) 및 이미지화 된 물체 둘 모두에 대해 차량(110) 자세 및/또는 위치의 향상된 해상도를 허용한다. 보다 구체적으로, 물체 이미지와 가상 모델을 결합할 때 명백하고 식별되는 물체 위치 불일치 또는 이상(예를 들어, 가상 모델(400VM)의 랙 슬랫(rack slat, 520L)에 대한 케이스 유닛 기준 에지 사이의 에지 간격 또는 케이스 유닛 경사 또는 표시) , 미리 결정된 공칭 임계값보다 큰 경우, 케이스, 랙 및/또는 차량(110) 중 하나 이상의 잘못된 자세를 설명한다. 케이스, 랙 또는 차량(110)의 자세/위치에 오류가 있는지 여부에 대한 식별은 센서(270) 및 보조 네비게이션 센서 시스템(288)의 자세 데이터와의 비교를 통해 결정된다.The case unit monitoring cameras 410A, 410B also monitor the front case center point (FFCP) relative to the reference position of the autonomous transport vehicle 110 (e.g., with the case unit placed on a shelf in the X, Y, Z directions, or It is effectively configured with a vision system controller 122VC to determine other maintenance areas outside the vehicle 110. The reference position of autonomous transport vehicle 110 may be defined by one or more alignment surfaces of payload bed 210B or the center line (CLPB) of payload bed 210B. For example, the front case center point (FFCP) may be determined along the longitudinal axis (LAX) (e.g., in the Y direction) with respect to the centerline (CLPB) of the payload bed 210B (FIG. 4A). The front case center point (FFCP) may be determined along the vertical axis (VER) (e.g., Z direction) relative to the case unit support surface (PSP) of the payload bed 210B (FIG. 4B - tines of transfer arm 210A) (210AT) and payload bed floor 473). The front case center point (FFCP) may be determined along the lateral axis (LAT) (e.g., in the X direction) relative to the alignment plane (JPP) of the pusher 470 (FIG. 4A). Determination of the front case center point (FFCP) of a case unit (CU) located on a storage shelf (555) or other case unit holding positions determines the ratio for localization of the autonomous transport vehicle (110) with respect to the case unit (CU) to be selected. As a limiting example, it provides for mapping the location of case units within a storage structure (e.g., in U.S. Patent No. 9,242,800, entitled “Storage and Retrieval System Case Unit Detection,” issued January 26, 2016). In a manner similar to that described, the disclosure of which is incorporated herein by reference in its entirety, the disclosure provides selection and placement accuracy for other case units on storage shelf 555 (e.g., predetermined differences between case units). to maintain gap size). The determination of the front case center point (FFCP) also influences comparison of the “real world” environment in which the autonomous transport vehicle 110 is operating with the virtual model (400VM), allowing the controller 122 of the autonomous transport vehicle 110 to store and Based on a simulation of the recovery system architecture, it allows for a virtually direct comparison of what the vision system 400 "sees" and what the autonomous transport vehicle 110 "sees". Moreover, in one aspect, as illustrated in FIG. 5A , the object (case by case) and characteristics determined by the vision system controller 122VC are enhanced resolution virtual models (400VM) of the object pose in up to 6 degrees of freedom relative to the facility reference frame. It is joined (combined, overlaid) to. As may be realized, registration of the cameras of the vision system 400 with a fixture reference frame can determine the vehicle 110 pose with respect to both a global reference (fixture features rendered in the virtual model 400VM) and the imaged object. and/or allow for improved resolution of location. More specifically, when combining the object image and the virtual model, any apparent and identifiable object position inconsistencies or anomalies (e.g., edges between case unit reference edges to rack slats (520L) in the virtual model (400VM) spacing or case unit inclination or indication), if greater than a predetermined nominal threshold, describes a malposition of one or more of the cases, racks and/or vehicles 110. Identification of whether there is an error in the attitude/position of the case, rack, or vehicle 110 is determined through comparison with attitude data from sensors 270 and auxiliary navigation sensor system 288.

상술한 향상된 해상도의 일례로서, 비전 시스템(400)에 의해 촬영되는 선반에 배치된 하나의 케이스 유닛을 동일 선반에 병치된 케이스 유닛과 비교하여(또한 비전 시스템에 의해 촬영됨) 가상 모델(400VM)로 돌리면, 비전 시스템(400)은 하나의 케이스가 편향된 것으로 판단하고, 케이스 자세 및 위치의 향상된 해상도에 기초하여 하나의 케이스를 선택할 수 있도록 이송 암(210A)을 조작하고 이송 암(210A)을 위치시키기 위해 향상된 케이스 위치 정보를 컨트롤러(122)에 제공할 수 있다. 다른 예로서, 케이스의 에지가 슬랫(520L)(도 5a-5c 참조) 에지로부터 미리 결정된 임계치 이상 오프셋되는 경우, 비전 시스템(400)은 케이스에 대한 위치 에러를 발생시킬 수 있다; 오프셋이 임계치 이내인 경우, 보조 네비게이션 센서 시스템(288)으로부터의 보조 정보는 자세/위치 해상도(예를 들어, 솔트(salt, 520L) 및 차량(110) 페이로드 베드(210B) 이송 암(210A) 프레임에 대해 케이스의 결정된 포즈/위치와 실질적으로 동일한 오프셋)를 향상시킨다는 점에 주목한다. 슬랫(520L) 에지에 대해 오직 하나의 케이스만이 치우쳐/오프셋되는 경우, 비전 시스템은 케이스 위치 에러를 발생시킬 수 있음을 추가로 유의한다; 그러나, 둘 이상의 병치된 케이스가 슬랫(520L) 에지에 대해 치우쳐진 것으로 결정되는 경우, 비전 시스템은 차량(110) 자세 에러 및 차량(110)의 위치 재배치 효과(예를 들어, 보조 네비게이션 센서 시스템(288) 보충 정보로부터 결정된 오프셋에 기초하여 차량(110)의 위치를 수정) 또는 운영자에 대한 서비스 메시지(예를 들어, 비전 시스템(400)이 원격 제어 동작에 영향을 미치기 위해 비전 시스템으로부터 전달되는 이미지(정지 및/또는 실시간 비디오)로 운영자에 의한 차량(110)의 원격 제어를 제공하는 "대시 캠" 협동 모드(본 명세서에 기술된 바와 같이)를 발생시킬 수 있다. 차량(110)은 운영자가 차량(110)의 원격 제어를 시작할 때까지 정지될 수 있다(예를 들어, 피킹 통로(130A) 또는 이송 데크(130B)를 횡단하지 않음). As an example of the improved resolution described above, one case unit placed on a shelf imaged by the vision system 400 is compared to a case unit juxtaposed on the same shelf (also imaged by the vision system) to produce a virtual model (400VM). When turned, vision system 400 determines that one case is biased and manipulates transfer arm 210A and positions transfer arm 210A to select one case based on improved resolution of case posture and position. In order to do this, improved case location information can be provided to the controller 122. As another example, if the edge of the case is offset more than a predetermined threshold from the edge of the slat 520L (see FIGS. 5A-5C), the vision system 400 may generate a position error for the case; If the offset is within a threshold, the auxiliary information from the auxiliary navigation sensor system 288 may provide attitude/position resolution (e.g., salt 520L and vehicle 110 payload bed 210B) transfer arm 210A. Note that this improves the offset (substantially equal to the determined pose/position of the case relative to the frame). It is further noted that if only one case is biased/offset relative to the slat 520L edge, the vision system may generate case position errors; However, if two or more juxtaposed cases are determined to be biased toward the slat 520L edge, the vision system may detect vehicle 110 attitude errors and vehicle 110 position relocation effects (e.g., auxiliary navigation sensor system (e.g., auxiliary navigation sensor system ( 288) correct the position of the vehicle 110 based on an offset determined from supplemental information) or a service message to the operator (e.g., an image conveyed from the vision system 400 to effect remote control operation) A “dash cam” cooperative mode (as described herein) may be created that provides remote control of vehicle 110 by an operator (in still and/or real-time video). Vehicle 110 may be operated by an operator. Vehicle 110 may be stopped (e.g., not traversing picking aisle 130A or transfer deck 130B) until remote control of vehicle 110 begins.

케이스 유닛 모니터링 카메라(410A, 410B)는 또한, 예를 들어, 보관 선반 또는 다른 유지 위치로부터 케이스 유닛을 선택/배치하기 전 및/또는 후에(예를 들어, 이송 암 방해 없이 이송 암(210A)으로 케이스 유닛의 선택/배치를 효과적으로 하기 위해, 정렬 특성 및 케이스 이송 특성의 위치/위치를 확인하기 위해) 자율 운송 차량(110)의 케이스 유닛 정렬 특성 및 케이스 이송 특성의 위치에 관하여 피드백을 제공할 수 있다. 예를 들어, 전술한 바와 같이, 케이스 유닛 모니터링 카메라(410A, 410B)는 페이로드 베드(210B)를 둘러싸는 시야를 갖는다. 비전 시스템 컨트롤러(122VC)는 케이스 유닛 모니터링 카메라(410A, 410B)로부터 센서 데이터를 수신하고, 비전 시스템 컨트롤러(122VC)의 메모리에 저장되거나 그에 의해 액세스 가능한 임의의 적합한 이미지 인식 알고리즘으로, 푸셔(470)의 위치, 정렬 블레이드(471), 풀러(472), 타인(210AT), 및/또는 페이로드 베드(210B) 상에 보유된 케이스 유닛과 맞물리는 페이로드 베드(210B)의 임의의 다른 특성을 결정하도록 구성된다. 푸셔(470), 정렬 블레이드(471), 풀러(472), 타인(210AT), 및/또는 페이로드 베드(210B)의 임의의 다른 특성의 위치는 모터 인코더 또는 다른 각각의 위치 센서에 의해 결정된 푸셔(470), 정렬 블레이드(471), 풀러(472), 타인(210AT), 및/또는 페이로드 베드(210B)의 임의의 다른 특성의 각각의 위치를 검증하기 위해 컨트롤러(122)에 의해 채용될 수 있지만, 일부 양태에서 비전 시스템 컨트롤러(122VC)에 의해 결정된 위치들은 인코더/위치 센서 오작동 시에 리던던시(redundancy)로서 채용될 수 있다.Case unit monitoring cameras 410A, 410B may also be configured to monitor case units prior to and/or after selection/placement of case units, e.g., from a storage shelf or other holding location, e.g., to transfer arm 210A without disturbing the transfer arm. Provide feedback regarding the position of the case unit alignment characteristics and case transport characteristics of the autonomous transport vehicle 110 (to determine the location/position of the alignment characteristics and case transport characteristics, in order to effectively select/place case units). there is. For example, as described above, case unit monitoring cameras 410A, 410B have a field of view surrounding payload bed 210B. Vision system controller 122VC receives sensor data from case unit monitoring cameras 410A, 410B, and any suitable image recognition algorithms stored in or accessible by the memory of vision system controller 122VC, pusher 470. Determine the position of the alignment blades 471, pullers 472, tines 210AT, and/or any other characteristics of the payload bed 210B in engagement with case units held on the payload bed 210B. It is configured to do so. The positions of pusher 470, alignment blade 471, puller 472, tines 210AT, and/or any other features of payload bed 210B are determined by a motor encoder or other respective position sensor. 470, alignment blade 471, puller 472, tines 210AT, and/or any other characteristics of payload bed 210B. However, in some aspects the positions determined by the vision system controller 122VC may be employed as redundancy in the event of an encoder/position sensor malfunction.

페이로드 베드(21B) 내의 케이스 유닛(CU)의 정렬 위치는 케이스 유닛 모니터링 카메라(410A, 410B)에 의해 검증될 수도 있다. 예를 들어, 도 4c도 참조하면, 비전 시스템 컨트롤러(122VC)는 케이스 유닛 모니터링 카메라(410A, 410B)로부터 센서 데이터를 수신하고, 비전 시스템 컨트롤러(122VC)에 의해 메모리에 저장되거나 액세스 가능한 임의의 적합한 이미지 인식 알고리즘, 예를 들어, 페이로드 베드(210B)의 중심선(CLPB) 내의 케이스 유닛의 위치, 푸셔(470)의 정렬 평면(JPP)의 기준/홈 위치, 및 케이스 유닛 지지 평면(PSP) 내의 임의의 적합한 이미지 인식 알고리즘을 결정하도록 구성된다. 여기서, 페이로드 베드(210B) 내의 케이스 유닛(CU)의 위치 결정은 적어도 보관 선반(555) 상의 다른 케이스 유닛에 대한 위치 정확도에 영향을 미친다(예를 들어, 케이스 유닛 사이의 미리 정해진 간격 크기를 유지하도록). The alignment position of the case unit (CU) within the payload bed 21B may be verified by case unit monitoring cameras 410A and 410B. For example, also referring to Figure 4C, vision system controller 122VC receives sensor data from case unit monitoring cameras 410A, 410B and any suitable data stored in memory or accessible by vision system controller 122VC. Image recognition algorithms, e.g., the position of the case unit within the centerline (CLPB) of the payload bed 210B, the reference/home position of the alignment plane (JPP) of the pusher 470, and the case unit support plane (PSP) and configured to determine any suitable image recognition algorithm. Here, the positioning of a case unit (CU) within the payload bed 210B at least affects the positional accuracy relative to other case units on the storage shelf 555 (e.g., a predetermined spacing size between case units). to maintain).

도 2, 도 4a, 도 4b, 도 6, 도 7a, 도 7a, 도 8을 참조하면, 하나 이상의 3차원 이미징 시스템(440A, 440B)은 예를 들어, 비행 시간 카메라, 이미징 레이더 시스템, 광 검출 및 범위(LIDAR) 등을 포함하지만 이에 제한되지 않는 임의의 적합한 3차원 이미지(들)를 포함한다. 하나 이상의 3차원 이미징 시스템(440A, 440B)은 비전 시스템 컨트롤러(122VC)와 함께, 케이스 유닛(CU)의 전면(즉, 전면 표면)의 크기(예를 들어, X, Y, Z 방향) 및 케이스 유닛(CU)을 지지하는 선반의 불변성(예를 들어, 하나 이상의 3차원 이미징 시스템(440A, 440B)은 케이스 유닛(CU)을 지지하는 선반에 대한 참조 없이 케이스 유닛(CU)의 위치에 영향을 미치고, 케이스 유닛의 선반 불변 특성의 결정을 통해 케이스 유닛이 선반에 지지되는지 여부에 대한 결정에 영향을 미칠 수 있다. 여기서, 전면 표면 및 케이스 중심점(FFCP)의 결정은 자율 운송 차량(110)이 가상 모델(400VM)과 동작하고 있는 "실제 세계" 환경의 비교에도 영향을 미쳐, 자율 운송 차량(110)의 제어기(122)가 저장 및 검색 시스템 구조의 시뮬레이션에 기초하여 비전 시스템(400)과 "보는" 것과 자율 운송 차량(110)이 "보는" 것을 실질적으로 직접 비교하도록 한다. 하나 이상의 3차원 이미징 시스템(440A, 440B)으로부터 획득된 이미지 데이터는 카메라(410A, 410B)의 이벤트 데이터가 불완전하거나 누락된 경우 카메라(410A, 410B)의 이미지 데이터를 보완할 수 있다.2, 4A, 4B, 6, 7A, 7A, 8, one or more three-dimensional imaging systems 440A, 440B may include, for example, a time-of-flight camera, an imaging radar system, or light detection. and LIDAR, etc., any suitable three-dimensional image(s). One or more three-dimensional imaging systems 440A, 440B, together with a vision system controller 122VC, monitor the size (e.g., X, Y, Z directions) of the front surface (i.e., front surface) of the case unit (CU) and the case. Invariance of the shelf supporting the unit CU (e.g., one or more three-dimensional imaging systems 440A, 440B may affect the position of the case unit CU without reference to the shelf supporting the case unit CU). Determination of the shelf-invariant properties of the case unit may influence the decision as to whether the case unit is supported on a shelf, wherein the determination of the front surface and case center point (FFCP) determines whether the autonomous transport vehicle 110 It also affects the comparison of the virtual model (400VM) with the “real world” environment in which it operates, such that the controller 122 of the autonomous transport vehicle 110 operates the vision system 400 and “ Allows for a substantially direct comparison of what the autonomous transport vehicle 110 "sees". Image data acquired from one or more three-dimensional imaging systems 440A, 440B may be used when event data from cameras 410A, 410B is incomplete or If missing, image data from the cameras 410A and 410B can be supplemented.

도 6에 예시된 바와 같이, 하나 이상의 3차원 이미징 시스템(440A, 440B)은 페이로드 베드(210B)를 대략 방향 LAT로 지나 연장되는 각자의 시야를 가짐으로써, 각 3차원 이미징 시스템(440A, 440B)이 페이로드 베드(210B)에 인접하지만 외부에 있는 케이스 유닛(예를 들어, 피킹 통로(130A, 도 5a 참조)의 길이를 따라 하나 이상의 열로 연장되도록 배치된 케이스 유닛(CU) 또는 피킹 통로(130A)를 따라 배치된 기판 버퍼/이송 스테이션들(구성에서 피킹 통로(130A)를 따라 배치된 보관 랙(599 및 이들의 선반(555))과 유사)을 감지하도록 배치된다. 각 3차원 이미징 시스템(440A, 440BF)의 시야(440AF, 440BF)는 자율 운송 차량(110)의 픽 범위의 높이(670)를 확장하는 공간(440AV, 440BV)의 부피를 포함한다(예를 들어, 암(210A)이 케이스 유닛을 선반(555)으로 또는 자율 운송 차량(110)이 탑승하는 공통 롤링 표면(284)(예를 들어 이송 데크(130B) 또는 피킹 통로(130A)의 - 도 2 참조)으로부터 접근 가능한 적층 선반으로 케이스를 픽/플레이스하기 위해 이동할 수 있는 방향 VER의 범위/높이 - 도 8 참조). 여기서, 도 8에서 볼 수 있는 바와 같이, 하나 이상의 3차원 이미징 시스템(440A, 440B)은 적어도 케이스 유닛(CU1, CU2, CU3)의 전면 표면(800A, 800B, 800C)을 구현하는 비전 시스템 컨트롤러(122VC)에 센서 데이터를 제공하며, 여기서 이러한 전면 표면 검출은 케이스 유닛을 지지하는 선반의 존재에 대한 참조 없이 검출/결정된다. 비전 시스템 컨트롤러(122VC)는 동일한 선반에 배치된 각 케이스 유닛에 공통되는 선반 불변 특성을 판단하여 감지된 케이스 유닛(CU)이 다른 케이스 유닛과 함께 선반에 배치되어 있는지 여부를 판단한다. 여기서, 실질적으로 수직 배향된 면을 갖는 케이스 유닛(CU)에 대해, 전면 법선 벡터(예를 들어, 평면 피팅에 의해) 및 전면의 저부 에지(예를 들어, 영역 에지 검출에 의해)의 추출은 자율 운반 차량 좌표계 X, Y, Z에서의 선반에 대한 평면 방정식을 제공한다. As illustrated in FIG. 6 , one or more three-dimensional imaging systems 440A, 440B have their respective fields of view extending past payload bed 210B in the approximate direction LAT, such that each three-dimensional imaging system 440A, 440B ) adjacent to, but external to, the payload bed 210B (e.g., a case unit (CU) or picking aisle (e.g., a case unit (CU) arranged to extend in one or more rows along the length of the picking aisle (130A, see Figure 5A)) Substrate buffer/transfer stations disposed along 130A (similar in configuration to storage racks 599 and their shelves 555 disposed along picking aisle 130A) are arranged to sense substrate buffer/transfer stations disposed along 130A. Each three-dimensional imaging system The field of view (440AF, 440BF) of (440A, 440BF) includes a volume of space (440AV, 440BV) extending the height (670) of the pick range of autonomous transport vehicle (110) (e.g., arm (210A) This case unit can be stacked accessible from a shelf 555 or from a common rolling surface 284 on which autonomous transport vehicle 110 rides (e.g., on transfer deck 130B or picking aisle 130A - see FIG. 2 ). Range/height of the direction VER can move to pick/place a case on the shelf - see FIG. 8), where, as can be seen in FIG. 8, one or more three-dimensional imaging systems 440A, 440B are connected to at least one case unit. Provides sensor data to the vision system controller (122VC), which implements the front surfaces (800A, 800B, 800C) of (CU1, CU2, CU3), where detection of these front surfaces is a reference to the presence of a shelf supporting the case unit. The vision system controller (122VC) determines whether the detected case unit (CU) is placed on a shelf with other case units by determining shelf-invariant characteristics common to each case unit placed on the same shelf. where, for a case unit (CU) with a substantially vertically oriented face, determine the front surface normal vector (e.g., by plane fitting) and the bottom edge of the front surface (e.g., by area edge detection). The extraction of provides the plane equations for the shelf in the autonomous guided vehicle coordinate system X, Y, Z.

도 7a 및 도 7b에서 볼 수 있는 바와 같이, 선반(555)에 앉거나/앉혀진(sitting/seated) 케이스 유닛은 하나 이상의 3차원 이미징 시스템(440A, 440B)(및 케이스 유닛 모니터링 카메라(410A, 410B)에 보이는 전면 또는 전면 표면(800)을 갖는다. 검출된 전면 표면(800)으로부터 비전 시스템 컨트롤러(122VC)는 전면 표면(800)에 법선인 전면 법선 벡터 N을 결정한다. 또한 검출된 전면 표면(800)으로부터, 비전 시스템 컨트롤러(122VC)(임의의 적절한 이미지 처리 알고리즘을 사용하여)는 전면 표면(800)의 하단 에지(777)(및 그 벡터 B)를 결정하며, 여기서 케이스 유닛(CU)의 선반 불변 특성은 전면 법선 벡터 N과 하단 가장자리(777)에서 파생된다. 예를 들어, UP 또는 Z축 벡터 U는 다음과 같이 벡터 N과 B의 외적에서 결정될 수 있다.7A and 7B, the case unit sitting/seated on shelf 555 is equipped with one or more three-dimensional imaging systems 440A, 440B (and case unit monitoring cameras 410A, 410B) has a front surface or front surface 800. From the detected front surface 800, the vision system controller 122VC determines a front normal vector N that is normal to the front surface 800. Additionally, the detected front surface From 800, vision system controller 122VC (using any suitable image processing algorithm) determines bottom edge 777 (and its vector B) of front surface 800, where case unit (CU) The shelf invariant property of is derived from the front normal vector N and the bottom edge 777. For example, the UP or Z axis vector U can be determined from the cross product of vectors N and B as follows:

U = N x B [수식 1]U = N x B [Formula 1]

저부 에지(777)의 중심점 P는 비전 시스템 컨트롤러(122VC)(그의 임의의 적합한 이미지 처리 알고리즘과 함께)에 의해 결정되며, (선반(555)에 안착된 케이스 유닛(CU)의 바닥면을 나타내는) 평면의 스칼라 방정식은 다음과 같이 쓰여질 수 있다:The center point P of the bottom edge 777 is determined by the vision system controller 122VC (along with any suitable image processing algorithm thereof) (representing the bottom surface of the case unit CU seated on the shelf 555). The scalar equation of the plane can be written as:

d = U*P [수식 2]d = U*P [Equation 2]

여기서 (U, d)는 동일한 선반(555)에 안착된 임의의 케이스 유닛에 공통적인 선반 불변 특성이다(예를 들어, 동일한 선반에 안착된 임의의 케이스 유닛은 미리 결정된 공차 내에서 동일한 선반 불변 특성 벡터를 갖는다). 여기서, 비전 시스템 컨트롤러(122VC)는 적어도 하나 이상의 3차원 이미징 시스템(440A, 440B)을 갖는 케이스 유닛(CU1, CU2, CU3)을 스캐닝하고, 선반 불변 특성을 결정함으로써, 케이스 유닛(CU1, CU2, CU3, 도 8 참조)이 동일한 선반 상에 배치되었는지 여부를 결정할 수 있다. 선반 불변 특성의 결정은 보관 및 회수 시스템 구조물의 시뮬레이션에 기초하여 자율 운송 차량(110)의 비전 시스템(400)이 실질적으로 직접적으로 "보는" 것과 자율 운송 차량(110)이 "보는" 것 사이의 비교에 적어도 부분적으로 영향을 미칠 수 있다. 선반 불변 특성의 결정은 또한 선반 불변 특성으로부터 결정된 바와 같이 선반(555)의 평면에 케이스 유닛을 배치하는 데 영향을 줄 수 있다. where (U, d) is a shelf-invariant property common to any case unit seated on the same shelf 555 (e.g., any case unit seated on the same shelf has the same shelf-invariant property within a predetermined tolerance) has a vector). Here, the vision system controller 122VC scans the case units CU1, CU2, and CU3 having at least one 3D imaging system 440A and 440B, and determines shelf-invariant characteristics to determine the case units CU1, CU2, and It is possible to determine whether CU3 (see FIG. 8) is placed on the same shelf. Determination of shelf invariant properties is based on simulations of storage and retrieval system structures between what the autonomous transport vehicle 110's 110 vision system 400 "sees" substantially and directly and what the autonomous transport vehicle 110 "sees". This may at least partially influence the comparison. Determination of the shelf invariant properties may also affect the placement of case units in the plane of the shelf 555 as determined from the shelf invariant properties.

도 2 및 도 4A를 참조하면, 전방 네비게이션 카메라(420A, 420B)는 물체 감지 및 거리 측정을 제공하도록 구성된 임의의 적합한 카메라이다. 전방 네비게이션 카메라(420A, 420B)는 자율 운송 차량(110)의 종방향 중심선(LAXCL)의 반대측에 배치되고, 전방을 향하는 시야(420AF, 420BF)가 자율 운송 차량(110)에 스테레오 비전을 제공하도록 임의의 적절한 거리로 이격될 수 있다. 전방 네비게이션 카메라(420A, 420B)는 임의의 적합한 고해상도 또는 저해상도 비디오 카메라(여기서, 약 480개 이상의 수직 스캔 라인을 포함하고 약 50 프레임/초 이상에서 캡처되는 비디오 이미지는 고해상도로 간주됨), 비행 시간 카메라, 레이저 레인징 카메라, 또는 자율 운송 차량이 이송 데크(130B)를 따라 횡단하고 피킹 통로(130A)를 따라 이동하는 것을 효과적으로 제공하기 위해 물체 검출 및 레인징을 제공하도록 구성된 임의의 다른 적합한 카메라이다. 후방 네비게이션 카메라(430A, 430B)는 전방 네비게이션 카메라와 실질적으로 유사할 수 있다. 전방 네비게이션 카메라(420A, 420B) 및 후방 네비게이션 카메라(430A, 430B)는 보관 및 회수 시스템(100) 내에서 자율 운송 차량의 로컬라이제이션뿐만 아니라 장애물 검출 및 회피(자율 운송 차량(110)의 어느 한 단부(200E1)가 이동 방향을 선도하거나 이동 방향을 추종함)를 갖는 자율 운송 차량(110)의 네비게이션을 제공한다. 자율 운송 차량(110)의 로컬라이제이션은 주행/롤링 표면(284) 상의 라인(900)의 검출 및/또는 보관 랙(또는 이에 제한되지 않는) 구조물(999)를 포함하는 적합한 보관 구조물의 검출에 의해 전방 네비게이션 카메라(420A, 420B) 및 후방 네비게이션 카메라(430A, 430B) 중 하나 이상에 의해 영향을 받을 수 있다. 라인 검출 및/또는 보관 구조물 검출은 비전 시스템 컨트롤러(122VC)의 플로어 맵 및 구조물 정보(예를 들어, 메모리에 저장되거나 접근 가능)와 비교될 수 있다. 전방 네비게이션 카메라(420A, 420B) 및 후방 네비게이션 카메라(430A, 430B)는 또한 물체가 자율 운송 차량(110)에 접근할 때 (자율 운송 차량(110)이 정지되거나 이동 중인 상태에서) 자율 운송 차량(110)에 접근할 때 (예를 들어, 이송 데크(130B)의 불확정적인 롤링 표면 상에서) 또는 피킹 통로(130A) 내에서 (예를 들어, 보관 및 회수 시스템(100) 내의 다른 자율 운송 차량, 케이스 유닛 또는 다른 일시적(transient) 물체)를 피하기 위해 (예를 들어, 다른 자율 운송 차량, 케이스 유닛 또는 다른 일시적 물체를 포함하여) 자율 운송 차량(110)이 조작될 수 있다. 2 and 4A, front navigation cameras 420A, 420B are any suitable cameras configured to provide object detection and ranging. The front navigation cameras 420A, 420B are positioned opposite the longitudinal centerline (LAXCL) of the autonomous transport vehicle 110, such that the forward-facing fields of view 420AF, 420BF provide stereo vision to the autonomous transport vehicle 110. They may be spaced at any suitable distance. Forward navigation cameras 420A, 420B are any suitable high resolution or low resolution video cameras (wherein video images containing more than about 480 vertical scan lines and captured at more than about 50 frames/sec are considered high resolution), time of flight. a camera, a laser ranging camera, or any other suitable camera configured to provide object detection and ranging to effectively provide for autonomous transport vehicles to traverse along transfer deck 130B and move along picking aisle 130A. . The rear navigation cameras 430A and 430B may be substantially similar to the front navigation cameras. The front navigation cameras 420A, 420B and the rear navigation cameras 430A, 430B are used for obstacle detection and avoidance as well as localization of the autonomous transport vehicle within the storage and retrieval system 100 ( 200E1) provides navigation of an autonomous transportation vehicle 110 having a direction of movement (leading or following a direction of movement). Localization of the autonomous transport vehicle 110 may be accomplished by detecting lines 900 on the running/rolling surface 284 and/or detecting suitable storage structures, including, but not limited to, storage racks 999. It may be affected by one or more of the navigation cameras (420A, 420B) and rear navigation cameras (430A, 430B). The line detection and/or storage structure detection may be compared to floor maps and structure information (e.g., stored in or accessible in memory) of the vision system controller 122VC. The front navigation cameras (420A, 420B) and rear navigation cameras (430A, 430B) also detect the autonomous transport vehicle (110) when an object approaches the autonomous transport vehicle (110) (while the autonomous transport vehicle (110) is stationary or moving). 110) (e.g., on an indeterminate rolling surface of transfer deck 130B) or within picking aisle 130A (e.g., another autonomous transport vehicle within storage and retrieval system 100, case Autonomous transport vehicle 110 may be manipulated (including, for example, another autonomous transport vehicle, case unit, or other transient object) to avoid the unit or other transient object.

전방 네비게이션 카메라(420A, 420B) 및 후방 네비게이션 카메라(430A, 430B)는 또한 픽업 통로(130A) 또는 이송 데크(130B)를 따라 차량(110)의 호송(convoy)을 제공할 수 있으며, 여기서 한 차량(110)은 미리 결정된 고정 거리에서 다른 차량(110A)을 따라간다. 일 예로서, 도 1b는 한 차량이 미리 결정된 고정 거리에서 다른 차량을 바짝 따라가는 3대의 차량(110) 호송을 도시한다.Front navigation cameras 420A, 420B and rear navigation cameras 430A, 430B may also provide convoy of vehicles 110 along pickup aisle 130A or transfer deck 130B, where one vehicle 110 follows another vehicle 110A at a fixed, predetermined distance. As an example, Figure 1B shows a convoy of three vehicles 110 with one vehicle closely following the other at a fixed, predetermined distance.

계속 도 2 및 도 4a를 참조하면, 하나 이상의 케이스 에지 검출 센서(450A, 450B)는 보관 및 회수 시스템의 선반을 스캔하여 선반이 케이스 유닛(CU)을 배치하기 위해 명확한지 확인하거나, 케이스 유닛(CU)을 선택하기 전에 케이스 유닛 크기 및 위치를 확인하도록 구성된 임의의 적합한 센서들이다. 하나의 케이스 에지 검출 센서(450A, 450B)가 페이로드 베드(210B)의 중앙 라인(CLPB, 도 4a 참조)의 각 면에 도시된 반면, 차량(110)이 차량 이동 방향을 선도하는 선단부(200E1) 또는 후단부(200E2)와 함께 케이스 유닛(CU)을 횡단 및 스캔할 수 있도록 자율 운송 차량(110) 상의 임의의 적절한 위치에 2개 이상의 케이스 에지 검출 센서가 배치될 수 있다. Still referring to FIGS. 2 and 4A , one or more case edge detection sensors 450A, 450B scan the shelves of the storage and retrieval system to determine if the shelves are clear for placing case units (CUs), or to determine if the shelves are clear for placing case units (CUs). Any suitable sensors configured to verify case unit size and location prior to selecting the CU). One case edge detection sensor 450A, 450B is shown on each side of the center line (CLPB, see FIG. 4A) of payload bed 210B, while vehicle 110 has a leading edge 200E1 leading the direction of vehicle movement. ) or two or more case edge detection sensors may be placed at any suitable location on the autonomous transport vehicle 110 to traverse and scan the case unit CU along with the rear end 200E2.

하나 이상의 트래픽 모니터링 카메라(460A, 460B)는 각각의 시야(460AF, 460BF)가 측방향 LAT1에서 측면을 향하도록 프레임(200)에 배치된다. 하나 이상의 트래픽 모니터링 카메라(460A, 460B)가 이송 베드(210B)의 이송 개구(1199)에 인접해 있는 것으로 예시되어 있지만(예를 들어, 자율 운송 차량(110)의 암(210A)이 연장되는 픽(pick) 측), 다른 측면에서는 트래픽 감시 카메라의 시야가 방향 LAT2의 측면을 향하도록 프레임(200)의 비-픽(non-pick) 측에 트래픽 감시 카메라가 배치될 수 있다. 트래픽 모니터링 카메라(460A, 460B)는 예를 들어 픽업 통로(130A) 또는 리프트 이송 영역(195)을 빠져나가는 자율 운송 차량(110)이 이송 데크(130B)로 자동 합류하는 것을 제공한다(도 1b 참조). 예를 들어, 리프트 이송 영역(195)(도 1b)을 떠나는 자율 운송 차량(110)은 이송 데크(130B)를 따라 이동하는 자율 운송 차량(110T)을 감지한다. 여기서, 컨트롤러(122)는 트래픽 감시 카메라(460A, 460B)에 의해 수집되고 비전 시스템 컨트롤러(122VC)에 의해 통신 및 처리되는 차량(110V)의 정보(예를 들어, 거리, 속도 등)에 기초하여, 자율적으로 이송 차량(110T) 앞 또는 뒤의 이송 데크로 진입, 접근하는 차량(110T)의 속도에 기초한 이송 데크로의 가속을 계획한다.One or more traffic monitoring cameras 460A, 460B are disposed in frame 200 with their respective fields of view 460AF, 460BF facing laterally at lateral LAT1. One or more traffic monitoring cameras 460A, 460B are illustrated as being adjacent to the transfer opening 1199 of transfer bed 210B (e.g., a pick from which arm 210A of autonomous transport vehicle 110 extends). (pick side), on the other side, a traffic surveillance camera may be placed on the non-pick side of the frame 200 so that the view of the traffic surveillance camera faces the side of direction LAT2. Traffic monitoring cameras 460A, 460B provide for automatic merging of autonomous transport vehicles 110, for example, exiting pickup aisle 130A or lift transfer area 195 into transfer deck 130B (see Figure 1B). ). For example, autonomous transport vehicle 110 leaving lift transfer area 195 (FIG. 1B) detects autonomous transport vehicle 110T moving along transfer deck 130B. Here, the controller 122 based on information (e.g., distance, speed, etc.) of the vehicle 110V collected by the traffic surveillance cameras 460A, 460B and communicated and processed by the vision system controller 122VC. , autonomously enters the transfer deck in front or behind the transfer vehicle 110T, and plans acceleration to the transfer deck based on the speed of the approaching vehicle 110T.

하나 이상의 평면 밖의(예를 들어, 위쪽 또는 아래쪽을 향하는) 로컬라이제이션 카메라(477A, 477B)는 보관 및 회수 시스템의 천장(991) 상에 또는 보관 및 회수 시스템의 롤링 표면(284) 상에 배치된 위치 기준(예를 들어, 위치 마크(971, 라인(900))을 감지/검출하도록 자율 운송 차량(110)의 프레임(200) 상에 배치된다. 위치 기점(location fiducial)은 보관 및 회수 시스템 내에서 알려진 위치를 가지며 비전 시스템 컨트롤러(122VC)에 의해 인식되는 고유 식별 표시/패턴을 제공할 수 있다(예를 들어, 위치 확인 카메라(477A, 477B)에서 얻은 데이터 처리). 검출된 위치 기준에 기초하여, 비전 시스템 컨트롤러(122VC)는 검출된 위치 기준을 알려진 위치 기준(예를 들어, 비전 시스템 컨트롤러(122VC)의 메모리에 저장하거나 또는 이에 액세스 가능한)과 비교하여 보관 구조물(130) 내의 자율 운송 차량(110)의 위치를 결정한다. One or more out-of-plane (e.g., upward or downward facing) localization cameras 477A, 477B are positioned on the ceiling 991 of the storage and retrieval system or on the rolling surface 284 of the storage and retrieval system. A reference is placed on the frame 200 of the autonomous transport vehicle 110 to sense/detect a reference (e.g., location mark 971, line 900). The location fiducial is located within the storage and retrieval system. May provide a unique identifying mark/pattern that has a known location and is recognized by the vision system controller 122VC (e.g., processing data obtained from positioning cameras 477A, 477B) based on the detected location reference. , the vision system controller 122VC compares the detected position reference to a known position reference (e.g., stored in or accessible to the memory of the vision system controller 122VC) to determine the autonomous transport vehicle within the storage structure 130 ( 110) determine the location.

보조 네비게이션 센서 시스템(288)의 카메라는 케이스 유닛(CU), 보관 구조물(예를 들어, 선반, 기둥 등), 및 보관 및 회수 시스템의 다른 구조적 특성의 감지에 영향을 미치기 위해 임의의 적합한 방식(예를 들어, 고유 및 외부 카메라 교정에 의해)으로 교정될 수 있다. 도 4a, 도 4b, 도 5a, 도 5b 및 도 5c를 참조하면, 알려진 물체(예를 들어 케이스 유닛(CU1, CU2, CU3)(또는 보관 시스템 구조물)가 보조 네비게이션 센서 시스템(288)의 카메라의 시야 내에 위치할 수 있다(또는 알려진 물체가 카메라의 시야 내에 있도록 차량(110)이 위치할 수 있다). 이러한 알려진 물체는 여러 각도/시점에서 카메라에 의해 이미지화되어 각 카메라를 교정할 수 있으므로 비전 시스템 컨트롤러(122VC)는 교정된 카메라로부터의 센서 신호에 기초하여 알려진 물체를 검출하도록 구성된다. The cameras of auxiliary navigation sensor system 288 may be configured in any suitable manner to effect detection of case units (CUs), storage structures (e.g., shelves, columns, etc.), and other structural features of the storage and retrieval system. For example, by intrinsic and external camera calibration). 4A, 4B, 5A, 5B, and 5C, a known object (e.g., case unit CU1, CU2, CU3 (or storage system structure)) may be detected by a camera of auxiliary navigation sensor system 288. The vehicle 110 may be positioned within the field of view (or the vehicle 110 may be positioned such that known objects are within the field of view of the cameras). These known objects may be imaged by the cameras from multiple angles/viewpoints so that each camera can be calibrated so that the vision system Controller 122VC is configured to detect known objects based on sensor signals from a calibrated camera.

예를 들어, 케이스 유닛 모니터링 카메라(410A, 410B)의 교정은 알려진 물리적 특성/파라미터를 갖는 케이스 유닛(CU1, CU2, CU3)에 대해 설명될 것이다. 도 5A-도 5C는 예시적인 목적으로 3개의 서로 다른 시점에서 케이스 유닛 모니터링 카메라(410A, 410B) 중 하나로부터 캡처된 예시적인 이미지이다. 여기서, 케이스 유닛(CU1, CU2, CU3)의 물리적 특성/파라미터(예를 들어, 형상, 길이, 폭, 높이 등)는 비전 시스템 컨트롤러(122VC)에 의해 알게 된다(예를 들어, 상이한 케이스 유닛(CU1, CU2, CU3)의 물리적 특성은 비전 시스템 컨트롤러(122VC)의 메모리에 저장되거나 이에 액세스 가능하다). 예를 들어, 도 5a 내지 도 5c의 이미지에서 케이스 유닛(CU1, CU2, CU3)의 3개(또는 그 이상)의 상이한 뷰 포인트에 기초하여, 비전 시스템 컨트롤러(122VC)는 케이스 유닛 모니터링 카메라(410A, 410B)의 교정에 영향을 미치는 고유 및 외부 카메라 및 케이스 유닛 파라미터를 제공한다. 예를 들어, 이미지로부터 비전 시스템 컨트롤러(122VC)는 케이스 유닛 모니터링 카메라(410A, 410B)에 대한 케이스 유닛(CU1, CU2, CU3)의 관점을 등록(예를 들어, 메모리에 저장)한다. 비전 시스템 컨트롤러(122VC)는 케이스 유닛 감시 카메라(410A, 410B)에 대한 케이스 유닛(CU1, CU2, CU3)의 자세를 추정하고, 서로에 대한 케이스 유닛(CU1, CU2, CU3)의 자세를 추정한다. 각 케이스 유닛(CU1, CU2, CU3)의 자세 추정치(PE)는 각 케이스 유닛(CU1, CU2, CU3)에 오버레이되는 것으로 도 5a-도 5c에 예시된다.For example, calibration of case unit monitoring cameras 410A, 410B will be described for case units CU1, CU2, CU3 with known physical properties/parameters. 5A-5C are example images captured from one of the case unit monitoring cameras 410A, 410B at three different viewpoints for illustrative purposes. Here, the physical characteristics/parameters (e.g., shape, length, width, height, etc.) of case units CU1, CU2, CU3 are known by the vision system controller 122VC (e.g., different case units (e.g., The physical characteristics of CU1, CU2, CU3) are stored in or accessible to the memory of the vision system controller (122VC). For example, based on three (or more) different viewpoints of case units CU1, CU2, and CU3 in the images of FIGS. 5A-5C, vision system controller 122VC monitors case unit monitoring camera 410A. , 410B) provides intrinsic and extrinsic camera and case unit parameters that affect the calibration. For example, from the images, vision system controller 122VC registers (e.g., stores in memory) the views of case units CU1, CU2, and CU3 with respect to case unit monitoring cameras 410A and 410B. The vision system controller 122VC estimates the poses of the case units CU1, CU2, and CU3 with respect to the case unit surveillance cameras 410A and 410B, and estimates the poses of the case units CU1, CU2, and CU3 with respect to each other. . The pose estimate (PE) of each case unit (CU1, CU2, CU3) is illustrated in FIGS. 5A-5C as being overlaid on each case unit (CU1, CU2, CU3).

차량(110)은 케이스 유닛들(CU1, CU2, CU3)의 임의의 적절한 수의 시점이 케이스 유닛 모니터링 카메라(410A, 410B)에 의해 획득/영상되도록 이동되어, 알려진 케이스 유닛(CU1, CU2, CU3) 각각에 대한 케이스 유닛 특성/파라미터(예를 들어, 비전 시스템 컨트롤러(122VC)에 의해 추정)의 수렴을 실시한다. 케이스 유닛 파라미터의 수렴 시, 케이스 유닛 모니터링 카메라(410A, 410B)가 교정된다. 다른 케이스 유닛 모니터링 카메라(410A, 410B)에 대해서도 교정 과정이 반복된다. 캘리브레이션된 케이스 유닛 모니터링 카메라(410A, 410B) 모두를 사용하여 비전 시스템 컨트롤러(122VC)는 케이스 유닛 모니터링 카메라(410A, 410B) 각각의 각 픽셀에 대한 3차원 선(ray)뿐만 아니라 카메라를 분리하는 3차원 베이스라인 세그먼트 및 케이스 유닛 모니터링 카메라(410A, 410B)의 상대적인 자세의 추정치로 구성된다. 비전 시스템 컨트롤러(122VC)는 케이스 유닛 모니터링 카메라(410A, 410B) 각각의 픽셀에 대한 3차원 선, 카메라를 분리하는 3차원 베이스 라인 세그먼트의 추정치, 및 케이스 유닛 모니터링 카메라(410A, 410B)의 서로에 대한 상대적인 자세를 채용하도록 구성되어, 케이스 유닛 모니터링 카메라(410A, 410B)는 케이스 유닛 모니터링 카메라(410AF, 410BF)의 시야 내에서 보이는 공통 특성이 있는 곳과 같은 수동적인 스테레오 비전 센서를 형성한다. 전술한 바와 같이, 케이스 유닛 모니터링 카메라(410A, 410B)의 캘리브레이션은 케이스 유닛들(CU1, CU2, CU3)에 대해 기술되었지만, 실질적으로 유사한 방식으로 보관 및 회수 시스템(100)의 임의의 적합한 구조물(예를 들어, 영구적 또는 일시적)에 대해 수행될 수 있다. Vehicle 110 is moved such that any suitable number of viewpoints of case units CU1, CU2, CU3 are acquired/imaged by case unit monitoring cameras 410A, 410B, so that known case units CU1, CU2, CU3 ) Perform convergence of case unit characteristics/parameters (e.g., estimated by the vision system controller 122VC) for each. Upon convergence of case unit parameters, case unit monitoring cameras 410A, 410B are calibrated. The calibration process is repeated for other case unit monitoring cameras (410A, 410B). Using both of the calibrated case unit monitoring cameras (410A, 410B), the vision system controller (122VC) creates a three-dimensional ray for each pixel of each of the case unit monitoring cameras (410A, 410B), as well as three rays that separate the cameras. The dimension consists of baseline segments and estimates of the relative poses of the case unit monitoring cameras 410A and 410B. The vision system controller 122VC configures the case unit monitoring cameras 410A, 410B to create a three-dimensional line for each pixel, an estimate of the three-dimensional baseline segments separating the cameras, and the case unit monitoring cameras 410A, 410B to each other. Configured to adopt an attitude relative to each other, case unit monitoring cameras 410A, 410B form passive stereo vision sensors where common features are visible within the field of view of case unit monitoring cameras 410AF, 410BF. As described above, calibration of case unit monitoring cameras 410A, 410B has been described for case units CU1, CU2, CU3, but can be used in any suitable structure of storage and retrieval system 100 in a substantially similar manner. For example, permanently or temporarily).

실현될 수 있는 바와 같이, 물리적 특성 센서 시스템(270)에 의해 수행되는 차량 위치 파악(예를 들어, 픽업 통로(130A)를 따라 또는 픽업/배치 위치에 대해 이송 데크(130B)를 따라 미리 결정된 위치에 차량을 위치시키는 것)은 보조 네비게이션 센서 시스템(288)에 의해 수행되는 픽셀 레벨 위치 결정으로 향상될 수 있다. 여기서, 컨트롤러(122)는 물리적 특성 센서 시스템(270)의 하나 이상의 센서를 채용함으로써 픽/플레이스 위치에 대해 차량(110)의 위치를 "대략적으로" 파악하도록 구성된다. 컨트롤러(122)는 보조 네비게이션 센서 시스템(288)의 비전 시스템 컨트롤러(122VC)로부터 획득된 보조(예를 들어, 픽셀 레벨) 위치 정보를 픽/플레이스 위치에 대한 차량 자세 및 위치를 "미세 조정(fine tune)"할 수 있도록 하여, 차량(110) 및 차량(110)에 의해 보관 위치(130S)에 배치된 케이스 유닛(CU)의 위치가 물리적 특성 센서 시스템(270) 단독으로 차량(110) 또는 케이스 유닛(CU)의 위치 결정과 비교하여 더 작은 공차(즉, 증가된 위치 정확도)로 유지될 수 있도록 구성된다. 여기서, 보조 네비게이션 센서 시스템(288)에 의해 제공되는 픽셀 레벨 포지셔닝은 물리적 특성 센서 시스템(270)에 의해 제공되는 전자기 센서 해상도보다 더 높은 포지셔닝 선명도/해상도를 갖는다.As may be realized, vehicle localization performed by physical characteristic sensor system 270 (e.g., a predetermined position along pickup aisle 130A or along transfer deck 130B relative to a pickup/placement location) Positioning the vehicle in the vehicle can be enhanced with pixel level positioning performed by the auxiliary navigation sensor system 288. Here, the controller 122 is configured to “approximately” locate the vehicle 110 with respect to a pick/place location by employing one or more sensors of the physical characteristic sensor system 270. The controller 122 uses secondary (e.g., pixel level) location information obtained from the vision system controller 122VC of the secondary navigation sensor system 288 to “fine-tune” the vehicle attitude and position for the pick/place location. tune), so that the positions of the vehicle 110 and the case unit (CU) placed at the storage location 130S by the vehicle 110 are adjusted to the physical characteristic sensor system 270 alone by the vehicle 110 or the case. It is configured so that smaller tolerances (i.e. increased positioning accuracy) can be maintained compared to the positioning of the unit (CU). Here, the pixel level positioning provided by secondary navigation sensor system 288 has a higher positioning sharpness/resolution than the electromagnetic sensor resolution provided by physical characteristic sensor system 270.

케이스 유닛이 희미하게 조명될 수 있는 양태에서, 위에서 언급한 방식으로 카메라의 교정을 실행하기 위해 케이스 유닛(또는 다른 구조)을 조명하기 위해 조명 소스가 차량(110)에 제공될 수 있다. 조명은 확산 조명이거나, 비전 시스템 컨트롤러(122VC)에 의해 케이스 유닛 또는 다른 구조물의 파라미터가 케이스 유닛(또는 다른 구조물)의 이미지로부터 추출될 수 있고 수렴이 획득되도록 케이스 유닛(또는 다른 구조물)의 표면에 투영되는 알려진 패턴을 가질 수 있다. 케이스 유닛 모니터링 카메라(410A, 410B)에 의해 획득된 이미지로부터 특성 추출 및 케이스 유닛 모니터링 카메라(410A, 410B)의 효과 교정을 용이하게 하기 위해 적합한 마커(예를 들어, 케이스 유닛 또는 다른 구조물 상의 알려진 위치에 위치된 교정 스티커)가 또한 케이스 유닛/구조물 상에 배치될 수 있다. 보조 네비게이션 센서 시스템(288)의 다른 카메라(예를 들어, 전방 및 후방 네비게이션 카메라(420A, 420B, 430A, 430B), 트래픽 모니터링 카메라(들)(460A, 460B), 및 평면 외 로컬라이제이션 카메라(들)(477A, 477B, 등)의 캘리브레이션은 전술한 것과 유사한 방식으로 효과될 수 있다.In aspects in which the case unit may be dimly illuminated, an illumination source may be provided in the vehicle 110 to illuminate the case unit (or other structure) to effect calibration of the camera in the manner mentioned above. The illumination may be diffuse illumination or may be applied to the surface of the case unit (or other structure) such that parameters of the case unit (or other structure) can be extracted by the vision system controller 122VC from the image of the case unit (or other structure) and convergence is obtained. It can have known patterns that are projected onto it. Suitable markers (e.g., known locations on the case unit or other structures) to facilitate feature extraction from images acquired by the case unit monitoring cameras 410A, 410B and correction of the effectiveness of the case unit monitoring cameras 410A, 410B. A calibration sticker located on) may also be placed on the case unit/structure. Other cameras of the auxiliary navigation sensor system 288 (e.g., front and rear navigation cameras 420A, 420B, 430A, 430B), traffic monitoring camera(s) 460A, 460B, and out-of-plane localization camera(s) Calibration of (477A, 477B, etc.) may be effected in a similar manner as described above.

도 1a, 2, 4a, 4b 및 11을 참조하면, 자율 운송 차량(110)의 비전 시스템 제어기(122VC)는 차량(110) 작동에 따라 보조 네비게이션 센서 시스템(288)의 다양한 센서(또는 센서 그룹)로부터 정보를 동적으로 선택하고 접근하도록 구성된다. 도 11은 센서 그룹이 비전 시스템 제어기(122VC)에 의해 접근되어 차량 작동에 영향을 미칠 수 있는 비-배기(non-exhaustive) 센서 그룹화(1111-1114) 및 관련된 비-배기 차량 작동을 나타내는 도면이다. 예시적인 센서 그룹(1111)은 후방 네비게이션 카메라(230A, 230B)를 포함한다. 예시적인 센서 그룹(1112)은 전방 네비게이션 카메라(420A, 420B)를 포함한다. 예시적인 센서 그룹(1113)은 평면외부에 있는 카메라(477A, 477B)를 포함한다. 예시적인 센서 그룹(1114)은 케이스 유닛 감시 카메라(410A, 410B)를 포함한다. 단지 예시적인 목적으로, 차량(110)의 후방 단부(200E2)가 차량 이동 방향을 유도하는 차량 작동(예를 들어, 이송 데크(130B) 상의 후진 이동)을 위해, 센서 그룹(1111, 1113)은 비전 시스템 제어기(122VC)(및 제어기(122))에 의해 사용될 수 있다. 차량(110)의 전방 단부(200E1)가 차량 이동 방향을 유도하는 차량 작동(예를 들어, 이송 데크(130B) 상의 전진 이동)을 위해, 센서 그룹(1112, 1113)은 비전 시스템 제어기(122VC)(및 제어기(122)에 의해 사용될 수 있다. 차량(110)의 전방 단부(200E1)가 차량 이동 방향을 유도하는 차량 작동(예를 들어, 픽킹 통로(130A)를 따라 전진 이동)을 위해, 센서 그룹(1112, 1114)은 비전 시스템 제어기(122VC)(및 제어기(122))에 의해 이용될 수 있다. 차량(110)의 후방 단부(200E2)가 차량 이동 방향을 유도하는 차량 작동(예를 들어, 픽킹 통로(130A)를 따라 후진 이동)을 위해, 센서 그룹(1111, 1114)은 비전 시스템 제어기(122VC)(및 제어기(122))에 의해 이용될 수 있다. 센서 그룹(1114)은 이송 암(210A)이 페이로드 베드(payload bed, 210B)로부터 또는 페이로드 베드로 케이스 유닛(CU)을 적재하거나 하역하는 차량 작동(예를 들어, 픽킹 배치 작동)을 위해, 센서 그룹(1114)은 비전 시스템 제어기(122VC)(및 제어기(122))에 의해 사용될 수 있다.1A, 2, 4A, 4B, and 11, the vision system controller 122VC of the autonomous transportation vehicle 110 controls various sensors (or groups of sensors) of the auxiliary navigation sensor system 288 depending on vehicle 110 operation. It is configured to dynamically select and access information from 11 is a diagram illustrating non-exhaustive sensor groupings 1111 - 1114 and associated non-exhaustive vehicle operations through which sensor groups can be accessed by vision system controller 122VC to affect vehicle operations. . Exemplary sensor group 1111 includes rear navigation cameras 230A and 230B. Exemplary sensor group 1112 includes front navigation cameras 420A and 420B. Exemplary sensor group 1113 includes out-of-plane cameras 477A and 477B. Exemplary sensor group 1114 includes case unit surveillance cameras 410A and 410B. For illustrative purposes only, for vehicle operations in which rear end 200E2 of vehicle 110 guides the direction of vehicle movement (e.g., backward movement on transfer deck 130B), sensor groups 1111, 1113 may be configured to: May be used by vision system controller 122VC (and controller 122). For vehicle operations (e.g., forward movement on transfer deck 130B) in which the front end 200E1 of vehicle 110 guides the direction of vehicle movement, sensor groups 1112, 1113 may be configured to communicate with vision system controller 122VC. (and may be used by the controller 122. For vehicle operation (e.g., forward movement along the picking aisle 130A), the front end 200E1 of the vehicle 110 directs the direction of vehicle movement, the sensor Groups 1112 and 1114 may be utilized by vision system controller 122VC (and controller 122) to control vehicle operation (e.g., , backward movement along the picking passage 130A), sensor groups 1111, 1114 may be used by the vision system controller 122VC (and controller 122). Sensor group 1114 may be used by the transfer arm For vehicle operations (e.g., picking placement operations) where 210A loads or unloads case units (CUs) from or to the payload bed (210B), sensor group 1114 may be configured to use a vision system. May be used by controller 122VC (and controller 122).

또한, 도 1a, 1b, 2, 4d, 17 및 18을 참조하면, 전술한 바와 같이 자율 운송 차량(110)은 보조 위험 센서 시스템(290)을 포함한다. 보조 위험 센서 시스템(290)은 자율 운송 차량(110)의 프레임(200)에 연결됨으로써, 운전자와 협력하여 자율 운송 차량(110)의 봇(bot) 작동 제어를 제공한다. 보조 위험 센서 시스템(290)은 데이터(이미지)를 제공한다. 비전 시스템 데이터는 a) 정보 특성을 결정(결국 제어기(122)에 제공됨)하거나, 또는 b) 정보가 (미리 정해진 기준에서 물체를) 특성화하지 않고 제어기(122)에 전달되고 특성화는 제어기(122)에 의해 수행되게 하는, 비전 시스템 제어기(122VC)에 의해 등록된다. a) 또는 b)에서 협력 상태로 전환하기 위한 선택을 결정하는 것은 제어기(122)이다. 전환 후, 협력 작동은 비전 시스템 제어기(122VC) 및/또는 제어기(122)를 통해 보조 위험 센서 시스템(290)에 접근하는 사용자에 의해 이루어진다. 그러나 가장 단순한 형태에서, 보조 위험 센서 시스템(290)은 자율 운송 차량(110)의 협력 작동 모드를 제공하는 것으로 간주될 수 있다. 보조 위험 센서 시스템(290)은 예를 들어 이동/구름 표면(284)을 침입하는 물체/위험을 협력적으로 식별하고 완화하도록 구성된 보조 위험 센서 시스템(290)으로 자율 네비게이션/작동 센서 시스템(270) 및/또는 보조 센서 시스템(298)을 보완한다. 보조 위험 센서 시스템(290)은 적어도 부분적으로 비전 시스템(400)을 형성하고 적어도 하나의 카메라(292)를 포함한다. 본 명세서에 기술된 "카메라"라는 용어는 2차원 카메라, RGB(적색, 녹색, 청색) 픽셀을 갖는 2차원 카메라, XYZ+A 정의가 있는 3차원 카메라(XYZ는 카메라의 3차원 기준 프레임이고, A는 레이다 반사 강도 또는 비행 시간 스탬프), 및 RGB와 3차원 좌표 시스템 정보를 모두 포함하는 RGB/XYZ 카메라 중 하나 이상을 포함하는 정지 영상 또는 동영상 장치이고, 이에 대한 비제한적 예시들이 본 명세서에서 제공된다. 비전 시스템(400)의 적어도 하나의 카메라(292)는 자율 네비게이션 및 이송 작업을 실행하는 동안 자율 운송 차량(110)이 설비(100)의 다양한 위치에 있는 상태에서 적어도 하나의 카메라(292)가 바라보는 설비(100)의 적어도 일부 내에 있는 물체 및/또는 공간적 특징(299)(고유한 물리적 특성을 가짐)을 알려주는 이미지 데이터를 캡처하도록 배치된다. 구현될 수 있는 바와 같이, 적어도 하나의 카메라(292)는 단지 예시적인 목적으로, 도 4a에 도시된 카메라와 분리되고 구별되는 것으로서 도 4d에 도시되어 있으나, 적어도 하나의 카메라(292)는 도 4a에 도시된 시스템의 일부일 수 있다(예를 들어, 차량(110)의 단부(200E1)에 있는 카메라(292)는 도 4a의 카메라(477A)일 수 있고, 차량(110)의 단부(200E2)에 있는 카메라(292)는 도 4a의 카메라(477B)일 수 있으며, 도 4d의 LAT1 방향으로 측면을 향하는 카메라(292)는 도 4a의 카메라(460AF, 460BF)일 수 있다). Also, referring to FIGS. 1A, 1B, 2, 4D, 17 and 18, autonomous transport vehicle 110 includes an auxiliary hazard sensor system 290, as described above. The auxiliary hazard sensor system 290 is coupled to the frame 200 of the autonomous transport vehicle 110 to provide bot operational control of the autonomous transport vehicle 110 in cooperation with the driver. Auxiliary hazard sensor system 290 provides data (images). Vision system data may either a) determine information characteristics (which are ultimately provided to controller 122), or b) the information is passed to controller 122 without characterizing it (of the object to predetermined criteria) and the characterization is performed by controller 122. Registered by the vision system controller 122VC, causing it to be performed by. It is the controller 122 that determines the choice to transition to the cooperative state in a) or b). After transition, coordinated operation is accomplished by a user accessing the auxiliary hazard sensor system 290 via vision system controller 122VC and/or controller 122. However, in its simplest form, secondary hazard sensor system 290 may be considered to provide a cooperative mode of operation for autonomous transportation vehicle 110. Auxiliary hazard sensor system 290 is configured to cooperatively identify and mitigate, for example, objects/hazards invading moving/rolling surfaces 284 of autonomous navigation/actuation sensor system 270 . and/or supplement the auxiliary sensor system 298. Supplementary hazard sensor system 290 forms at least in part vision system 400 and includes at least one camera 292. As used herein, the term "camera" refers to a two-dimensional camera, a two-dimensional camera with RGB (red, green, blue) pixels, a three-dimensional camera with the definition XYZ+A, where XYZ is the three-dimensional reference frame of the camera; A is a still or moving image device including one or more of a radar reflection intensity or time-of-flight stamp), and an RGB/XYZ camera containing both RGB and three-dimensional coordinate system information, non-limiting examples of which are provided herein. do. At least one camera 292 of the vision system 400 provides a view of the autonomous transport vehicle 110 at various locations in the facility 100 while executing autonomous navigation and transfer operations. It is arranged to capture image data indicative of objects and/or spatial features 299 (having unique physical characteristics) within at least a portion of the viewing facility 100 . As may be implemented, at least one camera 292 is shown in FIG. 4D as being separate and distinct from the camera shown in FIG. 4A for illustrative purposes only; however, at least one camera 292 is shown in FIG. 4A (e.g., camera 292 at end 200E1 of vehicle 110 may be camera 477A of FIG. 4A and camera 292 at end 200E2 of vehicle 110 may be part of the system shown in The camera 292 facing the side in the LAT1 direction of FIG. 4D may be the camera 477B of FIG. 4A, and the camera 292 facing the side in the LAT1 direction of FIG. 4D may be the cameras 460AF and 460BF of FIG. 4A.

전술한 바와 같이, 비전 시스템(400)은 적어도 하나의 카메라(292)를 포함한다. 본 개시의 양태는 전방 지향 카메라(즉, 자율 운송 차량(110)의 단부(200E1)가 선행하는 진행 방향을 향하는 카메라)와 관련하여 설명되었으나, 카메라는 임의의 방향(후방, 측면, 상부, 하부 등)을 향하도록 배치될 수 있음이 이해될 것이다. 적어도 하나의 카메라(292)는 길이방향 중심선(LAXCL) 상에 배치될 수 있고, 길이방향 중심선(LAXCL)의 양측에 배치될 수 있으며, 하나 이상의 카메라(292)는 자율 운송 차량(110)의 길이방향 중심선(LAXCL)의 반대측에 배치되어 관측시야(292F)가 자율 운송 차량(110)에 스테레오 비전(예를 들어, 카메라(420A, 420B)) 또는 임의의 적절한 구성을 제공하도록 할 수 있다. 적어도 하나의 카메라(292)는 물체 또는 공간적 특징(299)을 탐지하도록 구성된 임의의 적절한 카메라이다. 예를 들어, 적어도 하나의 카메라(292)는 임의의 적절한 고해상도 또는 저해상도 비디오 카메라, 3D 영상 시스템, 비행시간 카메라(time-of-flight camera), 레이저 거리 측정 카메라(laser ranging camera), 또는 자율 네비게이션 및 이송 작업을 실행하는 동안 자율 운송 차량(110)이 설비(100)의 다양한 위치에 있는 상태에서 적어도 하나의 카메라(292)가 바라보는 설비(100)의 적어도 일부 내에 있는 물체 또는 공간적 특징(299)을 탐지하도록 구성된 임의의 다른 적절한 카메라이다. 적어도 하나의 카메라(292)는 (자율 운송 차량(110)의 양측 단부(200E1, 200E2)가 이동 방향을 선행하거나 후행하는 경우) 영상 및 탐지를 제공한다. 물체 또는 공간적 특징(299) 탐지는 비전 시스템 제어기(122VC)의 기준 플로어 맵(floor map) 및 구조 정보(예를 들어, 메모리에 저장되거나 접근 가능함)와 비교될 수 있다. 적어도 하나의 카메라(292)는 또한, 자율 운송 차량(110)이 물체 또는 공간적 특징(299)에 접근함에 따라, 자율 운송 차량(110)이 자율 정지를 개시하거나(즉, 자율 작동 상태), 물체 또는 공간적 특징(299)(예를 들어, 오작동하는 다른 자율 운송 차량, 떨어뜨린 케이스 유닛, 파편, 유출물, 또는 저장 및 회수 시스템(100) 내의 다른 일시적인 물체)을 식별하기 위해 예를 들어 이송 데크(130B)의 결정되지 않은 구름 표면 상에서 또는 픽킹 통로(130A)(결정되거나 결정되지 않은 구름 표면을 가질 수 있음) 내에서 운영자에 의해 기동되거나 운영자에 의해 정지되도록 협력 작동 상태에 진입할 수 있게 제어기(122))(비전 시스템 제어기(122VC)을 포함하거나 비전 시스템 제어기를 통함)에 신호를 보낼 수 있다. As described above, vision system 400 includes at least one camera 292. Although aspects of the present disclosure have been described in the context of a forward-facing camera (i.e., a camera facing in the direction of travel ahead of end 200E1 of autonomous transport vehicle 110), the camera may be directed in any direction (rear, side, top, bottom). It will be understood that it can be arranged to face (etc., etc.). At least one camera 292 may be positioned on the longitudinal center line LAXCL and on either side of the longitudinal center line LAXCL, and one or more cameras 292 may be positioned along the length of the autonomous transport vehicle 110. It may be placed opposite the directional centerline LAXCL so that the field of view 292F provides stereo vision (e.g., cameras 420A, 420B) to the autonomous transport vehicle 110 or any suitable configuration. At least one camera 292 is any suitable camera configured to detect objects or spatial features 299. For example, at least one camera 292 may be any suitable high- or low-resolution video camera, 3D imaging system, time-of-flight camera, laser ranging camera, or autonomous navigation camera. and an object or spatial feature 299 within at least a portion of the facility 100 viewed by the at least one camera 292 while the autonomous transport vehicle 110 is at various locations in the facility 100 while executing the transfer operation. ) is any other suitable camera configured to detect. At least one camera 292 provides imaging and detection (when both ends 200E1 and 200E2 of the autonomous transport vehicle 110 are leading or lagging in the direction of travel). The object or spatial feature 299 detection may be compared to a reference floor map and structural information (e.g., stored in or accessible in memory) of the vision system controller 122VC. At least one camera 292 may also cause autonomous delivery vehicle 110 to initiate an autonomous stop (i.e., autonomous operation state) or to detect an object or spatial feature 299 as autonomous delivery vehicle 110 approaches an object or spatial feature 299 . or to identify spatial features 299 (e.g., other malfunctioning autonomous transport vehicles, dropped case units, debris, spills, or other transient objects within the storage and retrieval system 100), e.g., a transfer deck. A controller capable of entering a cooperative operating state to be started by an operator or stopped by an operator on an undetermined rolling surface of 130B or within picking aisle 130A (which may have a determined or undetermined rolling surface). (122)) (including or through the vision system controller 122VC).

보조 위험 센서 시스템(290)의 카메라(292)는 저장 및 회수 시스템(100)에서 물체 또는 공간적 특징(299)의 감지/탐지에 영향을 미치도록 (예를 들어, 내재적 및 외재적 카메라 보정과 같은) 임의의 적절한 방식으로 보정될 수 있다. 도 4d 및 5b 내지 5c를 참조하면, 알려진 물체(예를 들어 형상, 크기 등과 같이 알려진 물리적 특성을 갖는, 예를 들어 케이스 유닛(CU1, CU2, CU3) 또는 저장 시스템 구조)는 보조 위험 센서 시스템(290)의 카메라(292) 관측시야(292F) 내에 위치될 수 있다(또는 자율 운송 차량(110)은 카메라(292)의 관측시야(292F) 내에 알려진 물체가 있도록 배치될 수 있다). 이러한 알려진 물체는 각 카메라를 보정하도록 다양한 각도/시점에서 카메라에 의해 이미지화될 수 있고, 이에 따라 비전 시스템 제어기(122VC)는 보정된 카메라의 센서 신호에 기초하여 "알 수 없는"(즉, 식별 불가능한) 물체가 관측시야(292F) 내에 있는 경우를 결정하도록 구성될 수 있다.Cameras 292 of auxiliary hazard sensor system 290 may be configured to affect detection/detection of objects or spatial features 299 in storage and retrieval system 100 (e.g., such as intrinsic and extrinsic camera calibration). ) may be corrected in any suitable manner. 4D and 5B-5C, a known object (e.g., a case unit (CU1, CU2, CU3) or storage system structure, with known physical properties such as shape, size, etc.) is connected to the secondary hazard sensor system ( The camera 292 may be positioned within the field of view 292F of the camera 290 (or the autonomous transport vehicle 110 may be positioned such that there is a known object within the field of view 292F of the camera 292). These known objects may be imaged by the cameras at various angles/views to calibrate each camera, such that the vision system controller 122VC can detect "unknown" (i.e., unidentifiable) objects based on the sensor signals of the calibrated cameras. ) can be configured to determine when an object is within the observation field of view (292F).

예를 들어, 카메라(292)의 보정은 알려진 물리적 특성/파라미터를 갖는 케이스 유닛(CU1, CU2, CU3)과 관련하여 설명될 것이다. 도 5b 및 5c는 예시적인 목적으로 2개의 서로 다른 시점에서 카메라(292)로부터 캡처된 예시적인 이미지이다. 여기서, 케이스 유닛(CU1, CU2, CU3)의 물리적 특성/파라미터(예를 들어, 형상, 길이, 폭, 높이 등)는 비전 시스템 제어기(122VC)에 의해 "알려지도록"(즉, 식별 가능) 저장된다(예를 들어, 서로 다른 케이스 유닛(CU1, CU2, CU3)의 물리적 특성은 비전 시스템 제어기(122VC)에 접근 가능한 메모리 또는 비전 시스템 제어기의 메모리에 저장된다). 예를 들어, 도 5a 내지 5b의 이미지에서 케이스 유닛(CU1, CU2, CU3)의 2개(또는 그 이상)의 서로 다른 시점에 기초하여, 비전 시스템 제어기(122VC)에는 카메라(292)의 보정에 영향을 미치는 내재적 및 외재적 카메라 및 케이스 유닛 파라미터가 제공된다. For example, calibration of camera 292 will be described in terms of case units CU1, CU2, CU3 with known physical properties/parameters. 5B and 5C are example images captured from camera 292 at two different viewpoints for illustrative purposes. Here, the physical properties/parameters (e.g., shape, length, width, height, etc.) of the case units (CU1, CU2, CU3) are stored so that they are “known” (i.e., identifiable) by the vision system controller 122VC. (For example, the physical characteristics of the different case units CU1, CU2, and CU3 are stored in a memory accessible to the vision system controller 122VC or in the memory of the vision system controller). For example, based on two (or more) different viewpoints of case units CU1, CU2, and CU3 in the images of FIGS. 5A-5B, vision system controller 122VC may be instructed to calibrate camera 292. Impacting intrinsic and extrinsic camera and case unit parameters are provided.

자율 운송 차량(110)은, 케이스 유닛 특성/파라미터의 수렴(convergence)을 발생시키도록 케이스 유닛(CU1, CU2, CU3)의 임의의 적절한 개수의 시점이 카메라에 의해 획득되고/이미지화될 수 있게 이동된다. 케이스 유닛 파라미터의 수렴되면, 카메라(292)가 보정된다. 카메라(292)가 보정된 상태에서, 비전 시스템 제어기(122VC)는 각 카메라(292)의 픽셀 각각에 대한 3차원 광선(ray)으로 구성된다. 전술한 바와 같이, 카메라(292)의 보정은 케이스 유닛(CU1, CU2, CU3)과 관련하여 설명되었지만, 저장 및 회수 시스템(100)의 임의의 적합한 구조(예를 들어, 영구적 또는 일시적 구조)에 대해 실질적으로 유사한 방식으로 수행될 수 있다. The autonomous transport vehicle 110 moves so that any suitable number of views of the case units CU1, CU2, CU3 can be acquired/imaged by the camera to generate convergence of case unit characteristics/parameters. do. Once the case unit parameters have converged, camera 292 is calibrated. With cameras 292 calibrated, vision system controller 122VC configures a three-dimensional ray for each pixel of each camera 292. As mentioned above, calibration of camera 292 has been described with respect to case units CU1, CU2, and CU3, but may be applied to any suitable structure (e.g., permanent or temporary) of storage and retrieval system 100. may be performed in a substantially similar manner.

구현될 수 있는 바와 같이, 자율 운송 차량(110)(일 양태에서는 페이로드/케이스 운송 및/또는 이송 로봇임)이 픽킹 통로(130A)를 따라 또는 이송 데크(130B)를 따라 자율적으로 이동하는 경우, 자율 운송 차량(110)은 설비(100) 내의 다른 물체(예를 들어, 다른 봇, 떨어뜨린 케이스 유닛, 유출물, 파편 등)를 기회주의적으로(opportunistically) 탐지(예를 들어 저장소에서 페이로드를 자율적으로 픽킹/배치, 이송 스테이션 및/또는 충전 스테이션으로 이동하여 이송 스테이션에서 페이로드를 자율적으로 픽킹/배치/이송, 및/또는 충전 스테이션에서의 자율 충전과 같은 소정의 자율 작업에 부수적으로 또는 주변적으로) 할 수 있다. 비전 시스템 제어기(122VC)는 물체가 "알수 없는" 것인지(즉, 물체 또는 공간적 특징(299)이 자율 운송 차량(110)의 자율적 이동 경로를 따른 영역 또는 공간 내에 있을 것으로 예상되지 않는지)를 결정하기 위해 보조 네비게이션 센서 시스템(288) 및/또는 보조 위험 센서 시스템(290)(즉, 하나 이상의 보조 센서 시스템의 카메라로부터 획득된 영상 정보)를 사용하도록 구성된다.As may be implemented, autonomous transport vehicle 110 (in one aspect a payload/case transport and/or transfer robot) moves autonomously along picking aisle 130A or along transport deck 130B. , the autonomous transport vehicle 110 may opportunistically detect other objects (e.g., other bots, dropped case units, spills, debris, etc.) within the facility 100 (e.g., retrieve the payload from storage). Incidentally or incidentally to certain autonomous tasks, such as autonomously picking/placing, moving payloads to transfer stations and/or charging stations, autonomously picking/placing/transferring payloads at transfer stations, and/or autonomous charging at charging stations. peripherally) can be done. The vision system controller 122VC determines whether the object is “unknown” (i.e., the object or spatial feature 299 is not expected to be within an area or space along the autonomous path of movement of the autonomous transport vehicle 110). It is configured to use the auxiliary navigation sensor system 288 and/or the auxiliary hazard sensor system 290 (i.e., image information obtained from cameras of one or more auxiliary sensor systems).

도 1a, 2, 4a, 4b, 4d, 10a 및 10b를 참조하면, 보조 네비게이션 센서 시스템(288) 및/또는 보조 위험 센서 시스템(290)의 비전 시스템(400)은 자율 운송 차량(110)이 작동되는 작동 환경(401)의 가상 모델(400VM)로 자율 운송 차량(110)을 구성한다. 예를 들어, 비전 시스템 제어기(122VC)는 소정의 특징(예를 들어, 본 명세서에서 설명되고 가상 모델(400VM)에 포함된 저장 및 회수 시스템의 저장 구조(130)의 고정된/영구적인 구조 및/또는 일시적 물체)의 기준 표현(400VMR)으로 프로그래밍되고, 소정의 특징의 기준 표현(400VMR)은 자율 운송 차량(110)이 횡단하는 저장 구조(130) 또는 설비의 적어도 일부의 위치 또는 형태를 정의한다. 여기서, 작동 환경(401)의 가상 모델(400VM)(및 이의 소정의 특징의 기준 표현(400VMR))은 자율 운송 차량의 임의의 적절한 메모리(예를 들어 비전 시스템 제어기(122VC)의 메모리) 또는 비전 시스템 제어기(122VC)에 접근 가능한 메모리에 저장된다. 가상 모델(400VM)은 작동 환경(401)에서 적어도 고정된(예를 들어, 영구적인) 구조적 구성요소의 치수, 위치 등을 자율 운송 차량(110)에 제공한다. 작동 환경(401) 및 그 가상 모델(400VM)은 하나 이상의 저장 구조 레벨(130L)의 적어도 고정된/영구적 구조(예를 들어, 이송 데크(130B), 픽킹 통로(130A), 저장 공간(130S), 케이스 유닛 이송 영역, 케이스 유닛 버퍼 위치, 차량 충전 위치, 지지 기둥 등)를 포함하고; 하나 이상의 양태에서, 작동 환경(401) 및 가상 모델(400VM)은 하나 이상의 저장 구조 레벨(130L)의 고정 구조 및 자율 운송 차량(110)이 작동하는 저장 레벨(130L)의 적어도 일부의 임시 구조(예를 들어, 저장 및 회수 시스템(100)의 케이스 유닛 보유 위치에 저장되거나 달리 위치하는 케이스 유닛(CU) 등)를 포함하고; 하나 이상의 다른 양태에서, 작동 환경(401) 및 가상 모델(400VM)은 자율 운송 차량(110)이 작동될 수 있는 저장 구조(130)의 하나 이상의 레벨(130L)의 적어도 일부의 임시 구조(예를 들어, 케이스 유닛) 및 적어도 고정된 구조를 포함하며; 다른 양태에서, 작동 환경(401) 및 가상 모델(400VM)은 저장 구조의 전체 및 임시 구조의 적어도 일부(예를 들어, 자율 운송 차량이 작동되는 저장 레벨의 임시 구조)를 포함한다. 1A, 2, 4A, 4B, 4D, 10A, and 10B, the vision system 400 of the secondary navigation sensor system 288 and/or the secondary hazard sensor system 290 is configured to operate the autonomous transport vehicle 110. The autonomous transportation vehicle 110 is configured with a virtual model (400VM) of the operating environment 401. For example, the vision system controller 122VC may determine certain features (e.g., the fixed/permanent structure and and/or a temporary object), wherein the reference representation 400VMR of the predetermined feature defines the location or shape of at least a portion of the storage structure 130 or facility traversed by the autonomous transport vehicle 110. do. Here, the virtual model 400VM of the operating environment 401 (and the reference representation 400VMR of certain features thereof) may be stored in any suitable memory of the autonomous transport vehicle (e.g., the memory of the vision system controller 122VC) or the vision system controller 122VC. It is stored in memory accessible to the system controller (122VC). The virtual model 400VM provides the autonomous transport vehicle 110 with dimensions, locations, etc. of at least fixed (e.g., permanent) structural components in the operating environment 401 . The operating environment 401 and its virtual model 400VM include at least fixed/permanent structures (e.g., transfer deck 130B, picking aisle 130A, storage space 130S) of one or more storage structure levels 130L. , case unit transfer area, case unit buffer location, vehicle charging location, support pillar, etc.); In one or more aspects, the operating environment 401 and the virtual model 400VM include fixed structures of one or more storage structure levels 130L and temporary structures of at least a portion of the storage level 130L on which the autonomous transport vehicle 110 operates ( (e.g., a case unit (CU), etc.) stored or otherwise located in a case unit holding location of the storage and retrieval system 100; In one or more other aspects, the operating environment 401 and the virtual model 400VM may be configured to represent at least a portion of a temporary structure (e.g., a temporary structure (e.g., For example, a case unit) and at least a fixed structure; In another aspect, operating environment 401 and virtual model 400VM include the entire storage structure and at least a portion of a temporary structure (e.g., a temporary structure at a storage level at which an autonomous transportation vehicle operates).

자율 운송 차량(110)은, 자율 운송 차량(110)이 작동하는 작동 환경의 일부에 대응하는 가상 모델(400VM)의 일부를 그 위에(또는 그에 의해 접근 가능한 메모리 내에) 저장할 수 있다. 예를 들어, 자율 운송 차량(110)은 자율 운송 차량이 배치되는 저장 구조 레벨(130L)에 대응하는 가상 모델(400VM)의 일부만을 그 위에(또는 그에 의해 접근 가능한 메모리 내에) 저장한다. 작동 환경(401)의 가상 모델(400VM)은 저장 구조(130)에서 자율 운송 차량(110)의 작동을 용이하게 하기 위해 임의의 적절한 방식으로 동적으로 업데이트될 수 있다. 예를 들어, 자율 운송 차량(110)이 하나의 저장 구조 레벨(130L)에서 다른 상이한 저장 구조 레벨(130L)로 이동되는 경우, 비전 시스템 제어기(122VC)는 (예를 들어, 제어기(122) 및/또는 제어 서버(120)에 의해 무선으로) 다른 상이한 저장 구조 레벨(130L)에 대응하는 가상 모델(400VM)의 일부를 포함하도록 업데이트된다. 다른 예로서, 가상 모델(400VM)은 케이스 유닛이 저장 구조(130)에서 추가 및 제거됨에 따라 동적으로 업데이트되어, 자율 운송 차량(110)에 의해 이송될 케이스 유닛(CU)의 소정의(예상된) 위치를 나타내는 동적 가상 모델 케이스 유닛 맵을 제공할 수 있다. 다른 양태에서는, 저장 구조 내의 케이스 유닛의 소정의(예상된) 위치가 가상 모델(400VM)에 포함되지 않을 수 있으며; 그러나, 자율 운송 차량(110)에 의해 이송될 하나 이상의 케이스 유닛의 소정의(예상된) 위치, 크기, SKU 등은 예를 들어, 제어기(120)로부터 자율 운송 차량(110)으로 통신되며, 비전 시스템(400)(및 비전 시스템 제어기(122VC))은 본원에 설명된 바와 같이(예를 들어, 비전 시스템(400)은 올바른 케이스 유닛이 이송되고 있는지 확인하기 위해 "볼 것"으로 예상되는 것과 실제로 "보는 것"을 비교한다) 및/또는 저장 및 회수 시스템(100) 내의 다른 오작동하는 자율 운송 차량, 떨어진 케이스 유닛, 파편, 유출물 또는 다른 일시적 물체의 탐지/식별을 위해 소정의 위치에서 케이스 유닛의 검증을 실시한다.Autonomous transport vehicle 110 may store thereon (or within a memory accessible thereto) a portion of virtual model 400VM that corresponds to a portion of the operating environment in which autonomous transport vehicle 110 operates. For example, autonomous transport vehicle 110 stores thereon (or in memory accessible thereto) only a portion of virtual model 400VM corresponding to the storage structure level 130L at which the autonomous transport vehicle is deployed. The virtual model 400VM of the operating environment 401 may be dynamically updated in any suitable manner to facilitate operation of the autonomous transport vehicle 110 in the storage structure 130. For example, when autonomous transport vehicle 110 is moved from one storage structure level 130L to another different storage structure level 130L, vision system controller 122VC (e.g., controller 122 and and/or wirelessly by the control server 120) to include portions of the virtual model 400VM corresponding to different different storage structure levels 130L. As another example, virtual model 400VM is dynamically updated as case units are added to and removed from storage structure 130 to create a predetermined (expected) number of case units (CUs) to be transported by autonomous transport vehicle 110. ) A dynamic virtual model case unit map indicating the location can be provided. In another aspect, the predetermined (expected) location of the case unit within the storage structure may not be included in the virtual model 400VM; However, the predetermined (expected) location, size, SKU, etc. of one or more case units to be transported by autonomous transport vehicle 110 are communicated, for example, from controller 120 to autonomous transport vehicle 110, and the vision The system 400 (and the vision system controller 122VC) may perform an operation as described herein (e.g., the vision system 400 may determine what it expects to "see" and what it actually does to ensure that the correct case unit is being transported). compare “what you see”) and/or case units at a predetermined location for detection/identification of other malfunctioning autonomous transport vehicles, fallen case units, debris, spills or other transient objects within the storage and retrieval system 100. Conduct verification.

비전 시스템 제어기(122VC)는 보조 네비게이션 센서 시스템(288)에 의해 캡처된 이미지 데이터를 등록하고, 캡처된 이미지 데이터로부터 소정의 특징(예를 들어, 본원에 설명된 저장 및 회수 시스템의 저장 구조(130) 내의 고정된/영구적 구조 및/또는 일시적 물체)의 하나 이상의 특징의 적어도 하나의 이미지(예를 들어, 정지 이미지 및/또는 비디오 이미지)를 생성하도록 구성된다. 적어도 하나의 이미지(예를 들어, 도 5a 내지 5c, 9a, 10a, 및 10b를 예시적인 이미지로 참조)는 하나 이상의 (이미지화된) 소정의 특징의 가상 표현(VR)으로 포맷되어, 기준 표현(400VMR)의 소정의 특징의 하나 이상의 대응하는 기준(예를 들어, 이미지화된 소정의 특징의 형태 및/또는 위치를 식별하기 위한 기준 역할을 하는 가상 모델(400VM)의 대응하는 특징)과 비교(적어도 하나에서 최대 6개의 자유도 X, Y, Z, Rx, Ry, Rz)를 제공한다. Vision system controller 122VC registers image data captured by auxiliary navigation sensor system 288 and generates predetermined characteristics from the captured image data (e.g., storage structure 130 of the storage and retrieval system described herein). ) to generate at least one image (e.g., a still image and/or a video image) of one or more features of a fixed/permanent structure and/or a temporary object within the At least one image (e.g., see Figures 5A-5C, 9A, 10A, and 10B as example images) is formatted into a virtual representation (VR) of one or more (imaged) predetermined features, forming a reference representation ( Comparison of a given feature of the 400VMR) with one or more corresponding references (e.g., a corresponding feature of the virtual model 400VM that serves as a reference for identifying the shape and/or location of the imaged predetermined feature) (at least Provides one to up to six degrees of freedom (X, Y, Z, Rx, Ry, Rz).

도 13은 저장 및 회수 시스템의 적어도 하나의 모델(400VM)이 비전 시스템 제어기(122VC) 내에 저장되거나 비전 시스템 제어기에 접근 가능한 비교의 예시적인 흐름도이다. 단지 예시적인 목적으로, 저장 설비 정보 모델, 저장 구조/어레이(array) 정보 모델 및 케이스 입력 스테이션 모델이 제공되지만, 다른 양태에서는 비전 시스템 제어기(122VC)에 자율 운송 차량(110)의 작동 환경과 관련된 가상 정보를 제공하기 위해 임의의 적절한 모델 및 모델의 개수가 제공될 수 있다. 자율 운송 차량(110)이 작동하는 완전한 가상 작동 환경을 비전 시스템 제어기(122VC)에 제공하기 위해 서로 상이한 모델들이 결합될 수 있다. 비전 시스템(400)의 센서(본원에서 설명됨)는 또한 비전 시스템 제어기(122VC)에 센서 데이터를 제공한다. 가상 표현(VR) 이미지를 구현하는 센서 데이터는 이미지 내 물체의 에지 특징 및/또는 관심 영역을 탐지하기 위해 임의의 적절한 이미지 처리 방법으로 처리된다. 비전 시스템 제어기(122VC)는 모델(400VM) 내에서 이미지 데이터를 제공하는 센서의 관측시야를 예측하고, 예측된 관측시야 내에서 물체의 에지 및 관심 영역을 결정한다. 가상 모델(400VM)의 에지 및 관심 영역은 본원에 설명된 바와 같이 자율 운송 차량(110) 및 케이스 유닛(페이로드) 중 하나 이상의 가상 표현(VR) 자세(pose) 및 위치 결정의 에지 및 관심 영역과 비교된다.13 is an example flow diagram of a comparison of at least one model 400VM of a storage and retrieval system stored in or accessible to a vision system controller 122VC. For illustrative purposes only, the storage facility information model, the storage structure/array information model, and the case input station model are provided, but in other embodiments, the vision system controller 122VC is provided with Any suitable model and number of models may be provided to provide virtual information. Different models may be combined to provide the vision system controller 122VC with a complete virtual operating environment in which the autonomous transport vehicle 110 operates. The sensors of vision system 400 (described herein) also provide sensor data to vision system controller 122VC. Sensor data representing a virtual representation (VR) image is processed by any suitable image processing method to detect edge features and/or regions of interest of objects in the image. The vision system controller 122VC predicts the field of view of the sensor providing image data within the model 400VM and determines the edge of the object and the region of interest within the predicted field of view. The edges and regions of interest of the virtual model 400VM are the edges and regions of interest of the virtual representation (VR) pose and position determination of one or more of the autonomous transport vehicle 110 and case units (payloads) as described herein. compared to

비전 시스템 제어기(122VC)는 (본원에서 가상 모델(400VM)의 일부 및 적절한 이미지 처리 비일시적 컴퓨터 프로그램 코드와 함께 설명된 바와 같이) 이미지화된 하나 이상의 특징들(예를 들어, 도 9a에서 이미지화된 특징들은 저장 및 회수 시스템 랙(rack)/기둥 구조이고, 도 10a에서 이미지화된 특징들은 케이스 유닛(CU1-CU3)이며, 도 10b에서 이미지화된 특징들은 케이스 유닛, 저장 랙 구조 및 페이로드 베드(210B)의 일부임)의 가상 표현(VR)이 자율 운송 차량(110)에서 이루어지고, 하나 이상의 이미지화된 소정의 특징 및 하나 이상의 대응하는 기준의 소정의 특징(RPF)(예를 들어, 가상 모델(400VM)의 기준 표현(RPP)에서 제시됨) 사이의 비교가 자율 운송 차량(110)에서 이루어진다(도 9a 및 도 10a 참조). 여기서, 자율 운송 차량(110) 자세 결정 및 네비게이션은 자율 운송 차량(110)에 명령을 보내는 각 시스템 제어기(예를 들어, 제어 서버(120) 또는 저장 및 회수 시스템의 다른 적절한 제어기)로부터 분리되어 자율적이고 독립적이다.Vision system controller 122VC may control one or more imaged features (e.g., the features imaged in FIG. 9A ) (as described herein in conjunction with a portion of virtual model 400VM and appropriate image processing non-transitory computer program code). are the storage and retrieval system rack/column structure, the features imaged in FIG. 10A are the case units (CU1-CU3), and the features imaged in FIG. 10B are the case unit, storage rack structure, and payload bed 210B. A virtual representation (VR) of a virtual representation (which is part of ) presented in the reference representation (RPP) of ) is made in the autonomous transport vehicle 110 (see FIGS. 9A and 10A ). Here, autonomous transport vehicle 110 attitude determination and navigation are separate from each system controller (e.g., control server 120 or other appropriate controller of the storage and retrieval system) that sends commands to autonomous transport vehicle 110. independent and independent.

본원에 설명된 바와 같이, 제어기(122)는 보조 네비게이션 센서 시스템(288)의 비전 시스템 제어기(122VC)로부터 획득된 보조적(예를 들어, 픽셀 레벨) 위치 정보를 픽킹/배치 위치와 관련된 차량 자세 및 위치를 "미세 조정"에 이용하도록 구성되고, 이에 따라 차량(110)에 의해 저장 위치(130S)에 배치되는 차량(110) 및 케이스 유닛(CU)의 위치가 물리적 특성 센서 시스템(270)만으로 차량(110) 또는 케이스 유닛(CU)을 위치시키는 것에 비해 더 작은 오류(즉, 증가된 위치 정확도)로 유지될 수 있도록 한다. 자율 운송 차량(110)의 자세 및 위치의 미세 조정은 비전 시스템 제어기(122VC)에 의해 이루어지며, 비전 시스템 제어기(122VC)는 가상 표현(VR)과 기준 표현(RPP)간의 비교에 기초하여 물리적 특성 센서 시스템(270)으로부터 비전 시스템 제어기(122VC)에 의해 등록된 자율 운송 차량(110)의 자세 및 위치 정보를 확인하도록 구성된다. As described herein, controller 122 may use auxiliary (e.g., pixel level) location information obtained from vision system controller 122VC of auxiliary navigation sensor system 288 to determine vehicle posture and associated picking/placement location. configured to utilize "fine-tuning" positions, such that the positions of vehicle 110 and case units (CUs) placed in storage location 130S by vehicle 110 can be determined using only vehicle physical characteristic sensor system 270. 110 or a case unit (CU) can be maintained with smaller errors (i.e., increased positioning accuracy) compared to positioning. Fine-tuning of the attitude and position of the autonomous transport vehicle 110 is accomplished by the vision system controller 122VC, which determines the physical characteristics based on a comparison between the virtual representation (VR) and the reference representation (RPP). It is configured to check attitude and position information of the autonomous transport vehicle 110 registered by the vision system controller 122VC from the sensor system 270.

비전 시스템 제어기(122VC)에 의한 가상 표현(VR)과 기준 표현(RPP) 간의 비교는 보조 네비게이션 센서 시스템(288)으로부터 획득된 정보로 데이터의 정확성을 검증함으로써, 물리적 특성 센서 시스템(270)에 의해 생성된 데이터에 대한 신뢰를 구축한다. 여기서, 비전 시스템 제어기(122VC)는 가상 표현(VR)과 기준 표현(RPP) 간의 비교에 기초하여 자율 가이드 차량의 자세 및 위치의 편차를 식별하고, (예를 들어, 소정의 명령된 위치로 자율 운송 차량(110)을 최종 위치시키는 효과를 발생시키기 위해) 그 편차에 기초하여 물리적 특성 센서 시스템(270)으로부터 자율 운송 차량(110)의 자세 또는 위치 정보를 업데이트(예를 들어, 물리적 특성 센서 시스템(270)으로부터 자세 및/또는 위치 정보를 수정)하거나 또는 완성(물리적 특성 시스템(270)으로부터 자세 및/또는 위치 정보가 없는 경우)하도록 구성된다.Comparison between the virtual representation (VR) and the reference representation (RPP) by the vision system controller 122VC by verifying the accuracy of the data with information obtained from the auxiliary navigation sensor system 288 and by the physical property sensor system 270. Build trust in the generated data. Here, the vision system controller 122VC identifies deviations in the attitude and position of the autonomous guided vehicle based on a comparison between the virtual representation (VR) and the reference representation (RPP) and moves the autonomous guided vehicle to a predetermined commanded position (e.g., Update attitude or position information of the autonomous transportation vehicle 110 from the physical property sensor system 270 based on that deviation (e.g., to effect final positioning of the transportation vehicle 110) configured to modify pose and/or position information from 270) or complete (if there is no pose and/or position information from physical characteristic system 270).

비전 시스템 제어기(122VC)는 (보조 네비게이션 센서 시스템(288)의 비전 시스템(400)으로부터의) 적어도 하나의 이미지의 이미지 분석 및 식별된 편차 중 적어도 하나에 기초하여 물리적 특성 센서 시스템(270)으로부터의 자율 가이드 차량(110)의 자세 및 위치 정보의 정확도 및 물리적 특성 센서 시스템(270)으로부터의 정보의 자세 오류를 결정하고, 자세 오류 및 정확도 중 적어도 하나에 따라 신뢰도 값을 할당하도록 구성된다. 신뢰도 값이 소정의 임계값보다 작은 경우, 비전 시스템 제어기(122VC)는 물리적 특성 센서 시스템(270)으로부터의 자세 및 위치 정보 대신에 가상 표현(VR)으로부터 생성된 자세 및 위치 정보에 기초하여 자율 가이드 차량 네비게이션을 전환하도록 구성된다. 물리적 특성 센서 시스템 자세 및 위치 정보로부터 가상 표현(VR) 자세 및 위치 정보로의 전환은 비전 시스템 제어기(122VC)(또는 제어기(122))에 의해, 물리적 특성 센서 시스템(270)으로부터 생성된 자세 및 위치 정보를 선택 해제하고, 운동학적/동적 알고리즘(예를 들어 "저장 및 회수 시스템"의 명칭으로 2018년 9월 27일에 출원된 미국 특허 출원번호 16/144,668호에 설명되어 있으며, 그 개시내용은 본원에 전부 참조로서 통합되어 있음)에서 가상 표현(VR)으로부터의 자세 및 위치 정보를 선택/입력함으로써 이루어질 수 있다. Vision system controller 122VC may determine a signal from physical characteristic sensor system 270 based on at least one of the identified deviations and image analysis of at least one image (from vision system 400 of auxiliary navigation sensor system 288). It is configured to determine the accuracy of the posture and position information of the autonomous guided vehicle 110 and the posture error of the information from the physical characteristic sensor system 270, and assign a reliability value according to at least one of the posture error and accuracy. If the confidence value is less than a predetermined threshold, the vision system controller 122VC guides autonomously based on the pose and position information generated from the virtual representation (VR) instead of the pose and position information from the physical property sensor system 270. It is configured to switch vehicle navigation. The conversion from physical attribute sensor system attitude and position information to virtual representation (VR) pose and position information is performed by vision system controller 122VC (or controller 122) using the pose and position generated from physical attribute sensor system 270. Opting out of location information, kinematic/dynamic algorithms (e.g., as described in U.S. Patent Application No. 16/144,668, entitled “Storage and Retrieval System,” filed September 27, 2018, the disclosures of which) This can be done by selecting/entering pose and position information from a virtual representation (VR), which is incorporated herein by reference in its entirety.

비전 시스템 제어기(122VC)가 전술한 전환을 수행한 후, 비전 시스템 제어기(122VC)는 임의의 적절한 목적지(예를 들어, 페이로드 배치 목적지, 충전 목적지 등)로 자율 운송 차량(110)의 네비게이션을 계속 수행하도록 구성되고; 다른 양태에서, 비전 시스템 제어기(122VC)는 자율 운송 차량(110)의 셧다운을 위해 자율 운송 차량(110)을 전환 위치로부터 안전한 위치(157)(안전한 위치는 이송 데크의 전용 유도/추출 영역, 리프트 이송 영역, 또는 이송 데크(130B) 또는 픽킹 통로(130A)의 다른 영역으로서 저장 및 회수 시스템(100)에서 작동하는 다른 자율 운송 차량(110)의 작동을 방해하지 않고 운영자가 자율 운송 차량(110)에 접근할 수 있는 영역임)로 가져오는 자율 운송 차량(110)의 안전한 경로 및 궤도를 선택하도록 구성되며; 다른 양태에서, 비전 시스템 제어기(122VC)는 자율 운송 차량(110)의 운동 데이터를 식별하는 저장 및 회수 시스템(100)의 운영자와의 통신을 개시하고, 운영자 선택(예를 들어 사용자 인터페이스(UI) 상에 제공됨)을 위해 자율 운송 차량(110)의 목적지를 식별하도록 구성된다. 여기서 운영자는 (예를 들어, 사용자 인터페이스(UI)를 통해) 자율 가이드 차량의 제어를 자동 작동에서 준자동 작동(예를 들어, 자율 운송 차량(110)이 제한된 수동 입력으로 자율적으로 작동함) 또는 수동 작동(예를 들어, 운영자는 사용자 인터페이스(UI)를 통해 자율 운송 차량(110)의 작동을 원격으로 제어함)으로 선택하거나 전환할 수 있다. 예를 들어, 사용자 인터페이스(UI)는 정전식(capacitive) 터치 패드/스크린, 조이스틱, 햅틱 스크린, 또는 자율 운송 차량(110)의 준자동 작동 및 수동 작동 모드에서 운영자 제어 입력에 영향을 주기 위해 사용자 인터페이스(UI)로부터 자율 가이드 차량(110)으로 운동학적 방향 명령(예를 들어, 회전, 가속, 감속 등) 및/또는 픽킹 배치 명령을 전달하는 다른 입력 장치를 포함할 수 있다.After vision system controller 122VC performs the foregoing transition, vision system controller 122VC may navigate autonomous transport vehicle 110 to any suitable destination (e.g., payload placement destination, charging destination, etc.). configured to continue performing; In another aspect, the vision system controller 122VC may direct the autonomous transport vehicle 110 from a diversion position to a safe location 157 (the safe location being a dedicated guidance/extraction area of the transfer deck, lift, etc.) for shutdown of the autonomous transport vehicle 110. The transfer area, or other area of the transfer deck 130B or picking aisle 130A, allows the operator to transport the autonomous transport vehicle 110 without interfering with the operation of other autonomous transport vehicles 110 operating in the storage and retrieval system 100. configured to select a safe route and trajectory for the autonomous transport vehicle 110 to be brought into the accessible area; In another aspect, vision system controller 122VC initiates communication with an operator of storage and retrieval system 100 identifying motion data of autonomous transport vehicle 110 and operator selection (e.g., user interface (UI)) provided above) is configured to identify the destination of the autonomous transport vehicle 110. Here, the operator may change control of the autonomous guided vehicle (e.g., via a user interface (UI)) from autonomous operation to semi-autonomous operation (e.g., autonomous transport vehicle 110 operates autonomously with limited manual input) or Manual operation may be selected or switched (e.g., an operator remotely controls the operation of autonomous transport vehicle 110 via a user interface (UI)). For example, the user interface (UI) may be a capacitive touch pad/screen, joystick, haptic screen, or user interface to effect operator control inputs in semi-autonomous and manual operation modes of autonomous transport vehicle 110. It may include other input devices that convey kinematic direction commands (e.g., turn, accelerate, decelerate, etc.) and/or picking placement commands from the interface (UI) to the autonomous guided vehicle 110 .

본원에 설명된 편차가 (소정의 허용오류 내에서) 지속되는 경우, 비전 시스템 제어기(122VC)는 편차를 물리적 특성 시스템(270)의 데이터에 자동적으로 적용되는 오프셋으로 적용하도록 구성될 수 있으며, 이에 따라 오프셋에 의해 수정된 물리적 특성 센서 시스템(270)의 데이터에 기초하여 자율 운송 차량(110)을 총체적으로 배치할 수 있고, 가상 표현(VR) 및 기준 표현(RPP)과의 비교는 오프셋의 유효성을 검증하고 임의의 편차에 따라 오프셋(및 자율 운송 차량(110)의 자세 및 위치)을 조정한다는 점에 유의할 필요가 있다. 편차가 소정의 임계값에 도달하는 경우, 비전 시스템 제어기(122VC)는 저장 및 회수 시스템(100)의 사용자에게 자율 가이드 차량(110)에 서비스가 필요할 수 있음을 경고할 수 있다.If the deviation described herein persists (within a predetermined tolerance), the vision system controller 122VC may be configured to apply the deviation as an offset that is automatically applied to the data in the physical characteristic system 270, whereby Accordingly, the autonomous transport vehicle 110 can be collectively positioned based on data from the physical property sensor system 270 modified by the offset, and comparison with the virtual representation (VR) and the reference representation (RPP) determines the validity of the offset. It is worth noting that the offset (and the attitude and position of the autonomous transport vehicle 110) are verified and adjusted according to any deviations. If the deviation reaches a predetermined threshold, vision system controller 122VC may alert the user of storage and retrieval system 100 that autonomous guided vehicle 110 may require servicing.

도 1a, 2, 4a, 4b 및 10a를 계속하여 참조하면, 자율 운송 차량(110)의 자세 및 위치 오류 식별이 전술하여 설명되었지만, 비전 시스템 제어기(122VC)는 예를 들어 저장 위치(130S) 또는 저장 및 회수 시스템의 다른 보관 영역에 보관된 케이스 유닛(CU)에 대해서도 유사한 자세 및 위치 오류 식별을 수행하도록 구성된다. 예를 들어, 비전 시스템 제어기(122VC)는 가상 모델(400VM)의 가상 표현(VR)과 기준 표현(RPP) 간의 비교에 기초하여 물리적 특성 센서 시스템(270)으로부터 비전 시스템 제어기(122VC)에 의해 등록된 페이로드 자세 및 위치 정보를 확인하도록 구성된다. 비전 시스템 제어기(122VC)는 가상 표현(VR)과 기준 표현(RPP) 간의 비교에 기초하여 페이로드(케이스 유닛)의 자세 및 위치의 편차를 식별하고, 그 편차에 기초하여 물리적 특성 센서 시스템으로부터 페이로드의 자세 또는 위치 정보를 업데이트(예를 들어, 물리적 특성 센서 시스템(270)으로부터 자세 및/또는 위치 정보를 수정)하거나 또는 완성(물리적 특성 시스템(270)으로부터 자세 및/또는 위치 정보가 없는 경우)하도록 구성된다.With continued reference to FIGS. 1A, 2, 4A, 4B, and 10A, although identification of attitude and position errors of autonomous transport vehicle 110 has been described above, vision system controller 122VC may be configured to, for example, store location 130S or It is configured to perform similar attitude and position error identification for case units (CUs) stored in other storage areas of the storage and retrieval system. For example, vision system controller 122VC may register by vision system controller 122VC from physical property sensor system 270 based on a comparison between a virtual representation (VR) and a reference representation (RPP) of virtual model 400VM. It is configured to check the attitude and location information of the payload. The vision system controller 122VC identifies deviations in the pose and position of the payload (case unit) based on a comparison between the virtual representation (VR) and the reference representation (RPP), and based on the deviations, retrieves the payload from the physical property sensor system. Update pose or position information of a rod (e.g., correct pose and/or position information from physics sensor system 270) or complete (if pose and/or position information is missing from physics sensor system 270). ) is configured to.

비전 시스템 제어기(122VC)는 보조 네비게이션 센서 시스템(288)의 비전 시스템(400)으로부터의 적어도 하나의 이미지의 이미지 분석 및 적어도 하나의 식별된 편차에 기초하여 물리적 특성 센서 시스템(270)으로부터의 정보의 자세 오류 및 물리적 특성 센서 시스템(270)으로부터의 페이로드 자세 및 위치 정보의 정확도를 결정하도록 구성된다. 비전 시스템 제어기(122VC)는 페이로드 자세 오류 및 정확도 중 적어도 하나에 따라 신뢰도 값을 할당한다. 신뢰도 값이 소정의 임계값보다 작은 경우, 비전 시스템 제어기(122VC)는 물리적 특성 센서 시스템(270)으로부터의 자세 및 위치 정보 대신에 가상 표현(VR)에서 생성된 자세 및 위치 정보에 기초하여 자율 운송 차량(110) 페이로드 처리를 전환한다. Vision system controller 122VC may provide information from physical characteristic sensor system 270 based on the at least one identified deviation and image analysis of at least one image from vision system 400 of auxiliary navigation sensor system 288. Attitude Error and Physical Properties sensor system 270 is configured to determine the accuracy of payload attitude and position information. The vision system controller 122VC assigns a reliability value based on at least one of payload pose error and accuracy. If the confidence value is less than a predetermined threshold, the vision system controller 122VC determines the autonomous transport based on the pose and position information generated from the virtual representation (VR) instead of the pose and position information from the physical property sensor system 270. Switches vehicle 110 payload processing.

전환 후, 비전 시스템 제어기(122VC)는, 일부 양태에서, 소정의 목적지(예를 들어, 페이로드 배치 위치 또는 페이로드가 운영자에 의해 검사될 수 있는 저장 및 회수 시스템의 영역)로의 자율 가이드 차량의 처리를 계속하도록 구성되고; 다른 양태에서, 비전 시스템 제어기(122VC)는 사용자 인터페이스 장치(UI)를 통해 자동 페이로드 처리 작동으로부터 준자동 페이로드 처리 작업(운영자는 자율 가이드 차량 횡단 이동 및 이송 암(210A)에 제한된 입력을 제공함) 또는 수동 페이로드 처리 작업(운영자는 자율 가이드 차량횡단 이동 및 이송 암(210A)의 이동을 수동으로 제어함)으로 자율 가이드 차량어의 운영자 선택과 함께 페이로드 데이터를 식별하는 운영자와의 통신을 개시하도록 구성된다.After transition, vision system controller 122VC, in some aspects, directs the autonomous guided vehicle to a predetermined destination (e.g., a payload placement location or an area of a storage and retrieval system where the payload can be inspected by an operator). configured to continue processing; In another aspect, the vision system controller 122VC may, via a user interface device (UI), switch from an automatic payload processing operation to a semi-autonomous payload processing operation, wherein the operator provides limited input to the autonomous guided vehicle traverse movement and transfer arm 210A. ) or manual payload handling operations (the operator manually controls the movement of the autonomous guided vehicle traverse and the movement of the transfer arm 210A), which involves communication with the operator identifying payload data along with operator selection of the autonomous guided vehicle. It is configured to commence.

전술한 것과 유사한 방식으로, 비전 시스템 제어기(122VC)는 비전 시스템 제어기(122VC)와 운영자 인터페이스(UI)를 통신 가능하게 결합하는 무선 통신 시스템(예를 들어, 네트워크(180))을 통해, 운영자에게 증강 현실 이미지를 실시간으로 제공하는, 하나 이상의 이미지화된 소정의 특징의 가상 표현(VR)과 하나 이상의 대응하는 기준의 소정의 특징을 결합하는 시뮬레이션 이미지를 전송하도록 구성된다(기준의 소정의 특징은 선반(555)을 포함하고, 가상 표현은 케이스 유닛(CU1 내지 CU3)의 표현을 포함하는 도 10a 참조). 여기서, 보조 네비게이션 센서 시스템(288)의 비전 시스템(400)은 차량(110)의 비디오 및/또는 정지 이미지를 운영자에게 전송하여 차량(110)의 원격 작동 또는 모니터링을 허용하는 "대쉬보드 카메라"(또는 대쉬-카메라)를 제공한다. 비전 시스템(400)은 또한 비전 시스템 카메라로부터 획득된 정지 이미지를 사용자 인터페이스(UI)의 메모리로 주기적으로 전송하는 데이터 기록기(recorder)로서 동작할 수도 있으며, 이때 정지 이미지는 운영자 검토를 위해 저장/캐싱(cach)된다(예를 들어, 실시간 비디오 스트림을 제공하는 것 외에도 비전 시스템(400)은 정지 이미지의 비실시간 검토를 제공한다). 정지 이미지는 예를 들어, 매 초, 매 10초, 매 30초, 매 분 또는 임의의 다른 적절한 시간 간격과 같은 임의의 적절한 간격으로 저장을 위해 사용자 인터페이스로 캡처 및 전송될 수 있고(실시간 비디오 스트림 기록 제외), 정지 이미지 캡처/기록의 주기성은 예를 들어, 제어 서버(120)와 봇(bot, 110) 사이의 적절한 통신 대역폭을 유지한다(개시된 실시예의 양태에 따라, 저장 및 회수 시스템(100)에서 케이스 유닛을 작동/이송하는 봇(110)의 수는 수백 내지 수천 개일 수 있음에 유의). 여기서, 저장된 정지 이미지 기록이 있는 사용자 인터페이스(UI)는 사용자가 정지 이미지를 검토하여 이벤트(예를 들어, 케이스 픽킹 실패, 봇 파손, 제품 유출, 이송 데크의 파편 존재 등)가 발생한 방법과 이유, 이벤트 전 및/또는 후에 발생한 것을 판단하는 상호작용하는 프레젠테이션/데이터 인터페이스를 제공한다.In a manner similar to that described above, vision system controller 122VC may communicate with an operator via a wireless communication system (e.g., network 180) that communicatively couples vision system controller 122VC and an operator interface (UI). configured to transmit a simulated image combining a virtual representation (VR) of one or more imaged predetermined features with one or more corresponding predetermined features of a reference, providing an augmented reality image in real time (predetermined features of the reference are 555, and the virtual representation includes representations of case units CU1 to CU3 (see FIG. 10A). Here, the vision system 400 of the auxiliary navigation sensor system 288 may include a "dashboard camera" ("dashboard camera") that transmits video and/or still images of the vehicle 110 to the operator to allow remote operation or monitoring of the vehicle 110. or dash-camera). The vision system 400 may also operate as a data recorder that periodically transmits still images acquired from the vision system camera to the memory of the user interface (UI), where the still images are stored/cached for operator review. (e.g., in addition to providing a real-time video stream, vision system 400 provides non-real-time review of still images). Still images may be captured and transmitted to the user interface for storage (e.g., every second, every 10 seconds, every 30 seconds, every minute, or any other suitable time interval) to the user interface for storage (e.g., every 10 seconds, every 30 seconds, every minute, or any other suitable time interval). excluding recording), the periodicity of still image capture/recording maintains adequate communication bandwidth between, for example, the control server 120 and the bot 110 (according to aspects of the disclosed embodiments, the storage and retrieval system 100 Note that the number of bots 110 operating/transporting case units may be in the hundreds or thousands. Here, a user interface (UI) with a stored still image history allows the user to review the still images to determine how and why an event occurred (e.g., case picking failure, bot breakage, product spill, presence of debris on transfer deck, etc.) Provides an interactive presentation/data interface to determine what occurred before and/or after an event.

비전 시스템 제어기(122VC)는 횡단하는 자율 가이드 차량(110)에 대한 실시간 운영자 명령(예를 들어 사용자 인터페이스(UI)로부터의 명령)을 수신하도록 구성되며, 이러한 명령은 실시간 증강 현실 이미지(도 9a 및 도 10a 참조) 및 비전 시스템 제어기(122VC)에 의해 운영자에게 전송되는 실시간 증강 현실 이미지의 변화에 대응한다. 비디오 또는 정지 이미지는 차량(110)에 탑재된 메모리에 저장되고(그리고 타임 스탬프가 찍히고) 요청에 따라 제어 서버(120) 및/또는 운영자에게 전송될 수 있으며; 다른 양태에서는 비디오 및/또는 정지 이미지는 운영자가 접근가능한 사용자 인터페이스(UI)(본원에 설명된 바와 같음)에서 볼 수 있도록 실시간으로 방송되거나 다른 방식으로 전송될 수 있다.Vision system controller 122VC is configured to receive real-time operator commands (e.g., commands from a user interface (UI)) for the traversing autonomous guided vehicle 110, such commands being transmitted to real-time augmented reality images (FIGS. 9A and 10A) and corresponds to changes in the real-time augmented reality image transmitted to the operator by the vision system controller 122VC. Video or still images may be stored (and time-stamped) in a memory onboard vehicle 110 and transmitted to control server 120 and/or operators upon request; In other aspects, the video and/or still images may be broadcast or otherwise transmitted in real time for viewing in an operator-accessible user interface (UI) (as described herein).

비전 시스템 제어기(122VC)는 또한 보조 위험 센서 시스템(290)에 의해 캡처된 이미지 데이터를 등록하고, 캡처된 이미지 데이터로부터 소정의 물리적 특성을 나타내는 하나 이상의 물체 또는 공간적 특징(299)의 적어도 하나의 이미지(예를 들어, 정지 이미지 및/또는 비디오 이미지)를 생성하도록 구성된다. 적어도 하나의 이미지(예를 들어, 도 5b, 5c 및 15를 예시적인 이미지로 참조)는 하나 이상의 물체 또는 공간적 특징(299)의 가상 표현(VR)으로 포맷되어(도 4d 및 15 참조), 기준 표현(400VMR)의 소정의 특징의 하나 이상의 대응하는 기준(예를 들어, 이미지화된 소정의 특징의 형태 및/또는 위치를 식별하기 위한 기준 역할을 하는 가상 모델(400VM)의 대응하는 특징)과 비교(적어도 하나에서 최대 6개의 자유도 X, Y, Z, Rx, Ry, Rz(도 2 참조))를 제공한다. 제어기(122VC)는 가상 표현과 기준 표현 사이의 비교에 기초하여 물체 또는 공간적 특징(299)의 소정의 물리적 특성의 존재 여부를 (비교를 통해) 확인하도록 구성된다(즉, 물체가 "알려진 것"인지 또는 "알 수 없는 것"인지 결정하기 위해 비교). 물체 또는 공간적 특징(299)이 제어기(122VC)에 의해 "알 수 없음"으로 확인되는 경우, 제어기(122VC)는 소정의 물리적 특성의 치수를 결정하고, (예를 들어, 제어기(122)를 통해) 자율 운송 차량(110)이 비교로부터 결정된 물체 또는 공간적 특징(299)의 위치에 기초하여 물체(299)가 소정의 위치(즉, 물체 또는 공간적 특징(299)에 대한 소정의 위치에 봇이 자율적으로 위치되도록 궤도가 결정됨)에 정지하도록 명령한다(구현될 수 있는 바와 같이, 명령 중지는 차량의 이전 자율 명령의 자동 루틴을 중단하여 사실상 자동 작업으로부터 봇을 전환시킴). 적어도 하나의 물체 또는 공간적 특징(299)의 소정의 물리적 특성을 감지한 것에 대응하여, 제어기(122)는 물체 또는 공간적 특징(299)을 위험으로 판별하고 위험에 대한 차량의 완화 동작을 식별하기 위해 자율 운송 차량(110)을 자율 상태에서 협력 차량 상태로 선택적으로 재구성한다(즉, 자율 운송 차량(110)을 자율 작동 상태에서 협력 작동 상태로 선택적으로 전환하고 차량이 위험을 완화, 예를 들어 고장 차량을 제거하거나 자율 작업을 수행하는 다른 차량에 경고하는 신호/비콘(beacon) 역할을 할 수 있는지 식별한다). 협력 작동 상태에서, 자율 운송 차량(110)은 자율 운송 차량(110)에 대한 운영자 명령을 수신하도록 배치되어 물체 또는 공간적 특징(299)을 식별하고 완화하기 위한 차량 작동을 계속 수행한다. Vision system controller 122VC may also register image data captured by secondary hazard sensor system 290 and generate at least one image of one or more objects or spatial features 299 representing predetermined physical characteristics from the captured image data. configured to generate (e.g., still images and/or video images). At least one image (e.g., see FIGS. 5B, 5C and 15 as example images) is formatted as a virtual representation (VR) of one or more objects or spatial features 299 (see FIGS. 4D and 15), Comparison of a given feature of the representation 400VMR with one or more corresponding references (e.g., a corresponding feature of the virtual model 400VM that serves as a reference for identifying the shape and/or location of the given feature imaged) (Provides at least one and up to six degrees of freedom X, Y, Z, Rx, Ry, Rz (see Figure 2)). Controller 122VC is configured to determine (via comparison) the presence or absence of certain physical characteristics of an object or spatial feature 299 based on a comparison between the virtual representation and the reference representation (i.e., the object is “known”). comparison to determine whether it is known or “unknown”). If an object or spatial feature 299 is identified as “unknown” by controller 122VC, controller 122VC determines the dimensions of the desired physical feature (e.g., via controller 122 ) The autonomous transport vehicle 110 places the object 299 at a predetermined location (i.e., a predetermined location relative to the object or spatial feature 299) based on the location of the object or spatial feature 299 determined from the comparison. commands the bot to stop (as may be implemented, the command stop interrupts the autonomous routine of the vehicle's previous autonomous commands, effectively diverting the bot from autonomous operation). In response to detecting certain physical characteristics of at least one object or spatial feature 299, the controller 122 determines the object or spatial feature 299 as a hazard and identifies mitigation actions of the vehicle for the hazard. Selectively reconfigure the autonomous delivery vehicle 110 from an autonomous state to a cooperative vehicle state (i.e., selectively transition the autonomous delivery vehicle 110 from an autonomous operation state to a cooperative operation state and allow the vehicle to mitigate risks, e.g., failure). Identify whether the vehicle can be removed or act as a signal/beacon to warn other vehicles performing autonomous tasks). In the cooperative operation state, autonomous delivery vehicle 110 is positioned to receive operator commands for autonomous delivery vehicle 110 to continue performing vehicle operations to identify and mitigate objects or spatial features 299.

일 양태에서, 자율 운송 차량(110)은 기준 지도(예를 들어, 가상 모델(400VM))를 포함하지 않을 수 있다. 이러한 양태에서, 카메라(292)가 물체 또는 공간적 특징(299)을 감지하면, 제어기(122VC)는, 보정되고 자율 운송 차량(110)과 소정의 관계를 갖는 적어도 하나의 카메라(292)의 기준 프레임 내에서 물체의 위치를 결정한다. 카메라 기준 프레임에서의 물체 자세로부터, 제어기(122VC)는 물체(299)의 소정의 물리적 특성의 존재(즉, 물체(299)가 봇 경로를 가로질러 연장되는지, 봇을 차단하는지, 또는 장애물 또는 위험으로 간주되는 봇 경로에 소정의 거리 내에서 근접해 있는지)를 결정한다. 물체의 존재가 결정되고 자율 상태에서 협력 차량 상태로 전환되면, 제어기(122VC)는 후술하여 더 설명될 바와 같이 자율 운송 차량(110)의 협력적 운영자 작동을 위한 운영자(사용자) 인터페이스(UI)로 소정의 물리적 특성의 존재를 이미지/비디오로 통신하는 전송을 개시하도록 구성된다(여기서 차량(11)은 협력 모드에서 사용자의 관측 플랫폼 및 포인터로서 구성됨. 이 모드에서 차량(11)은 또한 자율 작동을 실행하는 다른 봇을 위한 포인터로서, 포인터 봇을 식별하고(예를 들어 제어 시스템(120) 또는 비콘을 통해), 추가 명령이 있을 때까지 해당 영역을 피하기 위해 자동으로 경로를 변경하고 회피가 불가능한 경우 물체/위험과 마주치기 전에 정지함). In one aspect, autonomous transport vehicle 110 may not include a reference map (e.g., virtual model 400VM). In this aspect, when the camera 292 detects an object or spatial feature 299, the controller 122VC determines the frame of reference of at least one camera 292 that is calibrated and has a predetermined relationship to the autonomous transport vehicle 110. Determine the position of an object within From the object pose in the camera frame of reference, controller 122VC determines the presence of certain physical characteristics of object 299 (i.e., whether object 299 extends across the bot's path, blocks the bot, or is an obstacle or hazard). Determine whether the bot path is considered to be within a predetermined distance. Once the presence of an object is determined and the transition from the autonomous state to the cooperative vehicle state is made, the controller 122VC switches to an operator (user) interface (UI) for cooperative operator operation of the autonomous transportation vehicle 110, as further described below. configured to initiate a transmission communicating the presence of certain physical characteristics as images/videos (wherein the vehicle 11 is configured as an observation platform and pointer for the user in a cooperative mode. In this mode the vehicle 11 also performs autonomous operation). A pointer for other running bots, which identifies the pointer bot (e.g. via control system 120 or a beacon) and automatically changes course to avoid the area until further commanded and if avoidance is not possible. (stop before encountering an object/hazard).

비전 시스템 제어기(122VC)는, (본원에서 가상 모델(400VM)의 적어도 일부 및 적절한 이미지 처리 비-일시적 컴퓨터 프로그램 코드와 함께 설명되는 바와 같이) 이미지화된 물체 또는 공간적 특징(299)의 가상 표현(VR)이 자율 운송 차량(110)에서 이루어지고, 하나 이상의 이미지화된 물체 또는 공간적 특징(299)의 가상 표현(VR)과 하나 이상의 대응하는 기준의 소정의 특징(RPF)(예를 들어, 가상 모델(400VM)의 기준 표현(RPP)에 제시됨) 사이의 비교가 자율 운송 차량(110)에서 이루어지도록 구성된다(도 15 참조). 비전 시스템 제어기(122VC)에 의한 가상 표현(VR)과 기준 표현(RPP) 사이의 비교는 물체 또는 공간적 특징(299)이 "알 수 없는" 것인지 여부를 확인한다. 비전 시스템 제어기(122VC)는 (보조 위험 센서 시스템(290)의 비전 시스템(400)으로부터의) 적어도 하나의 이미지의 이미지 분석에 기초하여 물체 또는 공간적 특징(299)의 치수를 결정하도록 구성된다. 치수를 식별할 수 없는 경우, 비전 시스템 제어기(122VC)는 운영자와 함께 물체(299)를 협력하여 식별하기 위해 자율 운송 차량(110)을 협력 작동 상태로 전환하도록 구성된다. 자율 상태에서 협력 상태로의 전환은 자율 운송 차량(110)을 자율 차량에서 협력 차량으로 선택적으로 재구성함으로써(즉, 자율 운송 차량(110)을 자율 작동 상태에서 협력 작동 상태로 선택적으로 전환함) 비전 시스템 제어기(122VC)(또는 제어기(122))에 의해 이루어질 수 있다.Vision system controller 122VC may be configured to operate a virtual representation (VR) of an imaged object or spatial feature 299 (as described herein with at least a portion of virtual model 400VM and appropriate image processing non-transitory computer program code). ) is performed in the autonomous transport vehicle 110 and is configured to create a virtual representation (VR) of one or more imaged objects or spatial features 299 and one or more corresponding reference predetermined features (RPF) (e.g., a virtual model ( 400VM), as presented in the reference representation (RPP)), is configured to make a comparison between the autonomous transport vehicle 110 (see Figure 15). A comparison between the virtual representation (VR) and the reference representation (RPP) by the vision system controller 122VC determines whether the object or spatial feature 299 is “unknown.” Vision system controller 122VC is configured to determine dimensions of an object or spatial feature 299 based on image analysis of at least one image (from vision system 400 of supplemental hazard sensor system 290). If the dimensions cannot be identified, vision system controller 122VC is configured to place autonomous transport vehicle 110 into a cooperative operation state to collaboratively identify object 299 with an operator. The transition from an autonomous state to a cooperative state is achieved by selectively reconfiguring the autonomous delivery vehicle 110 from an autonomous vehicle to a cooperative vehicle (i.e., selectively transitioning the autonomous delivery vehicle 110 from an autonomous operating state to a cooperative operating state). This may be done by system controller 122VC (or controller 122).

일 양태에서, 위에서 설명한 비전 시스템 제어기(122VC)(및 제어기(122))에 의해 수행되는 전환으로, 제어기(122)는 소정의 시간 주기 내에 자율 운송 차량(110)이 0의 속도에 도달하게 하는 궤도를 자율 운송 차량(110)에 적용하여, 탐지된 물체와 관련된 임의의 적절한 목적지로 자율 운송 차량(110) 네비게이션을 계속하도록 구성되며, 이때 궤도를 따르는 자율 운송 차량(110)의 동작이 자율 운송 차량(110)에 상대적으로 위치되는 "알려진" 그리고 "알 수 없는" 물체와 조정된다. 자율 운송 차량(110)이 정지된 상태에서, 비전 시스템 제어기(122VC)는 운영자가 물체(299)를 식별하고 유지보수(예를 들어, 유출물의 청소, 오작동하는 봇의 제거 등)와 같은 완화 동작 및 자율 운송 차량(110)의 위치(예를 들어, 사용자 인터페이스(UI)에 제공됨)를 결정하기 위해 사용자 인터페이스(UI)에 물체 또는 공간적 특징(299)을 표시하여 저장 및 회수 시스템(100)의 운영자에게 통신을 개시한다. 전술한 바와 같이, 일 양태에서, 제어기(122)는 적어도 다른 봇에게 신호/비콘을 개시하여 다른 봇에게 교통 장애물을 경고하고 장애물을 피하거나 우회 영역을 표시할 수 있다(따라서, 사실상, 보조 위험 센서 시스템(290)은 하나의 봇의 위험 포인터/표시기 모드를 동일한 레벨의 다른 봇에 제공함). 일 양태에서, 신호/비콘은 로컬 통신 전송을 통해 시스템 영역 봇 작업 관리자로 전송되어 근처 봇 또는 포인터 봇의 소정의 거리 내에 있는 봇의 작업을 관리한다. 다른 양태에서, 제어기(122)는 비전 시스템(400) 및 비전 시스템 제어기(122VC)로부터의 물체 정보에 기초하여, 저장 및 회수 시스템(100)에서 작동하는 다른 자율 운송 차량(110)의 작동을 더 이상 방해하지 않고 자율 운송 차량(110)을 전환 시의 위치로부터 운영자가 물체(299)를 관측할 수 있는 위치(157)로 이동시키는 자율 운송 차량(110)의 안전한 경로 및 궤도를 선택하도록 구성된다. 비전 시스템 제어기(122VC)는 적어도 하나의 카메라(292)의 관측시야(292F) 내에 물체 또는 공간적 특징(299)을 유지하고, 소정의 물리적 특성의 이미지화를 계속하도록 구성된다. In one aspect, the transition performed by vision system controller 122VC (and controller 122) described above allows controller 122 to cause autonomous transport vehicle 110 to reach zero speed within a predetermined time period. The trajectory is configured to apply to the autonomous transport vehicle 110 to continue navigation of the autonomous transport vehicle 110 to any suitable destination associated with the detected object, wherein the motion of the autonomous transport vehicle 110 along the trajectory is configured to Coordinated with “known” and “unknown” objects positioned relative to vehicle 110. With autonomous transport vehicle 110 stationary, vision system controller 122VC allows the operator to identify objects 299 and perform mitigation actions such as maintenance (e.g., cleanup of spills, removal of misbehaving bots, etc.). and displaying an object or spatial feature 299 in a user interface (UI) to determine the location of the autonomous transport vehicle 110 (e.g., provided in the user interface (UI)) of the storage and retrieval system 100. Initiate communication to the operator. As discussed above, in one aspect, the controller 122 may at least initiate a signal/beacon to other bots to warn other bots of a traffic obstacle and to avoid the obstacle or indicate a detour area (and thus, in effect, a secondary hazard). Sensor system 290 provides one bot's danger pointer/indicator mode to other bots at the same level). In one aspect, a signal/beacon is transmitted via a local communication transmission to a system area bot task manager to manage the tasks of bots within a predetermined distance of a nearby bot or pointer bot. In another aspect, controller 122 further directs the operation of other autonomous transportation vehicles 110 operating in storage and retrieval system 100 based on vision system 400 and object information from vision system controller 122VC. It is configured to select a safe path and trajectory for the autonomous transport vehicle 110 to move the autonomous transport vehicle 110 from its position at the time of transition to a position 157 where the operator can observe the object 299 without further interference. . The vision system controller 122VC is configured to maintain the object or spatial feature 299 within the field of view 292F of at least one camera 292 and continue imaging the desired physical characteristic.

일 양태에서, 운영자는 (예를 들어, 사용자 인터페이스(UI)를 통해) 자율 가이드 차량의 제어를 자동 작동에서 협력 작동으로 선택하거나 전환할 수 있다(예를 들어, 운영자는 사용자 인터페이스(UI)를 통해 자율 운송 차량(110)의 작동을 원격으로 제어함). 예를 들어, 사용자 인터페이스(UI)는 정전식(capacitive) 터치 패드/스크린, 조이스틱, 햅틱 스크린, 또는 자율 운송 차량(110)의 협력 작동 모드에서 운영자 제어 입력에 영향을 주기 위해 사용자 인터페이스(UI)로부터 자율 운송 차량(110)으로 운동학적 방향 명령(예를 들어, 회전, 가속, 감속 등)을 전달하는 다른 입력 장치를 포함할 수 있다. 예를 들어, 보조 위험 센서 시스템(290)의 비전 시스템(400)은 자율 운송 차량(110)의 비디오 및/또는 정지 이미지를 (사용자 인터페이스(UI)를 통해) 운영자에게 전송하는 "대쉬보드 카메라"(또는 대쉬-카메라)를 제공하여, 보조 네비게이션 센서 시스템(288)과 관련하여 본원에 설명된 것과 유사한 방식으로 자율 운송 차량(110)에 관련된 영역의 원격 작동 또는 모니터링을 허용할 수 있다.In one aspect, an operator may select or switch control of an autonomous guided vehicle (e.g., via a user interface (UI)) from autonomous operation to cooperative operation (e.g., via a user interface (UI)). remotely controls the operation of the autonomous transport vehicle 110). For example, the user interface (UI) may be a capacitive touch pad/screen, a joystick, a haptic screen, or a user interface (UI) to effect operator control input in a cooperative operating mode of autonomous transport vehicle 110. and other input devices that convey kinematic direction commands (e.g., turn, accelerate, decelerate, etc.) from the autonomous transport vehicle 110. For example, the vision system 400 of the secondary hazard sensor system 290 may be a "dashboard camera" that transmits video and/or still images of the autonomous transport vehicle 110 to the operator (via a user interface (UI)). (or a dash-camera) may be provided to allow remote operation or monitoring of areas relevant to the autonomous transportation vehicle 110 in a manner similar to that described herein with respect to the auxiliary navigation sensor system 288.

도 2, 4a, 4b, 9a, 10a 및 15를 참조하면, 비전 시스템 제어기(122VC)(및/또는 제어기(122))는 하나 이상의 양태에서 비전 시스템(400)으로 원격 관측을 제공하도록 구성되고, 이러한 원격 관측은 증강 현실 또는 임의의 다른 적절한 방식(예를 들어 증강되지 않는 방식)으로 운영자에게 제공될 수 있다. 예를 들어, 자율 운송 차량(110)은 네트워크(180)(또는 임의의 다른 적절한 무선 네트워크)를 통해 (예를 들어, 제어 서버(120)를 통해) 창고 관리 시스템(2500)에 통신 가능하게 연결된다. 창고 관리 시스템(2500)은 하나 이상의 창고 제어 센터 사용자 인터페이스(UI)를 포함한다. 창고 제어 센터 사용자 인터페이스(US)는 데스크탑 컴퓨터, 랩탑 컴퓨터, 태블릿, 스마트폰, 가상 현실 헤드셋과 같은 임의의 적절한 인터페이스, 또는 자율 운송 차량(110)으로부터 획득된 시각 및/또는 청각 데이터를 제공하도록 구성된 임의의 다른 적절한 사용자 인터페이스일 수 있다. 일부 양태에서 차량(110)은 하나 이상의 마이크로폰(MCP, 도 2)을 포함할 수 있고, 하나 이상의 마이크로폰 및/또는 원격 관측은 차량(110), 다른 차량, 리프트, 저장 선반 등과 같은 저장 및 회수 시스템 구성요소에 대한 예방적 유지보수/문제해결 진단을 지원할 수 있다. 창고 제어 센터 사용자 인터페이스(UI)는 창고 제어 센터 사용자가 자율 운송 차량(110)으로부터 이미지를 요청하거나 다른 방식으로 제공받도록(예를 들어, 식별 불가능한 물체(299)의 탐지), 그리고 요청된/제공된 이미지는 창고 제어 센터 사용자 인터페이스(UI)에서 볼 수 있도록 구성된다. 2, 4A, 4B, 9A, 10A, and 15, vision system controller 122VC (and/or controller 122) is configured to provide remote viewing to vision system 400 in one or more aspects; Such remote viewing may be provided to the operator in augmented reality or any other suitable manner (eg, non-augmented manner). For example, autonomous delivery vehicle 110 is communicatively coupled to warehouse management system 2500 (e.g., via control server 120) via network 180 (or any other suitable wireless network). do. Warehouse management system 2500 includes one or more warehouse control center user interfaces (UIs). The warehouse control center user interface (US) is configured to provide visual and/or auditory data obtained from the autonomous transport vehicle 110 or any suitable interface, such as a desktop computer, laptop computer, tablet, smartphone, virtual reality headset. It may be any other suitable user interface. In some aspects, vehicle 110 may include one or more microphones (MCP, FIG. 2), and the one or more microphones and/or remote viewing may be directed to vehicle 110, other vehicles, storage and retrieval systems, such as lifts, storage racks, etc. Can support preventive maintenance/troubleshooting diagnostics for components. The warehouse control center user interface (UI) allows the warehouse control center user to request or otherwise receive images from the autonomous transport vehicle 110 (e.g., detection of an unidentifiable object 299), and to display the requested/provided images. The image is configured for viewing in the warehouse control center user interface (UI).

제공 및/또는 요청된 이미지는 라이브 비디오 스트림, 미리 기록(및 자율 운송 차량(110) 또는 창고 관리 시스템(2500)의 임의의 적절한 메모리에 저장)된 이미지, 또는 이미지(예를 들어, 각각의 이미지 요청으로 실질적으로 실시간의 요청에 따라 촬영되는 지정(사용자 선택가능하거나 사전 설정됨)된 이미지의 수 또는 시간 간격에 대응하는 하나 이상의 정적 이미지 및/또는 동적 비디오 이미지)일 수 있다. 비전 시스템(400) 및 비전 시스템 제어기(122VC)에 의해 제공되는 라이브 비디오 스트림 및/또는 이미지 캡처는 창고 제어 센터 사용자 인터페이스(UI)를 통해 창고 제어 센터 사용자에 의해 자율 운송 차량(110)의 실시간 원격 제어 작동(예를 들어, 원격 작동(teleoperation))을 제공할 수 있다. Images provided and/or requested may be live video streams, pre-recorded (and stored in any suitable memory of autonomous transport vehicle 110 or warehouse management system 2500) images, or images (e.g., each image The request may be a specified (user selectable or preset) number of images or one or more static images and/or dynamic video images corresponding to a time interval, taken on request substantially in real time. Live video streams and/or image capture provided by vision system 400 and vision system controller 122VC can be captured remotely from autonomous transport vehicle 110 in real time by a warehouse control center user via a warehouse control center user interface (UI). Control operations (e.g., teleoperation) may be provided.

일부 양태에서, 라이브 비디오는 보조 네비게이션 센서 시스템(288) 및/또는 보조 위험 센서 시스템(290)의 비전 시스템(400)으로부터 사용자 인터페이스(UI)로 도 9a 및 15에 도시된 바와 같이, 통상의 비디오 스트림(예를 들어, 이미지는 증강 없이 사용자 인터페이스 상에 제공되고, 카메라가 "보는" 것이 제공되는 것임)으로 스트리밍된다. 이러한 양태에서, 도 9a는 전방 네비게이션 카메라(420A, 420B) 모두로부터 증강 없이 스트리밍된 라이브 비디오를 도시하고(유사한 비디오 스트림이 후방 네비게이션 카메라(430A, 430B)에 의해 반대 방향에서 제공될 수 있음); 도 15는 전방 카메라(292/477A)로부터 증강 없이 스트리밍된 라이브 비디오를 도시한다(유사한 비디오 스트림이 후방 카메라(292/477B)에 의해 반대 방향에서 제공될 수 있음). 유사한 비디오가 본원에 설명된 보조 네비게이션 센서 시스템(288) 및/또는 보조 위험 센서 시스템(290)의 임의의 카메라로부터 스트리밍될 수 있다. 도 9a는 전방 네비게이션 카메라(420A, 420B)의 나란한 제시를 도시하고 있으나, 사용자가 요청하는 경우 비디오 스트림은 전방 네비게이션 카메라(420A, 420B) 중 하나만을 위한 것일 수 있다. 스트리밍된 비디오를 보기 위해 사용자가 가상 현실 헤드셋을 사용하는 경우, 우측 전방 네비게이션 카메라(420A)로부터의 이미지는 사용자의 우측 눈에 대응하는 가상 현실 헤드셋의 뷰파인더(viewfinder)에 제공될 수 있고 좌측 전방 네비게이션 카메라(420B)로부터의 이미지는 사용자의 좌측 눈에 대응하는 가상 현실 헤드셋의 뷰파인더에 제공될 수 있다.In some aspects, live video may be transmitted from the vision system 400 of the secondary navigation sensor system 288 and/or the secondary hazard sensor system 290 to a user interface (UI), as shown in FIGS. 9A and 15 , as shown in FIGS. Streamed as a stream (e.g., images are presented on a user interface without augmentation, and are presented as what the camera "sees"). In this aspect, Figure 9A shows live video streamed without enhancement from both front navigation cameras 420A, 420B (similar video streams may be provided in the opposite direction by rear navigation cameras 430A, 430B); 15 shows live video streamed without enhancement from the front camera 292/477A (a similar video stream can be provided in the opposite direction by the rear camera 292/477B). Similar video may be streamed from any of the cameras in the secondary navigation sensor system 288 and/or secondary hazard sensor system 290 described herein. Figure 9A shows a side-by-side presentation of front navigation cameras 420A and 420B, however, if the user requests, the video stream may be for only one of front navigation cameras 420A and 420B. When a user uses a virtual reality headset to view streamed video, an image from the right front navigation camera 420A may be presented to the viewfinder of the virtual reality headset corresponding to the user's right eye and the left front Images from navigation camera 420B may be presented to the viewfinder of the virtual reality headset corresponding to the user's left eye.

일부 양태에서, 라이브 비디오는 도 10a에 도시된 바와 같이, 보조 네비게이션 센서 시스템(288)의 비전 시스템(400)으로부터 사용자 인터페이스(UI)로 증강 현실 비디오 스트림(예를 들어, 라이브 비디오와 가상 물체의 조합이 스트리밍된 비디오에 제공)으로서 스트리밍된다. 이러한 양태에서, 도 10a는 케이스 유닛 모니터링 카메라(410A, 410B) 중 하나로부터 증강으로 스트리밍되는 라이브 비디오를 도시한다(유사한 비디오 스트림이 케이스 유닛 모니터링 카메라(430A, 430B) 중 다른 하나에 의해 제공될 수 있지만 카메라(430A, 430B) 사이의 이격 거리에 의해 오프셋된다). 유사한 증강 비디오가 본원에 설명된 보조 네비게이션 센서 시스템(288)의 임의의 카메라로부터 스트리밍될 수 있다. 도 10a에서 케이스 유닛(CU1, CU2, CU3)은 케이스 유닛이 케이스 유닛 모니터링 카메라(410A, 410B) 중 하나에 의해 캡처될 때 라이브 비디오 스트림의 사용자 인터페이스(UI)를 통해 사용자에게 제공된다. 케이스 유닛(CU1, CU2, CU3)이 안착되는 선반(555) 및 슬랫(slat, 520L)의 가상 표현은 비전 시스템 제어기(122VC) 또는 다른 적절한 제어기(예를 들어 제어 서버(120))에 의해 라이브 비디오 스트림에 삽입되어 라이브 비디오 스트림을 증강할 수 있다. 선반(555) 및 슬랫(520L)(또는 저장 및 검색 시스템(100)의 다른 구조)의 가상 표현은, 예를 들어 구조물의 일부가 케이스 유닛 모니터링 카메라(410A, 410B)의 관측시야(410AF, 410BF)내에 있지 않은 경우(또는 보조 네비게이션 센서 시스템(288)의 카메라의 관측시야가 비디오를 캡쳐하고 있는 경우), 라이브 비디오 스트림에 가상으로 삽입될 수 있다. 여기서 저장 및 회수 구조의 가상 표현은 (예를 들어 자율 운송 차량에 의해 "관찰"되고 있는 것의 완성된 "사진"을 제공하기 위해) 사용자에게 유용할 수 있는 정보와 함께 라이브 비디오 스트림을 보완/증강하도록 라이브 비디오 스트림에 가상으로 삽입될 수 있고, 이러한 정보는 카메라에 의해 캡처되지 않거나 또는 카메라 이미지 데이터에서 명확하게 식별되지 않는다. 라이브 비디오 스트림에 가상으로 삽입되는 저장 및 회수 구조의 가상 표현은 가상 모델(400VM)로부터 비전 시스템 제어기(122VC)(또는 제어 서버(120))에 의해 획득된다. 또한, 도 9b를 참조하면, 자율 운송 차량(110)이 원격 제어 작동 중인 경우, 비디오 스트림은 운영자에게 자율 운송 차량(110)의 목적지 위치에 대한 지침을 제공하는 운송 경로(VTP) 및/또는 목적지 위치 표시자(DL)를 운영자에게 제공하도록 증강될 수 있다. 운송 경로(VTP) 및 목적지 위치 표시자(DL)는 또한 자동/자율 및 준자동 작동 모드에서 작동하는 자율 운송 차량과 함께 비디오 스트림에 제공되어 운영자에게 계획된 경로 및 목적지의 표시를 제공할 수 있다.In some aspects, the live video is an augmented reality video stream (e.g., a combination of the live video and the virtual object) from the vision system 400 of the assistive navigation sensor system 288 to the user interface (UI), as shown in FIG. 10A. The combination is streamed as provided in the streamed video. In this aspect, FIG. 10A shows live video streaming augmentedly from one of the case unit monitoring cameras 410A, 410B (a similar video stream may be provided by the other of the case unit monitoring cameras 430A, 430B). but is offset by the separation distance between cameras 430A and 430B). Similar augmented video can be streamed from any camera of the assistive navigation sensor system 288 described herein. In Figure 10A, case units CU1, CU2, and CU3 are presented to the user through a user interface (UI) of a live video stream when the case unit is captured by one of the case unit monitoring cameras 410A, 410B. A virtual representation of the shelves 555 and slats 520L on which the case units CU1, CU2, and CU3 rest is live by the vision system controller 122VC or another suitable controller (e.g., control server 120). It can be inserted into the video stream to augment the live video stream. A virtual representation of shelves 555 and slats 520L (or other structures of storage and retrieval system 100) may be provided, for example, where portions of the structures are within the field of view 410AF, 410BF of case unit monitoring cameras 410A, 410B. ) (or if the field of view of the camera of the auxiliary navigation sensor system 288 is capturing video), it may be virtually inserted into the live video stream. Here, a virtual representation of the storage and retrieval structure complements/augments the live video stream with information that may be useful to the user (e.g. to provide a finished "picture" of what is being "observed" by an autonomous transport vehicle). may be virtually inserted into a live video stream, such information is not captured by the camera or is not clearly identified in the camera image data. A virtual representation of the storage and retrieval structure virtually inserted into the live video stream is obtained by the vision system controller 122VC (or control server 120) from the virtual model 400VM. Additionally, with reference to FIG. 9B , when autonomous transport vehicle 110 is in remote control operation, the video stream may be directed to a transport route (VTP) and/or destination that provides instructions to the operator as to the destination location of autonomous transport vehicle 110. It can be augmented to provide a location indicator (DL) to the operator. Transport route (VTP) and destination locator (DL) can also be provided in the video stream with autonomous transport vehicles operating in autonomous/autonomous and semi-autonomous operating modes to provide operators with an indication of the planned route and destination.

도 1a, 2, 4a, 4b, 9a, 10a 및 12를 참조하여 실시예의 양태들에 따라 예시적 방법이 설명될 것이다. 본 방법은 본원에 설명되는 바와 같이 자율 운송 차량(110)을 제공하는 단계(도 12, 블록 1200)를 포함한다. 센서 데이터는 물리적 특성 센서 시스템(270)에 의해 생성되며(도 12, 블록 1205), 본원에 설명되는 바와 같이 센서 데이터는 차량 네비게이션 자세 또는 위치 정보 및 페이로드 자세 또는 위치 정보 중 적어도 하나를 포함한다. 이미지 데이터는 보조 네비게이션 센서 시스템(288)으로 캡처되며(도 12, 블록 1210), 본원에 설명되는 바와 같이 이미지 데이터는 물리적 특성 센서 시스템(270)의 정보에 보충하여 차량 네비게이션 자세 또는 위치 및 페이로드 자세 또는 위치 중 적어도 하나를 알려준다. An exemplary method will be described according to aspects of the embodiment with reference to FIGS. 1A, 2, 4A, 4B, 9A, 10A and 12. The method includes providing an autonomous transportation vehicle 110 (Figure 12, block 1200) as described herein. The sensor data is generated by physical characteristic sensor system 270 (FIG. 12, block 1205), and as described herein, the sensor data includes at least one of vehicle navigation attitude or position information and payload attitude or position information. . Image data is captured with auxiliary navigation sensor system 288 (FIG. 12, block 1210), where the image data supplements information from physical characteristic sensor system 270 to determine vehicle navigation attitude or position and payload, as described herein. It tells you at least one of your posture or location.

본 방법은 또한 비전 시스템 제어기(122VC)를 이용하여 물리적 특성 센서 시스템(270)의 정보로부터 차량 자세 및 위치(도 12, 블록 1220)를 결정하여 저장 및 회수 시스템(100) 설비를 횡단하는 자율 운송 차량(110)의 독립적인 안내를 수행하는 단계를 포함할 수 있다. 비전 시스템 제어기(122VC)는 또한 물리적 특성 센서 시스템(270)의 정보로부터 페이로드(예를 들어, 케이스 유닛(CU))의 자세 및 위치(도 12, 블록 1225)를 결정하여 본원에 설명되는 바와 같이 저장 위치로 그리고 저장 위치로부터 페이로드의 독립적인 언더픽 및 배치, 및 페이로드 베드(210B)에서 페이로드의 독립적인 언더픽 및 배치를 수행할 수 있다. The method also uses the vision system controller 122VC to determine vehicle attitude and position (FIG. 12, block 1220) from information in the physical property sensor system 270 to enable autonomous transportation across the storage and retrieval system 100 facility. It may include performing independent guidance of the vehicle 110. Vision system controller 122VC may also determine the pose and position (FIG. 12, block 1225) of the payload (e.g., case unit (CU)) from information in physical characteristic sensor system 270, as described herein. Together, independent underpicking and placement of payloads to and from storage locations, and independent underpicking and placement of payloads in payload bed 210B can be performed.

비전 시스템 제어기(122VC)는 캡처된 이미지 데이터를 등록하고, 상기 이미지 데이터로부터 소정의 특징(도 12, 블록 1215) 중 하나 이상의 특징에서 적어도 하나의 이미지를 생성할 수 있으며, 본원에 설명된 바와 같이 적어도 하나의 이미지는 하나 이상의 소정의 특징의 가상 표현(VR)으로 포맷되어 기준 표현(400VMR)의 소정의 특징의 하나 이상의 대응하는 기준(예를 들어, 이미지화된 소정의 특징의 형태 및/또는 위치를 식별하기 위한 기준으로 제공되는 가상 모델(400VM)의 대응하는 특징)과의 비교를 제공한다. 본원에 설명된 바와 같이, 비전 시스템 제어기(122VC)는 소정의 특징 중 이미지화된 하나 이상의 특징의 가상 표현(VR)이 자율 운송 차량(110)에서 이루어지도록 구성되고, 하나 이상의 이미지화된 소정의 특징의 가상 표현(VR)과 (기준 표현(400VMR)의) 하나 이상의 대응하는 기준의 소정의 특징 간의 비교가 자율 운송 차량(110)에서 이루어지도록 구성된다. 비전 시스템 제어기(122)는 가상 표현(VR)과 기준 표현(400VMR) 간의 비교에 기초하여 물리적 특성 센서 시스템(270)으로부터 비전 시스템 제어기(122VC)에 의해 등록된 자율 가이드 차량의 자세 및 위치 정보 및 페이로드 자세 및 위치 정보(도 12, 블록 1230)를 확인할 수 있다. Vision system controller 122VC may register captured image data and generate at least one image from the image data in one or more of the predetermined features (Figure 12, block 1215), as described herein. The at least one image is formatted as a virtual representation (VR) of one or more predetermined features to match one or more corresponding criteria (e.g., shape and/or location of the predetermined features imaged) of the predetermined features of the reference representation 400VMR. It provides a comparison with the corresponding features of the virtual model (400VM), which is provided as a standard for identifying . As described herein, the vision system controller 122VC is configured to cause a virtual representation (VR) of one or more imaged features in the autonomous transportation vehicle 110, and the vision system controller 122VC is configured to create a virtual representation (VR) of one or more imaged features of the predetermined features in the autonomous transportation vehicle 110. A comparison between the virtual representation (VR) and certain features of one or more corresponding references (of the reference representation (400VMR)) is configured to be made in the autonomous transport vehicle (110). The vision system controller 122 receives the autonomous guided vehicle's attitude and position information registered by the vision system controller 122VC from the physical characteristic sensor system 270 based on a comparison between the virtual representation (VR) and the reference representation (400VMR), and Payload attitude and location information (FIG. 12, block 1230) can be checked.

비전 시스템 제어기(122VC)는 가상 표현(VR)과 기준 표현(400VMR) 간의 비교에 기초하여 자율 운송 차량(110)의 자세 및 위치의 편차 또는 페이로드의 자세 및 위치의 편차를 식별(도 12, 블록 1235)할 수 있고, 상기 편차에 기초하여 물리적 특성 센서 시스템(270)으로부터의 페이로드 자세 및 위치 정보를 업데이트 및 완성할 수 있다. 본 방법에서, 비전 시스템 제어기(122VC)는 물리적 특성 센서 시스템(270)으로부터의 정보의 자세 오류(자율 가이드 차량 및/또는 페이로드를 위함)(도 12, 블록 1240) 및, (예를 들어 비전 시스템(400)으로부터의) 적어도 하나의 이미지의 이미지 분석 및 적어도 하나의 식별된 편차에 기초하여 물리적 특성 센서 시스템(270)으로부터의 자세 및 위치 정보(자율 가이드 차량 및/또는 페이로드를 위함)의 정확도를 결정할 수 있고, 적어도 하나의 자세 오류 및 정확도에 따라 신뢰도 값을 할당할 수 있다. 신뢰도 값이 소정의 임계값보다 작은 경우, 비전 시스템 제어기(122VC)는 물리적 특성 센서 시스템(270)으로부터의 자세 및 위치 정보 대신에 가상 표현(VR)으로부터 생성된 자세 및 위치 정보에 기초하여 페이로드 처리를 전환하고; 및/또는 신뢰도 값이 소정의 임계값보다 작은 경우, 비전 시스템 제어기(122VC)는 물리적 특성 센서 시스템(270)으로부터의 자세 및 위치 정보 대신에 가상 표현(VR)으로부터 생성된 자세 및 위치 정보에 기초하여 자율 가이드 차량(110) 네비게이션을 전환한다. 전환 후, 제어기는, 목적지까지 자율 가이드 차량 네비게이션을 계속하거나, 또는 자율 가이드 차량의 안전한 경로 및 궤도를 선택하여 자율 가이드 차량을 전환 위치에서 셧다운을 위한 안전한 위치로 이동시키거나, 또는 운영자에게 통신을 개시하여 사용자 인터페이스 장치를 통해 자동 작동에서 준자동 작동 또는 수동 작동으로 자율 가이드 차량 제어의 운영자 선택을 위해 자율 가이드 차량의 운동 데이터 및 목적지를 식별하도록 구성되고; 그리고/또는 목적지로의 자율 가이드 차량 처리를 계속하거나, 또는 운영자에게 통신을 개시하여 사용자 인터페이스 장치를 통해 자동 페이로드 처리 작동에서 준자동 페이로드 처리 작동 또는 수동 페이로드 처리 작동으로 자율 가이드 차량 제어의 운영자 선택과 함께 페이로드 데이터를 식별하도록 구성된다.The vision system controller 122VC identifies deviations in the attitude and position of the autonomous transport vehicle 110 or deviations in the attitude and position of the payload based on a comparison between the virtual representation (VR) and the reference representation (400VMR) (FIG. 12, Block 1235) may update and complete payload attitude and position information from physical characteristic sensor system 270 based on the deviation. In the method, vision system controller 122VC may detect attitude error (for the autonomous guided vehicle and/or payload) (FIG. 12, block 1240) and information from physical characteristic sensor system 270 (e.g., vision Attitude and position information (for the autonomous guided vehicle and/or payload) from the physical characteristic sensor system 270 based on image analysis of at least one image (from system 400) and at least one identified deviation. Accuracy can be determined, and a confidence value can be assigned based on at least one posture error and accuracy. If the confidence value is less than a predetermined threshold, the vision system controller 122VC may load the payload based on the pose and position information generated from the virtual representation (VR) instead of the pose and position information from the physical property sensor system 270. switch processing; and/or if the confidence value is less than a predetermined threshold, the vision system controller 122VC may base the pose and position information generated from the virtual representation (VR) instead of the pose and position information from the physical property sensor system 270. to switch the navigation of the autonomous guide vehicle 110. After the diversion, the controller continues navigation of the autonomous guided vehicle to the destination, selects a safe path and trajectory for the autonomous guided vehicle to move the autonomous guided vehicle from the diversion location to a safe location for shutdown, or communicates to the operator. configured to identify kinematic data and a destination of the autonomous guided vehicle for operator selection of autonomous guided vehicle control from automatic operation to semi-automatic operation or manual operation via the user interface device; and/or continue processing the autonomous guided vehicle to its destination, or initiate communication to the operator to change control of the autonomous guided vehicle from an automatic payload handling operation to a semi-autonomous payload handling operation or a manual payload handling operation via a user interface device. It is configured to identify payload data in conjunction with operator selection.

제어기는, 비전 시스템 제어기(122VC)와 운영자/사용자 인터페이스(UI)를 통신 가능하게 결합하는 무선 통신 시스템(예를 들어, 네트워크(180))를 통해, 실시간 증강 현실 이미지를 운영자에게 제공하여 하나 이상의 이미지화된 소정의 특징의 가상 표현(VR) 및 기준 표현(RPP)의 하나 이상의 대응하는 기준의 소정의 특징(RPF)을 결합하는 시뮬레이션 이미지(도 9a, 10a, 10b 참조)(도 12, 블록 1245)를 전송한다. 비전 시스템 제어기(122VC)는 횡단하는 자율 가이드 차량(110)에 대한 실시간 운영자 명령을 수신하며, 이 명령은 실시간 증강 현실 이미지(도 9a, 10a, 10b 참조) 및 비전 시스템 제어기(122VC)에 의해 운영자에게 전송된 실시간 증강 현실 이미지의 변화에 대응한다.The controller provides real-time augmented reality images to the operator via a wireless communication system (e.g., network 180) that communicatively couples the vision system controller 122VC and an operator/user interface (UI) to one or more A simulated image (see FIGS. 9A, 10A, 10B) combining a virtual representation (VR) of an imaged predetermined feature and one or more corresponding reference predetermined features (RPF) of a reference representation (RPP) (FIG. 12, block 1245). ) is transmitted. Vision system controller 122VC receives real-time operator commands for the traversing autonomous guided vehicle 110, which commands are generated by real-time augmented reality images (see FIGS. 9A, 10A, 10B) and operator commands by vision system controller 122VC. Responds to changes in real-time augmented reality images transmitted to .

도 1a, 1b, 2, 4a, 4b 및 14를 참조하면, 소정의 주문 출력 순서(order out sequence)에 따라 혼합 팰릿 적재물(MPL)(예를 들어, 팰릿 적재물은 도 1b에 도시된 바와 같이 유닛을 유지하는 서로 다른 스톡(stock)을 구비하는 케이스 또는 혼합된 케이스를 구비함)을 생성하기 위해 케이스 유닛의 즉각적 분류(on the fly sortation)로 케이스 유닛 다중-픽킹 배치 작동을 포함하는 자율 운송 차량(110)의 케이스 유닛 이송 처리(transaction)의 예시가 개시된 실시예의 일 양태에 따라 설명될 것이다. 개시된 실시예의 양태가 이용될 수 있는 자율 운송 차량(110)의 다중-픽킹/배치 작동의 적절한 예시는 2020년 2월 18일에 발행된 "저장 및 회수 시스템"이라는 제목의 미국 특허 번호 10,562,705호; 2020년 11월 17일에 발행된 "저장 및 회수 시스템"이라는 제목의 미국 특허 번호 10,839,347호; 2020년 12월 1일에 발행된 "저장 및 회수 시스템"이라는 제목의 미국 특허 번호 10,850,921호; 2021년 3월 23일에 발행된 "저장 및 회수 시스템"이라는 제목의 미국 특허 번호 10,954,066호; 및 2021년 4월 13일에 발행된 "저장 및 회수 시스템"이라는 제목의 미국 특허 번호 10,974,897호;에서 설명되며, 이러한 개시내용은 전체가 참조로서 본원에 통합된다. 자율 운송 차량(110)은 픽킹 통로(130A1)의 제1 저장 위치(130S1)의 제1 선반에서 적어도 제1 케이스 유닛(CUA)을 픽킹한다(도 14, 블록 1400). 전술한 바와 같이, 저장 위치(130S1)의 케이스 유닛(CUA)에 대한 자율 운송 차량(110)의 위치 파악(localization)은 본원에 설명되는 방식으로 물리적 특성 센서 시스템(270) 및/또는 보조 네비게이션 센서 시스템(288)에 의해 이루어진다.1A, 1B, 2, 4A, 4B, and 14, a mixed pallet load (MPL) (e.g., a pallet load is divided into units as shown in FIG. 1B) according to a predetermined order out sequence. Autonomous transport vehicle including case unit multi-picking batch operation with on the fly sortation of case units to produce cases with different stocks or mixed cases maintaining An example of a case unit transfer transaction of 110 will be described according to one aspect of the disclosed embodiment. Suitable examples of multi-picking/batch operations of autonomous transport vehicles 110 in which aspects of the disclosed embodiments may be utilized include, but are not limited to, U.S. Patent No. 10,562,705, entitled “Storage and Retrieval System,” issued February 18, 2020; U.S. Patent No. 10,839,347, entitled “Storage and Retrieval System,” issued November 17, 2020; U.S. Patent No. 10,850,921, entitled “Storage and Retrieval System,” issued December 1, 2020; U.S. Patent No. 10,954,066, entitled “Storage and Retrieval System,” issued March 23, 2021; and U.S. Patent No. 10,974,897, entitled “Storage and Retrieval System,” issued April 13, 2021, the disclosures of which are incorporated herein by reference in their entirety. Autonomous transport vehicle 110 picks at least a first case unit (CUA) from a first shelf at first storage location 130S1 in picking aisle 130A1 (FIG. 14, block 1400). As described above, localization of autonomous transport vehicle 110 relative to case unit (CUA) of storage location 130S1 may be performed using physical characteristic sensor system 270 and/or auxiliary navigation sensors in the manner described herein. This is done by system 288.

자율 운송 차량(110)은 픽킹 통로(130A1)를 횡단하고 페이로드 베드(210B) 내에 적어도 제1 케이스 유닛(CUA)을 버퍼링(buffer)한다(도 14, 블록 1410). 자율 운송 차량(110)은 픽킹 통로(130A1)를 횡단하여 제2 저장 위치(130S2)로 이동하고 적어도 제1 케이스 유닛(CUA)과 상이한 적어도 제2 케이스 유닛(CUB)을 픽킹한다(도 14, 블록 1420). 적어도 제2 케이스 유닛(CUB)은 적어도 제1 케이스 유닛(CUA)과 동일한 픽킹 통로(130A1)에 있는 것으로 설명되지만, 다른 양태에서 적어도 제2 케이스 유닛(CUB)은 다른 통로 또는 저장 및 회수 시스템의 임의의 다른 적절한 보관 위치(예를 들어, 이송 스테이션, 버퍼, 인바운드 리프트(inbound lift) 등)에 있을 수 있다. 저장 위치(130S2)에 있는 케이스 유닛(CUB)에 대한 자율 운송 차량(110)의 위치 파악은 본원에 설명되는 방식으로 물리적 특성 센서 시스템(270) 및/또는 보조 네비게이션 센서 시스템(288)을 이용하여 수행된다. 적어도 제1 케이스 유닛(CUA)과 적어도 제2 케이스 유닛(CUB)은 혼합 케이스의 소정의 케이스 주문 출력 순서에 대응하는 주문 순서로 하나 이상의 케이스를 포함할 수 있다. Autonomous transport vehicle 110 traverses picking aisle 130A1 and buffers at least a first case unit (CUA) within payload bed 210B (FIG. 14, block 1410). Autonomous transport vehicle 110 traverses picking aisle 130A1 to second storage location 130S2 and picks at least a second case unit (CUB) that is different from at least a first case unit (CUA) (FIG. 14, Block 1420). At least the second case unit (CUB) is described as being in the same picking aisle (130A1) as at least the first case unit (CUA), but in other embodiments at least the second case unit (CUB) is in a different aisle or storage and retrieval system. It may be in any other suitable storage location (e.g., transfer station, buffer, inbound lift, etc.). Localization of autonomous transport vehicle 110 relative to case unit (CUB) at storage location 130S2 may utilize physical characteristic sensor system 270 and/or auxiliary navigation sensor system 288 in the manner described herein. It is carried out. At least the first case unit (CUA) and at least the second case unit (CUB) may include one or more cases in an order order corresponding to a predetermined case order output order of the mixed case.

자율 가이드 차량(110)은 페이로드 베드(210B) 내에 유지된 적어도 제1 케이스 유닛(CUA) 및 적어도 제2 케이스 유닛(CUB) 모두를 가지고 픽킹 통로(130A1) 및/또는 이송 데크(130B)를 횡단하여 소정의 목적지(예를 들어 아웃바운드 리프트(150B1))로 이동한다. 페이로드 베드(210B) 내의 적어도 제1 케이스 유닛(CUA) 및 적어도 제2 케이스 유닛(CUB)의 위치는 적어도 하나 이상의 케이스 유닛 모니터링 카메라(410A, 410B), 하나 이상의 3차원 이미지 시스템(440A, 440B) 및 하나 이상의 케이스 에지 탐지 센서(450A, 450B)에 의해 모니터링되고, 적어도 하나 이상의 케이스 유닛 모니터링 카메라(410A, 410B), 하나 이상의 3차원 이미지 시스템(440A, 440B) 및 하나 이상의 케이스 에지 탐지 센서(450A, 450B)로부터 획득된 데이터에 기초하여 페이로드 베드(210B) 내에서 (예를 들어, 정렬 블레이드(471), 푸셔(pusher, 470) 및/또는 풀러(puller, 472)) 서로 상대적으로 배열될 수 있다(예를 들어, 보조 네비게이션 센서 시스템(288)은, 그 개시내용이 전체가 참조로서 본원에 통합된 미국 특허 번호 10, 850,921호에 설명된 것과 실질적으로 유사한 방식으로 차량(110)에 탑재한 케이스 유닛의 즉각적 정렬(justification) 및/또는 분류를 적어도 부분적으로 수행한다). 자율 운송 차량(110)은 본원에 설명되는 방식으로 물리적 특성 센서 시스템(270) 및/또는 보조 네비게이션 센서 시스템(288)을 이용하여 목적지 위치에 대한 위치가 파악(예를 들어, 배치)된다. 목적지 위치에서 자율 운송 차량(110)은 적어도 제1 케이스 유닛(CUA) 및/또는 적어도 제2 케이스 유닛(CUB)(도 14, 블록 1430)를 배치하고, 이송 암(210A)은 하나 이상의 물리적 특성 센서 시스템(270) 및/또는 보조 네비게이션 센서 시스템(288)에 의해 획득된 데이터에 기초하여 이동된다. Autonomous guided vehicle 110 travels through picking aisle 130A1 and/or transfer deck 130B with both at least a first case unit (CUA) and at least a second case unit (CUB) maintained within payload bed 210B. Cross and move to a predetermined destination (for example, outbound lift (150B1)). The positions of at least the first case unit (CUA) and at least the second case unit (CUB) within the payload bed 210B are determined by at least one case unit monitoring camera (410A, 410B) and one or more three-dimensional imaging systems (440A, 440B). ) and one or more case edge detection sensors (450A, 450B), at least one case unit monitoring camera (410A, 410B), one or more three-dimensional imaging systems (440A, 440B), and one or more case edge detection sensors ( Arrange (e.g., alignment blade 471, pusher 470, and/or puller 472) relative to each other within payload bed 210B based on data obtained from 450A, 450B. (e.g., auxiliary navigation sensor system 288 may be installed in vehicle 110 in a manner substantially similar to that described in U.S. Patent No. 10, 850,921, the disclosure of which is incorporated herein by reference in its entirety). performs, at least in part, immediate justification and/or classification of mounted case units). Autonomous transport vehicle 110 is located (e.g., deployed) to a destination location using physical characteristic sensor system 270 and/or auxiliary navigation sensor system 288 in the manner described herein. At the destination location, autonomous transport vehicle 110 deploys at least a first case unit (CUA) and/or at least a second case unit (CUB) (FIG. 14, block 1430), wherein transfer arm 210A has one or more physical characteristics. Movement is based on data acquired by sensor system 270 and/or auxiliary navigation sensor system 288.

도 1a, 2, 4d, 15 및 16을 참조하여 실시예의 양태들에 따라 예시적 방법이 설명될 것이다. 본 방법은 본원에 설명되는 바와 같이 자율 운송 차량(110)을 제공하는 단계(도 16, 블록 1700)를 포함한다. 자율 운송 차량(110)은 네비게이션 시스템으로 서로 다른 위치로 자율적으로 네비게이션(navigate)하고 보조 위험 센서 시스템(290)으로 이미지 데이터를 부수적으로 캡처하는 동안(도 16, 블록 1710) 서로 다른 위치에서 소정의 이송 작업을 수행하여 작동(도 16, 블록 1705)하도록 구성된다. 본원에 설명된 바와 같이, 이미지 데이터는 설비(100)의 서로 다른 위치에서 자율 운송 차량(110)과 함께 보조 위험 센서 시스템(290)의 적어도 하나의 카메라(292)가 관측하는 설비(100)의 적어도 일부 내에 있는 물체 및/또는 공간적 특징(299)(고유한 물리적 특성을 가짐)을 알린다. An exemplary method will be described in accordance with aspects of the embodiment with reference to FIGS. 1A, 2, 4D, 15 and 16. The method includes providing an autonomous transportation vehicle 110 (Figure 16, block 1700) as described herein. Autonomous transport vehicle 110 autonomously navigates to different locations with a navigation system and detects predetermined targets at different locations while incidentally capturing image data with auxiliary hazard sensor system 290 (FIG. 16, block 1710). It is configured to operate (FIG. 16, block 1705) by performing a transfer operation. As described herein, image data may be stored in the facility 100 as viewed by at least one camera 292 of the auxiliary hazard sensor system 290 along with the autonomous transport vehicle 110 at different locations in the facility 100. Announces objects and/or spatial features 299 (having unique physical properties) within at least some of them.

본 방법은 또한 비전 시스템 제어기(122VC)을 이용하여, 보조 위험 센서 시스템(290)의 정보로부터 적어도 하나의 물체 또는 공간적 특징의 소정의 물리적 특성의 존재를 결정하고(도 16, 블록 1715), 이에 대응하여, 운영자와의 협력을 위해 차량을 자율 상태로부터 협력 차량 상태로 선택적으로 재구성하는 단계를 포함할 수 있으며(도 16, 블록 1720), 협력 상태의 차량은 차량이 차량 작동을 계속 수행하기 위해 운영자 명령을 수신하도록 배치되어, 본원에 설명된 바와 같이 물체 또는 공간적 특징(299)을 위험으로 최종 결정하고(도 16, 블록 1725), 위험에 대한 차량의 완화 조치를 식별하도록 한다(도 16, 블록 1730). The method also uses the vision system controller 122VC to determine the presence of certain physical characteristics of at least one object or spatial feature from information in the auxiliary hazard sensor system 290 (FIG. 16, block 1715), and In response, the step may include selectively reconfiguring the vehicle from an autonomous state to a cooperative vehicle state to cooperate with the operator (FIG. 16, block 1720), wherein the vehicle in the cooperative state allows the vehicle to continue performing vehicle operations. arranged to receive operator commands to ultimately determine an object or spatial feature 299 as a hazard (FIG. 16, block 1725) and identify the vehicle's mitigation actions for the hazard (FIG. 16), as described herein. Block 1730).

비전 시스템 제어기(122VC)는 또한 캡처된 이미지 데이터를 등록하고, 그로부터 적어도 하나의 물체 또는 공간적 특징(299)의 소정의 물리적 특성의 존재에 대한 적어도 하나의 이미지를 생성할 수 있으며(도 16, 블록 1735), 본원에 설명된 바와 같이, 적어도 하나의 이미지는 적어도 하나의 물체 또는 공간적 특징(299)의 소정의 물리적 특성에 대한 가상 표현(VR)으로 포맷되어, 기준 표현(400VMR)의 미리 결정된 특징의 하나 이상의 대응하는 기준(예를 들어, 이미지화된 물체 또는 공간적 특징(299)의 형태 및/또는 위치를 식별하기 위한 기준으로 제공되는 가상 모델(400VM)의 대응하는 특징)과 비교를 제공할 수 있다. 본원에 설명된 바와 같이, 비전 시스템 제어기(122VC)는 이미지화된 물체 또는 공간적 특징(299)의 가상 표현(VR)이 자율 운송 차량(110)에서 이루어지도록(예를 들어, 탑재) 구성되고, 물체 또는 공간적 특징(299)의 가상 표현(VR)과 (기준 표현(400VMR)의) 하나 이상의 대응하는 기준의 소정의 특징 간의 비교가 자율 운송 차량(110)에서 이루어지도록 구성된다. The vision system controller 122VC may also register the captured image data and generate therefrom at least one image for the presence of certain physical characteristics of the at least one object or spatial feature 299 (Figure 16, block 1735), as described herein, the at least one image is formatted as a virtual representation (VR) of predetermined physical characteristics of at least one object or spatial feature 299, such that the predetermined characteristics of the reference representation 400VMR may provide a comparison with one or more corresponding criteria (e.g., corresponding features of the virtual model 400VM that serve as a reference for identifying the shape and/or location of the imaged object or spatial feature 299). there is. As described herein, the vision system controller 122VC is configured to cause a virtual representation (VR) of the imaged object or spatial feature 299 to be made on (e.g., onboard) the autonomous transport vehicle 110, or a comparison between a virtual representation (VR) of the spatial feature 299 and certain features of one or more corresponding references (of the reference representation 400VMR) is configured to be made in the autonomous transport vehicle 110 .

본 방법에서, 비전 시스템 제어기(122VC)는 적어도 하나의 물체 또는 공간적 특징의 알 수 없는 물리적 특성의 존재를 결정하고 자율 운송 차량(110)을 자율 작동 상태에서 협력 작동 상태로 전환할 수 있다. 위에서 언급한 전환이 이루어지면, 제어기(122)는 물체 또는 공간적 특징(299)에 대해 자율 운송 차량(110)을 정지시키거나, 자율 운송 차량(110)을 전환 위치에서 사용자 인터페이스 장치(UI)를 통해 물체 또는 공간적 특징(299)을 식별하기 위해 운영자에게 통신을 개시하도록 하는 위치로 이동시키는 자율 가이드 차량 경로 또는 궤도를 선택하도록 구성된다.In the method, vision system controller 122VC may determine the presence of an unknown physical characteristic of at least one object or spatial feature and transition autonomous transportation vehicle 110 from an autonomous operating state to a cooperative operating state. Once the above-mentioned transition is made, the controller 122 stops the autonomous transportation vehicle 110 relative to the object or spatial feature 299, or moves the autonomous transportation vehicle 110 to the transition position by using a user interface device (UI). The autonomous guided vehicle is configured to select a path or trajectory to move the autonomous guided vehicle to a location to initiate communication with the operator to identify an object or spatial feature 299.

제어기(122VC)는, 비전 시스템 제어기(122VC)와 운영자/사용자 인터페이스(UI)를 통신 가능하게 결합하는 무선 통신 시스템(예를 들어, 네트워크(180))를 통해, 실시간 증강(또는 비증강) 현실 이미지를 운영자에게 제공하여 하나 이상의 이미지화된 물체 또는 공간적 특징(299)의 가상 표현(VR)과 기준 표현(RPP)의 하나 이상의 대응하는 기준의 소정의 특징(RPF)을 결합하는 이미지(도 15 참조)(도 16, 블록 1740)를 전송한다. 제어기(122)는 실시간 운영자 명령을 자율 운송 차량(110)에 수신하고, 이러한 명령은 실시간 증강 현실 또는 비증강 이미지(도 15 참조) 및 비전 시스템 제어기(122VC)에 의해 운영자에게 전송되는 실시간 증강 현실 또는 비증강 이미지의 변화에 대응한다.Controller 122VC provides real-time augmented (or non-augmented) reality via a wireless communication system (e.g., network 180) that communicatively couples vision system controller 122VC and an operator/user interface (UI). An image that provides an image to an operator to combine a virtual representation (VR) of one or more imaged objects or spatial features 299 with predetermined features (RPF) of one or more corresponding references in a reference representation (RPP) (see FIG. 15 ). ) (Figure 16, block 1740). Controller 122 receives real-time operator commands to autonomous transport vehicle 110, such commands may include real-time augmented reality or non-augmented images (see FIG. 15) and real-time augmented reality images transmitted to the operator by vision system controller 122VC. Or, it responds to changes in the non-augmented image.

도 2, 19, 20, 25a 내지 25c를 참조하면, 자율 운송 차량(110)은, 구동 섹션(261D)에 각각 결합되는 제어기(122), 케이스 처리 조립체(210), 주변 전자장치 섹션(778) 및 제어 시스템(122CS)을 형성하도록 본원에 설명된 자율 운송 차량(110)의 다른 구성요소/특징(도 25a 내지 25c 참조)을 포함한다. 제어 시스템(122CS)은 본원에 설명된 자율 운송 차량(110)의 각각의 자율 작동을 수행한다. 제어기 시스템(122CS)은 본원에 설명된 바와 같이 통신, 감독 제어, 차량 위치 파악, 차량 네비게이션 및 모션 제어, 페이로드 감지, 페이로드 이송 및 차량 전력 관리를 제공하도록 구성될 수 있다. 이러한 양태 및 다른 양태에서, 제어 시스템은 또한 차량(110)에 임의의 적절한 서비스를 제공하도록 구성될 수 있다. 제어 시스템(122CS)은 본원에 설명된 차량 작동을 수행하도록 차량(110)을 구성하는 임의의 적합한 비일시적 프로그램 코드 및/또는 펌웨어를 포함한다. 제어 시스템(122CS)은 제어 시스템 펌웨어/소프트웨어의 원격 업데이트, 차량(110)의 원격 디버깅, 차량(110)의 원격 작동, 차량(110)의 위치 추적, 차량(110)의 작동 상태 추적 및 차량(110)과 관련된 임의의 다른 적절한 정보의 추적 중 하나 이상을 위해 구성될 수 있으나 이에 제한되는 것은 아니다.2, 19, 20, 25A to 25C, the autonomous transport vehicle 110 includes a controller 122, a case handling assembly 210, and a peripheral electronics section 778, respectively coupled to the drive section 261D. and other components/features of autonomous transport vehicle 110 described herein (see FIGS. 25A-25C) to form control system 122CS. Control system 122CS performs each autonomous operation of autonomous transportation vehicle 110 described herein. Controller system 122CS may be configured to provide communications, supervisory control, vehicle location, vehicle navigation and motion control, payload sensing, payload transfer, and vehicle power management as described herein. In these and other aspects, the control system may also be configured to provide any suitable service to vehicle 110. Control system 122CS includes any suitable non-transitory program code and/or firmware to configure vehicle 110 to perform vehicle operations described herein. Control system 122CS is capable of remotely updating control system firmware/software, remote debugging of vehicle 110, remote operation of vehicle 110, location tracking of vehicle 110, tracking operating status of vehicle 110, and vehicle ( 110), but is not limited to one or more of the following:

예를 들어, 도 25a 내지 25c에 도시된 바와 같이, 제어 시스템(122CS)은 본원에 설명된 바와 같이 제어기(122), 비전 시스템 제어기(122VC) 및 전력 관리 섹션(444)(스위칭 장치(449) 및 모니터링 및 제어 장치(447)를 포함)을 포함하는 분산 제어 시스템이다. 일부 양태에서, 비전 시스템 제어기(122VC) 및 전력 관리 섹션(444) 중 하나 이상은 제어기(122)에 적어도 부분적으로 통합되고; 다른 양태에서 시스템 제어기(122VC) 및 전력 관리 섹션(444) 중 하나 이상은 제어기(122)와 분리되어 있지만 통신 가능하게 결합된다. 제어 시스템의 구성요소(예를 들어, 센서, 카메라, 조명, 구동 섹션, 모터 등)는 자율 운송 차량(110) 전체에 분산될 수 있으며 임의의 적절한 방식(도 25a 내지 25c에 설명된 바와 같음)으로 제어기(122)에 통신 가능하게 결합될 수 있다. For example, as shown in FIGS. 25A-25C, control system 122CS includes controller 122, vision system controller 122VC, and power management section 444 (switching device 449) as described herein. and a monitoring and control device (447). In some aspects, one or more of vision system controller 122VC and power management section 444 are at least partially integrated into controller 122; In another aspect, one or more of system controller 122VC and power management section 444 are separate but communicatively coupled to controller 122. Components of the control system (e.g., sensors, cameras, lights, drive sections, motors, etc.) may be distributed throughout autonomous transport vehicle 110 and in any suitable manner (as illustrated in FIGS. 25A-25C ). It can be communicatively coupled to the controller 122.

제어기(122)는 자율 네비게이션 제어 섹션(122N) 및 자율 페이로드 처리 제어 섹션(122H) 중 적어도 하나를 포함한다. 자율 네비게이션 제어 섹션(122N)은 휘발성 메모리(예를 들어 제어기(122)의 종합 전력 관리 섹션(444)의 메모리(446))에 자율 운송 차량(110)의 현재 및 예상 상태, 자세 및 위치를 결정적(deterministic)으로 설명하는(그리고 실시간으로 제공되는) 자율 가이드 차량의 상태 및 자세 네비게이션 정보를 저장하고 유지하도록 구성된다. 자율 운송 차량 상태 및 자세 네비게이션 정보는 과거 및 현재의 자율 가이드 차량 상태 및 자세 네비게이션 정보를 모두 포함한다. 상태, 자세 및 위치 정보는 결정적이며(그리고 실시간으로 제공됨), 현재 및 예상 상태, 자세 및 위치를 최대 6개의 자유도(X, Y, Z, Rx, Ry, Rz)로 설명하여 과거, 현재 및 예상되는 상태, 자세 및 위치가 충분히 설명되도록 한다. 자율 페이로드 처리 제어 섹션(122H)은 휘발성 메모리(예를 들어, 메모리(446))에 현재의 페이로드 식별 정보, 상태 및 자세 정보(예를 들어, 과거 및 현재 정보 모두)를 등록하고 유지하도록 구성된다. 페이로드 식별 정보, 상태 및 자세 정보는 과거 및 현재의 페이로드 식별 정보, 자율 운송 차량의 기준 프레임(예를 들어, X, Y, Z 좌표축 및 페이로드 베드(210B) 내의 적절한 데이터 표면(datum surface))에 대한 페이로드 자세 및 상태 위치 및 현재 및 과거의 페이로드의 픽킹/배치 위치를 설명한다.Controller 122 includes at least one of an autonomous navigation control section 122N and an autonomous payload processing control section 122H. The autonomous navigation control section 122N deterministically stores the current and expected state, attitude, and position of the autonomous transport vehicle 110 in volatile memory (e.g., memory 446 of the comprehensive power management section 444 of controller 122). It is configured to store and maintain status and attitude navigation information of the autonomous guided vehicle, which is described as deterministic (and provided in real time). Autonomous transport vehicle status and attitude navigation information includes both past and present autonomous guided vehicle status and attitude navigation information. State, attitude, and location information is deterministic (and available in real time), describing current and projected states, postures, and positions in up to six degrees of freedom (X, Y, Z, Rx, Ry, Rz), providing historical, current, and Ensure that expected conditions, postures, and positions are fully described. Autonomous payload processing control section 122H is configured to register and maintain current payload identification information, status and attitude information (e.g., both historical and current information) in volatile memory (e.g., memory 446). It is composed. Payload identification, state, and attitude information may include past and current payload identification, the autonomous transport vehicle's frame of reference (e.g., X, Y, Z coordinate axes, and appropriate data surfaces within payload bed 210B) Describes the payload attitude and state location for )) and the picking/placement location of current and past payloads.

본원에 설명된 바와 같이, 제어기(122)는 제어기(122)의 서로 다른 섹션(예를 들어 비전 시스템 제어기(122VC))으로부터 분리되고 구별되는 종합 전력 관리 섹션(444)(또한 전력 분배 유닛으로 지칭됨, 도 26 참조)을 포함한다. 본원에 설명될 바와 같이, 전력 분배 유닛(444)은 전력 공급 섹션(481)의 충전 레벨(예를 들어, 전압 레벨 또는 전류 레벨)을 모니터링하기 위해 전력 공급 섹션(481)와 통신 가능하게 연결된다. 또한 본원에 설명된 바와 같이, 전력 분배 유닛(444)은 전력 공급 섹션(481)로부터 구동 섹션(261D), 케이스 처리 조립체(210) 및 주변 전자장치 섹션(778)에 각각 전력을 공급하는 구동 섹션(261D), 케이스 처리 조립체(210) 및 주변 전자장치 섹션(778) 각각의 분기(branch) 회로(482)(또한 분기 전력 회로로 지칭됨, 비제한적 예시로서 도 26 참조)에 연결된다. 전력 분배 유닛(444)은 전력 공급 섹션(481)로부터 이용가능한 충전 레벨에 대한 각 분기 회로(482)의 수요 레벨에 기초하여, 각각의 분기 회로(482)에 대해 전력 소비를 종합적으로 관리하도록 구성된다. As described herein, controller 122 has an overall power management section 444 (also referred to as a power distribution unit) that is separate and distinct from other sections of controller 122 (e.g., vision system controller 122VC). , see FIG. 26). As will be described herein, power distribution unit 444 is communicatively coupled with power supply section 481 to monitor the charge level (e.g., voltage level or current level) of power supply section 481. . As also described herein, power distribution unit 444 is a drive section that supplies power from power supply section 481 to drive section 261D, case handling assembly 210, and peripheral electronics section 778, respectively. 261D, case handling assembly 210 and peripheral electronics section 778 are each connected to a branch circuit 482 (also referred to as a branch power circuit, see FIG. 26 as a non-limiting example). The power distribution unit 444 is configured to comprehensively manage power consumption for each branch circuit 482 based on the demand level of each branch circuit 482 relative to the level of charge available from the power supply section 481. do.

전력 분배 유닛(444)은 모니터링 및 제어 장치(447)(본원에서 모니터링 장치(447)로 지칭됨), 스위칭 장치(449)(스위치(449S)를 구비함), 메모리(446), 무선 통신 모듈(445) 및 아날로그-디지털 변환기(448)(본원에서 AD 변환기(448)로 지칭됨)를 포함한다. 모니터링 장치(447)는 적어도 현재 사용량 및 분기 전력 회로(482)의 퓨즈 상태를 모니터링하고 본원에 설명된 하나 이상의 선택된 분기 전력 회로(482)의 셧다운을 제어하도록 구성된 임의의 적절한 처리 장치이다. 예를 들어, 모니터링 장치(447)는 필드-프로그래머블 게이트 어레이(field-programmable gate array, FPGA), 복합 프로그래머블 로직 장치(complex programmable logic device, CPLD), 시스템 온 칩 집적 회로(system on chip integrated circuit, SOC) 및 중앙 처리 장치(central processing unit, CPU) 중 하나 이상이다. 모니터링 장치(447)는 제어기(122) 및 비전 시스템 제어기(122VC)와 독립적으로 작동하고, 모니터링 장치(447)는 자율 운송 차량(110)의 하나 이상의 저레벨 시스템을 관리(예를 들어, 적어도 전력 분배)하기 위해 비일시적 코드로 프로그래밍된다.Power distribution unit 444 includes a monitoring and control device 447 (herein referred to as monitoring device 447), a switching device 449 (including switch 449S), a memory 446, and a wireless communication module. 445 and an analog-to-digital converter 448 (referred to herein as AD converter 448). Monitoring device 447 is any suitable processing device configured to at least monitor the current usage and fuse status of branch power circuits 482 and control shutdown of one or more selected branch power circuits 482 as described herein. For example, the monitoring device 447 may be a field-programmable gate array (FPGA), a complex programmable logic device (CPLD), or a system on chip integrated circuit. One or more of a SOC) and a central processing unit (CPU). Monitoring device 447 operates independently of controller 122 and vision system controller 122VC, and monitor device 447 manages one or more low-level systems of autonomous transport vehicle 110 (e.g., at least power distribution). ) is programmed with non-transitory code to do this.

도 1a, 1b, 2, 19, 20, 25a 내지 25c 및 26을 참조하면, 전력 분배 유닛(444)은 적어도 하나의 분기 장치(483)와 통신하고 제어하도록 구성된다. 예를 들어, 전력 분배 유닛(444)은, 아날로그 센서(483C)(예를 들어, 케이스 에지 탐지 센서, 라인 추종 센서(275) 및 본원에 설명된 다른 아날로그 센서), 디지털 센서(483B)(예를 들어, 비전 시스템(400)의 카메라(410, 440, 450) 및 본원에 설명된 다른 디지털 센서), 조명(483A), 캐스터(caster, 250), 구동/견인 휠(260), 이송 암(210A), 연장 모터(667A-667C), 이송 암 리프트 모터(669), 페이로드 베드(210B)/이송 암(210A)의 페이로드 정렬 모터(668A-668F), 서스펜션 잠금 모터, 및 자율 운송 차량(110)의 임의의 다른 적절한 특징(도 20, 21 및 26 참조) 중 하나 이상에 통신가능하게 결합되어, 아날로그 센서(483C), 디지털 센서(483B) 및 조명(483A), 캐스터(250), 구동/견인 휠(260), 이송 암(210A), 연장 모터(667), 이송 암 리프트 모터(669), 페이로드 베드(210B)/이송 암(210A)의 페이로드 정렬 모터(668), 서스펜션 잠금 모터, 및 임의의 다른 적절한 특징에 전력을 공급(예를 들어, 전원을 켜고 전력 공급된 작동을 유지)할 수 있다. 여기서, 전력 분배 유닛(444)은 제어기(122)로부터 명령을 수신하여 아날로그 센서(483C) 및 디지털 센서(483B) 중 하나 이상을 가동시켜, 아날로그 센서(483C) 및 디지털 센서(483B) 중 하나 이상이 본원 및 아래의 문헌에 설명된 것과 실질적으로 유사한 방식으로 저장 및 회수 시스템(100)의 저장 구조물(130) 내에 있는 자율 운송 차량의 자세 및 위치 정보 중 하나 이상을 획득할 수 있으며, 상기 문헌은 2013년 4월 23일에 발행된 "저장 및 회수 시스템의 자율 운송"이라는 제목의 미국 특허 번호 8,425,173호; 2015년 4월 14일에 발행된 "봇 위치 감지"라는 제목의 미국 특허 번호 9,008,884호; 및 2018년 4월 17일에 발행된 "고속 안정성을 갖는 봇"이라는 제목의 미국 특허 번호 9,946, 265호이고, 문헌들의 개시내용은 전체가 참조로서 본원에 통합된다. 전력 분배 유닛(444)은 아날로그 센서(483C) 및 디지털 센서(483B) 중 하나 이상에 의해 획득된 센서 데이터를 (임의의 적절한 방식으로) 처리하고 필터링하도록 구성된다. 전력 분배 유닛(444)은 또한 아날로그 센서(483C) 및 디지털 센서(483B) 중 하나 이상으로 제어기(122)(또는 비전 시스템 제어기(122VC))에 의해 전송된 제어 신호를 (임의의 적절한 방식으로) 처리하고 필터링하도록 구성될 수 있다. 센서가 아날로그 센서(483C)인 경우, 전력 분배 유닛(444)은 전력 분배 유닛(444)에 의한 필터링 및 처리를 위해 아날로그 센서 데이터를 디지털 센서 데이터로 변환하는 AD 변환기(448)를 포함한다.1A, 1B, 2, 19, 20, 25A-25C and 26, power distribution unit 444 is configured to communicate with and control at least one branch device 483. For example, power distribution unit 444 may include analog sensors 483C (e.g., case edge detection sensors, line follow sensors 275 and other analog sensors described herein), digital sensors 483B (e.g. For example, cameras 410, 440, 450 of vision system 400 and other digital sensors described herein), lighting 483A, caster 250, drive/traction wheel 260, transfer arm ( 210A), extension motors (667A-667C), transfer arm lift motors (669), payload alignment motors (668A-668F) of payload bed (210B)/transfer arm (210A), suspension lock motors, and autonomous transport vehicles. communicatively coupled to one or more of any other suitable features of 110 (see FIGS. 20, 21 and 26), such as analog sensor 483C, digital sensor 483B and lighting 483A, caster 250, Drive/traction wheel (260), transfer arm (210A), extension motor (667), transfer arm lift motor (669), payload alignment motor (668) of payload bed (210B)/transfer arm (210A), suspension. Energize (e.g., turn on and maintain powered operation) the locking motor, and any other suitable features. Here, the power distribution unit 444 receives a command from the controller 122 to operate one or more of the analog sensor 483C and the digital sensor 483B, so that one or more of the analog sensor 483C and the digital sensor 483B One or more of the attitude and position information of autonomous transport vehicles within the storage structure 130 of the storage and retrieval system 100 may be obtained in a manner substantially similar to that described herein and in the references below, which references U.S. Patent No. 8,425,173, entitled “Autonomous Transportation of Storage and Retrieval Systems,” issued April 23, 2013; U.S. Patent No. 9,008,884, entitled “Bot Location Detection,” issued April 14, 2015; and U.S. Patent No. 9,946, 265, entitled “Bot with High-Speed Stability,” issued April 17, 2018, the disclosures of which are incorporated herein by reference in their entirety. Power distribution unit 444 is configured to process and filter (in any suitable manner) sensor data acquired by one or more of analog sensor 483C and digital sensor 483B. Power distribution unit 444 may also transmit control signals transmitted by controller 122 (or vision system controller 122VC) to one or more of analog sensors 483C and digital sensors 483B (in any suitable manner). Can be configured to process and filter. If the sensor is an analog sensor 483C, power distribution unit 444 includes an AD converter 448 that converts analog sensor data to digital sensor data for filtering and processing by power distribution unit 444.

자율 운송 차량은 프레임(200)(또는 자율 운송 차량(110)의 임의의 다른 위치)에 결합되고, 자율 운송 차량(110)에 인접한 저장 구조물(130)의 일부를 비추는 조명(483A) (도 20, 또한 도 25a 내지 25c의 조명/LED 참조)을 포함할 수 있다. 전력 분배 유닛(444)은 조명(483A)의 작동을 제어하도록 구성된다. 예를 들어, 전력 분배 유닛(444)은 전력 소비를 최소화하는 방식으로 조명(483A)을 작동시키기 위해 조명(483A)에 펄스 폭 변조 제어 신호(pulse width modulation control signal)를 제공하도록 구성된다. 여기서, 펄스 폭 변조 제어 신호는 주어진 자율 운송 차량 작업(예를 들어, 비전 시스템(400)을 이용한 바코드 판독, 비전 시스템을 이용한 케이스 유닛 특징 탐지, 본원에 설명되는 바와 같이 비전 시스템에 의해 수행되는 원격 운영자 관측을 위해 저장 및 회수 시스템(100)의 일부를 비춤)을 위해 조명(483A)을 비추도록 전력 공급 섹션(481)로부터 인출되는 전력량을 최소화하도록 구성된다. 조명(483A)은 발광 다이오드(light emitting diodes, LED)를 포함하지만 이에 제한되지 않는 임의의 적절한 조명일 수 있다. The autonomous transport vehicle is coupled to frame 200 (or any other location on autonomous transport vehicle 110) and includes lights 483A that illuminate a portion of storage structure 130 adjacent to autonomous transport vehicle 110. (see lighting/LED in FIG. 20 and also FIGS. 25A-25C). Power distribution unit 444 is configured to control the operation of lighting 483A. For example, power distribution unit 444 is configured to provide a pulse width modulation control signal to light 483A to operate light 483A in a manner that minimizes power consumption. Here, the pulse width modulated control signal may be used to perform a given autonomous transportation vehicle task (e.g., reading a barcode using the vision system 400, detecting case unit features using the vision system, remote control performed by the vision system as described herein). It is configured to minimize the amount of power drawn from the power supply section 481 to illuminate the lighting 483A (to illuminate a portion of the storage and retrieval system 100 for operator observation). Light 483A may be any suitable light, including but not limited to light emitting diodes (LEDs).

계속해서 도 2, 19, 20, 25a 내지 25c 및 26을 참조하면, 전력 분배 유닛(444)은 자율 운송 차량(110)의 더 높은 레벨의 기능/작동을 보존하기 위해 자율 운송 차량(110)의 전력 요구를 관리하도록 구성된다. 전력 분배 유닛(444)은 각각의 분기 전력 회로(482)(각각의 분기 장치(483A-483F...483n, 통칭하여 분기 장치(483)로 지칭되고, 이때 n은 분기 장치의 최대 개수를 나타내는 정수)가 그 위에 배치됨, 도 19, 20, 21, 25a 내지 25c 및 26 참조)의 수요 충전 레벨을 종합적으로 관리하도록 구성되어, 다른 분기 전력 회로(482)에 대한 각각의 분기 회로의 수요 레벨 및 전력 공급 섹션(481)로부터 이용가능한 충전 레벨에 기초하여 소정의 패턴으로 분기 전력 회로(482) 각각을 끌 수 있다. 소정의 패턴(예를 들어, 분기 전력 회로(482)를 끄기 위한 패턴)은 전력 공급 섹션(481)로부터의 이용가능한 충전 레벨이 감소함에 따라 분기 전력 회로(482)를 끄도록 배열되어, 제어기(122)로 향하는 전력 공급 섹션(481)로부터의 이용가능한 충전 레벨을 최대화할 수 있다. 소정의 패턴은 전원 공급 섹션(481)로부터 이용가능한 충전 레벨이 감소함에 따라 분기 전력 회로(482)를 끄도록 배열되어, 제어기(122)로 향하는 이용가능한 충전 레벨이 전원 공급 섹션(481)의 이용가능한 충전 레벨에 기초하여 최대 시간 동안 제어기(122)의 수요 충전 레벨과 같거나 초과하도록 할 수 있다.With continued reference to FIGS. 2 , 19 , 20 , 25A-25C and 26 , power distribution unit 444 provides power distribution of autonomous transport vehicle 110 to preserve higher level functions/operations of autonomous transport vehicle 110 . Configured to manage power demands. Power distribution unit 444 is connected to each branch power circuit 482 (each branch device 483A-483F...483n, collectively referred to as branch device 483, where n represents the maximum number of branch devices. integers) are disposed thereon, see FIGS. 19, 20, 21, 25a to 25c and 26) and are configured to comprehensively manage the demand charge level of each branch circuit 482 and Each of the branch power circuits 482 can be turned off in a predetermined pattern based on the level of charge available from the power supply section 481. A predetermined pattern (e.g., a pattern for turning off branch power circuit 482) is arranged to turn off branch power circuit 482 as the level of charge available from power supply section 481 decreases, so that the controller ( It is possible to maximize the level of charge available from the power supply section 481 towards 122). The predetermined pattern is arranged to turn off the branch power circuit 482 as the level of charge available from the power supply section 481 decreases, such that the level of charge available to the controller 122 increases with the use of the power supply section 481. Based on the available charge level, the demand charge level of the controller 122 can be equal to or exceeded for a maximum period of time.

분기 전력 회로(482) 셧다운 및 제어기(122) 작동 유지의 예시로서, 전력 분배 유닛(444)의 모니터링 장치(447)는 본원에 설명된 바와 같이 전력 공급 섹션(481)의 전압을 모니터링(도 23, 블록 23800)하고, 순차적인 셧다운 순서로 자율 운송 차량(110)의 구성요소/시스템(예를 들어, 아날로그 센서, 디지털 센서 구동 시스템, 통신 시스템 등)을 셧다운하도록 구성되며, 순차적인 셧다운 순서에서의 각각의 셧다운 작동은 전력 공급 섹션의 각각의 임계 전압에 따라 달라진다. 예를 들어, 전력 공급 섹션(481)는 V1의 완전 충전된 전압을 갖는다. 전력 분배 유닛(444)이 전압(V1)을 탐지하면 자율 운송 차량(110)의 구성요소/시스템은 실질적으로 완전히 작동하여 저장 구조물(130) 전체에 걸쳐 케이스 유닛의 운송을 수행할 수 있다. As an example of shutting down the branch power circuit 482 and maintaining the operation of the controller 122, the monitoring device 447 of the power distribution unit 444 monitors the voltage of the power supply section 481 as described herein (FIG. 23 , block 23800), and is configured to shut down components/systems (e.g., analog sensors, digital sensor drive systems, communication systems, etc.) of the autonomous transport vehicle 110 in a sequential shutdown sequence, wherein the sequential shutdown sequence: The respective shutdown operation of depends on the respective threshold voltage of the power supply section. For example, power supply section 481 has a fully charged voltage of V1. Once power distribution unit 444 detects voltage V1 , the components/systems of autonomous transport vehicle 110 may be substantially fully operational to perform transport of case units throughout storage structure 130 .

자율 운송 차량(110)의 작동에 따라, 전원 공급 섹션(481)의 전압은 제1 소정의 임계 전압(V2, 이때 V2는 V1보다 작음)까지 강하될 수 있다(그리고 전력 분배 유닛(444)은 이러한 전압 강하를 탐지함). 전력 공급 섹션(481) 전압을 모니터링하는 전력 분배 유닛(444)은 전력 공급 전압이 대략 제1 소정의 임계 전압(V2)과 같은 전압으로 강하되는 것을 탐지하고(도 23, 블록 23810); 전력 공급 섹션(481) 전압이 대략 제1 소정의 임계 전압(V2)인 상태에서 전력 분배 유닛(444)은 자율 운송 차량(110)의 케이스 유닛 처리 구성요소/시스템(예를 들어, 암 연장 구동 섹션(667), 페이로드 정렬 구동 섹션(668), 암/케이스 유닛 정렬 위치 센서, 서스펜션 잠금부 등)에 대응하는 분기 전력 회로로부터 전력을 제거(예를 들어, 셧다운)하도록 스위치를 작동(도 23, 블록 23820)할 수 있고, 이에 따라 전력 공급 섹션(481)의 잔여 전력은 충전 스테이션/위치 또는 저장 구조물(130) 내의 다른 소정의 위치로 자율 운송 차량을 횡단시키도록 이용될 수 있다. 전력 공급 섹션(481) 충전량이 충전 스테이션까지 자율 운송 차량(110)의 횡단을 완료하기에 충분하지 않은 양태에서, 제어기(122)는 본원에 설명된 바와 같이 자율 운송 차량(110)을 안전한 위치(예를 들어, 저장 구조물(130)로부터 유지 또는 제거를 위해 운영자가 자율 차량에 접근할 수 있는 저장 및 회수 시스템의 소정의 위치)로 횡단시킬 수 있다. 저장 및 회수 시스템에 배치될 수 있는 충전 스테이션의 적절한 예시는 2016년 10월 18일에 발행된 "로버(rover) 충전 시스템"이라는 제목의 미국 특허 번호 9,469,208호; 2021년 5월 11일에 발행된 "저장 및 회수 시스템 로버 인터페이스"라는 제목의 미국 특허 번호 11,001,444호; 및 2014년 3월 13일에 출원된 "로버 충전 시스템"이라는 제목의 미국 특허 출원 번호 14/209,086호;에서 설명되며, 그 개시내용은 전체가 참조로서 본원에 통합된다.Depending on the operation of the autonomous transport vehicle 110, the voltage of the power supply section 481 may drop to a first predetermined threshold voltage V2, where V2 is less than V1 (and the power distribution unit 444 may detecting these voltage drops). The power distribution unit 444, which monitors the power supply section 481 voltage, detects that the power supply voltage drops to a voltage approximately equal to the first predetermined threshold voltage V2 (FIG. 23, block 23810); With the power supply section 481 voltage at approximately the first predetermined threshold voltage (V2), the power distribution unit 444 is configured to drive a case unit processing component/system (e.g., arm extension actuation) of the autonomous transport vehicle 110. Actuate a switch to remove power (e.g., shut down) from the branch power circuit corresponding to section 667, payload alignment drive section 668, arm/case unit alignment position sensor, suspension lock, etc. 23, block 23820), such that the remaining power in the power supply section 481 may be utilized to traverse the autonomous transport vehicle to a charging station/location or other desired location within the storage structure 130. In aspects where the power supply section 481 charge is insufficient to complete the traverse of the autonomous transport vehicle 110 to the charging station, the controller 122 may direct the autonomous transport vehicle 110 to a safe location, as described herein. For example, the autonomous vehicle may be traversed to a predetermined location in the storage and retrieval system to which an operator may access the autonomous vehicle for maintenance or removal from the storage structure 130. Suitable examples of charging stations that may be deployed in a storage and retrieval system include U.S. Patent No. 9,469,208, entitled “Rover Charging System,” issued October 18, 2016; U.S. Patent No. 11,001,444, entitled “Storage and Retrieval System Rover Interface,” issued May 11, 2021; and U.S. Patent Application No. 14/209,086, entitled “Rover Charging System,” filed March 13, 2014, the disclosures of which are incorporated herein by reference in their entirety.

전력 분배 유닛(444)은 후속(예를 들어, 다음)의 더 낮은 임계 전압까지 전력 공급 섹션 전압이 강하하는지에 대해 전력 공급 섹션(481)의 전압을 계속 모니터링한다(도 23, 블록 23830). 예를 들어, 전력 분배 유닛(444)에 의해 V3의 전력 공급 섹션(481)의 임계 전압(이때 V3은 V2보다 작음)이 탐지되는 경우, 전력 분배 유닛(444)은 차량 횡단에 영향을 주는 구동 섹션/시스템(예를 들어, 좌우측 구동/견인 휠(260A, 260B, 도 2 및 21), 캐스터 휠 조향 구동 섹션(600M, 도 2), 견인 제어 시스템(666, 도 21), 차량 네비게이션을 수행하는 센서 제어기 및 센서(예를 들어, 센서 시스템(270)이 제공되는 비전 시스템, 라인 추종 센서 등))에 대응하는 분기 전력 회로(482)(예를 들어 회로(483D, 483F))로부터 전력을 제거(예를 들어, 셧다운)하도록 스위치(449S)를 작동하고(도 23, 블록 23840), 이에 따라 전력 공급 섹션(481)의 잔여 전력은 자율 운송 차량(110)의 제어기(122)의 작동을 수행하도록 이용될 수 있다. 여기서, 자율 운송 차량(110)과 제어 서버(120) 및/또는 운영자 사이의 기본 통신은 또한 제어기(122)를 위한 전력을 보존하기 위해 셧다운될 수 있다. 전술한 바와 같이, 전력 분배 유닛(444)의 통신 모듈(445)은 (예를 들어, 랩탑, 스마트폰/태블릿 등을 통해) 제어기(122)와 제어 서버(120) 및/또는 운영자 사이의 2차 통신 채널을 유지하도록 작동한다.Power distribution unit 444 continues to monitor the voltage of power supply section 481 for whether the power supply section voltage drops to a subsequent (e.g., next) lower threshold voltage (Figure 23, block 23830). For example, if a threshold voltage of the power supply section 481 of V3 (where V3 is less than V2) is detected by the power distribution unit 444, the power distribution unit 444 may Sections/systems (e.g., left and right drive/traction wheels 260A, 260B, Figures 2 and 21), caster wheel steering drive section 600M, Figure 2, traction control system 666, Figure 21, perform vehicle navigation Receive power from branch power circuits 482 (e.g., circuits 483D, 483F) corresponding to sensor controllers and sensors (e.g., vision systems, line tracking sensors, etc., provided with sensor system 270). Actuate switch 449S (FIG. 23, block 23840) to remove (e.g., shut down), thereby allowing residual power in power supply section 481 to operate controller 122 of autonomous transport vehicle 110. It can be used to perform. Here, basic communications between autonomous transport vehicle 110 and control server 120 and/or operator may also be shut down to conserve power for controller 122. As previously discussed, the communication module 445 of the power distribution unit 444 provides communication between the controller 122 and the control server 120 and/or an operator (e.g., via a laptop, smartphone/tablet, etc.). It operates to maintain primary communication channels.

위에서와 같이, 전력 분배 유닛(444)은 다음 후속의 낮은 임계 전압에 대해 전력 공급 섹션(481)의 전압을 계속해서 모니터링한다(도 23, 블록 23850). 예를 들어, 전력 공급 섹션(481)의 임계 전압(V4, 이때 V4는 V3보다 작음)이 전력 분배 유닛(444)에 의해 탐지되는 경우, 전력 분배 유닛(444)은 제어기(122)의 셧다운을 개시하도록 구성되고(도 23, 블록 23860), 이에 따라 제어기(122)(및 제어기의 소프트웨어)는 저전압/저전류 고장 또는 전력 손실에 의해 불리한 영향을 받지 않을 수 있다. 여기서, 제어기(122)는, 전력 공급 섹션(481)로부터 제어기(122)로 향하는 이용가능한 충전 레벨이 감소하여 제어기(122)의 수요 레벨 미만으로 임박했음이 전력 분배 유닛(444)으로부터 표시되면, 제어기(122)가 작동 정지(suspension) 및 최대 절전(hibernation)으로 진입하도록 구성된다. 제어기(122)가 정지 및 최대 절전(예를 들어, 셧다운) 상태에 있으면, 전력 분배 유닛(444)도 자체 셧다운되어 실질적으로 자율 운송 차량(110)의 모든 작동이 정지될 수 있다.As above, power distribution unit 444 continues to monitor the voltage of power supply section 481 for the next subsequent lower threshold voltage (Figure 23, block 23850). For example, if a threshold voltage (V4, where V4 is less than V3) of power supply section 481 is detected by power distribution unit 444, power distribution unit 444 may initiate shutdown of controller 122. configured to initiate (Figure 23, block 23860), so that controller 122 (and its software) may not be adversely affected by low voltage/low current faults or power losses. Here, the controller 122 is configured to, upon receiving an indication from the power distribution unit 444 that the level of available charge from the power supply section 481 to the controller 122 is decreasing and approaching below the demand level of the controller 122, Controller 122 is configured to enter suspension and hibernation. When controller 122 is in a stop and hibernation (e.g., shutdown) state, power distribution unit 444 may also shut itself down, effectively stopping all operations of autonomous transport vehicle 110.

임계 전압(V4)은 "최저 임계 전압"으로서 임계 전압(V4)의 탐지가 제어기(122)의 셧다운을 개시하도록 설명되어 있음이 이해될 것이다. 그러나, 전력 분배 유닛(444)에 의해 수행되는 상기 셧다운 순서(sequence)는 단지 예시적이며, 다른 양태에서 전력 공급 섹션(281)의 전력을 보존하기 위해 임의의 적절한 수의 대응하는 차량 구성요소/시스템이 셧다운되도록 하는 임의의 적절한 수의 임계 전압이 있을 수 있다는 것이 이해될 것이다. 예를 들어, 도 23의 블록 23830 및 23840은 다음의 최저 임계 전압에 도달할 때까지 루프(loop)로 반복될 수 있다. 여기서, 임계 전압의 내림차순 값에서 각 임계 전압은 전력 분배 유닛(444)에 알려지고(예를 들어 메모리(446)에 저장되고 모니터링 장치(447)에 의해 접근가능함), 이에 따라 다음의 최저 임계 전압에 도달할 때 루프가 종료된다.It will be understood that threshold voltage V4 is described as the “lowest threshold voltage” such that detection of threshold voltage V4 initiates shutdown of controller 122. However, the above shutdown sequence performed by the power distribution unit 444 is exemplary only, and in other embodiments any suitable number of corresponding vehicle components/components may be used to conserve power in the power supply section 281 It will be appreciated that there may be any suitable number of threshold voltages that cause the system to shut down. For example, blocks 23830 and 23840 of FIG. 23 may be repeated in a loop until the next lowest threshold voltage is reached. Here, in descending order of values of the threshold voltage, each threshold voltage is known to the power distribution unit 444 (e.g. stored in memory 446 and accessible by the monitoring device 447), and thus the next lowest threshold voltage. The loop ends when .

계속해서 도 2, 19, 20, 25a 내지 25c, 및 26을 참조하여, 다른 예시적 셧다운 작동이 설명될 것이다. 여기서 자율 운송 차량(110)은 약 46V의 완전히 충전된 전압을 갖는 전력 공급 섹션(481)를 구비한다(다른 양태에서 완전히 충전된 전압은 46V보다 크거나 작을 수 있다). 전력 분배 유닛(444)은 도 23과 관련하여 전술한 것과 유사한 방식으로 자율 운송 차량(110)이 작동하는 동안 전력 공급 섹션(481)에 의한 전압 출력을 모니터링한다. 여기서, 약 22V의 임계 전압으로 전력 공급 섹션(481)가 출력하는 경우(다른 양태에서 출력 전압은 약 22V보다 크거나 작을 수 있음), 전력 분배 유닛(444)은 자율 운송 차량의 견인 모터(261M) 및 다른 특징들(예를 들어, 자율 운송 차량의 네비게이션/횡단과 관련된 센서들)을 비활성화하도록 스위치(449S)를 작동하여 자율 운송 차량의 구동을 비활성화한다. With continued reference to FIGS. 2, 19, 20, 25A-25C, and 26, another exemplary shutdown operation will be described. Here the autonomous transport vehicle 110 has a power supply section 481 with a fully charged voltage of approximately 46V (in other embodiments the fully charged voltage may be greater or less than 46V). Power distribution unit 444 monitors the voltage output by power supply section 481 during operation of autonomous transport vehicle 110 in a manner similar to that described above with respect to FIG. 23 . Here, when the power supply section 481 outputs with a threshold voltage of about 22V (in other embodiments the output voltage may be greater or less than about 22V), the power distribution unit 444 is configured to drive the traction motor 261M of the autonomous transport vehicle. ) and other features (e.g., sensors related to navigation/traversing of the autonomous transportation vehicle) by operating switch 449S to disable driving of the autonomous transportation vehicle.

전력 분배 유닛(444)은 약 20V의 다음의 최저 임계 전압에 대해 전력 공급 섹션(481)의 출력 전압을 계속 모니터링한다(다른 양태에서 출력 전압은 20V보다 크거나 작을 수 있다). 약 20V의 임계 전압이 탐지되면, 전력 분배 유닛(444)은 제어기(122)를 통해 자율 운송 차량(110)에 의해 운반되는 임의의 케이스 유닛(CU)을 페이로드 베드(210B) 내의 알려진 안전한 상태(예를 들어, 소정의 정렬 위치에서 페이로드 베드(210B) 내로 후진된 상태)로 위치시킨다. 다른 양태에서, 자율 운송 차량(110)이 자율 운송 차량(110)에 의해 운반되는 케이스 유닛(CU)에 대해 소정의 목적지/배치 위치 앞에 위치하는 경우, 제어기(122)는 케이스 유닛(CU)을 페이로드 베드(210B) 내로 후진시키는 대신에 케이스 유닛(CU)을 목적지 위치에 배치하도록 이송 암(210A)을 연장시킬 수 있다(케이스 유닛(CU)의 배치 후 이송 암(210A)은 안전/홈(home) 위치로 페이로드 베드(21B)내에서 후진됨에 유의).Power distribution unit 444 continuously monitors the output voltage of power supply section 481 for the next lowest threshold voltage of approximately 20V (in other embodiments the output voltage may be greater or less than 20V). When a threshold voltage of approximately 20V is detected, power distribution unit 444, via controller 122, places any case units (CUs) carried by autonomous transport vehicle 110 into a known safe state within payload bed 210B. (For example, it is positioned backward into the payload bed 210B at a predetermined alignment position). In another aspect, when the autonomous transport vehicle 110 is positioned in front of a predetermined destination/placement location for a case unit (CU) being carried by the autonomous transport vehicle 110, the controller 122 determines the case unit (CU) Instead of retracting into the payload bed 210B, the transfer arm 210A can be extended to place the case unit (CU) at the destination position (after placement of the case unit (CU), the transfer arm 210A is placed in a safe/home position. Note that it is retracted within the payload bed (21B) to the (home) position).

전력 분배 유닛(444)은, 전력 공급 섹션(481)의 약 18V의 다음 최저 임계 전압을 탐지하면(다른 양태에서 출력 전압은 약 18V보다 크거나 작을 수 있음), 비전 시스템(400) 및 다른 24V 주변 전력 공급 섹션(예를 들어, 케이스 탐지 센서, 차량 위치 파악 센서, 핫 스왑 회로(hot swap circuitry) 등)를 포함하나 이에 제한되지 않음)를 셧다운시키기 위해 스위치(499S)를 작동하도록 구성된다. 약 14V의 다음 최저 전력 공급 섹션(481)의 출력 임계 전압이 탐지되면(다른 양태에서 출력 전압은 약 14V보다 크거나 작을 수 있음), 전원 분배 유닛(444)은 자율 운송 차량(110)의 온보드(onboard) 및 오프보드(off-board) 통신(예를 들어, 무선 통신 모듈(445) 및 온보드 이더넷 통신)을 비활성화하기 위해 스위치(499S)를 작동하도록 구성된다. 전력 분배 유닛(444)은 약 12V의 다음 최저 임계 전압(다른 양태에서는 출력 전압이 약 12V보다 크거나 작을 수 있음)에 대해 전력 공급 섹션(481) 출력 전압을 계속 감시하고, 약 12V 출력 전압이 탐지되면 전력 분배 유닛(444)은 자율 운송 차량(110)의 조명(예를 들어, LED)을 끄고 제어기(122)에 명령 신호를 제공하여 전술한 바와 같이 제어기(122)가 최대 절전/수면(sleep) 모드에 놓이도록 할 수 있다. 전력 분배 유닛(444)에 의해 약 10V의 최저 전력 공급 섹션(481) 출력 임계 전압(다른 양태에서 출력 전압은 약 10V보다 크거나 작을 수 있음)이 탐지되면, 전력 분배 유닛(444)은 자율 운송 차량(444)의 완전한 셧다운을 수행하여 제어기(122), 비전 시스템 제어기(122VC) 및 자율 운송 차량의 다른 적절한 프로그래밍가능한 장치(예를 들어, FPGA, CPLD, SOC, CPU 등)가 꺼지거나/셧다운되도록 할 수 있다.Power distribution unit 444, upon detecting the next lowest threshold voltage of about 18V of power supply section 481 (in other embodiments the output voltage may be greater or less than about 18V), powers the vision system 400 and the other 24V. It is configured to actuate switch 499S to shut down peripheral power supply sections (including, but not limited to, case locator sensors, vehicle location sensors, hot swap circuitry, etc.). Once the output threshold voltage of the next lowest power supply section 481 of approximately 14 V is detected (in other embodiments the output voltage may be greater or less than approximately 14 V), the power distribution unit 444 provides It is configured to operate switch 499S to disable onboard and off-board communications (e.g., wireless communications module 445 and onboard Ethernet communications). The power distribution unit 444 continuously monitors the power supply section 481 output voltage for the next lowest threshold voltage of approximately 12V (in other embodiments the output voltage may be greater or less than approximately 12V), when the output voltage of approximately 12V is reached. When detected, power distribution unit 444 turns off the lights (e.g., LEDs) of autonomous transport vehicle 110 and provides a command signal to controller 122 to cause controller 122 to hibernate/sleep ( It can be placed in sleep mode. Once the lowest power supply section 481 output threshold voltage of about 10 V is detected by power distribution unit 444 (in other embodiments the output voltage may be greater or less than about 10 V), power distribution unit 444 may Performing a complete shutdown of vehicle 444 such that controller 122, vision system controller 122VC, and other appropriate programmable devices (e.g., FPGA, CPLD, SOC, CPU, etc.) of the autonomous transportation vehicle are turned off/shutdown. It can be done as much as possible.

모니터링 장치(447)는 실질적으로 연속적으로(예를 들어, 자율 운송 차량(110)이 작동 중인 상태에서) 전력 공급 섹션(481)의 작동 및 상태를 모니터링하도록 구성된다. 예를 들어, 모니터링 장치(447)는 전력 공급 섹션(481)의 전압을 실질적으로 연속적으로(또는 임의의 적절한 소정의 시간 간격으로) 모니터링하고(예를 들어, 임의의 적절한 전압 센서를 이용함), 제어기(122)가 자율 운송 차량(110)의 안전 상태를 수행할 수 있도록 제어기(122)에 저전압 조건(예를 들어, 전압이 소정의 전압 레벨 아래로 떨어짐)을 통신하도록 구성된다. 예를 들어, 전력 공급 섹션(481)로부터 구동 섹션(261D)의 분기 전력 회로로 향하는 전력 공급 섹션(481)의 이용가능한 충전 레벨의 감소가 임박했음이 전력 분배 유닛(444)으로부터 표시되면(도 21 참조), 제어기(122)는, 자율 운송 차량(110)이 소정의 보조 경로(AUXP) 및 보조 궤도(AUXT)(안전하고, 다른 차량(110)과 충돌하지 않고, 다른 차량 경로를 방해하거나 차단하지 않고, 목적지 위치를 통과하지 않는 것으로 알려짐, 도 1b 참조)를 따라 저장 및 회수 설비(130)(예를 들어, 구조물)의 소정의 봇 보조 정지 위치(157)로 이동(navigate)하기 위해 구동 섹션(261D)을 명령하도록 구성된다. 소정의 보조 정지 위치(157)는 사람이 접근가능한 구역 또는 픽킹 통로(130A) 또는 이송 데크(130B)의 안전하고 혼잡하지 않은 구역이다(예를 들어 2018년 10월 2일에 발행된 "통합 보안 인력 접근 구역 및 원격 로버 셧다운을 구비한 자동 저장 및 회수 시스템"이라는 제목의 미국 특허 번호 10,088,840호에 설명되어 있으며, 이러한 개시내용은 전체가 참조로서 본원에 통합됨). Monitoring device 447 is configured to monitor the operation and status of power supply section 481 substantially continuously (e.g., while autonomous transport vehicle 110 is in operation). For example, the monitoring device 447 monitors the voltage of the power supply section 481 substantially continuously (or at any suitable predetermined time interval) (e.g., using any suitable voltage sensor), is configured to communicate a low voltage condition (e.g., voltage drops below a predetermined voltage level) to controller 122 so that controller 122 can perform a safe state of autonomous transport vehicle 110. For example, if there is an indication from the power distribution unit 444 that a decrease in the available charge level of the power supply section 481 from the power supply section 481 to the branch power circuit of the drive section 261D is imminent (Figure 21), the controller 122 allows the autonomous transport vehicle 110 to follow a predetermined auxiliary path (AUXP) and auxiliary track (AUXT) (safely, without colliding with other vehicles 110, or interfering with other vehicle paths). To navigate to a predetermined bot secondary resting location 157 of a storage and retrieval facility 130 (e.g., a structure) (known as not to block and not to pass through the destination location, see FIG. 1B). It is configured to command the drive section 261D. The predetermined secondary stop location 157 is a human-accessible area or a safe, uncrowded area of the picking aisle 130A or transfer deck 130B (e.g., “Integrated Security,” published October 2, 2018). No. 10,088,840, entitled “Automatic Storage and Retrieval System with Personnel Access Areas and Remote Rover Shutdown,” the disclosure of which is incorporated herein by reference in its entirety.

전력 공급 섹션(481)로부터 페이로드 처리 섹션(210)의 분기 회로로 향하는 전력 공급 섹션(481)의 이용가능한 충전 레벨이 감소하여 임박했음이 전력 분배 유닛(444)으로부터 표시되면(도 21 참조), 제어기(122)는, 페이로드 처리 액츄에이터 또는 이송 암(210A)(예를 들어, 암 연장 구동 섹션(667) 및 암 리프트 구동 섹션(669) 중 하나 이상을 이용함) 및 그 위의 임의의 페이로드(예를 들어, 페이로드 정렬 구동 섹션(668)를 이용함)를 페이로드 베드(210B) 내의 소정의 안전한 페이로드 위치로 이동하기 위해 페이로드 처리 섹션(210)을 명령하도록 구성된다. 안전한 페이로드 위치는 페이로드가 페이로드 베드 외부로 돌출되지 않고 페이로드 베드(210B) 내에 단단히 고정되도록 할 수 있다.Upon indication from the power distribution unit 444 that the available charge level of the power supply section 481 from the power supply section 481 to the branch circuit of the payload processing section 210 is decreasing (see Figure 21). , the controller 122 controls the payload handling actuator or transfer arm 210A (e.g., using one or more of the arm extension drive section 667 and the arm lift drive section 669) and any payload thereon. is configured to command the payload processing section 210 to move the load (e.g., using the payload alignment drive section 668) to a predetermined safe payload location within the payload bed 210B. A safe payload position may ensure that the payload is securely secured within the payload bed 210B without protruding outside the payload bed.

도 1a, 1b, 2, 19, 20 및 21을 참조하면, 본원에 설명된 바와 같이 제어기(122)는 또한 자율 운송 차량(110)의 상태(health status)를 능동적으로 모니터링하고 차량 시스템의 온보드 진단을 수행하도록 구성될 수 있다. 예시로서, 차량 시스템 상태(health)는 차량 시스템의 사용된 전류 및 퓨즈 상태(및 분기 장치(483)가 그 일부를 구성하는 분기 전력 회로(482))를 모니터링하는 것과 같이 임의의 적절한 방식으로 모니터링된다. 여기서, 제어기(122)는 차량 상태 모니터(447V), 구동 섹션 상태 모니터(447D), 페이로드 처리 섹션 상태 모니터(447H) 및 주변 전자장치 섹션 상태 모니터(447P) 중 적어도 하나를 포함한다. 차량 상태 모니터(447V), 구동 섹션 상태 모니터(447D), 페이로드 처리 섹션 상태 모니터(447H) 및 주변 전자장치 섹션 상태 모니터(447P)는 모니터링 장치(447)의 섹션일 수 있다. 제어기는 또한 메모리(446)(또는 메모리(122M) 또는 제어기(122)에 의해 접근 가능한 임의의 다른 적절한 메모리)의 섹션일 수 있는 상태 레지스터 섹션(447M)을 포함한다. 1A, 1B, 2, 19, 20, and 21, controller 122 may also actively monitor the health status of autonomous transport vehicle 110 and perform on-board diagnostics of vehicle systems, as described herein. It can be configured to perform. By way of example, vehicle system health may be monitored in any suitable manner, such as by monitoring the current used and fuse status of the vehicle system (and branch power circuit 482 of which branch device 483 is a part). do. Here, the controller 122 includes at least one of a vehicle status monitor 447V, a drive section status monitor 447D, a payload processing section status monitor 447H, and a peripheral electronics section status monitor 447P. Vehicle health monitor 447V, drive section health monitor 447D, payload processing section health monitor 447H, and peripheral electronics section health monitor 447P may be sections of monitoring device 447. The controller also includes a status register section 447M, which may be a section of memory 446 (or memory 122M or any other suitable memory accessible by controller 122).

차량 상태 모니터(447V)는 프레임(200) 및 휠 서스펜션의 동적 응답을, 예를 들어 프레임에 결합되는 임의의 적절한 차량 상태 센서(예를 들어, 가속도계(accelerometer))를 이용하여 모니터링할 수 있다(예를 들어, 2021년 6월 22일에 출원된 "시너지 차량 동적 응답을 구비하는 자율 운송 차량"이라는 제목의 미국 특허 가출원 번호 63/213,589호에 설명된 바와 같으며, 이러한 개시내용은 전체가 참조로서 본원에 통합됨). 동적 응답이 소정의 범위를 벗어나는 경우, 차량 상태 모니터(447V)는 (제어기(122)를 통해) 저장 및 회수 시스템(100)의 운영자에게 유지보수 요청(예를 들어, 사용자 인터페이스(UI)에 표시됨)을 수행할 수 있다. 다른 양태에서, 차량의 임의의 적절한 특성은 차량 상태 모니터(447V)에 의해 모니터링될 수 있다.Vehicle condition monitor 447V may monitor the dynamic response of frame 200 and wheel suspension using, for example, any suitable vehicle condition sensor (e.g., an accelerometer) coupled to the frame ( For example, as described in U.S. Provisional Patent Application No. 63/213,589, entitled “Autonomous Transportation Vehicle with Synergistic Vehicle Dynamic Response,” filed June 22, 2021, the disclosure of which is incorporated by reference in its entirety. (incorporated herein). If the dynamic response is outside a predetermined range, vehicle health monitor 447V may request maintenance (e.g., displayed in a user interface (UI)) to the operator of storage and retrieval system 100 (via controller 122). ) can be performed. In another aspect, any suitable characteristic of the vehicle may be monitored by vehicle health monitor 447V.

구동 섹션 상태 모니터(447D)는 구동 섹션(261D)의 모터(261M)에 의해 구현되는 파워, 구동 섹션(예를 들어, 휠 엔코더, 등) 상태, 및 트랙션 제어 시스템(666)의 상태를 모니터링 한다. 모터(261M)의 전원 사용량, 구동 섹션 센서의 응답성 및/또는 트랙션 제어 시스템의 응답이 미리 결정된 작동 특성을 벗어나는 경우, 구동 섹션 상태 모니터(447D)는 저장 및 검색 시스템(100)의 운영자에게 (컨트롤러(122)를 통해) 유지 보수 요청(예를 들어, 사용자 인터페이스 UI에 표시)을 가져올 수 있다.Drive section status monitor 447D monitors the power implemented by motors 261M of drive section 261D, drive section (e.g., wheel encoder, etc.) status, and the status of traction control system 666. . If the power usage of motor 261M, the responsiveness of drive section sensors, and/or the response of the traction control system deviate from predetermined operating characteristics, drive section status monitor 447D may notify the operator of storage and retrieval system 100 ( A maintenance request (e.g., displayed in a user interface UI) may be retrieved (via controller 122).

페이로드(payload) 핸들링 섹션 상태 모니터(447H)는 케이스 핸들링 어셈블리(210)의 모터(예를 들어, 확장 리프트, 정렬 등)에 의해 끌어오는 전원 및 케이스 핸들링 어셈블리 센서의 상태를 모니터링할 수 있다. 케이스 핸들링 어셈블리 모터 및/또는 케이스 핸들링 어셈블리 센서 응답의 전원 사용량이 미리 결정된 작동 특성을 벗어나는 경우, 페이로드 처리 섹션 상태 모니터(447H)는 저장 및 검색 시스템(100)의 운영자에게 (컨트롤러(122)를 통해) 유지 보수 요청(예를 들어, 사용자 인터페이스 UI에 표시)을 가져올 수 있다.Payload handling section status monitor 447H may monitor the status of case handling assembly sensors and power sources drawn by motors (e.g., extension lift, alignment, etc.) of case handling assembly 210. If the power usage of the case handling assembly motors and/or case handling assembly sensor responses are outside of predetermined operating characteristics, the payload processing section health monitor 447H may notify the operator of the storage and retrieval system 100 (controller 122) You can retrieve a maintenance request (e.g. displayed in a user interface UI) via

주변 전자 섹션 상태 모니터(447P)는 센서 시스템(270) 및 적어도 하나의 주변 모터(777)를 모니터링할 수 있다. 적어도 하나의 주변 모터(777) 및/또는 센서(센서 시스템(270)의) 응답의 전원 사용량이 미리 결정된 작동 특성을 벗어나는 경우, 주변 전자 장치 섹션 상태 모니터(447P)는 저장 및 검색 시스템(100)의 운영자에게 (컨트롤러(122)를 통해) 유지 보수 요청(예를 들어, 사용자 인터페이스 UI에 표시)을 가져올 수 있다.Peripheral electronic section health monitor 447P may monitor sensor system 270 and at least one peripheral motor 777. If the power usage of at least one peripheral motor 777 and/or sensor (of sensor system 270) response deviates from predetermined operating characteristics, peripheral electronics section health monitor 447P may determine storage and retrieval system 100. A maintenance request (e.g., displayed in a user interface UI) may be brought to the operator (via controller 122).

상태 모니터링의 비제한적인 예로서, 전원 분배 장치(444)은 분기 전원 회로들(482)의 전류(전류계들과 직접적으로 또는 각 분기 전원 회로들(482)의 전압 및/또는 저항을 모니터링함으로써 간접적으로 등) 및 분기 전원 회로들(482)의 각 퓨즈들(484)의 상태를 모니터링하도록 구성된다. 시간 피드백(예를 들어, 전류 및 퓨즈 상태에 관한 입력 데이터가 모니터링 장치(447)에 의해 밀리초 이내에 처리되어, 처리된 데이터가 피드백으로서 실질적으로 즉시 이용 가능하도록)은 자율 운송 차량(110) 운영자 및/또는 서비스/유지보수 요청에 영향을 주기 위해 컨트롤러(122) 및 제어 서버(120) 중 하나 이상에 제공된다. As a non-limiting example of condition monitoring, power distribution device 444 may monitor the current of branch power circuits 482 (either directly with ammeters or indirectly by monitoring the voltage and/or resistance of each branch power circuit 482). etc.) and is configured to monitor the status of each fuse 484 of the branch power circuits 482. Temporal feedback (e.g., input data regarding current and fuse status is processed within milliseconds by the monitoring device 447 such that the processed data is substantially immediately available as feedback) can be provided to the autonomous transport vehicle 110 operator. and/or to one or more of the controller 122 and control server 120 to effect service/maintenance requests.

적어도 분기 전원 회로(482) 전류 및 퓨즈(484) 상태를 모니터링하는 모니터링 장치(447)에 의해 수행되는 실시간 피드백은 자율 운송 차량 시스템의 온보드 진단 및 상태 모니터링을 제공한다. 전원 분배 장치(444)은 예를 들어 각각의 분기 전원 회로(482)의 전류에 기초하여 퓨즈(484) 상태(예를 들어, 작동 불가능 또는 작동 가능)를 검출하도록 구성된다. 각각의 분기 전원 회로(482)에서 감지된 전류가 없는 경우 모니터링 장치(447)는 퓨즈(484)가 작동 불가능하고 서비스가 필요하다고 결정하고, 그렇지 않은 경우 전류가 감지된 경우 퓨즈(484)는 작동 가능하다고 결정한다(즉, 오류 상태 (예를 들어 그림 5 참조)가 감지된다.). 모니터링 장치(447)는 퓨즈 상태(예를 들어, 결함 상태)를 통신 모듈(445)을 통해 관제 서버(120) 및/또는 운영자 등에 피드백하여 자율 운송 차량(110)의 서비스 일정을 계획할 수 있도록 한다. 실현될 수 있는 바와 같이, 전원 분배 장치(444)은 퓨즈가 동작할 수 없는 것으로 판정된 경우에 모니터링 장치(447)에 대해 서로 별개로 각각의 분기 전원 회로(482)를 모니터링하도록 구성된다. 또한 퓨즈(484) 교체를 위한 자율 운송 차량(110)의 정지시간(Downtime) 및 문제 해결을 감소시키기 위해 퓨즈가 일부인 분기 전원 회로(482)를 식별한다.Real-time feedback performed by a monitoring device 447 that monitors at least branch power circuit 482 current and fuse 484 status provides on-board diagnostics and health monitoring of the autonomous transport vehicle system. Power distribution device 444 is configured to detect fuse 484 status (e.g., inoperable or operable) based, for example, on the current of each branch power circuit 482. If no current is detected in each branch power circuit 482, the monitoring device 447 determines that fuse 484 is inoperable and requires service; otherwise, if current is detected, fuse 484 is tripped. Determine that it is possible (i.e., an error condition (see Figure 5 for example) is detected). The monitoring device 447 feeds back the fuse status (e.g., fault status) to the control server 120 and/or the operator, etc. through the communication module 445 to plan the service schedule of the autonomous transportation vehicle 110. do. As may be realized, the power distribution device 444 is configured to monitor each branch power circuit 482 separately from each other with respect to the monitoring device 447 in case the fuse is determined to be inoperable. It also identifies the branch power circuit 482 of which the fuse is a part to reduce downtime and troubleshooting of the autonomous transport vehicle 110 for fuse 484 replacement.

모니터링 장치(447)에 의해 감지된 바와 같이 분기 전원 회로 내의 증가된 전류는 임박한 구동 모터 결함, 임박한 베어링 결함, 또는 임박한 전기/기계적 결함을 나타낼 수 있다. 전술한 바와 같이, 각각의 분기 전원 회로는 증가된 전류가 검출되는 곳에서 대응하는 분기 전원 회로(482)도 식별되도록 개별적으로 모니터링된다. 모니터링 장치(447)는 증가된 전류 값(예를 들어, 고장 상태)을 제공하고, 통신 모듈(445)을 통해 예를 들어, 제어 서버(120) 및/또는 운영자에게 과전류를 갖는 분기 전원 회로(482)를 식별하여, 자율 운송 차량(110)의 서비스가 스케줄링될 수 있도록 한다.Increased current in the branch power circuit as sensed by monitoring device 447 may indicate an impending drive motor failure, an impending bearing failure, or an impending electrical/mechanical failure. As described above, each branch power circuit is individually monitored to also identify the corresponding branch power circuit 482 where increased current is detected. The monitoring device 447 provides an increased current value (e.g. a fault condition) and, via the communication module 445, for example a branch power circuit with an overcurrent to the control server 120 and/or the operator ( 482) is identified so that service of the autonomous transportation vehicle 110 can be scheduled.

[0174] 전원 분배 장치(444)은 주변 장치(예를 들어, 이송 암(210A), 페이로드 정렬 푸셔/풀러, 휠 인코더, 네비게이션 센서 시스템(예를 들어, 본 명세서에 설명됨), 페이로드 정렬 푸셔/풀러(fusher/puller), 페이로드 위치 측정 센서 시스템(예를 들어, 본 명세서에 설명됨)의 전압 레귤레이터(490), 분기 장치 중앙 처리 장치(CPU)(491) 및/또는 위치 센서(492)를 모니터링하도록 구성된다(예를 들어, 본 명세서에 설명됨). 페이로드 정렬 푸셔/풀러의 적절한 예는 2021년 8월 24일에 출원된 변호사 도크 번호 1127P015753-US(-#3)를 갖는 미국 임시 특허 출원 번호 63/236,591에 기재되어 있고, "자율 이송 차량"이라는 제목의 미국 특허 출원 번호 2012/0189416에 기재되어 있고, 2012년 7월 26일에 발행된 미국 특허 번호 9187245에 "저장 및 검색 시스템"이라는 제목의 미국 특허 번호 9187244에 "Bot Payload Alignment and Sensing"라는 제목의 미국 특허 번호 94991630에 기재되어 있고, 2011년 11월 22일에 "자율 이송 및 이송 차량을 이용한 물질 처리 시스템"이라는 제목의 미국 특허 번호 7991505에 기재되어 있고, 2017년 2월 7일에 발행된 미국 특허 번호 9561905에 "자율 이송 차량 충전 시스템"이라는 제목의 미국 특허 번호 9082112에 기재되어 있고, 2017년 12월 26일에 "저장 및 검색 시스템 이송 차량"이라는 제목의 미국 특허 번호 980079에 기재되어 있고, 2015년 11월 17일에 "Bot Payload Alignment and Sensing"이라는 제목의 미국 특허 번호 9187244에 기재되어 있고, 2016년 11월 22일에 "자율 이송 암 구동 시스템"이라는 제목의 미국 특허 번호 9,499,338에 기재된 미국 특허 번호 8965619에 기재되어 있으며, 2015년 2월 24일에 "Bot Having Speed Stability"라는 제목의 미국 특허 번호 8965619에 기재되어 있다; 2015년 4월 14일에 발행된 미국 특허번호 9008884는 "Bot Position Sensing", 2013년 4월 23일에 발행된 미국 특허번호 8425173은 "Autonomous Transports for Storage and Retrieve Systems", 2014년 4월 15일에 발행된 미국 특허번호 8696010은 "Suspension System for Autonomous Transports", 이들의 공개 내용은 이전에 본 명세서에 참고로 포함되었다. 예로서, 모니터링 장치(447)는 위치 센서(492)와 컨트롤러(122) 사이의 통신, 분기 장치 컨트롤러(들)(491)과 컨트롤러(122) 사이의 통신, 그리고 전압 조정기(490)로부터의 전압을 모니터링하도록 구성된다. 센서(492) 및/또는 분기 장치 컨트롤러(491)로부터 통신이 예상되는 경우, 모니터링 장치(447)는 메모리(446)에 결함(예를 들어, 타임 스탬프)을 등록하고 그러한 결함 상태를 제어 서버(120) 및/또는 유지 보수 요청을 수행하는 운영자에게 전달(예를 들어, 통신 모듈(445)을 통해) 할 수 있다. 결함이 획득되는 분기 장치(483)/분기 전원 회로(482)가 더 낮은 동작 중요도인 경우, 모니터링 장치(447)은 분기 장치(483)/분기 전원 회로(482)로부터 결함들을 계속 모니터링 및 등록하고 결함들의 빈도 또는 임의의 다른 적절한 기준에 따라 서비스 요청 메시지를 제어 서버(120) 또는 운영자에게 송신할 수 있다. [0174] Power distribution device 444 may be configured to support peripheral devices (e.g., transfer arm 210A, payload alignment pusher/puller, wheel encoder, navigation sensor system (e.g., described herein), payload Alignment pusher/puller, voltage regulator 490, branch central processing unit (CPU) 491, and/or position sensor of a payload positioning sensor system (e.g., described herein). (492) (e.g., as described herein). A suitable example of a payload alignment pusher/puller is Attorney Docket No. 1127P015753-US(-#3), filed August 24, 2021. is described in U.S. Provisional Patent Application No. 63/236,591 with U.S. Patent No. 9187244, entitled “Storage and Retrieval System,” U.S. Patent No. 94991630, titled “Bot Payload Alignment and Sensing,” and filed on November 22, 2011, “Material Handling System Using Autonomous Transport and Transfer Vehicle.” ", U.S. Patent No. 7991505, entitled "Autonomous Transport Vehicle Charging System," U.S. Patent No. 9561905, issued February 7, 2017, U.S. Patent No. 9082112, entitled "Autonomous Transport Vehicle Charging System," issued December 2017 U.S. Patent No. 980079, entitled “Storage and Retrieval System Transport Vehicle,” dated 26 November 2015, and U.S. Patent 9187244, titled “Bot Payload Alignment and Sensing,” dated November 17, 2016. U.S. Patent No. 8965619, entitled “Autonomous Transport Arm Drive System,” followed by U.S. Patent No. 9,499,338, dated November 22, 2015; Described in 8965619; U.S. Patent No. 9008884, issued on April 14, 2015, for “Bot Position Sensing,” and U.S. Patent No. 8425173, issued on April 23, 2013, for “Autonomous Transports for Storage and Retrieve Systems,” on April 15, 2014. U.S. Patent No. 8696010, issued to “Suspension System for Autonomous Transports,” the disclosures of which were previously incorporated herein by reference. By way of example, the monitoring device 447 may be configured to monitor the communication between the position sensor 492 and the controller 122, the communication between the branch device controller(s) 491 and the controller 122, and the voltage from the voltage regulator 490. It is configured to monitor. When communication is expected from sensor 492 and/or branch device controller 491, monitoring device 447 registers a fault (e.g., time stamp) in memory 446 and reports such fault status to the control server ( 120) and/or may be communicated (e.g., via communication module 445) to the operator performing the maintenance request. If the branch device 483/branch power circuit 482 from which the fault is acquired is of lower operational significance, the monitoring device 447 continues to monitor and register faults from the branch device 483/branch power circuit 482 and A service request message may be sent to the control server 120 or operator based on the frequency of defects or any other suitable criterion.

다른 예로서, 모니터링 장치(447)는 임의의 적절한 방식(전압 조정기 또는 전압계로부터의 피드백과 같은)으로 하나 이상의 전원 분기 회로(482)에 대한 전압 조정기(490)의 전압을 모니터링하도록 구성된다. 모니터링 장치(447)에 의해 감지된 과전압 또는 저전압이 있는 경우, 모니터링 장치(447)는 메모리(446)에 결함(예를 들어, 타임 스탬프)을 등록하고 그러한 결함 상태를 제어 서버(120) 및/또는 유지 보수 요청을 수행하는 운영자에게 전달(예를 들어, 통신 모듈(445)을 통해) 할 수 있다. 결함이 획득되는 분기 장치(483)/분기 전원 회로(482)가 더 낮은 동작 중요도인 경우, 모니터링 장치(447)은 전압 레귤레이터(490)로부터 결함들을 계속 모니터링 및 등록하고, 결함들의 빈도 또는 임의의 다른 적합한 기준(예를 들어, 과전압 또는 저전압의 크기)에 따라 서비스 요청 메시지를 제어 서버(120) 또는 운영자에게 송신할 수 있다. As another example, monitoring device 447 is configured to monitor the voltage of voltage regulator 490 on one or more power branch circuits 482 in any suitable manner (such as feedback from a voltage regulator or voltmeter). If there is an overvoltage or undervoltage detected by the monitoring device 447, the monitoring device 447 registers a fault (e.g., a time stamp) in the memory 446 and reports such fault status to the control server 120 and/or Alternatively, the maintenance request may be communicated (e.g., via communication module 445) to an operator performing the maintenance request. If the branch device 483/branch power circuit 482 in which the fault is acquired is of lower operational importance, the monitoring device 447 continues to monitor and register faults from the voltage regulator 490 and determines the frequency or random number of faults. A service request message may be sent to the control server 120 or the operator according to other suitable criteria (eg, magnitude of overvoltage or undervoltage).

계속해서 도 1 및 도 2를 참조하여 설명한다. 도 1a, 1b, 2, 19, 20 및 21에 도시된 바와 같이, 컨트롤러(122)의 전원 분배 장치(444)는 자율 운송 차량(110)의 콜드 스타트업(초기화) 시 모니터링 장치(447)가 컨트롤러(122) 및 비전 시스템 컨트롤러(122VC)의 다른 섹션들 보다 먼저 온라인 상태가 되도록 부트 장치로서 구성되는데, 이는 컨트롤러(122) 및 비전 시스템 컨트롤러(122VC)의 부팅 전에 자율 운송 차량(110)의 초기(안전) 상태를 설정하기 위함이다. 자율 운송 차량(110)의 초기화를 수행하기 위해, 컨트롤러(122)는 전원 분배 장치(444)으로부터의 표시 시에 전원 공급 장치(481)에서 컨트롤러(1222)로 향하는 사용 가능한 전원 공급 충전 레벨의 임박한 감소를 요구량 미만으로 낮추도록 구성되며, 컨트롤러(122)는 각각의 레지스트리 및 메모리(예를 들어, 자율 네비게이션 제어 섹션(122N), 자율 페이로드 처리 제어 섹션(122H) 및 비전 시스템 제어 섹션(예를 들어, 비전 시스템 컨트롤러(122VC)) 중 대응하는 것의 메모리(446) 또는 다른 메모리(122M)와 같은)에 보유된 자율 가이드 차량의 상태 및 자세 네비게이션 정보와 페이로드 아이덴티티(payload identity), 상태 및 자세 정보 중 적어도 하나를 컨트롤러(122) 재부팅 시 이용 가능한 초기화 파일(122F)(도 2)로 구성한다. 컨트롤러(122)는 전원 분배 장치(444)으로부터의 표시 시 전원 공급 장치(481)에서 컨트롤러(122)로 향하는 사용 가능한 전원 공급 충전 레벨의 임박한 감소를 요구량 미만으로 낮추도록 구성된다. 이는 차량 상태 모니터(447V), 주행 구간 상태 모니터(447D), 페이로드 핸들링 구간 상태 모니터(447H) 및 주변 전자 구간 상태 모니터(447P) 중 적어도 하나로부터 저장된 상태 정보를 컨트롤러(122)의 재부팅 시 이용 가능한 초기화 파일(122F)로 구성하기 위함이다.The description continues with reference to FIGS. 1 and 2. 1A, 1B, 2, 19, 20, and 21, the power distribution device 444 of the controller 122 monitors the device 447 during a cold start-up (initialization) of the autonomous transport vehicle 110. It is configured as a boot device to come online before other sections of the controller 122 and vision system controller 122VC, such that the initialization of the autonomous transport vehicle 110 prior to booting of the controller 122 and vision system controller 122VC. This is to set the (safety) state. To perform initialization of the autonomous transport vehicle 110, the controller 122 may, upon indication from the power distribution device 444, determine the imminent level of available power supply charge level from the power supply 481 to the controller 1222. Configured to reduce the reduction below the required amount, the controller 122 is configured to control each registry and memory (e.g., autonomous navigation control section 122N, autonomous payload processing control section 122H, and vision system control section (e.g., For example, status and attitude navigation information and payload identity, status and attitude of the autonomous guided vehicle held in memory 446 of the corresponding one of the vision system controller 122VC or other memory 122M. At least one of the information consists of an initialization file 122F (FIG. 2) that can be used when the controller 122 is rebooted. The controller 122 is configured to, upon indication from the power distribution device 444, indicate an impending decrease in the available power supply charge level from the power supply 481 to the controller 122 below the required amount. This uses the saved status information from at least one of the vehicle status monitor 447V, the driving section status monitor 447D, the payload handling section status monitor 447H, and the peripheral electronic section status monitor 447P when rebooting the controller 122. This is to configure it with a possible initialization file (122F).

자율 운송 차량의 초기화 시. 전원 분배 장치(444)의 모니터링 장치(447)는 컨트롤러(122) 섹션(예를 들어, 자율 네비게이션 제어 섹션(122N), 자율 페이로드 처리 제어 섹션(122H) 및 비전 시스템 제어기(122VC)) 및 분기 장치(483)(예를 들어, 센서, 주행 모터, 캐스터 모터, 트랜스퍼 암 모터, 정렬(Justification) 장치 모터, 페이로드 베드(210B) 모터 등)의 전원 켜기 시퀀싱을 제어하도록 구성된다. 시퀀스는 자율 네비게이션 제어 섹션(122N) 이전에 비전 시스템 컨트롤러(122VC)의 전원이 켜지고 분기 장치의 전원이 마지막으로 켜지는 것일 수 있으며; 그러나 다른 측면에서는 제어 장치가 제어하는 *?* 먼저 전원이 공급되도록 임의의 적절한 전원 시퀀스가 *?* 수 있다.Upon initialization of an autonomous transport vehicle. Monitoring device 447 of power distribution device 444 is configured to control controller 122 sections (e.g., autonomous navigation control section 122N, autonomous payload processing control section 122H, and vision system controller 122VC) and branches. Configured to control power-on sequencing of devices 483 (e.g., sensors, travel motors, caster motors, transfer arm motors, justification device motors, payload bed 210B motors, etc.). The sequence may be that the vision system controller (122VC) is powered on before the autonomous navigation control section (122N) and the branch device is powered on last; However, on the other hand, there can be any suitable power-up sequence so that the control device powers up first.

또한 도 27을 참조하면, 예시적인 자율 운송 차량(110)의 전원 켜기 또는 콜드 스타트업 프로세스가 전원 분배 장치(444)를 부트 장치로 사용하여 설명될 것이다. 여기서, 자율 운송 차량(110)에 대한 전원이 켜지고(도 27, 블록 2200), 전원 분배 장치(444)는 전원 공급 장치(481)의 출력 전압을 모니터링하고 출력 전압이 시동 임계 전압(V1a) 약16V 보다 큰지 결정한다(도 27, 블록 2205)(다른 측면에서 시동 임계 전압 V1a는 약 16V보다 크거나 작을 수 있다). 전원 공급 장치(481) 출력 전압이 시동 임계 전압(V1a)보다 큰 경우, 전원 분배 장치(444)은 예를 들어 컨트롤러(122), 비전 시스템 컨트롤러(122VS), 무선 통신 모듈(445) 및 자율 운송 차량(110)의 다른 적합한 프로그램 가능 장치(예를 들어, FPGA, CPLD, SOC, CPU 등)에 전원이 공급되도록 스위치(499S)를 동작시킨다(도 27, 블록 2210). 여기서, 초기화 파일(122F)(상기 기술됨)은 컨트롤러(122), 비전 시스템 컨트롤러(122VS), 무선 통신 모듈(445) 및 다른 적절한 프로그램 가능 디바이스(예를 들어, FPGA, CPLD, SOC, CPU 등)의 기동시에, 초기화 파일(122F) 내의 정보에 기초하여 피제어 디바이스들의 기동 및 동작이 수행되도록 이용될 수 있다(도 27, 블록 2215).Referring also to FIG. 27 , the power-on or cold start-up process of an example autonomous transport vehicle 110 will be described using power distribution device 444 as a boot device. Here, when the autonomous transport vehicle 110 is powered on (FIG. 27, block 2200), the power distribution device 444 monitors the output voltage of the power supply 481 and determines that the output voltage is approximately equal to the start-up threshold voltage (V1a). Determine whether it is greater than 16V (Figure 27, block 2205) (in other respects, the startup threshold voltage V1a may be greater or less than about 16V). When the power supply 481 output voltage is greater than the start-up threshold voltage (V1a), the power distribution device 444 connects, for example, the controller 122, the vision system controller 122VS, the wireless communication module 445, and the autonomous transport. Operate switch 499S to power other suitable programmable devices (e.g., FPGA, CPLD, SOC, CPU, etc.) of vehicle 110 (FIG. 27, block 2210). Here, initialization file 122F (described above) can be used to configure controller 122, vision system controller 122VS, wireless communication module 445, and other suitable programmable devices (e.g., FPGA, CPLD, SOC, CPU, etc.). ), it can be used to perform startup and operation of controlled devices based on the information in the initialization file 122F (FIG. 27, block 2215).

전원 분배 장치(444)은 전원 공급기(481)에 의해 출력되는 전압 및 출력 전압이 다음으로 높은 기동 임계 전압 V2a(도 27, 블록 2220), 약 18V보다 높은 것으로 검출되는 경우(다른 양태에서 기동 임계 전압 V2a는 약 18V보다 크거나 작을 수 있음)를 계속 모니터링하고, 전원 분배부(444)는 스위치(449S)를 동작시켜 자율주행 운송 차량(110)의 조명(예를 들어, LED - 도 10a 내지 도 10c 참조)을 온 시킨다(도 27, 블록 2225). 다음으로 높은 시동 임계 전압 V2a에 도달하지 않은 경우, 전원 분배 장치(444)는 다음으로 높은 시동 임계 전압 V2a에 도달할 때까지(자율 운송 차량(110)이 충전되는 경우와 같이)나, 종료 시퀀스가 시작될 때까지(여기에 설명된 그림 8 참조) 전원 공급 장치(481) 출력 전압을 계속 모니터링한다.Power distribution device 444 is configured to detect the voltage output by power supply 481 and the output voltage is higher than the next higher startup threshold voltage V2a (FIG. 27, block 2220), approximately 18V (in another aspect, startup threshold Voltage V2a may be greater or less than about 18V) and power distribution unit 444 operates switch 449S to turn on the lights (e.g., LEDs - FIGS. 10A to 10A) of autonomous transportation vehicle 110. (see FIG. 10C) is turned on (FIG. 27, block 2225). If the next higher startup threshold voltage V2a has not been reached, the power distribution device 444 continues the shutdown sequence until the next higher startup threshold voltage V2a is reached (such as when the autonomous transport vehicle 110 is charging). Continue to monitor the power supply 481 output voltage until it starts (see Figure 8 illustrated here).

전원 분배 장치(444)가 전원 공급 장치(481)의 전압 출력을 계속 모니터링하고, 전원 분배 장치에 의해 다음으로 높은 기동 임계 전압(V3a)이 검출된 상태에서(도 27, 블록 2230), 전원 분배부(444)는 자율주행 운송 차량(110)의 24V 주변 장치 및 기구(도 25a-25c 참조) 뿐만 아니라, 예를 들어, 전후방 정렬(justification) 모듈(210ARJ, 210AFJ), 페이로드 베드(210B), 및 이송 암(210A, 도 27, 블록 2235)의 케이스 핸들링 구동을 온 시키거나 파워를 업 시키도록 스위치(449S)를 작동시킨다. 여기서, 임계 전압(V3a)은 약 24V일 수 있지만, 다른 측면에서 임계 전압(V3a)은 약 24V보다 크거나 작을 수 있다. 전원 공급 장치(481)의 전압 출력이 약 24V 미만인 경우, 전원 분배 장치(444)은 다음으로 높은 시동 임계 전압 V3a에 도달할 때까지(자율 운송 차량(110)이 충전되는 경우와 같이) 또는 정지 시퀀스가 시작될 때까지(여기에 설명된 도 23 참조) 전원 공급 장치(481) 출력 전압을 계속 모니터링한다.Power distribution unit 444 continues to monitor the voltage output of power supply 481, and with the next higher startup threshold voltage (V3a) detected by the power distribution unit (FIG. 27, block 2230), the power distribution unit 444 continues to monitor the voltage output of power supply 481. Distribution 444 may be used to support 24V peripheral devices and instruments of autonomous transportation vehicle 110 (see FIGS. 25A-25C), as well as, for example, front and rear alignment modules 210ARJ, 210AFJ, payload bed 210B. , and operating the switch 449S to turn on or power up the case handling drive of the transfer arm 210A (FIG. 27, block 2235). Here, the threshold voltage V3a may be about 24V, but in other respects the threshold voltage V3a may be greater or less than about 24V. If the voltage output of power supply 481 is less than about 24V, power distribution device 444 will stop until the next higher startup threshold voltage V3a is reached (such as when autonomous transport vehicle 110 is charging) or stop. Continue to monitor the power supply 481 output voltage until the sequence begins (see Figure 23 described herein).

전원 분배 장치(444)이 전원 공급 장치(481)의 전압 출력을 모니터링하고 다음으로 높은 시동 임계 전압 V4a(도 27, 블록 2240)의 검출과 함께, 견인 구동 모터(261M)에 전원을 공급/켜기 위해(도 27, 블록 2245), 전원 분배 장치(444)는 스위치(449S)를 작동시킨다. 여기서, 임계 전압(V4a)은 약 28V일 수 있지만, 다른 측면에서 임계 전압(V4a)은 약 28V보다 크거나 작을 수 있다. 전원 공급 장치(481)의 전압 출력이 약 28V 미만인 경우, 전원 분배 장치(444)은 다음으로 높은 시동 임계 전압 V4a에 도달할 때까지(자율 운송 차량(110)이 충전되는 경우와 같이) 또는 정지 시퀀스가 시작될 때까지(여기에 설명된 그림 23 참조) 전원 공급 장치(481) 출력 전압을 계속 모니터링한다.Power distribution unit 444 monitors the voltage output of power supply 481 and, upon detection of the next higher starting threshold voltage V4a (FIG. 27, block 2240), powers up/turns on traction drive motor 261M. To do so (Figure 27, block 2245), power distribution device 444 activates switch 449S. Here, the threshold voltage V4a may be about 28V, but in other respects the threshold voltage V4a may be greater or less than about 28V. If the voltage output of power supply 481 is less than about 28V, power distribution device 444 will stop until the next higher startup threshold voltage V4a is reached (such as when autonomous transport vehicle 110 is charging) or stop. Continue to monitor the power supply 481 output voltage until the sequence begins (see Figure 23 described here).

실현될 수 있는 바와 같이, 임계 전압 V4a가 자율 운송 차량(110)의 콜드 스타트 시 전원 분배 장치(444)에 의해 검출되는 경우, 전원 분배 장치(444)은 도 27과 관련하여 위에서 설명한 방식/순서로 자율 운송 차량(110)의 구성 요소에 전원을 공급한다 (예를 들어 임의의 적합한 비일시적 컴퓨터 프로그램 코드로 구성된다). 여기서, 전원 분배부(444)는 제어 장치가 제어하는 장치보다 먼저 전원이 켜지도록 구성된다.As may be realized, when the threshold voltage V4a is detected by the power distribution device 444 upon a cold start of the autonomous transport vehicle 110, the power distribution device 444 performs the manner/sequence described above with respect to FIG. 27 supplies power to components of autonomous transport vehicle 110 (e.g., consisting of any suitable non-transitory computer program code). Here, the power distribution unit 444 is configured to be turned on before the device controlled by the control device.

도 1 및 도 2를 참조하면, 도 2, 19, 20, 21 및 28에 설명된 바와 같이, 컨트롤러(122)는 온보드 전원 공급 장치 충전 모드, 분기 장치(483)에 대한 돌입 전류의 활성 제어(예를 들어, 자율운송차량) 및 회생전원공급장치(481) 충전을 가져온다.1 and 2, as illustrated in FIGS. 2, 19, 20, 21, and 28, the controller 122 controls the onboard power supply charging mode, active control of the inrush current to shunt 483 ( For example, autonomous transportation vehicles) and regenerative power supply (481) bring charging.

자율 운송 차량(110)이 충전소에 있는 경우(도 28, 블록 1300) 전원 분배 장치(444)는 횡방향 표면 충전 패드(들)의 존재를 검출한다(도 21 및 도 28, 블록 1310 참조). 본 명세서에 설명된 바와 같이, 전원 분배 장치(444)는 전원 공급 장치(481)의 출력 전압을 모니터링하고 출력 전압 레벨에 기초하여 제어 작업을 수행하도록 구성된다. 여기서, 전원공급 섹션(481)의 충전 제어는 전원분배부(444)에서 검출된 전원공급 섹션(481)의 출력전압에 기초하여 이루어진다. 여기서, 전원 분배 장치(444)의 모니터링 장치(447)는 자율 운송 차량(110)의 로우 레벨 충전 로직을 제어하도록 구성된다. 전원 분배 장치(444)에 대한 예시적인 충전 논리 블록도가 도 21에 도시되어 있다. 도 21에서 볼 수 있는 바와 같이, 자율 운송 차량(110)은 충전 패드로부터 충전 전류를 수신하고, 이송 데크(130B)의 횡방향 표면, 피킹 통로(130A), 및/또는 저장 및 검색 시스템의 임의의 다른 적절한 횡방향 표면에 위치한 차량 장착형 충전 접점으로 구성된다. 횡방향 표면 장착형 충전 패드 및 차량 장착형 충전 접점은 "Rover Charging System"이라는 제목의 미국 특허 번호 9,469,208과 2016년 10월 18일 발행, "Storage and Retrieve System Rover Interface"라는 제목의 미국 특허 번호 11,001,444와 2021년 5월 11일 발행, 그리고 "Rover Charging System"이라는 제목의 미국 특허 출원 번호 14/209,086과 2014년 3월 13일에 출원된 것과 실질적으로 유사하다. 자율 운송 차량(110)은 또한 저장 구조(130)에 장착된 대응 충전 포트와 결합(예를 들어, 플러그 접속)하는 프레임(200)의 전방 단부(200E1) 또는 후방 단부(200E2)에 장착된 원격 충전 포트들 또는 운영자가 자율 운송 차량(110)의 원격 충전 포트에 꽂는 플러그로 구성될 수 있다. When autonomous transport vehicle 110 is at a charging station (FIG. 28, block 1300), power distribution device 444 detects the presence of transverse surface charging pad(s) (see FIGS. 21 and 28, block 1310). As described herein, power distribution device 444 is configured to monitor the output voltage of power supply 481 and perform control operations based on the output voltage level. Here, charging control of the power supply section 481 is performed based on the output voltage of the power supply section 481 detected by the power distribution unit 444. Here, the monitoring device 447 of the power distribution device 444 is configured to control the low-level charging logic of the autonomous transport vehicle 110. An example charging logic block diagram for power distribution device 444 is shown in FIG. 21. As can be seen in FIG. 21 , autonomous transport vehicle 110 receives charging current from a charging pad, the transverse surface of transfer deck 130B, picking aisle 130A, and/or any of the storage and retrieval systems. It consists of a vehicle-mounted charging contact located on another suitable transverse surface of the device. Transverse surface-mounted charging pads and vehicle-mounted charging contacts are covered by U.S. Patent Nos. 9,469,208, entitled “Rover Charging System,” issued October 18, 2016, and U.S. Patent Nos. 11,001,444, entitled “Storage and Retrieve System Rover Interface,” issued 2021 issued May 11, 2014, and is substantially similar to U.S. Patent Application No. 14/209,086, entitled “Rover Charging System,” filed March 13, 2014. Autonomous transport vehicle 110 may also have a remote mounted on the front end 200E1 or rear end 200E2 of frame 200 that engages (e.g., plugs into) a corresponding charging port mounted on storage structure 130. It may consist of charging ports or a plug that the operator plugs into a remote charging port of the autonomous transport vehicle 110.

모니터링 장치(447)는 전원 공급 장치(481)의 충전 사이클 횟수를 최대화하도록 전원공급 장치(481)의 충전 모드/속도를 제어한다. 예를 들어, 모니터링 장치(447)는 세류 충전 모드(예를 들어, 설정된 임계 전압보다 낮은 충전 속도를 가짐), 저속 충전 모드 및 초고속(예를 들어, 고전류) 충전 모드로 구성된다. 여기서 충전 전류는 모니터링 장치(447)에 의해 설정된 최대 충전 전압 임계값으로 제한되어 전원 공급 장치(481)에 대한 충전으로부터 발생되는 악영향을 실질적으로 방지한다. 여기서 충전 전류 및 전압은 전원 공급 장치(481)의 용량 및 유형에 따라 달라질 수 있다. 전원 공급 장치(481)는 임의의 적합한 전압 및 충전 용량을 가질 수 있으며 울트라 커패시터 또는 임의의 다른 적합한 전원(예를 들어, 리튬 이온 배터리 팩, 납축 배터리 팩 등)일 수 있다. 도 6에서 볼 수 있는 바와 같이, 자율 운송 차량(110)은 전원(481)에 대한 적절한 능동 역전압 보호 기능을 포함한다. The monitoring device 447 controls the charging mode/speed of the power supply device 481 to maximize the number of charging cycles of the power supply device 481. For example, the monitoring device 447 is configured with a trickle charging mode (e.g., with a charging rate below a set threshold voltage), a slow charging mode, and an ultra-fast (e.g., high current) charging mode. Here the charging current is limited to the maximum charging voltage threshold set by the monitoring device 447 to substantially prevent adverse effects resulting from charging on the power supply 481. Here, the charging current and voltage may vary depending on the capacity and type of the power supply device 481. Power supply 481 may have any suitable voltage and charging capacity and may be an ultracapacitor or any other suitable power source (eg, lithium ion battery pack, lead acid battery pack, etc.). As can be seen in FIG. 6 , autonomous transport vehicle 110 includes appropriate active reverse voltage protection for power source 481 .

충전율 제어의 예로서, 차량 충전 접점들이 횡방향 표면 충전 패드(도 21 참조)에 결합된 상태에서, 전원 분배 장치(444)는 전원 공급 장치(481)로부터의 출력 전압이 약 23V의 임계 충전 전압 V1c(도 28, 블록 1320) 미만인 것을 검출하고(다른 양태에서는 임계 충전 전압 V1c가 23V보다 크거나 작을 수 있음), 전원 분배 유닛(444)의 모니터링 장치(477)는 전원 공급 장치(1330)의 제한된 전류 충전에 영향을 준다. 예를 들어, 제한된 충전 전류는 전술한 완속 충전 모드일 수 있다. 전술한 완속 충전 모드는 세류 충전 모드에 비해 충전 전류는 높지만 풀 충전 전류보다는 낮은 충전 전류를 가질 수 있다. 전원 분배 장치(444)는 충전 중에 전원 공급 장치(481)의 출력 전압을 계속해서 모니터링하고, 전원 공급 장치(481)의 출력 전압이 임계 충전 전압 V1c 이상인 것을 검출한다(도 28, 블록 1320). 전원 분배 장치(444)의 모니터링 장치(477)는 완전 충전 전류 모드와 같은 다른 충전 모드를 실행한다(도 28, 블록 1350). 전원 분배 장치(444)는 풀 충전 전류로 충전하는 동안 전원 공급기(481)의 출력 전압을 모니터링하고, 출력 전압이 약 44V의 다음으로 높은 임계 충전 전압 V2c(도 13, 블록 1340)이상인 경우(다른 측면에서는 출력 전압이 약 44V보다 크거나 작을 수 있음), 전원 분배 장치(444)의 모니터링 장치(477)는 충전을 종료한다. 다른 측면에서, 출력 전압이 약 44V 이상으로 검출되면, 모니터링 장치(477)는 전원 공급 장치(481)를 횡방향 표면 충전 패드들과 맞물리거나/결합된 자율 운송 차량(110)의 차량 충전 접점과 피크/최대 충전으로 유지하도록 세류 충전 모드에 영향을 미칠 수 있다(도 21 참조).As an example of charge rate control, with the vehicle charging contacts coupled to a transverse surface charging pad (see FIG. 21), power distribution device 444 may cause the output voltage from power supply 481 to reach a threshold charging voltage of approximately 23V. 28, block 1320) and detecting that the threshold charge voltage V1c is below 23V (in other embodiments the threshold charge voltage V1c may be greater or less than 23V), the monitoring device 477 of the power distribution unit 444 monitors the voltage of the power supply 1330. Affects limited current charging. For example, the limited charging current may be the slow charging mode described above. The above-described slow charging mode may have a higher charging current than the trickle charging mode, but may have a lower charging current than the full charging current. Power distribution device 444 continuously monitors the output voltage of power supply 481 during charging and detects that the output voltage of power supply 481 is above the threshold charging voltage V1c (Figure 28, block 1320). Monitoring device 477 of power distribution device 444 implements different charging modes, such as full charge current mode (Figure 28, block 1350). Power distribution unit 444 monitors the output voltage of power supply 481 while charging at full charge current and, if the output voltage is above the next highest threshold charge voltage V2c (FIG. 13, block 1340) of approximately 44 V (other On the side (the output voltage may be greater or less than about 44V), the monitoring device 477 of the power distribution device 444 terminates charging. In another aspect, if the output voltage is detected to be above about 44V, the monitoring device 477 connects the power supply 481 to a vehicle charging contact of the autonomous transport vehicle 110 engaged/coupled with transverse surface charging pads. The trickle charge mode can be influenced to maintain peak/maximum charge (see Figure 21).

계속해서 도 1 및 도 2를 참조한다. 도 2, 도 19, 도 20 및 도 21을 참조하면, 자율 운송 차량(110)은 돌입 전류 보호, 과전압/전류 보호, 저전압/전류 보호 중 하나 이상을 포함한다. 예를 들어, 자율 주행 운송 차량(110)에는 핫 스왑 회로(Hot Swap Circuitry)("Rover Charging System"이라는 제목의 미국 특허 번호 9,469,208에 기재된 것과 실질적으로 유사하며, 2016년 10월 18일에 발행된 "Rover Charging System"이라는 제목의 미국 특허 번호 11,001,444, 2021년 5월 11일에 발행된 미국 특허 번호 14/209,086, "Rover Charging System"이라는 제목의 미국 특허 출원 번호 14/209,086, 2014년 3월 13일에 출원된 것)가 포함될 수 있다. 여기서, 전원 분배 장치(444)는 분기 장치(483A-483F...)에 대한 돌입 전류를 능동적으로 제어하도록 구성된다. 각각의 분기 전원 회로들(482)의 483n(통칭하여 분기 장치들(483, n은 분기 장치들의 최대 개수를 나타내는 정수를 나타낸다)은 전원 분배 장치(444)가 컨트롤러(122)로부터 수신하고, 컨트롤러(122)는 분기 장치들(483)로의 돌입 전류(예를 들어, 충전 또는 파워 서지들)를 제한하도록 스위치들(449S)의 능동 제어에 영향을 미치는 펄스 폭 변조 신호를 생성하도록 구성된다. 예를 들어, 차량 충전 접점과 횡방향 표면 장착형 충전 패드 사이의 초기 접촉에서 전원 분배 장치(444)는 돌입 전류가 분기 장치들(483)로 흐르는 것을 방지하기 위해 하나 이상의 스위치를 개방하도록 스위치(449S) 중 하나 이상을 작동할 수 있다.Continue referring to Figures 1 and 2. 2, 19, 20, and 21, the autonomous transport vehicle 110 includes one or more of inrush current protection, overvoltage/current protection, and undervoltage/current protection. For example, autonomous transportation vehicle 110 may include Hot Swap Circuitry (substantially similar to that described in U.S. Patent No. 9,469,208, entitled “Rover Charging System,” issued October 18, 2016). U.S. Patent No. 11,001,444, entitled “Rover Charging System,” issued May 11, 2021, and U.S. Patent Application No. 14/209,086, entitled “Rover Charging System,” issued March 13, 2014. (applied on) may be included. Here, the power distribution device 444 is configured to actively control the inrush current to the branch devices 483A-483F.... 483n of each branch power circuit 482 (collectively branch devices 483, where n represents an integer indicating the maximum number of branch devices) is received by the power distribution device 444 from the controller 122, and the controller 122 is configured to generate a pulse width modulated signal that effects active control of switches 449S to limit inrush current (e.g., charging or power surges) into branch devices 483. Example For example, upon initial contact between a vehicle charging contact and a transverse surface mounted charging pad, power distribution device 444 may cause switch 449S to open one or more switches to prevent inrush current from flowing to shunt devices 483. One or more of these may work.

도 2, 19 및 22를 참조하면, 분기 전원 회로 중 하나 이상은 분기 장치(483)를 보호하도록 구성된 전기 보호 회로(700)를 포함한다(센서는 예시적인 목적으로 도 22에 도시되어 있지만 다른 측면에서는 본 문서에 설명된 대로 임의의 적합한 분기 장치가 제공될 수 있다.). 전기 보호 회로(700)는 예를 들어 단락, 과전압 및 과전류로부터 분기 장치(483)(및 이와 관련된 임의의 제어/측정 기기 장치)를 실질적으로 보호하도록 구성된다. 예를 들어, 분기 장치(483)(이 예에서는 센서)는 약 4mA ~ 약 20mA 신호로 작동한다. 전기 보호 회로(700)는 예시적인 목적으로만 조정 가능한 3단자 양전압 조정기(710) 및 단일 저항기(720)를 포함한다. 전압 조정기(710)는 약 1.25V ~ 약 37V의 출력 전압 범위에 걸쳐 약 1.5A 이상을 공급하도록 구성된다. 저항기(720)가 결합된 전압 조정기(710)는 전압 조정기(710)의 내부 기준 전압을 활용하여 전류를 약 27mA로 제한한다. 분기 전원 회로(482)에 전기 보호 회로(700)를 삽입하는 것은 약 4mA 내지 약 20mA 신호에 실질적으로 영향을 미치지 않는 한편, (전류 흐름과 관련하여) 전기 보호 회로 (700)의 업스트림 및 다운스트림 모두에 배치된 장치에 제어/측정 보호를 제공한다. 전기 보호 회로(700)의 구성은 단지 예시일 뿐이며, 전기 보호 회로(700)는 약 4mA보다 작거나 약 20mA 이상보다 큰 신호에 대한 제어/측정 보호를 제공하기 위해 임의의 적절한 전압 조정기 및 저항기(적절한 사양을 가짐)로 구성될 수 있다는 점에 다시 한 번 주목해야 한다.2, 19 and 22, one or more of the branch power circuits include an electrical protection circuit 700 configured to protect the branch device 483 (the sensor is shown in FIG. 22 for illustrative purposes, but may not be used in other respects). Any suitable branching device may be provided as described herein.). The electrical protection circuit 700 is configured to substantially protect branch device 483 (and any control/measurement instrumentation associated therewith) against, for example, short circuits, overvoltages and overcurrents. For example, branch device 483 (sensor in this example) operates with a signal of about 4 mA to about 20 mA. Electrical protection circuit 700 includes an adjustable three-terminal positive voltage regulator 710 and a single resistor 720 for illustrative purposes only. Voltage regulator 710 is configured to supply at least about 1.5A over an output voltage range of about 1.25V to about 37V. The voltage regulator 710 coupled with the resistor 720 uses the internal reference voltage of the voltage regulator 710 to limit the current to about 27 mA. Inserting electrical protection circuit 700 into branch power circuit 482 does not substantially affect the signal from about 4 mA to about 20 mA, while (with respect to current flow) upstream and downstream of electrical protection circuit 700. Provides control/measurement protection for devices deployed on both devices. The configuration of electrical protection circuit 700 is by way of example only, and electrical protection circuit 700 may include any suitable voltage regulator and resistor ( It should be noted once again that it can be configured with appropriate specifications.

도 19, 20 및 21에 도시된 바와 같이, 전원 분배 장치(444)는 전원 공급 장치(481)의 회생 충전을 수행하도록 구성된다. 예를 들어, 오른쪽 및 왼쪽 주행 휠(260A, 260B)이 구르지만 동력이 공급되지 않는 경우(예: 제동 중), 각 모터(261M)에 의해 생성된 역기전원(EMF) 전압은 각 분기 전원 회로(483E, 483F)로 피드백된다. 모니터링 장치(447)는 역기전원 전압(및 전류)이 전원 공급 장치(481)를 재생 충전하도록 스위치(449S)(예: Vcap_IN 스위치 - 도 21 참조)를 작동할 수 있다. 주행 휠(260A, 260B)을 주행하기 위한 전원이 공급되는 모터(261M)를 사용하여 모니터링 장치(447)는 Vcap_IN 스위치를 닫아 전원 공급 장치(481)로부터 전원이 소모되는 것을 방지할 수 있다.As shown in FIGS. 19, 20, and 21, the power distribution device 444 is configured to perform regenerative charging of the power supply device 481. For example, when the right and left running wheels 260A, 260B are rolling but not energized (e.g., during braking), the back electromotive force (EMF) voltage generated by each motor 261M will be applied to each branch power circuit. It is fed back to (483E, 483F). Monitoring device 447 may actuate switch 449S (e.g., Vcap_IN switch - see FIG. 21) such that the back electromotive voltage (and current) regenerates power supply 481. Using the motor 261M supplied with power to drive the driving wheels 260A and 260B, the monitoring device 447 can prevent power from being consumed from the power supply device 481 by closing the Vcap_IN switch.

도 2, 도 19 및 도 20에 도시된 바와 같이, 전원 분배부(444)는 무선 통신 모듈(445)을 포함한다. 무선 통신 모듈(445)은 Wi-Fi, 블루투스, 셀룰러 등을 포함하지만 이에 제한되지 않는 임의의 적합한 무선 통신을 위해 구성될 수 있다. 무선 통신 모듈(445)은 적어도 부분적으로 제어하도록 전원 분배 장치(444)를 구성한다. 예를 들어, 자율 운송 차량(110)과 네트워크(180)와 같은 임의의 적합한 네트워크를 통한 제어 서버(120)를 포함하지만 이에 제한되지 않는 보관 및 검색 시스템의 다른 기능 간의 통신이 가능하다. 여기서, 무선 통신 모듈(445) 및 모니터링 장치(447)는, 컨트롤러(122)의 처리 기능 에러들(예를 들어, 원격 셧다운, 통신들 또는 다른 일반적인 부품 에러들을 포함하는 안전 관련 기능들)이 모니터링 장치(447)에 의해 검출되는 경우와 같은 보조 프로세서/컨트롤러로서 전원 분배 유닛(444)을 구성한다. 컨트롤러(122)가 컨트롤러(122)에 의해 영향을 받는 통신 또는 제어에 있어서 오류가 발생하는 경우, 전원 분배 장치(444)는 제어 서버(120)(및 저장 및 검색 시스템(100)의 운영자들)과 자율 운송 차량(110)의 상이한 구성 요소들(예를 들어, 통신 모듈(445)을 통해) 사이의 (2차적인) 통신을 유지하여, 자율 운송 차량(110)이 본 출원에 기술된 방식으로 원격으로 종료되거나(자율적으로, 반자율적으로, 또는 운영자의 수동 원격 제어 하에서) 구동될 수 있다. As shown in FIGS. 2, 19, and 20, the power distribution unit 444 includes a wireless communication module 445. Wireless communication module 445 may be configured for any suitable wireless communication, including but not limited to Wi-Fi, Bluetooth, cellular, etc. Wireless communication module 445 configures power distribution device 444 to at least partially control it. For example, communication is possible between autonomous transport vehicle 110 and other functions of the storage and retrieval system, including but not limited to control server 120, over any suitable network, such as network 180. Here, the wireless communication module 445 and monitoring device 447 monitor processing function errors of the controller 122 (e.g., safety-related functions including remote shutdown, communications, or other common component errors). Configure power distribution unit 444 as an auxiliary processor/controller as detected by device 447. If the controller 122 experiences an error in communications or control effected by the controller 122, the power distribution device 444 may be inactive with the control server 120 (and the operators of the storage and retrieval system 100). and maintaining (secondary) communication between different components of the autonomous transport vehicle 110 (e.g., via communication module 445), so that the autonomous transport vehicle 110 can operate in the manner described in this application. It can be remotely shut down (autonomously, semi-autonomously, or under manual remote control by an operator).

무선 통신 모듈(445)은 또한 컨트롤러(122), 비전 시스템 컨트롤러(122VC)의 "오버 더 에어"(over the air) 프로그래밍 및 자율 운송 차량(110)의 모니터링 장치(447) 또는 다른 적절한 프로그램 가능 장치(예를 들어, FPGA, CPLD, SOC, CPU 등)의 펌웨어/프로그래밍을 업데이트하기 위한 것을 제공한다. 여기서, 저장 및 검색 시스템(100)의 운영자는 제어 서버(120)를 통해 또는 네트워크(180)(적어도 부분적으로는 무선 네트워크임)를 통해 또는 랩탑, 스마트폰/태블릿 등 같은 다른 적절한 장치를 사용하여 자율 차량(110)에 소프트웨어 업데이트를 푸시하거나 업로드할 수 있습니다. 전원 분배 장치(444)는 모니터링 장치(447), 컨트롤러(122), 비전 시스템 컨트롤러(122VC) 및/또는 다른 적절한 프로그램가능 장치(예를 들어, FPGA, CPLD, SOC, CPU 등)에 설치하기 위한 소프트웨어 업데이트들을 버퍼링할 수 있는 임의의 적절한 메모리(446)를 포함한다.The wireless communications module 445 may also be configured to enable "over the air" programming of the controller 122, the vision system controller 122VC, and the monitoring device 447 of the autonomous transport vehicle 110, or other suitable programmable device. Provides for updating firmware/programming of (e.g. FPGA, CPLD, SOC, CPU, etc.). Here, the operator of the storage and retrieval system 100 may operate via a control server 120 or via a network 180 (which is at least partially a wireless network) or using another suitable device such as a laptop, smartphone/tablet, etc. Software updates may be pushed or uploaded to the autonomous vehicle 110 . Power distribution unit 444 is for installation in monitoring device 447, controller 122, vision system controller 122VC, and/or other suitable programmable devices (e.g., FPGA, CPLD, SOC, CPU, etc.). Includes any suitable memory 446 capable of buffering software updates.

전원 분배부(444)의 무선 통신 모듈(445)은 이더넷 스위치(Ethernet switch) 또는 브리지(Bridge)로 구성될 수도 있다. 여기서, 보관 구조(130) 전체를 이동하는 자율 운송 차량(110)의 무선 통신 모듈(455)은 메시 네트워크(Mesh network)를 형성할 수 있다. 이러한 방식으로, 예를 들어 제어 서버(122) 또는 랩톱, 스마트폰/태블릿 등과 같은 다른 적절한 장치로부터의 무선 통신은 전용 이더넷 스위치 없이 저장 구조(130)의 실질적으로 전체를 커버하는 범위까지 확장될 수 있으며, 브리지는 저장 구조물(130) 전체에 걸쳐 고정된/미리 결정된 위치에 배치(예를 들어 장착)된다. The wireless communication module 445 of the power distribution unit 444 may be configured as an Ethernet switch or bridge. Here, the wireless communication module 455 of the autonomous transportation vehicle 110 moving throughout the storage structure 130 may form a mesh network. In this way, wireless communication from, for example, control server 122 or other suitable devices such as laptops, smartphones/tablets, etc. can be extended to cover substantially the entirety of storage structure 130 without a dedicated Ethernet switch. and the bridges are positioned (e.g. mounted) at fixed/predetermined locations throughout the storage structure 130.

이제 도 1a, 2, 19, 20, 21 및 24에서, 자율 가이드 차량 전원 관리를 위한 예시적인 방법이 개시된 실시예의 측면에 따라 설명될 것이다. 이 방법은 본 명세서에 설명된 바와 같이 자율 운송(110)을 제공하는 것을 포함한다(도 24, 블록 24900). 자율 운송 차량(110)의 자율 작동은 컨트롤러(122)에 의해 실행되고(도 24, 블록 24910), 자율 운송 차량(110)의 전원 공급 장치(481)의 충전 레벨은 전원 분배 장치(444)에 의해 모니터링된다(도 24, 블록 24910). 블록 24920). 본 명세서에 기술된 바와 같이, 다른 분기 전원 회로(482)에 대한 각각의 분기 전원 회로(482)의 수요 전하 레벨 및 전원 공급장치(481)로부터 이용 가능한 전하 레벨에 기초하여 미리 결정된 패턴(본 명세서에 기술된 바와 같이)으로 분기 전원 회로(482)의 온 및 오프를 스위칭하는 것을 또한 포함할 수 있다(도 24, 블록 24930). 1A, 2, 19, 20, 21, and 24, exemplary methods for autonomous guided vehicle power management will now be described in accordance with aspects of the disclosed embodiments. The method includes providing autonomous transportation 110 as described herein (Figure 24, block 24900). Autonomous operation of autonomous transport vehicle 110 is performed by controller 122 (FIG. 24, block 24910), and the charge level of power supply 481 of autonomous transport vehicle 110 is controlled by power distribution unit 444. (Figure 24, block 24910). Block 24920). As described herein, a predetermined pattern (herein 24, block 24930).

전원 분배 섹션(444)으로부터, 전원 공급 장치(481)로부터 구동 섹션(261D)(도 21 참조) 및/또는 케이스 핸들링 어셈블리(210)의 분기 회로(482)로 지시된 가용 전원 공급기 충전 레벨의 임박한 감소의 지시에 따라, 제어기(122)는 구동 섹션(261D)에 자율 운송 차량(110)을 안전한 위치로 이동하도록 명령하고/또는 본 명세서에 기술된 바와 같이 페이로드를 안전한 위치로 이동하도록 케이스 핸들링 어셈블리(210)에 명령한다(도 24, 블록 24960).Impending availability of power supply charge levels directed from power distribution section 444, from power supply 481 to drive section 261D (see FIG. 21) and/or branch circuit 482 of case handling assembly 210. Upon direction of the reduction, controller 122 commands drive section 261D to move autonomous delivery vehicle 110 to a safe location and/or case handles to move the payload to a safe location as described herein. Command assembly 210 (Figure 24, block 24960).

전원 공급 장치(481)에서 컨트롤러(122)로 향하는 가용 전원 충전 레벨이 컨트롤러(122)의 요구 레벨 미만으로 감소할 임박했음을 전원 분배 장치(444)으로부터 표시하면, 컨트롤러(122)는 본 명세서에 기술된 바와 같이 작동을 중지하고 하이버네이션(Hibernation)으로 진입한다(도 24, 블록 24950).Upon receiving an indication from power distribution device 444 that the level of available power charge from power supply 481 to controller 122 is imminent to decrease below the required level of controller 122, controller 122 may perform the following: It stops operation as done and enters Hibernation (Figure 24, block 24950).

또한 본 명세서에 설명된 바와 같이, 전원 공급 장치(481)에서 컨트롤러(122)로 향하는 사용 가능한 전원 공급 충전 레벨의 임박한 감소를 전원 분배 장치(444)으로부터 표시하면, 컨트롤러(122)의 요구 레벨 미만으로, 컨트롤러(122)는 적어도 하나의 초기화 파일을 생성한다(그림 24, 블록 24940). 본 명세서에 기술된 바와 같이, 컨트롤러(122)는 대응하는 제어기 구간들의 각각의 레지스트리 및 메모리(예를 들어, 자율 주행 제어 섹션(122N), 자율 페이로드 핸들링 제어 섹션(122H) 및 비전 시스템 제어 섹션(예를 들어, 비전 시스템 제어 섹션(122VC)) 중 대응하는 메모리(446) 또는 다른 메모리(122M)와 같은 것)에 보유된 자율 가이드 차량 상태 및 자세 네비게이션 정보 및 페이로드 아이덴티티(Payload identity), 상태 및 자세 정보 중 적어도 하나를 컨트롤러(122)의 재부팅 시 이용 가능한 초기화 파일(122F)로 구성할 수 있다. 컨트롤러(122)는 차량 상태 모니터(447V), 주행 구간 상태 모니터(447D), 페이로드 핸들링 섹션 상태 모니터(447H) 및 주변 전자 섹션 상태 모니터(447P) 중 적어도 하나의 상태 정보를 컨트롤러(122)의 재부팅 시 이용 가능한 초기화 파일(122F)(또는 상이한 초기화 파일)에 저장할 수 있다.Additionally, as described herein, an indication from power distribution device 444 of an impending decrease in the available power supply charge level from power supply 481 to controller 122 may result in a level below the required level of controller 122. As a result, controller 122 creates at least one initialization file (Figure 24, block 24940). As described herein, controller 122 is configured to access the respective registries and memories of corresponding controller sections (e.g., autonomous driving control section 122N, autonomous payload handling control section 122H, and vision system control section). Autonomous guided vehicle status and attitude navigation information and payload identity held in (e.g., the corresponding memory 446 of the vision system control section 122VC or another memory 122M); At least one of the status and posture information may be configured as an initialization file 122F that can be used when the controller 122 is rebooted. The controller 122 sends status information of at least one of the vehicle status monitor 447V, the driving section status monitor 447D, the payload handling section status monitor 447H, and the peripheral electronic section status monitor 447P to the controller 122. It can be saved to an initialization file (122F) (or a different initialization file) that will be available upon reboot.

개시된 실시예의 하나 이상의 측면에 따르면, 자율 가이드 차량은:According to one or more aspects of the disclosed embodiments, an autonomous guided vehicle:

페이로드 홀드(Payload hold)를 갖는 프레임;Frame with payload hold;

횡단 표면에서 차량을 지지하는 주행 휠을 갖는 프레임에 결합되고, 상기 주행 휠은 시설 내 횡단 표면 위로 자동 안내 차량을 이동시키는 횡단 표면에서 차량 횡단에 영향을 미치는 구동 섹션;a drive section coupled to a frame having running wheels that support a vehicle on the crossing surface, the driving wheels effecting vehicle crossing on the crossing surface to move an automatically guided vehicle over the crossing surface within the facility;

저장 어레이(Storage array)에서, 페이로드 홀드에 안착된 평평한 비결정적 안착 표면 및 페이로드의 저장 위치를 갖는, 페이로드를 전송하도록 구성된 프레임에 결합된 페이로드 핸들러; In a storage array, a payload handler coupled to a frame configured to transmit a payload, the payload handler having a flat non-deterministic seating surface seated on the payload hold and a storage location for the payload;

전자기 센서들을 갖는 프레임에 연결된 물리적 특성 센서 시스템으로서, 각각 물리적 특성을 갖는 전자기 빔 또는 필드를 방출 또는 생성하는 센서의 상호작용 또는 인터페이스에 반응하고, 물리적 특성과의 상호작용 또는 인터페이스에 의해 전자기 빔 또는 필드가 교란되고, 물리적 특성의 전자기 센서에 의해 감지되고 감지되는 교란은 물리적 특성의 전자기 센서에 의해 감지되고 영향을 미치며, 물리적 특성 센서 시스템은 차량의 네비게이션 자세(Vehicle navigation pose) 또는 위치 정보 및 페이로드 자세 또는 위치 정보 중 적어도 하나를 포함하는 센서 데이터를 생성하도록 구성되는, 물리적 특성 센서 시스템; 및 A physical property sensor system connected to a frame having electromagnetic sensors, each responsive to the interaction or interface of the sensor to emit or generate an electromagnetic beam or field having a physical property, and the electromagnetic beam or field by interaction or interface with the physical property. The field is disturbed, and the disturbance is sensed and affected by electromagnetic sensors of a physical nature, and the physical sensor system detects and affects the vehicle's navigation pose or location information and a physical characteristic sensor system configured to generate sensor data including at least one of load posture or position information; and

프레임에 연결되고, 물리적 특성 센서 시스템을 보완하고, 적어도 부분적으로, 차량의 네비게이션 자세, 위치 및 페이로드 자세 또는 물리적 특성 센서 시스템의 정보를 보완하는 위치 중 적어도 하나를 알려주는 이미지 데이터를 캡처하도록 배치된 카메라를 구비한 비전 시스템인 보조 센서 시스템을 포함한다.Coupled to the frame, complementary to the physical characteristic sensor system, and arranged to capture image data that is indicative, at least in part, of the vehicle's navigation attitude, position, and payload attitude or position complementary to information from the physical characteristic sensor system. It includes an auxiliary sensor system, which is a vision system equipped with a camera.

개시된 실시예의 하나 이상의 측면에 따르면, 자율 가이드 차량은 프레임에 연결되고, 구동 섹션 또는 페이로드 핸들러에 작동 가능하게 연결되고, 물리적 특성 센서 시스템에 통신 가능하게 연결되는 컨트롤러를 더 포함하며, 컨트롤러는 물리적 특성 센서 시스템의 정보로부터 시설을 횡단하는 자율 가이드 차량의 독립적인 안내에 영향을 미치는 차량 자세 및 위치를 결정하도록 구성된다.According to one or more aspects of the disclosed embodiments, the autonomous guided vehicle further includes a controller coupled to the frame, operably coupled to the drive section or payload handler, and communicatively coupled to the physical characteristic sensor system, wherein the controller It is configured to determine, from information from the characteristic sensor system, a vehicle attitude and position that affects independent guidance of an autonomous guided vehicle traversing the facility.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 물리적 특성 센서 시스템 페이로드 자세의 정보로부터 그리고 저장 위치에 대한 페이로드의 독립적인 언더픽 및 장소 및 페이로드 홀드 내의 페이로드의 독립적인 언더픽 및 장소에 영향을 미치는 위치를 결정하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, a controller may be configured to determine independent underpick and place of a payload relative to a storage location and an independent underpick and place of a payload within a payload hold from information of a physical characteristic sensor system payload pose. It is structured to determine the location of influence.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 자율 가이드 차량에 의해 횡단되는 시설의 적어도 일부를 정의하는 미리 결정된 특징의 참조 표현으로 프로그래밍된다.According to one or more aspects of the disclosed embodiments, the controller is programmed with a reference representation of predetermined features that define at least a portion of the facility to be traversed by the autonomous guided vehicle.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 캡처된 이미지 데이터를 등록하고, 그로부터 미리 결정된 특징들의 하나 이상의 특징들의 적어도 하나의 이미지를 생성하도록 구성되고, 상기 적어도 하나의 이미지는 상기 참조 표현의 미리 결정된 특징들의 하나 이상의 대응하는 참조와 비교를 제공하도록 상기 하나 이상의 미리 결정된 특징들의 가상 표현으로서 포맷(Format)된다.In accordance with one or more aspects of the disclosed embodiment, a controller is configured to register captured image data and generate therefrom at least one image of one or more predetermined features, wherein the at least one image is a predetermined image of the reference representation. Formatted as a virtual representation of the one or more predetermined features to provide comparison with one or more corresponding references to the features.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 캡처된 이미지 데이터를 등록하고, 그로부터 미리 결정된 특징들의 하나 이상의 특징들의 적어도 하나의 이미지를 생성하도록 구성되고, 상기 적어도 하나의 이미지는 상기 참조 표현의 미리 결정된 특징들의 하나 이상의 대응하는 참조와 비교를 제공하도록 상기 하나 이상의 미리 결정된 특징들의 가상 표현으로서 포맷된다.In accordance with one or more aspects of the disclosed embodiment, a controller is configured to register captured image data and generate therefrom at least one image of one or more predetermined features, wherein the at least one image is a predetermined image of the reference representation. Formatted as a virtual representation of the one or more predetermined features to provide comparison with one or more corresponding references to the features.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 가상 표현과 참조 표현 사이의 비교에 기초하여 물리적 특성 센서 시스템으로부터 컨트롤러에 의해 등록된 자율 가이드 차량 자세 및 위치 정보를 확인하도록 구성된다. According to one or more aspects of the disclosed embodiments, the controller is configured to verify autonomous guided vehicle attitude and position information registered by the controller from a physical characteristic sensor system based on a comparison between the virtual representation and the reference representation.

개시된 실시예의 하나 이상의 측면에 따라, 제어기는 가상 표현과 참조 표현 사이의 비교에 기초하여 자율 유도 차량 자세 및 위치의 분산을 식별하고, 그 분산에 기초하여 물리적 특성 센서 시스템으로부터 자율 유도 차량 자세 또는 위치 정보를 업데이트 또는 완료하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller identifies a variance of the autonomous guided vehicle attitude and position based on a comparison between the virtual representation and the reference representation and determines the autonomous guided vehicle attitude or position from the physical characteristic sensor system based on the variance. It is configured to update or complete information.

개시된 실시예의 하나 이상의 측면에 따라, 제어기는 식별된 적어도 하나의 이미지의 분산 및 분석 중 적어도 하나에 기초하여 물리적 특성 센서 시스템으로부터의 정보 및 자율 유도 차량 자세의 충실도 및 물리적 특성 센서 시스템으로부터의 위치 정보의 자세 오류를 결정하고, 자세 오류 및 충실도 중 적어도 하나에 따라 신뢰도 값을 할당하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller may be configured to provide information from the physical property sensor system and fidelity of the autonomously guided vehicle attitude and position information from the physical property sensor system based on at least one of the distribution and analysis of the identified at least one image. and determine a posture error of and assign a reliability value based on at least one of posture error and fidelity.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 미리 결정된 임계치 미만의 신뢰 값으로, 컨트롤러는 자세를 대신하여 가상 표현으로부터 생성된 자세 및 위치 정보 및 물리적 특성 센서 시스템으로부터의 위치 정보에 기초하여 자율 유도 차량 네비게이션을 전환하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller determines that, with a confidence value below a predetermined threshold, the controller determines the position of an autonomous guided vehicle based on posture and position information generated from a virtual representation on behalf of the posture and position information from a physical property sensor system. It is configured to switch navigation.

전환 후 개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 다음과 같이 구성된다:In accordance with one or more aspects of the disclosed embodiment after conversion, the controller is configured as follows:

목적지까지 자율 가이드 차량 네비게이션을 계속하거나, 또는 Continue self-guided vehicle navigation to your destination, or

자율 가이드 차량의 안전 경로 및 자율 가이드 차량을 스위칭시 위치에서 정지를 위한 안전한 위치로 가져오는 궤적을 선택하거나, 또는 Select a safe path for the autonomous guided vehicle and a trajectory to bring the autonomous guided vehicle from a switching position to a safe position for stopping, or

사용자 인터페이스 장치를 통해 자동 작동에서 준자동 작동 또는 수동 작동까지 자율 가이드 차량 제어의 운영자 선택을 위한 자율 가이드 차량 운동학적 데이터 및 목적지를 식별하는 운영자와의 통신을 시작한다.Initiates communication with the operator, through a user interface device, identifying the destination and autonomous guided vehicle kinematic data for operator selection of autonomous guided vehicle control from automatic operation to semi-autonomous operation or manual operation.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 가상 표현과 참조 표현 사이의 비교에 기초하여 물리적 특성 센서 시스템으로부터 컨트롤러에 의해 등록된 페이로드 자세 및 위치 정보를 확인하도록 구성된다. According to one or more aspects of the disclosed embodiments, the controller is configured to verify payload attitude and position information registered by the controller from a physical characteristic sensor system based on a comparison between the virtual representation and the reference representation.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 가상 표현과 참조 표현 사이의 비교에 기초하여 페이로드 자세 및 위치의 분산을 식별하고, 분산에 기초하여 물리적 특성 센서 시스템으로부터 페이로드 자세 또는 위치 정보를 업데이트 또는 완료하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, a controller identifies a variance in payload pose and position based on a comparison between a virtual representation and a reference representation and updates payload pose or position information from a physical characteristic sensor system based on the variance. or configured to complete.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 적어도 하나의 이미지의 식별된 분산 및 분석 중 적어도 하나에 기초하여 물리적 특성 센서 시스템으로부터의 정보 및 페이로드 자세의 충실도 및 물리적 특성 센서 시스템으로부터의 위치 정보의 자세 에러를 결정하고, 자세 에러 및 충실도 중 적어도 하나에 따라 신뢰도 값을 할당하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller may determine the fidelity of the payload pose and position information from the physical property sensor system based on at least one of the identified distribution and analysis of the at least one image. It is configured to determine a posture error and assign a reliability value based on at least one of posture error and fidelity.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 미리 결정된 임계치 미만의 신뢰도 값으로, 컨트롤러는 자세를 대신하여 가상 표현으로부터 생성된 위치 정보 및 물리적 특성 센서 시스템으로부터의 위치 정보에 기초하여 자율 유도 차량 페이로드 핸들링을 전환하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, with a confidence value below a predetermined threshold, the controller determines the autonomous guided vehicle payload based on location information generated from a virtual representation on behalf of the posture and location information from a physical property sensor system. It is configured to switch handling.

전환 후 개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 다음과 같이 구성된다:In accordance with one or more aspects of the disclosed embodiment after conversion, the controller is configured as follows:

목적지까지 자동 가이드 차량 핸들링을 계속하거나, Continue handling the automated guided vehicle to your destination, or

사용자 인터페이스 장치를 통해 자동 페이로드 처리 작업에서 준자동 페이로드 처리 작업 또는 수동 페이로드 처리 작업까지 자율 가이드 차량 제어의 운영자 선택과 함께 페이로드 데이터를 식별하는 운영자와의 통신을 시작한다.The user interface device initiates communication with the operator identifying payload data along with operator selection of autonomous guided vehicle control from automatic payload processing operations to semi-autonomous payload processing operations or manual payload processing operations.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 컨트롤러 및 오퍼레이터 인터페이스를 통신 가능하게 결합하는 무선 통신 시스템을 통해, 오퍼레이터에게 증강 현실 이미지를 실시간으로 제시하는 참조 프레젠테이션의 하나 이상의 대응하는 참조 프레젠테이션의 가상 표현 및 하나 이상의 대응하는 참조 사전 결정 특징을 결합하는 시뮬레이션 이미지를 전송하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, a controller may include a virtual representation of one or more corresponding reference presentations of the reference presentation to present augmented reality images in real time to the operator via a wireless communication system communicatively coupling the controller and an operator interface; and transmit a simulated image combining one or more corresponding reference predetermined features.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 실시간 오퍼레이터 명령들을 상기 실시간 증강 현실 이미지에 응답하는 상기 자율 유도 차량으로 수신하도록 구성되고, 상기 명령들은 상기 오퍼레이터에게 전송되는 상기 실시간 증강 현실 이미지의 변화이다.In accordance with one or more aspects of the disclosed embodiments, a controller is configured to receive real-time operator commands to the autonomous guided vehicle responsive to the real-time augmented reality image, the commands being changes to the real-time augmented reality image transmitted to the operator.

개시된 실시예의 하나 이상의 측면에 따르면, 보조 센서 시스템은 자율 가이드 차량에 탑재된 케이스 장치의 즉각적 정렬(Justification) 및/또는 분류(Sortation)에 적어도 부분적으로 영향을 미친다.According to one or more aspects of the disclosed embodiments, the auxiliary sensor system at least partially affects immediate justification and/or sorting of case devices mounted on an autonomous guided vehicle.

개시된 실시예의 하나 이상의 측면에 따라, 보조 센서 시스템으로부터, 보조 차량 네비게이션 자세 또는 위치, 및 보조 페이로드 자세 또는 위치 중 하나 이상의 보조 정보를 통해, 보조 차량 네비게이션 자세 또는 위치, 및 차량 네비게이션 자세 또는 위치 중 하나 이상의 보조 페이로드 자세 또는 위치 정보 및 페이로드 자세 또는 위치 정보 중 하나 이상의 보조 페이로드 자세 또는 위치 해상도를 향상시키도록, 주변 설비 특징 및 인터페이스 설비 특징 중 하나 이상의 참조 모델에 코팅된다.In accordance with one or more aspects of the disclosed embodiments, one or more of the assistive vehicle navigation attitude or position, and the vehicle navigation attitude or position may be provided via assistive information from an assistive sensor system, one or more of an assistive vehicle navigation attitude or position, and an assistive payload attitude or position. One or more auxiliary payload attitude or position information and one or more of the payload attitude or position information are coated on the reference model to improve the resolution of one or more of the auxiliary payload attitude or position, peripheral facility features and interface facility features.

개시된 실시예의 하나 이상의 측면에 따르면, 자율 가이드 차량은:According to one or more aspects of the disclosed embodiments, an autonomous guided vehicle:

페이로드 홀드를 갖는 프레임;Frame with payload hold;

횡단 표면에서 차량을 지지하는 주행 휠을 갖는 프레임에 결합되고, 상기 주행 휠은 시설 내 횡단 표면 위로 자동 안내 차량을 이동시키는 횡단 표면에서 차량 횡단에 영향을 미치는 구동 섹션;a drive section coupled to a frame having running wheels that support a vehicle on the crossing surface, the driving wheels effecting vehicle crossing on the crossing surface to move an automatically guided vehicle over the crossing surface within the facility;

저장 어레이에서, 페이로드 홀드에 안착된 평평한 비결정적 안착 표면 및 페이로드의 저장 위치를 갖는, 페이로드를 전송하도록 구성된 프레임에 결합된 페이로드 핸들러; In a storage array, a payload handler coupled to a frame configured to transmit a payload, the payload handler having a flat, non-deterministic seating surface seated on the payload hold and a storage location for the payload;

전자기 센서들을 갖는 프레임에 연결된 물리적 특성 센서 시스템으로서, 각각 물리적 특성을 갖는 전자기 빔 또는 필드를 방출 또는 생성하는 센서의 상호작용 또는 인터페이스에 반응하고, 물리적 특성과의 상호작용 또는 인터페이스에 의해 전자기 빔 또는 필드가 교란되고, 물리적 특성의 전자기 센서에 의해 감지되고 감지되는 교란은 물리적 특성의 전자기 센서에 의해 감지되고 영향을 미치며, 물리적 특성 센서 시스템은 차량의 네비게이션 자세(Vehicle navigation pose) 또는 위치 정보 및 페이로드 자세 또는 위치 정보 중 적어도 하나를 포함하는 센서 데이터를 생성하도록 구성되는, 물리적 특성 센서 시스템; 및 A physical property sensor system connected to a frame having electromagnetic sensors, each responsive to the interaction or interface of the sensor to emit or generate an electromagnetic beam or field having a physical property, and the electromagnetic beam or field by interaction or interface with the physical property. The field is disturbed, and the disturbance is sensed and affected by electromagnetic sensors of a physical nature, and the physical sensor system detects and affects the vehicle's navigation pose or location information and a physical characteristic sensor system configured to generate sensor data including at least one of load posture or position information; and

프레임에 연결되고, 물리적 특성 센서 시스템을 보완하고, 적어도 부분적으로, 차량의 네비게이션 자세, 위치 및 페이로드 자세 또는 물리적 특성 센서 시스템의 정보를 보완하는 위치 중 적어도 하나를 알려주는 이미지 데이터를 캡처하도록 배치된 카메라를 구비한 비전 시스템인 보조 센서 시스템을 포함한다.Coupled to the frame, complementary to the physical characteristic sensor system, and arranged to capture image data that is indicative, at least in part, of the vehicle's navigation attitude, position, and payload attitude or position complementary to information from the physical characteristic sensor system. It includes an auxiliary sensor system, which is a vision system equipped with a camera.

개시된 실시예의 하나 이상의 측면에 따르면, 자율 가이드 차량은 프레임에 연결되고, 구동 섹션 또는 페이로드 핸들러에 작동 가능하게 연결되고, 물리적 특성 센서 시스템에 통신 가능하게 연결되는 컨트롤러를 더 포함하며, 컨트롤러는 물리적 특성 센서 시스템의 정보로부터 시설을 횡단하는 자율 가이드 차량의 독립적인 안내에 영향을 미치는 차량 자세 및 위치를 결정하도록 구성된다.According to one or more aspects of the disclosed embodiments, the autonomous guided vehicle further includes a controller coupled to the frame, operably coupled to the drive section or payload handler, and communicatively coupled to the physical characteristic sensor system, wherein the controller It is configured to determine, from information from the characteristic sensor system, a vehicle attitude and position that affects independent guidance of an autonomous guided vehicle traversing the facility.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 물리적 특성 센서 시스템 페이로드 자세의 정보로부터 그리고 저장 위치에 대한 페이로드의 독립적인 언더픽 및 장소 및 페이로드 홀드 내의 페이로드의 독립적인 언더픽 및 장소에 영향을 미치는 위치를 결정하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, a controller may be configured to determine independent underpick and place of a payload relative to a storage location and an independent underpick and place of a payload within a payload hold from information of a physical characteristic sensor system payload pose. It is structured to determine the location of influence.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 자율 가이드 차량에 의해 횡단되는 시설의 적어도 일부를 정의하는 미리 결정된 특징의 참조 표현으로 프로그래밍된다.According to one or more aspects of the disclosed embodiments, the controller is programmed with a reference representation of predetermined features that define at least a portion of the facility to be traversed by the autonomous guided vehicle.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 캡처된 이미지 데이터를 등록하고, 그로부터 미리 결정된 특징들의 하나 이상의 특징들의 적어도 하나의 이미지를 생성하도록 구성되고, 상기 적어도 하나의 이미지는 상기 참조 표현의 미리 결정된 특징들의 하나 이상의 대응하는 참조와 비교를 제공하도록 상기 하나 이상의 미리 결정된 특징들의 가상 표현으로서 포맷된다.In accordance with one or more aspects of the disclosed embodiment, a controller is configured to register captured image data and generate therefrom at least one image of one or more predetermined features, wherein the at least one image is a predetermined image of the reference representation. Formatted as a virtual representation of the one or more predetermined features to provide comparison with one or more corresponding references to the features.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 이미지화된 하나 이상의 특징부들의 가상 표현이 자율 유도 차량 상에서 상주하도록 구성되고, 하나 이상의 이미지화된 소정 특징부들의 가상 표현과 하나 이상의 대응하는 기준 소정 특징부들 사이의 비교가 자율 유도 차량 상에서 상주하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller is configured to cause a virtual representation of one or more imaged features to reside on the autonomous guided vehicle, and between the virtual representations of the one or more imaged certain features and one or more corresponding reference certain features. The comparison of is configured to reside on the autonomous guided vehicle.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 가상 표현과 기준 표현 사이의 비교에 기초하여 물리적 특성 센서 시스템으로부터 컨트롤러에 의해 등록된 자동 안내 차량 자세 및 위치 정보를 확인하도록 구성된다. According to one or more aspects of the disclosed embodiments, the controller is configured to verify automated guided vehicle attitude and position information registered by the controller from a physical characteristic sensor system based on a comparison between the virtual representation and the reference representation.

개시된 실시예의 하나 이상의 측면에 따라, 제어기는 가상 표현과 참조 표현 사이의 비교에 기초하여 자율 유도 차량 자세 및 위치의 분산을 식별하고, 그 분산에 기초하여 물리적 특성 센서 시스템으로부터 자율 유도 차량 자세 또는 위치 정보를 업데이트 또는 완료하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller identifies a variance of the autonomous guided vehicle attitude and position based on a comparison between the virtual representation and the reference representation, and determines the autonomous guided vehicle attitude or position from the physical characteristic sensor system based on the variance. It is configured to update or complete information.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 식별된 적어도 하나의 이미지의 분산 및 분석 중 적어도 하나에 기초하여 물리적 특성 센서 시스템으로부터의 정보 및 자율 가이드 차량 자세의 충실도 및 물리적 특성 센서 시스템으로부터의 위치 정보의 자세 오류를 결정하고, 자세 오류 및 충실도 중 적어도 하나에 따라 신뢰도 값을 할당하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller may determine the fidelity of the autonomous guided vehicle attitude and the position information from the physical property sensor system and the information from the physical property sensor system based on at least one of the distribution and analysis of the identified at least one image. and determine a posture error of and assign a reliability value based on at least one of posture error and fidelity.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 미리 결정된 임계치 미만의 신뢰 값으로, 제어기는 자세를 대신하여 가상 표현으로부터 생성된 자세 및 위치 정보 및 물리적 특성 센서 시스템으로부터의 위치 정보에 기초하여 자율 유도 차량 네비게이션을 전환하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller determines that, with a confidence value below a predetermined threshold, the controller determines the position of an autonomous guided vehicle based on posture and position information generated from a virtual representation on behalf of the posture and position information from a physical property sensor system. It is configured to switch navigation.

전환 후 개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 다음과 같이 구성된다:In accordance with one or more aspects of the disclosed embodiment after conversion, the controller is configured as follows:

목적지까지 자동 안내 차량 탐색을 계속하거나 자동 안내 차량의 안전 경로 및 자율 가이드 차량을 전환 위치에서 정지를 위한 안전한 위치로 가져오는 궤적을 선택하거나, 또는 Continue navigation of the autonomously guided vehicle to the destination, or select a safe path for the autonomously guided vehicle and a trajectory that will bring the autonomously guided vehicle from the transition position to a safe position for stopping, or

사용자 인터페이스 장치를 통해 자동 작동에서 준자동 작동 또는 수동 작동까지 자율 가이드 차량 제어의 운영자 선택을 위한 목적지 및 자동 가이드 차량 운동학적 데이터를 식별하는 운영자와의 통신을 시작한다.Initiates communication with the operator through a user interface device identifying a destination and autonomous guided vehicle kinematic data for operator selection of autonomous guided vehicle control from automatic operation to semi-autonomous operation or manual operation.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 가상 표현과 참조 표현 사이의 비교에 기초하여 물리적 특성 센서 시스템으로부터 컨트롤러에 의해 등록된 페이로드 자세 및 위치 정보를 확인하도록 구성된다. According to one or more aspects of the disclosed embodiments, the controller is configured to verify payload attitude and position information registered by the controller from a physical characteristic sensor system based on a comparison between the virtual representation and the reference representation.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 가상 표현과 참조 표현 사이의 비교에 기초하여 페이로드 자세 및 위치의 분산을 식별하고, 분산에 기초하여 물리적 특성 센서 시스템으로부터 페이로드 자세 또는 위치 정보를 업데이트 또는 완료하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, a controller identifies a variance in payload pose and position based on a comparison between a virtual representation and a reference representation and updates payload pose or position information from a physical characteristic sensor system based on the variance. or configured to complete.

개시된 실시예의 하나 이상의 측에 따라, 제어기는 적어도 하나의 이미지의 식별된 분산 및 분석 중 적어도 하나에 기초하여 물리적 특성 센서 시스템으로부터의 정보 및 페이로드 자세의 충실도 및 물리적 특성 센서 시스템으로부터의 위치 정보의 자세 에러를 결정하고, 자세 에러 및 충실도 중 적어도 하나에 따라 신뢰도 값을 할당하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller may be configured to determine the fidelity of the payload pose and location information from the physical property sensor system based on at least one of the identified distribution and analysis of the at least one image. It is configured to determine a posture error and assign a reliability value based on at least one of posture error and fidelity.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 미리 결정된 임계치 미만의 신뢰도 값으로, 컨트롤러는 자세를 대신하여 가상 표현으로부터 생성된 위치 정보 및 물리적 특성 센서 시스템으로부터의 위치 정보에 기초하여 자율 가이드 차량 페이로드 핸들링을 전환하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller may, with a confidence value below a predetermined threshold, determine the autonomous guided vehicle payload based on location information generated from a virtual representation on behalf of the posture and location information from a physical property sensor system. It is configured to switch handling.

전환 후 개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 다음과 같이 구성된다:In accordance with one or more aspects of the disclosed embodiment after conversion, the controller is configured as follows:

목적지까지 자동 안내 차량 핸들링을 계속하거나, Continue handling the self-guided vehicle to your destination, or

사용자 인터페이스 장치를 통해 자동 페이로드 처리 작업에서 준자동 페이로드 처리 작업 또는 수동 페이로드 처리 작업까지 자율 가이드 차량 제어의 운영자 선택과 함께 페이로드 데이터를 식별하는 운영자와의 통신을 시작한다.The user interface device initiates communication with the operator identifying payload data along with operator selection of autonomous guided vehicle control from automatic payload processing operations to semi-autonomous payload processing operations or manual payload processing operations.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 컨트롤러 및 오퍼레이터 인터페이스를 통신 가능하게 결합하는 무선 통신 시스템을 통해, 오퍼레이터에게 증강 현실 이미지를 실시간으로 제시하는 참조 프레젠테이션의 하나 이상의 대응하는 참조 프레젠테이션의 가상 표현 및 하나 이상의 대응하는 참조 사전 결정 특징을 결합하는 시뮬레이션 이미지를 전송하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, a controller may include a virtual representation of one or more corresponding reference presentations of the reference presentation to present augmented reality images in real time to the operator via a wireless communication system communicatively coupling the controller and the operator interface; and transmit a simulated image combining one or more corresponding reference predetermined features.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 실시간 오퍼레이터 명령들을 상기 실시간 증강 현실 이미지에 응답하는 상기 자율 가이드 차량으로 수신하도록 구성되고, 상기 명령들은 상기 오퍼레이터에게 전송되는 상기 실시간 증강 현실 이미지의 변화를 가져온다.In accordance with one or more aspects of the disclosed embodiments, a controller is configured to receive real-time operator commands to the autonomous guided vehicle responsive to the real-time augmented reality image, the commands resulting in changes to the real-time augmented reality image transmitted to the operator. .

개시된 실시예의 하나 이상의 측면에 따르면, 보조 센서 시스템은 자율 가이드 차량에 탑재된 케이스 장치의 즉각적 정렬(justification) 및/또는 분류에 적어도 부분적으로 영향을 미친다.According to one or more aspects of the disclosed embodiments, the auxiliary sensor system at least partially effects immediate justification and/or classification of case devices mounted on an autonomous guided vehicle.

개시된 실시예의 하나 이상의 측면에 따라, 보조 센서 시스템으로부터, 보조 차량 네비게이션 자세 또는 위치, 보조 차량 네비게이션 자세 또는 위치, 및 보조 차량 네비게이션 자세 또는 위치 중 하나 이상을 통해, 보조 차량 네비게이션 자세 또는 위치, 및 보조 차량 네비게이션 자세 또는 위치 중 하나 이상의 차량 네비게이션 자세 또는 위치, 및 보조 차량 네비게이션 자세 또는 위치 정보 중 하나 이상의 보조 차량의 페이로드 자세 또는 위치 해상도를 향상시키도록, 주변 설비 특징 및 인터페이스 설비 특징 중 하나 이상의 기준 모델에 적용되는 것을 특징으로 한다.According to one or more aspects of the disclosed embodiments, an auxiliary vehicle navigation attitude or position, and assist, from an auxiliary sensor system, via one or more of an auxiliary vehicle navigation attitude or position, an auxiliary vehicle navigation attitude or position, and an auxiliary vehicle navigation attitude or position. One or more of the vehicle navigation attitude or position, and one or more of the auxiliary vehicle navigation attitude or position information, to improve the resolution of the payload attitude or position of the auxiliary vehicle, one or more criteria of peripheral facility features and interface facility features It is characterized by being applied to the model.

개시된 실시예의 하나 이상의 측면에 따르면, 방법은 다음을 포함한다:According to one or more aspects of the disclosed embodiments, the method includes:

다음을 갖춘 자율 가이드 차량을 제공한다:We provide self-guided vehicles equipped with:

페이로드 홀드를 갖는 프레임,A frame with a payload hold,

횡단 표면에서 차량을 지지하는 주행 휠을 갖는 프레임에 결합되고, 상기 주행 휠은 시설 내 횡단 표면 위로 자동 안내 차량을 이동시키는 횡단 표면에서 차량 횡단에 영향을 미치는 구동 섹션;a drive section coupled to a frame having running wheels that support a vehicle on the crossing surface, the driving wheels effecting vehicle crossing on the crossing surface to move an automatically guided vehicle over the crossing surface within the facility;

저장 어레이에서, 페이로드 홀드에 안착된 평평한 비결정적 안착 표면 및 페이로드의 저장 위치를 갖는, 페이로드를 전송하도록 구성된 프레임에 결합된 페이로드 핸들러; In a storage array, a payload handler coupled to a frame configured to transmit a payload, the payload handler having a flat, non-deterministic seating surface seated on the payload hold and a storage location for the payload;

전자기 센서들을 갖는 프레임에 연결된 물리적 특성 센서 시스템으로서, 각각 물리적 특성을 갖는 전자기 빔 또는 필드를 방출 또는 생성하는 센서의 상호작용 또는 인터페이스에 반응하고, 물리적 특성과의 상호작용 또는 인터페이스에 의해 전자기 빔 또는 필드가 교란되고, 물리적 특성의 전자기 센서에 의해 감지되고 감지되는 교란은 물리적 특성의 전자기 센서에 의해 감지되고 영향을 미치며, 물리적 특성 센서 시스템은 차량의 네비게이션 자세(Vehicle navigation pose) 또는 위치 정보 및 페이로드 자세 또는 위치 정보 중 적어도 하나를 포함하는 센서 데이터를 생성하도록 구성되는, 물리적 특성 센서 시스템; 및 A physical property sensor system connected to a frame having electromagnetic sensors, each responsive to the interaction or interface of the sensor to emit or generate an electromagnetic beam or field having a physical property, and to cause the electromagnetic beam or field to be emitted or generated by the interaction or interface with the physical property. The field is disturbed, and the disturbance is sensed and affected by electromagnetic sensors of a physical nature, and the physical sensor system detects and affects the vehicle's navigation pose or location information and a physical characteristic sensor system configured to generate sensor data including at least one of load posture or position information; and

프레임에 연결되고, 물리적 특성 센서 시스템을 보완하고, 적어도 부분적으로, 차량의 네비게이션 자세, 위치 및 페이로드 자세 또는 물리적 특성 센서 시스템의 정보를 보완하는 위치 중 적어도 하나를 알려주는 이미지 데이터를 캡처하도록 배치된 카메라를 구비한 비전 시스템인 보조 센서 시스템을 포함한다.Coupled to the frame, complementary to the physical characteristic sensor system, and arranged to capture image data that is indicative, at least in part, of the vehicle's navigation attitude, position, and payload attitude or position complementary to information from the physical characteristic sensor system. It includes an auxiliary sensor system, which is a vision system equipped with a camera.

개시된 실시예의 하나 이상의 측면에 따른 방법은 물리적 특성 센서 시스템의 차량 자세 및 설비를 횡단하는 자율 유도 차량의 독립적인 안내에 영향을 미치는 위치의 정보로부터 제어기를 결정하는 단계를 더 포함하고, 제어기는 프레임에 연결되고 구동 구간 또는 페이로드 핸들러에 작동 가능하게 연결되며, 물리적 특성 센서 시스템에 통신 가능하게 연결되는 것을 특징으로 한다.A method according to one or more aspects of the disclosed embodiments further comprises the step of determining a controller from information of the physical characteristic sensor system's vehicle attitude and position affecting independent guidance of the autonomous guided vehicle traversing the facility, wherein the controller determines a frame and operably connected to a drive section or payload handler and communicatively connected to a physical property sensor system.

개시된 실시예의 하나 이상의 측면에 따른 방법은 물리적 특성 센서 시스템 페이로드 자세의 정보로부터 결정하고, 저장 위치에 대한 페이로드의 독립적인 언더픽 및 위치 및 저장 위치 및 페이로드 홀드 내의 페이로드의 독립적인 언더픽 및 위치에 영향을 미치는 위치를 더 포함한다.A method according to one or more aspects of the disclosed embodiments includes determining from information of a physical characteristic sensor system payload pose, independent underpick and location of the payload relative to a storage location and independent underpick and location of the payload within the storage location and payload hold. It further includes positions that influence picks and positions.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 자율 가이드 차량에 의해 횡단되는 시설의 적어도 일부를 정의하는 미리 결정된 특징의 참조 표현으로 프로그래밍된다.According to one or more aspects of the disclosed embodiments, the controller is programmed with a reference representation of predetermined features that define at least a portion of the facility to be traversed by the autonomous guided vehicle.

개시된 실시예의 하나 이상의 측면에 따라, 상기 방법은 상기 컨트롤러에, 상기 캡처된 이미지 데이터를 등록하고 상기 미리 결정된 특징들의 하나 이상의 특징들의 적어도 하나의 이미지로부터 생성하는 단계를 더 포함하고, 상기 적어도 하나의 이미지는 상기 참조 표현의 미리 결정된 특징들의 하나 이상의 대응하는 참조와 비교를 제공하도록 상기 하나 이상의 미리 결정된 특징들의 가상 표현으로서 포맷팅된다.According to one or more aspects of the disclosed embodiment, the method further comprises registering the captured image data with the controller and generating from at least one image of one or more of the predetermined features, the at least one The image is formatted as a virtual representation of the one or more predetermined features to provide comparison with one or more corresponding references of the predetermined features of the reference representation.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 이미지화된 하나 이상의 특징부들의 가상 표현이 자율 가이드 차량 상에서 상주하도록 구성되고, 하나 이상의 이미지화된 소정 특징부들의 가상 표현과 하나 이상의 대응하는 기준 소정 특징부들 사이의 비교가 자율 가이드 차량 상에서 상주하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller is configured to cause a virtual representation of one or more imaged features to reside on the autonomous guided vehicle, wherein the virtual representation of the one or more imaged features and the one or more corresponding reference features are configured to reside on the autonomous guided vehicle. The comparison of is configured to reside on the autonomous guided vehicle.

개시된 실시예의 하나 이상의 측면에 따른 방법은 가상 표현과 참조 표현 사이의 비교에 기초하여 물리적 특성 센서 시스템으로부터 컨트롤러에 의해 등록된 자율 유도 차량 자세 및 위치 정보를 컨트롤러와 확인하는 단계를 더 포함한다. A method according to one or more aspects of the disclosed embodiments further includes confirming with the controller autonomous guided vehicle attitude and position information registered by the controller from the physical characteristic sensor system based on a comparison between the virtual representation and the reference representation.

개시된 실시예의 하나 이상의 측면에 따른 방법은 컨트롤러와 함께, 가상 표현과 참조 표현 사이의 비교에 기초하여 자율 유도 차량 자세 및 위치의 분산을 식별하고, 분산에 기초하여 물리적 특성 센서 시스템으로부터 자율 유도 차량 자세 또는 위치 정보를 업데이트 또는 완료하는 단계를 더 포함한다.A method according to one or more aspects of the disclosed embodiments includes, with a controller, identifying a variance of an autonomous guided vehicle attitude and position based on a comparison between a virtual representation and a reference representation, and determining the autonomous guided vehicle posture from a physical property sensor system based on the variance. Or, it further includes updating or completing location information.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 식별된 적어도 하나의 이미지의 분산 및 분석 중 적어도 하나에 기초하여 물리적 특성 센서 시스템으로부터의 정보 및 자율 가이드 차량 자세 및 위치 정보의 충실도를 결정하고, 자세 오류 및 충실도 중 적어도 하나에 따라 신뢰도 값을 할당하는 것을 특징으로 한다.In accordance with one or more aspects of the disclosed embodiments, the controller determines the fidelity of the autonomous guided vehicle attitude and position information and information from the physical property sensor system based on at least one of the distribution and analysis of the identified at least one image, and determines the attitude error. and assigning a reliability value according to at least one of fidelity.

개시된 실시예의 하나 이상의 측면에 따라, 미리 결정된 임계치 미만의 신뢰도 값에 기초하여, 컨트롤러는 자세를 대신하여 가상 표현으로부터 생성된 자세 및 위치 정보 및 물리적 특성 센서 시스템으로부터의 위치 정보에 기초하여 자율 유도 차량 네비게이션을 전환하는 것을 특징으로 한다.According to one or more aspects of the disclosed embodiments, based on a confidence value below a predetermined threshold, the controller determines the autonomous guided vehicle It is characterized by switching navigation.

전환 후 개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 다음과 같이 구성된다:In accordance with one or more aspects of the disclosed embodiment after conversion, the controller is configured as follows:

목적지까지 자율 가이드 차량 탐색을 계속하거나 자동 안내 차량의 안전 경로 및 자동 안내 차량을 전환 위치에서 종료를 위한 안전한 위치로 가져오는 궤적을 선택하거나, 또는 Continue navigation of the autonomous guided vehicle to the destination, or select a safe path for the autonomous guided vehicle and a trajectory that will bring the autonomous guided vehicle from the transition location to a safe location for termination, or

사용자 인터페이스 장치를 통해 자동 작동에서 준자동 작동 또는 수동 작동까지 자율 가이드 차량 제어의 운영자 선택을 위한 자율 가이드 차량 운동학적 데이터 및 목적지를 식별하는 운영자와의 통신을 시작한다.Initiates communication with the operator, through a user interface device, identifying the destination and autonomous guided vehicle kinematic data for operator selection of autonomous guided vehicle control from automatic operation to semi-autonomous operation or manual operation.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 가상 표현과 기준 표현 간의 비교에 기초하여 물리적 특성 센서 시스템으로부터 컨트롤러에 의해 등록된 페이로드 자세 및 위치 정보를 확인한다. According to one or more aspects of the disclosed embodiments, the controller verifies payload attitude and position information registered by the controller from a physical characteristic sensor system based on a comparison between the virtual representation and the reference representation.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 가상 표현과 참조 표현 사이의 비교에 기초하여 페이로드 자세 및 위치의 분산을 식별하고, 분산에 기초하여 물리적 특성 센서 시스템으로부터 페이로드 자세 또는 위치 정보를 업데이트 또는 완료하는 것을 특징으로 한다.In accordance with one or more aspects of the disclosed embodiments, a controller identifies a variance in payload pose and position based on a comparison between a virtual representation and a reference representation and updates payload pose or position information from a physical characteristic sensor system based on the variance. or is characterized by completion.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 식별된 적어도 하나의 이미지의 분산 및 분석 중 적어도 하나에 기초하여 물리적 특성 센서 시스템으로부터의 정보 및 페이로드 자세의 충실도 및 물리적 특성 센서 시스템으로부터의 위치 정보의 자세 에러를 결정하고, 자세 에러 및 충실도 중 적어도 하나에 따라 신뢰도 값을 할당하는 것을 특징으로 한다.In accordance with one or more aspects of the disclosed embodiments, the controller may determine the fidelity of the information and payload attitude from the physical property sensor system and the position information from the physical property sensor system based on at least one of the distribution and analysis of the at least one image identified. Determining the posture error and assigning a reliability value based on at least one of the posture error and fidelity.

개시된 실시예의 하나 이상의 측면에 따라, 미리 결정된 임계치 미만의 신뢰도 값에 기초하여, 컨트롤러는 자세를 대신하여 가상 표현으로부터 생성된 자세 및 위치 정보 및 물리적 특성 센서 시스템으로부터의 위치 정보에 기초하여 자율 유도 차량 페이로드 핸들링을 전환한다.According to one or more aspects of the disclosed embodiments, based on a confidence value below a predetermined threshold, the controller determines the autonomous guided vehicle Switch payload handling.

전환 후 개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 다음과 같이 구성된다:In accordance with one or more aspects of the disclosed embodiment after conversion, the controller is configured as follows:

목적지까지 자동 안내 차량 핸들링을 계속하거나, Continue handling the self-guided vehicle to your destination, or

사용자 인터페이스 장치를 통해 자동 페이로드 처리 작업에서 준자동 페이로드 처리 작업 또는 수동 페이로드 처리 작업까지 자율 가이드 차량 제어의 운영자 선택과 함께 페이로드 데이터를 식별하는 운영자와의 통신을 시작한다.The user interface device initiates communication with the operator identifying payload data along with operator selection of autonomous guided vehicle control from automatic payload processing operations to semi-autonomous payload processing operations or manual payload processing operations.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 컨트롤러와 오퍼레이터 인터페이스를 통신 가능하게 결합하는 무선 통신 시스템을 통해, 하나 이상의 이미지화된 소정 특징부의 가상 표현과 오퍼레이터를 실시간으로 증강 현실 이미지와 함께 제시하는 참조 프레젠테이션의 하나 이상의 대응하는 참조 소정 특징부를 결합하는 시뮬레이션 이미지를 송신한다.In accordance with one or more aspects of the disclosed embodiments, a controller provides a virtual representation of one or more imaged features and a reference presentation together with the augmented reality image to the operator in real time via a wireless communication system communicatively coupling the controller and the operator interface. Transmit a simulated image combining certain features with one or more corresponding references.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 실시간 오퍼레이터 명령들을 상기 실시간 증강 현실 이미지에 응답하는 상기 자율 가이드 차량으로 수신하고, 상기 명령들은 상기 오퍼레이터에게 전송되는 상기 실시간 증강 현실 이미지의 변화들을 상기 컨트롤러에 의해 수신한다.In accordance with one or more aspects of the disclosed embodiments, a controller receives real-time operator commands to the autonomous guided vehicle responsive to the real-time augmented reality image, and the commands cause changes in the real-time augmented reality image transmitted to the operator to the controller. Received by.

개시된 실시예의 하나 이상의 측면에 따르면, 적어도 보조 센서 시스템을 갖춘 컨트롤러 효과는 자율 가이드 차량에 탑재된 케이스 장치의 정렬 및/또는 분류를 제공한다.According to one or more aspects of the disclosed embodiments, a controller effect with at least an auxiliary sensor system provides alignment and/or sorting of case devices mounted on an autonomous guided vehicle.

개시된 실시예의 하나 이상의 측면에 따라, 보조 센서 시스템으로부터, 보조 차량 네비게이션 자세 또는 위치, 및 보조 페이로드 자세 또는 위치 중 하나 이상의 보조 정보를 통해, 보조 차량 네비게이션 자세 또는 위치, 및 차량 네비게이션 자세 또는 위치 중 하나 이상의 보조 페이로드 자세 또는 위치 정보 및 페이로드 자세 또는 위치 정보 중 하나 이상의 보조 페이로드 자세 또는 위치 해상도를 향상시키도록, 주변 설비 특징 및 인터페이스 설비 특징 중 하나 이상의 참조 모델에 코팅된다.In accordance with one or more aspects of the disclosed embodiments, one or more of the assistive vehicle navigation attitude or position, and the vehicle navigation attitude or position may be provided via assistive information from an assistive sensor system, one or more of an assistive vehicle navigation attitude or position, and an assistive payload attitude or position. One or more auxiliary payload attitude or position information and one or more of the payload attitude or position information are coated on the reference model to improve the resolution of one or more of the auxiliary payload attitude or position, peripheral facility features and interface facility features.

개시된 실시예의 하나 이상의 측면에 따르면, 자율 가이드 차량은:According to one or more aspects of the disclosed embodiments, an autonomous guided vehicle:

페이로드 홀드를 갖는 프레임;Frame with payload hold;

횡단 표면에서 차량을 지지하는 주행 휠을 갖는 프레임에 결합되고, 상기 주행 휠은 시설 내 횡단 표면 위로 자동 안내 차량을 이동시키는 횡단 표면에서 차량 횡단에 영향을 미치는 구동 섹션;a drive section coupled to a frame having running wheels that support a vehicle on the crossing surface, the driving wheels effecting vehicle crossing on the crossing surface to move an automatically guided vehicle over the crossing surface within the facility;

저장 어레이 내의 차량의 페이로드 홀드 및 페이로드의 저장 위치로 페이로드를 전송하도록 구성된 프레임에 결합된 페이로드 핸들러; a payload handler coupled to the frame configured to hold the payload of the vehicle within the storage array and transfer the payload to a storage location of the payload;

차량과 운영자의 협업을 위해 프레임에 연결된 보조 센서 시스템은, 적어도 차량 자세를 구현하는 감각 데이터와 설비의 차량에 의한 자동 네비게이션을 위한 위치 정보를 수집하도록 구성된 차량 자율 네비게이션/조작 센서 시스템을 보조하고,An auxiliary sensor system connected to the frame for collaboration between vehicle and operator assists a vehicle autonomous navigation/manipulation sensor system configured to collect at least sensory data embodying vehicle attitude and location information for automatic navigation by vehicles of the installation,

상기 보조 센서 시스템은, 적어도 부분적으로, 상기 적어도 하나의 카메라가 상기 설비의 다른 위치에 있는 차량과 함께 상기 설비의 적어도 일부 내에서 물체 및/또는 공간 특징을 알려주는 이미지 데이터를 캡처하도록 배치된 적어도 하나의 카메라를 구비하는 비전 시스템이고, The auxiliary sensor system may, at least in part, be configured such that the at least one camera is arranged to capture image data indicative of objects and/or spatial features within at least a portion of the facility along with vehicles at other locations of the facility. It is a vision system equipped with one camera,

상기 프레임에 연결되고, 상기 보조 센서 시스템에 통신 가능하게 결합되어 상기 적어도 하나의 카메라의 영상 데이터로부터 상기 정보를 등록하고, 상기 컨트롤러는 상기 정보로부터 상기 적어도 하나의 물체 또는 공간 특징의 미리 결정된 물리적 특성의 존재를 결정하고, 이에 응답하여 상기 차량에 대한 운영자 명령을 수신하도록 배치된 협업 차량 상태로 차량을 선택적으로 재구성하여 차량 작동을 지속하도록 하는 것을 특징으로 한다.coupled to the frame and communicatively coupled to the auxiliary sensor system to register the information from image data of the at least one camera, wherein the controller determines a predetermined physical characteristic of the at least one object or spatial feature from the information. Determining the presence of and, in response, selectively reconfiguring the vehicle into a cooperative vehicle state arranged to receive operator commands for the vehicle to continue vehicle operation.

개시된 실시예의 하나 이상의 측면에 따라, 미리 결정된 물리적 특성은 적어도 하나의 물체 또는 공간 특징이 횡방향 표면, 횡방향 표면을 가로질러 또는 차량의 공간을 통해 차량 횡단 경로 또는 횡단 표면을 횡단하는 다른 차량의 적어도 일부에 걸쳐 연장된다.In accordance with one or more aspects of the disclosed embodiments, the predetermined physical characteristics are such that at least one object or spatial feature is characterized by a lateral surface, a vehicle crossing path across the lateral surface, or through the space of the vehicle, or that of another vehicle crossing the traversing surface. extends over at least part of it.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 차량이 통과하는 시설을 적어도 부분적으로 정의하는 미리 결정된 특징의 참조 표현으로 프로그래밍된다.According to one or more aspects of the disclosed embodiments, a controller is programmed with a reference representation of predetermined characteristics that at least partially define a facility through which a vehicle passes.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 캡처된 이미지 데이터를 등록하고 그로부터 미리 결정된 물리적 특성을 나타내는 적어도 하나의 물체 또는 공간 특징의 적어도 하나의 이미지를 생성하도록 구성된다.According to one or more aspects of the disclosed embodiments, the controller is configured to register captured image data and generate therefrom at least one image of at least one object or spatial feature representing predetermined physical characteristics.

개시된 실시예의 하나 이상의 측면에 따라, 적어도 하나의 이미지는 참조 표현의 미리 결정된 특징들의 하나 이상의 참조 특징들과 비교를 제공하도록 적어도 하나의 물체 또는 공간 특징의 가상 표현으로서 포맷된다.In accordance with one or more aspects of the disclosed embodiments, the at least one image is formatted as a virtual representation of at least one object or spatial feature to provide comparison with one or more reference features of predetermined features of the reference representation.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 가상 표현과 참조 표현 사이의 비교에 기초하여 물체 또는 공간 특징의 사전 결정된 물리적 특성의 존재를 식별하고, 미리 설정된 물리적 특성을 기반으로 하고, 비교를 통해 결정된 물체의 위치나 공간적 특징을 기반으로 미리 설정된 궤적에서 차량이 정지하도록 명령한다.According to one or more aspects of the disclosed embodiments, the controller may identify the presence of a predetermined physical characteristic of an object or spatial feature based on a comparison between the virtual representation and the reference representation, and based on the preset physical characteristic, determine the presence of a predetermined physical characteristic of the object or spatial feature based on the comparison between the virtual representation and the reference representation. The vehicle is commanded to stop on a preset trajectory based on the location or spatial characteristics of the object.

개시된 실시예의 하나 이상의 측면에 따라, 미리 결정된 궤적에서의 정지 위치는 적어도 하나의 카메라의 시야 내에서 물체 또는 공간 참조를 유지하고 미리 결정된 물리적 특성의 지속적인 이미징을 수행하고, 교통 장애물, 회피할 영역, 또는 우회 영역 중 하나 이상의 다른 차량에 신호를 개시한다.According to one or more aspects of the disclosed embodiments, the stopping position on the predetermined trajectory maintains an object or spatial reference within the field of view of the at least one camera and performs continuous imaging of predetermined physical characteristics, such as traffic obstacles, areas to avoid, etc. or initiate a signal to one or more other vehicles in the detour area.

개시된 실시예의 하나 이상의 측면에 따라, 미리 결정된 물리적 특성은 보정되고 차량에 대해 미리 결정된 관계를 갖는 적어도 하나의 카메라의 기준 프레임 내 및 적어도 하나의 카메라의 기준 프레임 내의 물체 자세로부터 물체의 위치를 결정함으로써, 컨트롤러에 의해 결정되는, 미리 결정된 물리적 특성의 존재를 결정한다.According to one or more aspects of the disclosed embodiments, the predetermined physical characteristics are calibrated and by determining a position of the object within a frame of reference of at least one camera having a predetermined relationship to the vehicle and from an object pose within the frame of reference of the at least one camera. , which determines the presence of predetermined physical properties, which are determined by the controller.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는, 존재의 식별 및 자율 상태로부터 협업 차량 상태로의 전환이, 컨트롤러가 차량의 오퍼레이터 협업 동작을 위한 오퍼레이터 인터페이스로의 전송 통신 이미지, 미리 결정된 물리적 특성의 존재의 식별을 개시하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller may be configured to: identify the presence and transition from an autonomous state to a collaborative vehicle state, where the controller transmits communication images to an operator interface for operator collaborative operation of the vehicle, the presence of predetermined physical characteristics; It is configured to initiate identification.

개시된 실시예의 하나 이상의 측면에 따라, 제어기는 궤적을 따른 자율 유도 차량의 움직임이 물체들 및/또는 공간 특징부들의 위치와 조정되는 미리 결정된 시간 기간 내에 자율 유도 차량을 제로 속도로 가져오는 궤적을 자율 유도 차량에 적용하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller can autonomously create a trajectory that brings the autonomous guided vehicle to zero speed within a predetermined time period where the movement of the autonomous guided vehicle along the trajectory is coordinated with the positions of objects and/or spatial features. It is configured to be applied to guided vehicles.

개시된 실시예의 하나 이상의 측면에 따르면, 물체 및/또는 공간적 특징을 알려주는 이미지 데이터의 캡처는 차량의 페이로드 홀드 또는 저장 어레이의 저장 위치로/로부터 페이로드를 전송하는 동안 기회를 가진다.According to one or more aspects of the disclosed embodiments, the capture of image data indicative of object and/or spatial features is an opportunity during payload hold of a vehicle or transfer of the payload to/from a storage location in a storage array.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 하나 이상의 미리 결정된 페이로드 자동 전송 작업을 수행하는 차량과 관련된 시설의 다른 위치로 차량에 명령을 내리도록 프로그램되어 있으며, 여기서 하나 이상의 미리 결정된 페이로드 자율 전송 작업은 적어도 하나의 카메라가 서로 다른 위치에서 본 캡처 이미지 데이터와는 별개의 별개 작업이다.According to one or more aspects of the disclosed embodiments, a controller is programmed to command a vehicle to another location in a facility associated with the vehicle to perform an autonomous transfer of one or more predetermined payloads, wherein the controller performs an autonomous transfer of one or more predetermined payloads. A task is a separate task that captures image data viewed from different locations by at least one camera.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 적어도 하나의 물체 또는 공간 특징의 미리 결정된 물리적 특성의 존재의 결정이 적어도 부분적으로 일치하지만, 하나 이상의 미리 결정된 페이로드 자동 전송 태스크들 각각에 영향을 미치는 차량 액션들에 대한 보충적이고 주변적인 것이 되도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller determines the presence of a predetermined physical characteristic of at least one object or spatial feature that is at least partially consistent with the vehicle's ability to affect each of one or more predetermined payload automatic transfer tasks. It is structured to be complementary and peripheral to the actions.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 적어도 하나의 물체 또는 공간 특징의 미리 결정된 물리적 특성의 존재의 결정이, 하나 이상의 미리 결정된 페이로드 자동 전송 태스크들 각각에 영향을 미치는 차량 액션들에 기회주의적이 되도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller may determine that the presence of a predetermined physical characteristic of at least one object or spatial feature opportunistically determines vehicle actions that affect each of the one or more predetermined payload automatic transfer tasks. It is configured to do this.

개시된 실시예의 하나 이상의 측면에 따르면, 하나 이상의 미리 결정된 페이로드 자동 전송 작업 중 적어도 하나는 서로 다른 위치 중 적어도 하나에서 수행된다.According to one or more aspects of the disclosed embodiments, at least one of the one or more predetermined automatic payload transfer operations is performed at at least one of the different locations.

개시된 실시예의 하나 이상의 측면에 따르면, 협력 차량 상태는 하나 이상의 미리 결정된 페이로드 자동 전송 작업 각각에 영향을 미치는 차량의 자율 상태를 보조한다.According to one or more aspects of the disclosed embodiments, the cooperative vehicle state assists the autonomous state of the vehicle in influencing each of one or more predetermined autonomous payload transfer tasks.

개시된 실시예의 하나 이상의 측면에 따르면, 방법은 다음을 포함한다:According to one or more aspects of the disclosed embodiments, the method includes:

다음을 갖춘 자율 가이드 차량을 제공한다:We provide self-guided vehicles equipped with:

페이로드 홀드를 갖는 프레임;Frame with payload hold;

횡단 표면에서 차량을 지지하는 주행 휠을 갖는 프레임에 결합되고, 상기 주행 휠은 시설 내 횡단 표면 위로 차량을 이동시키는 횡단 표면에서 차량 횡단에 영향을 미치는 구동 섹션;a drive section coupled to a frame having running wheels that support a vehicle on the crossing surface, the driving wheels effecting vehicle crossing on the crossing surface to move the vehicle over the crossing surface within the facility;

저장 어레이에서 차량의 페이로드 홀드와 페이로드의 저장 위치 사이로 페이로드를 전송하도록 구성된 프레임에 연결된 페이로드 핸들러; a payload handler coupled to the frame configured to transfer the payload between the vehicle's payload hold and a storage location for the payload in the storage array;

차량 및 운영자의 협업을 위해 프레임에 연결된 보조 센서 시스템을 이용하여, 적어도 하나의 카메라가 시설 내의 서로 다른 위치에 있는 차량과 함께 보는 시설의 적어도 일부 내의 물체 및/또는 공간 특징을 알리는 이미지 데이터를 생성하는 단계; 및 상기 보조 센서 시스템은 적어도 부분적으로, 이미지 데이터를 캡처하도록 배치된 적어도 하나의 카메라를 포함하는 비전 시스템이고, 상기 보조 센서 시스템은 적어도 부분적으로, 상기 시설의 차량에 의한 자동 네비게이션을 위한 차량 자세 및 위치 정보를 구현하는 검출 데이터를 수집하도록 구성된 차량 자율 네비게이션/작동 센서 시스템;을 포함하고, Using an auxiliary sensor system coupled to the frame for vehicle and operator collaboration, at least one camera generates image data informing objects and/or spatial features within at least a portion of the facility as viewed with vehicles at different locations within the facility. steps; and the auxiliary sensor system is, at least in part, a vision system comprising at least one camera arranged to capture image data, and the auxiliary sensor system is at least in part a vehicle attitude and A vehicle autonomous navigation/actuation sensor system configured to collect detection data embodying location information;

프레임에 연결되고 보조 센서 시스템에 통신 가능하게 결합된 컨트롤러에 등록하고, 적어도 하나의 카메라의 이미지 데이터로부터의 정보를 등록하는 단계; 및registering with a controller coupled to the frame and communicatively coupled to the auxiliary sensor system, and registering information from image data of the at least one camera; and

컨트롤러를 이용하여, 상기 정보로부터, 적어도 하나의 물체 또는 공간 특징의 미리 결정된 물리적 특성의 존재를 판단하고, 이에 응답하여, 차량을 자율 상태로부터 차량에 대한 운영자 명령을 수신하도록 배치된 협업 차량 상태로 선택적으로 재구성하여 차량 작동을 계속 효과적으로 유지하는 단계를 포함한다.Using the controller, determine from the information the presence of a predetermined physical characteristic of at least one object or spatial feature, and in response thereto, move the vehicle from an autonomous state to a collaborative vehicle state arranged to receive operator commands for the vehicle. and selectively reconfiguring the vehicle to continue to operate effectively.

개시된 실시예의 하나 이상의 측면에 따라, 미리 결정된 물리적 특성은 적어도 하나의 물체 또는 공간 특징이 횡단 표면, 횡단 표면을 가로질러 또는 차량의 공간을 통해 차량 횡단 경로 또는 횡단 표면을 횡단하는 다른 차량의 적어도 일부에 걸쳐 연장된다.In accordance with one or more aspects of the disclosed embodiments, the predetermined physical characteristic is at least one object or spatial feature that determines whether at least one object or spatial feature is present in a vehicle crossing path or at least a portion of another vehicle crossing the crossing surface, across the crossing surface, or through the space of the vehicle. extends across.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 차량이 통과하는 시설을 적어도 부분적으로 정의하는 미리 결정된 특징의 참조 표현으로 프로그래밍된다.According to one or more aspects of the disclosed embodiments, a controller is programmed with a reference representation of predetermined characteristics that at least partially define a facility through which a vehicle passes.

개시된 실시예의 하나 이상의 측면에 따르면, 방법은 등록된 캡처 이미지 데이터로부터 미리 결정된 물리적 특성을 보여주는 적어도 하나의 물체 또는 공간 특징의 적어도 하나의 이미지를 생성하는 단계를 더 포함한다.According to one or more aspects of the disclosed embodiments, the method further includes generating at least one image of at least one object or spatial feature showing predetermined physical characteristics from registered captured image data.

개시된 실시예의 하나 이상의 측면에 따라, 상기 적어도 하나의 이미지는 상기 적어도 하나의 물체 또는 공간 특징부의 가상 표현으로서 포맷되어, 상기 가상 표현을 상기 참조 표현의 미리 결정된 특징부의 하나 이상의 참조 특징부와 비교하는 단계를 더 포함한다.In accordance with one or more aspects of the disclosed embodiments, the at least one image is formatted as a virtual representation of the at least one object or spatial feature, comparing the virtual representation to one or more reference features of the predetermined feature of the reference representation. Includes more steps.

개시된 실시예의 하나 이상의 측면에 따른 방법은 가상 표현과 참조 표현 사이의 비교에 기초하여, 물체 또는 공간 특징의 미리 결정된 물리적 특징의 존재를 제어기로 식별하고, 미리 결정된 물리적 특징의 치수를 결정하고, 비교로부터 결정된 물체 또는 공간 특징의 위치에 기초하여 미리 결정된 궤적에서 차량이 정지하도록 명령하는 단계를 더 포함한다.A method according to one or more aspects of the disclosed embodiments includes, based on a comparison between a virtual representation and a reference representation, identifying with a controller the presence of a predetermined physical feature of an object or spatial feature, determining dimensions of the predetermined physical feature, and comparing and commanding the vehicle to stop on a predetermined trajectory based on the location of the object or spatial feature determined from.

개시된 실시예의 하나 이상의 측면에 따른 방법은 차량이 미리 결정된 궤적 내의 정지 위치에 있는 상태에서, 적어도 하나의 카메라의 시야 내에 물체 또는 공간 참조를 유지하고 미리 결정된 물리적 특성의 계속된 이미징을 수행하여, 교통 장애물, 회피할 영역, 또는 우회 영역 중 적어도 하나 이상의 다른 차량에 신호를 개시하는 단계를 더 포함한다.A method according to one or more aspects of the disclosed embodiments includes maintaining an object or spatial reference within the field of view of at least one camera and performing continued imaging of predetermined physical characteristics, with the vehicle at a resting position within a predetermined trajectory, It further includes initiating a signal to another vehicle in at least one of an obstacle, an area to be avoided, or a detour area.

개시된 실시예의 하나 이상의 측면에 따라, 미리 결정된 물리적 특성은 캘리브레이션되고 차량에 대해 미리 결정된 관계를 갖는 적어도 하나의 카메라의 기준 프레임 내의 물체의 위치를 결정하고, 적어도 하나의 카메라의 기준 프레임 내의 물체 자세로부터 물체의 미리 결정된 물리적 특성의 존재를 결정함으로써 컨트롤러에 의해 결정된다.According to one or more aspects of the disclosed embodiments, the predetermined physical characteristics are calibrated and determine a position of the object within a frame of reference of at least one camera having a predetermined relationship to the vehicle, and determine a position of the object within the frame of reference of the at least one camera. The decision is made by the controller by determining the presence of predetermined physical characteristics of the object.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는, 적어도 하나의 물체 또는 공간 특징의 미리 결정된 물리적 특성의 존재의 식별 및 자율 상태로부터 협업 차량 상태로 전환되도록, 차량의 운영자 협업 동작을 위한 운영자 인터페이스로의 전송 통신 이미지, 미리 결정된 물리적 특성의 존재의 식별을 개시하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, a controller may be configured to: identify the presence of a predetermined physical characteristic of at least one object or spatial feature and transfer information from an autonomous state to a collaborative vehicle state to an operator interface for operator collaborative operation of the vehicle; The transmitted communication image is configured to initiate identification of the presence of predetermined physical characteristics.

개시된 실시예의 하나 이상의 측면에 따른 방법은, 컨트롤러와 함께, 미리 결정된 시간 기간 내에 자율 유도 차량을 제로 속도로 가져오는 자율 유도 차량에 궤적을 적용하는 단계를 더 포함하고, 여기서 궤적을 따른 자율 유도 차량의 움직임은 물체들 및/또는 공간 특징부들의 위치와 조정된다.A method according to one or more aspects of the disclosed embodiments further includes applying, with a controller, a trajectory to the autonomous guided vehicle to bring the autonomous guided vehicle to zero speed within a predetermined time period, wherein the autonomous guided vehicle follows the trajectory. The movement of is coordinated with the positions of objects and/or spatial features.

개시된 실시예의 하나 이상의 측면에 따르면, 물체 및/또는 공간적 특징을 알려주는 이미지 데이터의 캡처는 차량의 페이로드 홀드 또는 저장 어레이의 저장 위치로/저장 위치로부터 페이로드를 전송하는 동안 기회를 가진다.According to one or more aspects of the disclosed embodiments, the capture of image data indicative of object and/or spatial features is an opportunity during payload hold of the vehicle or transfer of the payload to/from a storage location in a storage array.

개시된 실시예의 하나 이상의 측면에 따르면, 자율 가이드 차량은:According to one or more aspects of the disclosed embodiments, an autonomous guided vehicle:

전원 공급 장치가 장착된 차량 섀시와 섀시에 연결되고 전원 공급 장치에 의해 각각 전원이 공급되는 전원 섹션은 다음을 포함한다.The vehicle chassis on which the power supply is mounted and the power section connected to the chassis and each powered by the power supply include:

차량 섀시를 지지하고 자율 안내를 받는 시설의 횡방향 표면에서 자율 가이드 차량을 횡단하도록 배치된 모터 주행 휠을 갖춘 구동 섹션;a drive section supporting the vehicle chassis and having motorized running wheels arranged to traverse the autonomously guided vehicle on the transverse surface of the autonomously guided facility;

적어도 하나의 페이로드 핸들링 액츄에이터의 작동이 페이로드 베드, 차량 섀시 및 시설 내 저장소로의 페이로드 전달에 영향을 미치도록 구성된 적어도 하나의 페이로드 핸들링 액츄에이터를 갖는 페이로드 핸들링 섹션;a payload handling section having at least one payload handling actuator configured such that operation of the at least one payload handling actuator affects payload delivery to the payload bed, vehicle chassis, and storage within the facility;

자율 자세 및 네비게이션 센서, 페이로드 핸들링 센서 및 적어도 하나의 주변 모터 중 적어도 하나를 포함하고, 상기 적어도 하나의 주변 모터는 상기 구동 섹션의 모터들 각각 및 상기 페이로드 핸들링부의 각 액츄에이터와 별개이고 구별되는, 주변 전자 부품; 및At least one of an autonomous attitude and navigation sensor, a payload handling sensor, and at least one peripheral motor, wherein the at least one peripheral motor is separate and distinct from each of the motors of the drive section and each actuator of the payload handling section. , peripheral electronic components; and

자율 가이드 차량의 각 자율 동작을 효과적으로 수행하기 위해 구동 섹션, 페이로드 핸들링부 및 주변 섹션에 각각 통신 가능하게 결합되는 컨트롤러; 및 상기 컨트롤러는 상기 전원의 충전 레벨을 모니터링하기 위해 상기 전원에 통신 가능하게 연결되는 포괄적인 전원 관리 섹션;를 포함하고, A controller communicatively coupled to the driving section, the payload handling section, and the peripheral section, respectively, to effectively perform each autonomous operation of the autonomous guided vehicle; and a comprehensive power management section, wherein the controller is communicatively coupled to the power source to monitor the charge level of the power source,

상기 종합 전원 관리 섹션은, 상기 전원으로부터 상기 구동 섹션, 상기 페이로드 핸들링 섹션 및 상기 주변 전자 장치 섹션의 각 분기 회로에 연결되어, 상기 전원으로부터 상기 구동 섹션, 상기 페이로드 핸들링 섹션 및 상기 주변 전자 장치 섹션의 각 분기 회로에 전원을 공급받는 것을 특징으로 한다.The comprehensive power management section is connected from the power source to each branch circuit of the drive section, the payload handling section and the peripheral electronic device section, and is connected to the power source to the drive section, the payload handling section and the peripheral electronic device section. It is characterized in that power is supplied to each branch circuit of the section.

개시된 실시예의 하나 이상의 측면에 따른 종합적인 전원 관리 섹션은 다른 분기 회로에 대한 각 분기 회로의 수요 충전 레벨 및 전원 공급 장치로부터 이용 가능한 충전 레벨에 기초하여 각 분기 회로를 온 또는 오프로 전환하는 각 분기 회로의 수요 충전 레벨을 미리 결정된 패턴으로 관리하도록 구성된다.A comprehensive power management section according to one or more aspects of the disclosed embodiments includes each branch switching each branch circuit on or off based on the demand charge level of each branch circuit with respect to the other branch circuits and the charge level available from the power supply. It is configured to manage the demand charge level of the circuit in a predetermined pattern.

개시된 실시예의 하나 이상의 측면에 따라, 소정의 패턴은 전원 공급기로부터 이용가능한 전하 레벨의 감소를 가지는 분기 회로들을 스위치 오프하도록 배열되어, 컨트롤러로 향하는 전원 공급 장치로부터 이용가능한 전하 레벨을 최대화한다.In accordance with one or more aspects of the disclosed embodiments, a pattern is arranged to switch off branch circuits with a reduction in the level of charge available from the power supply, thereby maximizing the level of charge available from the power supply to the controller.

개시된 실시형태의 하나 이상의 측면에 따라, 소정의 패턴은 컨트롤러에 지시되는 가용 전하 레벨이 전원 공급기의 가용 전하 레벨에 기초하여 최대 시간 동안 컨트롤러의 요구 전하 레벨과 동일하거나 초과하도록 전원 공급 장치로부터 가용 전하 레벨의 감소를 갖는 분기 회로들을 스위치 오프하도록 배열된다.In accordance with one or more aspects of the disclosed embodiments, the predetermined pattern is to change the available charge from the power supply such that the available charge level indicated to the controller equals or exceeds the controller's desired charge level for a maximum period of time based on the available charge level of the power supply. It is arranged to switch off the branch circuits with a decrease in level.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 다음 중 적어도 하나를 갖는다: According to one or more aspects of the disclosed embodiments, the controller has at least one of the following:

자율 가이드 차량의 현재 및 예측 상태, 자세 및 위치를 결정하고 설명하는 과거 및 현재의 자율 가이드 차량 상태와 자세 네비게이션 정보를 휘발성 메모리에 등록하고 유지하도록 구성된 자율 네비게이션 제어 섹션; 및 an autonomous navigation control section configured to register and maintain past and present autonomous guided vehicle state and attitude navigation information in volatile memory to determine and describe the current and predicted state, attitude and position of the autonomous guided vehicle; and

휘발성 메모리에 현재 페이로드 아이덴티티, 상태 및 자세 정보(이력 및 현재)를 등록하고 유지하도록 구성된 자동 페이로드 처리 제어 섹션; an automatic payload processing control section configured to register and maintain current payload identity, state, and attitude information (historical and current) in volatile memory;

상기 컨트롤러는, 상기 컨트롤러에 대한 전원 공급으로부터 지시되는 가용 전하 레벨의 임박한 감소의 종합 전원 관리 구간으로부터의 지시에 따라, 상기 컨트롤러의 요구 레벨 미만으로, 상기 컨트롤러는, 상기 자율 가이드 차량의 상태 및 자세 탐색 정보 및 상기 대응하는 컨트롤러 구간의 각각의 레지스트리 및 메모리에 보유된 페이로드 아이덴티티, 상태 및 자세 정보 중 적어도 하나를, 상기 컨트롤러의 재부팅 시 이용 가능한 초기화 파일로 구성한다.The controller, in accordance with an indication from a comprehensive power management section of an impending decrease in the available charge level indicated by the power supply to the controller, below the required level of the controller, the controller determines the state and attitude of the autonomous guided vehicle. At least one of search information and payload identity, status, and attitude information held in each registry and memory of the corresponding controller section is configured as an initialization file that can be used when rebooting the controller.

개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는, 컨트롤러에 대한 전원 공급으로부터 지시되는, 가용 전하 레벨의 임박한 감소의 포괄적인 전원 관리 섹션으로부터의 지시에 따라, 컨트롤러가 동작 정지 및 하이버네이션에 진입하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller is configured to cause the controller to cease operation and enter hibernation upon instructions from the comprehensive power management section of an impending decrease in available charge level, as indicated by a power supply to the controller. .

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 전원 공급 장치에서 드라이브 섹션의 분기 회로로 향하는 사용 가능한 충전 레벨의 임박한 감소를 포괄적인 전원 관리 섹션으로부터 표시할 때, 상기 컨트롤러는 미리 정해진 보조 경로 및 보조 궤적을 따라 (시설 내 미리 정해진 자율 운반차 보조 정지 위치까지) 자율 가이드 차량을 주행하도록 구동 섹션에 명령하도록 구성된다.According to one or more aspects of the disclosed embodiment, when the controller indicates from the comprehensive power management section an impending decrease in the available charge level from the power supply to the branch circuit of the drive section, the controller determines the predetermined secondary path and secondary trajectory. It is configured to command the drive section to drive the autonomous guided vehicle along (to a predetermined autonomous guided vehicle assistance stopping location within the facility).

개시된 실시예의 하나 이상의 측면에 따라, 제어기는, 전원 공급으로부터 페이로드 핸들링 섹션의 분기 회로로 지시되는, 가용 전하 레벨의 임박한 감소의 포괄적인 전원 관리 섹션으로부터의 지시 시에, 컨트롤러는 페이로드 핸들링 액츄에이터, 및 그 위의 임의의 페이로드를 페이로드 베드 내의 미리 결정된 안전한 페이로드 위치로 이동시키도록 페이로드 핸들링 섹션을 명령하도록 구성된다.In accordance with one or more aspects of the disclosed embodiments, the controller is configured to: upon an indication from the comprehensive power management section of an impending decrease in the available charge level directed from the power supply to a branch circuit of the payload handling section, the controller configures the payload handling actuator to: , and instruct the payload handling section to move any payload thereon to a predetermined safe payload location within the payload bed.

개시된 실시예의 하나 이상의 측면에 따르면, 컨트롤러는 다음 중 적어도 하나를 포함한다: According to one or more aspects of the disclosed embodiments, the controller includes at least one of the following:

차량 상태 모니터, vehicle health monitor,

드라이브 섹션 상태 모니터, drive section health monitor,

페이로드 처리 섹션 상태 모니터, 및 payload processing section status monitor, and

주변 전자 장치 섹션 상태 모니터; 그리고 Peripheral electronics section health monitor; and

상태 등록 섹션; 그리고 State registration section; and

상기 컨트롤러는, 상기 컨트롤러에 대한 전원 공급으로부터 상기 컨트롤러의 수요 이하로 지시되는 가용 충전 레벨의 임박한 감소의 종합 전원 관리 구간으로부터의 지시에 따라, 상기 컨트롤러의 재부팅 시에 상기 차량 상태 모니터, 상기 주행 구간 상태 모니터, 상기 페이로드 핸들링 구간 상태 모니터 및 상기 주변 전자 구간 상태 모니터 중 적어도 하나로부터 상기 저장된 상태 정보를 상기 컨트롤러의 초기화 파일로 구성한다.The controller, upon reboot of the controller, monitors the vehicle status, the driving section, upon indication from the comprehensive power management section of an impending decrease in the available charge level indicated by the power supply to the controller below the demand of the controller. The stored status information from at least one of a status monitor, the payload handling section status monitor, and the peripheral electronic section status monitor is configured as an initialization file of the controller.

개시된 실시예의 하나 이상의 측면에 따르면, 전원 공급 장치는 울트라-커패시터이거나, 충전 레벨은 전압 레벨이다.According to one or more aspects of the disclosed embodiments, the power supply is an ultra-capacitor or the charge level is a voltage level.

개시된 실시예의 하나 이상의 측면에 따르면 자율 가이드 차량 전원 관리를 위한 방법이 제공된다. 이 방법은 다음을 포함한다:According to one or more aspects of the disclosed embodiments, a method for autonomous guided vehicle power management is provided. This method includes:

전원 공급 장치가 장착된 차량 섀시와 섀시에 연결되고 각각 전원 공급 장치에 의해 전원이 공급되는 동력 섹션을 갖춘 자율 가이드 차량을 제공하며, 동력 섹션은 다음을 포함한다.It provides an autonomous guided vehicle having a vehicle chassis equipped with a power supply and a power section connected to the chassis and each powered by a power supply, the power section comprising:

차량 섀시를 지지하고 자율 안내를 받는 시설의 횡방향 표면에서 자율 가이드 차량을 횡단하도록 배치된 모터 주행 휠을 갖춘 구동 섹션;a drive section supporting the vehicle chassis and having motorized running wheels arranged to traverse the autonomously guided vehicle on the transverse surface of the autonomously guided facility;

적어도 하나의 페이로드 처리 액츄에이터의 작동이 페이로드 베드, 차량 섀시 및 시설 내 저장소로의 페이로드 전달에 영향을 미치도록 구성된 적어도 하나의 페이로드 처리 액츄에이터를 갖는 페이로드 처리 섹션;a payload handling section having at least one payload handling actuator configured such that operation of the at least one payload handling actuator affects payload delivery to the payload bed, vehicle chassis, and storage within the facility;

자율 자세 및 네비게이션 센서, 페이로드 핸들링 센서 및 적어도 하나의 주변 모터 중 적어도 하나를 포함하고, 상기 적어도 하나의 주변 모터는 상기 구동 섹션의 모터들 각각 및 상기 페이로드 핸들링부의 각 액츄에이터와 별개이고 구별되는, 주변 전자 부품; 및At least one of an autonomous attitude and navigation sensor, a payload handling sensor, and at least one peripheral motor, wherein the at least one peripheral motor is separate and distinct from each of the motors of the drive section and each actuator of the payload handling section. , peripheral electronic components; and

구동 섹션, 페이로드 핸들링 섹션 및 주변 섹션에 각각 통신 가능하게 결합된 컨트롤러를 사용하여 자율 가이드 차량의 각각의 자율 작동을 수행하는 단계; 및performing respective autonomous operations of the autonomous guided vehicle using a controller communicatively coupled to each of the drive section, payload handling section, and peripheral section; and

컨트롤러의 포괄적인 전원 관리 섹션을 통해 전원 공급 장치의 충전 수준을 모니터링하고, 상기 포괄적인 전원 관리 섹션은 구동 섹션, 페이로드 핸들링 섹션, 주변 전자 섹션의 각각의 분기 회로에 연결되어 있고, 각각은 전원 공급 장치로부터 구동 섹션, 페이로드 핸들링 섹션, 그리고 주변 전자 섹션에 전원을 공급하고 상기 포괄적인 전력 관리 섹션은 각 분기 회로의 수요 수준에 따른 전원 공급 장치에서 사용 가능한 충전 수준을 기반으로 가지 회로의 전원 소비를 관리하는 단계를 포함한다.The charge level of the power supply is monitored through a comprehensive power management section of the controller, said comprehensive power management section being connected to each branch circuit of the drive section, payload handling section and peripheral electronics section, each of which is connected to a power supply section. Provides power to the drive section, payload handling section, and peripheral electronics section from the supply unit, and the comprehensive power management section provides power to the branch circuits based on the level of charge available from the power supply depending on the demand level of each branch circuit. It includes steps to manage consumption.

개시된 실시예의 하나 이상의 측면에 따른 종합적인 전원 관리 섹션은 다른 분기 회로에 대한 각 분기 회로의 수요 충전 레벨 및 전원 공급 장치로부터 이용 가능한 충전 레벨에 기초하여 각 분기 회로를 온 또는 오프로 전환하는 각 분기 회로의 수요 충전 레벨을 미리 결정된 패턴으로 관리한다.A comprehensive power management section according to one or more aspects of the disclosed embodiments includes each branch switching each branch circuit on or off based on the demand charge level of each branch circuit with respect to the other branch circuits and the charge level available from the power supply. The demand charge level of the circuit is managed in a predetermined pattern.

개시된 실시예의 하나 이상의 측면에 따라, 소정의 패턴은 전원 공급 장치로부터 이용가능한 전하 레벨의 감소를 가지는 분기 회로들을 스위치 오프하도록 배열되어, 컨트롤러로 향하는 전원 공급 장치로부터 이용가능한 전하 레벨을 최대화한다.In accordance with one or more aspects of the disclosed embodiments, a pattern is arranged to switch off branch circuits with a reduction in the level of charge available from the power supply, thereby maximizing the level of charge available from the power supply to the controller.

개시된 실시예의 하나 이상의 측면에 따르면, 미리 결정된 패턴은 전원 공급 장치로부터의 사용 가능한 충전 레벨이 감소하여 분기 회로를 끄도록 배열되어 컨트롤러로 향하는 사용 가능한 충전 레벨은 다음과 같거나 전원 공급 장치의 사용 가능한 충전 수준을 기준으로 최대 시간 동안 컨트롤러의 수요 충전 수준을 초과한다.According to one or more aspects of the disclosed embodiments, the predetermined pattern is arranged to turn off the branch circuit as the available charge level from the power supply decreases such that the available charge level to the controller is equal to or greater than the available charge level from the power supply. Based on the charge level, the demand charge level of the controller is exceeded for a maximum period of time.

개시된 실시예의 하나 이상의 측면에 따르면, 방법은 다음 중 적어도 하나를 더 포함한다: According to one or more aspects of the disclosed embodiments, the method further includes at least one of the following:

컨트롤러의 자율 네비게이션 제어부를 이용하여, 휘발성 메모리 자율 유도 차량 상태 및 자세 네비게이션 정보(역사 및 현재)를 등록 및 유지하고, 자율 유도 차량의 현재 및 예측 상태, 자세 및 위치를 결정적으로 기술하는 단계; 및 Using the autonomous navigation control portion of the controller, registering and maintaining volatile memory autonomous guided vehicle state and attitude navigation information (historical and current) and conclusively describing the current and predicted state, attitude, and position of the autonomous guided vehicle; and

컨트롤러의 자동 페이로드 처리 제어 섹션을 사용하여 휘발성 메모리에 현재 페이로드 아이덴티티, 상태 및 자세 정보(이력 및 현재)를 등록하고 유지하는 단계;를 포함하고 registering and maintaining current payload identity, state and attitude information (historical and current) in volatile memory using the automatic payload processing control section of the controller;

상기 컨트롤러는, 상기 컨트롤러에 대한 전원 공급으로부터 상기 컨트롤러의 수요 수준 미만으로 지시되는 가용 충전 수준의 임박한 감소를 종합적인 전원 관리 구간으로부터 지시받으면, 상기 컨트롤러는, 상기 자율 가이드 차량 상태 및 자세 네비게이션 정보 및 상기 대응하는 컨트롤러 섹션의 각각의 레지스트리 및 메모리에 보유된 페이로드 아이덴티티, 상태 및 자세 정보 중 적어도 하나를 상기 컨트롤러의 재부팅 시 이용 가능한 초기화 파일로 구성한다.When the controller receives an indication from the comprehensive power management section of an impending decrease in the available charge level indicated by the power supply to the controller below the demand level of the controller, the controller receives the autonomous guided vehicle status and attitude navigation information and At least one of the payload identity, status, and posture information held in each registry and memory of the corresponding controller section is configured as an initialization file that can be used when the controller is rebooted.

개시된 실시예의 하나 이상의 측면에 따르면, 전원 공급 장치에서 컨트롤러로 향하는 사용 가능한 충전 레벨의 임박한 감소를 포괄적인 전원 관리 섹션으로부터 표시할 때 컨트롤러의 요구 레벨보다 낮은 수준으로 컨트롤러는 작동 정지 및 최대 절전 모드로 들어간다.According to one or more aspects of the disclosed embodiments, when the comprehensive power management section indicates an impending decrease in the available charge level from the power supply to the controller, to a level lower than the controller's required level, the controller suspends operation and hibernates. Go in.

가용 전하 레벨의 임박한 감소의 포괄적인 전원 관리 섹션으로부터, 전원 공급으로부터 구동 섹션의 분기 회로로의 지시시에 개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는, 자율 가이드 차량을 소정의 보조 경로 및 보조 궤적을 따라 설비 내의 소정의 자율 가이드 차량 보조 정지 위치로 네비게이션하도록 구동 섹션에 명령한다.In accordance with one or more aspects of the disclosed embodiments, upon indication from the comprehensive power management section of the impending decrease in the available charge level from the power supply to the branch circuit of the drive section, the controller directs the autonomous guided vehicle to predetermined secondary paths and secondary trajectories. Commands the drive section to navigate to a predetermined autonomous guided vehicle secondary stop location within the facility.

가용 전하 레벨의 임박한 감소의 포괄적인 전원 관리 섹션으로부터의 지시에 따라, 전원 공급으로부터 페이로드 핸들링 섹션의 분기 회로로의 지시에 따라 개시된 실시예의 하나 이상의 측면에 따라, 컨트롤러는 페이로드 핸들링 액츄에이터 및 그 위의 임의의 페이로드를 페이로드 베드 내의 미리 결정된 안전한 페이로드 위치로 이동시키도록 페이로드 핸들링 섹션에 명령한다.In accordance with one or more aspects of the disclosed embodiments, the controller, in accordance with instructions from the comprehensive power management section of the impending decrease in available charge level, from the power supply to the branch circuit of the payload handling section, controls the payload handling actuator and the same. Commands the payload handling section to move any of the above payloads to a predetermined safe payload location within the payload bed.

청구항 11의 개시된 실시예 방법의 하나 이상의 측면에 따르면, According to one or more aspects of the disclosed embodiment method of claim 11,

다음 중 적어도 하나를 컨트롤러에 제공한다. Provide at least one of the following to the controller:

차량 상태 모니터, vehicle health monitor,

드라이브 섹션 상태 모니터, drive section health monitor,

페이로드 처리 섹션 상태 모니터, 및 payload processing section status monitor, and

주변 전자 장치 섹션 상태 모니터; 그리고 Peripheral electronics section health monitor; and

상태 등록 섹션; 그리고 State registration section; and

상기 컨트롤러는, 상기 컨트롤러에 대한 전원 공급으로부터 상기 컨트롤러에 대한 전원 공급으로 지시되는 가용 충전 레벨의 임박한 감소의 종합 전원 관리 섹션으로부터 상기 컨트롤러의 요구 레벨 미만으로 지시되면, 상기 컨트롤러는, 상기 차량 상태 모니터, 상기 주행 구간 상태 모니터, 상기 페이로드 핸들링 구간 상태 모니터 및 상기 주변 전자제품 구간 상태 모니터 중 적어도 하나로부터 상기 저장된 상태 정보를 상기 컨트롤러의 재부팅 시 이용 가능한 초기화 파일로 구성한다.When the controller receives an indication from the comprehensive power management section of an imminent decrease in the available charge level indicated by the power supply to the controller below the controller's required level, the controller monitors the vehicle status. , the stored status information from at least one of the driving section status monitor, the payload handling section status monitor, and the peripheral electronic product section status monitor is configured into an initialization file that can be used when the controller is rebooted.

개시된 실시예의 하나 이상의 측면에 따르면, 전원 공급 장치는 울트라-커패시터이거나, 충전 레벨은 전압 레벨이다.According to one or more aspects of the disclosed embodiments, the power supply is an ultra-capacitor or the charge level is a voltage level.

전술한 설명은 개시된 실시예의 측면들을 단지 예시하는 것임을 이해해야 한다. 개시된 실시예의 측면에서 벗어나지 않고 당업자는 다양한 대안 및 수정을 고안할 수 있다. 따라서, 개시된 실시예의 측면은 여기에 첨부된 임의의 청구범위의 범위 내에 속하는 모든 대안, 수정 및 변형을 포괄하도록 의도된다. 또한, 서로 다른 특징들이 서로 다른 종속항 또는 독립항에 인용되어 있다는 단순한 사실은 이러한 특징들의 조합이 유리하게 사용될 수 없다는 것을 의미하지 않으며, 이러한 조합은 개시된 실시예의 측면의 범위 내에 남아 있다.It should be understood that the foregoing description is merely illustrative of aspects of the disclosed embodiments. Various alternatives and modifications may occur to those skilled in the art without departing from the aspects of the disclosed embodiments. Accordingly, aspects of the disclosed embodiments are intended to cover all alternatives, modifications and variations that fall within the scope of any claims appended hereto. Moreover, the mere fact that different features are recited in different dependent or independent claims does not mean that combinations of these features cannot be advantageously used, and such combinations remain within the scope of aspects of the disclosed embodiments.

100: 보관 및 회수 시스템
110: 자율 운송 차량
122: 컨트롤러
276: 물리적 특성 센서 시스템
288: 보조 네비게이션 센서 시스템
290: 보조 위험 센서 시스템
400: 비전 시스템
100: Storage and retrieval system
110: Autonomous transport vehicle
122: controller
276: Physical property sensor system
288: Auxiliary navigation sensor system
290: Secondary hazard sensor system
400: Vision system

Claims (107)

자율 가이드 차량에 있어서, 상기 자율 가이드 차량은:
페이로드 홀드(payload hold)가 있는 프레임;
횡단 표면에서 자율 가이드 차량을 지지하는 구동 휠을 갖는 프레임에 결합된 구동 섹션으로서, 상기 구동 휠은 설비 내 횡단 표면 위로 자율 가이드 차량을 이동시키는 횡단 표면에서 차량을 횡단시키는, 구동 섹션;
페이로드 홀드에 안착된 편평하고 비결정(undeterministic) 시트 표면을 갖는 페이로드를 저장 어레이에서 자율 가이드 차량의 페이로드 홀드과 페이로드의 저장 위치 사이로 전달하도록 된 프레임에 결합된 페이로드 핸들러(payload handler);
전자기 센서를 갖는 프레임에 연결된 물리적 특성 센서 시스템으로서, 각각은 물리적 특성을 갖는 방출 또는 생성된 전자기 빔 또는 전자기장의 상호 작용 또는 인터페이스에 반응하고, 전자기 빔 또는 전자기장은 물리적 특성에 대한 상호 작용 또는 인터페이스에 의해 교란되고(disturbed), 교란이 물리적 특성의 전자기 센서에 의해 감지되고 센싱되며, 물리적 특성 센서 시스템은 차량 내비게이션 자세 또는 위치 정보 및 페이로드 자세 또는 위치 정보 중 적어도 하나를 구현하는 센서 데이터를 생성하도록 되는, 물리적 특성 센서 시스템;
상기 프레임에 연결되어 물리적 특성 센서 시스템을 보완하는 보조 센서 시스템으로서, 상기 보조 센서 시스템은 적어도 부분적으로 차량 내비게이션 자세 또는 위치 정보 그리고 페이로드 자세 또는 위치 중 하나 이상을 알려주는 이미지 데이터를 캡처하도록 배치된 카메라를 갖춘 비전 시스템이어서, 상기 물리적 특성 센서 시스템의 정보를 보조하게 되는, 보조 센서 시스템;을 포함하는 것을 특징으로 하는 자율 가이드 차량.
In an autonomous guided vehicle, the autonomous guided vehicle:
Frame with payload hold;
a drive section coupled to a frame having drive wheels supporting the autonomous guided vehicle on a crossing surface, the drive wheels traversing the vehicle on the crossing surface moving the autonomous guided vehicle over the crossing surface within the facility;
a payload handler coupled to the frame adapted to transfer a payload having a flat, indeterministic seat surface seated on the payload hold in the storage array between the payload hold of the autonomous guided vehicle and a storage location for the payload;
A physical property sensor system coupled to a frame having electromagnetic sensors, each responsive to the interaction or interface of an emitted or generated electromagnetic beam or electromagnetic field having a physical property, and wherein the electromagnetic beam or electromagnetic field is responsive to an interaction or interface to the physical property. Disturbed by, and the disturbance is sensed and sensed by a physical property electromagnetic sensor, the physical property sensor system to generate sensor data embodying at least one of vehicle navigation attitude or position information and payload attitude or position information. being a physical property sensor system;
An auxiliary sensor system coupled to the frame and complementary to a physical characteristics sensor system, the auxiliary sensor system arranged to capture image data at least in part indicative of one or more of vehicle navigation attitude or position information and payload attitude or position. An auxiliary sensor system, which is a vision system equipped with a camera and assists with information from the physical characteristic sensor system.
제 1 항에 있어서,
상기 프레임에 연결되고, 구동 섹션 또는 페이로드 핸들러에 작동 가능하게 연결되며, 물리적 특성 센서 시스템과 통신 가능하게 연결되는 컨트롤러를 더 포함하고, 물리적 특성 센서 시스템의 정보로부터 상기 컨트롤러는 설비를 횡단하는 자율 가이드 차량의 독립적인 안내를 수행하는 차량 자세 및 위치를 결정하도록 되는 것을 특징으로 하는 자율 가이드 차량.
According to claim 1,
further comprising a controller coupled to the frame, operably connected to a drive section or payload handler, and communicatively coupled to a physical characteristic sensor system, wherein, from information from the physical characteristic sensor system, the controller determines that the controller is configured to provide an autonomous vehicle to traverse the facility. An autonomous guide vehicle, characterized in that it determines the vehicle attitude and position to perform independent guidance of the guide vehicle.
제 2 항에 있어서,
물리적 특성 센서 시스템의 정보로부터 상기 컨트롤러는 독립적인 언더픽 및 저장 위치와 언더픽에 대한 페이로드의 배치, 및 페이로드 홀드 내에 페이로드를 배치하는 것을 수행하는 페이로드 자세 및 위치를 결정하도록 되는 것을 특징으로 하는 자율 가이드 차량.
According to claim 2,
From information from the physical characteristic sensor system, the controller is configured to determine payload attitude and position to perform independent underpick and storage locations and placement of the payload relative to the underpick, and placement of the payload within the payload hold. Features an autonomous guided vehicle.
제 2 항에 있어서,
상기 컨트롤러는 자율 가이드 차량이 통과하는 설비의 적어도 일부를 형성하는 소정의 특징의 기준 표현(reference representation)으로 프로그래밍되는 것을 특징으로 하는 자율 가이드 차량.
According to claim 2,
and wherein the controller is programmed with a reference representation of certain features forming at least part of the installation through which the autonomous guided vehicle passes.
제 4 항에 있어서,
상기 컨트롤러는 캡처된 이미지 데이터를 등록하고 그로부터 소정의 특징 중 하나 이상의 특징에 대한 적어도 하나의 이미지를 생성하도록 되며, 적어도 하나의 상기 이미지는 기준 표현의 소정의 특징 중 하나 이상의 해당 참조에 대한 비교를 제공하기 위해 하나 이상의 소정의 특징의 가상 표현으로 형식화(format)되는 것을 특징으로 하는 자율 가이드 차량.
According to claim 4,
The controller is configured to register the captured image data and generate therefrom at least one image of one or more of the predetermined features, wherein the at least one image is adapted to be compared against a corresponding reference of one or more of the predetermined features of the reference representation. An autonomous guided vehicle, characterized in that it is formatted as a virtual representation of one or more predetermined characteristics to provide.
제 5 항에 있어서,
상기 컨트롤러는 소정의 특징 중 이미지화된 하나 이상의 특징의 가상 표현이 자율 가이드 차량에 상주하도록 실행되고, 하나 이상의 이미지화된 소정의 특징의 가상 표현 및 하나 이상의 대응 참조 소정의 특징 간의 비교는 자율 가이드 차량에 상주하도록 실행되는 것을 특징으로 하는 자율 가이드 차량.
According to claim 5,
The controller is configured to cause a virtual representation of one or more imaged features of the predetermined feature to reside in the autonomous guided vehicle, and a comparison between the virtual representation of the one or more imaged predetermined features and one or more corresponding reference predetermined features is performed on the autonomous guided vehicle. An autonomous guided vehicle, characterized in that it runs permanently.
제 5 항에 있어서,
상기 컨트롤러는 상기 가상 표현과 상기 기준 표현 간의 비교를 기초로 상기 물리적 특성 센서 시스템으로부터 상기 컨트롤러에 등록된 자율 가이드 차량의 자세 및 위치정보를 확인하도록 되는 것을 특징으로 하는 자율 가이드 차량.
According to claim 5,
The controller is configured to confirm attitude and position information of the autonomous guided vehicle registered to the controller from the physical characteristic sensor system based on a comparison between the virtual representation and the reference representation.
제 7 항에 있어서,
상기 컨트롤러는 가상 표현과 기준 표현 간의 비교에 기초하여 자율 가이드 차량 자세 및 위치의 변화를 식별하고, 상기 변화에 기초하여 물리적 특성 센서 시스템으로부터 자율 가이드 차량 자세 또는 위치 정보를 업데이트하거나 완료하는 것을 특징으로 하는 자율 가이드 차량.
According to claim 7,
wherein the controller identifies changes in autonomous guided vehicle attitude and position based on a comparison between the virtual representation and the reference representation, and updates or completes autonomous guided vehicle attitude or position information from a physical characteristic sensor system based on the changes. autonomous guided vehicle.
제 8 항에 있어서,
상기 컨트롤러는, 상기 물리적 특성 센서 시스템으로부터의 정보의 자세 오류 및 적어도 하나의 식별된 변화와 적어도 하나의 이미지에 대한 분석에 기초하여 상기 물리적 특성 센서 시스템으로부터의 자율 가이드 차량의 자세 및 위치 정보의 정확도(fidelity)를 결정하도록 되며, 자세 오류 및 정확도 중 적어도 하나에 따라 신뢰도 값을 할당하도록 된 것을 특징으로 하는 자율 가이드 차량.
According to claim 8,
The controller is configured to: determine the accuracy of the posture and position information of the autonomous guided vehicle from the physical property sensor system based on analysis of at least one image and at least one identified change in attitude error of the information from the physical property sensor system; An autonomous guided vehicle that determines fidelity and assigns a reliability value based on at least one of posture error and accuracy.
제 9 항에 있어서,
상기 컨트롤러는, 상기 신뢰도 값이 소정의 임계값 이하인 경우, 상기 물리적 특성 센서 시스템으로부터의 자세 및 위치 정보 대신에 상기 가상 표현으로부터 생성된 자세 및 위치 정보에 기초하여 자율 가이드 차량 내비게이션을 전환하도록 되는 것을 특징으로 하는 자율 가이드 차량.
According to clause 9,
wherein the controller is configured to switch autonomous guided vehicle navigation based on attitude and position information generated from the virtual representation instead of attitude and position information from the physical characteristic sensor system when the confidence value is below a predetermined threshold. Features an autonomous guided vehicle.
제 10 항에 있어서,
전환 후, 상기 컨트롤러는,
목적지까지 자동 가이드 차량이 운행을 계속하거나,
자동 가이드 차량을 전환 시 위치에서 종료를 위한 안전한 위치로 가져오는 자율 가이드 차량의 안전 경로 및 궤적을 선택하거나, 또는
사용자 인터페이스 장치를 통해 자동 작동에서 준자동 작동 또는 수동 작동까지 자율 가이드 차량 제어의 운영자 선택을 위한 자율 가이드 차량 운동 데이터 및 목적지를 식별하는 운영자와의 통신을 개시하도록 되는 것을 특징으로 하는 자율 가이드 차량.
According to claim 10,
After switching, the controller:
The automatic guided vehicle continues driving to the destination, or
Select a safe path and trajectory for the autonomous guided vehicle to bring the autonomous guided vehicle from the transition point to a safe location for termination, or
An autonomous guided vehicle, characterized in that it is arranged to initiate communication with an operator identifying a destination and autonomous guided vehicle motion data for operator selection of autonomous guided vehicle control from automatic operation to semi-autonomous operation or manual operation via a user interface device.
제 5 항에 있어서,
상기 컨트롤러는 상기 가상 표현과 상기 기준 표현의 비교를 기초로 상기 물리적 특성 센서 시스템으로부터 상기 컨트롤러에 등록된 페이로드 자세 및 위치 정보를 확인하는 되는 것을 특징으로 하는 자율 가이드 차량.
According to claim 5,
wherein the controller verifies payload attitude and position information registered to the controller from the physical characteristic sensor system based on a comparison of the virtual representation and the reference representation.
제 12 항에 있어서,
상기 컨트롤러는 가상 표현과 기준 표현 간의 비교에 기초하여 페이로드 자세 및 위치의 변화를 식별하고, 상기 변화에 기초하여 물리적 특성 센서 시스템으로부터 페이로드 자세 또는 위치 정보를 업데이트하거나 완성하도록 되는 것을 특징으로 하는 자율 가이드 차량.
According to claim 12,
wherein the controller is configured to identify changes in payload attitude and position based on a comparison between the virtual representation and the reference representation and update or complete payload attitude or position information from a physical property sensor system based on the changes. Autonomous guided vehicle.
제 13 항에 있어서,
상기 컨트롤러는 상기 물리적 특성 센서 시스템으로부터의 정보에서 자세 오류 및 식별된 변화 및 적어도 하나의 이미지의 분석 중 적어도 하나에 기초하여 상기 물리적 특성 센서 시스템으로부터의 정보의 페이로드 자세와 위치 정보의 정확도로 결정하고, 자세 오류와 정확도 중 적어도 하나에 따라 신뢰도 값을 할당하도록 된 것을 특징으로 하는 자율 가이드 차량.
According to claim 13,
The controller determines the accuracy of the payload pose and position information of the information from the physical attribute sensor system based on at least one of the analysis of the at least one image and pose errors and identified changes in the information from the physical attribute sensor system. And, an autonomous guided vehicle characterized in that a reliability value is assigned according to at least one of posture error and accuracy.
제 14 항에 있어서,
상기 컨트롤러는, 신뢰도 값이 소정의 임계값 이하인 경우, 물리적 특성 센스 시스템으로부터의 자세 및 위치 정보 대신에 상기 가상 표현에서 생성된 자세 및 위치 정보를 기반으로 자율 가이드 차량 페이로드 핸들링을 전환하도록 되는 것을 특징으로 하는 자율 가이드 차량.
According to claim 14,
wherein the controller is configured to switch autonomous guided vehicle payload handling based on attitude and position information generated from the virtual representation instead of attitude and position information from a physical characteristic sense system when the confidence value is below a predetermined threshold. Features an autonomous guided vehicle.
제 15 항에 있어서,
전환 후, 상기 컨트롤러는,
목적지까지 자동 가이드 차량 핸들링을 계속하거나,
사용자 인터페이스 장치를 통해 자동 페이로드 처리 작업으로부터 준자동 페이로드 처리 작업 또는 수동 페이로드 처리 작업까지 자율 가이드 차량 제어를 운영자가 선택하는 것과 함께 페이로드 데이터를 식별하는 운영자와의 통신을 시작하는 것을 특징으로 하는 자율 가이드 차량.
According to claim 15,
After switching, the controller:
Continue handling the automated guided vehicle to your destination, or
characterized by initiating communication with the operator identifying payload data together with the operator's selection of control of the autonomous guided vehicle from an automated payload processing operation to a semi-automated payload processing operation or a manual payload processing operation via a user interface device. Autonomous guided vehicle.
제 5 항에 있어서,
상기 컨트롤러는 컨트롤러와 운영자 인터페이스를 통신 가능하게 결합한 무선 통신 시스템을 통해, 이미지화 된 하나 이상의 소정의 특징과 운영자에게 나타내는 기준 표현의 하나 이상의 대응 기준 소정의 특징을 실시간 증강 현실 이미지와 결합하는 시뮬레이션 이미지를 전송하도록 된 것을 특징으로 하는 자율 가이드 차량.
According to claim 5,
The controller creates a simulation image that combines one or more imaged predetermined features and one or more corresponding reference predetermined features of the reference representation presented to the operator with a real-time augmented reality image through a wireless communication system communicatively combining the controller and the operator interface. An autonomous guided vehicle, characterized in that it is adapted to transmit.
제 17 항에 있어서,
상기 컨트롤러는 횡단하는 자율 가이드 차량에 대한 실시간 운영자 명령을 수신하도록 되며, 상기 명령은 실시간 증강 현실 이미지에 반응하며, 컨트롤러에 의해 운영자에게 전송된 실시간 증강 현실 이미지에 변화를 주게 되는 것을 특징으로 하는 자율 가이드 차량.
According to claim 17,
wherein the controller is configured to receive real-time operator commands for a traversing autonomous guided vehicle, the commands reacting to real-time augmented reality images and causing changes to the real-time augmented reality images transmitted by the controller to the operator. Guide vehicle.
제 1 항에 있어서,
보조 센서 시스템은 자율 가이드 차량에 탑재된 케이스 유닛의 즉각적 정렬(justification) 및/또는 분류에 적어도 부분적으로 영향을 미치는 것을 특징으로 하는 자율 가이드 차량.
According to claim 1,
An autonomous guided vehicle, wherein the auxiliary sensor system at least partially affects the immediate justification and/or classification of case units mounted on the autonomous guided vehicle.
제 1 항에 있어서,
상기 보조 센서 시스템으로부터의 보조 정보, 보조 차량 내비게이션 자세 또는 위치, 보조 페이로드 자세 또는 위치 중 하나 이상에 의해 설명되는 이미지화 되거나
보여지는 물체는, 보조 정보, 보조 차량 네비게이션 자세, 또는 위치, 및 페이로드 자세 또는 차량 네비게이션 자세 또는 위치 정보 및 보조 페이로드 자세 또는 위치를 통하여, 차량 네비게이션 자세 또는 위치 정보 및 페이로드 자세 또는 위치 정보 중 하나 이상의 해상도를 향상시키도록 주변 설비 특징 및 인터페이싱 설비 특징 중 하나 이상의 기존 모델에 접합(coapted)되는 것을 특징으로 하는 자율 가이드 차량.
According to claim 1,
imaged as described by one or more of ancillary information from the auxiliary sensor system, auxiliary vehicle navigation attitude or position, auxiliary payload attitude or position, or
The objects shown are, through auxiliary information, auxiliary vehicle navigation attitude or position, and payload attitude or vehicle navigation attitude or position information and auxiliary payload attitude or position, vehicle navigation attitude or position information and payload attitude or position information. An autonomous guided vehicle, characterized in that it is coupled to an existing model with one or more of the surrounding equipment features and interfacing equipment features to improve the resolution of one or more of the following.
자율 가이드 차량에 있어서, 상기 자율 가이드 차량은:
페이로드 홀드(payload hold)가 있는 프레임;
횡단 표면에서 차량을 지지하는 구동 휠을 구비하여 프레임에 결합된 구동 섹션으로서, 상기 구동 휠은 설비의 횡단 표면 위로 자율 가이드 차량을 이동시켜서 횡단 표면에서 차량이 횡단하게 하는, 구동 섹션;
페이로드 홀드에 안착된 편평하고 비결정(undeterministic) 시트 표면을 갖는 페이로드를 저장 어레이에서 자율 가이드 차량의 페이로드 홀드와 페이로드의 저장 위치 간에 전달하도록 된 프레임에 결합된 페이로드 핸들러(payload handler);
전자기 센서를 갖는 프레임에 연결된 물리적 특성 센서 시스템으로서, 각각은 물리적 특성을 갖는 방출 또는 생성된 전자기 빔 또는 전자기장의 상호 작용 또는 인터페이스에 반응하고, 전자기 빔 또는 전자기장은 물리적 특성에 대한 상호 작용 또는 인터페이스에 의해 교란되고, 교란이 물리적 특성의 전자기 센서에 의해 감지되고 센싱되며, 물리적 특성 센서 시스템은 차량 내비게이션 자세 또는 위치 정보 및 페이로드 자세 또는 위치 정보 중 적어도 하나를 구현하는 센서 데이터를 생성하도록 되는, 물리적 특성 센서 시스템; 및
프레임에 연결되고 물리적 특성 센서 시스템과 별개이며 구별되는 보조 센서 시스템으로서, 상기 보조 센서 시스템은 적어도 부분적으로 차량 네비게이션 자세 또는 위치 및 페이로드 자세 또는 위치 중 적어도 하나를 전달하는 이미지 데이터를 캡처하도록 배치된 카메라를 구비한 비전 시스템이며, 상기 이미지 데이터는 물리적 특성 센서 시스템의 정보에 대한 보조 정보인, 보조 센서 시스템을 포함하는 것을 특징으로 하는 자율 가이드 차량.
In an autonomous guided vehicle, the autonomous guided vehicle:
Frame with payload hold;
a drive section coupled to the frame with drive wheels supporting the vehicle at the crossing surface, the drive wheels moving the autonomous guided vehicle over the crossing surface of the facility to cause the vehicle to traverse the crossing surface;
A payload handler coupled to a frame configured to transfer a payload having a flat, indeterministic seat surface seated on the payload hold between the payload hold of the autonomous guided vehicle and the storage location of the payload in the storage array. ;
A physical property sensor system coupled to a frame having electromagnetic sensors, each responsive to the interaction or interface of an emitted or generated electromagnetic beam or electromagnetic field having a physical property, and wherein the electromagnetic beam or electromagnetic field is responsive to an interaction or interface to the physical property. is perturbed by, and the disturbance is detected and sensed by an electromagnetic sensor of a physical nature, wherein the physical characteristic sensor system is configured to generate sensor data embodying at least one of vehicle navigation attitude or position information and payload attitude or position information. characteristic sensor system; and
An auxiliary sensor system coupled to the frame and separate and distinct from the physical characteristic sensor system, the auxiliary sensor system arranged to capture image data conveying, at least in part, at least one of a vehicle navigation attitude or position and a payload attitude or position. An autonomous guided vehicle comprising a vision system with a camera, wherein the image data is auxiliary information to the information of the physical characteristic sensor system.
제 21 항에 있어서,
상기 프레임에 연결되고, 상기 구동 섹션 또는 페이로드 핸들러에 작동 가능하게 연결되며, 상기 물리적 특성 센서 시스템과 통신 가능하게 연결되는 컨트롤러를 추가로 포함하되, 물리적 특성 센서 시스템으로부터 상기 컨트롤러는 설비를 횡단하는 자율 가이드 차량의 독립적인 가이드를 수행하는 차량 자세 및 위치를 결정하도록 된 것을 특징으로 하는 자율 가이드 차량.
According to claim 21,
further comprising a controller coupled to the frame, operably coupled to the drive section or payload handler, and communicatively coupled to the physical characteristic sensor system, wherein the controller is configured to traverse the facility. An autonomous guide vehicle, characterized in that it determines the vehicle posture and position to perform independent guidance of the autonomous guide vehicle.
제 22 항에 있어서,
상기 물리적 특성 센서 시스템의 정보로부터, 상기 컨트롤러는 독립적인 언더픽을 수행하는 페이로드 자세 및 위치를 결정하고, 저장 위치 및 독립적인 언더픽 간에 페이로드를 위치시키고, 페이로드 홀드에 페이로드를 위치시키도록 된 것을 특징으로 하는 자율 가이드 차량.
According to claim 22,
From information from the physical property sensor system, the controller determines the payload attitude and position to perform an independent underpick, position the payload between a storage location and the independent underpick, and place the payload in a payload hold. An autonomous guided vehicle characterized by being designed to do so.
제 22 항에 있어서,
상기 컨트롤러는 자율 가이드 차량이 통과하는 설비의 적어도 일부를 형성하는 소정의 특징의 기준 표현으로써 프로그래밍되는 것을 특징으로 하는 자율 가이드 차량.
According to claim 22,
and wherein the controller is programmed with reference representations of certain features forming at least part of the installation through which the autonomous guided vehicle passes.
제 24 항에 있어서,
상기 컨트롤러는 캡처된 이미지 데이터를 등록하고 그로부터 소정의 특징 중 하나 이상의 특징에 대한 적어도 하나의 이미지를 생성하도록 되며, 적어도 하나의 이미지는 기준 표현의 소정의 특징의 하나 이상의 대응 기준에 대하여 비교하기 위하여 하나 이상의 소정의 특징 중 가상 표현으로서 형식화(format)되는 것을 특징으로 하는 자율 가이드 차량.
According to claim 24,
The controller is configured to register captured image data and generate therefrom at least one image for one or more of the predetermined features, wherein the at least one image is configured to compare against one or more corresponding criteria of the predetermined features of the reference representation. An autonomous guided vehicle characterized in that one or more predetermined characteristics are formatted as a virtual representation.
제 25 항에 있어서,
컨트롤러는 소정의 특징의 이미징 된 하나 이상의 특징의 가상 표현이 자율 가이드 차량에 상주하도록 실행되고, 하나 이상의 이미지화 된 소정의 특징의 가상 표면 및 하나 이상의 대응하는 소정의 특징 간의 비교가 자율 가이드 차량 상에서 상주하게 되는 것을 특징으로 하는 자율 가이드 차량.
According to claim 25,
The controller is configured to cause a virtual representation of the one or more imaged features of the predetermined feature to reside on the autonomous guided vehicle, and a comparison between the virtual surface of the one or more imaged predetermined features and the one or more corresponding predetermined features to reside on the autonomous guided vehicle. An autonomous guided vehicle characterized in that:
제 25 항에 있어서,
상기 컨트롤러는 상기 가상 표현과 상기 기준 표현의 비교를 기초로 상기 물리적 특성 센서 시스템으로부터 상기 컨트롤러에 의해 등록된 자율 가이드 차량의 자세 및 위치정보를 확인하도록 된 것을 특징으로 하는 자율 가이드 차량.
According to claim 25,
The controller is configured to confirm attitude and position information of the autonomous guided vehicle registered by the controller from the physical characteristic sensor system based on a comparison of the virtual representation and the reference representation.
제 27 항에 있어서,
상기 컨트롤러는 상기 가상 표현과 기준 표현 사이의 비교에 기초하여 자율 가이드 차량 자세 및 위치의 변화를 식별하고, 상기 변화에 기초하여 물리적 특성 센서 시스템으로부터 자율 가이드 차량 자세 또는 위치를 업데이트 또는 완료하도록 된 것을 특징으로 하는 자율 가이드 차량.
According to clause 27,
wherein the controller is configured to identify changes in the autonomous guided vehicle attitude and position based on a comparison between the virtual representation and the reference representation, and update or finalize the autonomous guided vehicle attitude or position from the physical characteristic sensor system based on the changes. Features an autonomous guided vehicle.
제 28 항에 있어서,
상기 컨트롤러는, 상기 물리적 특성 센서 시스템으로부터의 정보에서 자세 오류 및, 식별된 변화 및 적어도 하나의 이미지의 분석에 기초한 상기 물리적 특성 센서 시스템으로부터의 자율 가이드 차량의 자세 및 위치 정보의 정확도를 결정하고, 자세 오류 및 정확도 중 적어도 하나에 따라 신뢰도 값을 할당하도록 된 것을 특징으로 하는 자율 가이드 차량.
According to clause 28,
the controller determines the accuracy of the posture and position information of the autonomous guided vehicle from the physical property sensor system based on analysis of at least one image and posture errors and identified changes in the information from the physical property sensor system; An autonomous guided vehicle, characterized in that a reliability value is assigned according to at least one of posture error and accuracy.
제 29 항에 있어서,
상기 컨트롤러는, 상기 신뢰도 값이 소정의 임계값 미만인 경우, 상기 물리적 특성 센서 시스템으로부터의 자세 및 위치 정보 대신에 상기 가상 표현으로부터 생성된 자세 및 위치 정보에 기초하여 자율 가이드 차량 내비게이션을 전환하도록 된 것을 특징으로 하는 자율 가이드 차량.
According to clause 29,
wherein the controller is configured to switch autonomous guided vehicle navigation based on attitude and position information generated from the virtual representation instead of attitude and position information from the physical characteristic sensor system when the confidence value is below a predetermined threshold. Features an autonomous guided vehicle.
제 30 항에 있어서,
전환 후, 상기 컨트롤러는,
목적지까지 자율 가이드 차량 네비게이션을 계속하거나 또는 자율 가이드 차량의 안전한 경로 및 궤적을 선택하여 자율 가이드 차량을 전환 위치에서 정지를 위한 안전한 위치로 오게 하는 것, 또는;
사용자 인터페이스 장치를 통해 자동 작동에서 준자동 작동 또는 수동 작동까지 자율 가이드 차량 제어의 운영자 선택을 위한 자율 가이드 차량 운동 데이터 및 목적지를 식별하는 운영자와의 통신을 개시하도록 되는 것을 특징으로 하는 자율 가이드 차량.
According to claim 30,
After switching, the controller:
continue navigation of the autonomous guided vehicle to the destination or select a safe path and trajectory for the autonomous guided vehicle to bring the autonomous guided vehicle from a transition location to a safe location for stopping; or
An autonomous guided vehicle, characterized in that it is arranged to initiate communication with an operator identifying a destination and autonomous guided vehicle motion data for operator selection of autonomous guided vehicle control from automatic operation to semi-autonomous operation or manual operation via a user interface device.
제 25 항에 있어서,
상기 컨트롤러는 상기 가상 표현과 상기 기준 표현의 비교를 기초로 상기 물리적 특성 센서 시스템으로부터 상기 컨트롤러에 의해 등록된 페이로드 자세 및 위치 정보를 확인하도록 된 것을 특징으로 하는 자율 가이드 차량.
According to claim 25,
and the controller is configured to confirm payload attitude and position information registered by the controller from the physical characteristic sensor system based on a comparison of the virtual representation and the reference representation.
제 32 항에 있어서,
상기 컨트롤러는 가상 표현과 기준 표현 간의 비교에 기초하여 페이로드 자세 및 위치의 변화를 식별하고, 상기 변화에 기초하여 물리적 특성 센서로부터 페이로드 자세 또는 위치 정보를 업데이트하거나 완성하도록 된 것을 특징으로 하는 자율 가이드 차량.
According to claim 32,
wherein the controller is configured to identify changes in payload pose and position based on a comparison between the virtual representation and the reference representation and update or complete payload pose or position information from physical characteristic sensors based on the changes. Guide vehicle.
제 33 항에 있어서,
상기 컨트롤러는 물리적 특성 센서 세스템으로부터의 정보에서의 자세 변화를 결정하고 식별된 변화 및 적어도 하나의 이미지의 분석 중 적어도 하나에 기초하여 물리적 특성 센서 시스템으로부터 페이로드 자세 및 위치의 정확도를 결정하고, 자세 오류 및 정확도 중 적어도 하나에 따라 신뢰도 값을 할당하도록 된 것을 특징으로 하는 자율 가이드 차량.
According to claim 33,
the controller determines an attitude change in information from the physical property sensor system and determines accuracy of payload attitude and position from the physical property sensor system based on at least one of the identified change and analysis of the at least one image; An autonomous guided vehicle, characterized in that a reliability value is assigned according to at least one of posture error and accuracy.
제 34 항에 있어서,
상기 컨트롤러는, 상기 신뢰도 값이 소정의 임계값 이하인 경우, 물리적 특성 센서 시스템으로부터의 자세 및 위치 정보 대신에 상기 가상 표현으로부터 생성된 자세 및 위치 정보에 기초하여 자율 가이드 차량 페이로드 핸들링을 전환하도록 된 것을 특징으로 하는 자율 가이드 차량.
According to claim 34,
The controller is configured to switch autonomous guided vehicle payload handling based on attitude and position information generated from the virtual representation instead of attitude and position information from a physical characteristic sensor system when the confidence value is below a predetermined threshold. An autonomous guided vehicle characterized by
제 35 항에 있어서,
전환 후, 상기 컨트롤러는,
목적지까지 자동 가이드 차량 핸들링을 계속하거나, 또는
사용자 인터페이스 장치를 통해 자동 페이로드 처리 작업으로부터 준자동 페이로드 처리 작업 또는 수동 페이로드 처리 작업까지 자율 가이드 차량 제어를 운영자가 선택하는 것과 함께 페이로드 데이터를 식별하는 운영자와의 통신을 시작하는 것을 특징으로 하는 자율 가이드 차량.
According to claim 35,
After switching, the controller:
Continue handling the automated guided vehicle to your destination, or
characterized by initiating communication with the operator identifying payload data together with the operator's selection of control of the autonomous guided vehicle from an automated payload processing operation to a semi-automated payload processing operation or a manual payload processing operation via a user interface device. Autonomous guided vehicle.
제 25 항에 있어서,
상기 컨트롤러는 컨트롤러와 운영자 인터페이스를 통신 가능하게 연결하는 무선 통신 시스템을 통해, 이미지화 된 하나 이상의 소정의 특징의 가상 표현과 실시간 증강 현실 이미지를 운영자에게 제공하는 기존 표현의 대응하는 하나 이상의 기준 소정의 특징을 결합하는 시뮬레이션 이미지를 전송하도록 된 것을 특징으로 하는 자율 가이드 차량.
According to claim 25,
The controller provides a virtual representation of one or more imaged predetermined features and a real-time augmented reality image to the operator, via a wireless communication system that communicatively connects the controller and the operator interface. An autonomous guided vehicle, characterized in that it is adapted to transmit simulation images that combine.
제 37 항에 있어서,
상기 컨트롤러는 횡단하는 자율 가이드 차량에 대한 실시간 운영자 명령을 수신하도록 되며, 상기 명령은 실시간 증강 현실 이미지에 대하여 반응하며, 상기 컨트롤러에 의해 운영자에 전달되는 실시간 증강 현실 이미지에서 변화하는 것을 특징으로 하는 자율 가이드 차량.
According to clause 37,
The controller is adapted to receive real-time operator commands for a traversing autonomous guided vehicle, the commands being responsive to real-time augmented reality images and changes in the real-time augmented reality images delivered by the controller to the operator. Guide vehicle.
제 21 항에 있어서,
상기 보조 센서 시스템은 자율 가이드 차량에 탑재된 케이스 유닛의 즉각적 정렬 및/또는 분류에 적어도 부분적으로 영향을 미치는 것을 특징으로 하는 자율 가이드 차량.
According to claim 21,
An autonomous guided vehicle, wherein the auxiliary sensor system at least partially affects the immediate alignment and/or sorting of case units mounted on the autonomous guided vehicle.
제 21 항에 있어서,
상기 보조 센서 시스템으로부터의 보충 정보, 보충 차량 내비게이션 자세 또는 위치, 및 보충 페이로드 자세 또는 위치 중 하나 이상에 의해 설명되는 이미지화 되거나 보여지는 물체는 주변 설치 특징 및 인터페이싱 설비 특징 중 하나 이상의 기준 모델에 접합(coapted)되어, 보조 정보, 보조 차량 네비게이션 자세 또는 위치 및 보조 페이로드 자세 또는 위치 중 하나 이상을 통하여 차량 네비게이션 자세 또는 위치 정보 및 페이로드 자세 또는 위치 정보 중 하나 이상의 해상도를 향상시키게 되는 것을 특징으로 하는 자율 가이드 차량.
According to claim 21,
The imaged or viewed object described by one or more of supplementary information from the supplementary sensor system, supplementary vehicle navigation attitude or position, and supplementary payload attitude or position is coupled to a reference model of one or more of the surrounding installation features and interfacing facility features. (coapted), characterized in that the resolution of one or more of the vehicle navigation attitude or location information and payload attitude or location information is improved through one or more of auxiliary information, auxiliary vehicle navigation attitude or position, and auxiliary payload attitude or position. autonomous guided vehicle.
방법에 있어서, 상기 방법은:
자율 가이드 차량을 제공하는 단계로서, 상기 자율 가이드 차량은:
페이로드 홀드를 구비한 프레임,
횡단 표면에서 자율 가이드 차량을 지지하는 구동 휠을 갖는 프레임에 결합된 구동 섹션으로서, 상기 구동 휠은 설비 내 횡단 표면 위로 자율 가이드 차량을 이동시키는 횡단 표면에서 차량 횡단에 영향을 미치는, 구동 섹션; 및
페이로드 홀드에 안착된 편평하고 비결정(undeterministic) 시트 표면을 갖는 페이로드를 저장 어레이에서 자율 가이드 차량의 페이로드 홀드와 페이로드의 저장 위치 간에 전달하도록 된 프레임에 결합된 페이로드 핸들러(payload handler);를 포함하는, 자율 가이드 차량을 제공하는 단계;
물리적 특성 센서 시스템으로써 센서 데이터를 생성하는 단계로서, 상기 센서 데이터는 차량 내비게이션 자세 또는 위치 정보와 페이로드 자세 또는 위치 정보 중 적어도 하나를 구현하며, 상기 물리적 특성 센서 시스템은 프레임에 연결되고 물리적 특성으로써 전자기 비임 또는 전자기장을 발산하거나 생성한 센서의 인터페이스 또는 상호작용에 각각 응답하는 전자기 센서를 구비하며, 상기 전자기 비임 또는 전자기장은 물리적 특성에 의해 상호작용 되거나 인터페이싱되어 교란되며, 상기 교란은 물리적 특성의 전자기 센서에 의해 검출되고 검출을 행하게 되는, 센서 데이터를 생성하는 단계;
보조 센서 시스템으로써 이미지 데이터를 캡처하는 단계로서, 상기 이미지 데이터는 차량 내비게이션 자세 또는 위치 및 페이로드 자세 또는 위치 중 적어도 하나를 알려주고 물리적 특성 센서 시스템의 정보를 보충하며, 상기 보조 센서 시스템은 프레임에 연결되어, 물리적 특성 센서 시스템을 보충하며, 상기 보조 센서 시스템은 적어도 부분적으로 이미지 데이터를 캡처하도록 배치된 카메라를 갖춘 비전 시스템 인, 이미지 데이터를 캡처하는 단계;를 포함하는 것을 특징으로 하는 방법.
In the method, said method:
providing an autonomous guided vehicle, wherein the autonomous guided vehicle:
Frame with payload holds,
a drive section coupled to a frame having drive wheels that support an autonomous guided vehicle on a crossing surface, the drive wheels effecting vehicle crossing on a crossing surface that moves the autonomous guided vehicle over the crossing surface within the facility; and
A payload handler coupled to a frame configured to transfer a payload having a flat, indeterministic seat surface seated on the payload hold between the payload hold of the autonomous guided vehicle and the storage location of the payload in the storage array. Providing an autonomous guided vehicle, including;
Generating sensor data using a physical characteristic sensor system, wherein the sensor data implements at least one of vehicle navigation attitude or position information and payload attitude or position information, wherein the physical characteristic sensor system is connected to a frame and uses a physical characteristic as a physical characteristic. Equipped with electromagnetic sensors that each respond to an interface or interaction of a sensor that emits or generates an electromagnetic beam or electromagnetic field, wherein the electromagnetic beam or electromagnetic field is disturbed by interacting with or interfacing with physical properties, and the disturbance is an electromagnetic field of physical properties. generating sensor data, which is detected by a sensor and results in detection;
Capturing image data with an auxiliary sensor system, wherein the image data informs at least one of a vehicle navigation attitude or position and a payload attitude or position and supplements information from a physical characteristic sensor system, the auxiliary sensor system coupled to the frame. Capturing image data, supplementing a physical property sensor system, wherein the secondary sensor system is at least partially a vision system having a camera positioned to capture the image data.
제 41 항에 있어서,
상기 물리적 특성 센서 시스템의 정보로부터 컨트롤러를 사용하여, 설비를 횡단하는 자율 가이드 차량의 독립적인 안내에 영향을 미치는 차량 자세 및 위치를 결정하는 단계를 추가로 포함하며, 상기 컨트롤러는 프레임에 연결되고, 구동 섹션 또는 페이로드 핸들러에 작동 가능하게 연결되며, 물리적 특성 센서 시스템에 통신 가능하게 연결되는 것을 특징을 하는 방법.
According to claim 41,
determining, from information in the physical property sensor system, a vehicle attitude and position that affects independent guidance of the autonomous guided vehicle traversing the facility, using a controller, the controller being coupled to the frame; A method operably connected to a drive section or payload handler and communicatively connected to a physical property sensor system.
제 42 항에 있어서,
상기 물리적 특성 센서 시스템의 정보로부터 상기 컨트롤러를 사용하여, 독립적인 언더픽(underpick), 상기 저장 위치 및 독립적인 언더픽 간에 페이로드를 배치하고 페이로드 홀드에 페이로드를 배치하는 것을 실행하는 페이로드 자세 및 위치를 결정하는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
According to claim 42,
a payload that uses the controller from information from the physical property sensor system to execute an independent underpick, placing a payload between the storage location and an independent underpick, and placing the payload on a payload hold; A method further comprising the step of determining posture and position.
제 42 항에 있어서,
상기 컨트롤러는 자율 가이드 차량이 통과하는 설비의 적어도 일부를 정의하는 소정의 특징의 기준 표현으로 프로그래밍 되는 것을 특징으로 하는 방법.
According to claim 42,
and wherein the controller is programmed with a reference representation of certain characteristics that define at least a portion of the facility through which the autonomous guided vehicle passes.
제 44 항에 있어서,
상기 컨트롤러를 사용하여, 캡처된 이미지 데이터를 등록하고, 그로부터 소정의 특징 중 하나 이상의 특징에 대한 적어도 하나의 이미지를 생성하는 단계를 추가로 포함하되, 적어도 하나의 이미지는 하나 이상의 특징의 가상 표현으로 형식화되어, 기준 표현의 소정의 특징 중 하나 이상의 대응 기준에 대한 비교를 제공하게 되는 것을 특징으로 하는 방법.
According to claim 44,
Using the controller, registering captured image data and generating therefrom at least one image for one or more of the predetermined features, wherein the at least one image is a virtual representation of the one or more features. A method characterized in that it is formalized to provide a comparison of one or more of the predetermined features of the reference expression to a corresponding reference.
제 45 항에 있어서,
상기 컨트롤러는 소정의 특징의 이미지화 된 하나 이상의 특징의 가상 표현이 자율 가이드 차량에 상주하도록 실행되고, 이미지화 된 하나 이상의 소정의 특징의 가상 표현과 소정의 특징의 하나 이상의 대응하는 기준 간의 비교가 자율 가이드 차량에 상주하도록 실행되도록 하는 것을 특징으로 하는 방법.
According to claim 45,
The controller is configured to cause a virtual representation of the imaged one or more features of the predetermined feature to reside in the autonomous guided vehicle, wherein a comparison between the imaged virtual representation of the one or more predetermined features and one or more corresponding references of the predetermined feature is performed on the autonomous guided vehicle. A method characterized in that it is executed to reside in the vehicle.
제 45 항에 있어서,
상기 컨트롤러를 통해 상기 가상 표현과 상기 기준 표현의 비교를 기반으로 상기 물리적 특성 센서 시스템에 의해 등록된 자율 가이드 차량의 자세 및 위치 정보를 확인하는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
According to claim 45,
The method further comprising confirming, via the controller, attitude and position information of the autonomous guided vehicle registered by the physical characteristic sensor system based on a comparison of the virtual representation and the reference representation.
제 47 항에 있어서,
컨트롤러를 통해 가상 표현과 기준 표현 사이의 비교에 기초하여 자율 가이드 차량 자세 및 위치의 변화를 식별하고, 상기 변화에 기초하여 물리적 특성 센서 세스템으로부터의 자율 가이드 차량 자세 또는 위치 정보를 업데이트하거나 완료하는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
According to clause 47,
Identifying changes in the autonomous guided vehicle attitude and position based on a comparison between the virtual representation and the reference representation via the controller, and updating or completing the autonomous guided vehicle attitude or position information from the physical property sensor system based on the changes. A method characterized in that it further comprises steps.
제 48 항에 있어서,
상기 컨트롤러는 상기 물리적 특성 센서 시스템으로부터의 정보에서의 위치 오류를 결정하고 식별된 변화 및 적어도 하나의 이미지의 분석 중 적어도 하나에 기초하여 물리적 특성 센서 세스템으로부터의 자율 가이드 차량 자세 및 위치의 정확도를 결정하며, 상기 위치 오류 및 정확도 중 적어도 하나에 따라 신뢰도 값을 할당하는 것을 특징으로 하는 방법.
According to clause 48,
The controller determines position errors in information from the physical property sensor system and adjusts the accuracy of the autonomous guided vehicle attitude and position from the physical property sensor system based on at least one of the identified changes and analysis of the at least one image. and determining a reliability value based on at least one of the location error and accuracy.
제 49 항에 있어서,
상기 컨트롤러는 상기 신뢰도 값이 소정의 임계값 미만인 경우, 상기 물리적 특성 센서 시스템의 자세 및 위치 정보 대신에 상기 가상 표현에서 생성된 자세 및 위치 정보를 기반으로 자율 가이드 차량 내비게이션을 전환하는 것을 특징으로 하는 방법.
According to clause 49,
When the reliability value is less than a predetermined threshold, the controller switches the autonomous guided vehicle navigation based on the posture and position information generated from the virtual representation instead of the posture and position information of the physical characteristic sensor system. method.
제 50 항에 있어서,
전환 후, 상기 컨트롤러는,
목적지까지 자율 가이드 차량 네비게이션을 계속하거나 또는 자율 가이드 차량의 안전한 경로 및 궤적을 선택하여 자율 가이드 차량을 전환 위치에서 정지를 위한 안전한 위치로 오게 하는 것, 또는;
사용자 인터페이스 장치를 통해 자동 작동에서 준자동 작동 또는 수동 작동까지 자율 가이드 차량 제어의 운영자 선택을 위한 자율 가이드 차량 운동 데이터 및 목적지를 식별하는 운영자와의 통신을 개시하도록 되는 것을 특징으로 하는 방법.
According to claim 50,
After switching, the controller:
continue navigation of the autonomous guided vehicle to the destination or select a safe path and trajectory for the autonomous guided vehicle to bring the autonomous guided vehicle from a transition location to a safe location for stopping; or
A method characterized in that the method is adapted to initiate, via a user interface device, communication with an operator identifying a destination and autonomous guided vehicle movement data for operator selection of autonomous guided vehicle control from automatic operation to semi-autonomous operation or manual operation.
제 45 항에 있어서,
상기 컨트롤러는, 상기 가상 표현과 상기 기준 표현의 비교를 기반으로 상기 물리적 특성 센서 시스템으로부터 상기 컨트롤러에 등록된 페이로드 자세 및 위치 정보를 확인하는 것을 특징으로 하는 방법.
According to claim 45,
wherein the controller verifies payload attitude and position information registered to the controller from the physical characteristic sensor system based on a comparison of the virtual representation and the reference representation.
제 52 항에 있어서,
상기 컨트롤러는 가상 표현과 기준 표현 간의 비교에 기초하여 페이로드 자세 및 위치의 변화를 식별하고, 상기 변화에 기초하여 물리적 특성 센서 시스템으로부터 페이로드 자세 또는 위치 정보를 업데이트하거나 완료하는 것을 특징으로 하는 방법.
According to claim 52,
wherein the controller identifies changes in payload pose and position based on a comparison between the virtual representation and the reference representation, and updates or completes payload pose or position information from a physical property sensor system based on the changes. .
제 53 항에 있어서,
상기 컨트롤러는 물리적 특성 센서 세스템으로부터의 정보에서 자세 오류를 결정하고 상기 식별된 변화 및 적어도 하나의 이미지의 분석 중 적어도 하나에 기초하여 물리적 특성 센서 시스템으로부터 페이로드 자세 및 위치의 정확도를 결정하며, 상기 자세 오류 및 정확도 중 적어도 하나에 따라 신뢰도 값을 할당하는 것을 특징으로 하는 방법.
According to claim 53,
wherein the controller determines an attitude error from information from the physical property sensor system and determines an accuracy of payload attitude and position from the physical property sensor system based on at least one of the identified changes and analysis of the at least one image; A method characterized by assigning a reliability value according to at least one of the posture error and accuracy.
제 54 항에 있어서,
상기 신뢰도 값이 소정의 임계값 미만인 경우, 상기 컨트롤러는 상기 물리적 특성 센서 시스템으로부터의 자세 및 위치 정보 대신에 상기 가상 표현으로부터 생성된 자세 및 위치 정보에 기초하여 자율 가이드 차량 페이로드 핸들링을 전환하는 것을 특징으로 하는 방법.
According to claim 54,
If the confidence value is below a predetermined threshold, the controller switches autonomous guided vehicle payload handling based on attitude and position information generated from the virtual representation instead of attitude and position information from the physical characteristic sensor system. How to feature.
제 55 항에 있어서,
전환 후, 상기 컨트롤러는,
목적지까지 자동 가이드 차량 핸들링을 계속하거나, 또는
사용자 인터페이스 장치를 통해 자동 페이로드 처리 작업으로부터 준자동 페이로드 처리 작업 또는 수동 페이로드 처리 작업까지 자율 가이드 차량 제어를 운영자가 선택하는 것과 함께 페이로드 데이터를 식별하는 운영자와의 통신을 시작하는 것을 특징으로 하는 방법.
According to claim 55,
After switching, the controller:
Continue handling the automated guided vehicle to your destination, or
characterized by initiating communication with the operator identifying payload data together with the operator's selection of control of the autonomous guided vehicle from an automated payload processing operation to a semi-automated payload processing operation or a manual payload processing operation via a user interface device. How to do it.
제 42 항에 있어서,
상기 컨트롤러는 컨트롤러와 운영자 인터페이스를 통신 가능하게 결합하는 무선 통신 시스템을 통해, 이미지화 된 하나 이상의 소정의 특징의 가상 표현과 실시간 현실 증강 이미지를 운영자에게 제공하는 기준 표현의 하나 이상의 대응하는 기준 소정의 특징을 결합한 시뮬레이션 이미지를 전송하는 것을 특징으로 하는 방법.
According to claim 42,
The controller may display a virtual representation of one or more imaged predetermined features and one or more corresponding reference predetermined features of the reference representation to provide the operator with a real-time augmented image, via a wireless communication system communicatively combining the controller and the operator interface. A method characterized by transmitting a simulation image combining.
제 57 항에 있어서,
상기 컨트롤러는 횡단하는 자율 가이드 차량에 대한 실시간 운영자 명령을 수신하며, 상기 명령은 실시간 증강 현실 이미지에 반응하며, 상기 컨트롤러에 의해 운영자에게 전송된 실시간 증강 현실 이미지에서 변화하는 것을 특징으로 하는 방법.
According to clause 57,
wherein the controller receives real-time operator commands for a traversing autonomous guided vehicle, the commands being responsive to real-time augmented reality images and changes in the real-time augmented reality images transmitted by the controller to the operator.
제 41 항에 있어서,
상기 보조 센서 시스템은 자율 가이드 차량에 탑재된 케이스 유닛의 즉석 정렬 및/또는 분류에 적어도 부분적으로 영향을 미치는 것을 특징으로 하는 방법.
According to claim 41,
The method of claim 1 , wherein the auxiliary sensor system at least partially influences on-the-fly alignment and/or sorting of case units mounted on the autonomous guided vehicle.
제 41 항에 있어서,
상기 보조 센서 시스템으로부터의 보조 정보, 보조 차량 내비게이션 자세 또는 위치, 보조 페이로드 자세 또는 위치 중 하나 이상에 의해 설명되는 이미지화 되거나 보여지는 물체는 주변 설비 특징 및 인터페이싱 설비 특징 중 하나 이상의 기준 모델에 접합되어, 보조 정보, 보조 차량 네비게이션 자세 또는 위치 및 보조 페이로드 자세 또는 위치 중 적어도 하나를 통하여, 차량 네비게이션 자세 또는 위치 정보 및 페이로드 자세 또는 위치 정보 중 적어도 하나의 해상도를 향상시키게 되는 것을 특징으로 하는 방법.
According to claim 41,
The imaged or viewed object described by one or more of ancillary information from the auxiliary sensor system, auxiliary vehicle navigation attitude or position, auxiliary payload attitude or position is coupled to a reference model of one or more of peripheral facility features and interfacing facility features. , a method characterized in that the resolution of at least one of vehicle navigation attitude or location information and payload attitude or location information is improved through at least one of auxiliary information, auxiliary vehicle navigation attitude or position, and auxiliary payload attitude or position. .
자율 가이드 차량에 있어서, 상기 자율 가이드 차량은:
페이로드 홀드(payload hold)가 있는 프레임;
횡단 표면에서 차량을 지지하는 구동 휠과 함께 프레임에 결합된 구동 섹션으로서, 상기 구동 휠은 설비의 횡단 표면 위로 차량을 이동시키는 횡단 표면의 차량 횡단에 영향을 미치는, 구동 섹션;
저장 어레이에서 차량의 페이로드 홀드 및 페이로드의 저장 위치 간에 페이로드를 전송하도록 된 프레임에 연결된 페이로드 핸들러;
차량과 운전자의 협동을 위해 프레임에 연결되는 보조 센서 시스템으로서, 상기 보조 센서 시스템은 설비의 차량에 의한 자동 네비게이션을 위한 차량 자세 및 위치 정보를 구현하는 감지 데이터를 적어도 수집하도록 된 차량 자율 네비게이션/작동 센서 시스템을 보조하는, 보조 센서 시스템;을 포함하며,
상기 보조 센서 시스템은, 적어도 부분적으로, 카메라에 의해 설비에서 서로 다른 위치에서 차량에 대하여 보여지는 설비의 적어도 일부분 내에서 물체 및/또는 공간 특징을 알려주는 이미지 데이터를 캡처하도록 배치된 적어도 하나의 카메라를 가진 비전 시스템이며,
상기 프레임에 연결되고 상기 적어도 하나의 카메라의 이미지 데이터로부터 정보를 등록하기 위해 상기 보조 센서 시스템과 통신 가능하게 결합되는 컨트롤러를 포함하되, 상기 컨트롤러는 상기 정보로부터, 적어도 하나의 물체 또는 공간적 특징의 소정의 물리적 특성의 존재를 결정하고, 이에 응답하여 차량이 차량 작동에 계속 영향을 미치도록 차량에 대한 운영자 명령을 수신하도록 배치된 협동 차량 상태로 차량을 자율 상태에서 선택적으로 재구성하도록 된 것을 특징으로 하는 자율 가이드 차량.
In an autonomous guided vehicle, the autonomous guided vehicle:
Frame with payload hold;
a drive section coupled to the frame with drive wheels supporting the vehicle on the transverse surface, the drive wheels effecting vehicle traversal of the transverse surface to move the vehicle over the transverse surface of the facility;
a payload handler coupled to the frame configured to transfer the payload between the vehicle's payload hold and a storage location for the payload in the storage array;
An auxiliary sensor system connected to the frame for cooperation between vehicle and driver, said auxiliary sensor system configured to collect at least sensing data implementing vehicle attitude and position information for autonomous navigation by the vehicle of the installation Includes an auxiliary sensor system that assists the sensor system,
The auxiliary sensor system may comprise, at least in part, at least one camera positioned to capture image data indicative of objects and/or spatial features within at least a portion of the facility as viewed by the camera to the vehicle at different locations in the facility. It is a vision system with
a controller coupled to the frame and communicatively coupled with the auxiliary sensor system to register information from image data of the at least one camera, wherein the controller registers, from the information, a predetermined number of objects or spatial features; , and in response thereto selectively reconfigure the vehicle from an autonomous state to a cooperative vehicle state where the vehicle is positioned to receive operator commands for the vehicle to continue to influence vehicle operation. Autonomous guided vehicle.
제 61 항에 있어서,
소정의 물리적 특성은 적어도 하나의 물체 또는 공간적 특징이 횡단 표면, 상기 횡단 표면을 가로지르는 차량 횡단 경로의 적어도 일부를 가로질러, 또는 차량의 공간을 통해 또는 횡단 표면을 횡단하는 다른 차량을 통하여 연장되도록 되는 것을 특징으로 하는 자율 가이드 차량.
According to claim 61,
The predetermined physical characteristic is such that at least one object or spatial feature extends across a crossing surface, at least a portion of a vehicle crossing path across the crossing surface, or through the space of a vehicle or through another vehicle crossing the crossing surface. An autonomous guided vehicle characterized by being
제 61 항에 있어서,
상기 컨트롤러는 차량이 통과하는 설비를 적어도 부분적으로 정의하는 소정의 특징의 기준 표현으로 프로그래밍 되는 것을 특징으로 하는 자율 가이드 차량.
According to claim 61,
and wherein the controller is programmed with a reference representation of certain characteristics that at least partially define the facility through which the vehicle passes.
제 61 항에 있어서,
상기 컨트롤러는 상기 캡처된 이미지 데이터를 등록하고, 그로부터 상기 적어도 하나의 물체 또는 공간적 특징에 대한 적어도 하나의 이미지를 생성하도록 된 것을 특징으로 하는 자율 가이드 차량.
According to claim 61,
and the controller is arranged to register the captured image data and generate therefrom at least one image of the at least one object or spatial feature.
제 1 항에 있어서,
적어도 하나의 이미지는 기준 표현의 소정의 특징 중 하나 이상의 기준 특징에 대한 비교를 제공하기 위해 적어도 하나의 물체 또는 공간 특징의 가상 표현으로 형식화(format)되는 것을 특징으로 하는 자율 가이드 차량.
According to claim 1,
An autonomous guided vehicle, wherein the at least one image is formatted into a virtual representation of at least one object or spatial feature to provide comparison to one or more predetermined features of the reference representation.
제 65 항에 있어서,
상기 컨트롤러는 상기 가상 표현과 상기 기준 표현 간의 비교에 기초하여 상기 물체의 소정의 물리적 특징 또는 공간적 특징의 존재를 식별하고, 상기 소정의 물리적 특성의 크기를 결정하고, 비교를 통해 결정된 물체의 위치나 공간적 특징을 기반으로 차량이 소정의 궤적에서 정지하도록 명령하는 것을 특징으로 하는 자율 가이드 차량.
According to item 65,
The controller identifies the presence of a predetermined physical feature or spatial feature of the object based on a comparison between the virtual representation and the reference representation, determines the size of the predetermined physical feature, and determines the location or location of the object determined through the comparison. An autonomous guided vehicle characterized by commanding the vehicle to stop at a predetermined trajectory based on spatial characteristics.
제 66 항에 있어서,
소정의 궤적에서의 정지 위치는 적어도 하나의 카메라의 시야 범위 내에서 물체 또는 공간 기준을 유지하고, 소정의 물리적 특성의 지속적인 이미징을 유지하고, 하나 이상의 다른 차량에 피해야 할 지역 또는 우회 지역에 대한 신호를 개시하는 것을 특징으로 하는 자율 가이드 차량.
According to clause 66,
The stopping position on the predetermined trajectory maintains an object or spatial reference within the field of view of at least one camera, maintains continuous imaging of the predetermined physical characteristic, and signals to one or more other vehicles an area to avoid or a detour area. An autonomous guided vehicle, characterized in that starting.
제 61 항에 있어서,
보정되고 차량에 대한 소정의 관계를 갖는 적어도 하나의 카메라의 기준 프레임 내에서 물체의 위치를 결정함으로써 소정의 물리적 특성은 컨트롤러에 의해 결정되고, 적어도 하나의 카메라의 기준 프레임 내의 물체 자세는 물체의 소정의 물리적 특성의 존재를 결정하는 것을 특징으로 하는 자율 가이드 차량.
According to claim 61,
Predetermined physical characteristics are determined by the controller by determining the position of the object within a reference frame of at least one camera that is calibrated and has a predetermined relationship to the vehicle, wherein the object pose within the reference frame of the at least one camera is determined by determining a predetermined physical characteristic of the object. An autonomous guided vehicle characterized by determining the presence of physical characteristics of.
제 68 항에 있어서,
상기 컨트롤러는 존재 여부를 식별하고 자율 상태에서 협동 차량 상태로 전환하고, 통신 이미지, 소정의 물리적 특성의 존재 여부 식별을 차량의 운전자 협업 작업을 위한 운전자 인터페이스로 전송하는 것을 개시하는 것을 특징으로 하는 자율 가이드 차량.
According to clause 68,
wherein the controller identifies the presence and transition from an autonomous state to a collaborative vehicle state and initiates transmission of a communication image, identification of the presence or absence of certain physical characteristics, to the driver interface for driver collaboration tasks in the vehicle. Guide vehicle.
제 61 항에 있어서,
상기 컨트롤러는 궤도를 따른 자율 가이드 차량의 움직임이 물체의 위치 및/또는 공간적 특징에 따라 조정되는 소정의 시간 내에 자율 가이드 차량을 0의 속도로 만드는 궤도를 자율 가이드 차량에 적용하도록 된 것을 특징으로 하는 자율 가이드 차량.
According to claim 61,
The controller is characterized in that it applies a trajectory to the autonomous guide vehicle that causes the autonomous guide vehicle to reach zero speed within a predetermined time in which the movement of the autonomous guide vehicle along the track is adjusted according to the position and / or spatial characteristics of the object. Autonomous guided vehicle.
제 61 항에 있어서,
물체 및/또는 공간적 특징을 알려주는 이미지 데이터의 캡처는 차량의 페이로드 홀드 또는 저장 어레이의 저장 위치 간에 페이로드를 전달하는 동안 기회적으로 이루어지는 것을 특징으로 하는 자율 가이드 차량.
According to claim 61,
An autonomous guided vehicle, wherein the capture of image data indicative of object and/or spatial features occurs opportunistically while transferring the payload between payload holds on the vehicle or storage locations in a storage array.
제 61 항에 있어서,
상기 컨트롤러는 하나 이상의 소정의 페이로드 자동 운송 작업을 수행하는 차량과 관련된 설비의 다른 위치로 차량을 명령하도록 프로그래밍 되어 있으며, 각각의 하나 이상의 소정의 페이로드 자동 운송 작업은 적어도 하나의 카메라가 서로 다른 위치에서 본 캡처 이미지 데이터와는 별개의 작업인 것을 특징으로 하는 자율 가이드 차량.
According to claim 61,
The controller is programmed to command the vehicle to a different location in the facility associated with the vehicle performing one or more predetermined automated payload autonomous transport operations, each of which is configured to have at least one camera on a different An autonomous guided vehicle characterized by tasks that are independent of the captured image data viewed from the location.
제 68 항에 있어서,
상기 컨트롤러는 적어도 하나의 물체 또는 공간적 특징의 소정의 물리적 특성의 존재에 대한 결정이 각각에 하나 이상의 소정의 페이로드 자동 운동 작업을 수행하는 차량의 운동 적어도 부분적으로 일치하지만 보조적이며 주변적인 것을 특징으로 하는 자율 가이드 차량.
According to clause 68,
wherein the controller determines the presence of predetermined physical characteristics of at least one object or spatial feature, each of which is at least partially consistent with, but secondary and peripheral to, the movement of the vehicle performing an autonomous motion task with one or more predetermined payloads. autonomous guided vehicle.
제 68 항에 있어서,
상기 컨트롤러는 적어도 하나의 물체 또는 공간 특징의 소정의 물리적 특징의 존재에 대한 결정이 각각의 하나 이상의 소정의 페이로드 자동 전달 작업을 수행하는 차량 동작에 기회적(opportunistic)이도록 되는 것을 특징을 하는 차량 가이드 차량.
According to clause 68,
wherein the controller is such that the determination of the presence of certain physical characteristics of at least one object or spatial feature is opportunistic to the vehicle's operation to perform each of one or more certain automatic delivery tasks. Guide vehicle.
제 74 항에 있어서,
하나 이상의 소정의 페이로드 자동 운송 작업 중 적어도 하나는 서로 다른 위치 중 적어도 하나에 영향을 미치는 것을 특징으로 하는 자율 가이드 차량.
According to clause 74,
An autonomous guided vehicle, wherein at least one of the one or more predetermined autonomous transport operations affects at least one of the different locations.
제 61 항에 있어서,
협동 차량 상태는 하나 이상의 소정의 페이로드 자동 전달 작업 각각에 영향을 미치는 차량의 자율 상태를 보충하는 것을 특징으로 하는 자율 가이드 차량.
According to claim 61,
An autonomous guided vehicle wherein the cooperative vehicle state supplements the vehicle's autonomous state to influence each of one or more predetermined automatic payload delivery tasks.
방법에 있어서, 상기 방법은:
자율 가이드 차량을 제공하는 단계로서, 상기 자율 가이드 차량은:
페이로드 홀드를 구비한 프레임;
횡단 표면에서 차량을 지지하는 구동 휠을 구비한 프레임에 결합된 구동 섹션으로서, 상기 구동 휠은 설비의 횡단 표면 위로 차량을 이동시키는 횡단 표면의 차량 횡단에 영향을 미치는, 구동 섹션;
저장 어레이에서 차량의 페이로드 홀드 및 페이로드의 저장 위치 간에 페이로드를 전송하도록 된 프레임에 연결된 페이로드 핸들러;
차량과 운영자의 협동을 위해 프레임에 연결된 보조 센서 시스템을 사용하여, 차량이 설비에서 서로 다른 위치에 있을 때 적어도 하나의 카메라에 의해 보이는 설비의 적어도 일부 내의 물체 및/또는 공간적 특징을 알려주는 이미지 데이터를 생성하는 단계로서, 보조 센서 시스템은 적어도 부분적으로 이미지 데이터를 캡처하도록 배치된 적어도 하나의 카메라를 갖춘 비전 시스템이고, 상기 보조 센서 시스템은 적어도 설비의 차량에 의해 자동 네비게이션 하는 것에 대한 차량 자세 및 위치 정보를 구현하는 센서 데이터를 수집하도록 된 차량 자율 네비게이션/작동 센서 시스템을 보충하는, 이미지 데이터를 생성하는 단계;
상기 프레임에 연결되고 보조 센서 시스템에 통신 가능하게 연결된 컨트롤러에 적어도 하나의 카메라의 이미지 데이터로부터의 정보를 등록하는 단계; 및
컨트롤러를 이용하여, 상기 정보로부터, 적어도 하나의 물체 또는 공간적 특징의 사전 결정된 물리적 특성의 존재를 결정하고, 이에 응답하여, 자율 상태로부터 차량 작동을 계속 수행하기 위한 차량에 대한 운영자 명령을 수신하도록 배치된 협동 차량 상태로 차량을 선택적으로 재구성하는 단계;를 포함하는 방법.
In the method, said method:
providing an autonomous guided vehicle, wherein the autonomous guided vehicle:
Frame with payload holds;
a drive section coupled to a frame having drive wheels that support a vehicle on a transverse surface, the drive wheels effecting vehicle traversal of the transverse surface to move the vehicle over the transverse surface of the installation;
a payload handler coupled to the frame configured to transfer the payload between the vehicle's payload hold and a storage location for the payload in the storage array;
Image data indicating objects and/or spatial features within at least a portion of the facility as viewed by at least one camera when the vehicle is at different locations in the facility, using an auxiliary sensor system connected to the frame for vehicle and operator coordination. generating a auxiliary sensor system, wherein the auxiliary sensor system is a vision system having at least one camera positioned to capture, at least in part, image data, wherein the auxiliary sensor system determines at least a vehicle attitude and position for autonomous navigation by a vehicle in the facility; generating image data to supplement a vehicle autonomous navigation/actuation sensor system adapted to collect sensor data embodying information;
registering information from image data of at least one camera with a controller coupled to the frame and communicatively coupled to an auxiliary sensor system; and
Using the controller, arranged to determine from said information the presence of predetermined physical characteristics of at least one object or spatial feature and, in response thereto, to receive operator commands for the vehicle to continue performing vehicle operations from an autonomous state A method comprising: selectively reconfiguring a vehicle into a cooperative vehicle state.
제 77 항에 있어서,
소정의 물리적 특성은 적어도 하나의 물체 또는 공간적 특징이 횡단 표면의 적어도 일부, 횡단 표면을 가로지르는 차량 횡단 경로를 가로질러 또는 차량 또는 횡단 표면을 횡단하는 다른 차량의 공간을 통해 확장되는 것을 특징으로 하는 방법.
According to clause 77,
Predetermined physical properties are characterized in that at least one object or spatial feature extends at least a portion of the crossing surface, across a vehicle crossing path crossing the crossing surface, or through the space of a vehicle or another vehicle crossing the crossing surface. method.
제 77 항에 있어서,
상기 컨트롤러는 차량이 통과하는 설비를 적어도 부분적으로 정의하는 소정의 특징의 기준 표현으로 프로그래밍 되는 것을 특징으로 하는 방법.
According to clause 77,
and wherein the controller is programmed with a reference representation of certain characteristics that at least partially define the facility through which the vehicle passes.
제 77 항에 있어서,
등록되고 캡처된 이미지 데이터로부터, 소정의 물리적 특성을 나타내는 적어도 하나의 물체 또는 공간 특징에 대한 적어도 하나의 영상을 생성하는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
According to clause 77,
The method further comprising generating, from the registered and captured image data, at least one image of at least one object or spatial feature representing predetermined physical characteristics.
제 77 항에 있어서,
적어도 하나의 이미지는 적어도 하나의 물체 또는 공간적 특징의 가상 표현으로서 형식화되고, 상기 방법은 가상 표현을 기준 표현의 소정의 특징 중 하나 이상의 기준 특징과 비교하는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
According to clause 77,
At least one image is formatted as a virtual representation of at least one object or spatial feature, the method further comprising comparing the virtual representation to one or more reference features of a predetermined feature of the reference representation. .
제 81 항에 있어서,
상기 컨트롤러를 사용하여, 상기 가상 표현과 상기 참조 표현 간의 비교에 기초하여 상기 물체 또는 공간적 특징의 소정의 물리적 특성의 존재를 식별하는 단계, 상기 소정의 물리적 특성의 크기를 결정하는 단계, 및 비교를 통해 결정된 물체의 위치 또는 공간적 특징을 기반으로 하는 소정의 궤적에서 차량이 정지하도록 명령하는 단계를 추가로 포함하는 것을 특징을 하는 방법.
According to claim 81,
Using the controller, identifying the presence of a predetermined physical characteristic of the object or spatial feature based on a comparison between the virtual representation and the reference representation, determining a magnitude of the predetermined physical characteristic, and making the comparison. A method further comprising commanding the vehicle to stop on a predetermined trajectory based on the location or spatial characteristics of the object determined through the method.
제 82 항에 있어서,
차량이 소정의 궤적의 정지 위치에 있는 상태에서, 적어도 하나의 카메라의 시야 내에서 물체 또는 공간적 기준을 유지하고, 소정의 물리적 특성을 계속적으로 이미징화 하는 단계, 및 교통 장애물, 회피 구역, 우회 구역 중 하나 이상을 적어도 다른 차량에 신호를 보내는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
According to item 82,
With the vehicle in a stationary position on a predetermined trajectory, maintaining an object or spatial reference within the field of view of at least one camera and continuously imaging predetermined physical characteristics, and traffic obstacles, avoidance zones, and detour zones. A method further comprising the step of sending a signal to at least another vehicle.
제 77 항에 있어서,
소정의 물리적 특성은, 상기 컨트롤러가 캘리브레이션 되어 차량과 소정의 관계를 가지는 적어도 하나의 카메라의 기준 프레임 내에서 물체의 위치를 결정함으로써 결정되고, 적어도 하나의 카메라의 기준 프레임에서의 물체 자세로부터 물체의 소정의 물리적 특성의 존재를 결정하는 것을 특징으로 하는 방법.
According to clause 77,
The predetermined physical characteristic is determined by determining the position of the object within a frame of reference of at least one camera with which the controller is calibrated and has a predetermined relationship to the vehicle, wherein the controller determines the position of the object from the object pose in the frame of reference of the at least one camera. A method characterized by determining the presence of a predetermined physical property.
제 84 항에 있어서,
상기 컨트롤러는 상기 적어도 하나의 물체 또는 공간적 특징의 소정의 물리적 특성의 존재를 식별하고, 자율 상태에서 협동 차량 상태로 전환하여, 전송 통신 이미지를 시작하고, 소정의 물리적 특성의 식별을 차량의 운영자 협동 작동을 위한 운영자 인터페이스에 제공하도록 된 것을 특징으로 하는 방법.
According to item 84,
The controller identifies the presence of a predetermined physical characteristic of the at least one object or spatial feature, switches from an autonomous state to a cooperative vehicle state, initiates transmission of communication images, and identifies the predetermined physical characteristic to a cooperative operator of the vehicle. A method characterized in that it is adapted to provide an operator interface for operation.
제 77 항에 있어서,
상기 컨트롤러를 사용하여,
상기 궤적을 따르는 자율 가이드 차량의 움직임이 물체의 위치 및/또는 공간적 특징에 따라 조절되는 소정의 시간 내에 자율 가이드 차량을 0의 속도로 만드는 자율 가이드 차량에 궤적을 적용하는 단계를 추가로 포함하는 것을 특징으로 하는 자율 가이드 차량.
According to clause 77,
Using the above controller,
Further comprising the step of applying a trajectory to the autonomous guided vehicle that causes the autonomous guided vehicle to reach zero speed within a predetermined time in which the movement of the autonomous guided vehicle along the trajectory is adjusted according to the location and/or spatial characteristics of the object. Features an autonomous guided vehicle.
제 77 항에 있어서,
물체 및/또는 공간적 특징을 알려주는 이미지 데이터의 캡처는 차량의 페이로드 홀드 또는 저장 어레이의 저장 위치 간에 페이로드를 전달하는 동안 기회적으로 이루어지는 것을 특징으로 하는 자율 가이드 차량.
According to clause 77,
An autonomous guided vehicle, wherein the capture of image data indicative of object and/or spatial features occurs opportunistically while transferring the payload between payload holds on the vehicle or storage locations in a storage array.
자율 가이드 차량에 있어서, 상기 자율 가이드 차량은:
파워 서플라이가 장착되어 있는 차량 섀시 및 상기 섀시에 연결되고 파워 서플라이에 의해 각각 전원을 공급받는 전원 섹션으로서, 상기 전원 섹션은:
모터 구동 휠을 구비하고, 차량 섀시를 지지하며, 자율 안내를 받는 설비의 횡단 표면에서 자율 가이드 차량을 횡단하도록 배치되는 구동 섹션;
적어도 하나의 페이로드 핸들링 액츄에이터의 작동이 차량 섀시의 페이로드 베드 및 설비 내 저장소 간에 페이로드 전달을 수행하도록 된 적어도 하나의 페이로드 핸들링 액츄에이터를 갖는 페이로드 핸들링 섹션;
자율 자세 및 내비게이션 센서 중 적어도 하나, 페이로드 핸들링 센서 중 적어도 하나, 및 적어도 하나의 주변 모터를 갖는 주변 전자 장치 섹션으로서, 적어도 하나의 상기 주변 모터는 구동 섹션의 각 모터 및 페이로드 핸들링 섹션의 각 액츄에이터와 별개로 분리되어 구별되는, 주변 전자 장치 섹션;을 포함하는 차량 섀시 및 전원 섹션;
자율 주행 차량의 각 자율 작동을 수행하기 위해 구동 섹션, 페이로드 핸들링 섹션 및 주변 섹션에 각각 통신 가능하게 연결된 컨트롤러로서, 상기 컨트롤러는 파워 서플라이의 충전 레벨을 모니터링하기 위해 파워 서플라이에 통신 가능하게 연결된 종합 전력 관리 섹션을 포함하는, 컨트롤러;를 포함하되,
상기 종합 전력 관리 섹션은 상기 구동 섹션, 상기 페이로드 핸들링 섹션, 상기 구동 섹션, 페이로드 핸들링 섹션 및 파워 서플라이로부터의 주변 전자 장치 섹션에 각각 전원을 공급하는 주변 전자 장치 섹션의 각각의 분기 회로에 각각 연결되며, 상기 종합 전력 관리 섹션은 파워 서플라이로부터 가용 충전 레벨에 대하여 각 분기 회로의 요구 레벨에 기초하여 분기 회로의 전력 소비를 관리하도록 된 것을 특징으로 하는 자율 가이드 차량.
In an autonomous guided vehicle, the autonomous guided vehicle:
A vehicle chassis equipped with a power supply and a power section connected to the chassis and each powered by a power supply, the power section comprising:
a drive section having motor driven wheels, supporting the vehicle chassis, and arranged to traverse the autonomously guided vehicle on the traversing surface of the autonomously guided facility;
a payload handling section having at least one payload handling actuator wherein actuation of the at least one payload handling actuator is such that operation of the at least one payload handling actuator performs payload transfer between a payload bed in a vehicle chassis and storage within the facility;
A peripheral electronics section having at least one of an autonomous attitude and navigation sensor, at least one of a payload handling sensor, and at least one peripheral motor, wherein the at least one peripheral motor is configured for each motor in the drive section and each of the payload handling sections. a vehicle chassis and power section comprising: a peripheral electronics section that is separate and distinct from the actuator;
A controller communicatively connected to a drive section, a payload handling section, and a peripheral section respectively to perform each autonomous operation of the autonomous vehicle, said controller communicatively connected to a power supply to monitor the charge level of the power supply. A controller, including a power management section;
The integrated power management section is configured to each branch circuit of the drive section, the payload handling section, and the peripheral electronics section respectively supplying power to the drive section, the payload handling section, and the peripheral electronics section from the power supply. connected, and the comprehensive power management section manages the power consumption of each branch circuit based on the required level of each branch circuit with respect to the available charge level from the power supply.
제 88 항에 있어서,
상기 종합 전력 관리 섹션은, 파워 서플라이로부터 가용가능한 다른 분기 회로 및 충전 레벨에 대하여 각각의 분기 회로의 요구 충전 레벨에 기초하여 소정의 패턴으로 각각의 분기 회로를 온 또는 오프 전환하는 각 분기 회로의 요구 충전 레벨을 관리하도록 된 것을 특징으로 하는 자율 가이드 차량.
According to clause 88,
The comprehensive power management section controls the requirements of each branch circuit, switching each branch circuit on or off in a predetermined pattern based on the required charge level of each branch circuit with respect to other branch circuits and charge levels available from the power supply. An autonomous guided vehicle characterized by managing its charge level.
제 88 항에 있어서,
상기 소정의 패턴은, 상기 컨트롤러로 향하는 파워 서플라이로부터의 가용 충전 레벨을 최대화하기 위해, 상기 파워 서플라이로부터의 가용 충전 레벨이 감소함에 따라 분기 회로를 오프로 스위칭 하도록 된 것을 특징으로 하는 자율 가이드 차량.
According to clause 88,
wherein the predetermined pattern switches the branch circuit off as the available charge level from the power supply decreases, in order to maximize the available charge level from the power supply to the controller.
제 88 항에 있어서,
상기 소정의 패턴은, 상기 컨트롤러로 향하는 가용 충전 레벨이
파워 서플라이의 가용 충전 레벨에 기초한 최대 시간 동안 컨트롤러의 요구 충전 레벨 이상이 되도록 파워 서플라이로부터의 가용 충전 레벨이 감소하는 경우 분기회로를 오프로 스위칭 하도록 된 것을 특징으로 하는 자율 가이드 차량.
According to clause 88,
The predetermined pattern determines that the available charge level toward the controller is
An autonomous guided vehicle, characterized in that the branch circuit is switched off when the available charge level from the power supply decreases to be above the required charge level of the controller for a maximum period of time based on the available charge level of the power supply.
제 88 항에 있어서,
상기 컨트롤러는:
휘발성 메모리에 자율 가이드 차량 상태 및 네비게이션 정보, 및 자율 가이드 차량의 현재 및 예측 상태, 자세 및 위치를 결정하고 설명하는, 이력 및 현재를 등록 및 유지하도록 구성되는, 자율 네비게이션 제어 섹션; 및
휘발성 메모리에 현재 페이로드 아이덴티티, 상태 및 자세 정보, 이력 및 현재를 등록하고 유지하도록 된 자동 페이로드 처리 제어 섹션; 을 적어도 구비하며,
상기 컨트롤러는 파워 서플라이로부터 컨트롤러로 향하는 가용 충전 레벨이 컨트롤러의 수요 레벨보다 낮아지는 임박한 감소가 포괄적인 전력 관리 섹션으로부터 표시되면, 상기 컨트롤러는 해당 컨트롤러 섹션의 각 레지스트리 및 메모리에 보관된 자율 가이드 차량 상태, 자세 네비게이션 정보 페이로드 아이덴티티, 상태, 및 자세 정보 중 적어도 하나를 컨트롤러의 재부팅시 가용 초기화 파일로 재구성하는 것을 특징으로 하는 자율 가이드 차량.
According to clause 88,
The controller:
an autonomous navigation control section, configured to register and maintain autonomous guided vehicle status and navigation information, and historical and current, determining and describing current and predicted status, attitude and position of the autonomous guided vehicle, in a volatile memory; and
an automatic payload processing control section configured to register and maintain current payload identity, state and attitude information, history and presence in volatile memory; It has at least
When the controller receives an indication from the comprehensive power management section that the available charge level from the power supply to the controller is decreasing below the controller's demand level, the controller determines the autonomous guided vehicle status stored in the respective registries and memories of that controller section. , An autonomous guided vehicle characterized in that at least one of the attitude navigation information payload identity, status, and attitude information is reconfigured into an available initialization file upon reboot of the controller.
제 88 항에 있어서,
상기 컨트롤러는, 파워 서플라이로부터 컨트롤러로 향하는 가용 충전 레벨이 컨트롤러의 수요 레벨보다 낮은 수준으로 임박하게 감소할 수 있음을 종합 전력 관리 섹션으로부터 표시하면, 컨트롤러가 작동 중지 및 최대 절전 모드로 진입하는 것을 특징으로 하는 자율 가이드 차량.
According to clause 88,
wherein if the controller receives an indication from the comprehensive power management section that the available charge level from the power supply to the controller may imminently decrease to a level below the demand level of the controller, the controller will cease operation and enter a hibernation mode. Autonomous guided vehicle.
제 88 항에 있어서,
상기 컨트롤러는 파워 서플라이로부터 구동 섹션의 분기 회로로 향하는 가용 충전 레벨의 임박한 감소가 종합 전원 관리 섹션으로부터 표시되면, 상기 컨트롤러가 설비의 소정의 자율 가이드 차량 보조 정지 위치로의 보조 궤적 및 소정의 보조 경로를 따라 자율 가이드 차량을 운행시키도록 구동 섹션에 명령하도록 된 것을 특징으로 하는 자율 가이드 차량.
According to clause 88,
When the controller indicates from the comprehensive power management section an impending decrease in the available charge level from the power supply to the branch circuit of the drive section, the controller determines the auxiliary trajectory and the predetermined auxiliary path to the predetermined autonomous guided vehicle auxiliary stopping position of the installation. An autonomous guided vehicle, characterized in that the driving section is commanded to operate the autonomous guided vehicle along .
제 88 항에 있어서,
상기 컨트롤러는 파워 서플라이로부터 페이로드 핸들링 섹션의 분기 회로로 향하는 가용 충전 레벨의 임박한 감소를 종합 전력 관리 섹션으로부터 표시할 때, 상기 컨트롤러가 페이로드 핸들링 섹션에 페이로드 핸들링 액츄에이터와 그 위의 임의의 페이로드를 페이로드 베드의 소정의 안전한 페이로드 위치로 이동하도록 명령하는 것을 특징으로 하는 자율 가이드 차량.
According to clause 88,
When the controller indicates from the comprehensive power management section an impending decrease in the available charge level from the power supply to the branch circuits of the payload handling section, the controller instructs the payload handling section to activate the payload handling actuator and any payloads thereon. An autonomous guided vehicle characterized by commanding the load to move to a predetermined safe payload location in the payload bed.
제 88 항에 있어서,
상기 컨트롤러는:
차량 상태 모니터,
드라이브 섹션 상태 모니터,
페이로드 핸들링 섹션 상태 모니터, 및
주변 전자 장치 섹션 상태 모니터; 및
상태 등록 섹션; 중 적어도 하나를 포함하며,
상기 컨트롤러는, 파워 서플라이로부터 컨트롤러로 향하는 가용 충전 레벨의 임박한 감소가 컨트롤러의 수요 레벨보다 낮은 것으로 종합 전력 관리 섹션으로부터 표시되면, 차량 상태 모니터, 구동 섹션 상태 모니터, 페이로드 핸들링 섹션 상태 모니터, 및 상태 등록 섹션의 주변 전자 장치 섹션 상태 모니터 중 적어도 하나로부터 저장된 상태 정보를 컨트롤러의 재부팅시 가능가능한 초기화 파일로 구성하는 것을 특징으로 하는 자율 가이드 차량.
According to clause 88,
The controller:
vehicle health monitor,
drive section health monitor,
payload handling section status monitor, and
Peripheral electronics section health monitor; and
State registration section; Contains at least one of
The controller may, upon receiving an indication from the comprehensive power management section that an impending decrease in the available charge level from the power supply to the controller be lower than the controller's demand level, monitor the vehicle health section, the drive section health monitor, the payload handling section health monitor, and An autonomous guided vehicle, characterized in that the stored status information from at least one of the status monitors of the peripheral electronics section of the registration section is configured into an initialization file that is possible upon reboot of the controller.
제 88 항에 있어서, 상기 파워 서플라이는 울트라 커패시터이거나, 상기 충전레벨은 전압레벨인 것을 특징으로 하는 자율 가이드 차량.89. The autonomous guided vehicle of claim 88, wherein the power supply is an ultracapacitor or the charging level is a voltage level. 자율 가이드 차량의 전력관리 방법에 있어서, 상기 방법은:
파워 서플라이가 장착된 차량 섀시와 섀시에 연결되고 각각 파워 서플라이에 의해 전원이 공급되는 전력 섹션을 갖춘 자율 가이드 차량을 제공하는 단계로서, 상기 전력 섹션은:
모터 구동 휠을 구비하고, 차량 섀시를 지지하며, 자율 안내를 받는 설비의 횡단 표면에서 자율 가이드 차량을 횡단하도록 배치되는 구동 섹션;
적어도 하나의 페이로드 핸들링 액츄에이터의 작동이 차량 섀시의 페이로드 베드 및 설비의 저장소 간에 페이로드를 전달하도록 된 적어도 하나의 페이로드 핸들링 액츄에이터를 갖는 페이로드 핸들링 섹션;
하나 이상의 자율 자세 및 내비게이션 센서, 하나 이상의 페이로드 핸들링 센서, 및 하나 이상의 주변 모터를 갖는 주변 전자 장치 섹션으로서, 적어도 하나의 상기 주변 모터는 구동 섹션의 각 모터 및 페이로드 핸들링 섹션의 각 액츄에이터와 분리되어 구별되는, 주변 전자 장치 섹션; 을 포함하는. 자율 가이드 차량을 제공하는 단계;
구동 섹션, 페이로드 핸들링 섹션 및 주변 섹션에 각각 통신 가능하게 결합된 컨트롤러를 사용하여 자율 가이드 차량의 각각의 자율 작동을 수행하는 단계; 및
컨트롤러의 종합 전원 관리 섹션으로 파워 서플라이의 충전 레벨을 모니터링하는 단계로서, 상기 종합 전원 관리 섹션은 각각 구동 섹션, 페이로드 핸들링 섹션, 및 각 구동 섹션에 전력을 공급하는 주변 전자 장치 섹션, 페이로드 핸들링 섹션 및 파워 서플라이로부터의 주변 전자 장치 섹션의 각 분기 회로에 연결되며, 종합 전력 관리 섹션은 파워 서플라이로부터의 가용 충전 레벨에 대하여 각 분기 회로의 주요 레벨에 기초하여 분기 회로의 전력 소비를 관리하는 것을 특징으로 하는 방법.
In the power management method of an autonomous guided vehicle, the method includes:
Providing an autonomous guided vehicle having a vehicle chassis equipped with a power supply and a power section connected to the chassis and each powered by a power supply, wherein the power section:
a drive section having motor driven wheels, supporting the vehicle chassis, and arranged to traverse the autonomously guided vehicle on the traversing surface of the autonomously guided facility;
a payload handling section having at least one payload handling actuator wherein operation of the at least one payload handling actuator is such that operation of the at least one payload handling actuator transfers the payload between a payload bed of the vehicle chassis and a storage unit of the facility;
A peripheral electronics section having one or more autonomous attitude and navigation sensors, one or more payload handling sensors, and one or more peripheral motors, wherein at least one peripheral motor is separate from each motor in the drive section and each actuator in the payload handling section. is distinguished by a peripheral electronics section; containing. providing autonomous guided vehicles;
performing respective autonomous operations of the autonomous guided vehicle using a controller communicatively coupled to each of the drive section, payload handling section, and peripheral section; and
Monitoring the charge level of the power supply with a comprehensive power management section of the controller, wherein the comprehensive power management section includes a drive section, a payload handling section, and a peripheral electronics section that supplies power to each drive section and payload handling section, respectively. connected to each branch circuit of the section and peripheral electronics from the power supply, the comprehensive power management section is responsible for managing the power consumption of the branch circuit based on the main level of each branch circuit with respect to the available charge level from the power supply. How to feature.
제 98 항에 있어서,
상기 종합 전력 관리 섹션은 파워 서플라이로부터의 가용 충전 레벨 및 다른 분기 회로에 대한 각각의 분기 회로의 수요 충전 레벨에서 각각의 분기 회로를 온 또는 오프로 스위칭 하는 각각의 분기 회로의 수요 충전 레벨을 관리하는 것을 특징으로 하는 방법.
According to clause 98,
The comprehensive power management section manages the demand charge level of each branch circuit by switching each branch circuit on or off at the available charge level from the power supply and the demand charge level of each branch circuit with respect to the other branch circuits. A method characterized by:
제 98 항에 있어서,
소정의 상기 패턴은 상기 컨트롤러로 향하는 파워 서플라이로부터의 가용 충전 레벨을 최대화하기 위해, 상기 파워 서플라이로부터의 가용 충전 레벨이 감소함에 따라 분기 회로를 오프로 스위칭 하도록 되는 것을 특징으로 하는 방법.
According to clause 98,
wherein the predetermined pattern is such that branch circuits are switched off as the available charge level from the power supply decreases to maximize the available charge level from the power supply to the controller.
제 98 항에 있어서,
소정의 상기 패턴은 상기 컨트롤러로 향하는 가용 충전 레벨이 파워 서플라이의 가용 충전 레벨에 기초한 최대 시간에 대한 컨트롤러의 수요 충전 레벨 이상으로 되도록 파워 서플라이로부터의 가용 충전 레벨이 감소하는 경우에 분기 회로를 오프로 스위칭 하도록 배치된 것을 특징으로 하는 방법.
According to clause 98,
The predetermined pattern is to turn off the branch circuit when the available charge level from the power supply decreases such that the available charge level to the controller is above the controller's demand charge level for a maximum period of time based on the available charge level of the power supply. A method characterized in that it is arranged to switch.
제 98 항에 있어서,
상기 컨트롤러의 자율 항법 제어 섹션을 사용하여, 자율 가이드 차량의 현재 및 예측 상태, 자세 및 위치를 결정적이고 설명하는 과거 및 현재의 자율 가이드 차량 상태 및 자세 내비게이션 정보를 휘발성 메모리에 등록하고 유지하는 단계; 및
상기 컨트롤러의 자동 페이로드 처리 제어 섹션을 사용하여, 휘발성 메모리에 현재 페이로드 아이덴티티, 상태 및 자세 정보, 이력 및 현재를 등록하고 유지하는 단계; 중 적어도 하나를 추가로 포함하되,
파워 서플라이로부터 컨트롤러를 향하는 컨트롤러의 수요 레벨 미만으로 가용 충전 레벨의 감소가 임박했음을 종합 전력 관리 섹션으로부터 지시하는 경우, 상기 컨트롤러는 대응하는 컨트롤러 섹션의 각각의 레지스트리 및 메모리에 유지된 자율 가이드 차량 상태 및 자세 네비게이션 정보 및 페이로드 아이덴티티, 상태 및 자세 정보 중 적어도 하나를 컨트롤러의 재부팅시에 가용 초기화 파일로 구성하는 것을 특징으로 하는 방법.
According to clause 98,
registering and maintaining, using an autonomous navigation control section of the controller, past and present autonomous guided vehicle status and attitude navigation information in volatile memory that is conclusive and descriptive of current and predicted status, attitude and position of the autonomous guided vehicle; and
registering and maintaining current payload identity, state and attitude information, history and current in volatile memory using an automatic payload processing control section of the controller; Additionally include at least one of the following:
When there is an indication from the comprehensive power management section that a reduction in the available charge level below the controller's demand level is imminent from the power supply to the controller, the controller will determine the autonomous guided vehicle status maintained in the respective registries and memories of the corresponding controller section, and A method characterized by configuring at least one of attitude navigation information, payload identity, status, and attitude information into an initialization file available when the controller is rebooted.
제 98 항에 있어서,
파워 서플라이로부터 컨트롤러로 향하는 컨트롤러의 수요 레벨 미만으로 가용 충전 레벨의 감소가 임박하였음을 종합 전력 관리 섹션으로부터 지시하는 경우, 상기 컨트롤러는 작동의 연기 및 하이버네이션으로 진입하는 것을 특징으로 하는 방법.
According to clause 98,
and wherein, if an indication from the comprehensive power management section is indicated from the power supply that a decrease in the available charge level below the demand level of the controller is imminent, the controller postpones operation and enters hibernation.
제 98 항에 있어서,
상기 컨트롤러는, 상기 전원 공급 섹션으로부터 상기 구동 섹션의 분기 회로로 향하는 가용 충전 레벨의 감소가 임박했음을 상기 종합 전력 관리 섹션으로부터 지시하면, 상기 컨트롤러는 상기 자율 가이드 차량을 소정의 보조 경로 및 보조 궤적을 따라 설비의 소정의 자율 가이드 차량 보조 정지 위치로 주행하도록 상기 구동 섹션에 명령하는 것을 특징으로 하는 방법.
According to clause 98,
When the controller receives an indication from the comprehensive power management section that a decrease in the available charge level from the power supply section to the branch circuit of the drive section is imminent, the controller directs the autonomous guided vehicle along predetermined auxiliary paths and auxiliary trajectories. and commanding the drive section to drive to a predetermined autonomous guided vehicle assisted stopping position of the installation.
제 98 항에 있어서,
파워 서플라이로부터 페이로드 처리 섹션의 분기 회로로 향하는 가용 충전 레벨의 감소가 임박하였음을 종합인 전력 관리 섹션으로부터 표시하면, 상기 컨트롤러는 페이로드 핸들링 섹션에 페이로드 베드의 소정의 안전 페이로드 위치로 페이로드 핸들링 액츄에이터 및 그 위의 임의의 페이로드를 이동시키도록 명령하는 것을 특징으로 하는 방법.
According to clause 98,
Upon indication from the comprehensive power management section that a decrease in the available charge level from the power supply to the branch circuits of the payload handling section is imminent, the controller instructs the payload handling section to direct the payload to a predetermined safe payload location in the payload bed. A method characterized by commanding a load handling actuator and any payload thereon to move.
제 98 항에 있어서,
컨트롤러에 다음 중 하나 이상을 제공하는 단계로서,
차량 상태 모니터,
구동 섹션 상태 모니터,
페이로드 핸들링 섹션 상태 모니터, 및
주변 전자 장치 섹션 상태 모니터; 및
상태 등록 섹션;을 제공하는 단계를 추가로 포함하되,
파워 서플라이로부터 컨트롤러를 향하는 컨트롤러의 수요 레벨보다 낮은 가용 충전 레벨의 임박한 감소가 종합 전력 관리 섹션으로부터 표시되면, 상기 컨트롤러는
차량 상태 모니터, 구동 섹션 상태 모니터, 페이로드 핸들링 상태 모니터, 및 상태 등록 섹션의 주변 전자 장치 섹션 상태 모니터 중 적어도 하나로부터의 저장된 상태 정보를 컨트롤러의 재부팅시에 가용 초기화 파일로 재구성하는 것을 특징을 하는 방법.
According to clause 98,
Providing the controller with one or more of the following:
vehicle health monitor,
drive section health monitor,
payload handling section status monitor, and
Peripheral electronics section health monitor; and
Further comprising providing a status registration section;
If an impending decrease in the available charge level from the power supply to the controller is indicated from the comprehensive power management section below the controller's demand level, the controller
Characterized by reconstructing the stored status information from at least one of the vehicle status monitor, the drive section status monitor, the payload handling status monitor, and the peripheral electronics section status monitor of the status registration section into an available initialization file upon reboot of the controller. method.
제 98 항에 있어서,
상기 파워 서플라이는 울트라 커패시터이거나, 상기 충전레벨은 전압레벨인 것을 특징으로 하는 자율 가이드 차량.
According to clause 98,
The power supply is an ultra capacitor, or the charging level is a voltage level.
KR1020237044782A 2021-08-12 2022-05-26 Autonomous transport vehicle with vision system KR20240046119A (en)

Applications Claiming Priority (11)

Application Number Priority Date Filing Date Title
US202163232546P 2021-08-12 2021-08-12
US202163232531P 2021-08-12 2021-08-12
US63/232,531 2021-08-12
US63/232,546 2021-08-12
US202163251398P 2021-10-01 2021-10-01
US63/251,398 2021-10-01
US17/804,039 US20230107709A1 (en) 2021-10-01 2022-05-25 Autonomous transport vehicle with power management
US17/804,026 US20230050980A1 (en) 2021-08-12 2022-05-25 Autonomous transport vehicle with vision system
US17/804,039 2022-05-25
US17/804,026 2022-05-25
PCT/US2022/072592 WO2023019038A1 (en) 2021-08-12 2022-05-26 Autonomous transport vehicle with vision system

Publications (1)

Publication Number Publication Date
KR20240046119A true KR20240046119A (en) 2024-04-08

Family

ID=85200328

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020237044782A KR20240046119A (en) 2021-08-12 2022-05-26 Autonomous transport vehicle with vision system

Country Status (3)

Country Link
KR (1) KR20240046119A (en)
CA (1) CA3220378A1 (en)
WO (1) WO2023019038A1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7872368B2 (en) * 2008-10-24 2011-01-18 The Boeing Company Intelligent energy management architecture
FR3005925B1 (en) * 2013-05-27 2015-05-01 Renault Sa METHOD FOR OPERATING A VEHICLE IN MANUAL MODE AND IN AUTONOMOUS MODE
US9850079B2 (en) * 2015-01-23 2017-12-26 Symbotic, LLC Storage and retrieval system transport vehicle
US20210114826A1 (en) * 2019-10-16 2021-04-22 Symbotic Canada, Ulc Vision-assisted robotized depalletizer

Also Published As

Publication number Publication date
WO2023019038A1 (en) 2023-02-16
CA3220378A1 (en) 2023-02-16

Similar Documents

Publication Publication Date Title
US10759599B2 (en) Inventory management
KR102101417B1 (en) Joint inventory monitoring
CN108910375B (en) Goods picking method and device
US10488523B2 (en) Using laser sensors to augment stereo sensor readings for robotic devices
CN108349079B (en) Information communication about a robot using an optical identifier
US10122995B2 (en) Systems and methods for generating and displaying a 3D model of items in a warehouse
US10239701B2 (en) Conveyor screening during robotic article unloading
US10289111B1 (en) Systems and methods for removing debris from warehouse floors
CN107250004B (en) Modular multifunctional intelligent storage container
EP3391297B1 (en) Illuminating containers in an inventory system
KR20180091042A (en) Warehouse automation systems and methods using motorized carts
US20230050980A1 (en) Autonomous transport vehicle with vision system
US11932501B2 (en) Containerized robotic system
US20230107709A1 (en) Autonomous transport vehicle with power management
KR20240046119A (en) Autonomous transport vehicle with vision system
TW202307779A (en) Autonomous transport vehicle with vision system
CN117794845A (en) Autonomous transport vehicle with vision system
US20240111308A1 (en) Logistics autonomous vehicle with robust object detection, localization and monitoring
WO2022197837A1 (en) Robotic singulation system sensor