KR102397508B1 - 오버헤드 라이트 기반 배치를 갖는 산업용 차량 - Google Patents

오버헤드 라이트 기반 배치를 갖는 산업용 차량 Download PDF

Info

Publication number
KR102397508B1
KR102397508B1 KR1020167011300A KR20167011300A KR102397508B1 KR 102397508 B1 KR102397508 B1 KR 102397508B1 KR 1020167011300 A KR1020167011300 A KR 1020167011300A KR 20167011300 A KR20167011300 A KR 20167011300A KR 102397508 B1 KR102397508 B1 KR 102397508B1
Authority
KR
South Korea
Prior art keywords
feature
industrial vehicle
features
lights
original
Prior art date
Application number
KR1020167011300A
Other languages
English (en)
Other versions
KR20160065922A (ko
Inventor
마크 벨
카시얍 챈드라세카르
루카스 비. 왈츠
쟈콥 톰슨
Original Assignee
크라운 이큅먼트 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 크라운 이큅먼트 코포레이션 filed Critical 크라운 이큅먼트 코포레이션
Priority to KR1020227015469A priority Critical patent/KR102523226B1/ko
Publication of KR20160065922A publication Critical patent/KR20160065922A/ko
Application granted granted Critical
Publication of KR102397508B1 publication Critical patent/KR102397508B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/64Analysis of geometric attributes of convexity or concavity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30172Centreline of tubular or elongated structure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

본 명세서에서 설명된 실시예들에 따라서, 환경 기반 배치를 위한 방법은 다수의 채광창들을 포함하는 천장의 입력 이미지를 포착하는 단계를 포함할 수 있다. 특징들은 입력 이미지로부터 추출될 수 있다. 특징들은 각각의 특징 그룹이 채광창들 중 하나와 관련되도록 다수의 특징 그룹으로 그룹화될 수 있다. 선분들은 각 특징 그룹 상에서 특징 추출 알고리즘을 별개로 실행하는 하나 이상의 프로세서들로 각 특징 그룹의 특징으로부터 자동으로 추출될 수 있다. 각 특징 그룹의 선분들의 적어도 2개의 선택된 라인들이 선택될 수 있다. 각각의 특징 그룹의 중심선은 2개의 선택된 라인들에 기초하여 적어도 부분적으로 결정될 수 있다. 각각의 특징 그룹의 중심선은 채광창들 중 하나와 관련될 수 있다.

Description

오버헤드 라이트 기반 배치를 갖는 산업용 차량{INDUSTRIAL VEHICLES WITH OVERHEAD LIGHT BASED LOCALIZATION}
관련 출원의 상호 참조
본 출원은 2013년 9월 30일 출원된 미국 특허 가출원 제61/884,388호, 2013년 10월 30일 출원된 미국 특허 가출원 제61/897,287호 및 2014년 9월 29일 출원된 미국 특허 출원 제14/499,721호에 대해 우선권을 주장한다.
본 발명은 일반적으로 천장등(ceiling light)의 특징을 제공하기 위한 시스템 및 방법에 관한 것이고, 특히 천장등의 중심선 특징을 제공하기 위한 시스템 및 방법에 관한 것이다.
산업 환경에 관한 물품들을 이동시키기 위하여, 작업자는 예를 들어 포크리프트 트럭, 수동 및 모터 구동 팔레트 트럭, 및/또는 다른 자재 취급 차량을 포함하는 산업용 차량을 때때로 이용한다. 산업용 차량은 이러한 환경을 통해 순항하는 자동 안내 차량 또는 수동 안내 차량으로서 구성될 수 있다. 자동 안내, 항법, 또는 양자를 촉진하기 위하여, 산업용 차량은 이러한 환경 내에서 배치에 적합하게 될 수 있다. 즉, 산업용 차량은 예를 들어, 산업용 차량의 자세 또는 위치선정과 같은 환경 내에서 산업용 차량의 배치를 결정하기 위한 센서들 및 프로세서들이 맞추어질 수 있다. 센서들은 상기 환경 내에 있는 물체들을 검출하도록 구성될 수 있고, 배치는 이러한 검출된 물체로부터 추출된 특징에 의존할 수 있다.
본 발명의 목적은 천장등의 중심선 특징을 제공하기 위한 시스템 및 방법을 제공하는데 있다.
한 실시예에서, 산업용 차량은 통신으로 결합된 카메라와 하나 이상의 프로세서들을 포함한다. 카메라는 산업용 차량에 장착되고 창고의 천장에 초점이 맞추어질 수 있다. 카메라는 창고의 천장의 천장등들의 입력 이미지를 포착할 수 있다. 하나 이상의 프로세서들은 입력 이미지의 천장등들의 원특징(raw feature)들을 하나 이상의 특징 그룹과 관련시키도록 기계 판독성 명령을 실행한다. 허프 변환(Hough transform)은 하나 이상의 특징 그룹의 원특징들을 하나 이상의 특징 그룹과 관련된 선분(line segment)들로 변환하도록 실행될 수 있다. 하나 이상의 특징 그룹의 원특징들의 볼록 껍질(convex hull)이 결정될 수 있다. 하나 이상의 특징 그룹의 선분들과 볼록 껍질은 허프 공간(Hough space)에서 비교될 수 있다. 하나 이상의 특징 그룹의 원특징들의 볼록 껍질에 대한 유사성의 임계값 밖에 있는 하나 이상의 특징 그룹의 선분들은 버려질 수 있다. 바람직한 세트의 라인들은 하나 이상의 특징 그룹의 선분들로부터 하나 이상의 특징 그룹을 위해 선택될 수 있다. 하나 이상의 특징 그룹의 중심선은 바람직한 세트의 라인들로부터 결정될 수 있다. 하나 이상의 특징 그룹의 중심선은 입력 이미지의 천장등들 중 하나와 관련될 수 있다. 산업용 차량은 하나 이상의 특징 그룹의 중심선을 이용하여 창고를 통해 순항될 수 있다.
또 다른 실시예에서, 산업용 차량은 통신으로 결합되는 카메라와 하나 이상의 프로세서들을 포함할 수 있다. 카메라는 산업용 차량에 장착되고 창고의 천장에 초점이 맞추어질 수 있다. 카메라는 창고의 천장의 채광창(skylight)의 입력 이미지를 포착할 수 있다. 하나 이상의 프로세서들은 천장의 입력 이미지의 채광창으로부터 원특징 윤곽(contour)을 추출하도록 기계 판독성 명령을 실행한다. 원특징 윤곽은 특징 그룹으로 그룹화될 수 있다. 허프 변환은 특징 그룹의 원특징 윤곽을 특징 그룹과 관련된 선분들로 변환하도록 실행될 수 있다. 특징 그룹의 원특징 윤곽의 볼록 껍질이 결정될 수 있다. 특징 그룹의 선분들과 볼록 껍질은 허프 공간에서 비교될 수 있다. 특징 그룹의 원특징 윤곽의 볼록 껍질에 대한 유사성의 임계값 밖에 있는 특징 그룹의 선분들은 버려질 수 있다. 바람직한 세트의 라인들은 특징 그룹의 선분들로부터 특징 그룹을 위해 선택될 수 있다. 특징 그룹의 중심선은 특징 그룹의 바람직한 세트의 라인들로부터 결정될 수 있다. 산업용 차량의 자세, 산업용 차량의 위치선정, 또는 양자는 중심선에 기초하여 결정될 수 있다. 산업용 차량은 자세, 위치선정, 또는 양자를 이용하여 창고를 통해 순항될 수 있다.
추가의 실시예에서, 산업용 차량을 순항시키기 위한 방법이 수행될 수 있다. 채광창의 입력 이미지와 창고의 천장의 실질적으로 원형인 라이트(light)가 포착될 수 있다. 입력 이미지는 산업용 차량에 결합된 카메라로 포착될 수 있다. 원특징들은 입력 이미지의 채광창으로부터 추출될 수 있다. 원특징들의 볼록 껍질은 하나 이상의 프로세서들에 의해 자동으로 결정될 수 있다. 바람직한 세트의 라인들은 원특징들의 볼록 껍질을 이용하여 원특징들로부터 선택될 수 있다. 입력 이미지의 실질적으로 원형인 라이트는 하나 이상의 프로세서들에 의해 지지점 특징(point feature)으로 자동으로 변환될 수 있다. 채광창의 중심선은 바람직한 세트의 라인들로부터 결정될 수 있다. 산업용 차량의 자세, 산업용 차량의 위치선정, 또는 양자는 중심선과 지지점 특징에 기초하여 결정될 수 있다. 산업용 차량은 자세, 위치선정, 또는 양자를 이용하여 창고를 통해 순항될 수 있다.
여전히 또 다른 실시예에서, 빌딩 구조물을 통해 산업용 차량을 순항시키기 위한 시스템이 제공될 수 있다. 시스템은, 산업용 차량에 장착되고 빌딩 구조물 내의 오버헤드 라이트를 포함하는 오버헤드 이미지를 포착하도록 구성될 수 있는 카메라, 및 카메라에 통신으로 결합되는 하나 이상의 프로세서들을 포함할 수 있다. 카메라는 빌딩 구조물 내의 오버헤드 라이트(overhead lighting)를 포함하는 입력 이미지를 포착할 수 있다. 하나 이상의 프로세서들은 입력 이미지의 오버헤드 조명들의 원특징들을 하나 이상의 특징 그룹과 관련시키도록 기계 판독성 명령을 실행한다. 허프 변환은 하나 이상의 특징 그룹의 원특징들을 하나 이상의 특징 그룹과 관련된 선분들로 변환하도록 실행될 수 있다. 하나 이상의 특징 그룹의 원특징들의 볼록 껍질이 결정될 수 있다. 하나 이상의 특징 그룹의 선분들과 볼록 껍질은 허프 공간에서 비교될 수 있다. 하나 이상의 특징 그룹의 원특징들의 볼록 껍질에 대한 유사성의 임계값 밖에 있는 하나 이상의 특징 그룹의 선분들은 버려질 수 있다. 바람직한 세트의 라인들은 하나 이상의 특징 그룹의 선분들로부터 하나 이상의 특징 그룹을 위해 선택될 수 있다. 하나 이상의 특징 그룹의 중심선은 바람직한 세트의 라인들로부터 결정될 수 있다. 하나 이상의 특징 그룹의 중심선은 입력 이미지의 오버헤드 조명(overhead illumination)들 중 하나와 관련될 수 있다. 산업용 차량은 하나 이상의 특징 그룹의 중심선을 이용하여 창고를 통해 순항될 수 있다.
산업용 차량, 방법, 및 시스템 중 임의의 것에 따라서, 볼록 껍질은 껍질 선분(hull line segment)들을 포함할 수 있으며, 하나 이상의 특징 그룹의 선분들은 껍질 선분들에 비교된다.
산업용 차량, 방법, 및 시스템 중 임의의 것에 따라서, 하나 이상의 프로세서들은 껍질 선분들을 허프 공간 좌표로 변환하도록 기계 판독성 명령을 실행할 수 있으며, 껍질 선분들은 좌표(ρ및 θ)로 표현되는 무한 라인(infinite line)들이다.
산업용 차량, 방법, 및 시스템 중 임의의 것에 따라서, 하나 이상의 프로세서들은 하나 이상의 특징 그룹의 선분들을 강도의 순서로 순위를 매기도록 기계 판독성 명령을 실행할 수 있다. 제1 가장자리 라인은 바람직한 세트의 라인들의 선분들로부터 선택될 수 있다. 제1 가장자리 라인은 바람직한 세트의 라인들 중 선분들의 가장 높은 등급의 라인일 수 있다. 대안적으로 또는 추가적으로, 제1 가장자리 라인은 좌표(ρ및 θ)로 표현될 수 있다. 대안적으로 또는 추가적으로, 하나 이상의 프로세서들은 바람직한 세트의 라인들의 선분들로부터 제2 가장자리 라인을 선택하도록 기계 판독성 명령을 실행할 수 있다. 제2 가장자리 라인은 제1 가장자리 라인의 θ에 대한 유사성에 기초하여 선택될 수 있다. 대안적으로 또는 추가적으로, 제2 가장자리 라인과 제1 가장자리 라인은 거리 임계값만큼 분리될 수 있다. 대안적으로 또는 추가적으로, 하나 이상의 프로세서들은 제2 가장자리 라인을 선택하도록 높은 등급으로부터 낮은 등급으로 바람직한 세트의 라인들의 선분들을 조사하도록 기계 판독성 명령을 실행할 수 있다. 대안적으로 또는 추가적으로, 하나 이상의 프로세서들은 제2 가장자리 라인과 제1 가장자리 라인이 만나는 소실점(vanishing point)을 찾도록 기계 판독성 명령을 실행할 수 있다. 제2 가장자리 라인과 제1 가장자리 라인의 이등분선(line of bisection)이 계산될 수 있다. 중심선은 이등분선에 기초하여 계산될 수 있다.
산업용 차량, 방법, 및 시스템 중 임의의 것에 따라서, 원특징들의 하나 이상의 특징 그룹의 각각은 별도로 선분들로 변환될 수 있다.
산업용 차량, 방법, 및 시스템 중 임의의 것에 따라서, 입력 이미지는 오버헤드 조명들을 강조하도록 노출이 부족하게 될 수 있다(underexposed).
산업용 차량, 방법, 및 시스템 중 임의의 것에 따라서, 하나 이상의 프로세서들은 채광창들로부터 원특징 윤곽을 추출하도록 기계 판독성 명령을 실행할 수 있다. 원특징들은 원특징 윤곽을 포함할 수 있다. 원특징 윤곽은 채광창 유형에 속하는 것으로서 분류될 수 있다. 원특징 윤곽은 하나 이상의 특징 그룹으로 그룹화될 수 있다. 하나 이상의 특징 그룹은 채광창의 고유 채광창(unique skylight)당 하나의 그룹을 포함할 수 있다. 한 그룹의 각각은 고유 채광창의 원특징 윤곽을 포함할 수 있다.
산업용 차량, 방법, 및 시스템 중 임의의 것에 따라서, 오버헤드 라이트는 둥근 라이트(round light)들 및 합병 라이트(merged light)들을 포함할 수 있다. 하나 이상의 프로세서들은 둥근 라이트들 및 합병 라이트들로부터 특징을 추출하도록 기계 판독성 명령을 실행할 수 있다. 원특징들은 둥근 라이트들 및 합병 라이트들로부터의 특징들을 포함할 수 있다. 둥근 라이트들 및 합병 라이트들로부터의 특징들은 표준 라이트 유형 및 합병 라이트 유형으로 분류될 수 있다. 대안적으로 또는 추가적으로, 원특징들은 원치않는 특징들을 포함할 수 있다. 하나 이상의 프로세서들은 노이즈로서 원치않는 특징을 분류하도록 기계 판독성 명령을 실행할 수 있다. 대안적으로 또는 추가적으로, 원특징 윤곽은 상대적 근접성(relative proximity)에 기초하여 하나 이상의 특징 그룹으로 그룹화될 수 있다. 하나 이상의 프로세서들은 각각의 원특징 윤곽을 위한 최소 한계 영역(minimum bounding rectangle)을 계산하도록 기계 판독성 명령을 실행할 수 있다. 상대적 근접성은 각각의 원특징 윤곽을 위한 최소 한계 영역의 상호 특징 거리(inter-feature distance)들에 기초하여 계산될 수 있다.
산업용 차량, 방법, 및 시스템 중 임의의 것에 따라서, 메모리는 하나 이상의 프로세서들, 카메라, 또는 양쪽에 통신으로 결합될 수 있다.
산업용 차량, 방법, 및 시스템 중 임의의 것에 따라서, 산업용 차량은 자동 및/또는 수동 순항에 적합할 수 있다.
본 명세서에 기재된 실시예들에 의해 제공되는 이러한 부가 특징을 도면과 함께 다음의 상세한 설명의 관점에서 보다 완전히 이해될 것이다.
도면에 개시된 실시예들은 예시적이고 자연에 있는 예이며 청구항들에 의해 한정되는 요지를 제한하도록 의도되지 않는다. 구조 등이 동일한 도면부호로 지시되는 예시적인 실시예의 다음의 상세한 설명은 첨부된 도면과 관련하여 읽혀질 때 이해될 수 있다:
도 1은 본원에 도시되고 설명된 하나 이상의 실시예들에 따른 환경 기반 배치를 위한 차량을 도시하며;
도 2는 본원에 도시되고 설명된 하나 이상의 실시예들에 따른 환경 기반 배치를 위한 카메라 특징 추출/오버헤드 라이트 특징 추출을 위한 예시적인 알고리즘의 흐름도;
도 3은 본원에 도시되고 설명된 하나 이상의 실시예들에 따른 3개의 채광창들을 도시하는 입력 이미지를 개략적으로 도시한 도면;
도 4는 본원에 도시되고 설명된 하나 이상의 실시예들에 따른 채광창 추출을 위한 예시적인 알고리즘의 흐름도;
도 5는 본원에 도시되고 설명된 하나 이상의 실시예들에 따른 도 3의 3개의 채광창들의 원특징 윤곽을 개략적으로 도시한 도면;
도 6은 본원에 도시되고 설명된 하나 이상의 실시예들에 따른 도 3의 각 채광창에 대응하는 별도의 그룹으로 그룹화된 도 5의 원특징들을 개략적으로 도시한 도면;
도 7은 본원에 도시되고 설명된 하나 이상의 실시예들에 따른 특징 추출 기술을 사용하여 도 5의 원특징의 그룹들로부터 추출된 선분들을 개략적으로 도시하며;
도 8은 본원에 도시되고 설명된 하나 이상의 실시예들에 따른 "무한" 라인들로 변환된 도 7로부터 선택된 선분들을 개략적으로 도시하며;
도 9는 본원에 도시되고 설명된 하나 이상의 실시예들에 따른 도 3의 입력 이미지 위에 중첩된 중심선 특징을 개략적으로 도시한다.
본 명세서에 설명된 실시예들은 대체로 채광창을 포함하지만 이에 한정되지 않는 오버헤드 라이트로부터 특징들을 추출하기 위한 환경 기반 배치 기술(Environmental Based Localization techniques, EBL)에 관한 것이다. EBL은 창고와 같은 빌딩 구조물을 통하여 산업용 차량을 배치하고 및/또는 순항시키도록 사용될 수 있다. 적절하게, 오버헤드 라이트는 빌딩의 천장 내에 또는 천장에 장착될 수 있다. 그러나, 일부 실시예들에서, 라이트는 또한 또는 대안적으로 적절한 구조물을 통해 천장 또는 벽으로부터 현수될 수 있다. 일부 실시예들에서, 카메라는 창고를 통해 순항하는 산업용 차량(예를 들어, 자동 안내 차량 또는 수동 안내 차량)에 장착될 수 있다. 입력 이미지는 이미지로부터 특징들을 추출하기 전에 카메라로부터 포착된 임의의 이미지일 수 있다.
지금 도 1을 참조하여, 차량(100)은 창고(110)를 통해 순항하도록 구성될 수 있다. 차량(100)은 예를 들어 포크리프트 트럭, 지게차(reach truck), 터릿 트럭, 워키 스태커 트럭(walkie stacker truck), 토우 트랙터(tow tractor), 파레트 트럭(pallet truck), 하이/로우(high/low), 스태커 트럭(stacker-truck), 트레일러 로더(trailer loader), 사이드 로더(sideloader), 포크 호이스트(fork hoist) 등과 같은 페이로드(payload)를 리프팅하고 움직이기 위한 산업용 차량을 포함할 수 있다. 산업용 차량은 원하는 경로를 따라서 창고(110)의 표면(122)을 자동으로 또는 수동으로 순항하도록 구성될 수 있다. 따라서, 차량(100)은 하나 이상의 바퀴(124)들의 회전에 의해 전후진될 수 있다. 추가적으로, 차량(100)은 하나 이상의 바퀴(124)들을 조향하는 것에 의해 방향을 변경하도록 유발될 수 있다. 선택적으로, 차량은 바퀴(124)들의 속도, 바퀴(124)들의 배향 등과 같은 그러나 이에 한정되지 않는 차량의 기능을 제어하기 위한 작업자 컨트롤러(126)를 포함할 수 있다. 작업자 컨트롤러(126)는 예를 들어 스위치, 버튼, 레버, 핸들, 페달, 입력/출력 디바이스 등과 같은 차량(100)의 기능에 할당된 제어기를 포함할 수 있다. 본 명세서에서 사용된 바와 같은 용어 "순항하다"는 한 위치로부터 다른 위치로 차량의 움직임을 제어하는 것을 의미할 수 있다는 것을 유념하여야 한다.
차량(100)은 오버헤드 이미지들을 포착하기 위한 카메라(102)를 추가로 포함할 수 있다. 카메라(102)는 물체의 가시적 외관을 포착하고 가시적 외관을 이미지로 변환할 수 있는 임의의 디바이스일 수 있다. 따라서, 카메라(102)는 예를 들어 촬상소자, 상보성 금속 산화막 반도체 센서, 또는 그 기능적 등가물과 같은 이미지 센서를 포함할 수 있다. 일부 실시예들에서, 차량(100)은 창고(110) 내에 위치될 수 있고, 창고(110)의 천장(112)의 오버헤드 이미지들을 포착하도록 구성될 수 있다. 오버헤드 이미지들을 포착하기 위하여, 카메라(102)는 차량(100)에 장착되고 천장(112)에 초점이 맞추어질 수 있다. 본 발명을 한정하고 설명하는 목적을 위하여, 본 명세서에서 사용되는 바와 같은 용어 "이미지"는 검출된 물체의 외관의 화상(representation)을 의미할 수 있다. 이미지는 예를 들어, JPEG, JPEG 2000, Exif, TIFF, 원 이미지(raw image) 포맷, GIF, BMP, PNG, Netpbm 포맷, WEBP, 래스터포맷, 벡터 포맷, 또는 오버헤드 물체를 포착하는데 적절한 임의의 다른 포맷과 같은 다양한 기계 판독성 화상으로 제공될 수 있다.
창고(110)의 천장(112)은, 천장(112)으로부터 또는 대체로 창고에서 작업하는 차량 위로부터 조명을 제공하기 위한 천장등(114)들과 같은 그러나 이에 한정되지 않는 오버헤드 라이트를 포함할 수 있다. 천장등(114)들은 예를 들어 채광창(116)들, 형광등 등과 같은 실질적으로 직사각형 라이트들을 포함할 수 있으며; 위로부터 조명을 제공하도록 천장 또는 벽 구조물에 장착되거나 이로부터 현수될 수 있다. 본 명세서에서 사용되는 바와 같이, 용어 "채광창"은 예를 들어 공기, 유리, 플라스틱 등과 같은 햇빛의 입장을 허용하기 위하여 실질적으로 광투과성 매체가 끼워진 천장 또는 지붕에 있는 개구를 의미할 수 있다. 채광창들이 다양한 형상 및 크기로 될 수 있지만, 본 명세서에서 설명된 채광창들은 일련의 패널들 내로 대들보(girder) 또는 크로스바들에 의해 분할되거나 또는 분할될 수 없는 "표준의" 길고, 실질적으로 직사각형의 채광창들을 포함할 수 있다. 대안적으로, 채광창들은 침실 창문과 유사한 크기, 즉 약 30인치 x 약 60인치(약 73 cm x 약 146 cm)의 직사각형 또는 원형 형상의 보다 작은 별개의 채광창들을 포함할 수 있다. 대안적으로 또는 추가적으로, 천장등(114)들은 예를 들어, 둥근 라이트(118)들, 단일 물체로 보이는 다수의 인접한 둥근 라이트들을 포함할 수 있는 합병 라이트(120)들 등과 같은 실질적으로 원형인 라이트들을 포함할 수 있다. 그러므로, 오버헤드 라이트들 또는 '천장등들'은 자연(예를 들어, 햇빛) 및 인공(예를 들어, 전기 구동되는) 라이트의 광원을 포함한다.
본 명세서에서 설명된 실시예들은 카메라(102)에 통신으로 결합된 하나 이상의 프로세서(104)들을 포함할 수 있다. 하나 이상의 프로세서(104)들은 본 명세서에 설명된 방법 또는 기능들 중 임의의 것을 자동으로 실시하도록 기계 판독성 명령을 실행할 수 있다. 기계 판독성 명령을 저장하기 위한 메모리(106)는 하나 이상의 프로세서(104)들, 카메라(102), 또는 그 임의의 조합에 통신으로 결합될 수 있다. 하나 이상의 프로세서(104)들은 프로세서, 집적회로, 마이크로칩, 컴퓨터, 또는 기계 판독성 명령을 실행할 수 있거나 또는 기계 판독성 명령에 유사한 방식으로 기능을 실행하도록 구성된 임의의 다른 컴퓨팅 디바이스를 포함할 수 있다. 메모리(106)는 RAM, ROM, 플래시 메모리, 하드 드라이브 또는 기계 판독성 명령을 저장할 수 있는 임의의 비일시적 디바이스를 포함할 수 있다.
하나 이상의 프로세서(104)들과 메모리(106)는 카메라(102)와 통합될 수 있다. 대안적으로 또는 추가적으로, 하나 이상의 프로세서(104)들의 각각 및 메모리(106)는 차량(100)과 통합될 수 있다. 더욱이, 하나 이상의 프로세서(104)들의 각각과 메모리(106)는 차량(100)과 카메라(102)로부터 분리될 수 있다. 예를 들어, 서버 또는 모바일 컴퓨팅 디바이스는 하나 이상의 프로세서(104)들, 메모리(106), 또는 양쪽을 포함할 수 있다. 하나 이상의 프로세서(104)들, 메모리(106), 및 카메라(102)는 본 발명의 범위로부터 벗어남이 없이 서로 통신으로 결합되는 별개의 구성요소들일 수 있다는 것을 유념하여야 한다. 따라서, 일부 실시예들에서, 하나 이상의 프로세서(104)들의 구성요소들, 메모리(106)의 구성요소들, 및 카메라(102)의 구성요소들은 서로 물리적으로 분리될 수 있다. 본 명세서에서 사용되는 바와 같은 구문 "통신으로 결합되는"은 예를 들어 전도성 매체를 통한 전기 신호, 공기를 통한 전자기 신호, 도파관을 통한 광학 신호 등과 같은 서로 데이터 신호를 교환할 수 있는 구성요소를 의미한다.
그러므로, 본 발명의 실시예들은 임의의 세대의 임의의 프로그래밍 언어(예를 들어, 1GL, 2GL, 3GL, 4GL, 또는 5GL)로 쓰여진 로직 또는 알고리즘을 포함할 수 있다. 로직 또는 알고리즘은 프로세서에 의해 직접 실행될 수 있는 기계 언어, 또는 기계 판독성 명령으로 컴파일링되고 어셈블링되어 기계 판독성 매체에 저장될 수 있는 어셈블리 언어, 객체지향 프로그래밍(OOP), 스크립팅 언어, 마이크로코드 등으로서 쓰여질 수 있다. 대안적으로 또는 추가적으로, 로직 또는 알고리즘은 하드웨어 기술 언어(HDL)로 쓰여질 수 있다. 또한, 로직 또는 알고리즘은 필드 프로그래머블 게이트 어레이(FPGA) 구성 또는 응용 주문형 집적회로(ASIC), 또는 그 등가물을 통해 실시될 수 있다.
상기된 바와 같이, 차량(100)은 하나 이상의 프로세서(104)들을 포함하거나 이와 통신으로 결합될 수 있다. 따라서, 하나 이상의 프로세서(104)들은 작업자 컨트롤러(126)의 기능을 동작시키거나 또는 대체하도록 기계 판독성 명령을 실행할 수 있다. 기계 판독성 명령은 메모리(106)에 저장될 수 있다. 따라서, 일부 실시예들에서, 차량(100)은 기계 판독성 명령을 실행하는 하나 이상의 프로세서(104)들에 의해 자동으로 순항될 수 있다. 일부 실시예들에서, 차량의 배치는 차량(100)이 순항됨에 따라서 EBL에 의해 모니터될 수 있다.
예를 들어, 차량(100)은 차량(100)의 배치된 위치에 기초하여 원하는 위치로 바람직한 경로를 따라서 창고(110)의 표면(122)을 따라서 자동으로 순항할 수 있다. 일부 실시예들에서, 차량(100)은 창고(110)에 대하여 차량(100)의 배치된 위치를 결정할 수 있다. 차량(100)의 배치된 위치의 결정은 이미지 데이터를 맵 데이터에 비교하는 것에 의해 수행될 수 있다. 맵 데이터는 메모리(106)에 국부적으로 저장될 수 있으며, 이러한 것은 주기적으로 업데이트 되거나 또는 서버 등에 의해 제공되는 맵 데이터일 수 있다. 배치된 위치 및 원하는 위치가 주어지면, 차량(100)을 위한 주행 경로가 결정될 수 있다. 주행 경로가 알려지면, 차량(100)은 창고(110)의 표면(122)을 순항하도록 주행 경로를 따라서 주행할 수 있다. 특히, 하나 이상의 프로세서(106)들은 EBL 기능을 수행하고 차량(100)을 동작시키도록 기계 판독성 명령을 실행할 수 있다. 한 실시예에서, 하나 이상의 프로세서(106)들은 바퀴(124)들의 조향을 조절하고 차량(100)을 표면(122)에 순항시키도록 트로틀을 제어할 수 있다.
도 2를 지금 참조하여, 완전 카메라 특징 추출(CFE) 알고리즘(10)을 위한 기능의 순서의 흐름도가 개략적으로 도시된다. 기능이 인용된 실시예에서 특정 순서로 열거되고 수행되는 것으로 설명되지만, 기능은 본 발명의 범위로부터 벗어남이 없이 대안적인 순서로 수행될 수 있다는 것을 유념하여야 한다. 기능들 중 하나 이상이 본 명세서에서 설명된 실시예들의 범위로부터 벗어남이 없이 생략될 수 있다는 것을 또한 유념하여야 한다.
도 1 내지 도 3을 총체적으로 참조하여, CFE 알고리즘(10)은 입력 이미지(200) 상에서 추가 기능을 실행하기 전에 천장(204)의 입력 이미지(200)를 처리하기 위한 전처리 기능(20)을 포함할 수 있다. 입력 이미지(200)는 창고(110)의 채광창(116)들에 대응하는 채광창(202)들을 포함하는 프레임을 포착한 것으로서 도시된다. 일부 실시예들에서, 전처리 기능(20)은 입력 이미지(200)로부터 렌즈 왜곡 효과의 제거를 위한 기능을 포함할 수 있다. 대안적으로 또는 추가적으로, 입력 이미지(200)는 채광창(116)들을 포함할 수 있는 천장등(114)들을 강조하기 위하여 입력 이미지(200)의 노출을 의도적으로 부족하게 하는 것에 의해 포착될 수 있다. 저노출이 반사 및 특징 추출 처리를 보다 복잡하게 만들고 덜 신뢰 가능하게 할 수 있는 다른 그럴싸한 인공물을 감소시키는 것을 도울 수 있다.
CFE 알고리즘(10)은 천장(204)의 입력 이미지(200)로부터 특징을 추출하기 위한 특징 추출 기능(22)을 또한 포함할 수 있다. 특징 추출 기능(22)은 예를 들어 최대 안정 극한 영역(maximally stable extremal regions, MSER) 알고리즘, 이미지로부터 원특징(즉, 라이트)을 추출하도록 오츠 이진법(Otsu's method) 또는 등가의 알고리즘과 조합된 임계 단계와 같은 하나 이상의 특징 검출 알고리즘을 이용할 수 있다. 특히, 입력 이미지(200)들로부터 추출된 특징은 카메라(102)에 의해 포착된 천장등(114)들의 위치를 결정하도록 배치 프로세스(localization process)에 의해 이용될 수 있다. 예를 들어, 도심(centroid)들은 실질적으로 원형 형상의 라이트들과 같은 둥근 라이트 특징으로부터 추출될 수 있다. 추가적으로, 작은 채광창에 대하여, 작은 채광창의 전체 범위는 단일 이미지 프레임 내에서 포착될 수 있다. 따라서, 도심 추출 기능은 실질적으로 원형인 라이트들에 따라서 적용될 수 있다.
CFE 알고리즘(10)은 특징 추출 기능(22)에 의해 천장(204)의 입력 이미지(200)로부터 추출된 원특징(206)들을 다수의 유형으로 분류하기 위한 특징 분류 기능(24)을 또한 포함할 수 있다. 특징 분류 기능(24)은 더욱 많은 특정 처리를 위한 준비로 상이한 유형으로 원특징(206)들을 분리할 수 있다. 예를 들어, 합병 라이트들은 짧은 축에 대한 긴 축 비를 갖는 물체들을 찾는 것에 의해 둥근 라이트들로부터 차별화될 수 있다. 채광창 패널들은 크기 및 원형도에 기초하여 둥근 라이트들로부터 차별화될 수 있다. 특히, 둥근 라이트들은 대체로 채광창 패널들보다 이미지에서 보다 작고 보다 둥근 윤곽(blob)들을 형성한다. 때때로, 채광창들의 보다 작은 섹션들은 오분류(misclassification)로 이어질 수 있는 방식으로 이미지에서 부서진 것같이 보일 수 있다.
인용된 실시예에서, 원특징(206)들은 다음의 4개의 유형들 중 하나로 분류될 수 있다: 표준 라이트 유형(둥근 라이트들), 합병 라이트 유형, 채광창 유형 및 노이즈 유형. 노이즈 유형 라벨은 반사와 같은 원치않는 "잘못된" 특징을 인용하도록 사용될 수 있다. 노이즈 유형에 속하는 것으로서 분류된 원특징(206)들은 특징 분류 기능(24)에 의해 분류된 후에 버려질 수 있으며, 즉 후속의 기능에 의해 이용되지 않는다. 각각의 3개의 상이한 유형은 원하는 특징 정보를 추출하도록 별도 처리될 수 있다. 다음에 상세히 설명되는 바와 같이, 지지점 특징은 표준 라이트 유형 및 합병 라이트 유형의 원특징(206)들로부터 추출될 수 있으며, 라인 특징은 채광창들 유형으로부터 추출될 수 있고, 그런 다음 각각의 추출된 특징은 EBL에 공개될 수 있다.
특히, 프로세스 둥근 라이트 기능(26)은 표준 라이트 유형의 원특징(206)들의 도심들을 찾을 수 있다. 대안적으로 또는 추가적으로, 프로세스 합병 라이트 기능(28)은 입력 이미지(200)에 합병된 것으로서 보이는 한 쌍의 라이트를 분할하고, 2개의 도심들을 찾을 수 있다. 프로세스 채광창 기능(30)은 채광창 유형에 속하는 모든 추출된 성분들을 취하여 채광창들로 그룹화하고, 다음에 상세히 설명되는 바와 같이 도심들을 찾을 수 있다. 관심 영역에 의한 필터 특징 기능(50)은 한정된 관심 영역의 밖에 있는 특징들을 제거할 수 있다. 따라서, 트럭 마스트로부터의 반사와 같은 임의의 남아있는 특징들이 제거될 수 있다. 좌표 프레임 변환 기능(52)은 보고된 특징(54)들이 EBL에 공개되기 전에 이미지 처리 프레임(예를 들어, 상부 좌측 모서리에서 기원하는)으로부터 EBL 프레임(예를 들어, 이미지의 중심에서 기원하는)으로 특징 좌표를 변환할 수 있다.
도 3 내지 도 5를 총체적으로 참조하여, 프로세스 채광창 기능(30)을 위한 기능 순서의 흐름도가 개략적으로 도시된다. 기능들이 상기된 실시예에서 특정 순서로 열거되고 수행되었지만, 기능은 본 발명의 범위로부터 벗어남이 없이 대안적인 순서로 수행될 수 있다는 것을 유념하여야 한다. 기능들 중 하나 이상이 본 명세서에서 설명된 실시예들의 범위로부터 벗어남이 없이 생략될 수 있다는 것을 또한 유념하여야 한다. 프로세스 채광창 기능(30)에 대한 입력은 채광창 유형에 속하는 것으로서 분류된 입력 이미지(200)의 원특징(206)들을 포함할 수 있는 원특징 윤곽(208)들일 수 있다. 프로세스 채광창 기능(30)으로부터의 출력은 한 세트의 중심선(226) 특징들일 수 있다. 일부 실시예들에서, 중심선(226)들은 허프 공간에서의 좌표로서 정의될 수 있다(즉, 극좌표). 입력 이미지(200)에서 포착된 채광창(202)의 모든 고유 예에 대해 보고된 하나의 중심선(226)을 가지는 것이 바람직하다.
도 4 및 도 6을 총체적으로 참조하여, 프로세스 채광창 기능(30)은 원특징 윤곽(208)들을 채광창(202)과 관련시키기 위한 그룹화 기능(32)을 포함할 수 있다. 그룹화 기능은 그 채광창(202)과 원특징 윤곽(208)들과의 반복 가능한 관련을 가능하게 임의의 알고리즘을 포함할 수 있다. 한 실시예에서, 거리 임계값은 상대적 근접성에 기초하여 원특징 윤곽(208)들을 함께 그룹화하도록 이용될 수 있다. 원특징 윤곽(208)이 복잡한 형상일 수 있음에 따라서, 원특징 윤곽(208)들의 지향된 최소 한계 영역들은 먼저 각 윤곽에 대하여 계산될 수 있고, 그룹화를 위한 상호 특징 거리들이 최소 한계 영역들로부터 계산될 수 있다.
따라서, 원특징 윤곽(208)들은 그 관련 채광창에 기초하여 원특징 윤곽(208)들을 분리하도록 그룹화될 수 있다. 본 발명자들은 자연 조명으로 인한 변수가 이미지에서 불일치를 유발할 수 있다는 것, 즉 패널들이 일관적인 방식으로 부서지지 않을 수 있다는 것을 발견하였다. 따라서, 중심선(226)들은, 그룹화되고 각 개별 패널들에 대한 특징이 아닌 원특징 윤곽(208)들에 의해 표현되는 바와 같이 "완전한" 채광창들에 기초하여 결정될 수 있다. 일부 실시예들에서, 원특징 윤곽(208)들은 채광창(202)당 한 그룹의 특징 그룹(210)들로 그룹화될 수 있다. 특히, 입력 이미지(200)(도 3)가 3개의 채광창(202)들을 포함하기 때문에, 원특징 윤곽들은 그룹화 기능(32)에 의해 배치된 특징 그룹(210)들 중 3개로 그룹화될 수 있다.
도 4 및 도 7을 총체적으로 참조하여, 프로세스 채광창 기능(30)은 원특징 윤곽(208)들로부터 선분(212)들을 추출하기 위한 특징 추출 기능(34)을 포함할 수 있다. 선분(212)들은 원특징 윤곽(208)들의 특징 그룹(210)들의 각각과 관련될 수 있다. 일부 실시예들에서, 특징 추출 기능(34)은 원특징 윤곽(208)들의 각각의 특징 그룹(210)을 선분(212)들이 추출되는 특징 그룹(210)과 관련된 선분(212)들로 각각, 즉 한번에 하나의 그룹으로 변환할 수 있는 특징 추출 알고리즘을 포함할 수 있다. 일부 실시예들에서, 허프 변환은 각 채광창(202)과 관련된 선분(212)들을 별개로 확인하도록 원특징 윤곽(208)들의 특징 그룹(210)들의 각각에서 수행될 수 있다. 각각의 선분(212)은 2개의 단부 지점들로 표현될 수 있다. 선분(212)들이 허프 변환으로부터 복귀될 때, 선분(212)들은 강도의 순서로 등급이 매겨질 수 있으며, 즉 라인에서 픽셀이 많으면 많을수록 또는 라인이 길면 길수록, 허프 변환에서 라인에 매겨지는 등급이 높다. 원근 왜곡(perspective distortion) 및 폐색으로 인하여, 보다 높은 등급의 선분(212)들이 "정확한" 가장자리 라인들에 일치할 수 없다는 것이 발견되었다. 예를 들어, 보다 높은 등급의 선분(212)들은 패널들 사이의 대들보들로부터 발생하는 직각 교차 라인(218)들일 수 있다. 정확한 중심선들을 추출할 가능성을 증가시키기 위하여, 필터링 기능(36)은 변환으로부터 복귀되는 바람직하지 않은 라인들의 일부를 필터링하도록 이용될 수 있다.
도 4, 도 6 및 도 8을 총체적으로 참조하여, 프로세스 채광창 기능(30)은 특징 그룹(210)들의 선분(212)들로부터 바람직한 세트의 라인(214)들을 선택하기 위한 필터링 기능(36)을 포함할 수 있다. 예를 들어, 선분(212)들의 특징 그룹(210)들을 선택한 후에, 바람직한 세트의 라인(214)들은 예를 들어 정적 문제(static problem)들 등을 해결하기 위한 알고리즘과 같은 계산기하학(computational geometry) 알고리즘을 사용하여 선택될 수 있다. 한 실시예에서, 볼록 껍질 알고리즘은 바람직한 세트의 라인(214)들을 선택하도록 이용될 수 있다. 허프 변환들과 조합하여 볼록 껍질 알고리즘의 사용이 중심선 특징을 결정하는데 사용하기 위해 "정확한" 가장자리 라인들을 고립시키도록 CFE 알고리즘(10)(도 2)의 능력을 개선하는 것이 발견되었다. 따라서, 중심선 결정의 정확성 및 중심선 특징을 사용하는 임의의 배치가 개선될 수 있다.
일부 실시예들에서, 원특징 윤곽(208)들의 특징 그룹(210)들(예를 들어, 단부 지점들 등의 채광창 그룹)의 볼록 껍질(220)이 구해질 수 있다. 볼록 껍질(220)은 예를 들어 볼록 껍질 알고리즘에 의해 결정되는 바와 같은 글로벌 최소 볼록 또는 국부적 최소 볼록 세트와 같은 원특징 윤곽(208)들을 포함하는 볼록 세트일 수 있다. 원특징 윤곽(208)들의 특징 그룹(210)들의 볼록 껍질(220)은 볼록 껍질 지점(A, B, C, D)들로서 지칭될 수 있는 지점들의 순서 리스트를 포함할 수 있다. 일부 실시예들에서, 볼록 껍질 지점들을 볼록 껍질(220)을 만드는 껍질 선분(228)들을 결정하는 것을 통하여 반복될 수 있으며, 즉 껍질 지점(A) 및 껍질 지점(B)은 껍질 선분(228)을 만들 수 있으며, 껍질 지점(B) 및 껍질 지점(C)은 선분을 만들 수 있으며, 껍질 지점(C) 및 껍질 지점(D)은 껍질 선분(228)을 만들 수 있으며, 껍질 지점(D) 및 껍질 지점(A)은 껍질 선분(228) 등을 만들 수 있다. 껍질 선분(228)들은 허프 공간(즉, 극) 좌표로 변환될 수 있다.
도 6 내지 도 8을 총체적으로 참조한다. 볼록 껍질(220)의 껍질 선분(228)들은 원특징 윤곽(208)들의 특징 그룹(210)들과 관련된 선분(212)들과 비교된다(바람직하게 허프 공간에서). 허프 공간 좌표에서 볼록 껍질(220)의 껍질 선분(228)들에 대한 유사성의 특정 임계값 내에 있지 않은 특징 그룹(210)으로부터의 선분(212)들 중 임의의 것이 바람직한 세트의 라인들을 남기도록 버려질 수 있다. 특징 그룹(210)들의 대각선(230)들과 직각 교차 라인(218)들의 대부분이 제거되었다는 것을 유념하여야 한다. 대안적으로 또는 추가적으로, 2개의 단부 지점들에 의해 표현될 수 있는 선분(212)들은 "무한" 라인들, 즉 좌표(ρ및 θ)에 의해 허프 공간에서 나타난 라인들로 변환될 수 있다.
도 2, 도 4 및 도 7을 총체적으로 참조하여, 일부 실시예들에서, 필터링 기능(36)이 필요하지 않을 수 있다는 것을 유념하여야 한다. 예를 들어, 카메라(102)로부터 천장(112)까지의 거리가 충분히 클 때, 입력 이미지(200)가 감소된 원근왜곡을 가질 수 있다는 것이 본 발명자들에 의해 발견되었다. 결과적으로, 패널들 사이의 대들보들로부터 직각 교차 라인(218)들은 직각 교차 라인(218)들이 입력 이미지(200)에서의 긴 "정확한" 가장자리들보다 훨씬 짧을 것 같기 때문에 특징 추출 기능(34)에 의해 검출되지 않을 수 있다.
도 2, 도 4, 및 도 7 내지 도 9를 총체적으로 참조하여, 프로세스 채광창 기능(30)은 채광창(202)에 대응하는 각 특징 그룹(210)들로부터 2개의 가장자리 라인들을 선택하고 선택된 가장자리 라인들로부터 중심선(226)을 계산하기 위한 중심선 계산 기능(38)을 포함할 수 있다. 특히, 제1 가장자리 라인(222)과 제2 가장자리 라인(224)은 각 채광창(202)을 위한 중심선(226)을 유도하도록 선택되고 이용될 수 있다. 바람직한 세트의 라인(214)들이 선택된 후에, 바람직한 세트의 라인(214)들에 남아있는 가장 높은 등급의 선분(212)들은 제1 가장자리 라인(222)으로서 선택될 수 있다. 제1 가장자리 라인(222)의 허프 공간 좌표가 알려질 수 있음에 따라서, 바람직한 세트의 라인(214)들은 제1 가장자리 라인(222)에 유사한 충분한 각도(θ)를 갖는 선분(212)들로부터 제2 가장자리 라인(224)을 찾도록 높은 등급으로부터 낮은 등급까지 조사될 수 있다. 일부 실시예들에서, 필터링 기능(36)이 필요하지 않을 수 있기 때문에, 제1 가장자리 라인(222)과 제2 가장자리 라인(224)은 상기된 바와 같이 선분(212)들의 특징 그룹(210)들으로부터 직접 선택될 수 있다.
일부 실시예들에서, 거리 임계값은 제2 가장자리 라인(224)이 중복 특징으로부터 유도된 유사한 라인을 선택하는 것을 피하도록 허프 공간에서 제1 가장자리 라인(222)으로부터 떠나서 선택되는 것을 보장하도록 이용될 수 있다. 특히, 본 발명자들은 다수의 유사한 라인들이 단일 가장자리 상에서 허프 변환으로부터 복귀될 수 있다는 것을 발견하였다. 따라서, 유사성 기준에 부합하는 가장 높은 등급의 선분(212)들은 제2 가장자리 라인(224)으로서 선택될 수 있다.
중심선(226)은 제1 가장자리 라인(222)과 제2 가장자리 라인(224)에 기초하여 계산될 수 있다. 예를 들어, 한 실시예에서, 중심선(226)은 제1 가장자리 라인(222)과 제2 가장자리 라인(224)가 만나는 소실점(216)을 찾는 것에 의해 배치될 수 있다. 이등분선은 소실점(216), 제1 가장자리 라인(222) 및 제2 가장자리 라인(224)의 허프 공간 좌표를 사용하여 계산될 수 있다. 이등분선은 중심선(226)으로서 이용될 수 있다. 도 9에서 입력 이미지(200) 위에 중첩된 것으로서 도시된 중심선(226)들은 EBL에 보고될 수 있다. 그러므로, 각각의 특징 그룹의 중심선은 채광창들 중 하나와 관련될 수 있으며, EBL은 차량의 순항을 위한 특징들을 제공하도록 이용될 수 있거나, 또는 EBL에 통신으로 결합된 디스플레이에 의해 제공될 수 있다. 차량에 의해 순항되는 특정 장소에 따라서 CFE 알고리즘의 각 기능을 위해 구성될 수 있는 다수의 파라미터(예를 들어, 임계값)들이 있다는 것을 유념하여야 한다. 따라서, 본 명세서에 설명된 실시예들은 파라미터들을 위한 정밀한 값들을 결정하기 위한 교정 스테이지를 추가로 포함할 수 있다.
본 명세서에서 설명된 CFE 알고리즘의 실시예들이 천장의 입력 이미지들에서 포착된 물체들로부터 특징을 추출하도록 이용될 수 있다는 것을 지금 이해하여야 한다. 그러므로, 예를 들어 천장등들과 같은 천장에서 검출될 수 있는 물체들은 EBL로 보고될 수 있는 특징을 생성하도록 이용될 수 있다. EBL은 차량의 자세, 차량의 위치선정 또는 양쪽을 결정하기 위하여 입력 이미지로부터 보고된 특징을 이용할 수 있다. 예를 들어, 보고된 특징은 중심선과, 함께 이용될 수 있는 지점 특징들을 포함할 수 있다. 따라서, 차량의 자세 및 위치선정은 순항, 동시 배치 및 맵핑(SLAM) 등을 위한 파라미터로서 이용될 수 있다.
용어 "상당히" 및 "약"이 임의의 정량적 비교, 값, 측정 또는 다른 표현에 귀착될 수 있는 고유의 불특정 정도를 나타내도록 본 발명에서 이용될 수 있다는 것을 유념하여야 한다. 이러한 용어들은 또한 정량적 표현이 문제의 요지의 기본적인 기능에서의 변경을 유발함이 없이 정해진 기준과 다를 수 있는 정도를 나타내도록 이용될 수 있다.
특정 실시예가 도시되고 설명되었지만, 다양한 다른 변경 및 변형이 청구된 요지의 사상 및 범위로부터 벗어남이 없이 만들어질 수 있다는 것을 이해하여야 한다. 또한, 청구 요지의 다양한 양태들이 본 명세서에 설명되었지만, 이러한 양태들은 조합하여 이용될 필요는 없다. 그러므로, 첨부된 청구항들은 청구된 요지의 범위 내에 있는 이러한 모든 변경과 변형을 커버하는 것으로 의도된다.

Claims (20)

  1. 카메라 및 하나 이상의 프로세서를 구비하는 산업용 차량으로서,
    상기 카메라는 상기 하나 이상의 프로세서에 통신으로 결합되며;
    상기 카메라는 창고의 천장의 천장등들의 입력 이미지를 포착하고;
    상기 하나 이상의 프로세서는 기계 판독성 명령들을 실행하여;
    상기 입력 이미지의 천장등들의 원특징들을 하나 이상의 특징 그룹과 관련시키고;
    상기 하나 이상의 특징 그룹의 원특징들을 상기 하나 이상의 특징 그룹과 관련된 선분(line segment)들로 변환하도록 허프 변환(Hough transform)을 실행하고;
    상기 하나 이상의 특징 그룹의 원특징들의 볼록 껍질을 결정하고;
    허프 공간에서 상기 하나 이상의 특징 그룹의 선분들과 상기 볼록 껍질을 비교하고;
    상기 하나 이상의 특징 그룹의 원특징들의 볼록 껍질에 대한 유사성의 임계값 밖의 상기 하나 이상의 특징 그룹의 선분들을 버리고, 이에 의해, 세트의 라인들이 상기 하나 이상의 특징 그룹의 선분들로부터 상기 하나 이상의 특징 그룹을 위해 선택되고;
    상기 세트의 라인들로부터 상기 하나 이상의 특징 그룹의 중심선을 결정하고;
    상기 하나 이상의 특징 그룹의 중심선을 상기 입력 이미지의 천장등들 중 하나와 관련시키고;
    상기 하나 이상의 특징 그룹의 중심선을 이용하여 상기 창고를 통해 상기 산업용 차량을 순항시키는 산업용 차량.
  2. 제1항에 있어서, 상기 볼록 껍질은 껍질 선분들을 구비하고, 상기 하나 이상의 특징 그룹의 선분들은 상기 껍질 선분들에 비교되는 산업용 차량.
  3. 제2항에 있어서, 상기 하나 이상의 프로세서는 상기 껍질 선분들을 허프 공간 좌표로 변환하도록 상기 기계 판독성 명령들을 실행하고, 상기 껍질 선분들은 좌표(ρ및 θ)로 표현되는 무한 라인들인 산업용 차량.
  4. 제1항에 있어서, 상기 하나 이상의 프로세서는 상기 기계 판독성 명령들을 실행하여,
    강도의 순서로 상기 하나 이상의 특징 그룹의 선분들의 등급을 매기고;
    상기 세트의 라인들의 선분들로부터 제1 가장자리 라인을 선택하고, 상기 제1 가장자리 라인은 상기 세트의 라인들의 선분들의 가장 높은 등급의 라인인 산업용 차량.
  5. 제4항에 있어서, 상기 제1 가장자리 라인은 좌표(ρ및 θ)로 표현되는 산업용 차량.
  6. 제5항에 있어서, 상기 하나 이상의 프로세서는 상기 세트의 라인들의 선분들로부터 제2 가장자리 라인을 선택하도록 상기 기계 판독성 명령들을 실행하고, 상기 제2 가장자리 라인은 상기 제1 가장자리 라인의 θ에 대한 유사성에 기초하여 선택되는 산업용 차량.
  7. 제6항에 있어서, 상기 제2 가장자리 라인과 상기 제1 가장자리 라인은 거리 임계값만큼 분리되는 산업용 차량.
  8. 제6항에 있어서, 상기 하나 이상의 프로세서는 상기 제2 가장자리 라인을 선택하도록 높은 등급으로부터 낮은 등급으로 상기 세트의 라인들의 선분들을 조사하도록 상기 기계 판독성 명령들을 실행하는 산업용 차량.
  9. 제6항에 있어서, 상기 하나 이상의 프로세서는 상기 기계 판독성 명령들을 실행하여,
    상기 제2 가장자리 라인과 상기 제1 가장자리 라인이 만나는 소실점을 찾고;
    상기 제2 가장자리 라인과 상기 제1 가장자리 라인의 이등분선을 계산하며, 상기 중심선은 상기 이등분선에 기초하여 계산되는 산업용 차량.
  10. 제1항에 있어서, 상기 원특징들의 하나 이상의 특징 그룹의 각각은 별개로 상기 선분들로 변환되는 산업용 차량.
  11. 제1항에 있어서, 상기 입력 이미지는 상기 천장등들을 강조하도록 노출이 부족하게 되는 산업용 차량.
  12. 제1항에 있어서, 상기 천장등들은 채광창들을 구비하며, 상기 하나 이상의 프로세서는 상기 기계 판독성 명령들을 실행하여,
    상기 채광창들로부터 상기 원특징들에 구비되는 원특징 윤곽들을 추출하고;
    채광창 유형에 속하는 것으로서 상기 원특징 윤곽들을 분류하고;
    상기 하나 이상의 특징 그룹 내로 상기 원특징 윤곽들을 그룹화하며, 상기 하나 이상의 특징 그룹은 상기 채광창들의 고유 채광창당 하나의 그룹을 구비하며, 상기 하나의 그룹의 각각은 상기 고유 채광창의 원특징 윤곽들을 구비하는 산업용 차량.
  13. 제12항에 있어서, 상기 천장등들은 둥근 라이트들 및 합병 라이트들을 구비하며, 상기 하나 이상의 프로세스는 상기 기계 판독성 명령들을 실행하여,
    상기 원특징들에 구비되는 상기 둥근 라이트들과 상기 합병 라이트들로부터의 특징을 추출하며,
    상기 둥근 라이트들과 상기 합병 라이트들로부터의 특징들을 표준 라이트 유형 및 합병 라이트 유형으로 분류하는 산업용 차량.
  14. 제12항에 있어서, 상기 원특징들은 원치않는 특징들을 구비하고, 상기 하나 이상의 프로세서는 상기 원치않는 특징들을 노이즈로서 분류하도록 상기 기계 판독성 명령들을 실행하는 산업용 차량.
  15. 제12항에 있어서, 상기 원특징 윤곽들은 상대적 근접성에 기초하여 상기 하나 이상의 특징 그룹으로 그룹화되고, 상기 하나 이상의 프로세서는 상기 기계 판독성 명령들을 실행하여,
    상기 원특징 윤곽들의 각각을 위한 최소 한계 직사각형을 계산하고;
    상기 원특징 윤곽들의 각각을 위한 상기 최소 한계 직사각형의 상호 특징 거리들에 기초하여 상기 상대적 근접성을 계산하는 산업용 차량.
  16. 카메라 및 하나 이상의 프로세서를 구비하는 산업용 차량으로서,
    상기 카메라는 상기 하나 이상의 프로세서에 통신으로 결합되며;
    상기 카메라는 상기 산업용 차량에 장착되고 창고의 천장에 초점이 맞추어지며;
    상기 카메라는 상기 창고의 천장의 채광창의 입력 이미지를 포착하며;
    상기 하나 이상의 프로세서는 기계 판독성 명령들을 실행하여,
    상기 천장의 입력 이미지의 채광창으로부터 원특징 윤곽들을 추출하고;
    상기 원특징 윤곽들을 특징 그룹으로 그룹화하고;
    상기 특징 그룹의 원특징 윤곽들을 상기 특징 그룹과 관련된 선분들로 변환하도록 허프 변환을 실행하고;
    상기 특징 그룹의 원특징 윤곽들의 볼록 껍질을 결정하고;
    허프 공간에서 상기 특징 그룹의 선분들과 상기 볼록 껍질을 비교하고;
    상기 특징 그룹의 원특징 윤곽들의 볼록 껍질에 대한 유사성의 임계값 밖의 상기 특징 그룹의 선분들을 버리고, 이에 의해, 세트의 라인들이 상기 특징 그룹의 선분들로부터 상기 특징 그룹을 위해 선택되고;
    상기 특징 그룹의 상기 세트의 라인들로부터 상기 특징 그룹의 중심선을 결정하고;
    상기 중심선에 기초하여 상기 산업용 차량의 자세, 상기 산업용 차량의 위치 또는 양쪽 모두를 결정하고;
    상기 산업용 차량의 자세, 상기 산업용 차량의 위치 또는 양쪽 모두를 이용하여 상기 창고를 통해 상기 산업용 차량을 순항시키는 산업용 차량.
  17. 제16항에 있어서, 상기 입력 이미지는 둥근 라이트들 및 합병 라이트들을 구비하며, 상기 하나 이상의 프로세스는 상기 기계 판독성 명령들을 실행하여,
    상기 입력 이미지의 상기 둥근 라이트들과 상기 합병 라이트들로부터 특징들을 추출하고;
    상기 입력 이미지로부터 원치않는 특징들을 추출하고;
    상기 둥근 라이트들과 상기 합병 라이트들로부터의 특징들을 표준 라이트 유형 및 합병 라이트 유형으로 분류하고;
    상기 원치 않는 특징들을 노이즈로서 분류하는 산업용 차량.
  18. 제16항에 있어서, 거리 임계값은 상대적 근접성에 기초하여 상기 원특징 윤곽들을 상기 특징 그룹으로 그룹화하도록 이용되는 산업용 차량.
  19. 제18항에 있어서, 상기 하나 이상의 프로세서는 상기 기계 판독성 명령들을 실행하여,
    상기 원특징 윤곽들의 각각을 위한 최소 한계 직사각형을 계산하고;
    상기 원특징 윤곽들의 각각을 위한 상기 최소 한계 직사각형의 상호 특징 거리들에 기초하여 상기 상대적 근접성을 계산하는 산업용 차량.
  20. 산업용 차량을 순항시키기 위한 방법으로서,
    채광창의 입력 이미지와 창고의 천장의 실질적으로 원형인 라이트를 포착하는 단계로서, 상기 입력 이미지가 산업용 차량에 결합된 카메라로 포착되는 상기 단계;
    상기 입력 이미지의 채광창으로부터 원특징들을 추출하는 단계;
    하나 이상의 프로세서로, 상기 원특징들의 볼록 껍질을 자동으로 결정하는 단계;
    상기 원특징들의 볼록 껍질을 이용하여 상기 원특징들로부터 세트의 라인들을 선택하는 단계;
    상기 하나 이상의 프로세서로, 상기 입력 이미지의 실질적으로 원형인 라이트를 지점 특징으로 변환하는 단계;
    상기 세트의 라인들로부터 상기 채광창의 중심선을 결정하는 단계;
    상기 중심선과 상기 지점 특징에 기초하여 상기 산업용 차량의 자세, 상기 산업용 차량의 위치 또는 양쪽 모두를 결정하는 단계; 및
    상기 자세, 상기 위치 또는 양쪽 모두를 이용하여 상기 창고를 통하여 상기 산업용 차량을 순항시키는 단계를 구비하는 방법.
KR1020167011300A 2013-09-30 2014-09-30 오버헤드 라이트 기반 배치를 갖는 산업용 차량 KR102397508B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020227015469A KR102523226B1 (ko) 2013-09-30 2014-09-30 오버헤드 라이트 기반 배치를 갖는 산업용 차량

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201361884388P 2013-09-30 2013-09-30
US61/884,388 2013-09-30
US201361897287P 2013-10-30 2013-10-30
US61/897,287 2013-10-30
US14/499,721 2014-09-29
US14/499,721 US9170581B2 (en) 2013-09-30 2014-09-29 Industrial vehicles with overhead light based localization
PCT/US2014/058239 WO2015048717A1 (en) 2013-09-30 2014-09-30 Industrial vehicles with overhead light based localization

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020227015469A Division KR102523226B1 (ko) 2013-09-30 2014-09-30 오버헤드 라이트 기반 배치를 갖는 산업용 차량

Publications (2)

Publication Number Publication Date
KR20160065922A KR20160065922A (ko) 2016-06-09
KR102397508B1 true KR102397508B1 (ko) 2022-05-13

Family

ID=52740928

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020227015469A KR102523226B1 (ko) 2013-09-30 2014-09-30 오버헤드 라이트 기반 배치를 갖는 산업용 차량
KR1020167011300A KR102397508B1 (ko) 2013-09-30 2014-09-30 오버헤드 라이트 기반 배치를 갖는 산업용 차량

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020227015469A KR102523226B1 (ko) 2013-09-30 2014-09-30 오버헤드 라이트 기반 배치를 갖는 산업용 차량

Country Status (8)

Country Link
US (2) US9170581B2 (ko)
EP (2) EP3489894B1 (ko)
KR (2) KR102523226B1 (ko)
CN (2) CN105765627B (ko)
AU (2) AU2014324480B2 (ko)
BR (1) BR112016006854A2 (ko)
RU (2) RU2018130871A (ko)
WO (1) WO2015048717A1 (ko)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2291514C (en) 1997-05-30 2011-07-12 Creative Biomolecules, Inc. Methods for evaluating tissue morphogenesis and activity
CA2567405A1 (en) 2004-05-25 2005-12-08 Stryker Corporation Use of morphogenic proteins for treating cartilage defects
CA2752157A1 (en) 2009-02-12 2010-08-19 Stryker Corporation Peripheral administration of proteins including tgf-.beta. superfamily members for systemic treatment of disorders and disease
EP2516456A1 (en) 2009-12-22 2012-10-31 Stryker Corporation Bmp-7 variants with reduced immunogenicity
US9174830B1 (en) * 2014-09-29 2015-11-03 Crown Equipment Limited Industrial vehicles with point fix based localization
BR112017025107A2 (pt) 2015-05-26 2018-07-31 Crown Equipment Corporation sistema e método para calibrar um dispositivo de captura de imagem para um veículo de manuseamento de materiais, e, veículo de manuseamento de materiais
KR101998561B1 (ko) 2015-05-26 2019-07-10 크라운 이큅먼트 코포레이션 자재 취급 차량 오도메트리 교정을 위한 시스템들 및 방법들
CN108027248A (zh) * 2015-09-04 2018-05-11 克朗设备公司 具有基于特征的定位和导航的工业车辆
WO2017118000A1 (zh) * 2016-01-04 2017-07-13 杭州亚美利嘉科技有限公司 机器人轮径补偿方法和装置
WO2017173553A1 (en) 2016-04-08 2017-10-12 A&K Robotics Inc. Autoscrubber convertible between manual and autonomous operation
JP2018036937A (ja) * 2016-09-01 2018-03-08 住友電気工業株式会社 画像処理装置、画像処理システム、画像処理プログラムおよびラベル
US10108194B1 (en) 2016-09-02 2018-10-23 X Development Llc Object placement verification
KR102000067B1 (ko) * 2017-01-16 2019-09-17 엘지전자 주식회사 이동 로봇
CN111989544B (zh) * 2018-02-23 2023-08-01 克朗设备公司 基于光学目标的室内车辆导航的系统和方法
CN108415413B (zh) * 2018-03-28 2021-03-30 华南农业大学 一种基于圆形有用域的智能叉车局部避障路径规划方法
US11416001B2 (en) 2018-07-17 2022-08-16 Crown Equipment Corporation Systems and methods for vehicle position calibration using rack leg identification
CN109606384B (zh) * 2018-12-29 2021-04-20 百度在线网络技术(北京)有限公司 车辆控制方法、装置、设备和存储介质
MX2021009136A (es) 2019-02-06 2021-12-10 Crown Equip Corp Sistemas y metodos para la localizacion fuera del pasillo y calibracion de posicion de vehiculo mediante la identificacion de pata de rejilla.
MX2021009874A (es) 2019-02-19 2021-11-12 Crown Equip Corp Sistemas y métodos para calibración de una posición de un sensor con respecto a un vehículo de manejo de materiales.
CA3138906A1 (en) 2019-05-02 2020-11-05 Crown Equipment Corporation Industrial vehicle with feature-based localization and navigation
CN110414384B (zh) * 2019-07-11 2021-07-27 东南大学 智能稻麦收获机导航线跟踪方法
CN111179290B (zh) * 2019-12-26 2023-04-28 东软睿驰汽车技术(沈阳)有限公司 一种确定凸包的方法和相关装置
CN111191645A (zh) * 2020-01-07 2020-05-22 东南大学 基于行车记录仪图像的车辆隧道定位方法
US11897350B2 (en) 2020-07-02 2024-02-13 Crown Equipment Corporation Materials handling vehicle charging system comprising a floor-mounted charging plate

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE448407B (sv) 1985-08-22 1987-02-16 Tellus Carrago Ab Navigationssystem
US4947094A (en) 1987-07-23 1990-08-07 Battelle Memorial Institute Optical guidance system for industrial vehicles
US4790402A (en) 1987-09-28 1988-12-13 Tennant Company Automated guided vehicle
US5359666A (en) 1988-09-28 1994-10-25 Honda Giken Kogyo Kabushiki Kaisha Driving way judging device and method
US4933864A (en) 1988-10-04 1990-06-12 Transitions Research Corporation Mobile robot navigation employing ceiling light fixtures
FR2637681B1 (fr) 1988-10-12 1990-11-16 Commissariat Energie Atomique Procede de mesure de l'evolution de la position d'un vehicule par rapport a une surface
EP0366350A3 (en) 1988-10-25 1991-05-22 Tennant Company Guiding an unmanned vehicle by reference to overhead features
US5155684A (en) 1988-10-25 1992-10-13 Tennant Company Guiding an unmanned vehicle by reference to overhead features
JP3397336B2 (ja) 1992-03-13 2003-04-14 神鋼電機株式会社 無人車の位置・方向検出方法
JP3300092B2 (ja) 1993-02-19 2002-07-08 オリンパス光学工業株式会社 画像特徴抽出装置
JPH07248822A (ja) 1994-03-10 1995-09-26 Fujitsu Ltd 無人搬送車の走行制御方法及び無人搬送車
DE4429016A1 (de) 1994-08-16 1996-02-22 Linde Ag Navigation für fahrerlose Fahrzeuge
EP0740163B1 (en) 1995-04-25 2005-12-14 Matsushita Electric Industrial Co., Ltd. Local positioning apparatus for detecting a local position of an automobile on a road
JP3556766B2 (ja) 1996-05-28 2004-08-25 松下電器産業株式会社 道路白線検出装置
IL149558A0 (en) 1999-11-18 2002-11-10 Procter & Gamble Home cleaning robot
DE10008289A1 (de) 2000-02-23 2001-09-06 Siemens Ag Verfahren und Vorrichtung zur Bestimmung der Ausrichtung und/oder der Bewegungsrichtung eines bewegbaren Objekts, insbesondere eines Roboters, in einem Bewegungsraum
RU2220643C2 (ru) 2001-04-18 2004-01-10 Самсунг Гванджу Электроникс Ко., Лтд. Автоматическое чистящее устройство, автоматическая чистящая система и способ управления этой системой (варианты)
EP1591960A1 (en) 2002-07-01 2005-11-02 Mitsubishi Electric Information Technology Centre Europe B.V. Method and apparatus for image processing
JP4042517B2 (ja) 2002-10-09 2008-02-06 株式会社日立製作所 移動体およびその位置検出装置
RU2262880C2 (ru) * 2003-02-06 2005-10-27 Самсунг Гвангджу Электроникс Ко., Лтд Система робота -пылесоса с внешним зарядным устройством (варианты) и способ стыковки робота -пылесоса с внешним зарядным устройством
US7444002B2 (en) * 2004-06-02 2008-10-28 Raytheon Company Vehicular target acquisition and tracking using a generalized hough transform for missile guidance
JP4311391B2 (ja) 2005-10-03 2009-08-12 ソニー株式会社 接触形状算出装置及び接触形状算出方法、並びにコンピュータ・プログラム
DE102006062061B4 (de) 2006-12-29 2010-06-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und Computerprogramm zum Bestimmen einer Position basierend auf einem Kamerabild von einer Kamera
KR100871115B1 (ko) 2007-05-16 2008-11-28 엘지전자 주식회사 이동로봇 및 그 동작방법
KR100877071B1 (ko) 2007-07-18 2009-01-07 삼성전자주식회사 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치
US9536275B1 (en) * 2007-07-31 2017-01-03 Nvidia Corporation Using a geometry shader for variable input and output algorithms
AT509118B1 (de) 2008-07-16 2011-12-15 Zeno Track Gmbh Verfahren und vorrichtung zum erfassen der position eines fahrzeuges in einem definierten bereich
DE102008036412A1 (de) 2008-08-05 2010-02-11 Still Gmbh Verfahren zur Fahrerunterstützung bei einem Flurförderzeug
JP5275752B2 (ja) 2008-10-30 2013-08-28 秀機 拜郷 排気装置及び塗装作業用装置
DE102009004854B4 (de) 2009-01-16 2015-08-06 Jungheinrich Aktiengesellschaft Verfahren und System zur Positionsbestimmung eines Flurförderzeugs
KR101036028B1 (ko) 2009-07-08 2011-05-19 고려대학교 산학협력단 고속 회전 불변 특징 정합 방법, 이를 구비하는 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법
KR101540666B1 (ko) 2009-07-22 2015-07-31 엘지전자 주식회사 이동 로봇의 위치추정을 위한 회전변화에 불변하는 특징점 검출 장치 및 방법
KR101035058B1 (ko) 2009-09-25 2011-05-19 전자부품연구원 이동 로봇 및 그의 자기위치 인식을 위한 천장영역 인식방법
KR101092002B1 (ko) 2009-11-05 2011-12-08 재단법인 포항지능로봇연구소 인공표식, 인공표식과 자연표식을 혼용한 네비게이션 장치 및 방법
KR101065960B1 (ko) 2009-11-18 2011-09-19 인하대학교 산학협력단 이동체의 위치를 인식하는 이동 시스템 및 위치 추정 방법
DE102010008957A1 (de) 2010-02-19 2011-08-25 FusionSystems GmbH, 09125 Positionsbestimmung mittels optischer Kode-Schiene (Astropos)
EP2385435A1 (en) 2010-04-22 2011-11-09 Danaher Motion Särö AB A method and a system for gathering data
DE102010017689A1 (de) * 2010-07-01 2012-01-05 Vorwerk & Co. Interholding Gmbh Selbsttätig verfahrbares Gerät sowie Verfahren zur Orientierung eines solchen Gerätes
KR20120021064A (ko) 2010-08-31 2012-03-08 엘지전자 주식회사 이동 로봇 및 이의 제어 방법
US8576056B2 (en) * 2010-11-10 2013-11-05 Deere & Company Vehicle guidance system
RU2010147394A (ru) * 2010-11-19 2012-05-27 ООО "Битроника" (RU) Робот мобильный и мобильный робототехнический комплекс на его основе (варианты)
CN102135429B (zh) 2010-12-29 2012-06-13 东南大学 一种基于视觉的机器人室内定位导航方法
KR101248308B1 (ko) 2011-01-31 2013-03-27 고려대학교 산학협력단 천장 조명 방향 특성 활용 이동 로봇 위치 인식 방법 및 이를 활용한 천장 조명 방향 특성 활용 위치 인식 이동 로봇 장치
JP2012164229A (ja) 2011-02-08 2012-08-30 Ihi Corp 屋内用自律走行移動体の自己位置測定方法及び装置
FI20115542A0 (fi) * 2011-06-03 2011-06-03 Marimils Oy Menetelmä ja järjestelmä valvontaan
EP2549408A1 (de) 2011-07-20 2013-01-23 Delphi Technologies, Inc. Verfahren zur Detektion und Klassifikation von Objekten
KR101311100B1 (ko) 2011-08-27 2013-09-25 고려대학교 산학협력단 천장 임의 형상 특성 활용 이동 로봇 위치 인식 방법
DE102011115354B4 (de) 2011-10-07 2017-01-05 Telejet Kommunikations Gmbh Navigation anhand von zufälligen Mustern
KR101295959B1 (ko) 2011-10-20 2013-08-13 충북대학교 산학협력단 실내 천장 영상을 이용한 이동 로봇 위치 측정 장치 및 방법
CN103020632B (zh) 2012-11-20 2016-03-30 北京航空航天大学 一种室内环境中移动机器人定位标志点的快速识别方法

Also Published As

Publication number Publication date
WO2015048717A1 (en) 2015-04-02
KR20160065922A (ko) 2016-06-09
AU2014324480B2 (en) 2019-12-05
RU2016114307A3 (ko) 2018-06-28
US20150094900A1 (en) 2015-04-02
CN105765627B (zh) 2019-07-05
RU2018130871A (ru) 2019-03-19
EP3053141B1 (en) 2019-07-03
CN110222702A (zh) 2019-09-10
EP3053141A1 (en) 2016-08-10
US9606540B2 (en) 2017-03-28
AU2014324480A1 (en) 2016-04-07
CN105765627A (zh) 2016-07-13
AU2020201664B2 (en) 2021-08-12
BR112016006854A2 (pt) 2017-08-01
RU2668388C2 (ru) 2018-09-28
US9170581B2 (en) 2015-10-27
KR102523226B1 (ko) 2023-04-20
KR20220062696A (ko) 2022-05-17
EP3489894B1 (en) 2020-07-01
EP3489894A1 (en) 2019-05-29
CN110222702B (zh) 2023-10-31
US20160011595A1 (en) 2016-01-14
AU2020201664A1 (en) 2020-03-26
RU2016114307A (ru) 2017-10-16

Similar Documents

Publication Publication Date Title
KR102397508B1 (ko) 오버헤드 라이트 기반 배치를 갖는 산업용 차량
US10928204B2 (en) Industrial vehicle with feature-based localization and navigation
US9340399B2 (en) Industrial vehicles with point fix based localization
US11644845B2 (en) Industrial vehicle with feature-based localization and navigation

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant