KR20180002609A - 차량 모션 데이터를 사용하는 자동차 카메라에 의한 오브젝트 위치 측정 - Google Patents

차량 모션 데이터를 사용하는 자동차 카메라에 의한 오브젝트 위치 측정 Download PDF

Info

Publication number
KR20180002609A
KR20180002609A KR1020177028245A KR20177028245A KR20180002609A KR 20180002609 A KR20180002609 A KR 20180002609A KR 1020177028245 A KR1020177028245 A KR 1020177028245A KR 20177028245 A KR20177028245 A KR 20177028245A KR 20180002609 A KR20180002609 A KR 20180002609A
Authority
KR
South Korea
Prior art keywords
vehicle
interest
image frames
omnidirectional
change
Prior art date
Application number
KR1020177028245A
Other languages
English (en)
Other versions
KR101997436B1 (ko
Inventor
매튜 바란
Original Assignee
로베르트 보쉬 게엠베하
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 로베르트 보쉬 게엠베하 filed Critical 로베르트 보쉬 게엠베하
Publication of KR20180002609A publication Critical patent/KR20180002609A/ko
Application granted granted Critical
Publication of KR101997436B1 publication Critical patent/KR101997436B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60DVEHICLE CONNECTIONS
    • B60D1/00Traction couplings; Hitches; Draw-gear; Towing devices
    • B60D1/24Traction couplings; Hitches; Draw-gear; Towing devices characterised by arrangements for particular functions
    • B60D1/36Traction couplings; Hitches; Draw-gear; Towing devices characterised by arrangements for particular functions for facilitating connection, e.g. hitch catchers, visual guide means, signalling aids
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60DVEHICLE CONNECTIONS
    • B60D1/00Traction couplings; Hitches; Draw-gear; Towing devices
    • B60D1/58Auxiliary devices
    • B60D1/62Auxiliary devices involving supply lines, electric circuits, or the like
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/002Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles specially adapted for covering the peripheral part of the vehicle, e.g. for viewing tyres, bumpers or the like
    • B60R1/003Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles specially adapted for covering the peripheral part of the vehicle, e.g. for viewing tyres, bumpers or the like for viewing trailer hitches
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/10Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8066Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring rearward traffic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/808Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for facilitating docking to a trailer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Transportation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

차량에 부착된 무지향성 카메라로 오브젝트의 위치를 찾는 방법 및 시스템이 개시된다. 전자 제어 유닛은 차량 통신 버스로부터 차량의 이동 데이터를 수신한다. 동시에, 전자 제어 유닛은 무지향성 카메라로 정지된 오브젝트의 복수의 무지향성 이미지 프레임들을 수신한다. 수신된 무지향성 이미지 프레임들에 기초하여, 전자 제어 유닛은 무지향성 이미지 프레임들에서 관심 오브젝트를 식별하고, 차량이 움직이는 동안 무지향성 이미지 프레임들에서 관심 오브젝트를 추적한다. 전자 제어 유닛은 차량이 움직이는 동안 무지향성 이미지 프레임들에서 관심 오브젝트의 위치의 변화를 결정하고 차량의 위치 변화 및 무지향성 이미지 프레임들 내의 관심 오브젝트의 위치 변화에 기초하여 관심 오브젝트까지의 거리를 결정한다.

Description

차량 모션 데이터를 사용하는 자동차 카메라에 의한 오브젝트 위치 측정
본 출원은 2015년 4월 10일자로 출원된 미국 가 특허 출원 제62/145,692호에 대한 이익을 주장하며, 그 전체 내용들은 본원에서 참조로서 통합된다.
본 발명의 실시예들은 차량 이미징 시스템들에 관한 것이다.
오브젝트 위치 측정 시스템은 차량 상의 무지향성 카메라에 의해 뷰잉되는 관심 오브젝트들의 위치를 검출하고, 추적하고, 계산한다. 오브젝트 위치 측정 시스템은 차량의 모션에 기초하여 구조(즉, 세계의 포인트들)를 식별하고 추정하는 전자 제어 유닛을 사용한다. 시스템은 차량 통신 버스를 통해 통신하는 차량 제어기들에 의해 제공된 주행거리 정보를 사용한다. 추가로, 오브젝트 위치 측정 시스템은 단일의 넓은 시야 카메라로부터의 이미지들에 기초하여 세계 구조를 추정하는 제어기를 포함한다. 제어기는 세계 구조와 주행거리 정보를 사용하여 차량이 운전자-보조 및 자동 기동들을 수행하는 것을 허용한다.
일 실시예에서, 본 발명은 차량에 부착된 무지향성 카메라로 오브젝트의 위치를 찾는 방법을 제공한다. 전자 제어 유닛은 차량의 위치 변화를 나타내는 차량 센서들로부터 차량의 이동 데이터를 수신한다. 전자 제어 유닛은 무지향성 카메라로 하나 이상의 정지된 오브젝트들의 복수의 무지향성 이미지 프레임들을 수신하고, 무지향성 이미지 프레임들 내의 하나 이상의 정지된 오브젝트들에 기초하여 관심 오브젝트를 식별한다. 전자 제어 유닛은 차량이 움직이는 동안 무지향성 이미지 프레임들에서 관심 오브젝트를 추적한다. 전자 제어 유닛은 차량이 움직이는 동안 무지향성 이미지 프레임들 내의 관심 오브젝트의 위치 변화를 결정한다. 무지향성 이미지 프레임들 내의 관심 오브젝트의 위치의 변화 및 차량의 위치 변화에 기초하여, 전자 제어 유닛은 관심 오브젝트까지의 거리를 결정한다.
다른 실시예에서, 본 발명은 차량에 부착된 무지향성 카메라로 오브젝트의 위치를 찾기 위한 오브젝트 위치찾기 시스템을 제공한다. 시스템은 차량의 위치 변화를 나타내도록 구성된 적어도 하나의 차량 센서, 무지향성 카메라, 및 비디오 정보를 차량의 운전자에게 디스플레이하도록 구성된 사용자 인터페이스를 포함한다. 시스템은 또한 하나 이상의 정지된 오브젝트들의 무지향성 이미지를 포함하는 무지향성 카메라로부터 복수의 무지향성 이미지 프레임들을 수신하도록 구성된 전자 제어 유닛을 포함한다. 전자 제어 유닛은 또한 차량의 위치 변화를 나타내는 적어도 하나의 차량 센서로부터 차량의 이동 데이터를 수신한다. 전자 제어 유닛은 무지향성 이미지 프레임들 내의 하나 이상의 정지된 오브젝트들로부터 관심 오브젝트를 식별하고, 차량이 움직이는 동안 복수의 무지향성 이미지 프레임들 내의 관심 오브젝트를 추적한다. 추가로, 전자 제어 유닛은 차량이 움직일 때 무지향성 이미지 프레임들 내의 관심 오브젝트의 위치 변화를 결정하고 무지향성 이미지 프레임들 내의 차량의 위치 변화 및 관심 오브젝트의 위치 변화에 기초하여 관심 오브젝트까지의 거리를 결정한다.
본 발명의 다른 양태들은 상세한 설명 및 첨부 도면들을 고려함으로써 명백해질 것이다.
도 1은 오브젝트 위치 측정 시스템이 장착된 차량의 블록도.
도 2는 도 1의 오브젝트 위치 측정 시스템을 위한 전자 제어 유닛의 블록도.
도 3은 후방 뷰 무지향성 카메라로 관심 오브젝트를 식별하는 도 1의 오브젝트 위치 측정 시스템을 갖는 차량의 다이어그램.
도 4는 도 3의 무지향성 카메라로부터 관심 오브젝트의 무지향성 이미지를 도시하는 도면.
도 5는 도 3의 차량 상의 무지향성 카메라로부터 관심 오브젝트까지의 시선들의 다이어그램.
도 6은 도 1의 차량에 관한 그라운드 좌표계(GCS: ground coordinate system)의 다이어그램.
도 7은 차량에 관한 GCS와 도 1의 무지향성 카메라에 관한 광학 좌표계(OCS: optical coordinate system) 사이의 관계의 다이어그램.
도 8은 시간 간격들의 기간 동안 도 7의 GCS 및 OCS 사이의 변환의 다이어그램.
도 9는 시간 간격들의 기간 동안 무지향성 카메라 포즈에 기초하여 도 7의 GCS 와 OCS 사이의 변환의 다이어그램.
도 10a 및 도 10b는 GCS에 관하여 도 1의 오브젝트 위치 측정 시스템으로 오브젝트들 위치를 추정하는 방법을 예시한 도면.
도 11a는 도 3의 무지향성 카메라부터 관심 오브젝트까지의 시선의 공통 교차점의 다이어그램.
도 11b는 도 11a의 공통 교차점을 결정할 때의 불확실성들의 다이어그램.
도 12는 도 3의 관심 오브젝트 상의 다수의 식별된 포인트들의 그리드 다이어그램.
도 13은 도 1의 오브젝트 위치 측정 시스템을 사용하는 오브젝트의 위치를 결정하는 방법의 흐름도.
도 14는 도 1의 오브젝트 위치 측정 시스템을 사용하는 오브젝트의 위치를 결정하는 방법의 다른 흐름도.
본 발명의 임의의 실시예들이 상세히 설명되기 전에, 본 발명은 그 적용에 있어서 다음의 설명에서 설명되거나 다음의 도면들에 예시된 구성요소들의 구성 및 배열의 세부사항들에 한정되지 않는다는 것을 이해해야 한다. 본 발명은 다른 실시예들이 가능하고, 다양한 방식들로 실시되거나 수행될 수 있다.
복수의 상이한 구조적 구성요소들뿐만 아니라 복수의 하드웨어 및 소프트웨어 기반 디바이스들이 본 발명을 실행하기 위해 사용될 수 있다는 것을 주목해야 한다. 또한, 본 발명의 실시예들이 하드웨어, 소프트웨어, 및 논의의 목적들을 위해 구성요소들의 대부분이 하드웨어로만 실행되는 것처럼 예시되고 설명될 수 있는 전자 구성요소들 또는 모듈들을 포함할 수 있다는 것이 이해되어야 한다. 그러나, 당업자는 이러한 상세한 설명을 읽는 것에 기초하여, 적어도 하나의 실시예에서, 본 발명의 전자 기반 측면들이 하나 이상의 프로세서들에 의해 실행가능한 소프트웨어(예를 들면, 비-일시적 컴퓨터-판독가능한 매체 상에 저장된)로 구현될 수 있다는 것을 인식할 것이다. 이와 같이, 복수의 상이한 구조적 구성요소들뿐만 아니라 복수의 하드웨어 및 소프트웨어 기반 디바이스들이 본 발명을 구현하기 위해 이용될 수 있음을 유의해야한다. 예를 들어, 명세서 내에 기술된 "제어 유닛들" 및 "제어기들"은 하나 이상의 프로세서들, 비-일시적 컴퓨터-판독가능한 매체를 포함하는 하나 이상의 메모리 모듈들, 하나 이상의 입력/출력 인터페이스들, 및 구성요소들을 연결하는 다양한 연결들(예를 들어, 시스템 버스)를 포함할 수 있다.
도 1은 일 실시예에 따른 오브젝트 위치 측정 시스템(102)이 장착된 차량(100)을 예시한다. 차량(100)은 무지향성 카메라(105)(예를 들어, 어안 렌즈 카메라), 전자 제어 유닛(ECU: electronic control unit)(110), 차량 통신 버스(115)(예를 들어, CAN 버스), 디스플레이(120), 및 사용자 인터페이스(125)를 포함한다. 무지향성 카메라(105)는 ECU(110)에 통신가능하게 연결되어, 그에 의해 ECU(110)는 무지향성 카메라(105)로 캡쳐된 복수의 무지향성 이미지들(즉, 무지향성 이미지 프레임들)에 액세스한다. ECU(110)는 차량(100)에 의해 주행되는 거리에 적어도 부분적으로 기초하여 복수의 이미지들을 미리 결정된 시간의 간격들에서 처리하고 복수의 이미지들 및 연관된 데이터를 기록한다. 게다가, ECU(110)는 무지향성 이미지들을 직선 이미지들(즉, 직선 이미지 프레임들)로 변환하고 차량의 운전자가 뷰잉하기 위해 직선 이미지들을 디스플레이(120)로 보낸다. 차량 통신 버스(115)는 다른 차량 시스템들과 함께 ECU(110)를 디스플레이(120)와 통신가능하게 연결한다. 예를 들어, 차량 통신 버스(115)는 ECU(110), 디스플레이(120), 사용자 인터페이스(125), 및 차량(100) 내의 다른 전자 제어 유닛들 간의 통신을 가능하게 한다. 일부 구성들에서, 디스플레이(120) 및 사용자 인터페이스(125)는 예를 들어 터치스크린 디스플레이와 같은 단일 디바이스로 통합된다. 결과적으로, 차량(100)의 운전자는 사용자 인터페이스(125)를 통해 디스플레이(120)에 직접 명령들을 입력할 수 있다. 상술된 바와 같이, 사용자 인터페이스(125)는 디스플레이(120)에서 관심 오브젝트들을 나타내는 입력을 운전자로부터 수신할 수 있다. 다른 실시예들에서, 디스플레이(120) 및 사용자 인터페이스(125)는 운전자와 ECU(110) 사이의 통신을 제공하는 별도의 독립형 입력 및 출력 디바이스들이다.
오브젝트 위치 측정 시스템(102)의 일부 실시예들은 또한 차량(100)의 위치 및 이동을 나타내는 하나 이상의 차량 센서들(140)을 포함한다. 예를 들어, 차량(100)은 조향각 센서(steering angle sensor), 휠 위치 또는 휠 속도 센서, 및 위성 위치확인 시스템(GPS: global positioning system) 표시자를 포함할 수 있다. 차량 센서들(140)은 ECU(110)가 차량 센서들(140)에 의해 제공된 이동 정보에 기초하여 차량(100)의 위치, 진로 및 이동을 검출할 수 있게 한다. 또한, ECU(110)는 이동 정보에 기초하여 시간에 따라 위치 및 위치의 변화를 계산하도록 구성된다. 게다가, ECU(110)는 예를 들어, 핸들, 스로틀(throttle), 및 제동 시스템과 같은 하나 이상의 차량 제어 디바이스들(145)에 통신가능하게 연결될 수 있다. 이러한 차량 제어 디바이스들(145)을 이용하여, ECU(110)는 차량(100)의 위치, 및 오브젝트 위치 측정 시스템(102)에 의해 분석되는 차량(100) 주위의 오브젝트들의 위치에 기초하여 자동 운전 조종들을 수행할 수 있다.
도 2는 ECU(110)의 블록도이다. ECU(110)는 ECU(110) 및/또는 무지향성 카메라(105) 내의 구성요소들 및 모듈들에 전력, 동작 제어, 및 보호를 제공하는 복수의 전기 및 전자 구성요소들을 포함한다. 예를 들어, ECU(110)는 다른 것들 중에서 제어기(프로그램 가능한 전자 마이크로 프로세서, 마이크로 제어기 또는 유사한 디바이스와 같은)(205), 전원 모듈(210) 및 입력/출력 모듈(215)을 포함한다. 제어기(205)는 다른 것들 중에서 프로세싱 유닛(220) 및 메모리(225)를 포함한다. 프로세싱 유닛(220)은 메모리(225)에 통신가능하게 연결되고 메모리(225) 상에 저장될 수 있는 명령들을 실행한다. 제어기(205)는 메모리(225)로부터 검색하고 다른 것들 중에서 제어 프로세스들 및 본원에 설명된 방법과 관련된 명령들을 실행하도록 구성된다. 다른 실시예들에서, ECU(110)는 추가의, 더 적은 또는 다른 구성 요소들을 포함한다. ECU(110)는 본원에 나열된 특정 기능들을 수행하도록 각각 구성된 몇몇 독립적인 전자 제어 유닛들로 구현될 수 있다는 것이 주목되어야 한다. 부가적으로, ECU(110)는 특정 유형들의 센서 데이터를 입력하고 관련된 프로세스들을 수행하는 서브-모듈들을 포함할 수 있다. 예를 들어, 비디오 분석 모듈은 무지향성 카메라(105)로부터 비디오 스트림을 입력하고, 이미지를 직선형 포맷으로 변환하고, 이미지 내의 오브젝트들 및 피처들을 인식하고, 이미지 내의 오브젝트들 및 피처들을 추적하고, 이들 프로세스들로부터의 데이터 출력들을 다른 ECU들 또는 서브-모듈들에 보낼 수 있다.
ECU(110)는 다른 것들 중에서 무지향성 카메라(105)로부터 수신된 무지향성 이미지의 부분들을 직선형 이미지 프레임들로 변환하도록 구성된다. 예를 들어, 도 2의 실시예에서, 입력/출력 모듈(215)은 무지향성 카메라(105)로부터 무지향성 이미지를 수신하고, 무지향성 이미지들을 이미지 프로세싱을 위해 제어기(205)로 보낸다. 그 후, 제어기(205)는 무지향성 이미지들을 처리하고 변환한다. ECU(110)는 미국 특허 출원 제14/808,144호에 개시되고, 그 전체 내용들이 본원에 참조로서 통합된 변환 방법을 이용하여 무지향성 이미지들을 직선 이미지 프레임들로 변환할 수 있다. ECU(110)는 차량 통신 버스(115) 또는 ECU(110)와 디스플레이(120) 간의 다른 통신 링크를 통해 디스플레이(120)에 변환된 이미지들을 전송한다. 또한, 입력/출력 모듈(215)은 디스플레이된 이미지의 관심 영역을 식별하는 명령들을 사용자 인터페이스(125)로부터 수신할 수 있다. 관심 영역은 관심 오브젝트를 포함하도록 ECU(110) 및/또는 운전자에 의해 결정되는 무지향성 이미지의 일부를 나타낸다.
사용자 인터페이스(125), ECU(110), 서브-모듈들, 부가적인 ECU들, 차량 센서들(140) 및 차량 제어 디바이스들(145)은 차량 통신 버스(115) 상의 하나 이상의 통신 모듈들을 통해 링크될 수 있고 및/또는 입력/출력 모듈(215)을 통해 직접 연결될 수 있다. 일부 실시예들에서, 사용자 인터페이스(125)는 J1939 또는 CAN 버스와 같은 프로토콜을 사용하여 입력/출력 모듈(215)과 통신하기 위해 통신한다. 한다. 다른 실시예들에서, 사용자 인터페이스(125)는 특정 애플리케이션의 요구들에 따라 다른 적절한 프로토콜들 하에서 입력/출력 모듈(215)과 통신한다. 일부 실시예들에서, 입력/출력 모듈(215)은 다양한 제어들 및 센서들로부터의 전용 신호 라인들을 사용하여 직접 정보를 입력한다.
도 3은 오브젝트 위치 측정 시스템(102) 및 트레일러(305)를 포함하는 차량(100)의 예시이다. 이 예에서, 트레일러(305)는 트레일러 히치(trailer hitch)(310)를 포함한다. 트레일러 히치(310)는 ECU(110)에 대한 관심 오브젝트이다. 이 경우, ECU(110)는 트레일러 히치(310)를 차량(100)이 정렬하려고 하는 오브젝트로 식별한다. 시선(315)은 무지향성 카메라(105)로부터 트레일러 히치(310)까지 연장된다. 도 4는 무지향성 카메라(105)를 갖는 차량(100)의 후방도이다. 예시된 바와 같이, 트레일러 히치(310)는 ECU(110)에 의해 픽셀 위치 또는 좌표들의 세트(예를 들어, 수직 좌표 및 수평 좌표)로서 검출되는 무지향성 이미지 내의 위치를 점유한다. 차량(100)이 트레일러(305)에 접근함에 따라, 트레일러 히치(310)의 위치는 무지향성 이미지에서 새로운 픽셀 위치 또는 좌표들의 세트로 이동한다. 위치의 변화가 검출되고, 변화량은 ECU(110)에 의해 결정된다. 그러나, 차량(100)에 대한 트레일러 히치(310)의 거리 및 위치는 무지향성 이미지 또는 무지향성 이미지에서의 트레일러 히치(310)의 위치 변경에만 기초하여 알려지지 않는다. 또한, 트레일러 히치(310)의 위치 변화는 무지향성 이미지의 비선형 효과들에 기인 한 무지향성 이미지 내의 트레일러 히치(310)의 위치에 따라 더 크게 또는 더 작게 나타날 수 있다. ECU(110)는 검출된 오브젝트의 위치 변화를 계산하기 전에 관심 오브젝트를 포함하는 무지향성 이미지의 적어도 일부의 변환을 수행하여 이러한 비-선형 효과들을 감소시키거나 제거한다.
도 5는 차량(100)이 트레일러(305)에 접근할 때, 무지향성 카메라(105)와 트레일러 히치(310) 사이의 시선의 변화들을 도시한다. 상단 예시(505)에서, 시선(510)은 무지향성 카메라(105)로부터 트레일러 히치(310)까지 연장된다. 중간 예시(515)에서, 시선(520)은 무지향성 카메라(105)로부터 트레일러 히치(310)까지 연장된다. 하단 예시(525)에서, 시선(530)은 무지향성 카메라(105)로부터 트레일러 히치(310)까지 연장된다. 시선(510), 시선(520) 및 시선(530) 사이의 각도의 변화를 도시하기 위해, 시선(510)은 또한 중간 예시(515) 및 하단 예시(525)에 도시된다. 각도의 변화가 발생함에 따라, 무지향성 이미지 내의 트레일러 히치(310)의 위치(예를 들어, 픽셀 위치)가 변화된다. 이러한 변화는 ECU(110)에 의해 추적된다.
도 6은 차량(100)과의 세계 좌표계를 도시하는 그래프이다. 초기 기준점(605)에 기초하여, ECU(110)는 차량 통신 버스(115)로부터 판독된 이동 데이터(예를 들어, 이동 방향 및 이동 거리)에 기초하여 차량(100)의 현재 위치(610) 및 이동 경로(607)를 추적한다. ECU(110)는 차량(100) 상의 휠 속도 센서들, 조향각 센서 및 다른 센서들을 사용하여 임의의 주어진 방향으로의 이동량을 추적한다. 미리규정된 시간 간격들에서, ECU(110)는 차량 포즈(예로서, 세계 좌표계에 대한 차량의 위치 및 방향)를 결정한다. 예를 들어, ECU(110)는 초기 기준점(605)뿐만 아니라 요우각(yaw angle)(615)(예를 들어, 차량(100)이 향하는 방향)으로부터 y-거리(Yr) 및 x-거리(Xr)를 메모리(225)에 결정하여 저장할 수 있다. ECU(110)는 무지향성 카메라(105)로부터의 무지향성 이미지들을 처리하는 것과 동시에 현재 위치(610) 및 차량(100)의 이동을 결정한다. 그 결과, ECU(110)는 현재 위치(610) 및 이동 데이터를 무지향성 카메라(105)로부터의 무지향성 이미지들의 시퀀스와 매치시킬 수 있다.
무지향성 이미지로부터의 정보 및 차량(100)의 이동 데이터를 비교하기 위해, 기준 시스템들의 번역이 확립된다. 도 7은 무지향성 카메라(105)에 대한 광 좌표계(OCS: optical coordinate system)(705) 및 차량(100)에 대한 그라운드 좌표계(GCS)(710)를 도시한다. GCS(710)가 차량(100)에 대한 원점의 단순한 평행 이동을 갖는 세계 좌표계를 또한 기술하기 때문에, 세계 좌표계보다는 GCS(710)가 이러한 개시사항을 통해 참조될 것이다. OCS(705)는 무지향성 카메라(105)의 광학 애 퍼처에서 기준점을 갖는다. z-축은 차량(100)으로부터 45도 각도로 상향 및 후방으로 연장되고, y-축은 차량(100)으로부터 -45도 각도로 하향 및 후방으로 연장된다. 이와 대조적으로, GCS(710)에 대한 z-축은 차량(100)에 수직으로 연장되고, GCS(710)에 대한 y-축은 차량(100)과 평행하게 연장된다. 이들 좌표계들은 무지향성 카메라(105)의 내적 및 외적 매개 변수들뿐만 아니라 차량(100)에 대한 무지향성 카메라(105)의 정렬에 따라 정렬 면에서 다를 수 있다.
ECU(110)는 GCS(710)와 OCS(705) 시스템들 사이의 관계를 결정한다. 일부 실시예들에서, 차량(100)의 제조 동안, ECU(110)는 이러한 관계를 정의하도록 조정된다. 예를 들어, 시각적 테스트 패턴이 무지향성 카메라(105)를 통해 입력될 수 있다. 이러한 경우에, ECU(110)는 테스트 패턴의 알려진 값들(예를 들어, 거리들)을 참조하여 입력 테스트 패턴을 분석한다. 이러한 방식으로, ECU(110)는 OCS(705)와 GCS(710)를 정렬시킨다. 그러나, 시간이 지남에 따라, OCS(705)와 GCS(710) 간의 관계가 변할 수 있다. 예를 들어, 차량(100)이 타이어 압력 또는 고 부하 조건들의 변화들로 인해 높이의 변화들을 경험하면, OCS(705)와 GCS(710) 사이의 관계가 변할 수 있다. 변화들을 조정하기 위해, ECU(110)는 차량(100)의 제조 후에 OCS(705)와 GCS(710) 사이에서 부가적인 조정들을 수행할 수 있다. 예를 들어, ECU(110)는 예를 들면 차량(100)의 기동마다, 미리 결정된 간격들로 영상 주행기록계(visual odometry)를 사용하여 조정을 수행할 수 있다. 이러한 유형의 조정은 시각적 테스트 패턴이 아닌 무지향성 이미지의 검출된 오브젝트들을 기반으로 할 수 있다. 예를 들어, 지평면은 ECU(110)에 의해 검출될 수 있고, OCS(705)와 GCS(710) 사이의 관계는 무지향성 이미지에서의 지평면의 위치에 기초하여 조정될 수 있다. OCS(705)를 참조하여 무지향성 카메라 포즈(예를 들어, 무지향성 카메라의 위치 및 방향)가 결정되기 때문에, 조정은 또한 무지향성 카메라 포즈를 조절한다.
도 8은 차량(100)이 역방향으로 이동하는 동안의 차량(100)의 위치들의 시퀀스를 도시한다. 제 1 시간(800)에서, ECU(110)는 ECU(110)가 OCS(705)를 참조하여 OCS 위치 좌표들(즉, 광학 위치 좌표들)(805)을 생성하는 무지향성 이미지 프레임을 입력한다. 동시에, ECU(110)는 차량(100)의 센서들로부터의 정보에 기초하여 GCS(710)를 참조하여 GCS 위치 좌표들(즉, 그라운드 위치 좌표들)(810)을 입력한다. OCS 위치 좌표(805) 및 GCS 위치 좌표들(810)은 타임 스탬프가 첨부된 메모리(225)에 저장된다. 타임 스탬프는 나중에 OCS 위치 좌표들(805) 및 GCS 위치 좌표들(810)을 동기화하는데 사용된다. 제 2 시간(820)에서, 차량은 GCS(710)를 참조하여 측정될 수 있는 거리(825)를 역방향으로 이동시킨다. ECU(110)는 제 2 시점(820)에서 GCS 위치 좌표들(810)과 무지향성 이미지 프레임을 입력한다. ECU(110)는 제 2 시간(820)을 나타내는 타임 스탬프와 함께 정보를 메모리(225)에 저장한다. 유사하게, 차량(100)이 거리(835)를 이동한 것을 나타내는 제 3 시간(830)에서, ECU(110)는 제 3 시간(830)을 나타내는 타임 스탬프와 함께 OCS 위치 좌표들(805) 및 GCS 위치 좌표들(810)을 메모리(225)에 저장한다.
도 9는 도 8을 참조하여 기술된 차량(100)의 위치들의 시퀀스의 다른 예시이다. 이러한 실시예에서, ECU(110)는 주어진 시간 간격마다 GCS 위치 좌표들(810)을 동일한 시간 간격에서 OCS 위치 좌표들(805)로 변환한다. 예를 들어, 제 1 시간(800)에서, ECU(110)는 GCS 위치 좌표들(810)을 판독하고, OCS(705)와 GCS(710) 사이의 관계에 기초하여(예를 들어, 조정에 의해 결정되는), ECU(110)는 GCS 위치 좌표들(810)을 OCS 위치 좌표들(805)로 변환한다. 이러한 정보는 무지향성 카메라 포즈(R(1), t(1))에 캡처된다. 제 2 시간(820)에서, ECU(110)는 무지향성 카메라 포즈(R(2), T(2))로 GCS 위치 좌표들(810)을 OCS 위치 좌표들(805)로 변환한다. 유사하게, 제 3 시간(830)에서, ECU(110)는 무지향성 카메라 포즈(R(3), t(3))로 GCS 위치 좌표들(810)을 OCS 위치 좌표(805)로 변환한다.
도 10a는 각 시간 간격(1000)에서 ECU(110)가 도 10b에 도시된 변환을 수행하는 것을 도시한다. 시간 간격(1000)은 ECU(110)의 애플리케이션 또는 처리 속도에 기초하여 미리 결정되고 조절될 수 있다. 시간 간격(1000)은 또한 미리 결정된 시간보다는 주행된 거리에 기초할 수 있다. 각 시간 간격(1000)에서, ECU(110)는 차량 통신 버스(115)로부터 GCS 위치 좌표들(810)을 결정한다(단계(1005)). 각 시간 간격(1000)에 대해, 무지향성 카메라 포즈(R(i), t(i))가 결정된다(단계(1010)). 무지향성 카메라 포즈(R(i), t(i))는 OCS(705)의 관점에서 무지향성 카메라(105)의 위치를 정의한다. 픽셀 트랙커는, 후술되는 바와 같이, 무지향성 이미지 내의 픽셀 위치에 기초하여 관심 오브젝트에 대한 OCS 위치 좌표들(805)을 생성한다(단계(1015)). OCS 위치 좌표들(805) 및 포즈(R(i), t(i))는 각 시간 간격(1000) 마다 ECU(110)에 의해 처리되고, 관심 오브젝트의 추정된 월드 위치(x,y,z)(k)가 각각의 시간 간격(1000) 동안 결정된다(단계(1020)).
차량(100)이 트레일러 히치(즉, 관심 오브젝트)(310)에 접근함에 따라, 트레일러 히치(310)는 무지향성 이미지의 픽셀 위치들을 이동시킬 것이다. 이것은 상술된 바와 같이 무지향성 카메라(105)로부터 트레일러 히치(310)로의 시선의 변화에 대응한다. 도 11a에서, 제 1 시선(1105)은 차량(100)의 제 1 위치(1110)에 대응하고, 제 2 시선(1115)은 차량(100)의 제 2 위치(1120)에 대응하고, 제 3 시선(1125)은 차량(100)의 제 3 위치(1130)에 대응한다. 제 1 위치(1110)와 제 2 위치(1120) 사이의 제 1 거리(1135)는 GCS 위치 좌표들(810)을 사용하여 ECU(110)에 의해 결정된다. 유사하게, 제 2 거리(1140)는 GCS 위치 좌표들(810)을 사용하여 ECU(110)에 의해 결정된다. 제 1 각도(1145) 및 제 2 각도(1150)는 직선 이미지 내의 픽셀 위치의 변화량에 기초하여 계산될 수 있다. ECU(110)는 제 1 거리(1135), 제 2 거리(1140), 제 1 각도(1145) 및 제 2 각도(1150) 간의 알려진 기하학적 관계들을 이용하여 차량(100)과 트레일러 히치(310) 사이의 이격 거리(1155)를 계산한다. 유사하게, ECU(110)는 제 3 위치(1130)에서 차량(100)과 트레일러 히치(310) 사이의 이격 거리(1160)를 계산한다. ECU(110)가 제 1 거리(1135)와 제 2 거리(1140)가 매우 작을 때(예를 들어, 매우 짧은 시간 간격들에서), 제 1 거리(1135)와 제 2 거리(1140)에서의 이격 거리(1155) 및 이격 거리(1160)를 계산할 수 있기 때문에, 이격 거리(1155, 1160)는 차량(100)이 트레일러(305)에 접근함에 따라 거의 연속적으로 추정될 수 있다. 이격 거리(1155, 1160)에 기초하여, ECU(110)는 차량(100)과 트레일러(305)의 상대 위치들을 자동화된 차량 조작들을 제어하는 ECU들을 포함하는 다른 차량 시스템들로 출력한다. 이격 거리(1155, 1160) 및 GCS 위치 좌표들(810)을 사용하여, ECU들은 트레일러 히치(310)와 차량(100)의 자동화된 정렬을 수행할 수 있다.
실제로, 관심 오브젝트의 정확한 픽셀 위치와 같은 OCS 위치 좌표들(805)의 작은 불확실성은 도 11Bb 도시된 바와 같이 시선들의 교차점(1175)에서 불확실성들을 야기한다. 이러한 불확실성들은 특히 관심 오브젝트에 대한 단일 교차점을 사용할 때, 차량(100)과 트레일러(305) 사이의 추정된 거리에 불확실성들 또는 에러들을 초래할 수 있다. 불확실성을 감소시키기 위해, ECU(110)는 관심 오브젝트의 다수의 지점들(즉, 특징들) 또는 다수의 관심 오브젝트들의 위치들을 동시에 계산할 수 있다. 도 12는 관심 오브젝트 상의 다수의 검출 포인트들(1205)을 갖는 트레일러(305)의 일부를 도시한다. ECU(110)가 무지향성 이미지를 임포트할 때, 오브젝트 검출 루틴은 다수의 검출 지점들(1205)을 결정한다. 일단 인식되면, 다수의 검출 지점들(1205)은 ECU(110)의 오브젝트 추적 루틴을 사용하여 추적한다. 결과적으로, 다수의 검출 지점들(1205) 각각은 차량(100)과 그 검출 지점 사이의 거리를 결정하도록 처리된다. 일단 ECU(110)가 다수의 검출 지점들(1205)을 검출하고 처리하면, ECU(110)는 다수의 검출 지점들(1205)을 서로 비교하여 개개의 검출 지점들과 관련된 임의의 개개의 에러들 또는 불확실성들을 감소시킬 수 있다. 예를 들어, ECU(110)는 거리 예측들을 정제하기 위해 번들 조정 알고리즘을 실행할 수 있다. 이런 방식으로, ECU(110)에 의한 거리의 추정은 다수의 검출 지점들(1205)을 통해 최적화된다. ECU(110)의 오브젝트 검출은 메모리(225)에 프로그램된 다양한 오브젝트들을 검출할 수 있다. 예를 들어, ECU(110)는 트레일러(305), 지면, 나무, 극, 연석, 다른 차량, 보행자 등을 검출할 수 있다. 상술한 바와 같이, ECU(110)는 이들 다양한 오브젝트들 상의 다수의 지점들 또는 오브젝트 상의 단일 지점을 검출할 수 있다. 다른 경우에서, ECU(110)는 본원에 기술된 방법들을 사용하여 오브젝트까지의 거리를 결정한다.
도 13 및 도 14는 오브젝트 위치 측정 시스템(102)을 사용하여 오브젝트의 거리 및 위치를 결정하는 방법의 흐름도들이다. 도 13은 ECU(110)에 의해 입력 파라미터들이 수신되고 처리되는 것을 포함하는 방법의 일반적인 단계들을 도시한다. 무지향성 이미지 프레임은 무지향성 카메라(105)로부터 ECU(110)로 입력된다(단계(1305)). ECU(110)는 무지향성 이미지 프레임 내의 하나 이상의 오브젝트들을 검출하고 하나 이상의 오브젝트들을 하나 이상의 관심 오브젝트들로 분류한다. 특히, ECU(110)는 무지향성 이미지의 패턴을 식별하고 패턴을 미리 결정된 오브젝트들의 세트와 비교하여 오브젝트를 특정 오브젝트 유형으로 분류한다. 일단 오브젝트가 관심 오브젝트로 분류되면, ECU(110)는 무지향성 카메라(105)로부터 ECU(110)에 입력된 후속 무지향성 이미지 프레임들에서 관심 오브젝트의 하나 이상의 특징들을 결정하고 추적한다(단계(1310)). 프레임 정보는 추적된 오브젝트들의 유형들, 오브젝트들의 특징들, 및 각각의 특징들 및/또는 오브젝트들의 위치(예를 들어, 어떤 픽셀)를 포함하는 각각의 무지향성 이미지 프레임에 첨부된다. 동시에, 차량(100)의 이동 데이터를 포함하는 차량 통신 버스(115)로부터의 메시지가 수신된다(단계(1320)). 이러한 메시지는 ECU(110)가 메시지가 수신될 때를 추적하는 것을 허용하도록 이동 데이터의 각 조각에 첨부된 캔-메시지 인덱스(can-message index)(예를 들어, 인덱스 k')를 포함한다. ECU(110)는 캔 메시지를 각 캔-메시지 인덱스에서 차량 포즈로 변환한다(단계(1325)). ECU(110)는 수신된 각각의 무지향성 이미지 프레임과 차량 포즈를 동기화시킨다(단계(1330)). ECU(110)는 무지향성을 이미지 변환 파라미터들에 입력하고 프레임 정보를 직선 이미지로 변환한다(단계(1335)). ECU(110)는 동기화된 차량 포즈, 변환된 프레임 정보 및 일련의 무지향성 이미지 프레임들에 대한 카메라 포즈에 기초하여 오브젝트 및 특징들의 위치 추정치를 계산한다(단계(1340)).
도 14는 오브젝트 위치 측정 시스템(102)을 사용하여 오브젝트의 거리 및 위치를 결정하는 방법의 부가적인 단계들을 도시한다. 도 13을 참조하여 기술된 입력들에 기초하여, ECU(110)는 차량 포즈 및 시각적 주행 거리계를 갖는 무지향성 카메라 포즈를 선택적으로 우선 정제할 수 있다(단계(1405)). 다음으로, ECU(110)는 일련의 무지향성 이미지 프레임들 또는 관심 오브젝트를 포함하는 무지향성 이미지 프레임들의 적어도 일부를 일련의 직선 이미지 프레임들로 변환한다(단계(1410)). ECU(110)는 관심 오브젝트를 추적하고 직선 이미지 프레임들을 피처링하고 전 방향 이미지 프레임들의 관심 오브젝트에 해당하는 프레임 정보를 직선 이미지 프레임 정보로 변환한다(단계(1415)). ECU(110)는 거리 간격들로 직선 이미지 프레임 정보를 기록한다(단계(1420)). 거리 간격들은 차량(100)의 이동 데이터를 이용하여 주행된 미리 결정된 거리에 기초하여 ECU(110)에 의해 결정된다. ECU(110)는 일련의 직선 이미지 프레임들 및 동기화된 차량 포즈를 가로질러 픽셀 위치의 변화를 사용하여 오브젝트 및 특징들을 삼각 측량한다(단계(1425)). 다시 말해서, ECU(110)는 제 1 직선 이미지 프레임과 제 2 직선 이미지 프레임에 걸친 관심 오브젝트의 위치의 변화를 결정한다. 그 후, ECU(110)는 제 1 직선 이미지 프레임과 제 2 직선 이미지 프레임의 위치의 변화 및 이들 직선 이미지 프레임들에 대응하는 차량 포즈의 변화에 기초하여 관심 오브젝트의 거리 및 위치를 결정한다. 거리는 직선 이미지 프레임들의 위치 변화와 차량 포즈의 변화 사이의 삼각법 관계들을 사용하여 결정된다. 관심 오브젝트 상의 다수의 지점들의 경우에, ECU(110)는 또한 유사한 방식으로 이들 다수의 지점들과의 거리를 결정한다. ECU(110)는 이들 다수의 지점들에 대한 거리 계산들을 관심 오브젝트의 거리 계산과 평행하게 그리고 동시에 처리할 수 있다. 거리가 알려지면, 오브젝트의 위치는 GCS(710)를 참조하여 결정된다. 그 후, 선택적으로, ECU(110)는 번들 조정 알고리즘으로 관심 오브젝트 상의 다수의 지점들을 사용하여 오브젝트의 거리 및 위치 추정치를 조정할 수 있다(단계(1430)). 번들 조정 알고리즘은 다수의 지점들 간의 평균값들을 기반으로 추정치를 정제한다.
도 13 및 도 14를 참조하여 기술된 방법들은 다양한 관심 오브젝트들에 사용될 수 있다. 상술한 바와 같이, ECU(110)는 먼저 인식 기능들을 사용하여 관심 오브젝트들을 검출할 수 있다. 예를 들어, ECU(110)는 무지향성 이미지의 오브젝트들을 메모리(225)의 알려진 오브젝트들과 비교하여 오브젝트를 식별 및/또는 분류할 수 있다. 이 경우, ECU(110)는 알려진 오브젝트를 사용하여 오브젝트 상의 다수의 관심 지점들을 식별하는데 도움을 줄 수 있다. 그러나, ECU(110)는 또한 사용자 선택에 기초하여 관심 오브젝트를 식별할 수 있다. 특히, 차량(100)의 운전자는 예를 들어 트레일러 히치(310)와 같은 사용자 인터페이스(125) 내의 오브젝트를 선택할 수 있다. ECU(110)는 사용자 선택을 검출하고 이미지 인식에 기초하여 관련 오브젝트를 식별한다. 이러한 실시예에서, ECU(110)는 단일 지점(즉, 운전자에 의해 선택된 관심 오브젝트)을 사용하여 도 13 및 도 14에서 설명된 방법들을 작동시킬 수 있다. 반대로, ECU(110)가 이미지를 인식하면, ECU(110)는 알려진 오브젝트에 기초하여 다수의 관심 지점들을 사용하여 선택된 관심 오브젝트의 조정된 거리 및 위치를 결정할 수 있다.
따라서, 본 발명은 특히, 차량 이동 데이터 및 차량상의 무지향성 카메라로부터의 무지향성 이미지의 관심 오브젝트의 위치 변화에 기초하여 관심 오브젝트의 거리 및 위치를 결정하는 시스템 및 방법을 제공한다. 본 발명의 다양한 특징들 및 이점들은 이하 청구 범위들에 기재된다.

Claims (20)

  1. 차량에 부착된 무지향성 카메라로 오브젝트의 위치를 찾는 방법에 있어서:
    상기 차량의 위치 변화를 나타내는 차량 센서들로부터 상기 차량의 이동 데이터를 수신하는 단계;
    무지향성 카메라로 하나 이상의 정지된 오브젝트들의 복수의 무지향성 이미지 프레임들을 수신하는 단계;
    상기 무지향성 이미지 프레임들 내의 상기 하나 이상의 정지된 오브젝트들로부터 관심 오브젝트를 식별하는 단계;
    전자 제어 유닛으로, 상기 차량이 움직이는 동안, 상기 무지향성 이미지 프레임들에서 상기 관심 오브젝트들을 추적하는 단계;
    상기 차량이 이동할 때 상기 무지향성 이미지 프레임들 내의 상기 관심 오브젝트의 위치 변화를 결정하는 단계; 및
    상기 무지향성 이미지 프레임들 내의 상기 차량의 위치 변화 및 상기 관심 오브젝트의 위치의 변화에 기초하여, 상기 차량에 대한 상기 관심 오브젝트까지의 거리를 결정하는 단계를 포함하는, 차량에 부착된 무지향성 카메라로 오브젝트의 위치를 찾는 방법.
  2. 제 1 항에 있어서,
    상기 차량의 이동 데이터를 수신하는 단계는 차량 통신 버스로부터의 이동 방향과 이동 거리를 수신하는 단계를 포함하는, 차량에 부착된 무지향성 카메라로 오브젝트의 위치를 찾는 방법.
  3. 제 1 항에 있어서,
    그라운드 좌표 시스템에 대한 상기 차량의 그라운드 위치 좌표들에 기초하여 상기 차량의 위치를 결정하는 단계;
    광학 좌표 시스템에 대한 상기 관심 오브젝트의 광학 위치 좌표들에 기초하여 상기 관심 오브젝트의 위치를 결정하는 단계; 및
    상기 그라운드 위치 좌표들에 기초하여 상기 차량의 결정된 위치를 상기 광학 좌표 시스템에 대한 광학 위치 좌표들에 기초하여 상기 차량의 위치로 변환하는 단계를 더 포함하는, 차량에 부착된 무지향성 카메라로 오브젝트의 위치를 찾는 방법.
  4. 제 1 항에 있어서,
    상기 무지향성 이미지 프레임들을 복수의 직선형 이미지 프레임들로 변환하는 단계;
    상기 직선형 이미지 프레임들 내의 상기 관심 오브젝트의 복수의 위치들을 결정하는 단계; 및
    상기 차량이 이동하는 동안 상기 직선형 이미지 프레임들 내의 상기 관심 오브젝트의 상기 위치들의 변화를 결정하는 단계를 더 포함하는, 차량에 부착된 무지향성 카메라로 오브젝트의 위치를 찾는 방법.
  5. 제 1 항에 있어서,
    상기 이동 데이터로부터의 상기 차량의 위치 변화 및 상기 무지향성 이미지 내의 상기 관심 오브젝트의 위치 변화에 기초하여 상기 관심 오브젝트까지의 거리를 결정하는 단계는 상기 차량의 상기 이동 데이터와 상기 관심 오브젝트의 위치 변화를 삼각 측량하는 단계를 포함하는, 차량에 부착된 무지향성 카메라로 오브젝트의 위치를 찾는 방법.
  6. 제 3 항에 있어서,
    상기 그라운드 좌표 시스템과 상기 광학 좌표 시스템 간의 관계를 조정하는 단계를 더 포함하는, 차량에 부착된 무지향성 카메라로 오브젝트의 위치를 찾는 방법.
  7. 제 1 항에 있어서,
    상기 무지향성 이미지 프레임들을 직선형 이미지 프레임들로 변환하는 단계를 더 포함하는, 차량에 부착된 무지향성 카메라로 오브젝트의 위치를 찾는 방법.
  8. 제 1 항에 있어서,
    상기 관심 오브젝트는 복수의 광학 위치 좌표들로서 분류되고, 상기 무지향성 이미지 내의 상기 관심 오브젝트를 추적하는 단계는 상기 광학 위치 좌표들을 추적하는 단계를 포함하고, 상기 차량이 이동할 때 상기 무지향성 이미지 내의 상기 관심 오브젝트의 위치 변화를 결정하는 단계는 상기 광학 위치 좌표들의 변화를 결정하는 단계를 포함하는, 차량에 부착된 무지향성 카메라로 오브젝트의 위치를 찾는 방법.
  9. 제 8 항에 있어서,
    상기 좌표 지점들 상의 번들 조정을 수행하는 단계를 더 포함하는, 차량에 부착된 무지향성 카메라로 오브젝트의 위치를 찾는 방법.
  10. 제 1 항에 있어서,
    상기 관심 오브젝트는 사용자 입력으로 식별되는, 차량에 부착된 무지향성 카메라로 오브젝트의 위치를 찾는 방법.
  11. 제 1 항에 있어서,
    상기 관심 오브젝트는 터치스크린에 의해 식별되는, 차량에 부착된 무지향성 카메라로 오브젝트의 위치를 찾는 방법.
  12. 제 1 항에 있어서,
    상기 관심 오브젝트는,
    패턴에 대해 상기 무지향성 이미지 프레임들을 분석하고;
    상기 패턴을 미리 정해진 오브젝트들의 세트와 비교하고;
    상기 패턴을 상기 미리 정해진 오브젝트들의 세트로부터 특정 오브젝트 유형으로 분류함으로써 식별되는, 차량에 부착된 무지향성 카메라로 오브젝트의 위치를 찾는 방법.
  13. 제 1 항에 있어서,
    상기 관심 오브젝트는 다른 차량, 연석, 나무, 극, 및 지면으로 구성된 그룹으로부터 선택된 것인, 차량에 부착된 무지향성 카메라로 오브젝트의 위치를 찾는 방법.
  14. 제 1 항에 있어서,
    상기 관심 오브젝트의 상기 위치에 기초하여 상기 차량을 자동으로 기동시키는 단계를 더 포함하는, 차량에 부착된 무지향성 카메라로 오브젝트의 위치를 찾는 방법.
  15. 차량에 부착된 무지향성 카메라로 오브젝트의 위치를 찾기 위한 오브젝트 위치 찾기 시스템에 있어서:
    상기 차량의 위치 변화를 나타내도록 구성된 적어도 하나의 차량 센서;
    무지향성 카메라;
    상기 차량의 운전자에게 비디오 정보를 디스플레이하도록 구성된 사용자 인터페이스 및 전자 제어 유닛을 포함하고, 상기 전자 제어 유닛은,
    하나 이상의 정적 오브젝트들의 무지향성 이미지를 포함하는 복수의 무지향성 이미지 프레임들을 상기 무지향성 카메라로부터 수신하고;
    상기 차량의 위치 변화를 나타내는 상기 적어도 하나의 차량 센서로부터 상기 차량의 이동 데이터를 수신하도록 구성되고;
    상기 무지향성 이미지 프레임들 내의 상기 하나 이상의 정적 오브젝트들로부터 관심 오브젝트를 식별하고,
    상기 차량이 이동하는 동안 상기 복수의 무지향성 이미지 프레임들 내의 상기 관심 오브젝트를 추적하고;
    상기 차량이 이동할 때 상기 무지향성 이미지 프레임들 내의 상기 관심 오브젝트의 위치의 변화를 결정하고;
    상기 무지향성 이미지 프레임들 내의 상기 관심 오브젝트의 위치의 상기 변화 및 상기 차량의 상기 위치 변화에 기초하여 상기 관심 오브젝트까지의 거리를 결정하는, 차량에 부착된 무지향성 카메라로 오브젝트의 위치를 찾기 위한 오브젝트 위치 찾기 시스템.
  16. 제 15 항에 있어서,
    상기 적어도 하나의 차량 센서는 휠 속도 센서 및 조향각 센서를 포함하는, 차량에 부착된 무지향성 카메라로 오브젝트의 위치를 찾기 위한 오브젝트 위치 찾기 시스템.
  17. 제 15 항에 있어서,
    상기 전자 제어 유닛은 또한 상기 관심 오브젝트까지의 거리를 결정하기 위해 상기 무지향성 이미지 프레임들 내의 상기 관심 오브젝트의 위치 변화 및 상기 차량의 상기 위치 변화를 삼각층량하도록 구성되는, 차량에 부착된 무지향성 카메라로 오브젝트의 위치를 찾기 위한 오브젝트 위치 찾기 시스템.
  18. 제 15 항에 있어서,
    상기 전자 제어 유닛은 또한 상기 관심 오브젝트까지의 거리를 계산하기 전에 상기 무지향성 이미지를 직선형 이미지로 변환하도록 구성되는, 차량에 부착된 무지향성 카메라로 오브젝트의 위치를 찾기 위한 오브젝트 위치 찾기 시스템.
  19. 제 15 항에 있어서,
    상기 관심 오브젝트를 식별하는 운전자로부터 상기 전자 제어 유닛으로의 입력을 수신하도록 구성된 터치스크린을 더 포함하는, 차량에 부착된 무지향성 카메라로 오브젝트의 위치를 찾기 위한 오브젝트 위치 찾기 시스템.
  20. 제 15 항에 있어서,
    상기 관심 오브젝트는 다른 차량, 연석, 나무, 극, 및 지면으로 구성된 상기 그룹으로부터 선택된 것인, 차량에 부착된 무지향성 카메라로 오브젝트의 위치를 찾기 위한 오브젝트 위치 찾기 시스템.
KR1020177028245A 2015-04-10 2016-03-01 차량 모션 데이터를 사용하는 자동차 카메라에 의한 오브젝트 위치 측정 KR101997436B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562145692P 2015-04-10 2015-04-10
US62/145,692 2015-04-10
PCT/US2016/020255 WO2016164118A2 (en) 2015-04-10 2016-03-01 Object position measurement with automotive camera using vehicle motion data

Publications (2)

Publication Number Publication Date
KR20180002609A true KR20180002609A (ko) 2018-01-08
KR101997436B1 KR101997436B1 (ko) 2019-07-09

Family

ID=55640866

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177028245A KR101997436B1 (ko) 2015-04-10 2016-03-01 차량 모션 데이터를 사용하는 자동차 카메라에 의한 오브젝트 위치 측정

Country Status (6)

Country Link
US (1) US10423164B2 (ko)
EP (1) EP3280976B1 (ko)
JP (1) JP2018512593A (ko)
KR (1) KR101997436B1 (ko)
CN (1) CN107567412B (ko)
WO (1) WO2016164118A2 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101996169B1 (ko) * 2018-01-12 2019-07-03 숭실대학교산학협력단 카메라 변위를 고려한 가시광 통신 기반의 차량 위치 추정 방법 및 장치
KR20190086335A (ko) * 2018-01-12 2019-07-22 숭실대학교산학협력단 움직임에 따른 흐림 현상의 보정을 고려한 가시광 통신 기반의 차량 위치 추정 방법 및 장치

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101997436B1 (ko) * 2015-04-10 2019-07-09 로베르트 보쉬 게엠베하 차량 모션 데이터를 사용하는 자동차 카메라에 의한 오브젝트 위치 측정
EP3380368B1 (en) * 2015-11-23 2019-09-25 Robert Bosch GmbH Object detection system and method thereof
US10546385B2 (en) * 2016-02-25 2020-01-28 Technion Research & Development Foundation Limited System and method for image capture device pose estimation
EP3282422A4 (en) * 2016-03-17 2019-01-09 Nec Corporation DEVICE, SYSTEM, METHOD AND PROGRAM FOR COUNTING PASSENGERS, AND VEHICLE DISPLACEMENT EXCHANGE COMPUTING UNIT, METHOD AND PROGRAM
US10457205B2 (en) * 2017-03-16 2019-10-29 Robotzone, Llc Assisted trailer alignment system
US10266023B2 (en) * 2017-05-01 2019-04-23 Ford Global Technologies, Llc System to automate hitching a trailer
US10802478B2 (en) * 2017-10-19 2020-10-13 Ford Global Technologies, Llc Hitch assist system and method for autonomously maneuvering a vehicle in a user-specified target travel direction
US11198340B2 (en) * 2018-05-01 2021-12-14 Continental Automotive Systems, Inc. Coupler and tow-bar detection for automated trailer hitching via cloud points
JP7167185B2 (ja) * 2018-05-08 2022-11-08 コンチネンタル オートモーティブ システムズ インコーポレイテッド 視覚物体追跡装置
US11669104B2 (en) 2018-05-08 2023-06-06 Continental Automotive Systems, Inc. User-adjustable trajectories for automated vehicle reversing
BR112020024606A2 (pt) * 2018-06-01 2021-05-11 Paccar Inc sistemas e métodos para apoio autônomo em recuperar um veículo para um reboque
AU2018426291A1 (en) * 2018-06-01 2020-12-24 Paccar Inc Systems and methods for autonomously backing a vehicle to a dock
US10829045B2 (en) * 2018-07-11 2020-11-10 Continental Automotive Systems, Inc. System and method for calibrating a motion estimation algorithm using a vehicle camera
DE102018212401B3 (de) * 2018-07-25 2019-12-24 Volkswagen Aktiengesellschaft Verfahren und System zum automatischen Erkennen eines Ankuppelmanövers eines Kraftfahrzeugs an einen Anhänger
US11603100B2 (en) 2018-08-03 2023-03-14 Continental Autonomous Mobility US, LLC Automated reversing by following user-selected trajectories and estimating vehicle motion
DE102018215982A1 (de) * 2018-09-19 2020-03-19 Zf Friedrichshafen Ag Vorrichtung und -verfahren zur Steuerung eines Fahrzeugs für eine Wechselbrücke
KR102628012B1 (ko) 2018-10-23 2024-01-22 삼성전자주식회사 캘리브레이션 방법 및 장치
CN111179305B (zh) * 2018-11-13 2023-11-14 晶睿通讯股份有限公司 对象位置估算方法及其对象位置估算装置
US10593059B1 (en) * 2018-11-13 2020-03-17 Vivotek Inc. Object location estimating method with timestamp alignment function and related object location estimating device
US11030476B2 (en) * 2018-11-29 2021-06-08 Element Ai Inc. System and method for detecting and tracking objects
US10902634B2 (en) * 2018-12-04 2021-01-26 Here Global B.V. Method and apparatus for providing feature triangulation
US11077730B2 (en) 2018-12-27 2021-08-03 Continental Automotive Systems, Inc. Sensor mounting height estimation using load sensors
US11214105B2 (en) * 2019-01-29 2022-01-04 Ford Global Technologies, Llc Saturated steering detection and operation for guided vehicle operation
US10933914B2 (en) * 2019-01-31 2021-03-02 Ford Global Technologies, Llc Trailer hitching aid
JP7030732B2 (ja) * 2019-02-27 2022-03-07 エヌ・ティ・ティ・コムウェア株式会社 同一構造物検出装置、同一構造物検出方法及び同一構造物検出プログラム
JP7192582B2 (ja) * 2019-03-11 2022-12-20 オムロン株式会社 物体追跡装置および物体追跡方法
EP3719696A1 (en) * 2019-04-04 2020-10-07 Aptiv Technologies Limited Method and device for localizing a sensor in a vehicle
US10780752B1 (en) 2019-04-09 2020-09-22 Ford Global Technologies, Llc Vehicle hitch ball detection system
WO2021007427A1 (en) * 2019-07-09 2021-01-14 Continental Automotive Systems, Inc. Trailer body length detection system
US11427199B2 (en) * 2019-08-22 2022-08-30 Ford Global Technologies Llc System for aligning a vehicle hitch location identifier with a trailer coupler
US20210155238A1 (en) * 2019-11-26 2021-05-27 Continental Automotive Systems, Inc. 3d position estimation system for trailer coupler
DE102020106301A1 (de) 2020-03-09 2021-09-09 Zf Cv Systems Global Gmbh Verfahren zum Ermitteln einer Objekt-Information zu einem Objekt in einer Fahrzeugumgebung, Steuereinheit und Fahrzeug
DE102020106302A1 (de) 2020-03-09 2021-09-09 Zf Cv Systems Global Gmbh Verfahren zum Ermitteln einer Objekt-Information zu einem Objekt in einer Fahrzeugumgebung, Steuereinheit und Fahrzeug
DE102020106304A1 (de) 2020-03-09 2021-09-09 Zf Cv Systems Global Gmbh Verfahren zum Steuern eines Fahrzeuges auf einem Betriebshof, Fahrt- Steuereinheit und Fahrzeug
WO2022056532A1 (en) * 2020-09-11 2022-03-17 Continental Automotive Systems, Inc. Tow ball position detection system and method
CN112327864A (zh) * 2020-11-17 2021-02-05 北京三快在线科技有限公司 一种无人驾驶设备的控制方法及控制装置
US20220203786A1 (en) * 2020-12-30 2022-06-30 Continental Automotive Systems, Inc. Method and assembly for positioning a vehicle relative to a trailer

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004004320A1 (en) * 2002-07-01 2004-01-08 The Regents Of The University Of California Digital processing of video images
US7792330B1 (en) * 2005-09-30 2010-09-07 Mustang Technology Group, L.P. System and method for determining range in response to image data
US20130226390A1 (en) * 2012-02-29 2013-08-29 Robert Bosch Gmbh Hitch alignment assistance
WO2014116485A1 (en) * 2013-01-22 2014-07-31 Qualcomm Incorporated Systems and methods for tracking and detecting a target object

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000161915A (ja) * 1998-11-26 2000-06-16 Matsushita Electric Ind Co Ltd 車両用単カメラ立体視システム
JP3494434B2 (ja) * 1999-10-21 2004-02-09 松下電器産業株式会社 駐車支援装置
US6483429B1 (en) 1999-10-21 2002-11-19 Matsushita Electric Industrial Co., Ltd. Parking assistance system
US6489922B1 (en) 2000-04-22 2002-12-03 American Gnc Corporation Passive/ranging/tracking processing method for collision avoidance guidance and control
JP2004291673A (ja) 2003-03-25 2004-10-21 Denso Corp センサ装置
JP4355535B2 (ja) 2003-08-07 2009-11-04 株式会社岩根研究所 360度画像変換処理装置
DE102005022882A1 (de) * 2005-05-18 2006-11-23 Volkswagen Ag Verfahren und Vorrichtung zur Parkraumvermessung mittels einer Monokamera
US7379018B1 (en) 2005-12-30 2008-05-27 Valeo Raytheon Systems, Inc. System and method for verifying a radar detection
US8199975B2 (en) 2006-12-12 2012-06-12 Cognex Corporation System and method for side vision detection of obstacles for vehicles
JP2009139246A (ja) 2007-12-07 2009-06-25 Honda Motor Co Ltd 画像処理装置、画像処理方法、画像処理プログラムおよび位置検出装置並びにそれを備えた移動体
JP2009180536A (ja) * 2008-01-29 2009-08-13 Omron Corp 画像処理装置、画像処理方法、およびプログラム
JP5027746B2 (ja) 2008-07-01 2012-09-19 株式会社トプコン 位置測定方法、位置測定装置、およびプログラム
KR100939761B1 (ko) 2008-10-02 2010-01-29 삼성전기주식회사 차량 장착용 카메라 유닛, 차량 외부 디스플레이 방법 및 드라이빙 코리더 마커 생성 시스템
JP2011217300A (ja) * 2010-04-02 2011-10-27 Masamichi Tokuzawa 360度ライブ・パノラマ配信システム
JP5484997B2 (ja) 2010-04-12 2014-05-07 オリンパス株式会社 蛍光観察装置および蛍光観察装置の作動方法
FR2960082B1 (fr) 2010-05-17 2012-08-10 Commissariat Energie Atomique Procede et systeme pour fusionner des donnees issues de capteurs d'images et de capteurs de mouvement ou de position
JP5240527B2 (ja) 2010-11-25 2013-07-17 アイシン精機株式会社 車載カメラの校正装置、方法、及びプログラム
EP2993654B1 (en) * 2010-12-07 2017-05-03 Mobileye Vision Technologies Ltd. Method and system for forward collision warning
US9242602B2 (en) 2012-08-27 2016-01-26 Fotonation Limited Rearview imaging systems for vehicle
JP6097063B2 (ja) * 2012-11-29 2017-03-15 株式会社タダノ 高さ測定装置及び高さ測定方法
EP3235773B8 (en) 2012-09-21 2023-09-20 Tadano Ltd. Surrounding information-obtaining device for working vehicle
JP6257947B2 (ja) * 2013-02-05 2018-01-10 株式会社タダノ 作業車の周囲情報取得装置
US20140085409A1 (en) 2012-09-25 2014-03-27 GM Global Technology Operations LLC Wide fov camera image calibration and de-warping
US9098752B2 (en) * 2013-08-09 2015-08-04 GM Global Technology Operations LLC Vehicle path assessment
US9037349B2 (en) * 2013-08-27 2015-05-19 Ford Global Technologies Trailer identification system for trailer backup assist
KR101997436B1 (ko) * 2015-04-10 2019-07-09 로베르트 보쉬 게엠베하 차량 모션 데이터를 사용하는 자동차 카메라에 의한 오브젝트 위치 측정
US9821920B2 (en) * 2015-08-18 2017-11-21 Nextvr Inc. Methods and apparatus for compensating for vehicular motion
US10328853B2 (en) * 2017-01-16 2019-06-25 Nio Usa, Inc. Method and system for providing an escape route from a vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004004320A1 (en) * 2002-07-01 2004-01-08 The Regents Of The University Of California Digital processing of video images
US7792330B1 (en) * 2005-09-30 2010-09-07 Mustang Technology Group, L.P. System and method for determining range in response to image data
US20130226390A1 (en) * 2012-02-29 2013-08-29 Robert Bosch Gmbh Hitch alignment assistance
WO2014116485A1 (en) * 2013-01-22 2014-07-31 Qualcomm Incorporated Systems and methods for tracking and detecting a target object

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101996169B1 (ko) * 2018-01-12 2019-07-03 숭실대학교산학협력단 카메라 변위를 고려한 가시광 통신 기반의 차량 위치 추정 방법 및 장치
KR20190086335A (ko) * 2018-01-12 2019-07-22 숭실대학교산학협력단 움직임에 따른 흐림 현상의 보정을 고려한 가시광 통신 기반의 차량 위치 추정 방법 및 장치

Also Published As

Publication number Publication date
KR101997436B1 (ko) 2019-07-09
JP2018512593A (ja) 2018-05-17
WO2016164118A3 (en) 2016-12-08
US10423164B2 (en) 2019-09-24
EP3280976B1 (en) 2019-11-20
CN107567412B (zh) 2020-11-24
US20180181142A1 (en) 2018-06-28
WO2016164118A2 (en) 2016-10-13
CN107567412A (zh) 2018-01-09
EP3280976A2 (en) 2018-02-14

Similar Documents

Publication Publication Date Title
KR101997436B1 (ko) 차량 모션 데이터를 사용하는 자동차 카메라에 의한 오브젝트 위치 측정
US9389093B2 (en) Traffic signal recognition apparatus
US9569673B2 (en) Method and device for detecting a position of a vehicle on a lane
CN109766757B (zh) 一种融合车辆和视觉信息的泊车位高精度定位方法及系统
EP2485203B1 (en) Vehicle-surroundings monitoring device
JP2020064046A (ja) 車両位置決定方法及び車両位置決定装置
CN106463051B (zh) 信号机识别装置以及信号机识别方法
US10194059B2 (en) Image processing apparatus and image processing method
US20100315505A1 (en) Object motion detection system based on combining 3d warping techniques and a proper object motion detection
CN108154472B (zh) 融合导航信息的泊车位视觉检测方法与系统
JP2019106026A (ja) 車載環境認識装置
WO2015189847A1 (en) Top-down refinement in lane marking navigation
JP6787106B2 (ja) 物体検知装置
WO2015175826A1 (en) Systems and methods for detecting traffic signs
JP2010282615A (ja) 3dワーピング手法と固有対象物運動(pom)の検出の組み合わせに基づく対象物の動き検出システム
JP2018048949A (ja) 物体識別装置
EP3935560A1 (en) Method for training and using a neural network to detect ego part position
JP2012198857A (ja) 接近物体検知装置及び接近物体検知方法
EP3207523B1 (en) Obstacle detection apparatus and method
JP2018073275A (ja) 画像認識装置
JP2019504986A (ja) 自動車用視覚システム及び視覚システムを制御する方法
JP2020118575A (ja) 車間距離測定装置、誤差モデル生成装置および学習モデル生成装置とこれらの方法およびプログラム
CN109522779A (zh) 图像处理装置
JP6699323B2 (ja) 電車設備の三次元計測装置及び三次元計測方法
KR20160125803A (ko) 영역 추출 장치, 물체 탐지 장치 및 영역 추출 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant