KR20230137441A - 주차 보조 시스템을 동작하는 방법 및 디바이스, 주차장, 및 차량 - Google Patents

주차 보조 시스템을 동작하는 방법 및 디바이스, 주차장, 및 차량 Download PDF

Info

Publication number
KR20230137441A
KR20230137441A KR1020237029701A KR20237029701A KR20230137441A KR 20230137441 A KR20230137441 A KR 20230137441A KR 1020237029701 A KR1020237029701 A KR 1020237029701A KR 20237029701 A KR20237029701 A KR 20237029701A KR 20230137441 A KR20230137441 A KR 20230137441A
Authority
KR
South Korea
Prior art keywords
vehicle
projection
unit
predetermined
parking
Prior art date
Application number
KR1020237029701A
Other languages
English (en)
Inventor
루크 얀센
Original Assignee
발레오 샬터 운트 센소렌 게엠베아
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 발레오 샬터 운트 센소렌 게엠베아 filed Critical 발레오 샬터 운트 센소렌 게엠베아
Publication of KR20230137441A publication Critical patent/KR20230137441A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2400/00Special features or arrangements of exterior signal lamps for vehicles
    • B60Q2400/50Projected symbol or information, e.g. onto the road or car body
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2800/00Features related to particular types of vehicles not otherwise provided for
    • B60Q2800/10Autonomous vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0008Feedback, closed loop systems or details of feedback error signal
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/42
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18018Start-stop drive, e.g. in a traffic jam
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/06Automatic manoeuvring for parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

차량(100)용 주차 보조 시스템(105)의 동작 방법이 제안된다. 방법은: a) 미리 결정된 영역(205), 특히 상기 차량(100)에 의한 영역(205)에 미리 결정된 패턴(PAT1 내지 PAT6)을 투영하는 단계(S1), b) 이미지를 캡처하는 단계(S2)― 투영부(220)를 갖는 미리 결정된 영역(205)의 적어도 일부는 캡처된 이미지에서 볼 수 있음 ―, c) 캡처된 이미지에 기초하여 미리 결정된 영역(205)에 배열된 물체(210)를 결정하는 단계(S3), 및 d) 캡처된 물체(210)를 사용하여 디지털 주변 환경 지도(MAP0, MAP1)를 업데이트하는 단계(S4)를 포함한다.

Description

주차 보조 시스템을 동작하는 방법 및 디바이스, 주차장, 및 차량
본 발명은 차량의 주차 보조 시스템을 동작하는 방법 및 디바이스, 이러한 디바이스를 구비한 주차장, 및 차량에 관한 것이다.
차량 사용자의 주차 프로세스를 보다 효율적으로 만들기 위해서는, 주차를 자동화하는 것이 바람직하다. 이는 자동 주차 대행(automated valet parking)이라고 칭해질 수 있다. 이 경우, 사용자는 환승 지점에서 차량을 자동 주차 대행 시스템에 전달하고, 자동 주차 대행 시스템은 차량의 제어를 인계받아 자율적으로 차량을 무료 주차 공간으로 제어하고 거기에 주차한다. 따라서, 사용자는 환승 지점에서 다시 차량을 인계받을 수도 있다. 이러한 자동 주차 대행 시스템은, 예를 들어 차량 외부에 배열된 센서, 특히 카메라, 레이더 디바이스, 및/또는 라이다(lidar) 디바이스를 사용하여 차량 및 차량 주변 환경을 캡처한다. 캡처된 데이터에 기초하여 제어 신호가 차량에 출력되고 차량이 이러한 방식으로 제어된다. 이러한 시스템은, 공간 활용을 최적화할 수 있기 때문에, 사용자뿐만 아니라 주차장 또는 주차 영역의 운영자에게도 유리하다. 더욱이, 임의의 원격 제어 가능 차량을 이러한 시스템에서 사용할 수 있으며, 차량 자체는 주변 환경을 캡처하고 제어하기 위한 복잡한 기술을 필요로 하지 않는다.
이러한 시스템에서 알려진 문제 중 하나는 작거나 및/또는 움직이는 장애물, 특히 어린이나 동물과 같은 생명체가 센서에 의해 좋지 못하게만 또는 부정확하게만 캡처된다는 것이다. 그럼에도 불구하고 충분한 수준의 안전을 보장하기 위해서는, 매우 높은 수준의 기술적 소비가 이루어져야 하고, 예를 들어 시스템을 매우 복잡하게 만들고 비용이 많이 들게 하는 매우 많은 카메라가 사용된다.
차량 자체에 그 주변 환경을 캡처하는 센서와 자율 제어 유닛이 있으면, 차량이 자율적으로 주행할 수 있다. 자동 주차 대행의 경우, 제어 유닛에는 방위가 없기 때문에, 주차 영역 또는 주차장의 지도에 대한 지식이 추가로 필요하다. 예를 들어, 차량이 주차 영역 또는 주차장에 진입할 경우에는, 이러한 지도가 제공되더라도, 복잡한 수단을 사용해야만 차량의 위치설정이 달성된다. 특히, 센서에 의해 캡처될 수 있으며 주차 영역 또는 주차장에서 고유한 위치를 식별하는 알림 또는 표지판은 분산 방식으로 배열되어야 한다. 건물 내부, 특히 주차장이 복합층으로 되어 있고 서로 겹쳐서 배열되어 있는 경우에는 GPS 등에 의한 위치설정이 불가능하거나 또는 충분한 정확도로의 위치설정이 불가능하다.
US 2020/0209886 A1에는 주차장 천장에 배열된 레이저 스캐너가 도로에 경로를 투영하는 시스템 및 방법이 개시되며, 이는 자율 주행 차량을 안내하는 데 사용된다.
이러한 배경에 대하여, 본 발명의 목적은 차량용 주차 보조 시스템의 동작을 개선하는 것이다.
제1 양태에 따르면, 차량용 주차 보조 시스템의 동작 방법이 제안된다. 방법은 다음 단계를 포함한다:
a) 미리 결정된 영역, 특히 차량에 의한 영역에 미리 결정된 패턴을 투영하는 단계,
b) 이미지를 캡처하는 단계― 투영부를 갖는 미리 결정된 영역의 적어도 일부는 캡처된 이미지에서 볼 수 있음 ―,
c) 캡처된 이미지에 따라 미리 결정된 영역에 배열된 물체를 확인하는 단계, 및
d) 캡처된 물체를 사용하여 디지털 주변 환경 지도를 업데이트하는 단계.
이 방법은 차량의 차선에 위치되는 물체가 더 높은 신뢰도 및 정확도로 캡처될 수 있다는 이점을 갖는다. 따라서, 주차 보조 시스템의 동작 동안, 특히 자동 주차 프로세스에서와 같은 차량의 자율 주행 동안 안전 수준이 높아질 수 있다.
"주차 보조 시스템(parking assistance system)"이라는 용어는 본 발명의 경우에는 주차 프로세스 동안, 특히 자율적으로 수행되는 주차 프로세스 동안 차량을 보조 및/또는 제어하는 임의의 시스템을 의미하는 것으로 이해된다. 주차 보조 시스템은 차량에 통합된 유닛을 포함할 수 있거나, 인프라구조, 예를 들어 주차장에 배열된 유닛을 포함할 수 있거나, 및/또는 서로 기능적 및/또는 통신 연결을 갖는 분산 방식으로 배열된 다수의 유닛을 포함할 수 있다.
주차 보조 시스템은 특히 차량을 자율적으로 제어 및/또는 주행하도록 구성된다. 주차 보조 시스템이 차량 외부에 배열된 경우, 이를 원격 제어라고 할 수도 있다. 주차 보조 시스템은 바람직하게는 SAE 분류 체계에 따라 자동화 레벨 4 또는 5를 갖는다. SAE 분류 체계는 2014년에 자동차 표준화 기구인 SAE International에 의해 J3016으로서, "Taxonomy and Definitions for Terms Related to On-Road Motor Vehicle Automated Driving Systems"로 발표되었다. 이는 6가지의 상이한 자동화의 등급에 기초하며, 필요한 시스템의 개입 수준 및 운전자에게 필요한 주의를 고려한다. SAE 자동화 등급은 완전 수동 시스템에 대응하는 레벨 0부터 레벨 1 내지 2의 운전자 보조 시스템을 통해 부분적 자율(레벨 3 및 4), 그리고 더 이상 운전자가 필요하지 않은 완전 자율(레벨 5) 시스템까지 확장된다. 자율 주행 차량(무인 자동차, 자율 주행 자동차, 및 로봇 자동차로도 알려짐)은 인간의 개입 없이 주변 환경을 감지하고 운행할 수 있는 차량이며, SAE 자동화 레벨 5를 따른다.
방법의 제1 단계 a)는 미리 결정된 영역에 미리 결정된 패턴을 투영하는 단계를 포함한다. 미리 결정된 영역은, 예를 들어 주차장 내의 영역이다. 미리 결정된 영역은, 특히 차량에 의한 영역이다.
미리 결정된 패턴은 미리 결정된 방식으로 배열된 광학적 피처, 예를 들어 직선 또는 곡선일 수 있으며, 개방형일 수 있거나 또는 폐쇄된 형상을 형성할 수도 있는 기하학적 규칙에 따라 배열된 선을 포함한다. 미리 결정된 패턴의 예는 체스판 패턴, 장사방형 패턴, 원, 삼각형, 물결선 등을 포함한다. 이러한 패턴 중 서로 다른 패턴을 조합하여 새로운 패턴을 형성할 수 있다. 미리 결정된 패턴은 반드시 선을 광학적 피처로서 포함할 필요는 없고, 점 패턴 등일 수도 있다.
미리 결정된 패턴은 바람직하게는 패턴의 2개의 인접하게 배열된 광학적 피처의 간격, 예를 들어 2개의 선의 간격이 5-30 cm, 바람직하게는 5-20 cm, 바람직하게는 5-15 cm, 더욱 바람직하게는 13 cm 미만, 더 더욱 바람직하게는 11 cm 미만인 바와 같은 방식으로 투영된다. 광학적 피처가 서로 가까울수록, 더 작은 물체가 캡처될 수 있다. 그러나, 영역을 완전히 밝히는 데 필요한 광학적 피처의 수가 증가하고, 투영부를 캡처하는 데 필요한 해상도 및 물체를 확인하는 데 필요한 컴퓨팅 성능이 증가한다.
바람직한 실시예에서, 미리 결정된 패턴은 11 cm의 최소 크기를 갖는 물체가 패턴에 의해 캡처되는 바와 같은 방식으로 설계된다.
미리 결정된 패턴은 인프라구조에서 차량에 또는 차량 외부에 배열된 투영 유닛, 특히 레이저 프로젝터에 의해 생성 및 투영될 수 있다. 투영 유닛은 LCD 유닛, 마이크로렌즈 어레이, 및/또는 마이크로미러 어레이를 포함할 수 있다. 투영 유닛은 미리 결정된 패턴을 투영하기 위해 레이저 빔을 스캐닝하도록 구성될 수 있다.
패턴이 투영되는 미리 결정된 영역은 특히 차량의 장래의 차선 또는 궤적을 포함한다. 투영부는 차량의 존재와 무관할 수 있다. 그러나, 미리 결정된 영역은 바람직하게는 차량에 의해, 예를 들어 차량 전방 또는 차량 후방에 위치설정된다. 영역은 또한 차량 주위로 측방향으로 확장될 수 있다. 예를 들어, 영역은 차량 전방으로 몇 미터, 예를 들어 5미터 확장된다. 영역은 특히 차량까지 확장될 수 있고 차량(보다 정확하게는 지면에 대한 차량의 투영부)을 포함할 수 있다.
미리 결정된 패턴의 투영부에 의해 영역이 스캐닝된다고 말할 수 있다.
미리 결정된 패턴은 특히 250 nm-2500 nm의 스펙트럼 범위의 파장에서 투영된다. 투영 유닛의 실시예에 따라, 패턴은 광대역 스펙트럼, 협대역 스펙트럼, 및/또는 다수의 협대역 선을 포함하는 스펙트럼으로 투영될 수 있다.
방법의 제2 단계 b)는 이미지를 캡처하는 단계― 투영부를 갖는 미리 결정된 영역의 적어도 일부는 캡처된 이미지에서 볼 수 있음 ―를 포함한다.
이미지는 인프라구조에서 차량에 또는 차량 외부에 배열된 캡처 유닛, 특히 카메라에 의해 캡처될 수 있다.
이미지는 바람직하게는 투영부를 생성하는 광선과 관련하여 특정 최소 시차(parallax)를 사용하여 캡처된다. 따라서, 미리 결정된 영역에 위치된 물체로 인한 미리 결정된 패턴의 변화를 높은 신뢰도 및 정확도로 확인할 수 있게 된다.
방법의 제3 단계 c)는 캡처된 이미지에 따라 미리 결정된 영역에 배열된 물체를 확인하는 단계를 포함한다.
투영부를 갖는 영역에 물체가 위치설정되면, 미리 결정된 패턴의 투영부는 물체에 의해 변경되거나 영향을 받는다. 예를 들어, 음영이 발생하거나(즉, 패턴의 개별 광학적 피처가 투영부의 이미지에서 일부 섹션에 없음), 패턴의 하나 이상의 광학적 피처의 일부 섹션이 왜곡되거나(즉, 영향을 받은 광학적 피처가 투영부의 이미지에서 예상되는 것과는 다른 지점에서 뻗음), 및/또는 광학적 피처의 강도의 국소 변화가 변화된 반사각으로 인해 발생한다.
물체의 존재는 투영부의 이미지에서 캡처될 수 있는 미리 결정된 패턴의 이러한 변화에 기초하여 약간의 계산 노력으로 확인될 수 있다.
실시예에서, 투영부의 캡처된 이미지는 미리 결정된 패턴과 비교되며, 여기서, 미리 결정된 패턴의 변화는 투영부의 구역에서 물체를 나타낸다.
제4 단계 d)는 캡처된 물체를 사용하여 디지털 주변 환경 지도를 업데이트하는 단계를 포함한다.
디지털 주변 환경 지도는 특히 차량의 실제 주변 환경의 디지털 표현을 포함한다. 디지털 주변 환경 지도는 부지 계획, 건물 계획 등과 같이 구조적 조건을 위치에 반영한 지도에 기초하는 것이 바람직하다. 디지털 주변 환경 지도는 센서에 의해 캡처된 다른 도로 사용자, 특히 다른 차량 및 보행자와 같은 움직이는 물체를 더 포함할 수 있다. 더욱이, 디지털 주변 환경 지도는 센서에 의해 캡처된 도로 표시 및/또는 기타 교통 관리 지침을 포함할 수 있다. 또한, 디지털 주변 환경 지도는 합성물 등과 같은 기저 표면에 대한 정보 항목을 포함할 수 있다.
디지털 주변 환경 지도는, 특히 좌표계를 포함하며, 예를 들어 그 원점은 영구적으로 지정되거나(전역 좌표계) 또는 그 원점은 차량의 한 지점에 고정된다.
주차 보조 시스템은 특히 디지털 주변 환경 지도에 기초하여 차량의 경로 계획을 수행하도록 구성된다. 즉, 주차 보조 시스템은 디지털 주변 환경 지도에 기초하여 차량의 장래의 궤적을 계획한다.
방법의 일 실시예에 따르면, 단계 c)는:
캡처된 이미지에서 투영된 패턴의 왜곡을 캡처하는 단계를 포함한다.
방법의 추가의 실시예에 따르면, 단계 a)는:
레이저 프로젝터를 사용하여 미리 결정된 패턴을 투영하는 단계를 포함한다.
방법의 추가의 실시예에 따르면, 단계 a)는:
미리 결정된 컬러를 사용하여 미리 결정된 패턴을 투영하는 단계를 포함하고,
단계 b)는:
미리 결정된 컬러에 대해 투과성의 필터를 사용하여 이미지를 캡처하는 단계를 포함한다.
미리 결정된 컬러는, 예를 들어 하나 이상의 특정 파장 범위를 포함한다. 각각의 파장 범위는 바람직하게는 최대 20 nm, 바람직하게는 최대 15 nm, 더욱 바람직하게는 최대 10 nm의 반치폭을 갖는 좁은 범위를 포함한다. 따라서, "특정 컬러"는 예를 들어 레이저 등의 방출선에 대응하는 다수의 좁은 파장 범위를 포함할 수 있다.
이 실시예는 캡처 유닛에 의해 패턴의 투영부가 캡처될 수 있는 신호 대 노이즈비가 증가될 수 있다는 이점을 갖는다. 이는 특히 사용된 필터가 하나 이상의 좁은 파장 범위에 대해서만 투과성의 협대역 필터인 경우에 적용된다.
"투과성의(transparent)"이라는 용어는 본 발명의 경우에는 필터가 상응하는 파장에 대해 10% 초과, 바람직하게는 50% 초과, 바람직하게는 70% 초과, 더욱 바람직하게는 90% 초과의 투과율을 갖는다는 것을 의미하는 것으로 이해된다. 필터는 미리 결정된 컬러 이외의 컬러에 대해서는 투과성을 갖지 않는 것이 바람직하다.
방법의 추가의 실시예에 따르면, 단계 a)는:
미리 결정된 패턴을 시간순으로 연속적인 투영부에서 순차적으로 투영하는 단계― 패턴은 서로 다른 투영부에서 서로에 대해 변위되어 투영됨 ―를 포함한다.
패턴이 영역에 걸쳐 "스캐닝"된다고 말할 수도 있다. 이는, 투영부에 의해 캡처되지 않는 물체가 배열될 수 있는, 투영부의 패턴의 두 광학적 피처 사이에 있는 구역이 나중의 투영부의 광학적 피처가 이 구역을 통해 확장되기 때문에 다음 투영부 중 하나에 의해 캡처될 수 있다는 이점이 있다. 따라서, 패턴을 사용하는 영역의 스캐닝은 순차적으로 증가될 수 있다. 이는, 미리 결정된 패턴이, 예를 들어 광학적 피처 사이에 다소 큰 간격, 예를 들어 11 cm보다 더 큰 간격을 갖는 경우에 유리하다.
단계 b)는 이 경우에 특히 패턴의 각각의 투영부의 이미지를 캡처하는 단계를 포함하고, 단계 c)는 각각의 캡처된 이미지에 대해 수행된다.
방법의 추가의 실시예에 따르면, 단계 a)는:
미리 결정된 순서에 따라 다수의 서로 다른 미리 결정된 패턴을 시간순으로 순차적으로 투영하는 단계를 포함한다.
예를 들어, 순서는 체스판 패턴, 장사방형 패턴, 삼각형 패턴, 및 물결 패턴을 포함하며, 이는 연속적으로 투영된다.
단계 b)는 이 경우에 특히 패턴의 각각의 투영부의 이미지를 캡처하는 단계를 포함하고, 단계 c)는 각각의 캡처된 이미지에 대해 수행된다.
방법의 추가의 실시예에 따르면, 방법은:
디지털 주변 환경 지도에 기초하여 차량의 궤적을 확인하는 단계를 포함한다.
궤적은 특히 충돌을 피하기 위해 디지털 주변 환경 지도의 물체를 고려하여 확인된다.
방법의 추가의 실시예에 따르면, 방법은:
투영된 패턴에 기초하여 차량의 위치를 확인하는 단계를 포함한다.
이 실시예에서, 투영 유닛은 특히 차량 외부에 배열되고 제자리에 고정된다. 따라서, 차량은 투영부에 대해 이동할 수 있다. 더욱이, 패턴의 투영부는 차량 자체를 캡처할 수 있다. 그 후, 차량은 물체로서 확인될 수 있다. 투영 유닛의 고정된 배열로 인해, 패턴은 인프라구조에 대해 정의된 지정된 상대 위치로 투영될 수 있다. 따라서, 예를 들어 정의된 고정 위치에 나타나는 특정 광학적 피처를 투영하는 것이 가능하다. 디지털 주변 환경 지도에서의 고정 좌표는 고정 위치에 대응한다. 추가의 광학적 피처의 각각의 위치는 정의된 광학적 피처에 대한 추가의 광학적 피처의 상대 위치로부터 결정될 수 있다. 따라서, 차량의 위치는 정의된 광학적 피처 또는 그 위치가 정의된 투영부의 추가의 광학적 피처에 대한 차량의 상대 위치로부터 결정될 수 있다.
시각적으로 말하면, 고정된 투영부는 차량이 이동하는 좌표계로서 보일 수 있으며, 좌표계의 각각의 위치는 디지털 주변 환경 지도의 위치에 고유하게 할당된다.
방법의 추가의 실시예에 따르면, 방법은:
광학적 알림 신호를 투영하는 단계를 포함한다.
광학적 알림 신호는, 예를 들어 자율적으로 제어되는 차량이 주행 중이라는 알림이 포함되어 있으면, 다른 도로 사용자에게 유용할 수 있으며, 차량 자체를 제어하는 데에도 사용될 수 있다. 여기에서 알림 신호는 "팔로우 미(follow me)" 기능과 관련하여 사용될 수 있다. 차량은 바람직하게는 이러한 목적을 위해 알림 신호를 캡처하도록 구성되는 센서를 포함하고, 캡처된 알림 신호에 따라 차량을 자율적으로 주행하도록 구성되는 제어 유닛을 갖는다.
방법의 추가의 실시예에 따르면, 방법은:
차량의 카메라에 의해 알림 신호의 투영부를 캡처하는 단계,
알림 신호에 포함된 정보를 확인하는 단계, 및
확인된 정보에 따라 차량을 동작하는 단계를 포함한다.
정보는 특히 방향 정보를 포함할 수 있다. 더욱이, 정보는 정지 신호를 포함할 수 있다.
제1 양태의 방법은, 예를 들어 이하에 설명되는 시나리오에서 수행될 수 있다. 시나리오에서, 디바이스는 분산 방식으로 배열되며, 투영 유닛 및 캡처 유닛은 주차장으로서 설계되는 인프라구조에서 차량 외부에 배열되고, 확인 유닛 및 업데이트 유닛은, 예를 들어 차량을 자율적으로 주행하도록 구성된 차량의 주차 보조 시스템의 일부로서 차량에 배열된다. 차량과 주차장은 모두 통신 유닛을 각각 포함하고 있고 따라서 서로 통신할 수 있다. 차량의 사용자는 주차장의 입구까지 차량을 주행한다. 통신 연결이 설정되고 차량이 주차장에 등록된다. 이 경우, 예를 들어, 무료 주차 공간 및 차량을 무료 주차 공간으로 안내하는 경로뿐만 아니라 주차장의 윤곽을 포함하는 디지털 주변 환경 지도가 차량으로 송신된다. 사용자는 차량에서 내리고 자율 주행 모드를 시작한다. 주차 보조 시스템이 차량의 제어를 인계받고, 송신된 경로를 따라 연장되는 궤적을 확인한다. 이동 가능한 물체는 디지털 주변 환경 지도에 포함되지 않는다. 물체와의 충돌을 피하기 위해, 미리 결정된 패턴은 각각의 경우에 자율적으로 주행하는 차량의 전방 및/또는 주변 환경의 정의된 구역에 투영되고 투영부가 캡처된다. 캡처된 이미지는 차량의 확인 유닛으로 송신되고, 투영부의 영역에 물체가 위치되는지의 여부를 확인한다. 이에 따라, 주차 보조 시스템이 궤적을 계획하는 기초가 되는 디지털 주변 환경 지도가 업데이트된다. 따라서, 특히 이동 가능한 물체가 각각 현재 캡처되고 궤적의 계획에서 고려될 수 있다. 따라서, 차량은 자율적으로 무료 주차 공간에 안전하게 도달할 수 있다. 무료 주차 공간에 도착하면 차량을 주차할 수 있으며, 예를 들어, 이러한 목적을 위해 초음파 센서를 사용한다.
제2 양태에 따르면, 차량용 주차 보조 시스템을 동작하기 위한 디바이스가 제안된다. 주차 보조 시스템은 차량을 자동으로 주행하도록 구성된다. 디바이스는:
미리 결정된 영역에 미리 결정된 패턴을 투영하는 투영 유닛,
이미지를 캡처하는 캡처 유닛― 투영부를 갖는 미리 결정된 영역의 적어도 일부는 캡처된 이미지에서 볼 수 있음 ―,
캡처된 이미지에 따라 미리 결정된 영역에 배열된 물체를 확인하는 확인 유닛, 및
캡처된 물체를 사용하여 디지털 주변 환경 지도를 업데이트하는 업데이트 유닛을 포함한다.
이 디바이스는 제1 양태에 따른 방법에 대해 설명된 것과 동일한 이점을 갖는다. 제안된 방법에 대해 설명된 실시예 및 특징은 그에 따라 제안된 디바이스에 적용된다.
각각의 유닛, 특히 확인 유닛 및 업데이트 유닛은 하드웨어 및/또는 소프트웨어로 구현될 수 있다. 하드웨어로 구현하는 경우, 각각의 유닛은, 예를 들어 컴퓨터 또는 마이크로프로세서의 형태일 수 있다. 소프트웨어로 구현하는 경우, 각각의 유닛은 컴퓨터 프로그램 제품, 기능, 루틴, 알고리즘, 프로그램 코드의 일부, 또는 실행 가능한 객체의 형태일 수 있다. 더욱이, 본 명세서에 언급된 각각의 유닛은 차량 및/또는 주차장과 같은 건물의 상위 제어 시스템의 일부의 형태일 수도 있다. 상위 제어 시스템은, 예를 들어 서버 및/또는 도메인 컴퓨터와 같은 중앙 전자 제어 유닛, 및/또는 엔진 제어 유닛(ECU)의 형태일 수 있다.
디바이스의 다양한 유닛은 특히 분산 방식으로 배열될 수 있으며, 서로에 대한 기능적 및/또는 통신 연결을 갖는다. 디바이스는 차량에 통합된 유닛을 포함할 수 있거나, 예를 들어 주차장과 같은 인프라구조에 배열된 유닛을 포함할 수 있거나, 및/또는 분산 방식으로 배열된 다수의 유닛을 포함할 수 있다.
차량에는 디바이스에 의해 동작 가능한 주차 보조 시스템이 포함된다. 이 경우 주차 보조 시스템은 디바이스의 일부 또는 모든 유닛을 통합할 수 있다. 주차 보조 시스템은 적어도 디바이스로부터 제어 신호를 수신하고 제어 신호에 따라 차량을 동작(차량의 원격 제어)하도록 구성되는 적어도 하나의 제어 디바이스를 포함한다.
디바이스의 일 실시예에 따르면, 투영 유닛은 차량 외부에 배열되고, 캡처 유닛, 확인 유닛, 및 업데이트 유닛은 차량에 또는 차량 상에 배열된다.
디바이스의 추가의 실시예에 따르면, 투영 유닛 및 캡처 유닛은 차량 외부에 배열되고 확인 유닛 및 업데이트 유닛은 차량에 배열된다.
추가의 실시예에서는, 확인 유닛이 차량 외부에 추가로 배열되어, 업데이트 유닛만이 차량에 배열된다.
제3 양태에 따르면, 제2 양태에 따른 디바이스를 갖고, 업데이트된 디지털 주변 환경 지도 및/또는 제어 신호를 주차 보조 시스템으로 송신하기 위해 차량의 주차 보조 시스템에 대한 통신 연결을 설정하는 통신 유닛을 갖는 주차장이 제안된다.
주차 보조 시스템으로도 지정될 수 있고 적어도 디바이스로부터 제어 신호를 수신하고 제어 신호에 따라 차량을 동작(차량의 원격 제어)하도록 구성되는 적어도 하나의 제어 디바이스가 차량에 포함되는 경우, 주차장은 차량으로 자동 주차 프로세스를 수행하도록 구성된다.
선택적으로, 차량의 주차 보조 시스템은 수신된 디지털 주변 환경 지도에 기초하여 무료 주차 위치 자체에 대한 적절한 궤적을 확인하고 궤적을 따라 차량을 자율적으로 주행하도록 구성될 수 있다.
제4 양태에 따르면, 차량을 자동으로 주행하기 위한 주차 보조 시스템을 갖고 제2 양태에 따른 디바이스를 갖는 차량이 제안된다.
이 차량은 특히 자동 주차 프로세스를 수행하는 주차 보조 시스템 및 디바이스에 의해 가능하다. 주차 프로세스는 무료 주차 공간으로의 주행을 포함하고 주차 및 출차를 포함할 수 있으며, 차량의 사용자는, 예를 들어 환승 구역에서 내리고 자율 주차 기능을 활성화한다. 그 후, 차량은 무료 주차 공간으로 자율적으로 주행하고 거기에 주차된다. 예를 들어, 모바일 무선 네트워크 또는 다른 무선 데이터 네트워크를 통해 수신되는 호출 신호를 통해, 차량이 활성화될 수 있으며, 이때 차량은 주차 공간으로부터 사용자가 다시 인계받는 환승 구역으로 자율적으로 주행한다. 이를 자동 주차 대행 시스템이라고 할 수도 있다.
차량은, 예를 들어 자동차 또는 심지어 트럭이다. 바람직하게는, 차량은 차량의 주행 상태를 캡처하고 차량의 주변 환경을 캡처하도록 구성되는 다수의 센서 유닛을 포함한다. 특히, 차량은 디바이스의 일부인 투영 유닛 및 캡처 유닛을 포함한다. 차량의 센서 유닛의 추가의 예는 카메라, 레이더(무선 검출 및 범위 지정) 또는 라이다(광 검출 및 범위 지정), 초음파 센서, 위치 센서, 휠 각도 센서, 및/또는 휠 속도 센서와 같은 이미지 캡처 디바이스이다. 각각의 센서 유닛은 캡처된 센서 신호에 기초하여 부분 자율 주행 또는 완전 자율 주행을 수행하는, 예를 들어 주차 보조 시스템 또는 주행 보조 시스템에 센서 신호를 출력하도록 구성된다.
본 발명의 추가의 가능한 구현예는 예시적인 실시예와 관련하여 위에서 또는 아래에서 설명되는 특징 또는 실시예의 명시적으로 언급되지 않은 조합을 또한 포함한다. 이 경우에 본 기술 분야의 통상의 기술자는 본 발명의 각각의 기본 형태에 대한 개선 또는 추가로서 개별 양태를 또한 추가한다.
본 발명의 추가의 유리한 구성 및 양태는 종속항 및 아래에서 설명되는 본 발명의 예시적인 실시예의 대상이다. 본 발명은 첨부 도면을 참조하여 바람직한 실시예를 기초로 아래에서 보다 상세히 설명된다.
도 1은 조감도로부터의 차량의 개략도를 도시하고;
도 2는 미리 결정된 패턴의 투영부의 예를 도시하고;
도 3은 디지털 주변 환경 지도의 업데이트의 예시적인 실시예를 도시하고;
도 4a 내지 도 4d는 주차 보조 시스템을 동작하는 디바이스의 네 가지 상이한 예시적인 실시예를 도시하고;
도 5a 내지 도 5f는 미리 결정된 패턴의 상이한 예를 도시하고;
도 6은 미리 결정된 패턴의 투영부의 추가의 예를 도시하고;
도 7은 장애물이 있는 투영부의 개략도를 도시하고;
도 8a 및 도 8b는 광학적 알림 신호의 투영부의 예시적인 실시예를 도시하고;
도 9a 및 도 9b는 각각 주차 보조 시스템을 동작하는 디바이스에 대한 추가의 예시적인 실시예의 개략도를 도시하고;
도 10은 주차 보조 시스템을 동작하는 방법의 예시적인 실시예의 개략적인 블록도를 도시하고;
도 11은 주차 보조 시스템을 동작하는 디바이스의 예시적인 실시예의 개략적인 블록도를 도시한다.
달리 명시되지 않는 한, 동일한 또는 기능적으로 동일한 요소에는 도면에서 동일한 참조 번호가 제공되었다.
도 1은 조감도로부터의 차량(100)의 개략도를 도시한다. 차량(100)은, 예를 들어 주변 환경(200)에 배열되는 자동차이다. 자동차(100)는, 예를 들어 제어 유닛의 형태인 주차 보조 시스템(105)을 갖는다. 더욱이, 차량(100)은 주차 보조 시스템(105)을 동작하도록 구성되는 디바이스(110)를 포함한다. 디바이스(110)는 이 예에서 2개의 투영 유닛(112), 즉, 전방으로 지향된 하나의 투영 유닛(112) 및 후방으로 지향된 하나의 투영 유닛(112)과, 다수의 캡처 유닛(114)뿐만 아니라, 확인 유닛(116) 및 업데이트 유닛(118)을 포함한다. 투영 유닛(112)은 특히 레이저 프로젝터의 형태이고 차량(100)에 의해 미리 결정된 영역(205)(도 2 참조)에 미리 결정된 패턴(PAT1 내지 PAT6)(도 5a 내지 도 5f 참조)을 투영하도록 구성된다. 캡처 유닛(114)은, 예를 들어 시각 카메라, 레이더, 및/또는 라이다를 포함한다. 캡처 유닛(114)은 자동차(100)의 주변 환경(200)으로부터 각각의 구역의 이미지를 각각 캡처하여 광학적 센서 신호로서 출력할 수 있다. 또한, 자동차(100)에는 복수의 주변 환경 센서 디바이스(130)가 배열되며, 이들은 예를 들어 초음파 센서일 수 있다. 초음파 센서(130)는 환경(200)에 배열된 물체로부터의 거리를 검출하고 상응하는 센서 신호를 출력하도록 구성된다. 캡처 유닛(114) 및/또는 초음파 센서(130)에 의해 캡처된 센서 신호에 의해, 주차 보조 시스템(105) 및/또는 디바이스(110)는 자동차(100)를 부분 자율적으로 또는 심지어 완전 자율적으로 주행할 수 있다. 도 1에 예시된 캡처 유닛(114) 및 초음파 센서(130)에 더하여, 차량(100)이 다양한 다른 센서 디바이스를 갖는다는 것이 제공될 수 있다. 이들의 예는 마이크로폰, 가속도 센서, 휠 속도 센서, 조향각 센서, 전자기적으로 송신 가능한 데이터 신호를 수신하기 위해 결합된 수신기를 갖는 안테나 등이다.
디바이스(110)는, 예를 들어 도 11에 기초하여 더 상세하게 설명되는 바와 같이 설계되고, 도 10에 기초하여 설명되는 방법을 수행하도록 구성된다.
도 2는 차량(100)에 의해 미리 결정된 영역(205) 상의 미리 결정된 패턴(PAT1 내지 PAT6)(도 5a 내지 도 5f 참조)의 투영부(220)의 예를 도시한다. 예를 들어, 이는 도 1에 기초하여 설명된 차량(100)이다. 투영부(220)는 차량(100)에 배열된 투영 유닛(112)(도 1, 도 4, 도 7, 도 9, 또는 도 11 참조) 및/또는 차량(100) 외부에 배열된 투영 유닛(112)에 의해 생성될 수 있다. 차량(도시되지 않음)과는 독립적으로 미리 결정된 다른 영역에 투영부가 생성될 수도 있으며, 여기서는 투영 유닛이 차량 외부에 배열된다는 점에 유의해야 한다. 이 예는, 예를 들어 도 5a에 도시된 미리 결정된 패턴(PAT1)에 관한 것이다. 이 패턴(PAT1)은 서로 수직으로 배열되는, 평행하게 연장되는 선을 갖는 2개의 선 패밀리를 포함한다. 패턴은 체스판 패턴으로 지정될 수도 있다. 평면 영역에서, 미리 결정된 패턴(PAT1)의 투영부(220)는 미리 결정된 패턴(PAT1)에 대응하고, 즉, 선들은 서로 평행 및 수직으로 연장된다. 그러나, 패턴이 투영되는 표면이, 예를 들어 그곳에 물체(210)가 위치되기 때문에 곡선으로 연장되는 지점에서는, 투영부(220)가 더 이상 미리 결정된 패턴(PAT1)에 반드시 대응하지는 않는다. 이는 도 2에 예로서 도시되며, 여기서 투영부(220)는 곡선으로 연장되는 선(225)에 의해 도시된 바와 같이, 물체(210)의 영역에서 왜곡되어 나타난다.
패턴의 투영부(220)는, 예를 들어 차량(100)에 배열된 캡처 유닛(112)(도 1, 도 4, 도 7, 도 9, 또는 도 11 참조)에 의해 이미지로서 캡처된다. 패턴의 왜곡(225)에 기초하면, 이러한 왜곡을 유발하는 물체(210)가 상응하는 구역에 위치설정되어야 한다는 것을 확인할 수 있다. 따라서, 확인 유닛(116)(도 1, 도 4, 도 7, 도 9, 또는 도 11 참조)은 캡처된 이미지에 기초하여 물체(210)를 확인하도록 구성된다.
실시예(도시되지 않음)에서는, 물체(210)의 형상이 패턴의 왜곡(225)에 기초하여 결정된다는 것이 제공될 수 있다. 대안적으로 또는 추가적으로, 물체 분류는 왜곡(225)에 기초하여 수행될 수도 있으며(도시되지 않음), 이는 바람직하게는 신경망에 의해, 특히 GAN(생성적 대립쌍 네트워크)에 의해 및/또는 CNN(컨볼루션 신경망)에 의해 수행된다.
도 3은 디지털 주변 환경 지도(MAP0, MAP1)의 업데이트의 예시적인 실시예를 도시한다. 디지털 주변 환경 지도(MAP0, MAP1)는 정의된 시점에 차량(100)의 실제 주변 환경(200)(도 1 참조)의 표현이고, 디지털 주변 환경 지도(MAP0, MAP1)는 필요에 따라 주변 환경(200)의 일부 또는 모든 캡처된 피처를 포함한다. 도 3의 예에서, 디지털 주변 환경 지도(MAP0, MAP1)는 주변 환경(200)의 조감도를 도시한다.
이 예에서, 차량(100)은, 예를 들어 주차장에 위치되며, 주차된 차량(310) 및 기둥(304)이 디지털 주변 환경 지도(MAP0)에 존재한다. 실시예에서, 디지털 주변 환경 지도(MAP0, MAP1)가 주차 안내 시스템과 같이 차량(100) 외부에 배열된 시스템에 의해 적어도 부분적으로 지정된다는 것이 제공될 수 있다. 지정된 디지털 주변 환경 지도(MAP0)는, 예를 들어 주차장의 윤곽을 포함하고, 차선 및 기둥(304)과 같은 건물 구조가 이미 그 안에 포함되어 있다.
차량(100)은, 예를 들어 차량(100)의 주차 보조 시스템(105)(도 1 참조)에 의해 자율적으로 제어되며, 주차 보조 시스템(105)은 디바이스(110)(도 1 또는 도 11 참조)에 의해 동작 가능하다. 예를 들어, 도 2에 기초하여 설명된 바와 같이, 투영부(220)(도 2 참조)의 캡처된 이미지에 기초하여 확인 유닛(116)(도 1, 도 4, 도 7, 도 9, 또는 도 11 참조)에 의해 물체(210)가 차량(100) 전방에 위치되어 있다는 것을 확인한다. 업데이트 유닛(118)(도 1, 도 4, 도 7, 도 9, 또는 도 11 참조)은 그 후 디지털 주변 환경 지도(MAP0)를 업데이트하며, 업데이트된 주변 환경 지도(MAP1)는 확인된 물체(210)를 포함한다. 따라서, 자율 주행 차량(100)과 물체(210)의 충돌을 피할 수 있다.
도 4a 내지 도 4d는 차량(100)용 주차 보조 시스템(105)(도 1 참조)을 동작하기 위한 디바이스(110)의 네 가지의 상이한 예시적인 실시예를 도시한다. 네 가지 예 모두에서, 디바이스(100)는 투영 유닛(112), 캡처 유닛(114), 확인 유닛(116), 및 업데이트 유닛(118)을 포함한다. 각각의 투영 유닛(112)은 미리 결정된 영역(205)(도 2 참조), 특히 차량(100)에 의한 영역에 미리 결정된 패턴(PAT1 내지 PAT6)(도 5a 내지 도 5f 참조)을 투영(220)하도록 구성되고, 캡처 유닛(114)은 투영부(220)의 이미지를 캡처하도록 구성된다. 확인 유닛(116)은 캡처된 이미지에 따라 물체(210)(도 2 또는 3 참조)를 확인하도록 구성되며, 업데이트 유닛(118)은 디지털 주변 환경 지도(MAP0, MAP1)를 업데이트하도록 구성된다(도 3 참조).
도 4a는 모든 유닛을 갖는 디바이스(110)가 차량(100)에 배열된 제1 실시예를 도시한다. 이를 "독립형" 해법이라고 할 수도 있다.
도 4b는 투영 유닛(112)이 인프라구조에서 차량(100) 외부에 배열되는 제2 실시예를 도시한다. 이 예에서 인프라구조는 주차장(300)이고 투영 유닛(112)은 특히 주차장(300)의 천장에 배열된다.
도 4c는 투영 유닛(112) 및 캡처 유닛(114)이 인프라구조에서 차량(100) 외부에 배열되는 제3 실시예를 도시한다. 이 예에서 인프라구조는 주차장(300)이고 투영 유닛(112) 및 캡처 유닛(114)은 주차장(300)의 천장에 서로 오프셋되어 배열된다. 오프셋 배열로 인해, 투영 유닛(112)과 캡처 유닛(114) 사이에 시차가 발생하여 물체의 캡처를 개선한다. 또한, 이 예에서 차량(100)과 주차장(300)은 서로 무선 통신 연결(COM)을 설정하도록 구성되는 각각의 통신 유닛(102, 302)을 갖는다. 이 예에서, 특히 캡처 유닛(114)에 의해 캡처된 이미지는 통신 연결(COM)을 통해 송신되므로, 차량에 배열된 확인 유닛(116)은 캡처된 이미지에 따라 물체(210)(도 2 또는 3 참조)를 확인할 수 있다.
도 4d는 전체적으로 디바이스(100)가 인프라구조에 배열되는 제4 실시예를 도시한다. 도 4c에서와 같이, 이 예에서는 차량(100)과 주차장(300)이 서로 무선 통신 연결(COM)을 설정하도록 구성되는 각각의 통신 유닛(102, 302)을 갖는다. 그러나, 이 경우에는, 캡처된 이미지 대신에, 예를 들어 업데이트된 주변 환경 지도(MAP0, MAP1)(도 3 참조)가 차량(100)으로 송신된다. 차량(100) 또는 차량(100)의 주차 보조 시스템(105)(도 1 참조)은 무료 주차 공간에 도달하기 위해, 예를 들어 디지털 주변 환경 지도(MAP0, MAP1)에 기초하여 궤적을 확인하도록 구성된다. 대안적으로, 차량(100)에 대한 궤적이 인프라구조 내의 상응하는 유닛에 의해 또한 확인될 수 있고 제어 신호만이 차량(100)에 송신된다(차량(100)의 원격 제어).
도 5a 내지 도 5f는 미리 결정된 패턴(PAT1 내지 PAT6)의 상이한 예를 도시한다.
도 5a의 미리 결정된 패턴(PAT1)은, 예를 들어 체스판 패턴이다. 도 5b의 미리 결정된 패턴(PAT2)은, 예를 들어 장사방형 패턴이다. 도 5c의 미리 결정된 패턴(PAT3)은, 예를 들어 삼각형 패턴이다. 도 5d의 미리 결정된 패턴(PAT4)은, 예를 들어 물결 패턴이다. 도 5e의 미리 결정된 패턴(PAT5)은, 예를 들어 추가의 삼각형 패턴이다. 도 5f의 미리 결정된 패턴(PAT6)은, 예를 들어 원형 패턴이다.
도 5a 내지 도 5f에 기초하여 도시된 미리 결정된 패턴은 단지 예시적인 것이라는 점에 유의해야 한다. 예를 들어, 미리 결정된 패턴(PAT1 내지 PAT6)의 조합과 같은 임의의 다른 미리 결정된 패턴을 고려할 수 있다. 미리 결정된 패턴(PAT1 내지 PAT6)은 특히 인접한 광학적 피처의 간격, 예를 들어 2개의 인접한 선의 선 간격이 정적 투영에서 최대 11 cm가 되도록 투영된다. 동적 투영에서, 즉, 투영부가 정의된 시간 간격으로 변위되거나 및/또는 상이한 패턴이 상이한 시간 간격으로 투영되는 경우, 단일 패턴의 선 간격은 11 cm보다 더 클 수도 있다. 2개의 연속 패턴의 선 간격은 바람직하게는 최대 11 cm이며, 즉, 시간순으로 연속 투영된 패턴이 중첩될 경우, 최대 선 간격은 11 cm이다. 따라서, 크기가 적어도 11 cm인 물체가 투영부(220)에 의해 캡처되고 따라서 디바이스(110)에 의해 확인될 수 있는 것이 보장된다.
도 6은 미리 결정된 패턴(PAT1 내지 PAT6)(도 5a 내지 도 5f 참조)의 투영부(220)의 추가의 예를 도시하고, 이는 예를 들어 도 5a의 체스판 패턴(PAT1)이다. 이 예에서 패턴의 투영부(220)가 차량(100)의 위치설정을 보조하기 위해 어떻게 사용될 수 있는지가 설명될 것이다. 주차장(300)(도 4b 내지 도 4d 또는 도 9 참조)과 같은 폐쇄된 공간에서의 차량(100)의 위치설정은 GPS와 같은 위치 신호가 없기 때문에 어렵고, 그 때문에 이하에서 설명되는 바와 같이 주차장(300)에서 차량(100)의 위치를 확인하는 것이 특히 유리하다. 따라서, 이 예에서, 투영 유닛(112)(도 1, 도 4, 도 7, 도 9, 또는 도 11 참조)은, 예를 들어 도 4b 내지 도 4d에 기초하여 도시된 바와 같이 인프라구조에서 제자리에 고정되어 배열된다.
투영 유닛(112)의 고정된 배열로 인해, 패턴은 인프라구조에 대한 정의된 지정된 상대 위치로 투영될 수 있다. 따라서, 예를 들어 측벽으로부터 정확하게 2 m와 같은 미리 결정된 간격을 갖는 선을 투영하는 것이 가능하다. 도 6에서, 투영부(220)의 선은 H1 내지 H10 및 V1 내지 V15로 번호가 매겨져 있다. 예를 들어, 각각의 선의 위치는 디지털 주변 환경 지도(MAP0, MAP1)에 지정된다(도 3 참조). 수평선(H1 내지 H10)에 기초하여, 차량(100)의 횡방향의 위치를 확인할 수 있고, 수직선(V1 내지 V15)에 기초하여, 차량(100)의 종방향 위치를 확인할 수 있다.
이제 차량(100)이 투영부(220)를 따라 이동할 때, 패턴의 고정된 선을 통과한다. 즉, 투영부(220)의 일부는 지면에 생성되지 않고 오히려 차량(100) 상에 있다(명확성을 위해 도시되지 않음). 또한, 도 6은 투영부(220)가 차량(100)의 차체 아래의 일부 지점에서 돌출하는 것을 도시하며, 이는 지면 위의 차체의 높이 및 차량(100)에 대한 투영부(220)의 투영 각도에 따라 달라진다. 특히, 지면에 닿는 차량(100)의 휠(HR, VR)에서는, 투영부(220)가 지면으로부터 각각의 휠(HR, VR)로 변경되는 전이 지점이 차량(100)의 각각의 휠(HR, VR)의 현재 위치를 정확하게 표시하기 때문에, 정확한 위치설정이 가능하다.
이 예에서, 종방향에서의 전륜(VR)의 위치는 선(V10 및 V11)에 기초하여 확인되며, 확인된 위치는 선(V10 및 V11)의 위치 사이의 값에 대응하고, 종방향에서의 후륜(HR)의 위치는 선(V2 및 V3)에 기초하여 확인되며, 확인된 위치는 선(V2 및 V3)의 위치 사이의 값에 대응한다. 횡방향에서의 차량(100)의 위치는 우측 차량 측면에 대한 선(H3, H4)에 기초하여 확인되고, 확인된 위치는 선(H3 및 H4)의 위치 사이의 값에 대응한다.
위치설정은 차량(100)에 배열된 캡처 유닛(114)(도 1, 도 4, 도 7, 도 9, 또는 도 11 참조)을 사용하여 또는 인프라구조에서 제자리에 고정되어 배열된 캡처 유닛(114)을 사용하여 수행될 수 있다. 캡처 유닛(114)이 차량(100)에 배열되면, 투영된 광학적 피처 중 적어도 하나를 식별하여 다른 피처와 구별할 수 있게 할 필요가 있다. 그 후, 이 광학적 피처는 투영부(220)의 캡처된 이미지에서 확인될 수 있으며, 광학적 피처의 위치에 대응하는 위치는 디지털 주변 환경 지도(MAP0, MAP1)에서 정의 및 지정된다. 이어서, 광학적 피처에 대한 차량(100)의 상대 위치가 확인될 수 있고, 따라서 디지털 주변 환경 지도(MAP0, MAP1)에서 차량(100)의 절대 위치가 또한 확인될 수 있다.
도 7은 2개의 장애물(210)을 갖는 투영부(220)의 개략도를 도시한다. 이 예에서는, 투영 유닛(112)이 주차장(300)의 천장에 위치된다. 캡처 유닛(114)은 주차장(300)의 천장의 다른 위치에 배열된다. 도 7은 각각의 위치(210)가 미리 결정된 패턴(PAT1 내지 PAT6)(도 5a 내지 도 5f 참조)의 투영부(220)를 어떻게 변경할 수 있는지를 설명하기 위해 사용된다.
투영부(220)의 제1 빔(R1)은 물체(210)에 측방향으로 입사된다. 물체(210)의 측면은 캡처 유닛(114)의 관점에서는 보이지 않는다. 따라서, 주차장(300)의 바닥에서 제1 빔(R1)에 의해 생성되는 광학적 피처는 물체(210)의 존재가 결정될 수 있게 하는 투영부(220)의 이미지에 포함되지 않는다.
투영부(220)의 제2 빔(R2)은 캡처 유닛으로부터 보이는 물체(210)의 상부 측면으로 입사된다. 따라서, 주차장(300)의 바닥에서 제2 빔(R2)에 의해 생성되는 광학적 피처는 예상 위치와 관련하여 변위된 것으로 보인다. 투영부(220)가 미리 결정된 패턴(PAT1 내지 PAT6)과 관련하여 이 구역에서 왜곡되어 보인다고 말할 수도 있다. 이것으로부터 물체(210)의 존재가 결정될 수 있다.
투영부(220)의 제3 빔(R3)은 물체(210)의 경사면에 입사된다. 따라서, 빔(R3)의 반사각이 영향을 받고, 이는, 예를 들어 제3 빔(R3)에 의해 생성되는 광학적 피처의 변화된 밝기로 인해 현저해진다. 이것으로부터 물체(210)의 존재가 결정될 수 있다.
언급된 3가지의 예는 미리 결정된 패턴(PAT1 내지 PAT6)의 투영부(220)의 이미지에서 물체(210)를 확인할 수 있는 광학적 효과의 완전한 목록을 형성하는 것이 아니고, 단지 예시를 위해서만 사용된다.
도 8a 및 도 8b는 정의된 정보를 포함하는 광학적 알림 신호(POS)의 투영부의 예시적인 실시예를 도시한다. 이 예에서, 투영 유닛(112)은 차량(100) 외부에 배열되고 차량(100)은 광학적 알림 신호(POS)를 캡처하는 데 사용하는 캡처 유닛(114)을 포함한다. 차량(100)의 주차 보조 시스템(105)(도 1 참조)은 캡처된 이미지에 기초하여 광학적 알림 신호(POS)에 포함된 정보를 확인하고 정보에 따라 차량(100)을 자율적으로 제어하도록 구성된다.
도 8a에서, 광학적 알림 신호(POS)는 특히 차량(100)이 주행하게 되는 확인된 궤적을 차량(100)에 디스플레이하는 데 사용된다. 주차 보조 시스템(105)은 디스플레이된 궤적을 따라 차량(100)을 자율적으로 주행하도록 구성된다.
광학적 알림 신호(POS)는 특히 다른 도로 사용자를 위한 신호 효과를 전개할 수도 있다. 예를 들어, 광학적 알림 신호(POS)의 점선은 자율 주행 차량(100)의 차선을 나타낸다. 따라서, 다른 도로 사용자는 차량이 자율 주행 차량(100)이며 차량(100)의 차선을 자유롭게 유지할 수 있다는 경고를 받는다. 실시예(도시되지 않음)에서는, 차량(100) 주변의 미리 결정된 영역에 자율 주행 차량(100)을 명확하게 나타내는 시각적으로 명확하게 인지할 수 있는 광학적 알림 신호(POS)를 투영하는 것이 제공될 수 있다.
도 8b에서, 광학적 알림 신호(POS)는 특히 물체(210)와의 충돌을 피하기 위해 확인된 물체(210)의 앞에서 차량을 정지시키는 데 사용된다. 주차 보조 시스템(105)은 광학적 알림 신호(POS)에 따라 차량(100)을 정지시키도록 구성된다.
도 9a 및 도 9b는 각각 차량(100)용 주차 보조 시스템(105)(도 1 참조)을 동작하기 위한 디바이스(110)에 대한 추가의 예시적인 실시예의 개략도를 도시한다. 도 9a는 측면도를 도시하고, 도 9b는 위에서 본 모습을 도시하며, 차량(100)은 주차장(300)에 위치된다. 이 예에서, 투영 유닛(112)은 차량(100) 외부에 그리고 도로 바로 위쪽에서 기둥(304) 상에, 예를 들어 1 내지 5 cm의 높이에 배열된다. 캡처 유닛(114)은 주차장(300)의 천장에 배열된다.
이 예의 투영 유닛(112)은 미리 결정된 패턴(PAT1 내지 PAT6)(도 5a 내지 도 5f 참조)으로서 하나의 선만을 투영하고, 광은 지면 바로 위쪽에서 전파된다. 반사체(306)는 지면 상에서 광이 입사 및 반사되는 미리 결정된 위치에 배열된다. 반사체(306)는, 예를 들어 투영 유닛(112)의 높이에 대응하는 높이를 갖는다. 투영 유닛(112)과 반사체 사이의 영역에 물체(210)가 없으면, 투영부(220)는 반사체(306)의 행로를 따라 연장되는 선이다.
그러나, 해당 영역에 물체(210)가 위치되면, 광이 물체에 입사되고 물체로부터 반사된다. 이는 투영부(220)의 이미지에서 왜곡된 패턴(225)으로 인식될 수 있다. 또한, 음영(222)은 물체(210)를 통한 투영 유닛(112)으로부터의 정렬에 대응하는 반사체(306)의 영역을 초래한다. 따라서, 물체(210)의 존재가 결정될 수 있다.
도 10은 주차 보조 시스템(105), 예를 들어 도 1의 차량(100)의 주차 보조 시스템(105)을 동작하기 위한 방법의 예시적인 실시예의 개략적인 블록도를 도시한다. 제1 단계(S1)에서는, 미리 결정된 패턴(PAT1 내지 PAT6)(도 5a 내지 도 5f 참조)이 미리 결정된 영역(205)(도 2 참조), 특히 차량(100)에 의한 영역(도 1 내지 도 4, 도 6, 도 8, 또는 도 9 참조)에 투영된다. 제2 단계(S2)에서는, 차량(100)의 주변 환경(200)(도 1 참조)의 이미지가 캡처되고, 투영부(220)(도 2, 도 4, 또는 도 6 내지 도 9 참조)를 갖는 미리 결정된 영역(205)의 적어도 일부는 캡처된 이미지에서 볼 수 있다. 제3 단계(S3)에서는, 캡처된 이미지에 따라 미리 결정된 영역(205)에 배열된 물체(210)(도 2, 도 3, 도 7, 또는 도 9 참조)가 확인된다. 제4 단계(S4)에서는, 캡처된 물체(210)를 사용하여 디지털 주변 환경 지도(MAP0, MAP1)(도 3 참조)가 업데이트된다.
도 11은 주차 보조 시스템(105), 예를 들어 도 1의 차량(100)의 주차 보조 시스템(105)을 동작하기 위한 디바이스(110)의 예시적인 실시예의 개략적인 블록도를 도시한다. 디바이스(110)는 미리 결정된 영역(205)(도 2 참조), 특히 차량(100)에 의한 영역에 미리 결정된 패턴(PAT1 내지 PAT6)(도 5a 내지 도 5f 참조)을 투영하는 투영 유닛(112), 차량(100)의 주변 환경(200)(도 1 참조)의 이미지를 캡처하는 캡처 유닛(114)― 투영부(220)(도 2, 도 4, 또는 도 6 내지 도 9 참조)를 갖는 미리 결정된 영역(205)의 적어도 일부는 캡처된 이미지에서 볼 수 있음 ―, 캡처된 이미지에 따라 미리 결정된 영역(205)(도 2, 도 3, 도 7, 또는 도 9 참조)에 배열된 물체(210)를 확인하는 확인 유닛(116), 및 캡처된 물체(210)를 사용하여 디지털 주변 환경 지도(MAP0, MAP1)를 업데이트하는 업데이트 유닛(118)을 포함한다.
디바이스(110)는 특히 도 10에 기초하여 설명된 방법을 수행하도록 구성된다.
본 발명이 예시적인 실시예에 기초하여 설명되었지만, 이는 많은 방식으로 변형될 수 있다.
100 차량
102 통신 유닛
105 주차 보조 시스템
110 디바이스
112 투영 유닛
114 캡처 유닛
116 확인 유닛
118 업데이트 유닛
130 센서
200 주변 환경
205 영역
210 물체
220 투영부
222 음영
225 왜곡된 패턴
300 주차장
302 통신 유닛
304 장애물
306 반사체
310 주차된 차량
COM 통신 연결
H1 - H10 선
HR 후륜
MAP0 디지털 주변 환경 지도
MAP1 디지털 주변 환경 지도
PAT1 미리 결정된 패턴
PAT2 미리 결정된 패턴
PAT3 미리 결정된 패턴
PAT4 미리 결정된 패턴
PAT5 미리 결정된 패턴
PAT6 미리 결정된 패턴
POS 광학적 알림 신호
R1 광선
R2 광선
R3 광선
S1 방법 단계
S2 방법 단계
S3 방법 단계
S4 방법 단계
V1 - V15 선
VR 전륜

Claims (15)

  1. 차량(100)용 주차 보조 시스템(105)을 동작하는 방법으로서,
    a) 미리 결정된 영역(205), 특히 상기 차량(100)에 의한 영역(205)에 미리 결정된 패턴(PAT1 내지 PAT6)을 투영하는 단계(S1),
    b) 이미지를 캡처하는 단계(S2)― 투영부(220)를 갖는 상기 미리 결정된 영역(205)의 적어도 일부는 상기 캡처된 이미지에서 볼 수 있음 ―,
    c) 상기 캡처된 이미지에 따라 상기 미리 결정된 영역(205)에 배열된 물체(210)를 확인하는 단계(S3), 및
    d) 상기 캡처된 물체(210)를 사용하여 디지털 주변 환경 지도(MAP0, MAP1)를 업데이트하는 단계(S4)를 포함하는,
    방법.
  2. 제1항에 있어서,
    단계 c)는:
    상기 캡처된 이미지에서 상기 투영된 패턴의 왜곡(225)을 캡처하는 단계를 포함하는,
    방법.
  3. 제1항 또는 제2항에 있어서,
    단계 a)는:
    레이저 프로젝터를 사용하여 상기 미리 결정된 패턴(PAT1 내지 PAT6)을 투영하는 단계를 포함하는,
    방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    단계 a)는:
    미리 결정된 컬러를 사용하여 상기 미리 결정된 패턴(PAT1 내지 PAT6)을 투영하는 단계를 포함하고,
    단계 b)는:
    상기 미리 결정된 컬러에 대해 투과성의 필터를 사용하여 상기 이미지를 캡처하는 단계를 포함하는,
    방법.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    단계 a)는:
    상기 미리 결정된 패턴(PAT1 내지 PAT6)을 시간순으로 연속적인 투영부(220)에서 순차적으로 투영하는 단계― 상기 패턴은 서로 다른 투영부에서 서로에 대해 변위되어 투영됨 ―를 포함하는,
    방법.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    단계 a)는:
    미리 결정된 순서에 따라 다수의 서로 다른 미리 결정된 패턴(PAT1 내지 PAT6)을 시간순으로 순차적으로 투영하는 단계를 포함하는,
    방법.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서,
    상기 디지털 주변 환경 지도(MAP0, MAP1)에 기초하여 상기 차량(100)의 궤적을 확인하는,
    방법.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서,
    상기 투영된 패턴에 기초하여 상기 차량(100)의 위치를 확인하는,
    방법.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서,
    광학적 알림 신호(POS)를 투영하는,
    방법.
  10. 제9항에 있어서,
    상기 차량의 카메라에 의해 상기 알림 신호(POS)의 투영부를 캡처하고,
    상기 알림 신호(POS)에 포함된 정보를 확인하고,
    상기 확인된 정보에 따라 상기 차량(100)을 동작하는,
    방법.
  11. 차량(100)용 주차 보조 시스템(105)을 동작하는 디바이스(110)로서,
    상기 주차 보조 시스템(105)은 상기 차량(100)을 자동으로 주행하도록 구성되고, 상기 디바이스(110)는:
    미리 결정된 영역(205), 특히 상기 차량(100)에 의한 영역(205)에 미리 결정된 패턴(PAT1 내지 PAT6)을 투영하는 투영 유닛(112),
    이미지를 캡처하는 캡처 유닛(114)― 투영부(220)를 갖는 상기 미리 결정된 영역(205)의 적어도 일부는 상기 캡처된 이미지에서 볼 수 있음 ―,
    상기 캡처된 이미지에 따라 상기 미리 결정된 영역(205)에 배열된 물체(210)를 확인하는 확인 유닛(116), 및
    상기 캡처된 물체(210)를 사용하여 디지털 주변 환경 지도(MAP0, MAP1)를 업데이트하는 업데이트 유닛(118)을 포함하는,
    디바이스.
  12. 제11항에 있어서,
    상기 투영 유닛(112)은 상기 차량(100) 외부에 배열되고, 상기 캡처 유닛(114), 상기 확인 유닛(116), 및 상기 업데이트 유닛(118)은 상기 차량(100)에 배열되는,
    디바이스.
  13. 제11항에 있어서,
    상기 투영 유닛(112) 및 상기 캡처 유닛(114)은 상기 차량(100) 외부에 배열되고, 상기 확인 유닛(116) 및 상기 업데이트 유닛(118)은 상기 차량(100)에 배열되는,
    디바이스.
  14. 주차장(300)으로서,
    제11항에 기재된 디바이스(110)를 갖고, 상기 업데이트된 디지털 주변 환경 지도(MAP0, MAP1) 및/또는 제어 신호를 상기 주차 보조 시스템(105)에 송신하기 위해 상기 차량(100)의 상기 주차 보조 시스템(105)에 대한 통신 연결(COM)을 설정하는 통신 유닛(302)을 갖는,
    주차장.
  15. 차량(100)으로서,
    상기 차량(100)을 자동으로 주행하기 위한 주차 보조 시스템(105)을 갖고 제11항에 기재된 디바이스(110)를 갖는,
    차량.
KR1020237029701A 2021-02-02 2022-01-26 주차 보조 시스템을 동작하는 방법 및 디바이스, 주차장, 및 차량 KR20230137441A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102021102299.1 2021-02-02
DE102021102299.1A DE102021102299A1 (de) 2021-02-02 2021-02-02 Verfahren und vorrichtung zum betreiben eines parkassistenzsystems, parkgarage und fahrzeug
PCT/EP2022/051667 WO2022167270A1 (de) 2021-02-02 2022-01-26 Verfahren und vorrichtung zum betreiben eines parkassistenzsystems, parkgarage und fahrzeug

Publications (1)

Publication Number Publication Date
KR20230137441A true KR20230137441A (ko) 2023-10-04

Family

ID=80122974

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020237029701A KR20230137441A (ko) 2021-02-02 2022-01-26 주차 보조 시스템을 동작하는 방법 및 디바이스, 주차장, 및 차량

Country Status (7)

Country Link
US (1) US20240132065A1 (ko)
EP (1) EP4288327A1 (ko)
JP (1) JP2024505102A (ko)
KR (1) KR20230137441A (ko)
CN (1) CN116848039A (ko)
DE (1) DE102021102299A1 (ko)
WO (1) WO2022167270A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220038554A (ko) * 2020-09-18 2022-03-29 현대모비스 주식회사 주차제어장치 및 그 제어방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009029117A1 (de) 2009-09-02 2011-03-03 Robert Bosch Gmbh Verfahren zum Unterstützen eines Fahrbetriebs eines Kraftfahrzeugs sowie Fahrerassistenzvorrichtung
DE102014011811B4 (de) * 2014-08-09 2018-08-09 Audi Ag Informieren eines Verkehrsteilnehmers über eine autopilotgesteuerte Fahrt
DE102015217385B4 (de) 2015-09-11 2022-10-27 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bestimmen, ob sich im Umfeld eines innerhalb eines Parkplatzes befindlichen Kraftfahrzeugs ein Objekt befindet
DE102016214799A1 (de) 2016-08-09 2018-02-15 Robert Bosch Gmbh Verfahren zur Objekterkennung
US10409283B2 (en) * 2017-03-31 2019-09-10 Mitsubishi Electric Research Laboratories, Inc. Vehicle motion control system and method
KR102160281B1 (ko) 2018-12-28 2020-09-25 주식회사 블루인텔리전스 무인 자율 주행 경로 안내 방법 및 이에 적합한 무인 자율 주행 지원 시스템
CN110517533A (zh) * 2019-09-29 2019-11-29 武汉中海庭数据技术有限公司 一种自主泊车方法及系统

Also Published As

Publication number Publication date
JP2024505102A (ja) 2024-02-02
US20240132065A1 (en) 2024-04-25
WO2022167270A1 (de) 2022-08-11
CN116848039A (zh) 2023-10-03
DE102021102299A1 (de) 2022-08-04
EP4288327A1 (de) 2023-12-13

Similar Documents

Publication Publication Date Title
JP6697636B2 (ja) Lidarシステム及び方法
JP6622265B2 (ja) 交通信号とそれらに関連した状態を検出するためのロバスト法
KR102327997B1 (ko) 주위 감지 시스템
JP6663406B2 (ja) 車両制御装置、車両制御方法、およびプログラム
KR20210050925A (ko) 차량 충돌 회피 장치 및 방법
CN115862347A (zh) 用于跟踪停车场结构和交叉口中的交通工具的系统和方法
JP2007527007A (ja) 移動制御システム
CN105103210A (zh) 用于引导在对象的周围环境中的车辆的方法和设备
CN113253298A (zh) 车辆激光雷达偏振
KR20230137441A (ko) 주차 보조 시스템을 동작하는 방법 및 디바이스, 주차장, 및 차량
JP7259685B2 (ja) 自動運転車両用の運転制御装置、停車用物標、運転制御システム
CN111458723A (zh) 对象检测
CN115848355A (zh) 利用面结构光的泊车系统及其操作方法
US20230089832A1 (en) Calibration courses and targets
US20230088398A1 (en) Calibration courses and targets
EP2246762A1 (en) System and method for driving assistance at road intersections
CN113808419A (zh) 用于确定环境的对象的方法、对象感测设备以及存储介质
US20230230267A1 (en) Object detection
RU2763331C1 (ru) Способ отображения плана движения и устройство отображения плана движения
US20240140480A1 (en) RADAR Sensor System for Vehicles
CN118015588A (zh) 对象检测
JP2021130393A (ja) 駐車支援方法及び駐車支援装置
WO2024081233A1 (en) 360 degree lidar cropping
CN116311143A (zh) 利用线结构光的泊车系统及其操作方法
KR20210096715A (ko) 자율주행 차량의 존 인터랙션 광고 시스템