KR20240065078A - 자동차들을 위한 고해상도 카메라 시스템 - Google Patents

자동차들을 위한 고해상도 카메라 시스템 Download PDF

Info

Publication number
KR20240065078A
KR20240065078A KR1020247008482A KR20247008482A KR20240065078A KR 20240065078 A KR20240065078 A KR 20240065078A KR 1020247008482 A KR1020247008482 A KR 1020247008482A KR 20247008482 A KR20247008482 A KR 20247008482A KR 20240065078 A KR20240065078 A KR 20240065078A
Authority
KR
South Korea
Prior art keywords
vehicle
camera
section
camera frame
processor
Prior art date
Application number
KR1020247008482A
Other languages
English (en)
Inventor
볼로디미르 슬로바디야누크
아메드 카멜 사덱
아민 안사리
선다르 수브라마니안
라디카 딜립 고와이카르
마케쉬 프라빈 존 윌슨
마이클 존 해밀턴
산타누 체이슨 산얄
Original Assignee
퀄컴 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀄컴 인코포레이티드 filed Critical 퀄컴 인코포레이티드
Publication of KR20240065078A publication Critical patent/KR20240065078A/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/06Improving the dynamic response of the control system, e.g. improving the speed of regulation or avoiding hunting or overshoot
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/815Camera processing pipelines; Components thereof for controlling the resolution by using a single image
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/06Improving the dynamic response of the control system, e.g. improving the speed of regulation or avoiding hunting or overshoot
    • B60W2050/065Improving the dynamic response of the control system, e.g. improving the speed of regulation or avoiding hunting or overshoot by reducing the computational load on the digital processor of the control computer
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Human Computer Interaction (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

차량으로부터 섹션들 각각까지의 거리 및 섹션들 각각의 요구되는 해상도에 기반하여 카메라 프레임을 상이한 섹션들로 파티셔닝함으로써 모바일 디바이스에서 카메라 프레임을 프로세싱하기 위한 시스템 및 방법. 모바일 디바이스는: 메모리; 메모리에 통신가능하게 커플링된 프로세서를 포함하고, 프로세서는: 도로 상에서 이동하는 차량에 장착된 카메라로부터 카메라 프레임을 수신하고; 차량의 주행가능 경로를 결정하고; 주행가능 경로를 카메라 프레임 상에 투사하고; 주행가능 경로를 포함하는 카메라 프레임의 일부를 적어도 하나의 섹션으로 파티셔닝하고 ― 파티셔닝은 차량으로부터 적어도 하나의 섹션 각각까지의 거리에 기반함 ―; 그리고 차량으로부터 적어도 하나의 섹션 각각까지의 거리에 기반하여 적어도 하나의 섹션 각각의 요구되는 해상도를 결정하도록 구성된다.

Description

자동차들을 위한 고해상도 카메라 시스템
[0001] 본 개시내용의 양상들은 일반적으로 자동차들을 위한 카메라 시스템들에 관한 것이다.
[0002] 현대의 차량들에는, 주행가능한 공간들, 장애물들 및 도로 컨디션들을 식별하고, 다양한 레벨들의 자율 주행을 지원하기 위해 다른 차량들 및 다른 정보를 검출하는 것과 같이, 차량들을 둘러싼 환경에 관한 정보를 수집하고 평가하는 여러 대의 카메라들이 장착된다.
[0003] 많은 경우들에서, 이러한 태스크들은 차량의 ADAS(Advanced Driver Assistance System)에 상당한 프로세싱 부담들을 야기하는데, 이는 차량의 ADAS가 초당 15 내지 120 프레임 범위일 수 있는 극도로 높은 레이트로 환경의 변화들에 대한 업데이트를 얻을 필요가 있기 때문이다. 이 문제는, ADAS가 여러 카메라들로부터의 입력들을 동시에 프로세싱할 필요가 있을 때 악화된다.
[0004] 추가로, 이들 카메라들의 증가하는 해상도는 ADAS에 대한 부담을 증가시킨다. 고속도로에서의 비교적 높은 주행 스피드를 고려하면, 카메라 시스템은 먼 거리(이를테면, 250-350 미터 또는 심지어 그 초과)에 있는 작은 오브젝트들(이를테면, 도로 콘(road cone)들)을 식별할 필요가 있다. 도로 상의 오브젝트들을 신뢰가능하게 식별하기 위해, 우리는 카메라로부터의 이미지 내에 적어도 특정 수의 픽셀들을 가질 필요가 있다. 따라서, ADAS는 먼 거리에 있는 작은 오브젝트들을 식별하기 위해 매우 높은 픽셀 카운트들을 갖는 카메라들을 사용할 필요가 있다.
[0005] ADAS는 원하는 fps 레이트로 카메라 픽셀들 전부를 프로세싱할 필요가 있기 때문에, 이러한 고해상도 카메라들(이를테면, 8 메가픽셀 카메라들)은 ADAS에 대한 엄청나게 높은 컴퓨테이셔널 로드(load)를 생성하고 있다. 따라서, ADAS 상의 로드가, 카메라들이 오브젝트들을 신뢰가능하게 검출할 수 있는 범위를 제한한다. 고속도로에서는 먼 거리에 있는 오브젝트들을 검출하는 것이 중요한데, 운전자가 고속도로에서 오브젝트들을 피하기 위해 갑자기 정지하거나 회피적인 액션들을 취할 필요가 있을 수 있기 때문이다.
[0006] 다음은 본원에 개시된 하나 이상의 양상들에 관한 간략화된 요약을 제시한다. 따라서, 다음의 요약은 모든 고려된 양상들에 관한 포괄적인 개관으로 고려되지 않아야 하고, 다음의 요약은 모든 고려된 양상들에 관한 핵심 또는 중요 엘리먼트들을 식별하거나 또는 임의의 특정 양상과 연관된 범위를 서술하는 것으로 간주되지 않아야 한다. 따라서, 다음의 요약은, 아래에 제시되는 상세한 설명에 앞서 간략화된 형태로 본원에서 개시된 메커니즘들에 관한 하나 이상의 양상들에 관한 특정한 개념들을 제시하려는 유일한 목적을 갖는다.
[0007] 일 양상에서, 모바일 디바이스에서 카메라 프레임을 프로세싱하는 방법은, 도로 상에서 이동하는 차량에 장착된 카메라를 사용하여 카메라 프레임을 캡처하는 단계; 카메라로부터 카메라 프레임을 수신하는 단계; 차량의 주행가능 경로(drivable path)를 결정하는 단계; 주행가능 경로를 카메라 프레임 상에 투사하는 단계; 주행가능 경로를 포함하는 카메라 프레임의 일부를 적어도 하나의 섹션으로 파티셔닝하는 단계 ― 파티셔닝하는 단계는, 차량으로부터 적어도 하나의 섹션 각각까지의 거리에 기반함 ―; 및 차량으로부터 적어도 하나의 섹션 각각까지의 거리에 기반하여 적어도 하나의 섹션 각각의 요구되는 해상도를 결정하는 단계를 포함한다.
[0008] 일 양상에서, 모바일 디바이스는, 메모리; 및 메모리에 통신가능하게 커플링된 프로세서를 포함하고, 프로세서는: 도로 상에서 이동하는 차량에 장착된 카메라로부터 카메라 프레임을 수신하고; 차량의 주행가능 경로를 결정하고; 주행가능 경로를 카메라 프레임 상에 투사하고; 주행가능 경로를 포함하는 카메라 프레임의 일부를 적어도 하나의 섹션으로 파티셔닝하고 ― 파티셔닝은, 차량으로부터 적어도 하나의 섹션 각각까지의 거리에 기반함 ―; 그리고 차량으로부터 적어도 하나의 섹션 각각까지의 거리에 기반하여 적어도 하나의 섹션 각각의 요구되는 해상도를 결정하도록 구성된다.
[0009] 일 양상에서, 모바일 디바이스는, 도로 상에서 이동하는 차량에 장착된 카메라를 사용하여 카메라 프레임을 캡처하기 위한 수단; 카메라로부터 카메라 프레임을 수신하기 위한 수단; 차량의 주행가능 경로를 결정하기 위한 수단; 주행가능 경로를 카메라 프레임 상에 투사하기 위한 수단; 주행가능 경로를 포함하는 카메라 프레임의 일부를 적어도 하나의 섹션으로 파티셔닝하기 위한 수단 ― 파티셔닝은, 차량으로부터 적어도 하나의 섹션 각각까지의 거리에 기반함 ―; 및 차량으로부터 적어도 하나의 섹션 각각까지의 거리에 기반하여 적어도 하나의 섹션 각각의 요구되는 해상도를 결정하기 위한 수단을 포함한다.
[0010] 일 양상에서, 비-일시적 컴퓨터-판독가능 저장 매체는 코드를 포함하고, 코드는 프로세서에 의해 실행될 때, 프로세서로 하여금, 모바일 디바이스에서 카메라 프레임을 프로세싱하게 하고, 비-일시적 컴퓨터-판독가능 저장 매체는: 도로에서 이동하는 차량에 장착된 카메라를 사용하여 카메라 프레임을 캡처하고; 카메라로부터 카메라 프레임을 수신하고; 차량의 주행가능 경로를 결정하는 단계; 주행가능 경로를 카메라 프레임 상에 투사하고; 주행가능 경로를 포함하는 카메라 프레임의 일부를 적어도 하나의 섹션으로 파티셔닝하고 ― 파티셔닝은, 차량으로부터 적어도 하나의 섹션 각각까지의 거리에 기반함 ―; 그리고 차량으로부터 적어도 하나의 섹션 각각까지의 거리에 기반하여 적어도 하나의 섹션 각각의 요구되는 해상도를 결정하기 위한 코드를 포함한다.
[0011] 본원에서 개시된 양상들과 연관된 다른 목적들 및 장점들은 첨부한 도면들 및 상세한 설명에 기반하여 당업자들에게 자명할 것이다.
[0012] 첨부한 도면들은, 본 개시내용의 다양한 양상들의 설명을 보조하도록 제시되며, 양상들을 제한하기 위해서가 아니라 양상들을 예시하기 위해서만 제공된다.
[0013] 도 1은 본 개시내용의 양상들에 따른, 예시적인 무선 통신 시스템을 예시한다.
[0014] 도 2a는 다양한 양상들에 따른, 앞유리(windshield) 뒤에 통합된 카메라 센서를 이용하는 차량의 평면도이다.
[0015] 도 2b는 다양한 양상들에 따른, 온-보드 컴퓨터 아키텍처를 예시한다.
[0016] 도 3은 다양한 양상들에 따른 예시적인 카메라 프레임을 예시한다.
[0017] 도 4a 및 도 4b는 본 개시내용의 양상들에 따른, 카메라 프레임을 상이한 섹션들로 파티셔닝함으로써 카메라 프레임을 프로세싱하는 예시적인 방법들을 예시한다.
[0018] 예시 목적들을 위해 제공된 다양한 예들에 관련되는 다음의 설명 및 관련 도면들에서 본 개시내용의 양상들이 제공된다. 본 개시의 범위를 벗어남이 없이 대안적 양상들이 고안될 수 있다. 추가적으로, 본 개시의 널리-공지된 엘리먼트들은 상세히 설명되지 않거나, 또는 본 개시의 관련된 세부사항들을 모호하게 하지 않기 위해 생략될 것이다.
[0019] "예시적인" 및/또는 "예"라는 단어들은, "예, 예증 또는 예시로서 기능하는"것을 의미하도록 본원에서 사용된다. 본원에서 "예시적인" 및/또는 "예"인 것으로 설명되는 임의의 양상은 반드시 다른 양상들에 비해 선호되거나 유리한 것으로 해석될 필요는 없다. 유사하게, "본 개시의 양상들"이라는 용어는, 본 개시의 모든 양상들이 논의된 피처, 이점 또는 동작 모드를 포함한다는 것을 요구하지는 않는다.
[0020] 아래에서 설명되는 정보 및 신호들이 다양한 다른 기술들 및 기법들 중 임의의 것을 사용하여 표현될 수 있음을 당업자는 인식할 것이다. 예컨대, 아래의 설명 전반에 걸쳐 참조될 수 있는 데이터, 명령들, 커맨드들, 정보, 신호들, 비트들, 심볼들, 및 칩들은, 부분적으로는 특정한 애플리케이션에, 부분적으로는 원하는 설계에, 부분적으로는 대응하는 기술 등에 의존하여, 전압들, 전류들, 전자기파들, 자기장들 또는 자기 입자들, 광학 필드들 또는 광학 입자들, 또는 이들의 임의의 결합에 의해 표현될 수 있다.
[0021] 추가로, 예컨대, 컴퓨팅 디바이스의 엘리먼트들에 의해 수행될 액션들의 시퀀스들의 관점들에서 많은 양상들이 설명된다. 본원에서 설명된 다양한 액션들은 특정 회로들(예컨대, ASIC(application specific integrated circuit)들)에 의해, 하나 이상의 프로세서들에 의해 실행되는 프로그램 명령들에 의해, 또는 그 둘 모두의 조합에 의해 수행될 수 있다는 것이 인지될 것이다. 추가적으로, 본원에서 설명된 액션들의 시퀀스(들)는, 실행 시에, 디바이스의 연관된 프로세서로 하여금 본원에서 설명된 기능을 수행하게 하거나 그렇게 하도록 그 프로세서에 명령할 대응하는 세트의 컴퓨터 명령들을 저장하는 임의의 형태의 비-일시적 컴퓨터-판독가능 저장 매체 내에 완전히 구현되는 것으로 고려될 수 있다. 따라서, 본 개시내용의 다양한 양상들은 다수의 상이한 형태들로 구현될 수 있으며, 그 형태들 모두는 청구되는 청구대상의 범위 내에 있는 것으로 고려된다. 추가적으로, 본원에서 설명된 양상들 각각에 대해, 임의의 그러한 양상들의 대응하는 형태는, 예컨대, 설명된 액션을 수행"하도록 구성된 로직”으로서 본원에서 설명될 수 있다.
[0022] 본원에서 사용되는 바와 같이, 용어들 "UE(user equipment)", "V-UE(vehicle UE)", "P-UE(pedestrain UE)", 및 "기지국"은, 달리 언급되지 않는다면, 임의의 특정 RAT(radio access technology)에 특정되거나 다른 방식으로 그것으로 제한되도록 의도되지 않는다. 일반적으로, UE는 무선 통신 네트워크를 통해 통신하기 위해서 사용자에 의해 사용되는 임의의 무선 통신 디바이스(예컨대, 차량 온-보드 컴퓨터, 차량 내비게이션 디바이스, 모바일 폰, 라우터, 태블릿 컴퓨터, 랩톱 컴퓨터, 자산 로케이팅 디바이스, 웨어러블(예컨대, 스마트워치, 안경, AR(augmented reality)/VR(virtual reality) 헤드셋 등), 운송수단(예컨대, 자동차, 오토바이, 자전거 등), IoT(Internet of Things) 디바이스 등)일 수 있다. UE는 이동적일 수 있거나 또는 (예컨대, 특정 시간들에) 고정적일 수 있고, 그리고 RAN(radio access network)과 통신할 수 있다. 본 명세서에서 사용되는 바와 같이, "UE"라는 용어는 "모바일 디바이스", "액세스 단말” 또는 "AT", "클라이언트 디바이스", "무선 디바이스", "가입자 디바이스", "가입자 단말", "가입자 스테이션", "사용자 단말” 또는 UT, "모바일 단말", "모바일 스테이션", 또는 이들의 변형들로 상호교환가능하게 지칭될 수 있다.
[0023] V-UE는 UE의 한 타입이고, 내비게이션 시스템, 경고 시스템, HUD(heads-up display), 온보드 컴퓨터(on-board computer), 차량 내 정보 시스템, ADS(automated driving system), ADAS(advanced driver assistance system) 등과 같은 임의의 차량내 무선 통신 디바이스일 수 있다. 대안적으로, V-UE는 차량의 운전자 또는 차량의 동승자가 들고 다니는 휴대용 무선 통신 디바이스(예컨대, 셀 폰, 태블릿 컴퓨터 등)일 수 있다. "V-UE"라는 용어는 맥락에 따라, 차량 내 무선 통신 디바이스 또는 차량 그 자체를 지칭할 수 있다. P-UE는 UE의 타입이며, 보행자(즉, 운전 중이 아니거나 또는 차량에 타고 있지 않은 사용자)가 들고 있는 휴대용 무선 통신 디바이스일 수 있다. 일반적으로, UE들은 RAN을 통해 코어 네트워크와 통신할 수 있으며, 코어 네트워크를 통해, UE들은 인터넷과 같은 외부 네트워크들과 그리고 다른 UE들과 연결될 수 있다. 물론, 코어 네트워크 및/또는 인터넷에 연결하는 다른 메커니즘들은, 이를테면, 유선 액세스 네트워크들, WLAN(wireless local area network) 네트워크들(예컨대, IEEE(Institute of Electrical and Electronics Engineers) 802.11 등에 기반함) 등을 통해서, UE들에 대해서 또한 가능하다.
[0024] 기지국은 자신이 배치되는 네트워크에 따라 UE들과 통신하는 몇몇 RAT들 중 하나에 따라 동작할 수 있고, 그리고 AP(access point), 네트워크 노드, NodeB, eNB(evolved NodeB), ng-eNB(next generation eNB), NR(New Radio) Node B(또한 gNB 또는 gNodeB로 지칭됨) 등으로 대안적으로 지칭될 수 있다. 기지국은 지원되는 UE에 대한 데이터, 음성 및/또는 시그널링 연결들을 지원하는 것을 포함해서, UE에 의한 무선 액세스를 지원하기 위해 주로 사용될 수 있다. 일부 시스템들에서, 기지국은 순수하게 에지 노드 시그널링 기능들을 제공할 수 있지만, 다른 시스템들에서, 기지국은 추가적인 제어 및/또는 네트워크 관리 기능들을 제공할 수 있다. UE들이 기지국에 신호들을 전송할 수 있는 통신 링크는 UL(uplink) 채널(예컨대, 역방향 트래픽 채널, 역방향 제어 채널, 액세스 채널 등)로 지칭된다. 기지국이 신호들을 UE들에 전송할 수 있는 통신 링크는 DL(downlink) 또는 순방향 링크 채널(예컨대, 페이징 채널, 제어 채널, 브로드캐스트 채널, 순방향 트래픽 채널 등)로 불린다. 본원에서 사용되는 바와 같이, TCH(traffic channel)라는 용어는 UL/역방향 또는 DL/순방향 트래픽 채널을 지칭할 수 있다.
[0025] 용어 "기지국"은 단일 물리적 TRP(transmission-reception point)를 지칭하거나, 또는 코-로케이팅될 수 있거나 그렇지 않을 수 있는 다수의 물리적 TRP들을 지칭할 수 있다. 예컨대, 용어 "기지국"이 단일 물리적 TRP를 지칭하는 경우에, 그 물리적 TRP는 기지국의 셀(또는 몇몇 셀 섹터들)에 대응하는 기지국의 안테나일 수 있다. 용어 "기지국"이 코-로케이팅되는 다수의 물리적 TRP들을 지칭하는 경우에, 그 물리적 TRP들은 기지국의 안테나들의 어레이일 수 있다(예컨대, MIMO(multiple-input multiple-output) 시스템에서와 같이 또는 기지국이 빔 형성을 이용하는 경우에). 용어 "기지국"이 코-로케이팅되지 않는 다수의 물리적 TRP들을 지칭하는 경우에, 그 물리적 TRP들은 DAS(distributed antenna system)(전송 매체를 통해 공통 소스에 연결되는 공간적으로 분리된 안테나들의 네트워크) 또는 RRH(remote radio head)(서빙 기지국에 연결되는 원격 기지국)일 수 있다. 대안적으로, 코-로케이팅되지 않은 물리적 TRP들은 UE로부터 측정 보고를 수신하는 서빙 기지국 및 UE가 측정하고 있는 기준 RF(radio frequency) 신호들을 갖는 이웃 기지국일 수 있다. TRP는 기지국이 무선 신호들을 송신 및 수신하는 포인트이기 때문에, 본원에서 사용되는 바와 같이, 기지국으로부터의 송신 및 기지국에서의 수신에 대한 언급들은 기지국의 특정 TRP를 참조하는 것으로 이해되어야 한다.
[0026] UE들의 포지셔닝을 지원하는 일부 구현들에서, 기지국은 UE들에 의한 무선 액세스를 지원하지 않을 수 있고(예컨대, UE들에 대한 데이터, 음성 및/또는 시그널링 연결들을 지원하지 않을 수 있음), 대신에 UE들에 의해 측정될 기준 RF 신호들을 UE들에 송신할 수 있고 그리고/또는 UE들에 의해 송신된 신호들을 수신 및 측정할 수 있다. 이러한 기지국들은 포지셔닝 비콘들로(예컨대, UE들에 RF 신호들을 송신할 때) 그리고/또는 로케이션 측정 유닛들(예컨대, UE들로부터 RF 신호들을 수신 및 측정할 때)으로 지칭될 수 있다.
[0027] "RF 신호"는 송신기와 수신기 간의 공간을 통해 정보를 전송하는 정해진 주파수의 전자기파를 포함한다. 본원에서 사용되는 바와 같이, 송신기는 단일 "RF 신호" 또는 다수의 "RF 신호들"을 수신기에 송신할 수 있다. 그러나, 수신기는 다중경로 채널들을 통한 RF 신호들의 전파 특성들로 인해서 각각의 송신된 RF 신호에 대응하는 다수의 "RF 신호들"을 수신할 수 있다. 송신기와 수신기 간의 상이한 경로들 상의 동일한 송신된 RF 신호는 "다중경로" RF 신호로 지칭될 수 있다. 본원에서 사용되는 바와 같이, RF 신호는 또한, 용어 "신호"가 무선 신호 또는 RF 신호를 지칭하는 것이 문맥상 명백한 경우, "무선 신호" 또는 간단히 "신호"로 지칭될 수 있다.
[0028] 도 1은, 본 개시내용의 양상들에 따른 예시적인 무선 통신 시스템(100)을 예시한다. 무선 통신 시스템(100)(WWAN(wireless wide area network)으로 또한 지칭될 수 있음)은 다양한 기지국들(102)("BS"로 라벨링됨) 및 다양한 UE들(104)을 포함할 수 있다. 기지국들(102)은 매크로 셀 기지국들(고전력 셀룰러 기지국들) 및/또는 소형 셀 기지국들(저전력 셀룰러 기지국들)을 포함할 수 있다. 일 양상에서, 매크로 셀 기지국들(102)은, 무선 통신 시스템(100)이 LTE 네트워크에 대응하는 경우에 eNB들 및/또는 ng-eNB들을 포함할 수 있거나, 무선 통신 시스템(100)이 NR 네트워크에 대응하는 경우에 gNB들을 포함할 수 있거나, 그 둘 모두의 조합을 포함할 수 있고, 소형 셀 기지국들은 펨토셀들, 피코셀들, 마이크로셀들 등을 포함할 수 있다.
[0029] 기지국들(102)은 집합적으로 RAN을 형성하고, 그리고 백홀 링크들(122)을 통해 코어 네트워크(174)(예컨대, EPC(evolved packet core) 또는 5GC(5G core))와 인터페이스하고, 그 코어 네트워크(174)를 통해 하나 이상의 로케이션 서버들(172)(예컨대, LMF(location management function) 또는 SLP(SUPL(secure user plane location) location platform))와 인터페이스할 수 있다. 로케이션 서버(들)(172)는 코어 네트워크(174)의 일부일 수 있거나 코어 네트워크(174) 외부에 있을 수 있다. 다른 기능들에 추가로, 기지국들(102)은 사용자 데이터의 전송, 라디오 채널 암호화 및 암호해독, 무결성 보호, 헤더 압축, 모빌리티 제어 기능들(예컨대, 핸드오버, 듀얼 연결성), 셀간 간섭 조정, 연결 셋업 및 해제, 로드 밸런싱, NAS(non-access stratum) 메시지들에 대한 분배, NAS 노드 선택, 동기화, RAN 공유, MBMS(multimedia broadcast multicast service), 가입자 및 장비 트레이스, RIM(RAN information management), 페이징, 포지셔닝 및 경고 메시지들의 전달 중 하나 이상과 관련된 기능들을 수행할 수 있다. 기지국들(102)은 유선 또는 무선일 수 있는 백홀 링크들(134)을 통해 (예컨대, EPC/5GC를 통해) 직접적으로 또는 간접적으로 서로 통신할 수 있다.
[0030] 기지국들(102)은 UE들(104)과 무선으로 통신할 수 있다. 기지국들(102) 각각은 개개의 지리적 커버리지 영역(110)에 대한 통신 커버리지를 제공할 수 있다. 일 양상에서, 하나 이상의 셀들은 각각의 지리적 커버리지 영역(110)의 기지국(102)에 의해서 지원될 수 있다. "셀"은 (예컨대, 캐리어 주파수, 컴포넌트 캐리어, 캐리어, 대역 등으로 지칭되는 일부 주파수 자원을 통해) 기지국과 통신하기 위해 사용되는 논리 통신 엔티티이고, 그리고 동일하거나 상이한 캐리어 주파수를 통해 동작하는 셀들을 구별하기 위한 식별자(예컨대, PCI(physical cell identifier), ECI(enhanced cell identifier), VCI(virtual cell identifier), CGI(cell global identifier) 등)와 연관될 수 있다. 일부 경우들에서, 상이한 셀들은 상이한 타입들의 UE들에 대한 액세스를 제공할 수 있는 상이한 프로토콜 타입들(예컨대, MTC(machine-type communication), NB-IoT(narrowband IoT), eMBB(enhanced mobile broadband) 등)에 따라 구성될 수 있다. 셀은 특정 기지국에 의해 지원되기 때문에, 용어 "셀"은 맥락에 따라, 논리 통신 엔티티 및 그 논리 통신 엔티티를 지원하는 기지국 중 어느 하나 또는 그 둘 모두를 지칭할 수 있다. 일부 경우들에서, "셀"이라는 용어는 또한, 지리적 커버리지 영역들(110)의 일부 부분 내의 통신을 위해 캐리어 주파수가 검출 및 사용될 수 있는 한, 기지국의 지리적 커버리지 영역(예컨대, 섹터)을 지칭할 수 있다.
[0031] 이웃 매크로 셀 기지국(102) 지리적 커버리지 영역들(110)은 (예컨대, 핸드오버 영역에서) 부분적으로 중첩할 수 있지만, 지리적 커버리지 영역들(110) 중 일부는 더 큰 지리적 커버리지 영역(110)에 의해 실질적으로 중첩할 수 있다. 예컨대, 소형 셀 기지국(102')("소형 셀"의 뜻으로 "SC"로 라벨링됨)은 하나 이상의 매크로 셀 기지국들(102)의 지리적 커버리지 영역(110)과 실질적으로 겹치는 지리적 커버리지 영역(110')을 가질 수 있다. 소형 셀 기지국 및 매크로 셀 기지국 둘 모두를 포함하는 네트워크는 이종 네트워크로 알려질 수 있다. 이종 네트워크는 또한, CSG(closed subscriber group)로 알려진 제한된 그룹에 서비스를 제공할 수 있는 HeNB(home eNB)들을 포함할 수 있다.
[0032] 기지국들(102)과 UE들(104) 사이의 통신 링크들(120)은 UE(104)로부터 기지국(102)으로의 업링크 (또한 역방향 링크로 지칭됨) 송신들 및/또는 기지국(102)으로부터 UE(104)로의 DL(downlink)(또한 순방향 링크로 지칭됨) 송신들을 포함할 수 있다. 통신 링크들(120)은 공간 멀티플렉싱, 빔포밍, 및/또는 송신 다이버시티를 포함하는 MIMO 안테나 기술을 사용할 수 있다. 통신 링크들(120)은 하나 이상의 캐리어 주파수들을 통해 이루어질 수 있다. 캐리어들의 배정은 다운링크 및 업링크에 대해 비대칭적일 수 있다(예컨대, 업링크보다 더 많거나 더 적은 캐리어들이 다운링크에 배정될 수 있음).
[0033] 무선 통신 시스템(100)은 비면허(unlicensed) 주파수 스펙트럼(예컨대, 5 GHz)에서 통신 링크들(154)을 통해 WLAN 스테이션(STA)들(152)과 통신하는 WLAN(wireless local area network) 액세스 포인트(AP)(150)를 더 포함할 수 있다. 비면허 주파수 스펙트럼에서 통신할 때, 채널이 이용가능한지 여부를 결정하기 위해서, WLAN STA들(152) 및/또는 WLAN AP(150)는 통신하기 전에 CCA(clear channel assessment) 또는 LBT(listen before talk) 절차를 수행할 수 있다.
[0034] 소형 셀 기지국(102')은 면허 및/또는 비면허 주파수 스펙트럼에서 동작할 수 있다. 비면허 주파수 스펙트럼에서 동작할 때, 소형 셀 기지국(102')은 LTE 또는 NR 기술을 이용하고, WLAN AP(150)에 의해 사용되는 것과 동일한 5GHz 비면허 주파수 스펙트럼을 사용할 수 있다. 비면허 주파수 스펙트럼에서 LTE/5G를 이용하는 소형 셀 기지국(102’)은 액세스 네트워크에 대한 커버리지를 부스팅하고 그리고/또는 용량을 증가시킬 수 있다. 비면허 스펙트럼에서의 NR은 NR-U로 지칭될 수 있다. 비면허 스펙트럼에서의 LTE는 LTE-U, LAA(licensed assisted access), 또는 MulteFire로 지칭될 수 있다.
[0035] 무선 통신 시스템(100)은 UE(182)와 통신하는 mmW(millimeter wave) 주파수들 및/또는 근 mmW 주파수들에서 동작할 수 있는 mmW 기지국(180)을 더 포함할 수 있다. EHF(Extremely high frequency)는 전자기 스펙트럼에서 RF의 일부이다. EHF는 30 GHz 내지 300 GHz의 범위 및 1 밀리미터 내지 10 밀리미터의 파장을 갖는다. 이러한 대역의 라디오 파들은 밀리미터파로 지칭될 수 있다. 근 mmW는 100 밀리미터의 파장을 갖는 3 GHz의 주파수까지 아래로 확장될 수 있다. SHF(super high frequency) 대역은 3 GHz 내지 30 GHz에서 확장되며, 또한 센티미터 파로 지칭된다. mmW/근 mmW 라디오 주파수 대역을 사용하는 통신들은 높은 경로 손실 및 비교적 짧은 범위를 갖는다. mmW 기지국(180) 및 UE(182)는 극도로 높은 경로 손실 및 짧은 범위를 보상하기 위해 mmW 통신 링크(184)를 통한 빔포밍(송신 및/또는 수신)을 활용할 수 있다. 추가로, 대안적인 구성들에서, 하나 이상의 기지국들(102)이 또한 mmW 또는 근 mmW 및 빔포밍을 사용하여 송신할 수 있다는 것이 인식될 것이다. 따라서, 전술한 예시들은 단지 예들일 뿐이며, 본원에 개시된 다양한 양상들을 제한하는 것으로 해석되지 않아야 한다는 것이 인식될 것이다.
[0036] 송신 빔포밍은 RF 신호를 특정 방향으로 포커싱하기 위한 기법이다. 통상적으로, 네트워크 노드(예컨대, 기지국)가 RF 신호를 브로드캐스팅할 때, 네트워크 노드는 신호를 모든 방향들로(전방향으로) 브로드캐스팅한다. 송신 빔포밍을 사용하여, 네트워크 노드는 주어진 타깃 디바이스(예컨대, UE)가 (송신 네트워크 노드에 대해) 로케이팅되는 곳을 결정하고, 그 특정 방향으로 더 강한 다운링크 RF 신호를 투사함으로써, 수신 디바이스(들)에 대해 (데이터 레이트의 관점에서) 더 빠르고 더 강한 RF 신호를 제공한다. 송신할 때 RF 신호의 방향성을 변경하기 위해서, 네트워크 노드는 RF 신호를 브로드캐스팅하고 있는 하나 이상의 송신기들 각각에서 그 RF 신호의 위상 및 상대적 진폭을 제어할 수 있다. 예컨대, 네트워크 노드는, 안테나들을 실제로 이동시키지 않고 상이한 방향들을 가리키도록 "스티어링"될 수 있는 RF 파들의 빔을 생성하는 안테나들의 어레이("페이즈드 어레이” 또는 "안테나 어레이"로 지칭됨)를 사용할 수 있다. 구체적으로, 정확한 위상 관계를 갖는 개별 안테나들에 송신기로부터의 RF 전류가 공급됨으로써, 별개의 안테나들로부터의 라디오 파들은 서로 합쳐져서 원하는 방향으로의 방사는 증가시키지만 원하지 않는 방향들로의 방사는 억제시키도록 소거한다.
[0037] 송신 빔들은 쿼시-코-로케이팅(quasi-co-locating)될 수 있는데, 이는, 네트워크 노드의 송신 안테나들 자체가 물리적으로 코-로케이팅되는지 여부와 상관없이, 송신 빔들이 동일한 파라미터들을 갖는 것으로서 수신기(예컨대, UE)에 보인다는 것을 의미한다. NR에는 4개의 타입들의 QCL(quasi-co-location) 관계들이 있다. 구체적으로, 주어진 타입의 QCL 관계는 제2 빔 상의 제2 기준 RF 신호에 대한 특정 파라미터들이 소스 빔 상의 소스 기준 RF 신호에 대한 정보로부터 유도될 수 있다는 것을 의미한다. 따라서, 만약 소스 기준 RF 신호가 QCL 타입 A이면, 수신기는 동일 채널 상에서 송신되는 제2 기준 RF 신호의 도플러 시프트, 도플러 확산, 평균 지연, 및 지연 확산을 추정하기 위해 소스 기준 RF 신호를 사용할 수 있다. 만약 소스 기준 RF 신호가 QCL 타입 B이면, 수신기는 동일 채널 상에서 송신되는 제2 기준 RF 신호의 도플러 시프트 및 도플러 확산을 추정하기 위해 소스 기준 RF 신호를 사용할 수 있다. 만약 소스 기준 RF 신호가 QCL 타입 C이면, 수신기는 동일 채널 상에서 송신되는 제2 기준 RF 신호의 도플러 시프트 및 평균 지연을 추정하기 위해 소스 기준 RF 신호를 사용할 수 있다. 만약 소스 기준 RF 신호가 QCL 타입 D이면, 수신기는 동일 채널 상에서 송신되는 제2 기준 RF 신호의 공간 수신 파라미터를 추정하기 위해 소스 기준 RF 신호를 사용할 수 있다.
[0038] 수신 빔포밍에서, 수신기는 주어진 채널상에서 검출된 RF 신호들을 증폭시키기 위해 수신 빔을 사용한다. 예컨대, 수신기는 특정 방향으로 안테나들의 어레이의 이득 세팅을 증가시키고 그리고/또는 그 어레이의 위상 세팅을 조정하여, 그 방향으로부터 수신된 RF 신호들을 증폭(예컨대, 그 RF 신호들의 이득 레벨을 증가)시킬 수 있다. 따라서, 수신기가 특정 방향에서 빔포밍한다고 말할 때, 이는, 그 방향의 빔 이득이 다른 방향들을 따르는 빔 이득에 비해 높다는 것, 또는 그 방향의 빔 이득이 수신기에 이용가능한 다른 모든 수신 빔들의 방향에서의 빔 이득에 비해 가장 높다는 것을 의미한다. 이는, 그 방향으로부터 수신된 RF 신호들로부터 수신된 RF 신호들의 더 강한 수신 신호 세기(예컨대, RSRP(reference signal received power), RSRQ(reference signal received quality), SINR(signal-to-interference-plus-noise ratio) 등)를 초래한다.
[0039] 송신 및 수신 빔들은 공간적으로 관련될 수 있다. 공간 관계는 제2 기준 신호를 위한 제2 빔(예컨대, 송신 또는 수신 빔)에 대한 파라미터들이 제1 기준 신호를 위한 제1 빔(예컨대, 수신 빔 또는 송신 빔)에 대한 정보로부터 유도될 수 있다는 것을 의미한다. 예컨대, UE는 기지국으로부터 기준 다운링크 기준 신호(예컨대, SSB(synchronization signal block))를 수신하기 위해 특정 수신 빔을 사용할 수 있다. 그 다음, UE는 수신 빔의 파라미터들에 기초하여 업링크 기준 신호(예컨대, SRS(sounding reference signal))를 그 기지국에 전송하기 위한 송신 빔을 형성할 수 있다.
[0040] "다운링크" 빔은 그것을 형성하는 엔티티에 따라, 송신 빔 또는 수신 빔 중 어느 하나일 수 있다는 것을 주목하자. 예컨대, 만약 기지국이 기준 신호를 UE에 송신하기 위해서 다운링크 빔을 형성하고 있다면, 그 다운링크 빔은 송신 빔이다. 그러나, 만약 UE가 다운링크 빔을 형성하고 있다면, 그 다운링크 빔은 다운링크 기준 신호를 수신하기 위한 수신 빔이다. 유사하게, "업링크" 빔은 그것을 형성하는 엔티티에 따라, 송신 빔 또는 수신 빔 중 어느 하나일 수 있다. 예컨대, 만약 기지국이 업링크 빔을 형성하고 있다면, 그 업링크 빔은 업링크 수신 빔이고, 만약 UE가 업링크 빔을 형성하고 있다면, 그 업링크 빔은 업링크 송신 빔이다.
[0041] 5G에서, 무선 노드들(예컨대, 기지국들(102/180), UE들(104/182))이 동작하는 주파수 스펙트럼은 다수의 주파수 범위들, 즉 FR1(450 내지 6000 MHz), FR2(24250 내지 52600 MHz), FR3(52600 MHz 초과), 및 FR4(FR1과 FR2 사이)로 분할된다. mmW 주파수 대역들은 일반적으로 FR2, FR3, 및 FR4 주파수 범위들을 포함한다. 따라서, "mmW" 및 "FR2" 또는 "FR3" 또는 "FR4"라는 용어들은 일반적으로 상호교환적으로 사용될 수 있다.
[0042] 다중-캐리어 시스템, 이를테면 5G에서, 캐리어 주파수들 중 하나는 "1차 캐리어” 또는 "앵커 캐리어” 또는 "1차 서빙 셀” 또는 "PCell"로 지칭되고, 나머지 캐리어 주파수들은 "2차 캐리어들” 또는 "2차 서빙 셀들” 또는 "SCell들”로 지칭된다. 캐리어 어그리게이션에서, 앵커 캐리어는 UE(104/182) 및 UE(104/182)가 초기 RRC(radio resource control) 연결 확립 절차를 수행하거나 RRC 연결 재확립 절차를 개시하는 셀에 의해 활용되는 1차 주파수(예컨대, FR1) 상에서 동작하는 캐리어이다. 1차 캐리어는 모든 공통의 UE-특정 제어 채널들을 반송하고, 그리고 면허 주파수의 캐리어일 수 있다(그러나, 이는 항상 그런 것은 아니다). 2차 캐리어는, 일단 RRC 연결이 UE(104)와 앵커 캐리어 사이에 설정되면 구성될 수 있고 부가적인 라디오 자원들을 제공하기 위해 사용될 수 있는 제2 주파수(예컨대, FR2) 상에서 동작하는 캐리어이다. 일부 경우들에서, 2차 캐리어는 비면허 주파수의 캐리어일 수 있다. 2차 캐리어는 단지 필요한 시그널링 정보 및 신호들만을 포함할 수 있으며, 예컨대, UE-특정인 것들이 2차 캐리어에 존재하지 않을 수 있는데, 이는 1차 업링크 및 다운링크 캐리어들 둘 모두가 통상적으로 UE-특정이기 때문이다. 이는, 셀의 상이한 UE들(104/182)이 상이한 다운링크 1차 캐리어들을 가질 수 있다는 것을 의미한다. 이는 업링크 1차 캐리어들에 대해서도 그러하다. 네트워크는 임의의 시간에 임의의 UE(104/182)의 1차 캐리어를 변화시킬 수 있다. 이는, 예컨대, 상이한 캐리어들 상에서 부하의 균형을 맞추기 위해 이루어진다. "서빙 셀"(PCell이든 SCell이든)은 일부 기지국이 통신하고 있는 캐리어 주파수/컴포넌트 캐리어에 대응하기 때문에, "셀", "서빙 셀", "컴포넌트 캐리어", "캐리어 주파수" 등의 용어는 상호교환가능하게 사용될 수 있다.
[0043] 예컨대, 도 1을 계속 참조하면, 매크로 셀 기지국들(102)에 의해 활용되는 주파수들 중 하나는 매크로 셀 기지국들(102)에 의해 활용되는 앵커 캐리어(또는 "PCell") 및 다른 주파수들일 수 있고, 그리고/또는 mmW 기지국(180)은 2차 캐리어들("SCell들")일 수 있다. 다수의 캐리어들의 동시적인 송신 및/또는 수신은 UE(104/182)가 그의 데이터 송신 및/또는 수신 레이트들을 상당히 증가시키게 할 수 있다. 예컨대, 다중-캐리어 시스템에서 2개의 20 MHz 어그리게이팅된 캐리어들은 이론적으로, 단일 20 MHz 캐리어에 의해 획득되는 것과 비교해서, 2배의 데이터 레이트 증가(즉, 40 MHz)를 유도할 것이다.
[0044] 도 1의 예에서, (간결성을 위해 단일 UE(104)로서 도 1에 도시된) 예시된 UE들 중 임의의 것은, 하나 이상의 지구 궤도 SV(space vehicle)들(112)(예컨대, 위성들)로부터 신호들(124)을 수신할 수 있다. 일 양상에서, SV들(112)은 UE(104)가 로케이션 정보의 독립적인 소스로서 사용할 수 있는 위성 포지셔닝 시스템의 일부일 수 있다. 통상적으로, 위성 포지셔닝 시스템은, 송신기들로부터 수신된 포지셔닝 신호들(예컨대, 신호들(124))에 적어도 부분적으로 기반하여, 수신기들(예컨대, UE들(104))이 지구 상에서 또는 지구 위에서 그들의 로케이션을 결정할 수 있게 하도록 포지셔닝된 송신기들(예컨대, SV들(112))의 시스템을 포함한다. 이러한 송신기는 통상적으로, 설정된 수의 칩들의 반복되는 PN(pseudo-random noise) 코드로 마킹된 신호를 송신한다. 송신기들은, 통상적으로 SV들(112)에 로케이팅되지만, 때때로 지상-기반 제어 스테이션들, 기지국들(102), 및/또는 다른 UE들(104) 상에 로케이팅될 수 있다. UE(104)는 SV들(112)로부터 지오 로케이션 정보(geo location information)를 도출하기 위한 신호들(124)을 수신하도록 특별히 설계된 하나 이상의 전용 수신기들을 포함할 수 있다.
[0045] 위성 포지셔닝 시스템에서, 신호들(124)의 사용은 하나 이상의 전역적 및/또는 지역적 내비게이션 위성 시스템들과 연관되거나 아니면 이와 함께 사용하기 위해 인에이블될 수 있는 다양한 SBAS(satellite-based augmentation systems)에 의해 증강될 수 있다. 예를 들어, SBAS는, WAAS(Wide Area Augmentation System), EGNOS(European Geostationary Navigation Overlay Service), MSAS(Multi-functional Satellite Augmentation System), GPS(Global Positioning System) 보조 지오(Geo) 증강 내비게이션 또는 GPS 및 지오 증강 내비게이션 시스템(GAGAN) 등과 같이, 무결성(integrity) 정보, 차동 보정 등을 제공하는 증강 시스템(들)을 포함할 수 있다. 따라서, 본원에 사용되는 바와 같이, 위성 포지셔닝 시스템은 그러한 하나 이상의 위성 포지셔닝 시스템들과 연관된 하나 이상의 전역적 및/또는 지역적 내비게이션 위성들의 임의의 조합을 포함할 수 있다.
[0046] 일 양상에서, SV들(112)은 추가적으로 또는 대안적으로 하나 이상의 NTN(non-terrestrial network)들의 일부일 수 있다. NTN에서, SV(112)는 지구 스테이션(또한 그라운드 스테이션, NTN 게이트웨이, 또는 게이트웨이라고 지칭됨)에 연결되고, 이는 결국 5G 네트워크의 엘리먼트, 이를테면 5GC의 네트워크 노드 또는 수정된 기지국(102)(지상파 안테나 없음)에 연결된다. 이 엘리먼트는 결국 5G 네트워크의 다른 엘리먼트들에 대한 액세스를 제공하고 궁극적으로는 인터넷 웹 서버들 및 다른 사용자 디바이스들와 같은 5G 네트워크 외부의 엔티티들에 대한 액세스를 제공할 것이다. 이러한 방식으로, UE(104)는 지상 기지국(102)으로부터의 통신 신호들 대신에 또는 그에 부가하여, SV(112)로부터 통신 신호들(이를테면, 신호들(124))을 수신할 수 있다.
[0047] NR의 증가된 데이터 레이트들과 감소된 레이턴시를 레버리징하여, V2X(vehicle-to-everything) 통신 기술들은, 다른 것들 중에서도, ITS(intelligent transportation systems) 애플리케이션들, 이를테면 차량들 사이(V2V(vehicle-to-vehicle)), 차량들과 노변 인프라구조 사이(V2I(vehicle-to-infrastructure)), 그리고 차량들과 보행자들 사이(V2P(vehicle-to-pedestrian))의 무선 통신들을 지원하도록 구현되고 있다. 목표는 차량들이 그들 주위의 환경을 감지하고 그 정보를 다른 차량들, 인프라구조 및 개인용 모바일 디바이스들에 통신할 수 있도록 하는 것이다. 이러한 차량 통신은 현재 기술들이 제공할 수 없는 안전, 이동성 및 환경 발전들을 가능하게 할 것이다. 일단 완전히 구현되면, 이 기술은 비장애 차량 충돌(unimpaired vehicle crash)들을 80%만큼 감소시킬 것으로 예상된다.
[0048] 도 1을 계속 참조하면, 무선 통신 시스템(100)은 (예컨대, Uu 인터페이스를 사용하여) 통신 링크들(120)을 통해 기지국들(102)과 통신할 수 있는 다수의 V-UE들(160)을 포함할 수 있다. V-UE들(160)은 또한 무선 사이드링크(162)를 통해 서로, 무선 사이드링크(166)를 통해 노변 액세스 포인트(164)(또한 "노변 유닛"으로 지칭됨)와, 또는 무선 사이드링크(168)를 통해 UE들(104)과, 직접 통신할 수 있다. 무선 사이드링크(또는 간단히 "사이드링크")는 통신이 기지국을 거치지 않고도 둘 이상의 UE 사이의 직접 통신을 허용하는 코어 셀룰러(예컨대, LTE, NR) 표준을 적용한 것이다. 사이드링크 통신은 유니캐스트 또는 멀티캐스트일 수 있고, D2D(device-to-device) 미디어 공유, V2V 통신, V2X 통신(예컨대, 셀룰러 cV2X(cellular V2X) 통신, eV2X(enhanced V2X) 통신 등), 비상 구조 애플리케이션 등에 사용될 수 있다. 사이드링크 통신을 이용하는 한 그룹의 V-UE들(160) 중 하나 이상이 기지국(102)의 지리적 커버리지 영역(110) 내에 있을 수 있다. 이러한 그룹의 다른 V-UE들(160)은 기지국(102)의 지리적 커버리지 영역(110) 밖에 있을 수 있거나 그렇지 않으면 기지국(102)으로부터의 송신들을 수신하지 못할 수 있다. 일부 경우들에서, 사이드링크 통신들을 통해 통신하는 V-UE들(160)의 그룹들은 1-대-다(1:M) 시스템을 이용할 수 있으며, 여기서 각각의 UE(160)는 그룹 내의 모든 각각의 다른 V-UE(160)에 송신한다. 일부 경우들에서, 기지국(102)은 사이드링크 통신들을 위한 자원들의 스케줄링을 가능하게 한다. 다른 경우들에서, 사이드링크 통신들은 기지국(102)을 수반하지 않으면서 V-UE들(160) 간에 수행된다.
[0049] 일 양상에서, 사이드링크들(162, 166, 168)은, 다른 차량들 및/또는 인프라구조 액세스 포인트들뿐만 아니라 다른 RAT들 사이의 다른 무선 통신들과 공유될 수 있는 관심 무선 통신 매체를 통해 동작할 수 있다. "매체"는 하나 이상의 송신기/수신기 쌍들 사이의 무선 통신과 연관된 하나 이상의 시간, 주파수 및/또는 공간 통신 자원들(예컨대, 하나 이상의 캐리어들에 걸친 하나 이상의 채널들을 포함함)로 구성될 수 있다.
[0050] 일 양상에서, 사이드링크들(162, 166, 168)은 cV2X 링크들일 수 있다. cV2X의 1세대는 LTE에서 표준화되었으며, 차세대는 NR에서 정의될 것으로 예상된다. cV2X는 디바이스-대-디바이스 통신들을 또한 가능하게 하는 셀룰러 기술이다. 미국 및 유럽에서, cV2X는 서브-6GHz의 면허 ITS 대역에서 동작하는 것으로 예상된다. 다른 대역들은 다른 국가들에서 할당될 수 있다. 따라서, 특정 예로서, 사이드링크들(162, 166, 168)에 의해 활용되는 관심 매체는 서브-6GHz의 면허 ITS 주파수 대역의 적어도 일부에 대응할 수 있다. 그러나, 본 개시내용은 이러한 주파수 대역 또는 셀룰러 기술로 제한되지 않는다.
[0051] 일 양상에서, 사이드링크들(162, 166, 168)은 DSRC(dedicated short-range communications) 링크들일 수 있다. DSRC는 V2V, V2I 및 V2P 통신들을 위해 IEEE 802.11p로 또한 알려진 WAVE(wireless access for vehicular environments) 프로토콜을 사용하는 단방향 또는 양방향 단거리 내지 중거리 무선 통신 프로토콜이다. IEEE 802.11p는 IEEE 802.11 표준에 대한 승인된 수정이며, 미국에서 5.9 GHz(5.85 - 5.925 GHz)의 면허 ITS 대역에서 동작한다. 유럽에서, IEEE 802.11p는 ITS G5A 대역(5.875 - 5.905 MHz)에서 동작한다. 다른 대역들은 다른 국가들에서 할당될 수 있다. 위에서 간략히 설명된 V2V 통신들은 안전 채널(Safety Channel) 상에서 발생하며, 안전 채널은 미국에서 통상적으로 안전의 목적에 전용되는 10 MHz 채널이다. DSRC 대역의 나머지(총 대역폭은 75 MHz임)는 도로 규칙들, 톨링(tolling), 주차 자동화 등과 같은 운전자들에게 관심이 있는 다른 서비스들을 위해 의도된 것이다. 따라서, 특정 예로서, 사이드링크들(162, 166, 168)에 의해 활용되는 관심 매체들은 5.9 GHz의 면허 ITS 주파수 대역의 적어도 일부에 대응할 수 있다.
[0052] 대안적으로, 관심 매체는 다양한 RAT들 사이에서 공유되는 비면허 주파수 대역의 적어도 일부에 대응할 수 있다. 상이한 면허 주파수 대역들이 (예컨대, 미국의 FCC(Federal Communications Commission)와 같은 정부 기관에 의하여) 특정한 통신 시스템들을 위해 예비되어왔지만, 이들 시스템들, 특히 소형 셀 액세스 포인트들을 이용하는 시스템들은 최근에, 일반적으로 "Wi-Fi"로 지칭되는 가장 특히 IEEE 802.11x WLAN 기술들과 같은 WLAN(wireless local area network) 기술들에 의해 사용되는 U-NII(Unlicensed National Information Infrastructure) 대역과 같은 비면허 주파수 대역들로 동작을 확장시켰다. 이러한 타입의 예시적인 시스템들은 CDMA 시스템들, TDMA 시스템들, FDMA 시스템들, OFDMA(orthogonal FDMA) 시스템들, SC-FDMA(single-carrier FDMA) 시스템들 등의 상이한 변형들을 포함한다.
[0053] V-UE들(160) 사이의 통신들은 V2V 통신들로 지칭되고, V-UE들(160)과 하나 이상의 노변 액세스 포인트들(164) 사이의 통신들은 V2I 통신들로 지칭되며, V-UE들(160)과 하나 이상의 UE들(104)(여기서는 UE들(104)과 P-UE들) 사이의 통신들은 V2P 통신들로 지칭된다. V-UE들(160) 사이의 V2V 통신들은 예컨대, V-UE들(160)의 포지션, 스피드, 가속도, 헤딩(heading) 및 다른 차량 데이터에 관한 정보를 포함할 수 있다. 하나 이상의 노변 액세스 포인트들(164)로부터 V-UE(160)에서 수신된 V2I 정보는 예컨대, 도로 규칙들, 주차 자동화 정보 등을 포함할 수 있다. V-UE(160)와 UE(104) 사이의 V2P 통신들은 예컨대, V-UE(160)의 포지션, 스피드, 가속도 및 헤딩, 및 UE(104)의 포지션, 스피드(예컨대, UE(104)가 자전거를 탄 사용자에 의해 운반되는 스피드) 및 헤딩에 대한 정보를 포함할 수 있다.
[0054] 도 1은 V-UE들(V-UE들(160))로서 UE들 중 2개만을 예시하지만, 예시된 UE들(예컨대, UE들(104, 152, 182, 190)) 중 임의의 UE가 V-UE들일 수 있음을 주목한다. 추가로, V-UE들(160) 및 단일 UE(104)만이 사이드링크를 통해 연결되는 것으로 예시되었지만, 도 1에 예시된 UE들 중 임의의 UE는, V-UE들, P-UE들 등이든, 사이드링크 통신을 할 수 있다. 추가로, UE(182)만이 빔 형성이 가능한 것으로 설명되었지만, V-UE들(160)을 포함하는 예시된 UE들 중 임의의 UE는, 빔 형성을 할 수 있다. V-UE들(160)이 빔 형성을 할 수 있는 경우, 이들은 서로를 향해(즉, 다른 V-UE들(160)을 향해), 노변 액세스 포인트들(164)을 향해, 다른 UE들(예컨대, UE들(104, 152, 182, 190)) 등을 향해 빔 형성을 할 수 있다. 따라서, 일부 경우들에서, V-UE들(160)은 사이드링크들(162, 166, 및 168)을 통한 빔 형성을 활용할 수 있다.
[0055] 무선 통신 시스템(100)은 하나 이상의 D2D(device-to-device) P2P(peer-to-peer) 링크들을 통해 하나 이상의 통신 네트워크들에 간접적으로 연결되는 하나 이상의 UE들, 이를테면 UE(190)를 더 포함할 수 있다. 도 1의 예에서, UE(190)는 기지국들(102) 중 하나에 연결된 UE들(104) 중 하나와의 D2D P2P 링크(192)(예컨대, 이를 통해 UE(190)가 셀룰러 연결을 간접적으로 획득할 수 있음) 및 WLAN AP(150)에 연결된 WLAN STA(152)와의 D2D P2P 링크(194)(이를 통해 UE(190)가 WLAN-기반 인터넷 연결을 간접적으로 획득할 수 있음)를 갖는다. 일 예에서, D2D P2P 링크들(192 및 194)은 임의의 잘 알려진 D2D RAT, 이를테면 LTE-D(LTE Direct), WiFi-D(WiFi Direct), Bluetooth®등을 통해 지원될 수 있다. 다른 예로서, D2D P2P 링크들(192 및 194)은 사이드링크들(162, 166, 및 168)을 참조하여 위에서 설명된 바와 같은 사이드링크들일 수 있다.
[0056] 이제 도 2a를 참조하면, 앞유리(261) 뒤에서 차량(260)의 내부 구획에 위치된 카메라 센서 모듈(265)을 포함하는 차량(260)("에고(ego) 차량" 또는 "호스트 차량"으로 지칭됨)이 예시된다. 일 양상에서, 카메라 센서 모듈(265)은 차량(260) 내의 임의의 곳에 위치될 수 있다. 일 양상에서, 카메라 센서 모듈(265)은 커버리지 구역(270)을 갖는 센서(214)를 포함할 수 있다. 카메라 센서 모듈(265)은 (파선들로 도시된) 수평 커버리지 구역(275)에서 앞유리(261)를 통해 보여지고 캡처된 광파들에 기반하여 이미지들을 캡처하기 위한 카메라(212)를 더 포함한다. 일 양상에서, 카메라 센서 모듈(265)은 하나 이상의 센서들(214), 이를테면, 라이다(lidar) 센서, 레이더 센서, IMU(inertial measurement unit), 속도 센서 및/또는 차량(260)의 동작을 도울 수 있는 임의의 다른 센서를 포함할 수 있다.
[0057] 도 2a는 센서 컴포넌트 및 카메라 컴포넌트가 공유 하우징 내에 코로케이팅된(collocated) 컴포넌트들인 예를 예시하지만, 인식될 바와 같이, 이들은 차량(260) 내의 상이한 위치들에 별개로 하우징될 수 있다. 예컨대, 카메라(212)는 도 2a에 도시된 바와 같이 위치될 수 있고, 센서(214)는 차량(260)의 그릴 또는 전방 범퍼에 위치될 수 있다. 추가로, 도 2a는 앞유리(261) 뒤에 위치된 카메라 센서 모듈(265)을 예시하지만, 카메라 센서 모듈(265)은 대신 루프탑 센서 어레이 또는 다른 곳에 위치될 수 있다. 일 양상에서, 도 2a는 단일 카메라 센서 모듈(265)만을 예시하지만, 인식될 바와 같이, 차량(260)은 상이한 방향들(측면들, 전방, 후방 등)로 향하는 다수의 카메라 센서 모듈들(265)을 가질 수 있다. 다양한 카메라 센서 모듈들(265)은 차량의 "스킨(skin)" 아래에(예컨대, 앞유리(261), 도어 패널들, 범퍼들, 그릴들 등 뒤에) 또는 루프탑 센서 어레이 내에 있을 수 있다.
[0058] 카메라 센서 모듈(265)은 차량(260)에 대해 하나 이상의 오브젝트들을 검출할 수 있다(또는 아무것도 검출하지 않을 수 있다). 도 2a의 예에서, 카메라 센서 모듈(265)이 검출할 수 있는 수평 커버리지 구역들(270 및 275) 내에는 2개의 오브젝트들, 즉 차량들(280 및 285)이 있다. 일 양상에서, 카메라 센서 모듈(265)은 검출된 오브젝트(들)의 파라미터들, 이를테면 포지션, 범위, 방향, 스피드, 크기, 분류(예컨대, 차량, 보행자, 도로 표지판 등) 등을 추정할 수 있다. 카메라 센서 모듈(265)은 자율 제동, LDW(lane departure warning)를 통한 충돌 완화 또는 회피, ACC(adaptive cruise control), FCW(forward collision warning) 등과 같은 자동차 안전 애플리케이션들을 위해 차량(260)에 의해 이용될 수 있다.
[0059] 도 2b는 본 개시내용의 다양한 양상들에 따른, 차량(260)의 OBC(on-board computer)(200)를 예시한다. 일 양상에서, OBC(200) 및 카메라 센서 모듈(265)은 차량(260)의 ADAS 또는 ADS의 일부일 수 있다. 일 양상에서, OBC(200)를 갖는 차량(260)은 V-UE들(160)과 유사할 수 있고, OBC(200)는 도 1에 도시된 UE(104, 190) 또는 임의의 다른 UE들과 유사할 수 있고, 당업자에게 알려져 있지만 도 2b에 예시되지 않는 하나 이상의 컴포넌트들을 더 포함할 수 있다는 것이 주목될 것이다. 따라서, 일 양상에서, OBC(200)는 모바일 디바이스인 것으로 고려될 수 있다. 일부 양상들에서, 모바일 디바이스는 "핸드셋", "UE", "V-UE", "액세스 단말” 또는 "AT", "클라이언트 디바이스", "무선 디바이스", "가입자 디바이스", "가입자 단말", "가입자 스테이션", "사용자 단말” 또는 "UT", "모바일 단말", "모바일 스테이션", "OBC", 또는 이들의 변형들로 고려될 수 있다. OBC(200)는 비-일시적 컴퓨터-판독가능 저장 매체, 즉, 메모리(204), 및 데이터 버스(208)를 통해 메모리(204)와 통신하는 하나 이상의 프로세서들(206)을 포함한다. 메모리(204)는 본원에서 설명된 OBC(200)의 기능들을 수행하도록 프로세서(들)(206)에 의해 실행가능한 컴퓨터-판독가능 명령들을 저장하는 하나 이상의 저장 모듈들을 포함한다. 예컨대, 프로세서(들)(206)는 메모리(204)와 함께 다양한 신경망 아키텍처들을 구현할 수 있다.
[0060] 하나 이상의 카메라 센서 모듈들(265)이 OBC(200)에 커플링된다(단순화를 위해 도 2b에는 하나만 도시됨). 일부 양상들에서, 카메라 센서 모듈(265)은 적어도 하나의 카메라(212) 및 적어도 하나의 센서(214)를 포함한다. 센서(214)는 라이다 센서, 레이더 센서, IMU(inertial measurement unit), 속도 센서 및/또는 차량(260)의 동작을 도울 수 있는 임의의 다른 센서 중 하나 이상을 포함할 수 있다. OBC(200)는 또한 프로세서(들)(206)를 데이터 버스(208)를 통해 카메라 센서 모듈(265) 및 선택적으로 다른 차량 서브-시스템들(미도시)에 연결하는 하나 이상의 시스템 인터페이스들(210)을 포함한다.
[0061] OBC(200)는 또한, 적어도 일부 경우들에서, 하나 이상의 무선 통신 네트워크들(미도시), 이를테면 NR 네트워크, LTE 네트워크, GSM 네트워크 등을 통해 통신하도록 구성되는 WWAN(wireless wide area network) 트랜시버(230)를 포함한다. WWAN 트랜시버(230)는 관심있는 무선 통신 매체(예컨대, 특정 주파수 스펙트럼의 일부 세트의 시간/주파수 자원들)를 통해서 적어도 하나의 지정된 RAT(예컨대, NR, LTE, GSM 등)를 통해 다른 네트워크 노드들, 이를테면 다른 차량 UE들, 보행자 UE들, 인프라구조 액세스 포인트들, RSU(roadside unit)들, 기지국들(예컨대, eNB들, gNB들) 등과 통신하기 위해 하나 이상의 안테나들(미도시)에 연결될 수 있다. WWLAN 트랜시버(230)는 지정된 RAT에 따라, 신호들(예컨대, 메시지들, 표시들, 정보 등)을 송신 및 인코딩하도록 그리고 역으로 신호들(예컨대, 메시지들, 표시들, 정보, 파일럿들 등)을 수신 및 디코딩하도록 다양하게 구성될 수 있다.
[0062] OBC(200)는 또한, 적어도 일부 경우들에서, WLAN(wireless local area network) 트랜시버(240)를 포함한다. WLAN 트랜시버(240)는, 관심 무선 통신 매체를 통해 적어도 하나의 지정된 RAT를 통해, 다른 네트워크 노드들, 이를테면 다른 차량 UE들, 보행자 UE들, 인프라구조 액세스 포인트들, RSU들 등과 통신(예컨대, C-V2X(cellular vehicle-to-everything), IEEE 802.11p(WAVE(wireless access for vehicular environments)로서 또한 알려져 있음), DSRC(dedicated short-range communication) 등)하기 위한 하나 이상의 안테나들(미도시)에 연결될 수 있다. WLAN 트랜시버(240)는 지정된 RAT에 따라, 신호들(예컨대, 메시지들, 표시들, 정보 등)을 송신 및 인코딩하도록 그리고 역으로 신호들(예컨대, 메시지들, 표시들, 정보, 파일럿들 등)을 수신 및 디코딩하도록 다양하게 구성될 수 있다.
[0063] 본 명세서에서 사용되는 바와 같이, “트랜시버”는 송신기 회로, 수신기 회로, 또는 이들의 결합을 포함할 수 있지만, 모든 설계들에서 송신 및 수신 기능들 둘 모두를 제공할 필요는 없다. 예컨대, 완전한 통신(full communication)을 제공하는 것이 필수적이지 않은 경우 비용들을 감소시키기 위해 몇몇 설계들에서 저 기능 수신기 회로가 이용될 수 있다(예컨대, 단순히 저-레벨 스니핑(sniffing)을 제공하는 수신기 칩 또는 유사한 회로부).
[0064] OBC(200)는 또한, 적어도 일부 경우들에서, GPS(global positioning systems) 수신기(250)를 포함한다. GPS 수신기(250)는 위성 신호들을 수신하기 위해 하나 이상의 안테나들(미도시)에 연결될 수 있다. GPS 수신기(250)는 GPS 신호들을 수신 및 프로세싱하기 위한 임의의 적합한 하드웨어 및/또는 소프트웨어를 포함할 수 있다. GPS 수신기(250)는 다른 시스템들로부터 정보 및 동작들을 적절하게 요청하고, 임의의 적합한 SPS 알고리즘에 의해 획득된 측정들을 사용하여 차량(260)의 포지션을 결정하는 데 필요한 계산들을 수행한다.
[0065] 일 양상에서, OBC(200)는 WWAN 트랜시버(230) 및/또는 WLAN 트랜시버(240)를 활용하여 하나 이상의 맵들(202)을 다운로드할 수 있으며, 이어서 하나 이상의 맵들(202)은 메모리(204)에 저장되고 차량 내비게이션을 위해 사용될 수 있다. 맵(들)(202)은 7-10 cm 절대 범위들의 정확도, 도로들과 관련된 모든 고정 물리적 자산들의 매우 상세한 목록(inventory)들, 이를테면 도로 차선들, 도로 가장자리들, 숄더들, 분할기들, 트래픽 신호들, 사이니지(signage), 페인트 마킹들, 폴(pole)들, 및 차량(100)에 의한 도로들 및 교차로들의 안전한 내비게이션에 유용한 다른 데이터를 제공할 수 있는 하나 이상의 HD(high definition) 맵들일 수 있다. 맵(들)(202)은 또한, 차량(260)이 앞에 무엇이 놓여 있는지를 알 수 있게 하는 전자 수평선 예측 인식(electronic horizon predictive awareness)을 제공할 수 있다.
[0066] 일 양상에서, 카메라(212)는 (수평 커버리지 구역(275)으로서 도 2a에 예시된 바와 같이) 카메라(212)의 뷰잉 영역 내의 장면의 이미지 프레임들(본원에서는 카메라 프레임들로 또한 지칭됨)을 어떤 주기적 레이트로 캡처할 수 있다. 카메라 프레임을 캡처한 후, 카메라(212)는 추가의 프로세싱을 위해 시스템 인터페이스(210)를 통해 프로세서(206)에 카메라 프레임을 송신할 수 있다. 일 양상에서, 프로세서(206)는 메모리(204)에 저장된 맵들(202)을 사용하여 차량(260)의 주행가능 경로를 결정할 수 있다. 프로세서(206)는 GPS 수신기(250) 및 맵들(202)을 사용하여 차량(260)의 현재 포지션을 결정할 수 있다. 맵들(202) 상에서 차량(260)의 현재 포지션을 결정한 후, 프로세서(206)는 맵들(202) 상의 차량(260)의 현재 포지션 및 맵들(202)에 포함된 정보에 기반하여 차량(260)의 주행가능 경로를 결정할 수 있다. 다시 말해서, 맵들(202)은 차량(260)의 현재 위치에 기반한 차량(260)의 주행가능 경로에 대한 정보를 포함할 수 있고, 프로세서(206)는 차량(260)의 주행가능 경로를 결정하기 위해 맵들(202)에 포함된 정보를 사용할 수 있다.
[0067] 다른 양상에서, 차량(260)의 현재 위치의 맵이 이용가능하지 않으면, 프로세서(206)는 GPS 수신기(250) 및/또는 센서(214)를 활용하여 차량(260)의 포지션 및 배향을 결정할 수 있다. 차량(260)의 포지션 및 배향을 결정한 후, 프로세서(206)는 차량(260)의 속도, 가속도, 도로 컨디션 또는 차량(260)에 관한 다른 필요한 정보와 같은 추가 정보를 센서(214)로부터 수신할 수 있다. 프로세서(206)는 차량(260)의 주행가능 경로를 결정하기 위해 차량(260)의 포지션 및 배향 및 센서(214)로부터의 다른 부가적인 정보를 사용할 수 있다.
[0068] 도 3은 카메라(212)에 의해 캡처되고 프로세서(206)에 의해 프로세싱될 수 있는 예시적인 카메라 프레임(300)을 예시한다. 일 양상에서, 카메라 프레임(300)은 차량(260) 전방의 뷰를 도시한다. 그러나, 카메라 프레임(300)의 뷰는 정면도로 제한되지 않으며, 차량(260)으로부터의 측면도, 배면도 및 다른 도들을 포함할 수 있다. 도 3에 도시된 예에서, 카메라 프레임(300)은 섹션들(310, 320, 330 및 340)로 파티셔닝되거나 분할된다. 또한, 차량(260)은 카메라 프레임(300)에 도시된 바와 같이 도로(350) 상에서 이동하고 있다. 일 양상에서, 프로세서(206)는 차량(260)의 주행가능 경로를 결정하고 주행가능 경로를 카메라 프레임(300) 상에 투사할 수 있다. 차량(260)의 주행가능 경로를 카메라 프레임(300) 상에 투사함으로써, 프로세서(206)는 카메라 프레임(300)의 어느 섹션들이 차량(260)의 주행가능 경로를 포함하는지를 결정할 수 있다. 일 양상에서, 프로세서(206)는 주행가능 경로를 결정하기 위해 도로(350)의 맵을 사용할 수 있다. 맵들(202)은 도로(350)의 경로를 포함하는 도로(350)에 관한 정보를 포함하기 때문에, 프로세서(206)는 맵들(202) 상에서 차량(260)의 현재 위치를 결정하고 맵들(202)을 사용하여 도로(350)의 가능한 경로를 투사함으로써 차량(260)의 주행가능 경로를 결정할 수 있다. 주행가능 경로를 결정한 후, 프로세서(206)는 주행가능 경로를 카메라 프레임(300) 상에 투사할 수 있다.
[0069] 일 양상에서, 주행가능 경로의 3차원(3D) 좌표들을 포함하는 차량(260)의 주행가능 경로를 결정한 후, 프로세서(206)는 3D 좌표들을, 카메라 프레임(300) 상에 피팅할 수 있는 2차원(2D) 좌표들로 변환할 수 있다. 다시 말해서, 프로세서(206)는 주행가능 경로의 3D 좌표들을 카메라 프레임(300) 상의 2D 좌표들로 변환함으로써 주행가능 경로를 카메라 프레임(300)에 투사할 수 있다. 일 양상에서, 프로세서(206)는 당해 기술분야에 알려진 바와 같이 3D 좌표들을 2D 좌표들로 변환하기 위해 "핀 홀 카메라 모델"을 사용할 수 있다. 따라서, 프로세서(206)는 카메라 프레임(300) 상의 주행가능 경로의 2D 좌표들을 결정함으로써 주행가능 경로를 카메라 프레임(300) 상에 투사할 수 있다.
[0070] 도 3에 도시된 예에서, 프로세서(206)는, 주행가능 경로를 카메라 프레임(300) 상에 투사함으로써 섹션들(330 및 340)이 차량(260)의 주행가능 경로를 포함한다고 결정할 수 있다. 일 양상에서, 프로세서(206)는 차량(260)의 주행가능 경로를 결정하기 위해 차량(260)의 속도와 같은 다른 부가적인 인자들을 고려할 수 있다.
[0071] 일 양상에서, OBC(200)가 도로의 맵(350)에 대한 액세스를 갖지 않으면, 프로세서(206)는 차량(260)의 주행가능 경로를 결정하기 위해 카메라 센서 모듈(265) 내의 센서(214)를 사용할 수 있다. 센서(214)는 라이다 센서, 레이더 센서, IMU(inertial measurement unit), 속도 센서 및/또는 차량(260)의 동작을 도울 수 있는 임의의 다른 센서 중 하나 이상을 포함할 수 있다. 센서(214)를 사용하여 차량(260)의 주행가능 경로를 결정한 후, 프로세서(206)는 주행가능 경로를 카메라 프레임(300) 상에 투사할 수 있다. 도 3에 도시된 예에서, 프로세서(206)는, 주행가능 경로를 카메라 프레임(300) 상에 투사함으로써 섹션들(330 및 340)이 차량(260)의 주행가능 경로를 포함한다고 결정할 수 있다. 주행가능 경로를 카메라 프레임(300) 상에 투사한 후, 프로세서(206)는 아래에 설명된 바와 같이 카메라 프레임(300)을 상이한 섹션들로 파티셔닝하고 분할할 수 있다.
[0072] 차량(260)의 주행가능 경로를 결정하고 주행가능 경로를 카메라 프레임(300) 상에 투사한 후, 프로세서(206)는 카메라 프레임(300)의 어느 섹션들이 차량(260)의 주행가능 경로를 포함하는지를 결정할 수 있다. 예컨대, 도 3에서, 섹션들(310 및 320)은 주행가능 경로를 포함하지 않지만, 섹션들(330 및 340)은 주행가능 경로를 포함한다. 따라서, 일 양상에서, 프로세서(206)는, 주행가능 경로를 포함하지 않는 섹션들을 프로세싱하지 않음으로써, 주행가능 경로를 포함하지 않는 카메라 프레임(300)의 섹션들을 폐기할 수 있다. 예컨대, 프로세서(206)는 섹션들(310 및 320)이 주행가능 경로를 포함하지 않는다고 결정하고, 섹션들(310 및 320) 내의 픽셀들 중 어떠한 픽셀도 프로세싱하지 않음으로써 추가 프로세싱으로부터 섹션들(310 및 320)을 폐기하기로 판단할 수 있다.
[0073] 주행가능 경로를 포함하지 않는 섹션들을 폐기한 후에, 프로세서(206)는 차량(260)으로부터 섹션들 각각까지의 거리에 기반하여 차량(260)의 주행가능 경로를 포함하는 나머지 섹션(들)을 추가로 파티셔닝할 수 있다. 도 3에 도시된 예에서, 프로세서(206)는 차량(260)으로부터 섹션들(330 및 340)까지의 거리에 기반하여 섹션(340)을 생성하기 위해 섹션(330)을 추가로 파티셔닝할 수 있다. 예컨대, 일 양상에서, 프로세서(206)는, 섹션(340)이 도 3에 도시된 바와 같이 차량(260)으로부터 멀리 있는 반면 섹션(330)에 포함된 주행가능 경로는 차량(260)에 더 가깝기 때문에, 섹션(330)으로부터 섹션(340)을 파티셔닝해 낼 수 있다. 예컨대, 차량(260)이 약 65 mph로 도로(350) 상에서 주행하고 있다면, 프로세서(206)는 차량(260)의 주행가능 경로 상에서 차량(260)으로부터 약 300 미터 이상 떨어진 카메라 프레임(300)의 일부를 파티셔닝할 수 있다. 도 3에 도시된 예에서, 프로세서(206)는 섹션(330)으로부터 섹션(340)을 파티셔닝해 냈을 수 있는데, 이는 섹션(340)이 차량(260)으로부터 약 300 미터 이상 떨어진 주행가능 경로의 일부를 포함하기 때문이다. 그러나, 300 미터의 거리는 단지 예시적이며, 차량(260)으로부터의 실제 거리는 다양한 컨디션들에 따라 변할 수 있다.
[0074] 일 양상에서, 프로세서(206)는 주행가능 경로의 3D 및 2D 좌표들에 기반하여 차량(260)으로부터 섹션들 각각까지의 거리를 결정할 수 있다. 예컨대, 주행가능 경로의 "z" 좌표는 차량(260)으로부터 섹션들 각각까지의 거리를 제공할 수 있다. 추가로, 센서(214), 이를테면 레이더 센서 및 라이다 센서는, 섹션에서 오브젝트를 검출하고 섹션에서 차량(260)으로부터 오브젝트까지의 거리를 측정함으로써 거리의 결정을 보조할 수 있다.
[0075] 일부 다른 양상들에서, 프로세서(206)는 거리 외에도 다양한 다른 인자들에 기반하여 차량(260)의 주행가능 경로를 포함하는 나머지 섹션(들)을 추가로 파티셔닝할 수 있다. 다른 인자들은 도로 컨디션, 트래픽 컨디션, 사용자 입력, 날씨, 차량의 배향 등과 같은 그러한 인자들을 포함할 수 있다.
[0076] 일 양상에서, 프로세서(206)는 차량(260)으로부터 멀리 있는 주행가능 경로의 일부를 포함하는 섹션(340)과 같은 섹션을 파티셔닝해 낼 수 있는데, 이는 카메라 프레임(300)의 각도 해상도가, 차량(260)에 더 근접한 카메라 프레임(300)의 다른 섹션들보다 섹션(340)을 더 높은 해상도로 프로세싱할 것을 요구하기 때문이다. 예컨대, 프로세서(206)는 섹션(330)이 섹션(340)의 주행가능 경로보다 차량(260)에 비교적 더 가까운 도로(350)의 주행가능 경로의 일부를 포함하기 때문에 섹션(330)을 섹션(340)보다 더 낮은 해상도로 프로세싱할 수 있다. 다시 말해서, 프로세서(206)는 예컨대, 섹션(330)에서 모든 픽셀을 프로세싱해야할 필요는 없을 수 있지만, 섹션(330)에서 단지 매 3개의 픽셀들마다 하나의 픽셀을 프로세싱할 필요가 있을 수 있다. 섹션(330)에서 모든 픽셀을 프로세싱하지는 않음으로써, 프로세서(206)는 프로세싱 시간 및 컴퓨팅 자원들의 사용량을 감소시킬 수 있다. 프로세서(206)는 섹션들(310 및 320)에서 픽셀들을 프로세싱하지 않음으로써 컴퓨팅 자원들의 사용량을 추가로 감소시킬 수 있다. 따라서, 일 양상에서, 프로세서(206)는 차량(260)으로부터 섹션들 각각까지의 거리에 기반하여 카메라 프레임(300) 내의 섹션들 각각을 프로세싱하기 위해 요구되는 해상도를 결정할 수 있다.
[0077] 예컨대, 섹션(340)의 모든 픽셀이 프로세서(206)에 의해 프로세싱될 수 있는 반면, 프로세서(206)는 섹션(330) 내의 하나 걸러 하나의 픽셀 또는 매 3개의 픽셀들마다 하나의 픽셀만을 프로세싱할 수 있다. 대조적으로, 프로세서(206)는 섹션들(310 및 320)의 어떠한 픽셀들도 프로세싱하지 않을 수 있는데, 이는 이러한 섹션들이 주행가능 경로를 포함하지 않기 때문이다. 따라서, 섹션(340)은 섹션(330 또는 310)보다 프로세싱에 대해 더 높은 요구되는 해상도를 갖는다. 카메라 프레임(300) 내의 모든 픽셀들을 프로세싱하지는 않음으로써, 프로세서(206)는 OBC(200)의 귀중한 컴퓨팅 자원들을 절약할 수 있다.
[0078] 그러나, 다른 양상들에서, 거리가, 프로세서(206)가 카메라 프레임(300) 내의 상이한 섹션들의 요구되는 프로세싱 해상도를 결정할 때 고려하는 유일한 인자는 아닐 수 있다. 다른 인자들은 도로 컨디션, 트래픽 컨디션, 사용자 입력, 날씨, 차량의 배향 등과 같은 인자들을 포함할 수 있다. 또한, 다양한 양상들에서, 프로세서(206)는, 위에서 논의된 다양한 인자들에 기반하여, 주행가능 경로를 포함하는 카메라 프레임의 일부를 하나 이상의 섹션들로 파티셔닝할 수 있다. 도 3에 주어진 예는 단지 예시적이며, 섹션들의 수는 다양한 상이한 인자들에 의존할 수 있다.
[0079] 섹션(330)과 대조적으로, 프로세서(206)는 카메라 프레임(300)의 각도 해상도 때문에 섹션(340)에서 모든 픽셀 또는 거의 모든 픽셀을 프로세싱할 필요가 있을 수 있다. 예컨대, 도 3에서, 섹션(340)은 차량(260)으로부터 멀리 위치된 오브젝트들(345)을 포함한다. 프로세서(206)는 섹션(340)에서 오브젝트들(345)을 인식하기 위해 섹션(340)에서 픽셀들 전부 또는 대부분을 프로세싱할 필요가 있을 수 있다. 다시 말해서, 프로세서(206)는 카메라 프레임(300)의 각도 해상도 및/또는 차량(260)으로부터의 거리로 인해 섹션(330)보다 비교적 더 높은 해상도로 섹션(340)의 픽셀들을 프로세싱할 수 있다. 따라서, 프로세서(206)는 차량(260)으로부터 섹션들 각각까지의 거리에 기반하여 카메라 프레임(300)을 상이한 섹션들로 파티셔닝할 수 있다. 더 긴 거리의 섹션들은 프로세서(206)에 의한 더 높은 해상도의 프로세싱을 요구할 수 있는 반면, 더 짧은 거리의 섹션들은 프로세서(206)에 의한 더 낮은 해상도의 프로세싱만을 요구할 수 있다. 차량(260)으로부터 멀리 있는 섹션들은 더 높은 해상도를 요구할 수 있는데, 이는 차량(260)으로부터 멀리 떨어져 있는 섹션들의 오브젝트들을 정확하게 결정하기 위해 더 높은 해상도가 요구되기 때문이다.
[0080] 다양한 양상들에서, 프로세서(206)는 차량(260)으로부터 섹션들 각각까지의 거리에 기반하여 카메라 프레임(300) 내의 섹션들 각각 내의 정보를 프로세싱하기 위해 필요한 요구되는 해상도를 결정할 수 있다. 일 양상에서, 요구되는 해상도는 섹션들 각각 내의 정보를 프로세싱하는 데 필요한 최소 해상도일 수 있다. 다른 양상들에서, 요구되는 해상도는 프로세서(206)에 의해 상이하게 결정될 수 있다. 다른 양상들에서, 프로세서(206)는 거리에 추가하여 또는 거리 대신에 다른 인자들에 기반하여 카메라 프레임(300) 내의 섹션들 각각 내의 정보를 프로세싱하기 위해 필요한 요구되는 해상도를 결정할 수 있다. 이러한 추가적인 인자들은 OBC(200)의 컴퓨팅 자원의 가용성, 차량(260)의 속도, 카메라(212)의 해상도, 주변 날씨, 카메라(212)의 가시성, 사용자 입력, 도로 컨디션, 트래픽 컨디션, 차량(260)의 배향 등을 포함할 수 있다.
[0081] 예컨대, 프로세서(206)는 OBC(200)의 컴퓨팅 자원들이 제한된 경우 섹션(340) 내의 모든 픽셀들 대신 섹션(340) 내의 하나 걸러 하나의 픽셀들을 프로세싱할 수 있다.
[0082] 요구되는 해상도를 결정한 후, 프로세서(206)는 결정된 요구되는 해상도에 기반하여 섹션들 각각의 정보를 프로세싱할 수 있다. 도 3의 예는 섹션들(310, 320, 330 및 340)을 예시하지만, 프로세서(206)는 요구되는 해상도들에 기반하여 카메라 프레임을 더 많거나 적은 섹션들로 파티셔닝하거나 분할할 수 있다.
[0083] 도 2b의 OBC(200)의 컴포넌트들은 다양한 방식들로 구현될 수 있다. 일부 구현들에서, OBC(200)의 컴포넌트들은 하나 이상의 회로들, 이를테면 예컨대, 하나 이상의 프로세서들 및/또는 하나 이상의 ASIC들(하나 이상의 프로세서들을 포함할 수 있음)에서 구현될 수 있다. 여기서, 각각의 회로는 이러한 기능을 제공하도록 회로에 의해 사용되는 정보 또는 실행가능 코드를 저장하기 위한 적어도 하나의 메모리 컴포넌트를 사용하고 그리고/또는 그것을 통합할 수 있다. 예컨대, OBC(200)의 블록들(202 내지 250)에 의해 표현된 기능 중 일부 또는 모두는 OBC(200)의 프로세서 및 메모리 컴포넌트(들)에 의해 (예컨대, 적절한 코드의 실행에 의해 그리고/또는 프로세서 컴포넌트들의 적절한 구성에 의해) 구현될 수 있다. 그러나 이해되는 바와 같이, 그러한 동작들, 액트들, 및/또는 기능들은 OBC(200)의 특정 컴포넌트들 또는 컴포넌트들의 조합들에 의해 실제로 수행될 수 있다.
[0084] 양상들이 본 명세서에 개시된 프로세스들, 기능들 및/또는 알고리즘들을 수행하기 위한 다양한 방법들을 포함한다는 것이 인식될 것이다. 예컨대, 도 4a 및 도 4b는, 차량으로부터 섹션들 각각까지의 거리 및 섹션들 각각의 요구되는 해상도에 기반하여 카메라 프레임을 상이한 섹션들로 파티셔닝하고 요구되는 해상도에 기반하여 섹션들 각각의 정보를 프로세싱함으로써, 카메라 프레임을 프로세싱하기 위한 방법(400)을 도시한다. 방법은 OBC(200), 프로세서(206), 차량(260), V-UE들(160), UE(104, 190), 또는 도 1에 도시된 다른 UE들과 같은 디바이스에 의해 수행될 수 있다.
[0085] 블록(410)에서, 방법은 차량에 장착된 카메라를 사용하여 카메라 프레임을 캡처한다. 프로세서(206)는 차량(260)이 도로 상에서 이동하는 동안 카메라 프레임에서 차량(260)으로부터의 정면 뷰를 캡처하도록 카메라(212)에 지시할 수 있다. 그러나, 뷰는 차량(260)으로부터의 정면 뷰로 제한되지 않고 측면 및 후면 뷰들을 포함할 수 있다.
[0086] 블록(420)에서, 방법은 카메라로부터 카메라 프레임을 수신한다. 프로세서(206)는 차량(260)의 전방 뷰를 보여주는 카메라 프레임(300)을 카메라(212)로부터 수신할 수 있다.
[0087] 블록(430)에서, 방법은 차량의 포지션, 배향 또는 속도를 결정한다. 프로세서는 차량(260)의 포지션, 배향 또는 속도를 결정하기 위해 GPS 수신기(250) 및 센서(214)를 사용할 수 있다.
[0088] 블록(440)에서, 방법은 차량의 주행가능 경로를 결정한다. 프로세서(206)는 차량(260) 상의 센서들(214) 또는 맵들(202)을 사용하여 차량(260)의 주행가능 경로를 결정할 수 있다.
[0089] 블록(450)에서, 방법은 차량의 주행 가능 경로를 카메라 프레임에 투사한다. 프로세서(206)는 주행가능 경로를 카메라 프레임(300) 상에 투사할 수 있다.
[0090] 블록(460)에서, 방법은 차량의 주행가능 경로를 포함하지 않는 카메라 프레임의 섹션을 결정한다. 프로세서(206)는 섹션들 각각에서 차량(260)의 주행가능 경로의 존재 또는 부재에 기반하여 카메라 프레임(300)을 결정하고 섹션들로 파티셔닝할 수 있다. 프로세서(206)는 섹션들(310 및 320)이 차량(260)의 주행가능 경로를 포함하지 않는다고 결정할 수 있다.
[0091] 블록(470)에서, 방법은 차량의 주행가능 경로를 포함하지 않는 섹션을 폐기한다. 차량(260)의 주행가능 경로를 포함하지 않는 섹션들은 관련 없는 것으로 간주되어 프로세서(206)에 의해 폐기될 수 있다.
[0092] 블록(480)에서, 방법은, 주행가능 경로를 포함하는 카메라 프레임의 일부를 적어도 하나의 섹션으로 파티셔닝하고 분할하며, 파티셔닝 및 분할은 차량으로부터 적어도 하나의 섹션 각각 내의 주행가능 경로까지의 거리에 기반한다. 프로세서(206)는 주행가능 경로를 포함하는 카메라 프레임(300)의 일부를 적어도 하나의 섹션으로 파티셔닝하고 분할하며, 파티셔닝 및 분할은 차량(260)으로부터 섹션들 각각 내의 주행가능 경로까지의 거리에 기반한다.
[0093] 블록(485)에서, 방법은 차량으로부터 적어도 하나의 섹션 각각 내의 주행가능 경로까지의 거리에 기반하여, 적어도 하나의 섹션 각각 내의 정보를 프로세싱하는 데 필요한 요구되는 해상도를 결정한다. 프로세서(206)는 차량(260)으로부터 섹션들 각각 내의 주행가능 경로까지의 거리에 기반하여 섹션들 각각의 요구되는 해상도를 결정할 수 있다.
[0094] 블록(490)에서, 방법은 적어도 하나의 섹션 각각의 요구되는 해상도를 사용하여 적어도 하나의 섹션 각각 내의 정보를 프로세싱한다. 프로세서(206)는 섹션들 각각의 요구되는 해상도를 사용하여 섹션들 각각 내의 정보를 프로세싱할 수 있다.
[0095] 위의 상세한 설명에서, 상이한 특징들이 예들에서 함께 그룹화된다는 것을 알 수 있다. 본 개시내용의 이러한 방식은, 예시적인 조항들이 각각의 조항에 명시적으로 언급된 것보다 더 많은 특징들을 갖는다는 의도로서 이해되지 않아야 한다. 오히려, 본 개시내용의 다양한 양상들은 개시된 개별적인 예시적인 조항의 모든 특징들보다 더 적은 특징들을 포함할 수 있다. 따라서, 다음의 조항들은 본 개시내용에 의해 설명에 포함되는 것으로 간주되어야 하며, 여기서 각각의 조항 그 자체는 별개의 예로서 나타날 수 있다. 각각의 종속 조항이 조항들에서 다른 조항들 중 하나와의 특정 결합을 지칭할 수 있지만, 그 종속 조항의 양상(들)은 특정 결합으로 제한되지 않는다. 다른 예시적인 조항들은 또한, 종속 조항 양상(들)과 임의의 다른 종속 조항 또는 독립 조항의 청구 대상의 조합, 또는 임의의 특징과 다른 종속 및 독립 조항들의 조합을 포함한다는 것이 인지될 것이다. 본원에 개시된 다양한 양상들은, 명시적으로 표현되거나 또는 특정 결합이 의도되지 않는 것으로 쉽게 추론될 수 있지 않는 한(예컨대, 엘리먼트를 절연체 및 전도체 둘 모두로서 정의하는 것과 같은 모순되는 양상들) 이러한 결합들을 명시적으로 포함한다. 더욱이, 어떠한 조항이 임의의 다른 독립 조항에 직접 종속되지 않더라도, 그 조항의 양상들이 그러한 독립 조항에 포함될 수 있다는 것이 또한 의도된다.
[0096] 구현 예들은 다음의 번호가 매겨진 조항들에서 설명된다:
[0097] 조항 1. 모바일 디바이스에서 카메라 프레임을 프로세싱하는 방법은, 도로 상에서 이동하는 차량에 장착된 카메라를 사용하여 카메라 프레임을 캡처하는 단계; 카메라로부터 카메라 프레임을 수신하는 단계; 차량의 주행가능 경로를 결정하는 단계; 주행가능 경로를 카메라 프레임 상에 투사하는 단계; 차량으로부터 적어도 하나의 섹션 각각까지의 거리에 기반하여, 주행가능 경로를 포함하는 카메라 프레임의 일부를 적어도 하나의 섹션으로 파티셔닝하는 단계; 및 차량으로부터 적어도 하나의 섹션 각각까지의 거리에 기반하여 적어도 하나의 섹션 각각의 요구되는 해상도를 결정하는 단계를 포함한다.
[0098] 조항 2. 조항 1의 방법은, 도로의 맵을 사용하여 주행가능 경로를 결정하는 단계를 더 포함한다.
[0099] 조항 3. 조항 1 내지 2 중 어느 한 조항의 방법은: 차량 상의 센서를 사용하여 차량의 주행가능 경로를 결정하는 단계를 더 포함한다.
[0100] 조항 4. 조항 1 내지 조항 3 중 어느 한 조항의 방법은: 주행가능 경로를 포함하지 않는 카메라 프레임의 섹션을 결정하는 단계를 더 포함한다.
[0101] 조항 5. 조항 4의 방법은: 주행가능 경로를 포함하지 않는 카메라 프레임의 섹션을 폐기하는 단계를 더 포함한다.
[0102] 조항 6. 조항 1 내지 조항 5 중 어느 한 조항의 방법은: 요구되는 해상도를 사용하여 적어도 하나의 섹션 각각 내의 정보를 프로세싱하는 단계를 더 포함한다.
[0103] 조항 7. 조항 3 내지 조항 6 중 어느 한 조항의 방법은: 센서를 사용하여 차량의 포지션, 차량의 배향 또는 차량의 속도를 결정하는 단계를 더 포함한다.
[0104] 조항 8. 조항 7의 방법에서, 차량의 주행가능 경로는 차량의 포지션, 차량의 배향 또는 상기 차량의 속도에 기반하여 결정된다.
[0105] 조항 9. 조항 3 내지 조항 8 중 어느 한 조항의 방법에서, 주행가능 경로를 포함하는 카메라 프레임의 일부는 도로의 컨디션 또는 사용자 입력에 기반하여 적어도 하나의 섹션으로 파티셔닝된다.
[0106] 조항 10. 모바일 디바이스는: 메모리; 및 메모리에 통신가능하게 커플링된 프로세서를 포함하고, 프로세서는: 도로 상에서 이동하는 차량에 장착된 카메라로부터 카메라 프레임을 수신하고; 차량의 주행가능 경로를 결정하고; 주행가능 경로를 카메라 프레임 상에 투사하고; 차량으로부터 적어도 하나의 섹션 각각까지의 거리에 기반하여, 주행가능 경로를 포함하는 카메라 프레임의 일부를 적어도 하나의 섹션으로 파티셔닝하고; 그리고 차량으로부터 적어도 하나의 섹션 각각까지의 거리에 기반하여 적어도 하나의 섹션 각각의 요구되는 해상도를 결정하도록 구성된다.
[0107] 조항 11. 조항 10의 모바일 디바이스에서, 프로세서는, 도로의 맵을 사용하여 주행가능 경로를 결정하도록 구성된다.
[0108] 조항 12. 조항 10 내지 조항 11 중 어느 한 조항의 모바일 디바이스에서, 프로세서는 차량 상의 센서를 사용하여 차량의 주행가능 경로를 결정하도록 구성된다.
[0109] 조항 13. 조항 10 내지 조항 12 중 어느 한 조항의 모바일 디바이스에서, 프로세서는, 주행가능 경로를 포함하지 않는 카메라 프레임의 섹션을 결정하도록 구성된다.
[0110] 조항 14. 조항 13의 모바일 디바이스에서, 프로세서는, 주행가능 경로를 포함하지 않는 카메라 프레임의 섹션을 폐기하도록 구성된다.
[0111] 조항 15. 조항 10 내지 조항 14 중 어느 한 조항의 모바일 디바이스에서, 프로세서는, 요구되는 해상도를 사용하여 적어도 하나의 섹션 각각 내의 정보를 프로세싱하도록 구성된다.
[0112] 조항 16. 조항 12 내지 조항 15 중 어느 한 조항의 모바일 디바이스에서, 프로세서는, 센서를 사용하여 차량의 포지션, 차량의 배향 또는 차량의 속도를 결정하도록 추가로 구성된다.
[0113] 조항 17. 조항 16의 모바일 디바이스에서, 차량의 주행가능 경로는 차량의 포지션, 차량의 배향 또는 차량의 속도에 기반하여 결정된다.
[0114] 조항 18. 조항 12 내지 조항 17 중 어느 한 조항의 모바일 디바이스에서, 프로세서는, 주행가능 경로를 포함하는 카메라 프레임의 일부를 도로의 컨디션 또는 사용자 입력에 기반하여 적어도 하나의 섹션으로 파티셔닝하도록 추가로 구성된다.
[0115] 조항 19. 모바일 디바이스는, 도로 상에서 이동하는 차량에 장착된 카메라를 사용하여 카메라 프레임을 캡처하기 위한 수단; 카메라로부터 카메라 프레임을 수신하기 위한 수단; 차량의 주행가능 경로를 결정하기 위한 수단; 주행가능 경로를 카메라 프레임 상에 투사하기 위한 수단; 차량으로부터 적어도 하나의 섹션 각각까지의 거리에 기반하여, 주행가능 경로를 포함하는 카메라 프레임의 일부를 적어도 하나의 섹션으로 파티셔닝하기 위한 수단; 및 차량으로부터 적어도 하나의 섹션 각각까지의 거리에 기반하여 적어도 하나의 섹션 각각의 요구되는 해상도를 결정하기 위한 수단을 포함한다.
[0116] 조항 20. 조항 19의 모바일 디바이스는, 도로의 맵을 사용하여 주행가능 경로를 결정하기 위한 수단을 더 포함한다.
[0117] 조항 21. 조항 19 내지 조항 20 중 어느 한 조항의 모바일 디바이스는: 차량 상의 센서를 사용하여 차량의 주행가능 경로를 결정하기 위한 수단을 더 포함한다.
[0118] 조항 22. 조항 19 내지 조항 21 중 어느 한 조항의 모바일 디바이스는: 주행가능 경로를 포함하지 않는 카메라 프레임의 섹션을 결정하기 위한 수단을 더 포함한다.
[0119] 조항 23. 조항 22의 모바일 디바이스는: 주행가능 경로를 포함하지 않는 카메라 프레임의 섹션을 폐기하기 위한 수단을 더 포함한다.
[0120] 조항 24. 조항 19 내지 조항 23 중 어느 한 조항의 모바일 디바이스는: 요구되는 해상도를 사용하여 적어도 하나의 섹션 각각 내의 정보를 프로세싱하기 위한 수단을 더 포함한다.
[0121] 조항 25. 비-일시적 컴퓨터-판독가능 저장 매체는 코드를 포함하고, 코드는 프로세서에 의해 실행될 때, 프로세서로 하여금, 모바일 디바이스에서 카메라 프레임을 프로세싱하게 하고, 비-일시적 컴퓨터-판독가능 저장 매체는: 도로에서 이동하는 차량에 장착된 카메라를 사용하여 카메라 프레임을 캡처하고; 카메라로부터 카메라 프레임을 수신하고; 차량의 주행가능 경로를 결정하는 단계; 주행가능 경로를 카메라 프레임 상에 투사하고; 차량으로부터 적어도 하나의 섹션 각각까지의 거리에 기반하여, 주행가능 경로를 포함하는 카메라 프레임의 일부를 적어도 하나의 섹션으로 파티셔닝하고; 그리고 차량으로부터 적어도 하나의 섹션 각각까지의 거리에 기반하여 적어도 하나의 섹션 각각의 요구되는 해상도를 결정하기 위한 코드를 포함한다.
[0122] 조항 26. 조항 25의 비-일시적 컴퓨터-판독가능 저장 매체는, 도로의 맵을 사용하여 주행가능 경로를 결정하기 위한 코드를 더 포함한다.
[0123] 조항 27. 조항 25 내지 조항 26 중 어느 한 조항의 비-일시적 컴퓨터-판독가능 저장 매체는: 차량 상의 센서를 사용하여 차량의 주행가능 경로를 결정하기 위한 코드를 더 포함한다.
[0124] 조항 28. 조항 25 내지 조항 27 중 어느 한 조항의 비-일시적 컴퓨터-판독가능 저장 매체는: 주행가능 경로를 포함하지 않는 카메라 프레임의 섹션을 결정하기 위한 코드를 더 포함한다.
[0125] 조항 29. 조항 28의 비-일시적 컴퓨터-판독가능 저장 매체는: 주행가능 경로를 포함하지 않는 카메라 프레임의 섹션을 폐기하기 위한 코드를 더 포함한다.
[0126] 조항 30. 조항 25 내지 조항 29 중 어느 한 조항의 비-일시적 컴퓨터-판독가능 저장 매체는: 요구되는 해상도를 사용하여 적어도 하나의 섹션 각각 내의 정보를 프로세싱하기 위한 코드를 더 포함한다.
[0127] 조항 31. 장치는, 메모리, 트랜시버, 및 메모리 및 트랜시버에 통신 가능하게 커플링된 프로세서를 포함하며, 메모리, 트랜시버, 및 프로세서는 조항 1 내지 30 중 어느 한 조항에 따른 방법을 수행하도록 구성된다.
[0128] 조항 32. 장치는 조항 1 내지 조항 30 중 어느 한 조항에 따른 방법을 수행하기 위한 수단을 포함한다.
[0129] 조항 33. 컴퓨터-실행가능 명령들을 저장하는 비-일시적 컴퓨터-판독가능 매체로서, 컴퓨터-실행가능 명령들은, 컴퓨터 또는 프로세서로 하여금 조항 1 내지 30 중 어느 한 조항에 따른 방법을 수행하게 하기 위한 적어도 하나의 명령을 포함한다.
[0130] 당업자들은, 정보 및 신호들이 다양한 상이한 기법들 및 기술들 중 임의의 기법 및 기술을 사용하여 표현될 수 있다는 것을 인지할 것이다. 예컨대, 상기 설명 전반에 걸쳐 참조될 수 있는 데이터, 명령들, 커맨드들, 정보, 신호들, 비트들, 심볼들 및 칩들은 전압들, 전류들, 전자기파들, 자기 필드들 또는 자기 입자들, 광 필드들 또는 광 입자들, 또는 이들의 임의의 결합으로 표현될 수 있다.
[0131] 추가로, 당업자들은, 본원에 개시된 양상들과 관련하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 회로들, 및 알고리즘 단계들이 전자 하드웨어, 컴퓨터 소프트웨어, 또는 이 둘의 조합들로서 구현될 수 있다는 것을 인지할 것이다. 하드웨어와 소프트웨어의 이러한 상호교환가능성을 명확히 예시하기 위해, 다양한 예시적인 컴포넌트들, 블록들, 모듈들, 회로들, 및 단계들은 그들의 기능 관점들에서 일반적으로 위에서 설명되었다. 그러한 기능이 하드웨어로 구현되는지 또는 소프트웨어로 구현되는지 여부는 특정 애플리케이션 및 전체 시스템에 부과된 설계 제약들에 의존한다. 당업자들은 설명된 기능을 각각의 특정 애플리케이션에 대해 다양한 방식들로 구현할 수 있지만, 이러한 구현 결정들이 본 개시의 범주를 벗어나게 하는 것으로 해석되어서는 안 된다.
[0132] 본원에 개시된 양상들과 관련하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 및 회로들은 범용 프로세서, DSP(digital signal processor), ASIC, FPGA(field-programable gate array), 또는 다른 프로그램가능 로직 디바이스, 이산 게이트 또는 트랜지스터 로직, 이산 하드웨어 컴포넌트들, 또는 본원에서 설명된 기능들을 수행하도록 설계된 이것들의 임의의 조합으로 구현되거나 수행될 수 있다. 범용 프로세서는 마이크로프로세서일 수 있지만, 대안으로 프로세서는 임의의 종래 프로세서, 제어기, 마이크로제어기 또는 상태 머신일 수 있다. 프로세서는 또한 컴퓨팅 디바이스들의 조합, 예를 들어, DSP와 마이크로프로세서의 조합, 복수의 마이크로프로세서들, DSP 코어와 결합된 하나 이상의 마이크로프로세서들, 또는 임의의 다른 그러한 구성으로서 구현될 수 있다.
[0133] 본원에 개시된 양상들과 관련하여 설명된 방법들, 시퀀스들 및/또는 알고리즘들은 직접 하드웨어로, 프로세서에 의해 실행되는 소프트웨어 모듈로, 또는 이 둘의 조합으로 구현될 수 있다. 소프트웨어 모듈은 RAM(random-access memory), 플래쉬 메모리, ROM(read-only memory), EPROM(erasable programmable ROM), EEPROM(electrically erasable programmable ROM), 레지스터들, 하드디스크, 착탈식 디스크, CD-ROM, 또는 업계에 공지된 임의의 다른 형태의 저장 매체에 상주할 수 있다. 예시적인 저장 매체는, 프로세서가 저장 매체로부터 정보를 판독하고, 저장 매체에 정보를 기록할 수 있도록 프로세서에 커플링된다. 대안적으로, 저장 매체는 프로세서에 통합될 수 있다. 프로세서 및 저장 매체는 ASIC에 상주할 수 있다. ASIC는 사용자 단말(예를 들어, UE)에 상주할 수 있다. 대안적으로, 프로세서 및 저장 매체는 사용자 단말에서 이산 컴포넌트들로서 상주할 수 있다.
[0134] 하나 이상의 예시적인 양상들에서, 설명된 기능들은 하드웨어, 소프트웨어, 펌웨어, 또는 이것들의 임의의 조합으로 구현될 수 있다. 소프트웨어로 구현되는 경우, 기능들은 컴퓨터-판독가능 매체 상에 하나 이상의 명령들 또는 코드로서 저장되거나 이를 통해 송신될 수 있다. 컴퓨터-판독가능 매체들은, 일 장소에서 다른 장소로의 컴퓨터 프로그램의 전달을 가능하게 하는 임의의 매체를 포함한 통신 매체들 및 컴퓨터 저장 매체들 둘 모두를 포함한다. 저장 매체는 컴퓨터에 의해 액세스 가능한 임의의 이용가능한 매체일 수 있다. 제한이 아닌 예로서, 그러한 컴퓨터-판독가능 매체들은 RAM, ROM, EEPROM, CD-ROM 또는 다른 광학 디스크 저장부, 자기 디스크 저장부 또는 다른 자기 저장 디바이스들, 또는 명령들 또는 데이터 구조들의 형태로 원하는 프로그램 코드를 반송(carry) 또는 저장하는 데 사용될 수 있고 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있다. 또한, 임의의 연결수단(connection)이 컴퓨터-판독가능 매체로 적절히 지칭된다. 예컨대, 소프트웨어가 동축 케이블, 광섬유 케이블, 연선, DSL(digital subscriber line), 또는 적외선, 라디오 및 마이크로파와 같은 무선 기술들을 사용하여 웹사이트, 서버 또는 다른 원격 소스로부터 전송된다면, 동축 케이블, 광섬유 케이블, 연선, DSL, 또는 적외선, 라디오 및 마이크로파와 같은 무선 기술들이 매체의 정의에 포함된다. 본원에서 사용된 것과 같은 디스크(disk 및 disc)는 CD(compact disc), 레이저 디스크(laser disc), 광 디스크(optical disc), DVD(digital versatile disc), 플로피 디스크(floppy disk) 및 블루레이 디스크(Blu-Ray disc)를 포함하며, 여기서 디스크(disk)들은 보통 데이터를 자기적으로 재생하는 한편, 디스크(disc)들은 데이터를 레이저들에 의해 광학적으로 재생한다. 상기한 것들의 조합들이 또한 컴퓨터-판독가능 매체들의 범위 내에 포함되어야 한다.
[0135] 전술한 개시내용이 본 개시내용의 예시적인 양상들을 나타내지만, 다양한 변화들 및 수정들이 첨부된 청구항들에 의해 정의된 바와 같은 본 개시내용의 범위를 벗어나지 않으면서 본원에서 행해질 수 있다는 것이 주목되어야 한다. 본원에서 설명된 본 개시내용의 양상들에 따른 방법 청구항들의 기능들, 단계들 및/또는 액션들은 임의의 특정한 순서로 수행될 필요가 없다. 또한, 본 개시의 엘리먼트들이 단수로 설명 또는 청구될 수 있지만, 단수에 대한 한정이 명시적으로 언급되지 않으면 복수가 고려된다.

Claims (30)

  1. 모바일 디바이스에서 카메라 프레임을 프로세싱하는 방법으로서,
    도로 상에서 이동하는 차량에 장착된 카메라를 사용하여 상기 카메라 프레임을 캡처하는 단계;
    상기 카메라로부터 상기 카메라 프레임을 수신하는 단계;
    상기 차량의 주행가능 경로(drivable path)를 결정하는 단계;
    상기 주행가능 경로를 상기 카메라 프레임 상에 투사하는 단계;
    상기 주행가능 경로를 포함하는 상기 카메라 프레임의 일부를 적어도 하나의 섹션으로 파티셔닝하는 단계 ― 상기 파티셔닝하는 단계는 상기 차량으로부터 상기 적어도 하나의 섹션 각각까지의 거리에 기반함 ―; 및
    상기 차량으로부터 상기 적어도 하나의 섹션 각각까지의 거리에 기반하여 상기 적어도 하나의 섹션 각각의 요구되는 해상도를 결정하는 단계를 포함하는,
    모바일 디바이스에서 카메라 프레임을 프로세싱하는 방법.
  2. 제1 항에 있어서,
    상기 도로의 맵(map)을 사용하여 상기 주행가능 경로를 결정하는 단계를 더 포함하는,
    모바일 디바이스에서 카메라 프레임을 프로세싱하는 방법.
  3. 제1 항에 있어서,
    상기 차량 상의 센서를 사용하여 상기 차량의 상기 주행가능 경로를 결정하는 단계를 더 포함하는,
    모바일 디바이스에서 카메라 프레임을 프로세싱하는 방법.
  4. 제1 항에 있어서,
    상기 주행가능 경로를 포함하지 않는 상기 카메라 프레임의 섹션을 결정하는 단계를 더 포함하는,
    모바일 디바이스에서 카메라 프레임을 프로세싱하는 방법.
  5. 제4 항에 있어서,
    상기 주행가능 경로를 포함하지 않는 상기 카메라 프레임의 섹션을 폐기하는 단계를 더 포함하는,
    모바일 디바이스에서 카메라 프레임을 프로세싱하는 방법.
  6. 제1 항에 있어서,
    상기 요구되는 해상도를 사용하여 상기 적어도 하나의 섹션 각각 내의 정보를 프로세싱하는 단계를 더 포함하는,
    모바일 디바이스에서 카메라 프레임을 프로세싱하는 방법.
  7. 제3 항에 있어서,
    상기 센서를 사용하여 상기 차량의 포지션, 상기 차량의 배향 또는 상기 차량의 속도를 결정하는 단계를 더 포함하는,
    모바일 디바이스에서 카메라 프레임을 프로세싱하는 방법.
  8. 제7 항에 있어서,
    상기 차량의 주행가능 경로는 상기 차량의 포지션, 상기 차량의 배향 또는 상기 차량의 속도에 기반하여 결정되는,
    모바일 디바이스에서 카메라 프레임을 프로세싱하는 방법.
  9. 제3 항에 있어서,
    상기 주행가능 경로를 포함하는 상기 카메라 프레임의 일부는 상기 도로의 컨디션 또는 사용자 입력에 기반하여 상기 적어도 하나의 섹션으로 파티셔닝되는,
    모바일 디바이스에서 카메라 프레임을 프로세싱하는 방법.
  10. 모바일 디바이스로서,
    메모리; 및
    상기 메모리에 통신가능하게 커플링된 프로세서를 포함하며,
    상기 프로세서는:
    도로 상에서 이동하는 차량에 장착된 카메라로부터 카메라 프레임을 수신하고;
    상기 차량의 주행가능 경로를 결정하고;
    상기 주행가능 경로를 상기 카메라 프레임 상에 투사하고;
    상기 주행가능 경로를 포함하는 상기 카메라 프레임의 일부를 적어도 하나의 섹션으로 파티셔닝하고 ― 상기 파티셔닝은, 상기 차량으로부터 상기 적어도 하나의 섹션 각각까지의 거리에 기반함 ―; 그리고
    상기 차량으로부터 상기 적어도 하나의 섹션 각각까지의 거리에 기반하여 상기 적어도 하나의 섹션 각각의 요구되는 해상도를 결정하도록 구성되는,
    모바일 디바이스.
  11. 제10 항에 있어서,
    상기 프로세서는,
    상기 도로의 맵을 사용하여 상기 주행가능 경로를 결정하도록 구성되는,
    모바일 디바이스.
  12. 제10 항에 있어서,
    상기 프로세서는,
    상기 차량 상의 센서를 사용하여 상기 차량의 상기 주행가능 경로를 결정하도록 구성되는,
    모바일 디바이스.
  13. 제10 항에 있어서,
    상기 프로세서는,
    상기 주행가능 경로를 포함하지 않는 상기 카메라 프레임의 섹션을 결정하도록 구성되는,
    모바일 디바이스.
  14. 제13 항에 있어서,
    상기 프로세서는,
    상기 주행가능 경로를 포함하지 않는 상기 카메라 프레임의 섹션을 폐기하도록 구성되는,
    모바일 디바이스.
  15. 제10 항에 있어서,
    상기 프로세서는, 상기 요구되는 해상도를 사용하여 상기 적어도 하나의 섹션 각각 내의 정보를 프로세싱하도록 구성되는,
    모바일 디바이스.
  16. 제12 항에 있어서,
    상기 프로세서는, 상기 센서를 사용하여 상기 차량의 포지션, 상기 차량의 배향 또는 상기 차량의 속도를 결정하도록 추가로 구성되는,
    모바일 디바이스.
  17. 제16 항에 있어서,
    상기 차량의 주행가능 경로는 상기 차량의 포지션, 상기 차량의 배향 또는 상기 차량의 속도에 기반하여 결정되는,
    모바일 디바이스.
  18. 제12 항에 있어서,
    상기 프로세서는, 상기 주행가능 경로를 포함하는 상기 카메라 프레임의 일부를 상기 도로의 컨디션 또는 사용자 입력에 기반하여 상기 적어도 하나의 섹션으로 파티셔닝하도록 추가로 구성되는,
    모바일 디바이스.
  19. 모바일 디바이스로서,
    도로 상에서 이동하는 차량에 장착된 카메라를 사용하여 카메라 프레임을 캡처하기 위한 수단;
    상기 카메라로부터 상기 카메라 프레임을 수신하기 위한 수단;
    상기 차량의 주행가능 경로를 결정하기 위한 수단;
    상기 주행가능 경로를 상기 카메라 프레임 상에 투사하기 위한 수단;
    상기 주행가능 경로를 포함하는 상기 카메라 프레임의 일부를 적어도 하나의 섹션으로 파티셔닝하기 위한 수단 ― 상기 파티셔닝은, 상기 차량으로부터 상기 적어도 하나의 섹션 각각까지의 거리에 기반함 ―; 및
    상기 차량으로부터 상기 적어도 하나의 섹션 각각까지의 거리에 기반하여 상기 적어도 하나의 섹션 각각의 요구되는 해상도를 결정하기 위한 수단을 포함하는,
    모바일 디바이스.
  20. 제19 항에 있어서,
    상기 도로의 맵을 사용하여 상기 주행가능 경로를 결정하기 위한 수단을 더 포함하는,
    모바일 디바이스.
  21. 제19 항에 있어서,
    상기 차량 상의 센서를 사용하여 상기 차량의 주행가능 경로를 결정하기 위한 수단을 더 포함하는,
    모바일 디바이스.
  22. 제19 항에 있어서,
    상기 주행가능 경로를 포함하지 않는 상기 카메라 프레임의 섹션을 결정하기 위한 수단을 더 포함하는,
    모바일 디바이스.
  23. 제22 항에 있어서,
    상기 주행가능 경로를 포함하지 않는 상기 카메라 프레임의 섹션을 폐기하기 위한 수단을 더 포함하는,
    모바일 디바이스.
  24. 제19 항에 있어서,
    상기 요구되는 해상도를 사용하여 상기 적어도 하나의 섹션 각각 내의 정보를 프로세싱하기 위한 수단을 더 포함하는,
    모바일 디바이스.
  25. 코드를 포함하는 비-일시적 컴퓨터-판독가능 저장 매체로서,
    상기 코드는 프로세서에 의해 실행될 때, 상기 프로세서로 하여금 모바일 디바이스에서 카메라 프레임을 프로세싱하게 하고, 상기 비-일시적 컴퓨터-판독가능 저장 매체는:
    도로 상에서 이동하는 차량에 장착된 카메라를 사용하여 상기 카메라 프레임을 캡처하고;
    상기 카메라로부터 상기 카메라 프레임을 수신하고;
    상기 차량의 주행가능 경로(drivable path)를 결정하고;
    상기 주행가능 경로를 상기 카메라 프레임 상에 투사하고;
    상기 주행가능 경로를 포함하는 상기 카메라 프레임의 일부를 적어도 하나의 섹션으로 파티셔닝하고 ― 상기 파티셔닝은, 상기 차량으로부터 상기 적어도 하나의 섹션 각각까지의 거리에 기반함 ―; 그리고
    상기 차량으로부터 상기 적어도 하나의 섹션 각각까지의 거리에 기반하여 상기 적어도 하나의 섹션 각각의 요구되는 해상도를 결정하기 위한 코드를 포함하는,
    비-일시적 컴퓨터-판독가능 저장 매체.
  26. 제25 항에 있어서,
    상기 도로의 맵을 사용하여 상기 주행가능 경로를 결정하기 위한 코드를 더 포함하는,
    비-일시적 컴퓨터-판독가능 저장 매체.
  27. 제25 항에 있어서,
    상기 차량 상의 센서를 사용하여 상기 차량의 상기 주행가능 경로를 결정하기 위한 코드를 더 포함하는,
    비-일시적 컴퓨터-판독가능 저장 매체.
  28. 제25 항에 있어서,
    상기 주행가능 경로를 포함하지 않는 상기 카메라 프레임의 섹션을 결정하기 위한 코드를 더 포함하는,
    비-일시적 컴퓨터-판독가능 저장 매체.
  29. 제28 항에 있어서,
    상기 주행가능 경로를 포함하지 않는 상기 카메라 프레임의 섹션을 폐기하기 위한 코드를 더 포함하는,
    비-일시적 컴퓨터-판독가능 저장 매체.
  30. 제25 항에 있어서,
    상기 요구되는 해상도를 사용하여 상기 적어도 하나의 섹션 각각 내의 정보를 프로세싱하기 위한 코드를 더 포함하는,
    비-일시적 컴퓨터-판독가능 저장 매체.
KR1020247008482A 2021-09-21 2022-08-04 자동차들을 위한 고해상도 카메라 시스템 KR20240065078A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US17/480,570 2021-09-21
US17/480,570 US20230086818A1 (en) 2021-09-21 2021-09-21 High resolution camera system for automotive vehicles
PCT/US2022/074514 WO2023049550A1 (en) 2021-09-21 2022-08-04 High resolution camera system for automotive vehicles

Publications (1)

Publication Number Publication Date
KR20240065078A true KR20240065078A (ko) 2024-05-14

Family

ID=83362409

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020247008482A KR20240065078A (ko) 2021-09-21 2022-08-04 자동차들을 위한 고해상도 카메라 시스템

Country Status (5)

Country Link
US (1) US20230086818A1 (ko)
KR (1) KR20240065078A (ko)
CN (1) CN117980970A (ko)
TW (1) TW202315428A (ko)
WO (1) WO2023049550A1 (ko)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW200922816A (en) * 2007-11-30 2009-06-01 Automotive Res & Amp Testing Ct Method and device for detecting the lane deviation of vehicle
WO2016183074A1 (en) * 2015-05-10 2016-11-17 Mobileye Vision Technologies Ltd. Road profile along a predicted path
EP3433131B1 (en) * 2016-03-23 2023-07-12 Netradyne, Inc. Advanced path prediction
CN105799594B (zh) * 2016-04-14 2019-03-12 京东方科技集团股份有限公司 一种图像显示的方法、车载显示装置、遮阳板及汽车
US10776665B2 (en) * 2018-04-26 2020-09-15 Qualcomm Incorporated Systems and methods for object detection
US11518384B2 (en) * 2018-12-07 2022-12-06 Thinkware Corporation Method for displaying lane information and apparatus for executing the method
US11472442B2 (en) * 2020-04-23 2022-10-18 Zoox, Inc. Map consistency checker

Also Published As

Publication number Publication date
CN117980970A (zh) 2024-05-03
US20230086818A1 (en) 2023-03-23
TW202315428A (zh) 2023-04-01
WO2023049550A1 (en) 2023-03-30

Similar Documents

Publication Publication Date Title
US11472405B2 (en) Method and apparatus related to intra-lane position data indicative of a lateral distance to a lane reference point
US11754669B2 (en) Radar coordination for multi-radar coexistence
US11808843B2 (en) Radar repeaters for non-line-of-sight target detection
US11582582B2 (en) Position estimation of a pedestrian user equipment
US20200119775A1 (en) Method and apparatus for controlling multi-antenna of vehicle in autonomous driving system
US20210311183A1 (en) Vehicle request for sensor data with sensor data filtering condition
US20230247386A1 (en) Ranging assisted pedestrian localization
US20230086818A1 (en) High resolution camera system for automotive vehicles
CN117480825A (zh) 用户设备发起的侧链路定位资源配置的选择
US20240053170A1 (en) Positioning operation based on filtered map data
US20230091064A1 (en) Sensor data sharing for automotive vehicles
WO2024039931A1 (en) Positioning operation based on filtered map data
US20240019251A1 (en) User interface-assisted vehicle positioning
KR20240073010A (ko) 자동차들에 대한 센서 데이터 공유
US20240012139A1 (en) Radar repeaters for non-line-of-sight target detection
CN118043696A (zh) 用于测距规程的传感器数据