KR102366944B1 - 조감 시점 영상을 생성하는 방법 및 장치 - Google Patents

조감 시점 영상을 생성하는 방법 및 장치 Download PDF

Info

Publication number
KR102366944B1
KR102366944B1 KR1020200073341A KR20200073341A KR102366944B1 KR 102366944 B1 KR102366944 B1 KR 102366944B1 KR 1020200073341 A KR1020200073341 A KR 1020200073341A KR 20200073341 A KR20200073341 A KR 20200073341A KR 102366944 B1 KR102366944 B1 KR 102366944B1
Authority
KR
South Korea
Prior art keywords
vehicle
bird
eye view
area
view image
Prior art date
Application number
KR1020200073341A
Other languages
English (en)
Other versions
KR20210156360A (ko
Inventor
이준석
전병찬
이지혜
하정목
Original Assignee
(주)베이다스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)베이다스 filed Critical (주)베이다스
Priority to KR1020200073341A priority Critical patent/KR102366944B1/ko
Priority to CN202110514457.4A priority patent/CN113808013A/zh
Priority to DE102021205154.5A priority patent/DE102021205154B4/de
Publication of KR20210156360A publication Critical patent/KR20210156360A/ko
Application granted granted Critical
Publication of KR102366944B1 publication Critical patent/KR102366944B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4007Interpolation-based scaling, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/0006Affine transformations
    • G06T3/02
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Abstract

조감 시점 영상을 생성하기 위해, 차량에 설치된 복수의 카메라들을 이용하여 현재 시각에 대한 복수의 영상들을 생성하고, 복수의 영상들에 기초하여 홀 영역을 갖는 현재 시각에 대한 초기 조감 시점 영상을 생성하고, 이전 시각으로부터 현재 시각까지 차량이 이동한 이동 정보에 기초하여 이전 시각에 대한 이전 조감 시점 영상 상에서 현재 시각에 차량이 위치하는 타겟 영역을 결정하고, 타겟 영역에 기초하여 초기 조감 시점 영상의 홀 영역의 적어도 일부를 채움으로써 현재 시각에 대한 조감 시점 영상을 생성한다.

Description

조감 시점 영상을 생성하는 방법 및 장치{APPRATUS AND METHOD FOR GENERATING BIRD VIEWPOINT IMAGE}
아래의 실시예들은, 차량의 운행 중에 조감 시점 영상을 생성하는 기술에 관한 것이다.
영상 촬영 및 처리 기술의 발달에 따라, 최근에 생산된 차량에는 카메라가 탑재되고, 차량의 주행을 보조하기 위한 조감 시점 시스템이 사용자 또는 차량에게 제공된다. 조감 시점 시스템은 복수의 카메라들이 촬영한 영상들을 이용하여 조감 시점 영상 또는 탑뷰 영상을 생성할 수 있다. 조감 시점 영상은 하늘에서 차량을 내려다보는 것과 같은 화면을 운전자에게 제공할 수 있어 차량의 전방, 후방, 좌측, 및 우측의 사각을 완전히 제거할 수 있다.
일 실시예는 조감 시점 영상을 생성하는 방법 및 장치를 제공할 수 있다.
다른 일 실시예는 차량이 위치하는 영역의 바닥이 나타나는 조감 시점 영상을 생성하는 방법 및 장치를 제공할 수 있다.
일 실시예에 따른, 전자 장치에 의해 수행되는, 조감 시점 영상 생성 방법은, 차량에 설치된 복수의 카메라들을 이용하여 현재 시각에 대한 복수의 영상들을 생성하는 단계, 상기 복수의 영상들에 기초하여 상기 현재 시각에 대한 초기 조감 시점 영상을 생성하는 단계 - 상기 초기 조감 시점 영상은 홀 영역을 가짐 -, 이전 시각으로부터 상기 현재 시각까지 상기 차량이 이동한 이동 정보를 생성하는 단계, 상기 이동 정보에 기초하여 상기 이전 시각에 대한 이전 조감 시점 영상 상에서 상기 현재 시각에 상기 차량이 위치하는 타겟 영역을 결정하는 단계, 및 상기 타겟 영역에 기초하여 상기 초기 조감 시점 영상의 상기 홀 영역의 적어도 일부를 채움으로써 상기 현재 시각에 대한 조감 시점 영상을 생성하는 단계를 포함한다.
상기 초기 조감 시점 영상의 상기 홀 영역은, 상기 현재 시각에서 상기 차량이 위치한 영역을 포함할 수 있다.
상기 초기 조감 시점 영상의 상기 홀 영역은, 상기 복수의 카메라들의 시야각(viewing angle)에서 벗어난 영역에 대응할 수 있다.
상기 이동 정보를 생성하는 단계는, 상기 차량의 핸들의 조향 각도 및 상기 차량의 속도를 수신하는 단계, 상기 조향 각도 및 상기 속도에 기초하여 상기 차량의 타겟 바퀴의 회전 각도 및 상기 타겟 바퀴의 실제 이동 거리를 계산하는 단계, 및 상기 실제 이동 거리를 조감 시점의 영상 평면의 스케일로 변환함으로써 타겟 이동 거리를 계산하는 단계를 포함하고, 상기 이동 정보는 상기 회전 각도 및 상기 타겟 이동 거리를 포함할 수 있다.
상기 이동 정보에 기초하여 상기 타겟 영역을 결정하는 단계는, 상기 이동 정보에 기초하여 상기 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 단계, 및 계산된 상기 차량의 상기 가로 축으로 이동한 거리, 상기 세로 축으로 이동한 거리 및 상기 구심점에 대해 상기 회전한 각도에 기초하여, 상기 이전 조감 시점 영상 상에서 상기 현재 시각에 상기 차량이 위치하는 영역을 상기 타겟 영역으로 결정하는 단계를 포함할 수 있다.
상기 이동 정보에 기초하여 상기 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 단계는, 애커먼 장토식(Ackerman-Jantoud type)을 통해 상기 이동 정보에 기초하여 상기 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 단계를 포함할 수 있다.
상기 이동 정보에 기초하여 상기 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 단계는, 상기 차량의 타겟 바퀴의 회전 각도에 기초하여 미리 설정된 가상의 중앙 바퀴의 회전 각도를 계산하는 단계, 상기 차량의 트랙(track) 길이, 상기 차량의 휠 베이스(wheelbase) 길이 및 상기 중앙 바퀴의 상기 회전 각도에 기초하여 상기 구심점을 결정하는 단계, 상기 타겟 바퀴의 실제 이동 거리에 기초하여 상기 중앙 바퀴의 실제 이동 거리를 계산하는 단계, 및 상기 구심점 및 상기 중앙 바퀴의 실제 이동 거리에 기초하여 상기 차량이 상기 조감 시점의 영상 평면 상에서 상기 가로 축으로 이동한 거리, 상기 세로 축으로 이동한 거리 및 상기 구심점에 대해 회전한 각도를 계산하는 단계를 포함할 수 있다.
상기 타겟 영역에 기초하여 상기 초기 조감 시점 영상의 상기 홀 영역의 적어도 일부를 채움으로써 상기 현재 시각에 대한 조감 시점 영상을 생성하는 단계는, 상기 타겟 영역 중 상기 이전 조감 시점 영상 상에서 상기 이전 시각에 상기 차량이 위치하는 영역을 제외한 부분 타겟 영역을 차량 영역 영상에 누적시키는 단계, 상기 현재 시각에서 상기 차량이 위치하는 영역을 상기 차량 영역 영상 상에서 복사 영역으로 결정하는 단계, 및 상기 복사 영역을 상기 초기 조감 시점 영상의 상기 홀 영역의 적어도 일부에 복사함으로써 상기 조감 시점 영상을 생성하는 단계를 포함할 수 있다.
상기 타겟 영역 중 상기 이전 조감 시점 영상 상에서 상기 이전 시각에 상기 차량이 위치하는 영역을 제외한 부분 타겟 영역을 차량 영역 영상에 누적시키는 단계는, 기준 시각으로부터 상기 이전 시각 까지의 상기 차량의 누적 회전 각도를 계산하는 단계, 상기 타겟 영역 중 상기 이전 조감 시점 영상 상에서 상기 이전 시각에 상기 차량이 위치하는 영역을 제외한 부분 타겟 영역을 생성하는 단계, 상기 누적 회전 각도에 대응하도록 상기 부분 타겟 영역을 회전시키는 단계, 및 상기 회전된 부분 타겟 영역을 상기 차량 영역 영상의 중심으로 이동시킴으로써 상기 부분 타겟 영역을 상기 차량 영역 영상에 누적시키는 단계를 포함할 수 있다.
상기 전자 장치는, 자율 주행 차량 또는 ADAS(Advanced Driver Assistance Systems)을 지원하는 차량에 탑재될 수 있다.
다른 일 측면에 따른, 조감 시점 영상을 생성하는 전자 장치는, 조감 시점 영상을 생성하는 프로그램을 수행하는 프로세서, 및 상기 프로그램을 저장하는 메모리를 포함하고, 상기 프로그램은, 차량에 설치된 복수의 카메라들을 이용하여 현재 시각에 대한 복수의 영상들을 생성하는 단계, 상기 복수의 영상들에 기초하여 상기 현재 시각에 대한 초기 조감 시점 영상을 생성하는 단계 - 상기 초기 조감 시점 영상은 홀 영역을 가짐 -, 이전 시각으로부터 상기 현재 시각까지 상기 차량이 이동한 이동 정보를 생성하는 단계, 상기 이동 정보에 기초하여 상기 이전 시각에 대한 이전 조감 시점 영상 상에서 상기 현재 시각에 상기 차량이 위치하는 타겟 영역을 결정하는 단계, 및 상기 타겟 영역에 기초하여 상기 초기 조감 시점 영상의 상기 홀 영역의 적어도 일부를 채움으로써 상기 현재 시각에 대한 조감 시점 영상을 생성하는 단계를 수행한다.
상기 전자 장치는, 상기 복수의 영상들을 생성하는 복수의 카메라들을 더 포함할 수 있다.
상기 이동 정보를 생성하는 단계는, 상기 차량의 핸들의 조향 각도 및 상기 차량의 속도를 수신하는 단계, 상기 조향 각도 및 상기 속도에 기초하여 상기 차량의 타겟 바퀴의 회전 각도 및 상기 타겟 바퀴의 실제 이동 거리를 계산하는 단계, 및 상기 실제 이동 거리를 조감 시점의 영상 평면의 스케일로 변환함으로써 타겟 이동 거리를 계산하는 단계를 포함하고, 상기 이동 정보는 상기 회전 각도 및 상기 타겟 이동 거리를 포함할 수 있다.
상기 이동 정보에 기초하여 상기 타겟 영역을 결정하는 단계는, 상기 이동 정보에 기초하여 상기 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 단계, 및 계산된 상기 차량의 상기 가로 축으로 이동한 거리, 상기 세로 축으로 이동한 거리 및 상기 구심점에 대해 상기 회전한 각도에 기초하여, 상기 이전 조감 시점 영상 상에서 상기 현재 시각에 상기 차량이 위치하는 영역을 상기 타겟 영역으로 결정하는 단계를 포함할 수 있다.
상기 이동 정보에 기초하여 상기 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 단계는, 상기 차량의 타겟 바퀴의 회전 각도에 기초하여 미리 설정된 가상의 중앙 바퀴의 회전 각도를 계산하는 단계, 상기 차량의 트랙(track) 길이, 상기 차량의 휠 베이스(wheelbase) 길이 및 상기 중앙 바퀴의 상기 회전 각도에 기초하여 상기 구심점을 결정하는 단계, 상기 타겟 바퀴의 실제 이동 거리에 기초하여 상기 중앙 바퀴의 실제 이동 거리를 계산하는 단계, 및 상기 구심점 및 상기 중앙 바퀴의 실제 이동 거리에 기초하여 상기 차량이 상기 조감 시점의 영상 평면 상에서 상기 가로 축으로 이동한 거리, 상기 세로 축으로 이동한 거리 및 상기 구심점에 대해 회전한 각도를 계산하는 단계를 포함할 수 있다.
상기 전자 장치는, 자율 주행 차량 또는 ADAS(Advanced Driver Assistance Systems)을 지원하는 차량에 탑재될 수 있다.
조감 시점 영상을 생성하는 방법 및 장치가 제공될 수 있다.
차량이 위치하는 영역의 바닥이 나타나는 조감 시점 영상을 생성하는 방법 및 장치가 제공될 수 있다.
도 1은 일 예에 따른 운행하는 차량에 대한 조감 시점의 뷰를 도시한다.
도 2는 일 예에 따른 홀 영역을 포함하는 초기 조감 시점 영상이다.
도 3은 일 실시예에 따른 전자 장치의 구성도이다.
도 4는 일 예에 따른 조감 시점 영상을 생성하는 방법의 흐름도이다.
도 5는 일 예에 따른 이전 시각에 대한 초기 이전 조감 시점 영상 및 현재 시각에 대한 초기 조감 시점 영상이다.
도 6은 일 예에 따른 이전 시각으로부터 현재 시각까지 차량이 이동한 이동 정보를 생성하는 방법의 흐름도이다.
도 7은 일 예에 따른 이전 조감 시점 영상 상에서 결정된 현재 시각에 차량이 위치하는 타겟 영역을 도시한다.
도 8은 일 예에 따른 이동 정보에 기초하여 이전 조감 시점 영상 상에서 현재 시각에 차량이 위치하는 타겟 영역을 결정하는 방법의 흐름도이다.
도 9는 일 예에 따른 이동 정보에 기초하여 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 방법의 흐름도이다.
도 10은 일 예에 따른 이동 정보에 기초하여 구심점을 결정하는 방법을 도시한다.
도 11은 일 예에 따른 가상의 중앙 바퀴를 이용하여 차량이 구심점에 대해 회전한 각도를 계산하는 방법을 도시한다.
도 12는 일 예에 따른 차량이 구심점에 대해 회전한 각도에 기초하여 상기 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리를 계산하는 방법을 도시한다.
도 13은 일 예에 따른 타겟 영역에 기초하여 초기 조감 시점 영상의 홀 영역의 적어도 일부를 채움으로써 현재 시각에 대한 조감 시점 영상을 생성하는 방법의 흐름도이다.
도 14는 일 예에 따른 타겟 영역 중 이전 조감 시점 영상 상에서 이전 시각에 차량이 위치하는 영역을 제외한 부분 타겟 영역을 차량 영역 영상에 누적시키는 방법의 흐름도이다.
도 15는 일 예에 따른 부분 타겟 영역을 누적 회전 각도에 대응하도록 회전시키는 방법을 도시한다.
도 16은 일 예에 따른 회전된 부분 타겟 영역을 차량 영역 영상의 중심으로 이동시키는 방법을 도시한다.
도 17은 일 예에 따른 차량 영역 영상 상에서 결정된 복사 영역에 기초하여 현재 시각에 대한 조감 시점 영상을 생성하는 방법을 도시한다.
도 18은 일 예에 따른 차량 영역 영상이다.
도 19는 일 예에 따른 차량 영역 영상 상에서 결정된 복사 영역 및 복사 영역을 이용하여 생성된 조감 시점 영상을 도시한다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
또한, 실시 예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.
어느 하나의 실시 예에 포함된 구성요소와, 공통적인 기능을 포함하는 구성요소는, 다른 실시 예에서 동일한 명칭을 사용하여 설명하기로 한다. 반대되는 기재가 없는 이상, 어느 하나의 실시 예에 기재한 설명은 다른 실시 예에도 적용될 수 있으며, 중복되는 범위에서 구체적인 설명은 생략하기로 한다.
도 1은 일 예에 따른 운행하는 차량에 대한 조감 시점의 뷰를 도시하고, 도 2는 일 예에 따른 홀 영역을 포함하는 초기 조감 시점 영상이다.
운행하는 차량(110)이 조감 시점에서 관찰될 수 있다면, 차량(110)의 주변 상황에 대해 많은 정보들이 획득될 수 있다. 예를 들어, 차량(110)의 주변에 위치하는 차량들 간의 위치 관계, 차량들의 속도 및 장애물 등이 정보로서 획득될 수 있다.
차랑(110)을 조감 시점에서 관찰하기 위해서는 영상을 생성하는 카메라가 차량(110)의 상부에 위치하여여 하나, 이러한 방식은 현실적으로 이용되기 어렵다. 이에 따라, 차량(110)에 설치된 카메라들을 이용하여 차량의 측면들을 촬영하고, 촬영된 영상들을 조감 시점으로 변환하고, 조감 시점으로 변환된 영상들을 합성함으로써 차량(110)에 대한 조감 시점 영상을 생성하는 방법이 고려될 수 있다. 차량(110)의 사용자에게 복수의 영상들 또는 조감 시점 영상을 제공하는 시스템은 AVM(Around View Monitoring) 시스템일 수 있다.
다만, 차량(110)의 측면들을 촬영한 영상들에 기초하여 생성된 초기 조감 시점 영상(200)은, 아래의 도 2와 같이 카메라들의 시야각(viewing angle)에서 벗어난 영역인 차량(110)의 영역에 대해서는 홀 영역(210)을 나타내게 된다. 홀 영역(210)은 영상 내의 해당 픽셀에 픽셀 값의 정보가 없는 영역이다.
홀 영역(210)에 의해 조감 시점 영상 내에 발생하는 부자연스러운 단절은 사용자에게 실제 주행 환경과의 거리감을 느끼게 한다. 일 측면에 따르면, 홀 영역(210)을 채우는 방법으로서 홀 영역(210)에 대응하는 영역을 이전 조감 시점 영상에서 결정하고, 결정된 영역에 기초하여 홀 영역(210)을 채우는 방법이 고려될 수 있다. 홀 영역(210)을 채우는 방법은 TVC(Transparent Vehicle Chassis) 기술에 기초할 수 있다. TVC기술은 홀 영역(210)을 이전 시각의 영상을 이용하여 재구성하는 경우 이러한 단절감이 해소될 수 있다.
또한, TVC 기술을 적용하여 조감 시점 영상을 생성하면 차량에 의해 가려지는 도로의 바닥 면이 영상에 나타난다. 사용자는 조감 시점 영상을 통해 속도 제한, 어린이 보호 구역 표시 등의 노면 표시 정보를 추가적으로 파악할 수 있다. 특히, 사용자가 주차를 하는 동안 주차선의 전체를 실시간으로 파악할 수 있으므로 주차가 가능할 수 있다. 구체적으로, 사용자가 차량의 바닥 면을 파악할 수 있으므로 주차선, 주차 표시 등과 같은 주차 공간 내의 정보를 정확하게 파악할 수 있는 효과가 나타난다.
아래에서 도 3 내지 도 19를 참조하여 초기 조감 시점 영상의 홀 영역을 채움으로써 조감 시점 영상을 생성하는 방법에 대해, 상세히 설명된다.
도 3은 일 실시예에 따른 전자 장치의 구성도이다.
일 측면에 따른, 전자 장치(300)는 통신부(310), 프로세서(320), 메모리(330) 및 카메라(340)를 포함한다. 전자 장치(300)는 차량 내에 포함될 수 있다. 예를 들어, 전자 장치(300)는 ECU(electronic control unit)와 같은 장치일 수 있다. 다른 예로, 전자 장치(300)는 ECU와 연결된 독립적인 장치일 수 있다.
통신부(310)는 프로세서(320), 메모리(330) 및 카메라(340)와 연결되어 데이터를 송수신한다. 통신부(310)는 외부의 다른 장치와 연결되어 데이터를 송수신할 수 있다. 이하에서 "A"를 송수신한다라는 표현은 "A를 나타내는 정보(information) 또는 데이터"를 송수신하는 것을 나타낼 수 있다.
통신부(310)는 전자 장치(300) 내의 회로망(circuitry)으로 구현될 수 있다. 예를 들어, 통신부(310)는 내부 버스(internal bus) 및 외부 버스(external bus)를 포함할 수 있다. 다른 예로, 통신부(310)는 전자 장치(300)와 외부의 장치를 연결하는 요소일 수 있다. 통신부(310)는 인터페이스(interface)일 수 있다. 통신부(310)는 외부의 장치로부터 데이터를 수신하여, 프로세서(320) 및 메모리(330)에 데이터를 전송할 수 있다.
프로세서(320)는 통신부(310)가 수신한 데이터 및 메모리(330)에 저장된 데이터를 처리한다. "프로세서"는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.
프로세서(320)는 메모리(예를 들어, 메모리(330))에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(320)에 의해 유발된 인스트럭션들을 실행한다.
메모리(330)는 통신부(310)가 수신한 데이터 및 프로세서(320)가 처리한 데이터를 저장한다. 예를 들어, 메모리(330)는 프로그램(또는 어플리케이션, 소프트웨어)을 저장할 수 있다. 저장되는 프로그램은 조감 시점 영상을 생성할 수 있도록 코딩되어 프로세서(320)에 의해 실행 가능한 신텍스(syntax)들의 집합일 수 있다.
일 측면에 따르면, 메모리(330)는 하나 이상의 휘발성 메모리, 비휘발성 메모리 및 RAM(Random Access Memory), 플래시 메모리, 하드 디스크 드라이브 및 광학 디스크 드라이브를 포함할 수 있다.
메모리(330)는 전자 장치(300)를 동작 시키는 명령어 세트(예를 들어, 소프트웨어)를 저장한다. 전자 장치(300)를 동작 시키는 명령어 세트는 프로세서(320)에 의해 실행된다.
카메라(340)는 장면을 촬영함으로써 영상을 생성한다. 카메라(340)는 복수의 카메라들을 포함할 수 있다. 예를 들어, 복수의 카메라들은 차량의 전방, 후방, 좌측 및 우측에 각각 배치될 수 있다.
통신부(310), 프로세서(320), 메모리(330) 및 카메라(340)에 대해, 아래에서 도 4 내지 도 19를 참조하여 상세히 설명된다.
도 4는 일 예에 따른 조감 시점 영상을 생성하는 방법의 흐름도이다.
아래의 단계들(410 내지 450)은 도 3을 참조하여 전술된 전자 장치(300)에 의해 수행된다.
단계(410)에서, 전자 장치(300)는 차량에 설치된 복수의 카메라들을 이용하여 현재 시각에 대한 복수의 영상들을 생성한다. 복수의 카메라들의 각각은 연속적으로 영상을 생성할 수 있다. 예를 들어, 제1 카메라에 의해 가장 최근에 생성된 영상이 현재 시각에 대한 영상이고, 그 이전에 생성된 영상이 이전 시각에 대한 영상일 수 있다. 복수의 카메라들의 촬영 주기가 동기화됨으로써 동일한 시각에 대해 복수의 영상들이 생성될 수 있다.
단계(420)에서, 전자 장치(300)는 복수의 영상들에 기초하여 현재 시각에 대한 초기 조감 시점 영상을 생성한다. 복수의 영상들은 차량 자체에 대한 영상 정보를 포함하지 않으므로, 초기 조감 시점 영상은 차량 영역에 대응하는 홀 영역을 가진다. 즉, 홀 영역은 현재 시각에서 차량이 위치한 영역을 포함한다. 홀 영역은 복수의 카메라들의 시야각(viewing angle)에서 벗어난 영역에 대응한다. 초기 조감 시점 영상 내에서 차량 영역은 모든 시각에 대해 일정함으로, 초기 조감 시점 영상 내의 홀 영역은 ROI(Region of Interest)로 설정될 수 있다.
조감 시점 영상을 생성하기 위해서는 복수의 카메라들이 촬영한 복수의 영상들이 병합되어야 한다. 복수의 영상들을 병합하기 위해서는 영상들의 좌표계가 일치되어야 한다. 다시 말하자면, 복수의 영상들을 차량에 대해 미리 설정된 공통 좌표계로 각각 변환시킴으로써 부분 조감 시점 영상들을 생성하고, 부분 조감 시점 영상들을 병합함으로써 초기 조감 시점 영상이 생성될 수 있다. 예를 들어, 각 영상을 와핑(warping)함으로써 부분 조감 시점 영상이 생성될 수 있다.
일 측면에 따르면, 정확한 조감 시점 영상을 생성하기 위해서는 복수의 카메라들이 주기적, 또는 충격 시 마다 캘리브레이션되어야 할 수 있다. 복수의 카메라들을 캘리브레이션하는 방법에 대해서는 한정되지 않고, 다양한 방법들이 이용될 수 있다.
도 5을 참조하면, 일 예에 따른 이전 시각에 생성된 조감 시점 영상(510) 및 현재 시각에 생성된 초기 조감 시점 영상(522)이 도시된다. 이전 시각은 가장 최근에 생성된 조감 시점 영상(510)이 생성된 시각(이하에서, 가장 최근에 생성된 조감 시점 영상은 "이전 조감 시점 영상"으로 명명됨) 또는 이전 조감 시점 영상(510)의 기초가 되는 복수의 영상들이 생성된 시각을 의미한다. 도시된 이전 조감 시점 영상(510)은 이전 시각에 차량이 위치하는 영역(512)을 포함한다. 현재 시각을 기준으로 영역(512)은 정보가 채워진 영역일 수 있다. 초기 조감 시점 영상(520)은 현재 시각에 차량이 위치하는 영역(522)을 포함한다. 현재 시각을 기준으로 영역(522)은 정보가 채워지지 않은 홀 영역일 수 있다.
일 측면에 따르면, TVC 기술을 하드웨어적으로 구현할 때, 주요하게 고려되는 점은 메모리의 효율적 사용이다. 조감 시점 영상은 비교적 많은 메모리의 공간을 사용한다. 이전 조감 시점 영상과 현재 조감 시점 영상 전체를 저장하는 경우 메모리 사용의 효율성이 떨어지고, 프로그램의 동작 속도도 느리게 된다. 이에 따라, 이전 조감 시점 영상을 저장하는 메모리 영역과 현재 조감 시점 영상을 저장하는 메모리 영역을 공유하는 경우 프로그램의 동작 효율성이 증가할 수 있다.
단계(430)에서, 전자 장치(300)는 이전 시각으로부터 현재 시각까지 차량이 이동한 이동 정보를 생성한다. 일 측면에 따르면, 이전 시각으로부터 현재 시각까지 차량의 핸들의 조향 각도 및 차량의 속도가 획득되고, 이에 기초하여 조감 시점의 영상 평면의 스케일 상에서 차량이 이동한 이동 정보가 생성될 수 있다. 차량의 이동 정보를 생성하는 방법에 대해, 아래에서 도 6을 참조하여 상세히 설명된다.
다른 일 측면에 따르면, 이전 시각으로부터 현재 시각까지 차량의 바퀴의 회전 각도 및 바퀴의 실제 이동 거리가 이동 정보로서 제공될 수 있다. 예를 들어, 바퀴에 부착된 적어도 하나의 센서에 기초하여 바퀴의 회전 각도 및 실제 이동 거리가 직접 측정될 수 있다.
단계(440)에서, 전자 장치(300)는 이동 정보에 기초하여 이전 조감 시점 영상 상에서 현재 시각에 차량이 위치하는 타겟 영역을 결정한다. 도 7을 참조하면, 이동 정보에 기초하여 이전 조감 시점 영상(510) 상에서 현재 시각에 차량이 위치하는 타겟 영역(710)이 결정된다. 예를 들어, 이전 조감 시점 영상(510) 상에서 이전 시각에 차량이 위치하는 영역(512)으로부터 이동 정보에 대응하는 이동량 만큼 이동한 영역이 타겟 영역(710)으로 결정될 수 있다.
타겟 영역을 결정하는 방법에 대해 아래에서 도 8 내지 12를 참조하여 상세히 설명된다.
단계(450)에서, 전자 장치(300)는 타겟 영역에 기초하여 초기 조감 시점 영상의 홀 영역의 적어도 일부를 채움으로써 현재 시각에 대한 조감 시점 영상을 생성한다. 현재 시각에 대한 조감 시점 영상을 생성하는 방법에 대해, 아래에서 도 13 내지 19를 참조하여 상세히 설명된다.
도 6은 일 예에 따른 이전 시각으로부터 현재 시각까지 차량이 이동한 이동 정보를 생성하는 방법의 흐름도이다.
일 측면에 따르면, 도 4를 참조하여 전술된 단계(430)는 아래의 단계들(610 내지 630)을 포함할 수 있다.
단계(610)에서, 전자 장치(300)는 차량의 핸들의 조향 각도 및 차량의 속도를 수신한다. 예를 들어, 차량 내에는 CAN(Controller Area Network)가 설치되어 있고, CAN 장치를 통해 차량의 핸들의 조향 각도 및 차량의 속도가 생성될 수 있다. 전자 장치(300)는 CAN 장치로부터 차량의 핸들의 조향 각도 및 차량의 속도를 수신할 수 있다.
단계(620)에서, 전자 장치(300)는 핸들의 조향 각도 및 차량의 속도에 기초하여 차량의 타겟 바퀴의 회전 각도 및 타겟 바퀴의 실제 이동 거리를 계산한다.
예를 들어, 핸들에 의해 회전하는 바퀴가 앞 바퀴들인 경우, 핸들의 조향 각도에 미리 설정된 계수를 곱하여 타겟 바퀴인 앞 바퀴들 각각에 대한 회전 각도들이 계산될 수 있다.
예를 들어, 속도 및 이전 시각과 현재 시각 간의 차이(이하에서, 이전 시각과 현재 시각 간의 차이는 "타겟 시간")에 기초하여 타겟 시간 동안 타겟 바퀴 또는 차량이 이동한 실제 이동 거리가 계산될 수 있다.
단계(630)에서, 전자 장치(300)는 타겟 바퀴의 실제 이동 거리를 조감 시점의 영상 평면의 스케일로 변환함으로써 타겟 이동 거리가 계산된다. 예를 들어, 실제 이동 거리에 미리 설정된 값을 곱함으로써 타겟 이동 거리가 계산될 수 있다. 예를 들어, 1m가 조감 시점의 영상 평면 상의 100개의 픽셀들의 길이에 대응하고, 실제 이동 거리가 50cm인 경우, 계산된 타겟 이동 거리는 50개의 픽셀들의 길이에 대응할 수 있다.
이동 정보는 생성된 타겟 바퀴의 회전 각도 및 타겟 이동 거리를 포함한다. 다시 말하자면, 이동 정보는 이전 시각으로부터 현재 시각까지 조감 시점의 영상 평면 상에서 차량이 이동한 정보이다.
도 8은 일 예에 따른 이동 정보에 기초하여 이전 조감 시점 영상 상에서 현재 시각에 차량이 위치하는 타겟 영역을 결정하는 방법의 흐름도이다.
일 측면에 따르면, 도 4를 참조하여 전술된 단계(440)는 아래의 단계들(810 및 820)를 포함할 수 있다.
단계(810)에서, 전자 장치(300)는 이동 정보에 기초하여 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산한다.
일 측면에 따르면, 이동 정보에 기초하여 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하기 위해, 애커먼 장토식(Ackerman-Jantoud type)이 이용될 수 있다.
차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 방법에 대해 아래에서 도 9 내지 12를 참조하여 상세히 설명된다.
단계(820)에서, 전자 장치(300)는 차량의 가로 축으로 이동한 거리(제1 거리), 새로 축으로 이동한 거리(제2 거리) 및 구심점에 대해 회전한 각도(타겟 각도)에 기초하여 이전 조감 시점 영상 상에서 현재 시각에 차량이 위치하는 영역을 타겟 영역으로 결정한다.
도 7을 참조한 예에서, 차량의 가로 축으로 이동한 거리, 새로 축으로 이동한 거리 및 구심점에 대해 회전한 각도에 기초하여 이전 조감 시점 영상(510) 상에서 현재 시각에 차량이 위치하는 영역(710)을 타겟 영역으로 결정한다. 이전 시각에 차량이 위치하는 영역(512)에서 차량의 중심이 가로 축으로 제1 거리를 이동하고, 세로 축으로 제2 거리를 이동하고, 구심점에 대해 타겟 각도로 회전한 영역이 현재 시각에 차량이 위치하는 영역(710)일 수 있다.
도 9는 일 예에 따른 이동 정보에 기초하여 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 방법의 흐름도이다.
일 측면에 따르면, 도 8을 참조하여 전술된 단계(810)는 아래의 단계들(910 내지 940)를 포함할 수 있다.
단계(910)에서, 전자 장치(300)는 차량의 타겟 바퀴의 회전 각도에 기초하여 미리 설정된 가상의 중앙 바퀴의 회전 각도를 계산한다.
예를 들어, 중앙 바퀴는 앞 바퀴들을 직선으로 연결하는 축 상에 위치하는 것으로 미리 설정될 수 있다. 구체적으로, 중앙 바퀴는 상기의 축의 중앙에 위치할 수 있으나, 기재된 실시예로 한정되지 않는다. 또 다른 예로, 중앙 바퀴는 중앙 바퀴는 좌측 앞 바퀴 또는 우측 앞 바퀴로 미리 설정될 수 있다.
앞 바퀴들 간의 중앙 위치하는 것으로 중앙 바퀴가 미리 설정되는 경우, 앞 바퀴들 각각의 회전 각도들의 평균이 중앙 바퀴의 회전 각도로 계산될 수 있다.
단계(920)에서, 전자 장치(300)는 차량의 트랙(track) 길이, 휠 베이스(wheelbase) 길이 및 중앙 바퀴의 회전 각도에 기초하여 구심점을 결정한다.
도 10을 참조한 예에서, 차량(1000)의 트랙 길이(1004), 휠 베이스 길이(1005) 및 중앙 바퀴(1003)의 회전 각도(θM)에 기초하여 구심점(1030)이 결정된다. 중앙 바퀴(1003)는 타겟 바퀴들(1001 및 1002)에 기초하여 미리 설정될 수 있다. 예를 들어, 중앙 바퀴의 회전 각도(θM)는 중앙 바퀴가 정렬된 상태에서 회전된 각도일 수 있다. 회전된 중앙 바퀴(1003)의 중심 축을 연장한 가상의 직선(1020)과 뒷 바퀴들의 축을 연장한 가상의 직선(1010)의 교점이 구심점(1030)으로 결정된다. 중앙 바퀴(1003)와 뒷 바퀴들(1001 및 1002)의 뒤축이 만나는 점(예를 들어, 뒤축의 중앙)과 구심점(1030) 간의 거리는 참조 길이(1040)일 수 있다.
단계(930)에서, 전자 장치(300)는 타겟 바퀴의 실제 이동 거리에 기초하여 중앙 바퀴의 실제 이동 거리를 계산한다.
앞 바퀴들 간의 중앙 위치하는 것으로 중앙 바퀴가 미리 설정되는 경우, 앞 바퀴들 각각의 실제 이동 거리들의 평균이 중앙 바퀴의 실제 이동 거리로 계산될 수 있다.
단계(940)에서, 전자 장치(300)는 구심점 및 중앙 바퀴의 실제 이동 거리에 기초하여 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산한다.
도 11을 참조하여 도시된 예에서, 이전 시각의 차량(1000)의 중앙 바퀴(1003)를 구심점(1030)을 중심으로 실제 이동 거리를 이동시킴으로써 현재 시각의 차량(1110)의 중앙 바퀴(1103)의 위치가 결정될 수 있다. 중앙 바퀴(1103)의 위치에 기초하여 중앙 바퀴(1103)의 이동 각도(dθ)가 결정될 수 있다.
도 11을 참조하여 도시된 이전 시각의 차량(1000) 및 현재 시각의 차량(1110) 간의 위치 관계가 차량의 중심을 기준으로 도12를 참조하여 표현된다. 차량(1000)의 중심 위치(1210) 및 차량(1110)의 중심 위치(1220)가 결정된다. 구심점(1030)을 중심으로 뒤축과 중심 위치(1210) 간의 각도(θC)가 결정되고, 구심점(1030)을 중심으로 중심 위치(1210) 및 중심 위치(1220) 간의 각도(dθ)가 결정된다. 중심 위치(1210) 및 중심 위치(1220) 간의 각도(dθ)는 도 11의 이동 각도(dθ)와 동일하다. 중심 위치(1210) 및 중심 위치(1220) 간의 가로 축 거리(1230) 및 세로 축 거리(1240)가 결정된다.
차량(1110)의 가로 축으로 이동한 거리(1230) 및 세로 축으로 이동한 거리(1240) 및 구심점(1030)에 대해 회전한 각도(dθ)에 기초하여 이전 조감 시점 영상(510) 상에서 현재 시각에 차량이 위치하는 영역(710)을 타겟 영역으로 결정된다.
도 13은 일 예에 따른 타겟 영역에 기초하여 초기 조감 시점 영상의 홀 영역의 적어도 일부를 채움으로써 현재 시각에 대한 조감 시점 영상을 생성하는 방법의 흐름도이다.
일 측면에 따르면, 도 4를 참조하여 전술된 단계(450)는 아래의 단계들(1310 내지 1330)을 포함할 수 있다.
단계(1310)에서, 전자 장치(300)는 타겟 영역 중 이전 조감 시점 영상 상에서 이전 시각에 차량이 위치하는 영역을 제외한 부분 타겟 영역을 차량 영역 영상에 누적시킨다. 차량 영역 영상은 각 시각의 차량 영역에 대응하는 영역들 만을 누적시킨 영상일 수 있다. 차량 영역 영상의 중심은 시각이 변화할 때마다 변화할 수 있다. 예를 들어, 이전 시각에 대한 차량 영역 영상의 중심이 가로 축으로 이동한 거리(1230) 및 세로 축으로 이동한 거리(1240)에 기초하여 이동할 수 있다. 이에 따라, 현재 시각의 차량 영역이 차량 영역 영상의 중심에 위치할 수 있다.
일 측면에 따르면, 차량 영역 영상을 저장하기 위한 영역이 메모리(330) 상에 미리 설정될 수 있다.
부분 타겟 영역을 차량 영역 영상에 누적시키는 방법에 대해, 아래에서 도 14 내지 16을 참조하여 상세히 설명된다.
단계(1320)에서, 전자 장치(300)는 현재 시각에서 차량이 위치하는 영역을 차량 영역 영상 상에서 복사 영역으로 결정한다. 도 17을 참조한 예에서, 차량 영역 영상(1600) 상에서 현재 시각에서 차량이 위치하는 영역이 복사 영역(1710)으로 결정된다.
단계(1330)에서, 전자 장치(300)는 복사 영역을 초기 조감 시점 영상의 홀 영역의 적어도 일부에 복사함으로써 조감 시점 영상을 생성한다. 도 17을 참조하는 예에서, 복사 영역(1710)을 초기 조감 시점 영상(520)의 홀 영역(522)의 적어도 일부에 복사함으로써 현재 시각에 대한 조감 시점 영상을 생성한다.
도 14는 일 예에 따른 타겟 영역 중 이전 조감 시점 영상 상에서 이전 시각에 차량이 위치하는 영역을 제외한 부분 타겟 영역을 차량 영역 영상에 누적시키는 방법의 흐름도이다.
일 측면에 따르면, 도 13를 참조하여 전술된 단계(1310)는 아래의 단계들(1410 내지 1440)을 포함할 수 있다.
단계(1410)에서, 전자 장치(300)는 기준 시각으로부터 이전 시각까지의 차량의 누적 회전 각도를 계산한다. 예를 들어, 기준 시각은 차량 영역 영상이 생성되기 시작한 초기 시각일 수 있다. 제1 시각 및 제2 시각 사이의 차량의 제1 회전 각도가 계산되고, 제2 시각 및 제3 시각 사이의 차량의 제2 회전 각도가 계산되고, 기준 시각이 제1 시각이고, 이전 시각이 제3 시각인 경우, 제1 회전 각도 및 제2 회전 각도의 합이 누적 회전 각도로 계산될 수 있다.
단계(1420)에서, 전자 장치(300)는 타겟 영역 중 이전 조감 시점 영상 상에서 이전 시각에 차량이 위치하는 영역을 제외한 부분 타겟 영역을 생성한다.
도 15를 참조한 예에서, 타겟 영역(710) 중 이전 조감 시점 영상(510) 상에서 이전 시각에 차량이 위치하는 차량 영역(1510)을 제외한 부분 타겟 영역(1520)을 생성한다. 차량 영역(1510)에 정보가 없는 것처럼 도시되었으나, 이전 조감 시점 영상(510)의 영역(1510)은 이전 시각에서의 차량 영역 영상에 기초하여 미리 채워질 수 있다. 이에 따라, 현재 시각에서의 차량 영역 영상은 이전 시각에 차량이 위치하는 영역에 대한 정보를 이미 포함할 수 있으므로, 처리되는 데이터의 양을 감소시키기 위해 타겟 영역 중 이전 조감 시점 영상 상에서 이전 시각에 차량이 위치하는 영역을 제외시킬 수 있다.
단계(1430)에서, 전자 장치(300)는 차량의 누적 회전 각도에 대응하도록 부분 타겟 영역을 회전시킨다.
도 15를 참조한 예에서, 이전 시각에 대한 차량 영역 영상(1530)의 중심을 기준으로 누적 회전 각도(θacc)에 대응하도록 부분 타겟 영역(1520)이 회전된다.
단계(1440)에서, 전자 장치(300)는 회전된 부분 타겟 영역을 차량 영역 영상에 누적시킨다. 부분 타겟 영역이 누적된 차량 영역 영상의 중심이 부분 타겟 영상의 중심으로 이동될 수 있다. 현재 시각에 대한 부분 타겟 영역이 누적된 차량 영역 영상은 현재 시각에 대해 생성된 영상일 수 있다.
도 16을 참조한 예에서, 이전 시각에 대한 차량 영역 영상(1530)에 회전된 부분 타겟 영역(1520)을 누적시킴으로써 예비 차량 영역 영상이 생성된다. 예비 차량 영역 영상의 중심을 부분 타겟 영역(1520)의 중심으로 이동시킴으로써 현재 시각에 대한 차량 영역 영상(1600)이 생성된다.
단계(1440)가 수행된 후, 도 13을 참조하여 전술된 단계들(1320 및 1330)이 수행될 수 있다.
도 17을 참조한 예에서, 단계(1320)를 통해 현재 시각에서 차량이 위치하는 영역이 차량 영역 영상(1600) 상에서 복사 영역(1710)로 결정된다. 복사 영역(1710)은 부분 타겟 영역(1520)을 포함할 수 있다. 복사 영역(1710) 중 부분 타겟 영역(1520)에 포함되지 않는 영역은 현재 시각의 이전 시각들에서 복사된 영역일 수 있다.
단계(1330)를 통해 복사 영역(1710)이 초기 조감 시점 영상(520)의 홀 영역(522)의 적어도 일부에 복사함으로써 조감 시점 영상을 생성한다.
도 18은 일 예에 따른 차량 영역 영상이다.
도시된 차량 영역 영상(1800)은 초기 시각으로부터 현재 시각까지 연속적으로 생성된 부분 타겟 영역들이 누적된 영상일 수 있다. 다시 말하자면, 차량 영역 영상(1800)은 차량이 이동한 바닥 영역에 대한 영상일 수 있다.
도 19는 일 예에 따른 차량 영역 영상 상에서 결정된 복사 영역 및 복사 영역을 이용하여 생성된 조감 시점 영상을 도시한다.
현재 시각에서 차량이 위치하는 영역이 차량 영역 영상(1800) 상에서 복사 영역(1910)으로 결정된다. 복사 영역(1910)이 초기 조감 시점 영상(200)의 홀 영역(210)의 적어도 일부에 복사됨으로써 조감 시점 영상이 생성된다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.
300: 전자 장치
310: 통신부
320: 프로세서
330: 메모리
340: 카메라

Claims (17)

  1. 전자 장치에 의해 수행되는, 조감 시점 영상 생성 방법은,
    차량에 설치된 복수의 카메라들을 이용하여 현재 시각에 대한 복수의 영상들을 생성하는 단계;
    상기 복수의 영상들에 기초하여 상기 현재 시각에 대한 초기 조감 시점 영상을 생성하는 단계 - 상기 초기 조감 시점 영상은 홀 영역을 가짐 -;
    이전 시각으로부터 상기 현재 시각까지 상기 차량이 이동한 이동 정보를 생성하는 단계;
    상기 이동 정보에 기초하여 상기 이전 시각에 대한 이전 조감 시점 영상 상에서 상기 현재 시각에 상기 차량이 위치하는 타겟 영역을 결정하는 단계; 및
    상기 타겟 영역에 기초하여 상기 초기 조감 시점 영상의 상기 홀 영역의 적어도 일부를 채움으로써 상기 현재 시각에 대한 조감 시점 영상을 생성하는 단계
    를 포함하고,
    상기 타겟 영역에 기초하여 상기 초기 조감 시점 영상의 상기 홀 영역의 적어도 일부를 채움으로써 상기 현재 시각에 대한 조감 시점 영상을 생성하는 단계는,
    기준 시각으로부터 상기 이전 시각 까지의 상기 차량의 누적 회전 각도를 계산하는 단계;
    상기 타겟 영역 중 상기 이전 조감 시점 영상 상에서 상기 이전 시각에 상기 차량이 위치하는 영역을 제외한 부분 타겟 영역을 생성하는 단계;
    상기 누적 회전 각도에 대응하도록 상기 부분 타겟 영역을 회전시키는 단계;
    상기 회전된 부분 타겟 영역을 차량 영역 영상에 누적시키는 단계;
    상기 현재 시각에서 상기 차량이 위치하는 영역을 상기 차량 영역 영상 상에서 복사 영역으로 결정하는 단계; 및
    상기 복사 영역을 상기 초기 조감 시점 영상의 상기 홀 영역의 적어도 일부에 복사함으로써 상기 조감 시점 영상을 생성하는 단계
    를 포함하는,
    조감 시점 영상 생성 방법.
  2. 제1항에 있어서,
    상기 초기 조감 시점 영상의 상기 홀 영역은, 상기 현재 시각에서 상기 차량이 위치한 영역을 포함하는,
    조감 시점 영상 생성 방법.
  3. 제1항에 있어서,
    상기 초기 조감 시점 영상의 상기 홀 영역은, 상기 복수의 카메라들의 시야각(viewing angle)에서 벗어난 영역에 대응하는,
    조감 시점 영상 생성 방법.
  4. 제1항에 있어서,
    상기 이동 정보를 생성하는 단계는,
    상기 차량의 핸들의 조향 각도 및 상기 차량의 속도를 수신하는 단계;
    상기 조향 각도 및 상기 속도에 기초하여 상기 차량의 타겟 바퀴의 회전 각도 및 상기 타겟 바퀴의 실제 이동 거리를 계산하는 단계; 및
    상기 실제 이동 거리를 조감 시점의 영상 평면의 스케일로 변환함으로써 타겟 이동 거리를 계산하는 단계
    를 포함하고,
    상기 이동 정보는 상기 회전 각도 및 상기 타겟 이동 거리를 포함하는,
    조감 시점 영상 생성 방법.
  5. 제4항에 있어서,
    상기 이동 정보에 기초하여 상기 타겟 영역을 결정하는 단계는,
    상기 이동 정보에 기초하여 상기 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 단계; 및
    계산된 상기 차량의 상기 가로 축으로 이동한 거리, 상기 세로 축으로 이동한 거리 및 상기 구심점에 대해 상기 회전한 각도에 기초하여, 상기 이전 조감 시점 영상 상에서 상기 현재 시각에 상기 차량이 위치하는 영역을 상기 타겟 영역으로 결정하는 단계
    를 포함하는,
    조감 시점 영상 생성 방법.
  6. 제5항에 있어서,
    상기 이동 정보에 기초하여 상기 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 단계는,
    애커먼 장토식(Ackerman-Jantoud type)을 통해 상기 이동 정보에 기초하여 상기 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 단계
    를 포함하는,
    조감 시점 영상 생성 방법.
  7. 제5항에 있어서,
    상기 이동 정보에 기초하여 상기 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 단계는,
    상기 차량의 타겟 바퀴의 회전 각도에 기초하여 미리 설정된 가상의 중앙 바퀴의 회전 각도를 계산하는 단계;
    상기 차량의 트랙(track) 길이, 상기 차량의 휠 베이스(wheelbase) 길이 및 상기 중앙 바퀴의 상기 회전 각도에 기초하여 상기 구심점을 결정하는 단계;
    상기 타겟 바퀴의 실제 이동 거리에 기초하여 상기 중앙 바퀴의 실제 이동 거리를 계산하는 단계; 및
    상기 구심점 및 상기 중앙 바퀴의 실제 이동 거리에 기초하여 상기 차량이 상기 조감 시점의 영상 평면 상에서 상기 가로 축으로 이동한 거리, 상기 세로 축으로 이동한 거리 및 상기 구심점에 대해 회전한 각도를 계산하는 단계
    를 포함하는,
    조감 시점 영상 생성 방법.
  8. 삭제
  9. 삭제
  10. 제1항에 있어서,
    상기 전자 장치는, 자율 주행 차량 또는 ADAS(Advanced Driver Assistance Systems)을 지원하는 차량에 탑재되는,
    조감 시점 영상 생성 방법.
  11. 제1항 내지 제7항, 및 제10항 중 어느 한 항의 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.
  12. 조감 시점 영상을 생성하는 전자 장치는,
    조감 시점 영상을 생성하는 프로그램을 수행하는 프로세서; 및
    상기 프로그램을 저장하는 메모리
    를 포함하고,
    상기 프로그램은,
    차량에 설치된 복수의 카메라들을 이용하여 현재 시각에 대한 복수의 영상들을 생성하는 단계;
    상기 복수의 영상들에 기초하여 상기 현재 시각에 대한 초기 조감 시점 영상을 생성하는 단계 - 상기 초기 조감 시점 영상은 홀 영역을 가짐 -;
    이전 시각으로부터 상기 현재 시각까지 상기 차량이 이동한 이동 정보를 생성하는 단계;
    상기 이동 정보에 기초하여 상기 이전 시각에 대한 이전 조감 시점 영상 상에서 상기 현재 시각에 상기 차량이 위치하는 타겟 영역을 결정하는 단계; 및
    상기 타겟 영역에 기초하여 상기 초기 조감 시점 영상의 상기 홀 영역의 적어도 일부를 채움으로써 상기 현재 시각에 대한 조감 시점 영상을 생성하는 단계
    를 수행하고,
    상기 초기 조감 시점 영상의 상기 홀 영역은, 상기 현재 시각에서 상기 차량이 위치한 영역을 포함하는,
    전자 장치.
  13. 제12항에 있어서,
    상기 복수의 영상들을 생성하는 복수의 카메라들
    을 더 포함하는,
    전자 장치.
  14. 제12항에 있어서,
    상기 이동 정보를 생성하는 단계는,
    상기 차량의 핸들의 조향 각도 및 상기 차량의 속도를 수신하는 단계;
    상기 조향 각도 및 상기 속도에 기초하여 상기 차량의 타겟 바퀴의 회전 각도 및 상기 타겟 바퀴의 실제 이동 거리를 계산하는 단계; 및
    상기 실제 이동 거리를 조감 시점의 영상 평면의 스케일로 변환함으로써 타겟 이동 거리를 계산하는 단계
    를 포함하고,
    상기 이동 정보는 상기 회전 각도 및 상기 타겟 이동 거리를 포함하는,
    전자 장치.
  15. 제14항에 있어서,
    상기 이동 정보에 기초하여 상기 타겟 영역을 결정하는 단계는,
    상기 이동 정보에 기초하여 상기 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 단계; 및
    계산된 상기 차량의 상기 가로 축으로 이동한 거리, 상기 세로 축으로 이동한 거리 및 상기 구심점에 대해 상기 회전한 각도에 기초하여, 상기 이전 조감 시점 영상 상에서 상기 현재 시각에 상기 차량이 위치하는 영역을 상기 타겟 영역으로 결정하는 단계
    를 포함하는,
    전자 장치.
  16. 제15항에 있어서,
    상기 이동 정보에 기초하여 상기 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 단계는,
    상기 차량의 타겟 바퀴의 회전 각도에 기초하여 미리 설정된 가상의 중앙 바퀴의 회전 각도를 계산하는 단계;
    상기 차량의 트랙(track) 길이, 상기 차량의 휠 베이스(wheelbase) 길이 및 상기 중앙 바퀴의 상기 회전 각도에 기초하여 상기 구심점을 결정하는 단계;
    상기 타겟 바퀴의 실제 이동 거리에 기초하여 상기 중앙 바퀴의 실제 이동 거리를 계산하는 단계; 및
    상기 구심점 및 상기 중앙 바퀴의 실제 이동 거리에 기초하여 상기 차량이 상기 조감 시점의 영상 평면 상에서 상기 가로 축으로 이동한 거리, 상기 세로 축으로 이동한 거리 및 상기 구심점에 대해 회전한 각도를 계산하는 단계
    를 포함하는,
    전자 장치.
  17. 제12항에 있어서,
    상기 전자 장치는, 자율 주행 차량 또는 ADAS(Advanced Driver Assistance Systems)을 지원하는 차량에 탑재되는,
    전자 장치.
KR1020200073341A 2020-06-17 2020-06-17 조감 시점 영상을 생성하는 방법 및 장치 KR102366944B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020200073341A KR102366944B1 (ko) 2020-06-17 2020-06-17 조감 시점 영상을 생성하는 방법 및 장치
CN202110514457.4A CN113808013A (zh) 2020-06-17 2021-05-11 生成鸟瞰视点图像的方法及装置
DE102021205154.5A DE102021205154B4 (de) 2020-06-17 2021-05-20 Vorrichtung und verfahren zum erzeugen eines vogelperspektive-bilds

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200073341A KR102366944B1 (ko) 2020-06-17 2020-06-17 조감 시점 영상을 생성하는 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20210156360A KR20210156360A (ko) 2021-12-27
KR102366944B1 true KR102366944B1 (ko) 2022-02-28

Family

ID=78823289

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200073341A KR102366944B1 (ko) 2020-06-17 2020-06-17 조감 시점 영상을 생성하는 방법 및 장치

Country Status (3)

Country Link
KR (1) KR102366944B1 (ko)
CN (1) CN113808013A (ko)
DE (1) DE102021205154B4 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101378337B1 (ko) * 2012-10-30 2014-03-27 주식회사 이미지넥스트 카메라의 영상 처리 장치 및 방법

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101555343B1 (ko) * 2010-01-18 2015-10-07 현대모비스 주식회사 도로의 곡률반경 산출방법
US10576892B2 (en) 2016-03-24 2020-03-03 Ford Global Technologies, Llc System and method for generating a hybrid camera view in a vehicle
KR101954199B1 (ko) * 2016-12-09 2019-05-17 엘지전자 주식회사 차량용 어라운드 뷰 모니터링 장치, 운행 제어 장치 및 차량
KR102285424B1 (ko) * 2017-04-05 2021-08-04 엘지이노텍 주식회사 차량의 사각영역 표시장치 및 그 표시방법
DE102018207976A1 (de) 2018-05-22 2019-11-28 Continental Automotive Gmbh Verfahren und Vorrichtung zum Anzeigen einer Fahrzeugumgebung

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101378337B1 (ko) * 2012-10-30 2014-03-27 주식회사 이미지넥스트 카메라의 영상 처리 장치 및 방법

Also Published As

Publication number Publication date
DE102021205154B4 (de) 2023-07-27
CN113808013A (zh) 2021-12-17
KR20210156360A (ko) 2021-12-27
DE102021205154A1 (de) 2021-12-23

Similar Documents

Publication Publication Date Title
KR102275310B1 (ko) 자동차 주변의 장애물 검출 방법
US11282164B2 (en) Depth-guided video inpainting for autonomous driving
JP6486045B2 (ja) 車載カメラのオンライン較正のためのシステム、車両及び方法
US11318930B2 (en) Parking assistance device and parking assistance method
WO2015001054A2 (en) Vehicle control system
JP2019131149A (ja) 車両制御装置及びその制御方法並びに車両制御システム
JP2010151619A (ja) 制御装置
CN105818763A (zh) 一种确定车辆周围物体距离的方法、装置及系统
CN108174089B (zh) 基于双目摄像头的倒车影像拼接方法和装置
CN111160070A (zh) 车辆全景图像盲区消除方法、装置、存储介质及终端设备
US20230016335A1 (en) Dynamically modifiable map
KR102366944B1 (ko) 조감 시점 영상을 생성하는 방법 및 장치
US20210405651A1 (en) Adaptive sensor control
CN111402132B (zh) 倒车辅助方法及系统、图像处理器及相应的辅助驾驶系统
KR20210003325A (ko) 복수의 카메라들을 캘리브레이션하는 방법 및 장치
WO2022052508A1 (zh) 一种测距方法、装置、终端设备和汽车
CN114290995B (zh) 透明a柱的实现方法、装置、汽车及介质
KR20230031550A (ko) 카메라 자세 결정 및 그 방법을 수행하는 전자 장치
WO2020223868A1 (zh) 地面信息处理方法、装置和无人驾驶车辆
KR102529835B1 (ko) 차량의 운행 정보와 관련된 그래픽 객체 출력 방법 및 장치
KR20140088779A (ko) 차량의 후방 모니터링 장치 및 방법
GB2580400A (en) A control system, system and method for providing assistance to an occupant of a vehicle
KR102119678B1 (ko) 차선 검출 방법 및 그 방법을 수행하는 전자 장치
CN111942288B (zh) 车辆影像系统及使用车辆影像的车辆定位方法
KR102638116B1 (ko) 주차를 위한 차량 제어 방법 및 장치

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant