KR20210156360A - Appratus and method for generating bird viewpoint image - Google Patents

Appratus and method for generating bird viewpoint image Download PDF

Info

Publication number
KR20210156360A
KR20210156360A KR1020200073341A KR20200073341A KR20210156360A KR 20210156360 A KR20210156360 A KR 20210156360A KR 1020200073341 A KR1020200073341 A KR 1020200073341A KR 20200073341 A KR20200073341 A KR 20200073341A KR 20210156360 A KR20210156360 A KR 20210156360A
Authority
KR
South Korea
Prior art keywords
vehicle
bird
eye view
area
view image
Prior art date
Application number
KR1020200073341A
Other languages
Korean (ko)
Other versions
KR102366944B1 (en
Inventor
이준석
전병찬
이지혜
하정목
Original Assignee
㈜베이다스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ㈜베이다스 filed Critical ㈜베이다스
Priority to KR1020200073341A priority Critical patent/KR102366944B1/en
Priority to CN202110514457.4A priority patent/CN113808013A/en
Priority to DE102021205154.5A priority patent/DE102021205154B4/en
Publication of KR20210156360A publication Critical patent/KR20210156360A/en
Application granted granted Critical
Publication of KR102366944B1 publication Critical patent/KR102366944B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • G06T3/0006
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/02Affine transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

In order to generate a bird's-eye-view viewpoint image, a method for generating the bird's-eye-view viewpoint image generates a plurality of images for a current view using a plurality of cameras installed in a vehicle, generates an initial bird's-eye view viewpoint image for the current view having a hole area based on the plurality of images, determines a target area for where the vehicle is located at the current view on a previous bird's-eye-view viewpoint image for a previous view, and generates the bird's-eye-view viewpoint image of the current view, by filling at least one part of the hole area of the initial bird's-eye-view viewpoint image, based on the target area.

Description

조감 시점 영상을 생성하는 방법 및 장치{APPRATUS AND METHOD FOR GENERATING BIRD VIEWPOINT IMAGE}Method and apparatus for generating a bird's-eye view image {APPRATUS AND METHOD FOR GENERATING BIRD VIEWPOINT IMAGE}

아래의 실시예들은, 차량의 운행 중에 조감 시점 영상을 생성하는 기술에 관한 것이다.The following embodiments relate to a technology for generating a bird's-eye view image while a vehicle is being driven.

영상 촬영 및 처리 기술의 발달에 따라, 최근에 생산된 차량에는 카메라가 탑재되고, 차량의 주행을 보조하기 위한 조감 시점 시스템이 사용자 또는 차량에게 제공된다. 조감 시점 시스템은 복수의 카메라들이 촬영한 영상들을 이용하여 조감 시점 영상 또는 탑뷰 영상을 생성할 수 있다. 조감 시점 영상은 하늘에서 차량을 내려다보는 것과 같은 화면을 운전자에게 제공할 수 있어 차량의 전방, 후방, 좌측, 및 우측의 사각을 완전히 제거할 수 있다.With the development of image capturing and processing technology, a camera is mounted on a recently produced vehicle, and a bird's eye view system for assisting the driving of the vehicle is provided to the user or the vehicle. The bird's eye view system may generate a bird's eye view image or a top view image using images captured by a plurality of cameras. The bird's eye view image can provide the driver with a screen that looks down on the vehicle from the sky, thereby completely eliminating blind spots on the front, rear, left, and right sides of the vehicle.

일 실시예는 조감 시점 영상을 생성하는 방법 및 장치를 제공할 수 있다.An embodiment may provide a method and apparatus for generating a bird's-eye view image.

다른 일 실시예는 차량이 위치하는 영역의 바닥이 나타나는 조감 시점 영상을 생성하는 방법 및 장치를 제공할 수 있다.Another embodiment may provide a method and apparatus for generating a bird's-eye view image in which a floor of an area where a vehicle is located appears.

일 실시예에 따른, 전자 장치에 의해 수행되는, 조감 시점 영상 생성 방법은, 차량에 설치된 복수의 카메라들을 이용하여 현재 시각에 대한 복수의 영상들을 생성하는 단계, 상기 복수의 영상들에 기초하여 상기 현재 시각에 대한 초기 조감 시점 영상을 생성하는 단계 - 상기 초기 조감 시점 영상은 홀 영역을 가짐 -, 이전 시각으로부터 상기 현재 시각까지 상기 차량이 이동한 이동 정보를 생성하는 단계, 상기 이동 정보에 기초하여 상기 이전 시각에 대한 이전 조감 시점 영상 상에서 상기 현재 시각에 상기 차량이 위치하는 타겟 영역을 결정하는 단계, 및 상기 타겟 영역에 기초하여 상기 초기 조감 시점 영상의 상기 홀 영역의 적어도 일부를 채움으로써 상기 현재 시각에 대한 조감 시점 영상을 생성하는 단계를 포함한다.According to an embodiment, a method for generating a bird's eye view image, performed by an electronic device, includes generating a plurality of images for a current time using a plurality of cameras installed in a vehicle, and based on the plurality of images, the generating an initial bird's-eye view image for the current time, wherein the initial bird's-eye view image has a hall area; generating movement information that the vehicle has moved from a previous time to the current time, based on the movement information determining a target area in which the vehicle is located at the current time on the previous bird's-eye view image for the previous time, and filling at least a part of the hall area of the initial bird's-eye view image based on the target area. and generating a bird's-eye view image of the sight.

상기 초기 조감 시점 영상의 상기 홀 영역은, 상기 현재 시각에서 상기 차량이 위치한 영역을 포함할 수 있다.The hall area of the initial bird's eye view image may include an area in which the vehicle is located at the current time.

상기 초기 조감 시점 영상의 상기 홀 영역은, 상기 복수의 카메라들의 시야각(viewing angle)에서 벗어난 영역에 대응할 수 있다.The hole area of the initial bird's eye view image may correspond to an area deviating from a viewing angle of the plurality of cameras.

상기 이동 정보를 생성하는 단계는, 상기 차량의 핸들의 조향 각도 및 상기 차량의 속도를 수신하는 단계, 상기 조향 각도 및 상기 속도에 기초하여 상기 차량의 타겟 바퀴의 회전 각도 및 상기 타겟 바퀴의 실제 이동 거리를 계산하는 단계, 및 상기 실제 이동 거리를 조감 시점의 영상 평면의 스케일로 변환함으로써 타겟 이동 거리를 계산하는 단계를 포함하고, 상기 이동 정보는 상기 회전 각도 및 상기 타겟 이동 거리를 포함할 수 있다.The generating of the movement information may include receiving a steering angle of a steering wheel of the vehicle and a speed of the vehicle, and based on the steering angle and the speed, a rotation angle of a target wheel of the vehicle and an actual movement of the target wheel Calculating a distance, and calculating a target movement distance by converting the actual movement distance into a scale of an image plane of a bird's eye view, wherein the movement information may include the rotation angle and the target movement distance .

상기 이동 정보에 기초하여 상기 타겟 영역을 결정하는 단계는, 상기 이동 정보에 기초하여 상기 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 단계, 및 계산된 상기 차량의 상기 가로 축으로 이동한 거리, 상기 세로 축으로 이동한 거리 및 상기 구심점에 대해 상기 회전한 각도에 기초하여, 상기 이전 조감 시점 영상 상에서 상기 현재 시각에 상기 차량이 위치하는 영역을 상기 타겟 영역으로 결정하는 단계를 포함할 수 있다.The determining of the target area based on the movement information may include: a distance moved by the horizontal axis, a distance moved by a vertical axis, and an angle rotated with respect to the centripetal point on the image plane of the bird's eye view of the vehicle based on the movement information. calculating, and based on the calculated distance moved on the horizontal axis, the distance moved on the vertical axis, and the rotated angle with respect to the centripetal point, at the current time on the previous bird's eye view image. The method may include determining an area in which the vehicle is located as the target area.

상기 이동 정보에 기초하여 상기 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 단계는, 애커먼 장토식(Ackerman-Jantoud type)을 통해 상기 이동 정보에 기초하여 상기 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 단계를 포함할 수 있다.Calculating the distance moved by the horizontal axis, the distance moved by the vertical axis, and the rotation angle with respect to the centripetal point on the image plane of the bird's eye view of the vehicle based on the movement information is calculated according to the Ackerman-Jantoud type (Ackerman-Jantoud type) ) based on the movement information, calculating the distance the vehicle moves on the horizontal axis on the image plane of the bird's eye view, the distance moved on the vertical axis, and the angle rotated with respect to the centripetal point.

상기 이동 정보에 기초하여 상기 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 단계는, 상기 차량의 타겟 바퀴의 회전 각도에 기초하여 미리 설정된 가상의 중앙 바퀴의 회전 각도를 계산하는 단계, 상기 차량의 트랙(track) 길이, 상기 차량의 휠 베이스(wheelbase) 길이 및 상기 중앙 바퀴의 상기 회전 각도에 기초하여 상기 구심점을 결정하는 단계, 상기 타겟 바퀴의 실제 이동 거리에 기초하여 상기 중앙 바퀴의 실제 이동 거리를 계산하는 단계, 및 상기 구심점 및 상기 중앙 바퀴의 실제 이동 거리에 기초하여 상기 차량이 상기 조감 시점의 영상 평면 상에서 상기 가로 축으로 이동한 거리, 상기 세로 축으로 이동한 거리 및 상기 구심점에 대해 회전한 각도를 계산하는 단계를 포함할 수 있다.Calculating the distance the vehicle moves on the horizontal axis, the distance moved on the vertical axis, and the rotation angle with respect to the centripetal point on the image plane at the bird's eye view point based on the movement information includes the rotation angle of the target wheel of the vehicle. calculating the rotation angle of a preset virtual center wheel based on the step, determining the centripetal point based on the track length of the vehicle, the wheelbase length of the vehicle, and the rotation angle of the center wheel step, calculating the actual moving distance of the center wheel based on the actual moving distance of the target wheel, and based on the centripetal point and the actual moving distance of the center wheel, the vehicle moves horizontally on the image plane at the bird's eye view It may include calculating the distance moved along the axis, the distance moved along the vertical axis, and the rotation angle with respect to the centripetal point.

상기 타겟 영역에 기초하여 상기 초기 조감 시점 영상의 상기 홀 영역의 적어도 일부를 채움으로써 상기 현재 시각에 대한 조감 시점 영상을 생성하는 단계는, 상기 타겟 영역 중 상기 이전 조감 시점 영상 상에서 상기 이전 시각에 상기 차량이 위치하는 영역을 제외한 부분 타겟 영역을 차량 영역 영상에 누적시키는 단계, 상기 현재 시각에서 상기 차량이 위치하는 영역을 상기 차량 영역 영상 상에서 복사 영역으로 결정하는 단계, 및 상기 복사 영역을 상기 초기 조감 시점 영상의 상기 홀 영역의 적어도 일부에 복사함으로써 상기 조감 시점 영상을 생성하는 단계를 포함할 수 있다.The generating of the bird's eye view image for the current time by filling at least a part of the hole area of the initial bird's eye view image based on the target area may include: accumulating a partial target area excluding the area where the vehicle is located in the vehicle area image, determining the area in which the vehicle is located at the current time as a copy area on the vehicle area image, and setting the duplicate area as the initial bird's eye view The method may include generating the bird's-eye view image by copying it to at least a part of the hole area of the viewpoint image.

상기 타겟 영역 중 상기 이전 조감 시점 영상 상에서 상기 이전 시각에 상기 차량이 위치하는 영역을 제외한 부분 타겟 영역을 차량 영역 영상에 누적시키는 단계는, 기준 시각으로부터 상기 이전 시각 까지의 상기 차량의 누적 회전 각도를 계산하는 단계, 상기 타겟 영역 중 상기 이전 조감 시점 영상 상에서 상기 이전 시각에 상기 차량이 위치하는 영역을 제외한 부분 타겟 영역을 생성하는 단계, 상기 누적 회전 각도에 대응하도록 상기 부분 타겟 영역을 회전시키는 단계, 및 상기 회전된 부분 타겟 영역을 상기 차량 영역 영상의 중심으로 이동시킴으로써 상기 부분 타겟 영역을 상기 차량 영역 영상에 누적시키는 단계를 포함할 수 있다.The step of accumulating a partial target area excluding the area where the vehicle is located at the previous time on the previous bird's eye view image of the target area in the vehicle area image includes: the cumulative rotation angle of the vehicle from a reference time to the previous time calculating, generating a partial target area excluding the area where the vehicle is located at the previous time on the previous bird's eye view image among the target areas, rotating the partial target area to correspond to the cumulative rotation angle; and accumulating the partial target area on the vehicle area image by moving the rotated partial target area to the center of the vehicle area image.

상기 전자 장치는, 자율 주행 차량 또는 ADAS(Advanced Driver Assistance Systems)을 지원하는 차량에 탑재될 수 있다.The electronic device may be mounted in an autonomous driving vehicle or a vehicle supporting Advanced Driver Assistance Systems (ADAS).

다른 일 측면에 따른, 조감 시점 영상을 생성하는 전자 장치는, 조감 시점 영상을 생성하는 프로그램을 수행하는 프로세서, 및 상기 프로그램을 저장하는 메모리를 포함하고, 상기 프로그램은, 차량에 설치된 복수의 카메라들을 이용하여 현재 시각에 대한 복수의 영상들을 생성하는 단계, 상기 복수의 영상들에 기초하여 상기 현재 시각에 대한 초기 조감 시점 영상을 생성하는 단계 - 상기 초기 조감 시점 영상은 홀 영역을 가짐 -, 이전 시각으로부터 상기 현재 시각까지 상기 차량이 이동한 이동 정보를 생성하는 단계, 상기 이동 정보에 기초하여 상기 이전 시각에 대한 이전 조감 시점 영상 상에서 상기 현재 시각에 상기 차량이 위치하는 타겟 영역을 결정하는 단계, 및 상기 타겟 영역에 기초하여 상기 초기 조감 시점 영상의 상기 홀 영역의 적어도 일부를 채움으로써 상기 현재 시각에 대한 조감 시점 영상을 생성하는 단계를 수행한다.According to another aspect, an electronic device for generating a bird's-eye view image includes a processor for executing a program for generating a bird's-eye view image, and a memory for storing the program, the program comprising: a plurality of cameras installed in a vehicle; generating a plurality of images for the current time using the generating movement information in which the vehicle has moved from generating a bird's eye view image for the current time by filling at least a part of the hole area of the initial bird's eye view image based on the target area.

상기 전자 장치는, 상기 복수의 영상들을 생성하는 복수의 카메라들을 더 포함할 수 있다.The electronic device may further include a plurality of cameras that generate the plurality of images.

상기 이동 정보를 생성하는 단계는, 상기 차량의 핸들의 조향 각도 및 상기 차량의 속도를 수신하는 단계, 상기 조향 각도 및 상기 속도에 기초하여 상기 차량의 타겟 바퀴의 회전 각도 및 상기 타겟 바퀴의 실제 이동 거리를 계산하는 단계, 및 상기 실제 이동 거리를 조감 시점의 영상 평면의 스케일로 변환함으로써 타겟 이동 거리를 계산하는 단계를 포함하고, 상기 이동 정보는 상기 회전 각도 및 상기 타겟 이동 거리를 포함할 수 있다.The generating of the movement information may include receiving a steering angle of a steering wheel of the vehicle and a speed of the vehicle, and based on the steering angle and the speed, a rotation angle of a target wheel of the vehicle and an actual movement of the target wheel Calculating a distance, and calculating a target movement distance by converting the actual movement distance into a scale of an image plane of a bird's eye view, wherein the movement information may include the rotation angle and the target movement distance .

상기 이동 정보에 기초하여 상기 타겟 영역을 결정하는 단계는, 상기 이동 정보에 기초하여 상기 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 단계, 및 계산된 상기 차량의 상기 가로 축으로 이동한 거리, 상기 세로 축으로 이동한 거리 및 상기 구심점에 대해 상기 회전한 각도에 기초하여, 상기 이전 조감 시점 영상 상에서 상기 현재 시각에 상기 차량이 위치하는 영역을 상기 타겟 영역으로 결정하는 단계를 포함할 수 있다.The determining of the target area based on the movement information may include: a distance moved by the horizontal axis, a distance moved by a vertical axis, and an angle rotated with respect to the centripetal point on the image plane of the bird's eye view of the vehicle based on the movement information. calculating, and based on the calculated distance moved on the horizontal axis, the distance moved on the vertical axis, and the rotated angle with respect to the centripetal point, at the current time on the previous bird's eye view image. The method may include determining an area in which the vehicle is located as the target area.

상기 이동 정보에 기초하여 상기 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 단계는, 상기 차량의 타겟 바퀴의 회전 각도에 기초하여 미리 설정된 가상의 중앙 바퀴의 회전 각도를 계산하는 단계, 상기 차량의 트랙(track) 길이, 상기 차량의 휠 베이스(wheelbase) 길이 및 상기 중앙 바퀴의 상기 회전 각도에 기초하여 상기 구심점을 결정하는 단계, 상기 타겟 바퀴의 실제 이동 거리에 기초하여 상기 중앙 바퀴의 실제 이동 거리를 계산하는 단계, 및 상기 구심점 및 상기 중앙 바퀴의 실제 이동 거리에 기초하여 상기 차량이 상기 조감 시점의 영상 평면 상에서 상기 가로 축으로 이동한 거리, 상기 세로 축으로 이동한 거리 및 상기 구심점에 대해 회전한 각도를 계산하는 단계를 포함할 수 있다.Calculating the distance the vehicle moves on the horizontal axis, the distance moved on the vertical axis, and the rotation angle with respect to the centripetal point on the image plane at the bird's eye view point based on the movement information includes the rotation angle of the target wheel of the vehicle. calculating the rotation angle of a preset virtual center wheel based on the step, determining the centripetal point based on the track length of the vehicle, the wheelbase length of the vehicle, and the rotation angle of the center wheel step, calculating the actual moving distance of the center wheel based on the actual moving distance of the target wheel, and based on the centripetal point and the actual moving distance of the center wheel, the vehicle moves horizontally on the image plane at the bird's eye view It may include calculating the distance moved along the axis, the distance moved along the vertical axis, and the rotation angle with respect to the centripetal point.

상기 전자 장치는, 자율 주행 차량 또는 ADAS(Advanced Driver Assistance Systems)을 지원하는 차량에 탑재될 수 있다.The electronic device may be mounted in an autonomous driving vehicle or a vehicle supporting Advanced Driver Assistance Systems (ADAS).

조감 시점 영상을 생성하는 방법 및 장치가 제공될 수 있다.A method and apparatus for generating a bird's-eye view image may be provided.

차량이 위치하는 영역의 바닥이 나타나는 조감 시점 영상을 생성하는 방법 및 장치가 제공될 수 있다.A method and apparatus for generating a bird's-eye view image in which a floor of an area where a vehicle is located appears may be provided.

도 1은 일 예에 따른 운행하는 차량에 대한 조감 시점의 뷰를 도시한다.
도 2는 일 예에 따른 홀 영역을 포함하는 초기 조감 시점 영상이다.
도 3은 일 실시예에 따른 전자 장치의 구성도이다.
도 4는 일 예에 따른 조감 시점 영상을 생성하는 방법의 흐름도이다.
도 5는 일 예에 따른 이전 시각에 대한 초기 이전 조감 시점 영상 및 현재 시각에 대한 초기 조감 시점 영상이다.
도 6은 일 예에 따른 이전 시각으로부터 현재 시각까지 차량이 이동한 이동 정보를 생성하는 방법의 흐름도이다.
도 7은 일 예에 따른 이전 조감 시점 영상 상에서 결정된 현재 시각에 차량이 위치하는 타겟 영역을 도시한다.
도 8은 일 예에 따른 이동 정보에 기초하여 이전 조감 시점 영상 상에서 현재 시각에 차량이 위치하는 타겟 영역을 결정하는 방법의 흐름도이다.
도 9는 일 예에 따른 이동 정보에 기초하여 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 방법의 흐름도이다.
도 10은 일 예에 따른 이동 정보에 기초하여 구심점을 결정하는 방법을 도시한다.
도 11은 일 예에 따른 가상의 중앙 바퀴를 이용하여 차량이 구심점에 대해 회전한 각도를 계산하는 방법을 도시한다.
도 12는 일 예에 따른 차량이 구심점에 대해 회전한 각도에 기초하여 상기 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리를 계산하는 방법을 도시한다.
도 13은 일 예에 따른 타겟 영역에 기초하여 초기 조감 시점 영상의 홀 영역의 적어도 일부를 채움으로써 현재 시각에 대한 조감 시점 영상을 생성하는 방법의 흐름도이다.
도 14는 일 예에 따른 타겟 영역 중 이전 조감 시점 영상 상에서 이전 시각에 차량이 위치하는 영역을 제외한 부분 타겟 영역을 차량 영역 영상에 누적시키는 방법의 흐름도이다.
도 15는 일 예에 따른 부분 타겟 영역을 누적 회전 각도에 대응하도록 회전시키는 방법을 도시한다.
도 16은 일 예에 따른 회전된 부분 타겟 영역을 차량 영역 영상의 중심으로 이동시키는 방법을 도시한다.
도 17은 일 예에 따른 차량 영역 영상 상에서 결정된 복사 영역에 기초하여 현재 시각에 대한 조감 시점 영상을 생성하는 방법을 도시한다.
도 18은 일 예에 따른 차량 영역 영상이다.
도 19는 일 예에 따른 차량 영역 영상 상에서 결정된 복사 영역 및 복사 영역을 이용하여 생성된 조감 시점 영상을 도시한다.
1 illustrates a bird's-eye view of a moving vehicle according to an example.
2 is an initial bird's-eye view image including a hole area according to an example.
3 is a block diagram of an electronic device according to an exemplary embodiment.
4 is a flowchart of a method of generating a bird's-eye view image according to an example.
5 is an initial bird's-eye view image of a previous time and an initial bird's-eye view image of a current time, according to an example.
6 is a flowchart of a method of generating movement information in which a vehicle moves from a previous time to a current time according to an example.
7 illustrates a target area in which a vehicle is located at a current time determined on a previous bird's-eye view image according to an example.
8 is a flowchart of a method of determining a target area in which a vehicle is located at a current time on a previous bird's-eye view image based on movement information according to an example.
9 is a flowchart of a method of calculating a distance that a vehicle moves in a horizontal axis, a distance moved in a vertical axis, and a rotation angle with respect to a centripetal point on an image plane at a bird's eye view based on movement information according to an example.
10 illustrates a method of determining a centripetal point based on movement information according to an example.
11 illustrates a method of calculating a rotation angle of a vehicle with respect to a centripetal point using a virtual center wheel according to an example.
12 illustrates a method of calculating a distance moved by a horizontal axis and a distance moved by a vertical axis of the vehicle on an image plane at a bird's eye view based on an angle at which the vehicle rotates with respect to a centripetal point, according to an example.
13 is a flowchart of a method of generating a bird's eye view image for a current time by filling at least a part of a hole area of an initial bird's eye view image based on a target area according to an example.
14 is a flowchart of a method of accumulating a partial target area excluding an area in which a vehicle is located at a previous time on a previous bird's eye view image among target areas in a vehicle area image, according to an example.
15 illustrates a method of rotating a partial target area to correspond to an accumulated rotation angle according to an example.
16 illustrates a method of moving a rotated partial target area to the center of a vehicle area image according to an example.
17 illustrates a method of generating a bird's-eye view image for a current time based on a radiation area determined on a vehicle area image according to an example.
18 is a vehicle area image according to an example.
19 illustrates a bird's-eye view image generated using a radiation area determined on a vehicle area image and the radiation area according to an example.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes may be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It should be understood that all modifications, equivalents and substitutes for the embodiments are included in the scope of the rights.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used for the purpose of description only, and should not be construed as limiting. The singular expression includes the plural expression unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "have" are intended to designate that a feature, number, step, operation, component, part, or a combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are given the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted. In describing the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.

또한, 실시 예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다. In addition, in describing the components of the embodiment, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the elements from other elements, and the essence, order, or order of the elements are not limited by the terms. When it is described that a component is "connected", "coupled" or "connected" to another component, the component may be directly connected or connected to the other component, but another component is between each component. It will be understood that may also be "connected", "coupled" or "connected".

어느 하나의 실시 예에 포함된 구성요소와, 공통적인 기능을 포함하는 구성요소는, 다른 실시 예에서 동일한 명칭을 사용하여 설명하기로 한다. 반대되는 기재가 없는 이상, 어느 하나의 실시 예에 기재한 설명은 다른 실시 예에도 적용될 수 있으며, 중복되는 범위에서 구체적인 설명은 생략하기로 한다.Components included in one embodiment and components having a common function will be described using the same names in other embodiments. Unless otherwise stated, descriptions described in one embodiment may be applied to other embodiments as well, and detailed descriptions within the overlapping range will be omitted.

도 1은 일 예에 따른 운행하는 차량에 대한 조감 시점의 뷰를 도시하고, 도 2는 일 예에 따른 홀 영역을 포함하는 초기 조감 시점 영상이다.1 illustrates a bird's-eye view of a moving vehicle according to an example, and FIG. 2 is an initial bird's-eye view image including a hall area according to an example.

운행하는 차량(110)이 조감 시점에서 관찰될 수 있다면, 차량(110)의 주변 상황에 대해 많은 정보들이 획득될 수 있다. 예를 들어, 차량(110)의 주변에 위치하는 차량들 간의 위치 관계, 차량들의 속도 및 장애물 등이 정보로서 획득될 수 있다.If the moving vehicle 110 can be observed from a bird's eye view, a lot of information about the surrounding situation of the vehicle 110 can be obtained. For example, the positional relationship between vehicles located in the vicinity of the vehicle 110 , the speed of the vehicles, obstacles, and the like may be obtained as information.

차랑(110)을 조감 시점에서 관찰하기 위해서는 영상을 생성하는 카메라가 차량(110)의 상부에 위치하여여 하나, 이러한 방식은 현실적으로 이용되기 어렵다. 이에 따라, 차량(110)에 설치된 카메라들을 이용하여 차량의 측면들을 촬영하고, 촬영된 영상들을 조감 시점으로 변환하고, 조감 시점으로 변환된 영상들을 합성함으로써 차량(110)에 대한 조감 시점 영상을 생성하는 방법이 고려될 수 있다. 차량(110)의 사용자에게 복수의 영상들 또는 조감 시점 영상을 제공하는 시스템은 AVM(Around View Monitoring) 시스템일 수 있다.In order to observe the vehicle 110 from a bird's eye view, a camera for generating an image is located above the vehicle 110 , but this method is difficult to use in reality. Accordingly, a bird's eye view image of the vehicle 110 is generated by photographing the side surfaces of the vehicle using the cameras installed in the vehicle 110 , converting the captured images into a bird's eye view, and synthesizing the images converted to the bird's eye view. method can be considered. A system that provides a plurality of images or a bird's-eye view image to a user of the vehicle 110 may be an Around View Monitoring (AVM) system.

다만, 차량(110)의 측면들을 촬영한 영상들에 기초하여 생성된 초기 조감 시점 영상(200)은, 아래의 도 2와 같이 카메라들의 시야각(viewing angle)에서 벗어난 영역인 차량(110)의 영역에 대해서는 홀 영역(210)을 나타내게 된다. 홀 영역(210)은 영상 내의 해당 픽셀에 픽셀 값의 정보가 없는 영역이다.However, the initial bird's-eye view image 200 generated based on images of the side surfaces of the vehicle 110 is an area of the vehicle 110 that is out of the viewing angle of the cameras as shown in FIG. 2 below. A hole area 210 is indicated for . The hole area 210 is an area in which there is no pixel value information on a corresponding pixel in the image.

홀 영역(210)에 의해 조감 시점 영상 내에 발생하는 부자연스러운 단절은 사용자에게 실제 주행 환경과의 거리감을 느끼게 한다. 일 측면에 따르면, 홀 영역(210)을 채우는 방법으로서 홀 영역(210)에 대응하는 영역을 이전 조감 시점 영상에서 결정하고, 결정된 영역에 기초하여 홀 영역(210)을 채우는 방법이 고려될 수 있다. 홀 영역(210)을 채우는 방법은 TVC(Transparent Vehicle Chassis) 기술에 기초할 수 있다. TVC기술은 홀 영역(210)을 이전 시각의 영상을 이용하여 재구성하는 경우 이러한 단절감이 해소될 수 있다. The unnatural disconnection occurring in the bird's eye view image by the hall area 210 makes the user feel a sense of distance from the actual driving environment. According to one aspect, as a method of filling the hole area 210 , a method of determining an area corresponding to the hole area 210 from a previous bird's eye view image and filling the hole area 210 based on the determined area may be considered. . A method of filling the hole area 210 may be based on a Transparent Vehicle Chassis (TVC) technology. In the TVC technology, when the hall area 210 is reconstructed using an image of a previous time, this sense of disconnection can be resolved.

또한, TVC 기술을 적용하여 조감 시점 영상을 생성하면 차량에 의해 가려지는 도로의 바닥 면이 영상에 나타난다. 사용자는 조감 시점 영상을 통해 속도 제한, 어린이 보호 구역 표시 등의 노면 표시 정보를 추가적으로 파악할 수 있다. 특히, 사용자가 주차를 하는 동안 주차선의 전체를 실시간으로 파악할 수 있으므로 주차가 가능할 수 있다. 구체적으로, 사용자가 차량의 바닥 면을 파악할 수 있으므로 주차선, 주차 표시 등과 같은 주차 공간 내의 정보를 정확하게 파악할 수 있는 효과가 나타난다.In addition, when a bird's-eye view image is generated by applying TVC technology, the floor surface of the road that is obscured by the vehicle appears in the image. The user can additionally grasp road surface information such as speed limit and child protection zone display through the bird's eye view image. In particular, since the user can grasp the entire parking line in real time while parking, parking may be possible. Specifically, since the user can grasp the floor surface of the vehicle, there is an effect of accurately grasping information in the parking space, such as a parking line and a parking mark.

아래에서 도 3 내지 도 19를 참조하여 초기 조감 시점 영상의 홀 영역을 채움으로써 조감 시점 영상을 생성하는 방법에 대해, 상세히 설명된다.Hereinafter, a method of generating a bird's eye view image by filling in the hole region of the initial bird's eye view image will be described in detail with reference to FIGS. 3 to 19 .

도 3은 일 실시예에 따른 전자 장치의 구성도이다.3 is a block diagram of an electronic device according to an exemplary embodiment.

일 측면에 따른, 전자 장치(300)는 통신부(310), 프로세서(320), 메모리(330) 및 카메라(340)를 포함한다. 전자 장치(300)는 차량 내에 포함될 수 있다. 예를 들어, 전자 장치(300)는 ECU(electronic control unit)와 같은 장치일 수 있다. 다른 예로, 전자 장치(300)는 ECU와 연결된 독립적인 장치일 수 있다.According to one aspect, the electronic device 300 includes a communication unit 310 , a processor 320 , a memory 330 , and a camera 340 . The electronic device 300 may be included in a vehicle. For example, the electronic device 300 may be a device such as an electronic control unit (ECU). As another example, the electronic device 300 may be an independent device connected to the ECU.

통신부(310)는 프로세서(320), 메모리(330) 및 카메라(340)와 연결되어 데이터를 송수신한다. 통신부(310)는 외부의 다른 장치와 연결되어 데이터를 송수신할 수 있다. 이하에서 "A"를 송수신한다라는 표현은 "A를 나타내는 정보(information) 또는 데이터"를 송수신하는 것을 나타낼 수 있다.The communication unit 310 is connected to the processor 320 , the memory 330 , and the camera 340 to transmit and receive data. The communication unit 310 may be connected to another external device to transmit/receive data. Hereinafter, the expression "transmitting and receiving "A" may indicate transmitting and receiving "information or data representing A".

통신부(310)는 전자 장치(300) 내의 회로망(circuitry)으로 구현될 수 있다. 예를 들어, 통신부(310)는 내부 버스(internal bus) 및 외부 버스(external bus)를 포함할 수 있다. 다른 예로, 통신부(310)는 전자 장치(300)와 외부의 장치를 연결하는 요소일 수 있다. 통신부(310)는 인터페이스(interface)일 수 있다. 통신부(310)는 외부의 장치로부터 데이터를 수신하여, 프로세서(320) 및 메모리(330)에 데이터를 전송할 수 있다.The communication unit 310 may be implemented as circuitry in the electronic device 300 . For example, the communication unit 310 may include an internal bus and an external bus. As another example, the communication unit 310 may be an element that connects the electronic device 300 and an external device. The communication unit 310 may be an interface. The communication unit 310 may receive data from an external device and transmit the data to the processor 320 and the memory 330 .

프로세서(320)는 통신부(310)가 수신한 데이터 및 메모리(330)에 저장된 데이터를 처리한다. "프로세서"는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.The processor 320 processes data received by the communication unit 310 and data stored in the memory 330 . A “processor” may be a data processing device implemented in hardware having circuitry having a physical structure for performing desired operations. For example, desired operations may include code or instructions included in a program. For example, a data processing device implemented as hardware includes a microprocessor, a central processing unit, a processor core, a multi-core processor, and a multiprocessor. , an Application-Specific Integrated Circuit (ASIC), and a Field Programmable Gate Array (FPGA).

프로세서(320)는 메모리(예를 들어, 메모리(330))에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(320)에 의해 유발된 인스트럭션들을 실행한다.Processor 320 executes computer readable code (eg, software) stored in memory (eg, memory 330 ) and instructions issued by processor 320 .

메모리(330)는 통신부(310)가 수신한 데이터 및 프로세서(320)가 처리한 데이터를 저장한다. 예를 들어, 메모리(330)는 프로그램(또는 어플리케이션, 소프트웨어)을 저장할 수 있다. 저장되는 프로그램은 조감 시점 영상을 생성할 수 있도록 코딩되어 프로세서(320)에 의해 실행 가능한 신텍스(syntax)들의 집합일 수 있다.The memory 330 stores data received by the communication unit 310 and data processed by the processor 320 . For example, the memory 330 may store a program (or an application, software). The stored program may be a set of syntaxes coded to generate a bird's-eye view image and executable by the processor 320 .

일 측면에 따르면, 메모리(330)는 하나 이상의 휘발성 메모리, 비휘발성 메모리 및 RAM(Random Access Memory), 플래시 메모리, 하드 디스크 드라이브 및 광학 디스크 드라이브를 포함할 수 있다.According to one aspect, memory 330 may include one or more of volatile memory, non-volatile memory and random access memory (RAM), flash memory, hard disk drive, and optical disk drive.

메모리(330)는 전자 장치(300)를 동작 시키는 명령어 세트(예를 들어, 소프트웨어)를 저장한다. 전자 장치(300)를 동작 시키는 명령어 세트는 프로세서(320)에 의해 실행된다.The memory 330 stores an instruction set (eg, software) for operating the electronic device 300 . The instruction set for operating the electronic device 300 is executed by the processor 320 .

카메라(340)는 장면을 촬영함으로써 영상을 생성한다. 카메라(340)는 복수의 카메라들을 포함할 수 있다. 예를 들어, 복수의 카메라들은 차량의 전방, 후방, 좌측 및 우측에 각각 배치될 수 있다.The camera 340 creates an image by photographing a scene. The camera 340 may include a plurality of cameras. For example, the plurality of cameras may be respectively disposed on the front, rear, left and right sides of the vehicle.

통신부(310), 프로세서(320), 메모리(330) 및 카메라(340)에 대해, 아래에서 도 4 내지 도 19를 참조하여 상세히 설명된다.The communication unit 310 , the processor 320 , the memory 330 , and the camera 340 will be described in detail below with reference to FIGS. 4 to 19 .

도 4는 일 예에 따른 조감 시점 영상을 생성하는 방법의 흐름도이다.4 is a flowchart of a method for generating a bird's-eye view image according to an example.

아래의 단계들(410 내지 450)은 도 3을 참조하여 전술된 전자 장치(300)에 의해 수행된다.The following steps 410 to 450 are performed by the electronic device 300 described above with reference to FIG. 3 .

단계(410)에서, 전자 장치(300)는 차량에 설치된 복수의 카메라들을 이용하여 현재 시각에 대한 복수의 영상들을 생성한다. 복수의 카메라들의 각각은 연속적으로 영상을 생성할 수 있다. 예를 들어, 제1 카메라에 의해 가장 최근에 생성된 영상이 현재 시각에 대한 영상이고, 그 이전에 생성된 영상이 이전 시각에 대한 영상일 수 있다. 복수의 카메라들의 촬영 주기가 동기화됨으로써 동일한 시각에 대해 복수의 영상들이 생성될 수 있다.In operation 410 , the electronic device 300 generates a plurality of images for the current time using a plurality of cameras installed in the vehicle. Each of the plurality of cameras may continuously generate an image. For example, an image most recently generated by the first camera may be an image for the current time, and an image generated before that may be an image for a previous time. A plurality of images may be generated at the same time by synchronizing the photographing period of the plurality of cameras.

단계(420)에서, 전자 장치(300)는 복수의 영상들에 기초하여 현재 시각에 대한 초기 조감 시점 영상을 생성한다. 복수의 영상들은 차량 자체에 대한 영상 정보를 포함하지 않으므로, 초기 조감 시점 영상은 차량 영역에 대응하는 홀 영역을 가진다. 즉, 홀 영역은 현재 시각에서 차량이 위치한 영역을 포함한다. 홀 영역은 복수의 카메라들의 시야각(viewing angle)에서 벗어난 영역에 대응한다. 초기 조감 시점 영상 내에서 차량 영역은 모든 시각에 대해 일정함으로, 초기 조감 시점 영상 내의 홀 영역은 ROI(Region of Interest)로 설정될 수 있다.In operation 420 , the electronic device 300 generates an initial bird's-eye view image of the current time based on the plurality of images. Since the plurality of images do not include image information about the vehicle itself, the initial bird's-eye view image has a hall area corresponding to the vehicle area. That is, the hall area includes an area in which the vehicle is located at the current time. The hole area corresponds to an area deviating from the viewing angles of the plurality of cameras. Since the vehicle area in the initial bird's eye view image is constant for all views, the hole area in the initial bird's eye view image may be set as a region of interest (ROI).

조감 시점 영상을 생성하기 위해서는 복수의 카메라들이 촬영한 복수의 영상들이 병합되어야 한다. 복수의 영상들을 병합하기 위해서는 영상들의 좌표계가 일치되어야 한다. 다시 말하자면, 복수의 영상들을 차량에 대해 미리 설정된 공통 좌표계로 각각 변환시킴으로써 부분 조감 시점 영상들을 생성하고, 부분 조감 시점 영상들을 병합함으로써 초기 조감 시점 영상이 생성될 수 있다. 예를 들어, 각 영상을 와핑(warping)함으로써 부분 조감 시점 영상이 생성될 수 있다.In order to generate a bird's-eye view image, a plurality of images captured by a plurality of cameras must be merged. In order to merge a plurality of images, the coordinate systems of the images must match. In other words, partial bird's-eye view images may be generated by converting a plurality of images into a common coordinate system preset for the vehicle, and an initial bird's eye view image may be generated by merging the partial bird's-eye view images. For example, a partial bird's eye view image may be generated by warping each image.

일 측면에 따르면, 정확한 조감 시점 영상을 생성하기 위해서는 복수의 카메라들이 주기적, 또는 충격 시 마다 캘리브레이션되어야 할 수 있다. 복수의 카메라들을 캘리브레이션하는 방법에 대해서는 한정되지 않고, 다양한 방법들이 이용될 수 있다.According to one aspect, in order to generate an accurate bird's eye view image, a plurality of cameras may need to be calibrated periodically or at every impact. A method for calibrating a plurality of cameras is not limited, and various methods may be used.

도 5을 참조하면, 일 예에 따른 이전 시각에 생성된 조감 시점 영상(510) 및 현재 시각에 생성된 초기 조감 시점 영상(522)이 도시된다. 이전 시각은 가장 최근에 생성된 조감 시점 영상(510)이 생성된 시각(이하에서, 가장 최근에 생성된 조감 시점 영상은 "이전 조감 시점 영상"으로 명명됨) 또는 이전 조감 시점 영상(510)의 기초가 되는 복수의 영상들이 생성된 시각을 의미한다. 도시된 이전 조감 시점 영상(510)은 이전 시각에 차량이 위치하는 영역(512)을 포함한다. 현재 시각을 기준으로 영역(512)은 정보가 채워진 영역일 수 있다. 초기 조감 시점 영상(520)은 현재 시각에 차량이 위치하는 영역(522)을 포함한다. 현재 시각을 기준으로 영역(522)은 정보가 채워지지 않은 홀 영역일 수 있다.Referring to FIG. 5 , a bird's-eye view image 510 generated at a previous time and an initial bird's-eye view image 522 generated at a current time according to an example are shown. The previous time is the time at which the most recently generated bird's eye view image 510 was generated (hereinafter, the most recently generated bird's eye view image is referred to as a "previous bird's eye view image") or the previous bird's eye view image 510. It refers to the time at which a plurality of basic images are generated. The illustrated previous bird's-eye view image 510 includes an area 512 in which the vehicle is located at the previous time. Based on the current time, the area 512 may be an area filled with information. The initial bird's eye view image 520 includes an area 522 in which the vehicle is located at the current time. Based on the current time, the area 522 may be a hole area in which information is not filled.

일 측면에 따르면, TVC 기술을 하드웨어적으로 구현할 때, 주요하게 고려되는 점은 메모리의 효율적 사용이다. 조감 시점 영상은 비교적 많은 메모리의 공간을 사용한다. 이전 조감 시점 영상과 현재 조감 시점 영상 전체를 저장하는 경우 메모리 사용의 효율성이 떨어지고, 프로그램의 동작 속도도 느리게 된다. 이에 따라, 이전 조감 시점 영상을 저장하는 메모리 영역과 현재 조감 시점 영상을 저장하는 메모리 영역을 공유하는 경우 프로그램의 동작 효율성이 증가할 수 있다.According to one aspect, when implementing the TVC technology in hardware, the main consideration is the efficient use of memory. A bird's eye view image uses a relatively large amount of memory space. In the case of storing the entire previous bird's-eye view image and the current bird's-eye view image, the efficiency of memory usage decreases and the operating speed of the program becomes slow. Accordingly, when the memory area for storing the previous bird's-eye view image and the memory area for storing the current bird's-eye view image are shared, the operating efficiency of the program may increase.

단계(430)에서, 전자 장치(300)는 이전 시각으로부터 현재 시각까지 차량이 이동한 이동 정보를 생성한다. 일 측면에 따르면, 이전 시각으로부터 현재 시각까지 차량의 핸들의 조향 각도 및 차량의 속도가 획득되고, 이에 기초하여 조감 시점의 영상 평면의 스케일 상에서 차량이 이동한 이동 정보가 생성될 수 있다. 차량의 이동 정보를 생성하는 방법에 대해, 아래에서 도 6을 참조하여 상세히 설명된다.In operation 430 , the electronic device 300 generates movement information of the vehicle moving from the previous time to the current time. According to an aspect, a steering angle of a steering wheel of a vehicle and a speed of the vehicle may be obtained from a previous time to a current time, and movement information of the vehicle moving on the scale of the image plane at the bird's eye view may be generated based on this. A method of generating movement information of a vehicle will be described in detail below with reference to FIG. 6 .

다른 일 측면에 따르면, 이전 시각으로부터 현재 시각까지 차량의 바퀴의 회전 각도 및 바퀴의 실제 이동 거리가 이동 정보로서 제공될 수 있다. 예를 들어, 바퀴에 부착된 적어도 하나의 센서에 기초하여 바퀴의 회전 각도 및 실제 이동 거리가 직접 측정될 수 있다.According to another aspect, the rotation angle of the wheel of the vehicle and the actual moving distance of the wheel from the previous time to the present time may be provided as movement information. For example, the rotation angle and the actual moving distance of the wheel may be directly measured based on at least one sensor attached to the wheel.

단계(440)에서, 전자 장치(300)는 이동 정보에 기초하여 이전 조감 시점 영상 상에서 현재 시각에 차량이 위치하는 타겟 영역을 결정한다. 도 7을 참조하면, 이동 정보에 기초하여 이전 조감 시점 영상(510) 상에서 현재 시각에 차량이 위치하는 타겟 영역(710)이 결정된다. 예를 들어, 이전 조감 시점 영상(510) 상에서 이전 시각에 차량이 위치하는 영역(512)으로부터 이동 정보에 대응하는 이동량 만큼 이동한 영역이 타겟 영역(710)으로 결정될 수 있다.In operation 440 , the electronic device 300 determines a target area in which the vehicle is located at the current time on the previous bird's-eye view image based on the movement information. Referring to FIG. 7 , a target area 710 in which the vehicle is located at the current time on the previous bird's eye view image 510 is determined based on movement information. For example, on the previous bird's eye view image 510 , an area moved from the area 512 where the vehicle is located at the previous time by the amount of movement corresponding to the movement information may be determined as the target area 710 .

타겟 영역을 결정하는 방법에 대해 아래에서 도 8 내지 12를 참조하여 상세히 설명된다.A method of determining the target area will be described in detail below with reference to FIGS. 8 to 12 .

단계(450)에서, 전자 장치(300)는 타겟 영역에 기초하여 초기 조감 시점 영상의 홀 영역의 적어도 일부를 채움으로써 현재 시각에 대한 조감 시점 영상을 생성한다. 현재 시각에 대한 조감 시점 영상을 생성하는 방법에 대해, 아래에서 도 13 내지 19를 참조하여 상세히 설명된다.In operation 450 , the electronic device 300 generates a bird's eye view image for the current time by filling at least a part of the hole area of the initial bird's eye view image based on the target area. A method of generating a bird's eye view image for the current time will be described in detail below with reference to FIGS. 13 to 19 .

도 6은 일 예에 따른 이전 시각으로부터 현재 시각까지 차량이 이동한 이동 정보를 생성하는 방법의 흐름도이다.6 is a flowchart of a method of generating movement information in which a vehicle moves from a previous time to a current time according to an example.

일 측면에 따르면, 도 4를 참조하여 전술된 단계(430)는 아래의 단계들(610 내지 630)을 포함할 수 있다.According to one aspect, the step 430 described above with reference to FIG. 4 may include the following steps 610 to 630 .

단계(610)에서, 전자 장치(300)는 차량의 핸들의 조향 각도 및 차량의 속도를 수신한다. 예를 들어, 차량 내에는 CAN(Controller Area Network)가 설치되어 있고, CAN 장치를 통해 차량의 핸들의 조향 각도 및 차량의 속도가 생성될 수 있다. 전자 장치(300)는 CAN 장치로부터 차량의 핸들의 조향 각도 및 차량의 속도를 수신할 수 있다.In step 610 , the electronic device 300 receives the steering angle of the steering wheel of the vehicle and the speed of the vehicle. For example, a controller area network (CAN) is installed in a vehicle, and a steering angle of a steering wheel of the vehicle and a speed of the vehicle may be generated through the CAN device. The electronic device 300 may receive the steering angle of the steering wheel of the vehicle and the speed of the vehicle from the CAN device.

단계(620)에서, 전자 장치(300)는 핸들의 조향 각도 및 차량의 속도에 기초하여 차량의 타겟 바퀴의 회전 각도 및 타겟 바퀴의 실제 이동 거리를 계산한다.In operation 620 , the electronic device 300 calculates a rotation angle of the target wheel of the vehicle and an actual moving distance of the target wheel based on the steering angle of the steering wheel and the speed of the vehicle.

예를 들어, 핸들에 의해 회전하는 바퀴가 앞 바퀴들인 경우, 핸들의 조향 각도에 미리 설정된 계수를 곱하여 타겟 바퀴인 앞 바퀴들 각각에 대한 회전 각도들이 계산될 수 있다.For example, when the wheels rotated by the handle are the front wheels, rotation angles for each of the front wheels that are the target wheels may be calculated by multiplying the steering angle of the handle by a preset coefficient.

예를 들어, 속도 및 이전 시각과 현재 시각 간의 차이(이하에서, 이전 시각과 현재 시각 간의 차이는 "타겟 시간")에 기초하여 타겟 시간 동안 타겟 바퀴 또는 차량이 이동한 실제 이동 거리가 계산될 수 있다.For example, the actual distance traveled by the target wheel or vehicle during the target time may be calculated based on the speed and the difference between the previous time and the current time (hereinafter, the difference between the previous time and the current time is "target time"). have.

단계(630)에서, 전자 장치(300)는 타겟 바퀴의 실제 이동 거리를 조감 시점의 영상 평면의 스케일로 변환함으로써 타겟 이동 거리가 계산된다. 예를 들어, 실제 이동 거리에 미리 설정된 값을 곱함으로써 타겟 이동 거리가 계산될 수 있다. 예를 들어, 1m가 조감 시점의 영상 평면 상의 100개의 픽셀들의 길이에 대응하고, 실제 이동 거리가 50cm인 경우, 계산된 타겟 이동 거리는 50개의 픽셀들의 길이에 대응할 수 있다.In operation 630, the electronic device 300 calculates the target movement distance by converting the actual movement distance of the target wheel into the scale of the image plane of the bird's eye view. For example, the target movement distance may be calculated by multiplying the actual movement distance by a preset value. For example, when 1 m corresponds to the length of 100 pixels on the image plane of the bird's eye view, and the actual movement distance is 50 cm, the calculated target movement distance may correspond to the length of 50 pixels.

이동 정보는 생성된 타겟 바퀴의 회전 각도 및 타겟 이동 거리를 포함한다. 다시 말하자면, 이동 정보는 이전 시각으로부터 현재 시각까지 조감 시점의 영상 평면 상에서 차량이 이동한 정보이다.The movement information includes the generated rotation angle of the target wheel and the target movement distance. In other words, the movement information is information that the vehicle has moved on the image plane of the bird's eye view from the previous time to the present time.

도 8은 일 예에 따른 이동 정보에 기초하여 이전 조감 시점 영상 상에서 현재 시각에 차량이 위치하는 타겟 영역을 결정하는 방법의 흐름도이다.8 is a flowchart of a method of determining a target area in which a vehicle is located at a current time on a previous bird's-eye view image based on movement information according to an example.

일 측면에 따르면, 도 4를 참조하여 전술된 단계(440)는 아래의 단계들(810 및 820)를 포함할 수 있다.According to one aspect, step 440 described above with reference to FIG. 4 may include steps 810 and 820 below.

단계(810)에서, 전자 장치(300)는 이동 정보에 기초하여 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산한다.In operation 810 , the electronic device 300 calculates a distance the vehicle moves on the horizontal axis on the image plane of a bird's eye view, a distance it moves on a vertical axis, and a rotation angle with respect to the centripetal point based on the movement information.

일 측면에 따르면, 이동 정보에 기초하여 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하기 위해, 애커먼 장토식(Ackerman-Jantoud type)이 이용될 수 있다.According to one aspect, in order to calculate the distance the vehicle moved on the horizontal axis, the distance moved on the vertical axis, and the rotation angle with respect to the centripetal point on the image plane at the bird's eye view, based on the movement information, the Ackerman- Jantoud type) can be used.

차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 방법에 대해 아래에서 도 9 내지 12를 참조하여 상세히 설명된다. A method of calculating the distance the vehicle moves on the horizontal axis, the distance moved on the vertical axis, and the rotation angle with respect to the centripetal point on the image plane of the bird's eye view will be described in detail below with reference to FIGS. 9 to 12 .

단계(820)에서, 전자 장치(300)는 차량의 가로 축으로 이동한 거리(제1 거리), 새로 축으로 이동한 거리(제2 거리) 및 구심점에 대해 회전한 각도(타겟 각도)에 기초하여 이전 조감 시점 영상 상에서 현재 시각에 차량이 위치하는 영역을 타겟 영역으로 결정한다.In step 820, the electronic device 300 based on the distance moved along the horizontal axis of the vehicle (the first distance), the distance moved along the new axis (the second distance), and the angle rotated with respect to the centripetal point (target angle) Thus, an area in which the vehicle is located at the current time on the previous bird's-eye view image is determined as the target area.

도 7을 참조한 예에서, 차량의 가로 축으로 이동한 거리, 새로 축으로 이동한 거리 및 구심점에 대해 회전한 각도에 기초하여 이전 조감 시점 영상(510) 상에서 현재 시각에 차량이 위치하는 영역(710)을 타겟 영역으로 결정한다. 이전 시각에 차량이 위치하는 영역(512)에서 차량의 중심이 가로 축으로 제1 거리를 이동하고, 세로 축으로 제2 거리를 이동하고, 구심점에 대해 타겟 각도로 회전한 영역이 현재 시각에 차량이 위치하는 영역(710)일 수 있다.In the example with reference to FIG. 7 , the area 710 where the vehicle is located at the current time on the previous bird's eye view image 510 based on the distance moved along the horizontal axis, the distance moved to the new axis, and the angle rotated with respect to the centripetal point. ) as the target area. In the area 512 where the vehicle is located at the previous time, the area in which the center of the vehicle moves the first distance on the horizontal axis, moves the second distance on the vertical axis, and rotates at a target angle with respect to the centripetal point is the vehicle at the current time. This may be an area 710 in which it is located.

도 9는 일 예에 따른 이동 정보에 기초하여 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 방법의 흐름도이다.9 is a flowchart of a method of calculating a distance that a vehicle moves in a horizontal axis, a distance moved in a vertical axis, and a rotation angle with respect to a centripetal point on an image plane at a bird's eye view based on movement information according to an example.

일 측면에 따르면, 도 8을 참조하여 전술된 단계(810)는 아래의 단계들(910 내지 940)를 포함할 수 있다.According to one aspect, the step 810 described above with reference to FIG. 8 may include the following steps 910 to 940 .

단계(910)에서, 전자 장치(300)는 차량의 타겟 바퀴의 회전 각도에 기초하여 미리 설정된 가상의 중앙 바퀴의 회전 각도를 계산한다.In operation 910 , the electronic device 300 calculates a preset rotation angle of the virtual center wheel based on the rotation angle of the target wheel of the vehicle.

예를 들어, 중앙 바퀴는 앞 바퀴들을 직선으로 연결하는 축 상에 위치하는 것으로 미리 설정될 수 있다. 구체적으로, 중앙 바퀴는 상기의 축의 중앙에 위치할 수 있으나, 기재된 실시예로 한정되지 않는다. 또 다른 예로, 중앙 바퀴는 중앙 바퀴는 좌측 앞 바퀴 또는 우측 앞 바퀴로 미리 설정될 수 있다.For example, the center wheel may be preset to be located on an axis connecting the front wheels in a straight line. Specifically, the center wheel may be located at the center of the shaft, but is not limited to the described embodiment. As another example, the center wheel may be preset as a left front wheel or a right front wheel.

앞 바퀴들 간의 중앙 위치하는 것으로 중앙 바퀴가 미리 설정되는 경우, 앞 바퀴들 각각의 회전 각도들의 평균이 중앙 바퀴의 회전 각도로 계산될 수 있다.When the center wheel is preset to be positioned at the center between the front wheels, the average of the respective rotation angles of the front wheels may be calculated as the rotation angle of the center wheel.

단계(920)에서, 전자 장치(300)는 차량의 트랙(track) 길이, 휠 베이스(wheelbase) 길이 및 중앙 바퀴의 회전 각도에 기초하여 구심점을 결정한다.In operation 920 , the electronic device 300 determines a centripetal point based on a track length of the vehicle, a wheelbase length, and a rotation angle of a center wheel.

도 10을 참조한 예에서, 차량(1000)의 트랙 길이(1004), 휠 베이스 길이(1005) 및 중앙 바퀴(1003)의 회전 각도(θM)에 기초하여 구심점(1030)이 결정된다. 중앙 바퀴(1003)는 타겟 바퀴들(1001 및 1002)에 기초하여 미리 설정될 수 있다. 예를 들어, 중앙 바퀴의 회전 각도(θM)는 중앙 바퀴가 정렬된 상태에서 회전된 각도일 수 있다. 회전된 중앙 바퀴(1003)의 중심 축을 연장한 가상의 직선(1020)과 뒷 바퀴들의 축을 연장한 가상의 직선(1010)의 교점이 구심점(1030)으로 결정된다. 중앙 바퀴(1003)와 뒷 바퀴들(1001 및 1002)의 뒤축이 만나는 점(예를 들어, 뒤축의 중앙)과 구심점(1030) 간의 거리는 참조 길이(1040)일 수 있다.In the example with reference to FIG. 10 , the centripetal point 1030 is determined based on the track length 1004 of the vehicle 1000 , the wheelbase length 1005 , and the rotation angle θ M of the center wheel 1003 . The center wheel 1003 may be preset based on the target wheels 1001 and 1002 . For example, the rotation angle θ M of the center wheel may be an angle rotated in a state in which the center wheel is aligned. The intersection of the virtual straight line 1020 extending the central axis of the rotated center wheel 1003 and the virtual straight line 1010 extending the axis of the rear wheels is determined as the centripetal point 1030 . A distance between the center wheel 1003 and the point where the rear axles of the rear wheels 1001 and 1002 meet (eg, the center of the rear axle) and the centripetal point 1030 may be a reference length 1040 .

단계(930)에서, 전자 장치(300)는 타겟 바퀴의 실제 이동 거리에 기초하여 중앙 바퀴의 실제 이동 거리를 계산한다.In operation 930 , the electronic device 300 calculates the actual moving distance of the center wheel based on the actual moving distance of the target wheel.

앞 바퀴들 간의 중앙 위치하는 것으로 중앙 바퀴가 미리 설정되는 경우, 앞 바퀴들 각각의 실제 이동 거리들의 평균이 중앙 바퀴의 실제 이동 거리로 계산될 수 있다.When the center wheel is preset to be located at the center between the front wheels, an average of the actual moving distances of each of the front wheels may be calculated as the actual moving distance of the center wheel.

단계(940)에서, 전자 장치(300)는 구심점 및 중앙 바퀴의 실제 이동 거리에 기초하여 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산한다.In step 940 , the electronic device 300 determines the distance the vehicle moves on the horizontal axis on the image plane of the bird's eye view based on the actual movement distance of the centripetal point and the center wheel, the distance moved on the vertical axis, and the rotation about the centripetal point. Calculate the angle.

도 11을 참조하여 도시된 예에서, 이전 시각의 차량(1000)의 중앙 바퀴(1003)를 구심점(1030)을 중심으로 실제 이동 거리를 이동시킴으로써 현재 시각의 차량(1110)의 중앙 바퀴(1103)의 위치가 결정될 수 있다. 중앙 바퀴(1103)의 위치에 기초하여 중앙 바퀴(1103)의 이동 각도(dθ)가 결정될 수 있다.In the example shown with reference to FIG. 11, the center wheel 1103 of the vehicle 1110 at the current time by moving the actual moving distance around the centripetal point 1030 for the center wheel 1003 of the vehicle 1000 at the previous time. location can be determined. A movement angle d θ of the center wheel 1103 may be determined based on the position of the center wheel 1103 .

도 11을 참조하여 도시된 이전 시각의 차량(1000) 및 현재 시각의 차량(1110) 간의 위치 관계가 차량의 중심을 기준으로 도12를 참조하여 표현된다. 차량(1000)의 중심 위치(1210) 및 차량(1110)의 중심 위치(1220)가 결정된다. 구심점(1030)을 중심으로 뒤축과 중심 위치(1210) 간의 각도(θC)가 결정되고, 구심점(1030)을 중심으로 중심 위치(1210) 및 중심 위치(1220) 간의 각도(dθ)가 결정된다. 중심 위치(1210) 및 중심 위치(1220) 간의 각도(dθ)는 도 11의 이동 각도(dθ)와 동일하다. 중심 위치(1210) 및 중심 위치(1220) 간의 가로 축 거리(1230) 및 세로 축 거리(1240)가 결정된다.The positional relationship between the vehicle 1000 at the previous time and the vehicle 1110 at the current time illustrated with reference to FIG. 11 is expressed with reference to FIG. 12 based on the center of the vehicle. A center position 1210 of the vehicle 1000 and a center position 1220 of the vehicle 1110 are determined. The angle θ C between the rear axle and the central position 1210 is determined around the centripetal point 1030, and the angle d θ between the central position 1210 and the central position 1220 around the centripetal point 1030 is determined. do. The angle d θ between the central position 1210 and the central position 1220 is the same as the movement angle d θ of FIG. 11 . A horizontal axis distance 1230 and a longitudinal axis distance 1240 between the central position 1210 and the central position 1220 are determined.

차량(1110)의 가로 축으로 이동한 거리(1230) 및 세로 축으로 이동한 거리(1240) 및 구심점(1030)에 대해 회전한 각도(dθ)에 기초하여 이전 조감 시점 영상(510) 상에서 현재 시각에 차량이 위치하는 영역(710)을 타겟 영역으로 결정된다.Based on the distance 1230 moved along the horizontal axis, the distance 1240 moved along the vertical axis, and the angle d θ rotated with respect to the centripetal point 1030 of the vehicle 1110, the current on the previous bird's-eye view image 510 An area 710 in which the vehicle is located at the time is determined as the target area.

도 13은 일 예에 따른 타겟 영역에 기초하여 초기 조감 시점 영상의 홀 영역의 적어도 일부를 채움으로써 현재 시각에 대한 조감 시점 영상을 생성하는 방법의 흐름도이다.13 is a flowchart of a method of generating a bird's eye view image for a current time by filling at least a part of a hole area of an initial bird's eye view image based on a target area according to an example.

일 측면에 따르면, 도 4를 참조하여 전술된 단계(450)는 아래의 단계들(1310 내지 1330)을 포함할 수 있다.According to one aspect, the step 450 described above with reference to FIG. 4 may include the following steps 1310 to 1330 .

단계(1310)에서, 전자 장치(300)는 타겟 영역 중 이전 조감 시점 영상 상에서 이전 시각에 차량이 위치하는 영역을 제외한 부분 타겟 영역을 차량 영역 영상에 누적시킨다. 차량 영역 영상은 각 시각의 차량 영역에 대응하는 영역들 만을 누적시킨 영상일 수 있다. 차량 영역 영상의 중심은 시각이 변화할 때마다 변화할 수 있다. 예를 들어, 이전 시각에 대한 차량 영역 영상의 중심이 가로 축으로 이동한 거리(1230) 및 세로 축으로 이동한 거리(1240)에 기초하여 이동할 수 있다. 이에 따라, 현재 시각의 차량 영역이 차량 영역 영상의 중심에 위치할 수 있다.In operation 1310 , the electronic device 300 accumulates a partial target area excluding the area where the vehicle is located at the previous time on the previous bird's-eye view image among the target areas in the vehicle area image. The vehicle area image may be an image in which only areas corresponding to the vehicle area at each time are accumulated. The center of the vehicle area image may change whenever the time of day changes. For example, the center of the vehicle region image for the previous time may move based on a distance 1230 moved along the horizontal axis and a distance 1240 moved along the vertical axis. Accordingly, the vehicle area at the current time may be located at the center of the vehicle area image.

일 측면에 따르면, 차량 영역 영상을 저장하기 위한 영역이 메모리(330) 상에 미리 설정될 수 있다.According to one aspect, an area for storing the vehicle area image may be preset on the memory 330 .

부분 타겟 영역을 차량 영역 영상에 누적시키는 방법에 대해, 아래에서 도 14 내지 16을 참조하여 상세히 설명된다.A method of accumulating the partial target area on the vehicle area image will be described in detail below with reference to FIGS. 14 to 16 .

단계(1320)에서, 전자 장치(300)는 현재 시각에서 차량이 위치하는 영역을 차량 영역 영상 상에서 복사 영역으로 결정한다. 도 17을 참조한 예에서, 차량 영역 영상(1600) 상에서 현재 시각에서 차량이 위치하는 영역이 복사 영역(1710)으로 결정된다.In operation 1320 , the electronic device 300 determines an area in which the vehicle is located at the current time as a copy area on the vehicle area image. In the example with reference to FIG. 17 , the area in which the vehicle is located at the current time on the vehicle area image 1600 is determined as the radiation area 1710 .

단계(1330)에서, 전자 장치(300)는 복사 영역을 초기 조감 시점 영상의 홀 영역의 적어도 일부에 복사함으로써 조감 시점 영상을 생성한다. 도 17을 참조하는 예에서, 복사 영역(1710)을 초기 조감 시점 영상(520)의 홀 영역(522)의 적어도 일부에 복사함으로써 현재 시각에 대한 조감 시점 영상을 생성한다.In operation 1330, the electronic device 300 generates a bird's-eye view image by copying the copy area to at least a part of the hole area of the initial bird's-eye view image. In the example referring to FIG. 17 , a bird's eye view image for the current time is generated by copying the copy area 1710 to at least a part of the hole area 522 of the initial bird's eye view image 520 .

도 14는 일 예에 따른 타겟 영역 중 이전 조감 시점 영상 상에서 이전 시각에 차량이 위치하는 영역을 제외한 부분 타겟 영역을 차량 영역 영상에 누적시키는 방법의 흐름도이다.14 is a flowchart of a method of accumulating a partial target area excluding an area in which a vehicle is located at a previous time on a previous bird's eye view image among target areas in a vehicle area image, according to an example.

일 측면에 따르면, 도 13를 참조하여 전술된 단계(1310)는 아래의 단계들(1410 내지 1440)을 포함할 수 있다.According to one aspect, the step 1310 described above with reference to FIG. 13 may include the following steps 1410 to 1440 .

단계(1410)에서, 전자 장치(300)는 기준 시각으로부터 이전 시각까지의 차량의 누적 회전 각도를 계산한다. 예를 들어, 기준 시각은 차량 영역 영상이 생성되기 시작한 초기 시각일 수 있다. 제1 시각 및 제2 시각 사이의 차량의 제1 회전 각도가 계산되고, 제2 시각 및 제3 시각 사이의 차량의 제2 회전 각도가 계산되고, 기준 시각이 제1 시각이고, 이전 시각이 제3 시각인 경우, 제1 회전 각도 및 제2 회전 각도의 합이 누적 회전 각도로 계산될 수 있다.In operation 1410 , the electronic device 300 calculates the cumulative rotation angle of the vehicle from the reference time to the previous time. For example, the reference time may be an initial time at which the vehicle region image is generated. A first rotation angle of the vehicle between the first time and the second time is calculated, a second rotation angle of the vehicle between the second time and the third time is calculated, the reference time is the first time, and the previous time is the second time In the case of 3 time, the sum of the first rotation angle and the second rotation angle may be calculated as the cumulative rotation angle.

단계(1420)에서, 전자 장치(300)는 타겟 영역 중 이전 조감 시점 영상 상에서 이전 시각에 차량이 위치하는 영역을 제외한 부분 타겟 영역을 생성한다.In operation 1420 , the electronic device 300 generates a partial target area from among the target areas except for the area where the vehicle is located at the previous time on the previous bird's-eye view image.

도 15를 참조한 예에서, 타겟 영역(710) 중 이전 조감 시점 영상(510) 상에서 이전 시각에 차량이 위치하는 차량 영역(1510)을 제외한 부분 타겟 영역(1520)을 생성한다. 차량 영역(1510)에 정보가 없는 것처럼 도시되었으나, 이전 조감 시점 영상(510)의 영역(1510)은 이전 시각에서의 차량 영역 영상에 기초하여 미리 채워질 수 있다. 이에 따라, 현재 시각에서의 차량 영역 영상은 이전 시각에 차량이 위치하는 영역에 대한 정보를 이미 포함할 수 있으므로, 처리되는 데이터의 양을 감소시키기 위해 타겟 영역 중 이전 조감 시점 영상 상에서 이전 시각에 차량이 위치하는 영역을 제외시킬 수 있다.In the example with reference to FIG. 15 , a partial target area 1520 is generated in the target area 710 except for the vehicle area 1510 in which the vehicle is located at the previous time on the previous bird's eye view image 510 . Although it is illustrated as if there is no information in the vehicle area 1510 , the area 1510 of the previous bird's-eye view image 510 may be pre-filled based on the vehicle area image at the previous time. Accordingly, since the vehicle area image at the current time may already include information on the area where the vehicle is located at the previous time, in order to reduce the amount of processed data, the vehicle at the previous time on the previous bird's-eye view image of the target area is reduced. You can exclude the area where it is located.

단계(1430)에서, 전자 장치(300)는 차량의 누적 회전 각도에 대응하도록 부분 타겟 영역을 회전시킨다.In operation 1430 , the electronic device 300 rotates the partial target area to correspond to the cumulative rotation angle of the vehicle.

도 15를 참조한 예에서, 이전 시각에 대한 차량 영역 영상(1530)의 중심을 기준으로 누적 회전 각도(θacc)에 대응하도록 부분 타겟 영역(1520)이 회전된다.In the example with reference to FIG. 15 , the partial target area 1520 is rotated to correspond to the cumulative rotation angle θ acc based on the center of the vehicle area image 1530 for the previous time.

단계(1440)에서, 전자 장치(300)는 회전된 부분 타겟 영역을 차량 영역 영상에 누적시킨다. 부분 타겟 영역이 누적된 차량 영역 영상의 중심이 부분 타겟 영상의 중심으로 이동될 수 있다. 현재 시각에 대한 부분 타겟 영역이 누적된 차량 영역 영상은 현재 시각에 대해 생성된 영상일 수 있다.In operation 1440 , the electronic device 300 accumulates the rotated partial target area on the vehicle area image. The center of the vehicle area image in which the partial target area is accumulated may be moved to the center of the partial target image. The vehicle area image in which the partial target area for the current time is accumulated may be an image generated for the current time.

도 16을 참조한 예에서, 이전 시각에 대한 차량 영역 영상(1530)에 회전된 부분 타겟 영역(1520)을 누적시킴으로써 예비 차량 영역 영상이 생성된다. 예비 차량 영역 영상의 중심을 부분 타겟 영역(1520)의 중심으로 이동시킴으로써 현재 시각에 대한 차량 영역 영상(1600)이 생성된다.In the example with reference to FIG. 16 , the preliminary vehicle area image is generated by accumulating the rotated partial target area 1520 on the vehicle area image 1530 for the previous time. By moving the center of the preliminary vehicle area image to the center of the partial target area 1520 , the vehicle area image 1600 for the current time is generated.

단계(1440)가 수행된 후, 도 13을 참조하여 전술된 단계들(1320 및 1330)이 수행될 수 있다.After step 1440 is performed, steps 1320 and 1330 described above with reference to FIG. 13 may be performed.

도 17을 참조한 예에서, 단계(1320)를 통해 현재 시각에서 차량이 위치하는 영역이 차량 영역 영상(1600) 상에서 복사 영역(1710)로 결정된다. 복사 영역(1710)은 부분 타겟 영역(1520)을 포함할 수 있다. 복사 영역(1710) 중 부분 타겟 영역(1520)에 포함되지 않는 영역은 현재 시각의 이전 시각들에서 복사된 영역일 수 있다.In the example with reference to FIG. 17 , in step 1320 , the area in which the vehicle is located at the current time is determined as the radiation area 1710 on the vehicle area image 1600 . The radiation area 1710 may include a partial target area 1520 . An area not included in the partial target area 1520 among the copy area 1710 may be an area copied from previous times of the current time.

단계(1330)를 통해 복사 영역(1710)이 초기 조감 시점 영상(520)의 홀 영역(522)의 적어도 일부에 복사함으로써 조감 시점 영상을 생성한다.In operation 1330 , the copy area 1710 is copied to at least a part of the hole area 522 of the initial bird's eye view image 520 to generate a bird's-eye view image.

도 18은 일 예에 따른 차량 영역 영상이다.18 is a vehicle area image according to an example.

도시된 차량 영역 영상(1800)은 초기 시각으로부터 현재 시각까지 연속적으로 생성된 부분 타겟 영역들이 누적된 영상일 수 있다. 다시 말하자면, 차량 영역 영상(1800)은 차량이 이동한 바닥 영역에 대한 영상일 수 있다.The illustrated vehicle region image 1800 may be an image in which partial target regions continuously generated from an initial time to a current time are accumulated. In other words, the vehicle area image 1800 may be an image of the floor area to which the vehicle has moved.

도 19는 일 예에 따른 차량 영역 영상 상에서 결정된 복사 영역 및 복사 영역을 이용하여 생성된 조감 시점 영상을 도시한다.19 illustrates a bird's-eye view image generated using a radiation area determined on a vehicle area image and the radiation area according to an example.

현재 시각에서 차량이 위치하는 영역이 차량 영역 영상(1800) 상에서 복사 영역(1910)으로 결정된다. 복사 영역(1910)이 초기 조감 시점 영상(200)의 홀 영역(210)의 적어도 일부에 복사됨으로써 조감 시점 영상이 생성된다.The area in which the vehicle is located at the current time is determined as the radiation area 1910 on the vehicle area image 1800 . A bird's eye view image is generated by copying the copy area 1910 to at least a part of the hole area 210 of the initial bird's eye view image 200 .

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited drawings, those skilled in the art may apply various technical modifications and variations based on the above. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

300: 전자 장치
310: 통신부
320: 프로세서
330: 메모리
340: 카메라
300: electronic device
310: communication unit
320: processor
330: memory
340: camera

Claims (17)

전자 장치에 의해 수행되는, 조감 시점 영상 생성 방법은,
차량에 설치된 복수의 카메라들을 이용하여 현재 시각에 대한 복수의 영상들을 생성하는 단계;
상기 복수의 영상들에 기초하여 상기 현재 시각에 대한 초기 조감 시점 영상을 생성하는 단계 - 상기 초기 조감 시점 영상은 홀 영역을 가짐 -;
이전 시각으로부터 상기 현재 시각까지 상기 차량이 이동한 이동 정보를 생성하는 단계;
상기 이동 정보에 기초하여 상기 이전 시각에 대한 이전 조감 시점 영상 상에서 상기 현재 시각에 상기 차량이 위치하는 타겟 영역을 결정하는 단계; 및
상기 타겟 영역에 기초하여 상기 초기 조감 시점 영상의 상기 홀 영역의 적어도 일부를 채움으로써 상기 현재 시각에 대한 조감 시점 영상을 생성하는 단계
를 포함하는,
조감 시점 영상 생성 방법.
A bird's-eye view image generating method performed by an electronic device,
generating a plurality of images for a current time using a plurality of cameras installed in a vehicle;
generating an initial bird's eye view image for the current time based on the plurality of images, wherein the initial bird's eye view image has a hole area;
generating movement information in which the vehicle has moved from a previous time to the present time;
determining a target area in which the vehicle is located at the current time on a previous bird's-eye view image for the previous time based on the movement information; and
generating a bird's eye view image for the current time by filling at least a part of the hole area of the initial bird's eye view image based on the target area
containing,
How to create a bird's-eye view image.
제1항에 있어서,
상기 초기 조감 시점 영상의 상기 홀 영역은, 상기 현재 시각에서 상기 차량이 위치한 영역을 포함하는,
조감 시점 영상 생성 방법.
According to claim 1,
The hall area of the initial bird's eye view image includes an area in which the vehicle is located at the current time,
How to create a bird's-eye view image.
제1항에 있어서,
상기 초기 조감 시점 영상의 상기 홀 영역은, 상기 복수의 카메라들의 시야각(viewing angle)에서 벗어난 영역에 대응하는,
조감 시점 영상 생성 방법.
According to claim 1,
The hole area of the initial bird's eye view image corresponds to an area deviating from the viewing angles of the plurality of cameras,
How to create a bird's-eye view image.
제1항에 있어서,
상기 이동 정보를 생성하는 단계는,
상기 차량의 핸들의 조향 각도 및 상기 차량의 속도를 수신하는 단계;
상기 조향 각도 및 상기 속도에 기초하여 상기 차량의 타겟 바퀴의 회전 각도 및 상기 타겟 바퀴의 실제 이동 거리를 계산하는 단계; 및
상기 실제 이동 거리를 조감 시점의 영상 평면의 스케일로 변환함으로써 타겟 이동 거리를 계산하는 단계
를 포함하고,
상기 이동 정보는 상기 회전 각도 및 상기 타겟 이동 거리를 포함하는,
조감 시점 영상 생성 방법.
According to claim 1,
The step of generating the movement information comprises:
receiving a steering angle of a steering wheel of the vehicle and a speed of the vehicle;
calculating a rotation angle of a target wheel of the vehicle and an actual moving distance of the target wheel based on the steering angle and the speed; and
Calculating the target movement distance by converting the actual movement distance into a scale of the image plane of the bird's eye view
including,
The movement information includes the rotation angle and the target movement distance,
How to create a bird's-eye view image.
제4항에 있어서,
상기 이동 정보에 기초하여 상기 타겟 영역을 결정하는 단계는,
상기 이동 정보에 기초하여 상기 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 단계; 및
계산된 상기 차량의 상기 가로 축으로 이동한 거리, 상기 세로 축으로 이동한 거리 및 상기 구심점에 대해 상기 회전한 각도에 기초하여, 상기 이전 조감 시점 영상 상에서 상기 현재 시각에 상기 차량이 위치하는 영역을 상기 타겟 영역으로 결정하는 단계
를 포함하는,
조감 시점 영상 생성 방법.
5. The method of claim 4,
Determining the target area based on the movement information comprises:
calculating a distance moved by the horizontal axis, a distance moved in a vertical axis, and a rotation angle with respect to the centripetal point of the vehicle on the image plane at a bird's eye view point based on the movement information; and
Based on the calculated distance moved along the horizontal axis, the distance moved along the vertical axis, and the rotated angle with respect to the centripetal point, the area in which the vehicle is located at the current time on the previous bird's eye view image Determining the target area
containing,
How to create a bird's-eye view image.
제5항에 있어서,
상기 이동 정보에 기초하여 상기 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 단계는,
애커먼 장토식(Ackerman-Jantoud type)을 통해 상기 이동 정보에 기초하여 상기 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 단계
를 포함하는,
조감 시점 영상 생성 방법.
6. The method of claim 5,
Calculating the distance moved by the horizontal axis, the distance moved by the vertical axis, and the rotation angle with respect to the centripetal point of the vehicle on the image plane of the bird's eye view point based on the movement information,
Based on the movement information through the Ackerman-Jantoud type, the distance that the vehicle moves on the horizontal axis on the image plane at the bird's eye view, the distance moved on the vertical axis, and the rotation angle with respect to the centripetal point are calculated. step
containing,
How to create a bird's-eye view image.
제5항에 있어서,
상기 이동 정보에 기초하여 상기 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 단계는,
상기 차량의 타겟 바퀴의 회전 각도에 기초하여 미리 설정된 가상의 중앙 바퀴의 회전 각도를 계산하는 단계;
상기 차량의 트랙(track) 길이, 상기 차량의 휠 베이스(wheelbase) 길이 및 상기 중앙 바퀴의 상기 회전 각도에 기초하여 상기 구심점을 결정하는 단계;
상기 타겟 바퀴의 실제 이동 거리에 기초하여 상기 중앙 바퀴의 실제 이동 거리를 계산하는 단계; 및
상기 구심점 및 상기 중앙 바퀴의 실제 이동 거리에 기초하여 상기 차량이 상기 조감 시점의 영상 평면 상에서 상기 가로 축으로 이동한 거리, 상기 세로 축으로 이동한 거리 및 상기 구심점에 대해 회전한 각도를 계산하는 단계
를 포함하는,
조감 시점 영상 생성 방법.
6. The method of claim 5,
Calculating the distance moved by the horizontal axis, the distance moved by the vertical axis, and the rotation angle with respect to the centripetal point of the vehicle on the image plane of the bird's eye view point based on the movement information,
calculating a rotation angle of a preset virtual center wheel based on the rotation angle of the target wheel of the vehicle;
determining the centripetal point based on a track length of the vehicle, a wheelbase length of the vehicle, and the rotation angle of the center wheel;
calculating an actual moving distance of the center wheel based on the actual moving distance of the target wheel; and
Calculating the distance the vehicle moves along the horizontal axis on the image plane of the bird's eye view, the distance moved along the vertical axis, and the angle rotated with respect to the centripetal point based on the actual movement distance of the centripetal point and the center wheel
containing,
How to create a bird's-eye view image.
제1항에 있어서,
상기 타겟 영역에 기초하여 상기 초기 조감 시점 영상의 상기 홀 영역의 적어도 일부를 채움으로써 상기 현재 시각에 대한 조감 시점 영상을 생성하는 단계는,
상기 타겟 영역 중 상기 이전 조감 시점 영상 상에서 상기 이전 시각에 상기 차량이 위치하는 영역을 제외한 부분 타겟 영역을 차량 영역 영상에 누적시키는 단계;
상기 현재 시각에서 상기 차량이 위치하는 영역을 상기 차량 영역 영상 상에서 복사 영역으로 결정하는 단계; 및
상기 복사 영역을 상기 초기 조감 시점 영상의 상기 홀 영역의 적어도 일부에 복사함으로써 상기 조감 시점 영상을 생성하는 단계
를 포함하는,
조감 시점 영상 생성 방법.
According to claim 1,
generating a bird's eye view image for the current time by filling at least a part of the hole area of the initial bird's eye view image based on the target area,
accumulating a partial target area excluding the area where the vehicle is located at the previous time on the previous bird's eye view image of the target area in the vehicle area image;
determining an area in which the vehicle is located at the current time as a copy area on the vehicle area image; and
generating the bird's-eye view image by copying the copy area to at least a part of the hole area of the initial bird's-eye view image
containing,
How to create a bird's-eye view image.
제8항에 있어서,
상기 타겟 영역 중 상기 이전 조감 시점 영상 상에서 상기 이전 시각에 상기 차량이 위치하는 영역을 제외한 부분 타겟 영역을 차량 영역 영상에 누적시키는 단계는,
기준 시각으로부터 상기 이전 시각 까지의 상기 차량의 누적 회전 각도를 계산하는 단계;
상기 타겟 영역 중 상기 이전 조감 시점 영상 상에서 상기 이전 시각에 상기 차량이 위치하는 영역을 제외한 부분 타겟 영역을 생성하는 단계;
상기 누적 회전 각도에 대응하도록 상기 부분 타겟 영역을 회전시키는 단계; 및
상기 회전된 부분 타겟 영역을 상기 차량 영역 영상에 누적시키는 단계
를 포함하는,
조감 시점 영상 생성 방법.
9. The method of claim 8,
The step of accumulating a partial target area excluding the area where the vehicle is located at the previous time on the previous bird's eye view image among the target areas in the vehicle area image,
calculating a cumulative rotation angle of the vehicle from a reference time to the previous time;
generating a partial target area excluding an area in which the vehicle is located at the previous time on the previous bird's eye view image among the target areas;
rotating the partial target area to correspond to the cumulative rotation angle; and
accumulating the rotated partial target area on the vehicle area image
containing,
How to create a bird's-eye view image.
제1항에 있어서,
상기 전자 장치는, 자율 주행 차량 또는 ADAS(Advanced Driver Assistance Systems)을 지원하는 차량에 탑재되는,
조감 시점 영상 생성 방법.
According to claim 1,
The electronic device is mounted on an autonomous driving vehicle or a vehicle supporting Advanced Driver Assistance Systems (ADAS),
How to create a bird's-eye view image.
제1항 내지 10항 중 어느 한 항의 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.
A computer-readable recording medium containing a program for performing the method of any one of claims 1 to 10.
조감 시점 영상을 생성하는 전자 장치는,
조감 시점 영상을 생성하는 프로그램을 수행하는 프로세서; 및
상기 프로그램을 저장하는 메모리
를 포함하고,
상기 프로그램은,
차량에 설치된 복수의 카메라들을 이용하여 현재 시각에 대한 복수의 영상들을 생성하는 단계;
상기 복수의 영상들에 기초하여 상기 현재 시각에 대한 초기 조감 시점 영상을 생성하는 단계 - 상기 초기 조감 시점 영상은 홀 영역을 가짐 -;
이전 시각으로부터 상기 현재 시각까지 상기 차량이 이동한 이동 정보를 생성하는 단계;
상기 이동 정보에 기초하여 상기 이전 시각에 대한 이전 조감 시점 영상 상에서 상기 현재 시각에 상기 차량이 위치하는 타겟 영역을 결정하는 단계; 및
상기 타겟 영역에 기초하여 상기 초기 조감 시점 영상의 상기 홀 영역의 적어도 일부를 채움으로써 상기 현재 시각에 대한 조감 시점 영상을 생성하는 단계
를 수행하는,
전자 장치.
An electronic device for generating a bird's-eye view image,
a processor executing a program for generating a bird's-eye view image; and
memory to store the program
including,
The program is
generating a plurality of images for a current time using a plurality of cameras installed in a vehicle;
generating an initial bird's eye view image for the current time based on the plurality of images, wherein the initial bird's eye view image has a hole area;
generating movement information in which the vehicle has moved from a previous time to the present time;
determining a target area in which the vehicle is located at the current time on a previous bird's-eye view image for the previous time based on the movement information; and
generating a bird's eye view image for the current time by filling at least a part of the hole area of the initial bird's eye view image based on the target area
to do,
electronic device.
제12항에 있어서,
상기 복수의 영상들을 생성하는 복수의 카메라들
을 더 포함하는,
전자 장치.
13. The method of claim 12,
A plurality of cameras generating the plurality of images
further comprising,
electronic device.
제12항에 있어서,
상기 이동 정보를 생성하는 단계는,
상기 차량의 핸들의 조향 각도 및 상기 차량의 속도를 수신하는 단계;
상기 조향 각도 및 상기 속도에 기초하여 상기 차량의 타겟 바퀴의 회전 각도 및 상기 타겟 바퀴의 실제 이동 거리를 계산하는 단계; 및
상기 실제 이동 거리를 조감 시점의 영상 평면의 스케일로 변환함으로써 타겟 이동 거리를 계산하는 단계
를 포함하고,
상기 이동 정보는 상기 회전 각도 및 상기 타겟 이동 거리를 포함하는,
전자 장치.
13. The method of claim 12,
The step of generating the movement information comprises:
receiving a steering angle of a steering wheel of the vehicle and a speed of the vehicle;
calculating a rotation angle of a target wheel of the vehicle and an actual moving distance of the target wheel based on the steering angle and the speed; and
Calculating the target movement distance by converting the actual movement distance into a scale of the image plane of the bird's eye view
including,
The movement information includes the rotation angle and the target movement distance,
electronic device.
제14항에 있어서,
상기 이동 정보에 기초하여 상기 타겟 영역을 결정하는 단계는,
상기 이동 정보에 기초하여 상기 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 단계; 및
계산된 상기 차량의 상기 가로 축으로 이동한 거리, 상기 세로 축으로 이동한 거리 및 상기 구심점에 대해 상기 회전한 각도에 기초하여, 상기 이전 조감 시점 영상 상에서 상기 현재 시각에 상기 차량이 위치하는 영역을 상기 타겟 영역으로 결정하는 단계
를 포함하는,
전자 장치.
15. The method of claim 14,
Determining the target area based on the movement information comprises:
calculating a distance moved by the horizontal axis, a distance moved in a vertical axis, and a rotation angle with respect to the centripetal point of the vehicle on the image plane at a bird's eye view point based on the movement information; and
Based on the calculated distance moved along the horizontal axis, the distance moved along the vertical axis, and the rotated angle with respect to the centripetal point, the area in which the vehicle is located at the current time on the previous bird's eye view image Determining the target area
containing,
electronic device.
제15항에 있어서,
상기 이동 정보에 기초하여 상기 차량이 조감 시점의 영상 평면 상에서 가로 축으로 이동한 거리, 세로 축으로 이동한 거리 및 구심점에 대해 회전한 각도를 계산하는 단계는,
상기 차량의 타겟 바퀴의 회전 각도에 기초하여 미리 설정된 가상의 중앙 바퀴의 회전 각도를 계산하는 단계;
상기 차량의 트랙(track) 길이, 상기 차량의 휠 베이스(wheelbase) 길이 및 상기 중앙 바퀴의 상기 회전 각도에 기초하여 상기 구심점을 결정하는 단계;
상기 타겟 바퀴의 실제 이동 거리에 기초하여 상기 중앙 바퀴의 실제 이동 거리를 계산하는 단계; 및
상기 구심점 및 상기 중앙 바퀴의 실제 이동 거리에 기초하여 상기 차량이 상기 조감 시점의 영상 평면 상에서 상기 가로 축으로 이동한 거리, 상기 세로 축으로 이동한 거리 및 상기 구심점에 대해 회전한 각도를 계산하는 단계
를 포함하는,
전자 장치.
16. The method of claim 15,
Calculating the distance moved by the horizontal axis, the distance moved by the vertical axis, and the rotation angle with respect to the centripetal point of the vehicle on the image plane of the bird's eye view point based on the movement information,
calculating a rotation angle of a preset virtual center wheel based on the rotation angle of the target wheel of the vehicle;
determining the centripetal point based on a track length of the vehicle, a wheelbase length of the vehicle, and the rotation angle of the center wheel;
calculating an actual moving distance of the center wheel based on the actual moving distance of the target wheel; and
Calculating the distance the vehicle moves along the horizontal axis on the image plane of the bird's eye view, the distance moved along the vertical axis, and the angle rotated with respect to the centripetal point based on the actual movement distance of the centripetal point and the center wheel
containing,
electronic device.
제12항에 있어서,
상기 전자 장치는, 자율 주행 차량 또는 ADAS(Advanced Driver Assistance Systems)을 지원하는 차량에 탑재되는,
전자 장치.
13. The method of claim 12,
The electronic device is mounted on an autonomous driving vehicle or a vehicle supporting Advanced Driver Assistance Systems (ADAS),
electronic device.
KR1020200073341A 2020-06-17 2020-06-17 Appratus and method for generating bird viewpoint image KR102366944B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020200073341A KR102366944B1 (en) 2020-06-17 2020-06-17 Appratus and method for generating bird viewpoint image
CN202110514457.4A CN113808013A (en) 2020-06-17 2021-05-11 Method and device for generating aerial view point image
DE102021205154.5A DE102021205154B4 (en) 2020-06-17 2021-05-20 DEVICE AND METHOD FOR GENERATING A BIRD'S EYE VIEW IMAGE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200073341A KR102366944B1 (en) 2020-06-17 2020-06-17 Appratus and method for generating bird viewpoint image

Publications (2)

Publication Number Publication Date
KR20210156360A true KR20210156360A (en) 2021-12-27
KR102366944B1 KR102366944B1 (en) 2022-02-28

Family

ID=78823289

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200073341A KR102366944B1 (en) 2020-06-17 2020-06-17 Appratus and method for generating bird viewpoint image

Country Status (3)

Country Link
KR (1) KR102366944B1 (en)
CN (1) CN113808013A (en)
DE (1) DE102021205154B4 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114792414A (en) * 2022-03-31 2022-07-26 北京鉴智科技有限公司 Target variable detection method and system for carrier
DE102023202306B3 (en) 2023-03-14 2024-06-06 Continental Autonomous Mobility Germany GmbH Method for generating an environmental view of a vehicle, image recording device and vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110084780A (en) * 2010-01-18 2011-07-26 현대모비스 주식회사 Method for calculating radius of curvature on road
KR101378337B1 (en) * 2012-10-30 2014-03-27 주식회사 이미지넥스트 Apparatus and method for processing image of camera
KR20180066494A (en) * 2016-12-09 2018-06-19 엘지전자 주식회사 Around view monitoring apparatus for vehicle, driving control apparatus and vehicle
KR20180113020A (en) * 2017-04-05 2018-10-15 엘지이노텍 주식회사 Blind spot display apparatus and method for vehicle

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10576892B2 (en) 2016-03-24 2020-03-03 Ford Global Technologies, Llc System and method for generating a hybrid camera view in a vehicle
DE102018207976A1 (en) 2018-05-22 2019-11-28 Continental Automotive Gmbh Method and device for displaying a vehicle environment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110084780A (en) * 2010-01-18 2011-07-26 현대모비스 주식회사 Method for calculating radius of curvature on road
KR101378337B1 (en) * 2012-10-30 2014-03-27 주식회사 이미지넥스트 Apparatus and method for processing image of camera
KR20180066494A (en) * 2016-12-09 2018-06-19 엘지전자 주식회사 Around view monitoring apparatus for vehicle, driving control apparatus and vehicle
KR20180113020A (en) * 2017-04-05 2018-10-15 엘지이노텍 주식회사 Blind spot display apparatus and method for vehicle

Also Published As

Publication number Publication date
CN113808013A (en) 2021-12-17
DE102021205154A1 (en) 2021-12-23
KR102366944B1 (en) 2022-02-28
DE102021205154B4 (en) 2023-07-27

Similar Documents

Publication Publication Date Title
KR102275310B1 (en) Mtehod of detecting obstacle around vehicle
KR102366944B1 (en) Appratus and method for generating bird viewpoint image
JP6486045B2 (en) System, vehicle and method for on-line calibration of in-vehicle camera
US20160104289A1 (en) Real-time range map generation
EP3942794B1 (en) Depth-guided video inpainting for autonomous driving
US11318930B2 (en) Parking assistance device and parking assistance method
US20170359561A1 (en) Disparity mapping for an autonomous vehicle
CN108174089B (en) Backing image splicing method and device based on binocular camera
JP2019131149A (en) Vehicle control device, its control method and vehicle control system
CN105818763A (en) Method, device and system for confirming distance of object around vehicle
CN111402132B (en) Reversing auxiliary method and system, image processor and corresponding auxiliary driving system
KR20090036795A (en) Light stripe detection method for indoor navigation and parking assist apparatus using same
US20210405651A1 (en) Adaptive sensor control
JP7075273B2 (en) Parking support device
WO2022052508A1 (en) Distance measurement method and apparatus, and terminal device and vehicle
KR102695440B1 (en) Method for determining camera posture and electronic device for the method
JP5557036B2 (en) Exit determination device, exit determination program, and exit determination method
KR20230019643A (en) Appratus and method for controlling vehicle for parking
CN111896024A (en) Navigation display control method and device and AR-HUD display system
WO2020223868A1 (en) Terrain information processing method and apparatus, and unmanned vehicle
KR20140088779A (en) Rear Monitoring Apparatus and Method in Vehicle
GB2580400A (en) A control system, system and method for providing assistance to an occupant of a vehicle
KR102641118B1 (en) Method and apparatus for providing ar object to user
KR102119678B1 (en) Lane detection method and electronic device performing the method
US20220111840A1 (en) A control system, system and method for providing assistance to an occupant of a vehicle

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant