KR102582056B1 - Surround view providing device and operating method of the same - Google Patents

Surround view providing device and operating method of the same Download PDF

Info

Publication number
KR102582056B1
KR102582056B1 KR1020230067998A KR20230067998A KR102582056B1 KR 102582056 B1 KR102582056 B1 KR 102582056B1 KR 1020230067998 A KR1020230067998 A KR 1020230067998A KR 20230067998 A KR20230067998 A KR 20230067998A KR 102582056 B1 KR102582056 B1 KR 102582056B1
Authority
KR
South Korea
Prior art keywords
vehicle
driving
surround view
angular acceleration
providing device
Prior art date
Application number
KR1020230067998A
Other languages
Korean (ko)
Inventor
이규형
Original Assignee
주식회사 원테이크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 원테이크 filed Critical 주식회사 원테이크
Priority to KR1020230067998A priority Critical patent/KR102582056B1/en
Application granted granted Critical
Publication of KR102582056B1 publication Critical patent/KR102582056B1/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/14Yaw
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/16Pitch
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/18Roll

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

차량에 설치되어 차량에 대한 서라운드 뷰 영상을 제공하기 위한 서라운드 뷰 제공 장치가 개시된다. 장치는, 차량으로부터 차량의 주행과 관련된 주행 데이터를 수신하도록 구성되는 데이터 수신부, 수신된 주행 데이터로부터 차량에 대한 주행 특징 벡터를 생성하고, 차량의 주행 특징 벡터를, 각각이 복수의 주행 특징 벡터들을 포함하는 복수의 클러스터 중 어느 하나의 클러스터로 분류함으로써, 차량의 주행 패턴을 결정하도록 구성되는 주행 패턴 결정부, 차량의 주행 패턴과 동일한 주행 패턴을 갖는 참조 차량들을 결정하고, 저장된 참조 차량의 변환 파라미터들을 이용하여 차량에 대한 변환 파라미터를 결정하도록 구성되는 파라미터 결정부 및 차량에 대한 변환 파라미터 및 차량의 카메라에 의해 생성된 카메라 영상들을 이용하여 서라운드 뷰 영상을 생성하도록 구성되는 서라운드 뷰 영상 제공부를 포함한다.A surround view providing device installed in a vehicle to provide a surround view image of the vehicle is disclosed. The apparatus includes a data receiving unit configured to receive driving data related to driving of the vehicle from the vehicle, generating a driving feature vector for the vehicle from the received driving data, and generating a driving feature vector of the vehicle, each of which includes a plurality of driving feature vectors. A driving pattern determination unit configured to determine the driving pattern of the vehicle by classifying it into one of a plurality of clusters including, determining reference vehicles having the same driving pattern as the driving pattern of the vehicle, and converting parameters of the stored reference vehicle. It includes a parameter determination unit configured to determine conversion parameters for the vehicle using the conversion parameters for the vehicle and a surround view image providing unit configured to generate a surround view image using conversion parameters for the vehicle and camera images generated by a camera of the vehicle. .

Description

서라운드 뷰 제공 장치 및 이의 동작 방법{SURROUND VIEW PROVIDING DEVICE AND OPERATING METHOD OF THE SAME}Surround view providing device and operating method thereof {SURROUND VIEW PROVIDING DEVICE AND OPERATING METHOD OF THE SAME}

본 발명은 서라운드 뷰 제공 장치 및 이의 동작 방법에 관한 것이다.The present invention relates to a surround view providing device and a method of operating the same.

차량 영상 기술의 발달에 따라, 차량에는 다수의 카메라가 탑재되고 있다. 서라운드 뷰 모니터(Surround View Monitor)는 차량에 탑재된 복수의 카메라들을 이용하여, 차량 주변의 영상을 생성한다. 이 때, 실제와 비슷한 차량 주변의 영상을 생성하기 위해서는 차량에 탑재된 복수의 카메라들 각각에 의해 생성된 영상 사이의 정합(calibration)이 필요하다. With the development of vehicle imaging technology, multiple cameras are being mounted on vehicles. The Surround View Monitor uses multiple cameras mounted on the vehicle to generate images around the vehicle. At this time, in order to generate images around the vehicle that are similar to reality, calibration between images generated by each of a plurality of cameras mounted on the vehicle is required.

이러한 정합이 없는 경우, 카메라로부터 생성된 영상들 사이의 편차로 인해 최종 서라운드 뷰 영상에 오류가 발생할 수 있다. 따라서, 최초 서라운드 뷰 시스템 탑재 시 카메라들을 정합하는 정합 절차를 거치게 된다. 그러나, 차량의 주행에 따라 카메라들의 위치가 조금씩 변화하게 되고, 이에 따라 정합이 어긋나는 문제가 있다. In the absence of such matching, errors may occur in the final surround view image due to deviations between images generated from cameras. Therefore, when the surround view system is first installed, a matching procedure is performed to match the cameras. However, as the vehicle drives, the positions of the cameras change little by little, causing a problem of misalignment.

상기와 같은 문제점을 해결하기 위한 본 발명의 목적은 서라운드 뷰 제공 장치 및 이의 동작 방법을 제공하는 데 있다.The purpose of the present invention to solve the above problems is to provide a surround view providing device and a method of operating the same.

상기 목적을 달성하기 위한 본 발명의 일 측면은, 서라운드 뷰 제공 장치 및 이의 동작 방법을 제공한다.One aspect of the present invention for achieving the above object provides a surround view providing device and a method of operating the same.

본 발명의 실시 예들에 따른 차량에 설치되어 차량에 대한 서라운드 뷰 영상을 제공하기 위한 서라운드 뷰 제공 장치는, 차량으로부터 차량의 주행과 관련된 주행 데이터를 수신하도록 구성되는 데이터 수신부, 수신된 주행 데이터로부터 차량에 대한 주행 특징 벡터를 생성하고, 차량의 주행 특징 벡터를, 각각이 복수의 주행 특징 벡터들을 포함하는 복수의 클러스터 중 어느 하나의 클러스터로 분류함으로써, 차량의 주행 패턴을 결정하도록 구성되는 주행 패턴 결정부, 차량의 주행 패턴과 동일한 주행 패턴을 갖는 참조 차량들을 결정하고, 저장된 참조 차량의 변환 파라미터들을 이용하여 차량에 대한 변환 파라미터를 결정하도록 구성되는 파라미터 결정부 및 차량에 대한 변환 파라미터 및 차량의 카메라에 의해 생성된 카메라 영상들을 이용하여 서라운드 뷰 영상을 생성하도록 구성되는 서라운드 뷰 영상 제공부를 포함한다.A surround view providing device installed in a vehicle according to embodiments of the present invention to provide a surround view image for the vehicle includes a data receiver configured to receive driving data related to the driving of the vehicle from the vehicle, and a data receiving unit configured to receive driving data related to the driving of the vehicle from the vehicle. Driving pattern determination configured to determine the driving pattern of the vehicle by generating a driving feature vector for the vehicle and classifying the driving feature vector of the vehicle into one of a plurality of clusters, each of which includes a plurality of driving feature vectors. A parameter determination unit configured to determine reference vehicles having the same driving pattern as the driving pattern of the vehicle and determine conversion parameters for the vehicle using stored conversion parameters of the reference vehicle, conversion parameters for the vehicle, and a camera for the vehicle. and a surround view image providing unit configured to generate a surround view image using camera images generated by.

본 발명의 실시 예들에 따른 서라운드 뷰 영상 제공 장치의 동작 방법(즉, 서라운드 뷰 영상 제공 방법)은 복수의 명령어들로 구성되는 프로그램으로 구현되고, 컴퓨터 판독가능한 비일시적인 매체에 저장되어 컴퓨터에 의해 실행될 수 있다.A method of operating a surround view image providing device (i.e., a method of providing a surround view image) according to embodiments of the present invention is implemented as a program consisting of a plurality of instructions, stored in a computer-readable non-transitory medium, and executed by a computer. You can.

본 발명의 실시 예들에 따르면, 차량의 주행과 관련된 주행 데이터를 이용하여, 현재 상태에서의 차량의 카메라 영상들에 대한 변환 파라미터를 결정하고, 결정된 변환 파라미터를 통해 정확한 서라운드 뷰 영상을 사용자에게 제공할 수 있는 효과가 있다. According to embodiments of the present invention, conversion parameters for camera images of the vehicle in the current state are determined using driving data related to the vehicle's driving, and accurate surround view images are provided to the user through the determined conversion parameters. There is a possible effect.

도 1은 차량에 탑재된 복수의 카메라를 이용한 서라운드 뷰 영상을 나타낸다.
도 2는 일 실시예에 따른 서라운드 뷰 제공 장치를 포함하는 서라운드 뷰 제공 시스템을 나타낸다.
도 3은 본 발명의 실시 예들에 따른 서라운드 뷰 제공 장치를 나타낸다.
도 4는 본 발명의 실시 예들에 따른 군집화 엔진에 따라 차량에 대한 변환 파라미터를 결정하는 과정을 설명하기 위한 도면이다.
도 5는 본 발명의 실시 예들에 따른 변환 파라미터를 추정하는 방법을 설명하기 위한 도면이다.
도 6은 본 발명의 실시 예들에 따른 차량의 회전 파라미터를 산출하는 것을 설명하기 위한 도면이다.
도 7은 본 발명의 실시 예들에 따른 서라운드 뷰 제공 장치의 하드웨어 구성을 예시적으로 나타낸 도면이다.
Figure 1 shows a surround view image using a plurality of cameras mounted on a vehicle.
Figure 2 shows a surround view providing system including a surround view providing device according to an embodiment.
Figure 3 shows a surround view providing device according to embodiments of the present invention.
FIG. 4 is a diagram illustrating a process for determining conversion parameters for a vehicle according to a clustering engine according to embodiments of the present invention.
Figure 5 is a diagram for explaining a method of estimating transformation parameters according to embodiments of the present invention.
Figure 6 is a diagram for explaining calculating rotation parameters of a vehicle according to embodiments of the present invention.
Figure 7 is a diagram illustrating the hardware configuration of a surround view providing device according to embodiments of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all changes, equivalents, and substitutes included in the spirit and technical scope of the present invention. While describing each drawing, similar reference numerals are used for similar components.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms such as first, second, A, and B may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, a first component may be named a second component, and similarly, the second component may also be named a first component without departing from the scope of the present invention. The term and/or includes any of a plurality of related stated items or a combination of a plurality of related stated items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this application are only used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the technical field to which the present invention pertains. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless explicitly defined in the present application, should not be interpreted in an ideal or excessively formal sense. No.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the attached drawings.

도 1은 차량에 탑재된 복수의 카메라를 이용한 서라운드뷰 영상을 나타낸다. 도 1을 참조하면, 차량(1)은 주차선 내에 주차되어 있다. 차량(1)에는 복수의 카메라들이 탑재될 수 있고, 복수의 카메라들 각각은 자신이 설치된 위치에서 자신의 시야각에 해당하는 영상들을 촬영할 수 있다. 복수의 카메라들에 의해 생성된 영상을 합성함으로써, 차량(1) 주변을 나타내는 서라운드 뷰 영상(3)이 생성될 수 있다. 예를 들어, 서라운드 뷰 영상(3)은 차량(1)의 전방 카메라, 후방 카메라 및 2개의 측면 카메라의 총 4개 카메라로부터 촬영된 영상에 의해 생성될 수 있다. Figure 1 shows a surround view image using a plurality of cameras mounted on a vehicle. Referring to Figure 1, a vehicle 1 is parked within a parking line. A plurality of cameras may be mounted on the vehicle 1, and each of the plurality of cameras may capture images corresponding to its viewing angle at its installed location. By combining images generated by a plurality of cameras, a surround view image 3 representing the surroundings of the vehicle 1 can be generated. For example, the surround view image 3 may be generated by images captured from a total of four cameras of the vehicle 1: a front camera, a rear camera, and two side cameras.

한편, 차량(1)에 탑재된 카메라들 각각에 의해 생성된 영상은 서로 다른 좌표계에서 획득된 영상이므로, 영상들 각각의 좌표계들을 서로 일치시키지 않는 경우(즉, 카메라들 각각의 광축 등과 같은 카메라들의 파라미터들을 고려한 보정이 없거나 혹은 보정이 정확히 이루어지지 않은 경우), 카메라들 각각의 영상 간에 불일치(misfit) 구간(2)이 발생될 수 있어 정합이 필요하다.On the other hand, since the images generated by each of the cameras mounted on the vehicle 1 are images acquired in different coordinate systems, if the coordinate systems of each of the images do not match each other (that is, the images of the cameras, such as the optical axes of each of the cameras, etc. If there is no correction considering the parameters or the correction is not performed accurately), a misfit section (2) may occur between the images of each camera, so matching is necessary.

도 2는 일 실시예에 따른 서라운드 뷰 제공 장치를 포함하는 서라운드 뷰 제공 시스템을 나타낸다. 도 2를 참조하면, 서라운드 뷰 제공 시스템(1000)은 차량(1) 및 서라운드 뷰 제공 장치(100)를 포함할 수 있다.Figure 2 shows a surround view providing system including a surround view providing device according to an embodiment. Referring to FIG. 2 , the surround view providing system 1000 may include a vehicle 1 and a surround view providing device 100.

차량(1)은 모터와 같은 구동 장치에 의해 발생된 구동력에 따라 노면 상을 주행하는 장치일 수 있다. 실시 예들에 따라, 차량(100)은 자동차, 오토바이, 버스, 트레일러, 굴삭기, 휠로더, 포크레인, 크레인 또는 트럭 등일 수 있으나, 본 발명의 실시 예들이 이에 한정되는 것은 아니다.The vehicle 1 may be a device that travels on a road surface according to a driving force generated by a driving device such as a motor. Depending on the embodiments, the vehicle 100 may be a car, motorcycle, bus, trailer, excavator, wheel loader, excavator, crane, or truck, but the embodiments of the present invention are not limited thereto.

차량(1)은 카메라(11), 센서(12) 및 디스플레이(13)를 포함할 수 있다.Vehicle 1 may include a camera 11, sensors 12, and display 13.

카메라(11)는 차량(1) 주변을 촬영하고, 영상을 생성할 수 있다. 실시 예들에 따라, 카메라(11)는 복수일 수 있고, 복수의 카메라들(11)은 차량(1)의 전방, 후방, 좌측 및 우측에 배치되어, 차량(1) 주변에 대한 영상을 생성할 수 있다. The camera 11 can photograph the surroundings of the vehicle 1 and generate an image. Depending on the embodiment, there may be a plurality of cameras 11, and the plurality of cameras 11 are disposed on the front, rear, left, and right sides of the vehicle 1 to generate images around the vehicle 1. You can.

센서(12)는 차량(1)의 주행 환경을 측정하고, 측정 결과에 따라 차량(1)의 주행과 관련된 주행 데이터(DD)를 생성할 수 있다. 실시 예들에 따라, 센서(12)는 차량(1)의 각가속도를 측정하고, 이에 따라 각가속도 정보를 포함하는 주행 데이터(DD)를 생성할 수 있다. 이 때, 주행 데이터(DD)는 시계열적인 데이터일 수 있고, 주기적으로 또는 실시간으로 생성될 수 있다.The sensor 12 may measure the driving environment of the vehicle 1 and generate driving data DD related to the driving of the vehicle 1 according to the measurement results. Depending on embodiments, the sensor 12 may measure the angular acceleration of the vehicle 1 and generate driving data DD including angular acceleration information accordingly. At this time, the driving data DD may be time-series data and may be generated periodically or in real time.

예를 들어, 센서(12)는 6축 관성 센서일 수 있으나, 이에 한정되는 것은 아니다.For example, the sensor 12 may be a 6-axis inertial sensor, but is not limited thereto.

디스플레이(13)는 서라운드 뷰 제공 장치(100)로부터 제공된 서라운드 뷰 영상(SVV)을 표시할 수 있다. 대안적으로, 서라운드 뷰 영상(SVV)은 차량(1)의 디스플레이(13)가 아니라 서라운드 뷰 제공 장치(100)에 포함된 디스플레이에 의해 직접 표시될 수도 있다. The display 13 may display a surround view image (SVV) provided from the surround view providing device 100. Alternatively, the surround view image SVV may be displayed directly by a display included in the surround view providing device 100 rather than by the display 13 of the vehicle 1.

서라운드 뷰 제공 장치(100)는 차량(1)과 연동되어, 차량(1)에 대한 서라운드 뷰 영상(SVV)을 생성하고, 생성된 서라운드 뷰 영상(SVV)을 차량(1)의 운전자에게 제공할 수 있다. 실시 예들에 따라, 서라운드 뷰 제공 장치(100)는 생성된 서라운드 뷰 영상(SVV)을 차량(1)으로 전송하여 디스플레이(13)를 통해 표시되도록 하거나, 또는, 서라운드 뷰 제공 장치(100) 내에 포함된 디스플레이(미도시)를 통해 서라운드 뷰 영상(SVV)을 직접 표시하여 제공할 수 있다.The surround view providing device 100 is linked with the vehicle 1, generates a surround view image (SVV) for the vehicle 1, and provides the generated surround view image (SVV) to the driver of the vehicle 1. You can. Depending on the embodiment, the surround view providing device 100 transmits the generated surround view image (SVV) to the vehicle 1 to be displayed through the display 13, or is included in the surround view providing device 100. Surround view video (SVV) can be directly displayed and provided through a display (not shown).

서라운드 뷰 제공 장치(100)는 차량(1) 내에 탑재되어, 차량(1)과 전기적으로 연결되어 데이터를 주고받을 수 있다.The surround view providing device 100 is mounted in the vehicle 1 and is electrically connected to the vehicle 1 to exchange data.

서라운드 뷰 제공 장치(100)는 차량(1)의 카메라(11)로부터 촬영된 카메라 영상(CV)을 이용하여 차량(1)에 대한 서라운드 뷰 영상을 생성할 수 있다. 실시 예들에 따라, 서라운드 뷰 제공 장치(100)는 차량(1)의 전방, 우측, 좌측 및 후방에 설치된 카메라(11)에 의해 생성된 차량(1)의 전방, 우측, 좌측 및 후방 각각을 나타내는 카메라 영상들(CV)을 수신하고, 수신된 카메라 영상들(CV)을 이용하여 차량(1)의 주변을 나타내는 서라운드 뷰 영상(SVV)을 생성할 수 있다.The surround view providing device 100 may generate a surround view image for the vehicle 1 using a camera image (CV) captured from the camera 11 of the vehicle 1. According to embodiments, the surround view providing device 100 represents the front, right, left, and rear of the vehicle 1, respectively, generated by the cameras 11 installed at the front, right, left, and rear of the vehicle 1. Camera images (CV) may be received, and a surround view image (SVV) representing the surroundings of the vehicle 1 may be generated using the received camera images (CV).

본 발명의 실시 예들에 따르면, 서라운드 뷰 제공 장치(100)는 차량(1)의 카메라들(11)로부터 생성된 카메라 영상(CV)들을 합성하여 서라운드 뷰 영상(SVV)을 생성할 수 있다. 예를 들어, 서라운드 뷰 제공 장치(100)는 (1) 카메라 영상(CV)들을 탑뷰(top view) 영상으로 변환하고, (2) 탑뷰 영상으로 변환된 카메라 영상들(CV)을 경계선에 맞추어 합성하여 서라운드 뷰 영상(SVV)을 생성한다.According to embodiments of the present invention, the surround view providing device 100 may generate a surround view image (SVV) by combining camera images (CV) generated from the cameras 11 of the vehicle 1. For example, the surround view providing device 100 (1) converts camera images (CV) into top view images, and (2) synthesizes camera images (CV) converted into top view images according to the boundary line. This creates a surround view video (SVV).

이 때, 서라운드 뷰 제공 장치는,At this time, the surround view providing device is,

(1) 탑뷰 영상으로 변환하기 위해 각 카메라(11)의 촬영 방향을 나타내는 촬영 벡터와 지면이 이루는 회전 각도를 결정하고, 결정된 각도에 따른 회전 변환을 수행한다. (1) To convert to a top view image, the rotation angle formed by the shooting vector indicating the shooting direction of each camera 11 and the ground is determined, and rotation conversion according to the determined angle is performed.

(2) 탑뷰 영상에 대해 아핀 변환을 수행하여 서라운드 뷰 영상 시 사용될 영역을 결정하고, 아핀 변환이 적용된 탑뷰 영상을 합성하여 서라운드 뷰 영상을 생성한다. (2) An affine transformation is performed on the top view image to determine the area to be used in the surround view image, and the top view image to which the affine transformation has been applied is synthesized to create a surround view image.

상술한 변환 파라미터는 회전 변환을 나타내는 각 방향(롤, 피치 및 요)의 회전 각도 및 아핀 변환을 나타내는 일차항의 계수 및 상수항에 대한 정보를 포함할 수 있다.The above-described transformation parameters may include information about rotation angles in each direction (roll, pitch, and yaw) representing rotation transformation, and coefficients and constant terms of linear terms representing affine transformation.

한편, 서라운드 뷰 제공 장치(100)의 최초 설치 시에는 전문가 또는 기술자에 의해 차량(1)의 카메라(11) 각각의 설치 환경 및 특성 파악이 가능하고, 정확한 서라운드 뷰 영상(SVV)이 생성될 수 있다. 그러나, 차량(1)의 주행 시 카메라(11)에 다양한 방향으로의 힘(또는 충격량)이 가해질 수 있고, 이에 따라, 기존의 설정대로는 올바른 서라운드 뷰 영상(SVV)이 생성되지 않는 경우가 생긴다. 특히, 카메라(11)의 촬영 벡터가 변화되어 회전 변환 시 사용되는 촬영 벡터 - 지면 사이의 각도가 초기 설정과 달라지는 경우가 발생할 수 있다. 아핀 변환의 경우 상대적으로 초기 설정으로부터 벗어나는 정도가 작아, 결과적으로, 주행의 영향은 회전 변환에 대해 상대적으로 크게 작용한다.Meanwhile, upon initial installation of the surround view providing device 100, an expert or technician can determine the installation environment and characteristics of each camera 11 of the vehicle 1, and an accurate surround view image (SVV) can be generated. there is. However, when the vehicle 1 is driving, force (or impact) in various directions may be applied to the camera 11, and accordingly, there are cases where the correct surround view image (SVV) is not generated according to the existing settings. . In particular, the shooting vector of the camera 11 may change, causing the angle between the shooting vector used during rotation conversion and the ground to differ from the initial setting. In the case of affine transformation, the degree of deviation from the initial setting is relatively small, and as a result, the influence of driving has a relatively large effect on rotation transformation.

본 발명의 실시 예들에 따르면, 차량(1)의 주행과 관련된 주행 데이터를 이용하여, 현재 상태에서의 차량(1)의 카메라 영상들(CV)에 대한 변환 파라미터(CPM)를 결정하고, 결정된 변환 파라미터(CPM)를 통해 정확한 서라운드 뷰 영상(SVV)을 사용자에게 제공할 수 있는 효과가 있다. 특히, 본 명세서에서, 변환 파라미터는 회전 각도를 의미할 수 있다.According to embodiments of the present invention, a conversion parameter (CPM) for camera images (CV) of the vehicle 1 in the current state is determined using driving data related to the driving of the vehicle 1, and the determined conversion is performed. There is an effect of providing accurate surround view video (SVV) to the user through parameters (CPM). In particular, in this specification, a transformation parameter may mean a rotation angle.

변환 파라미터(CPM)는 차량(1) 이외의 다른 차량(즉, 참조 차량)에 대한 데이터로부터 추론될 수 있다. 실시 예들에 따라, 변환 파라미터(CPM)는 차량(1)의 주행과 관련된 데이터 및 참조 차량의 주행과 관련된 데이터를 입력으로하는 학습 모델의 출력으로서 결정될 수 있다. The conversion parameter (CPM) may be inferred from data for a vehicle other than vehicle 1 (i.e., a reference vehicle). Depending on embodiments, the conversion parameter (CPM) may be determined as an output of a learning model that inputs data related to the driving of the vehicle 1 and data related to the driving of the reference vehicle.

실시 예들에 따라, 서라운드 뷰 제공 장치(100)는 각 카메라 영상(CV)들에 대한 변환 파라미터(CPM)를 결정하는 데 필요한 데이터를 저장할 수 있다. 예를 들어, 서라운드 뷰 제공 장치(100)는 변환 파라미터(CPM)를 추론하기 위해 필요한 학습 데이터를 저장해둘 수 있다. 예를 들어, 서라운드 뷰 제공 장치(100)는 차량(1) 이외의 다른 차량들(즉, 참조 차량들)에 대한 주행 데이터(DD), 참조 차량들에 설치된 카메라들의 위치와 관련된 카메라 위치 데이터 및 해당 카메라들에 대한 변환 파라미터를 학습 데이터로서 보유할 수 있다. 상기 학습 데이터는 무선 통신망을 통해 주기적 또는 실시간으로 업데이트 될 수 있다.Depending on embodiments, the surround view providing device 100 may store data necessary to determine a conversion parameter (CPM) for each camera image (CV). For example, the surround view providing device 100 may store training data necessary to infer a conversion parameter (CPM). For example, the surround view providing device 100 may include driving data DD for vehicles other than the vehicle 1 (i.e., reference vehicles), camera position data related to the positions of cameras installed in the reference vehicles, and Transformation parameters for the corresponding cameras can be held as learning data. The learning data can be updated periodically or in real time through a wireless communication network.

실시 예들에 따라, 서라운드 뷰 제공 장치(100)는 기 정해진 학습 모델에 기초하여 차량(1)의 현재 주행 상태에 대응하는 변환 파라미터(CPM)를 결정하고, 결정된 변환 파라미터(CPM)를 서라운드 뷰 제공 장치(100)로 제공할 수 있다.According to embodiments, the surround view providing device 100 determines a conversion parameter (CPM) corresponding to the current driving state of the vehicle 1 based on a predetermined learning model and provides a surround view using the determined conversion parameter (CPM). It can be provided as device 100.

차량(1)에 대한 변환 파라미터(CPM)의 결정 방법에 대한 자세한 설명은 후술한다. 또한, 본 명세서에서는 서라운드 뷰 제공 장치(100)가 변환 파라미터(CPM)를 결정 또는 생성하는 것을 가정하고 설명하나, 실시 예들에 따라, 서라운드 제공 장치(100) 외부에 별도의 클라우드 서버(200)가 존재하고, 클라우드 서버(200)에 의해 변환 파라미터를 결정(또는 생성)될 수도 있다. 이는, 서라운드 제공 장치(100)의 연산량을 줄이기 위함이다. 예를 들어, 서라운드 뷰 제공 시스템(10)은 클라우드 서버(200)를 더 포함할 수 있고, 클라우드 서버(200)는 서라운드 뷰 제공 장치(100)와 데이터를 주고받을 수 있고, 서라운드 뷰 영상(SVV) 생성 시 활용되는 변환 파라미터(CPM)를 결정하고, 변환 파라미터(CPM)에 대한 정보를 서라운드 뷰 제공 장치(100)로 전송할 수 있다.A detailed description of the method for determining the conversion parameter (CPM) for vehicle 1 will be described later. Additionally, in this specification, it is assumed that the surround view providing device 100 determines or generates a conversion parameter (CPM), but depending on the embodiment, a separate cloud server 200 is installed outside the surround view providing device 100. It exists, and the conversion parameters may be determined (or created) by the cloud server 200. This is to reduce the amount of computation of the surround providing device 100. For example, the surround view providing system 10 may further include a cloud server 200, and the cloud server 200 may exchange data with the surround view providing device 100 and surround view video (SVV). ) The conversion parameter (CPM) used during generation can be determined, and information about the conversion parameter (CPM) can be transmitted to the surround view providing device 100.

도 3은 본 발명의 실시 예들에 따른 서라운드 뷰 제공 장치를 나타낸다. 도 3을 참조하면, 서라운드 뷰 제공 장치(100)는 데이터 수신부(101), 주행 패턴 결정부(103), 파라미터 결정부(105) 및 서라운드 뷰 영상 제공부(107)를 포함할 수 있다. 한편, 도 2에 도시된 각 구성들(101, 103, 105, 107)은 본 발명의 실시 예들에 따른 서라운드 뷰 제공 장치(100)의 기능적 구성요소들을 나타내며, 각 구성들(101, 103, 105, 107) 중 적어도 하나는 메모리 및 상기 메모리에 저장된 명령어들을 실행함으로써 소정의 연산을 수행하도록 구성되는 프로세서로 구현될 수 있다. Figure 3 shows a surround view providing device according to embodiments of the present invention. Referring to FIG. 3 , the surround view providing device 100 may include a data receiving unit 101, a driving pattern determining unit 103, a parameter determining unit 105, and a surround view image providing unit 107. Meanwhile, the components 101, 103, 105, and 107 shown in FIG. 2 represent functional components of the surround view providing device 100 according to embodiments of the present invention, and each of the components 101, 103, and 105 , 107) may be implemented with a memory and a processor configured to perform a predetermined operation by executing instructions stored in the memory.

데이터 수신부(101)는 차량(1)으로부터 데이터를 수신할 수 있다. 이를 위해, 데이터 수신부(101)는 차량(1)과 주기적으로 유선 또는 무선 네트워크를 통해 통신함으로써 데이터를 수신할 수 있다. 실시 예들에 따라, 데이터 수신부(101)는 차량(1)으로부터 차량의 주행과 관련된 주행 데이터(DD)를 수신할 수 있다 The data receiver 101 may receive data from the vehicle 1. To this end, the data receiver 101 may receive data by periodically communicating with the vehicle 1 through a wired or wireless network. Depending on embodiments, the data receiver 101 may receive driving data DD related to the driving of the vehicle from the vehicle 1.

주행 패턴 결정부(103)는 차량(1)으로부터 전송된 주행 데이터(DD)를 이용하여, 차량(1)의 주행 패턴을 결정할 수 있다. The driving pattern determination unit 103 may determine the driving pattern of the vehicle 1 using the driving data DD transmitted from the vehicle 1.

주행 패턴 결정부(103)는 차량(1)의 주행 데이터(DD)로부터 주행 특징 벡터를 생성하고, 생성된 주행 특징 벡터를 이용하여 차량(1)의 주행 패턴을 결정할 수 있다. 실시 예들에 따라, 주행 패턴 결정부(103)는 군집화 엔진을 이용하여 차량(1)의 주행 특징 벡터와 대응하는 클러스터를 결정하고, 결정된 클러스터에 부여된 주행 패턴을 차량(1)에 대응하는 주행 패턴으로 예측할 수 있다.The driving pattern determination unit 103 may generate a driving feature vector from the driving data DD of the vehicle 1 and determine the driving pattern of the vehicle 1 using the generated driving feature vector. According to embodiments, the driving pattern determination unit 103 determines a cluster corresponding to the driving characteristic vector of the vehicle 1 using a clustering engine, and applies the driving pattern assigned to the determined cluster to the driving pattern corresponding to the vehicle 1. It can be predicted by pattern.

예를 들어, 군집화 엔진은, 가우시안 혼합 모델(Gaussian Mixture Model, GMM)에 따른 클러스터링 또는 K-평균 알고리즘에 따른 클러스터링을 수행할 수 있다. 여기서, K-평균 알고리즘은 가우시안 혼합 모델과 달리 비지도학습에 속하는 머신러닝 기반의 클러스터링 기법일 수 있다. For example, the clustering engine may perform clustering according to a Gaussian Mixture Model (GMM) or clustering according to the K-means algorithm. Here, the K-means algorithm, unlike the Gaussian mixture model, may be a machine learning-based clustering technique belonging to unsupervised learning.

구체적으로 K-평균 알고리즘은 K개의 클러스터들 각각에 대한 초기 중심점에 해당하는 벡터값을 설정한 후, 차량들 각각을 대표하는 주행 특징 벡터와 가까운 초기 중심점을 가진 클러스터에 차량들을 할당한다. 다음으로, 모든 차량들에 대한 클러스터 할당이 끝나면, 해당 클러스터에 속하는 차량들의 주행 특징 벡터들의 중간값 또는 평균값으로 각 클러스터의 중심점을 재설정하고, 재설정된 중심점을 기준으로 모든 차량들의 클러스터 할당을 다시 시행한다. 상술하는 중심점 재설정과 클러스터 재할당을 중심점의 변동이 없을 때까지 반복함으로써 차량들을 클러스터들에 할당할 수 있다.Specifically, the K-means algorithm sets a vector value corresponding to the initial center point for each of the K clusters and then assigns vehicles to clusters with an initial center point close to the driving feature vector representing each vehicle. Next, when cluster assignment to all vehicles is completed, the center point of each cluster is reset to the median or average value of the driving feature vectors of the vehicles belonging to the cluster, and cluster assignment of all vehicles is performed again based on the reset center point. do. Vehicles can be assigned to clusters by repeating the above-described center point resetting and cluster reallocation until there is no change in the center point.

파라미터 결정부(105)는 주행 패턴 결정부(103)에 의해 결정된 주행 패턴에 기초하여, 차량(1)에 대한 변환 파라미터(CPM)를 결정(또는 추정)할 수 있다. 실시 예들에 따라, 파라미터 결정부(105)는 차량(1)의 주행 패턴에 대응하는 군집에 속한 참조 차량들의 변환 파라미터에 기초하여, 차량(1)에 대한 변환 파라미터를 결정할 수 있다.The parameter determination unit 105 may determine (or estimate) a conversion parameter (CPM) for the vehicle 1 based on the driving pattern determined by the driving pattern determination unit 103. Depending on embodiments, the parameter determination unit 105 may determine conversion parameters for the vehicle 1 based on conversion parameters of reference vehicles belonging to a group corresponding to the driving pattern of the vehicle 1.

서라운드 뷰 영상 제공부(107)는 차량(1)으로부터 카메라 영상(CV)들을 수신하고, 파라미터 결정부(105)에 의해 차량(1)에 대한 변환 파라미터(CPM)에 따라, 차량(1)의 카메라들(11)에 의해 생성된 카메라 영상(CV)들을 변환하고, 변환된 카메라 영상들을 이용하여 서라운드 뷰 영상(SVV)을 생성할 수 있다. The surround view image providing unit 107 receives camera images (CV) from the vehicle 1, and determines the image quality of the vehicle 1 according to the conversion parameter (CPM) for the vehicle 1 by the parameter determination unit 105. Camera images (CV) generated by the cameras 11 may be converted, and a surround view image (SVV) may be generated using the converted camera images.

도 4는 본 발명의 실시 예들에 따른 군집화 엔진에 따라 차량에 대한 변환 파라미터를 결정하는 과정을 설명하기 위한 도면이다. 도 4를 참조하면, 주행 패턴 결정부(103)는 데이터 수신부(101)에 의해 수신된 주행 데이터(DD)를 이용하여, 차량(1)의 주행 특징을 나타내는 주행 특징 벡터(DFV)를 생성한다. 예를 들어, 주행 패턴 결정부(103)는 소정의 기준 시점으로부터 현재 시점까지의 기간(이하, 주행 기간) 동안 수집된 주행 데이터(DD)로부터 주행 특징 벡터(DFV)를 생성할 수 있다. 이 때, 소정의 기준 시점은 차량(1)의 카메라들(11)에 대한 정합이 마지막으로 이루어진 시점 또는 그 이후의 시점을 의미할 수 있다.FIG. 4 is a diagram illustrating a process for determining conversion parameters for a vehicle according to a clustering engine according to embodiments of the present invention. Referring to FIG. 4, the driving pattern determination unit 103 uses the driving data DD received by the data receiving unit 101 to generate a driving feature vector (DFV) representing the driving characteristics of the vehicle 1. . For example, the driving pattern determination unit 103 may generate a driving feature vector (DFV) from driving data DD collected during a period from a predetermined reference point to the current point in time (hereinafter referred to as driving period). At this time, the predetermined reference point in time may mean the point in time when matching for the cameras 11 of the vehicle 1 was last achieved or a point in time thereafter.

주행 패턴 결정부(103)는 주행 데이터(DD)에 포함된 차량(1)의 각가속도 데이터를 이용하여, 주행 특징 벡터(DFV)를 산출할 수 있다. 실시 예들에 따라, 주행 패턴 결정부(103)는 주행 기간 동안의 차량(1)의 각속도의 평균 및 각속도의 최대값을 성분으로서 포함하는 주행 특징 벡터(DFV)를 산출할 수 있다. 예를 들어, 주행 패턴 결정부(103)는 아래 수학식 1에 따라 차량(1)에 대한 주행 특징 벡터(DFV)를 산출할 수 있다.The driving pattern determination unit 103 may calculate a driving feature vector (DFV) using the angular acceleration data of the vehicle 1 included in the driving data DD. Depending on embodiments, the driving pattern determination unit 103 may calculate a driving feature vector (DFV) including the average and maximum angular velocity of the vehicle 1 during the driving period as components. For example, the driving pattern determination unit 103 may calculate the driving characteristic vector (DFV) for the vehicle 1 according to Equation 1 below.

여기서, E(α)는 주행 기간 동안의 각가속도 벡터들 각각(α)에 대한 평균을 나타내는 평균 각가속도 벡터이고, M(α)는 주행 기간 동안의 각가속도 벡터들 각각(α)의 최대를 나타내는 최대 각가속도 벡터이다.Here, E(α) is the average angular acceleration vector representing the average of each of the angular acceleration vectors (α) during the driving period, and M(α) is the maximum angular acceleration representing the maximum of each of the angular acceleration vectors (α) during the driving period. It is a vector.

이 때, 각가속도 벡터 α는 아래 수학식 2에 따라 표기될 수 있다.At this time, the angular acceleration vector α can be expressed according to Equation 2 below.

여기서, αr, αp 및 αy는 순서대로 롤(roll), 피치(pitch), 요(yaw) 방향의 각가속도 성분을 나타낸다. 한편, 위 표기법에 따를 때, 평균 각가속도 벡터 E(α)는 아래 수학식 3에 따라 정의될 수 있다.Here, α r , α p , and α y represent angular acceleration components in the roll, pitch, and yaw directions in that order. Meanwhile, according to the above notation, the average angular acceleration vector E(α) can be defined according to Equation 3 below.

여기서, T는 주행 기간을 나타낸다. 즉, 평균 각가속도 벡터 E(α)의 각 성분은 주행 기간의 각가속도 벡터의 각 성분들의 평균이 된다.Here, T represents the driving period. In other words, each component of the average angular acceleration vector E(α) becomes the average of each component of the angular acceleration vector during the driving period.

한편, 최대 각가속도 벡터 M(α)는 각가속도 벡터들 중 크기가 최대인 각가속도 벡터를 나타낸다. Meanwhile, the maximum angular acceleration vector M(α) represents the angular acceleration vector with the largest size among the angular acceleration vectors.

주행 패턴 결정부(103)는 군집화 엔진을 이용하여, 차량(1)의 주행 특징 벡터(DFV)와 기 저장된 참조 차량들의 주행 특징 벡터들을 다수의 클러스터(CLU) 중 하나로 분류하고, 주행 특징 벡터(DFV)가 속한 클러스터를 결정함으로써 차량(1)의 주행 패턴을 결정할 수 있다.The driving pattern determination unit 103 uses a clustering engine to classify the driving feature vector (DFV) of the vehicle 1 and the driving feature vectors of previously stored reference vehicles into one of a plurality of clusters (CLU), and the driving feature vector ( The driving pattern of the vehicle 1 can be determined by determining the cluster to which the DFV belongs.

즉, 차량(1) 및 참조 차량들의 주행 특징 벡터는 해당하는 차량의 주행 패턴을 나타낸다고 볼 수 있고, 주행 패턴 결정부(103)는 이러한 주행 특징 벡터들을 소정의 기준에 따라 군집화함으로써 유사한 성질을 갖는 주행 특징 벡터들을 하나의 클러스터로 분류하게 된다. 이에 따라, 클러스터 각각은 차량의 주행 패턴을 나타내며, 각 클러스터에 속한 주행 특징 벡터들은 서로 동일(또는 유사한) 주행 패턴들로 유형화할 수 있다고 이해된다.In other words, the driving feature vectors of the vehicle 1 and the reference vehicles can be viewed as representing the driving pattern of the corresponding vehicle, and the driving pattern determination unit 103 clusters these driving feature vectors according to a predetermined standard to have similar properties. Driving feature vectors are classified into one cluster. Accordingly, it is understood that each cluster represents a driving pattern of a vehicle, and that driving feature vectors belonging to each cluster can be categorized into identical (or similar) driving patterns.

이 때, 참조 차량들의 주행 특징 벡터들은 참조 차량들의 주행 데이터로부터 사전에 산출되어 저장될 수 있다. 차량(1)의 주행 특징 벡터와 마찬가지로, 참조 차량들의 주행 특징 벡터는 소정의 기준 시점으로부터 현재 시점까지의 기간(이하, 주행 기간) 동안의 참조 차량의 주행 데이터로부터 생성될 수 있다. 즉, 주행 특징 벡터는 참조 차량의 주행 기간에 대응하도록 만들어지는 것이며, 이 경우, 실질적으로 하나의 참조 차량에 대해서 다수의 주행 특징 벡터가 생성될 수도 있는데, 본 명세서에서 설명되는 군집화 과정에서 이러한 주행 특징 벡터들 각각은 서로 별개의 참조 차량으로부터 생성된 것으로 취급되게 된다.At this time, driving feature vectors of reference vehicles may be calculated and stored in advance from driving data of reference vehicles. Like the driving characteristic vector of the vehicle 1, the driving characteristic vectors of the reference vehicles may be generated from driving data of the reference vehicle during a period from a predetermined reference point to the current time (hereinafter, driving period). In other words, the driving feature vector is created to correspond to the driving period of the reference vehicle. In this case, in fact, multiple driving feature vectors may be generated for one reference vehicle, and in the clustering process described herein, such driving Each of the feature vectors is treated as being generated from a separate reference vehicle.

이 때, 주행 기간은 참조 차량 별로 달라질 수 있다. At this time, the driving period may vary for each reference vehicle.

따라서, 서라운드 뷰 제공 장치(100)는 참조 차량들 각각에 대해, 주행 기간 동안에서의 주행 데이터만 저장할 수 있다.Accordingly, the surround view providing device 100 may only store driving data during the driving period for each reference vehicle.

한편, 군집화 엔진은 가우시안 혼합 모델에 기초할 수 있다. 예를 들어, 가우시안 혼합 모델(GMM)의 경우, 미리 지정된 K(K는 1보다 큰 자연수)개의 가우시안 분포들 각각이 클러스터와 대응하며. 차량들을 K개의 가우시안 분포들 중 하나로 분류하도록 동작한다. 구체적으로, 군집화 엔진의 경우, 베이즈 정리(Bayes' theorem)를 이용하여 K개의 가우시안 분포들 중에서 주어진 가우시안 분포 선택함수(γ)의 결과값이 가장 높은 가우시안 분포를 선정함으로써 분류할 수 있다.Meanwhile, the clustering engine may be based on a Gaussian mixture model. For example, in the case of Gaussian mixture model (GMM), each of K pre-specified Gaussian distributions (K is a natural number greater than 1) corresponds to a cluster. It operates to classify vehicles into one of K Gaussian distributions. Specifically, in the case of a clustering engine, classification can be done by selecting the Gaussian distribution with the highest result value of the given Gaussian distribution selection function (γ) among K Gaussian distributions using Bayes' theorem.

군집화 후, 주행 패턴 결정부(103)는 차량(1)의 주행 패턴과 동일한 주행 패턴을 갖는 참조 차량을 결정하고, 결정된 참조 차량들의 변환 파라미터에 기초하여, 차량(1)에 대한 변환 파라미터를 결정할 수 있다. 즉, 주행 패턴이 유사하면 차량에 설치된 카메라들에 미치는 영향(충격량)도 유사할 가능성이 높고, 따라서, 주행 패턴이 유사한 참조 차량의 변환 파라미터를 이용함으로써, 차량(1)의 변환 파라미터를 추정할 수 있다.After clustering, the driving pattern determination unit 103 determines a reference vehicle having the same driving pattern as that of vehicle 1, and determines conversion parameters for vehicle 1 based on the conversion parameters of the determined reference vehicles. You can. In other words, if the driving pattern is similar, the impact (amount of impact) on the cameras installed in the vehicle is likely to be similar, and therefore, the conversion parameters of the vehicle 1 can be estimated by using the conversion parameters of a reference vehicle with a similar driving pattern. You can.

이 때, 참조 차량들의 변환 파라미터에 대한 정보는 사전에 저장되어 있을 수 있다. 예를 들어, 참조 차량들의 실제 정합 시 산출된 변환 파라미터에 대한 정보가 저장될 수 있다. 한편, 참조 차량들의 변환 파라미터는, 참조 차량들 각각의 주행 기간의 마지막 시점에서 실제로 측정 또는 계산된 값일 수 있다. 따라서, 저장된 참조 차량의 변환 파라미터는 주행 기간에 대응하는 것이고, 결과적으로, 참조 차량들의 주행 데이터(또는 주행 패턴)이 반영될 가능성이 높다.At this time, information about conversion parameters of reference vehicles may be stored in advance. For example, information about conversion parameters calculated upon actual matching of reference vehicles may be stored. Meanwhile, the conversion parameters of the reference vehicles may be values actually measured or calculated at the end of the driving period of each of the reference vehicles. Accordingly, the stored conversion parameters of the reference vehicle correspond to the driving period, and as a result, there is a high possibility that the driving data (or driving pattern) of the reference vehicles will be reflected.

도 5는 본 발명의 실시 예들에 따른 변환 파라미터를 추정하는 방법을 설명하기 위한 도면이다. 도 5에서 설명되는 변환 파라미터는 차량에 설치된 각 카메라의 카메라 영상(CV)을 탑 뷰(top-view) 영상으로 변환하기 위해 필요한 회전 변환과 연관된 회전 파라미터일 수 있다. 예컨대, 변환 파라미터는 각 카메라의 촬영 벡터와 지면이 이루는 회전 각도를 의미할 수 있다.Figure 5 is a diagram for explaining a method of estimating transformation parameters according to embodiments of the present invention. The conversion parameters described in FIG. 5 may be rotation parameters associated with the rotation conversion required to convert the camera image (CV) of each camera installed in the vehicle into a top-view image. For example, the transformation parameter may mean the rotation angle formed between the shooting vector of each camera and the ground.

도 5를 참조하면, 파라미터 결정부(105)는 차량(1)의 주행 패턴과 동일한 주행 패턴을 갖는 다른 차량들(즉, 참조 차량들)의 변환 파라미터를 이용하여, 차량(1)에 대한 변환 파라미터를 결정할 수 있다.Referring to FIG. 5, the parameter determination unit 105 performs conversion on vehicle 1 using conversion parameters of other vehicles (i.e., reference vehicles) having the same driving pattern as that of vehicle 1. Parameters can be determined.

도 5를 참조하여 설명되는 변환 파라미터는 회전 파라미터를 의미할 수 있다. 회전 파라미터는 차량에 설치된 각 카메라들의 영상을 해당하는 카메라의 시점으로부터 탑뷰 시점으로 변환하는 데 필요한 파라미터로서, 예를 들어, 각 카메라의 시점(또는 촬영 벡터)을 탑뷰 시점으로 변환하는 경우 각 축(x축, y축 및 z축)을 중심으로 얼만큼 회전시켜야 하는지를 나타내는 파라미터일 수 있다. 예컨대, 각 차량에 대한 회전 파라미터는 각 차량에 설치된 카메라들 각각에 대해서, 3개의 축(x축, y축, z축) 중심으로 회전해야 할 각도(즉, 회전 각도)에 대한 정보를 포함할 수 있다. 만약, 차량에 4개의 카메라가 설치된 경우, 회전 파라미터는 4 * 3 = 12개의 회전 각도에 대한 정보를 포함할 수 있다. 다만, 실시 예들에 따라, 3개의 축 중 일부 축에 대한 각도 정보는 생략될 수 있다.Transformation parameters described with reference to FIG. 5 may mean rotation parameters. The rotation parameter is a parameter necessary to convert the images of each camera installed in the vehicle from the viewpoint of the corresponding camera to the top view viewpoint. For example, when converting the viewpoint (or shooting vector) of each camera to the top view viewpoint, each axis ( It may be a parameter indicating how much to rotate around the x-axis, y-axis, and z-axis. For example, the rotation parameter for each vehicle may include information about the angle (i.e., rotation angle) to be rotated around three axes (x-axis, y-axis, z-axis) for each of the cameras installed in each vehicle. You can. If 4 cameras are installed in the vehicle, the rotation parameter may include information about 4 * 3 = 12 rotation angles. However, depending on embodiments, angle information for some of the three axes may be omitted.

파라미터 결정부(105)는 차량(1)의 주행 특징 벡터(DFV)가 속한 클러스터(CLU)에 포함된 다른 주행 특징 벡터들(DFV1~DFVN; N은 자연수) 각각에 대응하는 회전 파라미터(R1~RN)를 결정할 수 있다. 이 때, 회전 파라미터(R1~RN)는 다른 주행 특징 벡터들(DFV1~DFVN) 각각에 대응하는 다른 차량(즉, 참조 차량; 2)들의 서라운드 뷰 영상시 활용되는 변환 파라미터이다. 실시 예들에 따라, 파라미터 결정부(105)는 차량(1)의 주행 특징 벡터(DFV)가 속한 클러스터(CLU)에 포함된 다른 주행 특징 벡터들(DFV1~DFVN)을 결정하고, 다른 주행 특징 벡터들(DFV1~DFVN) 각각에 대응하는 참조 차량들(2)의 식별자를 결정할 수 있다. 이 후, 파라미터 결정부(105)는 식별된 참조 차량들(2)의 식별자를 이용하여 참조 차량들(2)에 대응하는 회전 파라미터(R1~RN)를 결정할 수 있다. 회전 파라미터(R1~RN)는 사전에 저장되어있을 수 있다. The parameter determination unit 105 sets a rotation parameter ( R 1 ~R N ) can be determined. At this time, the rotation parameters (R 1 to R N ) are transformation parameters used when producing surround view images of other vehicles (i.e., reference vehicles) 2 corresponding to each of the other driving feature vectors (DFV 1 to DFV N ). According to embodiments, the parameter determination unit 105 determines other driving feature vectors (DFV 1 to DFV N) included in the cluster (CLU) to which the driving feature vector (DFV) of the vehicle 1 belongs, and determines other driving feature vectors (DFV 1 to DFV N ) Identifiers of the reference vehicles 2 corresponding to each of the feature vectors DFV 1 to DFV N can be determined. Afterwards, the parameter determination unit 105 may determine rotation parameters (R 1 to R N ) corresponding to the reference vehicles 2 using the identifiers of the identified reference vehicles 2 . Rotation parameters (R 1 ~R N ) may be stored in advance.

파라미터 결정부(105)는 결정된 참조 차량들(2)의 회전 파라미터(R1~RN)를 이용하여, 차량(1)의 회전 파라미터(R)를 산출할 수 있다. 실시 예들에 따라, 파라미터 결정부(105)는 참조 차량들(2)의 회전 파라미터(R1~RN)에 포함된 각 축(x, y 및 z)에 대응하는 회전 각도를 기초로, 차량(1)의 카메라들(11)에 대한 회전 각도를 산출함으로써 회전 파라미터(R)을 결정할 수 있다.The parameter determination unit 105 may calculate the rotation parameter (R) of the vehicle 1 using the determined rotation parameters (R 1 to R N ) of the reference vehicles 2 . According to embodiments, the parameter determination unit 105 determines the vehicle based on the rotation angle corresponding to each axis (x, y, and z) included in the rotation parameters (R 1 to R N ) of the reference vehicles 2. The rotation parameter (R) can be determined by calculating the rotation angle for the cameras 11 in (1).

도 6은 본 발명의 실시 예들에 따른 차량의 회전 파라미터를 산출하는 것을 설명하기 위한 도면이다. 도 6을 참조하면, 도 5에서 살펴본 바와 같이, 차량(1)의 주행 패턴과 동일한 주행 패턴을 갖는 참조 차량들(2)의 회전 파라미터들(R1~RN)이 도시되어 있다. 실시 예들에 따라, 서라운드 뷰 제공 장치(100)는 다양한 차량들의 회전 파라미터들의 정보를 저장할 수 있고, 이 때, 회전 파라미터들은 테이블의 형태로 저장되어 사용될 수 있다. 예를 들어, 도 6에 도시된 바와 같이, 참조 차량들(2)에 설치된 각 카메라들의 x축, y축 및 z축에 대응하는 회전 각도가 순서대로 나타나 있다.Figure 6 is a diagram for explaining calculating rotation parameters of a vehicle according to embodiments of the present invention. Referring to FIG. 6 , as seen in FIG. 5 , rotation parameters (R 1 to R N ) of reference vehicles 2 having the same driving pattern as that of the vehicle 1 are shown. Depending on embodiments, the surround view providing device 100 may store information on rotation parameters of various vehicles, and at this time, the rotation parameters may be stored and used in the form of a table. For example, as shown in FIG. 6, rotation angles corresponding to the x-axis, y-axis, and z-axis of each camera installed in the reference vehicles 2 are shown in order.

실시 예들에 따라, 파라미터 결정부(105)는 아래 수학식 4에 기초하여 차량(1)의 각 카메라에 대한 회전 각도를 산출함으로써 회전 파라미터를 결정할 수 있다.Depending on the embodiment, the parameter determination unit 105 may determine the rotation parameter by calculating the rotation angle for each camera of the vehicle 1 based on Equation 4 below.

여기서, Rj,x, Rj,y 및 Rj,z 각각은 순서대로 차량(1)의 j번째 카메라(j=1, 2, 3, 4; j=1은 전방, j=2는 후방, j=3은 좌측, j=4는 우측을 나타냄)에 대한 x축, y축 및 z축의 회전 각도를 나타낸다. aij,x, aij,z 및 aij,z는 가중치로서 양의 상수이되(i=1, 2, ?? N), 모든 i 및 j에 대해 aij,x의 합, aij,z의 합 및 aij,z의 합은 모두 1일 수 있다. Rij,x, Rij,y 및 Rij,z는 순서대로 i번째 참조 차량(2)의 j번째 카메라에 대한 x축, y축, z축의 회전 각도를 나타낸다. 예를 들어, 도 6의 경우, R11,x=6이고, R13,y=3이다.Here, R j,x , R j,y , and R j,z are each in order of the jth camera of vehicle 1 (j=1, 2, 3, 4; j=1 is the front, j=2 is the rear) , j=3 represents the left side and j=4 represents the right side). a ij,x , a ij,z and a ij,z are positive constants as weights (i=1, 2, ?? N), where for all i and j the sum of a ij,x, a ij,z The sum of and the sum of a ij,z may both be 1. R ij,x , R ij,y and R ij,z represent the rotation angles of the x-axis, y-axis and z-axis with respect to the j-th camera of the ith reference vehicle (2) in that order. For example, in the case of Figure 6, R 11,x =6 and R 13,y =3.

위 수학식 4에 기재된, 가중치 aij,x, aij,z 및 aij,z는 대응하는 i번째 참조 차량의 차량 특성 및 대응하는 i번째 참조 차량의 주행 기간에 기초하여 결정될 수 있다. The weights a ij,x , a ij,z, and a ij,z, described in Equation 4 above, may be determined based on the vehicle characteristics of the corresponding i-th reference vehicle and the driving period of the corresponding i-th reference vehicle.

예를 들어, aij,x, aij,z 및 aij,z는 아래 수학식 5에 따라 결정될 수 있다.For example, a ij,x , a ij,z, and a ij,z can be determined according to Equation 5 below.

여기서, L은 x, y 및 z중 어느 하나를 나타내는 인덱스이고, T는 차량(1)의 주행 기간이고, Ti는 i번째 참조 차량의 (주행 특징 벡터에) 대응하는 주행 기간이고, Di는 i번째 참조 차량의 총 주행 거리를 나타내며, ki,j,L는 상수로서, i번째 참조 차량의 j번째 카메라의 설치 특성과 상기 차량의 j번째 카메라의 설치 특성의 차이를 나타내는 값으로서, 사전에 정해지는 값이다.Here, L is an index indicating any one of x, y and z, T is the driving period of vehicle 1, T i is the driving period corresponding to the ith reference vehicle (driving feature vector), and D i represents the total driving distance of the i-th reference vehicle, and k i,j,L is a constant, a value representing the difference between the installation characteristics of the j-th camera of the i-th reference vehicle and the installation characteristics of the j-th camera of the vehicle, It is a value determined in advance.

위와 같이, 본 발명의 실시 예들에 따르면 파라미터 결정부(105)는 차량(1)의 주행 데이터 및 참조 차량의 주행 데이터와 회전 파라미터를 이용하여 차량(1)의 회전 파라미터를 추정할 수 있는 효과가 있다.As described above, according to the embodiments of the present invention, the parameter determination unit 105 has the effect of estimating the rotation parameter of the vehicle 1 using the driving data of the vehicle 1 and the driving data and rotation parameter of the reference vehicle. there is.

서라운드 뷰 영상 제공부(107)는 결정된 회전 파라미터를 수신된 차량(1)의 카메라 영상(CV)에 적용하여, 차량(1)에 대한 서라운드 뷰 영상(SVV)을 생성할 수 있다. 실시 예들에 따라, 서라운드 뷰 영상 제공부(107)는 생성된 서라운드 뷰 영상(SVV)을 직접 디스플레이하거나, 또는, 차량(1)으로 전송할 수 있다. The surround view image providing unit 107 may generate a surround view image (SVV) for the vehicle 1 by applying the determined rotation parameter to the received camera image (CV) of the vehicle 1. Depending on embodiments, the surround view image providing unit 107 may directly display the generated surround view image SVV or transmit it to the vehicle 1.

도 7은 본 발명의 실시 예들에 따른 서라운드 뷰 제공 장치의 하드웨어 구성을 예시적으로 나타낸 도면이다.Figure 7 is a diagram illustrating the hardware configuration of a surround view providing device according to embodiments of the present invention.

도 7을 참조하면, 서라운드 뷰 제공 장치(100)는, 적어도 하나의 프로세서(110), 상기 적어도 하나의 프로세서(110)가 적어도 하나의 동작(operation)을 수행하도록 지시하는 명령어들(instructions)을 저장하는 메모리(memory, 120)를 포함할 수 있다.Referring to FIG. 7, the surround view providing device 100 includes at least one processor 110 and instructions that instruct the at least one processor 110 to perform at least one operation. It may include a storage memory (memory, 120).

여기서, 적어도 하나의 동작은 전술한 서라운드 뷰 제공 장치(100)의 동작이나 기능들 중에서 적어도 일부를 포함하는 것으로 해석되며, 중복 설명을 방지하기 위하여 구체적인 설명은 생략된다.Here, at least one operation is interpreted as including at least some of the operations or functions of the above-described surround view providing device 100, and detailed descriptions are omitted to prevent redundant description.

여기서 적어도 하나의 프로세서(110)는 중앙 처리 장치(central processing unit, CPU), 그래픽 처리 장치(graphics processing unit, GPU), 또는 본 발명의 실시예들에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 메모리(120)는 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. Here, the at least one processor 110 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to embodiments of the present invention are performed. You can. The memory 120 may be comprised of at least one of a volatile storage medium and a non-volatile storage medium.

서라운드 뷰 제공 장치(100)는, 적어도 하나의 동작을 수행함에 따른 입력 데이터, 중간 처리 데이터, 임시 데이터, 출력 데이터 등을 비일시적으로 저장하기 위한 저장 장치(160)를 더 포함할 수 있다.The surround view providing device 100 may further include a storage device 160 for non-temporarily storing input data, intermediate processing data, temporary data, output data, etc. resulting from performing at least one operation.

예를 들어, 메모리(120)는 읽기 전용 메모리(read only memory, ROM) 및 랜덤 액세스 메모리(random access memory, RAM) 중 하나일 수 있고, 저장 장치(160)는, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD), 솔리드 스테이트 드라이브(SSD), 또는 각종 메모리 카드(예를 들어, micro SD 카드) 등일 수 있다.For example, the memory 120 may be one of read only memory (ROM) and random access memory (RAM), and the storage device 160 may be flash memory. , a hard disk drive (HDD), a solid state drive (SSD), or various memory cards (eg, micro SD card).

또한, 서라운드 뷰 제공 장치(100)는, 무선 네트워크를 통해 통신을 수행하는 송수신 장치(transceiver)(130)를 더 포함할 수 있다. 또한, 서라운드 뷰 제공 장치(100)는 입력 인터페이스 장치(140), 출력 인터페이스 장치(150) 등을 더 포함할 수 있다. 서라운드 뷰 제공 장치(100)에 포함된 각각의 구성 요소들은 버스(bus)(170)에 의해 연결되어 서로 통신을 수행할 수 있다.Additionally, the surround view providing device 100 may further include a transceiver 130 that performs communication through a wireless network. Additionally, the surround view providing device 100 may further include an input interface device 140, an output interface device 150, etc. Each component included in the surround view providing device 100 is connected by a bus 170 and can communicate with each other.

서라운드 뷰 제공 장치(100)의 예를 들면, 통신 가능한 데스크탑 컴퓨터(desktop computer), 랩탑 컴퓨터(laptop computer), 노트북(notebook), 스마트폰(smart phone), 태블릿 PC(tablet PC), 모바일폰(mobile phone), 스마트 워치(smart watch), 스마트 글래스(smart glass), e-book 리더기, PMP(portable multimedia player), 휴대용 게임기, 네비게이션(navigation) 장치, 디지털 카메라(digital camera), DMB(digital multimedia broadcasting) 재생기, 디지털 음성 녹음기(digital audio recorder), 디지털 음성 재생기(digital audio player), 디지털 동영상 녹화기(digital video recorder), 디지털 동영상 재생기(digital video player), PDA(Personal Digital Assistant) 등일 수 있다.Examples of the surround view providing device 100 include a communication capable desktop computer, a laptop computer, a laptop, a smart phone, a tablet PC, and a mobile phone ( mobile phone, smart watch, smart glass, e-book reader, PMP (portable multimedia player), portable game console, navigation device, digital camera, DMB (digital multimedia) broadcasting) player, digital audio recorder, digital audio player, digital video recorder, digital video player, PDA (Personal Digital Assistant), etc.

본 발명에 따른 방법들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위해 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.Methods according to the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. Computer-readable media may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on a computer-readable medium may be specially designed and constructed for the present invention or may be known and usable by those skilled in the computer software art.

컴퓨터 판독 가능 매체의 예에는 롬(ROM), 램(RAM), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 프로그램 명령의 예에는 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 적어도 하나의 소프트웨어 모듈로 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer-readable media may include hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions may include machine language code such as that created by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc. The above-described hardware device may be configured to operate with at least one software module to perform the operations of the present invention, and vice versa.

또한, 상술한 방법 또는 장치는 그 구성이나 기능의 전부 또는 일부가 결합되어 구현되거나, 분리되어 구현될 수 있다. Additionally, the above-described method or device may be implemented by combining all or part of its components or functions, or may be implemented separately.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. Although the present invention has been described above with reference to preferred embodiments, those skilled in the art may make various modifications and changes to the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that you can do it.

삭제delete

삭제delete

Claims (5)

차량에 설치되어 차량에 대한 서라운드 뷰 영상을 제공하기 위한 서라운드 뷰 제공 장치에 있어서,
상기 차량으로부터 상기 차량의 주행과 관련된 주행 데이터를 수신하도록 구성되는 데이터 수신부;
수신된 주행 데이터로부터 상기 차량에 대한 주행 특징 벡터를 생성하고, 상기 차량의 주행 특징 벡터를, 각각이 복수의 주행 특징 벡터들을 포함하는 복수의 클러스터 중 어느 하나의 클러스터로 분류함으로써, 상기 차량의 주행 패턴을 결정하도록 구성되는 주행 패턴 결정부;
상기 차량의 주행 패턴과 동일한 주행 패턴을 갖는 참조 차량들을 결정하고, 저장된 상기 참조 차량의 변환 파라미터들을 이용하여 상기 차량에 대한 변환 파라미터를 결정하도록 구성되는 파라미터 결정부; 및
상기 차량에 대한 변환 파라미터 및 상기 차량의 카메라에 의해 생성된 카메라 영상들을 이용하여 상기 서라운드 뷰 영상을 생성하도록 구성되는 서라운드 뷰 영상 제공부를 포함하고,
상기 주행 데이터는 상기 차량에서 측정된 각가속도에 대한 정보를 포함하고,
상기 주행 패턴 결정부는,
소정의 주행 기간 동안, 상기 차량의 각가속도의 평균 및 상기 각가속도의 최대를 나타내는 주행 특징 벡터를 아래 수학식에 따라 생성하고,


(여기서, DFV는 상기 차량의 주행 특징 벡터이고, E(α)는 상기 차량의 각가속도의 평균을 나타내는 평균 각가속도 벡터이고, αr, αp 및 αy는는 상기 차량의 롤(roll), 피치(pitch), 요(yaw) 방향의 각가속도 성분을 나타내고, T는 상기 차량의 주행 기간이고, M(α)는 각가속도 벡터들 중 크기가 최대인 최대 각가속도 벡터임)
상기 변환 파라미터는 상기 차량의 카메라 영상들을 탑뷰(top-view) 영상으로 변환하기 위해 사용되는 회전 변환과 연관된 회전 각도를 나타내는 회전 파라미터이고,
상기 파라미터 결정부는,
상기 차량의 주행 패턴과 동일한 주행 패턴을 갖는 상기 참조 차량들의 회전 파라미터에 포함된 각 축에 대응하는 회전 각도를 기초로, 상기 차량에 대한 회전 파라미터를 산출하는,
서라운드 뷰 제공 장치.
In a surround view providing device installed in a vehicle to provide a surround view image of the vehicle,
a data receiver configured to receive driving data related to driving of the vehicle from the vehicle;
By generating a driving feature vector for the vehicle from received driving data and classifying the driving feature vector of the vehicle into one of a plurality of clusters, each of which includes a plurality of driving feature vectors, the driving feature vector of the vehicle is determined. a driving pattern determination unit configured to determine a pattern;
a parameter determination unit configured to determine reference vehicles having the same driving pattern as that of the vehicle and determine conversion parameters for the vehicle using stored conversion parameters of the reference vehicle; and
A surround view image providing unit configured to generate the surround view image using conversion parameters for the vehicle and camera images generated by a camera of the vehicle,
The driving data includes information about the angular acceleration measured in the vehicle,
The driving pattern determination unit,
During a predetermined driving period, a driving feature vector representing the average angular acceleration of the vehicle and the maximum angular acceleration is generated according to the equation below,


(Here, DFV is the driving characteristic vector of the vehicle, E(α) is the average angular acceleration vector representing the average of the angular acceleration of the vehicle, and α r , α p and α y are the roll and pitch of the vehicle ( pitch), represents the angular acceleration component in the yaw direction, T is the driving period of the vehicle, and M(α) is the maximum angular acceleration vector with the largest size among the angular acceleration vectors.)
The transformation parameter is a rotation parameter indicating a rotation angle associated with a rotation transformation used to transform camera images of the vehicle into a top-view image,
The parameter determination unit,
Calculating rotation parameters for the vehicle based on rotation angles corresponding to each axis included in rotation parameters of the reference vehicles having the same driving pattern as that of the vehicle,
Surround view providing device.
삭제delete 삭제delete 삭제delete 삭제delete
KR1020230067998A 2023-05-26 2023-05-26 Surround view providing device and operating method of the same KR102582056B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230067998A KR102582056B1 (en) 2023-05-26 2023-05-26 Surround view providing device and operating method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230067998A KR102582056B1 (en) 2023-05-26 2023-05-26 Surround view providing device and operating method of the same

Publications (1)

Publication Number Publication Date
KR102582056B1 true KR102582056B1 (en) 2023-09-25

Family

ID=88190397

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230067998A KR102582056B1 (en) 2023-05-26 2023-05-26 Surround view providing device and operating method of the same

Country Status (1)

Country Link
KR (1) KR102582056B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120050413A (en) * 2009-05-19 2012-05-18 후루노덴끼가부시끼가이샤 Movement condition detection device
KR20180019921A (en) * 2016-08-17 2018-02-27 현대모비스 주식회사 Apparatus for generating top-view image and method thereof
KR20220034983A (en) * 2020-09-11 2022-03-21 현대자동차주식회사 Vehicle and method for controlling the vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120050413A (en) * 2009-05-19 2012-05-18 후루노덴끼가부시끼가이샤 Movement condition detection device
KR20180019921A (en) * 2016-08-17 2018-02-27 현대모비스 주식회사 Apparatus for generating top-view image and method thereof
KR20220034983A (en) * 2020-09-11 2022-03-21 현대자동차주식회사 Vehicle and method for controlling the vehicle

Similar Documents

Publication Publication Date Title
US11803981B2 (en) Vehicle environment modeling with cameras
JP6364049B2 (en) Vehicle contour detection method, device, storage medium and computer program based on point cloud data
US10282623B1 (en) Depth perception sensor data processing
JP7101255B2 (en) Methods, vehicle control methods and devices for predicting the direction of motion of a target object
US10832478B2 (en) Method and system for virtual sensor data generation with depth ground truth annotation
US20220011122A1 (en) Trajectory prediction method and device
CN109345596A (en) Multisensor scaling method, device, computer equipment, medium and vehicle
CN109544629A (en) Camera pose determines method and apparatus and electronic equipment
CN112084856A (en) Face posture detection method and device, terminal equipment and storage medium
US11783507B2 (en) Camera calibration apparatus and operating method
CN113450579B (en) Method, device, equipment and medium for acquiring speed information
JP2021531601A (en) Neural network training, line-of-sight detection methods and devices, and electronic devices
US11645773B2 (en) Method for acquiring distance from moving body to at least one object located in any direction of moving body by performing near region sensing and image processing device using the same
CN113177432A (en) Head pose estimation method, system, device and medium based on multi-scale lightweight network
US11062141B2 (en) Methods and apparatuses for future trajectory forecast
CN111678488B (en) Distance measuring method and device, computer readable storage medium and electronic equipment
KR102582056B1 (en) Surround view providing device and operating method of the same
CN113793251A (en) Pose determination method and device, electronic equipment and readable storage medium
JP2018124963A (en) Image processing device, image recognition device, image processing program, and image recognition program
US20210348938A1 (en) Sensor calibration for space translation
CN114972530A (en) Method, device and equipment for calibrating camera based on virtual scene and storage medium
CN114596475A (en) Training method of homography flow estimation model, homography flow estimation method and device
CN113506328A (en) Method and device for generating sight line estimation model and method and device for estimating sight line
CN114693865A (en) Data processing method and related device
KR102551467B1 (en) Depth map image generation method and computing device therefor

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant