KR102259401B1 - Composing Method of Augment Reality Additional Information in Drone Moving Picture - Google Patents

Composing Method of Augment Reality Additional Information in Drone Moving Picture Download PDF

Info

Publication number
KR102259401B1
KR102259401B1 KR1020190155014A KR20190155014A KR102259401B1 KR 102259401 B1 KR102259401 B1 KR 102259401B1 KR 1020190155014 A KR1020190155014 A KR 1020190155014A KR 20190155014 A KR20190155014 A KR 20190155014A KR 102259401 B1 KR102259401 B1 KR 102259401B1
Authority
KR
South Korea
Prior art keywords
additional information
augmented reality
video
reality additional
drone
Prior art date
Application number
KR1020190155014A
Other languages
Korean (ko)
Inventor
오광만
Original Assignee
(주)테슬라시스템
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)테슬라시스템 filed Critical (주)테슬라시스템
Priority to KR1020190155014A priority Critical patent/KR102259401B1/en
Application granted granted Critical
Publication of KR102259401B1 publication Critical patent/KR102259401B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Abstract

The invention relates to a method of synthesizing augmented reality additional information in a drone video. The invention relates to the method for synthesizing augmented reality additional information in a drone video, which comprises the steps of: parsing drone video data and rendering the data by a video renderer; parsing an augmented reality additional information file to derive augmented reality additional information; extracting camera parameters from a drone video to extract camera movement information, and extracting 3D spatial information composed of feature points of each image; modeling augmented reality additional information in the extracted 3D space; performing time-axis-based mapping of camera movement information to properties of a viewing camera for 3D rendering; and repeating a process of, generating 3D augmented reality additional information to be displayed in the extracted 3D space by 3D spatial rendering of the augmented reality additional information, and synthesizing the 3D augmented reality additional information in an image formed by rendering the drone video, from the start to the end of the drone video. By using the present invention as described above, it is possible to conveniently edit the augmented reality additional information, and it is possible to synthesize the augmented reality additional information into the drone video.

Description

드론 동영상에 증강현실 부가정보를 합성하는 방법{Composing Method of Augment Reality Additional Information in Drone Moving Picture}Method of synthesizing augmented reality additional information in drone video {Compositing Method of Augment Reality Additional Information in Drone Moving Picture}

본 발명은 드론 동영상에 증강 현실 부가 정보를 합성하는 방법에 관한 것이다.The present invention relates to a method of synthesizing augmented reality additional information in a drone video.

드론은 도1과 같이 소형 비행장치의 일종으로 주로 카메라를 탑재하여 방송용 또는 감시용 또는 측량용으로 사용되어 도2와 같은 항공 영상을 촬영하는데에 많이 활용되어 왔다.The drone is a kind of small flight device as shown in FIG. 1 and is mainly used for broadcasting, monitoring, or surveying by mounting a camera, and has been widely used to take aerial images as shown in FIG. 2 .

또한, 최근에는 드론의 가격이 저렴해지고 소형화됨에 따라 개인들이 드론을 구매하여 드론을 이용하여 각종 동영상을 촬영하여 유튜브나 페이스북 등에 올려서 친구들과 동영상을 공유하는 사례들이 많이 늘어나고 있다.In addition, recently, as drones become cheaper and smaller, there are increasing cases in which individuals purchase drones, shoot various videos using the drone, upload them to YouTube or Facebook, etc. and share the videos with friends.

그래서, 도3의 좌측 상부 및 하부 도면과 같이 드론 동영상에서 지형면에 존재하는 특정인에게 적색의 박스나 타원을 추가하여 동영상에서 이 특정인을 계속 추종하게 하거나, 도3의 우측 도면과 같이 골프장의 동영상에서 홀컵까지의 거리가 계속 표시되거나 특정 위치에 서클(골퍼의 타입(남자, 여자, 노약자 등)에 따라 출발 지점을 나타내는 흰색 서클, 적색 서클, 녹색 서클)이 계속 표시되게 하는 것과 같이, 촬영자의 의도를 표현하거나 타인에게 정보를 설명하기 위해 드론으로 촬영된 동영상에 다양한 증강현실 부가정보(예: 텍스트, 도형, 이미지 등)를 삽입해야 하는 필요성이 대두되고 있다.So, as shown in the upper and lower left drawings of FIG. 3 , a red box or ellipse is added to a specific person on the toposurface in the drone video to keep following this specific person in the video, or a video of a golf course as shown in the right drawing of FIG. The distance from to the hole cup is continuously displayed, or a circle (white circle, red circle, green circle indicating the starting point depending on the type of golfer (male, female, elderly, etc.) The need to insert various augmented reality additional information (eg text, figure, image, etc.) into a video shot with a drone to express intention or explain information to others is emerging.

그런데, 드론 동영상에 증강현실 부가정보를 삽입하는 것은 화면에서 연속적으로 위치가 변경되는 특정 타겟(예: 도3의 특정인, 도4의 특정 장소)을 추종하면서 이 타켓에 증강현실 부가정보를 추가하는 것이기에, 영화와 같은 동영상에서 자막을 추가하는 것처럼 화면의 고정된 특정 위치에 증강현실 부가정보를 표시하는 방법을 적용할 수가 없다.However, inserting augmented reality additional information into the drone video is to add augmented reality additional information to this target while following a specific target (eg, a specific person in FIG. 3, a specific place in FIG. 4) whose location is continuously changed on the screen. Therefore, it is not possible to apply the method of displaying the augmented reality additional information in a fixed specific position on the screen, such as adding subtitles in a video such as a movie.

한국등록특허공보 10-1843025호(2018.3.22일 등록)Korean Patent Publication No. 10-1843025 (registered on March 22, 2018)

이상과 같은 종래기술의 문제점을 감안하여 본 발명은 드론 동영상에 증강현실 부가정보를 합성하는 방법을 제공한다.In view of the problems of the prior art as described above, the present invention provides a method of synthesizing augmented reality additional information in a drone video.

이러한 과제를 해결하기 위한 본 발명은, 드론 동영상에 증강현실 부가정보를 합성하는 방법에 있어서, The present invention for solving these problems, in a method of synthesizing augmented reality additional information in a drone video,

드론 동영상 데이타를 파싱하여 동영상 렌더러에 의해 렌더링하는 단계;Parsing the drone video data and rendering by a video renderer;

증강현실 부가정보 파일을 파싱하여 증강현실 부가정보를 도출하는 단계;parsing the augmented reality additional information file to derive augmented reality additional information;

드론 동영상에서 카메라 파라메타를 추출하여 카메라의 동선 정보를 추출하고, 각 영상의 특징점들에 의해 구성되는 3차원 공간 정보를 추출하는 단계;extracting camera parameters from a drone video to extract camera movement information, and extracting three-dimensional spatial information composed of feature points of each image;

추출된 3차원 공간에 증강현실 부가 정보를 모델링하는 단계;modeling augmented reality additional information in the extracted three-dimensional space;

카메라의 동선 정보를 3차원 렌더링을 하기 위한 뷰잉 카메라의 속성으로 시간축 기반 매핑을 하는 단계;performing time-axis-based mapping of the camera movement information to properties of a viewing camera for 3D rendering;

증강현실 부가정보에 대하여 3차원 공간 렌더링을 하여 상기 추출된 3차원 공간에 표시되어야 하는 3차원 증강현실 부가정보를 생성하여 상기 드론 동영상을 렌더링하여 형성되는 영상에 상기 3차원 증강현실 부가정보를 합성하는 과정을 드론 동영상의 시작부터 종료시까지 반복하는 단계를 포함하는 것을 특징으로 한다.3D augmented reality additional information to be displayed in the extracted 3D space is generated by 3D spatial rendering of the augmented reality additional information, and the 3D augmented reality additional information is synthesized with the image formed by rendering the drone video. It characterized in that it includes the step of repeating the process from the start to the end of the drone video.

이상과 같은 본 발명을 이용하면, 증강현실 부가정보를 편리하게 편집 가능하게 되고 드론 동영상에 증강현실 부가정보를 합성 가능하게 된다.By using the present invention as described above, it is possible to conveniently edit the augmented reality additional information, and it is possible to synthesize the augmented reality additional information into the drone video.

도1은 일반적인 드론의 형상을 도시함.
도2는 드론에서 촬영한 영상을 도시함.
도3은 본 발명에서 증강 현실 부가정보가 추가된 드론 영상을 나타냄.
도4는 본 발명에서 드론 촬영된 원본 동영상과 편집된 동영상의 비교를 나타냄.
도5는 본 발명에서 드론 동영상에 증강현실 부가정보를 삽입시의 동영상을 재생하는 것을 나타냄.
도6은 본 발명에 따라 드론 동영상에서 카메라 파라메타, 동선 정보 및 3차원 공간 정보를 추출하는 과정을 도시함.
도7은 본 발명에 따라 드론 동영상에서 추출되는 포인트 클라우드, 동선 정보 및 3차원 공간 정보를 도시함.
도8은 본 발명에서 사용되는 메타 파일의 구조를 도시함.
도9는 본 발명에 따라 드론 동영상에 증강현실 부가정보를 합성하는 개략적인 개념도를 도시함.
도10은 본 발명에 따라 드론 카메라의 위치와 3차원 모델 렌더러의 뷰잉 카메라의 매핑을 도시함.
도11은 본 발명에 따라 드론 동영상에 증강현실 부가정보를 합성하는 구체적인 과정을 도시함.
1 shows the shape of a general drone.
2 shows an image taken by a drone.
3 shows a drone image to which augmented reality additional information is added in the present invention.
Figure 4 shows a comparison of the original video and edited video taken by drones in the present invention.
Figure 5 shows the playback of the video when the augmented reality additional information is inserted into the drone video in the present invention.
6 is a diagram illustrating a process of extracting camera parameters, movement line information, and 3D spatial information from a drone video according to the present invention.
7 is a diagram illustrating point clouds, movement line information, and 3D spatial information extracted from a drone video according to the present invention.
8 shows the structure of a meta file used in the present invention.
9 is a schematic conceptual diagram of synthesizing augmented reality additional information in a drone video according to the present invention.
Figure 10 shows the mapping of the position of the drone camera and the viewing camera of the 3D model renderer according to the present invention.
11 shows a detailed process of synthesizing augmented reality additional information in a drone video according to the present invention.

이제 도면들을 참고로 하여 본 발명을 자세히 설명하기로 한다.The present invention will now be described in detail with reference to the drawings.

드론에서 촬영된 동영상의 경우, 지형 위에 존재하는 건물, 나무, 강, 각종 시설물 등을 촬영하는 경우가 대부분이기 때문에, 촬영된 영상 내에 정보를 표시할 때에 도3과 같이 지형면을 고려하여 다양한 정보를 삽입하는 것이 자연스럽다.In the case of a video shot by a drone, in most cases, buildings, trees, rivers, various facilities, etc. that exist on the terrain are photographed. Therefore, when displaying information in the captured image, as shown in FIG. 3, various information is taken in consideration of the topographical surface. It is natural to insert

예를 들어, 도4의 좌측과 같은 골프장의 드론 촬영 원본 동영상(드론 동영상이라고도 약칭함)에 증강현실 부가정보(홀컵까지의 거리, 골퍼의 타입(남자, 여자, 노약자 등) 따라 출발지점을 나타내는 흰색 서클(white tee, 일반 남자용)/적색 서클(red tee, 일반 여자용)/녹색 서클(green tee, 노약자용))를 삽입하면 도4의 우측과 같은 드론 촬영 편집 영상이 되고, 이러한 증강현실 삽입 방법을 드론 동영상 전체에 적용하면 도5와 같이 드론이 이동하면서 촬영한 동영상에 증강현실 부가정보들이 삽입되어 삽입된 동영상을 재생하면 동영상에서 화면이 연속적으로 진행하더라도 화면 상에는 특정 위치(예: 적색 서클 위치)에 지정된 시작 시간부터 종료 시간 동안 적색 서클이 나타나게 된다.For example, the starting point is indicated according to the augmented reality additional information (distance to the hole cup, type of golfer (male, female, elderly, etc.) When a white circle (white tee, for general men)/red circle (red tee, for general women)/green circle (green tee, for the elderly)) is inserted, it becomes an edited drone shooting video as shown on the right side of FIG. 4, such augmented reality If the insertion method is applied to the entire drone video, augmented reality additional information is inserted into the video taken while the drone is moving as shown in FIG. 5, and when the inserted video is played, even if the screen continues in the video, a specific location (eg, red A red circle appears from the start time specified in the circle position) to the end time.

그래서, 예를 들어 기존의 골프장 안내 드론 촬영 동영상에서는 골프장에 대한 드론 동영상만이 나타나서 동영상에서 골퍼의 타입별 출발 지점이 어디인지 또는 그 지점에서 홀컵까지의 거리가 얼마나 되는지 등에 대한 정보를 알 수 없지만, 본 발명을 적용하면 골퍼의 타입에 따른 출발 위치 및 홀컵까지의 거리 등의 증강현실 부가정보가 삽입된 동영상이 재생되어 각 특정 위치에 특정 시간 동안 해당 증강현실 부가정보가 나타나게 되어, 골프장의 드론 동영상을 통해 전체적인 골프장의 전경을 파악하면서 증강현실 부가정보를 통해 다양한 부가정보(예: 골퍼의 타입별 출발 위치가 어디인지나 홀컵까지의 거리가 얼마인지에 대한 정보)를 용이하게 파악할 수 있게 된다.So, for example, in the existing golf course guide drone shooting video, only the drone video about the golf course appears, so it is not possible to know information about the starting point for each golfer type in the video or the distance from that point to the hole cup. , when the present invention is applied, a video in which augmented reality additional information such as the starting position and the distance to the hole cup according to the type of golfer is inserted is played, and the corresponding augmented reality additional information is displayed at each specific location for a specific time. While grasping the overall view of the golf course through the video, it is possible to easily grasp various additional information (for example, information about the starting location of each type of golfer or the distance to the hole cup) through the augmented reality additional information. .

다음으로 본 발명에서 드론 동영상(원본 동영상)에서 카메라 파라메타, 포인트 클라우드, 카메라 동선 정보 및 3차원 공간 정보를 추출하는 과정에 대해 도6, 7을 참고로 하여 자세히 설명하기로 한다.Next, the process of extracting camera parameters, point clouds, camera movement information, and 3D spatial information from a drone video (original video) in the present invention will be described in detail with reference to FIGS. 6 and 7 .

먼저, 드론에 장착된 카메라를 이용하여 촬영된 원본 동영상을 준비한다(S1).여기서 도7의 상단 도면에 원본 동영상의 스틸 사진들이 나타나 있다.First, an original video shot using a camera mounted on the drone is prepared (S1). Here, still photos of the original video are shown in the upper drawing of FIG. 7 .

다음으로, 이 원본 동영상을 통해 드론에 장착된 카메라의 내부 파라메타(초점 거리, 화각, 렌즈 곡률 등)와 외부 파라메타(월드좌표계 기준의 카메라 위치, 카메라의 조준선(LOS : Line of Sight), 카메라의 업 벡터(Up vector) 등)를 추출한다(S2).Next, through this original video, the internal parameters (focal length, angle of view, lens curvature, etc.) of the camera mounted on the drone and the external parameters (the camera position based on the world coordinate system, the line of sight (LOS) of the camera) Up vector (Up vector), etc.) is extracted (S2).

이러한 내외부 파라메타 추출은 모든 촬영된 영상에는 촬영에 사용된 카메라 정보를 내포하고 있고, 동일한 물체를 촬영한 다수의 영상을 조합하면 촬영에 사용된 카메라들의 내외부 파라메타와, 촬영대상인 물체의 3차원 정보를 복원할 수 있다는 기존의 공지 기술을 이용하게 된다. In this internal and external parameter extraction, camera information used for shooting is included in all captured images, and when multiple images of the same object are combined, internal and external parameters of the cameras used for shooting and 3D information of the object to be shot are obtained. Existing known techniques that can be restored will be used.

이제, 드론 카메라의 동선 정보를 추출한다(S3). 여기서 도7의 중간 도면에 카메라의 동선이 도시되어 있다. 각 영상에 해당하는 드론의 위치는 상기에서 추출한 정보 중 카메라 위치와 카메라의 조준선(LOS)를 기반으로 추출되며, 이를 시간축으로 나열한 모습이 도면 7의 중간에 표시된 카메라 동선에 해당한다.Now, the movement information of the drone camera is extracted (S3). Here, the moving line of the camera is shown in the middle drawing of FIG. 7 . The position of the drone corresponding to each image is extracted based on the camera position and the line of sight (LOS) of the camera among the information extracted above, and the arrangement on the time axis corresponds to the camera movement line shown in the middle of FIG. 7 .

다음으로, 드론 카메라에서 촬영된 영상의 특징점들의 집합인 포인트 클라우드(point of cloud)를 추출한다(S4). 도7의 중간 도면에 포인트 클라우드가 도시되어 있다. 클라우드 포인트는 다시점 영상처리 과정에서 추출되게 되는데, 기본적으로 삼각법을 활용하게 된다.Next, a point cloud that is a set of feature points of the image captured by the drone camera is extracted (S4). A point cloud is shown in the middle diagram of FIG. 7 . Cloud points are extracted during multi-view image processing, and trigonometry is basically used.

즉 일정한 거리를 가진 두 개의 카메라를 이용하여 물체를 촬영하게 되면, 두 개의 카메라와 물체는 삼각형을 이루게 되고, 두 개의 카메라 간의 거리 및 카메라가 물체를 촬영하기 위한 조준선을 사전에 계산 가능하기 때문에, 일반적인 삼각법의 원리에 의해 각 카메라에서 물체까지의 거리 및 각도를 알아낼 수 있게 된다.That is, when an object is photographed using two cameras with a certain distance, the two cameras and the object form a triangle, and the distance between the two cameras and the crosshair for the camera to photograph the object can be calculated in advance. It is possible to find out the distance and angle from each camera to the object by the general trigonometry principle.

또한, 영상에서의 특징점들은 각 영상에서 공통으로 나타나고 잘 구별되어 정합이 가능한 점을 추출하여 활용한다. 이때 특징점 추출에 사용되는 알고리즘은 기존의 다양한 주지의 방법을 사용하게 된다.In addition, the feature points in the image appear in common in each image, and the points that are well distinguished and can be matched are extracted and utilized. In this case, the algorithm used for extracting the feature points uses various well-known methods.

그리고, 클라우드 포인트는 영상에서 추출된 특징점을 모두 모아서 형성되는 점들인데, 촬영된 카메라를 기준으로 특징점과의 거리를 모두 알고 있기 때문에 이들을 모두 모아 높으면 촬영대상이 형성하고 있는 3차원 공간정보가 된다.In addition, cloud points are points formed by collecting all the feature points extracted from the image. Since the distance to the feature points is known based on the photographed camera, if all of them are collected and high, it becomes the three-dimensional spatial information formed by the object to be photographed.

마지막으로, 이러한 특징점들에 의해 구성되는 3차원 공간 정보를 추출한다(S5). 도7의 하단 도면에 원본 동영상에서 추출되는 3차원 공간정보가 도시되어 있다.Finally, 3D spatial information constituted by these feature points is extracted (S5). The 3D spatial information extracted from the original video is shown in the lower drawing of FIG. 7 .

이때, 3차원 공간정보는 월드좌표계를 기준으로 기술을 해야 한다. 월드좌표계 기준의 카메라의 동선 정보가 상기와 같이 추출되어 있고 상기와 같이 카메라와 특징점 간의 거리정보를 추출하였기 때문에, 월드 좌표계 기준의 특징점들의 좌표를 추출할 수 있게 된다. 또한 이러한 특징점들이 구성하는 공간정보를 면정보로 변환하는데에 들러니 삼각화 방법(Delaunay triangulation)이 널리 활용된다.At this time, the 3D spatial information should be described based on the world coordinate system. Since the movement information of the camera based on the world coordinate system is extracted as described above and distance information between the camera and the feature point is extracted as described above, it is possible to extract the coordinates of the feature points based on the world coordinate system. In addition, the Delaunay triangulation method is widely used to transform the spatial information composed of these feature points into surface information.

결국, 이상과 같이 카메라의 동선과 포인트 클라우드와 3차원 공간 정보를 추출하면 도7의 하단과 같이, 추출된 3차원 공간상에 지형의 포인트 클라우드와 카메라의 동선이 나타내게 된다.As a result, when the camera movement line, point cloud, and 3D spatial information are extracted as described above, the point cloud of the terrain and the camera movement line are displayed on the extracted 3D space as shown in the lower part of FIG. 7 .

한편, 드론 촬영 동영상에 증강현실 부가정보를 추가하거나, 추가된 증강현실 부가정보의 제거나 수정시에, Adobe After Effect같은 편집툴의 기능들을 다시 수작업으로 적용시켜서 수 시간 작업을 수행해야 하므로 증강현실 부가정보를 변경(추가, 제거, 수정)하기가 어렵기 때문에 보다 편리한 증강현실 부가정보의 변경 방법이 필요하므로, 이하에서는 증강현실 부가정보를 편리하게 변경 가능하게 하는, 증강 현실 부가정보가 삽입된 드론 동영상을 위한 메타 파일(관리 파일)(SARI : Synchronized Augmented Reality Information) 구조를 설명하기로 한다.On the other hand, when adding augmented reality additional information to a drone shot video or removing or modifying added augmented reality additional information, it is necessary to manually apply the functions of an editing tool such as Adobe After Effect and perform several hours of work. Since it is difficult to change (add, remove, modify) additional information, a more convenient method of changing augmented reality additional information is required. A meta file (management file) (SARI: Synchronized Augmented Reality Information) structure for drone video will be described.

도8은 본 발명에서 사용하는 메타 파일 구조이다.8 is a meta file structure used in the present invention.

이 메타 파일에는 원본 동영상 파일에 대한 이름(1), 촬영시 사용된 카메라의 GPS좌표(2), 촬영시 사용된 카메라의 내외부 파라메타(촛점거리, 렌즈의 주점(Principal point), 비대칭 계수 등)(3), 증강현실 부가정보들(도형, 텍스트, 표, 숫자, 그래프, 이미지 등)(4-1, 4-2 ....), 각 증강현실 부가정보가 출현해야 하는 3차원 좌표들(5-1, 5-2 ....), 각 증강현실 부가정보가 출현해야 하는 시간 동기화 정보들(6-1, 6-2.....)이 포함된다.This meta file includes the name of the original video file (1), the GPS coordinates of the camera used for shooting (2), and the internal and external parameters of the camera used for shooting (focal length, lens principal point, asymmetry coefficient, etc.) (3), augmented reality additional information (figure, text, table, number, graph, image, etc.) (4-1, 4-2 ....), 3D coordinates where each augmented reality additional information should appear (5-1, 5-2 ....), time synchronization information (6-1, 6-2 .....) in which each augmented reality additional information should appear is included.

여기서, 카메라의 GPS좌표(2)는 드론이 이동한 경로와 동일한 정보를 갖는다. 이는 증강현실 동영상 재생시 편의기능을 제공하기 위해서 활용되는데, 주로 사용자의 위치를 기반으로 동영상의 시작점을 사용자의 위치와 동기화시키기 위해 사용된다. Here, the GPS coordinates 2 of the camera have the same information as the path traveled by the drone. This is used to provide a convenient function when playing the augmented reality video, and is mainly used to synchronize the starting point of the video with the user's location based on the user's location.

그리고, 시간 동기화 정보(6-1, 6-2.....)는 동영상에 삽입되는 증강현실 부가정보(텍스트, 도형, 이미지 등)가 어느 시점에 나타나고 어느 시점에 사라져야 하는지를 기술한다. And, the time synchronization information (6-1, 6-2.....) describes at what point in time the augmented reality additional information (text, figure, image, etc.) inserted into the video should appear and disappear.

그래서, 증강현실 부가정보의 변경(추가, 제거, 수정)시에는 상기 메타 파일에서 변경하고자 하는 해당 증강현실 부가정보 영역(4-1, 4-2 ....), 증강현실 부가정보가 출현해야 하는 3차원 좌표 영역(5-1, 5-2 ....), 증강현실 부가정보가 출현해야 하는 시간 동기화 정보영역(6-1, 6-2.....)을 변경하면 되므로, 편리하게 증강현실 부가정보를 변경하는 것이 가능해진다.So, when the augmented reality additional information is changed (added, removed, or modified), the corresponding augmented reality additional information area (4-1, 4-2 ....) to be changed in the meta file and the augmented reality additional information appear Because it is necessary to change the three-dimensional coordinate area (5-1, 5-2 ....) that should be, and the time synchronization information area (6-1, 6-2...) where the augmented reality additional information should appear. , it becomes possible to conveniently change the augmented reality additional information.

다음으로, 본 발명에 따라 상기의 메타 파일을 이용하여 드론 동영상에 증강현실 정보를 실시간적으로 합성하는 방법에 대해 도9, 10, 11을 참고로 하여 설명하기로 한다.Next, a method of synthesizing augmented reality information in a drone video in real time using the meta file according to the present invention will be described with reference to FIGS. 9, 10 and 11 .

도9는 본 발명에 따른 실시간 합성 방법의 개략적인 구성을 도시한다.9 shows a schematic configuration of a real-time synthesis method according to the present invention.

드론 동영상 데이타를 동영상 렌더러에 의해 렌더링하고, 도8에 나타난 메타 파일에서 증강현실 부가정보(증강현실 부가정보(4-1, 4-2 ....))를 추출하여 3차원 모델링을 하고 3D 렌더러에 의해 렌더링하여, 이들을 시간축(Timeline) 기반으로 실시간 합성을 하면 증강현실 부가정보가 포함된 드론 동영상(증강현실 동영상)(도9의 최하단의 CONFIELD 동영상)이 형성된다.Drone video data is rendered by a video renderer, and augmented reality additional information (augmented reality additional information (4-1, 4-2 ...)) is extracted from the meta file shown in FIG. When rendered by a renderer and synthesized in real time based on a timeline, a drone video (augmented reality video) containing augmented reality additional information (CONFIELD video at the bottom of FIG. 9) is formed.

이제, 도10을 참고로 하여, 본 발명에서 사용되는 드론 카메라의 위치와 3차원 렌더러의 뷰잉 카메라의 매핑에 대해 설명한다.Now, with reference to FIG. 10, the mapping of the position of the drone camera used in the present invention and the viewing camera of the 3D renderer will be described.

상기 도6에서 설명한 바와 같이 드론 동영상(원본 동영상)으로부터 드론 카메라의 동선 정보(시각별 위치 정보)가 추출되고 3차원 공간 정보가 추출되면, 도10의 상부 도면과 같은 드론 촬영 궤적이 형성되고 도10의 하단 도면과 같은 드론 동영상의 3차원 공간이 형성된다.As described in FIG. 6, when the movement line information (position information for each time) of the drone camera is extracted from the drone video (original video) and the 3D spatial information is extracted, the drone shooting trajectory is formed as shown in the upper diagram of FIG. The three-dimensional space of the drone video as shown in the lower drawing of 10 is formed.

또한, 상기 도6에서 설명한 바와 같이 드론 카메라의 파라메타가 추출되면 카메라의 위치, 카메라의 조준선, 카메라의 업백터 등이 추출된다. In addition, as described with reference to FIG. 6, when the parameters of the drone camera are extracted, the position of the camera, the crosshair of the camera, the upvector of the camera, and the like are extracted.

그리고, 이렇게 추출된 카메라 정보는 도10의 하단 도면과 같이, 상기에서 추출된 3차원 공간을 렌더링하기 위한 3D 렌더러의 뷰잉 카메라의 위치, 뷰잉 각도(viewing angle) 및 이동 경로(Navigation path) 정보로 활용한다.And, the camera information thus extracted is the position, viewing angle, and navigation path information of the viewing camera of the 3D renderer for rendering the extracted three-dimensional space, as shown in the lower diagram of FIG. 10 . make use of

이때, 렌더링해야 하는 3차원 공간정보는 상기의 영상에서 추출된 3차원 공간정보와, 도8과 같은 증강현실 부가정보 관리파일에서 추출된 증강현실 부가 정보에 의해서 모델링된 3차원 부가정보 등을 포함하게 된다. 여기서 도10의 하단 도면에서는 청색박스가 동영상에서 추출된 3차원 공간정보를 표시하고 있고, 타원, 벙커(bunker)표시, 원기둥 등은 부가정보파일에서 추출된 3차원 부가정보를 보여주고 있다. At this time, the 3D spatial information to be rendered includes 3D spatial information extracted from the image and 3D additional information modeled by the augmented reality additional information extracted from the augmented reality additional information management file as shown in FIG. will do Here, in the lower drawing of FIG. 10, a blue box indicates 3D spatial information extracted from a video, and an ellipse, a bunker display, and a cylinder indicates 3D additional information extracted from the additional information file.

그리고, 이렇게 시간축에 대해서 생성된 두 개의 이미지(동영상 렌더러에 의하여 생성된 영상, 3D 렌더러에 의하여 생성된 영상)를 매핑되는 시간을 기반으로 서로 합성하면 된다.Then, the two images (image generated by the video renderer and the image generated by the 3D renderer) generated on the time axis in this way can be synthesized based on the mapping time.

다음으로, 본 발명에서 실시간적으로 드론 동영상에 증강현실 부가정보를 합성하는 방법을 도11을 참고로 하여 구체적으로 설명한다.Next, a method of synthesizing augmented reality additional information in a drone video in real time in the present invention will be described in detail with reference to FIG. 11 .

먼저, 드론 동영상 파일을 준비한다(S11).First, a drone video file is prepared (S11).

그리고 나서, 이 드론 동영상 파일을 파싱하고(S12), 동영상의 처음부터 마지막까지 증강현실 부가정보를 합성하는 것이므로 현재시간(T)=0 이고 종료시간(Te)= (동영상의 전체 길이) 로 설정한다(S13). Then, the drone video file is parsed (S12), and since the augmented reality additional information is synthesized from the beginning to the end of the video, the current time (T) = 0 and the end time (Te) = (total length of the video) is set. do (S13).

이제, 처음에 해당하는 시점(T)=0 으로 설정하여(S14), 동영상 랜더러에 의해 이 시점에 대한 동영상 렌더링을 하면(S15), 이 시점(T=0)에 대한 영상이 형성된다.Now, by setting the first time point (T) = 0 (S14) and rendering a video for this view point by the video renderer (S15), an image for this time point (T=0) is formed.

한편, 부가정보 파일(메타 파일 또는 SARI파일)을 준비하여(S21), 파싱을 하고(S22), 도6에서 도출된 3차원 공간에 증강현실 부가정보를 모델링한 후에(S23), 부가정보 파일에 저장되어 있는 드론 동영상 촬영에 사용된 카메라의 동선정보(위치, 조준선, 업벡터)를 3D 렌더링을 하기 위한 뷰잉 카메라의 속성(뷰잉 위치(viewing position), 뷰잉 방향(viewing direction), 이동 경로(navigation path))으로 매핑한다(S24).Meanwhile, the additional information file (meta file or SARI file) is prepared (S21), parsed (S22), and after modeling the augmented reality additional information in the three-dimensional space derived in FIG. 6 (S23), the additional information file Viewing camera properties (viewing position, viewing direction), movement path (viewing position, viewing direction) for 3D rendering of camera movement information (position, aim line, up vector) stored in drone video recording navigation path)) (S24).

이제, 시점(T)=0으로 설정하고(S25), 이 시점에 대한 증강현실 부가정보에 대해 상기의 3차원 공간 렌더링을 하면(S26), 3차원 공간에 표시되어야 하는 증강현실 3D 부가정보가 앞서 설정한 뷰잉 카메라 관점에서 생성되게 된다. Now, when the viewpoint (T) = 0 is set (S25), and the 3D space rendering is performed for the augmented reality additional information for this viewpoint (S26), the augmented reality 3D additional information to be displayed in the 3D space is It is created from the viewpoint of the viewing camera set earlier.

이렇게 생성된 증강현실 3D 부가정보를 단계(S15)에서 동영상 렌더링에 의해 형성된 영상에 합성하면, 단계(S15)을 통해 형성되는 시점(T=0)의 영상에, 단계(S26)를 통해 형성되는 시점(T=0)의 증강현실 부가정보가 합성되게 된다(S30).When the augmented reality 3D additional information generated in this way is synthesized with the image formed by video rendering in step S15, the image of the time point (T = 0) formed through step S15 is formed through step S26. The augmented reality additional information at the time point (T=0) is synthesized (S30).

다음으로 현재 시간이 종료 시간이 되었는지(현재시간이 종료시간보다 작은지)를 판단하여(S31), 현재 시간이 종료시간이 되지 않았다면 다음 시점(T)에 대해 상기 과정을 수행하기 위해 T를 1만큼 증가시켜서(S32, S33) 각각 단계(S15) 및 단계(S25)로 돌아가게 되고, 이러한 과정을 종료시간까지 수행하면 원하는 전체 드론 동영상에 대해 증가현실 부가정보를 합성(삽입)하는 과정이 완료되게 된다.Next, it is determined whether the current time has reached the end time (whether the current time is less than the end time) (S31), and if the current time is not the end time, T is set to 1 to perform the above process for the next time point T. By increasing the number (S32, S33), the process returns to steps (S15) and (S25), respectively, and if this process is performed until the end time, the process of synthesizing (inserting) augmented reality additional information for the entire drone video is completed. will become

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명은 이러한 실시예에 한정되는 것이 아니라 본 발명의 정신을 벗어나지 않는 범위 내에서 다양한 변형이나 변경이 가능하다는 점에 유의해야 한다.Although the embodiments of the present invention have been described in detail above, it should be noted that the present invention is not limited to these embodiments, and various modifications or changes are possible without departing from the spirit of the present invention.

Claims (4)

드론 동영상에 증강현실 부가정보를 합성하는 방법에 있어서,
드론 동영상 파일을 파싱하여 동영상 렌더러에 의해 렌더링하는 단계;
증강현실 부가정보 파일을 파싱하여 증강현실 부가정보를 도출하는 단계;
드론 동영상에서 추출된 카메라 파라메타를 통해 카메라의 동선 정보를 추출하고, 드론 동영상에서 각 영상의 특징점들에 의해 구성되는 3차원 공간 정보를 추출하는 단계;
추출된 3차원 공간에 증강현실 부가정보를 모델링하는 단계;
3차원 렌더링을 하기 위한 뷰잉 카메라의 속성으로 상기 카메라의 동선 정보를 시간축 기반 매핑하는 단계;
드론 동영상의 시작부터 종료시까지의 각 시점에 있어서, 증강현실 부가정보에 대하여 3차원 공간 렌더링을 하여 상기 뷰잉 카메라 관점에서 상기 추출된 3차원 공간에 표시되어야 하는 3차원 증강현실 부가정보를 생성하여, 상기 드론 동영상을 렌더링하여 형성되는 영상에 상기 생성된 3차원 증강현실 부가정보를 합성하는 과정을 반복하는 단계를 포함하는 것을 특징으로 하는 드론 동영상에 증강현실 부가정보를 합성하는 방법.
In a method of synthesizing augmented reality additional information in a drone video,
Parsing the drone video file and rendering by a video renderer;
parsing the augmented reality additional information file to derive augmented reality additional information;
extracting movement line information of the camera through the camera parameters extracted from the drone video, and extracting 3D spatial information constituted by the feature points of each image from the drone video;
modeling augmented reality additional information in the extracted three-dimensional space;
Time-axis-based mapping of the moving line information of the camera to the properties of the viewing camera for 3D rendering;
At each time point from the start to the end of the drone video, 3D augmented reality additional information to be displayed in the extracted 3D space from the viewpoint of the viewing camera is generated by 3D spatial rendering of the augmented reality additional information, A method of synthesizing augmented reality additional information into a drone video, comprising repeating the process of synthesizing the generated 3D augmented reality additional information with an image formed by rendering the drone video.
제1항에 있어서,
상기 뷰잉 카메라의 속성은 뷰잉 위치, 뷰잉 방향 및 이동 경로 정보를 포함하는 것을 특징으로 하는 드론 동영상에 증강현실 부가정보를 합성하는 방법.
The method of claim 1,
The property of the viewing camera is a method of synthesizing augmented reality additional information to a drone video, characterized in that it includes a viewing position, a viewing direction, and movement path information.
제1항에 있어서,
상기 카메라의 동선정보는 카메라의 위치, 조준선 및 업벡터를 포함하는 것을 특징으로 하는 드론 동영상에 증강현실 부가정보를 합성하는 방법.
The method of claim 1,
The method of synthesizing the augmented reality additional information in the drone video, characterized in that the camera movement information includes the camera position, the line of sight and the up vector.
제1항에 있어서,
상기 특징점들은 영상에 포인트 클라우드로 표시되는 것을 특징으로 하는 드론 동영상에 증강현실 부가정보를 합성하는 방법.
The method of claim 1,
The method of synthesizing augmented reality additional information in a drone video, characterized in that the feature points are displayed as a point cloud on the image.
KR1020190155014A 2019-11-28 2019-11-28 Composing Method of Augment Reality Additional Information in Drone Moving Picture KR102259401B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190155014A KR102259401B1 (en) 2019-11-28 2019-11-28 Composing Method of Augment Reality Additional Information in Drone Moving Picture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190155014A KR102259401B1 (en) 2019-11-28 2019-11-28 Composing Method of Augment Reality Additional Information in Drone Moving Picture

Publications (1)

Publication Number Publication Date
KR102259401B1 true KR102259401B1 (en) 2021-06-01

Family

ID=76375693

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190155014A KR102259401B1 (en) 2019-11-28 2019-11-28 Composing Method of Augment Reality Additional Information in Drone Moving Picture

Country Status (1)

Country Link
KR (1) KR102259401B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170138752A (en) * 2016-06-08 2017-12-18 (주)코아텍 System for providing virtual drone stadium using augmented reality and method thereof
KR101843025B1 (en) 2016-12-30 2018-03-28 (주)잼투고 System and Method for Video Editing Based on Camera Movement
KR20180098910A (en) * 2017-02-27 2018-09-05 경북대학교 산학협력단 System and method for operating underwater drone
KR20190125680A (en) * 2018-04-30 2019-11-07 (주)테슬라시스템 Inserting Method of Augment Reality Information in Drone Moving Picture
KR20190131402A (en) * 2018-05-16 2019-11-26 주식회사 유진로봇 Moving Object and Hybrid Sensor with Camera and Lidar

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170138752A (en) * 2016-06-08 2017-12-18 (주)코아텍 System for providing virtual drone stadium using augmented reality and method thereof
KR101843025B1 (en) 2016-12-30 2018-03-28 (주)잼투고 System and Method for Video Editing Based on Camera Movement
KR20180098910A (en) * 2017-02-27 2018-09-05 경북대학교 산학협력단 System and method for operating underwater drone
KR20190125680A (en) * 2018-04-30 2019-11-07 (주)테슬라시스템 Inserting Method of Augment Reality Information in Drone Moving Picture
KR20190131402A (en) * 2018-05-16 2019-11-26 주식회사 유진로봇 Moving Object and Hybrid Sensor with Camera and Lidar

Similar Documents

Publication Publication Date Title
JP4351996B2 (en) Method for generating a stereoscopic image from a monoscope image
JP6894962B2 (en) Image data capture method, device, and program for free-viewpoint video
US20120013711A1 (en) Method and system for creating three-dimensional viewable video from a single video stream
US20070296721A1 (en) Apparatus and Method for Producting Multi-View Contents
CN105939481A (en) Interactive three-dimensional virtual reality video program recorded broadcast and live broadcast method
US9582918B2 (en) Techniques for producing creative stereo parameters for stereoscopic computer animation
JP2000503177A (en) Method and apparatus for converting a 2D image into a 3D image
US10863210B2 (en) Client-server communication for live filtering in a camera view
KR101549929B1 (en) Method and apparatus of generating depth map
CN106296789B (en) It is a kind of to be virtually implanted the method and terminal that object shuttles in outdoor scene
US11212510B1 (en) Multi-camera 3D content creation
JP2009059113A (en) Stereoscopic image generation device and program
CN107995481B (en) A kind of display methods and device of mixed reality
KR102259401B1 (en) Composing Method of Augment Reality Additional Information in Drone Moving Picture
KR102082131B1 (en) Inserting Method of Augment Reality Information in Drone Moving Picture
KR102130973B1 (en) Meta File Structure used when Inserting Augment Reality Information into Drone Moving Picture
US10078905B2 (en) Processing of digital motion images
CN105282534B (en) For being embedded in the system and method for stereo-picture
CN105204284A (en) Three-dimensional stereo playback system based on panoramic circular shooting technology
JP2005080015A (en) Imaging device and method thereof
JP2013182618A5 (en)
JP7065708B2 (en) Recording / playback device and program
JP2011205385A (en) Three-dimensional video control device, and three-dimensional video control method
KR20060021566A (en) Reconstruction 3d scene of virtual viewpoint using foreground projection-image and virtual-shap
KR20200107273A (en) Playing Method of Drone Moving Picture with Augment Reality Additional Information based on LOD

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant