KR20210079029A - Method of recording digital contents and generating 3D images and apparatus using the same - Google Patents

Method of recording digital contents and generating 3D images and apparatus using the same Download PDF

Info

Publication number
KR20210079029A
KR20210079029A KR1020190171081A KR20190171081A KR20210079029A KR 20210079029 A KR20210079029 A KR 20210079029A KR 1020190171081 A KR1020190171081 A KR 1020190171081A KR 20190171081 A KR20190171081 A KR 20190171081A KR 20210079029 A KR20210079029 A KR 20210079029A
Authority
KR
South Korea
Prior art keywords
image
connected devices
information
digital content
master device
Prior art date
Application number
KR1020190171081A
Other languages
Korean (ko)
Other versions
KR102298047B1 (en
Inventor
조인제
이대희
Original Assignee
애드커넥티드 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 애드커넥티드 주식회사 filed Critical 애드커넥티드 주식회사
Priority to KR1020190171081A priority Critical patent/KR102298047B1/en
Publication of KR20210079029A publication Critical patent/KR20210079029A/en
Application granted granted Critical
Publication of KR102298047B1 publication Critical patent/KR102298047B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

The present invention relates to a method of recording digital content and generating a 3D image. The method includes the steps of: transmitting a captured image including the same target object or object of interest from at least one or more plurality of connected devices to one of the plurality of connected devices; receiving camera shooting condition information including at least one of the corrected position of the current device, the position of the target object, the shooting direction, the image size, and the focal length from one of the plurality of connected devices; generating digital content in consideration of the received camera shooting condition information; and transmitting the generated digital content to one of the plurality of connected devices. The corrected position of the current device is determined in consideration of the position of the target object or the object of interest in the captured image. The shooting direction is parallel to a line connecting the position of the target object and the corrected position of the current device. The focal length is determined according to the distance between the position of the target object and the position of the corrected current. The at least one or more of the plurality of connected devices generates the digital content with the image size included in the shooting condition information. By acquiring image data in various shooting directions using multiple connected devices, it is possible to effectively create 360-degree 3D data.

Description

디지털 콘텐츠를 녹화하여 3D 영상을 생성하는 방법 및 장치{Method of recording digital contents and generating 3D images and apparatus using the same}Method of recording digital contents and generating 3D images and apparatus using the same}

본 발명은 디지털 콘텐츠를 녹화하여 3D 영상을 생성하는 방법에 관한 것으로서, 더욱 상세하게는 여러 커넥티드 장치를 이용하여 다양한 촬영 방향의 영상 데이터를 취득함으로써, 효과적으로 360도 3D 데이터를 제작할 수 있는 디지털 콘텐츠를 녹화하여 3D 영상을 생성하는 방법 및 장치에 관한 것이다.The present invention relates to a method of generating a 3D image by recording digital content, and more particularly, digital content capable of effectively producing 360-degree 3D data by acquiring image data in various shooting directions using several connected devices. To a method and apparatus for recording a 3D image.

종래에는 파노라마 사진을 좌우방향과 위아래로 찍어서 동그란 구 모양으로 배치하고, 구의 한 가운데에 있는 카메라 위치에 서서 구의 벽면에 디스플레이되는 화면을 보기 때문에 왜곡이 크게 발생하였다.Conventionally, a large amount of distortion occurred because panoramic photos were taken in the left and right directions and up and down, arranged in a circular sphere shape, and the screen displayed on the wall of the sphere was viewed while standing at the camera position in the middle of the sphere.

또한, 사용자는 카메라 위치에 고정되어 있고, 단지 고개를 돌려서 좌, 우, 위, 아래를 바라볼 수만 있고, 영상 내에서 카메라 촬영위치와 다른 위치로 옮겨서 보기는 어려운 실정이다.In addition, the user is fixed at the camera position, can only look left, right, up, and down by turning his head, and it is difficult to move the camera to a position different from the camera shooting position in the image.

따라서, 여러 위치의 카메라에서 동시 촬영함으로써, 왜곡을 줄이고 여러 촬영 지점에서 본 것과 같은 영상을 제공할 필요가 증대되고 있다.Accordingly, there is an increasing need to reduce distortion and provide an image as viewed from multiple photographing points by simultaneously photographing the camera at several locations.

한편, 360도 이미지를 촬영하여 3D 데이터를 구축하는 경우, 데이터 수집에 많은 비용이 소요된다. 또한 다양한 촬영방향에서 촬영된 비디오를 이용하는 경우, 수집 시간이 오래 걸리고, 타일 이미지의 접합(stitiching)시 중복 영역에 대한 문제가 있으며, 관심 영역에 대한 고해상도 이미지가 필요하게 된다. 따라서 여러 장치를 이용하여 다양한 촬영방향의 영상 데이터를 취득하여, 효과적으로 360도 3D 데이터를 제작하는 방법이 필요한 실정이다.On the other hand, in the case of building 3D data by shooting a 360-degree image, it takes a lot of money to collect data. In addition, when using videos shot in various shooting directions, it takes a long time to collect, there is a problem of overlapping regions when stitching tile images, and a high-resolution image of the region of interest is required. Therefore, there is a need for a method for effectively producing 360-degree 3D data by acquiring image data in various shooting directions using various devices.

선행기술 1(KR 10-2017-0017700A)은 360도 3D 입체 영상을 생성하는 전자 장치에 관한 것으로, 좌안 구형 영상 및 우안 구형 영상을 생성하며, 생성된 좌/우안 구형 영상을 이용하여 뎁스 정보를 획득하고, 획득한 뎁스 정보를 이용하여 입체감이 조절되는 것을 특징으로 한다.Prior art 1 (KR 10-2017-0017700A) relates to an electronic device that generates a 360-degree 3D stereoscopic image, generates a left-eye spherical image and a right-eye spherical image, and uses the generated left/right spherical image to obtain depth information. It is characterized in that the three-dimensional effect is adjusted using the acquired and acquired depth information.

선행기술 2(KR 10-1639275B1)는 유저인터페이스부를 통해 360도 렌더링 처리부에 의해 생성된 3차원 구형 영상을 사용자가 원하는 대로 자유 시점의 영상을 볼 수 있도록 360도 영상을 상, 하, 좌, 우, 줌 기능을 수행할 수 있도록 처리해주는 것을 특징으로 하나 구체적인 구성이 나타나 있지 않다.Prior art 2 (KR 10-1639275B1) is a 3D spherical image generated by a 360-degree rendering processing unit through a user interface unit so that a user can view a free-view image as desired by displaying a 360-degree image up, down, left, and right. , it is characterized by processing to perform the zoom function, but a specific configuration is not shown.

따라서, 본 발명이 해결하고자 하는 첫 번째 과제는 여러 커넥티드 장치를 이용하여 다양한 촬영 방향의 영상 데이터를 취득함으로써, 효과적으로 360도 3D 데이터를 제작할 수 있는 디지털 콘텐츠를 녹화하여 3D 영상을 생성하는 방법을 제공하는 것이다.Therefore, the first problem to be solved by the present invention is a method of generating 3D images by recording digital content that can effectively produce 360-degree 3D data by acquiring image data in various shooting directions using several connected devices. will provide

본 발명이 해결하고자 하는 두 번째 과제는 여러 위치의 카메라에서 동시 촬영함으로써, 왜곡을 줄이고 여러 촬영 지점에서 본 것과 같은 영상을 제공할 수 있는 디지털 콘텐츠를 녹화하여 3D 영상을 생성하는 장치를 제공하는 것이다.A second object to be solved by the present invention is to provide an apparatus for generating a 3D image by recording digital content capable of reducing distortion and providing an image as viewed from multiple shooting points by simultaneously shooting with cameras at multiple locations .

또한, 상기된 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공하는데 있다.Another object of the present invention is to provide a computer-readable recording medium in which a program for executing the above-described method is recorded on a computer.

본 발명은 상기 첫 번째 과제를 달성하기 위하여, 적어도 하나 이상의 복수의 커넥티드 장치에서 동일한 타겟 오브젝트 또는 관심객체를 포함한 캡처 이미지를 복수의 커넥티드 장치 중 하나의 장치로 전송하는 단계; 상기 복수의 커넥티드 장치 중 하나의 장치로부터 현재 장치의 보정된 위치 및 상기 타겟 오브젝트의 위치, 촬영 방향, 영상 크기 또는 초점 길이 정보 중 적어도 하나 이상을 포함하는 카메라 촬영조건 정보를 수신하는 단계; 상기 수신된 카메라 촬영조건 정보를 고려하여 디지털 콘텐츠를 생성하는 단계; 및 상기 생성된 디지털 콘텐츠를 상기 복수의 커넥티드 장치 중 하나의 장치로 전송하는 단계를 포함하고, 상기 현재 장치의 보정된 위치는 상기 캡처 이미지에 있는 타겟 오브젝트 위치 또는 관심객체 위치를 고려하여 결정되고, 상기 촬영 방향은 상기 타겟 오브젝트의 위치와 상기 현재 장치의 보정된 위치를 연결하는 선과 평행하고, 상기 초점 길이는 상기 타겟 오브젝트 위치와 상기 보정된 현재 위치 간의 거리에 따라 결정되고, 상기 적어도 하나 이상의 복수의 커넥티드 장치는 상기 촬영조건 정보에 포함된 영상 크기로 디지털 콘텐츠를 생성하는 방법을 제공한다.In order to achieve the first object, the present invention includes: transmitting a captured image including the same target object or object of interest from at least one or more connected devices to one of the plurality of connected devices; receiving camera shooting condition information including at least one of a corrected position of the current device and a position of the target object, a shooting direction, an image size, and a focal length from one of the plurality of connected devices; generating digital content in consideration of the received camera shooting condition information; and transmitting the generated digital content to one of the plurality of connected devices, wherein the corrected position of the current device is determined in consideration of a target object position or an object of interest position in the captured image; , the photographing direction is parallel to a line connecting the position of the target object and the corrected position of the current device, and the focal length is determined according to a distance between the position of the target object and the corrected current position, and the at least one or more A plurality of connected devices provides a method of generating digital content with an image size included in the shooting condition information.

본 발명의 일 실시 예에 의하면, 상기 캡처 이미지는 상기 타겟 오브젝트를 검출하는 마커를 포함하고, 상기 디지털 콘텐츠의 해상도는 초점 길이에 따라 결정되는 것이 바람직하다.According to an embodiment of the present invention, it is preferable that the captured image includes a marker for detecting the target object, and the resolution of the digital content is determined according to a focal length.

또한, 상기 디지털 콘텐츠는 사용자의 머리 또는 눈 트랙킹 정보를 포함하는 것이 바람직하다.In addition, the digital content preferably includes head or eye tracking information of the user.

본 발명의 다른 실시 예에 의하면, 관심객체의 캡처된 이미지를 이용하여 현재 위치를 결정하는 단계; 복수의 커넥티드 장치들 중 적어도 하나 이상의 커넥티드 장치로 상기 현재 위치 및 상기 하나 이상의 커넥티드 장치의 보정된 위치, 촬영 방향, 영상 크기, 또는 초점 길이 중 적어도 하나 이상을 포함하는 카메라 촬영조건 정보를 전송하는 단계; 상기 복수의 커넥티드 장치들 중 적어도 하나의 이상의 커넥티드 장치로부터 상기 전송된 카메라 촬영조건 정보를 이용하여 동일한 영상 크기로 촬영된 디지털 콘텐츠를 수신하는 단계; 및 상기 보정된 위치는 상기 캡처된 이미지들에 기초하여 결정되고, 상기 촬영방향은 상기 현재 위치와 상기 보정된 위치를 연결하는 연장선과 평행한 것을 특징으로 하는 디지털 콘텐츠 생성 방법을 제공한다.According to another embodiment of the present invention, the method comprising: determining a current location using a captured image of an object of interest; Camera shooting condition information including at least one of the current position and the corrected position, shooting direction, image size, and focal length of the one or more connected devices to at least one connected device among a plurality of connected devices transmitting; receiving digital content captured with the same image size by using the transmitted camera shooting condition information from at least one or more connected devices among the plurality of connected devices; and the corrected position is determined based on the captured images, and the photographing direction is parallel to an extension line connecting the current position and the corrected position.

상기 복수의 커넥티드 장치가 그룹별로 분류되어, 서로 다른 영상 크기를 갖는 디지털 컨텐츠를 수신할 수 있다.The plurality of connected devices may be classified into groups to receive digital content having different image sizes.

상기 캡처된 이미지에서 상기 복수의 커넥티드 장치에 부착된 마커를 검출하고, 상기 커넥티드 장치들 중 적어도 하나의 커넥티드 장치로부터 머리 또는 눈의 트랙킹 정보를 수신할 수 있다.Detect a marker attached to the plurality of connected devices in the captured image, and receive tracking information of the head or eyes from at least one of the connected devices.

본 발명의 또 다른 실시 예에 의하면, 디지털 콘텐츠를 저장하기 위한 이동 경로 및 타겟 오브젝트의 정보를 포함하는 영상 촬영 이벤트 정보를 마스터 장치로 전송하는 단계; 관심 객체의 3D 좌표와 컬러 정보를 포함하는 관심객체 정보를 상기 마스터 장치로 전송하는 단계; 상기 마스터 장치의 현재 위치 및 커넥티드 장치들의 보정된 위치를 계산하고, 상기 계산 결과와 카메라 촬영조건 정보를 상기 마스터 장치로 전송하는 단계; 상기 커넥티드 장치들에서 상기 카메라 촬영조건 정보를 이용하여 촬영한 캡처 영상을 상기 마스터 장치를 통해 수신하는 단계; 상기 수신된 디지털 콘텐츠를 이용하여 3D 영상을 생성하는 단계를 포함하고, 상기 캡처된 이미지들의 촬영 방향은 상기 타겟 오브젝트의 위치와 커넥티드 장치들 중 적어도 하나의 위치를 연결하는 연장선과 평행한 것을 특징으로 하는 커넥티드 장치들 중 서버에서 3D 영상을 생성하는 방법을 제공한다.According to another embodiment of the present invention, the method comprising: transmitting image capturing event information including information of a moving path and target object for storing digital content to a master device; transmitting object of interest information including 3D coordinates and color information of the object of interest to the master device; calculating the current position of the master device and corrected positions of connected devices, and transmitting the calculation result and camera shooting condition information to the master device; receiving, through the master device, a captured image captured by the connected devices using the camera shooting condition information; generating a 3D image by using the received digital content, wherein a photographing direction of the captured images is parallel to an extension line connecting a position of the target object and a position of at least one of connected devices It provides a method for generating 3D images in a server among connected devices.

상기 카메라 촬영조건 정보는 초점 길이, 영상 크기, 상기 커넥티드 장치들의 보정된 위치, 상기 타겟 오브젝트 위치를 포함하고, 상기 초점 길이의 정보로 이미지 해상도를 결정할 수 있다.The camera shooting condition information may include a focal length, an image size, corrected positions of the connected devices, and a position of the target object, and an image resolution may be determined based on the focal length information.

또한, 상기 카메라 촬영조건 정보에 포함된 상기 영상 크기에 따라, 상기 수신한 캡처 영상을 서로 다른 그룹으로 분류한 후, 3D 영상을 생성하는 것이 바람직하다.In addition, it is preferable to generate a 3D image after classifying the received captured images into different groups according to the image size included in the camera shooting condition information.

한편, 상기 카메라 촬영조건 정보에 포함된 영상 크기가 동일한 상기 캡처 영상에 대해서, 오버랩되는 영역에 존재하는 관심 객체의 좌표 정보의 변화가 최소화되도록 캡처 캡처 영상들 사이에 보간평면(fitting plane)을 결정할 수 있다.On the other hand, with respect to the captured image having the same image size included in the camera shooting condition information, a fitting plane is determined between captured captured images so that a change in coordinate information of an object of interest existing in an overlapping area is minimized. can

또한, 상기 캡처된 영상들을 연결하는 가상 카메라 위치를 결정하는 단계를 더 포함할 수 있다.The method may further include determining a location of a virtual camera connecting the captured images.

본 발명은 상기 두 번째 과제를 달성하기 위하여, 적어도 하나 이상의 복수의 커넥티드 장치에서 동일한 타겟 오브젝트 또는 관심객체를 포함한 캡처 이미지를 복수의 커넥티드 장치 중 하나의 장치로 전송하는 송신부; 상기 복수의 커넥티드 장치 중 하나의 장치로부터 현재 장치의 보정된 위치, 상기 타겟 오브젝트의 위치, 촬영 방향, 초점 길이, 또는 영상 크기 중 적어도 하나 이상을 포함하는 카메라 촬영조건 정보를 수신하는 수신부; 및 상기 수신된 카메라 촬영조건 정보를 고려하여 디지털 콘텐츠를 생성하는 촬영부를 포함하고, 상기 송신부는 상기 생성된 디지털 콘텐츠를 상기 복수의 커넥티드 장치 중 하나의 장치로 전송하고, 상기 현재 보정된 위치는 상기 캡처 이미지에 있는 타겟 오브젝트 위치 또는 관심객체 위치를 고려하여 결정되고, 상기 촬영 방향은 상기 타겟 오브젝트의 위치와 상기 현재 보정된 위치를 연결하는 선과 평행하고, 상기 초점 길이는 상기 타겟 오브젝트 위치와 상기 보정된 현재 위치 간의 거리에 따라 결정되는 디지털 콘텐츠를 생성하는 커넥티드 장치를 제공한다. In order to achieve the second object, the present invention includes: a transmitter configured to transmit a captured image including the same target object or object of interest from at least one or more connected devices to one of the plurality of connected devices; a receiver configured to receive camera shooting condition information including at least one of a corrected position of the current device, a position of the target object, a shooting direction, a focal length, and an image size from one of the plurality of connected devices; and a photographing unit generating digital content in consideration of the received camera photographing condition information, wherein the transmitting unit transmits the generated digital content to one of the plurality of connected devices, and the currently corrected position is It is determined in consideration of a target object position or an object of interest position in the captured image, the shooting direction is parallel to a line connecting the position of the target object and the currently corrected position, and the focal length is the target object position and the Provided is a connected device that generates digital content determined according to a distance between corrected current locations.

본 발명의 일 실시 예에 의하면, 관심객체의 캡처된 이미지를 이용하여 현재 위치를 결정하는 계산부; 복수의 커넥티드 장치들 중 적어도 하나 이상의 커넥티드 장치로 상기 현재 위치, 상기 하나 이상의 커넥티드 장치의 보정된 위치, 촬영 방향, 초점 길이 또는 영상 크기 중 적어도 하나 이상을 포함하는 카메라 촬영조건 정보를 전송하는 송신부; 상기 복수의 커넥티드 장치들 중 적어도 하나의 커넥티드 장치로부터 상기 카메라 촬영조건 정보를 이용하여 생성된 디지털 콘텐츠를 수신하는 수신부; 및 상기 현재 위치 결정은 상기 관심객체 정보와 상기 캡처된 이미지 간에 경계선 또는 컬러를 비교하여 이루어지고, 상기 촬영방향은 상기 현재 위치와 상기 하나 이상의 커넥티드 장치의 보정된 위치를 연결하는 연장선과 평행하고, 상기 하나 이상의 커넥티드 장치의 보정된 위치는 상기 캡처된 이미지들에 기초하여 결정되는 것을 특징으로 하는 디지털 콘텐츠를 생성하는 마스터 장치를 제공할 수 있다.According to an embodiment of the present invention, a calculator for determining a current location using a captured image of an object of interest; Transmitting camera shooting condition information including at least one of the current position, the corrected position of the one or more connected devices, a shooting direction, a focal length, or an image size to at least one or more connected devices among a plurality of connected devices a transmitter to; a receiver configured to receive digital content generated by using the camera shooting condition information from at least one connected device among the plurality of connected devices; and the current location is determined by comparing a boundary line or color between the object of interest information and the captured image, and the photographing direction is parallel to an extension line connecting the current location and the corrected location of the one or more connected devices. , wherein the corrected position of the one or more connected devices is determined based on the captured images.

본 발명의 다른 실시 예에 의하면, 디지털 콘텐츠를 저장하기 위한 이동 경로 및 타겟 오브젝트 정보를 포함하는 영상 촬영 이벤트 정보를 생성하는 이벤트 정보 생성부; 상기 영상 촬영 이벤트 정보를 마스터 장치로 전송하고, 관심 객체의 3D 좌표와 컬러 정보를 포함하는 관심객체 정보를 상기 마스터 장치로 전송하고, 상기 마스터 장치의 현재 위치 및 커넥티드 장치들의 보정된 위치를 계산하고, 상기 계산 결과와 카메라 촬영조건 정보를 전송하는 송신부; 상기 커넥티드 장치들에서 카메라 촬영조건 정보를 이용하여 생성된 캡처 이미지들을 상기 마스터 장치를 통해 수신하는 수신부; 및 상기 촬영정보에 포함된 영상 크기 정보를 이용하여, 상기 수신된 디지털 콘텐츠를 디지털 콘텐츠별로 그룹핑하여 3D 영상을 생성하는 3D 영상 생성부를 포함하고, 상기 캡처된 이미지들의 촬영 방향은 상기 타겟 오브젝트의 위치와 상기 커넥티드 장치들 중 적어도 하나의 위치를 연결하는 연장선과 평행한 것을 특징으로 하는 3D 영상을 생성하는 서버를 제공한다.According to another embodiment of the present invention, there is provided an event information generating unit for generating image capturing event information including a moving path and target object information for storing digital content; Transmits the image capturing event information to the master device, transmits object of interest information including 3D coordinates and color information of the object of interest to the master device, and calculates the current position of the master device and corrected positions of connected devices and a transmitter for transmitting the calculation result and camera shooting condition information; a receiver configured to receive captured images generated using camera shooting condition information in the connected devices through the master device; and a 3D image generator configured to generate a 3D image by grouping the received digital content by digital content by using the image size information included in the photographing information, wherein the photographing direction of the captured images is the position of the target object. And it provides a server for generating a 3D image, characterized in that parallel to the extension line connecting the position of at least one of the connected devices.

상기 다른 기술적 과제를 해결하기 위하여, 본 발명은 상기된 디지털 콘텐츠를 녹화하여 3D 영상을 생성하는 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공한다.In order to solve the other technical problem, the present invention provides a computer-readable recording medium in which a program for executing a method of generating a 3D image by recording the digital content described above in a computer is recorded.

본 발명에 따르면, 여러 커넥티드 장치를 이용하여 다양한 촬영 방향의 영상 데이터를 취득함으로써, 효과적으로 360도 3D 데이터를 제작할 수 있다.According to the present invention, it is possible to effectively produce 360-degree 3D data by acquiring image data in various shooting directions using various connected devices.

또한, 본 발명에 따르면, 여러 위치의 카메라에서 동시 촬영함으로써, 왜곡을 줄이고 여러 촬영 지점에서 본 것과 같은 영상을 제공할 수 있다.In addition, according to the present invention, by simultaneously photographing by cameras in several locations, distortion can be reduced and an image as viewed from several photographing points can be provided.

도 1은 본 발명의 일 실시예에 따라 마스터 장치인 차량과 다수의 모바일 슬레이브 장치에서 이미지를 촬영하는 예이다.
도 2는 본 발명의 일 실시예에 따른 디지털 콘텐츠를 녹화하여 3D 영상을 생성하는 장치의 구성도이다.
도 3은 동일한 촬영 시야(FOV)를 유지하면서, 대상물을 촬영하는 경우 초점 거리와 촬영 각도(AOV)의 변화를 나타낸 것이다.
도 4은 커넥티드 장치들 간에 용이한 인식에 사용되는 컬러 마커의 예를 도시한 것이다.
도 5는 본 발명의 다른 실시 예에 따른 디지털 콘텐츠 녹화을 위해 다수의 차량과 다수의 모바일 장치간에 무선 연결된 상태를 도시한 것이다.
도 6은 촬영된 영상을 3D 영상으로 가공하기 위해 다수의 영상을 접합(stitching) 하는 예를 도시한 것이다.
도 7은 본 발명의 바람직한 일 실시 예에 따른 커넥티드 장치들 중 슬레이브 장치에서 디지털 콘텐츠를 녹화하는 방법의 흐름도이다.
도 8은 본 발명의 바람직한 일 실시 예에 따른 커넥티드 장치들 중 마스터 장치에서 3D 영상을 생성하는 방법의 흐름도이다.
도 9는 본 발명의 바람직한 일 실시 예에 따른 커넥티드 장치들 중 서버에서 3D 영상을 생성하는 방법의 흐름도이다.
1 is an example of capturing images in a vehicle as a master device and a plurality of mobile slave devices according to an embodiment of the present invention.
2 is a block diagram of an apparatus for generating a 3D image by recording digital content according to an embodiment of the present invention.
3 illustrates changes in a focal length and a photographing angle (AOV) when an object is photographed while maintaining the same photographing field of view (FOV).
4 shows an example of a color marker used for easy recognition between connected devices.
5 is a diagram illustrating a state in which a plurality of vehicles are wirelessly connected to a plurality of mobile devices for digital content recording according to another embodiment of the present invention.
6 illustrates an example of stitching a plurality of images in order to process a captured image into a 3D image.
7 is a flowchart of a method of recording digital content in a slave device among connected devices according to an exemplary embodiment of the present invention.
8 is a flowchart of a method of generating a 3D image in a master device among connected devices according to an exemplary embodiment of the present invention.
9 is a flowchart of a method of generating a 3D image in a server among connected devices according to an exemplary embodiment of the present invention.

본 발명에 관한 구체적인 내용의 설명에 앞서 이해의 편의를 위해 본 발명이 해결하고자 하는 과제의 해결 방안의 개요 혹은 기술적 사상의 핵심을 우선 제시한다.Prior to the description of the specific content of the present invention, for the convenience of understanding, the outline of the solution to the problem to be solved by the present invention or the core of the technical idea is presented first.

다수의 커넥티드 장치들이 동일 시간에 동일 객체를 서로 다른 초점 거리를 가지는 영상으로 촬영할 수 있다. 이때, 촬영된 영상은 동일한 초점 거리와 동일한 촬영시야(field-of-view, FOV)로 촬영되어야 효과적으로 3D 영상 데이터로 변환될 수 있다. 정확한 초점좌표를 추출하기 위해서, 촬영 영상에 존재하는 관심 객체(point of interest, POI)의 3D 위치정보를 이용함으로써, 중복 영역을 가지는 파노라마 이미지를 합성할 수 있다. A plurality of connected devices may capture the same object as an image having different focal lengths at the same time. In this case, the captured image can be effectively converted into 3D image data only when the captured image is captured with the same focal length and the same field-of-view (FOV). In order to extract accurate focal coordinates, a panoramic image having overlapping regions may be synthesized by using 3D location information of a point of interest (POI) existing in a captured image.

또한 동일한 관심 객체에 대해서 서로 다른 해상도의 영상이 커넥티드 장치들에서 촬영될 수 있다. 가령 동일한 조건의 카메라로 촬영한 경우, 관심 객체와 가까운 곳에서 촬영한 영상은 먼 곳에서 촬영한 영상보다 높은 해상도를 갖게 된다. 그리고 대상물에서 가까울수록 작은 촬영 각도(angle-of-view, AOV)를 갖게 된다. 따라서 동일한 관심 객체에 일관된 촬영 시야와 해상도를 만족하도록, 커넥티드 장치의 촬영조건을 조정해야 한다. Also, images of different resolutions for the same object of interest may be captured by connected devices. For example, in the case of photographing with a camera under the same conditions, an image photographed near the object of interest has a higher resolution than an image photographed farther away. And the closer to the object, the smaller the angle-of-view (AOV) is. Therefore, it is necessary to adjust the imaging conditions of the connected device to satisfy a consistent imaging field of view and resolution for the same object of interest.

커넥티드 장치의 좌표는 획득한 3D 위치 정보나 촬영 이미지를 이용하고, 정밀맵의 도로지도 및 DB상에 저장된 주요 관심 객체 정보의 3D 위치 정보 및 컬러 정보를 이용하여 보다 정확한 위치 계산(localization)이 가능하다. The coordinates of the connected device use the obtained 3D location information or a photographed image, and a more accurate localization is possible using the 3D location information and color information of the main object of interest information stored on the road map of the precision map and the DB. It is possible.

따라서 상기 위치 계산을 통해 얻어진 마스터 장치의 현재 위치정보와 마스터 장치 주변의 슬레이브 장치에서 수신한 실시간 이미지 정보를 이용하여, 주변 슬레이브 장치의 위치를 계산할 수 있고, 그 결과를 주변 슬레이브 장치에 전송할 수 있다. 또한 커넥티드 장치들 사이의 인식은 무선신호 또는 장치상에 존재하는 물리적 마커(physical marker)를 통해 인식할 수 있다. 상기 마커의 인식 여부에 따라서 이미지 촬영 여부 및 복수의 장치들 간의 카메라 촬영조건 정보 송수신 여부를 결정할 수 있다. Therefore, by using the current location information of the master device obtained through the location calculation and real-time image information received from the slave devices around the master device, the location of the surrounding slave device can be calculated, and the result can be transmitted to the surrounding slave device. . In addition, recognition between connected devices can be recognized through a wireless signal or a physical marker existing on the device. Whether to capture an image and whether to transmit/receive camera photographing condition information between a plurality of devices may be determined according to whether the marker is recognized.

상기 카메라 촬영조건 정보는 이미지 정보 획득을 위한 카메라 제어 및 사용자에게 제공되는 정보를 포함한다. 이때 사용자에게 제공되는 정보는 증강현실(augmented-reality, AR), 가상현실(virtual-reality, VR), 및 네비게이션 정보를 포함하며, 장치의 사용자는 상기 정보에 반응하여, 장치를 효과적으로 제어하거나 반응신호를 송신함으로써 추가적인 정보를 요청할 수 있다. The camera shooting condition information includes information provided to a user and a camera control for acquiring image information. In this case, the information provided to the user includes augmented-reality (AR), virtual-reality (VR), and navigation information, and the user of the device effectively controls or reacts to the device in response to the information. Additional information can be requested by sending a signal.

이때 상기 카메라 촬영조건 정보는 주변 모바일 슬레이브 장치가 마스터 장치의 촬영방향(viewpoint)과 동일한 방향으로 촬영될 있도록 하는 모바일 슬레이브 장치의 카메라 촬영방향, 촬영 시야, 영상 크기, 초점 길이 및 이미지 해상도를 포함한다. In this case, the camera shooting condition information includes a camera shooting direction, a shooting field of view, an image size, a focal length, and an image resolution of a mobile slave device that allows the peripheral mobile slave device to be shot in the same direction as the shooting direction (viewpoint) of the master device. .

이때 모바일 슬레이브 장치의 이미지 촬영이 사람의 의하여 이루어지는 경우, 마스터 장치는 촬영자의 머리 또는 눈 움직임 정보를 수신한 후 분석하여, 모바일 슬레이브 장치에 디스플레이 정보를 제공할 수 있다. In this case, when the image of the mobile slave device is captured by a person, the master device may receive and analyze the head or eye movement information of the photographer, and may provide display information to the mobile slave device.

다수의 장치에서 추출된 이미지 영상을 접합하기 위해서는 장치의 위치정보가 필요하다. 장치의 위치정보 계산은 클라우드 서버 또는 클라우드 서버와 연결된 로컬 허브 장치나 가상 머신에서 수행되거나, 로컬 모바일 장치 중에서 가용 리소스가 충분한 장치를 마스터 장치로 선정하여 수행된다. 다수의 장치에서 수집한 영상과 관심객체(landmark 또는 POI)의 3D 좌표, 에지(Edge) 정보, 또는 정밀 도로맵 정보를 이용하여 마스터 장치의 위치값을 계산할 수 있다.In order to join images extracted from multiple devices, location information of the devices is required. The location information calculation of the device is performed on a cloud server or a local hub device or virtual machine connected to the cloud server, or a device with sufficient available resources among local mobile devices is selected as the master device. The position value of the master device may be calculated using images collected from a plurality of devices, 3D coordinates of an object of interest (landmark or POI), edge information, or precision road map information.

또한 마스터 장치는 슬레이브 장치로부터 마스터 장치를 타겟 오브젝트로 촬영한 전방/후방/좌측/우측 영상을 수신하여 다수의 장치들의 위치 정보의 네트워크 위치 정보를 이용하여 슬레이브 장치 위치를 계산할 수 있다. 상기 영상내에 마스터 장치 위치, 슬레이브 장치 위치 및 특정 관심객체의 위치는 동일한 촬영방향에 존재하는 것이 바람직하다.In addition, the master device may receive front/rear/left/right images obtained by photographing the master device as a target object from the slave device, and calculate the slave device location using network location information of location information of a plurality of devices. It is preferable that the master device location, the slave device location, and the location of a specific object of interest exist in the same shooting direction in the image.

또한 다수의 장치에서 촬영된 이미지에서 효과적으로 장치들의 위치를 인식하기 위해서 마스터 장치와 슬레이브 장치는 물리적인 마커 정보를 포함할 수 있다. In addition, the master device and the slave device may include physical marker information in order to effectively recognize the locations of the devices in images taken by a plurality of devices.

다수의 장치에서 촬영된 영상은 마스터 장치를 통해, 서버(허브 디바이스 또는 가상머신)로 전송되고, 또 다른 클라우드 서버에서 3D 영상 데이터를 생성할 수 있다. 이때, 동일한 촬영시야를 갖는 영상 그룹마다 접합 타일 이미지를 생성한 후, 가상 카메라 초점을 기준으로 서로 다른 타일 이미지를 재접합하여 3D 영상 데이터를 제작할 수 있다. Images captured by multiple devices may be transmitted to a server (hub device or virtual machine) through a master device, and 3D image data may be generated in another cloud server. In this case, after generating a spliced tile image for each image group having the same imaging field, 3D image data may be produced by rejoining different tile images based on a virtual camera focus.

이하 첨부된 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있는 바람직한 실시 예를 상세히 설명한다. 그러나 이들 실시 예는 본 발명을 보다 구체적으로 설명하기 위한 것으로, 본 발명의 범위가 이에 의하여 제한되지 않는다는 것은 당업계의 통상의 지식을 가진 자에게 자명할 것이다. Hereinafter, with reference to the accompanying drawings, a preferred embodiment in which a person of ordinary skill in the art to which the present invention pertains can easily practice the present invention will be described in detail. However, these examples are for explaining the present invention in more detail, it will be apparent to those skilled in the art that the scope of the present invention is not limited thereby.

본 발명이 해결하고자 하는 과제의 해결 방안을 명확하게 하기 위한 발명의 구성을 본 발명의 바람직한 실시 예에 근거하여 첨부 도면을 참조하여 상세히 설명하되, 도면의 구성요소들에 참조번호를 부여함에 있어서 동일 구성요소에 대해서는 비록 다른 도면상에 있더라도 동일 참조번호를 부여하였으며 당해 도면에 대한 설명시 필요한 경우 다른 도면의 구성요소를 인용할 수 있음을 미리 밝혀둔다. 아울러 본 발명의 바람직한 실시 예에 대한 동작 원리를 상세하게 설명함에 있어 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명 그리고 그 이외의 제반 사항이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.The configuration of the invention for clarifying the solution of the problem to be solved by the present invention will be described in detail with reference to the accompanying drawings based on a preferred embodiment of the present invention, but the same in assigning reference numbers to the components of the drawings For the components, even if they are on different drawings, the same reference numbers are given, and it is noted in advance that the components of other drawings can be cited when necessary in the description of the drawings. In addition, when it is determined that detailed descriptions of well-known functions or configurations related to the present invention and other matters may unnecessarily obscure the gist of the present invention in explaining the operating principle of the preferred embodiment of the present invention in detail, A detailed description thereof will be omitted.

도 1은 본 발명의 일 실시예에 따라 마스터 장치인 차량과 다수의 모바일 슬레이브 장치에서 이미지를 촬영하는 예이다. 1 is an example of capturing images in a vehicle serving as a master device and a plurality of mobile slave devices according to an embodiment of the present invention.

도 1을 참조하면, 차량과 네트워크로 연결된 다수의 근접한 모바일 장치를 이용하여 동시에 여러 초점을 갖는 이미지를 취득하고, 해당 이미지를 접합(stitching) 함으로써 3D 영상 정보를 생성하는 환경을 도시한 것이다.Referring to FIG. 1 , an environment for generating 3D image information by simultaneously acquiring images having multiple focal points using a plurality of adjacent mobile devices connected to a vehicle and a network and stitching the images is shown.

본 발명의 일 실시예로, 차량에 전/후/좌/우로 배치된 카메라에서 다수의 초점을 갖는 이미지 취득하고, 모바일 장치에서는 전방/후방 카메라를 동시에 작동시켜 이미지를 취득할 수 있다. 또한 모바일 장치는 로봇과 같은 자동화된 기기인 경우, 멀티 카메라를 탑재하여 자동화된 이미지 취득도 가능하다. In one embodiment of the present invention, an image having a plurality of focal points may be acquired from a camera disposed in front/rear/left/right of a vehicle, and an image may be acquired by simultaneously operating the front/rear camera in a mobile device. In addition, if the mobile device is an automated device such as a robot, it is possible to acquire an automated image by mounting a multi-camera.

모바일 장치의 경우, 사용자는 사전에 정의된 마스터 장치인 차량(master vehicle)의 움직임에 맞추어 이미지를 촬영하거나, 마스터 장치에서 사용자 모바일 장치로 보낸 카메라 촬영조건 정보를 이용하여 촬영이 가능하다. 모바일 장치와 마스터 장치 차량이 네트워크로 연결된 후, 마스터 장치 차량에서 모바일 장치를 인식하거나, 반대로 모바일 장치에서 마스터 장치 차량을 인식할 수 있다. In the case of a mobile device, the user can take an image according to the movement of a predefined master device, a master vehicle, or use camera shooting condition information sent from the master device to the user's mobile device. After the mobile device and the master device vehicle are connected to the network, the master device vehicle may recognize the mobile device or, conversely, the mobile device may recognize the master device vehicle.

이때 각 장치 간의 인식은 네트워크 연결, 이미지 인식 방법을 혼합하여 인식할 수 있다. 예를 들어, 네트워크 연결 또는 이미지 정보만으로 연결되거나, 순차적으로 연결을 승인할 수 있다. In this case, the recognition between each device may be recognized by mixing a network connection and an image recognition method. For example, a connection may be made only by network connection or image information, or the connection may be sequentially approved.

다수의 장치에서 영상을 촬영하는 기준은 마스터 장치 차량을 타겟 오브젝트로 하는 촬영방향을 기준으로 주변을 촬영하는 것이 바람직하다. 따라서 타겟 오브젝트인 마스터 장치 차량과 모바일 장치는 서로 시야가 확보되거나, 모바일 장치는 타겟 오브젝트의 위치정보를 실시간으로 반영하여 촬영하는 것이 바람직하다. It is preferable to photograph the surroundings based on the photographing direction in which the master apparatus vehicle is the target object as a criterion for photographing images in a plurality of devices. Therefore, it is preferable that the target object, that is, the master device vehicle and the mobile device secure a view from each other, or that the mobile device reflects the location information of the target object in real time to photograph it.

또한 각 모바일 장치에서는 동일한 촬영 시야를 가지며, 일정 해상도를 만족하는 영상을 취득해야 한다. 이를 위해서 마스터 장치 차량과 모바일 장치 간의 거리정보를 이용하여, 모바일 장치의 초점 거리(focal length) 및 촬영 해상도를 조절하여 수행될 수 있다. In addition, each mobile device needs to acquire an image that has the same photographing field of view and satisfies a predetermined resolution. To this end, using distance information between the master device vehicle and the mobile device, it may be performed by adjusting the focal length and the photographing resolution of the mobile device.

도 1을 참조하면, 마스터 장치인 차량(100)과 주변 모바일 장치(110, 120, 130, 140, 150, 160)가 네트워크로 연결되어 영상 정보를 취득하고 있다.Referring to FIG. 1 , a vehicle 100 , which is a master device, and neighboring mobile devices 110 , 120 , 130 , 140 , 150 and 160 are connected through a network to acquire image information.

마스터 장치 차량(100)의 정면 방향으로 촬영한 영상을 A, 좌측 방향으로 촬영한 영상을 B, 우측 방향으로 촬영한 영상을 C, 후면 방향으로 촬영한 영상을 D라고 표시하기로 한다.The image taken in the front direction of the master device vehicle 100 is denoted by A, the image taken in the left direction is denoted by B, the image shot in the right direction is denoted by C, and the image shot in the rear direction is denoted by D.

상기 A, B, C, D 영상은 마스터 장치 차량에서 촬영된 영상으로, 모바일 장치(110 내지 160)에서 촬영된 영상에 비해 촬영 각도(angle of view, AOV)가 크다. 마스터 장치 차량(100)의 좌측에 위치한 물체를 포함하는 영상 B의 경우, 가까운 거리에서 촬영된 모바일 장치(120) 영상의 해상도가 마스터 장치 차량(100)에서 촬영된 영상 해상도보다 높고 촬영 각도는 작을 수 있다. The A, B, C, and D images are images captured by the master device vehicle, and have a greater angle of view (AOV) than the images captured by the mobile devices 110 to 160 . In the case of image B including an object located on the left side of the master device vehicle 100, the resolution of the image of the mobile device 120 captured at a close distance is higher than the resolution of the image captured by the master device vehicle 100 and the shooting angle is small. can

이 경우, 마스터 장치 차량(100)에서 촬영된 영상을 이용하여 넓은 촬영 각도 영상 제공이 가능하고, 특정 관심객체를 줌인(zoom in) 하는 경우, 도 1의 오른쪽에 도시된 바와 같이 모바일 장치에서 촬영한 영상을 사용하여 동일한 해상도 영상 또는 고해상도 영상을 제공할 수 있다. In this case, a wide shooting angle image can be provided using the image captured by the master device vehicle 100 , and when a specific object of interest is zoomed in, the image is captured by the mobile device as shown on the right side of FIG. 1 . One image may be used to provide the same resolution image or high resolution image.

이때, 다수의 모바일 장치에서 촬영된 영상은, 영상 접합을 위해서 동일한 화면 크기(촬영 시야 및 프레임 크기를 포함) 가지며, 일정 해상도를 만족하는 것이 바람직하다. 그러나 다수의 모바일 장치와 마스터 장치 차량(100)의 거리는 모두 다르므로, 이러한 모바일 장치와 마스터 장치 차량(100) 간의 거리차(distance differences)를 고려하여, 각 모바일 장치의 초점거리(focal-length)와 이미지 해상도를 조절함으로써, 일정 해상도를 만족하는 3D 영상을 제공하는 것이 바람직하다.In this case, it is preferable that images photographed by a plurality of mobile devices have the same screen size (including a photographing field of view and frame size) for image splicing, and satisfy a certain resolution. However, since the distances between the plurality of mobile devices and the master device vehicle 100 are all different, in consideration of the distance differences between these mobile devices and the master device vehicle 100 , the focal-length of each mobile device is It is desirable to provide a 3D image that satisfies a predetermined resolution by adjusting the and image resolution.

상기 거리차 간의 델타값(거리차(i)-거리차(j))을 이용하여 모바일 장치의 초점거리 및 해상도를 일정 범위 내에서 조절할 수 있다. 거리차(i)는 모바일 장치i와 마스터 장치 차량(100)간의 거리를 의미한다.The focal length and resolution of the mobile device may be adjusted within a predetermined range using a delta value (distance difference (i) - distance difference (j)) between the distance differences. The distance difference i means the distance between the mobile device i and the master device vehicle 100 .

또한 거리차가 일정 범위를 벗어나는 경우, 해당 모바일 장치에서 촬영된 영상을 3D 영상접합시 제외하는 것이 바람직하다.In addition, when the distance difference is out of a certain range, it is preferable to exclude the image captured by the mobile device when joining the 3D image.

한편, 초점거리를 조절하는 방법은 아래와 같다.Meanwhile, the method of adjusting the focal length is as follows.

Figure pat00001
Figure pat00001

여기서, I는 이미지 상과 모바일 장치 사이의 이미지 상 거리, O는 물체와 모바일 장치 사이의 물체 거리, f는 초점 거리이다.where I is the on-image distance between the image and the mobile device, O is the object distance between the object and the mobile device, and f is the focal length.

다수의 모바일 장치에서 동일한 촬영 시야와 프레임 크기로 대상물을 촬영하기 위해서는, 물체 거리(O)가 커질수록 초점 거리가 길어져야 하며, 고해상도로 촬영해야 일정 해상도를 유지할 수 있다(고해상도 촬영은 이미지 센서 사이즈가 크다는 것을 의미함). 따라서 모바일 장치와 마스터 장치 차량(100)가 가까울수록, 상대적으로 모바일 장치와 물체 거리(O)는 커지므로, 카메라 초점 거리가 길어져야 하며, 이미지 해상도는 상대적으로 높게 촬영되어야 한다.In order to photograph an object with the same photographing field of view and frame size in multiple mobile devices, the focal length should be increased as the object distance (O) increases, and a certain resolution can be maintained only when photographing at a high resolution (high resolution photographing is an image sensor size) means large). Therefore, as the mobile device and the master device vehicle 100 are closer, the distance O between the mobile device and the object is relatively large, so the focal length of the camera should be increased and the image resolution should be relatively high.

도 2는 본 발명의 일 실시예에 따른 디지털 콘텐츠를 녹화하여 3D 영상을 생성하는 장치의 구성도이다.2 is a block diagram of an apparatus for generating a 3D image by recording digital content according to an embodiment of the present invention.

도 2를 참조하면, 본 실시예에 따른 3D 영상을 생성하는 장치는 마스터 장치(200), 서버(210), 및 슬레이브 장치(220)로 구성된다.Referring to FIG. 2 , the device for generating a 3D image according to the present embodiment includes a master device 200 , a server 210 , and a slave device 220 .

마스터 장치(200)는 계산부(201), 송신부(202), 수신부(203), 및 3D 영상 생성부(204)로 구성된다. The master device 200 includes a calculator 201 , a transmitter 202 , a receiver 203 , and a 3D image generator 204 .

계산부(201)는 관심객체 정보를 상기 관심객체의 캡처된 이미지들과 대비하여 마스터 장치의 현재 위치를 결정한다. 상기 현재 위치 결정은 상기 관심객체 정보와 상기 캡처된 이미지들 간에 경계선 또는 컬러를 비교하여 이루어지는 것이 바람직하다. 또한, 상기 캡처된 이미지에서 상기 슬레이브 장치에 부착된 마커를 검출할 수 있다.The calculator 201 compares the object of interest information with the captured images of the object of interest to determine the current location of the master device. Preferably, the current location is determined by comparing a boundary line or color between the object of interest information and the captured images. In addition, it is possible to detect a marker attached to the slave device in the captured image.

송신부(202)는 상기 복수의 커넥티드 장치들 중 적어도 하나의 슬레이브 장치로 상기 현재 위치, 슬레이브 장치의 보정된 위치, 촬영 방향, 초점 길이, 또는 영상 크기 중 적어도 하나 이상을 포함하는 카메라 촬영조건 정보를 전송한다.The transmitter 202 is at least one slave device among the plurality of connected devices, and the camera shooting condition information including at least one of the current position, the corrected position of the slave device, the shooting direction, the focal length, and the image size. to send

상기 슬레이브 장치의 촬영방향이 상기 현재 위치와 상기 슬레이브 장치의 보정된 위치 사이를 연결하는 촬영방향과 평행하고, 상기 보정된 슬레이브 장치의 위치는 상기 캡처된 이미지들에 기초하여 결정되는 것이 바람직하다.Preferably, the photographing direction of the slave device is parallel to the photographing direction connecting the current position and the corrected position of the slave device, and the corrected position of the slave device is determined based on the captured images.

수신부(203)는 상기 커넥티드 장치들 중 적어도 하나의 슬레이브 장치로부터 상기 전송된 카메라 촬영조건 정보를 이용하여 촬영된 디지털 콘텐츠를 수신한다.The receiving unit 203 receives the digital content photographed using the transmitted camera photographing condition information from at least one slave apparatus among the connected apparatuses.

또한, 수신부(203)는 상기 커넥티드 장치들 중 적어도 하나의 슬레이브 장치로부터 머리 또는 트랙킹 정보를 수신할 수 있다.Also, the receiver 203 may receive head or tracking information from at least one slave device among the connected devices.

3D 영상 생성부(204)는 상기 수신된 디지털 콘텐츠를 이용하여 3D 영상을 생성한다.The 3D image generator 204 generates a 3D image by using the received digital content.

서버(210)는 이벤트 정보 생성부(211), 송신부(212), 수신부(213), 및 3D 영상 생성부(214)로 구성된다. The server 210 includes an event information generator 211 , a transmitter 212 , a receiver 213 , and a 3D image generator 214 .

이벤트 정보 생성부(211)는 디지털 콘텐츠를 저장하기 위한 이동 경로 및 타겟 오브젝트 정보를 포함하는 영상 촬영 이벤트 정보를 생성한다.The event information generator 211 generates image capturing event information including a movement path for storing digital content and target object information.

송신부(212)는 상기 영상 촬영 이벤트 정보를 마스터 장치로 전송하고, 관심객체의 3D 좌표와 컬러 정보를 포함하는 관심객체 정보를 상기 마스터 장치로 전송한다.The transmitter 212 transmits the image capturing event information to the master device, and transmits object of interest information including 3D coordinates and color information of the object of interest to the master device.

송신부(212)는 마스터 장치의 현재 위치 및 상기 커넥티드 장치들의 보정된 위치를 계산한 결과와 카메라 촬영조건 정보를 마스터 장치로 전송할 수 있다.The transmitter 212 may transmit a result of calculating the current position of the master device and the corrected positions of the connected devices and camera shooting condition information to the master device.

상기 카메라 촬영조건 정보는 상기 커넥티드 장치들 중 적어도 하나의 슬레이브 장치로 상기 현재 위치, 슬레이브 장치의 보정된 위치, 촬영 방향, 초점 길이, 또는 영상크기 중 적어도 하나 이상을 포함할 수 있다.The camera photographing condition information may include at least one of a current position of at least one slave device among the connected devices, a corrected position of the slave device, a shooting direction, a focal length, and an image size.

상기 초점 길이의 촬영방향은 상기 보정된 위치와 상기 타겟 오브젝트 위치 사이를 연결하는 촬영방향과 평행한 것이 바람직하다.Preferably, the photographing direction of the focal length is parallel to the photographing direction connecting the corrected position and the target object position.

또한, 상기 캡처된 이미지들의 촬영 방향은 상기 타겟 오브젝트의 위치와 커넥티드 장치들 중 적어도 하나의 위치 사이를 연결하는 촬영 방향과 평행한 것이 바람직하다.Preferably, the shooting direction of the captured images is parallel to the shooting direction connecting the position of the target object and the position of at least one of the connected devices.

수신부(213)는 상기 마스터 장치에 의해 전달되는 커넥티드 장치들의 캡처 이미지들을 수신하고, 상기 커넥티드 장치에서 상기 카메라 촬영조건 정보를 이용하여 촬영한 영상을 수신한다.The receiving unit 213 receives the captured images of the connected devices transmitted by the master device, and receives an image captured by the connected device using the camera shooting condition information.

3D 영상 생성부(214)는 상기 수신된 디지털 콘텐츠를 이용하여 3D 영상을 생성한다. 실시간 3D 영상을 생성하는 경우, 복수의 커넥티드 장치들로부터 수신한 디지털 컨텐츠와 관심객체의 3D 정보를 이용하여, 마스터 장치(200)에서 실시간 3D 영상생성도 가능하다.The 3D image generator 214 generates a 3D image by using the received digital content. When generating a real-time 3D image, the master device 200 may also generate a real-time 3D image using digital content received from a plurality of connected devices and 3D information of the object of interest.

오버랩되는 영역을 갖는 캡처 이미지들 사이에 보간평면(fitting plane)을 결정하고, 상기 관심객체 정보에 기초하여 같은 프레임 크기를 갖도록 하여 3D 영상을 생성하는 것이 바람직하다.Preferably, a 3D image is generated by determining an interpolation plane between captured images having overlapping regions, and having the same frame size based on the object of interest information.

슬레이브 장치(220)는 수신부(221), 촬영부(222), 인터페이스부(223), 디스플레이부(224), 송신부(225)를 포함하여 구성된다.The slave device 220 includes a receiving unit 221 , a photographing unit 222 , an interface unit 223 , a display unit 224 , and a transmitting unit 225 .

수신부(221)는 상기 마스터 장치로부터 슬레이브 장치의 현재 보정된 위치, 상기 타겟 오브젝트의 위치, 촬영 방향, 초점 길이, 또는 영상크기 중 적어도 하나 이상을 포함하는 카메라 촬영조건 정보를 수신한다.The receiver 221 receives camera shooting condition information including at least one of a current corrected position of a slave device, a position of the target object, a shooting direction, a focal length, and an image size from the master device.

상기 현재 보정된 위치는 상기 캡처 이미지에 있는 타겟 오브젝트 위치 또는 관심객체 위치를 고려하여 결정된다. The current corrected position is determined in consideration of the target object position or the object of interest position in the captured image.

상기 촬영 방향은 상기 타겟 오브젝트의 위치와 상기 현재 보정된 위치를 연결하는 선과 평행하고, 상기 초점 길이는 상기 타겟 오브젝트 위치와 상기 보정된 현재 위치 간의 거리에 따라 결정되는 것이 바람직하다. 상기 디지털 콘텐츠의 해상도는 초점 길이에 따라 결정될 수 있다.Preferably, the photographing direction is parallel to a line connecting the position of the target object and the currently corrected position, and the focal length is determined according to a distance between the position of the target object and the corrected current position. The resolution of the digital content may be determined according to a focal length.

촬영부(222)는 상기 수신된 카메라 촬영조건 정보를 고려하여 디지털 콘텐츠를 생성한다. The photographing unit 222 generates digital content in consideration of the received camera photographing condition information.

사용자의 머리 또는 눈 트랙킹 정보에 따른 인터페이스 콘텐츠를 디스플레이하고, 상기 디스플레이된 인터페이스 콘텐츠에 따라 상기 디지털 콘텐츠를 녹화하는 것이 바람직하다.It is preferable to display interface content according to the user's head or eye tracking information, and record the digital content according to the displayed interface content.

인터페이스부(223)는 사용자의 반응 및 피드백 정보를 수집한다.The interface unit 223 collects user reaction and feedback information.

디스플레이부(224)는 증강현실(AR)/가상현실(VR)/3D 아바타/네비게이션 정보 정보 등의 디스플레이 정보를 출력한다.The display unit 224 outputs display information such as augmented reality (AR)/virtual reality (VR)/3D avatar/navigation information information.

송신부(225)는 타겟 오브젝트 또는 관심객체를 포함한 캡처 이미지를 마스터 장치로 전송한다. 또한, 송신부(225)는 상기 생성된 디지털 콘텐츠를 상기 마스터 장치로 전송한다.The transmitter 225 transmits the captured image including the target object or the object of interest to the master device. In addition, the transmitter 225 transmits the generated digital content to the master device.

상기 캡처 이미지는 상기 타겟 오브젝트를 검출하는 마커를 포함할 수 있다.The captured image may include a marker for detecting the target object.

도 3은 동일한 촬영 시야(FOV)를 유지하면서, 대상물을 촬영하는 경우 초점 거리와 촬영 각도(AOV)의 변화를 나타낸 것이다.3 illustrates changes in a focal length and a photographing angle (AOV) when an object is photographed while maintaining the same photographing field of view (FOV).

이미지의 해상도는 이미지 센서의 센서 폭(sensor-width)에 의해 결정되며, 이미지의 촬영 각도(anagle of view)는 수학식 2와 같이 계산된다.The resolution of the image is determined by the sensor-width of the image sensor, and the angle of view of the image is calculated as in Equation (2).

Figure pat00002
Figure pat00002

도 3를 참조하면, 동일한 촬영 시야를 유지하면서, 먼거리에 있는 대상물을 촬영하는 경우에는 초점 거리는 길어져야 하고, 보다 높은 해상도의 이미지로 촬영되어야 한다. 도 3에서는 27mm 초점 거리로 촬영된 이미지이며, 센서 폭이 큰 것을 확인할 수 있다.Referring to FIG. 3 , in the case of photographing a distant object while maintaining the same photographing field of view, the focal length must be increased and the image must be photographed with a higher resolution. In FIG. 3 , it is an image taken at a focal length of 27 mm, and it can be seen that the sensor width is large.

예를 들면, 마스터 장치 차량(100)과 모바일 장치 사이의 거리가 가까운 경우, 상대적으로 모바일 장치와 촬영 대상물과 거리가 멀어지므로, 동일한 촬영 시야를 유지하기 위해서 초점 거리는 길게, 해상도는 높게 촬영한다. 반대로 모바일 장치와 촬영대상물과의 거리가 가까운 경우, 상대적으로 초점 거리는 짧게, 해상도도 낮게 적용하여 촬영한다. For example, when the distance between the master device vehicle 100 and the mobile device is short, the distance between the mobile device and the object to be photographed is relatively long, and thus the focal length is long and the resolution is high in order to maintain the same photographing field of view. Conversely, when the distance between the mobile device and the object to be photographed is short, the focal length is relatively short and the resolution is low.

도 4은 커넥티드 장치들 간에 용이한 인식에 사용되는 컬러 마커의 예를 도시한 것이다.4 shows an example of a color marker used for easy recognition between connected devices.

다수의 영상을 접합하는 경우, 동일한 촬영조건으로 영상의 밝기값을 조절하기 위한 화이트 밸런스 과정이 필요하다. 화이트 밸런스는 광원에 밝기에 따른 색상 조절 및 광원의 온도에 따른 색상 조절로 나누어서 진행하는 것이 바람직하다.In the case of splicing multiple images, a white balance process is required to adjust the brightness values of the images under the same shooting conditions. It is preferable to divide the white balance into color control according to the brightness of the light source and color control according to the temperature of the light source.

화이트 밸런스 수행을 위해, 추출하는 주요 색상으로는 레드/그린/블루/옐로우/마젠타/시안/그레이 컬러 등이 있다. 따라서 화이트 밸런스에 사용되는 주요색으로 구성된 컬러 매트릭스를 구성하고, 해당 컬러 매트릭스를 커넥티드 장치에 부착하는 경우, 용이하게 커넥티드 장치들을 인식하여 위치 계산이 가능하고, 인식된 방향으로 촬영방향을 결정할 수 있다. In order to perform white balance, main colors to be extracted include red/green/blue/yellow/magenta/cyan/gray color. Therefore, if a color matrix composed of the primary colors used for white balance is configured and the corresponding color matrix is attached to a connected device, it is possible to easily recognize the connected devices and calculate the location, and determine the shooting direction in the recognized direction. have.

또한 영상에서 인식된 컬러 마커값을 이용하여 화이트 밸런스 수행도 가능하다. 화이트 밸런스 수행 원리는 컬러 마커에 존재하는 주요 색상의 실제 R/G/B 값과 촬영 영상 마커의 주요색상의 R/G/B 값을 비교하여 조정하는 것이다. Also, it is possible to perform white balance using the color marker values recognized in the image. The principle of white balance is to compare and adjust the actual R/G/B values of the primary colors present in the color marker with the R/G/B values of the primary colors in the photographed image markers.

도 4(a)와 도 4(b)를 참조하면, 컬러 마커의 참조 컬러로서 기본컬러 R1, R2, 및 R3가 표시되어 있고, 코드 컬러로서 C1 내지 C6이 도시되어 있다.Referring to Figs. 4(a) and 4(b), primary colors R1, R2, and R3 are indicated as reference colors of color markers, and C1 to C6 are shown as code colors.

다수의 장치가 동일한 컬러 마커를 사용하므로, 컬러 마커를 장치의 고유한 하드웨어 ID 로 사용될 수 없다. 따라서 장치의 하드웨어 고유 ID 및 하드웨어의 카메라 스펙 등을 고려하여, 컬러 마커의 컬러 코드값을 재구성하는 것이 바람직하다. Because multiple devices use the same color marker, a color marker cannot be used as a device's unique hardware ID. Therefore, it is desirable to reconstruct the color code value of the color marker in consideration of the hardware unique ID of the device and the camera specification of the hardware.

도 4(c)와 같이 컬러 마커의 매트릭스 차원(4*4)과 동일하게 여러 합성 행렬층을 구성하고, 장치의 하드웨어 고유 ID 및 하드웨어 스펙, 기타 정보를 고려, 각각의 합성 행렬층 정보를 구성하고, 도 4(a)에서 사용한 컬러 매트릭스값과 행렬곱 또는 행렬의 합을 계산하여, 고유한 가상의 컬러 마커값을 생성할 수 있다. As shown in Fig. 4(c), multiple synthesis matrix layers are configured in the same way as the matrix dimension (4*4) of the color marker, and each composite matrix layer information is configured in consideration of the device's unique hardware ID, hardware specification, and other information. Then, a unique virtual color marker value can be generated by calculating the matrix product or the matrix sum of the color matrix value used in FIG. 4( a ).

따라서 장치의 카메라에서 주변 기기를 인식하는 경우, 하드웨어의 고유 ID 로 인식하거나, 가상의 컬러 마커값으로 인식할 수 있다. 예를 들어, 컬러 마커를 인식하면, 장치들은 위치 계산을 위한 정보를 송수신하게 된다. 이때, 수신되는 하드웨어 고유 ID 값을 이용하여, 가상의 컬러 마커값을 추출하므로, 타겟 오브젝트 또는 마스터 장치 차량(100)을 가상 컬러 마커를 이용하여 인식 가능하다.Therefore, when the camera of the device recognizes the peripheral device, it can be recognized as a unique ID of the hardware or can be recognized as a virtual color marker value. For example, upon recognizing a color marker, devices transmit and receive information for position calculation. In this case, since the virtual color marker value is extracted using the received hardware unique ID value, the target object or the master device vehicle 100 can be recognized using the virtual color marker.

도 5는 본 발명의 다른 실시 예에 따른 디지털 콘텐츠 녹화을 위해 다수의 차량과 다수의 모바일 장치간에 무선 연결된 상태를 도시한 것이다.5 is a diagram illustrating a state of wireless connection between a plurality of vehicles and a plurality of mobile devices for digital content recording according to another embodiment of the present invention.

가상 머신 또는 허브 장치(520)는 여러 가상 머신 중에서 특정 이벤트 수행을 위해서 연결된 서버인 것이 바람직하다. 가상 머신 또는 허브 장치(520)는 3D 디지털 콘텐츠를 저장하기 위한 영상 촬영 이벤트 정보, 정밀맵 및 관심객체와 관련된 3D 위치 정보(3d points) 및 컬러 정보를 포함하는 관심객체 정보를 저장하고 관리한다. The virtual machine or hub device 520 is preferably a server connected to perform a specific event among various virtual machines. The virtual machine or hub device 520 stores and manages object of interest information including image capturing event information for storing 3D digital content, a precision map, and 3D location information (3d points) and color information related to the object of interest.

또한 영상 촬영 이벤트 정보는 차량 마스터 장치(510)에 송신된다. 또한 모바일 마스터 장치(530, 540)에 동시에 송신되도록 설정 가능하다. 효과적인 네트워크 데이터 전송을 위해, 차량 마스터 장치(510)와 가상머신(520), 차량 마스터 장치(510)와 모바일 마스터 장치(530), 그리고 차량 마스터 장치(510)와 모바일 마스터 장치(540) 사이에 통신이 이루어진다. Also, the image capturing event information is transmitted to the vehicle master device 510 . It can also be set to be simultaneously transmitted to the mobile master device (530, 540). For effective network data transmission, between the vehicle master device 510 and the virtual machine 520 , the vehicle master device 510 and the mobile master device 530 , and the vehicle master device 510 and the mobile master device 540 . communication takes place.

또한, 차량 마스터 장치(510)는 주변 슬레이브 차량 장치(512, 512, 513, 514, 515)에 필요한 정보를 송신하거나 수집된 정보를 가상머신(520)에 전달한다. 모바일 마스터 장치(530, 540)는 주변 모바일 슬레이브 장치(531, 532, 541, 542)가 필요한 정보를 송신하거나, 수신된 정보를 차량 마스터 장치(510)에 전달한다. In addition, the vehicle master device 510 transmits necessary information to the neighboring slave vehicle devices 512 , 512 , 513 , 514 , and 515 or transfers the collected information to the virtual machine 520 . The mobile master devices 530 and 540 transmit necessary information to the neighboring mobile slave devices 531 , 532 , 541 , and 542 , or transfer the received information to the vehicle master device 510 .

이때, 모든 차량 및 모바일 장치에 장착된 카메라 이용하여 동시에 영상을 녹화하고, 녹화된 영상을 가상머신(520)으로 전달하여 3D 영상 데이터를 효과적으로 생성할 수 있다. 이 때 모든 모바일 장치에 장착된 카메라의 촬영방향은 차량 마스터 장치(510)에 장착된 카메라와 같은 촬영방향이 생성되는 것이 바람직하다. 또한 서로 동일한 촬영 시야 및 일정 해상도를 만족하는 이미지를 추출하기 위해 주변 슬레이브 차량 장치(511, 512, 513, 514, 515)는 차량 마스터 장치(510)와의 거리차를 반영하여, 주변 대상물을 촬영하기 위한 초점거리를 조절하고, 이에 따른 해상도를 조절하여 이미지를 생성한다. In this case, images are simultaneously recorded using cameras mounted on all vehicles and mobile devices, and the recorded images are transmitted to the virtual machine 520 to effectively generate 3D image data. At this time, it is preferable that the photographing direction of the cameras mounted on all mobile devices is the same as the photographing direction of the camera mounted on the vehicle master device 510 . In addition, in order to extract images that satisfy the same shooting field of view and a certain resolution, the neighboring slave vehicle devices 511 , 512 , 513 , 514 , and 515 reflect the distance difference with the vehicle master device 510 to photograph the surrounding object. An image is generated by adjusting the focal length for the image and adjusting the resolution accordingly.

모바일 마스터 장치(530, 540) 및 주변 모바일 슬레이브 장치(531, 532, 541, 542)도 차량 마스터 장치(510)와의 거리를 반영하여 모바일 장치에서 취득한 이미지가 동일한 촬영 시야와 일정 해상도를 만족할 수 있도록 초점거리를 조절하고, 이에 따른 이미지 해상도를 조절하는 것이 바람직하다.The mobile master device (530, 540) and the surrounding mobile slave devices (531, 532, 541, 542) also reflect the distance from the vehicle master device (510) so that the image acquired from the mobile device can satisfy the same shooting field of view and a certain resolution It is preferable to adjust the focal length and adjust the image resolution accordingly.

이러한 초점거리의 조정은 차량 마스터 장치(510)로 전달된 주변 슬레이브 차량 장치(511, 512, 513, 514, 515)에서 촬영된 영상 및 위치 정보를 통해 계산할 수 있다. 주변 슬레이브 차량 장치(511, 512, 513, 514, 515)가 차량 마스터 장치(510)로 전송한 이미지에 관심객체가 포함되면, 주변 슬레이브 차량 장치(511, 512, 513, 514, 515)와 차량 마스터 장치(510)는 동일한 촬영방향에 존재한다고 판단할 수 있다. 또한, 차량 마스터 장치(510)와 주변 슬레이브 차량 장치(511, 512, 513, 514, 515) 및 관심객체는 네트워크 상의 위치 정보가 계산될 수 잇다.The adjustment of the focal length may be calculated through images and location information captured by the neighboring slave vehicle devices 511 , 512 , 513 , 514 , and 515 transmitted to the vehicle master device 510 . When the object of interest is included in the image transmitted by the neighboring slave vehicle devices 511 , 512 , 513 , 514 , and 515 to the vehicle master device 510 , the neighboring slave vehicle devices 511 , 512 , 513 , 514 , 515 and the vehicle The master device 510 may determine to exist in the same photographing direction. Also, location information on the vehicle master device 510, the neighboring slave vehicle devices 511, 512, 513, 514, 515, and the object of interest on a network may be calculated.

이때, 차량 마스터 장치(510)는 자신의 위치 정보 및 DB에 저장된 도로 정밀 도로맵과 관심객체에 대한 3D 위치 정보와 이미지 컬러 정보를 이용함으로써, 정확한 주변 슬레이브 차량 장치(511, 512, 513, 514, 515)의 위치 계산이 가능하다. 따라서, 차량 마스터 장치(510)는 주변 슬레이브 차량 장치(511, 512, 513, 514, 515)의 영상 촬영을 위한 카메라 촬영조건 정보에 초점거리, 이미지 해상도, 차량 마스터 장치(510) 위치, 및 주변 슬레이브 차량 장치(511, 512, 513, 514, 515) 위치 정보 등을 포함하여 제공할 수 있다. At this time, the vehicle master device 510 uses its own location information and the precise road map stored in the DB, 3D location information and image color information for the object of interest, so that the accurate surrounding slave vehicle devices 511 , 512 , 513 , 514 are used. , 515) can be calculated. Accordingly, the vehicle master device 510 includes the focal length, image resolution, location of the vehicle master device 510, and the vicinity of the camera shooting condition information for image capturing of the neighboring slave vehicle devices 511, 512, 513, 514, and 515. The slave vehicle device 511 , 512 , 513 , 514 , 515 may include and provide location information.

본 발명의 다른 실시예로서, 다수의 차량 마스터 장치가 존재하는 경우를 살펴보기로 한다.As another embodiment of the present invention, a case in which a plurality of vehicle master devices exist will be described.

도 5에서는 하나의 차량 마스터 장치(510)를 가정하였지만, 차량 마스터 장치가 여러 개 있는 경우를 가정하면, 각 차량 마스터 장치를 기준으로 여러 서브 차량 그룹을 설정하고, 각 서브 차량 그룹마다 서브 차량 그룹 마스터 장치를 설정할 수 있다. In FIG. 5 , one vehicle master device 510 is assumed, but if it is assumed that there are multiple vehicle master devices, several sub vehicle groups are set based on each vehicle master device, and each sub vehicle group is a sub vehicle group. You can set the master device.

모바일 장치 그룹도 서브 모바일 그룹의 수만큼 모바일 장치들을 그룹핑할 수 있다. 이 때, 각 서브 모바일 그룹의 서브 모바일 그룹 마스터 장치를 선정하여, 그룹의 데이터를 효과적으로 송수신을 제어할 수 있다. The mobile device group may also group mobile devices as many as the number of sub mobile groups. In this case, by selecting a sub mobile group master device of each sub mobile group, it is possible to effectively control transmission and reception of group data.

각 서브 모바일 그룹들(서브 모바일 그룹 및 서브 차량 그룹 포함)은 서브 차량 그룹 마스터 장치 또는 서브 모바일 그룹 마스터 장치의 촬영방향을 기준으로 이미지가 촬영될 수 있도록, 카메라 촬영조건 정보를 서브 차량 그룹 마스터 장치 또는 서브 모바일 그룹 마스터 장치로부터 수신하는 것이 바람직하다.Each sub mobile group (including the sub mobile group and the sub vehicle group) transmits camera shooting condition information to the sub vehicle group master device so that an image can be taken based on the shooting direction of the sub vehicle group master device or the sub mobile group master device Or it is preferable to receive from the sub mobile group master device.

본 발명에 따른 또 다른 실시예로서, 가상머신 또는 허브 디바이스(520)가 카메라 촬영조건 정보를 각 각 서브 모바일 그룹들과 송수신할 수 있다.As another embodiment according to the present invention, the virtual machine or the hub device 520 may transmit and receive camera shooting condition information to and from each sub mobile group.

도 5에서는 차량/모바일 그룹은 차량 마스터 장치(510)/모바일 마스터 장치(530, 540)를 통해 카메라 촬영조건 정보를 송수신한다. 그러나 차량 마스터 장치(510) 선정없이, 모든 장치에 필요한 카메라 촬영조건 정보의 송수신을 가상머신 또는 허브 디바이스(520)를 통해서도 가능하다. In FIG. 5 , the vehicle/mobile group transmits/receives camera shooting condition information through the vehicle master device 510/mobile master device 530 and 540 . However, without selecting the vehicle master device 510 , transmission and reception of camera shooting condition information required for all devices is possible through the virtual machine or the hub device 520 .

이러한 경우, 가상머신 또는 허브 디바이스(520)가 네트워크에 연결된 기기들의 위치 계산과 장치들의 이미지 촬영을 위한 카메라 촬영조건 정보를 제공하게 된다. In this case, the virtual machine or hub device 520 provides camera shooting condition information for calculating the location of devices connected to the network and capturing images of the devices.

또한 3D 영상을 제작하기 위해서는, 타겟 오브젝트 또는 타겟 장치의 촬영방향을 기준으로 촬영되어야 한다. 따라서 가상머신 또는 허브 디바이스(520)는 타겟 오브젝트 또는 타겟 장치를 기준으로 차량 또는 모바일 장치를 그룹핑하고, 그룹별 타겟 오브젝트 위치 또는 타겟 장치 위치와 마커 정보를 이용하여 타겟 오브젝트 또는 타겟 장치의 촬영방향을 반영한 영상을 가상머신 또는 허브 디바이스(520)에 제공한다. 가상머신 또는 허브 디바이스(520)는 수신된 영상과 관심객체 정보를 이용하여 차량 또는 모바일 장치들의 위치를 계산할 수 있다. In addition, in order to produce a 3D image, the image must be captured based on the shooting direction of the target object or the target device. Therefore, the virtual machine or hub device 520 groups the vehicle or mobile device based on the target object or target device, and determines the shooting direction of the target object or target device using the target object location or target device location and marker information for each group. The reflected image is provided to the virtual machine or the hub device 520 . The virtual machine or hub device 520 may calculate locations of vehicles or mobile devices using the received image and object of interest information.

따라서 가상머신 또는 허브 디바이스(520)는 동일 그룹에 포함된 차량 또는 모바일 장치들과 타겟 오브젝트 또는 타겟 장치의 거리를 반영하여, 차량 또는 모바일 장치들의 영상 촬영을 위한 초점거리 및 해상도를 정보를 포함한 카메라 촬영조건 정보를 제공할 수 있다.Therefore, the virtual machine or hub device 520 reflects the distance between the target object or the target device and the vehicle or mobile devices included in the same group, and includes information on the focal length and resolution for capturing images of the vehicle or mobile devices. Information on shooting conditions can be provided.

도 6은 촬영된 영상을 3D 영상으로 가공하기 위해 다수의 영상을 접합(stitching) 하는 예를 도시한 것이다. 6 illustrates an example of stitching a plurality of images in order to process a captured image into a 3D image.

도 6을 참조하면, 각각의 촬영된 이미지에서 촬영 시야가 동일한 이미지들을 그룹으로 분류한다. 분류된 그룹별로 초점 좌표과 촬영방향을 이용하여 중복영역을 갖는 이미지들을 파노라마 이미지 형태로 배치한다. 이렇게 배치된 이미지를 접합하여 타일 이미지로 생성한다. Referring to FIG. 6 , images having the same photographing field of view in each photographed image are classified into groups. Images having overlapping areas are arranged in the form of a panoramic image by using focus coordinates and shooting directions for each classified group. The images arranged in this way are joined to create a tile image.

또한 타일 이미지들을 접합하기 위해 가상 카메라 초점을 이용하여 다수의 타일 이미지들을 재접합할 수 있다. 이 때 사용되는 가상 카메라 초점은 차량 마스터 장치(410), 타겟 디바이스, 또는 타겟 오브젝트의 이동 경로(travel path)이거나, 서브 차량 그룹 마스터 장치, 서브 모바일 그룹 마스터 장치, 서브 타겟 디바이스, 또는 서브 타겟 오브젝트의 이동 경로일 수 있다.It is also possible to rejoin multiple tile images by using the virtual camera focus to join the tile images. The virtual camera focus used at this time is a travel path of the vehicle master device 410, the target device, or the target object, or the sub vehicle group master device, the sub mobile group master device, the sub target device, or the sub target object. may be a movement path of

중복영역을 갖는 중복영상은 동일한 관심객체에 대해서 동일한 3D 좌표를 이용하여 접합한다. 그러나 다수의 초점을 기준으로 촬영된 이미지들 사이에는 시차(parallex)가 발생하므로, 스테레오 이미지에서 동일한 관심객체가 동일 이미지 평면상에 존재하지 않는다. 따라서 인접 영상간의 중복 영상 영역에 존재하는 3D 좌표를 이용하여, 스테레오 이미지 사이의 보간 평면(fitting plane)을 형성해야 한다. 이때, 보간 평면은 사용된 3D 좌표값의 조정값이 최소화된 경우의 평면으로 선정하는 것이 바람직하다.Overlapping images with overlapping regions are spliced using the same 3D coordinates for the same object of interest. However, since a parallax occurs between images taken based on a plurality of focal points, the same object of interest does not exist on the same image plane in a stereo image. Therefore, it is necessary to form a fitting plane between stereo images by using 3D coordinates existing in the overlapping image region between adjacent images. In this case, it is preferable to select the interpolation plane as a plane in which the adjustment value of the used 3D coordinate value is minimized.

도 7은 본 발명의 바람직한 일 실시 예에 따른 커넥티드 장치들 중 슬레이브 장치에서 디지털 콘텐츠를 녹화하는 방법의 흐름도이다.7 is a flowchart of a method of recording digital content in a slave device among connected devices according to an exemplary embodiment of the present invention.

도 7을 참조하면, 본 실시 예에 따른 디지털 콘텐츠를 녹화하는 방법은 도 2에 도시된 디지털 콘텐츠를 녹화하는 슬레이브 장치에서 시계열적으로 처리되는 단계들로 구성된다. 따라서, 이하 생략된 내용이라 하더라도 도 2에 도시된 디지털 콘텐츠를 녹화하는 슬레이브 장치에 관하여 이상에서 기술된 내용은 본 실시 예에 따른 디지털 콘텐츠를 녹화하는 방법에도 적용된다. Referring to FIG. 7 , the method for recording digital content according to the present embodiment includes steps that are time-series processed by the slave device for recording digital content shown in FIG. 2 . Therefore, even if omitted below, the descriptions of the slave device for recording digital content shown in FIG. 2 are also applied to the method for recording digital content according to the present embodiment.

도 7은 커넥티드 장치들 중 슬레이브 장치에서 마스터 장치 또는 타겟 오브젝트의 촬영방향을 기준으로 영상 정보를 생성하는 과정을 나타낸 것이다.7 is a diagram illustrating a process of generating image information based on a photographing direction of a master device or a target object in a slave device among connected devices.

710 단계에서 디지털 콘텐츠를 녹화하는 슬레이브 장치는 영상 촬영 이벤트 정보를 마스터 장치(200)부터 수신한다. 상기 영상 촬영 이벤트는 허브 디바이스와 같은 서버로부터 수신될 수 있다.In step 710 , the slave device for recording digital content receives image capturing event information from the master device 200 . The image capturing event may be received from a server such as a hub device.

효율적인 네트워크 통신을 위해서 마스터 장치(200) 중심으로 통신이 제어되며, 주변 커넥티드 장치들을 서브 그룹으로 나눈 후, 각 서브 그룹의 서브 마스터 장치를 선정하여, 주변 모바일 장치들과의 통신을 제어할 수 있다.For efficient network communication, communication is controlled centered on the master device 200, and after dividing the peripheral connected devices into sub-groups, the sub-master device of each sub-group is selected to control communication with the surrounding mobile devices. have.

720 단계에서 디지털 콘텐츠를 녹화하는 슬레이브 장치는 물리적 마커를 확인하여 마스터 장치를 탐지한다. 슬레이브 장치와 마스터 장치간에 시야가 확보되어야 3D 이미지 제작이 가능하므로, 장치 사이에 효과적으로 이미지를 인식하기 위해서, 장치 상에 존재하는 마커 정보를 인식한 후, 이미지 생성을 진행할 수 있도록 하는 것이 바람직하다.In step 720, the slave device for recording digital content detects the master device by checking the physical marker. Since a 3D image production is possible only when a field of view is secured between the slave device and the master device, in order to effectively recognize an image between the devices, it is preferable to recognize the marker information present on the device and then proceed with image creation.

730 단계에서 디지털 콘텐츠를 녹화하는 슬레이브 장치는 마스터 장치의 위치정보를 반영하여 촬영한 전방/후방/측면 영상을 마스터 장치로 송신한다.In step 730, the slave device for recording digital content transmits the front/rear/side images taken by reflecting the location information of the master device to the master device.

740 단계에서 마스터 장치는 상기 슬레이브 장치가 촬영한 전방/후방/측면 영상을 이용하여 마스터 장치 위치, DB 저장된 관심객체 정보에 포함된 3D 좌표 정보, 영상의 컬러 정보, 및 정밀 도로맵을 이용하여 슬레이브 장치의 위치정보를 계산한다. In step 740, the master device uses the front/rear/side images taken by the slave device to the position of the master device, 3D coordinate information included in the DB-stored object of interest information, color information of the image, and the precision road map to the slave device. Calculate the location information of the device.

마스터 장치와 슬레이브 장치의 각 장치들의 위치를 참조하여 삼각측량 방법으로 보정된 슬레이브 장치의 좌표를 계산할 수 있다. 이러한 슬레이브 장치의 위치 계산과 영상 촬영을 위한 카메라 촬영조건 정보 전송은 시스템 구성에 따라, 마스터 장치, 서브 마스터 장치, 또는 허브 디바이스에서 수행될 수 있다. The coordinates of the slave device corrected by the triangulation method may be calculated by referring to the positions of the master device and the respective devices of the slave device. The position calculation of the slave device and the transmission of camera shooting condition information for image shooting may be performed by the master device, the sub-master device, or the hub device according to the system configuration.

또한 마스터 장치는 계산된 슬레이브 장치 위치 좌표를 이용하여 마스터 장치와 슬레이브 장치 간의 거리 정보를 계산할 수 있다. 마스터 장치는 슬레이브 장치들이 동일한 촬영 시야 및 프레임 크기의 영상을 생성할 수 있도록 요구되는 초점거리 정보 및 영상 크기를 포함한 카메라 촬영조건 정보를 슬레이브 장치로 제공할 수 있다. 상기 영상 크기는 마스터 장치와 슬레이브 장치 간의 거리를 고려하여 결정되며, 마스터 장치는 복수의 커넥티드 장치들을 디지털 콘텐츠 생성 그룹별로 나누고, 그룹별로 동일한 영상 크기를 갖도록 설정할 수 있다. Also, the master device may calculate distance information between the master device and the slave device using the calculated slave device position coordinates. The master device may provide camera shooting condition information including focal length information and image size required for slave devices to generate images having the same shooting field and frame size to the slave device. The size of the image is determined in consideration of the distance between the master device and the slave device, and the master device may divide a plurality of connected devices into digital content generation groups and set each group to have the same image size.

상기 카메라 촬영조건 정보의 초점거리 및 촬영 이미지 해상도를 계산하는 정보는 슬레이브 장치에서 수행될 수도 있다. 슬레이브 장치에서 마스터 장치 위치 및 슬레이브 장치 위치와 촬영 대상과의 거리정보를 이용하여 초점거리 및 촬영 이미지 해상도를 계산할 수 있다.Information for calculating a focal length and a resolution of a photographed image of the camera photographing condition information may be performed by a slave device. In the slave device, the focal length and the photographed image resolution may be calculated by using the master device location and the slave device location and distance information between the photographing target and the photographing target.

750 단계에서 디지털 콘텐츠를 녹화하는 슬레이브 장치는 슬레이브 장치의 위치 보정(corrected position) 정보와 카메라 촬영조건 정보를 마스터 장치 또는 서브 마스터 장치로부터 수신한다. In step 750, the slave device for recording digital content receives corrected position information and camera shooting condition information of the slave device from the master device or the sub-master device.

760 단계에서 디지털 콘텐츠를 녹화하는 슬레이브 장치는 마스터 장치에 부착된 마커를 인식하여 촬영방향을 결정한다. In step 760, the slave device for recording digital content determines the shooting direction by recognizing the marker attached to the master device.

따라서 마커를 통해 인식된 마스터 장치의 위치정보를 기반으로, 효과적인 이미지 촬영 방향각을 슬레이브 장치에서 자동으로 변경할 수 있다. Therefore, based on the location information of the master device recognized through the marker, the effective image taking direction angle can be automatically changed in the slave device.

770 단계에서 디지털 콘텐츠를 녹화하는 슬레이브 장치는 사용자가 마스터 장치의 위치를 고려하여, 카메라 촬영방향을 결정하는 경우에는, 인식된 마스터 장치의 마커 정보를 이용하여 사용자에게 바람직한 카메라 촬영 방향을 디스플레이에 표시할 수 있다. In step 770, when the user determines the camera shooting direction in consideration of the location of the master device, the slave device for recording digital content uses the recognized marker information of the master device to display the preferred camera shooting direction for the user on the display. can do.

또한, 디지털 콘텐츠를 녹화하는 슬레이브 장치는 사용자의 머리/눈 움직임 정보를 획득할 수 있다. 사용자 반응 및 피드백 정보를 효과적으로 수집하기 위해서, 슬레이브 장치는 사용자의 머리 또는 눈 움직임 정보를 모니터링 할 수 있다. 머리와 눈을 효과적으로 트랙킹하기 위해서, 머리나 눈 움직임의 이미지를 분석하는 방법 및 광원을 이용하여 눈의 홍채의 움직임 변화로 발생하는 글린트(glint)를 측정함으로써 효과적으로 눈 움직임 트랙킹이 가능하다. In addition, the slave device for recording digital content may acquire the user's head/eye movement information. In order to effectively collect user reaction and feedback information, the slave device may monitor the user's head or eye movement information. In order to effectively track the head and eyes, it is possible to effectively track eye movements by measuring glints caused by changes in the movement of the iris of the eyes using a method of analyzing images of head or eye movements and a light source.

또한 슬레이브 장치에 디스플레이되는 정보는 효과적인 사용자 인식을 위해서 증강현실(AR)/가상현실(VR)/네비게이션 정보가 될 수 있고, 마스터 장치나 주요 관심객체는 특정 3D 객체 및 아바타 형태로 제공되어 디스플레이될 수 있다.In addition, the information displayed on the slave device may be augmented reality (AR)/virtual reality (VR)/navigation information for effective user recognition, and the master device or the main object of interest is provided in the form of a specific 3D object and avatar to be displayed. can

780 단계에서 디지털 콘텐츠를 녹화하는 슬레이브 장치는 결정된 촬영방향으로 디지털 콘텐츠를 생성한다.In step 780, the slave device for recording digital content generates digital content in the determined shooting direction.

790 단계에서 디지털 콘텐츠를 녹화하는 슬레이브 장치는 촬영된 디지털 콘텐츠를 마스터 장치로 전송한다. In step 790 , the slave device for recording digital content transmits the captured digital content to the master device.

이때, 도 5를 참조하면, 모바일 마스터 장치(530, 540)을 거쳐서 차량 마스터 장치(510)로 전송될 수 있다. 이러한 데이터의 송수신은 시스템 구성에 따라, 마스터 장치 또는 서브 마스터 장치를 거쳐서 가상머신 또는 허브 디바이스(520)로 전달된다. 또한 중간 네트워크 노드를 거치지 않고, 가상머신 또는 허브 디바이스(520)로 바로 전송될 수 있다.In this case, referring to FIG. 5 , it may be transmitted to the vehicle master device 510 via the mobile master devices 530 and 540 . Transmission and reception of such data is transmitted to the virtual machine or the hub device 520 through the master device or the sub-master device according to the system configuration. Also, it may be transmitted directly to the virtual machine or the hub device 520 without going through an intermediate network node.

도 8은 본 발명의 바람직한 일 실시 예에 따른 커넥티드 장치들 중 마스터 장치에서 3D 영상을 생성하는 방법의 흐름도이다.8 is a flowchart of a method of generating a 3D image in a master device among connected devices according to an embodiment of the present invention.

도 8을 참조하면, 본 실시 예에 따른 3D 영상을 생성하는 방법은 도 2에 도시된 3D 영상을 생성하는 마스터 장치에서 시계열적으로 처리되는 단계들로 구성된다. 따라서, 이하 생략된 내용이라 하더라도 도 2에 도시된 3D 영상을 생성하는 마스터 장치에 관하여 이상에서 기술된 내용은 본 실시 예에 따른 3D 영상을 생성하는 방법에도 적용된다. Referring to FIG. 8 , the method for generating a 3D image according to the present embodiment includes steps that are time-series processed by the master device for generating the 3D image shown in FIG. 2 . Therefore, even if omitted below, the description above with respect to the master device for generating the 3D image shown in FIG. 2 is also applied to the method for generating the 3D image according to the present embodiment.

810 단계에서 3D 영상을 생성하는 마스터 장치는 영상 촬영 이벤트 정보를 서버(210)로부터 수신한다. In step 810 , the master device that generates the 3D image receives image capturing event information from the server 210 .

수신된 영상 촬영 이벤트 정보는 네트워크로 연결된 주변 슬레이브 차량 장치 또는 주변 모바일 슬레이브 장치로 재송신된다. 또한 영상 촬영 이벤트 정보와 함께 위치보정을 위한 주변 도로의 정밀맵, 주요 관심객체의 3D 좌표 정보, 컬러 정보, 관심객체 정보(reference landmark information)를 서버(210)로부터 수신할 수 있다. 한편, 마스터 장치는 차량 또는 모바일 장치가 될 수 있으며, 차량 마스터 장치는 통신 기능이 있는 모바일 장치로 대체될 수 있다.The received image capturing event information is retransmitted to a neighboring slave vehicle device connected to a network or a neighboring mobile slave device. In addition, it is possible to receive from the server 210 a precise map of the surrounding road for location correction, 3D coordinate information of the main object of interest, color information, and reference landmark information, along with the image shooting event information. Meanwhile, the master device may be a vehicle or a mobile device, and the vehicle master device may be replaced with a mobile device having a communication function.

한편, 3D 영상을 생성하는 마스터 장치(200)는 주변 슬레이브 차량 장치 또는 주변 모바일 슬레이브 장치와 네트워크로 연결한다. 이때, 연결된 모든 슬레이브 장치들은 마스터 장치(200)의 카메라와 촬영방향이 동일하게 이미지 촬영이 가능해야 한다. On the other hand, the master device 200 for generating a 3D image is connected to a neighboring slave vehicle device or a neighboring mobile slave device through a network. In this case, all connected slave devices must be capable of capturing images in the same direction as the camera of the master device 200 .

촬영된 영상에서 이미지 기법을 이용, 마스터 장치에 표시된 마커 정보를 인식하여 기기들 사이의 인식을 효과적으로 수행할 수 있다. 따라서 네트워크 상으로 마스터 장치(200)와 연결된 장치이면서, 마스터 장치(200)의 마커를 인식하는 장치에 한해 추가적인 영상 촬영 단계를 진행할 수 있다.Recognition between devices can be effectively performed by recognizing the marker information displayed on the master device by using the image technique in the captured image. Therefore, only a device connected to the master device 200 over the network and recognizing the marker of the master device 200 may perform an additional image capturing step.

820 단계에서 3D 영상을 생성하는 마스터 장치는 슬레이브 장치로 상기 수신한 영상 촬영 이벤트 정보를 송신한다.In step 820, the master device that generates the 3D image transmits the received image capturing event information to the slave device.

830 단계에서 3D 영상을 생성하는 마스터 장치는 슬레이브 장치로부터 전방, 후방, 측방 중 적어도 하나 이상의 영상을 수신한다.In operation 830 , the master device generating the 3D image receives at least one image from the front, rear, and side images from the slave device.

840 단계에서 3D 영상을 생성하는 마스터 장치는 수집한 영상정보 및 라이다(Lidar)를 이용하여 수집된 3D 좌표 정보와 관심객체 정보(reference landmark information)를 비교하여 마스터 장치의 현재 위치를 계산한다.In step 840, the master device for generating the 3D image calculates the current location of the master device by comparing the collected image information and the 3D coordinate information collected using the lidar and reference landmark information.

또한 마스터 장치는 830 단계에서 수신한 슬레이브 장치에서 차량 마스터 장치를 인식하여 촬영한 영상을 수신하여, 슬레이브 장치의 위치도 계산한다.In addition, the master device receives an image captured by recognizing the vehicle master device in the slave device received in step 830, and also calculates the position of the slave device.

마스터 장치에서 촬영한 영상 또는 슬레이브 장치에 촬영한 영상을 바탕으로 슬레이브 장치의 위치를 보정하는 것이 바람직하다. 특히 복수의 슬레이브 장치와 마스터 장치 간의 인식은 마커를 통해 인식 가능하며, 마스터 장치의 위치정보를 기준으로, 마커로 인식된 슬레이브 장치의 절대적인 방향각을 결정할 수 있다.It is preferable to correct the position of the slave device based on the image captured by the master device or the image captured by the slave device. In particular, recognition between the plurality of slave devices and the master device can be recognized through the marker, and the absolute direction angle of the slave device recognized as the marker can be determined based on the location information of the master device.

840 단계는 시스템 구성에 따라 마스터 장치(200)에서 수행되거나 서버(210)에서 수행될 수 있다. 서버(210)에서 위치 결정 및 상기 카메라 촬영조건 정보를 생성하는 경우, 마스터 장치 또는 슬레이브 차량 장치는 수집한 영상정보 및 라이다(Lidar) 정보를 서버(210)로 실시간 송신해야 한다. Step 840 may be performed by the master device 200 or the server 210 according to the system configuration. When the server 210 determines the location and generates the camera shooting condition information, the master device or the slave vehicle device needs to transmit the collected image information and Lidar information to the server 210 in real time.

850 단계에서 3D 영상을 생성하는 마스터 장치는 슬레이브 장치의 보정된 위치 정보 및 카메라 촬영조건 정보를 전송한다. 해당 정보의 전송은 모든 슬레이브 장치에게 전송되거나, 특정 모바일 마스터 장치에만 전송될 수 있다. In step 850, the master device that generates the 3D image transmits the corrected position information of the slave device and the camera shooting condition information. The transmission of the corresponding information may be transmitted to all slave devices or may be transmitted only to a specific mobile master device.

슬레이브 장치들이 동일한 촬영 시야 및 프레임 크기를 갖는 영상을 촬영할 수 있도록, 초점거리 및 이미지 해상도 정보, 각각의 슬레이브 장치의 위치정보, 및 마스터 장치의 위치정보를 포함한 카메라 촬영조건 정보를 각각의 슬레이브 장치에 송신하는 것이 바람직하다.Camera shooting condition information, including focal length and image resolution information, location information of each slave device, and location information of the master device, is provided to each slave device so that the slave devices can shoot images having the same shooting field and frame size. It is preferable to transmit

이러한 카메라 촬영조건 정보의 초점거리 및 이미지 해상도 정보는 마스터 장치와 슬레이브 장치의 위치정보를 이용하여 슬레이브 장치에서도 계산 가능하며, 초점거리 정보는 마스터 장치와 슬레이브 장치 간의 거리차에 따라 결정되는 정보이다. The focal length and image resolution information of the camera shooting condition information can be calculated even in the slave device using the location information of the master device and the slave device, and the focal length information is information determined according to the distance difference between the master device and the slave device.

상기 거리차가 작을수록, 상대적으로 촬영대상물과의 거리가 멀어지고 초점거리는 길어지므로 고해상도 이미지를 생성할 필요가 있다. 반대의 경우는 상기 거리차가 커질수록, 상대적으로 촬영 대상물과 슬레이브 장치의 거리가 가까워지므로, 초점 거리가 짧은 저해상도 이미지를 생성하는 것이 효과적이다. As the distance difference is small, the distance from the object to be photographed is relatively increased and the focal length is increased, so it is necessary to generate a high-resolution image. Conversely, as the distance difference increases, the distance between the object to be photographed and the slave device becomes relatively close, so it is effective to generate a low-resolution image with a short focal length.

860 단계에서 3D 영상을 생성하는 마스터 장치가 슬레이브 장치에 디스플레이 정보를 전송한다. 마스터 장치는 슬레이브 장치의 위치 및 슬레이브 장치 사용자의 반응 및 피드백 정보를 수집하기 위해서, 다양한 디스플레이 정보를 보낼 수 있다. 이러한 디스플레이 정보는 증강현실(AR)/가상현실(VR)/3D 아바타/네비게이션 정보 정보 등을 포함할 수 있다. 또한 슬레이브 장치 사용자의 반응정보 수집하여, 특정 슬레이브 장치에 필요한 정보를 선택적으로 보낼 수 있다. 슬레이브 장치로부터 머리 또는 눈 트랙킹 결과를 수집하고, 분석한 결과에 상응하는 추가정보를 특정 슬레이브 장치에 송신할 수 있다.In step 860, the master device that generates the 3D image transmits display information to the slave device. The master device may send various display information in order to collect the location of the slave device and the response and feedback information of the slave device user. Such display information may include augmented reality (AR)/virtual reality (VR)/3D avatar/navigation information information and the like. In addition, by collecting reaction information of a slave device user, information necessary for a specific slave device can be selectively transmitted. Head or eye tracking results may be collected from the slave device, and additional information corresponding to the analyzed result may be transmitted to a specific slave device.

870 단계에서 3D 영상을 생성하는 마스터 장치는 슬레이브 장치로부터 영상 정보를 수신한다. 도 5를 참조하면, 차량 마스터 장치(510)를 거치지 않고 가상머신 또는 허브 디바이스(520)로 바로 전송될 수도 있다.In step 870, the master device that generates the 3D image receives image information from the slave device. Referring to FIG. 5 , it may be transmitted directly to a virtual machine or a hub device 520 without going through the vehicle master device 510 .

880 단계에서 3D 영상을 생성하는 마스터 장치는 가상 카메라 촬영방향을 설정한다.In step 880, the master device for generating the 3D image sets the virtual camera shooting direction.

890 단계에서 3D 영상을 생성하는 마스터 장치는 수신된 영상을 이용하여 3D 영상을 생성한다.In step 890, the master device that generates the 3D image generates a 3D image by using the received image.

도 9는 본 발명의 바람직한 일 실시 예에 따른 커넥티드 장치들 중 서버에서 3D 영상을 생성하는 방법의 흐름도이다.9 is a flowchart of a method of generating a 3D image in a server among connected devices according to an exemplary embodiment of the present invention.

도 9를 참조하면, 본 실시 예에 따른 3D 영상을 생성하는 방법은 도 2에 도시된 3D 영상을 생성하는 서버에서 시계열적으로 처리되는 단계들로 구성된다. 따라서, 이하 생략된 내용이라 하더라도 도 2에 도시된 3D 영상을 생성하는 서버에 관하여 이상에서 기술된 내용은 본 실시 예에 따른 3D 영상을 생성하는 방법에도 적용된다. Referring to FIG. 9 , the method for generating a 3D image according to the present exemplary embodiment includes steps that are time-series processed by the server for generating the 3D image shown in FIG. 2 . Therefore, even if omitted below, the description above with respect to the server for generating the 3D image shown in FIG. 2 is also applied to the method for generating the 3D image according to the present embodiment.

도 9를 참조하면, 서버(210)가 영상 촬영 이벤트 정보를 처리하고, 3D 영상을 생성하는 과정이 도시되어 있다.Referring to FIG. 9 , a process in which the server 210 processes image capturing event information and generates a 3D image is illustrated.

910 단계에서 서버(210)는 영상 이미지 취득을 위한 영상 촬영 이벤트 정보와 관심객체 정보를 마스터 장치(200)로 전송한다. 상기 영상 촬영 이벤트 정보는 영상 촬영을 위한 이동 경로(tavel path)를 포함할 수 있다.In step 910 , the server 210 transmits image capturing event information and interest object information for acquiring an image image to the master device 200 . The image capturing event information may include a travel path for capturing an image.

서버(210)는 커넥티드 장치들을 여러 개의 장치 그룹으로 나누고, 각 장치 그룹에서 마스터 장치를 결정한다. 구성 시스템이 다수의 서버들로 구성된 경우에는 특정 서버를 허브 디바이스(520)로 선정할 수 있다. The server 210 divides the connected devices into several device groups, and determines a master device in each device group. When the configuration system is composed of a plurality of servers, a specific server may be selected as the hub device 520 .

920 단계에서 마스터 장치(200)는 상기 영상 촬영 이벤트 정보를 슬레이브 장치(220)로 전송한다.In step 920 , the master device 200 transmits the image capturing event information to the slave device 220 .

930 단계에서 마스터 장치(200)는 슬레이브 장치(220)로부터 전방, 후방, 또는 측방 중 적어도 하나 이상의 영상을 수신한다.In step 930 , the master device 200 receives at least one image from the front, rear, or side images from the slave device 220 .

940 단계에서 서버(210)는 마스터 장치로부터 전방, 후방, 또는 측방 중 적어도 하나 이상의 영상을 수신한다.In step 940, the server 210 receives at least one image of the front, rear, or side from the master device.

서버(210)가 특정 장치 그룹 내의 각각의 장치에서 촬영한 이미지를 분석하여 마스터 장치와 슬레이브 장치를 효과적으로 인식하기 위해 모든 장치들은 물리적 마커 정보를 포함할 수 있다. 동일 그룹으로 지정된 장치들은 마스터 장치의 위치를 파악하여, 마스터 장치의 촬영방향으로 영상을 취득하게 된다.In order for the server 210 to effectively recognize the master device and the slave device by analyzing images captured by each device in a specific device group, all devices may include physical marker information. Devices designated in the same group determine the location of the master device and acquire images in the shooting direction of the master device.

950 단계에서 서버(210)는 마스터 장치의 현재 위치 및 슬레이브 장치의 보정된 위치를 계산한다. 서버(210)는 수신한 영상정보와 정밀 도로맵 등, 관심객체 정보를 이용하여 모든 장치의 위치정보를 결정할 수 있다. In step 950, the server 210 calculates the current position of the master device and the corrected position of the slave device. The server 210 may determine the location information of all devices by using the received image information and the object of interest information, such as a precision road map.

960 단계에서 서버(210)는 마스터 장치와 슬레이브 장치의 위치정보를 이용하여, 각 장치에서 취득해야 하는 이미지 영상의 초점 거리 및 이미지 해상도 정보가 포함된 카메라 촬영조건 정보와 슬레이브 장치의 보정된 위치를 마스터 장치로 송신한다.In step 960, the server 210, using the location information of the master device and the slave device, the camera shooting condition information including the focal length and image resolution information of the image image to be acquired from each device and the corrected position of the slave device Send to the master device.

970 단계에서 마스터 장치(200)는 수신한 카메라 촬영조건 정보와 슬레이브 장치의 보정된 위치를 상기 마스터 장치가 속한 그룹에 다시 재전송한다. In step 970, the master device 200 retransmits the received camera shooting condition information and the corrected position of the slave device to the group to which the master device belongs.

975 단계에서 서버(210)는 슬레이브 장치들이 포함된 특정 장치 그룹에 디스플레이되는 정보를 송신한다. 사용자의 반응 및 피드백 신호를 분석하여, 선택된 특정 장치 그룹에 속한 장치에 추가적인 디스플레이 정보를 제공하는 기능이다. 디스플레이 정보는 증강현실(AR)/가상현실(VR)/3D 아바타/네비게이션 정보 등으로 제공될 수 있다.In step 975 , the server 210 transmits information displayed on a specific device group including slave devices. It is a function to provide additional display information to devices belonging to a selected specific device group by analyzing the user's response and feedback signals. The display information may be provided as augmented reality (AR)/virtual reality (VR)/3D avatar/navigation information, and the like.

980 단계에서 서버(210)는 마스터 장치를 거치지 않고, 상기 마스터 장치가 속한 장치 그룹에 포함된 각각의 슬레이브 장치로부터 촬영된 영상을 정보를 수신할 수 있다.In step 980 , the server 210 may receive information on the captured image from each slave device included in the device group to which the master device belongs, without going through the master device.

990 단계에서 서버(210)는 타일 이미지를 접합하기 위해 가상 카메라 촬영방향을 선정한다. 이때, 마스터 장치 위치와 서브 마스터 장치 위치를 가상 카메라 촬영방향으로 선정할 수 있다. In step 990, the server 210 selects a virtual camera shooting direction to join the tile images. In this case, the location of the master device and the location of the sub-master device may be selected as the virtual camera shooting direction.

995 단계에서 서버(210)는 선정된 가상 카메라 촬영방향을 이용하여 서로 다른 타일 이미지 그룹을 하나의 3D 영상으로 재접합한다. 상기 3D 영상은 파노라마 영상에서 중복도를 갖는 영상 사이에 접합면(fitting plane)을 생성하여 만들 수 있다. 상기 접합면 구성시, 스테레오 영상에서 서로 다른 초점에서 발생하는 시차(parallex)에 의해 동일 객체에 영상 왜곡이 발생한다. 따라서 중복 영역에 존재하는 객체를 대상으로 3D 좌표를 이용하여, 보간(interpolation) 평면을 결정한다. In step 995, the server 210 rejoins different tile image groups into one 3D image using the selected virtual camera shooting direction. The 3D image may be created by creating a fitting plane between images having overlap in the panoramic image. When the bonding surface is configured, image distortion occurs in the same object due to parallax occurring at different focal points in a stereo image. Therefore, an interpolation plane is determined by using 3D coordinates for an object existing in the overlapping area.

995 단계에서는 동일한 촬영 시야와 프레임 크기를 갖는 영상간에 접합이 필요하다. 이러한 타일 이미지 그룹은 영상 촬영시, 유사하거나 동일한 조건에서 촬영된 영상으로, 차량 그룹 이미지들과 모바일 그룹 이미지들로 구분되고 동일 영상 그룹내에서 접합을 진행하는 것이 바람직하다. 또한, 동일한 영상 크기를 갖는 영상을 접합하여 3D 영상을 생성하는 것이 바람직하다. 상기 3D 영상 생성은 마스터 장치에서도 가능하다.In step 995, splicing is required between images having the same photographing field of view and frame size. Such a tile image group is an image taken under similar or identical conditions when taking an image, and is divided into vehicle group images and mobile group images, and bonding is preferably performed within the same image group. In addition, it is preferable to generate a 3D image by splicing images having the same image size. The 3D image generation is also possible in the master device.

본 발명의 또 다른 실시예에 따르면, 각 커넥티드 장치들의 위치 결정 및 카메라 촬영조건 정보 송신을 마스터 장치가 송신하는 것이 아니라 서버(210)가 슬레이브 장치(220)로 직접 전송할 수 있다.According to another embodiment of the present invention, the server 210 may directly transmit the location determination of each connected device and the transmission of camera shooting condition information to the slave device 220 instead of the master device transmitting the information.

이러한 경우, 서버(210)는 타겟 오브젝트의 정보가 필요하다. 특정 타겟 오브젝트는 네트워크로 연결되어 있고, 물리적 마커를 포함하고 있다. 따라서 모바일 장치가 물리적인 마커 정보로 인식될 수 있는 경우, 다수의 장치에서 상기 모바일 장치를 타겟 오브젝트로 인식할 수 있다. 타겟 오브젝트를 인식한 다수의 장치는 타겟 오브젝트를 기준으로 촬영한 영상을 서버(210)로 송신한다. In this case, the server 210 needs information on the target object. A specific target object is networked and contains a physical marker. Accordingly, when the mobile device can be recognized by the physical marker information, a plurality of devices can recognize the mobile device as a target object. A plurality of devices that have recognized the target object transmit images captured based on the target object to the server 210 .

상기 영상을 수신한 서버(210)는 수신된 영상 및 관심객체 정보를 이용하여, 타겟 오브젝트 및 슬레이브 장치의 위치값을 계산할 수 있고, 타겟 오브젝트와 슬레이브 장치 사이의 거리차에 따라 슬레이브 장치로 이미지 촬영을 위한 카메라 촬영조건 정보를 전송할 수 있다. The server 210 that has received the image may calculate the position values of the target object and the slave device by using the received image and the object of interest information, and take an image with the slave device according to the distance difference between the target object and the slave device. It is possible to transmit camera shooting condition information for

이때, 상기 카메라 촬영조건 정보에는 타겟 오브젝트 위치, 슬레이브 장치 위치 및 타겟 오브젝트와 슬레이브 장치 간의 거리차에 따른 초점거리 및 이미지 해상도 정보가 포함된다. In this case, the camera shooting condition information includes a target object position, a slave device position, and focal length and image resolution information according to a distance difference between the target object and the slave device.

상기 초점 거리 및 이미지 해상도는 서버(210)가 아닌, 슬레이브 장치에서도 계산될 수 있다. 슬레이브 장치는 마커 인식을 통해, 타겟 오브젝트를 자동으로 인식하고 타겟 오브젝트 위치를 기준으로 이미지 촬영각도를 자동으로 결정할 수 있는 자동화된 기기인 것이 바람직하다. 슬레이브 장치가 사용자에 의해서 이미지 촬영각도가 결정되는 경우에는, 사용자의 효과적인 이미지 촬영을 위한 디스플레이 정보 제공이 필요하다. 이러한 디스플레이 정보는 슬레이브 장치의 촬영 상태에 따라 선택적으로 슬레이브 장치에 제공될 수 있다.The focal length and the image resolution may be calculated not only in the server 210 but also in the slave device. Preferably, the slave device is an automated device capable of automatically recognizing a target object through marker recognition and automatically determining an image capturing angle based on the target object position. When the slave device determines the image capturing angle by the user, it is necessary to provide display information for the effective image capturing by the user. Such display information may be selectively provided to the slave device according to the photographing state of the slave device.

또한 사용자의 반응 및 피드백 신호를 효과적으로 처리하기 디스플레이 정보로 증강현실(AR)/가상현실(VR)/3D 아바타/네비게이션 정보가 제공될 수 있다.In addition, augmented reality (AR)/virtual reality (VR)/3D avatar/navigation information may be provided as display information to effectively process the user's reaction and feedback signals.

효과적인 디스플레이 정보를 제공하기 위해, 슬레이브 장치에서는 사용자의 머리 또는 눈 움직임을 트랙킹할 수 있다. 상기 트랙킹 정보는 이미지 분석 기법으로 머리 또는 눈 움직임을 분석하거나 광원을 이용하여 눈의 홍채 움직임에 따라 글린트(glint)의 변화를 감지하여 눈 움직임을 파악함으로써 생성될 수 있다. 상기 트랙킹 정보를 근거로 추가적인 디스플레이 정보를 제공할 수 있다.In order to provide effective display information, the slave device may track the user's head or eye movements. The tracking information may be generated by analyzing a head or eye movement using an image analysis technique, or detecting a change in glint according to an iris movement of the eye using a light source to recognize the eye movement. Additional display information may be provided based on the tracking information.

또한 상기 머리 또는 눈 움직임을 서버(210)에 제공하고, 서버(210)는 수신된 머리 또는 눈 움직임 정보를 이용하여, 효과적인 디스플레이 정보를 선택적으로 특정 슬레이브 장치에 제공할 수 있다.In addition, the head or eye movement is provided to the server 210 , and the server 210 may selectively provide effective display information to a specific slave device using the received head or eye movement information.

본 발명의 실시 예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and carry out program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

본 실시 예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field-programmable gate array) 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터,데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.The term '~ unit' used in this embodiment means software or hardware components such as field-programmable gate array (FPGA) or ASIC, and '~ unit' performs certain roles. However, '-part' is not limited to software or hardware. The '~ unit' may be configured to reside on an addressable storage medium or may be configured to refresh one or more processors. Thus, as an example, '~' denotes components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, database, data structures, tables, arrays, and variables. The functions provided in the components and '~ units' may be combined into a smaller number of components and '~ units' or further separated into additional components and '~ units'. In addition, components and '~ units' may be implemented to play one or more CPUs in a device or secure multimedia card.

상술한 모든 기능은 상기 기능을 수행하도록 코딩된 소프트웨어나 프로그램 코드 등에 따른 마이크로프로세서, 제어기, 마이크로제어기, ASIC(Application Specific Integrated Circuit) 등과 같은 프로세서에 의해 수행될 수 있다. 상기 코드의 설계, 개발 및 구현은 본 발명의 설명에 기초하여 당업자에게 자명하다고 할 것이다.All of the above-described functions may be performed by a processor such as a microprocessor, a controller, a microcontroller, an application specific integrated circuit (ASIC), etc. according to software or program code coded to perform the functions. The design, development and implementation of the above code will be apparent to those skilled in the art based on the description of the present invention.

이상 본 발명에 대하여 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시켜 실시할 수 있음을 이해할 수 있을 것이다. 따라서 상술한 실시 예에 한정되지 않고, 본 발명은 이하의 특허청구범위의 범위 내의 모든 실시 예들을 포함한다고 할 것이다.Although the present invention has been described with reference to the embodiments, those of ordinary skill in the art can variously modify and change the present invention within the scope without departing from the technical spirit and scope of the present invention. You will understand. Therefore, the present invention is not limited to the above-described embodiments, and it will be said that all embodiments within the scope of the following claims are included.

Claims (17)

적어도 하나 이상의 복수의 커넥티드 장치에서 동일한 타겟 오브젝트 또는 관심객체를 포함한 캡처 이미지를 복수의 커넥티드 장치 중 하나의 장치로 전송하는 단계;
상기 복수의 커넥티드 장치 중 하나의 장치로부터 현재 장치의 보정된 위치 및 상기 타겟 오브젝트의 위치, 촬영 방향, 영상 크기 또는 초점 길이 정보 중 적어도 하나 이상을 포함하는 카메라 촬영조건 정보를 수신하는 단계;
상기 수신된 카메라 촬영조건 정보를 고려하여 디지털 콘텐츠를 생성하는 단계; 및
상기 생성된 디지털 콘텐츠를 상기 복수의 커넥티드 장치 중 하나의 장치로 전송하는 단계를 포함하고,
상기 현재 장치의 보정된 위치는 상기 캡처 이미지에 있는 타겟 오브젝트 위치 또는 관심객체 위치를 고려하여 결정되고,
상기 촬영 방향은 상기 타겟 오브젝트의 위치와 상기 현재 장치의 보정된 위치를 연결하는 선과 평행하고, 상기 초점 길이는 상기 타겟 오브젝트 위치와 상기 보정된 현재 위치 간의 거리에 따라 결정되고,
상기 적어도 하나 이상의 복수의 커넥티드 장치는 상기 촬영조건 정보에 포함된 영상 크기로 디지털 콘텐츠를 생성하는 방법.
transmitting a captured image including the same target object or object of interest from at least one or more of the plurality of connected devices to one of the plurality of connected devices;
receiving camera shooting condition information including at least one of a corrected position of the current device and a position of the target object, a shooting direction, an image size, and a focal length from one of the plurality of connected devices;
generating digital content in consideration of the received camera shooting condition information; and
transmitting the generated digital content to one of the plurality of connected devices;
The corrected position of the current device is determined in consideration of the target object position or the object of interest position in the captured image,
The shooting direction is parallel to a line connecting the position of the target object and the corrected position of the current device, and the focal length is determined according to a distance between the position of the target object and the corrected current position,
The at least one or more of the plurality of connected devices generates digital content with an image size included in the shooting condition information.
제1 항에 있어서,
상기 캡처 이미지는 상기 타겟 오브젝트를 검출하는 마커를 포함하는 것을 특징으로 하는 디지털 콘텐츠를 생성하는 방법.
According to claim 1,
The method of claim 1, wherein the captured image includes a marker that detects the target object.
제1 항에 있어서,
상기 디지털 콘텐츠의 해상도는 상기 초점 길이에 따라 결정되는 것을 특징으로 하는 디지털 콘텐츠를 생성하는 방법.
According to claim 1,
The method of claim 1, wherein the resolution of the digital content is determined according to the focal length.
제1 항에 있어서,
상기 디지털 콘텐츠는 사용자의 머리 또는 눈 트랙킹 정보를 포함하는 것을 특징으로 하는 디지털 콘텐츠생성 방법.
According to claim 1,
The digital content generating method, characterized in that it includes the user's head or eye tracking information.
관심객체의 캡처된 이미지를 이용하여 현재 위치를 결정하는 단계;
복수의 커넥티드 장치들 중 적어도 하나 이상의 커넥티드 장치로 상기 현재 위치 및 상기 하나 이상의 커넥티드 장치의 보정된 위치, 촬영 방향, 영상 크기, 또는 초점 길이 중 적어도 하나 이상을 포함하는 카메라 촬영조건 정보를 전송하는 단계; 및
상기 복수의 커넥티드 장치들 중 적어도 하나의 이상의 커넥티드 장치로부터 상기 전송된 카메라 촬영조건 정보를 이용하여 동일한 영상 크기로 촬영된 디지털 콘텐츠를 수신하는 단계를 포함하고,
상기 보정된 위치는 상기 캡처된 이미지들에 기초하여 결정되고,
상기 촬영방향은 상기 현재 위치와 상기 보정된 위치를 연결하는 연장선과 평행한 것을 특징으로 하는디지털 콘텐츠 생성 방법.
determining a current location using the captured image of the object of interest;
Camera shooting condition information including at least one of the current position and the corrected position, shooting direction, image size, and focal length of the one or more connected devices to at least one connected device among a plurality of connected devices transmitting; and
Receiving the digital content photographed in the same image size by using the transmitted camera shooting condition information from at least one or more connected devices among the plurality of connected devices,
the corrected position is determined based on the captured images;
The photographing direction is a digital content creation method, characterized in that parallel to an extension line connecting the current position and the corrected position.
제5 항에 있어서,
상기 복수의 커넥티드 장치가 그룹별로 분류되어, 서로 다른 영상 크기를 갖는 디지털 컨텐츠를 수신하는 것을 특징으로 하는 디지털 컨텐츠 생성 방법.
6. The method of claim 5,
The digital content creation method according to claim 1, wherein the plurality of connected devices are classified into groups to receive digital content having different image sizes.
제5 항에 있어서,
상기 캡처된 이미지에서 상기 복수의 커넥티드 장치에 부착된 마커를 검출하는 단계를 더 포함하는 디지털 콘텐츠 생성 방법.
6. The method of claim 5,
and detecting markers attached to the plurality of connected devices in the captured image.
제5 항에 있어서,
상기 커넥티드 장치들 중 적어도 하나의 커넥티드 장치로부터 머리 또는 눈의 트랙킹 정보를 수신하는 단계를 더 포함하는 디지털 콘텐츠 생성 방법.
6. The method of claim 5,
and receiving head or eye tracking information from at least one of the connected devices.
디지털 콘텐츠를 저장하기 위한 이동 경로 및 타겟 오브젝트의 정보를 포함하는 영상 촬영 이벤트 정보를 마스터 장치로 전송하는 단계;
관심 객체의 3D 좌표와 컬러 정보를 포함하는 관심객체 정보를 상기 마스터 장치로 전송하는 단계;
상기 마스터 장치의 현재 위치 및 커넥티드 장치들의 보정된 위치를 계산하고, 상기 계산 결과와 카메라 촬영조건 정보를 상기 마스터 장치로 전송하는 단계;
상기 커넥티드 장치들에서 상기 카메라 촬영조건 정보를 이용하여 촬영한 캡처 영상을 상기 마스터 장치를 통해 수신하는 단계; 및
상기 수신된 디지털 콘텐츠를 이용하여 3D 영상을 생성하는 단계를 포함하고,
상기 캡처된 이미지들의 촬영 방향은 상기 타겟 오브젝트의 위치와 커넥티드 장치들 중 적어도 하나의 위치를 연결하는 연장선과 평행한 것을 특징으로 하는 컨텐츠 서버의 3D 영상 생성 방법.
transmitting image capturing event information including information on a moving path and target object for storing digital content to a master device;
transmitting object of interest information including 3D coordinates and color information of the object of interest to the master device;
calculating the current position of the master device and the corrected positions of the connected devices, and transmitting the calculation result and camera shooting condition information to the master device;
receiving, through the master device, a captured image captured by the connected devices using the camera shooting condition information; and
generating a 3D image by using the received digital content;
The capturing direction of the captured images is parallel to an extension line connecting the position of the target object and the position of at least one of the connected devices.
제9 항에 있어서,
상기 카메라 촬영조건 정보는 초점 길이, 영상 크기, 상기 커넥티드 장치들의 보정된 위치, 상기 타겟 오브젝트 위치를 포함하고,
상기 초점 길이의 정보로 이미지 해상도를 결정하는 것을 특징으로 하는 컨텐츠 서버의 3D 영상생성 방법.
10. The method of claim 9,
The camera shooting condition information includes focal length, image size, corrected positions of the connected devices, and the target object position,
3D image generating method of a content server, characterized in that the image resolution is determined based on the focal length information.
제9 항에 있어서,
상기 카메라 촬영조건 정보에 포함된 상기 영상 크기에 따라, 상기 수신한 캡처 영상을 서로 다른 그룹으로 분류한 후, 3D 영상을 생성하는 것을 특징하는 콘텐츠 서버의 3D 영상 생성 방법.
10. The method of claim 9,
3D image generating method of a content server, characterized in that the received captured image is classified into different groups according to the image size included in the camera shooting condition information, and then a 3D image is generated.
제9 항에 있어서,
상기 카메라 촬영조건 정보에 포함된 영상 크기가 동일한 상기 캡처 영상에 대해서, 오버랩되는 영역에 존재하는 관심 객체의 좌표 정보의 변화가 최소화되도록 캡처 캡처 영상들 사이에 보간평면(fitting plane)을 결정 하는 것을 특징으로 하는 컨텐츠 서버에서 3D 영상 생성 방법.
10. The method of claim 9,
For the captured images having the same image size included in the camera shooting condition information, determining an interpolation plane between captured images so that a change in coordinate information of an object of interest existing in an overlapping area is minimized A method of generating 3D images in a content server characterized by the
제9 항에 있어서,
상기 캡처된 영상들을 연결하는 가상 카메라 위치를 결정하는 단계를 더 포함하는 컨텐츠 서버 3D 영상 생성 방법.
10. The method of claim 9,
The content server 3D image generation method further comprising the step of determining a position of a virtual camera connecting the captured images.
적어도 하나 이상의 복수의 커넥티드 장치에서 동일한 타겟 오브젝트 또는 관심객체를 포함한 캡처 이미지를 복수의 커넥티드 장치 중 하나의 장치로 전송하는 송신부;
상기 복수의 커넥티드 장치 중 하나의 장치로부터 현재 장치의 보정된 위치, 상기 타겟 오브젝트의 위치, 촬영 방향, 초점 길이, 또는 영상 크기 중 적어도 하나 이상을 포함하는 카메라 촬영조건 정보를 수신하는 수신부; 및
상기 수신된 카메라 촬영조건 정보를 고려하여 디지털 콘텐츠를 생성하는 촬영부를 포함하고,
상기 송신부는 상기 생성된 디지털 콘텐츠를 상기 복수의 커넥티드 장치 중 하나의 장치로 전송하고, 상기 현재 보정된 위치는 상기 캡처 이미지에 있는 타겟 오브젝트 위치 또는 관심객체 위치를 고려하여 결정되고, 상기 촬영 방향은 상기 타겟 오브젝트의 위치와 상기 현재 보정된 위치를 연결하는 선과 평행하고, 상기 초점 길이는 상기 타겟 오브젝트 위치와 상기 보정된 현재 위치 간의 거리에 따라 결정되는 디지털 콘텐츠를 생성하는 커넥티드 장치.
a transmitter configured to transmit a captured image including the same target object or object of interest from at least one or more connected devices to one of the plurality of connected devices;
a receiver configured to receive camera shooting condition information including at least one of a corrected position of the current device, a position of the target object, a shooting direction, a focal length, and an image size from one of the plurality of connected devices; and
and a photographing unit that generates digital content in consideration of the received camera photographing condition information,
The transmitter transmits the generated digital content to one of the plurality of connected devices, and the currently corrected position is determined in consideration of a target object position or an object of interest position in the captured image, and the shooting direction is parallel to a line connecting the position of the target object and the current corrected position, and the focal length is determined according to a distance between the position of the target object and the corrected current position.
관심객체의 캡처된 이미지를 이용하여 현재 위치를 결정하는 계산부;
복수의 커넥티드 장치들 중 적어도 하나 이상의 커넥티드 장치로 상기 현재 위치, 상기 하나 이상의 커넥티드 장치의 보정된 위치, 촬영 방향, 초점 길이또는 영상 크기 중 적어도 하나 이상을 포함하는 카메라 촬영조건 정보를 전송하는 송신부;
상기 복수의 커넥티드 장치들 중 적어도 하나의 커넥티드 장치로부터 상기 카메라 촬영조건 정보를 이용하여 생성된 디지털 콘텐츠를 수신하는 수신부; 및
상기 현재 위치 결정은 상기 관심객체 정보와 상기 캡처된 이미지 간에 경계선 또는 컬러를 비교하여 이루어지고, 상기 촬영방향은 상기 현재 위치와 상기 하나 이상의 커넥티드 장치의 보정된 위치를 연결하는 연장선과 평행하고, 상기 하나 이상의 커넥티드 장치의 보정된 위치는 상기 캡처된 이미지들에 기초하여 결정되는 것을 특징으로 하는 디지털 콘텐츠를 생성하는 마스터 장치.
a calculator for determining a current location using the captured image of the object of interest;
Transmitting camera shooting condition information including at least one of the current position, the corrected position of the one or more connected devices, a shooting direction, a focal length, or an image size to at least one or more connected devices among a plurality of connected devices a transmitter to;
a receiver configured to receive digital content generated by using the camera shooting condition information from at least one connected device among the plurality of connected devices; and
The current location is determined by comparing a boundary line or color between the object of interest information and the captured image, and the photographing direction is parallel to an extension line connecting the current location and the corrected location of the one or more connected devices; and the calibrated position of the one or more connected devices is determined based on the captured images.
디지털 콘텐츠를 저장하기 위한 이동 경로 및 타겟 오브젝트 정보를 포함하는 영상 촬영 이벤트 정보를 생성하는 이벤트 정보 생성부;
상기 영상 촬영 이벤트 정보를 마스터 장치로 전송하고, 관심 객체의 3D 좌표와 컬러 정보를 포함하는 관심객체 정보를 상기 마스터 장치로 전송하고, 상기 마스터 장치의 현재 위치 및 커넥티드 장치들의 보정된 위치를 계산하고, 상기 계산 결과와 카메라 촬영조건 정보를 전송하는 송신부;
상기 커넥티드 장치들에서 카메라 촬영조건 정보를 이용하여 생성된 캡처 이미지들을 상기 마스터 장치를 통해 수신하는 수신부; 및
상기 촬영정보에 포함된 영상 크기 정보를 이용하여, 상기 수신된 디지털 콘텐츠를 디지털 콘텐츠별로 그룹핑하여 3D 영상을 생성하는 3D 영상 생성부를 포함하고,
상기 캡처된 이미지들의 촬영 방향은 상기 타겟 오브젝트의 위치와 상기 커넥티드 장치들 중 적어도 하나의 위치를 연결하는 연장선과 평행한 것을 특징으로 하는 3D 영상을 생성하는 서버.
an event information generating unit generating image capturing event information including a movement path and target object information for storing digital content;
Transmits the image capturing event information to the master device, transmits object of interest information including 3D coordinates and color information of the object of interest to the master device, and calculates the current position of the master device and corrected positions of connected devices and a transmitter for transmitting the calculation result and camera shooting condition information;
a receiver configured to receive captured images generated using camera shooting condition information in the connected devices through the master device; and
and a 3D image generator configured to generate a 3D image by grouping the received digital content by digital content by using the image size information included in the shooting information,
The capturing direction of the captured images is parallel to an extension line connecting the position of the target object and the position of at least one of the connected devices.
제1 항 내지 제13 항 중에 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체. A computer-readable recording medium in which a program for executing the method of any one of claims 1 to 13 on a computer is recorded.
KR1020190171081A 2019-12-19 2019-12-19 Method of recording digital contents and generating 3D images and apparatus using the same KR102298047B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190171081A KR102298047B1 (en) 2019-12-19 2019-12-19 Method of recording digital contents and generating 3D images and apparatus using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190171081A KR102298047B1 (en) 2019-12-19 2019-12-19 Method of recording digital contents and generating 3D images and apparatus using the same

Publications (2)

Publication Number Publication Date
KR20210079029A true KR20210079029A (en) 2021-06-29
KR102298047B1 KR102298047B1 (en) 2021-09-03

Family

ID=76626805

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190171081A KR102298047B1 (en) 2019-12-19 2019-12-19 Method of recording digital contents and generating 3D images and apparatus using the same

Country Status (1)

Country Link
KR (1) KR102298047B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022181861A1 (en) * 2021-02-26 2022-09-01 애드커넥티드 주식회사 Method and device for generating 3d image by recording digital contents

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013036813A1 (en) * 2011-09-09 2013-03-14 Henny Penny Corporation Systems and methods for monitoring quality of cooking media
KR101521352B1 (en) * 2013-11-11 2015-05-18 인제대학교 산학협력단 Panorama image managing apparatus and method
KR20170132505A (en) * 2016-05-24 2017-12-04 인하공업전문대학산학협력단 View sharing apparatus and method for user terminals in virtual reality environment

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013036813A1 (en) * 2011-09-09 2013-03-14 Henny Penny Corporation Systems and methods for monitoring quality of cooking media
KR101521352B1 (en) * 2013-11-11 2015-05-18 인제대학교 산학협력단 Panorama image managing apparatus and method
KR20170132505A (en) * 2016-05-24 2017-12-04 인하공업전문대학산학협력단 View sharing apparatus and method for user terminals in virtual reality environment

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022181861A1 (en) * 2021-02-26 2022-09-01 애드커넥티드 주식회사 Method and device for generating 3d image by recording digital contents

Also Published As

Publication number Publication date
KR102298047B1 (en) 2021-09-03

Similar Documents

Publication Publication Date Title
US10116922B2 (en) Method and system for automatic 3-D image creation
EP3665506B1 (en) Apparatus and method for generating a representation of a scene
CN106529495B (en) Obstacle detection method and device for aircraft
KR102105189B1 (en) Apparatus and Method for Selecting Multi-Camera Dynamically to Track Interested Object
US9667862B2 (en) Method, system, and computer program product for gamifying the process of obtaining panoramic images
US8180107B2 (en) Active coordinated tracking for multi-camera systems
EP2992507B1 (en) Methods for facilitating computer vision application initialization
JP5260705B2 (en) 3D augmented reality provider
GB2556910A (en) Virtual reality display
JP6293110B2 (en) Point cloud data acquisition system and method
CN107122770B (en) Multi-camera system, intelligent driving system, automobile, method and storage medium
KR101896654B1 (en) Image processing system using drone and method of the same
JPWO2018088037A1 (en) Control device for movable imaging device, control method for movable imaging device, and program
CN110969706B (en) Augmented reality device, image processing method, system and storage medium thereof
KR102298047B1 (en) Method of recording digital contents and generating 3D images and apparatus using the same
CN109618085B (en) Electronic equipment and mobile platform
Neves et al. A calibration algorithm for multi-camera visual surveillance systems based on single-view metrology
US20240137477A1 (en) Method and apparatus for generating 3d image by recording digital content
JP2017011598A (en) Monitoring system
JP2007221179A (en) Image display device and image display method
JP2005258792A (en) Apparatus, method and program for generating image
CN109214984B (en) Image acquisition method and device, autonomous positioning navigation system and computing equipment
TW202349343A (en) Depth estimation method, device, electronic device and storage medium
JP2011153919A (en) Three dimensional analyzer of flying object and computer program
JP2019062279A (en) Imaging device, imaging system, and control method of imaging system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant