KR102390838B1 - Apparatus and method for generating a picture frame based on images taken through a shooting room kiosk - Google Patents

Apparatus and method for generating a picture frame based on images taken through a shooting room kiosk Download PDF

Info

Publication number
KR102390838B1
KR102390838B1 KR1020210097696A KR20210097696A KR102390838B1 KR 102390838 B1 KR102390838 B1 KR 102390838B1 KR 1020210097696 A KR1020210097696 A KR 1020210097696A KR 20210097696 A KR20210097696 A KR 20210097696A KR 102390838 B1 KR102390838 B1 KR 102390838B1
Authority
KR
South Korea
Prior art keywords
image
user
user terminal
kiosk
video
Prior art date
Application number
KR1020210097696A
Other languages
Korean (ko)
Inventor
이호익
양세연
한종문
사재빈
류명한
김태성
Original Assignee
주식회사 엘케이벤쳐스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘케이벤쳐스 filed Critical 주식회사 엘케이벤쳐스
Priority to KR1020220049446A priority Critical patent/KR20230015268A/en
Priority to KR1020220049451A priority patent/KR102616384B1/en
Application granted granted Critical
Publication of KR102390838B1 publication Critical patent/KR102390838B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4015Demosaicing, e.g. colour filter array [CFA], Bayer pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/77
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

According to various embodiments, a photograph studio operating system linked with a capturing room kiosk and a user terminal includes: the capturing room kiosk provided in a photograph studio to receive an input of a user and display an image captured by using a built-in camera to the user through a display; an operating server that transmits a device control signal to the capturing room kiosk and obtains the captured image obtained through the camera of the capturing room kiosk; and the user terminal operatively connected to the operating server and configured to obtain the captured image through the operating server. The operating server includes: a capturing concept control unit for receiving capturing concept data from the user terminal to control a capturing concept; a sharing service provision unit configured to set an image captured through a first capturing room kiosk as a shared image and share the set shared image with a second user terminal or a second capturing room kiosk; and an image synthesis unit for synthesizing a first image obtained in real time through a camera of the first capturing room kiosk and a second image obtained in real time through a camera of a second capturing room kiosk.

Description

촬영룸 키오스크를 통해 촬영된 이미지들에 기초하여 사진 프레임을 생성하는 장치 및 방법{APPARATUS AND METHOD FOR GENERATING A PICTURE FRAME BASED ON IMAGES TAKEN THROUGH A SHOOTING ROOM KIOSK}Apparatus and method for generating a photo frame based on images taken through a shooting room kiosk

본 발명은 촬영룸 키오스크를 통해 촬영된 이미지들에 기초하여 사진 프레임을 생성하는 방법 및 장치에 관한 것으로, 더욱 상세하게는 복수의 사용자가 동일 시간, 동일 장소의 제약 없이 촬영하는 방법 및 촬영된 이미지들을 제어하여 사진 프레임을 생성하는 방법 및 장치에 관한 것이다.The present invention relates to a method and an apparatus for generating a photo frame based on images captured through a shooting room kiosk, and more particularly, to a method and an apparatus for photographing a plurality of users at the same time and at the same place without restrictions It relates to a method and an apparatus for generating a photo frame by controlling them.

기존의 포토 스튜디오의 경우 사진사가 사진을 직접 촬영하고, 촬영된 사진을 출력하여 사진 프레임을 제공하여 왔다. 다시 말해서, 과거 기념 사진 앨범의 제작은 포토 스튜디오에서 촬영하여 자체적으로 완료되어 사용자에게 제공하는 방식으로 이뤄졌다.In the case of an existing photo studio, a photographer directly takes a picture, and outputs the photographed picture to provide a picture frame. In other words, the production of commemorative photo albums in the past was done in a way that was completed by itself and provided to users by shooting in a photo studio.

그러나, 인터넷의 보급과 디지털 기술의 발전에 의해 포토 스튜디오에서 사용자가 직접 사진을 촬영하고 앨범 제작을 의뢰하면, 포토 스튜디오의 웹 사이트 혹은 웹 하드를 이용해서 앨범에 사용될 사진 파일을 열람하도록 하고, 또한 그 디지털 파일을 다운로드 받을 수 있도록 서비스가 개선되었다. 즉, 사용자들의 수요에 따라 무인 포토 스튜디오가 생겨나고 있으며, 이에 따라 사용자들은 편하게 방문하여 자신이 원하는 촬영 컨셉을 골라서 촬영을 하고 직접 사진을 출력할 수 있게 되었다.However, due to the spread of the Internet and the development of digital technology, when a user takes a photo directly in a photo studio and requests album production, the photo studio's website or web hard drive allows the user to browse the photo file to be used in the album, and also The service has been improved so that the digital file can be downloaded. In other words, unmanned photo studios are being created according to the demand of users, and accordingly, users can conveniently visit, select a desired shooting concept, take a picture, and directly print a picture.

위와 같이, 근래에는 사용자의 촬영 접근성을 향상시키고, 사용자들에게 간편하게 서비스를 제공하기 위하여 스튜디오 환경에 대한 연구가 지속적으로 이루어지고 있는 추세이다.As described above, in recent years, research on the studio environment has been continuously conducted in order to improve the user's accessibility to shooting and to conveniently provide services to users.

스튜디오 환경에 대한 연구에 따라 사용자들의 수요는 더욱 증가하고 있고, 사용자 자신의 단독 사진뿐만 아니라, 자신이 원하는 촬영 컨셉에서 자신의 소중한 사람들과 함께 촬영하는 추세가 생기고 있다. 그러나, 최근 현대인의 바쁜 생활이나 바이러스와 같은 이슈 때문에 소중한 사람들과 직접 만나서 사진 촬영하는 것이 어려운 경우가 발생할 수 있다. 예를 들어, 사용자들끼리 시간 약속을 잡기 힘들거나, 사용자들간 거리가 멀어서 함께 스튜디오 촬영을 진행할 수 없는 경우가 발생할 수 있다.According to the study of the studio environment, the demand of users is increasing, and there is a trend of taking individual photos of the users themselves, as well as taking photos with their loved ones in the shooting concept they want. However, due to the busy life of modern people or issues such as viruses, it may be difficult to meet and take pictures with loved ones in person. For example, it may be difficult to schedule a time between users, or it may be impossible to perform studio photography together due to a long distance between users.

또한, 사진 촬영은 사용자가 원하는 자연스러운 모습을 촬영하기 어려운 경우가 많은 반면, 동영상 촬영을 하는 경우 수많은 이미지 프레임이 획득되기 때문에, 동영상 속 원하는 이미지가 담겨 있을 확률이 높다. 다만, 현재 스튜디오에서의 촬영은 사진 촬영 기능만을 제공하고 동영상 촬영 기능을 제공하지는 않는 불편함이 있다. 따라서, 무인 포토 스튜디오에서 단순히 사진 촬영을 하여 사진 프레임을 구성하는 것뿐 아니라, 사용자의 니즈를 충족시켜주기 위한 다양한 방안들이 요구되고 있다.In addition, while it is often difficult to capture a natural appearance desired by a user in photographing, since numerous image frames are obtained when photographing a video, there is a high probability that the desired image is included in the video. However, currently shooting in the studio provides only a photo shooting function and does not provide a video shooting function. Accordingly, various methods for satisfying user needs as well as simply taking photos in an unmanned photo studio to form a photo frame are required.

이 배경기술 부분에 기재된 사항은 발명의 배경에 대한 이해를 증진하기 위하여 작성된 것으로써, 이 기술이 속하는 분야에서 통상의 지식을 가진 자에게 이미 알려진 종래기술이 아닌 사항을 포함할 수 있다.Matters described in this background section are prepared to promote understanding of the background of the invention, and may include matters not already known to those of ordinary skill in the art to which this technology belongs.

아래의 실시 예들은 전술한 문제점을 해결하기 위하여 안출된 것으로서, 사용자들이 동일 시간이 아니거나 동일 장소가 아닌 경우에도, 함께 촬영하는 효과를 제공하기 위하여 촬영룸 키오스크를 연동시키며, 촬영룸 키오스크를 통해 사진이 아닌 동영상을 획득하는 경우에도 사용자 단말을 통해 사진 프레임을 구성할 수 있도록 하는 것을 목적으로 한다.The following embodiments have been devised to solve the above-described problems, and even when users are not at the same time or in the same place, the shooting room kiosk is interlocked to provide the effect of shooting together, and through the shooting room kiosk An object of the present invention is to enable a picture frame to be configured through a user terminal even when a video other than a picture is acquired.

일 실시예가 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Problems to be solved by one embodiment are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 목적을 달성하기 위한 본 발명의 일 측면은, 촬영룸 키오스크 및 사용자 단말과 연동된 포토 스튜디오 운영 시스템을 제공한다.One aspect of the present invention for achieving the above object provides a photo studio operating system interlocked with a shooting room kiosk and a user terminal.

상기 포토 스튜디오 운영 시스템은, 사용자 단말의 사용자로부터 입력을 수신하고, 내장된 카메라를 이용하여 촬영된 이미지를 디스플레이를 통해 사용자에게 표시하도록 촬영룸에 구비된 촬영룸 키오스크; 상기 촬영룸 키오스크에 상기 촬영룸의 조명, 음악 및 상기 카메라를 제어하기 위한 기기 제어 신호를 전송하며, 상기 촬영룸 키오스크로부터 상기 카메라를 통해 촬영된 상기 이미지를 획득하는 운영 서버; 및 상기 운영 서버와 통신하여 상기 이미지를 획득하는 상기 사용자 단말을 포함한다.The photo studio operating system may include: a photographing room kiosk provided in a photographing room to receive an input from a user of a user terminal, and to display an image photographed using a built-in camera to the user through a display; an operation server for transmitting a device control signal for controlling lighting, music, and the camera of the recording room to the photographing room kiosk, and acquiring the image photographed through the camera from the photographing room kiosk; and the user terminal communicating with the operation server to acquire the image.

상기 운영 서버는, 상기 촬영룸 키오스크로부터 상기 사용자가 선택한 촬영 컨셉에 기초하여 상기 기기 제어 신호를 생성하는 촬영 컨셉 제어부; 촬영된 상기 이미지를 공유 이미지로 설정하고, 설정된 공유 이미지를 상기 사용자 단말 또는 상기 촬영룸 키오스크에 공유하는 공유 서비스 제공부; 및 서로 다른 제1 촬영룸 키오스크와 제2 촬영룸 키오스크 각각의 카메라를 통해 실시간으로 획득된 제1 영상과 제2 영상을 합성하는 영상 합성부를 포함한다.The operation server may include: a photographing concept control unit configured to generate the device control signal based on the photographing concept selected by the user from the photographing room kiosk; a sharing service providing unit that sets the photographed image as a shared image and shares the set shared image with the user terminal or the recording room kiosk; and an image synthesizing unit for synthesizing the first image and the second image acquired in real time through the respective cameras of the first and second photographing room kiosks, which are different from each other.

상기 사용자 단말은, 획득된 상기 이미지에 기초하여 사진 프레임을 구성하며, 상기 사진 프레임의 두께, 컬러 및 상기 사진 프레임에 배치될 수 있는 사진의 개수를 결정한다.The user terminal configures a photo frame based on the acquired image, and determines the thickness, color, and number of photos that can be arranged in the photo frame.

상기 촬영룸 키오스크는 동영상을 촬영하고, 상기 사용자 단말은 촬영된 상기 동영상을 운영 서버를 통해 획득하고, 획득된 동영상을 구성하는 복수의 이미지 프레임들 중 적어도 하나의 이미지 프레임에 기초하여 상기 사진 프레임을 구성하는 사진을 결정한다.The shooting room kiosk shoots a video, the user terminal acquires the captured video through an operation server, and selects the photo frame based on at least one image frame among a plurality of image frames constituting the obtained video. Decide on the photos you make up.

상기 영상 합성부는, 상기 제1 영상과 상기 제2 영상을 이용하여 제3 영상을 생성하고, 생성된 상기 제3 영상을 상기 제1 촬영룸 키오스크의 디스플레이 및 상기 제2 촬영룸 키오스크의 디스플레이에 표시하고, 상기 제3 영상이 표시된 상태에서, 촬영 입력을 획득하는 것에 응답하여 상기 촬영 입력을 획득하는 시점에 대응되는 상기 제3 영상의 이미지 프레임을 획득한다.The image synthesizing unit generates a third image by using the first image and the second image, and displays the generated third image on the display of the first recording room kiosk and the display of the second recording room kiosk and, in a state in which the third image is displayed, acquires an image frame of the third image corresponding to a point in time at which the capturing input is obtained in response to obtaining the capturing input.

상기 사용자 단말은, 내부 저장소에서 필터 효과가 적용된 소스 이미지를 획득하고, 상기 소스 이미지로부터 상기 필터 효과가 없는 원본 이미지를 추정하고, 상기 소스 이미지와 상기 원본 이미지를 비교하여 상기 필터 효과를 추출하고, 상기 추출된 필터 효과를 상기 획득된 이미지에 적용한다.The user terminal obtains a source image to which a filter effect is applied from an internal storage, estimates an original image without the filter effect from the source image, compares the source image with the original image to extract the filter effect, The extracted filter effect is applied to the obtained image.

상기 사용자 단말은, 상기 소스 이미지에서 인식된 객체들 중 상기 소스 이미지에서 차지하는 면적이 가장 큰 제1 객체를 결정하고, 상기 소스 이미지에서 상기 제1 객체에 대응되는 픽셀들의 컬러 값과 상기 원본 이미지에서 상기 제1 객체에 대응되는 픽셀들의 컬러 값을 비교하고, 상기 비교에 기초하여 상기 제1 객체에 대응되는 픽셀들 각각의 R(red), G(green), B(blue)의 변화 값을 계산하고, 상기 제1 객체에 대응되는 영역에서 R(red) 변화 값의 평균, G(green) 변화 값의 평균, B(blue) 변화 값의 평균에 대응되는 컬러 값을 추출하고, 추출된 상기 컬러 값을 상기 필터 효과로 저장하고, 저장된 상기 필터 효과를 상기 획득된 이미지에 적용한다.The user terminal determines, among the objects recognized in the source image, a first object having the largest area in the source image, and sets color values of pixels corresponding to the first object in the source image and in the original image. Compare color values of pixels corresponding to the first object, and calculate change values of R (red), G (green), and B (blue) of each of the pixels corresponding to the first object based on the comparison and extracting a color value corresponding to an average of R (red) change values, an average of G (green) change values, and an average of B (blue) change values in the region corresponding to the first object, and the extracted color A value is stored as the filter effect, and the stored filter effect is applied to the obtained image.

상기 사용자 단말은, 상기 운영 서버를 통해 획득된 동영상을 선택하는 사용자의 입력에 응답하여, 상기 동영상에 기초한 사진 프레임을 생성하고, 생성된 상기 사진 프레임을 조절할 수 있는 인터페이스를 디스플레이를 통해 제공하고, 상기 인터페이스 내에서 획득되는 사용자의 드래그 입력에 따라 상기 사진 프레임의 모양, 상기 사진 프레임을 구성하는 사진 및 상기 사진의 개수를 결정한다.The user terminal, in response to a user input for selecting a video obtained through the operation server, generates a photo frame based on the video, and provides an interface that can adjust the generated photo frame through a display, A shape of the picture frame, a picture constituting the picture frame, and the number of pictures are determined according to a user's drag input obtained in the interface.

상기 사용자 단말은, 상기 사진 프레임의 크기를 조절하는 상기 사용자의 드래그 입력이 제1 시간 동안 획득되지 않는 경우, 상기 드래그 입력이 획득되지 않는 시점의 크기를 상기 사진 프레임의 크기로 결정하고, 상기 드래그 입력에 따라 결정된 상기 사진 프레임의 모양 및 크기에 대응되도록 상기 사진 프레임에 포함되는 사진들을 a x b로 구성한다.When the user's drag input for adjusting the size of the photo frame is not obtained for a first time, the user terminal determines the size of the time point at which the drag input is not obtained as the size of the photo frame, and The pictures included in the picture frame are composed of a x b so as to correspond to the shape and size of the picture frame determined according to the input.

상기 사용자 단말은, 상기 동영상의 처음 제2 시간 및 마지막 제3 시간을 제외하고, 상기 제2 시간 및 상기 제3 시간이 제외된 동영상을 실질 동영상으로 결정하고, 결정된 상기 실질 동영상의 길이 내에서 상기 사진 프레임을 구성할 사진을 결정하고, 상기 결정된 사진의 개수가 M 개인 경우, 상기 실질 동영상의 길이를 (M-1) 등분하고, 상기 실질 동영상의 첫번째 이미지 프레임을 제1 사진, 상기 실질 동영상 길이의 N-1/(M-1) 부분에 대응되는 이미지 프레임을 제N 사진으로 결정하며, 상기 N의 최대 값은 상기 M과 동일하다.The user terminal, except for the first second time and the last third time of the moving picture, determines the moving picture from which the second time and the third time are excluded as the real moving picture, and within the determined length of the real moving image, the A picture constituting a picture frame is determined, and when the determined number of pictures is M, the length of the real video is divided into (M-1) equal parts, and the first image frame of the real video is the first picture and the length of the actual video An image frame corresponding to an N-1/(M-1) portion of is determined as an N-th picture, and the maximum value of N is the same as M.

상기 사용자 단말은, 상기 동영상에서 사용자의 포즈를 감지하고, 제1 포즈를 포함하는 제1 이미지 프레임을 제1 사진으로 결정하고, 제2 포즈를 포함하는 제2 이미지 프레임을 제2 사진으로 결정하고, 제3 포즈를 포함하는 제3 이미지 프레임을 제3 사진으로 결정하고, 결정된 상기 사진의 개수보다 감지된 상기 포즈의 수가 적은 경우, 감지된 상기 포즈 중 가장 먼저 감지된 제1 포즈를 포함하는 이미지 프레임을 사진 프레임을 구성하는 나머지 사진으로 결정한다.The user terminal detects a pose of the user in the video, determines a first image frame including the first pose as a first photo, and determines a second image frame including a second pose as a second photo, , if the third image frame including the third pose is determined as the third photo, and the number of the detected poses is smaller than the determined number of the photos, the image including the first detected pose among the detected poses The frame is determined by the rest of the photos that make up the photo frame.

상기 영상 합성부는, 제1 사용자 단말로부터 원격 실행 모드를 요청받은 것에 응답하여, 상기 제1 영상과 상기 제2 영상을 획득하고, 상기 제2 영상에서 제2 사용자를 검출하고, 상기 제1 영상을 구성하는 복수의 이미지 프레임들에 상기 제2 사용자에 대응되는 픽셀 영역을 합성하고, 상기 제1 영상의 제1 사용자에 대응되는 픽셀 영역과 상기 제2 사용자에 대응되는 픽셀 영역이 중첩되는 경우, 중첩되는 부분의 상기 제1 사용자의 깊이 값과 상기 제2 사용자의 깊이 값을 비교하고, 깊이 값이 높은 사용자의 픽셀 영역은 삭제하고, 상기 깊이 값이 낮은 사용자의 픽셀 영역은 유지하여 상기 제3 영상을 생성한다.The image synthesizing unit, in response to receiving a request for a remote execution mode from a first user terminal, acquires the first image and the second image, detects a second user from the second image, and generates the first image When the pixel area corresponding to the second user is synthesized in the plurality of image frames constituting the image frame, and the pixel area corresponding to the first user and the pixel area corresponding to the second user of the first image overlap, the overlapping The third image by comparing the depth value of the first user and the depth value of the second user in a portion to be used, deleting the pixel area of the user having a high depth value, and maintaining the pixel area of the user having a low depth value create

상기 목적을 달성하기 위한 본 발명의 다른 측면은, 촬영룸 키오스크 및 사용자 단말과 연동된 운영 서버의 동작 방법을 제공한다.Another aspect of the present invention for achieving the above object provides a method of operating a filming room kiosk and an operation server interlocked with a user terminal.

상기 동작 방법은, 상기 촬영룸 키오스크로부터 상기 사용자 단말의 사용자가 선택한 촬영 컨셉에 기초하여 기기 제어 신호를 생성하는 동작(operation); 상기 기기 제어 신호에 따라 상기 촬영룸 키오스크를 이용하여 촬영된 이미지를 공유 이미지로 설정하고, 설정된 공유 이미지를 상기 사용자 단말 또는 상기 촬영룸 키오스크에 공유하는 동작; 및 서로 다른 제1 촬영룸 키오스크와 제2 촬영룸 키오스크 각각의 카메라를 통해 실시간으로 획득된 제1 영상과 제2 영상을 합성하는 동작을 포함한다. The operation method may include: generating a device control signal from the photographing room kiosk based on a photographing concept selected by a user of the user terminal; setting an image photographed using the photographing room kiosk as a shared image according to the device control signal, and sharing the set shared image with the user terminal or the photographing room kiosk; and synthesizing the first image and the second image acquired in real time through the respective cameras of the first and second photographing room kiosks, which are different from each other.

상기 촬영룸 키오스크는, 상기 사용자 단말의 상기 사용자로부터 입력을 수신하고, 내장된 카메라를 이용하여 촬영된 상기 이미지를 디스플레이를 통해 상기 사용자에게 표시하도록 촬영룸에 구비된다.The photographing room kiosk is provided in the photographing room to receive an input from the user of the user terminal and display the image photographed using a built-in camera to the user through a display.

상기 사용자 단말은, 상기 운영 서버와 통신하여 상기 이미지를 획득한다.The user terminal acquires the image by communicating with the operation server.

상기 목적을 달성하기 위한 본 발명의 다른 측면은, 상기 동작 방법을 실행시키기 위한 프로그램이 기록되고, 컴퓨터에 의해 읽혀질 수 있는, 비일시적 기록매체을 제공한다.Another aspect of the present invention for achieving the above object provides a non-transitory recording medium in which a program for executing the operating method is recorded and readable by a computer.

상기 목적을 달성하기 위한 본 발명의 다른 측면은, 운영 서버에서, 상기 동작 방법을 실행시키기 위하여 비일시적 기록매체에 기록된 컴퓨터 프로그램을 제공한다.Another aspect of the present invention for achieving the above object provides a computer program recorded in a non-transitory recording medium in order to execute the operating method in an operating server.

상기 목적을 달성하기 위한 본 발명의 다른 측면은, 촬영룸 키오스크 및 사용자 단말과 연동된 운영 서버를 제공한다.Another aspect of the present invention for achieving the above object provides an operation server interworking with the shooting room kiosk and user terminal.

상기 운영 서버는, 상기 촬영룸 키오스크로부터 상기 사용자 단말의 사용자가 선택한 촬영 컨셉에 기초하여 기기 제어 신호를 생성하는 촬영 컨셉 제어부; 상기 기기 제어 신호에 따라 상기 촬영룸 키오스크를 이용하여 촬영된 이미지를 공유 이미지로 설정하고, 설정된 공유 이미지를 상기 사용자 단말 또는 상기 촬영룸 키오스크에 공유하는 공유 서비스 제공부; 및 서로 다른 제1 촬영룸 키오스크와 제2 촬영룸 키오스크 각각의 카메라를 통해 실시간으로 획득된 제1 영상과 제2 영상을 합성하는 영상 합성부를 포함한다.The operation server may include: a photographing concept control unit configured to generate a device control signal based on a photographing concept selected by a user of the user terminal from the photographing room kiosk; a sharing service providing unit that sets an image photographed using the photographing room kiosk as a shared image according to the device control signal, and shares the set shared image with the user terminal or the photographing room kiosk; and an image synthesizing unit for synthesizing the first image and the second image acquired in real time through the respective cameras of the first and second photographing room kiosks, which are different from each other.

상기 촬영룸 키오스크는, 상기 사용자 단말의 상기 사용자로부터 입력을 수신하고, 내장된 카메라를 이용하여 촬영된 상기 이미지를 디스플레이를 통해 상기 사용자에게 표시하도록 촬영룸에 구비된다.The photographing room kiosk is provided in the photographing room to receive an input from the user of the user terminal and display the image photographed using a built-in camera to the user through a display.

상기 사용자 단말은, 상기 운영 서버와 통신하여 상기 이미지를 획득한다.The user terminal acquires the image by communicating with the operation server.

본 문서에 개시되는 다양한 실시 예들에 따르면, 사진을 여러 번 촬영할 필요 없이, 촬영된 동영상에 기초하여 사진 프레임을 구성할 수 있어서 사용자에게 편의성을 제공할 수 있다.According to various embodiments disclosed in this document, it is possible to configure a photo frame based on a captured video without the need to take a photo multiple times, thereby providing convenience to the user.

또한, 다양한 실시 예들에 따르면, 사용자들간 시간이 맞지 않거나 거리가 멀어서 함께 촬영하기 힘든 경우에도 함께 촬영한 효과를 제공할 수 있다.In addition, according to various embodiments, it is possible to provide the effect of photographing together even when it is difficult for users to photograph together because the time does not match or the distance is far.

또한, 다양한 실시 예들에 따르면, 사용자가 원하는 필터 효과를 다른 이미지에서 추출해서 촬영된 이미지에 적용할 수 있다.Also, according to various embodiments, a filter effect desired by the user may be extracted from another image and applied to the captured image.

이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.In addition, various effects directly or indirectly identified through this document may be provided.

도 1은 일 실시 예에 따른 포토 스튜디오 운영 시스템을 도시한 도면이다.
도 2는 일 실시예에 따른 운영 서버의 구성을 도시한 도면이다.
도 3은 일 실시예에 따른 촬영 컨셉 제어부의 구성을 도시한 도면이다.
도 4는 일 실시예에 따른 컨셉 매핑 테이블의 일례를 도시한 도면이다.
도 5는 일 실시예에 따른 촬영 컨셉 제어 방법의 흐름도이다.
도 6은 일 실시예에 따른 촬영룸 서버의 구성을 도시한 도면이다.
도 7은 일 실시예에 따른 촬영룸 키오스크를 도시한 도면이다.
도 8은 일 실시예에 따른 사진 컨셉 데이터의 일례를 도시한 도면이다.
도 9는 사용자가 원하는 필터 효과가 적용된 소스 이미지로부터 필터 효과를 추출하고, 추출된 필터 효과를 운영 서버를 통해 획득된 이미지에 적용하는 과정을 나타낸 흐름도이다.
도 10은 둘 이상의 사용자들이 서로 시간이 맞지 않거나 서로 거리가 멀어 하나의 촬영룸 키오스크에서 함께 촬영이 불가능한 경우, 적어도 하나의 사용자가 촬영한 이미지를 배경 이미지로 활용하는 일 예시를 설명하기 위한 도면이다.
도 11은 둘 이상의 사용자가 시간이 맞지 않거나 서로 거리가 멀어 하나의 촬영룸 키오스크에서 함께 촬영이 불가능한 경우, 적어도 하나의 사용자가 촬영한 이미지를 배경 이미지로 활용하는 일 예시를 설명하기 위한 도면이다.
도 12는 제1 촬영룸 키오스크 및 제2 촬영룸 키오스크를 연동하여 원격으로 제1 사용자와 제2 사용자가 함께 촬영하는 것을 나타낸 도면이다.
도 13은 운영 서버를 통해 획득된 동영상에 기초하여 사진 프레임을 구성하는 것을 설명하기 위한 도면이다.
도 14는 획득된 동영상에 기초하여 사진 프레임을 구성하는 것을 설명하기 위한 도면이다.
도 15는 획득된 동영상에 대해 사용자의 드래그 입력에 기초하여 다양한 형태로 사진 프레임을 구성하는 것을 설명하기 위한 도면이다.
도 16은 일 실시예에 따른 사용자 단말(300)의 구성을 도시한 도면이다.
1 is a diagram illustrating a photo studio operating system according to an exemplary embodiment.
2 is a diagram illustrating the configuration of an operation server according to an embodiment.
3 is a diagram illustrating a configuration of a photographing concept control unit according to an exemplary embodiment.
4 is a diagram illustrating an example of a concept mapping table according to an embodiment.
5 is a flowchart of a method for controlling a shooting concept according to an exemplary embodiment.
6 is a diagram illustrating the configuration of a shooting room server according to an embodiment.
7 is a view showing a photographing room kiosk according to an embodiment.
8 is a diagram illustrating an example of photo concept data according to an embodiment.
9 is a flowchart illustrating a process of extracting a filter effect from a source image to which a user's desired filter effect is applied, and applying the extracted filter effect to an image obtained through an operation server.
FIG. 10 is a diagram for explaining an example of using an image photographed by at least one user as a background image when two or more users are unable to photograph together in one recording room kiosk because the time does not match or the distance is far from each other. .
11 is a view for explaining an example of using an image photographed by at least one user as a background image when two or more users cannot take pictures together in a single shooting room kiosk because the time does not match or the distance is far from each other.
12 is a diagram illustrating that the first user and the second user take a picture together remotely by linking the first shooting room kiosk and the second shooting room kiosk.
13 is a view for explaining the configuration of a photo frame based on a video acquired through an operation server.
14 is a diagram for explaining the construction of a photo frame based on an acquired video.
15 is a diagram for explaining how to configure a picture frame in various forms based on a user's drag input with respect to an acquired video.
16 is a diagram illustrating a configuration of a user terminal 300 according to an embodiment.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention. In describing each figure, like reference numerals have been used for like elements.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When an element is referred to as being “connected” or “connected” to another element, it is understood that it may be directly connected or connected to the other element, but other elements may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 일 실시 예에 따른 포토 스튜디오 운영 시스템(10)을 도시한 도면이다.1 is a diagram illustrating a photo studio operating system 10 according to an exemplary embodiment.

도 1을 참조하면, 일 실시예에 따른 포토 스튜디오 운영 시스템(10)은 운영 서버(100), 촬영룸 서버(200), 카메라(예: 도 6의 카메라(610))(210), 스피커(220), 조명(230), 센서(240), 디스플레이(예: 도 7의 디스플레이(620, 630))(250), 사용자 단말(300) 및 크리에이터 단말(400)을 포함할 수 있다.Referring to FIG. 1 , the photo studio operating system 10 according to an embodiment includes an operation server 100 , a shooting room server 200 , a camera (eg, the camera 610 of FIG. 6 ) 210 , and a speaker ( 220 ), a light 230 , a sensor 240 , a display (eg, the displays 620 and 630 of FIG. 7 ) 250 , a user terminal 300 , and a creator terminal 400 .

포토 스튜디오 운영 시스템(10) 내에 포함된 다양한 개체들(entities) 간의 통신은 유/무선 네트워크를 통해 수행될 수 있다. 유/무선 네트워크는 표준 통신 기술 및/또는 프로토콜들이 사용될 수 있다.Communication between various entities included in the photo studio operating system 10 may be performed through a wired/wireless network. A wired/wireless network may use standard communication technologies and/or protocols.

포토 스튜디오 운영 시스템(10) 내 운영 서버(100), 촬영룸 서버(200), 사용자 단말(300) 및 크리에이터 단말(400)은 예를 들어, 컴퓨터, UMPC(Ultra Mobile PC), 워크스테이션, 넷북(net-book), PDA(Personal Digital Assistants), 포터블(portable) 컴퓨터, 웹 타블렛(web tablet), 무선 전화기(wireless phone), 모바일 폰(mobile phone), 스마트폰(smart phone), PMP(portable multimedia player) 같은 전자 장치 중 하나로서, 일 실시예와 관련된 어플리케이션의 설치 및 실행이 가능한 모든 전자 장치를 포함할 수 있다. 전자 장치는 어플리케이션의 제어 하에 예를 들어, 서비스 화면의 구성, 데이터 입력, 데이터 송수신, 데이터 저장 등과 같은 서비스 전반의 동작을 수행할 수 있다.In the photo studio operating system 10, the operating server 100, the shooting room server 200, the user terminal 300, and the creator terminal 400 are, for example, a computer, an Ultra Mobile PC (UMPC), a workstation, a netbook. (net-book), PDA (Personal Digital Assistants), portable computer, web tablet, wireless phone, mobile phone, smart phone, PMP (portable) multimedia player), and may include all electronic devices capable of installing and executing an application related to an embodiment. The electronic device may perform overall service operations such as, for example, configuration of a service screen, data input, data transmission/reception, data storage, and the like, under the control of the application.

포토 스튜디오 운영 시스템(10) 내 촬영룸 서버(200), 카메라(210) 및 디스플레이(250)는 촬영룸 키오스크(600)로 구성될 수 있다. 촬영룸 키오스크(600)에 대해서는 이하 도 6에서 자세히 설명하도록 한다.The shooting room server 200 , the camera 210 , and the display 250 in the photo studio operating system 10 may be configured as a shooting room kiosk 600 . The photographing room kiosk 600 will be described in detail below with reference to FIG. 6 .

운영 서버(100)는 포토 스튜디오 운영과 관련된 다양한 기능을 제공하는 서버이다.The operation server 100 is a server that provides various functions related to operation of the photo studio.

운영 서버(100)는 사용자가 선택한 촬영 컨셉에 따라, 촬영룸의 조명, 음악 및 카메라를 제어할 수 있다.The operation server 100 may control the lighting, music, and camera of the shooting room according to the shooting concept selected by the user.

운영 서버(100)는 사용자로부터 사진 컨셉 데이터을 수신하여, 사진 컨셉 데이터에 따라 촬영룸의 조명, 음악 및 카메라를 제어하고, 출력되는 사진의 사진 프레임을 변경할 수 있다.The operation server 100 may receive the photo concept data from the user, control the lighting, music, and camera of the shooting room according to the photo concept data, and change the photo frame of the output photo.

운영 서버(100)는 디스플레이를 구비한 촬영룸 키오스크(600)에 광고를 제공하여 사용자에게 광고를 제공할 수 있다. 촬영룸 키오스크(600)는 광고에 반응한 사용자의 식별 정보, 광고 식별 정보 및 사용자 반응 유형을 포함하는 광고 반응 데이터를 생성하여 운영 서버(100)에 전송할 수 있다.The operation server 100 may provide an advertisement to a user by providing an advertisement to the shooting room kiosk 600 having a display. The shooting room kiosk 600 may generate advertisement response data including identification information of a user who responded to an advertisement, advertisement identification information, and a user reaction type, and transmit it to the operation server 100 .

운영 서버(100)는 촬영룸 서버(200)에 기기 제어 신호를 전송하여, 촬영룸에 구비된 다양한 기기들을 제어할 수 있다.The operation server 100 may transmit a device control signal to the photographing room server 200 to control various devices provided in the photographing room.

운영 서버(100)는 카메라(210)에서 촬영된 사진 및/또는 동영상을 사용자 단말(300)에 전송할 수 있으며, 사용자 단말(300)로부터 사진 켄셉을 수신할 수 있다.The operation server 100 may transmit a photo and/or a video taken by the camera 210 to the user terminal 300 , and may receive a photo concept from the user terminal 300 .

운영 서버(100)는 크리에이터 단말(400)에서 미리 제작된 사진 프레임의 디자인을 제공받아 저장할 수 있다. 운영 서버(100)는 제공 받은 사진 프레임의 디자인을 촬영룸 서버(200) 및/또는 사용자 단말(300)에 제공할 수 있다. 사진 프레임의 디자인은 사진 프레임의 컬러, 사진 프레임의 무늬 등을 포함할 수 있다.The operation server 100 may receive and store the design of the photo frame pre-fabricated from the creator terminal 400 . The operation server 100 may provide the design of the provided photo frame to the shooting room server 200 and/or the user terminal 300 . The design of the photo frame may include a color of the photo frame, a pattern of the photo frame, and the like.

운영 서버(100)의 구체적인 구성 및 기능에 대해서는 이하 도 2에서 자세히 설명하도록 한다.A detailed configuration and function of the operation server 100 will be described in detail below with reference to FIG. 2 .

촬영룸 서버(200)는 촬영룸에 구비되어, 사용자에게 사진 촬영에 필요한 다양한 기능들을 제공하는 서버이다. 촬영룸 서버(200)는 촬영된 사진 및/또는 촬영된 동영상을 운영 서버(100)에 제공할 수 있다.The photographing room server 200 is a server provided in the photographing room to provide users with various functions necessary for photographing. The recording room server 200 may provide a photographed picture and/or a photographed video to the operation server 100 .

촬영룸 서버(200)는 운영 서버(100)으로부터 수신된 기기 제어 신호를 이용하여, 촬영룸에 구비된 카메라(210), 스피커(220), 조명(230) 및 센서(240)를 제어할 수 있다.The shooting room server 200 can control the camera 210, the speaker 220, the lighting 230 and the sensor 240 provided in the shooting room by using the device control signal received from the operation server 100. there is.

촬영룸 서버(200)는 센서(240)로부터 센서 값을 수신하여, 수신된 센서 값을 운영 서버(100)에 전송할 수 있다.The photographing room server 200 may receive a sensor value from the sensor 240 and transmit the received sensor value to the operation server 100 .

촬영룸 서버(200)는 터치 스크린, 키보드, 마우스 및 마이크로폰과 같은 입력 수단을 구비할 수 있으며, 촬영룸 서버(200)는 입력 수단을 통해 사용자로부터 촬영 설정 정보, 기기 제어 정보, 사진 프레임 정보를 입력 받을 수 있다.The shooting room server 200 may include input means such as a touch screen, a keyboard, a mouse and a microphone, and the shooting room server 200 receives shooting setting information, device control information, and photo frame information from the user through the input means. can be input.

일 실시예의 촬영 설정 정보는 촬영 컨셉, 사진 크기, 촬영 수 등을 포함할 수 있으며, 기기 제어 정보는 카메라 파라미터, 조명 조도, 조명 색상, 촬영 음악, 스피커 음량 등을 포함할 수 있으며, 사진 프레임 정보는 출력되는 사진의 프레임 디자인 정보를 포함할 수 있다.In an embodiment, the shooting setting information may include a shooting concept, photo size, number of shots, and the like, and the device control information may include camera parameters, illumination intensity, lighting color, shooting music, speaker volume, etc., and photo frame information may include frame design information of the output photo.

촬영룸 서버(200)는 디스플레이 기기, 스피커와 같은 출력 수단을 구비할 수 있으며, 촬영룸 서버(200)는 출력 수단을 통해 사용자에게 사진 촬영에 필요한 다양한 정보를 출력할 수 있다. 일례로, 촬영룸 서버(200)는 사용자가 선택 가능한 촬영 컨셉 및 사용자가 촬영한 사진을 출력할 수 있다.The photographing room server 200 may include output means such as a display device and a speaker, and the photographing room server 200 may output various information necessary for photographing to the user through the output means. For example, the shooting room server 200 may output a shooting concept selectable by the user and a picture taken by the user.

촬영룸 서버(200)는 운영 서버(100)로부터 광고를 수신하여, 출력 수단을 통해 사용자에게 광고를 출력할 수 있다. 사용자가 광고에 반응하는 경우, 촬영룸 서버(200)는 사용자 반응 정보를 생성하여, 운영 서버(100)에 전송할 수 있다.The shooting room server 200 may receive an advertisement from the operation server 100 and output the advertisement to the user through an output means. When the user responds to the advertisement, the shooting room server 200 may generate user reaction information and transmit it to the operation server 100 .

촬영룸 서버(200)는 사용자에게 사진 촬영에 필요한 결제 기능을 제공할 수 있다.The photographing room server 200 may provide a payment function necessary for photographing to the user.

촬영룸 서버(200)는 사용자가 촬영한 사진을 출력하는 사진 인화 기능을 제공할 수 있다.The shooting room server 200 may provide a photo printing function for outputting a photo taken by the user.

촬영룸 서버(200)는 운영 서버(100)로부터 특정 광고를 제공받을 수 있고, 디스플레이(250)를 통해 사용자에게 광고를 제공할 수 있다. 촬영룸 서버(200)는 광고에 반응한 사용자의 식별 정보, 광고 식별 정보 및 사용자 반응 유형을 포함하는 광고 반응 데이터를 생성하여 운영 서버(100)에 전송할 수 있다.The shooting room server 200 may receive a specific advertisement from the operation server 100 , and may provide an advertisement to the user through the display 250 . The shooting room server 200 may generate advertisement response data including identification information of a user who responded to the advertisement, advertisement identification information, and a user reaction type, and transmit it to the operation server 100 .

카메라(210)는 촬영룸에 구비되며, 사용자가 카메라(210)를 이용하여 직접 사진을 촬영할 수 있다.The camera 210 is provided in the photographing room, and a user can take a picture directly by using the camera 210 .

카메라(210)는 촬영룸 서버(200)를 통해 사용자가 입력한 카메라 파라미터를 적용하여, 사진을 촬영할 수 있다.The camera 210 may take a picture by applying the camera parameter input by the user through the shooting room server 200 .

카메라(210)는 사진 촬영 뿐 아니라, 동영상을 촬영할 수 있다. 동영상 촬영 기능은 촬영룸 키오스크(600) 및/또는 사용자 단말(300)을 통해서 제어될 수 있다.The camera 210 may take a picture as well as a video. The video recording function may be controlled through the recording room kiosk 600 and/or the user terminal 300 .

일 실시예의 카메라 파라미터는 이미지의 화질, 크기, 카메라의 감도(ISO), 필터, 조리개, 셔터 스피드 등의 값을 포함할 수 있다.The camera parameter according to an exemplary embodiment may include values such as image quality, size, camera sensitivity (ISO), filter, aperture, shutter speed, and the like.

전술한 바와 같이, 촬영룸 서버(200), 카메라(210), 스피커(220) 및 디스플레이(250)는 촬영룸 키오스크(600)로 구성될 수 있다. 즉, 촬영룸 서버(200)와 카메라(210), 스피커(220) 및 디스플레이(250)가 통합되어, 하나의 촬영룸 키오스크(600)로 구성될 수 있다.As described above, the shooting room server 200 , the camera 210 , the speaker 220 and the display 250 may be configured as the shooting room kiosk 600 . That is, the recording room server 200 , the camera 210 , the speaker 220 and the display 250 may be integrated to form a single recording room kiosk 600 .

본 명세서에서는 촬영룸 서버(200)와 촬영룸 키오스크(600)는 동일한 구성으로 설명하도록 한다. 즉 촬영룸 서버(200)에서 구현되는 모든 기능은 촬영룸 키오스크(600)로 동일하게 구현가능하다 하겠다.In this specification, the shooting room server 200 and the shooting room kiosk 600 will be described in the same configuration. That is, all functions implemented in the shooting room server 200 can be implemented in the same way as the shooting room kiosk 600 .

스피커(220)는 촬영룸에 구비되며, 촬영 음악을 재생할 수 있다.The speaker 220 is provided in the shooting room, and can play shooting music.

조명(230)은 촬영룸에 구비된 다수의 조명 기기를 포함할 수 있으며, 기기 제어 신호에 따라 빛을 출력할 수 있다.The lighting 230 may include a plurality of lighting devices provided in the photographing room, and may output light according to a device control signal.

센서(240)는 촬영룸에 구비된 움직임 센서(241), 음성 센서(242) 및 조도 센서(243)를 포함할 수 있다.The sensor 240 may include a motion sensor 241 , a voice sensor 242 , and an illuminance sensor 243 provided in the photographing room.

움직임 센서(241)는 사용자의 움직임에 따라 발생되는 움직임 신호를 감지할 수 있다. 음성 센서(242)는 사용자의 움직임에 따라 발생되는 음향 신호 및 사용자의 특정 상황에 따라 발할 수 있는 음성 명령 신호를 감지할 수 있다. 조도 센서(243)는 사용자 위치에서의 조도 값을 인식할 수 있다.The motion sensor 241 may detect a motion signal generated according to a user's motion. The voice sensor 242 may detect an acoustic signal generated according to a user's movement and a voice command signal that may be issued according to a specific situation of the user. The illuminance sensor 243 may recognize an illuminance value at the user's location.

사용자 단말(300)은 운영 서버(100)로부터 획득된 이미지 및/또는 동영상을 사용자에게 표시할 수 있다. 사용자 단말(300)은 운영 서버(100)로부터 획득된 이미지 및/또는 동영상을 편집할 수 있다. 사용자 단말(300)은 운영 서버(100)로부터 획득된 이미지 및/또는 동영상에 기초하여 사진 프레임을 생성할 수 있다. The user terminal 300 may display the image and/or video obtained from the operation server 100 to the user. The user terminal 300 may edit an image and/or a video obtained from the operation server 100 . The user terminal 300 may generate a photo frame based on an image and/or a video obtained from the operation server 100 .

사용자 단말(300)은 사용자가 생성한 사진 컨셉 데이터를 운영 서버(100)에 전송할 수 있다.The user terminal 300 may transmit the photo concept data generated by the user to the operation server 100 .

사용자 단말(300)의 구체적인 구성 및 기능에 대해서는 이하 도 9 내지 도 15에서 자세히 설명하도록 한다.A detailed configuration and function of the user terminal 300 will be described in detail below with reference to FIGS. 9 to 15 .

도 2는 일 실시예에 따른 운영 서버(100)의 구성을 도시한 도면이다.2 is a diagram showing the configuration of the operation server 100 according to an embodiment.

도 2를 참조하면, 일 실시예에 따른 운영 서버(100)는 통신부(110), 입력부(120), 출력부(130), 메모리(140), 전원 공급부(150) 및 제어부(160)를 포함할 수 있다. 제어부(160)는 촬영 컨셉 제어부(161), 공유 서비스 제공부(162) 및 영상 합성부(163)를 포함하여 구성될 수 있다.Referring to FIG. 2 , the operation server 100 according to an embodiment includes a communication unit 110 , an input unit 120 , an output unit 130 , a memory 140 , a power supply unit 150 , and a control unit 160 . can do. The control unit 160 may include a shooting concept control unit 161 , a sharing service providing unit 162 , and an image synthesis unit 163 .

도 2에 도시된 구성들은 본 발명의 실시 예들을 구현하기 위한 예시도이며, 당업자에게 자명한 수준의 적절한 하드웨어/소프트웨어 구성들이 운영 서버(100)에 추가로 포함될 수 있다.The configurations shown in FIG. 2 are exemplary diagrams for implementing embodiments of the present invention, and appropriate hardware/software configurations at a level apparent to those skilled in the art may be additionally included in the operation server 100 .

통신부(110)는 다양한 통신 방식을 통해 외부의 장치와 통신을 수행할 수 있다. 일례로, 통신부(110)는 촬영룸 서버(200) 및 사용자 단말(300)과 통신을 수행하여 다양한 데이터를 송수신할 수 있다.The communication unit 110 may communicate with an external device through various communication methods. For example, the communication unit 110 may transmit and receive various data by performing communication with the shooting room server 200 and the user terminal 300 .

입력부(120)는 운영 서버(100)의 사용자인 운영자의 다양한 입력을 수신하여 제어부(160)로 전달할 수 있다. 특히, 입력부(120)는 터치 센서, (디지털) 펜 센서, 압력 센서, 키 및 마이크로폰을 포함할 수 있다. 터치 센서는, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. (디지털) 펜 센서는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트를 포함할 수 있다. 키는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. 마이크로폰은 운영자 음성을 수신하기 위한 구성으로, 운영 서버(100) 내부에 구비될 수 있으나, 이는 일 실시예에 불과할 뿐, 운영 서버(100)의 외부에 구비되어 운영 서버(100)와 전기적으로 연결될 수 있다.The input unit 120 may receive various inputs of an operator who is a user of the operation server 100 and transmit it to the control unit 160 . In particular, the input unit 120 may include a touch sensor, a (digital) pen sensor, a pressure sensor, a key, and a microphone. The touch sensor may use, for example, at least one of a capacitive type, a pressure sensitive type, an infrared type, and an ultrasonic type. The (digital) pen sensor may be, for example, a part of a touch panel or may include a separate recognition sheet. The key may include, for example, a physical button, an optical key, or a keypad. The microphone is a configuration for receiving an operator's voice, and may be provided inside the operation server 100, but this is only an example, and it is provided outside of the operation server 100 to be electrically connected to the operation server 100. can

출력부(130)는 다양한 화면을 제공할 수 있다. 일례로, 출력부(130)는 운영자에게 컨셉 매핑 테이블, 사진 컨셉 데이터를 출력할 수 있다.The output unit 130 may provide various screens. For example, the output unit 130 may output a concept mapping table and photo concept data to the operator.

메모리(140)는 운영 서버(100)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 특히, 메모리(140)는 비휘발성 메모리, 휘발성 메모리, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다. 메모리(140)는 제어부(160)에 의해 액세스되며, 제어부(160)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다. 본 발명에서 메모리라는 용어는 메모리(140), 제어부(160) 내 롬(미도시), 램(미도시) 또는 운영 서버(100)에 장착되는 메모리 카드(미도시)(예를 들어, micro SD 카드, 메모리 스틱)를 포함할 수 있다. 또한, 메모리(140)에는 출력부(130)의 디스플레이 영역에 표시될 각종 화면을 구성하기 위한 프로그램 및 데이터 등이 저장될 수 있다.The memory 140 may store commands or data related to at least one other component of the operation server 100 . In particular, the memory 140 may be implemented as a non-volatile memory, a volatile memory, a flash-memory, a hard disk drive (HDD), or a solid state drive (SSD). The memory 140 is accessed by the controller 160 , and reading/writing/modification/deletion/update of data by the controller 160 may be performed. In the present invention, the term "memory" refers to a memory 140, a ROM (not shown) in the controller 160, a RAM (not shown), or a memory card (not shown) mounted in the operation server 100 (eg, micro SD). card, memory stick). In addition, programs and data for configuring various screens to be displayed on the display area of the output unit 130 may be stored in the memory 140 .

전원 공급부(150)는 제어부(160)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 150 receives external power and internal power under the control of the control unit 160 to supply power necessary for the operation of each component.

제어부(160)는 통신부(110), 입력부(120), 출력부(130), 메모리(140) 및 전원 공급부(150)와 전기적으로 연결되어, 운영 서버(100)의 전반적인 동작 및 기능을 제어할 수 있다. 특히, 제어부(160)는 메모리(140)에 저장된 다양한 모듈을 이용하여 후술하는 기능을 제공할 수 있다.The control unit 160 is electrically connected to the communication unit 110 , the input unit 120 , the output unit 130 , the memory 140 , and the power supply unit 150 to control the overall operation and function of the operation server 100 . can In particular, the controller 160 may provide functions to be described later using various modules stored in the memory 140 .

이하에서 설명되는 운영 서버(100) 상의 다양한 동작은 제어부(160)의 제어에 의해서 수행될 수 있음은 자명할 것이다.It will be apparent that various operations on the operation server 100 described below may be performed under the control of the controller 160 .

전술한 바와 같이, 제어부(160)는 촬영 컨셉 제어부(161), 공유 서비스 제공부(162) 및 영상 합성부(163)를 포함하여 구성될 수 있다.As described above, the control unit 160 may include a shooting concept control unit 161 , a sharing service providing unit 162 , and an image synthesis unit 163 .

촬영 컨셉 제어부(161)는 사용자가 선택한 촬영 컨셉에 따라, 촬영룸의 조명, 음악 및 카메라를 제어할 수 있다.The shooting concept controller 161 may control the lighting, music, and camera of the shooting room according to the shooting concept selected by the user.

촬영 컨셉 제어부(161)는 촬영룸 서버(200)로부터 수신된 촬영 컨셉을 이용하여, 촬영룸의 조명, 스피커 및 카메라의 제어 신호를 생성할 수 있다. 촬영 컨셉 제어부(161)는 컨셉 매핑 테이블을 이용하여, 촬영룸의 조명, 스피커 및 카메라의 제어 신호를 포함하는 기기 제어 신호를 생성할 수 있다. 여기서 카메라의 제어 신호는 전술한 카메라 파라미터와 동일한 신호이다. 촬영 컨셉은 사진 컨셉 및/또는 동영상 컨셉으로도 이해될 수 있다.The shooting concept control unit 161 may use the shooting concept received from the shooting room server 200 to generate control signals for lighting, a speaker, and a camera of the shooting room. The photographing concept controller 161 may generate a device control signal including control signals of lighting, a speaker, and a camera of the photographing room by using the concept mapping table. Here, the control signal of the camera is the same signal as the above-described camera parameter. The shooting concept may also be understood as a photo concept and/or a video concept.

촬영 컨셉 제어부(161)는 사용자로부터 사진 컨셉 데이터를 수신하여, 사진 컨셉 데이터에 따라 촬영룸의 조명, 음악 및 카메라를 제어하고, 출력되는 사진의 사진 프레임을 변경할 수 있다. 사진 프레임 정보는 출력되는 사진의 프레임 디자인 정보를 포함할 수 있다.The photography concept control unit 161 may receive photo concept data from the user, control lighting, music, and a camera in the shooting room according to the photo concept data, and change a photo frame of an output photo. The photo frame information may include frame design information of an output photo.

촬영 컨셉 제어부(161)는 다른 사용자가 사진 컨셉 데이터를 이용하여, 촬영 컨셉을 촬영룸에 적용하거나 촬영된 사진을 출력하는 경우, 촬영 컨셉 제어부(161)는 창작자 정보 내 포함된 사진 컨셉 데이터의 사용 횟수를 증가시켜, 사진 컨셉 데이터를 업데이트할 수 있다.When another user applies a photography concept to a photographing room or outputs a photographed picture using the photograph concept data, the photographing concept control unit 161 uses the photograph concept data included in the creator information. By increasing the number of times, the photo concept data can be updated.

일 실시예의 사진 컨셉 데이터는 컨셉 맵핑 테이블, 사진 프레임 정보 및 창작자 정보를 포함할 수 있다. 사용자는 촬영룸 키오스크(600) 또는 사용자 단말(300)을 통해, 사진 컨셉 데이터를 생성할 수 있으며, 촬영룸 키오스크(600) 또는 사용자 단말(300)은 생성된 사진 컨셉 데이터를 운영 서버(100)에 전송할 수 있다. 이를 위해, 촬영룸 키오스크(600) 또는 사용자 단말(300)은 사진 컨셉 데이터를 생성할 수 있는 인터페이스를 사용자에게 제공할 수 있다. 상기 창작자 정보는 사진 컨셉 데이터를 생성한 사용자의 식별 정보 및 사진 컨셉 데이터의 사용 횟수를 포함할 수 있다.The photo concept data according to an embodiment may include a concept mapping table, photo frame information, and creator information. The user may generate photo concept data through the shooting room kiosk 600 or the user terminal 300, and the shooting room kiosk 600 or the user terminal 300 operates the generated photo concept data to the operation server 100 can be sent to To this end, the shooting room kiosk 600 or the user terminal 300 may provide an interface for generating photo concept data to the user. The creator information may include identification information of a user who generated the photo concept data and the number of times the photo concept data is used.

촬영 컨셉 제어부(161)의 구체적인 구성 및 기능에 대해서는 이하 도 3에서 자세히 설명하도록 한다.A detailed configuration and function of the shooting concept control unit 161 will be described in detail below with reference to FIG. 3 .

촬영룸 키오스크(600)는 복수 개의 촬영룸 키오스크를 포함할 수 있고, 공유 서비스 제공부(162)는 제1 사용자가 촬영한 이미지를 제2 사용자가 이용하도록 하기 위한 공유 서비스를 제공할 수 있다. 공유 서비스 제공부(162)의 동작에 대해서는 이하 도 10 및 도 11에서 자세히 설명하도록 한다.The photographing room kiosk 600 may include a plurality of photographing room kiosks, and the sharing service providing unit 162 may provide a sharing service for allowing the second user to use the image photographed by the first user. The operation of the shared service providing unit 162 will be described in detail below with reference to FIGS. 10 and 11 .

영상 합성부(163)는 복수 개의 촬영룸 키오스크 각각의 카메라를 통해 획득된 영상을 합성하여 복수 개의 촬영룸 키오스크에 합성된 영상을 제공할 수 있다. 영상 합성부(163)의 동작에 대해서는 이하 도 12에서 자세히 설명하도록 한다.The image synthesizing unit 163 may provide the synthesized images to the plurality of recording room kiosks by synthesizing the images obtained through the respective cameras of the plurality of photographing room kiosks. The operation of the image synthesis unit 163 will be described in detail below with reference to FIG. 12 .

제어부(160)는 통신부(110)를 제어하여, 촬영룸 서버(200)에 기기 제어 신호를 전송하여, 촬영룸에 구비된 다양한 기기들을 제어할 수 있다.The controller 160 may control the communication unit 110 to transmit a device control signal to the photographing room server 200 to control various devices provided in the photographing room.

일 실시예의 기기 제어 신호는 촬영 컨셉 제어부(161)에서 생성된 조명, 스피커 및 카메라 제어 신호(카메라 파라미터), 공유 서비스 제공부(162)에서 생성된 조명 제어 신호, 영상 합성부(163)에서 생성된 카메라 파라미터를 포함할 수 있다.The device control signal of an embodiment is generated by the lighting, speaker and camera control signal (camera parameter) generated by the shooting concept control unit 161, the lighting control signal generated by the sharing service providing unit 162, and the image synthesis unit 163 may include the specified camera parameters.

제어부(160)는 통신부(110)를 제어하여, 카메라(210)에서 촬영된 사진을 사용자 단말(300)에 전송할 수 있다.The controller 160 may control the communication unit 110 to transmit a picture taken by the camera 210 to the user terminal 300 .

제어부(160)는 입력부(120)를 통해, 운영자로부터 촬영 컨셉 매핑 테이블 관련 데이터를 입력받을 수 있다.The controller 160 may receive data related to the shooting concept mapping table from the operator through the input unit 120 .

도 3은 일 실시예에 따른 촬영 컨셉 제어부(161)의 구성을 도시한 도면이다.3 is a diagram illustrating the configuration of the photographing concept control unit 161 according to an exemplary embodiment.

도 3을 참조하면, 일 실시예에 따른 촬영 컨셉 제어부(161)는 컨셉 매핑 테이블 생성부(171), 컨셉 매핑 테이블 DB(172) 및 기기 제어 신호 생성부(173)를 포함할 수 있다.Referring to FIG. 3 , the photographing concept controller 161 according to an embodiment may include a concept mapping table generator 171 , a concept mapping table DB 172 , and a device control signal generator 173 .

컨셉 매핑 테이블 생성부(171)는 운영자로부터 데이터를 입력받아 촬영 컨셉 매핑 테이블(174)을 생성하고, 생성된 컨셉 매핑 테이블(174)을 컨셉 매핑 DB(172)에 저장할 수 있다. 기기 제어 신호 생성부(173)는 컨셉 매핑 테이블(174)을 이용하여, 사용자가 선택한 촬영 컨셉에 대한 기기 제어 신호를 생성할 수 있다.The concept mapping table generation unit 171 may receive data from an operator, generate a photographing concept mapping table 174 , and store the generated concept mapping table 174 in the concept mapping DB 172 . The device control signal generator 173 may generate a device control signal for a shooting concept selected by the user by using the concept mapping table 174 .

도 4는 일 실시예에 따른 컨셉 매핑 테이블(174)의 일례를 도시한 도면이다.4 is a diagram illustrating an example of a concept mapping table 174 according to an embodiment.

도 4를 참조하면, 일 실시예의 컨셉 매핑 테이블(174)은 촬영 컨셉 명, 촬영 컨셉 이미지, 음악, 배경 이미지, 촬영룸에 구비된 조명 기기의 빛 색상 및 조도 정보, 카메라 파라미터를 포함하는 데이터 구조이다.Referring to FIG. 4 , a concept mapping table 174 according to an embodiment is a data structure including a photographing concept name, a photographing concept image, music, a background image, light color and illuminance information of a lighting device provided in a photographing room, and camera parameters. am.

촬영 컨셉 제어부(161)는 생성된 컨셉 매핑 테이블(174)을 촬영룸 서버(200)에 전송하고, 촬영룸 서버(200)는 사용자에게 선택 가능한 촬영 컨셉을 출력 및 선택 입력받을 수 있다.The shooting concept control unit 161 transmits the generated concept mapping table 174 to the shooting room server 200 , and the shooting room server 200 may output and select a shooting concept selectable by the user.

촬영 컨셉 제어부(161)는 촬영룸 서버(200)로부터 사용자가 선택한 촬영 컨셉을 전송받을 수 있다.The shooting concept control unit 161 may receive the shooting concept selected by the user from the shooting room server 200 .

촬영 컨셉 제어부(161)는 컨셉 매핑 테이블(174)을 이용하여, 사용자가 선택한 촬영 컨셉에 대한 기기 제어 신호를 생성할 수 있다.The shooting concept controller 161 may use the concept mapping table 174 to generate a device control signal for the shooting concept selected by the user.

촬영 컨셉 제어부(161)는 컨셉 매핑 테이블(174)을 이용하여, 사용자가 선택한 촬영 컨셉에 해당하는 음악, 배경 이미지, 촬영룸에 구비된 조명 기기의 빛 색상 및 조도 정보, 카메라 파라미터를 포함하는 컨셉 데이터를 추출할 수 있다.The shooting concept control unit 161 uses the concept mapping table 174 to include music corresponding to the shooting concept selected by the user, a background image, light color and illuminance information of lighting equipment provided in the shooting room, and camera parameters. data can be extracted.

촬영 컨셉 제어부(161)는 추출된 컨셉 데이터를 이용하여, 조명(230), 스피커(220), 카메라(210)의 제어 신호를 생성할 수 있다. 전술한 바와 같이, 여기서 카메라의 제어 신호는 전술한 카메라 파라미터와 동일한 신호이다.The photographing concept controller 161 may generate control signals for the lighting 230 , the speaker 220 , and the camera 210 by using the extracted concept data. As described above, here the control signal of the camera is the same signal as the above-mentioned camera parameter.

일례로, 사용자가 ‘컨셉 A’의 촬영 컨셉을 선택한 경우, 촬영 컨셉 제어부(161)는 컨셉 매핑 테이블(174)에서‘컨셉 A’에 해당하는 음악, 배경 이미지, 촬영룸에 구비된 조명 기기의 빛 색상 및 조도 정보, 카메라 파라미터를 포함하는 기기 제어 신호를 생성할 수 있다.For example, when the user selects the shooting concept of 'Concept A', the shooting concept control unit 161 controls the music corresponding to 'Concept A' in the concept mapping table 174, the background image, and lighting equipment provided in the shooting room. A device control signal including light color and illuminance information and camera parameters may be generated.

도 5는 일 실시예에 따른 촬영 컨셉 제어 방법의 흐름도이다.5 is a flowchart of a method for controlling a shooting concept according to an exemplary embodiment.

도 5를 참조하면, 일 실시예에 따른 촬영 컨셉 제어 방법은 촬영 컨셉 수신 단계(S100), 컨셉 데이터 추출 단계(S110) 및 기기 제어 신호 생성 단계(S120)를 포함할 수 있다.Referring to FIG. 5 , the method for controlling a shooting concept according to an embodiment may include a step of receiving a shooting concept ( S100 ), a step of extracting concept data ( S110 ), and a step of generating a device control signal ( S120 ).

상기 촬영 컨셉 제어 방법은, 촬영 컨셉 제어부(161)에 의해 수행될 수 있다.The shooting concept control method may be performed by the shooting concept controller 161 .

우선, 촬영 컨셉 수신 단계(S100)로, 촬영 컨셉 제어부(161)는 촬영룸 서버(200)로부터 사용자가 선택한 촬영 컨셉을 전송받을 수 있다.First, in the photographing concept receiving step ( S100 ), the photographing concept control unit 161 may receive the photographing concept selected by the user from the photographing room server 200 .

그리고, 컨셉 데이터 추출 단계(S110)로, 촬영 컨셉 제어부(161)는 컨셉 매핑 테이블(174)을 이용하여, 사용자가 선택한 촬영 컨셉에 해당하는 음악, 배경 이미지, 촬영룸에 구비된 조명 기기의 빛 색상 및 조도 정보, 카메라 파라미터를 포함하는 컨셉 데이터를 추출할 수 있다.And, in the concept data extraction step (S110), the shooting concept control unit 161 uses the concept mapping table 174, music corresponding to the shooting concept selected by the user, the background image, and the light of the lighting equipment provided in the shooting room. Concept data including color and illuminance information and camera parameters can be extracted.

그리고, 기기 제어 신호 생성 단계(S120)로, 촬영 컨셉 제어부(161)는 추출된 컨셉 데이터를 이용하여, 조명(230), 스피커(220), 카메라(210)의 제어 신호를 생성할 수 있다.Then, in the device control signal generating step ( S120 ), the shooting concept controller 161 may generate control signals for the lighting 230 , the speaker 220 , and the camera 210 using the extracted concept data.

이로써, 촬영 컨셉 제어부(161)는 사용자가 선택한 촬영 컨셉에 따라 촬영룸의 조명, 음악 및 카메라를 제어하여, 사용자가 원하는 컨셉에 따라 사진을 촬영할 수 있는 환경을 제공할 수 있다.Accordingly, the shooting concept control unit 161 may control the lighting, music, and camera of the shooting room according to the shooting concept selected by the user, thereby providing an environment in which the user can take a picture according to the desired concept.

도 6은 일 실시예에 따른 촬영룸 서버의 구성을 도시한 도면이다.6 is a diagram illustrating the configuration of a shooting room server according to an embodiment.

도 6를 참조하면, 일 실시예에 따른 촬영룸 서버(200)는 키오스크 통신부(201), 키오스크 입력부(202), 키오스크 출력부(203), 키오스크 메모리(204), 키오스크 전원 공급부(205), 키오스크 제어부(206) 및 카메라(210)를 포함할 수 있다.6, the shooting room server 200 according to an embodiment includes a kiosk communication unit 201, a kiosk input unit 202, a kiosk output unit 203, a kiosk memory 204, a kiosk power supply unit 205, It may include a kiosk control unit 206 and a camera 210 .

도 6에 도시된 구성들은 본 발명의 실시 예들을 구현하기 위한 예시도이며, 당업자에게 자명한 수준의 적절한 하드웨어/소프트웨어 구성들이 촬영룸 키오스크(600)에 추가로 포함될 수 있다.The configurations shown in FIG. 6 are exemplary diagrams for implementing embodiments of the present invention, and appropriate hardware/software configurations at a level obvious to those skilled in the art may be additionally included in the shooting room kiosk 600 .

키오스크 통신부(201)는 다양한 통신 방식을 통해 외부의 장치와 통신을 수행할 수 있다. 일례로, 키오스크 통신부(201)는 운영 서버(100) 및 사용자 단말(300)과 통신을 수행하여 다양한 데이터를 송수신할 수 있다.The kiosk communication unit 201 may communicate with an external device through various communication methods. For example, the kiosk communication unit 201 may transmit and receive various data by performing communication with the operation server 100 and the user terminal 300 .

키오스크 입력부(202)는 사용자의 다양한 입력을 수신하여 키오스크 제어부(206)로 전달할 수 있다. 특히, 키오스크 입력부(202)는 터치 센서, (디지털) 펜 센서, 압력 센서, 키 및 마이크로폰을 포함할 수 있다. 터치 센서는, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 마이크로폰은 사용자 음성을 수신하기 위한 구성으로, 촬영룸 키오스크(600) 내부에 구비될 수 있으나, 이는 일 실시예에 불과할 뿐, 촬영룸 키오스크(600)의 외부에 구비되어 촬영룸 키오스크(600)와 전기적으로 연결될 수 있다.The kiosk input unit 202 may receive various inputs from the user and transmit it to the kiosk control unit 206 . In particular, the kiosk input unit 202 may include a touch sensor, a (digital) pen sensor, a pressure sensor, a key, and a microphone. The touch sensor may use, for example, at least one of a capacitive type, a pressure sensitive type, an infrared type, and an ultrasonic type. The microphone is configured to receive a user's voice, and may be provided inside the recording room kiosk 600, but this is only an embodiment, and is provided outside the recording room kiosk 600 and may be electrically connected.

키오스크 출력부(203)는 다양한 화면을 제공할 수 있다. 일례로, 키오스크 출력부(203)는 사용자에게 카메라(210)의 영상, 촬영된 사진, 촬영 컨셉, 사진 프레임, 결제 정보, 광고 등을 출력할 수 있다.The kiosk output unit 203 may provide various screens. For example, the kiosk output unit 203 may output an image of the camera 210 , a photographed picture, a photographing concept, a picture frame, payment information, an advertisement, and the like to the user.

키오스크 메모리(204)는 촬영룸 키오스크(600)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 특히, 키오스크 메모리(204)는 비휘발성 메모리, 휘발성 메모리, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다. 키오스크 메모리(204)는 키오스크 제어부(206)에 의해 액세스되며, 키오스크 제어부(206)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다. 또한, 키오스크 메모리(204)에는 키오스크 출력부(203)의 디스플레이 영역에 표시될 각종 화면을 구성하기 위한 프로그램 및 데이터 등이 저장될 수 있다.The kiosk memory 204 may store commands or data related to at least one other component of the shooting room kiosk 600 . In particular, the kiosk memory 204 may be implemented as a non-volatile memory, a volatile memory, a flash-memory, a hard disk drive (HDD), or a solid state drive (SSD). The kiosk memory 204 is accessed by the kiosk control unit 206 , and reading/writing/modification/deletion/update of data by the kiosk control unit 206 may be performed. In addition, the kiosk memory 204 may store programs and data for configuring various screens to be displayed on the display area of the kiosk output unit 203 .

키오스크 전원 공급부(205)는 키오스크 제어부(206)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The kiosk power supply unit 205 receives external power and internal power under the control of the kiosk control unit 206 to supply power required for operation of each component.

키오스크 제어부(206)는 키오스크 통신부(201), 키오스크 입력부(202), 키오스크 출력부(203), 키오스크 메모리(204), 키오스크 전원 공급부(205), 키오스크 제어부(206) 및 카메라(210)와 전기적으로 연결되어, 촬영룸 키오스크(600)의 전반적인 동작 및 기능을 제어할 수 있다. 특히, 키오스크 제어부(206)는 키오스크 메모리(204)에 저장된 다양한 모듈을 이용하여 후술하는 기능을 제공할 수 있다.The kiosk control unit 206 includes a kiosk communication unit 201 , a kiosk input unit 202 , a kiosk output unit 203 , a kiosk memory 204 , a kiosk power supply unit 205 , a kiosk control unit 206 and a camera 210 and electrical to control the overall operation and function of the shooting room kiosk 600 . In particular, the kiosk control unit 206 may provide functions to be described later using various modules stored in the kiosk memory 204 .

한편, 전술한 촬영룸 서버(200)의 구성요소들은 후술하는 촬영룸 키오스크(600)의 일부로서(즉, 하드웨어 일부로서) 일체로 구성될 수 있다. 즉, 후술하는 촬영룸 키오스크(600)는 촬영룸 서버(200)의 구성요소들을 모두 포함하고, 촬영룸 서버(200)의 동작을 모두 수행할 수 있는 구성으로 해석될 수 있다.On the other hand, the above-described components of the shooting room server 200 may be integrally configured as a part (ie, as a part of hardware) as a part of the shooting room kiosk 600 to be described later. That is, the photographing room kiosk 600 to be described later includes all the components of the photographing room server 200 and may be interpreted as a configuration capable of performing all the operations of the photographing room server 200 .

도 7은 일 실시예에 따른 촬영룸 키오스크(600)를 도시한 도면이다.7 is a view showing a recording room kiosk 600 according to an embodiment.

도 7을 참조하면, 일 실시예에 따른 촬영룸 키오스크(600)는 키오스크 입력부(602)와 키오스크 출력부(603) 기능을 수행하는 디스플레이(620, 630)와 적어도 2개의 카메라(210-1, 601-2)를 포함하는 함체(Housing)로 구성될 수 있다.Referring to FIG. 7 , the recording room kiosk 600 according to an embodiment includes displays 620 and 630 and at least two cameras 210-1, which perform functions of a kiosk input unit 602 and a kiosk output unit 603. 601-2) may be configured as a housing.

디스플레이(620, 630)는 촬영룸 키오스크(600)에서 처리되는 정보를 표시 출력한다. 예를 들어, 촬영룸 키오스크(600)가 촬영 모드인 경우, 사진 촬영과 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시할 수 있다. 그리고, 촬영룸 키오스크(600)가 사진 출력 모드 또는 결제 모드인 경우, 촬영된 사진 또는/및 사진 프레임 관련 UI, GUI를 표시할 수 있다. 디스플레이(620, 630)는 터치 패드가 상호 레이어 구조를 이루어 터치 스크린으로 구성될 수 있으며, 디스플레이(620, 630)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이(620, 630)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. 그리고, 촬영룸 키오스크(600)의 구현 형태에 따라, 디스플레이(620, 630)는 2개 이상 존재할 수도 있다.The displays 620 and 630 display and output information processed in the shooting room kiosk 600 . For example, when the photographing room kiosk 600 is in the photographing mode, a user interface (UI) or a graphical user interface (GUI) related to photographing may be displayed. In addition, when the shooting room kiosk 600 is in the photo output mode or the payment mode, the captured photo and/or photo frame related UI and GUI may be displayed. The displays 620 and 630 may be configured as a touch screen by forming a layered structure of touch pads, and the displays 620 and 630 may be used as input devices in addition to output devices. The displays 620 and 630 include a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, and a three-dimensional display. (3D display) may include at least one of. And, depending on the implementation form of the shooting room kiosk 600, the display (620, 630) may exist two or more.

촬영룸 키오스크(600) 내 적어도 2개의 카메라(210-1, 210-2)는 디스플레이(620, 630)의 상하 양측에 구비될 수 있으며, 제 1 카메라(210-1)는 전신 촬영 카메라로, 제 2 카메라(210-2)는 반신 촬영 카메라로 사용될 수 있으며, 반대로 적용될 수 있다. 다른 실시 예에서, 적어도 2개의 카메라(210-1, 210-2)는 상하가 아닌 좌우로 배치될 수 있다. 적어도 2개의 카메라(210-1, 210-2)는 동등한 사양(예: 화소)을 가지는 동종의 카메라일 수 있으나, 제1 카메라(210-1)와 제2 카메라(210-2)는 다른 사양의 카메라로 구현될 수 있다. 촬영룸 키오스크(600)는 2개의 카메라(210-1, 210-2)를 통해 듀얼 카메라와 관련된 기능(예: 3D 촬영, 자동 초점(auto focus) 등)을 지원할 수 있다. 적어도 2개의 카메라 중 하나는 고속 촬영을 수행하고, 다른 하나는 저속 촬영을 수행할 수 있다.At least two cameras (210-1, 210-2) in the shooting room kiosk (600) may be provided on both upper and lower sides of the displays (620, 630), and the first camera (210-1) is a full-body camera, The second camera 210 - 2 may be used as a half-length camera, and vice versa. In another embodiment, the at least two cameras 210 - 1 and 210 - 2 may be arranged left and right instead of up and down. The at least two cameras 210-1 and 210-2 may be cameras of the same type having the same specifications (eg, pixels), but the first camera 210-1 and the second camera 210-2 have different specifications. It can be implemented with a camera of The shooting room kiosk 600 may support functions related to dual cameras (eg, 3D shooting, auto focus, etc.) through the two cameras 210 - 1 and 210 - 2 . One of the at least two cameras may perform high-speed imaging, and the other may perform time-lapse imaging.

도면에서 보는 바와 같이, 촬영룸 키오스크(600)는 사용자가 결제를 위해 카드를 투입할 수 있도록 구성된 카드 투입구와 출력된 사진이 배출되도록 구성된 사진 출력구를 포함하여 구성될 수 있다.As shown in the drawing, the shooting room kiosk 600 may include a card input hole configured to allow a user to insert a card for payment and a photo output hole configured to discharge the output photo.

촬영룸 키오스크(600)는 사용자에게 사진 컨셉 데이터를 입력할 수 있는 인터페이스를 제공할 수 있다. 사용자는 인터페이스를 통해, 사진 컨셉 데이터를 촬영룸 키오스크(600)에 입력할 수 있으며, 촬영룸 키오스크(600)는 입력된 사진 컨셉 데이터를 저장 및 운영 서버(100)에 전송할 수 있다.The shooting room kiosk 600 may provide an interface for inputting photo concept data to the user. The user may input the photo concept data to the shooting room kiosk 600 through the interface, and the shooting room kiosk 600 may transmit the input photo concept data to the storage and operation server 100 .

전술한 바와 같이, 일 실시예의 사진 컨셉 데이터는 컨셉 맵핑 테이블, 사진 프레임 정보 및 창작자 정보를 포함할 수 있다. 사용자는 촬영룸 키오스크(600) 또는 사용자 단말(300)을 통해, 사진 컨셉 데이터를 생성할 수 있으며, 촬영룸 키오스크(600) 또는 사용자 단말(300)은 생성된 사진 컨셉 데이터를 운영 서버(100)에 전송할 수 있다. 이를 위해, 촬영룸 키오스크(600) 또는 사용자 단말(300)은 사진 컨셉 데이터를 생성할 수 있는 인터페이스를 사용자에게 제공할 수 있다.As described above, the photo concept data according to an exemplary embodiment may include a concept mapping table, photo frame information, and creator information. The user may generate photo concept data through the shooting room kiosk 600 or the user terminal 300, and the shooting room kiosk 600 or the user terminal 300 operates the generated photo concept data to the operation server 100 can be sent to To this end, the shooting room kiosk 600 or the user terminal 300 may provide an interface for generating photo concept data to the user.

도 8은 일 실시예에 따른 사진 컨셉 데이터(175)의 일례를 도시한 도면이다.8 is a diagram illustrating an example of photo concept data 175 according to an embodiment.

도 8을 참조하면, 일 실시예의 사진 컨셉 데이터(175)는 촬영 컨셉 명, 촬영 컨셉 이미지, 음악, 배경 이미지, 촬영룸에 구비된 조명 기기의 빛 색상 및 조도 정보, 카메라 파라미터를 포함하는 컨셉 맵핑 테이블(174), 사진 프레임 정보(176) 및 창작자 정보(177)를 포함하는 데이터 구조이다.Referring to FIG. 8 , the photo concept data 175 of an embodiment is a concept mapping including a photographing concept name, a photographing concept image, music, a background image, light color and illuminance information of a lighting device provided in a photographing room, and camera parameters. It is a data structure including a table 174 , photo frame information 176 , and creator information 177 .

일 실시예의 사진 프레임 정보는 사진 프레임의 디자인 정보를 포함할 수 있다. 촬영룸 키오스크(600)는 사용자가 선택한 사진 프레임의 디자인 정보에 따라, 사진 프레임을 출력할 수 있다. 촬영룸 키오스크(600)는 사용자로부터 입력된 사진 컨셉 데이터(175)를 운영 서버(100)에 전송할 수 있다.The photo frame information according to an embodiment may include design information of the photo frame. The shooting room kiosk 600 may output a photo frame according to the design information of the photo frame selected by the user. The shooting room kiosk 600 may transmit the photo concept data 175 input from the user to the operation server 100 .

일 실시예의 창작자 정보(177)는 사진 컨셉 데이터를 생성한 사용자의 식별 정보 및 사진 컨셉 데이터의 사용 횟수를 포함할 수 있다.The creator information 177 according to an embodiment may include identification information of a user who has generated the photo concept data and the number of times the photo concept data is used.

사진 컨셉 데이터(175)는 촬영룸 키오스크(600)를 통해 입력받은 사용자의 입력에 기초하여 촬영룸 키오스크(600)에서 생성되거나, 사용자 단말(300)로부터 전송받을 수도 있다.The photo concept data 175 may be generated in the photographing room kiosk 600 based on a user's input received through the photographing room kiosk 600 or may be transmitted from the user terminal 300 .

촬영룸 키오스크(600)는 사진 컨셉 데이터(175)를 저장할 수 있으며, 촬영룸 키오스크(600)는 사용자에게 선택 가능한 촬영 컨셉 및 사진 프레임을 사용자에게 표시하고, 이에 따른 선택 입력을 받을 수 있다.The shooting room kiosk 600 may store photo concept data 175 , and the shooting room kiosk 600 may display a shooting concept and a photo frame selectable to the user to the user, and receive a selection input accordingly.

운영 서버(100)의 촬영 컨셉 제어부(161)는 촬영룸 키오스크(600)로부터 사진 컨셉 데이터(175)를 수신할 수 있다.The photographing concept control unit 161 of the operation server 100 may receive the photographing concept data 175 from the photographing room kiosk 600 .

촬영 컨셉 제어부(161)는 사진 컨셉 데이터(175)를 이용하여, 사용자가 선택한 사진 컨셉에 대한 기기 제어 신호를 생성할 수 있다. 기기 제어 신호는 촬영룸 서버(200)로(또는 촬영룸 키오스크(600)로) 전송되어 기기를 제어하기 위한 참조 신호로서 사용될 수 있다.The photographing concept controller 161 may use the photograph concept data 175 to generate a device control signal for the photograph concept selected by the user. The device control signal may be transmitted to the shooting room server 200 (or to the shooting room kiosk 600) and used as a reference signal for controlling the device.

촬영 컨셉 제어부(161)는 사진 컨셉 데이터(175)를 이용하여, 사용자가 선택한 사진 컨셉에 해당하는 음악, 배경 이미지, 촬영룸에 구비된 조명 기기의 빛 색상 및 조도 정보, 카메라 파라미터를 포함하는 컨셉 데이터를 추출할 수 있다.The photographing concept controller 161 uses the photographic concept data 175 to include music corresponding to the photographic concept selected by the user, a background image, light color and illuminance information of lighting equipment provided in the photographing room, and camera parameters. data can be extracted.

촬영 컨셉 제어부(161)는 추출된 컨셉 데이터를 이용하여, 조명(230), 스피커(220), 카메라(210)의 제어 신호를 생성할 수 있다. 전술한 바와 같이, 여기서 카메라의 제어 신호는 전술한 카메라 파라미터와 동일한 신호이다.The photographing concept controller 161 may generate control signals for the lighting 230 , the speaker 220 , and the camera 210 by using the extracted concept data. As described above, here the control signal of the camera is the same signal as the above-mentioned camera parameter.

촬영룸 키오스크(600)는 사용자가 선택한 사진 컨셉에 해당하는 사진 프레임 정보(176)를 이용하여, 촬영 사진을 출력할 수 있다.The photographing room kiosk 600 may output the photographed photograph by using the photograph frame information 176 corresponding to the photograph concept selected by the user.

도 9는 사용자가 원하는 필터 효과가 적용된 소스 이미지로부터 필터 효과를 추출하고, 추출된 필터 효과를 운영 서버(100)를 통해 획득된 이미지에 적용하는 과정을 나타낸 흐름도이다. 9 is a flowchart illustrating a process of extracting a filter effect from a source image to which a user's desired filter effect is applied, and applying the extracted filter effect to an image obtained through the operation server 100 .

일 실시 예에서, 사용자 단말(300)은 운영 서버(100)를 통해 획득된 이미지에 사용자 단말(300)에 저장되어 있는 필터 효과를 적용할 수 있다. 또한, 사용자 단말(300)은 사용자 단말(300)의 앨범에 저장되어 있는 이미지 중 필터 효과가 미리 적용된 이미지로부터 필터 효과를 추출하고, 추출된 필터 효과를 운영 서버(100)를 통해 획득된 이미지에 적용할 수 있다. 다른 실시 예에서, 사용자 단말(300)에 저장되어 있는 필터 효과 및/또는 사용자 단말(300)에서 추출된 필터 효과를 운영 서버(100)에 제공하여 촬영룸 키오스크(600)에 촬영되는 이미지 및 동영상에 적용할 수 있다. 이하, S910 내지 S940을 통해 상기 필터 효과를 추출하는 것을 설명할 것이다.In an embodiment, the user terminal 300 may apply a filter effect stored in the user terminal 300 to the image obtained through the operation server 100 . In addition, the user terminal 300 extracts a filter effect from an image to which the filter effect has been previously applied among images stored in the album of the user terminal 300 , and applies the extracted filter effect to the image obtained through the operation server 100 . can be applied In another embodiment, by providing the filter effect stored in the user terminal 300 and / or the filter effect extracted from the user terminal 300 to the operation server 100, the image and video taken in the recording room kiosk (600) can be applied to Hereinafter, extracting the filter effect through S910 to S940 will be described.

사용자 단말(300)은 사용자로부터 소스 이미지(source image)를 선택하는 입력을 획득할 수 있다(S910). 소스 이미지는 사용자 단말(300)의 카메라를 통해 촬영된 이미지일 수 있고, 외부 서버로부터 획득된 이미지일 수 있다. 소스 이미지는 필터 효과가 적용된 이미지일 수 있다. 예를 들어, 소스 이미지는 흑백 효과를 주는 필터, 빛바랜 느낌을 주는 필터 또는 파스텔 색감을 주는 필터, 윤곽선이 강조된 필터 중 적어도 하나의 필터 효과가 적용된 이미지일 수 있다. 상기 필터는 상기 제시된 필터 외에도 다양한 필터가 존재할 수 있다. 소스 이미지는 필터 효과를 추출할 이미지일 수 있다.The user terminal 300 may obtain an input for selecting a source image from the user (S910). The source image may be an image captured by the camera of the user terminal 300 or an image obtained from an external server. The source image may be an image to which a filter effect is applied. For example, the source image may be an image to which at least one filter effect of a filter giving a black and white effect, a filter giving a faded feeling, a filter giving a pastel color, and a filter emphasizing an outline is applied. As for the filter, various filters may exist in addition to the filter presented above. The source image may be an image from which a filter effect is to be extracted.

일 실시 예에서, 사용자 단말(300)은 소스 이미지로부터 원본 이미지를 결정할 수 있다(S920). 구체적으로 사용자 단말(300)은 필터 효과가 적용된 소스 이미지로부터 필터 효과가 적용되지 않은 원본 이미지를 추정할 수 있다. 사용자 단말(300)은 상기 소스 이미지 내의 객체들의 평균적인 특성에 기초하여 원본 이미지를 추정할 수 있다.In an embodiment, the user terminal 300 may determine an original image from the source image (S920). Specifically, the user terminal 300 may estimate the original image to which the filter effect is not applied from the source image to which the filter effect is applied. The user terminal 300 may estimate the original image based on average characteristics of objects in the source image.

사용자 단말(300)은 소스 이미지에 포함되어 있는 객체들을 인식할 수 있고, 인식된 객체가 가지는 평균적인 색감을 추정하여 원본 이미지를 추정할 수 있다. 다시 말해서, 사용자 단말(300)은 소스 이미지에서 인식된 객체들을 제외한 영역을 고려하지 않고, 인식된 객체들에 대응되는 픽셀의 컬러 값에 기초하여 원본 이미지를 추정할 수 있다. 예를 들어, 사용자 단말(300)은 소스 이미지에 포함되어 있는 객체(ex. 풀 또는 바다)를 인식할 수 있고, 소스 이미지에 흑백 필터가 적용되어 풀 또는 바다가 회색 색감을 가지는 것을 인식할 수 있다. 소스 이미지에 흑백 필터가 적용되어 풀 또는 바다가 회색 색감을 가지는 경우, 풀은 평균적으로 녹색 색감을 포함할 수 있고, 바다는 평균적으로 파란색 색감을 포함할 수 있으므로, 원본 이미지에서 풀은 녹색, 바다는 파란색 색감을 가질 수 있다. 즉, 사용자 단말(300)은 상기 소스 이미지에 포함된 객체(ex. 바다)의 색감(ex. 회색)과 상기 객체(ex. 바다)에 대해 미리 정의된 기준 색감(ex. 파란색)을 비교하여 원본 이미지를 추정할 수 있다.The user terminal 300 may recognize objects included in the source image, and estimate the original image by estimating an average color of the recognized object. In other words, the user terminal 300 may estimate the original image based on the color values of pixels corresponding to the recognized objects without considering regions excluding recognized objects from the source image. For example, the user terminal 300 may recognize an object (eg, pool or sea) included in the source image, and recognize that the pool or sea has a gray color by applying a black and white filter to the source image. there is. If a black and white filter is applied to the source image so that the grass or sea has a gray color, the grass may contain green color on average and the sea may contain blue color on average, so in the original image the grass will be green and sea may have a blue color. That is, the user terminal 300 compares the color (eg. gray) of the object (eg, the sea) included in the source image with the reference color (eg, blue) predefined for the object (eg. the sea). The original image can be estimated.

한편, 필터 효과는 이미지 전체에 적용되는 것이 일반적이지만, 특정 객체(예를 들어, 주된 인물이나 사물)에만 한정적으로 필터 효과가 적용되거나, 필터 효과가 이미지 내의 객체마다 다르게 적용되는 경우도 존재할 수 있다.On the other hand, although the filter effect is generally applied to the entire image, there may be cases where the filter effect is limitedly applied only to a specific object (eg, a main person or object), or the filter effect is applied differently to each object in the image. .

이러한 경우를 고려하여, 일 실시예에 따른 사용자 단말(300)은 원본 이미지를 추정할 때 정확성을 높이기 위하여, 소스 이미지에서 인식된 객체들이 소스 이미지에서 차지하는 객체의 면적에 따라 가중치를 다르게 부여할 수 있다. 예를 들어, 사용자 단말(300)은 소스 이미지에서 객체가 차지하는 면적이 클수록 해당 객체로부터 필터 효과를 추정하는 추정 가중치를 높게 부여할 수 있다. In consideration of this case, the user terminal 300 according to an embodiment may give different weights according to the area of the object occupied by the objects recognized in the source image in order to increase the accuracy when estimating the original image. there is. For example, the user terminal 300 may give a higher estimation weight for estimating the filter effect from the object as the area occupied by the object in the source image increases.

상기 추정 방식은 머신 러닝, 빅데이터 기술, AI(artificial intelligence)가 적용되어 수행될 수 있고, 상기 추정을 통해 학습된 데이터는 머신 러닝, 빅데이터 기술 또는 AI(artificial intelligence) 중 적어도 하나에 의해 메모리에 저장될 수 있다.The estimation method may be performed by applying machine learning, big data technology, and artificial intelligence (AI), and the data learned through the estimation is memory by at least one of machine learning, big data technology, or artificial intelligence (AI). can be stored in

일 실시 예에서, 사용자 단말(300)은 소스 이미지와 원본 이미지를 비교하여 소스 이미지에 적용되어 있는 필터 효과를 추출할 수 있다(S930). 사용자 단말(300)은 소스 이미지에서 인식된 객체들 중 소스 이미지에서 차지하는 면적이 가장 큰 제1 객체를 결정할 수 있다. 사용자 단말(300)은 상기 소스 이미지에서 제1 객체에 대응되는 픽셀들의 컬러 값과 상기 추정된 원본 이미지에서 제1 객체에 대응되는 픽셀들의 컬러 값을 비교하여 필터 효과를 추출할 수 있다. 제1 객체에 대응되는 픽셀들은 각각 R(red), G(green), B(blue)의 색 요소를 포함할 수 있고, 사용자 단말(300)은 상기 제1 객체에 대응되는 픽셀들 각각의 R, G, B의 변화 값을 계산할 수 있다. 사용자 단말(300)은 상기 제1 객체에 대응되는 영역에서 R 변화 값의 평균, G 변화 값의 평균, B 변화 값의 평균을 계산하고, 계산된 R 변화 값의 평균, G 변화 값의 평균, B 변화 값의 평균에 대응되는 컬러 값을 추출할 수 있다.In an embodiment, the user terminal 300 may extract a filter effect applied to the source image by comparing the source image with the original image (S930). The user terminal 300 may determine a first object having the largest area in the source image among the objects recognized in the source image. The user terminal 300 may extract the filter effect by comparing the color values of pixels corresponding to the first object in the source image with the color values of pixels corresponding to the first object in the estimated original image. The pixels corresponding to the first object may include color elements of R (red), G (green), and B (blue), respectively, and the user terminal 300 sets each R of the pixels corresponding to the first object. , G, and B can be calculated. The user terminal 300 calculates the average of the R change values, the average of the G change values, and the average of the B change values in the region corresponding to the first object, and the average of the calculated R change values, the average of the G change values, A color value corresponding to the average of the B change values may be extracted.

사용자 단말(300)은 추출된 컬러 값을 필터 효과로 저장하고, 저장된 필터 효과를 운영 서버(100)로부터 획득된 이미지에 적용할 수 있다.The user terminal 300 may store the extracted color value as a filter effect, and apply the stored filter effect to the image obtained from the operation server 100 .

도 10은 둘 이상의 사용자들이 서로 시간이 맞지 않거나 서로 거리가 멀어 하나의 촬영룸 키오스크에서 함께 촬영이 불가능한 경우, 적어도 하나의 사용자가 촬영한 이미지를 배경 이미지로 활용하는 일 예시를 설명하기 위한 도면이다.10 is a diagram for explaining an example of using an image photographed by at least one user as a background image when two or more users are unable to photograph together in one recording room kiosk because the time does not match or the distance is far from each other. .

촬영룸 키오스크(600)는 제1 사용자의 입력에 따라 제1 이미지를 촬영하고, 운영 서버(100)는 제1 사용자의 결제에 따라 촬영된 제1 이미지를 촬영룸 키오스크(600)로부터 획득하고, 획득된 제1 이미지를 제1 사용자 단말(300-1)에 제공할 수 있다.The shooting room kiosk 600 takes a first image according to the input of the first user, and the operation server 100 obtains the first image taken according to the payment of the first user from the shooting room kiosk 600, The acquired first image may be provided to the first user terminal 300 - 1 .

운영 서버(100)는 제1 이미지에 대한 공유 서비스를 제공할 수 있으며, 공유 서비스의 기간에 따라 제1 사용자 단말(300-1)에 공유 비용을 청구할 수 있다. 공유 서비스는 임시 저장 서비스를 포함할 수 있다. 제1 사용자 단말(300-1)은 제1 이미지를 공유 이미지로 결정하고, 결정된 공유 이미지에 공유 이미지에 대한 접근 정보를 설정할 수 있다. 접근 정보는 접근 비밀번호, 접근 가능 지인 범위 등을 포함할 수 있다. 제1 사용자 단말(300-1)은 운영 서버(100)에 접근 정보가 설정된 공유 이미지를 운영 서버(100)에 제공할 수 있다.The operation server 100 may provide a sharing service for the first image, and may charge a sharing cost to the first user terminal 300-1 according to the period of the sharing service. The shared service may include a temporary storage service. The first user terminal 300 - 1 may determine the first image as the shared image, and set access information on the shared image to the determined shared image. The access information may include an access password, a range of accessible acquaintances, and the like. The first user terminal 300 - 1 may provide the operation server 100 with a shared image in which access information is set to the operation server 100 .

운영 서버(100)는 제1 이미지가 촬영된 날로부터 일정 기간을 공유 이미지에 대한 공유 기간으로 설정할 수 있다. 운영 서버(100)는 상기 공유 기간이 지난 후에 공유 이미지를 삭제할 수 있다.The operation server 100 may set a certain period from the day the first image was taken as the sharing period for the shared image. The operation server 100 may delete the shared image after the sharing period has elapsed.

제2 사용자 단말(300-2)은 상기 공유 기간 내에 공유 이미지에 설정된 접근 정보에 기초하여 운영 서버(100)와 통신함으로써 공유 이미지에 대한 접근 인증을 허가받을 수 있다. 이때, 제2 사용자 단말(300-2)은, 공유 이미지를 제공받길 원하는 촬영룸 키오스크(600)의 고유 식별 기호를 운영 서버(100)에 제공할 수 있다.The second user terminal 300 - 2 may be authorized to access the shared image by communicating with the operation server 100 based on the access information set on the shared image within the sharing period. In this case, the second user terminal 300 - 2 may provide the operation server 100 with a unique identification symbol of the shooting room kiosk 600 that wants to receive the shared image.

운영 서버(100)는, 제2 사용자 단말(300-2)의 접근 인증을 허가한 후, 제2 사용자 단말(300-2)로부터 제공받은 촬영룸 키오스크(600)의 고유 식별 기호와 대응하는 촬영룸 키오스크(600)에 공유 이미지를 배경 이미지로서 제공할 수 있다.The operation server 100, after permitting the access authentication of the second user terminal 300-2, the photographing corresponding to the unique identification symbol of the photographing room kiosk 600 provided from the second user terminal 300-2 A shared image may be provided to the room kiosk 600 as a background image.

촬영룸 키오스크(600)는 제공받은 공유 이미지를 배경 이미지로 하여 제2 사용자 단말(300-2)의 사용자인 제2 사용자의 입력에 따라 사진을 촬영하여 제2 이미지를 생성할 수 있다. The shooting room kiosk 600 may generate a second image by taking a picture according to an input of a second user who is a user of the second user terminal 300 - 2 using the shared image as a background image.

촬영룸 키오스크(600)는 이렇게 촬영된 제2 이미지를 운영 서버(100)에 제공하고, 운영 서버(100)는, 제2 이미지를 제2 사용자 단말(300-2)에게 제공할 수 있다.The shooting room kiosk 600 may provide the second image photographed in this way to the operation server 100 , and the operation server 100 may provide the second image to the second user terminal 300 - 2 .

한편, 운영 서버(100)는, 제2 사용자 단말(300-2)의 접근 인증을 허가한 후, 제2 사용자 단말(300-2)로부터 제공받은 촬영룸 키오스크(600)의 고유 식별 기호와 대응하는 공유 이미지에서 추출한 객체(예를 들어, 제1 사용자)를 촬영룸 키오스크(600)에 제공할 수도 있다.On the other hand, the operation server 100, after permitting the access authentication of the second user terminal 300-2, corresponds to the unique identification symbol of the shooting room kiosk 600 provided from the second user terminal 300-2 The object (eg, the first user) extracted from the shared image may be provided to the shooting room kiosk 600 .

이때, 객체를 추출하기 위하여 공지된 다양한 형태의 객체 인식(또는 추출) 알고리즘이 적용될 수 있는데, 예를 들면, CNN(convolutional neural network) 기반의 객체 인식 알고리즘들이 적용될 수 있다.In this case, various types of known object recognition (or extraction) algorithms may be applied to extract the object. For example, convolutional neural network (CNN)-based object recognition algorithms may be applied.

촬영룸 키오스크(600)는, 제공받은 객체를 미리 저장된 배경 이미지들과 함께 제2 사용자에게 표시할 수 있고, 제2 사용자 단말(300-2)의 사용자인 제2 사용자는, 미리 저장된 배경 이미지들 중 원하는 배경 이미지를 선택하고, 선택한 배경 이미지에서 객체의 위치를 선택하면, 선택된 객체의 위치에 객체를 포함하는 배경 이미지를 촬영룸 키오스크(600)를 통해 제2 사용자에게 표시할 수 있다. 이후, 제2 사용자는, 표시된 화면을 보면서 촬영룸 키오스크(600)를 이용하여 사진을 촬영하여 제2 이미지를 생성할 수 있다.The shooting room kiosk 600 may display the provided object to the second user together with pre-stored background images, and the second user, who is the user of the second user terminal 300 - 2, uses the pre-stored background images. When a desired background image is selected among the selected background images and the position of an object is selected from the selected background image, a background image including the object at the position of the selected object may be displayed to the second user through the shooting room kiosk 600 . Thereafter, the second user may create a second image by taking a picture using the shooting room kiosk 600 while looking at the displayed screen.

촬영룸 키오스크(600)는 이렇게 촬영된 제2 이미지를 운영 서버(100)에 제공하고, 운영 서버(100)는, 제2 이미지를 제2 사용자 단말(300-2)에게 제공할 수 있다.The shooting room kiosk 600 may provide the second image photographed in this way to the operation server 100 , and the operation server 100 may provide the second image to the second user terminal 300 - 2 .

운영 서버(100)는 공유 기간이 지난 후에는 제1 사용자 단말(300-1)에 제1 이미지에 대한 삭제 및 공유 연장 여부를 묻는 메세지를 제공할 수 있다. 운영 서버(100)는 제1 사용자 단말(300-1)로부터 제1 이미지의 공유 서비스를 연장하는 입력을 획득한 경우, 제1 사용자 단말(300-1)에 추가 비용을 청구할 수 있다.After the sharing period has elapsed, the operation server 100 may provide a message to the first user terminal 300-1 asking whether to delete the first image and extend the sharing. When the operation server 100 obtains an input for extending the sharing service of the first image from the first user terminal 300-1, it may charge an additional cost to the first user terminal 300-1.

도 11은 둘 이상의 사용자가 시간이 맞지 않거나 서로 거리가 멀어 하나의 촬영룸 키오스크에서 함께 촬영이 불가능한 경우, 적어도 하나의 사용자가 촬영한 이미지를 배경 이미지로 활용하는 일 예시를 설명하기 위한 도면이다.11 is a diagram for explaining an example of using an image photographed by at least one user as a background image when two or more users are unable to photograph together in one recording room kiosk because the time does not match or the distance is far from each other.

촬영룸 키오스크(600)는 제1 사용자의 입력에 따라 제1 이미지를 촬영할 수 있다. 운영 서버(100)는 촬영된 이미지에 대한 공유 서비스를 제공할 수 있으며, 공유 서비스의 기간에 따라 제1 사용자 단말(300-1)에 공유 비용을 청구할 수 있다. 공유 서비스는 임시 저장 서비스를 포함할 수 있다. 운영 서버(100)는 촬영룸 키오스크(600)를 통해 제1 사용자의 결제를 승인할 수 있고, 상기 승인에 따라 촬영된 제1 이미지를 운영 서버(100) 및 촬영룸 키오스크(600) 내에 임시 저장할 수 있다.The shooting room kiosk 600 may take a first image according to a first user's input. The operation server 100 may provide a sharing service for the captured image, and may charge the sharing cost to the first user terminal 300-1 according to the period of the sharing service. The shared service may include a temporary storage service. The operation server 100 may approve the payment of the first user through the recording room kiosk 600 , and temporarily store the first image photographed according to the approval in the operation server 100 and the photographing room kiosk 600 . can

일 실시 예에서, 운영 서버(100)는 저장된 제1 이미지에 제1 이미지에 대한 접근 정보를 설정할 수 있다. 운영 서버(100)는 상기 공유 서비스의 기간 내에 상기 접근 정보에 대한 접근 허가가 확인되는 경우, 촬영룸 키오스크(600)에 제1 이미지를 배경 이미지로 제공할 수 있다.In an embodiment, the operation server 100 may set access information for the first image to the stored first image. The operation server 100 may provide the first image as a background image to the recording room kiosk 600 when the permission to access the access information is confirmed within the period of the sharing service.

따라서, 본 발명의 경우, 제1 사용자와 제2 사용자가 동일 시간에 방문하여 함께 촬영하기 어려운 상황이 있는 경우, 제1 사용자가 먼저 와서 촬영룸 키오스크(600)를 통해 촬영을 진행하고, 여기서 촬영된 제1 이미지에 대한 접근 정보를 설정하여 운영 서버(100)에 제공할 수 있고, 제2 사용자가 접근 정보를 기초로 제1 이미지를 운영 서버(100)를 통해 배경 이미지로서 촬영룸 키오스크(600)에 제공받아 제1 이미지를 배경으로 하는 사진 촬영을 할 수 있다.Therefore, in the case of the present invention, if there is a situation in which the first user and the second user visit at the same time and it is difficult to photograph together, the first user comes first and proceeds to photograph through the photographing room kiosk 600 , and photographing there The access information for the first image can be set and provided to the operation server 100, and the second user provides the first image based on the access information as a background image through the operation server 100 in the shooting room kiosk 600 ) to take a photo with the first image as the background.

도 12는 제1 촬영룸 키오스크 및 제2 촬영룸 키오스크를 연동하여 원격으로 제1 사용자와 제2 사용자가 함께 촬영하는 것을 나타낸 도면이다.12 is a diagram illustrating that the first user and the second user take a picture together remotely by linking the first shooting room kiosk and the second shooting room kiosk.

일 실시 예에서, 제1 사용자는 제1 촬영룸 키오스크(600-1)를 통해 촬영하고, 제2 사용자는 제2 촬영룸 키오스크(600-2)를 통해 촬영을 할 수 있다. 제1 사용자 단말(300-1)은 제1 촬영룸 키오스크(600-1)와 연동될 수 있고, 제2 사용자 단말(300-2)은 제2 촬영룸 키오스크(600-2)와 연동될 수 있다.In an embodiment, the first user may photograph through the first photographing room kiosk 600-1, and the second user may photograph through the second photographing room kiosk 600-2. The first user terminal 300-1 may be linked with the first shooting room kiosk 600-1, and the second user terminal 300-2 may be linked with the second shooting room kiosk 600-2. there is.

제1 사용자 단말(300-1)은 호스트로서 운영 서버(100)에 제2 사용자 단말(300-2)과의 원격 실행 모드를 요청할 수 있다. 운영 서버(100)는 원격 실행 모드를 요청받은 것에 응답하여, 제1 촬영룸 키오스크(600-1)의 카메라를 통해 획득된 제1 영상(일종의 동영상)과 제2 촬영룸 키오스크(600-2)의 카메라를 통해 획득된 제2 영상(일종의 동영상)을 획득할 수 있다. 운영 서버(100)는 제1 영상과 제2 영상에 기초하여 제3 영상을 생성하고, 생성된 제3 영상을 제1 촬영룸 키오스크(600-1)의 디스플레이 및 제2 촬영룸 키오스크(600-2)의 디스플레이를 통해 표시할 수 있다. The first user terminal 300 - 1 may request the operation server 100 as a host for a remote execution mode with the second user terminal 300 - 2 . The operation server 100 responds to the request for the remote execution mode, the first image (a kind of video) acquired through the camera of the first recording room kiosk 600-1 and the second recording room kiosk 600-2 A second image (a kind of video) acquired through the camera of . The operation server 100 generates a third image based on the first image and the second image, and displays the generated third image of the first recording room kiosk 600-1 and the second recording room kiosk 600- 2) can be displayed through the display.

제1 촬영룸 키오스크(600-1)는 제1 촬영룸 키오스크(600-1)의 카메라를 통해 실시간으로 획득되고 있는 제1 영상을 운영 서버(100)로 전송할 수 있다. 제2 촬영룸 키오스크(600-2)는 제2 촬영룸 키오스크(600-2)의 카메라를 통해 실시간으로 획득되고 있는 제2 영상을 운영 서버(100)로 전송할 수 있다. 실시관으로 획득되고 있는 영상은 복수의 이미지 프레임들을 포함할 수 있다.The first recording room kiosk 600 - 1 may transmit the first image acquired in real time through the camera of the first photographing room kiosk 600 - 1 to the operation server 100 . The second recording room kiosk 600 - 2 may transmit the second image acquired in real time through the camera of the second photographing room kiosk 600 - 2 to the operation server 100 . In practice, the image being acquired may include a plurality of image frames.

운영 서버(100)는 제2 촬영룸 키오스크(600-2)로부터 획득한 제2 영상에서 제2 사용자를 검출할 수 있다. 운영 서버(100)는 제1 영상의 복수의 이미지 프레임에 제2 사용자에 대응되는 픽셀 영역을 합성하고, 상기 합성에 기초하여 제3 영상을 생성할 수 있다. 운영 서버(100)는 제3 영상을 생성하는 과정에서, 제1 사용자에 대응되는 픽셀 영역과 제2 사용자에 대응되는 픽셀 영역이 중첩되는 경우, 중첩되는 부분의 제1 사용자의 깊이값과 제2 사용자의 깊이 값을 비교하여 깊이 값이 높은 사용자의 픽셀 영역은 삭제하고, 깊이 값이 낮은 사용자의 픽셀 영역을 유지할 수 있다. 이를 위해 촬영룸 키오스크(600)는 촬영된 영상의 각 화소와 대응하는 깊이 값(depth value)을 획득하는 뎁스 카메라(depth camera)를 더 포함될 수 있다.The operation server 100 may detect the second user from the second image obtained from the second recording room kiosk 600 - 2 . The operation server 100 may synthesize a pixel region corresponding to the second user in a plurality of image frames of the first image, and generate a third image based on the synthesis. When the operation server 100 overlaps the pixel area corresponding to the first user and the pixel area corresponding to the second user in the process of generating the third image, the depth value of the first user and the second By comparing the depth value of the user, the pixel area of the user having the high depth value may be deleted, and the pixel area of the user having the low depth value may be maintained. To this end, the recording room kiosk 600 may further include a depth camera for obtaining a depth value corresponding to each pixel of the photographed image.

운영 서버(100)는 생성된 제3 영상을 제1 촬영룸 키오스크(600-1) 및 제2 촬영룸 키오스크(600-2)에 제공할 수 있다. 운영 서버(100)는 제1 촬영룸 키오스크(600-1)와 제2 촬영룸 키오스크(600-2)를 통해서 제1 사용자 및 제2 사용자에게 제3 영상을 표시할 수 있다.The operation server 100 may provide the generated third image to the first recording room kiosk 600-1 and the second photographing room kiosk 600-2. The operation server 100 may display the third image to the first user and the second user through the first recording room kiosk 600-1 and the second photographing room kiosk 600-2.

운영 서버(100)는 호스트인 제1 사용자의 촬영 입력을 제1 촬영룸 키오스크(600-1)를 통해 획득하고, 획득된 촬영 입력에 응답하여, 제3 영상을 구성하는 복수의 이미지 프레임들 중에서, 제1 촬영룸 키오스크(600-1)의 카메라 및 제2 촬영룸 키오스크(600-2)의 카메라를 통해 촬영 입력을 획득한 시점에 대응되는 제3 영상의 이미지 프레임을 획득할 수 있다.The operation server 100 obtains a photographing input of the first user as a host through the first photographing room kiosk 600-1, and in response to the obtained photographing input, from among a plurality of image frames constituting the third image , an image frame of the third image corresponding to a point in time at which a photographing input is obtained through the camera of the first photographing room kiosk 600-1 and the camera of the second photographing room kiosk 600-2 may be obtained.

이때, 운영 서버(100)는 원거리에 있는 제1 사용자와 제2 사용자가 원활하게 촬영할 수 있도록, 촬영룸 키오스크(600)에는 마이크를 더 포함할 수 있고, 제1 촬영룸 키오스크(600-1)와 제2 촬영룸 키오스크(600-2)의 오디오 시스템(스피커(220)와 마이크로 구성될 수 있음)을 연결할 수 있다.At this time, the operation server 100 may further include a microphone in the recording room kiosk 600 so that the first user and the second user at a distance can shoot smoothly, and the first recording room kiosk 600-1 and the audio system (which may consist of a speaker 220 and a microphone) of the second recording room kiosk 600-2 may be connected.

도 13은 운영 서버(100)를 통해 획득된 동영상에 기초하여 사진 프레임을 구성하는 것을 설명하기 위한 도면이다.13 is a view for explaining the configuration of a photo frame based on the video obtained through the operation server (100).

일 실시 예에서, 촬영룸 키오스크(600)는 카메라(610)를 통해 사진뿐 아니라, 동영상을 촬영할 수 있다. 운영 서버(100)는 촬영룸 키오스크(600)를 통해 촬영된 사진 및/또는 동영상을 획득하고, 획득된 사진 및/또는 동영상을 사용자 단말(300)에 제공할 수 있다.In one embodiment, the shooting room kiosk 600 may take a picture as well as a video through the camera 610 . The operation server 100 may obtain a photograph and/or a video taken through the recording room kiosk 600 , and may provide the obtained photograph and/or video to the user terminal 300 .

사용자 단말(300)은 디스플레이의 일 부분에 운영 서버(100)로부터 획득된 복수 개의 동영상들(예: video 1, video 2, ...)을 표시할 수 있다. 사용자 단말(300)은 동영상을 구성하는 복수의 이미지 프레임들 중 하나를 대표 사진으로 결정하고, 대표 사진을 표시하는 동영상(1301)을 디스플레이에 표시할 수 있다. 예를 들어, 사용자 단말(300)은 획득된 동영상을 구성하는 첫번째 이미지 프레임에 대응되는 사진을 대표 사진으로 결정하고, 결정된 대표 사진이 표시되는 동영상을 디스플레이에 표시할 수 있다.The user terminal 300 may display a plurality of videos (eg, video 1, video 2, ...) obtained from the operation server 100 on a portion of the display. The user terminal 300 may determine one of a plurality of image frames constituting the moving picture as a representative photo, and display the moving picture 1301 displaying the representative photo on the display. For example, the user terminal 300 may determine a photo corresponding to the first image frame constituting the obtained moving picture as a representative photo, and display a moving picture in which the determined representative photo is displayed on the display.

일 실시 예에서, 사용자 단말(300)은 사용자에 의하여 선택된 동영상에 기초하여 사진 프레임을 생성할 수 있다. 사용자 단말(300)은 사용자에게 사진 프레임의 모양, 사진 프레임을 구성하는 사진의 개수 및/또는 사진 프레임을 구성하는 사진을 결정할 수 있는 옵션을 제공할 수 있다. 예를 들어, 사용자 단말(300)은 사용자에게 사진 프레임의 격자 형태(1x3 형태, 1x4 형태, 2x2 형태, 4x1 형태 등)와 같은 다양한 모양을 선택할 수 있도록 하는 옵션을 제공할 수 있다. 사용자 단말(300)은 사용자의 입력에 따라 사진 개수를 결정하거나, 사진 프레임의 모양을 결정하거나, 사진 프레임을 구성하는 사진을 결정할 수 있다. 또한, 사용자 단말(300)은 크리에이터 단말(400)에서 생성된 사진 프레임의 디자인을 운영 서버(100)를 통해 획득하고, 사진 프레임의 디자인을 선택할 수 있도록 하는 옵션을 제공할 수 있다.In an embodiment, the user terminal 300 may generate a photo frame based on a video selected by the user. The user terminal 300 may provide the user with an option to determine the shape of the photo frame, the number of photos constituting the photo frame, and/or the photos constituting the photo frame. For example, the user terminal 300 may provide the user with an option to select various shapes such as a grid shape (1x3 shape, 1x4 shape, 2x2 shape, 4x1 shape, etc.) of the photo frame. The user terminal 300 may determine the number of photos, determine a shape of a photo frame, or determine photos constituting a photo frame according to a user's input. In addition, the user terminal 300 may provide an option to obtain the design of the photo frame generated by the creator terminal 400 through the operation server 100, and to select the design of the photo frame.

일 실시 예에서, 사용자 단말(300)은 사용자에 의하여 선택된 동영상에 대한 사용자의 드래그 입력에 기초하여, 사진 프레임의 모양, 사진 프레임을 구성하는 사진의 개수, 사진 프레임을 구성하는 사진을 결정할 수 있다. 이에 대한 자세한 설명은 이하 도 14 및 도 15를 통해서 설명하도록 한다.In an embodiment, the user terminal 300 may determine the shape of the photo frame, the number of photos constituting the photo frame, and the photos constituting the photo frame, based on the user's drag input for the video selected by the user. . A detailed description thereof will be described below with reference to FIGS. 14 and 15 .

도 14는 획득된 동영상에 기초하여 사진 프레임을 구성하는 것을 설명하기 위한 도면이다.14 is a diagram for explaining the construction of a photo frame based on an acquired video.

사용자 단말(300)은 도 13의 하나의 동영상(예: video1 1)을 선택하는 입력에 응답하여, 상기 하나의 동영상에 기초한 사진 프레임(1420)을 생성할 수 있다. 사용자 단말(300)은 생성된 사진 프레임(1420)의 구성을 조절할 수 있는 인터페이스(1410)를 디스플레이의 일 영역을 통해 제공할 수 있다. 상기 하나의 동영상을 선택하는 입력에 응답하여 생성된 사진 프레임(1420)은 초기에 한 장의 사진으로 구성될 수 있다.In response to an input for selecting one video (eg, video1 1 ) of FIG. 13 , the user terminal 300 may generate a photo frame 1420 based on the single video. The user terminal 300 may provide an interface 1410 for adjusting the configuration of the generated photo frame 1420 through one area of the display. The photo frame 1420 generated in response to the input for selecting one moving picture may initially consist of one photo.

사용자 단말(300)은 상기 인터페이스 내에서 획득되는 사용자의 드래그 입력 및/또는 터치 입력에 따라 사진 프레임(1420)의 구성을 변경할 수 있다. 예를 들어, 사용자 단말(300)은, 드래그 입력에 따라 사진 프레임의 모양, 사진 프레임을 구성하는 사진의 종류 및 사진의 개수 등을 결정할 수 있다.The user terminal 300 may change the configuration of the photo frame 1420 according to a user's drag input and/or touch input obtained within the interface. For example, the user terminal 300 may determine a shape of a photo frame, a type of photos constituting the photo frame, the number of photos, and the like according to a drag input.

도 15는 획득된 동영상에 대해 사용자의 드래그 입력에 기초하여 다양한 형태로 사진 프레임을 구성하는 것을 설명하기 위한 도면이다.15 is a diagram for explaining how to configure a picture frame in various forms based on a user's drag input with respect to an acquired video.

사용자 단말(300)은 드래그 입력에 따라 사진 프레임의 크기를 조절할 수 있다. 사용자 단말(300)은 사진 프레임의 모서리 일 부분을 터치하고 드래그하는 사용자의 입력을 획득할 수 있다.The user terminal 300 may adjust the size of the photo frame according to a drag input. The user terminal 300 may obtain a user input of touching and dragging a portion of a corner of the photo frame.

사용자 단말(300)은 사진 프레임의 크기를 조절하는 사용자의 드래그 입력이 제1 시간 동안 획득되지 않는 경우, 사진 프레임의 크기를 결정할 수 있다. 예를 들어, 사용자 단말(300)은 사용자의 드래그 입력에 응답하여 사진 프레임의 크기를 실시간으로 조절하다가 제1 시간동안 사용자의 드래그 입력이 획득되지 않는 경우, 사용자의 드래그 입력이 획득되지 않는 시점의 크기를 사진 프레임의 크기로 결정할 수 있다.When the user's drag input for adjusting the size of the photo frame is not obtained for the first time, the user terminal 300 may determine the size of the photo frame. For example, when the user terminal 300 adjusts the size of the photo frame in real time in response to the user's drag input and the user's drag input is not obtained for the first time, the time point at which the user's drag input is not obtained The size can be determined by the size of the photo frame.

사용자 단말(300)은 상기 드래그 입력에 따라 사진 프레임의 크기, 모양 및 사진 프레임을 구성하는 사진의 개수를 결정할 수 있다. 사용자 단말(300)은 상기 드래그 입력에 따라 변화되는 사진 프레임의 크기에 기초하여 사진 프레임에 포함되는 사진의 개수를 결정할 수 있다. 예를 들어, 사용자 단말(300)은 사진 프레임의 크기가 제1 크기인 경우 사진 프레임을 구성하는 사진의 개수를 1개로 결정하고, 사진 프레임의 크기가 제1 크기보다 큰 제2 크기인 경우 사진 프레임을 구성하는 사진의 개수를 1개 이상으로 결정할 수 있다.The user terminal 300 may determine the size and shape of the photo frame and the number of photos constituting the photo frame according to the drag input. The user terminal 300 may determine the number of photos included in the photo frame based on the size of the photo frame that is changed according to the drag input. For example, when the size of the photo frame is the first size, the user terminal 300 determines the number of photos constituting the photo frame to be one, and when the size of the photo frame is the second size larger than the first size, the photo frame The number of pictures constituting the frame may be determined to be one or more.

예를 들어, 사용자 단말(300)은 사진 프레임을 제1 방향(예: 가로 방향)으로 드래그하는 사용자의 드래그 입력(1521)에 따라 제1 방향(예: 가로 방향)으로 사진 프레임을 확대할 수 있다. 사용자 단말(300)은 제1 방향(예: 가로 방향)으로 드래그 하는 사용자의 드래그 입력에 따라 사진 프레임을 1 x A개의 사진들로 구성된 격자로 구성할 수 있다.For example, the user terminal 300 may enlarge the photo frame in the first direction (eg, horizontal direction) according to the user's drag input 1521 for dragging the photo frame in the first direction (eg, horizontal direction). there is. The user terminal 300 may configure the photo frame as a grid composed of 1 x A photos according to a user's drag input for dragging in the first direction (eg, horizontal direction).

다른 예를 들어, 사용자 단말(300)은 제2 방향(예: 세로 방향)으로 드래그하는 사용자의 드래그 입력(1522)에 따라 제2 방향(예: 세로 방향)으로 사진 프레임을 확대할 수 있다. 사용자 단말(300)은 제2 방향(예: 세로 방향)으로 드래그 하는 사용자의 드래그 입력에 따라 사진 프레임을 A x 1개의 사진들로 구성된 격자로 구성할 수 있다.As another example, the user terminal 300 may enlarge the photo frame in the second direction (eg, vertical direction) according to the user's drag input 1522 dragging in the second direction (eg, vertical direction). The user terminal 300 may configure the photo frame as a grid composed of A x 1 photos according to a user's drag input for dragging in the second direction (eg, in the vertical direction).

다른 예를 들어, 사용자 단말(300)은 제3 방향(예: 대각 방향)으로 드래그하는 사용자의 드래그 입력(1523)에 따라 제3 방향(예: 대각 방향)으로 사진 프레임을 확대할 수 있다. 사용자 단말(300)은 제3 방향(예: 대각 방향)으로 드래그 하는 사용자의 드래그 입력에 따라 사진 프레임을 A x B개의 사진들로 구성된 격자로 구성할 수 있다. A는 B와 동일할 수 있다.As another example, the user terminal 300 may enlarge the photo frame in the third direction (eg, diagonal direction) according to the user's drag input 1523 dragging in the third direction (eg, diagonal direction). The user terminal 300 may configure the photo frame as a grid composed of A x B photos according to a user's drag input for dragging in a third direction (eg, in a diagonal direction). A can be the same as B.

사용자 단말(300)은 상기 드래그 입력에 따라 변화되는 사진 프레임의 크기에 기초하여 사진 프레임에 포함되는 사진의 개수 뿐만 아니라, 사진 프레임을 구성하는 사진을 결정할 수 있다. 사용자 단말(300)은 상기 드래그 입력에 따라 사진 프레임을 구성하는 사진들을 실시간으로 변경할 수 있다. 다시 말해서, 사용자 단말(300)은 결정된 상기 사진의 개수에 따라, 상기 선택된 동영상을 구성하는 이미지 프레임들 중 적어도 하나의 이미지 프레임을 사진 프레임을 구성하는 사진으로 결정할 수 있다.The user terminal 300 may determine the number of photos included in the photo frame as well as photos constituting the photo frame based on the size of the photo frame that is changed according to the drag input. The user terminal 300 may change the photos constituting the photo frame in real time according to the drag input. In other words, according to the determined number of photos, the user terminal 300 may determine at least one image frame among image frames constituting the selected moving picture as a photo constituting the photo frame.

일 실시 예에서, 사용자 단말(300)은 선택된 동영상을 구성하는 이미지 프레임들 중 일정한 시간 간격마다 선택된 복수개의 이미지 프레임들을, 사진 프레임을 구성하는 사진들로 결정할 수 있다. 예를 들어, 사용자 단말(300)은 10초의 동영상에서, 2초에 대응되는 제1 이미지 프레임을 제1 사진으로 결정하고, 4초에 대응되는 제2 이미지 프레임을 제2 사진으로, 6초에 대응되는 제3 이미지 프레임을 제3 사진으로 결정할 수 있다. 상기 일정한 시간 간격은 사진 프레임을 구성하는 사진의 개수에 따라 결정될 수 있다. 다시 말해서, 사용자 단말(300)은 사진 프레임을 구성하는 사진의 개수가 많아질수록 상기 일정한 시간 간격을 좁히고, 사진 프레임을 구성하는 사진의 개수가 적을수록 상기 일정한 시간 간격을 넓힐 수 있다.In an embodiment, the user terminal 300 may determine a plurality of image frames selected at regular time intervals among image frames constituting the selected moving picture as photos constituting the photo frame. For example, in a 10-second video, the user terminal 300 determines a first image frame corresponding to 2 seconds as a first photo, a second image frame corresponding to 4 seconds as a second photo, and at 6 seconds The corresponding third image frame may be determined as the third photo. The predetermined time interval may be determined according to the number of pictures constituting the picture frame. In other words, the user terminal 300 may narrow the predetermined time interval as the number of pictures constituting the picture frame increases, and may widen the predetermined time interval as the number of pictures constituting the picture frame decreases.

동영상 촬영 시에 촬영 버튼을 누르고 특정 시간 동안 사용자가 포즈를 잡는 과정이 있고, 촬영 종료 버튼을 누르기 전에 특정 시간 동안 사용자가 포즈를 해제하는 과정이 있다. 따라서, 불필요한 포즈을 포함하는 이미지 프레임을 사진 프레임을 구성하는 사진으로 결정하지 않기 위하여, 사용자 단말(300)은 선택된 동영상의 처음 시점과 마지막 시점 각각에서 미리 설정된 시간 간격을 제외하고, 나머지 시간들로 구성된 실질 동영상의 길이 내에서 사진 프레임을 구성할 사진을 결정할 수 있다.When shooting a video, there is a process in which the user holds a pose for a specific time after pressing the shooting button, and there is a process in which the user releases the pose for a specific time before pressing the shooting end button. Therefore, in order not to determine the image frame including the unnecessary pose as the photo constituting the photo frame, the user terminal 300 excludes a preset time interval at each of the first and last views of the selected video, and consists of the remaining times. It is possible to determine the photos to compose a photo frame within the length of the actual video.

일 실시 예에서, 사용자 단말(300)은 사진 프레임의 크기가 변경됨에 따라 사진 프레임을 구성하는 사진 및 사진의 개수를 변경할 수 있다. 사용자 단말(300)은 결정된 사진의 개수가 M개 인 경우, 실질 동영상 길이를 (M-1) 등분할 수 있다.In an embodiment, the user terminal 300 may change the number of photos and photos constituting the photo frame as the size of the photo frame is changed. When the determined number of pictures is M, the user terminal 300 may divide the actual video length into (M-1) equal parts.

사용자 단말(300)은 사용자의 드래그 입력에 따라 사진 프레임을 M개의 사진으로 구성하는 경우, 실질 동영상의 첫번째 이미지 프레임을 제1 사진, 실질 동영상 길이의 N-1/(M-1) 부분에 대응되는 이미지 프레임을 제N 사진으로 결정할 수 있다. N의 최대 값은 M과 동일할 수 있다. 다시 말해서, 사용자 단말(300)은 사용자의 드래그 입력에 따라 네 개의 사진을 구성하는 경우, 실질 동영상의 첫번째 이미지 프레임을 제1 사진, 실질 동영상 길이의 1/3 부분에 대응되는 이미지 프레임을 제2 사진, 실질 동영상 길이의 2/3 부분에 대응되는 이미지 프레임을 제3 사진 및 실질 동영상 길이의 3/3 부분에 대응되는 이미지 프레임을 제4 사진으로 결정할 수 있다.The user terminal 300 corresponds to the N-1/(M-1) part of the first picture and the length of the actual video when the picture frame is composed of M pictures according to the user's drag input. An image frame to be used may be determined as the N-th picture. The maximum value of N may be equal to M. In other words, when the user terminal 300 composes four photos according to the user's drag input, the first image frame of the real video is set to the first photo, and the image frame corresponding to 1/3 of the length of the real video is set to the second image. An image frame corresponding to 2/3 of the length of the photo and the actual moving picture may be determined as the third photo and an image frame corresponding to 3/3 of the length of the actual moving picture may be determined as the fourth photo.

또한, 사용자 단말(300)은 사진 프레임을 구성하는 사진을 결정할 때, 비슷한 사진들을 결정하지 않기 위하여, 선택된 동영상에서 사용자의 포즈 및/또는 사용자의 표정에 기초하여 사진 프레임을 구성하는 사진을 결정할 수 있다. 예를 들어, 사용자 단말(300)은 10초의 동영상에서 사용자의 제1 포즈(예: 만세 포즈)를 포함하는 제1 이미지 프레임을 제1 사진으로 결정하고, 제2 포즈(예: 엄지척 포즈)를 포함하는 제2 이미지 프레임을 제2 사진으로 결정하고, 제3 포즈(예: 주먹을 쥔 포즈)를 포함하는 제3 이미지 프레임을 제3 사진으로 결정할 수 있다. In addition, the user terminal 300 may determine the photo composing the photo frame based on the user's pose and/or the user's facial expression in the selected video so as not to determine similar photos when determining the photo constituting the photo frame. there is. For example, the user terminal 300 determines the first image frame including the user's first pose (eg, hurray pose) in the 10-second video as the first photo, and the second pose (eg, thumbs up pose) A second image frame including , may be determined as a second photo, and a third image frame including a third pose (eg, clenched fist) may be determined as the third photo.

사용자 단말(300)은 결정된 사진의 개수보다 감지된 포즈의 수 및 감지된 표정의 수가 적은 경우, 감지된 포즈 및/또는 표정 중 가장 먼저 감지된 포즈 및/또는 표정을 포함하는 이미지 프레임을 사진 프레임을 구성하는 나머지 사진으로 결정할 수 있다. 예를 들어, 선택된 사진의 개수가 4개이고, 감지된 포즈 및/또는 표정이 3개인 경우, 제1 포즈(예: 만세 포즈)를 포함하는 제4 이미지 프레임을 제4 사진으로 결정할 수 있다. 제4 이미지 프레임은 제1 이미지 프레임과 상이할 수 있다. 상기 제1 포즈 내지 상기 제3 포즈는 시간 순서대로 감지된 포즈일 수 있다.When the number of detected poses and the number of detected facial expressions is smaller than the determined number of pictures, the user terminal 300 displays an image frame including the first detected pose and/or facial expression among the detected poses and/or facial expressions as a picture frame. It can be determined by the rest of the photos that make up . For example, when the number of selected photos is four and the detected poses and/or facial expressions are three, the fourth image frame including the first pose (eg, hurray pose) may be determined as the fourth photo. The fourth image frame may be different from the first image frame. The first to third poses may be poses detected in chronological order.

사용자 단말(300)은 운영 서버(100) 또는 사용자 단말(300)에 미리 저장된 다수의 포즈 데이터 및/또는 다수의 표정 데이터에 기초하여 상기 포즈 및/또는 사용자의 표정을 감지할 수 있다. 사용자 단말(300)은 상기 미리 저장된 다수의 포즈 데이터 및/또는 다수의 표정 데이터와 선택된 동영상에서 검출되는 사용자의 포즈 및/또는 표정을 비교하고, 비교 결과, 동일하다고 판단된 포즈를 감지할 수 있다.The user terminal 300 may detect the pose and/or the user's facial expression based on a plurality of pose data and/or a plurality of facial expression data stored in advance in the operation server 100 or the user terminal 300 . The user terminal 300 may compare the plurality of pre-stored pose data and/or facial expression data with the pose and/or facial expression of the user detected in the selected video, and as a result of the comparison, detect a pose determined to be the same. .

도 16은 일 실시예에 따른 사용자 단말(300)의 구성을 도시한 도면이다. 이하, 도 16에 도시된 사용자 단말(300)을 구성하는 구성요소들에 대해 차례로 살펴본다.16 is a diagram illustrating a configuration of a user terminal 300 according to an embodiment. Hereinafter, components constituting the user terminal 300 shown in FIG. 16 will be described in turn.

무선 통신부(310)는 사용자 단말(300)과 무선 통신 시스템 사이의 무선 통신 또는 사용자 단말(300)과 사용자 단말(300)이 위치한 네트워크 사이의 무선 통신을 수행하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 무선 통신부(310)는 방송 수신 모듈(311), 이동통신 모듈(312), 무선 인터넷 모듈(313), 근거리 통신 모듈(314) 및 위치정보 모듈(315) 등을 포함할 수 있다.The wireless communication unit 310 may include one or more components that perform wireless communication between the user terminal 300 and the wireless communication system or wireless communication between the user terminal 300 and the network in which the user terminal 300 is located. . For example, the wireless communication unit 310 may include a broadcast reception module 311 , a mobile communication module 312 , a wireless Internet module 313 , a short-range communication module 314 , and a location information module 315 , etc. .

방송 수신 모듈(311)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 여기에서, 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 한편, 방송 관련 정보는 이동통신망을 통하여도 제공될 수 있으며, 이러한 경우에는 이동통신 모듈(312)에 의해 수신될 수 있다.The broadcast reception module 311 receives a broadcast signal and/or broadcast related information from an external broadcast management server through a broadcast channel. Here, the broadcast channel may include a satellite channel and a terrestrial channel. Meanwhile, broadcast-related information may be provided through a mobile communication network, and in this case, may be received by the mobile communication module 312 .

또한, 이동통신 모듈(312)은 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.In addition, the mobile communication module 312 transmits and receives a wireless signal to and from at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call signal, or a text/multimedia message.

무선 인터넷 모듈(313)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 사용자 단말(300)에 내장되거나 외장 될 수 있다.The wireless Internet module 313 refers to a module for wireless Internet access, and may be built-in or external to the user terminal 300 .

근거리 통신 모듈(314)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short-range communication module 314 refers to a module for short-range communication. As the short-distance communication technology, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, etc. may be used.

또한, 위치정보 모듈(115)은 사용자 단말(300)의 위치를 확인하거나 얻기 위한 모듈이다. 일례로 GPS(Global Position System) 모듈을 들 수 있다. GPS 모듈은 복수 개의 인공위성으로부터 위치 정보를 수신한다. 여기에서, 위치 정보는 위도 및 경도로 표시되는 좌표 정보를 포함할 수 있다.Also, the location information module 115 is a module for confirming or obtaining the location of the user terminal 300 . An example is a Global Position System (GPS) module. The GPS module receives location information from a plurality of satellites. Here, the location information may include coordinate information indicated by latitude and longitude.

한편, A/V(Audio/Video) 입력부(320)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(321)와 마이크(322) 등이 포함될 수 있다. 카메라(321)는 화상 통화 모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 그리고, 처리된 화상 프레임은 디스플레이부(351)에 표시될 수 있다.Meanwhile, the A/V (Audio/Video) input unit 320 is for inputting an audio signal or a video signal, and may include a camera 321 , a microphone 322 , and the like. The camera 321 processes an image frame such as a still image or a moving image obtained by an image sensor in a video call mode or a shooting mode. Then, the processed image frame may be displayed on the display unit 351 .

카메라(321)에서 처리된 화상 프레임은 메모리(360)에 저장되거나 무선 통신부(310)를 통하여 외부로 전송될 수 있다. 카메라(321)는 사용자 단말(300)의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 321 may be stored in the memory 360 or transmitted to the outside through the wireless communication unit 310 . Two or more cameras 321 may be provided according to the configuration of the user terminal 300 .

마이크(322)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 그리고, 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(312)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(322)는 외부의 음향 신호를 입력받는 과정에서 발생하는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘을 구현할 수 있다.The microphone 322 receives an external sound signal by a microphone in a call mode, a recording mode, a voice recognition mode, and the like, and processes it as electrical voice data. In addition, the processed voice data may be converted into a form that can be transmitted to the mobile communication base station through the mobile communication module 312 and output in the call mode. The microphone 322 may implement various noise removal algorithms for removing noise generated in the process of receiving an external sound signal.

사용자 입력부(330)는 사용자로부터 입력 동작을 받아들여, 사용자 단말(300)의 동작 제어를 위한 입력 데이터를 발생시킨다.The user input unit 330 receives an input operation from the user and generates input data for controlling the operation of the user terminal 300 .

센싱부(340)는 사용자 단말(300)의 위치, 사용자 접촉 유무, 사용자 단말(300)의 방위, 사용자 단말(300)의 가속/감속 등과 같이, 사용자 단말(300)의 현 상태를 감지하여 사용자 단말(300)의 동작을 제어하기 위한 센싱 신호를 발생시킨다.The sensing unit 340 detects the current state of the user terminal 300 , such as the location of the user terminal 300 , the presence of user contact, the orientation of the user terminal 300 , and acceleration/deceleration of the user terminal 300 . A sensing signal for controlling the operation of the terminal 300 is generated.

인터페이스부(370)는 사용자 단말(300)에 연결되는 모든 외부기기와의 인터페이스 역할을 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 포함될 수 있다.The interface unit 370 serves as an interface with all external devices connected to the user terminal 300 . For example, wired/wireless headset ports, external charger ports, wired/wireless data ports, memory card ports, ports for connecting devices equipped with identification modules, audio input/output (I/O) ports, It may include a video input/output (I/O) port, an earphone port, and the like.

출력부(350)는 오디오 신호 또는 비디오 신호 또는 알람(alarm) 신호의 출력을 위한 것으로, 이에는 디스플레이부(351)와 음향 출력 모듈(352), 알람부(353) 등이 포함될 수 있다.The output unit 350 is for outputting an audio signal, a video signal, or an alarm signal, and may include a display unit 351 , a sound output module 352 , an alarm unit 353 , and the like.

디스플레이부(351)는 사용자 단말(300)에서 처리되는 정보를 표시 출력한다. 예를 들어, 단말기가 통화 모드인 경우, 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 그리고, 사용자 단말(300)이 화상 통화 모드 또는 촬영 모드인 경우, 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다.The display unit 351 displays and outputs information processed by the user terminal 300 . For example, when the terminal is in a call mode, a user interface (UI) or graphic user interface (GUI) related to a call is displayed. And, when the user terminal 300 is in the video call mode or the shooting mode, the captured and/or received image or UI and GUI are displayed.

한편, 전술한 바와 같이, 디스플레이부(351)와 터치 패드가 상호 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이부(351)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이부(351)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. 그리고, 사용자 단말(300)의 구현 형태에 따라, 디스플레이부(351)는 2개 이상 존재할 수도 있다. 예를 들어, 사용자 단말(300)에 외부 디스플레이부(미도시)와 내부 디스플레이부(미도시)가 동시에 구비될 수 있다.Meanwhile, as described above, when the display unit 351 and the touch pad form a layer structure to form a touch screen, the display unit 351 may be used as an input device in addition to an output device. The display unit 351 includes a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a three-dimensional display ( 3D display). In addition, two or more display units 351 may exist according to an implementation form of the user terminal 300 . For example, the user terminal 300 may be provided with an external display unit (not shown) and an internal display unit (not shown) at the same time.

음향 출력 모듈(352)은 호 신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서, 무선 통신부(310)로부터 수신되거나 메모리(360)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력 모듈(352)은 사용자 단말(300)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력한다. 이러한 음향 출력 모듈(352)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output module 352 outputs audio data received from the wireless communication unit 310 or stored in the memory 360 in call signal reception, call mode or recording mode, voice recognition mode, broadcast reception mode, and the like. In addition, the sound output module 352 outputs a sound signal related to a function (eg, a call signal reception sound, a message reception sound, etc.) performed in the user terminal 300 . The sound output module 352 may include a speaker, a buzzer, and the like.

알람부(353)는 사용자 단말(300)의 이벤트 발생을 알리기 위한 신호를 출력한다. 단말기에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력 등이 있다. The alarm unit 353 outputs a signal for notifying the occurrence of an event in the user terminal 300 . Examples of events occurring in the terminal include call signal reception, message reception, and key signal input.

메모리(360)는 제어부(380)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다.The memory 360 may store a program for processing and control of the controller 380, and provides a function for temporary storage of input/output data (eg, phonebook, message, still image, video, etc.). can also be done

메모리(360)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The memory 360 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg SD or XD memory, etc.), a RAM (RAM, Random Access Memory) SRAM (Static Random Access Memory), ROM (Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory) magnetic memory, magnetic disk, It may include at least one type of storage medium among optical disks.

제어부(380)는 통상적으로 단말기의 전반적인 동작을 제어한다. 예를 들어, 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 또한, 제어부(380)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(381)은 제어부(380) 내에 구현될 수도 있고, 제어부(380)와 별도로 구현될 수도 있다.The controller 380 generally controls the overall operation of the terminal. For example, it performs related control and processing for voice calls, data communications, video calls, and the like. Also, the controller 380 may include a multimedia module 181 for playing multimedia. The multimedia module 381 may be implemented within the control unit 380 or may be implemented separately from the control unit 380 .

제어부(380)는 전술한 포토 스튜디오 운영 방법을 구현하기 위한 단말기의 다양한 동작을 제어한다.The controller 380 controls various operations of the terminal for implementing the above-described photo studio operating method.

전원 공급부(290)는 제어부(280)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 290 receives external power and internal power under the control of the control unit 280 to supply power required for operation of each component.

한편, 상술한 운영 서버(100)의 동작 중 적어도 일부 또는 전부는 사용자 단말(300)에서 구현될 수도 있다. 이때, 사용자 단말(300)에는 운영 서버(100)와 통신하여 상술한 운영 서버(100)의 동작을 수행하기 위한 애플리케이션이 미리 설치될 수 있다.On the other hand, at least some or all of the operation of the above-described operation server 100 may be implemented in the user terminal (300). In this case, an application for communicating with the operation server 100 and performing the operation of the operation server 100 described above may be installed in the user terminal 300 in advance.

도 17은 본 발명의 일 실시예에 따른 통신 과정에서 적용될 수 있는 무선 통신 시스템을 나타낸 도면이다. 도 18은 도 17에 따른 무선 통신 시스템에서 기지국을 나타낸 도면이다. 도 19은 도 17에 따른 무선 통신 시스템에서 단말을 나타낸 도면이다. 도 20은 도 17에 따른 무선 통신 시스템에서 통신 인터페이스를 나타낸 도면이다.17 is a diagram illustrating a wireless communication system that can be applied in a communication process according to an embodiment of the present invention. 18 is a diagram illustrating a base station in the wireless communication system according to FIG. 17 . 19 is a diagram illustrating a terminal in the wireless communication system of FIG. 17 . 20 is a diagram illustrating a communication interface in the wireless communication system according to FIG. 17 .

이하에서는 각종 서버들과 단말들 사이의 통신을 지원하는 무선 통신 네트워크 시스템의 일례를 구체적으로 예를 들어 설명한다. 다음 설명에서, 제1 노드(장치)는 앵커/도너 노드 또는 앵커/도너 노드의 CU(centralized unit) 일 수 있고, 제2 노드(장치)는 앵커/도너 노드 또는 릴레이 노드의 DU(distributed unit) 일 수 있다.Hereinafter, an example of a wireless communication network system supporting communication between various servers and terminals will be described in detail as an example. In the following description, a first node (device) may be an anchor/donor node or a centralized unit (CU) of an anchor/donor node, and a second node (device) may be an anchor/donor node or a distributed unit (DU) of a relay node. can be

무선 통신 시스템에서 무선 채널을 사용하는 노드의 일부로 기지국(base station, BS), 단말, 서버 등이 포함될 수 있다.As a part of a node using a radio channel in a wireless communication system, a base station (BS), a terminal, a server, and the like may be included.

기지국은 단말 및 단말에 무선 액세스를 제공하는 네트워크 인프라이다. 기지국은 신호가 전송될 수 있는 거리에 따라 소정의 지리적 영역으로 정의된 커버리지를 갖는다.A base station is a network infrastructure that provides wireless access to terminals and terminals. A base station has coverage defined as a certain geographic area according to the distance over which signals can be transmitted.

기지국은 "기지국"과 마찬가지로 "액세스 포인트(access point, AP)", "이노드비(enodeb, eNB)", "5 세대(5th generation, 5G) 노드", "무선 포인트(wireless point)", "송/수신 포인트(transmission/reception point, TRP)" 지칭될 수 있다.A base station is an "access point (AP)", "enodeb (eNB)", "5th generation (5G) node", "wireless point", " It may be referred to as a "transmission/reception point (TRP)".

기지국, 단말 및 단말은 밀리미터 파(millimeter wave, mmWave) 대역(예: 28GHz, 30GHz, 38GHz, 60GHz)으로 무선 신호를 송수신할 수 있다. 이때, 채널 이득 향상을 위해 기지국, 단말 및 단말은 빔포밍을 수행할 수 있다. 빔포밍은 송신 빔포밍 및 수신 빔포밍을 포함할 수 있다. 즉, 기지국, 단말 및 단말은 송신 신호와 수신 신호에 지향성을 부여할 수 있다. 이를 위해 기지국, 단말 및 단말은 빔 탐색 절차 또는 빔 관리 절차를 통해 서빙 빔을 선택할 수 있다. 그 후, 통신은 서빙 빔을 운반하는 자원과 준 동일위치(quasi co-located) 관계에 있는 자원을 사용하여 수행될 수 있다.The base station, the terminal, and the terminal may transmit and receive radio signals in millimeter wave (mmWave) bands (eg, 28 GHz, 30 GHz, 38 GHz, 60 GHz). In this case, the base station, the terminal, and the terminal may perform beamforming to improve the channel gain. Beamforming may include transmit beamforming and receive beamforming. That is, the base station, the terminal, and the terminal may impart directivity to the transmitted signal and the received signal. To this end, the base station, the terminal, and the terminal may select a serving beam through a beam discovery procedure or a beam management procedure. Thereafter, communication may be performed using a resource that is in a quasi co-located relationship with a resource carrying the serving beam.

첫 번째 안테나 포트 및 두 번째 안테나 포트는 첫 번째 안테나 포트의 심볼이 전달되는 채널의 대규모 속성이 두 번째 안테나 포트의 심볼이 전달되는 채널에서 유추될 수 있는 경우 준 동일위치 위치에 있는 것으로 간주된다. 대규모 속성은 지연 확산, 도플러 확산, 도플러 시프트, 평균 이득, 평균 지연 및 공간 Rx 파라미터 중 하나 이상을 포함할 수 있다.The first antenna port and the second antenna port are considered quasi-co-located if the large-scale properties of the channel through which the symbol of the first antenna port is carried can be inferred from the channel through which the symbol of the second antenna port is carried. The large-scale attribute may include one or more of delay spread, Doppler spread, Doppler shift, average gain, average delay, and spatial Rx parameters.

이하에서는 상술한 무선 통신 시스템에서 기지국을 예시한다. 이하에서 사용되는 "-모듈(module)", "-부(unit)"또는 "-er"라는 용어는 적어도 하나의 기능 또는 동작을 처리하는 유닛을 의미할 수 있으며, 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있다.Hereinafter, a base station is exemplified in the above-described wireless communication system. The terms “-module”, “-unit” or “-er” used hereinafter may mean a unit that processes at least one function or operation, and includes hardware, software, or hardware and software. It can be implemented as a combination of

기지국은 무선 통신 인터페이스, 백홀 통신 인터페이스, 저장부(storage unit 및 컨트롤러을 포함할 수 있다.The base station may include a wireless communication interface, a backhaul communication interface, a storage unit and a controller.

무선 통신 인터페이스는 무선 채널을 통해 신호를 송수신하는 기능을 수행한다. 예를 들어, 무선 통신 인터페이스는 시스템의 물리 계층 표준에 따라 베이스 밴드 신호와 비트 스트림 간의 변환 기능을 수행할 수 있다. 예를 들어, 데이터 전송에서, 무선 통신 인터페이스은 전송 비트 스트림을 압축 및 변조하여 복합 심볼을 생성한다. 또한, 데이터 수신 시 무선 통신 인터페이스는 베이스 밴드 신호를 복조 및 디코딩하여 수신 비트 스트림을 재구성한다.The wireless communication interface performs a function of transmitting and receiving signals through a wireless channel. For example, the wireless communication interface may perform a conversion function between a baseband signal and a bit stream according to a physical layer standard of the system. For example, in data transmission, a wireless communication interface compresses and modulates a transmitted bit stream to produce a complex symbol. In addition, upon data reception, the wireless communication interface demodulates and decodes the baseband signal to reconstruct the received bit stream.

무선 통신 인터페이스는 무선 채널을 통해 신호를 송수신하는 기능을 수행한다. 예를 들어, 무선 통신 인터페이스은 시스템의 물리 계층 표준에 따라 베이스 밴드 신호와 비트 스트림 간의 변환 기능을 수행할 수 있다. 예를 들어, 데이터 전송에서, 무선 통신 인터페이스은 전송 비트 스트림을 압축 및 변조하여 복합 심볼을 생성한다. 또한, 데이터 수신 시 무선 통신 인터페이스은 베이스 밴드 신호를 복조 및 디코딩하여 수신 비트 스트림을 재구성한다.The wireless communication interface performs a function of transmitting and receiving signals through a wireless channel. For example, the wireless communication interface may perform a conversion function between a baseband signal and a bit stream according to a physical layer standard of the system. For example, in data transmission, a wireless communication interface compresses and modulates a transmitted bit stream to produce a complex symbol. In addition, upon data reception, the wireless communication interface demodulates and decodes the baseband signal to reconstruct the received bit stream.

또한, 무선 통신 인터페이스는 베이스 대역 신호를 RF(Radio Frequency) 대역 신호로 상향 변환하고, 변환된 신호를 안테나를 통해 전송한 후 안테나를 통해 수신된 RF 대역 신호를 베이스 대역 신호로 하향 변환한다. 이를 위해, 무선 통신 인터페이스은 송신 필터(transmission filter), 수신 필터(reception filter), 증폭기(amplifier), 믹서(mixer), 발진기(oscillator), 디지털-아날로그 컨버터(digital-to-analog convertor, DAC), 아날로그-디지털 컨버터(analog-to-digital convertor, ADC) 등을 포함할 수 있다. 또한, 무선 통신 인터페이스는 복수의 송수신 경로를 포함할 수 있다. 또한, 무선 통신 인터페이스는 복수의 안테나 요소를 포함하는 적어도 하나의 안테나 어레이를 포함할 수 있다.In addition, the wireless communication interface up-converts the base band signal into a radio frequency (RF) band signal, transmits the converted signal through the antenna, and then down-converts the RF band signal received through the antenna into a base band signal. To this end, the wireless communication interface includes a transmission filter, a reception filter, an amplifier, a mixer, an oscillator, a digital-to-analog converter (DAC), It may include an analog-to-digital converter (ADC) and the like. Also, the wireless communication interface may include a plurality of transmission/reception paths. Further, the wireless communication interface may include at least one antenna array including a plurality of antenna elements.

하드웨어 측면에서 무선 통신 인터페이스는 디지털 유닛과 아날로그 유닛을 포함할 수 있고, 아날로그 유닛은 동작 전력, 동작 주파수 등에 따라 복수의 서브 유닛을 포함할 수 있다. 디지털 유닛은 적어도 하나의 프로세서(예를 들어, 디지털 신호 프로세서(digital signal processor, DSP))로 구현될 수 있다.In terms of hardware, the wireless communication interface may include a digital unit and an analog unit, and the analog unit may include a plurality of sub-units according to operating power, operating frequency, and the like. The digital unit may be implemented with at least one processor (eg, a digital signal processor (DSP)).

무선 통신 인터페이스는 전술한 바와 같이 신호를 송수신한다. 따라서, 무선 통신 인터페이스는 "송신기(transmitter)", "수신기(receiver)"또는 "트랜시버(transceiver)"로 지칭될 수 있다. 또한, 이하의 설명에서 무선 채널을 통해 수행되는 송수신은 전술한 바와 같이 무선 통신 인터페이스에서 수행되는 처리를 포함하는 의미로 사용될 수 있다.The wireless communication interface transmits and receives signals as described above. Accordingly, a wireless communication interface may be referred to as a "transmitter", "receiver" or "transceiver". In addition, in the following description, transmission/reception performed through a wireless channel may be used to include processing performed in a wireless communication interface as described above.

백홀 통신 인터페이스는 네트워크 내의 다른 노드와 통신을 수행하기위한 인터페이스를 제공한다. 즉, 백홀 통신 인터페이스는 다른 노드로 전송되는 비트 스트림을 변환하고, 예를 들어, 다른 액세스 노드, 다른 기지국, 상위 노드 또는 기지국으로부터의 코어 네트워크는 물리적 신호로, 다른 노드로부터 수신된 물리적 신호를 비트 스트림으로 변환한다.The backhaul communication interface provides an interface for performing communication with other nodes in the network. That is, the backhaul communication interface converts the bit stream transmitted to another node, for example, another access node, another base station, a higher node or a core network from a base station converts the physical signal received from the other node into a physical signal. Convert to stream.

저장부는 기본 프로그램, 어플리케이션, 기지국의 동작을 위한 설정 정보 등의 데이터를 저장한다. 저장부는 휘발성 메모리, 비 휘발성 메모리 또는 휘발성 메모리와 비 휘발성 메모리의 조합을 포함할 수 있다.The storage unit stores data such as basic programs, applications, and setting information for operation of the base station. The storage unit may include a volatile memory, a non-volatile memory, or a combination of a volatile memory and a non-volatile memory.

컨트롤러는 기지국의 전반적인 동작을 제어한다. 예를 들어, 컨트롤러는 무선 통신 인터페이스 또는 백홀 통신 인터페이스를 통해 신호를 송수신한다. 또한 컨트롤러는 저장부에 데이터를 기록하고 기록된 데이터를 읽는다. 컨트롤러는 통신 규격에서 요구하는 프로토콜 스택의 기능을 수행할 수 있다. 다른 구현에 따르면, 프로토콜 스택은 무선 통신 인터페이스에 포함될 수 있다. 이를 위해 컨트롤러는 적어도 하나의 프로세서를 포함할 수 있다.The controller controls the overall operation of the base station. For example, the controller transmits and receives signals through a wireless communication interface or a backhaul communication interface. In addition, the controller writes data to the storage and reads the recorded data. The controller can perform the function of the protocol stack required by the communication standard. According to another implementation, the protocol stack may be included in a wireless communication interface. To this end, the controller may include at least one processor.

일 실시 예에 따르면 컨트롤러는 본 발명의 실시 예에 따른 동작을 수행하도록 기지국을 제어할 수 있다.According to an embodiment, the controller may control the base station to perform an operation according to an embodiment of the present invention.

다양한 실시 예에 따르면, 무선 통신 시스템의 도너 노드는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서에 동작 가능하게 결합된 트랜시버를 포함하고, 상기 릴레이 노드에 액세스하는 단말에 대한 복수의 라디오 베어러에 관한 상기 도너 노드와 관련된 제1 정보를 포함하는 제1 메시지를 릴레이 노드로 전송하도록 구성되고; 상기 릴레이 노드로부터 상기 단말에 대한 복수의 라디오 베어러에 관한 상기 릴레이 노드와 관련된 제2 정보를 포함하는 제2 메시지를 수신하고; 단말에 대한 데이터를 릴레이 노드로 전송할 수 있다. 데이터는 제1 정보 및 제2 정보에 기초하여 복수의 라디오 베어러를 통해 단말로 전송될 수 있다.According to various embodiments, a donor node of a wireless communication system includes at least one processor, a transceiver operatively coupled to the at least one processor, and a plurality of radio bearers for a terminal accessing the relay node. and send to the relay node a first message including first information related to the donor node regarding receive, from the relay node, a second message including second information related to the relay node regarding a plurality of radio bearers for the terminal; Data for the terminal may be transmitted to the relay node. Data may be transmitted to the terminal through a plurality of radio bearers based on the first information and the second information.

다양한 실시 예에 따르면, 복수의 라디오 베어러 중 라디오 베어러는 복수의 라디오 베어러를 통합시킬 수 있다. 적어도 하나의 프로세서는 또한 릴레이 노드에 액세스하는 단말에 대한 라디오 베어러 및 라디오 베어러에 의해 통합된 다중 라디오 베어러를 결정하도록 구성되고; 또는 릴레이 노드에 액세스하는 단말에 대한 라디오 베어러를 결정할 수 있다.According to various embodiments, a radio bearer among a plurality of radio bearers may aggregate a plurality of radio bearers. the at least one processor is further configured to determine a radio bearer for the terminal accessing the relay node and a multiple radio bearer aggregated by the radio bearer; Alternatively, a radio bearer for a terminal accessing the relay node may be determined.

다양한 실시 예에 따르면, 제1 메시지는 다음 중 하나 이상을 포함할 수 있다: 릴레이 노드에 액세스하는 터미널의 식별; 릴레이 노드에 접속하는 단말의 종류를 나타내는 표시 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러에 대한 정보; 릴레이 노드에 액세스하는 단말에 의해 전달된 라디오 베어러에 대한 정보; 도너 노드와 릴레이 노드 사이의 라디오 베어러에 대해 설정된 터널에 대한 정보; 통합된 다중 라디오 베어러에 대한 정보; 라디오 베어러 매핑 정보; 도너 노드 측면의 주소에 대한 정보; 릴레이 노드 측의 주소에 대한 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러에 대응하는 표시 정보; 릴레이 노드에 액세스하는 단말에 대해 새로운 주소를 라디오 베어러에 할당하도록 릴레이 노드를 나타내는 표시 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러의 데이터를 전송하는 릴레이 노드가 사용할 수 없는 주소 정보 목록; 및 보안 구성과 관련된 정보.According to various embodiments, the first message may include one or more of the following: identification of a terminal accessing the relay node; display information indicating the type of terminal accessing the relay node; information on a radio bearer of a terminal accessing a relay node; information on the radio bearer delivered by the terminal accessing the relay node; information on the tunnel established for the radio bearer between the donor node and the relay node; information on the aggregated multiple radio bearers; radio bearer mapping information; information about the address of the side of the donor node; information on the address of the relay node side; indication information corresponding to a radio bearer of a terminal accessing a relay node; indication information indicating the relay node to allocate a new address to a radio bearer for a terminal accessing the relay node; a list of address information that cannot be used by a relay node that transmits data of a radio bearer of a terminal accessing the relay node; and information related to security configuration.

다양한 실시 예에 따르면, 제2 메시지는 다음 중 하나 이상을 포함할 수 있다: 릴레이 노드에 액세스하는 터미널의 식별; 릴레이 노드에 의해 승인된 라디오 베어러에 대한 정보; 릴레이 노드에 의해 승인되지 않은 라디오 베어러에 대한 정보; 릴레이 노드에 의해 부분적으로 승인된 라디오 베어러에 대한 정보; 라디오 베어러 매핑 정보; 릴레이 노드가 생성한 릴레이 노드에 접속하는 단말의 구성 정보; 릴레이 노드 측의 주소에 대한 정보; 및 보안 구성과 관련된 정보.According to various embodiments, the second message may include one or more of the following: identification of a terminal accessing the relay node; information on radio bearers accepted by the relay node; information on radio bearers not acknowledged by the relay node; information on radio bearers partially granted by the relay node; radio bearer mapping information; configuration information of a terminal accessing the relay node generated by the relay node; information on the address of the relay node side; and information related to security configuration.

다양한 실시 예에 따르면, 제2 메시지는 통합된 다중 라디오 베어러에 대한 정보를 더 포함할 수 있다.According to various embodiments, the second message may further include information on the integrated multi-radio bearer.

다양한 실시 예에 따르면, 도너 노드는 도너 노드의 중앙 유닛을 포함하고, 릴레이 노드는 도너 노드의 분산 유닛을 포함할 수 있다.According to various embodiments, the donor node may include a central unit of the donor node, and the relay node may include a distributed unit of the donor node.

다양한 실시 예에 따르면, 무선 통신 시스템의 릴레이 노드는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서에 동작 가능하게 결합된 트랜시버를 포함하고, 도너 노드로부터, 릴레이 노드에 액세스하는 단말에 대한 복수의 라디오 베어러에 관한 도너 노드와 관련된 제1 정보를 포함하는 제1 메시지를 수신하도록 구성되고; 단말에 대한 복수의 라디오 베어러에 관한 릴레이 노드와 관련된 제2 정보를 포함하는 제2 메시지를 도너 노드로 전송하고; 도너 노드로부터 단말기에 대한 데이터를 수신할 수 있다. 데이터는 제1 정보 및 제2 정보에 기초하여 복수의 라디오 베어러를 통해 단말로 전송될 수 있다.According to various embodiments, a relay node of a wireless communication system includes at least one processor, a transceiver operatively coupled to the at least one processor, and a plurality of terminals accessing the relay node from a donor node. configured to receive a first message comprising first information related to a donor node regarding a radio bearer of ; transmit a second message including second information related to the relay node regarding the plurality of radio bearers to the terminal to the donor node; It is possible to receive data for the terminal from the donor node. Data may be transmitted to the terminal through a plurality of radio bearers based on the first information and the second information.

다양한 실시 예에 따르면, 복수의 라디오 베어러 중 라디오 베어러는 복수의 라디오 베어러를 통합시킬 수 있다. 적어도 하나의 프로세서는 또한 릴레이 노드에 액세스하는 단말에 대한 라디오 베어러 및 라디오 베어러에 의해 통합된 다중 라디오 베어러를 결정하도록 구성되고; 또는 라디오 베어러에 의해 통합된 다중 라디오 베어러를 결정할 수 있다.According to various embodiments, a radio bearer among a plurality of radio bearers may aggregate a plurality of radio bearers. the at least one processor is further configured to determine a radio bearer for the terminal accessing the relay node and a multi-radio bearer united by the radio bearer; Alternatively, multiple radio bearers integrated by the radio bearer may be determined.

다양한 실시 예에 따르면, 제1 메시지는 다음 중 하나 이상을 포함할 수 있다: 릴레이 노드에 액세스하는 터미널의 식별; 릴레이 노드에 접속하는 단말의 종류를 나타내는 표시 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러에 대한 정보; 릴레이 노드에 액세스하는 단말에 의해 전달된 라디오 베어러에 대한 정보; 도너 노드와 릴레이 노드 사이의 라디오 베어러에 대해 설정된 터널에 대한 정보; 통합된 다중 라디오 베어러에 대한 정보; 라디오 베어러 매핑 정보; 도너 노드 측면의 주소에 대한 정보; 릴레이 노드 측의 주소에 대한 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러에 대응하는 표시 정보; 릴레이 노드에 액세스하는 단말에 대해 새로운 주소를 라디오 베어러에 할당하도록 릴레이 노드를 나타내는 표시 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러의 데이터를 전송하는 릴레이 노드가 사용할 수 없는 주소 정보 목록; 및 보안 구성과 관련된 정보.According to various embodiments, the first message may include one or more of the following: identification of a terminal accessing the relay node; display information indicating the type of terminal accessing the relay node; information on a radio bearer of a terminal accessing a relay node; information on the radio bearer delivered by the terminal accessing the relay node; information on the tunnel established for the radio bearer between the donor node and the relay node; information on the aggregated multiple radio bearers; radio bearer mapping information; information about the address of the side of the donor node; information on the address of the relay node side; indication information corresponding to a radio bearer of a terminal accessing a relay node; indication information indicating the relay node to allocate a new address to a radio bearer for a terminal accessing the relay node; a list of address information that cannot be used by a relay node that transmits data of a radio bearer of a terminal accessing the relay node; and information related to security configuration.

다양한 실시 예에 따르면, 제2 메시지는 다음 중 하나 이상을 포함할 수 있다: 릴레이 노드에 액세스하는 터미널의 식별; 릴레이 노드에 의해 승인된 라디오 베어러에 대한 정보; 릴레이 노드에 의해 승인되지 않은 라디오 베어러에 대한 정보; 릴레이 노드에 의해 부분적으로 승인된 라디오 베어러에 대한 정보; 라디오 베어러 매핑 정보; 릴레이 노드가 생성한 릴레이 노드에 접속하는 단말의 구성 정보; 릴레이 노드 측의 주소에 대한 정보; 및 보안 구성과 관련된 정보.According to various embodiments, the second message may include one or more of the following: identification of a terminal accessing the relay node; information on radio bearers accepted by the relay node; information on radio bearers not acknowledged by the relay node; information on radio bearers partially granted by the relay node; radio bearer mapping information; configuration information of a terminal accessing the relay node generated by the relay node; information on the address of the relay node side; and information related to security configuration.

다양한 실시 예에 따르면, 제2 메시지는 통합된 다중 라디오 베어러에 대한 정보를 더 포함할 수 있다.According to various embodiments, the second message may further include information on the integrated multi-radio bearer.

다양한 실시 예에 따르면, 도너 노드는 도너 노드의 중앙 유닛을 포함하고, 릴레이 노드는 도너 노드의 분산 유닛을 포함할 수 있다.According to various embodiments, the donor node may include a central unit of the donor node, and the relay node may include a distributed unit of the donor node.

이하에서는 상술한 무선 통신 시스템에서 단말의 구성요소를 도시한다. 이하에서는 설명하는 단말의 구성요소는 무선 통신 시스템에서 지원하는 범용적인 단말의 구성요소로서 전술한 내용들에 따른 단말의 구성요소와 병합되거나 통합될 수 있고, 일부 중첩되거나 상충되는 범위에서 앞서 도면을 참조하여 설명한 내용이 우선적용되는 것으로 해석될 수 있다. 이하에서 사용되는 "-모듈", "-유닛"또는 "-er"라는 용어는 적어도 하나의 기능을 처리하는 유닛을 의미할 수 있다.Hereinafter, components of a terminal in the above-described wireless communication system are illustrated. The components of the terminal to be described below are components of a universal terminal supported by the wireless communication system, and may be merged or integrated with the components of the terminal according to the above-described contents. Contents described with reference may be interpreted as having priority. The terms “-module”, “-unit” or “-er” used below may refer to a unit that processes at least one function.

단말은 통신 인터페이스, 저장부 및 컨트롤러를 포함한다.The terminal includes a communication interface, a storage unit and a controller.

통신 인터페이스는 무선 채널을 통해 신호를 송수신하는 기능을 수행한다. 예를 들어, 통신 인터페이스는 시스템의 물리 계층 표준에 따라 베이스 밴드 신호와 비트 스트림 간의 변환 기능을 수행한다. 예를 들어, 데이터 전송에서 통신 인터페이스는 전송 비트 스트림을 압축 및 변조하여 복합 심볼을 생성한다. 또한, 데이터 수신시 통신 인터페이스는 베이스 대역 신호를 복조 및 복호화하여 수신 비트 스트림을 재구성한다. 또한, 통신 인터페이스는 베이스 대역 신호를 RF 대역 신호로 상향 변환하고, 변환된 신호를 안테나를 통해 전송한 후 안테나를 통해 수신된 RF 대역 신호를 기저 대역 신호로 하향 변환한다. 예를 들어, 통신 인터페이스는 송신 필터(transmission filter), 수신 필터(reception filter), 증폭기(amplifier), 믹서(mixer), 발진기(oscillator), 디지털-아날로그 컨버터(digital-to-analog convertor, DAC), 아날로그-디지털 컨버터(analog-to-digital convertor, ADC) 등을 포함할 수 있다.The communication interface performs a function of transmitting and receiving signals through a wireless channel. For example, the communication interface performs a function of converting between a baseband signal and a bit stream according to the physical layer standard of the system. For example, in data transmission, a communication interface compresses and modulates a transport bit stream to produce a complex symbol. In addition, upon data reception, the communication interface demodulates and decodes the baseband signal to reconstruct the received bit stream. In addition, the communication interface up-converts the base band signal into an RF band signal, transmits the converted signal through the antenna, and then down-converts the RF band signal received through the antenna into a base band signal. For example, the communication interface may include a transmission filter, a reception filter, an amplifier, a mixer, an oscillator, and a digital-to-analog converter (DAC). , an analog-to-digital converter (ADC), and the like.

또한, 통신 인터페이스는 복수의 송수신 경로를 포함할 수 있다. 또한, 통신 인터페이스는 복수의 안테나 요소를 포함하는 적어도 하나의 안테나 어레이를 포함할 수 있다. 하드웨어 측에서 무선 통신 인터페이스는 디지털 회로 및 아날로그 회로(예를 들어, radio frequency integrated circuit, RFIC)를 포함할 수 있다. 디지털 회로는 적어도 하나의 프로세서(예: DSP)로 구현될 수 있다. 통신 인터페이스는 복수의 RF 체인을 포함할 수 있다. 통신 인터페이스는 빔포밍을 수행할 수 있다.Also, the communication interface may include a plurality of transmission/reception paths. Further, the communication interface may include at least one antenna array including a plurality of antenna elements. On the hardware side, the wireless communication interface may include a digital circuit and an analog circuit (eg, a radio frequency integrated circuit, RFIC). The digital circuit may be implemented by at least one processor (eg, DSP). The communication interface may include a plurality of RF chains. The communication interface may perform beamforming.

통신 인터페이스는 전술한 바와 같이 신호를 송수신한다. 따라서, 통신 인터페이스는 "송신기(transmitter)", "수신기(receiver)"또는 "트랜시버(transceiver)"로 지칭될 수 있다. 또한, 이하의 설명에서 무선 채널을 통해 수행되는 송수신은 전술한 바와 같이 통신 인터페이스에서 수행되는 처리를 포함하는 의미로 사용될 수 있다.The communication interface transmits and receives signals as described above. Accordingly, a communication interface may be referred to as a "transmitter", "receiver" or "transceiver". In addition, in the following description, transmission and reception performed through a wireless channel may be used to include processing performed in a communication interface as described above.

저장부는 단말기의 동작을 위한 기본 프로그램, 어플리케이션, 설정 정보 등의 데이터를 저장한다. 저장부는 휘발성 메모리, 비 휘발성 메모리 또는 휘발성 메모리와 비 휘발성 메모리의 조합을 포함할 수 있다. 또한, 저장부는 컨트롤러의 요청에 따라 저장된 데이터를 제공한다.The storage unit stores data such as basic programs, applications, and setting information for the operation of the terminal. The storage unit may include a volatile memory, a non-volatile memory, or a combination of a volatile memory and a non-volatile memory. In addition, the storage unit provides the stored data according to the request of the controller.

컨트롤러는 단말의 전반적인 동작을 제어한다. 예를 들어, 컨트롤러는 통신 인터페이스를 통해 신호를 송수신한다. 또한 컨트롤러는 저장부에 데이터를 기록하고 기록된 데이터를 읽는다. 컨트롤러는 통신 규격에서 요구하는 프로토콜 스택의 기능을 수행할 수 있다. 다른 구현에 따르면, 프로토콜 스택은 통신 인터페이스에 포함될 수 있다. 이를 위해, 컨트롤러는 적어도 하나의 프로세서 또는 마이크로 프로세서를 포함하거나 프로세서의 일부를 재생할 수 있다. 또한, 통신 인터페이스 또는 컨트롤러의 일부를 통신 프로세서(communication processor, CP)라고 할 수 있다.The controller controls the overall operation of the terminal. For example, the controller sends and receives signals through a communication interface. In addition, the controller writes data to the storage and reads the recorded data. The controller can perform the function of the protocol stack required by the communication standard. According to another implementation, the protocol stack may be included in the communication interface. To this end, the controller may include at least one processor or microprocessor or regenerate a part of the processor. In addition, a part of the communication interface or controller may be referred to as a communication processor (CP).

본 발명의 일 실시 예에 따르면, 컨트롤러는 본 발명의 실시 예에 따른 동작을 수행하도록 단말을 제어할 수 있다.According to an embodiment of the present invention, the controller may control the terminal to perform the operation according to the embodiment of the present invention.

이하에서는 무선 통신 시스템에서 통신 인터페이스를 예시한다. Hereinafter, a communication interface in a wireless communication system is exemplified.

통신 인터페이스는 압축 및 변조 회로, 디지털 빔포밍 회로, 복수의 전송 경로 및 아날로그 빔포밍 회로를 포함한다.The communication interface includes compression and modulation circuitry, digital beamforming circuitry, a plurality of transmission paths, and analog beamforming circuitry.

압축 및 변조 회로는 채널 압축을 수행한다. 채널 압축을 위해 low-density parity check(LDPC) 코드, 컨볼루션 코드 및 폴라 코드 중 적어도 하나가 사용될 수 있다. 압축 및 변조 회로는 성상 매핑(constellation mapping)을 수행함으로써 변조 심볼을 생성한다.The compression and modulation circuitry performs channel compression. At least one of a low-density parity check (LDPC) code, a convolutional code, and a polar code may be used for channel compression. The compression and modulation circuitry generates modulation symbols by performing constellation mapping.

디지털 빔포밍 회로는 디지털 신호(예를 들어, 변조 심볼)에 대한 빔 형성을 수행한다. 이를 위해, 디지털 빔포밍 회로는 빔포밍 가중 값에 의해 변조 심볼을 다중화한다. 빔포밍 가중치는 신호의 크기 및 문구를 변경하는데 사용될 수 있으며, "프리코딩 매트릭스(precoding matrix)"또는 "프리코더(precoder)"라고 할 수 있다. 디지털 빔포밍 회로는 디지털 빔포밍된 변조 심볼을 복수의 전송 경로로 출력한다. 이때, 다중 안테나 기술(multiple input multiple output, MIMO) 전송 방식에 따라 변조 심볼이 다중화 되거나 동일한 변조 심볼이 복수의 전송 경로에 제공될 수 있다.The digital beamforming circuit performs beamforming on a digital signal (eg, a modulation symbol). To this end, the digital beamforming circuit multiplexes the modulation symbols by the beamforming weight value. The beamforming weight may be used to change the size and phrase of a signal, and may be referred to as a “precoding matrix” or a “precoder”. The digital beamforming circuit outputs digital beamformed modulation symbols to a plurality of transmission paths. In this case, modulation symbols may be multiplexed according to a multiple input multiple output (MIMO) transmission method, or the same modulation symbol may be provided to a plurality of transmission paths.

복수의 전송 경로는 디지털 빔포밍된 디지털 신호를 아날로그 신호로 변환한다. 이를 위해, 복수의 전송 경로 각각은 인버스 고속 푸리에 변환(inverse fast fourier transform, IFFT) 계산 유닛, 순환 전치(cyclic prefix, CP) 삽입 유닛, DAC 및 상향 변환 유닛을 포함할 수 있다. CP 삽입 부는 직교 주파수 분할 다중화(orthogonal frequency division multiplexing, OFDM) 방식을 위한 것으로 다른 물리 계층 방식(예: 필터 뱅크 다중 반송파(a filter bank multi-carrier): FBMC) 적용시 생략될 수 있다. 즉, 복수의 전송 경로는 디지털 빔포밍을 통해 생성된 복수의 스트림에 대해 독립적인 신호 처리 프로세스를 제공한다. 그러나, 구현에 따라 복수의 전송 경로의 일부 요소는 공통적으로 사용될 수 있다.The plurality of transmission paths converts the digital beamformed digital signal into an analog signal. To this end, each of the plurality of transmission paths may include an inverse fast Fourier transform (IFFT) calculation unit, a cyclic prefix (CP) insertion unit, a DAC, and an up-conversion unit. The CP insertion unit is for an orthogonal frequency division multiplexing (OFDM) method and may be omitted when other physical layer methods (eg, a filter bank multi-carrier: FBMC) are applied. That is, the plurality of transmission paths provide independent signal processing processes for a plurality of streams generated through digital beamforming. However, depending on the implementation, some elements of a plurality of transmission paths may be used in common.

아날로그 빔포밍 회로는 아날로그 신호에 대한 빔포밍을 수행한다. 이를 위해, 디지털 빔포밍 회로는 빔포밍 가중 값에 의해 아날로그 신호를 다중화한다. 빔포밍된 가중치는 신호의 크기와 문구를 변경하는데 사용된다. 보다 구체적으로, 복수의 전송 경로와 안테나 사이의 연결 구조에 따라, 아날로그 빔포밍 회로는 다양한 방식으로 구성될 수 있다. 예를 들어, 복수의 전송 경로 각각은 하나의 안테나 어레이에 연결될 수 있다. 다른 예에서, 복수의 전송 경로는 하나의 안테나 어레이에 연결될 수 있다. 또 다른 예에서, 복수의 전송 경로는 하나의 안테나 어레이에 적응적으로 연결될 수 있거나 2개 이상의 안테나 어레이에 연결될 수 있다.The analog beamforming circuit performs beamforming on an analog signal. To this end, the digital beamforming circuit multiplexes the analog signal by the beamforming weight value. Beamformed weights are used to change the size and text of the signal. More specifically, according to a connection structure between the plurality of transmission paths and the antenna, the analog beamforming circuit may be configured in various ways. For example, each of the plurality of transmission paths may be connected to one antenna array. In another example, a plurality of transmission paths may be coupled to one antenna array. In another example, the plurality of transmission paths may be adaptively coupled to one antenna array or may be coupled to two or more antenna arrays.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, as a software module executed by hardware, or by a combination thereof. A software module may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any type of computer-readable recording medium well known in the art to which the present invention pertains.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.In the above, embodiments of the present invention have been described with reference to the accompanying drawings, but those of ordinary skill in the art to which the present invention pertains can realize that the present invention can be embodied in other specific forms without changing the technical spirit or essential features thereof. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

100: 운영 서버 200: 촬영룸 서버
300: 사용자 단말 400: 크리에이터 단말
100: operation server 200: shooting room server
300: user terminal 400: creator terminal

Claims (9)

촬영룸 키오스크 및 사용자 단말과 연동된 포토 스튜디오 운영 시스템으로서,
사용자 단말의 사용자로부터 입력을 수신하고, 내장된 카메라를 이용하여 촬영된 이미지를 디스플레이를 통해 사용자에게 표시하도록 촬영룸에 구비된 촬영룸 키오스크;
상기 촬영룸 키오스크에 상기 촬영룸의 조명, 음악 및 상기 카메라를 제어하기 위한 기기 제어 신호를 전송하며, 상기 촬영룸 키오스크로부터 상기 카메라를 통해 촬영된 상기 이미지를 획득하는 운영 서버; 및
상기 운영 서버와 통신하여 상기 이미지를 획득하는 상기 사용자 단말을 포함하고,
상기 운영 서버는,
상기 촬영룸 키오스크로부터 상기 사용자가 선택한 촬영 컨셉에 기초하여 상기 기기 제어 신호를 생성하는 촬영 컨셉 제어부;
촬영된 상기 이미지를 공유 이미지로 설정하고, 설정된 공유 이미지를 상기 사용자 단말 또는 상기 촬영룸 키오스크에 공유하는 공유 서비스 제공부; 및
서로 다른 제1 촬영룸 키오스크와 제2 촬영룸 키오스크 각각의 카메라를 통해 실시간으로 획득된 제1 영상과 제2 영상을 합성하는 영상 합성부를 포함하고,
상기 영상 합성부는,
제1 사용자 단말로부터 원격 실행 모드를 요청받은 것에 응답하여, 상기 제1 영상과 상기 제2 영상을 획득하고, 상기 제2 영상에서 제2 사용자를 검출하고, 상기 제1 영상을 구성하는 복수의 이미지 프레임들에 상기 제2 사용자에 대응되는 픽셀 영역을 합성하되,
상기 제1 영상의 제1 사용자에 대응되는 픽셀 영역과 상기 제2 사용자에 대응되는 픽셀 영역이 중첩되는 경우, 중첩되는 부분의 상기 제1 사용자의 깊이 값과 상기 제2 사용자의 깊이 값을 비교하고, 깊이 값이 높은 사용자의 픽셀 영역은 삭제하고, 상기 깊이 값이 낮은 사용자의 픽셀 영역은 유지하여 제3 영상을 생성하고, 생성된 상기 제3 영상을 상기 제1 촬영룸 키오스크의 디스플레이에 표시하고,
상기 제1 촬영룸 키오스크는,
상기 제3 영상이 표시된 상태에 촬영 입력을 획득한 것에 응답하여, 상기 제3 영상에 대응하는 동영상을 촬영하고,
상기 제1 사용자 단말은,
촬영된 상기 동영상을 상기 운영 서버를 통해 획득하고, 획득된 동영상을 구성하는 복수의 이미지 프레임들 중 적어도 하나의 이미지 프레임에 기초하여 사진 프레임을 구성하는 사진을 결정하되,
상기 동영상을 선택하는 상기 제1 사용자의 입력에 응답하여, 상기 동영상에 기초한 상기 사진 프레임을 생성하고, 생성된 상기 사진 프레임을 조절할 수 있는 인터페이스를 상기 제1 사용자 단말에 탑재된 디스플레이를 통해 제공하고,
상기 인터페이스 내에서 획득되는 상기 제1 사용자의 드래그 입력에 따라 상기 사진 프레임의 모양, 상기 사진 프레임을 구성하는 사진 및 상기 사진의 개수를 결정하고,
상기 사진 프레임의 크기를 조절하는 상기 제1 사용자의 드래그 입력이 제1 시간 동안 획득되지 않는 경우, 상기 드래그 입력이 획득되지 않는 시점의 크기를 상기 사진 프레임의 크기로 결정하고,
상기 드래그 입력에 따라 결정된 상기 사진 프레임의 모양 및 크기에 대응되도록 상기 사진 프레임에 포함되는 사진들을 구성하고,
상기 동영상에서, 상기 동영상의 처음 제2 시간 및 마지막 제3 시간 각각에 대응되는 부분이 제외된 동영상을 실질 동영상으로 결정하고,
상기 결정된 사진의 개수가 M 개인 경우, 결정된 M개의 사진들 중 첫번째 사진은, 상기 실질 동영상의 (M-1) 등분된 구간들 중 첫번째 구간의 첫번째 이미지 프레임으로 결정되고, 상기 첫번째 사진 이후의 사진인 N번째 사진은 상기 실질 동영상의 (M-1) 등분된 구간들 중 (N-1)번째 구간의 마지막 프레임으로 결정되고, 상기 M은 2 이상의 자연수이며, 상기 N은 2 이상이고 M 이하인 자연수인, 포토 스튜디오 운영 시스템.
As a photo studio operating system interlocked with a shooting room kiosk and a user terminal,
a photographing room kiosk provided in a photographing room to receive an input from a user of the user terminal and display an image photographed using a built-in camera to the user through a display;
an operation server for transmitting a device control signal for controlling lighting, music, and the camera of the recording room to the photographing room kiosk, and acquiring the image photographed through the camera from the photographing room kiosk; and
Comprising the user terminal to obtain the image by communicating with the operation server,
The operating server is
a shooting concept control unit for generating the device control signal based on the shooting concept selected by the user from the shooting room kiosk;
a sharing service providing unit that sets the photographed image as a shared image and shares the set shared image with the user terminal or the recording room kiosk; and
Comprising an image synthesizing unit for synthesizing the first image and the second image acquired in real time through the respective cameras of the first and second photographing room kiosks, which are different from each other,
The image synthesizing unit,
In response to receiving a request for a remote execution mode from a first user terminal, the first image and the second image are acquired, a second user is detected from the second image, and a plurality of images constituting the first image A pixel area corresponding to the second user is synthesized in frames,
When the pixel area corresponding to the first user and the pixel area corresponding to the second user of the first image overlap, comparing the depth value of the first user and the depth value of the second user in the overlapping portion; , the pixel area of the user having a high depth value is deleted, the pixel area of the user having a low depth value is maintained to generate a third image, and the generated third image is displayed on the display of the first recording room kiosk, ,
The first shooting room kiosk,
In response to obtaining a shooting input in a state in which the third image is displayed, taking a video corresponding to the third image,
The first user terminal,
Obtaining the captured video through the operation server, and determining a photo constituting a photo frame based on at least one image frame among a plurality of image frames constituting the obtained video,
In response to the first user's input for selecting the moving picture, generating the photo frame based on the moving image, and providing an interface for adjusting the generated photo frame through a display mounted on the first user terminal, ,
determining the shape of the picture frame, pictures constituting the picture frame, and the number of pictures according to the drag input of the first user obtained in the interface;
When the drag input of the first user for adjusting the size of the photo frame is not obtained for a first time, the size of the time at which the drag input is not obtained is determined as the size of the photo frame,
composing photos included in the photo frame to correspond to the shape and size of the photo frame determined according to the drag input;
In the video, a video in which a portion corresponding to each of the first second time and the last third time of the video is excluded is determined as a real video,
When the determined number of pictures is M, the first picture among the determined M pictures is determined as the first image frame of the first section among the (M-1) equalized sections of the real video, and the pictures after the first picture The N-th picture is determined as the last frame of the (N-1)-th section among the (M-1) equally divided sections of the real video, wherein M is a natural number greater than or equal to 2, and N is a natural number greater than or equal to 2 and less than or equal to M. In, the photo studio operating system.
청구항 1에서,
상기 제1 사용자 단말은,
상기 사진 프레임의 두께, 컬러 및 상기 사진 프레임에 배치될 수 있는 사진의 개수를 결정하는, 포토 스튜디오 운영 시스템.
In claim 1,
The first user terminal,
A photo studio operating system for determining the thickness, color and number of photos that can be placed in the photo frame.
삭제delete 삭제delete 청구항 1에서,
상기 제1 사용자 단말은,
내부 저장소에서 필터 효과가 적용된 소스 이미지를 획득하고,
상기 소스 이미지로부터 상기 필터 효과가 없는 원본 이미지를 추정하고,
상기 소스 이미지와 상기 원본 이미지를 비교하여 상기 필터 효과를 추출하고,
상기 추출된 필터 효과를 상기 획득된 이미지에 적용하는, 포토 스튜디오 운영 시스템.
In claim 1,
The first user terminal,
Acquire the source image with the filter effect applied from the internal storage,
estimating an original image without the filter effect from the source image;
comparing the source image with the original image to extract the filter effect,
Applying the extracted filter effect to the obtained image, a photo studio operating system.
촬영룸 키오스크 및 사용자 단말과 연동된 운영 서버의 동작 방법으로서,
상기 촬영룸 키오스크로부터 상기 사용자 단말의 사용자가 선택한 촬영 컨셉에 기초하여 기기 제어 신호를 생성하는 동작(operation);
상기 기기 제어 신호에 따라 상기 촬영룸 키오스크를 이용하여 촬영된 이미지를 공유 이미지로 설정하고, 설정된 공유 이미지를 상기 사용자 단말 또는 상기 촬영룸 키오스크에 공유하는 동작;
서로 다른 제1 촬영룸 키오스크와 제2 촬영룸 키오스크 각각의 카메라를 통해 실시간으로 획득된 제1 영상과 제2 영상을 합성하는 동작; 및
제1 사용자 단말로부터 원격 실행 모드를 요청받은 것에 응답하여, 상기 제1 영상과 상기 제2 영상을 획득하는 동작;
상기 제2 영상에서 제2 사용자를 검출하고, 상기 제1 영상을 구성하는 복수의 이미지 프레임들에 상기 제2 사용자에 대응되는 픽셀 영역을 합성하는 동작;
상기 제1 영상의 제1 사용자에 대응되는 픽셀 영역과 상기 제2 사용자에 대응되는 픽셀 영역이 중첩되는 경우, 중첩되는 부분의 상기 제1 사용자의 깊이 값과 상기 제2 사용자의 깊이 값을 비교하는 동작;
깊이 값이 높은 사용자의 픽셀 영역은 삭제하고, 상기 깊이 값이 낮은 사용자의 픽셀 영역은 유지하여 제3 영상을 생성하는 동작; 및
생성된 상기 제3 영상을 상기 제1 촬영룸 키오스크의 디스플레이에 표시하는 동작을 포함하되,
상기 제1 촬영룸 키오스크는,
상기 제1 사용자 단말의 상기 제1 사용자로부터 입력을 수신하고, 내장된 카메라를 이용하여 촬영된 상기 이미지를 상기 제1 촬영룸 키오스크의 디스플레이를 통해 상기 사용자에게 표시하도록 촬영룸에 구비되고,
상기 제3 영상이 표시된 상태에 촬영 입력을 획득한 것에 응답하여, 상기 제3 영상에 대응하는 동영상을 촬영하고,
상기 제1 사용자 단말은,
상기 운영 서버와 통신하여 상기 이미지를 획득하고,
촬영된 상기 동영상을 상기 운영 서버를 통해 획득하고, 획득된 동영상을 구성하는 복수의 이미지 프레임들 중 적어도 하나의 이미지 프레임에 기초하여 사진 프레임을 구성하는 사진을 결정하되,
상기 동영상을 선택하는 상기 제1 사용자의 입력에 응답하여, 상기 동영상에 기초한 상기 사진 프레임을 생성하고, 생성된 상기 사진 프레임을 조절할 수 있는 인터페이스를 상기 제1 사용자 단말에 탑재된 디스플레이를 통해 제공하고,
상기 인터페이스 내에서 획득되는 상기 제1 사용자의 드래그 입력에 따라 상기 사진 프레임의 모양, 상기 사진 프레임을 구성하는 사진 및 상기 사진의 개수를 결정하고,
상기 사진 프레임의 크기를 조절하는 상기 제1 사용자의 드래그 입력이 제1 시간 동안 획득되지 않는 경우, 상기 드래그 입력이 획득되지 않는 시점의 크기를 상기 사진 프레임의 크기로 결정하고,
상기 드래그 입력에 따라 결정된 상기 사진 프레임의 모양 및 크기에 대응되도록 상기 사진 프레임에 포함되는 사진들을 구성하고,
상기 동영상에서, 상기 동영상의 처음 제2 시간 및 마지막 제3 시간 각각에 대응되는 부분이 제외된 동영상을 실질 동영상으로 결정하고,
상기 결정된 사진의 개수가 M 개인 경우, 결정된 M개의 사진들 중 첫번째 사진은, 상기 실질 동영상의 (M-1) 등분된 구간들 중 첫번째 구간의 첫번째 이미지 프레임으로 결정되고, 상기 첫번째 사진 이후의 사진인 N번째 사진은 상기 실질 동영상의 (M-1) 등분된 구간들 중 (N-1)번째 구간의 마지막 프레임으로 결정되고, 상기 M은 2 이상의 자연수이며, 상기 N은 2 이상이고 M 이하인 자연수인, 운영 서버의 동작 방법.
As a method of operating a shooting room kiosk and an operation server interlocked with a user terminal,
generating a device control signal from the shooting room kiosk based on a shooting concept selected by a user of the user terminal;
setting an image photographed using the photographing room kiosk as a shared image according to the device control signal, and sharing the set shared image with the user terminal or the photographing room kiosk;
synthesizing the first image and the second image acquired in real time through the respective cameras of the first and second photographing room kiosks, which are different from each other; and
obtaining the first image and the second image in response to a request for a remote execution mode from a first user terminal;
detecting a second user from the second image and synthesizing a pixel region corresponding to the second user with a plurality of image frames constituting the first image;
When the pixel area corresponding to the first user and the pixel area corresponding to the second user of the first image overlap, comparing the depth value of the first user and the depth value of the second user in the overlapping portion movement;
generating a third image by deleting a pixel region of a user having a high depth value and maintaining a pixel region of a user having a low depth value; and
Comprising the operation of displaying the generated third image on the display of the first recording room kiosk,
The first shooting room kiosk,
It is provided in a recording room to receive an input from the first user of the first user terminal, and to display the image photographed using a built-in camera to the user through the display of the first recording room kiosk,
In response to obtaining a shooting input in a state in which the third image is displayed, taking a video corresponding to the third image,
The first user terminal,
acquiring the image by communicating with the operation server;
Obtaining the captured video through the operation server, and determining a photo constituting a photo frame based on at least one image frame among a plurality of image frames constituting the obtained video,
In response to the first user's input for selecting the moving picture, generating the photo frame based on the moving image, and providing an interface for adjusting the generated photo frame through a display mounted on the first user terminal, ,
determining the shape of the picture frame, pictures constituting the picture frame, and the number of pictures according to the drag input of the first user obtained in the interface;
When the drag input of the first user for adjusting the size of the photo frame is not obtained for a first time, the size of the time point at which the drag input is not obtained is determined as the size of the photo frame,
composing photos included in the photo frame to correspond to the shape and size of the photo frame determined according to the drag input;
In the video, a video in which a portion corresponding to each of the first second time and the last third time of the video is excluded is determined as a real video,
When the determined number of pictures is M, the first picture among the determined M pictures is determined as the first image frame of the first section among the (M-1) equalized sections of the real video, and the pictures after the first picture The N-th picture is determined as the last frame of the (N-1)-th section among the (M-1) equally divided sections of the real video, wherein M is a natural number greater than or equal to 2, and N is a natural number greater than or equal to 2 and less than or equal to M. In, how the operation server works.
청구항 6에 따른 방법을 실행시키기 위한 프로그램이 기록되고, 컴퓨터에 의해 읽혀질 수 있는, 비일시적 기록매체.A non-transitory recording medium in which a program for executing the method according to claim 6 is recorded and readable by a computer. 운영 서버에서, 청구항 6에 따른 방법을 실행시키기 위하여 비일시적 기록매체에 기록된 컴퓨터 프로그램.A computer program recorded in a non-transitory recording medium in order to execute the method according to claim 6 in the operating server. 촬영룸 키오스크 및 사용자 단말과 연동된 운영 서버로서,
상기 촬영룸 키오스크로부터 상기 사용자 단말의 사용자가 선택한 촬영 컨셉에 기초하여 기기 제어 신호를 생성하는 촬영 컨셉 제어부;
상기 기기 제어 신호에 따라 상기 촬영룸 키오스크를 이용하여 촬영된 이미지를 공유 이미지로 설정하고, 설정된 공유 이미지를 상기 사용자 단말 또는 상기 촬영룸 키오스크에 공유하는 공유 서비스 제공부; 및
서로 다른 제1 촬영룸 키오스크와 제2 촬영룸 키오스크 각각의 카메라를 통해 실시간으로 획득된 제1 영상과 제2 영상을 합성하는 영상 합성부를 포함하되,
상기 촬영룸 키오스크는, 상기 사용자 단말의 상기 사용자로부터 입력을 수신하고, 내장된 카메라를 이용하여 촬영된 상기 이미지를 디스플레이를 통해 상기 사용자에게 표시하도록 촬영룸에 구비되고,
상기 사용자 단말은, 상기 운영 서버와 통신하여 상기 이미지를 획득하고,
상기 영상 합성부는,
제1 사용자 단말로부터 원격 실행 모드를 요청받은 것에 응답하여, 상기 제1 영상과 상기 제2 영상을 획득하고, 상기 제2 영상에서 제2 사용자를 검출하고, 상기 제1 영상을 구성하는 복수의 이미지 프레임들에 상기 제2 사용자에 대응되는 픽셀 영역을 합성하되,
상기 제1 영상의 제1 사용자에 대응되는 픽셀 영역과 상기 제2 사용자에 대응되는 픽셀 영역이 중첩되는 경우, 중첩되는 부분의 상기 제1 사용자의 깊이 값과 상기 제2 사용자의 깊이 값을 비교하고, 깊이 값이 높은 사용자의 픽셀 영역은 삭제하고, 상기 깊이 값이 낮은 사용자의 픽셀 영역은 유지하여 제3 영상을 생성하고, 생성된 상기 제3 영상을 상기 제1 촬영룸 키오스크의 디스플레이에 표시하고,
상기 제1 촬영룸 키오스크는,
상기 제3 영상이 표시된 상태에 촬영 입력을 획득한 것에 응답하여, 상기 제3 영상에 대응하는 동영상을 촬영하고,
상기 제1 사용자 단말은,
촬영된 상기 동영상을 상기 운영 서버를 통해 획득하고, 획득된 동영상을 구성하는 복수의 이미지 프레임들 중 적어도 하나의 이미지 프레임에 기초하여 사진 프레임을 구성하는 사진을 결정하되,
상기 동영상을 선택하는 상기 제1 사용자의 입력에 응답하여, 상기 동영상에 기초한 상기 사진 프레임을 생성하고, 생성된 상기 사진 프레임을 조절할 수 있는 인터페이스를 상기 제1 사용자 단말에 탑재된 디스플레이를 통해 제공하고,
상기 인터페이스 내에서 획득되는 상기 제1 사용자의 드래그 입력에 따라 상기 사진 프레임의 모양, 상기 사진 프레임을 구성하는 사진 및 상기 사진의 개수를 결정하고,
상기 사진 프레임의 크기를 조절하는 상기 제1 사용자의 드래그 입력이 제1 시간 동안 획득되지 않는 경우, 상기 드래그 입력이 획득되지 않는 시점의 크기를 상기 사진 프레임의 크기로 결정하고,
상기 드래그 입력에 따라 결정된 상기 사진 프레임의 모양 및 크기에 대응되도록 상기 사진 프레임에 포함되는 사진들을 구성하고,
상기 동영상에서, 상기 동영상의 처음 제2 시간 및 마지막 제3 시간 각각에 대응되는 부분이 제외된 동영상을 실질 동영상으로 결정하고,
상기 결정된 사진의 개수가 M 개인 경우, 결정된 M개의 사진들 중 첫번째 사진은, 상기 실질 동영상의 (M-1) 등분된 구간들 중 첫번째 구간의 첫번째 이미지 프레임으로 결정되고, 상기 첫번째 사진 이후의 사진인 N번째 사진은 상기 실질 동영상의 (M-1) 등분된 구간들 중 (N-1)번째 구간의 마지막 프레임으로 결정되고, 상기 M은 2 이상의 자연수이며, 상기 N은 2 이상이고 M 이하인 자연수인, 운영 서버.
As an operation server interlocked with the shooting room kiosk and user terminal,
a photographing concept control unit for generating a device control signal from the photographing room kiosk based on a photographing concept selected by the user of the user terminal;
a sharing service providing unit that sets an image photographed using the photographing room kiosk as a shared image according to the device control signal, and shares the set shared image with the user terminal or the photographing room kiosk; and
Comprising an image synthesizing unit for synthesizing the first image and the second image acquired in real time through the respective cameras of the first and second filming room kiosks, which are different from each other,
The photographing room kiosk is provided in the photographing room to receive an input from the user of the user terminal, and to display the image photographed using a built-in camera to the user through a display,
The user terminal acquires the image by communicating with the operation server,
The image synthesizing unit,
In response to receiving a request for a remote execution mode from a first user terminal, the first image and the second image are acquired, a second user is detected from the second image, and a plurality of images constituting the first image A pixel area corresponding to the second user is synthesized in frames,
When the pixel area corresponding to the first user and the pixel area corresponding to the second user of the first image overlap, comparing the depth value of the first user and the depth value of the second user in the overlapping portion; , the pixel area of the user having a high depth value is deleted, the pixel area of the user having a low depth value is maintained to generate a third image, and the generated third image is displayed on the display of the first recording room kiosk, ,
The first shooting room kiosk,
In response to obtaining a shooting input in a state in which the third image is displayed, taking a video corresponding to the third image,
The first user terminal,
Obtaining the captured video through the operation server, and determining a photo constituting a photo frame based on at least one image frame among a plurality of image frames constituting the obtained video,
In response to the first user's input for selecting the moving picture, generating the photo frame based on the moving image, and providing an interface for adjusting the generated photo frame through a display mounted on the first user terminal, ,
determining the shape of the picture frame, pictures constituting the picture frame, and the number of pictures according to the drag input of the first user obtained in the interface;
When the drag input of the first user for adjusting the size of the photo frame is not obtained for a first time, the size of the time point at which the drag input is not obtained is determined as the size of the photo frame,
composing photos included in the photo frame to correspond to the shape and size of the photo frame determined according to the drag input;
In the video, a video in which a portion corresponding to each of the first second time and the last third time of the video is excluded is determined as a real video,
When the determined number of pictures is M, the first picture among the determined M pictures is determined as the first image frame of the first section among the (M-1) equalized sections of the real video, and the pictures after the first picture The N-th picture is determined as the last frame of the (N-1)-th section among the (M-1) equally divided sections of the real video, wherein M is a natural number greater than or equal to 2, and N is a natural number greater than or equal to 2 and less than or equal to M. In, operational server.
KR1020210097696A 2021-07-22 2021-07-26 Apparatus and method for generating a picture frame based on images taken through a shooting room kiosk KR102390838B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220049446A KR20230015268A (en) 2021-07-22 2022-04-21 Method and apparatus for creating a user's preferences photo through collaboration between an image stored in a user terminal and an image captured through a shooting room kiosk
KR1020220049451A KR102616384B1 (en) 2021-07-22 2022-04-21 Apparatus and method for generating a picture frame based on images taken through a shooting room kiosk

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20210096604 2021-07-22
KR1020210096604 2021-07-22
KR1020210097050 2021-07-23
KR20210097050 2021-07-23

Related Child Applications (2)

Application Number Title Priority Date Filing Date
KR1020220049446A Division KR20230015268A (en) 2021-07-22 2022-04-21 Method and apparatus for creating a user's preferences photo through collaboration between an image stored in a user terminal and an image captured through a shooting room kiosk
KR1020220049451A Division KR102616384B1 (en) 2021-07-22 2022-04-21 Apparatus and method for generating a picture frame based on images taken through a shooting room kiosk

Publications (1)

Publication Number Publication Date
KR102390838B1 true KR102390838B1 (en) 2022-04-28

Family

ID=81448047

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020210097696A KR102390838B1 (en) 2021-07-22 2021-07-26 Apparatus and method for generating a picture frame based on images taken through a shooting room kiosk
KR1020220049451A KR102616384B1 (en) 2021-07-22 2022-04-21 Apparatus and method for generating a picture frame based on images taken through a shooting room kiosk
KR1020220049446A KR20230015268A (en) 2021-07-22 2022-04-21 Method and apparatus for creating a user's preferences photo through collaboration between an image stored in a user terminal and an image captured through a shooting room kiosk

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020220049451A KR102616384B1 (en) 2021-07-22 2022-04-21 Apparatus and method for generating a picture frame based on images taken through a shooting room kiosk
KR1020220049446A KR20230015268A (en) 2021-07-22 2022-04-21 Method and apparatus for creating a user's preferences photo through collaboration between an image stored in a user terminal and an image captured through a shooting room kiosk

Country Status (1)

Country Link
KR (3) KR102390838B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102456273B1 (en) * 2022-07-14 2022-10-20 주식회사 그랜드엔터프라이즈 Method and apparatus of providing advertisement
CN116744124A (en) * 2023-08-16 2023-09-12 广州方图科技有限公司 Self-help shooting equipment background generation method and device, electronic equipment and storage medium
WO2023224154A1 (en) * 2022-05-17 2023-11-23 주식회사 딥브레인에이아이 Video recording system and method for compositing

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102539413B1 (en) * 2023-03-03 2023-06-02 주식회사 웜브로 Photo kiosk and operating method of the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140037373A (en) * 2012-09-17 2014-03-27 중앙대학교 산학협력단 Apparatus and method for transferring a color of image
US20190102924A1 (en) * 2017-09-29 2019-04-04 Apple Inc. Generating Synthetic Group Selfies
KR20210020293A (en) * 2019-08-14 2021-02-24 주식회사 백그라운드 Service system for providing rental studio for personal broadcasting

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100353478B1 (en) * 2001-04-21 2002-09-23 서영현 Updating method for star sticker automatic selling machine and the star sticker automatic selling machine
KR20040027179A (en) * 2002-09-27 2004-04-01 조영일 Photo-sticker vending machine and method for creating photo-sticker
KR100785929B1 (en) * 2006-07-18 2007-12-17 서울산업대학교 산학협력단 Contents recording system for linking online with offline and method thereof
KR20090001664A (en) * 2007-05-09 2009-01-09 박경열 Service system for print a photograph in a sticker photograph vending machine using a wire and wireless network
KR20140083311A (en) * 2012-12-26 2014-07-04 주식회사 스피어그램 Online photo printing system and method
KR101729206B1 (en) * 2015-11-17 2017-05-25 위올커뮤니케이션(주) System and method for image sharing
KR20180001440A (en) * 2016-06-25 2018-01-04 김정태 Touch free photo booth for high throughput direct photo delivery
KR101938207B1 (en) * 2016-07-27 2019-04-11 주식회사 아이오로라 Method for generating photo ticket and photo ticket generating apparatus implementing the same
KR20180017446A (en) * 2016-08-09 2018-02-21 세창인스트루먼트(주) Apparatus for producing a virtual synthesized image and method for the same
KR102243355B1 (en) * 2019-08-29 2021-04-22 (주)해시스냅 System for offering photo printing service based on hash-tag
KR20210054907A (en) * 2019-11-06 2021-05-14 엘지전자 주식회사 Method and apparatus for editing image
KR102612553B1 (en) * 2021-07-26 2023-12-12 (주)브이아이소프트 Photo booth system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140037373A (en) * 2012-09-17 2014-03-27 중앙대학교 산학협력단 Apparatus and method for transferring a color of image
US20190102924A1 (en) * 2017-09-29 2019-04-04 Apple Inc. Generating Synthetic Group Selfies
KR20210020293A (en) * 2019-08-14 2021-02-24 주식회사 백그라운드 Service system for providing rental studio for personal broadcasting

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023224154A1 (en) * 2022-05-17 2023-11-23 주식회사 딥브레인에이아이 Video recording system and method for compositing
KR102456273B1 (en) * 2022-07-14 2022-10-20 주식회사 그랜드엔터프라이즈 Method and apparatus of providing advertisement
KR102502678B1 (en) * 2022-07-14 2023-02-23 주식회사 그랜드엔터프라이즈 method for providing DID content and electronic device
KR102502679B1 (en) * 2022-07-14 2023-02-23 주식회사 그랜드엔터프라이즈 kiosk installed in a photo studio
CN116744124A (en) * 2023-08-16 2023-09-12 广州方图科技有限公司 Self-help shooting equipment background generation method and device, electronic equipment and storage medium
CN116744124B (en) * 2023-08-16 2023-11-10 广州方图科技有限公司 Shooting method and equipment of self-service shooting equipment, electronic equipment and storage medium

Also Published As

Publication number Publication date
KR102616384B1 (en) 2023-12-21
KR20230015268A (en) 2023-01-31
KR20230015269A (en) 2023-01-31

Similar Documents

Publication Publication Date Title
KR102390838B1 (en) Apparatus and method for generating a picture frame based on images taken through a shooting room kiosk
US11032514B2 (en) Method and apparatus for providing image service
US9253340B2 (en) Wireless camera with image sharing prioritization
US20130120592A1 (en) Method for wireless sharing of images
CN107135193A (en) Wireless device
KR20160080253A (en) Mobile device and method for controlling the same
WO2021197139A1 (en) Service recommending method, electronic device, and system
JP2014131215A (en) Image management system, image management method, and program
CN111866950A (en) Method and communication device for data transmission in MEC
JP6445707B2 (en) Image processing method and apparatus
CN104426588A (en) Method and device for mobile terminal synergistic shooting
CN112714327A (en) Interaction method, device and equipment based on live application program and storage medium
CN101751906B (en) Display method and photographing apparatus and display apparatus using the same
CN114697742A (en) Video recording method and electronic equipment
WO2022095712A1 (en) Data sharing method, apparatus and system, and electronic device
JPWO2016093063A1 (en) Image management system and image management method
KR102569419B1 (en) Augmented reality-based performance content providing device that supports a technology for correcting a visual difference according to a user's viewing position and performing method thereof
WO2022105793A1 (en) Image processing method and device
CN114466131B (en) Cross-device shooting method and related device
US11240634B1 (en) Systems and methods for initiating a secure media session between mobile computing devices during image capture
KR101630018B1 (en) Photographing apparatus and control method therof, group image managing system communicating the apparatus and control method therof, and recording medium for recording program for executing the control method
KR102632124B1 (en) The method and system for operating photo studio using mining token based on blockchain network
WO2024022307A1 (en) Screen mirroring method and electronic device
KR102572083B1 (en) The method and system for operating photo studio supporting camera parameter prediction model based on artificial neural network
WO2022188812A1 (en) Method for synchronizing software features between devices, and electronic device

Legal Events

Date Code Title Description
A107 Divisional application of patent
GRNT Written decision to grant