KR20230015268A - Method and apparatus for creating a user's preferences photo through collaboration between an image stored in a user terminal and an image captured through a shooting room kiosk - Google Patents
Method and apparatus for creating a user's preferences photo through collaboration between an image stored in a user terminal and an image captured through a shooting room kiosk Download PDFInfo
- Publication number
- KR20230015268A KR20230015268A KR1020220049446A KR20220049446A KR20230015268A KR 20230015268 A KR20230015268 A KR 20230015268A KR 1020220049446 A KR1020220049446 A KR 1020220049446A KR 20220049446 A KR20220049446 A KR 20220049446A KR 20230015268 A KR20230015268 A KR 20230015268A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- user
- user terminal
- photo
- kiosk
- Prior art date
Links
- 238000000034 method Methods 0.000 title description 30
- 230000000694 effects Effects 0.000 claims abstract description 58
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 10
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 10
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 6
- 230000008859 change Effects 0.000 claims description 25
- 230000004044 response Effects 0.000 claims description 18
- 238000003860 storage Methods 0.000 claims description 14
- 239000000284 extract Substances 0.000 abstract description 5
- 230000006854 communication Effects 0.000 description 94
- 238000004891 communication Methods 0.000 description 92
- 238000010586 diagram Methods 0.000 description 37
- 230000006870 function Effects 0.000 description 29
- 238000013507 mapping Methods 0.000 description 27
- 230000005540 biological transmission Effects 0.000 description 23
- 230000008569 process Effects 0.000 description 11
- 238000013461 design Methods 0.000 description 9
- 230000008921 facial expression Effects 0.000 description 8
- 238000010295 mobile communication Methods 0.000 description 7
- 230000005236 sound signal Effects 0.000 description 6
- 244000025254 Cannabis sativa Species 0.000 description 5
- 230000006835 compression Effects 0.000 description 5
- 238000007906 compression Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 238000011017 operating method Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 239000002131 composite material Substances 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 239000010409 thin film Substances 0.000 description 2
- 241000700605 Viruses Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/48—Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4015—Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
-
- G06T5/005—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/27—Server based end-user applications
- H04N21/274—Storing end-user multimedia data in response to end-user request, e.g. network recorder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Tourism & Hospitality (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Studio Devices (AREA)
Abstract
Description
본 발명은 사용자 단말에 저장된 이미지와 촬영룸 키오스크를 통해 촬영된 이미지의 콜라보레이션을 통해 사용자 취향의 사진을 생성하는 방법 및 장치에 관한 것으로, 더욱 상세하게는 사용자 단말에 저장된 필터 효과가 적용된 이미지를 통해 필터 효과를 추출하고 추출된 필터 효과를 촬영룸 키오스크를 통해 촬영된 이미지에 적용할 수 있도록 하는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for generating a user's favorite photo through collaboration between an image stored in a user terminal and an image captured through a photo shoot room kiosk, and more particularly, through an image to which a filter effect is applied stored in a user terminal A method and apparatus for extracting a filter effect and allowing the extracted filter effect to be applied to an image photographed through a photographing room kiosk.
기존의 포토 스튜디오의 경우 사진사가 사진을 직접 촬영하고, 촬영된 사진을 출력하여 사진 프레임을 제공하여 왔다. 다시 말해서, 과거 기념 사진 앨범의 제작은 포토 스튜디오에서 촬영하여 자체적으로 완료되어 사용자에게 제공하는 방식으로 이뤄졌다.In the case of an existing photo studio, a photographer directly takes a picture and outputs the photographed picture to provide a photo frame. In other words, the production of commemorative photo albums in the past was done in a way that they were taken in a photo studio, completed on their own, and provided to users.
그러나, 인터넷의 보급과 디지털 기술의 발전에 의해 포토 스튜디오에서 사용자가 직접 사진을 촬영하고 앨범 제작을 의뢰하면, 포토 스튜디오의 웹 사이트 혹은 웹 하드를 이용해서 앨범에 사용될 사진 파일을 열람하도록 하고, 또한 그 디지털 파일을 다운로드 받을 수 있도록 서비스가 개선되었다. 즉, 사용자들의 수요에 따라 무인 포토 스튜디오가 생겨나고 있으며, 이에 따라 사용자들은 편하게 방문하여 자신이 원하는 촬영 컨셉을 골라서 촬영을 하고 직접 사진을 출력할 수 있게 되었다.However, due to the spread of the Internet and the development of digital technology, when a user directly takes a picture in a photo studio and requests an album to be produced, the photo file to be used in the album is viewed using the photo studio's website or web hard. The service has been improved so that the digital files can be downloaded. That is, unmanned photo studios are being created according to the demand of users, and accordingly, users can conveniently visit, select the shooting concept they want, take a photo, and directly output the photo.
위와 같이, 근래에는 사용자의 촬영 접근성을 향상시키고, 사용자들에게 간편하게 서비스를 제공하기 위하여 스튜디오 환경에 대한 연구가 지속적으로 이루어지고 있는 추세이다.As described above, in recent years, it is a trend that studies on studio environments are continuously conducted in order to improve users' shooting accessibility and to provide convenient services to users.
스튜디오 환경에 대한 연구에 따라 사용자들의 수요는 더욱 증가하고 있고, 사용자 자신의 단독 사진뿐만 아니라, 자신이 원하는 촬영 컨셉에서 자신의 소중한 사람들과 함께 촬영하는 추세가 생기고 있다. 그러나, 최근 현대인의 바쁜 생활이나 바이러스와 같은 이슈 때문에 소중한 사람들과 직접 만나서 사진 촬영하는 것이 어려운 경우가 발생할 수 있다. 예를 들어, 사용자들끼리 시간 약속을 잡기 힘들거나, 사용자들간 거리가 멀어서 함께 스튜디오 촬영을 진행할 수 없는 경우가 발생할 수 있다.According to the research on the studio environment, users' demand is increasing, and there is a trend to take pictures with their precious people in a shooting concept they want as well as a picture of themselves alone. However, due to the busy lives of modern people or issues such as viruses, it may be difficult to meet and take pictures with important people. For example, it may be difficult to make a time appointment between users, or a studio photoshoot cannot be performed together due to a long distance between users.
또한, 사진 촬영은 사용자가 원하는 자연스러운 모습을 촬영하기 어려운 경우가 많은 반면, 동영상 촬영을 하는 경우 수많은 이미지 프레임이 획득되기 때문에, 동영상 속 원하는 이미지가 담겨 있을 확률이 높다. 다만, 현재 스튜디오에서의 촬영은 사진 촬영 기능만을 제공하고 동영상 촬영 기능을 제공하지는 않는 불편함이 있다. In addition, while it is often difficult to take a natural look desired by a user in taking a photo, in the case of taking a video, since numerous image frames are obtained, it is highly likely that the desired image is contained in the video. However, currently, shooting in a studio provides only a photo shooting function and does not provide a video shooting function, which is inconvenient.
또한, 포토 스튜디오나 촬영룸 키오스크에는 필터 효과나 배경 효과가 한정적으로 저장되어 있을 수 있다. 이 또한, 사용자가 원하는 필터 효과나 배경 효과가 있음에도 불구하고 사용자 취향의 필터 효과나 배경 효과를 선택할 수 없는 경우가 발생할 수 있다. 따라서, 사용자가 효과를 입히길 원하는 이미지를 사용자 단말로부터 획득하여 상기 이미지에 입혀진 필터 효과를 촬영룸 키오스크를 통해 촬영된 이미지에 적용함으로써 사용자의 니즈를 충족시켜주기 위한 다양한 방안들이 요구되고 있다.In addition, a filter effect or a background effect may be limitedly stored in a photo studio or a photo studio kiosk. In addition, there may occur a case in which a filter effect or a background effect desired by the user cannot be selected even though there is a filter effect or a background effect desired by the user. Accordingly, various methods are required to satisfy the user's needs by acquiring an image that the user wants to apply an effect to from the user terminal and applying a filter effect applied to the image to the image captured through the photocopying room kiosk.
이 배경기술 부분에 기재된 사항은 발명의 배경에 대한 이해를 증진하기 위하여 작성된 것으로써, 이 기술이 속하는 분야에서 통상의 지식을 가진 자에게 이미 알려진 종래기술이 아닌 사항을 포함할 수 있다.Matters described in this background art section are prepared to enhance understanding of the background of the invention, and may include matters other than prior art already known to those skilled in the art to which this technique belongs.
아래의 실시 예들은 전술한 문제점을 해결하기 위하여 안출된 것으로서, 사용자들이 동일 시간이 아니거나 동일 장소가 아닌 경우에도, 함께 촬영하는 효과를 제공하기 위하여 촬영룸 키오스크를 연동시키며, 촬영룸 키오스크를 통해 사진이 아닌 동영상을 획득하는 경우에도 사용자 단말을 통해 사진 프레임을 구성할 수 있도록 하는 것을 목적으로 한다.The following embodiments are devised to solve the above-mentioned problems, and even when users are not at the same time or in the same place, the shooting room kiosk is interlocked to provide the effect of shooting together, and through the shooting room kiosk An object of the present invention is to configure a photo frame through a user terminal even when a video rather than a picture is acquired.
또한, 사용자 단말에 저장된 필터 효과가 적용된 이미지를 통해 필터 효과를 추출하고 추출된 필터 효과를 촬영룸 키오스크를 통해 촬영된 이미지에 적용할 수 있도록 하여 사용자 취향의 사진을 생성할 수 있도록 하는 것을 목적으로 한다.In addition, the filter effect is extracted through the image with the filter effect stored in the user terminal, and the extracted filter effect can be applied to the image taken through the shooting room kiosk, so that the user's taste can be created. do.
일 실시예가 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Problems to be solved by one embodiment are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.
상기 목적을 달성하기 위한 본 발명의 일 측면은, 촬영룸 키오스크 및 사용자 단말과 연동된 포토 스튜디오 운영 시스템을 제공한다.One aspect of the present invention for achieving the above object provides a photo studio operating system linked with a photo studio kiosk and a user terminal.
상기 포토 스튜디오 운영 시스템은, 사용자 단말의 사용자로부터 입력을 수신하고, 내장된 카메라를 이용하여 촬영된 이미지를 디스플레이를 통해 사용자에게 표시하도록 촬영룸에 구비된 촬영룸 키오스크; 상기 촬영룸 키오스크에 상기 촬영룸의 조명, 음악 및 상기 카메라를 제어하기 위한 기기 제어 신호를 전송하며, 상기 촬영룸 키오스크로부터 상기 카메라를 통해 촬영된 상기 이미지를 획득하는 운영 서버; 및 상기 운영 서버와 통신하여 상기 이미지를 획득하는 상기 사용자 단말을 포함한다.The photo studio operating system may include: a shooting room kiosk provided in a shooting room to receive an input from a user of a user terminal and display an image captured using a built-in camera to the user through a display; an operating server that transmits device control signals for controlling lighting, music, and the camera of the recording room to the recording room kiosk, and obtains the image captured by the camera from the recording room kiosk; and the user terminal acquiring the image by communicating with the operation server.
상기 운영 서버는, 상기 촬영룸 키오스크로부터 상기 사용자가 선택한 촬영 컨셉에 기초하여 상기 기기 제어 신호를 생성하는 촬영 컨셉 제어부; 촬영된 상기 이미지를 공유 이미지로 설정하고, 설정된 공유 이미지를 상기 사용자 단말 또는 상기 촬영룸 키오스크에 공유하는 공유 서비스 제공부; 및 서로 다른 제1 촬영룸 키오스크와 제2 촬영룸 키오스크 각각의 카메라를 통해 실시간으로 획득된 제1 영상과 제2 영상을 합성하는 영상 합성부를 포함한다.The operation server may include: a shooting concept control unit generating the device control signal based on a shooting concept selected by the user from the shooting room kiosk; a sharing service providing unit that sets the captured image as a shared image and shares the set shared image with the user terminal or the photographing room kiosk; and an image synthesis unit synthesizing a first image and a second image acquired in real time through the cameras of the first and second shooting room kiosks, which are different from each other.
상기 사용자 단말은, 획득된 상기 이미지에 기초하여 사진 프레임을 구성하며, 상기 사진 프레임의 두께, 컬러 및 상기 사진 프레임에 배치될 수 있는 사진의 개수를 결정한다.The user terminal composes a photo frame based on the acquired image, and determines the thickness, color, and number of photos that can be arranged in the photo frame.
상기 촬영룸 키오스크는 동영상을 촬영하고, 상기 사용자 단말은 촬영된 상기 동영상을 운영 서버를 통해 획득하고, 획득된 동영상을 구성하는 복수의 이미지 프레임들 중 적어도 하나의 이미지 프레임에 기초하여 상기 사진 프레임을 구성하는 사진을 결정한다.The recording room kiosk captures a video, and the user terminal acquires the captured video through an operation server, and displays the photo frame based on at least one image frame among a plurality of image frames constituting the acquired video. Decide which photos to compose.
상기 영상 합성부는, 상기 제1 영상과 상기 제2 영상을 이용하여 제3 영상을 생성하고, 생성된 상기 제3 영상을 상기 제1 촬영룸 키오스크의 디스플레이 및 상기 제2 촬영룸 키오스크의 디스플레이에 표시하고, 상기 제3 영상이 표시된 상태에서, 촬영 입력을 획득하는 것에 응답하여 상기 촬영 입력을 획득하는 시점에 대응되는 상기 제3 영상의 이미지 프레임을 획득한다.The image compositing unit generates a third image using the first image and the second image, and displays the generated third image on the display of the first shooting room kiosk and the display of the second shooting room kiosk. and acquires an image frame of the third image corresponding to a time point at which the capturing input is obtained in response to acquiring the capturing input while the third image is displayed.
상기 사용자 단말은, 내부 저장소에서 필터 효과가 적용된 소스 이미지를 획득하고, 상기 소스 이미지로부터 상기 필터 효과가 없는 원본 이미지를 추정하고, 상기 소스 이미지와 상기 원본 이미지를 비교하여 상기 필터 효과를 추출하고, 상기 추출된 필터 효과를 상기 획득된 이미지에 적용한다.The user terminal obtains a source image to which a filter effect is applied from an internal storage, estimates an original image without the filter effect from the source image, compares the source image and the original image to extract the filter effect, The extracted filter effect is applied to the acquired image.
상기 사용자 단말은, 상기 소스 이미지에서 인식된 객체들 중 상기 소스 이미지에서 차지하는 면적이 가장 큰 제1 객체를 결정하고, 상기 소스 이미지에서 상기 제1 객체에 대응되는 픽셀들의 컬러 값과 상기 원본 이미지에서 상기 제1 객체에 대응되는 픽셀들의 컬러 값을 비교하고, 상기 비교에 기초하여 상기 제1 객체에 대응되는 픽셀들 각각의 R(red), G(green), B(blue)의 변화 값을 계산하고, 상기 제1 객체에 대응되는 영역에서 R(red) 변화 값의 평균, G(green) 변화 값의 평균, B(blue) 변화 값의 평균에 대응되는 컬러 값을 추출하고, 추출된 상기 컬러 값을 상기 필터 효과로 저장하고, 저장된 상기 필터 효과를 상기 획득된 이미지에 적용한다.The user terminal determines a first object having the largest area occupied in the source image among objects recognized in the source image, and determines color values of pixels corresponding to the first object in the source image and in the original image. Color values of pixels corresponding to the first object are compared, and based on the comparison, change values of R (red), G (green), and B (blue) of pixels corresponding to the first object are calculated. and extracts a color value corresponding to an average of R (red) change values, an average of G (green) change values, and an average of B (blue) change values in the area corresponding to the first object, and extracts the extracted color. A value is stored as the filter effect, and the stored filter effect is applied to the obtained image.
상기 사용자 단말은, 상기 운영 서버를 통해 획득된 동영상을 선택하는 사용자의 입력에 응답하여, 상기 동영상에 기초한 사진 프레임을 생성하고, 생성된 상기 사진 프레임을 조절할 수 있는 인터페이스를 디스플레이를 통해 제공하고, 상기 인터페이스 내에서 획득되는 사용자의 드래그 입력에 따라 상기 사진 프레임의 모양, 상기 사진 프레임을 구성하는 사진 및 상기 사진의 개수를 결정한다.The user terminal generates a photo frame based on the video in response to a user's input for selecting a video obtained through the operation server, and provides an interface capable of adjusting the generated photo frame through a display, The shape of the photo frame, the photos constituting the photo frame, and the number of photos are determined according to the user's drag input acquired within the interface.
상기 사용자 단말은, 상기 사진 프레임의 크기를 조절하는 상기 사용자의 드래그 입력이 제1 시간 동안 획득되지 않는 경우, 상기 드래그 입력이 획득되지 않는 시점의 크기를 상기 사진 프레임의 크기로 결정하고, 상기 드래그 입력에 따라 결정된 상기 사진 프레임의 모양 및 크기에 대응되도록 상기 사진 프레임에 포함되는 사진들을 a x b로 구성한다.When the user's drag input for resizing the photo frame is not obtained for a first time, the user terminal determines the size at a time when the drag input is not obtained as the size of the photo frame, and the drag The photos included in the photo frame are configured as a x b to correspond to the shape and size of the photo frame determined according to the input.
상기 사용자 단말은, 상기 동영상의 처음 제2 시간 및 마지막 제3 시간을 제외하고, 상기 제2 시간 및 상기 제3 시간이 제외된 동영상을 실질 동영상으로 결정하고, 결정된 상기 실질 동영상의 길이 내에서 상기 사진 프레임을 구성할 사진을 결정하고, 상기 결정된 사진의 개수가 M 개인 경우, 상기 실질 동영상의 길이를 (M-1) 등분하고, 상기 실질 동영상의 첫번째 이미지 프레임을 제1 사진, 상기 실질 동영상 길이의 N-1/(M-1) 부분에 대응되는 이미지 프레임을 제N 사진으로 결정하며, 상기 N의 최대 값은 상기 M과 동일하다.The user terminal determines, as a real video, a video excluding the first 2nd time and the last 3rd time of the video, except for the 2nd time and the 3rd time, and the video within the determined length of the real video. Photos to compose a photo frame are determined, and when the determined number of photos is M, the length of the real video is equally divided by (M-1), and the first image frame of the real video is a first picture, the length of the real video. An image frame corresponding to part N-1/(M-1) of is determined as the Nth picture, and the maximum value of N is equal to the M.
상기 사용자 단말은, 상기 동영상에서 사용자의 포즈를 감지하고, 제1 포즈를 포함하는 제1 이미지 프레임을 제1 사진으로 결정하고, 제2 포즈를 포함하는 제2 이미지 프레임을 제2 사진으로 결정하고, 제3 포즈를 포함하는 제3 이미지 프레임을 제3 사진으로 결정하고, 결정된 상기 사진의 개수보다 감지된 상기 포즈의 수가 적은 경우, 감지된 상기 포즈 중 가장 먼저 감지된 제1 포즈를 포함하는 이미지 프레임을 사진 프레임을 구성하는 나머지 사진으로 결정한다.The user terminal detects a user's pose in the video, determines a first image frame including a first pose as a first picture, and determines a second image frame including a second pose as a second picture, , When a third image frame including a third pose is determined as a third photo, and the number of the detected poses is less than the number of determined photos, an image including the first pose detected first among the detected poses. A frame is determined as the remaining photos constituting the photo frame.
상기 영상 합성부는, 제1 사용자 단말로부터 원격 실행 모드를 요청받은 것에 응답하여, 상기 제1 영상과 상기 제2 영상을 획득하고, 상기 제2 영상에서 제2 사용자를 검출하고, 상기 제1 영상을 구성하는 복수의 이미지 프레임들에 상기 제2 사용자에 대응되는 픽셀 영역을 합성하고, 상기 제1 영상의 제1 사용자에 대응되는 픽셀 영역과 상기 제2 사용자에 대응되는 픽셀 영역이 중첩되는 경우, 중첩되는 부분의 상기 제1 사용자의 깊이 값과 상기 제2 사용자의 깊이 값을 비교하고, 깊이 값이 높은 사용자의 픽셀 영역은 삭제하고, 상기 깊이 값이 낮은 사용자의 픽셀 영역은 유지하여 상기 제3 영상을 생성한다.The image synthesis unit obtains the first image and the second image in response to a request for a remote execution mode from a first user terminal, detects a second user from the second image, and generates the first image. When a pixel area corresponding to the second user is synthesized in a plurality of image frames, and the pixel area corresponding to the first user and the pixel area corresponding to the second user of the first image overlap, The depth value of the first user and the depth value of the second user are compared, the pixel area of the user with the high depth value is deleted, and the pixel area of the user with the low depth value is maintained to obtain the third image. generate
상기 목적을 달성하기 위한 본 발명의 다른 측면은, 촬영룸 키오스크 및 사용자 단말과 연동된 운영 서버의 동작 방법을 제공한다.Another aspect of the present invention for achieving the above object provides a method of operating an operating server interlocked with a shooting room kiosk and a user terminal.
상기 동작 방법은, 상기 촬영룸 키오스크로부터 상기 사용자 단말의 사용자가 선택한 촬영 컨셉에 기초하여 기기 제어 신호를 생성하는 동작(operation); 상기 기기 제어 신호에 따라 상기 촬영룸 키오스크를 이용하여 촬영된 이미지를 공유 이미지로 설정하고, 설정된 공유 이미지를 상기 사용자 단말 또는 상기 촬영룸 키오스크에 공유하는 동작; 및 서로 다른 제1 촬영룸 키오스크와 제2 촬영룸 키오스크 각각의 카메라를 통해 실시간으로 획득된 제1 영상과 제2 영상을 합성하는 동작을 포함한다. The operating method may include generating a device control signal based on a photographing concept selected by a user of the user terminal from the photographing room kiosk; setting an image photographed using the photographing room kiosk as a shared image according to the device control signal, and sharing the set shared image with the user terminal or the photographing room kiosk; and synthesizing a first image and a second image acquired in real time through the cameras of the first and second shooting room kiosks, which are different from each other.
상기 촬영룸 키오스크는, 상기 사용자 단말의 상기 사용자로부터 입력을 수신하고, 내장된 카메라를 이용하여 촬영된 상기 이미지를 디스플레이를 통해 상기 사용자에게 표시하도록 촬영룸에 구비된다.The recording room kiosk is provided in the recording room to receive an input from the user of the user terminal and display the image captured using a built-in camera to the user through a display.
상기 사용자 단말은, 상기 운영 서버와 통신하여 상기 이미지를 획득한다.The user terminal acquires the image by communicating with the operation server.
상기 목적을 달성하기 위한 본 발명의 다른 측면은, 상기 동작 방법을 실행시키기 위한 프로그램이 기록되고, 컴퓨터에 의해 읽혀질 수 있는, 비일시적 기록매체을 제공한다.Another aspect of the present invention for achieving the above object is to provide a non-transitory recording medium in which a program for executing the operating method is recorded and can be read by a computer.
상기 목적을 달성하기 위한 본 발명의 다른 측면은, 운영 서버에서, 상기 동작 방법을 실행시키기 위하여 비일시적 기록매체에 기록된 컴퓨터 프로그램을 제공한다.Another aspect of the present invention for achieving the above object, in the operating server, provides a computer program recorded on a non-transitory recording medium to execute the operating method.
상기 목적을 달성하기 위한 본 발명의 다른 측면은, 촬영룸 키오스크 및 사용자 단말과 연동된 운영 서버를 제공한다.Another aspect of the present invention for achieving the above object provides an operating server interlocked with a shooting room kiosk and a user terminal.
상기 운영 서버는, 상기 촬영룸 키오스크로부터 상기 사용자 단말의 사용자가 선택한 촬영 컨셉에 기초하여 기기 제어 신호를 생성하는 촬영 컨셉 제어부; 상기 기기 제어 신호에 따라 상기 촬영룸 키오스크를 이용하여 촬영된 이미지를 공유 이미지로 설정하고, 설정된 공유 이미지를 상기 사용자 단말 또는 상기 촬영룸 키오스크에 공유하는 공유 서비스 제공부; 및 서로 다른 제1 촬영룸 키오스크와 제2 촬영룸 키오스크 각각의 카메라를 통해 실시간으로 획득된 제1 영상과 제2 영상을 합성하는 영상 합성부를 포함한다.The operation server may include: a shooting concept control unit generating a device control signal based on a shooting concept selected by a user of the user terminal from the shooting room kiosk; a sharing service provider configured to set an image captured using the photographing room kiosk as a shared image according to the device control signal and to share the set shared image with the user terminal or the photographing room kiosk; and an image synthesis unit synthesizing a first image and a second image acquired in real time through the cameras of the first and second shooting room kiosks, which are different from each other.
상기 촬영룸 키오스크는, 상기 사용자 단말의 상기 사용자로부터 입력을 수신하고, 내장된 카메라를 이용하여 촬영된 상기 이미지를 디스플레이를 통해 상기 사용자에게 표시하도록 촬영룸에 구비된다.The recording room kiosk is provided in the recording room to receive an input from the user of the user terminal and display the image captured using a built-in camera to the user through a display.
상기 사용자 단말은, 상기 운영 서버와 통신하여 상기 이미지를 획득한다.The user terminal acquires the image by communicating with the operation server.
본 문서에 개시되는 다양한 실시 예들에 따르면, 사진을 여러 번 촬영할 필요 없이, 촬영된 동영상에 기초하여 사진 프레임을 구성할 수 있어서 사용자에게 편의성을 제공할 수 있다. According to various embodiments disclosed in this document, a photo frame may be configured based on a captured video without the need to take multiple photos, providing convenience to the user.
또한, 다양한 실시 예들에 따르면, 사용자들간 시간이 맞지 않거나 거리가 멀어서 함께 촬영하기 힘든 경우에도 함께 촬영한 효과를 제공할 수 있다.In addition, according to various embodiments, even when it is difficult to photograph together due to time mismatch or distance between users, the effect of photographing together may be provided.
또한, 다양한 실시 예들에 따르면, 사용자가 원하는 필터 효과를 다른 이미지에서 추출해서 촬영된 이미지에 적용할 수 있다.Also, according to various embodiments, a filter effect desired by a user may be extracted from another image and applied to the captured image.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.In addition to this, various effects identified directly or indirectly through this document may be provided.
도 1은 일 실시 예에 따른 포토 스튜디오 운영 시스템을 도시한 도면이다.
도 2는 일 실시예에 따른 운영 서버의 구성을 도시한 도면이다.
도 3은 일 실시예에 따른 촬영 컨셉 제어부의 구성을 도시한 도면이다.
도 4는 일 실시예에 따른 컨셉 매핑 테이블의 일례를 도시한 도면이다.
도 5는 일 실시예에 따른 촬영 컨셉 제어 방법의 흐름도이다.
도 6은 일 실시예에 따른 촬영룸 서버의 구성을 도시한 도면이다.
도 7은 일 실시예에 따른 촬영룸 키오스크를 도시한 도면이다.
도 8은 일 실시예에 따른 사진 컨셉 데이터의 일례를 도시한 도면이다.
도 9는 사용자가 원하는 필터 효과가 적용된 소스 이미지로부터 필터 효과를 추출하고, 추출된 필터 효과를 운영 서버를 통해 획득된 이미지에 적용하는 과정을 나타낸 흐름도이다.
도 10은 둘 이상의 사용자들이 서로 시간이 맞지 않거나 서로 거리가 멀어 하나의 촬영룸 키오스크에서 함께 촬영이 불가능한 경우, 적어도 하나의 사용자가 촬영한 이미지를 배경 이미지로 활용하는 일 예시를 설명하기 위한 도면이다.
도 11은 둘 이상의 사용자가 시간이 맞지 않거나 서로 거리가 멀어 하나의 촬영룸 키오스크에서 함께 촬영이 불가능한 경우, 적어도 하나의 사용자가 촬영한 이미지를 배경 이미지로 활용하는 일 예시를 설명하기 위한 도면이다.
도 12는 제1 촬영룸 키오스크 및 제2 촬영룸 키오스크를 연동하여 원격으로 제1 사용자와 제2 사용자가 함께 촬영하는 것을 나타낸 도면이다.
도 13은 운영 서버를 통해 획득된 동영상에 기초하여 사진 프레임을 구성하는 것을 설명하기 위한 도면이다.
도 14는 획득된 동영상에 기초하여 사진 프레임을 구성하는 것을 설명하기 위한 도면이다.
도 15는 획득된 동영상에 대해 사용자의 드래그 입력에 기초하여 다양한 형태로 사진 프레임을 구성하는 것을 설명하기 위한 도면이다.
도 16은 일 실시예에 따른 사용자 단말(300)의 구성을 도시한 도면이다.
도 17은 본 발명의 일 실시예에 따른 통신 과정에서 적용될 수 있는 무선 통신 시스템을 나타낸 도면이다.
도 18은 도 17에 따른 무선 통신 시스템에서 기지국을 나타낸 도면이다.
도 19은 도 17에 따른 무선 통신 시스템에서 단말을 나타낸 도면이다.
도 20은 도 17에 따른 무선 통신 시스템에서 통신 인터페이스를 나타낸 도면이다.1 is a diagram illustrating a photo studio operating system according to an exemplary embodiment.
2 is a diagram showing the configuration of an operation server according to an embodiment.
3 is a diagram illustrating a configuration of a shooting concept control unit according to an exemplary embodiment.
4 is a diagram illustrating an example of a concept mapping table according to an embodiment.
5 is a flowchart of a shooting concept control method according to an exemplary embodiment.
6 is a diagram showing the configuration of a recording room server according to an embodiment.
7 is a diagram illustrating a recording room kiosk according to an exemplary embodiment.
8 is a diagram illustrating an example of photo concept data according to an exemplary embodiment.
9 is a flowchart illustrating a process of extracting a filter effect from a source image to which a filter effect desired by a user is applied and applying the extracted filter effect to an image obtained through an operation server.
FIG. 10 is a diagram for explaining an example of using an image captured by at least one user as a background image when two or more users cannot photograph together in one photographing room kiosk due to inconsistent time or distance from each other. .
FIG. 11 is a diagram for explaining an example of using an image captured by at least one user as a background image when two or more users cannot be photographed together in one photographing room kiosk due to inconsistent timing or distance from each other.
12 is a diagram illustrating remotely taking pictures together by a first user and a second user by interlocking a first and second recording room kiosks.
13 is a diagram for explaining the construction of a photo frame based on a video obtained through an operating server.
14 is a diagram for explaining the construction of a photo frame based on an acquired video.
FIG. 15 is a diagram for explaining the composition of photo frames in various forms based on a user's drag input with respect to an acquired video.
16 is a diagram illustrating a configuration of a
17 is a diagram illustrating a wireless communication system that can be applied in a communication process according to an embodiment of the present invention.
18 is a diagram illustrating a base station in the wireless communication system according to FIG. 17;
19 is a diagram illustrating a terminal in the wireless communication system according to FIG. 17 .
20 is a diagram illustrating a communication interface in the wireless communication system according to FIG. 17;
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. Like reference numerals have been used for like elements throughout the description of each figure.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. The terms and/or include any combination of a plurality of related recited items or any of a plurality of related recited items.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, the terms "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, they should not be interpreted in an ideal or excessively formal meaning. don't
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.
도 1은 일 실시 예에 따른 포토 스튜디오 운영 시스템(10)을 도시한 도면이다.1 is a diagram illustrating a photo
도 1을 참조하면, 일 실시예에 따른 포토 스튜디오 운영 시스템(10)은 운영 서버(100), 촬영룸 서버(200), 카메라(예: 도 6의 카메라(610))(210), 스피커(220), 조명(230), 센서(240), 디스플레이(예: 도 7의 디스플레이(620, 630))(250), 사용자 단말(300) 및 크리에이터 단말(400)을 포함할 수 있다.
Referring to FIG. 1 , the photo
포토 스튜디오 운영 시스템(10) 내에 포함된 다양한 개체들(entities) 간의 통신은 유/무선 네트워크를 통해 수행될 수 있다. 유/무선 네트워크는 표준 통신 기술 및/또는 프로토콜들이 사용될 수 있다.Communication between various entities included in the photo
포토 스튜디오 운영 시스템(10) 내 운영 서버(100), 촬영룸 서버(200), 사용자 단말(300) 및 크리에이터 단말(400)은 예를 들어, 컴퓨터, UMPC(Ultra Mobile PC), 워크스테이션, 넷북(net-book), PDA(Personal Digital Assistants), 포터블(portable) 컴퓨터, 웹 타블렛(web tablet), 무선 전화기(wireless phone), 모바일 폰(mobile phone), 스마트폰(smart phone), PMP(portable multimedia player) 같은 전자 장치 중 하나로서, 일 실시예와 관련된 어플리케이션의 설치 및 실행이 가능한 모든 전자 장치를 포함할 수 있다. 전자 장치는 어플리케이션의 제어 하에 예를 들어, 서비스 화면의 구성, 데이터 입력, 데이터 송수신, 데이터 저장 등과 같은 서비스 전반의 동작을 수행할 수 있다.The operating
포토 스튜디오 운영 시스템(10) 내 촬영룸 서버(200), 카메라(210) 및 디스플레이(250)는 촬영룸 키오스크(600)로 구성될 수 있다. 촬영룸 키오스크(600)에 대해서는 이하 도 6에서 자세히 설명하도록 한다.The
운영 서버(100)는 포토 스튜디오 운영과 관련된 다양한 기능을 제공하는 서버이다.The
운영 서버(100)는 사용자가 선택한 촬영 컨셉에 따라, 촬영룸의 조명, 음악 및 카메라를 제어할 수 있다.The
운영 서버(100)는 사용자로부터 사진 컨셉 데이터을 수신하여, 사진 컨셉 데이터에 따라 촬영룸의 조명, 음악 및 카메라를 제어하고, 출력되는 사진의 사진 프레임을 변경할 수 있다.The
운영 서버(100)는 디스플레이를 구비한 촬영룸 키오스크(600)에 광고를 제공하여 사용자에게 광고를 제공할 수 있다. 촬영룸 키오스크(600)는 광고에 반응한 사용자의 식별 정보, 광고 식별 정보 및 사용자 반응 유형을 포함하는 광고 반응 데이터를 생성하여 운영 서버(100)에 전송할 수 있다.The
운영 서버(100)는 촬영룸 서버(200)에 기기 제어 신호를 전송하여, 촬영룸에 구비된 다양한 기기들을 제어할 수 있다.The
운영 서버(100)는 카메라(210)에서 촬영된 사진 및/또는 동영상을 사용자 단말(300)에 전송할 수 있으며, 사용자 단말(300)로부터 사진 켄셉을 수신할 수 있다.The
운영 서버(100)는 크리에이터 단말(400)에서 미리 제작된 사진 프레임의 디자인을 제공받아 저장할 수 있다. 운영 서버(100)는 제공 받은 사진 프레임의 디자인을 촬영룸 서버(200) 및/또는 사용자 단말(300)에 제공할 수 있다. 사진 프레임의 디자인은 사진 프레임의 컬러, 사진 프레임의 무늬 등을 포함할 수 있다.The
운영 서버(100)의 구체적인 구성 및 기능에 대해서는 이하 도 2에서 자세히 설명하도록 한다.The specific configuration and function of the
촬영룸 서버(200)는 촬영룸에 구비되어, 사용자에게 사진 촬영에 필요한 다양한 기능들을 제공하는 서버이다. 촬영룸 서버(200)는 촬영된 사진 및/또는 촬영된 동영상을 운영 서버(100)에 제공할 수 있다.The
촬영룸 서버(200)는 운영 서버(100)으로부터 수신된 기기 제어 신호를 이용하여, 촬영룸에 구비된 카메라(210), 스피커(220), 조명(230) 및 센서(240)를 제어할 수 있다.The
촬영룸 서버(200)는 센서(240)로부터 센서 값을 수신하여, 수신된 센서 값을 운영 서버(100)에 전송할 수 있다.The
촬영룸 서버(200)는 터치 스크린, 키보드, 마우스 및 마이크로폰과 같은 입력 수단을 구비할 수 있으며, 촬영룸 서버(200)는 입력 수단을 통해 사용자로부터 촬영 설정 정보, 기기 제어 정보, 사진 프레임 정보를 입력 받을 수 있다.The
일 실시예의 촬영 설정 정보는 촬영 컨셉, 사진 크기, 촬영 수 등을 포함할 수 있으며, 기기 제어 정보는 카메라 파라미터, 조명 조도, 조명 색상, 촬영 음악, 스피커 음량 등을 포함할 수 있으며, 사진 프레임 정보는 출력되는 사진의 프레임 디자인 정보를 포함할 수 있다.The shooting setting information of an embodiment may include a shooting concept, photo size, number of shots, etc., device control information may include camera parameters, lighting intensity, lighting color, shooting music, speaker volume, etc., and photo frame information may include frame design information of an output photo.
촬영룸 서버(200)는 디스플레이 기기, 스피커와 같은 출력 수단을 구비할 수 있으며, 촬영룸 서버(200)는 출력 수단을 통해 사용자에게 사진 촬영에 필요한 다양한 정보를 출력할 수 있다. 일례로, 촬영룸 서버(200)는 사용자가 선택 가능한 촬영 컨셉 및 사용자가 촬영한 사진을 출력할 수 있다.The
촬영룸 서버(200)는 운영 서버(100)로부터 광고를 수신하여, 출력 수단을 통해 사용자에게 광고를 출력할 수 있다. 사용자가 광고에 반응하는 경우, 촬영룸 서버(200)는 사용자 반응 정보를 생성하여, 운영 서버(100)에 전송할 수 있다.The
촬영룸 서버(200)는 사용자에게 사진 촬영에 필요한 결제 기능을 제공할 수 있다.The
촬영룸 서버(200)는 사용자가 촬영한 사진을 출력하는 사진 인화 기능을 제공할 수 있다.The
촬영룸 서버(200)는 운영 서버(100)로부터 특정 광고를 제공받을 수 있고, 디스플레이(250)를 통해 사용자에게 광고를 제공할 수 있다. 촬영룸 서버(200)는 광고에 반응한 사용자의 식별 정보, 광고 식별 정보 및 사용자 반응 유형을 포함하는 광고 반응 데이터를 생성하여 운영 서버(100)에 전송할 수 있다.The
카메라(210)는 촬영룸에 구비되며, 사용자가 카메라(210)를 이용하여 직접 사진을 촬영할 수 있다.The
카메라(210)는 촬영룸 서버(200)를 통해 사용자가 입력한 카메라 파라미터를 적용하여, 사진을 촬영할 수 있다.The
카메라(210)는 사진 촬영 뿐 아니라, 동영상을 촬영할 수 있다. 동영상 촬영 기능은 촬영룸 키오스크(600) 및/또는 사용자 단말(300)을 통해서 제어될 수 있다.The
일 실시예의 카메라 파라미터는 이미지의 화질, 크기, 카메라의 감도(ISO), 필터, 조리개, 셔터 스피드 등의 값을 포함할 수 있다.Camera parameters according to an embodiment may include values such as image quality, size, camera sensitivity (ISO), filter, aperture, shutter speed, and the like.
전술한 바와 같이, 촬영룸 서버(200), 카메라(210), 스피커(220) 및 디스플레이(250)는 촬영룸 키오스크(600)로 구성될 수 있다. 즉, 촬영룸 서버(200)와 카메라(210), 스피커(220) 및 디스플레이(250)가 통합되어, 하나의 촬영룸 키오스크(600)로 구성될 수 있다.As described above, the
본 명세서에서는 촬영룸 서버(200)와 촬영룸 키오스크(600)는 동일한 구성으로 설명하도록 한다. 즉 촬영룸 서버(200)에서 구현되는 모든 기능은 촬영룸 키오스크(600)로 동일하게 구현가능하다 하겠다.In this specification, the photographing
스피커(220)는 촬영룸에 구비되며, 촬영 음악을 재생할 수 있다.The
조명(230)은 촬영룸에 구비된 다수의 조명 기기를 포함할 수 있으며, 기기 제어 신호에 따라 빛을 출력할 수 있다.The lighting 230 may include a plurality of lighting devices provided in the recording room, and may output light according to a device control signal.
센서(240)는 촬영룸에 구비된 움직임 센서(241), 음성 센서(242) 및 조도 센서(243)를 포함할 수 있다.The
움직임 센서(241)는 사용자의 움직임에 따라 발생되는 움직임 신호를 감지할 수 있다. 음성 센서(242)는 사용자의 움직임에 따라 발생되는 음향 신호 및 사용자의 특정 상황에 따라 발할 수 있는 음성 명령 신호를 감지할 수 있다. 조도 센서(243)는 사용자 위치에서의 조도 값을 인식할 수 있다.The motion sensor 241 may detect a motion signal generated according to a user's motion. The voice sensor 242 may detect a sound signal generated according to the user's motion and a voice command signal that may be issued according to the user's specific situation. The illuminance sensor 243 may recognize an illuminance value at the user's location.
사용자 단말(300)은 운영 서버(100)로부터 획득된 이미지 및/또는 동영상을 사용자에게 표시할 수 있다. 사용자 단말(300)은 운영 서버(100)로부터 획득된 이미지 및/또는 동영상을 편집할 수 있다. 사용자 단말(300)은 운영 서버(100)로부터 획득된 이미지 및/또는 동영상에 기초하여 사진 프레임을 생성할 수 있다. The
사용자 단말(300)은 사용자가 생성한 사진 컨셉 데이터를 운영 서버(100)에 전송할 수 있다.The
사용자 단말(300)의 구체적인 구성 및 기능에 대해서는 이하 도 9 내지 도 15에서 자세히 설명하도록 한다.The specific configuration and functions of the
도 2는 일 실시예에 따른 운영 서버(100)의 구성을 도시한 도면이다.Figure 2 is a diagram showing the configuration of the
도 2를 참조하면, 일 실시예에 따른 운영 서버(100)는 통신부(110), 입력부(120), 출력부(130), 메모리(140), 전원 공급부(150) 및 제어부(160)를 포함할 수 있다. 제어부(160)는 촬영 컨셉 제어부(161), 공유 서비스 제공부(162) 및 영상 합성부(163)를 포함하여 구성될 수 있다.Referring to FIG. 2, the
도 2에 도시된 구성들은 본 발명의 실시 예들을 구현하기 위한 예시도이며, 당업자에게 자명한 수준의 적절한 하드웨어/소프트웨어 구성들이 운영 서버(100)에 추가로 포함될 수 있다.The configurations shown in FIG. 2 are exemplary diagrams for implementing the embodiments of the present invention, and appropriate hardware/software configurations that are obvious to those skilled in the art may be additionally included in the
통신부(110)는 다양한 통신 방식을 통해 외부의 장치와 통신을 수행할 수 있다. 일례로, 통신부(110)는 촬영룸 서버(200) 및 사용자 단말(300)과 통신을 수행하여 다양한 데이터를 송수신할 수 있다.The
입력부(120)는 운영 서버(100)의 사용자인 운영자의 다양한 입력을 수신하여 제어부(160)로 전달할 수 있다. 특히, 입력부(120)는 터치 센서, (디지털) 펜 센서, 압력 센서, 키 및 마이크로폰을 포함할 수 있다. 터치 센서는, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. (디지털) 펜 센서는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트를 포함할 수 있다. 키는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. 마이크로폰은 운영자 음성을 수신하기 위한 구성으로, 운영 서버(100) 내부에 구비될 수 있으나, 이는 일 실시예에 불과할 뿐, 운영 서버(100)의 외부에 구비되어 운영 서버(100)와 전기적으로 연결될 수 있다.The
출력부(130)는 다양한 화면을 제공할 수 있다. 일례로, 출력부(130)는 운영자에게 컨셉 매핑 테이블, 사진 컨셉 데이터를 출력할 수 있다.The output unit 130 may provide various screens. For example, the output unit 130 may output a concept mapping table and photo concept data to an operator.
메모리(140)는 운영 서버(100)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 특히, 메모리(140)는 비휘발성 메모리, 휘발성 메모리, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다. 메모리(140)는 제어부(160)에 의해 액세스되며, 제어부(160)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다. 본 발명에서 메모리라는 용어는 메모리(140), 제어부(160) 내 롬(미도시), 램(미도시) 또는 운영 서버(100)에 장착되는 메모리 카드(미도시)(예를 들어, micro SD 카드, 메모리 스틱)를 포함할 수 있다. 또한, 메모리(140)에는 출력부(130)의 디스플레이 영역에 표시될 각종 화면을 구성하기 위한 프로그램 및 데이터 등이 저장될 수 있다.The memory 140 may store commands or data related to at least one other component of the operating
전원 공급부(150)는 제어부(160)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 150 receives external power and internal power under the control of the
제어부(160)는 통신부(110), 입력부(120), 출력부(130), 메모리(140) 및 전원 공급부(150)와 전기적으로 연결되어, 운영 서버(100)의 전반적인 동작 및 기능을 제어할 수 있다. 특히, 제어부(160)는 메모리(140)에 저장된 다양한 모듈을 이용하여 후술하는 기능을 제공할 수 있다.The
이하에서 설명되는 운영 서버(100) 상의 다양한 동작은 제어부(160)의 제어에 의해서 수행될 수 있음은 자명할 것이다.It will be apparent that various operations on the operating
전술한 바와 같이, 제어부(160)는 촬영 컨셉 제어부(161), 공유 서비스 제공부(162) 및 영상 합성부(163)를 포함하여 구성될 수 있다.As described above, the
촬영 컨셉 제어부(161)는 사용자가 선택한 촬영 컨셉에 따라, 촬영룸의 조명, 음악 및 카메라를 제어할 수 있다.The shooting concept controller 161 may control the lighting, music, and camera of the shooting room according to the shooting concept selected by the user.
촬영 컨셉 제어부(161)는 촬영룸 서버(200)로부터 수신된 촬영 컨셉을 이용하여, 촬영룸의 조명, 스피커 및 카메라의 제어 신호를 생성할 수 있다. 촬영 컨셉 제어부(161)는 컨셉 매핑 테이블을 이용하여, 촬영룸의 조명, 스피커 및 카메라의 제어 신호를 포함하는 기기 제어 신호를 생성할 수 있다. 여기서 카메라의 제어 신호는 전술한 카메라 파라미터와 동일한 신호이다. 촬영 컨셉은 사진 컨셉 및/또는 동영상 컨셉으로도 이해될 수 있다.The shooting concept controller 161 may use the shooting concept received from the
촬영 컨셉 제어부(161)는 사용자로부터 사진 컨셉 데이터를 수신하여, 사진 컨셉 데이터에 따라 촬영룸의 조명, 음악 및 카메라를 제어하고, 출력되는 사진의 사진 프레임을 변경할 수 있다. 사진 프레임 정보는 출력되는 사진의 프레임 디자인 정보를 포함할 수 있다.The shooting concept controller 161 may receive photo concept data from a user, control lighting, music, and a camera in a shooting room according to the photo concept data, and change a photo frame of an output photo. The photo frame information may include frame design information of an output photo.
촬영 컨셉 제어부(161)는 다른 사용자가 사진 컨셉 데이터를 이용하여, 촬영 컨셉을 촬영룸에 적용하거나 촬영된 사진을 출력하는 경우, 촬영 컨셉 제어부(161)는 창작자 정보 내 포함된 사진 컨셉 데이터의 사용 횟수를 증가시켜, 사진 컨셉 데이터를 업데이트할 수 있다.The shooting concept control unit 161 uses the photo concept data included in the creator information when another user uses the photo concept data to apply the shooting concept to the shooting room or outputs a taken photo. The photo concept data may be updated by increasing the number of times.
일 실시예의 사진 컨셉 데이터는 컨셉 맵핑 테이블, 사진 프레임 정보 및 창작자 정보를 포함할 수 있다. 사용자는 촬영룸 키오스크(600) 또는 사용자 단말(300)을 통해, 사진 컨셉 데이터를 생성할 수 있으며, 촬영룸 키오스크(600) 또는 사용자 단말(300)은 생성된 사진 컨셉 데이터를 운영 서버(100)에 전송할 수 있다. 이를 위해, 촬영룸 키오스크(600) 또는 사용자 단말(300)은 사진 컨셉 데이터를 생성할 수 있는 인터페이스를 사용자에게 제공할 수 있다. 상기 창작자 정보는 사진 컨셉 데이터를 생성한 사용자의 식별 정보 및 사진 컨셉 데이터의 사용 횟수를 포함할 수 있다.Photo concept data according to an embodiment may include a concept mapping table, photo frame information, and creator information. The user may generate photo concept data through the
촬영 컨셉 제어부(161)의 구체적인 구성 및 기능에 대해서는 이하 도 3에서 자세히 설명하도록 한다.A specific configuration and function of the shooting concept control unit 161 will be described in detail with reference to FIG. 3 below.
촬영룸 키오스크(600)는 복수 개의 촬영룸 키오스크를 포함할 수 있고, 공유 서비스 제공부(162)는 제1 사용자가 촬영한 이미지를 제2 사용자가 이용하도록 하기 위한 공유 서비스를 제공할 수 있다. 공유 서비스 제공부(162)의 동작에 대해서는 이하 도 10 및 도 11에서 자세히 설명하도록 한다.The
영상 합성부(163)는 복수 개의 촬영룸 키오스크 각각의 카메라를 통해 획득된 영상을 합성하여 복수 개의 촬영룸 키오스크에 합성된 영상을 제공할 수 있다. 영상 합성부(163)의 동작에 대해서는 이하 도 12에서 자세히 설명하도록 한다.The image synthesis unit 163 may synthesize images obtained through each camera of the plurality of photographing room kiosks and provide the synthesized image to the plurality of photographing room kiosks. The operation of the image synthesis unit 163 will be described in detail with reference to FIG. 12 below.
제어부(160)는 통신부(110)를 제어하여, 촬영룸 서버(200)에 기기 제어 신호를 전송하여, 촬영룸에 구비된 다양한 기기들을 제어할 수 있다.The
일 실시예의 기기 제어 신호는 촬영 컨셉 제어부(161)에서 생성된 조명, 스피커 및 카메라 제어 신호(카메라 파라미터), 공유 서비스 제공부(162)에서 생성된 조명 제어 신호, 영상 합성부(163)에서 생성된 카메라 파라미터를 포함할 수 있다.Device control signals of an embodiment are light, speaker and camera control signals (camera parameters) generated by the shooting concept control unit 161, lighting control signals generated by the sharing service provider 162, and generated by the video synthesis unit 163. may include camera parameters.
제어부(160)는 통신부(110)를 제어하여, 카메라(210)에서 촬영된 사진을 사용자 단말(300)에 전송할 수 있다.The
제어부(160)는 입력부(120)를 통해, 운영자로부터 촬영 컨셉 매핑 테이블 관련 데이터를 입력받을 수 있다.The
도 3은 일 실시예에 따른 촬영 컨셉 제어부(161)의 구성을 도시한 도면이다.3 is a diagram illustrating a configuration of a shooting concept control unit 161 according to an exemplary embodiment.
도 3을 참조하면, 일 실시예에 따른 촬영 컨셉 제어부(161)는 컨셉 매핑 테이블 생성부(171), 컨셉 매핑 테이블 DB(172) 및 기기 제어 신호 생성부(173)를 포함할 수 있다.Referring to FIG. 3 , a shooting concept controller 161 according to an embodiment may include a concept
컨셉 매핑 테이블 생성부(171)는 운영자로부터 데이터를 입력받아 촬영 컨셉 매핑 테이블(174)을 생성하고, 생성된 컨셉 매핑 테이블(174)을 컨셉 매핑 DB(172)에 저장할 수 있다. 기기 제어 신호 생성부(173)는 컨셉 매핑 테이블(174)을 이용하여, 사용자가 선택한 촬영 컨셉에 대한 기기 제어 신호를 생성할 수 있다.The concept mapping
도 4는 일 실시예에 따른 컨셉 매핑 테이블(174)의 일례를 도시한 도면이다.4 is a diagram showing an example of a concept mapping table 174 according to an embodiment.
도 4를 참조하면, 일 실시예의 컨셉 매핑 테이블(174)은 촬영 컨셉 명, 촬영 컨셉 이미지, 음악, 배경 이미지, 촬영룸에 구비된 조명 기기의 빛 색상 및 조도 정보, 카메라 파라미터를 포함하는 데이터 구조이다.Referring to FIG. 4 , the concept mapping table 174 according to an embodiment has a data structure including a shooting concept name, a shooting concept image, music, a background image, light color and illuminance information of a lighting device provided in a shooting room, and camera parameters. am.
촬영 컨셉 제어부(161)는 생성된 컨셉 매핑 테이블(174)을 촬영룸 서버(200)에 전송하고, 촬영룸 서버(200)는 사용자에게 선택 가능한 촬영 컨셉을 출력 및 선택 입력받을 수 있다.The shooting concept control unit 161 transmits the generated concept mapping table 174 to the
촬영 컨셉 제어부(161)는 촬영룸 서버(200)로부터 사용자가 선택한 촬영 컨셉을 전송받을 수 있다.The shooting concept controller 161 may receive a shooting concept selected by the user from the
촬영 컨셉 제어부(161)는 컨셉 매핑 테이블(174)을 이용하여, 사용자가 선택한 촬영 컨셉에 대한 기기 제어 신호를 생성할 수 있다.The shooting concept control unit 161 may use the concept mapping table 174 to generate device control signals for the shooting concept selected by the user.
촬영 컨셉 제어부(161)는 컨셉 매핑 테이블(174)을 이용하여, 사용자가 선택한 촬영 컨셉에 해당하는 음악, 배경 이미지, 촬영룸에 구비된 조명 기기의 빛 색상 및 조도 정보, 카메라 파라미터를 포함하는 컨셉 데이터를 추출할 수 있다.The shooting concept control unit 161 uses the concept mapping table 174 to use the concept mapping table 174 to include music corresponding to the shooting concept selected by the user, a background image, light color and illuminance information of lighting devices provided in the shooting room, and camera parameters. data can be extracted.
촬영 컨셉 제어부(161)는 추출된 컨셉 데이터를 이용하여, 조명(230), 스피커(220), 카메라(210)의 제어 신호를 생성할 수 있다. 전술한 바와 같이, 여기서 카메라의 제어 신호는 전술한 카메라 파라미터와 동일한 신호이다.The shooting concept controller 161 may generate control signals for the lighting 230 , the
일례로, 사용자가 ‘컨셉 A’의 촬영 컨셉을 선택한 경우, 촬영 컨셉 제어부(161)는 컨셉 매핑 테이블(174)에서‘컨셉 A’에 해당하는 음악, 배경 이미지, 촬영룸에 구비된 조명 기기의 빛 색상 및 조도 정보, 카메라 파라미터를 포함하는 기기 제어 신호를 생성할 수 있다.For example, when the user selects the shooting concept of 'Concept A', the shooting concept control unit 161 determines the music, background image, and lighting devices provided in the shooting room corresponding to 'Concept A' in the concept mapping table 174. A device control signal including light color and illuminance information and camera parameters may be generated.
도 5는 일 실시예에 따른 촬영 컨셉 제어 방법의 흐름도이다.5 is a flowchart of a shooting concept control method according to an exemplary embodiment.
도 5를 참조하면, 일 실시예에 따른 촬영 컨셉 제어 방법은 촬영 컨셉 수신 단계(S100), 컨셉 데이터 추출 단계(S110) 및 기기 제어 신호 생성 단계(S120)를 포함할 수 있다.Referring to FIG. 5 , the method for controlling a shooting concept according to an exemplary embodiment may include receiving a shooting concept ( S100 ), extracting concept data ( S110 ), and generating a device control signal ( S120 ).
상기 촬영 컨셉 제어 방법은, 촬영 컨셉 제어부(161)에 의해 수행될 수 있다.The shooting concept control method may be performed by the shooting concept control unit 161 .
우선, 촬영 컨셉 수신 단계(S100)로, 촬영 컨셉 제어부(161)는 촬영룸 서버(200)로부터 사용자가 선택한 촬영 컨셉을 전송받을 수 있다.First, in the shooting concept receiving step ( S100 ), the shooting concept control unit 161 may receive a shooting concept selected by the user from the
그리고, 컨셉 데이터 추출 단계(S110)로, 촬영 컨셉 제어부(161)는 컨셉 매핑 테이블(174)을 이용하여, 사용자가 선택한 촬영 컨셉에 해당하는 음악, 배경 이미지, 촬영룸에 구비된 조명 기기의 빛 색상 및 조도 정보, 카메라 파라미터를 포함하는 컨셉 데이터를 추출할 수 있다.Then, in the concept data extraction step (S110), the shooting concept control unit 161 uses the concept mapping table 174 to provide music, background images, and light of lighting devices provided in the shooting room corresponding to the shooting concept selected by the user. Concept data including color and illuminance information and camera parameters can be extracted.
그리고, 기기 제어 신호 생성 단계(S120)로, 촬영 컨셉 제어부(161)는 추출된 컨셉 데이터를 이용하여, 조명(230), 스피커(220), 카메라(210)의 제어 신호를 생성할 수 있다.In the device control signal generation step (S120), the shooting concept controller 161 may generate control signals for the lighting 230, the
이로써, 촬영 컨셉 제어부(161)는 사용자가 선택한 촬영 컨셉에 따라 촬영룸의 조명, 음악 및 카메라를 제어하여, 사용자가 원하는 컨셉에 따라 사진을 촬영할 수 있는 환경을 제공할 수 있다.Accordingly, the shooting concept controller 161 may control the lighting, music, and camera of the shooting room according to the shooting concept selected by the user, thereby providing an environment in which the user may take a photo according to a desired concept.
도 6은 일 실시예에 따른 촬영룸 서버의 구성을 도시한 도면이다.6 is a diagram showing the configuration of a recording room server according to an embodiment.
도 6를 참조하면, 일 실시예에 따른 촬영룸 서버(200)는 키오스크 통신부(201), 키오스크 입력부(202), 키오스크 출력부(203), 키오스크 메모리(204), 키오스크 전원 공급부(205), 키오스크 제어부(206) 및 카메라(210)를 포함할 수 있다.Referring to FIG. 6 , the
도 6에 도시된 구성들은 본 발명의 실시 예들을 구현하기 위한 예시도이며, 당업자에게 자명한 수준의 적절한 하드웨어/소프트웨어 구성들이 촬영룸 키오스크(600)에 추가로 포함될 수 있다.The configurations shown in FIG. 6 are exemplary diagrams for implementing the embodiments of the present invention, and appropriate hardware/software configurations that are obvious to those skilled in the art may be additionally included in the
키오스크 통신부(201)는 다양한 통신 방식을 통해 외부의 장치와 통신을 수행할 수 있다. 일례로, 키오스크 통신부(201)는 운영 서버(100) 및 사용자 단말(300)과 통신을 수행하여 다양한 데이터를 송수신할 수 있다.The
키오스크 입력부(202)는 사용자의 다양한 입력을 수신하여 키오스크 제어부(206)로 전달할 수 있다. 특히, 키오스크 입력부(202)는 터치 센서, (디지털) 펜 센서, 압력 센서, 키 및 마이크로폰을 포함할 수 있다. 터치 센서는, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 마이크로폰은 사용자 음성을 수신하기 위한 구성으로, 촬영룸 키오스크(600) 내부에 구비될 수 있으나, 이는 일 실시예에 불과할 뿐, 촬영룸 키오스크(600)의 외부에 구비되어 촬영룸 키오스크(600)와 전기적으로 연결될 수 있다.The
키오스크 출력부(203)는 다양한 화면을 제공할 수 있다. 일례로, 키오스크 출력부(203)는 사용자에게 카메라(210)의 영상, 촬영된 사진, 촬영 컨셉, 사진 프레임, 결제 정보, 광고 등을 출력할 수 있다.The
키오스크 메모리(204)는 촬영룸 키오스크(600)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 특히, 키오스크 메모리(204)는 비휘발성 메모리, 휘발성 메모리, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다. 키오스크 메모리(204)는 키오스크 제어부(206)에 의해 액세스되며, 키오스크 제어부(206)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다. 또한, 키오스크 메모리(204)에는 키오스크 출력부(203)의 디스플레이 영역에 표시될 각종 화면을 구성하기 위한 프로그램 및 데이터 등이 저장될 수 있다.The
키오스크 전원 공급부(205)는 키오스크 제어부(206)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The kiosk
키오스크 제어부(206)는 키오스크 통신부(201), 키오스크 입력부(202), 키오스크 출력부(203), 키오스크 메모리(204), 키오스크 전원 공급부(205), 키오스크 제어부(206) 및 카메라(210)와 전기적으로 연결되어, 촬영룸 키오스크(600)의 전반적인 동작 및 기능을 제어할 수 있다. 특히, 키오스크 제어부(206)는 키오스크 메모리(204)에 저장된 다양한 모듈을 이용하여 후술하는 기능을 제공할 수 있다.The
한편, 전술한 촬영룸 서버(200)의 구성요소들은 후술하는 촬영룸 키오스크(600)의 일부로서(즉, 하드웨어 일부로서) 일체로 구성될 수 있다. 즉, 후술하는 촬영룸 키오스크(600)는 촬영룸 서버(200)의 구성요소들을 모두 포함하고, 촬영룸 서버(200)의 동작을 모두 수행할 수 있는 구성으로 해석될 수 있다.Meanwhile, components of the above-described photographing
도 7은 일 실시예에 따른 촬영룸 키오스크(600)를 도시한 도면이다.FIG. 7 is a view showing a
도 7을 참조하면, 일 실시예에 따른 촬영룸 키오스크(600)는 키오스크 입력부(602)와 키오스크 출력부(603) 기능을 수행하는 디스플레이(620, 630)와 적어도 2개의 카메라(210-1, 601-2)를 포함하는 함체(Housing)로 구성될 수 있다.Referring to FIG. 7 , a
디스플레이(620, 630)는 촬영룸 키오스크(600)에서 처리되는 정보를 표시 출력한다. 예를 들어, 촬영룸 키오스크(600)가 촬영 모드인 경우, 사진 촬영과 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시할 수 있다. 그리고, 촬영룸 키오스크(600)가 사진 출력 모드 또는 결제 모드인 경우, 촬영된 사진 또는/및 사진 프레임 관련 UI, GUI를 표시할 수 있다. 디스플레이(620, 630)는 터치 패드가 상호 레이어 구조를 이루어 터치 스크린으로 구성될 수 있으며, 디스플레이(620, 630)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이(620, 630)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. 그리고, 촬영룸 키오스크(600)의 구현 형태에 따라, 디스플레이(620, 630)는 2개 이상 존재할 수도 있다.The displays 620 and 630 display and output information processed in the
촬영룸 키오스크(600) 내 적어도 2개의 카메라(210-1, 210-2)는 디스플레이(620, 630)의 상하 양측에 구비될 수 있으며, 제 1 카메라(210-1)는 전신 촬영 카메라로, 제 2 카메라(210-2)는 반신 촬영 카메라로 사용될 수 있으며, 반대로 적용될 수 있다. 다른 실시 예에서, 적어도 2개의 카메라(210-1, 210-2)는 상하가 아닌 좌우로 배치될 수 있다. 적어도 2개의 카메라(210-1, 210-2)는 동등한 사양(예: 화소)을 가지는 동종의 카메라일 수 있으나, 제1 카메라(210-1)와 제2 카메라(210-2)는 다른 사양의 카메라로 구현될 수 있다. 촬영룸 키오스크(600)는 2개의 카메라(210-1, 210-2)를 통해 듀얼 카메라와 관련된 기능(예: 3D 촬영, 자동 초점(auto focus) 등)을 지원할 수 있다. 적어도 2개의 카메라 중 하나는 고속 촬영을 수행하고, 다른 하나는 저속 촬영을 수행할 수 있다.At least two cameras 210-1 and 210-2 in the
도면에서 보는 바와 같이, 촬영룸 키오스크(600)는 사용자가 결제를 위해 카드를 투입할 수 있도록 구성된 카드 투입구와 출력된 사진이 배출되도록 구성된 사진 출력구를 포함하여 구성될 수 있다.As shown in the drawing, the photographing
촬영룸 키오스크(600)는 사용자에게 사진 컨셉 데이터를 입력할 수 있는 인터페이스를 제공할 수 있다. 사용자는 인터페이스를 통해, 사진 컨셉 데이터를 촬영룸 키오스크(600)에 입력할 수 있으며, 촬영룸 키오스크(600)는 입력된 사진 컨셉 데이터를 저장 및 운영 서버(100)에 전송할 수 있다.The photo
전술한 바와 같이, 일 실시예의 사진 컨셉 데이터는 컨셉 맵핑 테이블, 사진 프레임 정보 및 창작자 정보를 포함할 수 있다. 사용자는 촬영룸 키오스크(600) 또는 사용자 단말(300)을 통해, 사진 컨셉 데이터를 생성할 수 있으며, 촬영룸 키오스크(600) 또는 사용자 단말(300)은 생성된 사진 컨셉 데이터를 운영 서버(100)에 전송할 수 있다. 이를 위해, 촬영룸 키오스크(600) 또는 사용자 단말(300)은 사진 컨셉 데이터를 생성할 수 있는 인터페이스를 사용자에게 제공할 수 있다.As described above, photo concept data according to an embodiment may include a concept mapping table, photo frame information, and creator information. The user may generate photo concept data through the
도 8은 일 실시예에 따른 사진 컨셉 데이터(175)의 일례를 도시한 도면이다.8 is a diagram illustrating an example of
도 8을 참조하면, 일 실시예의 사진 컨셉 데이터(175)는 촬영 컨셉 명, 촬영 컨셉 이미지, 음악, 배경 이미지, 촬영룸에 구비된 조명 기기의 빛 색상 및 조도 정보, 카메라 파라미터를 포함하는 컨셉 맵핑 테이블(174), 사진 프레임 정보(176) 및 창작자 정보(177)를 포함하는 데이터 구조이다.Referring to FIG. 8 ,
일 실시예의 사진 프레임 정보는 사진 프레임의 디자인 정보를 포함할 수 있다. 촬영룸 키오스크(600)는 사용자가 선택한 사진 프레임의 디자인 정보에 따라, 사진 프레임을 출력할 수 있다. 촬영룸 키오스크(600)는 사용자로부터 입력된 사진 컨셉 데이터(175)를 운영 서버(100)에 전송할 수 있다.The photo frame information according to an embodiment may include design information of the photo frame. The photographing
일 실시예의 창작자 정보(177)는 사진 컨셉 데이터를 생성한 사용자의 식별 정보 및 사진 컨셉 데이터의 사용 횟수를 포함할 수 있다.The
사진 컨셉 데이터(175)는 촬영룸 키오스크(600)를 통해 입력받은 사용자의 입력에 기초하여 촬영룸 키오스크(600)에서 생성되거나, 사용자 단말(300)로부터 전송받을 수도 있다.The
촬영룸 키오스크(600)는 사진 컨셉 데이터(175)를 저장할 수 있으며, 촬영룸 키오스크(600)는 사용자에게 선택 가능한 촬영 컨셉 및 사진 프레임을 사용자에게 표시하고, 이에 따른 선택 입력을 받을 수 있다.The photo
운영 서버(100)의 촬영 컨셉 제어부(161)는 촬영룸 키오스크(600)로부터 사진 컨셉 데이터(175)를 수신할 수 있다.The shooting concept control unit 161 of the
촬영 컨셉 제어부(161)는 사진 컨셉 데이터(175)를 이용하여, 사용자가 선택한 사진 컨셉에 대한 기기 제어 신호를 생성할 수 있다. 기기 제어 신호는 촬영룸 서버(200)로(또는 촬영룸 키오스크(600)로) 전송되어 기기를 제어하기 위한 참조 신호로서 사용될 수 있다.The photographing concept controller 161 may use the
촬영 컨셉 제어부(161)는 사진 컨셉 데이터(175)를 이용하여, 사용자가 선택한 사진 컨셉에 해당하는 음악, 배경 이미지, 촬영룸에 구비된 조명 기기의 빛 색상 및 조도 정보, 카메라 파라미터를 포함하는 컨셉 데이터를 추출할 수 있다.The photographing concept control unit 161 uses the
촬영 컨셉 제어부(161)는 추출된 컨셉 데이터를 이용하여, 조명(230), 스피커(220), 카메라(210)의 제어 신호를 생성할 수 있다. 전술한 바와 같이, 여기서 카메라의 제어 신호는 전술한 카메라 파라미터와 동일한 신호이다.The shooting concept controller 161 may generate control signals for the lighting 230 , the
촬영룸 키오스크(600)는 사용자가 선택한 사진 컨셉에 해당하는 사진 프레임 정보(176)를 이용하여, 촬영 사진을 출력할 수 있다.The
도 9는 사용자가 원하는 필터 효과가 적용된 소스 이미지로부터 필터 효과를 추출하고, 추출된 필터 효과를 운영 서버(100)를 통해 획득된 이미지에 적용하는 과정을 나타낸 흐름도이다. 9 is a flowchart illustrating a process of extracting a filter effect from a source image to which a filter effect desired by a user is applied and applying the extracted filter effect to an image obtained through the
일 실시 예에서, 사용자 단말(300)은 운영 서버(100)를 통해 획득된 이미지에 사용자 단말(300)에 저장되어 있는 필터 효과를 적용할 수 있다. 또한, 사용자 단말(300)은 사용자 단말(300)의 앨범에 저장되어 있는 이미지 중 필터 효과가 미리 적용된 이미지로부터 필터 효과를 추출하고, 추출된 필터 효과를 운영 서버(100)를 통해 획득된 이미지에 적용할 수 있다. 다른 실시 예에서, 사용자 단말(300)에 저장되어 있는 필터 효과 및/또는 사용자 단말(300)에서 추출된 필터 효과를 운영 서버(100)에 제공하여 촬영룸 키오스크(600)에 촬영되는 이미지 및 동영상에 적용할 수 있다. 이하, S910 내지 S940을 통해 상기 필터 효과를 추출하는 것을 설명할 것이다.In one embodiment, the
사용자 단말(300)은 사용자로부터 소스 이미지(source image)를 선택하는 입력을 획득할 수 있다(S910). 소스 이미지는 사용자 단말(300)의 카메라를 통해 촬영된 이미지일 수 있고, 외부 서버로부터 획득된 이미지일 수 있다. 소스 이미지는 필터 효과가 적용된 이미지일 수 있다. 예를 들어, 소스 이미지는 흑백 효과를 주는 필터, 빛바랜 느낌을 주는 필터 또는 파스텔 색감을 주는 필터, 윤곽선이 강조된 필터 중 적어도 하나의 필터 효과가 적용된 이미지일 수 있다. 상기 필터는 상기 제시된 필터 외에도 다양한 필터가 존재할 수 있다. 소스 이미지는 필터 효과를 추출할 이미지일 수 있다.The
일 실시 예에서, 사용자 단말(300)은 소스 이미지로부터 원본 이미지를 결정할 수 있다(S920). 구체적으로 사용자 단말(300)은 필터 효과가 적용된 소스 이미지로부터 필터 효과가 적용되지 않은 원본 이미지를 추정할 수 있다. 사용자 단말(300)은 상기 소스 이미지 내의 객체들의 평균적인 특성에 기초하여 원본 이미지를 추정할 수 있다.In one embodiment, the
사용자 단말(300)은 소스 이미지에 포함되어 있는 객체들을 인식할 수 있고, 인식된 객체가 가지는 평균적인 색감을 추정하여 원본 이미지를 추정할 수 있다. 다시 말해서, 사용자 단말(300)은 소스 이미지에서 인식된 객체들을 제외한 영역을 고려하지 않고, 인식된 객체들에 대응되는 픽셀의 컬러 값에 기초하여 원본 이미지를 추정할 수 있다. 예를 들어, 사용자 단말(300)은 소스 이미지에 포함되어 있는 객체(ex. 풀 또는 바다)를 인식할 수 있고, 소스 이미지에 흑백 필터가 적용되어 풀 또는 바다가 회색 색감을 가지는 것을 인식할 수 있다. 소스 이미지에 흑백 필터가 적용되어 풀 또는 바다가 회색 색감을 가지는 경우, 풀은 평균적으로 녹색 색감을 포함할 수 있고, 바다는 평균적으로 파란색 색감을 포함할 수 있으므로, 원본 이미지에서 풀은 녹색, 바다는 파란색 색감을 가질 수 있다. 즉, 사용자 단말(300)은 상기 소스 이미지에 포함된 객체(ex. 바다)의 색감(ex. 회색)과 상기 객체(ex. 바다)에 대해 미리 정의된 기준 색감(ex. 파란색)을 비교하여 원본 이미지를 추정할 수 있다.The
한편, 필터 효과는 이미지 전체에 적용되는 것이 일반적이지만, 특정 객체(예를 들어, 주된 인물이나 사물)에만 한정적으로 필터 효과가 적용되거나, 필터 효과가 이미지 내의 객체마다 다르게 적용되는 경우도 존재할 수 있다.On the other hand, it is common for filter effects to be applied to the entire image, but there may be cases in which filter effects are limitedly applied to specific objects (eg, a main person or object) or different filter effects are applied to each object in the image. .
이러한 경우를 고려하여, 일 실시예에 따른 사용자 단말(300)은 원본 이미지를 추정할 때 정확성을 높이기 위하여, 소스 이미지에서 인식된 객체들이 소스 이미지에서 차지하는 객체의 면적에 따라 가중치를 다르게 부여할 수 있다. 예를 들어, 사용자 단말(300)은 소스 이미지에서 객체가 차지하는 면적이 클수록 해당 객체로부터 필터 효과를 추정하는 추정 가중치를 높게 부여할 수 있다. In consideration of this case, the
상기 추정 방식은 머신 러닝, 빅데이터 기술, AI(artificial intelligence)가 적용되어 수행될 수 있고, 상기 추정을 통해 학습된 데이터는 머신 러닝, 빅데이터 기술 또는 AI(artificial intelligence) 중 적어도 하나에 의해 메모리에 저장될 수 있다.The estimation method may be performed by applying machine learning, big data technology, and AI (artificial intelligence), and the data learned through the estimation is memory by at least one of machine learning, big data technology, and artificial intelligence (AI). can be stored in
일 실시 예에서, 사용자 단말(300)은 소스 이미지와 원본 이미지를 비교하여 소스 이미지에 적용되어 있는 필터 효과를 추출할 수 있다(S930). 사용자 단말(300)은 소스 이미지에서 인식된 객체들 중 소스 이미지에서 차지하는 면적이 가장 큰 제1 객체를 결정할 수 있다. 사용자 단말(300)은 상기 소스 이미지에서 제1 객체에 대응되는 픽셀들의 컬러 값과 상기 추정된 원본 이미지에서 제1 객체에 대응되는 픽셀들의 컬러 값을 비교하여 필터 효과를 추출할 수 있다. 제1 객체에 대응되는 픽셀들은 각각 R(red), G(green), B(blue)의 색 요소를 포함할 수 있고, 사용자 단말(300)은 상기 제1 객체에 대응되는 픽셀들 각각의 R, G, B의 변화 값을 계산할 수 있다. 사용자 단말(300)은 상기 제1 객체에 대응되는 영역에서 R 변화 값의 평균, G 변화 값의 평균, B 변화 값의 평균을 계산하고, 계산된 R 변화 값의 평균, G 변화 값의 평균, B 변화 값의 평균에 대응되는 컬러 값을 추출할 수 있다.In one embodiment, the
사용자 단말(300)은 추출된 컬러 값을 필터 효과로 저장하고, 저장된 필터 효과를 운영 서버(100)로부터 획득된 이미지에 적용할 수 있다.The
도 10은 둘 이상의 사용자들이 서로 시간이 맞지 않거나 서로 거리가 멀어 하나의 촬영룸 키오스크에서 함께 촬영이 불가능한 경우, 적어도 하나의 사용자가 촬영한 이미지를 배경 이미지로 활용하는 일 예시를 설명하기 위한 도면이다.FIG. 10 is a diagram for explaining an example of using an image captured by at least one user as a background image when two or more users cannot photograph together in one photographing room kiosk due to inconsistent time or distance from each other. .
촬영룸 키오스크(600)는 제1 사용자의 입력에 따라 제1 이미지를 촬영하고, 운영 서버(100)는 제1 사용자의 결제에 따라 촬영된 제1 이미지를 촬영룸 키오스크(600)로부터 획득하고, 획득된 제1 이미지를 제1 사용자 단말(300-1)에 제공할 수 있다.The
운영 서버(100)는 제1 이미지에 대한 공유 서비스를 제공할 수 있으며, 공유 서비스의 기간에 따라 제1 사용자 단말(300-1)에 공유 비용을 청구할 수 있다. 공유 서비스는 임시 저장 서비스를 포함할 수 있다. 제1 사용자 단말(300-1)은 제1 이미지를 공유 이미지로 결정하고, 결정된 공유 이미지에 공유 이미지에 대한 접근 정보를 설정할 수 있다. 접근 정보는 접근 비밀번호, 접근 가능 지인 범위 등을 포함할 수 있다. 제1 사용자 단말(300-1)은 운영 서버(100)에 접근 정보가 설정된 공유 이미지를 운영 서버(100)에 제공할 수 있다.The
운영 서버(100)는 제1 이미지가 촬영된 날로부터 일정 기간을 공유 이미지에 대한 공유 기간으로 설정할 수 있다. 운영 서버(100)는 상기 공유 기간이 지난 후에 공유 이미지를 삭제할 수 있다.The
제2 사용자 단말(300-2)은 상기 공유 기간 내에 공유 이미지에 설정된 접근 정보에 기초하여 운영 서버(100)와 통신함으로써 공유 이미지에 대한 접근 인증을 허가받을 수 있다. 이때, 제2 사용자 단말(300-2)은, 공유 이미지를 제공받길 원하는 촬영룸 키오스크(600)의 고유 식별 기호를 운영 서버(100)에 제공할 수 있다.The second user terminal 300-2 may be authorized to authenticate access to the shared image by communicating with the
운영 서버(100)는, 제2 사용자 단말(300-2)의 접근 인증을 허가한 후, 제2 사용자 단말(300-2)로부터 제공받은 촬영룸 키오스크(600)의 고유 식별 기호와 대응하는 촬영룸 키오스크(600)에 공유 이미지를 배경 이미지로서 제공할 수 있다.The
촬영룸 키오스크(600)는 제공받은 공유 이미지를 배경 이미지로 하여 제2 사용자 단말(300-2)의 사용자인 제2 사용자의 입력에 따라 사진을 촬영하여 제2 이미지를 생성할 수 있다. The photographing
촬영룸 키오스크(600)는 이렇게 촬영된 제2 이미지를 운영 서버(100)에 제공하고, 운영 서버(100)는, 제2 이미지를 제2 사용자 단말(300-2)에게 제공할 수 있다.The
한편, 운영 서버(100)는, 제2 사용자 단말(300-2)의 접근 인증을 허가한 후, 제2 사용자 단말(300-2)로부터 제공받은 촬영룸 키오스크(600)의 고유 식별 기호와 대응하는 공유 이미지에서 추출한 객체(예를 들어, 제1 사용자)를 촬영룸 키오스크(600)에 제공할 수도 있다.On the other hand, the
이때, 객체를 추출하기 위하여 공지된 다양한 형태의 객체 인식(또는 추출) 알고리즘이 적용될 수 있는데, 예를 들면, CNN(convolutional neural network) 기반의 객체 인식 알고리즘들이 적용될 수 있다.In this case, various known object recognition (or extraction) algorithms may be applied to extract the object. For example, convolutional neural network (CNN)-based object recognition algorithms may be applied.
촬영룸 키오스크(600)는, 제공받은 객체를 미리 저장된 배경 이미지들과 함께 제2 사용자에게 표시할 수 있고, 제2 사용자 단말(300-2)의 사용자인 제2 사용자는, 미리 저장된 배경 이미지들 중 원하는 배경 이미지를 선택하고, 선택한 배경 이미지에서 객체의 위치를 선택하면, 선택된 객체의 위치에 객체를 포함하는 배경 이미지를 촬영룸 키오스크(600)를 통해 제2 사용자에게 표시할 수 있다. 이후, 제2 사용자는, 표시된 화면을 보면서 촬영룸 키오스크(600)를 이용하여 사진을 촬영하여 제2 이미지를 생성할 수 있다.The
촬영룸 키오스크(600)는 이렇게 촬영된 제2 이미지를 운영 서버(100)에 제공하고, 운영 서버(100)는, 제2 이미지를 제2 사용자 단말(300-2)에게 제공할 수 있다.The
운영 서버(100)는 공유 기간이 지난 후에는 제1 사용자 단말(300-1)에 제1 이미지에 대한 삭제 및 공유 연장 여부를 묻는 메세지를 제공할 수 있다. 운영 서버(100)는 제1 사용자 단말(300-1)로부터 제1 이미지의 공유 서비스를 연장하는 입력을 획득한 경우, 제1 사용자 단말(300-1)에 추가 비용을 청구할 수 있다.After the sharing period has elapsed, the
도 11은 둘 이상의 사용자가 시간이 맞지 않거나 서로 거리가 멀어 하나의 촬영룸 키오스크에서 함께 촬영이 불가능한 경우, 적어도 하나의 사용자가 촬영한 이미지를 배경 이미지로 활용하는 일 예시를 설명하기 위한 도면이다.FIG. 11 is a diagram for explaining an example of using an image captured by at least one user as a background image when two or more users cannot be photographed together in one photographing room kiosk due to inconsistent timing or distance from each other.
촬영룸 키오스크(600)는 제1 사용자의 입력에 따라 제1 이미지를 촬영할 수 있다. 운영 서버(100)는 촬영된 이미지에 대한 공유 서비스를 제공할 수 있으며, 공유 서비스의 기간에 따라 제1 사용자 단말(300-1)에 공유 비용을 청구할 수 있다. 공유 서비스는 임시 저장 서비스를 포함할 수 있다. 운영 서버(100)는 촬영룸 키오스크(600)를 통해 제1 사용자의 결제를 승인할 수 있고, 상기 승인에 따라 촬영된 제1 이미지를 운영 서버(100) 및 촬영룸 키오스크(600) 내에 임시 저장할 수 있다.The
일 실시 예에서, 운영 서버(100)는 저장된 제1 이미지에 제1 이미지에 대한 접근 정보를 설정할 수 있다. 운영 서버(100)는 상기 공유 서비스의 기간 내에 상기 접근 정보에 대한 접근 허가가 확인되는 경우, 촬영룸 키오스크(600)에 제1 이미지를 배경 이미지로 제공할 수 있다.In one embodiment, the operating
따라서, 본 발명의 경우, 제1 사용자와 제2 사용자가 동일 시간에 방문하여 함께 촬영하기 어려운 상황이 있는 경우, 제1 사용자가 먼저 와서 촬영룸 키오스크(600)를 통해 촬영을 진행하고, 여기서 촬영된 제1 이미지에 대한 접근 정보를 설정하여 운영 서버(100)에 제공할 수 있고, 제2 사용자가 접근 정보를 기초로 제1 이미지를 운영 서버(100)를 통해 배경 이미지로서 촬영룸 키오스크(600)에 제공받아 제1 이미지를 배경으로 하는 사진 촬영을 할 수 있다.Therefore, in the case of the present invention, when there is a situation where it is difficult for the first user and the second user to visit at the same time and take a picture together, the first user comes first and takes a picture through the
도 12는 제1 촬영룸 키오스크 및 제2 촬영룸 키오스크를 연동하여 원격으로 제1 사용자와 제2 사용자가 함께 촬영하는 것을 나타낸 도면이다.12 is a diagram illustrating remotely taking pictures together by a first user and a second user by interlocking a first and second recording room kiosks.
일 실시 예에서, 제1 사용자는 제1 촬영룸 키오스크(600-1)를 통해 촬영하고, 제2 사용자는 제2 촬영룸 키오스크(600-2)를 통해 촬영을 할 수 있다. 제1 사용자 단말(300-1)은 제1 촬영룸 키오스크(600-1)와 연동될 수 있고, 제2 사용자 단말(300-2)은 제2 촬영룸 키오스크(600-2)와 연동될 수 있다.In an embodiment, a first user may take pictures through the first recording room kiosk 600-1, and a second user may take pictures through the second recording room kiosk 600-2. The first user terminal 300-1 may interwork with the first recording room kiosk 600-1, and the second user terminal 300-2 may interwork with the second recording room kiosk 600-2. there is.
제1 사용자 단말(300-1)은 호스트로서 운영 서버(100)에 제2 사용자 단말(300-2)과의 원격 실행 모드를 요청할 수 있다. 운영 서버(100)는 원격 실행 모드를 요청받은 것에 응답하여, 제1 촬영룸 키오스크(600-1)의 카메라를 통해 획득된 제1 영상(일종의 동영상)과 제2 촬영룸 키오스크(600-2)의 카메라를 통해 획득된 제2 영상(일종의 동영상)을 획득할 수 있다. 운영 서버(100)는 제1 영상과 제2 영상에 기초하여 제3 영상을 생성하고, 생성된 제3 영상을 제1 촬영룸 키오스크(600-1)의 디스플레이 및 제2 촬영룸 키오스크(600-2)의 디스플레이를 통해 표시할 수 있다. The first user terminal 300-1 may request a remote execution mode with the second user terminal 300-2 from the
제1 촬영룸 키오스크(600-1)는 제1 촬영룸 키오스크(600-1)의 카메라를 통해 실시간으로 획득되고 있는 제1 영상을 운영 서버(100)로 전송할 수 있다. 제2 촬영룸 키오스크(600-2)는 제2 촬영룸 키오스크(600-2)의 카메라를 통해 실시간으로 획득되고 있는 제2 영상을 운영 서버(100)로 전송할 수 있다. 실시관으로 획득되고 있는 영상은 복수의 이미지 프레임들을 포함할 수 있다.The first shooting room kiosk 600 - 1 may transmit the first image acquired in real time through the camera of the first shooting room kiosk 600 - 1 to the
운영 서버(100)는 제2 촬영룸 키오스크(600-2)로부터 획득한 제2 영상에서 제2 사용자를 검출할 수 있다. 운영 서버(100)는 제1 영상의 복수의 이미지 프레임에 제2 사용자에 대응되는 픽셀 영역을 합성하고, 상기 합성에 기초하여 제3 영상을 생성할 수 있다. 운영 서버(100)는 제3 영상을 생성하는 과정에서, 제1 사용자에 대응되는 픽셀 영역과 제2 사용자에 대응되는 픽셀 영역이 중첩되는 경우, 중첩되는 부분의 제1 사용자의 깊이값과 제2 사용자의 깊이 값을 비교하여 깊이 값이 높은 사용자의 픽셀 영역은 삭제하고, 깊이 값이 낮은 사용자의 픽셀 영역을 유지할 수 있다. 이를 위해 촬영룸 키오스크(600)는 촬영된 영상의 각 화소와 대응하는 깊이 값(depth value)을 획득하는 뎁스 카메라(depth camera)를 더 포함될 수 있다.The
운영 서버(100)는 생성된 제3 영상을 제1 촬영룸 키오스크(600-1) 및 제2 촬영룸 키오스크(600-2)에 제공할 수 있다. 운영 서버(100)는 제1 촬영룸 키오스크(600-1)와 제2 촬영룸 키오스크(600-2)를 통해서 제1 사용자 및 제2 사용자에게 제3 영상을 표시할 수 있다.The
운영 서버(100)는 호스트인 제1 사용자의 촬영 입력을 제1 촬영룸 키오스크(600-1)를 통해 획득하고, 획득된 촬영 입력에 응답하여, 제3 영상을 구성하는 복수의 이미지 프레임들 중에서, 제1 촬영룸 키오스크(600-1)의 카메라 및 제2 촬영룸 키오스크(600-2)의 카메라를 통해 촬영 입력을 획득한 시점에 대응되는 제3 영상의 이미지 프레임을 획득할 수 있다.The
이때, 운영 서버(100)는 원거리에 있는 제1 사용자와 제2 사용자가 원활하게 촬영할 수 있도록, 촬영룸 키오스크(600)에는 마이크를 더 포함할 수 있고, 제1 촬영룸 키오스크(600-1)와 제2 촬영룸 키오스크(600-2)의 오디오 시스템(스피커(220)와 마이크로 구성될 수 있음)을 연결할 수 있다.At this time, the
도 13은 운영 서버(100)를 통해 획득된 동영상에 기초하여 사진 프레임을 구성하는 것을 설명하기 위한 도면이다.13 is a diagram for explaining configuring a photo frame based on a video obtained through the
일 실시 예에서, 촬영룸 키오스크(600)는 카메라(610)를 통해 사진뿐 아니라, 동영상을 촬영할 수 있다. 운영 서버(100)는 촬영룸 키오스크(600)를 통해 촬영된 사진 및/또는 동영상을 획득하고, 획득된 사진 및/또는 동영상을 사용자 단말(300)에 제공할 수 있다.In one embodiment, the
사용자 단말(300)은 디스플레이의 일 부분에 운영 서버(100)로부터 획득된 복수 개의 동영상들(예: video 1, video 2, ...)을 표시할 수 있다. 사용자 단말(300)은 동영상을 구성하는 복수의 이미지 프레임들 중 하나를 대표 사진으로 결정하고, 대표 사진을 표시하는 동영상(1301)을 디스플레이에 표시할 수 있다. 예를 들어, 사용자 단말(300)은 획득된 동영상을 구성하는 첫번째 이미지 프레임에 대응되는 사진을 대표 사진으로 결정하고, 결정된 대표 사진이 표시되는 동영상을 디스플레이에 표시할 수 있다.The
일 실시 예에서, 사용자 단말(300)은 사용자에 의하여 선택된 동영상에 기초하여 사진 프레임을 생성할 수 있다. 사용자 단말(300)은 사용자에게 사진 프레임의 모양, 사진 프레임을 구성하는 사진의 개수 및/또는 사진 프레임을 구성하는 사진을 결정할 수 있는 옵션을 제공할 수 있다. 예를 들어, 사용자 단말(300)은 사용자에게 사진 프레임의 격자 형태(1x3 형태, 1x4 형태, 2x2 형태, 4x1 형태 등)와 같은 다양한 모양을 선택할 수 있도록 하는 옵션을 제공할 수 있다. 사용자 단말(300)은 사용자의 입력에 따라 사진 개수를 결정하거나, 사진 프레임의 모양을 결정하거나, 사진 프레임을 구성하는 사진을 결정할 수 있다. 또한, 사용자 단말(300)은 크리에이터 단말(400)에서 생성된 사진 프레임의 디자인을 운영 서버(100)를 통해 획득하고, 사진 프레임의 디자인을 선택할 수 있도록 하는 옵션을 제공할 수 있다.In one embodiment, the
일 실시 예에서, 사용자 단말(300)은 사용자에 의하여 선택된 동영상에 대한 사용자의 드래그 입력에 기초하여, 사진 프레임의 모양, 사진 프레임을 구성하는 사진의 개수, 사진 프레임을 구성하는 사진을 결정할 수 있다. 이에 대한 자세한 설명은 이하 도 14 및 도 15를 통해서 설명하도록 한다.In an embodiment, the
도 14는 획득된 동영상에 기초하여 사진 프레임을 구성하는 것을 설명하기 위한 도면이다.14 is a diagram for explaining the construction of a photo frame based on an acquired video.
사용자 단말(300)은 도 13의 하나의 동영상(예: video1 1)을 선택하는 입력에 응답하여, 상기 하나의 동영상에 기초한 사진 프레임(1420)을 생성할 수 있다. 사용자 단말(300)은 생성된 사진 프레임(1420)의 구성을 조절할 수 있는 인터페이스(1410)를 디스플레이의 일 영역을 통해 제공할 수 있다. 상기 하나의 동영상을 선택하는 입력에 응답하여 생성된 사진 프레임(1420)은 초기에 한 장의 사진으로 구성될 수 있다.The
사용자 단말(300)은 상기 인터페이스 내에서 획득되는 사용자의 드래그 입력 및/또는 터치 입력에 따라 사진 프레임(1420)의 구성을 변경할 수 있다. 예를 들어, 사용자 단말(300)은, 드래그 입력에 따라 사진 프레임의 모양, 사진 프레임을 구성하는 사진의 종류 및 사진의 개수 등을 결정할 수 있다.The
도 15는 획득된 동영상에 대해 사용자의 드래그 입력에 기초하여 다양한 형태로 사진 프레임을 구성하는 것을 설명하기 위한 도면이다.FIG. 15 is a diagram for explaining the composition of photo frames in various forms based on a user's drag input with respect to an acquired video.
사용자 단말(300)은 드래그 입력에 따라 사진 프레임의 크기를 조절할 수 있다. 사용자 단말(300)은 사진 프레임의 모서리 일 부분을 터치하고 드래그하는 사용자의 입력을 획득할 수 있다.The
사용자 단말(300)은 사진 프레임의 크기를 조절하는 사용자의 드래그 입력이 제1 시간 동안 획득되지 않는 경우, 사진 프레임의 크기를 결정할 수 있다. 예를 들어, 사용자 단말(300)은 사용자의 드래그 입력에 응답하여 사진 프레임의 크기를 실시간으로 조절하다가 제1 시간동안 사용자의 드래그 입력이 획득되지 않는 경우, 사용자의 드래그 입력이 획득되지 않는 시점의 크기를 사진 프레임의 크기로 결정할 수 있다.The
사용자 단말(300)은 상기 드래그 입력에 따라 사진 프레임의 크기, 모양 및 사진 프레임을 구성하는 사진의 개수를 결정할 수 있다. 사용자 단말(300)은 상기 드래그 입력에 따라 변화되는 사진 프레임의 크기에 기초하여 사진 프레임에 포함되는 사진의 개수를 결정할 수 있다. 예를 들어, 사용자 단말(300)은 사진 프레임의 크기가 제1 크기인 경우 사진 프레임을 구성하는 사진의 개수를 1개로 결정하고, 사진 프레임의 크기가 제1 크기보다 큰 제2 크기인 경우 사진 프레임을 구성하는 사진의 개수를 1개 이상으로 결정할 수 있다.The
예를 들어, 사용자 단말(300)은 사진 프레임을 제1 방향(예: 가로 방향)으로 드래그하는 사용자의 드래그 입력(1521)에 따라 제1 방향(예: 가로 방향)으로 사진 프레임을 확대할 수 있다. 사용자 단말(300)은 제1 방향(예: 가로 방향)으로 드래그 하는 사용자의 드래그 입력에 따라 사진 프레임을 1 x A개의 사진들로 구성된 격자로 구성할 수 있다.For example, the
다른 예를 들어, 사용자 단말(300)은 제2 방향(예: 세로 방향)으로 드래그하는 사용자의 드래그 입력(1522)에 따라 제2 방향(예: 세로 방향)으로 사진 프레임을 확대할 수 있다. 사용자 단말(300)은 제2 방향(예: 세로 방향)으로 드래그 하는 사용자의 드래그 입력에 따라 사진 프레임을 A x 1개의 사진들로 구성된 격자로 구성할 수 있다.For another example, the
다른 예를 들어, 사용자 단말(300)은 제3 방향(예: 대각 방향)으로 드래그하는 사용자의 드래그 입력(1523)에 따라 제3 방향(예: 대각 방향)으로 사진 프레임을 확대할 수 있다. 사용자 단말(300)은 제3 방향(예: 대각 방향)으로 드래그 하는 사용자의 드래그 입력에 따라 사진 프레임을 A x B개의 사진들로 구성된 격자로 구성할 수 있다. A는 B와 동일할 수 있다.For another example, the
사용자 단말(300)은 상기 드래그 입력에 따라 변화되는 사진 프레임의 크기에 기초하여 사진 프레임에 포함되는 사진의 개수 뿐만 아니라, 사진 프레임을 구성하는 사진을 결정할 수 있다. 사용자 단말(300)은 상기 드래그 입력에 따라 사진 프레임을 구성하는 사진들을 실시간으로 변경할 수 있다. 다시 말해서, 사용자 단말(300)은 결정된 상기 사진의 개수에 따라, 상기 선택된 동영상을 구성하는 이미지 프레임들 중 적어도 하나의 이미지 프레임을 사진 프레임을 구성하는 사진으로 결정할 수 있다.The
일 실시 예에서, 사용자 단말(300)은 선택된 동영상을 구성하는 이미지 프레임들 중 일정한 시간 간격마다 선택된 복수개의 이미지 프레임들을, 사진 프레임을 구성하는 사진들로 결정할 수 있다. 예를 들어, 사용자 단말(300)은 10초의 동영상에서, 2초에 대응되는 제1 이미지 프레임을 제1 사진으로 결정하고, 4초에 대응되는 제2 이미지 프레임을 제2 사진으로, 6초에 대응되는 제3 이미지 프레임을 제3 사진으로 결정할 수 있다. 상기 일정한 시간 간격은 사진 프레임을 구성하는 사진의 개수에 따라 결정될 수 있다. 다시 말해서, 사용자 단말(300)은 사진 프레임을 구성하는 사진의 개수가 많아질수록 상기 일정한 시간 간격을 좁히고, 사진 프레임을 구성하는 사진의 개수가 적을수록 상기 일정한 시간 간격을 넓힐 수 있다.In an embodiment, the
동영상 촬영 시에 촬영 버튼을 누르고 특정 시간 동안 사용자가 포즈를 잡는 과정이 있고, 촬영 종료 버튼을 누르기 전에 특정 시간 동안 사용자가 포즈를 해제하는 과정이 있다. 따라서, 불필요한 포즈을 포함하는 이미지 프레임을 사진 프레임을 구성하는 사진으로 결정하지 않기 위하여, 사용자 단말(300)은 선택된 동영상의 처음 시점과 마지막 시점 각각에서 미리 설정된 시간 간격을 제외하고, 나머지 시간들로 구성된 실질 동영상의 길이 내에서 사진 프레임을 구성할 사진을 결정할 수 있다.When recording a video, there is a process in which the user holds a pose for a specific time by pressing the recording button, and there is a process in which the user releases the pause for a specific period of time before pressing the recording end button. Therefore, in order not to determine an image frame including an unnecessary pose as a picture constituting a photo frame, the
일 실시 예에서, 사용자 단말(300)은 사진 프레임의 크기가 변경됨에 따라 사진 프레임을 구성하는 사진 및 사진의 개수를 변경할 수 있다. 사용자 단말(300)은 결정된 사진의 개수가 M개 인 경우, 실질 동영상 길이를 (M-1) 등분할 수 있다.In one embodiment, the
사용자 단말(300)은 사용자의 드래그 입력에 따라 사진 프레임을 M개의 사진으로 구성하는 경우, 실질 동영상의 첫번째 이미지 프레임을 제1 사진, 실질 동영상 길이의 N-1/(M-1) 부분에 대응되는 이미지 프레임을 제N 사진으로 결정할 수 있다. N의 최대 값은 M과 동일할 수 있다. 다시 말해서, 사용자 단말(300)은 사용자의 드래그 입력에 따라 네 개의 사진을 구성하는 경우, 실질 동영상의 첫번째 이미지 프레임을 제1 사진, 실질 동영상 길이의 1/3 부분에 대응되는 이미지 프레임을 제2 사진, 실질 동영상 길이의 2/3 부분에 대응되는 이미지 프레임을 제3 사진 및 실질 동영상 길이의 3/3 부분에 대응되는 이미지 프레임을 제4 사진으로 결정할 수 있다.When the
또한, 사용자 단말(300)은 사진 프레임을 구성하는 사진을 결정할 때, 비슷한 사진들을 결정하지 않기 위하여, 선택된 동영상에서 사용자의 포즈 및/또는 사용자의 표정에 기초하여 사진 프레임을 구성하는 사진을 결정할 수 있다. 예를 들어, 사용자 단말(300)은 10초의 동영상에서 사용자의 제1 포즈(예: 만세 포즈)를 포함하는 제1 이미지 프레임을 제1 사진으로 결정하고, 제2 포즈(예: 엄지척 포즈)를 포함하는 제2 이미지 프레임을 제2 사진으로 결정하고, 제3 포즈(예: 주먹을 쥔 포즈)를 포함하는 제3 이미지 프레임을 제3 사진으로 결정할 수 있다. In addition, when determining photos constituting the photo frame, the
사용자 단말(300)은 결정된 사진의 개수보다 감지된 포즈의 수 및 감지된 표정의 수가 적은 경우, 감지된 포즈 및/또는 표정 중 가장 먼저 감지된 포즈 및/또는 표정을 포함하는 이미지 프레임을 사진 프레임을 구성하는 나머지 사진으로 결정할 수 있다. 예를 들어, 선택된 사진의 개수가 4개이고, 감지된 포즈 및/또는 표정이 3개인 경우, 제1 포즈(예: 만세 포즈)를 포함하는 제4 이미지 프레임을 제4 사진으로 결정할 수 있다. 제4 이미지 프레임은 제1 이미지 프레임과 상이할 수 있다. 상기 제1 포즈 내지 상기 제3 포즈는 시간 순서대로 감지된 포즈일 수 있다.When the number of detected poses and the number of detected facial expressions is smaller than the determined number of photos, the
사용자 단말(300)은 운영 서버(100) 또는 사용자 단말(300)에 미리 저장된 다수의 포즈 데이터 및/또는 다수의 표정 데이터에 기초하여 상기 포즈 및/또는 사용자의 표정을 감지할 수 있다. 사용자 단말(300)은 상기 미리 저장된 다수의 포즈 데이터 및/또는 다수의 표정 데이터와 선택된 동영상에서 검출되는 사용자의 포즈 및/또는 표정을 비교하고, 비교 결과, 동일하다고 판단된 포즈를 감지할 수 있다.The
도 16은 일 실시예에 따른 사용자 단말(300)의 구성을 도시한 도면이다. 이하, 도 16에 도시된 사용자 단말(300)을 구성하는 구성요소들에 대해 차례로 살펴본다.16 is a diagram illustrating a configuration of a
무선 통신부(310)는 사용자 단말(300)과 무선 통신 시스템 사이의 무선 통신 또는 사용자 단말(300)과 사용자 단말(300)이 위치한 네트워크 사이의 무선 통신을 수행하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 무선 통신부(310)는 방송 수신 모듈(311), 이동통신 모듈(312), 무선 인터넷 모듈(313), 근거리 통신 모듈(314) 및 위치정보 모듈(315) 등을 포함할 수 있다.The
방송 수신 모듈(311)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 여기에서, 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 한편, 방송 관련 정보는 이동통신망을 통하여도 제공될 수 있으며, 이러한 경우에는 이동통신 모듈(312)에 의해 수신될 수 있다.The
또한, 이동통신 모듈(312)은 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.In addition, the
무선 인터넷 모듈(313)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 사용자 단말(300)에 내장되거나 외장 될 수 있다.The
근거리 통신 모듈(314)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short-
또한, 위치정보 모듈(115)은 사용자 단말(300)의 위치를 확인하거나 얻기 위한 모듈이다. 일례로 GPS(Global Position System) 모듈을 들 수 있다. GPS 모듈은 복수 개의 인공위성으로부터 위치 정보를 수신한다. 여기에서, 위치 정보는 위도 및 경도로 표시되는 좌표 정보를 포함할 수 있다.Also, the location information module 115 is a module for confirming or obtaining the location of the
한편, A/V(Audio/Video) 입력부(320)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(321)와 마이크(322) 등이 포함될 수 있다. 카메라(321)는 화상 통화 모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 그리고, 처리된 화상 프레임은 디스플레이부(351)에 표시될 수 있다.Meanwhile, an audio/video (A/V)
카메라(321)에서 처리된 화상 프레임은 메모리(360)에 저장되거나 무선 통신부(310)를 통하여 외부로 전송될 수 있다. 카메라(321)는 사용자 단말(300)의 구성 태양에 따라 2개 이상이 구비될 수도 있다.An image frame processed by the
마이크(322)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 그리고, 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(312)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(322)는 외부의 음향 신호를 입력받는 과정에서 발생하는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘을 구현할 수 있다.The
사용자 입력부(330)는 사용자로부터 입력 동작을 받아들여, 사용자 단말(300)의 동작 제어를 위한 입력 데이터를 발생시킨다.The
센싱부(340)는 사용자 단말(300)의 위치, 사용자 접촉 유무, 사용자 단말(300)의 방위, 사용자 단말(300)의 가속/감속 등과 같이, 사용자 단말(300)의 현 상태를 감지하여 사용자 단말(300)의 동작을 제어하기 위한 센싱 신호를 발생시킨다.The
인터페이스부(370)는 사용자 단말(300)에 연결되는 모든 외부기기와의 인터페이스 역할을 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 포함될 수 있다.The
출력부(350)는 오디오 신호 또는 비디오 신호 또는 알람(alarm) 신호의 출력을 위한 것으로, 이에는 디스플레이부(351)와 음향 출력 모듈(352), 알람부(353) 등이 포함될 수 있다.The
디스플레이부(351)는 사용자 단말(300)에서 처리되는 정보를 표시 출력한다. 예를 들어, 단말기가 통화 모드인 경우, 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 그리고, 사용자 단말(300)이 화상 통화 모드 또는 촬영 모드인 경우, 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다.The
한편, 전술한 바와 같이, 디스플레이부(351)와 터치 패드가 상호 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이부(351)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이부(351)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. 그리고, 사용자 단말(300)의 구현 형태에 따라, 디스플레이부(351)는 2개 이상 존재할 수도 있다. 예를 들어, 사용자 단말(300)에 외부 디스플레이부(미도시)와 내부 디스플레이부(미도시)가 동시에 구비될 수 있다.Meanwhile, as described above, when the
음향 출력 모듈(352)은 호 신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서, 무선 통신부(310)로부터 수신되거나 메모리(360)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력 모듈(352)은 사용자 단말(300)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력한다. 이러한 음향 출력 모듈(352)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The
알람부(353)는 사용자 단말(300)의 이벤트 발생을 알리기 위한 신호를 출력한다. 단말기에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력 등이 있다. The
메모리(360)는 제어부(380)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다.The
메모리(360)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The
제어부(380)는 통상적으로 단말기의 전반적인 동작을 제어한다. 예를 들어, 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 또한, 제어부(380)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(381)은 제어부(380) 내에 구현될 수도 있고, 제어부(380)와 별도로 구현될 수도 있다.The
제어부(380)는 전술한 포토 스튜디오 운영 방법을 구현하기 위한 단말기의 다양한 동작을 제어한다.The
전원 공급부(290)는 제어부(280)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 290 receives external power and internal power under the control of the controller 280 and supplies power required for operation of each component.
한편, 상술한 운영 서버(100)의 동작 중 적어도 일부 또는 전부는 사용자 단말(300)에서 구현될 수도 있다. 이때, 사용자 단말(300)에는 운영 서버(100)와 통신하여 상술한 운영 서버(100)의 동작을 수행하기 위한 애플리케이션이 미리 설치될 수 있다.On the other hand, at least some or all of the operations of the
도 17은 본 발명의 일 실시예에 따른 통신 과정에서 적용될 수 있는 무선 통신 시스템을 나타낸 도면이다. 도 18은 도 17에 따른 무선 통신 시스템에서 기지국을 나타낸 도면이다. 도 19은 도 17에 따른 무선 통신 시스템에서 단말을 나타낸 도면이다. 도 20은 도 17에 따른 무선 통신 시스템에서 통신 인터페이스를 나타낸 도면이다.17 is a diagram illustrating a wireless communication system that can be applied in a communication process according to an embodiment of the present invention. 18 is a diagram illustrating a base station in the wireless communication system according to FIG. 17; 19 is a diagram illustrating a terminal in the wireless communication system according to FIG. 17 . 20 is a diagram illustrating a communication interface in the wireless communication system according to FIG. 17;
이하에서는 각종 서버들과 단말들 사이의 통신을 지원하는 무선 통신 네트워크 시스템의 일례를 구체적으로 예를 들어 설명한다. 다음 설명에서, 제1 노드(장치)는 앵커/도너 노드 또는 앵커/도너 노드의 CU(centralized unit) 일 수 있고, 제2 노드(장치)는 앵커/도너 노드 또는 릴레이 노드의 DU(distributed unit) 일 수 있다.Hereinafter, an example of a wireless communication network system supporting communication between various servers and terminals will be specifically described as an example. In the following description, a first node (device) may be an anchor/donor node or a centralized unit (CU) of an anchor/donor node, and a second node (device) may be an anchor/donor node or a distributed unit (DU) of a relay node can be
무선 통신 시스템에서 무선 채널을 사용하는 노드의 일부로 기지국(base station, BS), 단말, 서버 등이 포함될 수 있다.A base station (BS), terminal, server, etc. may be included as a part of a node using a radio channel in a wireless communication system.
기지국은 단말 및 단말에 무선 액세스를 제공하는 네트워크 인프라이다. 기지국은 신호가 전송될 수 있는 거리에 따라 소정의 지리적 영역으로 정의된 커버리지를 갖는다.A base station is a terminal and a network infrastructure that provides wireless access to terminals. A base station has a coverage defined as a predetermined geographic area according to a distance over which a signal can be transmitted.
기지국은 "기지국"과 마찬가지로 "액세스 포인트(access point, AP)", "이노드비(enodeb, eNB)", "5 세대(5th generation, 5G) 노드", "무선 포인트(wireless point)", "송/수신 포인트(transmission/reception point, TRP)" 지칭될 수 있다.A base station, like a "base station," is referred to as "access point (AP)", "enodeb (eNB)", "5th generation (5G) node", "wireless point", " It may be referred to as a transmission/reception point (TRP).
기지국, 단말 및 단말은 밀리미터 파(millimeter wave, mmWave) 대역(예: 28GHz, 30GHz, 38GHz, 60GHz)으로 무선 신호를 송수신할 수 있다. 이때, 채널 이득 향상을 위해 기지국, 단말 및 단말은 빔포밍을 수행할 수 있다. 빔포밍은 송신 빔포밍 및 수신 빔포밍을 포함할 수 있다. 즉, 기지국, 단말 및 단말은 송신 신호와 수신 신호에 지향성을 부여할 수 있다. 이를 위해 기지국, 단말 및 단말은 빔 탐색 절차 또는 빔 관리 절차를 통해 서빙 빔을 선택할 수 있다. 그 후, 통신은 서빙 빔을 운반하는 자원과 준 동일위치(quasi co-located) 관계에 있는 자원을 사용하여 수행될 수 있다.The base station, the terminal, and the terminal may transmit and receive wireless signals in a millimeter wave (mmWave) band (eg, 28 GHz, 30 GHz, 38 GHz, and 60 GHz). At this time, the base station, the terminal, and the terminal may perform beamforming to improve the channel gain. Beamforming may include transmit beamforming and receive beamforming. That is, the base station, the terminal, and the terminal can give directivity to the transmitted signal and the received signal. To this end, the base station, the terminal, and the terminal may select a serving beam through a beam search procedure or a beam management procedure. After that, communication may be performed using a resource carrying a serving beam and a resource having a quasi co-located relationship.
첫 번째 안테나 포트 및 두 번째 안테나 포트는 첫 번째 안테나 포트의 심볼이 전달되는 채널의 대규모 속성이 두 번째 안테나 포트의 심볼이 전달되는 채널에서 유추될 수 있는 경우 준 동일위치 위치에 있는 것으로 간주된다. 대규모 속성은 지연 확산, 도플러 확산, 도플러 시프트, 평균 이득, 평균 지연 및 공간 Rx 파라미터 중 하나 이상을 포함할 수 있다.A first antenna port and a second antenna port are considered quasi-colocated if the large-scale properties of the channel through which the symbol of the first antenna port carries can be inferred from the channel through which the symbol of the second antenna port carries. The large-scale properties may include one or more of delay spread, Doppler spread, Doppler shift, average gain, average delay, and spatial Rx parameters.
이하에서는 상술한 무선 통신 시스템에서 기지국을 예시한다. 이하에서 사용되는 "-모듈(module)", "-부(unit)"또는 "-er"라는 용어는 적어도 하나의 기능 또는 동작을 처리하는 유닛을 의미할 수 있으며, 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있다.Hereinafter, a base station in the wireless communication system described above is exemplified. The terms "-module", "-unit" or "-er" used below may mean a unit that processes at least one function or operation, and may include hardware, software, or both hardware and software. It can be implemented as a combination of
기지국은 무선 통신 인터페이스, 백홀 통신 인터페이스, 저장부(storage unit 및 컨트롤러을 포함할 수 있다.The base station may include a wireless communication interface, a backhaul communication interface, a storage unit and a controller.
무선 통신 인터페이스는 무선 채널을 통해 신호를 송수신하는 기능을 수행한다. 예를 들어, 무선 통신 인터페이스는 시스템의 물리 계층 표준에 따라 베이스 밴드 신호와 비트 스트림 간의 변환 기능을 수행할 수 있다. 예를 들어, 데이터 전송에서, 무선 통신 인터페이스은 전송 비트 스트림을 압축 및 변조하여 복합 심볼을 생성한다. 또한, 데이터 수신 시 무선 통신 인터페이스는 베이스 밴드 신호를 복조 및 디코딩하여 수신 비트 스트림을 재구성한다.The wireless communication interface performs a function of transmitting and receiving signals through a wireless channel. For example, the wireless communication interface may perform a conversion function between a baseband signal and a bit stream according to a physical layer standard of a system. For example, in data transmission, a radio communication interface compresses and modulates a transmitted bit stream to produce composite symbols. Also, upon receiving data, the wireless communication interface demodulates and decodes the baseband signal to reconstruct the received bit stream.
무선 통신 인터페이스는 무선 채널을 통해 신호를 송수신하는 기능을 수행한다. 예를 들어, 무선 통신 인터페이스은 시스템의 물리 계층 표준에 따라 베이스 밴드 신호와 비트 스트림 간의 변환 기능을 수행할 수 있다. 예를 들어, 데이터 전송에서, 무선 통신 인터페이스은 전송 비트 스트림을 압축 및 변조하여 복합 심볼을 생성한다. 또한, 데이터 수신 시 무선 통신 인터페이스은 베이스 밴드 신호를 복조 및 디코딩하여 수신 비트 스트림을 재구성한다.The wireless communication interface performs a function of transmitting and receiving signals through a wireless channel. For example, the wireless communication interface may perform a conversion function between a baseband signal and a bit stream according to a system physical layer standard. For example, in data transmission, a radio communication interface compresses and modulates a transmitted bit stream to produce composite symbols. Also, upon receiving data, the wireless communication interface demodulates and decodes the baseband signal to reconstruct the received bit stream.
또한, 무선 통신 인터페이스는 베이스 대역 신호를 RF(Radio Frequency) 대역 신호로 상향 변환하고, 변환된 신호를 안테나를 통해 전송한 후 안테나를 통해 수신된 RF 대역 신호를 베이스 대역 신호로 하향 변환한다. 이를 위해, 무선 통신 인터페이스은 송신 필터(transmission filter), 수신 필터(reception filter), 증폭기(amplifier), 믹서(mixer), 발진기(oscillator), 디지털-아날로그 컨버터(digital-to-analog convertor, DAC), 아날로그-디지털 컨버터(analog-to-digital convertor, ADC) 등을 포함할 수 있다. 또한, 무선 통신 인터페이스는 복수의 송수신 경로를 포함할 수 있다. 또한, 무선 통신 인터페이스는 복수의 안테나 요소를 포함하는 적어도 하나의 안테나 어레이를 포함할 수 있다.In addition, the wireless communication interface up-converts a baseband signal into a radio frequency (RF) band signal, transmits the converted signal through an antenna, and down-converts the RF band signal received through the antenna into a baseband signal. To this end, the wireless communication interface includes a transmission filter, a reception filter, an amplifier, a mixer, an oscillator, a digital-to-analog converter (DAC), An analog-to-digital converter (ADC) and the like may be included. Also, the wireless communication interface may include a plurality of transmit/receive paths. Additionally, the wireless communication interface may include at least one antenna array comprising a plurality of antenna elements.
하드웨어 측면에서 무선 통신 인터페이스는 디지털 유닛과 아날로그 유닛을 포함할 수 있고, 아날로그 유닛은 동작 전력, 동작 주파수 등에 따라 복수의 서브 유닛을 포함할 수 있다. 디지털 유닛은 적어도 하나의 프로세서(예를 들어, 디지털 신호 프로세서(digital signal processor, DSP))로 구현될 수 있다.In terms of hardware, the wireless communication interface may include a digital unit and an analog unit, and the analog unit may include a plurality of sub-units according to operating power, operating frequency, and the like. A digital unit may be implemented with at least one processor (eg, a digital signal processor (DSP)).
무선 통신 인터페이스는 전술한 바와 같이 신호를 송수신한다. 따라서, 무선 통신 인터페이스는 "송신기(transmitter)", "수신기(receiver)"또는 "트랜시버(transceiver)"로 지칭될 수 있다. 또한, 이하의 설명에서 무선 채널을 통해 수행되는 송수신은 전술한 바와 같이 무선 통신 인터페이스에서 수행되는 처리를 포함하는 의미로 사용될 수 있다.The wireless communication interface transmits and receives signals as described above. Accordingly, a wireless communication interface may be referred to as a “transmitter”, “receiver” or “transceiver”. In addition, in the following description, transmission and reception performed through a wireless channel may be used as a meaning including processing performed in a wireless communication interface as described above.
백홀 통신 인터페이스는 네트워크 내의 다른 노드와 통신을 수행하기위한 인터페이스를 제공한다. 즉, 백홀 통신 인터페이스는 다른 노드로 전송되는 비트 스트림을 변환하고, 예를 들어, 다른 액세스 노드, 다른 기지국, 상위 노드 또는 기지국으로부터의 코어 네트워크는 물리적 신호로, 다른 노드로부터 수신된 물리적 신호를 비트 스트림으로 변환한다.The backhaul communication interface provides an interface for communicating with other nodes in the network. That is, the backhaul communication interface converts the bit stream transmitted to other nodes, for example, other access nodes, other base stations, upper nodes or core networks from base stations into physical signals, and the physical signals received from other nodes into bits. convert to stream
저장부는 기본 프로그램, 어플리케이션, 기지국의 동작을 위한 설정 정보 등의 데이터를 저장한다. 저장부는 휘발성 메모리, 비 휘발성 메모리 또는 휘발성 메모리와 비 휘발성 메모리의 조합을 포함할 수 있다.The storage unit stores data such as basic programs, applications, and setting information for operation of the base station. The storage unit may include volatile memory, non-volatile memory, or a combination of volatile and non-volatile memory.
컨트롤러는 기지국의 전반적인 동작을 제어한다. 예를 들어, 컨트롤러는 무선 통신 인터페이스 또는 백홀 통신 인터페이스를 통해 신호를 송수신한다. 또한 컨트롤러는 저장부에 데이터를 기록하고 기록된 데이터를 읽는다. 컨트롤러는 통신 규격에서 요구하는 프로토콜 스택의 기능을 수행할 수 있다. 다른 구현에 따르면, 프로토콜 스택은 무선 통신 인터페이스에 포함될 수 있다. 이를 위해 컨트롤러는 적어도 하나의 프로세서를 포함할 수 있다.The controller controls the overall operation of the base station. For example, the controller transmits and receives signals through a wireless communication interface or a backhaul communication interface. Also, the controller writes data to the storage unit and reads the recorded data. The controller can perform protocol stack functions required by communication standards. According to another implementation, a protocol stack may be included in a wireless communication interface. To this end, the controller may include at least one processor.
일 실시 예에 따르면 컨트롤러는 본 발명의 실시 예에 따른 동작을 수행하도록 기지국을 제어할 수 있다.According to an embodiment, the controller may control the base station to perform an operation according to an embodiment of the present invention.
다양한 실시 예에 따르면, 무선 통신 시스템의 도너 노드는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서에 동작 가능하게 결합된 트랜시버를 포함하고, 상기 릴레이 노드에 액세스하는 단말에 대한 복수의 라디오 베어러에 관한 상기 도너 노드와 관련된 제1 정보를 포함하는 제1 메시지를 릴레이 노드로 전송하도록 구성되고; 상기 릴레이 노드로부터 상기 단말에 대한 복수의 라디오 베어러에 관한 상기 릴레이 노드와 관련된 제2 정보를 포함하는 제2 메시지를 수신하고; 단말에 대한 데이터를 릴레이 노드로 전송할 수 있다. 데이터는 제1 정보 및 제2 정보에 기초하여 복수의 라디오 베어러를 통해 단말로 전송될 수 있다.According to various embodiments, a donor node of a wireless communication system includes at least one processor, includes a transceiver operably coupled to the at least one processor, and includes a plurality of radio bearers for a terminal accessing the relay node. configured to transmit to a relay node a first message including first information related to the donor node about; receive a second message including second information related to the relay node regarding a plurality of radio bearers for the terminal from the relay node; Data for the terminal may be transmitted to the relay node. Data may be transmitted to the terminal through a plurality of radio bearers based on the first information and the second information.
다양한 실시 예에 따르면, 복수의 라디오 베어러 중 라디오 베어러는 복수의 라디오 베어러를 통합시킬 수 있다. 적어도 하나의 프로세서는 또한 릴레이 노드에 액세스하는 단말에 대한 라디오 베어러 및 라디오 베어러에 의해 통합된 다중 라디오 베어러를 결정하도록 구성되고; 또는 릴레이 노드에 액세스하는 단말에 대한 라디오 베어러를 결정할 수 있다.According to various embodiments, a radio bearer among a plurality of radio bearers may integrate a plurality of radio bearers. the at least one processor is also configured to determine a radio bearer for a terminal accessing the relay node and multiple radio bearers aggregated by the radio bearer; Alternatively, a radio bearer for a UE accessing a relay node may be determined.
다양한 실시 예에 따르면, 제1 메시지는 다음 중 하나 이상을 포함할 수 있다: 릴레이 노드에 액세스하는 터미널의 식별; 릴레이 노드에 접속하는 단말의 종류를 나타내는 표시 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러에 대한 정보; 릴레이 노드에 액세스하는 단말에 의해 전달된 라디오 베어러에 대한 정보; 도너 노드와 릴레이 노드 사이의 라디오 베어러에 대해 설정된 터널에 대한 정보; 통합된 다중 라디오 베어러에 대한 정보; 라디오 베어러 매핑 정보; 도너 노드 측면의 주소에 대한 정보; 릴레이 노드 측의 주소에 대한 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러에 대응하는 표시 정보; 릴레이 노드에 액세스하는 단말에 대해 새로운 주소를 라디오 베어러에 할당하도록 릴레이 노드를 나타내는 표시 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러의 데이터를 전송하는 릴레이 노드가 사용할 수 없는 주소 정보 목록; 및 보안 구성과 관련된 정보.According to various embodiments, the first message may include one or more of: identification of a terminal accessing the relay node; display information indicating the type of terminal accessing the relay node; information about a radio bearer of a terminal accessing a relay node; information about a radio bearer transmitted by a terminal accessing a relay node; information about a tunnel established for a radio bearer between the donor node and the relay node; information about integrated multiple radio bearers; radio bearer mapping information; information about the address of the side of the donor node; information about the address of the relay node side; indication information corresponding to a radio bearer of a terminal accessing the relay node; indication information indicating the relay node to allocate a new address to a radio bearer for a terminal accessing the relay node; a list of address information that cannot be used by a relay node that transmits radio bearer data of a terminal accessing the relay node; and information related to security configuration.
다양한 실시 예에 따르면, 제2 메시지는 다음 중 하나 이상을 포함할 수 있다: 릴레이 노드에 액세스하는 터미널의 식별; 릴레이 노드에 의해 승인된 라디오 베어러에 대한 정보; 릴레이 노드에 의해 승인되지 않은 라디오 베어러에 대한 정보; 릴레이 노드에 의해 부분적으로 승인된 라디오 베어러에 대한 정보; 라디오 베어러 매핑 정보; 릴레이 노드가 생성한 릴레이 노드에 접속하는 단말의 구성 정보; 릴레이 노드 측의 주소에 대한 정보; 및 보안 구성과 관련된 정보.According to various embodiments, the second message may include one or more of: identification of a terminal accessing the relay node; information about the radio bearer granted by the relay node; information about radio bearers not acknowledged by the relay node; information about radio bearers partially granted by the relay node; radio bearer mapping information; Configuration information of a terminal accessing the relay node created by the relay node; information about the address of the relay node side; and information related to security configuration.
다양한 실시 예에 따르면, 제2 메시지는 통합된 다중 라디오 베어러에 대한 정보를 더 포함할 수 있다.According to various embodiments, the second message may further include information on integrated multiple radio bearers.
다양한 실시 예에 따르면, 도너 노드는 도너 노드의 중앙 유닛을 포함하고, 릴레이 노드는 도너 노드의 분산 유닛을 포함할 수 있다.According to various embodiments, the donor node may include a central unit of the donor node, and the relay node may include a distribution unit of the donor node.
다양한 실시 예에 따르면, 무선 통신 시스템의 릴레이 노드는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서에 동작 가능하게 결합된 트랜시버를 포함하고, 도너 노드로부터, 릴레이 노드에 액세스하는 단말에 대한 복수의 라디오 베어러에 관한 도너 노드와 관련된 제1 정보를 포함하는 제1 메시지를 수신하도록 구성되고; 단말에 대한 복수의 라디오 베어러에 관한 릴레이 노드와 관련된 제2 정보를 포함하는 제2 메시지를 도너 노드로 전송하고; 도너 노드로부터 단말기에 대한 데이터를 수신할 수 있다. 데이터는 제1 정보 및 제2 정보에 기초하여 복수의 라디오 베어러를 통해 단말로 전송될 수 있다.According to various embodiments, a relay node of a wireless communication system includes at least one processor, includes a transceiver operably coupled to the at least one processor, and provides a plurality of information from a donor node to a terminal accessing the relay node. configured to receive a first message including first information related to a donor node for a radio bearer of; transmit to the donor node a second message including second information related to the relay node for the plurality of radio bearers for the terminal; Data on the terminal may be received from the donor node. Data may be transmitted to the terminal through a plurality of radio bearers based on the first information and the second information.
다양한 실시 예에 따르면, 복수의 라디오 베어러 중 라디오 베어러는 복수의 라디오 베어러를 통합시킬 수 있다. 적어도 하나의 프로세서는 또한 릴레이 노드에 액세스하는 단말에 대한 라디오 베어러 및 라디오 베어러에 의해 통합된 다중 라디오 베어러를 결정하도록 구성되고; 또는 라디오 베어러에 의해 통합된 다중 라디오 베어러를 결정할 수 있다.According to various embodiments, a radio bearer among a plurality of radio bearers may integrate a plurality of radio bearers. the at least one processor is also configured to determine a radio bearer for a terminal accessing the relay node and multiple radio bearers aggregated by the radio bearer; Alternatively, multiple radio bearers integrated by radio bearer may be determined.
다양한 실시 예에 따르면, 제1 메시지는 다음 중 하나 이상을 포함할 수 있다: 릴레이 노드에 액세스하는 터미널의 식별; 릴레이 노드에 접속하는 단말의 종류를 나타내는 표시 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러에 대한 정보; 릴레이 노드에 액세스하는 단말에 의해 전달된 라디오 베어러에 대한 정보; 도너 노드와 릴레이 노드 사이의 라디오 베어러에 대해 설정된 터널에 대한 정보; 통합된 다중 라디오 베어러에 대한 정보; 라디오 베어러 매핑 정보; 도너 노드 측면의 주소에 대한 정보; 릴레이 노드 측의 주소에 대한 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러에 대응하는 표시 정보; 릴레이 노드에 액세스하는 단말에 대해 새로운 주소를 라디오 베어러에 할당하도록 릴레이 노드를 나타내는 표시 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러의 데이터를 전송하는 릴레이 노드가 사용할 수 없는 주소 정보 목록; 및 보안 구성과 관련된 정보.According to various embodiments, the first message may include one or more of: identification of a terminal accessing the relay node; display information indicating the type of terminal accessing the relay node; information about a radio bearer of a terminal accessing a relay node; information about a radio bearer transmitted by a terminal accessing a relay node; information about a tunnel established for a radio bearer between the donor node and the relay node; information about integrated multiple radio bearers; radio bearer mapping information; information about the address of the side of the donor node; information about the address of the relay node side; indication information corresponding to a radio bearer of a terminal accessing the relay node; indication information indicating the relay node to allocate a new address to a radio bearer for a terminal accessing the relay node; a list of address information that cannot be used by a relay node that transmits radio bearer data of a terminal accessing the relay node; and information related to security configuration.
다양한 실시 예에 따르면, 제2 메시지는 다음 중 하나 이상을 포함할 수 있다: 릴레이 노드에 액세스하는 터미널의 식별; 릴레이 노드에 의해 승인된 라디오 베어러에 대한 정보; 릴레이 노드에 의해 승인되지 않은 라디오 베어러에 대한 정보; 릴레이 노드에 의해 부분적으로 승인된 라디오 베어러에 대한 정보; 라디오 베어러 매핑 정보; 릴레이 노드가 생성한 릴레이 노드에 접속하는 단말의 구성 정보; 릴레이 노드 측의 주소에 대한 정보; 및 보안 구성과 관련된 정보.According to various embodiments, the second message may include one or more of: identification of a terminal accessing the relay node; information about the radio bearer granted by the relay node; information about radio bearers not acknowledged by the relay node; information about radio bearers partially granted by the relay node; radio bearer mapping information; Configuration information of a terminal accessing the relay node created by the relay node; information about the address of the relay node side; and information related to security configuration.
다양한 실시 예에 따르면, 제2 메시지는 통합된 다중 라디오 베어러에 대한 정보를 더 포함할 수 있다.According to various embodiments, the second message may further include information on integrated multiple radio bearers.
다양한 실시 예에 따르면, 도너 노드는 도너 노드의 중앙 유닛을 포함하고, 릴레이 노드는 도너 노드의 분산 유닛을 포함할 수 있다.According to various embodiments, the donor node may include a central unit of the donor node, and the relay node may include a distribution unit of the donor node.
이하에서는 상술한 무선 통신 시스템에서 단말의 구성요소를 도시한다. 이하에서는 설명하는 단말의 구성요소는 무선 통신 시스템에서 지원하는 범용적인 단말의 구성요소로서 전술한 내용들에 따른 단말의 구성요소와 병합되거나 통합될 수 있고, 일부 중첩되거나 상충되는 범위에서 앞서 도면을 참조하여 설명한 내용이 우선적용되는 것으로 해석될 수 있다. 이하에서 사용되는 "-모듈", "-유닛"또는 "-er"라는 용어는 적어도 하나의 기능을 처리하는 유닛을 의미할 수 있다.Hereinafter, components of a terminal in the wireless communication system described above are illustrated. Components of a terminal to be described below are components of a general-purpose terminal supported by a wireless communication system, and may be merged or integrated with components of a terminal according to the foregoing contents, and may overlap or conflict with the above drawings. It can be interpreted that the content described with reference takes precedence. The terms "-module", "-unit" or "-er" used below may mean a unit that processes at least one function.
단말은 통신 인터페이스, 저장부 및 컨트롤러를 포함한다.The terminal includes a communication interface, a storage unit and a controller.
통신 인터페이스는 무선 채널을 통해 신호를 송수신하는 기능을 수행한다. 예를 들어, 통신 인터페이스는 시스템의 물리 계층 표준에 따라 베이스 밴드 신호와 비트 스트림 간의 변환 기능을 수행한다. 예를 들어, 데이터 전송에서 통신 인터페이스는 전송 비트 스트림을 압축 및 변조하여 복합 심볼을 생성한다. 또한, 데이터 수신시 통신 인터페이스는 베이스 대역 신호를 복조 및 복호화하여 수신 비트 스트림을 재구성한다. 또한, 통신 인터페이스는 베이스 대역 신호를 RF 대역 신호로 상향 변환하고, 변환된 신호를 안테나를 통해 전송한 후 안테나를 통해 수신된 RF 대역 신호를 기저 대역 신호로 하향 변환한다. 예를 들어, 통신 인터페이스는 송신 필터(transmission filter), 수신 필터(reception filter), 증폭기(amplifier), 믹서(mixer), 발진기(oscillator), 디지털-아날로그 컨버터(digital-to-analog convertor, DAC), 아날로그-디지털 컨버터(analog-to-digital convertor, ADC) 등을 포함할 수 있다.The communication interface performs a function of transmitting and receiving signals through a wireless channel. For example, the communication interface performs a conversion function between a baseband signal and a bit stream according to the physical layer standard of the system. For example, in data transmission, a communication interface compresses and modulates a transmission bit stream to generate composite symbols. Also, when receiving data, the communication interface demodulates and decodes the baseband signal to reconstruct the received bit stream. Further, the communication interface up-converts the baseband signal to an RF-band signal, transmits the converted signal through an antenna, and down-converts the RF-band signal received through the antenna into a baseband signal. For example, the communication interface includes a transmission filter, a reception filter, an amplifier, a mixer, an oscillator, and a digital-to-analog converter (DAC). , an analog-to-digital converter (ADC), and the like.
또한, 통신 인터페이스는 복수의 송수신 경로를 포함할 수 있다. 또한, 통신 인터페이스는 복수의 안테나 요소를 포함하는 적어도 하나의 안테나 어레이를 포함할 수 있다. 하드웨어 측에서 무선 통신 인터페이스는 디지털 회로 및 아날로그 회로(예를 들어, radio frequency integrated circuit, RFIC)를 포함할 수 있다. 디지털 회로는 적어도 하나의 프로세서(예: DSP)로 구현될 수 있다. 통신 인터페이스는 복수의 RF 체인을 포함할 수 있다. 통신 인터페이스는 빔포밍을 수행할 수 있다.Also, the communication interface may include a plurality of transmit/receive paths. Additionally, the communication interface may include at least one antenna array comprising a plurality of antenna elements. On the hardware side, the wireless communication interface may include a digital circuit and an analog circuit (eg, a radio frequency integrated circuit (RFIC)). A digital circuit may be implemented with at least one processor (eg, DSP). A communication interface may include multiple RF chains. The communication interface may perform beamforming.
통신 인터페이스는 전술한 바와 같이 신호를 송수신한다. 따라서, 통신 인터페이스는 "송신기(transmitter)", "수신기(receiver)"또는 "트랜시버(transceiver)"로 지칭될 수 있다. 또한, 이하의 설명에서 무선 채널을 통해 수행되는 송수신은 전술한 바와 같이 통신 인터페이스에서 수행되는 처리를 포함하는 의미로 사용될 수 있다.The communication interface transmits and receives signals as described above. Accordingly, a communication interface may be referred to as a “transmitter”, “receiver” or “transceiver”. In addition, in the following description, transmission and reception performed through a radio channel may be used as a meaning including processing performed in a communication interface as described above.
저장부는 단말기의 동작을 위한 기본 프로그램, 어플리케이션, 설정 정보 등의 데이터를 저장한다. 저장부는 휘발성 메모리, 비 휘발성 메모리 또는 휘발성 메모리와 비 휘발성 메모리의 조합을 포함할 수 있다. 또한, 저장부는 컨트롤러의 요청에 따라 저장된 데이터를 제공한다.The storage unit stores data such as basic programs for operation of the terminal, applications, and setting information. The storage unit may include volatile memory, non-volatile memory, or a combination of volatile and non-volatile memory. In addition, the storage unit provides stored data according to the request of the controller.
컨트롤러는 단말의 전반적인 동작을 제어한다. 예를 들어, 컨트롤러는 통신 인터페이스를 통해 신호를 송수신한다. 또한 컨트롤러는 저장부에 데이터를 기록하고 기록된 데이터를 읽는다. 컨트롤러는 통신 규격에서 요구하는 프로토콜 스택의 기능을 수행할 수 있다. 다른 구현에 따르면, 프로토콜 스택은 통신 인터페이스에 포함될 수 있다. 이를 위해, 컨트롤러는 적어도 하나의 프로세서 또는 마이크로 프로세서를 포함하거나 프로세서의 일부를 재생할 수 있다. 또한, 통신 인터페이스 또는 컨트롤러의 일부를 통신 프로세서(communication processor, CP)라고 할 수 있다.The controller controls the overall operation of the terminal. For example, the controller sends and receives signals through a communication interface. Also, the controller writes data to the storage unit and reads the recorded data. The controller can perform protocol stack functions required by communication standards. According to another implementation, a protocol stack may be included in the communication interface. To this end, the controller may include at least one processor or microprocessor or reproduce parts of a processor. Also, a part of the communication interface or controller may be referred to as a communication processor (CP).
본 발명의 일 실시 예에 따르면, 컨트롤러는 본 발명의 실시 예에 따른 동작을 수행하도록 단말을 제어할 수 있다.According to an embodiment of the present invention, a controller may control a terminal to perform an operation according to an embodiment of the present invention.
이하에서는 무선 통신 시스템에서 통신 인터페이스를 예시한다. Hereinafter, a communication interface in a wireless communication system is illustrated.
통신 인터페이스는 압축 및 변조 회로, 디지털 빔포밍 회로, 복수의 전송 경로 및 아날로그 빔포밍 회로를 포함한다.The communication interface includes compression and modulation circuitry, digital beamforming circuitry, a plurality of transmission paths, and analog beamforming circuitry.
압축 및 변조 회로는 채널 압축을 수행한다. 채널 압축을 위해 low-density parity check(LDPC) 코드, 컨볼루션 코드 및 폴라 코드 중 적어도 하나가 사용될 수 있다. 압축 및 변조 회로는 성상 매핑(constellation mapping)을 수행함으로써 변조 심볼을 생성한다.Compression and modulation circuitry performs channel compression. At least one of a low-density parity check (LDPC) code, a convolution code, and a polar code may be used for channel compression. A compression and modulation circuit generates modulation symbols by performing constellation mapping.
디지털 빔포밍 회로는 디지털 신호(예를 들어, 변조 심볼)에 대한 빔 형성을 수행한다. 이를 위해, 디지털 빔포밍 회로는 빔포밍 가중 값에 의해 변조 심볼을 다중화한다. 빔포밍 가중치는 신호의 크기 및 문구를 변경하는데 사용될 수 있으며, "프리코딩 매트릭스(precoding matrix)"또는 "프리코더(precoder)"라고 할 수 있다. 디지털 빔포밍 회로는 디지털 빔포밍된 변조 심볼을 복수의 전송 경로로 출력한다. 이때, 다중 안테나 기술(multiple input multiple output, MIMO) 전송 방식에 따라 변조 심볼이 다중화 되거나 동일한 변조 심볼이 복수의 전송 경로에 제공될 수 있다.A digital beamforming circuit performs beamforming on a digital signal (eg, a modulation symbol). To this end, a digital beamforming circuit multiplexes modulation symbols by beamforming weights. Beamforming weights can be used to change the size and phrase of a signal, and can be referred to as a "precoding matrix" or "precoder". The digital beamforming circuit outputs digital beamformed modulation symbols to a plurality of transmission paths. In this case, according to a multiple input multiple output (MIMO) transmission method, modulation symbols may be multiplexed or the same modulation symbol may be provided to a plurality of transmission paths.
복수의 전송 경로는 디지털 빔포밍된 디지털 신호를 아날로그 신호로 변환한다. 이를 위해, 복수의 전송 경로 각각은 인버스 고속 푸리에 변환(inverse fast fourier transform, IFFT) 계산 유닛, 순환 전치(cyclic prefix, CP) 삽입 유닛, DAC 및 상향 변환 유닛을 포함할 수 있다. CP 삽입 부는 직교 주파수 분할 다중화(orthogonal frequency division multiplexing, OFDM) 방식을 위한 것으로 다른 물리 계층 방식(예: 필터 뱅크 다중 반송파(a filter bank multi-carrier): FBMC) 적용시 생략될 수 있다. 즉, 복수의 전송 경로는 디지털 빔포밍을 통해 생성된 복수의 스트림에 대해 독립적인 신호 처리 프로세스를 제공한다. 그러나, 구현에 따라 복수의 전송 경로의 일부 요소는 공통적으로 사용될 수 있다.The plurality of transmission paths convert digital beamformed digital signals into analog signals. To this end, each of the plurality of transmission paths may include an inverse fast fourier transform (IFFT) computation unit, a cyclic prefix (CP) insertion unit, a DAC, and an up conversion unit. The CP insertion unit is for an orthogonal frequency division multiplexing (OFDM) method and may be omitted when another physical layer method (eg, a filter bank multi-carrier: FBMC) is applied. That is, the plurality of transmission paths provide independent signal processing processes for a plurality of streams generated through digital beamforming. However, depending on the implementation, some elements of the plurality of transmission paths may be commonly used.
아날로그 빔포밍 회로는 아날로그 신호에 대한 빔포밍을 수행한다. 이를 위해, 디지털 빔포밍 회로는 빔포밍 가중 값에 의해 아날로그 신호를 다중화한다. 빔포밍된 가중치는 신호의 크기와 문구를 변경하는데 사용된다. 보다 구체적으로, 복수의 전송 경로와 안테나 사이의 연결 구조에 따라, 아날로그 빔포밍 회로는 다양한 방식으로 구성될 수 있다. 예를 들어, 복수의 전송 경로 각각은 하나의 안테나 어레이에 연결될 수 있다. 다른 예에서, 복수의 전송 경로는 하나의 안테나 어레이에 연결될 수 있다. 또 다른 예에서, 복수의 전송 경로는 하나의 안테나 어레이에 적응적으로 연결될 수 있거나 2개 이상의 안테나 어레이에 연결될 수 있다.An analog beamforming circuit performs beamforming on an analog signal. To this end, the digital beamforming circuit multiplexes analog signals by beamforming weighting values. The beamformed weights are used to change the amplitude and phrase of the signal. More specifically, the analog beamforming circuit may be configured in various ways according to a connection structure between a plurality of transmission paths and an antenna. For example, each of a plurality of transmission paths may be connected to one antenna array. In another example, multiple transmission paths may be coupled to one antenna array. In another example, multiple transmission paths may be adaptively coupled to one antenna array or may be coupled to two or more antenna arrays.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.Steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, implemented in a software module executed by hardware, or implemented by a combination thereof. A software module may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art to which the present invention pertains.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.Although the embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features of the present invention. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.
100: 운영 서버
200: 촬영룸 서버
300: 사용자 단말
400: 크리에이터 단말100: operation server 200: shooting room server
300: user terminal 400: creator terminal
Claims (1)
상기 사용자 단말의 사용자로부터 입력을 수신하고, 내장된 카메라를 이용하여 촬영된 이미지를 디스플레이를 통해 사용자에게 표시하도록 촬영룸에 구비된 촬영룸 키오스크;
상기 촬영룸 키오스크에 상기 촬영룸의 조명, 음악 및 상기 카메라를 제어하기 위한 기기 제어 신호를 전송하며, 상기 촬영룸 키오스크로부터 상기 카메라를 통해 촬영된 상기 이미지를 획득하는 운영 서버; 및
상기 운영 서버와 통신하여 상기 이미지를 획득하는 상기 사용자 단말을 포함하고,
상기 운영 서버는,
상기 촬영룸 키오스크로부터 상기 사용자가 선택한 촬영 컨셉에 기초하여 상기 기기 제어 신호를 생성하는 촬영 컨셉 제어부;
촬영된 상기 이미지를 공유 이미지로 설정하고, 설정된 공유 이미지를 상기 사용자 단말 또는 상기 촬영룸 키오스크에 공유하는 공유 서비스 제공부; 및
서로 다른 제1 촬영룸 키오스크와 제2 촬영룸 키오스크 각각의 카메라를 통해 실시간으로 획득된 제1 영상과 제2 영상을 합성하는 영상 합성부를 포함하고,
상기 영상 합성부는,
제1 사용자 단말로부터 원격 실행 모드를 요청받은 것에 응답하여, 상기 제1 영상과 상기 제2 영상을 획득하고, 상기 제2 영상에서 제2 사용자를 검출하고, 상기 제1 영상을 구성하는 복수의 이미지 프레임들에 상기 제2 사용자에 대응되는 픽셀 영역을 합성하되,
상기 제1 영상의 제1 사용자에 대응되는 픽셀 영역과 상기 제2 사용자에 대응되는 픽셀 영역이 중첩되는 경우, 중첩되는 부분의 상기 제1 사용자의 깊이 값과 상기 제2 사용자의 깊이 값을 비교하고, 깊이 값이 높은 사용자의 픽셀 영역은 삭제하고, 상기 깊이 값이 낮은 사용자의 픽셀 영역은 유지하여 제3 영상을 생성하고, 생성된 상기 제3 영상을 상기 제1 촬영룸 키오스크의 디스플레이에 표시하고,
상기 제1 촬영룸 키오스크는,
상기 제3 영상이 표시된 상태에 촬영 입력을 획득한 것에 응답하여, 상기 제3 영상에 대응하는 동영상을 촬영하고,
상기 제1 사용자 단말은,
촬영된 상기 동영상을 상기 운영 서버를 통해 획득하고, 획득된 동영상을 구성하는 복수의 이미지 프레임들 중 적어도 하나의 이미지 프레임에 기초하여 사진 프레임을 구성하는 사진을 결정하되,
상기 동영상을 선택하는 상기 제1 사용자의 입력에 응답하여, 상기 동영상에 기초한 상기 사진 프레임을 생성하고, 생성된 상기 사진 프레임을 조절할 수 있는 인터페이스를 상기 제1 사용자 단말에 탑재된 디스플레이를 통해 제공하고,
상기 인터페이스 내에서 획득되는 상기 제1 사용자의 드래그 입력에 따라 상기 사진 프레임의 모양, 상기 사진 프레임을 구성하는 사진 및 상기 사진의 개수를 결정하고,
상기 사진 프레임의 크기를 조절하는 상기 제1 사용자의 드래그 입력이 제1 시간 동안 획득되지 않는 경우, 상기 드래그 입력이 획득되지 않는 시점의 크기를 상기 사진 프레임의 크기로 결정하고,
상기 드래그 입력에 따라 결정된 상기 사진 프레임의 모양 및 크기에 대응되도록 상기 사진 프레임에 포함되는 사진들을 구성하고,
상기 동영상에서, 상기 동영상의 처음 제2 시간 및 마지막 제3 시간 각각에 대응되는 부분이 제외된 동영상을 실질 동영상으로 결정하고,
상기 결정된 사진의 개수가 M 개인 경우, 결정된 M개의 사진들 중 첫번째 사진은, 상기 실질 동영상의 (M-1) 등분된 구간들 중 첫번째 구간의 첫번째 이미지 프레임으로 결정되고, 상기 첫번째 사진 이후의 사진인 N번째 사진은 상기 실질 동영상의 (M-1) 등분된 구간들 중 (N-1)번째 구간의 마지막 프레임으로 결정되고, 상기 M은 2 이상의 자연수이며, 상기 N은 2 이상이고 M 이하인 자연수이고,
상기 제1 사용자 단말은,
상기 제1 사용자 단말의 내부 저장소에서 필터 효과가 적용된 소스 이미지를 획득하고,
상기 소스 이미지에 포함되어 있는 객체들을 검출하고,
검출된 상기 객체들이 가지는 평균적인 색감을 추정하여 상기 필터 효과가 없는 원본 이미지를 추정하되,
상기 객체들이 상기 소스 이미지에서 차지하는 객체의 면적에 따라 추정 가중치를 부여하고, 상기 객체들 중 상기 소스 이미지에서 차지하는 상기 면적이 클수록 상기 추정 가중치를 높게 부여하고,
상기 소스 이미지와 추정된 상기 원본 이미지를 비교하여 상기 필터 효과를 추출하되,
상기 객체들 중 상기 소스 이미지에서 차지하는 면적이 가장 큰 제1 객체를 결정하고,
상기 소스 이미지에 포함된 상기 제1 객체에 대응되는 영역에 포함된 제1 픽셀들 각각의 R값, G값, B값과 상기 원본 이미지에서 상기 제1 픽셀들 각각과 대응하는 제2 픽셀들 각각의 R값, G값, B값 간 차이값인 변화값을 계산하고,
상기 제1 객체에 대응되는 영역에서 R값에 대한 변화값의 평균값, G값에 대한 변화값의 평균값, B값에 대한 변화값의 평균값을 계산하고, 계산된 상기 R값에 대한 변화값의 평균값, 상기 G값에 대한 변화값의 평균값, 상기 B값에 대한 변화값의 평균값에 대응되는 컬러 값을 추출하고,
추출된 컬러 값에 기반한 필터 효과를 저장하고, 저장된 상기 필터 효과를 상기 운영 서버로부터 획득된 상기 이미지에 적용하는, 포토 스튜디오 운영 시스템.
A photo studio operating system that provides a user-preferred shooting environment by linking a shooting room kiosk and a user terminal,
A recording room kiosk provided in the recording room to receive an input from a user of the user terminal and display an image captured using a built-in camera to the user through a display;
an operating server that transmits device control signals for controlling lighting, music, and the camera of the recording room to the recording room kiosk, and obtains the image captured by the camera from the recording room kiosk; and
Including the user terminal for acquiring the image by communicating with the operation server,
The operating server,
a photographing concept control unit generating the device control signal based on a photographing concept selected by the user from the photographing room kiosk;
a sharing service providing unit that sets the captured image as a shared image and shares the set shared image with the user terminal or the photographing room kiosk; and
An image synthesis unit for synthesizing a first image and a second image acquired in real time through cameras of the first and second shooting room kiosks, which are different from each other,
The video synthesis unit,
In response to a request for a remote execution mode from a first user terminal, the first image and the second image are obtained, a second user is detected from the second image, and a plurality of images constituting the first image are obtained. synthesizing a pixel area corresponding to the second user to frames;
When a pixel area corresponding to the first user of the first image and a pixel area corresponding to the second user overlap, a depth value of the first user and a depth value of the second user of the overlapped portion are compared; , Deleting a user's pixel area with a high depth value, maintaining a user's pixel area with a low depth value to generate a third image, and displaying the generated third image on a display of the first shooting room kiosk; ,
The first shooting room kiosk,
Taking a video corresponding to the third image in response to obtaining a shooting input while the third image is displayed;
The first user terminal,
Obtaining the captured video through the operation server, and determining a photo constituting a photo frame based on at least one image frame among a plurality of image frames constituting the obtained video,
In response to the first user's input for selecting the video, the photo frame based on the video is generated, and an interface capable of adjusting the generated photo frame is provided through a display mounted on the first user terminal, ,
determining the shape of the photo frame, photos constituting the photo frame, and the number of photos according to the first user's drag input acquired within the interface;
When the first user's drag input for resizing the photo frame is not obtained for a first time, determining a size at a time when the drag input is not obtained as the size of the photo frame;
Configuring photos included in the photo frame to correspond to the shape and size of the photo frame determined according to the drag input;
In the video, a video from which portions corresponding to the first second time and the last third time of the video are excluded is determined as a real video;
When the determined number of photos is M, the first photo among the determined M photos is determined as the first image frame of the first section among the (M-1) equal sections of the real video, and the photos after the first photo The N-th picture is determined as the last frame of the (N-1) th section among the (M-1) equally divided sections of the real video, M is a natural number greater than or equal to 2, and N is a natural number greater than or equal to 2 and less than or equal to M. ego,
The first user terminal,
Obtaining a source image to which a filter effect is applied from an internal storage of the first user terminal;
Detect objects included in the source image,
Estimating the original image without the filter effect by estimating the average color of the detected objects;
assigning an estimated weight according to the area of the object occupied by the objects in the source image, and assigning a higher estimated weight as the area occupied by the objects in the source image increases;
Extracting the filter effect by comparing the source image with the estimated original image;
determining a first object having the largest area occupied in the source image among the objects;
R value, G value, and B value of each of the first pixels included in the area corresponding to the first object included in the source image and each of the second pixels corresponding to each of the first pixels in the original image Calculate the change value, which is the difference between the R value, G value, and B value of
In the region corresponding to the first object, an average value of change values for R values, an average value of change values for G values, and an average value of change values for B values are calculated, and an average value of the calculated change values for R values , Extracting a color value corresponding to the average value of the change values for the G value and the average value of the change values for the B value,
A photo studio operating system for storing a filter effect based on the extracted color value and applying the stored filter effect to the image obtained from the operating server.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210096604 | 2021-07-22 | ||
KR20210096604 | 2021-07-22 | ||
KR20210097050 | 2021-07-23 | ||
KR1020210097050 | 2021-07-23 | ||
KR1020210097696A KR102390838B1 (en) | 2021-07-22 | 2021-07-26 | Apparatus and method for generating a picture frame based on images taken through a shooting room kiosk |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210097696A Division KR102390838B1 (en) | 2021-07-22 | 2021-07-26 | Apparatus and method for generating a picture frame based on images taken through a shooting room kiosk |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230015268A true KR20230015268A (en) | 2023-01-31 |
KR102715902B1 KR102715902B1 (en) | 2024-10-11 |
Family
ID=
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102539413B1 (en) * | 2023-03-03 | 2023-06-02 | 주식회사 웜브로 | Photo kiosk and operating method of the same |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102539413B1 (en) * | 2023-03-03 | 2023-06-02 | 주식회사 웜브로 | Photo kiosk and operating method of the same |
Also Published As
Publication number | Publication date |
---|---|
KR20230015269A (en) | 2023-01-31 |
KR102616384B1 (en) | 2023-12-21 |
KR102390838B1 (en) | 2022-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102390838B1 (en) | Apparatus and method for generating a picture frame based on images taken through a shooting room kiosk | |
US10715762B2 (en) | Method and apparatus for providing image service | |
US9253340B2 (en) | Wireless camera with image sharing prioritization | |
US20130120592A1 (en) | Method for wireless sharing of images | |
CN107135193A (en) | Wireless device | |
CN108429814A (en) | Method and system for transmission data among multiple devices | |
CN106793059A (en) | Send, obtain the method and device of synchronous information block | |
CN114610253A (en) | Screen projection method and equipment | |
CN112714327B (en) | Interaction method, device and equipment based on live application program and storage medium | |
CN111448587B (en) | Advertisement picture display method, advertisement picture uploading method and advertisement picture uploading device | |
WO2022135527A1 (en) | Video recording method and electronic device | |
CN115514883B (en) | Cross-equipment collaborative shooting method, related device and system | |
CN106611402B (en) | Image processing method and device | |
KR102569419B1 (en) | Augmented reality-based performance content providing device that supports a technology for correcting a visual difference according to a user's viewing position and performing method thereof | |
CN109804346A (en) | Wireless device and wireless system | |
CN114827581A (en) | Synchronization delay measuring method, content synchronization method, terminal device, and storage medium | |
WO2022095712A1 (en) | Data sharing method, apparatus and system, and electronic device | |
CN114466131B (en) | Cross-device shooting method and related device | |
CN104853056A (en) | Digital single-lens reflex camera photo sharing method | |
KR102715902B1 (en) | Method and apparatus for creating a user's preferences photo through collaboration between an image stored in a user terminal and an image captured through a shooting room kiosk | |
KR102632124B1 (en) | The method and system for operating photo studio using mining token based on blockchain network | |
KR102572083B1 (en) | The method and system for operating photo studio supporting camera parameter prediction model based on artificial neural network | |
WO2024022307A1 (en) | Screen mirroring method and electronic device | |
WO2022206769A1 (en) | Method for combining content, electronic device, and system | |
WO2022188812A1 (en) | Method for synchronizing software features between devices, and electronic device |