KR102632129B1 - The method and system for operating photo studio - Google Patents

The method and system for operating photo studio Download PDF

Info

Publication number
KR102632129B1
KR102632129B1 KR1020220046322A KR20220046322A KR102632129B1 KR 102632129 B1 KR102632129 B1 KR 102632129B1 KR 1020220046322 A KR1020220046322 A KR 1020220046322A KR 20220046322 A KR20220046322 A KR 20220046322A KR 102632129 B1 KR102632129 B1 KR 102632129B1
Authority
KR
South Korea
Prior art keywords
shooting
concept
user
photo
camera
Prior art date
Application number
KR1020220046322A
Other languages
Korean (ko)
Other versions
KR20220169385A (en
Inventor
이호익
Original Assignee
주식회사 엘케이벤쳐스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘케이벤쳐스 filed Critical 주식회사 엘케이벤쳐스
Priority to KR1020220046322A priority Critical patent/KR102632129B1/en
Publication of KR20220169385A publication Critical patent/KR20220169385A/en
Application granted granted Critical
Publication of KR102632129B1 publication Critical patent/KR102632129B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06315Needs-based resource requirements planning or analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet

Abstract

포토 스튜디오 운영 방법 및 시스템이 개시된다. 위 실시예들은 포토 스튜디오 운영 방법 및 시스템에 관한 것으로, 구체적으로 사용자가 선택한 촬영 컨셉에 따라 촬영룸의 조명, 음악 및 카메라를 제어하고, 사용자의 행동을 분석하여 촬영룸의 조명을 제어하며, 머신러닝을 기반으로 사용자의 테스트 사진으로부터 사용자가 원하는 최적의 카메라 파라미터를 설정하는 방법 및 그 시스템에 관한 것이다.A photo studio operation method and system are disclosed. The above embodiments relate to a photo studio operation method and system. Specifically, the lighting, music, and camera of the shooting room are controlled according to the shooting concept selected by the user, the lighting of the shooting room is controlled by analyzing the user's behavior, and the machine is controlled. It relates to a method and system for setting the optimal camera parameters desired by the user from the user's test photos based on learning.

Description

포토 스튜디오 운영 방법 및 시스템{THE METHOD AND SYSTEM FOR OPERATING PHOTO STUDIO}Photo studio operation method and system{THE METHOD AND SYSTEM FOR OPERATING PHOTO STUDIO}

아래 실시예들은 포토 스튜디오 운영 방법 및 시스템에 관한 것으로, 구체적으로 사용자가 선택한 촬영 컨셉에 따라 촬영룸의 조명, 음악 및 카메라를 제어하고, 사용자의 행동을 분석하여 촬영룸의 조명을 제어하며, 머신러닝을 기반으로 사용자의 테스트 사진으로부터 사용자가 원하는 최적의 카메라 파라미터를 설정하는 방법 및 그 시스템에 관한 것이다.The following embodiments relate to a photo studio operation method and system. Specifically, the lighting, music, and camera of the shooting room are controlled according to the shooting concept selected by the user, the lighting of the shooting room is controlled by analyzing the user's behavior, and the machine is controlled. It relates to a method and system for setting the optimal camera parameters desired by the user from the user's test photos based on learning.

일반적인 사진 촬영은 빛에 의한 영향을 받는 예민한 작업 중 하나이다. 이에 따라, 백일 사진, 돌사진, 결혼사진과 같은 기념사진을 비롯하여, 특정 피사체에 대한 정확한 정보를 제공할 수 있는 광고 사진들이 전문 사진기사들에 의해 촬영되고 있다.General photography is one of the most sensitive tasks that is affected by light. Accordingly, commemorative photos such as 100th day photos, first birthday photos, and wedding photos, as well as advertising photos that can provide accurate information about a specific subject, are being taken by professional photographers.

한편, 사진 촬영은 빛에 의한 간섭을 조절하면서 촬영할 수 있는 기술이 요구됨에 따라, 빛의 조절이 용이한 밀폐된 스튜디오 내에서 촬영이 요구된다. 이러한 스튜디오는 피사체에 대한 적절한 높이, 거리를 유지하는 정적 위치에서 빛을 조절할 수 있도록, 작업자의 접근성이 요구된다.Meanwhile, as photography requires technology that can take pictures while controlling interference by light, it is necessary to take pictures in a closed studio where light can be easily controlled. These studios require operator accessibility to control light from a static position that maintains the appropriate height and distance to the subject.

이에 따라, 근래에는 작업자의 촬영 접근성을 향상시키기 위한 다양한 스튜디오 환경에 대한 간편하게 제공하기 위한 연구가 지속적으로 이루어지고 있는 추세이다.Accordingly, in recent years, research has been continuously conducted to easily provide various studio environments to improve workers' accessibility to filming.

과거 기념 사진 앨범의 제작은 포토 스튜디오에서 촬영하여 자체적으로 완료되어 소비자(사용자)에게 제공하는 방식으로 이뤄졌다. 그러나 인터넷의 보급과 디지털 기술의 발전에 의해 포토 스튜디오에서 사용자가 직접 사진을 촬영하고 앨범 제작을 의뢰하면, 포토 스튜디오의 웹 사이트 혹은 웹 하드를 이용해서 앨범에 사용될 사진 파일을 열람하도록 하고, 또한 그 디지털 파일을 다운로드 받을 수 있도록 서비스가 개선되었다.In the past, the production of commemorative photo albums was done by taking photos in a photo studio, completing them in-house, and providing them to consumers (users). However, with the spread of the Internet and the development of digital technology, when a user takes photos directly in a photo studio and requests an album to be created, the photo file to be used in the album can be viewed using the photo studio's website or web hard drive. The service has been improved to allow downloading of digital files.

그러나 사용자가 원하는 사진을 찍기 위해 직접 피사체 또는 촬영 환경의 조명이나 카메라의 다양한 파라미터를 설정하는 것은 쉽지 않은 작업이기 때문에, 사용자가 직접 촬영하면 전문 사진기사가 촬영하는 것과 같은 높은 퀄리티의 사진을 얻지 못하는 경우가 대다수이다.However, because it is not easy to set the lighting of the subject or shooting environment or various parameters of the camera to take the photo the user wants, it is not possible to obtain high-quality photos like those taken by a professional photographer if the user takes the photo himself. In most cases,

따라서 사진에 대한 전문지식이 없더라도 사용자가 원하는 조명, 분위기의 높은 퀄리티의 사진을 촬영할 수 있는 다양한 방안들이 요구되고 있다.Therefore, there is a need for various ways to take high-quality photos with the lighting and atmosphere desired by the user, even without professional knowledge of photography.

이 배경기술 부분에 기재된 사항은 발명의 배경에 대한 이해를 증진하기 위하여 작성된 것으로써, 이 기술이 속하는 분야에서 통상의 지식을 가진 자에게 이미 알려진 종래기술이 아닌 사항을 포함할 수 있다.The matters described in this background art section are written to improve understanding of the background of the invention, and may include matters that are not prior art already known to those skilled in the art in the field to which this technology belongs.

아래 실시예들은 전술한 문제점을 해결하기 위하여 안출된 것으로서, 사용자가 선택한 촬영 컨셉에 따라 촬영룸의 조명, 음악 및 카메라를 제어하고, 사용자의 행동을 분석하여 촬영룸의 조명을 제어하며, 머신러닝을 기반으로 사용자의 테스트 사진으로부터 사용자가 원하는 최적의 카메라 파라미터를 설정하는 포토 스튜디오 운영 방법 및 시스템을 도출하는 것을 목적으로 한다.The following embodiments were designed to solve the above-mentioned problems, and control the lighting, music, and camera in the shooting room according to the shooting concept selected by the user, control the lighting in the shooting room by analyzing the user's behavior, and use machine learning to control the lighting in the shooting room. Based on this, the purpose is to derive a photo studio operation method and system that sets the optimal camera parameters desired by the user from the user's test photos.

일 실시예가 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by one embodiment are not limited to the problems mentioned above, and other problems not mentioned can be clearly understood by those skilled in the art from the description below.

상기 목적을 달성하기 위한 일 실시예는 포토 스튜디오 운영 서버의 동작 방법으로, 촬영룸 서버로부터 사용자가 선택한 촬영 컨셉을 수신하는 단계; 컨셉 맵핑 테이블을 이용하여, 상기 사용자가 선택한 촬영 컨셉에 해당하는 컨셉 데이터를 추출하는 단계; 상기 컨셉 데이터를 이용하여, 조명 기기, 스피커 및 카메라 중 적어도 하나의 제어 신호를 포함하는 기기 제어 신호를 생성하는 단계; 및 상기 기기 제어 신호를 상기 촬영룸 서버로 전송하여, 상기 조명, 스피커 및 카메라 중 적어도 하나를 제어하는 단계를 포함하고, 상기 컨셉 데이터는 상기 사용자가 선택한 촬영 컨셉에 해당하는 음악, 배경 이미지, 상기 조명 기기의 빛 색상, 상기 조명 기기의 조도 정보, 카메라 파라미터 중 적어도 하나를 포함하는 포토 스튜디오 운영 서버의 동작 방법을 제공한다,One embodiment for achieving the above object is a method of operating a photo studio operating server, comprising: receiving a shooting concept selected by a user from a shooting room server; extracting concept data corresponding to the shooting concept selected by the user using a concept mapping table; Using the concept data, generating a device control signal including a control signal for at least one of a lighting device, a speaker, and a camera; And transmitting the device control signal to the shooting room server to control at least one of the lighting, speaker, and camera, wherein the concept data includes music, background images, and music corresponding to the shooting concept selected by the user. Provides a method of operating a photo studio operation server including at least one of the light color of the lighting device, illuminance information of the lighting device, and camera parameters,

일 실시예는 기 설정된 판단 주기가 도래하면 상기 판단 주기 도래 시점을 기준으로 복수의 패턴 주기 각각의 이전까지의 사용자 행동에 따른 감지 신호를 상기 복수의 패턴 주기 각각을 기준으로 분석해, 상기 복수의 패턴 주기 각각에 대한 행동 패턴을 추출하는 단계; 상기 복수의 패턴 주기 각각의 행동 패턴을 상기 복수의 패턴 주기 각각 별로 구비된 적어도 하나의 표준 행동 패턴과 비교하여 상기 사용자의 행동을 판단하는 단계; 및 상기 판단된 사용자의 행동에 따라, 상기 조명 기기의 제어 신호를 포함하는 상기 기기 제어 신호를 생성하는 단계를 더 포함하고, 상기 분석은 복수의 패턴 주기 각각을 기준으로 시간 속성을 고려한 3면 분석을 포함하고, 상기 3면 분석은 상기 복수의 패턴 주기에 따른 움직임량 제 1면을 포함하고, 상기 복수의 패턴 주기에 따른 음향량 제 2면을 포함하고, 상기 음향량에 따른 상기 움직임량 제 3면을 포함한다.In one embodiment, when a preset judgment cycle arrives, the detection signal according to user behavior up to each of the plurality of pattern cycles based on the arrival of the judgment cycle is analyzed based on each of the plurality of pattern cycles, and the plurality of patterns Extracting behavior patterns for each cycle; determining the user's behavior by comparing the behavior pattern of each of the plurality of pattern cycles with at least one standard behavior pattern provided for each of the plurality of pattern cycles; And according to the determined user's behavior, further comprising generating the device control signal including a control signal of the lighting device, wherein the analysis is a three-sided analysis considering time properties based on each of a plurality of pattern periods. Includes, the three-sided analysis includes a first side of the motion amount according to the plurality of pattern periods, a second side of the sound amount according to the plurality of pattern periods, and a second side of the motion amount according to the sound amount Includes 3 pages.

일 실시예는 상기 사용자로부터 테스트 사진을 수신하는 단계; 상기 테스트 사진을 파라미터 예측 모델에 입력하여, 상기 카메라 파라미터를 예측하는 단계; 및 상기 예측된 카메라 파라미터를 이용하여, 상기 카메라의 제어 신호를 포함하는 상기 기기 제어 신호를 생성하는 단계를 더 포함한다.One embodiment includes receiving a test photo from the user; predicting the camera parameters by inputting the test photo into a parameter prediction model; and generating the device control signal including a control signal of the camera using the predicted camera parameters.

일 실시예는 상기 예측된 카메라 파라미터가 복수개인 경우, 상기 사용자가 선택한 촬영 컨셉의 카메라 파라미터와 비교하여 최종 카메라 파라미터를 결정하고, 상기 최종 카메라 파라미터를 이용하여 상기 카메라의 제어 신호를 포함하는 상기 기기 제어 신호를 생성하는 단계를 더 포함한다.In one embodiment, when there are a plurality of predicted camera parameters, the device determines final camera parameters by comparing them with camera parameters of the shooting concept selected by the user, and includes a control signal for the camera using the final camera parameters. It further includes generating a control signal.

일 실시예는 적어도 하나의 프로세서(processor); 및 상기 적어도 하나의 프로세서가 적어도 하나의 동작(operation)을 수행하도록 지시하는 명령어들(instuctions)을 저장하는 메모리(memory)를 포함하는, 포토 스튜디어 운영 서버로서, 상기 적어도 하나의 동작은, 촬영룸 서버로부터 사용자가 선택한 촬영 컨셉을 수신하는 단계; 컨셉 맵핑 테이블을 이용하여, 상기 사용자가 선택한 촬영 컨셉에 해당하는 컨셉 데이터를 추출하는 단계; 상기 컨셉 데이터를 이용하여, 조명 기기, 스피커 및 카메라 중 적어도 하나의 제어 신호를 포함하는 기기 제어 신호를 생성하는 단계; 및 상기 기기 제어 신호를 상기 촬영룸 서버로 전송하여, 상기 조명, 스피커 및 카메라 중 적어도 하나를 제어하는 단계를 포함하고, 상기 컨셉 데이터는 상기 사용자가 선택한 촬영 컨셉에 해당하는 음악, 배경 이미지, 상기 조명 기기의 빛 색상, 상기 조명 기기의 조도 정보, 카메라 파라미터 중 적어도 하나를 포함하는 포토 스튜디오 운영 서버를 제공한다.One embodiment includes at least one processor; and a memory storing instructions that instruct the at least one processor to perform at least one operation, wherein the at least one operation is shooting. Receiving a user-selected shooting concept from a room server; extracting concept data corresponding to the shooting concept selected by the user using a concept mapping table; Using the concept data, generating a device control signal including a control signal for at least one of a lighting device, a speaker, and a camera; And transmitting the device control signal to the shooting room server to control at least one of the lighting, speaker, and camera, wherein the concept data includes music, background images, and music corresponding to the shooting concept selected by the user. A photo studio operating server is provided that includes at least one of light color of a lighting device, illuminance information of the lighting device, and camera parameters.

일 실시예는, 포토 스튜디오 운영 시스템을 제공한다.One embodiment provides a photo studio operating system.

상기 포토 스튜디오 운영 시스템은, 촬영룸에 구비된 카메라, 스피커, 조명, 및 센서; 기기 제어 신호에 기초하여 상기 카메라, 상기 스피커, 상기 조명, 및 상기 센서를 제어하도록 상기 촬영룸에 구비된 촬영룸 서버; 및 상기 촬영룸 서버에 상기 기기 제어 신호를 전송하는 상기 운영 서버를 포함한다.The photo studio operating system includes cameras, speakers, lights, and sensors provided in a shooting room; a shooting room server provided in the shooting room to control the camera, the speaker, the lighting, and the sensor based on a device control signal; and the operation server transmitting the device control signal to the shooting room server.

상기 운영 서버는, 적어도 하나의 프로세서(processor); 및 상기 적어도 하나의 프로세서가 적어도 하나의 동작(operation)을 수행하도록 지시하는 명령어들(instuctions)을 저장하는 메모리(memory)를 포함한다.The operating server includes at least one processor; and a memory storing instructions that instruct the at least one processor to perform at least one operation.

상기 적어도 하나의 동작은, 촬영룸 서버로부터 사용자가 선택한 촬영 컨셉을 수신하는 단계; 컨셉 맵핑 테이블을 이용하여, 상기 사용자가 선택한 촬영 컨셉에 해당하는 컨셉 데이터를 추출하는 단계; 상기 컨셉 데이터를 이용하여, 조명 기기, 스피커 및 카메라 중 적어도 하나의 제어 신호를 포함하는 기기 제어 신호를 생성하는 단계; 및 상기 기기 제어 신호를 상기 촬영룸 서버로 전송하여, 상기 조명, 스피커 및 카메라 중 적어도 하나를 제어하는 단계를 포함한다.The at least one operation may include receiving a shooting concept selected by a user from a shooting room server; extracting concept data corresponding to the shooting concept selected by the user using a concept mapping table; Using the concept data, generating a device control signal including a control signal for at least one of a lighting device, a speaker, and a camera; And transmitting the device control signal to the shooting room server to control at least one of the lighting, speaker, and camera.

상기 컨셉 데이터는, 상기 사용자가 선택한 촬영 컨셉에 해당하는 음악, 배경 이미지, 상기 조명 기기의 빛 색상, 상기 조명 기기의 조도 정보, 카메라 파라미터 중 적어도 하나를 포함한다.The concept data includes at least one of music corresponding to the shooting concept selected by the user, a background image, a light color of the lighting device, illuminance information of the lighting device, and camera parameters.

이상에서 설명한 바와 같은 일 실시예들에 따르면, 사용자가 선택한 촬영 컨셉에 따라 촬영룸의 조명, 음악 및 카메라를 제어하여, 사용자가 원하는 컨셉에 따라 사진을 촬영할 수 있는 환경을 제공할 수 있다.According to the embodiments described above, the lighting, music, and camera of the shooting room are controlled according to the shooting concept selected by the user, thereby providing an environment in which the user can take photos according to the desired concept.

그리고, 사용자의 행동을 실시간 감지하여 시간 속성을 고려해 사용자의 행동을 판단함으로써, 시간 변화에 따른 사용자의 다양한 행동에 적합한 촬영룸의 조명 환경을 제공할 수 있다. In addition, by detecting the user's behavior in real time and determining the user's behavior considering time attributes, it is possible to provide a lighting environment in the shooting room suitable for the user's various actions according to time changes.

그리고, 사용자 위치의 조도를 고려하여 사용자의 행동에 적합한 촬영룸의 조명 환경을 설정함으로써, 사용자가 원하는 촬영 환경을 제공할 수 있다.In addition, by setting the lighting environment of the shooting room suitable for the user's behavior in consideration of the illumination of the user's location, the shooting environment desired by the user can be provided.

또한, 머신러닝을 이용하여, 사용자의 테스트 사진으로부터 사용자가 원하는 최적의 카메라 파라미터를 추출하여 촬영룸의 카메라에 적용시킬 수 있다.Additionally, using machine learning, the optimal camera parameters desired by the user can be extracted from the user's test photos and applied to the camera in the shooting room.

일 실시예의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of one embodiment are not limited to the effects mentioned above, and other effects not mentioned may be clearly understood by those skilled in the art from the description below.

도 1은 일 실시예에 따른 포토 스튜디오 운영 시스템을 도시한 도면이다.
도 2는 일 실시예에 따른 포토 스튜디오 운영 서버의 구성을 도시한 도면이다.
도 3은 일 실시예에 따른 촬영 컨셉 제어부의 구성을 도시한 도면이다.
도 4는 일 실시예에 따른 촬영 컨셉 테이블의 일례를 도시한 도면이다.
도 5는 일 실시예에 따른 촬영 컨셉 제어 방법의 흐름도이다.
도 6은 일 실시예에 따른 조명 제어부의 구성을 도시한 도면이다.
도 7은 일 실시예에 따른 사용자 행동 분석 방법을 설명하기 위한 도면이다.
도 8 및 도 9는 일 실시예에 따른 행동 패턴 추출부의 3면 분석을 설명하기 위한 도면이다.
도 10은 일 실시예에 따른 조명 제어 방법의 흐름도이다.
도 11은 일 실시예에 따른 파라미터 예측 모델을 설명하기 위한 도면이다.
도 12는 일 실시예에 따른 사용자 단말의 구성을 도시한 도면이다.
도 13은 본 발명의 일 실시예에 따른 통신 과정에서 적용될 수 있는 무선 통신 시스템을 나타낸 도면이다.
도 14은 도 13에 따른 무선 통신 시스템에서 기지국을 나타낸 도면이다.
도 15는 도 13에 따른 무선 통신 시스템에서 단말을 나타낸 도면이다.
도 16은 도 13에 따른 무선 통신 시스템에서 통신 인터페이스를 나타낸 도면이다.
1 is a diagram illustrating a photo studio operating system according to an embodiment.
Figure 2 is a diagram illustrating the configuration of a photo studio operation server according to an embodiment.
Figure 3 is a diagram illustrating the configuration of a shooting concept control unit according to an embodiment.
Figure 4 is a diagram illustrating an example of a photography concept table according to an embodiment.
Figure 5 is a flowchart of a shooting concept control method according to an embodiment.
Figure 6 is a diagram illustrating the configuration of a lighting control unit according to an embodiment.
Figure 7 is a diagram for explaining a user behavior analysis method according to an embodiment.
Figures 8 and 9 are diagrams for explaining three-sided analysis of a behavior pattern extraction unit according to an embodiment.
Figure 10 is a flowchart of a lighting control method according to one embodiment.
Figure 11 is a diagram for explaining a parameter prediction model according to an embodiment.
Figure 12 is a diagram illustrating the configuration of a user terminal according to an embodiment.
Figure 13 is a diagram showing a wireless communication system that can be applied in a communication process according to an embodiment of the present invention.
FIG. 14 is a diagram showing a base station in the wireless communication system according to FIG. 13.
FIG. 15 is a diagram showing a terminal in the wireless communication system according to FIG. 13.
FIG. 16 is a diagram showing a communication interface in the wireless communication system according to FIG. 13.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the disclosure of the present invention is complete and to provide a general understanding of the technical field to which the present invention pertains. It is provided to fully inform the skilled person of the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for describing embodiments and is not intended to limit the invention. As used herein, singular forms also include plural forms, unless specifically stated otherwise in the context. As used in the specification, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other elements in addition to the mentioned elements. Like reference numerals refer to like elements throughout the specification, and “and/or” includes each and every combination of one or more of the referenced elements. Although “first”, “second”, etc. are used to describe various components, these components are of course not limited by these terms. These terms are merely used to distinguish one component from another. Therefore, it goes without saying that the first component mentioned below may also be a second component within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those skilled in the art to which the present invention pertains. Additionally, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless clearly specifically defined.

이하, 첨부된 도면을 참조하여 실시예를 상세하게 설명한다.Hereinafter, embodiments will be described in detail with reference to the attached drawings.

도 1은 일 실시예에 따른 포토 스튜디오 운영 시스템(10)을 도시한 도면이다.FIG. 1 is a diagram illustrating a photo studio operating system 10 according to an embodiment.

도 1을 참조하면, 일 실시예에 따른 포토 스튜디오 운영 시스템(10)은 운영 서버(100), 촬영룸 서버(200), 카메라(210), 스피커(220), 조명(230), 센서(240) 및 사용자 단말(300)을 포함할 수 있다.Referring to FIG. 1, the photo studio operating system 10 according to one embodiment includes an operation server 100, a shooting room server 200, a camera 210, a speaker 220, a light 230, and a sensor 240. ) and a user terminal 300.

포토 스튜디오 운영 시스템(10) 내에 포함된 다양한 개체들(entities) 간의 통신은 유/무선 네트워크를 통해 수행될 수 있다. 유/무선 네트워크는 표준 통신 기술 및/또는 프로토콜들이 사용될 수 있다.Communication between various entities included in the photo studio operating system 10 may be performed through wired/wireless networks. Wired/wireless networks may use standard communication technologies and/or protocols.

포토 스튜디오 운영 시스템(10) 내 운영 서버(100), 촬영룸 서버(200) 및 사용자 단말(300)은 예를 들어, 컴퓨터, UMPC(Ultra Mobile PC), 워크스테이션, 넷북(net-book), PDA(Personal Digital Assistants), 포터블(portable) 컴퓨터, 웹 타블렛(web tablet), 무선 전화기(wireless phone), 모바일 폰(mobile phone), 스마트폰(smart phone), PMP(portable multimedia player) 같은 전자 장치 중 하나로서, 일 실시예와 관련된 어플리케이션의 설치 및 실행이 가능한 모든 전자 장치를 포함할 수 있다. 전자 장치는 어플리케이션의 제어 하에 예를 들어, 서비스 화면의 구성, 데이터 입력, 데이터 송수신, 데이터 저장 등과 같은 서비스 전반의 동작을 수행할 수 있다.The operating server 100, the shooting room server 200, and the user terminal 300 in the photo studio operating system 10 include, for example, a computer, an Ultra Mobile PC (UMPC), a workstation, a net-book, Electronic devices such as personal digital assistants (PDAs), portable computers, web tablets, wireless phones, mobile phones, smart phones, and portable multimedia players (PMPs). As one of the examples, it may include all electronic devices capable of installing and executing an application related to an embodiment. The electronic device can perform overall service operations, such as configuring a service screen, inputting data, transmitting and receiving data, and storing data, under the control of an application.

운영 서버(100)는 포토 스튜디오 운영과 관련된 다양한 기능을 제공하는 서버이다.The operation server 100 is a server that provides various functions related to photo studio operation.

운영 서버(100)는 사용자가 선택한 촬영 컨셉에 따라, 촬영룸의 조명, 음악 및 카메라를 제어할 수 있다.The operation server 100 can control lighting, music, and cameras in the shooting room according to the shooting concept selected by the user.

운영 서버(100)는 사용자의 행동을 분석하여, 사용자 행동 패턴에 따라 촬영룸의 조명을 제어할 수 있다.The operation server 100 may analyze the user's behavior and control the lighting of the filming room according to the user's behavior pattern.

운영 서버(100)는 머신러닝을 기반으로 사용자의 테스트 사진으로부터 사용자가 원하는 최적의 카메라 파라미터를 설정할 수 있고, 설정된 카메라 파라미터에 따라 카메라(210)를 제어할 수 있다.The operation server 100 can set optimal camera parameters desired by the user from the user's test photos based on machine learning and control the camera 210 according to the set camera parameters.

운영 서버(100)는 촬영룸 서버(200)에 기기 제어 신호를 전송하여, 촬영룸에 구비된 다양한 기기들을 제어할 수 있다.The operation server 100 can control various devices installed in the filming room by transmitting a device control signal to the filming room server 200.

운영 서버(100)는 카메라(210)에서 촬영된 촬영 사진을 사용자 단말(300)에 전송할 수 있으며, 사용자 단말(300)로부터 테스트 사진을 수신할 수 있다.The operation server 100 may transmit a photo taken by the camera 210 to the user terminal 300 and receive a test photo from the user terminal 300.

운영 서버(100)의 구체적인 구성 및 기능에 대해서는 이하 도 2에서 자세히 설명하도록 한다.The specific configuration and functions of the operation server 100 will be described in detail in FIG. 2 below.

촬영룸 서버(200)는 촬영룸에 구비되어, 사용자에게 사진 촬영에 필요한 다양한 기능들을 제공하는 서버이다.The shooting room server 200 is a server provided in the shooting room and provides various functions necessary for taking photos to users.

촬영룸 서버(200)는 운영 서버(100)으로부터 수신된 기기 제어 신호를 이용하여, 촬영룸에 구비된 카메라(210), 스피커(220), 조명(230) 및 센서(240)를 제어할 수 있다.The shooting room server 200 can control the camera 210, speaker 220, lighting 230, and sensor 240 provided in the shooting room using the device control signal received from the operation server 100. there is.

촬영룸 서버(200)는 센서(240)로부터 센서 값을 수신하여, 수신된 센서 값을 운영 서버(100)에 전송할 수 있다.The shooting room server 200 may receive sensor values from the sensor 240 and transmit the received sensor values to the operation server 100.

촬영룸 서버(200)는 터치 스크린, 키보드, 마우스, 마이크와 같은 입력 수단을 구비할 수 있으며, 촬영룸 서버(200)는 입력 수단을 통해 사용자로부터 촬영 설정 정보, 기기 제어 정보를 입력 받을 수 있다. 일 실시예의 촬영 설정 정보는 촬영 컨셉, 사진 크기, 촬영 수 등을 포함할 수 있으며, 기기 제어 정보는 카메라 파라미터, 조명 조도, 조명 색상, 촬영 음악, 스피커 음량 등을 포함할 수 있다.The shooting room server 200 may be equipped with input means such as a touch screen, keyboard, mouse, and microphone, and the shooting room server 200 can receive shooting setting information and device control information from the user through the input means. . Shooting setting information in one embodiment may include shooting concept, photo size, number of shots, etc., and device control information may include camera parameters, lighting illuminance, lighting color, shooting music, speaker volume, etc.

촬영룸 서버(200)는 디스플레이 기기, 스피커와 같은 출력 수단을 구비할 수 있으며, 촬영룸 서버(200)는 출력 수단을 통해 사용자에게 사진 촬영에 필요한 다양한 정보를 출력할 수 있다. 일례로, 촬영룸 서버(200)는 사용자가 선택 가능한 촬영 컨셉 및 사용자가 촬영한 사진을 출력할 수 있다.The shooting room server 200 may be equipped with an output means such as a display device and a speaker, and the shooting room server 200 may output various information necessary for taking photos to the user through the output means. For example, the shooting room server 200 may output a shooting concept selectable by the user and a photo taken by the user.

촬영룸 서버(200)는 사용자에게 사진 촬영에 필요한 결제 기능을 제공할 수 있다.The shooting room server 200 may provide users with payment functions necessary for taking photos.

카메라(210)는 촬영룸에 구비되며, 사용자가 카메라(210)를 이용하여 직접 사진을 촬영할 수 있다.The camera 210 is provided in the recording room, and the user can directly take pictures using the camera 210.

카메라(210)는 운영 서버(100)에서 학습되어 설정되거나, 촬영룸 서버(200)를 통해 사용자가 입력한 카메라 파라미터를 적용하여, 사진을 촬영할 수 있다.The camera 210 can be set by learning from the operation server 100, or can take pictures by applying camera parameters input by the user through the shooting room server 200.

일 실시예의 카메라 파라미터는 사진의 화질, 크기, 카메라의 감도(ISO), 필터, 조리개, 셔터 스피드 등의 값을 포함할 수 있다Camera parameters in one embodiment may include values such as photo quality, size, camera sensitivity (ISO), filter, aperture, shutter speed, etc.

스피커(220)는 촬영룸에 구비되며, 촬영 음악을 재생할 수 있다.The speaker 220 is provided in the shooting room and can play shooting music.

조명(230)은 촬영룸에 구비된 다수의 조명 기기를 포함할 수 있으며, 기기 제어 신호에 따라 빛을 출력할 수 있다.Lighting 230 may include a number of lighting devices installed in the filming room and may output light according to device control signals.

센서(240)는 촬영룸에 구비된 움직임 센서(241), 음성 센서(242) 및 조도 센서(243)를 포함할 수 있다.The sensor 240 may include a motion sensor 241, a voice sensor 242, and an illumination sensor 243 provided in the recording room.

움직임 센서(241)는 사용자의 움직임에 따라 발생되는 움직임 신호를 감지할 수 있다. 음성 센서(242)는 사용자의 움직임에 따라 발생되는 음향 신호 및 사용자의 특정 상황에 따라 발할 수 있는 음성 명령 신호를 감지할 수 있다. 조도 센서(243)는 사용자 위치에서의 조도 값을 인식할 수 있다.The motion sensor 241 can detect a motion signal generated according to the user's movement. The voice sensor 242 can detect an acoustic signal generated according to the user's movement and a voice command signal that can be issued according to the user's specific situation. The illuminance sensor 243 can recognize the illuminance value at the user's location.

사용자 단말(300)은 운영 서버(100)로부터 수신된 촬영 사진을 사용자에게 출력할 수 있다.The user terminal 300 may output the captured photo received from the operation server 100 to the user.

사용자 단말(300)은 학습 데이터로 테스트 사진을 운영 서버(100)에 전송할 수 있다.The user terminal 300 may transmit a test photo as learning data to the operation server 100.

사용자 단말(300)의 구체적인 구성 및 기능에 대해서는 이하 도 12에서 자세히 설명하도록 한다.The specific configuration and functions of the user terminal 300 will be described in detail in FIG. 12 below.

도 2는 일 실시예에 따른 운영 서버(100)의 구성을 도시한 도면이다.FIG. 2 is a diagram illustrating the configuration of the operation server 100 according to an embodiment.

도 2를 참조하면, 일 실시예에 따른 운영 서버(100)는 통신부(110), 입력부(120), 출력부(130), 메모리(140), 전원 공급부(150) 및 제어부(160)를 포함할 수 있다. 제어부(160)는 촬영 컨셉 제어부(170), 조명 제어부(180) 및 파라미터 설정부(190)를 포함하여 구성될 수 있다.Referring to FIG. 2, the operation server 100 according to one embodiment includes a communication unit 110, an input unit 120, an output unit 130, a memory 140, a power supply unit 150, and a control unit 160. can do. The control unit 160 may include a shooting concept control unit 170, a lighting control unit 180, and a parameter setting unit 190.

도 2에 도시된 구성들은 본 발명의 실시 예들을 구현하기 위한 예시도이며, 당업자에게 자명한 수준의 적절한 하드웨어/소프트웨어 구성들이 운영 서버(100)에 추가로 포함될 수 있다.The configurations shown in FIG. 2 are illustrative diagrams for implementing embodiments of the present invention, and appropriate hardware/software configurations that are obvious to those skilled in the art may be additionally included in the operating server 100.

통신부(110)는 다양한 통신 방식을 통해 외부의 장치와 통신을 수행할 수 있다. 일례로, 통신부(110)는 촬영룸 서버(200) 및 사용자 단말(300)과 통신을 수행하여 다양한 데이터를 송수신할 수 있다.The communication unit 110 can communicate with external devices through various communication methods. For example, the communication unit 110 may communicate with the shooting room server 200 and the user terminal 300 to transmit and receive various data.

입력부(120)는 운영 서버(100)의 사용자인 관리자의 다양한 입력을 수신하여 제어부(160)로 전달할 수 있다. 특히, 입력부(120)는 터치 센서, (디지털) 펜 센서, 압력 센서, 키, 또는 마이크를 포함할 수 있다. 터치 센서는, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. (디지털) 펜 센서는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트를 포함할 수 있다. 키는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. 마이크는 관리자 음성을 수신하기 위한 구성으로, 운영 서버(100) 내부에 구비될 수 있으나, 이는 일 실시예에 불과할 뿐, 운영 서버(100)의 외부에 구비되어 운영 서버(100)와 전기적으로 연결될 수 있다.The input unit 120 may receive various inputs from an administrator who is a user of the operation server 100 and transmit them to the control unit 160. In particular, the input unit 120 may include a touch sensor, a (digital) pen sensor, a pressure sensor, a key, or a microphone. The touch sensor may use at least one of, for example, a capacitive type, a resistive type, an infrared type, or an ultrasonic type. The (digital) pen sensor may be, for example, part of a touch panel or may include a separate recognition sheet. Keys may include, for example, physical buttons, optical keys, or keypads. The microphone is configured to receive the administrator's voice and may be installed inside the operation server 100, but this is only an example. It is provided outside the operation server 100 and is electrically connected to the operation server 100. You can.

출력부(130)는 다양한 화면을 제공할 수 있다. 일례로, 출력부(130)는 관리자에게 컨셉 매핑 테이블을 출력할 수 있다.The output unit 130 can provide various screens. For example, the output unit 130 may output a concept mapping table to the manager.

메모리(140)는 운영 서버(100)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 특히, 메모리(140)는 비휘발성 메모리, 휘발성 메모리, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다. 메모리(140)는 제어부(160)에 의해 액세스되며, 제어부(160)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다. 본 발명에서 메모리라는 용어는 메모리(140), 제어부(160) 내 롬(미도시), 램(미도시) 또는 운영 서버(100)에 장착되는 메모리 카드(미도시)(예를 들어, micro SD 카드, 메모리 스틱)를 포함할 수 있다. 또한, 메모리(140)에는 출력부(130)의 디스플레이 영역에 표시될 각종 화면을 구성하기 위한 프로그램 및 데이터 등이 저장될 수 있다.The memory 140 may store commands or data related to at least one other component of the operating server 100. In particular, the memory 140 may be implemented as non-volatile memory, volatile memory, flash-memory, hard disk drive (HDD), or solid state drive (SSD). The memory 140 is accessed by the control unit 160, and the control unit 160 can read/write/modify/delete/update data. In the present invention, the term memory refers to memory 140, ROM (not shown), RAM (not shown) in the control unit 160, or a memory card (not shown) mounted on the operating server 100 (e.g., micro SD). card, memory stick). Additionally, the memory 140 may store programs and data for configuring various screens to be displayed in the display area of the output unit 130.

전원 공급부(150)는 제어부(160)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 150 receives external power and internal power under the control of the control unit 160 and supplies power necessary for the operation of each component.

제어부(160)는 통신부(110), 입력부(120), 출력부(130), 메모리(140) 및 전원 공급부(150)와 전기적으로 연결되어, 운영 서버(100)의 전반적인 동작 및 기능을 제어할 수 있다. 특히, 제어부(160)는 메모리(140)에 저장된 다양한 모듈을 이용하여 후술하는 기능을 제공할 수 있다.The control unit 160 is electrically connected to the communication unit 110, the input unit 120, the output unit 130, the memory 140, and the power supply unit 150 to control the overall operation and functions of the operation server 100. You can. In particular, the control unit 160 can provide functions described later using various modules stored in the memory 140.

이하에서 설명되는 운영 서버(100) 상의 다양한 동작은 제어부(160)의 제어에 의해서 수행될 수 있음은 자명할 것이다.It will be apparent that various operations on the operation server 100 described below can be performed under the control of the control unit 160.

전술한 바와 같이, 제어부(160)는 촬영 컨셉 제어부(170), 조명 제어부(180) 및 파라미터 설정부(190)를 포함하여 구성될 수 있다.As described above, the control unit 160 may include a shooting concept control unit 170, a lighting control unit 180, and a parameter setting unit 190.

촬영 컨셉 제어부(170)는 사용자가 선택한 촬영 컨셉에 따라, 촬영룸의 조명, 음악 및 카메라를 제어할 수 있다.The shooting concept control unit 170 can control lighting, music, and cameras in the shooting room according to the shooting concept selected by the user.

촬영 컨셉 제어부(170)는 촬영룸 서버(200)로부터 수신된 촬영 컨셉을 이용하여, 촬영룸의 조명, 스피커 및 카메라의 제어 신호를 생성할 수 있다. 촬영 컨셉 제어부(170)는 컨셉 매핑 테이블을 이용하여, 촬영룸의 조명, 스피커 및 카메라의 제어 신호를 포함하는 기기 제어 신호를 생성할 수 있다. 여기서 카메라의 제어 신호는 전술한 카메라 파라미터와 동일한 신호이다.The shooting concept control unit 170 may use the shooting concept received from the shooting room server 200 to generate control signals for lighting, speakers, and cameras in the shooting room. The shooting concept control unit 170 may use the concept mapping table to generate a device control signal including control signals for lighting, speakers, and cameras in the shooting room. Here, the camera control signal is the same signal as the camera parameter described above.

촬영 컨셉 제어부(170)의 구체적인 구성 및 기능에 대해서는 이하 도 3에서 자세히 설명하도록 한다.The specific configuration and function of the shooting concept control unit 170 will be described in detail in FIG. 3 below.

조명 제어부(180)는 사용자의 행동을 분석하여, 사용자 행동 패턴에 따라 촬영룸의 조명을 제어할 수 있다.The lighting control unit 180 may analyze the user's behavior and control the lighting of the shooting room according to the user's behavior pattern.

조명 제어부(180)는 센서(240)로부터 획득된 사용자의 행동 및 사용자 위치의 조도 등의 분석하여, 사용자의 행동 패턴을 파악할 수 있다. 조명 제어부(180)는 파악된 사용자의 행동 패턴에 따라, 촬영룸의 조명 제어 신호를 포함하는 기기 제어 신호를 생성할 수 있다.The lighting control unit 180 may determine the user's behavior pattern by analyzing the user's behavior and the illuminance of the user's location obtained from the sensor 240. The lighting control unit 180 may generate a device control signal including a lighting control signal of the shooting room according to the identified user's behavior pattern.

조명 제어부(180)의 구체적인 구성 및 기능에 대해서는 이하 도 6에서 자세히 설명하도록 한다.The specific configuration and function of the lighting control unit 180 will be described in detail in FIG. 6 below.

파라미터 설정부(190)는 머신러닝을 기반으로 사용자가 입력한 테스트 사진으로부터 사용자가 원하는 최적의 카메라 파라미터를 예측할 수 있고, 예측된 카메라 파라미터에 따라 카메라(210)를 제어할 수 있다.The parameter setting unit 190 can predict optimal camera parameters desired by the user from a test photo input by the user based on machine learning, and can control the camera 210 according to the predicted camera parameters.

파라미터 설정부(190)의 카메라 파라미터 예측 방법에 대해서는 이하 도 11에서 자세히 설명하도록 한다.The camera parameter prediction method of the parameter setting unit 190 will be described in detail in FIG. 11 below.

제어부(160)는 통신부(110)를 제어하여, 촬영룸 서버(200)에 기기 제어 신호를 전송하여, 촬영룸에 구비된 다양한 기기들을 제어할 수 있다.The control unit 160 can control the communication unit 110 and transmit a device control signal to the filming room server 200 to control various devices installed in the filming room.

일 실시예의 기기 제어 신호는 촬영 컨셉 제어부(170)에서 생성된 조명, 스피커 및 카메라 제어 신호(카메라 파라미터), 조명 제어부(180)에서 생성된 조명 제어 신호, 파라미터 설정부(190)에서 생성된 카메라 파라미터를 포함할 수 있다.The device control signal in one embodiment includes a lighting, speaker, and camera control signal (camera parameters) generated by the shooting concept control unit 170, a lighting control signal generated by the lighting control unit 180, and a camera generated by the parameter setting unit 190. Can contain parameters.

제어부(160)는 통신부(110)를 제어하여, 카메라(210)에서 촬영된 사진을 사용자 단말(300)에 전송할 수 있으며, 사용자 단말(300)로부터 테스트 사진을 수신할 수 있다.The control unit 160 can control the communication unit 110 to transmit a photo taken by the camera 210 to the user terminal 300 and receive a test photo from the user terminal 300.

제어부(160)는 입력부(120)를 통해, 관리자로부터 촬영 컨셉 매핑 테이블 관련 데이터 및 학습 사진을 입력받을 수 있다.The control unit 160 may receive data related to the shooting concept mapping table and learning photos from the manager through the input unit 120.

도 3은 일 실시예에 따른 촬영 컨셉 제어부(170)의 구성을 도시한 도면이다.FIG. 3 is a diagram illustrating the configuration of the shooting concept control unit 170 according to an embodiment.

도 3을 참조하면, 일 실시예에 따른 촬영 컨셉 제어부(170)는 컨셉 매핑 테이블 생성부(171), 컨셉 매핑 테이블 DB(172) 및 기기 제어 신호 생성부(173)를 포함할 수 있다.Referring to FIG. 3, the photography concept control unit 170 according to one embodiment may include a concept mapping table generator 171, a concept mapping table DB 172, and a device control signal generator 173.

컨셉 매핑 테이블 생성부(171)는 관리자로부터 데이터를 입력받아 촬영 컨셉 매핑 테이블(174)을 생성하고, 생성된 컨셉 매핑 테이블(174)을 컨셉 매핑 DB(172)에 저장할 수 있다. 기기 제어 신호 생성부(173)는 컨셉 매핑 테이블(174)을 이용하여, 사용자가 선택한 촬영 컨셉에 대한 기기 제어 신호를 생성할 수 있다.The concept mapping table creation unit 171 may receive data from an administrator, create a photography concept mapping table 174, and store the generated concept mapping table 174 in the concept mapping DB 172. The device control signal generator 173 may use the concept mapping table 174 to generate a device control signal for the shooting concept selected by the user.

도 4는 일 실시예에 따른 컨셉 매핑 테이블(174)의 일례를 도시한 도면이다.FIG. 4 is a diagram illustrating an example of a concept mapping table 174 according to an embodiment.

도 4를 참조하면, 일 실시예의 컨셉 매핑 테이블(174)은 촬영 컨셉 명, 촬영 컨셉 이미지, 음악, 배경 이미지, 촬영룸에 구비된 조명 기기의 빛 색상 및 조도 정보, 카메라 파라미터를 포함하는 데이터 구조이다.Referring to FIG. 4, the concept mapping table 174 of one embodiment is a data structure including the shooting concept name, shooting concept image, music, background image, light color and illuminance information of lighting equipment provided in the shooting room, and camera parameters. am.

촬영 컨셉 제어부(170)는 생성된 컨셉 매핑 테이블(174)을 촬영룸 서버(200)에 전송하고, 촬영룸 서버(200)는 사용자에게 선택 가능한 촬영 컨셉을 출력 및 선택 입력받을 수 있다.The shooting concept control unit 170 transmits the generated concept mapping table 174 to the shooting room server 200, and the shooting room server 200 can output and receive a selection input of shooting concepts that can be selected by the user.

촬영 컨셉 제어부(170)는 촬영룸 서버(200)로부터 사용자가 선택한 촬영 컨셉을 전송받을 수 있다.The shooting concept control unit 170 may receive the shooting concept selected by the user from the shooting room server 200.

촬영 컨셉 제어부(170)는 컨셉 매핑 테이블(174)을 이용하여, 사용자가 선택한 촬영 컨셉에 대한 기기 제어 신호를 생성할 수 있다.The shooting concept control unit 170 may use the concept mapping table 174 to generate a device control signal for the shooting concept selected by the user.

촬영 컨셉 제어부(170)는 컨셉 매핑 테이블(174)을 이용하여, 사용자가 선택한 촬영 컨셉에 해당하는 음악, 배경 이미지, 촬영룸에 구비된 조명 기기의 빛 색상 및 조도 정보, 카메라 파라미터를 포함하는 컨셉 데이터를 추출할 수 있다.The shooting concept control unit 170 uses the concept mapping table 174 to include music corresponding to the shooting concept selected by the user, a background image, light color and illuminance information of lighting devices installed in the shooting room, and camera parameters. Data can be extracted.

촬영 컨셉 제어부(170)는 추출된 컨셉 데이터를 이용하여, 조명(230), 스피커(220), 카메라(21)의 제어 신호를 생성할 수 있다. 전술한 바와 같이, 여기서 카메라의 제어 신호는 전술한 카메라 파라미터와 동일한 신호이다.The shooting concept control unit 170 may generate control signals for the lighting 230, speaker 220, and camera 21 using the extracted concept data. As described above, the control signal of the camera here is the same signal as the camera parameter described above.

일례로, 사용자가 '컨셉 A'의 촬영 컨셉을 선택한 경우, 촬영 컨셉 제어부(170)는 컨셉 매핑 테이블(174)에서'컨셉 A'에 해당하는 음악, 배경 이미지, 촬영룸에 구비된 조명 기기의 빛 색상 및 조도 정보, 카메라 파라미터를 포함하는 기기 제어 신호를 생성할 수 있다.For example, when the user selects the shooting concept of 'Concept A', the shooting concept control unit 170 selects the music, background image, and lighting equipment provided in the shooting room corresponding to 'Concept A' in the concept mapping table 174. It can generate device control signals that include light color and illuminance information and camera parameters.

도 5는 일 실시예에 따른 촬영 컨셉 제어 방법의 흐름도이다.Figure 5 is a flowchart of a shooting concept control method according to an embodiment.

도 5를 참조하면, 일 실시예에 따른 촬영 컨셉 제어 방법은 촬영 컨셉 수신 단계(S100), 컨셉 데이터 추출 단계(S110) 및 기기 제어 신호 생성 단계(S120)를 포함할 수 있다.Referring to FIG. 5 , the shooting concept control method according to an embodiment may include a shooting concept receiving step (S100), a concept data extracting step (S110), and a device control signal generating step (S120).

우선, 촬영 컨셉 수신 단계(S100)로, 촬영 컨셉 제어부(170)는 촬영룸 서버(200)로부터 사용자가 선택한 촬영 컨셉을 전송받을 수 있다.First, in the shooting concept reception step (S100), the shooting concept control unit 170 may receive the shooting concept selected by the user from the shooting room server 200.

그리고, 컨셉 데이터 추출 단계(S110)로, 촬영 컨셉 제어부(170)는 컨셉 매핑 테이블(174)을 이용하여, 사용자가 선택한 촬영 컨셉에 해당하는 음악, 배경 이미지, 촬영룸에 구비된 조명 기기의 빛 색상 및 조도 정보, 카메라 파라미터를 포함하는 컨셉 데이터를 추출할 수 있다.Then, in the concept data extraction step (S110), the shooting concept control unit 170 uses the concept mapping table 174 to include music, background images, and light from lighting equipment provided in the shooting room corresponding to the shooting concept selected by the user. Concept data including color and illuminance information and camera parameters can be extracted.

그리고, 기기 제어 신호 생성 단계(S120)로, 촬영 컨셉 제어부(170)는 추출된 컨셉 데이터를 이용하여, 조명(230), 스피커(220), 카메라(21)의 제어 신호를 생성할 수 있다.Then, in the device control signal generation step (S120), the shooting concept control unit 170 can generate control signals for the lighting 230, the speaker 220, and the camera 21 using the extracted concept data.

이로써, 촬영 컨셉 제어부(170)는 사용자가 선택한 촬영 컨셉에 따라 촬영룸의 조명, 음악 및 카메라를 제어하여, 사용자가 원하는 컨셉에 따라 사진을 촬영할 수 있는 환경을 제공할 수 있다.Accordingly, the shooting concept control unit 170 can control the lighting, music, and camera of the shooting room according to the shooting concept selected by the user, providing an environment in which the user can take photos according to the desired concept.

도 6은 일 실시예에 따른 조명 제어부(180)의 구성을 도시한 도면이다.FIG. 6 is a diagram illustrating the configuration of the lighting control unit 180 according to one embodiment.

도 6을 참조하면, 조명 제어부(180)는 감지 유닛(181), 제어 유닛(182), 서비스 제공 유닛(183) 및 템플릿 DB(184)를 포함할 수 있다.Referring to FIG. 6, the lighting control unit 180 may include a detection unit 181, a control unit 182, a service provision unit 183, and a template DB 184.

감지 유닛(181)은 사용자 행동을 감지하고, 감지된 행동에 대응한 감지 신호를 제어 유닛(182)에 제공할 수 있으며, 감지 유닛(181)은 움직임 센서(241), 음성 센서(120) 및 조도 센서(130)로부터, 해당 센서 데이터를 수신할 수 있다.The detection unit 181 may detect user behavior and provide a detection signal corresponding to the detected behavior to the control unit 182, and the detection unit 181 may include a motion sensor 241, a voice sensor 120, and Corresponding sensor data may be received from the illuminance sensor 130.

전술한 바와 같이, 움직임 센서(241)는 사용자의 움직임에 따라 발생되는 움직임 신호를 감지할 수 있으며, 음성 센서(242)는 사용자의 움직임에 따라 발생되는 음향 신호 및 사용자의 특정 상황에 따라 발할 수 있는 음성 명령 신호를 감지할 수 있으며, 조도 센서(243)는 사용자 위치에서의 자연광의 조도 값을 인식할 수 있다.As described above, the motion sensor 241 can detect a motion signal generated according to the user's movement, and the voice sensor 242 can emit an acoustic signal generated according to the user's movement and the user's specific situation. A voice command signal can be detected, and the illuminance sensor 243 can recognize the illuminance value of natural light at the user's location.

제어 유닛(182)은 기 설정된 판단 주기가 도래하면 판단 주기 도래 시점을 기준으로 복수의 패턴 주기 각각의 이전까지의 감지 신호를 복수의 패턴 주기 각각을 기준으로 분석해 복수의 패턴 주기 각각에 대한 행동 패턴을 추출하고, 복수의 패턴 주기 각각의 행동 패턴을 복수의 패턴 주기 각각 별로 구비된 적어도 하나의 표준 행동 패턴과 비교하여 사용자의 행동을 판단하고 판단된 사용자의 행동에 적합한 서비스를 제공하도록 서비스 제공 유닛(183)을 제어할 수 있다.When a preset judgment cycle arrives, the control unit 182 analyzes the detection signals prior to each of the plurality of pattern cycles based on the arrival of the judgment cycle to determine the behavior pattern for each of the plurality of pattern cycles. A service provision unit extracts and compares the behavior pattern of each of the plurality of pattern cycles with at least one standard behavior pattern provided for each of the plurality of pattern cycles to determine the user's behavior and provide a service suitable for the determined user's behavior. (183) can be controlled.

제어 유닛(182)은 분석부(182-1), 행동패턴추출부(182-2), 비교판단부(182-3) 및 서비스제공유닛 제어부(182-4)를 포함하여 구성될 수 있다.The control unit 182 may include an analysis unit 182-1, a behavior pattern extraction unit 182-2, a comparison judgment unit 182-3, and a service provision unit control unit 182-4.

분석부(182-1)는 기 설정된 판단 주기가 도래하면 판단 주기 도래 시점을 기준으로 복수의 패턴 주기 각각의 이전까지의 감지 신호를 복수의 패턴 주기 각각을 기준으로 분석해 행동패턴추출부(182-2)에 제공할 수 있으며, 복수의 패턴 주기를 포함할 수 있다.When a preset judgment cycle arrives, the analysis unit 182-1 analyzes the detection signals up to each of the plurality of pattern cycles based on the arrival of the judgment cycle based on each of the plurality of pattern cycles and extracts the behavior pattern extraction unit 182-1. 2) and may include multiple pattern cycles.

복수의 패턴 주기는 감지 신호를 시간 속성을 고려하여 각각 분석할 수 있으며, 단기 패턴 주기(예를 들어, 5초), 중기 패턴 주기(예를 들어, 1분) 및 장기 패턴 주기(예를 들어, 5분)를 포함할 수 있다.A plurality of pattern cycles can be analyzed separately by considering the time properties of the detection signal, including a short-term pattern cycle (e.g., 5 seconds), a medium-term pattern cycle (e.g., 1 minute), and a long-term pattern cycle (e.g., , 5 minutes).

도 7은 일 실시예에 따른 사용자 행동 분석 방법을 설명하기 위한 도면이다.Figure 7 is a diagram for explaining a user behavior analysis method according to an embodiment.

도 7을 참조하면, 단기 패턴 주기는 복수의 패턴 주기 중 단기 패턴 주기 이외의 중기 패턴 주기 및 장기 패턴 주기 동안의 행동 패턴 추출의 기준 데이터로 사용될 수 있다. 구체적으로, 단기 패턴 주기를 기준으로 이전까지의 감지 신호를 분석해 도출된 데이터 신호의 평균 및 표준편차를 이용하여 복수의 패턴 주기 각각의 행동 패턴 추출 데이터로 이용함으로써, 분석과정을 최소화할 수 있다. 판단 주기 도래시점(예를 들어, 2.5초)은 기 설정된 판단 주기를 50%씩 겹치게 중복되는 시점일 수 있으며, 기 설정된 판단 주기를 50%씩 겹치게 중복하여 분석하는 것에 의해 데이터의 단절을 막을 수 있다.Referring to FIG. 7, the short-term pattern cycle can be used as reference data for extracting behavior patterns during a mid-term pattern cycle and a long-term pattern cycle other than the short-term pattern cycle among a plurality of pattern cycles. Specifically, the analysis process can be minimized by using the average and standard deviation of the data signal derived by analyzing previous detection signals based on a short-term pattern cycle as behavior pattern extraction data for each of a plurality of pattern cycles. The arrival point of the judgment cycle (for example, 2.5 seconds) may be a point where the preset judgment cycle overlaps by 50%, and data disconnection can be prevented by analyzing the preset judgment cycle with an overlap of 50%. there is.

행동패턴추출부(182-2)는 3면 분석(yz, xy, xz)을 통해 복수의 패턴 주기 각각에 대한 행동 패턴을 추출하고 추출된 행동 패턴을 비교판단부(182-3)에 제공할 수 있다.The behavior pattern extraction unit 182-2 extracts behavior patterns for each of a plurality of pattern cycles through three-sided analysis (yz, xy, xz) and provides the extracted behavior patterns to the comparison judgment unit 182-3. You can.

도 8 및 도 9는 일 실시예에 따른 행동 패턴 추출부의 3면 분석을 설명하기 위한 도면이다.Figures 8 and 9 are diagrams for explaining three-sided analysis of a behavior pattern extraction unit according to an embodiment.

도 9를 참조하면, 3면 분석은 감지신호를 복수의 패턴 주기 각각을 기준으로 시간 속성을 고려해 음향 신호의 크기(x축), 복수의 패턴 주기(y축) 및 움직임 신호의 크기(z축)으로 구분해 복수의 행동 패턴을 추출함으로써, 특정 행동에 대한 시간 속성을 고려하는 것에 의해 시간 대비 다양한 사용자의 행동을 보다 정확하게 파악할 수 있으며, 제 1면(yz), 제 2면(xy) 및 제 3면(xz)을 포함할 수 있다.Referring to FIG. 9, the three-sided analysis considers the time properties of the detection signal based on each of a plurality of pattern cycles to determine the size of the sound signal (x-axis), the plurality of pattern cycles (y-axis), and the size of the motion signal (z-axis). ) By extracting multiple behavior patterns, it is possible to more accurately understand the behavior of various users compared to time by considering the time properties of specific actions, and the first side (yz), the second side (xy) and It may include a third side (xz).

도 8a를 참조하면, 제 1면은 복수의 패턴 주기를 일축으로 하여 움직임 신호의 시간평균을 구하고, 시간평균의 표준편차를 통해 일축의 구간을 정하고, 움직임 신호크기를 타축으로 하여 움직임 신호크기의 크기평균을 구하고, 크기평균의 표준편차를 통해 타축의 구간을 정해 시간에 따른 복수의 패턴 주기별 움직임 신호의 특성을 파악함으로써, 시간대비 다양한 사용자의 움직임에 대한 사용자의 행동을 파악할 수 있다.Referring to FIG. 8A, the first surface calculates the time average of the motion signal using a plurality of pattern periods as one axis, determines the section of the one axis through the standard deviation of the time average, and determines the size of the motion signal with the motion signal size as the other axis. By calculating the size average, determining the section of the other axis through the standard deviation of the size average, and identifying the characteristics of the motion signal for each multiple pattern cycle over time, it is possible to understand the user's behavior in relation to various user movements over time.

도 8a를 참조하면, 제 2면은 복수의 패턴 주기를 일축으로 하여 음향 신호의 시간평균을 구하고, 시간평균의 표준편차를 통해 일축의 구간을 정하고, 음향 신호크기를 타축으로 하여 음향 신호크기의 크기평균을 구하고, 크기평균의 표준편차를 통해 타축의 구간을 정해 시간에 따른 복수의 패턴 주기별 음향 신호의 특성을 파악함으로써, 시간대비 다양한 사용자의 음향에 대한 사용자의 행동을 파악할 수 있다.Referring to FIG. 8A, the second surface calculates the time average of the sound signal using a plurality of pattern periods as one axis, determines the section of the first axis through the standard deviation of the time average, and determines the sound signal size with the sound signal size as the other axis. By calculating the size average, determining the section of the other axis through the standard deviation of the size average, and identifying the characteristics of the sound signal for each multiple pattern period over time, it is possible to understand the user's behavior regarding the sound of various users over time.

도 8b를 참조하면, 제 3면은 음향 신호크기를 일축으로 하여 음향 신호의 크기평균을 구하고, 크기평균의 표준편차를 통해 일축의 구간을 정하고, 움직임 신호크기를 타축으로 하여 움직임 신호크기의 크기평균을 구하고, 크기평균의 표준편차를 통해 타축의 구간을 정해 움직임 신호와 음향신호 간의 비율 비교를 통해 다양한 사용자의 행동을 파악할 수 있다.Referring to Figure 8b, the third side calculates the average size of the sound signal with the sound signal size as one axis, determines the section on one axis through the standard deviation of the size average, and determines the size of the movement signal size with the motion signal size as the other axis. By calculating the average and determining the section of the other axis through the standard deviation of the size average, the behavior of various users can be identified by comparing the ratio between the movement signal and the sound signal.

복수의 행동 패턴은 시간 속성을 고려한 사용자의 생활 패턴일 수 있으며, 단기 행동 패턴, 중기 행동 패턴 및 장기 행동 패턴을 포함할 수 있다. 단기 행동 패턴은 사용자의 음성 명령에 대한 패턴일 수 있으며, 조도 제어 명령을 포함할 수 있다. 조도 제어 명령은 사용자의 필요에 의한 조도 증감제어 및 ON/OFF 등의 음성 명령일 수 있다. 중기 행동 패턴은 사용자의 제스처 변경 등의 급격한 행동 변화에 대한 패턴일 수 있다. 장기 행동 패턴은 사용자 위치 이동 등의 완만한 시간적 행동 변화에 대한 패턴일 수 있다. 비교판단부(182-3)는 복수의 패턴 주기 각각의 3면 분석을 통해 얻어진 행동 패턴과 복수의 패턴 주기 각각 별로 구비된 적어도 표준 행동 패턴과 비교하여 실시간 사용자의 행동을 판단해 서비스제공유닛 제어부(182-4)에 제공할 수 있다. 여기서, 표준 행동 패턴은 3면 분석을 통해 얻어진 행동 패턴과 동일한 형식일 수 있다.The plurality of behavior patterns may be the user's life patterns considering time attributes and may include short-term behavior patterns, medium-term behavior patterns, and long-term behavior patterns. The short-term behavior pattern may be a pattern for a user's voice command and may include a light control command. The illuminance control command may be a voice command such as illuminance increase/decrease control and ON/OFF according to the user's needs. A mid-term behavior pattern may be a pattern for sudden behavioral changes, such as changing the user's gestures. A long-term behavior pattern may be a pattern of gradual temporal behavioral changes, such as a user's location change. The comparison judgment unit 182-3 compares the behavior pattern obtained through three-sided analysis of each of the plurality of pattern cycles with at least the standard behavior pattern provided for each of the plurality of pattern cycles to judge the user's behavior in real time and sends it to the service provision unit control unit. It can be provided at (182-4). Here, the standard behavior pattern may be of the same form as the behavior pattern obtained through three-sided analysis.

이와 달리, 비교판단부(182-3)는 움직임 및 음향 크기신호의 시계열적 측정 데이터와 움직임 및 음향 크기신호에 대한 시계열적 측정 데이터 간의 시간 동기를 맞추고, 다음의 수학식 1을 사용해 상관계수를 구해 유사도가 가장 높은 표준 행동 패턴을 기준으로 실시간 사용자의 행동을 판단할 수 있다.In contrast, the comparison judgment unit 182-3 synchronizes the time series between the time-series measurement data of the motion and sound loudness signals and the time-series measurement data of the motion and sound loudness signals, and calculates the correlation coefficient using Equation 1 below: It is possible to judge real-time user behavior based on the standard behavior pattern with the highest similarity.

여기서, rxy는 상관계수, n은 데이터 개수, xi는 움직임 크기신호의 시계열적 측정 데이터, yi는 음향 크기신호의 시계열적 측정 데이터, ^x는 움직임 크기신호에 대한 시계열적 표준 데이터, ^y는 음향 크기신호에 대한 시계열적 표준 데이터이며, 상관계수를 이용하는 방식은 단기 주기 패턴의 행동 판단시 유용할 수 있다.Here, rxy is the correlation coefficient, n is the number of data, xi is the time-series measurement data of the motion magnitude signal, yi is the time-series measurement data of the sound magnitude signal, ^x is the time-series standard data for the motion magnitude signal, and ^y is It is time-series standard data for sound loudness signals, and the method of using correlation coefficients can be useful in determining the behavior of short-term periodic patterns.

서비스제공유닛 제어부(182-4)는 판단된 사용자의 행동에 적합한 서비스를 제공하도록 서비스 제공 유닛(183)을 제어할 수 있으며, 음성명령 인식형 모드 및 지능형 모드를 포함할 수 있다.The service provision unit control unit 182-4 can control the service provision unit 183 to provide a service suitable for the determined user's behavior, and may include a voice command recognition mode and an intelligent mode.

음성명령 인식형 모드는 음성 명령에 의해 우선하여 사용자의 행동에 적합한 조도 제어를 제공할 수 있으며, 음성 명령에 의한 조도 제어는 다른 음성 명령 또는 기 설정된 시간 경과 시까지 유지될 수 있다.The voice command recognition mode can provide illuminance control appropriate for the user's behavior by prioritizing voice commands, and illuminance control by voice commands can be maintained until another voice command or a preset time has elapsed.

지능형 모드는 사용자 위치의 조도를 사용자의 행동에 적합한 조도로 제어할 수 있다.Intelligent mode can control the illuminance of the user's location to an illuminance appropriate for the user's behavior.

지능형 모드 및 음성명령 인식형 모드는 상호 보완적인 기능을 수행할 수 있다.Intelligent mode and voice command recognition mode can perform complementary functions.

서비스 제공 유닛(183)은 기 설정된 서비스 기능이 적어도 하나 탑재될 수 있으며, 조명제어신호생성부(183-1)를 포함할 수 있다.The service provision unit 183 may be equipped with at least one preset service function and may include a lighting control signal generator 183-1.

조명제어신호생성부(183-1)는 발광수단을 구비하여 서비스제공유닛 제어부(182-4)의 제어에 따라 사용자의 행동에 적합한 조도 제공, 점등 및 소등할 수 있는 기기 제어 신호를 생성할 수 있다.The lighting control signal generator (183-1) is equipped with a light emitting means and can generate a device control signal that can provide illumination appropriate for the user's behavior and turn on and off under the control of the service provision unit control unit (182-4). there is.

템플릿 DB(184)는 복수의 패턴 주기 각각 별로 구비된 적어도 하나의 표준 행동 패턴이 저장될 수 있으며, 복수의 패턴 주기 각각 별로 행동패턴DB(184-1), 음성명령DB(184-2), 조도DB(184-3)를 포함할 수 있다.The template DB 184 can store at least one standard behavior pattern provided for each of a plurality of pattern cycles, and includes a behavior pattern DB 184-1, a voice command DB 184-2, and a behavior pattern DB 184-1 for each of the plurality of pattern cycles. It may include illuminance DB (184-3).

행동패턴DB(184-1)는 시간 속성을 고려하여 사용자가 특정 행동 시 감지될 수 있는 감지 신호를 기준으로 행동을 구분하여 기 저장된 데이터일 수 있다.The behavior pattern DB 184-1 may be pre-stored data that classifies behavior based on a detection signal that can be detected when a user performs a specific behavior, taking time attributes into account.

음성명령DB(184-2)는 시간 속성을 고려하여 사용자의 필요에 의한 조도 증감제어 및 ON/OFF 등의 음성을 구분하여 기 저장된 데이터일 수 있다.The voice command DB (184-2) may be pre-stored data that distinguishes voices such as illuminance increase/decrease control and ON/OFF according to the user's needs in consideration of time properties.

조도DB(184-3)는 사용자가 특정 행동 시 적합한 표준 조도 값의 수치가 기 저장된 데이터일 수 있다.The illuminance DB 184-3 may be data in which a standard illuminance value suitable for a user's specific action is already stored.

도 10은 일 실시예에 따른 조명 제어 방법의 흐름도이다.Figure 10 is a flowchart of a lighting control method according to one embodiment.

도 10을 참조하면, 스마트 조명 제어부(180)는 감지유닛(100)을 이용하여 사용자의 움직임, 음향 및 조도 실시간으로 감지할 수 있으며(S201), 감지된 신호를 분석부(182-1)를 이용하여 복수의 패턴 주기 각각을 기준으로 분석할 수 있다(S202).Referring to FIG. 10, the smart lighting control unit 180 can detect the user's movement, sound, and illumination in real time using the sensing unit 100 (S201), and analyzes the detected signal through the analysis unit 182-1. It can be used to analyze each of a plurality of pattern cycles (S202).

다음으로, 행동패턴추출부(182-2)는 복수의 패턴 주기 각각에 대한 행동 패턴을 추출할 수 있다(S203).Next, the behavior pattern extraction unit 182-2 may extract a behavior pattern for each of a plurality of pattern cycles (S203).

다음으로, 비교판단부(182-3)는 복수의 패턴 주기 각각의 행동 패턴을 복수의 패턴 주기 각각 별로 구비된 적어도 하나의 표준 행동 패턴과 비교하여 실시간 사용자의 행동을 판단할 수 있다(S204).Next, the comparison decision unit 182-3 may determine the user's behavior in real time by comparing the behavior pattern of each of the plurality of pattern cycles with at least one standard behavior pattern provided for each of the plurality of pattern cycles (S204). .

다음으로, 서비스제공유닛 제어부(182-4)는 음성 명령 여부를 판단할 수 있으며(S205), 음성 명령인 경우 사용자 위치의 조도를 고려하여 사용자의 행동에 적합한 조도를 판단할 수 있다(S206).Next, the service provision unit control unit 182-4 can determine whether it is a voice command (S205), and in the case of a voice command, it can determine the illuminance appropriate for the user's actions by considering the illuminance of the user's location (S206). .

다음으로, 서비스 제공 유닛(183)는 판단된 사용자의 행동에 적합한 조도로 조도 값을 증감제어 할 수 있다(S207).Next, the service providing unit 183 may control the increase/decrease of the illuminance value to an illuminance appropriate for the determined user's behavior (S207).

서비스제공유닛 제어부(182-4)는 S205에서, 사용자의 행동 패턴이 음성 명령에 대한 패턴인 것으로 판단되면, 음성 명령에 대한 조명제어명령 여부를 판단할 수 있다(S208).If it is determined in S205 that the user's behavior pattern is a pattern for the voice command, the service provision unit control unit 182-4 may determine whether to issue a lighting control command in response to the voice command (S208).

서비스제공유닛 제어부(182-4)는 S208에서, 조명제어명령인 경우, 서비스 제공 유닛(183)을 이용하여 사용자 음성 명령에 의한 조도로 조도 값을 증감제어 할 수 있다(S209).In the case of a lighting control command in S208, the service providing unit control unit 182-4 can control the illuminance value to increase or decrease by using the service providing unit 183 according to the user's voice command (S209).

다음으로, 사용자 음성 명령에 의한 조도로 조도 값 증감제어 시 다른 음성 명령 또는 기 설정된 시간 경과 여부를 판단할 수 있으며(S210), 다른 음성 명령 인식 또는 기 설정된 시간 경과가 아닌 경우, 조도 값은 유지될 수 있다(S211).Next, when controlling the increase/decrease of the illuminance value using the illuminance by the user's voice command, it can be determined whether another voice command or a preset time has elapsed (S210). If another voice command is not recognized or the preset time has elapsed, the illuminance value is maintained. It can be (S211).

이로써, 조명 제어부(180)는 사용자의 행동을 실시간 감지하여 시간 속성을 고려해 사용자의 행동을 판단함으로써, 시간 변화에 따른 사용자의 다양한 행동에 적합한 촬영룸의 조명 환경을 제공할 수 있으며, 사용자 위치의 조도를 고려하여 사용자의 행동에 적합한 촬영룸의 조명 환경을 설정함으로써, 사용자가 원하는 촬영 환경을 제공할 수 있다.As a result, the lighting control unit 180 detects the user's behavior in real time and determines the user's behavior in consideration of time attributes, thereby providing a lighting environment in the shooting room suitable for the user's various actions according to time changes, and adjusting the user's location. By setting the lighting environment of the shooting room suitable for the user's behavior in consideration of the illuminance, the shooting environment desired by the user can be provided.

이하에서는 파라미터 설정부(190)에 대해서 설명하도록 한다.Hereinafter, the parameter setting unit 190 will be described.

파라미터 설정부(190)는 사용자가 입력한 테스트 사진을 기반으로, 사용자가 원하는 최적의 카메라 파라미터를 예측할 수 있고, 예측된 카메라 파라미터에 따라 카메라(210)를 제어할 수 있다.The parameter setting unit 190 can predict optimal camera parameters desired by the user based on the test photo input by the user, and can control the camera 210 according to the predicted camera parameters.

이를 위해 파라미터 설정부(190)는 관리자로부터 입력받은 학습 사진으로부터 학습 데이터를 생성할 수 있다. 일례로, 파라미터 설정부(190)는 학습 사진을 그대로 학습 데이터로 생성할 수 있으며, 학습 사진으로부터 색상 전환 구간을 검출하고, 검출된 색상 전환 구간에 따라 학습 사진을 분할하여 압축함으로써, 학습 데이터를 생성할 수 있다.To this end, the parameter setting unit 190 may generate learning data from learning photos input from the administrator. For example, the parameter setting unit 190 may generate the learning photo as training data as is, detect the color transition section from the learning photo, divide the learning photo according to the detected color transition section and compress it, and thereby create the learning data. can be created.

파라미터 설정부(190)는 학습 데이터에 대해 특성값을 추출할 수 있다. 일 실시예의 특성값은 사진의 대표 색상, 대표 채도 또는 대표 피사체를 포함할 수 있다The parameter setting unit 190 may extract characteristic values from the learning data. The characteristic value of one embodiment may include a representative color, representative saturation, or representative subject of the photo.

파라미터 설정부(190)는 학습 데이터의 카메라 파라미터를 생성할 수 있다. 전술한 바와 같이, 일 실시예의 카메라 파라미터는 사진의 화질, 크기, 카메라의 감도(ISO), 필터, 조리개, 셔터 스피드 등의 값을 포함할 수 있으며, 파라미터 설정부(190)는 학습 데이터로부터 학습 사진의 화질, 크기 및 학습 사진을 촬영한 카메라의 감도(ISO), 필터, 조리개, 셔터 스피드 등의 값을 추출하여, 학습 데이터의 카메라 파라미터를 생성할 수 있다The parameter setting unit 190 may generate camera parameters of learning data. As described above, the camera parameters of one embodiment may include values such as picture quality, size, camera sensitivity (ISO), filter, aperture, shutter speed, etc., and the parameter setting unit 190 learns from the learning data. By extracting values such as photo quality, size, and sensitivity (ISO), filter, aperture, and shutter speed of the camera that took the learning photo, camera parameters of the learning data can be created.

파라미터 설정부(190)는 학습 데이터의 특성값 및 카메라 파라미터를 이용하여, 머신러닝을 통해 사용자가 원하는 최적의 카메라 파라미터를 예측할 수 있다.The parameter setting unit 190 can predict the optimal camera parameters desired by the user through machine learning using the characteristic values of the learning data and camera parameters.

우선 파라미터 설정부(190)는 관리자로부터 입력된 학습 사진을 이용하여 파라미터 예측 모델(191)을 학습할 수 있으며, 학습된 파라미터 예측 모델에 사용자로부터 입력된 테스트 사진을 입력하여, 사용자에게 최적화된 카메라 파라미터를 예측할 수 있다.First, the parameter setting unit 190 can learn the parameter prediction model 191 using the learning photo input from the administrator, and input the test photo input from the user into the learned parameter prediction model to optimize the camera for the user. Parameters can be predicted.

도 11은 일 실시예에 따른 파라미터 예측 모델(192)을 설명하기 위한 도면이다.FIG. 11 is a diagram for explaining a parameter prediction model 192 according to an embodiment.

도 11을 참조하면, 파라미터 설정부(190)는 파라미터 예측 모델 학습부(191) 및 파라미터 예측 모델(192)을 포함할 수 있다. 파라미터 예측 모델 학습부(191) 및 파라미터 예측 모델(192)은 파라미터 설정부(190)의 기능에 따라 나눠진 구성으로, 파라미터 설정부(190)에서 해당 기능을 모두 실시 가능함은 자명하다 하겠다.Referring to FIG. 11, the parameter setting unit 190 may include a parameter prediction model learning unit 191 and a parameter prediction model 192. The parameter prediction model learning unit 191 and the parameter prediction model 192 are divided according to the functions of the parameter setting unit 190, and it is obvious that all corresponding functions can be performed in the parameter setting unit 190.

일 실시예의 파라미터 예측 모델(192)로서 인공 신경망(Artifical Neural Netwrok)이 이용될 수 있다. 인공 신경망은 많은 수의 인공 뉴런(또는, 노드)들을 이용하여 생물학적인 시스템의 계산 능력을 모방하는 소프트웨어나 하드웨어로 구현된 예측 모델이다. An artificial neural network may be used as the parameter prediction model 192 in one embodiment. An artificial neural network is a prediction model implemented in software or hardware that imitates the computational ability of a biological system using a large number of artificial neurons (or nodes).

파라미터 예측 모델(192)은 파라미터 예측 모델 학습부(191)에 의해서 학습 데이터의 특성값 및 카메라 파라미터를 이용하여 지도 학습될 수 있다. 이때 지도 학습이란, 입력값과 그에 따른 출력값이 있는 데이터를 학습 데이터로 이용하여 주어진 입력값에 따른 출력값을 찾는 학습을 의미하며, 정답을 알고 있는 상태에서 이루어지는 학습을 의미한다. 지도 학습에 주어지는 입력값과 출력값 세트를 훈련 데이터(Training Data)라고 한다. 즉, 상술한 학습 데이터의 특성값은 입력 값, 학습 데이터의 카메라 파라미터는 출력 값으로서, 파라미터 예측 모델(192)의 지도 학습을 위한 훈련 데이터로 사용될 수 있다.The parameter prediction model 192 may be supervised by the parameter prediction model learning unit 191 using the characteristic values of the learning data and camera parameters. At this time, supervised learning refers to learning to find an output value according to a given input value by using data with input values and corresponding output values as learning data, and refers to learning that takes place when the correct answer is known. The set of input and output values given to supervised learning is called training data. That is, the characteristic values of the above-described learning data are input values, and the camera parameters of the learning data are output values, and can be used as training data for supervised learning of the parameter prediction model 192.

일례로 파라미터 예측 모델 학습부(191)는, 학습 데이터의 특성값을 고유한 제1 원-핫 벡터(one-hot vector)로 변환하여 입력값을 생성하고, 해당 학습 데이터의 카메라 파라미터를 고유한 제2 원-핫 벡터로 변환하여 출력값을 생성한 후, 생성된 입력값과 출력값을 이용해 파라미터 예측 모델(192)를 지도학습할 수 있다. 여기서, 제1 원-핫 벡터 및 제2 원-핫 벡터는 벡터를 구성하는 성분값들 중 하나가 '1'이고, 나머지 성분값들은 '0'으로 구성되는 벡터일 수 있다.For example, the parameter prediction model learning unit 191 generates an input value by converting the characteristic values of the learning data into a unique first one-hot vector, and converts the camera parameters of the learning data into a unique one-hot vector. After converting to a second one-hot vector and generating an output value, the parameter prediction model 192 can be supervised using the generated input and output values. Here, the first one-hot vector and the second one-hot vector may be vectors in which one of the component values constituting the vector is '1' and the remaining component values are '0'.

일 예시에서, 파라미터 예측 모델(192)은, 입력값을 입력받고 제1 원-핫 벡터의 성분 갯수에 상응하는 노드들을 갖는 입력층, 입력층의 출력값 각각에 대하여 연결강도(또는 가중치)를 곱하고, 바이어스(bias)를 더하여 출력하는 하나 이상의 은닉층(hidden layer); 및 은닉층의 출력값 각각에 대하여 연결강도(또는 가중치)를 곱하고, 그 결과를 활성화 함수를 이용하여 출력하는 출력층(output layer)을 포함할 수 있다. 여기서 활성화 함수는 LeRU 함수 또는 Softmax 함수일 수 있으나 이에 한정되는 것은 아니다. 연결강도와 바이어스는 지도 학습에 의해 지속적으로 갱신될 수 있다.In one example, the parameter prediction model 192 receives an input value, multiplies the connection strength (or weight) for each of the input layer and the output value of the input layer having nodes corresponding to the number of components of the first one-hot vector, and , one or more hidden layers that add a bias and output; And it may include an output layer that multiplies each output value of the hidden layer by a connection strength (or weight) and outputs the result using an activation function. Here, the activation function may be a LeRU function or a Softmax function, but is not limited thereto. Connection strengths and biases can be continuously updated by supervised learning.

구체적으로, 파라미터 예측 모델(192)은, 주어진 입력값(제1 원-핫 벡터)과 출력값(제2 원-핫 벡터)에 따른 손실 함수(loss function)의 출력값이 최소화되도록 지도학습될 수 있다. 예를 들어, 손실 함수(H(Y, Y`))는, 다음의 수학식 2와 같이 정의될 수 있다.Specifically, the parameter prediction model 192 may be supervised so that the output value of the loss function according to the given input value (first one-hot vector) and output value (second one-hot vector) is minimized. . For example, the loss function (H(Y, Y')) can be defined as Equation 2 below.

수학식 2에서 Ym은 제2 원-핫 벡터의 m번째 성분이고, Y`m은 파라미터 예측 모델(192)에서 제1 원-핫 벡터를 입력받아 출력된 출력 벡터의 m번째 성분일 수 있다.In Equation 2, Ym may be the mth component of the second one-hot vector, and Y'm may be the mth component of the output vector output by receiving the first one-hot vector from the parameter prediction model 192.

상기 훈련 데이터가 많으면 많을수록 파라미터 예측 모델(192)에 대해서 더 많은 지도 학습을 수행하여, 파라미터 예측 모델(192)의 정확도를 높일 수 있다.The more training data there is, the more supervised learning can be performed on the parameter prediction model 192, thereby increasing the accuracy of the parameter prediction model 192.

파라미터 예측 모델(192)에는 인공 신경망(Artifical Neural Netwrok)이 이용될 수 있다. 일례로 파라미터 예측 모델(192)은 Bi-LSTM(Bidirectional LSTM)이나, 콘벌루셔널 뉴럴 네트워크(Convolutional Neural Network; CNN)로 구현될 수 있다.An artificial neural network may be used in the parameter prediction model 192. For example, the parameter prediction model 192 may be implemented as a Bidirectional LSTM (Bi-LSTM) or a Convolutional Neural Network (CNN).

파라미터 예측 모델(192)은 사용자로부터 입력된 테스트 사진을 이용하여, 사용자에게 최적화된 카메라 파라미터를 예측할 수 있다.The parameter prediction model 192 can predict camera parameters optimized for the user using a test photo input from the user.

파라미터 설정부(190)는 파라미터 예측 모델(192)에서 예측된 카메라 파라미터가 복수개인 경우, 즉 사용자가 복수개의 테스트 사진을 입력한 경우, 복수개의 예측된 카메라 파라미터를 사용자가 선택한 촬영 컨셉의 카메라 파라미터와 비교하여, 최종 카메라 파라미터를 결정할 수 있다.When there are a plurality of camera parameters predicted by the parameter prediction model 192, that is, when the user inputs a plurality of test photos, the parameter setting unit 190 sets the plurality of predicted camera parameters to the camera parameters of the shooting concept selected by the user. By comparing with , the final camera parameters can be determined.

파라미터 설정부(190)는 복수개의 예측 카메라 파라미터 중에서, 사용자가 선택한 촬영 컨셉의 카메라 파라미터와 가장 유사한 예측 카메라 파라미터를, 최종 카메라 파라미터로 결정할 수 있다.The parameter setting unit 190 may determine, among a plurality of predicted camera parameters, the predicted camera parameter that is most similar to the camera parameter of the shooting concept selected by the user as the final camera parameter.

전술한 바와 같이, 카메라 파라미터는 사진의 화질, 크기, 감도(ISO), 필터, 조리개, 카메라 셔터 스피드 등의 값을 포함할 수 있으며, 일례로, 파라미터 설정부(190)는 촬영 컨셉의 카메라 파라미터 값과 차이의 평균이 가장 작은 예측 카메라 파라미터를 최종 카메라 파라미터로 결정할 수 있으며, 다른 일례로 파라미터 설정부(190)는 카메라 파라미터 값의 우선 순위에 따라 우선 순위가 높은 값의 차이가 가장 작은 예측 카메라 파라미터를 최종 카메라 파라미터로 결정할 수 있다.As described above, camera parameters may include values such as photo quality, size, sensitivity (ISO), filter, aperture, camera shutter speed, etc. For example, the parameter setting unit 190 may set the camera parameters of the shooting concept. The predicted camera parameter with the smallest average difference between the values can be determined as the final camera parameter. In another example, the parameter setting unit 190 sets the predicted camera parameter with the smallest difference between the high priority values according to the priority of the camera parameter values. The parameters can be determined as final camera parameters.

파라미터 설정부(190)는 예측 카메라 파라미터(최종 카메라 파라미터)를 이용하여 기기 제어 신호를 생성하여, 카메라(210)를 제어할 수 있다.The parameter setting unit 190 may control the camera 210 by generating a device control signal using predicted camera parameters (final camera parameters).

이로써, 파라미터 설정부(190)는 머신러닝을 이용하여, 사용자의 테스트 사진으로부터 사용자가 원하는 최적의 카메라 파라미터를 추출하여 촬영룸의 카메라(210)에 적용시킬 수 있다.Accordingly, the parameter setting unit 190 can use machine learning to extract optimal camera parameters desired by the user from the user's test photos and apply them to the camera 210 in the shooting room.

도 12는 일 실시예에 따른 사용자 단말(300)의 구성을 도시한 도면이다. 이하, 도 12에 도시된 사용자 단말(300)를 구성하는 구성요소들에 대해 차례로 살펴본다.FIG. 12 is a diagram illustrating the configuration of a user terminal 300 according to an embodiment. Hereinafter, we will look at the components that make up the user terminal 300 shown in FIG. 12 in turn.

무선 통신부(310)는 사용자 단말(300)와 무선 통신 시스템 사이의 무선 통신 또는 사용자 단말(300)와 사용자 단말(300)가 위치한 네트워크 사이의 무선 통신을 수행하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 무선 통신부(310)는 방송 수신 모듈(311), 이동통신 모듈(312), 무선 인터넷 모듈(313), 근거리 통신 모듈(314) 및 위치정보 모듈(315) 등을 포함할 수 있다.The wireless communication unit 310 may include one or more components that perform wireless communication between the user terminal 300 and the wireless communication system or wireless communication between the user terminal 300 and the network in which the user terminal 300 is located. . For example, the wireless communication unit 310 may include a broadcast reception module 311, a mobile communication module 312, a wireless Internet module 313, a short-range communication module 314, and a location information module 315. .

방송 수신 모듈(311)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 여기에서, 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 한편, 방송 관련 정보는 이동통신망을 통하여도 제공될 수 있으며, 이러한 경우에는 이동통신 모듈(312)에 의해 수신될 수 있다.The broadcast reception module 311 receives broadcast signals and/or broadcast-related information from an external broadcast management server through a broadcast channel. Here, broadcast channels may include satellite channels and terrestrial channels. Meanwhile, broadcast-related information can also be provided through a mobile communication network, and in this case, it can be received by the mobile communication module 312.

또한, 이동통신 모듈(312)은 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.Additionally, the mobile communication module 312 transmits and receives wireless signals with at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include various types of data according to voice call signals, video call signals, or text/multimedia message transmission and reception.

무선 인터넷 모듈(313)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 사용자 단말(300)에 내장되거나 외장 될 수 있다.The wireless Internet module 313 refers to a module for wireless Internet access and may be built into or external to the user terminal 300.

근거리 통신 모듈(314)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short-range communication module 314 refers to a module for short-range communication. As short-range communication technologies, Bluetooth, RFID (Radio Frequency Identification), infrared data association (IrDA), UWB (Ultra Wideband), ZigBee, etc. can be used.

또한, 위치정보 모듈(115)은 사용자 단말(300)의 위치를 확인하거나 얻기 위한 모듈이다. 일례로 GPS(Global Position System) 모듈을 들 수 있다. GPS 모듈은 복수 개의 인공위성으로부터 위치 정보를 수신한다. 여기에서, 위치 정보는 위도 및 경도로 표시되는 좌표 정보를 포함할 수 있다.Additionally, the location information module 115 is a module for confirming or obtaining the location of the user terminal 300. An example is a GPS (Global Position System) module. The GPS module receives location information from multiple satellites. Here, the location information may include coordinate information expressed in latitude and longitude.

한편, A/V(Audio/Video) 입력부(320)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(321)와 마이크(322) 등이 포함될 수 있다. 카메라(321)는 화상 통화 모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 그리고, 처리된 화상 프레임은 디스플레이부(351)에 표시될 수 있다.Meanwhile, the A/V (Audio/Video) input unit 320 is for inputting audio or video signals, and may include a camera 321 and a microphone 322. The camera 321 processes image frames, such as still images or moving images, obtained by an image sensor in video call mode or shooting mode. And, the processed image frame can be displayed on the display unit 351.

카메라(321)에서 처리된 화상 프레임은 메모리(360)에 저장되거나 무선 통신부(310)를 통하여 외부로 전송될 수 있다. 카메라(321)는 사용자 단말(300)의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 321 may be stored in the memory 360 or transmitted externally through the wireless communication unit 310. Two or more cameras 321 may be provided depending on the configuration of the user terminal 300.

마이크(322)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 그리고, 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(312)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(322)는 외부의 음향 신호를 입력받는 과정에서 발생하는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘을 구현할 수 있다.The microphone 322 receives external sound signals through a microphone in call mode, recording mode, voice recognition mode, etc., and processes them into electrical voice data. Additionally, the processed voice data can be converted into a form that can be transmitted to a mobile communication base station through the mobile communication module 312 and output when in call mode. The microphone 322 may implement various noise removal algorithms to remove noise generated in the process of receiving an external acoustic signal.

사용자 입력부(330)는 사용자로부터 입력 동작을 받아들여, 사용자 단말(300)의 동작 제어를 위한 입력 데이터를 발생시킨다.The user input unit 330 receives an input action from the user and generates input data for controlling the operation of the user terminal 300.

센싱부(340)는 사용자 단말(300)의 위치, 사용자 접촉 유무, 사용자 단말(300)의 방위, 사용자 단말(300)의 가속/감속 등과 같이, 사용자 단말(300)의 현 상태를 감지하여 사용자 단말(300)의 동작을 제어하기 위한 센싱 신호를 발생시킨다.The sensing unit 340 detects the current state of the user terminal 300, such as the location of the user terminal 300, presence or absence of user contact, orientation of the user terminal 300, acceleration/deceleration of the user terminal 300, etc. Generates a sensing signal to control the operation of the terminal 300.

인터페이스부(370)는 사용자 단말(300)에 연결되는 모든 외부기기와의 인터페이스 역할을 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 포함될 수 있다.The interface unit 370 serves as an interface with all external devices connected to the user terminal 300. For example, wired/wireless headset ports, external charger ports, wired/wireless data ports, memory card ports, ports for connecting devices equipped with identification modules, audio I/O (Input/Output) ports, A video I/O (Input/Output) port, an earphone port, etc. may be included.

출력부(350)는 오디오 신호 또는 비디오 신호 또는 알람(alarm) 신호의 출력을 위한 것으로, 이에는 디스플레이부(351)와 음향 출력 모듈(352), 알람부(353) 등이 포함될 수 있다.The output unit 350 is for outputting an audio signal, a video signal, or an alarm signal, and may include a display unit 351, an audio output module 352, an alarm unit 353, etc.

디스플레이부(351)는 사용자 단말(300)에서 처리되는 정보를 표시 출력한다. 예를 들어, 단말기가 통화 모드인 경우, 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 그리고, 사용자 단말(300)가 화상 통화 모드 또는 촬영 모드인 경우, 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다.The display unit 351 displays and outputs information processed by the user terminal 300. For example, when the terminal is in call mode, it displays a user interface (UI) or graphic user interface (GUI) related to the call. And, when the user terminal 300 is in a video call mode or a shooting mode, the captured and/or received video, UI, or GUI is displayed.

한편, 전술한 바와 같이, 디스플레이부(351)와 터치 패드가 상호 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이부(351)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이부(351)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. 그리고, 사용자 단말(300)의 구현 형태에 따라, 디스플레이부(351)는 2개 이상 존재할 수도 있다. 예를 들어, 사용자 단말(300)에 외부 디스플레이부(미도시)와 내부 디스플레이부(미도시)가 동시에 구비될 수 있다.Meanwhile, as described above, when the display unit 351 and the touch pad form a layered structure to form a touch screen, the display unit 351 can be used as an input device in addition to an output device. The display unit 351 includes a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, and a three-dimensional display ( 3D display). And, depending on the implementation type of the user terminal 300, there may be two or more display units 351. For example, the user terminal 300 may be equipped with an external display unit (not shown) and an internal display unit (not shown) at the same time.

음향 출력 모듈(352)은 호 신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서, 무선 통신부(310)로부터 수신되거나 메모리(360)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력 모듈(352)은 사용자 단말(300)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력한다. 이러한 음향 출력 모듈(352)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The audio output module 352 outputs audio data received from the wireless communication unit 310 or stored in the memory 360 in call signal reception, call mode or recording mode, voice recognition mode, broadcast reception mode, etc. Additionally, the sound output module 352 outputs sound signals related to functions performed in the user terminal 300 (eg, call signal reception sound, message reception sound, etc.). This sound output module 352 may include a speaker, buzzer, etc.

알람부(353)는 사용자 단말(300)의 이벤트 발생을 알리기 위한 신호를 출력한다. 단말기에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력 등이 있다. The alarm unit 353 outputs a signal to notify the occurrence of an event in the user terminal 300. Examples of events that occur in the terminal include receiving a call signal, receiving a message, and inputting a key signal.

메모리(360)는 제어부(380)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다.The memory 360 may store programs for processing and controlling the control unit 380 and has a function for temporarily storing input/output data (e.g., phone book, messages, still images, videos, etc.). It can also be done.

메모리(360)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The memory 360 is a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory, etc.), and RAM. (RAM, Random Access Memory) SRAM (Static Random Access Memory), ROM (Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory) magnetic memory, magnetic disk, It may include at least one type of storage medium among optical disks.

제어부(380)는 통상적으로 단말기의 전반적인 동작을 제어한다. 예를 들어, 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 또한, 제어부(380)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(381)은 제어부(380) 내에 구현될 수도 있고, 제어부(380)와 별도로 구현될 수도 있다.The control unit 380 typically controls the overall operation of the terminal. For example, it performs related control and processing for voice calls, data communications, video calls, etc. Additionally, the control unit 380 may be equipped with a multimedia module 181 for multimedia playback. The multimedia module 381 may be implemented within the control unit 380 or may be implemented separately from the control unit 380.

제어부(380)는 전술한 포토 스튜디어 운영 방법을 구현하기 위한 단말기의 다양한 동작을 제어한다.The control unit 380 controls various operations of the terminal to implement the photo studio operation method described above.

전원 공급부(290)는 제어부(280)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 290 receives external power and internal power under the control of the control unit 280 and supplies power necessary for the operation of each component.

한편, 상술한 운영 서버(100)의 동작 중 적어도 일부 또는 전부는 사용자 단말(300)에서 구현될 수도 있다. 이때, 사용자 단말(300)에는 운영 서버(100)와 통신하여 상술한 운영 서버(100)의 동작을 수행하기 위한 애플리케이션이 미리 설치될 수 있다.Meanwhile, at least some or all of the operations of the operation server 100 described above may be implemented in the user terminal 300. At this time, an application for communicating with the operation server 100 and performing the above-described operation of the operation server 100 may be installed in the user terminal 300 in advance.

도 13은 본 발명의 일 실시예에 따른 통신 과정에서 적용될 수 있는 무선 통신 시스템을 나타낸 도면이다. 도 14은 도 13에 따른 무선 통신 시스템에서 기지국을 나타낸 도면이다. 도 15는 도 13에 따른 무선 통신 시스템에서 단말을 나타낸 도면이다. 도 16은 도 13에 따른 무선 통신 시스템에서 통신 인터페이스를 나타낸 도면이다.Figure 13 is a diagram showing a wireless communication system that can be applied in a communication process according to an embodiment of the present invention. FIG. 14 is a diagram showing a base station in the wireless communication system according to FIG. 13. FIG. 15 is a diagram showing a terminal in the wireless communication system according to FIG. 13. FIG. 16 is a diagram showing a communication interface in the wireless communication system according to FIG. 13.

이하에서는 각종 서버들과 단말들 사이의 통신을 지원하는 무선 통신 네트워크 시스템의 일례를 구체적으로 예를 들어 설명한다. 다음 설명에서, 제1 노드(장치)는 앵커/도너 노드 또는 앵커/도너 노드의 CU(centralized unit) 일 수 있고, 제2 노드(장치)는 앵커/도너 노드 또는 릴레이 노드의 DU(distributed unit) 일 수 있다.Below, an example of a wireless communication network system that supports communication between various servers and terminals will be described in detail. In the following description, the first node (device) may be an anchor/donor node or a centralized unit (CU) of an anchor/donor node, and the second node (device) may be a distributed unit (DU) of an anchor/donor node or relay node. It can be.

무선 통신 시스템에서 무선 채널을 사용하는 노드의 일부로 기지국(base station, BS), 단말, 서버 등이 포함될 수 있다.In a wireless communication system, a base station (BS), terminal, server, etc. may be included as part of the nodes that use a wireless channel.

기지국은 단말 및 단말에 무선 액세스를 제공하는 네트워크 인프라이다. 기지국은 신호가 전송될 수 있는 거리에 따라 소정의 지리적 영역으로 정의된 커버리지를 갖는다.A base station is a network infrastructure that provides wireless access to terminals and terminals. A base station has a coverage area defined as a geographic area depending on the distance over which signals can be transmitted.

기지국은 "기지국"과 마찬가지로 "액세스 포인트(access point, AP)", "이노드비(enodeb, eNB)", "5 세대(5th generation, 5G) 노드", "무선 포인트(wireless point)", "송/수신 포인트(transmission/reception point, TRP)" 지칭될 수 있다.A base station, like a "base station", can be referred to as an "access point (AP)", "enodeb (eNB)", "5th generation (5G) node", "wireless point", " It may be referred to as a “transmission/reception point (TRP)”.

기지국, 단말 및 단말은 밀리미터 파(millimeter wave, mmWave) 대역(예: 28GHz, 30GHz, 38GHz, 60GHz)으로 무선 신호를 송수신할 수 있다. 이때, 채널 이득 향상을 위해 기지국, 단말 및 단말은 빔포밍을 수행할 수 있다. 빔포밍은 송신 빔포밍 및 수신 빔포밍을 포함할 수 있다. 즉, 기지국, 단말 및 단말은 송신 신호와 수신 신호에 지향성을 부여할 수 있다. 이를 위해 기지국, 단말 및 단말은 빔 탐색 절차 또는 빔 관리 절차를 통해 서빙 빔을 선택할 수 있다. 그 후, 통신은 서빙 빔을 운반하는 자원과 준 동일위치(quasi co-located) 관계에 있는 자원을 사용하여 수행될 수 있다.Base stations, terminals, and terminals can transmit and receive wireless signals in the millimeter wave (mmWave) band (e.g., 28 GHz, 30 GHz, 38 GHz, 60 GHz). At this time, the base station, terminal, and terminal may perform beamforming to improve channel gain. Beamforming may include transmit beamforming and receive beamforming. That is, the base station, terminal, and terminal can give directivity to the transmitted signal and the received signal. To this end, the base station, terminal, and terminal can select a serving beam through a beam search procedure or beam management procedure. Thereafter, communication may be performed using a resource that is in a quasi co-located relationship with the resource carrying the serving beam.

첫 번째 안테나 포트 및 두 번째 안테나 포트는 첫 번째 안테나 포트의 심볼이 전달되는 채널의 대규모 속성이 두 번째 안테나 포트의 심볼이 전달되는 채널에서 유추될 수 있는 경우 준 동일위치 위치에 있는 것으로 간주된다. 대규모 속성은 지연 확산, 도플러 확산, 도플러 시프트, 평균 이득, 평균 지연 및 공간 Rx 파라미터 중 하나 이상을 포함할 수 있다.A first antenna port and a second antenna port are considered to be quasi-colocated if the large-scale properties of the channel on which the symbols of the first antenna port are carried can be inferred from the channel on which the symbols of the second antenna port are carried. Large-scale properties may include one or more of delay spread, Doppler spread, Doppler shift, average gain, average delay, and spatial Rx parameters.

이하에서는 상술한 무선 통신 시스템에서 기지국을 예시한다. 이하에서 사용되는 "-모듈(module)", "-부(unit)"또는 "-er"라는 용어는 적어도 하나의 기능 또는 동작을 처리하는 유닛을 의미할 수 있으며, 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있다.Below, a base station in the above-described wireless communication system is exemplified. As used hereinafter, the terms "-module", "-unit", or "-er" may mean a unit that processes at least one function or operation, and may mean hardware, software, or hardware and software. It can be implemented as a combination of.

기지국은 무선 통신 인터페이스, 백홀 통신 인터페이스, 저장부(storage unit 및 컨트롤러을 포함할 수 있다.The base station may include a wireless communication interface, a backhaul communication interface, a storage unit, and a controller.

무선 통신 인터페이스는 무선 채널을 통해 신호를 송수신하는 기능을 수행한다. 예를 들어, 무선 통신 인터페이스는 시스템의 물리 계층 표준에 따라 베이스 밴드 신호와 비트 스트림 간의 변환 기능을 수행할 수 있다. 예를 들어, 데이터 전송에서, 무선 통신 인터페이스은 전송 비트 스트림을 압축 및 변조하여 복합 심볼을 생성한다. 또한, 데이터 수신 시 무선 통신 인터페이스는 베이스 밴드 신호를 복조 및 디코딩하여 수신 비트 스트림을 재구성한다.The wireless communication interface performs the function of transmitting and receiving signals through a wireless channel. For example, a wireless communication interface may perform a conversion function between a baseband signal and a bit stream according to the system's physical layer standard. For example, in data transmission, a wireless communication interface compresses and modulates a transmitted bit stream to generate complex symbols. Additionally, when receiving data, the wireless communication interface demodulates and decodes the baseband signal to reconstruct the received bit stream.

무선 통신 인터페이스는 무선 채널을 통해 신호를 송수신하는 기능을 수행한다. 예를 들어, 무선 통신 인터페이스은 시스템의 물리 계층 표준에 따라 베이스 밴드 신호와 비트 스트림 간의 변환 기능을 수행할 수 있다. 예를 들어, 데이터 전송에서, 무선 통신 인터페이스은 전송 비트 스트림을 압축 및 변조하여 복합 심볼을 생성한다. 또한, 데이터 수신 시 무선 통신 인터페이스은 베이스 밴드 신호를 복조 및 디코딩하여 수신 비트 스트림을 재구성한다.The wireless communication interface performs the function of transmitting and receiving signals through a wireless channel. For example, a wireless communication interface may perform a conversion function between a baseband signal and a bit stream according to the system's physical layer standard. For example, in data transmission, a wireless communication interface compresses and modulates a transmitted bit stream to generate complex symbols. Additionally, upon receiving data, the wireless communication interface demodulates and decodes the baseband signal to reconstruct the received bit stream.

또한, 무선 통신 인터페이스는 베이스 대역 신호를 RF(Radio Frequency) 대역 신호로 상향 변환하고, 변환된 신호를 안테나를 통해 전송한 후 안테나를 통해 수신된 RF 대역 신호를 베이스 대역 신호로 하향 변환한다. 이를 위해, 무선 통신 인터페이스은 송신 필터(transmission filter), 수신 필터(reception filter), 증폭기(amplifier), 믹서(mixer), 발진기(oscillator), 디지털-아날로그 컨버터(digital-to-analog convertor, DAC), 아날로그-디지털 컨버터(analog-to-digital convertor, ADC) 등을 포함할 수 있다. 또한, 무선 통신 인터페이스는 복수의 송수신 경로를 포함할 수 있다. 또한, 무선 통신 인터페이스는 복수의 안테나 요소를 포함하는 적어도 하나의 안테나 어레이를 포함할 수 있다.Additionally, the wireless communication interface up-converts the base band signal into an RF (Radio Frequency) band signal, transmits the converted signal through an antenna, and then down-converts the RF band signal received through the antenna into a base band signal. For this purpose, the wireless communication interface includes a transmission filter, a reception filter, an amplifier, a mixer, an oscillator, a digital-to-analog convertor (DAC), It may include an analog-to-digital convertor (ADC), etc. Additionally, the wireless communication interface may include a plurality of transmission and reception paths. Additionally, the wireless communication interface may include at least one antenna array including a plurality of antenna elements.

하드웨어 측면에서 무선 통신 인터페이스는 디지털 유닛과 아날로그 유닛을 포함할 수 있고, 아날로그 유닛은 동작 전력, 동작 주파수 등에 따라 복수의 서브 유닛을 포함할 수 있다. 디지털 유닛은 적어도 하나의 프로세서(예를 들어, 디지털 신호 프로세서(digital signal processor, DSP))로 구현될 수 있다.In terms of hardware, a wireless communication interface may include a digital unit and an analog unit, and the analog unit may include a plurality of subunits depending on operating power, operating frequency, etc. The digital unit may be implemented with at least one processor (eg, digital signal processor (DSP)).

무선 통신 인터페이스는 전술한 바와 같이 신호를 송수신한다. 따라서, 무선 통신 인터페이스는 "송신기(transmitter)", "수신기(receiver)"또는 "트랜시버(transceiver)"로 지칭될 수 있다. 또한, 이하의 설명에서 무선 채널을 통해 수행되는 송수신은 전술한 바와 같이 무선 통신 인터페이스에서 수행되는 처리를 포함하는 의미로 사용될 수 있다.The wireless communication interface transmits and receives signals as described above. Accordingly, a wireless communication interface may be referred to as a “transmitter,” “receiver,” or “transceiver.” Additionally, in the following description, transmission and reception performed through a wireless channel may be used to include processing performed in a wireless communication interface as described above.

백홀 통신 인터페이스는 네트워크 내의 다른 노드와 통신을 수행하기위한 인터페이스를 제공한다. 즉, 백홀 통신 인터페이스는 다른 노드로 전송되는 비트 스트림을 변환하고, 예를 들어, 다른 액세스 노드, 다른 기지국, 상위 노드 또는 기지국으로부터의 코어 네트워크는 물리적 신호로, 다른 노드로부터 수신된 물리적 신호를 비트 스트림으로 변환한다.The backhaul communication interface provides an interface to communicate with other nodes within the network. That is, the backhaul communication interface converts the bit stream transmitted to other nodes, for example, other access nodes, other base stations, upper nodes or the core network from the base station into physical signals, and converts the physical signals received from other nodes into bits. Convert to stream.

저장부는 기본 프로그램, 어플리케이션, 기지국의 동작을 위한 설정 정보 등의 데이터를 저장한다. 저장부는 휘발성 메모리, 비 휘발성 메모리 또는 휘발성 메모리와 비 휘발성 메모리의 조합을 포함할 수 있다.The storage unit stores data such as basic programs, applications, and setting information for operation of the base station. The storage unit may include volatile memory, non-volatile memory, or a combination of volatile memory and non-volatile memory.

컨트롤러는 기지국의 전반적인 동작을 제어한다. 예를 들어, 컨트롤러는 무선 통신 인터페이스 또는 백홀 통신 인터페이스를 통해 신호를 송수신한다. 또한 컨트롤러는 저장부에 데이터를 기록하고 기록된 데이터를 읽는다. 컨트롤러는 통신 규격에서 요구하는 프로토콜 스택의 기능을 수행할 수 있다. 다른 구현에 따르면, 프로토콜 스택은 무선 통신 인터페이스에 포함될 수 있다. 이를 위해 컨트롤러는 적어도 하나의 프로세서를 포함할 수 있다.The controller controls the overall operation of the base station. For example, the controller transmits and receives signals through a wireless communication interface or a backhaul communication interface. Additionally, the controller records data in the storage and reads the recorded data. The controller can perform the protocol stack functions required by communication standards. According to another implementation, the protocol stack may be included in the wireless communication interface. For this purpose, the controller may include at least one processor.

일 실시 예에 따르면 컨트롤러는 본 발명의 실시 예에 따른 동작을 수행하도록 기지국을 제어할 수 있다.According to one embodiment, the controller may control the base station to perform operations according to the embodiment of the present invention.

다양한 실시 예에 따르면, 무선 통신 시스템의 도너 노드는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서에 동작 가능하게 결합된 트랜시버를 포함하고, 상기 릴레이 노드에 액세스하는 단말에 대한 복수의 라디오 베어러에 관한 상기 도너 노드와 관련된 제1 정보를 포함하는 제1 메시지를 릴레이 노드로 전송하도록 구성되고; 상기 릴레이 노드로부터 상기 단말에 대한 복수의 라디오 베어러에 관한 상기 릴레이 노드와 관련된 제2 정보를 포함하는 제2 메시지를 수신하고; 단말에 대한 데이터를 릴레이 노드로 전송할 수 있다. 데이터는 제1 정보 및 제2 정보에 기초하여 복수의 라디오 베어러를 통해 단말로 전송될 수 있다.According to various embodiments, a donor node of a wireless communication system includes at least one processor, a transceiver operably coupled to the at least one processor, and a plurality of radio bearers for a terminal accessing the relay node. configured to transmit to a relay node a first message containing first information related to the donor node regarding; receive a second message from the relay node containing second information related to the relay node regarding a plurality of radio bearers for the terminal; Data about the terminal can be transmitted to the relay node. Data may be transmitted to the terminal through a plurality of radio bearers based on the first information and the second information.

다양한 실시 예에 따르면, 복수의 라디오 베어러 중 라디오 베어러는 복수의 라디오 베어러를 통합시킬 수 있다. 적어도 하나의 프로세서는 또한 릴레이 노드에 액세스하는 단말에 대한 라디오 베어러 및 라디오 베어러에 의해 통합된 다중 라디오 베어러를 결정하도록 구성되고; 또는 릴레이 노드에 액세스하는 단말에 대한 라디오 베어러를 결정할 수 있다.According to various embodiments, a radio bearer among a plurality of radio bearers may integrate a plurality of radio bearers. The at least one processor is further configured to determine a radio bearer for a terminal accessing the relay node and multiple radio bearers integrated by the radio bearer; Alternatively, a radio bearer for a terminal accessing the relay node can be determined.

다양한 실시 예에 따르면, 제1 메시지는 다음 중 하나 이상을 포함할 수 있다: 릴레이 노드에 액세스하는 터미널의 식별; 릴레이 노드에 접속하는 단말의 종류를 나타내는 표시 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러에 대한 정보; 릴레이 노드에 액세스하는 단말에 의해 전달된 라디오 베어러에 대한 정보; 도너 노드와 릴레이 노드 사이의 라디오 베어러에 대해 설정된 터널에 대한 정보; 통합된 다중 라디오 베어러에 대한 정보; 라디오 베어러 매핑 정보; 도너 노드 측면의 주소에 대한 정보; 릴레이 노드 측의 주소에 대한 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러에 대응하는 표시 정보; 릴레이 노드에 액세스하는 단말에 대해 새로운 주소를 라디오 베어러에 할당하도록 릴레이 노드를 나타내는 표시 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러의 데이터를 전송하는 릴레이 노드가 사용할 수 없는 주소 정보 목록; 및 보안 구성과 관련된 정보.According to various embodiments, the first message may include one or more of the following: identification of the terminal accessing the relay node; Display information indicating the type of terminal connecting to the relay node; Information about the radio bearer of the terminal connecting to the relay node; Information about the radio bearer carried by the terminal accessing the relay node; Information about the tunnel established for the radio bearer between the donor node and the relay node; Information on integrated multi-radio bearers; radio bearer mapping information; Information about the address on the donor node side; Information about the address on the relay node side; Indication information corresponding to the radio bearer of the terminal connecting to the relay node; Indication information indicating the relay node to allocate a new address to a radio bearer for a terminal accessing the relay node; A list of address information that cannot be used by the relay node transmitting data of the radio bearer of the terminal connecting to the relay node; and information related to security configuration.

다양한 실시 예에 따르면, 제2 메시지는 다음 중 하나 이상을 포함할 수 있다: 릴레이 노드에 액세스하는 터미널의 식별; 릴레이 노드에 의해 승인된 라디오 베어러에 대한 정보; 릴레이 노드에 의해 승인되지 않은 라디오 베어러에 대한 정보; 릴레이 노드에 의해 부분적으로 승인된 라디오 베어러에 대한 정보; 라디오 베어러 매핑 정보; 릴레이 노드가 생성한 릴레이 노드에 접속하는 단말의 구성 정보; 릴레이 노드 측의 주소에 대한 정보; 및 보안 구성과 관련된 정보.According to various embodiments, the second message may include one or more of the following: identification of the terminal accessing the relay node; Information about radio bearers approved by the relay node; Information about radio bearers not acknowledged by the relay node; Information about radio bearers partially accepted by the relay node; radio bearer mapping information; Configuration information of a terminal connecting to the relay node created by the relay node; Information about the address on the relay node side; and information related to security configuration.

다양한 실시 예에 따르면, 제2 메시지는 통합된 다중 라디오 베어러에 대한 정보를 더 포함할 수 있다.According to various embodiments, the second message may further include information about integrated multiple radio bearers.

다양한 실시 예에 따르면, 도너 노드는 도너 노드의 중앙 유닛을 포함하고, 릴레이 노드는 도너 노드의 분산 유닛을 포함할 수 있다.According to various embodiments, the donor node may include a central unit of the donor node, and the relay node may include a distributed unit of the donor node.

다양한 실시 예에 따르면, 무선 통신 시스템의 릴레이 노드는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서에 동작 가능하게 결합된 트랜시버를 포함하고, 도너 노드로부터, 릴레이 노드에 액세스하는 단말에 대한 복수의 라디오 베어러에 관한 도너 노드와 관련된 제1 정보를 포함하는 제1 메시지를 수신하도록 구성되고; 단말에 대한 복수의 라디오 베어러에 관한 릴레이 노드와 관련된 제2 정보를 포함하는 제2 메시지를 도너 노드로 전송하고; 도너 노드로부터 단말기에 대한 데이터를 수신할 수 있다. 데이터는 제1 정보 및 제2 정보에 기초하여 복수의 라디오 베어러를 통해 단말로 전송될 수 있다.According to various embodiments, a relay node in a wireless communication system includes at least one processor, includes a transceiver operably coupled to the at least one processor, and transmits, from a donor node, a plurality of terminals accessing the relay node. configured to receive a first message containing first information related to a donor node regarding a radio bearer of; transmitting a second message containing second information related to a relay node regarding a plurality of radio bearers for the terminal to the donor node; Data about the terminal can be received from the donor node. Data may be transmitted to the terminal through a plurality of radio bearers based on the first information and the second information.

다양한 실시 예에 따르면, 복수의 라디오 베어러 중 라디오 베어러는 복수의 라디오 베어러를 통합시킬 수 있다. 적어도 하나의 프로세서는 또한 릴레이 노드에 액세스하는 단말에 대한 라디오 베어러 및 라디오 베어러에 의해 통합된 다중 라디오 베어러를 결정하도록 구성되고; 또는 라디오 베어러에 의해 통합된 다중 라디오 베어러를 결정할 수 있다.According to various embodiments, a radio bearer among a plurality of radio bearers may integrate a plurality of radio bearers. The at least one processor is further configured to determine a radio bearer for a terminal accessing the relay node and multiple radio bearers integrated by the radio bearer; Alternatively, multiple radio bearers integrated by radio bearer may be determined.

다양한 실시 예에 따르면, 제1 메시지는 다음 중 하나 이상을 포함할 수 있다: 릴레이 노드에 액세스하는 터미널의 식별; 릴레이 노드에 접속하는 단말의 종류를 나타내는 표시 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러에 대한 정보; 릴레이 노드에 액세스하는 단말에 의해 전달된 라디오 베어러에 대한 정보; 도너 노드와 릴레이 노드 사이의 라디오 베어러에 대해 설정된 터널에 대한 정보; 통합된 다중 라디오 베어러에 대한 정보; 라디오 베어러 매핑 정보; 도너 노드 측면의 주소에 대한 정보; 릴레이 노드 측의 주소에 대한 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러에 대응하는 표시 정보; 릴레이 노드에 액세스하는 단말에 대해 새로운 주소를 라디오 베어러에 할당하도록 릴레이 노드를 나타내는 표시 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러의 데이터를 전송하는 릴레이 노드가 사용할 수 없는 주소 정보 목록; 및 보안 구성과 관련된 정보.According to various embodiments, the first message may include one or more of the following: identification of the terminal accessing the relay node; Display information indicating the type of terminal connecting to the relay node; Information about the radio bearer of the terminal connecting to the relay node; Information about the radio bearer carried by the terminal accessing the relay node; Information about the tunnel established for the radio bearer between the donor node and the relay node; Information on integrated multi-radio bearers; radio bearer mapping information; Information about the address on the donor node side; Information about the address on the relay node side; Indication information corresponding to the radio bearer of the terminal connecting to the relay node; Indication information indicating the relay node to allocate a new address to a radio bearer for a terminal accessing the relay node; A list of address information that cannot be used by the relay node transmitting data of the radio bearer of the terminal connecting to the relay node; and information related to security configuration.

다양한 실시 예에 따르면, 제2 메시지는 다음 중 하나 이상을 포함할 수 있다: 릴레이 노드에 액세스하는 터미널의 식별; 릴레이 노드에 의해 승인된 라디오 베어러에 대한 정보; 릴레이 노드에 의해 승인되지 않은 라디오 베어러에 대한 정보; 릴레이 노드에 의해 부분적으로 승인된 라디오 베어러에 대한 정보; 라디오 베어러 매핑 정보; 릴레이 노드가 생성한 릴레이 노드에 접속하는 단말의 구성 정보; 릴레이 노드 측의 주소에 대한 정보; 및 보안 구성과 관련된 정보.According to various embodiments, the second message may include one or more of the following: identification of the terminal accessing the relay node; Information about radio bearers approved by the relay node; Information about radio bearers not acknowledged by the relay node; Information about radio bearers partially accepted by the relay node; radio bearer mapping information; Configuration information of a terminal connecting to the relay node created by the relay node; Information about the address on the relay node side; and information related to security configuration.

다양한 실시 예에 따르면, 제2 메시지는 통합된 다중 라디오 베어러에 대한 정보를 더 포함할 수 있다.According to various embodiments, the second message may further include information about integrated multiple radio bearers.

다양한 실시 예에 따르면, 도너 노드는 도너 노드의 중앙 유닛을 포함하고, 릴레이 노드는 도너 노드의 분산 유닛을 포함할 수 있다.According to various embodiments, the donor node may include a central unit of the donor node, and the relay node may include a distributed unit of the donor node.

이하에서는 상술한 무선 통신 시스템에서 단말의 구성요소를 도시한다. 이하에서는 설명하는 단말의 구성요소는 무선 통신 시스템에서 지원하는 범용적인 단말의 구성요소로서 전술한 내용들에 따른 단말의 구성요소와 병합되거나 통합될 수 있고, 일부 중첩되거나 상충되는 범위에서 앞서 도면을 참조하여 설명한 내용이 우선적용되는 것으로 해석될 수 있다. 이하에서 사용되는 "-모듈", "-유닛"또는 "-er"라는 용어는 적어도 하나의 기능을 처리하는 유닛을 의미할 수 있다.Below, the components of the terminal in the above-described wireless communication system are shown. The components of the terminal described below are components of a general-purpose terminal supported by a wireless communication system and may be merged or integrated with the components of the terminal according to the above-mentioned contents, and may be compared to the previous drawings to the extent of some overlap or conflict. The content explained with reference may be interpreted as having priority. The terms “-module”, “-unit”, or “-er” used below may refer to a unit that processes at least one function.

단말은 통신 인터페이스, 저장부 및 컨트롤러를 포함한다.The terminal includes a communication interface, a storage unit, and a controller.

통신 인터페이스는 무선 채널을 통해 신호를 송수신하는 기능을 수행한다. 예를 들어, 통신 인터페이스는 시스템의 물리 계층 표준에 따라 베이스 밴드 신호와 비트 스트림 간의 변환 기능을 수행한다. 예를 들어, 데이터 전송에서 통신 인터페이스는 전송 비트 스트림을 압축 및 변조하여 복합 심볼을 생성한다. 또한, 데이터 수신시 통신 인터페이스는 베이스 대역 신호를 복조 및 복호화하여 수신 비트 스트림을 재구성한다. 또한, 통신 인터페이스는 베이스 대역 신호를 RF 대역 신호로 상향 변환하고, 변환된 신호를 안테나를 통해 전송한 후 안테나를 통해 수신된 RF 대역 신호를 기저 대역 신호로 하향 변환한다. 예를 들어, 통신 인터페이스는 송신 필터(transmission filter), 수신 필터(reception filter), 증폭기(amplifier), 믹서(mixer), 발진기(oscillator), 디지털-아날로그 컨버터(digital-to-analog convertor, DAC), 아날로그-디지털 컨버터(analog-to-digital convertor, ADC) 등을 포함할 수 있다.The communication interface performs the function of transmitting and receiving signals through a wireless channel. For example, the communication interface performs conversion between baseband signals and bit streams according to the system's physical layer standards. For example, in data transmission, a communication interface compresses and modulates the transmitted bit stream to generate complex symbols. Additionally, when receiving data, the communication interface demodulates and decodes the base band signal to reconstruct the received bit stream. Additionally, the communication interface up-converts the base band signal into an RF band signal, transmits the converted signal through an antenna, and then down-converts the RF band signal received through the antenna into a base band signal. For example, the communication interface includes a transmission filter, reception filter, amplifier, mixer, oscillator, and digital-to-analog convertor (DAC). , analog-to-digital convertor (ADC), etc.

또한, 통신 인터페이스는 복수의 송수신 경로를 포함할 수 있다. 또한, 통신 인터페이스는 복수의 안테나 요소를 포함하는 적어도 하나의 안테나 어레이를 포함할 수 있다. 하드웨어 측에서 무선 통신 인터페이스는 디지털 회로 및 아날로그 회로(예를 들어, radio frequency integrated circuit, RFIC)를 포함할 수 있다. 디지털 회로는 적어도 하나의 프로세서(예: DSP)로 구현될 수 있다. 통신 인터페이스는 복수의 RF 체인을 포함할 수 있다. 통신 인터페이스는 빔포밍을 수행할 수 있다.Additionally, the communication interface may include multiple transmission and reception paths. Additionally, the communication interface may include at least one antenna array including a plurality of antenna elements. On the hardware side, the wireless communication interface may include digital circuits and analog circuits (eg, radio frequency integrated circuit, RFIC). A digital circuit may be implemented with at least one processor (e.g., DSP). The communication interface may include multiple RF chains. The communication interface may perform beamforming.

통신 인터페이스는 전술한 바와 같이 신호를 송수신한다. 따라서, 통신 인터페이스는 "송신기(transmitter)", "수신기(receiver)"또는 "트랜시버(transceiver)"로 지칭될 수 있다. 또한, 이하의 설명에서 무선 채널을 통해 수행되는 송수신은 전술한 바와 같이 통신 인터페이스에서 수행되는 처리를 포함하는 의미로 사용될 수 있다.The communication interface transmits and receives signals as described above. Accordingly, a communication interface may be referred to as a “transmitter,” “receiver,” or “transceiver.” Additionally, in the following description, transmission and reception performed through a wireless channel may be used to include processing performed in the communication interface as described above.

저장부는 단말기의 동작을 위한 기본 프로그램, 어플리케이션, 설정 정보 등의 데이터를 저장한다. 저장부는 휘발성 메모리, 비 휘발성 메모리 또는 휘발성 메모리와 비 휘발성 메모리의 조합을 포함할 수 있다. 또한, 저장부는 컨트롤러의 요청에 따라 저장된 데이터를 제공한다.The storage unit stores data such as basic programs, applications, and setting information for the operation of the terminal. The storage unit may include volatile memory, non-volatile memory, or a combination of volatile memory and non-volatile memory. Additionally, the storage unit provides stored data upon request from the controller.

컨트롤러는 단말의 전반적인 동작을 제어한다. 예를 들어, 컨트롤러는 통신 인터페이스를 통해 신호를 송수신한다. 또한 컨트롤러는 저장부에 데이터를 기록하고 기록된 데이터를 읽는다. 컨트롤러는 통신 규격에서 요구하는 프로토콜 스택의 기능을 수행할 수 있다. 다른 구현에 따르면, 프로토콜 스택은 통신 인터페이스에 포함될 수 있다. 이를 위해, 컨트롤러는 적어도 하나의 프로세서 또는 마이크로 프로세서를 포함하거나 프로세서의 일부를 재생할 수 있다. 또한, 통신 인터페이스 또는 컨트롤러의 일부를 통신 프로세서(communication processor, CP)라고 할 수 있다.The controller controls the overall operation of the terminal. For example, a controller sends and receives signals through a communication interface. Additionally, the controller records data in the storage and reads the recorded data. The controller can perform the protocol stack functions required by communication standards. According to another implementation, a protocol stack may be included in the communication interface. For this purpose, the controller may comprise at least one processor or microprocessor or may reproduce part of a processor. Additionally, a part of the communication interface or controller may be referred to as a communication processor (CP).

본 발명의 일 실시 예에 따르면, 컨트롤러는 본 발명의 실시 예에 따른 동작을 수행하도록 단말을 제어할 수 있다.According to an embodiment of the present invention, a controller can control a terminal to perform an operation according to an embodiment of the present invention.

이하에서는 무선 통신 시스템에서 통신 인터페이스를 예시한다. Below, a communication interface in a wireless communication system is illustrated.

통신 인터페이스는 압축 및 변조 회로, 디지털 빔포밍 회로, 복수의 전송 경로 및 아날로그 빔포밍 회로를 포함한다.The communication interface includes compression and modulation circuitry, digital beamforming circuitry, multiple transmission paths, and analog beamforming circuitry.

압축 및 변조 회로는 채널 압축을 수행한다. 채널 압축을 위해 low-density parity check(LDPC) 코드, 컨볼루션 코드 및 폴라 코드 중 적어도 하나가 사용될 수 있다. 압축 및 변조 회로는 성상 매핑(constellation mapping)을 수행함으로써 변조 심볼을 생성한다.Compression and modulation circuitry performs channel compression. At least one of a low-density parity check (LDPC) code, a convolutional code, and a polar code may be used for channel compression. The compression and modulation circuit generates modulation symbols by performing constellation mapping.

디지털 빔포밍 회로는 디지털 신호(예를 들어, 변조 심볼)에 대한 빔 형성을 수행한다. 이를 위해, 디지털 빔포밍 회로는 빔포밍 가중 값에 의해 변조 심볼을 다중화한다. 빔포밍 가중치는 신호의 크기 및 문구를 변경하는데 사용될 수 있으며, "프리코딩 매트릭스(precoding matrix)"또는 "프리코더(precoder)"라고 할 수 있다. 디지털 빔포밍 회로는 디지털 빔포밍된 변조 심볼을 복수의 전송 경로로 출력한다. 이때, 다중 안테나 기술(multiple input multiple output, MIMO) 전송 방식에 따라 변조 심볼이 다중화 되거나 동일한 변조 심볼이 복수의 전송 경로에 제공될 수 있다.A digital beamforming circuit performs beam forming on digital signals (eg, modulation symbols). For this purpose, the digital beamforming circuit multiplexes the modulation symbols by beamforming weight values. Beamforming weights can be used to change the size and wording of the signal and may be referred to as a “precoding matrix” or “precoder.” The digital beamforming circuit outputs digital beamformed modulation symbols through a plurality of transmission paths. At this time, depending on the multiple input multiple output (MIMO) transmission method, modulation symbols may be multiplexed or the same modulation symbol may be provided to multiple transmission paths.

복수의 전송 경로는 디지털 빔포밍된 디지털 신호를 아날로그 신호로 변환한다. 이를 위해, 복수의 전송 경로 각각은 인버스 고속 푸리에 변환(inverse fast fourier transform, IFFT) 계산 유닛, 순환 전치(cyclic prefix, CP) 삽입 유닛, DAC 및 상향 변환 유닛을 포함할 수 있다. CP 삽입 부는 직교 주파수 분할 다중화(orthogonal frequency division multiplexing, OFDM) 방식을 위한 것으로 다른 물리 계층 방식(예: 필터 뱅크 다중 반송파(a filter bank multi-carrier): FBMC) 적용시 생략될 수 있다. 즉, 복수의 전송 경로는 디지털 빔포밍을 통해 생성된 복수의 스트림에 대해 독립적인 신호 처리 프로세스를 제공한다. 그러나, 구현에 따라 복수의 전송 경로의 일부 요소는 공통적으로 사용될 수 있다.A plurality of transmission paths convert digital beamformed digital signals into analog signals. To this end, each of the plurality of transmission paths may include an inverse fast Fourier transform (IFFT) calculation unit, a cyclic prefix (CP) insertion unit, a DAC, and an upconversion unit. The CP insertion unit is for the orthogonal frequency division multiplexing (OFDM) method and can be omitted when applying another physical layer method (e.g., a filter bank multi-carrier (FBMC)). That is, multiple transmission paths provide independent signal processing processes for multiple streams generated through digital beamforming. However, depending on the implementation, some elements of multiple transmission paths may be commonly used.

아날로그 빔포밍 회로는 아날로그 신호에 대한 빔포밍을 수행한다. 이를 위해, 디지털 빔포밍 회로는 빔포밍 가중 값에 의해 아날로그 신호를 다중화한다. 빔포밍된 가중치는 신호의 크기와 문구를 변경하는데 사용된다. 보다 구체적으로, 복수의 전송 경로와 안테나 사이의 연결 구조에 따라, 아날로그 빔포밍 회로는 다양한 방식으로 구성될 수 있다. 예를 들어, 복수의 전송 경로 각각은 하나의 안테나 어레이에 연결될 수 있다. 다른 예에서, 복수의 전송 경로는 하나의 안테나 어레이에 연결될 수 있다. 또 다른 예에서, 복수의 전송 경로는 하나의 안테나 어레이에 적응적으로 연결될 수 있거나 2개 이상의 안테나 어레이에 연결될 수 있다.The analog beamforming circuit performs beamforming on analog signals. For this purpose, the digital beamforming circuit multiplexes the analog signal by beamforming weighting values. Beamformed weights are used to change the size and wording of the signal. More specifically, depending on the connection structure between a plurality of transmission paths and antennas, the analog beamforming circuit can be configured in various ways. For example, each of the plurality of transmission paths may be connected to one antenna array. In another example, multiple transmission paths may be connected to one antenna array. In another example, multiple transmission paths may be adaptively connected to one antenna array or may be connected to two or more antenna arrays.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of the method or algorithm described in connection with embodiments of the present invention may be implemented directly in hardware, implemented as a software module executed by hardware, or a combination thereof. The software module may be RAM (Random Access Memory), ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), Flash Memory, hard disk, removable disk, CD-ROM, or It may reside on any type of computer-readable recording medium well known in the art to which the present invention pertains.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.Above, embodiments of the present invention have been described with reference to the attached drawings, but those skilled in the art will understand that the present invention can be implemented in other specific forms without changing its technical idea or essential features. You will be able to understand it. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive.

Claims (8)

포토 스튜디오 운영 서버에서, 촬영룸 서버로부터 디스플레이를 통해 출력한 적어도 하나 이상의 촬영 컨셉명 중 사용자가 선택한 촬영 컨셉명을 수신하는 촬영 컨셉 수신 단계;
상기 포토 스튜디오 운영 서버에서, 컨셉 맵핑 테이블을 이용하여, 상기 수신한 촬영 컨셉명에 해당하는 카메라 파라미터와 조명 기기의 빛 색상 및 조도 정보를 포함하는 컨셉 데이터를 추출하는 컨셉 데이터 추출 단계; 및
상기 포토 스튜디오 운영 서버에서, 상기 추출한 컨셉 데이터를 상기 촬영룸 서버로 전송하여 촬영룸에 구비되는 카메라, 조명 기기, 또는 이들의 조합을 제어하도록 하는 제어 신호 생성 단계;를 포함하며,
상기 제어 신호 생성 단계는,
상기 사용자가 구비한 사용자 단말로부터 적어도 하나 이상의 테스트 사진을 수신하고,
상기 적어도 하나 이상의 테스트 사진으로부터 카메라 파라미터를 각각 예측하며,
상기 예측한 카메라 파라미터를 상기 추출한 컨셉 데이터의 카메라 파라미터와 각각 비교하고,
상기 비교한 결과, 상기 예측한 카메라 파라미터 중, 상기 추출한 컨셉 데이터의 카메라 파라미터와 가장 유사한 것을 최종 카메라 파라미터로 결정하며,
상기 결정한 최종 카메라 파라미터와 상기 추출한 조명 기기의 빛 색상 및 조도 정보를 상기 촬영룸 서버로 전송하여, 상기 촬영룸에 구비된 상기 카메라, 조명 기기 또는 이들의 조합을 제어하도록 하는 것을 더 포함하며,
상기 테스트 사진은, 상기 사용자가 이전에 촬영한 사진, 연예인 사진, 혹은 사진 전문가가 촬영한 인물 사진 중 어느 하나를 포함하며,
상기 컨셉 맵핑 테이블은, 상기 촬영 컨셉명에 따라 카메라 파라미터와 조명 기기의 빛 색상 및 조도 정보를 맵핑한 것을 특징으로 하는 포토 스튜디오 운영 방법.
A shooting concept reception step of receiving, at the photo studio operation server, a shooting concept name selected by the user among at least one shooting concept name output through a display from the shooting room server;
A concept data extraction step of extracting concept data including camera parameters corresponding to the received shooting concept name and light color and illuminance information of a lighting device from the photo studio operation server using a concept mapping table; and
A control signal generation step of transmitting the extracted concept data from the photo studio operation server to the shooting room server to control cameras, lighting equipment, or a combination thereof provided in the shooting room;
The control signal generation step is,
Receiving at least one test photo from a user terminal provided by the user,
Predict each camera parameter from the at least one test photo,
Compare the predicted camera parameters with the camera parameters of the extracted concept data, respectively,
As a result of the comparison, among the predicted camera parameters, the one most similar to the camera parameter of the extracted concept data is determined as the final camera parameter,
Transmitting the determined final camera parameters and the extracted light color and illuminance information of the lighting device to the shooting room server to control the camera, lighting device, or combination thereof provided in the shooting room,
The test photo includes any one of a photo previously taken by the user, a photo of a celebrity, or a portrait taken by a photography expert,
The concept mapping table is a photo studio operation method, characterized in that camera parameters and light color and illuminance information of lighting equipment are mapped according to the shooting concept name.
삭제delete 삭제delete 삭제delete 청구항 1에 따른 포토 스튜디오 운영 방법을 실행시키기 위한 프로그램이 기록되고, 컴퓨터에 의해 읽혀질 수 있는, 비일시적 기록매체.A non-transitory recording medium on which a program for executing the photo studio operating method according to claim 1 is recorded and which can be read by a computer. 청구항 1에 따른 포토 스튜디오 운영 방법을 실행시키기 위한 적어도 하나의 프로세서(processor); 및
상기 포토 스튜디오 운영 방법을 실행하기 위한 컴퓨터 프로그램을 저장하는 메모리(memory);를 포함하는 것을 특징으로 하는 포토 스튜디오 운영 서버.
At least one processor for executing the photo studio operating method according to claim 1; and
A photo studio operation server comprising a memory that stores a computer program for executing the photo studio operation method.
삭제delete 포토 스튜디오 운영 시스템으로서,
촬영룸에 구비된 카메라;
상기 촬영룸에 구비된 조명 기기;
상기 카메라의 카메라 파라미터와 상기 조명 기기의 빛 색상 및 조도 정보에 기초하여 상기 카메라, 조명 기기 또는 이들의 조합을 제어하도록 하는 상기 촬영룸에 구비된 촬영룸 서버; 및
상기 촬영룸 서버로 상기 카메라 파라미터와 상기 조명 기기의 빛 색상 및 조도 정보를 전송하는 포토 스튜디오 운영 서버;를 포함하고,
상기 포토 스튜디오 운영 서버는,
적어도 하나의 프로세서(processor); 및
상기 적어도 하나의 프로세서가 적어도 하나의 동작(operation)을 수행하도록 지시하는 명령어들(instructions)을 저장하는 메모리(memory)를 포함하고,
상기 적어도 하나의 동작은,
촬영룸 서버로부터 디스플레이를 통해 출력한 적어도 하나 이상의 촬영 컨셉명 중 사용자가 선택한 촬영 컨셉명을 수신하는 촬영 컨셉 수신 단계;
상기 포토 스튜디오 운영 서버에서, 컨셉 맵핑 테이블을 이용하여, 상기 수신한 촬영 컨셉명에 해당하는 카메라 파라미터와 조명 기기의 빛 색상 및 조도 정보를 포함하는 컨셉 데이터를 추출하는 컨셉 데이터 추출 단계; 및
상기 포토 스튜디오 운영 서버에서, 상기 추출한 컨셉 데이터를 상기 촬영룸 서버로 전송하여 촬영룸에 구비되는 카메라, 조명 기기, 또는 이들의 조합을 제어하도록 하는 제어 신호 생성 단계;를 포함하며,
상기 제어 신호 생성 단계는,
상기 사용자가 구비한 사용자 단말로부터 적어도 하나 이상의 테스트 사진을 수신하고,
상기 적어도 하나 이상의 테스트 사진으로부터 카메라 파라미터를 각각 예측하며,
상기 예측한 카메라 파라미터를 상기 추출한 컨셉 데이터의 카메라 파라미터와 각각 비교하고,
상기 비교한 결과, 상기 예측한 카메라 파라미터 중, 상기 추출한 컨셉 데이터의 카메라 파라미터와 가장 유사한 것을 최종 카메라 파라미터로 결정하며,
상기 결정한 최종 카메라 파라미터와 상기 추출한 조명 기기의 빛 색상 및 조도 정보를 상기 촬영룸 서버로 전송하여, 상기 촬영룸에 구비된 상기 카메라, 조명 기기 또는 이들의 조합을 제어하도록 하는 것을 더 포함하며,
상기 테스트 사진은, 상기 사용자가 이전에 촬영한 사진, 연예인 사진, 혹은 사진 전문가가 촬영한 인물 사진 중 어느 하나를 포함하며,
상기 컨셉 맵핑 테이블은, 상기 촬영 컨셉명에 따라 카메라 파라미터와 조명 기기의 빛 색상 및 조도 정보를 맵핑한 것을 특징으로 하는 포토 스튜디오 운영 시스템.
As a photo studio operating system,
Cameras provided in the filming room;
Lighting equipment provided in the filming room;
a shooting room server provided in the shooting room that controls the camera, lighting devices, or a combination thereof based on camera parameters of the camera and light color and illuminance information of the lighting device; and
It includes a photo studio operation server that transmits the camera parameters and the light color and illuminance information of the lighting device to the shooting room server,
The photo studio operating server is,
at least one processor; and
Includes a memory that stores instructions that instruct the at least one processor to perform at least one operation,
The at least one operation is,
A shooting concept receiving step of receiving a shooting concept name selected by the user among at least one shooting concept name output from the shooting room server through a display;
A concept data extraction step of extracting concept data including camera parameters corresponding to the received shooting concept name and light color and illuminance information of a lighting device from the photo studio operation server using a concept mapping table; and
A control signal generation step of transmitting the extracted concept data from the photo studio operation server to the shooting room server to control cameras, lighting equipment, or a combination thereof provided in the shooting room;
The control signal generation step is,
Receiving at least one test photo from a user terminal provided by the user,
Predict each camera parameter from the at least one test photo,
Compare the predicted camera parameters with the camera parameters of the extracted concept data, respectively,
As a result of the comparison, among the predicted camera parameters, the one most similar to the camera parameter of the extracted concept data is determined as the final camera parameter,
Transmitting the determined final camera parameters and the extracted light color and illuminance information of the lighting device to the shooting room server to control the camera, lighting device, or combination thereof provided in the shooting room,
The test photo includes any one of a photo previously taken by the user, a photo of a celebrity, or a portrait taken by a photography expert,
The concept mapping table is a photo studio operating system characterized in that camera parameters and light color and illuminance information of lighting equipment are mapped according to the shooting concept name.
KR1020220046322A 2021-06-16 2022-04-14 The method and system for operating photo studio KR102632129B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220046322A KR102632129B1 (en) 2021-06-16 2022-04-14 The method and system for operating photo studio

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20210078179 2021-06-16
KR20210078576 2021-06-17
KR1020210079378A KR102388317B1 (en) 2021-06-16 2021-06-18 The method and system for operating photo studio
KR1020220046322A KR102632129B1 (en) 2021-06-16 2022-04-14 The method and system for operating photo studio

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020210079378A Division KR102388317B1 (en) 2021-06-16 2021-06-18 The method and system for operating photo studio

Publications (2)

Publication Number Publication Date
KR20220169385A KR20220169385A (en) 2022-12-27
KR102632129B1 true KR102632129B1 (en) 2024-02-01

Family

ID=81397240

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210079378A KR102388317B1 (en) 2021-06-16 2021-06-18 The method and system for operating photo studio
KR1020220046322A KR102632129B1 (en) 2021-06-16 2022-04-14 The method and system for operating photo studio

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020210079378A KR102388317B1 (en) 2021-06-16 2021-06-18 The method and system for operating photo studio

Country Status (1)

Country Link
KR (2) KR102388317B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015198300A (en) * 2014-03-31 2015-11-09 キヤノン株式会社 Information processor, imaging apparatus, and image management system
KR102151964B1 (en) * 2019-06-26 2020-09-04 김성일 Product photograph service providing method for product detailed information content

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100921337B1 (en) * 2008-02-14 2009-10-13 박우성 System and Method for Servicing Image Contents
KR102102921B1 (en) * 2017-08-18 2020-04-22 김현옥 Portable Photo Studio
KR20200053879A (en) * 2018-11-09 2020-05-19 주식회사 코난테크놀로지 Apparatus and method for simultaneous control of heterogeneous cameras, and camera control client
KR102193933B1 (en) * 2019-01-23 2020-12-22 엄기창 Apparatus for providing interior business matching service based on 3d vr portfolio and method thereof
KR102218348B1 (en) * 2019-02-11 2021-02-22 (주)텔트론 Smart lighting control system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015198300A (en) * 2014-03-31 2015-11-09 キヤノン株式会社 Information processor, imaging apparatus, and image management system
KR102151964B1 (en) * 2019-06-26 2020-09-04 김성일 Product photograph service providing method for product detailed information content

Also Published As

Publication number Publication date
KR20220169385A (en) 2022-12-27
KR102388317B1 (en) 2022-04-20

Similar Documents

Publication Publication Date Title
CN110176226B (en) Speech recognition and speech recognition model training method and device
KR102616384B1 (en) Apparatus and method for generating a picture frame based on images taken through a shooting room kiosk
CN111666119A (en) UI component display method and electronic equipment
CN111696532B (en) Speech recognition method, device, electronic equipment and storage medium
WO2021057537A1 (en) Jamming prediction method, data processing method, and related apparatus
CN113170011A (en) Method for presenting video by electronic equipment in incoming call and electronic equipment
CN111563466A (en) Face detection method and related product
CN105100619A (en) Apparatus and method for adjusting shooting parameters
WO2022267468A1 (en) Sound processing method and apparatus thereof
CN113794796A (en) Screen projection method and electronic equipment
KR102632129B1 (en) The method and system for operating photo studio
US20230154500A1 (en) Electronic device, and method of synchronizing video data and audio data by using same
CN112036492B (en) Sample set processing method, device, equipment and storage medium
CN106534557B (en) A kind of the wallpaper switching system and method for display terminal
KR102572083B1 (en) The method and system for operating photo studio supporting camera parameter prediction model based on artificial neural network
CN114650330A (en) Method, electronic equipment and system for adding operation sequence
CN113052198A (en) Data processing method, device, equipment and storage medium
KR102476292B1 (en) System for processing pedal box photographing image data of a vehicle using artificial intelligence
KR102569419B1 (en) Augmented reality-based performance content providing device that supports a technology for correcting a visual difference according to a user's viewing position and performing method thereof
CN114172868B (en) Data transmission method, device and storage medium
US20210360425A1 (en) Detecting indoor/outdoor status of mobile communication devices
CN114726746A (en) SLA performance prediction method and related device and equipment
CN106412460B (en) A kind of image processing method and equipment
KR102315211B1 (en) Mobile and operating method thereof
US20230359352A1 (en) Method for providing clipboard function, and electronic device supporting same

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant