KR102388317B1 - The method and system for operating photo studio - Google Patents

The method and system for operating photo studio Download PDF

Info

Publication number
KR102388317B1
KR102388317B1 KR1020210079378A KR20210079378A KR102388317B1 KR 102388317 B1 KR102388317 B1 KR 102388317B1 KR 1020210079378 A KR1020210079378 A KR 1020210079378A KR 20210079378 A KR20210079378 A KR 20210079378A KR 102388317 B1 KR102388317 B1 KR 102388317B1
Authority
KR
South Korea
Prior art keywords
camera
user
control signal
concept
shooting
Prior art date
Application number
KR1020210079378A
Other languages
Korean (ko)
Inventor
이호익
김수빈
이주영
최민혁
이수안
이현민
강윤정
Original Assignee
주식회사 엘케이벤쳐스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘케이벤쳐스 filed Critical 주식회사 엘케이벤쳐스
Priority to KR1020220046320A priority Critical patent/KR102572083B1/en
Priority to KR1020220046322A priority patent/KR102632129B1/en
Application granted granted Critical
Publication of KR102388317B1 publication Critical patent/KR102388317B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06315Needs-based resource requirements planning or analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • H04N5/23206
    • H04N5/23218

Abstract

A photo studio operating method and a system thereof are disclosed. Embodiments relate to the photo studio operating method and the system thereof. Specifically, the method and the system thereof control a lamp, music and a camera of a photographing room according to a photographing concept selected by a user, analyze behavior of the user to control the lamp of the photographing room, and set an optimum camera parameter that the user wants from a test picture of the user based on machine learning.

Description

포토 스튜디오 운영 방법 및 시스템{THE METHOD AND SYSTEM FOR OPERATING PHOTO STUDIO}Photo studio operation method and system {THE METHOD AND SYSTEM FOR OPERATING PHOTO STUDIO}

아래 실시예들은 포토 스튜디오 운영 방법 및 시스템에 관한 것으로, 구체적으로 사용자가 선택한 촬영 컨셉에 따라 촬영룸의 조명, 음악 및 카메라를 제어하고, 사용자의 행동을 분석하여 촬영룸의 조명을 제어하며, 머신러닝을 기반으로 사용자의 테스트 사진으로부터 사용자가 원하는 최적의 카메라 파라미터를 설정하는 방법 및 그 시스템에 관한 것이다.The following embodiments relate to a photo studio operating method and system, specifically, according to the shooting concept selected by the user, controlling the lighting, music and camera of the shooting room, analyzing the user's behavior to control the lighting of the shooting room, To a method and system for setting an optimal camera parameter desired by a user from a user's test photo based on running.

일반적인 사진 촬영은 빛에 의한 영향을 받는 예민한 작업 중 하나이다. 이에 따라, 백일 사진, 돌사진, 결혼사진과 같은 기념사진을 비롯하여, 특정 피사체에 대한 정확한 정보를 제공할 수 있는 광고 사진들이 전문 사진기사들에 의해 촬영되고 있다.General photography is one of the sensitive tasks that is affected by light. Accordingly, advertisement photos that can provide accurate information about a specific subject, including commemorative photos such as 100 days photo, stone photo, and wedding photo, are being taken by professional photographers.

한편, 사진 촬영은 빛에 의한 간섭을 조절하면서 촬영할 수 있는 기술이 요구됨에 따라, 빛의 조절이 용이한 밀폐된 스튜디오 내에서 촬영이 요구된다. 이러한 스튜디오는 피사체에 대한 적절한 높이, 거리를 유지하는 정적 위치에서 빛을 조절할 수 있도록, 작업자의 접근성이 요구된다.On the other hand, as photography is required to be able to shoot while controlling interference caused by light, it is required to shoot in a closed studio where light control is easy. These studios require operator accessibility to adjust the light in a static position that maintains an appropriate height and distance from the subject.

이에 따라, 근래에는 작업자의 촬영 접근성을 향상시키기 위한 다양한 스튜디오 환경에 대한 간편하게 제공하기 위한 연구가 지속적으로 이루어지고 있는 추세이다.Accordingly, in recent years, research has been continuously conducted to conveniently provide various studio environments in order to improve the shooting accessibility of workers.

과거 기념 사진 앨범의 제작은 포토 스튜디오에서 촬영하여 자체적으로 완료되어 소비자(사용자)에게 제공하는 방식으로 이뤄졌다. 그러나 인터넷의 보급과 디지털 기술의 발전에 의해 포토 스튜디오에서 사용자가 직접 사진을 촬영하고 앨범 제작을 의뢰하면, 포토 스튜디오의 웹 사이트 혹은 웹 하드를 이용해서 앨범에 사용될 사진 파일을 열람하도록 하고, 또한 그 디지털 파일을 다운로드 받을 수 있도록 서비스가 개선되었다.In the past, the production of commemorative photo albums was completed in a photo studio, completed by itself, and provided to consumers (users). However, due to the spread of the Internet and the development of digital technology, when a user takes a photo in a photo studio and requests for album production, the photo file to be used in the album is read using the photo studio's website or web hard drive, and also The service has been improved so that digital files can be downloaded.

그러나 사용자가 원하는 사진을 찍기 위해 직접 피사체 또는 촬영 환경의 조명이나 카메라의 다양한 파라미터를 설정하는 것은 쉽지 않은 작업이기 때문에, 사용자가 직접 촬영하면 전문 사진기사가 촬영하는 것과 같은 높은 퀄리티의 사진을 얻지 못하는 경우가 대다수이다.However, it is not an easy task to set various parameters of the camera or the lighting of the subject or shooting environment to take the desired picture. In most cases,

따라서 사진에 대한 전문지식이 없더라도 사용자가 원하는 조명, 분위기의 높은 퀄리티의 사진을 촬영할 수 있는 다양한 방안들이 요구되고 있다.Therefore, various methods are required to take high-quality photos with the lighting and atmosphere that users want, even if they do not have professional knowledge about photography.

이 배경기술 부분에 기재된 사항은 발명의 배경에 대한 이해를 증진하기 위하여 작성된 것으로써, 이 기술이 속하는 분야에서 통상의 지식을 가진 자에게 이미 알려진 종래기술이 아닌 사항을 포함할 수 있다.Matters described in this background section are prepared to promote understanding of the background of the invention, and may include matters not already known to those of ordinary skill in the art to which this technology belongs.

아래 실시예들은 전술한 문제점을 해결하기 위하여 안출된 것으로서, 사용자가 선택한 촬영 컨셉에 따라 촬영룸의 조명, 음악 및 카메라를 제어하고, 사용자의 행동을 분석하여 촬영룸의 조명을 제어하며, 머신러닝을 기반으로 사용자의 테스트 사진으로부터 사용자가 원하는 최적의 카메라 파라미터를 설정하는 포토 스튜디오 운영 방법 및 시스템을 도출하는 것을 목적으로 한다.The following embodiments have been devised to solve the above problems, and according to the shooting concept selected by the user, the lighting, music and camera of the shooting room are controlled, the lighting of the shooting room is controlled by analyzing the user's behavior, and machine learning The purpose of this is to derive a photo studio operating method and system that sets the optimal camera parameters desired by the user from the user's test photos based on

일 실시예가 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Problems to be solved by one embodiment are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 목적을 달성하기 위한 일 실시예는 포토 스튜디오 운영 서버의 동작 방법으로, 촬영룸 서버로부터 사용자가 선택한 촬영 컨셉을 수신하는 단계; 컨셉 맵핑 테이블을 이용하여, 상기 사용자가 선택한 촬영 컨셉에 해당하는 컨셉 데이터를 추출하는 단계; 상기 컨셉 데이터를 이용하여, 조명 기기, 스피커 및 카메라 중 적어도 하나의 제어 신호를 포함하는 기기 제어 신호를 생성하는 단계; 및 상기 기기 제어 신호를 상기 촬영룸 서버로 전송하여, 상기 조명, 스피커 및 카메라 중 적어도 하나를 제어하는 단계를 포함하고, 상기 컨셉 데이터는 상기 사용자가 선택한 촬영 컨셉에 해당하는 음악, 배경 이미지, 상기 조명 기기의 빛 색상, 상기 조명 기기의 조도 정보, 카메라 파라미터 중 적어도 하나를 포함하는 포토 스튜디오 운영 서버의 동작 방법을 제공한다,One embodiment for achieving the above object is an operating method of a photo studio operation server, comprising: receiving a photographing concept selected by a user from a photographing room server; extracting concept data corresponding to the shooting concept selected by the user by using the concept mapping table; generating a device control signal including a control signal of at least one of a lighting device, a speaker, and a camera by using the concept data; and transmitting the device control signal to the shooting room server to control at least one of the lighting, a speaker, and a camera, wherein the concept data includes music corresponding to the shooting concept selected by the user, a background image, and the It provides an operating method of a photo studio operation server including at least one of a light color of a lighting device, illuminance information of the lighting device, and a camera parameter,

일 실시예는 기 설정된 판단 주기가 도래하면 상기 판단 주기 도래 시점을 기준으로 복수의 패턴 주기 각각의 이전까지의 사용자 행동에 따른 감지 신호를 상기 복수의 패턴 주기 각각을 기준으로 분석해, 상기 복수의 패턴 주기 각각에 대한 행동 패턴을 추출하는 단계; 상기 복수의 패턴 주기 각각의 행동 패턴을 상기 복수의 패턴 주기 각각 별로 구비된 적어도 하나의 표준 행동 패턴과 비교하여 상기 사용자의 행동을 판단하는 단계; 및 상기 판단된 사용자의 행동에 따라, 상기 조명 기기의 제어 신호를 포함하는 상기 기기 제어 신호를 생성하는 단계를 더 포함하고, 상기 분석은 복수의 패턴 주기 각각을 기준으로 시간 속성을 고려한 3면 분석을 포함하고, 상기 3면 분석은 상기 복수의 패턴 주기에 따른 움직임량 제 1면을 포함하고, 상기 복수의 패턴 주기에 따른 음향량 제 2면을 포함하고, 상기 음향량에 따른 상기 움직임량 제 3면을 포함한다.In one embodiment, when a preset determination period arrives, a detection signal according to a user action prior to each of a plurality of pattern periods is analyzed based on each of the plurality of pattern periods based on the arrival time of the determination period, and the plurality of patterns extracting a behavior pattern for each cycle; determining the behavior of the user by comparing the behavior pattern of each of the plurality of pattern periods with at least one standard behavior pattern provided for each of the plurality of pattern periods; and generating the device control signal including the control signal of the lighting device according to the determined user action, wherein the analysis is a three-sided analysis in consideration of time attributes based on each of a plurality of pattern periods Including, wherein the three-sided analysis includes a first surface of the amount of motion according to the plurality of pattern periods, and a second surface of the amount of sound according to the plurality of pattern periods, and the second surface of the amount of movement according to the sound amount Includes 3 sides.

일 실시예는 상기 사용자로부터 테스트 사진을 수신하는 단계; 상기 테스트 사진을 파라미터 예측 모델에 입력하여, 상기 카메라 파라미터를 예측하는 단계; 및 상기 예측된 카메라 파라미터를 이용하여, 상기 카메라의 제어 신호를 포함하는 상기 기기 제어 신호를 생성하는 단계를 더 포함한다.In one embodiment, receiving a test picture from the user; predicting the camera parameters by inputting the test picture into a parameter prediction model; and generating the device control signal including a control signal of the camera by using the predicted camera parameter.

일 실시예는 상기 예측된 카메라 파라미터가 복수개인 경우, 상기 사용자가 선택한 촬영 컨셉의 카메라 파라미터와 비교하여 최종 카메라 파라미터를 결정하고, 상기 최종 카메라 파라미터를 이용하여 상기 카메라의 제어 신호를 포함하는 상기 기기 제어 신호를 생성하는 단계를 더 포함한다.In one embodiment, when there are a plurality of predicted camera parameters, the device determines a final camera parameter by comparing it with a camera parameter of a shooting concept selected by the user, and includes a control signal of the camera using the final camera parameter The method further comprises generating a control signal.

일 실시예는 적어도 하나의 프로세서(processor); 및 상기 적어도 하나의 프로세서가 적어도 하나의 동작(operation)을 수행하도록 지시하는 명령어들(instuctions)을 저장하는 메모리(memory)를 포함하는, 포토 스튜디어 운영 서버로서, 상기 적어도 하나의 동작은, 촬영룸 서버로부터 사용자가 선택한 촬영 컨셉을 수신하는 단계; 컨셉 맵핑 테이블을 이용하여, 상기 사용자가 선택한 촬영 컨셉에 해당하는 컨셉 데이터를 추출하는 단계; 상기 컨셉 데이터를 이용하여, 조명 기기, 스피커 및 카메라 중 적어도 하나의 제어 신호를 포함하는 기기 제어 신호를 생성하는 단계; 및 상기 기기 제어 신호를 상기 촬영룸 서버로 전송하여, 상기 조명, 스피커 및 카메라 중 적어도 하나를 제어하는 단계를 포함하고, 상기 컨셉 데이터는 상기 사용자가 선택한 촬영 컨셉에 해당하는 음악, 배경 이미지, 상기 조명 기기의 빛 색상, 상기 조명 기기의 조도 정보, 카메라 파라미터 중 적어도 하나를 포함하는 포토 스튜디오 운영 서버를 제공한다.One embodiment includes at least one processor; and a memory (memory) for storing instructions instructing the at least one processor to perform at least one operation, as a photo studio operation server, wherein the at least one operation is photographed receiving the shooting concept selected by the user from the room server; extracting concept data corresponding to the shooting concept selected by the user by using the concept mapping table; generating a device control signal including a control signal of at least one of a lighting device, a speaker, and a camera by using the concept data; and transmitting the device control signal to the shooting room server to control at least one of the lighting, a speaker, and a camera, wherein the concept data includes music corresponding to the shooting concept selected by the user, a background image, and the It provides a photo studio operation server including at least one of a light color of a lighting device, illuminance information of the lighting device, and a camera parameter.

일 실시예는, 포토 스튜디오 운영 시스템을 제공한다.One embodiment provides a photo studio operating system.

상기 포토 스튜디오 운영 시스템은, 촬영룸에 구비된 카메라, 스피커, 조명, 및 센서; 기기 제어 신호에 기초하여 상기 카메라, 상기 스피커, 상기 조명, 및 상기 센서를 제어하도록 상기 촬영룸에 구비된 촬영룸 서버; 및 상기 촬영룸 서버에 상기 기기 제어 신호를 전송하는 상기 운영 서버를 포함한다.The photo studio operating system includes: a camera, a speaker, a light, and a sensor provided in a recording room; a photographing room server provided in the photographing room to control the camera, the speaker, the lighting, and the sensor based on a device control signal; and the operation server for transmitting the device control signal to the recording room server.

상기 운영 서버는, 적어도 하나의 프로세서(processor); 및 상기 적어도 하나의 프로세서가 적어도 하나의 동작(operation)을 수행하도록 지시하는 명령어들(instuctions)을 저장하는 메모리(memory)를 포함한다.The operation server, at least one processor (processor); and a memory for storing instructions instructing the at least one processor to perform at least one operation.

상기 적어도 하나의 동작은, 촬영룸 서버로부터 사용자가 선택한 촬영 컨셉을 수신하는 단계; 컨셉 맵핑 테이블을 이용하여, 상기 사용자가 선택한 촬영 컨셉에 해당하는 컨셉 데이터를 추출하는 단계; 상기 컨셉 데이터를 이용하여, 조명 기기, 스피커 및 카메라 중 적어도 하나의 제어 신호를 포함하는 기기 제어 신호를 생성하는 단계; 및 상기 기기 제어 신호를 상기 촬영룸 서버로 전송하여, 상기 조명, 스피커 및 카메라 중 적어도 하나를 제어하는 단계를 포함한다.The at least one operation may include: receiving a shooting concept selected by a user from a shooting room server; extracting concept data corresponding to the shooting concept selected by the user by using the concept mapping table; generating a device control signal including a control signal of at least one of a lighting device, a speaker, and a camera by using the concept data; and transmitting the device control signal to the recording room server to control at least one of the lighting, a speaker, and a camera.

상기 컨셉 데이터는, 상기 사용자가 선택한 촬영 컨셉에 해당하는 음악, 배경 이미지, 상기 조명 기기의 빛 색상, 상기 조명 기기의 조도 정보, 카메라 파라미터 중 적어도 하나를 포함한다.The concept data includes at least one of music corresponding to the shooting concept selected by the user, a background image, a light color of the lighting device, illuminance information of the lighting device, and camera parameters.

이상에서 설명한 바와 같은 일 실시예들에 따르면, 사용자가 선택한 촬영 컨셉에 따라 촬영룸의 조명, 음악 및 카메라를 제어하여, 사용자가 원하는 컨셉에 따라 사진을 촬영할 수 있는 환경을 제공할 수 있다.According to the exemplary embodiments as described above, it is possible to provide an environment in which the user can take a picture according to the desired concept by controlling the lighting, music, and camera of the shooting room according to the shooting concept selected by the user.

그리고, 사용자의 행동을 실시간 감지하여 시간 속성을 고려해 사용자의 행동을 판단함으로써, 시간 변화에 따른 사용자의 다양한 행동에 적합한 촬영룸의 조명 환경을 제공할 수 있다. In addition, by detecting the user's behavior in real time and determining the user's behavior in consideration of the time attribute, it is possible to provide a lighting environment of the shooting room suitable for various behaviors of the user according to time change.

그리고, 사용자 위치의 조도를 고려하여 사용자의 행동에 적합한 촬영룸의 조명 환경을 설정함으로써, 사용자가 원하는 촬영 환경을 제공할 수 있다.In addition, by setting the lighting environment of the photographing room suitable for the user's action in consideration of the illuminance of the user's location, the user's desired photographing environment may be provided.

또한, 머신러닝을 이용하여, 사용자의 테스트 사진으로부터 사용자가 원하는 최적의 카메라 파라미터를 추출하여 촬영룸의 카메라에 적용시킬 수 있다.In addition, by using machine learning, it is possible to extract the optimal camera parameters desired by the user from the user's test photo and apply it to the camera in the shooting room.

일 실시예의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of one embodiment are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 일 실시예에 따른 포토 스튜디오 운영 시스템을 도시한 도면이다.
도 2는 일 실시예에 따른 포토 스튜디오 운영 서버의 구성을 도시한 도면이다.
도 3은 일 실시예에 따른 촬영 컨셉 제어부의 구성을 도시한 도면이다.
도 4는 일 실시예에 따른 촬영 컨셉 테이블의 일례를 도시한 도면이다.
도 5는 일 실시예에 따른 촬영 컨셉 제어 방법의 흐름도이다.
도 6은 일 실시예에 따른 조명 제어부의 구성을 도시한 도면이다.
도 7은 일 실시예에 따른 사용자 행동 분석 방법을 설명하기 위한 도면이다.
도 8 및 도 9는 일 실시예에 따른 행동 패턴 추출부의 3면 분석을 설명하기 위한 도면이다.
도 10은 일 실시예에 따른 조명 제어 방법의 흐름도이다.
도 11은 일 실시예에 따른 파라미터 예측 모델을 설명하기 위한 도면이다.
도 12는 일 실시예에 따른 사용자 단말의 구성을 도시한 도면이다.
도 13은 본 발명의 일 실시예에 따른 통신 과정에서 적용될 수 있는 무선 통신 시스템을 나타낸 도면이다.
도 14은 도 13에 따른 무선 통신 시스템에서 기지국을 나타낸 도면이다.
도 15는 도 13에 따른 무선 통신 시스템에서 단말을 나타낸 도면이다.
도 16은 도 13에 따른 무선 통신 시스템에서 통신 인터페이스를 나타낸 도면이다.
1 is a diagram illustrating a photo studio operating system according to an exemplary embodiment.
2 is a diagram illustrating a configuration of a photo studio operating server according to an exemplary embodiment.
3 is a diagram illustrating a configuration of a photographing concept control unit according to an exemplary embodiment.
4 is a diagram illustrating an example of a photographing concept table according to an embodiment.
5 is a flowchart of a method for controlling a shooting concept according to an exemplary embodiment.
6 is a diagram illustrating a configuration of a lighting control unit according to an embodiment.
7 is a diagram for explaining a user behavior analysis method according to an embodiment.
8 and 9 are diagrams for explaining three-sided analysis of the behavior pattern extractor according to an embodiment.
10 is a flowchart of a lighting control method according to an embodiment.
11 is a diagram for describing a parameter prediction model according to an embodiment.
12 is a diagram illustrating a configuration of a user terminal according to an embodiment.
13 is a diagram illustrating a wireless communication system that can be applied in a communication process according to an embodiment of the present invention.
14 is a diagram illustrating a base station in the wireless communication system according to FIG. 13 .
15 is a diagram illustrating a terminal in the wireless communication system according to FIG. 13 .
16 is a diagram illustrating a communication interface in the wireless communication system according to FIG. 13 .

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present embodiments allow the disclosure of the present invention to be complete, and those of ordinary skill in the art to which the present invention pertains. It is provided to fully understand the scope of the present invention to those skilled in the art, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other components in addition to the stated components. Like reference numerals refer to like elements throughout, and "and/or" includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various elements, these elements are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first component mentioned below may be the second component within the spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein will have the meaning commonly understood by those of ordinary skill in the art to which this invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless specifically defined explicitly.

이하, 첨부된 도면을 참조하여 실시예를 상세하게 설명한다.Hereinafter, an embodiment will be described in detail with reference to the accompanying drawings.

도 1은 일 실시예에 따른 포토 스튜디오 운영 시스템(10)을 도시한 도면이다.1 is a diagram illustrating a photo studio operating system 10 according to an exemplary embodiment.

도 1을 참조하면, 일 실시예에 따른 포토 스튜디오 운영 시스템(10)은 운영 서버(100), 촬영룸 서버(200), 카메라(210), 스피커(220), 조명(230), 센서(240) 및 사용자 단말(300)을 포함할 수 있다.Referring to FIG. 1 , a photo studio operating system 10 according to an embodiment includes an operating server 100 , a shooting room server 200 , a camera 210 , a speaker 220 , a light 230 , and a sensor 240 . ) and the user terminal 300 .

포토 스튜디오 운영 시스템(10) 내에 포함된 다양한 개체들(entities) 간의 통신은 유/무선 네트워크를 통해 수행될 수 있다. 유/무선 네트워크는 표준 통신 기술 및/또는 프로토콜들이 사용될 수 있다.Communication between various entities included in the photo studio operating system 10 may be performed through a wired/wireless network. A wired/wireless network may use standard communication technologies and/or protocols.

포토 스튜디오 운영 시스템(10) 내 운영 서버(100), 촬영룸 서버(200) 및 사용자 단말(300)은 예를 들어, 컴퓨터, UMPC(Ultra Mobile PC), 워크스테이션, 넷북(net-book), PDA(Personal Digital Assistants), 포터블(portable) 컴퓨터, 웹 타블렛(web tablet), 무선 전화기(wireless phone), 모바일 폰(mobile phone), 스마트폰(smart phone), PMP(portable multimedia player) 같은 전자 장치 중 하나로서, 일 실시예와 관련된 어플리케이션의 설치 및 실행이 가능한 모든 전자 장치를 포함할 수 있다. 전자 장치는 어플리케이션의 제어 하에 예를 들어, 서비스 화면의 구성, 데이터 입력, 데이터 송수신, 데이터 저장 등과 같은 서비스 전반의 동작을 수행할 수 있다.In the photo studio operating system 10, the operating server 100, the shooting room server 200, and the user terminal 300 are, for example, a computer, an Ultra Mobile PC (UMPC), a workstation, a net-book, Electronic devices such as personal digital assistants (PDAs), portable computers, web tablets, wireless phones, mobile phones, smart phones, and portable multimedia players (PMPs) As one of them, all electronic devices capable of installing and executing an application related to an embodiment may be included. The electronic device may perform overall service operations such as, for example, configuration of a service screen, data input, data transmission/reception, data storage, and the like, under the control of the application.

운영 서버(100)는 포토 스튜디오 운영과 관련된 다양한 기능을 제공하는 서버이다.The operation server 100 is a server that provides various functions related to operation of the photo studio.

운영 서버(100)는 사용자가 선택한 촬영 컨셉에 따라, 촬영룸의 조명, 음악 및 카메라를 제어할 수 있다.The operation server 100 may control the lighting, music, and camera of the shooting room according to the shooting concept selected by the user.

운영 서버(100)는 사용자의 행동을 분석하여, 사용자 행동 패턴에 따라 촬영룸의 조명을 제어할 수 있다.The operation server 100 may analyze the user's behavior and control the lighting of the shooting room according to the user's behavior pattern.

운영 서버(100)는 머신러닝을 기반으로 사용자의 테스트 사진으로부터 사용자가 원하는 최적의 카메라 파라미터를 설정할 수 있고, 설정된 카메라 파라미터에 따라 카메라(210)를 제어할 수 있다.The operation server 100 may set the optimal camera parameters desired by the user from the user's test photos based on machine learning, and may control the camera 210 according to the set camera parameters.

운영 서버(100)는 촬영룸 서버(200)에 기기 제어 신호를 전송하여, 촬영룸에 구비된 다양한 기기들을 제어할 수 있다.The operation server 100 may transmit a device control signal to the photographing room server 200 to control various devices provided in the photographing room.

운영 서버(100)는 카메라(210)에서 촬영된 촬영 사진을 사용자 단말(300)에 전송할 수 있으며, 사용자 단말(300)로부터 테스트 사진을 수신할 수 있다.The operation server 100 may transmit a photograph taken by the camera 210 to the user terminal 300 , and may receive a test photograph from the user terminal 300 .

운영 서버(100)의 구체적인 구성 및 기능에 대해서는 이하 도 2에서 자세히 설명하도록 한다.A detailed configuration and function of the operation server 100 will be described in detail below with reference to FIG. 2 .

촬영룸 서버(200)는 촬영룸에 구비되어, 사용자에게 사진 촬영에 필요한 다양한 기능들을 제공하는 서버이다.The photographing room server 200 is a server provided in the photographing room to provide users with various functions necessary for photographing.

촬영룸 서버(200)는 운영 서버(100)으로부터 수신된 기기 제어 신호를 이용하여, 촬영룸에 구비된 카메라(210), 스피커(220), 조명(230) 및 센서(240)를 제어할 수 있다.The shooting room server 200 can control the camera 210, the speaker 220, the lighting 230 and the sensor 240 provided in the shooting room by using the device control signal received from the operation server 100. there is.

촬영룸 서버(200)는 센서(240)로부터 센서 값을 수신하여, 수신된 센서 값을 운영 서버(100)에 전송할 수 있다.The photographing room server 200 may receive a sensor value from the sensor 240 and transmit the received sensor value to the operation server 100 .

촬영룸 서버(200)는 터치 스크린, 키보드, 마우스, 마이크와 같은 입력 수단을 구비할 수 있으며, 촬영룸 서버(200)는 입력 수단을 통해 사용자로부터 촬영 설정 정보, 기기 제어 정보를 입력 받을 수 있다. 일 실시예의 촬영 설정 정보는 촬영 컨셉, 사진 크기, 촬영 수 등을 포함할 수 있으며, 기기 제어 정보는 카메라 파라미터, 조명 조도, 조명 색상, 촬영 음악, 스피커 음량 등을 포함할 수 있다.The shooting room server 200 may be provided with input means such as a touch screen, a keyboard, a mouse, and a microphone, and the shooting room server 200 may receive shooting setting information and device control information from the user through the input means. . According to an embodiment, the shooting setting information may include a shooting concept, photo size, number of shots, and the like, and the device control information may include camera parameters, illumination intensity, lighting color, shooting music, speaker volume, and the like.

촬영룸 서버(200)는 디스플레이 기기, 스피커와 같은 출력 수단을 구비할 수 있으며, 촬영룸 서버(200)는 출력 수단을 통해 사용자에게 사진 촬영에 필요한 다양한 정보를 출력할 수 있다. 일례로, 촬영룸 서버(200)는 사용자가 선택 가능한 촬영 컨셉 및 사용자가 촬영한 사진을 출력할 수 있다.The photographing room server 200 may include output means such as a display device and a speaker, and the photographing room server 200 may output various information necessary for photographing to the user through the output means. For example, the shooting room server 200 may output a shooting concept selectable by the user and a picture taken by the user.

촬영룸 서버(200)는 사용자에게 사진 촬영에 필요한 결제 기능을 제공할 수 있다.The photographing room server 200 may provide a payment function necessary for photographing to the user.

카메라(210)는 촬영룸에 구비되며, 사용자가 카메라(210)를 이용하여 직접 사진을 촬영할 수 있다.The camera 210 is provided in the photographing room, and a user can take a picture directly by using the camera 210 .

카메라(210)는 운영 서버(100)에서 학습되어 설정되거나, 촬영룸 서버(200)를 통해 사용자가 입력한 카메라 파라미터를 적용하여, 사진을 촬영할 수 있다.The camera 210 may be learned and set in the operation server 100 or may take a picture by applying a camera parameter input by a user through the shooting room server 200 .

일 실시예의 카메라 파라미터는 사진의 화질, 크기, 카메라의 감도(ISO), 필터, 조리개, 셔터 스피드 등의 값을 포함할 수 있다The camera parameter according to an embodiment may include values such as picture quality, size, camera sensitivity (ISO), filter, aperture, shutter speed, and the like.

스피커(220)는 촬영룸에 구비되며, 촬영 음악을 재생할 수 있다.The speaker 220 is provided in the shooting room, and can play shooting music.

조명(230)은 촬영룸에 구비된 다수의 조명 기기를 포함할 수 있으며, 기기 제어 신호에 따라 빛을 출력할 수 있다.The lighting 230 may include a plurality of lighting devices provided in the photographing room, and may output light according to a device control signal.

센서(240)는 촬영룸에 구비된 움직임 센서(241), 음성 센서(242) 및 조도 센서(243)를 포함할 수 있다.The sensor 240 may include a motion sensor 241 , a voice sensor 242 , and an illuminance sensor 243 provided in the photographing room.

움직임 센서(241)는 사용자의 움직임에 따라 발생되는 움직임 신호를 감지할 수 있다. 음성 센서(242)는 사용자의 움직임에 따라 발생되는 음향 신호 및 사용자의 특정 상황에 따라 발할 수 있는 음성 명령 신호를 감지할 수 있다. 조도 센서(243)는 사용자 위치에서의 조도 값을 인식할 수 있다.The motion sensor 241 may detect a motion signal generated according to a user's motion. The voice sensor 242 may detect an acoustic signal generated according to a user's movement and a voice command signal that may be issued according to a specific situation of the user. The illuminance sensor 243 may recognize an illuminance value at the user's location.

사용자 단말(300)은 운영 서버(100)로부터 수신된 촬영 사진을 사용자에게 출력할 수 있다.The user terminal 300 may output the photographed picture received from the operation server 100 to the user.

사용자 단말(300)은 학습 데이터로 테스트 사진을 운영 서버(100)에 전송할 수 있다.The user terminal 300 may transmit a test photo as learning data to the operation server 100 .

사용자 단말(300)의 구체적인 구성 및 기능에 대해서는 이하 도 12에서 자세히 설명하도록 한다.A detailed configuration and function of the user terminal 300 will be described in detail below with reference to FIG. 12 .

도 2는 일 실시예에 따른 운영 서버(100)의 구성을 도시한 도면이다.2 is a diagram showing the configuration of the operation server 100 according to an embodiment.

도 2를 참조하면, 일 실시예에 따른 운영 서버(100)는 통신부(110), 입력부(120), 출력부(130), 메모리(140), 전원 공급부(150) 및 제어부(160)를 포함할 수 있다. 제어부(160)는 촬영 컨셉 제어부(170), 조명 제어부(180) 및 파라미터 설정부(190)를 포함하여 구성될 수 있다.Referring to FIG. 2 , the operation server 100 according to an embodiment includes a communication unit 110 , an input unit 120 , an output unit 130 , a memory 140 , a power supply unit 150 , and a control unit 160 . can do. The control unit 160 may include a shooting concept control unit 170 , a lighting control unit 180 , and a parameter setting unit 190 .

도 2에 도시된 구성들은 본 발명의 실시 예들을 구현하기 위한 예시도이며, 당업자에게 자명한 수준의 적절한 하드웨어/소프트웨어 구성들이 운영 서버(100)에 추가로 포함될 수 있다.The configurations shown in FIG. 2 are exemplary diagrams for implementing embodiments of the present invention, and appropriate hardware/software configurations at a level apparent to those skilled in the art may be additionally included in the operation server 100 .

통신부(110)는 다양한 통신 방식을 통해 외부의 장치와 통신을 수행할 수 있다. 일례로, 통신부(110)는 촬영룸 서버(200) 및 사용자 단말(300)과 통신을 수행하여 다양한 데이터를 송수신할 수 있다.The communication unit 110 may communicate with an external device through various communication methods. For example, the communication unit 110 may transmit and receive various data by performing communication with the shooting room server 200 and the user terminal 300 .

입력부(120)는 운영 서버(100)의 사용자인 관리자의 다양한 입력을 수신하여 제어부(160)로 전달할 수 있다. 특히, 입력부(120)는 터치 센서, (디지털) 펜 센서, 압력 센서, 키, 또는 마이크를 포함할 수 있다. 터치 센서는, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. (디지털) 펜 센서는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트를 포함할 수 있다. 키는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. 마이크는 관리자 음성을 수신하기 위한 구성으로, 운영 서버(100) 내부에 구비될 수 있으나, 이는 일 실시예에 불과할 뿐, 운영 서버(100)의 외부에 구비되어 운영 서버(100)와 전기적으로 연결될 수 있다.The input unit 120 may receive various inputs of an administrator who is a user of the operation server 100 and transmit it to the control unit 160 . In particular, the input unit 120 may include a touch sensor, a (digital) pen sensor, a pressure sensor, a key, or a microphone. The touch sensor may use, for example, at least one of a capacitive type, a pressure sensitive type, an infrared type, and an ultrasonic type. The (digital) pen sensor may be, for example, a part of a touch panel or may include a separate recognition sheet. The key may include, for example, a physical button, an optical key, or a keypad. The microphone is a configuration for receiving the manager's voice, and may be provided inside the operation server 100 , but this is only an example, and it is provided outside of the operation server 100 to be electrically connected to the operation server 100 . can

출력부(130)는 다양한 화면을 제공할 수 있다. 일례로, 출력부(130)는 관리자에게 컨셉 매핑 테이블을 출력할 수 있다.The output unit 130 may provide various screens. For example, the output unit 130 may output a concept mapping table to the manager.

메모리(140)는 운영 서버(100)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 특히, 메모리(140)는 비휘발성 메모리, 휘발성 메모리, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다. 메모리(140)는 제어부(160)에 의해 액세스되며, 제어부(160)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다. 본 발명에서 메모리라는 용어는 메모리(140), 제어부(160) 내 롬(미도시), 램(미도시) 또는 운영 서버(100)에 장착되는 메모리 카드(미도시)(예를 들어, micro SD 카드, 메모리 스틱)를 포함할 수 있다. 또한, 메모리(140)에는 출력부(130)의 디스플레이 영역에 표시될 각종 화면을 구성하기 위한 프로그램 및 데이터 등이 저장될 수 있다.The memory 140 may store commands or data related to at least one other component of the operation server 100 . In particular, the memory 140 may be implemented as a non-volatile memory, a volatile memory, a flash-memory, a hard disk drive (HDD), or a solid state drive (SSD). The memory 140 is accessed by the controller 160 , and reading/writing/modification/deletion/update of data by the controller 160 may be performed. In the present invention, the term "memory" refers to a memory 140, a ROM (not shown) in the controller 160, a RAM (not shown), or a memory card (not shown) mounted in the operation server 100 (eg, micro SD). card, memory stick). In addition, programs and data for configuring various screens to be displayed on the display area of the output unit 130 may be stored in the memory 140 .

전원 공급부(150)는 제어부(160)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 150 receives external power and internal power under the control of the control unit 160 to supply power necessary for the operation of each component.

제어부(160)는 통신부(110), 입력부(120), 출력부(130), 메모리(140) 및 전원 공급부(150)와 전기적으로 연결되어, 운영 서버(100)의 전반적인 동작 및 기능을 제어할 수 있다. 특히, 제어부(160)는 메모리(140)에 저장된 다양한 모듈을 이용하여 후술하는 기능을 제공할 수 있다.The control unit 160 is electrically connected to the communication unit 110 , the input unit 120 , the output unit 130 , the memory 140 , and the power supply unit 150 to control the overall operation and function of the operation server 100 . can In particular, the controller 160 may provide functions to be described later using various modules stored in the memory 140 .

이하에서 설명되는 운영 서버(100) 상의 다양한 동작은 제어부(160)의 제어에 의해서 수행될 수 있음은 자명할 것이다.It will be apparent that various operations on the operation server 100 described below may be performed under the control of the controller 160 .

전술한 바와 같이, 제어부(160)는 촬영 컨셉 제어부(170), 조명 제어부(180) 및 파라미터 설정부(190)를 포함하여 구성될 수 있다.As described above, the control unit 160 may be configured to include a shooting concept control unit 170 , a lighting control unit 180 , and a parameter setting unit 190 .

촬영 컨셉 제어부(170)는 사용자가 선택한 촬영 컨셉에 따라, 촬영룸의 조명, 음악 및 카메라를 제어할 수 있다.The shooting concept controller 170 may control lighting, music, and a camera in the shooting room according to the shooting concept selected by the user.

촬영 컨셉 제어부(170)는 촬영룸 서버(200)로부터 수신된 촬영 컨셉을 이용하여, 촬영룸의 조명, 스피커 및 카메라의 제어 신호를 생성할 수 있다. 촬영 컨셉 제어부(170)는 컨셉 매핑 테이블을 이용하여, 촬영룸의 조명, 스피커 및 카메라의 제어 신호를 포함하는 기기 제어 신호를 생성할 수 있다. 여기서 카메라의 제어 신호는 전술한 카메라 파라미터와 동일한 신호이다.The shooting concept control unit 170 may use the shooting concept received from the shooting room server 200 to generate control signals for lighting, a speaker, and a camera of the shooting room. The photographing concept controller 170 may generate a device control signal including control signals of lighting, a speaker, and a camera of the photographing room by using the concept mapping table. Here, the control signal of the camera is the same signal as the above-described camera parameter.

촬영 컨셉 제어부(170)의 구체적인 구성 및 기능에 대해서는 이하 도 3에서 자세히 설명하도록 한다.A detailed configuration and function of the shooting concept control unit 170 will be described in detail below with reference to FIG. 3 .

조명 제어부(180)는 사용자의 행동을 분석하여, 사용자 행동 패턴에 따라 촬영룸의 조명을 제어할 수 있다.The lighting controller 180 may analyze the user's behavior and control the lighting of the shooting room according to the user's behavior pattern.

조명 제어부(180)는 센서(240)로부터 획득된 사용자의 행동 및 사용자 위치의 조도 등의 분석하여, 사용자의 행동 패턴을 파악할 수 있다. 조명 제어부(180)는 파악된 사용자의 행동 패턴에 따라, 촬영룸의 조명 제어 신호를 포함하는 기기 제어 신호를 생성할 수 있다.The lighting control unit 180 may analyze the user's behavior obtained from the sensor 240 and the illuminance of the user's location to determine the user's behavioral pattern. The lighting controller 180 may generate a device control signal including a lighting control signal of a photographing room according to the identified user's behavior pattern.

조명 제어부(180)의 구체적인 구성 및 기능에 대해서는 이하 도 6에서 자세히 설명하도록 한다.A detailed configuration and function of the lighting control unit 180 will be described in detail below with reference to FIG. 6 .

파라미터 설정부(190)는 머신러닝을 기반으로 사용자가 입력한 테스트 사진으로부터 사용자가 원하는 최적의 카메라 파라미터를 예측할 수 있고, 예측된 카메라 파라미터에 따라 카메라(210)를 제어할 수 있다.The parameter setting unit 190 may predict the optimal camera parameter desired by the user from the test photo input by the user based on machine learning, and may control the camera 210 according to the predicted camera parameter.

파라미터 설정부(190)의 카메라 파라미터 예측 방법에 대해서는 이하 도 11에서 자세히 설명하도록 한다.A method of predicting camera parameters of the parameter setting unit 190 will be described in detail below with reference to FIG. 11 .

제어부(160)는 통신부(110)를 제어하여, 촬영룸 서버(200)에 기기 제어 신호를 전송하여, 촬영룸에 구비된 다양한 기기들을 제어할 수 있다.The controller 160 may control the communication unit 110 to transmit a device control signal to the photographing room server 200 to control various devices provided in the photographing room.

일 실시예의 기기 제어 신호는 촬영 컨셉 제어부(170)에서 생성된 조명, 스피커 및 카메라 제어 신호(카메라 파라미터), 조명 제어부(180)에서 생성된 조명 제어 신호, 파라미터 설정부(190)에서 생성된 카메라 파라미터를 포함할 수 있다.The device control signal of an embodiment includes the lighting, speaker and camera control signals (camera parameters) generated by the shooting concept control unit 170 , the lighting control signal generated by the lighting control unit 180 , and the camera generated by the parameter setting unit 190 . It may contain parameters.

제어부(160)는 통신부(110)를 제어하여, 카메라(210)에서 촬영된 사진을 사용자 단말(300)에 전송할 수 있으며, 사용자 단말(300)로부터 테스트 사진을 수신할 수 있다.The controller 160 may control the communication unit 110 to transmit a picture taken by the camera 210 to the user terminal 300 , and may receive a test picture from the user terminal 300 .

제어부(160)는 입력부(120)를 통해, 관리자로부터 촬영 컨셉 매핑 테이블 관련 데이터 및 학습 사진을 입력받을 수 있다.The control unit 160 may receive, through the input unit 120 , data related to the shooting concept mapping table and a learning picture from the manager.

도 3은 일 실시예에 따른 촬영 컨셉 제어부(170)의 구성을 도시한 도면이다.3 is a diagram illustrating the configuration of the photographing concept control unit 170 according to an exemplary embodiment.

도 3을 참조하면, 일 실시예에 따른 촬영 컨셉 제어부(170)는 컨셉 매핑 테이블 생성부(171), 컨셉 매핑 테이블 DB(172) 및 기기 제어 신호 생성부(173)를 포함할 수 있다.Referring to FIG. 3 , the photographing concept controller 170 according to an embodiment may include a concept mapping table generator 171 , a concept mapping table DB 172 , and a device control signal generator 173 .

컨셉 매핑 테이블 생성부(171)는 관리자로부터 데이터를 입력받아 촬영 컨셉 매핑 테이블(174)을 생성하고, 생성된 컨셉 매핑 테이블(174)을 컨셉 매핑 DB(172)에 저장할 수 있다. 기기 제어 신호 생성부(173)는 컨셉 매핑 테이블(174)을 이용하여, 사용자가 선택한 촬영 컨셉에 대한 기기 제어 신호를 생성할 수 있다.The concept mapping table generation unit 171 may receive data from the manager, generate the photographing concept mapping table 174 , and store the generated concept mapping table 174 in the concept mapping DB 172 . The device control signal generator 173 may generate a device control signal for a shooting concept selected by the user by using the concept mapping table 174 .

도 4는 일 실시예에 따른 컨셉 매핑 테이블(174)의 일례를 도시한 도면이다.4 is a diagram illustrating an example of a concept mapping table 174 according to an embodiment.

도 4를 참조하면, 일 실시예의 컨셉 매핑 테이블(174)은 촬영 컨셉 명, 촬영 컨셉 이미지, 음악, 배경 이미지, 촬영룸에 구비된 조명 기기의 빛 색상 및 조도 정보, 카메라 파라미터를 포함하는 데이터 구조이다.Referring to FIG. 4 , a concept mapping table 174 according to an embodiment is a data structure including a photographing concept name, a photographing concept image, music, a background image, light color and illuminance information of a lighting device provided in a photographing room, and camera parameters. am.

촬영 컨셉 제어부(170)는 생성된 컨셉 매핑 테이블(174)을 촬영룸 서버(200)에 전송하고, 촬영룸 서버(200)는 사용자에게 선택 가능한 촬영 컨셉을 출력 및 선택 입력받을 수 있다.The shooting concept control unit 170 transmits the generated concept mapping table 174 to the shooting room server 200 , and the shooting room server 200 may output and select a shooting concept selectable by the user.

촬영 컨셉 제어부(170)는 촬영룸 서버(200)로부터 사용자가 선택한 촬영 컨셉을 전송받을 수 있다.The shooting concept control unit 170 may receive the shooting concept selected by the user from the shooting room server 200 .

촬영 컨셉 제어부(170)는 컨셉 매핑 테이블(174)을 이용하여, 사용자가 선택한 촬영 컨셉에 대한 기기 제어 신호를 생성할 수 있다.The shooting concept controller 170 may generate a device control signal for the shooting concept selected by the user by using the concept mapping table 174 .

촬영 컨셉 제어부(170)는 컨셉 매핑 테이블(174)을 이용하여, 사용자가 선택한 촬영 컨셉에 해당하는 음악, 배경 이미지, 촬영룸에 구비된 조명 기기의 빛 색상 및 조도 정보, 카메라 파라미터를 포함하는 컨셉 데이터를 추출할 수 있다.The shooting concept control unit 170 uses the concept mapping table 174 to include music corresponding to the shooting concept selected by the user, a background image, light color and illuminance information of lighting equipment provided in the shooting room, and camera parameters. data can be extracted.

촬영 컨셉 제어부(170)는 추출된 컨셉 데이터를 이용하여, 조명(230), 스피커(220), 카메라(21)의 제어 신호를 생성할 수 있다. 전술한 바와 같이, 여기서 카메라의 제어 신호는 전술한 카메라 파라미터와 동일한 신호이다.The photographing concept control unit 170 may generate control signals of the lighting 230 , the speaker 220 , and the camera 21 by using the extracted concept data. As described above, here the control signal of the camera is the same signal as the above-mentioned camera parameter.

일례로, 사용자가 '컨셉 A'의 촬영 컨셉을 선택한 경우, 촬영 컨셉 제어부(170)는 컨셉 매핑 테이블(174)에서'컨셉 A'에 해당하는 음악, 배경 이미지, 촬영룸에 구비된 조명 기기의 빛 색상 및 조도 정보, 카메라 파라미터를 포함하는 기기 제어 신호를 생성할 수 있다.For example, when the user selects the shooting concept of 'Concept A', the shooting concept control unit 170 controls the music corresponding to 'Concept A' in the concept mapping table 174, the background image, and the lighting equipment provided in the shooting room. A device control signal including light color and illuminance information and camera parameters may be generated.

도 5는 일 실시예에 따른 촬영 컨셉 제어 방법의 흐름도이다.5 is a flowchart of a method for controlling a shooting concept according to an exemplary embodiment.

도 5를 참조하면, 일 실시예에 따른 촬영 컨셉 제어 방법은 촬영 컨셉 수신 단계(S100), 컨셉 데이터 추출 단계(S110) 및 기기 제어 신호 생성 단계(S120)를 포함할 수 있다.Referring to FIG. 5 , the method for controlling a shooting concept according to an embodiment may include a step of receiving a shooting concept ( S100 ), a step of extracting concept data ( S110 ), and a step of generating a device control signal ( S120 ).

우선, 촬영 컨셉 수신 단계(S100)로, 촬영 컨셉 제어부(170)는 촬영룸 서버(200)로부터 사용자가 선택한 촬영 컨셉을 전송받을 수 있다.First, in the photographing concept receiving step S100 , the photographing concept control unit 170 may receive the photographing concept selected by the user from the photographing room server 200 .

그리고, 컨셉 데이터 추출 단계(S110)로, 촬영 컨셉 제어부(170)는 컨셉 매핑 테이블(174)을 이용하여, 사용자가 선택한 촬영 컨셉에 해당하는 음악, 배경 이미지, 촬영룸에 구비된 조명 기기의 빛 색상 및 조도 정보, 카메라 파라미터를 포함하는 컨셉 데이터를 추출할 수 있다.And, in the concept data extraction step ( S110 ), the shooting concept control unit 170 uses the concept mapping table 174 , music corresponding to the shooting concept selected by the user, the background image, and the light of the lighting equipment provided in the shooting room. Concept data including color and illuminance information and camera parameters can be extracted.

그리고, 기기 제어 신호 생성 단계(S120)로, 촬영 컨셉 제어부(170)는 추출된 컨셉 데이터를 이용하여, 조명(230), 스피커(220), 카메라(21)의 제어 신호를 생성할 수 있다.Then, in the device control signal generation step ( S120 ), the shooting concept controller 170 may generate control signals for the lighting 230 , the speaker 220 , and the camera 21 using the extracted concept data.

이로써, 촬영 컨셉 제어부(170)는 사용자가 선택한 촬영 컨셉에 따라 촬영룸의 조명, 음악 및 카메라를 제어하여, 사용자가 원하는 컨셉에 따라 사진을 촬영할 수 있는 환경을 제공할 수 있다.Accordingly, the shooting concept control unit 170 may control the lighting, music, and camera of the shooting room according to the shooting concept selected by the user, thereby providing an environment in which the user can take a picture according to the desired concept.

도 6은 일 실시예에 따른 조명 제어부(180)의 구성을 도시한 도면이다.6 is a diagram illustrating the configuration of the lighting control unit 180 according to an embodiment.

도 6을 참조하면, 조명 제어부(180)는 감지 유닛(181), 제어 유닛(182), 서비스 제공 유닛(183) 및 템플릿 DB(184)를 포함할 수 있다.Referring to FIG. 6 , the lighting control unit 180 may include a sensing unit 181 , a control unit 182 , a service providing unit 183 , and a template DB 184 .

감지 유닛(181)은 사용자 행동을 감지하고, 감지된 행동에 대응한 감지 신호를 제어 유닛(182)에 제공할 수 있으며, 감지 유닛(181)은 움직임 센서(241), 음성 센서(120) 및 조도 센서(130)로부터, 해당 센서 데이터를 수신할 수 있다.The detection unit 181 may detect a user action and provide a detection signal corresponding to the sensed action to the control unit 182 , and the detection unit 181 may include a motion sensor 241 , a voice sensor 120 and Corresponding sensor data may be received from the illuminance sensor 130 .

전술한 바와 같이, 움직임 센서(241)는 사용자의 움직임에 따라 발생되는 움직임 신호를 감지할 수 있으며, 음성 센서(242)는 사용자의 움직임에 따라 발생되는 음향 신호 및 사용자의 특정 상황에 따라 발할 수 있는 음성 명령 신호를 감지할 수 있으며, 조도 센서(243)는 사용자 위치에서의 자연광의 조도 값을 인식할 수 있다.As described above, the motion sensor 241 may detect a motion signal generated according to the user's motion, and the voice sensor 242 may emit an acoustic signal generated according to the user's motion and a specific situation of the user. A voice command signal may be detected, and the illuminance sensor 243 may recognize an illuminance value of natural light at the user's location.

제어 유닛(182)은 기 설정된 판단 주기가 도래하면 판단 주기 도래 시점을 기준으로 복수의 패턴 주기 각각의 이전까지의 감지 신호를 복수의 패턴 주기 각각을 기준으로 분석해 복수의 패턴 주기 각각에 대한 행동 패턴을 추출하고, 복수의 패턴 주기 각각의 행동 패턴을 복수의 패턴 주기 각각 별로 구비된 적어도 하나의 표준 행동 패턴과 비교하여 사용자의 행동을 판단하고 판단된 사용자의 행동에 적합한 서비스를 제공하도록 서비스 제공 유닛(183)을 제어할 수 있다.When the preset determination period arrives, the control unit 182 analyzes the detection signals prior to each of the plurality of pattern periods based on the arrival time of the determination period on the basis of each of the plurality of pattern periods to perform a behavior pattern for each of the plurality of pattern periods A service providing unit to extract and compare the behavior pattern of each of the plurality of pattern periods with at least one standard behavior pattern provided for each of the plurality of pattern periods to determine the user's behavior and provide a service suitable for the determined user's behavior (183) can be controlled.

제어 유닛(182)은 분석부(182-1), 행동패턴추출부(182-2), 비교판단부(182-3) 및 서비스제공유닛 제어부(182-4)를 포함하여 구성될 수 있다.The control unit 182 may be configured to include an analysis unit 182-1, a behavior pattern extraction unit 182-2, a comparison determination unit 182-3, and a service providing unit control unit 182-4.

분석부(182-1)는 기 설정된 판단 주기가 도래하면 판단 주기 도래 시점을 기준으로 복수의 패턴 주기 각각의 이전까지의 감지 신호를 복수의 패턴 주기 각각을 기준으로 분석해 행동패턴추출부(182-2)에 제공할 수 있으며, 복수의 패턴 주기를 포함할 수 있다.The analysis unit 182-1 analyzes the detection signals up to each of the plurality of pattern periods prior to each of the plurality of pattern periods based on the arrival time of the determination period when a preset determination period arrives, based on each of the plurality of pattern periods, and analyzes the behavior pattern extraction unit 182- 2), and may include a plurality of pattern cycles.

복수의 패턴 주기는 감지 신호를 시간 속성을 고려하여 각각 분석할 수 있으며, 단기 패턴 주기(예를 들어, 5초), 중기 패턴 주기(예를 들어, 1분) 및 장기 패턴 주기(예를 들어, 5분)를 포함할 수 있다.A plurality of pattern periods can each be analyzed in consideration of the temporal properties of the sensing signal, including a short-term pattern period (eg, 5 seconds), a medium-term pattern period (eg, 1 minute) and a long-term pattern period (eg, 1 minute). , 5 min) may be included.

도 7은 일 실시예에 따른 사용자 행동 분석 방법을 설명하기 위한 도면이다.7 is a diagram for explaining a user behavior analysis method according to an embodiment.

도 7을 참조하면, 단기 패턴 주기는 복수의 패턴 주기 중 단기 패턴 주기 이외의 중기 패턴 주기 및 장기 패턴 주기 동안의 행동 패턴 추출의 기준 데이터로 사용될 수 있다. 구체적으로, 단기 패턴 주기를 기준으로 이전까지의 감지 신호를 분석해 도출된 데이터 신호의 평균 및 표준편차를 이용하여 복수의 패턴 주기 각각의 행동 패턴 추출 데이터로 이용함으로써, 분석과정을 최소화할 수 있다. 판단 주기 도래시점(예를 들어, 2.5초)은 기 설정된 판단 주기를 50%씩 겹치게 중복되는 시점일 수 있으며, 기 설정된 판단 주기를 50%씩 겹치게 중복하여 분석하는 것에 의해 데이터의 단절을 막을 수 있다.Referring to FIG. 7 , the short-term pattern period may be used as reference data for extracting behavior patterns during a medium-term pattern period and a long-term pattern period other than the short-term pattern period among a plurality of pattern periods. Specifically, the analysis process can be minimized by using the average and standard deviation of the data signals derived by analyzing the previous detection signal based on the short-term pattern period as the behavior pattern extraction data for each of a plurality of pattern periods. The point of arrival of the judgment cycle (for example, 2.5 seconds) may be a time point at which the preset judgment cycle overlaps by 50%, and data cutoff can be prevented by overlapping and analyzing the preset judgment cycle by overlapping 50%. there is.

행동패턴추출부(182-2)는 3면 분석(yz, xy, xz)을 통해 복수의 패턴 주기 각각에 대한 행동 패턴을 추출하고 추출된 행동 패턴을 비교판단부(182-3)에 제공할 수 있다.The behavior pattern extraction unit 182-2 extracts a behavior pattern for each of a plurality of pattern periods through three-sided analysis (yz, xy, xz) and provides the extracted behavior pattern to the comparison determination unit 182-3. can

도 8 및 도 9는 일 실시예에 따른 행동 패턴 추출부의 3면 분석을 설명하기 위한 도면이다.8 and 9 are diagrams for explaining three-sided analysis of the behavior pattern extractor according to an embodiment.

도 9를 참조하면, 3면 분석은 감지신호를 복수의 패턴 주기 각각을 기준으로 시간 속성을 고려해 음향 신호의 크기(x축), 복수의 패턴 주기(y축) 및 움직임 신호의 크기(z축)으로 구분해 복수의 행동 패턴을 추출함으로써, 특정 행동에 대한 시간 속성을 고려하는 것에 의해 시간 대비 다양한 사용자의 행동을 보다 정확하게 파악할 수 있으며, 제 1면(yz), 제 2면(xy) 및 제 3면(xz)을 포함할 수 있다.Referring to FIG. 9 , the three-sided analysis considers the time properties of the detection signal based on each of a plurality of pattern periods, the size of the acoustic signal (x-axis), the plurality of pattern periods (y-axis), and the magnitude of the motion signal (z-axis). ) and extracting a plurality of behavior patterns, it is possible to more accurately grasp the behavior of various users over time by considering the temporal attribute for a specific behavior, and the first side (yz), the second side (xy) and It may include a third surface (xz).

도 8a를 참조하면, 제 1면은 복수의 패턴 주기를 일축으로 하여 움직임 신호의 시간평균을 구하고, 시간평균의 표준편차를 통해 일축의 구간을 정하고, 움직임 신호크기를 타축으로 하여 움직임 신호크기의 크기평균을 구하고, 크기평균의 표준편차를 통해 타축의 구간을 정해 시간에 따른 복수의 패턴 주기별 움직임 신호의 특성을 파악함으로써, 시간대비 다양한 사용자의 움직임에 대한 사용자의 행동을 파악할 수 있다.Referring to FIG. 8A , the first side obtains a time average of a motion signal using a plurality of pattern periods as one axis, determines a section on one axis through the standard deviation of the time average, and uses the motion signal size as the other axis to determine the size of the motion signal. By obtaining the size average and determining the section of the rudder axis through the standard deviation of the size average to determine the characteristics of the motion signals for each of a plurality of pattern periods according to time, the user's behavior with respect to various user movements over time can be grasped.

도 8a를 참조하면, 제 2면은 복수의 패턴 주기를 일축으로 하여 음향 신호의 시간평균을 구하고, 시간평균의 표준편차를 통해 일축의 구간을 정하고, 음향 신호크기를 타축으로 하여 음향 신호크기의 크기평균을 구하고, 크기평균의 표준편차를 통해 타축의 구간을 정해 시간에 따른 복수의 패턴 주기별 음향 신호의 특성을 파악함으로써, 시간대비 다양한 사용자의 음향에 대한 사용자의 행동을 파악할 수 있다.Referring to FIG. 8A , the second side obtains the time average of the acoustic signal with a plurality of pattern periods as one axis, determines a section on one axis through the standard deviation of the time average, and uses the acoustic signal size as the other axis to determine the sound signal level. By obtaining the size average, determining the section of the rudder axis through the standard deviation of the size average, and identifying the characteristics of the acoustic signal for each period of a plurality of patterns according to time, it is possible to grasp the user's behavior toward the sound of various users over time.

도 8b를 참조하면, 제 3면은 음향 신호크기를 일축으로 하여 음향 신호의 크기평균을 구하고, 크기평균의 표준편차를 통해 일축의 구간을 정하고, 움직임 신호크기를 타축으로 하여 움직임 신호크기의 크기평균을 구하고, 크기평균의 표준편차를 통해 타축의 구간을 정해 움직임 신호와 음향신호 간의 비율 비교를 통해 다양한 사용자의 행동을 파악할 수 있다.Referring to FIG. 8B , the third side obtains the average amplitude of the sound signal with the amplitude of the sound signal as one axis, determines a section on one axis through the standard deviation of the average, and sets the amplitude of the motion signal as the other axis. Various user behaviors can be identified by comparing the ratio between the motion signal and the sound signal by obtaining the average and determining the section of the rudder axis through the standard deviation of the size average.

복수의 행동 패턴은 시간 속성을 고려한 사용자의 생활 패턴일 수 있으며, 단기 행동 패턴, 중기 행동 패턴 및 장기 행동 패턴을 포함할 수 있다. 단기 행동 패턴은 사용자의 음성 명령에 대한 패턴일 수 있으며, 조도 제어 명령을 포함할 수 있다. 조도 제어 명령은 사용자의 필요에 의한 조도 증감제어 및 ON/OFF 등의 음성 명령일 수 있다. 중기 행동 패턴은 사용자의 제스처 변경 등의 급격한 행동 변화에 대한 패턴일 수 있다. 장기 행동 패턴은 사용자 위치 이동 등의 완만한 시간적 행동 변화에 대한 패턴일 수 있다. 비교판단부(182-3)는 복수의 패턴 주기 각각의 3면 분석을 통해 얻어진 행동 패턴과 복수의 패턴 주기 각각 별로 구비된 적어도 표준 행동 패턴과 비교하여 실시간 사용자의 행동을 판단해 서비스제공유닛 제어부(182-4)에 제공할 수 있다. 여기서, 표준 행동 패턴은 3면 분석을 통해 얻어진 행동 패턴과 동일한 형식일 수 있다.The plurality of behavior patterns may be a user's life pattern in consideration of a time attribute, and may include a short-term behavior pattern, a medium-term behavior pattern, and a long-term behavior pattern. The short-term behavior pattern may be a pattern for a user's voice command, and may include an illuminance control command. The illuminance control command may be a voice command such as illuminance increase/decrease control and ON/OFF according to the user's need. The medium-term behavior pattern may be a pattern for a sudden change in behavior, such as a change in a user's gesture. The long-term behavior pattern may be a pattern for a gentle temporal behavior change, such as moving a user's location. The comparison determination unit 182-3 compares the behavior pattern obtained through three-sided analysis of each of the plurality of pattern periods with at least a standard behavior pattern provided for each of the plurality of pattern periods to determine the user's behavior in real time, and the service providing unit control unit (182-4) may be provided. Here, the standard behavior pattern may be in the same format as the behavior pattern obtained through the three-sided analysis.

이와 달리, 비교판단부(182-3)는 움직임 및 음향 크기신호의 시계열적 측정 데이터와 움직임 및 음향 크기신호에 대한 시계열적 측정 데이터 간의 시간 동기를 맞추고, 다음의 수학식 1을 사용해 상관계수를 구해 유사도가 가장 높은 표준 행동 패턴을 기준으로 실시간 사용자의 행동을 판단할 수 있다.On the other hand, the comparison determination unit 182-3 synchronizes the time-series measurement data of the motion and sound amplitude signal with the time-series measurement data of the motion and sound amplitude signal, and calculates the correlation coefficient using Equation 1 below. It is possible to determine the user's behavior in real time based on the standard behavior pattern with the highest similarity.

Figure 112021070528795-pat00001
Figure 112021070528795-pat00001

여기서, rxy는 상관계수, n은 데이터 개수, xi는 움직임 크기신호의 시계열적 측정 데이터, yi는 음향 크기신호의 시계열적 측정 데이터, ^x는 움직임 크기신호에 대한 시계열적 표준 데이터, ^y는 음향 크기신호에 대한 시계열적 표준 데이터이며, 상관계수를 이용하는 방식은 단기 주기 패턴의 행동 판단시 유용할 수 있다.Here, rxy is a correlation coefficient, n is the number of data, xi is time-series measurement data of the motion amplitude signal, yi is time-series measurement data of the sound amplitude signal, ^x is time-series standard data of the movement amplitude signal, and ^y is This is time-series standard data for the loudness signal, and a method using a correlation coefficient may be useful in determining the behavior of a short-term periodic pattern.

서비스제공유닛 제어부(182-4)는 판단된 사용자의 행동에 적합한 서비스를 제공하도록 서비스 제공 유닛(183)을 제어할 수 있으며, 음성명령 인식형 모드 및 지능형 모드를 포함할 수 있다.The service providing unit control unit 182-4 may control the service providing unit 183 to provide a service suitable for the determined user's behavior, and may include a voice command recognition type mode and an intelligent mode.

음성명령 인식형 모드는 음성 명령에 의해 우선하여 사용자의 행동에 적합한 조도 제어를 제공할 수 있으며, 음성 명령에 의한 조도 제어는 다른 음성 명령 또는 기 설정된 시간 경과 시까지 유지될 수 있다.The voice command recognition type mode may provide illuminance control suitable for the user's behavior by giving priority to a voice command, and the illuminance control by the voice command may be maintained until another voice command or a preset time elapses.

지능형 모드는 사용자 위치의 조도를 사용자의 행동에 적합한 조도로 제어할 수 있다.The intelligent mode may control the illuminance of the user's location to an illuminance suitable for the user's behavior.

지능형 모드 및 음성명령 인식형 모드는 상호 보완적인 기능을 수행할 수 있다.Intelligent mode and voice command recognition mode can perform complementary functions.

서비스 제공 유닛(183)은 기 설정된 서비스 기능이 적어도 하나 탑재될 수 있으며, 조명제어신호생성부(183-1)를 포함할 수 있다.The service providing unit 183 may be equipped with at least one preset service function, and may include a lighting control signal generating unit 183-1.

조명제어신호생성부(183-1)는 발광수단을 구비하여 서비스제공유닛 제어부(182-4)의 제어에 따라 사용자의 행동에 적합한 조도 제공, 점등 및 소등할 수 있는 기기 제어 신호를 생성할 수 있다.The lighting control signal generation unit 183-1 may include a light emitting means to generate a device control signal capable of providing, turning on and off an illuminance suitable for a user's behavior under the control of the service providing unit control unit 182-4. there is.

템플릿 DB(184)는 복수의 패턴 주기 각각 별로 구비된 적어도 하나의 표준 행동 패턴이 저장될 수 있으며, 복수의 패턴 주기 각각 별로 행동패턴DB(184-1), 음성명령DB(184-2), 조도DB(184-3)를 포함할 수 있다.The template DB 184 may store at least one standard behavior pattern provided for each of a plurality of pattern periods, and a behavior pattern DB 184-1, a voice command DB 184-2, and a voice command DB 184-2 for each of the plurality of pattern periods. It may include an illuminance DB (184-3).

행동패턴DB(184-1)는 시간 속성을 고려하여 사용자가 특정 행동 시 감지될 수 있는 감지 신호를 기준으로 행동을 구분하여 기 저장된 데이터일 수 있다.The behavior pattern DB 184-1 may be pre-stored data by classifying the behavior based on a detection signal that can be detected when the user performs a specific behavior in consideration of the time attribute.

음성명령DB(184-2)는 시간 속성을 고려하여 사용자의 필요에 의한 조도 증감제어 및 ON/OFF 등의 음성을 구분하여 기 저장된 데이터일 수 있다.The voice command DB 184-2 may be pre-stored data by classifying voices such as illuminance increase/decrease control and ON/OFF according to the user's need in consideration of the time attribute.

조도DB(184-3)는 사용자가 특정 행동 시 적합한 표준 조도 값의 수치가 기 저장된 데이터일 수 있다.The illuminance DB 184 - 3 may be data in which a numerical value of a standard illuminance value suitable for a specific action by the user is pre-stored.

도 10은 일 실시예에 따른 조명 제어 방법의 흐름도이다.10 is a flowchart of a lighting control method according to an embodiment.

도 10을 참조하면, 스마트 조명 제어부(180)는 감지유닛(100)을 이용하여 사용자의 움직임, 음향 및 조도 실시간으로 감지할 수 있으며(S201), 감지된 신호를 분석부(182-1)를 이용하여 복수의 패턴 주기 각각을 기준으로 분석할 수 있다(S202).Referring to FIG. 10 , the smart lighting control unit 180 may detect the user's movement, sound, and illuminance in real time using the detection unit 100 ( S201 ), and analyze the detected signal by the analysis unit 182-1 . can be used for analysis based on each of a plurality of pattern periods (S202).

다음으로, 행동패턴추출부(182-2)는 복수의 패턴 주기 각각에 대한 행동 패턴을 추출할 수 있다(S203).Next, the behavior pattern extraction unit 182-2 may extract a behavior pattern for each of a plurality of pattern periods (S203).

다음으로, 비교판단부(182-3)는 복수의 패턴 주기 각각의 행동 패턴을 복수의 패턴 주기 각각 별로 구비된 적어도 하나의 표준 행동 패턴과 비교하여 실시간 사용자의 행동을 판단할 수 있다(S204).Next, the comparison determination unit 182-3 may determine the user's behavior in real time by comparing the behavior pattern of each of the plurality of pattern periods with at least one standard behavior pattern provided for each of the plurality of pattern periods (S204) .

다음으로, 서비스제공유닛 제어부(182-4)는 음성 명령 여부를 판단할 수 있으며(S205), 음성 명령인 경우 사용자 위치의 조도를 고려하여 사용자의 행동에 적합한 조도를 판단할 수 있다(S206).Next, the service providing unit control unit 182-4 may determine whether a voice command is made (S205), and in the case of a voice command, it may determine an illuminance suitable for the user's action in consideration of the illuminance of the user's location (S206) .

다음으로, 서비스 제공 유닛(183)는 판단된 사용자의 행동에 적합한 조도로 조도 값을 증감제어 할 수 있다(S207).Next, the service providing unit 183 may increase/decrease the illuminance value to an illuminance suitable for the determined user action (S207).

서비스제공유닛 제어부(182-4)는 S205에서, 사용자의 행동 패턴이 음성 명령에 대한 패턴인 것으로 판단되면, 음성 명령에 대한 조명제어명령 여부를 판단할 수 있다(S208).The service providing unit control unit 182-4, in S205, when it is determined that the user's behavior pattern is a pattern for a voice command, it can determine whether the lighting control command for the voice command (S208).

서비스제공유닛 제어부(182-4)는 S208에서, 조명제어명령인 경우, 서비스 제공 유닛(183)을 이용하여 사용자 음성 명령에 의한 조도로 조도 값을 증감제어 할 수 있다(S209).The service providing unit control unit 182-4 may increase/decrease the illuminance value with the illuminance according to the user's voice command using the service providing unit 183 in the case of a lighting control command in S208 (S209).

다음으로, 사용자 음성 명령에 의한 조도로 조도 값 증감제어 시 다른 음성 명령 또는 기 설정된 시간 경과 여부를 판단할 수 있으며(S210), 다른 음성 명령 인식 또는 기 설정된 시간 경과가 아닌 경우, 조도 값은 유지될 수 있다(S211).Next, it can be determined whether another voice command or a preset time has elapsed when controlling the increase/decrease of the illuminance value with the illuminance by the user's voice command (S210), and if other voice commands are not recognized or the preset time has elapsed, the illuminance value is maintained can be (S211).

이로써, 조명 제어부(180)는 사용자의 행동을 실시간 감지하여 시간 속성을 고려해 사용자의 행동을 판단함으로써, 시간 변화에 따른 사용자의 다양한 행동에 적합한 촬영룸의 조명 환경을 제공할 수 있으며, 사용자 위치의 조도를 고려하여 사용자의 행동에 적합한 촬영룸의 조명 환경을 설정함으로써, 사용자가 원하는 촬영 환경을 제공할 수 있다.Accordingly, the lighting control unit 180 detects the user's behavior in real time and determines the user's behavior in consideration of the time attribute, thereby providing a lighting environment of the shooting room suitable for the user's various behaviors according to time changes, and By setting the lighting environment of the photographing room suitable for the user's behavior in consideration of the illuminance, the user's desired photographing environment may be provided.

이하에서는 파라미터 설정부(190)에 대해서 설명하도록 한다.Hereinafter, the parameter setting unit 190 will be described.

파라미터 설정부(190)는 사용자가 입력한 테스트 사진을 기반으로, 사용자가 원하는 최적의 카메라 파라미터를 예측할 수 있고, 예측된 카메라 파라미터에 따라 카메라(210)를 제어할 수 있다.The parameter setting unit 190 may predict an optimal camera parameter desired by the user based on the test photo input by the user, and may control the camera 210 according to the predicted camera parameter.

이를 위해 파라미터 설정부(190)는 관리자로부터 입력받은 학습 사진으로부터 학습 데이터를 생성할 수 있다. 일례로, 파라미터 설정부(190)는 학습 사진을 그대로 학습 데이터로 생성할 수 있으며, 학습 사진으로부터 색상 전환 구간을 검출하고, 검출된 색상 전환 구간에 따라 학습 사진을 분할하여 압축함으로써, 학습 데이터를 생성할 수 있다.To this end, the parameter setting unit 190 may generate learning data from the learning picture received from the manager. As an example, the parameter setting unit 190 may generate the training photo as it is as the learning data, detect a color change section from the learning photo, and divide and compress the learning photo according to the detected color change section, thereby converting the learning data. can create

파라미터 설정부(190)는 학습 데이터에 대해 특성값을 추출할 수 있다. 일 실시예의 특성값은 사진의 대표 색상, 대표 채도 또는 대표 피사체를 포함할 수 있다The parameter setting unit 190 may extract a characteristic value from the training data. The characteristic value of an embodiment may include a representative color, representative saturation, or representative subject of the photo.

파라미터 설정부(190)는 학습 데이터의 카메라 파라미터를 생성할 수 있다. 전술한 바와 같이, 일 실시예의 카메라 파라미터는 사진의 화질, 크기, 카메라의 감도(ISO), 필터, 조리개, 셔터 스피드 등의 값을 포함할 수 있으며, 파라미터 설정부(190)는 학습 데이터로부터 학습 사진의 화질, 크기 및 학습 사진을 촬영한 카메라의 감도(ISO), 필터, 조리개, 셔터 스피드 등의 값을 추출하여, 학습 데이터의 카메라 파라미터를 생성할 수 있다The parameter setting unit 190 may generate camera parameters of the training data. As described above, the camera parameter of an embodiment may include values such as picture quality, size, camera sensitivity (ISO), filter, aperture, shutter speed, etc., and the parameter setting unit 190 learns from the learning data. By extracting the image quality, size, and sensitivity (ISO), filter, aperture, shutter speed, etc. of the camera that took the training picture, camera parameters of the training data can be created.

파라미터 설정부(190)는 학습 데이터의 특성값 및 카메라 파라미터를 이용하여, 머신러닝을 통해 사용자가 원하는 최적의 카메라 파라미터를 예측할 수 있다.The parameter setting unit 190 may predict the optimal camera parameter desired by the user through machine learning by using the characteristic value of the training data and the camera parameter.

우선 파라미터 설정부(190)는 관리자로부터 입력된 학습 사진을 이용하여 파라미터 예측 모델(191)을 학습할 수 있으며, 학습된 파라미터 예측 모델에 사용자로부터 입력된 테스트 사진을 입력하여, 사용자에게 최적화된 카메라 파라미터를 예측할 수 있다.First, the parameter setting unit 190 may learn the parameter prediction model 191 by using the training picture input from the manager, and input the test picture input from the user into the learned parameter prediction model, and the camera optimized for the user parameters can be predicted.

도 11은 일 실시예에 따른 파라미터 예측 모델(192)을 설명하기 위한 도면이다.11 is a diagram for describing a parameter prediction model 192 according to an embodiment.

도 11을 참조하면, 파라미터 설정부(190)는 파라미터 예측 모델 학습부(191) 및 파라미터 예측 모델(192)을 포함할 수 있다. 파라미터 예측 모델 학습부(191) 및 파라미터 예측 모델(192)은 파라미터 설정부(190)의 기능에 따라 나눠진 구성으로, 파라미터 설정부(190)에서 해당 기능을 모두 실시 가능함은 자명하다 하겠다.Referring to FIG. 11 , the parameter setting unit 190 may include a parameter prediction model learning unit 191 and a parameter prediction model 192 . The parameter prediction model learning unit 191 and the parameter prediction model 192 are configured according to the functions of the parameter setting unit 190 , and it is obvious that the parameter setting unit 190 can implement all the corresponding functions.

일 실시예의 파라미터 예측 모델(192)로서 인공 신경망(Artifical Neural Netwrok)이 이용될 수 있다. 인공 신경망은 많은 수의 인공 뉴런(또는, 노드)들을 이용하여 생물학적인 시스템의 계산 능력을 모방하는 소프트웨어나 하드웨어로 구현된 예측 모델이다. An artificial neural network may be used as the parameter prediction model 192 according to an embodiment. An artificial neural network is a predictive model implemented in software or hardware that mimics the computational power of a biological system using a large number of artificial neurons (or nodes).

파라미터 예측 모델(192)은 파라미터 예측 모델 학습부(191)에 의해서 학습 데이터의 특성값 및 카메라 파라미터를 이용하여 지도 학습될 수 있다. 이때 지도 학습이란, 입력값과 그에 따른 출력값이 있는 데이터를 학습 데이터로 이용하여 주어진 입력값에 따른 출력값을 찾는 학습을 의미하며, 정답을 알고 있는 상태에서 이루어지는 학습을 의미한다. 지도 학습에 주어지는 입력값과 출력값 세트를 훈련 데이터(Training Data)라고 한다. 즉, 상술한 학습 데이터의 특성값은 입력 값, 학습 데이터의 카메라 파라미터는 출력 값으로서, 파라미터 예측 모델(192)의 지도 학습을 위한 훈련 데이터로 사용될 수 있다.The parameter prediction model 192 may be supervised by the parameter prediction model learning unit 191 using characteristic values of training data and camera parameters. In this case, supervised learning means learning to find an output value according to a given input value by using data having an input value and an output value according to it as learning data, and it means learning performed in a state where the correct answer is known. The set of input and output values given to supervised learning is called training data. That is, the above-described characteristic value of the training data is an input value, and the camera parameter of the training data is an output value, which may be used as training data for supervised learning of the parameter prediction model 192 .

일례로 파라미터 예측 모델 학습부(191)는, 학습 데이터의 특성값을 고유한 제1 원-핫 벡터(one-hot vector)로 변환하여 입력값을 생성하고, 해당 학습 데이터의 카메라 파라미터를 고유한 제2 원-핫 벡터로 변환하여 출력값을 생성한 후, 생성된 입력값과 출력값을 이용해 파라미터 예측 모델(192)를 지도학습할 수 있다. 여기서, 제1 원-핫 벡터 및 제2 원-핫 벡터는 벡터를 구성하는 성분값들 중 하나가 '1'이고, 나머지 성분값들은 '0'으로 구성되는 벡터일 수 있다.For example, the parameter prediction model learning unit 191 converts a characteristic value of the training data into a unique first one-hot vector to generate an input value, and sets the camera parameter of the training data to a unique value. After generating an output value by converting it into a second one-hot vector, the parameter prediction model 192 may be supervised using the generated input and output values. Here, the first one-hot vector and the second one-hot vector may be vectors in which one of component values constituting the vector is '1' and the other component values are configured as '0'.

일 예시에서, 파라미터 예측 모델(192)은, 입력값을 입력받고 제1 원-핫 벡터의 성분 갯수에 상응하는 노드들을 갖는 입력층, 입력층의 출력값 각각에 대하여 연결강도(또는 가중치)를 곱하고, 바이어스(bias)를 더하여 출력하는 하나 이상의 은닉층(hidden layer); 및 은닉층의 출력값 각각에 대하여 연결강도(또는 가중치)를 곱하고, 그 결과를 활성화 함수를 이용하여 출력하는 출력층(output layer)을 포함할 수 있다. 여기서 활성화 함수는 LeRU 함수 또는 Softmax 함수일 수 있으나 이에 한정되는 것은 아니다. 연결강도와 바이어스는 지도 학습에 의해 지속적으로 갱신될 수 있다.In one example, the parameter prediction model 192 receives an input value and multiplies a connection strength (or weight) for each output value of the input layer and the input layer having nodes corresponding to the number of components of the first one-hot vector, and , one or more hidden layers outputting by adding a bias; and an output layer for multiplying each output value of the hidden layer by a connection strength (or weight) and outputting the result using an activation function. Here, the activation function may be a LeRU function or a Softmax function, but is not limited thereto. Connection strength and bias can be continuously updated by supervised learning.

구체적으로, 파라미터 예측 모델(192)은, 주어진 입력값(제1 원-핫 벡터)과 출력값(제2 원-핫 벡터)에 따른 손실 함수(loss function)의 출력값이 최소화되도록 지도학습될 수 있다. 예를 들어, 손실 함수(H(Y, Y`))는, 다음의 수학식 2와 같이 정의될 수 있다.Specifically, the parameter prediction model 192 may be supervised so that an output value of a loss function according to a given input value (a first one-hot vector) and an output value (a second one-hot vector) is minimized. . For example, the loss function H(Y, Y`) may be defined as in Equation 2 below.

Figure 112021070528795-pat00002
Figure 112021070528795-pat00002

수학식 2에서 Ym은 제2 원-핫 벡터의 m번째 성분이고, Y`m은 파라미터 예측 모델(192)에서 제1 원-핫 벡터를 입력받아 출력된 출력 벡터의 m번째 성분일 수 있다.In Equation 2, Ym may be the m-th component of the second one-hot vector, and Y'm may be the m-th component of the output vector output by receiving the first one-hot vector from the parameter prediction model 192 .

상기 훈련 데이터가 많으면 많을수록 파라미터 예측 모델(192)에 대해서 더 많은 지도 학습을 수행하여, 파라미터 예측 모델(192)의 정확도를 높일 수 있다.As the amount of training data increases, more supervised learning is performed on the parameter prediction model 192 to increase the accuracy of the parameter prediction model 192 .

파라미터 예측 모델(192)에는 인공 신경망(Artifical Neural Netwrok)이 이용될 수 있다. 일례로 파라미터 예측 모델(192)은 Bi-LSTM(Bidirectional LSTM)이나, 콘벌루셔널 뉴럴 네트워크(Convolutional Neural Network; CNN)로 구현될 수 있다.An artificial neural network may be used for the parameter prediction model 192 . For example, the parameter prediction model 192 may be implemented as a Bidirectional LSTM (Bi-LSTM) or a Convolutional Neural Network (CNN).

파라미터 예측 모델(192)은 사용자로부터 입력된 테스트 사진을 이용하여, 사용자에게 최적화된 카메라 파라미터를 예측할 수 있다.The parameter prediction model 192 may predict a camera parameter optimized for the user by using the test photo input from the user.

파라미터 설정부(190)는 파라미터 예측 모델(192)에서 예측된 카메라 파라미터가 복수개인 경우, 즉 사용자가 복수개의 테스트 사진을 입력한 경우, 복수개의 예측된 카메라 파라미터를 사용자가 선택한 촬영 컨셉의 카메라 파라미터와 비교하여, 최종 카메라 파라미터를 결정할 수 있다.The parameter setting unit 190 is a camera parameter of a shooting concept selected by the user as the plurality of predicted camera parameters when there are a plurality of camera parameters predicted by the parameter prediction model 192 , that is, when the user inputs a plurality of test photos. By comparing with , it is possible to determine the final camera parameters.

파라미터 설정부(190)는 복수개의 예측 카메라 파라미터 중에서, 사용자가 선택한 촬영 컨셉의 카메라 파라미터와 가장 유사한 예측 카메라 파라미터를, 최종 카메라 파라미터로 결정할 수 있다.The parameter setting unit 190 may determine a predicted camera parameter most similar to a camera parameter of a shooting concept selected by the user from among the plurality of predicted camera parameters as the final camera parameter.

전술한 바와 같이, 카메라 파라미터는 사진의 화질, 크기, 감도(ISO), 필터, 조리개, 카메라 셔터 스피드 등의 값을 포함할 수 있으며, 일례로, 파라미터 설정부(190)는 촬영 컨셉의 카메라 파라미터 값과 차이의 평균이 가장 작은 예측 카메라 파라미터를 최종 카메라 파라미터로 결정할 수 있으며, 다른 일례로 파라미터 설정부(190)는 카메라 파라미터 값의 우선 순위에 따라 우선 순위가 높은 값의 차이가 가장 작은 예측 카메라 파라미터를 최종 카메라 파라미터로 결정할 수 있다.As described above, the camera parameter may include values such as picture quality, size, sensitivity (ISO), filter, aperture, and camera shutter speed. The predicted camera parameter having the smallest average of the difference between the value and the difference may be determined as the final camera parameter. The parameter may be determined as the final camera parameter.

파라미터 설정부(190)는 예측 카메라 파라미터(최종 카메라 파라미터)를 이용하여 기기 제어 신호를 생성하여, 카메라(210)를 제어할 수 있다.The parameter setting unit 190 may control the camera 210 by generating a device control signal using the predicted camera parameter (final camera parameter).

이로써, 파라미터 설정부(190)는 머신러닝을 이용하여, 사용자의 테스트 사진으로부터 사용자가 원하는 최적의 카메라 파라미터를 추출하여 촬영룸의 카메라(210)에 적용시킬 수 있다.Accordingly, the parameter setting unit 190 may extract the optimal camera parameter desired by the user from the user's test photo by using machine learning and apply it to the camera 210 of the shooting room.

도 12는 일 실시예에 따른 사용자 단말(300)의 구성을 도시한 도면이다. 이하, 도 12에 도시된 사용자 단말(300)를 구성하는 구성요소들에 대해 차례로 살펴본다.12 is a diagram illustrating a configuration of a user terminal 300 according to an embodiment. Hereinafter, components constituting the user terminal 300 shown in FIG. 12 will be described in turn.

무선 통신부(310)는 사용자 단말(300)와 무선 통신 시스템 사이의 무선 통신 또는 사용자 단말(300)와 사용자 단말(300)가 위치한 네트워크 사이의 무선 통신을 수행하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 무선 통신부(310)는 방송 수신 모듈(311), 이동통신 모듈(312), 무선 인터넷 모듈(313), 근거리 통신 모듈(314) 및 위치정보 모듈(315) 등을 포함할 수 있다.The wireless communication unit 310 may include one or more components that perform wireless communication between the user terminal 300 and the wireless communication system or wireless communication between the user terminal 300 and the network in which the user terminal 300 is located. . For example, the wireless communication unit 310 may include a broadcast reception module 311 , a mobile communication module 312 , a wireless Internet module 313 , a short-range communication module 314 , and a location information module 315 , etc. .

방송 수신 모듈(311)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 여기에서, 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 한편, 방송 관련 정보는 이동통신망을 통하여도 제공될 수 있으며, 이러한 경우에는 이동통신 모듈(312)에 의해 수신될 수 있다.The broadcast reception module 311 receives a broadcast signal and/or broadcast related information from an external broadcast management server through a broadcast channel. Here, the broadcast channel may include a satellite channel and a terrestrial channel. Meanwhile, broadcast-related information may be provided through a mobile communication network, and in this case, may be received by the mobile communication module 312 .

또한, 이동통신 모듈(312)은 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.In addition, the mobile communication module 312 transmits and receives a wireless signal to and from at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call signal, or a text/multimedia message.

무선 인터넷 모듈(313)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 사용자 단말(300)에 내장되거나 외장 될 수 있다.The wireless Internet module 313 refers to a module for wireless Internet access, and may be built-in or external to the user terminal 300 .

근거리 통신 모듈(314)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short-range communication module 314 refers to a module for short-range communication. As the short-distance communication technology, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, etc. may be used.

또한, 위치정보 모듈(115)은 사용자 단말(300)의 위치를 확인하거나 얻기 위한 모듈이다. 일례로 GPS(Global Position System) 모듈을 들 수 있다. GPS 모듈은 복수 개의 인공위성으로부터 위치 정보를 수신한다. 여기에서, 위치 정보는 위도 및 경도로 표시되는 좌표 정보를 포함할 수 있다.Also, the location information module 115 is a module for confirming or obtaining the location of the user terminal 300 . An example is a Global Position System (GPS) module. The GPS module receives location information from a plurality of satellites. Here, the location information may include coordinate information indicated by latitude and longitude.

한편, A/V(Audio/Video) 입력부(320)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(321)와 마이크(322) 등이 포함될 수 있다. 카메라(321)는 화상 통화 모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 그리고, 처리된 화상 프레임은 디스플레이부(351)에 표시될 수 있다.Meanwhile, the A/V (Audio/Video) input unit 320 is for inputting an audio signal or a video signal, and may include a camera 321 , a microphone 322 , and the like. The camera 321 processes an image frame such as a still image or a moving image obtained by an image sensor in a video call mode or a shooting mode. Then, the processed image frame may be displayed on the display unit 351 .

카메라(321)에서 처리된 화상 프레임은 메모리(360)에 저장되거나 무선 통신부(310)를 통하여 외부로 전송될 수 있다. 카메라(321)는 사용자 단말(300)의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 321 may be stored in the memory 360 or transmitted to the outside through the wireless communication unit 310 . Two or more cameras 321 may be provided according to the configuration of the user terminal 300 .

마이크(322)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 그리고, 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(312)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(322)는 외부의 음향 신호를 입력받는 과정에서 발생하는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘을 구현할 수 있다.The microphone 322 receives an external sound signal by a microphone in a call mode, a recording mode, a voice recognition mode, and the like, and processes it as electrical voice data. In addition, the processed voice data may be converted into a form that can be transmitted to the mobile communication base station through the mobile communication module 312 and output in the call mode. The microphone 322 may implement various noise removal algorithms for removing noise generated in the process of receiving an external sound signal.

사용자 입력부(330)는 사용자로부터 입력 동작을 받아들여, 사용자 단말(300)의 동작 제어를 위한 입력 데이터를 발생시킨다.The user input unit 330 receives an input operation from the user and generates input data for controlling the operation of the user terminal 300 .

센싱부(340)는 사용자 단말(300)의 위치, 사용자 접촉 유무, 사용자 단말(300)의 방위, 사용자 단말(300)의 가속/감속 등과 같이, 사용자 단말(300)의 현 상태를 감지하여 사용자 단말(300)의 동작을 제어하기 위한 센싱 신호를 발생시킨다.The sensing unit 340 detects the current state of the user terminal 300 , such as the location of the user terminal 300 , the presence of user contact, the orientation of the user terminal 300 , and acceleration/deceleration of the user terminal 300 . A sensing signal for controlling the operation of the terminal 300 is generated.

인터페이스부(370)는 사용자 단말(300)에 연결되는 모든 외부기기와의 인터페이스 역할을 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 포함될 수 있다.The interface unit 370 serves as an interface with all external devices connected to the user terminal 300 . For example, wired/wireless headset ports, external charger ports, wired/wireless data ports, memory card ports, ports for connecting devices equipped with identification modules, audio input/output (I/O) ports, It may include a video input/output (I/O) port, an earphone port, and the like.

출력부(350)는 오디오 신호 또는 비디오 신호 또는 알람(alarm) 신호의 출력을 위한 것으로, 이에는 디스플레이부(351)와 음향 출력 모듈(352), 알람부(353) 등이 포함될 수 있다.The output unit 350 is for outputting an audio signal, a video signal, or an alarm signal, and may include a display unit 351 , a sound output module 352 , an alarm unit 353 , and the like.

디스플레이부(351)는 사용자 단말(300)에서 처리되는 정보를 표시 출력한다. 예를 들어, 단말기가 통화 모드인 경우, 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 그리고, 사용자 단말(300)가 화상 통화 모드 또는 촬영 모드인 경우, 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다.The display unit 351 displays and outputs information processed by the user terminal 300 . For example, when the terminal is in a call mode, a user interface (UI) or graphic user interface (GUI) related to a call is displayed. And, when the user terminal 300 is in the video call mode or the shooting mode, the captured and/or received image or UI and GUI are displayed.

한편, 전술한 바와 같이, 디스플레이부(351)와 터치 패드가 상호 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이부(351)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이부(351)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. 그리고, 사용자 단말(300)의 구현 형태에 따라, 디스플레이부(351)는 2개 이상 존재할 수도 있다. 예를 들어, 사용자 단말(300)에 외부 디스플레이부(미도시)와 내부 디스플레이부(미도시)가 동시에 구비될 수 있다.Meanwhile, as described above, when the display unit 351 and the touch pad form a layer structure to form a touch screen, the display unit 351 may be used as an input device in addition to an output device. The display unit 351 includes a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a three-dimensional display ( 3D display). In addition, two or more display units 351 may exist according to an implementation form of the user terminal 300 . For example, the user terminal 300 may be provided with an external display unit (not shown) and an internal display unit (not shown) at the same time.

음향 출력 모듈(352)은 호 신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서, 무선 통신부(310)로부터 수신되거나 메모리(360)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력 모듈(352)은 사용자 단말(300)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력한다. 이러한 음향 출력 모듈(352)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output module 352 outputs audio data received from the wireless communication unit 310 or stored in the memory 360 in call signal reception, call mode or recording mode, voice recognition mode, broadcast reception mode, and the like. In addition, the sound output module 352 outputs a sound signal related to a function (eg, a call signal reception sound, a message reception sound, etc.) performed in the user terminal 300 . The sound output module 352 may include a speaker, a buzzer, and the like.

알람부(353)는 사용자 단말(300)의 이벤트 발생을 알리기 위한 신호를 출력한다. 단말기에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력 등이 있다. The alarm unit 353 outputs a signal for notifying the occurrence of an event in the user terminal 300 . Examples of events occurring in the terminal include call signal reception, message reception, and key signal input.

메모리(360)는 제어부(380)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다.The memory 360 may store a program for processing and control of the controller 380, and provides a function for temporary storage of input/output data (eg, phonebook, message, still image, video, etc.). can also be done

메모리(360)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The memory 360 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg SD or XD memory, etc.), a RAM (RAM, Random Access Memory) SRAM (Static Random Access Memory), ROM (Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory) magnetic memory, magnetic disk, It may include at least one type of storage medium among optical disks.

제어부(380)는 통상적으로 단말기의 전반적인 동작을 제어한다. 예를 들어, 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 또한, 제어부(380)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(381)은 제어부(380) 내에 구현될 수도 있고, 제어부(380)와 별도로 구현될 수도 있다.The controller 380 generally controls the overall operation of the terminal. For example, it performs related control and processing for voice calls, data communications, video calls, and the like. Also, the controller 380 may include a multimedia module 181 for playing multimedia. The multimedia module 381 may be implemented within the control unit 380 or may be implemented separately from the control unit 380 .

제어부(380)는 전술한 포토 스튜디어 운영 방법을 구현하기 위한 단말기의 다양한 동작을 제어한다.The controller 380 controls various operations of the terminal for implementing the above-described photo studio operating method.

전원 공급부(290)는 제어부(280)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 290 receives external power and internal power under the control of the control unit 280 to supply power required for operation of each component.

한편, 상술한 운영 서버(100)의 동작 중 적어도 일부 또는 전부는 사용자 단말(300)에서 구현될 수도 있다. 이때, 사용자 단말(300)에는 운영 서버(100)와 통신하여 상술한 운영 서버(100)의 동작을 수행하기 위한 애플리케이션이 미리 설치될 수 있다.On the other hand, at least some or all of the operation of the above-described operation server 100 may be implemented in the user terminal (300). In this case, an application for communicating with the operation server 100 and performing the operation of the operation server 100 described above may be installed in the user terminal 300 in advance.

도 13은 본 발명의 일 실시예에 따른 통신 과정에서 적용될 수 있는 무선 통신 시스템을 나타낸 도면이다. 도 14은 도 13에 따른 무선 통신 시스템에서 기지국을 나타낸 도면이다. 도 15는 도 13에 따른 무선 통신 시스템에서 단말을 나타낸 도면이다. 도 16은 도 13에 따른 무선 통신 시스템에서 통신 인터페이스를 나타낸 도면이다.13 is a diagram illustrating a wireless communication system that can be applied in a communication process according to an embodiment of the present invention. 14 is a diagram illustrating a base station in the wireless communication system according to FIG. 13 . 15 is a diagram illustrating a terminal in the wireless communication system according to FIG. 13 . 16 is a diagram illustrating a communication interface in the wireless communication system according to FIG. 13 .

이하에서는 각종 서버들과 단말들 사이의 통신을 지원하는 무선 통신 네트워크 시스템의 일례를 구체적으로 예를 들어 설명한다. 다음 설명에서, 제1 노드(장치)는 앵커/도너 노드 또는 앵커/도너 노드의 CU(centralized unit) 일 수 있고, 제2 노드(장치)는 앵커/도너 노드 또는 릴레이 노드의 DU(distributed unit) 일 수 있다.Hereinafter, an example of a wireless communication network system supporting communication between various servers and terminals will be described in detail as an example. In the following description, a first node (device) may be an anchor/donor node or a centralized unit (CU) of an anchor/donor node, and a second node (device) may be an anchor/donor node or a distributed unit (DU) of a relay node. can be

무선 통신 시스템에서 무선 채널을 사용하는 노드의 일부로 기지국(base station, BS), 단말, 서버 등이 포함될 수 있다.As a part of a node using a radio channel in a wireless communication system, a base station (BS), a terminal, a server, and the like may be included.

기지국은 단말 및 단말에 무선 액세스를 제공하는 네트워크 인프라이다. 기지국은 신호가 전송될 수 있는 거리에 따라 소정의 지리적 영역으로 정의된 커버리지를 갖는다.A base station is a network infrastructure that provides wireless access to terminals and terminals. A base station has coverage defined as a certain geographic area according to the distance over which signals can be transmitted.

기지국은 "기지국"과 마찬가지로 "액세스 포인트(access point, AP)", "이노드비(enodeb, eNB)", "5 세대(5th generation, 5G) 노드", "무선 포인트(wireless point)", "송/수신 포인트(transmission/reception point, TRP)" 지칭될 수 있다.A base station is an "access point (AP)", "enodeb (eNB)", "5th generation (5G) node", "wireless point", " It may be referred to as a "transmission/reception point (TRP)".

기지국, 단말 및 단말은 밀리미터 파(millimeter wave, mmWave) 대역(예: 28GHz, 30GHz, 38GHz, 60GHz)으로 무선 신호를 송수신할 수 있다. 이때, 채널 이득 향상을 위해 기지국, 단말 및 단말은 빔포밍을 수행할 수 있다. 빔포밍은 송신 빔포밍 및 수신 빔포밍을 포함할 수 있다. 즉, 기지국, 단말 및 단말은 송신 신호와 수신 신호에 지향성을 부여할 수 있다. 이를 위해 기지국, 단말 및 단말은 빔 탐색 절차 또는 빔 관리 절차를 통해 서빙 빔을 선택할 수 있다. 그 후, 통신은 서빙 빔을 운반하는 자원과 준 동일위치(quasi co-located) 관계에 있는 자원을 사용하여 수행될 수 있다.The base station, the terminal, and the terminal may transmit and receive radio signals in millimeter wave (mmWave) bands (eg, 28 GHz, 30 GHz, 38 GHz, 60 GHz). In this case, the base station, the terminal, and the terminal may perform beamforming to improve the channel gain. Beamforming may include transmit beamforming and receive beamforming. That is, the base station, the terminal, and the terminal may impart directivity to the transmitted signal and the received signal. To this end, the base station, the terminal, and the terminal may select a serving beam through a beam discovery procedure or a beam management procedure. Thereafter, communication may be performed using a resource that is in a quasi co-located relationship with a resource carrying the serving beam.

첫 번째 안테나 포트 및 두 번째 안테나 포트는 첫 번째 안테나 포트의 심볼이 전달되는 채널의 대규모 속성이 두 번째 안테나 포트의 심볼이 전달되는 채널에서 유추될 수 있는 경우 준 동일위치 위치에 있는 것으로 간주된다. 대규모 속성은 지연 확산, 도플러 확산, 도플러 시프트, 평균 이득, 평균 지연 및 공간 Rx 파라미터 중 하나 이상을 포함할 수 있다.The first antenna port and the second antenna port are considered quasi-co-located if the large-scale properties of the channel through which the symbol of the first antenna port is carried can be inferred from the channel through which the symbol of the second antenna port is carried. The large-scale attribute may include one or more of delay spread, Doppler spread, Doppler shift, average gain, average delay, and spatial Rx parameters.

이하에서는 상술한 무선 통신 시스템에서 기지국을 예시한다. 이하에서 사용되는 "-모듈(module)", "-부(unit)"또는 "-er"라는 용어는 적어도 하나의 기능 또는 동작을 처리하는 유닛을 의미할 수 있으며, 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있다.Hereinafter, a base station is exemplified in the above-described wireless communication system. The terms “-module”, “-unit” or “-er” used hereinafter may mean a unit that processes at least one function or operation, and includes hardware, software, or hardware and software. It can be implemented as a combination of

기지국은 무선 통신 인터페이스, 백홀 통신 인터페이스, 저장부(storage unit 및 컨트롤러을 포함할 수 있다.The base station may include a wireless communication interface, a backhaul communication interface, a storage unit and a controller.

무선 통신 인터페이스는 무선 채널을 통해 신호를 송수신하는 기능을 수행한다. 예를 들어, 무선 통신 인터페이스는 시스템의 물리 계층 표준에 따라 베이스 밴드 신호와 비트 스트림 간의 변환 기능을 수행할 수 있다. 예를 들어, 데이터 전송에서, 무선 통신 인터페이스은 전송 비트 스트림을 압축 및 변조하여 복합 심볼을 생성한다. 또한, 데이터 수신 시 무선 통신 인터페이스는 베이스 밴드 신호를 복조 및 디코딩하여 수신 비트 스트림을 재구성한다.The wireless communication interface performs a function of transmitting and receiving signals through a wireless channel. For example, the wireless communication interface may perform a conversion function between a baseband signal and a bit stream according to a physical layer standard of the system. For example, in data transmission, a wireless communication interface compresses and modulates a transmitted bit stream to produce a complex symbol. In addition, upon data reception, the wireless communication interface demodulates and decodes the baseband signal to reconstruct the received bit stream.

무선 통신 인터페이스는 무선 채널을 통해 신호를 송수신하는 기능을 수행한다. 예를 들어, 무선 통신 인터페이스은 시스템의 물리 계층 표준에 따라 베이스 밴드 신호와 비트 스트림 간의 변환 기능을 수행할 수 있다. 예를 들어, 데이터 전송에서, 무선 통신 인터페이스은 전송 비트 스트림을 압축 및 변조하여 복합 심볼을 생성한다. 또한, 데이터 수신 시 무선 통신 인터페이스은 베이스 밴드 신호를 복조 및 디코딩하여 수신 비트 스트림을 재구성한다.The wireless communication interface performs a function of transmitting and receiving signals through a wireless channel. For example, the wireless communication interface may perform a conversion function between a baseband signal and a bit stream according to a physical layer standard of the system. For example, in data transmission, a wireless communication interface compresses and modulates a transmitted bit stream to produce a complex symbol. In addition, upon data reception, the wireless communication interface demodulates and decodes the baseband signal to reconstruct the received bit stream.

또한, 무선 통신 인터페이스는 베이스 대역 신호를 RF(Radio Frequency) 대역 신호로 상향 변환하고, 변환된 신호를 안테나를 통해 전송한 후 안테나를 통해 수신된 RF 대역 신호를 베이스 대역 신호로 하향 변환한다. 이를 위해, 무선 통신 인터페이스은 송신 필터(transmission filter), 수신 필터(reception filter), 증폭기(amplifier), 믹서(mixer), 발진기(oscillator), 디지털-아날로그 컨버터(digital-to-analog convertor, DAC), 아날로그-디지털 컨버터(analog-to-digital convertor, ADC) 등을 포함할 수 있다. 또한, 무선 통신 인터페이스는 복수의 송수신 경로를 포함할 수 있다. 또한, 무선 통신 인터페이스는 복수의 안테나 요소를 포함하는 적어도 하나의 안테나 어레이를 포함할 수 있다.In addition, the wireless communication interface up-converts the base band signal into a radio frequency (RF) band signal, transmits the converted signal through the antenna, and then down-converts the RF band signal received through the antenna into a base band signal. To this end, the wireless communication interface includes a transmission filter, a reception filter, an amplifier, a mixer, an oscillator, a digital-to-analog converter (DAC), It may include an analog-to-digital converter (ADC) and the like. Also, the wireless communication interface may include a plurality of transmission/reception paths. Further, the wireless communication interface may include at least one antenna array including a plurality of antenna elements.

하드웨어 측면에서 무선 통신 인터페이스는 디지털 유닛과 아날로그 유닛을 포함할 수 있고, 아날로그 유닛은 동작 전력, 동작 주파수 등에 따라 복수의 서브 유닛을 포함할 수 있다. 디지털 유닛은 적어도 하나의 프로세서(예를 들어, 디지털 신호 프로세서(digital signal processor, DSP))로 구현될 수 있다.In terms of hardware, the wireless communication interface may include a digital unit and an analog unit, and the analog unit may include a plurality of sub-units according to operating power, operating frequency, and the like. The digital unit may be implemented with at least one processor (eg, a digital signal processor (DSP)).

무선 통신 인터페이스는 전술한 바와 같이 신호를 송수신한다. 따라서, 무선 통신 인터페이스는 "송신기(transmitter)", "수신기(receiver)"또는 "트랜시버(transceiver)"로 지칭될 수 있다. 또한, 이하의 설명에서 무선 채널을 통해 수행되는 송수신은 전술한 바와 같이 무선 통신 인터페이스에서 수행되는 처리를 포함하는 의미로 사용될 수 있다.The wireless communication interface transmits and receives signals as described above. Accordingly, a wireless communication interface may be referred to as a "transmitter", "receiver" or "transceiver". In addition, in the following description, transmission/reception performed through a wireless channel may be used to include processing performed in a wireless communication interface as described above.

백홀 통신 인터페이스는 네트워크 내의 다른 노드와 통신을 수행하기위한 인터페이스를 제공한다. 즉, 백홀 통신 인터페이스는 다른 노드로 전송되는 비트 스트림을 변환하고, 예를 들어, 다른 액세스 노드, 다른 기지국, 상위 노드 또는 기지국으로부터의 코어 네트워크는 물리적 신호로, 다른 노드로부터 수신된 물리적 신호를 비트 스트림으로 변환한다.The backhaul communication interface provides an interface for performing communication with other nodes in the network. That is, the backhaul communication interface converts the bit stream transmitted to another node, for example, another access node, another base station, a higher node or a core network from a base station converts the physical signal received from the other node into a physical signal. Convert to stream.

저장부는 기본 프로그램, 어플리케이션, 기지국의 동작을 위한 설정 정보 등의 데이터를 저장한다. 저장부는 휘발성 메모리, 비 휘발성 메모리 또는 휘발성 메모리와 비 휘발성 메모리의 조합을 포함할 수 있다.The storage unit stores data such as basic programs, applications, and setting information for operation of the base station. The storage unit may include a volatile memory, a non-volatile memory, or a combination of a volatile memory and a non-volatile memory.

컨트롤러는 기지국의 전반적인 동작을 제어한다. 예를 들어, 컨트롤러는 무선 통신 인터페이스 또는 백홀 통신 인터페이스를 통해 신호를 송수신한다. 또한 컨트롤러는 저장부에 데이터를 기록하고 기록된 데이터를 읽는다. 컨트롤러는 통신 규격에서 요구하는 프로토콜 스택의 기능을 수행할 수 있다. 다른 구현에 따르면, 프로토콜 스택은 무선 통신 인터페이스에 포함될 수 있다. 이를 위해 컨트롤러는 적어도 하나의 프로세서를 포함할 수 있다.The controller controls the overall operation of the base station. For example, the controller transmits and receives signals through a wireless communication interface or a backhaul communication interface. In addition, the controller writes data to the storage and reads the recorded data. The controller can perform the function of the protocol stack required by the communication standard. According to another implementation, the protocol stack may be included in a wireless communication interface. To this end, the controller may include at least one processor.

일 실시 예에 따르면 컨트롤러는 본 발명의 실시 예에 따른 동작을 수행하도록 기지국을 제어할 수 있다.According to an embodiment, the controller may control the base station to perform an operation according to an embodiment of the present invention.

다양한 실시 예에 따르면, 무선 통신 시스템의 도너 노드는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서에 동작 가능하게 결합된 트랜시버를 포함하고, 상기 릴레이 노드에 액세스하는 단말에 대한 복수의 라디오 베어러에 관한 상기 도너 노드와 관련된 제1 정보를 포함하는 제1 메시지를 릴레이 노드로 전송하도록 구성되고; 상기 릴레이 노드로부터 상기 단말에 대한 복수의 라디오 베어러에 관한 상기 릴레이 노드와 관련된 제2 정보를 포함하는 제2 메시지를 수신하고; 단말에 대한 데이터를 릴레이 노드로 전송할 수 있다. 데이터는 제1 정보 및 제2 정보에 기초하여 복수의 라디오 베어러를 통해 단말로 전송될 수 있다.According to various embodiments, a donor node of a wireless communication system includes at least one processor, a transceiver operatively coupled to the at least one processor, and a plurality of radio bearers for a terminal accessing the relay node. and send to the relay node a first message including first information related to the donor node regarding receive, from the relay node, a second message including second information related to the relay node regarding a plurality of radio bearers for the terminal; Data for the terminal may be transmitted to the relay node. Data may be transmitted to the terminal through a plurality of radio bearers based on the first information and the second information.

다양한 실시 예에 따르면, 복수의 라디오 베어러 중 라디오 베어러는 복수의 라디오 베어러를 통합시킬 수 있다. 적어도 하나의 프로세서는 또한 릴레이 노드에 액세스하는 단말에 대한 라디오 베어러 및 라디오 베어러에 의해 통합된 다중 라디오 베어러를 결정하도록 구성되고; 또는 릴레이 노드에 액세스하는 단말에 대한 라디오 베어러를 결정할 수 있다.According to various embodiments, a radio bearer among a plurality of radio bearers may aggregate a plurality of radio bearers. the at least one processor is further configured to determine a radio bearer for the terminal accessing the relay node and a multiple radio bearer aggregated by the radio bearer; Alternatively, a radio bearer for a terminal accessing the relay node may be determined.

다양한 실시 예에 따르면, 제1 메시지는 다음 중 하나 이상을 포함할 수 있다: 릴레이 노드에 액세스하는 터미널의 식별; 릴레이 노드에 접속하는 단말의 종류를 나타내는 표시 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러에 대한 정보; 릴레이 노드에 액세스하는 단말에 의해 전달된 라디오 베어러에 대한 정보; 도너 노드와 릴레이 노드 사이의 라디오 베어러에 대해 설정된 터널에 대한 정보; 통합된 다중 라디오 베어러에 대한 정보; 라디오 베어러 매핑 정보; 도너 노드 측면의 주소에 대한 정보; 릴레이 노드 측의 주소에 대한 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러에 대응하는 표시 정보; 릴레이 노드에 액세스하는 단말에 대해 새로운 주소를 라디오 베어러에 할당하도록 릴레이 노드를 나타내는 표시 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러의 데이터를 전송하는 릴레이 노드가 사용할 수 없는 주소 정보 목록; 및 보안 구성과 관련된 정보.According to various embodiments, the first message may include one or more of the following: identification of a terminal accessing the relay node; display information indicating the type of terminal accessing the relay node; information on a radio bearer of a terminal accessing a relay node; information on the radio bearer delivered by the terminal accessing the relay node; information on the tunnel established for the radio bearer between the donor node and the relay node; information on the aggregated multiple radio bearers; radio bearer mapping information; information on the address of the side of the donor node; information on the address of the relay node side; indication information corresponding to a radio bearer of a terminal accessing a relay node; indication information indicating the relay node to allocate a new address to a radio bearer for a terminal accessing the relay node; a list of address information that cannot be used by a relay node that transmits data of a radio bearer of a terminal accessing the relay node; and information related to security configuration.

다양한 실시 예에 따르면, 제2 메시지는 다음 중 하나 이상을 포함할 수 있다: 릴레이 노드에 액세스하는 터미널의 식별; 릴레이 노드에 의해 승인된 라디오 베어러에 대한 정보; 릴레이 노드에 의해 승인되지 않은 라디오 베어러에 대한 정보; 릴레이 노드에 의해 부분적으로 승인된 라디오 베어러에 대한 정보; 라디오 베어러 매핑 정보; 릴레이 노드가 생성한 릴레이 노드에 접속하는 단말의 구성 정보; 릴레이 노드 측의 주소에 대한 정보; 및 보안 구성과 관련된 정보.According to various embodiments, the second message may include one or more of the following: identification of a terminal accessing the relay node; information on radio bearers accepted by the relay node; information on radio bearers not acknowledged by the relay node; information on radio bearers partially granted by the relay node; radio bearer mapping information; configuration information of a terminal accessing the relay node generated by the relay node; information on the address of the relay node side; and information related to security configuration.

다양한 실시 예에 따르면, 제2 메시지는 통합된 다중 라디오 베어러에 대한 정보를 더 포함할 수 있다.According to various embodiments, the second message may further include information on the integrated multi-radio bearer.

다양한 실시 예에 따르면, 도너 노드는 도너 노드의 중앙 유닛을 포함하고, 릴레이 노드는 도너 노드의 분산 유닛을 포함할 수 있다.According to various embodiments, the donor node may include a central unit of the donor node, and the relay node may include a distributed unit of the donor node.

다양한 실시 예에 따르면, 무선 통신 시스템의 릴레이 노드는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서에 동작 가능하게 결합된 트랜시버를 포함하고, 도너 노드로부터, 릴레이 노드에 액세스하는 단말에 대한 복수의 라디오 베어러에 관한 도너 노드와 관련된 제1 정보를 포함하는 제1 메시지를 수신하도록 구성되고; 단말에 대한 복수의 라디오 베어러에 관한 릴레이 노드와 관련된 제2 정보를 포함하는 제2 메시지를 도너 노드로 전송하고; 도너 노드로부터 단말기에 대한 데이터를 수신할 수 있다. 데이터는 제1 정보 및 제2 정보에 기초하여 복수의 라디오 베어러를 통해 단말로 전송될 수 있다.According to various embodiments, a relay node of a wireless communication system includes at least one processor, a transceiver operatively coupled to the at least one processor, and a plurality of terminals accessing the relay node from a donor node. configured to receive a first message comprising first information related to a donor node regarding a radio bearer of ; transmit a second message including second information related to the relay node regarding the plurality of radio bearers to the terminal to the donor node; It is possible to receive data for the terminal from the donor node. Data may be transmitted to the terminal through a plurality of radio bearers based on the first information and the second information.

다양한 실시 예에 따르면, 복수의 라디오 베어러 중 라디오 베어러는 복수의 라디오 베어러를 통합시킬 수 있다. 적어도 하나의 프로세서는 또한 릴레이 노드에 액세스하는 단말에 대한 라디오 베어러 및 라디오 베어러에 의해 통합된 다중 라디오 베어러를 결정하도록 구성되고; 또는 라디오 베어러에 의해 통합된 다중 라디오 베어러를 결정할 수 있다.According to various embodiments, a radio bearer among a plurality of radio bearers may aggregate a plurality of radio bearers. the at least one processor is further configured to determine a radio bearer for the terminal accessing the relay node and a multiple radio bearer aggregated by the radio bearer; Alternatively, multiple radio bearers integrated by the radio bearer may be determined.

다양한 실시 예에 따르면, 제1 메시지는 다음 중 하나 이상을 포함할 수 있다: 릴레이 노드에 액세스하는 터미널의 식별; 릴레이 노드에 접속하는 단말의 종류를 나타내는 표시 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러에 대한 정보; 릴레이 노드에 액세스하는 단말에 의해 전달된 라디오 베어러에 대한 정보; 도너 노드와 릴레이 노드 사이의 라디오 베어러에 대해 설정된 터널에 대한 정보; 통합된 다중 라디오 베어러에 대한 정보; 라디오 베어러 매핑 정보; 도너 노드 측면의 주소에 대한 정보; 릴레이 노드 측의 주소에 대한 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러에 대응하는 표시 정보; 릴레이 노드에 액세스하는 단말에 대해 새로운 주소를 라디오 베어러에 할당하도록 릴레이 노드를 나타내는 표시 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러의 데이터를 전송하는 릴레이 노드가 사용할 수 없는 주소 정보 목록; 및 보안 구성과 관련된 정보.According to various embodiments, the first message may include one or more of the following: identification of a terminal accessing the relay node; display information indicating the type of terminal accessing the relay node; information on a radio bearer of a terminal accessing a relay node; information on the radio bearer delivered by the terminal accessing the relay node; information on the tunnel established for the radio bearer between the donor node and the relay node; information on the aggregated multiple radio bearers; radio bearer mapping information; information on the address of the side of the donor node; information on the address of the relay node side; indication information corresponding to a radio bearer of a terminal accessing a relay node; indication information indicating the relay node to allocate a new address to a radio bearer for a terminal accessing the relay node; a list of address information that cannot be used by a relay node that transmits data of a radio bearer of a terminal accessing the relay node; and information related to security configuration.

다양한 실시 예에 따르면, 제2 메시지는 다음 중 하나 이상을 포함할 수 있다: 릴레이 노드에 액세스하는 터미널의 식별; 릴레이 노드에 의해 승인된 라디오 베어러에 대한 정보; 릴레이 노드에 의해 승인되지 않은 라디오 베어러에 대한 정보; 릴레이 노드에 의해 부분적으로 승인된 라디오 베어러에 대한 정보; 라디오 베어러 매핑 정보; 릴레이 노드가 생성한 릴레이 노드에 접속하는 단말의 구성 정보; 릴레이 노드 측의 주소에 대한 정보; 및 보안 구성과 관련된 정보.According to various embodiments, the second message may include one or more of the following: identification of a terminal accessing the relay node; information on radio bearers accepted by the relay node; information on radio bearers not acknowledged by the relay node; information on radio bearers partially granted by the relay node; radio bearer mapping information; configuration information of a terminal accessing the relay node generated by the relay node; information on the address of the relay node side; and information related to security configuration.

다양한 실시 예에 따르면, 제2 메시지는 통합된 다중 라디오 베어러에 대한 정보를 더 포함할 수 있다.According to various embodiments, the second message may further include information on the integrated multi-radio bearer.

다양한 실시 예에 따르면, 도너 노드는 도너 노드의 중앙 유닛을 포함하고, 릴레이 노드는 도너 노드의 분산 유닛을 포함할 수 있다.According to various embodiments, the donor node may include a central unit of the donor node, and the relay node may include a distributed unit of the donor node.

이하에서는 상술한 무선 통신 시스템에서 단말의 구성요소를 도시한다. 이하에서는 설명하는 단말의 구성요소는 무선 통신 시스템에서 지원하는 범용적인 단말의 구성요소로서 전술한 내용들에 따른 단말의 구성요소와 병합되거나 통합될 수 있고, 일부 중첩되거나 상충되는 범위에서 앞서 도면을 참조하여 설명한 내용이 우선적용되는 것으로 해석될 수 있다. 이하에서 사용되는 "-모듈", "-유닛"또는 "-er"라는 용어는 적어도 하나의 기능을 처리하는 유닛을 의미할 수 있다.Hereinafter, components of a terminal in the above-described wireless communication system are illustrated. The components of the terminal to be described below are components of a general-purpose terminal supported by the wireless communication system, and may be merged or integrated with the components of the terminal according to the above-described contents, and to the extent that some overlap or conflict, refer to the drawings above. Contents described with reference may be interpreted as having priority. The terms “-module”, “-unit” or “-er” used below may refer to a unit that processes at least one function.

단말은 통신 인터페이스, 저장부 및 컨트롤러를 포함한다.The terminal includes a communication interface, a storage unit and a controller.

통신 인터페이스는 무선 채널을 통해 신호를 송수신하는 기능을 수행한다. 예를 들어, 통신 인터페이스는 시스템의 물리 계층 표준에 따라 베이스 밴드 신호와 비트 스트림 간의 변환 기능을 수행한다. 예를 들어, 데이터 전송에서 통신 인터페이스는 전송 비트 스트림을 압축 및 변조하여 복합 심볼을 생성한다. 또한, 데이터 수신시 통신 인터페이스는 베이스 대역 신호를 복조 및 복호화하여 수신 비트 스트림을 재구성한다. 또한, 통신 인터페이스는 베이스 대역 신호를 RF 대역 신호로 상향 변환하고, 변환된 신호를 안테나를 통해 전송한 후 안테나를 통해 수신된 RF 대역 신호를 기저 대역 신호로 하향 변환한다. 예를 들어, 통신 인터페이스는 송신 필터(transmission filter), 수신 필터(reception filter), 증폭기(amplifier), 믹서(mixer), 발진기(oscillator), 디지털-아날로그 컨버터(digital-to-analog convertor, DAC), 아날로그-디지털 컨버터(analog-to-digital convertor, ADC) 등을 포함할 수 있다.The communication interface performs a function of transmitting and receiving signals through a wireless channel. For example, the communication interface performs a function of converting between a baseband signal and a bit stream according to the physical layer standard of the system. For example, in data transmission, a communication interface compresses and modulates a transport bit stream to produce a complex symbol. In addition, upon data reception, the communication interface demodulates and decodes the baseband signal to reconstruct the received bit stream. In addition, the communication interface up-converts the base band signal into an RF band signal, transmits the converted signal through the antenna, and then down-converts the RF band signal received through the antenna into a base band signal. For example, the communication interface may include a transmission filter, a reception filter, an amplifier, a mixer, an oscillator, and a digital-to-analog converter (DAC). , an analog-to-digital converter (ADC), and the like.

또한, 통신 인터페이스는 복수의 송수신 경로를 포함할 수 있다. 또한, 통신 인터페이스는 복수의 안테나 요소를 포함하는 적어도 하나의 안테나 어레이를 포함할 수 있다. 하드웨어 측에서 무선 통신 인터페이스는 디지털 회로 및 아날로그 회로(예를 들어, radio frequency integrated circuit, RFIC)를 포함할 수 있다. 디지털 회로는 적어도 하나의 프로세서(예: DSP)로 구현될 수 있다. 통신 인터페이스는 복수의 RF 체인을 포함할 수 있다. 통신 인터페이스는 빔포밍을 수행할 수 있다.Also, the communication interface may include a plurality of transmission/reception paths. Further, the communication interface may include at least one antenna array including a plurality of antenna elements. On the hardware side, the wireless communication interface may include a digital circuit and an analog circuit (eg, a radio frequency integrated circuit, RFIC). The digital circuit may be implemented by at least one processor (eg, DSP). The communication interface may include a plurality of RF chains. The communication interface may perform beamforming.

통신 인터페이스는 전술한 바와 같이 신호를 송수신한다. 따라서, 통신 인터페이스는 "송신기(transmitter)", "수신기(receiver)"또는 "트랜시버(transceiver)"로 지칭될 수 있다. 또한, 이하의 설명에서 무선 채널을 통해 수행되는 송수신은 전술한 바와 같이 통신 인터페이스에서 수행되는 처리를 포함하는 의미로 사용될 수 있다.The communication interface transmits and receives signals as described above. Accordingly, a communication interface may be referred to as a "transmitter", "receiver" or "transceiver". In addition, in the following description, transmission/reception performed through a wireless channel may be used to include processing performed in a communication interface as described above.

저장부는 단말기의 동작을 위한 기본 프로그램, 어플리케이션, 설정 정보 등의 데이터를 저장한다. 저장부는 휘발성 메모리, 비 휘발성 메모리 또는 휘발성 메모리와 비 휘발성 메모리의 조합을 포함할 수 있다. 또한, 저장부는 컨트롤러의 요청에 따라 저장된 데이터를 제공한다.The storage unit stores data such as basic programs, applications, and setting information for the operation of the terminal. The storage unit may include a volatile memory, a non-volatile memory, or a combination of a volatile memory and a non-volatile memory. In addition, the storage unit provides the stored data according to the request of the controller.

컨트롤러는 단말의 전반적인 동작을 제어한다. 예를 들어, 컨트롤러는 통신 인터페이스를 통해 신호를 송수신한다. 또한 컨트롤러는 저장부에 데이터를 기록하고 기록된 데이터를 읽는다. 컨트롤러는 통신 규격에서 요구하는 프로토콜 스택의 기능을 수행할 수 있다. 다른 구현에 따르면, 프로토콜 스택은 통신 인터페이스에 포함될 수 있다. 이를 위해, 컨트롤러는 적어도 하나의 프로세서 또는 마이크로 프로세서를 포함하거나 프로세서의 일부를 재생할 수 있다. 또한, 통신 인터페이스 또는 컨트롤러의 일부를 통신 프로세서(communication processor, CP)라고 할 수 있다.The controller controls the overall operation of the terminal. For example, the controller sends and receives signals through a communication interface. In addition, the controller writes data to the storage and reads the recorded data. The controller can perform the function of the protocol stack required by the communication standard. According to another implementation, the protocol stack may be included in the communication interface. To this end, the controller may include at least one processor or microprocessor or regenerate a part of the processor. In addition, a part of the communication interface or controller may be referred to as a communication processor (CP).

본 발명의 일 실시 예에 따르면, 컨트롤러는 본 발명의 실시 예에 따른 동작을 수행하도록 단말을 제어할 수 있다.According to an embodiment of the present invention, the controller may control the terminal to perform the operation according to the embodiment of the present invention.

이하에서는 무선 통신 시스템에서 통신 인터페이스를 예시한다. Hereinafter, a communication interface in a wireless communication system is exemplified.

통신 인터페이스는 압축 및 변조 회로, 디지털 빔포밍 회로, 복수의 전송 경로 및 아날로그 빔포밍 회로를 포함한다.The communication interface includes compression and modulation circuitry, digital beamforming circuitry, a plurality of transmission paths, and analog beamforming circuitry.

압축 및 변조 회로는 채널 압축을 수행한다. 채널 압축을 위해 low-density parity check(LDPC) 코드, 컨볼루션 코드 및 폴라 코드 중 적어도 하나가 사용될 수 있다. 압축 및 변조 회로는 성상 매핑(constellation mapping)을 수행함으로써 변조 심볼을 생성한다.The compression and modulation circuitry performs channel compression. At least one of a low-density parity check (LDPC) code, a convolutional code, and a polar code may be used for channel compression. The compression and modulation circuitry generates modulation symbols by performing constellation mapping.

디지털 빔포밍 회로는 디지털 신호(예를 들어, 변조 심볼)에 대한 빔 형성을 수행한다. 이를 위해, 디지털 빔포밍 회로는 빔포밍 가중 값에 의해 변조 심볼을 다중화한다. 빔포밍 가중치는 신호의 크기 및 문구를 변경하는데 사용될 수 있으며, "프리코딩 매트릭스(precoding matrix)"또는 "프리코더(precoder)"라고 할 수 있다. 디지털 빔포밍 회로는 디지털 빔포밍된 변조 심볼을 복수의 전송 경로로 출력한다. 이때, 다중 안테나 기술(multiple input multiple output, MIMO) 전송 방식에 따라 변조 심볼이 다중화 되거나 동일한 변조 심볼이 복수의 전송 경로에 제공될 수 있다.The digital beamforming circuit performs beamforming on a digital signal (eg, a modulation symbol). To this end, the digital beamforming circuit multiplexes the modulation symbols by the beamforming weight value. The beamforming weight may be used to change the size and phrase of a signal, and may be referred to as a “precoding matrix” or a “precoder”. The digital beamforming circuit outputs digital beamformed modulation symbols to a plurality of transmission paths. In this case, modulation symbols may be multiplexed according to a multiple input multiple output (MIMO) transmission method, or the same modulation symbol may be provided to a plurality of transmission paths.

복수의 전송 경로는 디지털 빔포밍된 디지털 신호를 아날로그 신호로 변환한다. 이를 위해, 복수의 전송 경로 각각은 인버스 고속 푸리에 변환(inverse fast fourier transform, IFFT) 계산 유닛, 순환 전치(cyclic prefix, CP) 삽입 유닛, DAC 및 상향 변환 유닛을 포함할 수 있다. CP 삽입 부는 직교 주파수 분할 다중화(orthogonal frequency division multiplexing, OFDM) 방식을 위한 것으로 다른 물리 계층 방식(예: 필터 뱅크 다중 반송파(a filter bank multi-carrier): FBMC) 적용시 생략될 수 있다. 즉, 복수의 전송 경로는 디지털 빔포밍을 통해 생성된 복수의 스트림에 대해 독립적인 신호 처리 프로세스를 제공한다. 그러나, 구현에 따라 복수의 전송 경로의 일부 요소는 공통적으로 사용될 수 있다.The plurality of transmission paths converts the digital beamformed digital signal into an analog signal. To this end, each of the plurality of transmission paths may include an inverse fast Fourier transform (IFFT) calculation unit, a cyclic prefix (CP) insertion unit, a DAC, and an up-conversion unit. The CP insertion unit is for an orthogonal frequency division multiplexing (OFDM) method and may be omitted when other physical layer methods (eg, a filter bank multi-carrier: FBMC) are applied. That is, the plurality of transmission paths provide independent signal processing processes for a plurality of streams generated through digital beamforming. However, depending on the implementation, some elements of a plurality of transmission paths may be used in common.

아날로그 빔포밍 회로는 아날로그 신호에 대한 빔포밍을 수행한다. 이를 위해, 디지털 빔포밍 회로는 빔포밍 가중 값에 의해 아날로그 신호를 다중화한다. 빔포밍된 가중치는 신호의 크기와 문구를 변경하는데 사용된다. 보다 구체적으로, 복수의 전송 경로와 안테나 사이의 연결 구조에 따라, 아날로그 빔포밍 회로는 다양한 방식으로 구성될 수 있다. 예를 들어, 복수의 전송 경로 각각은 하나의 안테나 어레이에 연결될 수 있다. 다른 예에서, 복수의 전송 경로는 하나의 안테나 어레이에 연결될 수 있다. 또 다른 예에서, 복수의 전송 경로는 하나의 안테나 어레이에 적응적으로 연결될 수 있거나 2개 이상의 안테나 어레이에 연결될 수 있다.The analog beamforming circuit performs beamforming on an analog signal. To this end, the digital beamforming circuit multiplexes the analog signal by the beamforming weight value. Beamformed weights are used to change the size and text of the signal. More specifically, according to a connection structure between the plurality of transmission paths and the antenna, the analog beamforming circuit may be configured in various ways. For example, each of the plurality of transmission paths may be connected to one antenna array. In another example, a plurality of transmission paths may be coupled to one antenna array. In another example, the plurality of transmission paths may be adaptively coupled to one antenna array or may be coupled to two or more antenna arrays.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in relation to an embodiment of the present invention may be implemented directly in hardware, as a software module executed by hardware, or by a combination thereof. A software module may contain random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any type of computer-readable recording medium well known in the art to which the present invention pertains.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.As mentioned above, although embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains know that the present invention may be embodied in other specific forms without changing the technical spirit or essential features thereof. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

Claims (8)

포토 스튜디오 운영 서버의 동작 방법으로,
촬영룸 서버로부터 사용자가 선택한 촬영 컨셉을 수신하는 단계;
컨셉 맵핑 테이블을 이용하여, 상기 사용자가 선택한 촬영 컨셉에 해당하는 컨셉 데이터를 추출하는 단계;
상기 컨셉 데이터를 이용하여, 조명 기기, 스피커 및 카메라 중 적어도 하나의 제어 신호를 포함하는 기기 제어 신호를 생성하는 단계; 및
상기 기기 제어 신호를 상기 촬영룸 서버로 전송하여, 상기 조명, 스피커 및 카메라 중 적어도 하나를 제어하는 단계를 포함하고,
상기 컨셉 데이터는,
상기 사용자가 선택한 촬영 컨셉에 해당하는 음악, 배경 이미지, 상기 조명 기기의 빛 색상, 상기 조명 기기의 조도 정보, 및 카메라 파라미터를 포함하고,
상기 기기 제어 신호를 생성하는 단계는,
상기 사용자로부터 테스트 사진을 수신하는 단계;
상기 테스트 사진을 파라미터 예측 모델에 입력하여, 카메라 파라미터를 예측하는 단계; 및
예측된 상기 카메라 파라미터를 이용하여, 상기 카메라의 제어 신호를 포함하는 상기 기기 제어 신호를 생성하는 단계를 포함하되,
다수의 테스트 사진들이 수신됨에 따라, 예측된 상기 카메라 파라미터가 복수개인 경우, 복수개의 예측된 카메라 파라미터들과 상기 사용자가 선택한 촬영 컨셉의 상기 카메라 파라미터를 서로 비교하여 최종 카메라 파라미터를 결정하고, 상기 최종 카메라 파라미터를 이용하여 상기 카메라의 제어 신호를 포함하는 상기 기기 제어 신호를 생성하고,
상기 파라미터 예측 모델은,
관리자로부터 입력받은 학습 사진의 대표 색상, 대표 채도 및 대표 피사체를 포함하는 학습 데이터의 특성값을 입력값으로 하고, 상기 학습 사진의 화질과 크기, 상기 학습 사진을 촬영한 카메라의 감도(ISO), 필터, 조리개, 및 셔터 스피드를 포함하는 학습 데이터의 카메라 파라미터를 출력값으로 하는 훈련 데이터(traning data)를 이용하여,
하기 수학식에 따라 정의된 손실함수(loss function)의 결과값이 최소화되도록 지도학습되고,
Figure 112022019288297-pat00019

상기 수학식에서 Ym은 상기 훈련 데이터의 출력값에 대한 m번째 성분이고, Y`m은 상기 파라미터 예측 모델에서 상기 훈련 데이터의 입력값을 입력받아 얻어지는 출력값의 m번째 성분인,
포토 스튜디오 운영 서버의 동작 방법.
As a method of operation of the photo studio operation server,
receiving a shooting concept selected by a user from a shooting room server;
extracting concept data corresponding to the shooting concept selected by the user by using the concept mapping table;
generating a device control signal including a control signal of at least one of a lighting device, a speaker, and a camera by using the concept data; and
Transmitting the device control signal to the recording room server, comprising the step of controlling at least one of the lighting, speaker, and camera,
The concept data is
music corresponding to the shooting concept selected by the user, a background image, a light color of the lighting device, illuminance information of the lighting device, and camera parameters;
The generating of the device control signal comprises:
receiving a test picture from the user;
predicting camera parameters by inputting the test picture into a parameter prediction model; and
generating the device control signal including the control signal of the camera by using the predicted camera parameter,
As a plurality of test photos are received, if there are a plurality of predicted camera parameters, a final camera parameter is determined by comparing the plurality of predicted camera parameters with the camera parameter of the shooting concept selected by the user, and the final camera parameter is determined. generating the device control signal including a control signal of the camera by using the camera parameter;
The parameter prediction model is
Taking the characteristic values of the learning data including the representative color, representative saturation, and representative subject of the learning picture received from the manager as input values, the quality and size of the training picture, the sensitivity (ISO) of the camera that took the training picture, Using training data with camera parameters of training data including filter, aperture, and shutter speed as output values,
Supervised learning is performed so that the result value of the loss function defined according to the following equation is minimized,
Figure 112022019288297-pat00019

In the above equation, Ym is the m-th component of the output value of the training data, and Y'm is the m-th component of the output value obtained by receiving the input value of the training data from the parameter prediction model,
How the photo studio operation server works.
제 1 항에 있어서,
기 설정된 판단 주기가 도래하면 상기 판단 주기 도래 시점을 기준으로 복수의 패턴 주기 각각의 이전까지의 사용자 행동에 따른 감지 신호를 상기 복수의 패턴 주기 각각을 기준으로 분석해, 상기 복수의 패턴 주기 각각에 대한 행동 패턴을 추출하는 단계;
상기 복수의 패턴 주기 각각의 행동 패턴을 상기 복수의 패턴 주기 각각 별로 구비된 적어도 하나의 표준 행동 패턴과 비교하여 상기 사용자의 행동을 판단하는 단계; 및
상기 판단된 사용자의 행동에 따라, 상기 조명 기기의 제어 신호를 포함하는 상기 기기 제어 신호를 생성하는 단계를 더 포함하고,
상기 분석은 복수의 패턴 주기 각각을 기준으로 시간 속성을 고려한 3면 분석을 포함하고, 상기 3면 분석은 상기 복수의 패턴 주기에 따른 움직임량 제 1면을 포함하고, 상기 복수의 패턴 주기에 따른 음향량 제 2면을 포함하고, 상기 음향량에 따른 상기 움직임량 제 3면을 포함하는
포토 스튜디오 운영 서버의 동작 방법.
The method of claim 1,
When a preset determination period arrives, a detection signal according to a user action prior to each of the plurality of pattern periods is analyzed based on each of the plurality of pattern periods based on the arrival time of the determination period, and for each of the plurality of pattern periods extracting a behavior pattern;
determining the behavior of the user by comparing the behavior pattern of each of the plurality of pattern periods with at least one standard behavior pattern provided for each of the plurality of pattern periods; and
Further comprising the step of generating the device control signal including the control signal of the lighting device according to the determined user action,
The analysis includes a three-sided analysis in consideration of a temporal attribute based on each of a plurality of pattern periods, and the three-sided analysis includes a first surface of movement amount according to the plurality of pattern periods, and according to the plurality of pattern periods including a second surface of the sound amount, and a third surface of the movement amount according to the sound amount
How the photo studio operation server works.
삭제delete 삭제delete 청구항 1에 따른 동작 방법을 실행시키기 위한 프로그램이 기록되고, 컴퓨터에 의해 읽혀질 수 있는, 비일시적 기록매체.A non-transitory recording medium in which a program for executing the operating method according to claim 1 is recorded and which can be read by a computer. 포토 스튜디오 운영 서버에서, 청구항 1에 따른 동작 방법을 실행시키기 위하여 비일시적 기록매체에 기록된 컴퓨터 프로그램.In the photo studio operating server, a computer program recorded in a non-transitory recording medium to execute the operating method according to claim 1. 적어도 하나의 프로세서(processor); 및
상기 적어도 하나의 프로세서가 적어도 하나의 동작(operation)을 수행하도록 지시하는 명령어들(instuctions)을 저장하는 메모리(memory)를 포함하는, 포토 스튜디어 운영 서버로서,
상기 적어도 하나의 동작은,
촬영룸 서버로부터 사용자가 선택한 촬영 컨셉을 수신하는 단계;
컨셉 맵핑 테이블을 이용하여, 상기 사용자가 선택한 촬영 컨셉에 해당하는 컨셉 데이터를 추출하는 단계;
상기 컨셉 데이터를 이용하여, 조명 기기, 스피커 및 카메라 중 적어도 하나의 제어 신호를 포함하는 기기 제어 신호를 생성하는 단계; 및
상기 기기 제어 신호를 상기 촬영룸 서버로 전송하여, 상기 조명, 스피커 및 카메라 중 적어도 하나를 제어하는 단계를 포함하고,
상기 컨셉 데이터는
상기 사용자가 선택한 촬영 컨셉에 해당하는 음악, 배경 이미지, 상기 조명 기기의 빛 색상, 상기 조명 기기의 조도 정보, 및 카메라 파라미터를 포함하고,
상기 기기 제어 신호를 생성하는 단계는,
상기 사용자로부터 테스트 사진을 수신하는 단계;
상기 테스트 사진을 파라미터 예측 모델에 입력하여, 카메라 파라미터를 예측하는 단계; 및
예측된 상기 카메라 파라미터를 이용하여, 상기 카메라의 제어 신호를 포함하는 상기 기기 제어 신호를 생성하는 단계를 포함하되,
다수의 테스트 사진들이 수신됨에 따라, 예측된 상기 카메라 파라미터가 복수개인 경우, 복수개의 예측된 카메라 파라미터들과 상기 사용자가 선택한 촬영 컨셉의 상기 카메라 파라미터를 서로 비교하여 최종 카메라 파라미터를 결정하고, 상기 최종 카메라 파라미터를 이용하여 상기 카메라의 제어 신호를 포함하는 상기 기기 제어 신호를 생성하고,
상기 파라미터 예측 모델은,
관리자로부터 입력받은 학습 사진의 대표 색상, 대표 채도 및 대표 피사체를 포함하는 학습 데이터의 특성값을 입력값으로 하고, 상기 학습 사진의 화질과 크기, 상기 학습 사진을 촬영한 카메라의 감도(ISO), 필터, 조리개, 및 셔터 스피드를 포함하는 학습 데이터의 카메라 파라미터를 출력값으로 하는 훈련 데이터(traning data)를 이용하여,
하기 수학식에 따라 정의된 손실함수(loss function)의 결과값이 최소화되도록 지도학습되고,
Figure 112022019288297-pat00020

상기 수학식에서 Ym은 상기 훈련 데이터의 출력값에 대한 m번째 성분이고, Y`m은 상기 파라미터 예측 모델에서 상기 훈련 데이터의 입력값을 입력받아 얻어지는 출력값의 m번째 성분인,
포토 스튜디오 운영 서버.
at least one processor; and
As a photo studio operation server, comprising a memory (memory) for storing instructions (instructions) instructing the at least one processor to perform at least one operation,
The at least one operation is
receiving a shooting concept selected by a user from a shooting room server;
extracting concept data corresponding to the shooting concept selected by the user by using the concept mapping table;
generating a device control signal including a control signal of at least one of a lighting device, a speaker, and a camera by using the concept data; and
Transmitting the device control signal to the recording room server, comprising the step of controlling at least one of the lighting, speaker, and camera,
The concept data is
music corresponding to the shooting concept selected by the user, a background image, a light color of the lighting device, illuminance information of the lighting device, and camera parameters;
The generating of the device control signal comprises:
receiving a test picture from the user;
predicting camera parameters by inputting the test picture into a parameter prediction model; and
generating the device control signal including the control signal of the camera by using the predicted camera parameter,
As a plurality of test photos are received, if there are a plurality of predicted camera parameters, a final camera parameter is determined by comparing the plurality of predicted camera parameters with the camera parameter of the shooting concept selected by the user, and the final camera parameter is determined. generating the device control signal including a control signal of the camera by using the camera parameter;
The parameter prediction model is
Taking the characteristic values of the learning data including the representative color, representative saturation, and representative subject of the learning picture received from the manager as input values, the quality and size of the training picture, the sensitivity (ISO) of the camera that took the training picture, Using training data with camera parameters of training data including filter, aperture, and shutter speed as output values,
Supervised learning is performed so that the result value of the loss function defined according to the following equation is minimized,
Figure 112022019288297-pat00020

In the above equation, Ym is the m-th component of the output value of the training data, and Y'm is the m-th component of the output value obtained by receiving the input value of the training data from the parameter prediction model,
Photo studio operating server.
포토 스튜디오 운영 시스템으로서,
촬영룸에 구비된 카메라, 스피커, 조명, 및 센서;
기기 제어 신호에 기초하여 상기 카메라, 상기 스피커, 상기 조명, 및 상기 센서를 제어하도록 상기 촬영룸에 구비된 촬영룸 서버; 및
상기 촬영룸 서버에 상기 기기 제어 신호를 전송하는 운영 서버를 포함하고,
상기 운영 서버는,
적어도 하나의 프로세서(processor); 및
상기 적어도 하나의 프로세서가 적어도 하나의 동작(operation)을 수행하도록 지시하는 명령어들(instuctions)을 저장하는 메모리(memory)를 포함하고,
상기 적어도 하나의 동작은,
촬영룸 서버로부터 사용자가 선택한 촬영 컨셉을 수신하는 단계;
컨셉 맵핑 테이블을 이용하여, 상기 사용자가 선택한 촬영 컨셉에 해당하는 컨셉 데이터를 추출하는 단계;
상기 컨셉 데이터를 이용하여, 조명 기기, 스피커 및 카메라 중 적어도 하나의 제어 신호를 포함하는 기기 제어 신호를 생성하는 단계; 및
상기 기기 제어 신호를 상기 촬영룸 서버로 전송하여, 상기 조명, 스피커 및 카메라 중 적어도 하나를 제어하는 단계를 포함하고,
상기 컨셉 데이터는,
상기 사용자가 선택한 촬영 컨셉에 해당하는 음악, 배경 이미지, 상기 조명 기기의 빛 색상, 상기 조명 기기의 조도 정보, 및 카메라 파라미터를 포함하고,
상기 기기 제어 신호를 생성하는 단계는,
상기 사용자로부터 테스트 사진을 수신하는 단계;
상기 테스트 사진을 파라미터 예측 모델에 입력하여, 카메라 파라미터를 예측하는 단계; 및
예측된 상기 카메라 파라미터를 이용하여, 상기 카메라의 제어 신호를 포함하는 상기 기기 제어 신호를 생성하는 단계를 포함하되,
다수의 테스트 사진들이 수신됨에 따라, 상기 예측된 카메라 파라미터가 복수개인 경우, 복수개의 예측된 카메라 파라미터들과 상기 사용자가 선택한 촬영 컨셉의 상기 카메라 파라미터를 서로 비교하여 최종 카메라 파라미터를 결정하고, 상기 최종 카메라 파라미터를 이용하여 상기 카메라의 제어 신호를 포함하는 상기 기기 제어 신호를 생성하고,
상기 파라미터 예측 모델은,
관리자로부터 입력받은 학습 사진의 대표 색상, 대표 채도 및 대표 피사체를 포함하는 학습 데이터의 특성값을 입력값으로 하고, 상기 학습 사진의 화질과 크기, 상기 학습 사진을 촬영한 카메라의 감도(ISO), 필터, 조리개, 및 셔터 스피드를 포함하는 학습 데이터의 카메라 파라미터를 출력값으로 하는 훈련 데이터(traning data)를 이용하여,
하기 수학식에 따라 정의된 손실함수(loss function)의 결과값이 최소화되도록 지도학습되고,
Figure 112022019288297-pat00021

상기 수학식에서 Ym은 상기 훈련 데이터의 출력값에 대한 m번째 성분이고, Y`m은 상기 파라미터 예측 모델에서 상기 훈련 데이터의 입력값을 입력받아 얻어지는 출력값의 m번째 성분인, 포토 스튜디오 운영 시스템.
A photo studio operating system comprising:
Cameras, speakers, lights, and sensors provided in the shooting room;
a photographing room server provided in the photographing room to control the camera, the speaker, the lighting, and the sensor based on a device control signal; and
Comprising an operation server for transmitting the device control signal to the shooting room server,
The operating server is
at least one processor; and
and a memory for storing instructions instructing the at least one processor to perform at least one operation,
The at least one operation is
receiving a shooting concept selected by a user from a shooting room server;
extracting concept data corresponding to the shooting concept selected by the user by using the concept mapping table;
generating a device control signal including a control signal of at least one of a lighting device, a speaker, and a camera by using the concept data; and
Transmitting the device control signal to the recording room server, comprising the step of controlling at least one of the lighting, speaker, and camera,
The concept data is
music corresponding to the shooting concept selected by the user, a background image, a light color of the lighting device, illuminance information of the lighting device, and camera parameters;
The generating of the device control signal comprises:
receiving a test picture from the user;
predicting camera parameters by inputting the test picture into a parameter prediction model; and
generating the device control signal including the control signal of the camera by using the predicted camera parameter,
As a plurality of test photos are received, if there are a plurality of predicted camera parameters, a final camera parameter is determined by comparing the plurality of predicted camera parameters with the camera parameter of the shooting concept selected by the user, and the final camera parameter is determined. generating the device control signal including a control signal of the camera by using the camera parameter;
The parameter prediction model is
Taking the characteristic values of the learning data including the representative color, representative saturation, and representative subject of the learning picture received from the manager as input values, the quality and size of the training picture, the sensitivity (ISO) of the camera that took the training picture, Using training data with camera parameters of training data including filter, aperture, and shutter speed as output values,
Supervised learning is performed so that the result value of the loss function defined according to the following equation is minimized,
Figure 112022019288297-pat00021

In the above equation, Ym is the m-th component of the output value of the training data, and Y'm is the m-th component of the output value obtained by receiving the input value of the training data from the parameter prediction model.
KR1020210079378A 2021-06-16 2021-06-18 The method and system for operating photo studio KR102388317B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220046320A KR102572083B1 (en) 2021-06-17 2022-04-14 The method and system for operating photo studio supporting camera parameter prediction model based on artificial neural network
KR1020220046322A KR102632129B1 (en) 2021-06-16 2022-04-14 The method and system for operating photo studio

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR1020210078179 2021-06-16
KR20210078179 2021-06-16
KR1020210078576 2021-06-17
KR20210078576 2021-06-17

Related Child Applications (2)

Application Number Title Priority Date Filing Date
KR1020220046320A Division KR102572083B1 (en) 2021-06-17 2022-04-14 The method and system for operating photo studio supporting camera parameter prediction model based on artificial neural network
KR1020220046322A Division KR102632129B1 (en) 2021-06-16 2022-04-14 The method and system for operating photo studio

Publications (1)

Publication Number Publication Date
KR102388317B1 true KR102388317B1 (en) 2022-04-20

Family

ID=81397240

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210079378A KR102388317B1 (en) 2021-06-16 2021-06-18 The method and system for operating photo studio
KR1020220046322A KR102632129B1 (en) 2021-06-16 2022-04-14 The method and system for operating photo studio

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020220046322A KR102632129B1 (en) 2021-06-16 2022-04-14 The method and system for operating photo studio

Country Status (1)

Country Link
KR (2) KR102388317B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015198300A (en) * 2014-03-31 2015-11-09 キヤノン株式会社 Information processor, imaging apparatus, and image management system
KR20200053879A (en) * 2018-11-09 2020-05-19 주식회사 코난테크놀로지 Apparatus and method for simultaneous control of heterogeneous cameras, and camera control client
KR20200097921A (en) * 2019-02-11 2020-08-20 (주) 텔트론 Smart lighting control system
KR102151964B1 (en) * 2019-06-26 2020-09-04 김성일 Product photograph service providing method for product detailed information content

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100921337B1 (en) * 2008-02-14 2009-10-13 박우성 System and Method for Servicing Image Contents
KR102102921B1 (en) * 2017-08-18 2020-04-22 김현옥 Portable Photo Studio
KR102193933B1 (en) * 2019-01-23 2020-12-22 엄기창 Apparatus for providing interior business matching service based on 3d vr portfolio and method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015198300A (en) * 2014-03-31 2015-11-09 キヤノン株式会社 Information processor, imaging apparatus, and image management system
KR20200053879A (en) * 2018-11-09 2020-05-19 주식회사 코난테크놀로지 Apparatus and method for simultaneous control of heterogeneous cameras, and camera control client
KR20200097921A (en) * 2019-02-11 2020-08-20 (주) 텔트론 Smart lighting control system
KR102151964B1 (en) * 2019-06-26 2020-09-04 김성일 Product photograph service providing method for product detailed information content

Also Published As

Publication number Publication date
KR20220169385A (en) 2022-12-27
KR102632129B1 (en) 2024-02-01

Similar Documents

Publication Publication Date Title
CN110176226B (en) Speech recognition and speech recognition model training method and device
CN112231025B (en) UI component display method and electronic equipment
CN111651263A (en) Resource processing method and device of mobile terminal, computer equipment and storage medium
CN105323375B (en) The determination of equipment body position
WO2021057537A1 (en) Jamming prediction method, data processing method, and related apparatus
CN111931946B (en) Data processing method, device, computer equipment and storage medium
US11410677B2 (en) Adaptive sound event classification
KR102390838B1 (en) Apparatus and method for generating a picture frame based on images taken through a shooting room kiosk
CN111563466A (en) Face detection method and related product
CN113170011A (en) Method for presenting video by electronic equipment in incoming call and electronic equipment
CN105554087B (en) information setting method and device
Chung et al. Near wireless-control technology between smart devices using inaudible high-frequencies
CN116708645A (en) Screen throwing method and mobile phone
WO2022267468A1 (en) Sound processing method and apparatus thereof
CN109961802B (en) Sound quality comparison method, device, electronic equipment and storage medium
CN112036492B (en) Sample set processing method, device, equipment and storage medium
KR102388317B1 (en) The method and system for operating photo studio
CN113194454B (en) Data sharing method and electronic equipment
US20230154500A1 (en) Electronic device, and method of synchronizing video data and audio data by using same
KR102572083B1 (en) The method and system for operating photo studio supporting camera parameter prediction model based on artificial neural network
CN114650330A (en) Method, electronic equipment and system for adding operation sequence
KR102476292B1 (en) System for processing pedal box photographing image data of a vehicle using artificial intelligence
CN114173286B (en) Method and device for determining test path, electronic equipment and readable storage medium
US20210360425A1 (en) Detecting indoor/outdoor status of mobile communication devices
CN108632551A (en) Method, apparatus and terminal are taken the photograph in video record based on deep learning

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant