KR102367853B1 - A method of building custom studio - Google Patents

A method of building custom studio Download PDF

Info

Publication number
KR102367853B1
KR102367853B1 KR1020210123459A KR20210123459A KR102367853B1 KR 102367853 B1 KR102367853 B1 KR 102367853B1 KR 1020210123459 A KR1020210123459 A KR 1020210123459A KR 20210123459 A KR20210123459 A KR 20210123459A KR 102367853 B1 KR102367853 B1 KR 102367853B1
Authority
KR
South Korea
Prior art keywords
display
user
information
brightness
intensity
Prior art date
Application number
KR1020210123459A
Other languages
Korean (ko)
Inventor
김우영
Original Assignee
주식회사 이너스시스템
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이너스시스템 filed Critical 주식회사 이너스시스템
Priority to KR1020210123459A priority Critical patent/KR102367853B1/en
Priority to KR1020220022911A priority patent/KR102503581B1/en
Application granted granted Critical
Publication of KR102367853B1 publication Critical patent/KR102367853B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness

Abstract

The present invention may provide a method for building a custom studio for various purposes. A displaying method of a display performed by a server according to an embodiment may comprise the steps of: acquiring a spatial image including a user and at least one display through a camera; acquiring location information of the user and behavior information of the user based on the spatial image; and adjusting the brightness of the at least one display from a reference intensity to a first intensity based on the location information and the behavior information. The step of adjusting the brightness of the display based on the location information and the behavior information to the first intensity may include a step of setting the brightness of the display spaced apart by a predetermined distance or more from the user to the first intensity based on the location information.

Description

맞춤형 스튜디오 구축 방법{A method of building custom studio}{A method of building custom studio}

본 발명은 맞춤형 스튜디오를 구축하는 방법에 관한 발명이다. The present invention relates to a method of building a custom studio.

최근 국제화 시대가 열리면서 다양한 회의가 열리고 있고, 그 목적과 용도에 따라서 다양한 업무를 수행할 수 있는 맞춤형 공간이 필요한 실정이다. 특히나 디스플레이를 배치하는데 있어서, 일률적인 배치가 아닌 다양한 목적으로 사용할 수 있는 공간이 필요한 실정이다. 이는 특히나 다방면으로 회의가 진행되는 현대 사회에서 발표나 학술 연구 또는 회사 경영진 간의 회의 등 다양한 방식으로 회의가 진행되고 있는 현대 사회에서 절실하게 이에 대한 연구를 필요로 하고 있다.With the recent opening of the era of internationalization, various conferences are being held, and a customized space is required to perform various tasks according to the purpose and use. In particular, in arranging a display, a space that can be used for various purposes rather than a uniform arrangement is required. In particular, research on this is urgently needed in the modern society, where meetings are conducted in various ways, such as presentations, academic research, or meetings between company executives in the modern society where meetings are held in various fields.

특히 디스플레이를 배치하는데 있어서, 강의를 진행하는 경우 강의자의 의도에 맞게 디스플레이를 조절하는 동작을 필요로 할 수 있다. 이는 불필요한 전력을 감소 시킬 수 있으며, 사용자의 의도를 보다 명확하게 알려줄 수 있어 이에 대한 연구를 필요로 하고 있다.
참조 특허 문헌: 공개특허공보 제10-2006-0015706호(2006.02.20), 공개특허공보 제10-2021-0053096호(2021.05.11) 및 일본 공개특허공보 특개2016-192151호(2016.11.10)
In particular, in disposing the display, when a lecture is conducted, it may be necessary to adjust the display according to the intention of the lecturer. This can reduce unnecessary power, and can clearly inform the user's intentions, so there is a need for research on this.
Reference Patent Documents: Laid-Open Patent Publication No. 10-2006-0015706 (February 20, 2006), Patent Publication No. 10-2021-0053096 (May 11, 2021) and Japanese Patent Application Laid-Open No. 2016-192151 (November 10, 2016)

본 발명은 다양한 목적으로 맞춤형 스튜디오를 구축하는 방법을 제공할 수 있다.The present invention may provide a method for building a custom studio for various purposes.

일 실시예에 따른 서버에 의해 수행되는 디스플레이 표시 방법에 있어서, 카메라를 통해 사용자 및 적어도 하나의 디스플레이를 포함하는 공간 이미지를 획득하는 단계; 상기 공간 이미지에 기초하여 상기 사용자의 위치 정보 및 상기 사용자의 행동 정보를 획득하는 단계; 및 상기 위치 정보 및 상기 행동 정보에 기초하여 적어도 하나의 디스플레이의 밝기를 기준 세기에서 제1 세기로 조절하는 단계;를 포함하고, 상기 위치 정보 및 상기 행동 정보에 기초하여 적어도 하나의 디스플레이의 밝기를 제1 세기로 조절하는 단계는, 상기 위치 정보에 기초하여 상기 사용자로부터 미리 정해진 거리 이상 떨어진 상기 디스플레이의 밝기를 상기 제1 세기로 조절하는 단계를 포함할 수 있다.In a display display method performed by a server according to an embodiment, the method comprising: acquiring a spatial image including a user and at least one display through a camera; acquiring the location information of the user and the behavior information of the user based on the spatial image; and adjusting the brightness of at least one display from a reference intensity to a first intensity based on the location information and the behavior information, wherein the brightness of at least one display is adjusted based on the location information and the behavior information The adjusting to the first intensity may include adjusting the brightness of the display separated by a predetermined distance or more from the user to the first intensity based on the location information.

상기 위치 정보 및 상기 행동 정보에 기초하여 적어도 하나의 디스플레이의 밝기를 조절하는 단계는, 상기 행동 정보에 기초하여 상기 사용자의 손 제스처 정보를 도출하는 단계; 상기 손 제스처 정보에 기초하여 상기 사용자가 가리키는 포인터를 포함하고 있는 상기 디스플레이의 일정 영역 부분의 밝기를 제2 세기로 조절하는 단계;를 포함할 수 있다.The adjusting of the brightness of the at least one display based on the location information and the behavior information may include: deriving the user's hand gesture information based on the behavior information; and adjusting the brightness of a portion of a predetermined area of the display including the pointer pointed by the user to a second intensity based on the hand gesture information.

일 실시예에 따른 디스플레이 표시 방법에 있어서, 상기 행동 정보에 기초하여 상기 사용자의 손 제스처 정보를 도출하는 단계는, 상기 사용자의 손 모양 정보를 획득하는 단계; 상기 손 모양 정보에 기초하여 상기 사용자의 손 모양이 미리 정해진 패턴 모양으로 미리 정해진 시간 이상 유지하고 있으면, 상기 사용자가 가리키는 상기 포인터를 도출하는 단계;를 포함할 수 있다.In the display display method according to an embodiment, deriving the user's hand gesture information based on the behavior information includes: obtaining the user's hand shape information; and deriving the pointer pointed to by the user when the user's hand shape is maintained in a predetermined pattern shape for more than a predetermined time based on the hand shape information.

일 실시예에 따른 디스플레이 표시 방법에 있어서, 상기 사용자의 음성 정보를 획득하는 단계; 상기 음성 정보에 기초하여 해당 음성과 대응되는 화면의 디스플레이 밝기를 제3 세기로 조절하는 단계;를 더 포함할 수 있다.A method of displaying a display according to an embodiment, the method comprising: obtaining voice information of the user; The method may further include adjusting the display brightness of the screen corresponding to the corresponding voice to a third intensity based on the voice information.

일 실시예에 따른 디스플레이 표시 방법에 있어서, 상기 음성 정보에 기초하여 해당 음성과 대응되는 화면의 디스플레이 밝기를 조절하는 단계는, 상기 음성 정보에 포함된 단어 정보를 도출하는 단계; 상기 단어 정보에 기초하여 상기 단어와 대응되는 화면의 디스플레이 밝기를 상기 제3 세기로 조절하는 단계;를 포함할 수 있다.In the display display method according to an embodiment, adjusting the display brightness of a screen corresponding to the corresponding voice based on the voice information includes: deriving word information included in the voice information; adjusting the display brightness of the screen corresponding to the word to the third intensity based on the word information.

본 발명은 다용도 스튜디오 공간을 제작함으로서 사용자에게 만족감을 제공할 수 있다.The present invention can provide a feeling of satisfaction to the user by creating a multi-purpose studio space.

본 발명은 맞춤형 스튜디오 공간을 제공 함으로서 사용자의 있어 만족감을 향상시킬 수 있다.The present invention can improve the user's satisfaction by providing a customized studio space.

다양한 실시예들에 대한 이해를 돕기 위해 상세한 설명의 일부로 포함된, 첨부 도면은 다양한 실시예들을 제공하고, 상세한 설명과 함께 다양한 실시예들의 기술적 특징을 설명한다.
도 1은 일 실시예에 의한 프로세서의 동작을 예시한 도면이다.
도 2는 일 실시예에 의한 스튜디오의 공간 이미지를 획득하는 동작을 예시한 도면이다.
도 3은 일 실시예에 의한 적어도 하나의 디스플레이 밝기를 조절하는 동작을 예시한 도면이다.
도 4는 일 실시예에 의한 손 제스처 정보에 기초하여 디스플레이의 밝기를 조절하는 동작을 예시한 도면이다.
도 5는 일 실시예에 의한 음성 정보에 기초하여 디스플레이의 밝기를 조절하는 동작을 예시한 도면이다.
도 6은 일 실시예에 의한 사용자와 디스플레이의 거리 정보에 기초하여 디스플레이의 밝기를 조절하는 동작을 예시한 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included as part of the detailed description to aid understanding of the various embodiments, provide various embodiments and, together with the detailed description, explain technical features of the various embodiments.
1 is a diagram illustrating an operation of a processor according to an embodiment.
2 is a diagram illustrating an operation of acquiring a spatial image of a studio according to an embodiment.
3 is a diagram illustrating an operation of adjusting brightness of at least one display according to an embodiment.
4 is a diagram illustrating an operation of adjusting the brightness of a display based on hand gesture information according to an embodiment.
5 is a diagram illustrating an operation of adjusting the brightness of a display based on voice information according to an embodiment.
6 is a diagram illustrating an operation of adjusting the brightness of a display based on distance information between a user and the display according to an exemplary embodiment.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention. In describing each figure, like reference numerals have been used for like elements.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는 데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. “및/또는”이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms such as first, second, A, and B may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. The term “and/or” includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When an element is referred to as being “connected” or “connected” to another element, it is understood that it may be directly connected or connected to the other element, but other elements may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. In explaining the present invention, in order to facilitate the overall understanding, the same reference numerals are used for the same components in the drawings, and duplicate descriptions of the same components are omitted.

도 1은 일 실시예에 의한 서버(1)에 속한 프로세서의 동작을 예시한 도면이다. 도 1을 구체적으로 살펴보면 적어도 하나의 프로세서(110)는 중앙 처리 장치(central processing unit, CPU), 그래픽 처리 장치(graphics processing unit, GPU), 또는 본 발명의 실시예들에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 메모리(120) 및 저장 장치(160) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(120)는 읽기 전용 메모리(read only memory, ROM) 및 랜덤 액세스 메모리(random access memory, RAM) 중 하나일 수 있고, 저장 장치(160)는, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD), 솔리드 스테이트 드라이브(SSD), 또는 각종 메모리 카드(예를 들어, micro SD 카드) 등일 수 있다.1 is a diagram illustrating an operation of a processor belonging to a server 1 according to an embodiment. Referring specifically to FIG. 1 , the at least one processor 110 may be a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated unit in which methods according to embodiments of the present invention are performed. may mean a processor of Each of the memory 120 and the storage device 160 may be configured of at least one of a volatile storage medium and a non-volatile storage medium. For example, the memory 120 may be one of a read only memory (ROM) and a random access memory (RAM), and the storage device 160 is a flash-memory. , a hard disk drive (HDD), a solid state drive (SSD), or various memory cards (eg, micro SD card).

또한, 서버(1)는, 서버에 포함될 수 있으며, 무선 네트워크를 통해 통신을 수행하는 송수신 장치(transceiver)(130)를 포함할 수 있다. 또한, 서버(1)는 입력 인터페이스 장치(140), 출력 인터페이스 장치(150), 저장 장치(160) 등을 더 포함할 수 있다. 서버(1)에 포함된 각각의 구성 요소들은 버스(bus)(170)에 의해 연결되어 서로 통신을 수행할 수 있다.In addition, the server 1 may be included in the server, and may include a transceiver 130 for performing communication through a wireless network. In addition, the server 1 may further include an input interface device 140 , an output interface device 150 , a storage device 160 , and the like. Each of the components included in the server 1 may be connected by a bus 170 to communicate with each other.

도 2는 일 실시예에 의한 스튜디오의 공간 이미지를 획득하는 동작을 예시한 도면이다.2 is a diagram illustrating an operation of acquiring a spatial image of a studio according to an embodiment.

도 3은 일 실시예에 의한 적어도 하나의 디스플레이 밝기를 조절하는 동작을 예시한 도면이다.3 is a diagram illustrating an operation of adjusting the brightness of at least one display according to an exemplary embodiment.

도 2 및 도 3을 구체적으로 살펴보면, 서버는 카메라를 통해 사용자 및 적어도 하나의 디스플레이를 포함하는 공간 이미지를 획득할 수 있다. 이때 공간 이미지는 적어도 하나의 디스플레이와 사용자가 포함된 이미지를 의미할 수 있으며, 이는 장소가 스튜디오라 하면 스튜디오 내부 이미지를 의미할 수 있다. 서버는 상기 공간 이미지에 기초하여 상기 사용자의 위치 정보 및 상기 사용자의 행동 정보를 획득할 수 있다. 사용자의 행동 정보는 후술하듯 사용자의 손 제스처 정보, 손 모양 정보를 포함할 수 있다. 또한 서버는 위치 정보 및 상기 행동 정보에 기초하여 적어도 하나의 디스플레이의 밝기를 조절할 수 있다. 또한 서버는 상기 위치 정보에 기초하여 상기 사용자로부터 미리 정해진 거리 이상 떨어진 상기 디스플레이의 밝기를 기준 세기에서 제1 세기로 조절할 수 있다. 이때 제1 세기는 기준 세기보다 덜 밝은 세기를 의미할 수 있다.2 and 3 , the server may acquire a spatial image including a user and at least one display through a camera. In this case, the spatial image may mean an image including at least one display and a user, and this may mean an image inside the studio if the place is a studio. The server may acquire the location information of the user and the behavior information of the user based on the spatial image. The user's behavior information may include user's hand gesture information and hand shape information, as will be described later. In addition, the server may adjust the brightness of at least one display based on the location information and the behavior information. In addition, the server may adjust the brightness of the display separated from the user by a predetermined distance or more from the reference intensity to the first intensity based on the location information. In this case, the first intensity may mean an intensity that is less bright than the reference intensity.

일 실시예로 디스플레이가 복수개 있고, 복수개의 디스플레이가 켜져 있는 경우에 사용자가 디스플레이와 관련된 얘기를 진행할 수 있다. 이때 사용자로부터 일정 거리 이상으로 멀리 떨어져 있는 디스플레이는 그 중요도가 낮을 수 있다. 따라서 카메라를 통해 사용자의 위치 정보를 획득하고, 디스플레이의 위치 정보를 획득한 후, 사용자와 디스플레이들 각각에 대응하는 거리를 획득한 후, 미리 정해진 거리 이상 떨어진 디스플레이의 화면의 밝기를 약하게 조절하도록 신호를 출력할 수 있다.In an embodiment, when there are a plurality of displays and the plurality of displays are turned on, the user may proceed with a conversation related to the display. In this case, a display that is farther away from the user by a certain distance or more may have low importance. Therefore, after obtaining the location information of the user through the camera, obtaining the location information of the display, obtaining the distance corresponding to each of the user and the displays, a signal to weakly adjust the brightness of the screen of the display separated by a predetermined distance or more can be printed out.

서버는 공간 이미지를 획득(301)할 수 있으며, 사용자의 위치 정보 및 사용자의 행동 정보를 획득(302)할 수 있으며, 디스플레이 밝기를 기준 세기에서 제1 세기로 조절(303)할 수 있다.The server may acquire (301) the spatial image, acquire (302) the user's location information and the user's behavior information, and adjust (303) the display brightness from the reference intensity to the first intensity.

도 4는 일 실시예에 의한 손 제스처 정보에 기초하여 디스플레이의 밝기를 조절하는 동작을 예시한 도면이다. 도 4를 구체적으로 살펴보면, 행동 정보에 기초하여 상기 사용자의 손 제스처 정보를 도출할 수 있다. 손 제스처 정보는 사용자의 손 모양 이미지를 획득하는 것을 의미할 수 있다. 서버는 상기 손 제스처 정보에 기초하여 상기 사용자가 가리키는 포인터를 포함하고 있는 상기 디스플레이의 일정 영역 부분의 밝기를 기준 세기에서 제2 세기로 조절할 수 있다. 포인터는 사용자의 손 모양 정보에 기초하여 가리키고 있는 방향을 향하여 손가락 끝의 시작점에서부터 연결하는 선이 디스플레이를 통과하면 통과하는 지점을 의미할 수 있으며, 사용자가 물건을 들고 있는 경우 물건의 끝 부분에서 향하고 있는 방향을 연결한 것을 의미할 수 있다. 이때 일정 영역은 포인터를 포함하고 있는 디스플레이 전체 영역을 의미할 수도 있으나, 디스플레이 내부의 일정 영역을 의미할 수도 있다.4 is a diagram illustrating an operation of adjusting the brightness of a display based on hand gesture information according to an embodiment. 4 , it is possible to derive the user's hand gesture information based on the behavior information. The hand gesture information may mean acquiring an image of a user's hand shape. The server may adjust the brightness of a portion of a predetermined area of the display including the pointer pointed by the user from the reference intensity to the second intensity based on the hand gesture information. The pointer may mean a point through which a line connecting from the starting point of the fingertip passes through the display in the pointing direction based on the user's hand shape information. It may mean that the direction in which there is is connected. In this case, the predetermined area may mean the entire area of the display including the pointer, or may mean a predetermined area inside the display.

일 실시예로 서버는 카메라를 통해 획득한 손 모양 이미지에 기초하여 사용자의 손 모양이 한 손가락이나 두 손가락만 펴진 상태로서 그 펴진 손가락의 방향이 디스플레이를 향하고 있다면 특정한 손 모양으로 인식하여 해당 손가락의 방향이 향한 디스플레이의 특정 영역을 포함하고 있는 디스플레이의 밝기를 밝게 조절할 수 있다. In one embodiment, the server recognizes as a specific hand shape if the user's hand shape is in a state where only one or two fingers are open based on the hand shape image acquired through the camera and the direction of the open finger is toward the display The brightness of the display including the specific area of the display facing the direction can be adjusted to be bright.

일 실시예로 사용자가 특정한 물건을 잡고 있다면, 특정한 물건의 끝 부분을 인식한 후, 그 끝 부분의 방향이 디스플레이를 향하고 있다면 특정한 손 모양으로 인식하여 해당 손가락의 방향이 향한 디스플레이의 특정 영역을 포함하고 있는 디스플레이의 밝기를 밝게 조절할 수 있다. In one embodiment, if the user is holding a specific object, after recognizing the end of the specific object, if the direction of the end is facing the display, it is recognized as a specific hand shape and a specific area of the display in which the direction of the corresponding finger is facing is recognized. You can adjust the brightness of the current display.

서버는 또한 사용자의 손 모양 정보를 획득할 수 있고, 상기 손 모양 정보에 기초하여 상기 사용자의 손 모양이 미리 정해진 패턴 모양으로 미리 정해진 시간 이상 유지하고 있으면, 상기 사용자가 가리키는 포인터를 도출할 수 있다.The server may also obtain the user's hand shape information, and based on the hand shape information, if the user's hand shape is maintained in a predetermined pattern shape for a predetermined time or longer, a pointer pointed to by the user may be derived. .

일 실시예로 손 모양 정보에 기초하여 포인터가 도출되었다면, 처음에는 포인터를 포함하고 있는 일정 영역을 미리 정해진 크기 만큼의 영역 만큼 밝게 할 수 있으며, 포인터가 미리 정해진 움직임 범위 내에서 움직이는 시간이 늘어난다면, 시간에 비례하여 포인터가 넓어지도록 설정할 수 있다. 이때 포인터가 넓어지는 영역의 넓이 또한 한계 영역이 정해질 수 있다.According to an embodiment, if the pointer is derived based on the hand shape information, a predetermined area including the pointer may be brightened by an area of a predetermined size at first, and if the time the pointer moves within the predetermined movement range increases, , you can set the pointer to become wider in proportion to time. In this case, the area in which the pointer is widened may also have a limit area determined.

도 5는 일 실시예에 의한 음성 정보에 기초하여 디스플레이의 밝기를 조절하는 동작을 예시한 도면이다.5 is a diagram illustrating an operation of adjusting the brightness of a display based on voice information according to an embodiment.

도 5를 구체적으로 살펴보면, 서버는 음성 정보를 획득할 수 있고, 음성 정보에 기초하여 해당 음성과 대응되는 화면의 디스플레이 밝기를 조절할 수 있다. 음성 정보는 사용자가 말하는 음성에 대한 정보를 의미할 수 있으며, 음성과 대응되는 화면은, 사용자의 음성을 인식하여 사용자의 음성과 관련된 화면을 의미할 수 있다.Referring specifically to FIG. 5 , the server may acquire voice information, and may adjust the display brightness of a screen corresponding to the voice based on the voice information. The voice information may mean information about a voice spoken by the user, and the screen corresponding to the voice may mean a screen related to the user's voice by recognizing the user's voice.

이때, 서버는 음성 정보에 포함된 단어 정보를 도출할 수 있고, 단어 정보에 기초하여 상기 단어와 대응되는 화면의 디스플레이 밝기를 조절할 수 있다.In this case, the server may derive word information included in the voice information, and may adjust the display brightness of the screen corresponding to the word based on the word information.

일 실시예로 사용자는 자신이 특정 단어를 언급하면, 이를 인식한 후, 해당 특정 단어가 나올 때 특정 디스플레이 화면의 밝기를 조절하도록 설정할 수 있다. 이때 특정 디스플레이 화면의 밝기를 조절하는 것은 미리 정해진 제2 시간 동안 디스플레이의 밝기를 강하게 또는 약하게 조절할 수 있고, 이후에 다시 원상복귀 되도록 설정할 수 있다.As an embodiment, when the user mentions a specific word, the user may recognize it and set the brightness of the specific display screen to be adjusted when the specific word appears. In this case, to adjust the brightness of a specific display screen, the brightness of the display may be strongly or weakly adjusted for a predetermined second time period, and then it may be set to return to its original state again.

이때 음성 인식은 기계 학습을 이용할 수 있으며, 이는 보편적인 방법에 의할 수 있다.In this case, the speech recognition may use machine learning, which may be performed by a universal method.

또한 일 실시예로 포인터와 음성 정보에 기초하여 디스플레이 밝기를 조절할 수도 있다. 이때 포인터와 음성 정보에 기초하여 강조 점수를 도출할 수 있으며, 강조 점수에 기초하여 디스플레이의 밝기를 조절할 수 있다. 이때 강조 점수에 비례하여 디스플레이의 밝기를 세게 하도록 조절할 수도 있다.Also, according to an embodiment, the display brightness may be adjusted based on the pointer and voice information. In this case, an emphasis score may be derived based on the pointer and voice information, and the brightness of the display may be adjusted based on the emphasis score. In this case, the brightness of the display may be adjusted to increase in proportion to the emphasis score.

강조 점수를 도출하는 방법은 다음과 같은 수학식 1에 의할 수 있다.A method of deriving an emphasis score may be based on Equation 1 below.

[수학식 1][Equation 1]

Figure 112021107190825-pat00001
Figure 112021107190825-pat00001

K는 강조 점수를 의미할 수 있다. b는 포인터가 디스플레이 상에 머무는 시간, 특정 시간 동안 화면의 디스플레이에 포함된 단어와 사용자가 언급한 단어 중 일치하는 단어의 개수를 포함하는 강조 요인 변수의 개수를 의미할 수 있다.K may mean an emphasis score. b may mean the number of highlight factor variables including the time the pointer stays on the display and the number of words among the words included in the display of the screen and the words mentioned by the user for a specific time.

Sa는 a번째 해당하는 변수의 가중치를 의미할 수 있다. Ta는 a번째 변수에 해당하는 미리 테이블링 된 수치 값을 의미할 수 있다.Sa may mean the weight of the a-th corresponding variable. Ta may mean a pre-tabled numerical value corresponding to the a-th variable.

일 실시예로, 사용자의 손 모양 정보에 기초하여 손 모양이 미리 정해진 삿대질 패턴 모양으로 미리 정해진 시간인 3초 이상을 유지한 상태로 디스플레이를 가리키고 있다면, 포인터를 도출할 수 있고, 5초 이상 가리킨다면 5라는 숫자가 T에 대입될 수 있으며, 손 모양 변수에 해당하는 가중치 S가 대입될 수 있다. 또한, 특정 시간이 3초로 설정되었다면, 특정 시간인 3초 동안 특정 디스플레이에 해당하는 단어와 사용자가 말한 단어가 '꽃'이라는 단어와 '화분'이라는 단어가 공통 된다면 2의 숫자가 T에 대입될 수 있으며, 단어 요인에 해당하는 가중치 S가 대입될 수 있다. 이때 특정 시간의 시점은 첫번째로 공통되는 단어가 나오고 나서부터로 시작될 수 있으며, 특정 시간이(위의 일 실시예로는 3초) 지나면 다음 공통되는 단어가 나올 때 다시 특정 시간의 시점이 시작 될 수 있다. In an embodiment, if a hand shape is pointing to the display while maintaining a predetermined time period of 3 seconds or more in a predetermined pointing pattern shape based on the user's hand shape information, a pointer may be derived and the pointer may be derived and pointed for 5 seconds or more The number 5 may be substituted for T, and a weight S corresponding to the hand shape variable may be substituted. Also, if the specific time is set to 3 seconds, if the word corresponding to the specific display and the word spoken by the user during the specific time of 3 seconds have the same word as 'flower' and 'flowerpot', the number 2 will be substituted for T. and a weight S corresponding to the word factor may be substituted. In this case, the specific time point may start after the first common word appears, and after a specific time (3 seconds in the above embodiment), the specific time point will start again when the next common word comes out. can

강조 점수를 도출한 후에는 강조 점수를 미리 정해진 개수의 카테고리로 분류할 수 있다. 이때 카테고리를 분류하는 기초가 되는 것은 전력량이 기준이 될 수 있다.After deriving the emphasis score, the emphasis score may be classified into a predetermined number of categories. In this case, the basis for classifying the categories may be the amount of power.

일 실시예로 디스플레이 전력량에 따라 3개의 카테고리로 나눈 후, 강조 점수에 따라 3개의 카테고리로 분류하여 해당 카테고리에 해당하는 전력 세기로 디스플레이 밝기를 조절할 수도 있다.According to an embodiment, after dividing the display power into three categories according to the amount of display power, the display brightness may be adjusted by classifying them into three categories according to the emphasis score and the power intensity corresponding to the corresponding category.

또한 일 실시예로 강조 점수에 비례하여 디스플레이의 일정 영역의 크기가 달라질 수도 있다. 일 실시예로 강조 점수가 높다면, 해당 포인터를 중심으로 하여 강조 점수에 비례하여 밝은 영역을 더 넓게 하도록 설정할 수도 있다. Also, according to an embodiment, the size of a certain area of the display may be changed in proportion to the emphasis score. As an embodiment, if the emphasis score is high, the bright area may be set to be wider in proportion to the emphasis score with the corresponding pointer as the center.

서버는 음성 정보에 포함된 단어 정보를 도출(701)할 수 있으며, 단어 정보에 기초하여 단어와 대응되는 화면의 디스플레이 밝기를 제3 세기로 조절(702)할 수 있다.The server may derive ( 701 ) the word information included in the voice information, and may adjust the display brightness of the screen corresponding to the word to the third intensity ( 702 ) based on the word information.

도 6은 일 실시예에 의한 사용자와 디스플레이의 거리 정보에 기초하여 디스플레이의 밝기를 조절하는 동작을 예시한 도면이다. 도 6을 구체적으로 살펴보면, 상술한 바와 같이 사용자와 디스플레이의 거리가 미리 정해진 거리(S10) 이상 떨어진 디스플레이의 영역이 있다면 해당 영역 또는 해당 영역을 포함하는 디스플레이의 화면 전체가 제1 세기로 조절될 수 있다.6 is a diagram illustrating an operation of adjusting the brightness of a display based on distance information between a user and the display according to an exemplary embodiment. Referring specifically to FIG. 6 , if there is an area of the display where the distance between the user and the display is more than a predetermined distance S10 as described above, the area or the entire screen of the display including the area may be adjusted to the first intensity. there is.

사용자 단말은 통신 가능한 데스크탑 컴퓨터(desktop computer), 랩탑 컴퓨터(laptop computer), 노트북(notebook), 스마트폰(smart phone), 태블릿 PC(tablet PC), 모바일폰(mobile phone), 스마트 워치(smart watch), 스마트 글래스(smart glass), e-book 리더기, PMP(portable multimedia player), 휴대용 게임기, 네비게이션(navigation) 장치, 디지털 카메라(digital camera), DMB(digital multimedia broadcasting) 재생기, 디지털 음성 녹음기(digital audio recorder), 디지털 음성 재생기(digital audio player), 디지털 동영상 녹화기(digital video recorder), 디지털 동영상 재생기(digital video player), 및 PDA(Personal Digital Assistant) 등 일 수 있다.A user terminal is a communicable desktop computer, a laptop computer, a notebook, a smart phone, a tablet PC, a mobile phone, and a smart watch. ), smart glass, e-book reader, PMP (portable multimedia player), portable game console, navigation device, digital camera, DMB (digital multimedia broadcasting) player, digital voice recorder (digital) audio recorder), a digital audio player, a digital video recorder, a digital video player, and a personal digital assistant (PDA).

기계 학습일 이용 시 딥 러닝 모델을 이용할 수 있으며 머신 러닝 모델을 이용하여 수행할 수 있다. 이때 학습 데이터 셋은 외부의 다양한 서버에서 획득한 다양한 정보를 학습 데이터 셋으로 포함할 수 있으며, 지도 학습 방식이 이용될 수 있다. 이때, 딥 러닝 모델 모듈은 DNN(deep neural network) 알고리즘을 이용할 수 있다. 기재된 바에 국한되지 않고, 합성곱 신경망(CNN, Convoultional Neural Network), 순환 신경망(RNN, Recurrent Neural Network), 제한 볼츠만 머신(RBM, Restricted Boltzmann Machine), 심층 신뢰 신경망(DBN, Deep Belief Network) 알고리즘들이 이용될 수 있으며, 각각의 알고리즘들은 주지의 기술이므로 설명은 생략한다. When using machine learning tasks, deep learning models can be used, and it can be performed using machine learning models. In this case, the learning data set may include various information acquired from various external servers as the learning data set, and a supervised learning method may be used. In this case, the deep learning model module may use a deep neural network (DNN) algorithm. Without being limited to the description, convolutional neural network (CNN), recurrent neural network (RNN), Restricted Boltzmann Machine (RBM),  Deep Belief Network (DBN) algorithms are may be used, and since each algorithm is a well-known technique, a description thereof will be omitted.

본 발명에 따른 방법들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위해 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.The methods according to the present invention may be implemented in the form of program instructions that can be executed by various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the computer-readable medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software.

컴퓨터 판독 가능 매체의 예에는 롬(ROM), 램(RAM), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 프로그램 명령의 예에는 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 적어도 하나의 소프트웨어 모듈로 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer-readable media may include hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions may include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as at least one software module to perform the operations of the present invention, and vice versa.

또한, 상술한 방법 또는 장치는 그 구성이나 기능의 전부 또는 일부가 결합되어 구현되거나, 분리되어 구현될 수 있다. In addition, the above-described method or apparatus may be implemented by combining all or part of its configuration or function, or may be implemented separately.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art can variously modify and change the present invention within the scope without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that it can be done.

본 발명에 따른 방법들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위해 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.The methods according to the present invention may be implemented in the form of program instructions that can be executed by various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the computer-readable medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software.

컴퓨터 판독 가능 매체의 예에는 롬(ROM), 램(RAM), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 프로그램 명령의 예에는 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 적어도 하나의 소프트웨어 모듈로 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer-readable media may include hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions may include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as at least one software module to perform the operations of the present invention, and vice versa.

또한, 상술한 방법 또는 장치는 그 구성이나 기능의 전부 또는 일부가 결합되어 구현되거나, 분리되어 구현될 수 있다. In addition, the above-described method or apparatus may be implemented by combining all or part of its configuration or function, or may be implemented separately.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art can variously modify and change the present invention within the scope without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that it can be done.

S10: 미리 정해진 거리S10: predetermined distance

Claims (5)

서버에 의해 수행되는 디스플레이 표시 방법에 있어서,
카메라를 통해 사용자 및 적어도 하나의 디스플레이를 포함하는 공간 이미지를 획득하는 단계;
상기 공간 이미지에 기초하여 상기 사용자의 위치 정보 및 상기 사용자의 행동 정보를 획득하는 단계; 및
상기 위치 정보 및 상기 행동 정보에 기초하여 상기 적어도 하나의 디스플레이의 밝기를 기준 세기에서 제1 세기로 조절하는 단계;를 포함하고,
상기 위치 정보 및 상기 행동 정보에 기초하여 상기 적어도 하나의 디스플레이의 밝기를 상기 기준 세기에서 제1 세기로 조절하는 단계는,
상기 카메라를 통해 상기 적어도 하나의 디스플레이의 위치 정보를 획득하는 단계;
상기 사용자의 위치 정보 및 상기 적어도 하나의 디스플레이의 위치 정보에 기초하여 상기 사용자와 상기 적어도 하나의 디스플레이 간의 거리 정보를 획득하는 단계; 및
상기 거리 정보에 기초하여 상기 사용자로부터 미리 정해진 거리 이상 떨어진 상기 디스플레이의 밝기를 상기 기준 세기에서 상기 제1 세기로 조절하는 단계;를 포함하고,
상기 행동 정보에 기초하여 상기 사용자의 손 제스처 정보를 도출하는 단계;
상기 손 제스처 정보에 기초하여 상기 사용자가 가리키는 포인터를 도출하는 단계;
상기 사용자의 음성 정보를 획득하는 단계;
상기 음성 정보에 포함된 단어 정보를 도출하는 단계;
상기 단어 정보 및 상기 포인터에 기초하여 강조 점수를 도출하는 단계;
상기 손 제스처 정보에 기초하여 상기 사용자가 가리키는 포인터를 포함하고 있는 상기 디스플레이의 일정 영역 부분의 밝기를 상기 기준 세기에서 제2 세기로 조절하는 단계;를 포함하고,
상기 디스플레이의 일정 영역 부분은 상기 강조 점수에 비례하여 넓어지고,
상기 강조 점수를 도출하는 방법은 다음과 같은 수학식 1에 의할 수 있고,
[수학식 1]
Figure 112022009366406-pat00008
,
상기 K는 강조 점수를 나타내고, 상기 b는 상기 포인터가 상기 디스플레이 상에 머무는 시간 동안 상기 디스플레이에 포함된 단어와 상기 사용자가 언급한 단어 중 일치하는 단어의 개수를 포함하는 강조 요인 변수의 개수를 나타내고, 상기 Sa는 a번째 해당하는 변수의 가중치를 나타내고, 상기 Ta는 상기 a번째 변수에 해당하는 미리 테이블링 된 수치 값을 나타내는 디스플레이 표시 방법.
In the display display method performed by the server,
acquiring a spatial image including a user and at least one display through a camera;
acquiring the location information of the user and the behavior information of the user based on the spatial image; and
adjusting the brightness of the at least one display from a reference intensity to a first intensity based on the location information and the behavior information;
adjusting the brightness of the at least one display from the reference intensity to a first intensity based on the location information and the behavior information,
acquiring location information of the at least one display through the camera;
obtaining distance information between the user and the at least one display based on the location information of the user and the location information of the at least one display; and
Including; adjusting the brightness of the display separated by a predetermined distance or more from the user from the reference intensity to the first intensity based on the distance information;
deriving hand gesture information of the user based on the behavior information;
deriving a pointer pointed to by the user based on the hand gesture information;
obtaining voice information of the user;
deriving word information included in the voice information;
deriving an emphasis score based on the word information and the pointer;
adjusting the brightness of a portion of a certain area of the display including the pointer pointed by the user from the reference intensity to a second intensity based on the hand gesture information;
A portion of a certain area of the display is widened in proportion to the emphasis score,
The method of deriving the emphasis score may be based on the following Equation 1,
[Equation 1]
Figure 112022009366406-pat00008
,
where K denotes an emphasis score, b denotes the number of highlight factor variables including the number of words included in the display and the number of words mentioned by the user that match during the time the pointer stays on the display, , wherein Sa represents a weight of the a-th variable, and Ta represents a pre-tabled numerical value corresponding to the a-th variable.
제1항에 있어서,
상기 상기 손 제스처 정보에 기초하여 상기 사용자가 가리키는 포인터를 도출하는 단계는,
상기 사용자의 손 모양 정보를 획득하는 단계;
상기 손 모양 정보에 기초하여 상기 사용자의 손 모양이 미리 정해진 패턴 모양으로 미리 정해진 시간 이상 유지하고 있으면, 상기 사용자가 가리키는 상기 포인터를 도출하는 단계;를 포함하는 디스플레이 표시 방법.
.
The method of claim 1,
The step of deriving the pointer pointed to by the user based on the hand gesture information comprises:
obtaining the user's hand shape information;
and deriving the pointer pointed to by the user when the user's hand shape is maintained in a predetermined pattern shape for a predetermined time or longer based on the hand shape information.
.
삭제delete 삭제delete 삭제delete
KR1020210123459A 2021-09-15 2021-09-15 A method of building custom studio KR102367853B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210123459A KR102367853B1 (en) 2021-09-15 2021-09-15 A method of building custom studio
KR1020220022911A KR102503581B1 (en) 2021-09-15 2022-02-22 Display method for providing customized studio space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210123459A KR102367853B1 (en) 2021-09-15 2021-09-15 A method of building custom studio

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220022911A Division KR102503581B1 (en) 2021-09-15 2022-02-22 Display method for providing customized studio space

Publications (1)

Publication Number Publication Date
KR102367853B1 true KR102367853B1 (en) 2022-02-25

Family

ID=80490174

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210123459A KR102367853B1 (en) 2021-09-15 2021-09-15 A method of building custom studio
KR1020220022911A KR102503581B1 (en) 2021-09-15 2022-02-22 Display method for providing customized studio space

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020220022911A KR102503581B1 (en) 2021-09-15 2022-02-22 Display method for providing customized studio space

Country Status (1)

Country Link
KR (2) KR102367853B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060015706A (en) * 2002-06-27 2006-02-20 오픈픽 인크. Method, system, and computer program product for managing controlled residential or non-residential environments
JP2016192151A (en) * 2015-03-31 2016-11-10 株式会社ニコン Image processing apparatus and program
KR20210053096A (en) * 2019-11-01 2021-05-11 삼성전자주식회사 Method for providing preview and electronic device using the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060015706A (en) * 2002-06-27 2006-02-20 오픈픽 인크. Method, system, and computer program product for managing controlled residential or non-residential environments
JP2016192151A (en) * 2015-03-31 2016-11-10 株式会社ニコン Image processing apparatus and program
KR20210053096A (en) * 2019-11-01 2021-05-11 삼성전자주식회사 Method for providing preview and electronic device using the same

Also Published As

Publication number Publication date
KR102503581B1 (en) 2023-02-24

Similar Documents

Publication Publication Date Title
US10706838B2 (en) Method and device for performing voice recognition using grammar model
JP6154550B2 (en) Real-time handwriting recognition management
US11024300B2 (en) Electronic device and control method therefor
CN106293074B (en) Emotion recognition method and mobile terminal
EP2937813A2 (en) Method of processing content and electronic device using the same
WO2015169134A1 (en) Method and apparatus for phonetically annotating text
US20160224591A1 (en) Method and Device for Searching for Image
US20240105159A1 (en) Speech processing method and related device
US10445564B2 (en) Method and device for recognizing facial expressions
US20170090725A1 (en) Selecting at least one graphical user interface item
KR102358012B1 (en) Speech control method and apparatus, electronic device, and readable storage medium
KR20200099427A (en) Method and system for editing moving picture based on context understanding using artificial intelligence
CN111028828A (en) Voice interaction method based on screen drawing, screen drawing and storage medium
KR102367853B1 (en) A method of building custom studio
CN114020245A (en) Page construction method and device, equipment and medium
CN111291539B (en) File editing control method, device, computer device and storage medium
US20170154630A1 (en) Electronic device and method for interpreting baby language
TW201506685A (en) Apparatus and method for selecting a control object by voice recognition
CN113778595A (en) Document generation method and device and electronic equipment
US20210390138A1 (en) VideoChat
Wang et al. Research and implementation of blind reader system based on android platform
KR102472614B1 (en) Mobile device interacting with docking device and control method thereof
CN110969165B (en) Handwritten character recognition method, handwritten character recognition device, electronic equipment and storage medium
US20240070390A1 (en) Generating suggestions using extended reality
KR20220076246A (en) Electronic device and method for controlling user interface of flexible display

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant