KR102581000B1 - Method and ststem for providing assistant service - Google Patents

Method and ststem for providing assistant service Download PDF

Info

Publication number
KR102581000B1
KR102581000B1 KR1020210013170A KR20210013170A KR102581000B1 KR 102581000 B1 KR102581000 B1 KR 102581000B1 KR 1020210013170 A KR1020210013170 A KR 1020210013170A KR 20210013170 A KR20210013170 A KR 20210013170A KR 102581000 B1 KR102581000 B1 KR 102581000B1
Authority
KR
South Korea
Prior art keywords
user
information
target
target user
function
Prior art date
Application number
KR1020210013170A
Other languages
Korean (ko)
Other versions
KR20220109764A (en
Inventor
이수미
신지은
박원경
김윤한
김영진
배용석
정현아
김범수
정상엽
권순필
서지연
이현미
나누리
윤정순
홍미학
Original Assignee
네이버 주식회사
웍스모바일재팬 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버 주식회사, 웍스모바일재팬 가부시키가이샤 filed Critical 네이버 주식회사
Priority to KR1020210013170A priority Critical patent/KR102581000B1/en
Priority to JP2022010171A priority patent/JP7379550B2/en
Priority to TW111103551A priority patent/TW202230268A/en
Publication of KR20220109764A publication Critical patent/KR20220109764A/en
Application granted granted Critical
Publication of KR102581000B1 publication Critical patent/KR102581000B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/02Reservations, e.g. for tickets, services or events
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/04Training, enrolment or model building

Abstract

본 발명은 어시스턴트 서비스 제공 방법 및 시스템에 관한 것이다. 본 발명에 따른 어시스턴트 서비스 제공 방법은, 카메라를 이용하여, 타겟 유저의 얼굴 이미지를 센싱하는 단계, 마이크를 이용하여, 상기 타겟 유저의 음성을 센싱하는 단계, 사용자 DB로부터 상기 얼굴 이미지에 대응되는 상기 타겟 유저의 사용자 정보를 추출하는 단계, 상기 사용자 정보에 근거하여, 상기 음성에 대응되는 타겟 기능에 대한 상기 타겟 유저의 권한을 확인하는 단계 및 확인 결과에 근거하여, 상기 타겟 기능과 관련된 제어를 수행하는 단계를 포함할 수 있다.The present invention relates to a method and system for providing assistant services. The method of providing an assistant service according to the present invention includes the steps of sensing a facial image of a target user using a camera, sensing the voice of the target user using a microphone, and receiving the facial image corresponding to the facial image from a user DB. Extracting user information of the target user, confirming the target user's authority for the target function corresponding to the voice based on the user information, and performing control related to the target function based on the confirmation result. It may include steps.

Figure R1020210013170
Figure R1020210013170

Description

어시스턴트 서비스 제공 방법 및 시스템{METHOD AND STSTEM FOR PROVIDING ASSISTANT SERVICE}Assistant service provision method and system {METHOD AND STSTEM FOR PROVIDING ASSISTANT SERVICE}

본 발명은 어시스턴트 서비스 제공 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for providing assistant services.

기술이 발전함에 따라, 전자기기의 활용도가 높아지고 있으며, 최근에는 사용자를 보조하는 어시스턴트(ASSISTATNT) 서비스를 제공하는 수단으로서 활용되고 있다.As technology develops, the utilization of electronic devices is increasing, and recently, they have been used as a means of providing assistant services to assist users.

어시스턴트 서비스는, 사용자에게 유용한 정보를 출력하거나, 사용자가 요구한 기능에 대해 응답하거나, 관련 작업을 수행하여, 사용자가 실제 다양한 작업 또는 가상 작업을 완료하는데 도움을 줄 수 있다. The assistant service may help the user complete various actual or virtual tasks by outputting useful information to the user, responding to functions requested by the user, or performing related tasks.

이러한 어시스턴트 서비스를 제공하는 전자기기는, 사용자에게 맞춤형 서비스를 제공하거나, 사용자의 의도를 파악하여 사용자가 실제로 필요로 하는 기능을 제공하는 형식으로 발전하고 있다.Electronic devices that provide such assistant services are developing into a format that provides customized services to users or provides functions that users actually need by understanding their intentions.

예를 들어, 대한민국 공개특허 2019-0062521호(가상 어시스턴트의 개인화)에서는, 사용자 개인 레코드를 자동으로 보관함으로써, 사용자에 대한 개인 정보에 보다 빠르게 접근하여, 사용자의 요구를 정확하게 파악하고, 빠르게 응답할 수 있는 시스템을 제공하고 있다.For example, in Republic of Korea Patent Publication No. 2019-0062521 (Personalization of Virtual Assistant), the user's personal record is automatically stored, allowing faster access to the user's personal information, accurately identifying the user's needs, and responding quickly. We provide a system that can be used.

한편, 이러한 어시스턴트 서비스는, 사용자의 요구를 정확하게 파악하는 것 뿐만 아니라, 어시스턴트 서비스를 제공하는 사용자가 누구인지에 따라, 적절한 기능을 제공하는 것이 핵심이며, 이러한 분야에 대한 연구가 활발하게 이루어지고 있다.Meanwhile, the key to these assistant services is not only to accurately understand the user's needs, but also to provide appropriate functions depending on the user providing the assistant service. Research in this field is actively being conducted. .

본 발명은, 사용자의 의도를 파악하여, 보다 직관적으로 어시스턴트 서비스를 제공할 수 있는 어시스턴트 서비스 제공 방법 및 시스템을 제공하기 위한 것이다.The present invention is intended to provide a method and system for providing an assistant service that can provide an assistant service more intuitively by understanding the user's intention.

나아가, 본 발명은, 전자기기에 대한 접촉 입력 없이도, 어시스턴트 서비스를 제공할 수 있는 어시스턴트 서비스 제공 방법 및 시스템을 제공하기 위한 것이다.Furthermore, the present invention is intended to provide an assistant service providing method and system that can provide an assistant service without contact input to an electronic device.

더 나아가, 본 발명은, 사용자의 권한 및 상황을 고려하여, 사용자가 의도한 기능의 제공을 수행할 수 있는 어시스턴트 서비스 제공 방법 및 시스템을 제공하기 위한 것이다.Furthermore, the present invention is intended to provide a method and system for providing an assistant service that can provide functions intended by the user, taking into account the user's authority and situation.

위에서 살펴본 과제를 해결하기 위하여, 본 발명에 따른 어시스턴트 서비스 제공 방법은, 카메라를 이용하여, 타겟 유저의 얼굴 이미지를 센싱하는 단계, 마이크를 이용하여, 상기 타겟 유저의 음성을 센싱하는 단계, 사용자 DB로부터 상기 얼굴 이미지에 대응되는 상기 타겟 유저의 사용자 정보를 추출하는 단계, 상기 사용자 정보에 근거하여, 상기 음성에 대응되는 타겟 기능에 대한 상기 타겟 유저의 권한을 확인하는 단계 및 확인 결과에 근거하여, 상기 타겟 기능과 관련된 제어를 수행하는 단계를 포함할 수 있다.In order to solve the problems described above, the method of providing an assistant service according to the present invention includes the steps of sensing the face image of a target user using a camera, sensing the voice of the target user using a microphone, and user DB. extracting user information of the target user corresponding to the face image from the user information, confirming the target user's authority for the target function corresponding to the voice based on the user information, and based on the confirmation result, It may include performing control related to the target function.

나아가, 본 발명에 따른 어시스턴트 서비스 제공 시스템은, 타겟 유저의 얼굴 이미지를 센싱하는 카메라, 상기 타겟 유저의 음성을 센싱하는 마이크, 사용자 DB로부터 상기 얼굴 이미지에 대응되는 상기 타겟 유저의 사용자 정보를 추출하고, 상기 사용자 정보에 근거하여, 상기 음성에 대응되는 타겟 기능에 대한 상기 타겟 유저의 권한을 확인하는 제어부를 포함하고, 상기 제어부는, 확인 결과에 근거하여, 상기 타겟 기능과 관련된 제어를 수행할 수 있다.Furthermore, the assistant service providing system according to the present invention includes a camera that senses the face image of the target user, a microphone that senses the target user's voice, and a user DB to extract user information of the target user corresponding to the face image, , based on the user information, includes a control unit that verifies the target user's authority for the target function corresponding to the voice, and the control unit can perform control related to the target function based on the confirmation result. there is.

나아가, 본 발명에 따른 전자기기에서 하나 이상의 프로세스에 의하여 실행되며, 컴퓨터로 판독될 수 있는 매체에 저장 가능한 프로그램은, 카메라를 이용하여, 타겟 유저의 얼굴 이미지를 센싱하는 단계, 마이크를 이용하여, 상기 타겟 유저의 음성을 센싱하는 단계, 사용자 DB로부터 상기 얼굴 이미지에 대응되는 상기 타겟 유저의 사용자 정보를 추출하는 단계, 상기 사용자 정보에 근거하여, 상기 음성에 대응되는 타겟 기능에 대한 상기 타겟 유저의 권한을 확인하는 단계 및 확인 결과에 근거하여, 상기 타겟 기능과 관련된 제어를 수행하는 단계를 수행하도록 하는 명령어들을 포함할 수 있다.Furthermore, a program that is executed by one or more processes in an electronic device according to the present invention and can be stored in a computer-readable medium includes the steps of: sensing the face image of a target user using a camera; using a microphone; Sensing the target user's voice, extracting user information of the target user corresponding to the face image from a user DB, based on the user information, selecting the target user for the target function corresponding to the voice. It may include instructions for performing a step of checking authority and a step of performing control related to the target function based on the confirmation result.

위에서 살펴본 것과 같이, 본 발명에 따른 어시스턴트 서비스 제공 방법 및 시스템은, 얼굴 인식을 활용하여, 인식된 사용자에게 제공 가능한 맞춤형 기능을 제공할 수 있다. 더 나아가 본 발명은 얼굴 인식 뿐만 아니라, 얼굴 인식과 함께 음성 인식 수행함으로써, 인식된 사용자가 발화한 음성에 따른 기능을 제공할 수 있다. 따라서, 사용자는 어시스턴트 서비스를 제공하는 전자기기 주변에서 발화를 하는 것 만으로도, 목적하고자 하는 기능의 수행을 제공받을 수 있다. As seen above, the assistant service provision method and system according to the present invention can utilize facial recognition to provide customized functions that can be provided to recognized users. Furthermore, the present invention can provide functions according to the voice uttered by the recognized user by performing not only face recognition but also voice recognition along with face recognition. Accordingly, the user can receive the desired function by simply speaking near the electronic device that provides the assistant service.

나아가, 본 발명에 따른 어시스턴트 서비스 제공 방법 및 시스템은, 카메라를 이용하여 인증의 대상이 되는 사용자를 센싱하고, 센싱된 사용자의 권한을 확인함으로써, 사용자가 갖는 권한 내에 존재하는 기능의 제공을 보조할 수 있다. 이 경우, 본 발명에서는, 사용자가 요청한 기능이 사용자의 권한 내에 존재하지 않는 경우, 사용자의 권한 내에 존재하는 유사한 기능의 제공을 추천함으로써, 사용자의 편의성을 높일 수 있다.Furthermore, the assistant service provision method and system according to the present invention senses the user subject to authentication using a camera and confirms the sensed user's authority, thereby assisting in the provision of functions that exist within the user's authority. You can. In this case, in the present invention, when the function requested by the user does not exist within the user's authority, the user's convenience can be improved by recommending the provision of a similar function that exists within the user's authority.

도 1은 본 발명에 따른 어시스턴트 서비스 시스템을 설명하기 위한 개념도이다.
도 2는 본 발명에 따른 어시스턴트 서비스 방법을 설명하기 위한 흐름도이다.
도 3, 도 4a, 도 4b, 도 5a, 도 5b, 도 6, 도 7 및 도 8은 본 발명에 따른 어시스턴트 서비스 방법 및 시스템을 설명하기 위한 개념도들이다.
도 9, 도 10 및 도 11은 본 발명에 따른 어시스턴트 서비스의 활용예를 설명하기 위한 개념도들이다.
1 is a conceptual diagram for explaining an assistant service system according to the present invention.
Figure 2 is a flowchart for explaining the assistant service method according to the present invention.
FIGS. 3, 4A, 4B, 5A, 5B, 6, 7, and 8 are conceptual diagrams for explaining the assistant service method and system according to the present invention.
Figures 9, 10, and 11 are conceptual diagrams to explain examples of use of the assistant service according to the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소에는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings. However, identical or similar components will be assigned the same reference numbers regardless of drawing symbols, and duplicate descriptions thereof will be omitted. The suffixes “module” and “part” for components used in the following description are given or used interchangeably only for the ease of preparing the specification, and do not have distinct meanings or roles in themselves. Additionally, in describing the embodiments disclosed in this specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed descriptions will be omitted. In addition, the attached drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed in this specification is not limited by the attached drawings, and all changes included in the spirit and technical scope of the present invention are not limited. , should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms containing ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

본 발명은 사용자에게 편의기능을 제공할 수 있는 어시스턴트 서비스(assistant service) 제공 방법 및 시스템에 관한 것으로서, 사용자가 전자기기 주변에 위치하는 것 만으로도, 사용자가 의도한 기능을 보조할 수 있는 방법을 제안한다.The present invention relates to a method and system for providing an assistant service that can provide convenience functions to users. It proposes a method that can assist a user's intended function just by being located near an electronic device. do.

이하 첨부된 도면과 함께 본 발명에 대해 구체적으로 설명하기로 한다. 도 1은 본 발명에 따른 어시스턴트 서비스 시스템을 설명하기 위한 개념도이고, 도 2는 본 발명에 따른 어시스턴트 서비스 방법을 설명하기 위한 흐름도이다. 나아가, 도 3, 도 4a, 도 4b, 도 5a, 도 5b, 도 6, 도 7 및 도 8은 본 발명에 따른 어시스턴트 서비스 방법 및 시스템을 설명하기 위한 개념도들이다. 그리고, 도 9, 도 10 및 도 11은 본 발명에 따른 어시스턴트 서비스의 활용예를 설명하기 위한 개념도들이다.Hereinafter, the present invention will be described in detail with the accompanying drawings. Figure 1 is a conceptual diagram for explaining an assistant service system according to the present invention, and Figure 2 is a flow chart for explaining an assistant service method according to the present invention. Furthermore, FIGS. 3, 4A, 4B, 5A, 5B, 6, 7, and 8 are conceptual diagrams for explaining the assistant service method and system according to the present invention. And, Figures 9, 10, and 11 are conceptual diagrams for explaining examples of use of the assistant service according to the present invention.

도 1에 도시된 것과 같이, 본 발명에 따른 어시스턴트 서비스 시스템(100)은, 통신부(110), 저장부(120) 및 제어부(130) 중 적어도 하나를 포함하도록 구성될 수 있다. 이때 본 발명에 따른 어시스턴트 서비스 시스템(100)은 상술한 구성 요소로 제한되는 것은 아니며, 본 명세서의 설명에 따른 기능과 동일 또는 유사한 역할을 수행하는 구성요소를 더 포함할 수 있다.As shown in FIG. 1, the assistant service system 100 according to the present invention may be configured to include at least one of a communication unit 110, a storage unit 120, and a control unit 130. At this time, the assistant service system 100 according to the present invention is not limited to the above-described components, and may further include components that perform the same or similar roles as the functions described in the present specification.

본 발명에 따른 어시스턴트 서비스 시스템(100)은 전자기기(10)와 연동되어 동작할 수 있다. 여기서 전자기기(10)는, 스마트폰(smart phone), 휴대폰, 태블릿 PC, 키오스크(KIOSK), 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), 및 PMP(Portable Multimedia Player) 중 적어도 하나를 포함할 수 있다.The assistant service system 100 according to the present invention can operate in conjunction with the electronic device 10. Here, the electronic device 10 is at least one of a smart phone, a mobile phone, a tablet PC, a kiosk, a computer, a laptop, a digital broadcasting terminal, a personal digital assistant (PDA), and a portable multimedia player (PMP). may include.

한편, 본 발명에 따른 어시스턴트 서비스 시스템(100)은, 애플리케이션 또는 소프트웨어로 구현될 수 있다. 이때, 어시스턴트 서비스 시스템(100)에 따른 애플리케이션 또는 소프트웨어는, 전자기기(10)에 설치되어, 이하에서 설명되는 어시스턴트 서비스 제공 방법에 따른 프로세스를 수행할 수 있다.Meanwhile, the assistant service system 100 according to the present invention may be implemented as an application or software. At this time, an application or software according to the assistant service system 100 may be installed on the electronic device 10 and perform a process according to the assistant service provision method described below.

예를 들어, 본 발명에 따른 어시스턴트 서비스 시스템(100)의 통신부(110), 저장부(120) 및 제어부(130)는, 전자기기(10)의 하드웨어 구성을 활용하여, 본 발명에 따른 어시스턴트 서비스와 관련된 일련의 기능을 수행할 수 있다. 예를 들어, 통신부(110)는 전자기기(10)의 통신부에 구비된 통신 모듈(예를 들어, 이동통신 모듈, 근거리 통신 모듈, 무선 인터넷 모듈, 위치정보 모듈, 방송 수신 모듈 등)의 구성을 이용하여, 적어도 하나의 외부 서버(예를 들어, 도 1에 도시된 데이터베이스(database: DB) 서버(140) 또는 클라우드 서버 등)와 데이터를 송수신할 수 있다.For example, the communication unit 110, storage unit 120, and control unit 130 of the assistant service system 100 according to the present invention utilizes the hardware configuration of the electronic device 10 to provide the assistant service according to the present invention. A series of functions related to can be performed. For example, the communication unit 110 configures the communication module (e.g., mobile communication module, short-range communication module, wireless Internet module, location information module, broadcast reception module, etc.) provided in the communication unit of the electronic device 10. Using this, data can be transmitted and received with at least one external server (for example, the database (DB) server 140 shown in FIG. 1 or a cloud server, etc.).

나아가 저장부(120)는 전자기기(10)에 구비된(또는 삽입된) 메모리 또는 클라우드 서버를 이용하여, 본 발명에 따른 어시스턴트 서비스와 관련된 데이터를 저장하도록 이루어질 수 있다.Furthermore, the storage unit 120 may be configured to store data related to the assistant service according to the present invention using a memory provided in (or inserted into) the electronic device 10 or a cloud server.

제어부(130)는, 전자기기(10)에 구비된 CPU 및 클라우드 서버 중 적어도 하나를 활용하여, 각 구성에 대한 제어 및 본 발명과 관련된 전반적인 제어를 수행할 수 있다. 나아가, 제어부(130)는 본 발명을 수행하기 위하여, 전자기기(10)의 구성 중 적어도 하나에 대한 제어 권한을 가질 수 있다. 나아가, 제어부(130)는 전자기기(10)의 구성 요소에서 수신되거나, 센싱된 정보를 본 발명을 위하여 활용할 수 있다. 예를 들어, 제어부(130)는 전자기기(10)의 카메라(11)로부터 수신되는 영상 및 마이크(13)를 통해 수신되는 음성에 기반하여, 본 발명에 따른 어시스턴트 서비스를 수행할 수 있다.The control unit 130 may utilize at least one of the CPU and the cloud server provided in the electronic device 10 to perform control of each component and overall control related to the present invention. Furthermore, the control unit 130 may have control authority over at least one component of the electronic device 10 in order to perform the present invention. Furthermore, the control unit 130 can utilize information received or sensed from components of the electronic device 10 for the present invention. For example, the control unit 130 may perform the assistant service according to the present invention based on the image received from the camera 11 of the electronic device 10 and the voice received through the microphone 13.

한편, 제어부(130)는 인공지능, 머신러닝 또는 딥러닝 기반으로, 학습 및 추론에 근거하여 본 발명에 따른 어시스턴스 서비스를 제공할 수 있다.Meanwhile, the control unit 130 can provide an assistance service according to the present invention based on learning and reasoning based on artificial intelligence, machine learning, or deep learning.

나아가, 제어부(130)는 전자기기(10)의 디스플레이부(12)를 이용하여, 본 발명과 관련된 정보를 출력하도록 이루어질 수 있다. 이때, 디스플레이부(12)는 사용자 입력을 수신할 수 있는 터치스크린(touch screen)으로 구현될 수 있다.Furthermore, the control unit 130 may output information related to the present invention using the display unit 12 of the electronic device 10. At this time, the display unit 12 may be implemented as a touch screen capable of receiving user input.

이 외에도, 제어부(130)는 전자기기(10)에 구비된 다른 구성 요소(예를 들어, 근접 센서, 적외선 센서, 입력부 등)를 이용하여 본 발명에 따른 어시스턴트 서비스를 수행할 수 있다.In addition, the control unit 130 can perform the assistant service according to the present invention using other components (eg, proximity sensor, infrared sensor, input unit, etc.) provided in the electronic device 10.

한편, 도 1에 의하면, 어시스턴트 시스템(100)의 구성요소로서, 통신부(110), 저장부(120) 및 제어부(130)를 포함하였으나, 본 발명에 따른 어시스턴트 시스템(100)은, 전자기기의 구성요소 중 적어도 하나(예를 들어, 카메라(11), 디스플레이부(12), 마이크(13) 등)를 구성요소로서 포함할 수 있음은 물론이다.Meanwhile, according to FIG. 1, the components of the assistant system 100 include a communication unit 110, a storage unit 120, and a control unit 130. However, the assistant system 100 according to the present invention is an electronic device. Of course, at least one of the components (eg, camera 11, display unit 12, microphone 13, etc.) may be included as a component.

한편, 본 발명에 따른 어시스턴트 서비스 시스템(100)은 프로그램 또는 어플리케이션의 형태로 존재하는 것 뿐만 아니라, 이하에서 설명되는 구성 및 기능의 수행이 가능한 다양한 형태로 존재할 수 있다.Meanwhile, the assistant service system 100 according to the present invention may exist not only in the form of a program or application, but also in various forms capable of performing the configuration and functions described below.

이에, 이하에서는, 이에 대한 엄격한 제한을 두지 않고, 본 발명에 따른 어시스턴트 서비스 시스템(100)에 대하여 설명하도록 한다.Accordingly, hereinafter, the assistant service system 100 according to the present invention will be described without placing strict limitations thereon.

도 1에 도시된 것과 같이, 본 발명에 따른 어시스턴트 서비스 시스템(100)은 전자기기(10)의 카메라(11)를 이용하여, 사용자를 센싱하고, 센싱된 사용자에 대한 어시스턴트 서비스를 수행하도록 이루어질 수 있다.As shown in FIG. 1, the assistant service system 100 according to the present invention can be configured to sense a user using the camera 11 of the electronic device 10 and perform an assistant service for the sensed user. there is.

설명의 편의를 위하여, 본 발명에서는 어시스턴트 서비스의 제공이 되는 사용자를 “타겟 유저(target user, 1000)”라고 명명하기로 한다.For convenience of explanation, in the present invention, the user to whom the assistant service is provided is referred to as “target user (1000).”

본 발명에서는 타겟 유저(1000)에 대해 타겟 기능을 수행하기 위하여, 타겟 유저(1000)에 대한 사용자 인증을 수행함으로써, 타겟 유저(1000)의 기 설정된 권한 내에서의 타겟 기능을 제공할 수 있다.In the present invention, in order to perform a target function for the target user 1000, user authentication is performed on the target user 1000, thereby providing the target function within the preset authority of the target user 1000.

본 발명에서, “사용자 인증”이란, 타겟 유저(1000)에 대한 사용자 인증(User Authentication)을 의미할 수 있다.In the present invention, “user authentication” may mean user authentication for the target user (1000).

본 발명에서는, “사용자 인증”을 이용하여, “타겟 기능”과 관련된 일련의 제어를 수행할 수 있다.In the present invention, a series of controls related to the “target function” can be performed using “user authentication.”

여기에서, “타겟 기능”의 종류는 매우 다양할 수 있으며, 예를 들어, 장소에 대한 예약 기능(예를 들어, 회의실 예약, 식당 예약 등), 결제 기능, 출석 확인 기능, 병원에서의 내원 확인, 주문 기능(예를 들어, 카페에서의 음료 주문 등), 전자장치 제어 기능(예를 들어, 회의실에 구비된 전자장치(예를 들어, TV, 스피커, 조명 등), 주차장에서의 차량 찾기 기능 등과 같이, 사용자의 편의를 위하여 제공될 수 있는 다양한 기능을 의미할 수 있다.Here, the type of “targeted function” can be very diverse, for example, a reservation function for a venue (e.g., conference room reservation, restaurant reservation, etc.), payment function, attendance confirmation function, visit confirmation at the hospital. , ordering functions (e.g., ordering drinks in a cafe, etc.), electronic device control functions (e.g., electronic devices equipped in a conference room (e.g., TV, speakers, lights, etc.), vehicle search functions in a parking lot, etc. As such, it may refer to various functions that can be provided for the convenience of the user.

한편, 전자장치 제어 기능은 회의실, 카페 등과 같은 특정 공간에 구비된 전자장치를 제어하기 위한 기능을 포함할 수 있다. 이러한 전자장치에 대한 제어는, 사물인터넷(Internet of Things(IoT)) 기반의 제어를 이용할 수 있다. 전자장치 제어 기능은, 위에서 살펴본 TV, 스피커, 조명에 대한 제어 외에, 에어컨 제어, 프로젝터 제어 등이 추가적으로 존재할 수 있다.Meanwhile, the electronic device control function may include a function for controlling electronic devices installed in a specific space, such as a conference room, cafe, etc. Control of such electronic devices can use Internet of Things (IoT)-based control. Electronic device control functions may include air conditioner control, projector control, etc. in addition to the control of the TV, speakers, and lighting discussed above.

이러한, 전자장치 제어 기능은, 전자기기(10)에 구비된 마이크(13)를 통해 입력되는 음성 명령어를 통하여 활성화 또는 비활성화될 수 있다.This electronic device control function can be activated or deactivated through a voice command input through the microphone 13 provided in the electronic device 10.

제어부(130)는 “불꺼줘”, “조명 켜줘”, “에어컨 틀어줘” 등과 같은 음성 명령어가 수신되면, 수신된 음성 명령어에 대응되는 전자장치에 대한 제어명령을 생성하고, 대응되는 전자장치에 제어명령을 전송함으로써, 전자장치에 대한 제어를 수행할 수 있다.When a voice command such as “Turn off the lights,” “Turn on the lights,” or “Turn on the air conditioner,” is received, the control unit 130 generates a control command for the electronic device corresponding to the received voice command and sends the corresponding electronic device to the corresponding electronic device. By transmitting control commands, control of the electronic device can be performed.

본 발명에서 제어부(130)는, 카메라(11)를 통해 수신되는 영상에서, 타겟 유저(1000)의 얼굴 이미지를 획득하고, 사용자 DB에 저장된 상기 얼굴 이미지에 대응되는 사용자 정보를 이용하여, 상기 타겟 유저(1000)에 대한 어시스턴트 서비스를 수행할 수 있다.In the present invention, the control unit 130 acquires a face image of the target user 1000 from the image received through the camera 11, and uses user information corresponding to the face image stored in the user DB to target the target user 1000. An assistant service for the user 1000 can be performed.

이때, 상기 사용자 인증의 대상이 되는 타겟 기능은 다양한 기준에 근거하여 특정될 수 있다.At this time, the target function subject to user authentication may be specified based on various criteria.

일 예로서, 제어부(130)는 전자기기(10)가 설치된 장소에 따라, 타겟 기능을 특정할 수 있다. 예를 들어, 도 1에 도시된 것과 같이, 전자기기(10)가 회의실 주변에 배치된 경우, 제어부(130)는 타겟 기능으로서, 장소 예약(예를 들어, 회의실 예약) 기능을 특정할 수 있다. 그리고, 도 10에 도시된 것과 같이, 전자기기(10)가 주차장 주변에 배치된 경우, 제어부(130)는 타겟 기능으로서, 타겟 유저의 차량이 주차된 위치를 검색하는 기능을 특정할 수 있다. 한편, 타겟 기능으로서, 어떤 기능을 특정할지 여부는, 사전에 전자기기(10)가 배치된 위치에 근거하여, 결정되어 존재할 수 있다.As an example, the control unit 130 may specify a target function depending on the location where the electronic device 10 is installed. For example, as shown in FIG. 1, when the electronic device 10 is placed around a conference room, the control unit 130 may specify a location reservation (e.g., conference room reservation) function as the target function. . And, as shown in FIG. 10, when the electronic device 10 is placed around a parking lot, the control unit 130 may specify, as a target function, a function for searching the location where the target user's vehicle is parked. Meanwhile, which function to specify as the target function may be determined in advance based on the location where the electronic device 10 is placed.

다른 예로서, 제어부(130)는 마이크(13)를 통해 수신되는 음성에 기반하여, 타겟 기능을 특정할 수 있다. 제어부(130)는 전자기기(10) 주변에 위치한 타겟 유저(1000)의 얼굴 이미지를 센싱하는 것과 함께, 타겟 유저(1000)의 마이크(13)를 통해, 타겟 유저(1000)의 음성 정보 수신할 수 있다.As another example, the control unit 130 may specify a target function based on the voice received through the microphone 13. The control unit 130 senses the face image of the target user 1000 located around the electronic device 10 and receives voice information of the target user 1000 through the microphone 13 of the target user 1000. You can.

제어부(130)는 기 설정된 자연어 처리(Natural Language Processing) 알고리즘에 근거하여, 마이크(13)를 통해 센싱된(또는 수신된) 음성(또는 음성 정보)정보를 분석할 수 있다. 그리고 제어부(130)는 분석에 근거하여, 수신된 음성으로부터 타겟 기능을 특정할 수 있다. 제어부(130)는 음성에 포함된 키워드 또는 명령어에 근거하여, 타겟 기능을 특정할 수 있다.The control unit 130 may analyze voice (or voice information) information sensed (or received) through the microphone 13 based on a preset Natural Language Processing algorithm. And the control unit 130 can specify the target function from the received voice based on analysis. The control unit 130 may specify the target function based on keywords or commands included in the voice.

또 다른 예로서, 제어부(130)는 전자기기(10)에 대한 사용자 입력에 근거하여, 타겟 기능을 특정할 수 있다. 이때의 사용자 입력은 터치 스크린이 구비된 디스플레이부(12) 또는 다른 사용자 입력 수단을 통하여 입력되는 사용자 입력일 수 있다. 제어부(130)는 이러한 사용자 입력에 근거하여, 타겟 기능을 특정할 수 있다.As another example, the control unit 130 may specify a target function based on a user input to the electronic device 10. At this time, the user input may be a user input input through the display unit 12 equipped with a touch screen or another user input means. The control unit 130 may specify a target function based on such user input.

또 다른 예로서, 제어부(130)는 타겟 유저의 사용자 정보에 포함된 타겟 유저의 스케줄에 근거하여, 적절한 기능을 타겟 기능으로서 특정할 수 있다.As another example, the control unit 130 may specify an appropriate function as the target function based on the target user's schedule included in the target user's user information.

이외에도, 타겟 기능은 다양한 방식으로 특정될 수 있으며, 본 발명에서는, 타겟 유저가 타겟 기능을 원활하게 수행 또는 제공받도록 어시스턴트 서비스를 제공할 수 있다.In addition, the target function can be specified in various ways, and in the present invention, an assistant service can be provided so that the target user can smoothly perform or receive the target function.

한편, 제어부(130)는, 상기 타겟 유저(1000)의 얼굴 이미지 및 상기 사용자 DB로부터 추출되는 사용자 정보를 이용하여, 타겟 기능에 대한 타겟 유저(1000)의 권한을 확인하고, 타겟 유저(1000)의 권한 내에서 타겟 기능에 대한 어시스턴트 서비스를 수행할 수 있다.Meanwhile, the control unit 130 uses the face image of the target user 1000 and user information extracted from the user DB to check the authority of the target user 1000 for the target function, and Assistant services for target functions can be performed within the authority of.

또한, 제어부(130)는 타겟 유저(100)의 사용자 정보를, 타겟 기능의 수행에 활용할 수 있다. 예를 들어, 타겟 기능이 출석 체크 기능인 경우, 제어부(130)는, 타겟 유저(1000)의 사용자 정보에 근거하여, 타겟 유저(1000) 대한 출석 체크 승인 처리 또는 출석 체크 거절 처리 중 어느 하나를 수행할 수 있다.Additionally, the control unit 130 may utilize user information of the target user 100 to perform the target function. For example, when the target function is an attendance check function, the control unit 130 performs either an attendance check approval process or an attendance check rejection process for the target user 1000, based on the user information of the target user 1000. can do.

또 다른 예로서, 타겟 기능이 결제 기능인 경우, 제어부(130)는, 타겟 유저(1000)의 사용자 정보를 이용하여, 결제 대상 금액에 대해 결제 승인 처리 또는 결제 거절 처리 중 어느 하나를 수행할 수 있다.As another example, when the target function is a payment function, the control unit 130 may use the user information of the target user 1000 to perform either payment approval processing or payment rejection processing for the amount subject to payment. .

한편, 타겟 유저(1000)이 사용자 정보는, 타겟 유저(1000)와 관련된 다양한 정보로서, 제어부(130)는, 카메라(11)를 통해 수신된 영상에서, 타겟 유저(1000)의 얼굴 이미지를 추출하고, 사용자 DB로부터, 상기 추출된 얼굴 이미지와 대응되는(또는 매칭된) 사용자 정보를 추출할 수 있다.Meanwhile, the user information of the target user 1000 is various information related to the target user 1000, and the control unit 130 extracts the face image of the target user 1000 from the image received through the camera 11. And, user information corresponding to (or matched with) the extracted face image can be extracted from the user DB.

여기에서, 사용자 DB는, “사용자와 관련된 정보”, “사용자의 신상정보” 또는 “사용자의 식별정보”라고도 명명될 수 있다.Here, the user DB may also be called “user-related information,” “user personal information,” or “user identification information.”

사용자 DB는, 저장부(120), 외부 데이터베이스(140) 및 클라우드 서버 중 적어도 하나에 포함될 수 있다.The user DB may be included in at least one of the storage unit 120, the external database 140, and the cloud server.

제어부(130)는, 사용자 DB로부터 타겟 유저(1000)의 얼굴 이미지와 대응되는 인물을 검색하고, 검색된 인물에 매칭된 사용자 정보를 추출할 수 있다.The control unit 130 may search for a person corresponding to the face image of the target user 1000 from the user DB and extract user information matched to the searched person.

사용자 DB에는 개별 인물(또는 사람) 단위로, 각각의 인물에 대한 사용자 정보가 저장될 수 있다. 즉, 사용자 DB에는, 서로 다른 인물 마다 각각에 대응되는 사용자 정보가 매칭되어 저장될 수 있다.In the user DB, user information for each person may be stored on an individual person (or person) basis. That is, in the user DB, user information corresponding to each different person can be matched and stored.

여기에서, 사용자 정보는, 각각의 인물에 해당하는 사람의 이름, 생년월일, 주소, 전화번호, 메일 주소, 계정 정보, 사번, ID, 얼굴 이미지, 생체 정보(예를 들어, 지문 정보, 홍채 정보 등), 특정 기능(또는 특정 이벤트)에 대한 권한 정보, 참조 얼굴 이미지, 전자기기의 식별 정보, 일정(스케줄, schedule), 근무 부서, 직책, 직함, 직위, 결제 정보(예를 들어, 계좌번호, 신용카드 정보 등)등과 관련된 정보 중 적어도 하나를 포함할 수 있다.Here, user information includes the name, date of birth, address, phone number, email address, account information, employee number, ID, face image, and biometric information (e.g., fingerprint information, iris information, etc.) of each person. ), authority information for specific functions (or specific events), reference facial image, identification information of electronic devices, schedule (schedule, schedule), work department, position, job title, position, payment information (e.g., account number, It may include at least one piece of information related to credit card information, etc.).

여기에서, 참조 얼굴 이미지는, 특정 인물에 대한 얼굴 이미지로서, 하나 또는 복수 일 수 있다. 본 발명에서, “참조 얼굴 이미지”는 “참조 데이터”로도 명명될 수 있다.Here, the reference face image is a face image for a specific person and may be one or more. In the present invention, “reference face image” may also be referred to as “reference data.”

제어부(130)는, 카메라(11)를 통해 획득된 타겟 유저의 얼굴 이미지와, 사용자 DB에 저장된 참조 얼굴 이미지를 비교하여, 상기 타겟 유저의 얼굴 이미지와 대응되는 참조 얼굴 이미지에 매칭된 인물을 검색할 수 있다. 그리고, 제어부(130)는 검색된 인물을 상기 타겟 유저로 특정하고, 상기 검색된 인물에 매칭된 사용자 정보를 사용자 DB로부터 추출할 수 있다.The control unit 130 compares the face image of the target user acquired through the camera 11 with the reference face image stored in the user DB, and searches for a person who matches the reference face image corresponding to the face image of the target user. can do. Additionally, the control unit 130 may specify the searched person as the target user and extract user information matched to the searched person from the user DB.

그리고, 제어부(130)는 추출된 사용자 정보를 이용하여, 타겟 기능에 대한 어시스턴트 서비스를 수행할 수 있다.And, the control unit 130 can use the extracted user information to perform an assistant service for the target function.

도 1에 도시된 것과 같이, 전자기기(10)는 임의의 장소에 배치될 수 있으며, 타겟 유저(1000)는 전자기기(10)에 주변에 위치하는 것 만으로도, 어시스턴트 서비스를 수행할 수 있다. As shown in FIG. 1, the electronic device 10 can be placed in any location, and the target user 1000 can perform an assistant service just by being near the electronic device 10.

이하에서는, 흐름도와 함께 본 발명에 따른 어시스턴트 서비스 제공 방법에 대하여 보다 구체적으로 살펴본다.Below, we will look at the assistant service providing method according to the present invention in more detail along with a flowchart.

먼저, 도 2에 도시된 것과 같이, 본 발명에 따른 어시스턴트 서비스 제공 방법에 의하면, 카메라(11)를 이용하여, 타겟 유저의 얼굴 이미지를 센싱하는 과정이 진행될 수 있다(S210).First, as shown in FIG. 2, according to the assistant service providing method according to the present invention, a process of sensing the face image of the target user can be performed using the camera 11 (S210).

즉, 제어부(130)는, 전자기기(10)의 카메라(11, 도 1 참조)를 이용하여, 카메라(11)로부터 수신된 영상에서 타겟 유저의 얼굴 이미지를 검출할 수 있다.That is, the control unit 130 can use the camera 11 of the electronic device 10 (see FIG. 1) to detect the target user's face image from the image received from the camera 11.

보다 구체적으로 도 3의 (a) 및 도 4a에 도시된 것과 같이, 제어부(130)는, 전자기기(10) 주변에 위치한 타겟 유저(1000)의 얼굴을, 카메라(11)를 통해 센싱할 수 있다. More specifically, as shown in Figure 3 (a) and Figure 4a, the control unit 130 can sense the face of the target user 1000 located around the electronic device 10 through the camera 11. there is.

제어부(130)는, 카메라(11)를 통해 수신되는 영상에서, 타겟 유저(1000)의 얼굴 이미지(410)를 획득하고, 상기 얼굴 이미지에 대응되는 사용자 DB에 저장된 사용자 정보를 이용하여, 상기 타겟 유저(1000)에 대한 어시스턴트 서비스를 수행할 수 있다.The control unit 130 acquires the face image 410 of the target user 1000 from the image received through the camera 11, and uses the user information stored in the user DB corresponding to the face image to target the target user 1000. An assistant service for the user 1000 can be performed.

제어부(130)는, 카메라(11)를 통해 수신되는 영상에서 타겟 유저(1000)의 얼굴 이미지가 검출되면, 어시스턴트 서비스를 위한 일련의 프로세스를 진행할 수 있다.When the face image of the target user 1000 is detected in the image received through the camera 11, the control unit 130 may proceed with a series of processes for the assistant service.

카메라(11)를 통해 타겟 유저(1000)의 얼굴 이미지가 센싱 또는 검출되는 시점은 매우 다양할 수 있다.The timing at which the face image of the target user 1000 is sensed or detected through the camera 11 may vary greatly.

일 예로서, 제어부(130)는 전자기기(10)에 대해 사용자 입력이 인가된 경우, 타겟 유저(1000)의 얼굴이 촬영될 수 있도록 카메라(11)를 제어할 수 있다. 여기에서, 사용자 입력은, 전자기기(10)에 대한 물리적인 접촉에 따른 입력 또는 음성을 이용한 입력 등 다양한 방식의 입력일 수 있다.As an example, when a user input is applied to the electronic device 10, the control unit 130 may control the camera 11 so that the face of the target user 1000 is captured. Here, the user input may be input in various ways, such as input through physical contact with the electronic device 10 or input using voice.

다른 예로서, 제어부(130)는 도 3에 도시된 것과 같이, 전자기기(10) 주변에, 사람이 위치한 것이 감지되는 경우, 카메라(10)를 통해, 타겟 유저(1000)에 대한 영상이 수신되도록 카메라(10)를 제어할 수 있다. 이때, 제어부(130)는 전자기기(10)를 기준으로 기 설정된 범위(또는 거리)이내에, 타겟 유저(1000)가 위치한 경우, 타겟 유저(1000)의 얼굴 이미지가 검출되도록 카메라(10)를 제어할 수 있다. 제어부(130)는, 전자기기(10)에 구비된 적어도 하나의 센서(예를 들어, 근접 센서, 적외선 센서 또는 라이다 센서 등)를 이용하여, 전자기기(10) 주변에 또는 전자기기(10)를 기준으로 기 설정된 범위 내에 타겟 유저가 위치하는 것을 센싱(또는 감지)할 수 있다. As another example, as shown in FIG. 3, when a person is detected around the electronic device 10, the control unit 130 receives an image of the target user 1000 through the camera 10. The camera 10 can be controlled as much as possible. At this time, when the target user 1000 is located within a preset range (or distance) based on the electronic device 10, the control unit 130 controls the camera 10 to detect the face image of the target user 1000. can do. The control unit 130 uses at least one sensor (for example, a proximity sensor, an infrared sensor, or a lidar sensor) provided in the electronic device 10 to operate around the electronic device 10 or to the electronic device 10. ), it is possible to sense (or sense) that the target user is located within a preset range.

한편, 제어부(130)는 상기 전자기기(10)의 기 설정된 범위 이내에, 타겟 유저(1000)가 위치하지 않는 경우, 전자기기(10)의 디스플레이부(12)가 비활성화되도록, 디스플레이부(12)를 제어할 수 있다. 비활성화 상태의 디스플레이부(12)는 전원이 오프된 상태, 대기상태 및 절전 상태 중 적어도 하나의 상태일 수 있다. Meanwhile, the control unit 130 operates the display unit 12 so that the display unit 12 of the electronic device 10 is deactivated when the target user 1000 is not located within a preset range of the electronic device 10. can be controlled. The display unit 12 in an inactive state may be in at least one of a power-off state, a standby state, and a power saving state.

나아가, 제어부(130)는 상기 전자기기(10)의 기 설정된 범위 이내에, 타겟 유저(1000)가 위치한 경우, 전자기기(10)의 디스플레이부(12)가 활성화되도록, 디스플레이부(12)를 제어할 수 있다. 이때, 디스플레이부(12)에는, 타겟 기능을 특정하는 방법에 대한 가이드 정보(예를 들어, “원하시는 기능을 말씀해주세요”)가 출력될 수 있다.Furthermore, the control unit 130 controls the display unit 12 so that the display unit 12 of the electronic device 10 is activated when the target user 1000 is located within a preset range of the electronic device 10. can do. At this time, guide information on how to specify the target function (for example, “Please tell me the function you want”) may be displayed on the display unit 12.

또 다른 예로서, 제어부(130)는 기 설정된 간격 또는 실시간으로 카메라(11)를 통해 수신되는 영상에, 타겟 유저(1000)의 얼굴 이미지가 포함되어 있는지를 판단할 수 있다. 그리고, 판단 결과, 카메라(11)를 통해 수신되는 영상에 타겟 유저(1000)의 얼굴 이미지가 포함된 경우, 타겟 기능과 관련된 어시스턴트 서비스를 위한 일련의 프로세스를 진행할 수 있다.As another example, the control unit 130 may determine whether the image received through the camera 11 at preset intervals or in real time includes the face image of the target user 1000. And, as a result of the determination, if the image received through the camera 11 includes the face image of the target user 1000, a series of processes for an assistant service related to the target function can be performed.

또 다른 예로서, 제어부(130)는 전자기기(10)에 구비된 마이크(13)를 통하여, 소리(또는 음성)이 센싱되는 경우, 카메라(11)를 활성화시킬 수 있다. 즉, 제어부(130)는 마이크(13)를 통하여, 사람의 소리가 센싱되는 경우, 전자기기(10) 주변에, 사람이 위치했다고 판단하고, 카메라(11)를 활성화시킬 수 있다.As another example, the control unit 130 may activate the camera 11 when sound (or voice) is sensed through the microphone 13 provided in the electronic device 10. That is, when a person's sound is sensed through the microphone 13, the control unit 130 may determine that a person is located around the electronic device 10 and activate the camera 11.

또 다른 예로서, 제어부(130)는 도 4b에 도시된 것과 같이, 전자기기(10)에 구비된 기능 아이콘(450)이 선택되는 것에 근거하여, 카메라(11)를 활성화시킬 수 있다. 이러한 기능 아이콘(450)에는, 본 발명에 따른 어시스턴스 서비스를 활성화하기 위한 기능이 매칭되어 존재할 수 있다. 기능 아이콘(450)은 전자기기(10)에 구비된 디스플레이부(12) 상에 출력될 수 있다. 제어부(130)는 사용자 등에 의하여, 기능 아이콘(450)이 터치 등의 방식으로 선택되는 경우, 본 발명에 따른 어시스턴스 서비스를 활성화할 수 있다. 이 경우, 어시스턴스 서비스의 활성화에 근거하여 카메라(11)가 활성화될 수 있다. As another example, the control unit 130 may activate the camera 11 based on the function icon 450 provided in the electronic device 10 being selected, as shown in FIG. 4B. These function icons 450 may be matched with functions for activating the assistance service according to the present invention. The function icon 450 may be output on the display unit 12 provided in the electronic device 10. The control unit 130 can activate the assistance service according to the present invention when the function icon 450 is selected by a user or the like by touching. In this case, the camera 11 may be activated based on activation of the assistance service.

한편, 제어부(130)는 적어도 하나의 얼굴 인식 알고리즘을 이용하여, 카메라(11)에서 수신되는 영상에서 타겟 유저(1000)의 얼굴 이미지를 검출할 수 있다. 본 발명에서 활용되는 얼굴 인식 알고리즘은 그 종류에 제한이 없으며, 인공지능 또는 딥러닝을 기반으로 동작하는 알고리즘 또한 활용될 수 있다.Meanwhile, the control unit 130 may detect the face image of the target user 1000 from the image received from the camera 11 using at least one face recognition algorithm. The type of face recognition algorithm used in the present invention is not limited, and algorithms that operate based on artificial intelligence or deep learning can also be used.

한편, 제어부(130)는 카메라(11)를 통해, 타겟 유저(100)의 얼굴 이미지가 검출된 경우라도, 검출된 얼굴 이미지가, 어시스턴트 서비스를 수행하기 위한 기 설정된 조건(또는 기 설정된 인증 조건)을 만족하지 못하는 경우, 상기 기 설정된 조건을 만족하는 얼굴 이미지를 획득하기 위한 가이드 정보를 제공할 수 있다. Meanwhile, even when the face image of the target user 100 is detected through the camera 11, the control unit 130 determines that the detected face image meets preset conditions (or preset authentication conditions) for performing the assistant service. If is not satisfied, guide information for acquiring a face image that satisfies the preset conditions may be provided.

보다 구체적으로, 제어부(130)는, 카메라(11)에서 센싱되는 타겟 유저(1000)의 얼굴 이미지가, 상기 기 설정된 조건을 만족하는지 판단할 수 있다. 여기에서, 상기 기 설정된 조건은, 영상에 포함된 얼굴 이미지의 크기, 얼굴 이미지에 대응되는 얼굴의 각도, 영상에서의 얼굴 이미지의 위치 및 영상에서 얼굴의 생김새 특징 요소(예를 들어, 눈, 코, 입)의 포함 여부 중 적어도 하나와 관련될 수 있다.More specifically, the control unit 130 may determine whether the facial image of the target user 1000 sensed by the camera 11 satisfies the preset condition. Here, the preset conditions include the size of the face image included in the image, the angle of the face corresponding to the face image, the position of the face image in the image, and the appearance feature elements of the face in the image (e.g., eyes, nose, etc.) , mouth) may be related to at least one of the following:

제어부(130)는, 기 설정된 조건을 만족하는 얼굴 이미지가 획득될 수 있도록 타겟 유저(1000)의 자세 및 위치 등에 대한 정보 중 적어도 하나를 가이드 정보로서 출력할 수 있다. 가이드 정보는, 카메라(11)와 타겟 유저(1000) 사이의 상대 위치 및 상대 거리 중 적어도 하나와 관련될 수 있다. The control unit 130 may output at least one of information about the posture and location of the target user 1000 as guide information so that a face image that satisfies preset conditions can be obtained. Guide information may be related to at least one of the relative position and relative distance between the camera 11 and the target user 1000.

예를 들어, 제어부(130)는 i)전자기기를 기준으로 타겟 유저(1000)의 위치 정보(예를 들어, 더 가까이 와주세요, 더 뒤로 가주세요, 화면과의 거리를 맞춰주세요), ii)타겟 유저(1000)의 자세 정보(예를 들어, 화면을 봐주세요), iii) 타겟 유저(1000)의 얼굴이 물체(예를 들어, 마스크)에 의해 가려진 경우, 이를 제거하는 것을 권유하는 정보(예를 들어, 마스크를 벗어주세요)와 같은 가이드 정보를 제공할 수 있다.For example, the control unit 130 provides i) location information of the target user 1000 based on the electronic device (e.g., please come closer, please go further back, please adjust the distance to the screen), ii) Posture information of the target user 1000 (e.g., please look at the screen); iii) If the face of the target user 1000 is obscured by an object (e.g., a mask), information recommending removing it (e.g., For example, guide information such as (Please take off your mask) can be provided.

나아가, 본 발명에 따른 어시스턴트 서비스 제공 방법에서는, 마이크를 이용하여, 타겟 유저의 음성을 센싱하는 과정이 진행될 수 있다(S220).Furthermore, in the method of providing an assistant service according to the present invention, a process of sensing the target user's voice may be performed using a microphone (S220).

본 발명에서, 카메라(11)를 통해 타겟 유저(1000)의 얼굴 이미지를 센싱하는 과정(S210) 및 마이크(13)를 이용하여, 타겟 유저의 음성을 센싱하는 과정(S220)은 전자기기(10) 상에서 동시에 이루어지는 것 또한 가능하다. 즉, 제어부(130)는 전자기기(10) 상에서, 카메라(11)를 통해 영상정보가 수신되는 시점, 마이크(13)를 통해 음성 정보가 수신되는 시점은 동일할 수 있다. 이 경우는, 타겟 유저(1000)가 전자기기(10) 주변에 위치하면서, 발화를 하는 경우에 해당한다.In the present invention, the process of sensing the face image of the target user 1000 through the camera 11 (S210) and the process of sensing the target user's voice using the microphone 13 (S220) are performed using the electronic device 10 ) It is also possible to do this simultaneously. In other words, the time when the control unit 130 receives image information through the camera 11 and the time when audio information is received through the microphone 13 on the electronic device 10 may be the same. In this case, the target user 1000 is located near the electronic device 10 and makes a speech.

한편, 카메라(11)를 통해 타겟 유저(1000)의 얼굴 이미지를 센싱하는 과정(S210) 및 마이크(13)를 이용하여, 타겟 유저의 음성을 센싱하는 과정(S220)의 선후는 상황에 따라 자유롭게 변형될 수 있다. 즉, 카메라(11)를 통해 타겟 유저(1000)의 얼굴 이미지를 센싱하는 과정(S210)이 진행된 후, 마이크(13)를 이용하여, 타겟 유저의 음성을 센싱하는 과정(S220)되거나, 또는 이와 반대로, 마이크(13)를 이용하여, 타겟 유저의 음성을 센싱하는 과정(S220)이 진행된 후, 카메라(11)를 통해 타겟 유저(1000)의 얼굴 이미지를 센싱하는 과정(S210)이 진행될 수 있다.Meanwhile, the sequence of the process of sensing the face image of the target user 1000 through the camera 11 (S210) and the process of sensing the target user's voice using the microphone 13 (S220) can be freely adjusted depending on the situation. It can be transformed. That is, after the process of sensing the face image of the target user 1000 through the camera 11 (S210), the process of sensing the voice of the target user using the microphone 13 (S220), or similar Conversely, after the process of sensing the target user's voice using the microphone 13 (S220), the process of sensing the face image of the target user 1000 using the camera 11 (S210) may proceed. .

한편, 마이크(13)를 이용하여, 타겟 유저의 음성을 센싱하는 과정은, 마이크를 통해 소리 정보를 수신하는 과정으로 이해되어 질 수 있다.Meanwhile, the process of sensing the target user's voice using the microphone 13 can be understood as a process of receiving sound information through the microphone.

제어부(130)는 자연어 처리 알고리즘에 근거하여, 마이크(13)를 통해 수신된 음성 정보를 분석하고, 분석결과에 근거하여 타겟 기능을 결정할 수 있다.The control unit 130 may analyze voice information received through the microphone 13 based on a natural language processing algorithm and determine a target function based on the analysis result.

예를 들어, 도 3에 도시된 것과 같이, 타겟 유저(1000)는, 음성을 통하여, 타겟 기능에 대한 정보(예를 들어, “회의실 예약 부탁해”)를 발화할 수 있다. 제어부(130)는 이러한 음성이 수신되는 것에 근거하여, 음성에 대응되는 기능을 타겟 기능으로서 특정할 수 있다. 제어부(130)는 다양한 키워드에 각각 대응되는 기능 리스트와, 음성에 포함된 정보를 비교함으로써, 타겟 기능을 특정할 수 있다. 이러한 기능 리스트는 저장부(120)에 저장되어 존재할 수 있다.For example, as shown in FIG. 3, the target user 1000 may utter information about the target function (eg, “Please reserve a conference room”) through voice. Based on the reception of this voice, the control unit 130 can specify the function corresponding to the voice as the target function. The control unit 130 can specify the target function by comparing the function list corresponding to each of the various keywords with the information included in the voice. This function list may exist and be stored in the storage unit 120.

한편, 타겟 기능이 특정되는 경우, 디스플레이부(12) 상에는, 상기 음성에 대응되는 기능으로서 특정 기능이 결정되었음을 알리는 안내정보가 출력될 수 있다. 또한, 제어부(130)는 음향 출력부(또는 스피커)를 통하여, 안내 정보를 출력할 수 있다.Meanwhile, when the target function is specified, guidance information indicating that a specific function has been determined as the function corresponding to the voice may be output on the display unit 12. Additionally, the control unit 130 may output guidance information through an audio output unit (or speaker).

다음으로, 본 발명에서는 사용자 DB로부터, 검출된 얼굴 이미지에 대응되는 사용자 정보를 추출하는 과정이 진행될 수 있다(S230).Next, in the present invention, a process of extracting user information corresponding to the detected face image from the user DB may be performed (S230).

보다 구체적으로, 제어부(130)는, 카메라(11)를 통해 수신된 영상에서, 타겟 유저(1000)의 얼굴 이미지를 추출하고, 사용자 DB로부터, 상기 추출된 얼굴 이미지와 대응되는(또는 매칭된) 사용자 정보를 추출할 수 있다.More specifically, the control unit 130 extracts the face image of the target user 1000 from the image received through the camera 11, and selects a face image corresponding to (or matched to) the extracted face image from the user DB. User information can be extracted.

앞서 살펴본 것과 같이, 사용자 DB는, “사용자와 관련된 정보”, “사용자의 신상정보” 또는 “사용자의 식별정보”라고도 명명될 수 있다.As seen above, the user DB may also be called “user-related information,” “user’s personal information,” or “user’s identification information.”

사용자 DB는, 저장부(120), 외부 데이터베이스(140) 및 클라우드 서버 중 적어도 하나에 포함될 수 있다.The user DB may be included in at least one of the storage unit 120, the external database 140, and the cloud server.

제어부(130)는, 사용자 DB로부터 타겟 유저(1000)의 얼굴 이미지와 대응되는 인물을 검색하고, 검색된 인물에 매칭된 사용자 정보를 추출할 수 있다.The control unit 130 may search for a person corresponding to the face image of the target user 1000 from the user DB and extract user information matched to the searched person.

사용자 DB에는 개별 인물(또는 사람) 단위로, 각각의 인물에 대한 사용자 정보가 저장될 수 있다. 즉, 사용자 DB에는, 서로 다른 인물 마다 각각에 대응되는 사용자 정보가 매칭되어 저장될 수 있다.In the user DB, user information for each person may be stored on an individual person (or person) basis. That is, in the user DB, user information corresponding to each different person can be matched and stored.

여기에서, 사용자 정보는, 각각의 인물에 해당하는 사람의 이름, 생년월일, 주소, 전화번호, 메일 주소, 계정 정보, 사번, ID, 얼굴 이미지, 생체 정보(예를 들어, 지문 정보, 홍채 정보 등), 특정 기능(또는 특정 이벤트)에 대한 권한 정보, 참조 얼굴 이미지, 전자기기의 식별 정보, 일정(스케줄, schedule), 근무 부서, 직책, 직함, 직위, 결제 정보(예를 들어, 계좌번호, 신용카드 정보 등)등과 관련된 정보 중 적어도 하나를 포함할 수 있다.Here, user information includes the name, date of birth, address, phone number, email address, account information, employee number, ID, face image, and biometric information (e.g., fingerprint information, iris information, etc.) of each person. ), authority information for specific functions (or specific events), reference facial image, identification information of electronic devices, schedule (schedule, schedule), work department, position, job title, position, payment information (e.g., account number, It may include at least one piece of information related to credit card information, etc.).

여기에서, 참조 얼굴 이미지는, 특정 인물에 대한 얼굴 이미지로서, 하나 또는 복수 일 수 있다. 본 발명에서, “참조 얼굴 이미지”는 “참조 데이터”로도 명명될 수 있다.Here, the reference face image is a face image for a specific person and may be one or more. In the present invention, “reference face image” may also be referred to as “reference data.”

제어부(130)는, 카메라(11)를 통해 획득된 타겟 유저의 얼굴 이미지와, 사용자 DB에 저장된 참조 얼굴 이미지를 비교하여, 상기 타겟 유저의 얼굴 이미지와 대응되는 참조 얼굴 이미지에 매칭된 인물을 검색할 수 있다. 그리고, 제어부(130)는 검색된 인물을 상기 타겟 유저로 특정하고, 상기 검색된 인물에 매칭된 사용자 정보를 사용자 DB로부터 추출할 수 있다.The control unit 130 compares the face image of the target user acquired through the camera 11 with the reference face image stored in the user DB, and searches for a person who matches the reference face image corresponding to the face image of the target user. can do. Additionally, the control unit 130 may specify the searched person as the target user and extract user information matched to the searched person from the user DB.

제어부(130)는 검출된 타겟 유저(1000)의 얼굴 이미지와 기 설정된 조건을 만족하는 유사도를 갖는 특정 참조 얼굴 이미지를 사용자 DB로부터 추출할 수 있다. 그리고, 추출된 상기 특정 참조 얼굴 이미지에 매칭된 인물을 상기 타겟 유저로서 특정할 수 있다.The control unit 130 may extract from the user DB a specific reference face image having a similarity level that satisfies a preset condition with the detected face image of the target user 1000. In addition, a person matching the extracted specific reference face image can be specified as the target user.

제어부(130)는 타겟 유저(1000)에 대한 검색이 진행되는 동안, 전자기기(10)에 현재 진행 상황에 대한 안내 정보(예를 들어, “당신을 찾고 있습니다”)가 출력되도록 디스플레이부(12) 및 음향 출력부(예를 들어, 스피커 등)를 제어할 수 있다. While the search for the target user 1000 is in progress, the control unit 130 controls the display unit 12 so that guidance information about the current progress (for example, “I am looking for you”) is output to the electronic device 10. ) and sound output units (e.g. speakers, etc.) can be controlled.

도 4a에 도시된 것과 같이, 디스플레이부(12)에는, 카메라(11)를 통해 촬영된 영상이 출력될 수 있다. 이때, 출력되는 영상에는, 타겟 유저(1000)의 얼굴 이미지(410)가 포함될 수 있다.As shown in FIG. 4A, an image captured through the camera 11 may be output to the display unit 12. At this time, the output image may include the face image 410 of the target user 1000.

위에서 살펴본 것과 같이, 타겟 유저(1000)에 해당하는 인물이 특정되고, 특정된 인물(예를 들어, 이*리)에 대한 사용자 정보가 출력된 경우, 제어부(130)는 상기 사용자 정보 중 적어도 일부를 디스플레이부(12)에 제공할 수 있다.As seen above, when a person corresponding to the target user 1000 is specified and user information about the specified person (for example, Lee * Lee) is output, the control unit 130 controls at least some of the user information. can be provided to the display unit 12.

따라서, 도 4a에 도시된 것과 같이, 타겟 유저(1000)에 해당하는 인물에 대응되는 사용자 정보의 적어도 일부(예를 들어, 이름 정보(이*리)는, 디스플레이부(12)에 출력될 수 있다. 따라서, 타겟 유저(1000)는 디스플레이부(12)에 출력되는 정보를 참조하여, 전자기기(10)에서 자신을 정확하게 검색하였는지를 확인할 수 있다.Therefore, as shown in FIG. 4A, at least part of the user information (for example, name information (i*ri)) corresponding to the person corresponding to the target user 1000 may be output on the display unit 12. Therefore, the target user 1000 can refer to the information output on the display unit 12 to confirm whether the user has accurately searched for himself or herself on the electronic device 10.

위에서 살펴본 것과 같이, 타겟 유저(1000)에 대한 사용자 정보가 추출된 경우, 본 발명에서는, 추출된 사용자 정보를 이용하여, 타겟 기능에 대한 타겟 유저(1000)의 권한을 확인하는 과정이 진행될 수 있다(S240).As seen above, when user information about the target user 1000 is extracted, in the present invention, a process of confirming the authority of the target user 1000 for the target function can be performed using the extracted user information. (S240).

앞서 살펴본 것과 같이, 타겟 기능은, 마이크를 통하여 입력되는 음성에 근거하여 특정될 수 있다.As discussed above, the target function can be specified based on the voice input through the microphone.

또한, 타겟 기능은, 마이크를 통하여 입력되는 음성 외에, 다양한 방법에 의해 특정될 수 있다. 타겟 기능이 음성에 근거하여 특정되지 않는 경우, 본 발명에 따른 어시스턴트 서비스 제공 방법에서는 S220단계가 생략되는 것 또한 가능하다.Additionally, the target function can be specified by various methods other than voice input through a microphone. If the target function is not specified based on voice, it is also possible to omit step S220 in the assistant service providing method according to the present invention.

다른 방법에 의하여 타겟 기능이 특정되는 예에 대하여 살펴보면, 일 예로서, 제어부(130)는 전자기기(10)가 설치된 장소에 따라, 타겟 기능을 특정할 수 있다. 예를 들어, 도 3에 도시된 것과 같이, 전자기기(10)가 회의실 주변에 배치된 경우, 제어부(130)는 타겟 기능으로서, 장소 예약(예를 들어, 회의실 예약) 기능을 특정할 수 있다. 이 경우, 제어부(130)는 타겟 유저(1000)로부터 별도의 사용자 입력이 수신되지 않더라도, 타겟 유저(1000)가 카메라(11)에 센싱되는 것에 근거하여, 타겟 유저(1000)의 권한을 확인하는 과정을 수행할 수 있다.Looking at an example in which the target function is specified by another method, as an example, the control unit 130 may specify the target function depending on the location where the electronic device 10 is installed. For example, as shown in FIG. 3, when the electronic device 10 is placed around a conference room, the control unit 130 may specify a location reservation (e.g., conference room reservation) function as the target function. . In this case, the control unit 130 checks the authority of the target user 1000 based on the target user 1000 being sensed by the camera 11, even if no separate user input is received from the target user 1000. The process can be performed.

그리고, 도 10에 도시된 것과 같이, 전자기기(10)가 주차장 주변에 배치된 경우, 제어부(130)는 타겟 기능으로서, 타겟 유저의 차량이 주차된 위치를 검색하는 기능을 특정할 수 있다. 한편, 타겟 기능으로서, 어떤 기능을 특정할지 여부는, 사전에 전자기기(10)가 배치된 위치에 근거하여, 결정되어 존재할 수 있다.And, as shown in FIG. 10, when the electronic device 10 is placed around a parking lot, the control unit 130 may specify, as a target function, a function for searching the location where the target user's vehicle is parked. Meanwhile, which function to specify as the target function may be determined in advance based on the location where the electronic device 10 is placed.

또 다른 예로서, 제어부(130)는 전자기기(10)에 대한 사용자 입력에 근거하여, 타겟 기능을 특정할 수 있다. 이때의 사용자 입력은 터치 스크린이 구비된 디스플레이부(12) 또는 다른 사용자 입력 수단을 통하여 입력되는 사용자 입력일 수 있다. 제어부(130)는 이러한 사용자 입력에 근거하여, 타겟 기능을 특정할 수 있다.As another example, the control unit 130 may specify a target function based on a user input to the electronic device 10. At this time, the user input may be a user input input through the display unit 12 equipped with a touch screen or another user input means. The control unit 130 may specify a target function based on such user input.

또 다른 예로서, 제어부(130)는 타겟 유저의 사용자 정보에 포함된 타겟 유저의 스케줄에 근거하여, 적절한 기능을 타겟 기능으로서 특정할 수 있다.As another example, the control unit 130 may specify an appropriate function as the target function based on the target user's schedule included in the target user's user information.

한편, 제어부(130)는 타겟 기능의 특정을 위하여, 타겟 유저(1000)에게 질문을 출력하고, 출력된 질문에 대한 응답에 근거하여, 타겟 기능을 특정할 수 있다.Meanwhile, in order to specify the target function, the control unit 130 may output a question to the target user 1000 and specify the target function based on the response to the output question.

타겟 기능의 특정은, 타겟 유저의 권한을 확인할 정도로 구체화된 정보가 필요할 수 있다. 예를 들어, 타겟 기능이 장소에 대한 예약인 경우, 제어부(130)는 구체적인 예약 장소(예를 들어, 회의실 호수 등) 및 예약 시간 정보가 필요할 수 있다.Specification of the target function may require information detailed enough to confirm the authority of the target user. For example, if the target function is a reservation for a location, the control unit 130 may require specific reservation location (eg, conference room number, etc.) and reservation time information.

타겟 기능의 특정을 위하여, 제어부(130)는 타겟 유저(1000)에게 다양한 방식으로 질문을 수행할 수 있다. 예를 들어, 제어부(130)는 스피커를 통하여 타겟 유저(1000)에게 질문을 출력하고, 마이크(13)를 통해 음성을 수신함으로써, 질문에 대한 답변을 수신할 수 있다. 제어부(130)는 타겟 기능을 구체화할 수 있을 정도(또는 확정할 수 있을 정도)의 정보가 수집될 때까지 복수번에 걸쳐 질문을 출력하고, 답변을 수신할 수 있다.In order to specify the target function, the control unit 130 may ask the target user 1000 questions in various ways. For example, the control unit 130 may output a question to the target user 1000 through a speaker and receive an answer to the question by receiving a voice through the microphone 13. The control unit 130 may output questions and receive answers multiple times until information sufficient to specify (or determine) the target function is collected.

또한, 제어부(130)는 디스플레이부(12)에 질문을 출력시키고, 디스플레이부(12) 또는 마이크(13)를 통해, 답변을 입력받음으로써, 타겟 기능의 구체화를 위한 정보를 수집할 수 있다.Additionally, the control unit 130 can collect information for specifying the target function by outputting a question to the display unit 12 and receiving an answer through the display unit 12 or the microphone 13.

한편, 제어부(130)는, 타겟 유저(1000)에게 질문을 하지 않더라도, 타겟 기능에 대한 구체화가 완료된 경우, 질문을 출력하지 않을 수 있다. 예를 들어, 타겟 유저(1000)는, “월요일 오후 3시에, 3번 회의실 예약해줘”와 같이, 특정 기능을 특정하기에 충분한 정보를 초기에 전자기기(10)에 대해 제공할 수 있다.Meanwhile, the control unit 130 may not output a question when the specification of the target function is completed, even if the question is not asked to the target user 1000. For example, the target user 1000 may initially provide sufficient information to the electronic device 10 to specify a specific function, such as “Please reserve conference room number 3 at 3 p.m. on Monday.”

이와 같이, 사용자의 음성 또는 다른 방법에 의하여 타겟 기능이 특정되면, 제어부(130)는 타겟 기능에 대한 타겟 유저의 권한을 확인할 수 있다.In this way, when the target function is specified by the user's voice or another method, the control unit 130 can check the target user's authority for the target function.

여기에서, “타겟 유저의 권한”이라 함은, 다양한 의미로 해석될 수 있다. 예를 들어, 타겟 유저의 권한은 i)타겟 유저(1000)가 타겟 기능을 제공받을 권한을 갖고 있는지, ii)타겟 유저(1000)가 타겟 기능에 접근할 권한을 갖고 있는지, iii)타겟 유저(1000)가 특정 장소에 출입할 권한을 갖고 있는지, iv)타겟 유저(1000)가 특정 전자장치를 제어할 권한을 갖고 있는지 등과 같이, 타겟 유저(1000)가 임의의 기능, 장치 또는 장소와 관련하여 접근할 수 있는 권한을 갖고 있는지에 대한 정보일 수 있다.Here, “target user authority” can be interpreted in various ways. For example, the target user's authority includes: i) whether the target user (1000) has the authority to receive the target function, ii) whether the target user (1000) has the authority to access the target function, iii) whether the target user ( iv) whether the target user 1000 has permission to enter a specific location, iv) whether the target user 1000 has permission to control a specific electronic device, etc., in relation to any function, device or location. This may be information about whether you have permission to access it.

이러한, 타겟 유저(1000)의 권한에 대한 정보(또는 권한 정보)는 타겟 유저(1000)의 사용자 정보에 포함되어 존재할 수 있다.Information about the rights (or rights information) of the target user 1000 may be included in the user information of the target user 1000.

예를 들어, 타겟 기능이 도 3에 도시된 것과 같이, 장소를 예약하는 기능인 경우, 제어부(130)는 타겟 유저(100)의 사용자 정보에 근거하여, 타겟 유저(1000)가 특정 장소(예를 들어, 예약 대상 장소)에 대해 출입할 권한 또는 예약할 권한이 존재하는지를 판단할 수 있다.For example, when the target function is a function to reserve a place as shown in FIG. 3, the control unit 130 allows the target user 1000 to reserve a specific place (e.g. For example, it can be determined whether the authority to enter or make a reservation exists for the reservation target location.

이 경우, 타겟 기능은, 특정 장소에 대해 특정 시간에 대한 예약 기능으로 이해될 수 있다.In this case, the target function can be understood as a reservation function for a specific time at a specific location.

나아가, 타겟 유저(1000)의 권한에 대한 정보(또는 권한 정보)를 확인하기 위하여, 제어부(130)는 타겟 유저(1000)로부터 권한 확인을 위한 정보를 확인할 수 있다. 여기에서, 권한 확인을 위한 정보는, 타겟 유저(1000)의 생체 정보, 비밀번호 정보 등, 타겟 유저(1000)를 인증하기 위한 정보일 수 있다.Furthermore, in order to check information about the authority (or authority information) of the target user 1000, the control unit 130 may check information for confirmation of authority from the target user 1000. Here, the information for verifying authority may be information for authenticating the target user 1000, such as biometric information or password information of the target user 1000.

한편, 앞서 살펴본 것과 같이, 특정 장소 또는 예약 시간 등 예약과 관련된 정보의 특정은, 타겟 유저(1000)로부터 수신되는 음성 및 타겟 유저의 스케줄 정보 중 적어도 하나에 근거하여 이루어질 수 있다. Meanwhile, as discussed above, information related to reservations, such as a specific location or reservation time, can be specified based on at least one of the voice received from the target user 1000 and the target user's schedule information.

또한, 특정 장소 또는 예약 시간 등 예약과 관련된 정보의 특정은 전자기기(10)가 배치된 장소 중 적어도 하나에 근거하여 이루어질 수 있다.Additionally, information related to reservations, such as a specific location or reservation time, may be specified based on at least one of the locations where the electronic device 10 is placed.

예를 들어, 제어부(130)는 타겟 유저(1000)의 얼굴 이미지 및 음성을 센싱한 전자기기(10)가 배치된 위치에 근거하여, 특정 장소를 결정할 수 있다. 예를 들어, 제어부(130)는 전자기기(10)가 배치된 위치와 가장 가까운 장소(예를 들어, 회의실)을 특정 장소로서 특정할 수 있다, 또한, 전자기기(10) 마다, 장소에 대한 정보(예를 들어, 회의실 호수)가 매칭될 수 있으며, 제어부(130)는 전자기기(10)에 매칭된 장소에 대한 정보에 근거하여, 특정 장소를 결정할 수 있다.For example, the control unit 130 may determine a specific location based on the location where the electronic device 10 that senses the facial image and voice of the target user 1000 is placed. For example, the control unit 130 may specify the location (e.g., a conference room) closest to the location where the electronic device 10 is placed as a specific location. Additionally, for each electronic device 10, information about the location may be specified. Information (for example, conference room number) may be matched, and the control unit 130 may determine a specific location based on information about the location matched to the electronic device 10.

한편, 위에서 살펴본 것과 같이, 타겟 기능에 대한 타겟 유저의 권한 확인이 진행되면, 본 발명에서는 확인 결과에 근거하여, 타겟 기능과 관련된 제어를 수행하는 과정이 진행될 수 있다(S250).Meanwhile, as seen above, when the target user's authority for the target function is confirmed, in the present invention, a process of performing control related to the target function can be performed based on the confirmation result (S250).

보다 구체적으로, 제어부(130)는, 타겟 유저(1000)가 특정 기능에 대한 권한을 가졌는지 여부에 따라, 서로 다른 제어를 수행할 수 있다. More specifically, the control unit 130 may perform different controls depending on whether the target user 1000 has authority for a specific function.

제어부(130)는, 타겟 유저(1000)가 특정 기능에 대한 권한을 가진 경우, 특정 기능을 수행 또는 실행할 수 있다.The control unit 130 may perform or execute a specific function when the target user 1000 has authority for the specific function.

나아가, 제어부(130)는 타겟 유저(1000)가 특정 기능에 대한 권한을 가졌지만, 특정 기능을 수행 또는 실행할 수 없는 경우, 특정 기능과 유사한 기능을 추천하거나, 수행할 수 있다,Furthermore, if the target user 1000 has authority for a specific function but cannot perform or execute the specific function, the control unit 130 may recommend or perform a function similar to the specific function.

즉, 제어부(130)는 타겟 유저(1000)가 특정 기능에 대한 권한이 없는 경우, 특정 기능의 수행을 제한할 수 있다. 이 경우, 제어부(130)는 특정 기능과 유사한 기능을 추천하거나, 수행할 수 있다.That is, the control unit 130 may restrict performance of a specific function when the target user 1000 does not have authority for the specific function. In this case, the control unit 130 may recommend or perform a function similar to a specific function.

예를 들어, 특정 기능이, 특정 장소를 예약하는 기능인 경우, 제어부(130)는 타겟 유저(1000)가 특정 장소에 대한 예약 권한이 존재하는지 여부에 근거하여, 상기 특정 장소에 대한 예약과 관련된 서로 다른 제어를 수행할 수 있다.For example, when the specific function is a function to reserve a specific place, the control unit 130 determines whether the target user 1000 has reservation authority for the specific place, based on whether the reservation authority for the specific place exists. Other controls can be performed.

예를 들어, 제어부(130)는, 특정 장소에 대한 예약 권한이 타겟 유저(1000)에게 존재하는 경우, 도 3의 (b)에 도시된 것과 같이, 특정 장소에 대한 예약을 수행할 수 있다. 이 경우, 제어부(130)는 특정 기능이 정상적으로 수행될 수 있음을 알리는 안내 정보(예를 들어, “4번 회의실을 지금 바로 예약해 드릴게요!”)를 시각적 및 청각적 정보 중 적어도 하나의 방식으로, 전자기기(10) 상에 출력시킬 수 있다.For example, if the target user 1000 has reservation authority for a specific place, the control unit 130 may make a reservation for the specific place, as shown in (b) of FIG. 3. In this case, the control unit 130 provides guidance information indicating that a specific function can be performed normally (for example, “I will reserve conference room number 4 right now!”) in at least one of visual and auditory information. , can be output on the electronic device 10.

도 4a에 도시된 것과 같이, 디스플레이부(12) 상에는, 특정 장소에 대한 예약에 대한 정보(예를 들어, 상황 정보 또는 안내 정보 등, 420)가 출력될 수 있다. 제어부(130)는 타겟 유저(1000)가 언제라도, 예약 시간 또는 예약 장소를 변경하거나, 예약을 확정할 수 있도록 하는 GUI(Graphic User Interface, 430)를 디스플레이부(12) 상에 제공할 수 있다. 이러한 GUI(430)는 아이콘 또는 그래픽 객체로도 명명될 수 있다.As shown in FIG. 4A, information about reservation for a specific place (for example, situation information or guidance information, etc., 420) may be displayed on the display unit 12. The control unit 130 may provide a graphic user interface (GUI) 430 on the display unit 12 that allows the target user 1000 to change the reservation time or reservation location or confirm the reservation at any time. . This GUI 430 may also be named an icon or graphic object.

다른 예로서, 제어부(130)는, 특정 장소에 대한 예약 권한이 타겟 유저(1000)에게 존재하지만, 특정 장소에 대한 예약을 수행할 수 없는 경우(예를 들어, 특정 장소에 대한 예약이 이미 완료된 경우 등), 도 3의 (c)에 도시된 것과 같이, 특정 장소와 다른 예약이 가능한 장소에 대한 예약을 수행하거나, 추천할 수 있다. 제어부(130)는 타겟 유저가 포함된 공간의 장소(예를 들어, 회의실 등)에 대한 예약 가능 여부를 판단하고, 판단 결과에 근거하여, 다른 예약이 가능한 장소를 추천할 수 있다.As another example, if the target user 1000 has reservation authority for a specific place, but cannot make a reservation for the specific place (for example, if the reservation for the specific place has already been completed), the control unit 130 case, etc.), as shown in (c) of FIG. 3, reservations can be made or recommended for places that can make reservations different from a specific place. The control unit 130 may determine whether a reservation is possible for a location (e.g., a conference room, etc.) in a space containing the target user, and may recommend other reservationable locations based on the determination result.

이때, 제어부(130)는, i)특정 장소와 가장 가까운 장소이거나, ii)특정 장소를 제외한 타겟 유저(1000)의 현재 위치와 가장 가까운 장소, iii)특정 장소를 제외한 타겟 유저(1000)의 근무 위치와 가장 가까운 장소, iv)특정 장소를 제외한, 다른 사용자(예를 들여, 회의 참석자 등) 및 타겟 유저(1000)의 거리를 모두 고려한 장소와 같이, 다양한 기준에 근거하여, 다른 예약 가능한 장소를 검색하고, 검색된 정보를 추천 정보로서 생성할 수 있다.At this time, the control unit 130 is i) the closest place to a specific place, ii) the place closest to the current location of the target user 1000 excluding the specific place, iii) the work location of the target user 1000 excluding the specific place. Other reservable places based on various criteria, such as the place closest to the location, iv) a place that takes into account the distance of both other users (e.g., meeting attendees, etc.) and target users (1000), excluding a specific place. You can search and create the searched information as recommended information.

또 다른 예로서, 제어부(130)는 특정 장소에 대한 예약 권한이 상기 타겟 유저(1000)에게 존재하지 않는 경우, 도 3의 (d)에 도시된 것과 같이, 특정 장소와 다른 장소에 대한 예약을 가이드 할 수 있다. 다른 장소에 대한 가이드의 방식은, 전자기기(10)를 통하여 이루어질 수 있으며, 제어부(130)는 청각적 및 시각적 방식 중 적어도 하나를 통해, 타겟 유저(1000)를 가이드할 수 있다.As another example, when the target user 1000 does not have reservation authority for a specific location, the control unit 130 makes a reservation for a location different from the specific location, as shown in (d) of FIG. 3. I can guide you. Guide to other places can be provided through the electronic device 10, and the control unit 130 can guide the target user 1000 through at least one of an auditory and visual method.

이 경우, 제어부(130)는, 타겟 유저에게, 특정 장소에 대한 예약 권한이 없음을 알리는 안내 정보(예를 들어, “4번 회의실은 예약 권한이 없으세요”)를 가이드 정보(예를 들어, “7번 회의실을 예약해 드릴까요?)와 함께, 출력할 수 있다. 이러한 정보는, 도 5a에 도시된 것과 같이, 디스플레이부(12) 상에 시각적인 정보(510)로서, 출력될 수 있다. 나아가, 디스플레이부(12)에는, 특정 기능의 수행의 종료 또는 다른 추천 장소를 제공받기 위한 GUI(520, 530)가 포함될 수 있다. 이러한 GUI(520, 530)는 아이콘 또는 그래픽 객체로도 명명될 수 있다. 제어부(130)는 GUI(520, 530) 중 어느 하나가 선택되면, 선택된 GUI에 매칭된 기능을 실행할 수 있다. 예를 들어, 사용자(또는 타겟 유저(1000))에 의해 특정 기능의 수행의 종료에 대응되는 GUI(520)가 선택되는 경우, 제어부(130)는 타겟 유저(1000)를 위한 장소 예약 프로세스를 종료할 수 있다. 이와 달리, 사용자(또는 타겟 유저(1000))에 다른 추천 장소를 제공하는 기능 대응되는 GUI(530)가 선택되는 경우, 제어부(130)는 추천 장소 정보를 출력할 수 있다. 나아가, 추천 장소 정보의 출력은, 사용자에 의해 상기 GUI(530)가 선택되지 않은 경우에도, 출력될 수 있음은 물론이다.In this case, the control unit 130 provides guide information (e.g., “You do not have reservation authority for conference room 4”) informing the target user that he or she does not have reservation authority for a specific location. You can print it out along with “Can I reserve conference room number 7?” This information may be output as visual information 510 on the display unit 12, as shown in FIG. 5A. Furthermore, the display unit 12 may include GUIs 520 and 530 for terminating the performance of a specific function or providing other recommended locations. These GUIs 520 and 530 may also be named icons or graphic objects. When one of the GUIs 520 and 530 is selected, the control unit 130 may execute a function matched to the selected GUI. For example, when the GUI 520 corresponding to the end of performance of a specific function is selected by the user (or the target user 1000), the control unit 130 ends the place reservation process for the target user 1000. can do. In contrast, when the GUI 530 corresponding to the function of providing another recommended place to the user (or the target user 1000) is selected, the control unit 130 may output recommended place information. Furthermore, it goes without saying that recommended place information can be output even when the GUI 530 is not selected by the user.

앞서 살펴본 것과 같이, 제어부(130)는 타겟 유저(1000)가 예약 권한을 가지면서, 예약이 가능한 장소를 검색하고, 검색된 정보를 추천 정보로서 생성할 수 있다. 제어부(130)는 다양한 기준에 근거하여, 추천 장소를 검색할 수 있으며, 하나 또는 복수의 추천 장소에 대한 정보를 타겟 유저(1000)에게 제공할 수 있다.As discussed above, the control unit 130 can search for places where the target user 1000 can make a reservation while having reservation authority, and generate the searched information as recommended information. The control unit 130 can search for recommended places based on various criteria and provide information about one or more recommended places to the target user 1000.

제어부(130)는, i)특정 장소와 가장 가까운 장소이거나, ii)특정 장소를 제외한 타겟 유저(1000)의 현재 위치와 가장 가까운 장소, iii)특정 장소를 제외한 타겟 유저(1000)의 근무 위치와 가장 가까운 장소, iv)특정 장소를 제외한, 다른 사용자(예를 들여, 회의 참석자 등) 및 타겟 유저(1000)의 거리를 모두 고려한 장소와 같이, 다양한 기준에 근거하여, 다른 예약 가능한 장소를 검색하고, 검색된 정보를 추천 정보로서 생성할 수 있다.The control unit 130 is configured to: i) be the closest location to a specific location, ii) be the closest location to the current location of the target user (1000) excluding the specific location, iii) work location of the target user (1000) excluding the specific location, and Search for other reservable places based on various criteria, such as the nearest place, iv) a place that takes into account the distance of both other users (e.g., meeting attendees, etc.) and target users (1000), excluding a specific place. , the searched information can be created as recommended information.

예를 들어, 도 5b에 도시된 것과같이, 디스플레이부(12) 상에는, 타겟 유저(1000)의 현재 위치에서 가장 가까운 장소가 추천 정보(550)로서 제공될 수 있다. 마찬가지로, 도 5b에 도시된 것과같이, 디스플레이부(12) 상에는, 타겟 유저(1000)의 근무 위치에서 가장 가까운 장소가 추천 정보(550)로서 제공될 수 있다. 이 경우, 추천 정보로서 제공되는 장소는, 타겟 유저(1000)가 예약할 권한을 갖는 장소일 수 있다.For example, as shown in FIG. 5B, the place closest to the current location of the target user 1000 may be provided as recommended information 550 on the display unit 12. Likewise, as shown in FIG. 5B, on the display unit 12, the place closest to the work location of the target user 1000 may be provided as recommended information 550. In this case, the place provided as recommended information may be a place where the target user 1000 has the authority to make a reservation.

한편, 도 6에 도시된 것과 같이, 특정 기능이 장소에 대한 예약 기능이고, 상기 타겟 유저에 의한 사용자 입력에 근거하여 참석자(예를 들어, 김*동, 유*애)에 대한 정보가 수신된 경우(도 6의 도면부호 620 참조), 제어부(130)는 참석자 및 타겟 유저(1000)와 각각 관련된 위치를 근거로, 타겟 유저(1000)의 예약권한 내에 존재하는 특정 장소(예를 들어, A 동 1번, 3번 5번 회의실)를 추천 장소로서 검색할 수 있다. 그리고, 도 6에 도시된 것과 같이, 검색된 추천 장소에 대한 정보(630)를 디스플레이부 상에 출력할 수 있다. 이 경우, 제어부(130)는 지도 이미지 상에, 추천 장소 위치, 타겟 유저(1000)와 관련된 위치(예를 들어, 타겟 유저의 현재 위치 또는 타겟 유저의 근무 위치 등), 참석자와 관련된 위치(예를 들어, 참석자의 현재 위치 또는 타겟 유저의 근무 위치 등)를 표시할 수 있다.Meanwhile, as shown in Figure 6, a specific function is a reservation function for a location, and information about attendees (e.g., Kim * Dong, Yu * Ae) is received based on user input by the target user. In this case (see reference numeral 620 in FIG. 6), the control unit 130 selects a specific place (for example, A You can search for buildings (buildings 1, 3, and conference rooms 5) as recommended locations. And, as shown in FIG. 6, information 630 about the searched recommended place can be output on the display unit. In this case, the control unit 130 displays the recommended place location, the location related to the target user 1000 (e.g., the target user's current location or the target user's work location, etc.), and the location related to the attendee (e.g., the target user's current location, etc.) on the map image. For example, the current location of the attendee or the work location of the target user, etc.) can be displayed.

제어부(130)는, 참석자에 대한 정보가 수신된 경우, 사용자 DB로부터 참석자의 사용자 정보를 추출하고, 추출된 참석자의 사용자 정보에 포함된 참석자와 관련된 위치 정보에 근거하여, 추천 장소 정보를 검색(또는 특정)할 수 있다.When information about the attendee is received, the control unit 130 extracts the attendee's user information from the user DB and searches for recommended place information based on the location information related to the attendee included in the extracted user information of the attendee ( or specific) can be done.

한편, 위의 예들 에서는 특정 기능에, 장소가 구체적으로 특정된 경우에 대하여 살펴보았다. 그러나, 본 발명은 이에 한정되지 않고, 타겟 유저(1000)가 갖는 권한 정보(예를 들어, 장소에 대한 접근 권한, 출입 권한 등)에 근거하여, 예약이 가능한 장소 정보를 추천할 수 있다. 제어부(130)는 위에서 살펴본 장소 추천 방법에 근거하여, 타겟 유저(1000)가 예약할 권한이 존재하면서, 예약이 가능한 장소를 검색하고, 검색된 장소에 대한 추천 정보를 생성할 수 있음은 물론이다.Meanwhile, in the examples above, we looked at cases where a specific function and location were specifically specified. However, the present invention is not limited to this, and information on places that can be reserved can be recommended based on authority information (eg, access rights to the place, entrance rights, etc.) that the target user 1000 has. Of course, the control unit 130 can search for a place where the target user 1000 has the authority to make a reservation and can make a reservation, based on the place recommendation method described above, and generate recommendation information for the searched place.

예를 들어, 타겟 유저(1000)는 “회의실 예약해줘”와 같은 음성을, 전자기기(10)에 입력할 수 있으며, 제어부(130)는 사용자의 음성에 근거하여, 위에서 살펴본 다양한 방식 중 적어도 하나에 근거하여, 타겟 유자(1000)가 예약 가능한 장소를 추천 장소 정보로서 생성할 수 있다.For example, the target user 1000 may input a voice such as “Please reserve a conference room” into the electronic device 10, and the control unit 130 may use at least one of the various methods described above based on the user's voice. Based on this, the target user 1000 can generate a place that can be reserved as recommended place information.

한편, 본 발명에서, 사용자의 편의성을 높이는 어시스턴트 서비스를 제공하기 위하여, 특정 장소에 대한 예약이 수행된 경우, 타겟 유저(1000)의 사용자 정보에 근거하여, 특정 장소에 대한 예약 정보를 상기 타겟 유저의 일정 정보에 추가하는 기능을 제공할 수 있다.Meanwhile, in the present invention, in order to provide an assistant service that increases user convenience, when a reservation for a specific place is made, based on the user information of the target user 1000, reservation information for the specific place is provided to the target user. The ability to add to schedule information can be provided.

도 7에 도시된 것과 같이, 제어부(130)는 특정 기능의 수행 결과, 타겟 유저(1000)의 일정과 관련된 일정 이벤트가 발생하는 경우, 해당 일정 이벤트를 사용자의 일정 정보에 추가할 수 있다,As shown in FIG. 7, when a schedule event related to the schedule of the target user 1000 occurs as a result of performing a specific function, the control unit 130 may add the schedule event to the user's schedule information.

제어부(130)는 사용자 정보로부터, 사용자의 일정 정보가 저장되는 계정 정보를 추출하고, 해당 계정 정보에 일정 이벤트에 해당하는 일정을 추가 저장할 수 있다.The control unit 130 may extract account information in which the user's schedule information is stored from the user information, and additionally store a schedule corresponding to the schedule event in the account information.

이와 같이, 일정 추가와 관련된 어시스턴트 서비스가 제공되는 경우, 제어부(130)는 청각적 및 시각적인 방식 중 적어도 하나의 방식으로, 일정 추가와 관련된 어시스턴트 서비스가 제공되고 있음을 알리는 안내 정보(710)를 출력할 수 있다.In this way, when an assistant service related to adding a schedule is provided, the control unit 130 provides guidance information 710 indicating that an assistant service related to adding a schedule is provided in at least one of audible and visual ways. Can be printed.

제어부(130)는 타겟 유저(1000)가 일정 추가와 관련된 어시스턴트 서비스를 승인하거나 거절하도록 하는 GUI(Graphic User Interface, 720)를 디스플레이부(12) 상에 제공할 수 있다. The control unit 130 may provide a graphic user interface (GUI) 720 on the display unit 12 that allows the target user 1000 to approve or reject an assistant service related to schedule addition.

나아가, 제어부(130)는, 특정 장소에 대한 예약이 수행되고, 특정 장소와 관련된 참석자에 대한 정보가 확정된 경우, 사용자 DB로부터 참석자의 사용자 정보를 추출할 수 있다. 그리고 제어부(130)는, 상기 참석자의 사용자 정보를 이용하여, 상기 참석자에게 상기 특정 장소에 대한 예약 정보를 공유하는 어시스턴트 서비스를 제공할 수 있다. 제어부(130)는 참석자의 사용자 정보에 포함된 메일 계정, 전화번호 등과 같은 연락처 정보를 이용하여, 참석자에게 예약 정보를 전송할 수 있다. 이러한 예약 정보는 전자 메일, 메시지 등의 형식으로 전송될 수 있다.Furthermore, when a reservation for a specific place is made and information about the attendee related to the specific place is confirmed, the control unit 130 may extract the attendee's user information from the user DB. Additionally, the control unit 130 may provide an assistant service that shares reservation information for the specific location with the attendee using the attendee's user information. The control unit 130 may transmit reservation information to the attendee using contact information such as email account, phone number, etc. included in the attendee's user information. This reservation information may be transmitted in the form of e-mail, messages, etc.

나아가, 제어부(130)는 참석자의 사용자 정보로부터, 참석자의 일정 정보가 저장되는 계정 정보를 추출하고, 해당 계정 정보에 일정 이벤트에 해당하는 일정을 추가 저장할 수 있다.Furthermore, the control unit 130 may extract account information in which the attendee's schedule information is stored from the attendee's user information and additionally store a schedule corresponding to the schedule event in the account information.

이와 같이, 일정 추가와 관련된 어시스턴트 서비스가 제공되는 경우, 제어부(130)는 청각적 및 시각적인 방식 중 적어도 하나의 방식으로, 일정 추가와 관련된 어시스턴트 서비스가 제공되고 있음을 알리는 안내 정보를 출력할 수 있다.In this way, when an assistant service related to adding a schedule is provided, the control unit 130 may output guidance information indicating that an assistant service related to adding a schedule is provided in at least one of audible and visual ways. there is.

나아가, 제어부(130)는 타겟 유저(1000)가 참석자와 관련된 어시스턴트 서비스(예를 들어, 예약 정보 전송 또는 일정 추가 등)를 승인하거나 거절하도록 하는 GUI(Graphic User Interface, 720)를 디스플레이부(12) 상에 제공할 수 있다. Furthermore, the control unit 130 displays a GUI (Graphic User Interface, 720) that allows the target user 1000 to approve or reject assistant services related to attendees (for example, sending reservation information or adding a schedule, etc.) to the display unit 12. ) can be provided on the table.

한편, 위에서 살펴본 서비스 제공 방법 및 시스템을 적용하는 전자기기(10)는 다양한 장소에 설치될 수 있다. 앞서 도 3에 도시된 것과 같이, 전자기기(10)는 회의실 주변에 배치되거나, 도 8의 (a)에 도시된 것과 같이 공동 생활 공간(예를 들어, 엘리베이터 주변), 사용자들의 근무 장소 등에 배치될 수 있다.Meanwhile, the electronic device 10 applying the service provision method and system described above may be installed in various places. As previously shown in FIG. 3, the electronic device 10 is placed around a conference room, or as shown in (a) of FIG. 8, in a common living space (e.g., around an elevator), or at the workplace of users. It can be.

그리고, 제어부(130)는 전자기기(10) 주변에서 사용자(예를 들어, 타겟 유저(1000))가 인식되는 되는 경우, 인식된 타겟 유저(1000)를 위한 어시스턴트 서비스를 제공할 수 있다,In addition, when a user (e.g., target user 1000) is recognized around the electronic device 10, the control unit 130 may provide an assistant service for the recognized target user 1000.

예를 들어, 도 8의 (b)에 도시된 것과 같이, 제어부(130)는 타겟 유저(1000)에게 전자기기(10)를 통하여, 특정 기능(예를 들어, 회의실 예약 기능)을 제공하기 위한 가이드 정보(810)를 출력할 수 있다.For example, as shown in (b) of FIG. 8, the control unit 130 is used to provide a specific function (for example, a conference room reservation function) to the target user 1000 through the electronic device 10. Guide information 810 can be output.

다른 예로서, 제어부(130)는 도 8의 (c)에 도시된 것과 같이, 타겟 유저(1000)가 특정된 경우, 타겟 유저(1000)의 사용자 정보에 포함된 일정 정보를 참조하여, 타겟 기능을 제공할 수 있다. 여기에서 타겟 기능은, 전자기기(10)가 위치한 장소적인 특성을 고려된 기능일 수 있다, 예를 들어, 전자기기(10)가 배치된 장소가 엘리베이터 주변인 경우, 제어부(130)는 타겟 유저(1000)의 일정 정보를 추출할 수 있다, 그리고, 추출된 일정 정보에 대응되는 장소(예를 들어, 4번 회의실)로 타겟 유저(1000)가 이동할 수 있도록 가이드 정보(예를 들어, 4번 회의실이 위치한 장소(3층)로의 이동)를 전자기기(10)를 통해 출력할 수 있다.As another example, as shown in (c) of FIG. 8, when the target user 1000 is specified, the control unit 130 refers to the schedule information included in the user information of the target user 1000 and performs the target function. can be provided. Here, the target function may be a function that takes into account the characteristics of the location where the electronic device 10 is located. For example, when the place where the electronic device 10 is located is around an elevator, the control unit 130 selects the target user ( 1000) schedule information can be extracted, and guide information (e.g., conference room 4) is provided so that the target user 1000 can move to a location (e.g., conference room 4) corresponding to the extracted schedule information. Movement to this location (3rd floor) can be output through the electronic device 10.

나아가, 제어부(130)는 도 8의 (d)에 도시된 것과 같이, 타겟 유저(1000)의 사용자 정보에 포함된 일정 정보를 참고하여, 타겟 유저(1000)에게 일정 정보를 상기(리마인더)시키기 위한 정보(830)를 전자기기(10)를 통해 출력할 수 있다.Furthermore, as shown in (d) of FIG. 8, the control unit 130 refers to the schedule information included in the user information of the target user 1000 and reminds the target user 1000 of the schedule information. The information 830 can be output through the electronic device 10.

한편, 본 발명에 따른 어시스턴트 서비스 제공 방법 및 시스템은, 위에서 살펴본 장소 예약을 위한 기능 외에도 다양한 기능을 제공할 수 있다. Meanwhile, the method and system for providing an assistant service according to the present invention can provide various functions in addition to the function for reserving a location discussed above.

일 예로서, 전자기기(10)가 회의실, 사무실, 집 등의 공간(900)에 배치되는 경우, 제어부(130)는 도 9에 전자기기(10)를 통해 입력되는 사용자 입력에 근거하여, 공간(900)에 배치된 전자기기(901, 902, 903)를 제어할 수 있다. 이때에도, 제어부(130)는 타겟 유저(1000)가 전자기기(901, 902, 903)를 제어할 수 있는 권한이 존재하는지 판단하기 위하여, 타겟 유저(1000)의 얼굴을 인식하고, 인식된 얼굴 이미지에 대응되는 사용자 정보를 사용자 DB로부터 추출할 수 있다. 그리고, 제어부(130)는 추출된 사용자 정보로부터, 전자기기(901, 902, 903)에 대한 제어권한 정보를 확인하고, 확인 결과에 근거하여, 전자기기(901, 902, 903)의 제어를 수행할 수 있다.As an example, when the electronic device 10 is placed in a space 900 such as a conference room, office, or home, the control unit 130 controls the space based on the user input input through the electronic device 10 in FIG. Electronic devices 901, 902, and 903 placed in 900 can be controlled. Even at this time, the control unit 130 recognizes the face of the target user 1000 to determine whether the target user 1000 has authority to control the electronic devices 901, 902, and 903, and uses the recognized face User information corresponding to the image can be extracted from the user DB. And, the control unit 130 checks the control authority information for the electronic devices 901, 902, and 903 from the extracted user information, and performs control of the electronic devices 901, 902, and 903 based on the confirmation result. can do.

한편, 전자기기(901, 902, 903, 904)의 제어는, 전자기기(901, 902, 903)의 전원을 온(on) 또는 오프(off)시키거나, 음량을 조절하는 것과 같은, 전자기기(901, 902, 903)와 관련된 다양한 제어를 포함할 수 있다.On the other hand, control of the electronic devices 901, 902, 903, and 904, such as turning the power of the electronic devices 901, 902, and 903 on or off, or adjusting the volume, It may include various controls related to (901, 902, 903).

다른 예로서, 전자기기(10)는 도 10에 도시된 것과 같이, 주차장(1010)에 배치될 수 있다. 이 경우, 제어부(130)는 전자기기(10)를 통해 타겟 유저(1000)가 인식되는 경우, 타겟 유저(1000)의 권한 내에 있는 차량(1020)과 관련된 제어를 수행할 수 있다.As another example, the electronic device 10 may be placed in a parking lot 1010, as shown in FIG. 10 . In this case, when the target user 1000 is recognized through the electronic device 10, the control unit 130 may perform control related to the vehicle 1020 within the authority of the target user 1000.

제어부(130)는 타겟 유저(1000)의 권한 내에 있는 차량(1020)의 정보를 추출하기 위하여, 전자기기(10)를 통해 타겟 유저(1000)의 얼굴을 인식하고, 인식된 얼굴 이미지에 대응되는 사용자 정보를 사용자 DB로부터 추출할 수 있다. 그리고, 제어부(130)는 추출된 사용자 정보로부터, 타겟 유저(1000)의 권한 내에 있는 차량(1020, 예를 들어 타겟 유저(1000)의 소유 차량, 사용 등록 차량 등)의 정보를 확인할 수 있다. 그리고, 제어부(130)는 확인된 차량(1020)과 관련된 제어(예를 들어, 차량(1020)의 주차위치 정보 제공, 차량(1020)의 주차비 결제 등)를 수행할 수 있다.The control unit 130 recognizes the face of the target user 1000 through the electronic device 10 in order to extract information about the vehicle 1020 within the authority of the target user 1000, and generates information corresponding to the recognized face image. User information can be extracted from the user DB. Additionally, the control unit 130 may check information on the vehicle 1020 (e.g., a vehicle owned by the target user 1000, a vehicle registered for use, etc.) within the authority of the target user 1000 from the extracted user information. Additionally, the control unit 130 may perform controls related to the confirmed vehicle 1020 (for example, providing parking location information for the vehicle 1020, paying parking fees for the vehicle 1020, etc.).

한편, 차량(1020)의 번호, 주차 위치, 주차 시간 등에 대한 정보는, 차량(1020)이 주차장(1010)에 진입하는 과정에서, 주차장(1010)에 구비되는 센서에 기반하여, 센싱될 수 있다. 그리고, 제어부(130)는 센싱된 차량(1020)의 정보 중 차량 번호 정보와 대응되는 사용자 정보를 갖는 사용자가 존재하는 경우, 해당 사용자의 정보에 차량의 주차와 관련된 정보(주차 위치, 주차 시간 등)를 매칭하여 등록할 수 있다. 따라서, 전자기기(10)를 통하여, 타겟 유저(1000)가 차량(1020)과 관련된 기능(예를 들어, 주차위치 정보 제공, 주차비 결제 등)을 요청하는 경우, 사용자 정보와 매칭되어 등록된 정보를 참조하여, 적절한 정보를 제공할 수 있다.Meanwhile, information about the number, parking location, parking time, etc. of the vehicle 1020 may be sensed based on a sensor provided in the parking lot 1010 when the vehicle 1020 enters the parking lot 1010. . In addition, if there is a user with user information corresponding to the vehicle number information among the information of the sensed vehicle 1020, the control unit 130 adds information related to parking of the vehicle (parking location, parking time, etc.) to the user's information. ) can be registered by matching. Therefore, when the target user 1000 requests a function related to the vehicle 1020 (for example, providing parking location information, parking fee payment, etc.) through the electronic device 10, information registered by matching the user information By referring to , appropriate information can be provided.

또 다른 예로서, 도 11에 도시된 것과 같이, 전자기기(10)가 카페(1100), 음식점 등에 배치된 경우, 제어부(130)는 전자기기(10)를 통해, 타겟 유저(1000)로부터 주문 정보를 수신하고, 전자 결제를 수행할 수 있다.As another example, as shown in FIG. 11, when the electronic device 10 is placed in a cafe 1100, a restaurant, etc., the control unit 130 processes an order from the target user 1000 through the electronic device 10. You can receive information and make electronic payments.

이 경우, 제어부(130)는 타겟 유저(1000)를 인식하고, 사용자 DB로부터 타겟 유저(1000)의 사용자 정보 추출할 수 있다. 그리고, 추출된 사용자 정보(예를 들어, 결제 수단 정보(신용 카드 정보, 계좌 정보 등)를 이용하여, 타겟 유저(1000)의 주문에 대한 전자 결제를 수행할 수 있다.In this case, the control unit 130 can recognize the target user 1000 and extract user information of the target user 1000 from the user DB. Additionally, electronic payment for the order of the target user 1000 may be performed using the extracted user information (e.g., payment method information (credit card information, account information, etc.)).

한편, 타겟 유저(1000)의 사용자 정보에는, 타겟 유저(1000)의 히스토리 정보가 포함되어 있으며, 히스토리 정보는, 타겟 유저(1000)의 과거 주문 정보가 포함될 수 있다.Meanwhile, the user information of the target user 1000 includes history information of the target user 1000, and the history information may include past order information of the target user 1000.

제어부(130)는 이러한 히스토리 정보에 기반하여, 타겟 유저(1000)가 인식된 경우, 전자기기(10)를 통해, 과거 주문 정보에 기반하여, 특정 메뉴(예를 들어, “카페라떼”)에 대한 주문을 권유하는 주문 추천 정보(1110)를 도 11에 도시된 것과 같이 출력시킬 수 있다.Based on this history information, when the target user 1000 is recognized, the control unit 130 provides a specific menu (for example, “cafe latte”) through the electronic device 10 based on past order information. Order recommendation information 1110 recommending an order may be output as shown in FIG. 11.

한편, 카페(1100)와 같은 공간이 로봇(예를 들어, 서빙 로봇 등)이 운용되는 공간인 경우, 제어부(130)는 로봇을 이용하여, 타겟 유저(1000)가 주문한 메뉴(예를 들어, 음료, 음식 등)가 타겟 유저(1000)에게 서빙되도록 로봇을 제어할 수 있다. 이 경우, 제어부(130)는 타겟 유저(1000)가 공간 내에서 어디에 위치하고 있는지 센싱하고, 센싱된 위치로 로봇이 이동하도록 로봇을 제어할 수 있다.On the other hand, when a space such as the cafe 1100 is a space where a robot (e.g., a serving robot, etc.) is operated, the control unit 130 uses the robot to provide a menu ordered by the target user 1000 (e.g., The robot can be controlled so that drinks (drinks, food, etc.) are served to the target user (1000). In this case, the control unit 130 can sense where the target user 1000 is located in space and control the robot to move to the sensed location.

이상에서 살펴본 것과 같이, 본 발명에 따른 어시스턴트 서비스 제공 방법 및 시스템은, 어시스턴트 서비스 제공 방법 및 시스템이 적용된 전자기기가 배치된 위치에 따라 사용자를 어시스턴트할 수 있는 다양한 기능을 제공할 수 있다.As discussed above, the assistant service provision method and system according to the present invention can provide various functions that can assist the user depending on the location of the electronic device to which the assistant service provision method and system is applied.

위에서 살펴본 것과 같이, 본 발명에 따른 어시스턴트 서비스 제공 방법 및 시스템은, 얼굴 인식을 활용하여, 인식된 사용자에게 제공 가능한 맞춤형 기능을 제공할 수 있다. 더 나아가 본 발명은 얼굴 인식 뿐만 아니라, 얼굴 인식과 함께 음성 인식 수행함으로써, 인식된 사용자가 발화한 음성에 따른 기능을 제공할 수 있다. 따라서, 사용자는 어시스턴트 서비스를 제공하는 전자기기 주변에서 발화를 하는 것 만으로도, 목적하고자 하는 기능의 수행을 제공받을 수 있다. As seen above, the assistant service provision method and system according to the present invention can utilize facial recognition to provide customized functions that can be provided to recognized users. Furthermore, the present invention can provide functions according to the voice uttered by the recognized user by performing not only face recognition but also voice recognition along with face recognition. Accordingly, the user can receive the desired function by simply speaking near the electronic device that provides the assistant service.

나아가, 본 발명에 따른 어시스턴트 서비스 제공 방법 및 시스템은, 카메라를 이용하여 인증의 대상이 되는 사용자를 센싱하고, 센싱된 사용자의 권한을 확인함으로써, 사용자가 갖는 권한 내에 존재하는 기능의 제공을 보조할 수 있다. 이 경우, 본 발명에서는, 사용자가 요청한 기능이 사용자의 권한 내에 존재하지 않는 경우, 사용자의 권한 내에 존재하는 유사한 기능의 제공을 추천함으로써, 사용자의 편의성을 높일 수 있다.Furthermore, the assistant service provision method and system according to the present invention senses the user subject to authentication using a camera and confirms the sensed user's authority, thereby assisting in the provision of functions that exist within the user's authority. You can. In this case, in the present invention, when the function requested by the user does not exist within the user's authority, the user's convenience can be improved by recommending the provision of a similar function that exists within the user's authority.

한편, 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. Meanwhile, computer-readable media includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is.

나아가, 컴퓨터가 읽을 수 있는 매체는, 저장소를 포함하며 전자기기가 통신을 통하여 접근할 수 있는 서버 또는 클라우드 저장소일 수 있다. 이 경우, 컴퓨터는 유선 또는 무선 통신을 통하여, 서버 또는 클라우드 저장소로부터 본 발명에 따른 프로그램을 다운로드 받을 수 있다.Furthermore, the computer-readable medium may be a server or cloud storage that includes storage and can be accessed by electronic devices through communication. In this case, the computer can download the program according to the present invention from a server or cloud storage through wired or wireless communication.

나아가, 본 발명에서는 위에서 설명한 컴퓨터는 프로세서, 즉 CPU(Central Processing Unit, 중앙처리장치)가 탑재된 전자기기로서, 그 종류에 대하여 특별한 한정을 두지 않는다.Furthermore, in the present invention, the computer described above is an electronic device equipped with a processor, that is, a CPU (Central Processing Unit), and there is no particular limitation on its type.

한편, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.Meanwhile, the above detailed description should not be construed as restrictive in all respects and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Claims (13)

카메라를 이용하여, 타겟 유저의 얼굴 이미지를 센싱하는 단계;
마이크를 이용하여, 상기 타겟 유저의 음성을 센싱하는 단계;
사용자 DB로부터 상기 얼굴 이미지에 대응되는 상기 타겟 유저의 사용자 정보를 추출하는 단계;
상기 사용자 정보에 근거하여, 상기 음성에 대응되는 타겟 기능에 대한 상기 타겟 유저의 권한을 확인하는 단계; 및
확인 결과에 근거하여, 상기 타겟 기능과 관련된 제어를 수행하는 단계를 포함하고,
상기 음성을 분석하고, 분석결과에 근거하여 상기 타겟 기능을 결정하는 단계를 더 포함하며,
분석 결과, 상기 타겟 기능이 특정 장소에 대한 예약 기능인 경우, 상기 권한을 확인하는 단계에서는,
상기 사용자 정보에 근거하여, 상기 타겟 유저가 상기 특정 장소에 대한 예약 권한이 존재하는지를 판단하는 것을 특징으로 하는 어시스턴트 서비스 제공 방법.
Sensing a face image of a target user using a camera;
Sensing the target user's voice using a microphone;
extracting user information of the target user corresponding to the face image from a user DB;
Based on the user information, confirming the target user's authority for the target function corresponding to the voice; and
Based on the verification result, performing control related to the target function,
Further comprising analyzing the voice and determining the target function based on the analysis result,
As a result of the analysis, if the target function is a reservation function for a specific location, in the step of checking the permission,
An assistant service providing method characterized by determining whether the target user has reservation authority for the specific location based on the user information.
삭제delete 제1항에 있어서,
디스플레이부 상에, 상기 음성에 대응되는 기능으로서 상기 타겟 기능이 결정되었음을 알리는 안내정보 및 상기 타겟 유저의 사용자 정보 중 적어도 일부를 제공하는 단계를 더 포함하는 것을 특징으로 하는 어시스턴트 서비스 제공 방법.
According to paragraph 1,
The method of providing an assistant service further comprising providing, on a display unit, at least a portion of user information of the target user and guidance information indicating that the target function has been determined as a function corresponding to the voice.
삭제delete 제1항에 있어서,
상기 특정 장소는,
상기 카메라 및 상기 마이크를 구비하는 전자기기가 배치된 위치에 근거하여, 결정되는 것을 특징으로 하는 어시스턴트 서비스 제공 방법.
According to paragraph 1,
The specific location above is,
A method of providing an assistant service, characterized in that the decision is made based on the location where the electronic device including the camera and the microphone is placed.
제1항에 있어서,
상기 타겟 기능과 관련된 제어를 수행하는 단계에서는,
상기 타겟 유저가 상기 특정 장소에 대한 예약 권한이 존재하는지 여부에 근거하여, 상기 특정 장소에 대한 예약과 관련된 서로 다른 제어를 수행하는 것을 특징으로 하는 어시스턴트 서비스 제공 방법.
According to paragraph 1,
In the step of performing control related to the target function,
An assistant service providing method, characterized in that performing different controls related to reservations for the specific place based on whether the target user has reservation authority for the specific place.
제6항에 있어서,
상기 타겟 기능과 관련된 제어를 수행하는 단계에서는,
상기 특정 장소에 대한 예약 권한이 상기 타겟 유저에게 존재하는 경우, 상기 특정 장소에 대한 예약을 수행하고,
상기 특정 장소에 대한 예약 권한이 상기 타겟 유저에게 존재하지 않는 경우, 상기 특정 장소와 다른 장소에 대한 예약을 가이드 하는 것을 특징으로 하는 어시스턴트 서비스 제공 방법.
According to clause 6,
In the step of performing control related to the target function,
If the target user has reservation authority for the specific location, make a reservation for the specific location,
A method of providing an assistant service, characterized in that when the target user does not have reservation authority for the specific location, guiding reservations for a location different from the specific location.
제7항에 있어서,
상기 특정 장소와 다른 장소는,
상기 특정 장소와 가장 가까운 장소이면서, 상기 타겟 유저가 예약 권한을 갖는 장소인 것을 특징으로 하는 어시스턴트 서비스 제공 방법.
In clause 7,
Locations different from the above specific location,
A method of providing an assistant service, characterized in that the location is closest to the specific location and the target user has reservation authority.
제7항에 있어서,
상기 특정 장소에 대한 예약이 수행된 경우, 상기 타겟 유저의 사용자 정보에 근거하여, 상기 특정 장소에 대한 예약 정보를 상기 타겟 유저의 일정 정보에 추가하는 단계를 더 포함하는 것을 특징으로 하는 어시스턴트 서비스 제공 방법.
In clause 7,
When a reservation for the specific place is made, providing an assistant service further comprising adding reservation information for the specific place to the target user's schedule information based on the user information of the target user. method.
제7항에 있어서,
상기 특정 장소에 대한 예약이 수행되고, 상기 특정 장소와 관련된 참석자에 대한 정보가 수신된 경우,
상기 사용자 DB로부터 상기 참석자의 사용자 정보를 추출하고, 상기 참석자의 사용자 정보를 이용하여, 상기 참석자에게 상기 특정 장소에 대한 예약 정보를 공유하는 단계를 포함하는 것을 특징으로 하는 어시스턴트 서비스 제공 방법.
In clause 7,
When a reservation for the specific location is made and information about attendees related to the specific location is received,
An assistant service providing method comprising the step of extracting user information of the attendee from the user DB and sharing reservation information for the specific place with the attendee using the attendee's user information.
제1항에 있어서,
분석 결과, 상기 타겟 기능이 장소에 대한 예약 기능이고, 상기 타겟 유저에 의한 사용자 입력에 근거하여 참석자에 대한 정보가 수신된 경우,
상기 참석자 및 상기 타겟 유저와 각각 관련된 위치를 근거로, 상기 타겟 유저의 예약권한 내에 존재하는 특정 장소를 추천 장소로서 검색하는 단계를 더 포함하는 것을 특징으로 하는 어시스턴트 서비스 제공 방법.
According to paragraph 1,
As a result of the analysis, if the target function is a reservation function for a location and information about attendees is received based on user input by the target user,
An assistant service providing method further comprising searching for a specific place within the reservation authority of the target user as a recommended place based on the locations associated with the attendees and the target user, respectively.
타겟 유저의 얼굴 이미지를 센싱하는 카메라;
상기 타겟 유저의 음성을 센싱하는 마이크;
사용자 DB로부터 상기 얼굴 이미지에 대응되는 상기 타겟 유저의 사용자 정보를 추출하고, 상기 사용자 정보에 근거하여, 상기 음성에 대응되는 타겟 기능에 대한 상기 타겟 유저의 권한을 확인하는 제어부를 포함하고,
상기 제어부는,
확인 결과에 근거하여, 상기 타겟 기능과 관련된 제어를 수행하고, 상기 음성을 분석하고, 분석결과에 근거하여 상기 타겟 기능을 결정하며, 분석 결과, 상기 타겟 기능이 특정 장소에 대한 예약 기능인 경우,
상기 권한을 확인하는 것은,
상기 사용자 정보에 근거하여, 상기 타겟 유저가 상기 특정 장소에 대한 예약 권한이 존재하는지를 판단하는 것을 특징으로 하는 어시스턴트 서비스 시스템.
A camera that senses the face image of the target user;
A microphone that senses the target user's voice;
A control unit extracting user information of the target user corresponding to the face image from a user DB and confirming the target user's authority for the target function corresponding to the voice based on the user information,
The control unit,
Based on the confirmation result, perform control related to the target function, analyze the voice, and determine the target function based on the analysis result. If the analysis result is that the target function is a reservation function for a specific location,
To check the above permissions,
An assistant service system characterized in that it determines whether the target user has reservation authority for the specific location based on the user information.
전자기기에서 하나 이상의 프로세스에 의하여 실행되며, 컴퓨터로 판독될 수 있는 매체에 저장 가능한 프로그램으로서,
상기 프로그램은,
카메라를 이용하여, 타겟 유저의 얼굴 이미지를 센싱하는 단계;
마이크를 이용하여, 상기 타겟 유저의 음성을 센싱하는 단계;
사용자 DB로부터 상기 얼굴 이미지에 대응되는 상기 타겟 유저의 사용자 정보를 추출하는 단계;
상기 사용자 정보에 근거하여, 상기 음성에 대응되는 타겟 기능에 대한 상기 타겟 유저의 권한을 확인하는 단계; 및
확인 결과에 근거하여, 상기 타겟 기능과 관련된 제어를 수행하는 단계를 수행하도록 하는 명령어들을 포함하고,
상기 음성을 분석하고, 분석결과에 근거하여 상기 타겟 기능을 결정하는 단계를 수행하도록 하는 명령어들을 더 포함하며,
분석 결과, 상기 타겟 기능이 특정 장소에 대한 예약 기능인 경우, 상기 권한을 확인하는 단계에서는,
상기 사용자 정보에 근거하여, 상기 타겟 유저가 상기 특정 장소에 대한 예약 권한이 존재하는지를 판단하는 것을 특징으로 하는 컴퓨터로 판독될 수 있는 매체에 저장 가능한 프로그램.
A program that is executed by one or more processes in an electronic device and can be stored in a computer-readable medium,
The above program is,
Sensing a face image of a target user using a camera;
Sensing the target user's voice using a microphone;
extracting user information of the target user corresponding to the face image from a user DB;
Based on the user information, confirming the target user's authority for the target function corresponding to the voice; and
Based on the confirmation result, it includes instructions for performing steps to perform control related to the target function,
Further comprising instructions for analyzing the voice and determining the target function based on the analysis result,
As a result of the analysis, if the target function is a reservation function for a specific location, in the step of checking the permission,
A program storable on a computer-readable medium, characterized in that it determines whether the target user has reservation authority for the specific place based on the user information.
KR1020210013170A 2021-01-29 2021-01-29 Method and ststem for providing assistant service KR102581000B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020210013170A KR102581000B1 (en) 2021-01-29 2021-01-29 Method and ststem for providing assistant service
JP2022010171A JP7379550B2 (en) 2021-01-29 2022-01-26 Assistant service provision method and system
TW111103551A TW202230268A (en) 2021-01-29 2022-01-27 Method and system for providing assistant service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210013170A KR102581000B1 (en) 2021-01-29 2021-01-29 Method and ststem for providing assistant service

Publications (2)

Publication Number Publication Date
KR20220109764A KR20220109764A (en) 2022-08-05
KR102581000B1 true KR102581000B1 (en) 2023-09-21

Family

ID=82749814

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210013170A KR102581000B1 (en) 2021-01-29 2021-01-29 Method and ststem for providing assistant service

Country Status (3)

Country Link
JP (1) JP7379550B2 (en)
KR (1) KR102581000B1 (en)
TW (1) TW202230268A (en)

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005102081A (en) 2003-09-26 2005-04-14 Minolta Co Ltd Monitoring camera system
JP2011227847A (en) 2010-04-23 2011-11-10 Chugoku Electric Power Co Inc:The Conference room reservation support system
KR101648962B1 (en) * 2014-06-18 2016-08-18 네이버 주식회사 Method, system and recording medium for meeting place recommendation using location and preference of users and file distribution system
US10331312B2 (en) * 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10043516B2 (en) * 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
JP2019049871A (en) 2017-09-11 2019-03-28 富士ゼロックス株式会社 Conference room reservation system, information processing apparatus and program
JP6950397B2 (en) 2017-09-21 2021-10-13 富士フイルムビジネスイノベーション株式会社 Information processing equipment, information processing systems and programs
JP7123540B2 (en) * 2017-09-25 2022-08-23 キヤノン株式会社 Information processing terminal that accepts input by voice information, method, and system including information processing terminal
EP3702904A4 (en) 2017-10-23 2020-12-30 Sony Corporation Information processing device and information processing method
KR20170140122A (en) * 2017-11-07 2017-12-20 주식회사 라온영 Location booking service method and server performing the same
KR20170135797A (en) * 2017-11-28 2017-12-08 최재원 Intelligent reservation system
US20220036897A1 (en) 2018-12-07 2022-02-03 Sony Group Corporation Response processing apparatus, response processing method, and response processing program
KR102551773B1 (en) * 2020-12-14 2023-07-06 네이버 주식회사 Place recommendation method and system

Also Published As

Publication number Publication date
TW202230268A (en) 2022-08-01
JP7379550B2 (en) 2023-11-14
KR20220109764A (en) 2022-08-05
JP2022117472A (en) 2022-08-10

Similar Documents

Publication Publication Date Title
US10853629B2 (en) Method for identifying a user entering an autonomous vehicle
US20220094765A1 (en) Multiple User Recognition with Voiceprints on Online Social Networks
CN110741433B (en) Intercom communication using multiple computing devices
US11640548B2 (en) User identification with voiceprints on online social networks
CN107077847B (en) Enhancement of key phrase user identification
US20190182176A1 (en) User Authentication with Voiceprints on Online Social Networks
US8490157B2 (en) Authentication—circles of trust
KR102623727B1 (en) Electronic device and Method for controlling the electronic device thereof
KR20190096618A (en) Electronic device and method for executing function of electronic device
US20160262017A1 (en) Personal assistant authentication
US20230316814A1 (en) Enrollment with an automated assistant
US20180068177A1 (en) Method, device, and non-transitory computer-readable recording medium
US20160065539A1 (en) Method of sending information about a user
CN111792464A (en) Elevator control method, elevator, and storage medium
CN104904158A (en) Method and system for controlling external device
KR20190127372A (en) Electronic device and method for executing function of electronic device
JP2020115384A (en) Information processing system, information processing apparatus, control method, recording medium, and program
KR102511517B1 (en) Voice input processing method and electronic device supportingthe same
CN116670667A (en) Access authentication in AI systems
US20180068321A1 (en) Reception supporting method and device
KR102581000B1 (en) Method and ststem for providing assistant service
JP7402940B2 (en) User authentication methods, systems and programs
KR102624459B1 (en) Electronic payment method and ststem based on face recognition
KR102565197B1 (en) Method and system for providing digital human based on the purpose of user's space visit
US20220179976A1 (en) Systems and methods for processing requests for access

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant