KR20220109764A - Method and ststem for providing assistant service - Google Patents

Method and ststem for providing assistant service Download PDF

Info

Publication number
KR20220109764A
KR20220109764A KR1020210013170A KR20210013170A KR20220109764A KR 20220109764 A KR20220109764 A KR 20220109764A KR 1020210013170 A KR1020210013170 A KR 1020210013170A KR 20210013170 A KR20210013170 A KR 20210013170A KR 20220109764 A KR20220109764 A KR 20220109764A
Authority
KR
South Korea
Prior art keywords
user
information
target
target user
function
Prior art date
Application number
KR1020210013170A
Other languages
Korean (ko)
Other versions
KR102581000B1 (en
Inventor
이수미
신지은
박원경
김윤한
김영진
배용석
정현아
김범수
정상엽
권순필
서지연
이현미
나누리
윤정순
홍미학
Original Assignee
네이버 주식회사
라인 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버 주식회사, 라인 가부시키가이샤 filed Critical 네이버 주식회사
Priority to KR1020210013170A priority Critical patent/KR102581000B1/en
Priority to JP2022010171A priority patent/JP7379550B2/en
Priority to TW111103551A priority patent/TW202230268A/en
Publication of KR20220109764A publication Critical patent/KR20220109764A/en
Application granted granted Critical
Publication of KR102581000B1 publication Critical patent/KR102581000B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/02Reservations, e.g. for tickets, services or events
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Business, Economics & Management (AREA)
  • Computational Linguistics (AREA)
  • Tourism & Hospitality (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Marketing (AREA)
  • Development Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Resources & Organizations (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

The present invention relates to a method and system for providing an assistant service. The method for providing the assistant service according to the present invention may comprise: a step of sensing a face image of a target user using a camera; a step of sensing a speech of the target user using a microphone; a step of extracting user information of the target user corresponding to the face image from a user DB; a step of confirming an authority of the target user for a target function corresponding to the speech based on the user information; and a step of performing control related to the target function based on the confirmation result. Therefore, the present invention is capable of improving a user convenience.

Description

어시스턴트 서비스 제공 방법 및 시스템{METHOD AND STSTEM FOR PROVIDING ASSISTANT SERVICE}ASSISTANT SERVICE PROVIDED METHOD AND STSTEM FOR PROVIDING ASSISTANT SERVICE

본 발명은 어시스턴트 서비스 제공 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for providing an assistant service.

기술이 발전함에 따라, 전자기기의 활용도가 높아지고 있으며, 최근에는 사용자를 보조하는 어시스턴트(ASSISTATNT) 서비스를 제공하는 수단으로서 활용되고 있다.As technology develops, the utilization of electronic devices is increasing, and recently, it is utilized as a means of providing an assistant service to assist a user.

어시스턴트 서비스는, 사용자에게 유용한 정보를 출력하거나, 사용자가 요구한 기능에 대해 응답하거나, 관련 작업을 수행하여, 사용자가 실제 다양한 작업 또는 가상 작업을 완료하는데 도움을 줄 수 있다. The assistant service may help the user to complete various real or virtual tasks by outputting useful information to the user, responding to a function requested by the user, or performing a related task.

이러한 어시스턴트 서비스를 제공하는 전자기기는, 사용자에게 맞춤형 서비스를 제공하거나, 사용자의 의도를 파악하여 사용자가 실제로 필요로 하는 기능을 제공하는 형식으로 발전하고 있다.Electronic devices that provide such an assistant service are developing into a form of providing a customized service to a user or providing a function that a user actually needs by identifying a user's intention.

예를 들어, 대한민국 공개특허 2019-0062521호(가상 어시스턴트의 개인화)에서는, 사용자 개인 레코드를 자동으로 보관함으로써, 사용자에 대한 개인 정보에 보다 빠르게 접근하여, 사용자의 요구를 정확하게 파악하고, 빠르게 응답할 수 있는 시스템을 제공하고 있다.For example, in Korean Patent Application Laid-Open No. 2019-0062521 (Personalization of Virtual Assistant), by automatically storing user personal records, you can access personal information about users more quickly, accurately understand user needs, and respond quickly. We provide a system that can

한편, 이러한 어시스턴트 서비스는, 사용자의 요구를 정확하게 파악하는 것 뿐만 아니라, 어시스턴트 서비스를 제공하는 사용자가 누구인지에 따라, 적절한 기능을 제공하는 것이 핵심이며, 이러한 분야에 대한 연구가 활발하게 이루어지고 있다.On the other hand, the key to such an assistant service is not only to accurately understand the user's needs, but also to provide an appropriate function according to the user who provides the assistant service, and research in this field is being actively conducted. .

본 발명은, 사용자의 의도를 파악하여, 보다 직관적으로 어시스턴트 서비스를 제공할 수 있는 어시스턴트 서비스 제공 방법 및 시스템을 제공하기 위한 것이다.An object of the present invention is to provide an assistant service providing method and system capable of providing an assistant service more intuitively by recognizing a user's intention.

나아가, 본 발명은, 전자기기에 대한 접촉 입력 없이도, 어시스턴트 서비스를 제공할 수 있는 어시스턴트 서비스 제공 방법 및 시스템을 제공하기 위한 것이다.Furthermore, it is another object of the present invention to provide an assistant service providing method and system capable of providing an assistant service without a touch input to an electronic device.

더 나아가, 본 발명은, 사용자의 권한 및 상황을 고려하여, 사용자가 의도한 기능의 제공을 수행할 수 있는 어시스턴트 서비스 제공 방법 및 시스템을 제공하기 위한 것이다.Furthermore, it is another object of the present invention to provide an assistant service providing method and system capable of providing a function intended by a user in consideration of the user's authority and situation.

위에서 살펴본 과제를 해결하기 위하여, 본 발명에 따른 어시스턴트 서비스 제공 방법은, 카메라를 이용하여, 타겟 유저의 얼굴 이미지를 센싱하는 단계, 마이크를 이용하여, 상기 타겟 유저의 음성을 센싱하는 단계, 사용자 DB로부터 상기 얼굴 이미지에 대응되는 상기 타겟 유저의 사용자 정보를 추출하는 단계, 상기 사용자 정보에 근거하여, 상기 음성에 대응되는 타겟 기능에 대한 상기 타겟 유저의 권한을 확인하는 단계 및 확인 결과에 근거하여, 상기 타겟 기능과 관련된 제어를 수행하는 단계를 포함할 수 있다.In order to solve the above problems, the assistant service providing method according to the present invention includes the steps of sensing a face image of a target user using a camera, sensing the voice of the target user using a microphone, and a user DB extracting user information of the target user corresponding to the face image from It may include performing control related to the target function.

나아가, 본 발명에 따른 어시스턴트 서비스 제공 시스템은, 타겟 유저의 얼굴 이미지를 센싱하는 카메라, 상기 타겟 유저의 음성을 센싱하는 마이크, 사용자 DB로부터 상기 얼굴 이미지에 대응되는 상기 타겟 유저의 사용자 정보를 추출하고, 상기 사용자 정보에 근거하여, 상기 음성에 대응되는 타겟 기능에 대한 상기 타겟 유저의 권한을 확인하는 제어부를 포함하고, 상기 제어부는, 확인 결과에 근거하여, 상기 타겟 기능과 관련된 제어를 수행할 수 있다.Furthermore, the assistant service providing system according to the present invention extracts user information of the target user corresponding to the face image from a camera for sensing the face image of the target user, a microphone for sensing the voice of the target user, and a user DB, , based on the user information, comprising a control unit for confirming the authority of the target user for the target function corresponding to the voice, the control unit, based on the verification result, can perform control related to the target function have.

나아가, 본 발명에 따른 전자기기에서 하나 이상의 프로세스에 의하여 실행되며, 컴퓨터로 판독될 수 있는 매체에 저장 가능한 프로그램은, 카메라를 이용하여, 타겟 유저의 얼굴 이미지를 센싱하는 단계, 마이크를 이용하여, 상기 타겟 유저의 음성을 센싱하는 단계, 사용자 DB로부터 상기 얼굴 이미지에 대응되는 상기 타겟 유저의 사용자 정보를 추출하는 단계, 상기 사용자 정보에 근거하여, 상기 음성에 대응되는 타겟 기능에 대한 상기 타겟 유저의 권한을 확인하는 단계 및 확인 결과에 근거하여, 상기 타겟 기능과 관련된 제어를 수행하는 단계를 수행하도록 하는 명령어들을 포함할 수 있다.Furthermore, the program, which is executed by one or more processes in the electronic device according to the present invention, and can be stored in a computer-readable medium, uses a camera to sense a face image of a target user, using a microphone, Sensing the voice of the target user, extracting user information of the target user corresponding to the face image from the user DB, based on the user information, the target user for the target function corresponding to the voice It may include instructions for performing the step of checking the authority and performing the control related to the target function based on the check result.

위에서 살펴본 것과 같이, 본 발명에 따른 어시스턴트 서비스 제공 방법 및 시스템은, 얼굴 인식을 활용하여, 인식된 사용자에게 제공 가능한 맞춤형 기능을 제공할 수 있다. 더 나아가 본 발명은 얼굴 인식 뿐만 아니라, 얼굴 인식과 함께 음성 인식 수행함으로써, 인식된 사용자가 발화한 음성에 따른 기능을 제공할 수 있다. 따라서, 사용자는 어시스턴트 서비스를 제공하는 전자기기 주변에서 발화를 하는 것 만으로도, 목적하고자 하는 기능의 수행을 제공받을 수 있다. As described above, the method and system for providing an assistant service according to the present invention can provide a customized function that can be provided to a recognized user by utilizing face recognition. Furthermore, according to the present invention, a function according to the recognized user's voice can be provided by performing voice recognition together with face recognition as well as face recognition. Accordingly, the user can be provided with the performance of a desired function simply by uttering a speech around the electronic device that provides the assistant service.

나아가, 본 발명에 따른 어시스턴트 서비스 제공 방법 및 시스템은, 카메라를 이용하여 인증의 대상이 되는 사용자를 센싱하고, 센싱된 사용자의 권한을 확인함으로써, 사용자가 갖는 권한 내에 존재하는 기능의 제공을 보조할 수 있다. 이 경우, 본 발명에서는, 사용자가 요청한 기능이 사용자의 권한 내에 존재하지 않는 경우, 사용자의 권한 내에 존재하는 유사한 기능의 제공을 추천함으로써, 사용자의 편의성을 높일 수 있다.Furthermore, the method and system for providing an assistant service according to the present invention sense a user to be authenticated using a camera and check the sensed user's authority, thereby assisting in providing a function existing within the user's authority. can In this case, in the present invention, when the function requested by the user does not exist within the user's authority, the user's convenience can be improved by recommending provision of a similar function existing within the user's authority.

도 1은 본 발명에 따른 어시스턴트 서비스 시스템을 설명하기 위한 개념도이다.
도 2는 본 발명에 따른 어시스턴트 서비스 방법을 설명하기 위한 흐름도이다.
도 3, 도 4a, 도 4b, 도 5a, 도 5b, 도 6, 도 7 및 도 8은 본 발명에 따른 어시스턴트 서비스 방법 및 시스템을 설명하기 위한 개념도들이다.
도 9, 도 10 및 도 11은 본 발명에 따른 어시스턴트 서비스의 활용예를 설명하기 위한 개념도들이다.
1 is a conceptual diagram illustrating an assistant service system according to the present invention.
2 is a flowchart illustrating an assistant service method according to the present invention.
3, 4A, 4B, 5A, 5B, 6, 7, and 8 are conceptual diagrams for explaining an assistant service method and system according to the present invention.
9, 10, and 11 are conceptual diagrams for explaining an example of application of the assistant service according to the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소에는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, the embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but the same or similar components will be given the same reference numerals regardless of reference numerals, and redundant descriptions thereof will be omitted. The suffixes "module" and "part" for components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves. In addition, in describing the embodiments disclosed in the present specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed herein is not limited by the accompanying drawings, and all changes included in the spirit and scope of the present invention , should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers such as first, second, etc. may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being “connected” or “connected” to another component, it may be directly connected or connected to the other component, but it is understood that other components may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expression includes the plural expression unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, terms such as “comprises” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

본 발명은 사용자에게 편의기능을 제공할 수 있는 어시스턴트 서비스(assistant service) 제공 방법 및 시스템에 관한 것으로서, 사용자가 전자기기 주변에 위치하는 것 만으로도, 사용자가 의도한 기능을 보조할 수 있는 방법을 제안한다.The present invention relates to a method and system for providing an assistant service capable of providing a convenient function to a user, and proposes a method in which a user can assist a user's intended function simply by being located around an electronic device. do.

이하 첨부된 도면과 함께 본 발명에 대해 구체적으로 설명하기로 한다. 도 1은 본 발명에 따른 어시스턴트 서비스 시스템을 설명하기 위한 개념도이고, 도 2는 본 발명에 따른 어시스턴트 서비스 방법을 설명하기 위한 흐름도이다. 나아가, 도 3, 도 4a, 도 4b, 도 5a, 도 5b, 도 6, 도 7 및 도 8은 본 발명에 따른 어시스턴트 서비스 방법 및 시스템을 설명하기 위한 개념도들이다. 그리고, 도 9, 도 10 및 도 11은 본 발명에 따른 어시스턴트 서비스의 활용예를 설명하기 위한 개념도들이다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. 1 is a conceptual diagram illustrating an assistant service system according to the present invention, and FIG. 2 is a flowchart illustrating an assistant service method according to the present invention. Furthermore, FIGS. 3, 4A, 4B, 5A, 5B, 6, 7, and 8 are conceptual diagrams for explaining the assistant service method and system according to the present invention. 9, 10, and 11 are conceptual diagrams for explaining an example of application of the assistant service according to the present invention.

도 1에 도시된 것과 같이, 본 발명에 따른 어시스턴트 서비스 시스템(100)은, 통신부(110), 저장부(120) 및 제어부(130) 중 적어도 하나를 포함하도록 구성될 수 있다. 이때 본 발명에 따른 어시스턴트 서비스 시스템(100)은 상술한 구성 요소로 제한되는 것은 아니며, 본 명세서의 설명에 따른 기능과 동일 또는 유사한 역할을 수행하는 구성요소를 더 포함할 수 있다.1 , the assistant service system 100 according to the present invention may be configured to include at least one of a communication unit 110 , a storage unit 120 , and a control unit 130 . In this case, the assistant service system 100 according to the present invention is not limited to the above-described components, and may further include components that perform the same or similar roles as those described in the present specification.

본 발명에 따른 어시스턴트 서비스 시스템(100)은 전자기기(10)와 연동되어 동작할 수 있다. 여기서 전자기기(10)는, 스마트폰(smart phone), 휴대폰, 태블릿 PC, 키오스크(KIOSK), 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), 및 PMP(Portable Multimedia Player) 중 적어도 하나를 포함할 수 있다.The assistant service system 100 according to the present invention may operate in conjunction with the electronic device 10 . Here, the electronic device 10 includes at least one of a smart phone, a mobile phone, a tablet PC, a kiosk, a computer, a notebook computer, a digital broadcasting terminal, a personal digital assistant (PDA), and a portable multimedia player (PMP). may include.

한편, 본 발명에 따른 어시스턴트 서비스 시스템(100)은, 애플리케이션 또는 소프트웨어로 구현될 수 있다. 이때, 어시스턴트 서비스 시스템(100)에 따른 애플리케이션 또는 소프트웨어는, 전자기기(10)에 설치되어, 이하에서 설명되는 어시스턴트 서비스 제공 방법에 따른 프로세스를 수행할 수 있다.Meanwhile, the assistant service system 100 according to the present invention may be implemented as an application or software. In this case, the application or software according to the assistant service system 100 may be installed in the electronic device 10 and perform a process according to the assistant service providing method described below.

예를 들어, 본 발명에 따른 어시스턴트 서비스 시스템(100)의 통신부(110), 저장부(120) 및 제어부(130)는, 전자기기(10)의 하드웨어 구성을 활용하여, 본 발명에 따른 어시스턴트 서비스와 관련된 일련의 기능을 수행할 수 있다. 예를 들어, 통신부(110)는 전자기기(10)의 통신부에 구비된 통신 모듈(예를 들어, 이동통신 모듈, 근거리 통신 모듈, 무선 인터넷 모듈, 위치정보 모듈, 방송 수신 모듈 등)의 구성을 이용하여, 적어도 하나의 외부 서버(예를 들어, 도 1에 도시된 데이터베이스(database: DB) 서버(140) 또는 클라우드 서버 등)와 데이터를 송수신할 수 있다.For example, the communication unit 110 , the storage unit 120 , and the control unit 130 of the assistant service system 100 according to the present invention utilize the hardware configuration of the electronic device 10 to provide an assistant service according to the present invention. A series of related functions can be performed. For example, the communication unit 110 configures a communication module (eg, a mobile communication module, a short-range communication module, a wireless Internet module, a location information module, a broadcast reception module, etc.) provided in the communication unit of the electronic device 10 . By using it, data may be transmitted/received to and from at least one external server (eg, the database (DB) server 140 or cloud server shown in FIG. 1 ).

나아가 저장부(120)는 전자기기(10)에 구비된(또는 삽입된) 메모리 또는 클라우드 서버를 이용하여, 본 발명에 따른 어시스턴트 서비스와 관련된 데이터를 저장하도록 이루어질 수 있다.Furthermore, the storage unit 120 may be configured to store data related to the assistant service according to the present invention by using a memory provided (or inserted) in the electronic device 10 or a cloud server.

제어부(130)는, 전자기기(10)에 구비된 CPU 및 클라우드 서버 중 적어도 하나를 활용하여, 각 구성에 대한 제어 및 본 발명과 관련된 전반적인 제어를 수행할 수 있다. 나아가, 제어부(130)는 본 발명을 수행하기 위하여, 전자기기(10)의 구성 중 적어도 하나에 대한 제어 권한을 가질 수 있다. 나아가, 제어부(130)는 전자기기(10)의 구성 요소에서 수신되거나, 센싱된 정보를 본 발명을 위하여 활용할 수 있다. 예를 들어, 제어부(130)는 전자기기(10)의 카메라(11)로부터 수신되는 영상 및 마이크(13)를 통해 수신되는 음성에 기반하여, 본 발명에 따른 어시스턴트 서비스를 수행할 수 있다.The controller 130 may utilize at least one of a CPU and a cloud server provided in the electronic device 10 to perform control of each configuration and overall control related to the present invention. Furthermore, in order to carry out the present invention, the controller 130 may have control authority for at least one of the components of the electronic device 10 . Furthermore, the controller 130 may utilize information received or sensed from the components of the electronic device 10 for the present invention. For example, the controller 130 may perform the assistant service according to the present invention based on an image received from the camera 11 of the electronic device 10 and a voice received through the microphone 13 .

한편, 제어부(130)는 인공지능, 머신러닝 또는 딥러닝 기반으로, 학습 및 추론에 근거하여 본 발명에 따른 어시스턴스 서비스를 제공할 수 있다.Meanwhile, the controller 130 may provide an assistance service according to the present invention based on artificial intelligence, machine learning, or deep learning, based on learning and inference.

나아가, 제어부(130)는 전자기기(10)의 디스플레이부(12)를 이용하여, 본 발명과 관련된 정보를 출력하도록 이루어질 수 있다. 이때, 디스플레이부(12)는 사용자 입력을 수신할 수 있는 터치스크린(touch screen)으로 구현될 수 있다.Furthermore, the control unit 130 may be configured to output information related to the present invention by using the display unit 12 of the electronic device 10 . In this case, the display unit 12 may be implemented as a touch screen capable of receiving a user input.

이 외에도, 제어부(130)는 전자기기(10)에 구비된 다른 구성 요소(예를 들어, 근접 센서, 적외선 센서, 입력부 등)를 이용하여 본 발명에 따른 어시스턴트 서비스를 수행할 수 있다.In addition, the controller 130 may perform the assistant service according to the present invention by using other components (eg, a proximity sensor, an infrared sensor, an input unit, etc.) provided in the electronic device 10 .

한편, 도 1에 의하면, 어시스턴트 시스템(100)의 구성요소로서, 통신부(110), 저장부(120) 및 제어부(130)를 포함하였으나, 본 발명에 따른 어시스턴트 시스템(100)은, 전자기기의 구성요소 중 적어도 하나(예를 들어, 카메라(11), 디스플레이부(12), 마이크(13) 등)를 구성요소로서 포함할 수 있음은 물론이다.Meanwhile, according to FIG. 1 , as components of the assistant system 100 , the communication unit 110 , the storage unit 120 , and the control unit 130 were included. However, the assistant system 100 according to the present invention is an electronic device. It goes without saying that at least one of the components (eg, the camera 11 , the display unit 12 , the microphone 13 , etc.) may be included as a component.

한편, 본 발명에 따른 어시스턴트 서비스 시스템(100)은 프로그램 또는 어플리케이션의 형태로 존재하는 것 뿐만 아니라, 이하에서 설명되는 구성 및 기능의 수행이 가능한 다양한 형태로 존재할 수 있다.Meanwhile, the assistant service system 100 according to the present invention may exist not only in the form of a program or an application, but may also exist in various forms in which configurations and functions described below can be performed.

이에, 이하에서는, 이에 대한 엄격한 제한을 두지 않고, 본 발명에 따른 어시스턴트 서비스 시스템(100)에 대하여 설명하도록 한다.Accordingly, hereinafter, the assistant service system 100 according to the present invention will be described without any strict limitations thereon.

도 1에 도시된 것과 같이, 본 발명에 따른 어시스턴트 서비스 시스템(100)은 전자기기(10)의 카메라(11)를 이용하여, 사용자를 센싱하고, 센싱된 사용자에 대한 어시스턴트 서비스를 수행하도록 이루어질 수 있다.As shown in FIG. 1 , the assistant service system 100 according to the present invention senses a user using the camera 11 of the electronic device 10 and performs an assistant service for the sensed user. have.

설명의 편의를 위하여, 본 발명에서는 어시스턴트 서비스의 제공이 되는 사용자를 “타겟 유저(target user, 1000)”라고 명명하기로 한다.For convenience of description, in the present invention, a user who is provided with the assistant service will be referred to as a “target user (1000)”.

본 발명에서는 타겟 유저(1000)에 대해 타겟 기능을 수행하기 위하여, 타겟 유저(1000)에 대한 사용자 인증을 수행함으로써, 타겟 유저(1000)의 기 설정된 권한 내에서의 타겟 기능을 제공할 수 있다.In the present invention, in order to perform a target function for the target user 1000 , by performing user authentication for the target user 1000 , a target function within a preset authority of the target user 1000 may be provided.

본 발명에서, “사용자 인증”이란, 타겟 유저(1000)에 대한 사용자 인증(User Authentication)을 의미할 수 있다.In the present invention, “user authentication” may mean user authentication for the target user 1000 .

본 발명에서는, “사용자 인증”을 이용하여, “타겟 기능”과 관련된 일련의 제어를 수행할 수 있다.In the present invention, a series of controls related to a “target function” may be performed using “user authentication”.

여기에서, “타겟 기능”의 종류는 매우 다양할 수 있으며, 예를 들어, 장소에 대한 예약 기능(예를 들어, 회의실 예약, 식당 예약 등), 결제 기능, 출석 확인 기능, 병원에서의 내원 확인, 주문 기능(예를 들어, 카페에서의 음료 주문 등), 전자장치 제어 기능(예를 들어, 회의실에 구비된 전자장치(예를 들어, TV, 스피커, 조명 등), 주차장에서의 차량 찾기 기능 등과 같이, 사용자의 편의를 위하여 제공될 수 있는 다양한 기능을 의미할 수 있다.Here, the type of “target function” may be very diverse, for example, a reservation function for a place (eg, a conference room reservation, a restaurant reservation, etc.), a payment function, an attendance confirmation function, a visit confirmation at a hospital , ordering function (eg, ordering a drink in a cafe, etc.), electronic device control function (eg, electronic device provided in the conference room (eg, TV, speaker, lighting, etc.), vehicle finding function in the parking lot It may mean various functions that may be provided for the convenience of the user, such as.

한편, 전자장치 제어 기능은 회의실, 카페 등과 같은 특정 공간에 구비된 전자장치를 제어하기 위한 기능을 포함할 수 있다. 이러한 전자장치에 대한 제어는, 사물인터넷(Internet of Things(IoT)) 기반의 제어를 이용할 수 있다. 전자장치 제어 기능은, 위에서 살펴본 TV, 스피커, 조명에 대한 제어 외에, 에어컨 제어, 프로젝터 제어 등이 추가적으로 존재할 수 있다.Meanwhile, the electronic device control function may include a function for controlling an electronic device provided in a specific space, such as a conference room or a cafe. Control of such an electronic device may use Internet of Things (IoT)-based control. The electronic device control function may additionally include an air conditioner control, a projector control, and the like, in addition to the control of the TV, the speaker, and the lighting described above.

이러한, 전자장치 제어 기능은, 전자기기(10)에 구비된 마이크(13)를 통해 입력되는 음성 명령어를 통하여 활성화 또는 비활성화될 수 있다.This electronic device control function may be activated or deactivated through a voice command input through the microphone 13 provided in the electronic device 10 .

제어부(130)는 “불꺼줘”, “조명 켜줘”, “에어컨 틀어줘” 등과 같은 음성 명령어가 수신되면, 수신된 음성 명령어에 대응되는 전자장치에 대한 제어명령을 생성하고, 대응되는 전자장치에 제어명령을 전송함으로써, 전자장치에 대한 제어를 수행할 수 있다.When a voice command such as “Turn off the lights”, “Turn on the lights”, “Turn on the air conditioner” is received, the controller 130 generates a control command for the electronic device corresponding to the received voice command, and sends the control command to the corresponding electronic device. By transmitting the control command, it is possible to control the electronic device.

본 발명에서 제어부(130)는, 카메라(11)를 통해 수신되는 영상에서, 타겟 유저(1000)의 얼굴 이미지를 획득하고, 사용자 DB에 저장된 상기 얼굴 이미지에 대응되는 사용자 정보를 이용하여, 상기 타겟 유저(1000)에 대한 어시스턴트 서비스를 수행할 수 있다.In the present invention, the controller 130 obtains a face image of the target user 1000 from the image received through the camera 11, and uses user information corresponding to the face image stored in the user DB, An assistant service for the user 1000 may be performed.

이때, 상기 사용자 인증의 대상이 되는 타겟 기능은 다양한 기준에 근거하여 특정될 수 있다.In this case, the target function to be subjected to the user authentication may be specified based on various criteria.

일 예로서, 제어부(130)는 전자기기(10)가 설치된 장소에 따라, 타겟 기능을 특정할 수 있다. 예를 들어, 도 1에 도시된 것과 같이, 전자기기(10)가 회의실 주변에 배치된 경우, 제어부(130)는 타겟 기능으로서, 장소 예약(예를 들어, 회의실 예약) 기능을 특정할 수 있다. 그리고, 도 10에 도시된 것과 같이, 전자기기(10)가 주차장 주변에 배치된 경우, 제어부(130)는 타겟 기능으로서, 타겟 유저의 차량이 주차된 위치를 검색하는 기능을 특정할 수 있다. 한편, 타겟 기능으로서, 어떤 기능을 특정할지 여부는, 사전에 전자기기(10)가 배치된 위치에 근거하여, 결정되어 존재할 수 있다.As an example, the controller 130 may specify a target function according to a place where the electronic device 10 is installed. For example, as shown in FIG. 1 , when the electronic device 10 is disposed around a conference room, the control unit 130 may specify a place reservation (eg, conference room reservation) function as a target function. . And, as shown in FIG. 10 , when the electronic device 10 is disposed around a parking lot, the control unit 130 may specify a function of searching for a location where the target user's vehicle is parked as a target function. On the other hand, as the target function, whether or not to specify which function may exist may be determined in advance based on the location where the electronic device 10 is disposed.

다른 예로서, 제어부(130)는 마이크(13)를 통해 수신되는 음성에 기반하여, 타겟 기능을 특정할 수 있다. 제어부(130)는 전자기기(10) 주변에 위치한 타겟 유저(1000)의 얼굴 이미지를 센싱하는 것과 함께, 타겟 유저(1000)의 마이크(13)를 통해, 타겟 유저(1000)의 음성 정보 수신할 수 있다.As another example, the controller 130 may specify a target function based on a voice received through the microphone 13 . The control unit 130 senses the face image of the target user 1000 located around the electronic device 10 and receives voice information of the target user 1000 through the microphone 13 of the target user 1000 . can

제어부(130)는 기 설정된 자연어 처리(Natural Language Processing) 알고리즘에 근거하여, 마이크(13)를 통해 센싱된(또는 수신된) 음성(또는 음성 정보)정보를 분석할 수 있다. 그리고 제어부(130)는 분석에 근거하여, 수신된 음성으로부터 타겟 기능을 특정할 수 있다. 제어부(130)는 음성에 포함된 키워드 또는 명령어에 근거하여, 타겟 기능을 특정할 수 있다.The controller 130 may analyze voice (or voice information) information sensed (or received) through the microphone 13 based on a preset natural language processing algorithm. In addition, the controller 130 may specify a target function from the received voice based on the analysis. The controller 130 may specify a target function based on a keyword or command included in the voice.

또 다른 예로서, 제어부(130)는 전자기기(10)에 대한 사용자 입력에 근거하여, 타겟 기능을 특정할 수 있다. 이때의 사용자 입력은 터치 스크린이 구비된 디스플레이부(12) 또는 다른 사용자 입력 수단을 통하여 입력되는 사용자 입력일 수 있다. 제어부(130)는 이러한 사용자 입력에 근거하여, 타겟 기능을 특정할 수 있다.As another example, the controller 130 may specify a target function based on a user input to the electronic device 10 . In this case, the user input may be a user input input through the display unit 12 provided with a touch screen or other user input means. The controller 130 may specify a target function based on such a user input.

또 다른 예로서, 제어부(130)는 타겟 유저의 사용자 정보에 포함된 타겟 유저의 스케줄에 근거하여, 적절한 기능을 타겟 기능으로서 특정할 수 있다.As another example, the controller 130 may specify an appropriate function as the target function based on the target user's schedule included in the target user's user information.

이외에도, 타겟 기능은 다양한 방식으로 특정될 수 있으며, 본 발명에서는, 타겟 유저가 타겟 기능을 원활하게 수행 또는 제공받도록 어시스턴트 서비스를 제공할 수 있다.In addition, the target function may be specified in various ways, and in the present invention, an assistant service may be provided so that the target user may smoothly perform or receive the target function.

한편, 제어부(130)는, 상기 타겟 유저(1000)의 얼굴 이미지 및 상기 사용자 DB로부터 추출되는 사용자 정보를 이용하여, 타겟 기능에 대한 타겟 유저(1000)의 권한을 확인하고, 타겟 유저(1000)의 권한 내에서 타겟 기능에 대한 어시스턴트 서비스를 수행할 수 있다.Meanwhile, the control unit 130 uses the face image of the target user 1000 and user information extracted from the user DB to confirm the authority of the target user 1000 for the target function, and the target user 1000 You can perform an assistant service for the target function within the authority of .

또한, 제어부(130)는 타겟 유저(100)의 사용자 정보를, 타겟 기능의 수행에 활용할 수 있다. 예를 들어, 타겟 기능이 출석 체크 기능인 경우, 제어부(130)는, 타겟 유저(1000)의 사용자 정보에 근거하여, 타겟 유저(1000) 대한 출석 체크 승인 처리 또는 출석 체크 거절 처리 중 어느 하나를 수행할 수 있다.Also, the controller 130 may utilize user information of the target user 100 to perform a target function. For example, when the target function is an attendance check function, the controller 130 performs either an attendance check approval process or an attendance check rejection process for the target user 1000 based on the user information of the target user 1000 . can do.

또 다른 예로서, 타겟 기능이 결제 기능인 경우, 제어부(130)는, 타겟 유저(1000)의 사용자 정보를 이용하여, 결제 대상 금액에 대해 결제 승인 처리 또는 결제 거절 처리 중 어느 하나를 수행할 수 있다.As another example, when the target function is a payment function, the control unit 130 may perform either payment approval processing or payment rejection processing on the payment target amount using user information of the target user 1000 . .

한편, 타겟 유저(1000)이 사용자 정보는, 타겟 유저(1000)와 관련된 다양한 정보로서, 제어부(130)는, 카메라(11)를 통해 수신된 영상에서, 타겟 유저(1000)의 얼굴 이미지를 추출하고, 사용자 DB로부터, 상기 추출된 얼굴 이미지와 대응되는(또는 매칭된) 사용자 정보를 추출할 수 있다.Meanwhile, the user information of the target user 1000 is various information related to the target user 1000 , and the controller 130 extracts a face image of the target user 1000 from the image received through the camera 11 . and extracting user information corresponding to (or matched with) the extracted face image from the user DB.

여기에서, 사용자 DB는, “사용자와 관련된 정보”, “사용자의 신상정보” 또는 “사용자의 식별정보”라고도 명명될 수 있다.Here, the user DB may also be named “user-related information”, “user personal information” or “user identification information”.

사용자 DB는, 저장부(120), 외부 데이터베이스(140) 및 클라우드 서버 중 적어도 하나에 포함될 수 있다.The user DB may be included in at least one of the storage unit 120 , the external database 140 , and the cloud server.

제어부(130)는, 사용자 DB로부터 타겟 유저(1000)의 얼굴 이미지와 대응되는 인물을 검색하고, 검색된 인물에 매칭된 사용자 정보를 추출할 수 있다.The controller 130 may search for a person corresponding to the face image of the target user 1000 from the user DB, and extract user information matched with the searched person.

사용자 DB에는 개별 인물(또는 사람) 단위로, 각각의 인물에 대한 사용자 정보가 저장될 수 있다. 즉, 사용자 DB에는, 서로 다른 인물 마다 각각에 대응되는 사용자 정보가 매칭되어 저장될 수 있다.In the user DB, user information for each person may be stored on a per person (or person) basis. That is, user information corresponding to each different person may be matched and stored in the user DB.

여기에서, 사용자 정보는, 각각의 인물에 해당하는 사람의 이름, 생년월일, 주소, 전화번호, 메일 주소, 계정 정보, 사번, ID, 얼굴 이미지, 생체 정보(예를 들어, 지문 정보, 홍채 정보 등), 특정 기능(또는 특정 이벤트)에 대한 권한 정보, 참조 얼굴 이미지, 전자기기의 식별 정보, 일정(스케줄, schedule), 근무 부서, 직책, 직함, 직위, 결제 정보(예를 들어, 계좌번호, 신용카드 정보 등)등과 관련된 정보 중 적어도 하나를 포함할 수 있다.Here, the user information includes a person's name, date of birth, address, phone number, e-mail address, account information, employee number, ID, face image, and biometric information (eg, fingerprint information, iris information, etc.) corresponding to each person. ), permission information for a specific function (or specific event), reference face image, identification information of electronic devices, schedule (schedule), work department, title, title, position, payment information (eg, account number, credit card information, etc.) and the like).

여기에서, 참조 얼굴 이미지는, 특정 인물에 대한 얼굴 이미지로서, 하나 또는 복수 일 수 있다. 본 발명에서, “참조 얼굴 이미지”는 “참조 데이터”로도 명명될 수 있다.Here, the reference face image may be one or a plurality of face images for a specific person. In the present invention, the “reference face image” may also be referred to as “reference data”.

제어부(130)는, 카메라(11)를 통해 획득된 타겟 유저의 얼굴 이미지와, 사용자 DB에 저장된 참조 얼굴 이미지를 비교하여, 상기 타겟 유저의 얼굴 이미지와 대응되는 참조 얼굴 이미지에 매칭된 인물을 검색할 수 있다. 그리고, 제어부(130)는 검색된 인물을 상기 타겟 유저로 특정하고, 상기 검색된 인물에 매칭된 사용자 정보를 사용자 DB로부터 추출할 수 있다.The controller 130 compares the target user's face image obtained through the camera 11 with the reference face image stored in the user DB, and searches for a person matching the reference face image corresponding to the target user's face image can do. Then, the controller 130 may specify the searched person as the target user, and extract user information matched with the searched person from the user DB.

그리고, 제어부(130)는 추출된 사용자 정보를 이용하여, 타겟 기능에 대한 어시스턴트 서비스를 수행할 수 있다.In addition, the controller 130 may perform an assistant service for a target function by using the extracted user information.

도 1에 도시된 것과 같이, 전자기기(10)는 임의의 장소에 배치될 수 있으며, 타겟 유저(1000)는 전자기기(10)에 주변에 위치하는 것 만으로도, 어시스턴트 서비스를 수행할 수 있다. As shown in FIG. 1 , the electronic device 10 may be disposed at any location, and the target user 1000 may perform an assistant service just by being located in the vicinity of the electronic device 10 .

이하에서는, 흐름도와 함께 본 발명에 따른 어시스턴트 서비스 제공 방법에 대하여 보다 구체적으로 살펴본다.Hereinafter, an assistant service providing method according to the present invention will be described in more detail along with a flowchart.

먼저, 도 2에 도시된 것과 같이, 본 발명에 따른 어시스턴트 서비스 제공 방법에 의하면, 카메라(11)를 이용하여, 타겟 유저의 얼굴 이미지를 센싱하는 과정이 진행될 수 있다(S210).First, as shown in FIG. 2 , according to the method for providing an assistant service according to the present invention, a process of sensing a face image of a target user using the camera 11 may be performed ( S210 ).

즉, 제어부(130)는, 전자기기(10)의 카메라(11, 도 1 참조)를 이용하여, 카메라(11)로부터 수신된 영상에서 타겟 유저의 얼굴 이미지를 검출할 수 있다.That is, the controller 130 may detect the face image of the target user from the image received from the camera 11 by using the camera 11 (refer to FIG. 1 ) of the electronic device 10 .

보다 구체적으로 도 3의 (a) 및 도 4a에 도시된 것과 같이, 제어부(130)는, 전자기기(10) 주변에 위치한 타겟 유저(1000)의 얼굴을, 카메라(11)를 통해 센싱할 수 있다. More specifically, as shown in FIGS. 3A and 4A , the controller 130 may sense the face of the target user 1000 located in the vicinity of the electronic device 10 through the camera 11 . have.

제어부(130)는, 카메라(11)를 통해 수신되는 영상에서, 타겟 유저(1000)의 얼굴 이미지(410)를 획득하고, 상기 얼굴 이미지에 대응되는 사용자 DB에 저장된 사용자 정보를 이용하여, 상기 타겟 유저(1000)에 대한 어시스턴트 서비스를 수행할 수 있다.The controller 130 obtains a face image 410 of the target user 1000 from the image received through the camera 11, and uses the user information stored in the user DB corresponding to the face image, An assistant service for the user 1000 may be performed.

제어부(130)는, 카메라(11)를 통해 수신되는 영상에서 타겟 유저(1000)의 얼굴 이미지가 검출되면, 어시스턴트 서비스를 위한 일련의 프로세스를 진행할 수 있다.When the face image of the target user 1000 is detected from the image received through the camera 11 , the controller 130 may perform a series of processes for the assistant service.

카메라(11)를 통해 타겟 유저(1000)의 얼굴 이미지가 센싱 또는 검출되는 시점은 매우 다양할 수 있다.The timing at which the face image of the target user 1000 is sensed or detected through the camera 11 may be very diverse.

일 예로서, 제어부(130)는 전자기기(10)에 대해 사용자 입력이 인가된 경우, 타겟 유저(1000)의 얼굴이 촬영될 수 있도록 카메라(11)를 제어할 수 있다. 여기에서, 사용자 입력은, 전자기기(10)에 대한 물리적인 접촉에 따른 입력 또는 음성을 이용한 입력 등 다양한 방식의 입력일 수 있다.As an example, when a user input is applied to the electronic device 10 , the controller 130 may control the camera 11 to photograph the face of the target user 1000 . Here, the user input may be an input according to a physical contact to the electronic device 10 or an input using a voice input using various methods.

다른 예로서, 제어부(130)는 도 3에 도시된 것과 같이, 전자기기(10) 주변에, 사람이 위치한 것이 감지되는 경우, 카메라(10)를 통해, 타겟 유저(1000)에 대한 영상이 수신되도록 카메라(10)를 제어할 수 있다. 이때, 제어부(130)는 전자기기(10)를 기준으로 기 설정된 범위(또는 거리)이내에, 타겟 유저(1000)가 위치한 경우, 타겟 유저(1000)의 얼굴 이미지가 검출되도록 카메라(10)를 제어할 수 있다. 제어부(130)는, 전자기기(10)에 구비된 적어도 하나의 센서(예를 들어, 근접 센서, 적외선 센서 또는 라이다 센서 등)를 이용하여, 전자기기(10) 주변에 또는 전자기기(10)를 기준으로 기 설정된 범위 내에 타겟 유저가 위치하는 것을 센싱(또는 감지)할 수 있다. As another example, as shown in FIG. 3 , when it is sensed that a person is located around the electronic device 10 , the controller 130 receives an image of the target user 1000 through the camera 10 . The camera 10 can be controlled as much as possible. In this case, the controller 130 controls the camera 10 to detect a face image of the target user 1000 when the target user 1000 is located within a preset range (or distance) based on the electronic device 10 . can do. The control unit 130 uses at least one sensor (eg, a proximity sensor, an infrared sensor, or a lidar sensor) provided in the electronic device 10 , to the vicinity of the electronic device 10 or to the electronic device 10 . ), it is possible to sense (or sense) that the target user is located within a preset range.

한편, 제어부(130)는 상기 전자기기(10)의 기 설정된 범위 이내에, 타겟 유저(1000)가 위치하지 않는 경우, 전자기기(10)의 디스플레이부(12)가 비활성화되도록, 디스플레이부(12)를 제어할 수 있다. 비활성화 상태의 디스플레이부(12)는 전원이 오프된 상태, 대기상태 및 절전 상태 중 적어도 하나의 상태일 수 있다. On the other hand, when the target user 1000 is not located within a preset range of the electronic device 10 , the control unit 130 controls the display unit 12 to deactivate the display unit 12 of the electronic device 10 . can control The display unit 12 in the inactive state may be in at least one of a power-off state, a standby state, and a power saving state.

나아가, 제어부(130)는 상기 전자기기(10)의 기 설정된 범위 이내에, 타겟 유저(1000)가 위치한 경우, 전자기기(10)의 디스플레이부(12)가 활성화되도록, 디스플레이부(12)를 제어할 수 있다. 이때, 디스플레이부(12)에는, 타겟 기능을 특정하는 방법에 대한 가이드 정보(예를 들어, “원하시는 기능을 말씀해주세요”)가 출력될 수 있다.Furthermore, the controller 130 controls the display unit 12 to activate the display unit 12 of the electronic device 10 when the target user 1000 is located within a preset range of the electronic device 10 . can do. In this case, guide information on a method of specifying a target function (eg, “Tell me a desired function”) may be output to the display unit 12 .

또 다른 예로서, 제어부(130)는 기 설정된 간격 또는 실시간으로 카메라(11)를 통해 수신되는 영상에, 타겟 유저(1000)의 얼굴 이미지가 포함되어 있는지를 판단할 수 있다. 그리고, 판단 결과, 카메라(11)를 통해 수신되는 영상에 타겟 유저(1000)의 얼굴 이미지가 포함된 경우, 타겟 기능과 관련된 어시스턴트 서비스를 위한 일련의 프로세스를 진행할 수 있다.As another example, the controller 130 may determine whether the face image of the target user 1000 is included in the image received through the camera 11 at a preset interval or in real time. And, as a result of the determination, when the face image of the target user 1000 is included in the image received through the camera 11 , a series of processes for the assistant service related to the target function may be performed.

또 다른 예로서, 제어부(130)는 전자기기(10)에 구비된 마이크(13)를 통하여, 소리(또는 음성)이 센싱되는 경우, 카메라(11)를 활성화시킬 수 있다. 즉, 제어부(130)는 마이크(13)를 통하여, 사람의 소리가 센싱되는 경우, 전자기기(10) 주변에, 사람이 위치했다고 판단하고, 카메라(11)라를 활성화시킬 수 있다.As another example, when a sound (or voice) is sensed through the microphone 13 provided in the electronic device 10 , the controller 130 may activate the camera 11 . That is, when a sound of a person is sensed through the microphone 13 , the controller 130 may determine that a person is located around the electronic device 10 and activate the camera 11 .

또 다른 예로서, 제어부(130)는 도 4b에 도시된 것과 같이, 전자기기(10)에 구비된 기능 아이콘(450)이 선택되는 것에 근거하여, 카메라(11)를 활성화시킬 수 있다. 이러한 기능 아이콘(450)에는, 본 발명에 따른 어시스턴스 서비스를 활성화하기 위한 기능이 매칭되어 존재할 수 있다. 기능 아이콘(450)은 전자기기(10)에 구비된 디스플레이부(12) 상에 출력될 수 있다. 제어부(130)는 사용자 등에 의하여, 기능 아이콘(450)이 터치 등의 방식으로 선택되는 경우, 본 발명에 따른 어시스턴스 서비스를 활성화할 수 있다. 이 경우, 어시스턴스 서비스의 활성화에 근거하여 카메라(11)가 활성화될 수 있다. As another example, as shown in FIG. 4B , the controller 130 may activate the camera 11 based on selection of the function icon 450 included in the electronic device 10 . A function for activating the assistance service according to the present invention may be matched to the function icon 450 . The function icon 450 may be output on the display unit 12 provided in the electronic device 10 . When the function icon 450 is selected by a user or the like by a method such as a touch, the controller 130 may activate the assistance service according to the present invention. In this case, the camera 11 may be activated based on the activation of the assistance service.

한편, 제어부(130)는 적어도 하나의 얼굴 인식 알고리즘을 이용하여, 카메라(11)에서 수신되는 영상에서 타겟 유저(1000)의 얼굴 이미지를 검출할 수 있다. 본 발명에서 활용되는 얼굴 인식 알고리즘은 그 종류에 제한이 없으며, 인공지능 또는 딥러닝을 기반으로 동작하는 알고리즘 또한 활용될 수 있다.Meanwhile, the controller 130 may detect the face image of the target user 1000 from the image received from the camera 11 by using at least one face recognition algorithm. The face recognition algorithm utilized in the present invention is not limited in its type, and algorithms operating based on artificial intelligence or deep learning may also be utilized.

한편, 제어부(130)는 카메라(11)를 통해, 타겟 유저(100)의 얼굴 이미지가 검출된 경우라도, 검출된 얼굴 이미지가, 어시스턴트 서비스를 수행하기 위한 기 설정된 조건(또는 기 설정된 인증 조건)을 만족하지 못하는 경우, 상기 기 설정된 조건을 만족하는 얼굴 이미지를 획득하기 위한 가이드 정보를 제공할 수 있다. On the other hand, even when the face image of the target user 100 is detected through the camera 11 , the controller 130 determines that the detected face image is a preset condition (or preset authentication condition) for performing the assistant service. is not satisfied, guide information for obtaining a face image that satisfies the preset condition may be provided.

보다 구체적으로, 제어부(130)는, 카메라(11)에서 센싱되는 타겟 유저(1000)의 얼굴 이미지가, 상기 기 설정된 조건을 만족하는지 판단할 수 있다. 여기에서, 상기 기 설정된 조건은, 영상에 포함된 얼굴 이미지의 크기, 얼굴 이미지에 대응되는 얼굴의 각도, 영상에서의 얼굴 이미지의 위치 및 영상에서 얼굴의 생김새 특징 요소(예를 들어, 눈, 코, 입)의 포함 여부 중 적어도 하나와 관련될 수 있다.More specifically, the controller 130 may determine whether the face image of the target user 1000 sensed by the camera 11 satisfies the preset condition. Here, the preset conditions include the size of the face image included in the image, the angle of the face corresponding to the face image, the position of the face image in the image, and features of the face in the image (eg, eyes, nose). , mouth) or not).

제어부(130)는, 기 설정된 조건을 만족하는 얼굴 이미지가 획득될 수 있도록 타겟 유저(1000)의 자세 및 위치 등에 대한 정보 중 적어도 하나를 가이드 정보로서 출력할 수 있다. 가이드 정보는, 카메라(11)와 타겟 유저(1000) 사이의 상대 위치 및 상대 거리 중 적어도 하나와 관련될 수 있다. The controller 130 may output at least one of information on the posture and location of the target user 1000 as guide information so that a face image satisfying a preset condition can be obtained. The guide information may be related to at least one of a relative position and a relative distance between the camera 11 and the target user 1000 .

예를 들어, 제어부(130)는 i)전자기기를 기준으로 타겟 유저(1000)의 위치 정보(예를 들어, 더 가까이 와주세요, 더 뒤로 가주세요, 화면과의 거리를 맞춰주세요), ii)타겟 유저(1000)의 자세 정보(예를 들어, 화면을 봐주세요), iii) 타겟 유저(1000)의 얼굴이 물체(예를 들어, 마스크)에 의해 가려진 경우, 이를 제거하는 것을 권유하는 정보(예를 들어, 마스크를 벗어주세요)와 같은 가이드 정보를 제공할 수 있다.For example, the control unit 130 may i) location information of the target user 1000 based on the electronic device (eg, come closer, go further, please adjust the distance from the screen), ii) Posture information of the target user 1000 (eg, look at the screen), iii) Information recommending removal of the target user 1000's face when it is covered by an object (eg, a mask) (eg, For example, please take off your mask).

나아가, 본 발명에 따른 어시스턴트 서비스 제공 방법에서는, 마이크를 이용하여, 타겟 유저의 음성을 센싱하는 과정이 진행될 수 있다(S220).Furthermore, in the assistant service providing method according to the present invention, a process of sensing the target user's voice may be performed using a microphone ( S220 ).

본 발명에서, 카메라(11)를 통해 타겟 유저(1000)의 얼굴 이미지를 센싱하는 과정(S210) 및 마이크(13)를 이용하여, 타겟 유저의 음성을 센싱하는 과정(S220)은 전자기기(10) 상에서 동시에 이루어지는 것 또한 가능하다. 즉, 제어부(130)는 전자기기(10) 상에서, 카메라(11)를 통해 영상정보가 수신되는 시점, 마이크(13)를 통해 음성 정보가 수신되는 시점은 동일할 수 있다. 이 경우는, 타겟 유저(1000)가 전자기기(10) 주변에 위치하면서, 발화를 하는 경우에 해당한다.In the present invention, the process of sensing the face image of the target user 1000 through the camera 11 ( S210 ) and the process of sensing the voice of the target user using the microphone 13 ( S220 ) are performed by the electronic device 10 . ) at the same time is also possible. That is, on the electronic device 10 , the controller 130 may receive the image information through the camera 11 and the audio information through the microphone 13 at the same time. This case corresponds to a case where the target user 1000 speaks while being located near the electronic device 10 .

한편, 카메라(11)를 통해 타겟 유저(1000)의 얼굴 이미지를 센싱하는 과정(S210) 및 마이크(13)를 이용하여, 타겟 유저의 음성을 센싱하는 과정(S220)의 선후는 상황에 따라 자유롭게 변형될 수 있다. 즉, 카메라(11)를 통해 타겟 유저(1000)의 얼굴 이미지를 센싱하는 과정(S210)이 진행된 후, 마이크(13)를 이용하여, 타겟 유저의 음성을 센싱하는 과정(S220)되거나, 또는 이와 반대로, 마이크(13)를 이용하여, 타겟 유저의 음성을 센싱하는 과정(S220)이 진행된 후, 카메라(11)를 통해 타겟 유저(1000)의 얼굴 이미지를 센싱하는 과정(S210)이 진행될 수 있다.On the other hand, the process ( S210 ) of sensing the face image of the target user 1000 through the camera 11 and the process ( S220 ) of sensing the voice of the target user by using the microphone 13 are free according to the situation. can be deformed. That is, after the process (S210) of sensing the face image of the target user 1000 through the camera 11 is performed, the process of sensing the voice of the target user using the microphone 13 (S220), or Conversely, after the process ( S220 ) of sensing the target user's voice by using the microphone 13 is performed, the process ( S210 ) of sensing the face image of the target user 1000 through the camera 11 may be performed. .

한편, 마이크(13)를 이용하여, 타겟 유저의 음성을 센싱하는 과정은, 마이크를 통해 소리 정보를 수신하는 과정으로 이해되어 질 수 있다.Meanwhile, the process of sensing the target user's voice using the microphone 13 may be understood as a process of receiving sound information through the microphone.

제어부(130)는 자연어 처리 알고리즘에 근거하여, 마이크(13)를 통해 수신된 음성 정보를 분석하고, 분석결과에 근거하여 타겟 기능을 결정할 수 있다.The controller 130 may analyze the voice information received through the microphone 13 based on a natural language processing algorithm, and determine a target function based on the analysis result.

예를 들어, 도 3에 도시된 것과 같이, 타겟 유저(1000)는, 음성을 통하여, 타겟 기능에 대한 정보(예를 들어, “회의실 예약 부탁해”)를 발화할 수 있다. 제어부(130)는 이러한 음성이 수신되는 것에 근거하여, 음성에 대응되는 기능을 타겟 기능으로서 특정할 수 있다. 제어부(130)는 다양한 키워드에 각각 대응되는 기능 리스트와, 음성에 포함된 정보를 비교함으로써, 타겟 기능을 특정할 수 있다. 이러한 기능 리스트는 저장부(120)에 저장되어 존재할 수 있다.For example, as illustrated in FIG. 3 , the target user 1000 may utter information about the target function (eg, “reserve a conference room please”) through voice. The controller 130 may specify a function corresponding to the voice as a target function based on the reception of the voice. The controller 130 may specify the target function by comparing the function list corresponding to various keywords with information included in the voice. Such a function list may be stored in the storage unit 120 .

한편, 타겟 기능이 특정되는 경우, 디스플레이부(12) 상에는, 상기 음성에 대응되는 기능으로서 특정 기능이 결정되었음을 알리는 안내정보가 출력될 수 있다. 또한, 제어부(130)는 음향 출력부(또는 스피커)를 통하여, 안내 정보를 출력할 수 있다.Meanwhile, when a target function is specified, guide information indicating that a specific function has been determined as a function corresponding to the voice may be output on the display unit 12 . Also, the controller 130 may output guide information through the sound output unit (or speaker).

다음으로, 본 발명에서는 사용자 DB로부터, 검출된 얼굴 이미지에 대응되는 사용자 정보를 추출하는 과정이 진행될 수 있다(S230).Next, in the present invention, the process of extracting user information corresponding to the detected face image from the user DB may proceed (S230).

보다 구체적으로, 제어부(130)는, 카메라(11)를 통해 수신된 영상에서, 타겟 유저(1000)의 얼굴 이미지를 추출하고, 사용자 DB로부터, 상기 추출된 얼굴 이미지와 대응되는(또는 매칭된) 사용자 정보를 추출할 수 있다.More specifically, the controller 130 extracts the face image of the target user 1000 from the image received through the camera 11, and corresponds (or matches) the extracted face image from the user DB. User information can be extracted.

앞서 살펴본 것과 같이, 사용자 DB는, “사용자와 관련된 정보”, “사용자의 신상정보” 또는 “사용자의 식별정보”라고도 명명될 수 있다.As described above, the user DB may also be named “user-related information”, “user personal information” or “user identification information”.

사용자 DB는, 저장부(120), 외부 데이터베이스(140) 및 클라우드 서버 중 적어도 하나에 포함될 수 있다.The user DB may be included in at least one of the storage unit 120 , the external database 140 , and the cloud server.

제어부(130)는, 사용자 DB로부터 타겟 유저(1000)의 얼굴 이미지와 대응되는 인물을 검색하고, 검색된 인물에 매칭된 사용자 정보를 추출할 수 있다.The controller 130 may search for a person corresponding to the face image of the target user 1000 from the user DB, and extract user information matched with the searched person.

사용자 DB에는 개별 인물(또는 사람) 단위로, 각각의 인물에 대한 사용자 정보가 저장될 수 있다. 즉, 사용자 DB에는, 서로 다른 인물 마다 각각에 대응되는 사용자 정보가 매칭되어 저장될 수 있다.In the user DB, user information for each person may be stored on a per person (or person) basis. That is, user information corresponding to each different person may be matched and stored in the user DB.

여기에서, 사용자 정보는, 각각의 인물에 해당하는 사람의 이름, 생년월일, 주소, 전화번호, 메일 주소, 계정 정보, 사번, ID, 얼굴 이미지, 생체 정보(예를 들어, 지문 정보, 홍채 정보 등), 특정 기능(또는 특정 이벤트)에 대한 권한 정보, 참조 얼굴 이미지, 전자기기의 식별 정보, 일정(스케줄, schedule), 근무 부서, 직책, 직함, 직위, 결제 정보(예를 들어, 계좌번호, 신용카드 정보 등)등과 관련된 정보 중 적어도 하나를 포함할 수 있다.Here, the user information includes a person's name, date of birth, address, phone number, e-mail address, account information, employee number, ID, face image, and biometric information (eg, fingerprint information, iris information, etc.) corresponding to each person. ), permission information for a specific function (or specific event), reference face image, identification information of electronic devices, schedule (schedule), work department, title, title, position, payment information (eg, account number, credit card information, etc.) and the like).

여기에서, 참조 얼굴 이미지는, 특정 인물에 대한 얼굴 이미지로서, 하나 또는 복수 일 수 있다. 본 발명에서, “참조 얼굴 이미지”는 “참조 데이터”로도 명명될 수 있다.Here, the reference face image may be one or a plurality of face images for a specific person. In the present invention, the “reference face image” may also be referred to as “reference data”.

제어부(130)는, 카메라(11)를 통해 획득된 타겟 유저의 얼굴 이미지와, 사용자 DB에 저장된 참조 얼굴 이미지를 비교하여, 상기 타겟 유저의 얼굴 이미지와 대응되는 참조 얼굴 이미지에 매칭된 인물을 검색할 수 있다. 그리고, 제어부(130)는 검색된 인물을 상기 타겟 유저로 특정하고, 상기 검색된 인물에 매칭된 사용자 정보를 사용자 DB로부터 추출할 수 있다.The controller 130 compares the target user's face image obtained through the camera 11 with the reference face image stored in the user DB, and searches for a person matching the reference face image corresponding to the target user's face image can do. Then, the controller 130 may specify the searched person as the target user, and extract user information matched with the searched person from the user DB.

제어부(130)는 검출된 타겟 유저(1000)의 얼굴 이미지와 기 설정된 조건을 만족하는 유사도를 갖는 특정 참조 얼굴 이미지를 사용자 DB로부터 추출할 수 있다. 그리고, 추출된 상기 특정 참조 얼굴 이미지에 매칭된 인물을 상기 타겟 유저로서 특정할 수 있다.The controller 130 may extract the detected face image of the target user 1000 and a specific reference face image having a degree of similarity satisfying a preset condition from the user DB. In addition, a person matching the extracted specific reference face image may be specified as the target user.

제어부(130)는 타겟 유저(1000)에 대한 검색이 진행되는 동안, 전자기기(10)에 현재 진행 상황에 대한 안내 정보(예를 들어, “당신을 찾고 있습니다”)가 출력되도록 디스플레이부(12) 및 음향 출력부(예를 들어, 스피커 등)를 제어할 수 있다. While the search for the target user 1000 is in progress, the control unit 130 controls the display unit 12 to output guide information (eg, “I am looking for you”) on the current progress to the electronic device 10 . ) and a sound output unit (eg, a speaker, etc.) can be controlled.

도 4a에 도시된 것과 같이, 디스플레이부(12)에는, 카메라(11)를 통해 촬영된 영상이 출력될 수 있다. 이때, 출력되는 영상에는, 타겟 유저(1000)의 얼굴 이미지(410)가 포함될 수 있다.As shown in FIG. 4A , an image captured by the camera 11 may be output to the display unit 12 . In this case, the output image may include a face image 410 of the target user 1000 .

위에서 살펴본 것과 같이, 타겟 유저(1000)에 해당하는 인물이 특정되고, 특정된 인물(예를 들어, 이*리)에 대한 사용자 정보가 출력된 경우, 제어부(130)는 상기 사용자 정보 중 적어도 일부를 디스플레이부(12)에 제공할 수 있다.As described above, when a person corresponding to the target user 1000 is specified and user information for the specified person (eg, Lee*ri) is output, the controller 130 controls at least a portion of the user information. may be provided to the display unit 12 .

따라서, 도 4a에 도시된 것과 같이, 타겟 유저(1000)에 해당하는 인물에 대응되는 사용자 정보의 적어도 일부(예를 들어, 이름 정보(이*리)는, 디스플레이부(12)에 출력될 수 있다. 따라서, 타겟 유저(1000)는 디스플레이부(12)에 출력되는 정보를 참조하여, 전자기기(10)에서 자신을 정확하게 검색하였는지를 확인할 수 있다.Accordingly, as shown in FIG. 4A , at least a portion of user information (eg, name information (Lee * Lee)) corresponding to the person corresponding to the target user 1000 may be output to the display unit 12 . Accordingly, the target user 1000 may check whether the electronic device 10 has correctly searched for itself with reference to the information output on the display unit 12 .

위에서 살펴본 것과 같이, 타겟 유저(1000)에 대한 사용자 정보가 추출된 경우, 본 발명에서는, 추출된 사용자 정보를 이용하여, 타겟 기능에 대한 타겟 유저(1000)의 권한을 확인하는 과정이 진행될 수 있다(S240).As described above, when user information on the target user 1000 is extracted, in the present invention, a process of confirming the authority of the target user 1000 for the target function may be performed using the extracted user information. (S240).

앞서 살펴본 것과 같이, 타겟 기능은, 마이크를 통하여 입력되는 음성에 근거하여 특정될 수 있다.As described above, the target function may be specified based on a voice input through a microphone.

또한, 타겟 기능은, 마이크를 통하여 입력되는 음성 외에, 다양한 방법에 의해 특정될 수 있다. 타겟 기능이 음성에 근거하여 특정되지 않는 경우, 본 발명에 따른 어시스턴트 서비스 제공 방법에서는 S220단계가 생략되는 것 또한 가능하다.In addition, the target function may be specified by various methods other than the voice input through the microphone. When the target function is not specified based on the voice, it is also possible that step S220 is omitted in the assistant service providing method according to the present invention.

다른 방법에 의하여 타겟 기능이 특정되는 예에 대하여 살펴보면, 일 예로서, 제어부(130)는 전자기기(10)가 설치된 장소에 따라, 타겟 기능을 특정할 수 있다. 예를 들어, 도 3에 도시된 것과 같이, 전자기기(10)가 회의실 주변에 배치된 경우, 제어부(130)는 타겟 기능으로서, 장소 예약(예를 들어, 회의실 예약) 기능을 특정할 수 있다. 이 경우, 제어부(130)는 타겟 유저(1000)로부터 별도의 사용자 입력이 수신되지 않더라도, 타겟 유저(1000)가 카메라(11)에 센싱되는 것에 근거하여, 타겟 유저(1000)의 권한을 확인하는 과정을 수행할 수 있다.Referring to an example in which the target function is specified by another method, as an example, the control unit 130 may specify the target function according to a place where the electronic device 10 is installed. For example, as shown in FIG. 3 , when the electronic device 10 is disposed around a conference room, the control unit 130 may specify a place reservation (eg, conference room reservation) function as a target function. . In this case, even if a separate user input is not received from the target user 1000 , the control unit 130 checks the authority of the target user 1000 based on the sensing of the target user 1000 by the camera 11 . process can be performed.

그리고, 도 10에 도시된 것과 같이, 전자기기(10)가 주차장 주변에 배치된 경우, 제어부(130)는 타겟 기능으로서, 타겟 유저의 차량이 주차된 위치를 검색하는 기능을 특정할 수 있다. 한편, 타겟 기능으로서, 어떤 기능을 특정할지 여부는, 사전에 전자기기(10)가 배치된 위치에 근거하여, 결정되어 존재할 수 있다.And, as shown in FIG. 10 , when the electronic device 10 is disposed around a parking lot, the control unit 130 may specify a function of searching for a location where the target user's vehicle is parked as a target function. On the other hand, as the target function, whether or not to specify which function may exist may be determined in advance based on the location where the electronic device 10 is disposed.

또 다른 예로서, 제어부(130)는 전자기기(10)에 대한 사용자 입력에 근거하여, 타겟 기능을 특정할 수 있다. 이때의 사용자 입력은 터치 스크린이 구비된 디스플레이부(12) 또는 다른 사용자 입력 수단을 통하여 입력되는 사용자 입력일 수 있다. 제어부(130)는 이러한 사용자 입력에 근거하여, 타겟 기능을 특정할 수 있다.As another example, the controller 130 may specify a target function based on a user input to the electronic device 10 . In this case, the user input may be a user input input through the display unit 12 provided with a touch screen or other user input means. The controller 130 may specify a target function based on such a user input.

또 다른 예로서, 제어부(130)는 타겟 유저의 사용자 정보에 포함된 타겟 유저의 스케줄에 근거하여, 적절한 기능을 타겟 기능으로서 특정할 수 있다.As another example, the controller 130 may specify an appropriate function as the target function based on the target user's schedule included in the target user's user information.

한편, 제어부(130)는 타겟 기능의 특정을 위하여, 타겟 유저(1000)에게 질문을 출력하고, 출력된 질문에 대한 응답에 근거하여, 타겟 기능을 특정할 수 있다.Meanwhile, in order to specify the target function, the controller 130 may output a question to the target user 1000 and specify the target function based on a response to the output question.

타겟 기능의 특정은, 타겟 유저의 권한을 확인할 정도로 구체화된 정보가 필요할 수 있다. 예를 들어, 타겟 기능이 장소에 대한 예약인 경우, 제어부(130)는 구체적인 예약 장소(예를 들어, 회의실 호수 등) 및 예약 시간 정보가 필요할 수 있다.The specification of the target function may require information specific enough to confirm the authority of the target user. For example, when the target function is a reservation for a place, the controller 130 may need information about a specific reservation place (eg, a conference room number, etc.) and reservation time.

타겟 기능의 특정을 위하여, 제어부(130)는 타겟 유저(1000)에게 다양한 방식으로 질문을 수행할 수 있다. 예를 들어, 제어부(130)는 스피커를 통하여 타겟 유저(1000)에게 질문을 출력하고, 마이크(13)를 통해 음성을 수신함으로써, 질문에 대한 답변을 수신할 수 있다. 제어부(130)는 타겟 기능을 구체화할 수 있을 정도(또는 확정할 수 있을 정도)의 정보가 수집될 때까지 복수번에 걸쳐 질문을 출력하고, 답변을 수신할 수 있다.In order to specify the target function, the controller 130 may ask the target user 1000 in various ways. For example, the controller 130 may output a question to the target user 1000 through a speaker and receive an answer to the question by receiving a voice through the microphone 13 . The control unit 130 may output a question a plurality of times and receive an answer until information that is enough to materialize the target function (or to the extent that it can be determined) is collected.

또한, 제어부(130)는 디스플레이부(12)에 질문을 출력시키고, 디스플레이부(12) 또는 마이크(13)를 통해, 답변을 입력받음으로써, 타겟 기능의 구체화를 위한 정보를 수집할 수 있다.Also, the controller 130 may collect information for specifying the target function by outputting a question to the display unit 12 and receiving an answer through the display unit 12 or the microphone 13 .

한편, 제어부(130)는, 타겟 유저(1000)에게 질문을 하지 않더라도, 타겟 기능에 대한 구체화가 완료된 경우, 질문을 출력하지 않을 수 있다. 예를 들어, 타겟 유저(1000)는, “월요일 오후 3시에, 3번 회의실 예약해줘”와 같이, 특정 기능을 특정하기에 충분한 정보를 초기에 전자기기(10)에 대해 제공할 수 있다.Meanwhile, even if the control unit 130 does not ask the target user 1000 , when the specification of the target function is completed, the control unit 130 may not output the question. For example, the target user 1000 may initially provide information sufficient to specify a specific function to the electronic device 10 , such as “Reserve a conference room 3 at 3 pm on Monday”.

이와 같이, 사용자의 음성 또는 다른 방법에 의하여 타겟 기능이 특정되면, 제어부(130)는 타겟 기능에 대한 타겟 유저의 권한을 확인할 수 있다.As such, when the target function is specified by the user's voice or another method, the controller 130 may check the authority of the target user for the target function.

여기에서, “타겟 유저의 권한”이라 함은, 다양한 의미로 해석될 수 있다. 예를 들어, 타겟 유저의 권한은 i)타겟 유저(1000)가 타겟 기능을 제공받을 권한을 갖고 있는지, ii)타겟 유저(1000)가 타겟 기능에 접근할 권한을 갖고 있는지, iii)타겟 유저(1000)가 특정 장소에 출입할 권한을 갖고 있는지, iv)타겟 유저(1000)가 특정 전자장치를 제어할 권한을 갖고 있는지 등과 같이, 타겟 유저(1000)가 임의의 기능, 장치 또는 장소와 관련하여 접근할 수 있는 권한을 갖고 있는지에 대한 정보일 수 있다.Here, “the right of the target user” may be interpreted in various meanings. For example, the authority of the target user is i) whether the target user 1000 has the authority to receive the target function, ii) whether the target user 1000 has the authority to access the target function, iii) whether the target user ( Whether the target user 1000 has permission to access a specific place, iv) whether the target user 1000 has permission to control a specific electronic device, etc. It may be information about whether you have permission to access.

이러한, 타겟 유저(1000)의 권한에 대한 정보(또는 권한 정보)는 타겟 유저(1000)의 사용자 정보에 포함되어 존재할 수 있다.Such information (or authority information) on the authority of the target user 1000 may be included in the user information of the target user 1000 .

예를 들어, 타겟 기능이 도 3에 도시된 것과 같이, 장소를 예약하는 기능인 경우, 제어부(130)는 타겟 유저(100)의 사용자 정보에 근거하여, 타겟 유저(1000)가 특정 장소(예를 들어, 예약 대상 장소)에 대해 출입할 권한 또는 예약할 권한이 존재하는지를 판단할 수 있다.For example, when the target function is a function for reserving a place as shown in FIG. 3 , the control unit 130 determines that the target user 1000 selects a specific place (eg, based on user information of the target user 100 ). For example, it may be determined whether the authority to access or reserve the reservation target place) exists.

이 경우, 타겟 기능은, 특정 장소에 대해 특정 시간에 대한 예약 기능으로 이해될 수 있다.In this case, the target function may be understood as a reservation function for a specific time for a specific place.

나아가, 타겟 유저(1000)의 권한에 대한 정보(또는 권한 정보)를 확인하기 위하여, 제어부(130)는 타겟 유저(1000)로부터 권한 확인을 위한 정보를 확인할 수 있다. 여기에서, 권한 확인을 위한 정보는, 타겟 유저(1000)의 생체 정보, 비밀번호 정보 등, 타겟 유저(1000)를 인증하기 위한 정보일 수 있다.Furthermore, in order to check information (or authority information) on authority of the target user 1000 , the controller 130 may check information for authority check from the target user 1000 . Here, the information for verifying authority may be information for authenticating the target user 1000 , such as biometric information and password information of the target user 1000 .

한편, 앞서 살펴본 것과 같이, 특정 장소 또는 예약 시간 등 예약과 관련된 정보의 특정은, 타겟 유저(1000)로부터 수신되는 음성 및 타겟 유저의 스케줄 정보 중 적어도 하나에 근거하여 이루어질 수 있다. Meanwhile, as described above, the specification of information related to a reservation, such as a specific place or a reservation time, may be made based on at least one of a voice received from the target user 1000 and schedule information of the target user.

또한, 특정 장소 또는 예약 시간 등 예약과 관련된 정보의 특정은 전자기기(10)가 배치된 장소 중 적어도 하나에 근거하여 이루어질 수 있다.In addition, the specification of information related to a reservation, such as a specific place or a reservation time, may be made based on at least one of the places where the electronic device 10 is disposed.

예를 들어, 제어부(130)는 타겟 유저(1000)의 얼굴 이미지 및 음성을 센싱한 전자기기(10)가 배치된 위치에 근거하여, 특정 장소를 결정할 수 있다. 예를 들어, 제어부(130)는 전자기기(10)가 배치된 위치와 가장 가까운 장소(예를 들어, 회의실)을 특정 장소로서 특정할 수 있다, 또한, 전자기기(10) 마다, 장소에 대한 정보(예를 들어, 회의실 호수)가 매칭될 수 있으며, 제어부(130)는 전자기기(10)에 매칭된 장소에 대한 정보에 근거하여, 특정 장소를 결정할 수 있다.For example, the controller 130 may determine a specific location based on a location in which the electronic device 10 sensing the face image and voice of the target user 1000 is disposed. For example, the control unit 130 may specify a place (eg, a conference room) closest to the location where the electronic device 10 is disposed as a specific place. Information (eg, a conference room number) may be matched, and the controller 130 may determine a specific place based on the information on the place matched with the electronic device 10 .

한편, 위에서 살펴본 것과 같이, 타겟 기능에 대한 타겟 유저의 권한 확인이 진행되면, 본 발명에서는 확인 결과에 근거하여, 타겟 기능과 관련된 제어를 수행하는 과정이 진행될 수 있다(S250).Meanwhile, as described above, when the target user's authority to the target function is checked, in the present invention, a process of performing control related to the target function may be performed based on the verification result (S250).

보다 구체적으로, 제어부(130)는, 타겟 유저(1000)가 특정 기능에 대한 권한을 가졌는지 여부에 따라, 서로 다른 제어를 수행할 수 있다. More specifically, the control unit 130 may perform different controls according to whether the target user 1000 has an authority for a specific function.

제어부(130)는, 타겟 유저(1000)가 특정 기능에 대한 권한을 가진 경우, 특정 기능을 수행 또는 실행할 수 있다.When the target user 1000 has authority for a specific function, the controller 130 may perform or execute a specific function.

나아가, 제어부(130)는 타겟 유저(1000)가 특정 기능에 대한 권한을 가졌지만, 특정 기능을 수행 또는 실행할 수 없는 경우, 특정 기능과 유사한 기능을 추천하거나, 수행할 수 있다,Furthermore, when the target user 1000 has the authority for a specific function, but cannot or cannot perform the specific function, the control unit 130 may recommend or perform a function similar to the specific function,

즉, 제어부(130)는 타겟 유저(1000)가 특정 기능에 대한 권한이 없는 경우, 특정 기능의 수행을 제한할 수 있다. 이 경우, 제어부(130)는 특정 기능과 유사한 기능을 추천하거나, 수행할 수 있다.That is, when the target user 1000 has no authority for a specific function, the controller 130 may restrict the execution of the specific function. In this case, the controller 130 may recommend or perform a function similar to a specific function.

예를 들어, 특정 기능이, 특정 장소를 예약하는 기능인 경우, 제어부(130)는 타겟 유저(1000)가 특정 장소에 대한 예약 권한이 존재하는지 여부에 근거하여, 상기 특정 장소에 대한 예약과 관련된 서로 다른 제어를 수행할 수 있다.For example, if the specific function is a function of reserving a specific place, the control unit 130 may control each other related to the reservation for the specific place based on whether the target user 1000 has a reservation right for the specific place. Other controls can be performed.

예를 들어, 제어부(130)는, 특정 장소에 대한 예약 권한이 타겟 유저(1000)에게 존재하는 경우, 도 3의 (b)에 도시된 것과 같이, 특정 장소에 대한 예약을 수행할 수 있다. 이 경우, 제어부(130)는 특정 기능이 정상적으로 수행될 수 있음을 알리는 안내 정보(예를 들어, “4번 회의실을 지금 바로 예약해 드릴게요!”)를 시각적 및 청각적 정보 중 적어도 하나의 방식으로, 전자기기(10) 상에 출력시킬 수 있다.For example, when the reservation right for a specific place exists in the target user 1000 , the controller 130 may make a reservation for the specific place as shown in FIG. 3B . In this case, the control unit 130 provides guidance information indicating that a specific function can be normally performed (eg, “I will reserve the 4th meeting room right now!”) in at least one of visual and auditory information. , may be output on the electronic device 10 .

도 4a에 도시된 것과 같이, 디스플레이부(12) 상에는, 특정 장소에 대한 예약에 대한 정보(예를 들어, 상황 정보 또는 안내 정보 등, 420)가 출력될 수 있다. 제어부(130)는 타겟 유저(1000)가 언제라도, 예약 시간 또는 예약 장소를 변경하거나, 예약을 확정할 수 있도록 하는 GUI(Graphic User Interface, 430)를 디스플레이부(12) 상에 제공할 수 있다. 이러한 GUI(430)는 아이콘 또는 그래픽 객체로도 명명될 수 있다.As shown in FIG. 4A , information about a reservation for a specific place (eg, situation information or guide information, etc. 420 ) may be output on the display unit 12 . The control unit 130 may provide a graphical user interface (GUI) 430 on the display unit 12 to allow the target user 1000 to change the reservation time or place at any time, or to confirm the reservation. . Such a GUI 430 may also be called an icon or a graphic object.

다른 예로서, 제어부(130)는, 특정 장소에 대한 예약 권한이 타겟 유저(1000)에게 존재하지만, 특정 장소에 대한 예약을 수행할 수 없는 경우(예를 들어, 특정 장소에 대한 예약이 이미 완료된 경우 등), 도 3의 (c)에 도시된 것과 같이, 특정 장소와 다른 예약이 가능한 장소에 대한 예약을 수행하거나, 추천할 수 있다. 제어부(130)는 타겟 유저가 포함된 공간의 장소(예를 들어, 회의실 등)에 대한 예약 가능 여부를 판단하고, 판단 결과에 근거하여, 다른 예약이 가능한 장소를 추천할 수 있다.As another example, when the control unit 130 has the reservation right for a specific place to the target user 1000 , but cannot make a reservation for the specific place (eg, reservation for the specific place has already been completed) case, etc.), as shown in (c) of FIG. 3 , it is possible to make or recommend a reservation for a place that is different from a specific place. The controller 130 may determine whether a reservation is possible for a place (eg, a conference room, etc.) of a space including the target user, and based on the determination result, may recommend a place where another reservation is possible.

이때, 제어부(130)는, i)특정 장소와 가장 가까운 장소이거나, ii)특정 장소를 제외한 타겟 유저(1000)의 현재 위치와 가장 가까운 장소, iii)특정 장소를 제외한 타겟 유저(1000)의 근무 위치와 가장 가까운 장소, iv)특정 장소를 제외한, 다른 사용자(예를 들여, 회의 참석자 등) 및 타겟 유저(1000)의 거리를 모두 고려한 장소와 같이, 다양한 기준에 근거하여, 다른 예약 가능한 장소를 검색하고, 검색된 정보를 추천 정보로서 생성할 수 있다.At this time, the control unit 130, i) a place closest to a specific place, ii) a place closest to the current location of the target user 1000 excluding a specific place, iii) a work of the target user 1000 except for a specific place The location closest to the location, iv) Except for a specific location, other reservationable locations are selected based on various criteria, such as a location that considers both the distance of other users (eg, meeting attendees, etc.) and the target user 1000 . It is possible to search and generate the retrieved information as recommended information.

또 다른 예로서, 제어부(130)는 특정 장소에 대한 예약 권한이 상기 타겟 유저(1000)에게 존재하지 않는 경우, 도 3의 (d)에 도시된 것과 같이, 특정 장소와 다른 장소에 대한 예약을 가이드 할 수 있다. 다른 장소에 대한 가이드의 방식은, 전자기기(10)를 통하여 이루어질 수 있으며, 제어부(130)는 청각적 및 시각적 방식 중 적어도 하나를 통해, 타겟 유저(1000)를 가이드할 수 있다.As another example, when the reservation right for a specific place does not exist in the target user 1000, the control unit 130 makes a reservation for a place different from the specific place, as shown in (d) of FIG. 3 . can guide A method of guiding to another place may be performed through the electronic device 10 , and the controller 130 may guide the target user 1000 through at least one of an auditory and a visual method.

이 경우, 제어부(130)는, 타겟 유저에게, 특정 장소에 대한 예약 권한이 없음을 알리는 안내 정보(예를 들어, “4번 회의실은 예약 권한이 없으세요”)를 가이드 정보(예를 들어, “7번 회의실을 예약해 드릴까요?)와 함께, 출력할 수 있다. 이러한 정보는, 도 5a에 도시된 것과 같이, 디스플레이부(12) 상에 시각적인 정보(510)로서, 출력될 수 있다. 나아가, 디스플레이부(12)에는, 특정 기능의 수행의 종료 또는 다른 추천 장소를 제공받기 위한 GUI(520, 530)가 포함될 수 있다. 이러한 GUI(520, 530)는 아이콘 또는 그래픽 객체로도 명명될 수 있다. 제어부(130)는 GUI(520, 530) 중 어느 하나가 선택되면, 선택된 GUI에 매칭된 기능을 실행할 수 있다. 예를 들어, 사용자(또는 타겟 유저(1000))에 의해 특정 기능의 수행의 종료에 대응되는 GUI(520)가 선택되는 경우, 제어부(130)는 타겟 유저(1000)를 위한 장소 예약 프로세스를 종료할 수 있다. 이와 달리, 사용자(또는 타겟 유저(1000))에 다른 추천 장소를 제공하는 기능 대응되는 GUI(530)가 선택되는 경우, 제어부(130)는 추천 장소 정보를 출력할 수 있다. 나아가, 추천 장소 정보의 출력은, 사용자에 의해 상기 GUI(530)가 선택되지 않은 경우에도, 출력될 수 있음은 물론이다.In this case, the control unit 130 provides guide information (eg, “You do not have reservation rights for the 4th meeting room”) to guide information informing the target user that there is no reservation authority for a specific place. “Can I reserve the 7th meeting room?) and print it out. Such information may be output as visual information 510 on the display unit 12 as shown in FIG. 5A . Furthermore, the display unit 12 may include GUIs 520 and 530 for terminating the execution of a specific function or providing another recommended place. These GUIs 520 and 530 may also be called icons or graphic objects. When any one of the GUIs 520 and 530 is selected, the controller 130 may execute a function matched to the selected GUI. For example, when the GUI 520 corresponding to the end of the execution of a specific function is selected by the user (or the target user 1000 ), the controller 130 terminates the place reservation process for the target user 1000 . can do. On the other hand, when the GUI 530 corresponding to the function of providing another recommended place to the user (or the target user 1000 ) is selected, the controller 130 may output the recommended place information. Furthermore, it goes without saying that the output of the recommended place information may be output even when the GUI 530 is not selected by the user.

앞서 살펴본 것과 같이, 제어부(130)는 타겟 유저(1000)가 예약 권한을 가지면서, 예약이 가능한 장소를 검색하고, 검색된 정보를 추천 정보로서 생성할 수 있다. 제어부(130)는 다양한 기준에 근거하여, 추천 장소를 검색할 수 있으며, 하나 또는 복수의 추천 장소에 대한 정보를 타겟 유저(1000)에게 제공할 수 있다.As described above, the control unit 130 may search for a place where a reservation is possible while the target user 1000 has reservation authority, and may generate the searched information as recommendation information. The controller 130 may search for a recommended place based on various criteria, and may provide information on one or a plurality of recommended places to the target user 1000 .

제어부(130)는, i)특정 장소와 가장 가까운 장소이거나, ii)특정 장소를 제외한 타겟 유저(1000)의 현재 위치와 가장 가까운 장소, iii)특정 장소를 제외한 타겟 유저(1000)의 근무 위치와 가장 가까운 장소, iv)특정 장소를 제외한, 다른 사용자(예를 들여, 회의 참석자 등) 및 타겟 유저(1000)의 거리를 모두 고려한 장소와 같이, 다양한 기준에 근거하여, 다른 예약 가능한 장소를 검색하고, 검색된 정보를 추천 정보로서 생성할 수 있다.The control unit 130, i) a place closest to a specific place, ii) a place closest to the current location of the target user 1000 excluding a specific place, iii) a work location of the target user 1000 excluding a specific place, and The nearest place, iv) Except for a specific place, other users (eg, meeting participants, etc.) and a place that considers the distance of the target user 1000, search for other reservationable places based on various criteria, , the searched information may be generated as recommended information.

예를 들어, 도 5b에 도시된 것과같이, 디스플레이부(12) 상에는, 타겟 유저(1000)의 현재 위치에서 가장 가까운 장소가 추천 정보(550)로서 제공될 수 있다. 마찬가지로, 도 5b에 도시된 것과같이, 디스플레이부(12) 상에는, 타겟 유저(1000)의 근무 위치에서 가장 가까운 장소가 추천 정보(550)로서 제공될 수 있다. 이 경우, 추천 정보로서 제공되는 장소는, 타겟 유저(1000)가 예약할 권한을 갖는 장소일 수 있다.For example, as shown in FIG. 5B , on the display unit 12 , a place closest to the current location of the target user 1000 may be provided as the recommendation information 550 . Similarly, as shown in FIG. 5B , on the display unit 12 , a place closest to the work location of the target user 1000 may be provided as the recommendation information 550 . In this case, the place provided as the recommendation information may be a place where the target user 1000 has the right to make a reservation.

한편, 도 6에 도시된 것과 같이, 특정 기능이 장소에 대한 예약 기능이고, 상기 타겟 유저에 의한 사용자 입력에 근거하여 참석자(예를 들어, 김*동, 유*애)에 대한 정보가 수신된 경우(도 6의 도면부호 620 참조), 제어부(130)는 참석자 및 타겟 유저(1000)와 각각 관련된 위치를 근거로, 타겟 유저(1000)의 예약권한 내에 존재하는 특정 장소(예를 들어, A 동 1번, 3번 5번 회의실)를 추천 장소로서 검색할 수 있다. 그리고, 도 6에 도시된 것과 같이, 검색된 추천 장소에 대한 정보(630)를 디스플레이부 상에 출력할 수 있다. 이 경우, 제어부(130)는 지도 이미지 상에, 추천 장소 위치, 타겟 유저(1000)와 관련된 위치(예를 들어, 타겟 유저의 현재 위치 또는 타겟 유저의 근무 위치 등), 참석자와 관련된 위치(예를 들어, 참석자의 현재 위치 또는 타겟 유저의 근무 위치 등)를 표시할 수 있다.On the other hand, as shown in FIG. 6 , a specific function is a reservation function for a place, and information on participants (eg, Kim * Dong, Yu * Ae) is received based on a user input by the target user. In this case (refer to reference numeral 620 in FIG. 6 ), the controller 130 controls a specific place (for example, A Meeting rooms 1, 3, 5) can be searched as recommended places. Then, as shown in FIG. 6 , information 630 on the searched recommended place may be output on the display unit. In this case, the control unit 130 on the map image, a recommended place location, a location related to the target user 1000 (eg, the current location of the target user or the working location of the target user, etc.), a location related to the participant (eg, For example, the current location of the participant or the work location of the target user) may be displayed.

제어부(130)는, 참석자에 대한 정보가 수신된 경우, 사용자 DB로부터 참석자의 사용자 정보를 추출하고, 추출된 참석자의 사용자 정보에 포함된 참석자와 관련된 위치 정보에 근거하여, 추천 장소 정보를 검색(또는 특정)할 수 있다.When the information on the participant is received, the controller 130 extracts the user information of the participant from the user DB, and searches for recommended place information based on the location information related to the participant included in the extracted user information of the participant ( or specific).

한편, 위의 예들 에서는 특정 기능에, 장소가 구체적으로 특정된 경우에 대하여 살펴보았다. 그러나, 본 발명은 이에 한정되지 않고, 타겟 유저(1000)가 갖는 권한 정보(예를 들어, 장소에 대한 접근 권한, 출입 권한 등)에 근거하여, 예약이 가능한 장소 정보를 추천할 수 있다. 제어부(130)는 위에서 살펴본 장소 추천 방법에 근거하여, 타겟 유저(1000)가 예약할 권한이 존재하면서, 예약이 가능한 장소를 검색하고, 검색된 장소에 대한 추천 정보를 생성할 수 있음은 물론이다.On the other hand, in the above examples, a case in which a specific function and a place are specifically specified was examined. However, the present invention is not limited thereto, and based on authority information (eg, access authority to a place, access authority, etc.) of the target user 1000, information on a place that can be reserved may be recommended. Of course, the controller 130 may search for a place that can be reserved while the target user 1000 has the right to make a reservation based on the above-described method for recommending a place, and may generate recommendation information on the searched place.

예를 들어, 타겟 유저(1000)는 “회의실 예약해줘”와 같은 음성을, 전자기기(10)에 입력할 수 있으며, 제어부(130)는 사용자의 음성에 근거하여, 위에서 살펴본 다양한 방식 중 적어도 하나에 근거하여, 타겟 유자(1000)가 예약 가능한 장소를 추천 장소 정보로서 생성할 수 있다.For example, the target user 1000 may input a voice such as “reserve a meeting room” into the electronic device 10 , and the controller 130 may use at least one of the various methods described above based on the user's voice. Based on , a place that the target user 1000 can reserve may be generated as recommended place information.

한편, 본 발명에서, 사용자의 편의성을 높이는 어시스턴트 서비스를 제공하기 위하여, 특정 장소에 대한 예약이 수행된 경우, 타겟 유저(1000)의 사용자 정보에 근거하여, 특정 장소에 대한 예약 정보를 상기 타겟 유저의 일정 정보에 추가하는 기능을 제공할 수 있다.Meanwhile, in the present invention, in order to provide an assistant service that enhances user convenience, when a reservation for a specific place is performed, reservation information for a specific place is provided to the target user based on user information of the target user 1000 . It is possible to provide a function to add to the schedule information of

도 7에 도시된 것과 같이, 제어부(130)는 특정 기능의 수행 결과, 타겟 유저(1000)의 일정과 관련된 일정 이벤트가 발생하는 경우, 해당 일정 이벤트를 사용자의 일정 정보에 추가할 수 있다,As shown in FIG. 7 , when a schedule event related to the schedule of the target user 1000 occurs as a result of performing a specific function, the control unit 130 may add the schedule event to the schedule information of the user.

제어부(130)는 사용자 정보로부터, 사용자의 일정 정보가 저장되는 계정 정보를 추출하고, 해당 계정 정보에 일정 이벤트에 해당하는 일정을 추가 저장할 수 있다.The controller 130 may extract account information in which the user's schedule information is stored from the user information, and additionally store a schedule corresponding to a schedule event in the corresponding account information.

이와 같이, 일정 추가와 관련된 어시스턴트 서비스가 제공되는 경우, 제어부(130)는 청각적 및 시각적인 방식 중 적어도 하나의 방식으로, 일정 추가와 관련된 어시스턴트 서비스가 제공되고 있음을 알리는 안내 정보(710)를 출력할 수 있다.In this way, when the assistant service related to schedule addition is provided, the controller 130 transmits guide information 710 informing that the assistant service related to schedule addition is being provided in at least one of an auditory and visual method. can be printed out.

제어부(130)는 타겟 유저(1000)가 일정 추가와 관련된 어시스턴트 서비스를 승인하거나 거절하도록 하는 GUI(Graphic User Interface, 720)를 디스플레이부(12) 상에 제공할 수 있다. The controller 130 may provide a graphic user interface (GUI) 720 on the display unit 12 for allowing the target user 1000 to approve or reject an assistant service related to schedule addition.

나아가, 제어부(130)는, 특정 장소에 대한 예약이 수행되고, 특정 장소와 관련된 참석자에 대한 정보가 확정된 경우, 사용자 DB로부터 참석자의 사용자 정보를 추출할 수 있다. 그리고 제어부(130)는, 상기 참석자의 사용자 정보를 이용하여, 상기 참석자에게 상기 특정 장소에 대한 예약 정보를 공유하는 어시스턴트 서비스를 제공할 수 있다. 제어부(130)는 참석자의 사용자 정보에 포함된 메일 계정, 전화번호 등과 같은 연락처 정보를 이용하여, 참석자에게 예약 정보를 전송할 수 있다. 이러한 예약 정보는 전자 메일, 메시지 등의 형식으로 전송될 수 있다.Furthermore, when a reservation for a specific place is performed and information on the attendee related to the specific place is confirmed, the controller 130 may extract user information of the attendee from the user DB. In addition, the controller 130 may provide an assistant service for sharing reservation information for the specific place to the attendee by using the user information of the attendee. The controller 130 may transmit reservation information to the attendees by using contact information such as a mail account and a phone number included in the user information of the attendees. Such reservation information may be transmitted in the form of e-mail, message, or the like.

나아가, 제어부(130)는 참석자의 사용자 정보로부터, 참석자의 일정 정보가 저장되는 계정 정보를 추출하고, 해당 계정 정보에 일정 이벤트에 해당하는 일정을 추가 저장할 수 있다.Furthermore, the controller 130 may extract account information in which schedule information of the attendee is stored from the user information of the attendee, and additionally store a schedule corresponding to a schedule event in the corresponding account information.

이와 같이, 일정 추가와 관련된 어시스턴트 서비스가 제공되는 경우, 제어부(130)는 청각적 및 시각적인 방식 중 적어도 하나의 방식으로, 일정 추가와 관련된 어시스턴트 서비스가 제공되고 있음을 알리는 안내 정보를 출력할 수 있다.As such, when an assistant service related to schedule addition is provided, the controller 130 may output guide information indicating that an assistant service related to schedule addition is being provided in at least one of an auditory and visual method. have.

나아가, 제어부(130)는 타겟 유저(1000)가 참석자와 관련된 어시스턴트 서비스(예를 들어, 예약 정보 전송 또는 일정 추가 등)를 승인하거나 거절하도록 하는 GUI(Graphic User Interface, 720)를 디스플레이부(12) 상에 제공할 수 있다. Furthermore, the controller 130 may display a graphical user interface (GUI) 720 that allows the target user 1000 to approve or reject an assistant service (eg, transmission of reservation information or addition of a schedule, etc.) related to the attendee on the display unit 12 . ) can be provided.

한편, 위에서 살펴본 서비스 제공 방법 및 시스템을 적용하는 전자기기(10)는 다양한 장소에 설치될 수 있다. 앞서 도 3에 도시된 것과 같이, 전자기기(10)는 회의실 주변에 배치되거나, 도 8의 (a)에 도시된 것과 같이 공동 생활 공간(예를 들어, 엘리베이터 주변), 사용자들의 근무 장소 등에 배치될 수 있다.Meanwhile, the electronic device 10 to which the service providing method and system described above is applied may be installed in various places. As previously shown in FIG. 3, the electronic device 10 is disposed around the conference room, or as shown in FIG. can be

그리고, 제어부(130)는 전자기기(10) 주변에서 사용자(예를 들어, 타겟 유저(1000))가 인식되는 되는 경우, 인식된 타겟 유저(1000)를 위한 어시스턴트 서비스를 제공할 수 있다,And, when the user (eg, the target user 1000) is recognized in the vicinity of the electronic device 10, the controller 130 may provide an assistant service for the recognized target user 1000,

예를 들어, 도 8의 (b)에 도시된 것과 같이, 제어부(130)는 타겟 유저(1000)에게 전자기기(10)를 통하여, 특정 기능(예를 들어, 회의실 예약 기능)을 제공하기 위한 가이드 정보(810)를 출력할 수 있다.For example, as shown in (b) of FIG. 8 , the control unit 130 is configured to provide a specific function (eg, a conference room reservation function) to the target user 1000 through the electronic device 10 . Guide information 810 may be output.

다른 예로서, 제어부(130)는 도 8의 (c)에 도시된 것과 같이, 타겟 유저(1000)가 특정된 경우, 타겟 유저(1000)의 사용자 정보에 포함된 일정 정보를 참조하여, 타겟 기능을 제공할 수 있다. 여기에서 타겟 기능은, 전자기기(10)가 위치한 장소적인 특성을 고려된 기능일 수 있다, 예를 들어, 전자기기(10)가 배치된 장소가 엘리베이터 주변인 경우, 제어부(130)는 타겟 유저(1000)의 일정 정보를 추출할 수 있다, 그리고, 추출된 일정 정보에 대응되는 장소(예를 들어, 4번 회의실)로 타겟 유저(1000)가 이동할 수 있도록 가이드 정보(예를 들어, 4번 회의실이 위치한 장소(3층)로의 이동)를 전자기기(10)를 통해 출력할 수 있다.As another example, as shown in (c) of FIG. 8 , when the target user 1000 is specified, the control unit 130 refers to schedule information included in the user information of the target user 1000 and performs a target function. can provide Here, the target function may be a function in consideration of the characteristics of the place where the electronic device 10 is located. For example, when the place where the electronic device 10 is disposed is around an elevator, the control unit 130 controls the target user ( 1000) can be extracted, and guide information (eg, conference room 4) so that the target user 1000 can move to a place (eg, conference room 4) corresponding to the extracted schedule information. This location (moving to the third floor) can be output through the electronic device 10 .

나아가, 제어부(130)는 도 8의 (d)에 도시된 것과 같이, 타겟 유저(1000)의 사용자 정보에 포함된 일정 정보를 참고하여, 타겟 유저(1000)에게 일정 정보를 상기(리마인더)시키기 위한 정보(830)를 전자기기(10)를 통해 출력할 수 있다.Furthermore, as shown in (d) of FIG. 8 , the control unit 130 refers to schedule information included in the user information of the target user 1000 to remind (reminder) schedule information to the target user 1000 . Information 830 for this may be output through the electronic device 10 .

한편, 본 발명에 따른 어시스턴트 서비스 제공 방법 및 시스템은, 위에서 살펴본 장소 예약을 위한 기능 외에도 다양한 기능을 제공할 수 있다. Meanwhile, the method and system for providing an assistant service according to the present invention may provide various functions in addition to the above-described function for place reservation.

일 예로서, 전자기기(10)가 회의실, 사무실, 집 등의 공간(900)에 배치되는 경우, 제어부(130)는 도 9에 전자기기(10)를 통해 입력되는 사용자 입력에 근거하여, 공간(900)에 배치된 전자기기(901, 902, 903)를 제어할 수 있다. 이때에도, 제어부(130)는 타겟 유저(1000)가 전자기기(901, 902, 903)를 제어할 수 있는 권한이 존재하는지 판단하기 위하여, 타겟 유저(1000)의 얼굴을 인식하고, 인식된 얼굴 이미지에 대응되는 사용자 정보를 사용자 DB로부터 추출할 수 있다. 그리고, 제어부(130)는 추출된 사용자 정보로부터, 전자기기(901, 902, 903)에 대한 제어권한 정보를 확인하고, 확인 결과에 근거하여, 전자기기(901, 902, 903)의 제어를 수행할 수 있다.As an example, when the electronic device 10 is disposed in a space 900 such as a conference room, office, home, etc., the control unit 130 based on a user input input through the electronic device 10 in FIG. Electronic devices 901 , 902 , and 903 disposed in 900 may be controlled. Even at this time, the controller 130 recognizes the face of the target user 1000 and recognizes the face of the target user 1000 in order to determine whether the target user 1000 has the authority to control the electronic devices 901 , 902 , and 903 . User information corresponding to the image can be extracted from the user DB. Then, the controller 130 checks the control authority information for the electronic devices 901 , 902 , 903 from the extracted user information, and performs control of the electronic devices 901 , 902 , 903 based on the check result can do.

한편, 전자기기(901, 902, 903, 904)의 제어는, 전자기기(901, 902, 903)의 전원을 온(on) 또는 오프(off)시키거나, 음량을 조절하는 것과 같은, 전자기기(901, 902, 903)와 관련된 다양한 제어를 포함할 수 있다.On the other hand, the control of the electronic devices 901 , 902 , 903 , and 904 is to turn on or off the power of the electronic devices 901 , 902 , 903 , or to adjust the volume of the electronic devices. It may include various controls associated with (901, 902, 903).

다른 예로서, 전자기기(10)는 도 10에 도시된 것과 같이, 주차장(1010)에 배치될 수 있다. 이 경우, 제어부(130)는 전자기기(10)를 통해 타겟 유저(1000)가 인식되는 경우, 타겟 유저(1000)의 권한 내에 있는 차량(1020)과 관련된 제어를 수행할 수 있다.As another example, the electronic device 10 may be disposed in a parking lot 1010 as shown in FIG. 10 . In this case, when the target user 1000 is recognized through the electronic device 10 , the controller 130 may perform a control related to the vehicle 1020 within the authority of the target user 1000 .

제어부(130)는 타겟 유저(1000)의 권한 내에 있는 차량(1020)의 정보를 추출하기 위하여, 전자기기(10)를 통해 타겟 유저(1000)의 얼굴을 인식하고, 인식된 얼굴 이미지에 대응되는 사용자 정보를 사용자 DB로부터 추출할 수 있다. 그리고, 제어부(130)는 추출된 사용자 정보로부터, 타겟 유저(1000)의 권한 내에 있는 차량(1020, 예를 들어 타겟 유저(1000)의 소유 차량, 사용 등록 차량 등)의 정보를 확인할 수 있다. 그리고, 제어부(130)는 확인된 차량(1020)과 관련된 제어(예를 들어, 차량(1020)의 주차위치 정보 제공, 차량(1020)의 주차비 결제 등)를 수행할 수 있다.The controller 130 recognizes the face of the target user 1000 through the electronic device 10 in order to extract information on the vehicle 1020 that is within the authority of the target user 1000 , and corresponds to the recognized face image. User information can be extracted from the user DB. In addition, the controller 130 may check information of a vehicle 1020 within the authority of the target user 1000 (eg, a vehicle owned by the target user 1000 , a vehicle registered for use, etc.) from the extracted user information. In addition, the controller 130 may perform a control related to the identified vehicle 1020 (eg, providing parking location information of the vehicle 1020 , payment of a parking fee for the vehicle 1020 , etc.).

한편, 차량(1020)의 번호, 주차 위치, 주치 시간 등에 대한 정보는, 차량(1020)이 주차장(1010)에 진입하는 과정에서, 주차장(1010)에 구비되는 센서에 기반하여, 센싱될 수 있다. 그리고, 제어부(130)는 센싱된 차량(1020)의 정보 중 차량 번호 정보와 대응되는 사용자 정보를 갖는 사용자가 존재하는 경우, 해당 사용자의 정보에 차량의 주차와 관련된 정보(주차 위치, 주차 시간 등)를 매칭하여 등록할 수 있다. 따라서, 전자기기(10)를 통하여, 타겟 유저(1000)가 차량(1020)과 관련된 기능(예를 들어, 주차위치 정보 제공, 주차비 결제 등)을 요청하는 경우, 사용자 정보와 매칭되어 등록된 정보를 참조하여, 적절한 정보를 제공할 수 있다.Meanwhile, information on the number of the vehicle 1020 , the parking location, the caring time, etc. may be sensed based on a sensor provided in the parking lot 1010 while the vehicle 1020 enters the parking lot 1010 . . And, when there is a user having user information corresponding to the vehicle number information among the sensed vehicle 1020 information, the control unit 130 includes information related to parking of the vehicle (parking location, parking time, etc.) in the user's information. ) can be matched. Accordingly, when the target user 1000 requests a function (eg, providing parking location information, payment of parking fee, etc.) related to the vehicle 1020 through the electronic device 10 , information registered with the user information You can provide appropriate information by referring to .

또 다른 예로서, 도 11에 도시된 것과 같이, 전자기기(10)가 카페(1100), 음식점 등에 배치된 경우, 제어부(130)는 전자기기(10)를 통해, 타겟 유저(1000)로부터 주문 정보를 수신하고, 전자 결제를 수행할 수 있다.As another example, as shown in FIG. 11 , when the electronic device 10 is disposed in a cafe 1100 , a restaurant, etc., the control unit 130 orders from the target user 1000 through the electronic device 10 . Receive information and perform electronic payment.

이 경우, 제어부(130)는 타겟 유저(1000)를 인식하고, 사용자 DB로부터 타겟 유저(1000)의 사용자 정보 추출할 수 있다. 그리고, 추출된 사용자 정보(예를 들어, 결제 수단 정보(신용 카드 정보, 계좌 정보 등)를 이용하여, 타겟 유저(1000)의 주문에 대한 전자 결제를 수행할 수 있다.In this case, the controller 130 may recognize the target user 1000 and extract user information of the target user 1000 from the user DB. Then, using the extracted user information (eg, payment method information (credit card information, account information, etc.)), an electronic payment for the order of the target user 1000 may be performed.

한편, 타겟 유저(1000)의 사용자 정보에는, 타겟 유저(1000)의 히스토리 정보가 포함되어 있으며, 히스토리 정보는, 타겟 유저(1000)의 과거 주문 정보가 포함될 수 있다.Meanwhile, the user information of the target user 1000 may include history information of the target user 1000 , and the history information may include past order information of the target user 1000 .

제어부(130)는 이러한 히스토리 정보에 기반하여, 타겟 유저(1000)가 인식된 경우, 전자기기(10)를 통해, 과거 주문 정보에 기반하여, 특정 메뉴(예를 들어, “카페라떼”)에 대한 주문을 권유하는 주문 추천 정보(1110)를 도 11에 도시된 것과 같이 출력시킬 수 있다.When the target user 1000 is recognized based on this history information, the control unit 130 sends to a specific menu (eg, “cafe latte”) through the electronic device 10 based on past order information. As shown in FIG. 11 , order recommendation information 1110 for recommending an order for the user may be output.

한편, 카페(1100)와 같은 공간이 로봇(예를 들어, 서빙 로봇 등)이 운용되는 공간인 경우, 제어부(130)는 로봇을 이용하여, 타겟 유저(1000)가 주문한 메뉴(예를 들어, 음료, 음식 등)가 타겟 유저(1000)에게 서빙되도록 로봇을 제어할 수 있다. 이 경우, 제어부(130)는 타겟 유저(1000)가 공간 내에서 어디에 위치하고 있는지 센싱하고, 센싱된 위치로 로봇이 이동하도록 로봇을 제어할 수 있다.On the other hand, when the space such as the cafe 1100 is a space in which a robot (eg, a serving robot, etc.) is operated, the control unit 130 uses the robot and a menu ordered by the target user 1000 (eg, The robot may be controlled so that drinks, food, etc.) are served to the target user 1000 . In this case, the controller 130 may sense where the target user 1000 is located in the space and control the robot to move to the sensed position.

이상에서 살펴본 것과 같이, 본 발명에 따른 어시스턴트 서비스 제공 방법 및 시스템은, 어시스턴트 서비스 제공 방법 및 시스템이 적용된 전자기기가 배치된 위치에 따라 사용자를 어시스턴트할 수 있는 다양한 기능을 제공할 수 있다.As described above, the method and system for providing an assistant service according to the present invention can provide various functions capable of assisting a user according to a location in which an electronic device to which the method and system for providing an assistant service is applied is disposed.

위에서 살펴본 것과 같이, 본 발명에 따른 어시스턴트 서비스 제공 방법 및 시스템은, 얼굴 인식을 활용하여, 인식된 사용자에게 제공 가능한 맞춤형 기능을 제공할 수 있다. 더 나아가 본 발명은 얼굴 인식 뿐만 아니라, 얼굴 인식과 함께 음성 인식 수행함으로써, 인식된 사용자가 발화한 음성에 따른 기능을 제공할 수 있다. 따라서, 사용자는 어시스턴트 서비스를 제공하는 전자기기 주변에서 발화를 하는 것 만으로도, 목적하고자 하는 기능의 수행을 제공받을 수 있다. As described above, the method and system for providing an assistant service according to the present invention can provide a customized function that can be provided to a recognized user by utilizing face recognition. Furthermore, according to the present invention, a function according to the recognized user's voice can be provided by performing voice recognition together with face recognition as well as face recognition. Accordingly, the user can be provided with the performance of a desired function simply by uttering a speech around the electronic device that provides the assistant service.

나아가, 본 발명에 따른 어시스턴트 서비스 제공 방법 및 시스템은, 카메라를 이용하여 인증의 대상이 되는 사용자를 센싱하고, 센싱된 사용자의 권한을 확인함으로써, 사용자가 갖는 권한 내에 존재하는 기능의 제공을 보조할 수 있다. 이 경우, 본 발명에서는, 사용자가 요청한 기능이 사용자의 권한 내에 존재하지 않는 경우, 사용자의 권한 내에 존재하는 유사한 기능의 제공을 추천함으로써, 사용자의 편의성을 높일 수 있다.Furthermore, the method and system for providing an assistant service according to the present invention sense a user to be authenticated using a camera and check the sensed user's authority, thereby assisting in providing a function existing within the user's authority. can In this case, in the present invention, when the function requested by the user does not exist within the user's authority, the user's convenience can be improved by recommending provision of a similar function existing within the user's authority.

한편, 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. Meanwhile, the computer-readable medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is this.

나아가, 컴퓨터가 읽을 수 있는 매체는, 저장소를 포함하며 전자기기가 통신을 통하여 접근할 수 있는 서버 또는 클라우드 저장소일 수 있다. 이 경우, 컴퓨터는 유선 또는 무선 통신을 통하여, 서버 또는 클라우드 저장소로부터 본 발명에 따른 프로그램을 다운로드 받을 수 있다.Furthermore, the computer-readable medium may be a server or a cloud storage that includes a storage and that an electronic device can access through communication. In this case, the computer may download the program according to the present invention from a server or cloud storage through wired or wireless communication.

나아가, 본 발명에서는 위에서 설명한 컴퓨터는 프로세서, 즉 CPU(Central Processing Unit, 중앙처리장치)가 탑재된 전자기기로서, 그 종류에 대하여 특별한 한정을 두지 않는다.Furthermore, in the present invention, the computer described above is an electronic device equipped with a processor, that is, a CPU (Central Processing Unit, Central Processing Unit), and there is no particular limitation on the type thereof.

한편, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.On the other hand, the above detailed description should not be construed as limiting in all respects, but should be considered as exemplary. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention.

Claims (13)

카메라를 이용하여, 타겟 유저의 얼굴 이미지를 센싱하는 단계;
마이크를 이용하여, 상기 타겟 유저의 음성을 센싱하는 단계;
사용자 DB로부터 상기 얼굴 이미지에 대응되는 상기 타겟 유저의 사용자 정보를 추출하는 단계;
상기 사용자 정보에 근거하여, 상기 음성에 대응되는 타겟 기능에 대한 상기 타겟 유저의 권한을 확인하는 단계; 및
확인 결과에 근거하여, 상기 타겟 기능과 관련된 제어를 수행하는 단계를 포함하는 것을 특징으로 하는 어시스턴트 서비스 제공 방법.
sensing a face image of a target user using a camera;
sensing the target user's voice by using a microphone;
extracting user information of the target user corresponding to the face image from a user DB;
confirming the authority of the target user for the target function corresponding to the voice based on the user information; and
and performing control related to the target function based on a result of the verification.
제1항에 있어서,
자연어 처리 알고리즘에 근거하여 상기 음성을 분석하고, 분석결과에 근거하여 상기 타겟 기능을 결정하는 단계를 더 포함하는 것을 특징으로 하는 어시스턴트 서비스 제공 방법.
According to claim 1,
and analyzing the voice based on a natural language processing algorithm, and determining the target function based on a result of the analysis.
제2항에 있어서,
디스플레이부 상에, 상기 음성에 대응되는 기능으로서 상기 타겟 기능이 결정되었음을 알리는 안내정보 및 상기 타겟 유저의 사용자 정보 중 적어도 일부를 제공하는 단계를 더 포함하는 것을 특징으로 하는 어시스턴트 서비스 제공 방법.
3. The method of claim 2,
and providing, on a display unit, at least part of guide information indicating that the target function has been determined as a function corresponding to the voice and user information of the target user, on a display unit.
제2항에 있어서,
분석 결과, 상기 타겟 기능이 특정 장소에 대한 예약 기능인 경우, 상기 권한을 확인하는 단계에서는,
상기 사용자 정보에 근거하여, 상기 타겟 유저가 상기 특정 장소에 대한 예약 권한이 존재하는지를 판단하는 것을 특징으로 하는 어시스턴트 서비스 제공 방법.
3. The method of claim 2,
As a result of the analysis, if the target function is a reservation function for a specific place, in the step of checking the authority,
and determining whether the target user has a reservation right for the specific place, based on the user information.
제4항에 있어서,
상기 특정 장소는,
상기 카메라 및 상기 마이크를 구비하는 전자기기가 배치된 위치에 근거하여, 결정되는 것을 특징으로 하는 어시스턴트 서비스 제공 방법.
5. The method of claim 4,
The specific place is
The assistant service providing method, characterized in that it is determined based on a location in which the electronic device including the camera and the microphone is disposed.
제4항에 있어서,
상기 타겟 기능과 관련된 제어를 수행하는 단계에서는,
상기 타겟 유저가 상기 특정 장소에 대한 예약 권한이 존재하는지 여부에 근거하여, 상기 특정 장소에 대한 예약과 관련된 서로 다른 제어를 수행하는 것을 특징으로 하는 어시스턴트 서비스 제공 방법.
5. The method of claim 4,
In the step of performing control related to the target function,
and performing different controls related to a reservation for the specific place, based on whether the target user has a reservation right for the specific place.
제6항에 있어서,
상기 타겟 기능과 관련된 제어를 수행하는 단계에서는,
상기 특정 장소에 대한 예약 권한이 상기 타겟 유저에게 존재하는 경우, 상기 특정 장소에 대한 예약을 수행하고,
상기 특정 장소에 대한 예약 권한이 상기 타겟 유저에게 존재하지 않는 경우, 상기 특정 장소와 다른 장소에 대한 예약을 가이드 하는 것을 특징으로 하는 어시스턴트 서비스 제공 방법.
7. The method of claim 6,
In the step of performing control related to the target function,
When the reservation right for the specific place exists in the target user, the reservation is performed for the specific place,
When the reservation right for the specific place does not exist in the target user, the method for providing an assistant service, characterized in that the guide guides a reservation for a place different from the specific place.
제7항에 있어서,
상기 특정 장소와 다른 장소는,
상기 특정 장소와 가장 까가운 장소이면서, 상기 타겟 유저가 예약 권한을 갖는 장소인 것을 특징으로 하는 어시스턴트 서비스 제공 방법.
8. The method of claim 7,
A place different from the specific place mentioned above,
The assistant service providing method, characterized in that it is a place closest to the specific place and a place where the target user has a reservation right.
제7항에 있어서,
상기 특정 장소에 대한 예약이 수행된 경우, 상기 타겟 유저의 사용자 정보에 근거하여, 상기 특정 장소에 대한 예약 정보를 상기 타겟 유저의 일정 정보에 추가하는 단계를 더 포함하는 것을 특징으로 하는 어시스턴트 서비스 제공 방법.
8. The method of claim 7,
When the reservation for the specific location is performed, the method further comprising the step of adding reservation information for the specific location to the schedule information of the target user based on the user information of the target user. Way.
제7항에 있어서,
상기 특정 장소에 대한 예약이 수행되고, 상기 특정 장소와 관련된 참석자에 대한 정보가 수신된 경우,
상기 사용자 DB로부터 상기 참석자의 사용자 정보를 추출하고, 상기 참석자의 사용자 정보를 이용하여, 상기 참석자에게 상기 특정 장소에 대한 예약 정보를 공유하는 단계를 포함하는 것을 특징으로 하는 어시스턴트 서비스 제공 방법.
8. The method of claim 7,
When a reservation for the specific place is made, and information on attendees related to the specific place is received,
and extracting user information of the attendee from the user DB and sharing reservation information for the specific place with the attendee using the user information of the attendee.
제2항에 있어서,
분석 결과, 상기 타겟 기능이 장소에 대한 예약 기능이고, 상기 타겟 유저에 의한 사용자 입력에 근거하여 참석자에 대한 정보가 수신된 경우,
상기 참석자 및 상기 타겟 유저와 각각 관련된 위치를 근거로, 상기 타겟 유저의 예약권한 내에 존재하는 특정 장소를 추천 장소로서 검색하는 단계를 더 포함하는 것을 특징으로 하는 어시스턴트 서비스 제공 방법.
3. The method of claim 2,
As a result of the analysis, when the target function is a reservation function for a place, and information on attendees is received based on a user input by the target user,
and searching, as a recommended place, a specific place existing within the reservation right of the target user, based on the respective locations associated with the participant and the target user.
타겟 유저의 얼굴 이미지를 센싱하는 카메라;
상기 타겟 유저의 음성을 센싱하는 마이크;
사용자 DB로부터 상기 얼굴 이미지에 대응되는 상기 타겟 유저의 사용자 정보를 추출하고, 상기 사용자 정보에 근거하여, 상기 음성에 대응되는 타겟 기능에 대한 상기 타겟 유저의 권한을 확인하는 제어부를 포함하고,
상기 제어부는,
확인 결과에 근거하여, 상기 타겟 기능과 관련된 제어를 수행하는 것을 특징으로 하는 어시스턴트 서비스 제공 방법.
a camera for sensing a face image of a target user;
a microphone for sensing the target user's voice;
a control unit for extracting user information of the target user corresponding to the face image from a user DB, and confirming the authority of the target user for the target function corresponding to the voice based on the user information;
The control unit is
and performing control related to the target function based on a result of the check.
전자기기에서 하나 이상의 프로세스에 의하여 실행되며, 컴퓨터로 판독될 수 있는 매체에 저장 가능한 프로그램으로서,
상기 프로그램은,
카메라를 이용하여, 타겟 유저의 얼굴 이미지를 센싱하는 단계;
마이크를 이용하여, 상기 타겟 유저의 음성을 센싱하는 단계;
사용자 DB로부터 상기 얼굴 이미지에 대응되는 상기 타겟 유저의 사용자 정보를 추출하는 단계;
상기 사용자 정보에 근거하여, 상기 음성에 대응되는 타겟 기능에 대한 상기 타겟 유저의 권한을 확인하는 단계; 및
확인 결과에 근거하여, 상기 타겟 기능과 관련된 제어를 수행하는 단계를 수행하도록 하는 명령어들을 포함하는 것을 특징으로 하는 컴퓨터로 판독될 수 있는 매체에 저장 가능한 프로그램.
A program that is executed by one or more processes in an electronic device and can be stored in a computer-readable medium,
The program is
sensing a face image of a target user using a camera;
sensing the target user's voice by using a microphone;
extracting user information of the target user corresponding to the face image from a user DB;
confirming the authority of the target user for the target function corresponding to the voice based on the user information; and
A program storable in a computer-readable medium, comprising instructions for performing a control related to the target function based on a result of the check.
KR1020210013170A 2021-01-29 2021-01-29 Method and ststem for providing assistant service KR102581000B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020210013170A KR102581000B1 (en) 2021-01-29 2021-01-29 Method and ststem for providing assistant service
JP2022010171A JP7379550B2 (en) 2021-01-29 2022-01-26 Assistant service provision method and system
TW111103551A TW202230268A (en) 2021-01-29 2022-01-27 Method and system for providing assistant service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210013170A KR102581000B1 (en) 2021-01-29 2021-01-29 Method and ststem for providing assistant service

Publications (2)

Publication Number Publication Date
KR20220109764A true KR20220109764A (en) 2022-08-05
KR102581000B1 KR102581000B1 (en) 2023-09-21

Family

ID=82749814

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210013170A KR102581000B1 (en) 2021-01-29 2021-01-29 Method and ststem for providing assistant service

Country Status (3)

Country Link
JP (1) JP7379550B2 (en)
KR (1) KR102581000B1 (en)
TW (1) TW202230268A (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150145350A (en) * 2014-06-18 2015-12-30 네이버 주식회사 Method, system and recording medium for meeting place recommendation using location and preference of users and file distribution system
KR20170135797A (en) * 2017-11-28 2017-12-08 최재원 Intelligent reservation system
KR20170140122A (en) * 2017-11-07 2017-12-20 주식회사 라온영 Location booking service method and server performing the same
KR20190035557A (en) * 2017-09-25 2019-04-03 캐논 가부시끼가이샤 Information processing terminal, method, and system including information processing terminal
KR20200011555A (en) * 2015-09-08 2020-02-03 애플 인크. Intelligent automated assistant in a media environment
KR20200023518A (en) * 2016-09-23 2020-03-04 애플 인크. Intelligent automated assistant
KR20220084629A (en) * 2020-12-14 2022-06-21 네이버 주식회사 Place recommendation method and system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005102081A (en) 2003-09-26 2005-04-14 Minolta Co Ltd Monitoring camera system
JP2011227847A (en) 2010-04-23 2011-11-10 Chugoku Electric Power Co Inc:The Conference room reservation support system
JP2019049871A (en) 2017-09-11 2019-03-28 富士ゼロックス株式会社 Conference room reservation system, information processing apparatus and program
JP6950397B2 (en) 2017-09-21 2021-10-13 富士フイルムビジネスイノベーション株式会社 Information processing equipment, information processing systems and programs
JPWO2019082630A1 (en) 2017-10-23 2020-12-03 ソニー株式会社 Information processing device and information processing method
EP3893087A4 (en) 2018-12-07 2022-01-26 Sony Group Corporation Response processing device, response processing method, and response processing program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150145350A (en) * 2014-06-18 2015-12-30 네이버 주식회사 Method, system and recording medium for meeting place recommendation using location and preference of users and file distribution system
KR20200011555A (en) * 2015-09-08 2020-02-03 애플 인크. Intelligent automated assistant in a media environment
KR20200023518A (en) * 2016-09-23 2020-03-04 애플 인크. Intelligent automated assistant
KR20190035557A (en) * 2017-09-25 2019-04-03 캐논 가부시끼가이샤 Information processing terminal, method, and system including information processing terminal
KR20170140122A (en) * 2017-11-07 2017-12-20 주식회사 라온영 Location booking service method and server performing the same
KR20170135797A (en) * 2017-11-28 2017-12-08 최재원 Intelligent reservation system
KR20220084629A (en) * 2020-12-14 2022-06-21 네이버 주식회사 Place recommendation method and system

Also Published As

Publication number Publication date
TW202230268A (en) 2022-08-01
KR102581000B1 (en) 2023-09-21
JP7379550B2 (en) 2023-11-14
JP2022117472A (en) 2022-08-10

Similar Documents

Publication Publication Date Title
US9706406B1 (en) Security measures for an electronic device
US11171963B2 (en) System for authentication of a user based on multi-factor passively acquired data
US20190057684A1 (en) Electronic device and method for controlling the same
KR102623727B1 (en) Electronic device and Method for controlling the electronic device thereof
US11006077B1 (en) Systems and methods for dynamically concealing sensitive information
US11765234B2 (en) Electronic device, server and recording medium supporting task execution using external device
KR20190096618A (en) Electronic device and method for executing function of electronic device
US10464570B2 (en) Electronic device and method using machine learning for identifying characteristics of users located within a specific space
KR102440651B1 (en) Method for providing natural language expression and electronic device supporting the same
KR102353486B1 (en) Mobile terminal and method for controlling the same
CN104904158A (en) Method and system for controlling external device
KR102472010B1 (en) Electronic device and method for executing function of electronic device
KR102390685B1 (en) Electric terminal and method for controlling the same
US20180068177A1 (en) Method, device, and non-transitory computer-readable recording medium
KR102399809B1 (en) Electric terminal and method for controlling the same
KR102629007B1 (en) Method and ststem for user authentication
US20180182393A1 (en) Security enhanced speech recognition method and device
US20180068321A1 (en) Reception supporting method and device
KR102581000B1 (en) Method and ststem for providing assistant service
JP7352670B2 (en) Electronic payment methods and systems
KR102565197B1 (en) Method and system for providing digital human based on the purpose of user's space visit
TWI831482B (en) Face recognition system, method for controlling the same, and computer program for executing the same
US20230196299A1 (en) Attendance recording terminal

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant