KR102427761B1 - Did device, did system, and control method for a did device - Google Patents
Did device, did system, and control method for a did device Download PDFInfo
- Publication number
- KR102427761B1 KR102427761B1 KR1020220009955A KR20220009955A KR102427761B1 KR 102427761 B1 KR102427761 B1 KR 102427761B1 KR 1020220009955 A KR1020220009955 A KR 1020220009955A KR 20220009955 A KR20220009955 A KR 20220009955A KR 102427761 B1 KR102427761 B1 KR 102427761B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- user
- voice
- face
- screen
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은 DID 장치에 관한 것으로서, 구체적으로는 사용자에게 효과적으로 정보를 전달할 수 있는 DID 장치, DID 시스템 및 DID 장치의 제어방법에 관한 것이다.The present invention relates to a DID device, and more particularly, to a DID device capable of effectively delivering information to a user, a DID system, and a method for controlling the DID device.
DID(Digital Information Display) 장치는 안내 및 홍보의 기능을 하도록 개발된 것으로서 근래에는 관공서, 공항, 지하철역, 병원 등 다양한 장소에서 사용되고 있다. DID 장치가 특정 시설에 설치된 경우, DID 장치는 해당 시설의 주변에 무엇이 있는지, 환경이 어떠한지를 사용자에게 안내해 주어 사용자가 해당 시설을 더 편리하게 이용할 수 있게 해준다.A DID (Digital Information Display) device was developed to serve as a guide and publicity, and has recently been used in various places such as government offices, airports, subway stations, and hospitals. When the DID device is installed in a specific facility, the DID device guides the user about what is around the facility and what the environment is, so that the user can use the facility more conveniently.
DID 장치가 사용자 편의 증대에 있어 높은 잠재력을 가지지만, 종래의 DID 장치는 제공하는 정보가 한정되어 있고 사용하는 방법이 직관적이지 않아 사용자들이 이를 이용하는 빈도가 높지 않다. 결국, 현재 사용되고 있는 DID 장치의 다수는 대부분의 시간 동안에는 단지 광고 화면만을 제공하는 광고판의 역할만을 하고 있는 실정이다.Although the DID device has high potential for user convenience, the conventional DID device provides limited information and is not intuitive to use, so users do not use it frequently. As a result, many of the currently used DID devices only serve as billboards providing only an advertisement screen for most of the time.
따라서 본 발명은 상술한 문제점을 해결하기 위해 도출된 것으로서, 본 발명의 일측면은 사용자에게 효과적으로 정보를 전달할 수 있는 DID 장치, DID 시스템 및 DID 장치의 제어방법을 제공하려는 것이다.Accordingly, the present invention has been derived to solve the above problems, and one aspect of the present invention is to provide a DID device, a DID system, and a method for controlling the DID device that can effectively deliver information to a user.
본 발명의 다른 목적들은 이하에 서술되는 실시예를 통하여 더욱 명확해질 것이다.Other objects of the present invention will become clearer through the examples described below.
본 발명의 일측면은 DID 장치를 제공한다. 본 발명의 일측면에 따른 DID 장치는 외부 서버와 연결된 것으로서, 얼굴인식 카메라를 통해 얻어진 영상정보에 사용자의 얼굴이 검출되는지 여부를 판단하고 상기 사용자의 얼굴 높이를 판단하도록 구성된 얼굴인식부; 음성인식 마이크를 통해 음성정보를 획득하도록 구성된 음성명령 인식부; 상기 음성정보를 상기 외부 서버에 전달하고 상기 외부 서버로부터 상기 음성정보에 대응하는 텍스트정보를 수신하도록 구성된 송수신부; 및 상기 텍스트정보에 대응하여 생성된 응대정보에 기초하여 화면출력정보 및 음성출력정보를 생성하며 상기 화면출력정보를 디스플레이 장치에 전송하고 상기 음성출력정보를 스피커에 전달하도록 구성된 명령 처리부를 포함할 수 있고, 상기 명령 처리부는 상기 응대정보의 유형에 따라 상기 디스플레이 장치의 화면 분할 형태를 결정할 수 있다.One aspect of the present invention provides a DID device. A DID device according to an aspect of the present invention is connected to an external server, and includes: a face recognition unit configured to determine whether a user's face is detected in image information obtained through a face recognition camera and to determine the height of the user's face; a voice command recognition unit configured to acquire voice information through a voice recognition microphone; a transceiver configured to transmit the voice information to the external server and receive text information corresponding to the voice information from the external server; and a command processing unit configured to generate screen output information and audio output information based on the response information generated in response to the text information, transmit the screen output information to a display device, and transmit the audio output information to a speaker and the command processing unit may determine a screen division type of the display device according to the type of the response information.
본 발명에 따른 DID 장치는 다음과 같은 실시예들을 하나 또는 그 이상 구비할 수 있다. 예를 들면, 상기 명령 처리부는 상기 송수신부를 통해 상기 텍스트정보를 상기 외부 서버에 전송하고 상기 송수신부를 통해 상기 응대정보를 상기 외부 서버로부터 획득할 수 있다. 또한, 상기 명령 처리부는 상기 영상정보에 상기 사용자의 얼굴이 검출된 상태를 유지하는 시간에 대응하는 얼굴인식시간을 기준값과 비교하여 상기 얼굴인식시간이 상기 기준값을 초과하면 사전설정된 안내정보를 상기 스피커에 전송할 수 있다.The DID device according to the present invention may have one or more of the following embodiments. For example, the command processing unit may transmit the text information to the external server through the transceiver and obtain the response information from the external server through the transceiver. In addition, the command processing unit compares a face recognition time corresponding to a time for maintaining the state in which the user's face is detected in the image information with a reference value, and when the face recognition time exceeds the reference value, preset guide information is provided to the speaker can be sent to
본 발명의 다른 일측면은 DID 시스템을 제공한다. 본 발명의 일측면에 따른 DID 시스템은 외부 서버에 연결된 그룹 서버; 및 상기 그룹 서버와 연결되고 하나의 시설의 서로 다른 구역에 설치된 복수의 DID 장치를 포함할 수 있는데, 상기 복수의 DID 장치는 각각 센서를 포함할 수 있고, 상기 복수의 DID 장치 중 적어도 하나는, 얼굴인식 카메라를 통해 얻어진 영상정보에 사용자의 얼굴이 검출되는지 여부를 판단하고 상기 사용자의 얼굴 높이를 판단하도록 구성된 얼굴인식부; 음성인식 마이크를 통해 음성정보를 획득하도록 구성된 음성명령 인식부; 상기 음성정보를 상기 그룹 서버에 전달하고 상기 그룹 서버로부터 상기 음성정보에 대응하는 텍스트정보를 수신하며 상기 텍스트정보에 대응하는 응대정보 요청을 상기 그룹 서버에 전송하고 상기 그룹 서버로부터 상기 응대정보 요청에 대응하는 응대정보를 수신하도록 구성된 송수신부; 및 상기 텍스트정보에 기초하여 상기 응대정보 요청신호를 생성하고 상기 응대 정보에 기초하여 화면출력 정보 및 음성출력 정보를 생성하며 상기 화면출력 정보를 디스플레이 장치에 전송하고 상기 음성출력 정보를 스피커에 전송하도록 구성된 명령 처리부를 포함할 수 있으며, 상기 응대정보는 상기 복수의 DID 장치 중 적어도 하나의 DID 장치의 센서에서 검출한 정보를 포함할 수 있고, 상기 명령 처리부는 상기 응대 정보의 유형에 따라 상기 디스플레이 장치의 화면 분할 형태를 결정할 수 있다.Another aspect of the present invention provides a DID system. A DID system according to an aspect of the present invention includes a group server connected to an external server; and a plurality of DID devices connected to the group server and installed in different areas of one facility, wherein each of the plurality of DID devices may include a sensor, and at least one of the plurality of DID devices comprises: a face recognition unit configured to determine whether a user's face is detected in the image information obtained through the face recognition camera and to determine the height of the user's face; a voice command recognition unit configured to acquire voice information through a voice recognition microphone; transmits the voice information to the group server, receives text information corresponding to the voice information from the group server, transmits a response information request corresponding to the text information to the group server, and responds to the response information request from the group server a transceiver configured to receive corresponding response information; and generating the response information request signal based on the text information, generating screen output information and audio output information based on the response information, transmitting the screen output information to a display device, and transmitting the audio output information to a speaker and a configured command processing unit, wherein the response information may include information detected by a sensor of at least one DID device among the plurality of DID devices, and the command processing unit may include the display device according to the type of response information. You can determine the screen division type of .
본 발명의 또 다른 일측면은 DID 장치의 제어방법을 제공한다. 본 발명의 일측면에 따른 DID 장치 제어방법은 외부 서버와 연결된 DID 장치를 제어하는 방법으로서, 얼굴인식 카메라로부터 영상정보를 수신하는 단계; 상기 영상정보에 사용자의 얼굴이 검출되는지 여부를 판단하는 단계; 상기 영상정보에 상기 사용자의 얼굴이 검출된 상태를 유지하는 시간에 대응하는 얼굴인식시간을 기준값과 비교하여 상기 얼굴인식시간이 상기 기준값을 초과하면 상기 사용자가 대기 중인 것으로 판단하는 단계; 상기 사용자가 대기 중인 것으로 판단되면 음성정보를 수신하는 단계; 상기 음성정보를 상기 외부 서버에 전달하는 단계; 상기 음성정보에 대응하는 텍스트정보를 수신하는 단계; 상기 텍스트정보에 대응하여 생성된 응대정보에 기초하여 화면출력정보 및 음성출력정보를 생성하는 단계를 포함할 수 있는데, 상기 화면출력정보는 상기 디스플레이 장치의 화면 분할 형태를 지정할 수 있고, 상기 화면 분할 형태는 상기 응대정보의 유형에 따라 결정될 수 있다.Another aspect of the present invention provides a method for controlling a DID device. A DID device control method according to an aspect of the present invention is a method for controlling a DID device connected to an external server, comprising: receiving image information from a face recognition camera; determining whether a user's face is detected in the image information; comparing a face recognition time corresponding to a time in which the user's face is maintained in the image information with a reference value and determining that the user is on standby when the face recognition time exceeds the reference value; receiving voice information when it is determined that the user is waiting; transmitting the voice information to the external server; receiving text information corresponding to the voice information; and generating screen output information and voice output information based on the response information generated in response to the text information, wherein the screen output information may designate a screen division form of the display device, and the screen division The form may be determined according to the type of the response information.
이상에서 살펴본 바와 같은 본 발명의 과제 해결 수단에 의하면 다음과 같은 사항을 포함하는 다양한 효과를 기대할 수 있다. 다만, 본 발명은 아래의 효과를 모두 발휘해야 성립되는 것은 아니다. According to the problem solving means of the present invention as described above, various effects including the following items can be expected. However, the present invention is not established only when all of the following effects are exhibited.
본 발명의 일실시예에 따르면, 다양한 종류의 정보를 신속하게 제공할 수 있고 직관적인 방법으로 사용될 수 있어 사용자의 이용을 유도할 수 있는 DID 장치, DID 시스템 및 DID 장치의 제어방법이 제공된다.According to an embodiment of the present invention, there is provided a DID device, a DID system, and a method for controlling a DID device that can provide various types of information quickly and can be used in an intuitive way to induce a user to use it.
도 1은 본 발명의 일실시예에 따른 DID 시스템을 예시하는 블록도이다.
도 2는 본 발명의 일실시예에 따른 DID 시스템의 제1 구성예를 예시하는 개념도이다.
도 3은 본 발명의 일실시예에 따른 DID 시스템의 제2 구성예를 예시하는 개념도이다.
도 4는 본 발명의 일실시예에 따른 DID 인터페이스가 출력할 수 있는 화면을 예시하는 도면이다.
도 5는 본 발명의 일실시예에 따른 DID 시스템의 동작을 예시하는 흐름도이다.
도 6은 본 발명의 일실시예에 따른 DID 시스템의 동작을 예시하는 흐름도이다.
도 7은 본 발명의 일실시예에 따른 DID 시스템의 동작을 예시하는 흐름도이다.
도 8은 본 발명의 일실시예에 따른 DID 장치의 제어방법을 예시하는 흐름도이다.
도 9는 본 발명의 일실시예에 따른 DID 장치의 제어방법을 예시하는 흐름도이다.1 is a block diagram illustrating a DID system according to an embodiment of the present invention.
2 is a conceptual diagram illustrating a first configuration example of a DID system according to an embodiment of the present invention.
3 is a conceptual diagram illustrating a second configuration example of a DID system according to an embodiment of the present invention.
4 is a diagram illustrating a screen that can be output by the DID interface according to an embodiment of the present invention.
5 is a flowchart illustrating the operation of a DID system according to an embodiment of the present invention.
6 is a flowchart illustrating the operation of a DID system according to an embodiment of the present invention.
7 is a flowchart illustrating the operation of a DID system according to an embodiment of the present invention.
8 is a flowchart illustrating a method of controlling a DID device according to an embodiment of the present invention.
9 is a flowchart illustrating a method of controlling a DID device according to an embodiment of the present invention.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에서 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Since the present invention can apply various transformations and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. In describing the present invention, if it is determined that a detailed description of a related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.
이하, 첨부한 도면들을 참조하여 본 발명에 따른 실시예들을 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어 도면 부호에 상관없이 동일하거나 대응하는 구성 요소는 동일한 참조번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings, and in the description with reference to the accompanying drawings, the same or corresponding components are given the same reference numbers regardless of the reference numerals, and duplicates thereof A description will be omitted.
도 1은 본 발명의 일실시예에 따른 DID 시스템(1000)을 예시하는 블록도이다. 도 2는 본 발명의 일실시예에 따른 DID 시스템(1000)의 제1 구성예를 예시하는 개념도이고, 도 3은 본 발명의 일실시예에 따른 DID 시스템(1000)의 제2 구성예를 예시하는 개념도이다. 도 4는 본 발명의 일실시예에 따른 DID 인터페이스(100)가 출력할 수 있는 화면(152)을 예시하는 도면이다.1 is a block diagram illustrating a
본 발명의 일실시예에 따른 DID 시스템(1000)은 크게 DID 인터페이스(100), DID 장치(200), 그룹 서버(300), 외부 서버(400, 500) 및 DID 관리 서버(600)를 포함할 수 있다. The
도면에는 DID 인터페이스(100)와 DID 장치(200)가 별개의 구성요소로 묘사되어 있지만, DID 인터페이스(100)와 DID 장치(200)는 하나로 통합되어 사용될 수 있다. 또한, DID 시스템(1000)에는 DID 인터페이스(100)와 DID 장치(200)가 여러 개 포함될 수 있다. 예를 들어, DID 시스템(1000)이 하나의 관공서에 적용되는 경우, 각 층의 로비, 엘리베이터 홀 등 주요 위치에 각각 DID 인터페이스(100)와 DID 장치(200)가 설치될 수 있다.Although the
DID 인터페이스(100)는 얼굴인식 카메라(110), 음성인식 마이크(120), 모션 센서(130), 터치 스크린(140), 디스플레이 장치(150) 및 스피커(160)를 포함할 수 있다. 전술한 바와 같이, DID 인터페이스(100)는 DID 장치(200)와 통합된 형태로 구현될 수도 있다. DID 인터페이스(100)는 예를 들어 DID 시스템(1000)이 적용된 시설의 특정 구역에 설치된 패널 또는 키오스크의 형태로 구현될 수 있다.The
얼굴인식 카메라(110)는 DID 인터페이스(100)의 전방을 향해 설치되어 영상정보를 획득하도록 구성될 수 있다. 얼굴인식 카메라(110) 자체가 얼굴을 인식하는 기능을 포함할 수도 있지만 일반 카메라의 형태로 구현될 수도 있다.The
음성인식 마이크(120)는 DID 인터페이스(100)의 전방을 향해 설치되어 음성정보를 획득하도록 구성될 수 있다. 음성인식 마이크(120)는 항시 음성정보를 획득하도록 설정될 수도 있고, DID 장치(200)의 제어에 의해 DID 인터페이스(100)가 음성입력 대기모드로 전환될 때에만 음성정보를 획득하도록 설정될 수도 있다.The
모션 센서(130)는 DID 인터페이스(100) 전방의 소정 영역 내에서 이루어지는 사용자의 동작을 감지하도록 구성될 수 있다. 모션 센서(130)는 예를 들어 DID 인터페이스(100)의 상부 또는 하부에서 소정 각도로 복수의 적외선 광선을 방사하여 그 반사되는 광선의 입력을 감지할 수 있다. The
터치 스크린(140)은 사용자의 접촉에 의해 사용자 입력을 수신하도록 구성될 수 있다. 터치 스크린(140)은 디스플레이 장치(150)와 통합된 형태로 구현될 수도 있다. 일부 실시예에 따른 DID 인터페이스(100)는 모션 센서(130)와 터치 스크린(140) 중 어느 하나만을 포함할 수도 있다.The
디스플레이 장치(150)는 사용자에게 보여지는 화면을 출력하는 것으로서, 사용자에게 시각적으로 정보를 제공하도록 구성될 수 있다. 디스플레이 장치(150)는 후술하는 DID 장치(200)의 명령 처리부(240)가 제공하는 화면출력정보를 화면(152; 도 4 참조)에 출력할 수 있다.The
스피커(160)는 사용자에게 음성 및/또는 음향 신호를 출력하는 것으로서, 사용자에게 청각적으로 정보를 제공하도록 구성될 수 있다. 스피커(160)는 후술하는 DID 장치(200)의 명령 처리부(240)가 제공하는 음성출력정보를 출력할 수 있다.The
DID 장치(200)는 얼굴인식부(210), 음성명령인식부(220), 동작인식부(230), 명령 처리부(240), 송수신부(250), 센서(260) 및 데이터베이스(270)를 포함할 수 있다. 전술한 바와 같이, DID 장치(200)는 DID 인터페이스(100)와 통합된 형태로 구현될 수 있는데, 필요에 따라 하나의 DID 장치(200)가 복수 개의 DID 인터페이스(100)와 연결될 수도 있다. The
얼굴인식부(210)는 얼굴인식 카메라(110)를 통해 얻어진 영상정보에 사용자의 얼굴이 검출되는지 여부를 판단할 수 있다. 얼굴인식부(210)는 예를 들어 영상정보에서 사람의 얼굴에 대응하는 것으로 볼 수 있는 형상이 존재하고 해당 형상이 소정 크기 조건을 만족하는지 여부를 판단할 수 있다. 사람의 얼굴에 대응하는 형상이 소정 범위 이내의 크기로 검출되고 이와 같이 검출된 상태가 기준값을 초과하여 유지되는 경우, 얼굴인식부(210)는 DID 인터페이스(100) 앞에 사용자가 대기하고 있는 것으로 판단할 수 있다. 얼굴인식부(210)는 획득한 영상정보 내에서의 사용자 얼굴의 높이 및/또는 크기를 추출할 수도 있다. The
음성명령 인식부(220)는 음성인식 마이크(120)를 통해 음성정보를 획득하도록 구성될 수 있다. 음성명령 인식부(220)는 예를 들어 음성인식 마이크(120)를 통해 항시 수신되는 음성정보 중 명령 처리부(240)에서 지정하는 기간 중의 음성정보를 추출할 수도 있고, 명령 처리부(240)에서 제어신호가 수신될 때에만 음성정보가 음성인식 마이크(120)를 통해 획득되도록 설정할 수도 있다.The voice
동작인식부(230)는 모션 센서(130) 및/또는 터치 스크린(140)의 감지 신호를 바탕으로 사용자의 입력을 인식하도록 구성될 수 있다. 예를 들어, 모션 센서(130)가 구비된 DID 인터페이스(100)의 경우, 동작인식부(230)는 모션 센서(130)의 감지 신호를 바탕으로 사용자의 손동작을 인식할 수 있으며, 이러한 손동작에 대응하는 입력이 디스플레이 장치(150)에 표현되도록 구성될 수 있다. 또한, 터치 스크린(140)이 구비된 DID 인터페이스(100)의 경우, 동작인식부(230)는 터치 스크린(140)을 통해 제공되는 사용자 입력을 인식할 수 있다.The
명령 처리부(240)는 DID 장치(200)의 전반적인 제어를 수행하는 부분에 해당할 수 있다. 특히, 명령 처리부(240)는 음성명령 인식부(220) 및 동작인식부(230)로부터 얻어지는 사용자 입력으로부터 사용자의 의도를 파악하고 사용자가 요구하는 정보를 제공하는 역할을 할 수 있다. 명령 처리부(240)는 사용자가 요구하는 정보를 화면출력정보 및 음성출력정보의 형태로 생성할 수 있으며, 이들을 각각 디스플레이 장치(150) 및 스피커(160)에 전송할 수 있다.The
DID 장치(200)의 데이터베이스(270)에는 DID 장치(200)와 연관된 DID 인터페이스(100)의 디스플레이 장치(150)의 화면 구성에 관한 설정정보가 저장될 수 있다. 여기서, 화면 구성에 관한 설정정보에는 디스플레이 장치(150)의 화면(152)이 취할 수 있는 다양한 화면 분할 형태에 관한 정보가 포함될 수 있다. 즉, 화면 구성에 관한 설정정보에는 화면(152)이 복수의 분할 구역으로 나뉘어질 수 있는 다양한 배치 형태가 저장될 수 있다. 명령 처리부(240)는 화면출력정보를 생성할 때 특정 화면 분할 형태를 지정할 수 있으며, 각각의 분할 구역에 어떠한 내용을 출력할지를 지정할 수 있다. In the
일부 실시예에서는 얼굴인식부(210) 또는 명령 처리부(240)가 얼굴인식 카메라(110)를 통해 얻어진 영상정보 내의 사용자의 얼굴로부터 사용자 얼굴의 높이 및/또는 크기를 추출할 수 있다. 명령 처리부(240)는 더 나아가 DID 장치(200)를 사용하고 있는 사용자의 키 및/또는 나이를 추정할 수 있으며, 이를 화면출력정보에 반영할 수 있다. In some embodiments, the
명령 처리부(240)는 사용자의 키를 반영하여 화면출력정보를 생성할 수 있다. 예를 들어, 명령 처리부(240)는 사용자가 요구한 정보를 제공함에 있어 화면(152)이 도 4에 도시된 것과 같이 상하 방향으로 3개의 분할 구역(154, 156, 158)으로 나뉘어지는 화면 분할 형태를 선택할 수 있다. 이 경우, 명령 처리부(240)는 사용자의 키에서(사용자의 얼굴의 높이에서) 가시성이 가장 좋은 중간 분할 구역(156)에 사용자가 요구한 정보가 출력되고, 이와 관련된 정보 및/또는 기타 정보가 나머지 분할 구역(154, 158)에 출력되도록 화면출력정보를 생성할 수 있다.The
또한, 명령 처리부(240)는 얼굴인식부(210)에서 인식한 사용자의 얼굴로부터 사용자의 나이 및/또는 성별을 추정할 수 있다. 이 경우, 명령 처리부(240)는 화면(152)의 분할 구역(154, 156, 158) 중 하나 이상에 해당 연령대 또는 성별의 사용자가 관심을 가질 만한 내용이 출력되도록 화면출력정보를 생성할 수 있다.Also, the
송수신부(250)는 명령 처리부(240)의 제어에 따라 그룹 서버(300) 및/또는 외부 서버(400, 500)를 대상으로 정보를 송수신할 수 있다. 즉, DID 장치(200)는 송수신부(250)에 의해 그룹 서버(300) 및/또는 외부 서버(400, 500)와 연결될 수 있다. 여기서, DID 장치(200)가 그룹 서버(300) 및/또는 외부 서버(400, 500)와 연결된다 함은 다양한 유선 및/또는 무선 네트워크에 의해 정보 교환이 가능하도록 연결되는 것을 의미한다.The
센서(260)는 DID 장치(200) 또는 DID 인터페이스(100)가 설치된 위치에서 특정 환경정보를 측정하도록 구성될 수 있다. 센서(260)가 측정하는 환경정보에는 예를 들어 DID 장치(200) 또는 DID 인터페이스(100)가 설치된 실내 공간 또는 해당 시설물 주위의 실외 공간의 온도, 습도, 미세먼지 농도 등이 포함될 수도 있고, DID 장치(200) 또는 DID 인터페이스(100)가 설치된 실내 공간에 출입한 인원 수 등이 포함될 수도 있다.The
데이터베이스(270)는 DID 장치(200)의 다양한 구성요소들이 필요로 하는 정보 및 센서(260)에서 측정한 정보를 저장할 수 있다.The
그룹 서버(300)는 센서 관제센터(310), 제어부(320) 및 데이터베이스(330)를 포함할 수 있다. 그룹 서버(300)는 다수의 DID 장치(200)를 관제하는 역할을 할 수 있다. 일부 실시예에서는 복수의 DID 장치(200) 중 하나가 그룹 서버(300)의 역할을 겸할 수도 있고, 일부 실시예에서는 그룹 서버(300)가 생략될 수도 있다. 또한, 일부 실시예에서는 그룹 서버(300)가 후술하는 DID 관리 서버(600)와 통합될 수도 있다.The
센서 관제센터(310)는 다수의 DID 장치(200)의 센서(260)를 관리할 수 있으며, 각 센서(260)에서 수집한 측정값을 데이터베이스(330)에 저장할 수 있다. DID 장치(200)들이 하나의 시설의 서로 다른 구역에 설치된 경우, 복수의 DID 장치(200) 중 어느 하나의 센서(260)의 값이 나머지 DID 장치(200)의 센서(260)에 비해 과도한 차이를 나타내는 경우 센서 관제센터(310)는 이를 관리자에게 알릴 수 있다.The
제어부(320)는 그룹 서버(300)의 전반적인 작동을 제어할 수 있다. DID 장치(200)가 그룹 서버(300)에 정보를 요청하면 제어부(320)는 센서 관제센터(310) 및/또는 데이터베이스(330)로부터 해당 정보를 DID 장치(200)에 제공할 수 있다.The
데이터베이스(330)는 센서 관제센터(310) 및 제어부(320)의 작동과 관련된 다양한 데이터를 저장할 수 있다.The
본 발명의 일실시예에 따른 DID 시스템(1000)에서 DID 장치(200)는 하나 이상의 외부 서버(400, 500)와 연결될 수 있다.In the DID
DID 장치(200)가 연결될 수 있는 한 종류의 외부서버(400)는 음성 인식 모듈(410), 챗봇 모듈(420) 및 음성 합성 모듈(430)을 포함할 수 있다. 외부서버(400)는 예를 들어 네이버의 CLOVA 서비스 등의 IVA(Intelligent Virtual Assistant)와 유사한 서비스를 제공하는 서버일 수 있다. 외부서버(400)는 클라우드 플랫폼에 구현될 수도 있다.One type of
음성 인식 모듈(410)은 음성 인식 기능을 수행하도록 구성될 수 있다. 예를 들어, 명령 처리부(240)가 음성명령인식부(220)에서 획득한 음성정보를 송수신부(250)를 통해 음성 인식 모듈(410)로 전송하면, 음성 인식 모듈(410)은 STT(Speech to Text) 변환을 수행하여 텍스트정보를 생성할 수 있다. 음성 인식 모듈(410)은 이와 같이 생성된 텍스트정보를 다시 DID 장치(200)로 전송할 수 있고, 명령 처리부(240)는 사용자의 의도를 파악하는 데 텍스트정보를 이용할 수 있다.The
챗봇 모듈(420)은 챗봇 기능을 수행하는 모듈일 수 있는데, 사용자가 예를 들어 사전설정된 호출 어구를 발음하면 DID 장치(200)는 챗봇 모듈(420)을 호출하여 사용자의 음성 질의가 챗봇 모듈(420)에 입력되게 할 수 있다. 챗봇 모듈(420)에서 제공하는 답변은 음성 인식 모듈(410)에서 텍스트정보의 형태로 제공될 수도 있다.The
음성 합성 모듈(430)은 음성 합성 기능을 수행하도록 구성될 수 있다. 예를 들어, 명령 처리부(240)가 사용자에게 제공할 응대정보를 송수신부(250)를 통해 음성 합성 모듈(430)로 전송하면, 음성 합성 모듈(430)은 TTS(Text to Speech) 변환을 수행하여 음성출력정보를 생성할 수 있다. 음성 합성 모듈(430)은 이와 같이 생성된 음성출력정보를 다시 DID 장치(200)로 전송할 수 있고, 명령 처리부(240)는 음성출력정보를 스피커(160)로 전송할 수 있다.The
한편, DID 장치(200)가 연결될 수 있는 다른 한 종류의 외부서버(500)는 다양한 정보를 제공하는 서버일 수 있다. 외부서버(500)는 예를 들어, 날씨 예보, 미세먼지 현황, 최신 뉴스 등을 제공할 수 있으며, DID 장치(200)의 명령 처리부(240)는 파악된 사용자의 의도에 따라 필요한 정보를 제공하는 외부서버(500)를 선택하여 접속할 수 있다. 명령 처리부(240)는 접속한 외부서버(500)로부터 필요한 정보를 수신하여 응대정보를 작성할 수 있다.Meanwhile, another type of
본 발명의 일실시예에 따른 DID 시스템(1000)의 DID 관리 서버(600)는 복수의 DID 장치(200) 및/또는 하나 이상의 그룹 서버(300)와 연결될 수 있다. DID 관리 서버(600)는 키오스크 관리부(610), 컨텐츠 관리부(620) 및 데이터베이스(630)를 포함할 수 있다.The DID
키오스크 관리부(610)는 복수의 DID 장치(200)를 관리하는 데 사용될 수 있다. 키오스크 관리부(610)는 데이터베이스(630)에 각 DID 장치(200)에 관한 정보를 저장할 수도 있다.The
컨텐츠 관리부(620)는 DID 장치(200)에 연관된 DID 인터페이스(100)의 디스플레이 장치(150)에서 출력하는 데 사용할 수 있는 컨텐츠를 DID 장치(200) 및/또는 그룹 서버(300)에 전송할 수 있다. 필요에 따라 컨텐츠 관리부(620)는 각 DID 장치(200)에 연관된 디스플레이 장치(150)의 화면 크기 및 가능한 화면 분할 형태를 데이터베이스(630)에 저장할 수 있으며, 각각의 화면 크기 및 화면 분할 형태에서 컨텐츠를 출력하기 위한 설정을 저장할 수 있다.The
도 2에 도시된 바와 같이, DID 관리 서버(600)는 외부망에 인터페이스 서버를 두어 DID 장치(200) 및/또는 그룹 서버(300)를 포함하는 내부망과 인터넷 영역 간에 https 프로토콜 등으로 연결함으로 구현될 수 있다. 전술한 바와 같이, 일부 실시예에서는 그룹 서버(300)가 DID 관리 서버(600)와 통합될 수도 있으며, 그룹 서버(300)가 사용되지 않는 경우 DID 장치(200) 중 하나가 DID 관리 서버(600)와 통합될 수도 있다. As shown in FIG. 2 , the DID
한편, 도 3에 도시된 바와 같이, 클라우드 영역에 인터페이스 서버를 두어 DID 관리 서버(600)를 구현할 수도 있다. 이 경우 DID 관리 서버(600)를 외부 서버(400)와 동일한 클라우드 서비스에 구현하는 것도 가능하다. 이 경우 역시 DID 관리 서버(600)를 위한 인터페이스 서버는 https 프로토콜 등으로 DID 장치(200) 및/또는 그룹 서버(300)를 포함하는 내부망에 연결될 수 있다. 필요에 따라 관리자는 DID 관리 서버(600)를 휴대폰(650)으로 접속할 수 있다. Meanwhile, as shown in FIG. 3 , the DID
이하, 도 5 내지 도 7을 참조하여 본 발명의 일실시예에 따른 DID 시스템(1000)의 동작을 더 자세히 설명하기로 한다. 도 5 내지 도 7은 본 발명의 일실시예에 따른 DID 시스템의 동작을 예시하는 흐름도이다.Hereinafter, the operation of the DID
도 5를 참조하면, DID 인터페이스(100)는 먼저 영상정보를 DID 장치(200)에 제공할 수 있다(S710). DID 인터페이스(100)는 얼굴인식 카메라(110)를 항시 구동하여 영상정보를 획득할 수 있고, 이는 DID 장치(200)에 제공될 수 있다. DID 인터페이스(100)가 어느 시설의 특정 구역에 설치된 경우를 가정하면, DID 인터페이스(100)의 얼굴인식 카메라(110)는 계속적으로 해당 구역을 지나는 보행자들을 촬영할 수 있다. DID 인터페이스(100)는 평소에는 디스플레이 장치(150) 및/또는 스피커(160)를 통해 사용자의 DID 인터페이스(100) 이용을 유도하는 안내 및 설명을 출력할 수 있다.Referring to FIG. 5 , the DID
DID 장치(200)는 제공받은 영상정보를 분석하여 사용자가 대기하고 있는지 여부를 판단할 수 있다(S720). 예를 들어 영상정보에 사람의 얼굴에 대응하는 것으로 볼 수 있는 형상이 존재하고 해당 형상이 소정 크기 조건을 만족하는 경우, DID 장치(200)의 얼굴인식부(210)는 사용자의 얼굴이 검출되는 것으로 판단할 수 있다. 사람의 얼굴에 대응하는 형상이 소정 범위 이내의 크기로 검출되고 이와 같이 검출된 상태가 기준값을 초과하여 유지되는 경우, DID 장치(200)의 얼굴인식부(210)는 DID 인터페이스(100) 앞에 사용자가 대기하고 있는 것으로 판단할 수 있다. The DID
즉, DID 인터페이스(100)가 설치된 위치에서 수많은 보행자들이 DID 인터페이스(100) 앞을 지날 수 있고, 일부 보행자들은 DID 인터페이스(100)를 바라볼 수 있지만, 이들이 모두 DID 인터페이스(100)를 이용하려는 것은 아닐 것이다. 따라서 사용자의 얼굴이 소정 범위 이내의 크기로 검출되어 DID 인터페이스(100)로부터 소정 거리 이내에 위치하는 동시에 사용자의 얼굴이 검출되는 시간이 사전설정된 기준값(예컨대 3초)을 초과하여 DID 인터페이스(100)를 지나가는 보행자가 아닌 것으로 판단될 때 DID 장치(200)는 사용자가 대기하고 있는 것으로 판단할 수 있다.That is, at the location where the DID
물론, DID 인터페이스(100)는 다양한 방법으로 사용자 입력을 수신할 수 있으므로, DID 장치(200)가 사용자가 대기 여부를 판단하는 단계(S720)는 위의 방법으로 한정되는 것은 아니다. 예를 들어, 사용자가 음성인식 마이크(120)를 통해 호출 어구를 기준치 이상의 음량으로 발음하거나, 모션 센서(130) 또는 터치 스크린(140)을 통해 화면(152)에 입력을 가하는 경우, DID 장치(200)는 DID 인터페이스(100) 앞에 사용자가 대기하고 있는 것으로 판단할 수 있다.Of course, since the DID
한편, DID 장치(200)의 얼굴인식부(210)는 제공받은 영상정보로부터 사용자의 얼굴이 위치하는 높이 및/또는 크기를 추출할 수 있다. 얼굴인식부(210)는 영상 분석에 의해 얼굴 높이 및/또는 크기를 추정할 수도 있고, DID 인터페이스(100)에 구비된 별도의 적외선 센서(미도시) 등을 이용할 수도 있다. DID 장치(200)의 명령 처리부(240)는 추출된 사용자 얼굴의 높이 및/또는 크기로부터 사용자의 나이 및/또는 성별을 추정하여 추후 화면출력정보를 생성할 때 사용할 수 있다.Meanwhile, the
DID 장치(200)의 얼굴인식부(210)가 DID 인터페이스(100) 앞에 사용자가 대기하고 있는 것으로 판단하면, DID 장치(200)의 명령 처리부(240)는 DID 인터페이스(100)에 사용자 대기 상태를 통지할 수 있다(S730). 이는 DID 인터페이스(100)에 특정 제어신호를 전송하는 방법으로 이루어질 수 있다.When the
사용자 대기 상태를 통지받으면, DID 인터페이스(100)는 음성입력 대기모드로 설정될 수 있다(S740). 음성입력 대기모드에서 DID 인터페이스(100)는 음성인식 마이크(120)를 통해 사용자의 음성정보를 수신할 수 있다. 물론, 음성입력 대기모드로 설정되면, DID 인터페이스(100)는 먼저 디스플레이 장치(150) 및/또는 스피커(160)를 통해 안내메시지를 출력할 수 있다. 안내메시지에는 사용자를 환영하는 인사 및 해당 DID 인터페이스(100)를 사용하는 방법에 대한 설명 등이 포함될 수 있다.Upon receiving the notification of the user standby state, the DID
사용자는 다양한 방법으로 정보를 요청할 수 있는데, 전술한 바와 같이 모션 센서(130) 또는 터치스크린(140)을 이용하여 디스플레이 장치(150)의 화면(152)에 출력된 인터페이스를 사용하여 필요한 정보를 요청할 수도 있다. The user may request information in various ways. As described above, the user may request necessary information using the interface output on the
사용자가 음성으로 명령을 입력하거나 정보를 요청하면, DID 인터페이스(100)는 수신된 음성정보를 DID 장치(200)에 제공할 수 있다(S750). DID 장치(200)의 음성명령인식부(220)는 제공받은 데이터에서 음성정보를 추출하고 잡음 제거 등의 처리를 할 수 있고, DID 장치(200)의 명령 처리부(240)는 송수신부(250)를 통해 음성정보를 외부 서버(400)로 전달할 수 있다(S760). When the user inputs a command by voice or requests information, the DID
외부 서버(400)의 음성 인식 모듈(410)은 수신한 음성정보를 텍스트로 변환할 수 있고(S770), 이로써 생성된 텍스트정보를 다시 DID 장치(200)에 제공할 수 있다(S780). The
음성정보에 대응하는 텍스트정보를 수신한 DID 장치(200)의 명령 처리부(240)는 텍스트정보에 기초하여 사용자의 의도를 판단할 수 있다(S790). DID 장치(200)의 명령 처리부(240)는 사용자의 의도를 판단하기 위해 주요 키워드를 추출할 수 있고, 사용자가 요구하는 정보를 얻기 위해 어디를 참조해야 할지를 결정할 수 있다. 예를 들어, 사용자가 요구하는 정보 중 일부 유형은 DID 장치(200)의 데이터베이스(270)에 저장된 것일 수 있고(예컨대, DID 인터페이스(100)가 설치된 시설의 구역에 대한 소개, 화면(152)에 표시된 메뉴의 다음 페이지 등), DID 장치(200)와 연관된 그룹 서버(300)에 요청해야 하는 것일 수 있고(예컨대, DID 인터페이스(100)가 설치된 시설의 다른 구역의 공기품질 등), 외부 서버(400, 500)에 요청해야 하는 것일 수도 있다(예컨대, 최신 뉴스 등).Upon receiving the text information corresponding to the voice information, the
도 6에는 DID 장치(200)의 명령 처리부(240)가 사용자가 요구하는 정보를 얻기 위해 외부 서버(400)에 문의하는 경우의 흐름도가 도시되어 있다.6 is a flowchart illustrating a case in which the
사용자의 의도를 판단(S790)한 결과 사용자가 요구하는 정보를 외부 서버(400)에서 획득해야 할 것으로 판단한 경우, DID 장치(200)의 명령 처리부(240)는 요구되는 응대정보 요청을 외부 서버(400)에 전송할 수 있다(S800). 외부 서버(400)는 응대정보를 생성하여(S810) 해당 응대정보를 다시 DID 장치(200)에 제공할 수 있다(S820).As a result of determining the user's intention (S790), if it is determined that the information requested by the user should be obtained from the
물론, 사용자의 의도를 판단(S790)한 결과 사용자가 요구하는 정보를 DID 장치(200)의 데이터베이스(270)에서 획득할 수 있는 것으로 판단한 경우, 응대정보를 요청하는 단계(S800)가 생략될 수 있고, 따라서 외부 서버(400)에서 응대정보를 생성하는 단계(S810)와 응대정보를 제공하는 단계(S820)도 생략될 수 있다.Of course, if the user's intention is determined (S790) and it is determined that the information requested by the user can be obtained from the
한편, 사용자의 의도를 판단하는 단계(S790)에서, 사용자가 챗봇을 호출하기 위한 어구를 발음한 것으로 판단되는 경우, 응대정보를 요청하는 단계(S800), 응대정보를 생성하는 단계(S810) 및 응대정보를 제공하는 단계(S820)는 DID 장치(200)가 외부 서버(400)의 챗봇 모듈(420)을 호출하여 사용자와 챗봇 모듈(420) 사이의 대화를 매개하는 과정에 대응할 수 있다.On the other hand, in the step of determining the user's intention (S790), if it is determined that the user pronounces a phrase for calling the chatbot, the step of requesting response information (S800), the step of generating the response information (S810), and The step of providing response information ( S820 ) may correspond to a process in which the DID
DID 장치(200)의 명령 처리부(240)는 외부 서버(400)로부터 수신한 또는 데이터베이스(270)에서 독출한 응대정보를 바탕으로 출력정보를 생성하고 화면 출력 배치를 결정하는 단계(S830)를 수행할 수 있다. 여기서 출력정보에는 화면출력정보와 음성출력정보가 포함될 수 있는데, 화면출력정보는 DID 인터페이스(100)의 디스플레이 장치(150)가 화면(152)에 출력할 내용에 대응하는 것이고, 음성출력정보는 DID 인터페이스(100)의 스피커(160)가 음성 및/또는 음향의 형태로 출력할 내용에 대응하는 것이다.The
DID 장치(200)의 데이터베이스(270)에는 DID 인터페이스(100)의 디스플레이 장치(150)의 화면(152)에서 사용가능한 하나 이상의 화면 분할 형태 및 각 화면 분할 형태와 연관된 설정값들이 저장될 수 있다. 예를 들어 도 4에는 화면(152)이 상하 방향을 따라 3개의 분할 구역(154, 156, 158)으로 나뉘어진 화면 분할 형태가 도시되어 있다. 물론, 화면(152)은 상하 방향뿐만 아니라 좌우 방향으로도 나뉘어질 수 있고 3개보다 더 적거나 많은 수의 분할 구역으로 나뉘어질 수도 있다.One or more screen division types usable on the
DID 장치(200)의 명령 처리부(240)는 해당 응대정보에 가장 적합한 화면 분할 형태를 선택할 수 있으며, 특히 앞서 추정한 사용자의 키 및/또는 나이를 바탕으로 화면 분할 형태를 선택할 수 있다. 명령 처리부(240)는 사용자가 요구한 주요 정보가 사용자의 얼굴 높이에 대응하는 분할 구역에 표시되고 다른 분할 구역에는 이차적으로 연관되는 정보 또는 광고 등이 표시되도록 화면출력정보를 작성할 수 있다.The
도 4의 화면(152)을 예로 들면, 사용자가 공기 품질에 관한 정보를 요청한 경우, 명령 처리부(240)는 사용자의 요구에 대응하는 응대정보 및 사용자의 얼굴 높이에 기초하여 도시된 것과 같이 상하로 3개의 분할 구역을 포함하는 화면 분할 형태를 선택할 수 있고, 추정된 사용자의 얼굴 높이에서 가시성이 가장 좋은 가운데 분할 구역(156)에는 응대정보 중 가장 주요한 부분이 표시되고, 다른 분할 구역(154)에는 공기 품질 측정과 관련된 제품의 광고가 표시되고, 또 다른 분할 구역(158)에는 공기 품질과 관련된 또는 일반적인 뉴스 및 공지사항이 표시되도록 화면출력정보를 작성할 수 있다.Taking the
DID 장치(200)의 명령 처리부(240)가 화면출력정보 및 음성출력정보를 생성하면, DID 장치(200)는 이들 출력정보를 DID 인터페이스(100)에 제공할 수 있다(S840). DID 인터페이스(100)는 이들을 수신하여 디스플레이 장치(150) 및 스피커(160)를 통해 화면 및 음성으로 출력할 수 있다(S850). When the
도 7에는 DID 장치(200)의 명령 처리부(240)가 사용자가 요구하는 정보를 얻기 위해 그룹 서버(300)에 문의하는 경우의 흐름도가 도시되어 있다.7 is a flowchart illustrating a case in which the
사용자의 의도를 판단(S790)한 결과 사용자가 요구하는 정보를 그룹 서버(300)에서 획득해야 할 것으로 판단한 경우, DID 장치(200)의 명령 처리부(240)는 요구되는 응대정보 요청을 그룹 서버(300)에 전송할 수 있다(S860). 그룹 서버(300)는 데이터베이스(330)로부터 응대정보를 독출하여 해당 응대정보를 다시 DID 장치(200)에 제공할 수 있다(S820). As a result of determining the user's intention (S790), if it is determined that the information requested by the user should be obtained from the
DID 장치(200)가 응대정보에 기초하여 출력정보를 생성하고 화면 출력 배치를 결정하고(S830) 화면출력정보 및 음성출력정보를 DID 인터페이스(100)에 제공하는 단계(S840) 및 DID 인터페이스(100)가 화면출력정보 및 음성출력정보를 출력하는 단계(S850)는 위에 설명된 것과 동일할 수 있으며, 중복되는 설명은 생략하기로 한다.The DID
이하, 도 8 및 도 9를 참조하여 본 발명의 일실시예에 따른 DID 장치(200)의 제어방법을 설명하기로 한다. 도 8 및 도 9는 본 발명의 일실시예에 따른 DID 장치(200)의 제어방법을 예시하는 흐름도이다. 참고로, 도 8 및 도 9에서는 DID 인터페이스(100)와 DID 장치(200)가 통합된 형태를 가정하지만, 전술한 바와 같이 DID 인터페이스(100)와 DID 장치(200)는 별개로 구성될 수도 있고 하나의 DID 장치(200)에 복수 개의 DID 인터페이스(100)가 연결될 수도 있다.Hereinafter, a method of controlling the DID
도 8은 사용자가 음성으로 정보를 요청하는 경우에 대한 흐름도를 나타낸다. 먼저, DID 장치(200)는 영상정보를 수신할 수 있다(S910). 예를 들어, DID 인터페이스(100)는 얼굴인식 카메라(110)를 구동하여 영상정보를 획득하여 이를 DID 장치(200)에 제공될 수 있다. 이 단계에서, DID 장치(200)는 디스플레이 장치(150) 및/또는 스피커(160)를 통해 사용자의 DID 인터페이스(100) 이용을 유도하는 안내 및 설명이 출력되도록 DID 인터페이스(100)를 제어할 수도 있다.8 is a flowchart illustrating a case in which a user requests information by voice. First, the DID
DID 장치(200)는 수신한 영상정보에 대하여 얼굴인식시간이 기준값을 초과하는지 여부를 판단할 수 있다(S920). 여기서, 얼굴인식시간이란 사람의 얼굴에 대응하는 형상이 소정 범위 이내의 크기로 검출되고 이와 같이 검출된 상태가 유지되는 시간을 지칭하는 것이다. 영상정보에 사람의 얼굴에 대응하는 것으로 볼 수 있는 형상이 존재하고 해당 형상이 소정 크기 조건을 만족하는 경우, 사람이 DID 인터페이스(100) 앞에 있는 것으로 판단할 수 있다. 또한, 이와 같이 검출된 상태가 기준값을 초과하는 시간 동안 지속되는 경우, 해당 사람이 DID 인터페이스(100)를 사용하고자 하는 것으로 추정할 수 있다.The DID
얼굴인식시간이 기준값을 초과하지 않는 경우, DID 장치(200)는 별다른 작업을 수행하지 않고 영상정보를 수신하는 단계(S910)를 계속할 수 있다. If the face recognition time does not exceed the reference value, the DID
만약 얼굴인식시간이 기준값을 초과하면, DID 장치(200)는 사용자의 특징을 추정할 수 있다(S925). 예를 들어, DID 장치(200)는 사용자의 얼굴의 높이 및/또는 크기를 추출할 수 있고, 이로부터 사용자의 키를 추정할 수 있다. 일부 실시예에서는 DID 장치(200)가 사용자의 나이 및/또는 성별을 추정할 수도 있다.If the face recognition time exceeds the reference value, the DID
이어서, DID 장치(200)는 DID 인터페이스(100)의 디스플레이 장치(150) 및/또는 스피커(160)가 출력할 수 있는 안내메시지를 DID 인터페이스(100)에 전송할 수 있다. 안내메시지에는 사용자를 환영하는 인사 및 해당 DID 인터페이스(100)를 사용하는 방법에 대한 설명 등이 포함될 수 있으며, 화면 및/또는 음성으로 출력될 수 있다. 일부 실시예에서는 안내메시지가 사용자의 추정된 나이 및/또는 성별에 근거하여 선택될 수도 있다. DID 장치(200)의 데이터베이스(270)에는 하나 이상의 안내메시지가 저장될 수 있으며, 이들 중 하나가 임의로 또는 특정 알고리즘에 의하여 선택될 수 있다.Subsequently, the DID
동시에, DID 장치(200)는 DID 인터페이스(100)를 음성입력 대기모드로 설정할 수 있다. 음성입력 대기모드에서 DID 인터페이스(100)는 음성명령인식부(220)를 통해 사용자의 음성정보를 수신할 수 있다. At the same time, the DID
DID 장치(200)는 DID 인터페이스(100)로부터 수신한 음성정보를 분석하여 사용자의 의도를 판단할 수 있다(S950). 여기에는 도 5와 관련하여 설명된 바와 같이 DID 인터페이스(100)의 음성인식 마이크(120)를 통해 입력된 데이터에서 음성정보를 추출하는 단계, 음성정보를 외부 서버(400)에 전달하는 단계(S760) 및 외부 서버(400)로부터 음성정보에 대응하는 텍스트정보를 제공받는 단계(S780)가 포함될 수 있다.The DID
DID 장치(200)는 파악한 사용자 의도에 따라 요청 처리 방식을 결정할 수 있다(S960). 예를 들어, 사용자가 호출 어구를 발음한 경우라면, 사용자를 외부 서버(400)의 챗봇 모듈(420)과 소통하도록 DID 인터페이스(100)와 외부 서버(400) 사이에 음성 정보를 송수신할 수 있다. 또한, 사용자가 요청한 정보를 어디에서 얻을 수 있는지에 따라 응대정보를 데이터베이스(270)에서 독출하거나, 그룹 서버(300) 또는 외부 서버(400, 500)에 요청할 수 있다. The DID
응대정보가 획득되면, DID 장치(200)는 응대정보에 기초하여 출력정보를 생성하고 화면 출력 배치를 결정할 수 있다(S970). 출력정보에는 화면출력정보와 음성출력정보가 포함될 수 있는데, 화면출력정보는 DID 인터페이스(100)의 디스플레이 장치(150)가 화면(152)에 출력할 내용에 대응하는 것이고, 음성출력정보는 DID 인터페이스(100)의 스피커(160)가 음성 및/또는 음향의 형태로 출력할 내용에 대응하는 것이다.When the response information is obtained, the DID
전술한 바와 같이, DID 장치(200)의 데이터베이스(270)에는 DID 인터페이스(100)의 디스플레이 장치(150)의 화면(152)에서 사용가능한 하나 이상의 화면 분할 형태 및 각 화면 분할 형태와 연관된 설정값들이 저장될 수 있는데, DID 장치(200)는 해당 응대정보에 가장 적합한 화면 분할 형태를 선택할 수 있으며, 사용자의 키 및/또는 나이를 바탕으로 화면 분할 형태 및 각 분할 구역에 표시된 컨텐츠를 선택할 수 있다.As described above, in the
한편, 음성출력정보는 화면출력정보 중 응대정보의 가장 주요한 부분으로서 사용자의 키에서 가시성이 가장 좋은 분할 구역에 표시되는 컨텐츠에 대응하는 내용을 포함할 수 있다. 필요한 경우, DID 장치(200)는 응대정보를 텍스트 형식으로 작성하고 이를 외부 서버(400)의 음성 합성 모듈(430)로 전송할 수 있고, 음성 합성 모듈(430)에서 이를 바탕으로 음성출력정보를 생성하여 DID 장치(200)로 전송할 수 있다.On the other hand, the voice output information is the most important part of the response information among the screen output information, and may include contents corresponding to the content displayed in the partition having the best visibility from the user's key. If necessary, the DID
위와 같이 화면출력정보와 음성출력정보가 작성되면, DID 장치(200)는 DID 인터페이스(100)의 디스플레이 장치(150) 및 스피커(160)를 통해 화면을 출력하고 음성을 출력할 수 있다(S980). 그 결과, 사용자는 DID 인터페이스(100)의 디스플레이 장치(150) 및 스피커(160)를 통해 요청한 정보를 시각적으로 및 청각적으로 제공받을 수 있다. When the screen output information and the audio output information are written as described above, the DID
도 9는 사용자가 손동작 또는 터치스크린 입력으로 정보를 요청하는 경우에 대한 흐름도를 나타낸다. 도 8에 도시된 경우와 유사하게, DID 장치(200)는 영상정보를 수신할 수 있다(S910). 이는 예를 들어 DID 인터페이스(100)의 얼굴인식 카메라(110)를 통해 이루어질 수 있다. 9 is a flowchart illustrating a case in which a user requests information through a hand gesture or a touch screen input. Similar to the case illustrated in FIG. 8 , the DID
사용자는 DID 인터페이스(100)를 이용하기 위해 손동작을 취하거나 터치스크린(140)에 접촉을 가할 수 있다. DID 인터페이스(100)의 모션 센서(130) 또는 터치스크린(140)에서 입력을 감지하면, DID 장치(200)는 해당 동작 정보를 수신할 수 있다(S915). The user may make a hand gesture or apply a contact to the
사용자의 동작 정보가 수신되어 사용자가 DID 인터페이스(100)를 이용하고자 대기중인 것으로 판단되면, DID 장치(200)는 사용자의 특징을 추정할 수 있다(S925). 예를 들어, DID 장치(200)는 영상정보를 분석하여 사용자의 얼굴의 높이 및/또는 크기를 추출할 수 있고, 이로부터 사용자의 키를 추정할 수 있다. 일부 실시예에서는 DID 장치(200)가 사용자의 나이 및/또는 성별을 추정할 수도 있다.When the user's motion information is received and it is determined that the user is waiting to use the DID
DID 장치(200)는 사용자의 입력에 따라 요청 처리 방식을 결정할 수 있다(S960). 예를 들어, 사용자가 요청한 정보를 어디에서 얻을 수 있는지에 따라 응대정보를 데이터베이스(270)에서 독출하거나, 그룹 서버(300) 또는 외부 서버(400, 500)에 요청할 수 있다.The DID
이어서 DID 장치(200)가 응대정보에 기초하여 출력정보를 생성하고 화면 출력 배치를 결정하는 단계(S970) 및 DID 인터페이스(100)의 디스플레이 장치(150)와 스피커(160)를 통해 화면출력정보 및 음성출력정보를 출력하는 단계(S980)는 위에 설명된 것과 동일할 수 있으며, 중복되는 설명은 생략하기로 한다.Subsequently, the DID
본 발명의 일실시예에 따른 DID 장치(200), DID 시스템(1000) 및 DID 장치 제어방법은, 사용자가 DID 인터페이스(100)를 이용하도록 유도하는 안내 및 설명을 출력함으로써 DID 인터페이스(100)의 이용도를 증가시킬 수 있다. The DID
사용자는 음성, 손동작 등을 포함하여 다양한 종류의 입력을 이용하여 정보를 요청할 수 있고, DID 장치(200)는 사용자가 요청한 정보를 DID 인터페이스(100)에 의해 시각적 및 청각적으로 출력할 수 있다. 이는 사용자가 DID 인터페이스(100)를 더욱 직관적으로 이용할 수 있게 하여 DID 인터페이스(100)의 이용도를 증가시킬 수 있다.The user may request information using various types of inputs including voice and hand gestures, and the DID
사용자가 DID 인터페이스(100)를 이용할 때, DID 장치(200)는 사용자의 얼굴의 높이 및 크기를 검출하여 사용자의 키를 포함한 일부 특징을 추정할 수 있으며, 사용자가 요구하는 정보를 제공할 때 사용자의 특징을 고려하여 가장 효과적인 화면 분할 형태 및 화면 배치를 결정할 수 있고, 디스플레이 장치(150)가 이를 근거로 화면(152)을 제공하게 함으로써 사용자에게 더 효과적으로 정보를 전달할 수 있다.When the user uses the DID
특히, 본 발명의 일실시예에 따른 DID 장치(200), DID 시스템(1000) 및 DID 장치 제어방법은 일부 기능을 외부 서버(400)에서 처리하도록 함으로써 DID 장치(200) 자체의 시스템 요구사항을 상대적으로 낮게 유지하면서도 매우 광범위한 분야의 정보를 신속하게 제공할 수 있다.In particular, the DID
상기에서는 본 발명의 일 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to one embodiment of the present invention, those of ordinary skill in the art can variously change the present invention within the scope without departing from the spirit and scope of the present invention described in the claims below. It will be appreciated that modifications and variations are possible.
1000: DID 시스템
100: DID 인터페이스 200: DID 장치
300: 그룹 서버 400, 500: 외부 서버1000: DID system
100: DID interface 200: DID device
300:
Claims (5)
얼굴인식 카메라를 통해 얻어진 영상정보에 사람의 얼굴에 대응하는 형상이 소정 범위 이내의 크기로 검출되고 검출되는 시간이 사전설정된 기준값을 초과하는지 여부를 판단함으로써 사용자의 얼굴이 검출되는지 여부를 판단하고 상기 사용자의 얼굴 높이를 판단하도록 구성된 얼굴인식부;
음성인식 마이크를 통해 음성정보를 획득하도록 구성된 음성명령 인식부;
상기 음성정보를 상기 외부 서버에 전달하고 상기 외부 서버로부터 상기 음성정보에 대응하는 텍스트정보를 수신하도록 구성된 송수신부; 및
상기 얼굴인식부에서 검출한 상기 사용자의 얼굴로부터 상기 사용자의 키, 나이 및 성별을 추정하고, 추정된 상기 사용자의 나이 및 성별에 근거하여 안내메시지를 선택한 후 상기 안내메시지를 디스플레이 장치 및 스피커를 통해 출력하고, 상기 텍스트정보로부터 주요 키워드를 추출하여 사용자의 의도를 파악하고, 파악된 상기 사용자의 의도에 따라 상기 DID 장치의 데이터베이스 또는 센서로부터 응대정보를 생성하거나, 상기 송수신부를 통해 상기 그룹 서버 및 상기 외부 서버 중 하나 이상으로부터 응대정보를 수신하고, 상기 생성된 또는 수신된 응대정보에 기초하여 화면출력정보 및 음성출력정보를 생성하며 상기 화면출력정보를 상기 디스플레이 장치에 전송하고 상기 음성출력정보를 상기 스피커에 전송하도록 구성된 명령 처리부를 포함하고,
상기 데이터베이스는 상기 DID 관리 서버로부터 수신된 가능한 화면 분할 형태를 저장하고,
상기 명령 처리부는 상기 응대정보의 유형에 따라 상기 데이터베이스에 저장된 상기 가능한 화면 분할 형태 중에서 하나를 선택하여 상기 디스플레이 장치의 화면 분할 형태를 결정하고, 추정된 상기 사용자의 키, 나이 및 성별에 따라 상기 디스플레이 장치의 화면의 분할 구역 중 하나 이상에 출력되는 내용을 생성하되,
상기 응대정보는 상기 데이터베이스 또는 상기 센서로부터 획득한 정보를 포함하거나, 상기 그룹 서버에 연결된 적어도 하나의 다른 DID 장치로부터 획득한 정보를 포함하거나, 상기 외부 서버로부터 획득한 정보를 포함하는 것을 특징으로 하는 DID 장치.
A DID device connected with a group server, a DID management server and an external server,
In the image information obtained through the face recognition camera, a shape corresponding to a human face is detected to a size within a predetermined range, and by determining whether the detection time exceeds a preset reference value, it is determined whether a user's face is detected, and the a face recognition unit configured to determine the height of the user's face;
a voice command recognition unit configured to acquire voice information through a voice recognition microphone;
a transceiver configured to transmit the voice information to the external server and receive text information corresponding to the voice information from the external server; and
The height, age, and gender of the user are estimated from the user's face detected by the face recognition unit, and a guide message is selected based on the estimated age and gender of the user, and then the guide message is transmitted through a display device and a speaker. output, extracting main keywords from the text information to determine the user's intention, and generate response information from the database or sensor of the DID device according to the identified user's intention, or through the transceiver, the group server and the Receive response information from one or more of external servers, generate screen output information and audio output information based on the generated or received response information, transmit the screen output information to the display device, and transmit the audio output information to the display device a command processing unit configured to transmit to the speaker;
The database stores possible screen division types received from the DID management server,
The command processing unit determines the screen division type of the display device by selecting one of the possible screen division types stored in the database according to the type of the response information, and displays the display device according to the estimated height, age and gender of the user. Generates output to one or more of the divisions of the device's screen,
The response information includes information obtained from the database or the sensor, information obtained from at least one other DID device connected to the group server, or information obtained from the external server. DID device.
상기 그룹 서버에 연결된 DID 관리 서버; 및
상기 그룹 서버 및 상기 DID 관리 서버와 연결되고 하나의 시설의 서로 다른 구역에 설치된 복수의 DID 장치를 포함하되,
상기 복수의 DID 장치는 각각 센서를 포함하고,
상기 복수의 DID 장치 중 적어도 하나는,
얼굴인식 카메라를 통해 얻어진 영상정보에 사람의 얼굴에 대응하는 형상이 소정 범위 이내의 크기로 검출되고 검출되는 시간이 사전설정된 기준값을 초과하는지 여부를 판단함으로써 사용자의 얼굴이 검출되는지 여부를 판단하고 상기 사용자의 얼굴 높이를 판단하도록 구성된 얼굴인식부;
음성인식 마이크를 통해 음성정보를 획득하도록 구성된 음성명령 인식부;
상기 음성정보를 상기 그룹 서버에 전달하고 상기 그룹 서버로부터 상기 음성정보에 대응하는 텍스트정보를 수신하도록 구성된 송수신부; 및
상기 얼굴인식부에서 검출한 상기 사용자의 얼굴로부터 상기 사용자의 키, 나이 및 성별을 추정하고, 추정된 상기 사용자의 나이 및 성별에 근거하여 안내메시지를 선택한 후 상기 안내메시지를 디스플레이 장치 및 스피커를 통해 출력하고, 상기 텍스트정보로부터 주요 키워드를 추출하여 사용자의 의도를 파악하고, 파악된 상기 사용자의 의도에 따라 상기 센서로부터 응대정보를 생성하거나, 상기 송수신부를 통해 상기 그룹 서버 및 상기 외부 서버 중 하나 이상으로부터 응대정보를 수신하고, 상기 생성된 또는 수신된 응대 정보에 기초하여 화면출력 정보 및 음성출력 정보를 생성하며 상기 화면출력 정보를 상기 디스플레이 장치에 전송하고 상기 음성출력 정보를 상기 스피커에 전송하도록 구성된 명령 처리부를 포함하고,
상기 응대정보가 상기 그룹 서버로부터 수신되는 경우 상기 복수의 DID 장치 중 적어도 하나의 DID 장치의 센서에서 검출한 정보를 포함하고,
상기 DID 관리 서버는 상기 디스플레이 장치의 화면 크기 및 가능한 화면 분할 형태를 저장하고,
상기 명령 처리부는 상기 응대 정보의 유형에 따라 상기 DID 관리 서버에 저장된 상기 가능한 화면 분할 형태 중에서 하나를 선택하여 상기 디스플레이 장치의 화면 분할 형태를 결정하고, 추정된 상기 사용자의 키, 나이 및 성별에 따라 상기 디스플레이 장치의 화면의 분할 구역 중 하나 이상에 출력되는 내용을 생성하는 것을 특징으로 하는 DID 시스템.
group servers connected to external servers;
a DID management server connected to the group server; and
A plurality of DID devices connected to the group server and the DID management server and installed in different areas of one facility,
Each of the plurality of DID devices includes a sensor,
At least one of the plurality of DID devices,
In the image information obtained through the face recognition camera, a shape corresponding to a human face is detected to a size within a predetermined range, and by determining whether the detection time exceeds a preset reference value, it is determined whether a user's face is detected, and the a face recognition unit configured to determine the height of the user's face;
a voice command recognition unit configured to acquire voice information through a voice recognition microphone;
a transceiver configured to transmit the voice information to the group server and receive text information corresponding to the voice information from the group server; and
The height, age, and gender of the user are estimated from the user's face detected by the face recognition unit, and a guide message is selected based on the estimated age and gender of the user, and then the guide message is transmitted through a display device and a speaker. output, extract a main keyword from the text information to determine the user's intention, generate response information from the sensor according to the identified user's intention, or at least one of the group server and the external server through the transceiver configured to receive response information from, generate screen output information and audio output information based on the generated or received response information, transmit the screen output information to the display device, and transmit the audio output information to the speaker a command processing unit;
When the response information is received from the group server, it includes information detected by a sensor of at least one DID device among the plurality of DID devices,
The DID management server stores the screen size and possible screen division form of the display device,
The command processing unit determines the screen division type of the display device by selecting one of the possible screen division types stored in the DID management server according to the type of the response information, and according to the estimated height, age and gender of the user DID system, characterized in that for generating the content to be output to at least one of the divided areas of the screen of the display device.
얼굴인식 카메라로부터 영상정보를 수신하는 단계;
상기 영상정보에 사용자의 얼굴이 검출되는지 여부를 판단하는 단계;
상기 영상정보에 상기 사용자의 얼굴이 검출된 상태를 유지하는 시간에 대응하는 얼굴인식시간을 기준값과 비교하여 상기 얼굴인식시간이 상기 기준값을 초과하면 상기 사용자가 대기 중인 것으로 판단하는 단계;
상기 사용자가 대기 중인 것으로 판단되면 상기 사용자의 얼굴로부터 상기 사용자의 키, 나이 및 성별을 추정하는 단계;
상기 사용자의 나이 및 성별에 근거하여 안내메시지를 선택한 후 상기 안내메시지를 디스플레이 장치 및 스피커를 통해 출력하는 단계;
음성정보를 수신하는 단계;
상기 음성정보를 상기 외부 서버에 전달하는 단계;
상기 음성정보에 대응하는 텍스트정보를 수신하는 단계;
상기 텍스트정보로부터 주요 키워드를 추출하여 사용자의 의도를 파악하는 단계;
파악된 상기 사용자의 의도에 따라 응대정보를 생성하거나 상기 그룹 서버 및 상기 외부 서버 중 하나 이상으로부터 응대정보를 수신하는 단계;
상기 생성된 또는 수신된 응대 정보의 유형에 따라 상기 DID 관리 서버에 저장된 가능한 화면 분할 형태 중 하나를 선택하여 디스플레이 장치의 화면 분할 형태를 결정하는 단계;
상기 생성된 또는 수신된 응대정보에 기초하여 화면출력정보 및 음성출력정보를 생성하되, 추정된 상기 사용자의 키, 나이 및 성별에 기초하여 상기 디스플레이 장치의 화면의 분할 구역 중 하나 이상에 출력되는 내용이 생성되도록 상기 화면출력정보 및 상기 음성출력정보를 생성하는 단계를 포함하되,
상기 응대정보는 상기 DID 장치의 데이터베이스 또는 센서로부터 획득한 정보를 포함하거나, 상기 그룹 서버에 연결된 적어도 하나의 다른 DID 장치로부터 획득한 정보를 포함하거나, 상기 외부 서버로부터 획득한 정보를 포함하는 것을 특징으로 하는 DID 장치 제어방법.A method for controlling a DID device connected to a group server, a DID management server, and an external server, the method comprising:
Receiving image information from a face recognition camera;
determining whether a user's face is detected in the image information;
comparing a face recognition time corresponding to a time for which the user's face is maintained in the image information with a reference value and determining that the user is on standby when the face recognition time exceeds the reference value;
estimating the height, age and gender of the user from the face of the user when it is determined that the user is waiting;
selecting a guide message based on the user's age and gender and outputting the guide message through a display device and a speaker;
receiving voice information;
transmitting the voice information to the external server;
receiving text information corresponding to the voice information;
extracting main keywords from the text information to understand the intention of the user;
generating response information according to the identified intention of the user or receiving response information from at least one of the group server and the external server;
determining a screen division type of the display device by selecting one of the possible screen division types stored in the DID management server according to the type of the generated or received response information;
Content that is output to at least one of the divided areas of the screen of the display device based on the estimated height, age, and gender of the user, but generates screen output information and audio output information based on the generated or received response information and generating the screen output information and the audio output information so that
The response information includes information acquired from a database or sensor of the DID device, information acquired from at least one other DID device connected to the group server, or information acquired from the external server DID device control method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220009955A KR102427761B1 (en) | 2022-01-24 | 2022-01-24 | Did device, did system, and control method for a did device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220009955A KR102427761B1 (en) | 2022-01-24 | 2022-01-24 | Did device, did system, and control method for a did device |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102427761B1 true KR102427761B1 (en) | 2022-08-03 |
Family
ID=82847077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220009955A KR102427761B1 (en) | 2022-01-24 | 2022-01-24 | Did device, did system, and control method for a did device |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102427761B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102680915B1 (en) * | 2023-11-09 | 2024-07-05 | 주식회사 구박 | Smart bench using solar power |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004013836A (en) * | 2002-06-11 | 2004-01-15 | Digital Soken:Kk | Information terminal device |
KR20140143515A (en) * | 2013-06-07 | 2014-12-17 | (주)본시스 | Kiosk device for physically handicapped person, and method for controlling screen display thereof |
KR20160029850A (en) * | 2013-07-09 | 2016-03-15 | 플립보드, 인크. | Dynamic layout engine for a digital magazine |
KR20160037074A (en) * | 2014-09-26 | 2016-04-05 | 삼성전자주식회사 | Image display method of a apparatus with a switchable mirror and the apparatus |
-
2022
- 2022-01-24 KR KR1020220009955A patent/KR102427761B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004013836A (en) * | 2002-06-11 | 2004-01-15 | Digital Soken:Kk | Information terminal device |
KR20140143515A (en) * | 2013-06-07 | 2014-12-17 | (주)본시스 | Kiosk device for physically handicapped person, and method for controlling screen display thereof |
KR20160029850A (en) * | 2013-07-09 | 2016-03-15 | 플립보드, 인크. | Dynamic layout engine for a digital magazine |
KR20160037074A (en) * | 2014-09-26 | 2016-04-05 | 삼성전자주식회사 | Image display method of a apparatus with a switchable mirror and the apparatus |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102680915B1 (en) * | 2023-11-09 | 2024-07-05 | 주식회사 구박 | Smart bench using solar power |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10176810B2 (en) | Using voice information to influence importance of search result categories | |
CN113302664B (en) | Multimodal user interface for a vehicle | |
US10733987B1 (en) | System and methods for providing unplayed content | |
KR102002979B1 (en) | Leveraging head mounted displays to enable person-to-person interactions | |
US10261508B2 (en) | Robot control system and recording medium | |
US9761139B2 (en) | Location based parking management system | |
US20180310144A1 (en) | Automated messaging | |
KR101946364B1 (en) | Mobile device for having at least one microphone sensor and method for controlling the same | |
JP6819672B2 (en) | Information processing equipment, information processing methods, and programs | |
CN105320726A (en) | Reducing the need for manual start/end-pointing and trigger phrases | |
US20190325865A1 (en) | Managing voice interface devices | |
EP3419020B1 (en) | Information processing device, information processing method and program | |
KR102193029B1 (en) | Display apparatus and method for performing videotelephony using the same | |
KR102412643B1 (en) | Personalized artificial intelligence kiosk device and service method using the same | |
CN103685783A (en) | Information processing system and storage medium | |
KR102488285B1 (en) | Providing audio information using a digital assistant | |
KR102427761B1 (en) | Did device, did system, and control method for a did device | |
JP2020003926A (en) | Interaction system control method, interaction system and program | |
US20220035840A1 (en) | Data management device, data management method, and program | |
US11216242B2 (en) | Audio output system, audio output method, and computer program product | |
US20190026265A1 (en) | Information processing apparatus and information processing method | |
CN209086961U (en) | A kind of information kiosk and its system for human-computer interaction | |
JP2018205534A (en) | Display control device, display control method and program | |
CN209056016U (en) | A kind of information kiosk and its system for human-computer interaction | |
JP2019153160A (en) | Digital signage device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |