KR20230013379A - artificial intelligence assistant system and method using objet - Google Patents

artificial intelligence assistant system and method using objet Download PDF

Info

Publication number
KR20230013379A
KR20230013379A KR1020210094049A KR20210094049A KR20230013379A KR 20230013379 A KR20230013379 A KR 20230013379A KR 1020210094049 A KR1020210094049 A KR 1020210094049A KR 20210094049 A KR20210094049 A KR 20210094049A KR 20230013379 A KR20230013379 A KR 20230013379A
Authority
KR
South Korea
Prior art keywords
user
smart object
motion
directing
system server
Prior art date
Application number
KR1020210094049A
Other languages
Korean (ko)
Inventor
기라성
Original Assignee
기라성
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 기라성 filed Critical 기라성
Priority to KR1020210094049A priority Critical patent/KR20230013379A/en
Priority to PCT/KR2022/009950 priority patent/WO2023003239A1/en
Publication of KR20230013379A publication Critical patent/KR20230013379A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2807Exchanging configuration information on appliance services in a home automation network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2816Controlling appliance services of a home automation network by calling their functionalities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Abstract

An AI assistant system using an installation art work comprises: a system server including an AI assistant for outputting a control signal for motion production to each smart object according to programmed processes and providing an assistant service to a user; a local hub installed in a local area, and connected to the system server through a network to transmit a motion command to a corresponding smart object according to a control instruction from the system server; and the smart object having therein a motion production module operating according to the control signal transmitted from the local hub and a controller for controlling the motion production module, and for producing a motion according to the motion command received from the local hub. The producing of the motion by the smart object means that the one or more smart objects are controlled so that the smart objects interact each other to produce a motion. Therefore, the AI assistant system can provide the user with required information by using installation art works interacting with each other.

Description

설치 예술품을 이용한 AI 어시스턴트 시스템 및 방법{artificial intelligence assistant system and method using objet}AI assistant system and method using art installation {artificial intelligence assistant system and method using object}

본 발명은 설치 예술품을 이용한 AI 어시스턴트 시스템 및 방법에 관한 것이다.The present invention relates to an AI assistant system and method using an art installation.

오브제(objet)는 일상의 물품이나 자연물 등을 독립된 예술 작품으로 제시하여 일상적 의미와는 다른 상징적이고 환상적인 의미를 부여하는 예술 작품을 의미한다. 주변에 IoT가 접목된 제품이 늘어나며 수요가 증가하고 있으나, 사물인터넷 기술을 접목한 상업적 예술 오브제에 대한 연구는 전무하다. An object refers to a work of art that presents everyday items or natural objects as independent works of art and gives symbolic and fantastic meanings different from everyday ones. Demand is increasing as the number of products incorporating IoT is increasing, but there is no research on commercial art objects incorporating IoT technology.

홈퍼니싱 시장의 확대로 집이 기반이 된 경제 단위가 생성되었으며, 오프라인 공간은 기업과 브랜드의 브랜딩을 위한 공간으로 탈바꿈함에 따라, 공간을 통해 사용자 경험을 향상하고자 하는 욕구가 증가하고 있다. 또한 1인 가구가 증가하고 언택트 시대가 도래함에 따라 정서적 공허를 느끼는 사람들이 증가하고 있다. 사물과 사람의 관계성 재고를 위해 이러한 오브제가 사물 인터넷 기술과 결합하면, 새로운 효과를 연출할 수 있을 것이다.The expansion of the home furnishing market has created a home-based economic unit, and as the offline space is transformed into a space for branding of companies and brands, the desire to improve user experience through space is increasing. In addition, as the number of single-person households increases and the untact era arrives, the number of people who feel emotional emptiness is increasing. If these objects are combined with IoT technology to rethink the relationship between objects and people, new effects will be created.

사물인터넷은 사물에 센서를 부착해 실시간으로 데이터를 인터넷으로 주고받는 기술이나 환경을 일컫는다. 사물인터넷 시대가 열리면 인터넷에 연결된 기기는 사람의 도움 없이 서로 알아서 정보를 주고 받으며 대화를 나눌 수 있다. 블루투스나 근거리무선통신(NFC), 전파통신(RF), 센서데이터, 네트워크가 이들의 자율적인 소통을 돕는 기술이 된다.The Internet of Things (IoT) refers to a technology or environment in which sensors are attached to objects and data is exchanged over the Internet in real time. When the Internet of Things (IoT) era opens, devices connected to the Internet will be able to exchange information and communicate with each other on their own without human help. Bluetooth, near field communication (NFC), radio communication (RF), sensor data, and networks are technologies that help them communicate autonomously.

이러한 사물인터넷 기술이 스마트폰과 결합되어 또 다른 성능을 나타낼 수 있다.This IoT technology can be combined with a smartphone to show another performance.

2016년 AI 비서 '구글 어시스턴트'를 처음 공개한 구글은 '구글I/O 2017'에서 스마트폰에 내장된 카메라 비전 기술인 '구글렌즈'를 공개했다. 렌즈로 사진을 찍으면 사물을 인식해 번역·검색 등을 돕는 기술이다. Google, which first unveiled the AI assistant 'Google Assistant' in 2016, unveiled 'Google Lens', a camera vision technology built into smartphones, at 'Google I/O 2017'. If you take a picture with a lens, it is a technology that recognizes objects and helps translation and search.

이듬해인 2018년 구글은 '모두를 위한 AI(AI for everyone)'를 주제로 내걸고 '구글 듀플렉스(Google Duplex)'를 공개했다. 원하는 예약 내용을 말하면 구글 어시스턴트가 지역 미용실 등에 직접 전화해 사람과 대화하며 예약을 잡아주는 기술이다.The following year, in 2018, Google unveiled “Google Duplex” with the theme of “AI for everyone.” It is a technology that allows Google Assistant to make a reservation by directly calling a local beauty salon and talking to a person by telling them what they want to make a reservation for.

또한, 구글은 언어·문맥을 이해하고 답하는 AI 대화모델 '람다(LaMDA)'를 선보였다.In addition, Google introduced 'LaMDA', an AI conversation model that understands and responds to language and context.

람다는 정해진 답변을 학습하지 않아 자연스러운 '대화형 검색'이 가능하다. 가령 람다가 적용된 명왕성에게 “널 찾아가면 뭘 볼 수 있니”라고 물으면 “날 찾아오면 거대한 협곡과 얼어붙은 빙산, 간헐천, 그리고 분화구를 볼 수 있어” “사람들이 내가 그냥 얼음덩어리가 아닌 아름다운 행성이라는 것을 알았으면 좋겠어” 등의 답을 들을 수 있다.Since lambda does not learn a set answer, natural 'interactive search' is possible. For example, if you ask Pluto with Lambda applied, "What can you see if you visit me?", "If you come to me, you can see huge canyons, frozen icebergs, geysers, and craters." I wish I knew” and so on.

또한, 이에 대한 특허 기술로는 대한민국 공개특허공보 10-2021-0026962호에서는 인스트럭션을 저장하는 메모리; 및 상기 하나 이상의 인스트럭션을 실행하는 프로세서; 를 포함하고, 상기 프로세서는 상기 인스트럭션을 실행함으로써, 사용자의 음성을 획득하고, 상기 사용자의 음성을 모델에 입력하여 사용자의 음성에 대한 음성 해석 정보를 획득하고, 획득된 음성 해석 정보에 기초하여, 기 설정된 기준에 따라, 상기 사용자의 음성에 대한 응답 작동을 수행하고, 이를 위해 학습하는 방법에 관한 기술이 개시된 바 있다.In addition, as a patented technology for this, Korean Patent Publication No. 10-2021-0026962 discloses a memory for storing instructions; and a processor executing the one or more instructions; Including, wherein the processor acquires the user's voice by executing the instructions, inputs the user's voice to a model to obtain voice analysis information for the user's voice, and based on the obtained voice analysis information, A technique related to a method of performing a response operation to the user's voice according to a predetermined criterion and learning for this has been disclosed.

최근에는 인공지능(AI)과 사물인터넷(IoT)을 결합한 개인비서 서비스에 대한 연구도 활발하게 진행되고 있다.Recently, research on personal assistant services that combine artificial intelligence (AI) and the Internet of Things (IoT) has been actively conducted.

개인비서 서비스에 대한 기술은 IoT 칩이 내장된 집안을 AI비서가 사용자의 명령을 받아 수행하는 내용이 포함된다. 이를테면 사용자가 "비가 오는데 분위기 좀 맞춰줘"라고 요구하면 AI 비서는 집안의 조명을 낮추고 분위기에 맞는 음악을 틀어주는 것은 물론 따뜻한 커피도 내린다.The technology for personal assistant service includes the content that an AI assistant receives and executes a user's command in a house equipped with an IoT chip. For example, if the user requests "It's raining, set the mood", the AI assistant will lower the lights in the house, play music that suits the mood, and brew hot coffee.

이에 대하여 대한민국 등록특허공보 10-1914604호에는 클라우드 플랫폼을 이용하여 각 사물의 작동을 제어하는 기술이 소개된 바 있다.Regarding this, Korean Patent Registration No. 10-1914604 introduces a technology for controlling the operation of each object using a cloud platform.

대한민국 공개특허공보 10-2021-0026962호(보이스 어시스턴트 서비스를 제공하는 장치 및 방법)Republic of Korea Patent Publication No. 10-2021-0026962 (apparatus and method for providing voice assistant service) 대한민국 등록특허공보 10-1914604호(클라우드 플랫폼을 이용한 IOT 디바이스 제어 방법 및 제어 시스템)Republic of Korea Patent Registration No. 10-1914604 (IOT device control method and control system using cloud platform) 대한민국 공개특허 2021-0006486(강화학습을 이용한 적응형 뇌파 분석 방법 및 장치)Korean Patent Publication 2021-0006486 (Adaptive brain wave analysis method and device using reinforcement learning) 대한민국 공개특허 2018-0009219호(뇌파를 이용한 감정표현 시스템 및 이를 이용한 로봇 전시 방법)Republic of Korea Patent Publication No. 2018-0009219 (Emotion expression system using brain waves and robot display method using the same)

본 발명의 목적은 상호 연관된 작용을 하는 설치 예술품을 이용하여 사용자에게 필요한 정보를 제공하고 대화를 하며 이펙트 연출을 제공받을 수 있는 설치 예술품을 이용한 AI 어시스턴트 시스템 및 방법을 제공하는 것이다. An object of the present invention is to provide an AI assistant system and method using an installation art work that can provide necessary information to a user, have a conversation, and be provided with an effect production using the installation art work having interrelated actions.

본 발명의 일 측면에 따르면, 설치 예술품을 이용한 AI 어시스턴트 시스템은 각 스마트 오브제의 동작 연출에 대한 제어신호를 출력하는 스마트 오브제 작동용 프로세서와 사용자에게 어시스턴트 서비스를 제공하는 AI 어시스턴트를 포함하는 시스템 서버; 로컬 구역에 설치되며, 상기 시스템 서버와 네트워크로 연결되어 상기 시스템 서버의 제어신호에 따라 해당 스마트 오브제에 동작 명령을 전송하는 로컬 허브; 및 상기 로컬 허브로부터 전송되는 제어신호에 따라 작동하는 동작 연출 모듈 및 상기 동작 연출 모듈을 제어하는 제어기가 내장되며, 상기 로컬 허브에서 전송받은 동작 명령에 따라 동작 연출을 수행하는 적어도 하나 이상의 스마트 오브제; 를 포함하는 것을 특징으로 한다.According to one aspect of the present invention, an AI assistant system using an art installation includes a smart object operating processor outputting a control signal for the operation of each smart object and an AI assistant providing an assistant service to a user. System server including; a local hub installed in a local area, connected to the system server through a network, and transmitting an operation command to a corresponding smart object according to a control signal of the system server; and at least one smart object having a built-in motion directing module operating according to a control signal transmitted from the local hub and a controller controlling the motion directing module, and performing motion directing according to the motion command received from the local hub; It is characterized in that it includes.

또한, 상기 시스템 서버는 사용자가 모바일 디바이스를 통해 연결이 되면, 상기 스마트 오브제 또는 AI 어시스턴트와 대화를 하거나 정보를 제공받는 수단 또는 상기 스마트 오브제의 작동을 제어하는 수단을 더 포함하는 것을 특징으로 한다.In addition, the system server may further include means for communicating with or receiving information from the smart object or AI assistant or means for controlling the operation of the smart object when a user is connected through a mobile device.

또한, 상기 AI 어시스턴트는, 사용자의 음성 및 텍스트, 뇌파에 대한 음성 해석 정보, 텍스트 해석 정보 및 뇌파 해석 정보 중 어느 하나 이상을 획득하는 획득수단; 상기 획득과정을 통해 획득된 정보에 기초하여 상기 사용자와 대화를 수행하는 수단; 및 상기 수행과정을 통해 얻은 정보를 분류하여 저장한 후 상황에 따른 대응 방법을 학습하는 수단; 을 포함하는 것을 특징으로 한다.In addition, the AI assistant may include: obtaining means for obtaining any one or more of the user's voice and text, speech interpretation information for brain waves, text interpretation information, and brain wave interpretation information; means for conducting a conversation with the user based on the information obtained through the acquiring process; and means for classifying and storing the information obtained through the execution process and then learning a response method according to the situation. It is characterized in that it includes.

또한, 상기 스마트 오브제는 개별적으로 동작 연출하는 단독 연출방식, 학습된 상황에 따라 순차적으로 동작 연출하는 순차 연출방식, 대화 형식으로 동작 연출하는 대화 연출방식 중 어느 하나의 방식으로 연출되는 것을 특징으로 한다.In addition, the smart object is characterized in that it is directed by any one of a single directing method of individually directing motions, a sequential directing method of sequentially directing motions according to learned situations, and a dialogue directing method of directing motions in a dialogue format. .

또한, 상기 로컬 허브는 상기 스마트 오브제의 설정 공간을 설정하고, 일 측에는 상기 설정 공간에 위치하는 신체를 감지할 수 있도록 감지센서가 장착되며, 상기 시스템 서버는 상기 감지센서로부터 전달되는 감지신호 값에 따라 상기 설정 공간 내에 위치한 스마트 오브제의 동작 연출을 중지하거나 또는 대기모드로 제어하는 것을 특징으로 한다.In addition, the local hub sets a setting space for the smart object, and a detection sensor is mounted on one side to detect a body located in the setting space, and the system server determines the value of the detection signal transmitted from the detection sensor. It is characterized in that the production of the motion of the smart object located in the setting space is stopped or controlled in a standby mode according to the setting space.

또한, 상기 AI 어시스턴트는, 상기 스마트 오브제 간의 동작 연출을 실시간으로 모니터링하는 모니터링수단, 사용자의 반응을 피드백하는 피드백수단, 또는 상기 피드백수단에 대해 학습하는 학습수단을 통해 설정상태를 유지하거나, 상기 스마트 오브제간의 동작 연출을 변경하는 것 중 어느 하나 이상을 포함하여 제어하는 것을 특징으로 한다.In addition, the AI assistant maintains a set state through a monitoring means for monitoring the operation production between the smart objects in real time, a feedback means for feeding back the user's reaction, or a learning means for learning about the feedback means, or the smart object. It is characterized by including and controlling any one or more of changing the direction of motion between objects.

본 발명의 또 다른 측면에 따르면, 설치 예술품을 이용한 AI 어시스턴트 시스템이 제어동작을 수행하는 방법은, a) 상기 AI 어시스턴트 시스템의 준비단계; b) 상기 시스템 서버가 상기 각 스마트 오브제의 동작 연출 시나리오에 대한 출력 프로세싱을 설정하는 단계; c) 상기 시스템 서버가 상기 로컬 허브를 통해 감지신호를 입력받고, 감지신호 값을 판단하는 단계; 및 d) 상기 시스템 서버가 상기 감지 신호 값에 따라 상기 스마트 오브제의 이펙트를 동작 연출하는 이펙트 출력 과정 또는 상기 스마트 오브제의 이펙트 동작 연출을 멈추고 대기하는 대기 모드를 수행하는 단계; 를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, a method for performing a control operation by an AI assistant system using an art installation includes: a) preparing the AI assistant system; b) setting, by the system server, output processing for motion presentation scenarios of each smart object; c) receiving, by the system server, a detection signal through the local hub and determining a value of the detection signal; and d) performing, by the system server, an effect output process of directing an effect of the smart object according to the value of the detection signal or a standby mode in which the directing of an effect operation of the smart object is stopped and standby; It is characterized in that it includes.

또한, 상기 c) 단계에서, 상기 로컬 허브의 감지센서는 상기 스마트 오브제의 설정 구역 및 상기 설정 구역을 기준으로 근접 구역과 외부 구역으로 분리하여 감지하는 것을 특징으로 한다.Further, in the step c), the detection sensor of the local hub is characterized in that it separates and senses the proximity zone and the external zone based on the setting zone and the setting zone of the smart object.

또한, 상기 d) 단계에서 상기 시스템 서버는 상기 감지 신호 값이 설정 값보다 낮은 경우에는 상기 스마트 오브제에 동작 연출 신호를 전송하는 것을 특징으로 한다.In step d), the system server transmits a motion directing signal to the smart object when the value of the detection signal is lower than the set value.

또한, 상기 방법은 사용자가 모바일 디바이스를 이용하여 상기 시스템 서버와 접속하는 단계; 상기 시스템 서버는 상기 모바일 디바이스를 통해 사용자의 정보 요청을 수신, 사용자의 대화 요청을 수신, 상기 스마트 오브제의 이펙트 제어 요청을 수신하는 것 중 어느 하나 이상을 수신하는 단계; 및 상기 시스템 서버는 상기 수신하는 단계에 맞춰 상기 사용자의 정보 요청에 대한 응답 또는 상기 사용자의 대화 요청에 대한 응답 또는 상기 스마트 오브제의 이펙트 제어에 대한 출력을 하는 단계; 를 더 포함하는 것을 특징으로 한다.In addition, the method includes the steps of a user accessing the system server using a mobile device; receiving, by the system server, at least one of a user's information request, a user's conversation request, and a request for effect control of the smart object through the mobile device; and outputting, by the system server, a response to the user's information request, a response to the user's conversation request, or an output for effect control of the smart object according to the receiving step. It is characterized in that it further comprises.

또한, 상기 방법은 상기 시스템 서버는 상기 모바일 디바이스를 통해 접속한 사용자 순으로 사용자가 선택한 스마트 오브제를 매칭하여 이펙트 동작 연출 제어권한을 제공하고, 사용자와 매칭되지 않은 스마트 오브제에 대해서는 매칭되지 않음을 상기 모바일 디바이스를 통하여 안내하며, 사용자가 매칭되지 않은 스마트 오브제를 선택한 것이 감지되면, 스마트 오브제의 동작 연출 제어권한을 선택한 사용자에게 제공하고, 사용자와 매칭되지 않은 스마트 오브제는 대기모드 상태를 유지하도록 제어하는 것을 더 포함하는 것을 특징으로 한다.In addition, the method reminds us that the system server matches the smart objects selected by the user in the order of users accessed through the mobile device to provide the authority to control the production of effect motions, and does not match smart objects that do not match with the user. Guidance is provided through the mobile device, and when it is detected that the user has selected a smart object that does not match, the right to control the operation of the smart object is provided to the selected user, and the smart object that does not match with the user is controlled to remain in standby mode. It is characterized in that it further includes.

또한, 상기 방법은 상기 시스템 서버는 상기 대기 사용자의 모바일 디바이스로 선 사용자의 스마트 오브제의 이펙트 동작 연출 제어 방법에 대한 정보를 제공하고, 상기 시스템 서버는 상기 선 사용자가 상기 이펙트 동작 연출의 이용이 완료된 것으로 판단되면, 상기 대기 사용자의 모바일 디바이스로 스마트 오브제에 대한 접속 및 이펙트 동작 연출 제어권한을 제공하며, 상기 이펙트 동작 연출 제어권한을 제공받은 사용자는 상기 모바일 디바이스를 통하여 상기 선 사용자의 스마트 오브제의 이펙트 동작 연출 제어 방법과 동일 또는 다른 이펙트 동작 연출 제어 방법에 대한 요청을 상기 시스템 서버에 전송하는 것을 특징으로 한다.In addition, in the method, the system server provides information on a control method for directing an effect motion of a smart object of a first user to the mobile device of the standby user, and the system server determines that the first user has finished using the directing effect motion. If it is determined that the standby user's mobile device is connected to the smart object and the right to control the directing of the effect motion is provided, the user who has been provided with the right to control the directing of the effect motion can perform the effect of the first user's smart object through the mobile device. It is characterized in that a request for an effect motion directing control method identical to or different from the motion directing control method is transmitted to the system server.

본 발명의 일 실시 예에 따르면, 사물과 사물 더 나아가 사물과 사람이 교감을 하며 사람이 지닌 마음의 빈 공간을 채워주어 사용자에게 정서적 여유를 제공하며, 정보를 제공하는 아트와 테크가 결합된 가구 예술품을 제공할 수 있다.According to an embodiment of the present invention, furniture combining art and tech that provides emotional leisure and information to users by filling the empty space in the mind of people by communicating with objects and objects and furthermore, objects and people Art can be provided.

도 1은 본 발명의 일 실시 예에 따른 설치 예술품을 이용한 AI 어시스턴트 시스템의 구성을 설명하기 위한 블록도이다.
도 2는 본 발명의 일 실시 예에 따른 설치 예술품을 이용한 AI 어시스턴트 시스템의 시스템 서버에서 제어작동을 수행하는 방법의 일 예를 도시한 것이다.
도 3은 본 발명의 일 실시 예에 따른 스마트 오브제의 예를 도시한 것이다.
도 4는 본 발명의 일 실시 예에 따른 로컬 허브 구역에서 단계별 제어작동을 수행하는 방법을 설명하기 위한 도면이다.
1 is a block diagram for explaining the configuration of an AI assistant system using an art installation according to an embodiment of the present invention.
2 illustrates an example of a method of performing a control operation in a system server of an AI assistant system using an art installation according to an embodiment of the present invention.
3 illustrates an example of a smart object according to an embodiment of the present invention.
4 is a diagram for explaining a method of performing a step-by-step control operation in a local hub area according to an embodiment of the present invention.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. In this application, when a certain component is said to "include", it means that it may further include other components without excluding other components unless otherwise stated.

또한, 명세서에 기재된 "…부", "…기", "모듈", "장치" 등의 용어는 적어도 하나의 기능이나 작동을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.In addition, terms such as "...unit", "...unit", "module", and "device" described in the specification mean a unit that processes at least one function or operation, which is hardware or software, or a combination of hardware and software. can be implemented as

또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결, 결합 또는 접속될 수 있지만, 그 구성 요소와 그 다른 구성요소 사이에 또 다른 구성 요소가 '연결', '결합' 또는 '접속'될 수도 있다고 이해되어야 할 것이다.Also, terms such as first and second may be used in describing components of an embodiment of the present invention. These terms are only used to distinguish the component from other components, and the nature, order, or order of the corresponding component is not limited by the term. When an element is described as being 'connected', 'coupled' or 'connected' to another element, the element may be directly connected, coupled or connected to the other element, but not between the element and the other element. It should be understood that another component may be 'connected', 'coupled' or 'connected' between elements.

이하 본 발명의 구현에 따른 설치 예술품을 이용한 AI 어시스턴트 시스템에 관해 상세하게 설명한다.Hereinafter, an AI assistant system using an art installation according to an implementation of the present invention will be described in detail.

본 발명의 명세서에서 설치 예술품인 오브제(objet)는 일상의 물품이나 자연물 등을 독립된 예술 작품으로 제시하여 일상적 의미와는 다른 상징적이고 환상적인 의미를 부여하는 설치 예술품을 의미한다.In the specification of the present invention, an installation art object (objet) means an installation art work that presents everyday items or natural objects as independent works of art and gives symbolic and fantastic meanings different from everyday meanings.

또한, 스마트 오브제는 각각의 동작 연출이 상호 연관되어 동작 연출을 수행하거나 개별적으로 동작 연출을 수행하는 것을 의미한다.In addition, a smart object means that each motion direction is correlated with each other and motion direction is performed or motion direction is performed individually.

본 발명의 일 실시 예에 따른 동작 연출은 오디오음 연출, 조명 연출, 진동 연출 및 모션(motion) 연출 등의 어느 하나 또는 이들의 조합으로 연출될 수 있다. Motion presentation according to an embodiment of the present invention may be directed by any one or a combination of audio sound directing, lighting directing, vibration directing, motion directing, and the like.

본 발명의 일 실시 예에 따른 오디오음 연출은 노래, 리듬, 연주, 소리 효과음, 소리의 크기 중 어느 하나 이상을 포함할 수 있다.Audio sound presentation according to an embodiment of the present invention may include any one or more of song, rhythm, performance, sound effect, and volume.

본 발명의 일 실시 예에 따른 조명 연출은 레이저 조명 연출, 색상 연출, 빛의 조사 각도나 강약, 빛의 밝기, 빛의 이펙트, 빛의 패턴 등에 의한 연출 중 어느 하나 이상을 포함할 수 있다.Lighting production according to an embodiment of the present invention may include any one or more of laser lighting production, color production, light irradiation angle or intensity, light brightness, light effect, light pattern, and the like.

본 발명의 일 실시 예에 따른 소리 효과음 연출은 바람, 파도, 바람과 같은 자연의 소리 효과음, 감정을 표현하는 효과음, 장소를 표현하는 효과음, 현상을 표현하는 효과음, 사물을 표현하는 효과음 연출 중 어느 하나 이상을 포함할 수 있다.The sound effect production according to an embodiment of the present invention is any one of natural sound effects such as wind, waves, and wind, sound effects expressing emotions, sound effects expressing places, sound effects expressing phenomena, and sound effects expressing objects. may contain one or more.

본 발명의 일 실시 예에 따른 모션 연출은 회전 방향, 회전 속도, 진동, 회전 운동의 종류 연출 중 어느 하나 이상을 포함할 수 있다.Motion presentation according to an embodiment of the present invention may include any one or more of rotation direction, rotation speed, vibration, and rotation type presentation.

본 발명의 일 실시 예에서는 복수의 스마트 오브제가 서로 연관되도록 빛과 모션, 소리로 효과를 내도록 연출함으로써, 인터렉션 아트를 통해 관람자 또는 사용자에게 재미와 활기를 더해주는 분위기를 제공하는 것을 특징으로 한다.An embodiment of the present invention is characterized in providing an atmosphere that adds fun and vitality to viewers or users through interaction art by producing effects with light, motion, and sound so that a plurality of smart objects are associated with each other.

또한, 상기 단수 혹은 복수의 스마트 오브제는 근접하는 관람자 또는 사용자와 교감을 하여 관람자 또는 사용자에 반응하여 대화를 하거나, 정보를 제공할 수 있으며, 관람자의 요청에 따라 이펙트를 동작 연출하거나 사용자에 의해 이펙트 동작 연출이 제어될 수 있는 것을 특징으로 한다.In addition, the singular or plural smart objects can communicate with nearby spectators or users, respond to spectators or users, communicate with them, or provide information. It is characterized in that the motion direction can be controlled.

예를 들면, 거울 스마트 오브제와 협탁 스마트 오브제, 벽면에 설치된 액자 스마트 오브제를 입체적으로 동선이 어울리도록 벽면에 배치를 하고, 협탁 스마트 오브제에서는 나무를 두드리는 리듬으로 형성된 음악 외의 자연음을 연출하고, 액자 스마트 오브제에서는 바람소리와 같은 리듬을 나타내는 오디오음과 그림 파트의 모션을 연출하고, 거울 스마트 오브제에서는 음악 및 오디오음에 연관되는 빛을 연출하도록 할 수 있다.For example, a mirror smart object, bedside table smart object, and frame smart object installed on the wall are placed on the wall so that the movement lines match in three dimensions. In the smart object, an audio sound representing a rhythm such as the sound of wind and motion of a picture part can be produced, and in a mirror smart object, light related to music and audio sound can be produced.

이와 같은 스마트 오브제의 이펙트는 스마트 오브제가 서로 주고받는 대화를 하는 느낌이 들도록 하나의 스마트 오브제의 이펙트에 이어서 다른 스마트 오브제의 응답 이펙트가 이어가는 동작을 수행하도록 하는 프로그램이 설정된 시스템 서버(100)의 프로세스에 의해 제어될 수 있다.The effect of such a smart object is a process of the system server 100 in which a program is set to perform an operation in which the effect of one smart object is followed by the response effect of another smart object so that the smart objects feel like having a conversation with each other. can be controlled by

예를 들면, 협탁 스마트 오브제가 나무를 두드리는 리듬으로 형성된 음악을 연출하다가 중단되면, 이어서 벽면 액자에서 바람소리와 같은 리듬을 나타내는 오디오 음을 연출하고 그림의 일부 파트가 음악 리듬에 맞추어 회전을 하며, 벽면에 설치된 거울에서는 빛을 음악 리듬에 맞추어 해당 스마트 오브제에 비춰지도록 프로그램이 될 수 있다.For example, when the bedside table smart object produces music formed by the rhythm of tapping a tree and then stops, an audio sound representing a rhythm such as the sound of wind is then produced in a frame on the wall, and some parts of the picture rotate according to the rhythm of the music, A wall-mounted mirror can be programmed to project light onto a corresponding smart object in sync with the rhythm of the music.

도 1은 본 발명의 일 실시 예에 따른 설치 예술품을 이용한 AI 어시스턴트 시스템의 구성을 설명하기 위한 블록도이다.1 is a block diagram for explaining the configuration of an AI assistant system using an art installation according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시 예에 따른 설치 예술품을 이용한 AI 어시스턴트 시스템은 각 스마트 오브제의 동작 연출에 대한 제어신호를 출력하는 스마트 오브제 작동용 프로세서와, 사용자에게 어시스턴트 서비스를 제공하는 AI 어시스턴트를 포함하는 시스템 서버(100), 로컬 구역에 설치되고, 상기 시스템 서버와 네트워크로 연결되어 상기 시스템 서버(100)의 제어신호에 따라 해당 스마트 오브제에 동작 명령을 전송하는 로컬 허브(200) 및 상기 로컬 허브(200)로부터 전송되는 제어신호에 따라 작동하는 동작 연출 모듈 및 상기 동작 연출 모듈을 제어하는 제어기가 내장되며, 상기 로컬 허브(200)에서 전송받은 동작 명령에 따라 동작 연출을 수행하는 스마트 오브제(J1, J2, J3..); 를 포함한다.Referring to FIG. 1, an AI assistant system using an art installation according to an embodiment of the present invention includes a processor for operating a smart object that outputs a control signal for directing the motion of each smart object, and an AI that provides an assistant service to the user. A system server 100 including an assistant, a local hub 200 installed in a local area, connected to the system server through a network, and transmitting an operation command to a corresponding smart object according to a control signal of the system server 100, and A motion directing module that operates according to a control signal transmitted from the local hub 200 and a controller for controlling the motion directing module are built-in, and a smart motion direction is performed according to an operation command transmitted from the local hub 200. objects (J1, J2, J3..); includes

상기 AI 어시스턴트 시스템은 사용자가 모바일 디바이스(50)를 통해 시스템 서버(100)에 연결된 후 스마트 오브제, AI 어시스턴트와 대화를 하거나 정보를 제공받거나 또는 상기 스마트 오브제의 동작 연출 작동을 제어하는 것을 특징으로 한다.The AI assistant system is characterized in that the user connects to the system server 100 through the mobile device 50 and then communicates with or receives information from the smart object or AI assistant, or controls the operation of the smart object. .

또한, 본 발명의 일 실시 예에 따른 AI 어시스턴트 시스템은 상기 스마트 오브제를 적어도 하나 이상 사용 시에 개별적으로 동작 연출을 수행하거나, 스마트 오브제간 상호 연관되어 동작 연출을 수행하도록 제어되는 것을 특징으로 한다. In addition, the AI assistant system according to an embodiment of the present invention is characterized in that when at least one smart object is used, motion direction is performed individually or motion direction is performed in association with each other.

본 발명의 일 실시 예에 따른 모바일 디바이스(50)에는 오디오 입력기능, 텍스트 입력기능, QR 코드 입력기능, 이미지 입력기능 및 뇌파 입력기능 중 어느 하나 이상의 정보 입력기능을 포함하는 것을 특징으로 한다.The mobile device 50 according to an embodiment of the present invention is characterized by including any one or more information input functions among an audio input function, a text input function, a QR code input function, an image input function, and an brain wave input function.

본 발명의 일 실시 예에 따른 뇌파 입력기능은 EEG(Electroncephalogram)칩을 내장한 헤드셋을 모바일 디바이스(50)에 접속하여 사용자의 뇌파 특징이 입력되는 것을 특징으로 한다. The brain wave input function according to an embodiment of the present invention is characterized in that a user's brain wave characteristics are input by connecting a headset having an EEG (Electroncephalogram) chip embedded therein to the mobile device 50 .

또한, 상기 시스템 서버(100)는 스마트 오브제의 동작 연출에 대한 제어신호를 출력하는 스마트 오브제 작동용 프로세서를 포함하고, AI 어시스턴트는 모바일 디바이스(50)를 통하여 입력되는 사용자의 음성, 텍스트, 뇌파에 대한 음성 해석 정보, 텍스트 해석 정보, 뇌파 해석 정보 중 어느 하나 이상의 입력 정보를 획득하는 수단과, 획득된 입력 정보에 기초하여 상기 사용자의 대화 및 정보 요청에 대한 응답 작동을 수행하는 수단, 상기 스마트 오브제의 동작 연출 제어에 대한 출력을 수행하는 수단 및 상기 수행 과정을 통해 얻은 정보를 분류하여 저장한 후 상황에 따른 대응 방법을 학습하는 수단을 포함한다. In addition, the system server 100 includes a smart object operation processor that outputs a control signal for the motion direction of the smart object, and the AI assistant responds to the user's voice, text, and brain waves input through the mobile device 50. means for obtaining input information of one or more of speech interpretation information, text interpretation information, and brain wave analysis information for the object; means for performing a response operation to the user's conversation and information request based on the obtained input information; It includes a means for performing an output for control of motion production and a means for classifying and storing the information obtained through the execution process, and then learning a response method according to the situation.

본 발명의 일 실시 예에 따른 AI 어시스턴트는 입력된 뇌파의 특징을 분석하여 이에 대응하는 감정 상태를 추출하고, 상기 감정상태에 대응하는 이펙트를 동작 연출로 제공하는 것을 특징으로 한다.The AI assistant according to an embodiment of the present invention is characterized in that it analyzes the characteristics of the input brain wave, extracts an emotional state corresponding thereto, and provides an effect corresponding to the emotional state as a motion presentation.

예를 들면, 뇌파의 특징을 분석한 결과 처진 감정, 불안 등을 나타낼 때에는 클래식 바로크음악의 명곡인 안토니오 비발디의 `사계'와 같은 활력을 불어 넣을 수 있는 음악이 연주되도록 동작 연출을 제어할 수 있다.For example, as a result of analyzing the characteristics of the brain waves, when the emotions and anxiety are expressed, the movement can be controlled so that music that can invigorate vitality, such as Antonio Vivaldi's 'Four Seasons', a classic baroque music, is played. .

또한, 뇌파의 특징을 분석한 결과 기쁨, 즐거움, 환희 등의 감정이 특징으로 나타날 때에는 `Somewhere Over the Rainbow'(섬웨어 오버 더 레인보우)와 같은 기쁨의 감정을 나타낼 수 있는 음악이 연주되도록 동작 연출을 제어할 수 있다.In addition, as a result of analyzing the characteristics of brain waves, when emotions such as joy, pleasure, and joy are characterized, motions are directed so that music that can express emotions of joy, such as 'Somewhere Over the Rainbow', is played. can control.

본 발명의 일 실시 예에 따르면, 상기 사용자는 로컬 구역의 관리자 또는 관람자 중 어느 하나일 수 있다.According to an embodiment of the present invention, the user may be either a manager or a spectator of a local area.

도 2는 본 발명의 일 실시 예에 따른 설치 예술품을 이용한 AI 어시스턴트 시스템의 시스템 서버(100)에서 제어동작을 수행하는 방법의 일 예를 도시한 것이다. 2 illustrates an example of a method of performing a control operation in the system server 100 of the AI assistant system using an art installation according to an embodiment of the present invention.

도 2를 참조하면, 먼저, 시스템 서버(100)는 각 스마트 오브제(J1, J2, J3…별로 작동 시나리오에 따라 스마트 오브제(J1, J2, J3…)의 동작 연출 모듈에 대한 출력 프로세싱을 설정하는 단계(510 단계)가 수행된다.Referring to FIG. 2, first, the system server 100 sets output processing for the motion directing module of each smart object (J1, J2, J3...) according to an operating scenario. Step 510 is performed.

본 발명의 일 실시 예에 따르면, 출력 프로세싱을 설정하는 단계(510단계)에서는 각각의 스마트 오브제가 개별적으로 이펙트가 연출되거나 또는 제1 스마트 오브제(J1)와 제2, 3 스마트 오브제(J2, J3)가 학습된 상황에 따라 순차적으로 동작 연출하는 순차 연출방식 또는 스마트 오브제 간 상호 대화하듯이 연동이 되도록 동작 연출되도록 하는 대화 연출방식으로 프로그램이 되는 것을 포함할 수 있다. According to an embodiment of the present invention, in the step of setting the output processing (step 510), each smart object is individually directed, or the first smart object (J1) and the second and third smart objects (J2, J3) ) may include being programmed in a sequential directing method in which motions are directed sequentially according to the learned situation or a dialog directing method in which motions are directed so as to interlock as if mutual conversation between smart objects is performed.

또는 상기 프로세싱을 설정하는 단계(510단계) 이전에 스마트 오브제를 공간과 매칭시켜 예술적으로 배치하는 준비단계를 더 포함할 수 있다.Alternatively, prior to the step of setting the processing (step 510), a preparation step of artistically arranging smart objects by matching them with a space may be further included.

다음은, 시스템 서버(100)는 상기 설정된 출력 프로세싱에 따라 로컬 허브(200)를 통하여 각 스마트 오브제(J1, J2, J3, …가 이펙트를 동작 연출하도록 제어신호를 보내어, 이펙트를 동작 연출하는 이펙트 출력 단계(520단계)가 수행된다.Next, the system server 100 sends a control signal to each smart object (J1, J2, J3, ...) through the local hub 200 according to the set output processing to produce an effect, An output step (step 520) is performed.

도 3은 본 발명의 일 실시 예에 따른 스마트 오브제의 예를 도시한 것이다.3 illustrates an example of a smart object according to an embodiment of the present invention.

도 3을 참조하면, 상부에는 빛을 발생시키는 거울 스마트 오브제가 설치되고, 하부에는 협탁 스마트 오브제가 예술적으로 조화롭게 설치되며, 협탁 스마트 오브제에서는 나무와 연관된 자연음이 연출되고, 상부의 거울 스마트 오브제에서는 상기 협탁 스마트 오브제의 음악 리듬에 반응하여 거울 스마트 오브제의 빛의 세기 및 색깔, 빛의 효과 등이 변화되어 연출될 수 있다. Referring to FIG. 3, a mirror smart object that generates light is installed on the upper part, a bedside table smart object is artistically and harmoniously installed on the lower part, natural sounds related to trees are produced on the bedside table smart object, and a mirror smart object on the upper part In response to the music rhythm of the bedside table smart object, the light intensity, color, and light effect of the mirror smart object may be changed and directed.

도 3에서 왼쪽은 동작 연출에 대한 작동상태, 오른쪽은 동작 연출에 대한 작동이 멈춘 상태를 도시한 것이다.In FIG. 3, the left side shows an operating state for motion directing, and the right side shows a stopped state for motion directing.

본 발명의 일 실시 예에 따르면, 각 스마트 오브제의 이펙트는 사물(스마트 오브제)의 물성이 반영되어 사물마다 고유한 특징을 가지는 동작 특성(이펙트 동작 연출을 위한 동작 수단)을 시스템 서버(100)의 프로세서에 각 스마트 오브제 별로 할당하여 저장함으로써, 상기 시스템 서버(100)의 제어신호에 의해 각 스마트 오브제가 고유한 물리적 특성을 나타내면서 사물 간에 대화하는 느낌을 줄 수 있도록 연출될 수 있다. According to an embodiment of the present invention, the effect of each smart object reflects the physical properties of the object (smart object), and the operation characteristics (operation means for directing the effect operation) having unique characteristics for each object are reflected in the system server 100. By assigning and storing each smart object in the processor, each smart object can be directed to give a feeling of conversation between objects while exhibiting unique physical characteristics by the control signal of the system server 100.

예를 들면, 스마트 오브제의 이펙트는 모션/빛/소리에 해당하는 모션모듈(모터 등), 조명모듈(LED 등), 음악모듈(MP3 등) 등의 동작 연출 모듈로 작동되도록 프로그램이 되며, 다양한 연출이 가능하도록 특정 조건에 따른 작동프로세스가 프로그램되어 시스템 서버(100)에 저장된다. 이후 사용자에 의해 스마트 오브제의 이펙트 동작 연출 방법이 변경될 수 있다. For example, the effect of a smart object is programmed to operate as a motion directing module such as a motion module (motor, etc.), a lighting module (LED, etc.), and a music module (MP3, etc.) corresponding to motion/light/sound. An operating process according to specific conditions is programmed and stored in the system server 100 so that directing is possible. After that, the method of directing the effect operation of the smart object may be changed by the user.

또한, 시스템 서버(100)는 사용자에 의해 누적된 입력 데이터(대화 내용 및 사용자에 의한 동작 연출 방법 변경 내용)를 분석하여 매칭 작동에 대한 분류를 한 후, 시스템의 응답 및 작동 퀄리티가 향상되도록 학습하고, 프로세스를 업그레이드하는 과정을 포함한다.In addition, the system server 100 analyzes the input data accumulated by the user (conversation content and changes in the method of motion production by the user) to classify the matching motion, and then learns to improve the response and operation quality of the system. and the process of upgrading the process.

또한, 시스템 서버(100)는 사용자에 의한 스마트 오브제의 이펙트 동작 연출 제어(커스터마이징)에 대한 효과를 분석하고 유사값을 모아 패턴화하여 오브제 이펙트를 제어하는 과정을 더 포함할 수 있다.In addition, the system server 100 may further include a process of controlling the effect of the object by analyzing the effect of the user's directing control (customizing) of the effect operation of the smart object and collecting similar values and patterning them.

상기 특정 조건은 즐거운 분위기, 경건한 분위기, 슬픈 분위기, 기쁜 분위기, 공포 분위기, 따뜻한 분위기, 시원한 분위기 등에 따라 이를 나타낼 수 있는 음악, 색감, 움직임 또는 그 외의 동작 연출이 선택적으로 프로그램이 될 수 있으며, 사용자에 의한 분위기에 따른 동작 연출이 학습되어 설정될 수 있다.The specific condition can be selectively programmed with music, color, movement, or other motion direction that can indicate the specific condition according to a joyful atmosphere, a pious atmosphere, a sad atmosphere, a happy atmosphere, a fearful atmosphere, a warm atmosphere, a cool atmosphere, and the like. Motion direction according to the atmosphere by the can be learned and set.

또한, 시스템 관리자는 스마트 오브제의 외형 및 특성을 고려하여 스마트 오브제를 통해 표현할 동작 연출의 종류와 스마트 오브제 사용 시나리오를 설정하여 프로그램에 포함할 수 있다. In addition, the system manager may set the type of motion presentation to be expressed through the smart object and the smart object usage scenario in consideration of the appearance and characteristics of the smart object, and include them in the program.

본 발명의 일 실시 예에 따른 동작 연출 모듈은 모터 등을 포함하는 모션모듈, LED, 레이저 등을 포함하는 조명 모듈, MP3 등을 포함하는 음악 모듈, 디스플레이 모듈 중 어느 하나 이상을 포함할 수 있다.An action directing module according to an embodiment of the present invention may include one or more of a motion module including a motor, a lighting module including LEDs and lasers, a music module including MP3, and a display module.

또한, 상기 스마트 오브제의 제어장치는 IC, MICOM 등이 포함된 PCB 형태로 내장될 수 있다.In addition, the control device of the smart object may be embedded in the form of a PCB including IC, MICOM, and the like.

본 발명의 일 실시 예에 따른 상기 스마트 오브제의 동작 연출 모듈은 프로그램된 시나리오에 따라 모션과 빛이 함께 출력되는 것, 빛만을 출력하는 것, 모션-빛-소리를 모두 동시에 출력하는 것 등 필요에 따라 필요한 이펙트 동작 연출 모듈이 복수 개로 조합되어 스마트 오브제에 장착될 수 있다.According to an embodiment of the present invention, the motion directing module of the smart object can output motion and light together according to a programmed scenario, output only light, or simultaneously output motion-light-sound. Accordingly, a plurality of required effect operation directing modules may be combined and mounted on a smart object.

예를 들면, 사용자는 빛을 비추는 거울 스마트 오브제는 빛을 반사해 비춘다는 물성을 활용해 빛과 오디오를 조합하여 인터렉션 효과를 내며, 나무로 만들어진 협탁 스마트 오브제는 나무와 관련된 자연의 소리를 이용해 인터렉션 효과를 내도록 설정하여 필요한 동작 연출 모듈을 포함한 제어장치 PCB를 각 스마트 오브제 안에 장착한다.For example, a mirror smart object that shines light creates an interaction effect by combining light and audio by utilizing the physical property of reflecting and reflecting light, and a bedside table smart object made of wood uses natural sounds related to wood to create an interaction effect. After setting to produce the effect, mount the control device PCB including the necessary motion directing module inside each smart object.

본 발명의 일 실시 예에 따르면, 상기 제어장치 PCB는 모듈화하여 제조될 수 있으며, 상기 제어장치 PCB에는 스마트 오브제의 특성 및 스마트 오브제 사용 환경에 따라 설정된 스마트 오브제 작동 시나리오에 적합한 스마트 오브제 동작 연출 모듈의 입, 출력값이 설정된 인터페이스가 포함된다.According to an embodiment of the present invention, the control device PCB may be manufactured in a modular manner, and the control device PCB includes a smart object motion directing module suitable for a smart object operation scenario set according to the characteristics of the smart object and the smart object usage environment. An interface with set input and output values is included.

본 발명의 일 실시 예에 따르면, 상기 시스템 서버(100)에는, 적어도 하나 이상의 조합으로 사용되는 스마트 오브제의 연출방식이 프로그램으로 설정되어 저장될 수 있다. 상기 스마트 오브제의 연출방식에는 각 스마트 오브제가 개별적으로 랜덤하게 이펙트 동작 연출 작동을 수행하는 단독 연출방식, 복수의 스마트 오브제가 학습된 상황에 따라 순차적으로 연출하는 순차 연출방식, 스마트 오브제 간 상호 대화하듯이 연동이 되도록 동작 연출하는 대화 연출방식 중 어느 하나 이상으로 연출되도록 하는 프로그램이 포함될 수 있다.According to an embodiment of the present invention, in the system server 100, a presentation method of at least one smart object used in combination may be set as a program and stored. The directing method of the smart object includes a single directing method in which each smart object individually and randomly performs an effect motion directing operation, a sequential directing method in which a plurality of smart objects are sequentially directed according to learned situations, and a mutually interactive directing method between smart objects. A program for directing at least one of dialogue directing methods for motion directing to be interlocked may be included.

예를 들면, 협탁 스마트 오브제에서는 나무와 관련된 소리파일을 시스템 서버(100)로부터 전송받아서 학습된 프로세스에 따라 재생되며, 거울 스마트 오브제는 다양한 빛의 색상 패턴과 효과 패턴(깜빡임/색상변화/디밍 효과 등 어느 하나 이상)에 대한 제어신호를 시스템 서버(100)로부터 전송받아서 학습된 프로세스에 따라 재생되도록 프로그램이 될 수 있다.For example, in the tabletop smart object, a sound file related to a tree is received from the system server 100 and played according to a learned process, and the mirror smart object has various light color patterns and effect patterns (blinking/color changing/dimming effect). etc.) may be programmed to be reproduced according to a learned process by receiving a control signal for one or more) from the system server 100.

또한, 본 발명의 일 실시 예에 따른 스마트 오브제의 이펙트는 로컬 허브(200)와 연결된 다른 스마트 오브제의 이펙트와 상호 연관된 영향을 주고받도록 프로그램이 설정될 수 있다.In addition, a program may be set so that the effect of a smart object according to an embodiment of the present invention exchanges a mutually related effect with an effect of another smart object connected to the local hub 200 .

예를 들면, 어느 하나의 스마트 오브제에서 출력되는 소리 이펙트의 음역대나 리듬, 소리의 크기가 반영되어 다른 스마트 오브제의 모션 속도나 모션 종류 혹은 빛의 밝기나 RGB 값, 디밍 속도 등이 변화되도록 프로그램이 될 수 있다. 또한, 반대로 빛 이펙트의 RGB 값이나 밝기, 효과 패턴에 따라 다른 스마트 오브제의 소리 종류(음역대, 리듬이 반영된 음악)나 모션 속도 등이 변화하도록 프로그램이 될 수 있다.For example, a program can change the motion speed, motion type, brightness, RGB value, dimming speed, etc. of another smart object by reflecting the sound range, rhythm, and loudness of the sound effect output from one smart object. It can be. In addition, on the contrary, it can be programmed to change the type of sound (range of sound, music reflecting rhythm) or motion speed of other smart objects according to the RGB value, brightness, and effect pattern of the light effect.

또한, 출력되는 제1 스마트 오브제의 소리 이펙트의 볼륨이 높아지는 경우는 이와 연관되는 제2 스마트 오브제의 출력 빛이 강해지도록 동작 연출될 수 있다. 또는 제1 스마트 오브제의 바람소리의 강, 약에 맞추어 제2 스마트 오브제의 출력 빛의 색깔이 파란색에서 붉은 색으로 변하도록 동작 연출이 수행될 수 있다.In addition, when the volume of the sound effect of the output first smart object increases, the output light of the second smart object related to it may be directed so that the output light becomes stronger. Alternatively, the motion direction may be performed so that the color of the output light of the second smart object changes from blue to red according to the strength or weakness of the wind noise of the first smart object.

또한, 본 발명의 일 실시 예에 따르면, 로컬 허브(200)와 연결된 다수의 스마트 오브제 별로 순차적으로 돌아가며 동작 연출하거나, 복수의 조합 스마트 오브제가 동시에 동작 연출하거나, 혹은 복수의 스마트 오브제 중 소수의 스마트 오브제는 동시에 동작 연출하고, 또 다른 스마트 오브제는 상기 복수의 스마트 오브제의 동작 연출 시에는 멈춰있다가 연출이 끝나는 데로 이어서 다른 이펙트를 동작 연출하도록 프로그램이 될 수 있다.In addition, according to an embodiment of the present invention, motions are sequentially directed for each of a plurality of smart objects connected to the local hub 200, a plurality of combined smart objects simultaneously directs motions, or a small number of smart objects among a plurality of smart objects A program may be programmed so that an object simultaneously directs a motion, and another smart object stops while directing a motion of the plurality of smart objects, and then directs another effect as soon as the directing is finished.

또한, 본 발명의 일 실시 예에 따르면, 사용자가 모바일 디바이스(50)를 이용하여 시스템 서버(100)에 접속이 되면, 사용자는 스마트 오브제에 프로그램된 이펙트 동작 연출 리스트를 검색하여 상기 스마트 오브제의 동작 연출을 다른 유형으로 바꾸어 연출(커스터마이징)하도록 할 수 있다(Entertaining Process).In addition, according to an embodiment of the present invention, when a user accesses the system server 100 using the mobile device 50, the user searches for a list of effect motions programmed in the smart object to operate the smart object. It is possible to direct (customize) by changing the directing to another type (Entertaining Process).

또는 사용자가 모바일 디바이스(50)를 이용하여 시스템 서버(100)에 접속을 한 후, 요구 조건을 입력하면, 시스템 서버(100)에 포함된 AI 어시스턴트가 사용자의 요구 조건에 따른 최적 상태로 이펙트를 변경하도록 제어할 수 있다.Alternatively, when the user connects to the system server 100 using the mobile device 50 and inputs requirements, the AI assistant included in the system server 100 performs the effect in an optimal state according to the user's requirements. You can control it to change.

본 발명의 일 실시 예에서는 상기 시스템 서버(100)에 포함된 AI 어시스턴트는 상기 스마트 오브제 간의 동작 연출을 실시간으로 모니터링하여 사용자의 반응을 피드백하고, 피드백에 대해 학습하는 수단을 더 포함한다. In one embodiment of the present invention, the AI assistant included in the system server 100 further includes a means for monitoring the motion production between the smart objects in real time, feeding back the user's reaction, and learning about the feedback.

또한, AI 어시스턴트는 상기 학습된 결과로부터 스마트 오브제 간 상호작용에 맞는 최적의 음원 파일을 보내어 스마트 오브제 간 대응하여 동작 연출을 수행하도록 제어하거나, 또는 학습된 결과 및 사용자의 요구 조건에 맞추어 스마트 오브제의 모션 이펙트, 소리 이펙트, 빛 이펙트 외 어느 하나 이상을 최적 상태로 변경하여 스마트 오브제에 출력될 수 있도록 제어할 수 있다. In addition, the AI assistant sends an optimal sound source file suitable for interaction between smart objects from the learned results and controls to perform motion production in correspondence between smart objects, or the smart objects according to the learned results and user requirements. Any one or more other than motion effects, sound effects, and light effects can be changed to an optimal state and can be controlled to be output to a smart object.

본 발명의 일 실시 예에서 상기 사용자의 피드백은 상기 모바일 다바이스(50)를 통하여 입력받을 수 있다. 또는 AI 어시스턴트가 사용자가 동작 연출 이펙트를 지속하는 시간 및 변경하는 시간을 통해 평가할 수 있다.In one embodiment of the present invention, the user's feedback may be input through the mobile device 50 . Alternatively, the AI assistant may evaluate the duration and duration of the motion production effect by the user and the duration of the change.

상기 AI 어시스턴트가 스마트 오브제를 최적 상태로 변경하는 것에는 AI 어시스턴트가 사용자의 요구 조건에 따라 미리 학습된 데이터로부터 요구 조건에 부합되는 점수 중에 높은 점수순으로 스마트 오브제가 동작 연출이 되도록 제어하는 것을 포함할 수 있다. The change of the smart object by the AI assistant to the optimal state includes the AI assistant controlling the smart object to produce motions in order of high scores among scores that meet the requirements from pre-learned data according to the user's requirements. can do.

또한, 본 발명의 일 실시 예에 따른 설치 예술품을 이용한 AI 어시스턴트 시스템은, 로컬 허브(200)의 설정 구역 내에 사용자가 있을 때와 없을 때를 구분하여 동작 연출되도록 제어되는 것을 특징으로 한다. In addition, the AI assistant system using an art installation according to an embodiment of the present invention is characterized in that the operation is controlled by distinguishing between when the user is present and when there is no user within the set area of the local hub 200.

상기 설정 구역 내에서 사용자는 상기 모바일 디바이스(50)를 통해 스마트 오브제의 동작 연출을 제어할 수 있는 동작 연출에 대한 제어권한이 주어지고, 설정 구역 밖에서는 사용자가 스마트 오브제의 동작 연출을 제어할 수는 없으나, 사용자가 모바일 디바이스(50)를 이용하여 시스템 서버(100)에 접속하여, AI 어시스턴트 서비스를 제공받을 수 있다.Within the setting area, the user is given control authority for motion direction that can control the motion direction of the smart object through the mobile device 50, and outside the setting area, the user can control the motion direction of the smart object. Although there is no, the user can access the system server 100 using the mobile device 50 and receive the AI assistant service.

본 발명의 일 실시 예에 따른 상기 설정 구역은 스마트 오브제가 설치되는 공간에 따라 유동적으로 범위를 설정하여 정할 수 있는 것을 특징으로 한다.The setting area according to an embodiment of the present invention is characterized in that a range can be flexibly set and determined according to a space where a smart object is installed.

도 4는 본 발명의 일 실시 예에 따른 로컬 허브(200) 구역에서 단계별 제어작동을 수행하는 방법을 설명하기 위한 도면이다.4 is a diagram for explaining a method of performing a step-by-step control operation in a local hub 200 area according to an embodiment of the present invention.

도 4a는 설정 구역 내에 사람이 없을 경우, 복수의 스마트 오브제가 학습된 프로세스에 따라 서로 주고받는 대화를 하는 느낌을 가지도록 상호작용(인터렉션)을 하며, 설치 예술로서의 동작 연출을 수행하는 것을 나타낸다.4A shows that when there is no person in the set area, a plurality of smart objects interact (interaction) to have a feeling of having a conversation with each other according to the learned process, and perform motion direction as installation art.

이펙트 출력 단계(520단계)를 실행하면서 시스템 서버(100)는 로컬 허브(200)로부터 로컬 허브(200)의 설정 구역 내에 사람에 의한 감지신호가 입력되었는지를 판단하는 인체 감지 판단 단계(530 단계)가 수행된다.While executing the effect output step (step 520), the system server 100 determines whether a human detection signal is input from the local hub 200 within the set area of the local hub 200 (step 530) is performed

본 발명의 일 실시 예에 따르면, 로컬 허브(200)는 로컬 허브(200) 구역 내에 설치된 블루투스 신호 감지장치, 카메라, 적외선 센서, 초음파 센서, 마이크로웨이브 센서, GPS, 레이더(Radar), 라이다(Lidar), 인체 감지센서 중 하나 이상으로부터 사용자가 로컬 허브(200)의 설정 구역 내에 있을 때와 없을 때, 또는 설정 구역 외 상기 설정 구역을 기준으로 근접 구역과 외부 구역을 구분하여 감지신호 값을 수신하여 시스템 서버(100)로 전송하는 것을 포함한다. According to an embodiment of the present invention, the local hub 200 includes a Bluetooth signal detection device, a camera, an infrared sensor, an ultrasonic sensor, a microwave sensor, a GPS, a radar, and a lidar installed in the area of the local hub 200 ( Lidar), receive a detection signal value from one or more of the human body sensors when the user is in or not within the set area of the local hub 200, or by dividing the proximity area and the outside area based on the set area outside the set area and transmitting to the system server 100.

또는 사용자가 로컬 허브(200)의 설정 구역에 가까이 접근 중일 때의 감지신호를 추가로 감지할 수 있다.Alternatively, a detection signal when the user is approaching the setting area of the local hub 200 may be additionally sensed.

예를 들면, 사용자가 스마트 오브제의 이펙트 동작 연출을 제어할 수 있는 구역을 설정 구역, 설정 구역과 일정 거리 떨어진 거리에 관람 구역을 근접 구역으로 설정하여, 로컬 허브(200)에서 근접 구역에서 설정 구역으로 감지신호가 감지될 때를 가까이 접근 중일 때로 인식될 수 있다.For example, by setting an area where the user can control the effect operation of the smart object as a setting area, and setting a viewing area at a certain distance from the setting area as a proximity area, the local hub 200 sets the area in the proximity area. As a result, when the detection signal is sensed, it can be recognized as when it is approaching close.

또는 시스템 서버(100)는 로컬 허브(200)로부터 상기 감지신호를 수신하여, 로컬 허브(200)의 설정 구역 내에 있는 사용자의 인원수 및 상기 설정 구역 외 근접 구역의 인원 수를 감지할 수 있다.Alternatively, the system server 100 may receive the detection signal from the local hub 200 and detect the number of users in a set area of the local hub 200 and the number of people in a proximity area outside the set area.

본 발명의 또 다른 실시 예에서는 상기 시스템 서버(100)에서는 설정 구역 및 상기 설정 구역 외 근접 구역에 감지된 인원수를 감지하고, 감지된 인원수가 적정 인원을 초과한 것으로 판단되면, 로컬 허브(200)에 연결된 스마트 오브제의 오디오를 통하여 인원의 분산을 요구하는 안내 멘트나 이펙트를 출력하도록 프로그램될 수 있다.In another embodiment of the present invention, the system server 100 detects the number of people detected in the set area and the proximity area outside the set area, and when it is determined that the detected number of people exceeds the appropriate number, the local hub 200 It can be programmed to output an announcement or effect requesting the dispersion of personnel through the audio of the smart object connected to .

다시 도 2로 돌아가서, 인체 감지 단계(530단계)에서 설정 구역 내에 인체 감지신호가 감지될 때까지는 도 4a와 같이 이펙트 출력 단계(520단계)가 지속적으로 수행된다.Returning to FIG. 2 again, the effect output step (step 520) is continuously performed as shown in FIG. 4A until the human body detection signal is detected within the set area in the human body detection step (step 530).

도 4b는 로컬 허브(200)의 설정 구역 외에서 사용자가 접근할 때를 설명하기 위한 도면이다.FIG. 4B is a diagram for explaining when a user approaches from outside the set area of the local hub 200. Referring to FIG.

도 4b와 같이 로컬 허브(200)의 설정 구역 외에서 사용자가 접근할 때는 시스템 서버(100)는 이펙트 동작 출력 단계(520단계)가 지속적으로 수행되도록 제어할 수 있다.As shown in FIG. 4B , when a user accesses from outside the set area of the local hub 200 , the system server 100 can control the effect operation output step (step 520 ) to be continuously performed.

또는, 시스템 서버(100)는 인체 감지 단계(530단계)에서 로컬 허브(200)로부터 설정 구역과 일정 거리 떨어진 근접 구역에서 인체 감지신호를 최초로 감지하였을 경우에, 사용자가 가까이 접근 중일 때로 판단하여 동작 상태를 점점 크게 또는 작아지게 하거나, 소리 음향의 변화를 주거나, 빛의 연출 변화를 주는 등의 이펙트의 동작 연출 변경을 통하여 사용자의 접근을 알리는 연출을 포함하는 제어작동을 수행하도록 할 수 있다.Alternatively, when the system server 100 detects a human body detection signal for the first time in a proximity area that is a certain distance away from the set area from the local hub 200 in the human body detection step (step 530), it determines that the user is approaching and operates. It is possible to perform a control operation including directing to notify the user of approach by changing the operation directing of an effect, such as gradually increasing or decreasing the state, changing sound and sound, or changing light directing.

다시 도 2를 참조하면, 시스템 서버(100)는 인체 감지 단계(530단계)에서 설정 구역 내에 인체 감지신호가 감지되었을 경우, 상기 이펙트 출력을 중지하고 대기 모드를 수행하는 단계(540 단계)가 수행된다.Referring back to FIG. 2, the system server 100 stops the effect output and performs a standby mode (step 540) when a human body detection signal is detected within the set area in the human body detection step (step 530). do.

상기 540단계에서, 인체 감지신호가 감지되지 않을 경우에는 사용자가 설정 구역을 벗어난 것으로 판단을 하고 다시 이펙트 출력 단계(520 단계)로 이어진다.In step 540, when the human body detection signal is not sensed, it is determined that the user is out of the set area, and the effect output step (step 520) is continued.

도 4c는 상기 540단계에서 사람이 로컬 허브(200)의 설정 구역 내에서 감지된 경우를 설명하기 위한 도면이다.FIG. 4C is a diagram for explaining a case where a person is detected within a set area of the local hub 200 in step 540. Referring to FIG.

본 발명의 일 실시 예에 따르면, 시스템 서버(100)는 540단계에서 로컬 허브(200)로부터 설정 구역 내에 인체 감지신호를 입력받은 경우, 로컬 허브(200)에 연결된 스마트 오브제의 동작 연출을 멈추도록 제어신호를 로컬 허브(200)를 통하여 스마트 오브제에 전송한다. 그리고 사용자가 다시 설정 구역 밖으로 나간 것을 감지한 경우(감지 신호값이 설정된 값보다 낮아진 경우를 포함하여 판단됨)에는 상기 스마트 오브제가 동작 연출 작동을 다시 진행하도록 제어신호를 전송하여 사용자가 스마트 오브제의 이펙트 동작 연출을 관람할 수 있도록 제어한다. According to an embodiment of the present invention, when the system server 100 receives a human body detection signal within the setting area from the local hub 200 in step 540, the system server 100 stops directing the motion of the smart object connected to the local hub 200. The control signal is transmitted to the smart object through the local hub 200. And when it detects that the user has gone out of the set area again (determined including the case where the value of the detection signal is lower than the set value), the smart object transmits a control signal to proceed with the motion directing operation again so that the user can move the smart object Controls so that you can observe the production of effect motions.

이 경우, 사용자는 설정 구역 안과 밖을 오가며 스마트 오브제의 인터렉션 관람이 가능하도록 제어할 수 있다.In this case, the user can control the interactive viewing of the smart object while going inside and outside the set area.

본 발명의 일 실시 예에서는 한 명의 사용자라도 범위 안에서 감지되면 스마트 오브제의 동작 연출이 중단되도록 프로그램될 수 있다. 이후, 어느 하나의 사용자라도 스마트 렌즈, QR코드 또는 모바일 디바이스(50)를 통해 시스템 서버(100)에 접속이 되어 스마트 오브제의 동작 연출에 대한 요구를 언어(음성) 또는 문자(텍스트)에 의해 입력하면, 시스템 서버(100)의 제어신호에 의해 스마트 오브제 간의 인터렉션 동작 연출이 지속될 수 있다.In an embodiment of the present invention, if even one user is detected within the range, the smart object may be programmed to stop directing the motion. After that, any one user is connected to the system server 100 through the smart lens, QR code, or mobile device 50 and inputs a request for motion production of the smart object by language (voice) or text (text). In this case, the production of an interaction operation between smart objects can be continued by the control signal of the system server 100 .

다시 도 2를 참조하면, 상기 540단계 이후에 상기 대기 모드에서 사용자가 모바일 디바이스(50)를 이용하여 스마트 오브제에 의한 스마트 렌즈, QR코드를 통해 시스템 서버(100)에 접속하는 단계(552 단계)가 수행된다.Referring back to FIG. 2, after step 540, in the standby mode, the user uses the mobile device 50 to connect to the system server 100 through a smart lens using a smart object and a QR code (step 552). is performed

또한, 상기 552단계는 각 스마트 오브제 별로 다수의 사용자가 접속하는 것을 더 포함한다.In addition, step 552 further includes access by a plurality of users for each smart object.

또한, 본 발명의 다른 실시 예에서는 상기 552단계에서 상기 시스템 서버(100)에 사용자가 모바일 디바이스(50)를 통해 연결되었음을 알리는 이펙트가 상기 스마트 오브제에 표현되는 과정을 더 포함할 수 있다.Further, in another embodiment of the present invention, a process of displaying an effect indicating that the user is connected to the system server 100 through the mobile device 50 in step 552 may be further included in the smart object.

도 4d는 사용자가 로컬 허브(200)의 설정 구역 내에서 모바일 디바이스(50)를 이용하여 스마트 렌즈, QR코드를 통해 시스템 서버(100)에 접속하는 것을 설명하기 위한 도면이다. 4D is a diagram for explaining how a user connects to the system server 100 through a smart lens and a QR code using a mobile device 50 within a setting area of the local hub 200.

본 발명의 일 실시 예에서는 사용자가 모바일 디바이스(50)를 이용한 스마트 오브제의 촬영으로 스마트 렌즈, QR코드 등을 통해 시스템 서버(100)에 접속하는 552단계를 수행함으로써, 본 발명의 일 실시 예에 따른 설치 예술품을 이용한 AI 어시스턴트 시스템으로부터 정보요구 수신 요청단계(561단계)를 요구하여 어시스턴트 서비스를 제공받거나(Conversation Process), 스마트 오브제의 이펙트 동작 연출(Entertaining Process)을 제어하는 이펙트 제어요구를 요구하는 단계(571단계)가 수행될 수 있다.In one embodiment of the present invention, by performing step 552 of connecting to the system server 100 through a smart lens, a QR code, etc. by a user taking a picture of a smart object using a mobile device 50, Receive an information request from an AI assistant system using installation art according to the following request step (step 561) to receive assistant service (Conversation Process), or request an effect control request to control the effect operation production (Entertaining Process) of a smart object. Step 571 may be performed.

도 4e는 사용자가 로컬 허브(200)의 설정 구역 내에서 모바일 디바이스(50)로 시스템 서버(100)에 접속하여 AI 어시스턴트 서비스를 제공받으면서 스마트 오브제에 사용자와 시스템 서버(100)가 연결되었다는 이펙트가 출력되는 과정을 설명하기 위한 도면이다.4E shows an effect that the user and the system server 100 are connected to the smart object while receiving the AI assistant service by accessing the system server 100 with the mobile device 50 within the setting area of the local hub 200. It is a diagram for explaining the output process.

본 발명의 일 실시 예에 따른 설치 예술품을 이용한 AI 어시스턴트 시스템으로부터 제공받는 AI 어시스턴트 서비스는 로컬 허브(200)가 위치한 공간 혹은 스마트 오브제에 대한 정보 및 상황 정보를 제공받거나, 스마트 오브제의 이펙트 동작 연출을 변경하여 제어하거나, 대화로 다른 필요한 정보를 주고받을 수 있는 것을 포함한다.The AI assistant service provided by the AI assistant system using the art installation according to an embodiment of the present invention receives information and situation information about the space where the local hub 200 is located or smart objects, or directs the effect operation of smart objects. It includes things that can be changed and controlled or exchanged with other necessary information through dialogue.

예를 들면, 사용자는 모바일 디바이스(50)에서 AI 어시스턴트와 대화 형태의 정보를 주고받으며, 스마트 오브제의 이펙트 동작 연출 프로세스를 확인하거나, 스마트 오브제의 이펙트 동작 연출을 일시적으로 변경하여 연출하도록 제어할 수 있다. 이 경우 시스템 서버(100)는 상기 사용자에 의해 변경된 스마트 오브제의 이펙트 동작 연출 프로세스에 대한 피드백 및 학습을 통해 상기 변경된 이펙트 동작 연출 프로세스를 고정 동작 연출 시나리오에 포함할지를 판단하고 이에 대한 저장 여부를 제어할 수 있다.For example, the user can exchange information in the form of a conversation with the AI assistant on the mobile device 50, check the process of directing the effect motion of the smart object, or temporarily change the directing of the effect motion of the smart object. there is. In this case, the system server 100 determines whether to include the changed effect motion directing process in a fixed motion directing scenario through feedback and learning on the effect motion directing process of the smart object changed by the user, and controls whether or not to save it. can

도 2를 참조하면, 상기 시스템 서버(100)는 상기 561단계에서 정보 요구(Conversation Process) 요청을 받으면, 시스템 서버(100)에 포함된 AI 어시스턴트는 요청된 정보를 제공하는 정보 제공단계(562 단계)를 수행한다.Referring to FIG. 2, when the system server 100 receives the information request (Conversation Process) request in step 561, the AI assistant included in the system server 100 provides the requested information (step 562). ) is performed.

또한, 본 발명의 일 실시 예에 따른 시스템 서버(100)의 AI 어시스턴트는 사용자가 모바일 디바이스(50)를 통해 접속되어 연결된 상태에서, 입력된 사용자의 음성 언어, 텍스트 언어 및 뇌파 정보를 분석하여 가장 적합하게 상황에 매칭되는 응답을 출력할 수 있다. 또한, AI 어시스턴트는 입력된 사용자의 언어를 분석하여 키워드를 추출하고, 키워드에 매칭되는 동작 연출 이펙트가 있는 경우에는 키워드에 부여된 다양한 이펙트 중에 랜덤으로 혹은 가장 높은 빈도로 매칭되는 하나의 이펙트를 선택하여 동작 연출을 수행하는 과정을 더 포함할 수 있다.In addition, the AI assistant of the system server 100 according to an embodiment of the present invention analyzes the input user's voice language, text language, and brain wave information in a state in which the user is connected and connected through the mobile device 50, It is possible to output a response appropriately matching the situation. In addition, the AI assistant extracts keywords by analyzing the input user's language, and if there is an effect for directing motion that matches the keyword, it selects one effect that matches with the highest frequency or randomly among various effects given to the keyword. A process of performing motion directing may be further included.

예를 들어, 사용자가 “심심한데 주변에 재미있는 시설을 알려줘!”라는 말을 텍스트로 입력하거나 음성이나 뇌파를 이용하여 물어보는 경우, 시스템 서버(100)에 포함된 AI 어시스턴트가 텍스트나 음성 혹은 뇌파 내용을 분석하여 사용자의 질문에 적합한 정보를 텍스트, 이미지, 링크 혹은 보이스 외의 형식으로 제공하는 제어작동을 수행할 수 있다. 또한, 사용자 언어 키워드를 분석하여 '심심', '시설'과 같은 언어 키워드에 매칭되는 동작 연출 이펙트를 해당 스마트 오브제가 연출하도록 제어신호를 출력할 수 있다.For example, when a user inputs the words "I'm bored, tell me about interesting facilities around me!" as text or asks a question using voice or brain waves, the AI assistant included in the system server 100 sends the text, voice, or brain wave contents. It is possible to perform a control operation to provide information suitable for a user's question in a form other than text, image, link, or voice by analyzing the In addition, by analyzing the user's language keywords, a control signal may be output so that the corresponding smart object produces motion directing effects matching language keywords such as 'simsim' and 'facility'.

또한, 시스템 서버(100)는 사용자의 언어를 분석한 후 매칭이 되는 응답 내용이 없는 경우, 사용자의 대화에 매칭이 되는 응답 내용을 사용자의 별도 입력에 의해 AI 어시스턴트를 학습시킬 수 있다. In addition, if there is no matching response content after analyzing the user's language, the system server 100 may learn the AI assistant with response content matching the user's conversation through a separate input from the user.

또한, 사용자는 특정 언어 키워드에 대한 이펙트 동작 연출을 새롭게 커스터마이징하여 AI 어시스턴트를 학습시키는 과정을 더 포함할 수 있다. In addition, the user may further include a process of learning the AI assistant by newly customizing the production of an effect operation for a specific language keyword.

또한, 시스템 서버(100)는 주기적으로 누적된 입력 데이터를 분석하여 부적절한 내용(욕설, 정치적 발언, 음란한 대화)은 삭제를 하도록 제어된다. 또한, 시스템 서버(100)는 누적된 입력 데이터 및 스마트 오브제의 동작 연출 이펙트 매칭 작동을 분석하여 분류하거나, 사용자 언어 키워드에 대해 커스터마이징 동작 연출 효과를 분석하고, 유사값으로 패턴화하여 언어 키워드에 대한 스마트 오브제 이펙트를 매칭시키고 분류된 매칭 데이터를 축적하여 저장한다.In addition, the system server 100 is controlled to periodically analyze the accumulated input data and delete inappropriate contents (swear words, political remarks, obscene conversations). In addition, the system server 100 analyzes and classifies the accumulated input data and the motion directing effect matching operation of the smart object, or analyzes the customizing motion directing effect for the user language keyword, patterns it with a similar value, and Match smart object effects and accumulate and store classified matching data.

또한, 상기 시스템 서버(100)는 상기 571단계에서 사용자에 의해 스마트 오브제의 동작 연출(Entertaining Process)을 제어하는 이펙트 제어 요구 요청(커스터마이징 요청)을 받으면, 시스템 서버(100)에 포함된 AI 어시스턴트는 앞서 설명한 요청된 요구에 맞춰 이펙트를 제어하는 이펙트 출력 단계(572)가 수행된다.In addition, when the system server 100 receives a request for effect control (customizing request) for controlling the Entertaining Process of the smart object from the user in step 571, the AI assistant included in the system server 100 An effect output step 572 is performed to control the effect according to the requested request described above.

본 발명의 일 실시 예에 따르면, 로컬 허브(200)의 설정 구역 내에 다수의 사용자가 있는 경우, 모바일 디바이스(50)를 통해 시스템 서버(100)에 먼저 접속된 순으로 스마트 오브제의 이펙트 동작 연출 제어권한(커스터마이징 권한)이 부여된다. 이때, 시스템 서버(100)에 연결된 사용자 순으로 스마트 오브제의 고유식별번호를 통해 스마트 오브제와 이를 개별적으로 제어할 수 있는 사용자를 매칭하여 서비스를 제공할 수 있다. 또한, 사용자와 매칭이 되지 않은 스마트 오브제가 있을 경우는 다음 제어권한을 가진 사용자에게 해당 스마트 오브제에 대한 이펙트 동작 연출 제어권한이 주어지도록 프로그램될 수 있다.According to an embodiment of the present invention, when there are a plurality of users in the setting area of the local hub 200, the right to control the directing of the effect operation of the smart object in the order of first access to the system server 100 through the mobile device 50 Han (customizing authority) is granted. At this time, the service can be provided by matching the smart object with the user who can individually control it through the unique identification number of the smart object in the order of users connected to the system server 100 . In addition, if there is a smart object that does not match the user, the program can be programmed so that the user having the next control right is given the right to control the production of an effect operation for the corresponding smart object.

또한, 스마트 오브제의 개수보다 많은 사용자가 시스템 서버(100)에 접속을 한 경우라도, 스마트 오브제의 동작 연출 제어 과정(Entertaining Process)을 제외하고, AI 어시스턴트를 통해 정보를 제공 받거나 대화 서비스(Conversation Process)를 제공받을 수 있다. In addition, even when more users than the number of smart objects access the system server 100, information is provided through the AI assistant or conversation service (Conversation Process), except for the Entertaining Process of the smart object. ) can be provided.

이후, 스마트 오브제의 이펙트 동작 연출 제어(Entertaining Process)권한을 부여받지 못한 사용자가 스마트 오브제의 이펙트 동작 연출 제어에 대해 요청하는 경우, 시스템 서버(100)는 요청된 스마트 오브제의 선 사용자의 커스터마이징이 완료될 때까지 대기한 후, 선 사용자의 동작 연출 제어 수행이 완료된 이후에 동작 연출 제어권한이 제공되도록 제어작동을 수행한다. Subsequently, when a user who has not been granted the right to control the entering process of the smart object makes a request for controlling the directing of the effect motion of the smart object, the system server 100 completes the customization of the requested smart object by the previous user. After waiting until it is completed, the control operation is performed so that the motion directing control authority is provided after the previous user's motion directing control is completed.

이후, 상기 이펙트 동작 연출 제어권한을 제공받은 사용자는 선 사용자의 스마트 오브제의 이펙트 동작 연출 제어 방법과 동일 또는 다른 이펙트 동작 연출 제어 방법에 대한 요청을 상기 시스템 서버(100)에 전송하여, 원하는 이펙트 동작 연출을 제공받을 수 있다. 또한, 대기 중인 사용자는 시스템 서버(100)에 접속된 상태에서 타인이 특정 언어 키워드에 이펙트를 동작 연출 제어하는 과정을 실시간으로 공유받아 선 사용자와 함께 스마트 오브제의 동작 연출을 관람할 수 있다. 여기서 공유받는 정보에는 타인의 대화 내용 자체는 공유되지 않고 키워드와 키워드 이펙트의 동작 연출 커스터마이징 방식이 공유되도록 제어된다. Thereafter, the user who has been provided with the right to control the directing of the effect motion transmits to the system server 100 a request for an effect motion directing control method that is identical to or different from the directing and controlling method of the effect motion of the smart object of the previous user, to the desired effect motion. Directing can be provided. In addition, while connected to the system server 100, the waiting user can share in real time the process of directing and controlling the effect of a specific language keyword by another person, and watch the motion presentation of the smart object together with the previous user. Here, the shared information is controlled so that the contents of conversations of others are not shared, but the method of customizing the operation of keywords and keyword effects is shared.

상기 언어 키워드의 이펙트 동작 연출을 커스터마이징 하는 과정은 상기 스마트 오브제를 제어하는 키워드 및 키워드의 이펙트 동작 연출을 새롭게 설정하거나, 기존 동작 연출 방법을 수정하는 방법이 포함될 수 있다.The process of customizing the directing of the effect motion of the language keyword may include a method of newly setting the keyword controlling the smart object and the directing of the effect motion of the keyword, or modifying an existing motion directing method.

본 발명의 일 실시 예에 따르면, AI 어시스턴트를 통해 대화 서비스(Conversation Process)를 제공하는 경우, AI 어시스턴트는 사용자가 작성한 텍스트, 음성, 뇌파 정보 중 어느 하나 이상의 입력 정보를 분석하여 키워드를 도출한 후, 이전 사용자가 커스터마이징한 언어 키워드에 매칭되는 이펙트가 시스템 서버(100)에 존재하지 않는 경우는 시스템 서버(100)에 저장된 기본 이펙트 동작 연출 프로세스가 해당 스마트 오브제에 반영되어 작동되도록 제어작동을 수행할 수 있다. According to an embodiment of the present invention, when providing a conversation service (Conversation Process) through an AI assistant, the AI assistant analyzes any one or more input information of text, voice, and brain wave information written by a user to derive a keyword, , If an effect matching the language keyword customized by the previous user does not exist in the system server 100, a control operation can be performed so that the basic effect operation directing process stored in the system server 100 is reflected in the corresponding smart object and operated. can

이때 설정된 기본 이펙트는 시스템 서버(100)의 데이터베이스에 저장된 이펙트 중에 하나가 랜덤으로 선택되어 출력될 수 있다.At this time, as the set basic effect, one of the effects stored in the database of the system server 100 may be randomly selected and output.

또한, 사용자가 커스터마이징한 키워드 이펙트가 있는 경우 시스템 서버(100)에 저장된 이펙트 동작 연출 방법 중 하나가 다수의 스마트 오브제에 커스터마이징 된 방식대로 동작 연출 되도록 제어작동을 수행한다.In addition, when there is a user-customized keyword effect, one of the effect operation directing methods stored in the system server 100 performs a control operation so that a plurality of smart objects are directed in a customized manner.

본 발명의 일 실시 예에 따르면, 사용자가 모바일 디바이스(50)로 시스템 서버(100)에 접속하여, 하나의 스마트 오브제에 단일한 언어 키워드의 이펙트를 동작 연출한 경우에, 시스템 서버(100)는 추후 스마트 오브제에 연결된 사용자가 한 명일 경우, 다수의 스마트 오브제에 상기 단일한 키워드를 커스터마이징한 동작 연출 이펙트가 각 스마트 오브제에 동일하게 발현되도록 제어작동을 수행한다. According to an embodiment of the present invention, when a user accesses the system server 100 with a mobile device 50 and directs an effect of a single language keyword to one smart object, the system server 100 later When there is only one user connected to the smart object, a control operation is performed so that the motion directing effect customized for the single keyword is equally expressed in each smart object.

예를 들면, 사용자가 '사랑'이라는 키워드에 대한 스마트 오브제 이펙트를 커스터마이징 하는 경우, 사용자 1명이 여러 대의 스마트 오브제를 사용하여 '사랑'이라는 키워드를 표현할 수도 있지만, 어느 하나의 스마트 오브제만 사용하여 해당 언어 키워드를 표현하는 경우도 있다. 이 경우, 사용자는 모바일 디바이스(50) 상에서 스마트 오브제에 부여된 고유식별번호로 커스터마이징할 스마트 오브제를 선택한 후, 시스템 서버(100)에서 사용자에 의해 수정이 가능한 이펙트 동작 연출 제어 리스트를 검색하여 하나의 스마트 오브제에서 이펙트의 동작 연출 방법을 변경하도록 하는 프로그램에 의해 제어작동이 수행될 수 있다.For example, when a user customizes a smart object effect for the keyword 'love', a user can use multiple smart objects to express the keyword 'love', but only one smart object In some cases, language keywords are expressed. In this case, the user selects a smart object to be customized with a unique identification number assigned to the smart object on the mobile device 50, and then creates an effect operation that can be modified by the user in the system server 100. A control operation may be performed by a program that searches a control list and changes a method of directing an effect operation in one smart object.

또는 하나의 스마트 오브제에서는 소리/빛 이펙트를 제어하고 다른 스마트 오브제에서는 모션/빛 이펙트를 제어하며, 또 다른 스마트 오브제는 소리 이펙트만 사용하여 단일한 언어 키워드에 대한 이펙트의 동작 연출 제어 작동이 수행될 수 있다.Alternatively, one smart object controls the sound/light effect, another smart object controls the motion/light effect, and another smart object uses only the sound effect to control the motion direction of the effect for a single language keyword. can

또 다른 실시 예에서는 차후 다른 사용자가 시스템 서버(100)의 AI 어시스턴트와 연결되어 대화를 할 때, 시스템 서버(100)는 사용자와 연결된 스마트 오브제가 하나인 경우는, 언어 키워드 이펙트의 동작 연출 방법이 하나의 스마트 오브제에 커스터마이징된 이펙트 위주로 이펙트가 동작 연출되며, 사용자와 연결된 오브제가 다수인 경우는 '사랑'이라는 키워드를 다수의 스마트 오브제로 커스터마이징한 이펙트 위주로 출력되도록 제어작동을 수행할 수 있다.In another embodiment, when another user is connected to the AI assistant of the system server 100 and has a conversation, and the system server 100 has one smart object connected to the user, a method for directing the motion of the language keyword effect Effects are directed based on customized effects for one smart object, and when there are multiple objects connected to the user, control operations can be performed so that the keyword 'love' is output based on customized effects with multiple smart objects.

본 발명의 일 실시 예에 따르면, 사용자는 모바일 디바이스(50)로 시스템 서버(100)에 접속하여 사용자는 시스템 서버(100)에 포함된 AI 어시스턴트와 단순한 대화를 나누거나, 혹은 정보를 제공받거나(Conversation Process) 혹은 설치된 스마트 오브제(설치예술품)에 언어 키워드의 이펙트를 커스터마이징(Entertaining Process) 하면서 스마트 오브제와의 교감 작동을 수행할 수 있다.According to one embodiment of the present invention, the user accesses the system server 100 with the mobile device 50 and the user has a simple conversation with the AI assistant included in the system server 100, or receives information ( Conversation Process) or while customizing the effect of language keywords on installed smart objects (installation art) (Entertaining Process), it is possible to perform sympathetic operation with smart objects.

본 발명의 일 실시 예에 따른 설치 예술품을 이용한 AI 어시스턴트 시스템 및 이를 이용한 방법은 인터렉션 아트를 통해 사람들에게 재미와 활기를 더해주는 분위기를 제공할 수 있다.An AI assistant system using installation art and a method using the same according to an embodiment of the present invention can provide people with an atmosphere that adds fun and vitality through interaction art.

또한, 본 발명의 일 실시 예에 따른 설치 예술품을 이용한 AI 어시스턴트 시스템 및 이를 이용한 방법은 빛/모션/소리 외의 다양한 이펙트 동작 연출로 공간과 정서의 여백을 효과적으로 채워줄 수 있다.In addition, the AI assistant system using installation art and a method using the same according to an embodiment of the present invention can effectively fill the blanks of space and emotion by producing various effects other than light/motion/sound.

또한, 본 발명의 일 실시 예에 따른 설치 예술품을 이용한 AI 어시스턴트 시스템 및 이를 이용한 방법은 사물과 사물 더 나아가 사물과 사람이 교감을 하며 혼자 사는 사람이 지닌 마음의 공간을 채워주며, 정보를 제공하는 아트와 테크가 결합된 가구, 예술품으로 적용될 수 있다.In addition, an AI assistant system using installation art and a method using the same according to an embodiment of the present invention fills the space of the mind of a person living alone by interacting with objects and objects and furthermore, objects and people, and provides information It can be applied to furniture and artworks that combine art and tech.

50: 모바일
100: 시스템 서버
200: 로컬 허브
J1, J2, J3: 스마트오브제
50: Mobile
100: system server
200: local hub
J1, J2, J3: Smart Object

Claims (12)

설치 예술품을 이용한 AI 어시스턴트 시스템에 있어서,
각 스마트 오브제의 동작 연출에 대한 제어신호를 출력하는 스마트 오브제 작동용 프로세서와 사용자에게 어시스턴트 서비스를 제공하는 AI 어시스턴트를 포함하는 시스템 서버;
로컬 구역에 설치되며, 상기 시스템 서버와 네트워크로 연결되어 상기 시스템 서버의 제어신호에 따라 해당 스마트 오브제에 동작 명령을 전송하는 로컬 허브; 및 상기 로컬 허브로부터 전송되는 제어신호에 따라 작동하는 동작 연출 모듈 및 상기 동작 연출 모듈을 제어하는 제어기가 내장되며, 상기 로컬 허브에서 전송받은 동작 명령에 따라 동작 연출을 수행하는 적어도 하나 이상의 스마트 오브제; 를 포함하는 것을 특징으로 하는 시스템.
In the AI assistant system using installation art,
A system server including a processor for operating a smart object that outputs a control signal for directing the motion of each smart object and an AI assistant that provides an assistant service to a user;
a local hub installed in a local area, connected to the system server through a network, and transmitting an operation command to a corresponding smart object according to a control signal of the system server; and at least one smart object having a built-in motion directing module operating according to a control signal transmitted from the local hub and a controller controlling the motion directing module, and performing motion directing according to an motion command transmitted from the local hub; A system comprising a.
청구항 1항에 있어서,
상기 시스템 서버는 사용자가 모바일 디바이스를 통해 연결이 되면, 상기 스마트 오브제 또는 AI 어시스턴트와 대화를 하거나 정보를 제공받는 수단 또는 상기 스마트 오브제의 작동을 제어하는 수단을 더 포함하는 것을 특징으로 하는 시스템.
The method of claim 1,
The system server further comprises means for communicating with or receiving information from the smart object or AI assistant or means for controlling the operation of the smart object when a user is connected through a mobile device.
청구항 1항에 있어서,
상기 AI 어시스턴트는,
사용자의 음성 및 텍스트, 뇌파에 대한 음성 해석 정보, 텍스트 해석 정보 및 뇌파 해석 정보 중 어느 하나 이상을 획득하는 획득수단;
상기 획득과정을 통해 획득된 정보에 기초하여 상기 사용자와 대화를 수행하는 수단; 및
상기 수행과정을 통해 얻은 정보를 분류하여 저장한 후 상황에 따른 대응 방법을 학습하는 수단; 을 포함하는 것을 특징으로 하는 시스템.
The method of claim 1,
The AI assistant,
Acquisition means for obtaining any one or more of the user's voice and text, voice interpretation information for brain waves, text interpretation information, and brain wave interpretation information;
means for conducting a conversation with the user based on the information obtained through the acquiring process; and
means for classifying and storing the information obtained through the execution process and then learning a response method according to the situation; A system comprising a.
청구항 1항에 있어서,
상기 스마트 오브제는 개별적으로 동작 연출하는 단독 연출방식, 학습된 상황에 따라 순차적으로 동작 연출하는 순차 연출방식, 대화 형식으로 동작 연출하는 대화 연출방식 중 어느 하나의 방식으로 연출되는 것을 특징으로 하는 시스템.
The method of claim 1,
The system, characterized in that the smart object is directed by any one of a single directing method of individually directing motions, a sequential directing method of sequentially directing motions according to learned situations, and a dialog directing method of directing motions in a dialogue format. System.
청구항 1항에 있어서,
상기 로컬 허브는 상기 스마트 오브제의 설정 공간을 설정하고, 일 측에는 상기 설정 공간에 위치하는 신체를 감지할 수 있도록 감지센서가 장착되며,
상기 시스템 서버는 상기 감지센서로부터 전달되는 감지신호 값에 따라 상기 설정 공간 내에 위치한 스마트 오브제의 동작 연출을 중지하거나 또는 대기모드로 제어하는 것을 특징으로 하는 시스템.
The method of claim 1,
The local hub sets a setting space for the smart object, and a detection sensor is mounted on one side to detect a body located in the setting space,
The system server is characterized in that the system server stops the production of the operation of the smart object located in the setting space or controls the standby mode according to the value of the detection signal transmitted from the detection sensor.
청구항 1항에 있어서,
상기 AI 어시스턴트는,
상기 스마트 오브제 간의 동작 연출을 실시간으로 모니터링하는 모니터링수단, 사용자의 반응을 피드백하는 피드백수단, 또는 상기 피드백수단에 대해 학습하는 학습수단을 통해 설정상태를 유지하거나, 상기 스마트 오브제 간의 동작 연출을 변경하는 것 중 어느 하나 이상을 포함하여 제어하는 것을 특징으로 하는 시스템.
The method of claim 1,
The AI assistant,
Maintaining a set state or changing the motion direction between the smart objects through a monitoring means for monitoring the motion direction between the smart objects in real time, a feedback means for feeding back the user's reaction, or a learning means for learning about the feedback means A system characterized in that for control including any one or more of them.
청구항 1항 내지 6항 중 어느 한 항의 설치 예술품을 이용한 AI 어시스턴트 시스템이 제어동작을 수행하는 방법에 있어서,
a) 상기 AI 어시스턴트 시스템의 준비단계;
b) 상기 시스템 서버가 상기 각 스마트 오브제의 동작 연출 시나리오에 대한 출력 프로세싱을 설정하는 단계;
c) 상기 시스템 서버가 상기 로컬 허브를 통해 감지신호를 입력받고, 감지신호 값을 판단하는 단계; 및
d) 상기 시스템 서버가 상기 감지 신호 값에 따라 상기 스마트 오브제의 이펙트를 동작 연출하는 이펙트 출력 과정 또는 상기 스마트 오브제의 이펙트 동작 연출을 멈추고 대기하는 대기 모드를 수행하는 단계; 를 포함하는 방법.
In the method in which the AI assistant system using the installation art of any one of claims 1 to 6 performs a control operation,
a) preparing the AI assistant system;
b) setting, by the system server, output processing for motion presentation scenarios of each smart object;
c) receiving, by the system server, a detection signal through the local hub, and determining a value of the detection signal; and
d) performing, by the system server, an effect output process of directing an effect of the smart object according to the value of the detection signal or a standby mode in which the directing of an effect operation of the smart object is stopped and standby; How to include.
청구항 7항에 있어서,
상기 c) 단계에서,
상기 로컬 허브의 감지센서는 상기 스마트 오브제의 설정 구역 및 상기 설정 구역을 기준으로 근접 구역과 외부 구역으로 분리하여 감지하는 것을 특징으로 방법.
The method of claim 7,
In step c),
The method of claim 1 , wherein the detection sensor of the local hub separates and detects a proximity area and an external area based on the setting area and the setting area of the smart object.
청구항 7항에 있어서,
상기 d) 단계에서 상기 시스템 서버는 상기 감지 신호 값이 설정 값보다 낮은 경우에는 상기 스마트 오브제에 동작 연출 신호를 전송하는 것을 특징으로 하는 방법.
The method of claim 7,
In the step d), the system server transmits a motion directing signal to the smart object when the value of the detection signal is lower than the set value.
청구항 7항에 있어서,
사용자가 모바일 디바이스를 이용하여 상기 시스템 서버와 접속하는 단계;
상기 시스템 서버는 상기 모바일 디바이스를 통해 사용자의 정보 요청을 수신, 사용자의 대화 요청을 수신, 상기 스마트 오브제의 이펙트 제어 요청을 수신하는 것 중 어느 하나 이상을 수신하는 단계; 및
상기 시스템 서버는 상기 수신하는 단계에 맞춰 상기 사용자의 정보 요청에 대한 응답 또는 상기 사용자의 대화 요청에 대한 응답 또는 상기 스마트 오브제의 이펙트 제어에 대한 출력을 하는 단계; 를 더 포함하는 것을 특징으로 하는 방법.
The method of claim 7,
Accessing the system server by a user using a mobile device;
receiving, by the system server, at least one of a user's information request, a user's conversation request, and a request for effect control of the smart object through the mobile device; and
outputting a response to the user's information request, a response to the user's conversation request, or an output for effect control of the smart object according to the receiving step; A method characterized in that it further comprises.
청구항 10항에 있어서,
상기 시스템 서버는 상기 모바일 디바이스를 통해 접속한 사용자 순으로 사용자가 선택한 스마트 오브제를 매칭하여 이펙트 동작 연출 제어권한을 제공하고, 사용자와 매칭되지 않은 스마트 오브제에 대해서는 매칭되지 않음을 상기 모바일 디바이스를 통하여 안내하며, 사용자가 매칭되지 않은 스마트 오브제를 선택한 것이 감지되면, 상기 스마트 오브제의 동작 연출 제어권한을 선택한 사용자에게 제공하고, 사용자와 매칭되지 않은 스마트 오브제는 대기모드 상태를 유지하도록 제어하는 것을 더 포함하는 방법.
The method of claim 10,
The system server matches the smart objects selected by the user in the order of users accessed through the mobile device, provides authority to control the production of effect motions, and informs the smart objects that do not match with the user that they are not matched through the mobile device. and, if it is detected that the user has selected a smart object that does not match, providing the selected user with the right to control the operation of the smart object, and controlling the smart object that does not match with the user to maintain a standby mode state. Way.
청구항 11항에 있어서
상기 시스템 서버는 상기 대기 사용자의 모바일 디바이스로 선 사용자의 스마트 오브제의 이펙트 동작 연출 제어 방법에 대한 정보를 제공하고,
상기 시스템 서버는 상기 선 사용자가 상기 이펙트 동작 연출의 이용이 완료된 것으로 판단되면, 상기 대기 사용자의 모바일 디바이스로 스마트 오브제에 대한 접속 및 이펙트 동작 연출 제어권한을 제공하며,
상기 이펙트 동작 연출 제어권한을 제공받은 사용자는 상기 모바일 디바이스를 통하여 상기 선 사용자의 스마트 오브제의 이펙트 동작 연출 제어 방법과 동일 또는 다른 이펙트 동작 연출 제어 방법에 대한 요청을 상기 시스템 서버에 전송하는 것을 특징으로 하는 방법.
The method of claim 11
The system server provides information on a method for directing an effect operation of a smart object of a first user to the mobile device of the standby user,
When the system server determines that the first user has finished using the effect motion production, the system server provides access to the smart object and authority to control effect motion production to the mobile device of the standby user;
The user who has been provided with the effect motion directing control authority transmits a request for an effect motion directing control method identical to or different from the first user's effect motion directing control method of the smart object to the system server through the mobile device. How to.
KR1020210094049A 2021-07-19 2021-07-19 artificial intelligence assistant system and method using objet KR20230013379A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210094049A KR20230013379A (en) 2021-07-19 2021-07-19 artificial intelligence assistant system and method using objet
PCT/KR2022/009950 WO2023003239A1 (en) 2021-07-19 2022-07-08 Ai assistant system and method using installation artwork

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210094049A KR20230013379A (en) 2021-07-19 2021-07-19 artificial intelligence assistant system and method using objet

Publications (1)

Publication Number Publication Date
KR20230013379A true KR20230013379A (en) 2023-01-26

Family

ID=84980264

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210094049A KR20230013379A (en) 2021-07-19 2021-07-19 artificial intelligence assistant system and method using objet

Country Status (2)

Country Link
KR (1) KR20230013379A (en)
WO (1) WO2023003239A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180009219A (en) 2016-07-18 2018-01-26 주식회사 비투스 Emotional expression system using a brain wave and method for robot exhibition using thereof
KR101914604B1 (en) 2018-09-11 2018-11-02 (주)위즈네트 Control method and control system for iot device using cloud platform
KR20210006486A (en) 2018-08-13 2021-01-18 한국과학기술원 Method for Adaptive EEG signal processing using reinforcement learning and System Using the same
KR20210026962A (en) 2019-09-02 2021-03-10 삼성전자주식회사 Apparatus and method for providing voice assistant service

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130085309A (en) * 2012-01-19 2013-07-29 삼성전자주식회사 Management method of smart object using dereferenceable information, and server thereof
WO2013162104A1 (en) * 2012-04-26 2013-10-31 주식회사 플러 Integrated media framework for interactive display environment
US10168677B2 (en) * 2014-11-11 2019-01-01 Weebee Corporation Systems and methods for smart spaces
KR102053620B1 (en) * 2018-02-19 2019-12-09 국립부산과학관 System and method for managing exhibition hall
KR20200141602A (en) * 2019-06-11 2020-12-21 미스터마인드 주식회사 System for artificial intelligence piggy bank

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180009219A (en) 2016-07-18 2018-01-26 주식회사 비투스 Emotional expression system using a brain wave and method for robot exhibition using thereof
KR20210006486A (en) 2018-08-13 2021-01-18 한국과학기술원 Method for Adaptive EEG signal processing using reinforcement learning and System Using the same
KR101914604B1 (en) 2018-09-11 2018-11-02 (주)위즈네트 Control method and control system for iot device using cloud platform
KR20210026962A (en) 2019-09-02 2021-03-10 삼성전자주식회사 Apparatus and method for providing voice assistant service

Also Published As

Publication number Publication date
WO2023003239A1 (en) 2023-01-26

Similar Documents

Publication Publication Date Title
JP6984004B2 (en) Continuous selection of scenarios based on identification tags that describe the user's contextual environment for the user's artificial intelligence model to run through an autonomous personal companion.
US20190193273A1 (en) Robots for interactive comedy and companionship
US11504856B2 (en) System and method for selective animatronic peripheral response for human machine dialogue
US7008288B2 (en) Intelligent toy with internet connection capability
CN112074899A (en) System and method for intelligent initiation of human-computer dialog based on multimodal sensory input
CN111801730A (en) System and method for artificial intelligence driven automated companion
US11017551B2 (en) System and method for identifying a point of interest based on intersecting visual trajectories
US10967508B2 (en) System and method for dynamic robot configuration for enhanced digital experiences
US20220215678A1 (en) System and method for reconstructing unoccupied 3d space
US10994421B2 (en) System and method for dynamic robot profile configurations based on user interactions
US11315325B2 (en) Systems and methods for artificial intelligence-based virtual and augmented reality
US20190251350A1 (en) System and method for inferring scenes based on visual context-free grammar model
US10785489B2 (en) System and method for visual rendering based on sparse samples with predicted motion
US20190202061A1 (en) System and method for detecting physical proximity between devices
US20190251716A1 (en) System and method for visual scene construction based on user communication
WO2021003471A1 (en) System and method for adaptive dialogue management across real and augmented reality
US20220241977A1 (en) System and method for dynamic program configuration
KR20200117712A (en) Artificial intelligence smart speaker capable of sharing feeling and emotion between speaker and user
KR20230013379A (en) artificial intelligence assistant system and method using objet
WO2021030449A1 (en) System and method for adaptive dialogue via scene modeling using combinational neural networks
US20230330861A1 (en) Robot device and information processing device
KR20200117714A (en) Artificial intelligence smart speaker capable of expressing emotion
Achterberg Project: Symbiosis (the development of an interactive swarm installation for Lumus Instruments)
CN116704828A (en) Language and cognition assistance system and method
JP2023544649A (en) Virtual and physical social robots with humanoid features

Legal Events

Date Code Title Description
E902 Notification of reason for refusal