KR102612833B1 - Enterprise resource planning system based on artificial intelligence - Google Patents

Enterprise resource planning system based on artificial intelligence Download PDF

Info

Publication number
KR102612833B1
KR102612833B1 KR1020230059111A KR20230059111A KR102612833B1 KR 102612833 B1 KR102612833 B1 KR 102612833B1 KR 1020230059111 A KR1020230059111 A KR 1020230059111A KR 20230059111 A KR20230059111 A KR 20230059111A KR 102612833 B1 KR102612833 B1 KR 102612833B1
Authority
KR
South Korea
Prior art keywords
user
module
artificial intelligence
augmented reality
chatbot
Prior art date
Application number
KR1020230059111A
Other languages
Korean (ko)
Inventor
백운봉
Original Assignee
백운봉
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 백운봉 filed Critical 백운봉
Priority to KR1020230059111A priority Critical patent/KR102612833B1/en
Application granted granted Critical
Publication of KR102612833B1 publication Critical patent/KR102612833B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/02User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Human Resources & Organizations (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Operations Research (AREA)
  • Computational Linguistics (AREA)
  • Tourism & Hospitality (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Game Theory and Decision Science (AREA)
  • Educational Administration (AREA)
  • Development Economics (AREA)
  • Optics & Photonics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 인공 지능에 기반한 ERP 시스템에 관한 것으로, 증강 현실 안경은, 사용자의 음성, 위치, 및 시선을 감지한 데이터를 인공 지능 챗봇 모듈로 전송하도록 구성되고, 상기 인공 지능 챗봇 모듈은, 상기 ERP 시스템의 데이터베이스에 접속하여 상기 데이터에 기반하여 추정된 사용자의 의도들에 따라 분석 데이터들을 생성하고, 상기 생성된 분석 데이터들을 상기 증강 현실 안경으로 전송하고, 상기 증강 현실 안경은, 상기 인공 지능 챗봇 모듈로부터 전송된 분석 데이터들에 기반하여, 상기 대화형 응답 메시지를 음성 형태로 출력하고, 상기 대화형 응답 메시지가 출력되는 것에 동기하여 상기 화면 인터페이스를 렌즈의 적어도 일부분을 통해 표시하는 바, 사용자가 보다 몰입감 있고 직관적인 방식으로 시스템과 상호 작용할 수 있도록 하여 사용자 경험을 크게 향상시킬 수 있다.The present invention relates to an ERP system based on artificial intelligence. Augmented reality glasses are configured to transmit data that detects the user's voice, location, and gaze to an artificial intelligence chatbot module, and the artificial intelligence chatbot module is configured to transmit the ERP system to the artificial intelligence chatbot module. Accesses the database of the system to generate analysis data according to the user's intentions estimated based on the data, and transmits the generated analysis data to the augmented reality glasses, wherein the augmented reality glasses are equipped with the artificial intelligence chatbot module. Based on the analysis data transmitted from the screen, the interactive response message is output in voice form, and the screen interface is displayed through at least a portion of the lens in synchronization with the interactive response message being output, so that the user can see It can significantly improve the user experience by allowing users to interact with the system in an immersive and intuitive way.

Description

인공 지능에 기반한 ERP 시스템{ENTERPRISE RESOURCE PLANNING SYSTEM BASED ON ARTIFICIAL INTELLIGENCE}ERP system based on artificial intelligence {ENTERPRISE RESOURCE PLANNING SYSTEM BASED ON ARTIFICIAL INTELLIGENCE}

본 발명은 인공 지능에 기반한 ERP 시스템에 관한 것이다.The present invention relates to an ERP system based on artificial intelligence.

ERP(enterprise resource planning) 시스템은, 기업의 전반적인 업무를 자동화하고 통합적으로 관리하는 시스템으로서, 회계, 인사, 생산, 유통 등의 여러 영역에서 사용되어 왔다.The ERP (enterprise resource planning) system is a system that automates and comprehensively manages a company's overall work, and has been used in various areas such as accounting, human resources, production, and distribution.

종래의 ERP 시스템은 경직되고, 융통성이 없으며, 많은 사용자 정의가 필요하여, 비용과 시간이 많이 소요된다. 또한, 종래의 ERP 시스템의 인터페이스는 전문적인 교육이 없이는 사용하기 어려웠으며, 시스템을 유지 관리하고 업데이트하기 위해 많은 인력과 비용이 필요하였다.Conventional ERP systems are rigid, inflexible, and require a lot of customization, making them costly and time-consuming. Additionally, the interface of the conventional ERP system was difficult to use without professional training, and a lot of manpower and cost were required to maintain and update the system.

따라서, 보다 유연하고, 확장 가능하며, 보다 쉽게 접근 및 이용이 가능한 새로운 ERP 시스템이 요구된다.Therefore, a new ERP system that is more flexible, scalable, and easier to access and use is required.

본 발명의 다양한 실시 예는 상기 문제점을 해결하기 위한 것으로, 인공 지능(Artificial Intelligence)에 기반한 챗봇 기능을 증강 현실(AR: augmented reality) 안경을 통해 제공함으로써, 사용자가 보다 몰입감 있고 직관적인 방식으로 시스템과 상호 작용할 수 있도록 하여 사용자 경험을 향상시킬 수 있는 ERP 시스템을 제공하는데 목적이 있다.Various embodiments of the present invention are intended to solve the above problems, by providing chatbot functions based on artificial intelligence through augmented reality (AR) glasses, so that users can interact with the system in a more immersive and intuitive manner. The purpose is to provide an ERP system that can improve user experience by enabling interaction with

본 발명의 다양한 실시예에 따른 ERP 시스템은, 증강 현실 안경 및 상기 증강 현실 안경과 연동하도록 구성된 인공 지능 챗봇 모듈을 포함하고, 상기 증강 현실 안경은, 사용자 입력에 응답하여 대화형 인공 지능 서비스인 챗봇 기능을 활성화하고, 상기 챗봇 기능이 활성화되면 사용자의 음성, 위치, 및 시선을 감지한 데이터를 상기 인공 지능 챗봇 모듈로 전송하도록 구성되고, 상기 인공 지능 챗봇 모듈은, 상기 데이터에 기반하여 상기 사용자의 의도들을 추정하고, 상기 ERP 시스템의 데이터베이스에 접속하여 상기 추정된 사용자의 의도들에 대응하는 로우 데이터들을 검색하고, 상기 검색된 로우 데이터들을 분석하여 대화형 응답 메시지 및 상기 대화형 응답 메시지에 대응하는 화면 인터페이스를 포함하는 분석 데이터들을 생성하고, 상기 생성된 분석 데이터들을 상기 증강 현실 안경으로 전송하고, 상기 증강 현실 안경은, 상기 인공 지능 챗봇 모듈로부터 전송된 분석 데이터들에 기반하여, 상기 대화형 응답 메시지를 음성 형태로 출력하고, 상기 대화형 응답 메시지가 출력되는 것에 동기하여 상기 화면 인터페이스를 렌즈의 적어도 일부분을 통해 표시하도록 구성되고, 상기 챗봇 기능을 활성화하는 상기 사용자 입력은, 상기 증강 현실 안경의 다리의 일부분을 지정된 패턴으로 두드리는 입력, 상기 사용자가 지정된 패턴으로 눈을 깜박이는 동작, 상기 사용자가 지정된 패턴으로 머리를 흔드는 동작, 및 상기 사용자가 상기 증강 현실 안경과 블루투스 통신으로 페어링된 외부 장치에 포함된 버튼을 누르는 동작을 포함한다.The ERP system according to various embodiments of the present invention includes augmented reality glasses and an artificial intelligence chatbot module configured to interoperate with the augmented reality glasses, and the augmented reality glasses provide a chatbot that is an interactive artificial intelligence service in response to user input. Activate the function, and when the chatbot function is activated, it is configured to transmit data that detects the user's voice, location, and gaze to the artificial intelligence chatbot module, and the artificial intelligence chatbot module detects the user's voice based on the data. Estimating intentions, accessing the database of the ERP system to retrieve raw data corresponding to the estimated user intentions, analyzing the retrieved raw data to create an interactive response message and a screen corresponding to the interactive response message Generate analysis data including an interface, transmit the generated analysis data to the augmented reality glasses, and the augmented reality glasses send the interactive response message based on the analysis data transmitted from the artificial intelligence chatbot module. configured to output in voice form and display the screen interface through at least a portion of the lens in synchronization with output of the interactive response message, wherein the user input for activating the chatbot function is a leg of the augmented reality glasses. an input of tapping a portion of the device in a specified pattern, an action in which the user blinks his eyes in a specified pattern, an action in which the user shakes his head in a specified pattern, and the user is included in an external device paired with the augmented reality glasses through Bluetooth communication. Includes the action of pressing a button.

본 발명의 다양한 실시 예에 따른 ERP 시스템은, 인공 지능에 기반한 챗봇 기능을 증강 현실 안경을 통해 제공함으로써, 사용자가 보다 몰입감 있고 직관적인 방식으로 시스템과 상호 작용할 수 있도록 하여 사용자 경험을 향상시킬 수 있다.ERP systems according to various embodiments of the present invention can improve user experience by providing chatbot functions based on artificial intelligence through augmented reality glasses, allowing users to interact with the system in a more immersive and intuitive manner. .

도 1은 일 실시예에 따른 ERP 시스템을 포함하는 환경을 도시한 블록도이다.
도 2는 도 1에 도시된 전자 안경과 그에 페어링되는 외부 장치의 구성 블록도이다.
도 3은 일 실시예에 따른 전자 안경 및 외부 장치의 예시를 나타내는 도면이다.
도 4는 일 실시예에 따른 전자 안경이 제공하는 화면 인터페이스의 예시를 나타내는 도면이다.
도 5는 일 실시예에 따른 ERP 시스템의 동작을 설명한 흐름도이다.
도 6은 일 실시예에 따른 ERP 시스템이 적용된 자재 창고의 예시이다.
도 7은 일 실시예에 따른 ERP 시스템이 적용된 제조 공장의 예시이다.
도 8은 일 실시예에 따른 ERP 시스템이 적용된 소매 영업점의 예시이다.
도 9는 일 실시예에 따른 ERP 시스템이 적용된 화상 회의 환경의 예시이다.
1 is a block diagram illustrating an environment including an ERP system according to an embodiment.
FIG. 2 is a block diagram of the electronic glasses shown in FIG. 1 and an external device paired therewith.
3 is a diagram illustrating an example of electronic glasses and an external device according to an embodiment.
Figure 4 is a diagram illustrating an example of a screen interface provided by electronic glasses according to an embodiment.
Figure 5 is a flowchart explaining the operation of an ERP system according to an embodiment.
Figure 6 is an example of a material warehouse to which an ERP system is applied according to an embodiment.
Figure 7 is an example of a manufacturing plant to which an ERP system is applied according to an embodiment.
Figure 8 is an example of a retail branch to which an ERP system is applied according to an embodiment.
Figure 9 is an example of a video conference environment to which an ERP system is applied according to an embodiment.

전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다.The above-mentioned objects, features, and advantages will be described in detail later with reference to the attached drawings, so that those skilled in the art will be able to easily implement the technical idea of the present invention. In describing the present invention, if it is determined that a detailed description of known technologies related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the attached drawings.

도 1은 일 실시예에 따른 ERP 시스템(10)을 포함하는 환경을 도시한 블록도이다.Figure 1 is a block diagram illustrating an environment including an ERP system 10 according to one embodiment.

도 1을 참조하면, 일 실시예에 따른 ERP 시스템(10)은, 생산, 및 제조와 관련한 업무뿐만 아니라, 재무와 회계, 고객 관리, 상품 관리, 인적 자원 관리, 및 기업 서비스 관리와 같은 기능들을 제공하도록 구성된다.Referring to FIG. 1, the ERP system 10 according to one embodiment includes functions such as finance and accounting, customer management, product management, human resource management, and corporate service management, as well as production and manufacturing-related tasks. It is designed to provide

일 실시예에 따르면, ERP 시스템(10)은, 재고 및 유통 관리 모듈(101), 생산 및 제조 관리 모듈(103), 영업 및 판매 관리 모듈(105), 구매 및 발주 관리 모듈(107), 경리 및 회계 관리 모듈(109), 인사 및 급여 관리 모듈(111), 그룹 웨어 모듈(113), 웹 메일 모듈(115), 데이터베이스(117), 인공 지능 챗봇 모듈(119), 제1 사용자 인터페이스 모듈(121), 및 제2 사용자 인터페이스 모듈(123)을 포함할 수 있다. 다만, 도 1에 도시된 ERP 시스템(10)의 구성요소는 하나의 예시일 뿐, 본 발명은 이에 제한되지 않는다.According to one embodiment, the ERP system 10 includes an inventory and distribution management module 101, a production and manufacturing management module 103, a sales and sales management module 105, a purchase and order management module 107, and an accounting module. and accounting management module 109, personnel and salary management module 111, groupware module 113, web mail module 115, database 117, artificial intelligence chatbot module 119, first user interface module ( 121), and a second user interface module 123. However, the components of the ERP system 10 shown in FIG. 1 are only one example, and the present invention is not limited thereto.

재고 및 유통 관리 모듈(101)은, 판매, 구매, 생산에 입력한 자료를 재고 수불 내역에 자동으로 반영하는 재고 관리 기능을 제공한다. 예를 들어, 재고 및 유통 관리 모듈은, 재고 장부 및 보고서 작성 기능, 창고 재고 관리, 품목 관리, 단가 관리, 매장 및 가맹점 관리 기능, 온라인 수발주 기능, 오더 관리 기능, 프로젝트별 실적 관리, 및 창고 관리 기능을 제공한다.The inventory and distribution management module 101 provides an inventory management function that automatically reflects data entered for sales, purchase, and production into inventory receipt and payment details. For example, the inventory and distribution management module includes inventory ledger and report creation function, warehouse inventory management, item management, unit price management, store and franchise management function, online ordering function, order management function, performance management by project, and warehouse management. Provides functionality.

생산 및 제조 관리 모듈(103)은, 생산에 필요한 원/부재료 및 반제품의 종류와 수량을 자재명세서(BOM:Bill of Material) 형태로 관리하고, 이를 기반으로 생산관리에 관한 기능들을 제공한다. 생산 및 제조 관리 모듈은 자재명세서 관리를 통해 제품 생산에 필요한 원/부재료 수량을 자동으로 계산하고, 작업지시서, 생산내역 입력시 이를 호출하는 기능을 제공합니다. 생산 및 제조 관리 모듈은, 생산 계획, 공정 흐름 관리, 외주 공장 관리, 원가 관리, 및 품질 관리에 관련한 기능들을 제공한다.The production and manufacturing management module 103 manages the types and quantities of raw/auxiliary materials and semi-finished products required for production in the form of a bill of material (BOM) and provides functions related to production management based on this. The production and manufacturing management module automatically calculates the quantity of raw and subsidiary materials required for product production through bill of materials management and provides the function to call this when entering work orders and production details. The production and manufacturing management module provides functions related to production planning, process flow management, outsourced factory management, cost management, and quality control.

영업 및 판매 관리 모듈(105) 매출 실적 확인, 미수금 관리, 이익 자동 계산, 단가 계산, 재고 관리, 및 온/오프라인 쇼핑몰 관리 기능을 제공한다.Sales and sales management module (105) provides sales performance confirmation, receivables management, automatic profit calculation, unit price calculation, inventory management, and online/offline shopping mall management functions.

구매 및 발주 관리 모듈(107)은, 발주서에 입력한 내용을 기반으로 구매 전표를 자동으로 생성하는 기능을 제공한다. 또한, 구매 및 발주 관리 모듈은, 견적 요청, 및 발주 계획 수립 기능을 제공한다.The purchase and order management module 107 provides a function to automatically create a purchase slip based on the information entered in the purchase order form. Additionally, the purchase and order management module provides quotation request and order plan establishment functions.

경리 및 회계 관리 모듈(109)은, 은행, 카드사, PG사, 및 국세청과 연동되도록 구성된다. 경리 및 회계 관리 모듈은, 매출/매입, 지출/수금 내역에 대한 입력만으로 자동으로 분개가 되고, 장부에 실시간으로 반영이 되도록 하는 회계 기능을 제공한다. 또한, 경리 및 회계 관리 모듈은, 매출 내역에 기반한 전자세금계산서 발행 기능, 및 부가세 신고서 작성 기능을 제공한다.The accounting and accounting management module 109 is configured to be linked with banks, credit card companies, PG companies, and the National Tax Service. The accounting and accounting management module provides an accounting function that allows sales/purchase and expenditure/collection details to be automatically journalized and reflected in the ledger in real time just by entering them. In addition, the accounting and accounting management module provides the function of issuing electronic tax invoices based on sales details and the function of creating value-added tax reports.

인사 및 급여 관리 모듈(111)은, 미리 입력한 사원 정보를 기반으로 급여 계산을 자동으로 수행한다. 또한, 인사 및 급여 관리 모듈은, 근태 관리, 인사 관리, 연말 정산, 및 퇴직 관리 등과 같이 인사와 관련한 기능들 제공한다.The personnel and salary management module 111 automatically performs salary calculation based on pre-entered employee information. Additionally, the personnel and salary management module provides personnel-related functions such as attendance management, personnel management, year-end settlement, and retirement management.

그룹 웨어 모듈(113)은, 기업 내 임직원 간의 업무 공유를 위한 게시판 기능을 제공한다. 이를 위해, 그룹 웨어 모듈은, 전자 결재 기능, 클라우드 서버 기능, 고객 관리(CRM: Customer Relationship Management) 기능, 및 일정 관리 기능을 제공한다.The groupware module 113 provides a bulletin board function for sharing work between executives and employees within a company. To this end, the groupware module provides an electronic payment function, a cloud server function, a customer relationship management (CRM) function, and a schedule management function.

웹 메일 모듈(115)은, 그룹 웨어 모듈(113)과 연동하여 기업 내 임직원 각각에게 지정된 용량의 메일 계정을 제공 및 관리하는 기능을 제공한다.The web mail module 115, in conjunction with the groupware module 113, provides the function of providing and managing a mail account with a specified capacity to each employee within the company.

데이터베이스(117)는, ERP 시스템(10)에 포함된 전술한 각 기능 모듈들의 데이터들을 저장한다. 데이터베이스(117)는 서버 형태로 구현될 수 있고, 각 정보들은 접근을 요청하는 사용자(40)의 보안 등급에 따라 차등적으로 접근할 수 있도록 구성된다. 데이터베이스(117)에 저장된 정보는, 후술하는 바와 같이, 인공 지능 챗봇 모듈(119)이 참조할 수 있도록 구성된다.The database 117 stores data of each of the above-described function modules included in the ERP system 10. The database 117 may be implemented in the form of a server, and each piece of information is configured to be differentially accessible depending on the security level of the user 40 requesting access. The information stored in the database 117 is configured so that the artificial intelligence chatbot module 119 can refer to it, as will be described later.

인공 지능 챗봇 모듈(119)은, 자연어 처리(NLP) 및 기계 학습 알고리즘을 활용하여 챗봇은 사용자(40) 쿼리를 이해하고 인간과 같은 방식으로 응답할 수 있도록 구성된다. 인공 지능 챗봇 모듈(119)은 데이터베이스(117)에 저장된 방대한 양의 데이터를 분석하고, ERP 시스템(10)의 사용자(40)가 그 정보에 입각한 결정을 내리는데 도움이 될 수 있는 통찰력을 제공하는데 이용될 수 있다. 인공 지능 챗봇 모듈(119)은 기계 학습 알고리즘과 대화형 챗봇 기능이 통합된 모듈로서, 쿼리 및 과거 데이터를 기반으로 사용자(40)에게 개인화된 대화형 응답 메시지, 예측, 및 솔루션을 제공할 수 있다.The artificial intelligence chatbot module 119 utilizes natural language processing (NLP) and machine learning algorithms to enable the chatbot to understand the user's 40 queries and respond in a human-like manner. The artificial intelligence chatbot module 119 analyzes the vast amount of data stored in the database 117 and provides insights that can help the user 40 of the ERP system 10 make informed decisions. It can be used. The artificial intelligence chatbot module 119 is a module that integrates machine learning algorithms and interactive chatbot functions, and can provide personalized interactive response messages, predictions, and solutions to the user 40 based on queries and past data. .

도시하지 않았으나, 인공 지능 챗봇 모듈(119)은, 자동 음성 인식(automatic speech recognition) 모듈, 자연어 이해(natural language understanding) 모듈, 패스 플래너(path planner) 모듈, 대화 매니저(dialogue manager) 모듈, 자연어 생성(natural language generator) 모듈, 텍스트 음성 변환(text to speech) 모듈, 또는 음성 텍스트 변환(speech to text) 모듈을 포함할 수 있다. 또한, 인공 지능 챗봇 모듈(119)은 ERP 시스템(10)의 통신 회로(미도시)를 통해 전자 안경(20)과 데이터(또는, 정보)를 송수신할 수 있다.Although not shown, the artificial intelligence chatbot module 119 includes an automatic speech recognition module, a natural language understanding module, a path planner module, a dialogue manager module, and a natural language generation module. It may include a (natural language generator) module, a text to speech module, or a speech to text module. Additionally, the artificial intelligence chatbot module 119 can transmit and receive data (or information) with the electronic glasses 20 through a communication circuit (not shown) of the ERP system 10.

제1 사용자 인터페이스 모듈(121)은, 컴퓨터, 스마트폰, 및 태블릿 PC 환경에서 사용자(40)가 ERP 시스템(10)을 이용 및 관리하는 환경을 제공한다.The first user interface module 121 provides an environment in which the user 40 uses and manages the ERP system 10 in a computer, smartphone, and tablet PC environment.

제2 사용자 인터페이스 모듈(123)은, 사용자(40)가 전자 안경(20)을 착용한 상태에서 ERP 시스템(10)을 이용 및 관리하는 환경을 제공한다. 이를 위해, 제2 사용자 인터페이스 모듈은 인공 지능 챗봇 모듈(119)과 연동하여 동작될 수 있다.The second user interface module 123 provides an environment in which the user 40 uses and manages the ERP system 10 while wearing the electronic glasses 20. To this end, the second user interface module may be operated in conjunction with the artificial intelligence chatbot module 119.

일 실시예에 따른 ERP 시스템(10)은, 증강 현실 안경(21) 또는 VR(Virtual Reality) 장치(22)에 기반한 사용자 인터페이스를 제공한다. 이러한 ERP 시스템(10)은 사용자(40)가 보다 몰입감 있고, 직관적인 방식으로 ERP 시스템(10)과 상호 작용할 수 있도록 한다. 예를 들어, 사용자(40)는 ERP 시스템(10)이 제공하는 데이터를 3D 형태로 시각화하여 볼 수 있고, 시각화된 정보를 조작하거나, 제스처와 음성 명령을 통해 ERP 시스템(10)에 저장된 정보에 접근할 수 있다.The ERP system 10 according to one embodiment provides a user interface based on augmented reality glasses 21 or a virtual reality (VR) device 22. This ERP system 10 allows the user 40 to interact with the ERP system 10 in a more immersive and intuitive manner. For example, the user 40 can visualize and view data provided by the ERP system 10 in 3D form, manipulate the visualized information, or access information stored in the ERP system 10 through gestures and voice commands. It is accessible.

일 실시예에 따른 ERP 시스템(10)은, 사용자 인터페이스를 통해 인공 지능과 챗봇 기능이 결합된 서비스를 제공한다. 예를 들어, ERP 시스템(10)은 증강 현실 안경이나 VR 장치의 시선 추적 기능을 이용해 사용자(40)의 시선을 추적하고, 이를 기반으로 사용자(40)의 의도를 추정한다. ERP 시스템(10)은 추정된 사용자(40)의 의도에 기반하여 인공 지능 챗봇 기능을 제공할 수 있다. ERP 시스템(10)은 사용자(40)의 의도를 추정하기 위하여, 시선뿐만 아니라, 사용자(40)의 발화, 위치, 및 시선이 머무는 시간을 감지할 수 있다.The ERP system 10 according to one embodiment provides a service combining artificial intelligence and chatbot functions through a user interface. For example, the ERP system 10 tracks the gaze of the user 40 using the eye tracking function of augmented reality glasses or a VR device and estimates the user's 40 intention based on this. The ERP system 10 may provide an artificial intelligence chatbot function based on the estimated intention of the user 40. In order to estimate the intention of the user 40, the ERP system 10 can detect not only the gaze, but also the user 40's utterance, location, and gaze dwell time.

도 2는 도 1에 도시된 전자 안경(20)과 그에 페어링되는 외부 장치(30)의 구성 블록도이다. 도 3은 일 실시예에 따른 전자 안경(20) 및 외부 장치(30)의 예시를 나타내는 도면이다.FIG. 2 is a block diagram of the electronic glasses 20 shown in FIG. 1 and the external device 30 paired therewith. FIG. 3 is a diagram illustrating an example of electronic glasses 20 and an external device 30 according to an embodiment.

도 2 및 도 3을 참조하면, 일 실시예에 따른 전자 안경(20)은 증강 현실 안경 또는 VR(Virtual Reality) 장치일 수 있다. 전자 안경(20)은, 인공 지능 챗봇 모듈(119)에 의해 생성된 응답 메시지를 음성 형태로 출력하는 스피커(201), 사용자(40)의 발화 또는 사용자(40)의 음성을 수신하는 마이크(203), 인공 지능 챗봇 모듈(119)에 의해 생성된 화면 인터페이스(410)를 렌즈의 적어도 일부분을 통해 표시하도록 구성된 디스플레이 모듈(205), 사용자(40)의 시선을 실시간으로 추적하는 시선 추적 센서(207), GPS 모듈을 포함하여 사용자(40)가 위치한 장소를 식별하는 위치 센서(209), 사용자(40)의 시선이 머무는 오브젝트와 사용자(40) 간의 거리를 측정하는 거리 센서(211), 사용자(40)의 전방을 촬영하기 위한 카메라 모듈(213), 및 ERP 시스템(10) 및 외부 장치(30)와 통신하기 위한 제1 통신 모듈(215)을 포함할 수 있다. 제1 통신 모듈(215)은 외부 장치(30)와 근거리 통신, 예컨대 블루투스 통신을 지원할 수 있다.Referring to FIGS. 2 and 3 , electronic glasses 20 according to one embodiment may be augmented reality glasses or a VR (Virtual Reality) device. The electronic glasses 20 include a speaker 201 that outputs a response message generated by the artificial intelligence chatbot module 119 in voice form, and a microphone 203 that receives the utterance of the user 40 or the voice of the user 40. ), a display module 205 configured to display the screen interface 410 generated by the artificial intelligence chatbot module 119 through at least a portion of the lens, an eye tracking sensor 207 that tracks the gaze of the user 40 in real time ), a location sensor 209 that includes a GPS module to identify the location where the user 40 is located, a distance sensor 211 that measures the distance between the object on which the user 40's gaze rests and the user 40, the user ( It may include a camera module 213 for photographing the front of the device 40, and a first communication module 215 for communicating with the ERP system 10 and the external device 30. The first communication module 215 may support short-distance communication, for example, Bluetooth communication, with the external device 30.

외부 장치(30)는 사용자(40)가 착용하도록 구성된 스마트 워치(31), 또는 전자 펜(32)을 포함한다. 이러한 외부 장치(30)는 인공 지능 챗봇 모듈(119)에 의해 생성된 화면 인터페이스(410)의 일부를 표시하도록 구성된 디스플레이 모듈(301), 챗봇 기능을 활성화하기 위한 사용자(40) 입력을 감지하기 위한 진동 감지 센서(303), 물리 버튼(305), 및 전자 안경(20)과 통신하기 위한 제2 통신 모듈(307)을 포함할 수 있다. 제2 통신 모듈(307)은 전자 안경(20)과 근거리 통신, 예컨대 블루투스 통신을 지원할 수 있다.The external device 30 includes a smart watch 31 or an electronic pen 32 configured to be worn by the user 40. This external device 30 includes a display module 301 configured to display a portion of the screen interface 410 generated by the artificial intelligence chatbot module 119, and a display module 301 configured to detect user 40 input to activate the chatbot function. It may include a vibration detection sensor 303, a physical button 305, and a second communication module 307 for communicating with the electronic glasses 20. The second communication module 307 may support short-distance communication, for example, Bluetooth communication, with the electronic glasses 20.

도 4는 일 실시예에 따른 전자 안경(20)이 제공하는 화면 인터페이스(410)의 예시를 나타내는 도면이다.FIG. 4 is a diagram illustrating an example of a screen interface 410 provided by electronic glasses 20 according to an embodiment.

도 4를 참조하면, 전자 안경(20)은, 사용자(40) 입력에 응답하여 대화형 인공 지능 서비스인 챗봇 기능을 활성화하고, 챗봇 기능이 활성화되면 사용자(40)의 음성, 위치, 및 시선을 감지한 데이터를 인공 지능 챗봇 모듈(119)로 전송하도록 구성된다. 도 4에서 도면부호 411, 및 412 각각은 사용자(40)의 시선에 대응하는 화면 인터페이스(410)의 일부를 나타낸다.Referring to FIG. 4, the electronic glasses 20 activate the chatbot function, which is an interactive artificial intelligence service, in response to the input of the user 40, and when the chatbot function is activated, the voice, location, and gaze of the user 40 are used. It is configured to transmit the detected data to the artificial intelligence chatbot module 119. In FIG. 4 , reference numerals 411 and 412 each represent a part of the screen interface 410 corresponding to the gaze of the user 40.

인공 지능 챗봇 모듈(119)은, 데이터에 기반하여 사용자(40)의 의도들을 추정하고, ERP 시스템(10)의 데이터베이스(117)에 접속하여 추정된 사용자(40)의 의도들에 대응하는 로우 데이터들을 검색한다. 인공 지능 챗봇 모듈(119)은 검색된 로우 데이터들을 분석하여 대화형 응답 메시지 및 대화형 응답 메시지에 대응하는 화면 인터페이스(410)를 포함하는 분석 데이터들을 생성하고, 생성된 분석 데이터들을 전자 안경(20)으로 전송한다.The artificial intelligence chatbot module 119 estimates the intentions of the user 40 based on data, connects to the database 117 of the ERP system 10, and collects raw data corresponding to the estimated intentions of the user 40. Search for them. The artificial intelligence chatbot module 119 analyzes the retrieved raw data to generate analysis data including an interactive response message and a screen interface 410 corresponding to the interactive response message, and transmits the generated analysis data to the electronic glasses 20. send to

전자 안경(20)은, 인공 지능 챗봇 모듈(119)로부터 전송된 분석 데이터들에 기반하여, 대화형 응답 메시지를 음성 형태로 출력하고, 대화형 응답 메시지가 출력되는 것에 동기하여 화면 인터페이스(410)를 렌즈의 적어도 일부분을 통해 표시하도록 구성된다.The electronic glasses 20 output an interactive response message in voice form based on the analysis data transmitted from the artificial intelligence chatbot module 119, and display the screen interface 410 in synchronization with the output of the interactive response message. is configured to display through at least a portion of the lens.

이하, 도 5를 참조하여, 인공 지능 챗봇 모듈(119)로부터 생성된 대화형 응답 메시지 또는 정보가 전자 안경(20)을 통해 사용자(40)에게 전달되는 방법을 구체적으로 설명한다.Hereinafter, with reference to FIG. 5 , a method in which an interactive response message or information generated from the artificial intelligence chatbot module 119 is delivered to the user 40 through the electronic glasses 20 will be described in detail.

도 5는 일 실시예에 따른 ERP 시스템(10)의 동작을 설명한 흐름도이다. 도 5에 도시된 동작들 중에서 적어도 일부는 생략될 수 있고, 도 5에 도시된 동작들 중간에는 본 문서에서 설명한 ERP 시스템(10)의 기능들을 수행하기 위한 동작들이 추가적으로 삽입될 수 있다.Figure 5 is a flowchart explaining the operation of the ERP system 10 according to one embodiment. At least some of the operations shown in FIG. 5 may be omitted, and operations for performing the functions of the ERP system 10 described in this document may be additionally inserted between the operations shown in FIG. 5.

동작 501에서, 전자 안경(20)은 사용자(40) 입력을 감지할 수 있다. 사용자(40) 입력은 챗봇 기능을 활성화하기 위한 트리거 입력으로서, 다양한 형태일 수 있다.In operation 501, the electronic glasses 20 may detect the user's 40 input. The user 40 input is a trigger input for activating the chatbot function and may be in various forms.

일 실시예에 따르면, 챗봇 기능을 활성화하는 사용자(40) 입력은, 전자 안경(20)의 다리의 일부분을 지정된 패턴으로 두드리는 입력, 사용자(40)가 지정된 패턴으로 눈을 깜박이는 동작, 사용자(40)가 지정된 패턴으로 머리를 흔드는 동작, 및 사용자(40)가 전자 안경(20)과 블루투스 통신으로 페어링된 외부 장치(30)에 포함된 버튼을 누르는 동작을 포함할 수 있다.According to one embodiment, the user 40 input that activates the chatbot function is an input of tapping a part of the leg of the electronic glasses 20 in a specified pattern, an action in which the user 40 blinks his eyes in a specified pattern, and the user ( This may include an action in which the user 40 shakes his head in a designated pattern, and an action in which the user 40 presses a button included in the external device 30 paired with the electronic glasses 20 through Bluetooth communication.

일 실시예에 따르면, 챗봇 기능을 활성화하는 사용자(40) 입력은, 외부 장치(30)가 사용자(40)가 착용하는 스마트 워치(31)인 경우에, 스마트 워치(31)에 포함된 물리 버튼(305)을 누르는 동작, 스마트 워치(31)의 화면(예: 도 3의 301)을 지정된 패턴으로 두드리는 동작, 및 사용자(40)가 스마트 워치(31)를 착용한 채로 손을 지정된 패턴으로 흔드는 동작을 포함할 수 있다.According to one embodiment, the user's 40 input for activating the chatbot function is a physical button included in the smart watch 31 when the external device 30 is a smart watch 31 worn by the user 40. An action of pressing 305, an action of tapping the screen of the smart watch 31 (e.g., 301 in FIG. 3) in a designated pattern, and the user 40 shaking his hand in a designated pattern while wearing the smart watch 31. Can include actions.

일 실시예에 따르면, 챗봇 기능을 활성화하는 사용자(40) 입력은, 전자 펜(32)인 경우에, 챗봇 기능을 활성화하는 사용자(40) 입력은, 전자 펜(32)에 포함된 물리 버튼(305)을 누르는 동작, 전자 펜(32)의 본체를 지정된 패턴으로 두드리는 동작, 및 전자 펜(32)을 지정된 패턴으로 흔드는 동작을 포함할 수 있다.According to one embodiment, when the user 40 input for activating the chatbot function is the electronic pen 32, the user 40 input for activating the chatbot function is a physical button included in the electronic pen 32 ( 305), tapping the body of the electronic pen 32 in a designated pattern, and shaking the electronic pen 32 in a designated pattern.

동작 503 및 동작 505에서, 전자 안경(20)은 사용자(40) 입력에 응답하여 사용자(40)의 음성, 위치, 및 시선을 감지할 수 있다. 전자 안경(20)은 사용자(40)의 음성, 위치, 및 시선을 감지한 데이터를 인공 지능 챗봇 모듈(119)로 전송한다.In operations 503 and 505, the electronic glasses 20 may detect the voice, location, and gaze of the user 40 in response to the user's 40 input. The electronic glasses 20 transmit data that detects the voice, location, and gaze of the user 40 to the artificial intelligence chatbot module 119.

동작 507에서, 인공 지능 챗봇 모듈(119)은 전자 안경(20)으로부터 전송된 데이터에 기반하여 사용자(40)의 의도들을 추정한다. 사용자(40)의 의도는 사용자(40)의 음성, 위치, 및 시선에 기반하여 결정될 수 있다. 예를 들어, 인공 지능 챗봇 모듈(119) 사용자(40)의 음성으로부터, 상대방과 대화 상태인지, 인공 지능 챗봇 모듈(119)에게 데이터베이스(117)에 저장된 데이터에 대한 단순 검색(예: 데이터 검색)을 요청하는 상태인지, 인공 지능 챗봇 모듈(119)에게 데이터베이스(117)에 저장된 데이터에 대한 구체적인 분석 의견(예: 예측 서비스)을 요청하는 상태인지, 또는 인공 지능 챗봇 모듈(119)에게 생산적인 결과(예: 보고서 생성)를 요청하는 것인지 판단할 수 있다.In operation 507, the artificial intelligence chatbot module 119 estimates the intentions of the user 40 based on data transmitted from the electronic glasses 20. The intention of the user 40 may be determined based on the user's 40 voice, location, and gaze. For example, from the voice of the user 40 of the artificial intelligence chatbot module 119, whether the person is in a conversation with the other party, a simple search (e.g., data search) for data stored in the database 117 is provided to the artificial intelligence chatbot module 119. Is it a state of requesting a specific analysis opinion (e.g., prediction service) on data stored in the database 117 from the artificial intelligence chatbot module 119, or is it a state of requesting a productive result from the artificial intelligence chatbot module 119? You can determine whether you are requesting (e.g. report generation).

인공 지능 챗봇 모듈(119)은 ERP 시스템(10)의 데이터베이스(117)에 접속하여 추정된 사용자(40)의 의도들에 대응하는 로우 데이터들을 검색하고, 검색된 로우 데이터들을 분석하여 분석 데이터들을 생성한다. 분석 데이터는 대화형 응답 메시지 및 대화형 응답 메시지에 대응하는 화면 인터페이스(410)를 포함한다.The artificial intelligence chatbot module 119 connects to the database 117 of the ERP system 10, searches for raw data corresponding to the estimated intentions of the user 40, and analyzes the retrieved raw data to generate analysis data. . The analysis data includes an interactive response message and a screen interface 410 corresponding to the interactive response message.

동작 509 및 동작 5011에서, 인공 지능 챗봇 모듈(119)은 생성된 분석 데이터들을 전자 안경(20)으로 전송하고, 전자 안경(20)은 분석 데이터들에 기반하여 대화형 응답 메시지를 음성 형태로 출력하고, 대화형 응답 메시지가 출력되는 것에 동기하여 화면 인터페이스(410)를 렌즈의 적어도 일부분을 통해 표시한다. 이때, 외부 장치(30)가 스마트 워치(31)인 경우, 스마트 워치(31)는 전자 안경(20)이 화면 인터페이스(410)를 표시하는 동안에, 화면 인터페이스(410)에 포함된 적어도 일부 정보들을 자신의 화면을 통해 표시하도록 설정된다. 또는, 외부 장치(30)가 전자 펜(32)인 경우, 전자 펜(32)은 전자 안경(20)이 화면 인터페이스(410)를 표시하는 동안에, 화면 인터페이스(410)에 포함된 적어도 일부 정보들을 자신의 화면을 통해 표시하도록 설정된다.In operations 509 and 5011, the artificial intelligence chatbot module 119 transmits the generated analysis data to the electronic glasses 20, and the electronic glasses 20 outputs an interactive response message in voice form based on the analysis data. And, in synchronization with output of the interactive response message, the screen interface 410 is displayed through at least a portion of the lens. At this time, when the external device 30 is a smart watch 31, the smart watch 31 displays at least some information included in the screen interface 410 while the electronic glasses 20 display the screen interface 410. It is set to display through its own screen. Alternatively, when the external device 30 is the electronic pen 32, the electronic pen 32 displays at least some information included in the screen interface 410 while the electronic glasses 20 display the screen interface 410. It is set to display through its own screen.

한편, 인공 지능 챗봇 모듈(119)은 사용자(40)가 챗봇 기능의 활성화를 위한 사용자(40) 입력을 트리거하기 이전에, 미리 전자 안경(20)과 연동하여 사용자(40) 정보를 수집할 수 있다. 이를 위해, 인공 지능 챗봇 모듈(119)은 동작 501 이전에 동작 513, 동작 515, 및 동작 517을 수행할 수 있다.Meanwhile, the artificial intelligence chatbot module 119 can collect user 40 information in advance by linking with the electronic glasses 20 before the user 40 triggers the user 40 input for activating the chatbot function. there is. To this end, the artificial intelligence chatbot module 119 may perform operations 513, 515, and 517 before operation 501.

동작 513 및 동작 515에서, 상기 전자 안경(20)은, 상기 사용자(40) 입력을 수신하여 상기 챗봇 기능을 활성화하기 이전에, 상기 사용자(40)의 위치를 실시간으로 식별하고, 식별된 위치에 관련한 위치 정보를 상기 인공 지능 챗봇 모듈(119)로 미리 전송한다. 예를 들어, 인공 지능 챗봇 모듈(119)은, 위치 정보로부터 사용자(40)가 회의실에 위치하는지, 사용자(40)가 제조 공장에 위치하는지, 사용자(40)가 자재 창고(600)에 위치하는지, 또는 사용자(40)가 소매 영업점에 위치하는지 등을 사전에 파악할 수 있다.In operations 513 and 515, before receiving input from the user 40 and activating the chatbot function, the electronic glasses 20 identify the location of the user 40 in real time and place the device at the identified location. Relevant location information is transmitted in advance to the artificial intelligence chatbot module 119. For example, the artificial intelligence chatbot module 119 determines from location information whether the user 40 is located in a conference room, the user 40 is located in a manufacturing plant, or the user 40 is located in the material warehouse 600. , or it is possible to determine in advance whether the user 40 is located at a retail branch.

동작 515에서, 인공 지능 챗봇 모듈(119)은 데이터베이스(117)를 참조하여 사용자(40)의 위치와 관련되는 로우 데이터들을 미리 추출한다. 이러한 인공 지능 챗봇 모듈(119)은 사전에 사용자(40)의 위치와 관련되는 로우 데이터들을 미리 추출함으로써, 이후에 발생될 사용자(40)의 챗봇 기능 요청(즉, 사용자(40) 입력)에 대한 응답 속도를 높일 수 있다.In operation 515, the artificial intelligence chatbot module 119 refers to the database 117 and extracts raw data related to the location of the user 40 in advance. This artificial intelligence chatbot module 119 extracts raw data related to the location of the user 40 in advance, thereby responding to the chatbot function request of the user 40 (i.e., user 40 input) that will be generated later. Response speed can be increased.

도 6은 일 실시예에 따른 ERP 시스템(10)이 적용된 자재 창고(600)의 예시이다.Figure 6 is an example of a material warehouse 600 to which the ERP system 10 according to an embodiment is applied.

도 6을 참조하면, 사용자(40)는 자재 창고(600)에서 본 발명의 일 실시예에 따른 ERP 시스템(10)에 접속할 수 있다. 사용자(40)는 전자 안경(20)을 착용한 채로 자재 창고(600)를 순찰할 수 있다. 전자 안경(20)은 사용자(40) 입력을 수신하면, 사용자(40)가 자재 창고(600)에 위치한다는 위치 정보, 사용자(40)가 특정 선반을 응시한다는 시선 정보(601), 및 사용자(40)가 음성 명령으로 "저거는 뭐지?"라는 발화를 하였다는 음성 정보 중에서 적어도 하나를 감지할 수 있고, 이를 데이터화할 수 있다.Referring to FIG. 6, the user 40 can access the ERP system 10 according to an embodiment of the present invention from the material warehouse 600. The user 40 can patrol the material warehouse 600 while wearing the electronic glasses 20. When the electronic glasses 20 receive an input from the user 40, the electronic glasses 20 provide location information indicating that the user 40 is located in the material warehouse 600, gaze information 601 indicating that the user 40 is staring at a specific shelf, and user ( It is possible to detect at least one piece of voice information that 40) uttered "What is that?" through a voice command, and convert it into data.

전자 안경(20)은 생성된 데이터를 인공 지능 챗봇 모듈(119)로 전송하고, 인공 지능 챗봇 모듈(119)은 사용자(40)가 자재 창고(600)에 위치한다는 위치 정보, 사용자(40)가 특정 선반을 응시한다는 시선 정보(601), 및 사용자(40)가 음성 명령으로 "저거는 뭐지?"라는 발화를 하였다는 음성 정보 중에서 적어도 하나에 기반하여 분석 데이터들을 생성할 수 있다. 인공 지능 챗봇 모듈(119)은 분선 데이터들을 전자 안경(20)으로 피드백할 수 있다.The electronic glasses 20 transmit the generated data to the artificial intelligence chatbot module 119, and the artificial intelligence chatbot module 119 provides location information that the user 40 is located in the material warehouse 600, and the user 40 Analysis data can be generated based on at least one of gaze information 601 indicating that the user is gazing at a specific shelf, and voice information indicating that the user 40 uttered “What is that?” through a voice command. The artificial intelligence chatbot module 119 can feed back segment data to the electronic glasses 20.

전자 안경(20)은 증강 현실의 형태로 특정 선반 상에 위치한 품목에 관한 정보를 음성 형태의 대화형 메시지로 출력함과 아울러 화면 인터페이스(602)를 렌즈의 적어도 일부분을 통해 표시할 수 있다.The electronic glasses 20 can output information about items located on a specific shelf as an interactive message in the form of augmented reality and display the screen interface 602 through at least a portion of the lens.

이와 같이, 사용자(40)는 자재 창고(600)에서, 특정 오브젝트를 응시한 채로 사용자(40) 입력을 트리거하는 것만으로도 증강 현실 형태의 화면 인터페이스(602) 및 대화형 메시지로 자재 창고(600)의 전반에 관한 정보를 획득할 수 있다.In this way, the user 40 can access the material warehouse 600 through an augmented reality screen interface 602 and an interactive message simply by triggering the user 40 input while gazing at a specific object in the material warehouse 600. ) You can obtain general information.

도 7은 일 실시예에 따른 ERP 시스템(10)이 적용된 제조 공장(700)의 예시이다.Figure 7 is an example of a manufacturing plant 700 to which the ERP system 10 according to an embodiment is applied.

도 7을 참조하면, 사용자(40)는 제조 공장(700)에서 본 발명의 일 실시예에 따른 ERP 시스템(10)에 접속할 수 있다. 사용자(40)는 전자 안경(20)을 착용한 채로 제조 공장(700)을 순찰할 수 있다. 전자 안경(20)은 사용자(40) 입력을 수신하면, 사용자(40)가 제조 공장(700)에 위치한다는 위치 정보, 사용자(40)가 특정 제조 장비를 응시한다는 시선 정보(701), 및 사용자(40)가 음성 명령으로 "저거는 뭐지?"라는 발화를 하였다는 음성 정보 중에서 적어도 하나를 감지할 수 있고, 이를 데이터화할 수 있다.Referring to FIG. 7, the user 40 can access the ERP system 10 according to an embodiment of the present invention at the manufacturing plant 700. The user 40 can patrol the manufacturing plant 700 while wearing the electronic glasses 20. When the electronic glasses 20 receive an input from the user 40, the electronic glasses 20 generate location information indicating that the user 40 is located in the manufacturing plant 700, gaze information 701 indicating that the user 40 is looking at specific manufacturing equipment, and the user. At least one piece of voice information indicating that (40) uttered "What is that?" through a voice command can be detected, and this can be converted into data.

전자 안경(20)은 생성된 데이터를 인공 지능 챗봇 모듈(119)로 전송하고, 인공 지능 챗봇 모듈(119)은 사용자(40)가 제조 공장(700)에 위치한다는 위치 정보, 사용자(40)가 특정 제조 장비를 응시한다는 시선 정보(701), 및 사용자(40)가 음성 명령으로 "저거는 뭐지?"라는 발화를 하였다는 음성 정보 중에서 적어도 하나에 기반하여 분석 데이터들을 생성할 수 있다. 인공 지능 챗봇 모듈(119)은 분선 데이터들을 전자 안경(20)으로 피드백할 수 있다.The electronic glasses 20 transmit the generated data to the artificial intelligence chatbot module 119, and the artificial intelligence chatbot module 119 provides location information that the user 40 is located in the manufacturing plant 700, and the user 40 Analysis data can be generated based on at least one of gaze information 701 indicating that the user is gazing at a specific manufacturing equipment, and voice information indicating that the user 40 uttered “What is that?” through a voice command. The artificial intelligence chatbot module 119 can feed back segment data to the electronic glasses 20.

전자 안경(20)은 증강 현실의 형태로 특정 제조 장비에 관한 정보를 음성 형태의 대화형 메시지로 출력함과 아울러 화면 인터페이스(702)를 렌즈의 적어도 일부분을 통해 표시할 수 있다.The electronic glasses 20 can output information about specific manufacturing equipment as an interactive message in the form of audio in the form of augmented reality and display the screen interface 702 through at least a portion of the lens.

이와 같이, 사용자(40)는 제조 공장(700)에서, 특정 오브젝트를 응시한 채로 사용자(40) 입력을 트리거하는 것만으로도 증강 현실 형태의 화면 인터페이스(702) 및 대화형 메시지로 제조 공장(700)의 전반에 관한 정보를 획득할 수 있다.In this way, the user 40 can enter the manufacturing plant 700 through an augmented reality screen interface 702 and an interactive message simply by triggering the user 40 input while gazing at a specific object in the manufacturing plant 700. ) You can obtain general information.

도 8은 일 실시예에 따른 ERP 시스템(10)이 적용된 소매 영업점(800)의 예시이다.Figure 8 is an example of a retail branch 800 to which the ERP system 10 according to an embodiment is applied.

도 8을 참조하면, 사용자(40)는 소매 영업점(800)에서 본 발명의 일 실시예에 따른 ERP 시스템(10)에 접속할 수 있다. 사용자(40)는 전자 안경(20)을 착용한 채로 소매 영업점(800)을 순찰할 수 있다. 전자 안경(20)은 사용자(40) 입력을 수신하면, 사용자(40)가 소매 영업점(800)에 위치한다는 위치 정보, 사용자(40)가 판매 물품을 응시한다는 시선 정보(801), 및 사용자(40)가 음성 명령으로 "저거는 뭐지?"라는 발화를 하였다는 음성 정보 중에서 적어도 하나를 감지할 수 있고, 이를 데이터화할 수 있다.Referring to FIG. 8, a user 40 may access the ERP system 10 according to an embodiment of the present invention at a retail store 800. The user 40 can patrol the retail store 800 while wearing the electronic glasses 20 . When the electronic glasses 20 receive an input from the user 40, the electronic glasses 20 receive location information indicating that the user 40 is located at the retail store 800, gaze information 801 indicating that the user 40 is looking at the item for sale, and user ( It is possible to detect at least one piece of voice information that 40) uttered "What is that?" through a voice command, and convert it into data.

전자 안경(20)은 생성된 데이터를 인공 지능 챗봇 모듈(119)로 전송하고, 인공 지능 챗봇 모듈(119)은 사용자(40)가 소매 영업점(800)에 위치한다는 위치 정보, 사용자(40)가 특정 판매 물품을 응시한다는 시선 정보(801), 및 사용자(40)가 음성 명령으로 "저거는 뭐지?"라는 발화를 하였다는 음성 정보 중에서 적어도 하나에 기반하여 분석 데이터들을 생성할 수 있다. 인공 지능 챗봇 모듈(119)은 분선 데이터들을 전자 안경(20)으로 피드백할 수 있다.The electronic glasses 20 transmit the generated data to the artificial intelligence chatbot module 119, and the artificial intelligence chatbot module 119 provides location information that the user 40 is located at the retail store 800, and the user 40 Analysis data can be generated based on at least one of gaze information 801 indicating that the user is gazing at a specific product for sale, and voice information indicating that the user 40 uttered “What is that?” through a voice command. The artificial intelligence chatbot module 119 can feed back segment data to the electronic glasses 20.

전자 안경(20)은 증강 현실의 형태로 판매 물품에 관한 정보를 음성 형태의 대화형 메시지로 출력함과 아울러 화면 인터페이스(802)를 렌즈의 적어도 일부분을 통해 표시할 수 있다.The electronic glasses 20 can output information about products for sale as an interactive message in the form of audio in the form of augmented reality and display the screen interface 802 through at least a portion of the lens.

이와 같이, 사용자(40)는 소매 영업점(800)에서, 특정 오브젝트를 응시한 채로 사용자(40) 입력을 트리거하는 것만으로도 증강 현실 형태의 화면 인터페이스(802) 및 대화형 메시지로 소매 영업점(800)의 전반에 관한 정보를 획득할 수 있다.In this way, the user 40 can access the retail store 800 through an augmented reality screen interface 802 and an interactive message just by triggering the user 40 input while gazing at a specific object at the retail store 800. ) You can obtain general information.

특히, 소매 영업점(800)에서 본 발명의 일 실시예에 따른 ERP 시스템(10)을 이용하는 경우, 고객이 사용자(40)와 같은 공간에 위치할 수 있으므로, 고객 응대를 고려할 때 음성 형태로 챗봇 기능을 활성화하는 것이 용이하지 않을 수 있다. 본 발명은 음성 형태 이외에도, 스마트 워치(31) 및/또는 전자 펜(32)을 이용한 챗봇 기능의 활성화가 가능하므로, 고객 응대 중에 실시간으로 판매 물품에 관한 정보를 인공 지능 챗봇 모듈(119)에게 요청할 수 있다.In particular, when the retail branch 800 uses the ERP system 10 according to an embodiment of the present invention, the customer may be located in the same space as the user 40, so when considering customer response, the chatbot function in voice form It may not be easy to activate. In addition to the voice form, the present invention enables activation of the chatbot function using the smart watch 31 and/or the electronic pen 32, so that information about items for sale can be requested from the artificial intelligence chatbot module 119 in real time during customer service. You can.

도 9는 일 실시예에 따른 ERP 시스템(10)이 적용된 화상 회의 환경의 예시이다.Figure 9 is an example of a video conference environment to which the ERP system 10 according to an embodiment is applied.

도 9를 참조하면, 사용자(40)는 회의실(900)에서 본 발명의 일 실시예에 따른 ERP 시스템(10)에 접속할 수 있다. 사용자(40)는 전자 안경(20)을 착용한 채로 회의실(900)에서 프리젠테이션 회의(또는 화상 회의)에 참석중일 수 있다. 전자 안경(20)은 사용자(40) 입력을 수신하면, 사용자(40)가 회의실(900)에 위치한다는 위치 정보, 사용자(40)가 프리젠테이션의 특정 정보를 응시한다는 시선 정보(901), 및 사용자(40)가 음성 명령으로 "저거는 뭐지?"라는 발화를 하였다는 음성 정보 중에서 적어도 하나를 감지할 수 있고, 이를 데이터화할 수 있다.Referring to FIG. 9, a user 40 can access the ERP system 10 according to an embodiment of the present invention in the conference room 900. The user 40 may be attending a presentation meeting (or video conference) in the conference room 900 while wearing the electronic glasses 20 . When the electronic glasses 20 receive an input from the user 40, the electronic glasses 20 generate location information indicating that the user 40 is located in the conference room 900, gaze information 901 indicating that the user 40 is looking at specific information in the presentation, and At least one piece of voice information indicating that the user 40 uttered “What is that?” through a voice command can be detected, and this can be converted into data.

전자 안경(20)은 생성된 데이터를 인공 지능 챗봇 모듈(119)로 전송하고, 인공 지능 챗봇 모듈(119)은 사용자(40)가 회의실(900)에 위치한다는 위치 정보, 사용자(40)가 프리젠테이션의 특정 정보를 응시한다는 시선 정보(901), 및 사용자(40)가 음성 명령으로 "저거는 뭐지?"라는 발화를 하였다는 음성 정보 중에서 적어도 하나에 기반하여 분석 데이터들을 생성할 수 있다. 인공 지능 챗봇 모듈(119)은 분선 데이터들을 전자 안경(20)으로 피드백할 수 있다.The electronic glasses 20 transmit the generated data to the artificial intelligence chatbot module 119, and the artificial intelligence chatbot module 119 provides location information that the user 40 is located in the conference room 900 and the user 40's presentation. Analysis data may be generated based on at least one of gaze information 901 indicating that the user 40 is gazing at specific information in the station, and voice information indicating that the user 40 uttered “What is that?” through a voice command. The artificial intelligence chatbot module 119 can feed back segment data to the electronic glasses 20.

전자 안경(20)은 증강 현실의 형태로 특정 정보(예: 보고서)를 음성 형태의 대화형 메시지로 출력함과 아울러 화면 인터페이스(902)를 렌즈의 적어도 일부분을 통해 표시할 수 있다.The electronic glasses 20 can output specific information (eg, a report) as an interactive message in the form of voice in the form of augmented reality and display the screen interface 902 through at least a portion of the lens.

이와 같이, 사용자(40)는 회의실(900)에서, 특정 오브젝트를 응시한 채로 사용자(40) 입력을 트리거하는 것만으로도 증강 현실 형태의 화면 인터페이스(902) 및 대화형 메시지로 회의에서 논의되는 기업 전반의 정보를 획득할 수 있다.In this way, the user 40 can use the screen interface 902 in the form of augmented reality and an interactive message to view the company discussed in the meeting by simply triggering the user 40 input while gazing at a specific object in the conference room 900. You can obtain overall information.

특히, 회의실(900)에서 회의중에 본 발명의 일 실시예에 따른 ERP 시스템(10)을 이용하는 경우, 기업의 여러 임직원들이 사용자(40)와 같은 공간에 위치하여 대화중인 상태이므로, 발언 중인 다른 임직원의 상황을 고려할 때, 음성 형태로 챗봇 기능을 활성화하는 것이 용이하지 않을 수 있다. 본 발명은 음성 형태 이외에도, 스마트 워치(31) 및/또는 전자 펜(32)을 이용한 챗봇 기능의 활성화가 가능하므로, 실시간으로 회의에서 논의되는 기업 전반의 정보를 인공 지능 챗봇 모듈(119)에게 요청할 수 있다.In particular, when using the ERP system 10 according to an embodiment of the present invention during a meeting in the conference room 900, several executives and employees of the company are located in the same space as the user 40 and are talking, so other executives and employees who are speaking Considering the situation, it may not be easy to activate the chatbot function in voice form. In addition to the voice form, the present invention enables activation of the chatbot function using the smart watch 31 and/or the electronic pen 32, so that information about the overall company discussed in the meeting can be requested from the artificial intelligence chatbot module 119 in real time. You can.

상기에서는 본 발명을 특정의 바람직한 일 실시예에 관련하여 도시하고 설명하였지만, 이하의 특허청구범위에 의해 마련되는 본 발명의 기술적 특징이나 분야를 이탈하지 않는 한도 내에서 본 발명이 다양하게 개조 및 변화될 수 있다는 것은 당업계에서 통상의 지식을 가진 자에게 명백한 것이다.Although the present invention has been shown and described in relation to a specific preferred embodiment in the above, the present invention can be modified and changed in various ways without departing from the technical features or field of the present invention defined by the following claims. It is obvious to those skilled in the art that this can be done.

10: ERP 시스템
20: 전자 안경
30: 외부 장치
40: 사용자
10: ERP system
20: electronic glasses
30: external device
40: user

Claims (6)

증강 현실 안경 및 증강 현실 안경과 연동하도록 구성된 인공 지능 챗봇 모듈을 포함하는 ERP 시스템에 있어서,
증강 현실 안경은, 인공 지능 챗봇 모듈에 의해 생성된 응답 메시지를 음성 형태로 출력하는 스피커, 사용자의 발화 또는 사용자의 음성을 수신하는 마이크, 인공 지능 챗봇 모듈에 의해 생성된 화면 인터페이스를 렌즈의 적어도 일부분을 통해 표시하도록 구성된 디스플레이 모듈, 사용자의 시선을 실시간으로 추적하는 시선 추적 센서, GPS 모듈을 포함하여 사용자가 위치한 장소를 식별하는 위치 센서, 사용자의 시선이 머무는 오브젝트와 사용자 간의 거리를 측정하는 거리 센서, 사용자의 전방을 촬영하기 위한 카메라 모듈, ERP 시스템 및 외부 장치와 통신하기 위한 제 1 통신 모듈 중 적어도 하나 이상을 포함하고,
사용자 입력에 응답하여 대화형 인공 지능 서비스인 챗봇 기능을 활성화하고, 챗봇 기능이 활성화되면 사용자의 음성, 위치, 및 시선을 감지한 데이터를 인공 지능 챗봇 모듈로 전송하도록 구성되고,
인공 지능 챗봇 모듈은, 데이터에 기반하여 사용자의 의도들을 추정하고, ERP 시스템의 데이터베이스에 접속하여 추정된 사용자의 의도들에 대응하는 로우 데이터들을 검색하고, 검색된 로우 데이터들을 분석하여 대화형 응답 메시지 및 대화형 응답 메시지에 대응하는 화면 인터페이스를 포함하는 분석 데이터들을 생성하고, 생성된 분석 데이터들을 증강 현실 안경으로 전송하고,
증강 현실 안경은, 인공 지능 챗봇 모듈로부터 전송된 분석 데이터들에 기반하여, 대화형 응답 메시지를 음성 형태로 출력하고, 대화형 응답 메시지가 출력되는 것에 동기하여 화면 인터페이스를 렌즈의 적어도 일부분을 통해 표시하도록 구성되고,
챗봇 기능을 활성화하는 사용자 입력은, 증강 현실 안경의 다리의 일부분을 지정된 패턴으로 두드리는 입력, 사용자가 지정된 패턴으로 눈을 깜박이는 동작, 사용자가 지정된 패턴으로 머리를 흔드는 동작, 및 사용자가 증강 현실 안경과 블루투스 통신으로 페어링된 외부 장치에 포함된 버튼을 누르는 동작을 포함하고,
외부 장치는 사용자가 착용하는 스마트 워치 및 전자 펜을 포함하고,
챗봇 기능을 활성화하는 사용자 입력은, 사용자가 회의실에서 회의중인 동안에 감지되는 사용자 입력으로서, 스마트 워치에 포함된 물리 버튼을 누르는 동작, 스마트 워치의 화면을 지정된 패턴으로 두드리는 동작, 사용자가 스마트 워치를 착용한 채로 손을 지정된 패턴으로 흔드는 동작, 전자 펜에 포함된 물리 버튼을 누르는 동작, 전자 펜의 본체를 지정된 패턴으로 두드리는 동작, 및 전자 펜을 지정된 패턴으로 흔드는 동작을 더 포함하고,
전자 펜은, 증강 현실 안경이 화면 인터페이스를 표시하는 동안에, 화면 인터페이스에 포함된 적어도 일부 정보들을 자신의 화면을 통해 표시하도록 설정되되;
스마트 워치는,
증강 현실 안경이 화면 인터페이스를 표시하는 동안에, 화면 인터페이스에 포함된 적어도 일부 정보들을 자신의 화면을 통해 표시하도록 설정되고,
증강 현실 안경은, 사용자 입력을 수신하여 챗봇 기능을 활성화하기 이전에, 사용자의 위치를 실시간으로 식별하고, 식별된 위치에 관련한 위치 정보를 인공 지능 챗봇 모듈로 미리 전송하고,
인공 지능 챗봇 모듈은 증강 현실 안경으로부터 실시간 전송된 위치 정보에 기반하여, 데이터베이스로부터 위치 정보에 관련한 로우 데이터들을 미리 추출하고, 위치 정보에 관련한 로우 데이터들을 미리 추출한 이후에 챗봇 기능이 활성화되면, 미리 추출된 로우 데이터들을 이용하여 분석 데이터들을 생성하도록 설정된,
ERP 시스템.
In the ERP system including augmented reality glasses and an artificial intelligence chatbot module configured to interoperate with the augmented reality glasses,
Augmented reality glasses include a speaker that outputs a response message generated by an artificial intelligence chatbot module in voice form, a microphone that receives the user's utterance or the user's voice, and a screen interface generated by the artificial intelligence chatbot module as at least a portion of the lens. A display module configured to display through a display module, an eye-tracking sensor that tracks the user's gaze in real time, a location sensor that includes a GPS module to identify where the user is located, and a distance sensor that measures the distance between the user and the object on which the user's gaze rests. , It includes at least one of a camera module for photographing the front of the user, an ERP system, and a first communication module for communicating with an external device,
It is configured to activate the chatbot function, which is an interactive artificial intelligence service, in response to user input, and when the chatbot function is activated, transmit data that detects the user's voice, location, and gaze to the artificial intelligence chatbot module,
The artificial intelligence chatbot module estimates the user's intentions based on data, connects to the database of the ERP system, searches raw data corresponding to the estimated user's intentions, and analyzes the retrieved raw data to create an interactive response message and Generating analysis data including a screen interface corresponding to the interactive response message, transmitting the generated analysis data to augmented reality glasses,
Augmented reality glasses output an interactive response message in voice form based on analysis data transmitted from an artificial intelligence chatbot module, and display a screen interface through at least a portion of the lens in synchronization with the output of the interactive response message. It is configured to
User input that activates the chatbot function includes tapping a portion of the leg of the augmented reality glasses in a specified pattern, the user blinking the eyes in a specified pattern, the user shaking the head in a specified pattern, and the user using the augmented reality glasses. and an action of pressing a button included in an external device paired through Bluetooth communication,
External devices include smart watches and electronic pens worn by the user,
The user input that activates the chatbot function is the user input detected while the user is in a meeting in a conference room, such as pressing the physical button included in the smart watch, tapping the screen of the smart watch in a designated pattern, or the user wearing the smart watch. The motion further includes shaking the hand in a designated pattern, pressing a physical button included in the electronic pen, tapping the body of the electronic pen in a designated pattern, and shaking the electronic pen in a designated pattern,
The electronic pen is set to display at least some information included in the screen interface through its screen while the augmented reality glasses display the screen interface;
Smart watch,
While the augmented reality glasses display the screen interface, they are set to display at least some information included in the screen interface through their screen,
Before receiving user input and activating the chatbot function, the augmented reality glasses identify the user's location in real time and transmit location information related to the identified location to the artificial intelligence chatbot module in advance.
The artificial intelligence chatbot module extracts raw data related to location information from the database in advance based on location information transmitted in real time from the augmented reality glasses, and extracts raw data related to location information in advance when the chatbot function is activated. Set to generate analysis data using raw data,
ERP system.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020230059111A 2023-05-08 2023-05-08 Enterprise resource planning system based on artificial intelligence KR102612833B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230059111A KR102612833B1 (en) 2023-05-08 2023-05-08 Enterprise resource planning system based on artificial intelligence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230059111A KR102612833B1 (en) 2023-05-08 2023-05-08 Enterprise resource planning system based on artificial intelligence

Publications (1)

Publication Number Publication Date
KR102612833B1 true KR102612833B1 (en) 2023-12-14

Family

ID=89166864

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230059111A KR102612833B1 (en) 2023-05-08 2023-05-08 Enterprise resource planning system based on artificial intelligence

Country Status (1)

Country Link
KR (1) KR102612833B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200048201A (en) * 2018-10-29 2020-05-08 삼성전자주식회사 Electronic device and Method for controlling the electronic device thereof
KR20200058729A (en) * 2018-11-20 2020-05-28 주식회사 케이티 Method, Electronic Apparatus and System for Providing of Management Support Service
KR20220005348A (en) * 2020-07-06 2022-01-13 삼성전자주식회사 Method for providing screen in artificial intelligence virtual assistant service and user terminal device and server for supporting the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200048201A (en) * 2018-10-29 2020-05-08 삼성전자주식회사 Electronic device and Method for controlling the electronic device thereof
KR20200058729A (en) * 2018-11-20 2020-05-28 주식회사 케이티 Method, Electronic Apparatus and System for Providing of Management Support Service
KR20220005348A (en) * 2020-07-06 2022-01-13 삼성전자주식회사 Method for providing screen in artificial intelligence virtual assistant service and user terminal device and server for supporting the same

Similar Documents

Publication Publication Date Title
US11720941B2 (en) Real-time internet capable device information interchange for coordinated queuing at locations
US10306060B1 (en) Call center interface
US10832274B1 (en) Automated teller machine (ATM) interface
US11798062B2 (en) Customized e-commerce tags in realtime multimedia content
US11455600B1 (en) Mobile device interface
JPH08147363A (en) On-line interactive service method and system
TW201218059A (en) System and method for customizing real-time applications on a user interface
CN110134806A (en) The method and system of context user profile photo selection
US20220076323A1 (en) E-Commerce Tags in Multimedia Content
US11983675B2 (en) User interface component generation using service and/or duration information
US11120496B2 (en) Providing augmented reality user interfaces and controlling back-office data processing systems based on augmented reality events
CN116018608A (en) Electronic commerce label in multimedia content
US20240012940A1 (en) System for inquiring, gathering, privately storing, brokering, and requesting deletion of personal data from third party entities
KR102612833B1 (en) Enterprise resource planning system based on artificial intelligence
US20230177777A1 (en) Systems and methods for enhanced augmented reality emulation based on historical data
Porcelli et al. Innovating product-service systems through Augmented Reality: a selection model
US20230177776A1 (en) Systems and methods for enhanced augmented reality emulation for user interaction
TWM572518U (en) Automated online customer service system
TWI718400B (en) Automated online customer service system and method thereof
US20240161178A1 (en) Extended reality storefronts

Legal Events

Date Code Title Description
AMND Amendment
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant