KR20220121637A - Electronic device and operating method for the same - Google Patents

Electronic device and operating method for the same Download PDF

Info

Publication number
KR20220121637A
KR20220121637A KR1020210025972A KR20210025972A KR20220121637A KR 20220121637 A KR20220121637 A KR 20220121637A KR 1020210025972 A KR1020210025972 A KR 1020210025972A KR 20210025972 A KR20210025972 A KR 20210025972A KR 20220121637 A KR20220121637 A KR 20220121637A
Authority
KR
South Korea
Prior art keywords
data
unit size
model
electronic device
unit
Prior art date
Application number
KR1020210025972A
Other languages
Korean (ko)
Inventor
박영한
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020210025972A priority Critical patent/KR20220121637A/en
Priority to PCT/KR2022/002666 priority patent/WO2022182135A1/en
Publication of KR20220121637A publication Critical patent/KR20220121637A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Input Circuits Of Receivers And Coupling Of Receivers And Audio Equipment (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to an electronic device which generates an AI model. The electronic device includes: a memory which stores one or more instructions; and a processor which executes the one or more instructions stored in the memory, wherein the processor obtains first data having a first unit size, determines a first random noise on the basis of the first unit size, and adds the first random noise to the first data to convert the first data into second data which does not have the first unit size, to obtain third data, and to generate an AI model on the basis of training data including the second data and the third data.

Description

전자 장치 및 그 동작방법{Electronic device and operating method for the same}Electronic device and operating method thereof

다양한 실시예들은 전자 장치 및 그 동작방법에 관한 것으로서, 더욱 상세하게는 전자 장치에서 센싱된 데이터와 외부 디바이스에서 센싱된 데이터를 이용하여, AI 모델을 생성하는 전자 장치 및 그 동작방법에 관한 것이다.Various embodiments relate to an electronic device and an operating method thereof, and more particularly, to an electronic device generating an AI model using data sensed by the electronic device and data sensed by an external device, and an operating method thereof.

인공지능(Artificial Intelligence, AI) 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기존 룰(Rule) 기반 스마트 시스템과 달리 기계가 스스로 학습하고 판단하며 똑똑해지는 시스템이다. 인공지능 시스템은 사용할수록 인식률이 향상되고 사용자 취향을 보다 정확하게 이해할 수 있게 되어, 기존 룰 기반 스마트 시스템은 점차 딥러닝 기반 인공지능 시스템으로 대체되고 있다.An artificial intelligence (AI) system is a computer system that implements human-level intelligence, and unlike the existing rule-based smart system, a machine learns, judges, and becomes smarter by itself. The more the AI system is used, the better the recognition rate and the more accurate understanding of user preferences, and the existing rule-based smart systems are gradually being replaced by deep learning-based AI systems.

인공지능 기술은 기계학습 및 기계학습을 활용한 요소 기술들로 구성된다. 기계학습은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘 기술이며, 딥러닝 등의 기계학습 알고리즘을 활용하여, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야로 구성된다.Artificial intelligence technology consists of machine learning and element technologies using machine learning. Machine learning is an algorithm technology that categorizes/learns the characteristics of input data by itself, and utilizes machine learning algorithms such as deep learning, and consists of technical fields such as linguistic understanding, visual understanding, reasoning/prediction, knowledge expression, and motion control. do.

인공지능 기술을 구현하기 위한 요소 기술들은, 인간의 언어/문자를 인식하는 언어적 이해 기술, 사물을 인간의 시각처럼 인식하는 시각적 이해 기술, 정보를 판단하여 논리적으로 추론하고 예측하는 추론/예측 기술, 인간의 경험 정보를 지식데이터로 처리하는 지식 표현 기술 및 차량의 자율 주행, 로봇의 움직임을 제어하는 동작 제어 기술 중 적어도 하나를 포함할 수 있다.The element technologies for realizing artificial intelligence technology are linguistic understanding technology that recognizes human language/text, visual understanding technology that recognizes objects as if they were human eyes, and reasoning/prediction technology that logically infers and predicts information by judging information. , it may include at least one of a knowledge expression technology that processes human experience information as knowledge data, an autonomous driving of a vehicle, and a motion control technology that controls the movement of a robot.

다양한 실시예들은, 서로 다른 단위 크기를 가지는 데이터들을 이용하여, 트리 구조 기반의 분류 모델을 훈련시킬 수 있는 전자 장치 및 그 동작방법을 제공할 수 있다.Various embodiments may provide an electronic device capable of training a tree structure-based classification model using data having different unit sizes, and an operating method thereof.

일 실시예에 따른 AI 모델을 생성하는 전자 장치는 하나 이상의 인스트럭션들을 저장하는 메모리 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행하는 프로세서를 포함하고, 상기 프로세서는, 제1 단위 크기를 가지는 제1 데이터를 획득하고, 상기 제1 단위 크기에 기초하여, 제1 랜덤 노이즈를 결정하고, 상기 제1 데이터에 상기 제1 랜덤 노이즈를 합산함으로써, 상기 제1 데이터를 상기 제1 단위 크기를 가지지 않는 제2 데이터로 변환하고, 제3 데이터를 획득하며, 상기 제2 데이터와 상기 제3 데이터를 포함하는 훈련 데이터에 기초하여, AI 모델을 생성할 수 있다.An electronic device for generating an AI model according to an embodiment includes a memory storing one or more instructions and a processor executing the one or more instructions stored in the memory, wherein the processor includes: first data having a first unit size , determining a first random noise based on the first unit size, and adding the first random noise to the first data, thereby converting the first data to a second data not having the first unit size. The data may be converted into data, third data may be obtained, and an AI model may be generated based on training data including the second data and the third data.

일 실시예에 따른 프로세서는, 제2 단위 크기를 가지는 제4 데이터를 획득하고, 상기 제4 데이터를 상기 제2 단위 크기에 기초하여 제2 랜덤 노이즈를 결정하고, 상기 제4 데이터에 상기 제2 랜덤 노이즈를 합산함으로써, 상기 제2 단위 크기를 가지지 않는 상기 제3 데이터를 획득할 수 있다.The processor according to an embodiment may obtain fourth data having a second unit size, determine a second random noise based on the fourth data based on the second unit size, and add the second random noise to the fourth data. By summing random noise, the third data not having the second unit size may be obtained.

일 실시예에 따른 전자 장치는, 상기 제1 데이터를 센싱하는 센싱부를 더 포함할 수 있다.The electronic device according to an embodiment may further include a sensing unit configured to sense the first data.

일 실시예에 따른 전자 장치는, 디스플레이를 더 포함하고, 상기 프로세서는, 상기 제1 데이터를 센싱하기 위한 가이드 화면을 상기 디스플레이에 표시하도록 제어할 수 있다.The electronic device according to an embodiment may further include a display, and the processor may control to display a guide screen for sensing the first data on the display.

일 실시예에 따른 전자 장치는, 상기 제3 데이터를 외부 장치로부터 수신하는 통신부를 더 포함할 수 있다.The electronic device according to an embodiment may further include a communication unit configured to receive the third data from an external device.

일 실시예에 따른 AI 모델은 트리 구조 기반의 인증 모델이며, 상기 프로세서는, 상기 제2 데이터를 사용자 데이터로, 상기 제3 데이터를 타인 데이터로 설정하여, 상기 AI 모델을 훈련시킬 수 있다.The AI model according to an embodiment is a tree structure-based authentication model, and the processor may train the AI model by setting the second data as user data and the third data as data of others.

일 실시예에 따른 프로세서는, 상기 AI 모델을 이용하여, 상기 전자 장치에서 센싱되는 데이터가 상기 전자 장치 사용자의 데이터인지 아닌지를 결정할 수 있다.The processor according to an embodiment may determine whether the data sensed by the electronic device is data of the user of the electronic device using the AI model.

일 실시예에 따른 AI 모델을 생성하는 전자 장치의 동작방법은, 제1 단위 크기를 가지는 제1 데이터를 획득하는 단계, 상기 제1 단위 크기에 기초하여, 제1 랜덤 노이즈를 결정하는 단계, 상기 제1 데이터에 상기 제1 랜덤 노이즈를 합산함으로써, 상기 제1 데이터를 상기 제1 단위 크기를 가지지 않는 제2 데이터로 변환하는 단계, 제3 데이터를 획득하는 단계, 및 상기 제2 데이터와 상기 제3 데이터를 포함하는 훈련 데이터에 기초하여, AI 모델을 생성하는 단계를 포함할 수 있다.According to an embodiment, a method of operating an electronic device for generating an AI model includes: acquiring first data having a first unit size; determining a first random noise based on the first unit size; converting the first data into second data not having the first unit size by adding the first random noise to first data; obtaining third data; and the second data and the second data 3, based on the training data including the data, generating an AI model.

일 실시예에 따른 전자 장치는 제1 단위 크기의 배수로 나타나는 불연속적인 값들을 포함하는 제1 데이터와 제2 단위 크기의 배수로 나타나는 불연속적인 값들을 포함하는 제2 데이터를 연속적인 값들을 포함하는 데이터로 변환하여, AI 분류 모델을 훈련시킴으로써, AI 모델이 데이터의 단위 크기의 특성에 따라 분류하는 방향으로 훈련되는 것을 방지할 수 있다.The electronic device according to an embodiment converts first data including discrete values represented by a multiple of a first unit size and second data including discrete values represented by a multiple of a second unit size to data including continuous values. By transforming and training the AI classification model, it is possible to prevent the AI model from being trained in the direction of classification according to the characteristics of the unit size of the data.

또한, 일 실시예에 따른 전자 장치는 전자 장치에서 센싱된 데이터뿐만 아니라 외부 장치들로부터 수집된 다양한 특성 정보를 가지는 데이터 기초하여, AI 모델을 훈련시키거나 업데이트하므로, AI 모델의 성능(정확도)이 증가할 수 있다.In addition, since the electronic device according to an embodiment trains or updates the AI model based on data having various characteristic information collected from external devices as well as data sensed by the electronic device, the performance (accuracy) of the AI model is improved. can increase

도 1은 일 실시예에 따른 제1 디바이스가 외부 디바이스들에서 획득된 훈련 데이터를 이용하여, AI 모델을 생성하는 방법을 나타내는 도면이다.
도 2는 일 실시예에 따른 제1 디바이스와 제2 디바이스의 구성을 나타내는 블록도이다.
도 3 및 도 4는 일 실시예에 따른 데이터 처리부가 데이터를 변환하고, 변환된 데이터에 기초하여, AI 모델을 훈련시키는 방법을 설명하기 위해 참조되는 도면들이다.
도 5는 일 실시예에 따른 제1 디바이스와 제2 디바이스의 동작 방법을 나타내는 흐름도이다.
도 6은 일 실시예에 따른 제1 디바이스의 동작 방법을 나타내는 흐름도이다.
도 7은 일 실시예에 따른 제1 디바이스가 제1 데이터를 수집하기 위하여 출력하는 가이드 화면의 일 예를 나타낸다.
도 8은 일 실시예에 따른 제1 디바이스가 AI 모델을 이용하여 인증을 수행하는 방법을 설명하기 위해 참조되는 도면이다.
도 9는 다른 실시예에 따른 제1 디바이스의 구성을 나타내는 블록도이다.
1 is a diagram illustrating a method in which a first device generates an AI model by using training data obtained from external devices, according to an embodiment.
2 is a block diagram illustrating a configuration of a first device and a second device according to an exemplary embodiment.
3 and 4 are diagrams referenced to describe a method of a data processing unit converting data and training an AI model based on the transformed data according to an embodiment.
5 is a flowchart illustrating a method of operating a first device and a second device according to an exemplary embodiment.
6 is a flowchart illustrating a method of operating a first device according to an exemplary embodiment.
7 illustrates an example of a guide screen output by the first device to collect first data according to an embodiment.
FIG. 8 is a diagram referenced to describe a method in which a first device performs authentication using an AI model according to an exemplary embodiment.
9 is a block diagram illustrating a configuration of a first device according to another exemplary embodiment.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.Terms used in this specification will be briefly described, and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present invention have been selected as currently widely used general terms as possible while considering the functions in the present invention, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than the name of a simple term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In the entire specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated. In addition, terms such as "...unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software. .

아래에서는 첨부한 도면을 참고하여 실시예들에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art to which the present invention pertains can easily implement them. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

본 명세서의 실시예에서 "사용자"라는 용어는 전자 장치, 시스템 등의 기능 또는 동작을 제어하는 사람을 의미하며, 개발자, 관리자 또는 설치 기사를 포함할 수 있다.In the embodiment of the present specification, the term “user” refers to a person who controls functions or operations of an electronic device, a system, etc., and may include a developer, an administrator, or an installer.

도 1은 일 실시예에 따른 제1 디바이스가 외부 디바이스들에서 획득된 훈련 데이터를 이용하여, AI 모델을 생성하는 방법을 나타내는 도면이다.1 is a diagram illustrating a method in which a first device generates an AI model by using training data obtained from external devices, according to an embodiment.

일 실시예에 따른 제1 디바이스(100)는 제1 디바이스(100)에서 센싱된 데이터 및 외부 디바이스들(200, 300)로부터 수집된 데이터를 훈련 데이터로 이용하여, AI 모델(50)을 생성하는 전자 장치일 수 있다.The first device 100 according to an embodiment generates an AI model 50 by using data sensed by the first device 100 and data collected from external devices 200 and 300 as training data. It may be an electronic device.

일 실시예에 따른 제1 디바이스(100) 및 외부 디바이스들(200, 300)은, 휴대폰, 태블릿 PC, 디지털 카메라, 캠코더, 노트북 컴퓨터(laptop computer), 태블릿 PC, 데스크탑, 전자책 단말기, 디지털 방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션, MP3 플레이어, 캠코더, IPTV(Internet Protocol Television), DTV(Digital Television), 착용형 기기(wearable device) 등과 같은 다양한 전자 장치로 구현될 수 있다.The first device 100 and the external devices 200 and 300 according to an embodiment are, for example, a mobile phone, a tablet PC, a digital camera, a camcorder, a laptop computer, a tablet PC, a desktop computer, an e-book terminal, and digital broadcasting. Implemented in various electronic devices such as terminals, PDA (Personal Digital Assistants), PMP (Portable Multimedia Player), navigation, MP3 player, camcorder, IPTV (Internet Protocol Television), DTV (Digital Television), wearable device, etc. can be

일 실시예에 따른 제1 디바이스(100)는 제1 디바이스 사용자(이하, '제1 사용자'라 한다)의 데이터를 센싱할 수 있다. 예를 들어, 제1 디바이스(100)는 터치 센서, 이미지 센서(카메라), 위치 센서(예를 들어, GPS), 가속도 센서, 자이로스코프 센서, 마이크로폰, 지자기 센서, 온/습도 센서 중 적어도 하나를 포함하는 센싱부를 포함할 수 있다. 제1 디바이스(100)는 센싱부를 이용하여, 제1 사용자에 대한 데이터(이하, '제1 데이터'라 한다)를 센싱할 수 있다.The first device 100 according to an embodiment may sense data of a first device user (hereinafter, referred to as a 'first user'). For example, the first device 100 may include at least one of a touch sensor, an image sensor (camera), a location sensor (eg, GPS), an acceleration sensor, a gyroscope sensor, a microphone, a geomagnetic sensor, and a temperature/humidity sensor. It may include a sensing unit including a. The first device 100 may sense data about the first user (hereinafter, referred to as 'first data') by using the sensing unit.

도 1에서는 제1 디바이스(100)가 터치 센서를 이용하여, 제1 사용자의 터치 정보(터치 데이터)를 획득하는 예를 도시하였으나, 이에 한정되지 않으며, 제1 디바이스(100)는 다양한 센서들을 이용하여, 다양한 데이터를 센싱할 수 있다.1 illustrates an example in which the first device 100 obtains touch information (touch data) of the first user by using a touch sensor, but is not limited thereto, and the first device 100 uses various sensors Thus, various data can be sensed.

이때, 제1 디바이스(100)에서 센싱되는 제1 데이터(D1)는 제1 단위 크기(U1)를 가질 수 있다. 예를 들어, 제1 디바이스(100)에서 센싱되는 데이터는 제1 단위 크기(U1)의 배수로 나타나는 불연속적인 값들을 포함할 수 있다.In this case, the first data D1 sensed by the first device 100 may have a first unit size U1. For example, data sensed by the first device 100 may include discrete values that appear as multiples of the first unit size U1.

또한, 외부 디바이스들(200, 300)도 각각 센서를 이용하여, 사용자 데이터를 센싱할 수 있다. 예를 들어, 제2 디바이스(200)는 제2 디바이스 사용자에 대한 데이터(이하, '제2 데이터'라 한다)를 센싱할 수 있으며, 제3 디바이스(300)는 제3 디바이스 사용자에 대한 데이터(이하, '제3 데이터'라 한다)를 센싱할 수 있다.In addition, the external devices 200 and 300 may sense user data by using a sensor, respectively. For example, the second device 200 may sense data for the second device user (hereinafter, referred to as 'second data'), and the third device 300 may Hereinafter, referred to as 'third data') may be sensed.

이때, 제2 디바이스(200) 및 제3 디바이스(300)는 제1 디바이스(100)와 종류 또는 버전이 상이한 기기들일 수 있으며, 이에 따라, 센서들의 종류 및 사이즈가 제1 디바이스(100)의 센서들과 상이할 수 있으며, 센서들에서 센싱되는 데이터들의 단위 크기도 제1 디바이스(100)의 제1 단위 크기와 상이한 단위 크기를 가질 수 있다.In this case, the second device 200 and the third device 300 may be devices having different types or versions from the first device 100 , and accordingly, the types and sizes of the sensors are the sensors of the first device 100 . may be different from each other, and the unit size of data sensed by the sensors may also have a unit size different from the first unit size of the first device 100 .

예를 들어, 제2 디바이스(200)에서 센싱된 제2 데이터(D2)는 제2 단위 크기(U2)를 가질 수 있으며, 제2 데이터(D2)는 제2 단위 크기(U2)의 배수로 나타나는 불연속적인 값들을 포함한다. 또한, 제3 디바이스(300)에 센싱된 제3 데이터(D3)는 제3 단위 크기(U3)를 가질 수 있으며, 제3 데이터(D3)는 제3 단위 크기(U3)의 배수로 나타나는 불연속적인 값들을 포함한다.For example, the second data D2 sensed by the second device 200 may have a second unit size U2, and the second data D2 is discontinuous in multiples of the second unit size U2. contains negative values. In addition, the third data D3 sensed by the third device 300 may have a third unit size U3 , and the third data D3 is a discontinuous value that appears as a multiple of the third unit size U3 . include those

일 실시예에 따른 제1 디바이스(100)는 제1 디바이스(100)에서 센싱된 제1 데이터(D1)와 제2 디바이스(200) 및 제3 디바이스(300)로부터 수집한 제2 데이터(D2) 및 제3 데이터(D3)를 이용하여, 제1 디바이스 사용자를 인증하는 AI 모델(50)을 생성할 수 있다. 예를 들어, 제1 디바이스(100)는 제1 데이터(D1) 사용자 데이터(genuine user data)로, 외부 디바이스들(200, 300)에서 수집된 제2 데이터(D2) 및 제3 데이터(D3)를 타인 데이터(imposter data)로 훈련시킴으로써, AI 모델(50)을 생성할 수 있다.The first device 100 according to an embodiment includes first data D1 sensed by the first device 100 and second data D2 collected from the second device 200 and the third device 300 . And by using the third data D3, the AI model 50 for authenticating the first device user may be generated. For example, the first device 100 includes the first data D1 as generic user data, and the second data D2 and the third data D3 collected from the external devices 200 and 300 . By training with imposter data, the AI model 50 can be generated.

일 실시예에 따른 AI 모델(50)은 트리 구조 기반의 분류 모델일 수 있다. 이에 따라, 제1 디바이스(100)는 훈련된 AI 모델(50)을 이용하여, 입력된 데이터(예를 들어, 디바이스에서 센싱된 데이터)가 디바이스 사용자의 데이터인지 아닌지를 결정하고, 디바이스 사용자를 인증할 수 있다.The AI model 50 according to an embodiment may be a tree structure-based classification model. Accordingly, the first device 100 uses the trained AI model 50 to determine whether input data (eg, data sensed by the device) is device user data or not, and authenticates the device user. can do.

일 실시예에 따른 제1 디바이스(100)가 제1 단위 크기의 배수로 나타나는 제1 데이터를 사용자 데이터로 제2 단위 크기 또는 제3 단위 크기의 배수로 나타나는 제2 데이터 또는 제3 데이터를 타인 데이터로 분류하도록 AI 모델(50)을 훈련시키면, AI 모델(50)은 데이터의 단위 크기 특성에 의해 훈련되고, 데이터의 단위 크기에 따라, 데이터를 분류하도록 훈련될 수 있다. 예를 들어, 상기와 같이 훈련된 AI 모델(50)은 입력 데이터가 제1 단위 크기를 가지면(제1 단위 크기의 배수로 나타내면) 사용자 데이터로, 입력 데이터가 제1 단위 크기가 아닌 다른 단위 크기를 가지면(제1 단위 크기가 아닌 다른 단위 크기의 배수로 나타나면) 사용자가 아닌 타인 데이터로 분류할 수 있다.The first device 100 according to an embodiment classifies first data represented by a multiple of the first unit size as user data, and second data or third data represented by a multiple of the second unit size or third unit size as other data. When the AI model 50 is trained to do this, the AI model 50 can be trained by the unit size characteristic of the data, and can be trained to classify the data according to the unit size of the data. For example, the AI model 50 trained as described above is user data if the input data has a first unit size (expressed as a multiple of the first unit size), and the input data has a unit size other than the first unit size. If it has (appears as a multiple of a unit size other than the first unit size), it can be classified as data other than the user.

이에 따라, 제1 디바이스(100) 사용자가 아닌 사람이 제1 디바이스(100)를 터치하는 경우에, 제1 단위 크기를 가지는 터치 데이터(제1 단위 크기의 배수로 나타남)가 입력되게 되고, 상기와 같이 훈련된 AI 모델은 입력된 터치 데이터를 사용자 데이터로 분류하게 된다. 따라서, 상기와 같이 훈련된 AI 모델을 이용하여 제1 디바이스 사용자를 인증할 수 없게 되는 문제점이 있다.Accordingly, when a person other than the user of the first device 100 touches the first device 100 , touch data having a first unit size (represented as a multiple of the first unit size) is input, and the above and The AI model trained together classifies the input touch data as user data. Accordingly, there is a problem in that the first device user cannot be authenticated using the AI model trained as described above.

또한, 제1 디바이스(100)에서 제1 사용자를 사용자 데이터로 분류하도록 훈련된 AI 모델을, 제1 단위 크기와 다른 단위 크기를 가지는 다른 디바이스에서 제1 사용자를 인증하는 데 이용할 수 없다. 예를 들어, 다른 디바이스가 제2 단위 크기를 가지는 경우, 제1 사용자가 다른 디바이스를 터치하는 경우에 제2 단위 크기를 가지는 터치 데이터가 입력되게 되고, 제1 디바이스(100)에서 훈련된 AI 모델은 입력된 제1 사용자에 의해 입력된 터치 데이터를 사용자 데이터가 아닌 타인 데이터로 분류하게 되는 문제점이 있다.Also, the AI model trained to classify the first user as user data in the first device 100 cannot be used to authenticate the first user in another device having a unit size different from the first unit size. For example, when another device has a second unit size, when the first user touches another device, touch data having a second unit size is input, and the AI model trained in the first device 100 is There is a problem in that the input touch data input by the first user is classified as data other than the user data.

따라서, 일 실시예에 따른 제1 디바이스(100)는 AI 모델에 입력되는 데이터가 단위 크기 특성에 의해 분류되는 것을 방지하기 위해, 단위 크기를 가지지 않도록 변환된 데이터를 이용하여, AI 모델을 훈련시킬 수 있다.Therefore, in order to prevent the data input to the AI model from being classified by the unit size characteristic, the first device 100 according to an embodiment trains the AI model using the converted data so as not to have a unit size. can

일 실시예에 따른 제1 디바이스(100)는 제1 데이터(D1)를 제1 단위 크기(U1)에 기초하여 변환하고, 제1 디바이스(100) 또는 외부 디바이스들(200, 300)은 제2 데이터(D2)를 제2 단위 크기(U2)에 기초하여 변환하며, 제3 데이터(D3)를 제3 단위 크기(U3)에 기초하여 변환할 수 있다. 제1 디바이스(100)는 변환된 제1 내지 제3 데이터를 훈련 데이터로 하여, AI 모델을 훈련시킬 수 있다. 이에 따라, AI 모델은 제1 내지 제3 데이터 각각의 특성 정보에 기초하여, 사용자 데이터 또는 타인 데이터로 분류하도록 훈련될 수 있다. 예를 들어, 터치 데이터에 대한 특성 정보는 터치 지점의 좌표 정보, 터치 강도 정보, 터치된 면적 정보 등을 포함할 수 있다.The first device 100 according to an embodiment converts the first data D1 based on the first unit size U1, and the first device 100 or the external devices 200 and 300 The data D2 may be converted based on the second unit size U2 , and the third data D3 may be converted based on the third unit size U3 . The first device 100 may train the AI model by using the converted first to third data as training data. Accordingly, the AI model may be trained to classify the data as user data or other data based on the characteristic information of each of the first to third data. For example, the characteristic information of the touch data may include coordinate information of a touch point, touch intensity information, touched area information, and the like.

훈련이 완료된 AI 모델은 입력 데이터의 특성 정보에 기초하여, 입력 데이터를 사용자 데이터 또는 타인 데이터로 분류할 수 있다. 이하, 도면들을 참조하여, 자세히 설명하기로 한다.The trained AI model may classify the input data into user data or other data based on characteristic information of the input data. Hereinafter, with reference to the drawings, it will be described in detail.

도 2는 일 실시예에 따른 제1 디바이스와 제2 디바이스의 구성을 나타내는 블록도이다.2 is a block diagram illustrating a configuration of a first device and a second device according to an exemplary embodiment.

도 2를 참조하면, 일 실시예에 따른 제1 디바이스(100) 및 제2 디바이스(200)는 서로 다른 종류 또는 서로 다른 버전의 전자 장치들일 수 있으며, 각각에서 센싱되는 데이터는 서로 다른 단위 크기를 가질 수 있다. 예를 들어, 제1 디바이스(100)에서 센싱되는 데이터는 제1 단위 크기를 가질 수 있으며, 제2 디바이스(200)에서 센싱되는 데이터는 제2 단위 크기를 가질 수 있다.Referring to FIG. 2 , the first device 100 and the second device 200 according to an embodiment may be different types or different versions of electronic devices, and data sensed in each may have different unit sizes. can have For example, data sensed by the first device 100 may have a first unit size, and data sensed by the second device 200 may have a second unit size.

일 실시예에 따른 제1 디바이스(100)는 센싱부(110), 데이터 처리부(120), 데이터 저장부(130), 통신부(140), 데이터 수집부(150) 및 AI 모델 생성부(160)를 포함할 수 있다.The first device 100 according to an embodiment includes a sensing unit 110 , a data processing unit 120 , a data storage unit 130 , a communication unit 140 , a data collection unit 150 , and an AI model generation unit 160 . may include.

일 실시예에 따른 센싱부(110)는 제1 디바이스(100)의 상태 또는 제1 디바이스(100) 주변의 상태를 센싱하고, 센싱된 데이터를 데이터 처리부(120)로 전달할 수 있다.The sensing unit 110 according to an embodiment may sense a state of the first device 100 or a state around the first device 100 , and transmit the sensed data to the data processing unit 120 .

센싱부(110)는 이미지 센서, 터치 센서, 가속도 센서(Acceleration sensor), 위치 센서(예컨대, GPS), 온/습도 센서, 지자기 센서, 자이로스코프 센서, 적외선 센서, 기압 센서, 및 근접 센서 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 센싱부(110)는 제1 디바이스 사용자(제1 사용자)의 터치 정보, 음성 정보, 위치 정보, 걸음 거리 정보 등(제1 데이터)을 센싱할 수 있다. 이때, 센싱된 제1 데이터는 제1 단위 크기를 가지며, 제1 단위 크기의 배수로 나타나는 불연속적인 값들을 포함할 수 있다.The sensing unit 110 may include at least one of an image sensor, a touch sensor, an acceleration sensor, a location sensor (eg, GPS), a temperature/humidity sensor, a geomagnetic sensor, a gyroscope sensor, an infrared sensor, a barometric pressure sensor, and a proximity sensor. It may include one, but is not limited thereto. The sensing unit 110 may sense touch information, voice information, location information, step distance information, and the like (first data) of the first device user (first user). In this case, the sensed first data may have a first unit size and include discrete values that appear as multiples of the first unit size.

데이터 처리부(120)는 센싱된 제1 데이터의 특성 정보를 획득할 수 있다. 예를 들어, 터치 데이터가 기 설정된 개수 이상 수집되면, 데이터 처리부(120)는 수집된 터치 데이터들을 분석하여 터치 데이터에 대한 특성 정보를 획득할 수 있다. 이때, 터치 데이터에 대한 특성 정보는, 터치 지점의 좌표 정보, 터치 강도 정보, 터치된 면적 정보 등을 포함할 수 있다. 이때, 터치 데이터에 대한 특성 정보도 제1 단위 크기를 가지며, 제1 단위 크기의 배수로 나타나는 불연속적인 값들을 포함할 수 있다.The data processing unit 120 may acquire characteristic information of the sensed first data. For example, when more than a preset number of touch data is collected, the data processing unit 120 may analyze the collected touch data to obtain characteristic information on the touch data. In this case, the characteristic information on the touch data may include coordinate information of the touch point, touch intensity information, touched area information, and the like. In this case, the characteristic information of the touch data may also have a first unit size and include discrete values that appear as multiples of the first unit size.

또한, 데이터 처리부(120)는 터치 데이터에 대한 특성 정보를 제1 단위 크기에 기초하여, 변환할 수 있다. 예를 들어, 데이터 처리부(120)는 제1 단위 크기에 기초하여 결정된 랜덤 노이즈를 제1 데이터의 특성 정보에 합산하여, 제1 변환 데이터를 생성할 수 있다. 이때, 제1 변환 데이터는 연속적인 값들을 포함할 수 있다.Also, the data processing unit 120 may convert the characteristic information of the touch data based on the first unit size. For example, the data processing unit 120 may generate the first converted data by adding the random noise determined based on the first unit size to the characteristic information of the first data. In this case, the first conversion data may include continuous values.

일 실시예에 따른 데이터 저장부(130)는 제1 변환 데이터를 저장할 수 있다.The data storage unit 130 according to an embodiment may store the first converted data.

또한, 일 실시예에 따른 데이터 저장부(130)는 외부 디바이스에서 수집된 데이터와 데이터에 대한 특성 정보를 데이터 베이스로 미리 저장할 수 있다. 이때, 외부 디바이스는 제1 디바이스(100)와 다른 종류, 다른 버전의 디바이스일 수 있다.In addition, the data storage unit 130 according to an embodiment may store data collected from an external device and characteristic information about the data in advance as a database. In this case, the external device may be a device of a different type and different version from that of the first device 100 .

일 실시예에 따른 데이터 수집부(150)는 AI 모델의 생성 또는 업데이트에 이용되는 훈련 데이터의 수집과 관련된 전반적인 동작들을 제어할 수 있다. 예를 들어, 데이터 수집부(150)는 훈련 데이터의 수집이 필요한 시점을 결정할 수 있으며, 결정된 시점 또는 주기적으로 외부 디바이스들로부터 훈련 데이터를 수집하도록 제어할 수 있다. 또는 데이터 수집부(150)는 외부 디바이스들로부터 수집된 데이터가 데이터 처리부(120)에서, 훈련 데이터에 적합하게 처리되도록 제어하거나, 데이터 저장부(130)에 저장되도록 제어할 수 있다.The data collection unit 150 according to an embodiment may control overall operations related to collection of training data used to generate or update an AI model. For example, the data collection unit 150 may determine a time point at which the collection of training data is required, and may control to collect the training data from external devices at the determined time point or periodically. Alternatively, the data collection unit 150 may control the data collected from the external devices to be properly processed by the data processing unit 120 for training data or to be stored in the data storage unit 130 .

일 실시예에 따른 통신부(140)는 외부 디바이스(예를 들어, 제2 디바이스(200))와 데이터 또는 신호를 송수신할 수 있다.The communication unit 140 according to an embodiment may transmit/receive data or signals to and from an external device (eg, the second device 200 ).

통신부(140)는 제1 디바이스(100)의 성능 및 구조에 대응하여, 근거리 통신부(short-range wireless communication unit), 이동 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. The communication unit 140 may include, but is not limited to, a short-range wireless communication unit, a mobile communication unit, and the like, in response to the performance and structure of the first device 100 .

근거리 통신부(short-range wireless communication unit)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부, 마이크로 웨이브(uWave) 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.Short-range wireless communication unit, Bluetooth communication unit, BLE (Bluetooth Low Energy) communication unit, near field communication unit (Near Field Communication unit), WLAN (Wi-Fi) communication unit, Zigbee communication unit, infrared (IrDA, infrared) It may include a data association) communication unit, a Wi-Fi Direct (WFD) communication unit, an ultra wideband (UWB) communication unit, an Ant+ communication unit, a microwave (uWave) communication unit, and the like, but is not limited thereto.

이동 통신부는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.The mobile communication unit transmits/receives a radio signal to and from at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include various types of data according to transmission/reception of a voice call signal, a video call signal, or a text/multimedia message.

일 실시예에 따른 통신부(140)는 제2 디바이스(200)로 데이터 요청을 전송할 수 있으며, 제2 디바이스(200)로부터 데이터를 수신할 수 있다. 예를 들어, 통신부(140)는 제2 디바이스(200)에서 센싱된 제2 디바이스 사용자의 데이터(제2 데이터), 제2 데이터에 대한 특성 정보, 또는 제2 데이터의 단위 크기 정보 등을 수신할 수 있다.The communication unit 140 according to an embodiment may transmit a data request to the second device 200 and may receive data from the second device 200 . For example, the communication unit 140 may receive the second device user's data (second data) sensed by the second device 200 , characteristic information about the second data, or unit size information of the second data. can

통신부(140)에서 수신된 제2 디바이스(200)로부터 수신된 제2 데이터 또는 제2 데이터에 대한 특성 정보가 제2 단위 크기를 가지는 불연속적인 값들을 포함하는 경우, 데이터 처리부(120)는 제2 데이터 또는 제2 데이터에 대한 특성 정보를 제2 단위 크기에 기초하여 변환할 수 있다. 데이터 처리부(120)는 제2 단위 크기에 기초하여 결정된 랜덤 노이즈를 제2 데이터의 특성 정보에 합산함으로써, 제2 변환 데이터를 생성할 수 있다. 제2 변환 데이터는 데이터 저장부(130)에 저장될 수 있다.When the second data received by the communication unit 140 or the characteristic information on the second data received from the second device 200 includes discrete values having a second unit size, the data processing unit 120 performs the second The data or characteristic information of the second data may be converted based on the second unit size. The data processing unit 120 may generate the second converted data by adding the random noise determined based on the second unit size to the characteristic information of the second data. The second converted data may be stored in the data storage unit 130 .

AI 모델 생성부(160)는 데이터 저장부(130)에 저장된 훈련 데이터에 기초하여, AI 모델을 생성할 수 있다. 이때, AI 모델은 사용자를 인증하는 인증 모델일 수 있으나, 이에 한정되지 않는다. 일 실시예에 따른 AI 모델은 트리 구조 기반의 분류 모델일 수 있다. AI 모델 생성부(160)는 제1 변환 데이터 및 제2 변환 데이터를 이용하여, AI 모델을 훈련시킬 수 있다.The AI model generation unit 160 may generate an AI model based on the training data stored in the data storage unit 130 . In this case, the AI model may be an authentication model for authenticating a user, but is not limited thereto. The AI model according to an embodiment may be a tree structure-based classification model. The AI model generator 160 may train the AI model by using the first transformation data and the second transformation data.

이에 따라, 제1 디바이스(100)는 훈련이 완료된 AI 모델을 이용하여, 입력된 데이터(예를 들어, 디바이스에서 센싱된 데이터)가 제1 디바이스 사용자의 데이터인지 아닌지를 결정하고, 제1 디바이스 사용자를 인증할 수 있다.Accordingly, the first device 100 uses the trained AI model to determine whether input data (eg, data sensed by the device) is data of the first device user, and the first device user can be authenticated.

일 실시예에 따른 제2 디바이스(200)는 센싱부(210), 데이터 처리부(220), 데이터 저장부(230) 및 통신부(240)를 포함할 수 있다.The second device 200 according to an embodiment may include a sensing unit 210 , a data processing unit 220 , a data storage unit 230 , and a communication unit 240 .

센싱부(210)는 제2 디바이스(200)의 상태 또는 제2 디바이스(200) 주변의 상태를 센싱하고, 센싱된 제2 데이터를 데이터 처리부(220)로 전달할 수 있다. 센싱부(210)는 이미지 센서, 터치 센서, 가속도 센서(Acceleration sensor), 위치 센서(예컨대, GPS), 온/습도 센서, 지자기 센서, 자이로스코프 센서, 및 마이크로폰 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 또한, 센싱부(210)는 제2 디바이스 사용자(제2 사용자)의 터치 정보, 음성 정보, 위치 정보, 걸음 거리 정보 등을 센싱할 수 있다. 이때, 센싱된 제2 데이터는 제2 단위 크기를 가질 수 있으며, 제2 단위 크기의 배수로 나타날 수 있다.The sensing unit 210 may sense a state of the second device 200 or a state around the second device 200 , and transmit the sensed second data to the data processing unit 220 . The sensing unit 210 may include at least one of an image sensor, a touch sensor, an acceleration sensor, a location sensor (eg, GPS), a temperature/humidity sensor, a geomagnetic sensor, a gyroscope sensor, and a microphone, However, the present invention is not limited thereto. Also, the sensing unit 210 may sense touch information, voice information, location information, and step distance information of the second device user (second user). In this case, the sensed second data may have a second unit size and may appear as a multiple of the second unit size.

데이터 처리부(220)는 센싱부(210)에서 센싱되어 수집된 제2 데이터를 분석하여, 제2 데이터의 특성 정보를 획득할 수 있다. 데이터의 특성 정보 정보를 획득하는 방법에 대해서는, 제1 디바이스(100)의 데이터 처리부(120)에서 자세히 설명하였으므로 구체적인 설명은 생략하기로 한다. 이때, 제2 데이터의 특성 정보는 제2 단위 크기를 가질 수 있으며, 제2 단위 크기의 배수로 나타나는 불연속적인 값들을 포함할 수 있다.The data processing unit 220 may obtain characteristic information of the second data by analyzing the second data sensed and collected by the sensing unit 210 . Since the method of acquiring the characteristic information of data has been described in detail in the data processing unit 120 of the first device 100 , a detailed description thereof will be omitted. In this case, the characteristic information of the second data may have a second unit size, and may include discrete values that appear as multiples of the second unit size.

또한, 데이터 처리부(220)는 제2 데이터에 대한 특성 정보를 제2 단위 크기에 기초하여, 변환할 수 있다. 예를 들어, 데이터 처리부(220)는 제2 단위 크기에 기초하여 결정된 랜덤 노이즈를 제2 데이터의 특성 정보에 합산하여, 제2 변환 데이터를 생성할 수 있다. 이때, 제2 변환 데이터는 연속적인 값들을 가질 수 있다.Also, the data processing unit 220 may convert the characteristic information of the second data based on the second unit size. For example, the data processing unit 220 may generate the second converted data by adding the random noise determined based on the second unit size to the characteristic information of the second data. In this case, the second converted data may have continuous values.

데이터 저장부(230)는 제2 변환 데이터를 저장할 수 있다. 또는, 데이터 처리부(220)에서 제2 데이터의 특성 정보에 대한 변환이 이루어지지 않은 경우, 데이터 저장부(230)는 불연속적인 값들을 포함하는 제2 데이터의 특성 정보를 저장할 수 있다.The data storage unit 230 may store the second converted data. Alternatively, when the data processing unit 220 does not convert the characteristic information of the second data, the data storage 230 may store the characteristic information of the second data including discontinuous values.

일 실시예에 따른 통신부(240)는 외부 디바이스(예를 들어, 제1 디바이스(100))와 데이터 또는 신호를 송수신할 수 있다.The communication unit 240 according to an embodiment may transmit/receive data or signals to and from an external device (eg, the first device 100 ).

통신부(240)는 제1 디바이스(100)로부터 데이터 공유 요청을 수신할 수 있으며, 제1 디바이스(100)로 데이터 저장부(230)에 저장되어 있는 제2 변환 데이터를 전송할 수 있다. 또는, 통신부(240)는 제2 데이터의 특성 정보 또는 제2 단위 크기에 대한 정보를 제1 디바이스(100)로 전송할 수 있다.The communication unit 240 may receive a data sharing request from the first device 100 , and may transmit the second converted data stored in the data storage unit 230 to the first device 100 . Alternatively, the communication unit 240 may transmit characteristic information of the second data or information on the second unit size to the first device 100 .

도 3 및 도 4는 일 실시예에 따른 데이터 처리부가 데이터를 변환하고, 변환된 데이터에 기초하여, AI 모델을 훈련시키는 방법을 설명하기 위해 참조되는 도면들이다.3 and 4 are diagrams referenced to describe a method of a data processing unit converting data and training an AI model based on the transformed data according to an embodiment.

도 3을 참조하면, 제1 데이터에 대한 특성 정보(X)는 제1 단위 크기(U1)의 배수로 나타나는 불연속적인(discrete) 값들을 가진다. 또한, 제2 데이터에 대한 특성 정보(Y)는 제2 단위 크기(U2)의 배수로 나타나는 불연속적인 값들을 가지며, 제3 데이터(D3)에 대한 특성 정보(Z)는 제3 단위 크기(U3))의 배수로 나타나는 불연속적인 값들을 가진다.Referring to FIG. 3 , the characteristic information (X) of the first data has discrete values that appear as multiples of the first unit size (U1). In addition, the characteristic information (Y) of the second data has discrete values that appear as multiples of the second unit size (U2), and the characteristic information (Z) of the third data (D3) is the third unit size (U3). ) has discrete values that appear as multiples of

이때, 제1 데이터에 대한 특성 정보(X)에 대해서는 사용자 데이터로 분류하고, 제2 데이터에 대한 특성 정보(Y) 및 제3 데이터(D3)에 대한 특성 정보(Z)는 타인(imposter) 데이터로 분류하도록, 트리 구조 기반의 제1 AI 분류 모델을 훈련시키면, 도 4의 제1 그래프(410)에 도시된 바와 같이, 제1 AI 분류 모델은 제1 단위 크기(U1)를 가지는 데이터(413)에 대해서만 사용자 데이터로 분류하고, 제1 단위 크기와 다른 단위 크기를 가지는 데이터(415)에 대해서는 타인 데이터로 분류하게 된다. 이에 따라, 제1 AI 분류 모델을 이용하여 사용자 인증을 정확하게 수행할 수 없다.In this case, the characteristic information (X) of the first data is classified as user data, and the characteristic information (Y) of the second data and the characteristic information (Z) of the third data (D3) is imposter data. When the tree structure-based first AI classification model is trained to classify as ) is classified as user data, and data 415 having a unit size different from the first unit size is classified as other data. Accordingly, user authentication cannot be accurately performed using the first AI classification model.

한편, 일 실시예에 따른 제1 디바이스(100)는 도 3에 도시된 바와 같이, 제1 데이터에 대한 특성 정보(X)에 제1 단위 크기(U1)에 기초하여 결정된 제1 랜덤 노이즈(-U1/2≤N1≤U1/2)를 합산해줌으로써, 제1 변환 데이터를 생성할 수 있다. 예를 들어, 제1 변환 데이터(X')는 X-(U1/2)≤ X'≤X+(U1/2)로 나타낼 수 있다. 이때, 제1 랜덤 노이즈 N1의 값은 다양한 값으로 결정될 수 있다. 또한, 제1 랜덤 노이즈 N1의 값은 제1 데이터에 대한 특성 정보(X)에 비해 크지 않으므로, 분류 모델의 훈련 결과에 큰 영향을 미치지 않는다.Meanwhile, as shown in FIG. 3 , the first device 100 according to an exemplary embodiment has a first random noise (−) determined based on the first unit size (U1) in the characteristic information (X) of the first data By summing U1/2≤N1≤U1/2), the first converted data may be generated. For example, the first converted data X' may be expressed as X-(U1/2)≤X'≤X+(U1/2). In this case, the value of the first random noise N1 may be determined as various values. In addition, since the value of the first random noise N1 is not greater than the characteristic information (X) of the first data, it does not significantly affect the training result of the classification model.

또한, 제1 디바이스(100) 또는 제2 디바이스(200)는 제2 데이터에 대한 특성 정보(Y)에 제2 단위 크기(U2)에 기초하여 결정된 제2 랜덤 노이즈(-U2/2≤N2≤U2/2)를 합산해줌으로써, 제2 변환 데이터(Y')를 생성할 수 있다. 예를 들어, 제2 변환 데이터(Y')는 Y-(U2/2)≤ Y'≤Y+(U2/2)로 나타낼 수 있다. 이때, 제2 랜덤 노이즈 N2의 값은 다양한 값으로 결정될 수 있다. 또한, 제2 랜덤 노이즈 N2의 값은 제2 데이터에 대한 특성 정보(Y)에 비해 크지 않으므로, 분류 모델의 훈련 결과에 큰 영향을 미치지 않는다.In addition, the first device 100 or the second device 200 determines the second random noise (-U2/2≤N2≤N2≤) determined based on the second unit size (U2) in the characteristic information (Y) of the second data. By summing U2/2), the second converted data Y' may be generated. For example, the second converted data Y′ may be expressed as Y−(U2/2)≦Y′≦Y+(U2/2). In this case, the value of the second random noise N2 may be determined as various values. In addition, since the value of the second random noise N2 is not large compared to the characteristic information (Y) for the second data, it does not significantly affect the training result of the classification model.

또한, 제1 디바이스(100) 또는 제3 디바이스(300)는 제3 데이터에 대한 특성 정보(Z)에 제3 단위 크기(U3)에 기초하여 결정된 제3 랜덤 노이즈(-U3/2≤N3≤U3/2)를 합산해 줌으로써, 제3 변환 데이터를 생성할 수 있다. 예를 들어, 제3 변환 데이터(Z')는 Z-(U3/2)≤ Z'≤Z+(U3/2)로 나타낼 수 있다. 이때, 제3 랜덤 노이즈 N3의 값은 다양한 값으로 결정될 수 있다. 또한, 제3 랜덤 노이즈 N3의 값은 제3 데이터에 대한 특성 정보(Z)에 비해 크지 않으므로, 분류 모델의 훈련 결과에 큰 영향을 미치지 않는다.In addition, the first device 100 or the third device 300 generates a third random noise (-U3/2≤N3≤) determined based on the third unit size U3 in the characteristic information Z for the third data. U3/2) can be added to generate third transformed data. For example, the third converted data Z' may be expressed as Z-(U3/2)≤Z'≤Z+(U3/2). In this case, the value of the third random noise N3 may be determined as various values. In addition, since the value of the third random noise N3 is not large compared to the characteristic information Z of the third data, it does not significantly affect the training result of the classification model.

일 실시예에 따른 제1 내지 제3 변환 데이터(X', Y', Z')는 연속적인 값들로 나타나며, 이에 따라, 제1 내지 제3 변환 데이터(X', Y', Z')는 단위 크기를 가지지 않게 된다. 따라서, 제1 내지 제3 변환 데이터(X', Y', Z')를 이용하여, 트리 구조 기반의 AI 분류 모델을 훈련시키는 경우, AI 분류 모델은 데이터의 단위 크기가 아닌 다른 특성들을 이용하여, 데이터를 분류하도록 훈련될 수 있다. 이에 따라, 도 4의 제2 그래프(420)에 도시된 바와 같이, 제2 AI 분류 모델은 단위 크기에 기초하여, 데이터를 분류하지 않고, 데이터의 다른 특성(예를 들어, 데이터의 평균, 표준편차, 분산, 최대값, 최소값 및 분포 정보 등)에 기초하여, 데이터를 분류할 수 있다. 따라서, 입력 데이터의 특성 정보에 기초하여, 해당 데이터가 사용자 데이터인지 아닌지를 분류할 수 있다. 예를 들어, 제2 AI 분류 모델은 입력 데이터의 특성 정보가 제1 영역(A1)에 위치하는 경우, 사용자 데이터인 것으로 분류하고, 입력 데이터의 특성 정보가 제2 영역(A2)에 위치하는 경우, 사용자 데이터가 아닌 것으로 분류할 수 있다.The first to third converted data (X', Y', Z') according to an embodiment are represented as continuous values, and accordingly, the first to third converted data (X', Y', Z') are It has no unit size. Therefore, when training the tree structure-based AI classification model using the first to third transformation data (X', Y', Z'), the AI classification model uses characteristics other than the unit size of the data. , can be trained to classify data. Accordingly, as shown in the second graph 420 of FIG. 4 , the second AI classification model does not classify the data based on the unit size, but other characteristics of the data (eg, the average of the data, the standard Data may be classified based on deviation, variance, maximum value, minimum value, and distribution information). Accordingly, based on the characteristic information of the input data, it is possible to classify whether the corresponding data is user data or not. For example, the second AI classification model classifies the input data as user data when the characteristic information of the input data is located in the first area A1, and when the characteristic information of the input data is located in the second area A2 , can be classified as non-user data.

도 5는 일 실시예에 따른 제1 디바이스와 제2 디바이스의 동작 방법을 나타내는 흐름도이다.5 is a flowchart illustrating a method of operating a first device and a second device according to an exemplary embodiment.

도 5를 참조하면, 제2 디바이스(200)는 제2 데이터를 센싱할 수 있다(S510). 예를 들어, 제2 디바이스(200)는 제2 디바이스 사용자의 터치 정보, 음성 정보, 위치 정보, 걸음 거리 정보 등(제2 데이터)을 센싱할 수 있다. 이때, 센싱된 제2 데이터는 제2 단위 크기를 가지며, 제2 단위 크기의 배수로 나타날 수 있다.Referring to FIG. 5 , the second device 200 may sense second data ( S510 ). For example, the second device 200 may sense touch information, voice information, location information, step distance information, and the like (second data) of the second device user. In this case, the sensed second data has a second unit size and may appear as a multiple of the second unit size.

제2 디바이스(200)는 제2 데이터의 특성 정보를 추출할 수 있다(S520). 예를 들어, 제2 데이터가 사용자의 터치 데이터인 경우, 제2 디바이스(200)는 센싱된 터치 데이터들로부터 터치 지점의 좌표 정보, 터치 강도 정보, 터치된 면적 정보 등을 포함하는 특성 정보를 추출할 수 있다. 이때, 제2 데이터의 특성 정보도 제2 단위 크기의 배수로 나타날 수 있다.The second device 200 may extract characteristic information of the second data (S520). For example, when the second data is user's touch data, the second device 200 extracts characteristic information including coordinate information of a touch point, touch intensity information, touched area information, and the like from the sensed touch data. can do. In this case, the characteristic information of the second data may also appear as a multiple of the second unit size.

제2 디바이스(200)는 제2 단위 크기에 기초하여, 제2 데이터의 특성 정보를 변환할 수 있다(S530). 예를 들어, 제2 디바이스(200)는 제2 단위 크기에 기초하여 랜덤 노이즈를 결정하고, 결정된 랜덤 노이즈를 제2 데이터의 특성 정보에 합산함으로써, 제2 변환 데이터를 생성할 수 있다.The second device 200 may convert characteristic information of the second data based on the second unit size ( S530 ). For example, the second device 200 may generate second converted data by determining random noise based on the second unit size and adding the determined random noise to characteristic information of the second data.

제2 디바이스(200)는 제1 디바이스(100)로 제2 변환 데이터를 전송할 수 있다(S540).The second device 200 may transmit the second converted data to the first device 100 (S540).

한편, 도 5의 540 단계(S540)에서는 제2 변환 데이터가 제2 디바이스(200)에서 제1 디바이스(100)로 직접 전송되는 것으로 설명하였으나, 이에 한정되지 않으며, 제2 디바이스(200)에서 외부 서버로 제2 변환 데이터가 전송되고, 외부 서버에서 제1 디바이스(100)로 제2 변환 데이터가 전송될 수도 있다.Meanwhile, in step 540 ( S540 ) of FIG. 5 , it has been described that the second converted data is directly transmitted from the second device 200 to the first device 100 , but the present invention is not limited thereto. The second converted data may be transmitted to the server, and the second converted data may be transmitted from the external server to the first device 100 .

제1 디바이스(100)는 제2 디바이스(200)로부터 수신한 제2 변환 데이터를 저장할 수 있다(S550).The first device 100 may store the second converted data received from the second device 200 (S550).

제1 디바이스(100)는 제1 데이터를 센싱할 수 있다(S560). 예를 들어, 제1 디바이스(100)는 제1 디바이스 사용자의 터치 정보, 음성 정보, 위치 정보, 걸음 거리 정보 등(제1 데이터)을 센싱할 수 있다. 이때, 센싱된 제1 데이터는 제1 단위 크기를 가지며, 제1 단위 크기의 배수로 나타날 수 있다.The first device 100 may sense the first data (S560). For example, the first device 100 may sense touch information, voice information, location information, step distance information, and the like (first data) of the first device user. In this case, the sensed first data has a first unit size and may appear as a multiple of the first unit size.

제1 디바이스(100)는 제1 데이터의 특성 정보를 추출할 수 있다(S570). 예를 들어, 제1 데이터가 사용자의 터치 데이터인 경우, 제1 디바이스(100)는 센싱된 터치 데이터들로부터 터치 지점의 좌표 정보, 터치 강도 정보, 터치된 면적 정보 등을 포함하는 특성 정보를 추출할 수 있다. 이때, 제1 데이터의 특성 정보도 제1 단위 크기의 배수로 나타날 수 있다.The first device 100 may extract characteristic information of the first data (S570). For example, when the first data is the user's touch data, the first device 100 extracts characteristic information including coordinate information of the touch point, touch intensity information, touched area information, etc. from the sensed touch data. can do. In this case, the characteristic information of the first data may also appear as a multiple of the first unit size.

제1 디바이스(100)는 제1 단위 크기에 기초하여, 제1 데이터의 특성 정보를 변환할 수 있다(S580). 예를 들어, 제1 디바이스(100)는 제1 단위 크기에 기초하여 랜덤 노이즈를 결정하고, 결정된 랜덤 노이즈를 제1 데이터의 특성 정보에 합산함으로써, 제1 변환 데이터를 생성할 수 있다.The first device 100 may convert characteristic information of the first data based on the first unit size ( S580 ). For example, the first device 100 may generate the first converted data by determining random noise based on the first unit size and adding the determined random noise to characteristic information of the first data.

제1 디바이스(100)는 제1 변환 데이터를 저장할 수 있으며, 제1 변환 데이터 및 제2 변환 데이터를 이용하여, AI 모델을 생성할 수 있다(S590). 이때, AI 모델은 사용자를 인증하는 인증 모델일 수 있으나, 이에 한정되지 않는다. 일 실시예에 따른 AI 모델은 트리 구조 기반의 분류 모델일 수 있다.The first device 100 may store the first converted data, and may generate an AI model by using the first converted data and the second converted data (S590). In this case, the AI model may be an authentication model for authenticating a user, but is not limited thereto. The AI model according to an embodiment may be a tree structure-based classification model.

도 6은 일 실시예에 따른 제1 디바이스의 동작 방법을 나타내는 흐름도이다.6 is a flowchart illustrating a method of operating a first device according to an exemplary embodiment.

도 6을 참조하면, 일 실시예에 따른 제1 디바이스(100)는 제1 단위 크기를 가지는 제1 데이터 및 제1 데이터의 특성 정보를 획득할 수 있다(S610). 예를 들어, 제1 디바이스(100)는 제1 디바이스 사용자의 사용자의 터치 정보, 음성 정보, 위치 정보, 걸음 거리 정보 등(제1 데이터)을 센싱할 수 있다. 이때, 제1 데이터는 제1 단위 크기의 배수로 나타날 수 있다.Referring to FIG. 6 , the first device 100 according to an embodiment may acquire first data having a first unit size and characteristic information of the first data ( S610 ). For example, the first device 100 may sense touch information, voice information, location information, walking distance information, and the like (first data) of the user of the first device user. In this case, the first data may appear as a multiple of the first unit size.

제1 디바이스(100)는 센싱된 제1 데이터의 특성 정보를 추출할 수 있으며, 예를 들어, 제1 데이터가 사용자의 터치 데이터인 경우, 센싱된 터치 데이터들로부터 터치 지점의 좌표 정보, 터치 강도 정보, 터치된 면적 정보 등을 포함하는 특성 정보를 추출할 수 있다. 다만, 이에 한정되지 않는다. 이때, 제1 데이터의 특성 정보도 제1 단위 크기의 배수로 나타날 수 있다.The first device 100 may extract characteristic information of the sensed first data. For example, when the first data is the user's touch data, coordinate information of the touch point and the touch intensity from the sensed touch data. It is possible to extract characteristic information including information, touched area information, and the like. However, the present invention is not limited thereto. In this case, the characteristic information of the first data may also appear as a multiple of the first unit size.

제1 디바이스(100)는 제1 데이터의 특성 정보를 제1 단위 크기에 기초하여 변환할 수 있다(S620). 620 단계(S620)는 도 5의 580 단계(S580)에 대응하므로, 동일한 설명은 생략하기로 한다.The first device 100 may convert the characteristic information of the first data based on the first unit size ( S620 ). Since step 620 ( S620 ) corresponds to step 580 ( S580 ) of FIG. 5 , the same description will be omitted.

제1 디바이스(100)는 제2 단위 크기를 가지는 제2 데이터의 특성 정보를 수신할 수 있다(S630). 예를 들어, 제2 데이터는 제2 디바이스에서 센싱된 사용자 데이터일 수 있으며, 제2 데이터의 특성 정보는 제2 단위 크기의 배수로 나타날 수 있다.The first device 100 may receive characteristic information of the second data having a second unit size (S630). For example, the second data may be user data sensed by the second device, and characteristic information of the second data may be displayed as a multiple of the second unit size.

제1 디바이스(100)는 제2 단위 크기에 기초하여, 제2 데이터의 특성 정보를 변환할 수 있다(S640). 예를 들어, 제1 디바이스(100)는 제2 단위 크기에 기초하여 랜덤 노이즈를 결정하고, 결정된 랜덤 노이즈를 제2 데이터의 특성 정보에 합산함으로써, 제2 변환 데이터를 생성할 수 있다. 이때, 제2 단위 크기 정보는 제2 디바이스(200)로부터 수신하거나, 제2 데이터의 특성 정보를 통하여 추출할 수 있다.The first device 100 may convert characteristic information of the second data based on the second unit size ( S640 ). For example, the first device 100 may generate second converted data by determining random noise based on the second unit size and adding the determined random noise to characteristic information of the second data. In this case, the second unit size information may be received from the second device 200 or may be extracted through characteristic information of the second data.

제1 디바이스(100)는 제1 변환 데이터 및 제2 변환 데이터에 기초하여, AI 모델을 생성할 수 있다(S650). 650 단계(S650)는 도 5의 590 단계(S590)에 대응하므로, 동일한 설명은 생략하기로 한다.The first device 100 may generate an AI model based on the first converted data and the second converted data (S650). Since step 650 ( S650 ) corresponds to step 590 ( S590 ) of FIG. 5 , the same description will be omitted.

제1 디바이스(100)는 생성된 AI 모델을 이용하여, 제1 디바이스 사용자를 인증할 수 있다(S660).The first device 100 may use the generated AI model to authenticate the first device user ( S660 ).

도 7은 일 실시예에 따른 제1 디바이스가 제1 데이터를 수집하기 위하여 출력하는 가이드 화면의 일 예를 나타낸다.7 illustrates an example of a guide screen output by the first device to collect first data according to an embodiment.

도 7을 참조하면, 제1 디바이스(100)는 제1 디바이스 사용자의 데이터(제1 데이터)를 수집할 수 있으며, 수집된 제1 데이터를 사용자 데이터로 하여, AI 인증 모델을 훈련시킬 수 있다. 일 실시예에 따른 AI 인증 모델의 성능(정확도)을 증가시키기 위해서는, 다양한 특성 정보를 가지는 데이터를 이용하여, AI 인증 모델을 훈련시켜야 한다.Referring to FIG. 7 , the first device 100 may collect data (first data) of the first device user, and may train an AI authentication model by using the collected first data as user data. In order to increase the performance (accuracy) of the AI authentication model according to an embodiment, it is necessary to train the AI authentication model using data having various characteristic information.

따라서, 제1 디바이스(100)는 다양한 환경에서 제1 데이터를 수집할 수 있다. 제1 디바이스(100)는 제1 디바이스 사용자의 터치 데이터를 수집할 때, 다양한 환경에서 제1 디바이스 사용자의 터치 데이터를 수집하도록 도 7에 도시된 바와 같이, 가이드 화면(710)을 표시할 수 있다. Accordingly, the first device 100 may collect first data in various environments. When collecting the touch data of the first device user, the first device 100 may display a guide screen 710 as shown in FIG. 7 to collect the touch data of the first device user in various environments. .

예를 들어, 제1 디바이스(100)는 천천히 걸어가면서 텍스트를 입력하라는 메시지, 앉아서 텍스트를 입력하라는 메시지, 한 손을 이용하여, 텍스트를 입력하라는 메시지, 두 손을 이용하여 텍스트를 입력하라는 메시지 등을 가이드 화면(710)에 표시할 수 있다. 다만, 이에 한정되지 않으며, 다양한 상황에서 제1 데이터를 수집할 수 있도록 사용자를 가이드하는 메시지를 표시할 수 있다.For example, the first device 100 provides a message to input text while walking slowly, a message to sit and input text, a message to input text using one hand, a message to input text using two hands, etc. may be displayed on the guide screen 710 . However, the present invention is not limited thereto, and a message guiding the user to collect the first data in various situations may be displayed.

또한, 제1 디바이스(100)는 센싱된 터치 데이터를 상황 별로 다른 종류의 센싱 데이터와 함께 저장할 수 있다. 예를 들어, 천천히 걸어가면서 텍스트를 입력하는 상황에서, 센싱된 터치 데이터와 가속도 센서에서 센싱된 가속도 데이터를 함께 저장할 수 있다. 다만, 이에 한정되지 않는다.Also, the first device 100 may store the sensed touch data together with other types of sensing data for each situation. For example, in a situation where text is input while walking slowly, the sensed touch data and the acceleration data sensed by the acceleration sensor may be stored together. However, the present invention is not limited thereto.

일 실시예에 따른 제1 디바이스(100)는 센싱된 제1 데이터를 제1 단위 크기에 기초하여 변환하고, 변환된 데이터를 사용자 데이터로 이용하여, AI 인증 모델을 훈련시킬 수 있다.The first device 100 according to an embodiment may convert the sensed first data based on the first unit size, and train the AI authentication model by using the converted data as user data.

도 8은 일 실시예에 따른 제1 디바이스가 AI 모델을 이용하여 인증을 수행하는 방법을 설명하기 위해 참조되는 도면이다.FIG. 8 is a diagram referenced to describe a method in which a first device performs authentication using an AI model according to an exemplary embodiment.

도 8을 참조하면, 일 실시예에 따른 제1 디바이스(100)는 제1 디바이스에서 센싱된 터치 데이터를 제1 단위 크기에 기초하여 변환한 제1 변환 데이터, 제2 디바이스에 센싱된 터치 데이터를 제2 단위 크기에 기초하여 변환한 제2 변환 데이터 및 제3 디바이스에서 센싱된 터치 데이터를 제3 단위 크기에 기초하여 변환한 제3 변환 데이터데이터를 훈련 데이터로 이용하여 생성된 AI 모델을 저장할 수 있다. 이때, AI 모델은 제1 디바이스 사용자(제1 사용자)인지 아닌지를 결정하는 모델일 수 있다. 예를 들어, 도 8에 도시된 바와 같이, 제1 디바이스(100)는 터치 데이터를 센싱할 수 있으며, AI 모델은 센싱된 터치 데이터를 입력 데이터로 입력 받을 수 있다. AI 모델은 입력 받은 터치 데이터가 제1 사용자의 터치 데이터인지 아닌지를 결정하여, 결과 데이터로 출력할 수 있다.Referring to FIG. 8 , the first device 100 according to an embodiment converts first converted data obtained by converting touch data sensed by the first device based on a first unit size, and touch data sensed by the second device. The AI model generated by using the second converted data converted based on the second unit size and the third converted data data converted based on the third unit size of the touch data sensed by the third device as training data can be stored have. In this case, the AI model may be a model for determining whether the user is the first device user (the first user). For example, as shown in FIG. 8 , the first device 100 may sense touch data, and the AI model may receive the sensed touch data as input data. The AI model may determine whether the input touch data is the first user's touch data or not, and may output the result data.

입력 받은 터치 데이터가 제1 사용자의 터치 데이터로 결정되는 경우, 제1 디바이스(100)는 제1 디바이스의 잠금 해제를 수행할 수 있으며, 입력 받은 터치 데이터가 제1 사용자의 터치 데이터가 아닌 것으로 결정되는 경우, 제1 디바이스(100)는 제1 디바이스의 잠금 상태를 유지할 수 있다.When the received touch data is determined as the first user's touch data, the first device 100 may unlock the first device, and it is determined that the received touch data is not the first user's touch data. In this case, the first device 100 may maintain the locked state of the first device.

도 8에서는, 터치 데이터에 기초한 사용자 인증의 방법에 대해서 도시하고 설명하였지만, 이에 한정되지 않으며, 제1 디바이스(100)는 다양한 데이터를 이용하여, AI 모델을 생성하고, 생성된 AI 모델을 이용하여, 사용자 인증을 수행할 수 있다.In FIG. 8 , a method of user authentication based on touch data has been illustrated and described, but is not limited thereto, and the first device 100 uses various data to generate an AI model, and uses the generated AI model , user authentication can be performed.

도 9는 다른 실시예에 따른 제1 디바이스의 구성을 나타내는 블록도이다. 도 9의 제1 디바이스(900)는 도 1의 제1 디바이스(100)의 일 실시예일 수 있다.9 is a block diagram illustrating a configuration of a first device according to another exemplary embodiment. The first device 900 of FIG. 9 may be an embodiment of the first device 100 of FIG. 1 .

도 9를 참조하면, 일 실시예에 따른 제1 디바이스(900)는 센싱부(910), 통신부(920), 프로세서(930), A/V 입력부(1240), 출력부(1250), 메모리(1260), 사용자 입력부(970)를 포함할 수 있다.Referring to FIG. 9 , the first device 900 according to an embodiment includes a sensing unit 910 , a communication unit 920 , a processor 930 , an A/V input unit 1240 , an output unit 1250 , and a memory ( 1260 ) and a user input unit 970 .

센싱부(910)는, 사용자의 생체 정보를 센싱하는 센서(예를 들어, 지문 인식 센서 등)뿐만 아니라, 제1 디바이스(900)의 상태 또는 제1 디바이스(900) 주변의 상태를 감지하는 센서를 포함할 수 있다. 또한, 센싱부(910)는 센서에서 감지된 정보를 프로세서(930)로 전달할 수 있다. 도 9의 센싱부(910)는 도 2의 센싱부(110)에 대응될 수 있다.The sensing unit 910 includes not only a sensor (eg, a fingerprint recognition sensor, etc.) that senses the user's biometric information, but also a sensor that detects a state of the first device 900 or a state around the first device 900 . may include. Also, the sensing unit 910 may transmit information sensed by the sensor to the processor 930 . The sensing unit 910 of FIG. 9 may correspond to the sensing unit 110 of FIG. 2 .

통신부(920)는, 도 2의 통신부(140)에 대응하는 구성으로 도 2에서 자세히 설명하였으므로, 구체적인 설명은 생략하기로 한다.Since the communication unit 920 has been described in detail in FIG. 2 as a configuration corresponding to the communication unit 140 of FIG. 2 , a detailed description thereof will be omitted.

일 실시예에 따른 프로세서(930)는 제1 디바이스(900)의 동작을 전반적으로 제어할 수 있다. 또한, 프로세서(930)는 소정 동작이 수행되도록 제1 디바이스(900)에 포함되는 다른 구성들을 제어할 수 있다.The processor 930 according to an embodiment may control overall operation of the first device 900 . Also, the processor 930 may control other components included in the first device 900 to perform a predetermined operation.

일 실시예에 따른 프로세서(930)는 메모리(960)에 저장되는 하나 이상의 프로그램들을 실행할 수 있다. 프로세서(930)는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다. 또한, 프로세서(930)는 복수의 프로세서를 포함할 수 있다.The processor 930 according to an embodiment may execute one or more programs stored in the memory 960 . The processor 930 may include a single core, a dual core, a triple core, a quad core, and multiple cores thereof. Also, the processor 930 may include a plurality of processors.

일 실시예에 따른 메모리(960)는 제1 디바이스(900)를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다.The memory 960 according to an embodiment may store various data, programs, or applications for driving and controlling the first device 900 .

또한, 메모리(960)에 저장되는 프로그램은 하나 이상의 인스트럭션들을 포함할 수 있다. 메모리(960)에 저장된 프로그램(하나 이상의 인스트럭션들) 또는 어플리케이션은 프로세서(930)에 의해 실행될 수 있다.Also, a program stored in the memory 960 may include one or more instructions. A program (one or more instructions) or an application stored in the memory 960 may be executed by the processor 930 .

일 실시예에 따른 프로세서(930)는 도 2에서 도시하고 설명한 데이터 처리부(120), 데이터 수집부(150), AI 모델 생성부(160) 중 적어도 하나에 대응될 수 있으며, 일 실시예에 따른 메모리(960)는 도 2의 데이터 저장부(130)에 대응될 수 있다.The processor 930 according to an embodiment may correspond to at least one of the data processing unit 120 , the data collection unit 150 , and the AI model generation unit 160 shown and described in FIG. 2 . The memory 960 may correspond to the data storage unit 130 of FIG. 2 .

메모리(960)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The memory 960 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg, SD or XD memory), and a RAM. (RAM, Random Access Memory) SRAM (Static Random Access Memory), ROM (Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), magnetic memory, magnetic disk , may include at least one type of storage medium among optical disks.

A/V(Audio/Video) 입력부(940)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(941)와 마이크로폰(942) 등이 포함될 수 있다. 카메라(941)은 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 프로세서(930) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다.The A/V (Audio/Video) input unit 940 is for inputting an audio signal or a video signal, and may include a camera 941 , a microphone 942 , and the like. The camera 941 may obtain an image frame such as a still image or a moving image through an image sensor in a video call mode or a photographing mode. The image captured through the image sensor may be processed through the processor 930 or a separate image processing unit (not shown).

카메라(941)에서 처리된 화상 프레임은 메모리(960)에 저장되거나 통신부(920)를 통하여 외부로 전송될 수 있다. 카메라(941)는 제1 디바이스(900)의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 941 may be stored in the memory 960 or transmitted to the outside through the communication unit 920 . Two or more cameras 941 may be provided according to the configuration of the first device 900 .

마이크로폰(942)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(942)은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰(942)은 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다.The microphone 942 receives an external sound signal and processes it as electrical voice data. For example, the microphone 942 may receive an acoustic signal from an external device or a speaker. The microphone 942 may use various noise removal algorithms for removing noise generated in the process of receiving an external sound signal.

출력부(950)는, 오디오 신호 또는 비디오 신호 또는 진동 신호의 출력을 위한 것으로, 이에는 디스플레이부(951)와 음향 출력부(952), 진동 모터(953) 등이 포함될 수 있다. The output unit 950 is for outputting an audio signal, a video signal, or a vibration signal, and may include a display unit 951 , a sound output unit 952 , a vibration motor 953 , and the like.

음향 출력부(952)는 통신부(920)로부터 수신되거나 메모리(960)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(952)는 제1 디바이스(900)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(1252)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output unit 952 outputs audio data received from the communication unit 920 or stored in the memory 960 . Also, the sound output unit 952 outputs a sound signal related to a function (eg, a call signal reception sound, a message reception sound, and a notification sound) performed by the first device 900 . The sound output unit 1252 may include a speaker, a buzzer, and the like.

진동부(953)는 진동 신호를 출력할 수 있다. 예를 들어, 진동부(953)는 오디오 데이터 또는 비디오 데이터(예컨대, 호신호 수신음, 메시지 수신음 등)의 출력에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동부(1253)는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다.The vibrator 953 may output a vibration signal. For example, the vibrator 953 may output a vibration signal corresponding to output of audio data or video data (eg, a call signal reception sound, a message reception sound, etc.). Also, the vibrator 1253 may output a vibration signal when a touch is input to the touch screen.

사용자 입력부(970)는, 사용자가 전자 장치(900)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(970)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나, 이에 한정되는 것은 아니다.The user input unit 970 means a means for a user to input data for controlling the electronic device 900 . For example, the user input unit 970 includes a key pad, a dome switch, and a touch pad (contact capacitive method, pressure resistance film method, infrared sensing method, surface ultrasonic conduction method, integral type). There may be a tension measurement method, a piezo effect method, etc.), a jog wheel, a jog switch, and the like, but is not limited thereto.

일 실시예에 따른 제1 디바이스의 동작방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The operating method of the first device according to an embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

또한, 개시된 실시예들에 따른 제1 디바이스 또는 제1 디바이스의 동작 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다.In addition, the first device or the method of operating the first device according to the disclosed embodiments may be provided as included in a computer program product. Computer program products may be traded between sellers and buyers as commodities.

컴퓨터 프로그램 제품은 S/W 프로그램, S/W 프로그램이 저장된 컴퓨터로 읽을 수 있는 저장 매체를 포함할 수 있다. 예를 들어, 컴퓨터 프로그램 제품은 전자 장치의 제조사 또는 전자 마켓(예, 구글 플레이 스토어, 앱 스토어)을 통해 전자적으로 배포되는 S/W 프로그램 형태의 상품(예, 다운로더블 앱)을 포함할 수 있다. 전자적 배포를 위하여, S/W 프로그램의 적어도 일부는 저장 매체에 저장되거나, 임시적으로 생성될 수 있다. 이 경우, 저장 매체는 제조사의 서버, 전자 마켓의 서버, 또는 SW 프로그램을 임시적으로 저장하는 중계 서버의 저장매체가 될 수 있다.The computer program product may include a S/W program and a computer-readable storage medium in which the S/W program is stored. For example, computer program products may include products (eg, downloadable apps) in the form of S/W programs distributed electronically through manufacturers of electronic devices or electronic markets (eg, Google Play Store, App Store). have. For electronic distribution, at least a portion of the S/W program may be stored in a storage medium or may be temporarily generated. In this case, the storage medium may be a server of a manufacturer, a server of an electronic market, or a storage medium of a relay server temporarily storing a SW program.

컴퓨터 프로그램 제품은, 서버 및 클라이언트 장치로 구성되는 시스템에서, 서버의 저장매체 또는 클라이언트 장치의 저장매체를 포함할 수 있다. 또는, 서버 또는 클라이언트 장치와 통신 연결되는 제3 장치(예, 스마트폰)가 존재하는 경우, 컴퓨터 프로그램 제품은 제3 장치의 저장매체를 포함할 수 있다. 또는, 컴퓨터 프로그램 제품은 서버로부터 클라이언트 장치 또는 제3 장치로 전송되거나, 제3 장치로부터 클라이언트 장치로 전송되는 S/W 프로그램 자체를 포함할 수 있다.The computer program product, in a system consisting of a server and a client device, may include a storage medium of the server or a storage medium of the client device. Alternatively, when there is a third device (eg, a smart phone) that is communicatively connected to the server or the client device, the computer program product may include a storage medium of the third device. Alternatively, the computer program product may include the S/W program itself transmitted from the server to the client device or the third device, or transmitted from the third device to the client device.

이 경우, 서버, 클라이언트 장치 및 제3 장치 중 하나가 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 수행할 수 있다. 또는, 서버, 클라이언트 장치 및 제3 장치 중 둘 이상이 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 분산하여 실시할 수 있다.In this case, one of the server, the client device and the third device may execute the computer program product to perform the method according to the disclosed embodiments. Alternatively, two or more of a server, a client device, and a third device may execute a computer program product to distribute the method according to the disclosed embodiments.

예를 들면, 서버(예로, 클라우드 서버 또는 인공 지능 서버 등)가 서버에 저장된 컴퓨터 프로그램 제품을 실행하여, 서버와 통신 연결된 클라이언트 장치가 개시된 실시예들에 따른 방법을 수행하도록 제어할 수 있다.For example, a server (eg, a cloud server or an artificial intelligence server) may execute a computer program product stored in the server to control a client device communicatively connected with the server to perform the method according to the disclosed embodiments.

이상에서 실시예들에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.Although the embodiments have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements by those skilled in the art using the basic concept of the present invention as defined in the following claims are also included in the scope of the present invention. belongs to

Claims (15)

AI 모델을 생성하는 전자 장치에 있어서,
하나 이상의 인스트럭션들을 저장하는 메모리; 및
상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행하는 프로세서를 포함하고,
상기 프로세서는,
제1 단위 크기를 가지는 제1 데이터를 획득하고,
상기 제1 단위 크기에 기초하여, 제1 랜덤 노이즈를 결정하고, 상기 제1 데이터에 상기 제1 랜덤 노이즈를 합산함으로써, 상기 제1 데이터를 상기 제1 단위 크기를 가지지 않는 제2 데이터로 변환하고,
제3 데이터를 획득하며,
상기 제2 데이터와 상기 제3 데이터를 포함하는 훈련 데이터에 기초하여, AI 모델을 생성하는 전자 장치.
An electronic device for generating an AI model, comprising:
a memory storing one or more instructions; and
a processor executing the one or more instructions stored in the memory;
The processor is
Obtaining first data having a first unit size,
converting the first data into second data not having the first unit size by determining a first random noise based on the first unit size and adding the first random noise to the first data; ,
obtain third data;
An electronic device for generating an AI model based on training data including the second data and the third data.
제1항에 있어서,
상기 프로세서는,
제2 단위 크기를 가지는 제4 데이터를 획득하고, 상기 제2 단위 크기에 기초하여 제2 랜덤 노이즈를 결정하고, 상기 제4 데이터에 상기 제2 랜덤 노이즈를 합산함으로써, 상기 제2 단위 크기를 가지지 않는 상기 제3 데이터를 획득하는, 전자 장치.
According to claim 1,
The processor is
Obtaining fourth data having a second unit size, determining a second random noise based on the second unit size, and adding the second random noise to the fourth data, thereby not having the second unit size. to obtain the third data, not the electronic device.
제1항에 있어서,
상기 전자 장치는,
상기 제1 데이터를 센싱하는 센싱부를 더 포함하는, 전자 장치.
According to claim 1,
The electronic device is
The electronic device further comprising a sensing unit for sensing the first data.
제3항에 있어서,
상기 전자 장치는,
디스플레이를 더 포함하고,
상기 프로세서는,
상기 제1 데이터를 센싱하기 위한 가이드 화면을 상기 디스플레이에 표시하도록 제어하는, 전자 장치.
4. The method of claim 3,
The electronic device is
further comprising a display,
The processor is
An electronic device that controls to display a guide screen for sensing the first data on the display.
제1항에 있어서,
상기 전자 장치는,
상기 제3 데이터를 외부 장치로부터 수신하는 통신부를 더 포함하는, 전자 장치.
According to claim 1,
The electronic device is
The electronic device of claim 1, further comprising a communication unit configured to receive the third data from an external device.
제1항에 있어서,
상기 AI 모델은 트리 구조 기반의 인증 모델이며,
상기 프로세서는,
상기 제2 데이터를 사용자 데이터로, 상기 제3 데이터를 타인 데이터로 설정하여, 상기 AI 모델을 훈련시키는 전자 장치.
According to claim 1,
The AI model is a tree structure-based authentication model,
The processor is
An electronic device for training the AI model by setting the second data as user data and the third data as data of others.
제6항에 있어서,
상기 프로세서는,
상기 AI 모델을 이용하여, 상기 전자 장치에서 센싱되는 데이터가 상기 전자 장치 사용자의 데이터인지 아닌지를 결정하는 전자 장치.
7. The method of claim 6,
The processor is
An electronic device for determining whether data sensed by the electronic device is data of a user of the electronic device by using the AI model.
AI 모델을 생성하는 전자 장치의 동작방법에 있어서,
제1 단위 크기를 가지는 제1 데이터를 획득하는 단계;
상기 제1 단위 크기에 기초하여, 제1 랜덤 노이즈를 결정하는 단계;
상기 제1 데이터에 상기 제1 랜덤 노이즈를 합산함으로써, 상기 제1 데이터를 상기 제1 단위 크기를 가지지 않는 제2 데이터로 변환하는 단계;
제3 데이터를 획득하는 단계; 및
상기 제2 데이터와 상기 제3 데이터를 포함하는 훈련 데이터에 기초하여, AI 모델을 생성하는 단계를 포함하는 전자 장치의 동작방법.
In the operating method of an electronic device for generating an AI model,
acquiring first data having a first unit size;
determining a first random noise based on the first unit size;
converting the first data into second data not having the first unit size by adding the first random noise to the first data;
obtaining third data; and
and generating an AI model based on training data including the second data and the third data.
제8항에 있어서,
상기 제3 데이터를 획득하는 단계는,
제2 단위 크기를 가지는 제4 데이터를 획득하는 단계; 및
상기 제2 단위 크기에 기초하여 제2 랜덤 노이즈를 결정하는 단계;
상기 제4 데이터에 상기 제2 랜덤 노이즈를 합산함으로써, 상기 제2 단위 크기를 가지지 않는 상기 제3 데이터를 획득하는 단계를 포함하는 전자 장치의 동작방법.
9. The method of claim 8,
Obtaining the third data includes:
obtaining fourth data having a second unit size; and
determining a second random noise based on the second unit size;
and acquiring the third data not having the second unit size by adding the second random noise to the fourth data.
제8항에 있어서,
상기 제1 데이터를 획득하는 단계는,
센싱부를 통하여, 상기 제1 데이터를 센싱하는 단계를 포함하는, 전자 장치의 동작방법.
9. The method of claim 8,
The step of obtaining the first data includes:
The method of operating an electronic device, comprising the step of sensing the first data through a sensing unit.
제10항에 있어서,
상기 제1 데이터를 획득하는 단계는,
상기 제1 데이터를 센싱하기 위한 가이드 화면을 상기 디스플레이에 표시하는 단계를 포함하는 전자 장치의 동작방법.
11. The method of claim 10,
The step of obtaining the first data includes:
and displaying a guide screen for sensing the first data on the display.
제8항에 있어서,
상기 제3 데이터를 획득하는 단계는,
상기 제3 데이터를 외부 장치로부터 수신하는 단계를 포함하는 전자 장치의 동작방법.
9. The method of claim 8,
Obtaining the third data includes:
and receiving the third data from an external device.
제8항에 있어서,
상기 AI 모델은 트리 구조 기반의 인증 모델이며,
상기 AI 모델을 생성하는 단계는,
상기 제2 데이터를 사용자 데이터로, 상기 제3 데이터를 타인 데이터로 설정하여, 상기 AI 모델을 훈련시키는 단계를 포함하는 전자 장치의 동작방법.
9. The method of claim 8,
The AI model is a tree structure-based authentication model,
The step of generating the AI model includes:
and training the AI model by setting the second data as user data and the third data as data of others.
제13항에 있어서,
상기 동작 방법은,
상기 AI 모델을 이용하여, 상기 전자 장치에서 센싱되는 데이터가 상기 전자 장치 사용자의 데이터인지 아닌지를 결정하는 단계를 더 포함하는 전자 장치의 동작방법.
14. The method of claim 13,
The method of operation is
and determining whether the data sensed by the electronic device is data of a user of the electronic device by using the AI model.
제8항의 방법을 수행하도록 하는 프로그램이 저장된 하나 이상의 컴퓨터로 읽을 수 있는 기록매체.
One or more computer-readable recording media in which a program for performing the method of claim 8 is stored.
KR1020210025972A 2021-02-25 2021-02-25 Electronic device and operating method for the same KR20220121637A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210025972A KR20220121637A (en) 2021-02-25 2021-02-25 Electronic device and operating method for the same
PCT/KR2022/002666 WO2022182135A1 (en) 2021-02-25 2022-02-23 Electronic device and operation method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210025972A KR20220121637A (en) 2021-02-25 2021-02-25 Electronic device and operating method for the same

Publications (1)

Publication Number Publication Date
KR20220121637A true KR20220121637A (en) 2022-09-01

Family

ID=83049510

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210025972A KR20220121637A (en) 2021-02-25 2021-02-25 Electronic device and operating method for the same

Country Status (2)

Country Link
KR (1) KR20220121637A (en)
WO (1) WO2022182135A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4556694B2 (en) * 2005-02-07 2010-10-06 ソニー株式会社 Encoding apparatus and method, recording medium, program, and image processing system
US10680823B2 (en) * 2017-11-09 2020-06-09 Cylance Inc. Password-less software system user authentication
KR102172772B1 (en) * 2018-07-18 2020-11-02 엘지전자 주식회사 Artificial intelligence artificial server and artificial intelligence device
KR20200044173A (en) * 2018-10-05 2020-04-29 삼성전자주식회사 Electronic apparatus and control method thereof
KR102247896B1 (en) * 2019-05-18 2021-05-04 주식회사 디퍼아이 Convolution neural network parameter optimization method, neural network computing method and apparatus

Also Published As

Publication number Publication date
WO2022182135A1 (en) 2022-09-01

Similar Documents

Publication Publication Date Title
US11042728B2 (en) Electronic apparatus for recognition of a user and operation method thereof
US11308955B2 (en) Method and apparatus for recognizing a voice
KR102428920B1 (en) Image display device and operating method for the same
EP3525205A1 (en) Electronic device and method of performing function of electronic device
Liu et al. uWave: Accelerometer-based personalized gesture recognition and its applications
US20200118010A1 (en) System and method for providing content based on knowledge graph
KR102375800B1 (en) electronic device providing speech recognition service and method thereof
KR102590914B1 (en) Electronic apparatus and Method for contolling the electronic apparatus thereof
KR102530045B1 (en) Image display device and operating method for the same
KR20190017548A (en) Mobile terminal and method using machine learning for controlling mobile terminal
KR20190084789A (en) Electric terminal and method for controlling the same
KR20190019401A (en) Electric terminal and method for controlling the same
KR102420567B1 (en) Method and device for voice recognition
KR102531654B1 (en) Method and device for authentication in voice input
KR20190117837A (en) Device and method for providing response message to user input
KR20190133100A (en) Electronic device and operating method for outputting a response for a voice input, by using application
US11328718B2 (en) Speech processing method and apparatus therefor
US11474780B2 (en) Method of providing speech recognition service and electronic device for same
KR20180054365A (en) Method and apparatus for providing sales information of goods
KR20200085143A (en) Conversational control system and method for registering external apparatus
KR102423754B1 (en) Device and method for providing response to question about device usage
WO2016206646A1 (en) Method and system for urging machine device to generate action
US20190163436A1 (en) Electronic device and method for controlling the same
KR20190048630A (en) Electric terminal and method for controlling the same
KR20190102507A (en) Display apparatus and operation method of the same