KR20210041757A - 전자 장치 및 그 제어 방법 - Google Patents
전자 장치 및 그 제어 방법 Download PDFInfo
- Publication number
- KR20210041757A KR20210041757A KR1020190124385A KR20190124385A KR20210041757A KR 20210041757 A KR20210041757 A KR 20210041757A KR 1020190124385 A KR1020190124385 A KR 1020190124385A KR 20190124385 A KR20190124385 A KR 20190124385A KR 20210041757 A KR20210041757 A KR 20210041757A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- emotion
- text
- user
- camera
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 45
- 230000008451 emotion Effects 0.000 claims abstract description 220
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 95
- 238000004891 communication Methods 0.000 description 24
- 238000013528 artificial neural network Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 9
- 230000005236 sound signal Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 239000000470 constituent Substances 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000007596 consolidation process Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 229910021420 polycrystalline silicon Inorganic materials 0.000 description 1
- 229920005591 polysilicon Polymers 0.000 description 1
- APTZNLHMIGJTEW-UHFFFAOYSA-N pyraflufen-ethyl Chemical compound C1=C(Cl)C(OCC(=O)OCC)=CC(C=2C(=C(OC(F)F)N(C)N=2)Cl)=C1F APTZNLHMIGJTEW-UHFFFAOYSA-N 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000000060 site-specific infrared dichroism spectroscopy Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
전자 장치가 개시된다. 본 전자 장치는 사용자 인터페이스, 카메라, 입력 이미지에 기초하여 감정에 대한 정보를 획득하도록 학습된 제1 인공 지능 모델(Artificial Intelligence Model)을 저장하는 메모리 및 사용자 인터페이스, 카메라 및 메모리와 연결되어 전자 장치를 제어하는 프로세서를 포함하고, 프로세서는 사용자 인터페이스를 통해 텍스트가 입력되면 텍스트가 사용자의 감정에 대한 제1 정보를 포함하는지 식별하며, 텍스트가 제1 정보를 포함하면 카메라를 통해 획득된 이미지를 제1 인공 지능 모델에 입력하여 감정에 대한 제2 정보를 획득하고, 텍스트로부터 획득된 제1 정보 및 이미지로부터 획득된 제2 정보에 기초하여 사용자의 감정의 타입을 식별할 수 있다.
Description
본 개시는 전자 장치 및 그 제어 방법에 대한 것으로, 더욱 상세하게는 사용자의 감정의 타입을 식별하는 전자 장치 및 그 제어 방법에 대한 것이다.
또한, 본 개시는 기계 학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 인공 지능(Artificial Intelligence, AI) 시스템 및 그 응용에 관한 것이다.
최근에는 사용자와의 인터랙션이 가능한 다양한 전자 장치가 개발되고 있다. 특히, 사용자와의 인터랙션을 위해 사용자의 감정의 타입을 식별하고, 식별된 감정의 타입에 따라 동작하는 전자 장치들이 개발되고 있다. 이때, 인공 지능 기술을 이용하여 사용자의 감정의 타입을 식별할 수도 있다.
다만, 종래에는 사용자의 이미지나 사용자의 오디오에 기초하여 사용자의 감정의 타입을 식별하는 경우, 일정 수준의 신뢰도를 확보할 수 있으나 전자 장치의 카메라 또는 마이크가 항상 턴 온될 필요가 있기 때문에 전력 소모가 증가하는 문제가 있었다.
특히, 사용자의 이미지나 사용자의 오디오를 인공 지능 기술에 적용할 경우, 실시간 처리가 어렵거나, 실시간 처리에 따른 로드(load)가 증가하는 문제가 있었다.
전력 소모 문제나 로드가 증가하는 문제를 회피하기 위해 사용자로부터 입력된 텍스트를 이용할 수도 있으나, 이 경우 사용자의 이미지나 사용자의 오디오를 이용하는 경우보다 상대적으로 신뢰도가 낮아지는 문제가 있다.
그에 따라, 전력 소모 문제나 로드가 증가하는 문제를 회피하면서도 높은 신뢰도로 사용자의 감정의 타입을 식별하는 방법이 개발될 필요가 있다.
본 개시는 상술한 필요성에 따른 것으로, 본 개시의 목적은 텍스트로부터 사용자의 감정의 타입을 식별하는 전자 장치 및 그 제어 방법을 제공함에 있다.
이상과 같은 목적을 달성하기 위한 본 개시의 일 실시 예에 따르면, 전자 장치는 사용자 인터페이스, 카메라, 입력 이미지에 기초하여 감정에 대한 정보를 획득하도록 학습된 제1 인공 지능 모델(Artificial Intelligence Model)을 저장하는 메모리 및 상기 사용자 인터페이스, 상기 카메라 및 상기 메모리와 연결되어 상기 전자 장치를 제어하는 프로세서를 포함하고, 상기 프로세서는 상기 사용자 인터페이스를 통해 텍스트가 입력되면 상기 텍스트가 사용자의 감정에 대한 제1 정보를 포함하는지 식별하며, 상기 텍스트가 상기 제1 정보를 포함하면 상기 카메라를 통해 획득된 이미지를 상기 제1 인공 지능 모델에 입력하여 감정에 대한 제2 정보를 획득하고, 상기 텍스트로부터 획득된 상기 제1 정보 및 상기 이미지로부터 획득된 상기 제2 정보에 기초하여 상기 사용자의 감정의 타입을 식별한다.
또한, 상기 프로세서는 상기 텍스트가 상기 제1 정보를 포함하면 상기 카메라를 턴 온하여 상기 이미지를 획득하고, 상기 획득된 이미지를 상기 제1 인공 지능 모델에 입력할 수 있다.
그리고, 상기 프로세서는 상기 카메라가 턴 온된 후 추가로 입력된 텍스트가 상기 사용자의 감정에 대한 제1 정보를 포함하지 않으면 상기 카메라를 턴 오프할 수 있다.
또한, 상기 제1 정보는 적어도 하나의 제1 감정 정보 및 상기 적어도 하나의 제1 감정 정보 각각의 제1 신뢰도 정보를 포함하고, 상기 제2 정보는 적어도 하나의 제2 감정 정보 및 상기 적어도 하나의 제2 감정 정보 각각의 제2 신뢰도 정보를 포함하며, 상기 프로세서는 상기 제1 신뢰도 정보 및 상기 제2 신뢰도 정보를 감정의 타입 별로 가중합(weighted sum)하여 상기 사용자의 감정의 타입을 식별할 수 있다.
그리고, 상기 제1 정보는 적어도 하나의 제1 감정 정보 및 상기 적어도 하나의 제1 감정 정보 각각의 제1 신뢰도 정보를 포함하고, 상기 프로세서는 상기 적어도 하나의 제1 감정 정보의 제1 신뢰도 정보가 임계값 이상인 경우, 상기 텍스트가 상기 사용자의 감정에 대한 정보를 포함하는 것으로 식별할 수 있다.
또한, 상기 메모리는 텍스트에 기초하여 감정에 대한 정보를 획득하도록 학습된 제2 인공 지능 모델을 저장하며, 상기 프로세서는 상기 텍스트를 상기 제2 인공 지능 모델에 입력하여 획득된 정보로부터 상기 텍스트가 상기 제1 정보를 포함하는지 여부를 식별할 수 있다.
그리고, 마이크를 더 포함하며, 상기 메모리는 오디오에 기초하여 감정에 대한 정보를 획득하도록 학습된 제3 인공 지능 모델을 저장하며, 상기 프로세서는 상기 텍스트가 상기 제1 정보를 포함하면 상기 마이크를 턴 온하고, 상기 마이크를 통해 수신된 오디오를 상기 제3 인공 지능 모델에 입력하여 감정에 대한 제3 정보를 획득하며, 상기 제1 정보, 상기 제2 정보 및 상기 제3 정보에 기초하여 상기 사용자의 감정의 타입을 식별할 수 있다.
또한, 상기 프로세서는 상기 카메라를 통해 실시간으로 복수의 이미지를 획득하고, 상기 텍스트가 상기 제1 정보를 포함하면, 상기 복수의 이미지 중 상기 텍스트가 입력된 시점부터 획득된 이미지를 상기 제1 인공 지능 모델에 입력할 수 있다.
그리고, 디스플레이를 더 포함하며, 상기 프로세서는 상기 식별된 사용자의 감정의 타입에 대응되는 적어도 하나의 추천 이모티콘을 디스플레이하도록 상기 디스플레이를 제어할 수 있다.
또한, 상기 전자 장치는 모바일 디바이스이고, 디스플레이를 더 포함하며, 상기 카메라는 상기 디스플레이의 전방을 촬영할 수 있다.
한편, 본 개시의 일 실시 예에 따르면, 전자 장치의 제어 방법은 텍스트가 입력되면 상기 텍스트가 사용자의 감정에 대한 제1 정보를 포함하는지 식별하는 단계, 상기 텍스트가 상기 제1 정보를 포함하면 상기 전자 장치의 카메라를 통해 획득된 이미지를 제1 인공 지능 모델(Artificial Intelligence Model)에 입력하여 감정에 대한 제2 정보를 획득하는 단계 및 상기 텍스트로부터 획득된 상기 제1 정보 및 상기 이미지로부터 획득된 상기 제2 정보에 기초하여 상기 사용자의 감정의 타입을 식별하는 단계를 포함한다.
또한, 상기 제2 정보를 획득하는 단계는 상기 텍스트가 상기 제1 정보를 포함하면 상기 카메라를 턴 온하여 상기 이미지를 획득하고, 상기 획득된 이미지를 상기 제1 인공 지능 모델에 입력할 수 있다.
그리고, 상기 카메라가 턴 온된 후 추가로 입력된 텍스트가 상기 사용자의 감정에 대한 제1 정보를 포함하지 않으면 상기 카메라를 턴 오프하는 단계를 더 포함할 수 있다.
또한, 상기 제1 정보는 적어도 하나의 제1 감정 정보 및 상기 적어도 하나의 제1 감정 정보 각각의 제1 신뢰도 정보를 포함하고, 상기 제2 정보는 적어도 하나의 제2 감정 정보 및 상기 적어도 하나의 제2 감정 정보 각각의 제2 신뢰도 정보를 포함하며, 상기 사용자의 감정의 타입을 식별하는 단계는 상기 제1 신뢰도 정보 및 상기 제2 신뢰도 정보를 감정의 타입 별로 가중합(weighted sum)하여 상기 사용자의 감정의 타입을 식별할 수 있다.
그리고, 상기 제1 정보는 적어도 하나의 제1 감정 정보 및 상기 적어도 하나의 제1 감정 정보 각각의 제1 신뢰도 정보를 포함하고, 상기 제1 정보를 포함하는지 식별하는 단계는 상기 적어도 하나의 제1 감정 정보의 제1 신뢰도 정보가 임계값 이상인 경우, 상기 텍스트가 상기 사용자의 감정에 대한 정보를 포함하는 것으로 식별할 수 있다.
또한, 상기 제1 정보를 포함하는지 식별하는 단계는 상기 텍스트를 제2 인공 지능 모델에 입력하여 획득된 정보로부터 상기 텍스트가 상기 제1 정보를 포함하는지 여부를 식별할 수 있다.
그리고, 상기 텍스트가 상기 제1 정보를 포함하면 상기 전자 장치의 마이크를 턴 온하는 단계 및 상기 마이크를 통해 수신된 오디오를 제3 인공 지능 모델에 입력하여 감정에 대한 제3 정보를 획득하는 단계를 더 포함하며, 상기 사용자의 감정의 타입을 식별하는 단계는 상기 제1 정보, 상기 제2 정보 및 상기 제3 정보에 기초하여 상기 사용자의 감정의 타입을 식별할 수 있다.
또한, 상기 제2 정보를 획득하는 단계는 상기 카메라를 통해 실시간으로 복수의 이미지를 획득하고, 상기 텍스트가 상기 제1 정보를 포함하면, 상기 복수의 이미지 중 상기 텍스트가 입력된 시점부터 획득된 이미지를 상기 제1 인공 지능 모델에 입력할 수 있다.
그리고, 상기 식별된 사용자의 감정의 타입에 대응되는 적어도 하나의 추천 이모티콘을 상기 전자 장치의 디스플레이를 통해 디스플레이하는 단계를 더 포함할 수 있다.
또한, 상기 전자 장치는 디스플레이가 구비된 모바일 디바이스이고, 상기 제2 정보를 획득하는 단계는 상기 카메라를 통해 상기 디스플레이의 전방을 촬영할 수 있다.
이상과 같은 본 개시의 다양한 실시 예에 따르면, 전자 장치는 텍스트로부터 사용자의 감정의 타입이 식별되면 카메라 또는 마이크를 턴 온함에 따라 전력 소모를 줄이고, 카메라 또는 마이크로부터 획득된 이미지 또는 오디오를 더 고려하여 사용자의 감정의 타입에 대한 신뢰도를 향상시킬 수 있다.
도 1은 전자 장치의 구성의 일 예를 나타내는 블럭도이다.
도 2는 본 개시의 일 실시 예에 따른 사용자의 감정의 타입을 식별하는 방법을 설명하기 위한 도면이다.
도 3은 본 개시의 일 실시 예에 따른 감정의 타입을 식별하는 동작을 설명하기 위한 도면이다.
도 4는 본 개시의 일 실시 예에 따른 감정의 타입을 식별하는 동작을 좀더 구체적으로 설명하기 위한 도면이다.
도 5a 내지 도 5c는 본 개시의 일 실시 예를 구체적으로 설명하기 위한 도면들이다.
도 6a 내지 도 6c는 본 개시의 다양한 실시 예에 따른 전력 소모를 설명하기 위한 도면들이다.
도 7은 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
도 2는 본 개시의 일 실시 예에 따른 사용자의 감정의 타입을 식별하는 방법을 설명하기 위한 도면이다.
도 3은 본 개시의 일 실시 예에 따른 감정의 타입을 식별하는 동작을 설명하기 위한 도면이다.
도 4는 본 개시의 일 실시 예에 따른 감정의 타입을 식별하는 동작을 좀더 구체적으로 설명하기 위한 도면이다.
도 5a 내지 도 5c는 본 개시의 일 실시 예를 구체적으로 설명하기 위한 도면들이다.
도 6a 내지 도 6c는 본 개시의 다양한 실시 예에 따른 전력 소모를 설명하기 위한 도면들이다.
도 7은 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
이하에서, 첨부된 도면을 이용하여 본 개시의 다양한 실시 예들에 대하여 구체적으로 설명한다.
도 1은 전자 장치(100)의 구성의 일 예를 나타내는 블럭도이다.
전자 장치(100)는 사용자와 인터랙션이 가능한 장치로서, 특히 사용자의 감정의 타입을 식별할 수 있는 장치일 수 있다. 예를 들어 전자 장치(100)는 스피커, 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, PDA, PMP(portable multimedia player), MP3 플레이어, 카메라 등과 같은 장치일 수 있다. 다만, 이에 한정되는 것은 아니며, 전자 장치(100)는 사용자와 인터랙션이 가능한 장치라면 어떠한 장치라도 무방하다.
여기서, 사용자의 감정은 어떤 현상이나 일에 대하여 일어나는 마음이나 느끼는 기분을 의미하며, 예를 들어 기쁨, 즐거움, 슬픔, 화남, 놀람 등일 수 있다. 다만, 이는 일 실시 예에 불과하고, 사용자의 감정은 얼마든지 다양할 수 있다. 또한, 사용자의 감정은 단순히 정신적인 작용으로 발생하는 것뿐만 아니라, 신체적인 작용에 의해 발생하는 것도 포함할 수 있다. 가령, 사용자가 감기가 걸림에 따른 아픔도 사용자의 감정에 포함될 수 있다.
전자 장치(100)는 사용자로부터 입력된 텍스트, 사용자의 이미지 또는 사용자의 오디오 중 적어도 하나를 이용하여 사용자의 감정의 타입을 식별하는 장치일 수 있다. 즉, 전자 장치(100)는 텍스트를 입력받거나, 사용자의 이미지를 촬영하거나 사용자의 오디오를 획득할 수 있다. 예를 들어, 전자 장치(100)는 사용자로부터 텍스트를 입력받고, 텍스트로부터 사용자의 감정의 타입을 식별할 수 있다.
전자 장치(100)는 식별된 사용자의 감정의 타입에 기초하여 동작하는 장치일 수 있다. 예를 들어, 전자 장치(100)는 디스플레이를 포함하며, 식별된 사용자의 감정의 타입에 대응되는 적어도 하나의 추천 이모티콘을 디스플레이를 통해 디스플레이하는 장치일 수 있다. 다만, 이에 한정되는 것은 아니며, 전자 장치(100)는 음성 대화 또는 텍스트 대화가 가능한 장치로서, 식별된 사용자의 감정의 타입에 기초하여 사용자와 대화를 수행할 수도 있다.
도 1에 따르면, 전자 장치(100)는 사용자 인터페이스(110), 카메라(120), 메모리(130) 및 프로세서(140)를 포함한다.
사용자 인터페이스(110)는 다양한 사용자 인터랙션(interaction)을 수신한다. 예를 들어, 사용자 인터페이스(110)는 사용자로부터 텍스트를 입력받는 구성으로, 키보드, 터치 패드, 마우스 등과 같은 장치일 수 있다.
여기서, 전자 장치(100)가 터치 기반의 단말 장치로 구현되는 경우 사용자 인터페이스(110)는 터치 패드와 상호 레이어 구조를 이루는 터치 스크린 형태로 구현될 수도 있다. 이 경우, 사용자 인터페이스(110)는 디스플레이로 사용될 수도 있다.
다만, 이에 한정되는 것은 아니며, 사용자 인터페이스(110)는 사용자로부터 텍스트 입력이 가능한 모든 구성을 포함할 수 있다. 예를 들어, 사용자 인터페이스(110)는 마이크로부터 입력된 오디오를 텍스트로 변환하여 텍스트를 획득하는 구성을 포함할 수도 있다.
카메라(120)는 사용자 또는 후술할 프로세서(140)의 제어에 따라 정지 영상 또는 동영상을 촬상하기 위한 구성이다. 카메라(120)는 특정 시점에서의 정지 영상을 촬영할 수 있으나, 연속적으로 정지 영상을 촬영할 수도 있다. 전자 장치(100)가 디스플레이를 포함하는 모바일 디바이스인 경우, 카메라(120)는 디스플레이의 전방을 촬영하도록 구현될 수 있다.
카메라(120)는 렌즈, 셔터, 조리개, 고체 촬상 소자, AFE(Analog Front End), TG(Timing Generator)를 포함한다. 셔터는 피사체에 반사된 빛이 카메라(120)로 들어오는 시간을 조절하고, 조리개는 빛이 들어오는 개구부의 크기를 기계적으로 증가 또는 감소시켜 렌즈에 입사되는 광량을 조절한다. 고체 촬상 소자는 피사체에 반사된 빛이 광전하로 축적되면, 광전하에 의한 상을 전기 신호로 출력한다. TG는 고체 촬상 소자의 픽셀 데이터를 리드아웃 하기 위한 타이밍 신호를 출력하며, AFE는 고체 촬상 소자로부터 출력되는 전기 신호를 샘플링하여 디지털화한다.
메모리(130)는 다양한 인공 지능 모델(Artificial Intelligence Model)을 저장할 수 있다. 예를 들어, 메모리(130)는 입력 이미지에 기초하여 감정에 대한 정보를 획득하도록 학습된 제1 인공 지능 모델, 텍스트에 기초하여 감정에 대한 정보를 획득하도록 학습된 제2 인공 지능 모델 또는 오디오에 기초하여 감정에 대한 정보를 획득하도록 학습된 제3 인공 지능 모델 중 적어도 하나를 저장할 수 있다. 이하에서는 설명의 편의를 위하여, 입력 이미지, 텍스트, 오디오 각각에 대응되는 인공 지능 모델을 제1 인공 지능 모델, 제2 인공 지능 모델, 제3 인공 지능 모델로서 설명한다.
또한, 메모리(130)는 사용자로부터 입력된 텍스트, 카메라(120)에 의해 촬영된 이미지, 마이크에 의해 수신된 오디오 등을 저장할 수도 있다.
메모리(130)는 비휘발성 메모리 및 휘발성 메모리 등으로 구현될 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 메모리(130) 대신 하드디스크가 이용될 수도 있으며, 데이터를 저장할 수 있는 구성이라면 어떠한 구성이라도 가능하다.
프로세서(140)는 전자 장치(100)의 동작을 전반적으로 제어한다. 구체적으로, 프로세서(140)는 전자 장치(100)의 각 구성과 연결되어 전자 장치(100)의 동작을 전반적으로 제어할 수 있다. 예를 들어, 프로세서(140)는 사용자 인터페이스(110), 카메라(120) 및 메모리(130)와 연결되어 전자 장치(100)의 동작을 제어할 수 있다.
일 실시 예에 따라 프로세서(140)는 디지털 시그널 프로세서(digital signal processor(DSP), 마이크로 프로세서(microprocessor), TCON(Time controller)으로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)), ARM 프로세서 중 하나 또는 그 이상을 포함하거나, 해당 용어로 정의될 수 있다. 또한, 프로세서(140)는 프로세싱 알고리즘이 내장된 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, FPGA(Field Programmable gate array) 형태로 구현될 수도 있다.
프로세서(140)는 사용자 인터페이스(110)를 통해 텍스트가 입력되면 텍스트가 사용자의 감정에 대한 제1 정보를 포함하는지 식별할 수 있다. 예를 들어, 프로세서(140)는 사용자 인터페이스(110)를 통해 "나 오늘 기분 좋아!"라는 텍스트가 입력되면 텍스트가 사용자의 감정에 대한 제1 정보를 포함하는 것으로 식별할 수 있다. 여기서, 제1 정보는 기쁨일 수 있다. 또는, 프로세서(140)는 사용자 인터페이스(110)를 통해 "10시까지 가야해!"라는 텍스트가 입력되면 텍스트가 사용자의 감정에 대한 제1 정보를 포함하지 않는 것으로 식별할 수 있다.
프로세서(140)는 텍스트가 제1 정보를 포함하면 카메라(120)를 통해 획득된 이미지를 제1 인공 지능 모델에 입력하여 감정에 대한 제2 정보를 획득할 수 있다.
프로세서(140)는 텍스트로부터 획득된 제1 정보 및 이미지로부터 획득된 제2 정보에 기초하여 사용자의 감정의 타입을 식별할 수 있다. 예를 들어, 프로세서(140)는 텍스트로부터 획득된 제1 정보가 기쁨이고, 이미지로부터 획득된 제2 정보가 기쁨이면, 사용자의 감정의 타입을 기쁨으로 식별할 수 있다. 제1 정보 및 제2 정보가 다른 경우에 대하여는 후술한다.
한편, 프로세서(140)는 텍스트가 제1 정보를 포함하면 카메라(120)를 턴 온하여 이미지를 획득하고, 획득된 이미지를 제1 인공 지능 모델에 입력할 수 있다. 즉, 프로세서(140)는 사용자로부터 텍스트가 입력되고, 입력된 텍스트가 감정에 대한 정보를 포함하는 경우에만 카메라(120)를 턴 온할 수도 있다. 이러한 동작에 따라 카메라(120)가 소비하는 전력 소모를 줄일 수 있다.
그리고, 프로세서(140)는 카메라(120)가 턴 온된 후 추가로 입력된 텍스트가 사용자의 감정에 대한 제1 정보를 포함하지 않으면 카메라(120)를 턴 오프할 수 있다. 다만, 이에 한정되는 것은 아니며, 프로세서(140)는 카메라(120)가 턴 온된 후, 한 장의 이미지만을 촬영한 후 카메라(120)를 턴 오프할 수도 있다. 또는, 프로세서(140)는 카메라(120)가 턴 온된 후, 임계 시간 후에 카메라(120)를 턴 오프할 수도 있다. 또는, 프로세서(140)는 카메라(120)가 턴 온된 후, 촬영된 이미지에 사용자가 인식된 경우에 카메라(120)를 턴 오프할 수도 있다.
한편, 이상에서는 설명의 편의를 위해, 제1 정보가 기쁨인 경우를 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 프로세서(140)는 텍스트로부터 복수의 감정에 대한 정보를 식별할 수도 있다. 즉, 제1 정보는 적어도 하나의 제1 감정 정보 및 적어도 하나의 제1 감정 정보 각각의 제1 신뢰도 정보를 포함하고, 제2 정보는 적어도 하나의 제2 감정 정보 및 적어도 하나의 제2 감정 정보 각각의 제2 신뢰도 정보를 포함할 수도 있다. 예를 들어, 제1 정보는 기쁨, 즐거움, 평정을 포함하고, 기쁨, 즐거움, 평정 각각이 30%, 70%, 10%의 신뢰도를 갖는다는 신뢰도 정보를 포함하고, 제2 정보는 즐거움, 평정, 슬픔을 포함하고, 즐거움, 평정, 슬픔 각각이 50%, 30%, 60%의 신뢰도를 갖는다는 신뢰도 정보를 포함할 수 있다.
프로세서(140)는 제1 신뢰도 정보 및 제2 신뢰도 정보를 감정의 타입 별로 가중합(weighted sum)하여 사용자의 감정의 타입을 식별할 수 있다. 상술한 예에 따르면, 프로세서(140)는 기쁨, 즐거움, 평정, 슬픔 각각에 대한 가중합 결과로서 30%, 120%, 40%, 60%의 신뢰도 정보를 획득하고, 사용자의 감정의 타입을 즐거움으로 결정할 수 있다. 여기서, 설명의 편의를 위하여 각각의 가중치가 동일한 것으로 가정하였다.
한편, 제1 정보는 적어도 하나의 제1 감정 정보 및 적어도 하나의 제1 감정 정보 각각의 제1 신뢰도 정보를 포함하고, 프로세서(140)는 적어도 하나의 제1 감정 정보의 제1 신뢰도 정보가 임계값 이상인 경우, 텍스트가 사용자의 감정에 대한 정보를 포함하는 것으로 식별할 수 있다. 예를 들어, 제1 정보는 기쁨, 즐거움, 평정을 포함하고, 기쁨, 즐거움, 평정 각각이 5%, 7%, 1%의 신뢰도를 갖는다는 신뢰도 정보를 포함하며, 임계값이 10%인 경우, 프로세서(140)는 텍스트가 사용자의 감정에 대한 정보를 포함하지 않는 것으로 식별할 수 있다. 이러한 동작은 제2 정보 및 후술할 제3 정보에 대하여도 동일하게 적용될 수 있다.
한편, 메모리(130)는 텍스트에 기초하여 감정에 대한 정보를 획득하도록 학습된 제2 인공 지능 모델을 저장하며, 프로세서(140)는 텍스트를 제2 인공 지능 모델에 입력하여 획득된 정보로부터 텍스트가 제1 정보를 포함하는지 여부를 식별할 수 있다. 다만, 이에 한정되는 것은 아니며, 프로세서(140)는 인공 지능 모델을 이용하지 않고, 텍스트에 포함된 단어에 기초하여 텍스트가 제1 정보를 포함하는지 식별할 수도 있다.
한편, 전자 장치(100)는 마이크를 더 포함하며, 메모리(130)는 오디오에 기초하여 감정에 대한 정보를 획득하도록 학습된 제3 인공 지능 모델을 저장하며, 프로세서(140)는 텍스트가 제1 정보를 포함하면 마이크를 턴 온하고, 마이크를 통해 수신된 오디오를 제3 인공 지능 모델에 입력하여 감정에 대한 제3 정보를 획득하며, 제1 정보, 제2 정보 및 제3 정보에 기초하여 사용자의 감정의 타입을 식별할 수도 있다. 즉, 프로세서(140)는 사용자로부터 텍스트가 입력되고, 입력된 텍스트가 감정에 대한 정보를 포함하는 경우에만 마이크를 턴 온할 수도 있다. 이러한 동작에 따라 마이크가 소비하는 전력 소모를 줄일 수 있다.
다만, 이에 한정되는 것은 아니며, 프로세서(140)는 사용자로부터 텍스트가 입력되고, 입력된 텍스트가 감정에 대한 정보를 포함하는 경우, 마이크를 카메라(120)보다 먼저 턴 온할 수도 있다. 이 경우, 프로세서(140)는 텍스트로부터 획득된 제1 정보 및 오디오로부터 획득된 제3 정보에 기초하여 사용자의 감정의 타입을 식별할 수도 있다. 또는, 프로세서(140)는 사용자로부터 텍스트가 입력되고, 입력된 텍스트가 감정에 대한 정보를 포함하는 경우, 센서를 통해 사용자가 감지되면 카메라(120)를 턴 온하고, 센서를 통해 사용자가 감지되지 않으면 마이크를 턴 온할 수도 있다. 또는, 프로세서(140)는 사용자로부터 텍스트가 입력되고, 입력된 텍스트가 감정에 대한 정보를 포함하는 경우, 카메라(120)를 턴 온하여 촬영된 이미지가 사용자를 포함하면 이미지로부터 제2 정보를 획득하고, 촬영된 이미지가 사용자를 포함하지 않으면 마이크를 턴 온할 수도 있다.
한편, 이상에서는 프로세서(140)가 입력된 텍스트에 감정이 포함된 경우, 카메라(120) 또는 마이크를 턴 온하는 것으로 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 카메라(120) 또는 마이크는 항상 턴 온되어 있고, 프로세서(140)는 입력된 텍스트에 감정이 포함된 경우, 카메라(120) 또는 마이크로부터 획득된 데이터로부터 사용자의 감정의 타입을 식별할 수도 있다. 즉, 카메라(120) 또는 마이크로부터 연속적으로 데이터가 획득되나, 프로세서(140)는 입력된 텍스트에 감정이 포함되었다고 식별하기 전까지는 분석 동작을 수행하지 않을 수도 있다.
가령, 프로세서(140)는 카메라(120)를 통해 실시간으로 복수의 이미지를 획득하고, 텍스트가 제1 정보를 포함하면, 복수의 이미지 중 텍스트가 입력된 시점부터 획득된 이미지를 제1 인공 지능 모델에 입력할 수 있다. 또는, 프로세서(140)는 마이크를 통해 실시간으로 오디오를 획득하고, 텍스트가 제1 정보를 포함하면, 오디오 중 텍스트가 입력된 시점부터 획득된 오디오 구간을 제3 인공 지능 모델에 입력할 수도 있다.
이 경우, 카메라(120) 또는 마이크가 꺼져있는 경우보다 전력 소모가 증가할 수는 있으나, 모든 데이터로부터 감정의 타입을 식별하는 경우보다는 전력 소모가 감소할 수 있다. 또한, 카메라(120) 또는 마이크가 꺼져있는 경우보다 카메라(120) 또는 마이크가 켜져있는 경우가 감정의 타입을 식별하는 동작이 좀더 정확할 수도 있다. 예를 들어, 카메라(120) 또는 마이크가 꺼져있는 경우, 이를 다시 턴 온하기까지 일정 시간이 소요될 수 있다. 가령, 텍스트를 분석하여 턴 온을 결정하기까지 필요한 시간, 턴 온 자체에 필요한 시간 및 턴 온 후 카메라(120) 또는 마이크로부터 데이터를 획득하기까지 걸리는 시간이 소요될 수 있으며, 이러한 시간이 경과한 후에 사용자의 감정 상태가 순간적으로 변경될 수도 있기 때문에 정확도가 좀더 낮아질 수도 있다.
한편, 전자 장치(100)는 디스플레이를 더 포함하며, 프로세서(140)는 식별된 사용자의 감정의 타입에 대응되는 적어도 하나의 추천 이모티콘을 디스플레이하도록 디스플레이를 제어할 수 있다.
또는, 전자 장치(100)는 모바일 디바이스이고, 디스플레이를 더 포함하며, 카메라(120)는 디스플레이의 전방을 촬영하도록 구현될 수도 있다.
한편, 본 개시에 따른 인공 지능과 관련된 기능은 프로세서(140)와 메모리(130)를 통해 동작된다.
프로세서(140)는 하나 또는 복수의 프로세서로 구성될 수 있다. 이때, 하나 또는 복수의 프로세서는 CPU, AP, DSP(Digital Signal Processor) 등과 같은 범용 프로세서, GPU, VPU(Vision Processing Unit)와 같은 그래픽 전용 프로세서 또는 NPU와 같은 인공 지능 전용 프로세서일 수 있다.
하나 또는 복수의 프로세서는, 메모리에 저장된 기 정의된 동작 규칙 또는 인공 지능 모델에 따라, 입력 데이터를 처리하도록 제어한다. 또는, 하나 또는 복수의 프로세서가 인공 지능 전용 프로세서인 경우, 인공 지능 전용 프로세서는, 특정 인공 지능 모델의 처리에 특화된 하드웨어 구조로 설계될 수 있다. 기 정의된 동작 규칙 또는 인공 지능 모델은 학습을 통해 만들어진 것을 특징으로 한다.
여기서, 학습을 통해 만들어진다는 것은, 기본 인공 지능 모델이 학습 알고리즘에 의하여 다수의 학습 데이터들을 이용하여 학습됨으로써, 원하는 특성(또는, 목적)을 수행하도록 설정된 기 정의된 동작 규칙 또는 인공 지능 모델이 만들어짐을 의미한다. 이러한 학습은 본 개시에 따른 인공 지능이 수행되는 기기 자체에서 이루어질 수도 있고, 별도의 서버 및/또는 시스템을 통해 이루어 질 수도 있다. 학습 알고리즘의 예로는, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)이 있으나, 전술한 예에 한정되지 않는다.
인공 지능 모델은, 복수의 신경망 레이어들로 구성될 수 있다. 복수의 신경망 레이어들 각각은 복수의 가중치들(weight values)을 갖고 있으며, 이전(previous) 레이어의 연산 결과와 복수의 가중치들 간의 연산을 통해 신경망 연산을 수행한다. 복수의 신경망 레이어들이 갖고 있는 복수의 가중치들은 인공 지능 모델의 학습 결과에 의해 최적화될 수 있다. 예를 들어, 학습 과정 동안 인공 지능 모델에서 획득한 로스(loss) 값 또는 코스트(cost) 값이 감소 또는 최소화되도록 복수의 가중치들이 갱신될 수 있다.
인공 신경망은 심층 신경망(DNN:Deep Neural Network)를 포함할 수 있으며, 예를 들어, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 또는 심층 Q-네트워크 (Deep Q-Networks) 등이 있으나, 전술한 예에 한정되지 않는다.
한편, 전자 장치(100)는 디스플레이(150), 마이크(160), 통신 인터페이스(170)를 더 포함할 수도 있다.
디스플레이(150)는 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, PDP(Plasma Display Panel) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 디스플레이(150) 내에는 a-si TFT, LTPS(low temperature poly silicon) TFT, OTFT(organic TFT) 등과 같은 형태로 구현될 수 있는 구동 회로, 백라이트 유닛 등도 함께 포함될 수 있다. 한편, 디스플레이(150)는 터치 센서와 결합된 터치 스크린, 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 등으로 구현될 수 있다.
마이크(160)는 사용자 음성이나 기타 소리를 입력받아 오디오 데이터로 변환하기 위한 구성이다.
마이크(160)는 활성화 상태에서 사용자의 음성을 수신할 수 있다. 예를 들어, 마이크(160)는 전자 장치(100)의 상측이나 전면 방향, 측면 방향 등에 일체화된 일체형으로 형성될 수 있다. 마이크(160)는 아날로그 형태의 사용자 음성을 수집하는 마이크, 수집된 사용자 음성을 증폭하는 앰프 회로, 증폭된 사용자 음성을 샘플링하여 디지털 신호로 변환하는 A/D 변환회로, 변환된 디지털 신호로부터 노이즈 성분을 제거하는 필터 회로 등과 같은 다양한 구성을 포함할 수 있다.
한편, 전자 장치(100)는 마이크를 포함하는 센서 장치로부터 사용자 음성을 포함하는 오디오 신호를 수신할 수 있다. 이 경우, 수신된 오디오 신호는 디지털 음성 신호일 수 있으나, 구현 예에 따라 아날로그 음성 신호일 수 있다. 일 예로, 전자 장치(100)는 Bluetooth 또는 Wi-Fi 등의 무선 통신 방법을 통해 오디오 신호를 수신할 수 있다.
통신 인터페이스(170)는 다양한 유형의 통신방식에 따라 다양한 유형의 외부 장치와 통신을 수행하는 구성이다. 통신 인터페이스(170)는 와이파이 모듈(171), 블루투스 모듈(172), 적외선 통신 모듈(173) 및 무선 통신 모듈(174) 등을 포함한다. 여기서, 각 통신 모듈은 적어도 하나의 하드웨어 칩 형태로 구현될 수 있다.
프로세서(140)는 통신 인터페이스(170)를 이용하여 각종 외부 장치와 통신을 수행할 수 있다. 여기서, 외부 장치는 TV와 같은 디스플레이 장치, 외부 서버, 블루투스 이어폰 등을 포함할 수 있다.
와이파이 모듈(171), 블루투스 모듈(172)은 각각 WiFi 방식, 블루투스 방식으로 통신을 수행한다. 와이파이 모듈(171)이나 블루투스 모듈(172)을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다.
적외선 통신 모듈(173)은 시 광선과 밀리미터파 사이에 있는 적외선을 이용하여 근거리에 무선으로 데이터를 전송하는 적외선 통신(IrDA, infrared Data Association)기술에 따라 통신을 수행한다.
무선 통신 모듈(174)은 상술한 통신 방식 이외에 지그비(zigbee), 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), LTE-A(LTE Advanced), 4G(4th Generation), 5G(5th Generation)등과 같은 다양한 무선 통신 규격에 따라 통신을 수행하는 적어도 하나의 통신 칩을 포함할 수 있다.
그 밖에 통신 인터페이스(170)는 LAN(Local Area Network) 모듈, 이더넷 모듈, 또는 페어 케이블, 동축 케이블 또는 광섬유 케이블 등을 이용하여 통신을 수행하는 유선 통신 모듈 중 적어도 하나를 포함할 수 있다.
통신 인터페이스(170)는 입출력 인터페이스를 더 포함할 수 있다. 입출력 인터페이스는 HDMI(High Definition Multimedia Interface), MHL (Mobile High-Definition Link), USB (Universal Serial Bus), DP(Display Port), 썬더볼트(Thunderbolt), VGA(Video Graphics Array)포트, RGB 포트, D-SUB(D-subminiature), DVI(Digital Visual Interface) 중 어느 하나의 인터페이스일 수 있다.
입출력 인터페이스는 오디오 및 비디오 신호 중 적어도 하나를 입출력 할 수 있다.
구현 예에 따라, 입출력 인터페이스는 오디오 신호만을 입출력하는 포트와 비디오 신호만을 입출력하는 포트를 별개의 포트로 포함하거나, 오디오 신호 및 비디오 신호를 모두 입출력하는 하나의 포트로 구현될 수 있다.
그 밖에 전자 장치(100)는 스피커(미도시)를 더 포함할 수도 있으며, 스피커는 입출력 인터페이스에서 처리된 각종 오디오 데이터뿐만 아니라 각종 알림 음이나 음성 메시지 등을 출력하는 구성 요소일 수 있다.
이상과 같이 전자 장치(100)는 텍스트가 감정에 대한 정보를 포함하면, 카메라(120) 또는 마이크 중 적어도 하나로부터 획득된 데이터를 더 이용하여 사용자의 감정의 타입을 식별할 수 있다.
이하에서는 도 2 내지 도 6c를 통해 전자 장치(100)의 동작을 좀더 구체적으로 설명한다. 도 2 내지 도 6c에서는 설명의 편의를 위해 개별적인 실시 예에 대하여 설명한다. 다만, 도 2 내지 도 6c의 개별적인 실시 예는 얼마든지 조합된 상태로 실시될 수도 있다.
도 2는 본 개시의 일 실시 예에 따른 사용자의 감정의 타입을 식별하는 방법을 설명하기 위한 도면이다.
도 2에 도시된 바와 같이, 프로세서(140)는 제1 인공 지능 모델(Neural Network 1, NN1, 210), 제2 인공 지능 모델(Neural Network 2, NN2, 220) 및 제3 인공 지능 모델(Neural Network 3, NN3, 230)을 이용하여 사용자의 감정의 타입을 식별할 수 있다. 여기서, 제1 인공 지능 모델(210), 제2 인공 지능 모델(220) 및 제3 인공 지능 모델(230)은 메모리(130)에 저장된 정보일 수 있다.
프로세서(140)는 입력된 텍스트가 사용자의 감정에 대한 제1 정보를 포함하는지 식별하기 위해, 텍스트를 제2 인공 지능 모델(220)에 입력할 수 있다. 여기서, 제2 인공 지능 모델(220)은 텍스트에 기초하여 감정에 대한 정보를 획득하도록 학습된 모델로서, 복수의 샘플 텍스트 및 복수의 샘플 텍스트에 각각 대응되는 감정에 대한 정보를 학습하여 획득될 수 있다. 특히, 제2 인공 지능 모델(220)은 단어 뿐만 아니라 문장에 포함된 단어 간의 관계 및 대화 내에서 문장 간의 관계를 학습한 모델일 수 있다.
제2 인공 지능 모델(220)의 출력(b)은 감정의 타입 별 신뢰도 정보를 포함할 수 있다. 예를 들어, 텍스트가 제2 인공 지능 모델(220)에 입력되면, 기쁨(30%), 즐거움(5%)이 출력될 수 있다. 여기서, 괄호 안은 감정의 타입 별 신뢰도 정보이며, 높을수록 정확하다. 프로세서(140)는 임계값 이상의 신뢰도 정보를 갖는 감정만을 이용할 수 있다. 이상의 예에서 임계값이 10%이면, 프로세서(140)는 텍스트로부터 기쁨(30%)만을 제1 정보로서 이용할 수 있다. 이 경우, 텍스트가 제1 정보를 포함하므로, 프로세서(140)는 카메라(120) 또는 마이크(160)를 이용하는 추가 동작을 수행하게 된다.
만약, 제2 인공 지능 모델(220)의 출력(b)이 즐거움(5%)이면, 프로세서(140)는 텍스트가 제1 정보를 포함하지 않는 것으로 식별하고, 카메라(120) 또는 마이크(160)를 이용하는 추가 동작을 수행하지 않게 된다.
다만, 이에 한정되는 것은 아니며, 제2 인공 지능 모델(220) 자체가 임계값 이하의 신뢰도를 갖는 감정의 타입을 출력하지 않도록 학습될 수도 있다. 이상의 예에서 임계값이 10%이며, 제2 인공 지능 모델(220)은 기쁨(30%), 즐거움(5%) 중 기쁨(30%)만을 출력할 수도 있다. 이 경우, 프로세서(140)는 제2 인공 지능 모델(220)의 출력이 있는 경우, 카메라(120) 또는 마이크(160)를 이용하는 추가 동작을 수행하고, 제2 인공 지능 모델(220)의 출력이 없는 경우, 카메라(120) 또는 마이크(160)를 이용하는 추가 동작을 수행하지 않을 수 있다.
프로세서(140)는 텍스트가 제1 정보를 포함하면 카메라(120)를 통해 획득된 이미지를 제1 인공 지능 모델(210)에 입력하여 제1 인공 지능 모델(210)의 출력(a)으로서 감정에 대한 제2 정보를 획득할 수 있다. 여기서, 제1 인공 지능 모델(210)은 이미지에 기초하여 감정에 대한 정보를 획득하도록 학습된 모델로서, 복수의 샘플 이미지 및 복수의 샘플 이미지에 각각 대응되는 감정에 대한 정보를 학습하여 획득될 수 있다.
또는, 프로세서(140)는 텍스트가 제1 정보를 포함하면 마이크(160)를 통해 획득된 오디오를 제3 인공 지능 모델(230)에 입력하여 제3 인공 지능 모델(230)의 출력(c)으로서 감정에 대한 제3 정보를 획득할 수 있다. 여기서, 제3 인공 지능 모델(230)은 오디오에 기초하여 감정에 대한 정보를 획득하도록 학습된 모델로서, 복수의 샘플 오디오 및 복수의 샘플 오디오에 각각 대응되는 감정에 대한 정보를 학습하여 획득될 수 있다.
프로세서(140)는 제1 정보, 제2 정보 및 제3 정보에 기초하여 사용자의 감정의 타입을 식별할 수 있다. 예를 들어, 프로세서(140)는 하기와 같은 수식으로 감정의 타입 별 가중합을 수행할 수 있다.
감정의 타입(i) 별 신뢰도 = Wa × ai + Wb × bi + Wc × ci
여기서, i는 감정의 타입을 나타내며, ai는 이미지로부터 획득된 적어도 하나의 감정의 타입 중 i번째 감정의 타입의 신뢰도, bi는 텍스트로부터 획득된 적어도 하나의 감정의 타입 중 i번째 감정의 타입의 신뢰도, ci는 오디오로부터 획득된 적어도 하나의 감정의 타입 중 i번째 감정의 타입의 신뢰도, Wa는 이미지로부터 획득된 신뢰도의 가중치, Wb는 텍스트로부터 획득된 신뢰도의 가중치, Wc는 오디오로부터 획득된 신뢰도의 가중치를 나타낸다.
한편, 이상에서는 텍스트가 제1 정보를 포함하면, 제2 정보 또는 제3 정보 중 적어도 하나를 더 고려하여 사용자의 감정의 타입을 식별하는 것으로 설명하였으나, 이에 한정되는 것은 아니다.
예를 들어, 프로세서(140)는 텍스트가 제1 정보를 포함하면, 제2 정보 또는 제3 정보 중 적어도 하나에 기초하여 제1 정보를 업데이트할 수도 있다. 그리고, 프로세서(140)는 업데이트된 제1 정보, 제2 정보 및 제3 정보에 기초하여 사용자의 감정의 타입을 식별할 수도 있다. 즉, 프로세서(140)는 이상의 수식에 제1 정보가 아닌 업데이트된 제1 정보를 입력하여 사용자의 감정의 타입을 식별할 수도 있다.
이상과 같은 방법을 통해 텍스트로부터 획득된 사용자의 감정의 정확도를 좀더 향상시킬 수 있다. 또한, 텍스트로부터 감정이 식별된 경우에만 카메라(120) 또는 마이크(160)를 이용하므로, 종래보다 전력 소모를 줄일 수 있다.
도 3은 본 개시의 일 실시 예에 따른 감정의 타입을 식별하는 동작을 설명하기 위한 도면이다. 도 3에 포함된 복수의 유닛은 모듈과 같이 소프트웨어적으로 구현될 수도 있고, 프로세서(140)의 일부 구성으로서 하드웨어로 구현될 수도 있다.
도 3에 도시된 바와 같이, 입력 유닛(310)은 사용자 입력 또는 다른 입력을 수신할 수 있다. 예를 들어, 입력 유닛(310)은 사용자로부터의 텍스트를 입력받을 수 있다. 또는, 입력 유닛(310)은 사용자의 이미지 또는 사용자의 오디오를 획득할 수 있으며, 이는 딥 러닝 유닛(320)의 제어 신호에 의할 수 있다. 예를 들어, 딥 러닝 유닛(320)의 제2 인공 지능 모델의 출력이 감정을 포함하면, 카메라(120) 또는 마이크(160)를 턴 온시키기 위한 제어 신호가 생성될 수 있으며, 입력 유닛(310)은 제어 신호에 기초하여 사용자의 이미지 또는 사용자의 오디오를 획득할 수 있다.
딥 러닝 유닛(320)은 복수의 인공 지능 모델을 포함하며, 입력된 데이터의 타입에 대응되는 인공 지능 모델로 입력된 데이터를 처리할 수 있다.
또한, 딥 러닝 유닛(320)은 복수의 인공 지능 모델 각각의 출력으로부터 사용자의 감정의 타입을 식별할 수 있다.
딥 러닝 유닛(320)은 다른 입력을 이용하기 위한 제어 신호를 생성하여 입력 유닛(310)으로 제공할 수 있고, 식별된 감정의 타입을 상태 관리 유닛(330)으로 제공할 수 있다.
상태 관리 유닛(330)은 사용자의 감정의 타입을 저장할 수 있다. 그리고, 상태 관리 유닛(330)은 서비스 유닛(340)의 요청에 따라 사용자의 감정의 타입을 서비스 유닛(340)으로 제공할 수 있다.
서비스 유닛(340)은 상태 관리 유닛(330)으로 사용자의 감정의 타입을 요청하여 수신하고, 수신된 정보에 기초하여 서비스를 제공할 수 있다. 예를 들어, 서비스 유닛(340) 중 하나가 메시지 어플리케이션이면, 메시지 어플리케이션은 상태 관리 유닛(330)으로 사용자의 감정의 타입을 요청하여 화남이라는 감정의 타입을 수신하면, 화난 표정의 이모티콘들을 추천 이모티콘으로 사용자에게 제공할 수 있다.
또는, 서비스 유닛(340) 중 하나가 음악 어플리케이션이면, 음악 어플리케이션은 상태 관리 유닛(330)으로 사용자의 감정의 타입을 요청하여 평온이라는 감정의 타입을 수신하면, 클래식 음악을 추천하거나 재생할 수도 있다.
도 4는 본 개시의 일 실시 예에 따른 감정의 타입을 식별하는 동작을 좀더 구체적으로 설명하기 위한 도면이다. 도 4에 도시된 구성요소들 중 도 3에 도시된 구성요소와 중복되는 부분에 대해서는 자세한 설명을 생략하도록 한다.
이상에서는 텍스트가 감정을 포함하는 경우, 카메라(120) 또는 마이크(160)가 턴 온되는 것으로 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 사용자가 텍스트를 입력하는 경우, 전자 장치(100)의 움직임이 자이로(Gyro) 센서에 의해 감지될 수 있다. 프로세서(140)는 움직임이 감지되면, 카메라(120) 또는 마이크(160)를 턴 온시켜 이미지 또는 오디오를 획득할 수 있다. 이러한 동작을 통해, 프로세서(140)는 텍스트를 입력하는 시점의 사용자의 이미지 또는 오디오를 획득할 수 있다. 특히, 프로세서(140)는 이미지의 경우, 시간 제어(Time control)를 통해 일정 시간 동안 주기적으로 복수의 이미지를 획득할 수도 있다.
이후, 프로세서(140)는 텍스트에 감정이 포함된 것으로 식별되면, 획득된 이미지 또는 오디오를 대응되는 인공 지능 모델로 입력할 수 있다. 여기서, 자이로 센서에 의해 이미지 또는 오디오를 획득한 경우라면, 프로세서(140)는 텍스트에 감정이 포함된 것으로 식별되더라도, 다시 카메라(120) 또는 마이크(160)를 턴 온시키지 않을 수 있다.
도 5a 내지 도 5c는 본 개시의 일 실시 예를 구체적으로 설명하기 위한 도면들이다.
도 5a에 도시된 바와 같이, 프로세서(140)는 전자 장치(100)의 사용자 A와 그 상대방인 사용자 B의 대화 어플리케이션을 구동할 수 있다.
도 5b에 도시된 바와 같이, 프로세서(140)는 사용자 A의 텍스트 중 일부 단어에 기초하여 사용자의 복수의 감정의 타입을 식별하고, 각각의 신뢰도 정보를 산출할 수 있다.
그리고, 프로세서(140)는 사용자 A의 추가 발화로부터 사용자의 감정의 타입을 슬픔으로 식별할 수 있다.
프로세서(140)는 도 5c에 도시된 바와 같이, 텍스트가 감정을 포함함에 따라, 카메라(120)를 턴 온시켜 사용자의 이미지를 촬영하고, 촬영된 이미지를 제1 인공 지능 모델에 입력할 수 있다. 프로세서(140)는 제1 인공 지능 모델의 출력을 더 고려하여 사용자의 감정의 타입을 슬픔으로 확정할 수 있다.
여기서, 텍스트만을 이용하면 슬픔의 신뢰도가 70%이나, 이미지를 추가로 이용함에 따라 슬픔의 신뢰도를 100%로 향상시킬 수 있다. 즉, 프로세서(140)는 카메라(120)에 의해 촬영된 이미지를 추가 이용하여, 텍스트로부터 획득된 감정의 타입의 신뢰도를 향상시킬 수 있다.
도 6a 내지 도 6c는 본 개시의 다양한 실시 예에 따른 전력 소모를 설명하기 위한 도면들이다. 도 6a 내지 도 6c에서는 설명의 편의를 위하여 카메라(120)의 이용 및 전력 소모를 도시하였으며, 카메라(120)에 대한 제어는 얇은 선으로, 전력 소모는 두꺼운 선으로 도시하였다.
도 6a는 종래 기술에 따른 전력 소모를 나타내며, 카메라에 대한 제어가 1회 있더라도, 이 경우는 카메라를 라이브뷰로 유지하기 위한 제어로서 전력 소모는 지속적으로 유지될 수 있다.
도 6b는 자이로 센서를 이용한 경우로서, 자이로 센서에 의해 전자 장치(100)의 움직임이 감지되면, 해당 순간에 이미지를 촬영하고, 다시 카메라(120)가 턴 오프될 수 있다. 그에 따라, 이미지의 촬영 순간에만 전력이 소모될 수 있다.
도 6c는 텍스트가 감정을 포함하는 경우, 해당 순간에 이미지를 촬영하고, 다시 카메라(120)가 턴 오프될 수 있으며, 도 6b와 유사하게 전력 소모가 감소될 수 있다.
즉, 도 6b와 도 6c와 같이 특정 시점에만 카메라(120)가 구동되어 전력 소모를 최소화할 수 있으며, 카메라(120)의 구동을 최소화하면서도 이미지에 의한 사용자의 감정의 타입을 식별하게 되어 정확도가 유지될 수 있다.
도 7은 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
먼저, 텍스트가 입력되면 텍스트가 사용자의 감정에 대한 제1 정보를 포함하는지 식별한다(S710). 그리고, 텍스트가 제1 정보를 포함하면 전자 장치의 카메라를 통해 획득된 이미지를 제1 인공 지능 모델(Artificial Intelligence Model)에 입력하여 감정에 대한 제2 정보를 획득(S720)한다. 그리고, 텍스트로부터 획득된 제1 정보 및 이미지로부터 획득된 제2 정보에 기초하여 사용자의 감정의 타입을 식별한다(S730).
그리고, 제2 정보를 획득하는 단계(S720)는 텍스트가 제1 정보를 포함하면 카메라를 턴 온하여 이미지를 획득하고, 획득된 이미지를 제1 인공 지능 모델에 입력할 수 있다.
여기서, 카메라가 턴 온된 후 추가로 입력된 텍스트가 사용자의 감정에 대한 제1 정보를 포함하지 않으면 카메라를 턴 오프하는 단계를 더 포함할 수 있다.
한편, 제1 정보는 적어도 하나의 제1 감정 정보 및 적어도 하나의 제1 감정 정보 각각의 제1 신뢰도 정보를 포함하고, 제2 정보는 적어도 하나의 제2 감정 정보 및 적어도 하나의 제2 감정 정보 각각의 제2 신뢰도 정보를 포함하며, 사용자의 감정의 타입을 식별하는 단계(S730)는 제1 신뢰도 정보 및 제2 신뢰도 정보를 감정의 타입 별로 가중합(weighted sum)하여 사용자의 감정의 타입을 식별할 수 있다.
또는, 제1 정보는 적어도 하나의 제1 감정 정보 및 적어도 하나의 제1 감정 정보 각각의 제1 신뢰도 정보를 포함하고, 제1 정보를 포함하는지 식별하는 단계(S710)는 적어도 하나의 제1 감정 정보의 제1 신뢰도 정보가 임계값 이상인 경우, 텍스트가 사용자의 감정에 대한 정보를 포함하는 것으로 식별할 수 있다.
한편, 제1 정보를 포함하는지 식별하는 단계(S710)는 텍스트를 제2 인공 지능 모델에 입력하여 획득된 정보로부터 텍스트가 제1 정보를 포함하는지 여부를 식별할 수 있다.
그리고, 텍스트가 제1 정보를 포함하면 전자 장치의 마이크를 턴 온하는 단계 및 마이크를 통해 수신된 오디오를 제3 인공 지능 모델에 입력하여 감정에 대한 제3 정보를 획득하는 단계를 더 포함하며, 사용자의 감정의 타입을 식별하는 단계(S730)는 제1 정보, 제2 정보 및 제3 정보에 기초하여 사용자의 감정의 타입을 식별할 수 있다.
한편, 제2 정보를 획득하는 단계(S720)는 카메라를 통해 실시간으로 복수의 이미지를 획득하고, 텍스트가 제1 정보를 포함하면, 복수의 이미지 중 텍스트가 입력된 시점부터 획득된 이미지를 제1 인공 지능 모델에 입력할 수 있다.
그리고, 식별된 사용자의 감정의 타입에 대응되는 적어도 하나의 추천 이모티콘을 전자 장치의 디스플레이를 통해 디스플레이하는 단계를 더 포함할 수 있다.
한편, 전자 장치는 디스플레이가 구비된 모바일 디바이스이고, 제2 정보를 획득하는 단계(S720)는 카메라를 통해 디스플레이의 전방을 촬영할 수 있다.
이상과 같은 본 개시의 다양한 실시 예에 따르면, 전자 장치는 텍스트로부터 사용자의 감정의 타입이 식별되면 카메라 또는 마이크를 턴 온함에 따라 전력 소모를 줄이고, 카메라 또는 마이크로부터 획득된 이미지 또는 오디오를 더 고려하여 사용자의 감정의 타입에 대한 신뢰도를 향상시킬 수 있다.
한편, 본 개시의 일시 예에 따르면, 이상에서 설명된 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 전자 장치(예: 전자 장치(A))를 포함할 수 있다. 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접, 또는 프로세서의 제어 하에 다른 구성요소들을 이용하여 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.
또한, 본 개시의 일 실시 예에 따르면, 이상에서 설명된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
또한, 본 개시의 일 실시 예에 따르면, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다. 일부 경우에 있어 본 명세서에서 설명되는 실시 예들이 프로세서 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 동작을 수행할 수 있다.
한편, 상술한 다양한 실시 예들에 따른 기기의 프로세싱 동작을 수행하기 위한 컴퓨터 명령어(computer instructions)는 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium)에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어는 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 기기에서의 처리 동작을 특정 기기가 수행하도록 한다. 비일시적 컴퓨터 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 비일시적 컴퓨터 판독 가능 매체의 구체적인 예로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 있을 수 있다.
또한, 상술한 다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시 예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
100 : 전자 장치
110 : 사용자 인터페이스
120 : 카메라 130 : 메모리
140 : 프로세서 150 : 디스플레이
160 : 마이크 170 : 통신 인터페이스
120 : 카메라 130 : 메모리
140 : 프로세서 150 : 디스플레이
160 : 마이크 170 : 통신 인터페이스
Claims (20)
- 전자 장치에 있어서,
사용자 인터페이스;
카메라;
입력 이미지에 기초하여 감정에 대한 정보를 획득하도록 학습된 제1 인공 지능 모델(Artificial Intelligence Model)을 저장하는 메모리; 및
상기 사용자 인터페이스, 상기 카메라 및 상기 메모리와 연결되어 상기 전자 장치를 제어하는 프로세서;를 포함하고,
상기 프로세서는,
상기 사용자 인터페이스를 통해 텍스트가 입력되면 상기 텍스트가 사용자의 감정에 대한 제1 정보를 포함하는지 식별하며,
상기 텍스트가 상기 제1 정보를 포함하면 상기 카메라를 통해 획득된 이미지를 상기 제1 인공 지능 모델에 입력하여 감정에 대한 제2 정보를 획득하고,
상기 텍스트로부터 획득된 상기 제1 정보 및 상기 이미지로부터 획득된 상기 제2 정보에 기초하여 상기 사용자의 감정의 타입을 식별하는, 전자 장치. - 제1항에 있어서,
상기 프로세서는,
상기 텍스트가 상기 제1 정보를 포함하면 상기 카메라를 턴 온하여 상기 이미지를 획득하고,
상기 획득된 이미지를 상기 제1 인공 지능 모델에 입력하는, 전자 장치. - 제2항에 있어서,
상기 프로세서는,
상기 카메라가 턴 온된 후 추가로 입력된 텍스트가 상기 사용자의 감정에 대한 제1 정보를 포함하지 않으면 상기 카메라를 턴 오프하는, 전자 장치. - 제1항에 있어서,
상기 제1 정보는, 적어도 하나의 제1 감정 정보 및 상기 적어도 하나의 제1 감정 정보 각각의 제1 신뢰도 정보를 포함하고,
상기 제2 정보는, 적어도 하나의 제2 감정 정보 및 상기 적어도 하나의 제2 감정 정보 각각의 제2 신뢰도 정보를 포함하며,
상기 프로세서는,
상기 제1 신뢰도 정보 및 상기 제2 신뢰도 정보를 감정의 타입 별로 가중합(weighted sum)하여 상기 사용자의 감정의 타입을 식별하는, 전자 장치. - 제1항에 있어서,
상기 제1 정보는, 적어도 하나의 제1 감정 정보 및 상기 적어도 하나의 제1 감정 정보 각각의 제1 신뢰도 정보를 포함하고,
상기 프로세서는,
상기 적어도 하나의 제1 감정 정보의 제1 신뢰도 정보가 임계값 이상인 경우, 상기 텍스트가 상기 사용자의 감정에 대한 정보를 포함하는 것으로 식별하는, 전자 장치. - 제1항에 있어서,
상기 메모리는,
텍스트에 기초하여 감정에 대한 정보를 획득하도록 학습된 제2 인공 지능 모델을 저장하며,
상기 프로세서는,
상기 텍스트를 상기 제2 인공 지능 모델에 입력하여 획득된 정보로부터 상기 텍스트가 상기 제1 정보를 포함하는지 여부를 식별하는, 전자 장치. - 제1항에 있어서,
마이크;를 더 포함하며,
상기 메모리는,
오디오에 기초하여 감정에 대한 정보를 획득하도록 학습된 제3 인공 지능 모델을 저장하며,
상기 프로세서는,
상기 텍스트가 상기 제1 정보를 포함하면 상기 마이크를 턴 온하고,
상기 마이크를 통해 수신된 오디오를 상기 제3 인공 지능 모델에 입력하여 감정에 대한 제3 정보를 획득하며,
상기 제1 정보, 상기 제2 정보 및 상기 제3 정보에 기초하여 상기 사용자의 감정의 타입을 식별하는, 전자 장치. - 제1항에 있어서,
상기 프로세서는,
상기 카메라를 통해 실시간으로 복수의 이미지를 획득하고,
상기 텍스트가 상기 제1 정보를 포함하면, 상기 복수의 이미지 중 상기 텍스트가 입력된 시점부터 획득된 이미지를 상기 제1 인공 지능 모델에 입력하는, 전자 장치. - 제1항에 있어서,
디스플레이;를 더 포함하며,
상기 프로세서는,
상기 식별된 사용자의 감정의 타입에 대응되는 적어도 하나의 추천 이모티콘을 디스플레이하도록 상기 디스플레이를 제어하는, 전자 장치. - 제1항에 있어서,
상기 전자 장치는,
모바일 디바이스이고,
디스플레이;를 더 포함하며,
상기 카메라는, 상기 디스플레이의 전방을 촬영하는, 전자 장치. - 전자 장치의 제어 방법에 있어서,
텍스트가 입력되면 상기 텍스트가 사용자의 감정에 대한 제1 정보를 포함하는지 식별하는 단계;
상기 텍스트가 상기 제1 정보를 포함하면 상기 전자 장치의 카메라를 통해 획득된 이미지를 제1 인공 지능 모델(Artificial Intelligence Model)에 입력하여 감정에 대한 제2 정보를 획득하는 단계; 및
상기 텍스트로부터 획득된 상기 제1 정보 및 상기 이미지로부터 획득된 상기 제2 정보에 기초하여 상기 사용자의 감정의 타입을 식별하는 단계;를 포함하는 제어 방법. - 제11항에 있어서,
상기 제2 정보를 획득하는 단계는,
상기 텍스트가 상기 제1 정보를 포함하면 상기 카메라를 턴 온하여 상기 이미지를 획득하고,
상기 획득된 이미지를 상기 제1 인공 지능 모델에 입력하는, 제어 방법. - 제12항에 있어서,
상기 카메라가 턴 온된 후 추가로 입력된 텍스트가 상기 사용자의 감정에 대한 제1 정보를 포함하지 않으면 상기 카메라를 턴 오프하는 단계;를 더 포함하는, 제어 방법. - 제11항에 있어서,
상기 제1 정보는, 적어도 하나의 제1 감정 정보 및 상기 적어도 하나의 제1 감정 정보 각각의 제1 신뢰도 정보를 포함하고,
상기 제2 정보는, 적어도 하나의 제2 감정 정보 및 상기 적어도 하나의 제2 감정 정보 각각의 제2 신뢰도 정보를 포함하며,
상기 사용자의 감정의 타입을 식별하는 단계는,
상기 제1 신뢰도 정보 및 상기 제2 신뢰도 정보를 감정의 타입 별로 가중합(weighted sum)하여 상기 사용자의 감정의 타입을 식별하는, 제어 방법. - 제11항에 있어서,
상기 제1 정보는, 적어도 하나의 제1 감정 정보 및 상기 적어도 하나의 제1 감정 정보 각각의 제1 신뢰도 정보를 포함하고,
상기 제1 정보를 포함하는지 식별하는 단계는,
상기 적어도 하나의 제1 감정 정보의 제1 신뢰도 정보가 임계값 이상인 경우, 상기 텍스트가 상기 사용자의 감정에 대한 정보를 포함하는 것으로 식별하는, 제어 방법. - 제11항에 있어서,
상기 제1 정보를 포함하는지 식별하는 단계는,
상기 텍스트를 제2 인공 지능 모델에 입력하여 획득된 정보로부터 상기 텍스트가 상기 제1 정보를 포함하는지 여부를 식별하는, 제어 방법. - 제11항에 있어서,
상기 텍스트가 상기 제1 정보를 포함하면 상기 전자 장치의 마이크를 턴 온하는 단계; 및
상기 마이크를 통해 수신된 오디오를 제3 인공 지능 모델에 입력하여 감정에 대한 제3 정보를 획득하는 단계;를 더 포함하며,
상기 사용자의 감정의 타입을 식별하는 단계는,
상기 제1 정보, 상기 제2 정보 및 상기 제3 정보에 기초하여 상기 사용자의 감정의 타입을 식별하는, 제어 방법. - 제11항에 있어서,
상기 제2 정보를 획득하는 단계는,
상기 카메라를 통해 실시간으로 복수의 이미지를 획득하고,
상기 텍스트가 상기 제1 정보를 포함하면, 상기 복수의 이미지 중 상기 텍스트가 입력된 시점부터 획득된 이미지를 상기 제1 인공 지능 모델에 입력하는, 제어 방법. - 제11항에 있어서,
상기 식별된 사용자의 감정의 타입에 대응되는 적어도 하나의 추천 이모티콘을 상기 전자 장치의 디스플레이를 통해 디스플레이하는 단계;를 더 포함하는, 제어 방법. - 제11항에 있어서,
상기 전자 장치는,
디스플레이가 구비된 모바일 디바이스이고,
상기 제2 정보를 획득하는 단계는,
상기 카메라를 통해 상기 디스플레이의 전방을 촬영하는, 제어 방법.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190124385A KR20210041757A (ko) | 2019-10-08 | 2019-10-08 | 전자 장치 및 그 제어 방법 |
US17/014,106 US11538278B2 (en) | 2019-10-08 | 2020-09-08 | Electronic apparatus and control method thereof |
EP20874541.4A EP4004696B1 (en) | 2019-10-08 | 2020-09-28 | Electronic apparatus and control method thereof |
PCT/KR2020/013186 WO2021071155A1 (en) | 2019-10-08 | 2020-09-28 | Electronic apparatus and control method thereof |
US17/992,272 US11676419B2 (en) | 2019-10-08 | 2022-11-22 | Electronic apparatus and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190124385A KR20210041757A (ko) | 2019-10-08 | 2019-10-08 | 전자 장치 및 그 제어 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210041757A true KR20210041757A (ko) | 2021-04-16 |
Family
ID=75273512
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190124385A KR20210041757A (ko) | 2019-10-08 | 2019-10-08 | 전자 장치 및 그 제어 방법 |
Country Status (4)
Country | Link |
---|---|
US (2) | US11538278B2 (ko) |
EP (1) | EP4004696B1 (ko) |
KR (1) | KR20210041757A (ko) |
WO (1) | WO2021071155A1 (ko) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210041757A (ko) * | 2019-10-08 | 2021-04-16 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
US11451480B2 (en) * | 2020-03-31 | 2022-09-20 | Micron Technology, Inc. | Lightweight artificial intelligence layer to control the transfer of big data |
US11763803B1 (en) * | 2021-07-28 | 2023-09-19 | Asapp, Inc. | System, method, and computer program for extracting utterances corresponding to a user problem statement in a conversation between a human agent and a user |
US12067363B1 (en) | 2022-02-24 | 2024-08-20 | Asapp, Inc. | System, method, and computer program for text sanitization |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005237668A (ja) | 2004-02-26 | 2005-09-08 | Kazuya Mera | コンピュータネットワークにおける感情を考慮した対話装置 |
US9665563B2 (en) * | 2009-05-28 | 2017-05-30 | Samsung Electronics Co., Ltd. | Animation system and methods for generating animation based on text-based data and user information |
KR20140094336A (ko) | 2013-01-22 | 2014-07-30 | 삼성전자주식회사 | 사용자 감정 추출이 가능한 전자기기 및 전자기기의 사용자 감정 추출방법 |
KR101544639B1 (ko) | 2013-06-18 | 2015-08-17 | 경희대학교 산학협력단 | 입력되는 문자열로부터 사용자의 감정을 판단하는 방법 |
US20150012563A1 (en) | 2013-07-04 | 2015-01-08 | Speedtrack, Inc. | Data mining using associative matrices |
US10424318B2 (en) | 2013-07-05 | 2019-09-24 | Patrick Levy-Rosenthal | Method, system and program product for perceiving and computing emotions |
WO2015103695A1 (en) | 2014-01-10 | 2015-07-16 | Cluep Inc. | Systems, devices, and methods for automatic detection of feelings in text |
US9628416B2 (en) | 2014-05-30 | 2017-04-18 | Cisco Technology, Inc. | Photo avatars |
KR101870849B1 (ko) | 2014-07-02 | 2018-06-25 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 정보 전송 방법 및 전송 장치 |
KR101613259B1 (ko) | 2014-07-17 | 2016-04-19 | 건국대학교 산학협력단 | 소셜 네트워크 서비스 사용자의 감성 분석 시스템 및 그 방법 |
JP6601069B2 (ja) | 2015-09-01 | 2019-11-06 | カシオ計算機株式会社 | 対話制御装置、対話制御方法及びプログラム |
US20170364484A1 (en) * | 2016-06-21 | 2017-12-21 | VTCSecure LLC | Enhanced text metadata system and methods for using the same |
JP6727413B2 (ja) | 2016-08-22 | 2020-07-22 | スノー コーポレーション | メッセージ共有方法及びコンピュータプログラム |
WO2018060993A1 (en) | 2016-09-27 | 2018-04-05 | Faception Ltd. | Method and system for personality-weighted emotion analysis |
KR102616403B1 (ko) | 2016-12-27 | 2023-12-21 | 삼성전자주식회사 | 전자 장치 및 그의 메시지 전달 방법 |
US10565244B2 (en) | 2017-06-22 | 2020-02-18 | NewVoiceMedia Ltd. | System and method for text categorization and sentiment analysis |
US11362981B2 (en) | 2017-09-12 | 2022-06-14 | AebeZe Labs | System and method for delivering a digital therapeutic from a parsed electronic message |
CN110325982B (zh) | 2017-11-24 | 2023-03-28 | 微软技术许可有限责任公司 | 在会话中提供多媒体文档的摘要 |
KR102448382B1 (ko) | 2018-01-22 | 2022-09-28 | 삼성전자주식회사 | 텍스트와 연관된 이미지를 제공하는 전자 장치 및 그 동작 방법 |
KR20210041757A (ko) * | 2019-10-08 | 2021-04-16 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
-
2019
- 2019-10-08 KR KR1020190124385A patent/KR20210041757A/ko active Search and Examination
-
2020
- 2020-09-08 US US17/014,106 patent/US11538278B2/en active Active
- 2020-09-28 WO PCT/KR2020/013186 patent/WO2021071155A1/en unknown
- 2020-09-28 EP EP20874541.4A patent/EP4004696B1/en active Active
-
2022
- 2022-11-22 US US17/992,272 patent/US11676419B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP4004696A4 (en) | 2022-09-07 |
US11538278B2 (en) | 2022-12-27 |
US20210103720A1 (en) | 2021-04-08 |
WO2021071155A1 (en) | 2021-04-15 |
US11676419B2 (en) | 2023-06-13 |
EP4004696A1 (en) | 2022-06-01 |
US20230080318A1 (en) | 2023-03-16 |
EP4004696B1 (en) | 2024-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7101315B2 (ja) | 画像データを自然言語の説明に変換するためのシステム及び方法 | |
US11538278B2 (en) | Electronic apparatus and control method thereof | |
JP6165846B2 (ja) | 目のトラッキングに基づくディスプレイの一部の選択的強調 | |
US11967087B2 (en) | Dynamic vision sensor for visual audio processing | |
WO2022156150A1 (zh) | 图像处理方法及装置、电子设备、存储介质及计算机程序 | |
KR20210062477A (ko) | 전자 장치 및 그 제어 방법 | |
US11758259B2 (en) | Electronic apparatus and controlling method thereof | |
US12100118B2 (en) | Electronic apparatus and controlling method thereof | |
US20210201142A1 (en) | Electronic device and control method thereof | |
KR20240017706A (ko) | 신조어를 식별하기 위한 전자 장치 및 그 제어 방법 | |
JP2023046127A (ja) | 発話認識システム、通信システム、発話認識装置、移動体制御システム、発話認識方法及びプログラム | |
US20230094993A1 (en) | Electronic apparatus and controlling method thereof | |
US20240094803A1 (en) | Electronic apparatus for providing screen in posture optimized for user and control method thereof | |
KR20210049582A (ko) | 전자 장치 및 그 제어 방법 | |
KR102696729B1 (ko) | Ar 객체를 표시하기 위한 디스플레이 장치 및 그 제어 방법 | |
KR20230137202A (ko) | 디스플레이 장치 및 그 제어 방법 | |
US20230409159A1 (en) | Display apparatus and control method thereof | |
US20230109358A1 (en) | Electronic apparatus and control method thereof | |
US20240073637A1 (en) | Electronic apparatus for identifying position of user and control method thereof | |
US20240069492A1 (en) | Display apparatus for obtaining holographic resource and control method thereof | |
KR20240056112A (ko) | 이미지에서 관심 영역을 식별하기 위한 전자 장치 및 그 제어 방법 | |
KR20240058549A (ko) | 오디오 데이터로부터 오디오 객체를 분리하기 위한 전자 장치 및 그 제어 방법 | |
KR20240027364A (ko) | 사용자의 위치를 식별하기 위한 전자 장치 및 그 제어 방법 | |
KR20230174527A (ko) | 디스플레이 장치 및 그 제어 방법 | |
KR20240025372A (ko) | 영상 처리를 수행하기 위한 전자 장치 및 그 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination |