KR20210041757A - 전자 장치 및 그 제어 방법 - Google Patents
전자 장치 및 그 제어 방법 Download PDFInfo
- Publication number
- KR20210041757A KR20210041757A KR1020190124385A KR20190124385A KR20210041757A KR 20210041757 A KR20210041757 A KR 20210041757A KR 1020190124385 A KR1020190124385 A KR 1020190124385A KR 20190124385 A KR20190124385 A KR 20190124385A KR 20210041757 A KR20210041757 A KR 20210041757A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- emotion
- text
- user
- camera
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 45
- 230000008451 emotion Effects 0.000 claims abstract description 220
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 95
- 238000004891 communication Methods 0.000 description 24
- 238000013528 artificial neural network Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 9
- 230000005236 sound signal Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 239000000470 constituent Substances 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000007596 consolidation process Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 229910021420 polycrystalline silicon Inorganic materials 0.000 description 1
- 229920005591 polysilicon Polymers 0.000 description 1
- APTZNLHMIGJTEW-UHFFFAOYSA-N pyraflufen-ethyl Chemical compound C1=C(Cl)C(OCC(=O)OCC)=CC(C=2C(=C(OC(F)F)N(C)N=2)Cl)=C1F APTZNLHMIGJTEW-UHFFFAOYSA-N 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000000060 site-specific infrared dichroism spectroscopy Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Psychiatry (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
도 2는 본 개시의 일 실시 예에 따른 사용자의 감정의 타입을 식별하는 방법을 설명하기 위한 도면이다.
도 3은 본 개시의 일 실시 예에 따른 감정의 타입을 식별하는 동작을 설명하기 위한 도면이다.
도 4는 본 개시의 일 실시 예에 따른 감정의 타입을 식별하는 동작을 좀더 구체적으로 설명하기 위한 도면이다.
도 5a 내지 도 5c는 본 개시의 일 실시 예를 구체적으로 설명하기 위한 도면들이다.
도 6a 내지 도 6c는 본 개시의 다양한 실시 예에 따른 전력 소모를 설명하기 위한 도면들이다.
도 7은 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
120 : 카메라 130 : 메모리
140 : 프로세서 150 : 디스플레이
160 : 마이크 170 : 통신 인터페이스
Claims (20)
- 전자 장치에 있어서,
사용자 인터페이스;
카메라;
입력 이미지에 기초하여 감정에 대한 정보를 획득하도록 학습된 제1 인공 지능 모델(Artificial Intelligence Model)을 저장하는 메모리; 및
상기 사용자 인터페이스, 상기 카메라 및 상기 메모리와 연결되어 상기 전자 장치를 제어하는 프로세서;를 포함하고,
상기 프로세서는,
상기 사용자 인터페이스를 통해 텍스트가 입력되면 상기 텍스트가 사용자의 감정에 대한 제1 정보를 포함하는지 식별하며,
상기 텍스트가 상기 제1 정보를 포함하면 상기 카메라를 통해 획득된 이미지를 상기 제1 인공 지능 모델에 입력하여 감정에 대한 제2 정보를 획득하고,
상기 텍스트로부터 획득된 상기 제1 정보 및 상기 이미지로부터 획득된 상기 제2 정보에 기초하여 상기 사용자의 감정의 타입을 식별하는, 전자 장치. - 제1항에 있어서,
상기 프로세서는,
상기 텍스트가 상기 제1 정보를 포함하면 상기 카메라를 턴 온하여 상기 이미지를 획득하고,
상기 획득된 이미지를 상기 제1 인공 지능 모델에 입력하는, 전자 장치. - 제2항에 있어서,
상기 프로세서는,
상기 카메라가 턴 온된 후 추가로 입력된 텍스트가 상기 사용자의 감정에 대한 제1 정보를 포함하지 않으면 상기 카메라를 턴 오프하는, 전자 장치. - 제1항에 있어서,
상기 제1 정보는, 적어도 하나의 제1 감정 정보 및 상기 적어도 하나의 제1 감정 정보 각각의 제1 신뢰도 정보를 포함하고,
상기 제2 정보는, 적어도 하나의 제2 감정 정보 및 상기 적어도 하나의 제2 감정 정보 각각의 제2 신뢰도 정보를 포함하며,
상기 프로세서는,
상기 제1 신뢰도 정보 및 상기 제2 신뢰도 정보를 감정의 타입 별로 가중합(weighted sum)하여 상기 사용자의 감정의 타입을 식별하는, 전자 장치. - 제1항에 있어서,
상기 제1 정보는, 적어도 하나의 제1 감정 정보 및 상기 적어도 하나의 제1 감정 정보 각각의 제1 신뢰도 정보를 포함하고,
상기 프로세서는,
상기 적어도 하나의 제1 감정 정보의 제1 신뢰도 정보가 임계값 이상인 경우, 상기 텍스트가 상기 사용자의 감정에 대한 정보를 포함하는 것으로 식별하는, 전자 장치. - 제1항에 있어서,
상기 메모리는,
텍스트에 기초하여 감정에 대한 정보를 획득하도록 학습된 제2 인공 지능 모델을 저장하며,
상기 프로세서는,
상기 텍스트를 상기 제2 인공 지능 모델에 입력하여 획득된 정보로부터 상기 텍스트가 상기 제1 정보를 포함하는지 여부를 식별하는, 전자 장치. - 제1항에 있어서,
마이크;를 더 포함하며,
상기 메모리는,
오디오에 기초하여 감정에 대한 정보를 획득하도록 학습된 제3 인공 지능 모델을 저장하며,
상기 프로세서는,
상기 텍스트가 상기 제1 정보를 포함하면 상기 마이크를 턴 온하고,
상기 마이크를 통해 수신된 오디오를 상기 제3 인공 지능 모델에 입력하여 감정에 대한 제3 정보를 획득하며,
상기 제1 정보, 상기 제2 정보 및 상기 제3 정보에 기초하여 상기 사용자의 감정의 타입을 식별하는, 전자 장치. - 제1항에 있어서,
상기 프로세서는,
상기 카메라를 통해 실시간으로 복수의 이미지를 획득하고,
상기 텍스트가 상기 제1 정보를 포함하면, 상기 복수의 이미지 중 상기 텍스트가 입력된 시점부터 획득된 이미지를 상기 제1 인공 지능 모델에 입력하는, 전자 장치. - 제1항에 있어서,
디스플레이;를 더 포함하며,
상기 프로세서는,
상기 식별된 사용자의 감정의 타입에 대응되는 적어도 하나의 추천 이모티콘을 디스플레이하도록 상기 디스플레이를 제어하는, 전자 장치. - 제1항에 있어서,
상기 전자 장치는,
모바일 디바이스이고,
디스플레이;를 더 포함하며,
상기 카메라는, 상기 디스플레이의 전방을 촬영하는, 전자 장치. - 전자 장치의 제어 방법에 있어서,
텍스트가 입력되면 상기 텍스트가 사용자의 감정에 대한 제1 정보를 포함하는지 식별하는 단계;
상기 텍스트가 상기 제1 정보를 포함하면 상기 전자 장치의 카메라를 통해 획득된 이미지를 제1 인공 지능 모델(Artificial Intelligence Model)에 입력하여 감정에 대한 제2 정보를 획득하는 단계; 및
상기 텍스트로부터 획득된 상기 제1 정보 및 상기 이미지로부터 획득된 상기 제2 정보에 기초하여 상기 사용자의 감정의 타입을 식별하는 단계;를 포함하는 제어 방법. - 제11항에 있어서,
상기 제2 정보를 획득하는 단계는,
상기 텍스트가 상기 제1 정보를 포함하면 상기 카메라를 턴 온하여 상기 이미지를 획득하고,
상기 획득된 이미지를 상기 제1 인공 지능 모델에 입력하는, 제어 방법. - 제12항에 있어서,
상기 카메라가 턴 온된 후 추가로 입력된 텍스트가 상기 사용자의 감정에 대한 제1 정보를 포함하지 않으면 상기 카메라를 턴 오프하는 단계;를 더 포함하는, 제어 방법. - 제11항에 있어서,
상기 제1 정보는, 적어도 하나의 제1 감정 정보 및 상기 적어도 하나의 제1 감정 정보 각각의 제1 신뢰도 정보를 포함하고,
상기 제2 정보는, 적어도 하나의 제2 감정 정보 및 상기 적어도 하나의 제2 감정 정보 각각의 제2 신뢰도 정보를 포함하며,
상기 사용자의 감정의 타입을 식별하는 단계는,
상기 제1 신뢰도 정보 및 상기 제2 신뢰도 정보를 감정의 타입 별로 가중합(weighted sum)하여 상기 사용자의 감정의 타입을 식별하는, 제어 방법. - 제11항에 있어서,
상기 제1 정보는, 적어도 하나의 제1 감정 정보 및 상기 적어도 하나의 제1 감정 정보 각각의 제1 신뢰도 정보를 포함하고,
상기 제1 정보를 포함하는지 식별하는 단계는,
상기 적어도 하나의 제1 감정 정보의 제1 신뢰도 정보가 임계값 이상인 경우, 상기 텍스트가 상기 사용자의 감정에 대한 정보를 포함하는 것으로 식별하는, 제어 방법. - 제11항에 있어서,
상기 제1 정보를 포함하는지 식별하는 단계는,
상기 텍스트를 제2 인공 지능 모델에 입력하여 획득된 정보로부터 상기 텍스트가 상기 제1 정보를 포함하는지 여부를 식별하는, 제어 방법. - 제11항에 있어서,
상기 텍스트가 상기 제1 정보를 포함하면 상기 전자 장치의 마이크를 턴 온하는 단계; 및
상기 마이크를 통해 수신된 오디오를 제3 인공 지능 모델에 입력하여 감정에 대한 제3 정보를 획득하는 단계;를 더 포함하며,
상기 사용자의 감정의 타입을 식별하는 단계는,
상기 제1 정보, 상기 제2 정보 및 상기 제3 정보에 기초하여 상기 사용자의 감정의 타입을 식별하는, 제어 방법. - 제11항에 있어서,
상기 제2 정보를 획득하는 단계는,
상기 카메라를 통해 실시간으로 복수의 이미지를 획득하고,
상기 텍스트가 상기 제1 정보를 포함하면, 상기 복수의 이미지 중 상기 텍스트가 입력된 시점부터 획득된 이미지를 상기 제1 인공 지능 모델에 입력하는, 제어 방법. - 제11항에 있어서,
상기 식별된 사용자의 감정의 타입에 대응되는 적어도 하나의 추천 이모티콘을 상기 전자 장치의 디스플레이를 통해 디스플레이하는 단계;를 더 포함하는, 제어 방법. - 제11항에 있어서,
상기 전자 장치는,
디스플레이가 구비된 모바일 디바이스이고,
상기 제2 정보를 획득하는 단계는,
상기 카메라를 통해 상기 디스플레이의 전방을 촬영하는, 제어 방법.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190124385A KR20210041757A (ko) | 2019-10-08 | 2019-10-08 | 전자 장치 및 그 제어 방법 |
US17/014,106 US11538278B2 (en) | 2019-10-08 | 2020-09-08 | Electronic apparatus and control method thereof |
PCT/KR2020/013186 WO2021071155A1 (en) | 2019-10-08 | 2020-09-28 | Electronic apparatus and control method thereof |
EP20874541.4A EP4004696B1 (en) | 2019-10-08 | 2020-09-28 | Electronic apparatus and control method thereof |
US17/992,272 US11676419B2 (en) | 2019-10-08 | 2022-11-22 | Electronic apparatus and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190124385A KR20210041757A (ko) | 2019-10-08 | 2019-10-08 | 전자 장치 및 그 제어 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210041757A true KR20210041757A (ko) | 2021-04-16 |
Family
ID=75273512
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190124385A KR20210041757A (ko) | 2019-10-08 | 2019-10-08 | 전자 장치 및 그 제어 방법 |
Country Status (4)
Country | Link |
---|---|
US (2) | US11538278B2 (ko) |
EP (1) | EP4004696B1 (ko) |
KR (1) | KR20210041757A (ko) |
WO (1) | WO2021071155A1 (ko) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210041757A (ko) * | 2019-10-08 | 2021-04-16 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
US11451480B2 (en) | 2020-03-31 | 2022-09-20 | Micron Technology, Inc. | Lightweight artificial intelligence layer to control the transfer of big data |
US11763803B1 (en) * | 2021-07-28 | 2023-09-19 | Asapp, Inc. | System, method, and computer program for extracting utterances corresponding to a user problem statement in a conversation between a human agent and a user |
CN114496256A (zh) * | 2022-01-28 | 2022-05-13 | 北京百度网讯科技有限公司 | 事件检测方法、装置、电子设备和存储介质 |
US12067363B1 (en) | 2022-02-24 | 2024-08-20 | Asapp, Inc. | System, method, and computer program for text sanitization |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005237668A (ja) | 2004-02-26 | 2005-09-08 | Kazuya Mera | コンピュータネットワークにおける感情を考慮した対話装置 |
US9665563B2 (en) * | 2009-05-28 | 2017-05-30 | Samsung Electronics Co., Ltd. | Animation system and methods for generating animation based on text-based data and user information |
KR20140094336A (ko) | 2013-01-22 | 2014-07-30 | 삼성전자주식회사 | 사용자 감정 추출이 가능한 전자기기 및 전자기기의 사용자 감정 추출방법 |
KR101544639B1 (ko) | 2013-06-18 | 2015-08-17 | 경희대학교 산학협력단 | 입력되는 문자열로부터 사용자의 감정을 판단하는 방법 |
US20150012563A1 (en) | 2013-07-04 | 2015-01-08 | Speedtrack, Inc. | Data mining using associative matrices |
US10424318B2 (en) | 2013-07-05 | 2019-09-24 | Patrick Levy-Rosenthal | Method, system and program product for perceiving and computing emotions |
EP3092581A4 (en) | 2014-01-10 | 2017-10-18 | Cluep Inc. | Systems, devices, and methods for automatic detection of feelings in text |
US9628416B2 (en) | 2014-05-30 | 2017-04-18 | Cisco Technology, Inc. | Photo avatars |
KR101870849B1 (ko) | 2014-07-02 | 2018-06-25 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 정보 전송 방법 및 전송 장치 |
KR101613259B1 (ko) | 2014-07-17 | 2016-04-19 | 건국대학교 산학협력단 | 소셜 네트워크 서비스 사용자의 감성 분석 시스템 및 그 방법 |
JP6601069B2 (ja) | 2015-09-01 | 2019-11-06 | カシオ計算機株式会社 | 対話制御装置、対話制御方法及びプログラム |
US20170364484A1 (en) * | 2016-06-21 | 2017-12-21 | VTCSecure LLC | Enhanced text metadata system and methods for using the same |
JP6727413B2 (ja) | 2016-08-22 | 2020-07-22 | スノー コーポレーション | メッセージ共有方法及びコンピュータプログラム |
WO2018060993A1 (en) | 2016-09-27 | 2018-04-05 | Faception Ltd. | Method and system for personality-weighted emotion analysis |
KR102616403B1 (ko) | 2016-12-27 | 2023-12-21 | 삼성전자주식회사 | 전자 장치 및 그의 메시지 전달 방법 |
US10565244B2 (en) | 2017-06-22 | 2020-02-18 | NewVoiceMedia Ltd. | System and method for text categorization and sentiment analysis |
US11362981B2 (en) | 2017-09-12 | 2022-06-14 | AebeZe Labs | System and method for delivering a digital therapeutic from a parsed electronic message |
EP3714380A4 (en) | 2017-11-24 | 2021-06-02 | Microsoft Technology Licensing, LLC | PROVIDING A SUMMARY OF A MULTIMEDIA DOCUMENT IN A SESSION |
KR102448382B1 (ko) | 2018-01-22 | 2022-09-28 | 삼성전자주식회사 | 텍스트와 연관된 이미지를 제공하는 전자 장치 및 그 동작 방법 |
KR20210041757A (ko) * | 2019-10-08 | 2021-04-16 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
-
2019
- 2019-10-08 KR KR1020190124385A patent/KR20210041757A/ko active Search and Examination
-
2020
- 2020-09-08 US US17/014,106 patent/US11538278B2/en active Active
- 2020-09-28 EP EP20874541.4A patent/EP4004696B1/en active Active
- 2020-09-28 WO PCT/KR2020/013186 patent/WO2021071155A1/en unknown
-
2022
- 2022-11-22 US US17/992,272 patent/US11676419B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP4004696A1 (en) | 2022-06-01 |
US11676419B2 (en) | 2023-06-13 |
EP4004696B1 (en) | 2024-03-20 |
WO2021071155A1 (en) | 2021-04-15 |
EP4004696A4 (en) | 2022-09-07 |
US11538278B2 (en) | 2022-12-27 |
US20230080318A1 (en) | 2023-03-16 |
US20210103720A1 (en) | 2021-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11538278B2 (en) | Electronic apparatus and control method thereof | |
JP7101315B2 (ja) | 画像データを自然言語の説明に変換するためのシステム及び方法 | |
US11967087B2 (en) | Dynamic vision sensor for visual audio processing | |
US20240412325A1 (en) | Electronic apparatus and controlling method thereof | |
US11758259B2 (en) | Electronic apparatus and controlling method thereof | |
US20210201142A1 (en) | Electronic device and control method thereof | |
KR20240017706A (ko) | 신조어를 식별하기 위한 전자 장치 및 그 제어 방법 | |
JP2023046127A (ja) | 発話認識システム、通信システム、発話認識装置、移動体制御システム、発話認識方法及びプログラム | |
US20250016422A1 (en) | Display device and controlling method thereof | |
US20230094993A1 (en) | Electronic apparatus and controlling method thereof | |
US20240094803A1 (en) | Electronic apparatus for providing screen in posture optimized for user and control method thereof | |
US20240196039A1 (en) | Electronic apparatus for controlling peripheral device with remote control signal and control method thereof | |
US20250069566A1 (en) | Display apparatus for automatically changing screen setting and control method thereof | |
KR102696729B1 (ko) | Ar 객체를 표시하기 위한 디스플레이 장치 및 그 제어 방법 | |
KR20210049582A (ko) | 전자 장치 및 그 제어 방법 | |
US20230409159A1 (en) | Display apparatus and control method thereof | |
US20230109358A1 (en) | Electronic apparatus and control method thereof | |
US20240069492A1 (en) | Display apparatus for obtaining holographic resource and control method thereof | |
EP4489436A1 (en) | Electronic device for identifying location of user, and control method therefor | |
EP4506891A1 (en) | Electronic device for identifying region of interest in image, and control method therefor | |
KR20240058549A (ko) | 오디오 데이터로부터 오디오 객체를 분리하기 위한 전자 장치 및 그 제어 방법 | |
KR20240027364A (ko) | 사용자의 위치를 식별하기 위한 전자 장치 및 그 제어 방법 | |
KR20230174527A (ko) | 디스플레이 장치 및 그 제어 방법 | |
KR20240025372A (ko) | 영상 처리를 수행하기 위한 전자 장치 및 그 제어 방법 | |
KR20240119689A (ko) | 신경망 모델을 양자화하기 위한 전자 장치 및 그 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20191008 |
|
PG1501 | Laying open of application | ||
A201 | Request for examination | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20221011 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20191008 Comment text: Patent Application |
|
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20240628 Patent event code: PE09021S01D |