KR20210048270A - 복수 객체에 대한 오디오 포커싱 방법 및 장치 - Google Patents
복수 객체에 대한 오디오 포커싱 방법 및 장치 Download PDFInfo
- Publication number
- KR20210048270A KR20210048270A KR1020190132342A KR20190132342A KR20210048270A KR 20210048270 A KR20210048270 A KR 20210048270A KR 1020190132342 A KR1020190132342 A KR 1020190132342A KR 20190132342 A KR20190132342 A KR 20190132342A KR 20210048270 A KR20210048270 A KR 20210048270A
- Authority
- KR
- South Korea
- Prior art keywords
- interest
- objects
- importance
- electronic device
- user
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000013528 artificial neural network Methods 0.000 claims description 48
- 230000015654 memory Effects 0.000 claims description 40
- 230000000694 effects Effects 0.000 claims description 30
- 238000001914 filtration Methods 0.000 claims description 30
- 238000012549 training Methods 0.000 claims description 16
- 238000011017 operating method Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 19
- 238000004891 communication Methods 0.000 description 17
- 238000010801 machine learning Methods 0.000 description 17
- 238000004422 calculation algorithm Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 15
- 238000005516 engineering process Methods 0.000 description 14
- 238000013527 convolutional neural network Methods 0.000 description 12
- 238000009826 distribution Methods 0.000 description 12
- 238000013473 artificial intelligence Methods 0.000 description 8
- 238000011176 pooling Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000007405 data analysis Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 210000000225 synapse Anatomy 0.000 description 6
- 230000004913 activation Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 230000007774 longterm Effects 0.000 description 4
- 238000010295 mobile communication Methods 0.000 description 4
- 210000002569 neuron Anatomy 0.000 description 4
- 230000002787 reinforcement Effects 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000007418 data mining Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 239000010454 slate Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005111 flow chemistry technique Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000006386 memory function Effects 0.000 description 1
- VIKNJXKGJWUCNN-XGXHKTLJSA-N norethisterone Chemical compound O=C1CC[C@@H]2[C@H]3CC[C@](C)([C@](CC4)(O)C#C)[C@@H]4[C@@H]3CCC2=C1 VIKNJXKGJWUCNN-XGXHKTLJSA-N 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000015541 sensory perception of touch Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2201/00—Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
- H04R2201/40—Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
- H04R2201/401—2D or 3D arrays of transducers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2499/00—Aspects covered by H04R or H04S not otherwise provided for in their subgroups
- H04R2499/10—General applications
- H04R2499/11—Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2499/00—Aspects covered by H04R or H04S not otherwise provided for in their subgroups
- H04R2499/10—General applications
- H04R2499/15—Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Otolaryngology (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Optics & Photonics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
도 2는 완전 연결된 인공 신경망 구조의 일 예를 도시한 도면이다.
도 3은 심층 신경망의 일종인 합성곱 신경망(convolutional neural network, CNN) 구조의 일 예를 도시한 도면이다.
도 4는 다양한 실시 예들에 따른 전자 장치의 적어도 하나의 프로세서에서 수행하는 구성요소들을 도시한 블록도이다.
도 5a 내지 5d는 다양한 실시 예에 따라, 복수의 관심 대상 개체에 대한 오디오 포커싱을 위해 사용자의 입력을 수신하는 사용자 인터페이스를 도시한 도면이다.
도 6은 사용자 인터페이스부가 관심 대상 객체에 설정된 중요도를 표시하는 일 예를 도시한 도면이다.
도 7은 다양한 실시 예들에 따라, 오디오 포커싱 제어부가 관심 대상 객체의 위치 및 중요도에 기초하여 마이크로폰의 활성도를 조정한 일 예를 도시한 도면이다.
도 8은 다양한 실시 예에 따른, 전자 장치가 복수의 관심 대상 객체에 오디오 포커싱을 배분하는 동작을 도시한 흐름도이다.
도 9는 다양한 실시 예에 따른, 전자 장치(100)가 인공 신경망 모델을 이용하여자동으로 관심 대상 객체의 중요도를 설정하는 동작을 도시한 흐름도이다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
Claims (20)
- 전자 장치에 있어서,
동영상을 촬영하는 촬영부;
복수의 마이크로폰으로 구성되는 마이크로폰 어레이;
상기 동영상을 표시하는 디스플레이부;
사용자의 입력을 수신하는 입력부; 및
상기 촬영부, 상기 마이크로폰 어레이, 상기 디스플레이부 및 상기 입력부와 작동적으로 연결되는 적어도 하나의 프로세서를 포함하고,
상기 적어도 하나의 프로세서는,
상기 촬영부에서 촬영하는 동영상을 상기 디스플레이부에 표시하고,
상기 입력부를 통한 사용자의 입력에 기반하여 상기 동영상에서 복수의 관심 대상 객체를 획득하고,
상기 복수의 관심 대상 객체의 중요도를 설정하고,
상기 복수의 관심 대상 객체의 위치 정보를 획득하고,
상기 복수의 관심 대상 객체의 중요도 및 위치 정보에 기초하여 상기 복수의 관심 대상 객체에 대한 오디오 포커싱을 배분하는, 전자 장치
- 제1항에 있어서,
상기 적어도 하나의 프로세서는,
상기 입력부를 통한 상기 사용자의 상기 디스플레이부에 표시되는 동영상 내의 객체에 대한 터치 입력 또는 마우스 클릭 입력에 기초하여 해당 객체를 관심 대상 객체로 획득하는, 전자 장치.
- 제2항에 있어서,
상기 적어도 하나의 프로세서는,
상기 입력부를 통한 상기 사용자의 상기 디스플레이부에 표시되는 동영상 내의 객체에 대한 이중(double) 터치 입력 또는 마우스 이중 클릭 입력에 기초하여 해당 객체를 관심 대상 객체에서 제외하는, 전자 장치.
- 제1항에 있어서,
상기 적어도 하나의 프로세서는,
상기 입력부를 통한 상기 사용자의 상기 디스플레이부에 표시되는 동영상 내의 객체에 대한 터치 후 스와이핑(swiping) 동작 또는 일정 시간 이상의 터치에 기초하여 해당 객체를 관심 대상 객체로 획득하고, 해당 객체의 중요도를 설정하는, 전자 장치.
- 제1항에 있어서,
상기 적어도 하나의 프로세서는,
과거 사용자에 의해 관심 대상 객체로 선정된 빈도 수에 기초하여 상기 복수의 관심 대상 객체의 중요도를 설정하는, 전자 장치.
- 제1항에 있어서,
복수의 동영상을 저장하고 있는 메모리를 더 포함하고,
상기 적어도 하나의 프로세서는,
상기 복수의 관심 대상 객체의 상기 복수의 동영상에서 나타나는 빈도 수에 기초하여 상기 복수의 관심 대상 객체의 중요도를 설정하는, 전자 장치.
- 제6항에 있어서,
상기 적어도 하나의 프로세서는,
인공 신경망 모델을 생성하고,
상기 촬영부에서 촬영하는 동영상에서 상기 복수의 관심 대상 객체의 이미지를 추출하고,
상기 복수의 관심 대상 객체의 이미지를 학습 데이터로 하는 지도 학습을 통해 상기 인공 신경망 모델을 학습시킨 이미지 학습 모델을 획득하고,
상기 메모리에 저장되어 있는 상기 복수의 동영상에서 객체 이미지들을 추출하고,
상기 객체 이미지들을 상기 이미지 학습 모델에 입력하여 상기 복수의 관심 대상 객체별로 분류하고,
상기 복수의 관심 대상 객체별 빈도 수에 기초하여 상기 복수의 관심 대상 객체의 중요도를 설정하는, 전자 장치.
- 제1항에 있어서,
상기 적어도 하나의 프로세서는,
상기 복수의 관심 대상 객체의 중요도를 상기 디스플레이부에 표시되는 동영상에 함께 표시하는, 전자 장치.
- 제1항에 있어서,
상기 적어도 하나의 프로세서는,
상기 복수의 관심 대상 객체에 오디오 포커싱을 배분하기 위하여 상기 복수의 마이크로폰 각각의 활성도를 조정하는, 전자 장치.
- 제1항에 있어서,
상기 적어도 하나의 프로세서는,
상기 복수의 관심 대상 객체에 대해 각 관심 대상 객체의 음성 특징에 맞추어 필터링을 수행하는 오디오 필터링을 적용하고,
상기 오디오 필터링 효과를 추가적으로 고려하여 상기 복수의 관심 대상 객체에 대한 오디오 포커싱을 배분하는, 전자 장치.
- 전자 장치의 동작 방법에 있어서,
동영상을 촬영하는 동작;
상기 동영상을 디스플레이부에 표시하는 동작;
사용자의 입력에 기반하여 상기 동영상에서 복수의 관심대상 객체를 획득하는 동작;
상기 복수의 관심 대상 객체의 중요도를 설정하는 동작;
상기 복수의 관심 대상 객체의 위치 정보를 획득하는 동작; 및
상기 복수의 관심 대상 객체의 중요도 및 위치 정보에 기초하여 상기 복수의 관심 대상 객체에 대한 오디오 포커싱을 배분하는 동작을 포함하는, 방법.
- 제11항에 있어서,
상기 사용자의 입력에 기반하여 상기 동영상에서 복수의 관심대상 객체를 획득하는 동작은,
상기 사용자의 상기 디스플레이부에 표시되는 동영상 내의 객체에 대한 터치 입력 또는 마우스 클릭 입력에 기초하여 해당 객체를 관심 대상 객체로 획득하는 동작을 포함하는, 방법.
- 제12항에 있어서,
상기 사용자의 입력에 기반하여 상기 동영상에서 복수의 관심대상 객체를 획득하는 동작은,
상기 사용자의 상기 디스플레이부에 표시되는 동영상 내의 객체에 대한 이중(double) 터치 입력 또는 마우스 이중 클릭 입력에 기초하여 해당 객체를 관심 대상 객체에서 제외하는 동작을 더 포함하는, 방법.
- 제11항에 있어서,
상기 복수의 관심 대상 객체의 중요도를 설정하는 동작은,
상기 사용자의 상기 디스플레이부에 표시되는 동영상 내의 객체에 대한 터치 후 스와이핑(swiping) 동작 또는 일정 시간 이상의 터치에 기초하여 해당 객체를 관심 대상 객체로 획득하고, 해당 객체의 중요도를 설정하는 동작을 포함하는, 방법.
- 제11항에 있어서,
상기 복수의 관심 대상 객체의 중요도를 설정하는 동작은,
과거 사용자에 의해 관심 대상 객체로 선정된 빈도 수에 기초하여 상기 복수의 관심 대상 객체의 중요도를 설정하는 동작을 포함하는, 방법.
- 제11항에 있어서,
상기 복수의 관심 대상 객체의 중요도를 설정하는 동작은,
상기 복수의 관심 대상 객체의 메모리에 저장되어 있는 복수의 동영상에서 나타나는 빈도 수에 기초하여 상기 복수의 관심 대상 객체의 중요도를 설정하는 동작을 포함하는, 방법.
- 제16항에 있어서,
상기 복수의 관심 대상 객체의 메모리에 저장되어 있는 복수의 동영상에서 나타나는 빈도 수에 기초하여 상기 복수의 관심 대상 객체의 중요도를 설정하는 동작은,
인공 신경망 모델을 생성하는 동작;
상기 촬영되는 동영상에서 상기 복수의 관심 대상 객체의 이미지를 추출하는 동작;
상기 복수의 관심 대상 객체의 이미지를 학습 데이터로 하는 지도 학습을 통해 상기 인공 신경망 모델을 학습시킨 이미지 학습 모델을 획득하는 동작;
메모리에 저장되어 있는 복수의 동영상에서 객체 이미지들을 추출하는 동작;
상기 객체 이미지들을 상기 이미지 학습 모델에 입력하여 상기 복수의 관심 대상 객체별로 분류하는 동작; 및
상기 복수의 관심 대상 객체별 빈도 수에 기초하여 상기 복수의 관심 대상 객체의 중요도를 설정하는 동작을 포함하는, 방법.
- 제11항에 있어서, 상기 방법은,
상기 복수의 관심 대상 객체의 중요도를 상기 디스플레이부에 표시되는 동영상에 함께 표시하는 동작을 더 포함하는, 방법.
- 제11항에 있어서,
상기 복수의 관심 대상 객체에 대한 오디오 포커싱을 배분하는 동작은,
마이크로폰 어레이를 구성하는 복수의 마이크로폰 각각의 활성도를 조정하는 동작을 포함하는, 방법.
- 제11항에 있어서, 상기 방법은,
상기 복수의 관심 대상 객체에 대해 각 관심 대상 객체의 음성 특징에 맞추어 필터링을 수행하는 오디오 필터링을 적용하는 동작; 및
상기 오디오 필터링 효과를 추가적으로 고려하여 상기 복수의 관심 대상 객체에 대한 오디오 포커싱을 배분하는 동작을 더 포함하는, 방법.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190132342A KR102709916B1 (ko) | 2019-10-23 | 2019-10-23 | 복수 객체에 대한 오디오 포커싱 방법 및 장치 |
US16/824,628 US11218803B2 (en) | 2019-10-23 | 2020-03-19 | Device and method of performing automatic audio focusing on multiple objects |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190132342A KR102709916B1 (ko) | 2019-10-23 | 2019-10-23 | 복수 객체에 대한 오디오 포커싱 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210048270A true KR20210048270A (ko) | 2021-05-03 |
KR102709916B1 KR102709916B1 (ko) | 2024-09-26 |
Family
ID=75587232
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190132342A KR102709916B1 (ko) | 2019-10-23 | 2019-10-23 | 복수 객체에 대한 오디오 포커싱 방법 및 장치 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11218803B2 (ko) |
KR (1) | KR102709916B1 (ko) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102663375B1 (ko) * | 2019-10-23 | 2024-05-08 | 엘지전자 주식회사 | 음성 및 영상 자동 포커싱 방법 및 장치 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140000586A (ko) * | 2012-06-25 | 2014-01-03 | 엘지전자 주식회사 | 이동 단말기 및 그의 오디오/비디오 듀얼 포커싱 방법 |
US10397659B1 (en) * | 2015-04-01 | 2019-08-27 | The Directv Group, Inc. | Method and system for personalizing the display of recordings stored in a user receiving device |
KR20190118994A (ko) * | 2019-10-01 | 2019-10-21 | 엘지전자 주식회사 | 음원 포커스 방법 및 장치 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2680615B1 (en) * | 2012-06-25 | 2018-08-08 | LG Electronics Inc. | Mobile terminal and audio zooming method thereof |
US10659848B1 (en) * | 2019-03-21 | 2020-05-19 | International Business Machines Corporation | Display overlays for prioritization of video subjects |
KR20200117562A (ko) * | 2019-04-04 | 2020-10-14 | 삼성전자주식회사 | 비디오 내에서 보케 효과를 제공하기 위한 전자 장치, 방법, 및 컴퓨터 판독가능 매체 |
-
2019
- 2019-10-23 KR KR1020190132342A patent/KR102709916B1/ko active IP Right Grant
-
2020
- 2020-03-19 US US16/824,628 patent/US11218803B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140000586A (ko) * | 2012-06-25 | 2014-01-03 | 엘지전자 주식회사 | 이동 단말기 및 그의 오디오/비디오 듀얼 포커싱 방법 |
US10397659B1 (en) * | 2015-04-01 | 2019-08-27 | The Directv Group, Inc. | Method and system for personalizing the display of recordings stored in a user receiving device |
KR20190118994A (ko) * | 2019-10-01 | 2019-10-21 | 엘지전자 주식회사 | 음원 포커스 방법 및 장치 |
Also Published As
Publication number | Publication date |
---|---|
US20210127205A1 (en) | 2021-04-29 |
US11218803B2 (en) | 2022-01-04 |
KR102709916B1 (ko) | 2024-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102663375B1 (ko) | 음성 및 영상 자동 포커싱 방법 및 장치 | |
US11699213B2 (en) | Image-capturing device and method for controlling same | |
US11216694B2 (en) | Method and apparatus for recognizing object | |
US11887215B2 (en) | Image processing apparatus and method for style transformation | |
US10349126B2 (en) | Method and apparatus for filtering video | |
Betancourt et al. | The evolution of first person vision methods: A survey | |
US10593322B2 (en) | Electronic device and method for controlling the same | |
US11164565B2 (en) | Unsupervised learning system and method for performing weighting for improvement in speech recognition performance and recording medium for performing the method | |
KR20180055708A (ko) | 이미지를 처리하는 전자 장치 및 방법 | |
CN114882437B (zh) | 一种识别模型的训练方法、装置、电子设备和存储介质 | |
US20190228294A1 (en) | Method and system for processing neural network model using plurality of electronic devices | |
CN110741377A (zh) | 人脸图像处理方法、装置、存储介质及电子设备 | |
KR20210052036A (ko) | 복수 의도어 획득을 위한 합성곱 신경망을 가진 장치 및 그 방법 | |
KR102206181B1 (ko) | 단말기 및 그의 동작 방법 | |
US10917721B1 (en) | Device and method of performing automatic audio focusing on multiple objects | |
US20210004702A1 (en) | System and method for generating information for interaction with a user | |
KR20240012453A (ko) | 영상 편집 장치 및 영상 편집 장치의 동작 방법 | |
US11218803B2 (en) | Device and method of performing automatic audio focusing on multiple objects | |
KR102748633B1 (ko) | 영상 시퀀스에 대한 캡션 정보를 생성하는 전자 장치 및 그 동작 방법 | |
KR102769387B1 (ko) | 복수 객체에 대한 자동 오디오 포커싱 방법 및 장치 | |
Theraja et al. | Automatic Volume Control Using Image Processing and Deep Learning Techniques: A Review | |
US20240153262A1 (en) | Device for managing a visual saliency model and control method thereof | |
CN119337192A (zh) | 数据分类方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20191023 |
|
PG1501 | Laying open of application | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20220826 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20191023 Comment text: Patent Application |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20231031 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20240620 |
|
PG1601 | Publication of registration |