KR20190072066A - 영상 통화 서비스를 제공하는 단말과 서버 - Google Patents
영상 통화 서비스를 제공하는 단말과 서버 Download PDFInfo
- Publication number
- KR20190072066A KR20190072066A KR1020170173116A KR20170173116A KR20190072066A KR 20190072066 A KR20190072066 A KR 20190072066A KR 1020170173116 A KR1020170173116 A KR 1020170173116A KR 20170173116 A KR20170173116 A KR 20170173116A KR 20190072066 A KR20190072066 A KR 20190072066A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- information
- feature points
- users
- terminal
- Prior art date
Links
- 230000001815 facial effect Effects 0.000 claims abstract description 132
- 238000000034 method Methods 0.000 claims abstract description 62
- 238000001914 filtration Methods 0.000 claims description 65
- 238000004891 communication Methods 0.000 claims description 37
- 238000013528 artificial neural network Methods 0.000 claims description 32
- 230000008569 process Effects 0.000 claims description 22
- 238000012549 training Methods 0.000 claims description 6
- 210000001061 forehead Anatomy 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 27
- 239000000284 extract Substances 0.000 description 12
- 238000012545 processing Methods 0.000 description 9
- 238000013473 artificial intelligence Methods 0.000 description 8
- 230000009747 swallowing Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000000903 blocking effect Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 229920001621 AMOLED Polymers 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000005674 electromagnetic induction Effects 0.000 description 2
- 230000005670 electromagnetic radiation Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 206010001488 Aggression Diseases 0.000 description 1
- 241000985694 Polypodiopsida Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005672 electromagnetic field Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000000060 site-specific infrared dichroism spectroscopy Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G06K9/00268—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/7243—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
- H04M1/72439—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/454—Content or additional data filtering, e.g. blocking advertisements
- H04N21/4542—Blocking scenes or portions of the received content, e.g. censoring scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/454—Content or additional data filtering, e.g. blocking advertisements
- H04N21/4545—Input to filtering algorithms, e.g. filtering a region of the image
- H04N21/45455—Input to filtering algorithms, e.g. filtering a region of the image applied to a region of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/178—Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/179—Human faces, e.g. facial parts, sketches or expressions metadata assisted face recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72448—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
- H04M1/72463—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions to restrict the functionality of the device
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Signal Processing (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Geometry (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Computer Networks & Wireless Communication (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Image Analysis (AREA)
Abstract
Description
도 1은 영상 통화 서비스가 제공되는 환경을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 단말의 구성을 나타낸 블록도이다.
도 3은 일 실시예에 따른 영상 통화 서비스를 제공하는 서버의 구성을 나타낸 블록도이다.
도 4는 다른 실시예에 따른 영상 통화 서비스를 제공하는 서버가 복수 개의 분산 서버들로 구현된 모습을 설명하기 위한 도면이다.
도 5는 일 실시예에 따라, 사용자의 안면 특징점들을 이용하여 사용자가 불량 사용자인지를 예측하는 과정을 설명하기 위한 도면이다.
도 6은 일 실시예에 따라, 사용자가 촬영된 안면 영상으로부터 안면 특징점들의 분포 정보를 획득하는 과정을 설명하기 위한 도면이다.
도 7은 일 실시예에 따라, 복수의 사용자의 정보를 수집하고, 복수의 사용자의 정보를 학습하여 불량 사용자 판별을 위한 학습 모델을 생성하는 과정을 설명하기 위한 도면이다.
도 8은 일 실시예에 따라, 복수 개의 계층 구조를 갖는 인공 신경망을 개략적으로 도시한 도면이다.
도 9a는 일 실시예에 따라, 성별에 대한 불량 사용자 판별을 위한 학습 모델을 생성하는 과정을 설명하기 위한 도면이다.
도 9b는 일 실시예에 따라, 성별에 대한 불량 사용자를 검출하고, 불량 사용자를 제재하는 과정을 설명하기 위한 도면이다.
도 10a는 일 실시예에 따라, 나이에 대한 불량 사용자 판별을 위한 학습 모델을 생성하는 과정을 설명하기 위한 도면이다.
도 10b는 일 실시예에 따라, 나이에 대한 불량 사용자를 검출하고, 불량 사용자를 제재하는 과정을 설명하기 위한 도면이다.
도 11a는 일 실시예에 따라, 신체 노출 또는 언행에 대한 불량 사용자 판별을 위한 학습 모델을 생성하는 과정을 설명하기 위한 도면이다.
도 11b 및 도 11c는 일 실시예에 따라, 신체 노출에 대한 불량 사용자를 검출하고, 불량 사용자를 제재하는 과정을 설명하기 위한 도면이다.
도 12는 일 실시예에 따라, 사용자의 안면 특징점들의 분포 정보를 이용하여 영상 통화 서비스를 제공하는 방법을 설명하기 위한 흐름도이다.
도 13은 일 실시예에 따라, 복수의 사용자의 안면 특징점들을 이용하여 불량 사용자를 판별하기 위한 학습 모델을 생성하는 방법을 설명하기 위한 흐름도이다.
Claims (15)
- 제1 단말에서,
영상 통화 서비스를 제공하는 애플리케이션이 실행됨에 따라, 상기 제1 단말의 제1 사용자를 촬영한 제1 영상 스트림을 수신하는 단계;
상기 제1 영상 스트림으로부터 상기 제1 사용자의 안면 특징점들을 추출하는 단계;
복수의 사용자의 안면 특징점들에 기초한 불량 사용자 판별을 위한 학습 모델에 상기 제1 사용자의 안면 특징점들의 분포 정보를 적용하여, 상기 제1 사용자가 불량 사용자인지를 예측하는 단계; 및
상기 예측 결과에 기초하여, 상기 애플리케이션의 실행 화면 내의 컴포넌트의 표시를 제어하는 단계;
를 포함하는 영상 통화 서비스를 제공하는 방법을 수행하도록 하는, 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션. - 제1항에 있어서,
상기 복수의 사용자의 안면 특징점들의 분포 정보 및 상기 복수의 사용자의 안면 특징점들의 분포 정보에 대응되는 필터링 항목의 정보를 이용하여 학습된, 상기 필터링 항목에 대한 불량 사용자를 판별하기 위한 학습 모델을 준비하는 단계;
를 더 포함하는, 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션. - 제2항에 있어서,
상기 필터링 항목에 대한 불량 사용자를 판별하기 위한 학습 모델은, 인공 신경망을 통해 상기 복수의 사용자의 안면 특징점들의 분포 정보와 상기 복수의 사용자의 안면 특징점들의 분포 정보에 대응되는 상기 필터링 항목의 정보의 상관 관계에 기초하여 학습된 것인, 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션. - 제3항에 있어서,
상기 제1 사용자가 불량 사용자인지를 예측하는 단계는,
상기 인공 신경망을 이용하여 상기 제1 사용자의 안면 특징점들의 분포 정보를 상기 필터링 항목에 대한 불량 사용자를 판별하기 위한 학습 모델에 따라 학습하는 단계; 및
상기 학습 결과에 기초하여, 상기 제1 사용자가 상기 필터링 항목에 대한 불량 사용자인지를 예측하는 단계;
를 포함하는, 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션. - 제2항에 있어서,
상기 필터링 항목의 정보는,
성별 정보, 나이 정보, 상기 애플리케이션이 실행되는 동안의 신체 노출 정도 정보 및 욕설 빈도 정보 중 적어도 하나를 포함하고,
상기 필터링 항목의 정보가 적어도 둘의 정보를 포함하면,
상기 제1 사용자가 불량 사용자인지를 예측하는 단계는,
상기 제1 사용자의 안면 특징점들의 분포 정보를 상기 필터링 항목 각각에 대한 불량 사용자를 판별하기 위한 학습 모델에 적용하여, 상기 제1 사용자가 상기 필터링 항목 각각에 대한 불량 사용자인지를 예측하는 것인, 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션. - 제2항에 있어서,
상기 필터링 항목에 대한 불량 사용자를 판별하기 위한 학습 모델을 준비하는 단계는,
상기 복수의 사용자에 대해서 상기 필터링 항목에 대한 불량 사용자 판별 이력을 학습하여, 상기 필터링 항목에 대한 불량 사용자를 판별하기 위한 학습 모델을 업데이트 하는 단계;
를 포함하는, 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션. - 제1항에 있어서,
상기 제1 영상 스트림으로부터 상기 제1 사용자의 안면 특징점들을 추출하는 단계는,
상기 제1 영상 스트림으로부터 상기 제1 사용자의 안면 부위인 눈 부위, 코 부위, 입 부위, 이마 부위, 및 턱 부위 중 적어도 하나의 부위의 특징점들을 추출하는 것이고,
상기 복수의 사용자의 안면 특징점들에 기초한 불량 사용자 판별을 위한 학습 모델에 상기 제1 사용자의 안면 특징점들의 분포 정보를 적용하여, 상기 제1 사용자가 불량 사용자인지를 예측하는 단계는,
상기 학습 모델에 상기 제1 사용자의 안면 부위 중 하나의 부위에 대한 특징점들의 분포 정보를 적용하는 단계; 및
상기 학습 모델에 상기 제1 사용자의 안면 부위 중 적어도 둘 부위의 조합에 대한 특징점들의 분포 정보를 적용하는 단계;
를 포함하는, 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션. - 제1항에 있어서,
상기 제1 사용자가 불량 사용자인 것으로 예측되면,
상기 예측 결과에 기초하여, 상기 애플리케이션의 실행 화면 내의 컴포넌트의 표시를 제어하는 단계는,
상기 애플리케이션의 실행 화면 상에 경고 메시지를 표시하는 단계;
상기 애플리케이션의 실행 화면 상에서 상기 제1 사용자가 출력되는 영역을 모자이크 처리하여 표시하는 단계; 및
상기 제1 단말이 제2 단말과 수립된 영상 통화 세션을 자동으로 종료시키는 단계 중 적어도 하나의 단계를 수행하는, 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션. - 제1항에 있어서,
상기 제1 사용자가 정상 사용자인 것으로 예측되면,
상기 예측 결과에 기초하여, 상기 애플리케이션의 실행 화면 내의 컴포넌트의 표시를 제어하는 단계는,
상기 제1 단말이 제2 단말과 수립된 영상 통화 세션을 계속하여 유지시키는 단계를 포함하고,
상기 영상 통화 서비스를 제공하는 방법은,
제1항의 상기 제1 영상 스트림을 수신하는 단계, 상기 제1 사용자의 안면 특징점들을 추출하는 단계, 상기 제1 사용자가 불량 사용자인지를 예측하는 단계, 및 상기 애플리케이션의 실행 화면 내의 컴포넌트의 표시를 제어하는 단계를 실시간 또는 소정의 주기마다 반복적으로 수행하는 단계를 더 포함하는, 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션. - 제2항에 있어서,
상기 필터링 항목에 대한 불량 사용자를 판별하기 위한 학습 모델을 준비하는 단계는,
상기 영상 통화 서비스를 제공하는 서버로부터 상기 필터링 항목에 대한 불량 사용자를 판별하기 위한 학습 모델을 수신하는 것인, 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션. - 영상 통화를 지원하는 복수의 단말과 통신을 수행하는 통신 인터페이스;
스토리지;
프로세서; 및
상기 프로세서에 의해 실행 가능한 명령어들을 저장하는 메모리;를 포함하고,
상기 프로세서는, 상기 명령어들을 실행함으로써,
상기 복수의 단말에서 영상 통화 서비스를 제공하는 애플리케이션이 실행됨에 따라, 상기 복수의 단말 각각으로부터 상기 복수의 단말 각각에 대응되는 복수의 사용자의 영상 스트림을 수신하고,
상기 영상 스트림으로부터 상기 복수의 사용자의 안면 특징점들을 추출하고,
상기 복수의 사용자의 안면 특징점들의 분포 정보 및 상기 복수의 사용자의 안면 특징점들의 분포 정보에 대응되는 필터링 항목의 정보에 기초하여, 상기 필터링 항목에 대한 불량 사용자를 판별하기 위한 학습 모델을 생성하고,
상기 생성된 학습 모델을 상기 복수의 단말로 전송하는, 영상 통화 서비스를 제공하는 서버. - 제11항에 있어서,
상기 프로세서는, 상기 명령어들을 실행함으로써,
인공 신경망을 통한 연산을 수행하여, 상기 복수의 사용자의 안면 특징점들의 분포 정보와 상기 복수의 사용자의 안면 특징점들의 분포 정보에 대응되는 상기 필터링 항목의 정보의 상관 관계를 학습하고, 상기 학습 결과에 기초하여 상기 인공 신경망을 훈련하여, 상기 필터링 항목에 대한 불량 사용자를 판별하기 위한 학습 모델을 생성하는, 영상 통화 서비스를 제공하는 서버. - 제11항에 있어서,
상기 필터링 항목의 정보는, 성별 정보, 나이 정보, 상기 애플리케이션이 실행되는 동안의 신체 노출 정도 정보 및 욕설 빈도 정보 중 적어도 하나를 포함하고,
상기 필터링 항목의 정보가 적어도 둘의 정보를 포함하면,
상기 프로세서는, 상기 명령어들을 실행함으로써,
상기 복수의 사용자의 안면 특징점들의 분포 정보 및 상기 복수의 사용자의 안면 특징점들의 분포 정보에 대응되는 상기 필터링 항목 각각의 정보에 기초하여, 상기 필터링 항목 각각에 대한 불량 사용자를 판별하기 위한 학습 모델을 생성하는, 영상 통화 서비스를 제공하는 서버. - 제11항에 있어서,
상기 프로세서는, 상기 명령어들을 실행함으로써,
상기 복수의 사용자에 대해서 상기 필터링 항목에 대한 불량 사용자 판별 이력을 학습하여, 상기 필터링 항목에 대한 불량 사용자를 판별하기 위한 학습 모델을 업데이트 하는, 영상 통화 서비스를 제공하는 서버. - 제1 단말에서 영상 통화 서비스를 제공하는 애플리케이션이 실행됨에 따라, 상기 제1 단말의 제1 사용자를 촬영한 제1 영상 스트림을 수신하는 명령어들;
상기 제1 영상 스트림으로부터 상기 제1 사용자의 안면 특징점들을 추출하는 명령어들;
복수의 사용자의 안면 특징점들에 기초한 불량 사용자 판별을 위한 학습 모델에 상기 제1 사용자의 안면 특징점들의 분포 정보를 적용하여, 상기 제1 사용자가 불량 사용자인지를 예측하는 명령어들; 및
상기 예측 결과에 기초하여, 상기 애플리케이션의 실행 화면 내의 컴포넌트의 표시를 제어하는 명령어들;
을 포함하는 프로세서에 의해 실행 가능한 명령어들이 저장된 비일시적 컴퓨터 판독 가능 저장매체.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170173116A KR102056806B1 (ko) | 2017-12-15 | 2017-12-15 | 영상 통화 서비스를 제공하는 단말과 서버 |
US16/219,851 US10970523B2 (en) | 2017-12-15 | 2018-12-13 | Terminal and server for providing video call service |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170173116A KR102056806B1 (ko) | 2017-12-15 | 2017-12-15 | 영상 통화 서비스를 제공하는 단말과 서버 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190072066A true KR20190072066A (ko) | 2019-06-25 |
KR102056806B1 KR102056806B1 (ko) | 2019-12-18 |
Family
ID=66816087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170173116A KR102056806B1 (ko) | 2017-12-15 | 2017-12-15 | 영상 통화 서비스를 제공하는 단말과 서버 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10970523B2 (ko) |
KR (1) | KR102056806B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210051065A (ko) * | 2019-10-29 | 2021-05-10 | 라인플러스 주식회사 | 영상 통화 서비스를 제공하는 인스턴트 메시징 애플리케이션을 통해 수신된 정보를 검증하는 방법 및 시스템 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11553157B2 (en) | 2016-10-10 | 2023-01-10 | Hyperconnect Inc. | Device and method of displaying images |
KR101932844B1 (ko) | 2017-04-17 | 2018-12-27 | 주식회사 하이퍼커넥트 | 영상 통화 장치, 영상 통화 방법 및 영상 통화 중개 방법 |
KR102282963B1 (ko) | 2019-05-10 | 2021-07-29 | 주식회사 하이퍼커넥트 | 단말기, 서버 및 그것의 동작 방법 |
CN110266994B (zh) * | 2019-06-26 | 2021-03-26 | 广东小天才科技有限公司 | 一种视频通话方法、视频通话装置及终端 |
KR102311603B1 (ko) | 2019-10-01 | 2021-10-13 | 주식회사 하이퍼커넥트 | 단말기 및 그것의 동작 방법 |
US10805801B1 (en) * | 2019-10-02 | 2020-10-13 | International Business Machines Corporation | Automatic mobile device usage restriction |
KR102293422B1 (ko) | 2020-01-31 | 2021-08-26 | 주식회사 하이퍼커넥트 | 단말기 및 그것의 동작 방법 |
KR102287704B1 (ko) * | 2020-01-31 | 2021-08-10 | 주식회사 하이퍼커넥트 | 단말기, 그것의 동작 방법 및 컴퓨터 판독 가능한 기록매체 |
KR20210115442A (ko) | 2020-03-13 | 2021-09-27 | 주식회사 하이퍼커넥트 | 신고 평가 장치 및 그것의 동작 방법 |
CN111488476B (zh) * | 2020-04-03 | 2023-06-27 | 北京爱芯科技有限公司 | 图像推送方法、模型训练方法及对应装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100138067A (ko) | 2009-06-24 | 2010-12-31 | 에스케이 텔레콤주식회사 | 영상메시지 서비스 시스템 및 영상메시지 서비스 방법 |
KR101170338B1 (ko) | 2009-09-05 | 2012-08-02 | 에스케이플래닛 주식회사 | 화상 통화 방법 및 시스템 |
KR20110066676A (ko) | 2009-12-11 | 2011-06-17 | 한국전자통신연구원 | 피부색과 얼굴 정보 기반 유해 멀티미디어 차단 장치 및 방법 |
US9282127B1 (en) * | 2014-07-31 | 2016-03-08 | Anthony Nicholas Burns | Mobile dating application utilizing social media, facial recognition and GPS-based user pairing |
US10115185B2 (en) * | 2014-12-05 | 2018-10-30 | At&T Intellectual Property I, L.P. | Dynamic image recognition model updates |
US9503456B1 (en) * | 2015-01-22 | 2016-11-22 | Google Inc. | Video chat abuse detection based on external context |
US9830529B2 (en) * | 2016-04-26 | 2017-11-28 | Xerox Corporation | End-to-end saliency mapping via probability distribution prediction |
-
2017
- 2017-12-15 KR KR1020170173116A patent/KR102056806B1/ko active IP Right Grant
-
2018
- 2018-12-13 US US16/219,851 patent/US10970523B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210051065A (ko) * | 2019-10-29 | 2021-05-10 | 라인플러스 주식회사 | 영상 통화 서비스를 제공하는 인스턴트 메시징 애플리케이션을 통해 수신된 정보를 검증하는 방법 및 시스템 |
Also Published As
Publication number | Publication date |
---|---|
US10970523B2 (en) | 2021-04-06 |
KR102056806B1 (ko) | 2019-12-18 |
US20190188453A1 (en) | 2019-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10970523B2 (en) | Terminal and server for providing video call service | |
US11042728B2 (en) | Electronic apparatus for recognition of a user and operation method thereof | |
US11551374B2 (en) | Hand pose estimation from stereo cameras | |
CN111260665B (zh) | 图像分割模型训练方法和装置 | |
US10587776B2 (en) | Electronic device and method for controlling the electronic device | |
CN110447232B (zh) | 用于确定用户情绪的电子设备及其控制方法 | |
US20190042574A1 (en) | Electronic device and method for controlling the electronic device | |
US10949654B2 (en) | Terminal and server for providing video call service | |
CN116912514A (zh) | 用于检测图像中的对象的神经网络 | |
US10769795B2 (en) | Image processing method and device | |
CN113723185B (zh) | 动作行为识别方法、装置、存储介质及终端设备 | |
CN112084959B (zh) | 一种人群图像处理方法及装置 | |
CN110765924B (zh) | 一种活体检测方法、装置以及计算机可读存储介质 | |
KR102582594B1 (ko) | 뉴럴 네트워크를 이용한 의상 추천 방법 및 장치 | |
WO2017088434A1 (zh) | 人脸模型矩阵训练方法、装置及存储介质 | |
CN112818733B (zh) | 信息处理方法、装置、存储介质及终端 | |
Aravindan et al. | A Smart Assistive System for Visually Impaired to Inform Acquaintance Using Image Processing (ML) Supported by IoT | |
KR102034839B1 (ko) | 영상 통화 서비스를 제공하는 단말 및 서버 | |
WO2023137923A1 (zh) | 基于姿态指导的行人重识别方法、装置、设备及存储介质 | |
CN111897709B (zh) | 监控用户的方法、装置、电子设备及介质 | |
WO2020207294A1 (zh) | 服务处理方法、装置、存储介质及电子设备 | |
CN111796663B (zh) | 场景识别模型更新方法、装置、存储介质及电子设备 | |
Aravindan et al. | Image Processing (ML) Supported by IoT | |
CN117711040A (zh) | 标定方法和电子设备 | |
CN118609178A (zh) | 一种图像处理方法、图像识别方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20171215 |
|
PA0201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20190418 Patent event code: PE09021S01D |
|
AMND | Amendment | ||
PG1501 | Laying open of application | ||
E601 | Decision to refuse application | ||
PE0601 | Decision on rejection of patent |
Patent event date: 20191002 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20190418 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |
|
AMND | Amendment | ||
PX0901 | Re-examination |
Patent event code: PX09011S01I Patent event date: 20191002 Comment text: Decision to Refuse Application Patent event code: PX09012R01I Patent event date: 20190618 Comment text: Amendment to Specification, etc. |
|
PX0701 | Decision of registration after re-examination |
Patent event date: 20191114 Comment text: Decision to Grant Registration Patent event code: PX07013S01D Patent event date: 20191101 Comment text: Amendment to Specification, etc. Patent event code: PX07012R01I Patent event date: 20191002 Comment text: Decision to Refuse Application Patent event code: PX07011S01I Patent event date: 20190618 Comment text: Amendment to Specification, etc. Patent event code: PX07012R01I |
|
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20191211 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20191212 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20220915 Start annual number: 4 End annual number: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20230921 Start annual number: 5 End annual number: 5 |
|
PR1001 | Payment of annual fee |
Payment date: 20241126 Start annual number: 6 End annual number: 6 |