KR20080057030A - 이모티콘을 이용한 화상통화장치 및 방법 - Google Patents

이모티콘을 이용한 화상통화장치 및 방법 Download PDF

Info

Publication number
KR20080057030A
KR20080057030A KR1020060130335A KR20060130335A KR20080057030A KR 20080057030 A KR20080057030 A KR 20080057030A KR 1020060130335 A KR1020060130335 A KR 1020060130335A KR 20060130335 A KR20060130335 A KR 20060130335A KR 20080057030 A KR20080057030 A KR 20080057030A
Authority
KR
South Korea
Prior art keywords
emoticon
information
image
facial
emotional state
Prior art date
Application number
KR1020060130335A
Other languages
English (en)
Other versions
KR101326651B1 (ko
Inventor
강래훈
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020060130335A priority Critical patent/KR101326651B1/ko
Publication of KR20080057030A publication Critical patent/KR20080057030A/ko
Application granted granted Critical
Publication of KR101326651B1 publication Critical patent/KR101326651B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/40Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/50Telephonic communication in combination with video communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • H04N2007/145Handheld terminals

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Telephone Function (AREA)
  • Image Analysis (AREA)
  • Telephonic Communication Services (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

본 발명은 화상통화장치 및 방법에 관한 것으로, 외부로부터 음성 및/또는 영상을 입력으로 받아 음성인식 및 안면인식 기술을 이용하여 언어 및 표정으로 표현되는 감정상태를 인지하고, 상기 인지한 감정상태에 대응되는 이모티콘을 검색하여 상기 입력영상에 해당 이모티콘을 삽입하여 합성하며 상기 합성된 영상을 수신측의 화상통화단말로 전송한다. 이와 같이, 본 발명에서는 사용자의 조작없이 손쉽게 사용자의 감정상태에 해당하는 이모티콘을 입력영상과 합성하여 전송하므로 시각적인 욕구를 충족시킬 수 있다.
화상통화, 이모티콘, 음성인식, 안면인식

Description

이모티콘을 이용한 화상통화장치 및 방법{APPARATUS AND METHOD FOR IMAGE COMMUNICATION INSERTING EMOTICON}
도 1은 본 발명에 따른 이모티콘을 이용한 화상통화장치의 블록구성도.
도 2는 본 발명에 따른 이모티콘을 이용한 화상통화장치의 이모티콘 관리 화면 예시도.
도 3은 본 발명에 따른 이모티콘을 이용한 화상통화방법을 설명하기 위한 흐름도.
도 4 및 도 5는 본 발명에 따른 이모티콘을 이용한 화상통화 화면 예시도.
<도면의 주요부분에 대한 부호의 설명>
100: 마이크 110: 카메라
120: 감지부 122: 음성인식부
124: 안면인식부 130: 처리부
140: 저장부 150: 합성부
160: 통신부 170: 표시부
본 발명은 화상통화 장치에 관한 것으로, 특히 화상통화 중 사용자의 감정상태를 인식하여 해당하는 이모티콘(emoticon)을 영상에 삽입하여 전송하는 이모티콘을 이용한 화상통화장치 및 방법에 관한 것이다.
일반적으로, 이동통신단말과 같은 화상통화장치는 카메라와 마이크를 통해 획득한 사용자의 영상 및 음성을 송수신하므로 화상통화를 수행한다. 이러한 화상통화 장치는 카메라를 통해 획득한 영상을 그대로 전송하므로 시각적인 효과를 중요시하는 사용자들의 욕구를 충족시키지 못하였다.
상기한 문제점을 해결하기 위해 종래에는 카메라를 통해 획득한 영상에 다양한 이모티콘을 삽입하여 전송할 수 있게 하므로 사용자들의 시각적인 욕구를 충족시켰다. 즉, 화상통화 중에 사용자가 이모티콘의 삽입을 원하면 사용자는 키 조작을 통해 원하는 이모티콘을 선택하고, 방향키를 사용하여 상기 선택한 이모티콘이 삽입될 위치를 결정하여 그 위치에 상기 이모티콘을 배치한다. 상기 이모티콘의 배치가 완료되면 화상통화장치는 카메라를 통해 입력받은 영상에 상기 이모티콘을 삽입하여 전송한다.
그러나, 상기한 바와 같은 종래기술에서는 이모티콘을 삽입할 때마다 사용자가 키 조작 통해 원하는 이모티콘을 선택하고 원하는 위치에 배치해야 하는 불편함이 있다.
따라서, 본 발명의 목적은 사용자의 감정상태를 인지하여 해당 이모티콘을 삽입하여 전송하는 이모티콘을 이용한 화상통화장치 및 방법을 제공하는 데 있다.
상기한 바와 같은 목적을 달성하기 위한 본 발명은 화자의 감정상태를 감지하는 감지부와; 상기 감지된 감정상태에 대응되는 이모티콘을 카메라를 통해 획득한 영상에 삽입하여 전송하는 처리부를 포함한다.
바람직하게, 상기 감지부는 외부로부터 입력받은 음성신호로부터 언어정보를 추출하는 음성인식부 및 입력받은 영상으로부터 안면정보를 추출하는 안면인식부 중 적어도 하나 이상으로 구성된 것을 특징으로 하는 이모티콘을 이용한 화상통화장치.
바람직하게, 상기 안면정보는 얼굴영역 및 눈, 코, 입과 같은 국부영역에 대한 특징정보, 그리고 상기 특징정보를 토대로 생성되는 표정정보를 포함한다.
바람직하게, 상기 이모티콘과 상기 이모티콘에 대응되는 언어정보 및 표정정보, 상기 이모티콘이 삽입될 위치정보를 저장하고 있는 저장부를 더 포함한다.
바람직하게, 안면정보 및 언어정보를 토대로 상기 영상에 해당 이모티콘을 삽입하는 합성부와; 상기 합성부에 의해 합성된 영상을 전송하기 위한 통신부를 더 포함한다.
본 발명의 다른 특징에 따르면, 본 발명에 따른 화상통화방법은 사용자의 감정상태를 감지하는 단계와; 상기 감정상태에 따른 해당 이모티콘을 카메라를 통해 획득한 영상에 삽입하여 전송하는 단계를 포함한다.
바람직하게, 상기 감정상태 감지단계는 입력받은 음성신호로부터 상기 감정상태를 나타내는 언어정보를 추출하는 음성인식에 의해 수행된다.
바람직하게, 상기 감정상태 감지단계는 상기 영상으로부터 안면정보를 추출 하는 안면인식에 의해 수행된다.
바람직하게, 상기 감정상태 감지단계는, 상기 영상으로부터 안면의 특징정보를 추출하는 단계와; 상기 추출한 특징정보에 근거하여 표정정보를 생성하는 단계를 포함한다.
바람직하게, 상기 감정상태 감지단계는 입력받은 음성신호로부터 언어정보를 추출하는 음성인식 및 상기 영상으로부터 안면정보를 추출하는 안면인식에 의해 수행된다.
바람직하게, 상기 안면정보는 얼굴영역 및 눈, 코, 입과 같은 국부영역에 대한 특징정보, 그리고 상기 특징정보에 근거한 표정정보를 포함한다.
바람직하게, 상기 이모티콘을 삽입하여 전송하는 단계는, 상기 감정상태에 대응되는 이모티콘을 검색하는 단계와; 상기 검색된 이모티콘을 상기 입력영상에 배치하여 합성하는 단계를 포함한다.
이하, 본 발명에 따른 바람직한 실시 예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명에 따른 이모티콘을 이용한 화상통화장치의 블록구성도이다.
도 1에 도시된 바와 같이, 본 발명에 따른 화상통화장치는 마이크(100), 카메라(110), 감지부(120), 그리고 처리부(130)를 구비한다.
상기 마이크(100)는 외부로부터 음성신호를 입력받기 위한 입력장치이고, 상기 카메라(110)는 외부로부터 영상을 입력받기 위한 수단이다.
상기 감지부(120)는 상기 마이크(100)로부터 전송되는 음성신호로부터 언어정보를 추출하는 음성인식부(122) 및 상기 카메라(110)를 통해 획득한 영상으로부터 안면정보를 추출하는 안면인식부(124) 중 적어도 하나 이상을 사용하여 구현된다. 여기서, 상기 안면정보는 눈, 코, 입과 같은 국부영역 및 얼굴영역에 대한 특징정보와 상기 특징정보에 근거하여 인지된 표정정보를 포함한다. 상기 감지부(120)는 언어(speech) 및 표정으로 표현되는 사용자의 감정상태를 상기 음성인식부(122) 및 상기 안면인식부(124)를 이용하여 감지한다.
상기 음성인식부(122)는 상기 음성신호로부터 감정상태를 나타내는 언어정보를 추출한다. 여기서, 언어정보 추출은 상기 음성신호로부터 잡음(noise)을 제거하고 특징 파라미터(feature parameter)를 추출하는 특징 추출과정과, 그 특징 파라미터를 이용하여 단어 및 문장을 인식하는 인식과정을 수행한다. 예컨대, 사용자가 "행복"이라고 발성하면 상기 음성인식부(122)는 입력받은 음성신호의 패턴(특징 파라미터)과 데이터 베이스에 저장된 참조패턴의 유사도를 측정하여 인식한 결과를 텍스트 데이터(text data) "행복"으로 출력한다. 여기서, 상기 유사도 측정을 위해 HMM(Hiddem Markow Model), DTW(Dynamic Time Warping), 신경회로망(Neural Network) 모델 등이 사용된다.
그리고, 상기 안면인식부(124)는 상기 획득한 영상에 포함된 잡음을 제거하는 영상처리 및 분할을 수행하는 전처리부(미도시)와 상기 영상으로부터 눈, 코, 입과 같은 국부영역 및 얼굴영역에 대한 특징정보를 검출하는 검출부(미도시)를 구비한다. 상기 안면인식부(124)는 상기 검출된 결과를 토대로 사용자의 감정상태가 표현되는 표정정보를 텍스트 데이터로 출력한다.
상기 처리부(130)는 상기 감지부(120)에 의해 감지된 감정상태 즉, 언어정보 및 표정정보에 대응되는 이모티콘을 검색하여 출력하고, 검색된 이모티콘과 상기 영상을 합성하여 전송하게 한다. 그리고, 상기 처리부(130)는 각 구성요소의 동작을 제어하여 상기 화상통화장치의 전반적인 동작을 수행한다.
그리고, 본 발명에 따른 이모티콘을 이용한 화상통화장치는 상기 이모티콘, 이모티콘 명칭, 그리고 상기 이모티콘이 삽입될 위치에 대한 위치정보를 저장하고 있는 저장부(140)를 구비한다. 여기서, 상기 이모티콘 명칭은 상기 처리부(130)가 상기 감지된 감정상태에 대응디는 이모티콘을 검색할 때 이용되고, 상기 이모티콘은 사용자에 의해 추가 또는 삭제될 수 있다. 예를 들면, 사용자가 이모티콘을 추가하고자 하는 경우 도 2에 도시된 바와 같이 사용자는 이모티콘으로 사용할 이미지를 선택하고, 선택된 이미지에 해당하는 이모티콘 명칭(메롱)을 입력한다. 그리고, 이모티콘 출력시 배치될 위치에 대한 정보입력까지 완료되면, 상기 처리부(130)는 상기 입려받은 정보를 상기 저장부(140)에 저장한다.
또한, 본 발명에 따른 화상통화장치는 상기 카메라(110)를 통해 획득한 영상과 상기 검색된 이모티콘을 합성하는 합성부(150)를 구비한다. 상기 합성부(150)는 상기 저장부(140)로부터 판독된 위치정보에 근거하여 상기 처리부(130)에 의해 검색된 이모티콘을 상기 영상에 삽입하여 배치하고, 배치가 완료되면 상기 이모티콘과 영상을 합성한다.
본 발명에 따른 화상통화장치는 상기 합성부(150)에 의해 합성된 영상을 전 송하기 위한 통신부(160) 및 상기 화상통화장치의 동작에 따른 상태 및 결과를 표시하는 표시부(170)를 구비한다. 상기 통신부(160)는 무선통신을 통해 상기 합성영상을 송수신하는 무선통신모듈로 구현되거나 또는 네트워크 상의 통신 프로토콜에 맞춰 상기 합성영상을 송수신하는 유선통신모듈로 구현된다.
도 3는 본 발명에 따른 이모티콘을 이용한 화상통화방법을 설명하기 위한 흐름도이다.
도 3에 도시된 바와 같이, 화상통화 상태에서 감지부(120)는 사용자의 음성 및/또는 표정을 통해 감정상태를 인지한다(S300, S302).
먼저, 음성을 통해 상기 감정상태를 인지하는 경우, 상기 감지부(120)의 음성인식부(122)는 마이크(100)를 통해 입력되는 음성신호로부터 언어정보를 추출하여 출력한다. 예를 들면, 사용자가 "반사"라고 발성하면 음성인식부(122)는 입력으로 받은 "반사"라는 음성신호로부터 추출한 입력패턴(특징 파라미터)와 참조패턴 간의 유사도를 측정하여 언어정보를 인식하여 텍스트 데이터 "반사"로 출력한다. 즉, 상기 음성인식부(122)는 언어(speech)로 표현되는 감정상태를 인식하여 텍스트로 출력한다.
다음, 사용자의 표정을 통해 상기 감정상태를 인지하는 경우, 상기 감지부(120)의 안면인식부(124)는 카메라(110)를 통해 입력받은 영상으로부터 안면정보를 검출하고 검출된 안면정보를 토대로 상기 표정정보를 인지하여 그 결과를 텍스트 데이터로 출력한다. 여기서, 상기 안면정보는 눈, 코, 입과 같은 국부영역 및 얼굴영역에 대한 안면특징정보, 그리고 표정정보를 포함한다. 예를 들어, 사용자가 혀를 내밀면 상기 안면인식부(124)는 상기 카메라(110)를 통한 입력영상으로부터 혀를 내민 사용자의 안면특징을 검출하고 검출된 안면특징을 근거로 생성한 상기 표정정보 "메롱"를 포함한 안면정보를 출력한다.
마지막으로, 상기 사용자의 음성 및 표정을 조합하여 상기 감정상태를 인지하는 경우, 상기 음성인식부(122) 및 안면인식부(124)의 출력을 조합하여 사용자의 감정상태를 판단하여 출력한다.
상기 감지부(120)의 출력 즉, 상기 언어정보 및 표정정보를 입력으로 받은 처리부(130)는 상기 감지부(120)로부터 출력되는 감정상태에 대응되는 이모티콘을 저장부(140)에서 검색한다(S305). 이때, 상기 처리부(130)는 상기 음성인식부(122) 및/또는 안면인식부(124)의 출력과 상기 저장부(140)에 저장된 이모티콘 명칭을 비교하여 이모티콘 검색을 수행한다.
상기 검색결과 상기 음성인식부(122) 및 안면인식부(124)의 출력과 일치하는 이모티콘이 검색되면 상기 처리부(130)는 상기 저장부(140)로부터 해당 이모티콘과 관련정보 즉, 위치정보를 판독(read)하여 합성부(150)로 전송한다. 해당 이모티콘을 입력으로 받은 상기 합성부(150)는 상기 저장부(140)에 저장된 이모티콘의 위치정보에 근거하여 상기 카메라(110)를 통해 획득한 영상에 상기 이모티콘을 삽입한다(S306). 상기 영상과 이모티콘의 합성이 완료되면 상기 합성부(150)는 상기 합성된 영상을 통신부(160)로 전송한다.
예를 들어, "반사"와 일치하는 이모티콘 명칭을 가진 이모티콘이 검색되면 저장부(140)에 저장된 이모티콘의 위치정보 및 상기 안면인식부(124)로부터의 안면 정보를 토대로 도 4에 도시된 바와 같이 상기 이모티콘을 영상에 배치하여 합성한다. 그리고, 상기 합성부(150)로부터 합성영상을 전송받은 처리부(130)는 상기 합성영상을 표시부(170)로 출력하고, 동시에 상기 합성영상을 상기 통신부(160)를 통해 수신측의 화상통화장치로 송신한다. 상기 합성영상을 수신한 수신측의 화상통화장치는 상기 합성영상을 표시부(170')의 화면에 표시한다.
또는, "눈물" 또는 우는 소리가 마이크(100)를 통해 입력되면 상기 화상통화장치는 상기 인식한 음성에 대응되는 이모티콘을 검색하고, 안면인식부(124)로부터 전송받은 안면정보를 통해 상기 눈물모양의 이모티콘을 도 5에 도시된 바와 같이 눈 아래 삽입하여 전송한다.
이와 같이, 본 발명에서는 마이크 및 카메라를 통해 입력받은 음성 및 영상을 통해 사용자의 감정상태를 감지하여 해당 이모티콘을 영상에 삽입하여 전송하므로 사용자의 키조작이 요구되지 않으며 시각적인 효과를 향상시킬 수 있다.
위에서 상세히 설명한 바와 같은 본 발명에서는 사용자의 음성 및 표정을 통해 사용자의 감정상태를 인식하고, 그에 해당하는 이모티콘을 입력영상에 삽입하여 전송한다. 따라서, 사용자의 시각적인 욕구를 충족시킬 수 있고, 사용자의 조작없이 손쉽게 이모티콘을 삽입할 수 있어 사용자에게 편의를 제공한다.

Claims (12)

  1. 화자의 감정상태를 감지하는 감지부와;
    상기 감지된 감정상태에 대응되는 이모티콘을 카메라를 통해 획득한 영상에 삽입하여 전송하는 처리부를 포함하는 것을 특징으로 하는 이모티콘을 이용한 화상통화장치.
  2. 제 1항에 있어서,
    상기 감지부는 외부로부터 입력받은 음성신호로부터 언어정보를 추출하는 음성인식부 및 입력받은 영상으로부터 안면정보를 추출하는 안면인식부 중 적어도 하나 이상으로 구성된 것을 특징으로 하는 이모티콘을 이용한 화상통화장치.
  3. 제 2항에 있어서,
    상기 안면정보는 얼굴영역 및 눈, 코, 입과 같은 국부영역에 대한 특징정보, 그리고 상기 특징정보를 토대로 생성되는 표정정보를 포함하는 것을 특징으로 하는 이모티콘을 이용한 화상통화장치.
  4. 제 1항에 있어서,
    상기 이모티콘과 상기 이모티콘에 대응되는 언어정보 및 표정정보, 상기 이모티콘이 삽입될 위치정보를 저장하고 있는 저장부를 더 포함하는 것을 특징으로 하는 이모티콘을 이용한 화상통화장치.
  5. 제 1항에 있어서,
    안면정보 및 언어정보를 토대로 상기 영상에 해당 이모티콘을 삽입하는 합성부와;
    상기 합성부에 의해 합성된 영상을 전송하기 위한 통신부를 더 포함하는 것을 특징으로 하는 이모티콘을 이용한 화상통화장치.
  6. 사용자의 감정상태를 감지하는 단계와;
    상기 감정상태에 따른 해당 이모티콘을 카메라를 통해 획득한 영상에 삽입하여 전송하는 단계를 포함하는 것을 특징으로 하는 이모티콘을 이용한 화상통화방법.
  7. 제 6항에 있어서,
    상기 감정상태 감지단계는 입력받은 음성신호로부터 상기 감정상태를 나타내는 언어정보를 추출하는 음성인식에 의한 것을 특징으로 하는 이모티콘을 이용한 화상통화방법.
  8. 제 6항에 있어서,
    상기 감정상태 감지단계는 상기 영상으로부터 안면정보를 추출하는 안면인식 에 의한 것을 특징으로 하는 이모티콘을 이용한 화상통화방법.
  9. 제 8항에 있어서, 상기 감정상태 감지단계는,
    상기 영상으로부터 안면의 특징정보를 추출하는 단계와;
    상기 추출한 특징정보에 근거하여 표정정보를 생성하는 단계를 포함하는 것을 특징으로 하는 이모티콘을 이용한 화상통화방법.
  10. 제 6항에 있어서,
    상기 감정상태 감지단계는 입력받은 음성신호로부터 언어정보를 추출하는 음성인식 및 상기 영상으로부터 안면정보를 추출하는 안면인식에 의한 것을 특징으로 하는 이모티콘을 이용한 화상통화방법.
  11. 제 10항에 있어서,
    상기 안면정보는 얼굴영역 및 눈, 코, 입과 같은 국부영역에 대한 특징정보, 그리고 상기 특징정보에 근거한 표정정보를 포함하는 것을 특징으로 하는 이모티콘을 이용한 화상통화방법.
  12. 제 6항에 있어서, 상기 이모티콘을 삽입하여 전송하는 단계는,
    상기 감정상태에 대응되는 이모티콘을 검색하는 단계와;
    상기 검색된 이모티콘을 상기 입력영상에 배치하여 합성하는 단계를 포함하 는 것을 특징으로 하는 이모티콘을 이용한 화상통화 방법.
KR1020060130335A 2006-12-19 2006-12-19 이모티콘을 이용한 화상통화장치 및 방법 KR101326651B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060130335A KR101326651B1 (ko) 2006-12-19 2006-12-19 이모티콘을 이용한 화상통화장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060130335A KR101326651B1 (ko) 2006-12-19 2006-12-19 이모티콘을 이용한 화상통화장치 및 방법

Publications (2)

Publication Number Publication Date
KR20080057030A true KR20080057030A (ko) 2008-06-24
KR101326651B1 KR101326651B1 (ko) 2013-11-08

Family

ID=39803032

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060130335A KR101326651B1 (ko) 2006-12-19 2006-12-19 이모티콘을 이용한 화상통화장치 및 방법

Country Status (1)

Country Link
KR (1) KR101326651B1 (ko)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101860713A (zh) * 2009-04-07 2010-10-13 阿瓦亚公司 为不支持视频的视频电话参与者提供非言辞通信的描述
WO2013027893A1 (ko) * 2011-08-22 2013-02-28 Kang Jun-Kyu 통신단말장치의 감정 컨텐츠 서비스 장치 및 방법, 이를 위한 감정 인지 장치 및 방법, 이를 이용한 감정 컨텐츠를 생성하고 정합하는 장치 및 방법
KR101274471B1 (ko) * 2009-08-31 2013-06-13 에스케이플래닛 주식회사 영상통화 중 감정 전달 시스템 및 방법
EP2632158A1 (en) * 2012-02-23 2013-08-28 Samsung Electronics Co., Ltd Method and apparatus for processing information of image including a face
KR101337229B1 (ko) * 2009-08-31 2013-12-05 에스케이플래닛 주식회사 영상통화 시 사용자의 감정상태 제공 시스템, 햅틱서버 및 방법
CN103945161A (zh) * 2014-04-14 2014-07-23 联想(北京)有限公司 一种信息处理方法及电子设备
KR101433171B1 (ko) * 2007-06-15 2014-08-22 삼성전자주식회사 화상통화 단말기 및 방법
KR101494388B1 (ko) * 2008-10-08 2015-03-03 삼성전자주식회사 이동통신단말기에서 감정 표시 서비스를 제공하기 위한 장치 및 방법
CN104780339A (zh) * 2015-04-16 2015-07-15 美国掌赢信息科技有限公司 一种即时视频中的表情特效动画加载方法和电子设备
US10398366B2 (en) 2010-07-01 2019-09-03 Nokia Technologies Oy Responding to changes in emotional condition of a user
WO2023003183A1 (ko) * 2021-07-20 2023-01-26 삼성전자 주식회사 전자 장치 및 실시간 메시지 생성 방법
WO2023040633A1 (zh) * 2021-09-14 2023-03-23 北京字跳网络技术有限公司 一种视频生成方法、装置、终端设备及存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210003480A (ko) 2019-07-02 2021-01-12 주식회사 메이드인랩 영상통화 중 꾸밈효과 제공 방법 및 시스템

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005018305A (ja) * 2003-06-25 2005-01-20 Oki Electric Ind Co Ltd 画像配信システムおよび画像コミュニケーション機能付情報処理装置
JP2006048352A (ja) * 2004-08-04 2006-02-16 Matsushita Electric Ind Co Ltd キャラクタ映像表示機能付き通信端末およびその制御方法

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101433171B1 (ko) * 2007-06-15 2014-08-22 삼성전자주식회사 화상통화 단말기 및 방법
US9792602B2 (en) 2008-10-08 2017-10-17 Samsung Electronics Co., Ltd. Apparatus and method for providing emotion expression service in mobile communication terminal
KR101494388B1 (ko) * 2008-10-08 2015-03-03 삼성전자주식회사 이동통신단말기에서 감정 표시 서비스를 제공하기 위한 장치 및 방법
US8988482B2 (en) 2008-10-08 2015-03-24 Samsung Electronics Co., Ltd. Apparatus and method for providing emotion expression service in mobile communication terminal
CN101860713A (zh) * 2009-04-07 2010-10-13 阿瓦亚公司 为不支持视频的视频电话参与者提供非言辞通信的描述
KR101337229B1 (ko) * 2009-08-31 2013-12-05 에스케이플래닛 주식회사 영상통화 시 사용자의 감정상태 제공 시스템, 햅틱서버 및 방법
KR101274471B1 (ko) * 2009-08-31 2013-06-13 에스케이플래닛 주식회사 영상통화 중 감정 전달 시스템 및 방법
US10398366B2 (en) 2010-07-01 2019-09-03 Nokia Technologies Oy Responding to changes in emotional condition of a user
WO2013027893A1 (ko) * 2011-08-22 2013-02-28 Kang Jun-Kyu 통신단말장치의 감정 컨텐츠 서비스 장치 및 방법, 이를 위한 감정 인지 장치 및 방법, 이를 이용한 감정 컨텐츠를 생성하고 정합하는 장치 및 방법
US9298971B2 (en) 2012-02-23 2016-03-29 Samsung Electronics Co., Ltd. Method and apparatus for processing information of image including a face
CN104137533A (zh) * 2012-02-23 2014-11-05 三星电子株式会社 用于处理包括人脸的图像的信息的方法和设备
EP2632158A1 (en) * 2012-02-23 2013-08-28 Samsung Electronics Co., Ltd Method and apparatus for processing information of image including a face
CN103945161A (zh) * 2014-04-14 2014-07-23 联想(北京)有限公司 一种信息处理方法及电子设备
CN104780339A (zh) * 2015-04-16 2015-07-15 美国掌赢信息科技有限公司 一种即时视频中的表情特效动画加载方法和电子设备
WO2023003183A1 (ko) * 2021-07-20 2023-01-26 삼성전자 주식회사 전자 장치 및 실시간 메시지 생성 방법
WO2023040633A1 (zh) * 2021-09-14 2023-03-23 北京字跳网络技术有限公司 一种视频生成方法、装置、终端设备及存储介质

Also Published As

Publication number Publication date
KR101326651B1 (ko) 2013-11-08

Similar Documents

Publication Publication Date Title
KR101326651B1 (ko) 이모티콘을 이용한 화상통화장치 및 방법
US11580983B2 (en) Sign language information processing method and apparatus, electronic device and readable storage medium
US10621968B2 (en) Method and apparatus to synthesize voice based on facial structures
CN109493850B (zh) 成长型对话装置
JP5332798B2 (ja) 通信制御装置、通信制御方法、及び通信制御プログラム
JPWO2005069171A1 (ja) 文書対応付け装置、および文書対応付け方法
KR102193029B1 (ko) 디스플레이 장치 및 그의 화상 통화 수행 방법
WO2021169365A1 (zh) 声纹识别的方法和装置
CN103678404A (zh) 一种关键词识别方法及电子设备
US20180173394A1 (en) Method and apparatus for inputting expression information
CN110875036A (zh) 语音分类方法、装置、设备及计算机可读存储介质
CN110910876A (zh) 物品声寻装置及控制方法、语音控制设置方法和系统
CN111835522A (zh) 一种音频处理方法及装置
CN110728993A (zh) 一种变声识别方法及电子设备
US20220059080A1 (en) Realistic artificial intelligence-based voice assistant system using relationship setting
JP6832503B2 (ja) 情報提示方法、情報提示プログラム及び情報提示システム
JP2010237364A (ja) 合成音声判別装置、方法及びプログラム
WO2023015862A1 (zh) 基于图像的多媒体数据合成方法及装置
JPH0728488A (ja) 情報処理方法及び装置
CN109102810B (zh) 声纹识别方法和装置
CN111554269A (zh) 一种语音取号方法、系统及存储介质
CN111091807A (zh) 语音合成方法、装置、计算机设备及存储介质
JP2000194252A (ja) 理想行動支援装置及びその方法及びそのシステム並びに記憶媒体
JPH0965176A (ja) プロンプタ装置
JP2005038160A (ja) 画像生成装置およびその画像生成方法、ならびにコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161024

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171024

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee