KR20080057030A - 이모티콘을 이용한 화상통화장치 및 방법 - Google Patents
이모티콘을 이용한 화상통화장치 및 방법 Download PDFInfo
- Publication number
- KR20080057030A KR20080057030A KR1020060130335A KR20060130335A KR20080057030A KR 20080057030 A KR20080057030 A KR 20080057030A KR 1020060130335 A KR1020060130335 A KR 1020060130335A KR 20060130335 A KR20060130335 A KR 20060130335A KR 20080057030 A KR20080057030 A KR 20080057030A
- Authority
- KR
- South Korea
- Prior art keywords
- emoticon
- information
- image
- facial
- emotional state
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72469—User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/40—Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/50—Telephonic communication in combination with video communication
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/142—Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
- H04N2007/145—Handheld terminals
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Telephone Function (AREA)
- Image Analysis (AREA)
- Telephonic Communication Services (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
본 발명은 화상통화장치 및 방법에 관한 것으로, 외부로부터 음성 및/또는 영상을 입력으로 받아 음성인식 및 안면인식 기술을 이용하여 언어 및 표정으로 표현되는 감정상태를 인지하고, 상기 인지한 감정상태에 대응되는 이모티콘을 검색하여 상기 입력영상에 해당 이모티콘을 삽입하여 합성하며 상기 합성된 영상을 수신측의 화상통화단말로 전송한다. 이와 같이, 본 발명에서는 사용자의 조작없이 손쉽게 사용자의 감정상태에 해당하는 이모티콘을 입력영상과 합성하여 전송하므로 시각적인 욕구를 충족시킬 수 있다.
화상통화, 이모티콘, 음성인식, 안면인식
Description
도 1은 본 발명에 따른 이모티콘을 이용한 화상통화장치의 블록구성도.
도 2는 본 발명에 따른 이모티콘을 이용한 화상통화장치의 이모티콘 관리 화면 예시도.
도 3은 본 발명에 따른 이모티콘을 이용한 화상통화방법을 설명하기 위한 흐름도.
도 4 및 도 5는 본 발명에 따른 이모티콘을 이용한 화상통화 화면 예시도.
<도면의 주요부분에 대한 부호의 설명>
100: 마이크 110: 카메라
120: 감지부 122: 음성인식부
124: 안면인식부 130: 처리부
140: 저장부 150: 합성부
160: 통신부 170: 표시부
본 발명은 화상통화 장치에 관한 것으로, 특히 화상통화 중 사용자의 감정상태를 인식하여 해당하는 이모티콘(emoticon)을 영상에 삽입하여 전송하는 이모티콘을 이용한 화상통화장치 및 방법에 관한 것이다.
일반적으로, 이동통신단말과 같은 화상통화장치는 카메라와 마이크를 통해 획득한 사용자의 영상 및 음성을 송수신하므로 화상통화를 수행한다. 이러한 화상통화 장치는 카메라를 통해 획득한 영상을 그대로 전송하므로 시각적인 효과를 중요시하는 사용자들의 욕구를 충족시키지 못하였다.
상기한 문제점을 해결하기 위해 종래에는 카메라를 통해 획득한 영상에 다양한 이모티콘을 삽입하여 전송할 수 있게 하므로 사용자들의 시각적인 욕구를 충족시켰다. 즉, 화상통화 중에 사용자가 이모티콘의 삽입을 원하면 사용자는 키 조작을 통해 원하는 이모티콘을 선택하고, 방향키를 사용하여 상기 선택한 이모티콘이 삽입될 위치를 결정하여 그 위치에 상기 이모티콘을 배치한다. 상기 이모티콘의 배치가 완료되면 화상통화장치는 카메라를 통해 입력받은 영상에 상기 이모티콘을 삽입하여 전송한다.
그러나, 상기한 바와 같은 종래기술에서는 이모티콘을 삽입할 때마다 사용자가 키 조작 통해 원하는 이모티콘을 선택하고 원하는 위치에 배치해야 하는 불편함이 있다.
따라서, 본 발명의 목적은 사용자의 감정상태를 인지하여 해당 이모티콘을 삽입하여 전송하는 이모티콘을 이용한 화상통화장치 및 방법을 제공하는 데 있다.
상기한 바와 같은 목적을 달성하기 위한 본 발명은 화자의 감정상태를 감지하는 감지부와; 상기 감지된 감정상태에 대응되는 이모티콘을 카메라를 통해 획득한 영상에 삽입하여 전송하는 처리부를 포함한다.
바람직하게, 상기 감지부는 외부로부터 입력받은 음성신호로부터 언어정보를 추출하는 음성인식부 및 입력받은 영상으로부터 안면정보를 추출하는 안면인식부 중 적어도 하나 이상으로 구성된 것을 특징으로 하는 이모티콘을 이용한 화상통화장치.
바람직하게, 상기 안면정보는 얼굴영역 및 눈, 코, 입과 같은 국부영역에 대한 특징정보, 그리고 상기 특징정보를 토대로 생성되는 표정정보를 포함한다.
바람직하게, 상기 이모티콘과 상기 이모티콘에 대응되는 언어정보 및 표정정보, 상기 이모티콘이 삽입될 위치정보를 저장하고 있는 저장부를 더 포함한다.
바람직하게, 안면정보 및 언어정보를 토대로 상기 영상에 해당 이모티콘을 삽입하는 합성부와; 상기 합성부에 의해 합성된 영상을 전송하기 위한 통신부를 더 포함한다.
본 발명의 다른 특징에 따르면, 본 발명에 따른 화상통화방법은 사용자의 감정상태를 감지하는 단계와; 상기 감정상태에 따른 해당 이모티콘을 카메라를 통해 획득한 영상에 삽입하여 전송하는 단계를 포함한다.
바람직하게, 상기 감정상태 감지단계는 입력받은 음성신호로부터 상기 감정상태를 나타내는 언어정보를 추출하는 음성인식에 의해 수행된다.
바람직하게, 상기 감정상태 감지단계는 상기 영상으로부터 안면정보를 추출 하는 안면인식에 의해 수행된다.
바람직하게, 상기 감정상태 감지단계는, 상기 영상으로부터 안면의 특징정보를 추출하는 단계와; 상기 추출한 특징정보에 근거하여 표정정보를 생성하는 단계를 포함한다.
바람직하게, 상기 감정상태 감지단계는 입력받은 음성신호로부터 언어정보를 추출하는 음성인식 및 상기 영상으로부터 안면정보를 추출하는 안면인식에 의해 수행된다.
바람직하게, 상기 안면정보는 얼굴영역 및 눈, 코, 입과 같은 국부영역에 대한 특징정보, 그리고 상기 특징정보에 근거한 표정정보를 포함한다.
바람직하게, 상기 이모티콘을 삽입하여 전송하는 단계는, 상기 감정상태에 대응되는 이모티콘을 검색하는 단계와; 상기 검색된 이모티콘을 상기 입력영상에 배치하여 합성하는 단계를 포함한다.
이하, 본 발명에 따른 바람직한 실시 예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명에 따른 이모티콘을 이용한 화상통화장치의 블록구성도이다.
도 1에 도시된 바와 같이, 본 발명에 따른 화상통화장치는 마이크(100), 카메라(110), 감지부(120), 그리고 처리부(130)를 구비한다.
상기 마이크(100)는 외부로부터 음성신호를 입력받기 위한 입력장치이고, 상기 카메라(110)는 외부로부터 영상을 입력받기 위한 수단이다.
상기 감지부(120)는 상기 마이크(100)로부터 전송되는 음성신호로부터 언어정보를 추출하는 음성인식부(122) 및 상기 카메라(110)를 통해 획득한 영상으로부터 안면정보를 추출하는 안면인식부(124) 중 적어도 하나 이상을 사용하여 구현된다. 여기서, 상기 안면정보는 눈, 코, 입과 같은 국부영역 및 얼굴영역에 대한 특징정보와 상기 특징정보에 근거하여 인지된 표정정보를 포함한다. 상기 감지부(120)는 언어(speech) 및 표정으로 표현되는 사용자의 감정상태를 상기 음성인식부(122) 및 상기 안면인식부(124)를 이용하여 감지한다.
상기 음성인식부(122)는 상기 음성신호로부터 감정상태를 나타내는 언어정보를 추출한다. 여기서, 언어정보 추출은 상기 음성신호로부터 잡음(noise)을 제거하고 특징 파라미터(feature parameter)를 추출하는 특징 추출과정과, 그 특징 파라미터를 이용하여 단어 및 문장을 인식하는 인식과정을 수행한다. 예컨대, 사용자가 "행복"이라고 발성하면 상기 음성인식부(122)는 입력받은 음성신호의 패턴(특징 파라미터)과 데이터 베이스에 저장된 참조패턴의 유사도를 측정하여 인식한 결과를 텍스트 데이터(text data) "행복"으로 출력한다. 여기서, 상기 유사도 측정을 위해 HMM(Hiddem Markow Model), DTW(Dynamic Time Warping), 신경회로망(Neural Network) 모델 등이 사용된다.
그리고, 상기 안면인식부(124)는 상기 획득한 영상에 포함된 잡음을 제거하는 영상처리 및 분할을 수행하는 전처리부(미도시)와 상기 영상으로부터 눈, 코, 입과 같은 국부영역 및 얼굴영역에 대한 특징정보를 검출하는 검출부(미도시)를 구비한다. 상기 안면인식부(124)는 상기 검출된 결과를 토대로 사용자의 감정상태가 표현되는 표정정보를 텍스트 데이터로 출력한다.
상기 처리부(130)는 상기 감지부(120)에 의해 감지된 감정상태 즉, 언어정보 및 표정정보에 대응되는 이모티콘을 검색하여 출력하고, 검색된 이모티콘과 상기 영상을 합성하여 전송하게 한다. 그리고, 상기 처리부(130)는 각 구성요소의 동작을 제어하여 상기 화상통화장치의 전반적인 동작을 수행한다.
그리고, 본 발명에 따른 이모티콘을 이용한 화상통화장치는 상기 이모티콘, 이모티콘 명칭, 그리고 상기 이모티콘이 삽입될 위치에 대한 위치정보를 저장하고 있는 저장부(140)를 구비한다. 여기서, 상기 이모티콘 명칭은 상기 처리부(130)가 상기 감지된 감정상태에 대응디는 이모티콘을 검색할 때 이용되고, 상기 이모티콘은 사용자에 의해 추가 또는 삭제될 수 있다. 예를 들면, 사용자가 이모티콘을 추가하고자 하는 경우 도 2에 도시된 바와 같이 사용자는 이모티콘으로 사용할 이미지를 선택하고, 선택된 이미지에 해당하는 이모티콘 명칭(메롱)을 입력한다. 그리고, 이모티콘 출력시 배치될 위치에 대한 정보입력까지 완료되면, 상기 처리부(130)는 상기 입려받은 정보를 상기 저장부(140)에 저장한다.
또한, 본 발명에 따른 화상통화장치는 상기 카메라(110)를 통해 획득한 영상과 상기 검색된 이모티콘을 합성하는 합성부(150)를 구비한다. 상기 합성부(150)는 상기 저장부(140)로부터 판독된 위치정보에 근거하여 상기 처리부(130)에 의해 검색된 이모티콘을 상기 영상에 삽입하여 배치하고, 배치가 완료되면 상기 이모티콘과 영상을 합성한다.
본 발명에 따른 화상통화장치는 상기 합성부(150)에 의해 합성된 영상을 전 송하기 위한 통신부(160) 및 상기 화상통화장치의 동작에 따른 상태 및 결과를 표시하는 표시부(170)를 구비한다. 상기 통신부(160)는 무선통신을 통해 상기 합성영상을 송수신하는 무선통신모듈로 구현되거나 또는 네트워크 상의 통신 프로토콜에 맞춰 상기 합성영상을 송수신하는 유선통신모듈로 구현된다.
도 3는 본 발명에 따른 이모티콘을 이용한 화상통화방법을 설명하기 위한 흐름도이다.
도 3에 도시된 바와 같이, 화상통화 상태에서 감지부(120)는 사용자의 음성 및/또는 표정을 통해 감정상태를 인지한다(S300, S302).
먼저, 음성을 통해 상기 감정상태를 인지하는 경우, 상기 감지부(120)의 음성인식부(122)는 마이크(100)를 통해 입력되는 음성신호로부터 언어정보를 추출하여 출력한다. 예를 들면, 사용자가 "반사"라고 발성하면 음성인식부(122)는 입력으로 받은 "반사"라는 음성신호로부터 추출한 입력패턴(특징 파라미터)와 참조패턴 간의 유사도를 측정하여 언어정보를 인식하여 텍스트 데이터 "반사"로 출력한다. 즉, 상기 음성인식부(122)는 언어(speech)로 표현되는 감정상태를 인식하여 텍스트로 출력한다.
다음, 사용자의 표정을 통해 상기 감정상태를 인지하는 경우, 상기 감지부(120)의 안면인식부(124)는 카메라(110)를 통해 입력받은 영상으로부터 안면정보를 검출하고 검출된 안면정보를 토대로 상기 표정정보를 인지하여 그 결과를 텍스트 데이터로 출력한다. 여기서, 상기 안면정보는 눈, 코, 입과 같은 국부영역 및 얼굴영역에 대한 안면특징정보, 그리고 표정정보를 포함한다. 예를 들어, 사용자가 혀를 내밀면 상기 안면인식부(124)는 상기 카메라(110)를 통한 입력영상으로부터 혀를 내민 사용자의 안면특징을 검출하고 검출된 안면특징을 근거로 생성한 상기 표정정보 "메롱"를 포함한 안면정보를 출력한다.
마지막으로, 상기 사용자의 음성 및 표정을 조합하여 상기 감정상태를 인지하는 경우, 상기 음성인식부(122) 및 안면인식부(124)의 출력을 조합하여 사용자의 감정상태를 판단하여 출력한다.
상기 감지부(120)의 출력 즉, 상기 언어정보 및 표정정보를 입력으로 받은 처리부(130)는 상기 감지부(120)로부터 출력되는 감정상태에 대응되는 이모티콘을 저장부(140)에서 검색한다(S305). 이때, 상기 처리부(130)는 상기 음성인식부(122) 및/또는 안면인식부(124)의 출력과 상기 저장부(140)에 저장된 이모티콘 명칭을 비교하여 이모티콘 검색을 수행한다.
상기 검색결과 상기 음성인식부(122) 및 안면인식부(124)의 출력과 일치하는 이모티콘이 검색되면 상기 처리부(130)는 상기 저장부(140)로부터 해당 이모티콘과 관련정보 즉, 위치정보를 판독(read)하여 합성부(150)로 전송한다. 해당 이모티콘을 입력으로 받은 상기 합성부(150)는 상기 저장부(140)에 저장된 이모티콘의 위치정보에 근거하여 상기 카메라(110)를 통해 획득한 영상에 상기 이모티콘을 삽입한다(S306). 상기 영상과 이모티콘의 합성이 완료되면 상기 합성부(150)는 상기 합성된 영상을 통신부(160)로 전송한다.
예를 들어, "반사"와 일치하는 이모티콘 명칭을 가진 이모티콘이 검색되면 저장부(140)에 저장된 이모티콘의 위치정보 및 상기 안면인식부(124)로부터의 안면 정보를 토대로 도 4에 도시된 바와 같이 상기 이모티콘을 영상에 배치하여 합성한다. 그리고, 상기 합성부(150)로부터 합성영상을 전송받은 처리부(130)는 상기 합성영상을 표시부(170)로 출력하고, 동시에 상기 합성영상을 상기 통신부(160)를 통해 수신측의 화상통화장치로 송신한다. 상기 합성영상을 수신한 수신측의 화상통화장치는 상기 합성영상을 표시부(170')의 화면에 표시한다.
또는, "눈물" 또는 우는 소리가 마이크(100)를 통해 입력되면 상기 화상통화장치는 상기 인식한 음성에 대응되는 이모티콘을 검색하고, 안면인식부(124)로부터 전송받은 안면정보를 통해 상기 눈물모양의 이모티콘을 도 5에 도시된 바와 같이 눈 아래 삽입하여 전송한다.
이와 같이, 본 발명에서는 마이크 및 카메라를 통해 입력받은 음성 및 영상을 통해 사용자의 감정상태를 감지하여 해당 이모티콘을 영상에 삽입하여 전송하므로 사용자의 키조작이 요구되지 않으며 시각적인 효과를 향상시킬 수 있다.
위에서 상세히 설명한 바와 같은 본 발명에서는 사용자의 음성 및 표정을 통해 사용자의 감정상태를 인식하고, 그에 해당하는 이모티콘을 입력영상에 삽입하여 전송한다. 따라서, 사용자의 시각적인 욕구를 충족시킬 수 있고, 사용자의 조작없이 손쉽게 이모티콘을 삽입할 수 있어 사용자에게 편의를 제공한다.
Claims (12)
- 화자의 감정상태를 감지하는 감지부와;상기 감지된 감정상태에 대응되는 이모티콘을 카메라를 통해 획득한 영상에 삽입하여 전송하는 처리부를 포함하는 것을 특징으로 하는 이모티콘을 이용한 화상통화장치.
- 제 1항에 있어서,상기 감지부는 외부로부터 입력받은 음성신호로부터 언어정보를 추출하는 음성인식부 및 입력받은 영상으로부터 안면정보를 추출하는 안면인식부 중 적어도 하나 이상으로 구성된 것을 특징으로 하는 이모티콘을 이용한 화상통화장치.
- 제 2항에 있어서,상기 안면정보는 얼굴영역 및 눈, 코, 입과 같은 국부영역에 대한 특징정보, 그리고 상기 특징정보를 토대로 생성되는 표정정보를 포함하는 것을 특징으로 하는 이모티콘을 이용한 화상통화장치.
- 제 1항에 있어서,상기 이모티콘과 상기 이모티콘에 대응되는 언어정보 및 표정정보, 상기 이모티콘이 삽입될 위치정보를 저장하고 있는 저장부를 더 포함하는 것을 특징으로 하는 이모티콘을 이용한 화상통화장치.
- 제 1항에 있어서,안면정보 및 언어정보를 토대로 상기 영상에 해당 이모티콘을 삽입하는 합성부와;상기 합성부에 의해 합성된 영상을 전송하기 위한 통신부를 더 포함하는 것을 특징으로 하는 이모티콘을 이용한 화상통화장치.
- 사용자의 감정상태를 감지하는 단계와;상기 감정상태에 따른 해당 이모티콘을 카메라를 통해 획득한 영상에 삽입하여 전송하는 단계를 포함하는 것을 특징으로 하는 이모티콘을 이용한 화상통화방법.
- 제 6항에 있어서,상기 감정상태 감지단계는 입력받은 음성신호로부터 상기 감정상태를 나타내는 언어정보를 추출하는 음성인식에 의한 것을 특징으로 하는 이모티콘을 이용한 화상통화방법.
- 제 6항에 있어서,상기 감정상태 감지단계는 상기 영상으로부터 안면정보를 추출하는 안면인식 에 의한 것을 특징으로 하는 이모티콘을 이용한 화상통화방법.
- 제 8항에 있어서, 상기 감정상태 감지단계는,상기 영상으로부터 안면의 특징정보를 추출하는 단계와;상기 추출한 특징정보에 근거하여 표정정보를 생성하는 단계를 포함하는 것을 특징으로 하는 이모티콘을 이용한 화상통화방법.
- 제 6항에 있어서,상기 감정상태 감지단계는 입력받은 음성신호로부터 언어정보를 추출하는 음성인식 및 상기 영상으로부터 안면정보를 추출하는 안면인식에 의한 것을 특징으로 하는 이모티콘을 이용한 화상통화방법.
- 제 10항에 있어서,상기 안면정보는 얼굴영역 및 눈, 코, 입과 같은 국부영역에 대한 특징정보, 그리고 상기 특징정보에 근거한 표정정보를 포함하는 것을 특징으로 하는 이모티콘을 이용한 화상통화방법.
- 제 6항에 있어서, 상기 이모티콘을 삽입하여 전송하는 단계는,상기 감정상태에 대응되는 이모티콘을 검색하는 단계와;상기 검색된 이모티콘을 상기 입력영상에 배치하여 합성하는 단계를 포함하 는 것을 특징으로 하는 이모티콘을 이용한 화상통화 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060130335A KR101326651B1 (ko) | 2006-12-19 | 2006-12-19 | 이모티콘을 이용한 화상통화장치 및 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060130335A KR101326651B1 (ko) | 2006-12-19 | 2006-12-19 | 이모티콘을 이용한 화상통화장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20080057030A true KR20080057030A (ko) | 2008-06-24 |
KR101326651B1 KR101326651B1 (ko) | 2013-11-08 |
Family
ID=39803032
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060130335A KR101326651B1 (ko) | 2006-12-19 | 2006-12-19 | 이모티콘을 이용한 화상통화장치 및 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101326651B1 (ko) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101860713A (zh) * | 2009-04-07 | 2010-10-13 | 阿瓦亚公司 | 为不支持视频的视频电话参与者提供非言辞通信的描述 |
WO2013027893A1 (ko) * | 2011-08-22 | 2013-02-28 | Kang Jun-Kyu | 통신단말장치의 감정 컨텐츠 서비스 장치 및 방법, 이를 위한 감정 인지 장치 및 방법, 이를 이용한 감정 컨텐츠를 생성하고 정합하는 장치 및 방법 |
KR101274471B1 (ko) * | 2009-08-31 | 2013-06-13 | 에스케이플래닛 주식회사 | 영상통화 중 감정 전달 시스템 및 방법 |
EP2632158A1 (en) * | 2012-02-23 | 2013-08-28 | Samsung Electronics Co., Ltd | Method and apparatus for processing information of image including a face |
KR101337229B1 (ko) * | 2009-08-31 | 2013-12-05 | 에스케이플래닛 주식회사 | 영상통화 시 사용자의 감정상태 제공 시스템, 햅틱서버 및 방법 |
CN103945161A (zh) * | 2014-04-14 | 2014-07-23 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
KR101433171B1 (ko) * | 2007-06-15 | 2014-08-22 | 삼성전자주식회사 | 화상통화 단말기 및 방법 |
KR101494388B1 (ko) * | 2008-10-08 | 2015-03-03 | 삼성전자주식회사 | 이동통신단말기에서 감정 표시 서비스를 제공하기 위한 장치 및 방법 |
CN104780339A (zh) * | 2015-04-16 | 2015-07-15 | 美国掌赢信息科技有限公司 | 一种即时视频中的表情特效动画加载方法和电子设备 |
US10398366B2 (en) | 2010-07-01 | 2019-09-03 | Nokia Technologies Oy | Responding to changes in emotional condition of a user |
WO2023003183A1 (ko) * | 2021-07-20 | 2023-01-26 | 삼성전자 주식회사 | 전자 장치 및 실시간 메시지 생성 방법 |
WO2023040633A1 (zh) * | 2021-09-14 | 2023-03-23 | 北京字跳网络技术有限公司 | 一种视频生成方法、装置、终端设备及存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210003480A (ko) | 2019-07-02 | 2021-01-12 | 주식회사 메이드인랩 | 영상통화 중 꾸밈효과 제공 방법 및 시스템 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005018305A (ja) * | 2003-06-25 | 2005-01-20 | Oki Electric Ind Co Ltd | 画像配信システムおよび画像コミュニケーション機能付情報処理装置 |
JP2006048352A (ja) * | 2004-08-04 | 2006-02-16 | Matsushita Electric Ind Co Ltd | キャラクタ映像表示機能付き通信端末およびその制御方法 |
-
2006
- 2006-12-19 KR KR1020060130335A patent/KR101326651B1/ko not_active IP Right Cessation
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101433171B1 (ko) * | 2007-06-15 | 2014-08-22 | 삼성전자주식회사 | 화상통화 단말기 및 방법 |
US9792602B2 (en) | 2008-10-08 | 2017-10-17 | Samsung Electronics Co., Ltd. | Apparatus and method for providing emotion expression service in mobile communication terminal |
KR101494388B1 (ko) * | 2008-10-08 | 2015-03-03 | 삼성전자주식회사 | 이동통신단말기에서 감정 표시 서비스를 제공하기 위한 장치 및 방법 |
US8988482B2 (en) | 2008-10-08 | 2015-03-24 | Samsung Electronics Co., Ltd. | Apparatus and method for providing emotion expression service in mobile communication terminal |
CN101860713A (zh) * | 2009-04-07 | 2010-10-13 | 阿瓦亚公司 | 为不支持视频的视频电话参与者提供非言辞通信的描述 |
KR101337229B1 (ko) * | 2009-08-31 | 2013-12-05 | 에스케이플래닛 주식회사 | 영상통화 시 사용자의 감정상태 제공 시스템, 햅틱서버 및 방법 |
KR101274471B1 (ko) * | 2009-08-31 | 2013-06-13 | 에스케이플래닛 주식회사 | 영상통화 중 감정 전달 시스템 및 방법 |
US10398366B2 (en) | 2010-07-01 | 2019-09-03 | Nokia Technologies Oy | Responding to changes in emotional condition of a user |
WO2013027893A1 (ko) * | 2011-08-22 | 2013-02-28 | Kang Jun-Kyu | 통신단말장치의 감정 컨텐츠 서비스 장치 및 방법, 이를 위한 감정 인지 장치 및 방법, 이를 이용한 감정 컨텐츠를 생성하고 정합하는 장치 및 방법 |
US9298971B2 (en) | 2012-02-23 | 2016-03-29 | Samsung Electronics Co., Ltd. | Method and apparatus for processing information of image including a face |
CN104137533A (zh) * | 2012-02-23 | 2014-11-05 | 三星电子株式会社 | 用于处理包括人脸的图像的信息的方法和设备 |
EP2632158A1 (en) * | 2012-02-23 | 2013-08-28 | Samsung Electronics Co., Ltd | Method and apparatus for processing information of image including a face |
CN103945161A (zh) * | 2014-04-14 | 2014-07-23 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN104780339A (zh) * | 2015-04-16 | 2015-07-15 | 美国掌赢信息科技有限公司 | 一种即时视频中的表情特效动画加载方法和电子设备 |
WO2023003183A1 (ko) * | 2021-07-20 | 2023-01-26 | 삼성전자 주식회사 | 전자 장치 및 실시간 메시지 생성 방법 |
WO2023040633A1 (zh) * | 2021-09-14 | 2023-03-23 | 北京字跳网络技术有限公司 | 一种视频生成方法、装置、终端设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
KR101326651B1 (ko) | 2013-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101326651B1 (ko) | 이모티콘을 이용한 화상통화장치 및 방법 | |
US11580983B2 (en) | Sign language information processing method and apparatus, electronic device and readable storage medium | |
US10621968B2 (en) | Method and apparatus to synthesize voice based on facial structures | |
JPWO2005069171A1 (ja) | 文書対応付け装置、および文書対応付け方法 | |
KR102193029B1 (ko) | 디스플레이 장치 및 그의 화상 통화 수행 방법 | |
CN110322760B (zh) | 语音数据生成方法、装置、终端及存储介质 | |
WO2021169365A1 (zh) | 声纹识别的方法和装置 | |
KR20210037857A (ko) | 관계 설정을 이용한 실감형 인공지능기반 음성 비서시스템 | |
CN103678404A (zh) | 一种关键词识别方法及电子设备 | |
US20180173394A1 (en) | Method and apparatus for inputting expression information | |
CN110910876A (zh) | 物品声寻装置及控制方法、语音控制设置方法和系统 | |
CN110808019A (zh) | 一种歌曲生成方法及电子设备 | |
CN111835522A (zh) | 一种音频处理方法及装置 | |
CN110728993A (zh) | 一种变声识别方法及电子设备 | |
JP6832503B2 (ja) | 情報提示方法、情報提示プログラム及び情報提示システム | |
JP2010237364A (ja) | 合成音声判別装置、方法及びプログラム | |
WO2023015862A1 (zh) | 基于图像的多媒体数据合成方法及装置 | |
CN108174030B (zh) | 定制化语音控制的实现方法、移动终端及可读存储介质 | |
JPH0728488A (ja) | 情報処理方法及び装置 | |
CN111028823B (zh) | 音频生成方法、装置、计算机可读存储介质及计算设备 | |
CN109102810B (zh) | 声纹识别方法和装置 | |
CN114647829A (zh) | 一种身份验证的方法、装置、存储介质和电子设备 | |
US20210082427A1 (en) | Information processing apparatus and information processing method | |
CN111554269A (zh) | 一种语音取号方法、系统及存储介质 | |
CN111091807A (zh) | 语音合成方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20161024 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20171024 Year of fee payment: 5 |
|
LAPS | Lapse due to unpaid annual fee |