KR101625668B1 - 전자기기 및 전자기기의 음성인식방법 - Google Patents

전자기기 및 전자기기의 음성인식방법 Download PDF

Info

Publication number
KR101625668B1
KR101625668B1 KR1020090034240A KR20090034240A KR101625668B1 KR 101625668 B1 KR101625668 B1 KR 101625668B1 KR 1020090034240 A KR1020090034240 A KR 1020090034240A KR 20090034240 A KR20090034240 A KR 20090034240A KR 101625668 B1 KR101625668 B1 KR 101625668B1
Authority
KR
South Korea
Prior art keywords
user
voice
determined
age
input
Prior art date
Application number
KR1020090034240A
Other languages
English (en)
Other versions
KR20100115592A (ko
Inventor
류희섭
박승권
이종호
장종혁
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to KR1020090034240A priority Critical patent/KR101625668B1/ko
Priority to US12/683,721 priority patent/US8965764B2/en
Priority to EP10159202.0A priority patent/EP2244252B1/en
Publication of KR20100115592A publication Critical patent/KR20100115592A/ko
Priority to US14/598,801 priority patent/US10062376B2/en
Application granted granted Critical
Publication of KR101625668B1 publication Critical patent/KR101625668B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search

Abstract

본 발명은 전자기기 및 전자기기의 음성인식방법에 관한 것이다. 전자기기의 음성인식방법은, 사용자의 입력음성을 수신하는 단계와; 상기 사용자의 특성을 결정하는 단계와; 상기 결정된 사용자의 특성에 기초하여 상기 입력음성을 인식하는 단계를 포함한다. 이에 의하여, 사용자의 특성을 구별하여 음성인식을 수행하므로 음성인식의 정확도를 높일 수 있을 뿐 아니라, 사용자의 특성에 대응하도록 응답음성을 생성하여 출력하므로 정보전달의 효과도 보다 높일 수 있다.

Description

전자기기 및 전자기기의 음성인식방법{ELECTRONIC APPARATUS AND VOICE RECOGNITION METHOD FOR ELECTRONIC APPARATUS}
본 발명은 전자기기 및 전자기기의 음성인식방법에 관한 것으로서, 보다 상세하게는 사용자의 특성을 고려하여 사용자의 음성을 인식하는 전자기기 및 전자기기의 음성인식방법에 관한 것이다.
최근, 사용자 중심의 인터페이스를 구현하는 휴먼 컴퓨터 인터렉션(HCI: Human Computer Interaction)으로서, 사용자의 음성을 인식하는 음성인식 기능을 갖는 전자기기의 사용이 점차 늘어나고 있다.
음성인식 기능에 따라 전자기기는 사용자의 명령으로서 입력음성을 수신하고, 수신된 입력음성을 인식하여 사용자 명령에 대응하는 동작을 수행하도록 전자기기를 제어한다. 이에 따라, 음성인식 기능은 사용자의 입력음성을 오류없이 정확하게 인식하는 것이 중요하다.
사용자의 음성은 일반적으로 성별이나, 연령 등에 따라 서로 상이한 특성을 갖는다.
예컨대, 일반적으로 여성의 경우 남성보다 음성의 음색(톤, Tone)이나 음높 이(Pitch)가 30% 가량 높으며, 유아는 성인에 비해 60%가 높다.
따라서, 음성인식 기능에 따라 전자기기가 정확하게 음성을 인식하기 위해서는 성별이나, 연령과 같은 사용자의 특성을 고려할 필요가 있다.
상기 목적은, 전자기기의 음성인식방법에 있어서, 사용자의 입력음성을 수신하는 단계와; 상기 사용자의 특성을 결정하는 단계와; 상기 결정된 사용자의 특성에 기초하여 상기 입력음성을 인식하는 단계를 포함하는 음성인식방법에 의해 달성될 수 있다.
여기서, 상기 사용자의 특성을 결정하는 단계는, 상기 사용자의 연령, 성별 중 적어도 하나를 결정할 수 있다.
그리고, 상기 사용자의 특성을 결정하는 단계는, 상기 입력음성의 주파수, 빠르기, 크기, 음높이, 음색, 음성 떨림, 진폭변이 중 적어도 하나를 추출하는 단계를 포함할 수 있다.
여기서, 상기 사용자의 특성을 결정하는 단계는, 상기 추출된 입력음성의 주파수, 빠르기, 크기, 음높이, 음색, 음성 떨림, 진폭변이 중 적어도 하나를 상기 음성모델 데이터 베이스와 비교하는 단계를 더 포함할 수 있다.
또한, 상기 음성모델 데이터베이스는 상기 사용자의 특성에 대응하는 음성모델의 표준 주파수, 빠르기, 크기, 음높이, 음색, 음성 떨림, 진폭변이 중 적어도 하나를 포함할 수 있다.
아울러, 상기 결정된 사용자 특성에 대응하여 상기 입력음성에 대한 응답음 성을 생성하는 단계와; 상기 생성된 응답음성을 출력하는 단계를 더 포함할 수 있다.
여기서, 상기 응답음성을 생성하는 단계는, 상기 결정되는 사용자의 특성에 상기 응답음성의 주파수, 빠르기, 크기, 음색, 음높이 중 적어도 하나가 대응하도록 상기 응답음성을 생성할 수 있다.
그리고, 상기 인식된 입력음성에 기초하여 상기 전자기기를 제어하는 단계를 더 포함할 수 있다.
아울러, 상기 결정된 사용자의 특성을 표시하는 단계를 더 포함할 수 있다.
또한, 상기 사용자의 특성을 결정하는 단계는, 상기 사용자의 이미지를 수신하는 단계와; 상기 수신된 사용자의 이미지에 기초하여 상기 사용자의 특성을 결정하는 단계를 포함할 수 있다.
그리고, 상기 사용자의 특성을 결정하는 단계는, 상기 사용자의 입력음성에 기초하여 상기 사용자의 특성을 결정하는 단계를 포함할 수 있다.
한편, 상기 목적은, 음성인식 기능을 갖는 전자기기에 있어서, 사용자의 입력음성을 수신하는 음성 입력부와; 상기 사용자의 특성을 결정하고, 상기 결정된 사용자 특성에 기초하여 상기 입력음성을 인식하는 제어부를 포함하는 전자기기에 의해서도 달성될 수 있다.
여기서, 상기 제어부는, 상기 사용자의 특성으로서 사용자의 연령, 성별 중 적어도 하나를 결정할 수 있다.
그리고, 상기 제어부는, 상기 입력음성의 주파수, 빠르기, 크기, 음높이, 음 색, 음성 떨림, 진폭변이 중 적어도 하나를 추출하여 상기 사용자의 특성을 결정할 수 있다.
또한, 음성모델 데이터베이스를 저장하는 저장부를 더 포함하고, 상기 제어부는 상기 추출된 입력음성의 주파수, 빠르기, 크기, 음높이, 음색, 음성 떨림, 진폭변이 중 적어도 하나를 상기 음성모델 데이터베이스와 비교하여 상기 사용자의 특성을 결정할 수 있다.
여기서, 상기 음성모델 데이터베이스는 상기 사용자의 특성에 대응하는 음성모델의 표준 주파수, 빠르기, 크기, 음높이, 음색, 음성 떨림, 진폭변이 중 적어도 하나를 포함할 수 있다.
아울러, 상기 입력음성에 대한 응답음성을 출력하는 음성 출력부를 더 포함하고; 상기 제어부는, 상기 결정된 사용자 특성에 대응하여 상기 입력음성에 대한 응답음성을 생성하고, 상기 생성된 응답음성을 출력하도록 상기 음성 출력부를 제어할 수 있다.
여기서, 상기 제어부는, 상기 결정되는 사용자의 특성에 상기 응답음성의 주파수, 빠르기, 크기, 음색, 음높이 중 적어도 하나가 대응하도록 상기 응답음성을 생성할 수 있다.
그리고, 상기 제어부는, 상기 인식된 입력음성에 기초하여 상기 전자기기를 제어할 수 있다.
아울러, 상기 결정된 사용자의 특성을 표시하는 표시부를 더 포함할 수 있다.
또한, 상기 사용자의 이미지를 수신하는 이미지 입력부를 더 포함하고, 상기 제어부는 수신된 사용자의 이미지에 기초하여 상기 사용자의 특성을 결정할 수 있다.
그리고, 상기 제어부는, 상기 사용자의 입력음성에 기초하여 상기 사용자의 특성을 결정할 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 관하여 상세히 설명한다.
도 1은 본 발명의 제1 실시예에 의한 전자기기(100)의 구성을 도시한 블록도이다.
본 발명의 전자기기(100)는 음성을 통해 사용자의 명령을 수신하여 수신된 명령에 대응하는 동작을 수행하는 음성인식기능을 갖는 전자기기로서, 휴대폰, MP3 플레이어, PDA, 네비게이션과 같은 모바일 장치나, TV, LFD(Large Format Display), STB(Set-top Box), 컴퓨터와 같은 가정용 전자기기 등을 포함한다.
도 1에 도시된 바와 같이, 전자기기(100)는 음성입력부(110), 저장부(120), 저장부(130), 표시부(140), 음성출력부(150) 및 제어부(160)를 포함한다.
음성입력부(110)는 사용자의 명령으로서 입력음성을 수신한다. 본 발명의 음성입력부(110)는 사용자의 음성을 수신하는 마이크 등으로 구현될 수 있다.
저장부(120)는 사용자의 특성에 따른 음성모델 데이터베이스가 저장된다. 여기서, 사용자의 특성은 사용자의 성별, 연령 등을 포함할 수 있다.
구체적으로, 음성입력부(110)를 통해 수신되는 사용자의 음성은 사용자의 성별이나 연령에 따라 서로 다른 특성을 갖는다.
도 2a 내지 도 2c는 사용자의 성별 및 연령에 따른 입력음성의 특성을 나타내는 그래프이다.
먼저, 도 2a에 도시된 바와 같이, 입력음성의 표준 주파수(Standard Frequency)는 여성이 남성에 비해 높은 특징을 갖는다. 구체적으로, 남성의 경우 평균적으로 122.4±2.4 Hz의 표준 주파수를 갖는데 비해, 여성은 209.1±3.1 Hz의 표준 주파수를 갖는다.
뿐만 아니라, 도 2a를 참조하면 남성의 경우 20대가 10대에 비하여 표준 주파수가 낮아져 40대까지 안정된 상태가 유지되지만, 40대에서는 개인간의 변화폭이 심하고 불안정성이 나타나는 양상이 있다. 이후, 연령 증가에 따라 50대에서는 20, 30대 보다 높은 주파수를 나타내며, 60대에 다시 낮아지는 것을 알 수 있다.
여성의 경우, 10대에서 30대까지는 연령 증가에 따라 표준 주파수가 점진적으로 감소하는 경향을 보이고, 50대 이후에는 두드러지게 감소하는 것을 알 수 있다.
이에 따라, 사용자의 입력음성은 사용자의 성별 및 연령에 따라 차별화됨을 알 수 있다.
또한, 도 2b에 도시된 바와 같이, 입력음성은 사용자의 성별 및 연령에 따라 음성 떨림(Frequency Perturbation, Jitter) 및 음높이(Pitch)가 서로 다른 특성을 나타냄을 알 수 있다.
구체적으로, 남성의 경우는 음성 떨림(Frequency Perturbation, Jitter)이 남성은 1.11±1.11%, 여성은 1.26±0.80%을 각기 나타내며, 음높이(Pitch)는 남성은 0.63±0.57%, 여성은 0.75±0.51%의 수치를 갖는다.
음성 떨림 (Frequency Perturbation, Jitter) 및 음높이(Pitch)는 30대까지 점차적으로 감소하다가, 40대에서 최고점을 이룬 후 다시 감소하는 경향을 나타내며, 여성의 경우는 소아에서부터 노인으로 연령이 증가할수록 점진적으로 감소하는 경향을 나타내는 것을 알 수 있다.
또한, 도 2c에 도시된 바와 같이, 입력음성은 사용자의 성별 및 연령에 따라 그 진폭변이(Amplitude Perturbation, Shimmer)가 달라진다.
구체적으로 입력음성의 진폭변이(Shimmer)는 남성이 2.71±1.25%, 여성이 2.96±1.72%를 나타낸다.
도 2c를 참조하면, 남성의 경우 30대까지 진폭변이가 안정된 상태를 보이다 40대 이후 점진적으로 증가하여 50대에서 최고점을 이룬 후 다시 감소하며, 여성의 경우 전 연령에 걸쳐 큰 변화가 없음을 알 수 있다.
본 발명의 음성모델 데이터베이스는 도 2a 내지 도 2c와 같은 입력음성의 성별, 연령별 특성을 테이블화하여 저장한 것이다.
이러한 음성모델 데이터베이스에는 도 2a 내지 도 2c에서 설명한 특성 외에도 입력음성의 빠르기(Tempo), 음색(Tone), 크기(Level) 등에 대한 성별, 연령별 특성에 대한 테이블이 더 포함될 수 있다.
뿐만 아니라, 사용자의 특성으로서 성별과 연령뿐 아니라 다른 특성에 대한 음성모델 데이터베이스를 더 저장할 수도 있을 것이다.
본 발명의 저장부(120)는 HDD와 같은 내장용 저장매체나, USB 메모리, 메모리카드(메모리 스틱, CF 카드, MMC)와 같은 외장용 또는 휴대용 저장매체로 구현될 수 있다.
표시부(130)는 수신된 입력음성에 대하여 후술하는 제어부(150)의 동작에 따라 결정된 사용자의 특성을 표시한다. 표시부(130)는 액정 디스플레이(Liquid Crystal Display, LCD) 및 LCD를 구동할 수 있는 구동부(도시 안됨)를 포함할 수 있다.
음성출력부(140)는 음성입력부(110)에서 수신된 입력음성에 대한 응답음성을 출력한다. 여기서, 출력되는 응답음성은 사용자의 특성에 대응하도록 응답음성의 주파수, 빠르기(Tempo), 음색(Tone), 크기(Level), 음높이(Pitch) 중 적어도 하나가 대응하도록 생성될 수 있다.
본 발명의 음성출력부(140)는 외부로 사운드 출력이 가능한 스피커로 구현될 수 있다.
제어부(150)는 전자기기(100)를 전반적으로 제어한다. 본 발명의 제어부(150)는 CPU로 구현되어, 소정 어플리케이션의 실행에 의해 제어동작을 수행할 수 있다.
제어부(150)는 음성입력부(110)를 통해 수신된 사용자의 입력음성의 특성에 따라 사용자의 특성을 결정하고, 결정된 사용자의 특성에 대응하도록 응답음성을 생성하여 음성출력부(140)를 통해 출력한다.
구체적으로, 제어부(150)는 입력음성의 특성으로서 주파수, 빠르기, 크기, 음높이, 음성 떨림, 진폭변이, 음색 중 적어도 하나를 추출하고, 추출된 입력음성의 특성과 저장부(120)에 기 저장된 음성모델 데이터베이스를 비교하여 사용자의 특성 즉, 성별 및 연령을 결정한다. 여기서, 제어부(150)는 입력음성의 노이즈를 제거하고, 노이즈가 제거된 상태의 입력음성에 대하여 사용자의 특성을 결정할 수 있다.
제어부(150)는 결정된 사용자의 특성에 기초하여 입력음성을 인식하여, 사용자의 명령을 식별한다. 이에, 본원발명은 사용자의 성별, 연령별 특성을 고려하여 음성에 의한 사용자의 명령을 식별하기 때문에, 음성인식의 정확도가 높아진다.
제어부(150)는 인식된 입력음성에 기초하여 전자기기를 제어한다. 즉, 제어부(150)는 음성인식에 따라 식별된 사용자의 명령에 대응하는 동작을 수행한다. 여기서, 제어부(150)는 사용자의 명령에 대응하는 동작으로서, 소정의 응답음성을 생성하여 출력할 수 있다.
구체적으로, 제어부(150)는 생성되는 응답음성을 사용자의 특성에 대응하도록 생성할 수 있다.
예컨대, 제어부(150)는 사용자가 60대 이상인 경우, 응답음성의 크기를 20, 30대에 비하여 높은 레벨로 생성하여 출력하도록 제어할 수 있다. 또한, 사용자가 20대 남성인 경우, 응답음성의 20대 여성의 표준 주파수에 맞도록 생성하여 출력할 수도 있다.
이를 위해, 저장부(120)는 사용자의 성별 및 연령에 따라 선호하는 음성의 성별이나 연령대에 대한 데이터베이스를 더 포함할 수 있다.
여기서, 사용자는 별도로 마련된 키 버튼과 같은 입력수단을 이용하여, 자신이 선호하는 응답음성의 성별이나 연령대에 대한 정보를 미리 저장하고, 미리 저장된 성별이나 연령대의 음성으로 응답음성이 출력되도록 설정할 수도 있을 것이다.
도 3은 본 발명에 의한 전자기기(100)의 동작의 일례를 설명하기 위한 도면이다.
예컨대, 전자기기(100)가 네비게이션으로 구현되는 경우, 음성입력부(110)는 경로 탐색에 대한 사용자의 명령을 입력음성으로 수신할 수 있다.
제어부(150)는 수신된 입력음성을 인식하고, 인식된 입력음성에 기초하여 전자기기(100)가 대응하는 동작을 수행하도록 제어할 수 있다.
구체적으로, 도 3을 참조하면 제어부(150)는 사용자의 입력음성에 대응하여 탐색된 경로를 표시하도록 표시부(130)를 제어한다.
여기서, 제어부(150)는 입력음성의 특성을 저장부(120)에 저장된 음성모델 데이터베이스와 비교하여 사용자의 특성을 결정할 수 있다.
그리고, 결정된 사용자의 특성을 도 3과 같이 소정의 메시지(10)로 사용자에게 표시하도록 표시부(130)를 제어할 수 있다. 사용자는 표시부(130)에 표시된 메시지를 통해, 입력음성에 대한 사용자 특성이 제대로 인식되었는지 여부를 확인할 수 있다.
제어부(150)는 결정된 사용자의 특성에 기초하여 입력음성을 인식하고, 결정된 사용자의 특성에 대응하도록 입력음성에 대한 응답음성으로서 경로안내 음성을 생성하고, 생성된 응답음성을 음성출력부(140)를 통해 사용자에게 출력한다.
이에 따라, 상기한 본 발명 전자기기(100)는 사용자의 특성을 고려한 입력음성의 인식 및 응답음성의 출력을 수행하므로, 음성인식의 정확도 및 정보전달의 효과를 높일 수 있게 된다.
도 4는 본 발명의 제2 실시예에 의한 전자기기(100)의 구성을 도시한 블록도이다.
도 4에 도시된 바와 같이, 본 발명 제2 실시예에 의한 전자기기(100)는 제1 실시예의 전자기기(100)에 이미지 입력부(160)를 더 포함한다.
이미지 입력부(160)는 사용자의 이미지를 수신하는 것으로서, 동영상이나 정지영상의 촬영이 가능한 카메라나 캠코더 등을 포함한다.
이에, 본 발명 제2 실시예의 전자기기(100)의 저장부(120)는 성별, 연령별 표준 이미지 데이터가 저장되는 이미지 데이터베이스를 더 포함한다.
구체적으로, 이미지 데이터베이스는 사용자의 성별 및 연령에 따른 얼굴의 특성(예컨대, 얼굴형, 주름, 피부색, 머리카락의 길이나 색)을 표준화하여 저장할 수 있다.
제어부(150)는 사용자로부터 입력음성이 수신되면, 이미지 입력부(160)를 통해 입력된 사용자의 이미지를 이미지 데이터베이스와 비교하여, 사용자의 특성으로서 성별 및 연령을 결정하고, 결정된 사용자의 특성을 고려하여 입력음성을 인식하고, 인식된 입력음성에 기초하여 대응하는 동작을 수행하게 된다.
이러한, 본 발명 제2 실시예에 의한 전자기기(100)는 입력음성뿐 아니라 이 미지에 의해 사용자의 특성을 결정하므로, 음성인식의 정확도가 보다 높아질 수 있게 된다.
이하, 상기와 같은 구성에 따른 전자기기(100)에 있어서, 음성인식방법을 도 5를 참조하여 설명한다.
도 5는 본 발명에 의한 전자기기(100)의 음성인식방법을 나타내는 흐름도이다.
도 5에 도시된 바와 같이, 전자기기(100)는 음성입력부(110)를 통해 사용자의 명령에 대응하는 입력음성을 수신한다(S110).
제어부(150)는 단계 S110에서 수신된 입력음성에 기초하여 사용자의 특성을 결정한다(S120). 여기서, 제어부(150)는 입력음성과 기 저장된 데이터베이스를 비교하여 사용자의 특성을 결정할 수 있다.
단계 S120에서 결정되는 사용자의 특성은 사용자의 성별, 연령 중 적어도 하나를 포함하며, 기 저장된 데이터베이스는 음성모델 데이터베이스와, 이미지 데이터베이스 중 적어도 하나를 포함할 수 있다. 음성모델 데이터베이스에는 사용자의 특성에 대응하는 음성모델의 표준 주파수, 빠르기, 크기, 음높이, 음색, 음성 떨림, 진폭변이 중 적어도 하나가 저장되며, 이미지 데이터베이스에는 사용자의 성별 및 연령에 따라 표준화된 얼굴 이미지의 특성이 저장될 수 있다.
구체적으로, 단계 S120에서 제어부(150)는 입력음성의 특성으로서 입력음성의 주파수, 빠르기, 크기, 음높이, 음성 떨림, 진폭변이, 음색 중 적어도 하나를 추출하고, 추출된 입력음성의 특성과 저장부(120)의 음성모델 데이터베이스를 비교 하여 사용자의 특성으로서, 성별 및 연령을 결정할 수 있다.
단계 S120에서, 제어부(150)는 결정된 사용자의 특성을 표시부(130)를 통해 사용자에게 표시할 수 있다.
제어부(150)는 단계 S120에서 결정된 사용자의 특성에 기초하여 단계 S110에서 수신된 입력음성을 인식하여, 사용자의 명령을 식별한다 (S130).
전자기기(100)는 단계 S130에서 인식된 입력음성에 기초하여 전자기기를 제어한다(S140). 즉, 제어부(150)는 단계 S130에서 식별된 사용자의 명령에 대응하는 동작을 수행하게 된다.
그리고, 제어부(150)는 단계 S120에서 결정된 사용자의 특성에 대응하여 입력음성에 대한 응답음성을 생성할 수 있다(S150).
여기서, 제어부(150)는 단계 S120에서 결정된 사용자의 특성에 응답음성의 주파수, 빠르기, 크기, 음색, 높낮이 중 적어도 하나가 대응하도록 응답음성을 생성할 수 있다. 즉, 사용자의 특성에 대응하는 응답음성으로서, 응답음성의 크기나 빠르기 등을 조절하거나, 결정된 사용자의 특성이 선호하는 성별이나 연령대의 음성으로 응답음성을 생성할 수 있다.
제어부(150)는 단계 S150에서 생성된 응답음성을 음성출력부(140)를 통해 사용자에게 출력한다(S160).
상기와 같은 본 발명에 따르면, 본 발명은 사용자의 특성(성별, 연령)을 구별하여 음성인식을 수행하므로 음성인식의 정확도를 높일 수 있을 뿐 아니라, 사용자의 특성에 대응하도록 응답음성을 생성하여 출력하므로 정보전달의 효과도 보다 높일 수 있게 된다.
또한, 본 발명은 상기와 같이 기재된 실시예 뿐 아니라, 음성으로 컨트롤 가능한 장치로서 가정용 전자기기, 모바일 장치를 비롯한 다양한 전자기기에 적용 가능하다.
이상, 바람직한 실시예를 통하여 본 발명에 관하여 상세히 설명하였으나, 본 발명은 이에 한정되는 것은 아니며 특허청구범위 내에서 다양하게 실시될 수 있다.
도 1은 본 발명의 제1 실시예에 의한 전자기기의 구성을 도시한 블록도이며,
도 2a 내지 도 2c는 사용자의 성별 및 연령에 따른 입력음성의 특성을 나타내는 그래프이며,
도 3은 본 발명에 의한 전자기기의 동작의 일례를 설명하기 위한 도면이며,
도 4는 본 발명의 제2 실시예에 의한 전자기기의 구성을 도시한 블록도이며,
도 5는 본 발명에 의한 전자기기의 음성인식방법을 나타내는 흐름도이다.
* 도면의 주요 부분에 대한 부호의 설명 *
100 : 전자기기 110 : 음성입력부
120 : 저장부 130 : 표시부
140 : 음성출력부 150 : 제어부
160 : 이미지 입력부

Claims (29)

  1. 전자기기의 음성인식방법에 있어서,
    사용자의 입력 음성신호를 수신하는 단계와;
    상기 수신된 입력 음성신호에 기초하여 사용자의 특성을 결정하는 단계와;
    상기 결정된 사용자의 특성에 기초하여 상기 입력 음성신호에 대응하는 사용자 명령을 식별하는 단계와;
    상기 결정된 사용자 특성에 기초하여 상기 식별된 사용자 명령에 응답한 응답 음성을 생성하는 단계를 포함하며,
    상기 결정된 사용자 특성은 사용자의 연령을 포함하며,
    상기 응답 음성의 음색은 상기 결정된 연령의 사용자에 의해 선호되는 연령의 음색으로 결정되는 것을 특징으로 하는 음성인식방법.
  2. 제1항에 있어서,
    상기 전자기기에는 영상을 표시하는 표시부가 마련되며,
    상기 입력 음성신호에 따라 상기 표시부를 제어하는 단계를 더 포함하는 것을 특징으로 하는 음성인식방법.
  3. 제1항 또는 제2항에 있어서,
    상기 사용자의 특성을 결정하는 단계는, 상기 입력 음성신호의 속성을 결정하는 단계를 포함하며,
    상기 입력 음성신호의 속성은 주파수, 빠르기, 크기, 음높이, 음색, 음성 떨림, 진폭변이 중 적어도 하나를 포함하는 것을 특징으로 하는 음성인식방법.
  4. 제3항에 있어서,
    상기 사용자의 특성을 결정하는 단계는,
    상기 결정된 입력 음성신호의 속성을 상기 전자기기에 저장된 음성모델 데이터베이스와 비교하여, 상기 사용자의 특성을 결정하는 단계를 더 포함하며,
    상기 음성모델 데이터베이스는 입력 음성신호의 성별 및 연령 중 적어도 하나의 특성을 테이블화하여 저장한 것을 특징으로 하는 음성인식방법.
  5. 제4항에 있어서,
    상기 음성모델 데이터베이스는 상기 성별 및 연령 중 적어도 하나에 대한 표준 주파수, 빠르기, 크기, 음높이, 음색, 음성 떨림, 진폭변이 중 적어도 하나를 포함하는 것을 특징으로 하는 음성인식방법.
  6. 제1항 또는 제2항에 있어서,
    상기 생성된 응답음성을 출력하는 단계를 더 포함하며,
    상기 응답음성은 상기 결정된 사용자에 의해 선호되는 성별의 음색으로 결정되는 것을 특징으로 하는 음성인식방법.
  7. 제6 항에 있어서,
    상기 응답음성을 생성하는 단계는, 상기 결정된 연령의 사용자에 의해 선호되는 연령 또는 성별에 상기 응답음성의 주파수, 빠르기, 크기, 음색, 음높이 중 적어도 하나가 대응하도록 상기 응답음성을 생성하는 것을 특징으로 하는 음성인식방법.
  8. 제1항 또는 제2항에 있어서,
    상기 식별된 사용자 명령에 기초하여 상기 전자기기를 제어하는 단계를 더 포함하는 것을 특징으로 하는 음성인식방법.
  9. 제1항 또는 제2항에 있어서,
    상기 결정된 사용자의 특성을 표시하는 단계를 더 포함하는 것을 특징으로 하는 음성인식방법.
  10. 제1항 또는 제2항에 있어서,
    상기 사용자의 특성을 결정하는 단계는,
    상기 사용자의 이미지를 수신하는 단계와;
    상기 수신된 사용자의 이미지에 기초하여 상기 사용자의 특성을 결정하는 단계를 포함하는 것을 특징으로 하는 음성인식방법.
  11. 제1항 또는 제2항에 있어서,
    상기 사용자의 특성을 결정하는 단계는, 상기 사용자의 입력 음성신호에 기초하여 상기 사용자의 성별 및 연령을 결정하는 단계를 포함하는 것을 특징으로 하는 음성인식방법.
  12. 음성인식 기능을 갖는 전자기기에 있어서,
    사용자의 입력 음성신호를 수신하는 음성 입력부와;
    상기 수신된 입력 음성신호에 기초하여 사용자의 특성을 결정하고, 상기 결정된 사용자 특성에 기초하여 상기 입력 음성신호에 대응하는 사용자 명령을 식별하고, 상기 결정된 사용자 특성에 기초하여 상기 식별된 사용자 명령에 응답한 응답 음성을 생성하는 제어부를 포함하며,
    상기 결정된 사용자 특성은 사용자의 연령을 포함하며,
    상기 응답 음성의 음색은 상기 결정된 연령의 사용자에 의해 선호되는 연령의 음색으로 결정되는 것을 특징으로 하는 전자기기.
  13. 제12항에 있어서,
    영상을 표시하는 표시부를 더 포함하며,
    상기 제어부는, 상기 입력 음성신호에 따라 상기 표시부를 제어하는 것을 특징으로 하는 전자기기.
  14. 제12항 또는 제13항에 있어서,
    상기 제어부는, 상기 입력 음성신호의 속성을 결정하며,
    상기 입력 음성신호의 속성은 주파수, 빠르기, 크기, 음높이, 음색, 음성 떨림, 진폭변이 중 적어도 하나를 포함하는 것을 특징으로 하는 전자기기.
  15. 제14항에 있어서,
    음성모델 데이터베이스를 저장하는 저장부를 더 포함하고,
    상기 제어부는 상기 결정된 입력 음성신호의 속성을 상기 음성모델 데이터베이스와 비교하여 상기 사용자의 특성을 결정하며,
    상기 음성모델 데이터베이스는 입력 음성신호의 성별 및 연령 중 적어도 하나의 특성을 테이블화하여 저장한 것을 특징으로 하는 전자기기.
  16. 제15항에 있어서,
    상기 음성모델 데이터베이스는 상기 성별 및 연령 중 적어도 하나에 대한 표준 주파수, 빠르기, 크기, 음높이, 음색, 음성 떨림, 진폭변이 중 적어도 하나를 포함하는 것을 특징으로 하는 전자기기.
  17. 제12항 또는 제13항에 있어서,
    상기 생성된 응답음성을 출력하는 음성 출력부를 더 포함하고;
    상기 응답음성은 상기 결정된 연령의 사용자에 의해 선호되는 성별의 음성으로 결정되는 것을 특징으로 하는 전자기기.
  18. 제17항에 있어서,
    상기 제어부는, 상기 결정된 연령의 사용자에 의해 선호되는 연령 또는 성별에 상기 응답음성의 주파수, 빠르기, 크기, 음색, 음높이 중 적어도 하나가 대응하도록 상기 응답음성을 생성하는 것을 특징으로 하는 전자기기.
  19. 제12항 또는 제13항에 있어서,
    상기 제어부는, 상기 식별된 사용자 명령에 기초하여 상기 전자기기를 제어하는 것을 특징으로 하는 전자기기.
  20. 제13항에 있어서,
    상기 표시부는, 상기 결정된 사용자의 특성을 더 표시하는 것을 특징으로 하는 전자기기.
  21. 제12항 또는 제13항에 있어서,
    상기 사용자의 이미지를 수신하는 이미지 입력부를 더 포함하고;
    상기 제어부는, 상기 수신된 사용자의 이미지에 기초하여 상기 사용자의 특성을 결정하는 것을 특징으로 하는 전자기기.
  22. 제12항 또는 제13항에 있어서,
    상기 제어부는, 상기 사용자의 입력 음성신호에 기초하여 상기 사용자의 성별 및 연령을 결정하는 것을 특징으로 하는 전자기기.
  23. 제1항 또는 제2항에 있어서,
    상기 응답음성은 상기 결정된 사용자의 특성에 대응하는 사용자가 선호하는 연령의 사용자의 음색에 대응하는 레벨을 가지는 것을 특징으로 하는 음성인식방법.
  24. 제12항 또는 제13항에 있어서,
    상기 응답음성은 상기 결정된 사용자의 특성에 대응하는 사용자가 선호하는 연령의 사용자의 음색에 대응하는 레벨을 가지는 것을 특징으로 하는 전자기기.
  25. 음성인식 기능을 가지는 전자기기의 동작 방법에 있어서,
    음성입력부를 통해 사용자의 입력 음성신호를 수신하는 단계와;
    상기 입력 음성신호에 기초하여 상기 사용자의 특성을 결정하는 단계와;
    상기 결정된 사용자의 특성에 기초하여 상기 사용자의 입력 음성신호에 대응하는 동작을 수행하는 단계와;
    상기 결정된 사용자 특성에 기초하여 상기 입력 음성신호에 응답한 응답 음성을 생성하는 단계를 포함하며,
    상기 결정된 사용자 특성은 사용자의 연령을 포함하며,
    상기 응답 음성의 음색은 상기 결정된 연령의 사용자에 의해 선호되는 연령의 음색으로 결정되는 것을 특징으로 하는 전자기기의 동작 방법.
  26. 제25항에 있어서,
    상기 전자기기에는 영상을 표시하는 표시부가 마련되며,
    상기 입력 음성신호에 따라 상기 표시부를 제어하는 단계를 더 포함하는 것을 특징으로 하는 전자기기의 동작 방법.
  27. 제25항 또는 제26항에 있어서,
    상기 입력 음성신호의 속성을 음성모델 데이터베이스와 비교하는 단계를 더 포함하며,
    상기 음성모델 데이터베이스는 입력 음성신호의 성별 및 연령 중 적어도 하나의 특성을 테이블화하여 저장한 것을 특징으로 하는 전자기기의 동작 방법.
  28. 제25항 또는 제26항에 있어서,
    상기 사용자의 특성을 결정하는 단계는, 상기 사용자의 입력 음성신호에 기초하여 상기 사용자의 성별 및 연령을 결정하는 단계를 포함하는 것을 특징으로 하는 전자기기의 동작 방법.
  29. 제25항 또는 제26항에 있어서,
    상기 응답음성은 상기 결정된 사용자의 특성에 대응하는 사용자가 선호하는 연령의 사용자의 음색에 대응하는 레벨을 가지는 것을 특징으로 하는 전자기기의 동작 방법.
KR1020090034240A 2009-04-20 2009-04-20 전자기기 및 전자기기의 음성인식방법 KR101625668B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020090034240A KR101625668B1 (ko) 2009-04-20 2009-04-20 전자기기 및 전자기기의 음성인식방법
US12/683,721 US8965764B2 (en) 2009-04-20 2010-01-07 Electronic apparatus and voice recognition method for the same
EP10159202.0A EP2244252B1 (en) 2009-04-20 2010-04-07 Electronic apparatus and voice recognition method for the same
US14/598,801 US10062376B2 (en) 2009-04-20 2015-01-16 Electronic apparatus and voice recognition method for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090034240A KR101625668B1 (ko) 2009-04-20 2009-04-20 전자기기 및 전자기기의 음성인식방법

Publications (2)

Publication Number Publication Date
KR20100115592A KR20100115592A (ko) 2010-10-28
KR101625668B1 true KR101625668B1 (ko) 2016-05-30

Family

ID=42335227

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090034240A KR101625668B1 (ko) 2009-04-20 2009-04-20 전자기기 및 전자기기의 음성인식방법

Country Status (3)

Country Link
US (2) US8965764B2 (ko)
EP (1) EP2244252B1 (ko)
KR (1) KR101625668B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020096193A1 (ko) * 2018-11-08 2020-05-14 삼성전자주식회사 전자 장치 및 그 제어 방법
WO2021172641A1 (ko) * 2020-02-27 2021-09-02 삼성전자 주식회사 사용자의 발화 상태에 기초하여 제어 정보를 생성하는 디바이스 및 그 제어 방법

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9605971B2 (en) * 2011-06-17 2017-03-28 Robert Bosch Gmbh Method and device for assisting a driver in lane guidance of a vehicle on a roadway
US8620646B2 (en) * 2011-08-08 2013-12-31 The Intellisis Corporation System and method for tracking sound pitch across an audio signal using harmonic envelope
WO2013187610A1 (en) * 2012-06-15 2013-12-19 Samsung Electronics Co., Ltd. Terminal apparatus and control method thereof
KR102050897B1 (ko) * 2013-02-07 2019-12-02 삼성전자주식회사 음성 대화 기능을 구비한 휴대 단말기 및 이의 음성 대화 방법
CN104123938A (zh) * 2013-04-29 2014-10-29 富泰华工业(深圳)有限公司 语音控制系统、电子装置及语音控制方法
CN106157955A (zh) 2015-03-30 2016-11-23 阿里巴巴集团控股有限公司 一种语音控制方法及装置
DE102015007244A1 (de) * 2015-06-05 2016-12-08 Audi Ag Zustandsindikator für ein Datenverarbeitungssystem
CN105895078A (zh) * 2015-11-26 2016-08-24 乐视致新电子科技(天津)有限公司 动态选择语音模型的语音识别方法及装置
CN106297789B (zh) * 2016-08-19 2020-01-14 北京光年无限科技有限公司 智能机器人的个性化交互方法及交互系统
CN106504743B (zh) * 2016-11-14 2020-01-14 北京光年无限科技有限公司 一种用于智能机器人的语音交互输出方法及机器人
US10467339B1 (en) * 2018-06-28 2019-11-05 Sap Se Using machine learning and natural language processing to replace gender biased words within free-form text
KR20210001529A (ko) * 2019-06-28 2021-01-06 엘지전자 주식회사 로봇, 그와 연결되는 서버, 및 로봇을 이용한 음성 인식 방법
KR20210014909A (ko) 2019-07-31 2021-02-10 삼성전자주식회사 대상의 언어 수준을 식별하는 전자 장치 및 방법
CN111583495A (zh) * 2020-04-30 2020-08-25 厦门快商通科技股份有限公司 基于语音识别的远程门禁系统及其授权方法
EP4002061A1 (en) * 2020-11-24 2022-05-25 Inter IKEA Systems B.V. A control device and a method for determining control data based on audio input data

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005122128A (ja) * 2003-09-25 2005-05-12 Fuji Photo Film Co Ltd 音声認識システム及びプログラム
JP2009060394A (ja) * 2007-08-31 2009-03-19 Casio Comput Co Ltd 撮像装置、画像検出装置及びプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0527790A (ja) 1991-07-18 1993-02-05 Oki Electric Ind Co Ltd 音声入出力装置
US6088674A (en) * 1996-12-04 2000-07-11 Justsystem Corp. Synthesizing a voice by developing meter patterns in the direction of a time axis according to velocity and pitch of a voice
US6088669A (en) * 1997-01-28 2000-07-11 International Business Machines, Corporation Speech recognition with attempted speaker recognition for speaker model prefetching or alternative speech modeling
JP3886024B2 (ja) * 1997-11-19 2007-02-28 富士通株式会社 音声認識装置及びそれを用いた情報処理装置
US6219640B1 (en) * 1999-08-06 2001-04-17 International Business Machines Corporation Methods and apparatus for audio-visual speaker recognition and utterance verification
TW440810B (en) * 1999-08-11 2001-06-16 Ind Tech Res Inst Method of speech recognition
GB9925297D0 (en) * 1999-10-27 1999-12-29 Ibm Voice processing system
US6442519B1 (en) * 1999-11-10 2002-08-27 International Business Machines Corp. Speaker model adaptation via network of similar users
US20030110038A1 (en) * 2001-10-16 2003-06-12 Rajeev Sharma Multi-modal gender classification using support vector machines (SVMs)
US7881934B2 (en) 2003-09-12 2011-02-01 Toyota Infotechnology Center Co., Ltd. Method and system for adjusting the voice prompt of an interactive system based upon the user's state
US20050144012A1 (en) * 2003-11-06 2005-06-30 Alireza Afrashteh One button push to translate languages over a wireless cellular radio
US7272562B2 (en) * 2004-03-30 2007-09-18 Sony Corporation System and method for utilizing speech recognition to efficiently perform data indexing procedures
US20080189099A1 (en) * 2005-01-12 2008-08-07 Howard Friedman Customizable Delivery of Audio Information
EP1933303B1 (en) * 2006-12-14 2008-08-06 Harman/Becker Automotive Systems GmbH Speech dialog control based on signal pre-processing
US8041082B1 (en) * 2007-11-02 2011-10-18 Google Inc. Inferring the gender of a face in an image
US8868430B2 (en) * 2009-01-16 2014-10-21 Sony Corporation Methods, devices, and computer program products for providing real-time language translation capabilities between communication terminals
US9418662B2 (en) * 2009-01-21 2016-08-16 Nokia Technologies Oy Method, apparatus and computer program product for providing compound models for speech recognition adaptation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005122128A (ja) * 2003-09-25 2005-05-12 Fuji Photo Film Co Ltd 音声認識システム及びプログラム
JP2009060394A (ja) * 2007-08-31 2009-03-19 Casio Comput Co Ltd 撮像装置、画像検出装置及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020096193A1 (ko) * 2018-11-08 2020-05-14 삼성전자주식회사 전자 장치 및 그 제어 방법
WO2021172641A1 (ko) * 2020-02-27 2021-09-02 삼성전자 주식회사 사용자의 발화 상태에 기초하여 제어 정보를 생성하는 디바이스 및 그 제어 방법

Also Published As

Publication number Publication date
EP2244252B1 (en) 2017-08-09
EP2244252A1 (en) 2010-10-27
KR20100115592A (ko) 2010-10-28
US20100268538A1 (en) 2010-10-21
US10062376B2 (en) 2018-08-28
US8965764B2 (en) 2015-02-24
US20150127344A1 (en) 2015-05-07

Similar Documents

Publication Publication Date Title
KR101625668B1 (ko) 전자기기 및 전자기기의 음성인식방법
US10360360B2 (en) Systems and methods for controlling output of content based on human recognition data detection
US20170061316A1 (en) Method and apparatus for tailoring the output of an intelligent automated assistant to a user
CN111372119B (zh) 多媒体数据录制方法、装置及电子设备
US8521007B2 (en) Information processing method, information processing device, scene metadata extraction device, loss recovery information generation device, and programs
US20110282673A1 (en) Information processing apparatus, information processing method, and program
US20160343389A1 (en) Voice Control System, Voice Control Method, Computer Program Product, and Computer Readable Medium
CN109819167B (zh) 一种图像处理方法、装置和移动终端
EP3340077B1 (en) Method and apparatus for inputting expression information
US11244682B2 (en) Information processing device and information processing method
CN105139848B (zh) 数据转换方法和装置
CN109934191A (zh) 信息处理方法和装置
CN108903521B (zh) 一种应用于智能画框的人机交互方法、智能画框
CN111835522A (zh) 一种音频处理方法及装置
WO2021134250A1 (zh) 情绪管理方法、设备及计算机可读存储介质
JP5907231B1 (ja) 入力情報支援装置、入力情報支援方法および入力情報支援プログラム
US11301615B2 (en) Information processing device using recognition difficulty score and information processing method
US11430429B2 (en) Information processing apparatus and information processing method
JP6296193B2 (ja) 入力情報支援装置、入力情報支援方法および入力情報支援プログラム
WO2020154883A1 (zh) 语音信息的处理方法、装置、存储介质及电子设备
JP6112239B2 (ja) 入力情報支援装置、入力情報支援方法および入力情報支援プログラム
JP6172303B2 (ja) 入力情報支援装置、入力情報支援方法および入力情報支援プログラム
US20210082427A1 (en) Information processing apparatus and information processing method
CN110892475A (zh) 信息处理装置、信息处理方法和程序
US20240119930A1 (en) Artificial intelligence device and operating method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant