KR20140126020A - 사용자 기기 및 그 동작 방법 - Google Patents

사용자 기기 및 그 동작 방법 Download PDF

Info

Publication number
KR20140126020A
KR20140126020A KR1020130043983A KR20130043983A KR20140126020A KR 20140126020 A KR20140126020 A KR 20140126020A KR 1020130043983 A KR1020130043983 A KR 1020130043983A KR 20130043983 A KR20130043983 A KR 20130043983A KR 20140126020 A KR20140126020 A KR 20140126020A
Authority
KR
South Korea
Prior art keywords
speech recognition
sensor
input
response
user
Prior art date
Application number
KR1020130043983A
Other languages
English (en)
Other versions
KR102075117B1 (ko
Inventor
차순현
김양수
조재완
황선민
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130043983A priority Critical patent/KR102075117B1/ko
Priority to US14/253,285 priority patent/US9836275B2/en
Publication of KR20140126020A publication Critical patent/KR20140126020A/ko
Application granted granted Critical
Publication of KR102075117B1 publication Critical patent/KR102075117B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Abstract

본 개시의 실시예에 따른 음성 인식 실행 방법은 음성 인식을 이용할 수 있는 애플리케이션의 실행에 반응하여 적어도 하나의 센서로부터의 입력 유무를 검출하는 동작 및 상기 입력 유무에 반응하여 상기 음성 인식을 활성화 또는 비활성화는 동작을 포함할 수 있다. 다양한 다른 실시예들이 가능하다.

Description

사용자 기기 및 그 동작 방법{USER DEVICE AND OPERATING METHOD THEREOF}
본 개시의 다양한 실시예들은 음성 인식 기능을 가지는 사용자 기기 및 그 동작 방법에 관한 것이다.
현재 전자 통신 산업의 발달로 말미암아 셀룰러폰, 전자수첩, 개인 복합 단말기, 랩 탑 컴퓨터 등의 사용자 기기는 현대사회의 필수품이 되어가면서, 빠르게 변화하는 정보 전달의 중요한 수단이 되고 있다. 이러한 사용자 기기는 터치스크린을 이용한 GUI(Graphical User Interface) 환경을 통해 사용자의 작업을 편리하게 하고, 웹 환경을 기반으로 하는 다양한 멀티 미디어들을 제공하기에 이르렀다.
최근, 사용자 기기는 음성 인식 기능을 탑재하고 있다. 음성 인식 기능은 음성으로 명령을 내리거나 정보를 입력하는 기능을 가리킨다. 사용자는 메뉴를 통하여 음성 인식 기능에 관한 활성화 또는 비활성화를 선택한다.
본 개시의 다양한 실시예들은 음성 인식의 활성화에 대응하는 사용자의 조작을 없앨 수 있다.
본 개시의 다양한 실시예들은 음성 인식을 이용할 수 있는 애플리케이션을 실행하는 가운데 음성 인식을 활성화하여야 하는 상황과 그렇지 않은 상황을 식별할 수 있다.
본 개시의 다양한 실시예들은 적어도 하나의 센서(예: 그립 센서)로부터의 입력 유무에 반응하여 음성 인식을 자동으로 활성화 또는 비활성화할 수 있다.
본 개시의 다양한 실시예들은 적어도 하나의 센서(예: 관성 센서)로부터의 정보에 반응하여 음성 인식을 자동으로 활성화 또는 비활성화할 수 있다.
본 개시의 다양한 실시예들에 따르면, 음성 인식 실행 방법은 음성 인식을 이용할 수 있는 애플리케이션의 실행에 반응하여 적어도 하나의 센서로부터의 입력 유무를 검출하는 동작 및 상기 입력 유무에 반응하여 상기 음성 인식을 활성화 또는 비활성화는 동작을 포함할 수 있다.
본 개시의 다양한 실시예들에 따르면, 음성 인식 실행 방법은 음성 인식을 이용할 수 있는 애플리케이션의 실행에 반응하여 적어도 하나의 센서로부터의 정보를 획득하는 동작 및 상기 정보에 반응하여 상기 음성 인식을 활성화 또는 비활성화는 동작을 포함할 수 있다.
본 개시의 다양한 실시예들에 따르면, 전자 장치는 음성 인식을 이용할 수 있는 애플리케이션의 실행에 반응하여 적어도 하나의 센서로부터의 입력 유무를 검출하기 위한 검출 모듈 및 상기 입력 유무에 반응하여 상기 음성 인식을 활성화 또는 비활성화하기 위한 제어 모듈을 포함할 수 있다.
본 개시의 다양한 실시예들에 따르면, 전자 장치는 음성 인식을 이용할 수 있는 애플리케이션의 실행에 반응하여 적어도 하나의 센서로부터의 정보를 획득하기 위한 획득 모듈 및 상기 정보에 반응하여 상기 음성 인식을 활성화 또는 비활성화하기 위한 제어 모듈을 포함할 수 있다.
본 개시의 다양한 실시예들에 따르면, 전자 장치는 적어도 하나의 센서와, 적어도 하나 이상의 프로세서와, 메모리 및 상기 메모리에 저장되며, 상기 적어도 하나의 프로세서에 의하여 실행 가능하도록 구성되는 적어도 하나 이상의 프로그램을 포함하되, 상기 프로그램은 음성 인식을 이용할 수 있는 애플리케이션의 실행에 반응하여 상기 적어도 하나의 센서로부터의 입력 유무를 검출하고, 상기 입력 유무에 반응하여 상기 음성 인식을 활성화 또는 비활성화할 수 있다.
본 개시의 다양한 실시예들에 따르면, 음성 인식을 이용할 수 있는 애플리케이션을 실행하는 가운데 적어도 하나의 센서로부터의 입력 유무에 반응하여 음성 인식을 자동으로 활성화 또는 비활성화할 수 있다. 본 개시의 다양한 실시예에 따르면, 음성 인식을 이용할 수 있는 애플리케이션을 실행하는 가운데 적어도 하나의 센서로부터의 정보에 반응하여 음성 인식을 자동으로 활성화 또는 비활성화할 수 있다. 사용자는 메뉴를 통해 음성 인식의 활성화 또는 비활성화를 직접 선택하지 않아도 되므로, 음성 인식에 관한 사용성은 개선될 수 있다.
도 1 및 도 2는 본 개시의 다양한 실시예에 따른 사용자 기기의 사시도;
도 3은 본 개시의 다양한 실시예에 따른 사용자 기기를 보여주는 도면;
도 4는 본 개시의 다양한 실시예에 따른 사용자 기기를 보여주는 도면;
도 5는 본 개시의 다양한 실시예에 따른 사용자 기기의 블록 구성도;
도 6은 본 개시의 다양한 실시예에 따른 센서 장치의 블록 구성도;
도 7은 본 개시의 다양한 실시예에 따른 음성 인식 모듈의 블록 구성도;
도 8은 본 개시의 다양한 실시예에 따른 음성 인식 실행 절차의 순서도;
도 9 내지 12는 도 8의 803 동작 절차의 순서도;
도 13 및 14는 본 개시의 다양한 실시예에 따른 음성 인식 절차의 순서도;
도 15는 본 개시의 다양한 실시예에 따른 음성 인식 모듈의 블록 구성도;
도 16은 본 개시의 다양한 실시예에 따른 음성 인식 절차의 순서도이다.
도 17은 도 16의 1603 동작 절차의 순서도;
도 18은 본 개시의 다양한 실시예에 따른 촬영을 보여주는 도면; 및
도 19는 본 개시의 다양한 실시예에 따른 음악 재생을 보여주는 도면.
이하 첨부된 도면을 참조하여 본 개시의 동작 원리를 상세히 설명한다. 하기에서 본 개시를 설명에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 개시에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1 및 도 2는 본 개시의 다양한 실시예에 따른 사용자 기기의 사시도이다.
도 1을 참조하면, 사용자 기기(10)의 전면(11) 상부에는 수화 스피커(111), 광 센서(예: 조도 센서)(605), 근접 센서(603) 및 전면 카메라(114)가 탑재될 수 있다. 사용자 기기(10)의 전면(11)의 중앙에는 터치스크린(115)이 탑재될 수 있다. 사용자 기기(10)의 전면(11) 하부에는 누름 버튼(116)과, 터치 버튼(117)이 탑재될 수 있다. 사용자 기기(10)의 하단에는 외부 커넥터 단자(118)와 제 1 마이크로폰(119)이 탑재될 수 있다. 사용자 기기(10)의 우측에는 슬립 버튼(120)이 탑재되고, 사용자 기기(10)의 좌측에는 볼륨조절 버튼(미도시됨)이 탑재될 수 있다.
도 2를 참조하면, 사용자 기기(10)의 후면(12) 상부에는 후면 카메라(121), 플래시(122) 및 제 3 마이크로폰(124)이 탑재될 수 있다. 사용자 기기(10)의 후면(12) 하부에는 멀티미디어용 스피커(125)가 탑재될 수 있다. 사용자 기기(10)의 상단에는 제 2 마이크로폰(123)이 탑재될 수 있다.
사용자 기기(10)는 상술한 요소들과 전기적으로 소통하는 PCB(Printed Circuit Board)(미도시됨)를 포함한다. 상술한 요소들 중 다수는 PCB에 실장되거나 또는 FPCB(Flexible Printed Circuit Board), 케이블 등의 전기적 연결 수단을 통해 PCB에 전기적으로 연결될 수 있다. 이러한 PCB는 기본 회로와 다수의 전자 부품들이 실장된 기판으로, 사용자 기기(10)의 실행 환경을 설정하고 그 정보를 유지해 주고 사용자 기기(10)를 안정적으로 구동되게 해주며, 사용자 기기(10)의 모든 장치들의 데이터 입출력 교환을 원활하게 할 수 있다.
사용자 기기(10)는 하우징(13)을 포함하는데, 하우징(13)은 사용자 기기(10)의 외관을 형성할 뿐만 아니라 상술한 요소들을 수용 및 고정시키는 역할을 할 수 있다. 상술한 요소들 중 터치스크린(115), 카메라들(114, 121), 플래시(122), 외부 커넥터 단자(118) 등은 하우징(13)에 형성된 개구부를 통해 노출될 수 있다. 하우징(15)은 스피커들(111,125) 및 마이크로폰들(119,123,124)과 중첩되는 부분에 소리의 유입 및 방출을 위한 홀들을 가진다.
도 3은 본 개시의 다양한 실시예에 따른 사용자 기기를 보여주는 도면이다.
도 3을 참조하면, 사용자 기기(10)는 그립 센서(603)를 포함할 수 있다. 그립 센서(603)는 전기장의 변화에 따른 커패시턴스 변화를 감지할 수 있는 커패시턴스 센서일 수 있다. 그립 센서(603)는 그립 센서 IC(Integrated Circuit)와, 그립 센서 IC와 전기적으로 연결되는 금속체를 포함할 수 있다. 그립 센서 IC는 인체에 흐르는 미세 전류를 금속체를 통해 감지할 수 있다. 미세 전류에 의해 커패시턴스(capacitance)의 변화가 금속체에서 발생하고, 그립 센서 IC는 이를 감지할 수 있다. 금속체는 하우징(13)의 외측면의 적어도 일부분(예: 금속 테두리 131)에 배치되고, 사용자가 사용자 기기(10)를 파지하는 경우 사용자의 손(1500)은 금속체에 닿을 수 있다. 금속체는 PCB 또는 하우징(13)의 내측면에 배치되고, 사용자가 사용자 기기(10)를 파지하는 경우 사용자의 손(1500)은 금속체에 닿지 않지만, 사용자의 손(1500)과 금속체 사이의 거리는 가까워질 수 있다. 이러한 금속체는 도포용 도전성 도료, 부착용 금속 플레이트 등이 될 수 있다. 도시된 바와 같이, 사용자가 사용자 기기(10)를 파지하는 경우, 그립 센서로부터의 입력(예: 커패시턴스 변화)이 발생하고, 사용자 기기(10)는 음성 인식(voice recognition)을 이용할 수 있는 애플리케이션을 실행하는 가운데 음성 인식을 비활성화할 수 있다. 음성 인식은 음성으로 명령을 내리거나 정보를 입력하는 기능을 가리킨다. 반면, 사용자가 사용자 기기(10)를 파지하지 않는 경우, 그립 센서로부터의 입력은 없고, 사용자 기기(10)는 음성 인식을 이용할 수 있는 애플리케이션을 실행하는 가운데 음성 인식을 활성화할 수 있다.
도 4는 본 개시의 다양한 실시예에 따른 사용자 기기를 보여주는 도면이다.
도 4를 참조하면, 사용자 기기(10)는 커버(400)에 결합될 수 있다. 커버(400)는 고정부(410)와, 고정부(410)에 연결되는 폴더부(420)를 포함할 수 있다. 고정부(410)는 사용자 기기(10)를 고정시킬 수 있다. 폴더부(420)는 고정부(210)로부터 회동할 수 있고, 사용자 기기(10)의 전면을 덮거나 개방시킬 수 있다. 폴더부(420)가 사용자 기기(10)의 전면을 덮는 경우, 사용자 기기(10)의 전면에 배치된 근접 센서(603) 또는 광 센서(605)는 이에 반응하여 입력을 발생시킬 수 있다. 사용자 기기(10)에 외부 마이크로폰(21) 및 외부 스피커(22)를 포함하는 이어셋(20)이 연결되고, 폴더부(420)에 의해 사용자 기기(10)의 전면이 가려지는 경우, 근접 센서(603) 또는 광 센서(605)로부터 입력이 발생할 수 있다. 사용자 기기(10)는 음성 인식을 이용할 수 있는 애플리케이션(예: 음악 재생 애플리케이션)을 실행하는 가운데, 이어셋(20)의 외부 마이크로폰(21)을 이용한 음성 인식을 활성화할 수 있다.
도 5는 본 개시의 다양한 실시예에 따른 사용자 기기의 블록 구성도이다.
이러한 사용자 기기(10)는 이동 전화(mobile phone), 이동 패드(mobile pad), 미디어 플레이어(media player), 태블릿 컴퓨터(tablet computer), 핸드헬드 컴퓨터(handheld computer) 또는 PDA(Personal Digital Assistant)와 같은 장치일 수 있다. 또한, 이러한 장치들 중 두 가지 이상의 기능을 결합한 장치를 포함하는 임의의 이동 단말일 수도 있다.
사용자 기기(10)는 호스트 장치(510), 외부 메모리 장치(521), 카메라 장치(522), 센서 장치(523), GPS(Global Positioning System) 수신 장치(524), 무선 통신 장치(525), 오디오 장치(526), 외부 포트 장치(527), 터치 스크린 장치(528), 기타 입력/제어 장치들(529) 및 전원 공급 장치(530)를 포함할 수 있다. 외부 메모리 장치(521)와 외부 포트 장치(527)는 다수 개 구성될 수 있다.
호스트 장치(510)는 내부 메모리(511), 하나 이상의 프로세서(512) 및 인터페이스(513)를 포함할 수 있다. 내부 메모리(511), 하나 이상의 프로세서(512) 및 인터페이스(513)는 별개의 구성 요소일 수 있거나 하나 이상의 집적화된 회로에 구성될 수 있다.
프로세서(512)는 여러 가지의 소프트웨어 프로그램을 실행하여 사용자 기기(10)를 위한 여러 기능을 수행하며, 음성 통신, 영상 통신 및 데이터 통신을 위한 처리 및 제어를 수행할 수 있다. 또한, 이러한 통상적인 기능에 더하여, 프로세서(512)는 내부 메모리(511) 및/또는 외부 메모리 장치(521)에 저장되어 있는 소프트웨어 프로그램(명령어 세트)을 실행하여 그 프로그램에 대응하는 여러 기능을 수행할 수 있다. 프로세서(512)는 이러한 통상적인 기능에 더하여 내부 메모리(511) 및/또는 외부 메모리 장치(521)에 저장되어 있는 특정한 소프트웨어 프로그램(명령어 세트)을 실행하여 그 프로그램에 대응하는 특정한 여러 가지의 기능을 수행하는 역할도 할 수 있다. 예컨데, 프로세서(512)는 내부 메모리(511) 및/또는 외부 메모리 장치(521)에 저장된 소프트웨어 프로그램들과 연동하여 실시예의 방법을 수행할 수 있다. 또한, 프로세서(512)는 하나 이상의 애플리케이션 프로세서 유닛(APU : Application Processor Unit), 그래픽 프로세서 유닛(GPU : Graphic Processor Unit), 오디오 프로세서 유닛(Audio Processor Unit), 통신 프로세서 유닛(Communication Processor Unit) 등을 포함할 수 있다.
애플리케이션 프로세서 유닛은 사용자 기기에 적용되는 OS(Operating System) 및 각종 기능 등을 구동시킬 있고, 코어(core), 메모리(memory), 디스플레이 시스템/컨트롤러(display system/controller), 멀티미디어 인코딩/디코딩 코덱(mutimedia encoding/decoding codec), 2D/3D 가속 엔진(accelerator engine), ISP(Image Signal Processor), 카메라, 오디오, 모뎀, 각종 하이 및 로우 스피드 직렬/병렬 연결 인터페이스(High & low speed Serial/Parallel connectivity interface) 등의 수많은 기능 모두를 하나의 칩으로 모아 놓은 것일 수 있다. 예컨데, 애플리케이션 프로세서 유닛은 OS, 애플리케이션들을 구동시키며, 여러 가지 시스템 장치/인터페이스를 제어하는 기능을 하나의 칩으로 모아 놓은 SOC(System-On-Chip)라 할 수 있다.
그래픽 프로세서 유닛은 그래픽에 관련된 연산을 처리하는데, 영상 정보 처리, 가속화, 신호 전환, 화면 출력 등을 담당할 수 있다. 이러한 그래픽 프로세서 유닛은 애플리케이션 프로세서 유닛의 그래픽 작업으로 인해 생기는 병목 현상을 해결할 수 있으며, 애플리케이션 프로세서 유닛보다 2D 또는 3D 그래픽을 빠르게 처리할 수 있다.
오디오 프로세서 유닛은 오디오에 관련된 연산을 처리하는데, 디지털 또는 아날로그 형식의 오디오 신호를 오디오 효과 또는 효과 유닛을 통해서 변경할 수 있다.
통신 프로세서 유닛은 사용자 기기(10)와 타 기기와의 통신 처리를 담당하고, 사용자 기기(10)가 네트워크의 통신 기능을 이용하고자 할 때 그 접속을 설정하는 등의 기능을 수행할 수 있다.
인터페이스(513)는 사용자 기기(10)의 여러 장치들과 호스트 장치(510)를 연결시킬 수 있다.
외부 메모리 장치(521)는 하나 이상의 자기 디스크 저장 장치와 같은 고속 랜덤 액세스 메모리 및/또는 비휘발성 메모리, 하나 이상의 광 저장 장치 및/또는 플래시 메모리(예: NAND, NOR)를 포함할 수 있다. 외부 메모리 장치(521)는 소프트웨어를 저장하는데, 소프트웨어는 운영 체제 프로그램, 통신 프로그램, 카메라 프로그램, 그래픽 프로그램, 하나 이상의 애플리케이션 프로그램, 사용자 인터페이스 프로그램, 코덱 프로그램 등을 포함할 수 있다. 프로그램이란 용어는 명령어들의 집합 또는 명령어 세트(instruction set) 또는 프로그램으로 표현하기도 한다. 통신 프로그램, 카메라 프로그램, 그래픽 프로그램, 하나 이상의 애플리케이션 프로그램, 사용자 인터페이스 프로그램 및 코덱 프로그램은 운영 체제 프로그램이 다양한 기능을 다양한 API(Application Programming Interface)를 통해서 이용할 수 있다.
운영 체제 프로그램은 WINDOWS, LINUX, 다윈(Darwin), RTXC, UNIX, OS X, 또는 VxWorks와 같은 내장 운영 체제를 가리키며, 일반적인 시스템 작동(system operation)을 제어하는 여러 가지의 소프트웨어 구성요소를 포함할 수 있다. 이러한 일반적인 시스템 작동의 제어는 메모리 관리 및 제어, 저장 하드웨어(장치) 제어 및 관리, 전력 제어 및 관리 등을 포함할 수 있다. 또한, 운영 체제 프로그램은 여러 가지의 하드웨어(장치)와 소프트웨어 구성요소(프로그램) 사이의 통신을 원활하게 하는 기능도 수행할 수 있다.
통신 프로그램은 무선 통신 장치(525) 또는 외부 포트 장치(527)를 통해 컴퓨터, 서버 및 사용자 기기 등과 통신을 가능하게 할 수 있다.
카메라 프로그램은 카메라 관련 프로세스 및 기능들을 가능하게 하는 카메라 관련 소프트웨어 구성요소를 포함할 수 있다. 카메라 프로그램은 오픈지엘(OpenGL : Open Graphics Library), DirectX 등의 API 지원하에 카메라 장치(522)로부터의 이미지에 다양한 효과를 적용하는 전처리와, 캡처한 스냅 이미지에 다양한 효과를 적용하는 후처리를 수행할 수 있다. 이러한 효과들을 위한 필터들은 전처리 및 후처리 모두에 공용으로 쓰일 수 있도록 일괄적으로 관리되고, 타 프로그램에서도 공용으로 쓰일 수 있다.
그래픽 프로그램은 터치 스크린 장치(528)에 그래픽을 제공하고 표시하기 위한 여러 가지 소프트웨어 구성요소를 포함할 수 있다. 그래픽 프로그램은 오픈지엘(OpenGL : Open Graphics Library), DirectX 등과 같은 API(Application Programming Interface) 기반하에 그래픽을 생성할 수 있고, 영상에 다양한 효과를 부여할 수 있는 다양한 필터를 제공할 수 있다. 그래픽(graphics)이란 용어는 텍스트(text), 웹 페이지(web page), 아이콘(icon), 디지털 이미지(digital image), 비디오(video), 애니메이션(animation) 등을 가리킨다. 이러한 그래픽 프로그램은 이미지를 후처리하는 것에 사용성을 맞춘 이미지 뷰어(image viewer), 이미지 편집 프로그램 등과, 이미지를 전처리하는 것에 최적화된 카메라 관련 프로그램, 화상 전화 관련 프로그램 등이 될 수 있다. 그래픽 프로그램은 렌더링이 완료된 이미지에 다양한 효과를 적용하는 후처리를 수행하거나, 또는 이미지에 대한 다양한 효과를 적용하는 전처리를 수행할 수 있다.
애플리케이션 프로그램은 브라우저(browser), 이메일(email), 즉석 메시지(instant message), 워드 프로세싱(word processing), 키보드 에뮬레이션(keyboard emulation), 어드레스 북(address book), 접촉 리스트(touch list), 위젯(widget), 디지털 저작권 관리(DRM, Digital Right Management), 음성 인식(voice recognition), 음성 복제, 위치 결정 기능(position determining function), 위치기반 서비스(location based service) 등을 포함할 수 있다.
사용자 인터페이스 프로그램은 사용자 인터페이스에 관련한 여러 가지 소프트웨어 구성요소를 포함할 수 있다. 또한, 사용자 인터페이스 프로그램은 사용자 인터페이스의 상태가 어떻게 변경되는지, 그리고 사용자 인터페이스 상태의 변경이 어떤 조건에서 이루어지는지 등에 대한 내용을 포함할 수 있다.
코덱 프로그램은 비디오 파일의 인코딩 및 디코딩 관련한 소프트웨어 구성요소를 포함할 수 있다.
외부 메모리 장치(521)는 상술한 프로그램들 이외에 추가적인 프로그램(명령어들)을 더 포함할 수 있다. 또한, 사용자 기기(10)의 다양한 기능들은 하나 이상의 스트림 프로세싱(processing) 및/또는 애플리케이션 특정 집적 회로(ASIC, Application Specific Integrated circuit)를 포함하는 하드웨어 및/또는 소프트웨어 및/또는 이들의 결합으로 실행될 수 있다.
카메라 장치(522)는 사진 및 비디오 클립 레코딩 등의 카메라 기능을 수행할 수 있다. 카메라 장치(522)는 CCD(charged coupled device) 또는CMOS(complementary metal-oxide semiconductor) 등을 포함할 수 있다. 카메라 장치(522)는 프로세서(512)가 실행하는 카메라 프로그램에 따라 하드웨어적인 구성의 변경, 예컨데, 렌즈 이동, 조리개의 F수 등을 조절할 수 있다.
사용자 기기(10)의 다양한 구성요소들은 하나 이상의 통신 버스(참조번호 미기재) 또는 스트림 라인(참조번호 미기재)을 통해서 연결될 수 있다.
센서 장치(523)는 그립 센서(grip sensor), 근접 센서(proximity sensor), 광 센서(photo sensor), 터치 센서(touch sensor), 온도 센서(temperature sensor), 관성 센서(lnertial sensor) 등을 포함할 수 있다. 이에 대한 상세한 설명은 도 6을 참조하여 설명할 것이다.
GPS 수신 장치(524)는 GPS 위성에서 보내는 신호를 수신해 현재 위치를 계산할 수 있다.
무선 통신 장치(525)는 무선 통신을 가능하게 하는데, 무선 주파수 송·수신기, 광(예컨데, 적외선) 송·수신기를 포함할 수 있다. 이러한 무선 통신 장치(325)는 적어도 하나의 안테나, RF(Radio Frequency) 커넥터 등을 포함하는 모듈을 포함할 수 있다. 무선 통신 장치(325)는 통신 네트워크에 따라 GSM(Global System for Mobile Communication) 네트워크, EDGE(Enhanced Data GSM Environment) 네트워크, CDMA(Code Division Multiple Access) 네트워크, W-CDMA(W-Code Division Multiple Access) 네트워크, LTE(Long Term Evolution) 네트워크, OFDMA(Orthogonal Frequency Division Multiple Access) 네트워크, Wi-Fi(Wireless Fidelity) 네트워크, WiMax 네트워크 또는/및 Bluetooth 네트워크 중 하나를 통해 동작하도록 설계될 수 있다.
오디오 장치(526)는 스피커(5261) 및 마이크로폰(5262)에 연결되어 음성 인식, 음성 복제, 디지털 레코딩 및 통화 기능 등의 오디오 입력과 출력을 담당하고, 오디오 앰프를 포함할 수 있다. 오디오 장치(526)는 스피커(5261) 및 마이크로폰(5262)을 통해 사용자와 소통시킬 수 있다. 또한, 오디오 장치(526)는 호스트 장치(510)와 데이터 신호를 수신하고, 수신한 데이터 신호를 전기 신호로 변환하며, 변환한 전기 신호를 스피커(5261)를 통해 출력시킬 수 있다. 스피커(5261)는 전기 신호를 가청 주파수 대역으로 변환하여 출력하고, 마이크로폰(5262)은 인물이나 기타 음원들로부터 전달된 음파를 전기 신호로 변환할 수 있다. 또한, 오디오 장치(526)는 마이크로폰(5262)으로부터 전기 신호를 수신하고, 수신한 전기 신호를 오디오 데이터 신호로 변환하며, 변환한 오디오 데이터 신호를 호스트 장치(510)로 전송할 수 있다. 오디오 장치(526)는 사용자 기기(10)에 탈부착 가능한 이어폰, 헤드폰, 이어셋 또는 헤드셋을 포함할 수 있다.
외부 포트 장치(527)는 사용자 기기(10)를 다른 사용자 기기와 직접 연결하거나, 네트워크(예컨데, 인터넷, 인트라넷, 무선 LAN 등)를 통하여 다른 사용자 기기로 간접적으로 연결할 수 있다.
터치 스크린 장치(528)는 사용자 기기(10)와 사용자 간의 입력 및 출력 인터페이스를 제공할 수 있다. 터치 스크린 장치(528)는 센서 장치(523)의 터치 센서에 의한 터치 감지 기술을 적용하고 사용자의 터치 입력을 호스트 장치(510)로 전달하고, 호스트 장치(510)로부터 제공되는 시각 정보, 예컨데, 텍스트, 그래픽, 비디오 등을 사용자에게 보여줄 수 있다. 터치 스크린 장치(528)는 영상을 표시하는 디스플레이를 포함하고, 이러한 디스플레이는 EWD(Electro Wetting Display), E-Paper, PDP(Plasma Display Panel), LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diode) 및 AMOLED(Active Matrix Organic Light Emitting Diodes) 중 하나일 수 있다. 터치스크린 장치(528)를 위한 터치 센서는 터치펜용 디지타이저(digitizer), 정전용량방식(capacitive overlay) 터치 패널, 저항막 방식(resistance overlay) 터치 패널, 표면 초음파 방식(surface acoustic wave) 터치 패널, 적외선 방식(infrared beam) 터치 패널 중 하나일 수 있다.
기타 입력/제어 장치들(529)은 볼륨 제어를 위한 업/다운 버튼을 포함할 수 있다. 이 밖에도, 기타 입력/제어 장치들(529)는 특정 기능이 부여된 푸시 버튼(push button), 로커 버튼(locker button), 로커(locker) 스위치, 섬 휠(thumb-wheel), 다이얼(dial), 스틱(stick), 및 스타일러스 등의 포인터 장치 중 적어도 하나를 포함할 수 있다.
전원 공급 장치(530)는 적어도 하나의 전원 관리 집적 회로(PMIC : Power Management Integrated Circuit)를 포함할 수 있다. PMIC는 배터리 전원(파워)을 조정할 수 있다. 예컨데, 프로세서(512)는 처리해야 하는 부하(load)에 맞추어 그에 따른 인터페이스 신호를 전원 공급 장치(530)로 전송할 수 있다. 전원 공급 장치(530)는 프로세서(512)에 공급하는 코어 전압을 그에 맞게 조정할 수 있고, 프로세서(512)는 항시 최소한의 전력으로 구동할 수 있다. 호스트 장치(510)용 PMIC 뿐만 아니라, 외부 메모리 장치(521), 카메라 센서(522), 센서 장치(523), GPS 수신 장치(524), 무선 통신 장치(525), 오디오 장치(526), 외부 포트 장치(527), 터치 스크린 장치(528) 및 기타 입력/제어 장치들(529) 중 적어도 하나와 관련하는 적어도 하나의 PMIC가 구성될 수 있다. 또한, 하나의 통합 PMIC가 구성되고, 통합 PMIC는 호스트 장치(510)뿐만 아니라, 외부 메모리 장치(521), 카메라 센서(522), 센서 장치(523), GPS 수신 장치(524), 무선 통신 장치(525), 오디오 장치(526), 외부 포트 장치(527), 터치 스크린 장치(528) 및 기타 입력/제어 장치들(529) 중 적어도 하나에 관한 배터리 전원을 조정할 수도 있다.
도 6은 본 개시의 다양한 실시예에 따른 센서 장치의 블록 구성도이다.
도 6을 참조하면, 센서 장치(523)는 그립 센서(601), 근접 센서(603), 광 센서(605), 터치 센서(607), 온도 센서(609), 관성 센서(611) 등을 포함할 수 있다.
그립 센서(601)는 미세 전류를 감지할 수 있다. 사용자가 사용자 기기(10)를 파지하는 경우, 그립 센서(601)는 인체에 흐르는 미세 전류를 감지할 수 있다.
근접 센서(603)는 비접촉으로 대상물(예: 손, 얼굴 등)이 근접해 오는 것을 감지할 수 있다. 근접 센서(603)는 자기의 영향으로 내부의 전류가 변화하는 홀 소자와 영구 자석을 결합한 모듈, 램프나 발광 다이오드와 광센서를 결합시킨 모듈, 정전(靜電) 용량의 변화를 검출하는 모듈 등이 적용될 수 있다.
광 센서(605)는 빛 자체 또는 빛에 포함되는 정보(예: 조도)를 검출할 수 있다.
터치 센서(607)는 화면에서 손가락, 터치펜 등에 의한 접촉 터치 및/또는 근접 터치(호버링, hovering)를 감지할 수 있다. 터치 센서(607)는 디지타이저(digitizer), 정전용량방식(capacitive overlay) 터치 패널, 저항막 방식(resistance overlay) 터치 패널, 표면 초음파 방식(surface acoustic wave) 터치 패널, 적외선 방식(infrared beam) 터치 패널 등이 될 수 있다.
온도 센서(609)는 사용자 기기(10)에 닿는 물체(예: 사용자의 손)에 관한 온도를 검출할 수 있다. 사용자가 사용자 기기(10)를 파지하는 경우, 온도 센서(609)는 손의 온도를 검출할 수 있다.
관성 센서(611)(예: 자이로 센서, 가속도 센서 등)는 사용자 기기(10)의 움직임에 관한 정보(가속도, 속도, 방향, 거리 등)을 검출할 수 있다.
사용자 기기(10)는 그립 센서(601), 근접 센서(603) 및 터치 센서(607) 중 적어도 하나로부터의 입력 유무에 반응하여, 음성 인식을 이용할 수 있는 애플리케이션을 실행하는 가운데 음성 인식을 활성화하거나 또는 비활성화할 수 있다. 예컨데, 사용자가 사용자 기기(10)를 파지하지 않는 경우, 그립 센서(601)로부터의 입력이 없고, 사용자 기기(10)는 음성 인식을 비활성에서 활성화로 전환할 수 있다.
사용자 기기(10)는 광 센서(605), 온도 센서(609) 및 관성 센서(611) 중 적어도 하나로부터의 정보에 반응하여, 음성 인식을 이용할 수 있는 애플리케이션을 실행하는 가운데 음성 인식을 활성화하거나 또는 비활성화할 수 있다. 예컨데, 사용자가 사용자 기기(10)를 파지하고 들어올리는 경우, 관성 센서(611)는 이에 반응하여 특정 정보를 출력하고, 사용자 기기(10)는 이 정보에 반응하여 음성 인식을 이용할 수 있는 애플리케이션을 실행하는 가운데 음성 인식을 활성화에서 비활성화로 전환할 수 있다.
도 7은 본 개시의 다양한 실시예에 따른 음성 인식 모듈의 블록 구성도이다.
도 7을 참조하면, 음성 인식 모듈(700)은 검출 모듈(710) 및 제어 모듈(730)을 포함할 수 있다.
검출 모듈(710)은 음성 인식을 이용할 수 있는 애플리케이션의 실행에 반응하여 적어도 하나의 센서(예: 그립 센서 601, 근접 센서 603 및 터치 센서 607)로부터의 입력 유무를 검출할 수 있다. 음성 인식을 이용할 수 있는 애플리케이션은 촬영 애플리케이션, 음악 재생 애플리케이션, 전자책 애플리케이션, 포털 검색 애플리케이션 등이 될 수 있다. 예컨데, 사용자가 사용자 기기(10)를 파지하는 경우, 그립 센서(601)로부터 입력이 발생할 수 있고, 검출 모듈(410)은 이를 감지할 수 있다. 사용자가 사용자 기기(10)의 화면을 터치하는 경우, 터치 센서(607)로부터 입력이 발생할 수 있고, 검출 모듈(410)은 이를 감지할 수 있다.
제어 모듈(450)은 적어도 하나의 센서로부터의 입력 유무에 반응하여 음성 인식을 활성화 또는 비활성화할 수 있다. 음성 인식을 활성화하는 경우, 제어 모듈(450)은 애플리케이션에 미리 지정된 마이크로폰을 이용할 수 있다. 사용자 기기(10)에 이어셋 또는 헤드셋이 연결된 경우, 제어 모듈(450)은 사용자 기기(10)의 마이크로폰을 대신하여 이어셋 또는 헤드셋에 마련된 마이크로폰을 음성 인식에 이용할 수 있다.
도 8은 본 개시의 다양한 실시예에 따른 음성 인식 실행 절차의 순서도이다.
도 8을 참조하면, 801 동작에서, 프로세서(512)(예: 검출 모듈 810)는 음성 인식을 이용할 수 있는 애플리케이션의 실행에 반응하여 적어도 하나의 센서로부터의 입력 유무를 검출할 수 있다. 803 동작에서, 프로세서(512)(예: 제어 모듈 450)는 검출한 입력 유무에 반응하여 음성 인식을 활성화 또는 비활성화할 수 있다.
도 9는 도 8의 803 동작 절차의 순서도이다.
도 9를 참조하면, 901 동작에서, 프로세서(512)는 적어도 하나의 센서로부터의 입력 여부를 확인할 수 있다. 적어도 하나의 센서로부터의 입력이 있는 경우, 903 동작에서, 프로세서(512)는 음성 인식을 비활성화할 수 있다. 적어도 하나의 센서로부터의 입력이 없는 경우, 905 동작에서, 프로세서(512)는 음성 인식을 활성화할 수 있다.
도 10은 도 8의 803 동작 절차의 순서도이다.
도 10을 참조하면, 1001 동작에서, 프로세서(512)는 적어도 하나의 센서로부터의 입력 여부를 확인할 수 있다. 적어도 하나의 센서로부터의 입력이 있는 경우, 1003 동작에서, 프로세서(512)는 음성 인식을 비활성화할 수 있다. 적어도 하나의 센서로부터의 입력이 없는 경우, 1005 동작에서, 프로세서(512)는 임계 시간을 초과하는지 여부를 확인할 수 있다. 임계 시간을 초과하는 경우, 1007 동작에서, 프로세서(512)는 음성 인식을 활성화할 수 있다. 임계 시간을 초과하지 않는 경우, 프로세서(512)는 1001 동작을 반복할 수 있다.
도 11은 도 8의 803 동작 절차의 순서도이다.
도 11을 참조하면, 1101 동작에서, 프로세서(512)는 적어도 하나의 센서로부터의 입력 여부를 확인할 수 있다. 적어도 하나의 센서로부터의 입력이 있는 경우, 1103 동작에서, 프로세서(512)는 음성 인식을 비활성화할 수 있다. 적어도 하나의 센서로부터의 입력이 없는 경우, 1105 동작에서, 프로세서(512)는 외부 마이크로폰의 연결 여부를 확인할 수 있다. 외부 마이크로폰의 연결이 있는 경우, 1107 동작에서, 프로세서(512)는 외부 마이크로폰을 이용하는 음성 인식을 활성화할 수 있다. 외부 마이크로폰의 연결이 없는 경우, 1109 동작에서, 프로세서(512)는 사용자 기기의 마이크로폰을 이용하는 음성 인식을 활성화할 수 있다.
도 12는 도 8의 803 동작 절차의 순서도이다.
도 12를 참조하면, 1201 동작에서, 프로세서(512)는 적어도 하나의 센서로부터의 입력 여부를 확인할 수 있다. 적어도 하나의 센서로부터의 입력이 있는 경우, 1203 동작에서, 프로세서(512)는 음성 인식을 활성화할 수 있다. 적어도 하나의 센서로부터의 입력이 없는 경우, 1205 동작에서, 프로세서(512)는 음성 인식을 비활성화할 수 있다.
도 13은 본 개시의 다양한 실시예에 따른 음성 인식 절차의 순서도이다.
도 13을 참조하면, 1301 동작에서, 프로세서(512)는 애플리케이션을 실행할 수 있다. 1303 동작에서, 프로세서(512)는 애플리케이션이 음성 인식을 이용할 수 있는지 또는 없는지를 확인할 수 있다. 애플리케이션이 음성 인식을 이용할 수 없는 경우, 1309 동작에서, 프로세서(512)는 음성 인식을 비활성화할 수 있다. 애플리케이션이 음성 인식을 이용할 수 있는 경우, 1305 동작에서, 프로세서(512)(예: 검출 모듈 810)는 그립 센서 및/또는 터치 센서로부터의 입력 유무를 검출할 수 있다. 그립 센서 및/또는 터치 센서로부터의 입력이 있는 경우, 1309 동작에서, 프로세서(512)는 음성 인식을 비활성화할 수 있다. 그립 센서 및/또는 터치 센서로부터의 입력이 없는 경우, 1307 동작에서, 프로세서(512)는 음성 인식을 활성화할 수 있다.
도 14는 본 개시의 다양한 실시예에 따른 음성 인식 절차의 순서도이다.
도 14를 참조하면, 1401 동작에서, 프로세서(512)는 애플리케이션을 실행할 수 있다. 1403 동작에서, 프로세서(512)는 애플리케이션이 음성 인식을 이용할 수 있는지 또는 없는지를 확인할 수 있다. 애플리케이션이 음성 인식을 이용할 수 없는 경우, 1411 동작에서, 프로세서(512)는 음성 인식을 비활성화할 수 있다. 애플리케이션이 음성 인식을 이용할 수 있는 경우, 1405 동작에서, 프로세서(512)(예: 검출 모듈 710)는 그립 센서로부터의 입력 유무를 검출할 수 있다. 그립 센서로부터의 입력이 있는 경우, 1411 동작에서, 프로세서(512)는 음성 인식을 비활성화할 수 있다. 그립 센서로부터의 입력이 있는 경우, 1407 동작에서, 프로세서(512)는 외부 마이크로폰의 연결 여부를 확인할 수 있다. 외부 마이크로폰의 연결이 있는 경우, 1409 동작에서, 프로세서(512)는 외부 마이크로폰을 이용하는 음성 인식을 활성화할 수 있다. 외부 마이크로폰의 연결이 없는 경우, 1413 동작에서, 프로세서(512)는 사용자 기기의 마이크로폰을 이용하는 음성 인식을 활성화할 수 있다.
도 15는 본 개시의 다양한 실시예에 따른 음성 인식 모듈의 블록 구성도이다.
도 15를 참조하면, 음성 인식 모듈(1500)은 획득 모듈(1510) 및 제어 모듈(1530)을 포함할 수 있다.
획득 모듈(1510)은 음성 인식을 이용할 수 있는 애플리케이션의 실행에 반응하여 적어도 하나의 센서(예: 광 센서 605, 온도 센서 609 및 관성 센서 611)로부터 정보를 획득할 수 있다. 음성 인식을 이용할 수 있는 애플리케이션은 촬영 애플리케이션, 음악 재생 애플리케이션, 전자책 애플리케이션, 포털 검색 애플리케이션 등이 될 수 있다. 예컨데, 사용자가 사용자 기기(10)를 파지하고 들어올리는 경우, 관성 센서(611)는 이에 반응하여 특정 정보를 출력하고, 획득 모듈(1510)은 관성 센서(611)로부터 정보를 획득할 수 있다.
제어 모듈(1530)은 획득 정보에 반응하여 음성 인식을 활성화 또는 비활성화할 수 있다. 예컨데, 제어 모듈(1530)은 관성 센서(611)로부터 획득한 정보로부터 사용자 기기(10)의 파지를 결정할 수 있고, 음성 인식을 이용할 수 있는 애플리케이션을 실행하는 가운데 음성 인식을 활성화에서 비활성화로 전환할 수 있다.
도 16은 본 개시의 다양한 실시예에 따른 음성 인식 절차의 순서도이다.
도 16을 참조하면, 1601 동작에서, 프로세서(512)(예: 획득 모듈 1510)는 음성 인식을 이용할 수 있는 애플리케이션의 실행에 반응하여 적어도 하나의 센서로부터 정보를 획득할 수 있다. 1603 동작에서, 프로세서(512)(예: 제어 모듈 1530)은 획득 정보에 반응하여 음성 인식을 활성화 또는 비활성화할 수 있다.
도 17은 도 16의 1603 동작 절차의 순서도이다.
도 17을 참조하면, 1701 동작에서, 프로세서(512)는 획득 정보가 적합한지 여부를 판단할 수 있다. 획득 정보가 적합한 경우, 1703 동작에서, 프로세서(512)는 음성 인식을 활성화할 수 있다. 획득 정보가 적합하지 않은 경우, 1705 동작에서, 프로세서(512)는 음성 인식을 비활성화할 수 있다. 예컨데, 프로세서(512)는 광 센서(605)로부터 획득한 조도가 기준치 이하인 경우(예: 주머니에 사용자 기기(10)를 넣어둔 경우) 음성 인식을 활성화하고, 그렇지 않은 경우 음성 인식을 비활성화할 수 있다. 프로세서(512)는 관성 센서(611)로부터 획득한 정보가 사용자 기기(10)의 기 설정된 움직임에 상응하는 경우 음성 인식을 활성화하고, 그렇지 않은 경우 음성 인식을 비활성화할 수 있다.
도 18은 본 개시의 다양한 실시예에 따른 촬영을 보여주는 도면이다.
도 18을 참조하면, 사용자(1820)는 촬영 애플리케이션을 실행하고 있는 사용자 기기(10)를 거치대(1810)에 세워놓고, 다른 곳으로 이동할 수 있다. 사용자(1820)가 사용자 기기(10)를 파지(把指)한 경우, 사용자 기기(10)의 그립 센서(601)는 입력을 발생시킬 수 있다. 반면, 도시된 바와 같이, 사용자(1820)가 사용자 기기(10)를 파지하지 않는 경우, 사용자 기기(10)의 그립 센서(601)는 입력을 발생시키지 않을 수 있다. 사용자 기기(10)는 그립 센서로부터의 입력이 없는 경우, 음성 인식을 비활성화에서 활성화로 자동 전환할 수 있다. 사용자(1820)는 사용자 기기(10)의 화면에 표시된 촬영 버튼(1203)을 누르지 않고, "촬영"이라고 말하는 경우, 사용자 기기(10)는 음성 인식을 통해 촬영을 실행하는 명령어로 받아들이고 촬영을 실행할 수 있다.
도 19는 본 개시의 다양한 실시예에 따른 음악 재생을 보여주는 도면이다.
도 19를 참조하면, 사용자(1920)는 음악 재생 애플리케이션을 실행하고 있는 사용자 기기(10)에 이어셋(20)을 연결하고, 이어셋(20)의 이어폰(22)을 귀에 끼울 수 있다. 사용자 기기(10)로부터의 오디오 신호는 이어셋(20)의 이어폰(22)을 통해 소리로 출력될 수 있다. 사용자(1920)는 사용자 기기(10)를 파지하지 않고, 주머니에 넣을 수 있다. 사용자(1920)가 사용자 기기(10)를 파지한 경우, 사용자 기기(10)의 그립 센서(601)는 입력을 발생시킬 수 있다. 반면, 도시된 바와 같이, 사용자(1920)가 사용자 기기(10)를 파지하지 않는 경우, 사용자 기기(10)의 그립 센서(601)는 입력을 발생시키지 않을 수 있다. 사용자 기기(10)는 그립 센서(601)로부터의 입력이 없는 경우, 이어셋(20)의 마이크로폰(22)을 이용하는 음성 인식을 활성화할 수 있다. 예컨데, 사용자(1920)는 주머니에서 사용자 기기(10)를 꺼내서 조작하지 않고, "다음"이라고 말하는 경우, 사용자 기기(10)는 이어셋(20)의 마이크로폰(22)을 이용하는 음성 인식을 통해 다음 곡을 재생하는 명령어로 받아들이고 다음 곡을 재생할 수 있다.
본 개시는 전자책 애플리케이션에 적용될 수 있다. 사용자가 사용자 기기(10)를 파지하는 경우, 사용자 기기(10)의 그립 센서(601)는 입력을 발생시킬 수 있다. 반면, 사용자가 사용자 기기(10)를 파지하지 않는 경우, 사용자 기기(10)의 그립 센서(601)는 입력을 발생시키지 않을 수 있다. 그립 센서로부터의 입력이 있는 경우, 사용자 기기(10)는 음성 인식을 비활성화할 수 있고, 사용자는 버튼을 눌러 다음 페이지 또는 이전 페이지로 전환할 수 있다. 그립 센서로부터의 입력이 없는 경우, 사용자 기기(10)는 음성 인식을 활성화할 수 있고, 사용자는 음성 명령을 통해 다음 페이지 또는 이전 페이지로 전환할 수 있다.
본 개시의 다양한 실시예들에 따르면, 각각의 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 그 조합으로 구성될 수 있다. 또한, 일부 또는 전체 모듈은 하나의 개체 (entity)에 구성되되, 각 모듈의 기능을 동일하게 수행할 수 있다. 본 개시의 다양한 실시예들에 따르면, 각각의 동작들은 순차적, 반복적 또는 병렬적으로 실행될 수 있다. 또한, 일부 동작들은 생략되거나, 다른 동작들이 추가되어 실행될 수 있다. 한 예에 따르면, 각각의 동작들은 본 개시에서 기술한 대응하는 모듈에 의해서 실행될 수 있다.
종래의 사용자 기기의 경우, 사용자는 음성 인식을 이용할 수 있는 애플리케이션을 실행하는 가운데 메뉴를 통하여 음성인식의 활성화 또는 비활성화를 직접 선택하여야 하였고, 이는 사용자에게 불편함을 주었다. 반면, 본 개시의 다양한 실시예들에 따르면, 사용자 기기(10)는 음성 인식을 이용할 수 있는 애플리케이션을 실행하는 경우, 센서 장치(523)를 통해 음성 인식이 적합한 상황과 부적합한 상황을 스스로 판단할 수 있고, 그 결과에 따라 자동으로 음성 인식을 비활성화거나 또는 활성화할 수 있으므로, 사용자의 편리성을 높일 수 있다.
본 개시의 청구항 및/또는 명세서에 기재된 실시예들에 따른 방법들은 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합의 형태로 구현될(implemented) 수 있다.
소프트웨어로 구현하는 경우, 하나 이상의 프로그램(소프트웨어 모듈)을 저장하는 컴퓨터 판독 가능 저장 매체가 제공될 수 있다. 컴퓨터 판독 가능 저장 매체에 저장되는 하나 이상의 프로그램은, 전자 장치(device) 내의 하나 이상의 프로세서에 의해 실행될 수 있다. 하나 이상의 프로그램은, 전자 장치로 하여금, 본 개시의 청구항 및/또는 명세서에 기재된 실시예들에 따른 방법들을 실행하게 하는 명령어(instructions)를 포함할 수 있다.
이러한 프로그램(소프트웨어 모듈, 소프트웨어)은 랜덤 액세스 메모리 (random access memory), 플래시(flash) 메모리를 포함하는 비휘발성(non-volatile) 메모리, 롬(ROM, Read Only Memory), 전기적 삭제가능 프로그램가능 롬(EEPROM, Electrically Erasable Programmable Read Only Memory), 자기 디스크 저장 장치(magnetic disc storage device), 컴팩트 디스크 롬(CD-ROM, Compact Disc-ROM), 디지털 다목적 디스크(DVDs, Digital Versatile Discs) 또는 다른 형태의 광학 저장 장치, 마그네틱 카세트(magnetic cassette)에 저장될 수 있다. 또는, 이들의 일부 또는 전부의 조합으로 구성된 메모리에 저장될 수 있다. 또한, 각각의 구성 메모리는 다수 개 포함될 수도 있다.
또한, 전자 장치에 인터넷(Internet), 인트라넷(Intranet), LAN(Local Area Network), WLAN(Wide LAN), 또는 SAN(Storage Area Network)과 같은 통신 네트워크, 또는 이들의 조합으로 구성된 통신 네트워크를 통하여 접근(access)할 수 있는 부착 가능한(attachable) 저장 장치(storage device)에 저장될 수 있다. 이러한 저장 장치는 외부 포트를 통하여 전자 장치에 접속할 수 있다.
또한, 통신 네트워크상의 별도의 저장장치가 휴대용 전자 장치에 접속할 수도 있다.
한편 본 개시의 상세한 설명에서는 구체적인 실시예에 관해 설명하였으나, 본 개시의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능하다. 그러므로 본 개시의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.

Claims (20)

  1. 음성 인식 실행 방법에 있어서,
    음성 인식을 이용할 수 있는 애플리케이션의 실행에 반응하여 적어도 하나의 센서로부터의 입력 유무를 검출하는 동작; 및
    상기 입력 유무에 반응하여 상기 음성 인식을 활성화 또는 비활성화는 동작을 포함하는 방법.
  2. 제 1항에 있어서,
    상기 적어도 하나의 센서로부터의 입력 유무에 반응하여 상기 음성 인식을 활성화 또는 비활성화하는 동작은,
    상기 입력이 있는 경우 상기 음성 인식을 활성화하는 동작; 및
    상기 입력이 없는 경우 상기 음성 인식을 비활성화하는 동작을 포함하는 방법.
  3. 제 1항에 있어서,
    상기 적어도 하나의 센서로부터의 입력 유무에 반응하여 상기 음성 인식을 활성화 또는 비활성화는 동작은,
    상기 입력이 없는 경우 상기 음성 인식을 활성화하는 동작; 및
    상기 입력이 있는 경우 상기 음성 인식을 비활성화하는 동작을 포함하는 방법.
  4. 제 1항에 있어서,
    상기 적어도 하나의 센서로부터의 입력 유무에 반응하여 상기 음성 인식을 활성화 또는 비활성화하는 동작은,
    상기 입력이 임계시간 동안 없는 경우 상기 음성 인식을 활성화하는 방법.
  5. 제 1항에 있어서,
    상기 적어도 하나의 센서는,
    그립 센서(grip sensor), 근접 센서(proximity sensor) 및 터치 센서(touch sensor) 중 적어도 하나를 포함하는 방법.
  6. 음성 인식 실행 방법에 있어서,
    음성 인식을 이용할 수 있는 애플리케이션의 실행에 반응하여 적어도 하나의 센서로부터의 정보를 획득하는 동작; 및
    상기 정보에 반응하여 상기 음성 인식을 활성화 또는 비활성화하는 동작을 포함하는 방법.
  7. 제 6항에 있어서,
    상기 정보에 반응하여 상기 음성 인식을 활성화 또는 비활성화하는 동작은,
    상기 정보가 적합한 경우 상기 음성 인식을 활성화하는 동작; 및
    상기 정보가 적합하지 않은 경우 상기 음성 인식을 비활성화는 동작을 포함하는 방법.
  8. 제 6항에 있어서,
    상기 적어도 하나의 센서는,
    광 센서, 온도 센서 및 관성 센서 중 적어도 하나를 포함하는 방법.
  9. 전자 장치에 있어서,
    음성 인식을 이용할 수 있는 애플리케이션의 실행에 반응하여 적어도 하나의 센서로부터의 입력 유무를 검출하기 위한 검출 모듈; 및
    상기 입력 유무에 반응하여 상기 음성 인식을 활성화 또는 비활성화하기 위한 제어 모듈을 포함하는 전자 장치.
  10. 제 9항에 있어서,
    상기 제어 모듈은,
    상기 입력이 있는 경우 상기 음성 인식을 활성화하고, 상기 입력이 없는 경우 상기 음성 인식을 비활성화하는 전자 장치.
  11. 제 9항에 있어서,
    상기 제어 모듈은,
    상기 입력이 없는 경우 상기 음성 인식을 활성화하고, 상기 입력이 있는 경우 상기 음성 인식을 비활성화하는 전자 장치.
  12. 제 9항에 있어서,
    상기 제어 모듈은,
    상기 입력이 임계시간 동안 없는 경우 상기 음성 인식을 활성화하는 전자 장치.
  13. 제 9항에 있어서,
    상기 적어도 하나의 센서는,
    그립 센서(grip sensor), 근접 센서(proximity sensor) 및 터치 센서(touch sensor) 중 적어도 하나를 포함하는 전자 장치.
  14. 전자 장치에 있어서,
    음성 인식을 이용할 수 있는 애플리케이션의 실행에 반응하여 적어도 하나의 센서로부터의 정보를 획득하기 위한 획득 모듈; 및
    상기 정보에 반응하여 상기 음성 인식을 활성화 또는 비활성화하기 위한 제어 모듈을 포함하는 전자 장치.
  15. 제 14항에 있어서,
    상기 제어 모듈은,
    상기 정보가 적합한 경우 상기 음성 인식을 활성화하고, 상기 정보가 적합하지 않은 경우 상기 음성 인식을 비활성화는 전자 장치.
  16. 제 14항에 있어서,
    상기 적어도 하나의 센서는,
    광 센서, 온도 센서 및 관성 센서 중 적어도 하나를 포함하는 전자 장치.
  17. 전자 장치에 있어서,
    적어도 하나의 센서;
    적어도 하나 이상의 프로세서;
    메모리; 및
    상기 메모리에 저장되며, 상기 적어도 하나의 프로세서에 의하여 실행 가능하도록 구성되는 적어도 하나 이상의 프로그램을 포함하되,
    상기 프로그램은,
    음성 인식을 이용할 수 있는 애플리케이션의 실행에 반응하여 상기 적어도 하나의 센서로부터의 입력 유무를 검출하고, 상기 입력 유무에 반응하여 상기 음성 인식을 활성화 또는 비활성화는 전자 장치.
  18. 제 17항에 있어서,
    상기 프로그램은,
    상기 입력이 있는 경우 상기 음성 인식을 활성화하고, 상기 입력이 없는 경우 상기 음성 인식을 비활성화하는 전자 장치.
  19. 제 17항에 있어서,
    상기 프로그램은,
    상기 입력이 없는 경우 상기 음성 인식을 활성화하고, 상기 입력이 있는 경우 상기 음성 인식을 비활성화하는 전자 장치.
  20. 제 17항에 있어서,
    상기 적어도 하나의 센서는,
    그립 센서(grip sensor), 근접 센서(proximity sensor) 및 터치 센서(touch sensor) 중 적어도 하나를 포함하는 전자 장치.
KR1020130043983A 2013-04-22 2013-04-22 사용자 기기 및 그 동작 방법 KR102075117B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130043983A KR102075117B1 (ko) 2013-04-22 2013-04-22 사용자 기기 및 그 동작 방법
US14/253,285 US9836275B2 (en) 2013-04-22 2014-04-15 User device having a voice recognition function and an operation method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130043983A KR102075117B1 (ko) 2013-04-22 2013-04-22 사용자 기기 및 그 동작 방법

Publications (2)

Publication Number Publication Date
KR20140126020A true KR20140126020A (ko) 2014-10-30
KR102075117B1 KR102075117B1 (ko) 2020-02-07

Family

ID=51729679

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130043983A KR102075117B1 (ko) 2013-04-22 2013-04-22 사용자 기기 및 그 동작 방법

Country Status (2)

Country Link
US (1) US9836275B2 (ko)
KR (1) KR102075117B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10649599B2 (en) 2017-06-30 2020-05-12 Samsung Electronics Co., Ltd. Electronic device for detecting proximity of user and operation method thereof

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015012301A (ja) * 2013-06-26 2015-01-19 京セラ株式会社 携帯電話機、携帯端末、音声操作プログラムおよび音声操作方法
US9411446B2 (en) * 2013-11-04 2016-08-09 Google Technology Holdings LLC Electronic device with a touch sensor and method for operating the same
DE102014219763A1 (de) * 2014-09-30 2016-03-31 Robert Bosch Gmbh Verfahren und Vorrichtung zur Inbetriebnahme eines Smart-Home-Gerätes
KR20170011870A (ko) * 2015-07-24 2017-02-02 삼성전자주식회사 콘텐트를 제공하는 전자 장치 및 방법
US10621992B2 (en) * 2016-07-22 2020-04-14 Lenovo (Singapore) Pte. Ltd. Activating voice assistant based on at least one of user proximity and context
US20180143800A1 (en) * 2016-11-22 2018-05-24 Microsoft Technology Licensing, Llc Controls for dictated text navigation
US10664533B2 (en) 2017-05-24 2020-05-26 Lenovo (Singapore) Pte. Ltd. Systems and methods to determine response cue for digital assistant based on context
JP7026338B2 (ja) * 2018-04-04 2022-02-28 パナソニックIpマネジメント株式会社 電動工具
CH716065A1 (de) * 2019-04-03 2020-10-15 Jk Holding Gmbh Vorrichtung zum Einwirken auf zumindest Teile eines Körpers.

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110031797A (ko) * 2009-09-21 2011-03-29 삼성전자주식회사 휴대 단말기의 입력 장치 및 방법
JP2012216057A (ja) * 2011-03-31 2012-11-08 Toshiba Corp 音声処理装置、及び音声処理方法
WO2012166277A1 (en) * 2011-06-03 2012-12-06 Apple Inc. Motion-based device operations

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0574529A1 (en) * 1991-03-05 1993-12-22 The Gift Certificate Center, Inc. Method and apparatus for generating gift certificates
US6728681B2 (en) * 2001-01-05 2004-04-27 Charles L. Whitham Interactive multimedia book
US20090222270A2 (en) * 2006-02-14 2009-09-03 Ivc Inc. Voice command interface device
US20100138680A1 (en) * 2008-12-02 2010-06-03 At&T Mobility Ii Llc Automatic display and voice command activation with hand edge sensing
KR101566379B1 (ko) 2009-05-07 2015-11-13 삼성전자주식회사 입력 신호 종류 별 사용자 기능 활성화 방법 및 이를 지원하는 휴대 단말기
EP2275953B1 (en) * 2009-06-30 2018-10-24 LG Electronics Inc. Mobile terminal
US8294683B2 (en) * 2009-09-25 2012-10-23 Mitac International Corp. Method of processing touch commands and voice commands in parallel in an electronic device supporting speech recognition
US9031847B2 (en) * 2011-11-15 2015-05-12 Microsoft Technology Licensing, Llc Voice-controlled camera operations
US9711160B2 (en) * 2012-05-29 2017-07-18 Apple Inc. Smart dock for activating a voice recognition mode of a portable electronic device
US9411048B2 (en) * 2012-08-30 2016-08-09 Apple Inc. Electronic device with adaptive proximity sensor threshold

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110031797A (ko) * 2009-09-21 2011-03-29 삼성전자주식회사 휴대 단말기의 입력 장치 및 방법
JP2012216057A (ja) * 2011-03-31 2012-11-08 Toshiba Corp 音声処理装置、及び音声処理方法
WO2012166277A1 (en) * 2011-06-03 2012-12-06 Apple Inc. Motion-based device operations

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10649599B2 (en) 2017-06-30 2020-05-12 Samsung Electronics Co., Ltd. Electronic device for detecting proximity of user and operation method thereof

Also Published As

Publication number Publication date
US9836275B2 (en) 2017-12-05
US20140316777A1 (en) 2014-10-23
KR102075117B1 (ko) 2020-02-07

Similar Documents

Publication Publication Date Title
KR102075117B1 (ko) 사용자 기기 및 그 동작 방법
US9223540B2 (en) Electronic device and method for voice recognition upon charge transfer
CN107885533B (zh) 管理组件代码的方法及装置
KR102060155B1 (ko) 양면 디스플레이를 사용하는 전자장치의 멀티태스킹 제어 방법 및 장치
US9310898B2 (en) Method of controlling touch screen with input pen and electronic device thereof
WO2019179326A1 (zh) 一种应用界面显示方法、装置及移动设备
KR102087654B1 (ko) 수화음 누출을 방지하는 전자 장치
KR102180568B1 (ko) 힌지 구조를 갖는 전자 장치 및 그 동작 방법
ES2827004T3 (es) Procedimiento para procesar una página personalizada por el usuario y dispositivo móvil del mismo
KR20140131061A (ko) 터치 스크린 동작 방법 및 그 전자 장치
US20140111419A1 (en) Information processing apparatus, information processing method, and computer program product
KR20140112906A (ko) 사용자 기기 및 그 동작 방법
KR20150045637A (ko) 사용자 인터페이스 운용 방법 및 그 전자 장치
CN112230908A (zh) 一种对齐组件的方法、装置、电子设备及存储介质
CN107943484B (zh) 执行业务功能的方法和装置
CN111158575B (zh) 终端执行处理的方法、装置、设备以及存储介质
KR20150019061A (ko) 무선 연결 방법 및 그 전자 장치
CN110191236B (zh) 歌曲播放队列管理方法、装置、终端设备及存储介质
KR20140120261A (ko) 터치 스크린 제어 방법 및 그 전자 장치
KR102185204B1 (ko) 적외선을 이용한 센서 장치를 갖는 전자 장치 및 그 동작 방법
CN109101166B (zh) 音频控制方法、装置及存储介质
WO2019214694A1 (zh) 存储数据的方法、读取数据的方法、装置及系统
KR102120449B1 (ko) 어플리케이션 운용 방법 및 그 전자 장치
KR102158293B1 (ko) 이미지 촬영 방법 및 그 전자 장치
CN111049970B (zh) 操作设备的方法、装置、电子设备及介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant