RU2014104373A - Способ функционирования канала беспроводной связи и система портативного терминала - Google Patents

Способ функционирования канала беспроводной связи и система портативного терминала Download PDF

Info

Publication number
RU2014104373A
RU2014104373A RU2014104373/08A RU2014104373A RU2014104373A RU 2014104373 A RU2014104373 A RU 2014104373A RU 2014104373/08 A RU2014104373/08 A RU 2014104373/08A RU 2014104373 A RU2014104373 A RU 2014104373A RU 2014104373 A RU2014104373 A RU 2014104373A
Authority
RU
Russia
Prior art keywords
content
user
criterion
terminal
control unit
Prior art date
Application number
RU2014104373/08A
Other languages
English (en)
Other versions
RU2661791C2 (ru
Inventor
Дзихиун АХН
Сора КИМ
Дзинйонг КИМ
Хиункянг КИМ
Хеевоон КИМ
Юми АХН
Original Assignee
Самсунг Электроникс Ко., Лтд.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Самсунг Электроникс Ко., Лтд. filed Critical Самсунг Электроникс Ко., Лтд.
Publication of RU2014104373A publication Critical patent/RU2014104373A/ru
Application granted granted Critical
Publication of RU2661791C2 publication Critical patent/RU2661791C2/ru

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • G10L15/25Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/74Details of telephonic subscriber devices with voice recognition means

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Environmental & Geological Engineering (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Child & Adolescent Psychology (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

1. Мобильный терминал, поддерживающий функцию голосового общения, причем терминал содержит:блок отображения,блок обработки звука,блок управления, выполненный с возможностью выбора контента, соответствующего первому критерию, ассоциированному с пользователем, в ответ на ввод от пользователя, определения схемы вывода контента на основании второго критерия, ассоциированного с пользователем, и вывода выбранного контента через блок отображения и блок обработки звука в соответствии со схемой вывода контента.2. Терминал по п. 1, в котором первый критерий представляет собой текущее эмоциональное состояние пользователя, а второй критерий представляет собой информацию о пользователе, включающую в себя по меньшей мере одно из возраста и пола пользователя.3. Терминал по п. 1, в котором блок управления выбирает контент, соответствующий первому критерию, причем соответствующий контент содержит по меньшей мере один предварительно определенный контент, ассоциированный с эмоциональным состоянием пользователя.4. Терминал по п. 1, в котором блок управления выбирает контент на основании первого критерия и истории прошлых воспроизведений контента пользователя.5. Терминал по п. 1, в котором блок управления выбирает контент на основании первого критерия и информации о текущем местоположении терминала.6. Терминал по п. 1, в котором блок управления выбирает контент на основании истории вывода контента в связи с прошлыми эмоциональными состояниями пользователя.7. Терминал по п. 1, в котором блок обработки звука принимает речь пользователя, а блок управления выбирает контент, соответствующий фразе, полученной из упомянутой речи, на �

Claims (30)

1. Мобильный терминал, поддерживающий функцию голосового общения, причем терминал содержит:
блок отображения,
блок обработки звука,
блок управления, выполненный с возможностью выбора контента, соответствующего первому критерию, ассоциированному с пользователем, в ответ на ввод от пользователя, определения схемы вывода контента на основании второго критерия, ассоциированного с пользователем, и вывода выбранного контента через блок отображения и блок обработки звука в соответствии со схемой вывода контента.
2. Терминал по п. 1, в котором первый критерий представляет собой текущее эмоциональное состояние пользователя, а второй критерий представляет собой информацию о пользователе, включающую в себя по меньшей мере одно из возраста и пола пользователя.
3. Терминал по п. 1, в котором блок управления выбирает контент, соответствующий первому критерию, причем соответствующий контент содержит по меньшей мере один предварительно определенный контент, ассоциированный с эмоциональным состоянием пользователя.
4. Терминал по п. 1, в котором блок управления выбирает контент на основании первого критерия и истории прошлых воспроизведений контента пользователя.
5. Терминал по п. 1, в котором блок управления выбирает контент на основании первого критерия и информации о текущем местоположении терминала.
6. Терминал по п. 1, в котором блок управления выбирает контент на основании истории вывода контента в связи с прошлыми эмоциональными состояниями пользователя.
7. Терминал по п. 1, в котором блок обработки звука принимает речь пользователя, а блок управления выбирает контент, соответствующий фразе, полученной из упомянутой речи, на основании первого критерия.
8. Терминал по п. 7, в котором блок управления получает второй критерий на основании слов, составляющих упомянутую фразу.
9. Терминал по п. 1, в котором блок управления изменяет по меньшей мере одно из слов, составляющих контент, скорости вывода контента и размера вывода контента, основываясь на втором критерии, и выводит контент в соответствии со схемой вывода контента.
10. Терминал по п. 1, в котором блок обработки звука принимает речь пользователя и, когда фраза, полученная из упомянутой речи, представляет собой запрос на изменение схемы вывода контента, блок управления изменяет схему вывода контента.
11. Терминал по п. 1, в котором блок управления изменяет схему вывода контента, определенную на основании второго критерия, используя историю прошлых схем вывода контента пользователя, и выводит контент в соответствии с измененной схемой вывода контента.
12. Терминал по п. 1, дополнительно содержащий блок камеры, который захватывает изображение лица пользователя, при этом блок управления автоматически получает первый критерий, основываясь на изображении лица пользователя.
13. Терминал по п. 12, в котором блок управления получает первый критерий из предварительно определенной информации о выражении для каждого эмоционального состояния на основании выражений лица, полученных из изображения лица пользователя.
14. Терминал по п. 1, дополнительно содержащий блок камеры, который захватывает изображение лица пользователя, при этом блок обработки звука принимает речь пользователя, а блок управления автоматически получает второй критерий на основании по меньшей мере одного из изображения лица и речи пользователя.
15. Терминал по п. 1, в котором блок управления принимает первый и второй критерии через блок обработки звука.
16. Способ голосового общения мобильного терминала, причем способ содержит:
выбор контента, соответствующего первому критерию, ассоциированному с пользователем, в ответ на ввод от пользователя,
определение схемы вывода контента на основании второго критерия, ассоциированного с пользователем, и
вывод выбранного контента через блок отображения и блок обработки звука мобильного терминала в соответствии со схемой вывода контента.
17. Способ по п. 16, в котором первый критерий представляет собой текущее эмоциональное состояние пользователя, а второй критерий представляет собой информацию о пользователе, включающую в себя по меньшей мере одно из возраста и пола пользователя.
18. Способ по п. 16, в котором выбор контента содержит выбор контента, соответствующего первому критерию, при этом соответствующий контент содержит по меньшей мере один предварительно определенный контент, ассоциированный с эмоциональным состоянием пользователя.
19. Способ по п. 16, в котором выбор контента содержит выбор контента на основании первого критерия и истории прошлых воспроизведений контента пользователя.
20. Способ по п. 16, в котором выбор контента содержит выбор контента на основании первого критерия и информации о текущем местоположении терминала.
21. Способ по п. 16, в котором выбор контента содержит выбор контента на основании истории вывода контента в связи с прошлыми эмоциональными состояниями пользователя.
22. Способ по п. 16, дополнительно содержащий прием речи пользователя, причем выбор контента содержит выбор контента, соответствующего фразе, полученной из упомянутой речи, на основании первого критерия.
23. Способ по п. 22, дополнительно содержащий получение второго критерия на основании слов, составляющих упомянутую фразу.
24. Способ по п. 16, в котором определение схемы вывода контента содержит изменение по меньшей мере одного из слов, составляющих контент, скорости вывода контента и размера вывода контента на основании второго критерия, и вывод контента в соответствии со схемой вывода контента.
25. Способ по п. 24, дополнительно содержащий прием речи пользователя, и при этом определение схемы вывода контента содержит, когда фраза, полученная из упомянутой речи, представляет собой запрос на изменение схемы вывода контента, изменение схемы вывода контента.
26. Способ по п. 16, в котором определение схемы вывода контента содержит изменение схемы вывода контента, определенной на основании второго критерия с использованием истории прошлых схем вывода контента пользователя.
27. Способ по п. 16, дополнительно содержащий:
прием изображения лица пользователя, и
автоматическое получение первого критерия на основании изображения лица пользователя.
28. Способ по п. 27, в котором получение первого критерия содержит получение первого критерия из предварительно определенной информации о выражении для каждого эмоционального состояния на основании выражений лица, полученных из изображения лица пользователя.
29. Способ по п. 16, дополнительно содержащий:
прием по меньшей мере одного из изображения лица и речи пользователя, и
автоматическое получение второго критерия на основании по меньшей мере одного из изображения лица и речи пользователя.
30. Способ по п. 16, дополнительно содержащий прием первого и второго критериев через блок обработки звука.
RU2014104373A 2013-02-07 2014-02-07 Способ функционирования канала беспроводной связи и система портативного терминала RU2661791C2 (ru)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020130013757A KR102050897B1 (ko) 2013-02-07 2013-02-07 음성 대화 기능을 구비한 휴대 단말기 및 이의 음성 대화 방법
KR10-2013-0013757 2013-02-07

Publications (2)

Publication Number Publication Date
RU2014104373A true RU2014104373A (ru) 2015-08-20
RU2661791C2 RU2661791C2 (ru) 2018-07-19

Family

ID=50072918

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2014104373A RU2661791C2 (ru) 2013-02-07 2014-02-07 Способ функционирования канала беспроводной связи и система портативного терминала

Country Status (10)

Country Link
US (1) US20140222432A1 (ru)
EP (1) EP2765762B1 (ru)
JP (1) JP6541934B2 (ru)
KR (1) KR102050897B1 (ru)
CN (1) CN103984408A (ru)
AU (1) AU2014200660B2 (ru)
BR (1) BR102014003021A2 (ru)
CA (1) CA2842005A1 (ru)
RU (1) RU2661791C2 (ru)
TW (1) TWI628650B (ru)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230173231A (ko) 2013-03-11 2023-12-26 매직 립, 인코포레이티드 증강 및 가상 현실을 위한 시스템 및 방법
KR102560629B1 (ko) 2013-03-15 2023-07-26 매직 립, 인코포레이티드 디스플레이 시스템 및 방법
US10431209B2 (en) * 2016-12-30 2019-10-01 Google Llc Feedback controller for data transmissions
KR102340251B1 (ko) * 2014-06-27 2021-12-16 삼성전자주식회사 데이터 관리 방법 및 그 방법을 처리하는 전자 장치
JP6596865B2 (ja) * 2015-03-23 2019-10-30 日本電気株式会社 電話機、電話システム、電話機の音量設定方法、及びプログラム
JP6601069B2 (ja) * 2015-09-01 2019-11-06 カシオ計算機株式会社 対話制御装置、対話制御方法及びプログラム
KR20170034154A (ko) * 2015-09-18 2017-03-28 삼성전자주식회사 콘텐츠 제공 방법 및 이를 수행하는 전자 장치
CN105700682A (zh) * 2016-01-08 2016-06-22 北京乐驾科技有限公司 基于视觉和语音的智能性别、情绪识别检测系统及方法
JP6927989B2 (ja) 2016-02-25 2021-09-01 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. コールの優先度レベルおよび/または会話継続時間を決定するための通信装置および方法
WO2018020766A1 (ja) * 2016-07-28 2018-02-01 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10276149B1 (en) * 2016-12-21 2019-04-30 Amazon Technologies, Inc. Dynamic text-to-speech output
CN106873800A (zh) * 2017-02-20 2017-06-20 北京百度网讯科技有限公司 信息输出方法和装置
US20180350371A1 (en) * 2017-05-31 2018-12-06 Lenovo (Singapore) Pte. Ltd. Adjust output settings based on an identified user
US10983753B2 (en) 2017-06-09 2021-04-20 International Business Machines Corporation Cognitive and interactive sensor based smart home solution
JP7073640B2 (ja) * 2017-06-23 2022-05-24 カシオ計算機株式会社 電子機器、感情情報取得システム、プログラム及び感情情報取得方法
CN108920129A (zh) * 2018-07-27 2018-11-30 联想(北京)有限公司 信息处理方法和信息处理系统
CN112639579B (zh) 2018-08-31 2023-09-15 奇跃公司 用于增强现实装置的空间分辨的动态调暗
CN109637519B (zh) * 2018-11-13 2020-01-21 百度在线网络技术(北京)有限公司 语音交互实现方法、装置、计算机设备及存储介质
JP6533634B1 (ja) * 2018-12-25 2019-06-19 クックパッド株式会社 サーバ装置、情報処理端末、システム、方法およびプログラム
JP2022517207A (ja) 2019-01-11 2022-03-07 マジック リープ, インコーポレイテッド 種々の深度における仮想コンテンツの時間多重化された表示
KR20200111853A (ko) 2019-03-19 2020-10-05 삼성전자주식회사 전자 장치 및 전자 장치의 음성 인식 제어 방법
KR102388465B1 (ko) * 2020-02-26 2022-04-21 최갑천 가상 콘텐츠 생성 방법
JP7469211B2 (ja) 2020-10-21 2024-04-16 東京瓦斯株式会社 対話型コミュニケーション装置、コミュニケーションシステム及びプログラム
CN113380240B (zh) * 2021-05-07 2022-04-12 荣耀终端有限公司 语音交互方法和电子设备

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08255150A (ja) * 1995-03-17 1996-10-01 Toshiba Corp 情報公開装置及びマルチモーダル情報入出力システム
JPH10326176A (ja) * 1997-05-23 1998-12-08 Oki Hokuriku Syst Kaihatsu:Kk 音声対話制御方法
JP2001215993A (ja) * 2000-01-31 2001-08-10 Sony Corp 対話処理装置および対話処理方法、並びに記録媒体
KR20020067921A (ko) * 2000-10-23 2002-08-24 소니 가부시끼 가이샤 각식 로봇 및 각식 로봇의 행동 제어 방법, 및 기억 매체
US6964023B2 (en) * 2001-02-05 2005-11-08 International Business Machines Corporation System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input
JP2003046980A (ja) * 2001-08-02 2003-02-14 Matsushita Electric Ind Co Ltd 要求応答方法、装置及びプログラム
US9374451B2 (en) * 2002-02-04 2016-06-21 Nokia Technologies Oy System and method for multimodal short-cuts to digital services
JP2004310034A (ja) * 2003-03-24 2004-11-04 Matsushita Electric Works Ltd 対話エージェントシステム
JP2005065252A (ja) * 2003-07-29 2005-03-10 Fuji Photo Film Co Ltd 携帯電話機
US7881934B2 (en) * 2003-09-12 2011-02-01 Toyota Infotechnology Center Co., Ltd. Method and system for adjusting the voice prompt of an interactive system based upon the user's state
JP2005157494A (ja) * 2003-11-20 2005-06-16 Aruze Corp 会話制御装置及び会話制御方法
JP2005275601A (ja) * 2004-03-23 2005-10-06 Fujitsu Ltd 音声による情報検索システム
JP2006048663A (ja) * 2004-06-30 2006-02-16 Metallic House Inc 商品・サービス受発注システム及び商品・サービス受発注方法、並びにサーバ装置及び端末装置
JP2006146630A (ja) * 2004-11-22 2006-06-08 Sony Corp コンテンツ選択再生装置、コンテンツ選択再生方法、コンテンツ配信システムおよびコンテンツ検索システム
US8214214B2 (en) * 2004-12-03 2012-07-03 Phoenix Solutions, Inc. Emotion detection device and method for use in distributed systems
TWI475862B (zh) * 2005-02-04 2015-03-01 高通公司 無線通信之安全引導
US7490042B2 (en) * 2005-03-29 2009-02-10 International Business Machines Corporation Methods and apparatus for adapting output speech in accordance with context of communication
US7672931B2 (en) * 2005-06-30 2010-03-02 Microsoft Corporation Searching for content using voice search queries
US20070288898A1 (en) * 2006-06-09 2007-12-13 Sony Ericsson Mobile Communications Ab Methods, electronic devices, and computer program products for setting a feature of an electronic device based on at least one user characteristic
KR20090085376A (ko) * 2008-02-04 2009-08-07 삼성전자주식회사 문자 메시지의 음성 합성을 이용한 서비스 방법 및 장치
JP2010057050A (ja) * 2008-08-29 2010-03-11 Sharp Corp 情報端末装置、情報配信装置、情報配信システム及びプログラム
JP2012513147A (ja) * 2008-12-19 2012-06-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 通信を適応させる方法、システム及びコンピュータプログラム
US8340974B2 (en) * 2008-12-30 2012-12-25 Motorola Mobility Llc Device, system and method for providing targeted advertisements and content based on user speech data
JP2010181461A (ja) * 2009-02-03 2010-08-19 Olympus Corp デジタルフォトフレーム、情報処理システム、プログラム及び情報記憶媒体
KR101625668B1 (ko) * 2009-04-20 2016-05-30 삼성전자 주식회사 전자기기 및 전자기기의 음성인식방법
US10540976B2 (en) * 2009-06-05 2020-01-21 Apple Inc. Contextual voice commands
EP2437213A1 (en) * 2009-06-16 2012-04-04 Intel Corporation Camera applications in a handheld device
US20120011477A1 (en) * 2010-07-12 2012-01-12 Nokia Corporation User interfaces
KR101916107B1 (ko) * 2011-12-18 2018-11-09 인포뱅크 주식회사 통신 단말 및 그 통신 단말의 정보처리 방법
CN102541259A (zh) * 2011-12-26 2012-07-04 鸿富锦精密工业(深圳)有限公司 电子设备及其根据脸部表情提供心情服务的方法

Also Published As

Publication number Publication date
JP6541934B2 (ja) 2019-07-10
AU2014200660A1 (en) 2014-08-21
TW201435857A (zh) 2014-09-16
US20140222432A1 (en) 2014-08-07
KR20140100704A (ko) 2014-08-18
CA2842005A1 (en) 2014-08-07
TWI628650B (zh) 2018-07-01
KR102050897B1 (ko) 2019-12-02
CN103984408A (zh) 2014-08-13
AU2014200660B2 (en) 2019-05-16
EP2765762A1 (en) 2014-08-13
EP2765762B1 (en) 2019-07-10
RU2661791C2 (ru) 2018-07-19
BR102014003021A2 (pt) 2018-04-10
JP2014153715A (ja) 2014-08-25

Similar Documents

Publication Publication Date Title
RU2014104373A (ru) Способ функционирования канала беспроводной связи и система портативного терминала
KR101782923B1 (ko) 유사성 확정 방법, 장치, 단말, 프로그램 및 저장매체
US9344815B2 (en) Method for augmenting hearing
US10498673B2 (en) Device and method for providing user-customized content
WO2015143875A1 (zh) 内容呈现方法,内容呈现方式的推送方法和智能终端
RU2628473C2 (ru) Способ и устройство для оптимизации звукового сигнала
US20220277752A1 (en) Voice interaction method and related apparatus
WO2021128880A1 (zh) 一种语音识别方法、装置和用于语音识别的装置
CN108337362A (zh) 语音交互方法、装置、设备和存储介质
US20170311004A1 (en) Video processing method and device
CN105489220B (zh) 语音识别方法及装置
US9978372B2 (en) Method and device for analyzing data from a microphone
US20140229752A1 (en) User device and operation method thereof
JP2017515395A5 (ru)
US20180150202A1 (en) Expression curve generating method based on voice input and device thereof
WO2017041510A1 (zh) 一种语音输出方法及装置
KR20210062704A (ko) 인간-컴퓨터 상호작용 방법 및 전자 장치
US20140079227A1 (en) Method for adjusting volume and electronic device thereof
JP2018508086A (ja) 入力処理方法、装置及び機器
CN108073572B (zh) 信息处理方法及其装置、同声翻译系统
WO2021128752A1 (zh) 通话方法、装置、系统、服务器及存储介质
US11335348B2 (en) Input method, device, apparatus, and storage medium
CN105139848B (zh) 数据转换方法和装置
US12047660B2 (en) Information processing apparatus, information processing method, and program
CN107801282B (zh) 台灯、台灯控制方法及装置