JP2018190413A - ユーザ発話の表現法を把握して機器の動作やコンテンツ提供範囲を調整し提供するユーザ命令処理方法およびシステム - Google Patents
ユーザ発話の表現法を把握して機器の動作やコンテンツ提供範囲を調整し提供するユーザ命令処理方法およびシステム Download PDFInfo
- Publication number
- JP2018190413A JP2018190413A JP2018085215A JP2018085215A JP2018190413A JP 2018190413 A JP2018190413 A JP 2018190413A JP 2018085215 A JP2018085215 A JP 2018085215A JP 2018085215 A JP2018085215 A JP 2018085215A JP 2018190413 A JP2018190413 A JP 2018190413A
- Authority
- JP
- Japan
- Prior art keywords
- user
- option
- options
- user command
- determined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000012545 processing Methods 0.000 title claims abstract description 28
- 230000009471 action Effects 0.000 claims description 61
- 238000013473 artificial intelligence Methods 0.000 claims description 38
- 238000003672 processing method Methods 0.000 claims description 27
- 238000004590 computer program Methods 0.000 claims description 24
- 230000004044 response Effects 0.000 claims description 14
- 230000001154 acute effect Effects 0.000 claims description 10
- 230000035945 sensitivity Effects 0.000 claims description 10
- 230000008921 facial expression Effects 0.000 claims description 3
- 230000035807 sensation Effects 0.000 claims 2
- 230000006870 function Effects 0.000 description 14
- 230000015654 memory Effects 0.000 description 14
- 230000005611 electricity Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 6
- 238000012790 confirmation Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000011161 development Methods 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 230000009118 appropriate response Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/26—Devices for calling a subscriber
- H04M1/27—Devices whereby a plurality of signals may be stored simultaneously
- H04M1/271—Devices whereby a plurality of signals may be stored simultaneously controlled by voice recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/26—Devices for calling a subscriber
- H04M1/27—Devices whereby a plurality of signals may be stored simultaneously
- H04M1/274—Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc
- H04M1/2745—Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc using static electronic memories, e.g. chips
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Abstract
【解決手段】ユーザ命令にしたがって実行可能な少なくとも1つの予め定義された動作を管理する段階510、ユーザから受信された音声入力を少なくとも含むユーザ命令を受信する段階520、音声入力から抽出されたキーワードに対応する動作を選択する段階530、少なくとも1つの予め定義された動作それぞれと関連して複数のオプションが予め設定される段階550、選択された動作と関連して予め設定された複数のオプションのうちから抽出されたキーワードに対応する少なくとも1つのオプションを決定する段階560、音声入力の表現法に基づいて複数のオプションのうちから少なくとも1つのオプションを決定する段階および決定された少なくとも1つのオプションと連係して選択された動作を実行する段階570を含む。
【選択図】図5
Description
320:クラウド人工知能プラットフォーム
330:コンテンツ・サービス
340:インタフェースコネクト
350:拡張キット
Claims (20)
- コンピュータで実現される電子機器にユーザ命令処理方法を実行させるためのコンピュータプログラムであって、
前記ユーザ命令処理方法は、
ユーザ命令にしたがって実行可能な少なくとも1つの予め定義された動作を管理する段階であって、前記少なくとも1つの予め定義された動作それぞれと関連して複数のオプションが予め設定される、段階、
ユーザから受信された音声入力を少なくとも含むユーザ命令を受信する段階、
前記音声入力から抽出されたキーワードに対応する動作を選択する段階、
前記の選択された動作と関連して予め設定された複数のオプションのうちから前記抽出されたキーワードに対応する少なくとも1つのオプションを決定する段階であって、前記音声入力の表現法に基づいて前記複数のオプションのうちから少なくとも1つのオプションを決定する段階、および
前記の決定された少なくとも1つのオプションと連係して前記の選択された動作を実行する段階
を含む、コンピュータプログラム。 - 少なくとも1つのオプションを決定する前記段階は、
前記音声入力の表現法に基づいてオプションを決定することができない場合、前記ユーザによって前記複数のオプションのうちから少なくとも1つのオプションが選択されるようにするための情報を出力する段階、および
前記の出力された情報の応答として受信された追加音声入力にしたがい、前記複数のオプションのうちから少なくとも1つのオプションを決定する段階
を含む、請求項1に記載のコンピュータプログラム。 - 前記の選択された動作を実行する前記段階は、
前記の決定された少なくとも1つのオプションと連係して前記の選択された動作を実行することに対する実施可否を前記ユーザによって確認されるようにするための情報を出力する段階、
該情報の応答として第1追加音声入力を受信する段階、および
前記第1追加音声入力から実施賛成の返答が抽出された場合、前記の決定された少なくとも1つのオプションと連係して前記の選択された動作を実行する段階
を含む、請求項1に記載のコンピュータプログラム。 - 前記の選択された動作を実行する前記段階は、
前記第1追加音声入力から実施反対の返答が抽出された場合、前記ユーザによって前記複数のオプションのうちから少なくとも1つの他のオプションが選択されるようにするための情報を出力する段階、
該情報の応答である第2追加音声入力にしたがい、前記複数のオプションのうちから少なくとも1つの他のオプションを決定する段階、および
前記の決定された少なくとも1つの他のオプションと連係して前記の選択された動作を実行する段階
を含む、請求項3に記載のコンピュータプログラム。 - 前記音声入力の表現法は、前記の選択された動作と関連する人物と前記ユーザとの間の社会的関係を示す表現を含み、
少なくとも1つのオプションを決定する前記段階は、
前記表現によって把握される前記ユーザとの社会的関係に基づき、前記複数のオプションのうちから少なくとも1つのオプションを決定する、請求項1に記載のコンピュータプログラム。 - 前記複数のオプションは、前記電子機器と連動する複数の機器に対応し、
少なくとも1つのオプションを決定する前記段階は、
前記複数の機器のうちから前記ユーザとの社会的関係に基づいて選択された人物と関連する少なくとも1つの機器を決定し、
前記の選択された動作を実行する前記段階は、
前記の決定された少なくとも1つの機器と連係して前記の選択された動作を実行する、請求項5に記載のコンピュータプログラム。 - 前記複数のオプションは、前記ユーザと人的関係が設定された他のユーザのメッセンジャーアカウントまたは電話番号に対応し、
少なくとも1つのオプションを決定する前記段階は、
複数の機器のうちから前記ユーザとの社会的関係に基づいて選択された他のユーザのメッセンジャーアカウントまたは電話番号を決定し、
前記の選択された動作を実行する前記段階は、
前記の決定されたメッセンジャーアカウントまたは電話番号と連係して前記の選択された動作を実行する、請求項5に記載のコンピュータプログラム。 - 前記音声入力の表現法は、前記音声入力から得られた前記ユーザの口調および語調のうちの少なくとも1つに基づいて分析されたユーザ命令の至急性およびユーザ感性のうちの少なくとも1つを含み、
少なくとも1つのオプションを決定する前記段階は、
前記ユーザ命令の至急性および前記ユーザ感性のうちの少なくとも1つに基づき、前記複数のオプションのうちから少なくとも1つのオプションを決定する、請求項1に記載のコンピュータプログラム。 - 前記複数のオプションは、前記動作と連係するコンテンツの特性分類または前記コンテンツと関連する情報の提供方式に対応し、
少なくとも1つのオプションを決定する前記段階は、
前記ユーザ命令の至急性および前記ユーザ感性のうちの少なくとも1つに基づき、前記の選択された動作と連係するコンテンツの特性分類のうちから少なくとも1つの分類を決定するか、または前記コンテンツと関連する情報の提供方式のうちから少なくとも1つの方式を決定し、
前記の選択された動作を実行する前記段階は、
前記の決定された少なくとも1つの分類または前記の決定された少なくとも1つの方式にしたがい、前記コンテンツと連係して前記の選択された動作を実行する、請求項8に記載のコンピュータプログラム。 - 少なくとも1つのオプションを決定する前記段階は、
前記ユーザの状況データをさらに活用して前記複数のオプションのうちから少なくとも1つのオプションを決定し、
前記状況データは、前記ユーザの電話番号または前記ユーザのメッセンジャーアカウントと関連して送受信されたインスタントメッセージおよび前記電子機器が含むカメラで認識された前記ユーザの顔表情のうちの少なくとも1つを含む、請求項1に記載のコンピュータプログラム。 - 前記電子機器は、スマートホームに含まれている機器と連動して前記機器を制御するか、またはインターネットを介して前記ユーザ命令に対するコンテンツを提供する人工知能スピーカを含む、請求項1に記載のコンピュータプログラム。
- 前記ユーザ命令処理方法は、
前記音声入力を、インタフェースコネクトを介して前記電子機器と接続するクラウド人工知能プラットフォームに送信する段階、および
前記クラウド人工知能プラットフォームで、前記音声入力から抽出されたキーワード、該抽出されたキーワードに基づいて推薦された動作、該抽出されたキーワードに対応するオプション、および前記音声入力の表現法に基づいて決定されたオプションのうちの少なくとも1つに関する情報を受信する段階
をさらに含む、請求項1に記載のコンピュータプログラム。 - 電子機器が実行するユーザ命令処理方法であって、
ユーザ命令にしたがって実行可能な少なくとも1つの予め定義された動作を管理する段階であって、前記少なくとも1つの予め定義された動作それぞれと関連して複数のオプションが予め設定される、段階、
ユーザから受信された音声入力を少なくとも含むユーザ命令を受信する段階、
前記音声入力から抽出されたキーワードに対応する動作を選択する段階、
前記の選択された動作と関連して予め設定された複数のオプションのうちから前記抽出されたキーワードに対応する少なくとも1つのオプションを決定する段階であって、前記音声入力の表現法に基づいて前記複数のオプションのうちから少なくとも1つのオプションを決定する段階、および
前記の決定された少なくとも1つのオプションと連係して前記の選択された動作を実行する段階
を含む、ユーザ命令処理方法。 - 前記音声入力の表現法は、前記の選択された動作と関連する人物と前記ユーザとの間の社会的関係を示す表現を含み、
少なくとも1つのオプションを決定する前記段階は、
前記表現によって把握される前記ユーザとの社会的関係に基づき、前記複数のオプションのうちから少なくとも1つのオプションを決定する、請求項13に記載のユーザ命令処理方法。 - 前記複数のオプションは、前記電子機器と連動する複数の機器に対応し、
少なくとも1つのオプションを決定する前記段階は、
前記複数の機器のうちから前記ユーザとの社会的関係に基づいて選択された人物と関連する少なくとも1つの機器を決定し、
前記の選択された動作を実行する前記段階は、
前記の決定された少なくとも1つの機器と連係して前記の選択された動作を実行する、請求項14に記載のユーザ命令処理方法。 - 前記音声入力の表現法は、前記音声入力から得られた前記ユーザの口調および語調のうちの少なくとも1つに基づいて分析されたユーザ命令の至急性およびユーザ感性のうちの少なくとも1つを含み、
少なくとも1つのオプションを決定する前記段階は、
前記ユーザ命令の至急性および前記ユーザ感性のうちの少なくとも1つに基づき、前記複数のオプションのうちから少なくとも1つのオプションを決定する、請求項13に記載のユーザ命令処理方法。 - 前記複数のオプションは、前記動作と連係するコンテンツの特性分類または前記コンテンツと関連する情報の提供方式に対応し、
少なくとも1つのオプションを決定する前記段階は、
前記ユーザ命令の至急性および前記ユーザ感性のうちの少なくとも1つに基づき、前記の選択された動作と連係するコンテンツの特性分類のうちから少なくとも1つの分類を決定するか、または前記コンテンツと関連する情報の提供方式のうちから少なくとも1つの方式を決定し、
前記の選択された動作を実行する前記段階は、
前記の決定された少なくとも1つの分類または前記の決定された少なくとも1つの方式にしたがい、前記コンテンツと連係して前記の選択された動作を実行する、請求項16に記載のユーザ命令処理方法。 - ユーザ命令処理システムであって、
コンピュータ読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサ
を含み、
前記少なくとも1つのプロセッサは、
ユーザ命令にしたがって実行可能な少なくとも1つの予め定義された動作を管理する段階であって、前記少なくとも1つの予め定義された動作それぞれと関連して複数のオプションが予め設定される、段階、
ユーザから受信された音声入力を少なくとも含むユーザ命令を受信する段階、
前記音声入力から抽出されたキーワードに対応する動作を選択する段階、
前記の選択された動作と関連して予め設定された複数のオプションのうちから前記抽出されたキーワードに対応する少なくとも1つのオプションを決定する段階であって、前記音声入力の表現法に基づいて前記複数のオプションのうちから少なくとも1つのオプションを決定する段階、および
前記の決定された少なくとも1つのオプションと連係して前記の選択された動作を実行する段階
を実行する、ユーザ命令処理システム。 - 前記音声入力の表現法は、前記の選択された動作と関連する人物と前記ユーザとの間の社会的関係を示す表現を含み、
前記少なくとも1つのプロセッサは、前記複数のオプションのうちから少なくとも1つのオプションを決定するために、
前記表現によって把握される前記ユーザとの社会的関係に基づき、前記複数のオプションのうちから少なくとも1つのオプションを決定する、請求項18に記載のユーザ命令処理システム。 - 前記音声入力の表現法は、前記音声入力から得られた前記ユーザの口調および語調のうちの少なくとも1つに基づいて分析されたユーザ命令の至急性およびユーザ感性のうちの少なくとも1つを含み、
前記少なくとも1つのプロセッサは、前記複数のオプションのうちから少なくとも1つのオプションを決定するために、
前記ユーザ命令の至急性および前記ユーザ感性のうちの少なくとも1つに基づき、前記複数のオプションのうちから少なくとも1つのオプションを決定する、請求項18に記載のユーザ命令処理システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170056128A KR101949497B1 (ko) | 2017-05-02 | 2017-05-02 | 사용자 발화의 표현법을 파악하여 기기의 동작이나 컨텐츠 제공 범위를 조정하여 제공하는 사용자 명령 처리 방법 및 시스템 |
KR10-2017-0056128 | 2017-05-02 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018190413A true JP2018190413A (ja) | 2018-11-29 |
Family
ID=64015405
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018085215A Pending JP2018190413A (ja) | 2017-05-02 | 2018-04-26 | ユーザ発話の表現法を把握して機器の動作やコンテンツ提供範囲を調整し提供するユーザ命令処理方法およびシステム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10657963B2 (ja) |
JP (1) | JP2018190413A (ja) |
KR (1) | KR101949497B1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI651714B (zh) * | 2017-12-22 | 2019-02-21 | 隆宸星股份有限公司 | 語音選項選擇系統與方法以及使用其之智慧型機器人 |
CN112313924A (zh) * | 2018-05-07 | 2021-02-02 | 谷歌有限责任公司 | 提供用于控制各种连接设备的复合图形助理界面 |
KR102088322B1 (ko) * | 2018-11-16 | 2020-03-12 | 엘지전자 주식회사 | 인공지능 기반의 어플라이언스 제어 장치 및 그를 포함하는 어플라이언스 제어 시스템 |
CN113711307B (zh) * | 2019-04-23 | 2023-06-27 | 三菱电机株式会社 | 设备控制装置及设备控制方法 |
US11211045B2 (en) * | 2019-05-29 | 2021-12-28 | Lg Electronics Inc. | Artificial intelligence apparatus and method for predicting performance of voice recognition model in user environment |
US20210027409A1 (en) * | 2019-07-23 | 2021-01-28 | Ola Electric Mobility Private Limited | Methods and Systems for Facilitating Safety and Security of Users |
CN110519373B (zh) * | 2019-08-28 | 2022-04-26 | 百度在线网络技术(北京)有限公司 | 用于推送信息的方法和装置 |
KR20210059367A (ko) | 2019-11-15 | 2021-05-25 | 삼성전자주식회사 | 음성 입력 처리 방법 및 이를 지원하는 전자 장치 |
GB2590473B (en) * | 2019-12-19 | 2022-07-27 | Samsung Electronics Co Ltd | Method and apparatus for dynamic human-computer interaction |
CN113115251B (zh) * | 2020-01-09 | 2023-10-31 | 博泰车联网科技(上海)股份有限公司 | 用于信息处理的方法、设备和计算机存储介质 |
KR20210111423A (ko) * | 2020-03-03 | 2021-09-13 | 삼성전자주식회사 | 사용자 입력을 처리하는 전자 장치 및 방법 |
US11917092B2 (en) * | 2020-06-04 | 2024-02-27 | Syntiant | Systems and methods for detecting voice commands to generate a peer-to-peer communication link |
US11769489B2 (en) | 2021-01-28 | 2023-09-26 | Samsung Electronics Co., Ltd. | Electronic device and method for performing shortcut command in electronic device |
KR20220108919A (ko) * | 2021-01-28 | 2022-08-04 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 단축 명령어 수행 방법 |
KR20220125566A (ko) * | 2021-03-05 | 2022-09-14 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 기기 연결 방법 |
KR20220133414A (ko) | 2021-03-25 | 2022-10-05 | 삼성전자주식회사 | 음성 어시스턴트 서비스 제공 방법 및 이를 지원하는 전자 장치 |
CN113643701B (zh) * | 2021-07-27 | 2024-04-12 | 广州市威士丹利智能科技有限公司 | 一种智能识别语音控制家居的方法及统 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11119791A (ja) * | 1997-10-20 | 1999-04-30 | Hitachi Ltd | 音声感情認識システムおよび方法 |
JP2000187776A (ja) * | 1998-06-09 | 2000-07-04 | Digicube Co Ltd | 情報提供装置、情報提供システム、情報提供処理方法、及び記録媒体 |
JP2002320037A (ja) * | 2001-04-19 | 2002-10-31 | Atr Onsei Gengo Tsushin Kenkyusho:Kk | 翻訳電話システム |
JP2003216690A (ja) * | 2002-01-18 | 2003-07-31 | Fujita Corp | 情報管理システム |
JP2004219714A (ja) * | 2003-01-15 | 2004-08-05 | Will Being:Kk | 人間からの指示に基づいてそれぞれ予め定めた特定のシーンに属する対話のシーンを識別し、シーンに即した自然対話を構成する応答文を作成して、それを音声合成することにより、音声対話を行うコンピュータによる音声対話方法及び音声対話システム |
JP2005275601A (ja) * | 2004-03-23 | 2005-10-06 | Fujitsu Ltd | 音声による情報検索システム |
JP2009282936A (ja) * | 2008-05-26 | 2009-12-03 | Nippon Telegr & Teleph Corp <Ntt> | 選択式情報提示装置および選択式情報提示処理プログラム |
JP2010210847A (ja) * | 2009-03-10 | 2010-09-24 | Clarion Co Ltd | 楽曲選択方法、楽曲選択プログラム、及び楽曲選択装置 |
JP2011028460A (ja) * | 2009-07-24 | 2011-02-10 | J&K Car Electronics Corp | 情報検索装置、制御方法及びプログラム |
JP2015079237A (ja) * | 2013-10-15 | 2015-04-23 | トヨタ自動車株式会社 | 音声認識方法および音声認識システム |
JP2016076799A (ja) * | 2014-10-03 | 2016-05-12 | シャープ株式会社 | 家電管理システム、家電、リモコン装置、ロボット |
JP2017009826A (ja) * | 2015-06-23 | 2017-01-12 | トヨタ自動車株式会社 | グループ状態判定装置およびグループ状態判定方法 |
JP2017010176A (ja) * | 2015-06-18 | 2017-01-12 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 機器特定方法、機器特定装置及びプログラム |
JP2017016683A (ja) * | 2011-09-30 | 2017-01-19 | アップル インコーポレイテッド | ハンズフリーインタラクションに対するユーザインターフェースの自動適合化 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01119791A (ja) | 1987-11-04 | 1989-05-11 | Toshiba Corp | 核融合装置 |
US7590536B2 (en) * | 2005-10-07 | 2009-09-15 | Nuance Communications, Inc. | Voice language model adjustment based on user affinity |
KR101268432B1 (ko) * | 2006-01-09 | 2013-05-28 | 삼성전자주식회사 | 스마트 커뮤니케이터를 이용한 지능형 출입 인증 시스템 및방법 |
KR20070106488A (ko) * | 2007-10-12 | 2007-11-01 | (주)인피니티 텔레콤 | 자연어 음성 인식 기능을 이용한 휴대폰 서비스 방법 |
KR101387928B1 (ko) | 2010-06-24 | 2014-04-22 | 에스케이플래닛 주식회사 | 홈 미디어 디바이스 및 이를 이용한 홈 네트워크 시스템, 방법 |
US8640021B2 (en) * | 2010-11-12 | 2014-01-28 | Microsoft Corporation | Audience-based presentation and customization of content |
US10417037B2 (en) * | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US10229676B2 (en) * | 2012-10-05 | 2019-03-12 | Avaya Inc. | Phrase spotting systems and methods |
US9189196B2 (en) * | 2013-03-14 | 2015-11-17 | Google Inc. | Compartmentalized self registration of external devices |
US9607137B2 (en) * | 2013-12-17 | 2017-03-28 | Lenovo (Singapore) Pte. Ltd. | Verbal command processing based on speaker recognition |
EP3158427B1 (en) * | 2014-06-19 | 2022-12-28 | Robert Bosch GmbH | System and method for speech-enabled personalized operation of devices and services in multiple operating environments |
US10262655B2 (en) * | 2014-11-03 | 2019-04-16 | Microsoft Technology Licensing, Llc | Augmentation of key phrase user recognition |
US10476872B2 (en) * | 2015-02-20 | 2019-11-12 | Sri International | Joint speaker authentication and key phrase identification |
US20160262017A1 (en) * | 2015-03-04 | 2016-09-08 | Microsoft Technology Licensing, Llc | Personal assistant authentication |
JP6669162B2 (ja) * | 2015-03-31 | 2020-03-18 | ソニー株式会社 | 情報処理装置、制御方法、およびプログラム |
KR102341144B1 (ko) * | 2015-06-01 | 2021-12-21 | 삼성전자주식회사 | 메시지를 출력하는 전자 장치 및 그 제어 방법 |
-
2017
- 2017-05-02 KR KR1020170056128A patent/KR101949497B1/ko active IP Right Grant
-
2018
- 2018-04-26 JP JP2018085215A patent/JP2018190413A/ja active Pending
- 2018-05-02 US US15/969,394 patent/US10657963B2/en active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11119791A (ja) * | 1997-10-20 | 1999-04-30 | Hitachi Ltd | 音声感情認識システムおよび方法 |
JP2000187776A (ja) * | 1998-06-09 | 2000-07-04 | Digicube Co Ltd | 情報提供装置、情報提供システム、情報提供処理方法、及び記録媒体 |
JP2002320037A (ja) * | 2001-04-19 | 2002-10-31 | Atr Onsei Gengo Tsushin Kenkyusho:Kk | 翻訳電話システム |
JP2003216690A (ja) * | 2002-01-18 | 2003-07-31 | Fujita Corp | 情報管理システム |
JP2004219714A (ja) * | 2003-01-15 | 2004-08-05 | Will Being:Kk | 人間からの指示に基づいてそれぞれ予め定めた特定のシーンに属する対話のシーンを識別し、シーンに即した自然対話を構成する応答文を作成して、それを音声合成することにより、音声対話を行うコンピュータによる音声対話方法及び音声対話システム |
JP2005275601A (ja) * | 2004-03-23 | 2005-10-06 | Fujitsu Ltd | 音声による情報検索システム |
JP2009282936A (ja) * | 2008-05-26 | 2009-12-03 | Nippon Telegr & Teleph Corp <Ntt> | 選択式情報提示装置および選択式情報提示処理プログラム |
JP2010210847A (ja) * | 2009-03-10 | 2010-09-24 | Clarion Co Ltd | 楽曲選択方法、楽曲選択プログラム、及び楽曲選択装置 |
JP2011028460A (ja) * | 2009-07-24 | 2011-02-10 | J&K Car Electronics Corp | 情報検索装置、制御方法及びプログラム |
JP2017016683A (ja) * | 2011-09-30 | 2017-01-19 | アップル インコーポレイテッド | ハンズフリーインタラクションに対するユーザインターフェースの自動適合化 |
JP2015079237A (ja) * | 2013-10-15 | 2015-04-23 | トヨタ自動車株式会社 | 音声認識方法および音声認識システム |
JP2016076799A (ja) * | 2014-10-03 | 2016-05-12 | シャープ株式会社 | 家電管理システム、家電、リモコン装置、ロボット |
JP2017010176A (ja) * | 2015-06-18 | 2017-01-12 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 機器特定方法、機器特定装置及びプログラム |
JP2017009826A (ja) * | 2015-06-23 | 2017-01-12 | トヨタ自動車株式会社 | グループ状態判定装置およびグループ状態判定方法 |
Non-Patent Citations (2)
Title |
---|
"2016年は発掘ラッシュ スマートホームの鉱脈", 日経コミュニケーション 第624号 NIKKEI COMMUNICATIONS, JPN6019005188, 28 December 2015 (2015-12-28), JP, ISSN: 0004166890 * |
有我 武紘: "1時間配送、詰め放題、ポイント倍増、オムニチャネル…もっと便利!もっと得できる!新しい買い方 コンビ", 日経トレンディ NO.395, JPN6019005189, 20 June 2016 (2016-06-20), ISSN: 0004166891 * |
Also Published As
Publication number | Publication date |
---|---|
US20180322872A1 (en) | 2018-11-08 |
KR101949497B1 (ko) | 2019-02-18 |
US10657963B2 (en) | 2020-05-19 |
KR20180122106A (ko) | 2018-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018190413A (ja) | ユーザ発話の表現法を把握して機器の動作やコンテンツ提供範囲を調整し提供するユーザ命令処理方法およびシステム | |
KR102513297B1 (ko) | 전자 장치 및 전자 장치의 기능 실행 방법 | |
JP6731894B2 (ja) | デバイス制御方法及び電子機器 | |
JP6752870B2 (ja) | 複数のウェイクワードを利用して人工知能機器を制御する方法およびシステム | |
JP6567727B2 (ja) | 受信した音声入力の入力音量に基づいて出力される音の出力音量を調節するユーザ命令処理方法およびシステム | |
JP6607999B2 (ja) | 音声要請に対応する情報提供のためのメディア選択 | |
JP6728319B2 (ja) | 人工知能機器で複数のウェイクワードを利用したサービス提供方法およびそのシステム | |
KR102209092B1 (ko) | 복수의 호출 용어를 이용하여 인공지능 기기를 제어하는 방법 및 시스템 | |
JP6573696B2 (ja) | ネットワークに連結した音響機器とのマルチモーダルインタラクション方法およびシステム | |
US10911910B2 (en) | Electronic device and method of executing function of electronic device | |
JP6920398B2 (ja) | 人工知能機器における連続会話機能 | |
CN109474658A (zh) | 用外部设备支持任务运行的电子设备、服务器和记录介质 | |
JP2018198058A (ja) | 情報提供方法、電子機器、コンピュータプログラム及び記録媒体 | |
JP6681940B2 (ja) | ユーザの位置及び空間に適した情報を能動的に提供する方法及び装置 | |
JP2019012506A (ja) | 機械の自動活性のための方法及びシステム | |
KR20190134975A (ko) | 인공지능 시스템의 앱들 또는 스킬들의 리스트를 표시하는 증강 현실 장치 및 동작 방법 | |
KR102396147B1 (ko) | 음성 명령을 이용한 동작을 수행하는 전자 장치 및 전자 장치의 동작 방법 | |
US11743588B1 (en) | Object selection in computer vision | |
US11127400B2 (en) | Electronic device and method of executing function of electronic device | |
JPWO2020149031A1 (ja) | 応答処理装置及び応答処理方法 | |
KR102239223B1 (ko) | 기계의 자동 활성을 위한 방법 및 시스템 | |
KR102643720B1 (ko) | 로봇용 인공지능 인터페이스 시스템 | |
Dhillon et al. | Method for Real-Time Voice Communication |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180426 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190516 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190625 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190912 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20191203 |