JP7483970B2 - 情報処理方法 - Google Patents
情報処理方法 Download PDFInfo
- Publication number
- JP7483970B2 JP7483970B2 JP2023036259A JP2023036259A JP7483970B2 JP 7483970 B2 JP7483970 B2 JP 7483970B2 JP 2023036259 A JP2023036259 A JP 2023036259A JP 2023036259 A JP2023036259 A JP 2023036259A JP 7483970 B2 JP7483970 B2 JP 7483970B2
- Authority
- JP
- Japan
- Prior art keywords
- main device
- sound data
- destination
- user
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 25
- 238000003672 processing method Methods 0.000 title claims description 13
- 238000012545 processing Methods 0.000 claims description 107
- 230000004044 response Effects 0.000 claims description 53
- 230000005540 biological transmission Effects 0.000 claims description 39
- 230000006870 function Effects 0.000 description 68
- 238000004891 communication Methods 0.000 description 37
- 238000000034 method Methods 0.000 description 33
- 230000008569 process Effects 0.000 description 25
- 230000004048 modification Effects 0.000 description 24
- 238000012986 modification Methods 0.000 description 24
- 238000010586 diagram Methods 0.000 description 23
- 238000000926 separation method Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 230000001815 facial effect Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000009118 appropriate response Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
- G10L21/028—Voice signal separating using properties of sound source
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/57—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for processing of video signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Telephonic Communication Services (AREA)
- Telephone Function (AREA)
- User Interface Of Digital Computer (AREA)
Description
以下、本発明の第一実施形態を説明する。全明細書において、同じ機能を有するものには、同じ符号を付し、繰り返しの説明は省略する。
まず、本実施形態のアシスタントシステム900の全体構成を説明する。図2は、本実施形態のアシスタントシステム900の全体構成図である。
次に、副デバイス100について説明する。図3は、本実施形態の副デバイス100のハードウェア構成図である。
次に、主デバイス300のハードウェア構成を説明する。図4は、本実施形態の主デバイス300のハードウェア構成図である。
次に、本実施形態の副デバイス100の機能構成について説明する。上述のように、本実施形態の副デバイス100は、通常のテレビとしての機能に加え、デジタルアシスタント機能のユーザインタフェースとして機能する。すなわち、ユーザの音声を、当該ユーザの主デバイス300に中継する。
次に、上記デジタルアシスタント連携機能を実現する、本実施形態の主デバイス300の機能ブロックを説明する。ここでは、主デバイス300の機能のうち、デジタルアシスタント連携機能にのみ主眼をおいて説明する。
本実施形態のデジタルアシスタント連携処理の流れを説明する。図8は、本実施形態のデジタルアシスタント連携処理の処理フローである。ここでは、主デバイス300のうち主デバイス300aと、副デバイス100との間で連携を行う場合を例にあげて説明する。なお、ここでは、初期設定部424と連携設定部211とにより、連携情報DB230および副デバイス管理DB430の登録は完了しているものとする。
なお、上記実施形態では、主デバイス300自身がAP510を認識すると、主デバイス300は、デジタルアシスタント連携可能と判別する。そして、連携要求コマンドを副デバイス100に送信し、連携モードに移行する。しかしながら、連携モードへの移行のきっかけは、これに限定されない。例えば、充電台511に置かれたことを検出した場合、連携モードに移行してもよい。
また、上記実施形態および変形例では、連携管理部423は、何らかの装置を検出した場合、デジタルアシスタント連携可能と判別している。しかしながら、デジタルアシスタント連携可能か否かの判別は、これに限定されない。
例えば、ユーザがウェアラブルデバイスを装着し、主デバイス300との間で近距離通信を行っている場合は、他の方法でデジタルアシスタント連携可能と判別してもよい。
なお、上記実施形態では、デジタルアシスタント連携可能な状態で、副デバイス100から連携確立コマンドを受信した場合、主デバイス300側は、連携モードをONにしている。しかしながら、これに限定されない。主デバイス300側では、常に連携モードをONにするよう構成してもよい。すなわち、初期設定部424が初期設定を行った時点で、連携フラグ433をONにする。
また、上記実施形態では、初期設定部424が、予め、副デバイス100として機能する装置の情報を副デバイス管理DB430に登録する。しかしながら、主デバイス300側が常に連携モードONとする場合、副デバイス管理DB430は設定しなくてもよい。
上記実施形態では、副デバイス100の送信先デバイス決定部213は、音データを解析し、ユーザを判別している。しかしながら、これに限定されない。例えば、送信先デバイス決定部213は、顔画像でユーザを判別してもよい。
また、各主デバイス300のデータ受信部421が、受信した音データを用いて本人認証処理を行う機能を有する場合、副デバイス100の送信先デバイス決定部213は、音データを解析して送信先の主デバイスを決定しなくてもよい。
例えば、1のユーザが複数の主デバイス300を利用していることがある。このような場合、同じユーザID231に対応づけて、複数の主デバイス300の情報を連携情報DB230に登録してもよい。例えば、図6(a)の連携情報DB230において、主デバイスID232が、300a-1と、300a-2とは、同じユーザの主デバイス300である。
なお、上記実施形態では、副デバイス100は、ディスプレイ140を備えるテレビである場合を例にあげて説明した。しかしながら、副デバイス100は、これに限定されない。例えば、ディスプレイ140を備えないスマートスピーカ101であってもよい。
本発明の第二実施形態を説明する。第一実施形態では、副デバイス100は、音データを主デバイス300に中継する中継装置である。本実施形態では、副デバイス100でも、アシスタント機能を備える。
次に、本実施形態の副デバイス100のデジタルアシスタント連携処理の流れを説明する。図13は、本実施形態の副デバイス100におけるデジタルアシスタント連携処理の処理フローである。ここでは、少なくとも1つの主デバイス300と、連携されているものとする。
なお、上記実施形態では、副デバイス側アシスタント部220は、アシスタント処理を行うため、個人情報が必要か否かを判別している。しかしながら、これに限定されない。例えば、音データが、音声コマンドであるか否かを判別してもよい。
また、副デバイス100が、音データを解析する副デバイス側アシスタント部220を備える場合、ユーザの呼びかけで特定される主デバイスに音データを送信するよう構成してもよい。
また、上記実施形態および変形例では、1対の問いかけと回答との送受信の間のみ、主デバイス300と副デバイス100との間で通信路を確立している。しかしながら、ユーザから明示の通信路解除の指示を受けるまで、あるいは、所定の時間が経過するまで、通信路を確立してもよい。
なお、上記アシスタントシステム900は、スマートフォン等の携帯型情報処理装置と、ウェアラブルデバイスとにより構成されてもよい。この場合、ウェアラブルデバイスを副デバイス100として用い、携帯型情報処理装置を、主デバイス300として用いる。
上記各実施形態では、1のユーザによる音声を受け付け、そのユーザの主デバイス300または副デバイス100によるアシスタント結果を出力する場合を例に説明した。しかし、上述したように主デバイス300の個数は限定されない。従って、複数のユーザが、短い時間間隔でデジタルアシスタント機能を要求することがある。
また、上記各実施形態および各変形例において、副デバイス100および/または主デバイス300の一部の機能は、サーバ530で実現されてもよい。
210:副デバイス側連携部、211:連携設定部、212:音取得部、213:送信先デバイス決定部、214:送受信部、215:回答提示部、220:副デバイス側アシスタント部、230:連携情報データベース、231:ユーザID、232:主デバイスID、233:アクセス情報、234:連携フラグ、235:主デバイス種別、236:主デバイス名称、240:ユーザ情報データベース、241:ユーザID、242:音声情報、243:顔画像、250:対応装置登録データベース、251:副デバイスID、252:映像出力先装置ID、
300:主デバイス、300a:主デバイス(携帯型情報処理装置)、300b:主デバイス(携帯型情報処理装置)、300c:主デバイス(携帯型情報処理装置)、301:スマートウォッチ、302:HMD、303:ワイヤレスヘッドフォン、310:コントローラ、311:CPU、312:メモリ、313:プログラム、314:データ、330:マイク、340:ディスプレイ、350:音声出力部、360:通信部、361:近距離通信インタフェース、362:通信インタフェース、370:位置検出部、371:加速度センサ、372:ジャイロセンサ、373:地磁気センサ、374:GPS受信器、381:カメラ、382:測距センサ、
410:アシスタント部、420:主デバイス側連携部、421:データ受信部、422:回答送信部、423:連携管理部、424:初期設定部、430:副デバイス管理データベース、431:副デバイスID、432:アクセス情報、433:連携フラグ、
510:アクセスポイント、511:充電台、520:外部ネットワーク、530:サーバ、540:コントローラ、541:CPU、542:メモリ、543:プログラム、544:データ、562:通信インタフェース、
610:画面例、611:回答表示領域、611a:回答表示領域、611b:回答表示領域、612:主デバイス情報表示領域、612a:主デバイス情報表示領域、612b:主デバイス情報表示領域、620:選択画面、621:メッセージ表示領域、622:選択受付領域、630a:第一表示領域、630b:第二表示領域、
900:アシスタントシステム
Claims (6)
- デジタルアシスタント処理を実行する主デバイスに取得した音データを中継する中継デバイスの情報処理方法であって、
周囲の音を前記音データとして取得する音取得ステップと、
前記音データの送信先の前記主デバイスである送信先主デバイスを決定する送信先デバイス決定ステップと、
前記送信先主デバイスが決定された場合に、前記音データを送信するとともに、当該音データに応じて実行されたデジタルアシスタント処理結果を回答として前記送信先主デバイスから受信する送受信ステップと、
前記送受信ステップで受信した回答を提示する回答提示ステップと、を備え、
前記送信先デバイス決定ステップでは、前記音データを解析して発声主であるユーザを判別してユーザが特定できた場合に当該ユーザに対応づけて登録されている前記主デバイスを、前記送信先主デバイスと決定し、ユーザが特定できない場合は前記送信先主デバイスを決定しないこと
を特徴とする情報処理方法。 - デジタルアシスタント処理を実行する主デバイスに取得した音データを中継する中継デバイスの情報処理方法であって、
周囲の音を前記音データとして取得する音取得ステップと、
前記音データの送信先の前記主デバイスである送信先主デバイスを決定する送信先デバイス決定ステップと、
前記送信先主デバイスに、前記音データを送信するとともに、当該音データに応じて実行されたデジタルアシスタント処理結果を回答として前記送信先主デバイスから受信する送受信ステップと、
前記送受信ステップで受信した回答を提示する回答提示ステップと、を備え、
前記音取得ステップでは、前記音データを音源毎に分離し、
前記送信先デバイス決定ステップでは、分離された前記音データそれぞれについて、前記送信先主デバイスを決定し、前記送信先主デバイスが決定できない場合は前記送信先主デバイスを決定せず、
前記送受信ステップでは、分離された前記音データを、決定された前記送信先主デバイスにそれぞれ送信するとともに、各前記送信先主デバイスからそれぞれ前記回答を受信し、
前記回答提示ステップでは、各前記送信先主デバイスから受信した前記回答を、それぞれ提示すること
を特徴とする情報処理方法。 - デジタルアシスタント処理を実行する主デバイスに取得した音データを中継する中継デバイスの情報処理方法であって、
周囲の音を前記音データとして取得する音取得ステップと、
前記音データの送信先の前記主デバイスである送信先主デバイスを決定する送信先デバイス決定ステップと、
前記送信先主デバイスに、前記音データを送信するとともに、当該音データに応じて実行されたデジタルアシスタント処理結果を回答として前記送信先主デバイスから受信する送受信ステップと、
前記送受信ステップで受信した回答を提示する回答提示ステップと、
前記デジタルアシスタント処理を実行するアシスタント処理ステップと、を備え、
前記アシスタント処理ステップでは、前記音データを解析し、前記デジタルアシスタント処理を実行するために、個人情報が必要であるか否かを判別し、
前記送信先デバイス決定ステップでは、前記アシスタント処理ステップにおいて、前記個人情報が必要であると判別した場合、前記送信先主デバイスを決定し、前記送信先主デバイスが決定できない場合は前記送信先主デバイスを決定せず、
前記回答提示ステップでは、前記アシスタント処理ステップにおいて前記デジタルアシスタント処理を実行した場合、当該デジタルアシスタント処理結果を提示すること
を特徴とする情報処理方法。 - 請求項3記載の情報処理方法であって、
前記アシスタント処理ステップでは、前記音データを解析し、前記デジタルアシスタント処理を実行するためのコマンドを当該音データから生成し、
前記送受信ステップでは、前記音データの代わりに、前記コマンドを前記送信先主デバイスに送信すること
を特徴とする情報処理方法。 - 請求項1記載の情報処理方法であって、
前記送信先デバイス決定ステップでは、前記発声主として判別されたユーザに対応づけて登録されている前記主デバイスが複数ある場合、前記ユーザから当該複数の主デバイスの中から前記送信先主デバイスとする主デバイスの選択を受け付けること
を特徴とする情報処理方法。 - デジタルアシスタント処理を実行する主デバイスに取得した音データを中継する中継デバイスの情報処理方法であって、
周囲の音を前記音データとして取得する音取得ステップと、
前記音データの送信先の前記主デバイスである送信先主デバイスを決定する送信先デバイス決定ステップと、
前記送信先主デバイスに、前記音データを送信するとともに、当該音データに応じて実行されたデジタルアシスタント処理結果を回答として前記送信先主デバイスから受信する送受信ステップと、
前記送受信ステップで受信した回答を提示する回答提示ステップと、
前記デジタルアシスタント処理を実行するアシスタント処理ステップと、を備え、
前記アシスタント処理ステップでは、前記音データを解析し、当該音データから前記主デバイスを特定する情報を抽出し、
前記送信先デバイス決定ステップでは、前記アシスタント処理ステップで抽出した情報で特定される前記主デバイスを、前記送信先主デバイスと決定し、前記送信先主デバイスが特定できない場合は前記送信先主デバイスを決定しないこと
を特徴とする情報処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023036259A JP7483970B2 (ja) | 2019-04-18 | 2023-03-09 | 情報処理方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/016597 WO2020213116A1 (ja) | 2019-04-18 | 2019-04-18 | 情報処理装置およびデジタルアシスタントシステム |
JP2021514736A JP7244628B2 (ja) | 2019-04-18 | 2019-04-18 | 情報処理装置 |
JP2023036259A JP7483970B2 (ja) | 2019-04-18 | 2023-03-09 | 情報処理方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021514736A Division JP7244628B2 (ja) | 2019-04-18 | 2019-04-18 | 情報処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023081985A JP2023081985A (ja) | 2023-06-13 |
JP7483970B2 true JP7483970B2 (ja) | 2024-05-15 |
Family
ID=72837142
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021514736A Active JP7244628B2 (ja) | 2019-04-18 | 2019-04-18 | 情報処理装置 |
JP2023036259A Active JP7483970B2 (ja) | 2019-04-18 | 2023-03-09 | 情報処理方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021514736A Active JP7244628B2 (ja) | 2019-04-18 | 2019-04-18 | 情報処理装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220208199A1 (ja) |
JP (2) | JP7244628B2 (ja) |
CN (1) | CN113711177A (ja) |
WO (1) | WO2020213116A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014013569A (ja) | 2012-07-03 | 2014-01-23 | Samsung Electronics Co Ltd | ディスプレイ装置、対話型システム及び応答情報提供方法 |
JP2017538985A (ja) | 2014-09-09 | 2017-12-28 | マイクロソフト テクノロジー ライセンシング,エルエルシー | 近接したデバイスによるデジタルパーソナルアシスタントの呼出し |
US20180336905A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Far-field extension for digital assistant services |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4797903B2 (ja) * | 2006-09-19 | 2011-10-19 | ソニー株式会社 | 携帯電話及び携帯電話の制御方法 |
KR20170001393A (ko) * | 2015-06-26 | 2017-01-04 | 삼성전자주식회사 | 전자 장치의 상황에 따른 외부 장치의 이용 방법 및 그 전자 장치 |
US10438584B2 (en) * | 2017-04-07 | 2019-10-08 | Google Llc | Multi-user virtual assistant for verbal device control |
US10466963B2 (en) * | 2017-05-18 | 2019-11-05 | Aiqudo, Inc. | Connecting multiple mobile devices to a smart home assistant account |
KR102489914B1 (ko) * | 2017-09-15 | 2023-01-20 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
WO2019100289A1 (en) * | 2017-11-23 | 2019-05-31 | Harman International Industries, Incorporated | Method and system for speech enhancement |
JP7155605B2 (ja) * | 2018-05-22 | 2022-10-19 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
-
2019
- 2019-04-18 CN CN201980095537.1A patent/CN113711177A/zh active Pending
- 2019-04-18 WO PCT/JP2019/016597 patent/WO2020213116A1/ja active Application Filing
- 2019-04-18 JP JP2021514736A patent/JP7244628B2/ja active Active
- 2019-04-18 US US17/604,507 patent/US20220208199A1/en active Pending
-
2023
- 2023-03-09 JP JP2023036259A patent/JP7483970B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014013569A (ja) | 2012-07-03 | 2014-01-23 | Samsung Electronics Co Ltd | ディスプレイ装置、対話型システム及び応答情報提供方法 |
JP2017538985A (ja) | 2014-09-09 | 2017-12-28 | マイクロソフト テクノロジー ライセンシング,エルエルシー | 近接したデバイスによるデジタルパーソナルアシスタントの呼出し |
US20180336905A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Far-field extension for digital assistant services |
Also Published As
Publication number | Publication date |
---|---|
CN113711177A (zh) | 2021-11-26 |
JP2023081985A (ja) | 2023-06-13 |
JPWO2020213116A1 (ja) | 2020-10-22 |
JP7244628B2 (ja) | 2023-03-22 |
US20220208199A1 (en) | 2022-06-30 |
WO2020213116A1 (ja) | 2020-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9894320B2 (en) | Information processing apparatus and image processing system | |
EP2663064B1 (en) | Method and system for operating communication service | |
JP6110503B2 (ja) | テレビ通話装置 | |
WO2020163722A1 (en) | Assistive listening device systems, devices and methods for providing audio streams within sound fields | |
JP6598875B2 (ja) | 情報処理システム、無線端末、及び情報処理方法 | |
US20220224735A1 (en) | Information processing apparatus, non-transitory computer readable medium storing program, and method | |
JP6481210B2 (ja) | 情報処理装置、制御方法、およびプログラム | |
US20190394423A1 (en) | Data Processing Apparatus, Data Processing Method and Storage Medium | |
US20220021980A1 (en) | Terminal, audio cooperative reproduction system, and content display apparatus | |
US10430572B2 (en) | Information processing system that recognizes a user, storage medium, and information processing method | |
US10298883B2 (en) | Communication system, information processing apparatus, communication apparatus, and computer-readable medium | |
CN108076031B (zh) | 通信授权获取方法 | |
JP7483970B2 (ja) | 情報処理方法 | |
EP4243409A1 (en) | System and method for displaying image, image-capturing device, and carrier means | |
CN112532787B (zh) | 耳机音频数据处理方法、移动终端及计算机可读存储介质 | |
JP2023505986A (ja) | ユーザ入力に基づく複数出力制御 | |
KR20170022272A (ko) | 녹음 시스템 및 녹음 방법 | |
US11900013B2 (en) | Information processing apparatus, non-transitory computer readable medium storing program, and information processing method | |
JP2019125972A (ja) | 端末装置、情報処理方法、プログラム、通信システム | |
KR101832744B1 (ko) | 음향신호 인식용 무선 원격 제어기를 이용한 실시간 정보 제공 시스템 | |
JP2020095737A (ja) | 通信装置、制御方法、およびプログラム | |
KR20230083463A (ko) | 디스플레이 장치 및 디스플레이 장치들 간 대화 지원 방법 | |
JP2023130837A (ja) | 機器システム、音量の調整方法、第二の機器、第一の機器 | |
CN109845246A (zh) | 信息处理装置、信息处理方法、程序和通信系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230309 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240226 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240305 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240403 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240501 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7483970 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |