JPWO2020021861A1 - 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム - Google Patents
情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム Download PDFInfo
- Publication number
- JPWO2020021861A1 JPWO2020021861A1 JP2020532192A JP2020532192A JPWO2020021861A1 JP WO2020021861 A1 JPWO2020021861 A1 JP WO2020021861A1 JP 2020532192 A JP2020532192 A JP 2020532192A JP 2020532192 A JP2020532192 A JP 2020532192A JP WO2020021861 A1 JPWO2020021861 A1 JP WO2020021861A1
- Authority
- JP
- Japan
- Prior art keywords
- user
- information processing
- situation
- processing device
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims description 228
- 238000003672 processing method Methods 0.000 title claims description 7
- 230000004044 response Effects 0.000 claims abstract description 153
- 238000001514 detection method Methods 0.000 claims abstract description 58
- 238000000034 method Methods 0.000 claims description 82
- 230000008569 process Effects 0.000 claims description 69
- 238000012545 processing Methods 0.000 claims description 17
- 230000005236 sound signal Effects 0.000 claims description 15
- 230000002040 relaxant effect Effects 0.000 claims description 7
- 238000005259 measurement Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 25
- 238000004891 communication Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 11
- 230000009471 action Effects 0.000 description 5
- 230000002269 spontaneous effect Effects 0.000 description 5
- 206010041009 Sleep talking Diseases 0.000 description 4
- 208000022249 Sleep-Wake Transition disease Diseases 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000002787 reinforcement Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000009423 ventilation Methods 0.000 description 2
- 230000002618 waking effect Effects 0.000 description 2
- 230000009118 appropriate response Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000002747 voluntary effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/406—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
Abstract
Description
カメラで撮像された画像に基づいて、ユーザとオブジェクトの位置関係を検出する検出部と、
前記検出部で検出されたユーザとオブジェクトの位置関係に基づいて、ユーザの状況を判断する判断部と、
前記判断部で判断されたユーザの状況に対応した音声応答を実行する応答制御部と、を有する
情報処理装置である。
カメラで撮像された画像に基づいて、ユーザとオブジェクトの位置関係を検出する検出部と、
前記検出部で検出されたユーザとオブジェクトの位置関係に基づいて、ユーザの状況を判断する判断部と、
前記判断部で判断されたユーザの状況に対応した音声応答を実行する応答制御部と、を有する
情報処理システムである。
カメラで撮像された画像に基づいて、ユーザとオブジェクトの位置関係を検出し、
検出されたユーザとオブジェクトの位置関係に基づいて、ユーザの状況を判断し、
判断されたユーザの状況に対応した音声応答を実行する
情報処理方法である。
カメラで撮像された画像に基づいて、ユーザとオブジェクトの位置関係を検出する検出処理と、
前記検出処理で検出されたユーザとオブジェクトの位置関係に基づいて、ユーザの状況を判断する判断処理と、
前記判断処理で判断されたユーザの状況に対応した音声応答を実行する応答制御処理と、を情報処理装置に実行させる
情報処理プログラムである。
<1.第1の実施形態>
<2.第2の実施形態>
<3.第3の実施形態>
<4.第4の実施形態>
<5.第5の実施形態>
<6.第6の実施形態>
<7.第7の実施形態>
<8.第8の実施形態>
以下に説明する実施形態等は本開示の好適な具体例であり、本開示の内容がこれらの実施形態に限定されるものではない。
図1は、実施形態に係る情報処理システムの利用状況を説明するための図である。現在、ユーザの声かけ、あるいは、操作等に応じて、音声で応答することのできるスマートスピーカ、AI(Artificial Intelligence)スピーカ等の名称で呼ばれる情報処理装置1がある。本実施形態では、スマートスピーカ等の情報処理装置1が宅内(部屋A内)に設置されるケースを想定している。なお、情報処理装置1としては、このようなスマートスピーカのみならず、テレビ、ロボット、パーソナルコンピュータ等、各種装置を対象とすることができる。また、情報処理装置1の配置の形態についても、テーブル面、床面等に載置する形態の他、壁面に埋め込まれた形態等、各種形態を採用することが可能である。
図5は、第2の実施形態に係る情報処理装置の構成を示すブロック図である。図5中、第1の実施形態(図3)で説明した同じ機能のものは、同じ符号を付けており、説明を割愛する。
図7は、第3の実施形態に係る情報処理装置の構成を示すブロック図である。図7中、第1の実施形態(図3)、第2の実施形態(図5)で説明した同じ機能のものは、同じ符号を付けており、説明を割愛する。
図9は、第4の実施形態に係る情報処理装置の構成を示すブロック図である。図9中、第1〜第3の実施形態(図3、図5、図7)で説明した同じ機能のものは、同じ符号を付けており、説明を割愛する。
図11は、第5の実施形態に係る情報処理システムの利用状況を説明するための図である。また、図12は、第5の実施形態に係る情報処理装置1の構成を示すブロック図である。図11、図12中、第1〜4の実施形態(図1、図3、図5、図7、図9等)で説明した同じ機能のものは、同じ符号を付けており、説明を割愛する。
図14は、第6の実施形態に係る情報処理システムの利用状況を説明するための図である。図14中、第1、第5の実施形態(図1、図11)で説明した同じ機能のものは、同じ符号を付けており、説明を割愛する。
図17は、第7の実施形態に係る情報処理システムの利用状況を説明するための図である。図17中、第1の実施形態(図1)で説明した同じ機能のものは、同じ符号を付けており、説明を割愛する。第7の実施形態では、図17に示されるように、3つの部屋(部屋A、B、C)にそれぞれに情報処理装置1a〜1cが設置されている。図14の場合と同様、情報処理装置1a〜1cは、アクセスポイント4に無線接続され、互いに通信を行うことが可能である。また、各情報処理装置1a〜1cは、第1〜第6の実施形態で説明したように、カメラ13あるいは3Dカメラ19で撮像された画像に基づき、ユーザの状況を判断し、当該状況に応じた音声応答を行うことが可能となっている。
図18は、第8の実施形態に係る情報処理装置について、制御対象の判断処理を示すフロー図である。情報処理装置1としては、第1〜第7の実施形態で説明した情報処理装置1を使用することが可能である。
(1)
カメラで撮像された画像に基づいて、ユーザとオブジェクトの位置関係を検出する検出部と、
前記検出部で検出されたユーザとオブジェクトの位置関係に基づいて、ユーザの状況を判断する判断部と、
前記判断部で判断されたユーザの状況に対応した音声応答を実行する応答制御部と、を有する
情報処理装置。
(2)
前記検出部は、ユーザの部位とオブジェクトの位置関係を検出し、
前記判断部は、ユーザの部位とオブジェクトの位置関係に基づいて、ユーザの状況を判断する
(1)に記載の情報処理装置。
(3)
前記応答制御部は、ユーザの状況に対応して、音声応答の可否、応答の内容、音声の音量、音声の速度、音声の音質、音声の種別の少なくとも1つを制御する
(1)または(2)に記載の情報処理装置。
(4)
前記応答制御部は、マイクロホンで収音される音信号に基づいて、音声応答を実行する
(1)から(3)の何れか1つに記載の情報処理装置。
(5)
前記マイクロホンは、収音される音信号の方向を検出可能なアレイマイクロホンである
(4)に記載の情報処理装置。
(6)
前記応答制御部は、前記アレイマイクロホンで収音された音信号の方向に、音を出すオブジェクトが位置する場合、音声応答を実行しない
(5)に記載の情報処理装置。
(7)
前記検出部で検出されたユーザの方向に、前記アレイマイクロホンの指向性が調整される
(5)または(6)に記載の情報処理装置。
(8)
前記アレイマイクロホンを複数備え、
前記判断部で判断されたユーザの状況に基づいて、収音する前記アレイマイクロホンが選択される
(5)から(7)の何れか1つに記載の情報処理装置。
(9)
ユーザとオブジェクト間の距離を計測可能な計測部を備え、
前記判断部は、ユーザとオブジェクト間の距離を含んだユーザとオブジェクトの位置関係に基づいて、ユーザの状況を判断する
(1)から(8)の何れか1つに記載の情報処理装置。
(10)
ユーザまでの距離を計測する計測部を備え、
前記応答制御部は、前記計測部で計測したユーザまでの距離と、マイクロホンで収音した音信号の音圧が所定条件を満たす場合、音声応答を実行する
(1)から(9)の何れか1つに記載の情報処理装置。
(11)
前記情報処理装置は、表示部をさらに含み、
前記表示部は、応答中であること、応答しない理由、部屋の状況の少なくともいずれかを表示する
(1)から(10)の何れか1つに記載の情報処理装置。
(12)
前記判定部は、無効ワードに基づいて、前記ユーザの状況を判定する
(1)から(11)の何れか1つに記載の情報処理装置。
(13)
前記ユーザの状況には、前記ユーザの様子、行動の少なくともいずれかを含む
(1)から(12)の何れか1つに記載の情報処理装置。
(14)
前記ユーザの状況には、就寝中である状況、くつろいでいる状況、テレビを見ている状況、家族と会話している状況の少なくともいずれかを含む
(13)に記載の情報処理装置。
(15)
カメラで撮像された画像に基づいて、ユーザとオブジェクトの位置関係を検出する検出部と、
前記検出部で判断されたユーザとオブジェクトの位置関係に基づいて、ユーザの状況を判断する判断部と、
前記判断部で判断されたユーザの状況に対応した音声応答を実行する応答制御部と、を有する
情報処理システム。
(16)
カメラで撮像された画像に基づいて、ユーザとオブジェクトの位置関係を検出し、
検出されたユーザとオブジェクトの位置関係に基づいて、ユーザの状況を判断し、
判断されたユーザの状況に対応した音声応答を実行する
情報処理方法。
(17)
カメラで撮像された画像に基づいて、ユーザとオブジェクトの位置関係を検出する検出処理と、
前記検出処理で検出されたユーザとオブジェクトの位置関係に基づいて、ユーザの状況を判断する判断処理と、
前記判断処理で判断されたユーザの状況に対応した音声応答を実行する応答制御処理と、を情報処理装置に実行させる
情報処理プログラム。
(18)
カメラで撮像された画像に基づいて、ユーザを検出する検出部と、
前記検出部で検出されたユーザまでの距離を計測する計測部と、
前記計測部で計測したユーザまでの距離と、前記マイクロホンで収音した音信号の音圧が所定条件を満たす場合、音声応答を実行する応答制御部と、を有する
情報処理装置。
また、(18)の構成は、情報処理システム、情報処理方法、情報処理プログラム、何れの形態においても実現することが可能である。
3:ルータ
4:アクセスポイント
5:情報処理サーバ
11:制御部
12:操作部
13:カメラ
14:通信部
15:タッチパネル表示部
16:スピーカ
17:マイクロホン
18(18a、18b):アレイマイクロホン
19:3Dカメラ
111:音声認識部
112:検出部
113:応答判断部
114:音声応答部
115:方向推定部
116:音圧判断部
117:設定部
Claims (17)
- カメラで撮像された画像に基づいて、ユーザとオブジェクトの位置関係を検出する検出部と、
前記検出部で検出されたユーザとオブジェクトの位置関係に基づいて、ユーザの状況を判断する判断部と、
前記判断部で判断されたユーザの状況に対応した音声応答を実行する応答制御部と、を有する
情報処理装置。 - 前記検出部は、ユーザの部位とオブジェクトの位置関係を検出し、
前記判断部は、ユーザの部位とオブジェクトの位置関係に基づいて、ユーザの状況を判断する
請求項1に記載の情報処理装置。 - 前記応答制御部は、ユーザの状況に対応して、音声応答の可否、応答の内容、音声の音量、音声の速度、音声の音質、音声の種別の少なくとも1つを制御する
請求項1に記載の情報処理装置。 - 前記応答制御部は、マイクロホンで収音される音信号に基づいて、音声応答を実行する
請求項1に記載の情報処理装置。 - 前記マイクロホンは、収音される音信号の方向を検出可能なアレイマイクロホンである
請求項4に記載の情報処理装置。 - 前記応答制御部は、前記アレイマイクロホンで収音された音信号の方向に、音を出すオブジェクトが位置する場合、音声応答を実行しない
請求項5に記載の情報処理装置。 - 前記検出部で検出されたユーザの方向に、前記アレイマイクロホンの指向性が調整される
請求項5に記載の情報処理装置。 - 前記アレイマイクロホンを複数備え、
前記判断部で判断されたユーザの状況に基づいて、収音する前記アレイマイクロホンが選択される
請求項5に記載の情報処理装置。 - ユーザとオブジェクト間の距離を計測可能な計測部を備え、
前記判断部は、ユーザとオブジェクト間の距離を含んだユーザとオブジェクトの位置関係に基づいて、ユーザの状況を判断する
請求項1に記載の情報処理装置。 - ユーザまでの距離を計測する計測部を備え、
前記応答制御部は、前記計測部で計測したユーザまでの距離と、マイクロホンで収音した音信号の音圧が所定条件を満たす場合、音声応答を実行する
請求項1に記載の情報処理装置。 - 前記情報処理装置は、表示部をさらに含み、
前記表示部は、応答中であること、応答しない理由、部屋の状況の少なくともいずれかを表示する
請求項1に記載の情報処理装置。 - 前記判定部は、無効ワードに基づいて、前記ユーザの状況を判定する
請求項1に記載の情報処理装置。 - 前記ユーザの状況には、前記ユーザの様子、行動の少なくともいずれかを含む
請求項1に記載の情報処理装置。 - 前記ユーザの状況には、就寝中である状況、くつろいでいる状況、テレビを見ている状況、家族と会話している状況の少なくともいずれかを含む
請求項13に記載の情報処理装置。 - カメラで撮像された画像に基づいて、ユーザとオブジェクトの位置関係を検出する検出部と、
前記検出部で検出されたユーザとオブジェクトの位置関係に基づいて、ユーザの状況を判断する判断部と、
前記判断部で判断されたユーザの状況に対応した音声応答を実行する応答制御部と、を有する
情報処理システム。 - カメラで撮像された画像に基づいて、ユーザとオブジェクトの位置関係を検出し、
検出されたユーザとオブジェクトの位置関係に基づいて、ユーザの状況を判断し、
判断されたユーザの状況に対応した音声応答を実行する
情報処理方法。 - カメラで撮像された画像に基づいて、ユーザとオブジェクトの位置関係を検出する検出処理と、
前記検出処理で検出されたユーザとオブジェクトの位置関係に基づいて、ユーザの状況を判断する判断処理と、
前記判断処理で判断されたユーザの状況に対応した音声応答を実行する応答制御処理と、を情報処理装置に実行させる
情報処理プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018140187 | 2018-07-26 | ||
JP2018140187 | 2018-07-26 | ||
PCT/JP2019/021913 WO2020021861A1 (ja) | 2018-07-26 | 2019-06-03 | 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2020021861A1 true JPWO2020021861A1 (ja) | 2021-08-19 |
Family
ID=69181584
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020532192A Pending JPWO2020021861A1 (ja) | 2018-07-26 | 2019-06-03 | 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11657821B2 (ja) |
JP (1) | JPWO2020021861A1 (ja) |
DE (1) | DE112019003773T5 (ja) |
WO (1) | WO2020021861A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020148978A1 (ja) * | 2019-01-15 | 2020-07-23 | ソニー株式会社 | 情報処理装置及び情報処理方法 |
FR3103955A1 (fr) * | 2019-11-29 | 2021-06-04 | Orange | Dispositif et procédé d’analyse environnementale, et dispositif et procédé d’assistance vocale les implémentant |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014153663A (ja) * | 2013-02-13 | 2014-08-25 | Sony Corp | 音声認識装置、および音声認識方法、並びにプログラム |
JP2017117371A (ja) * | 2015-12-25 | 2017-06-29 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 制御方法、制御装置およびプログラム |
JP2018045192A (ja) * | 2016-09-16 | 2018-03-22 | トヨタ自動車株式会社 | 音声対話装置および発話音量調整方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005107384A (ja) | 2003-10-01 | 2005-04-21 | Sony Corp | 音声認識装置および方法、プログラム並びに記録媒体 |
-
2019
- 2019-06-03 JP JP2020532192A patent/JPWO2020021861A1/ja active Pending
- 2019-06-03 WO PCT/JP2019/021913 patent/WO2020021861A1/ja active Application Filing
- 2019-06-03 US US17/250,386 patent/US11657821B2/en active Active
- 2019-06-03 DE DE112019003773.0T patent/DE112019003773T5/de not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014153663A (ja) * | 2013-02-13 | 2014-08-25 | Sony Corp | 音声認識装置、および音声認識方法、並びにプログラム |
JP2017117371A (ja) * | 2015-12-25 | 2017-06-29 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 制御方法、制御装置およびプログラム |
JP2018045192A (ja) * | 2016-09-16 | 2018-03-22 | トヨタ自動車株式会社 | 音声対話装置および発話音量調整方法 |
Also Published As
Publication number | Publication date |
---|---|
DE112019003773T5 (de) | 2021-06-02 |
US20210264915A1 (en) | 2021-08-26 |
US11657821B2 (en) | 2023-05-23 |
WO2020021861A1 (ja) | 2020-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110291489B (zh) | 计算上高效的人类标识智能助理计算机 | |
US11017217B2 (en) | System and method for controlling appliances using motion gestures | |
EP3413303B1 (en) | Information processing device, information processing method, and program | |
US10109300B2 (en) | System and method for enhancing speech activity detection using facial feature detection | |
CN106463114B (zh) | 信息处理设备、控制方法及程序存储单元 | |
WO2014125791A1 (en) | Voice recognition device, voice recognition method, and program | |
CN111163906B (zh) | 能够移动的电子设备及其操作方法 | |
JP6759445B2 (ja) | 情報処理装置、情報処理方法及びコンピュータプログラム | |
KR20070029794A (ko) | 유저와 시스템 사이에 통신을 하기 위한 방법 및 시스템 | |
JP2012040655A (ja) | ロボット制御方法、プログラム、及びロボット | |
JP2000347692A (ja) | 人物検出方法、人物検出装置及びそれを用いた制御システム | |
WO2017141530A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US11875571B2 (en) | Smart hearing assistance in monitored property | |
JP2009166184A (ja) | ガイドロボット | |
JPWO2020021861A1 (ja) | 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム | |
WO2019069529A1 (ja) | 情報処理装置、情報処理方法、および、プログラム | |
JP2005202578A (ja) | コミュニケーション装置およびコミュニケーション方法 | |
US10810973B2 (en) | Information processing device and information processing method | |
KR20200101221A (ko) | 사용자 입력 처리 방법 및 이를 지원하는 전자 장치 | |
JP2019220145A (ja) | 操作端末、音声入力方法、及びプログラム | |
US11743588B1 (en) | Object selection in computer vision | |
US11687049B2 (en) | Information processing apparatus and non-transitory computer readable medium storing program | |
JP7426631B2 (ja) | 無人移動体及び情報処理方法 | |
US11368497B1 (en) | System for autonomous mobile device assisted communication | |
CN111919250A (zh) | 传达非语言提示的智能助理设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220418 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230613 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230804 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231024 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240305 |