JP6842489B2 - 電子機器、制御方法およびプログラム - Google Patents
電子機器、制御方法およびプログラム Download PDFInfo
- Publication number
- JP6842489B2 JP6842489B2 JP2019062617A JP2019062617A JP6842489B2 JP 6842489 B2 JP6842489 B2 JP 6842489B2 JP 2019062617 A JP2019062617 A JP 2019062617A JP 2019062617 A JP2019062617 A JP 2019062617A JP 6842489 B2 JP6842489 B2 JP 6842489B2
- Authority
- JP
- Japan
- Prior art keywords
- voice
- trigger
- unit
- electronic device
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 64
- 238000001514 detection method Methods 0.000 claims description 129
- 238000003384 imaging method Methods 0.000 claims description 45
- 230000005236 sound signal Effects 0.000 claims description 19
- 230000008569 process Effects 0.000 description 46
- 230000006399 behavior Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 238000003825 pressing Methods 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 230000004913 activation Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000001747 exhibiting effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Description
そして、最後に音声認識処理により得られる発話情報に対する処理が終了した後、所定の待機期間X[秒]以上継続して発話された音声が得られないとき、電子機器は音声操作受付期間を終了する(ステップS114)。音声操作受付期間外では、ユーザによる発話がなされても外部音声認識部での音声認識処理は行われず、発話情報に応じた音声操作が実現しない。
(第1の実施形態)
まず、本発明の第1の実施形態に係る電子機器10の概要について説明する。
図1は、本実施形態に係る電子機器10の概要を説明するための説明図である。
図1に示す例では、電子機器10は、居間LRに設置されスマートスピーカとして実装される。電子機器10は、マイクロホン、カメラを備える。電子機器10は、マイクロホンで収音された音声信号をネットワークに接続された外部音声認識部ASR(図4)に送信し、外部音声認識部ASRから音声認識結果として発話情報を受信する。外部音声認識部ASRは、個々の電子機器10から受信した音声信号に対して音声認識処理を行う専用の音声認識サーバとして構成されてもよいし、他の機能(例えば、各種の情報提供)を併せ持つウェブサーバとして構成されてもよい。
なお、第2待機期間Y[秒]の経過後は、電子機器10は画像認識処理を終了する。電子機器10は、第1のトリガーが検出されない限り、音声操作受付期間を再開させない。
次に、本実施形態に係る電子機器10のハードウェア構成について説明する。図2は、本実施形態に係る電子機器10のハードウェア構成の一例を示す概略ブロック図である。
電子機器10は、通信部102、表示部104、操作入力部106、受音部108、撮像部110、再生部112、記憶部114、およびプロセッサ116を含んで構成される。これらの構成要素は、バスBSを用いて相互に各種のデータを入出力可能に接続されている。
表示部104は、画像、テキスト、など視認可能な情報を表示情報として表示するディスプレイ、光源、またはそれらの組み合わせを含んで構成される。ディスプレイは、例えば、液晶ディスプレイパネルなどを含んで構成される。光源は、例えば、LED(Light Emitting Diode、発光ダイオード)などを含んで構成される。
操作入力部106は、ユーザの操作を受け付け、受け付けた操作に基づく操作信号を生成し、生成した操作信号を出力する。操作入力部106は、ボタン、ダイヤルなどの専用の部材を含んで構成されてもよいし、キーボード、マウス、タッチセンサなどの汎用の部材を含んで構成されてもよい。タッチセンサは、表示部104として機能する液晶ディスプレイパネルと一体化してタッチパネルとして構成されてもよい。
撮像部110は、所定の視野内の物体を表す画像を撮像し、撮像した画像を示す画像信号を生成し、生成した画像信号を出力する。撮像部110は、撮像面に複数の撮像素子が二次元配置されてなるCCD(Charge Coupled Device、電荷結合素子)カメラなどの電子カメラであってもよい。
再生部112は、自部に入力される音声信号に基づく音を再生する。再生部112は、例えば、スピーカを含んで構成される。再生部112には、例えば、プロセッサ116が実行したコマンドに応じて生成された音声信号が入力され、入力される音声信号で各種の案内情報を有する音声を再生する。
次に、本実施形態に係る電子機器10の機能構成例について説明する。
図3は、本実施形態に係る電子機器10の機能構成例を示す概略ブロック図である。
プロセッサ116は、記憶部114から所定のプログラムを読み出し、読み出したプログラムを実行して制御部130の機能を実現する。
制御部130は、入力制御部132、出力制御部134、音声検出部136、動作モード制御部138、音声制御部140、およびトリガー検出部142を含んで構成される。
出力制御部134は、表示部104に表示させる表示情報を出力する。出力制御部134は、再生部112に再生させる音を示す音声信号を出力する。
音声検出部136は、現時点が音声操作受付期間外である場合には、発話区間内の音声信号をトリガー検出部142に出力する。
動作モード制御部138は、自器の動作モードが第1トリガー待機モードであって、トリガー検出部142から第1のトリガーの検出を示す第1トリガー検出信号が入力されるとき、自器の動作モードを音声操作受付モードに変更する。動作モード制御部138は、変更後の動作モードである音声操作受付モードを示す動作モード信号を表示部104、音声検出部136、およびトリガー検出部142に出力する。表示部104は、動作モード制御部138から音声操作受付モードを示す動作モード信号が入力されるとき、音声操作受付期間を示す第1の表示を行う。表示部104は、例えば、発光部を備え、第1の表示として所定の色(例えば、緑色)で点灯する。
音声制御部140は、例えば、認識された音声コマンドがネットワークに接続された他の機器(以下、ネットワーク機器)に対する動作制御情報を示すとき、通信部102を用いて、ネットワーク機器に動作制御情報を送信する。その機器は、電子機器10から動作制御情報を受信するとき、受信した動作制御情報に従って動作を制御する。制御対象とするネットワーク機器は、電子機器10と共通のLAN(Local Area Network、構内ネットワーク)に無線または有線で接続された情報端末装置、家庭電化器具などのいずれであってもよい。
動作モードが第1トリガー待機モードであるとき、トリガー検出部142は、音声操作受付期間の開始に対するトリガーとして第1トリガーを待ち受ける。
トリガー検出部142は、例えば、音声検出部136から入力される音声信号に対して公知の音声認識処理を行って発話情報を取得する。トリガー検出部142は、取得した発話情報が所定のトリガーワードを含むとき、第1トリガーを検出したと判定し、その発話情報がトリガーワードを含まないとき、第1トリガーを検出しないと判定する。認識可能とする語彙として所定のトリガーワードが含まれれば足りるため、トリガー検出部142における音声認識処理において要求される処理能力は、外部音声認識部ASRで要求される処理能力よりも格段に低くてもよい。
トリガー検出部142は、第1トリガーを検出するとき、第1トリガーの検出を示す第1トリガー検出信号を動作モード制御部138に出力する。
トリガー検出部142は、例えば、撮像部110から入力される画像信号に対して公知の画像認識処理を行い、所定のジェスチャを示すユーザを検出するとき、第2トリガーを検出したと判定する。トリガー検出部142は、例えば、所定の範囲の速度(例えば、秒速20−50cm程度)で自器に接近する所定の大きさ(例えば、径が8−15cm程度)を有する物体を第2トリガーとして検出してもよい。
トリガー検出部142は、所定のジェスチャを示すユーザを検出できないとき、第2トリガーを検出しないと判定する。
所定のジェスチャを示すユーザを検出できないとき、トリガー検出部142は、第2トリガーを検出しないと判定する。
トリガー検出部142は、第2トリガーを検出するとき、第2トリガーの検出を示す第2トリガー検出信号を動作モード制御部138に出力する。
視線を第2トリガーとして採用することで、ユーザに対して電子機器10との対話の感覚を与えることができる。また、視線を第2トリガーとして併用することで、ジェスチャに対する画像認識処理のFAR(False Acceptance Rate、誤り受入率)が低くても許容される。
次に、本実施形態に係る電子機器10が実行する動作モード制御の例について説明する。図4は、本実施形態に係る電子機器10が実行する動作モード制御の例を示すシーケンス図である。図4に示す処理は、電子機器10の動作モードが、第1トリガー待機モードであるときに開始される場合を例にする。
(ステップS106)音声制御部140は、音声検出部136から入力される発話区間ごとの音声信号を外部音声認識部ASRに通信部102を経由して送信する。その後、ステップS108の処理に進む。
(ステップS110)外部音声認識部ASRは、音声認識処理に得られた発話情報を電子機器10に送信する。その後、ステップS112の処理に進む。
(ステップS112)音声制御部140は、外部音声認識部ASRから受信した発話情報から音声コマンドを識別し、識別された音声コマンドで指示される処理を実行する。その後、ステップS114の処理に進む。
(ステップS116)動作モード制御部138は、第2待機期間を開始し、表示部104に現時点が第2待機期間であることを示す第2表示を開始させる。その後、ステップS118の処理に進む。
(ステップS120)動作モード制御部138は、自器の動作モードを第2トリガー待機モードから音声操作受付モードに変更すると判定する。ここで、動作モード制御部138は、第2待機期間を終了し、表示部104に第2表示を停止させる。その後、ステップS104の処理に戻る。
(ステップS124)動作モード制御部138は、自器の動作モードを第2トリガー待機モードから第1トリガー待機モードに変更すると判定する。ここで、動作モード制御部138は、第2待機期間を終了し、表示部104に第2表示を停止させる。その後、ステップS102の処理に戻る。
次に、本発明の第2の実施形態について説明する。以下の説明では、特に断らない限り上記の実施形態との差異点を主とする。
上記の実施形態と共通の処理、構成については、同一の符号を付してその説明を援用する。
(ハードウェア構成)
まず、本実施形態に係る電子機器10のハードウェア構成の一例について説明する。
図5は、本実施形態に係る電子機器10のハードウェア構成の一例を示す概略ブロック図である。
電子機器10は、通信部102、表示部104、操作入力部106、受音部108、撮像部110、再生部112、記憶部114、プロセッサ116、および検出部118を含んで構成される。
図1に示す例では、検出部118は、ソファーSFに座っているユーザU01を検出することができる。
また、撮像部110の視野は固定であってもよいが、撮像部110は、入力制御部132による制御に基づいて視野を可変とする可変カメラであってもよい。可変カメラのパラメータとして、例えば、その範囲の大きさを示す視野角、光学軸の方向に相当する撮像方向、自部からその像のピントが合う被写体までの距離に相当する合焦距離のいずれか、またはそれらの任意の組が制御されてもよい。
次に、本実施形態に係る電子機器10の外観構成例について説明する。
図6は、本実施形態に係る電子機器10の外観構成例を示す斜視図である。
電子機器10は、底面の直径よりも高さの方が大きい細長の円筒形の筐体を有する。筐体の表面には、2個のランプ104−1、104−2と、2個のボタン106−1、106−2と、8個のマイクロホン108−1〜108−8が配置されている。筐体の側面には、カメラ110cと、スピーカ112pと、ソナー118nが配置されている。
ボタン106−1は、押下の検出に応じて音量の変更を示す音量変更信号を操作信号の一形態として出力制御部134に出力する。出力制御部134は、再生部112の出力する音声信号に対する利得(ゲイン)をボタン106−1から入力される音量変更信号に基づいて変更する。例えば、出力制御部134には、予め設定された複数通りの利得の候補のうちの1つを音声信号に作用する利得として、音量変更信号が入力されるたびに巡回的に選択する。
ボタン106−2は、押下の検出に応じて音声認識開始を示す音声認識開始信号を操作信号の一形態としてトリガー検出部142に出力する。例えば、トリガー検出部142は、ボタン106−2から音声認識開始信号が入力されるとき、第1トリガーを検出したと判定する。
なお、カメラ110cは、撮像系における対物レンズと撮像面との位置関係、対物レンズに前置される絞り機構の絞り量の一方または両方を制御することで、視野を可変としてもよい。
ソナー118nは、検出部118の例である。ソナー118nは、放射器、受信器、および検出器を備える。放射器は、超音波を放射する。放射器から到来した超音波は、所定範囲内に所在する物体の表面において反射波として反射する。検出器は、到来方向ごとに物体から反射された反射波を受波する。検出器は、予め人物が所在していない場合に取得した反射波である参照波の成分を受波した反射波から差し引いて、人物の所在による反射波の成分を抽出する。検出器は、抽出した成分のうち、強度が所定の検出閾値よりも高く、かつ、強度が最大となる到来方向を人物の方向と判定することができる。また、検出器は、その方向について抽出した成分と放射した超音波との位相差に基づいて人物までの距離を推定することができる。
また、検出部118は、自部から所定範囲内に所在する人物の方向を検出することができれば、いかなる検出原理のセンサが採用可能である。例えば、検出部118として、赤外線センサが適用可能である。赤外線センサは、物体から入射する赤外線を検出面に収束させるレンズと検出面に配置された複数の受光素子を含む光学系および検出器を備える。受光素子は、それぞれ人間の体温に対応する波長の赤外線を受光し、受光した赤外線の強度に応じた検出信号を検出器に出力する。検出器は、受光した赤外線の強度が、所定の検出閾値よりも強度が高い赤外線を検出した受光素子と、それらの受光素子の位置の中心点に対応する方向を人物の方向として判定することができる。また、赤外線センサが位置の異なる2個以上の光学系を備える場合には、検出器は光学系間で検出信号の平均値を代表値として算出し、それぞれの代表値間の位相差と光学系の間の距離に基づいて、自部から人物までの距離を算出することができる。
次に、本実施形態に係る電子機器10の機能構成例について説明する。
図7は、本実施形態に係る電子機器10の機能構成例を示す概略ブロック図である。
プロセッサ116は、記憶部114から所定のプログラムを読み出し、読み出したプログラムを実行して制御部130の機能を実現する。
制御部130は、入力制御部132、出力制御部134、音声検出部136、動作モード制御部138、音声制御部140、トリガー検出部142、およびユーザ検出部144を含んで構成される。
ユーザ検出情報にさらにユーザの距離が含まれている場合には、ユーザ検出部144は、そのユーザの距離をユーザ方向情報に含めて入力制御部132に出力してもよい。
ユーザ方向情報に距離の情報がさらに含まれる場合には、入力制御部132は、その距離を撮像距離と定め、撮像方向と撮像距離の組で特定される目標位置を示す視野制御信号を撮像部110に出力してもよい。撮像部110は、入力制御部132から入力される視野制御信号が示す目標位置に設置された被写体の像が撮像される画像のうち予め定めた領域を占めるように、公知の視野制御技術を用いて視野を制御し、かつ、公知のズーム制御技術を用いてズームを制御してもよい。例えば、所定の領域とは中心が画像全体の領域と共通であって、水平方向の幅と垂直方向の高さが画像全体の幅、高さの半分以上の大きさを有する領域であり、撮像部110は、その領域の垂直方向の一端と他端の高さが、ユーザの顔面の垂直方向の一端と他端の高さに接する大きさ、位置に視野を制御する。
入力制御部132は、音声検出部136から発話区間信号が発話区間の開始を示す発話区間信号が入力された後、次に発話区間の終了を示す発話区間信号が入力されるまでの間、ユーザが発話中と判定することができる。
入力制御部132は、受音部108の指向方向をそのユーザの方向に制御する際、その方向に指向方向を固定してもよいし、その方向に指向方向を公知の指向性制御技術を用いて追従させてもよい。
このように受音部108の指向方向を制御することで、他の方向に所在する他のユーザの発話による音声が排除または低減される。そのため、他のユーザとの同時発話による音声認識精度の低下が回避または抑制される。
また、入力制御部132は、音声操作受付期間において検出したユーザU01が発話するとき、そのユーザU01の像が含まれる方向に撮像部110の視野を維持する。トリガー検出部142は、第2待機期間において撮像部110で撮像される画像に対して画像認識処理を行う。そのため、トリガー検出部142は、ユーザU01のジェスチャを第2トリガーとして検出することができる。また、ユーザU02の方向は、カメラの視野に含まれないため、ユーザU02が電子機器10に対してジェスチャを行っても第2トリガーとして検出されない。
以上に説明したように、上記の実施形態に係る電子機器10は、音声信号を入力する音声入力部(例えば、受音部108)と、制御部130とを備える。制御部130は、第1のトリガーを検出するとき、ネットワークを介して接続された外部音声認識部ASRに前記音声信号に対して音声認識を実行させる音声操作受付期間を開始させる。制御部130は、前記音声操作受付期間の開始と前記音声認識により得られた発話情報に対する処理の終了のうち遅い方から、所定の第1の待機時間(例えば、第1待機期間X[秒])を経過するとき音声操作受付期間を終了させる。制御部130は、音声操作受付期間の終了から所定の第2の待機時間(例えば、第2待機期間Y[秒])の経過前に第2のトリガーを検出するとき、音声操作受付期間を再開させる。
この構成によれば、音声操作受付期間の終了から第2の待機期間の経過前に第2のトリガーが検出されるとき、音声操作受付期間が再開されるので、ネットワークを介して音声信号が送信される音声操作受付期間を延長しなくても、第2のトリガーを与えればユーザの発話による操作が可能となる。そのため、第1のトリガーを再度与えることなく、ネットワークを介した音声信号の送信期間の延長が回避されるので、利便性とプライバシー保護を両立することができる。
この構成によれば、ユーザは第1のトリガーとして所定の語句を発話しなくても、ネットワークを介した音声信号の送信期間の延長が回避されるので、利便性とプライバシー保護を両立することができる。
この構成によれば、ユーザは第1のトリガーとして所定の操作を行わなくても、ネットワークを介した音声信号の送信期間の延長が回避されるので、利便性とプライバシー保護を両立することができる。
この構成によれば、ユーザは第1のトリガーを与えなくても、所定の挙動を示せば、ネットワークを介した音声信号の送信期間の延長が回避されるので、利便性とプライバシー保護を両立することができる。
この構成によれば、ユーザは第1のトリガーを与えなくても、自器の方向を指示する挙動を示すことで、特段の操作を行わずに電子機器10の使用の意思を容易に示すことができる。
この構成によれば、検出したユーザの方向から到来する音声が主に収音され、他の方向から到来する音声の収音レベルが相対的に低下する。
検出したユーザが発話した音声の発話情報に対する音声認識精度が高くなるため、ユーザの意図に従った操作が可能となる。
この構成によれば、発話したユーザの方向に少なくとも第2の待機時間中に第2のトリガーが与えられるまで画像入力部の撮像方向が向けられる。そのため、発話したユーザの所定の挙動を第2のトリガーとして、より確実に取得することができる。
これにより、ユーザは発話による音声が認識される音声操作受付期間と、第2のトリガーが検出される期間を把握することができる。そのため、電子機器の音声操作を行うために、なすべき行動を直感的に判断することができる。
また、操作入力部106は、他の機器から操作信号を有線または無線で取得できれば、必ずしもユーザの操作を受け付ける部材を備えていなくてもよい。
音声入力部として電子機器10が受音部108を備える場合を例にしたが、他の機器から音声信号を有線または無線で取得できれば、電子機器10は必ずしも受音部108を備えていなくてもよい。
画像入力部として電子機器10が撮像部110を備える場合を例にしたが、他の機器から画像信号を有線または無線で取得できれば、電子機器10は必ずしも撮像部110を備えていなくてもよい。
再生部112は、他の機器に音声信号を送信できれば、必ずしもスピーカを備えていなくてもよい。
検出部118は、他の機器から検出信号を有線または無線で取得できれば、必ずしも人感センサを備えていなくてもよい。
Claims (10)
- 音声信号を入力する音声入力部と、
第1のトリガーを検出するとき、ネットワークを介して接続された外部音声認識部に前記音声信号に対して音声認識を実行させる音声操作受付期間を開始させ、
前記音声操作受付期間の開始と前記音声認識により得られた発話情報に対する処理の終了のうち遅い方から、所定の第1の待機時間を経過するとき前記音声操作受付期間を終了させ、
前記音声操作受付期間の終了から所定の第2の待機時間の経過前に第2のトリガーを検出するとき、前記音声操作受付期間を再開させる制御部と、を備える
電子機器。 - 前記制御部は、
前記音声信号に対して音声認識を実行し、認識される所定の語句を前記第1のトリガーとして待機するトリガー検出部を備える
請求項1に記載の電子機器。 - 操作を受け付ける操作入力部を備え、
前記制御部は、
前記操作入力部が受け付ける所定の操作を前記第1のトリガーとして待機するトリガー検出部を備える
請求項1または請求項2に記載の電子機器。 - 画像信号を入力する画像入力部を備え、
前記制御部は、
前記画像信号に対して画像認識を実行して認識されるユーザの所定の挙動を前記第2のトリガーとして待機するトリガー検出部を備える
請求項1から請求項3のいずれか一項に記載の電子機器。 - 前記制御部は、
前記挙動として自器の方向を指示する挙動を待機する
請求項4に記載の電子機器。 - 自器から所定の範囲内に所在するユーザを検出する検出部を備え、
前記制御部は、
前記ユーザの方向に、前記音声入力部の指向方向を制御する
請求項1から請求項5のいずれか一項に記載の電子機器。 - 前記制御部は、
前記ユーザの発話が検出された後、第2の待機時間の経過または第2のトリガーの検出まで、前記ユーザの方向に、画像信号を入力する画像入力部の撮像方向を制御する
請求項6に記載の電子機器。 - 表示部を備え、
前記制御部は、
前記音声操作受付期間において前記表示部に第1の表示を表示させ、
前記音声操作受付期間の終了から、前記第2の待機時間の経過または前記音声操作受付期間の再開までの期間において前記表示部に前記第1の表示とは異なる態様の第2の表示を表示させる
請求項1から請求項7のいずれか一項に記載の電子機器。 - 音声信号を入力する音声入力部を備える電子機器の制御方法であって、
第1のトリガーを検出するとき、ネットワークを介して接続された外部音声認識部に前記音声信号に対して音声認識を実行させる音声操作受付期間を開始させる第1ステップと、
前記音声操作受付期間の開始と前記音声認識により得られた発話情報に対する処理の終了のうち遅い方から、所定の第1の待機時間を経過するとき前記音声操作受付期間を終了させる第2ステップと、
前記音声操作受付期間の終了から、所定の第2の待機時間の経過前に第2のトリガーを検出するとき、前記音声操作受付期間を再開させる第3ステップと、を有する
制御方法。 - 音声信号を入力する音声入力部を備える電子機器のコンピュータに、
第1のトリガーを検出するとき、ネットワークを介して接続された外部音声認識部に前記音声信号に対して音声認識を実行させる音声操作受付期間を開始させる第1手順と、
前記音声操作受付期間の開始と前記音声認識により得られた発話情報に対する処理の終了のうち遅い方から、所定の第1の待機時間を経過するとき前記音声操作受付期間を終了させる第2手順と、
前記音声操作受付期間の終了から、所定の第2の待機時間の経過前に第2のトリガーを検出するとき、前記音声操作受付期間を再開させる第3手順と、
を実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019062617A JP6842489B2 (ja) | 2019-03-28 | 2019-03-28 | 電子機器、制御方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019062617A JP6842489B2 (ja) | 2019-03-28 | 2019-03-28 | 電子機器、制御方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020160387A JP2020160387A (ja) | 2020-10-01 |
JP6842489B2 true JP6842489B2 (ja) | 2021-03-17 |
Family
ID=72643217
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019062617A Active JP6842489B2 (ja) | 2019-03-28 | 2019-03-28 | 電子機器、制御方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6842489B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6995273B1 (ja) | 2021-02-10 | 2022-01-14 | 株式会社エクサウィザーズ | 業務支援方法、システム及びプログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3844874B2 (ja) * | 1998-02-27 | 2006-11-15 | 株式会社東芝 | マルチモーダルインタフェース装置およびマルチモーダルインタフェース方法 |
JP6236805B2 (ja) * | 2013-03-05 | 2017-11-29 | 日本電気株式会社 | 発話コマンド認識システム |
CN107430856B (zh) * | 2015-03-23 | 2021-02-19 | 索尼公司 | 信息处理系统和信息处理方法 |
KR102098633B1 (ko) * | 2017-08-22 | 2020-04-08 | 네이버 주식회사 | 인공지능 기기에서의 연속 대화 기능 |
-
2019
- 2019-03-28 JP JP2019062617A patent/JP6842489B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020160387A (ja) | 2020-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6669162B2 (ja) | 情報処理装置、制御方法、およびプログラム | |
WO2016157658A1 (ja) | 情報処理装置、制御方法、およびプログラム | |
EP3602241B1 (en) | Method and apparatus for interaction with an intelligent personal assistant | |
US20190019513A1 (en) | Information processing device, information processing method, and program | |
WO2021037129A1 (zh) | 一种声音采集方法及装置 | |
JP6433903B2 (ja) | 音声認識方法及び音声認識装置 | |
KR102056221B1 (ko) | 시선인식을 이용한 장치 연결 방법 및 장치 | |
US20080289002A1 (en) | Method and a System for Communication Between a User and a System | |
US20210211823A1 (en) | Audio communication system and method | |
WO2017141530A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2000347692A (ja) | 人物検出方法、人物検出装置及びそれを用いた制御システム | |
JP2017102516A (ja) | 表示装置、通信システム、表示装置の制御方法、及び、プログラム | |
WO2019220729A1 (ja) | 情報処理装置、情報処理方法、および記録媒体 | |
JP6364735B2 (ja) | 表示装置、頭部装着型表示装置、表示装置の制御方法、および、頭部装着型表示装置の制御方法 | |
JP6842489B2 (ja) | 電子機器、制御方法およびプログラム | |
WO2018139036A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP4677593B2 (ja) | コミュニケーションロボット | |
EP3195618B1 (en) | A method for operating a hearing system as well as a hearing system | |
JP6678315B2 (ja) | 音声再生方法、音声対話装置及び音声対話プログラム | |
JP2019146118A (ja) | コミュニケーション装置、コミュニケーション方法、コミュニケーションプログラム及びコミュニケーションシステム | |
KR102136461B1 (ko) | 스마트 디바이스 및 그 제어 방법 | |
KR102613040B1 (ko) | 영상 통화 방법 및 이를 구현하는 로봇 | |
WO2018139050A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US20240129686A1 (en) | Display control apparatus, and display control method | |
KR102136462B1 (ko) | 스마트 디바이스 및 그 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6842489 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |