JP2008233345A - インタフェース装置及びインタフェース処理方法 - Google Patents

インタフェース装置及びインタフェース処理方法 Download PDF

Info

Publication number
JP2008233345A
JP2008233345A JP2007070456A JP2007070456A JP2008233345A JP 2008233345 A JP2008233345 A JP 2008233345A JP 2007070456 A JP2007070456 A JP 2007070456A JP 2007070456 A JP2007070456 A JP 2007070456A JP 2008233345 A JP2008233345 A JP 2008233345A
Authority
JP
Japan
Prior art keywords
voice
status
unit
detection result
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007070456A
Other languages
English (en)
Inventor
Daisuke Yamamoto
本 大 介 山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007070456A priority Critical patent/JP2008233345A/ja
Priority to US12/076,104 priority patent/US20080235031A1/en
Publication of JP2008233345A publication Critical patent/JP2008233345A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】機器とユーザとの仲立ちとなる使いやすい音声インタフェースを提供する。
【解決手段】機器操作を検出する操作検出部と、機器又は機器周辺の状況の状況変化又は状況継続を検出する状況検出部と、前記機器操作の検出結果と前記状況変化又は状況継続の検出結果とを対応させて蓄積する操作履歴蓄積部と、新たに検出された状況変化又は状況継続の検出結果を、蓄積されている状況変化又は状況継続の検出結果と照合し、新たに検出された状況変化又は状況継続の検出結果に対応する機器操作を選択する操作履歴照合部と、選択された機器操作に対応する語句を音声化して発話する発話部とを備えることを特徴とするインタフェース装置。
【選択図】図1

Description

本発明は、インタフェース装置及びインタフェース処理方法に関する。
近年、ブロードバンドの普及に伴い、情報家電と呼ばれるネットワーク対応家電による家庭内でのホームネットワークの構築が進んでいる。一方、情報家電とユーザとのインタフェースは、必ずしもユーザにとって使いやすいものとはなっていない。理由は、情報家電が様々な便利な機能を持つようになり多様な使い方ができるようになった反面、その機能の豊富さがゆえに、ユーザが、欲する機能を利用するのに多くの選択を強いられるようになったためである。従って、情報家電とユーザとの仲立ちとなり、誰もが簡単に機器操作を行う事ができ、誰もが容易に機器情報を把握できるような、使いやすいインタフェースが必要とされている。
そのようなインタフェースとして、ユーザからの音声指示に応じて機器操作を実行するような音声インタフェースが知られている。このような音声インタフェースでは通常、音声による機器操作のための音声指示語が予め決められており、ユーザは、既定の音声指示語により簡単に機器操作を行う事ができる。しかしながら、このような音声インタフェースには、ユーザが既定の音声指示語を覚えていなければならないという問題点があった。ユーザは、既定の音声指示語を覚えていないと、機器操作の際にどんな音声指示語を発したらいいのか分からない状態になりがちであった。
このような問題を解決する方法として、特許文献1等に記載のように、登録されている音声指示語を、ディスプレイに提示したり、「ヘルプ」という音声指示や画面操作に応じて音声で発話して提示する方法が知られている。しかし、複数の音声指示語を提示する場合には、後者のような音声提示ではわずらわしく、前者のようなディスプレイ提示が必要となる。
また、過去の操作履歴等に基づき、状況に応じて使われる頻度の高い音声指示語を提示する方法も知られている。しかし、操作履歴等に基づき音声指示語を提示する場合、提示ルールによって、音声指示語を多く提示しすぎてしまったり、逆に音声指示語を全く提示しなかったりという問題が生じる。提示率が高いと、的確でない提示がわずらわしいし、かといって提示率が低いと、的確な提示が得られない。
特許文献2には、音声指示語として、一般的でない言葉(ユーザの口癖や各家庭独自の表現等)を覚えて行くようなシステムが開示されている。この場合、一般的でない言葉の音声指示語をシステムが覚えて行くので、ユーザは、予め決まられた音声指示語を覚える必要がない。しかし、ユーザは、システムに覚えさせた音声指示語を忘れると、システムを使えなくなってしまう。
また、非特許文献1には、ユーザが、予め決められた音声指示語ではなく、自由な言葉で機器操作を行う事ができるようなインタフェース装置が開示されている。
特開平6−95828号公報 特開2003−241790号公報 "親和行動導入による実用的ホームロボットインタフェースの研究 −ユーザの言葉で操作・通知するインタフェース−", 情報処理学会第117回ヒューマンインタフェース研究会研究報告,2006−HI−117,(2006).
本発明は、機器とユーザとの仲立ちとなる使いやすい音声インタフェースを提供することを課題とする。
本発明は例えば、
機器操作を検出する操作検出部と、
機器又は機器周辺の状況の状況変化又は状況継続を検出する状況検出部と、
前記機器操作の検出結果と前記状況変化又は状況継続の検出結果とを対応させて蓄積する操作履歴蓄積部と、
新たに検出された状況変化又は状況継続の検出結果を、蓄積されている状況変化又は状況継続の検出結果と照合し、新たに検出された状況変化又は状況継続の検出結果に対応する機器操作を選択する操作履歴照合部と、
選択された機器操作に対応する語句を音声化して発話する発話部とを備えることを特徴とするインタフェース装置に係る。
本発明は例えば、
機器操作を検出し、
機器又は機器周辺の状況の状況変化又は状況継続を検出し、
前記機器操作の検出結果と前記状況変化又は状況継続の検出結果とを対応させて蓄積し、
新たに検出された状況変化又は状況継続の検出結果を、蓄積されている状況変化又は状況継続の検出結果と照合し、新たに検出された状況変化又は状況継続の検出結果に対応する機器操作を選択し、
選択された機器操作に対応する語句を音声化して発話することを特徴とするインタフェース処理方法に係る。
本発明は例えば、
機器又は機器周辺の状況の状況変化又は状況継続を検出し、
検出された状況変化又は状況継続の意味を、音声でユーザに問い掛け、
問い掛けに応じてユーザが発した教示音声について、音声認識を実行し又は音声認識手段に音声認識を実行させ、
前記教示音声の認識結果と前記状況変化又は状況継続の検出結果とを対応させて蓄積し、
機器操作のためにユーザが発した指示音声について、音声認識を実行し又は音声認識手段に音声認識を実行させ、
前記指示音声の認識結果と蓄積されている前記教示音声の認識結果とが照合された照合結果に基づいて、前記指示音声の認識結果に対応する機器操作を選択し、
選択された機器操作を実行し、
実行された機器操作を検出し、
機器又は機器周辺の状況の状況変化又は状況継続を検出し、
前記機器操作の検出結果と前記状況変化又は状況継続の検出結果とを対応させて蓄積し、
新たに検出された状況変化又は状況継続の検出結果を、蓄積されている状況変化又は状況継続の検出結果と照合し、新たに検出された状況変化又は状況継続の検出結果に対応する機器操作を選択し、
選択された機器操作に対応する語句を、蓄積されている前記教示音声の認識結果から取得された語句の中から検索し、検索された語句を音声化して発話することを特徴とするインタフェース処理方法に係る。
本発明は、機器とユーザとの仲立ちとなる使いやすい音声インタフェースを提供するものである。
以下、本発明の実施の形態を図面に基づいて説明する。
(第1実施例)
図1は、第1実施例のインタフェース装置101の構成図である。図2は、第1実施例のインタフェース装置101の動作を説明するための説明図である。第1実施例のインタフェース装置101は、親しみやすい身体性を持つロボット型の音声インタフェース装置となっている。第1実施例のインタフェース装置101は、音声入力機能と音声出力機能とを備えており、機器201とユーザ301との仲立ちとなる音声インタフェースを提供する。
図1のように、上記インタフェース装置101は、音声認識部111と、蓄積部112と、照合部113と、機器操作部114と、操作検出部121と、状況検出部122と、操作履歴蓄積部123と、操作履歴照合部124と、対応語句検索部131及び対応語句発話部132を有する発話部125とを備える。
音声認識部111は、機器操作のためにユーザが発する指示音声について、音声認識を実行する又は音声認識手段401に音声認識を実行させるブロックである。蓄積部112は、機器操作を特定する情報と機器操作に対応する語句とを対応させて蓄積するブロックである。照合部113は、指示音声の認識結果と蓄積されている語句とが照合された照合結果に基づいて、指示音声の認識結果に対応する機器操作を選択するブロックである。機器操作部114は、選択された機器操作を実行するブロックである。
操作検出部121は、機器操作を検出するブロックである。状況検出部122は、機器又は機器周辺の状況の状況変化又は状況継続を検出するブロックである。操作履歴蓄積部123は、機器操作の検出結果と状況変化又は状況継続の検出結果とを対応させて蓄積するブロックである。操作履歴照合部124は、新たに検出された状況変化又は状況継続の検出結果を、蓄積されている状況変化又は状況継続の検出結果と照合し、新たに検出された状況変化又は状況継続の検出結果に対応する機器操作を選択するブロックである。発話部125は、選択された機器操作に対応する語句を音声化して発話するブロックである。発話部125において、対応語句検索部131は、音声化して発話する語句を、蓄積されている語句の中から検索し、対応語句発話部132は、検索された語句を音声化して発話する。
以下、機器201の例として多チャンネル時代のテレビを取り上げる。そして、テレビのチャンネルをニュースチャンネルに切り替える機器操作を題材に、上記インタフェース装置101の動作を説明する。
図2のように、上記インタフェース装置101の動作段階には、機器201の操作履歴を蓄積する操作履歴蓄積段階と、機器201の操作履歴を活用する操作履歴活用段階とが存在する。
ある日の夕方、ユーザ301が、自宅に帰宅し、ドアを開けて部屋に入り、リモコンを指先で操作し、テレビ201のチャンネルをニュースチャンネルに切り替えたとする(S111)。この際、インタフェース装置101では、状況検出部122が、ドアが開いたという、テレビ201周辺の状況の状況変化を、ドアに取り付けられたドアセンサ501により検出する(S112)。状況検出部122は更に、当該検出時の時刻情報をタイマー等から取得する。また、インタフェース装置101では、操作検出部121が、ニュースチャンネルへの切り替え操作に伴うリモコン信号を受信する(S113)。これにより、操作検出部121は、テレビ201のチャンネルをニュースチャンネルに切り替えたという、ユーザ301が実行した機器操作を検出する。
なお、操作検出部121は、テレビ201がネットワーク接続されている場合には、リモコン信号をテレビ201からネットワーク経由で受信し、テレビ201がネットワーク接続されていない場合には、リモコン信号をリモコンから直接受信する。そして、インタフェース装置101は、ドアが開いたという状況変化の検出結果と、ニュースチャンネルへの切り替えという機器操作の検出結果と、これらの検出時刻である上記時刻情報とを、互いに対応付けて操作履歴蓄積部123に蓄積する(S114)。
また、別の日の夕方、ユーザ301が、自宅に帰宅し、ドアを開けて部屋に入り、テレビ201をつけてニュースチャンネルを観るために、インタフェース装置101に「ニュースつけて」と話し掛けたとする(S121)。これに応じて、インタフェース装置101では、音声認識部111が、機器操作のためにユーザ301が発した「ニュースつけて」という指示音声について、音声認識を実行する(S122)。なお、音声認識部111は、当該指示音声の音声認識を実行する代わりに、当該指示音声の音声認識を装置101内部又は装置101外部の音声認識手段401に実行させても構わない。音声認識手段401の例として、音声認識サーバ、音声認識ボード、音声認識エンジン等が挙げられる。
インタフェース装置101では、ニュースチャンネルへの切り替えという機器操作を特定する情報と、ニュースチャンネルへの切り替えという機器操作に対応する語句「ニュース」とが、互いに対応付けられて蓄積部112に蓄積されている。蓄積部112には、他にも様々な機器操作の特定情報と対応語句とが、互いに対応付けられて蓄積されている。音声認識部111は、指示音声「ニュースつけて」の音声認識として、これらの語句を待ち受け語として利用した孤立単語認識を実行する。即ち、音声認識部111は、当該指示音声の認識結果とこれらの語句とを照合し、当該指示音声の認識結果にこれらの語句が含まれているか否かを判断する。これにより、指示音声「ニュースつけて」の認識結果には語句「ニュース」が含まれているとの照合結果が得られる。
次に、インタフェース装置101では、照合部113が、指示音声「ニュースつけて」の認識結果と蓄積部112に蓄積されている語句とが照合された照合結果に基づいて、指示音声「ニュースつけて」の認識結果に対応する機器操作を選択する(S123)。ここでは、指示音声「ニュースつけて」の認識結果に語句「ニュース」が含まれているとの照合結果に基づいて、ニュースチャンネルへの切り替えという機器操作が選択される。
次に、インタフェース装置101では、機器操作部114が、照合部113により選択された機器操作を実行する(S124)。即ち、テレビ201がつけられて、チャンネルがニュースチャンネルに切り替えられる。この際、インタフェース装置101では、状況検出部122が、ドアが開いたという、テレビ201周辺の状況の状況変化を、ドアに取り付けられたドアセンサ501により検出する(S125)。状況検出部122は更に、当該検出時の時刻情報をタイマー等から取得する。また、インタフェース装置101では、操作検出部121が、ニュースチャンネルへの切り替え操作に伴う信号を取得する(S126)。これにより、操作検出部121は、テレビ201のチャンネルをニュースチャンネルに切り替えたという、ユーザ301からの音声指示に応じてインタフェース装置101が実行した機器操作を検出する。
そして、インタフェース装置101は、ドアが開いたという状況変化の検出結果と、ニュースチャンネルへの切り替えという機器操作の検出結果と、これらの検出時刻に相当する上記時刻情報とを、互いに対応付けて操作履歴蓄積部123に蓄積する(S127)。
以上のように、インタフェース装置101は、ユーザ301が機器操作を実行したり、ユーザ301からの音声指示に応じてインタフェース装置101が機器操作を実行したりするたびに、実行された機器操作の操作履歴を蓄積する。以上の操作履歴蓄積段階で蓄積された操作履歴は、以下の操作履歴活用段階で活用される。
ある日の夕方、ユーザ301が、自宅に帰宅し、ドアを開けて部屋に入ったとする(S131)。この際、インタフェース装置101では、状況検出部122が、ドアが開いたという、テレビ201周辺の状況の状況変化を、ドアに取り付けられたドアセンサ501により検出する(S132)。状況検出部122は更に、当該検出時の時刻情報をタイマー等から取得する。次に、インタフェース装置101では、操作履歴照合部124が、この新たに検出された状況変化又は状況継続の検出結果を、操作履歴蓄積部123に蓄積されている状況変化又は状況継続の検出結果と照合し、この新たに検出された状況変化又は状況継続の検出結果に対応する機器操作を選択する(S133)。
当該照合処理において、操作履歴照合部124は、新たに検出された状況変化又は状況継続の検出結果と蓄積されている状況変化又は状況継続の検出結果とを照合し、新たに検出された状況変化又は状況継続の検出結果と蓄積されている状況変化又は状況継続の検出結果との類似度を数値化する。即ち、新たな状況検出結果と蓄積されている状況検出結果とがどの程度類似しているかが、所定の数値化規則の下、数値として算出される。類似度の数値化方法としては例えば、ドアが開いた、夕方に検出された、金曜日に検出された等のN種類の検出パラメータを用いて、各状況検出結果をN次元空間内の座標として表し、座標間の距離の近さを状況検出結果間の類似度とするような方法が挙げられる。類似度のスケールとしては例えば、完全一致の場合の類似度を1、完全不一致の場合の類似度を0とするようなスケールが考えられる。
そして、操作履歴照合部124は、新たに検出された状況変化又は状況継続の検出結果に対応する機器操作を、上記類似度に基づいて選択する。操作履歴照合部124はここでは、蓄積されている状況検出結果の中から、新たな状況検出結果との類似度が最も高い状況検出結果を割り出し、当該類似度が閾値以上であれば、新たな状況検出結果は割り出された状況検出結果と対応していると判断する。よって、割り出された状況検出結果に対応する機器操作が、新たな状況検出結果に対応する機器操作として選択される。
S133について、より具体的に説明する。S133において、操作履歴照合部124は、夕方にドアが開いたというS132で検出された状況検出結果と蓄積されている各状況検出結果との類似度を数値化する。これにより、操作履歴照合部124は、夕方にドアが開いたというS114又はS127で蓄積された状況検出結果を割り出す。ここでは、S132で検出された状況検出結果とS114又はS127で蓄積された状況検出結果との類似度を0.9とし、閾値を0.5とする。ここでは、類似度が閾値以上であるため、S132で検出された状況検出結果は、S114又はS127で蓄積された状況検出結果と対応していると判断される。よって、S114又はS127で蓄積された状況検出結果に対応する機器操作「ニュースチャンネルへの切り替え」が、S132で検出された状況検出結果に対応する機器操作として選択される。
次に、インタフェース装置101では、発話部125が、操作履歴照合部124により選択された機器操作に対応する語句を、音声化して発話する(S134)。ここでは、機器操作「ニュースチャンネルへの切り替え」に対応する語句が、音声化されて発話される。これにより、ユーザ301に、夕方に帰宅して部屋に入ったら普段、テレビ201をつけてニュースチャンネルを観ていた事を思い出させる事ができる。即ち、ユーザ301に、所定の状況で行っていた所定の行動を思い出させる事ができる。これにより、ユーザ301は、普段通り、テレビ301をつけてニュースチャンネルを観る事ができる。
インタフェース装置101では、上述のように、機器操作を特定する情報と機器操作に対応する語句とが、互いに対応付けられて蓄積部112に蓄積されている。これにより、機器操作と語句とが互いに対応付けられており、例えば、機器操作「ニュースチャンネルへの切り替え」は語句「ニュース」と対応付けられている。
従って、S134において、発話部125は、音声化して発話する語句、即ち、操作履歴照合部124により選択された機器操作に対応する語句を、蓄積部112に蓄積されている語句の中から検索する。ここでは、機器操作「ニュースチャンネルへの切り替え」に対応する語句「ニュース」が当該検索により取得される。そして、発話部125は、当該検索により取得された語句「ニュース」を音声化して発話する。なお、発話部125は、当該語句だけを発話するのではなく、当該語句に他の語句を補って発話してもよい。例えば、「ニュースつけた」といった具合である。
本実施例では、蓄積部112に蓄積されている語句は、指示音声の音声認識の際に孤立単語認識用の待ち受け語となる。従って、本実施例では、ユーザ301は、音声化されて発話された語句「ニュース」を指示音声として発する事で、インタフェース装置101にニュースチャンネルへの切り替えを実行させる事ができる。即ち、発話部125による発話には、ニュースチャンネルへの切り替え用の音声指示語「ニュース」をユーザ301に提示する効果がある。
このように、S134では、選択された機器操作に対応する語句として、選択された機器操作用の音声指示語が発話される。これにより、ユーザ301に、所定の状況で行っていた所定の行動用の音声指示語を提示する事ができる。ユーザ301は、提示された音声指示語「ニュース」を発する事で、普段通り、テレビ301をつけてニュースチャンネルを観る事ができる。
また、S134において、発話部125は、上記語句を上記類似度に応じた方法で発話する。即ち、発話部125は、新たな状況検出結果と割り出された状況検出結果との類似度に応じて、上記語句の発話の仕方を変える。例えば、図3のように、類似度が低ければ小さな音量で「ニュース」と発話し、類似度が高ければ大きな音量で「ニュース」と発話するというように、類似度に応じて発話音量を変化させる。例えば、図4のように、類似度が低ければ「ニュース」と1回発話し、類似度が高ければ「ニュース、ニュース、ニュース」と数回発話するというように、類似度に応じて発話回数を変化させる。ロボットであるインタフェース装置101は、上記類似度に応じて、首をかしげる等の身体的動作と共に上記語句を発話してもよい。
このように、S134では、上記語句が上記類似度に応じた方法で発話される。これにより、操作履歴とよく似た状況では、ユーザ301が気付きやすい方法で、操作履歴とあまり似ていない状況では、ユーザ301がわずらわしくない方法で発話する(音声指示語を提示する)事が可能になる。この場合、発話後にユーザ301が操作を行わなければ、類似度は更に低くなり、わずらわしさは更に低減される。逆に、発話後にユーザ301が操作を行えば、類似度は更に高くなる。
S134において、インタフェース装置101は、選択された機器操作に対応する語句を発話部125により音声化して発話すると共に、選択された機器操作を機器操作部114により実行してもよい。例えば、インタフェース装置101は、「ニュース」と発話しながら「ニュースチャンネルへの切り替え」を実行してもよい。
なお、本実施例では、状況検出部122は、ドアが開いたという、テレビ201周辺の状況の状況変化を検出しているが、その他の状況変化や状況継続を検出してもよい。状況検出部122は例えば、ドアが開いているという、テレビ201周辺の状況の状況継続を検出してもよい。状況検出部122は例えば、テレビ201の電源がオンになった又はオンになっているという、テレビ201の状況の状況変化又は状況継続を検出してもよい。これらの検出結果の処理方法については、上述と同様である。
また、本実施例では、機器操作を特定する情報と機器操作に対応する語句とが、互いに対応付けられて蓄積部112に蓄積されている。当該情報はここでは、後述の通り、機器操作のコマンドとなっている。当該情報は、各機器操作を特定可能な情報であればよく、例えば、各機器操作の名称や識別符号や識別番号でもよい。
また、本実施例では、1台のインタフェース装置101で1台の機器201を取り扱う場合について説明したが、本実施例は、1台のインタフェース装置101で複数台の機器201を取り扱う場合についても適用可能である。
(第2実施例)
図5は、第2実施例のインタフェース装置101の構成図である。図6は、第2実施例のインタフェース装置101の動作を説明するための説明図である。第2実施例は、第1実施例の変形例であり、第2実施例については、第1実施例との相違点を中心に説明する事にする。
図5のように、上記インタフェース装置101は、音声認識部111と、蓄積部112と、照合部113と、機器操作部114と、操作検出部121と、状況検出部122と、操作履歴蓄積部123と、操作履歴照合部124と、対応語句検索部131及び対応語句発話部132を有する発話部125と、問い掛け部141とを備える。
問い掛け部141は、状況検出部122により検出された状況変化又は状況継続の意味を、音声でユーザに問い掛けるブロックである。音声認識部111は、問い掛けに応じてユーザが発する教示音声、及び機器操作のためにユーザが発する指示音声について、音声認識を実行する又は音声認識手段401に音声認識を実行させるブロックである。蓄積部112は、教示音声の認識結果と状況変化又は状況継続の検出結果とを対応させて蓄積するブロックである。照合部113は、指示音声の認識結果と蓄積されている教示音声の認識結果とが照合された照合結果に基づいて、指示音声の認識結果に対応する機器操作を選択するブロックである。機器操作部114は、選択された機器操作を実行するブロックである。
操作検出部121は、機器操作を検出するブロックである。状況検出部122は、機器又は機器周辺の状況の状況変化又は状況継続を検出するブロックである。操作履歴蓄積部123は、機器操作の検出結果と状況変化又は状況継続の検出結果とを対応させて蓄積するブロックである。操作履歴照合部124は、新たに検出された状況変化又は状況継続の検出結果を、蓄積されている状況変化又は状況継続の検出結果と照合し、新たに検出された状況変化又は状況継続の検出結果に対応する機器操作を選択するブロックである。発話部125は、選択された機器操作に対応する語句を音声化して発話するブロックである。発話部125において、対応語句検索部131は、音声化して発話する語句を、蓄積部112に蓄積されている教示音声の認識結果から取得された語句の中から検索し、対応語句発話部132は、検索された語句を音声化して発話する。
図6のように、上記インタフェース装置101の動作段階には、機器201の操作履歴を蓄積する操作履歴蓄積段階と、機器201の操作履歴を活用する操作履歴活用段階とに加えて、教示音声を蓄積する教示音声蓄積段階とが存在する。
教示音声蓄積段階ではまず、ユーザ301が、リモコンを指先で操作し、テレビ201のチャンネルをニュースチャンネルに切り替える(S211)。この際、インタフェース装置101では、状況検出部122が、ニュースチャンネルへの切り替え操作に伴うリモコン信号を受信する(S212)。これにより、状況検出部122は、テレビ201のチャンネルがニュースチャンネルに切り替えられたという、テレビ201の状況の状況変化を検出する。状況検出部122は、テレビ201がネットワーク接続されている場合には、リモコン信号をテレビ201からネットワーク経由で受信し、テレビ201がネットワーク接続されていない場合には、リモコン信号をリモコンから直接受信する。
なお、第1実施例のS112においては、操作検出部121がリモコン信号を受信しているのに対して、第2実施例のS212においては、状況検出部122がリモコン信号を受信している。これは、S212で検出されるテレビ201又はテレビ201周辺の状況の状況変化又は状況継続がたまたま、テレビ201の機器操作に関連していることに起因する。従って、第2実施例についていえば、S212は、操作検出部121が実行しても構わない。これは、S212が、状況検出部122の一部である操作検出部121により実行される、との解釈となる。
次に、インタフェース装置101では、照合部113が、上記リモコン信号のコマンドを、蓄積部112に蓄積されているコマンドと照合する。テレビ201がネットワーク家電である場合、上記リモコン信号のコマンドは切り替えコマンド<SetNewsCh>であり、テレビ201がネットワーク家電でない場合、上記リモコン信号のコマンドは信号コード自体である。
上記リモコン信号のコマンドが未知のコマンドである場合、問い掛け部141が、上記リモコン信号のコマンドの意味、即ち、状況検出部122により検出された状況変化の意味を、「今何したの?」という音声でユーザ301に問い掛ける(S213)。この問い掛けに応じてユーザ301が一定時間内に「ニュースつけた」と答えると(S214)、音声認識部111が、ユーザ301が発した教示音声「ニュースつけた」の音声認識処理を開始する(S215)。
S215において、音声認識部111は、教示音声「ニュースつけた」の音声認識を、音声認識手段401に実行させる。当該音声認識手段401はここでは、連続音声認識用の音声認識サーバである。従って、当該音声認識手段401は、教示音声「ニュースつけた」の音声認識として、連続音声認識を実行する。その後、音声認識部111は、教示音声「ニュースつけた」の認識結果を、当該音声認識手段401から取得する。なお、音声認識部111は、当該教示音声の音声認識を音声認識手段401に実行させる代わりに、当該教示音声の音声認識を自身で実行しても構わない。
そして、インタフェース装置101は、教示音声の認識結果である認識語「ニュースつけた」と、状況変化の検出結果であるコマンド<SetNewsCh>とを、互いに対応付けて蓄積部112に蓄積する(S216)。
続いて、操作履歴蓄積段階では、ユーザ301が、テレビ201をつけてニュースチャンネルを観るために、インタフェース装置101に「ニュースつけて」と話し掛ける(S221)。第1実施例のS121と同様である。これに応じて、インタフェース装置101では、音声認識部111が、機器操作のためにユーザ301が発した指示音声「ニュースつけて」の音声認識処理を開始する(S222)。第1実施例のS122と同様である。
S222において、音声認識部111は、指示音声「ニュースつけて」の音声認識を、音声認識手段401に実行させる。当該音声認識手段401はここでは、連続音声認識用の音声認識サーバである。従って、当該音声認識手段401は、指示音声「ニュースつけて」の音声認識として、連続音声認識を実行する。その後、音声認識部111は、指示音声「ニュースつけて」の認識結果を、当該音声認識手段401から取得する。なお、音声認識部111は、当該指示音声の音声認識を音声認識手段401に実行させる代わりに、当該指示音声の音声認識を自身で実行しても構わない。
次に、インタフェース装置101では、照合部113が、指示音声「ニュースつけて」の認識結果と蓄積部112に蓄積されている教示音声の認識結果とを照合し、これらの認識結果が照合された照合結果に基づいて、指示音声「ニュースつけて」の認識結果に対応する機器操作を選択する(S223)。第1実施例のS123と同様である。ここでは、指示音声「ニュースつけて」の認識結果と教示音声「ニュースつけた」の認識結果とが対応しているとの照合結果が得られ、当該照合結果に基づいて、<SetNewsCh>というコマンド、即ち、ニュースチャンネルへの切り替えという機器操作が選択される。
なお、S223では、語尾に違いの見られる教示音声「ニュースつけた(語尾:た)」と指示音声「ニュースつけて(語尾:て)」とが照合されており、これらが対応しているとの照合結果が得られている。このような照合処理は例えば、教示音声の連続音声認識結果と指示音声の連続音声認識結果との形態素レベルでの適合性の解析により実現可能である。当該解析処理の例としては、上記類似度を数値化したのと同様に当該適合性を数値化する事で、当該適度性を定量的に解析するような解析処理が挙げられる。
次に、インタフェース装置101では、機器操作部114が、照合部113により選択された機器操作を実行する(S224)。即ち、テレビ201がつけられて、チャンネルがニュースチャンネルに切り替えられる。第1実施例のS124と同様である。以下、第1実施例のS125からS127と同様の処理が実行される。
S211からS216の教示音声蓄積段階によれば、教示音声の認識結果「ニュースつけた」と、状況変化の検出結果<SetNewsCh>とが、互いに対応付けられて蓄積部112に蓄積される。インタフェース装置101では、このような教示音声蓄積段階により、様々な教示音声の認識結果と状況変化の検出結果とが、互いに対応付けられて蓄積部112に蓄積される。
よって、S222において、音声認識部111は、指示音声の音声認識として、これら教示音声の認識結果から取得された語句を待ち受け語として利用した孤立単語認識を実行してもよい。例えば、「ニュースつけた」「ボリューム上げた」等の教示音声の認識結果から一部の語句を取得した「ニュース」「ボリューム」や、「録画」「再生」等の教示音声の認識結果から全部の語句を取得した「録画」「再生」等が、孤立単語認識用の待ち受け語として利用される。
これにより、S222では、指示音声の認識結果とこれら教示音声の認識結果とが照合され、指示音声の認識結果とこれら教示音声の認識結果とが対応しているか否かが判断される。例えば、指示音声「ニュースつけて」の認識結果には語句「ニュース」が含まれ、指示音声「ニュースつけて」の認識結果は教示音声「ニュースつけた」の認識結果と対応しているとの照合結果が得られる。そして、S223では、当該照合結果に基づいて、<SetNewsCh>というコマンド、即ち、ニュースチャンネルへの切り替えという機器操作が選択される。そして、S224では、テレビ201がつけられて、チャンネルがニュースチャンネルに切り替えられる。以下、第1実施例のS125からS127と同様の処理が実行される。
上述のように、第1実施例のS122では、蓄積部112に蓄積されている語句を利用した孤立単語認識が実行される。一方、第2実施例のS222では、蓄積部112に蓄積されている教示音声の認識結果から取得された語句を利用した孤立単語認識を実行可能である。即ち、第2実施例では、教示音声の認識結果から取得された語句を孤立単語認識用の語句とする事で、第1実施例の操作履歴蓄積処理及び操作履歴活用処理を実現する事ができる。第1実施例では、孤立単語認識用の語句は、第2実施例のようにして取得されて蓄積部112に蓄積された語句でもよいし、インタフェース装置101の製造者が蓄積部112に蓄積させた語句でもよいし、インタフェース装置101の利用者が蓄積部112に蓄積させた語句でもよい。
なお、教示音声の認識結果から語句を取得する処理については、様々な方法で自動化可能である。例えば、同じ状況変化の検出結果についての複数の教示音声の認識結果を参照し、最も登場頻度の高い語句を取得するという方法が考えられる。例えば、ニュースチャンネルへの切り替えという状況変化について、「ニュースつけた」「ニュース選んだ」「ニュースチャンネルに変えた」という3つの教示音声が得られている場合、語句「ニュース」が取得される。なお、語句同士の区切りについては、形態素解析により解析可能である。
続いて、操作履歴活用段階では、第1実施例のS131からS134と同様の処理が実行される。S134において、発話部125は、音声化して発話する語句を、蓄積部112に蓄積されている教示音声の認識結果から取得された語句の中から検索し、検索された語句を音声化して発話する。ここでは、「ニュース」「ボリューム」「録画」「再生」等の語句の中から、機器操作「ニュースチャンネルへの切り替え」に対応する語句「ニュース」が当該検索によって取得される。そして、発話部125は、当該検索によって取得された語句「ニュース」を音声化して発話する。なお、発話部125は、当該語句だけを発話するのではなく、当該語句に他の語句を補って発話してもよい。例えば、「ニュースつけた」といった具合である。
本実施例では、蓄積部112に蓄積されている教示音声の認識結果から取得された語句が、指示音声の音声認識の際に孤立単語認識用の待ち受け語となる。従って、本実施例では、ユーザ301は、音声化されて発話された語句「ニュース」を指示音声として発する事で、インタフェース装置101にニュースチャンネルへの切り替えを実行させる事ができる。即ち、発話部125による発話には、ニュースチャンネルへの切り替え用の音声指示語「ニュース」をユーザ301に提示する効果がある。
このように、本実施例では、音声指示語を、教示音声の認識結果から取得する事が可能である。従って、予め登録する事の難しい、ユーザ特有の言い回しやテレビ番組の略名等を、音声指示語とする事ができる。本実施例では、これらの音声指示語は、発話部125の発話語でもある。従って、これらの音声指示語の発話により、ユーザ301に、所定の状況で行っていた所定の行動を、ユーザ特有の言い回しやテレビ番組の略名等の個性的な音声指示語で思い出させる事ができる。
(第3実施例)
図7は、第3実施例のインタフェース装置101の構成図である。図8は、第3実施例のインタフェース装置101の動作を説明するための説明図である。第3実施例は、第1実施例の変形例であり、第3実施例については、第1実施例との相違点を中心に説明する事にする。
上記インタフェース装置101の動作段階には、機器201の操作履歴を蓄積する操作履歴蓄積段階と、機器201の操作履歴を活用する操作履歴活用段階とが存在する。操作履歴蓄積段階では、第1実施例のS111からS114又はS121からS127と同様の処理が実行され、操作履歴活用段階では、第1実施例のS131からS134と同様の処理が実行される。
第1実施例のS134では、発話部125は、機器操作「ニュースチャンネルへの切り替え」に対応する語句「ニュース」を音声化して発話した。第3実施例のS134では、発話部125は、図8のように、ユーザ301への問い掛けの形で当該語句を発話する。即ち、発話部125は、「ニュース?」と発話する。なお、発話部125は、当該語句だけを発話するのではなく、当該語句に他の語句を補って発話してもよい。例えば、「ニュースつける?」「ニュース観る?」といった具合である。
このように、発話部125は、ユーザ301が問い掛けに対して肯定か否定かで答えられるような形で、上記語句を発話する。ユーザ301は、ニュースチャンネルを観たければ「はい」と肯定形で答えればよいし、ニュースチャンネルを観たくなければ「いいえ」と否定形で答えればよい。
音声認識部111は、上記問い掛けから一定時間内は、肯定形の待ち受け語(肯定語)と否定形の待ち受け語(否定語)を待ち受け語として、上記問い掛けに対する待ち受けを行う。肯定語の例としては「はい」、否定語の例としては「いいえ」が挙げられる。肯定語の例としては他にも、「うん」「そう」等が挙げられる。また、問い掛けが「ニュースつける?」「ニュース観る?」である場合には、「つける」「観る」等も肯定形の待ち受け語となり、「つけない」「観ない」等も否定形の待ち受け語となる。また、問い掛けが「ニュース?」である場合には、「ニュース」も肯定形の待ち受け語となる。
以上のように、本実施例では、発話部125は、ユーザ301への問い掛けの形で上記語句を発話する。これにより、ユーザ301が音声指示を行いやすい状況が作り出されることになる。インタフェース装置101からの問い掛けにユーザ301が答えるという、人間同士が会話するような状況が生まれるからである。
また、本実施例では、発話部125は、ユーザ301が問い掛けに対して肯定か否定かで答えられるような形で、上記語句を発話する。これにより、音声認識部111は、問い掛けに対する待ち受け(孤立単語認識)において、待ち受け語を数少ない語彙に限定することができる。待ち受け語を、肯定語と否定語に限定できるからである。これによって、待ち受けに関する音声認識処理の処理負担が軽減される。
(第4実施例)
第1実施例では、機器201又は機器周辺201の状況の状況変化又は状況継続を検出するためのセンサ501の例として、ドアセンサを取り上げた。センサ501等によって検出可能な状況変化又は状況継続の例としては、他にも、電灯のON/OFF、洗濯機の稼動状態、風呂給湯器の状態、視聴しているテレビ番組タイトル、機器周辺にいるユーザのユーザ名等が挙げられる。
電灯のON/OFF、洗濯機の稼動状態、風呂給湯器の状態については、これらの機器がネットワークに接続されていれば、ネットワーク経由で取得可能である。また、電灯のON/OFFについては、照度センサの変化によって取得する事も可能である。視聴しているテレビ番組タイトルは、例えば、電子番組表(EPG)と、現在視聴中のチャンネルのチャンネル番号と、現在時刻から抽出可能である。ユーザ名については、機器の周辺にカメラを設置しておき、カメラを利用した顔認識技術によりユーザの顔を認識し、ユーザの顔の認識結果からユーザ名を割り出す事で獲得可能である。
これら状況変化や状況継続の検出結果は、図9のように、機器操作の検出結果と対応付けられて操作履歴蓄積部123に蓄積される。図9は、第4実施例の操作履歴蓄積部123の蓄積データの例を表す。
図10は、第4実施例のインタフェース装置101の動作を説明するための図である。
ある日の朝、洗濯機がONになってから、カメラによってユーザ1(お母さん)の顔が認識されたとする。この際、インタフェース装置101は、ユーザ1が毎朝視聴しているテレビ番組がドラマ「AAA」であることを参酌して、「AAA観る?」と発話することができる。これに応じて、ユーザ1が肯定的な回答をした場合、インタフェース装置101は、テレビをつけて、チャンネルをそのドラマのチャンネルに切り替える事ができる。
これは、ユーザ1がそのドラマが始まるのを忘れていた場合には、リマインダとしての効果を持つ。さらに、ユーザ1が毎回そのドラマを見る確率が高い場合には、インタフェース装置101は、ユーザ1に聞かず、「AAA、AAA」と発話しつつ、自発的にテレビをつけて、チャンネルをそのドラマのチャンネルに切り替えてもよい。
また、ある日の夕方、テレビのある部屋の電灯がついて、カメラによってユーザ2(子供)の顔が認識されたとする。この際、インタフェース装置101は、インタフェース装置101は、ユーザ2が夕方いつも視聴しているテレビ番組がアニメ「BBB」であることを参酌して、「BBB観る?」と発話することができる。これに応じて、ユーザ2が肯定的な回答をした場合、インタフェース装置101は、テレビをつけて、チャンネルをそのアニメのチャンネルに切り替える事ができる。
また、いつも夜9時頃に家に帰り、その後すぐに風呂に入るユーザがいる場合を想定する。この場合、インタフェース装置101は、その時刻近辺に玄関のドアセンサが反応したら、「風呂?、風呂?」と発話する。これに応じて、ユーザが肯定的な回答をした場合、インタフェース装置101は、風呂給湯器を操作する事ができる。
また、いつも夜寝る前(12時頃)に、テレビを消してから部屋の明かりを消して寝るユーザがいる場合を想定する。この場合、インタフェース装置101は、その時刻近辺にテレビが消されたら、「部屋の明かり?部屋の明かり?」と発話する。これに応じて、ユーザが肯定的な回答をした場合、インタフェース装置101は、部屋の明かりを操作する事ができる。
なお、第1乃至第4実施例のインタフェース装置101により実行される処理は、例えばコンピュータプログラム(インタフェース処理プログラム)により実現可能である。当該プログラム601は例えば、図11に示すように、インタフェース装置101内のストレージ611に格納されており、インタフェース装置101内のプロセッサ612で実行される。
第1実施例のインタフェース装置の構成図である。 第1実施例のインタフェース装置の動作を説明するための説明図である。 類似度に応じて発話音量を変化させる発話方式についての説明図である。 類似度に応じて発話回数を変化させる発話方式についての説明図である。 第2実施例のインタフェース装置の構成図である。 第2実施例のインタフェース装置の動作を説明するための説明図である。 第3実施例のインタフェース装置の構成図である。 第3実施例のインタフェース装置の動作を説明するための説明図である。 第4実施例の操作履歴蓄積部の蓄積データの例を表す。 第4実施例のインタフェース装置の動作を説明するための説明図である。 インタフェース処理プログラムについて説明するための図である。
符号の説明
101 インタフェース装置
111 音声認識部
112 蓄積部
113 照合部
114 機器操作部
121 操作検出部
122 状況検出部
123 操作履歴蓄積部
124 操作履歴照合部
125 発話部
131 対応語句検索部
132 対応語句発話部
141 問い掛け部
201 機器
301 ユーザ
401 音声認識手段
501 センサ
601 インタフェース処理プログラム
611 ストレージ
612 プロセッサ

Claims (14)

  1. 機器操作を検出する操作検出部と、
    機器又は機器周辺の状況の状況変化又は状況継続を検出する状況検出部と、
    前記機器操作の検出結果と前記状況変化又は状況継続の検出結果とを対応させて蓄積する操作履歴蓄積部と、
    新たに検出された状況変化又は状況継続の検出結果を、蓄積されている状況変化又は状況継続の検出結果と照合し、新たに検出された状況変化又は状況継続の検出結果に対応する機器操作を選択する操作履歴照合部と、
    選択された機器操作に対応する語句を音声化して発話する発話部とを備えることを特徴とするインタフェース装置。
  2. 前記操作検出部は、ユーザが実行した機器操作、を検出することを特徴とする請求項1に記載のインタフェース装置。
  3. 前記操作検出部は、ユーザからの音声指示に応じて当該インタフェース装置が実行した機器操作、を検出することを特徴とする請求項1に記載のインタフェース装置。
  4. 前記発話部は、前記語句として、選択された機器操作用の音声指示語を発話することを特徴とする請求項3に記載のインタフェース装置。
  5. 前記操作履歴照合部は、新たに検出された状況変化又は状況継続の検出結果と蓄積されている状況変化又は状況継続の検出結果との類似度を数値化し、新たに検出された状況変化又は状況継続の検出結果に対応する機器操作を当該類似度に基づいて選択することを特徴とする請求項1乃至4のいずれか1項に記載のインタフェース装置。
  6. 前記発話部は、前記類似度に応じた方法で前記語句を発話することを特徴とする請求項5に記載のインタフェース装置。
  7. 前記発話部は、前記類似度に応じて前記語句の発話音量又は発話回数を変化させることを特徴とする請求項6に記載のインタフェース装置。
  8. 前記状況検出部により検出された状況変化又は状況継続の意味を、音声でユーザに問い掛ける問い掛け部と、
    問い掛けに応じてユーザが発する教示音声、及び機器操作のためにユーザが発する指示音声について、音声認識を実行する又は音声認識手段に音声認識を実行させる音声認識部と、
    前記教示音声の認識結果と前記状況変化又は状況継続の検出結果とを対応させて蓄積する蓄積部と、
    前記指示音声の認識結果と蓄積されている前記教示音声の認識結果とが照合された照合結果に基づいて、前記指示音声の認識結果に対応する機器操作を選択する照合部と、
    選択された機器操作を実行する機器操作部とを備え、
    前記操作検出部は、前記機器操作部により実行された機器操作を検出し、
    前記発話部は、音声化して発話する語句を、蓄積されている前記教示音声の認識結果から取得された語句の中から検索し、検索された語句を音声化して発話することを特徴とする請求項1乃至7のいずれか1項に記載のインタフェース装置。
  9. 前記音声認識部は、
    前記教示音声について、連続音声認識による音声認識を実行し又は実行させ、
    前記指示音声について、連続音声認識又は孤立単語認識による音声認識を実行する又は実行させることを特徴とする請求項8に記載のインタフェース装置。
  10. 前記発話部は、音声化して発話する語句を、蓄積されている前記教示音声の認識結果から取得された前記孤立単語認識用の待ち受け語の中から検索し、検索された待ち受け語を音声化して発話することを特徴とする請求項9に記載のインタフェース装置。
  11. 前記発話部は、ユーザへの問い掛けの形で前記語句を発話することを特徴とする請求項1乃至10のいずれか1項に記載のインタフェース装置。
  12. 機器操作を検出し、
    機器又は機器周辺の状況の状況変化又は状況継続を検出し、
    前記機器操作の検出結果と前記状況変化又は状況継続の検出結果とを対応させて蓄積し、
    新たに検出された状況変化又は状況継続の検出結果を、蓄積されている状況変化又は状況継続の検出結果と照合し、新たに検出された状況変化又は状況継続の検出結果に対応する機器操作を選択し、
    選択された機器操作に対応する語句を音声化して発話することを特徴とするインタフェース処理方法。
  13. 機器又は機器周辺の状況の状況変化又は状況継続を検出し、
    検出された状況変化又は状況継続の意味を、音声でユーザに問い掛け、
    問い掛けに応じてユーザが発した教示音声について、音声認識を実行し又は音声認識手段に音声認識を実行させ、
    前記教示音声の認識結果と前記状況変化又は状況継続の検出結果とを対応させて蓄積し、
    機器操作のためにユーザが発した指示音声について、音声認識を実行し又は音声認識手段に音声認識を実行させ、
    前記指示音声の認識結果と蓄積されている前記教示音声の認識結果とが照合された照合結果に基づいて、前記指示音声の認識結果に対応する機器操作を選択し、
    選択された機器操作を実行し、
    実行された機器操作を検出し、
    機器又は機器周辺の状況の状況変化又は状況継続を検出し、
    前記機器操作の検出結果と前記状況変化又は状況継続の検出結果とを対応させて蓄積し、
    新たに検出された状況変化又は状況継続の検出結果を、蓄積されている状況変化又は状況継続の検出結果と照合し、新たに検出された状況変化又は状況継続の検出結果に対応する機器操作を選択し、
    選択された機器操作に対応する語句を、蓄積されている前記教示音声の認識結果から取得された語句の中から検索し、検索された語句を音声化して発話することを特徴とするインタフェース処理方法。
  14. 新たに検出された状況変化又は状況継続の検出結果と蓄積されている状況変化又は状況継続の検出結果との照合、及び新たに検出された状況変化又は状況継続の検出結果に対応する機器操作の選択では、
    新たに検出された状況変化又は状況継続の検出結果と蓄積されている状況変化又は状況継続の検出結果との類似度を数値化し、新たに検出された状況変化又は状況継続の検出結果に対応する機器操作を当該類似度に基づいて選択することを特徴とする請求項12又は13に記載のインタフェース処理方法。
JP2007070456A 2007-03-19 2007-03-19 インタフェース装置及びインタフェース処理方法 Pending JP2008233345A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007070456A JP2008233345A (ja) 2007-03-19 2007-03-19 インタフェース装置及びインタフェース処理方法
US12/076,104 US20080235031A1 (en) 2007-03-19 2008-03-13 Interface apparatus, interface processing method, and interface processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007070456A JP2008233345A (ja) 2007-03-19 2007-03-19 インタフェース装置及びインタフェース処理方法

Publications (1)

Publication Number Publication Date
JP2008233345A true JP2008233345A (ja) 2008-10-02

Family

ID=39775648

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007070456A Pending JP2008233345A (ja) 2007-03-19 2007-03-19 インタフェース装置及びインタフェース処理方法

Country Status (2)

Country Link
US (1) US20080235031A1 (ja)
JP (1) JP2008233345A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015087728A (ja) * 2013-11-01 2015-05-07 富士ソフト株式会社 音声認識システムおよび音声認識システムの制御方法
JP2017010516A (ja) * 2015-06-24 2017-01-12 百度在線網絡技術(北京)有限公司 人工知能に基づくヒューマンコンピュータインターアクションの方法、装置及び端末機器
JP2018533064A (ja) * 2015-10-09 2018-11-08 ユウトウ・テクノロジー(ハンジョウ)・カンパニー・リミテッド 迅速な識別方法及び家庭用の知能ロボット
JPWO2017175432A1 (ja) * 2016-04-05 2019-03-22 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
CN113335205A (zh) * 2021-06-09 2021-09-03 东风柳州汽车有限公司 语音唤醒方法、装置、设备及存储介质

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4181590B2 (ja) * 2006-08-30 2008-11-19 株式会社東芝 インタフェース装置及びインタフェース処理方法
US8519820B2 (en) 2008-09-02 2013-08-27 Apple Inc. Systems and methods for saving and restoring scenes in a multimedia system
US9197736B2 (en) 2009-12-31 2015-11-24 Digimarc Corporation Intuitive computing methods and systems
KR20130116107A (ko) * 2012-04-13 2013-10-23 삼성전자주식회사 단말의 원격 제어 방법 및 장치
US9311640B2 (en) 2014-02-11 2016-04-12 Digimarc Corporation Methods and arrangements for smartphone payments and transactions
KR102453603B1 (ko) 2015-11-10 2022-10-12 삼성전자주식회사 전자 장치 및 그 제어 방법
CN106407343B (zh) * 2016-09-06 2019-09-13 首都师范大学 Nba赛事新闻的自动生成方法
JP7070546B2 (ja) * 2017-03-24 2022-05-18 ソニーグループ株式会社 情報処理装置および情報処理方法
US10811009B2 (en) * 2018-06-27 2020-10-20 International Business Machines Corporation Automatic skill routing in conversational computing frameworks
CN112004105B (zh) * 2020-08-19 2022-07-12 上海乐项信息技术有限公司 一种能实施智能互动效果的ai导播助理系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03203797A (ja) * 1989-12-29 1991-09-05 Pioneer Electron Corp 音声リモートコントロール装置
JP2001337687A (ja) * 2000-05-25 2001-12-07 Alpine Electronics Inc 機器音声操作装置
JP2002132292A (ja) * 2000-10-26 2002-05-09 Daisuke Murakami 音声によるホームオートメーションシステム
JP2003111157A (ja) * 2001-09-28 2003-04-11 Toshiba Corp 統合コントローラ、機器制御方法及び機器制御プログラム
JP2003153355A (ja) * 2001-11-13 2003-05-23 Matsushita Electric Ind Co Ltd 音声認識遠隔制御装置
JP2006058936A (ja) * 2004-08-17 2006-03-02 Matsushita Electric Ind Co Ltd 操作支援システムおよび操作支援装置
JP2006137366A (ja) * 2004-11-15 2006-06-01 Honda Motor Co Ltd 車両用機器制御装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4896357A (en) * 1986-04-09 1990-01-23 Tokico Ltd. Industrial playback robot having a teaching mode in which teaching data are given by speech
US6892230B1 (en) * 1999-06-11 2005-05-10 Microsoft Corporation Dynamic self-configuration for ad hoc peer networking using mark-up language formated description messages
JP2002283259A (ja) * 2001-03-27 2002-10-03 Sony Corp ロボット装置のための動作教示装置及び動作教示方法、並びに記憶媒体
JP2003241790A (ja) * 2002-02-13 2003-08-29 Internatl Business Mach Corp <Ibm> 音声コマンド処理システム、コンピュータ装置、音声コマンド処理方法およびプログラム
JP2003255991A (ja) * 2002-03-06 2003-09-10 Sony Corp 対話制御システム、対話制御方法及びロボット装置
KR100493895B1 (ko) * 2003-04-17 2005-06-10 삼성전자주식회사 협업 서비스를 위한 홈 네트워크 시스템 및 방법
GB2409087A (en) * 2003-12-12 2005-06-15 Ibm Computer generated prompting
US7330803B2 (en) * 2005-06-22 2008-02-12 Ametek, Inc. High resolution time interval measurement apparatus and method
JP2007011873A (ja) * 2005-07-01 2007-01-18 Toshiba Corp インタフェース装置およびインタフェース方法
JP4181590B2 (ja) * 2006-08-30 2008-11-19 株式会社東芝 インタフェース装置及びインタフェース処理方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03203797A (ja) * 1989-12-29 1991-09-05 Pioneer Electron Corp 音声リモートコントロール装置
JP2001337687A (ja) * 2000-05-25 2001-12-07 Alpine Electronics Inc 機器音声操作装置
JP2002132292A (ja) * 2000-10-26 2002-05-09 Daisuke Murakami 音声によるホームオートメーションシステム
JP2003111157A (ja) * 2001-09-28 2003-04-11 Toshiba Corp 統合コントローラ、機器制御方法及び機器制御プログラム
JP2003153355A (ja) * 2001-11-13 2003-05-23 Matsushita Electric Ind Co Ltd 音声認識遠隔制御装置
JP2006058936A (ja) * 2004-08-17 2006-03-02 Matsushita Electric Ind Co Ltd 操作支援システムおよび操作支援装置
JP2006137366A (ja) * 2004-11-15 2006-06-01 Honda Motor Co Ltd 車両用機器制御装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015087728A (ja) * 2013-11-01 2015-05-07 富士ソフト株式会社 音声認識システムおよび音声認識システムの制御方法
JP2017010516A (ja) * 2015-06-24 2017-01-12 百度在線網絡技術(北京)有限公司 人工知能に基づくヒューマンコンピュータインターアクションの方法、装置及び端末機器
JP2018533064A (ja) * 2015-10-09 2018-11-08 ユウトウ・テクノロジー(ハンジョウ)・カンパニー・リミテッド 迅速な識別方法及び家庭用の知能ロボット
JPWO2017175432A1 (ja) * 2016-04-05 2019-03-22 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US11016726B2 (en) 2016-04-05 2021-05-25 Sony Corporation Information processing apparatus and information processing method
CN113335205A (zh) * 2021-06-09 2021-09-03 东风柳州汽车有限公司 语音唤醒方法、装置、设备及存储介质
CN113335205B (zh) * 2021-06-09 2022-06-03 东风柳州汽车有限公司 语音唤醒方法、装置、设备及存储介质

Also Published As

Publication number Publication date
US20080235031A1 (en) 2008-09-25

Similar Documents

Publication Publication Date Title
JP2008233345A (ja) インタフェース装置及びインタフェース処理方法
US11270074B2 (en) Information processing apparatus, information processing system, and information processing method, and program
US12033633B1 (en) Ambient device state content display
JP4181590B2 (ja) インタフェース装置及びインタフェース処理方法
CN109343819B (zh) 在语音识别系统中控制显示装置的显示装置和方法
US8719015B2 (en) Dialogue system and method for responding to multimodal input using calculated situation adaptability
US11551684B1 (en) State detection and responses for electronic devices
KR20210142783A (ko) 전자장치, 그 동작방법, 및 복수의 인공지능장치를 포함한 시스템
US11687526B1 (en) Identifying user content
US20150331665A1 (en) Information provision method using voice recognition function and control method for device
KR102411619B1 (ko) 전자 장치 및 그 제어 방법
CN108391149A (zh) 显示设备、控制显示设备的方法、服务器以及控制服务器的方法
KR20190074012A (ko) 복수 화자의 음성 신호 처리 방법 및 그에 따른 전자 장치
JP2001142481A (ja) 音声/ビデオ装置用の制御システム及び音声/ビデオ構成を制御するための統合アクセスシステム
CN110970022B (zh) 一种终端控制方法、装置、设备以及可读介质
US11727085B2 (en) Device, method, and computer program for performing actions on IoT devices
JP2007323233A (ja) 対話ロボットを用いた理由説明サービス処理方法およびその装置,およびそのプログラム
US11587571B2 (en) Electronic apparatus and control method thereof
JPWO2017175442A1 (ja) 情報処理装置、および情報処理方法
US12094454B2 (en) Multimodal intent understanding for automated assistant
KR20230086647A (ko) 외국어 교육용 인공지능 기능을 구비한 사용자 기기 및 외국어 교육 방법
WO2020017165A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
WO2021171820A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
US20220406308A1 (en) Electronic apparatus and method of controlling the same
CN118433458A (zh) 智能机顶盒的控制方法、装置、智能机顶盒及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110412

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110805