JP5473520B2 - 入力装置及びその制御方法 - Google Patents

入力装置及びその制御方法 Download PDF

Info

Publication number
JP5473520B2
JP5473520B2 JP2009232406A JP2009232406A JP5473520B2 JP 5473520 B2 JP5473520 B2 JP 5473520B2 JP 2009232406 A JP2009232406 A JP 2009232406A JP 2009232406 A JP2009232406 A JP 2009232406A JP 5473520 B2 JP5473520 B2 JP 5473520B2
Authority
JP
Japan
Prior art keywords
operation command
information
recognition
recognition rate
external environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009232406A
Other languages
English (en)
Other versions
JP2011081541A (ja
JP2011081541A5 (ja
Inventor
一弘 松林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009232406A priority Critical patent/JP5473520B2/ja
Publication of JP2011081541A publication Critical patent/JP2011081541A/ja
Publication of JP2011081541A5 publication Critical patent/JP2011081541A5/ja
Application granted granted Critical
Publication of JP5473520B2 publication Critical patent/JP5473520B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Position Input By Displaying (AREA)
  • Details Of Television Systems (AREA)

Description

本発明は、ユーザの発する音及びユーザの動きのうち少なくともいずれかを認識して電子機器に対する操作コマンドへ変換する入力装置及び入力装置の制御方法に関する。
近年、ユーザの声やジェスチャ(例えば、手の形や動き)などを認識して電子機器に対する操作コマンドへ変換する技術が提案されている(例えば、特許文献1、非特許文献1参照)。このような技術を用いれば、リモコン、キーボード、タッチパネルなどを用いずに、電子機器を操作することが可能となる。
しかしながら、マイクロホンから入力される音声からユーザの声を認識して操作コマンドへ変換する場合、該入力される音声には、ユーザの声の他に、周囲の雑音(周りの人の声、自動車や電車の騒音、テレビ受信機の出力音声など)も含まれる虞がある。入力される音声にそのような雑音が含まれると、認識(音声認識)に失敗する可能性が高くなる。
また、デジタルカメラから入力される映像からジェスチャを認識して操作コマンドへ変換する場合、周囲の明るさが認識(ジェスチャ認識)に影響してしまう。例えば、暗い場所ではジェスチャ自体を認識することが困難となる。また、暗い場所でジェスチャを認識可能とするために、デジタルカメラの感度を上げると、撮影された映像中のノイズが増すため、認識に失敗する可能性が高くなる。
そのような問題に鑑みた従来技術として、例えば、特許文献2,3がある。
具体的には、特許文献2には、周囲の雑音を含む音声から音声認識が可能か否かを判定し、判定結果を文字列で表示する技術が開示されている。
特許文献3には、複数の特徴量(音声と唇の動きの特徴量)を、それぞれの信頼度(高いか低いか)に応じた重みで合成し、合成された特徴量を用いて認識処理を行う技術が開示されている。
特開昭63−209296号公報 特開平11−352995号公報 特開2006−30447号公報
入江耕太、若村直弘、梅田和昇「ジェスチャ認識を用いたインテリジェントルームの構築 ‐手のジェスチャによる家電製品の操作‐」 第21回日本ロボット学会学術講演会(2003年9月20日〜22日)2J15
ユーザがテレビを視聴していてリモコンが手元にない場合、音声認識に成功する可能性が高ければ音声で操作コマンドを入力する方が早いが、音声認識に成功する可能性が低ければリモコンを取りに行った方が早い。即ち、ユーザは、操作コマンドの入力を音声で行う手間と、リモコンを取りに行く手間とを比較して、操作手段を選択する。ジェスチャ認識についても同様であり、ユーザは、操作コマンドの入力をジェスチャで行う手間と、リモコンを取りに行く手間とを比較して、操作手段を選択する。
しかしながら、上記特許文献2,3に開示の技術では、音声認識やジェスチャ認識などに成功する可能性(操作コマンドの認識に成功する可能性)がユーザに通知されないため
、ユーザは上述したような比較をすることができない。
そこで、本発明は、ユーザに対し操作コマンドの認識に成功する可能性を知らせることのできる入力装置及び入力装置の制御方法を提供することを目的とする。
本発明の入力装置は、電子機器に接続又は内蔵される入力装置であって、ユーザの発する音及びユーザの動きのうち少なくともいずれかを認識して前記電子機器に対する操作コマンドへ変換し、消費電力の異なる複数の動作モードを有し、動作モードごとに操作コマンドの認識率が異なる入力装置において、操作コマンドの認識率に影響を与える、前記入力装置の現在の外部環境に関する情報を取得する第1の取得手段と、外部環境と操作コマンドの認識率との対応関係に関する情報と、動作モードと操作コマンドの認識率との対応関係に関する情報と、を記憶している記憶手段と、前記第1の取得手段により取得された情報と前記記憶手段に記憶されている情報と、現在の動作モードと、に基づいて、現在の外部環境における操作コマンドの認識率を取得する第2の取得手段と、前記第2の取得手段で取得された認識率に関する情報を表示部に表示する表示手段と、を有する。
また、本発明の入力装置は、電子機器に接続又は内蔵される入力装置であって、ユーザの発する音及びユーザの動きのうち少なくともいずれかを認識して前記電子機器に対する操作コマンドへ変換する入力装置において、操作コマンドの認識率に影響を与える、前記入力装置の現在の外部環境に関する情報を取得する第1の取得手段と、ユーザの位置を判定する判定手段と、外部環境と操作コマンドの認識率との対応関係に関する情報と、ユーザの位置と操作コマンドの認識率との対応関係に関する情報と、を記憶している記憶手段と、前記第1の取得手段により取得された情報と、前記記憶手段に記憶されている情報と、前記判定手段により判定された現在のユーザの位置と、に基づいて、現在の外部環境における操作コマンドの認識率を取得する第2の取得手段と、前記第2の取得手段で取得された認識率に関する情報を表示部に表示する表示手段と、を有する。
また、本発明の入力装置は、電子機器に接続又は内蔵される入力装置であって、ユーザの発する音及びユーザの動きのうち少なくともいずれかを認識して前記電子機器に対する操作コマンドへ変換し、消費電力の異なる複数の動作モードを有し、動作モードごとに操作コマンドの認識率が異なる入力装置において、操作コマンドの認識率に影響を与える、前記入力装置の現在の外部環境に関する情報を取得する第1の取得手段と、ユーザの位置を判定する判定手段と、外部環境と操作コマンドの認識率との対応関係に関する情報と、動作モードと操作コマンドの認識率との対応関係に関する情報と、ユーザの位置と操作コマンドの認識率との対応関係に関する情報と、を記憶している記憶手段と、前記第1の取得手段により取得された情報と、前記記憶手段に記憶されている情報と、現在の動作モードと、前記判定手段により判定された現在のユーザの位置と、に基づいて、現在の外部環境における操作コマンドの認識率を取得する第2の取得手段と、前記第2の取得手段で取得された認識率に関する情報を表示部に表示する表示手段と、を有する。
本発明の入力装置の制御方法は、電子機器に接続又は内蔵される入力装置であって、ユーザの発する音及びユーザの動きのうち少なくともいずれかを認識して前記電子機器に対する操作コマンドへ変換し、消費電力の異なる複数の動作モードを有し、動作モードごとに操作コマンドの認識率が異なる入力装置の制御方法において、操作コマンドの認識率に影響を与える、前記入力装置の現在の外部環境に関する情報を取得する第1の取得ステップと、外部環境と操作コマンドの認識率との対応関係に関する情報と、動作モードと操作
コマンドの認識率との対応関係に関する情報と、を記憶している記憶手段に記憶されている情報と、前記第1の取得ステップで取得された情報と、現在の動作モードと、に基づいて、現在の外部環境における操作コマンドの認識率を取得する第2の取得ステップと、前記第2の取得ステップで取得された認識率に関する情報を表示部に表示する表示ステップと、を有する。
また、本発明の入力装置の制御方法は、電子機器に接続又は内蔵される入力装置であって、ユーザの発する音及びユーザの動きのうち少なくともいずれかを認識して前記電子機器に対する操作コマンドへ変換する入力装置の制御方法において、操作コマンドの認識率に影響を与える、前記入力装置の現在の外部環境に関する情報を取得する第1の取得ステップと、ユーザの位置を判定する判定ステップと、外部環境と操作コマンドの認識率との対応関係に関する情報と、ユーザの位置と操作コマンドの認識率との対応関係に関する情報と、を記憶している記憶手段に記憶されている情報と、前記第1の取得ステップで取得された情報と、前記判定ステップで判定された現在のユーザの位置と、に基づいて、現在の外部環境における操作コマンドの認識率を取得する第2の取得ステップと、前記第2の取得ステップで取得された認識率に関する情報を表示部に表示する表示ステップと、を有する。
また、本発明の入力装置の制御方法は、電子機器に接続又は内蔵される入力装置であって、ユーザの発する音及びユーザの動きのうち少なくともいずれかを認識して前記電子機器に対する操作コマンドへ変換し、消費電力の異なる複数の動作モードを有し、動作モードごとに操作コマンドの認識率が異なる入力装置の制御方法において、操作コマンドの認識率に影響を与える、前記入力装置の現在の外部環境に関する情報を取得する第1の取得ステップと、ユーザの位置を判定する判定ステップと、外部環境と操作コマンドの認識率との対応関係に関する情報と、動作モードと操作コマンドの認識率との対応関係に関する情報と、ユーザの位置と操作コマンドの認識率との対応関係に関する情報と、を記憶している記憶手段に記憶されている情報と、前記第1の取得ステップで取得された情報と、現在の動作モードと、前記判定ステップで判定された現在のユーザの位置と、に基づいて、現在の外部環境における操作コマンドの認識率を取得する第2の取得ステップと、前記第2の取得ステップで取得された認識率に関する情報を表示部に表示する表示ステップと、を有する。
本発明によれば、ユーザに対し操作コマンドの認識に成功する可能性を知らせることのできる入力装置及び入力装置の制御方法を提供することができる。
本実施例に係るテレビ受信機の外観の一例を示す図。 実施例1に係る入力装置の機能構成の一例を示す図。 実施例1に係る入力装置の処理の流れの一例を示す図。 実施例1の認識履歴記憶部に記憶されている情報の一例を示す図。 認識成功率の表示方法の一例を示す図。 認識成功率の表示方法の一例を示す図。 実施例2に係る入力装置の機能構成の一例を示す図。 実施例2の認識履歴記憶部に記憶されている情報の一例を示す図。 認識成功率の表示方法の一例を示す図。
<実施例1>
以下、本発明の実施例1に係る入力装置及びその制御方法について説明する。本発明に係る入力装置は電子機器に接続又は内蔵されるものであり、本実施例では、入力装置を内蔵するテレビ受信機1について説明する(図1)。ユーザは、テレビ受信機1で、例えば、テレビ放送のコンテンツ、ビデオレコーダ、インターネットなどから取得されるコンテンツなどを視聴できる。メインディスプレイ2は、コンテンツの映像を表示し、スピーカ3は、コンテンツの音声を出力する。
また、ユーザは、ユーザの発する音やユーザの動きによって、テレビ受信機1を操作できる(詳細は後述する)。
人感センサ6は、人が現れたり去ったりしたことを検出する。人感センサ6は、例えば、赤外線センサによって構成される。これによって、テレビ受信機1の各デバイスの通電を必要に応じて制御することができ、消費電力を削減することができる。例えば、人(ユーザ)が去ったとき(即ち、ユーザがテレビ受信機1の周囲にいないとき)に各デバイスへの通電を絶つことにより、消費電力を削減することができる。
サブディスプレイ7は、テレビ受信機1に関する情報を必要に応じて表示する。上記情報は、メインディスプレイ2に表示しても構わないが、サブディスプレイ7に表示することでコンテンツの視聴の邪魔にならずに情報を表示することができる。また、電源スタンバイモード(メインディスプレイ2が通電されていない状態)において、サブディスプレイ7に情報を表示することができる。
図2は、本実施例に係る入力装置の機能構成を示すブロック図である。本実施例に係る入力装置は、ユーザの発する音及びユーザの動きのうち少なくともいずれかを認識して電子機器に対する操作コマンドに変換する。本実施例では、ユーザの発する音及びユーザの動きを認識して電子機器に対する操作コマンドに変換する。具体的には、ユーザの発する音としてユーザの声を認識し、ユーザの動きとしてジェスチャ(例えば、ユーザの手の形や動きなど)を認識する。
音声入力部11は、マイクロホン4から入力される音声をデジタル信号(デジタル音声信号)として音声認識部12へ出力する。
映像入力部13は、カメラ5(撮像装置)から入力される映像をデジタル信号(デジタル映像信号)としてジェスチャ認識部14へ出力する。
音声認識部12は、マイクロホン4から入力される音声からユーザの声を認識して操作コマンドに変換する(第1の認識処理;音声認識)。具体的には、音声認識部12は、デジタル音声信号から抽出した特徴データを所定の操作コマンドの特徴データとパターンマッチングすることで、入力される音声からユーザの声を認識して操作コマンドに変換する。例えば、「電源オフ」という声は、電子機器の電源をオフするための操作コマンドに変換される。また、「電源オン」という声は、電子機器の電源をオンするための操作コマンドに変換される。「音量アップ」、「音量ダウン」という声は、それぞれ、電子機器の音量をアップするための操作コマンド、電子機器の音量をダウンするための操作コマンドに変換される。「チャンネルアップ」、「チャンネルダウン」という声は、それぞれ、視聴するチャンネルをアップするための操作コマンド、視聴するチャンネルをダウンするための操作コマンドに変換される。
ジェスチャ認識部14は、カメラ5から入力される映像からジェスチャを認識して操作コマンドに変換する(第2の認識処理;ジェスチャ認識)。具体的には、ジェスチャ認識部14は、デジタル映像信号から抽出した特徴データを所定の操作コマンドの特徴データとパターンマッチングすることで、入力される映像からジェスチャを認識して操作コマンドに変換する。例えば、手を「ぐう」の形にするジェスチャは、電子機器の電源をオフするための操作コマンドに変換される。また、手を「ちょき」の形にするジェスチャは、電子機器の電源をオンするための操作コマンドに変換される。手を「上向き指差し」、「下向き指差し」の形にするジェスチャは、それぞれ、電子機器の音量をアップするための操作コマンド、電子機器の音量をダウンするための操作コマンドに変換される。手を「右向き指差し」、「左向き指差し」の形にするジェスチャは、それぞれ、視聴するチャンネルをアップするための操作コマンド、視聴するチャンネルをダウンするための操作コマンドに変換される。
ユーザの声(ユーザの発する音)を認識する構成においては、例えば、日常の会話の中で操作コマンドに対応する声(言葉)と同じ(または類似する)言葉が発せられた場合に
、その言葉が操作コマンドに誤変換されてしまう虞がある。ユーザの動きを認識する場合においても同様であり、日常の動きの中で操作コマンドに対応する動きと同じ(または類似する)動きが行われた場合に、その動きが操作コマンドに誤変換されてしまう虞がある。これを防ぐためには、入力装置が、自身の状態を、操作コマンド受け付け可能状態か操作コマンド受け付け不可能状態に切り換える機能(制御手段)を有していればよい。本実施例では、ユーザが開始操作を行うことで、後述の操作コマンド実行部15が、入力装置の状態を操作コマンド受け付け可能状態に切り換えるものとする。そして、ユーザの声やジェスチャは、入力装置の状態が操作コマンド受け付け可能状態のときにのみ操作コマンドへ変換される。開始操作は、例えば、「テレビ操作」などの声、「テレビに向かって指差し」などのジェスチャなどである。
なお、開始操作と操作コマンドの入力とは、同じ操作手段によって行われてもよいし、互いに異なる操作手段によって行われてもよい。例えば、開始操作と操作コマンドの入力の両方を音声認識で行ってもよいし、それら両方をジェスチャ認識で行ってもよい。開始操作と操作コマンドの入力の一方を音声認識で行い、他方をジェスチャ認識で行ってもよい。また、開始操作や操作コマンドの入力はリモコンを用いて行われてもよい。
操作コマンド実行部15は、認識された操作コマンドを実行することにより、テレビ受信機1を制御する。
認識結果表示部16は、サブディスプレイ7に認識された操作コマンドを表す文字列やアイコンを表示する。
ユーザは、操作コマンドの実行結果(操作コマンド実行後のテレビ受信機1の状態)や、サブディスプレイ7に表示された情報(認識された操作コマンドを表す文字列やアイコン)により、所望の操作コマンドが正しく実行されたか否かを判断することができる。所望の操作コマンドと異なる操作コマンドが実行されてしまった場合には、ユーザは、取消操作(例えば、「取り消し」などの音声、「手を横に振る」などのジェスチャなど)によって、テレビ受信機1の状態を操作コマンド実行前の状態に戻すことができる。
動作モード切換部17は、入力装置の動作モード(本実施例ではテレビ受信機1の動作モード)を、消費電力の異なる複数の動作モード(通常動作モード、省電力動作モード、電源スタンバイモード)のいずれかの動作モードに切り換える。動作モードは、ユーザ操作によって明示的に切り換えられてもよい。また、人感センサ6の検出結果、経過時間(例えば、所定の操作が行われた時点からの経過時間や所望の動作モードが選択された時点からの経過時間)、及び、時刻などに応じて自動的に切り換えられてもよい。
省電力動作モードでは、一部のセンサ(マイクロホン4やカメラ5)や回路が、低電圧や低動作クロックで動作する。それにより、通常動作モード時に比べ、センサの感度が低くなる(センサで生成される信号のレベルが小さくなったり、信号のサンプリング数が少なくなったりする)。そのため、操作コマンドの認識成功率(音声認識やジェスチャ認識に成功する可能性)が通常動作モード時よりも低くなる。
電源スタンバイモード(映像や音声を出力せず、電源オン操作を待っている状態)では、電源オン操作のみを受け付ける程度に消費電力が抑えられているため、操作コマンドの認識成功率が省電力動作モード時よりも低くなる。
即ち、上記複数の動作モードは、動作モードごとに操作コマンドの認識成功率が異なる。なお、動作モードの種類は3種類より少なくてもよいし、多くてもよい。
外部環境取得部18は、操作コマンドの認識成功率に影響を与える、入力装置の外部環境に関する情報を取得する。音声認識の認識成功率に影響を与える外部環境は、例えば、マイクロホン4から入力される音声の音量などである。ジェスチャ認識の認識成功率に影響を与える外部環境は、例えば、カメラ5で取得される映像の明るさなどである。
認識履歴記憶部19は、外部環境と動作モードの組み合わせごとに、操作コマンドの認識成功率を表す情報を記憶する。本実施例では、操作コマンドの認識成功率を表す情報と
して、操作コマンドの認識の成功及び失敗の履歴(認識成功数および認識失敗数)を記憶する。具体的には、図4に示すように、操作手段(音声認識、ジェスチャ認識)、動作モード、外部環境の組み合わせ毎に、認識成功数と認識失敗数を記憶する。認識成功数は、ユーザの声やジェスチャが正しく認識された回数であり、認識失敗数は、ユーザの声やジェスチャが正しく認識されなかった回数である。
また、本実施例では、操作コマンド実行部15が、操作コマンドの認識の成功及び失敗の履歴を、操作コマンドの認識成功率を表す情報として、外部環境と動作モードの組み合わせ毎に、認識履歴記憶部19に記録する機能(履歴記録手段)を有する。具体的には、操作コマンド実行部15は、認識成功数と認識失敗数を変更する。
認識成功率取得部20は、外部環境取得部18で取得された情報(外部環境に関する情報)、動作モードの情報、及び、認識履歴記憶部19に記憶された情報に基づいて、現在の外部環境と動作モードの組み合わせにおける操作コマンドの認識成功率を取得する。本実施例では、認識成功率取得部20は、認識履歴記憶部19に記録された認識の成功及び失敗の履歴から操作コマンドの認識成功率を算出(取得)する。具体的には、現在の外部環境と動作モードの組み合わせにおける、認識成功数/(認識成功数+認識失敗数)の値が操作コマンドの認識成功率として算出される。
ユーザの声やジェスチャを認識すればするほど、上記式の母数が増え、操作コマンドの認識成功率は或る値に収束する。しかし、母数が小さいうちは、操作コマンドの認識成功率は安定した値とならないため、工場出荷時の初期値として、複数のテストユーザの使用履歴に基づく値を認識履歴記憶部19に予め記憶しておくとよい。
認識成功率レベル表示部21は、認識成功率取得部20で取得された操作コマンドの認識成功率を表示部(サブディスプレイ7)に表示する。
本実施例では、第1の認識処理(音声認識)と第2の認識処理(ジェスチャ認識)のそれぞれについて、個別に、認識成功率を取得し、表示部に表示する。
以下、本実施例に係る入力装置の処理の流れについて、図3のフローチャートを用いて説明する。なお、以下の処理は操作手段(音声認識、ジェスチャ認識)毎に独立して行われる。
まず、認識成功率取得部20が、現在の外部環境に関する情報及び動作モードの情報を取得する(ステップS101)。本実施例では、動作モード切換部17から現在の動作モードの情報を取得するとともに、外部環境取得部18から現在の外部環境に関する情報を取得する。具体的には、動作モードの情報として、通常動作モード、省電力動作モード、電源スタンバイモードのいずれかを表す識別子を取得する。外部環境に関する情報として、マイクロホン4から入力された音声の音量や、カメラ5から入力された映像の明るさに応じた値を取得する。ただし、音量や明るさはリアルタイムに刻々と変化するため、外部環境に関する情報として、ある程度の期間(数秒間〜数分間)における音量や明るさの積分値や平均値を用いるのが好ましい。そして、外部環境に関する情報は、その値に応じて、数段階の値(例えば、図4に示すように、良、中、悪の3段階)に分類される。なお、外部環境に関する情報は2段階の値であってもよいし、4段階以上の値であってもよい。
次に、認識成功率取得部20が、現在の外部環境及び動作モードにおける操作コマンドの認識成功率を算出する(ステップS102)。
そして、認識成功率レベル表示部21が、ステップS102で算出された操作コマンドの認識成功率をサブディスプレイ7に表示する(ステップS103)。操作コマンドの認識成功率は、例えば、図1に示すように、レベルメータで表示(レベル表示)される。
ステップS104においてユーザの発声やジェスチャが行われたと判断されるまで、ステップS101〜S103の処理が繰り返される。なお、動作モードや外部環境が変化すると、ステップS102で算出される操作コマンドの認識成功率は変化し、ステップS103で表示されるレベルメータも変化する。
例えば、音声入力部11は、人間の話し声の周波数帯域の音声が所定値以上の音量で所定時間以上入力されたときに、発声が行われたと判断する。映像入力部13は、入力された映像から人物を抽出し、抽出された人物から手を検出する。そして、さらに手が動いたことが検出されたときに、ジェスチャが行われたと判断する。
ステップS104においてユーザの発声やジェスチャが行われたと判断された場合に、ステップS105へ進む。ステップS105では、音声認識部12やジェスチャ認識部14が、認識処理を行う。具体的には、ステップS104においてユーザの発声が行われたと判断された場合に、音声認識部12が認識処理(音声認識)を行い、ジェスチャが行われたと判断された場合に、ジェスチャ認識部14が認識処理(ジェスチャ認識)を行う。
次に、音声認識部12やジェスチャ認識部14が、入力装置の状態が操作コマンド受け付け可能状態か否かを判定する(ステップS106)。操作コマンド受け付け可能状態でない場合には(ステップS106:NO)、ステップS107へ進み、操作コマンド受け付け可能状態である場合には(ステップS106:YES)、ステップS109へ進む。
ステップS107では、音声認識部12やジェスチャ認識部14が、ステップS105での認識結果が開始操作を示すものか否か判定する。
開始操作を示すものであると判定された場合には(ステップS107:YES)、ステップS108へ進む。ステップS108では、操作コマンド実行部15が、入力装置の状態を操作コマンド受け付け可能状態に切り換える。操作コマンド受け付け可能状態においては、サブディスプレイ7に該状態であることを示す文字列やアイコンが表示される。
開始操作を示すものでないと判定された場合には(ステップS107:NO)、ユーザの行った発声やジェスチャが日常の会話や動きの中で行われたものであるとみなし、何も行わず、ステップS101へ戻る。
なお、本実施例では、操作コマンド受け付け可能状態において、ユーザの発声や動きが行われない時間や操作コマンドの入力、開始操作、取消操作が行われない時間が所定時間以上になった場合には、操作コマンド受け付け可能状態は解除される。
ステップS109,S110では、音声認識部12やジェスチャ認識部14が、ステップS105での認識結果が操作コマンドや取消操作を示すものか否かを判定する。
認識結果が操作コマンドを示すものであると判定された場合には(ステップS110:YES)、操作コマンド実行部15が該操作コマンドを実行する(ステップS111)。また、認識結果表示部16が、サブディスプレイ7に該操作コマンドを表す文字列やアイコンを表示する。
そして、操作コマンド実行部15が、操作コマンドを入力するために利用された操作手段と、現在の外部環境及び動作モードとの組み合わせに対応する認識成功数を1カウントアップし(ステップS112)、ステップS101へ戻る。
認識結果が操作コマンドや取消操作を示すものでないと判定された場合には(ステップS110:NO)、ステップS113へ進む。ステップS113では、操作コマンド実行部15が、利用された操作手段、現在の外部環境、及び、現在の動作モードの組み合わせに対応する認識失敗数を1カウントアップし、ステップS101へ戻る。このような構成にするのは、入力装置の状態が操作コマンド受け付け可能状態である場合に、ユーザの動きや発声はコマンド操作または取消操作を示すものである可能性が高く、そのように認識されないことは、認識に失敗した可能性が高いからである。
認識結果が取消操作を示すものであると判定された場合には(ステップS109:YES)、操作コマンド実行部15が、直前に操作コマンドが実行されたか否かを判定する(ステップS114)。
直前に操作コマンドが実行されていない場合には(ステップS114:NO)、ステッ
プS101へ戻る。なお、この場合には、認識結果が取消操作と誤認識されたものである可能性が高いため、認識失敗数を1カウントアップしてもよい。
直前に操作コマンドが実行されていた場合には(ステップS114:YES)、操作コマンド実行部15が、該直前の操作コマンドの実行を取り消す(ステップS115)。
そして、取り消された操作コマンドを入力するために利用された操作手段と、該操作コマンドの実行時の外部環境及び動作モードとの組み合わせに対応する認識成功数を1カウントダウンする(ステップS116)。即ち、取り消された操作コマンドの実行時に行ったカウントアップを取り消す。
次に、取り消された操作コマンドを入力するために利用された操作手段と、該操作コマンドの実行時の外部環境及び動作モードとの組み合わせに対応する認識失敗数を1カウントアップし(ステップS117)、ステップS101へ戻る。このような構成にするのは、取り消された操作コマンドは誤認識された操作コマンドである可能性が高いからである。
なお、取り消された操作コマンドを入力するために利用された操作手段と取消操作のために利用された操作手段は同じであってもよいし異なっていてもよい。例えば、直前の音声認識による操作コマンドを取り消すための取消操作は、音声認識、ジェスチャ認識、リモコン操作など、どの操作手段による操作であってもよい。認識処理の必要がない操作手段(例えばリモコン操作など)で取消操作を行う場合には、図3の処理は実行されないが、ステップS115〜S117の処理は同様に実行される。
以上の処理を繰り返すことにより、操作手段ごとに、現在の外部環境と動作モードの組み合わせにおける操作コマンドの認識成功率がレベルメータで表示される。それにより、ユーザは、各操作手段(音声認識、ジェスチャ認識)の認識成功率を把握することができ、各操作手段による電子機器の操作の手間を比較することが可能となる。
なお、本実施例では、操作コマンドの認識成功率を算出する構成としたが、操作コマンドの認識成功率は認識履歴記憶部19に予め記憶された固定値であってもよい。それにより、より簡易な構成で上記効果を得ることができる。
また、本実施例では外部環境の他に動作モードをさらに考慮したが、外部環境のみを考慮してもよい。外部環境のみを考慮しても上記効果を得ることができる。
なお、本実施例では認識成功率をレベルメータで表示するものとしたが、認識成功率はどのように表示してもよい。例えば、図5(A)のように数字で表示したり、図5(B)のようにアイコンの図柄(例えば、◎、○、△、×)で表示してもよい。また、ランプなどの色(例えば、青、緑、黄、橙、赤、非点灯)で表示してもよい。具体的には、図6(A)のように、音声認識(第1の認識処理)の認識成功率をランプ8の色、ジェスチャ認識(第2の認識処理)の認識成功率をランプ9の色で表示してもよい。
また、音声認識の認識成功率をマイクロホン4に近接する位置に表示し、ジェスチャ認識の認識成功率をカメラ5に近接する位置に表示してもよい。具体的には、図6(B)に示すように、マイクロホン4付近にランプ8を配置し、カメラ5付近にランプ9を配置してもよい。それにより、操作手段と認識成功率との対応を文字などで表示しなくてもユーザに直感的に理解させやすくすることができる。
なお、本実施例では認識成功率が常に表示される構成としたが、認識成功率レベル表示部21は、入力装置の状態が操作コマンド受け付け可能状態であるときのみ認識成功率を表示してもよい。それにより、ユーザは、操作コマンドの入力を行うとき以外に、コンテンツの視聴に集中することができる。
また、人感センサ6によって、人が現れたり去ったりしたことを検出して、適宜サブディスプレイ7やランプ8、ランプ9の点灯と消灯を切り換えるようにしてもよい。
なお、本実施例では、入力装置を内蔵するテレビ受信機1について説明したが、入力装置は、パーソナルコンピュータ、ハードディスクレコーダ、エアコン、冷蔵庫など、いかなる電子機器に接続または内蔵されてもよい。
なお、本実施例では、ユーザの声及びジェスチャを認識するものとしたが、いずれか一方を認識する構成であってもよいし、他の音や動き(ユーザの発する音やユーザの動き)を認識する構成であってもよい。例えば、ユーザの手叩きの音や、眼、口などの各器官の動きを検出してもよい。
なお、図3のステップS115で取り消される操作コマンドがリモコン操作によるものである可能性があるため、取り消される操作コマンドが音声認識やジェスチャ認識によるものか否かを判定してもよい。取り消された操作コマンドが、音声認識やジェスチャ認識によるものでない(リモコン操作などによるものである)場合には、認識成功数や認識失敗数を変更する必要はない。
<実施例2>
次に、本発明の実施例2に係る入力装置及びその制御方法について説明する。図7は、本実施例に係る入力装置の機能構成を示すブロック図である。本実施例に係る入力装置は、図2の構成のほかに、ユーザ識別部22とユーザ位置判定部23をさらに有する。
ユーザ識別部22は、ユーザを識別する。ユーザは、例えば、カメラ5で撮影した人物の顔を認識することにより識別されてもよいし、マイクロホン4で取得した音声の声紋を解析することにより識別されてもよい。なお、識別されるユーザは1人でもよいし、複数でもよい。
ユーザ位置判定部23は、ユーザの位置を判定する。具体的には、赤外線センサやカメラを用いて、テレビ受信機1からユーザまでの距離や角度を測定する。上記測定に用いる赤外線センサやカメラは、カメラ5や人感センサ6が兼ねてもよいし、別途設けてもよい。
以下、本実施例に係る入力装置の処理の流れについて図3のフローチャートを用いて説明する。基本的な処理の流れは実施例1と同様のため、ここでは実施例1と異なる点について説明する。
ステップS101では、認識成功率取得部20が、現在の外部環境に関する情報、動作モードの情報、ユーザの識別情報、及び、ユーザの位置情報を取得する。具体的には、実施例1と同様に、動作モード切換部17から現在の動作モードの情報を取得するとともに、外部環境取得部18から現在の外部環境に関する情報を取得する。更に、本実施例では、ユーザ識別部22から現在のユーザの識別情報を取得し、ユーザ位置判定部23から現在のユーザの位置情報を取得する。
ステップS102では、認識成功率取得部20が、現在の外部環境、動作モード、ユーザ、及び、ユーザの位置における認識成功率を算出する。本実施例の認識履歴記憶部19には、図8に示すように、操作手段、動作モード、外部環境、ユーザ、ユーザの位置の組み合わせごとに、認識成功数と認識失敗数の値がそれぞれ記憶されている。なお、図8には、ユーザが「A」と「B」の2人の例を示しているが、1人分だけ記憶されていてもよいし、3人以上について記憶されていてもよい。また、図8は、ユーザの位置が「近」と「遠」の2段階に分類される例を示しているが、3段階以上に分類されてもよい。距離と角度の組み合わせによって分類されてもよい。
ステップS103では、認識成功率レベル表示部21が、ステップS102で算出された操作コマンドの認識成功率をサブディスプレイ7に表示する。本実施例では、認識成功率レベル表示部21は、識別されたユーザに対する操作コマンドの認識成功率を表示する
。複数のユーザが識別された場合には、例えば、図9(A)に示すように、ユーザ毎の認識成功率を同時に表示する。ユーザ毎の認識成功率を同時に表示しきれない場合には、図9(B)に示すように、所定時間ごとに表示するユーザ及びそのユーザについての認識成功率を切り換えればよい。
ステップS112,S113,S116,S117においてカウントアップ、カウントダウンの対象となる操作コマンドを入力したユーザは、例えば、以下のように特定される。カウントアップ、カウントダウンの対象となる操作コマンドを入力するために利用された操作手段が音声認識の場合には、声紋の解析や撮影した顔の唇の動きを解析することで特定される。カウントアップ、カウントダウンの対象となる操作コマンドを入力するために利用された操作手段がジェスチャ認識の場合には、ジェスチャを行った人物の顔を認識することで特定される。
以上の処理を繰り返すことにより、操作手段ごとに、現在の外部環境、動作モード、ユーザ、及び、ユーザの位置の組み合わせにおける操作コマンドの認識成功率がレベルメータで表示される。それにより、ユーザは、各操作手段(音声認識、ジェスチャ認識)の認識成功率を把握することができ、各操作手段による電子機器の操作の手間を比較することが可能となる。
なお、本実施例では、実施例1に比べ、ユーザとユーザの位置をさらに考慮したが、ユーザとユーザの位置のいずれか一方をさらに考慮した構成であってもよい。また、外部環境とユーザ、または、外部環境とユーザの位置を考慮した構成であってもよい。また、上慮するパラメータはこれらに限らない。操作コマンドの認識成功率に影響を与えるパラメータであればどのようなパラメータを考慮してもよい。
18 外部環境取得部
19 認識履歴記憶部
20 認識成功率取得部
21 認識成功率レベル表示部

Claims (28)

  1. 電子機器に接続又は内蔵される入力装置であって、ユーザの発する音及びユーザの動きのうち少なくともいずれかを認識して前記電子機器に対する操作コマンドへ変換し、消費電力の異なる複数の動作モードを有し、動作モードごとに操作コマンドの認識率が異なる入力装置において、
    操作コマンドの認識率に影響を与える、前記入力装置の現在の外部環境に関する情報を取得する第1の取得手段と、
    外部環境と操作コマンドの認識率との対応関係に関する情報と、動作モードと操作コマンドの認識率との対応関係に関する情報と、を記憶している記憶手段と、
    前記第1の取得手段により取得された情報と前記記憶手段に記憶されている情報と、現在の動作モードと、に基づいて、現在の外部環境における操作コマンドの認識率を取得する第2の取得手段と、
    前記第2の取得手段で取得された認識率に関する情報を表示部に表示する表示手段と、を有することを特徴とする入力装置。
  2. 電子機器に接続又は内蔵される入力装置であって、ユーザの発する音及びユーザの動きのうち少なくともいずれかを認識して前記電子機器に対する操作コマンドへ変換する入力装置において、
    操作コマンドの認識率に影響を与える、前記入力装置の現在の外部環境に関する情報を取得する第1の取得手段と、
    ユーザの位置を判定する判定手段と、
    外部環境と操作コマンドの認識率との対応関係に関する情報と、ユーザの位置と操作コマンドの認識率との対応関係に関する情報と、を記憶している記憶手段と、
    前記第1の取得手段により取得された情報と前記記憶手段に記憶されている情報と、前記判定手段により判定された現在のユーザの位置と、に基づいて、現在の外部環境における操作コマンドの認識率を取得する第2の取得手段と、
    前記第2の取得手段で取得された認識率に関する情報を表示部に表示する表示手段と、を有することを特徴とする入力装置。
  3. 電子機器に接続又は内蔵される入力装置であって、ユーザの発する音及びユーザの動き
    のうち少なくともいずれかを認識して前記電子機器に対する操作コマンドへ変換し、消費電力の異なる複数の動作モードを有し、動作モードごとに操作コマンドの認識率が異なる入力装置において、
    操作コマンドの認識率に影響を与える、前記入力装置の現在の外部環境に関する情報を取得する第1の取得手段と、
    ユーザの位置を判定する判定手段と、
    外部環境と操作コマンドの認識率との対応関係に関する情報と、動作モードと操作コマンドの認識率との対応関係に関する情報と、ユーザの位置と操作コマンドの認識率との対応関係に関する情報と、を記憶している記憶手段と、
    前記第1の取得手段により取得された情報と前記記憶手段に記憶されている情報と、現在の動作モードと、前記判定手段により判定された現在のユーザの位置と、に基づいて、現在の外部環境における操作コマンドの認識率を取得する第2の取得手段と、
    前記第2の取得手段で取得された認識率に関する情報を表示部に表示する表示手段と、を有することを特徴とする入力装置。
  4. 操作コマンドの認識の成功及び失敗の履歴を、操作コマンドの認識率に関する情報として、外部環境ごとに前記記憶手段に記録する記録手段をさらに有し、
    前記第2の取得手段は、前記記録手段によって前記記憶手段に記録された前記外部環境ごとの履歴のうち、現在の外部環境に対応する履歴から、現在の外部環境における操作コマンドの認識率を算出する
    ことを特徴とする請求項に記載の入力装置。
  5. 操作コマンドの認識の成功及び失敗の履歴を、操作コマンドの認識率に関する情報として、外部環境ごとに前記記憶手段に記録する記録手段をさらに有し、
    前記第2の取得手段は、前記記録手段によって前記記憶手段に記録された前記外部環境ごとの履歴のうち、現在の外部環境に対応する履歴から、現在の外部環境における操作コマンドの認識率を算出する
    ことを特徴とする請求項2又は3に記載の入力装置。
  6. ユーザを識別する識別手段をさらに有し、
    前記記憶手段は、ユーザと操作コマンドの認識率との対応関係に関する情報をさらに記憶しており、
    前記第2の取得手段は、前記識別手段により識別された現在のユーザをさらに考慮して、現在の外部環境における操作コマンドの認識率を取得する
    ことを特徴とする請求項のいずれか1項に記載の入力装置。
  7. 現在のユーザとして複数のユーザが存在する場合に、
    前記第2の取得手段は、現在の外部環境における操作コマンドの認識率として、前記複数のユーザに対応する複数の認識率を取得し、
    前記表示手段は、現在の外部環境における操作コマンドの認識率に関する情報として、前記複数のユーザに対応する複数の情報を前記表示部に表示する
    ことを特徴とする請求項2,3,5または6のいずれか1項に記載の入力装置。
  8. 前記複数のユーザに対応する複数の情報を一度に表示できない場合に、前記表示手段は、当該複数の情報が複数回に分けて前記表示部に表示されるように、所定時間おきに表示する情報を切り換える
    ことを特徴とする請求項7に記載の入力装置。
  9. マイクロホンから入力される音声からユーザの発する音を認識して操作コマンドへ変換する第1の認識処理を行う第1の認識手段と、
    撮像装置から入力される映像からユーザの動きを認識して操作コマンドへ変換する第2の認識処理を行う第2の認識手段と、
    をさらに有し、
    前記第1の認識処理と第2の認識処理のそれぞれについて、個別に、現在の外部環境における操作コマンドの認識率に関する情報が表示される
    ことを特徴とする請求項1〜8のいずれか1項に記載の入力装置。
  10. 前記第1の認識処理の認識率に関する情報は、前記マイクロホンに近接する位置に表示され、
    前記第2の認識処理の認識率に関する情報は、前記撮像装置に近接する位置に表示される
    ことを特徴とする請求項9に記載の入力装置。
  11. 前記入力装置の状態を、操作コマンド受け付け可能状態か操作コマンド受け付け不可能状態に切り換える制御手段をさらに有し、
    前記表示手段は、前記入力装置の状態が前記操作コマンド受け付け可能状態であるときにのみ、現在の外部環境における認識率に関する情報を前記表示部に表示する
    ことを特徴とする請求項1〜10のいずれか1項に記載の入力装置。
  12. マイクロホンから入力される音声からユーザの発する音を認識して操作コマンドへ変換する第1の認識処理を行う第1の認識手段をさらに有し、
    前記第1の認識処理の認識率に影響を与える外部環境に関する情報は、前記マイクロホンから入力される音声の音量である
    ことを特徴とする請求項1〜11のいずれか1項に記載の入力装置。
  13. 撮像装置から入力される映像からユーザの動きを認識して操作コマンドへ変換する第2の認識処理を行う第2の認識手段をさらに有し、
    前記第2の認識処理の認識率に影響を与える外部環境に関する情報は、前記撮像装置から入力される映像の明るさである
    ことを特徴とする請求項1〜12のいずれか1項に記載の入力装置。
  14. 現在の外部環境における操作コマンドの認識率に関する情報は、レベルメータ、数字、アイコンの図柄、及び、ランプの色のいずれかの形式の情報を含む
    ことを特徴とする請求項1〜13のいずれか1項に記載の入力装置。
  15. 電子機器に接続又は内蔵される入力装置であって、ユーザの発する音及びユーザの動きのうち少なくともいずれかを認識して前記電子機器に対する操作コマンドへ変換し、消費電力の異なる複数の動作モードを有し、動作モードごとに操作コマンドの認識率が異なる入力装置の制御方法において、
    操作コマンドの認識率に影響を与える、前記入力装置の現在の外部環境に関する情報を取得する第1の取得ステップと、
    外部環境と操作コマンドの認識率との対応関係に関する情報と、動作モードと操作コマンドの認識率との対応関係に関する情報と、を記憶している記憶手段に記憶されている情報と、前記第1の取得ステップで取得された情報と、現在の動作モードと、に基づいて、現在の外部環境における操作コマンドの認識率を取得する第2の取得ステップと、
    前記第2の取得ステップで取得された認識率に関する情報を表示部に表示する表示ステップと、を有することを特徴とする入力装置の制御方法。
  16. 電子機器に接続又は内蔵される入力装置であって、ユーザの発する音及びユーザの動きのうち少なくともいずれかを認識して前記電子機器に対する操作コマンドへ変換する入力
    装置の制御方法において、
    操作コマンドの認識率に影響を与える、前記入力装置の現在の外部環境に関する情報を取得する第1の取得ステップと、
    ユーザの位置を判定する判定ステップと、
    外部環境と操作コマンドの認識率との対応関係に関する情報と、ユーザの位置と操作コマンドの認識率との対応関係に関する情報と、を記憶している記憶手段に記憶されている情報と、前記第1の取得ステップで取得された情報と、前記判定ステップで判定された現在のユーザの位置と、に基づいて、現在の外部環境における操作コマンドの認識率を取得する第2の取得ステップと、
    前記第2の取得ステップで取得された認識率に関する情報を表示部に表示する表示ステップと、を有することを特徴とする入力装置の制御方法。
  17. 電子機器に接続又は内蔵される入力装置であって、ユーザの発する音及びユーザの動きのうち少なくともいずれかを認識して前記電子機器に対する操作コマンドへ変換し、消費電力の異なる複数の動作モードを有し、動作モードごとに操作コマンドの認識率が異なる入力装置の制御方法において、
    操作コマンドの認識率に影響を与える、前記入力装置の現在の外部環境に関する情報を取得する第1の取得ステップと、
    ユーザの位置を判定する判定ステップと、
    外部環境と操作コマンドの認識率との対応関係に関する情報と、動作モードと操作コマンドの認識率との対応関係に関する情報と、ユーザの位置と操作コマンドの認識率との対応関係に関する情報と、を記憶している記憶手段に記憶されている情報と、前記第1の取得ステップで取得された情報と、現在の動作モードと、前記判定ステップで判定された現在のユーザの位置と、に基づいて、現在の外部環境における操作コマンドの認識率を取得する第2の取得ステップと、
    前記第2の取得ステップで取得された認識率に関する情報を表示部に表示する表示ステップと、を有することを特徴とする入力装置の制御方法。
  18. 操作コマンドの認識の成功及び失敗の履歴を、操作コマンドの認識率に関する情報として、外部環境ごとに前記記憶手段に記録する記録ステップをさらに有し、
    前記第2の取得ステップでは、前記記録ステップによって前記記憶手段に記録された前記外部環境ごとの履歴のうち、現在の外部環境に対応する履歴から、現在の外部環境における操作コマンドの認識率が算出される
    ことを特徴とする請求項15に記載の入力装置の制御方法。
  19. 操作コマンドの認識の成功及び失敗の履歴を、操作コマンドの認識率に関する情報として、外部環境ごとに前記記憶手段に記録する記録ステップをさらに有し、
    前記第2の取得ステップでは、前記記録ステップによって前記記憶手段に記録された前記外部環境ごとの履歴のうち、現在の外部環境に対応する履歴から、現在の外部環境における操作コマンドの認識率が算出される
    ことを特徴とする請求項16又は17に記載の入力装置の制御方法。
  20. ユーザを識別する識別ステップをさらに有し、
    前記記憶手段は、ユーザと操作コマンドの認識率との対応関係に関する情報をさらに記憶しており、
    前記第2の取得ステップでは、前記識別ステップで識別された現在のユーザをさらに考慮して、現在の外部環境における操作コマンドの認識率が取得される
    ことを特徴とする請求項1519のいずれか1項に記載の入力装置の制御方法。
  21. 現在のユーザとして複数のユーザが存在する場合に、
    前記第2の取得ステップでは、現在の外部環境における操作コマンドの認識率として、前記複数のユーザに対応する複数の認識率が取得され、
    前記表示ステップでは、現在の外部環境における操作コマンドの認識率に関する情報として、前記複数のユーザに対応する複数の情報が前記表示部に表示される
    ことを特徴とする請求項16,17,19または20のいずれか1項に記載の入力装置の制御方法。
  22. 前記複数のユーザに対応する複数の情報を一度に表示できない場合に、前記表示ステップでは、当該複数の情報が複数回に分けて前記表示部に表示されるように、所定時間おきに表示する情報が切り換えられる
    ことを特徴とする請求項21に記載の入力装置の制御方法。
  23. マイクロホンから入力される音声からユーザの発する音を認識して操作コマンドへ変換する第1の認識処理を行う第1の認識ステップと、
    撮像装置から入力される映像からユーザの動きを認識して操作コマンドへ変換する第2の認識処理を行う第2の認識ステップと、
    をさらに有し、
    前記第1の認識処理と第2の認識処理のそれぞれについて、個別に、現在の外部環境における操作コマンドの認識率に関する情報が表示される
    ことを特徴とする請求項15〜22のいずれか1項に記載の入力装置の制御方法。
  24. 前記第1の認識処理の認識率に関する情報は、前記マイクロホンに近接する位置に表示され、
    前記第2の認識処理の認識率に関する情報は、前記撮像装置に近接する位置に表示される
    ことを特徴とする請求項23に記載の入力装置の制御方法。
  25. 前記入力装置の状態を、操作コマンド受け付け可能状態か操作コマンド受け付け不可能状態に切り換える制御ステップをさらに有し、
    前記表示ステップでは、前記入力装置の状態が前記操作コマンド受け付け可能状態であるときにのみ、現在の外部環境における認識率に関する情報が前記表示部に表示される
    ことを特徴とする請求項15〜24のいずれか1項に記載の入力装置の制御方法。
  26. マイクロホンから入力される音声からユーザの発する音を認識して操作コマンドへ変換する第1の認識処理を行う第1の認識ステップをさらに有し、
    前記第1の認識処理の認識率に影響を与える外部環境に関する情報は、前記マイクロホンから入力される音声の音量である
    ことを特徴とする請求項15〜25のいずれか1項に記載の入力装置の制御方法。
  27. 撮像装置から入力される映像からユーザの動きを認識して操作コマンドへ変換する第2の認識処理を行う第2の認識ステップをさらに有し、
    前記第2の認識処理の認識率に影響を与える外部環境に関する情報は、前記撮像装置から入力される映像の明るさである
    ことを特徴とする請求項15〜26のいずれか1項に記載の入力装置の制御方法。
  28. 現在の外部環境における操作コマンドの認識率に関する情報は、レベルメータ、数字、アイコンの図柄、及び、ランプの色のいずれかの形式の情報を含む
    ことを特徴とする請求項15〜27のいずれか1項に記載の入力装置の制御方法。
JP2009232406A 2009-10-06 2009-10-06 入力装置及びその制御方法 Expired - Fee Related JP5473520B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009232406A JP5473520B2 (ja) 2009-10-06 2009-10-06 入力装置及びその制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009232406A JP5473520B2 (ja) 2009-10-06 2009-10-06 入力装置及びその制御方法

Publications (3)

Publication Number Publication Date
JP2011081541A JP2011081541A (ja) 2011-04-21
JP2011081541A5 JP2011081541A5 (ja) 2012-11-08
JP5473520B2 true JP5473520B2 (ja) 2014-04-16

Family

ID=44075547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009232406A Expired - Fee Related JP5473520B2 (ja) 2009-10-06 2009-10-06 入力装置及びその制御方法

Country Status (1)

Country Link
JP (1) JP5473520B2 (ja)

Families Citing this family (154)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US20120309363A1 (en) 2011-06-03 2012-12-06 Apple Inc. Triggering notifications associated with tasks items that represent tasks to perform
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
WO2013022218A2 (en) * 2011-08-05 2013-02-14 Samsung Electronics Co., Ltd. Electronic apparatus and method for providing user interface thereof
US20130033644A1 (en) * 2011-08-05 2013-02-07 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling thereof
EP2555536A1 (en) 2011-08-05 2013-02-06 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
WO2013022221A2 (en) * 2011-08-05 2013-02-14 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
JP2013037454A (ja) * 2011-08-05 2013-02-21 Ikutoku Gakuen 姿勢判定方法、プログラム、装置、システム
KR101228643B1 (ko) * 2011-08-24 2013-01-31 한국과학기술원 움직임 검출 장치 및 방법, 이를 이용한 음향 및 영상 장치
JP2013080015A (ja) * 2011-09-30 2013-05-02 Toshiba Corp 音声認識装置および音声認識方法
US8793136B2 (en) * 2012-02-17 2014-07-29 Lg Electronics Inc. Method and apparatus for smart voice recognition
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
JP2014085954A (ja) 2012-10-25 2014-05-12 Kyocera Corp 携帯端末装置、プログラムおよび入力操作受け付け方法
EP3809407A1 (en) 2013-02-07 2021-04-21 Apple Inc. Voice trigger for a digital assistant
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
KR101922663B1 (ko) 2013-06-09 2018-11-28 애플 인크. 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
CN104735340A (zh) * 2013-12-24 2015-06-24 索尼公司 备用的相机功能控制
WO2015118578A1 (ja) * 2014-02-10 2015-08-13 三菱電機株式会社 マルチモーダル入力装置、端末装置およびマルチモーダル入力装置のタイムアウト制御方法
KR102216048B1 (ko) 2014-05-20 2021-02-15 삼성전자주식회사 음성 명령 인식 장치 및 방법
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) * 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
JP2015194766A (ja) * 2015-06-29 2015-11-05 株式会社東芝 音声認識装置および音声認識方法
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
JP2017120609A (ja) * 2015-12-24 2017-07-06 カシオ計算機株式会社 感情推定装置、感情推定方法及びプログラム
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
US10496705B1 (en) 2018-06-03 2019-12-03 Apple Inc. Accelerated task performance
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
DK201970511A1 (en) 2019-05-31 2021-02-15 Apple Inc Voice identification in digital assistant systems
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
JP7242873B2 (ja) * 2019-09-05 2023-03-20 三菱電機株式会社 音声認識補助装置および音声認識補助方法
WO2021056255A1 (en) 2019-09-25 2021-04-01 Apple Inc. Text detection using global geometry estimators
CN112786036B (zh) * 2019-11-04 2023-08-08 海信视像科技股份有限公司 显示设备与内容显示方法
US11038934B1 (en) 2020-05-11 2021-06-15 Apple Inc. Digital assistant hardware abstraction

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10240291A (ja) * 1996-12-26 1998-09-11 Seiko Epson Corp 音声認識装置における音声入力可能状態報知方法及びその装置
JP2000338991A (ja) * 1999-05-25 2000-12-08 Nec Saitama Ltd 認識率信頼性表示機能付き音声操作電話装置及びその音声認識方法
KR100948600B1 (ko) * 2006-12-04 2010-03-24 한국전자통신연구원 제스처/음성 융합 인식 시스템 및 방법
WO2008069519A1 (en) * 2006-12-04 2008-06-12 Electronics And Telecommunications Research Institute Gesture/speech integrated recognition system and method
JP2009218910A (ja) * 2008-03-11 2009-09-24 Mega Chips Corp 遠隔制御可能機器

Also Published As

Publication number Publication date
JP2011081541A (ja) 2011-04-21

Similar Documents

Publication Publication Date Title
JP5473520B2 (ja) 入力装置及びその制御方法
JP6525496B2 (ja) ディスプレイ装置、ディスプレイ装置を制御する遠隔制御装置、ディスプレイ装置の制御方法、サーバーの制御方法、及び遠隔制御装置の制御方法
JP7425349B2 (ja) 機器制御システム
US6353764B1 (en) Control method
JP6143975B1 (ja) 画像の取り込みを支援するためにハプティックフィードバックを提供するためのシステムおよび方法
WO2017134935A1 (ja) 情報処理装置、情報処理方法、及びプログラム
KR101626159B1 (ko) 사용자 적응형 디스플레이 장치 및 디스플레이 방법
US20180040320A1 (en) Method for controlling speech-recognition text-generation system and method for controlling mobile terminal
WO2017168936A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2009229899A (ja) 音声認識装置および音声認識方法
KR20150112337A (ko) 디스플레이 장치 및 그 사용자 인터랙션 방법
WO2017141530A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JPH11327753A (ja) 制御方法及びプログラム記録媒体
JP2018036902A (ja) 機器操作システム、機器操作方法および機器操作プログラム
US20140152898A1 (en) System and method capable of changing tv programs
JP2004303251A (ja) 制御方法
JP2006048644A (ja) 映像表示装置及び視聴意志判定装置
US11657821B2 (en) Information processing apparatus, information processing system, and information processing method to execute voice response corresponding to a situation of a user
US20190035420A1 (en) Information processing device, information processing method, and program
KR20210155505A (ko) 이동 가능한 전자장치 및 그 제어방법
JP2004289850A (ja) 制御方法、機器制御装置、及びプログラム記録媒体
EP2793105A1 (en) Controlling a user interface of an interactive device
JP2004282770A (ja) 制御方法
JP2014048748A (ja) 制御装置、制御装置の制御方法及び制御プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120926

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120926

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140204

R151 Written notification of patent or utility model registration

Ref document number: 5473520

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees